Троллинг, паника, сострадание. почему интернет заполонили фейки и реально ли им противостоять

Twitter

С марта 2020 года в рамках борьбы с дезинформацией социальная сеть Twitter помечает твиты и медиафайлы с недостоверной информацией специальным знаком, предупреждающим читателей о том, что информация требует дополнительной проверки. Для определения подлинности материалов соцсеть использует собственные технологии или отчеты сторонних партнеров. Twitter снижает вероятность появления ложных публикаций, добавляет к ним ссылки на дополнительные разъяснения, а также предупреждает пользователя о содержимом. Твиты, которые могут повлечь причинение серьезного вреда (угроза физической безопасности людей и групп, риск массового насилия и общественных беспорядков, угроза конфиденциальности и свободе самовыражения) удаляются.

Как выявлять фейки автоматически?

В разработке подобных моделей нет ничего необычного: необходимо собрать данные для обучения (с разметкой их истинности или ложности), определиться с набором атрибутов, выбрать алгоритм обучения, настроить параметры. Как правило, фейковые новости распространяются по сети иначе, чем правдивые, и этот факт можно использовать для обучения модели — добавить в перечень атрибутов сведения о последующей «жизни» новости: репосты, лайки, данные пользователей, которые продвигают новость и т.д.

Поскольку данные представляют собой текст на естественном языке, для превращения его в «фичи» необходимо использовать алгоритмы обработки естественного языка (Natural Language Processing, NLP). Например, можно разбивать текст на n-граммы (последовательности слов или символов длины n) или представлять его как “мешок слов” и искать не последовательности, а просто набор определенных терминов, которые вместе чаще встречаются в фейках, чем в реальных новостях. Интересный подход извлечения признаков основывается на идее связности текста в теории риторических структур: в качестве признаков используются метки фрагментов текста типа «обоснование», «уступка», «детализация», «контраст».

Существуют и более сложные алгоритмы обработки естественного языка, когда смысл текста кодируется точкой в многомерном пространстве – превращается в вектор с 300-500 параметрами. С помощью такого подхода можно сравнивать, например, насколько текст новости соотносится с заголовком или насколько одна новость похожа на другую.

Меры по борьбе могут быть и организационными (правиловыми). Например, на Хабре уже писали, что WhatsApp позволяет теперь пересылать популярные сообщения только одному человеку за один раз. При этом «популярным» WhatsApp считает сообщение, которое отправляется через цепочку 5 и более людей.

Однако надо понимать, что у таких технологий есть и побочные эффекты в виде ложноположительных результатов: иногда заблокированным оказывается и настоящий, не фейковый контент. Увы, это неотъемлемая особенность вероятностных моделей на основе неполной информации, которые не могут дать 100% точности. Чтобы повысить эффективность борьбы — больше блокировать фейки и меньше удалять настоящий контент — нужно прежде всего хорошо поработать над входными данными и затем обеспечить их корректный учет в моделях. Машинное обучение — не волшебный ящик, который сам разберется, где правда. Это мощный инструмент, который требует бережного обращения и внимательной настройки.

Фейковая инфодемия

Covid-2019 — один из главных поводов для информационных манипуляций. Оно и понятно: в кризис у многих людей снижается бдительность и уровень критического мышления. Мы верим во все, что возмущает до глубины души и касается непосредственно нас. Люди склонны передавать то, что вызывает негативные эмоции. Даже стараться не нужно: вокруг так много плохих новостей, что еще одна не вызовет вопросов. Помните байки про тяжелые металлы в вакцине? А про врачей, которые через окно покидали ковидную больницу в Башкортостане?

Страх заставляет пользователей собираться в группы. Толпа нервных людей, заряженных одной идеей, — идеальная почва для создания фейков. Так рождается киберсталкинг. Остается только найти эмоциональную цель для агрессии и направить волну общественного негатива.

Летом этого года в сети разошелся вброс из Волгограда. На фото губернатору якобы делают вакцину через рубашку. Интернет взорвали едкие комментарии, новость опубликовали общественные телеграм-каналы.
Пользователи захейтили власти, обвинив в подделке и показухе. На деле оказалось, что фото прошлогоднее, и на нем губернатору измеряют давление. Но репутация чиновника была подпорчена, поставив пресс-службу региона на уши.

Анатомия фейков

Зеленый свет фейкам в основном дают соцсети. Согласно исследованиям группы «Мониторинга актуального фольклора», на них приходится львиная доля информационных вбросов. «Одноклассники» — 35,5%, «ВКонтакте» — 30,5%, Facebook — 15,6%.

Официальные источники теряют авторитет, хотя именно в них информацию обычно как раз проверяют. А в соцсетях все можно: нет жесткой редакционной политики и тщательной модерации. Тяжело отследить источник новости. Размывается само понятие доверия к источнику. Потому что вы безоговорочно доверяете друзьям, близким, знакомым, которые отправили вам публикацию. Вряд ли вы начнете копаться в шокирующей информации, не будете проверять факты — просто нажмете «репост». Информация распространяется мгновенно, ответственности нет — лучше не придумаешь.

Чтобы фейковая новость о политике и любой публичной личности ушла в «народ», нужно немного. Простой примитивный посыл, благородное негодование, общая проблема. Чем более шокирующая, тем быстрее распространение. Каких целей добивается политический киберсталкинг:

— Эмоциональное давление. Против персоны направляют народный гнев, чтобы испортить репутацию. Нет поддержки электората — нет преимуществ.

— Хайп, комментарии и лайки. Вместе с дискредитацией группы людей создатели фейков растят собственную популярность. Осенью в одной из групп «ВКонтакте» опубликовали пост о ДТП в Ленинградской области с участием сына чиновника. На деле оказалось, что фото сделано на Украине, но к тому времени пост собрал сотни репостов, и он до сих пор не удален в ленте.

— Общественный страх. Чтобы медийной персоне не доверяли, нужно посеять подозрительность. Чувство страха срабатывает безотказно. Люди склонны убеждать других в опасности, в которую свято верят сами.

— Негативный информационный шум. Под напором информации сложно рассуждать спокойно и логически. Вы в первый раз, может, и не поверите в слухи об известном политике. Если прочитаете десять раз, то уже задумаетесь. Люди, которые занимаются преследованием публичных лиц, используют все доступные каналы связи. От бот-комментариев в соцсетях до веерных публикаций в мессенджерах. Массированно и одновременно.

Резюмируем

Не стоит торопиться распространять новости в соцсетях и мессенджерах. Лучше тщательно проанализировать информацию — особенно, если она вызвала негативные эмоции, прочитать об одном и том же событии в разных источниках и только после этого сделать выводы.

Выявлять фейки поможет развитие навыка критического мышления. Умение мыслить, анализировать, любознательность, беспристрастность, стремление решить проблему и не потерять голову — это те черты, которые помогут людям не захлебнуться в ежедневном потоке разной информации, а также правильно её генерировать.

Надеемся, эти кейсы и рекомендации помогут вам не растеряться, научат более осознанно работать с информацией и защитят от лишних стрессов.

Как бороться с фейками

Любая публичная личность рано или поздно сталкивается с негативом. Это неизбежно. Однако фейковый негатив нужно быстро гасить, потому что от него страдает карьера и общественное мнение. Борьба с фейками организуется в три этапа:

1. Превентивный мониторинг

Ежедневное отслеживание новостей поможет удалить фейк быстрее, чем он распространится по интернету. Эту задачу можно легко автоматизировать. Основные площадки для мониторинга — соцсети и мессенджеры, потому что именно там вбросы распространяются быстрее всего. Но и СМИ не рекомендуется сбрасывать со счетов — заказные проплаченные публикации никто не отменял.

2. Факт-чекинг

На фейки нужно реагировать и желательно быстро. СМИ пытаются справиться с этим самостоятельно и придумали собственные методы борьбы. В октябре 2021 года крупнейшие интернет-платформы страны подписали меморандум о маркировке фейкового контента. То есть помечать заведомо недостоверную информацию будут сами площадки. Правда, не сразу, а лишь после обращения пользователей. Контент будет маркирован, опровергнут или удален.

Если фейк обнаружен в соцсетях, нужно самостоятельно собрать доказательную базу. Проверить данные, имена, фотографии, выявить плагиат и отправить претензию в адрес модераторов и администраторов.

3. Нейтрализация

Нейтрализовать фейковые новости проще на первичном этапе, пока они не стали достоянием широкой общественности. Опоздание в один день грозит десятками репостов. В этом случае нужно открывать строку поиска, ввести пару фраз из новости и отследить, куда успел проникнуть фейк. Управление репутацией поможет вытеснить эти ресурсы из зоны видимости.

Затем необходимо потребовать удалить сообщение или опубликовать опровержение. Дать официальный комментарий и привести контраргументы. Официальное опровержение должно быть опубликовано в СМИ. Важный нюанс: если повод был скандальным, опровержение должно быть не менее громогласным, иначе никто его не заметит.

Если заметили в сети персональный фейк, действовать нужно по следующему алгоритму:

— Сделать скриншот вброса.
— Оставить публичный комментарий.
— Обратиться к администрации площадки с требованием удалить негатив.
— В случае отказа обратиться в правоохранительные органы и привлечь источник к ответственности.

Главное — правильно мотивировать администрацию площадок. Если новость рушит репутацию, можно идти в атаку, прикрываясь Уголовным кодексом (статья 128.1. Клевета) и Гражданским кодексом (статья 152 Защита чести, достоинства и деловой репутации).

Кроме того, российские законы трепетно охраняют персональные данные. В марте 2021 года были приняты изменения в информационное законодательство. На размещение персональных данных сайтам нужно спрашивать отдельное разрешение. А если человек потребует удалить эти данные, жалобу обязаны удовлетворить в течение трех дней. Это упрощает борьбу с фейками.

Определяем идеологию

Как уже упоминалось, в академической среде задача обнаружения медиафейков понимается достаточно широко, и к ней относится выявление идеологически окрашенных текстов. Для этого собирается корпус текстов и затем производится его ручная разметка: часть определяется как идеологически нейтральная, другая — как ангажированная. 

Так мы получаем размеченный датасет и можем использовать его для обучения модели. В итоге система должна автоматически классифицировать новые тексты как идеологически окрашенные или нейтральные. 

Под идеологией можно понимать однобокую подачу информации, когда, например, в сообщениях явно или даже агрессивно представлена позиция только одного из участников военного или политического конфликта. 

Сегодня в выявлении подобных текстов наиболее заинтересованы государственные структуры, силовые ведомства, политические институты.

Есть более узкая задача классификации идеологических текстов — их принадлежности к конкретной идеологии (либеральной, консервативной, радикальной и прочим). Для ее решения также берется корпус размеченных текстов, в котором у каждого сообщения определена идеологическая принадлежность.

 

Изображение предоставлено автором

Обученная на этих данных модель должна соотнести новый текст с одним из установленных классов идеологических текстов, или, в других вариантах, — оценить подачу информации как однобокую или субъективную либо выдвинуть гипотезу, что текст сгенерирован ботом.

Помогут ли ИИ и алгоритмы? Опыт соцсетей

В частности, уже более десяти лет по Рунету распространяется фейк про 20 служебных овчарок, которых хотят усыпить где-то в Подмосковье. «Нужна максимальная огласка!!!» — такой надписью обычно сопровождаются подобные посты, и сердобольные россияне с готовностью пересылают это письмо счастья дальше по роутингу, не проверив, живы ли ещё те собачки или уже мирно скончались от старости. Не менее живучи и мифы о «новом правиле, по которому с завтрашнего дня соцсети смогут использовать ваши фото и посты» и декларации пользователей, объявляющих содержимое своей странички своей интеллектуальной собственностью.

Однако в случае с соцсетями удаётся отчасти переложить задачи по выявлению фальсификаций на самих пользователей — возможность пожаловаться на тот или иной материал и привлечь внимание модераторов позволяет сузить область поиска фейков. Порой обходится и без привлечения модераторов — алгоритмы, действующие по ключевым словам, могут самостоятельно помечать те или иные посты как содержащие потенциальную дезинформацию или язык ненависти

Порой обходится и без привлечения модераторов — алгоритмы, действующие по ключевым словам, могут самостоятельно помечать те или иные посты как содержащие потенциальную дезинформацию или язык ненависти.

Китайские компании

Китайские интернет-гиганты (Tencent, Baidu, Zhihu и др.) в целях поддержания социальной стабильности модерируют контент, который считается в Китае политически чувствительным или нежелательным и часто квалифицируется как «слухи». Так, поисковик Baidu использует технологии искусственного интеллекта (машинное обучение, нейросети и пр.). Ежегодно таким образом обрабатывается около 3 млрд жалоб на фейк-ньюс. По данным лаборатории Citizen Lab при Университете Торонто (Канада), специализирующейся на информационном контроле, видеоплатформа YY и популярный мессенджер Wechat (принадлежит корпорации Tencent) в январе – феврале 2020 года заблокировали более 500 ключевых слов и фраз, которые потенциально могли содержаться в фейк-ньюс, в частности словосочетания «неизвестная Уханьская пневмония», «смертоносный вирус» (22 января 2020 года ВОЗ признала вспышку пневмонии в Китае национальной чрезвычайной ситуацией, 11 марта – пандемией).

Последствия фейков и кому они выгодны

Даже если запущенный в качестве шутки фейк кажется авторам безобидным, у многих из них могут быть весьма серьёзные и плачевные последствия. Что уж говорить о фейках злонамеренных.

Иногда дезинформацию сеют вполне конкретные силы с политическими мотивами. В процессе предвыборных кампаний штабы кандидатов активно обрабатывают электорат

Сообщения, которые доносятся до избирателей, не всегда правдивы (не важно — частично или полностью). Фейковые новости вполне способны повлиять на настроения избирателей, спровоцировать их недовольство, снизить явку и уронить рейтинг кандидатов

Западные политики тоже страдают от фейков, которыми сопровождается едва ли не каждая избирательная кампания. Чаще всего муссируются сообщения о состоянии здоровья кандидатов, о их тайных договорённостях и приверженности тем или иным силам, о их семейных скандалах.

Экс-президент США Дональд Трамп даже заявлял что труднее всего ему было работать не с геополитическими противниками, а с американцами, распространявших фейки про его дружбу с Россией и сговоре с Путиным.

«Русский след» в победе Трампа на выборах демократы искали на протяжении всех четырёх лет его работы президентом. Несмотря на отсутствие внятных доказательств, они продолжают это делать и спустя год после его ухода.

В последнее время популярность набрали также фейки, связанные с коронавирусом и вакцинацией от него. С момента начала пандемии Сеть и медиа полнились непроверенной и противоречивой информацией. В результате разобраться, где правда, рядовому пользователю Сети стало очень сложно.

Google

Компания определяет дезинформацию как «преднамеренные попытки обмануть пользователей и ввести их в заблуждение, используя скорость, масштаб и технологии открытого интернета». С целью противодействия фейкам в сервисах Google Search, Google News, Google Ads и YouTube проводится работа по трем направлениям: создание качественного контента, противодействие злоумышленникам и формирование рекомендаций для пользователей. Согласно заявлениям компании, она стремится к полномасштабному использованию алгоритмов ранжирования полезной информации вне зависимости от политических предпочтений авторов постов, но в вопросе правдивости контента полагается на ручную обработку. Google разработала механизмы, предоставляющие поясняющие информационные блоки в поиске и на YouTube, метки Fact Check, ярлыки «Почему я это вижу» и др. Для клиентов, которые размещают в сети политическую рекламу, в 2018 году Google запустил процедуру подтверждения личности. В 2020 году компания расширила эту инициативу для рекламодателей на всех своих платформах (сейчас работает в США, позже будет запущена по всему миру). Алгоритмы поиска YouTube настроены так, что предпочтение отдается официальной информации или проверенным СМИ.

Кто и как борется с фейками в интернете?

Чтобы не попасться на удочку фейкоделов, не лишним оказывается проверка приведённых в той или иной статье фактов — фактчекинг. Минимальный фактчекинг доступен любому человеку, умеющему пользоваться поисковиками и анализировать информацию.

Например, заподозрить фейковую страницу в соцсетях можно, если профиль заполнен частично или не заполнен вовсе, на странице минимум фотографий (которые поиском по картинке нередко приводят на фотосток или к другому пользователю с другим именем), на многих из которых сложно распознать лицо, а на стене преобладают репосты и спам. При этом пользователь может активно писать на страницах других пользователей или сообществ, особенно если речь идёт о неких триггерных темах — политика, пандемия и т. п.

Распознать фейковую информацию подчас сложнее. На определённые сомнения должны наводить громкие завлекающие фразы, никак не связанные с основным содержанием статьи или поста, отсутствие указания и ссылок на первоисточники, скандальность подачи и требования распространения (о других признаках мы рассказываем ниже).

Но иногда для того, чтобы выяснить фейк, приходится прибегать к помощи экспертов — фактчекеров.

Нужны ли законодательные меры против фейков?

Иногда такой юмор тоже может нанести вред. После серии репостов (и дописок к ним) такие заметки превращаются в те самые обычные вредоносные фейки, поскольку оговорки о том, что это шутка, обычно в ходе пересылок утрачиваются.

Но если говорить о законодательном регулировании, то я бы лучше добавил норму об условиях таких публикаций (и репостов) в духе требований к упаковкам сигарет — чтобы на любой картинке или заметке стояло большое уведомление, что информация является заведомо ложной и носит шуточный характер. Тогда сколько ни репости такие картинки или статьи, это уведомление не потеряется. А если потерялось, то первый осознанно удаливший уведомление пусть и несет за это установленную ответственность. В этом случае псевдоновостные сайты нанесут меньше ущерба, зато позволят выпустить пар борцам с режимом и сторонникам теории заговоров. Пусть они лучше делают это там, чем на улицах с оружием и коктейлями Молотова.

Резонный вопрос

Во время подготовки материала, «Вечёрка» провела опрос о знании закона среди жителей Петербурга. В опросе поучаствовало 20 человек и большинство из них о законе слышали впервые.

Часто задаваемые вопросы жителей, мы обсудили с адвокатом Тимуром Харди:

Да, конечно. Репост — осознанное действие и вас могут привлечь, если вы распространили заведомо ложную информацию, которая может ввести людей в заблуждение и нанести вред.

Если на моей странице будет написан фейк 10-летней давности, стоит ли мне опасаться?

Нет, вам опасаться нечего. Уголовная ответственность возможна только за те деяния, которые совершены после вступления закона в силу. Нельзя наказать за действия, которые совершили до этого, пусть даже общественно опасные последствия наступили после. Однако, я рекомендую хорошенько проверить свои страницы, если у вас есть какие-то сомнительные посты, я советую их удалить, либо написать комментарий, что не согласны с содержанием и высказать свое мнение.

Как обезопасить себя от фейков?

Сверяйте информацию с той, что по этой теме публикуют СМИ, которым вы доверяете. Не плодите фейки и не рассылайте непроверенную информацию, даже в WatsApp своим близким. Не верьте жёлтой прессе, которая для привлечения читателей публикует провокационные заголовки.

Как распознать фейк?

Обычно фейки написаны очень эмоциональным языком и неизвестно кем. Особенно их много было с началом пандемии, когда в WatsApp постоянно пересылали фейковые страшилки. В которых по великому секрету родственница мужа соседки, свекровь, которой работает в больнице, сообщает – что «мы все умрём и надо срочно закупаться продуктами».

Все это очень грустно, и такие безобидные, на первый взгляд сообщения могут посеять большую панику.

Поэтому, не верьте непроверенной информации и не распространяйте ее. Обычно в ней речь о том, что власти от нас скрывают «страшные вещи», в сообщениях всегда присутствует призыв к какому-то действию и информация о том, что жизни людей что-то угрожает.

И, в первую очередь, подумайте, откуда информация? Если в сообщении говорится, например, что Минздрав к чему-то призывает, зайдите на сайт Минздрава. Есть там информация о которой говорится в сообщении? Нет? Значит фейк.

Есть ли возможность самому, попытаться остановить распространение фейка?

Приведу один пример, на днях в сети распространили фейк, касающийся призыва, верней НЕ призыва, в армию представителей двух народов. Мне начали писать с просьбой высказать своё мнение как адвоката.

Это был фейк, естественно, я не стал его распространять. Но посчитал своим долгом написать пост в соцсетях, и в нем я опроверг эту информацию, которую уже многие с возмущением распространили.

Мои подписчики, которые со мной много лет, знают, что я не стану публиковать непроверенную информацию и доверяют мне. Знаю, что после моего поста многие удалили этот фейк.

Критическое отношение и информационная грамотность важные навыки для борьбы с недостоверной информацией. Получая и распространяя информацию, лучше потратить пару минут на её проверку, чем выйти за рамки закона.

Александра Савина

А есть что получше?

Есть.

Если понимать борьбу с фейками не только как работу конкретного алгоритма или конкретные действия по отношению к конкретному кусочку текста (или конкретному человеку), то серьезную роль в победе над фейками может сыграть просвещение — распространение правдивой информации: о коронавирусе, о ситуации в стране, о мерах, принимаемых компаниями и правительствами, а также о том, почему именно такие решения были приняты, а не другие.

Лучший инструмент борьбы с фейками — правда. Нужно не бояться публиковать честную статистику и освещать на всех доступных площадках честную информацию, не утаивая и не преувеличивая свои успехи.

Вообще, я уверен, что открытость корпораций и представителей власти, масштабная работа с населением не в позиции сверху вниз, а на равных, и ответы на волнующие людей вопросы понятным человеческим языком могут помочь в борьбе с недостоверной информацией больше, чем совершенствование алгоритмов или любые карательные меры.

Спасибо krinistopen и wordvictor за массу ценных дополнений и замечаний.

Facebook

Facebook начал широкомасштабную кампанию по борьбе с дезинформацией в 2017 году. Соцсеть начала самостоятельно выявлять подозрительные профили, в которых систематически повторялись публикации, содержащие информацию противоправного характера или спам. Реклама таких постов и аккаунтов была запрещена. Для анализа публикаций и профилей были привлечены сторонние компании по проверке информации. В настоящее время Facebook может помечать посты как «ложная информация» и удалять их. Пользователи самостоятельно могут пожаловаться на контент, в частности, блокировать другие аккаунты, отменять подписки на них или скрывать их публикации. При первом выявлении фейка выносится предупреждение, при повторном – блокируется профиль. В апреле 2020 года компания заявила, что она начнет указывать страну, из которой было опубликовано сообщение. В компании считают, что это позволит избежать политической дезинформации, связанной с выборами в США. В 2017 году в преддверии президентских выборов во Франции соцсетью Facebook совместно с крупнейшими французскими СМИ, в том числе AFP, France Televisions, Liberation и Le Monde, был запущен спецпроект для проверки публикаций на соответствие действительности.

WT: Social

В апреле 2017 года основатель Wikipedia Джимми Уэйлс заявил о создании нового проекта, направленного на борьбу с фейковыми новостями, – WikiTribune. Он был открыт в октябре того же года. В WikiTribune публиковались статьи профессиональных журналистов, достоверность фактов в которых проверялась штатными сотрудниками или волонтерами. По задумке этот проект должен был помочь определить наиболее надежные источники информации, а также выявить СМИ, которые злоупотребляют доверием читателей, но в конечном итоге он не смог привлечь большую аудиторию. В 2019 году на основе WikiTribune была создана соцсеть WT: Social. Новый портал предлагает контент к просмотру по новизне публикации, а не по ее популярности. Реклама или проплаченные посты на этом ресурсе отсутствуют. При помощи WT: Social Уэйлс надеется бороться с дезинформацией и манипуляциями мнением интернет-пользователей.

Велик ли ущерб от фейков и нужно ли с ними бороться?

Фейки смущают умы людей, ввергают их в панику и побуждают принимать неверные, а иногда и опасные решения (снова вспомним жителя Аризоны, отравившегося хлорохином для очистки аквариумов). И это касается не только ложных новостей в СМИ — это относится и к другим видам злонамеренного контента, гуляющего по соцсетям: слухам, дезинформации и пропаганде (а она бывает не только правительственная).

У каждого, наверное, есть пара чатов в мессенджерах, где люди делятся новостями, мнениями и ссылками. У меня в одном таком чате собралось несколько ярых оппозиционеров и они постоянно подкидывают какие-то статьи про то, что коронавирус придумали власти предержащие, изолироваться смысла нет, маски носить и руки мыть не надо — будто бы всех нас хотят таким образом приучить к покорности, чипировать и вообще загнать в лагеря. Даже если опасность коронавируса преувеличена и это лишь серьезное ОРВИ вроде гриппа, а не чума 21 века, все меры по борьбе с ним являются разумными — они снижают заболеваемость и негативные исходы не только от коронавируса, но и от других инфекций, которые с приходом коронавируса никуда не исчезли. Если люди будут прислушиваться к подобным безосновательным и вредным призывам, то это обесценит все усилия властей по нормализации ситуации.

Игнорировать фейки нельзя — люди склонны верить не тому, что истинно, а тому, о чем больше говорят. И люди склонны верить плохому больше, чем хорошему — поэтому современная информационная повестка настолько негативна, она вызывает больше эмоций.

Мягкие киберугрозы

Важно, что компьютер не оперирует словами, а может взаимодействовать только с числами, поэтому слово, так или иначе, должно быть переведено в числовой вид. Например, слово превращают в последовательность из 400 чисел, то есть в четырехсотмерный вектор, который будет содержать данные о контексте его употребления: какие слова чаще всего оказываются рядом с ним

Также компьютерные лингвисты используют для определения фальшивых новостей n-граммы — последовательности букв, цифр, знаков из установленного количества (n) элементов. 


Фото: Unsplash

Иногда эффективным оказывается извлечение именованных сущностей, то есть автоматическое выделение из текста наименований физических и юридических лиц, географических мест, торговых марок. Для повышения качества обнаружения прибегают и к анализу эмоциональной окраски текста (негативная, позитивная, нейтральная) и определению его стиля.

Что такое фейк

Начать стоит с того, что комплексного и единого решения пока не разработано, даже больше — нет единого определения фейковой новости. Есть общее, довольно размытое и подчас основанное на интуиции знание, что это такое, но точное разграничение фальшивых новостей и других явлений отсутствует. 

Провести эту границу сложно, так как коммуникация в соцсетях, СМИ, блогах подразумевает сложное поведение авторов и читателей, которое может включать, например, игровые, творческие или ироничные элементы, похожие по отдельным признакам на фейк ньюс.

Когда мы говорим о фейковых новостях, то подразумеваем, что их создатели хотели ввести нас в заблуждение или представили заведомо ложную информацию. Но продвижение в интернете как классических, так и личных брендов неотделимо от попыток выдать желаемое за действительное и казаться, а не быть.


Фото: Unsplash

Автор колонки, комментария и другого формата транслирования личного мнения может заблуждаться сам и тем самым вводить в заблуждение других. Поэтому одна из задач — концептуально разграничить фейк ньюс и другие форматы, например, личные колонки, сторителлинг и рекламу. 

Интересно, что в академической среде в разряд задач выявления фальшивых новостей попадает и определение идеологически окрашенной подачи информации, даже если такая подача касается лишь небольшой части текста. 

То, что нет точного определения, а следовательно, и однозначных признаков фальшивых новостей, затрудняет их обнаружение автоматическими методами. Но направление активно развивается, поскольку это практически единственный рабочий способ противодействия фальшивкам с учетом производимых объемов цифрового контента и механики его распространения. 

Наиболее перспективным для решения этих задач считается использование искусственного интеллекта, в частности, последних достижений компьютерной лингвистики. Это научная дисциплина, предмет которой — создание математических моделей для описания естественных языков, используемых в прикладных областях: 

  • информационном поиске, 
  • машинном переводе, 
  • чат-ботах, 
  • интеллектуальных решениях для обработки данных, 
  • инструментах для обнаружения фальшивых новостей.
Рейтинг
( Пока оценок нет )
Editor
Editor/ автор статьи

Давно интересуюсь темой. Мне нравится писать о том, в чём разбираюсь.

Понравилась статья? Поделиться с друзьями:
Работатека
Добавить комментарий

;-) :| :x :twisted: :smile: :shock: :sad: :roll: :razz: :oops: :o :mrgreen: :lol: :idea: :grin: :evil: :cry: :cool: :arrow: :???: :?: :!: