Автор – Ольга Юркова

В конце 2024 года исследователи Колумбийского университета подсчитали, что во время выборов во многих странах мира было распространено мало откровенных дипфейков, созданных искусственным интеллектом (ИИ). Тогда как cheap fakes — дешевых примитивных фейков — в семь раз больше. Следовательно, они приходят к выводу, что политическая дезинформация, созданная искусственным интеллектом (ИИ), не является проблемой. Но действительно ли все так оптимистично? 

Говорим об этом с Юлией Дукач — кандидатом социологических наук, руководительницей исследований дезинформации в OpenMinds, экспертом по анализу цифровых данных. 

С чем могут быть связаны подобные результаты исследования? Действительно ли ИИ не оказывает существенного влияния на информационное поле?
Исследователи анализировали небольшую выборку — базу фейков Wired AI Elections Project — и пришли к выводу, что ИИ не является значительной угрозой, или по крайней мере меньшей, чем ожидалось в год выборов. Хотя методология прозрачна, а выводы логичны, опыт подсказывает, что они могут способствовать ложному пониманию проблемы. Вижу несколько структурных проблем еще на этапе постановки гипотез — их воспроизводят не только эти исследователи, но и многие мои знакомые в Европе. Часто дезинформация рассматривается исключительно в контексте выборов, предполагая, что после их завершения угроза исчезает. Но мы в Украине как никто знаем, что это не так.

В чем опасность дезинформации с использованием ИИ вне выборов?
Обычно говорят о способности ИИ создавать реалистичные фейки. Да, пока мы можем отличить сгенерированный голос от настоящего, но со временем эта возможность будет уменьшаться, пока не исчезнет окончательно. Однако, по моему мнению, фейки — не единственная проблема. Редко кто обращает внимание, что ИИ не просто увеличивает объем манипулятивного контента, но и позволяет делать его индивидуализированным и таргетированным на малые социальные группы. А это делает его более эффективным.

Классический путь информационного вброса: берется реальная общественная проблема, на нее наслаивается дополнительный уровень смыслов, выгодный пропагандистам, после чего распространяется максимальным количеством каналов. А если добавить возможности ИИ, то можно не просто создать 2000 аккаунтов, которые распространяли бы одно и то же видео, но и адаптировать видео каждого из аккаунтов для отдельных микрогрупп. К примеру, для детей погибших военных или жителей небольшой общины. Это может быть группа, которую трудно выделить на уровне количественных социологических исследований, но относительно легко охватить благодаря алгоритмам соцсетей, например, TikTok. И если мы создаем месседжи именно под эту группу, это будет гораздо эффективнее, чем когда мы работаем со всем населением. Чтобы таргетировать один нарратив на максимально большое количество разных социальных групп с разными предпочтениями, ИИ нужно совсем немного ресурсов. В этом состоит его основная угроза. С одной стороны, простота создания большого количества различного контента, таргетированного под разные микрогруппы. А с другой — отдельные платформы, такие как TikTok, которые помогают с таргетированием конкретного контента именно на представителей конкретных групп.

Можно ли увидеть это на практике в TikTok, например?

Сейчас мы в OpenMinds работаем над таким проектом и надеемся в скором времени показать масштабы использования этого приема на большом количестве данных и TikTok-аккаунтах. Впрочем, это можно заметить и невооруженным глазом — например, обратив внимание на аккаунты, работающие с узкими темами, например адвокаты, снимающие видео для жен или партнерш украинских военных. Они объясняют, как развестись в одностороннем порядке с помощью решения суда, если мужчина не дает согласия, подавая это с позиции потери им дееспособности, финансового содержания со стороны жены или выплаты алиментов. А если он погибнет, выплаты получит она. Вместе с якобы полезным правозащитным контентом в максимально эмоциональной форме навязывается российский нарратив. Мы не можем установить связь этого профайла с Россией, но понимаем, что он работает на ее стороне. 

У NATO StratCom Force был аналитический отчет о том, насколько легко ИИ может адаптировать нарратив относительно ограничения поставок украинского зерна в Европу для разных социальных групп. Можно создать многочисленные сообщения, видео и изображения под эти группы, а алгоритмы TikTok или X, основываясь на их предпочтениях, способствуют распространению такого контента. Часто он дополнительно усиливается таргетированной рекламой.

Насколько такая дезинформация влиятельна и по каким признакам это можно увидеть сейчас? 

Вопрос влияния – один из самых сложных. Когда эффективная кампания сочетается с реальным контекстом и проблемами, трудно определить, какую роль в формировании нарратива, например, о мобилизации в Украине, сыграла российская дезинформация. Или случай с театральной постановкой в ​​киевской школе, где якобы избивают представителя ТЦК, который обсуждали в соцсетях. Мы не знаем, привело ли к этому инциденту российское влияние. Но любое разжигание ненависти и деструктивных мотиваций работает не в нашу пользу. Самый яркий пример влиятельной российской кампании мы видим на выборах в Румынии. Она была эффективна вплоть до аннулирования результатов и дальнейших разбирательств Европейского Союза с данными TikTok. 
Трудно судить и по количеству просмотров. Когда я обнаружила сеть фейковых аккаунтов, распространявших видео против мобилизации в TikTok, увидела, что они получили 10 млн просмотров в неделю. Конвертируются ли эти просмотры в 10 млн последователей? Нет. Но определенное количество людей, часто встречавшихся с таким контентом, начинают считать его нормализованным. Чем чаще видят, тем легче воспринимают это как общую проблему, которую разделяет большое количество людей. Вопрос, на каком этапе люди могут перейти от мыслей к действиям. В этом случае включаются более таргетированные российские атаки, попытки подкупа, поджогов ТЦК — все это функционирует как единая система.

На какие исследования относительно ИИ украинцам следует обратить внимание?
Во многих исследованиях влияния и использования ИИ речь идет об отдельных фрагментах нашей реальности. Они могут быть очень интересными, но быстро устаревающими. Например, есть качественные исследования по распознаванию ИИ-контента разными платформами. В одном из них исследователи целенаправленно создавали фейки, противоречащие политикам платформ, популярных в ЕС, и анализировали эффективность алгоритмов модерации. TikTok показал наихудшие результаты, в то время как Facebook и YouTube оказались несколько более эффективными. Но будут ли эти выводы актуальны через месяц? А через три?

Алгоритмы, политики платформ и генеративный ИИ развиваются очень динамично. Поэтому, если это не ваша профессиональная сфера, следует обращать внимание на более широкие, но не менее важные аспекты. К примеру, на исследование WSJ 2021 года о работе алгоритма TikTok или на технические возможности обнаружения искусственно сгенерированного контента. Ведь уже сейчас невозможно с уверенностью определить, был ли текст создан ИИ, особенно если он короткий, как у X или Telegram. А с длинными текстами – это только вопрос времени, когда мы перестанем замечать искусственность невооруженным глазом. Есть специальные ИИ-хьюманайзеры, которые делают текст более живым, промпты для ИИ, предлагающие делать опечатки и самые популярные ошибки. С английским это уже работает. Украинский ИИ-язык пока выглядит механическим. Но уже гораздо лучше, чем был год назад.

С картинками и с видео ситуация пока получше. Но не стоит рассчитывать, что это продлится долго. Наша способность обнаруживать ИИ-контент будет уменьшаться со временем, пока не исчезнет. Поэтому нам важно понимать технологии влияний и слабые места, которые используют авторитарные режимы, когда пытаются продвинуть свои нарративы, интересы или кандидатов. 

Как решить проблему с ИИ-дезинформацией? 
Это вопрос доверия и репутации. Одним из решений, предлагаемых глобально, является восстановление важной роли серьезных медиа. Однако эта идея пока выглядит слишком оптимистично, ведь во всем мире институт медиа теряет доверие, в том числе и крупные издания со сложившейся репутацией. Люди все больше склоняются к блогерам, предпочитая доверять конкретным лицам, а не институтам. Это опасный путь, поскольку проверять каждого отдельного эксперта сложнее, чем контролировать соблюдение редакций журналистских стандартов.

Один из способов, который может сработать — усовершенствование законодательной системы по образцу ЕС. Это регламентация работы глобальных платформ в соответствии с требованиями по противодействию вмешательствам в выборы, фейкам и дезинформации. Он выглядит более реалистичным, чем путь отказа от регуляции, по которому следуют США. Европейский подход сегодня – это сочетание контроля со стороны государств или межгосударственных объединений за платформами-распространителями информации и элемента качественного потребления контента. И здесь мы снова возвращаемся к медиаграмотности и качественным медиа.

Есть ли технические способы этому противостоять? 
Нет идеальных алгоритмов модерации, которые могли бы выявить все внешние манипуляции, но не затрагивать эмоциональные сообщения обычных людей. С развитием искусственного интеллекта становится все труднее отличать реальных пользователей от созданных роботов. Если раньше боты писали идентичные тексты и не имели персональной информации на своих страницах, то сейчас их трудно отличить от реальных людей. Существует радикальное предложение сделать все социальные сети персонализированными, позволяя доступ только тем, кто подтвердил свою личность. Однако это путь авторитарных обществ. Китай частично решает проблему дезинформации, контролируя свое интернет-пространство и не допуская внешних игроков. Россия также разрабатывает свой так называемый «чебурнет», чтобы отсоединиться от глобальной сети и контролировать все. Это недемократический путь, и мы не хотим жить в таком мире. Поэтому мы выступаем за открытые данные социальных платформ для исследований и медиаграмотности, понимая, что это менее эффективно, чем авторитарные государства. Но мы стремимся сохранить свои ценности, терпимость и демократию.

Как не стать жертвой дезинформации с помощью ИИ?

Обращать внимание на то, кто является распространителем информации, — это узкое горлышко всех инфокампаний влияния. Обычно в Украине это пророссийские силы, актеры, а также анонимные или малоизвестные пользователи и страницы в разных соцсетях. Спросите себя, знаете ли вы этого человека или организацию, можно ли им доверять. Сгенерированные фейки, как правило, очень эмоциональны. И уже в момент, когда вы переживаете эмоциональный всплеск от распространившейся неизвестной информации, можно по умолчанию не доверять ей.

В Украине эта культура сомнений в целом работает неплохо, хотя иногда она играет против нас, когда мы никому не доверяем. Низкий уровень доверия к власти — это тоже ее следствие. Эту культуру нам навязывала, в частности, Россия. Но ввиду потенциального вреда и пользы, сомневаться в источниках информации полезно, учитывая огромное количество фейков, которые Россия ежедневно распространяет среди нас.

Если информация сильно задела, откройте одно из крупных национальных медиа с хорошей репутацией и посмотрите, писали ли они что-либо на эту тему. Чаще вы там не найдете такой новости, потому что она не содержит надежных фактов. Или можете встретить ее совсем в другой интерпретации и понять, что вам пытались скормить манипуляцию. 

Не ведитесь на искусственно сгенерированные картинки, вызывающие у нас реакцию сострадания или гордости, например об «украинских военных, у которых день рождения, а их никто не поздравил». Это отдельный пласт страниц, о них уже много написано. Их распространяют в TikTok, Facebook, Viber, чтобы увеличить охват страниц, а затем использовать на большую аудиторию с более конкретными деструктивными воздействиями.

В исследовании Колумбийского университета отмечено, что узким местом дезинформации является некритическая аудитория. Если эта аудитория не увеличивается, фейки не станут более влиятельными, поскольку отсутствует спрос на такую ​​информацию.

Не согласна с этим. Авторы считают, что есть некая ограниченная аудитория, заранее настроенная некритически воспринимать определенные тезисы или фейки. К примеру, поддерживать определенную политическую партию или заявлять, что нужно дружить с Россией, а не помогать Украине. И что фейки и манипуляции работают только для нее, не особенно влияя на остальных. Но этот тезис работает только пока мы фокусируемся на конкретных выборах и предвыборной кампании.

На самом же деле российская активность по изменению политических убеждений и поляризации общества происходит непрерывно. И лишь усиливается перед выборами. Поэтому со временем наращивает свою аудиторию.

Мы в OpenMinds изучили российскую сеть влияния в Германии. И там речь идет о десятках манипулятивных телеграм-каналов, которые преимущественно поддерживали AfD (а также дискредитировали остальные партии и кандидатов) и косвенно или напрямую были связаны с Кремлем. Можем ли мы предположить, что они со временем наращивают свою аудиторию и увеличивают размеры «пузыря»? Очевидно, что да.

Или давайте вспомним, как в конце 2023 года DFRLAb с партнерами обнаружили крупнейшую сеть ботов в TikTok — 12 800 аккаунтов, распространявших фейки о коррупции в украинском Минобороны в то время  министра Резникова и благосостояние его семьи. Использовали ИИ для их создания и распространения на итальянском, английском, французском, испанском языках. И это только один нарратив, один тезис. Представляете, какие масштабы от нас скрыты, которые мы просто не разоблачили? Сомневаюсь, что большие охваты подобных фейков вообще не влияют на восприятие Украины европейцами или на снижение поддержки правящей «проукраинской» партии.

Информационное поле заполнено фейками и манипуляциями. И часто они не о поддержке конкретной политической партии, а об определенных мировоззренческих аспектах, которые обуславливают эту поддержку. Например, многие российские вбросы против украинских беженцев в Польше усиливают польские праворадикальные группы и их тезисы. И это то, что со временем нормализует дискуссию о прерывании помощи Украине на высшем уровне. И если многие европейцы живут в оптимистической иллюзии, что максимально возможное влияние — это чуть больше голосов у радикальных пророссийских партий, то мне искренне жаль. 

Другой яркий пример фейка — вброс о так называемом «Вохе», который расследовало «Телевидение Торонто», якобы в ВСУ мобилизовали человека с синдромом Дауна. Это очень хороший пример «эффективного» использования ИИ — актерская игра и дипфейк, создавший иллюзию человека с этим синдромом, делают невозможным быстрое опровержение, и при этом он очень хорошо «залетел» в англоязычном Твиттере/X, дискредитируя украинскую армию перед нашими партнерами.

Поэтому мы хорошо знаем, что влияние этих фейков гораздо выше, чем кратковременное влияние на маленькую аудиторию какой-либо радикальной партии перед выборами. Отдельный срез нарративов касается дискредитации западных государств, альянсов, таких как НАТО, проблем экологии, коронавируса, инфляции. Считать, что все сводится к выборам, — ложный путь.

Как донести это до иностранцев, склонных недооценивать российское влияние?
Люблю приводить примеры из других сфер. Возьмем, например, астрологию и моду на гадания на картах Таро. Если вы в TikTok начинаете смотреть контент гадалок, то в какой-то момент натолкнетесь на видео, в котором речь идет о том, будет ли завтра обстрел или нет. Осенью мы видели много видео о том, кто победит на американских выборах. Сейчас делают расклад по теме, когда в Украине закончится война. Эти видео имеют огромный охват. Казалось бы, ну окей, люди хотят такое видеть. А потом видишь гадалку на Таро — украиноязычную, не имеющую лица, использующую фото в виде галереи, а не видео реального человека — которая рассказывает, что Украина потеряет свои территории. И все это подается под соусом магического мышления — мол, звезды рассказали. Люблю иметь под рукой несколько таких видео и показывать западным коллегам на мероприятиях. Это иллюстрирует, как мы можем недооценивать российскую дезинформацию, думая, что все крутится вокруг политических заявлений. На самом деле речь идет о работе с очень разными аудиториями, языками и символами.

Часто исследователи не знают, что происходит в пузырях людей, прибегающих к магическому мышлению, или в отдельных религиозных группах. Например, блогерши, позиционирующие себя как «жены священников», на своих Instagram-страницах распространяют нарративы о россиянах как о «братском народе». А когда вы последний раз выходили из своего пузыря и сталкивались с подобным контентом?
Самое слабое звено здесь — трудно доказать, что эти люди получали деньги от России за свой контент. Поэтому главное не заходить слишком далеко, рассказывая о пророссийских голосах в Украине для тех, кто очень плохо разбирается в украинском контексте. О Шарие в двух предложениях сложно рассказать. Гораздо легче произвести впечатление текстом о тысячах русских ботов и сгенерированном ими контенте.

Сфера влияний блогеров пока обходится без ИИ?
Стало гораздо дешевле создавать качественный видеоконтент. Если раньше для публикации качественного видео требовались оператор, монтажер, добавление субтитров и т.п., то сейчас многие из этих функций выполняют ИИ-агенты. Чтобы иметь армию не суперпопулярных блогеров, достаточно заплатить актерам и ИИ-агенту, который поможет обрабатывать материал, делать его виральным и привлекать большую аудиторию за те же средства. Масштабирование и удешевление инфоатак и инфоопераций – это реальность, в которой мы живем.