Авторка – Ольга Юркова
Наприкінці 2024 року дослідники Колумбійського університету підрахували, що під час виборів в багатьох країнах світу було поширено мало відвертих дипфейків, створених штучним інтелектом (ШІ). Натомість у сім разів більше cheap fakes — дешевих примітивних фейків. Отже, роблять вони висновок, політична дезінформація, створена штучним інтелектом (ШІ) не є проблемою. Чи справді усе так оптимістично?
Говоримо про це з Юлією Дукач — кандидаткою соціологічних наук, керівницею досліджень дезінформації в OpenMinds, експерткою з аналізу цифрових даних.
З чим можуть бути пов’язані такі результати дослідження? Чи справді ШІ не чинить великого впливу на інформаційне поле?
Дослідники аналізували невелику вибірку — базу фейків Wired AI Elections Project — і дійшли висновку, що ШІ не є значною загрозою, принаймні меншою, ніж очікували в рік виборів. Хоча методологія прозора, а висновки логічні, досвід підказує, що вони можуть сприяти хибному розумінню проблеми. Бачу кілька структурних проблем ще на етапі постановки гіпотез — їх відтворюють не лише ці дослідники, а й багато моїх знайомих у Європі. Часто дезінформацію розглядають виключно в контексті виборів, вважаючи, що після їх завершення загроза зникає. Але ми в Україні, як ніхто, знаємо, що це не так.
У чому небезпека дезінформації з використанням ШІ поза виборами?
Зазвичай говорять про здатність ШІ створювати реалістичні фейки. Так, поки що ми можемо відрізнити згенерований голос від справжнього, але з часом ця можливість зменшуватиметься, аж поки не зникне. Проте, на мою думку, фейки — не єдина проблема. Рідко хто звертає увагу, що ШІ не просто збільшує обсяг маніпулятивного контенту, а й дозволяє робити його індивідуалізованим і таргетованим на малі соціальні групи. А це робить його значно ефективнішим.
Класичний шлях інформаційного вкиду: береться реальна суспільна проблема, на неї нашаровується додатковий рівень сенсів, вигідний для пропагандистів, після чого поширюється максимальною кількістю каналів. А якщо додати можливості ШІ, то можна не просто створити 2000 акаунтів, які би поширювали одне й те саме відео, проте адаптувати відео кожного з акаунтів для окремих мікрогруп. Наприклад, на дітей загиблих військових або жителів невеликої громади. Це може бути група, яку важко виокремити на рівні кількісних соціологічних досліджень, але відносно легко охопити завдяки алгоритмам соцмереж, на кшталт ТікТоку. І якщо ми створюємо меседжі саме під цю групу, це буде значно ефективніше, ніж коли працюємо з усім населенням. Щоб таргетувати один наратив на максимально велику кількість різних соціальних груп з різними вподобаннями, ШІ треба зовсім небагато ресурсів. У цьому його основна загроза. З одного боку, простота створення великої кількості різного контенту, таргетованого під різні мікрогрупи. А з іншого — окремі платформи, на кшталт ТікТоку, які допомагають з таргетуванням цього контенту саме на представників цих груп.
Чи можна це побачити на практиці у Тіктоці, наприклад?
Зараз ми в OpenMinds працюємо над таким проєктом і сподіваємося незабаром показати масштаби використання цього прийому на великій кількості даних та TikTok-акаунтів. Втім, це можна помітити і неозброєним оком — наприклад, звернувши увагу на акаунти, що працюють із вузькими темами, як-от адвокати, які знімають відео для дружин або партнерок українських військових. Вони пояснюють, як розлучитися в односторонньому порядку через рішення суду, якщо чоловік не дає згоди, подаючи це з позиції втрати ним дієздатності, фінансового утримання з боку дружини або виплати аліментів. А якщо він загине, виплати отримає вона. Разом із нібито корисним правозахисним контентом у максимально емоційній формі нав’язується російський наратив. Ми не можемо одразу встановити зв’язок цього профайла з Росією, але розуміємо, що він працює на її боці.
У NATO StratCom Force був аналітичний звіт про те, наскільки легко ШІ може адаптувати наратив навколо обмеження поставок українського зерна в Європу для різних соціальних груп. Можна створити численні дописи, відео й зображення під ці групи, а алгоритми TikTok або X, ґрунтуючись на їхніх вподобаннях, сприяють поширенню такого контенту. Часто він додатково підсилюється таргетованою рекламою.
Наскільки ця дезінформація впливова і за якими ознаками це можна зараз побачити?
Питання впливу — одне з найскладніших. Коли ефективна кампанія поєднується з реальним контекстом і проблемами, важко визначити, яку саме роль у формуванні наративу, наприклад, про мобілізацію в Україні, відіграла російська дезінформація. Або випадок з театральною постановкою в київській школі, де нібито б’ють представника ТЦК, який обговорювали у соцмережах. Ми не знаємо, чи до цього інциденту призвів російський вплив. Але будь-яке розпалювання ненависті та деструктивних мотивацій працює не на нашу користь. Найяскравіший приклад впливової російської кампанії бачимо на виборах у Румунії. Вона була ефективна аж до спростування результатів та подальших розбирань Європейського Союзу з даними ТікТок.
Важко судити і за кількістю переглядів. Коли я виявила мережу фейкових екаунтів, які поширювали відео проти мобілізації в TikTok, побачила що вони отримали 10 млн переглядів за тиждень. Чи конвертуються ці перегляди в 10 млн прихильників? Ні. Але певна кількість людей, які часто зустрічались з таким контентом, починають вважати його нормалізованим. Що частіше бачать, то легше сприймають це як загальну проблему, яку поділяє велика кількість людей. Питання, на якому етапі люди можуть перейти від думок до дій. І тут включаються більш таргетовані російські атаки, спроби підкупу, підпалів ТЦК — усе це функціонує як єдина система.
На які дослідження щодо ШІ українцям варто звернути увагу?
У багатьох дослідженнях впливу та використання ШІ йдеться про окремі фрагменти нашої реальності. Вони можуть бути дуже цікавими, але швидко застарівати. Наприклад, є якісні дослідження щодо розпізнавання ШІ-контенту різними платформами. В одному з них дослідники цілеспрямовано створювали фейки, що суперечили політикам платформ, популярних у ЄС, і аналізували ефективність алгоритмів модерації. TikTok показав найгірші результати, тоді як Facebook і YouTube виявилися трохи ефективнішими. Але чи будуть ці висновки актуальними за місяць? А за три?
Алгоритми, політики платформ і генеративний ШІ розвиваються надзвичайно динамічно. Тому, якщо це не ваша професійна сфера, варто звертати увагу на ширші, але не менш важливі аспекти. Наприклад, на дослідження WSJ 2021 року про роботу алгоритму TikTok або на технічні можливості виявлення штучно згенерованого контенту. Адже вже зараз неможливо з упевненістю визначити, чи був текст створений ШІ, особливо якщо він короткий, як у X чи Telegram. А з довгими текстами — це лише питання часу, коли ми перестанемо помічати штучність неозброєним оком. Є спеціальні ШI-х’юманайзери, які роблять текст більш живим, промпти для ШІ, які пропонують робити одруки та найпопулярніші помилки. З англійською це вже працює. Українською ШІ-мова поки що виглядає механічною. Але вже набагато краще, аніж була рік тому.
З картинками і з відео ситуація поки краща. Але не варто розраховувати, що це триватиме довго. Наша здатність виявляти ШІ-контент буде зменшуватись з часом, поки не зникне. Тому нам важливо розуміти технології впливів і найслабші місця, які використовують авторитарні режими, коли намагаються просунути свої наративи, інтереси чи кандидатів.
Як вирішити проблему з ШІ-дезінформацією?
Це питання довіри й репутації. Одним із рішень, яке пропонують глобально, є відновлення важливої ролі серйозних медіа. Однак ця ідея поки виглядає надто оптимістично, адже у всьому світі інститут медіа втрачає довіру, зокрема й великі видання з усталеною репутацією. Люди дедалі більше схиляються до блогерів, надаючи перевагу довірі до конкретних осіб, а не інституцій. Це небезпечний шлях, оскільки перевіряти кожного окремого експерта складніше, ніж контролювати дотримання редакціями журналістських стандартів.
Один зі шляхів, який може спрацювати, — удосконалення законодавчої системи за зразком ЄС. Це регламентація роботи глобальних платформ відповідно до вимог щодо протидії втручанням у вибори, фейкам і дезінформації. Він виглядає реалістичнішим, ніж відмова від регуляції, якою йдуть США. Європейський підхід сьогодні — це поєднання контролю з боку держав або наддержавних об’єднань за платформами-поширювачами інформації та елементу якісного споживання контенту. І тут ми знову повертаємося до медіаграмотності та якісних медіа.
А чи є технічні способи цьому протистояти?
Не існує ідеальних алгоритмів модерації, які могли б виявити всі зовнішні маніпуляції, але не зачіпати емоційні дописи звичайних людей. З розвитком штучного інтелекту стає все важче відрізняти реальних користувачів від створених ботів. Якщо раніше боти писали ідентичні тексти і не мали персональної інформації на своїх сторінках, то зараз їх важко відрізнити від реальних людей. Існує радикальна пропозиція зробити всі соціальні мережі персоналізованими, дозволяючи доступ лише тим, хто підтвердив свою особистість. Однак це шлях авторитарних суспільств. Китай частково вирішує проблему дезінформації, контролюючи свій інтернет-простір та не допускаючи зовнішніх гравців. Росія ж розробляє свій так званий “чебурнет”, щоб від’єднатися від глобальної мережі і контролювати все. Це недемократичний шлях, і ми не хочемо жити у такому світі. Тому ми виступаємо за відкриті дані соціальних платформ для досліджень та медіаграмотності, розуміючи, що це менш ефективно, ніж у випадку авторитарних держав. Але ми прагнемо зберегти свої цінності, толерантність і демократію.
Як не стати жертвою дезінформації за допомогою ШІ?
Звертати увагу на те, хто є поширювачем інформації — це вузьке горлечко всіх інфокампаній впливу. Зазвичай в Україні це проросійські сили, актори або анонімні чи маловідомі користувачі і сторінки в різних соцмережах. Запитайте себе, чи знаєте ви цю людину чи організацію, чи можна їм довіряти. Згенеровані фейки, як правило, дуже емоційні. І вже в момент, коли ви переживаєте емоційний сплеск від інформації, яку поширив хтось невідомий, можна за умовчанням не довіряти їй.
В Україні ця культура сумнівів загалом працює непогано, хоча іноді вона грає проти нас, коли ми не довіряємо нікому. Низький рівень довіри до влади — це також її наслідок. Цю культуру нам нав’язувала, зокрема, Росія. Але зважаючи на шкоду і користь, сумніватися в джерелах інформації є корисним, враховуючи величезну кількість фейків, які Росія щодня розповсюджує серед нас.
Якщо сильно зачепило, відкрийте одне з великих національних медіа з гарною репутацією і подивіться, чи писали вони щось на цю тему. Найчастіше ви там не знайдете такої новини, бо вона не містить надійних фактів. Або можете зустріти її зовсім в іншій інтерпретації і зрозуміти, що вам намагались згодувати маніпуляцію.
Не ведіться на штучно згенеровані картинки, які викликають у нас реакцію співчуття або гордості, як «українські військові, у яких день народження, а їх ніхто не привітав». Це – окремий пласт сторінок, про які вже багато написано. Їх поширюють у Тіктоці, Фейсбуці, вайбері, щоб збільшити охоплення сторінок, а потім використати на велику аудиторію з більш конкретними деструктивними впливами.
У дослідженні Колумбійського університету зазначено, що вузьким місцем дезінформації є некритична аудиторія. Якщо ця аудиторія не збільшується, фейки не стануть впливовіші, оскільки відсутній попит на таку інформацію.
Не згодна з цим. Автори вважають, що є обмежена аудиторія, наперед налаштована некритично сприймати певні тези чи фейки. Наприклад, підтримувати певну політичну партію, або заявляти, що треба дружити з Росією, а не допомагати Україні. І що фейки та маніпуляції працюють лише для неї, не сильно впливаючи на решту. Але ця теза працює лише поки ми фокусуємося на конкретних виборах і передвиборчій кампанії.
Насправді же російська активність зі зміни політичних переконань та поляризації суспільства відбувається безперервно. І лише посилюється перед виборами. А тому з часом нарощує свою аудиторію.
Ми в OpenMinds досліджували російську мережу впливу в Німеччині. І там мова йде про десятки маніпулятивних телеграм-каналів, які переважно підтримували AfD (та дискредитували решту партій і кандидатів) та опосередковано чи напряму були пов’язані з Кремлем. Чи можемо припустити, що вони з часом нарощують свою аудиторію та збільшують розміри “бульбашки”? Вочевидь, що так.
Або давайте згадаємо, коли в кінці 2023 року DFRLAb з партнерами виявили найбільшу мережу ботів у ТікТоці — 12 800 акаунтів, які поширювали фейки про корупцію в українському Міноборони тодішнього міністра Резникова і статки його сім’ї. Використовували ШІ для їх створення і поширення італійською, англійською, французькою, іспанською. Це — лише один наратив, одна теза. Уявляєте, які масштаби від нас приховані, яких ми просто не викрили? Сумніваюся, що великі охоплення подібних фейків взагалі не впливають на сприйняття України європейцями або на зниження підтримки правлячої “проукраїнської” партії.
Інформаційне поле наповнене фейками і маніпуляціями. І часто вони не про підтримку конкретної політичної партії, а про певні світоглядні аспекти, які цю підтримку обумовлюють. Наприклад, багато російських вкидів проти українських біженців у Польщі підсилюють польські праворадикальні групи і їхні тези. І це те, що з часом нормалізує дискусію про переривання допомоги України на вищому рівні. І якщо багато європейців живуть в оптимістичній ілюзії, що максимальний можливий вплив — це трохи більше голосів у радикальних проросійських партій, то мені дуже шкода.
Інший яскравий приклад фейку — вкид про так званого «Воху», який розслідувало «Телебачення Торонто», нібито в ЗСУ мобілізували людину з синдромом Дауна. Це дуже гарний приклад «ефективного» використання ШІ — акторська гра і дипфейк, який створив ілюзію людини з цим синдромом, унеможливлюють швидке спростування, і при цьому він дуже добре «залетів» у англомовному Твіттері / X, дискредитуючи українську армію перед нашими партнерами.
Тому ми добре знаємо, що вплив цих фейків набагато вищий, аніж короткочасний вплив на маленьку аудиторію якоїсь радикальної партії перед виборами. Окремий зріз наративів стосується дискредитації західних держав, альянсів, таких як НАТО, проблем екології, коронавірусу, інфляції. Вважати, що все зводиться до виборів — хибний шлях.
Як доносити це до іноземців, що схильні недооцінювати російський вплив?
Люблю давати приклади з дещо інших сфер. Наприклад, візьмемо астрологію і моду на гадання на картах Таро. Якщо ви в ТікТок починаєте дивитись контент ворожок, в якийсь момент натрапите на відео, де буде йти мова про те, чи буде завтра обстріл, чи ні. Восени ми бачили багато відео про те, хто переможе на американських виборах. Зараз роблять розклади на тему, коли в Україні закінчиться війна. Ці відео мають величезне охоплення. Здавалося б, ну окей, люди хочуть таке бачити. А потім бачиш ворожку на Таро, яка україномовна, не має обличчя, використовує фото у вигляді галереї, а не відео реальної людини, і розповідає, що Україна втратить свої території. І все це подається під соусом магічного мислення — мовляв, зірки розповіли. Люблю мати під рукою декілька таких відео і показувати західним колегам на заходах. Це ілюструє, наскільки ми можемо недооцінювати російську дезінформацію, думаючи, що все крутиться навколо політичних заяв. Насправді мова йде про роботу з дуже різними аудиторіями, мовами та символами.
Часто дослідники не знають, що відбувається в бульбашці людей, які послуговуються магічним мисленням, або в окремих релігійних групах. Наприклад, блогерки, що позиціонують себе як «дружини священиків», на своїх Instagram-сторінках поширюють наративи про росіян як «братський народ». А коли ви востаннє виходили зі своєї бульбашки та стикались з подібним контентом?
Найслабша ланка тут — важко довести, що ці люди отримували гроші від Росії за свій контент. Тому головне — не заходити надто далеко, розповідаючи про проросійські голоси в Україні для тих, хто дуже погано розбирається в українському контексті. Про Шарія в двох реченнях важко розказати. Набагато легше справити враження текстом про тисячі російських ботів і згенерований ними контент.
Сфера впливів блогерів поки що обходиться без ШІ?
Стало набагато дешевше створювати якісний відеоконтент. Якщо раніше для публікації якісного відео потрібні були оператор, монтажер, додавання субтитрів тощо, то зараз багато з цих функцій виконують ШІ-агенти. Щоб мати армію не суперпопулярних блогерів, достатньо заплатити акторам і ШІ-агенту, який допоможе обробляти матеріал, робити його віральним і залучати більшу аудиторію за ті самі кошти. Масштабування та здешевлення інфоатак і інфооперацій — це реальність, у якій ми живемо.