Джерело: Метью Купфер, Тетяна Ворожко, для Голос Америки

Росія використовує штучний інтелект для створення провокаційних діпфейків, спрямованих на українських біженців.

Як показало спільне розслідування Російської та Української служб «Голосу Америки», російські дезінформатори «вкрали» особу української дівчини-підлітка, яка вимушена була переселитися до США.

Відео, про яке йдеться, становить собою телевізійний новинний репортаж про юну біженку з України та її досвід навчання у приватній школі в США. Проте трохи згодом глядач бачить переповнені шкільні коридори, пакети із креком та кокаїном. Закадровий голос, схожий на голос цієї української дівчини, описує жахіття навчання в американських школах, використовуючи расистські стереотипи.

«Я розумію, що досить дорого навчатись у приватній школі, — говорить вона. — Але було б несправедливо, якби моя сім’я змушена була платити за мою безпеку. Нехай це роблять американці».

Ці заяви – фальшивка. Справжня тільки перша частина відео – кадри з підлітком. Закадровий голос, ймовірно, створили за допомогою штучного інтелекту, щоб реалістично скопіювати голос підлітка. Результат цього процесу називається «діпфейком».

Схоже, що це та схожі відео – частина російської інформаційної операції під назвою «Матрьошка», яка наразі скерована на українських біженців.

«Голос Америки» виявив, що кампанія опублікувала в соцмережах X і BlueSky два відео з діпфейками, які зображують українських біженців як корисливих людей, що не відчувають вдячності до США та європейських країн, які надають їм підтримку. Кампанія також поширила діпфейки авторитетних західних журналістів, які стверджують, що не Росія, а Україна поширює брехню.

На думку Antibot4Navalny – акаунту в соцмережі X, який досліджує російські інформаційні операції та широко цитується провідними західними ЗМІ, ці відеоролики відображають найновішу стратегію російської дезінформаційної кампанії «Матрьошка». Росія регулярно заперечує свою причетність до створення та поширення неправдивої інформації. При цьому її готовність спрямувати свої інформаційні операції проти біженців, навіть неповнолітніх, демонструє, як далеко Кремль готовий зайти у спробах зупинити підтримку Заходом України.

Націлювання на жертв

Друге відео, задіяне проти українських біженців, починається з уривка зі справжнього репортажу, в якому українська жінка висловлює подяку за надану Данією підтримку. Після цього у відео звучить ймовірний діпфейк голосу жінки, яка скаржиться, що українські біженці змушені жити у маленьких квартирах і носити поношений одяг.

Обидва відео використали вкрадені кадри зі справжніх сюжетів авторитетних міжнародних ЗМІ. «Голос Америки» не публікує ці відео повністю або частково і не згадує назв видань, щоб не розкривати особи біженців, зображених у діпфейках.

Цей прийом — зміна висловлювань людини під час копіювання її голосу — новий для «Матрьошки», повідомив Antibot4Navalny «Голосу Америки»: «Останні тижні майже всі ролики були побудовані за однією схемою».

Але експерти кажуть, що стратегія підробки існуючих повідомлень ЗМІ, націлених на дискредитацію біженців, не є новою.

Роман Осадчук, науковий співробітник Лабораторії цифрових криміналістичних досліджень Атлантичної ради, розповідає, що у квітні 2022 року після ракетного удару Росії по українському залізничному вокзалу в Краматорську, в результаті якого загинули понад 60 мирних жителів, а понад 100 отримали поранення та контузії, росія підробила репортаж британського медіа Бі-бі-сі – у ньому винуватцями трагедії було названо українців.

У той же період, зазначив він, Росія також поширювала у Молдові дезінформацію, спрямовану на те, щоб налаштувати місцеве населення проти українських біженців.

«На жаль, біженці – це дуже популярна, скажімо так, мішень для російських дезінформаційних компаній, причому не тільки для атак на хост-ком’юніті (приймаючу країну – прим. ред.)… а також і в Україні», – сказав Осадчук «Голосу Америки».

Він зазначив, що коли російські операції з надання шкідливого впливу адресовані українській аудиторії, мета часто полягає в тому, щоб спровокувати конфлікт між тими, хто залишив Україну і був змушений стати біженцем, і тими, хто залишився в країні.

Однак підробки журналістських матеріалів, вочевидь, призначені для того, щоб вплинути на громадську думку в інший спосіб. Наприклад, в одному відео, яке нібито містить аудіозапис засновника видання Bellingcat Еліота Хіггінса, стверджується, що наступ України на російську Курську область — блеф.

«Весь світ спостерігає за передсмертними спазмами України, — нібито говорить Хіггінс. — Більше нічого обговорювати».

В іншому відео підроблено особу Шаяна Сардарізаде, старшого журналіста Бі-бі-сі, який нібито говорить, що «Україна створює фейки, щоб організації, які перевіряють факти, звинувачували Росію». Сардарізаде називає це частиною «глобального обману».

Насправді обидва відео — діпфейки. У коментарі «Голосу Америки» Хіґґінс заявив, що все відео є діпфейк-підробками його голосу. Він припускає, що мета їх поширення — привернути увагу журналістів, які перевіряють факти, та змусити випадково збільшити кількість переглядів відео.

«Я думаю, тут більше йдеться про поліпшення показників, щоб продовжувати «доїти» російську державу і отримувати гроші на свою діяльність», — написав він в електронному повідомленні.

На момент публікації цього матеріалу Сардарізаде не відповів на запит про коментар.

Підроблене відео, реальна шкода

Швидкий розвиток штучного інтелекту (ШІ) привернув підвищену увагу до проблеми підроблених відео та зображень, створених за допомогою ШІ-технологій, особливо у плані створення компрометуючих зображень реальних людей без їхньої згоди.

Дослідники підрахували, що понад 90% підробок в інтернеті мають відверто сексуалізований характер. Вони використовувалися, зокрема, проти знаменитостей. Діпфейки також застосовувалися проти політиків та кандидатів на державні посади. Однак залишається незрозумілим, чи вплинули вони на громадську думку або на результати виборів.

Дослідники з Центру аналізу загроз дійшли висновку, що «повністю синтетичні» відео світових лідерів часто бувають непереконливими і їх легко викрити. Однак підроблені аудіозаписи можуть виявитися більш ефективними для впливу на громадську думку.

Чотири відеоролики, що просуваються в рамках російської операції «Матрьошка», де переважно використовується підроблене аудіо, показують, що небезпека діпфейків не обмежується сексуалізованими зображеннями чи імітацією політиків. І якщо ваше зображення доступне в інтернеті, ви мало що можете зробити, щоб захистити себе.

Сьогодні завжди є ризик «публічного поширення будь-якої інформації, включаючи ваш голос, зовнішність чи фотографії», — сказав Осадчук, науковий співробітник Лабораторії цифрових криміналістичних досліджень Атлантичної ради.

Збитки можуть бути дуже серйозними.

Белль Торек, адвокат, що спеціалізується на цивільних правах і політиці в галузі технологій, розповіла «Голосу Америки», що люди, чиї образи використовуються без їхньої згоди, часто відчувають приниження, безпорадність і страх.

«Вони, як правило, кажуть, що їхня довіра була зруйнована. Усвідомлення того, що їх зображенням маніпулюють для поширення брехні чи ненависті, може погіршити вже наявну травму, — сказала вона. — І я думаю, що ці ефекти будуть ще більш посилені для спільнот (біженців — прим. ред.), які й так страждають від переміщення та насильства».

Наскільки ефективні діпфейки?

Хоча відносно просто зрозуміти потенційну шкоду, якої завдають діпфейки, набагато складніше оцінити масштаби їх охоплення та впливу.

Пост у соцмережі X із фальшивими відеороликами біженців отримав понад 55 000 переглядів. За словами Ольги Токарюк, старшого аналітика Інституту стратегічного діалогу, це говорить про значне поширення: «Це ще не вірусний, але вже й не маргінальний контент».

Antibot4Navalny вважає, що російські дезінформатори часто штучно збільшують охоплення постів на X, використовуючи підконтрольні їм акаунти, і їх бачать дуже мало реальних людей.

Але навіть якщо велика кількість реальних користувачів переглянула діпфейки, це не обов’язково означає, що відео допомогло Кремлю досягти своєї мети.

«Завжди складно  <…> довести зі стовідсотковою кореляцією вплив цих дезінформаційних кампаній на політику», — сказала Токарюк.

Дякуємо Марії Ульяновській за допомогу в створенні цього матеріалу.

Джерело: Метью Купфер, Тетяна Ворожко, для Голос Америки