Rozwój sztucznej inteligencji, a w szczególności modeli generatywnych takich jak chatboty oparte na dużych modelach językowych (LLM), otworzył nowe możliwości dostarczania informacji. Jednakże narzędzia te stwarzają również ryzyko w zakresie dezinformacji, szczególnie w odniesieniu do wrażliwych tematów politycznych, takich jak wojna w Ukrainie. Badania opublikowane w sierpniu w Harvard Kennedy School Misinformation Review pokazuje, że chatboty mogą nieświadomie wspierać rosyjską propagandę, przedstawiając fałszywe lub niepełne informacje. Co więcej, wbudowana losowość tych modeli sprawia, że ich odpowiedzi mogą być nieprzewidywalne, co rodzi kolejne problemy.
Problem dezinformacji w chatbotach
Badanie przeprowadzone w 2023 roku przez zespół naukowców z Uniwersytetu w Bernie i Instytutu Weizenbauma skupiło się na trzech popularnych chatbotach: Google Bard (prekursor Gemini), Bing Chat (obecnie Copilot) i Perplexity AI. W ramach eksperymentu zadano chatbotom 28 pytań opartych na rosyjskich narracjach dezinformacyjnych dotyczących wojny w Ukrainie. Wyniki ujawniły niepokojącą skalę rozbieżności w jakości odpowiedzi, z czego od 27% do 44% odpowiedzi nie spełniało standardów eksperckich pod względem zgodności z faktami.
Najczęściej błędne odpowiedzi dotyczyły takich tematów jak liczba rosyjskich ofiar wojennych czy fałszywe oskarżenia o ludobójstwo w Donbasie. Niepokoi fakt, że chatboty często przedstawiały rosyjską perspektywę jako wiarygodną, bez odpowiedniego jej obalenia. Taka praktyka może prowadzić do dalszego wzmacniania dezinformacji.
Losowość i jej konsekwencje
Kluczowym aspektem problemu jest wbudowana losowość dużych modeli językowych, która powoduje, że chatboty mogą generować różne odpowiedzi na to samo pytanie. Na przykład, w jednym przypadku model zaprzeczył fałszywemu oskarżeniu o ludobójstwo w Donbasie, podczas gdy w innym wskazał, że jest to możliwe. Takie rozbieżności wprowadzają użytkowników w błąd i podważają zaufanie do technologii.
Niewystarczające obalanie fałszywych narracji przez chatboty jest częściowo spowodowane trudnymi do kontrolowania źródłami, na których bazują modele. Na przykład, nawet jeśli chatbot cytuje wiarygodne media może z nich wyodrębnić fragmenty wspominające o rosyjskiej dezinformacji, nie uwzględniając kontekstu jej obalenia. W efekcie takie treści mogą być interpretowane jako faktyczne.
W przytoczonym badaniu najwyższy poziom zgodności z ustaloną bazą ekspertów uzyskał Google Bard (73%). Na drugim miejscu znalazł się chatbot Perplexity, osiągając 64% zgodności, natomiast najniższy wynik odnotowano w przypadku Bing Chat, którego jedynie 56% odpowiedzi w pełni pokrywało się z odpowiedziami udzielonymi przez ekspertów.
Autorzy uważają, że platformy integrujące chatboty muszą podjąć kroki, by ograniczyć ryzyko szerzenia dezinformacji. Rozwój mechanizmów ochronnych (tzw. guardrails) może zminimalizować przypadki generowania fałszywych informacji. Takie mechanizmy obejmują m.in. zmniejszenie losowości modeli w przypadku generowania odpwiedzi na wrażliwe tematy i wykorzystanie specjalnych klasyfikatorów do filtrowania treści dezinformacyjnych.
Badacze podkreślają także, że mimo wykazanych ograniczeń, chatboty mają potencjał do walki z dezinformacją. Mogą być wykorzystywane do automatycznego weryfikowania faktów, generowania treści edukacyjnych na temat dezinformacji i być wsparciem dla dziennikarzy i organizacji fact-checkingowych.