W dobie dynamicznego rozwoju sztucznej inteligencji zagrożenia związane z deepfake’ami i dezinformacją osiągnęły niespotykaną dotąd skalę. Tworzenie fałszywych treści cyfrowych stało się tak łatwe, jak nigdy wcześniej, co niesie za sobą poważne konsekwencje dla demokracji oraz zaufania społecznego. W odpowiedzi na te wyzwania badacze z Nanyang Technological University w Singapurze zaproponowali w artykule z 2023 roku zintegrowany system obrony. Opiera się on na czterech filarach: zaawansowanych technologiach wykrywania, inicjatywach strategicznych, regulacjach prawnych oraz edukacji społeczeństwa.
Technologiczne filary obrony
Pierwszym elementem systemu są zaawansowane algorytmy wykrywania, które analizują treści multimedialne pod kątem potencjalnych manipulacji. Narzędzia te badają m.in. nieregularności w oświetleniu, wzorce oddechu czy anomalie tekstur skóry. Ważnym aspektem jest również uwzględnienie technologii znakowania cyfrowego, takich jak cyfrowe „znaki wodne” czy zastosowanie technologii blockchain, które mogą potwierdzać autentyczność treści. Sztuczna inteligencja wspomaga te procesy poprzez analizę tzw. „odcisków cyfrowych” pozostawianych przez modele generatywne.
Jednakże technologia nie jest bez wad. W miarę jak rośnie zaawansowanie deepfake’ów, algorytmy wykrywania muszą stale ewoluować, co tworzy niekończący się wyścig zbrojeń.
Inicjatywy strategiczne i współpraca
Drugim kluczowym aspektem proponowanego systemu jest współpraca między platformami cyfrowymi, firmami technologicznymi i rządami. Serwisy społecznościowe odgrywają centralną rolę w tej walce, ponieważ to właśnie na nich deepfake’i i dezinformacja rozprzestrzeniają się najszybciej. Proponowane strategie obejmują ulepszenie mechanizmów moderacji treści z pomocą sztucznej inteligencji i udziałem ludzi, partnerstwo z organizacjami fact-checkingowymi, oraz wprowadzenie narzędzi do raportowania podejrzanych treści przez użytkowników.
Kluczowym elementem jest również edukacja użytkowników, która powinna pomóc im rozpoznawać fałszywe treści oraz zrozumieć, jak działają mechanizmy deepfake’ów.
Regulacje prawne i etyczne
Trzecim filarem jest opracowanie nowych regulacji, które jasno definiują i penalizują tworzenie oraz rozpowszechnianie deepfake’ów. Niezbędne jest wprowadzenie międzynarodowych standardów oraz mechanizmów egzekwowania przepisów, takich jak znakowanie treści czy wymiana danych między platformami.
Pod względem etycznym konieczna jest równowaga pomiędzy ochroną wolności słowa a potrzebą ochrony przed dezinformacją. Wprowadzenie niezależnych komitetów etycznych może pomóc monitorować skutki wdrożenia nowych rozwiązań i szybko reagować na nadmierną cenzurę.
Edukacja i świadomość społeczna
Ostatnim, ale nie mniej ważnym filarem, jest edukacja. Twórcy proponowanego systemu podkreślają, że długofalowy sukces w walce z deepfake’ami wymaga budowy świadomości społecznej. Programy edukacyjne powinny obejmować rozwój krytycznego myślenia, naukę odróżniania treści fałszywych od prawdziwych oraz promocję korzystania z zaufanych źródeł informacji.
Publiczne kampanie informacyjne mogłyby być wsparte przez różne sektory: szkoły, media, a także organizacje pozarządowe. Wprowadzenie certyfikatów dla treści zweryfikowanych oraz oznaczanie wiarygodnych źródeł informacji na platformach społecznościowych mogłoby dodatkowo podnieść świadomość odbiorców.