Deepfake: hrozba, nebo příležitost?
Natalja IŠČENKO
Fake news, dezinformace a manipulativní mediální kampaně se staly každodenní realitou naší doby. Neustále se snažíme odolávat přívalu nepravdivých zpráv a snahám nás obelhat, nicméně specialisté na dezinformace a manipulace také nesedí v koutě se založenýma rukama.
Jednou z posledních fází vývoje technologií výroby falešných zpráv je mechanismus výroby tzv. deepfakes. Časopis Massachusettského technologického institutu (MIT) ve svém posledním vydání označil rok 2020 za „rok, kdy se deepfakes staly mainstreamem“. Zatím však všechno mluví pro to, že „rokem deepfakes“ bude i rok 2021.
Na druhou stranu jsou tu i dobré zprávy: tuto technologii nevyužívají pouze zločinci s destruktivními úmysly.
Deepfake
Deepfake (z anglického deep learning, tedy hluboké učení, a fake, padělek) je mechanismus výměny lidské tváře na videu za tvář jiného člověka pomocí umělé inteligence, 3D modelování a neuronových sítí. Tato technologie se dostala do širokého povědomí v roce 2018. Novináři tehdy objevili uživatele sociální sítě Reddit, který zveřejňoval zfalšovaná pornografická videa. Tento anonym využil algoritmu umělé inteligence a na místo tváří pornoherců dosazoval tváře veřejně známých osobností z jiných oblastí. Další rok se zfalšované porno dostalo daleko za hranice Redditu s pomocí snadno dostupných aplikací, které dokážou „vysvléknout“ naprosto kohokoli.
Od té doby jsou deepfakes aktivně využívány k vytváření falešné pornografie či její „light verze“ – falešného „svlékání“.
V říjnu 2020 se na sociálních sítích objevily padělané fotky více než 100 tisíc „obnažených“ žen. Snímky byly vytvořeny pomocí botů na základě umělé inteligence z aplikace v soukromých zprávách messengeru Telegram. Jeho uživatelé mohli odeslat fotku jakékoli ženy a za pár minut už dostali její falešný obrázek bez oblečení. Je zajímavé, že práce bota byla doprovázena masivní reklamní kampaní na ruské sociální síti VKontakte, což vedle využití rovněž ruského Telegramu napovídá, odkud tento vynález pocházel.
Podle Niny Schick, autorky knihy Deepfakes and the Infocalypse, se celkové množství pornografie vyrobené pomocí technologie deepfake každý půlrok zdvojnásobuje. Reální lidé, jejichž fotografie byly zneužity k vytvoření pornovideí, mohou být touto praktikou pobouřeni, či dokonce psychicky traumatizováni.
Deepfake jako hrozba pro národní bezpečnost
Odborníci však ujišťují, že falešná pornografie není největším zlem, které můžeme od technologie deepfake čekat. Objevují se prognózy, že se tento vysokotechnologický způsob „záměny obličejů“ stane efektivním nástrojem realizace podvodných schémat či nejmodernějším nástrojem informačních válek.
Zákon schvalující národní obranu USA (NDAA) na rok 2020 předpokládal vypsání speciálního konkurzu. Cenový fond disponoval 5 miliony dolarů za účelem stimulovat technologický vývoj. Pořadatelem konkurzu měl být odbor národní rozvědky Spojených států.
Zákon o obranném rozpočtu na rok 2020 byl prvním zákonodárným dokumentem federální úrovně v USA, jenž pojednává o deepfakes. Později byla na centrální úrovni a také na úrovni států projednána, či dokonce schválena řada normativních aktů, jež mají za cíl zabraňovat nekalému šíření falešných videí, vytvořených pomocí umělé inteligence.
Předpokládá se, že NDAA na rok 2021 se bude ještě více věnovat problému využívání deepfakes pro dezinformace a manipulace. Přičemž jestliže se loňský dokument věnoval především boji proti zahraničním vlivům, jež ohrožují národní bezpečnost, pak se Washington nyní chystá bojovat s deepfakes, jež jsou využívány k „podvodnému jednání“, poškozování „zranitelných skupin“ či s takovými, jež porušují zákony o lidských právech.
Deepfake nicméně není pouze technologie, která ohrožuje národní bezpečnost nebo škodí lidem. Mechanismus záměny obličeje je stále častěji využíván k bohulibým účelům.
Fake jako ochrana
Investigativní film Vítejte v Čečensku (Welcome to Chechnya) o represích proti LGBT komunitě v této severokavkazské republice Ruské federace byl vůbec prvním dokumentárním filmem, který k ochraně identity svých hrdinů využil technologii deepfake.
Film vypráví o činnosti aktivistů, kteří zachránili oběti pronásledování v Čečensku. Aby jejich aktivity nebyly prozrazeny, natáčení probíhalo tajně, s použitím skrytých kamer, mobilních telefonů, GoPro a přenosných ručních kamer.
Další komplikací při výrobě filmu byla nutnost nezveřejňovat osobní údaje hrdinů, filmaři tudíž nemohli zabírat jejich tváře na kameře.
Režisér a investigativní reportér David France chtěl ve filmu použít skutečné lidské tváře a k tomu obvyklé maskovací techniky jako rozmazání obličeje, natáčení ve stínu či herci najatí na rekonstrukce událostí nestačily. Nakonec se tedy rozhodl pro zdokonalené techniky záměny obličeje s použitím umělé inteligence a nejnovějších technologií vizuálních efektů, aby mohl divák sledovat skutečné tváře lidí, které vyjadřují skutečné emoce, ale člověk, se kterým byl veden rozhovor, zůstával zároveň v utajení.
Aby svůj nápad mohl uskutečnit, poprosil France jiné LGBT aktivisty z celého světa, aby propůjčili filmu své tváře, a ty byly poté „nalepeny“ na tváře utajovaných účastníků natáčení. Tato technika umožnila zachovat přirozenost mimiky hrdinů a zprostředkovat jejich emoce – bolest, strach i jejich lidskost. Tímto způsobem byla ochráněna identita 23 osob.
Využívání technologie deepfake se stalo zcela novým nástrojem v arzenálu investigativních novinářů, jehož prostřednictvím lze skrýt identitu tajných svědků či „odhalitelů“ zločinů.
Loutky z nové éry
Další sférou, kde se uplatňují deepfakes, jsou satirické televizní pořady.
V 90. letech minulého století byly na televizních stanicích mnohých zemí velmi populární pořady, v nichž „role“ známých politiků hrály parodické loutky a každý díl takového pořadu byl věnován aktuálním politickým událostem. Například v ruské televizi NTV běžel populární pořad Kukly (Loutky).
Nahradíme-li kartonové postavy digitálními obrázky, dostaneme současnou verzi „loutkové show“, ve které role politiků hrají nikoli loutky, nýbrž deepfakes.
V říjnu 2020 přišli tvůrci animovaného seriálu South Park s novým pořadem Sassy Justice, prvním pořadem ve formátu deepfake vůbec. Týdenní satirická show se točí kolem postavy Sassyho Justice, „zpravodajského reportéra“ s falešným obličejem Donalda Trumpa v legrační paruce. Roli hraje známý britský herec Peter Serafinowicz, jenž je proslulý svými parodiemi na Trumpa. Během pořadu vede novinář Trump interview s podobně fejkovými postavami. Například s Jaredem Kushnerem (Kushnerův obličej je nasazen na postavu dítěte) nebo s Alem Gorem.
Nutno podotknout, že v této karikaturní podobě je deepfake považován za přijatelný. Přinejmenším Facebook svou antidezinformační politiku na parodický či satirický obsah nevztahuje.
Není nicméně vůbec jisté, zda tento benevolentní postoj k falešným politikům v televizi přetrvá i do budoucna.
Tancující královna
Zde je čerstvý podnět k zamyšlení.
Britský Channel 4 o Vánocích odvysílal „alternativní“ projev královny Alžběty II., vyrobený pomocí technologie deepfake. Na videu vystupovala herečka s „digitální podobou“ královny Velké Británie. Díky počítačovým technologiím vypadala 48letá Debra Stephenson téměř přesně jako 94letá Alžběta II. Chovala se však jinak. Žertovně komentovala poslední události v královské rodině a tancovala na stole.
Alternativní vánoční projev byl odvysílán den před oficiálním televizním poselstvím královny, které každoročně vysílá BBC.
Již za několik dní obdržel britský televizní a rozhlasový regulátor Ofcom kvůli vystoupení falešné Alžběty II. stovky stížností.
Programový ředitel stanice Channel 4 Ian Katz v reakci na to prohlásil, že vystoupení „falešného monarchy“ mělo být „působivou připomínkou“ dezinformačních možností. „Letošní alternativní vánoční projev, který zdánlivě pronesl jeden z nejznámějších veřejných činitelů v zemi, který se těší největší důvěře, je působivou připomínkou toho, že již nemůžeme věřit vlastním očím,“ zdůraznil Katz a dodal: „Technologie deepfake je novou děsivou hranicí v bitvě mezi dezinformací a pravdou.“
Na videu od Channel 4 zakončuje falešná královna svůj vánoční projev slovy: „Je to, co vidíme a slyšíme, opravdu vždycky takové, jaké se nám zdá?“
Povedené poselství do nového roku, které nám zase jednou připomíná důležitost kritického myšlení a nutnost opakovaně ověřovat všechny zprávy o lidech a událostech – i o těch, které se nám zpočátku zdají tak evidentní…