L’Intelligenza artificiale e la CGI (immagini generate al computer) trasformeranno la guerra informativa, aumenteranno le fakenews e le operazioni di “Kompromat”
Un articolo di Business Insider ci fa riflettere su un futuro prossimo venturo che potrebbe minare le fondamenta delle nostre democrazie.
Già oggi si combatte contro le fakenews e più di un esperto sostiene che in qualche modo siano utilizzate per condizionare i processi democratici, ma vi è un concreto rischio che ciò che abbiamo visto sino ad oggi sia ancora nulla rispetto allo scenario che si potrebbe presentare da qui a pochi anni.
Grazie ai progressi dell’intelligenza artificiale (AI) e della tecnologia di elaborazione computerizzata delle immagini (CGI), nel corso del prossimo decennio diventerà un’operazione banale ed alla portata di tutti, produrre filmati falsi di figure pubbliche e di persone comuni in cui si dirà e si vedrà ciò che oggi i manipolatori dell’informazione possono solo sognare di fare.
Si apriranno nuovi fronti preoccupanti nella guerra d’informazione, i governi ostili potranno utilizzare la tecnologia per seminare fake, propaganda e sfiducia nelle popolazioni target.
I pranksters avranno nuovi potenti strumenti per ingannare e ricattare, per produrre ad esempio vendette a sfondo pornografico. Le notizie fake diventeranno sempre più sofisticate e difficili da individuare, creando incertezza su chi è all’altro capo di un telefono o di una videoconferenza.
Questo può sembrare fantascienza, ma non lo è. Questo mondo è proprio dietro l’angolo, e l’umanità ha un disperato bisogno di prepararsi a tutto questo.
La tecnologia è ora basica, ma non lo sarà per molto tempo.
Al momento, la tecnologia richiesta per produrre facilmente audio e video falsi muove i suoi primi passi. Esiste principalmente sotto forma di demo tecnologico, progetti di ricerca e applicazioni che non hanno ancora visto una versione alla portata di tutti.
Abbiamo già comunque alcuni esempi: a luglio i ricercatori dell’Università di Washington hanno usato l’AI per produrre un falso video del Presidente Barack Obama, costruito analizzando decine di ore di riprese dei suoi discorsi passati. (L’audio usato proveniva anche da un vecchio discorso.)
La tecnologia per farlo c’è già. Nel 2016, i ricercatori “Face2face” sono stati in grado di riprendere filmati esistenti di figure politiche di alto profilo, tra cui George W. Bush, Vladimir Putin e Donald Trump e riprendere le loro mimiche facciali imitate poi da un attore umano, in tempo reale.
Le persone stanno anche lavorando per manipolare il discorso umano. Il software è chiamato Lyrebird e può riprendere l’audio di qualcuno che sta parlando per poi sintetizzarne una versione digitale della sua voce. E ‘in fase di sviluppo, e Adobe, azienda di Photoshop, sta sviluppando strumenti simili con il nome Project Voco.
La prossima generazione di guerra informativa
All’inizio dell’agosto 2016, gli Stati Uniti affrontavano una crisi internazionale e i cittadini americani stavano cominciando ad inpanicarsi. Fino a 10.000 poliziotti armati avevano circondato la base aerea americana di Incirlik in Turchia e gli utenti di Twitter stavano rilanciavano che la situazione poteva degenerare rapidamente figurando il pericolo che le armi nucleari nella base sarebbero cadute nelle mani dei manifestanti.
C’era però un particolare, non stava succedendo nulla del genere. Come ha poi riferito il “Dayli Beast”, in realtà si era trattato di una protesta pacifica di circa 1.000 persone. Gli uffici russi della propaganda statale di Russia Today e Sputnik spinsero la falsa narrazione, aiutata da migliaia di tweet in lingua inglese inviati da account identificati come bots e controllati dal governo russo.
Questo è un esempio della politica Russia circa le “misure attive”, diffondere la disinformazione per scopi di propaganda o per avere un aiuto per raggiungere i propri obiettivi strategici. Gregory C. Allen, un membro del Centro la sicurezza americana, sostiene che questi sforzi della Russia, e altri come loro, riceveranno un potente aiuto operativo dagli sviluppi della CGI e AI.
“Abbiamo visto che i governi stranieri sono più che disposti a basarsi sulla propaganda per creare un regno della fantasia, ed hanno dimostrato la loro piena volontà di esplorare il più velocemente possibile nuovi orizzonti e utilizzare tutti gli strumenti disponibili “.
Il futuro potrebbe vedere uno scenario in cui gli stati autoritari usano mezzi per contribuire a generare dissenso nelle popolazioni dei paesi rivali, come quanto accaduto a Incirlik, e per screditare e danneggiare l’opposizione politica interna.
Allen ha anche discusso le implicazioni sulla sicurezza nazionale dell’intelligenza artificiale in un recente articolo, avvertendo: “Cercheremo di sapere di cosa fidarci. Utilizzando crittografia e canali di comunicazione sicuri, potrebbe ancora essere possibile, in certe circostanze, provare l’autenticità delle prove. Ma l’aspetto che vede “credere” all’evidenza che domina oggi, dove l’occhio o il fiuto umano ha quasi sempre la meglio, sarà compromesso “.
La tecnologia è un bonus per i truffatori
Una tecnica popolare utilizzata dai truffatori moderni si chiama “Frode del CEO” – un’email inviata ad un dipendente della società, intestata da un amministratore delegato o da un altro dirigente, in cui si chiede loro di effettuare un pagamento a un conto o intraprendere un’altra azione.
Questi attacchi avranno presto una nuova modalità: la voce.
Immaginiamo che il tuo capo ti chiama e ti chiede di effettuare una transazione o di inviare una password o un documento riservato. Riconosci chiaramente la sua voce, sa chi sei. Oggi nessuno penserebbe che si tratti di una truffa.
Questo perché, “afferma Allen,” stai usando la “sua voce” come tecnologia di autenticazione, ma fai questa azione non pensando ad una tecnologia di autenticazione perché è solo una comune attività umana di cui ti puoi fidare “.
Ma tra cinque anni la fiducia può essere evaporata, sostituita da una sfiducia di ciò che si sente al telefono e persino di ciò che si vede con i propri occhi in una videoconferenza:
“Nel prossimo futuro non sarà più un qualcosa su cui contare. Inoltre, quando le tecniche di falsificazione video si evolvono ulteriormente, lo stesso varrebbe anche se si dovesse avere una videochat con qualcuno “.
Le persone anziane e quelle meno tecnologiche saranno particolarmente vulnerabili, Francis Tseng, di Nuova Ricerca (che cura un progetto che segue come la tecnologia possa distruggere la realtà) ha suggerito: “Molte persone suggeriscono ai genitori o ai nonni che sono esposti alle truffe telefoniche, una semplice regola d’azione ‘non dare informazioni private a chiunque non conosci!’ Con queste tecnologie di sintesi vocale, qualcuno potrebbe facilmente simulare una telefonata fatta da te o da un altro parente “.
Sarà il turbo per le notizie false
Stiamo già vivendo in un’epoca di “notizie false”. La fiducia pubblica nei media di stampa professionisti è scesa a un livello minimo.
Quando qualcuno può pubblicare insieme un video di un politico o di una celebrità facendogli dire ciò che vogliono, potrebbe ingenerare ulteriore sfiducia e permettere che i Fake si diffondano più facilmente che mai.
Questo ovviamente ha anche un rovescio della medaglia e comporterà anche il fatto che se un politico o una celebrità verrà catturato dicendo o facendo qualcosa di sconveniente, avrà sempre la possibilità di dire che il video è stato fabbricato.
Nel mese di ottobre, la campagna presidenziale di Trump è stata sconvolta dal nastro “Access Hollywood”, audio in cui il futuro Presidente degli USA parla di donne in tono molto volgare. E se avesse potuto sostenere che l’intera audio era solo una falsificazione creata dall’AI?
Ovviamente una tecnologia simile potrebbe alimentare il mercato del ricatto, immaginiamo ad esempio un ricatto per un video a sfondo sessuale…
Tutto ciò è dietro l’angolo
Attualmente è ancora teoria, ma non ci vorrà molto tempo a che diventi realtà.
“Penso che ci vogliano ancora da uno a due anni per ottenere questi falsi, specialmente nell’audio dove i progressi sono un po più facili”, ha detto Allen. “da uno a due anni per ottenere un prodotto che possa ingannare l’orecchio non addestrato e da cinque a dieci anni per ottenere un prodotto in grado di eludere determinati tipi di analisi forense”.
Come ci si prepara? I giornalisti e le organizzazioni dovranno fare affidamento sempre di più sulla crittografia per “firmare” i media. Le grandi piattaforme come Facebook avranno un ruolo di Polizia da svolgere per il materiale fraudolento, afferma Justus Thies di Face2face: “Le società di social media e le società di media classiche hanno la responsabilità di sviluppare e installare sistemi di rilevazione delle frodi per prevenirne la diffusione”.
Non ci rendiamo conto di quanto siamo stati fortunati
“Questi progressi significano che l’umanità si sta rapidamente avvicinando alla fine di un ciclo nella storia umana. Noi “viviamo in un momento straordinario dove la tecnologia per documentare la verità è notevolmente più avanzata della tecnica per fabbricare la verità, Non è sempre stato così basti pensare all’invenzione della stampa e dei primi giornali, Era altrettanto facile mentire in un giornale come dire la verità “, ha detto Allen.
“E con l’invenzione della fotografia e del fonografo o dei nastri registrati, ora viviamo in un nuovo equilibrio tecnologico dove, a condizione che tu abbia gli strumenti giusti, si può dimostrare che qualcosa è accaduto … abbiamo pensato che fosse un risultato tecnologico permanente , Ed è ormai chiaro che è un risultato tecnologico temporaneo e che non possiamo contare su questo equilibrio tecnologico di verità che favorisca la verità per sempre “.