I deepfake, fusione inglese di fake e di deep learning, sono filmati contraffatti e manipolati in cui i soggetti non sono mai stati in realtà ripresi. Spopolano sul web nel 2017 diventando presto virali tanto che ad oggi si contano più di 14mila filmati fake.
Fino a qualche anno fa, parlare di video creati con l’ausilio dell’intelligenza artificiale, sarebbe sembrato degno di un film di fantascienza, oggi potrebbe essere la maggior minaccia per la nostra privacy.
Consideriamo questo breve video come esempio di un perfetto deepfake:
https://www.youtube.com/watch?v=gZVdPJhBkqg
Quasi da non credere ai propri occhi, vero? Mr. Bean ha sostituito la bellissima Charlize Theron in questa celebre pubblicità. Ovviamente Rowan Atkinson non ha dovuto farsi crescere i capelli e calarsi nella vasca dorata, la scioltezza e la naturalità dei movimenti vengono resi possibili grazie a sottilissimi algoritmi che “insegnano” all’Artificial Intelligence (AI) a sintetizzare le immagini umane. Queste vengono così combinate e sovrapposte dai computer che utilizzano algoritmi di apprendimento non supervisionati, denominati generative adversarial network, con il risultato finale di creare immagini realistiche come quelle riprese da un obiettivo ottico.
In un primissimo momento questa tecnologia veniva adoperata dalle grandi produzione di Hollywood; ad esempio nel film di Star Wars: Rogue One in cui l’attrice Ingvild Deila ha prestato i movimenti e il corpo alla storica principessa Leia interpretata da Carrie Fisher, deceduta un anno prima dell’inizio delle riprese.
Non tutti gli usi dei deepfake sono però così nobili. Facilmente intuibile che una volta diffuse le linee guida per il montaggio dei video online, questa nuova tecnologia è stata applicata a contenuti pornografici.
I volti di attrici sono stati duplicati sui corpi delle attrici di film hard, screditando e lucrando sulla reputazione dell’attrice medesima. Rimanendo sulla stessa scia, i deepfake trovano la loro più diffusa applicazione nei “revenge porn”, ovvero la condivisione online di materiale privato e intimo di una donna da parte di ex partner; diventando così strumento di aggressione.
Un vero pericolo per la privacy, essendo una tecnica “alla portata di tutti”, supportata dagli innumerevoli tutorial spopolati sulle varie piattaforme che spiegano dettagliatamente come creare questi video e renderli virali. Nasce così il pericolo che una tecnologia così realistica e dalla rapida diffusione può causare dei seri problemi se impiegata dalle mani sbagliate.
Per fortuna di tutti, gli informatici Ming-Ching Chang e Yuezun sono a lavoro per sviluppare un software di sicurezza contro i deepfake. Come riportato dalla rivista, i due studiosi stanno sviluppando un algoritmo che viene addestrato sulle immagini dei volti di una persona, in particolare l’esperimento prevede l’analisi su una vasta gamma di immagini in cui l’attenzione viene posta sul movimento degli occhi. Il software promette così di distinguere in modo affidabile video reali da video di deepfake. Non è una soluzione permanente, assicurano Change e Yuezun perché la tecnologia migliorerà ma è un inizio e offre la speranza che i computer saranno in grado di aiutare le persone a dire la verità dalla finzione. Questo metodo sembra funzionare bene e, di conseguenza, abbiamo raggiunto un tasso di rilevamento superiore al 95%.
Un metodo più “casalingo” per distinguere un video fake da uno originale è fare attenzione al “glitch”, lo scatto innaturale tra diverse parti del volto, forme strane attorno alla bocca o agli occhi; spesso quasi impercettibili ad occhio nudo ma visibili con un ingrandimento di fermo immagine.
Per questo motivo, consigliano i vari “guru” del web, è importante guardare sempre i video su desktop grandi e non affidarsi solamente agli smartphone.
Attenzione però a non cadere nel tranello di non credere più a nulla e di dubitare di ogni cosa che spopola sul web, il consiglio è quello di porre maggiore attenzione alle informazioni che si leggono quotidianamente e soprattutto di accertarsi delle fonti.