Nell’ultimo decennio, l’intelligenza artificiale ha goduto di uno sviluppo rapidissimo, guidata dalla fortunata combinazione di scoperte tecnologiche, massiccia espansione nell’accesso ai dati e progressi nell’hardware.
Molte sono le aspettative e le paure che tali innovazioni recano con sé. Tra le tante preoccupazione, forse una delle più avvertite, è la minaccia rappresentata dai deepfake: forma particolarmente grave di furto di identità.
Lo Strategic Communications Centre of Excellence della Nato (o Nato Stratcom) ha recentemente pubblicato un report dal titolo “Primer and forecast” in cui analizza il fenomeno dei deepfake, dei rischi e delle innumerevoli implicazioni a essi correlati, soprattutto per quel che concerne le campagne di disinformazione online.
I deepfake sono foto, video e audio creati grazie a software d’intelligenza artificiale che, partendo da contenuti reali (immagini e audio), riescono a modificare o ricreare, in modo realistico, le caratteristiche e i movimenti di un volto o di un corpo e a imitare fedelmente una determinata voce.
Le tecniche usate dai deepfake sono simili a quelle delle app con cui si modifica per gioco la morfologia del volto, ad esempio invecchiandolo o modificando il sesso. Inizialmente queste tecnologie, erano costose e poco diffuse e venivano utilizzate soprattutto per gli effetti speciali nel mondo del cinema.
Negli ultimi tempi, però, si sono diffuse app e software che rendono possibile realizzare deepfake, utilizzando un comune smartphone.
È quindi possibile creare deepnude: persone ignare possono essere rappresentate nude, in pose discinte e addirittura in contesti pornografici. Inizialmente il fenomeno ha coinvolto personaggi famosi allo scopo di screditarli o ricattarli, ma oggi il rischio coinvolge anche persone comuni, che possono essere oggetto di azioni psicologicamente e socialmente molto dannose come:
– il revenge porn, cioè la condivisione online – a scopo di ricatto, denigrazione o vendetta, da parte di ex partner, amanti o spasimanti respinti – di foto e video a contenuto sessuale o addirittura pornografico, che, nel caso del deepnude, sono ovviamente falsi.
– la pratica del sexting (cioè lo scambio e diffusione d’immagini di nudo, che a volte coinvolge anche soggetti minori)
– la pornografia illegale
– la pedopornografia.
Il deepfake può essere correlato con il c.d. cyberbullismo quando, soprattutto tra i più giovani, venga utilizzato per denigrare, irridere e screditare, o addirittura per ricattare, chiedendo soldi o altro in cambio della mancata diffusione del video oppure per la sua cancellazione se è già stato diffuso.
Il deepfake può incentivare il fenomeno delle fakenews, come analizzato nel report “Primer and forecast” dello Strategic Communications Centre of Excellence Nato (o Nato Stratcom), https://www.stratcomcoe.org/deepfakes-primer-and-forecast e come evidenziato dal New York Times in un articolo del 2019 “Deepfakes Are Coming. We Can No Longer Believe What We See”, nel quale si affrontava il potenziale impatto dei deepfake sulla disinformazione, in particolare, nella propaganda politica e nella manipolazione sociale.
Il deepfake, inoltre, può essere utilizzato per attività telematiche illecite di cybercrime come lo spoofing (il furto d’informazioni che avviene attraverso la falsificazione d’identità di persone o dispositivo, in modo da ingannare altre persone o dispositivi e ottenere la trasmissione di dati), il phishing e il ransomware. Molti sistemi digitali (domotica, assistenti vocali, smartphone, nonché alcuni sistemi bancari o sanitari) ricorrono a voci e volti come sistema di autenticazione per l’accesso, pertanto tali dati biometrici vocali e facciali artefatti possono essere utilizzati per ingannare i sistemi di sicurezza.
Le grandi imprese del digitale (piattaforme social media, motori di ricerca, ecc.) stanno studiando delle metodologie per il contrasto al fenomeno, come algoritmi di intelligenza artificiale capaci di individuare i deepfake o sistemi per le segnalazioni da parte degli utenti, formando team specializzati nel loro monitoraggio e contrasto.
Tuttavia, il primo e più efficace strumento di difesa è rappresentato sempre dalla responsabilità e dall’attenzione degli utenti.
Ecco allora alcuni suggerimenti del Garante per la protezione dei dati personali che ha stilato un vero e proprio vademecum:
https://www.garanteprivacy.it/web/guest/home/docweb/-/docweb-display/docweb/9512226
– evita di diffondere in modo incontrollato immagini personali o dei tuoi cari soprattutto se minori;
– impara a riconoscere un deepfake: l’immagine può appare pixellata (cioè un po’ sgranata o sfocata), gli occhi delle persone possono muoversi a volte in modo innaturale, la bocca può apparire deformata, la luce e le ombre sul viso possono apparire anormali;
– se hai il dubbio che un video o un audio siano un deepfake realizzato all’insaputa dell’interessato, non condividerlo (per non moltiplicare il danno alla persona con la sua diffusione incontrollata) e segnalalo alla piattaforma che lo ospita (il social media);
– se ritieni che il deepfake sia stato utilizzato in modo da compiere un reato o una violazione della privacy, rivolgiti alla Polizia postale e al Garante per la protezione dei dati personali.