04 Agosto 2019, 15:34
7 min di lettura
Del deepfake, la tecnologia che utilizza l’intelligenza artificiale (AI) per la sintesi dell’immagine umana al fine di creare falsi video, fakenews e bufale planetarie, si è avuto modo di trattare riguardo al fenomeno del revenge porn.
I primi deepfake apparvero nell’autunno del 2017, quando sul web furono diffusi video pornografici – così realistici che ci volle tempo per capire che fossero falsi – aventi una serie di divi come ignari protagonisti. Il termine, coniato aggiungendo a “fake” il lemma “deep”, derivato dalla locuzione deep learning, ovvero l’ insieme di tecniche che permettono all’intelligenza artificiale di imparare a riconoscere forme, strutture, e anche persone, definisce una tecnologia divenuta oggigiorno più sofisticata, gratuita e facile da usare. Non si tratta di una bella notizia. Questa presupposta “democratizzazione” prelude difatti a un uso selvaggio e illecito dei software a libero accesso.
I problemi che legislatori attenti dovrebbero affrontare con urgenza non finiscono qui, tutt’altro. La scienza, che conosce un progresso vertiginoso quanto mai in passato, ha di recente varcato un’ulteriore soglia. Scienziati internazionali (delle Università di Stanford, di Princeton, del Max Planck Institute for Informatics e di Adobe Research), hanno sviluppato una nuova piattaforma software, definita “AI deepfake”, che permette di modificare non più solo le immagini, ma anche le parole del discorso registrato di qualcuno per alterarlo facendogli dire qualcosa che in realtà non ha detto. Nata per essere applicata negli studi cinematografici americani, questa tecnologia inquietante non ha altra utilità. Il problema è che ora chiunque può servirsene. Inclusi gli autocrati di tutto il mondo, per screditare i nemici e fomentare i conflitti.
Il software funziona abbinando un fonema – il segmento fonico termine di elaborazione del linguaggio naturale per suoni -, con una immagine, ovvero con l’espressione facciale che la persona assume mentre emette la serie di fonemi che compongono il discorso orale. Per costruire un falso, dato un certo video, lo si trascrive e si predispone un testo diverso; quindi l’intelligenza artificiale genera un nuovo video che corrisponde al discorso alterato. Chiamati in causa, e ben lungi dall’avere la coscienza pulita rispetto al potenziale distruttivo dell’invenzione, i ricercatori si giustificano affermando che il loro approccio di “editing” del testo orale era volto a migliorare i sistemi della post-produzione dei film. Le scene di dialogo filmate spesso comportano una lunga e costosa tempistica, un montaggio basato su piccoli cambiamenti di script, quindi un minuzioso lavoro manuale, mentre la nuova tecnica consente velocità ed estrema adattabilità. Ma questo può giustificare la diffusione di applicazioni tecnologiche sconcertanti?
Gli stessi ideatori ne riconoscono i risvolti negativi, e prospettano possibili soluzioni, come demandare agli utilizzatori il dovere di dichiarare che un video è “di sintesi”, o, in due parole, è vergognosamente fasullo. Conoscendo la profonda malvagità dell’essere umano e le sue fantasiose derive, è una speranza ridicola. Il rischio di abusi è altissimo, e, se per il revenge porn le vittime preferite sono i cosiddetti Vip, la cui esistenza non cambia di un ette i destini del mondo, riguardo alle AI deepfake, l’idea che si possa far pronunciare a un presidente o a un capo di governo discorsi falsi appare terrorizzante. Suggerire che i deepfake siano presentati come tali rivela un approccio al problema della forza della propaganda tanto ingenuo da risultare stupido. Vi immaginate un Hitler ammonito dagli scienziati a dichiarare “sto diffondendo una notizia falsa”? Se non ci fosse da preoccuparsi, ci sarebbe da ridere! Ogni governo autoritario potrà usare (se non lo sta già facendo) la tecnologia per colpire dissidenti, oppositori politici e minoranze etniche o religiose. Gli scienziati propongono, un pò più seriamente, di sviluppare tecniche forensiche di rilevamento delle impronte digitali e di verifica digitale e non digitale per identificare i video manipolati. Ma le pseudogiustificazioni, così come queste indicazioni di prevenzione di possibili danni, che suonano tanto come excusationes non petitae, incontrano molti limiti. Ad esser realisti, creare strumenti per individuare i falsi è assolutamente inutile quando si tratta di propaganda. I Protocolli degli Anziani di Sion, un clamoroso falso storico costruito ai primi del 1900 dalla polizia zarista come strumento di propaganda antisemita, vecchio di oltre un secolo, viene ancora oggi utilizzato con successo per fomentare l’antisemitismo mondiale!
In buona sostanza, se un video che vediamo sia o no un deepfake, se un discorso che sentiamo sia o meno frutto di una intelligenza artificiale, non è, onestamente, il punto: il punto è che questa tecnologia esiste e viene usata in modo indiscriminato. Se un AI deepfake è creato per vendicarsi dell’ex, per sostituire, senza dichiararlo al pubblico, un cane di attore, o per far dire a un presidente della repubblica che sta per inviare missili contro un’altra nazione, è comunque, al di là dell’entità ovviamente diversa delle ripercussioni, dannoso e grave. E determinare l’autenticità della notizia, avere la possibilità di individuare gli autori del falso, sebbene utile, resta solo un controllo a posteriori, perchè il danno è comunque fatto. Ci sarà sempre il tempo e il modo di rimediare?
L’industria tecnologica, osannata come salvatrice del nostro tempo e del nostro denaro, ostenta un’etica imprenditoriale non suffragata nella realtà. Facebook sta cercando disperatamente, in modo ridicolo, di rietichettarsi come “rete incentrata sulla privacy” mentre continua a diffondere dati personali nel mondo. E allo stesso modo, i ricercatori che hanno sviluppato le AI deepfake non potranno contenerne l’uso improprio, nè sostenere come alibi difensivo un circolo vizioso, affidando ad altre tecnologie la salvaguardia dai pericoli della tecnologia che essi stessi stanno creando.
Mentre è in atto una gara a chi sviluppa meglio e più in fretta nuove tecnologie AI, non risulta, peraltro, un pari impegno a lavorare seriamente a strumenti di tutela dai falsi; piuttosto, vi è un ipocrita coro di voci che invita alla fiducia nella potenzialità dell’essere umano di capire da solo se una notizia è falsa o no, quando è noto che la popolazione dell’universo mondo subisce da tempo i vari livelli di controllo imposti alle fonti di informazione. Discernere se un video sia un deepfake o meno quando viene trasmesso dalla televisione di Stato è praticamente impossibile, per lo meno nell’immediato.
In un recentissimo articolo apparso sul New York Times, sintesi della ricerca ancora inedita “Deepfakes and the Epistemic Backstop”, Regina Rini, docente di filosofia alla York University di Toronto, afferma che è tardi per tornare indietro e che dobbiamo prepararci a trattare i video come testimonianza generica e non più come prova documentale. “Le discussioni attuali sulle false notizie sono solo un assaggio di ciò che accadrà quando i suoni e le immagini, non solo le parole, saranno oggetto di possibile manipolazione da parte di chiunque abbia un computer decente. Fino a oggi, la nostra ragionevole fiducia nella testimonianza degli altri è dipesa, in misura sorprendente, dagli effetti regolatori dell’onnipresente possibilità di registrazione degli eventi di cui siamo testimoni. Se i deepfake eroderanno il valore epistemico delle registrazioni, dovremo affrontare la sfida conseguente della inaffidabilità delle nostre stesse pratiche testimoniali”. É una previsione che fa paura.
Etica, dove sei?
Se le persone coinvolte nella produzione di questa tecnologia avessero ricevuto una adeguata formazione etica, se solo avessero conoscenza della storia, avrebbero lo stesso consegnato al mondo la loro scoperta? Ricordate le vicende relative all’invenzione dell’atomica? E questa è un’atomica dell’informazione, nè più, nè meno. Non possiamo più fidarci di ciò che vediamo con i nostri occhi, di ciò che sentiamo con le nostre orecchie. Non si tratta di essere vigili o critici. Non tutti possiedono uguali strumenti intellettivi, culturali e sociali di discernimento, e anche ad alti livelli di energie intellettuali, nessuno può stare costantemente all’erta. La società umana si fonda, sostanzialmente, su un certo livello di fiducia. Questa tecnologia distrugge una parte di questa fiducia così duramente conquistata, che non può essere facilmente recuperata; e potrebbe arrivare a disintegrarla del tutto.
È meglio un onesto cretino o una intelligenza artificiale subdola? Se Gigi Marzullo ve lo sta chiedendo dallo schermo di casa, non credeteci. É una AI deepfake.
Pubblicato il
04 Agosto 2019, 15:34