Televisione, giornalismo, AI e il futuro dei media “sintetici”
Anche in Italia dovremmo iniziare a sperimentare il futuro ibrido, dove professionisti e macchine collaborano per migliorare l’informazione, ampliare l’audience e il modello di business
Tutto è cominciato con il porno. Siamo alla fine del 2017, più o meno dicembre. Su Reddit, sito social americano che aggrega le community sulla base degli interessi, un utente, pseudonimo Deepfake, inizia a diffondere video a luci rosse nei quali le protagoniste hanno il volto delle star di Hollywood. Né Jessica Alba, né Taylor Swift, né Emma Watson, tra le vittime più famose, hanno mai girato quelle scene. A rendere possibile la manipolazione — che trasforma il vero in falso, in modo assolutamente verosimile — è una tecnologia di intelligenza artificiale, il machine learning, che consente di sostituire i volti di una persona (face swapping) e di manipolare video facendo dire a chiunque quello che si vuole, lavorando sulla voce e sincronizzando il labiale. Grazie a software come Fsgan e applicazioni come FakeApp, il deepfake giunge presto alla portata di tutti e si diffonde rapidamente. Dal porno alla politica il passo è breve: Barack Obama, Donald Trump, Vadimir Putin, Mark Zucherberg, Matteo Renzi finiscono vittime delle contraffazioni.

Il gioco si fa duro e pericoloso. Questi video hanno ormai raggiunto una qualità che rende difficile distinguere il falso dal vero. In questo contesto i giornalisti hanno un ruolo fondamentale: a loro spetta il compito di smascherare la menzogna, la contraffazione, il falso, che possono condizionare e disorientare l’opinione pubblica. Alcune grandi testate, come il Wall Street Journal, si sono dotate di team investigativi interni in grado di analizzare, verificare, raccontare gli algoritmi, come si farebbe nei confronti di qualsiasi altra fonte giornalistica. Grazie anche all’utilizzo di strumenti di intelligenza artificiale, questi team riescono a smascherare i fake a partire da alcuni segnali specifici, come i movimenti delle palpebre o certe sfocature ai margini della bocca dei personaggi. Gli algoritmi, usati per creare i deepfake, possono quindi essere programmati anche per smascherare immagini false e fornire un punteggio di affidabilità ad un determinato filmato.
I reiterati allarmi, che si sono susseguiti dal 2017 per i “gravi danni” legati alla manipolazione dei video, hanno finito per ingenerare nelle persone l’associazione tra i termini deepfake e “media sintetici”. Ma, anche in questo caso, la tecnologia non è né buona né cattiva: tutto dipende da come viene utilizzata, e dalla trasparenza dei processi rispetto all’opinione pubblica. Da alcuni anni, queste stesse tecnologie sono al centro di una serie di sperimentazioni da parte di broadcaster internazionali che promettono interessanti sviluppi. In questi casi, i “media sintetici”, le repliche digitali, convivono con gli “originali” in un gioco di squadra che potenzia il giornalismo.
L’informazione ibrida
Il futuro del giornalismo, dell’informazione e dell’intrattenimento sarà sempre più ibrido, grazie all’interazione uomo-macchina. Questo binomio darà vita a nuove forme di “storytelling sintetico”, con i media, controllati da professionisti, che faranno sempre più uso di testi, voci, video e immagini prodotte da algoritmi. L’intelligenza artificiale — già in grado di produrre notizie, ma anche più complesse sceneggiature cinematografiche — sarà centrale in questo processo di trasformazione.
Cosa già si fa
La Bbc utilizza i video “sintetici” con il preciso obiettivo di ampliare la propria audience. Il giornalista Matthew Amroliwala, cinquattottenne conduttore britannico di Bbc World News, grazie al software di intelligenza artificiale di “Synthesia”, presenta le news anche in spagnolo, mandarino e indiano, lingue a lui sconosciute. Questo programma permette infatti di creare video dall’aspetto professionale, traducendo la voce in qualsiasi lingua e associando i movimenti labiali alle parole.

Digital replica
Il punto più avanzato di questi prodotti video, realizzati grazie ad applicazioni di intelligenza artificiale, è rappresentato dai “giornalisti virtuali” o “sintetici”, settore nel quale la ricerca è particolarmente avanti in Paesi come il Giappone e la Cina. Nel novembre 2018, l’agenzia di stampa Xinhua ha creato il primo “AI news anchor” cinese, una replica digitale che assomiglia in tutto e per tutto a un giornalista in carne ed ossa.

Anche la tailandese PBS ha battezzato il suo primo giornalista AI. La replica digitale imita la voce, i movimenti del corpo, la gestualità e altre caratteristiche del più noto anchorman della rete.
L’ultima “nascita” è del novembre 2020: la televisione via cavo sud coreana MBN ha creato una conduttrice, realizzata con intelligenza artificiale, in grado di leggere le news senza interruzione h 24, sette giorni su sette. La copia “sintetica” è pressoché identica al suo modello umano, la anchor Kim Ju-ha, sia per aspetto fisico, sia per sfumature e tono di voce.

Voice over
Altri sviluppi interessanti, poiché consentono di ampliare le audience oltre i confini linguistici contenendo i costi di produzione, sono legati alle tecnologie text-to-speech e speech-to-text che sono ormai entrate nella fase matura. Ne fa uso da anni l’Associated Press, che applica questi software per distribuire ai propri abbonati i video in lingua originale inglese anche in spagnolo e viceversa. Il programma di trascrizione e traduzione dello speech è completamente automatizzato e richiede solo una revisione finale da parte dei giornalisti.
Il News Lab della Bbc ha invece sviluppato ALTO, un software che utilizza la tecnologia text-to-speech per creare tracce audio multilingua da utilizzare in voice over sui video che così possono essere distribuiti in più lingue su più canali. In sostanza il software elabora una traccia testuale a patire dal contenuto di un video. I giornalisti utilizzano quindi queste tracce per trasformarle, grazie alla tecnologia vocale, in una voce “sintetica” in una lingua diversa (qui il video descrittivo della stessa Bbc).
Riconoscimento facciale
Anche Sky News utilizza programmi di intelligenza artificiale per creare sottotitoli automatizzati incrociando il riconoscimento facciale con dataset predefiniti. Ad esempio, nel servizio “Who’s who” del maggio 2018, Sky ha usato questa tecnologia per individuare e identificare automaticamente gli ospiti che arrivavano al Royal Wedding di Harry e Meghan. Un lavoro che altrimenti avrebbe impegnato più di una risorsa giornalistica, senza peraltro ottenere la stessa ampiezza e precisione di copertura.

Tecnologie di frontiera
Questi esempi aiutano a capire perché, anche in Italia, dovremmo iniziare a sperimentare il futuro ibrido, dove il giornalismo, l’informazione, ma anche varie forme di intrattenimento, saranno sempre più frutto di una contaminazione tra l’uomo — il professionista che impartisce i comandi e stabilisce i limiti, in un rigoroso rapporto di trasparenza dei processi nei confronti del pubblico — e le macchine, chiamate ad eseguire ciò che noi non possiamo fare o che realizzeremmo solo con grande dispendio di energie e di tempo. Le tecnologie di frontiera aumentano le potenzialità del giornalismo, ampliano le audience e rafforzano il modello di business. Non è poco per un settore che da anni cerca la strada per uscire dalla crisi.