I colossi tecnologici come Google, Facebook e Twitter stanno intensificando gli sforzi per fermare la diffusione dei deepfake sulle loro piattaforme. I video falsi generati dall’intelligenza artificiale stanno diventando sempre più sofisticati e difficili da riconoscere, diventando un serio pericolo per la qualità dell’informazione online.
Infatti, proprio come riportano le infografiche di ExpressVPN sul fenomeno dei deepfake, il rischio principale dei deepfake e della disinformazione più in generale è quella capacità di creare finti ricordi, legati a episodi mai realmente avvenuti (un qualcosa noto come “Effetto Mandela”, ovvero il memorizzare e ricordare una serie di eventi o dettagli in modo errato ma collettivamente).
Considerato che sempre più persone si informano poi usando i social network e fonti di notizie online, se non addirittura canali e chat su servizi di messaggistica istantanea (in primis Telegram), diventa evidente il rischio di una disinformazione sempre più rampante nel corso degli anni, per via di mezzi sempre più rapidi di diffusione delle notizie e con meno controlli.
L’intervento dei principali attori in ambito digitale
Ma se internet e social sono i principali mezzi di informazione al giorno d’oggi, specie per le nuove generazioni e il loro modo di approcciarsi al web, cosa stanno facendo i grandi colossi del mondo tech e digital per affrontare il problema della disinformazione e l’ultima frontiera dei deepfake?
Google sta investendo in tecnologie di apprendimento automatico per analizzare i video e identificare i deepfake. Il suo approccio combina il monitoraggio effettuato dai moderatori umani con l’analisi delle “impronte digitali” dei video, come movimenti anomali degli occhi o irregolarità nella pelle. Ma poiché l’A.I. che è stata addestrata, viene utilizzata per generare deepfake sempre più realistici, il rilevamento diventa una sfida continua.
Nel 2022 Facebook ha annunciato una coalizione di oltre 40 organizzazioni che lavoreranno insieme per combattere i deepfake e altre minacce legate all’informazione non attendibile. La coalizione unirà le competenze di esperti in intelligenza artificiale, giornalismo, fact-checking e società civile. Ma Facebook è stato anche accusato di non fare abbastanza: i critici affermano che dovrebbe investire più risorse nel rilevamento dei deepfake e nella moderazione dei contenuti.
Twitter sta testando un nuovo ” contesto ” per i tweet, aggiungendo informazioni provenienti da fonti verificate per fornire agli utenti più contesto su argomenti controversi o polarizzanti. La mossa potrebbe rendere gli utenti meno suscettibili alla disinformazione, rendendoli più consapevoli delle sfumature e delle complessità dietro le notizie e le storie virali. Ma i critici sottolineano che dovrebbe fare di più per fermare la diffusione dei deepfake, ad esempio contrassegnandoli come “media manipolati” o rimuovendoli del tutto.
I rischi legati ai deepfake e alla disinformazione in generale
Nonostante gli sforzi delle Big Tech, però, la minaccia dei deepfake continua a crescere. Secondo gli esperti, le aziende devono collaborare maggiormente tra loro e con i media tradizionali e le organizzazioni di fact-checking. Devono inoltre condividere dati e approcci per ampliare la portata del rilevamento.
I deepfake, infatti, possono generare una serie di rischi importanti. Il primo è la possibilità di orientare e polarizzare l’opinione pubblica: essendo il video il formato prediletto per la condivisione sui social (basta pensare al boom di TikTok o alle Storie di Instagram), i deepfake possono diventare rapidamente virali anche perché contengono contenuti di solito divisivi, che tendono a generare conflitto e interazione con il contenuto e spingendo gli algoritmi dei social ad aumentarne la visibilità.
Inoltre, i video deepfake possono essere usati per motivi di propaganda da parte di stati poco democratici o dalle dittature, per mantenere saldo il loro potere. Video generati artificialmente possono tornare utili anche per attaccare le minoranze, ma anche creare dei presupposti tali da giustificare i soprusi di uno stato sui suoi cittadini o perfino giustificare potenziali invasioni o guerre con altri stati.
Da non sottovalutare poi i rischi legati all’alterazione della memoria storica, complice anche l’effetto Mandela dei falsi ricordi collettivi. I deepfake possono andare a modificare video storici, diventare virali e soppiantare i video reali. Infine, i video deepfake potrebbero, in futuro, venire usati anche per generare degli alibi in caso di crimini commessi, magari alterando video di sistemi di sorveglianza o video recuperati da testimoni di un crimine, così come influenzare l’opinione pubblica quando si parla di casi di cronaca nera.
Insomma, i rischi sono tanti e tutti seri, ma la tecnologia da sola non basta per prevenirli e combatterli. Gli utenti devono anche migliorare le proprie capacità di pensiero critico per non cadere vittime della disinformazione. Ciò significa informarsi attentamente, studiare il mondo digitale per comprendere i suoi aspetti e i diversi contesti, e soprattutto, non fidarsi ciecamente di ogni contenuto che si trova in rete.
E i legislatori devono proteggere la privacy delle persone e prevenire l’uso non etico dell’intelligenza artificiale. Fermare l’invasione dei deepfake, così come di altre fonti di disinformazione, richiederà uno sforzo globale di società, governi e singoli cittadini. La posta in gioco è alta, ma unendo le forze è possibile vincere questa battaglia per la verità nell’era digitale.
La parola degli esperti per combattere la disinformazione
Alcuni sostengono che le aziende tecnologiche dovrebbero assumersi maggiori responsabilità per i contenuti sulle loro piattaforme, comprese penalità per la mancata rimozione dei deepfake. Ma le società riaffermano di essere più simili a “distributori” che a “editori” dei contenuti. Ritengono che nonostante gli investimenti in rilevamento e moderazione, è quasi impossibile rimuovere tutti i contenuti illegali e non etici a causa del volume elevato.
Gli esperti avvertono che normative troppo severe potrebbero portare le aziende a limitare eccessivamente la libertà di parola per evitare possibili sanzioni. Le leggi dovrebbero invece incentivare le società ad adottare le migliori pratiche ed investire in tecnologie e personale per migliorare il rilevamento, pur prevedendo conseguenze in caso di negligenza vera e propria.
Alcuni sostengono una maggiore trasparenza sulle metriche e sui dati utilizzati dalle piattaforme tecnologiche per moderare i contenuti e prendere decisioni che influenzano gli utenti. Ad esempio, la credibilità e l’accuratezza dei fact-checker e dei controllori di terze parti dovrebbero essere chiare. E gli utenti dovrebbero avere maggiori informazioni su come e perché vengono promossi determinati contenuti rispetto ad altri.
Infine, la collaborazione globale è fondamentale. La disinformazione non conosce confini, quindi nemmeno gli sforzi per combatterla dovrebbero essere limitati da confini geografici. Gruppi di esperti come il Credibility Coalition, che unisce società tecnologiche, università e organizzazioni no-profit di 75 paesi, sono fondamentali per identificare e condividere le migliori pratiche. Solo lavorando insieme in tutto il mondo è davvero possibile far fronte alla crescente minaccia dei deepfake e di altre forme di manipolazione dell’informazione.
La strada da percorrere è lunga, ma se governi, aziende e utenti uniscono le forze si può vincere questa battaglia per un futuro più veritiero e trasparente. La post-verità non deve essere una condanna, ma un avvertimento che spinge all’azione.
Dubbi o problemi? Vi aiutiamo noi
Puoi scoprire contenuti esclusivi ed ottenere supporto seguendo i canali Youtube, TikTok o Instagram del nostro fondatore Gaetano Abatemarco. Se hai Telegram vuoi rimanere sempre aggiornato, iscriviti al nostro canale Telegram.