di Phineas Hogan (traduzione di Cristiana Bedei)
La personalizzazione sui social media ha accelerato e ampliato la diffusione di contenuti falsi e ingannevoli. TikTok, che con la sua pagina “Per Te” propone un flusso continuo di video selezionati in base agli interessi degli utenti, determinati da dati come cronologia di navigazione, interazioni e posizione geografica, ha introdotto un modello che è stato presto adottato da altre piattaforme. Instagram, ad esempio, ha iniziato a integrare post consigliati nel feed principale già nel 2018 e, nel 2020, ha lanciato Reels, brevi video simili a quelli di TikTok. Nello stesso anno, YouTube ha introdotto Shorts, mentre all’inizio del 2024 anche X ha aggiunto la scheda “Per Te” al proprio sistema.
Questi cambiamenti hanno rivoluzionato il modo in cui le persone scoprono e interagiscono con i contenuti sui social media, osserva Sejin Paik, product manager di TrueMedia.org: “Indipendentemente da chi segui, i contenuti che ti vengono proposti sono quelli che il sistema giudica più coinvolgenti e adatti ai tuoi interessi.”
In questo ecosistema digitale, i contenuti falsi si confondono con quelli verificati, creando un ambiente ideale per la diffusione dei deepfake: immagini e video estremamente realistici, manipolati digitalmente per rappresentare persone mentre fanno o dicono cose mai fatte o dette. Prima delle elezioni presidenziali statunitensi del 2024, sono emersi esempi significativi di questa tecnologia: video deepfake di discorsi mai pronunciati, immagini che ritraevano agenti dei Servizi Segreti sorridenti dopo l’attacco in cui Donald Trump era stato colpito da un proiettile avvenuto a luglio, e screenshot di articoli fasulli che diffondevano notizie ingannevoli sul voto. Questi contenuti, intrecciati con notizie autentiche, hanno reso sempre più complicato distinguere realtà e finzione.
Con l’evoluzione delle tecnologie di intelligenza artificiale generativa, sempre più facili da usare e accessibili, verificare l’autenticità dei post sui social media diventerà un compito sempre più complesso. Per rispondere a questa esigenza, TrueMedia ha sviluppato uno strumento in grado di rilevare segni di manipolazione in immagini e video condivisi online.
Deepfake e disinformazione
TrueMedia è stata fondata nel gennaio 2024 da Oren Etzioni, esperto di intelligenza artificiale, spinto dalla preoccupazione per le potenziali implicazioni dell’IA in un anno elettorale cruciale. Questa organizzazione no-profit riunisce figure nell’ambito della ricerca, dell’ingegneria e delle scienze sociali con l’obiettivo di sviluppare tecnologie per affrontare problemi di rilevanza sociale — un approccio che Paik definisce “sociotecnologia”.
La diffusione pubblica delle tecnologie di intelligenza artificiale ha portato a una crescita esponenziale dei contenuti generati artificialmente, che si sono trasformati in strumenti sempre più potenti per la manipolazione politica. Giornaliste e giornalisti temono che il fenomeno sia destinato a intensificarsi con il continuo avanzamento tecnologico.
Il modello della pagina “Per Te” amplifica significativamente l’impatto di questo complesso fenomeno di disinformazione, spiega Paik. I post acquistano visibilità sfruttando gli algoritmi, che premiano ciò che è popolare, senza curarsi della sua origine o veridicità. Gli algoritmi che regolano la visibilità dei post tendono a privilegiare i contenuti più popolari, senza considerare la loro origine o accuratezza. Di conseguenza, nei feed degli utenti predominano informazioni che riflettono i loro interessi e convinzioni, favorendo una diffusione virale di contenuti – veri o falsi che siano – progettati per massimizzare like e condivisioni.
In questo contesto, i deepfake rappresentano un fenomeno di enorme portata. Sono in grado di creare rappresentazioni altamente realistiche di qualsiasi cosa, dal Papa in abiti firmati a interi telegiornali completamente falsificati. Il loro utilizzo è in rapida ascesa: nel 2023 sono stati condivisi oltre 500.000 deepfake. E sebbene siano già ampiamente diffusi, giornaliste e giornalisti avvertono che la rivoluzione dell’intelligenza artificiale è solo agli inizi.
Riconoscere i deepfake
TrueMedia ha progettato un rilevatore di deepfake specificamente pensato per supportare chi fa giornalismo nella verifica dell’autenticità di immagini e video.
Lo strumento è semplice da usare: basta inserire il link del contenuto da verificare nel sistema. Questo analizza il file utilizzando una serie di software specializzati, sviluppati in collaborazione con partner tecnologici, per valutare la probabilità che il contenuto sia stato generato artificialmente.
Tuttavia, Paik avverte che nessun sistema può essere considerato infallibile. Il rilevatore, ad esempio, incontra difficoltà nell’identificare i cosiddetti “cheapfake” – immagini o video manipolati manualmente con strumenti semplici, non basati sull’intelligenza artificiale. Inoltre, chi crea disinformazione sta già elaborando strategie per eludere i rilevatori, come l’integrazione di deepfake su contenuti autentici.
Ma con l’avanzare delle capacità dell’intelligenza artificiale, si svilupperanno anche strumenti sempre più sofisticati per rilevarla e contrastarla. “Siamo ancora lontani da una precisione del 100%, ma questo strumento rappresenta un passo significativo nella direzione giusta,” afferma Paik. “Se i deepfake vengono creati con l’IA, sarà con l’IA che li combatteremo.”
Oltre la tecnologia: il ruolo del giornalismo
Di fronte all’aumento dei contenuti falsi sui social, Paik sottolinea che la tecnologia, per quanto avanzata, non è sufficiente. Giornaliste e giornalisti non possono limitarsi a identificare i deepfake: devono anche approfondire le origini, le motivazioni e gli effetti di questi contenuti.
Ad esempio, durante recenti uragani negli Stati Uniti, l’intelligenza artificiale è stata utilizzata per creare immagini false che ritraevano comunità devastate e sommerse dall’acqua. Questi contenuti, nonostante fossero riconosciuti come falsi, sono stati condivisi da alcune persone, incluse figure politiche, per manipolare le emozioni del pubblico e sostenere narrazioni distorte sulla risposta del governo agli eventi.
Paik sottolinea l’importanza di analizzare le ragioni per cui certi contenuti falsi riescono a diventare virali, evidenziando la necessità di contrastare queste narrazioni alla radice, andando oltre la semplice verifica di un video o un’immagine.
“Limitarsi a dire ‘Abbiamo scoperto che è falso!’ non è sufficiente,” conclude. “Chi lavora nel giornalismo ha il potere di informare e sensibilizzare il pubblico. È nostro dovere farlo.”
Questo articolo è stato pubblicato originariamente in inglese sul sito dell’International Journalists’ Network e viene condiviso qui in traduzione per gentile concessione.
Foto via Pexels
Senza Redazione ti è stato utile?
Se vuoi, puoi sostenere il progetto con un caffè virtuale.
Grazie mille!
