Le deepfake rappresentano una delle più recenti evoluzioni della disinformazione, un fenomeno che affonda le radici nella storia umana. Dalla falsificazione di documenti storici a notizie inventate, l’umanità ha sempre affrontato il problema della manipolazione delle informazioni. Con l’avvento della tecnologia, le deepfake emergono come strumenti sofisticati in grado di creare contenuti audiovisivi ingannevoli, rendendo difficile discernere la verità. Questa tecnologia non solo minaccia l’integrità dell’informazione, ma ha anche un impatto significativo sulla salute psicologica e fisica delle persone.
Le donne, in particolare, sono frequentemente oggetto di attacchi attraverso video e immagini manipolati, che possono ledere la loro reputazione e il loro benessere. Le deepfake possono essere utilizzate per diffondere notizie false, promuovere stereotipi negativi o addirittura creare situazioni compromettenti. Questi attacchi non solo alimentano la disinformazione, ma possono anche generare ansia, depressione e stress tra le vittime. In questo contesto, è fondamentale sensibilizzare l’opinione pubblica sull’importanza della verifica dei contenuti e della responsabilità nella condivisione delle informazioni, per proteggere la salute mentale e il diritto all’immagine delle donne e di tutti gli individui. Pensate che si può iniziare anche nelle scuole a parlare di deepfake e monitorare l’uso degli adolescenti della rete.
Una piattaforma innovativa per mascherare i deepfake

Insieme alla disinformazione attraverso video e foto cresce anche l’intelligenza artificiale, una migliore scienza su algoritmi e machine learning, strumenti per scoprire e frenare i deepfake. Così, un gruppo di ricercatori dell’Università di Buffalo, guidato da Siwei Lyu, ha creato il DeepFake-o-Meter . Si tratta di una piattaforma open-source , quindi accessibile a tutti, che consente, dai professionisti del giornalismo ai cittadini comuni, di analizzare file video o audio sospetti in tempi rapidissimi, ricevendo risultati in meno di un minuto.
Il DeepFake-o-Meter sfrutta le tecnologie all’avanguardia per valutare la probabilità che un determinato contenuto sia stato prodotto da un’intelligenza artificiale. A differenza di altri strumenti che offrono solo risposte semplici, questa piattaforma fornisce una valutazione più dettagliata e sfumata. Inoltre, la sua natura open-source permette agli utenti di contribuire attivamente al miglioramento degli algoritmi, facilitando un approccio collaborativo che mira a costruire una comunità responsabile nella lotta contro la disinformazione.
Un aspetto distintivo del DeepFake-o-Meter è la sua capacità di coinvolgere gli utenti nella ricerca e nello sviluppo, incoraggiandoli a caricare contenuti sospetti e a condividere i risultati con i ricercatori. Questo scambio di informazioni può potenziare la capacità di rilevamento e migliorare le prestazioni della piattaforma nel tempo. I ricercatori puntano a integrare ulteriori funzionalità per riconoscere anche gli strumenti di intelligenza artificiale utilizzati nella creazione di deepfake. In definitiva, il DeepFake-o-Meter rappresenta un progresso significativo nella verifica della veridicità dei contenuti, democratizzando l’accesso a strumenti di analisi avanzati e promuovendo una sinergia tra utenti e scienziati.
L’intelligenza artificiale utilizzata per creare la disinformazione diventa strumento per contrastarla. Le ricerche ci sono già da tempo, anche prima di OpenAi

L’intelligenza artificiale, sebbene spesso associata alla creazione di disinformazione, sta emergendo come uno strumento fondamentale per combatterla. Già da tempo, ricercatori e sviluppatori hanno lavorato su tecnologie in grado di rilevare e analizzare contenuti falsificati, molto prima dell’avvento di OpenAI. Su Focus , un articolo esplora come ChatGPT e altre intelligenze artificiali possono aiutare a contrastare i deepfake . Queste tecnologie, come Gemini di Google e Copilot di Microsoft, sono state testate da ricercatori dell’Università di Buffalo per identificare immagini e video manipolati. I deepfake , infatti, sono una forma avanzata di intelligenza artificiale che crea contenuti visivi ingannevoli, minando la fiducia nelle informazioni digitali.
ChatGPT si è dimostrato particolarmente efficace, con un’accuratezza del 79,5% nel rilevare incongruenze nelle immagini generate da modelli come StyleGAN e Latent Diffusion. A differenza degli altri algoritmi, ChatGPT è in grado di spiegare le proprie decisioni in un linguaggio chiaro, offrendo una comprensione più profonda del processo di analisi.
Tuttavia, nonostante le sue potenzialità, il modello non ha ancora raggiunto le performance dei migliori algoritmi di rilevamento, che superano il 90% di accuratezza. La sfida futura consiste quindi nel perfezionare questi strumenti per migliorare l’affidabilità nella lotta contro i deepfake e la disinformazione.
