
La capacità delle tecnologie di generare contenuti audiovisivi realistici ma completamente falsi è ormai realtà. I cosiddetti deepfake rappresentano un fenomeno sempre più diffuso, in cui il volto e/o la voce di una persona vengono imitati al punto da sembrare autentici. Negli ultimi anni, anche figure di rilievo internazionale come Barack Obama e Volodymyr Zelenskyy sono finite involontariamente protagoniste di questi artefatti digitali.
Nel 2022, ad esempio, un video contraffatto mostrava un finto Zelenskyy annunciare la resa dell’Ucraina. Un contenuto generato da hacker russi che ha fatto rapidamente il giro del web. Eventi come questo alimentano l’ipotesi che i deepfake possano diventare armi di disinformazione politica. Contenuti in grado di alterare il contesto informativo e minare la fiducia nel reale.
Politica e IA: una minaccia più teorica che concreta (per ora)
Nonostante i timori diffusi, le evidenze attuali suggeriscono che i deepfake abbiano avuto un impatto marginale sulle recenti tornate elettorali. Secondo Meta, nel contesto delle elezioni del 2024, meno dell’1% dei contenuti problematici individuati era generato da intelligenza artificiale su temi politici e sociali. Una percentuale minima che ridimensiona, almeno per ora, il peso effettivo di questa tecnologia nel campo dell’informazione.
Resta comunque aperta la questione della fiducia. Se un utente vede un video in cui una figura pubblica afferma qualcosa che già coincide con le sue convinzioni, difficilmente ne metterà in discussione la veridicità. Un meccanismo pericoloso, alimentato dal cosiddetto confirmation bias, che può rafforzare credenze errate e polarizzare ulteriormente il dibattito.
La pornografia deepfake: l’oscuro volto dell’IA
Se l’ambito politico ha mostrato una certa resilienza ai contenuti contraffatti, lo stesso non si può dire per quello sessuale. Il vero terreno fertile per la proliferazione dei deepfake è infatti la pornografia. Secondo un report del 2023, il 98% dei video deepfake in circolazione è di natura pornografica, e il fenomeno colpisce sia celebrità che persone comuni.
Google riceve regolarmente migliaia di segnalazioni per la rimozione di contenuti pornografici falsificati, mentre Telegram ospita decine di bot capaci di spogliare digitalmente le vittime, con milioni di utenti attivi ogni mese. Si tratta di una forma estremamente invasiva di abuso digitale, conosciuta come NCDII (non-consensual deepfake intimate imagery), che colpisce in modo sproporzionato le donne e alimenta una cultura digitale misogina e predatoria.
Oltre il video: la minaccia invisibile degli audio contraffatti
Un aspetto ancora più subdolo dei deepfake riguarda l’ambito sonoro. Gli audio fake, che riproducono solo la voce di una persona, sono ancora più difficili da riconoscere rispetto ai video. Alcuni casi recenti, emersi durante le elezioni in Slovacchia e in alcune campagne negli Stati Uniti, mostrano come anche questi strumenti possano essere usati per ingannare gli elettori o danneggiare la reputazione di individui e organizzazioni.
La loro insidiosità risiede nella naturale fiducia che molte persone ripongono nella voce, considerata più difficile da falsificare. Ma le tecnologie attuali smentiscono questa percezione.
Lotta ai deepfake: le prime difese contro l’inganno digitale
L’industria della difesa e della sicurezza informatica ha cominciato a sviluppare i primi strumenti per contrastare questi contenuti. Il Dipartimento della Difesa USA, ad esempio, ha osservato che nei video falsificati i movimenti oculari sono spesso innaturali, in quanto generati da immagini statiche con occhi aperti. Un dettaglio che potrebbe rivelarsi fondamentale per sviluppare software in grado di identificare automaticamente i deepfake.
Anche la politica si sta muovendo per attrezzarsi. I team di comunicazione lavorano alla costruzione di reti di attivisti digitali pronti a intervenire tempestivamente per smentire contenuti virali falsi. Allo stesso tempo, si punta a un rafforzamento dei sistemi di monitoraggio delle piattaforme social, per arginare le manipolazioni sul nascere.
Verso un futuro opaco? Il rischio della realtà indistinguibile dalla finzione
Un esperimento emblematico è stato quello realizzato dal regista Jordan Peele in collaborazione con BuzzFeed, in cui si mostra Barack Obama pronunciare un discorso mai tenuto. Il video, ottenuto grazie al software FakeApp, è un chiaro monito su ciò che ci attende: “Stiamo entrando in un’era nella quale i nostri nemici possono far dire qualsiasi cosa, a chiunque, in qualsiasi momento”.
La sofisticazione crescente dei deepfake solleva dubbi inquietanti sulla nostra capacità di distinguere ciò che è reale da ciò che è costruito. Se la manipolazione audiovisiva diventa indistinguibile dalla realtà, rischiamo di trovarci in un contesto in cui la verità non è più un riferimento solido, ma una costruzione arbitraria, facilmente manipolabile da chi detiene gli strumenti.
Tra consapevolezza e responsabilità collettiva
Il problema più grande non è tanto la tecnologia in sé, quanto l’uso che se ne fa in un mondo sempre più polarizzato e povero di pensiero critico. La responsabilità è anche di chi guarda, legge e condivide senza verificare, affidandosi ciecamente a contenuti apparentemente autorevoli.
Serve un’educazione mediatica diffusa, una maggiore trasparenza da parte delle piattaforme e soprattutto un approccio più maturo da parte degli utenti, capaci di interrogarsi sulla fonte, sull’autenticità e sull’intento dei contenuti che consumano. Solo così potremo sperare di affrontare con lucidità le sfide di un’era in cui anche la verità può essere falsificata.