La nostra percezione di “realtà” è stata sconvolta dal progresso dell’Intelligenza Artificiale, in particolare dal fenomeno dei DeepFake, ossia contenuti audiovisivi artificialmente generati o manipolati da reti neurali e tecniche di apprendimento profondo (deep learning). I casi tragicamente noti includono manipolazioni su foto e video che ritraggono, ad esempio, figure pubbliche in azioni compromettenti, o la creazione di contenuti pornografici in cui volti e corpi di individui reali vengono sostituiti con volti e corpi di persone del tutto ignare. Alcuni di questi contenuti, denominati deepnude o deepfake porn, hanno provocato serie violazioni della dignità personale, danneggiando l’immagine del soggetto colpito e generando, in diverse situazioni, anche truffe ed estorsioni.

È sempre più frequente, inoltre, che i DeepFake siano sfruttati per agitare lo spettro della disinformazione politica, danneggiando figure istituzionali e influenzando l’opinione pubblica e il voto degli elettori. In Italia, ad esempio, ha destato particolare clamore la notizia di contraffazioni vocali attribuite al Ministro della Difesa Guido Crosetto, utilizzate a fini di frode o ricatto economico. Questo conferma i timori che le conseguenze vadano ben oltre l’offesa personale: si toccano i pilastri stessi delle democrazie e della credibilità istituzionale.
La crescita esponenziale di questi contenuti solleva questioni inedite sul diritto all’identità e sui pericoli di manipolazioni subdole, come quelle che riguardano la creazione di falsi materiali pedo-pornografici o di video e audio calzanti persuasivi, utili per sofisticati attacchi di social engineering. Basti pensare che, secondo il 2025 Identity Fraud Report, ogni cinque minuti si registra un tentativo di truffa tramite DeepFake. E, stando alle proiezioni del World Economic Forum, entro il 2026 oltre il 90% dei contenuti online sarà generato artificialmente. La posta in gioco è cruciale: abbracciamo la sfida e cerchiamo di governarla, oppure rischiamo un collasso di fiducia nell’ecosistema dell’informazione.
Dall’approvazione recente dell’AI Act europeo, fino ai primi tentativi di regolamentare i DeepFake in diversi ordinamenti, il dibattito è attraversato da spinte contraddittorie: da un lato, vi sono forze che chiedono disposizioni penali sempre più dure per punire chi abusa di questa tecnologia, dall’altro esiste una corrente di pensiero che riconosce la dimensione inarrestabile dell’innovazione, invitando a valutare strategie di convivenza e adattamento. In che modo? Apponendo segni identificativi nelle produzioni generate dall’IA e imponendo obblighi di trasparenza sui contenuti manipolati. Ma è sufficiente un approccio vincolistico o il fenomeno è già irreversibilmente radicato?
Deep fake, contesto normativo
Nel contesto italiano, il disegno di legge approvato dal Governo il 23 aprile 2024 intende introdurre il reato di DeepFake, stabilendo una cornice giuridica all’art. 612-quater del Codice penale e prevedendo pene detentive da uno a cinque anni. Questa norma, pur rappresentando un passo avanti, cerca di arginare le conseguenze più gravi della manipolazione digitale, definendo particolari ipotesi di procedibilità d’ufficio in casi di minori, di incapacità della vittima o di coinvolgimento di figure pubbliche. L’iniziativa si inserisce in una più ampia linea di azione, ispirata anche al Garante della Privacy, che da tempo promuove informatizzazione e trasparenza per frenare l’abuso dell’IA.
Sul piano europeo, l’AI Act ha il merito di introdurre criteri di valutazione del rischio associati ai vari impieghi dei sistemi di Intelligenza Artificiale, disciplinando anche l’uso di tecniche di generazione automatica dei contenuti. Si tratta di una normativa quadro che orienta gli Stati membri verso un principio di tutela dei consumatori e di salvaguardia della reputazione e della dignità dell’individuo, ma che al contempo rimane sensibile agli orientamenti di mercato e allo sviluppo tecnologico.
L’interpretazione corrente, sostenuta da numerosi giuristi e policy maker, vede nelle norme restrittive la principale risposta per contrastare i pericoli dell’IA generativa. Difatti, la severità delle sanzioni per la diffusione di contenuti falsi e diffamatori si giustifica con l’intenzione di arginare i danni psicologici, economici e reputazionali per le vittime. La cronaca cita ripetutamente esempi di come i DeepFake possano distruggere carriere e reputazioni, non solo per i personaggi famosi ma anche per i semplici cittadini: il ricatto e il cosiddetto “revenge porn” digitale aumentano in maniera esponenziale, con grave ricaduta sociale.
Tuttavia, il susseguirsi di interventi legislativi, e il tentativo di imporre, all’interno delle piattaforme, obblighi di inserimento di filigrane o segni di riconoscimento per i contenuti generati con IA, non sempre trova un agevole riscontro sul piano tecnico. È di comune evidenza, infatti, che i criminali informatici continuino a perfezionare strumenti e modelli di apprendimento automatico in grado di eludere i watermark. Ciò rende incerta la concreta efficacia di misure puramente repressive, inducendo alcuni studiosi a sollevare un quesito più radicale: se i mezzi di sorveglianza e l’inasprimento delle pene non bastano, diventa forse necessario un modello etico, sociale e persino culturale che affronti la “nuova realtà” come un dato di fatto, costruendo strategie di resilienza e nuove forme di verifica dell’autenticità?
Quando la finzione diventa realtà
La suggestione che alcune correnti di pensiero propongono è quella di inserire i DeepFake nell’orizzonte più ampio di un ecosistema digitale dove la manipolazione e la contraffazione sono parti integranti e, in una certa misura, “naturali”. Come il fotomontaggio e la post-produzione hanno da tempo modificato la nostra relazione con le immagini statiche, così la sintesi vocale e video generata dall’IA potrebbe imporsi come nuova forma d’espressione o di narrazione, talvolta anche artistica.
È vero che le implicazioni sulla sfera della privacy e della sicurezza rimangono fondamentali: lo dimostrano le cronache su attacchi di social engineering in cui voci artificiali di amici o colleghi inducono le vittime a effettuare pagamenti o a rivelare informazioni aziendali riservate. Ma, mentre ci si adopera per rafforzare i controlli tecnici, numerosi esperti di Behavioural Science suggeriscono che le contromisure possano risiedere anche nel sensibilizzare le persone a diffidare dei contenuti “troppo reali per essere veri”.
Si pensi, per esempio, all’operato di società specializzate in cyber-intelligence che non si limitano a individuare e a segnalare potenziali falsificazioni, ma tentano di agire nella formazione e nell’educazione all’uso delle piattaforme digitali, stimolando un approccio critico e consapevole. È un diritto, e insieme un dovere, imparare a decodificare i messaggi, a verificare le fonti e a guardare con occhio critico le immagini e i video che incontriamo online.
La “nuova narrativa”, inoltre, si colora di implicazioni estetiche e antropologiche. La questione non è soltanto come fermare i DeepFake, ma anche come interpretarli: se riteniamo che l’IA possa essere uno strumento creativo e performativo, i contenuti generati artificialmente assumono un ruolo cruciale nello sviluppo di prodotti culturali e artistici. Non a caso, già si profilano eccezioni nei progetti di legge affinché le opere palesemente fittizie, satiriche o artistiche siano in qualche modo esentate dalla marcatura obbligatoria. Tale apertura rivela la volontà di rendere le norme permeabili alle forme di sperimentazione, purché non ledano in modo diretto e irreparabile la reputazione o l’immagine di singoli individui.
Leggi anche: L’illusione del fossato, l’Intelligenza artificiale open-source demolisce il castello delle Big Tech
Infine, non si può trascurare il dibattito sul confine sempre più sfumato tra la realtà e la post-verità: i DeepFake ampliano la disponibilità di strumenti per manipolare opinioni e sentimenti collettivi. Ma proprio la proliferazione di tali produzioni, paradossalmente, potrebbe spingere la società a diventare più accorta nella valutazione dell’informazione. A un certo punto, contrassegnare i contenuti generati dall’IA potrebbe non essere sufficiente: la distinzione tra vero e falso potrebbe diventare un esercizio di analisi critica, un passo evolutivo nel modo in cui fruiamo dell’infosfera.
Guardando al mondo aziendale, la crescente diffusione dei DeepFake non è questione che concerne unicamente la cybersecurity in senso stretto, ma si colloca piuttosto in una problematica più vasta di gestione della reputazione e definizione di strategie difensive e proattive. All’interno di un contesto competitivo, dove l’innovazione digitale determina l’immagine delle società e dei loro leader, i DeepFake possono diventare un’arma potente per i competitor o per azioni di discredito, con potenziali effetti disastrosi sulla fiducia di clienti, investitori e stakeholder.

In uno scenario in cui il confine tra realtà e manipolazione diventa poroso, diventa cruciale agire a monte, sviluppando competenze interdisciplinari che uniscano la conoscenza tecnologica e la sensibilità psico-sociale. Aziende e manager devono dotarsi di strumenti di monitoraggio reputazionale costante e di servizi di intelligence in grado di reagire in tempo reale alla diffusione di informazioni false o manipolate. La gestione tempestiva della crisi passa anche dal training del personale e dalla predisposizione di piani di risposta che prevedano, ad esempio, momenti di fact-checking e di rettifica istituzionale.
La corporate reputation è oggi esposta a rischi esponenziali, poiché la creatività degli attaccanti non conosce freni. Per questo, oltre alla componente difensiva, molte organizzazioni stanno iniziando a considerare un approccio maggiormente “convivente” con l’innovazione profondamente disruptive della generazione artificiale di contenuti. Piuttosto che ambire all’eliminazione totale dei DeepFake, si prospetta un futuro dove le aziende integrino meccanismi di autenticazione, firma digitale o watermarking, nonché prassi di divulgazione volte a far conoscere ai clienti e al pubblico le caratteristiche dei materiali ufficiali.
Un esempio intrigante di risposta propositiva è la promozione di una cultura aziendale della trasparenza e della formazione. I dipendenti, nei reparti comunicazione e marketing, potrebbero essere formati per produrre, rilevare o smascherare contenuti manipolati, anticipando e mitigando le dinamiche di panico reputazionale. Allo stesso tempo, i piani di crisi devono contemplare il possibile utilizzo dei DeepFake a scopo ricattatorio o diffamatorio, mettendo in atto prevenzione e soluzioni tecnologiche che diventino parte integrante dei processi organizzativi.
Alcune società specializzate in monitoraggio e tutela della reputazione ragionano già oggi sull’opportunità di sfruttare anche gli aspetti positivi dell’IA generativa, ricorrendo a simulazioni di crisi per allenare dirigenti e vertici aziendali a riconoscere situazioni critiche. Si creano, in pratica, laboratori di sperimentazione in cui i DeepFake diventano strumenti di addestramento su come affrontare campagne di discredito e sofisticati attacchi di phishing o social engineering. In questo senso, paradossalmente, l’integrazione dell’IA diventa un fattore di resilienza, spostando l’enfasi dal semplice contrasto di un fenomeno apparentemente incontrollabile a una strategia di adattamento.
In ultima analisi, mentre i legislatori affinano nuove disposizioni e la società si interroga su come contrassegnare la verità, il mondo corporate ha già compreso di essere in prima linea. L’identità digitale, componente centrale di un brand, si trova a convivere con una radicale metamorfosi che non lascia più spazio a confini netti tra finzione e autenticità. Se i DeepFake sono il sintomo di una trasformazione epocale, intenzionata a ridefinire ruoli e responsabilità, allora la risposta, almeno per le aziende, andrà oltre la sola repressione. Si dovrà abbracciare la “nuova realtà” come un ambiente in continua evoluzione, sviluppando anticorpi tecnologici, comunicativi e culturali idonei a proteggere la reputazione e, al tempo stesso, a cogliere le potenzialità creative del futuro digitale.