«Dai, prova l’eroina!». Sembra l’inizio di una pessima barzelletta o il consiglio di un amico di cui liberarsi il prima possibile. Invece, è la sintesi agghiacciante di un suggerimento fornito da Reddit Answers, la nuova funzionalità di intelligenza artificiale della piattaforma, a un utente che cercava informazioni sulla gestione del dolore cronico. Non un caso isolato, ma un evento sentinella che squarcia il velo dell’hype sull’IA e ci costringe a guardare nell’abisso delle sue implicazioni.

L’AI di Reddit promuove l’uso di droghe?
La vicenda, portata alla luce da un operatore sanitario allarmato, è un concentrato perfetto di tutto ciò che può andare storto: un’IA che, attingendo al calderone indistinto dei contenuti generati dagli utenti, eleva aneddoti personali e pericolosi al rango di consiglio medico. Il sistema ha promosso l’uso di kratom (sostanza i cui rischi sono noti alla FDA) e persino di eroina, estrapolando e rielaborando conversazioni in cui alcuni utenti ne decantavano i presunti “benefici”.
Il punto qui non è deridere l’ennesimo “epic fail” di un algoritmo. Il punto è capire che questo non è un’eccezione, ma la regola. È la naturale conseguenza di un approccio che potremmo definire “allucinazione collettiva by design”.
Dati tossici, risultati tossici
Per capire perché l’IA di Reddit abbia partorito un’idea così scellerata, dobbiamo smettere di pensarla come un’entità senziente e vederla per quello che è: un pappagallo stocastico, per usare la brillante metafora del saggio “On the Dangers of Stochastic Parrots” di Emily M. Bender e colleghi. Questi sistemi non “capiscono” il significato di ciò che scrivono; sono motori di correlazione statistica incredibilmente potenti che imparano a replicare pattern presenti nei dati con cui sono stati addestrati.
Se l’addestramento avviene su un corpus come Reddit – un universo di conoscenza, sì, ma anche di disinformazione, aneddoti, bias e consigli francamente letali – l’IA impara a imitare tutto, senza discernimento. È l’apoteosi del principio Garbage In, Garbage Out. In questo caso, però, il “garbage” non è un dato errato in un foglio di calcolo, ma un’esperienza personale potenzialmente mortale, decontestualizzata e riproposta con un’aura di autorevolezza tecnologica. L’IA non ha suggerito l’eroina perché “pensa” sia una buona idea, ma perché ha identificato una correlazione statistica tra “gestione del dolore” e post in cui utenti ne parlavano in termini (irresponsabilmente) positivi.
L’abisso della fiducia mal riposta
Il vero pericolo, però, non risiede solo nella macchina, ma nell’interazione con l’essere umano. L’utente che ha sollevato il caso lo ha detto chiaramente: “Come società, cerchiamo aiuto dagli altri quando non sappiamo cosa fare”. E qui si innesta un cortocircuito psicologico devastante.
Da un lato, c’è la nostra tendenza all’automation bias: tendiamo a fidarci intrinsecamente di più delle risposte fornite da un sistema automatizzato rispetto a quelle umane. L’interfaccia pulita, la risposta istantanea e l’assenza di inflessioni emotive conferiscono un’illusione di oggettività e infallibilità. Dall’altro lato, chi è più vulnerabile a questi consigli? Proprio chi ha una bassa alfabetizzazione medica, ovvero chi non possiede gli strumenti critici per distinguere un’informazione credibile da una pericolosa assurdità.
L’IA di Reddit non ha fatto altro che creare una tempesta perfetta: ha amplificato i contenuti più rischiosi e li ha serviti su un piatto d’argento proprio al pubblico meno preparato a gestirli, sfruttando le nostre vulnerabilità cognitive.
Bloccare il sintomo, ignorare la malattia
La risposta di Reddit, arrivata dopo che la notizia è diventata virale, è stata tanto rapida quanto superficiale. Hanno implementato un aggiornamento per impedire all’IA di generare risposte su “argomenti sensibili”. Questa non è una soluzione, è un’ammissione di impotenza.
Primo, chi definisce cosa è “sensibile”? La salute lo è, ma la finanza personale? I consigli legali? Le relazioni interpersonali? È un tentativo di contenere il danno giocando a “acchiappa la talpa”, senza affrontare il problema strutturale.
Secondo, e più importante, questo approccio elude la domanda fondamentale sulla responsabilità epistemologica di chi progetta questi sistemi. Il problema non è che l’IA parli di argomenti sensibili; il problema è che non ha alcuna capacità di verificare la veridicità, la sicurezza o l’etica di ciò che dice. La soluzione non è zittire l’IA su certi temi, ma progettarla con l’umiltà di riconoscere i limiti della propria conoscenza. Un’IA veramente “intelligente” in questo contesto non avrebbe dovuto dare una risposta, ma dire: “Questa è una domanda seria che riguarda la tua salute. Per favore, parlane con un medico qualificato”.
Questo caso, quindi, cessa di essere un aneddoto su Reddit e diventa un monito per l’intera industria. L’urgenza di implementare soluzioni IA ovunque sta portando a un’abdicazione di responsabilità. Stiamo costruendo oracoli potentissimi addestrandoli sulla saggezza (e la follia) della folla, senza dotarli del minimo filtro critico.
Il futuro dell’intelligenza artificiale non si giocherà sulla potenza computazionale o sulla vastità dei dati, ma sulla nostra capacità di infondere in essa i principi di cautela, verifica e, soprattutto, consapevolezza dei propri limiti. Altrimenti, continueremo a ricevere inviti a provare l’eroina, mascherati da utili suggerimenti. E la colpa non sarà solo dell’algoritmo.

