Il caso del gruppo Facebook “Mia Moglie” non è solo la cronaca di uno “stupro digitale”, ma il sintomo di un problema sistemico. È la tecnologia che amplifica una violenza culturale preesistente, trasformandola in spettacolo pubblico. E che fa sorgere il paradosso della nostra reazione: nel denunciare, rischiamo di diventare complici attraverso l’Effetto Streisand, allargando la platea dei voyeur. La soluzione non è la censura reattiva, ma un ripensamento radicale del design delle piattaforme e una profonda riflessione sul nostro ruolo di cittadini digitali.

Immagina un’enorme piazza virtuale. Trentaduemila persone. Al centro, vengono proiettate in loop le foto intime di tua moglie, tua sorella, tua figlia. A condividerle è l’uomo che dovrebbe proteggerla, e la folla commenta, deride, incita. Non è la scena di un film distopico, ma la cruda realtà di ciò che è accaduto su Facebook, all’interno di un gruppo chiamato “Mia Moglie”.
Il gruppo è stato chiuso, certo. Ma liquidare la faccenda così sarebbe un errore intellettuale e strategico. La vera domanda, quella che ci riguarda tutti, è un’altra: parlandone così tanto, dandogli un nome, amplificandone la portata, abbiamo davvero aiutato le vittime o abbiamo solo allargato il pubblico dei voyeur, rendendoci involontariamente complici di questa violenza?
Anatomia di un mercato della violenza
Partiamo dai fatti, perché sono la base di ogni analisi seria. Un gruppo Facebook con oltre 32.000 iscritti, attivo per anni, viene chiuso da Meta. Al suo interno, una community di uomini era dedita alla condivisione non consensuale di immagini intime delle proprie partner, un fenomeno che molti definiscono senza mezzi termini stupro digitale, anche se personalmente tendo ad evitarlo, perché l’abuso di un termine porta a quello che in linguistica si chiama inflazione semantica: a furia di usarlo ovunque, il suo significato si diluisce, si logora e finisce per sembrare vuoto.
La storia, però, è più complessa di una semplice “community di maniaci”. Il gruppo, nato nel 2019, è rimasto una cattedrale nel deserto fino al 2025, quando una nuova gestione lo ha fatto decollare. L’amministratore? Un account con generalità femminili, un dettaglio che aggiunge un livello di complessità comportamentale non da poco e che meriterebbe un’analisi a parte.
Leggi anche: L’illusione del fossato, l’Intelligenza artificiale open-source demolisce il castello delle Big Tech
Il contenuto era un mix tossico e, per la moderazione, ambiguo: da un lato, coppie consenzienti, scambisti, voyeur. Dall’altro, ed è questo il nucleo della violenza, la presenza accertata di immagini non consensuali, con vittime che si sono rivolte a progetti come il mio, PermessoNegato, per chiedere aiuto. Questa “zona grigia” ha fornito per anni uno scudo di plausible deniability, un’ambiguità che ha permesso agli abusatori di nascondersi in bella vista, rallentando l’intervento di Meta.
La denuncia pubblica della scrittrice Carolina Capria ha innescato una reazione a catena. La pressione mediatica ha costretto Meta a un intervento reattivo, non proattivo, citando la violazione delle policy sullo sfruttamento sessuale. Il risultato? Il gruppo chiude, ma come un’Idra, rinasce subito altrove su Telegram e WhatsApp. La Polizia Postale indaga, ma il problema si è già frammentato e inabissato, dimostrando la drammatica futilità del semplice “takedown”.
L’uso sociale della tecnologia
Il vero problema qui non è il gruppo Facebook: quello semmai è il sintomo. Il problema è la trasformazione della violenza domestica e di genere da atto privato a spettacolo pubblico, normalizzato e gamificato attraverso le piattaforme digitali.
Siamo di fronte a un caso da manuale di Abuso Tecnologicamente Facilitato, dove l’intimità e la fiducia, pilastri di una relazione, vengono trasformate in armi di controllo e umiliazione di massa. A livello comportamentale, la dinamica dei 32.000 membri è spiegata perfettamente da due concetti della psicologia sociale: la deindividuazione e la diffusione di responsabilità. Protetti dallo schermo e dalla forza del numero, gli individui perdono le proprie inibizioni morali. Nessuno si sente pienamente colpevole, perché “lo fanno tutti”, o come ha candidamente ammesso uno dei membri, “sono solo un voyeur, che male c’è?”.
La strategia di Meta, quella che in gergo chiamo whack-a-mole (colpisci una talpa, ne spunta un’altra), è strutturalmente fallimentare, e non solamente quella di Meta, sia chiaro, ma quella un po’ di tutte le piattaforme. Non affronta il problema alla radice: il design stesso della piattaforma, che è ottimizzato per l’engagement e l’aggregazione, ma non per la sicurezza. Questi spazi non nascono tossici, ma la loro architettura può incentivare la formazione di simili mercati della violenza.
Quando la cura rischia di essere peggio del male
La questione centrale, dal punto di vista della policy e dell’etica della comunicazione, è un paradosso doloroso, noto come Effetto Streisand: più si cerca di sopprimere un’informazione, più questa si diffonde in modo virale. Nominando il gruppo, abbiamo creato un’onda di sdegno, ma anche di morbosa curiosità. Quanti, leggendo la notizia, sono andati a cercarlo, alimentando involontariamente la sua visibilità?
Questo apre un dilemma enorme per attivisti e giornalisti. Per denunciare il male, a volte, siamo costretti a dargli un nome e un palcoscenico. Ma dove si trova il confine? A che punto la denuncia smette di proteggere le vittime e inizia a ri-vittimizzarle, esponendole a un pubblico ancora più vasto?
Questo caso sposta con forza il dibattito dalla libertà di espressione al diritto fondamentale alla sicurezza. La scusa del “gruppo privato” crolla nel momento in cui uno spazio digitale diventa un’infrastruttura per perpetrare violenza di genere su scala industriale. La soluzione, quindi, non può essere solo la moderazione dei contenuti, che è come svuotare l’oceano con un secchiello. La vera sfida è agire a monte, sul Safety by Design: progettare ambienti digitali che rendano strutturalmente più difficile l’aggregazione tossica.
La tecnologia funziona qui come un potente amplificatore di una cultura tossica che già esiste, non un problema di Facebook, è un problema della nostra società, che su Facebook trova solo lo stadio perfetto dove celebrare i suoi giochi più crudeli.
La chiusura del gruppo “Mia Moglie” non è una vittoria. È solo la fine del primo tempo di una partita molto più lunga e complessa, che si gioca sul piano culturale e sulla progettazione responsabile, non sulla censura. Abbiamo acceso un riflettore su un sistema di violenza, ma forse abbiamo anche bruciato ancora di più le vittime.
Questo ci impone una riflessione profonda sul nostro ruolo: la prossima volta che scoppierà un caso simile – e succederà – la domanda da porci non sarà solo “come lo chiudiamo?”, ma “come possiamo agire senza che la nostra stessa attenzione diventi un’ulteriore arma contro le vittime?”.