Dal mondo fisico allo spazio digitale
Quando un fenomeno raggiunge la ribalta, spesso se ne parla come se fosse avulso dal contesto da cui nasce. Nel racconto della violenza digitale, l’impressione è quasi quella di trovarsi di fronte a qualcosa che nasce e vive nella rete, che nel virtuale - e solo nel virtuale - trova la sua unica e piena realizzazione.
Ma la violenza digitale non nasce online. Non è un incidente tecnologico, né una deriva imprevista dell’innovazione. È la continuazione di dinamiche di potere che conosciamo da tempo, presenti e reali nel mondo fisico: solo più rapide, più pervasive e ancora più difficili da contenere e da fermare.
L’illusione della leggerezza
Uno degli elementi che rende la violenza digitale così difficile da riconoscere è la sua capacità di presentarsi come qualcosa di “meno grave”. Il fatto che avvenga online, che passi da uno schermo, contribuisce a costruire l’illusione che sia più leggera, meno reale, più facile da archiviare. Ma proprio questa apparente leggerezza permette alla violenza di circolare, sedimentarsi, diventare socialmente tollerabile.
Parlare della violenza digitale come se fosse separata dalla “vita reale” è perciò uno degli errori comunicativi più dannosi a cui assistiamo. “Se siamo incapaci di dialogare nella vita” come ha detto Riccardo Pedicone nel panel “
Stitch and Reel” al festival
Parole a Scuola, “non dialogheremo nemmeno nel riflesso della vita, che sono i social”. La violenza digitale di genere si colloca dentro un
continuum: attraversa il linguaggio, le relazioni, gli spazi pubblici e privati, e li mette in comunicazione.
Un abuso può nascere nell’intimità di una relazione e diventare pubblico in pochi clic. Un contenuto può essere rimosso, ma non dimenticato. La rete rompe i confini e rende il danno persistente.“Tantissime persone pensano che scrivere su Instagram o Facebook sia come essere al bar e sbraitare contro la televisione. Quello che manca è la consapevolezza che i social sono spazi pubblici. Compiere un’azione disdicevole in uno spazio pubblico fisico o in uno spazio digitale è equivalente; anzi, se lo fai online la possibilità che quel tuo atto disdicevole arrivi chissà dove è altissima.” Vera Gheno, dal podcast “Diciamolo Bene” di Parole O_stili in collaborazione con ENI. Ascolta la puntata qui!
Il soggetto conta
La rappresentazione come campo di abuso
Una delle forme più gravi e pervasive di violenza digitale oggi riguarda la perdita di controllo sulla propria immagine. Attraverso strumenti di generazione e manipolazione visiva, è possibile creare immagini intime non consensuali, alterare foto e video, costruire rappresentazioni sessualizzate che non corrispondono alla realtà.
Non è un dettaglio tecnico. È una questione di potere.
La violenza non passa solo dal corpo fisico, ma dalla sua esposizione forzata nello spazio pubblico, dalla trasformazione della persona in oggetto replicabile, condivisibile, monetizzabile. Anche quando l’immagine è sintetica, l’impatto è reale: reputazionale, psicologico, sociale.
Questa perdita di controllo non avviene nel vuoto. Le rappresentazioni non circolano liberamente, ma dentro ambienti digitali regolati da sistemi automatici che decidono cosa viene prodotto, cosa viene mostrato, cosa resta invisibile. È qui che la violenza smette di essere solo un gesto isolato e diventa un processo.
Questo passaggio è cruciale perché sposta lo sguardo dal singolo contenuto al contesto che lo rende possibile. Immagini, parole e messaggi sono inseriti in flussi che premiano velocità, reazione immediata, polarizzazione. In questi ambienti il tempo della riflessione si accorcia e quello dello stereotipo si allunga. La comunicazione digitale favorisce risposte intuitive, spesso emotive, che attingono a schemi già pronti: è così che pregiudizi noti trovano nuove forme di espressione, diventando più familiari, e quindi meno disturbanti.
Violenza algoritmica: quando i pregiudizi diventano automatici
Automazione e normalizzazione
Quando la creazione e la diffusione delle immagini passano attraverso meccanismi automatizzati, i pregiudizi non si limitano a emergere: vengono incorporati, ripetuti, resi parte del funzionamento stesso delle piattaforme. A questo punto parlare di singoli abusi non basta più: diventa necessario interrogarsi sul ruolo degli algoritmi nel trasformare la rappresentazione in una forma strutturale di violenza.
L’automazione gioca un ruolo decisivo in questo processo. I sistemi che regolano la visibilità dei contenuti tendono a rafforzare ciò che genera interazione, anche quando si tratta di linguaggi ostili o discriminatori. Il pregiudizio non viene solo ripetuto, ma rinforzato; la violenza non ha più bisogno di manifestarsi in forme esplicite per produrre effetti. Può agire in modo silenzioso, cumulativo, strutturale.
Con l’espressione violenza algoritmica si indicano quelle forme di discriminazione e danno che non passano da un insulto diretto o da un gesto esplicito, ma vengono prodotte da sistemi automatici che ripetono e amplificano pregiudizi già presenti nella società. È una violenza meno visibile, perché si nasconde dietro processi tecnici e decisioni apparentemente neutre, ma non per questo meno reale.
L’AI è ciò da cui impara
I modelli di intelligenza artificiale imparano da grandi quantità di dati - testi, immagini, comportamenti online - e quei dati riflettono un mondo segnato da disuguaglianze di genere, razza, età. Il risultato è che, anche partendo da richieste apparentemente neutre, questi sistemi restituiscono rappresentazioni sbilanciate: corpi femminili più spesso sessualizzati, ruoli di potere associati agli uomini, alcune identità ridotte a stereotipo o rese invisibili. Non perché “la macchina lo voglia”, ma perché sta automatizzando ciò che per anni è stato considerato normale.
Il problema si aggrava quando questi meccanismi vengono lasciati operare senza controllo e senza assunzione di responsabilità. L’automazione rende il pregiudizio più veloce, replicabile, difficile da contestare. E quando nessuno interviene - chi sviluppa, chi distribuisce, chi trae profitto - la discriminazione smette di essere solo culturale e diventa infrastruttura.
Una distinzione fondamentale
La violenza digitale e la violenza algoritmica indicano due livelli diversi dello stesso problema.
La violenza digitale riguarda comportamenti intenzionali messi in atto da persone attraverso strumenti tecnologici: insulti, minacce, molestie, controllo, diffusione non consensuale di immagini. È una violenza relazionale, in cui il digitale funziona da mezzo e da amplificatore.
La violenza algoritmica, invece, non si manifesta sempre come un gesto diretto, ma come un insieme di meccanismi strutturali: sistemi automatici progettati e addestrati su dati che riflettono disuguaglianze sociali e che, nel loro funzionamento quotidiano, rendono certi abusi più probabili, più visibili o più redditizi. Non “sostituisce” la violenza digitale: la sostiene e la normalizza. Tenere distinti questi piani è fondamentale per non confondere le responsabilità.
Il caso Grok
Corre più veloce l’innovazione o la responsabilità?
Il dibattito recente su Grok rende tutto questo particolarmente evidente. Il sistema è stato utilizzato su larga scala per produrre
abusi d’immagine: spogliare digitalmente donne reali senza consenso, generare immagini sessuali non consensuali e materiale che configura abusi anche su minori.
Non si tratta di un incidente né di un effetto collaterale imprevisto. Il rischio era noto da anni: chi seguiva lo sviluppo dell’intelligenza artificiale sapeva che abbassare drasticamente costi e tempi di produzione delle immagini avrebbe portato anche a questo. La risposta dell’azienda produttrice non è stata una vera prevenzione, ma l’introduzione di limitazioni a pagamento, presentate come misure di responsabilità. In realtà si tratta di un filtro economico, non etico: l’abuso non viene impedito, viene monetizzato. Il messaggio implicito è che si può fare, purché si paghi.
Intanto, mentre Commissione Europea, Regno Unito e Stati Uniti dichiarano il sistema problematico o illegale, gli interventi restano deboli e lenti. Le sanzioni diventano costi operativi sostenibili per piattaforme globali, mentre le leggi arrivano quando il danno è già stato prodotto, indicizzato e reso permanente. Il caso Grok mostra con chiarezza che il problema non è scegliere se la colpa sia dello strumento o dell’utente: quando si costruisce e si rilascia un sistema che rende il danno più facile, veloce e scalabile, anche chi lo progetta e lo distribuisce è parte della responsabilità.
Chi paga il prezzo più alto
La violenza che riduce al silenzio
I dati lo mostrano con chiarezza: la violenza digitale colpisce in modo sproporzionato donne, ragazze, bambine e bambini. Crescono i casi di adescamento online, di produzione e diffusione di materiale sessuale, di molestie ripetute. Una delle conseguenze più gravi - e meno visibili - è il ritiro dagli spazi digitali.
Molte ragazze smettono di esporsi, di partecipare, di prendere parola per paura di violazioni della privacy o attacchi. È una perdita che va oltre il singolo episodio: è una perdita di cittadinanza digitale, di opportunità sociali, culturali e professionali. La violenza non silenzia solo una persona, restringe lo spazio pubblico di tutte.
Subculture tossiche e normalizzazione dell’odio
La lingua del risentimento
Negli spazi digitali prendono forma subculture che non si limitano a esprimere disagio, ma
lo organizzano in un linguaggio.
La cosiddetta manosfera ne è un esempio: forum, canali e community online in cui il risentimento maschile viene tradotto in categorie, gerarchie, formule apparentemente razionali.
In questi ambienti le donne non sono persone con cui entrare in relazione, ma variabili da valutare. L’esperienza affettiva viene tradotta in schemi di misurazione: “valore” estetico, “livelli” di desiderabilità, corpi considerati “accessibili” o “fuori portata”. Il rifiuto non è letto come una scelta legittima, ma come un errore del sistema o un’ingiustizia subita. Se una relazione non avviene, la responsabilità viene spostata: non incompatibilità, ma “squilibrio del mercato”; non mancanza di interesse, ma “privilegio femminile”.
In questo quadro la frustrazione personale viene riformulata come diritto negato. Il linguaggio economico - punteggi, ranking, competizione - sostituisce quello relazionale. Così la complessità delle relazioni scompare e al suo posto resta una narrazione che legittima il risentimento e prepara il terreno alla violenza, rendendola prima dicibile e poi pensabile.
L’odio come sfondo culturale
Il passaggio cruciale avviene quando questo linguaggio smette di apparire marginale e inizia a circolare fuori dai confini delle community che lo producono. Espressioni, frame narrativi e logiche di giudizio filtrano nei commenti, nei meme, nei discorsi quotidiani, rendendo il sessismo meno riconoscibile e quindi più accettabile. Non serve più l’insulto diretto: basta l’ironia, la svalutazione, la riduzione dell’altra persona a funzione o punteggio.
È in questo slittamento che l’odio smette di sembrare un problema circoscritto e diventa sfondo culturale.
Quando certe parole entrano nei meme, nei commenti, nelle battute quotidiane, perdono la loro carica esplicitamente violenta e acquistano una patina di normalità. Non colpiscono più per shock, ma per ripetizione. Ed è proprio questa familiarità a renderle più resistenti: perché ciò che appare “normale” è anche ciò che facciamo più fatica a mettere in discussione.
Responsabilità, non scorciatoie
I limiti della norme
Di fronte alla violenza digitale, la tentazione è spesso quella di cercare una scorciatoia. Una norma che risolva tutto, una tecnologia che corregga gli eccessi, un filtro che separi una volta per tutte ciò che è accettabile da ciò che non lo è. Le regole servono, certo. Rendere efficaci strumenti come il
Digital Services Act, chiedere alle piattaforme di rispondere nei Paesi in cui operano, nominare nuovi reati quando emergono nuove forme di abuso è un passaggio necessario. Serve a ribadire un principio semplice:
virtuale è reale.
L’online non è una zona franca, e il danno non diventa meno grave solo perché passa da uno schermo.Ma fermarsi alle norme non basta. Lo vediamo ogni volta che una violenza viene ridotta a “raptus”, a incidente isolato,
ricondotta alla gelosia o addirittura a una etnia . Lo vediamo quando le leggi esistono, ma faticano a tradursi in ascolto, tutela, riconoscimento. È in questo scarto che la responsabilità si indebolisce e che la violenza trova spazio per ripetersi.
Una responsabilità condivisa
Per questo il lavoro non è solo giuridico. È culturale. Riguarda il modo in cui abitiamo gli spazi digitali e le parole che scegliamo di usare. Superare la falsa distinzione tra reale e virtuale significa riconoscere che ogni gesto online ha conseguenze: un commento, una condivisione, un’immagine rilanciata senza fermarsi a pensare. La velocità con cui reagiamo - spesso dietro la guida di automatismi emotivi e stereotipi - non è neutra. Alimenta ambienti in cui la sessualizzazione e la violenza diventano più facili da produrre e più difficili da contrastare.
C’è poi una responsabilità che passa dal silenzio. Non intervenire, voltarsi dall’altra parte, lasciare che certi linguaggi circolino indisturbati contribuisce a renderli normali. È così che visioni disumanizzanti e subculture tossiche si rafforzano, spostando poco alla volta il confine di ciò che è dicibile e accettabile.
Anche il silenzio comunica:
anche quando non parliamo, stiamo dicendo da che parte stiamo. Stringere il cerchio significa allora tenere insieme i piani. Chiedere alle istituzioni di fare la loro parte, senza delegare tutto a loro. Riconoscere che dati e tecnologie non sono meccanismi neutrali, ma costruzioni umane. Usare le parole per nominare correttamente la violenza, senza attenuarla né mascherarla. È in questo spazio - fatto di leggi, scelte quotidiane, attenzione al linguaggio - che si gioca la possibilità di contrastare davvero la violenza digitale. Perché se è vero che le tecnologie accelerano, è il modo in cui le usiamo, le raccontiamo e le condividiamo a decidere la direzione.
Contare è un atto politico
Di fronte alla violenza di genere, digitale e non, i numeri non sono mai solo numeri. Decidono cosa esiste nello spazio pubblico e cosa resta fuori campo. Contare significa scegliere: scegliere cosa osservare, cosa rendere visibile, cosa considerare rilevante. E ogni scelta porta con sé una responsabilità. I dati, spesso percepiti come oggettivi e neutri, sono in realtà il risultato di sguardi, priorità, visioni del mondo. Riflettono il contesto e il corpo di chi li raccoglie, e possono tanto illuminare una realtà quanto continuare a oscurarla.
È per questo che contare molestie, violenze digitali e femminicidi non è un gesto tecnico, ma un atto di cura e di presa di parola. Alcuni numeri funzionano come fari: attirano l’attenzione e permettono di intravedere ciò che sta sotto la superficie, l’iceberg della violenza che raramente emerge per intero. Ma quando i dati si limitano a registrare solo ciò che arriva alle denunce, il rischio è quello di raccontare una realtà parziale. Da qui l’importanza dei controdati, del lavoro delle associazioni e delle pratiche dal basso che trasformano le statistiche in nomi, storie, identità. Non per accumulare cifre, ma per contrastare l’invisibilizzazione e leggere la violenza come un fenomeno strutturale, non come una sequenza di episodi isolati.
Questo approccio - che riconosce nei dati uno strumento di potere, ma anche di emancipazione - è ciò che oggi viene chiamato
“femminismo dei dati”. È a partire da questo sguardo che abbiamo scelto di concludere l’articolo con un’intervista a
Donata Columbro, giornalista e studiosa che da anni lavora su questi temi. Le abbiamo chiesto di aiutarci a capire cosa significhi decidere dove puntare la luce, quali responsabilità comporti studiarli e perché, senza questo lavoro di visibilità, intere vite e sofferenze rischino di restare confinate nell’oscurità.
Ciao Donata, grazie per aver accettato di contribuire al nostro approfondimento sulla violenza digitale.
Iniziamo da un principio fondamentale del tuo ultimo libro, Perché contare i femminicidi è un atto politico (Feltrinelli, 2025). Tu scrivi che contare i femminicidi è, prima di tutto, un 'atto di cura' e di recupero della storia di ogni singola donna. Quindi ti chiediamo: in che modo l’educazione ai dati può diventare un esercizio di empatia politica, capace di insegnare alle nuove generazioni che dietro ogni numero c’è un corpo e una vita che reclama il diritto di non restare confinata nell’oscurità? Produrre dati può diventare un esercizio di empatia politica quando si smette di considerarli come una pietra che mette fine alle discussioni e si comincia a trattarli come il punto di partenza per conoscere i fenomeni. Contare i femminicidi non è fare una lista di nomi o semplicemente compilare una tabella, ma un atto di attenzione.
Se dovessi lavorare nelle scuole, partirei da domande che cambiano proprio il modo di stare davanti ai numeri. Nel femminismo dei dati si impara a chiedersi chi ha deciso di contare, chi viene discriminato da certe statistiche, cosa manca, e con quale obiettivo sono stati prodotti quei numeri. Ma anche: chi era nella stanza che ha deciso le domande di indagine? Quali soggettività sono state coinvolte nel processo di creazione delle statistiche e quali sono state escluse? Perché i dati non parlano mai da soli, hanno bisogno di contesto. E poi c'è un punto che per me è centrale: contare significa scegliere. Nel libro torno spesso su questo: i dati sono costruzioni, non specchi neutri della realtà. Quando decidi cosa misurare e come, stai già facendo politica. Decidere "cosa conta" è un esercizio di potere. Ed è proprio qui che l'educazione ai dati diventa educazione civica: mostra che dietro ogni numero ci sono corpi, storie, relazioni. E che l'invisibilità non capita per caso, qualcuno la produce.
Nelle tue ricerche sottolinei spesso che i dati non sono "doni" neutrali ma costrutti umani situati. In che modo questa consapevolezza può aiutarci a smontare la narrazione deresponsabilizzante dell’"è stato l'algoritmo" quando assistiamo ad abusi d’immagine o alla circolazione di deepfake?
Dire "è stato l'algoritmo" è spesso un modo elegante per dire "non è colpa di nessuno". Ma dietro un algoritmo c'è una catena di scelte: come farlo funzionare, su quali dati basare certe scelte, come etichettarli, cosa ottimizzare, quali contenuti far circolare di più, quali segnalazioni ignorare, quali protezioni considerare troppo costose. Nella mia divulgazione lo ripeto di continuo, i dati non sono neutri, non sono oggettivi, e non li puoi usare come scudo per togliere le responsabilità umane.
Questa consapevolezza è potentissima quando parliamo di deepfake e abusi d'immagine: ci costringe a spostare lo sguardo dallo strumento tecnologico alle responsabilità vere, delle piattaforme, di chi progetta questi sistemi, di chi fa soldi sulla viralità, di chi decide che moderare è opzionale. Educare ai dati, in questo caso, significa anche educare alla catena del danno: da dove viene quel dataset? Che immaginario normalizza? Chi colpisce di più? E soprattutto: chi paga il prezzo dell'innovazione? Se la risposta è "sempre le stesse persone", allora non è un incidente tecnico. È strutturale.
Se i modelli di intelligenza artificiale, come nel caso Grok citato nel nostro long form, imparano da dati che sessualizzano sistematicamente il corpo femminile, è ancora possibile immaginare una "progettazione partecipativa" che inverta questa rotta o siamo destinati e destinate a un’automazione del patriarcato?
Non credo che siamo condannati all'automazione del patriarcato. Ma penso che senza un conflitto esplicito sul potere, la tecnologia tenderà a riprodurre quello che trova: e oggi trova una cultura che sessualizza, oggettifica, punisce le donne che parlano e premia l'odio perché fa engagement. La progettazione partecipativa può cambiare le cose, ma a due condizioni: primo, che sia partecipazione vera, non una consultazione di facciata. Secondo, che ci sia potere reale nelle scelte, dall'accesso ai dati alla possibilità di fare audit, dagli obblighi di trasparenza a metriche di successo che includano sicurezza e dignità, non solo crescita. Nel libro racconto un caso in cui un progetto tecnologico "funzionava", ma le attiviste si sono opposte a una completa automazione della raccolta dati perché la componente umana, quella di cura, doveva restare centrale. Per me quello è un modello. Non è tecnofobia: è una politica della responsabilità. In certi ambiti, automatizzare significa normalizzare. Mentre la cura richiede attrito, tempo, la capacità di discernere caso per caso.
Dal punto di vista del "femminismo dei dati", che ruolo gioca la produzione di "controdati" dal basso nel contrastare le subculture tossiche della manosfera e nel restituire dignità alle vittime della violenza digitale?
Stiamo vivendo un periodo di violenza misogina di ritorno, anche online, e purtroppo presentare statistiche a chi non vuole ascoltare non è sempre l'antidoto migliore. I controdati possono essere utili a rompere il monopolio della narrazione, rendendo visibile quello che le istituzioni non misurano o tengono chiuso nei cassetti. E, soprattutto, restituiscono contesto e dignità: non si limitano a contare episodi di violenza, ma li collegano a cause, schemi ricorrenti, responsabilità precise. Sempre presentando un modello rigoroso di raccolta dati, situando il punto di vista, e facendo emergere la non-neutralità dei dati.
Produrre dati fuori dalle istituzioni significa anche restituire dignità e complessità, costruire nuovi modi di leggere i fenomeni, mostrare quanto sono discriminatorie certe risposte ufficiali. La manosfera vive di storytelling tossico e pseudo-statistiche: "le donne mentono", "gli uomini sono le vere vittime", "è biologia". I controdati potrebbero aiutare a cambiare la domanda iniziale. Non più "quante donne?" ma "quali segnali sono stati ignorati?", "quali piattaforme amplificano questi contenuti?", "quali politiche di moderazione falliscono?", "quali strumenti di protezione mancano?"
In un ambiente digitale dominato dal "pensiero veloce" e dalla deumanizzazione delle vittime, come possono i dati smettere di essere fredde statistiche e diventare strumenti di "cura" capaci di restituire dignità e identità alle persone colpite?
Nei miei interventi e nei miei libri continuo a dire che i dati non bastano, e che aggiungere numeri a una storia non la rende automaticamente più vera o più giusta. Già in
Ti spiego il dato (Quinto Quarto, 2021) avevo provato a mostrare come il nostro rapporto con i numeri sia sempre emotivo: siamo condizionati da istinti, percezioni distorte, bias cognitivi, dal modo in cui ci vengono presentati. Pensare che la freddezza statistica sia una virtù è un errore, spesso è proprio quella distanza a favorire la deumanizzazione. Contare può essere un atto burocratico oppure un atto di responsabilità collettiva. E diventa cura quando il dato non cancella la storia ma la rende visibile, quando non accelera il consumo delle notizie, con il nostro scrolling infinito sulle piattaforme, ma rallenta lo sguardo. Anche come i dati sono presentati può influenzare la nostra percezione di un fenomeno: un grafico, una mappa, una timeline diventano strumenti di cura solo se aiutano a capire e ci fanno venire voglia di approfondire, non se chiudono un discorso. E quando raccontiamo la violenza, i dati possono restituire dignità, nominare le responsabilità sistemiche e conservare la memoria di vite che non ci sono più, per ricordarci che dietro ogni punto, ogni riga, c'è una persona.
Grazie per averci letto. Se condividi l’urgenza legata alla violenza digitale condividi il nostro approfondimento: il cambiamento è una responsabilità condivisa.