di Redazione
Una bambina di dodici anni scorre il feed prima di dormire. In pochi secondi, un algoritmo le propone un video di guerra, crudo e disturbante. Lei non lo ha cercato, ma la piattaforma ha deciso che quel contenuto “poteva interessarle”. È così che la violenza digitale entra nelle nostre case senza bussare alla porta, passando per sistemi che premiano l’attenzione e non la protezione.
Negli ultimi mesi diversi studi internazionali hanno evidenziato un fenomeno inquietante: oltre la metà dei minori tra 11 e 17 anni è esposta a video violenti o scioccanti senza averli ricercati. La selezione dei contenuti avviene tramite complessi meccanismi di raccomandazione automatica, progettati per mantenere l’utente connesso il più a lungo possibile. In questo modello economico, l’orrore diventa un vettore di retention.
Gli algoritmi di raccomandazione analizzano preferenze, tempi di visualizzazione, interazioni e perfino pause di scorrimento. Se un utente sosta anche per pochi secondi su un’immagine forte, il sistema interpreta quell’attenzione come interesse e moltiplica i suggerimenti analoghi. La viralità sostituisce la responsabilità, e l’esposizione continua a contenuti violenti può generare ansia, desensibilizzazione e disturbi del sonno.
Le giovani ragazze, in particolare, mostrano un impatto emotivo diverso. Secondo le analisi psicologiche, tendono a interiorizzare la paura e a percepire maggiore vulnerabilità rispetto ai coetanei maschi, più inclini a una risposta di confronto o minimizzazione. Questo squilibrio amplifica il divario di genere anche nello spazio digitale, dove l’esperienza emotiva non è neutra.
Ma la soluzione non può limitarsi al blocco dei contenuti. Serve una educazione digitale preventiva, condivisa tra scuole, famiglie e piattaforme. Ecco alcune buone prassi operative:
- Attivare la supervisione algoritmica consapevole: spiegare a ragazzi e genitori come funzionano le raccomandazioni e come reimpostare le preferenze.
- Utilizzare strumenti di parental control e modalità “per età”, integrandoli con dialogo costante, non come sostituto.
- Promuovere programmi scolastici di media literacy, che insegnino a riconoscere manipolazioni visive e trigger emotivi.
- Richiedere trasparenza algoritmica alle piattaforme: ogni utente ha diritto di sapere perché un contenuto gli viene mostrato.
Nel contesto europeo, le nuove normative sulla responsabilità digitale e sull’intelligenza artificiale puntano proprio a questo: rendere gli algoritmi più etici, tracciabili e compatibili con la tutela dei minori. Tuttavia, l’attuazione è ancora frammentaria e i meccanismi di enforcement deboli.
La violenza digitale non è un evento: è un processo invisibile che normalizziamo giorno dopo giorno.
Solo riconoscendola possiamo interromperla.
Visita il nostro gruppo LinkedIn “Donne con lo Scudo” per discutere in diretta questi temi e condividere buone pratiche di tutela digitale
Fonti:
- The Guardian (16 ottobre 2025). “Gruesome videos: social media pushes distressing news to children, experts say.”
- Unione Europea. AI Act and Digital Services Act — Implementation Guidelines 2025.
- UNICEF Office of Innovation. Children and Digital Media Exposure 2025 Report.