di Federica Bertoni
La fine del 2025 segna una fase di maturazione di un fenomeno spesso sottovalutato: l’uso dell’intelligenza artificiale come infrastruttura della molestia digitale. L’AI-driven harassment non rappresenta semplicemente un’evoluzione quantitativa delle molestie online, ma una trasformazione qualitativa che ridefinisce i confini stessi della violenza digitale.
Dalla molestia manuale alla violenza automatizzata
L’automazione consente oggi di replicare e modulare la violenza su scala industriale. Messaggi offensivi, minacce personalizzate e campagne di odio possono essere generate, adattate e diffuse in modo continuo, senza richiedere un intervento umano costante. Questo sposta la violenza dal piano dell’intenzionalità individuale a quello della persistenza sistemica.
Nel 2026 la vittima non si confronterà più con un aggressore identificabile, ma con un flusso ininterrotto di contenuti ostili, difficili da bloccare e da ricondurre a una singola responsabilità.
Revenge porn e escalation algoritmica
In questo contesto, il revenge porn assume una nuova dimensione. L’AI consente di generare infinite varianti di uno stesso contenuto, rendendo inefficaci le tradizionali strategie di rimozione. Ogni tentativo di cancellazione può essere seguito da una riemersione del materiale, spesso in forme leggermente modificate, ma ugualmente dannose.
La violenza diventa così un processo ciclico, che si autoalimenta e che colpisce la vittima nel tempo, impedendo una reale possibilità di chiusura.
Profili giuridici e responsabilità
Dal punto di vista giuridico, l’AI-driven harassment mette in crisi le categorie tradizionali di responsabilità. La distinzione tra autore umano, strumento tecnologico e piattaforma di diffusione diventa sempre più complessa. Questo rischia di tradursi in una protezione inefficace delle vittime, soprattutto in contesti transnazionali.
Difesa e tutela della vittima
La risposta a questa forma di violenza deve essere multilivello. È fondamentale documentare gli eventi in modo strutturato, preservando le prove digitali e adottando strategie coordinate di segnalazione e supporto. Allo stesso tempo, è necessario riconoscere l’impatto psicologico di una violenza continua e automatizzata, che può risultare più devastante di un singolo episodio grave.
Fonti:
Council of Europe
European Union Agency for Fundamental Rights
Electronic Frontier Foundation