di F.B.
A febbraio 2026 il cyberbullismo non è più semplicemente un fenomeno di aggressione verbale online. L’integrazione dell’intelligenza artificiale generativa ha trasformato radicalmente la dinamica dell’attacco, rendendolo scalabile, persistente e algoritmicamente potenziato. La novità non risiede soltanto nella creazione di contenuti offensivi, ma nella capacità dell’AI di automatizzare la produzione di umiliazione.
Nel modello tradizionale di bullismo digitale, l’aggressione era legata all’azione di un individuo o di un gruppo. Oggi, modelli generativi consentono la produzione automatica di immagini manipolate, meme personalizzati, audio sintetici e commenti coordinati che possono essere distribuiti simultaneamente su più piattaforme. La violenza non è più episodica ma sistemica, e soprattutto replicabile con un costo marginale quasi nullo.
Nel febbraio 2026 si osserva una crescente diffusione di “bullismo sintetico”, in cui l’AI viene utilizzata per generare contenuti che non sono mai esistiti ma che appaiono plausibili: fotografie modificate con tecniche di morphing avanzato, clip audio costruite con frammenti reali, dialoghi inventati. Il bersaglio non è solo l’offesa, ma la reputazione sociale e la posizione nel gruppo dei pari. Questo fenomeno colpisce in modo particolare adolescenti e giovani donne, soprattutto in contesti scolastici e universitari.
La differenza cruciale rispetto al passato è la permanenza algoritmica. I contenuti sintetici, una volta immessi nell’ecosistema digitale, vengono amplificati da sistemi di raccomandazione che privilegiano engagement e reattività emotiva. L’umiliazione diventa performativa. Ogni interazione – commento, condivisione, reazione – rafforza la visibilità del contenuto offensivo. L’AI non crea solo l’attacco: contribuisce alla sua diffusione.
Le conseguenze psicologiche sono profonde. Il cyberbullismo AI-driven produce un senso di impotenza rafforzato dalla percezione di incontrollabilità. La vittima non affronta solo un aggressore, ma un sistema automatizzato che replica e rigenera il contenuto. Questo meccanismo favorisce ansia anticipatoria, isolamento sociale e ritiro dalla partecipazione digitale.
Nel 2026, la prevenzione non può limitarsi alla moderazione post-evento. È necessario implementare sistemi di rilevazione preventiva basati su pattern comportamentali, analisi semantica contestuale e monitoraggio delle reti coordinate. Tuttavia, la tecnologia da sola non basta. Serve una pedagogia digitale che renda chiari i meccanismi di amplificazione algoritmica e responsabilizzi i contesti educativi.
Un aspetto emergente riguarda la dimensione di genere. Le ragazze sono spesso bersaglio di contenuti sintetici a sfondo sessuale o reputazionale, mentre i ragazzi tendono a subire aggressioni legate a performance e status sociale. L’AI amplifica queste differenze, adattando il contenuto offensivo alle vulnerabilità percepite.
La risposta sistemica nel febbraio 2026 richiede tre livelli di intervento: normativo, tecnologico e culturale. Normativo, per aggiornare le definizioni di cyberbullismo includendo contenuti sintetici. Tecnologico, per sviluppare watermark invisibili e sistemi di autenticazione preventiva. Culturale, per costruire una consapevolezza collettiva che riconosca l’umiliazione sintetica come violenza reale.
Il cyberbullismo AI-driven non è una semplice evoluzione del bullismo tradizionale: è una trasformazione strutturale. L’umiliazione diventa automatica, permanente e amplificata. La tutela delle vittime nel 2026 passa dalla comprensione che l’algoritmo non è neutrale, ma parte attiva del problema.
Fonti
UNICEF. Ending Online Violence Against Children Report 2025.
WHO. Adolescent Mental Health and Digital Exposure 2025 Update.
Europol. Internet Organised Crime Threat Assessment 2025.
European Commission. AI Act Implementation Guidelines 2025.
American Psychological Association. Cyberbullying and AI Amplification Study 2025.