Photo by Markus Winkler on <a href="https://www.pexels.com/photo/a-typewriter-with-the-word-deepfake-on-it-18548430/" rel="nofollow">Pexels.com</a>
di Redazione
Il fenomeno dei deepfake sta ridefinendo in modo drammatico lo scenario del cyberbullismo tra minorenni. Un episodio recente lo dimostra con particolare chiarezza: ad Acri, in Calabria, decine di adolescenti sono finiti al centro di una vicenda inquietante, in cui foto innocenti sono state trasformate in immagini intime false e poi diffuse in rete a scopo diffamatorio. Un semplice smartphone e un’app di intelligenza artificiale generativa – facile da scaricare e usare anche per un ragazzino – sono bastati per creare video fake estremamente credibili. Questi video contraffatti sono stati utilizzati per umiliare, intimidire e isolare le giovani vittime nel loro ambiente sociale. La Procura locale ha aperto un’inchiesta, parlando di almeno un migliaio di immagini falsificate e di oltre 200 minorenni coinvolti inconsapevolmente nella manipolazione digitale.
Il deepfake non è un semplice scherzo tecnologico: è un attacco diretto all’identità personale. Dal punto di vista psicologico, l’effetto su un adolescente può essere devastante. Immaginiamo cosa significhi, per una ragazza o un ragazzo, vedere il proprio volto e il proprio corpo inseriti in un contesto umiliante, magari a sfondo sessuale, e diffusi senza controllo sui social. Le vittime di questi abusi digitali provano un profondo senso di impotenza e vergogna. Secondo l’American Psychological Association, l’esposizione prolungata a deepfake ostili può causare sintomi dissociativi e crisi dell’identità, specialmente nei più giovani, la cui personalità è ancora in formazione. In pratica, non sanno più fidarsi di ciò che vedono online – neanche se riguarda loro stessi – e iniziano a dubitare del proprio valore, isolandosi per la paura del giudizio altrui.
Di fronte a questi rischi, educare i minori diventa fondamentale. Ma come? Non basta dire ai ragazzi “non postate foto intime” (un consiglio comunque valido, ma ormai insufficiente). Dobbiamo insegnare loro a riconoscere e difendersi dalle manipolazioni digitali in modo più profondo, attraverso un’alfabetizzazione visiva critica. In pratica, servono corsi a scuola e iniziative extrascolastiche che aiutino i giovani a sviluppare uno sguardo attento e consapevole sulle immagini: capire quando una foto o un video possono essere artefatti, imparare a individuare dettagli sospetti, conoscere l’esistenza dei deepfake e il modo in cui vengono creati. Questa consapevolezza toglie ai bulli un vantaggio importante: il fattore sorpresa. Un ragazzo preparato su questi temi, di fronte a un video ambiguo, sarà più propenso a chiedersi “Sarà vero? Potrebbe essere un deepfake?” invece di cadere subito nel tranello emotivo.
Accanto alla formazione, la tecnologia stessa può offrire strumenti di difesa. Glaze e PhotoGuard, ad esempio, sono innovativi software sviluppati in ambito accademico che permettono di “perturbare” in modo impercettibile le foto originali, inserendo nelle immagini dei piccoli elementi quasi invisibili che però le rendono più difficili da manipolare con le AI. Rendendo disponibili gratuitamente e facilmente questi strumenti nelle scuole, si potrebbe proteggere in partenza l’identità digitale dei minori, soprattutto per quelle foto che inevitabilmente i ragazzi condividono tra loro (pensiamo alle foto di classe, ai selfie di gruppo, alle immagini dei tornei sportivi). Allo stesso tempo, le grandi piattaforme online come TikTok, Instagram e Facebook devono fare la loro parte: implementare filtri di rilevamento dei deepfake sempre più efficaci. In particolare, quando un contenuto inizia a diventare virale tra i più giovani, sarebbe opportuno che un’intelligenza artificiale di controllo verificasse se quel video è autentico o alterato, bloccando sul nascere la diffusione di eventuali deepfake malevoli.
Su fronte normativo, l’Italia ha recentemente compiuto un passo avanti. La Legge 71/2017 sul cyberbullismo, pensata per tutelare i minori vittime di bullismo online, è stata rafforzata nel 2024 con l’emanazione del Decreto Legislativo 15/2024 (Legge 70/2024). Questa modifica normativa – nata proprio sull’onda di casi come quello di Acri – ha esplicitamente incluso i contenuti digitali manipolati (come foto e video falsi) tra quelli la cui diffusione può essere perseguita e bloccata rapidamente. In base a questa legge aggiornata, una volta segnalato un deepfake lesivo, le autorità possono chiederne la rimozione urgente entro 24 ore, obbligando i gestori dei siti o dei social a intervenire pena sanzioni severe. È un meccanismo simile a quello già previsto per il revenge porn, applicato ora anche al bullismo da deepfake.
A livello europeo, si sta discutendo un’ulteriore misura preventiva: l’introduzione di un watermark digitale obbligatorio per tutti i contenuti generati o modificati dall’AI. In pratica, le immagini e i video creati dall’intelligenza artificiale dovrebbero contenere una sorta di “firma elettronica” nascosta che ne permetta la tracciabilità. Questa proposta, sebbene tecnicamente complessa da applicare su scala globale, rappresenta un importante segnale politico: l’Unione Europea riconosce che i deepfake possono diventare un serio problema sociale e sta cercando strumenti per arginarlo alla radice, obbligando chi produce le tecnologie a inserire dei meccanismi di sicurezza.
Infine, ma non per importanza, c’è l’aspetto del supporto psicologico. Un minore colpito da una campagna d’odio con deepfake avrà bisogno di aiuto per elaborare il trauma. Scuole, famiglie e servizi sociali devono lavorare insieme per creare un ambiente in cui il ragazzo o la ragazza si senta al sicuro, creduto e sostenuto. Possono essere attivati sportelli di ascolto nelle scuole o presso i consultori, coinvolgendo psicologi specializzati in adolescenza e dipendenze digitali. L’obiettivo dev’essere aiutare la giovane vittima a ricostruire la propria autostima e identità, chiarendo che ciò che è stato diffuso non la rappresenta davvero, e che la colpa di quanto accaduto non è sua ma di chi ha abusato della tecnologia. Allo stesso tempo, anche i genitori andrebbero formati e sostenuti, perché possano riconoscere i segnali di disagio nei figli e sappiano come agire senza minimizzare né drammatizzare eccessivamente.
In conclusione, il deepfake è un’arma nuova nelle mani dei cyberbulli, ma possiamo disinnescarla con la conoscenza, la tecnologia e la solidarietà. Educhiamo i nostri figli a distinguere il reale dal falso, a non vergognarsi di chiedere aiuto e a fare squadra di fronte alle ingiustizie digitali. Contrastare il cyberbullismo di ultima generazione significa anche questo: adattare le nostre difese all’epoca dell’AI. Solo così Internet tornerà a essere un luogo di creatività e connessione, e non un incubo dal quale difendersi.
Fonti e riferimenti: Comunicati della Procura di Cosenza e della Polizia Postale sul caso di deepfake ad Acri (2025); Legge 71/2017 sul cyberbullismo e 70/2024 recante “Disposizioni e delega al Governo in materia di prevenzione e contrasto del bullismo e del cyberbullismo“; Proposte UE su watermark per contenuti AI (2025); American Psychological Association – Deepfakes and Youth Mental Health (2023).