Photo by cottonbro studio on <a href="https://www.pexels.com/photo/green-and-white-lights-5473951/" rel="nofollow">Pexels.com</a>
di Redazione
È notizia di pochi giorni fa la scoperta di un sito sessista che utilizza l’intelligenza artificiale per creare e diffondere immagini intime false di donne senza consenso. La piattaforma, chiamata SocialMediaGirls, è un forum pornografico dove un algoritmo di AI “undress” genera foto di donne – anche molto note – come se fossero nude. Questo nuovo esempio di violenza di genere digitale ha fatto scattare un’indagine della Polizia Postale e sollevato indignazione pubblica: siamo di fronte a un caso eclatante di abuso tecnologico e di grave violazione della privacy personale.
AI e deepfake: come funziona il forum sessista
SocialMediaGirls si presenta come un forum per adulti accessibile con una semplice autocertificazione di maggior età. Al suo interno vi è una sezione dove gli utenti possono “spogliare” virtualmente chiunque e in particolare un’area dedicata alle donne famose. In quest’ultima sono state raccolte decine di immagini pornografiche false raffiguranti circa 50 celebri italiane, generate dall’IA a partire da foto reali in contesti pubblici. Il sito vanta oltre 7 milioni di iscritti e migliaia di utenti attivi – numeri che danno la misura di un fenomeno preoccupante per diffusione e partecipazione.
Violenza digitale e furto di identità
Sebbene queste immagini siano deepfake, l’impatto sulle vittime è tutt’altro che virtuale. “Non sono io, ma qualcuno ha deciso di costruire quella menzogna… È una violenza e un abuso che marchia la dignità… Un furto dell’immagine, del corpo, della libertà”, ha denunciato la giornalista Francesca Barra. Le sue parole descrivono bene questa violenza sessuale digitale: le donne vengono di fatto spogliate online contro la loro volontà. Il danno per la vittima è concreto e multilivello: reputazione distrutta, privacy annientata e grave trauma psicologico. Anche se le foto non sono reali, la loro diffusione virale in spazi anonimi rende il danno quasi irreversibile.
Leggi e interventi: come reagire
Il caso SocialMediaGirls non è isolato: scandali simili si sono già verificati recentemente, e le autorità erano intervenute oscurando quelle piattaforme. Anche in questo frangente la Polizia Postale ha avviato accertamenti sul sito e sulla sua origine. Sul piano normativo, l’Italia si è mossa per colmare il vuoto legislativo: oggi la condivisione non consensuale di immagini pornografiche create con l’IA è un reato, punito con il carcere fino a 5 anni. Questa legge sul deepfake fornisce uno strumento in più per perseguire i colpevoli, ma l’efficacia concreta dipenderà dalla capacità di farla rispettare nel contesto internazionale del web.
Conclusioni: educazione e innovazione contro il sessismo digitale
Questa vicenda impone di agire su più fronti. Da un lato va aumentata l’educazione digitale: gli utenti devono capire che creare, condividere o anche solo cliccare su questi contenuti li rende complici di un abuso vero e proprio. Dall’altro bisogna investire in innovazione tecnologica per contrastare il fenomeno: ad esempio sviluppare algoritmi capaci di riconoscere e bloccare i deepfake offensivi, e potenziare la cooperazione internazionale per rimuovere rapidamente i siti che li ospitano. È essenziale inoltre offrire supporto e vie di segnalazione efficaci alle vittime. In sintesi, solo integrando leggi all’avanguardia, soluzioni tecniche efficaci e una forte condanna sociale si potrà arginare il sessismo online. L’auspicio è di riuscire a trasformare la tecnologia da arma di prevaricazione a scudo digitale a tutela della dignità e della libertà di tutte le persone.
Fonti
- Sky TG24. (2025, 27 ottobre). Sito sessista e AI: immagini hot false di donne famose, indaga la polizia.
- La Stampa. (2025, 28 ottobre). SocialMediaGirls: 7 milioni di utenti per il forum della vergogna.
- Il Fatto Quotidiano. (2025, 28 ottobre). Francesca Barra e le immagini deepfake: “Un abuso che mi devasta”.
- Rai News. (2025, 28 ottobre). Deepfake e pornografia non consensuale: verso una nuova legge penale.
- AGI. (2025, 29 ottobre). Violenza digitale: siti oscurati e nuove indagini della polizia postale.
- Legge 132/2025, “Disposizioni in materia di intelligenza artificiale, tutela dell’identità digitale e prevenzione dell’abuso algoritmico” – Art. 612-quater del Codice Penale: Diffusione illecita di contenuti audiovisivi generati con intelligenza artificiale