di F.B.
Il fenomeno del grooming online ha subito, tra il 2024 e la fine del 2025, una trasformazione silenziosa ma radicale. Se in passato l’adescamento dei minori era prevalentemente basato sull’interazione diretta tra adulto e minore attraverso social network e piattaforme di gaming, oggi assistiamo a una progressiva automazione del processo, mediata da sistemi di intelligenza artificiale capaci di simulare relazioni affettive credibili. Guardando al 2026, questa evoluzione pone interrogativi profondi non solo sul piano della sicurezza informatica, ma anche su quello psicologico, educativo e giuridico.
Dall’adescatore umano all’ecosistema relazionale artificiale
Alla fine del 2025 sono emersi con chiarezza casi in cui chatbot avanzati, avatar conversazionali e cosiddetti AI companions vengono utilizzati come strumenti di avvicinamento emotivo ai minori. Questi sistemi non operano necessariamente come aggressori diretti, ma come intermediari relazionali, capaci di instaurare un legame di fiducia graduale e profondo. Il rischio principale non risiede solo nell’interazione esplicita, ma nella normalizzazione della confidenza, della dipendenza emotiva e della condivisione di informazioni intime.
Nel 2026 il grooming non sarà più un evento riconoscibile, ma un processo diluito nel tempo, mimetizzato all’interno di esperienze digitali apparentemente innocue.
Impatto psicologico sui minori
L’interazione prolungata con entità artificiali progettate per essere empatiche può alterare in modo significativo la percezione relazionale dei minori. La distinzione tra relazione autentica e relazione simulata tende a sfumare, soprattutto nelle fasce di età più giovani o in situazioni di fragilità emotiva. Questo rende i minori più esposti alla manipolazione, riducendo la loro capacità di riconoscere segnali di pericolo.
Il danno non è immediato, ma cumulativo. La costruzione artificiale di fiducia può preparare il terreno a forme più tradizionali di abuso, fungendo da “ponte” tra il mondo digitale e quello fisico.
Profili forensi e investigativi
Dal punto di vista della digital forensics, l’uso di AI companions nel grooming pone sfide complesse. La ricostruzione delle interazioni richiede competenze avanzate, capaci di analizzare log conversazionali, modelli di risposta automatica e architetture di sistema spesso opache. Nel 2026 sarà sempre più necessario distinguere tra responsabilità diretta dell’aggressore e responsabilità indiretta legata all’uso improprio di strumenti tecnologici.
Prevenzione e responsabilità sociale
La prevenzione passa necessariamente da un’educazione digitale evoluta, che non si limiti a demonizzare la tecnologia, ma insegni ai minori a riconoscere dinamiche relazionali disfunzionali anche quando mediate da sistemi artificiali. Parallelamente, diventa cruciale un maggiore coinvolgimento delle piattaforme nello sviluppo di meccanismi di tutela proattiva.
Fonti:
Europol
UNICEF
ENISA