Negli ultimi anni la tecnologia deepfake ha rivoluzionato il mondo della manipolazione multimediale, creando nuove opportunità ma anche gravi minacce alla sicurezza digitale e alla privacy individuale. Questi contenuti falsificati – realizzati attraverso tecniche avanzate basate su un sottoinsieme dell’AI chiamato deep learning – permettono di sovrapporre in modo estremamente realistico il volto e la voce di una persona su quelli di un’altra, rendendo difficile distinguere il reale dall’artificiale.
Sebbene i deepfake possano essere utilizzati in ambiti leciti, come il cinema e la satira, il loro impatto negativo è sempre più evidente. Fin dalla loro comparsa nel 2017, sono stati sfruttati per scopi malevoli, tra cui la creazione di video pornografici non consensuali con protagoniste celebrità femminili. Con il tempo, questa minaccia si è estesa a individui comuni, inclusi minori e vittime di abusi, causando gravi danni psicologici e reputazionali.
Rispetto alle tecniche tradizionali di manipolazione digitale, che richiedevano competenze informatiche avanzate, i deepfake possono essere generati con strumenti sempre più accessibili, riducendo il livello di intervento umano necessario. Questa evoluzione ha aperto la strada a fenomeni pericolosi, come la diffusione di fake news, il cyberbullismo e le truffe informatiche.
In particolare rispetto alle truffe romantiche (romance scam), i deepfake sono diventati strumenti sempre più comuni per rendere il raggiro più credibile e sofisticato. I deepfake infatti vengono utilizzati per creare video o audio che imitano fedelmente le caratteristiche di una persona, come la voce o le espressioni facciali. Questo permette ai truffatori di convincere le vittime che stanno interagendo con una persona reale.
Inoltre l’uso di strumenti AI per alterare il volto durante le videochiamate o creare cloni vocali rende ancora più difficile identificare i truffatori. Questi strumenti sono accessibili e facili da usare, aumentando il rischio per le vittime.
Regolamentazioni europee e pratiche nazionali
Sono diverse ad oggi le regolamentazioni estendibili a tutto il territorio dell’Unione Europea che cercano di arginare il fenomeno dei deepfake.
L’AI ACT, approvato nel 2024, ad esempio obbliga a tracciare l’origine dei deepfake e segnalarli come contenuti generati da IA.
Il GDPR, sebbene non si concentri direttamente sui deepfake, consente azioni legali se i deepfake utilizzano dati personali senza consenso.
Inoltre, anche se non menziona esplicitamente i deepfake, il Digital Service Act, il nuovo regolamento europeo sui servizi digitali, richiede alle piattaforme di grandi dimensioni di adottare misure per contrassegnare i contenuti manipolati in modo visibile.
In Italia, il problema dei deepfake è affrontato principalmente attraverso la lotta alle fake news e la protezione dei dati personali.
Aguzzare i sensi: a caccia dei deepfake
Riconoscere un deepfake in una conversazione online per proteggerci da una truffa, magari proprio da una romance scam, può essere complesso, ma ci sono alcuni segnali e strumenti che possono aiutare in questa sfida ormai sempre più diffusa.
È necessario fare attenzione alle incoerenze visive ed audio-video quali:
- – movimenti innaturali come ad esempio occhi che non sbattono o movimenti rigidi del corpo;
- – asimmetrie facciali che portano a espressioni facciali rigide o esagerate;
- – illuminazione irrealistica in cui le ombre non corrispondono alla direzione della luce;
- – sfondi sfocati o generici che non corrispondono al soggetto;
- – movimenti non sincronizzati della bocca con l’audio;
- – audio artificiale, con riverberi innaturali o distorsioni;
- – risposte troppo veloci o perfette o troppo ben formulate per essere naturali;
- – mancanza di emozioni appropriate o reazioni incoerenti alle situazioni da parte della persona dall’altra parte dello schermo.
Sia nelle conversazioni che nell’analisi di un’immagine o di qualsiasi altro contenuto online che susciti dubbi, è fondamentale concentrarsi sulla verifica del contesto. Questo può essere fatto attraverso:
- – la verifica della fonte: dunque accertarsi dell’autorevolezza della fonte e controllare se il contenuto è riportato anche da altri canali affidabili;
- – l’analisi del contesto: ossia valutare se il contenuto è coerente con la conversazione in cui è inserito e individuare eventuali elementi fuori luogo o incongruenze.
Strumenti tecnologici utilizzabili per il rilevamento dei deepfake
Esistono sistemi di rilevamento che si basano su intelligenza artificiale avanzata per identificare imperfezioni impercettibili all’occhio umano.
Uno strumento semplice ma efficace per verificare l’origine delle immagini è Google Reverse Image Search, utile per identificare immagini manipolate o fuori contesto.
Per dispositivi mobili è disponibile anche Google Lens.
Tra gli altri mezzi accessibili a tutti:
- – Microsoft Video Authenticator: analizza i video tramite l’identificazione di imperfezioni nei pixel o nelle ombre, tipiche dei deepfake.
- – DeepFake-o-Meter: piattaforma open-source che analizza contenuti sospetti e fornisce un punteggio di autenticità.
- – Google Cloud’s Video Intelligence API: analizza anomalie visive, sincronizzazioni imperfette, pixelature o bande, ed esamina metadati nascosti nei file.
Per un’analisi efficace si consiglia di:
- – caricare il contenuto sospetto su DeepFake-o-Meter;
- – analizzare i report e verificare percentuali di rischio elevate (>70%);
- – incrociare i risultati con altri strumenti (es. Microsoft + Google Image Search);
- – controllare manualmente i segnali visivi (occhi, sfondi, luce).
Buone pratiche: limitare l’esposizione online e verifica
La regola base è la limitazione dell’esposizione digitale.
Buone pratiche:
- – condividere meno foto/video personali online;
- – attivare privacy settings rigorosi;
- – applicare watermark alle immagini personali (es. Canva);
- – informarsi sull’evoluzione dei deepfake e AI seguendo notizie e webinar autorevoli.
Conclusione
I deepfake rappresentano una sfida importante nel mondo digitale di oggi vista la loro capacità di manipolare la realtà.
Tuttavia, con conoscenza, strumenti adeguati e un atteggiamento cauto, possiamo riconoscerli e proteggerci.
In caso si fosse vittima, è giusto rivolgersi alla Polizia Postale e contattare esperti tecnici per assistenza.