di F.B.
Con la diffusione dei sistemi di intelligenza artificiale generativa nel 2026, milioni di persone utilizzano quotidianamente assistenti conversazionali per studiare, lavorare o cercare informazioni. Questo nuovo rapporto con le macchine apre opportunità straordinarie ma introduce anche vulnerabilità poco conosciute. Una di queste è il fenomeno emergente del prompt hacking sociale.
Il termine indica una strategia di manipolazione in cui l’aggressore sfrutta le conversazioni con sistemi AI per ottenere informazioni sensibili, influenzare decisioni o diffondere contenuti manipolatori. A differenza delle tradizionali tecniche di phishing, il prompt hacking non si basa necessariamente su email fraudolente o link malevoli. Si inserisce invece nelle interazioni apparentemente innocue tra utenti e sistemi di intelligenza artificiale.
Nel contesto educativo e professionale, sempre più persone chiedono agli assistenti AI di analizzare documenti, riassumere conversazioni o elaborare dati personali. Se queste interazioni non sono gestite con attenzione, possono esporre informazioni sensibili a sistemi che registrano e analizzano le richieste degli utenti.
Un’altra forma di prompt hacking riguarda la manipolazione delle risposte dell’intelligenza artificiale. Alcuni utenti possono formulare richieste progettate per indurre il sistema a generare contenuti offensivi, diffamatori o fuorvianti. Questi contenuti possono poi essere utilizzati per campagne di disinformazione o molestie online.
Le persone meno esperte di tecnologia, in particolare minori e anziani, possono essere più vulnerabili a queste dinamiche. L’interfaccia conversazionale delle AI genera infatti un senso di fiducia simile a quello di una conversazione umana, riducendo la percezione del rischio.
Per ridurre queste vulnerabilità è utile adottare alcune pratiche di sicurezza. La prima consiste nel limitare la condivisione di dati personali durante le interazioni con sistemi AI. Informazioni come indirizzi, documenti sensibili o dettagli finanziari dovrebbero essere evitati, anche quando l’interazione appare innocua.
Un secondo accorgimento riguarda la verifica delle informazioni generate dall’intelligenza artificiale. Le risposte prodotte da modelli generativi possono essere plausibili ma non sempre accurate. Confrontare i contenuti con fonti affidabili è una pratica essenziale per evitare la diffusione involontaria di informazioni errate.
Infine, è importante sviluppare una consapevolezza critica delle conversazioni con l’AI. I sistemi generativi non sono interlocutori umani e non possiedono intenzioni o responsabilità morali. Comprendere questa differenza aiuta a mantenere un rapporto più equilibrato con queste tecnologie.
Nel 2026 l’alfabetizzazione digitale deve quindi includere anche la comprensione delle interazioni con l’intelligenza artificiale. Sapere come porre domande, quali informazioni condividere e come interpretare le risposte rappresenta una nuova forma di competenza civica.
Fonti
NIST. Artificial Intelligence Risk Management Framework, 2025.
OECD. AI Security and Misuse Report, 2025.
Stanford HAI. Generative AI and Security Risks, 2025.