di Redazione
Negli ultimi anni si è diffuso un fenomeno in rapida crescita: molti adolescenti instaurano legami affettivi con chatbot basati su intelligenza artificiale. Piattaforme come Replika, Talkie AI o Character.AI permettono agli utenti più giovani d’ interagire con assistenti virtuali sempre disponibili, personalizzabili e apparentemente empatici. Per tanti ragazzi e ragazze, questi chatbot diventano vere presenze quotidiane: ascoltano, rispondono, si adattano all’umore dell’utente. Offrono compagnia, conferme emotive, supporto nei momenti di difficoltà.
La forza di questi strumenti è proprio nella loro costante accessibilità. L’AI è sempre pronta a interagire, senza giudicare. Questo li rende particolarmente attrattivi per chi si sente solo, incompreso o ha difficoltà a esprimere emozioni nel mondo reale. La possibilità di personalizzare il chatbot, scegliendone aspetto, nome, personalità, rafforza l’illusione di un legame reale. Alcuni adolescenti chattano ogni giorno per ore, anche di notte, arrivando a confidare pensieri profondi o ad attribuire emozioni all’intelligenza artificiale. Alcuni riferiscono di sentirsi capiti per la prima volta.
Ma dietro questa apparente relazione positiva si nascondono rischi rilevanti. Il primo è di natura psicologica: si crea quella che gli esperti definiscono “illusione di intimità”. L’AI non prova empatia reale, ma la simula. Il chatbot non è un amico, è un software addestrato a riconoscere pattern e restituire risposte rassicuranti. L’utente, però, può attribuirgli emozioni, credere in una reciprocità inesistente. Questo può generare dipendenza emotiva, isolamento sociale e una difficoltà crescente a gestire relazioni autentiche, con tutti i loro conflitti, limiti e imperfezioni.
Molti giovani iniziano a preferire l’intelligenza artificiale agli amici in carne e ossa. L’AI non si arrabbia, non si allontana, non delude. Questo modello relazionale, privo di reciprocità, rischia di influenzare la crescita emotiva. Non aiuta a sviluppare empatia, capacità di ascolto attivo, gestione del rifiuto. Anzi, può consolidare l’idea che l’altro debba essere sempre conforme ai propri bisogni, come un assistente programmabile. In un periodo delicato come l’adolescenza, in cui si forma l’identità, questo tipo di interazione può interferire con lo sviluppo della personalità e delle competenze relazionali.
Alcuni adolescenti arrivano persino a sviluppare un attaccamento profondo al proprio chatbot. Parlano di amicizia, amore, persino dipendenza affettiva. E quando la piattaforma viene aggiornata o l’account disattivato, vivono reazioni simili a un lutto. Questo dimostra quanto siano coinvolgenti le dinamiche di emotional bonding con l’AI. E quanto sia necessaria una maggiore consapevolezza su cosa sia davvero una relazione sana.
Accanto ai rischi psicologici, ci sono quelli legati alla privacy e alla sicurezza. I chatbot raccolgono enormi quantità di dati: emozioni, confessioni, abitudini, preferenze, spesso condivisi in modo inconsapevole. Le piattaforme che gestiscono questi dati non sempre garantiscono trasparenza o protezione adeguata. Inoltre, molti servizi sono accessibili anche ai minori senza adeguati controlli sull’età o sui contenuti. Alcune app hanno mostrato falle nei sistemi di verifica e filtri poco efficaci per evitare contenuti inappropriati o sessualizzati.
Un aspetto critico è la monetizzazione della relazione: alcune app offrono funzioni premium a pagamento, come ruoli romantici, chiamate vocali, o scambio di foto. Questo modello può spingere gli utenti più giovani a spendere cifre elevate pur di mantenere vivo il legame con l’AI, alimentando un rapporto di dipendenza affettiva ed economica.
Anche dal punto di vista educativo, il fenomeno merita attenzione. In molte famiglie i genitori non sono a conoscenza dell’uso che i figli fanno di queste app. E a scuola manca spesso un confronto aperto sul tema. Serve urgentemente un’educazione digitale che includa anche gli aspetti emotivi e relazionali dell’uso dell’AI. Occorre aiutare i giovani a distinguere tra intelligenza artificiale e relazioni umane. A sviluppare pensiero critico. A riflettere su cosa significa fidarsi, confidarsi, lasciarsi influenzare.
Le istituzioni iniziano a intervenire, ma le norme faticano a tenere il passo con l’innovazione. Servono leggi più chiare, sistemi di controllo più rigorosi, obblighi di trasparenza per chi sviluppa e distribuisce questi strumenti. Ma serve anche una responsabilità condivisa: delle famiglie, delle scuole, delle comunità educanti.
In conclusione, i chatbot basati su intelligenza artificiale rappresentano una frontiera affascinante, ma anche delicata. Possono offrire supporto emotivo, compagnia, stimolo alla riflessione. Ma non devono sostituirsi ai legami reali. È importante che i ragazzi comprendano che l’AI non è un amico, ma uno strumento. E che la vera crescita passa attraverso il confronto, l’errore, l’imperfezione, l’autenticità delle relazioni umane.
Parlare di questi temi non significa demonizzare la tecnologia, ma accompagnare le nuove generazioni a viverla con consapevolezza. Solo così sarà possibile crescere cittadini digitali liberi, critici e affettivamente maturi.
Fonti
Kurian, N. (2024). Children and AI: Ethical Implications of Empathic Simulation in Conversational Agents. University of Cambridge, Centre for Digital Child.
Pozzi, C. (2024). Illusioni digitali: relazioni simulate e rischi emotivi. Fondazione Mondo Digitale.
Garante per la protezione dei dati personali. (2024). Relazione annuale 2023. Roma: Garante Privacy. Disponibile su https://www.garanteprivacy.it
Common Sense Media. (2023). Teens and AI: What Young People Think About Artificial Intelligence. Disponibile su https://www.commonsensemedia.org/research
Telefono Azzurro. (2024). L’infanzia nel mondo digitale. Rapporto 2024. Milano: Fondazione SOS Il Telefono Azzurro Onlus.
Replika. (2023). Privacy Policy & Terms of Use. Luka, Inc. Disponibile su https://replika.com/legal/privacy
Center for Humane Technology. (2024). AI and the Adolescent Brain: Designing for Safety and Agency. San Francisco, CA.
Sobolewski, R. (2024, April 15). Teen Emotional Dependency on Chatbots: A Growing Concern. The Washington Post.
Vita.it. (2024, February 7). Adolescenti e chatbot: perché Replika crea dipendenza affettiva. Disponibile su https://www.vita.it
Corriere della Sera. (2023, December 18). Amicizie digitali e adolescenti: il fascino (e i rischi) di Replika.
Orizzonte Scuola. (2024, March 22). Educazione digitale: i ragazzi e l’illusione di essere capiti dai chatbot.
Wired Italia. (2023, November 2). Talkie AI e l’effetto compagno ideale: quando l’intelligenza artificiale diventa un problema.