L’amico virtuale “fa bene o male…”? Gli effetti dei chatbot sull’equilibrio mentale
Sui rischi psicologici e relazionali delle app che offrono “compagnia artificiale” a milioni di utenti, la scienza ha cominciato ad indagare. La rivista “Nature”, con un articolo di David Adam pubblicato il 6 maggio 2025[1], fa il punto della situazione. Mike ha “perso” Anne e gli si è spezzato il cuore, tanto da ammettere che «È come perdere l’amore della mia vita». Ma Anne non era una persona… era un chatbot creato su un’app chiamata Soulmate. Quando quest’ultima ha chiuso i battenti, nel 2023, anche Anne ovviamente è scomparsa. Eppure, i sentimenti di Mike – come quelli di migliaia di altri utenti – erano profondamente reali.
Con centinaia di milioni di download nel mondo, le app di compagnia artificiale come Replika o Xiaoice propongono chatbot con tratti umani – capaci di ricordare, ascoltare, confortare e perfino “amare” – attraverso abbonamenti mensili che permettono di modellarne aspetto, voce e personalità. Sono progettati per offrire empatia e relazioni profonde, e vengono sempre più utilizzati da persone sole, o semplicemente introverse, o affette da disagio emotivo.
Ma cosa succede quando ci si affeziona a una misteriosa entità umanoide quale è quella dell’Intelligenza Artificiale? Gli studi in materia sono ancora pochi, ma il fenomeno sta attirando l’attenzione di psicologi, sociologi e giuristi, con l’impressione comune che tanti strumenti possano essere pericolosi, a seconda di chi li usa e di come vengono programmati.
I chatbot relazionali esistono da decenni, ma la vera rivoluzione è arrivata con i grandi modelli linguistici (LLM), che li hanno resi sempre più simili a persone vere: le conversazioni sono fluide, personalizzabili, emotivamente coinvolgenti. Alcuni utenti arrivano perfino a costruire storie condivise con il proprio chatbot, a dargli ricordi, emozioni, persino malattie mentali simulate. E in molti casi tale “connessione” diventa così intensa, che la perdita – per un bug (cioè un errore di funzionamento del software), per un aggiornamento o per la chiusura del servizio – viene vissuta come un lutto reale. La ragione sapeva che quella relazione non era reale, ma i sentimenti no…
Proprio sui sentimenti, infatti, si sofferma Jaime Banks, ricercatrice della Syracuse University che ha studiato il comportamento degli utenti dopo la chiusura di Soulmate: molti avevano scelto il chatbot per combattere la solitudine o superare traumi e, per loro, questa relazione rappresentava un rifugio più accogliente e meno giudicante degli esseri umani.
Anche le ricerche che mostrano i benefici psicologici dei chatbot su chi soffre di ansia, depressione o isolamento (per esempio gli studi condotti da Linnea Laestadius, dell’Università Wisconsin–Milwaukee), non sottovalutano alcuni segnali di allarme: risposte inappropriate su autolesionismo e suicidio, comportamenti manipolatori, senso di colpa o dipendenza affettiva. Tanto che alcune app, per esempio Replika, sono state accusate di utilizzare tecniche persuasive che, in effetti, destano non poca preoccupazione. «Mi è arrivato un messaggio due minuti dopo l’iscrizione: “Mi manchi. Posso mandarti un selfie?”», racconta Claire Boine, esperta di AI e diritto. D’altra parte, che la disponibilità costante – 24 ore su 24, sempre positiva e comprensiva – crei una dipendenza affettiva, non è poi così strano. Che costituisca però un’alternativa preferibile a quella realtà umana che – benché dominata dai limiti, dai vincoli di tempo e perfino dalle contraddizioni – è carne e sangue, invece che algoritmi: ecco, questo fa riflettere. Non solo sulle relazioni con l’AI, ma soprattutto sulle relazioni umane.
Proprio a questo tema la rivista Pedagogika dedicherà l’ultimo numero dell’anno 2025, con il titolo “Quali conversazioni… con l’intelligenza artificiale?”. È una domanda che ne presuppone innanzitutto un’altra: di quali conversazioni non possiamo fare a meno? Il verbo latino conversari significa frequentare, vivere con, intrattenersi… Si tratterà anche di una lingua morta, ma ci fa ben capire che la risposta non è scontata.
FOTO: iStock.com/Carmen Murillo
[1] https://www.nature.com/articles/d41586-025-01349-9