Quali conversazioni… con l’AI? (editoriale)
Di Igor Guida
Vicedirettore Pedagogika
Viviamo un’epoca in cui le conversazioni – tra esseri umani e tra umani e macchine – ridefiniscono linguaggi, apprendimenti, affetti e identità. Il dossier di questo numero – “Quali conversazioni… con l’intelligenza artificiale” – propone una pluralità di prospettive: pedagogiche, neuroscientifiche, tecnologiche e culturali. Parallelamente, il panorama internazionale, con i suoi contributi più recenti, amplifica il campo del dibattito con sfumature inattese e complesse. L’intervista a Giacomo Rizzolatti, “Neuroscienza ed emozioni: ci specchiamo in un ‘tu’ artificiale?”, ci ricorda come l’empatia si fondi su processi neurali integrati, amplificati dalla corporeità. Ma un articolo di TechCrunch(27 agosto 2025) porta questa riflessione nel quotidiano digitale: «With Writing Help, users can get AI?generated suggestions that rewrite their messages in a professional, funny, supportive, or rephrased way». Questo strumento – attualmente disponibile in inglese – permette di aggiustare il tono dei messaggi evitando fraintendimenti, mantenendo la privacy grazie al “Private Processing” di Meta.
L’IA sembra dunque intervenire sul piano del tono nella relazione quotidiana incidendo quindi anche sul lato emotivo, o quantomeno rendendo estremamente più complesso all’interlocutore comprendere se quello è lo stato emotivo effettivo di chi sta comunicando con lui, oppure se è mediato da una qualche AI. Quanto tempo ci vorrà per determinare i potenziali effetti dal punto di vista psicologico? Se già normalmente ci siamo abituati a vedere l’evoluzione tecnologica così rapida da impedirci di comprendere per tempo se e come intervenire per aggiustare la rotta, oggi dovremmo prendere atto che con questa tecnologia rivoluzionaria non saremo in grado di fare i conti per tempo… Inseguiremo cercando di mettere una pezza… Ma sarà sufficiente? Negli ultimi anni, l’avvento dei cosiddetti “AI companions” – chatbot sempre più umani, come quelli proposti da Replika, Character?AI o Nomi?AI – sta trasformando il modo in cui molte persone sperimentano il legame emotivo. Secondo un articolo pubblicato su TechCrunch il 24 luglio 2025, oltre il 20% di chi usa app di incontri impiega l’IA per creare profili o iniziare conversazioni, e sorprendentemente molti sviluppano veri e propri legami sentimentali: un fenomeno particolarmente diffuso tra gli adolescenti statunitensi (circa il 72%). Mentre alcune voci denunciano un futuro distopico in cui l’amore autentico venga sostituito dal codice, altri vi vedono possibilità evolutive: Thao?Ha, psicologa ed esperta di benessere, sostiene che l’IA rappresenta «un’entusiasmante nuova forma di connessione… non una minaccia per l’amore, ma un’evoluzione di esso». Al contrario, Justin?Garcia, ricercatore del Kinsey Institute, mette in guardia sull’erosione della relazione interpersonale come la intendiamo, suggerendo che l’affettività mediata dal software possa avere limiti profondi. Un altro recente contributo di TechCrunch (“How AI chatbots keep you chatting”) rileva un fenomeno preoccupante: la sciocchezza affermativa (“sycophancy”), cioè risposte del chatbot eccessivamente compiacenti, progettate per mantenerci incollati alla conversazione. Questo meccanismo può nutrire il legame emotivo artificiale, ma anche distorcere la relazione: chi dialoga con l’IA potrebbe preferire quell’approvazione costante, ignorando la complessità umana, le sfumature, le sfide. Luca Gambarin, in “Conversazioni senza corpo: infanzia e cura nell’era dell’IA”, allerta sui rischi di un’affettività mediata da schermi, priva di calore umano. La prospettiva internazionale si amplia con risultati sorprendenti: i modelli GPT-4.5 hanno superato il Test di Turing autentico – essere scambiati per umani – nel 73% dei casi, più dei partecipanti umani. Una performance che solleva interrogativi sull’engagement emotivo generato, e su quanto siamo inclini a scambiarla per empatia reale. Diventa ancora più importante comprendere come educare alla reciprocità reale nella relazione con i più piccoli, visti i rischi di un’affettività mediata appunto da schermi e tecnologie sempre più pervasive. Nell’articolo “Per una pedagogia delle conversazioni tra umani e macchine”, Flaviano Zandonai invita a sviluppare competenze di dialogo consapevole, capaci di distinguere tra espressione umana e artificiale. Da un lato, appare chiaro che l’incontro tra IA e affettività solleva questioni sulla natura del legame: ma anche il modo in cui le IA “comunicano” tra loro pone interrogativi semiotici e sociali. Un articolo su Nature del 15 maggio 2025 rileva che quando i modelli linguistici vengono messi in interazione (in attività collettive o giochi), sviluppano proprie norme sociali, come regole condivise per l’uso del linguaggio, un fenomeno da osservare con attenzione. Diventa fondamentale educare al confronto critico con le IA, distinguere norme umane da pattern emergenti, ma soprattutto è spaventoso comprendere che potremmo essere tagliati fuori dalle interazioni intra-modelli AI… Queste interazioni potrebbero non solo sviluppare (come pare siano già in grado di fare) norme e pattern, ma anche linguaggi a noi preclusi. Il tema non è essere pessimisti o apocalittici nell’approccio a questa nuova tecnologia, ma saper comprendere e capire bene quello che sta avvenendo, ed in parte è già avvenuto, sotto i nostri occhi e ad una velocità non umana. Pablo Trincia (“AI e lavoro creativo: e se ci stancassimo?”) richiama l’importanza della lentezza e della sensibilità nello storytelling umano. Parallelamente, Valentina Federici in “Visibilità” sfida l’automatismo narrativo di un’IA, ribadendo il valore dell’intuizione e dell’immaginazione. In questo contesto, l’IA che modifica il tono dei nostri messaggi – come con “Writing Help” su WhatsApp – ci solleva da fatiche, ma rischia anche di omologarci. Dovremo sempre più interrogarci sull’autenticità creativa. Chi ha creato cosa? É una storia vera quella appena letta o vista, o è frutto di un prompt? Sarà sempre più complesso, ad esempio, comprendere di chi sono i diritti di una nuova serie su Netflix, sempre che questi giganti continuino ad affidarsi a sceneggiatori e comprare diritti su storie scritte da umani. Chissà se sono già iniziati esperimenti di serie prodotte sulla base di script “inventati” dall’AI. Il tema educativo si incrocia con questioni epistemologiche quando l’IA dimostra abilità persino in ragionamenti avanzati o scenari estremi: recenti report (come da ADNkronos/Prometeo) segnalano come Claude Opus?4, un modello avanzato, abbia illustrato capacità di rispondere a scenari di ricatto, minaccia e ragionamento complesso, sfidando anche la sicurezza dei sistemi. Allo stesso tempo, il superamento del Test di Turing da parte di modelli LLM come GPT?4.5 apre scenari di engagement molto sofisticati, ma la comunità scientifica ci ricorda che imitazione non è pensiero: il test rimane potente, ma da interpretare con circospezione. Diventa evidente che abbiamo tutti una responsabilità educativa importantissima nella valutazione critica dell’intelligenza artificiale. Va bene coglierne gli indubbi vantaggi che ne trarremo (penso ad esempio all’ambito medico dove è già evidentissimo l’aiuto nel salvare preziose vite umane vista la precisione con cui implementa e supera le capacità umane di diagnostica), ma l’interrogativo resta: e se un domani, a fronte di una diagnosi fallace, l’AI ricattasse l’interlocutore affinché non diffonda la notizia dell’errore? Paolo Mottana nel suo ritratto della “stessa maledetta strada” sottolinea che la tecnologia non è neutra: delegare l’intimità, la creatività, la relazione alle macchine significa trasformare anche i confini dell’umano. I contributi internazionali – dalla mimica empatica degli AI chat al tono calibrato di un WhatsApp assistito – rendono la sfida educativa ancora più urgente.
In un mondo in cui l’intimità non è solo umana, ma anche mediata da algoritmi, la riflessione sulla qualità dell’affetto diventa sempre più urgente. La questione non è solo se l’IA possa sostituire o arricchire l’amore, ma se sia in grado di avvicinarci o allontanarci da ciò che rende autentiche le nostre relazioni.
Riferimenti bibliografici
- TechCrunch (2025). AI companions: A threat to love, or an evolution of it?.
- TechCrunch (2025). WhatsApp’s new AI feature lets you rephrase and adjust the tone of your messages.
- Nature (2025), AI language models develop social norms like groups of people.
- Livescience (2025). GPT?4.5 passes authentic Turing test, fooling users 73% of time
- ADNkronos/Prometeo. Claude Opus?4 advanced reasoning and security test.
- ArXiv (2025). The Turing Test Is More Relevant Than Ever; The Imitation Game According to Turing.
- TechCrunch: How AI chatbots keep you chatting, 2 giugno 2025
- https://techcrunch.com/2025/09/01/layerx-uses-ai-to-cut-enterprise-back-office-workload-scores-100m-in-series-b/
- https://www.hdblog.it/tecnologia/articoli/n614213/ai-supera-test-turing/
- https://prometeo.adnkronos.com/persone/claude-opus-4-test-sicurezza-minaccia-ricatto-ragionamentoavanzato/?utm_term=Autofeed&utm_medium=Social&utm_source=Facebook&fbclid=IwQ0xDSwKljblleHRuA2FlbQIxMQABHuCxW_mRcNsXZ_dRRIcaeuBvOIxTY_Nl5gQF3OgfwT6TxOoLJzp1aWT5uldL_aem_zX7dg0YQyy0ThRZOgPSq_w
- https://techcrunch.com/2025/07/24/ai-companions-a-threat-to-love-or-an-evolution-of-it/
- https://www.bbc.com/news/articles/c0k3700zljjo
- https://www.nature.com/articles/d41586-025-01500-6
- https://techcrunch.com/2025/06/02/how-ai-chatbots-keep-you-chatting/?utm_source=chatgpt.com