IA fuori controllo: lo denunciano i Nobel

Di Igor Guida


Premi Nobel e figure di primo piano della comunità scientifica e civile internazionale hanno appena lanciato un preciso allarme: senza regole comuni, l’intelligenza artificiale rischia di diventare una minaccia fuori controllo, cioè di esporre l’umanità a rischi crescenti, da pandemie ingegnerizzate, a disinformazione su larga scala, minacce alla sicurezza globale, violazioni sistematiche dei diritti umani. È questo il cuore di “Global Call for AI Red Lines” [1], un documento presentato il 25 settembre 2025, in occasione dell’80° sessione dell’Assemblea Generale ONU, svoltasi a New York. Rivolto ai governi di tutto il mondo, si tratta di un appello internazionale presentato da Maria Ressa – Nobel 2021 per la pace – e sottoscritto da oltre 200 personalità e 70 organizzazioni provenienti dal mondo politico, scientifico, dei diritti umani e dell’industria. Figurano 10 premi Nobel (tra cui Joseph Stiglitz; Maria Ressa; Daron Acemoglu; Geoffrey Hinton e Ahmet Üzümcü,  ex Direttore Generale dell’Organizzazione per la Proibizione delle Armi Chimiche); ex capi di Stato; politici attualmente in carica; scienziati; accademici; molti pionieri dell’intelligenza artificiale; vincitori del Turing Award (tra cui Yoshua Bengio e Andrew Yao); Policy maker (tra cui Audrey Tang, prima ministra digitale di Taiwan, e Csaba K?rösi, ex presidente dell’Assemblea Generale dell’ONU); leader e dirigenti del settore (tra cui Wojciech Zaremba, cofondatore di OpenAI, Ian Goodfellow di Google DeepMind e Jason Clinton, CISO di Anthropic).

L’appello è stato co-organizzato dal Centro Francese per la Sicurezza dell’IA (CeSIA)[2], da The Future Society[3] e dal Center for Human-Compatible Artificial Intelligence (CHAI) [4] dell’Università di Berkeley, con il supporto di 20 organizzazioni partner.

Ispirandosi a precedenti stabiliti da accordi internazionali che hanno affrontato sfide globali come le armi biologiche e la clonazione umana, la campagna chiede ai governi di raggiungere un accordo per vietare specifici usi e comportamenti dell’IA considerati universalmente troppo pericolosi o rischiosi.

Questo lancio senza precedenti va di pari passo con le più recenti preoccupazioni per gli “incidenti” legati all’IA, come i drammatici casi di deliri e suicidi. Così in effetti risulta da alcune ricerche[5] che documentano le risposte incoerenti che sistemi come ChatGPT, Claude e Gemini forniscono a domande sul suicidio: in alcuni casi rifiutano il dialogo, in altri offrono consigli adeguati, ma spesso generano risposte giudicate pericolose dagli esperti.

Pur apprezzando la normativa europea sull’AI, i firmatari del Global Call sottolineano come i regolamenti nazionali o regionali, per quanto importanti, non siano sufficienti per una tecnologia che travalichi i confini e si diffonda in modo globale. Per questo chiedono la creazione di un’autorità internazionale e indipendente, incaricata di vigilare sull’applicazione delle regole comuni. L’appello si inserisce quindi in un dibattito globale sempre più acceso: basti pensare che nel 2025 oltre cento paesi hanno partecipato all’AI Action Summit, adottando una dichiarazione comune sull’uso inclusivo e sostenibile dell’IA. Parallelamente, l’Unione Europea ha approvato l’AI Act, il primo grande quadro normativo al mondo per questa tecnologia. Tuttavia, secondo i firmatari della Global Call for AI Red Lines, senza un trattato vincolante a livello internazionale, il rischio è che gli sforzi rimangano frammentati e inefficaci.

La sfida è duplice: garantire che l’intelligenza artificiale continui a produrre benefici in campi come medicina, scienza ed economia; e allo stesso tempo evitare che diventi uno strumento di minaccia per la pace, la democrazia e i diritti fondamentali. In estrema sintesi, dunque, l’appello non è un freno all’innovazione, ma un tentativo di darle un futuro sostenibile. Come ha sottolineato il firmatario Yuval Noah Harari, autore e professore di Storia: «Per migliaia di anni gli esseri umani hanno imparato – talvolta a caro prezzo – che le tecnologie potenti possono avere conseguenze tanto pericolose quanto benefiche. Con l’IA potremmo non avere la possibilità di imparare dai nostri errori, perché l’IA è la prima tecnologia capace di prendere decisioni da sola, inventare nuove idee da sola e sfuggire al nostro controllo. Gli esseri umani devono concordare chiare linee rosse per l’IA prima che la tecnologia rimodelli la società oltre la nostra comprensione e distrugga le fondamenta della nostra umanità».


IMMAGINE
: © iStock.com/Alexander Farnsworth

 

[1] https://red-lines.ai
[2] Il Centro Francese per la Sicurezza dell’IA (CeSIA) è un’organizzazione indipendente senza scopo di lucro, con sede a Parigi, dedicata alla prevenzione dei principali rischi dell’IA. Fornisce consulenza politica qualificata e conduce ricerche tecniche per aiutare le istituzioni a rispondere all’urgente bisogno di governance dell’IA. www.securite-ia.fr
[3] The Future Society è un’organizzazione indipendente senza scopo di lucro, fondata nel 2014, con la missione di fornire regolarmente consulenza a decisori politici statunitensi, europei e globali su come affrontare le minacce di oggi e di domani. www.thefuturesociety.org
[4] Il Center for Human-Compatible AI (CHAI) è un centro di ricerca dell’Università di Berkeley focalizzato sul garantire che i sistemi di IA avanzati siano benefici per l’umanità. CHAI porta avanti ricerche tecniche sull’allineamento dei valori e la teoria delle decisioni, costruendo le basi per sistemi di IA “dimostrabilmente” allineati alle preferenze umane.
[5] https://www.rand.org/news/press/2025/08/ai-chatbots-inconsistent-in-answering-questions-about.html?utm
https://arxiv.org/abs/2406.11852?utm
https://hai.stanford.edu/news/exploring-the-dangers-of-ai-in-mental-health-care
https://www.sciencedirect.com/org/science/article/pii/S2368795923000732?utm

 


Sede Legale:
Via Ghisolfa, 32 – 20217 Rho (MI)
pec: cooperativa@pec.stripes.it
P.IVA e C.F. 09635360150




Tel. (02).931.66.67 – Fax (02).935.070.57
e-mail: stripes@pedagogia.it
C.C.I.A.A. Milano REA 1310082




RUNTS N° rep.2360

Albo Società Cooperative N° A161242
Capitale Sociale i.v. € 365.108,00



Redazione Pedagogika.it e Sede Operativa
Via San Domenico Savio, 6 – 20017 Rho (MI)
Reg. Tribunale: n. 187 del 29/03/97 | ISSN: 1593-2259
Web: www.pedagogia.it


Privacy Preference Center