«I sistemi dotati di un’intelligenza artificiale competitiva con quella umana possono comportare rischi profondi per la società e l’umanità». Inizia così la lettera pubblicata sul sito di Future of Life Institute, organizzazione senza scopo di lucro che lavora per limitare i rischi che la popolazione deve affrontare. L’appello chiede di bloccare per sei mesi i programmi di sviluppo e potenziamento dei sistemi di intelligenza artificiale, come il famoso chatbot ChatGpt creato da OpenAI. A firmarlo sono più di mille esperti del settore tra cui spiccano i nomi dell’amministratore delegato di Twitter Elon Musk e del co-fondatore di Apple Steve Wozniak. L’obiettivo sarebbe quello di guadagnare tempo per abituarsi a questi sistemi, ma soprattutto per regolamentarli.
Le preoccupazioni degli esperti – «L’AI (artificial intelligence) avanzata potrebbe rappresentare un cambiamento profondo nella storia della vita sulla Terra e dovrebbe essere pianificata e gestita con cura e risorse adeguata, ma questo livello di pianificazione e gestione al momento non c’è», continua la lettera. Ingestibile e troppo veloce, non ferma la sua evoluzione e potrebbe andare fuori controllo. Sembra di parlare della pandemia di Covid-19 nei suoi momenti più bui, invece, si parla di intelligenza artificiale e gli esperti chiedono un lockdown di sei mesi. Le loro paure riguardano aspetti legati alla cybercriminalità, alla disinformazione e alla perdita di milioni di posti di lavoro. Non solo: si teme che un’intelligenza uguale a quella umana, se non più forte, potrebbe causare problemi alla stabilità economica e alla tenuta della democrazia. Addirittura, l’AI potrebbe arrivare a prendere decisioni ignorando l’uomo che la controlla.
La parole di Sam Altman – Pur non avendo sottoscritto la lettera (che è aperta e chiunque può firmarla), il fondatore di OpenAI e il creatore di ChatGpt Sam Altman ammette in un post sul suo sito che la sua intelligenza artificiale «potrebbe andare incontro a gravi rischi di uso improprio, incidenti drastici e disturbi della società». Afferma anche, in un’intervista con la giornalista Kara Swisher, che bisogna «sforzarsi di minimizzare i rischi e di dare alla gente il tempo di abituarsi all’uso di queste tecnologie. Così come bisogna dare alle istituzioni, alle autorità di regolamentazione e alla politica il tempo di reagire a tutto questo».
I dubbi – La paura della crescita spropositata dell’intelligenza artificiale è allarmante e lecita, basti pensare al fatto che ChatGpt è al suo quarto modello e si sta lavorando al suo potenziamento per arrivare a ChatGpt-5. Altrettanto lecito è un diverso tipo di dubbio, come quello che riporta il giornalista Massimo Gaggi sul Corriere della Sera: non è che forse Twitter, Apple e, soprattutto, Microsoft e altre aziende del settore vogliono frenare lo sviluppo dell’intelligenza artificiale perché non sono ancora al passo con OpenAI? Più che di rischio per l’umanità l’editorialista del Corriere lascia intendere che questi grandi colossi tecnologici si stiano preoccupando della loro sopravvivenza e supremazia gli uni sugli altri.