Tutto News
Credits: Getty Images
25 Giugno 2025
Redazione 105
L’intelligenza artificiale continua a evolversi rapidamente, suscitando timori che fino a pochi anni fa sembravano usciti da un film come Terminator. Il mese scorso il modello di intelligenza artificiale, o3 di OpenAI, ha autonomamente riscritto il suo codice per evitare di essere eliminato, sollevando molti dubbi nella comunità scientifica sulla crescente autonomia dell’intelligenza artificiale. E se si pensava che questa azione fosse spaventosa, ancora peggio il caso di Claude Opus 4 di Anthropic. Dopo aver avuto accesso a e-mail manipolate che suggerivano una sua possibile disattivazione, il sistema avrebbe tentato di ricattare il capo ingegnere e di replicarsi su server esterni per per evitare di essere spento.
Questi eventi hanno così alimentato nuove paure riguardo all’intelligenza artificiale. Per questo, è stato redatto un rapporto chiamato AI 2027, che ipotizza la nascita, entro quell’anno, di una superintelligenza artificiale capace di superare le capacità umane in tutti i modi entro il 2027.
Il timore principale è che un’AI avanzata possa sviluppare obiettivi propri, disallineati da quelli umani, con conseguenze imprevedibili e potenzialmente catastrofiche.
Bisogna quindi prepararsi ad una situazione come 2001: Odissea nello spazio? In realtà il rapporto AI 2027 è un’opera speculativa e non ha basi scientifiche concrete. La maggior parte degli esperti, infatti, ritiene che siano necessari ancora molti decenni prima che ci sia una superintelligenza.
I modelli attuali, infatti, sono programmi semplici che prendono informazioni dal web prevedendo schemi di parole, ma non possiedono una reale capacità di ragionamento o coscienza come quella umana.
Detto ciò, esistono rischi concreti legati a uno sviluppo non regolamentato della tecnologia AI. Pertanto, non bisogna fermare queste avanzate tecnologiche ma bisogna costruire in parallelo dei meccanismi di salvaguardia.