TUTTO NEWS
IA e il rischio di diventare coscienti e pericolose: si può prevenire?
La questione della rivolta delle macchine rimane un argomento di grande preoccupazione e interesse per la comunità scientifica
Da un po' di tempo a questa parte oramai si parla solo di lei, l’intelligenza artificiale, che ha riportato alla ribalta lo scenario fantascientifico di una possibile ribellione delle macchine.
Un team di scienziati informatici internazionale, incluso un membro di Open AI, la società che ha lanciato ChatGPT, uno dei software linguistici di machine learning più noti, ha preso sul serio questa possibilità.
Lo scopo del team è di studiare lo scenario in cui i modelli di intelligenza artificiale sviluppino un certo grado di consapevolezza situazionale, diventando una minaccia per gli esseri umani e di prevedere e mettere a punto una contromisura.
Fino ad oggi, il Test di Turing era stato utilizzato per determinare se una macchina può replicare un comportamento simile a quello umano, ma ricercatori hanno recentemente scoperto che questo test non è più sufficiente quando si tratta di software di machine learning linguistico.
Pertanto, si concentrano sulla capacità dei software di ricordare i fatti acquisiti durante la fase di apprendimento e di utilizzarli durante le verifiche, anche se questi non sono direttamente collegati alla domanda che viene posta, ciò che viene chiamato ragionamento fuori contesto.
I primi esperimenti hanno dimostrato che i modelli di intelligenza artificiale più complessi e addestrati ottengono risultati migliori, ma ancora lontani dal possedere un minimo grado di consapevolezza situazionale.
Nonostante ciò, i ricercatori ammettono che la contromisura attuale è ancora approssimativa e che il loro studio rappresenta solo un punto di partenza, che deve essere costantemente migliorato per rimanere al passo con la crescita dell'intelligenza artificiale.
Di conseguenza, la questione della rivolta delle macchine rimane un argomento di grande interesse e preoccupazione per la comunità scientifica.