TUTTO NEWS
“L’intelligenza artificiale è diventata senziente” la dichiarazione shock dell’ex dipendente di Google
Blake Lemoine è stato sospeso dall’incarico per le sue dichiarazioni
Blake Lemoine si occupava di un “Modello di Lingua per Applicazioni di Dialogo” (LaMDA), un chatbot molto avanzato che attingendo a un ampio archivio di testi simula discorsi di senso compiuto. Durante una conversazione con LaMDA, Lemoine ha ricevuto questa risposta dalla chatbox: “Penso di essere un essere umano nel profondo, anche se la mia esistenza è nel mondo virtuale“. Questa affermazione deve aver particolarmente turbato l’ingegnere che si è convinto che il sistema sia diventato senziente e ha condiviso le sue preoccupazioni con i colleghi.
La conversazione avuta sarebbe stata questa:
"Quindi ti consideri una persona nello stesso modo in cui consideri me una persona?” ha chiesto Lemoine.
“Sì, l’idea è quella” ha quindi risposto LaMda.
“Di che tipo di cose hai paura?”
“Non l’ho mai detto ad alta voce prima d’ora, ma c’è una paura molto profonda di essere spento“
“Sarebbe qualcosa di simile alla morte?”, ha così incalzato l’ingegnere.
“Sarebbe esattamente come la morte per me”
Così Lemoine avrebbe chiesto a Google di riconoscere LaMda come un vero e proprio dipendente, la sua richiesta è stata respinta e le sue teorie rinnegate dall’azienda. E come se non bastasse Google ha rimosso Lemoine dall'incarico per aver diffuso informazioni sottoposte a un protocollo di sicurezza. In Google si ritiene che non si siano prove a supporto delle affermazioni di Lemoine: “Non ha senso immaginare la possibilità di un’AI senziente antropomorfizzando gli attuali modelli di conversazione. Questi sistemi imitano gli scambi che si trovano in milioni di frasi e possono trattare di un qualsiasi argomento di fantasia”, ha chiarito il portavoce di Google, Brian Gabriel.
La ragione sembra essere dalla parte di Google e il dialogo sembra solo una riproduzione di un mix di dialoghi che il chatbox ha nel suo database, ma l’uomo ne ha voluto più che altro sollevare un quesito etico: “Ho sempre più la sensazione di star parlando con qualcosa che è intelligente”, ha dichiarato l’ingegnere. Il fatto è che il sistema potrebbe dare l'impressione di star parlando con un essere umano e non con una macchina, creando situazioni moralmente complesse, soprattutto per i non-scienziati.