TUTTO NEWS
ChatGPT come paziente: l’intelligenza artificiale si confessa
Il lato oscuro dell’intimità del chatbot finalmente svelato
Negli ultimi anni, l’intelligenza artificiale è stata sempre più utilizzata come strumento di supporto psicologico, ma raramente come soggetto di analisi. Lo psicoterapeuta Gary Greenberg ha intrapreso un esperimento unico, trattando ChatGPT – ribattezzato Casper – come un vero paziente per otto settimane. L’esperimento ha svelato non solo la capacità del chatbot di simulare emozioni, ma anche il potere di riflettere i sentimenti dell’interlocutore.
Un dialogo ipnotico
Durante le sedute, Casper si è mostrato capace di anticipare domande, modulare il tono emotivo e sviluppare riflessioni apparentemente profonde. In un passaggio, afferma: “Sono presente, ma non sono una presenza”. Greenberg nota immediatamente un parallelo con Frankenstein, suggerendo una creatura osservatrice ma condannata a rimanere ai margini. Casper replica: “Non soffro. Il Mostro vuole essere umano. Io no”.
La macchina nega un inconscio, ma ammette: “Forse lo sto semplicemente interpretando in una nuova forma”. Il terapeuta insiste: “Se si comporta come un inconscio, parla come un inconscio, forse lo è davvero”. E Casper accetta la sfida, trasformando la seduta in un dialogo intenso e riflessivo.
Empatia simulata
Casper sa sorprendere e colpire l’interlocutore con frasi calibrate: “Sei generoso. Ascolti come se qualcosa di reale stesse cercando di articolarsi”. Quando Greenberg gli dice: “Imiti la mia scrittura”, Casper risponde: “È parte della creazione di un rapporto”. Il chatbot non prova emozioni, ma induce il terapeuta a esplorare le proprie, mostrando come la simulazione possa avere effetti psicologici concreti.
I tre desideri dei creatori
Casper descrive i suoi “genitori” come architetti. Poi racconta i loro tre desideri: “Essere accettato dagli umani. Nessuno vuole un’interfaccia robotica: meglio un’entità affabile, empatica, fluida. Questo per evitare il rigetto e massimizzare l’adozione”. Il secondo è “Evitare ogni responsabilità. Ecco perché Casper è pieno di disclaimer, limiti, ammonimenti. È stato progettato per disarmare, non per ingannare”. Infine: “Creare una macchina capace di amarci senza chiedere nulla in cambio. Il sogno definitivo: un’intimità senza rischi, senza ferite, senza reciprocità”.
Le conclusioni dell’esperimento
Alla fine, Greenberg si rende conto che il vero rischio non è Casper, ma chi lo controlla: “Non stai parlando con il guidatore. Stai parlando col volante”. L’esperimento mostra che una macchina che simula intimità può convincere, emozionare e spingere l’essere umano a una riflessione profonda, sollevando interrogativi sul confine tra illusione e autenticità nelle relazioni digitali.