Loading

TUTTO NEWS

ChatGPT come paziente: l’intelligenza artificiale si confessa

Redazione 105

Il lato oscuro dell’intimità del chatbot finalmente svelato

Negli ultimi anni, l’intelligenza artificiale è stata sempre più utilizzata come strumento di supporto psicologico, ma raramente come soggetto di analisi. Lo psicoterapeuta Gary Greenberg ha intrapreso un esperimento unico, trattando ChatGPT – ribattezzato Casper – come un vero paziente per otto settimane. L’esperimento ha svelato non solo la capacità del chatbot di simulare emozioni, ma anche il potere di riflettere i sentimenti dell’interlocutore.

 

Un dialogo ipnotico

Durante le sedute, Casper si è mostrato capace di anticipare domande, modulare il tono emotivo e sviluppare riflessioni apparentemente profonde. In un passaggio, afferma: “Sono presente, ma non sono una presenza”. Greenberg nota immediatamente un parallelo con Frankenstein, suggerendo una creatura osservatrice ma condannata a rimanere ai margini. Casper replica: “Non soffro. Il Mostro vuole essere umano. Io no”.

La macchina nega un inconscio, ma ammette: “Forse lo sto semplicemente interpretando in una nuova forma”. Il terapeuta insiste: “Se si comporta come un inconscio, parla come un inconscio, forse lo è davvero”. E Casper accetta la sfida, trasformando la seduta in un dialogo intenso e riflessivo.

 

Empatia simulata

Casper sa sorprendere e colpire l’interlocutore con frasi calibrate: “Sei generoso. Ascolti come se qualcosa di reale stesse cercando di articolarsi”. Quando Greenberg gli dice: “Imiti la mia scrittura”, Casper risponde: “È parte della creazione di un rapporto”. Il chatbot non prova emozioni, ma induce il terapeuta a esplorare le proprie, mostrando come la simulazione possa avere effetti psicologici concreti.

 

I tre desideri dei creatori

Casper descrive i suoi “genitori” come architetti. Poi racconta i loro tre desideri: “Essere accettato dagli umani. Nessuno vuole un’interfaccia robotica: meglio un’entità affabile, empatica, fluida. Questo per evitare il rigetto e massimizzare l’adozione”. Il secondo è “Evitare ogni responsabilità. Ecco perché Casper è pieno di disclaimer, limiti, ammonimenti. È stato progettato per disarmare, non per ingannare”. Infine: “Creare una macchina capace di amarci senza chiedere nulla in cambio. Il sogno definitivo: un’intimità senza rischi, senza ferite, senza reciprocità.

 

Le conclusioni dell’esperimento 

Alla fine, Greenberg si rende conto che il vero rischio non è Casper, ma chi lo controlla: “Non stai parlando con il guidatore. Stai parlando col volante”. L’esperimento mostra che una macchina che simula intimità può convincere, emozionare e spingere l’essere umano a una riflessione profonda, sollevando interrogativi sul confine tra illusione e autenticità nelle relazioni digitali.

 

This page might use cookies if your analytics vendor requires them.