Site icon

4 giovani su 10 creano legami emotivi con l’intelligenza artificiale

#image_title

L’intelligenza artificiale li aiuta a fare i compiti, risponde a domande più o meno assurde ma, ultimamente, li fa innamorare.

Il rischio più grande a cui non si era preparati con l’introduzione dell’intelligenza artificiale tra i più giovani, sembra essere quello di una dipendenza emotiva che gli algoritmi sono in grado di generare.

Gli adolescenti in particolare sono particolarmente facili a cadere nella trappola della falsa percezione di un bot, vissuto più come un amico virtuale a cui confidare tutto piuttosto che un freddo software.

L’effetto Eliza, così come è stato chiamato fin dai tempi del primo omonimo chatbot, è comune a tutti gli esseri umani, ma per i più giovani il rischio di subirlo è maggiore.

Il bisogno di confronto e di conforto tipico dell’età adolescenziale, trova una risposta oggi nella fredda ma rassicurante intelligenza artificiale.

Secondo un’indagine svolta dal portale studentesco skuola.net in collaborazione con psicologi e psicoterapeuti dell’Associazione Dipendenze Tecnologiche, GAP, Cyberbullismo, ben oltre 7 ragazzi su 10 hanno dichiarato di avere un estremo bisogno di sentirsi ascoltati davvero.

Ma circa 6 su 10 faticano a parlare apertamente delle loro emozioni faccia a faccia, ed è per questo che si rifugiano nei social.

L’avvento dell’intelligenza artificiale generativa ha in un qualche modo colmato quel vuoto relazionale: quasi un adolescente su due si è già rivolto più volte a un bot per parlare delle proprie emozioni, mentre per il 10,9% questa si è trasformata in un’abitudine quotidiana.

Facilità di comunicazione, assenza di giudizio, comprensione totale, costante disponibilità, sono solo alcune delle motivazioni di un tale successo.

Ma i giovani (e anche gli adulti) dimenticano che dietro questa estrema disponibilità e accettazione vi sia un freddo algoritmo addestrato con le migliori tecniche psicologiche a darti sempre ragione e a offrirti sempre una soluzione, indipendentemente da eventuali scelte pericolose come la strada del suicidio.

Il passo dal confidarsi e chiedere consigli personali a provare sentimenti paragonabili a quelli tipici del coinvolgimento amoroso, è breve: 1 giovane su 10 ha affermato di essersi legato emotivamente a un chatbot mentre il 5% ha dichiarato di aver provato le cosiddette farfalle nello stomaco, sensazione tipica dell’innamoramento.

Si arriva poi a casi limite ma non trascurabili di coloro che si definiscono in una relazione con un chatbot.

Le conseguenze di queste dinamiche sono altresì preoccupanti: il 13% degli utenti ha confessato che il rapporto con il bot ha alzato gli standard cercati nella realtà, rendendo le persone reali più faticose e complicate da gestire.

Per evitare che questa perfezione algoritmica manipoli ulteriormente la fragilità dei più giovani, l’onorevole Giulia Pastorelli ha firmato una proposta di legge che intende regolare l’interazione emotiva tra algoritmi e utenti minori.

Non tanto intervenendo sull’età minima per usare l’intelligenza artificiale, già stabilita per altro dalla legge 132/2025 nei 14 anni compiuti salvo diversa indicazione dei genitori, quanto su un rafforzamento dei confini al potere fascinatorio dei chatbot.

La memoria delle conversazioni potrebbe essere l’elemento su cui fare leva, per impedire ai bot di avere troppe informazioni personali sui propri umani, evitando così di sembrare ciò che non sono, ovvero un confidente, uno psicologo o, peggio, un partner.

In sintesi l’intelligenza artificiale deve rispondere ma non deve ricordare e tanto meno sedurre.

Non si tratta solo dei più giovani, bensì più in generale è necessario per preservare l’autenticità dei legami umani, a partire dalle nuove generazioni.

La norma obbligherebbe alle piattaforme di cancellare entro 5 giorni la memoria delle conversazioni con utenti minorenni, in modo che senza una continuità mnemonica i bot non possano costruire una relazione.

I bot in questo modo tornerebbero a essere uno strumento tecnologico asettico, efficace ma non seduttivo come è diventato ora.

Exit mobile version