Tutto News
ChatGPT cambia le regole: niente più consigli personalizzati
Le nuove regole già in vigore vietano indicazioni mediche, legali e finanziarie, ma proteggono anche gli utenti più vulnerabili
ChatGPT ha cambiato faccia e non può più sostituire un professionista. Dal 29 ottobre 2025, OpenAI ha aggiornato le sue regole, mettendo un freno al chatbot su temi come salute, legge e soldi.
Le 3 cose che ChatGPT non farà più
La novità principale è lo stop ai consigli personalizzati che richiedono una licenza professionale.
- Medicina: non può dare diagnosi o suggerire terapie per i casi personali.
- Legge: non può fornire pareri legali o indicare come agire in una situazione specifica.
- Finanza: non può dire dove investire i propri soldi o come gestire un debito personale.
Cosa può fare ancora: può dare informazioni generali o spiegazioni a scopo didattico.
I settori “vietati”
OpenAI ha anche vietato di usare l'IA per prendere decisioni che contano in aree ad alto rischio, perché hanno un impatto diretto sulla vita:
- Lavoro e scuola
- Banche ed assicurazioni
- Sanità e servizi pubblici
L'obiettivo è impedire che un algoritmo possa decidere, ad esempio, come ottenere un prestito, un posto di lavoro, o l'accesso a cure specifiche.
Tutela dei minori: le nuove regole
Un focus importante è sulla protezione degli utenti vulnerabili.
- Bambini e minori: divieto assoluto di contenuti espliciti o che incoraggiano atti pericolosi.
- Crisi psicologiche: adesso se un utente si trova in difficoltà, il sistema riconosce il problema e dà risposte appropriate nell'80% in più dei casi.