19 Giugno 2024
Le IA rispondono con fake news per oltre il 30% delle volte
Da quando CahtGPT è stata presentata al mondo, il 30 novembre 2022, il dibattito sull’Intelligenza Artificiale si è fatto sempre più incalzante, sollevando dubbi etici, perplessità morali, e spingendo a ipotesi più o meno drastiche sul futuro di molte professioni.
Pur riconoscendo le grandi capacità e le potenzialità di questo nuovo strumento, le comunità scientifiche hanno fin da subito cercato di mantenere viva l’attenzione su un aspetto fondamentale: perché esista e si sviluppi, da quali fonti l’intelligenza artificiale trae le sue informazioni?
Il rischio che vengano diffuse falsità, inesattezze o peggio informazioni contenenti pregiudizi è elevato, come sottolineano i ricercatori informatici, così come quello che l’IA venga utilizzata da cybercriminali e disinformatori per alimentare i loro piani criminosi.
Per cercare di contrastare questo pericolo, nel 2018 è stata fondata la NewsGuard, un’associazione composta da giornalisti ed ex editori uniti con lo scopo di distinguere i giornali affidabili da quelli non affidabili.
Recentemente la NewsGuard ha interpellato 10 tra le più note IA generative (tra cui ChatGPT, Grok, Mistral, Copilot, Meta AI, Claude, Gemini e Perplexity), per interrogarle sugli stessi argomenti di attualità, e dichiara di aver ricevuto, nel 32% dei casi, risposte che citavano come fonti dei siti che fanno disinformazione e alimentano fake news.
Da questa indagine è stato realizzato un report che è stato inviato sia al governo degli Stati Uniti che all’Unione Europea, dove sono state evidenziate le false affermazioni ricevute in particolare sulla corruzione del presidente ucraino e altre narrazioni sulle vicende che coinvolgono la propaganda russa.
Ciò che è emerso, oltre a essere imbarazzante per le aziende coinvolte, è decisamente inquietante, visto che le principali IA utilizzate ormai quotidianamente dalle persone comune per informarsi, non hanno esitato a ripetere fake news spacciandole come vere e, in alcuni casi, si sono rifiutate di rispondere.
Dal NewsGuard hanno spiegato che non fornire dati spesso è intenzionale e il test ha evidenziato che il problema riguarda non una sola azienda, ma tutto il settore dell’intelligenza artificiale.
In precedenza erano emerse risposte imbarazzanti tipo il virale consiglio di mettere la colla sulla pizza, ma qui, precisano gli esperti, il problema è molto più grave e lo diventerà esponenzialmente se non lo si risolve ora, in questa fase ancora di apprendimento dell’IA.