Skip to content

Ma l’IA ha le allucinazioni? Come riconoscere le false informazioni generate dalle reti neurali

Allucinazioni nell'Intelligenza Artificiale: Come riconoscerle e gestirle

Philip Dick si chiedeva se gli androidi sognassero pecore elettriche. Una domanda che ci sembrava assurda, eppure noi oggi ci chiediamo: ma le intelligenze artificiali possono avere le allucinazioni? La risposta è sì.

Partiamo dalle basi e cerchiamo di capire cosa significa allucinazioni quando si parla di Intelligenza Artificiale e come… gestirle.

Perché le Intelligenze Artificiali generative hanno le allucinazioni?

L’Intelligenza Artificiale è una tecnologia che mira a sviluppare algoritmi e modelli in grado di apprendere dai dati e migliorare le prestazioni nel tempo, in autonomia. Tali modelli possono riguardare il riconoscimento di immagini, il linguaggio naturale (il cosiddetto LLM, Large Language Model), la pianificazione e molto altro.

Se per l’essere umano l’allucinazione è provocata da una disfunzione cognitiva, così per i “cervelli artificiali” le allucinazioni vengono generate da distorsioni dell’algoritmo.
Il risultato è la generazione di false informazioni, dati alterati, output fantasiosi.

Ma perché accade? La risposta è molto semplice.

Le IA generative partono sempre da un presupposto: devono risponderti. Sempre. E per farlo, elaborano dati. Se non trovano abbastanza dati… li “inventano”.

Le allucinazioni dei Large Language Models

In particolare, i Large Language Model come Chat GPT o altri strumenti conversazionali, hanno bisogno di un’enorme set di dati da elaborare, dati che normalmente trovano in rete; qui apprendono i vocaboli e le relazioni tra questi, imparano a comprendere i diversi significati di una parola utilizzata in contesti diversi, colgono la complessità del linguaggio umano in pochissimo tempo.

Il tutto in modo autonomo e non supervisionato.

Qual è il loro limite? Questi modelli non hanno una vera e propria visione semantica, non hanno pensieri propri e non formulano concetti in maniera indipendente.
Quindi, se gli input non sono di qualità, la loro elaborazione genererà un risultato impreciso, se non addirittura inventato. 
Nello specifico, a provocare le allucinazioni nelle IA generative vi sono:

  1. Mancanza di dati o contesto: la macchina non trova effettivamente dati sufficienti per elaborare una risposta, oppure li trova ma non riesce a contestualizzarli;
  2. Overgeneralization: l’IA generalizza eccessivamente creando connessioni bizzarre e assurde tra dati;
  3. Overfitting: è quando il robot impara “troppo" dai dati di addestramento, memorizzandoli invece di generalizzare e generando perciò associazioni distorte.

Come riconoscere e prevenire le allucinazioni nelle Intelligenze Artificiali

Riconoscere le allucinazioni nelle IA generative è una sfida, ma non è così complesso come sembra.
Partiamo dal presupposto che utilizzare uno strumento basato sul Large Language Model  richiede un approccio critico e consapevole. 

Ecco alcune tecniche e accorgimenti che puoi adottare per riconoscere le false informazioni generate dall’IA.

Analisi semantica

Abbiamo detto che uno dei limiti dei Large Language Models è proprio la loro mancata visione semantica. L’incoerenza semantica è il primo segnale che rivela una falsa informazione. 


Verifica delle fonti

Se una dichiarazione o una risposta sembra bizzarra, potrebbe essere un segnale di allucinazione. Verifica sempre le informazioni ottenute, consultando fonti affidabili prima di accettarle come vere.

Coerenza e contesto 

Le allucinazioni spesso mancano di coerenza con il contesto circostante o con le informazioni fornite. Se una risposta ti sembra fuori luogo o contraddittoria rispetto alla conversazione in corso o alle conoscenze generali, allora potrebbe trattarsi di un’allucinazione.

Domande di approfondimento

Nel dubbio, prova a porre ulteriori domande al robot per testare la coerenza e la profondità delle informazioni. In caso di allucinazione, è probabile che il modello non sia in grado di darti spiegazioni coerenti o dettagliate. Puoi anche adottare la tecnica del test contraddittorio, ponendo volutamente domande incoerenti per vedere come reagisce il modello.

Verifica incrociata

Usa altre fonti o altri strumenti per verificare le informazioni. Diceva Agatha Christie: Un indizio è un indizio, due indizi sono una coincidenza, ma tre indizi fanno una prova.

Consapevolezza dei limiti 

Ricorda sempre che i modelli di linguaggio hanno i loro limiti e possono generare informazioni errate o fuorvianti per varie ragioni. Un approccio consapevole ti aiuterà ad adottare una mentalità critica.

Insomma, ora hai capito che le IA generative possono restituire contenuti che sembrano realistici ma che di fatto possono non essere precisi o addirittura possono non essere veritieri.  

Conoscere i limiti delle IA e dei Large Language Models non significa rinunciare al loro prezioso contributo o dubitare della loro affidabilità.

Significa invece imparare ad avere padronanza degli strumenti a propria disposizione per sfruttarli al meglio delle loro possibilità.

Perché, ricordiamo, “Non sarà l’intelligenza artificiale a rubarti il posto di lavoro; sarà qualcuno che la sa usare a prenderselo”.

Approfondisci, leggendo i seguenti argomenti:

 

Vuoi saperne di più su Pigro e su come funziona? Non esitare a contattarci!