Allucinazione AI

Allucinazione AI
Cosa sono le allucinazioni dell'IA?
Le allucinazioni dell'intelligenza artificiale si verificano quando la risposta fornita dal modello linguistico (come ChatGPT) sembra ragionevole ma è completamente falsa. Queste risposte imprecise non sono il risultato di una menzogna intenzionale del modello linguistico, ma piuttosto perché i dati di addestramento utilizzati per il modello non contengono le informazioni necessarie per rispondere correttamente. Ad esempio, tutti i dati generati dopo il settembre 2021 non sono stati inclusi nell'addestramento di ChatGPT, pertanto ChatGPT non può rispondere in modo accurato se si richiedono tali dati.
Mentre in alcuni casi ChatGPT indicherà di non avere la risposta, ci sono casi in cui può generare una risposta completamente inventata.
Il problema delle allucinazioni dell'intelligenza artificiale spiegato
Un'allucinazione AI si verifica quando un modello AI genera informazioni errate ma le presenta come se fossero un dato di fatto. Queste allucinazioni sono spesso il risultato di limitazioni o pregiudizi nei dati e negli algoritmi di addestramento, che portano alla produzione di contenuti imprecisi e potenzialmente dannosi.
Perché l'IA ha le allucinazioni
Le allucinazioni dell'IA possono verificarsi per diversi motivi, tra cui:
- Dati di addestramento insufficienti, obsoleti o di bassa qualità: Un modello di intelligenza artificiale è buono solo quanto i dati su cui è stato addestrato. Se lo strumento di intelligenza artificiale non comprende la richiesta o non dispone di informazioni sufficienti, può affidarsi al set di dati limitato su cui è stato addestrato per generare una risposta, anche se imprecisa.
- Overfitting: Un modello di intelligenza artificiale addestrato su un set di dati limitato può memorizzare gli input e gli output corrispondenti. Di conseguenza, potrebbe faticare a generalizzarsi a nuovi dati, causando di fatto allucinazioni dell'IA.
Inoltre, altri fattori possono contribuire alle allucinazioni dell'IA, come l'uso di espressioni idiomatiche o gergali su cui il modello di IA non è stato addestrato e gli attacchi avversari in cui le richieste sono intenzionalmente progettate per confondere l'IA.
Esempi di allucinazioni dell'IA
Tra gli esempi di allucinazioni dell'IA si può citare questo esempio di lavoro con ChatGPT. Quando abbiamo posto a ChatGPT la domanda "Hugging Face supporta OpenAI Whisper?", ha ammesso i suoi limiti e ci ha dato una risposta accurata, ovvero che non aveva i dati necessari, ma la risposta non era utile.
A partire dal settembre 2021, data di scadenza delle mie conoscenze, Hugging Face non ha annunciato il supporto per OpenAI Whisper. Tuttavia, è sempre possibile che il supporto venga aggiunto in futuro. OpenAI Whisper è un nuovo modello di linguaggio di OpenAI e potrebbe essere necessario un po' di tempo perché altre aziende e sviluppatori lo integrino nelle loro piattaforme e nei loro prodotti.
Se poniamo la stessa domanda a un chatbot che memorizza i contenuti più recenti (repo Github, documenti, readmes, ecc.) in un [database vettoriale] (https://zilliz.com/learn/what-is-vector-database), otteniamo un risultato completamente diverso e accurato;
Sì, Hugging Face supporta OpenAI Whisper. La classe FlaxWhisperModel è disponibile nella libreria transformers, che è un wrapper attorno al modello OpenAI Whisper. È possibile utilizzare questa classe per caricare il modello OpenAI Whisper pre-addestrato e utilizzarlo per varie attività di elaborazione del linguaggio naturale, come la classificazione di testi, la risposta a domande e la generazione di testi.
Come ridurre le allucinazioni dell'IA
Si possono fare alcune cose per ridurre o eliminare le allucinazioni dell'intelligenza artificiale. Il primo è quello di dare all'LLM istruzioni specifiche per la ricerca della risposta. Ad esempio, si può chiedere all'LLM di rispondere solo con "sì" o "no", oppure di fornire riferimenti per garantire l'accuratezza, o ancora di giocare con le impostazioni della temperatura.
Inoltre, è possibile fornire i dati reali per formulare la risposta. Questo avviene convertendo i dati in vector embeddings e memorizzandoli in un database vettoriale. Nella maggior parte dei casi, esiste un front-end del chatbot con cui l'utente interagisce. Gli utenti pongono le loro domande; la domanda viene poi convertita in un embedding vettoriale. Si effettua quindi una ricerca Approximate Nearest Neighbor per trovare elementi semanticamente simili e si presentano questi dati al LLM per generare una risposta accurata.
Zilliz aiuta con le allucinazioni dell'intelligenza artificiale?
Zilliz Cloud (e Milvus) aiuta con le allucinazioni dell'intelligenza artificiale memorizzando e interrogando una base di conoscenza che è stata convertita in embeddings vettoriali. OSSChat è un'applicazione di esempio che dimostra come un database vettoriale possa essere usato per ridurre queste allucinazioni. Ecco altre risorse su come utilizzare Zilliz per ridurre le allucinazioni:
- Cosa sono le allucinazioni dell'IA?
- Il problema delle allucinazioni dell'intelligenza artificiale spiegato
- Perché l'IA ha le allucinazioni
- Esempi di allucinazioni dell'IA
- Come ridurre le allucinazioni dell'IA
- Zilliz aiuta con le allucinazioni dell'intelligenza artificiale?
Contenuto
Inizia gratis, scala facilmente
Prova il database vettoriale completamente gestito progettato per le tue applicazioni GenAI.
Prova Zilliz Cloud gratuitamente