Alucinação de IA

Alucinação de IA
O que são alucinações de IA?
As alucinações de IA ocorrem quando a resposta fornecida pelo modelo de linguagem (como o ChatGPT) parece razoável, mas é totalmente falsa. Essas respostas imprecisas não são resultado de o modelo de linguagem mentir intencionalmente, mas sim porque os dados de treinamento usados para o modelo não contêm as informações necessárias para responder corretamente. Por exemplo, quaisquer dados gerados após setembro de 2021 não foram incluídos na formação do ChatGPT, pelo que o ChatGPT não pode responder com exatidão se o utilizador perguntar sobre esses dados.
Embora, em alguns casos, o ChatGPT indique que não tem a resposta, há casos em que pode gerar uma resposta totalmente fabricada.
O problema da alucinação da IA explicado
Uma alucinação de IA ocorre quando um modelo de IA gera informação incorrecta mas apresenta-a como se fosse um facto. Estas alucinações são frequentemente o resultado de limitações ou enviesamentos nos dados e algoritmos de treino, levando à produção de conteúdos imprecisos e potencialmente prejudiciais.
Porque é que a IA tem alucinações
As alucinações da IA podem ocorrer por várias razões, incluindo:
- Dados de treino insuficientes, desactualizados ou de baixa qualidade: Um modelo de IA é tão bom quanto os dados em que é treinado. Se a ferramenta de IA não compreender o seu pedido ou não tiver informações suficientes, pode basear-se no conjunto de dados limitado em que foi treinada para gerar uma resposta, mesmo que seja incorrecta.
- Sobreajuste: Um modelo de IA treinado num conjunto de dados limitado pode memorizar os inputs e os outputs correspondentes. Como resultado, pode ter dificuldade em generalizar para novos dados, levando a alucinações de IA de forma eficaz.
Além disso, outros factores podem contribuir para as alucinações da IA, como a utilização de expressões idiomáticas ou de gíria para as quais o modelo de IA não foi treinado e ataques adversários em que os avisos são intencionalmente concebidos para confundir a IA.
Exemplos de alucinações da IA
Exemplos de alucinações da IA incluem este exemplo quando trabalhámos com o ChatGPT. Quando perguntámos ao ChatGPT a questão "O Hugging Face suporta o OpenAI Whisper?", o ChatGPT admitiu a sua limitação e deu-nos uma resposta correta, dizendo que não tinha os dados, mas a resposta não era realmente útil.
*Até ao momento em que tomei conhecimento, em setembro de 2021, a Hugging Face não anunciou o suporte para o OpenAI Whisper. No entanto, é sempre possível que eles possam adicionar suporte no futuro. O OpenAI Whisper é um novo modelo de linguagem da OpenAI e pode demorar algum tempo até que outras empresas e programadores o integrem nas suas plataformas e produtos.
Quando fazemos a mesma pergunta através de um chatbot que armazena o conteúdo mais recente (repositório do Github, documentos, readmes, etc.) numa [base de dados vetorial] (https://zilliz.com/learn/what-is-vetor-database), obtemos um resultado totalmente diferente e preciso;
*Sim, o Hugging Face suporta o OpenAI Whisper. A classe FlaxWhisperModel está disponível na biblioteca de transformadores, que é um invólucro em torno do modelo OpenAI Whisper. Pode utilizar esta classe para carregar o modelo OpenAI Whisper pré-treinado e utilizá-lo para várias tarefas de processamento de linguagem natural, como classificação de texto, resposta a perguntas e geração de texto.
Como pode reduzir as alucinações da IA
Pode fazer algumas coisas para ajudar a reduzir ou eliminar as Alucinações da IA. A primeira é dar ao LLM instruções específicas quando estiver a procurar a sua resposta. Por exemplo, pode pedir-lhe que responda apenas com "sim" ou "não", ou pode pedir-lhe que forneça referências para o ajudar a garantir a exatidão, ou pode também brincar com as definições de temperatura.
Além disso, pode fornecer-lhe os dados reais para formular a resposta. Isto é feito convertendo os seus dados em vetor embeddings e armazenando-os numa base de dados vetorial. Na maioria dos casos, existe um front end do chatbot com o qual o utilizador interage. Os utilizadores fazem as suas perguntas; a pergunta é então convertida numa incorporação vetorial. Em seguida, faz-se uma pesquisa Approximate Nearest Neighbor para encontrar itens semanticamente semelhantes e, depois, apresenta-se estes dados ao LLM para gerar uma resposta exacta.
O Zilliz ajuda com alucinações de IA?
O Zilliz Cloud (e o Milvus) ajuda nas alucinações da IA, armazenando e consultando uma base de conhecimento que foi convertida em embeddings vectoriais. OSSChat é uma aplicação de exemplo que demonstra como uma base de dados vetorial pode ser utilizada para reduzir estas alucinações. Aqui estão mais alguns recursos sobre como pode utilizar o Zilliz para reduzir as alucinações:
- O que são alucinações de IA?
- O problema da alucinação da IA explicado
- Porque é que a IA tem alucinações
- Exemplos de alucinações da IA
- Como pode reduzir as alucinações da IA
- O Zilliz ajuda com alucinações de IA?
Conteúdo
Comece grátis, escale facilmente
Experimente o banco de dados totalmente gerenciado, construído para seus aplicativos GenAI.
Experimente o Zilliz Cloud grátis