AI-Halluzination

AI-Halluzination
Was sind AI-Halluzinationen?
KI-Halluzinationen treten auf, wenn die von einem Sprachmodell (wie ChatGPT) gelieferte Antwort vernünftig erscheint, aber völlig falsch ist. Diese ungenauen Antworten sind nicht darauf zurückzuführen, dass das Sprachmodell absichtlich lügt, sondern darauf, dass die für das Modell verwendeten Trainingsdaten nicht die notwendigen Informationen für eine korrekte Antwort enthalten. Zum Beispiel wurden alle Daten, die nach September 2021 erzeugt wurden, nicht in das Training von ChatGPT einbezogen, so dass ChatGPT nicht genau antworten kann, wenn Sie sich nach solchen Daten erkundigen.
In einigen Fällen gibt ChatGPT an, dass es die Antwort nicht kennt, es gibt aber auch Fälle, in denen es eine völlig erfundene Antwort gibt.
Das KI-Halluzinationsproblem erklärt
Eine KI-Halluzination tritt auf, wenn ein KI-Modell falsche Informationen generiert, diese aber so darstellt, als wären sie eine Tatsache. Diese Halluzinationen sind oft das Ergebnis von Beschränkungen oder Verzerrungen in den Trainingsdaten und Algorithmen, was zur Produktion von ungenauen und potenziell schädlichen Inhalten führt.
Warum KI halluziniert
KI-Halluzinationen können aus verschiedenen Gründen auftreten, darunter:
- Unzureichende, veraltete oder minderwertige Trainingsdaten: Ein KI-Modell ist nur so gut wie die Daten, auf denen es trainiert wurde. Wenn das KI-Tool Ihre Eingabeaufforderung nicht versteht oder nicht über ausreichende Informationen verfügt, kann es sich auf den begrenzten Datensatz verlassen, auf dem es trainiert wurde, um eine Antwort zu generieren, selbst wenn diese ungenau ist.
- Überanpassung: Ein KI-Modell, das auf einem begrenzten Datensatz trainiert wurde, kann sich die Eingaben und die entsprechenden Ausgaben einprägen. Infolgedessen kann es Schwierigkeiten haben, auf neue Daten zu verallgemeinern, was zu KI-Halluzinationen führt.
Darüber hinaus können auch andere Faktoren zu KI-Halluzinationen beitragen, z. B. die Verwendung von Redewendungen oder Slangausdrücken, auf die das KI-Modell nicht trainiert wurde, oder gegnerische Angriffe, bei denen Aufforderungen absichtlich so gestaltet sind, dass sie die KI verwirren.
Beispiele für KI-Halluzinationen
Zu den Beispielen für KI-Halluzinationen gehört dieses Beispiel bei der Arbeit mit ChatGPT. Als wir ChatGPT die Frage "Unterstützt Hugging Face OpenAI Whisper?" stellten, räumte es seine Beschränkung ein und gab uns eine korrekte Antwort, dass es nicht über die entsprechenden Daten verfüge, aber die Antwort war nicht wirklich nützlich.
Zum Zeitpunkt meines Wissensstandes im September 2021 hat Hugging Face keine Unterstützung für OpenAI Whisper angekündigt. Es ist jedoch jederzeit möglich, dass sie die Unterstützung in der Zukunft hinzufügen. OpenAI Whisper ist ein neues Sprachmodell von OpenAI, und es kann einige Zeit dauern, bis andere Unternehmen und Entwickler es in ihre Plattformen und Produkte integrieren.
Wenn wir dieselbe Frage über einen Chatbot stellen, der die neuesten Inhalte (Github Repo, Docs, Readmes usw.) in einer [Vektor-Datenbank] (https://zilliz.com/learn/what-is-vector-database) speichert, erhalten wir ein völlig anderes und genaues Ergebnis;
*Ja, Hugging Face unterstützt OpenAI Whisper. Die Klasse FlaxWhisperModel ist in der Transformers-Bibliothek verfügbar, die ein Wrapper um das OpenAI Whisper-Modell ist. Sie können diese Klasse verwenden, um das vortrainierte OpenAI Whisper-Modell zu laden und es für verschiedene Aufgaben der Verarbeitung natürlicher Sprache wie Textklassifizierung, Beantwortung von Fragen und Textgenerierung zu verwenden.
Wie können Sie AI-Halluzinationen reduzieren?
Sie können ein paar Dinge tun, um KI-Halluzinationen zu reduzieren oder zu beseitigen. Die erste Möglichkeit besteht darin, dem LLM spezifische Anweisungen zu geben, wenn er nach Ihrer Antwort sucht. Sie können ihn zum Beispiel bitten, nur mit "ja" oder "nein" zu antworten, oder Sie können ihn bitten, Referenzen zu liefern, um die Genauigkeit zu gewährleisten, oder Sie können auch mit den Temperatureinstellungen herumspielen.
Darüber hinaus können Sie ihm die tatsächlichen Daten zur Verfügung stellen, um die Antwort zu formulieren. Dazu werden Ihre Daten in vector embeddings umgewandelt und in einer Vektordatenbank gespeichert. In den meisten Fällen gibt es ein Chatbot-Frontend, mit dem der Benutzer interagiert. Die Nutzer stellen ihre Fragen; die Frage wird dann in eine Vektoreinbettung umgewandelt. Sie führen dann eine Approximate Nearest Neighbor-Suche durch, um semantisch ähnliche Elemente zu finden, und präsentieren diese Daten dann dem LLM, um eine genaue Antwort zu erzeugen.
Hilft Zilliz bei KI-Halluzinationen?
Zilliz Cloud (und Milvus) hilft bei KI-Halluzinationen durch die Speicherung und Abfrage einer Wissensbasis, die in Vektoreinbettungen umgewandelt wurde. OSSChat ist eine Beispielanwendung, die zeigt, wie eine Vektordatenbank verwendet werden kann, um diese Halluzinationen zu reduzieren. Hier finden Sie weitere Ressourcen, wie Sie Zilliz zur Reduzierung von Halluzinationen einsetzen können:
- Was sind AI-Halluzinationen?
- Das KI-Halluzinationsproblem erklärt
- Warum KI halluziniert
- Beispiele für KI-Halluzinationen
- Wie können Sie AI-Halluzinationen reduzieren?
- Hilft Zilliz bei KI-Halluzinationen?
Inhalte
Kostenlos starten, einfach skalieren
Testen Sie die vollständig verwaltete Vektordatenbank, die für Ihre GenAI-Anwendungen entwickelt wurde.
Zilliz Cloud kostenlos ausprobieren