Arize AI
Arize AI ist der Erfinder von Arize, einer Beobachtungsplattform für maschinelles Lernen, die ML-Praktikern dabei hilft, Modelle erfolgreich von der Forschung in die Produktion zu überführen. Sie haben auch das Open-Source-Projekt Arize Phoenix entwickelt und pflegen es. Es hilft Nutzern, LLM-, CV- und NLP-Modelle in einem Notebook zu evaluieren, Fehler zu beheben und fein abzustimmen.
Arize AI and Zilliz
Gemeinsam helfen Arize AI und Zilliz den Nutzern, ihre LLM-, CV- und NLP-Modelle besser zu verstehen und fein abzustimmen, um das Vertrauen in ihre Einbettungen und die Retrieval Augmented Generation (RAG) und Ähnlichkeitssuchsysteme zu erhöhen, die sie mit Vektordatenbanken wie Zilliz Cloud und Milvus aufbauen.
RAG-Bewertungen: Statistische Analyse von Retrieval-Strategien
In diesem Video gehen Jason Lopatecki, CEO und Mitbegründer, und Sally-Ann DeLucia, ML Solutions Engineer bei Arize AI, auf die fünf Säulen der LLM-Beobachtbarkeit ein: Evaluation, Traces & Spans, Prompt Engineering, Search & Retrieval und Fine-Tuning. Diese Säulen befassen sich mit der Bewertung von LLM-Ausgaben, der Verbesserung des Kontextabrufs und den Einblicken in das Benchmarking und die Analyse von Abrufsystemen für LLMs und RAGs.
Aufbau und Fehlerbehebung einer fortgeschrittenen LLM-Abfrage-Engine
In dieser On-Demand-Sitzung werden Sie Schritt für Schritt eine robuste Abfrage-Engine erstellen, die die kombinierte Leistung von Arize Phoenix, LlamaIndex, LangChain, GPT 3.5 Turbo, NLTK und Milvus nutzt. Sie erhalten einen Überblick über die LLM-Orchestrierung, eine Einführung in Vektordatenbanken und eine Erklärung, wie Suche und Abfrage funktionieren und warum sie benötigt werden.
Embeddings: Entdecken Sie den Schlüssel zur Entwicklung skalierbarer KI-Anwendungen mit Zilliz
Dieser Konferenzvortrag konzentrierte sich auf die Verwendung von Einbettungen für skalierbare generative KI-Anwendungen. Es wird erörtert, wie das CVP-Framework verwendet werden kann, um viele der bestehenden Probleme im Zusammenhang mit Halluzinationen und dem Mangel an Domänenwissen zu beheben, die wir bei generativen KI-Modellen sehen. Sie sehen eine Demo von OSS Chat, einer Manifestation des CVP-Frameworks.
Erweiterung des Kontextfensters von LLaMA-Modellen Paper Reading
Hören Sie sich an, wie KI- und ML-Experten ein Forschungspapier über Positionsinterpolation (PI) diskutieren, eine Methode zur Erweiterung der Kontextfenstergrößen von LLaMA-Modellen auf bis zu 32.768 Positionen bei minimaler Feinabstimmung. Sie erfahren, wie Aufmerksamkeitsbewertungen funktionieren, um zu verstehen, wozu Positionseinbettungen wirklich da sind.
