Arize AI
Arize AI est le créateur d'Arize, une plateforme d'observabilité de l'apprentissage automatique qui aide les praticiens de l'apprentissage automatique à faire passer facilement les modèles de la recherche à la production. Ils ont également créé et maintiennent le projet open source Arize Phoenix, qui aide les utilisateurs à évaluer, dépanner et affiner les modèles LLM, CV et NLP dans un bloc-notes.
Arize AI and Zilliz
Ensemble, Arize AI et Zilliz aident les utilisateurs à mieux comprendre et à affiner leurs modèles LLM, CV et NLP afin d'accroître la confiance dans leurs embeddings et les systèmes de recherche par similarité et de génération augmentée de recherche (RAG) qu'ils construisent avec des bases de données vectorielles telles que Zilliz Cloud et Milvus.
RAG Evals : Analyse statistique des stratégies de recherche
Dans cette vidéo, Jason Lopatecki, PDG et cofondateur, et Sally-Ann DeLucia, ingénieure en solutions ML chez Arize AI, se penchent sur les 5 piliers de l'observabilité du LLM : évaluation, traces et portées, ingénierie d'invite, recherche et récupération, et réglage fin. Ces piliers explorent les évaluations de sortie des LLM, l'amélioration de la recherche contextuelle et les idées sur le benchmarking et l'analyse des systèmes de recherche pour les LLM et les RAG.
Construction et dépannage d'un moteur de recherche LLM avancé
Dans cette session à la demande, allez étape par étape dans la création d'un moteur de requête robuste en utilisant la puissance combinée d'Arize Phoenix, LlamaIndex, LangChain, GPT 3.5 Turbo, NLTK et Milvus. Vous aurez un aperçu de l'orchestration LLM, une introduction aux bases de données vectorielles et une explication du fonctionnement et de la nécessité de la recherche et de l'extraction.
Embeddings : Découvrez la clé pour construire des applications d'IA évolutives avec Zilliz
Cette conférence porte sur l'utilisation des embeddings pour des applications d'IA générative évolutives. Il discute de la façon dont le cadre CVP peut être utilisé pour résoudre un grand nombre de problèmes existants autour de l'hallucination et du manque de connaissance du domaine que nous voyons dans les modèles d'IA générative. Ils assistent à une démonstration du chat OSS, une manifestation du cadre CVP.
Extension de la fenêtre contextuelle des modèles LLaMA Lecture de l'article
Écoutez les experts AI & ML discuter d'un article de recherche sur l'interpolation de position (PI), une méthode permettant d'étendre la taille des fenêtres contextuelles des modèles LLaMA jusqu'à 32 768 positions avec un réglage fin minimal. Vous apprendrez comment fonctionnent les scores d'attention afin de comprendre à quoi servent réellement les embeddings positionnels.
