Arize AI
Arize AI - создатели Arize, платформы для наблюдения за машинным обучением, которая помогает практикам ML с легкостью переносить модели из исследовательской области в производственную. Они также создали и поддерживают проект с открытым исходным кодом Arize Phoenix, который помогает пользователям оценивать, устранять неполадки и точно настраивать модели LLM, CV и NLP в блокноте.
Arize AI and Zilliz
Вместе Arize AI и Zilliz помогают пользователям лучше понять и настроить свои модели LLM, CV и NLP, чтобы повысить уверенность в своих вкраплениях и системах поиска по сходству, которые они создают с помощью векторных баз данных, таких как Zilliz Cloud и Milvus.
RAG Evals: Статистический анализ стратегий поиска
В этом видео Джейсон Лопатецкий, генеральный директор и соучредитель, и Салли-Энн ДеЛюсия, инженер по ML-решениям в Arize AI, рассказывают о 5 столпах наблюдаемости LLM: оценка, трассы и диапазоны, разработка подсказок, поиск и извлечение, а также тонкая настройка. В этих разделах рассматривается оценка результатов LLM, улучшение контекстного поиска, а также анализ систем поиска и бенчмаркинга для LLM и RAG.
Создание и устранение неисправностей усовершенствованного механизма запросов LLM.
На этом занятии по запросу вы шаг за шагом создадите надежный механизм запросов, используя объединенную мощь Arize Phoenix, LlamaIndex, LangChain, GPT 3.5 Turbo, NLTK и Milvus. Вы получите обзор оркестровки LLM, введение в векторные базы данных и объяснение того, как работает поиск и извлечение информации и зачем он нужен.
Embeddings: Откройте для себя ключ к созданию масштабируемых приложений ИИ с Zilliz
Этот доклад на конференции посвящен использованию вкраплений для масштабируемых приложений генеративного ИИ. В докладе обсуждалось, как фреймворк CVP может быть использован для решения многих существующих проблем, связанных с галлюцинациями и отсутствием знаний о домене, которые мы наблюдаем в моделях генеративного ИИ. Демонстрируется чат OSS, являющийся проявлением фреймворка CVP.
Расширение контекстного окна моделей LLaMA.
Послушайте, как эксперты AI & ML обсуждают исследовательскую работу о позиционной интерполяции (PI), методе, расширяющем размеры контекстного окна моделей LLaMA до 32 768 позиций с минимальной тонкой настройкой. Вы узнаете, как работают показатели внимания, чтобы понять, для чего на самом деле нужны позиционные вкрапления.
