Arize AI
Arize AI son los creadores de Arize, una plataforma de observabilidad de aprendizaje automático que ayuda a los profesionales de ML a llevar con éxito los modelos de la investigación a la producción con facilidad. También crearon y mantienen el proyecto de código abierto Arize Phoenix, que ayuda a los usuarios a evaluar, solucionar problemas y ajustar modelos LLM, CV y NLP en un cuaderno.
Arize AI and Zilliz
Juntos, Arize AI y Zilliz ayudan a los usuarios a comprender mejor y afinar sus modelos LLM, CV y NLP para aumentar la confianza en sus incrustaciones y en los sistemas de generación aumentada de recuperación (RAG) y búsqueda por similitud que construyen con bases de datos vectoriales como Zilliz Cloud y Milvus.
RAG Evals: Análisis estadístico de estrategias de recuperación
En este vídeo, Jason Lopatecki, CEO y cofundador, y Sally-Ann DeLucia, ingeniera de soluciones ML en Arize AI, profundizan en los 5 pilares de la observabilidad de LLM: evaluación, trazas y tramos, ingeniería de avisos, búsqueda y recuperación, y ajuste fino. Estos pilares exploran las evaluaciones de los resultados de los LLM, la mejora de la recuperación contextual y los conocimientos sobre la evaluación comparativa y el análisis de los sistemas de recuperación para los LLM y los GAR.
Creación y resolución de problemas de un motor de consulta LLM avanzado
En esta sesión bajo demanda, irá paso a paso en la creación de un robusto motor de consulta utilizando la potencia combinada de Arize Phoenix, LlamaIndex, LangChain, GPT 3.5 Turbo, NLTK, y Milvus. Obtendrá una visión general de la orquestación LLM, una introducción a las bases de datos vectoriales y una explicación de cómo funciona la búsqueda y recuperación y por qué es necesaria.
Embeddings: Descubre la clave para crear aplicaciones de IA escalables con Zilliz
Esta charla de la conferencia se centró en el uso de incrustaciones para aplicaciones de IA generativa escalables. Se discute cómo el marco CVP se puede utilizar para solucionar muchos de los problemas existentes en torno a la alucinación y la falta de conocimiento del dominio que vemos en los modelos de IA generativa. Ven una demo de OSS chat, una manifestación del marco CVP.
Ampliación de la ventana de contexto de los modelos LLaMA Lectura de ponencias
Escuche a los expertos en IA y ML hablar de un artículo de investigación sobre la interpolación de posiciones (PI), un método que amplía el tamaño de la ventana de contexto de los modelos LLaMA hasta 32.768 posiciones con un ajuste mínimo. Aprenderá cómo funcionan las puntuaciones de atención para entender para qué sirven realmente las incrustaciones posicionales.
