Mistral AI / mistral-embed
Tarea: Inserción
Modalidad: Texto
Métrica de Similitud: Cualquiera (Normalizado)
Licencia: Propietario
Dimensiones: 1024
Tokens de Entrada Máximos: 8000
Precio: 0,10 $ / 1 millón de fichas
Introducción a mistral-embed
- Un modelo de incrustación especializado para datos de texto con una ventana de contexto de 8.000 tokens.
- Optimizado para aplicaciones de búsqueda semántica y RAG.
- Puntuación de recuperación MTEB: 55,26.
Cómo crear incrustaciones con mistral-embed
Recomendamos utilizar Mistral AI Library, el SDK de Python ofrecido por Mistral AI, para crear incrustaciones vectoriales.
Una vez generadas las incrustaciones vectoriales, pueden almacenarse en Zilliz Cloud (un servicio de base de datos vectorial totalmente gestionado e impulsado por Milvus) y utilizarse para semantic similarity search. He aquí cuatro pasos clave:
- Inscríbete para obtener una cuenta de Zilliz Cloud de forma gratuita.
- Configura un clúster sin servidor y obtén el Public Endpoint and API Key.
- Crea una colección de vectores e inserta tus incrustaciones vectoriales.
- Ejecuta una búsqueda semántica en las incrustaciones almacenadas.
Generar incrustaciones vectoriales a través del SDK de Mistral AI e insertarlas en Zilliz Cloud para la búsqueda semántica.
from pymilvus import MilvusClient
from mistralai import Mistral
MISTRALAI_API_KEY = "tu-mistral-api-key"
client = Mistral(api_key=MISTRALAI_API_KEY)
docs = [
"La inteligencia artificial se fundó como disciplina académica en 1956",
"Alan Turing fue la primera persona en realizar una investigación sustancial en IA",
"Nacido en Maida Vale, Londres, Turing se crió en el sur de Inglaterra."
]
# Generar incrustaciones para documentos
results = client.embeddings.create(inputs=documentos, model="mistral-embed")
docs_embeddings = [data.embedding for data in results.data]
queries = ["¿Cuándo se fundó la inteligencia artificial?
"¿Dónde nació Alan Turing?"]
# Generar incrustaciones para las consultas
response = client.embeddings.create(inputs=consultas, model="mistral-embed")
query_embeddings = [data.embedding for data in response.data]
# Conectarse a Zilliz Cloud con el punto final público y la clave API
client = MilvusClient(
uri=ZILLIZ_PUBLIC_ENDPOINT,
token=ZILLIZ_API_KEY)
COLECCIÓN = "documentos"
if client.has_collection(nombre_coleccion=COLECCION):
client.drop_collection(nombre_coleccion=COLECCION)
client.create_collection(
nombre_colección=COLECCIÓN,
dimensión=1024,
auto_id=True)
for doc, embedding in zip(docs, docs_embeddings):
client.insert(COLLECTION, {"texto": doc, "vector": incrustación})
resultados = client.search(
nombre_colección=COLECCIÓN,
datos=consulta_incrustaciones,
consistency_level="Strong",
output_fields=["text"])
Para más información, consulte Mistral AI documentation.
Flujos de trabajo de IA sin interrupciones
Desde incrustaciones hasta búsqueda de IA escalable—Zilliz Cloud te permite almacenar, indexar y recuperar incrustaciones con una velocidad y eficiencia inigualables.
Prueba Zilliz Cloud Gratis

