Mistral AI / mistral-embed
Tâche: Intégration
Modalité: Texte
Métrique de similarité: Tous (normalisés)
Licence: Propriétaire
Dimensions: 1024
Tokens d'entrée max: 8000
Prix: 0,10 $ / 1 million de jetons
Introduction à mistral-embed
- Un modèle d'intégration spécialisé pour les données textuelles avec une fenêtre contextuelle de 8 000 tokens.
- Optimisé pour les applications de [recherche sémantique] (https://zilliz.com/glossary/semantic-search) et de [RAG] (https://zilliz.com/learn/Retrieval-Augmented-Generation).
- Score de récupération MTEB : 55,26.
Comment créer des embeddings avec mistral-embed
Nous recommandons d'utiliser Mistral AI Library, le SDK Python proposé par Mistral AI, pour créer des embeddings vectoriels.
Une fois les embeddings vectoriels générés, ils peuvent être stockés dans Zilliz Cloud (un service de base de données vectorielles entièrement géré par Milvus) et utilisés pour la recherche de similarité sémantique. Voici les quatre étapes clés :
- Sign up pour un compte Zilliz Cloud gratuit.
- Configurez un cluster sans serveur et obtenez le Point de terminaison public et la clé API.
- Créer une collection de vecteurs et insérer vos embeddings vectoriels.
- Lancez une recherche sémantique sur les embeddings stockés.
Générer des embeddings vectoriels via le SDK de Mistral AI et les insérer dans Zilliz Cloud pour la recherche sémantique.
from pymilvus import MilvusClient
from mistralai import Mistral
MISTRALAI_API_KEY = "votre-mistral-api-clé"
client = Mistral(api_key=MISTRALAI_API_KEY)
docs = [
"L'intelligence artificielle a été fondée en tant que discipline universitaire en 1956",
"Alan Turing a été la première personne à mener des recherches substantielles sur l'IA,
"Né à Maida Vale, Londres, Turing a grandi dans le sud de l'Angleterre."
]
# Générer des embeddings pour les documents
results = client.embeddings.create(inputs=docs, model="mistral-embed")
docs_embeddings = [data.embedding for data in results.data]
queries = ["Quand l'intelligence artificielle a-t-elle été fondée ?
"Où est né Alan Turing ?"]
# Générer des embeddings pour les requêtes
response = client.embeddings.create(inputs=queries, model="mistral-embed")
query_embeddings = [data.embedding for data in response.data]
# Se connecter à Zilliz Cloud avec le point de terminaison public et la clé API
client = MilvusClient(
uri=ZILLIZ_PUBLIC_ENDPOINT,
token=ZILLIZ_API_KEY)
COLLECTION = "documents"
if client.has_collection(collection_name=COLLECTION) :
client.drop_collection(nom_de_la_collection=COLLECTION)
client.create_collection(
nom_de_la_collection=COLLECTION,
dimension=1024,
auto_id=True)
pour doc, embedding dans zip(docs, docs_embeddings) :
client.insert(COLLECTION, {"text" : doc, "vector" : embedding})
results = client.search(
nom_de_la_collection=COLLECTION,
data=query_embeddings,
niveau de cohérence = "Fort",
output_fields=["text"])
Pour plus d'informations, consultez [Mistral AI documentation] (https://docs.mistral.ai/capabilities/embeddings/).
Workflows IA fluides
Des embeddings à la recherche IA évolutive - Zilliz Cloud vous permet de stocker, indexer et récupérer des embeddings avec une vitesse et une efficacité inégalées.
Essayer Zilliz Cloud gratuitement

