Mistral AI / mistral-embed
Aufgabe: Einbettung
Modalität: Text
Ähnlichkeitsmetrik: Beliebig (normalisiert)
Lizenz: Proprietär
Dimensionen: 1024
Maximale Eingabe-Tokens: 8000
Preis: $0.10 / 1M Token
Einführung in mistral-embed
- Ein spezielles Einbettungsmodell für Textdaten mit einem Kontextfenster von 8.000 Token.
- Optimiert für semantische Suche und RAG Anwendungen.
- MTEB-Retrievalwert: 55.26.
Wie man Einbettungen mit mistral-embed erstellt
Wir empfehlen die Verwendung der Mistral AI Library, dem Python SDK, das von Mistral AI angeboten wird, um Vektoreinbettungen zu erstellen.
Sobald die Vektoreinbettungen erstellt sind, können sie in der Zilliz Cloud (ein vollständig verwalteter Vektordatenbankdienst, der von Milvus betrieben wird) gespeichert und für die semantische Ähnlichkeitssuche verwendet werden. Dies sind die vier wichtigsten Schritte:
- Anmelden für ein kostenloses Zilliz Cloud-Konto.
- Richten Sie einen serverlosen Cluster ein und erhalten Sie den Public Endpoint and API Key.
- Erstellen Sie eine Vektorsammlung und fügen Sie Ihre Vektoreinbettungen ein.
- Lassen Sie eine semantische Suche auf den gespeicherten Einbettungen laufen.
Generieren Sie Vektoreinbettungen über das SDK von Mistral AI und fügen Sie sie in die Zilliz Cloud für die semantische Suche ein.
von pymilvus importieren MilvusClient
von mistralai importieren Mistral
MISTRALAI_API_KEY = "ihr-mistral-api-schlüssel"
client = Mistral(api_key=MISTRALAI_API_KEY)
docs = [
"Künstliche Intelligenz wurde 1956 als akademische Disziplin gegründet.",
"Alan Turing war die erste Person, die substantielle Forschungen im Bereich der KI durchführte.",
"Geboren in Maida Vale, London, wuchs Turing in Südengland auf."
]
# Einbettungen für Dokumente generieren
results = client.embeddings.create(inputs=docs, model="mistral-embed")
docs_embeddings = [data.embedding for data in results.data]
queries = ["Wann wurde die künstliche Intelligenz begründet",
"Wo wurde Alan Turing geboren?"]
# Einbettungen für Abfragen generieren
response = client.embeddings.create(inputs=abfragen, model="mistral-embed")
query_embeddings = [data.embedding for data in response.data]
# Verbindung zur Zilliz Cloud mit öffentlichem Endpunkt und API-Schlüssel
client = MilvusClient(
uri=ZILLIZ_PUBLIC_ENDPOINT,
token=ZILLIZ_API_KEY)
COLLECTION = "Dokumente"
if client.has_collection(collection_name=COLLECTION):
client.drop_collection(collection_name=COLLECTION)
client.create_collection(
collection_name=COLLECTION,
dimension=1024,
auto_id=True)
for doc, embedding in zip(docs, docs_embeddings):
client.insert(COLLECTION, {"text": doc, "vector": embedding})
results = client.search(
collection_name=COLLECTION,
data=query_embeddings,
consistency_level="Strong",
output_fields=["text"])
Weitere Informationen finden Sie in der Mistral AI Dokumentation.
Nahtlose KI-Workflows
Von Embeddings bis hin zu skalierbarer KI-Suche – Zilliz Cloud ermöglicht es Ihnen, Embeddings mit beispielloser Geschwindigkeit und Effizienz zu speichern, zu indizieren und abzurufen.
Zilliz Cloud kostenlos ausprobieren

