Mistral AI / mistral-embed
Compito: Incorporazione
Modalità: Testo
Metrica di Similarità: Qualsiasi (normalizzato)
Licenza: Proprietario
Dimensioni: 1024
Token di Input Massimi: 8000
Prezzo: $0,10 / 1M di gettoni
Introduzione a mistral-embed
- Un modello di incorporamento specializzato per dati testuali con una finestra di contesto di 8.000 token.
- Ottimizzato per applicazioni di ricerca semantica e RAG.
- Punteggio di recupero MTEB: 55,26.
Come creare le incorporazioni con mistral-embed
Si consiglia di utilizzare Mistral AI Library, l'SDK Python offerto da Mistral AI, per creare embeddings vettoriali.
Una volta generati, gli embeddings vettoriali possono essere archiviati in Zilliz Cloud (un servizio di database vettoriale completamente gestito da Milvus) e utilizzati per la ricerca di similarità semantica. Ecco i quattro passaggi chiave:
- Iscriviti per un account Zilliz Cloud gratuito.
- Configurare un cluster serverless e ottenere il Public Endpoint and API Key.
- Creare una collezione di vettori e inserire i propri embeddings vettoriali.
- Eseguire una ricerca semantica sugli embeddings memorizzati.
Generare embeddings vettoriali tramite l'SDK di Mistral AI e inserirli in Zilliz Cloud per la ricerca semantica.
da pymilvus import MilvusClient
da mistralai importare Mistral
MISTRALAI_API_KEY = "your-mistral-api-key"
client = Mistral(api_key=MISTRALAI_API_KEY)
docs = [
"L'intelligenza artificiale è stata fondata come disciplina accademica nel 1956",
"Alan Turing è stato il primo a condurre ricerche sostanziali sull'intelligenza artificiale",
"Nato a Maida Vale, Londra, Turing è cresciuto nel sud dell'Inghilterra".
]
# Generare embeddings per i documenti
results = client.embeddings.create(inputs=docs, model="mistral-embed")
docs_embeddings = [data.embedding for data in results.data]
queries = ["Quando è stata fondata l'intelligenza artificiale",
"Dove è nato Alan Turing?"]
# Generare embeddings per le query
response = client.embeddings.create(inputs=queries, model="mistral-embed")
query_embeddings = [data.embedding for data in response.data]
# Connettersi a Zilliz Cloud con l'endpoint pubblico e la chiave API
client = MilvusClient(
uri=ZILLIZ_PUBLIC_ENDPOINT,
token=ZILLIZ_API_KEY)
COLLEZIONE = "documenti"
if client.has_collection(collection_name=COLLECTION):
client.drop_collection(nome_raccolta=COLLEZIONE)
client.create_collection(
nome_collezione=COLLEZIONE,
dimensione=1024,
auto_id=True)
per doc, embedding in zip(docs, docs_embeddings):
client.insert(COLLECTION, {"text": doc, "vector": embedding})
risultati = client.search(
nome_collezione=COLLEZIONE,
dati=query_embeddings,
consistency_level="Strong",
output_fields=["text"])
Per ulteriori informazioni, consultare Mistral AI documentation.
Flussi di lavoro AI senza interruzioni
Dalle embedding alla ricerca AI scalabile—Zilliz Cloud ti consente di memorizzare, indicizzare e recuperare embedding con velocità e efficienza senza pari.
Prova Zilliz Cloud gratuitamente

