Reise AI / voyage-large-2
Milvus Integrated
Aufgabe: Einbettung
Modalität: Text
Ähnlichkeitsmetrik: Beliebig (normalisiert)
Lizenz: Proprietär
Dimensionen: 1536
Maximale Eingabe-Tokens: 16000
Preis: 0,12 $/1M Token
Einführung in das Modell voyage-large-2
voyage-large-2" ist das universelle Texteinbettungsmodell von Voyage AI, das für die Qualität des Retrievals optimiert wurde (z.B. besser als OpenAI V3 Large). Es ist auch ideal für Aufgaben wie Zusammenfassung, Clustering und Klassifizierung.
Vergleich von voyage-large-2 mit anderen gängigen Einbettungsmodellen von Voyage AI:
| Modell | Kontextlänge (Token) | Einbettungsdimension | Beschreibung |
| voyage-large-2-instruct | 16000 | 1024 | Spitze der MTEB-Rangliste. Befehlsabgestimmtes Allzweck-Einbettungsmodell, das für Clustering, Klassifizierung und Retrieval optimiert ist. |
| voyage-multilingual-2 | 32000 | 1024 | Optimiert für mehrsprachiges Retrieval und RAG. |
| voyage-code-2 | 16000 | 1536 | Optimiert für die Suche nach Codes (17% besser als Alternativen). |
| voyage-large-2 | 16000 | 1536 | Universelles Einbettungsmodell, das für die Suchqualität optimiert ist (z. B. besser als OpenAI V3 Large). |
| voyage-2 | 4000 | 1024 | Allzweck-Einbettungsmodell, das für ein Gleichgewicht zwischen Kosten, Latenz und Abrufqualität optimiert ist. |
Wie man Vektoreinbettungen mit voyage-large-2 erzeugt
- PyMilvus: das Python SDK für Milvus, das das Modell "voyage-large-2" nahtlos integriert.
- Voyage AI Python-Paket: das Python-SDK, das von Voyage AI angeboten wird.
Sobald die Vektoreinbettungen generiert sind, können sie in der Zilliz Cloud (ein vollständig verwalteter, von Milvus betriebener Vektor-Datenbankdienst) gespeichert und für die semantische Ähnlichkeitssuche verwendet werden. Dies sind die vier wichtigsten Schritte:
- Anmelden für ein kostenloses Zilliz Cloud-Konto.
- Richten Sie einen serverlosen Cluster ein und erhalten Sie den Public Endpoint and API Key.
- Erstellen Sie eine Vektorsammlung und fügen Sie Ihre Vektoreinbettungen ein.
- Lassen Sie eine semantische Suche auf den gespeicherten Einbettungen laufen.
Vektoreinbettungen über PyMilvus generieren und in die Zilliz Cloud für die semantische Suche einfügen.
von pymilvus importieren Modell, MilvusClient
ef = model.dense.VoyageEmbeddingFunction(
model_name="voyage-large-2",
api_key="ihr-voyage-api-key",
)
# Einbettungen für Dokumente generieren
docs = [
"Künstliche Intelligenz wurde 1956 als akademische Disziplin gegründet.",
"Alan Turing war die erste Person, die substantielle Forschung im Bereich der KI betrieb.",
"Turing wurde in Maida Vale, London, geboren und wuchs in Südengland auf."
]
docs_embeddings = ef.encode_documents(docs)
# Einbettungen für Abfragen generieren
queries = ["Wann wurde die künstliche Intelligenz erfunden",
"Wo wurde Alan Turing geboren?"]
query_embeddings = ef.encode_queries(queries)
# Verbindung zur Zilliz-Cloud mit öffentlichem Endpunkt und API-Schlüssel
client = MilvusClient(
uri=ZILLIZ_PUBLIC_ENDPOINT,
token=ZILLIZ_API_KEY)
COLLECTION = "Dokumente"
if client.has_collection(collection_name=COLLECTION):
client.drop_collection(collection_name=COLLECTION)
client.create_collection(
collection_name=COLLECTION,
dimension=ef.dim,
auto_id=True)
for doc, embedding in zip(docs, docs_embeddings):
client.insert(COLLECTION, {"text": doc, "vector": embedding})
results = client.search(
collection_name=COLLECTION,
data=query_embeddings,
consistency_level="Strong",
output_fields=["text"])
Weitere Informationen finden Sie in unserer PyMilvus Embedding Model Dokumentation.
Generieren Sie Vektoreinbettungen mit dem Voyage AI Python-Paket und fügen Sie sie in die Zilliz Cloud für die semantische Suche ein.
voyageai importieren
von pymilvus importieren MilvusClient
vo = voyageai.Client(api_key="ihr-voyage-api-key")
# Einbettungen für Dokumente generieren
docs = [
"Künstliche Intelligenz wurde 1956 als akademische Disziplin gegründet.",
"Alan Turing war die erste Person, die substantielle Forschung im Bereich der KI betrieb.",
"Turing wurde in Maida Vale, London, geboren und wuchs in Südengland auf."
]
doc_embeddings = vo.embed(docs, model="voyage-large-2", input_type="document").embeddings
# Einbettungen für Abfragen generieren
queries = ["Wann wurde die künstliche Intelligenz begründet",
"Wo wurde Alan Turing geboren?"]
query_embeddings = vo.embed(docs, model="voyage-large-2", input_type="query").embeddings
# Verbindung zur Zilliz-Cloud mit öffentlichem Endpunkt und API-Schlüssel
client = MilvusClient(
uri=ZILLIZ_PUBLIC_ENDPOINT,
token=ZILLIZ_API_KEY)
COLLECTION = "Dokumente"
if client.has_collection(collection_name=COLLECTION):
client.drop_collection(collection_name=COLLECTION)
client.create_collection(
collection_name=COLLECTION,
dimension=1536,
auto_id=True)
for doc, embedding in zip(docs, docs_embeddings):
client.insert(COLLECTION, {"text": doc, "vector": embedding})
results = client.search(
collection_name=COLLECTION,
data=query_embeddings,
consistency_level="Strong",
output_fields=["text"])
Weitere Informationen finden Sie im Voyage AI Embedding Guide.
Nahtlose KI-Workflows
Von Embeddings bis hin zu skalierbarer KI-Suche – Zilliz Cloud ermöglicht es Ihnen, Embeddings mit beispielloser Geschwindigkeit und Effizienz zu speichern, zu indizieren und abzurufen.
Zilliz Cloud kostenlos ausprobieren

