Reise AI / voyage-2
Milvus Integrated
Aufgabe: Einbettung
Modalität: Text
Ähnlichkeitsmetrik: Beliebig (normalisiert)
Lizenz: Proprietär
Dimensionen: 1024
Maximale Eingabe-Tokens: 4000
Preis: 0,1 $/1M Token
Einführung in voyage-2
voyage-2" ist Voyage AI's universelles Modell zur Texteinbettung, das für ein ausgewogenes Verhältnis von Kosten, Latenz und Abrufqualität optimiert ist.
Vergleich von voyage-2 mit anderen beliebten Einbettungsmodellen von Voyage AI:
| Modell | Kontextlänge (Token) | Einbettungsdimension | Beschreibung |
| voyage-large-2-instruct | 16000 | 1024 | Spitze der MTEB-Rangliste. Befehlsabgestimmtes Allzweck-Einbettungsmodell, das für Clustering, Klassifizierung und Retrieval optimiert ist. |
| voyage-multilingual-2 | 32000 | 1024 | Optimiert für mehrsprachiges Retrieval und RAG. |
| voyage-code-2 | 16000 | 1536 | Optimiert für die Suche nach Codes (17% besser als Alternativen). |
| voyage-large-2 | 16000 | 1536 | Allzweck-Einbettungsmodell, das für die Abrufqualität optimiert ist (z. B. besser als OpenAI V3 Large). |
| voyage-2 | 4000 | 1024 | Allzweck-Einbettungsmodell, das für ein Gleichgewicht zwischen Kosten, Latenz und Abrufqualität optimiert ist. |
So erstellen Sie Texteinbettungen mit voyage-2
Es gibt zwei primäre Möglichkeiten, Vektoreinbettungen zu erstellen:
- PyMilvus: das Python SDK für Milvus, das das "voyage-2" Modell nahtlos integriert.
- Voyage AI Embedding: das Python SDK, das von Voyage AI angeboten wird.
Sobald die Vektoreinbettungen generiert sind, können sie in der Zilliz Cloud (ein vollständig verwalteter, von Milvus betriebener Vektor-Datenbankdienst) gespeichert und für die semantische Ähnlichkeitssuche verwendet werden. Dies sind die vier wichtigsten Schritte:
- Registrieren Sie sich für ein kostenloses Zilliz Cloud-Konto.
- Richten Sie einen serverlosen Cluster ein und erhalten Sie den Public Endpoint and API Key.
- Erstellen Sie eine Vektorsammlung und fügen Sie Ihre Vektoreinbettungen ein.
- Lassen Sie eine semantische Suche auf den gespeicherten Einbettungen laufen.
Vektoreinbettungen über PyMilvus generieren und in die Zilliz Cloud für die semantische Suche einfügen.
von pymilvus importieren Modell, MilvusClient
ef = model.dense.VoyageEmbeddingFunction(
model_name="voyage-2",
api_key="ihr-reise-api-key",
)
# Einbettungen für Dokumente generieren
docs = [
"Künstliche Intelligenz wurde 1956 als akademische Disziplin gegründet.",
"Alan Turing war die erste Person, die substantielle Forschung im Bereich der KI betrieb.",
"Turing wurde in Maida Vale, London, geboren und wuchs in Südengland auf."
]
docs_embeddings = ef.encode_documents(docs)
# Einbettungen für Abfragen generieren
queries = ["Wann wurde die künstliche Intelligenz erfunden",
"Wo wurde Alan Turing geboren?"]
query_embeddings = ef.encode_queries(queries)
# Verbindung zur Zilliz-Cloud mit öffentlichem Endpunkt und API-Schlüssel
client = MilvusClient(
uri=ZILLIZ_PUBLIC_ENDPOINT,
token=ZILLIZ_API_KEY)
COLLECTION = "Dokumente"
if client.has_collection(collection_name=COLLECTION):
client.drop_collection(collection_name=COLLECTION)
client.create_collection(
collection_name=COLLECTION,
dimension=ef.dim,
auto_id=True)
for doc, embedding in zip(docs, docs_embeddings):
client.insert(COLLECTION, {"text": doc, "vector": embedding})
results = client.search(
collection_name=COLLECTION,
data=query_embeddings,
consistency_level="Strong",
output_fields=["text"])
Weitere Informationen finden Sie in unserer PyMilvus Embedding Model Dokumentation.
Generieren Sie Vektoreinbettungen über das Python SDK von Voyage AI und fügen Sie sie in die Zilliz Cloud für die semantische Suche ein.
voyageai importieren
von pymilvus importieren MilvusClient
VOYAGE_API_KEY = "ihr-voyage-api-schlüssel"
vo = voyageai.Client(api_key=VOYAGE_API_KEY)
# Einbettungen für Dokumente generieren
docs = [
"Künstliche Intelligenz wurde 1956 als akademische Disziplin gegründet.",
"Alan Turing war die erste Person, die substantielle Forschung im Bereich der KI betrieb.",
"Turing wurde in Maida Vale, London, geboren und wuchs in Südengland auf."
]
docs_embeddings = vo.embed(docs, model="voyage-2", input_type="document").embeddings
# Einbettungen für Abfragen generieren
queries = ["Wann wurde die künstliche Intelligenz erfunden",
"Wo wurde Alan Turing geboren?"]
query_embeddings = vo.embed(queries, model="voyage-2", input_type="query").embeddings
# Verbindung zur Zilliz-Cloud mit öffentlichem Endpunkt und API-Schlüssel
client = MilvusClient(
uri=ZILLIZ_PUBLIC_ENDPOINT,
token=ZILLIZ_API_KEY)
COLLECTION = "Dokumente"
if client.has_collection(collection_name=COLLECTION):
client.drop_collection(collection_name=COLLECTION)
client.create_collection(
collection_name=COLLECTION,
dimension=1024,
auto_id=True)
for doc, embedding in zip(docs, docs_embeddings):
client.insert(COLLECTION, {"text": doc, "vector": embedding})
results = client.search(
collection_name=COLLECTION,
data=query_embeddings,
consistency_level="Strong",
output_fields=["text"])
Weitere Informationen finden Sie im Voyage AI Embedding Guide.
Nahtlose KI-Workflows
Von Embeddings bis hin zu skalierbarer KI-Suche – Zilliz Cloud ermöglicht es Ihnen, Embeddings mit beispielloser Geschwindigkeit und Effizienz zu speichern, zu indizieren und abzurufen.
Zilliz Cloud kostenlos ausprobieren

