Reise AI / voyage-code-2
Milvus Integrated
Aufgabe: Einbettung
Modalität: Text
Ähnlichkeitsmetrik: Beliebig (normalisiert)
Lizenz: Proprietär
Dimensionen: 1536
Maximale Eingabe-Tokens: 16000
Preis: 0,12 $/1M Token
Einführung in voyage-code-2
voyage-code-2" ist das Text-Einbettungsmodell von Voyage AI, das für die Code-Suche optimiert wurde (17% besser als Alternativen).
Vergleich von voyage-code-2 mit anderen beliebten Einbettungsmodellen von Voyage AI:
| Modell | Kontextlänge (Token) | Einbettungsdimension | Beschreibung |
| voyage-large-2-instruct | 16000 | 1024 | Spitze der MTEB-Rangliste. Befehlsabgestimmtes Allzweck-Einbettungsmodell, das für Clustering, Klassifizierung und Retrieval optimiert ist. |
| voyage-multilingual-2 | 32000 | 1024 | Optimiert für mehrsprachiges Retrieval und RAG. |
| voyage-code-2 | 16000 | 1536 | Optimiert für die Suche nach Codes (17% besser als Alternativen). |
| voyage-large-2 | 16000 | 1536 | Allzweck-Einbettungsmodell, das für die Abrufqualität optimiert ist (z. B. besser als OpenAI V3 Large). |
| voyage-2 | 4000 | 1024 | Allzweck-Einbettungsmodell, das für ein Gleichgewicht zwischen Kosten, Latenz und Abrufqualität optimiert ist. |
Wie man Einbettungen mit voyage-code-2 erstellt
Es gibt zwei primäre Möglichkeiten, Vektoreinbettungen zu erstellen:
- PyMilvus: das Python-SDK für Milvus, das das Modell "voyage-code-2" nahtlos integriert.
- Voyage AI Embedding: das Python SDK, das von Voyage AI angeboten wird.
Sobald die Vektoreinbettungen generiert sind, können sie in der Zilliz Cloud (ein vollständig verwalteter, von Milvus betriebener Vektor-Datenbankdienst) gespeichert und für die semantische Ähnlichkeitssuche verwendet werden. Dies sind die vier wichtigsten Schritte:
- Registrieren Sie sich für ein kostenloses Zilliz Cloud-Konto.
- Richten Sie einen serverlosen Cluster ein und erhalten Sie den Public Endpoint and API Key.
- Erstellen Sie eine Vektorsammlung und fügen Sie Ihre Vektoreinbettungen ein.
- Lassen Sie eine semantische Suche auf den gespeicherten Einbettungen laufen.
Vektoreinbettungen über PyMilvus generieren und in die Zilliz Cloud für die semantische Suche einfügen.
von pymilvus importieren Modell, MilvusClient
ef = model.dense.VoyageEmbeddingFunction(
model_name="voyage-code-2",
api_key="ihr-voyage-api-key",
)
# Einbettungen für Dokumente generieren
docs = [
"retriever = KNNRetriever.from_texts(documents, embeddings)",
"knn = KNeighborsClassifier(n_neighbors=3)",
"sorted_numbers = sorted(numbers)",
"def dynamic_programming(): print('yes')",
"documents_embds = get_embeddings(documents)",
"response = client.embeddings.create(input = documents, model='text-embedding-ada-002')"
]
docs_Einbettungen = ef.encode_documents(docs)
# Einbettungen für Abfragen generieren
queries = ["Ist die Funktion dynamic_programming() mit dynamischer Programmierung implementiert?"]
query_embeddings = ef.encode_queries(queries)
# Verbindung zur Zilliz Cloud mit öffentlichem Endpunkt und API-Schlüssel
client = MilvusClient(
uri=ZILLIZ_PUBLIC_ENDPOINT,
token=ZILLIZ_API_KEY)
COLLECTION = "Dokumente"
if client.has_collection(collection_name=COLLECTION):
client.drop_collection(collection_name=COLLECTION)
client.create_collection(
collection_name=COLLECTION,
dimension=ef.dim,
auto_id=True)
for doc, embedding in zip(docs, docs_embeddings):
client.insert(COLLECTION, {"text": doc, "vector": embedding})
results = client.search(
collection_name=COLLECTION,
data=query_embeddings,
consistency_level="Strong",
output_fields=["text"])
Weitere Informationen finden Sie in unserer PyMilvus Embedding Model Dokumentation.
Generieren Sie Vektoreinbettungen über das Python SDK von Voyage AI und fügen Sie sie in die Zilliz Cloud für die semantische Suche ein.
voyageai importieren
von pymilvus importieren MilvusClient
vo = voyageai.Client(api_key="ihr-voyage-api-key")
# Einbettungen für Dokumente generieren
docs = [
"retriever = KNNRetriever.from_texts(documents, embeddings)",
"knn = KNeighborsClassifier(n_neighbors=3)",
"sorted_numbers = sorted(numbers)",
"def dynamic_programming(): print('yes')",
"documents_embds = get_embeddings(documents)",
"response = client.embeddings.create(input = documents, model='text-embedding-ada-002')"
]
docs_embeddings = vo.embed(docs, model="voyage-code-2", input_type="document").embeddings
# Einbettungen für Abfragen generieren
queries = ["Ist die Funktion dynamic_programming() durch dynamische Programmierung implementiert?"]
query_embeddings = vo.embed(queries, model="voyage-code-2", input_type="query").embeddings
# Verbindung zur Zilliz-Cloud mit öffentlichem Endpunkt und API-Schlüssel
client = MilvusClient(
uri=ZILLIZ_PUBLIC_ENDPOINT,
token=ZILLIZ_API_KEY)
COLLECTION = "Dokumente"
if client.has_collection(collection_name=COLLECTION):
client.drop_collection(collection_name=COLLECTION)
client.create_collection(
collection_name=COLLECTION,
dimension=1536,
auto_id=True)
for doc, embedding in zip(docs, docs_embeddings):
client.insert(COLLECTION, {"text": doc, "vector": embedding})
results = client.search(
collection_name=COLLECTION,
data=query_embeddings,
consistency_level="Strong",
output_fields=["text"])
Weitere Informationen finden Sie im Voyage AI Embedding Guide.
Nahtlose KI-Workflows
Von Embeddings bis hin zu skalierbarer KI-Suche – Zilliz Cloud ermöglicht es Ihnen, Embeddings mit beispielloser Geschwindigkeit und Effizienz zu speichern, zu indizieren und abzurufen.
Zilliz Cloud kostenlos ausprobieren

