Voyage AI / voyage-large-2
Milvus Integrated
Tâche: Intégration
Modalité: Texte
Métrique de similarité: Tous (normalisés)
Licence: Propriétaire
Dimensions: 1536
Tokens d'entrée max: 16000
Prix: 0,12 $/1M de jetons
Introduction au modèle voyage-large-2
voyage-large-2 est le modèle d'intégration de texte à usage général de Voyage AI, optimisé pour la qualité de la recherche (par exemple, meilleur que OpenAI V3 Large). Il est également idéal pour des tâches telles que le résumé, le regroupement et la classification.
Comparaison de voyage-large-2 avec d'autres modèles d'intégration populaires de Voyage AI :
| | | | | | ----------------------- | :--------------------- : | :----------------- : | :-----------------------------------------------------------------------------------------------------------------------------------------------------------------------------------: | | Modèle | Longueur du contexte (tokens) | Dimension d'intégration | Description | | Voyage-large-2-instruct | 16000 | 1024 | En tête du [MTEB leaderboard] (https://huggingface.co/spaces/mteb/leaderboard). Modèle d'intégration polyvalent adapté aux instructions et optimisé pour le regroupement, la classification et l'extraction. | | Voyage-multilingual-2 | 32000 | 1024 | Optimisé pour la recherche multilingue et le RAG. | | voyage-code-2 | 16000 | 1536 | Optimisé pour la recherche de codes (17% de mieux que les alternatives). | | Voyage-large-2 | 16000 | 1536 | Modèle d'intégration à usage général optimisé pour la qualité de l'extraction (meilleur que OpenAI V3 Large). | | Voyage-2](https://zilliz.com/ai-models/voyage-2) | 4000 | 1024 | Modèle d'intégration à usage général optimisé pour un équilibre entre le coût, la latence et la qualité d'extraction.
Comment générer des embeddings vectoriels avec voyage-large-2
- PyMilvus : le SDK Python pour Milvus qui intègre de manière transparente le modèle
voyage-large-2. - Voyage AI Python package : le SDK Python proposé par Voyage AI.
Une fois les encastrements vectoriels générés, ils peuvent être stockés dans Zilliz Cloud (un service de base de données vectorielles entièrement géré par Milvus) et utilisés pour la recherche de similarité sémantique. Voici les quatre étapes clés :
- Sign up pour un compte Zilliz Cloud gratuit.
- Configurez un cluster sans serveur et obtenez le Point de terminaison public et la clé API.
- Créer une collection de vecteurs et insérer vos embeddings vectoriels.
- Exécutez une recherche sémantique sur les embeddings stockés.
Générer des embeddings vectoriels via PyMilvus et les insérer dans Zilliz Cloud pour une recherche sémantique.
from pymilvus import model, MilvusClient
ef = model.dense.VoyageEmbeddingFunction(
nom_du_modèle="voyage-large-2",
api_key="your-voyage-api-key",
)
# Générer des embeddings pour les documents
docs = [
"L'intelligence artificielle a été fondée en tant que discipline universitaire en 1956",
"Alan Turing a été la première personne à mener des recherches substantielles sur l'intelligence artificielle,
"Né à Maida Vale, Londres, Turing a grandi dans le sud de l'Angleterre."
]
docs_embeddings = ef.encode_documents(docs)
# Générer des embeddings pour les requêtes
queries = ["Quand l'intelligence artificielle a-t-elle été fondée ?
"Où est né Alan Turing ?"]
query_embeddings = ef.encode_queries(queries)
# Connexion au nuage Zilliz avec le point de terminaison public et la clé API
client = MilvusClient(
uri=ZILLIZ_PUBLIC_ENDPOINT,
token=ZILLIZ_API_KEY)
COLLECTION = "documents"
if client.has_collection(collection_name=COLLECTION) :
client.drop_collection(nom_de_la_collection=COLLECTION)
client.create_collection(
nom_de_la_collection=COLLECTION,
dimension=ef.dim,
auto_id=True)
for doc, embedding in zip(docs, docs_embeddings) :
client.insert(COLLECTION, {"text" : doc, "vector" : embedding})
results = client.search(
nom_de_la_collection=COLLECTION,
data=query_embeddings,
niveau de cohérence="Fort",
output_fields=["text"])
Pour plus d'informations, consultez notre [documentation PyMilvus Embedding Model] (https://milvus.io/docs/embeddings.md).
Générer des embeddings vectoriels avec le package Python Voyage AI et les insérer dans Zilliz Cloud pour la recherche sémantique.
import voyageai
from pymilvus import MilvusClient
vo = voyageai.Client(api_key="your-voyage-api-key")
# Générer des embeddings pour les documents
docs = [
"L'intelligence artificielle a été fondée en tant que discipline universitaire en 1956,
"Alan Turing a été la première personne à mener des recherches substantielles sur l'IA,
"Né à Maida Vale, Londres, Turing a grandi dans le sud de l'Angleterre."
]
doc_embeddings = vo.embed(docs, model="voyage-large-2", input_type="document").embeddings
# Générer des embeddings pour les requêtes
queries = ["Quand l'intelligence artificielle a-t-elle été fondée ?
"Où est né Alan Turing ?"]
query_embeddings = vo.embed(docs, model="voyage-large-2", input_type="query").embeddings
# Connexion au nuage Zilliz avec le point de terminaison public et la clé API
client = MilvusClient(
uri=ZILLIZ_PUBLIC_ENDPOINT,
token=ZILLIZ_API_KEY)
COLLECTION = "documents"
if client.has_collection(collection_name=COLLECTION) :
client.drop_collection(nom_de_la_collection=COLLECTION)
client.create_collection(
nom_de_la_collection=COLLECTION,
dimension=1536,
auto_id=True)
pour doc, embedding dans zip(docs, docs_embeddings) :
client.insert(COLLECTION, {"text" : doc, "vector" : embedding})
results = client.search(
nom_de_la_collection=COLLECTION,
data=query_embeddings,
niveau de cohérence="Fort",
output_fields=["text"])
Pour plus d'informations, consultez [Voyage AI Embedding Guide] (https://docs.voyageai.com/docs/embeddings#python-api).
- Introduction au modèle voyage-large-2
- Comment générer des embeddings vectoriels avec voyage-large-2
Contenu
Workflows IA fluides
Des embeddings à la recherche IA évolutive - Zilliz Cloud vous permet de stocker, indexer et récupérer des embeddings avec une vitesse et une efficacité inégalées.
Essayer Zilliz Cloud gratuitement

