OpenAI / text-embedding-3-large
Milvus & Zilliz Cloud Integrated
Tâche: Intégration
Modalité: Texte
Métrique de similarité: Tous (normalisés)
Licence: Propriétaire
Dimensions: 3072
Tokens d'entrée max: 8191
Prix: 0,13 $/1M de jetons
Introduction à text-embedding-3-large
text-embedding-3-large est le modèle d'intégration de texte de grande taille de l'OpenAI, créant des intégrations avec jusqu'à 3072 dimensions. Comparé aux autres modèles d'intégration de texte d'OpenAI, tels que text-embedding-ada-002 et text-embedding-3-large, text-embedding-3-large a de meilleures performances et des prix réduits.
Jetons un coup d'œil rapide à quelques principes de base.
| Modèle | Dimensions | Max Tokens | Modèle MIRACL avg | METB avg | Price |
|---|---|---|---|---|---|
| text-embedding-3-large | 3072 | 8191 | 54.9 | 64.6 | $0.13 / 1M tokens |
| text-embedding-ada-002 | 1536 | 8191 | 31.4 | 61.0 | $0.10 / 1M de jetons |
| text-embedding-3-small | 1536 | 8191 | 44.0 | 62.3 | $0.02 / 1M de jetons |
Comment générer des embeddings vectoriels avec le modèle text-embedding-3-large
Il existe deux façons principales de créer des embeddings vectoriels :
- PyMilvus : le SDK Python pour Milvus qui intègre de manière transparente le modèle
text-embedding-3-large. - OpenAI Embedding : le SDK Python proposé par OpenAI.
Une fois que les embeddings vectoriels sont générés, ils peuvent être stockés dans Zilliz Cloud (un service de base de données vectorielles entièrement géré par Milvus) et utilisés pour la recherche de similarité sémantique. Voici les quatre étapes clés :
- Sign up pour un compte Zilliz Cloud gratuit.
- Configurer un cluster sans serveur et obtenir le Point de terminaison public et la clé API.
- Créer une collection de vecteurs et insérer vos embeddings vectoriels.
- Lancez une recherche sémantique sur les embeddings stockés.
Générer des embeddings vectoriels via PyMilvus et les insérer dans Zilliz Cloud pour la recherche sémantique.
from pymilvus.model.dense import OpenAIEmbeddingFunction
from pymilvus import MilvusClient
OPENAI_API_KEY = "votre-openai-api-key"
ef = OpenAIEmbeddingFunction("text-embedding-3-large", api_key=OPENAI_API_KEY)
docs = [
"L'intelligence artificielle a été fondée en tant que discipline universitaire en 1956,
"Alan Turing a été la première personne à mener des recherches approfondies sur l'intelligence artificielle,
"Né à Maida Vale, Londres, Turing a grandi dans le sud de l'Angleterre."
]
# Générer des embeddings pour les documents
docs_embeddings = ef(docs)
queries = ["Quand l'intelligence artificielle a-t-elle été créée",
"Où est né Alan Turing ?"]
# Génère des embeddings pour les requêtes
query_embeddings = ef(queries)
# Se connecter au nuage Zilliz avec le point de terminaison public et la clé API
client = MilvusClient(
uri=ZILLIZ_PUBLIC_ENDPOINT,
token=ZILLIZ_API_KEY)
COLLECTION = "documents"
if client.has_collection(collection_name=COLLECTION) :
client.drop_collection(nom_de_la_collection=COLLECTION)
client.create_collection(
nom_de_la_collection=COLLECTION,
dimension=ef.dim,
auto_id=True)
for doc, embedding in zip(docs, docs_embeddings) :
client.insert(COLLECTION, {"text" : doc, "vector" : embedding})
results = client.search(
nom_de_la_collection=COLLECTION,
data=query_embeddings,
niveau de cohérence="Fort",
output_fields=["text"])
Pour plus d'informations, consultez notre [documentation sur le modèle d'intégration PyMilvus] (https://milvus.io/docs/embeddings.md).
Générer des embeddings vectoriels via le SDK Python d'OpenAI et les insérer dans Zilliz Cloud pour la recherche sémantique.
from openai import OpenAI
from pymilvus import MilvusClient
OPENAI_API_KEY = "votre-openai-api-key"
client = OpenAI(api_key=OPENAI_API_KEY)
# Générer des embeddings pour les documents
doc_response = client.embeddings.create(
input=[
"L'intelligence artificielle a été fondée en tant que discipline universitaire en 1956,
"Alan Turing a été la première personne à mener des recherches substantielles sur l'IA,
"Né à Maida Vale, Londres, Turing a grandi dans le sud de l'Angleterre.
],
model="text-embedding-3-large"
)
doc_embeddings = [data.embedding for data in doc_response.data]
# Générer des embeddings pour les requêtes
query_response = client.embeddings.create(
input=["Quand l'intelligence artificielle a-t-elle été fondée ?
"Où est né Alan Turing ?"],
model="text-embedding-3-large"
)
query_embeddings = [data.embedding for data in query_response.data]
# Se connecter au nuage Zilliz avec le point de terminaison public et la clé API
client = MilvusClient(
uri=ZILLIZ_PUBLIC_ENDPOINT,
token=ZILLIZ_API_KEY)
COLLECTION = "documents"
if client.has_collection(collection_name=COLLECTION) :
client.drop_collection(nom_de_la_collection=COLLECTION)
client.create_collection(
nom_de_la_collection=COLLECTION,
dimension=3072,
auto_id=True)
pour doc, embedding dans zip(docs, docs_embeddings) :
client.insert(COLLECTION, {"text" : doc, "vector" : embedding})
results = client.search(
nom_de_la_collection=COLLECTION,
data=query_embeddings,
niveau de cohérence="Fort",
output_fields=["text"])
Pour plus d'informations, consultez le [Guide d'intégration de l'OpenAI] (https://platform.openai.com/docs/guides/embeddings).
- Introduction à text-embedding-3-large
- Comment générer des embeddings vectoriels avec le modèle text-embedding-3-large
Contenu
Workflows IA fluides
Des embeddings à la recherche IA évolutive - Zilliz Cloud vous permet de stocker, indexer et récupérer des embeddings avec une vitesse et une efficacité inégalées.
Essayer Zilliz Cloud gratuitement

