OpenAI / text-embedding-3-large
Milvus & Zilliz Cloud Integrated
Aufgabe: Einbettung
Modalität: Text
Ähnlichkeitsmetrik: Beliebig (normalisiert)
Lizenz: Proprietär
Dimensionen: 3072
Maximale Eingabe-Tokens: 8191
Preis: 0,13 $/1M Token
Einführung in text-embedding-3-large
text-embedding-3-large" ist das große Texteinbettungsmodell von OpenAI, das Einbettungen mit bis zu 3072 Dimensionen erzeugt. Im Vergleich zu OpenAIs anderen Text-Einbettungsmodellen, wie text-embedding-ada-002 und text-embedding-3-large, hat text-embedding-3-large eine höhere Leistung und geringere Preise.
Werfen wir einen kurzen Blick auf einige Grundlagen.
| Modell | Abmessungen | Max Tokens | Modell MIRACL avg | METB avg | Preis |
|---|---|---|---|---|---|
| text-embedding-3-large | 3072 | 8191 | 54.9 | 64.6 | $0.13 / 1M Token |
| text-embedding-ada-002 | 1536 | 8191 | 31.4 | 61.0 | $0.10 / 1M Token |
| text-embedding-3-small | 1536 | 8191 | 44.0 | 62.3 | $0.02 / 1M Zeichen |
So erzeugen Sie Vektoreinbettungen mit dem Modell text-embedding-3-large
Es gibt zwei primäre Möglichkeiten, Vektoreinbettungen zu erstellen:
- PyMilvus: das Python-SDK für Milvus, das das "text-embedding-3-large"-Modell nahtlos integriert.
- OpenAI Embedding: das Python-SDK, das von OpenAI angeboten wird.
Sobald die Vektoreinbettungen generiert sind, können sie in der Zilliz Cloud (einem vollständig verwalteten Vektordatenbankdienst, der von Milvus betrieben wird) gespeichert und für die semantische Ähnlichkeitssuche verwendet werden. Dies sind die vier wichtigsten Schritte:
- Anmelden für ein kostenloses Zilliz Cloud-Konto.
- Richten Sie einen serverlosen Cluster ein und erhalten Sie den Public Endpoint and API Key.
- Erstellen Sie eine Vektorsammlung und fügen Sie Ihre Vektoreinbettungen ein.
- Lassen Sie eine semantische Suche auf den gespeicherten Einbettungen laufen.
Vektoreinbettungen über PyMilvus generieren und in die Zilliz Cloud für die semantische Suche einfügen.
from pymilvus.model.dense import OpenAIEmbeddingFunction
von pymilvus importieren MilvusClient
OPENAI_API_KEY = "ihr-openai-api-schlüssel"
ef = OpenAIEmbeddingFunction("text-embedding-3-large", api_key=OPENAI_API_KEY)
docs = [
"Künstliche Intelligenz wurde 1956 als akademische Disziplin gegründet.",
"Alan Turing war die erste Person, die umfangreiche Forschungen im Bereich der künstlichen Intelligenz durchführte.",
"Geboren in Maida Vale, London, wuchs Turing in Südengland auf."
]
# Einbettungen für Dokumente generieren
docs_embeddings = ef(docs)
queries = ["Wann wurde die künstliche Intelligenz erfunden",
"Wo wurde Alan Turing geboren?"]
# Einbettungen für Abfragen generieren
abfrage_einbettungen = ef(abfragen)
# Verbindung zur Zilliz-Cloud mit öffentlichem Endpunkt und API-Schlüssel
client = MilvusClient(
uri=ZILLIZ_PUBLIC_ENDPOINT,
token=ZILLIZ_API_KEY)
COLLECTION = "Dokumente"
if client.has_collection(collection_name=COLLECTION):
client.drop_collection(collection_name=COLLECTION)
client.create_collection(
collection_name=COLLECTION,
dimension=ef.dim,
auto_id=True)
for doc, embedding in zip(docs, docs_embeddings):
client.insert(COLLECTION, {"text": doc, "vector": embedding})
results = client.search(
collection_name=COLLECTION,
data=query_embeddings,
consistency_level="Strong",
output_fields=["text"])
Weitere Informationen finden Sie in unserer PyMilvus Embedding Model Dokumentation.
Generieren Sie Vektoreinbettungen über OpenAIs Python SDK und fügen Sie sie in die Zilliz Cloud für die semantische Suche ein.
von openai importieren OpenAI
von pymilvus importieren MilvusClient
OPENAI_API_KEY = "ihr-openai-api-schlüssel"
client = OpenAI(api_key=OPENAI_API_KEY)
# Einbettungen für Dokumente generieren
doc_response = client.embeddings.create(
input=[
"Künstliche Intelligenz wurde 1956 als akademische Disziplin gegründet.",
"Alan Turing war die erste Person, die substantielle Forschung im Bereich der KI betrieb.",
"Geboren in Maida Vale, London, wuchs Turing in Südengland auf."
],
model="text-embedding-3-large"
)
doc_embeddings = [data.embedding for data in doc_response.data]
# Einbettungen für Abfragen generieren
query_response = client.embeddings.create(
input=["Wann wurde die künstliche Intelligenz begründet",
"Wo wurde Alan Turing geboren?"],
model="text-einbettung-3-large"
)
query_embeddings = [data.embedding for data in query_response.data]
# Verbindung zur Zilliz Cloud mit öffentlichem Endpunkt und API-Schlüssel
client = MilvusClient(
uri=ZILLIZ_PUBLIC_ENDPOINT,
token=ZILLIZ_API_KEY)
COLLECTION = "Dokumente"
if client.has_collection(collection_name=COLLECTION):
client.drop_collection(collection_name=COLLECTION)
client.create_collection(
collection_name=COLLECTION,
dimension=3072,
auto_id=True)
for doc, embedding in zip(docs, docs_embeddings):
client.insert(COLLECTION, {"text": doc, "vector": embedding})
results = client.search(
collection_name=COLLECTION,
data=query_embeddings,
consistency_level="Strong",
output_fields=["text"])
Weitere Informationen finden Sie im OpenAI's Embedding Guide.
- Einführung in text-embedding-3-large
- So erzeugen Sie Vektoreinbettungen mit dem Modell text-embedding-3-large
Inhalte
Nahtlose KI-Workflows
Von Embeddings bis hin zu skalierbarer KI-Suche – Zilliz Cloud ermöglicht es Ihnen, Embeddings mit beispielloser Geschwindigkeit und Effizienz zu speichern, zu indizieren und abzurufen.
Zilliz Cloud kostenlos ausprobieren

