OpenAI / text-embedding-3-large
Milvus & Zilliz Cloud Integrated
Tarea: Inserción
Modalidad: Texto
Métrica de Similitud: Cualquiera (Normalizado)
Licencia: Propietario
Dimensiones: 3072
Tokens de Entrada Máximos: 8191
Precio: 0,13 $/1 millón de fichas
Introducción a text-embedding-3-large
text-embedding-3-largees el modelo de incrustación de texto grande de OpenAI, que crea incrustaciones de hasta 3072 dimensiones. Comparado con otros modelos de incrustación de texto de OpenAI, comotext-embedding-ada-002ytext-embedding-3-large,text-embedding-3-large` tiene un mayor rendimiento y precios reducidos.
Veamos brevemente algunos aspectos básicos.
| Modelo, dimensiones, tokens máximos, modelo, promedio MIRACL, promedio METB, precio. | ----------------------------- | --------------- | -------------- | ---------------------- | ------------ | ---------------------- | | text-embedding-3-large 3072 8191 54.9 64.6 0.13 $ / 1M tokens | text-embedding-ada-002 | 1536 | 8191 | 31.4 | 61.0 | $0.10 / 1M tokens | [text-embedding-3-large | text-embedding-3-small | 1536 | 8191 | 44.0 | 62.3 | $0.02 / 1M tokens |
Cómo generar incrustaciones vectoriales con el modelo text-embedding-3-large
Hay dos formas principales de crear incrustaciones vectoriales:
- PyMilvus: el SDK de Python para Milvus que integra perfectamente el modelo
text-embedding-3-large. - OpenAI Embedding**: el SDK de Python ofrecido por OpenAI.
Una vez generadas las incrustaciones vectoriales, pueden almacenarse en Zilliz Cloud (un servicio de base de datos vectorial totalmente gestionado e impulsado por Milvus) y utilizarse para la búsqueda de similitud semántica. He aquí cuatro pasos clave:
- Inscríbete para obtener una cuenta de Zilliz Cloud de forma gratuita.
- Configura un clúster sin servidor y obtén el Public Endpoint and API Key.
- Crea una colección de vectores e inserta tus incrustaciones vectoriales.
- Ejecuta una búsqueda semántica en las incrustaciones almacenadas.
Generar incrustaciones vectoriales mediante PyMilvus e insertarlas en Zilliz Cloud para la búsqueda semántica.
from pymilvus.model.dense import OpenAIEmbeddingFunction
from pymilvus import MilvusClient
OPENAI_API_KEY = "tu-clave-openai-api"
ef = OpenAIEmbeddingFunction("text-embedding-3-large", api_key=OPENAI_API_KEY)
docs = [
"La inteligencia artificial se fundó como disciplina académica en 1956",
"Alan Turing fue la primera persona en realizar una investigación sustancial en IA",
"Nacido en Maida Vale, Londres, Turing se crió en el sur de Inglaterra."
]
# Generar incrustaciones para documentos
docs_embeddings = ef(docs)
queries = ["¿Cuándo se fundó la inteligencia artificial?
"¿Dónde nació Alan Turing?"]
# Generar incrustaciones para consultas
incrustaciones_consulta = ef(consultas)
# Conectarse a Zilliz Cloud con el punto final público y la clave API
client = MilvusClient(
uri=ZILLIZ_PUBLIC_ENDPOINT,
token=ZILLIZ_API_KEY)
COLECCIÓN = "documentos"
if client.has_collection(nombre_coleccion=COLECCION):
client.drop_collection(nombre_coleccion=COLECCION)
client.create_collection(
nombre_colección=COLECCIÓN,
dimensión=ef.dim,
auto_id=True)
for doc, embedding in zip(docs, docs_embeddings):
client.insert(COLLECTION, {"texto": doc, "vector": incrustación})
resultados = client.search(
nombre_colección=COLECCIÓN,
datos=consulta_incrustaciones,
consistency_level="Strong",
output_fields=["text"])
Para más información, consulte nuestra Documentación sobre el modelo de incrustación de PyMilvus.
Generar incrustaciones vectoriales mediante el SDK de Python de OpenAI e insertarlas en Zilliz Cloud para la búsqueda semántica.
from openai import OpenAI
from pymilvus import MilvusClient
OPENAI_API_KEY = "tu-clave-openai-api"
client = OpenAI(api_key=OPENAI_API_KEY)
# Generar incrustaciones para documentos
doc_response = client.embeddings.create(
input=[
"La inteligencia artificial se fundó como disciplina académica en 1956",
"Alan Turing fue la primera persona en realizar una investigación sustancial en IA",
"Nacido en Maida Vale, Londres, Turing se crió en el sur de Inglaterra."
],
model="text-embedding-3-large"
)
doc_embeddings = [data.embedding for data in doc_response.data]
# Generar incrustaciones para consultas
query_response = client.embeddings.create(
input=["¿Cuándo se fundó la inteligencia artificial?
"¿Dónde nació Alan Turing?"],
model="text-embedding-3-large"
)
query_embeddings = [data.embedding for data in query_response.data]
# Conectarse a Zilliz Cloud con el punto final público y la clave API
client = MilvusClient(
uri=ZILLIZ_PUBLIC_ENDPOINT,
token=ZILLIZ_API_KEY)
COLECCIÓN = "documentos"
if client.has_collection(nombre_coleccion=COLECCION):
client.drop_collection(nombre_coleccion=COLECCION)
client.create_collection(
nombre_colección=COLECCIÓN,
dimensión=3072,
auto_id=True)
for doc, embedding in zip(docs, docs_embeddings):
client.insert(COLLECTION, {"texto": doc, "vector": incrustación})
resultados = client.search(
nombre_colección=COLECCIÓN,
datos=consulta_incrustaciones,
consistency_level="Strong",
output_fields=["text"])
Para más información, consulte OpenAI's Embedding Guide.
- Introducción a text-embedding-3-large
- Cómo generar incrustaciones vectoriales con el modelo text-embedding-3-large
Contenido
Flujos de trabajo de IA sin interrupciones
Desde incrustaciones hasta búsqueda de IA escalable—Zilliz Cloud te permite almacenar, indexar y recuperar incrustaciones con una velocidad y eficiencia inigualables.
Prueba Zilliz Cloud Gratis

