OpenAI / text-embedding-3-small
Milvus & Zilliz Cloud Integrated
Tarea: Inserción
Modalidad: Texto
Métrica de Similitud: Cualquiera (Normalizado)
Licencia: Propietario
Dimensiones: 1536
Tokens de Entrada Máximos: 8191
Precio: 0,02 $/1 millón de fichas
Introducción a text-embedding-3-small
text-embedding-3-smalles el modelo de incrustación de texto pequeño de OpenAI, que crea incrustaciones con 1536 dimensiones. Comparado con otros modelos de incrustación de texto de OpenAI, comotext-embedding-ada-002ytext-embedding-3-large,text-embedding-3-small` es el modelo más rentable con mayor precisión y eficiencia. Es ideal para aplicaciones de búsqueda vectorial de uso general.
Veamos algunos conceptos básicos.
| Modelo | Dimensiones | Max Tokens | Modelo MIRACL avg | METB avg | Price | ||||||
|---|---|---|---|---|---|---|---|---|---|---|---|
| text-embedding-3-large 3072 8191 54.9 64.6 $0.13 / 1M tokens | |||||||||||
| text-embedding-ada-002](https://zilliz.com/ai-models/text-embedding-ada-002) | 1536 | 8191 | 31.4 | 61.0 | $0.10 / 1M tokens | text-embedding-3-large | 3072 | 8191 | 54.9 | 64.6 | $0.13 / 1M tokens |
| text-embedding-3-small 1536 8191 44.0 62.3 0.02 1M tokens |
Cómo generar incrustaciones vectoriales con text-embedding-3-small
Hay dos formas principales de crear incrustaciones vectoriales:
- PyMilvus: el SDK de Python para Milvus que integra perfectamente el modelo
text-embedding-3-small. - OpenAI Embedding: el SDK de Python ofrecido por OpenAI.
Una vez generadas las incrustaciones vectoriales, pueden almacenarse en Zilliz Cloud (un servicio de base de datos vectorial totalmente gestionado e impulsado por Milvus) y utilizarse para la búsqueda de similitud semántica. He aquí cuatro pasos clave:
- Inscríbete para obtener una cuenta de Zilliz Cloud de forma gratuita.
- Configura un clúster sin servidor y obtén el Public Endpoint and API Key.
- Crea una colección de vectores e inserta tus incrustaciones vectoriales.
- Ejecuta una búsqueda semántica en las incrustaciones almacenadas.
Generar incrustaciones vectoriales a través de PyMilvus e insertarlas en Zilliz Cloud para la búsqueda semántica.
from pymilvus import model, MilvusClient
OPENAI_API_KEY = "tu-clave-openai-api"
ef = model.dense.OpenAIEmbeddingFunction(
model_name="text-embedding-3-small",
api_key=OPENAI_API_KEY,
)
# Generar incrustaciones para documentos
docs = [
"La inteligencia artificial se fundó como disciplina académica en 1956",
"Alan Turing fue la primera persona en realizar una investigación sustancial en IA.",
"Nacido en Maida Vale, Londres, Turing se crió en el sur de Inglaterra."
]
docs_embeddings = ef.encode_documents(docs)
# Generar incrustaciones para consultas
queries = ["¿Cuándo se fundó la inteligencia artificial?
"¿Dónde nació Alan Turing?"]
query_embeddings = ef.encode_queries(queries)
# Conectar a Zilliz Cloud con el punto final público y la clave API
client = MilvusClient(
uri=ZILLIZ_PUBLIC_ENDPOINT,
token=ZILLIZ_API_KEY)
COLECCIÓN = "documentos"
if client.has_collection(nombre_coleccion=COLECCION):
client.drop_collection(nombre_coleccion=COLECCION)
client.create_collection(
nombre_colección=COLECCIÓN,
dimensión=ef.dim,
auto_id=True)
for doc, embedding in zip(docs, docs_embeddings):
client.insert(COLLECTION, {"texto": doc, "vector": incrustación})
resultados = client.search(
nombre_colección=COLECCIÓN,
datos=consulta_incrustaciones,
consistency_level="Strong",
output_fields=["text"])
Para más información, consulte nuestra Documentación sobre el modelo de incrustación de PyMilvus.
Generar incrustaciones mediante el SDK de Python de OpenAI e insertarlas en Zilliz Cloud para la búsqueda semántica.
from openai import OpenAI
from pymilvus import MilvusClient
OPENAI_API_KEY = "tu-clave-openai-api"
client = OpenAI(api_key=OPENAI_API_KEY)
# Generar incrustaciones para documentos
doc_response = client.embeddings.create(
input=[
"La inteligencia artificial se fundó como disciplina académica en 1956",
"Alan Turing fue la primera persona en realizar una investigación sustancial en IA",
"Nacido en Maida Vale, Londres, Turing se crió en el sur de Inglaterra."
],
model="text-embedding-3-small"
)
doc_embeddings = [data.embedding for data in doc_response.data]
# Generar incrustaciones para consultas
query_response = client.embeddings.create(
input=["¿Cuándo se fundó la inteligencia artificial?
"¿Dónde nació Alan Turing?"],
model="text-embedding-3-small"
)
query_embeddings = [data.embedding for data in query_response.data]
# Conectarse a Zilliz Cloud con el punto final público y la clave API
client = MilvusClient(
uri=ZILLIZ_PUBLIC_ENDPOINT,
token=ZILLIZ_API_KEY)
COLECCIÓN = "documentos"
if client.has_collection(nombre_coleccion=COLECCION):
client.drop_collection(nombre_coleccion=COLECCION)
client.create_collection(
nombre_colección=COLECCIÓN,
dimensión=1536,
auto_id=True)
for doc, embedding in zip(docs, docs_embeddings):
client.insert(COLLECTION, {"texto": doc, "vector": incrustación})
resultados = client.search(
nombre_colección=COLECCIÓN,
datos=consulta_incrustaciones,
consistency_level="Strong",
output_fields=["text"])
Para más información, consulte OpenAI's Embedding Guide.
- Introducción a text-embedding-3-small
- Cómo generar incrustaciones vectoriales con text-embedding-3-small
Contenido
Flujos de trabajo de IA sin interrupciones
Desde incrustaciones hasta búsqueda de IA escalable—Zilliz Cloud te permite almacenar, indexar y recuperar incrustaciones con una velocidad y eficiencia inigualables.
Prueba Zilliz Cloud Gratis

