BAAI / bge-base-zh-v1.5
Milvus Integrated
Tarea: Inserción
Modalidad: Texto
Métrica de Similitud: Cualquiera (Normalizado)
Licencia: Apache 2.0
Dimensiones: 768
Tokens de Entrada Máximos: 512
Precio: Gratis
Introducción a bge-base-zh-v1.5
bge-base-zh-v1.5 es un modelo de incrustación general de BAAI (BGE) que transforma texto chino en un vector compacto. Proporciona una distribución de similitudes más razonable que las versiones anteriores del modelo de incrustación de texto de BAAI.
Compare bge-base-zh-v1.5 con otros modelos BGE populares:
| Modelo | Dimensiones | Max Tokens | C-MTEB avg |
|---|---|---|---|
| bge-large-zh-v1.5 1024 512 64.53 | |||
| bge-large-es 1024 512 64.20 | |||
| bge-base-zh-v1.5 768 512 63.13 | |||
| bge-base-es 768 512 62,96 | |||
| bge-small-zh-v1.5 384 512 57.82 | |||
| bge-small-zh 384 512 58.27 |
Cómo crear incrustaciones con bge-base-zh-v1.5
Hay dos formas principales de crear incrustaciones vectoriales:
- PyMilvus: el SDK de Python para Milvus que integra perfectamente el
bge-base-zh-v1.5. - FlagEmbedding: el SDK oficial de Python ofrecido por BAAI.
Estos métodos permiten a los desarrolladores incorporar fácilmente capacidades avanzadas de incrustación de texto en sus aplicaciones.
Una vez generadas las incrustaciones vectoriales, pueden almacenarse en Zilliz Cloud (un servicio de base de datos vectorial totalmente gestionado e impulsado por Milvus) y utilizarse para la búsqueda de similitud semántica. He aquí cuatro pasos clave:
- Registrarse para obtener una cuenta de Zilliz Cloud de forma gratuita.
- Configura un clúster sin servidor y obtén el Public Endpoint and API Key.
- Crea una colección de vectores e inserta tus incrustaciones vectoriales.
- Ejecuta una búsqueda semántica en las incrustaciones almacenadas.
Generar incrustaciones vectoriales a través de PyMilvus e insertarlas en Zilliz Cloud para la búsqueda semántica.
from pymilvus import model, MilvusClient
ef = model.dense.SentenceTransformerEmbeddingFunction(
model_name="BAAI/bge-base-zh-v1.5",
device="cpu",
instrucción_de_consulta="为这个句子生成表示以用于检索相关文章:"
)
# Generar incrustaciones para documentos
docs = [
"人工智能作为一门学术学科成立于1958年。"
"艾伦-图灵是第一个在人工智能领域进行实质性研究的人。"
"图灵出生于伦敦的梅达维尔,并在英格兰南部长大。"
]
docs_embeddings = ef.encode_documents(docs)
# Generar incrustaciones para consultas
consultas = ["人工智能是什么时候成立的?",
"艾伦-图灵出生在哪里?"]
query_embeddings = ef.encode_queries(queries)
# Conectarse a la nube de Zilliz con el punto final público y la clave de API
client = MilvusClient(
uri=ZILLIZ_PUBLIC_ENDPOINT,
token=ZILLIZ_API_KEY)
COLECCIÓN = "documentos"
if client.has_collection(nombre_coleccion=COLECCION):
client.drop_collection(nombre_coleccion=COLECCION)
client.create_collection(
nombre_colección=COLECCIÓN,
dimensión=ef.dim,
auto_id=True)
for doc, embedding in zip(docs, docs_embeddings):
client.insert(COLLECTION, {"texto": doc, "vector": incrustación})
resultados = client.search(
nombre_colección=COLECCIÓN,
datos=consulta_incrustaciones,
consistency_level="Strong",
output_fields=["text"])
Para más información, consulte nuestra Documentación sobre el modelo de incrustación de PyMilvus.
Generar incrustaciones vectoriales mediante la biblioteca FlagEmbedding Python e insertarlas en Zilliz Cloud para la búsqueda semántica.
from FlagEmbedding import FlagModel
from pymilvus import MilvusClient
model = FlagModel("BAAI/bge-base-zh-v1.5",
query_instruction_for_retrieval="为这个句子生成表示以用于检索相关文章:",
use_fp16=False)
# Generación de incrustaciones para documentos
docs = [
"人工智能作为一门学术学科成立于1958年。"
"艾伦-图灵是第一个在人工智能领域进行实质性研究的人。"
"图灵出生于伦敦的梅达维尔,并在英格兰南部长大。"
]
docs_embeddings = model.encode(docs)
# Generar incrustaciones para las consultas
consultas = ["人工智能是什么时候成立的?",
"艾伦-图灵出生在哪里?"]
query_embeddings = model.encode_queries(queries)
# Conéctate a la nube de Zilliz con el punto final público y la clave API
client = MilvusClient(
uri=ZILLIZ_PUBLIC_ENDPOINT,
token=ZILLIZ_API_KEY)
COLECCIÓN = "documentos"
if client.has_collection(nombre_coleccion=COLECCION):
client.drop_collection(nombre_coleccion=COLECCION)
client.create_collection(
nombre_colección=COLECCIÓN,
dimensión=768,
auto_id=True)
for doc, embedding in zip(docs, docs_embeddings):
client.insert(COLLECTION, {"texto": doc, "vector": incrustación})
resultados = client.search(
nombre_colección=COLECCIÓN,
datos=consulta_incrustaciones,
consistency_level="Strong",
output_fields=["text"])
Para más información, consulte la página del modelo sobre HuggingFace.
Flujos de trabajo de IA sin interrupciones
Desde incrustaciones hasta búsqueda de IA escalable—Zilliz Cloud te permite almacenar, indexar y recuperar incrustaciones con una velocidad y eficiencia inigualables.
Prueba Zilliz Cloud Gratis

