Jina AI / jina-embeddings-v2-base-de
Milvus Integrated
Aufgabe: Einbettung
Modalität: Text
Ähnlichkeitsmetrik: Beliebig (normalisiert)
Lizenz: Apache 2.0
Dimensionen: 768
Maximale Eingabe-Tokens: 8192
Preis: Kostenlos
Einführung in Jina Embedding v2 Modelle
Jina Embeddings v2-Modelle sind für lange Dokumente mit einer erweiterten maximalen Eingabegröße von 8.192 Token ausgelegt. Ab Oktober 2024 gibt es die folgenden Varianten von Jina AI Embedding V2, die jeweils auf unterschiedliche Einbettungsanforderungen zugeschnitten sind.
Was ist jina-embeddings-v2-base-de
jina-embeddings-v2-base-de" ist ein zweisprachiges (deutsch/englisch) Texteinbettungstool, das bis zu 8192 Token pro Sequenz verarbeiten kann. Es basiert auf einer speziellen BERT-Architektur (genannt JinaBERT) für einsprachige und sprachübergreifende Anwendungen mit gemischter deutsch-englischer Eingabe ohne Verzerrung.
Vergleich von jina-embeddings-v2-base-de mit anderen Jina-Einbettungsmodellen.
| Modell | Parametergröße | Einbettungsdimension | Text |
|---|---|---|---|
| jina-embeddings-v3 | 570M | flexible Einbettungsgröße (Standard: 1024) | mehrsprachige Texteinbettungen; unterstützt insgesamt 94 Sprachen |
| jina-embeddings-v2-small-de | 33M | 512 | englische einsprachige Einbettungen |
| jina-embeddings-v2-base-de | 137M | 768 | Englische einsprachige Einbettungen |
| jina-embeddings-v2-base-zh | 161M | 768 | Chinesisch-Englisch zweisprachige Einbettungen |
| jina-embeddings-v2-base-de | 161M | 768 | Deutsch-Englisch Zweisprachige Einbettungen |
| jina-embeddings-v2-base-code | 161M | 768 | Englisch und Programmiersprachen |
Wie man Einbettungen mit jina-embeddings-v2-base-de erstellt
Es gibt zwei primäre Möglichkeiten, Vektoreinbettungen zu erzeugen:
- PyMilvus: das Python-SDK für Milvus, das das Modell "jina-embeddings-v2-base-de" nahtlos integriert.
- SentenceTransformer-Bibliothek: die Python-Bibliothek
sentence-transformer.
Sobald die Vektoreinbettungen erstellt sind, können sie in einer Vektordatenbank wie Zilliz Cloud (eine vollständig verwaltete Vektordatenbank von Milvus) gespeichert und für die semantische Ähnlichkeitssuche verwendet werden.
Dies sind die vier wichtigsten Schritte:
- Registrieren Sie sich für ein kostenloses Zilliz Cloud-Konto.
- Richten Sie einen serverlosen Cluster ein und erhalten Sie den Public Endpoint and API Key.
- Erstellen Sie eine Vektorsammlung und fügen Sie Ihre Vektoreinbettungen ein.
- Führen Sie eine semantische Suche nach den gespeicherten Einbettungen durch.
Einbettungen über PyMilvus erstellen und in die Zilliz Cloud für die semantische Suche einfügen
from pymilvus.model.dense import SentenceTransformerEmbeddingFunction
von pymilvus importieren MilvusClient
ef = SentenceTransformerEmbeddingFunction("jinaai/jina-embeddings-v2-base-de", trust_remote_code=True)
docs = [
"Die Künstliche Intelligenz wurde 1956 als akademische Disziplin gegründet.",
"Alan Turing war die erste Person, die wesentliche Forschung im Bereich der Künstlichen Intelligenz betrieb.",
"Geboren in Maida Vale, London, wuchs Turing in Südengland auf."
]
# Einbettungen für Dokumente generieren
docs_einbettungen = ef(docs)
queries = ["Wann wurde die Künstliche Intelligenz gegründet?",
"Wo wurde Alan Turing geboren?"]
# Einbettungen für Abfragen generieren
Abfrage_Einbettungen = ef(Abfragen)
# Verbindung zur Zilliz-Cloud mit öffentlichem Endpunkt und API-Schlüssel
client = MilvusClient(
uri=ZILLIZ_PUBLIC_ENDPOINT,
token=ZILLIZ_API_KEY)
COLLECTION = "Dokumente"
if client.has_collection(collection_name=COLLECTION):
client.drop_collection(collection_name=COLLECTION)
client.create_collection(
collection_name=COLLECTION,
dimension=ef.dim,
auto_id=True)
for doc, embedding in zip(docs, docs_embeddings):
client.insert(COLLECTION, {"text": doc, "vector": embedding})
results = client.search(
collection_name=COLLECTION,
data=query_embeddings,
consistency_level="Strong",
output_fields=["text"])
Einzelheiten finden Sie in unserer [PyMilvus Embedding Model Dokumentation](Weitere Informationen finden Sie in unserer PyMilvus Embedding Model Dokumentation.).
Erstellen Sie Einbettungen über die SentenceTransformer-Bibliothek und fügen Sie sie in Zilliz Cloud für die semantische Suche ein
from sentence_transformers import SentenceTransformer
von pymilvus importieren MilvusClient
model = SentenceTransformer("jinaai/jina-embeddings-v2-base-de", trust_remote_code=True)
docs = [
"Die Künstliche Intelligenz wurde 1956 als akademische Disziplin gegründet.",
"Alan Turing war die erste Person, die wesentliche Forschung im Bereich der Künstlichen Intelligenz betrieb.",
"Geboren in Maida Vale, London, wuchs Turing in Südengland auf."
]
# Einbettungen für Dokumente generieren
docs_embeddings = model.encode(docs, normalize_embeddings=True)
queries = ["Wann wurde die Künstliche Intelligenz gegründet?",
"Wo wurde Alan Turing geboren?"]
# Einbettungen für Abfragen generieren
abfrage_einbettungen = model.encode(abfragen, normalize_einbettungen=True)
# Verbindung zur Zilliz Cloud mit öffentlichem Endpunkt und API-Schlüssel
client = MilvusClient(
uri=ZILLIZ_PUBLIC_ENDPOINT,
token=ZILLIZ_API_KEY)
COLLECTION = "Dokumente"
if client.has_collection(collection_name=COLLECTION):
client.drop_collection(collection_name=COLLECTION)
client.create_collection(
collection_name=COLLECTION,
dimension=768,
auto_id=True)
for doc, embedding in zip(docs, docs_embeddings):
client.insert(COLLECTION, {"text": doc, "vector": embedding})
results = client.search(
collection_name=COLLECTION,
data=query_embeddings,
consistency_level="Strong",
output_fields=["text"])
- Einführung in Jina Embedding v2 Modelle
- Was ist jina-embeddings-v2-base-de
- Wie man Einbettungen mit jina-embeddings-v2-base-de erstellt
Inhalte
Nahtlose KI-Workflows
Von Embeddings bis hin zu skalierbarer KI-Suche – Zilliz Cloud ermöglicht es Ihnen, Embeddings mit beispielloser Geschwindigkeit und Effizienz zu speichern, zu indizieren und abzurufen.
Zilliz Cloud kostenlos ausprobieren

