ジーナAI / jina-embeddings-v2-small-en
Milvus Integrated
タスク: 埋め込み
モダリティ: テキスト
類似性メトリック: 任意(正規化)
ライセンス: アパッチ2.0
次元: 512
最大入力トークン: 8192
価格: 無料
Jina Embedding v2 モデルの紹介
Jina Embeddings v2モデルは、最大入力サイズが8,192トークンに拡張され、長い文書を扱うように設計されています。2024年10月現在、Jina AIエンベッディングV2には以下のバリエーションがあり、それぞれ異なるエンベッディングのニーズに対応しています:
- jina-embeddings-v2-small-ja](https://zilliz.com/ai-models/jina-embeddings-v2-small-en)
- jina-embeddings-v2-base-ja](https://zilliz.com/ai-models/jina-embeddings-v2-base-en)
- jina-embeddings-v2-base-zh](https://zilliz.com/ai-models/jina-embeddings-v2-base-zh)
- jina-embeddings-v2-base-de](https://zilliz.com/ai-models/jina-embeddings-v2-base-de)
- jina-embeddings-v2-base-code](https://zilliz.com/ai-models/jina-embeddings-v2-base-code)
jina-embeddings-v2-small-enの紹介
jina-embeddings-v2-small-enは、8192トークンまでの配列長を想定して設計された英語単言語埋め込みモデルです。Jina Embeddings v2ファミリーの中で最小のモデルであり、3,300万のパラメータで学習され、512次元の埋め込みを生成します。
jina-embeddings-v2-small-enと他のJina埋め込みモデルの比較。
| モデル|パラメータサイズ|埋め込み次元|テキスト | ---------------------------- | -------------- | --------------------------------------- | ----------------------------------------------------------- | | jina-embeddings-v3 | 570M | 柔軟な埋め込みサイズ (デフォルト: 1024) | 多言語テキスト埋め込み; 計94言語対応 | jina-embeddings-v2-small-en](https://zilliz.com/ai-models/jina-embeddings-v2-small-en)|33M|512|英語モノリンガル埋め込み|jina-embeddings-v2-small-en](https://zilliz.com/ai-models/jina-embeddings-v2-small-en)|512|英語モノリンガル埋め込み | jina-embeddings-v2-base-ja | 137M | 768 | 英語のモノリンガル埋め込み || jina-embeddings-v2-base-ja | 137M | 768 | 英語のモノリンガル埋め込み | jina-embeddings-v2-base-zh | 161M | 768 | 中英二ヶ国語エンベッディング(embeddings) | jina-embeddings-v2-base-de](https://zilliz.com/ai-models/jina-embeddings-v2-base-de)|161M|768|独英対訳エンベッディング|中国語-英語 | jina-embeddings-v2-base-code](https://zilliz.com/ai-models/jina-embeddings-v2-base-code) | 161M | 768|英語とプログラミング言語|の対訳エンベッディング。
jina-embeddings-v2-small-jaによる埋め込み作成方法
ベクトルの埋め込みを生成するには、主に2つの方法があります:
- PyMilvus](https://github.com/milvus-io/pymilvus): MilvusのPython SDKで、
jina-embeddings-v2-small-en
モデルをシームレスに統合している。 - SentenceTransformerライブラリ: Pythonライブラリ
sentence-transformer
.
ベクトル埋め込みが生成されると、Zilliz Cloud (Milvusによるフルマネージドベクトルデータベースサービス)に保存され、意味類似検索に利用できる。以下は、4つの重要なステップである:
- Zilliz Cloudアカウントに無料でサインアップ](https://cloud.zilliz.com/signup)。
- サーバーレスクラスターをセットアップ](https://docs.zilliz.com/docs/create-cluster#set-up-a-free-cluster)し、パブリックエンドポイントとAPIキーを取得する。
- ベクトルコレクションを作成し、ベクトル埋め込みを挿入する。
- 保存された埋め込みに対してセマンティック検索を実行する。
PyMilvus経由で埋め込みを作成する。
from pymilvus.model.dense import SentenceTransformerEmbeddingFunction
from pymilvus import MilvusClient
ef = SentenceTransformerEmbeddingFunction("jinaai/jina-embeddings-v2-small-ja", trust_remote_code=True)
docs = [
「人工知能は1956年に学問分野として創設された、
「アラン・チューリングは、人工知能の実質的な研究を行った最初の人物である、
"チューリングはロンドンのマイダ・ベイルで生まれ、イングランド南部で育った。"
]
# ドキュメントの埋め込みを生成する
docs_embeddings = ef(docs)
queries = ["人工知能はいつ創設されたか"、
「アラン・チューリングはどこで生まれたのか?]
# クエリの埋め込みを生成する
query_embeddings = ef(queries)
# Public EndpointとAPI Keyを使ってZilliz Cloudに接続する
client = MilvusClient(
uri=ZILLIZ_PUBLIC_ENDPOINT、
token=ZILLIZ_API_KEY)
COLLECTION = "documents"
if client.has_collection(collection_name=COLLECTION):
client.drop_collection(collection_name=COLLECTION)
client.create_collection(
コレクション名=COLLECTION、
dimension=ef.dim、
auto_id=True)
for doc, embedding in zip(docs, docs_embeddings):
client.insert(COLLECTION, {"text": doc, "vector": embedding})
results = client.search(
collection_name=COLLECTION、
data=query_embeddings、
consistency_level="Strong"、
output_fields=["text"])
詳細はPyMilvus Embedding Model documentationを参照してください。
文変換器を使って埋め込みを作成する
from sentence_transformers import SentenceTransformer
from pymilvus import MilvusClient
model = SentenceTransformer("jinaai/jina-embeddings-v2-small-ja", trust_remote_code=True)
ドキュメント = [
「人工知能は1956年に学問分野として創設された、
「アラン・チューリングは、人工知能の実質的な研究を行った最初の人物である、
"チューリングはロンドンのマイダ・ベイルで生まれ、イングランド南部で育った。"
]
# ドキュメントの埋め込みを生成する
docs_embeddings = model.encode(docs, normalize_embeddings=True)
queries = ["クエリ:人工知能はいつ作られたのか?
"query:アラン・チューリングはどこで生まれましたか?"]
# クエリの埋め込みを生成する
query_embeddings = model.encode(queries, normalize_embeddings=True)
# Public EndpointとAPI KeyでZilliz Cloudに接続する。
client = MilvusClient(
uri=ZILLIZ_PUBLIC_ENDPOINT、
token=ZILLIZ_API_KEY)
COLLECTION = "documents"
if client.has_collection(collection_name=COLLECTION):
client.drop_collection(collection_name=COLLECTION)
client.create_collection(
コレクション名=COLLECTION、
dimension=512、
auto_id=True)
for doc, embedding in zip(docs, docs_embeddings):
client.insert(COLLECTION, {"text": doc, "vector": embedding})
results = client.search(
collection_name=COLLECTION、
data=query_embeddings、
consistency_level="Strong"、
output_fields=["text"])
詳細はHugging Face documentationを参照。
シームレス AI ワークフロー
埋め込みからスケーラブルな AI 検索まで、 Zilliz Cloud は、埋め込みを比類のないスピードと効率で保存、インデックス、検索できます。
Zilliz Cloudを無料で試す