ボヤージュAI / voyage-large-2
Milvus Integrated
タスク: 埋め込み
モダリティ: テキスト
類似性メトリック: 任意(正規化)
ライセンス: 専有
次元: 1536
最大入力トークン: 16000
価格: 0.12ドル/100万トークン
ボヤージュ・ラージ2モデルの紹介
voyage-large-2`は、検索品質(例えばOpenAI V3 Largeよりも優れている)に最適化されたVoyage AIの汎用テキスト埋め込みモデルです。 要約、クラスタリング、分類などのタスクにも最適です。
voyage-large-2`とVoyage AIによる他の一般的な埋め込みモデルとの比較:
モデル | コンテキストの長さ(トークン) | 埋め込みの次元 | 説明 |
voyage-large-2-instruct|16000|1024| MTEB leaderboardのトップ。クラスタリング、分類、検索のために最適化された、命令チューニングされた汎用埋め込みモデル。 | |||
voyage-multilingual-2|32000|1024| 多言語検索とRAGに最適化。 | |||
voyage-code-2|16000|1536|コード検索に最適化(代替品より17%改善)。 | |||
voyage-large-2|16000|1536|検索品質に最適化された汎用埋め込みモデル(例:OpenAI V3 Largeよりも優れている)。 | |||
voyage-2](https://zilliz.com/ai-models/voyage-2)|4000|1024| コスト、レイテンシ、検索品質のバランスに最適化された汎用エンベッディングモデル。 |
voyage-large-2 によるベクトル埋め込み生成方法
1.[voyage-large-2`モデルをシームレスに統合する Milvus のPython SDK。 2.Voyage AI Python package: Voyage AIが提供するPython SDK。
ベクトル埋め込みが生成されると、Zilliz Cloud (Milvusによって提供されるフルマネージドベクトルデータベースサービス)に保存され、意味的類似性検索に使用することができる。以下は、4つの重要なステップである:
1.1.サインアップ Zilliz Cloudアカウントを無料で取得する。 2.サーバーレスクラスターのセットアップ](https://docs.zilliz.com/docs/create-cluster#set-up-a-free-cluster)し、パブリックエンドポイントとAPIキーを取得する。 3.ベクター・コレクションを作成し、ベクター埋め込みを挿入する。 4.**セマンティック検索を実行する。
PyMilvusで埋め込みベクトルを生成し、Zilliz Cloudに挿入してセマンティック検索を行う。
from pymilvus import model, MilvusClient
ef = model.dense.VoyageEmbeddingFunction(
model_name="voyage-large-2"、
api_key="your-voyage-api-key"、
)
# ドキュメントの埋め込みを生成する
ドキュメント = [
「人工知能は1956年に学問分野として創設された、
"アラン・チューリングは、AIの実質的な研究を行った最初の人物である。"、
"チューリングはロンドンのマイダヴェールで生まれ、イングランド南部で育った。"
]
docs_embeddings = ef.encode_documents(docs)
# クエリの埋め込みを生成する
queries = ["人工知能はいつ誕生したのか?
「アラン・チューリングはどこで生まれましたか?]
query_embeddings = ef.encode_queries(queries)
# Public EndpointとAPI KeyでZilliz Cloudに接続する
client = MilvusClient(
uri=ZILLIZ_PUBLIC_ENDPOINT、
token=ZILLIZ_API_KEY)
COLLECTION = "documents"
if client.has_collection(collection_name=COLLECTION):
client.drop_collection(collection_name=COLLECTION)
client.create_collection(
コレクション名=COLLECTION、
dimension=ef.dim、
auto_id=True)
for doc, embedding in zip(docs, docs_embeddings):
client.insert(COLLECTION, {"text": doc, "vector": embedding})
results = client.search(
collection_name=COLLECTION、
data=query_embeddings、
consistency_level="Strong"、
output_fields=["text"])
詳細はPyMilvus Embedding Model documentationを参照してください。
Voyage AI Pythonパッケージでベクトル埋め込みを生成し、意味検索のためにZilliz Cloudに挿入する。
import voyageai
from pymilvus import MilvusClient
vo = voyageai.Client(api_key="your-voyage-api-key")
# ドキュメントの埋め込みを生成する
ドキュメント = [
"人工知能は1956年に学問分野として設立された"、
"アラン・チューリングは、AIの実質的な研究を行った最初の人物である。"、
"チューリングはロンドンのマイダヴェールで生まれ、イングランド南部で育った。"
]
doc_embeddings = vo.embed(docs, model="voyage-large-2", input_type="document").embeddings
# クエリの埋め込みを生成
queries = ["人工知能はいつ誕生したのか?
「アラン・チューリングはどこで生まれましたか?]
query_embeddings = vo.embed(docs, model="voyage-large-2", input_type="query").embeddings
# Public EndpointとAPI KeyでZilliz Cloudに接続する。
client = MilvusClient(
uri=ZILLIZ_PUBLIC_ENDPOINT、
token=ZILLIZ_API_KEY)
COLLECTION = "documents"
if client.has_collection(collection_name=COLLECTION):
client.drop_collection(collection_name=COLLECTION)
client.create_collection(
コレクション名=COLLECTION、
dimension=1536、
auto_id=True)
for doc, embedding in zip(docs, docs_embeddings):
client.insert(COLLECTION, {"text": doc, "vector": embedding})
results = client.search(
collection_name=COLLECTION、
data=query_embeddings、
consistency_level="Strong"、
output_fields=["text"])
詳細はVoyage AI Embedding Guideを参照してください。
シームレス AI ワークフロー
埋め込みからスケーラブルな AI 検索まで、 Zilliz Cloud は、埋め込みを比類のないスピードと効率で保存、インデックス、検索できます。
Zilliz Cloudを無料で試す