最高のベクターデータベースがさらに進化

ChatGPT](https://zilliz.com/learn/ChatGPT-Vector-Database-Prompt-as-code)やその他のLLMの普及に後押しされ、ベクトル・データベースは2023年に人気が上昇した。
多くのZilliz Cloudのお客様は、何らかの検索拡張世代(RAG)システムで私たちのサービスを利用していますが、様々な検索システムでの採用も見られます。これは決して異常なことではなく、大まかに言えば、Zilliz Cloudは、テキストや画像から銀行取引やユーザー行動に至るまで、人間が生成したデータをコンピュータが真に理解するための方法であることを意味している。
本日、私たちはZilliz Cloudに範囲検索、マルチテナントとRBAC、最大10倍向上した検索とインデックスのパフォーマンスなど、多くの新機能を追加することで、私たちの進化の次のステップを導入しました。しかし、なぜこれらの機能を導入することにしたのでしょうか?答えは簡単で、ユーザーが求めていたからです。彼らが構築しているアプリケーションや、彼らが取り組んでいるエンジニアリングの課題には、必要不可欠なデータベース機能と様々なワークロードをサポートする専用に構築されたベクトル・データベースが必要なのです。この投稿の残りの部分では、Zilliz Cloudの新機能が単に有益であるだけでなく、ユーザーのアプリケーションの開発と成功に不可欠であった3つの実際の顧客の使用事例を紹介します。
さっそく始めましょう。
効率的な自律エージェント
メモリ(LLMのコンテキストウィンドウに挿入され、履歴情報を与えるテキストの断片)は、間違いなく自律エージェント(バーチャルキャラクター)の最も重要なコンポーネントの1つです。コンテキストウィンドウは、2つの異なる理由から厳しく制限されている:1) 無限ではない、2) 長いコンテキストはテキスト生成を著しく遅くする、3) ほとんどの長いコンテキストのLLMは、コンテキストウィンドウの最初と最後の情報しか「記憶」しない傾向がある。ベクトル・データベースはこれらの問題をすべて解決する。
カスタマーサービスボットやサポートエージェントを例にとってみよう。このアプリケーションでは、多くの異なる情報、すなわち、オリジナルのナレッジベース、ユーザーのすべてのプロンプト、ユーザーによってアップロードされた画像、オーディオスニペット、エージェントのすべての応答などをZilliz Cloudに保存し、高速検索を可能にする必要があります。顧客がメッセージを入力するたびに、ナレッジベースと以前の会話から関連するコンテンツをすべて検索しなければならないため、この作業負荷は読み込みと書き込みの両方が多く、1秒間に大量のメッセージデータが保存されることになります。
この問題をさらに難しくしているのは、このカスタマーサービス・エージェントに供給されるデータが本質的にマルチモーダルであることだ。Zillizの分散データベース・アーキテクチャは、クエリ・ノード数を増やすことで読み取りスループットを向上させ、データ・ノード数を増やすことで書き込みスループットを向上させるなど、すでに大規模なスケールでこれをサポートしていますが、当社の新しいCardinalベクトル検索エンジンが最終的な決め手となりました。Cardinalには、当社独自のベクトル・インデックス、マシン・コード・レベルでの多数の計算最適化、キャッシュ対応アルゴリズム、その他多くのパフォーマンス最適化が含まれています。手短に言えば、この特定の用途では、Zilliz Cloudは他のベクターデータベースと同じ検索とインデックス作成のスループットを、価格の3分の1以下で実現することができました。他のベクトル検索ソリューションでは年間コストが法外であったところ、我々が介入し、この自律型エージェントを実現しました。
製品推薦
レコメンダーシステムは、消費者の過去の閲覧履歴に基づいて、商品、ニュース、ユーザーコンテンツなど、様々なコンテンツをプッシュするように設計されています。ベクターデータベースはこの種のアプリケーションに最適です。個々のアイテムをベクター化してZilliz Cloudに保存することで、collection.searchを呼び出すだけでレコメンデーションを実行できます。結果として得られる最近傍のレコメンデーションは、それ自体が最も関連性の高いレコメンデーションとなります。
迅速で適切なレコメンデーションは、あらゆるB2C製品にとって重要な課題ですが、Eコマースの世界では、製品のレコメンデーションは、全体的なエクスペリエンスにとって特に重要であり、信じられないほど効率的な収益の原動力となります。私たちのユーザーの主要なミッションのひとつは、AIを活用して商品推薦システムのパフォーマンスを向上させることでした。他の多くのユーザーと同様、彼らのユースケースは非常にレイテンシーに敏感で、ベクター・データベースへのクエリーは、良好なエンドユーザー・エクスペリエンスを維持するために10ミリ秒以内に完了する必要があり、適度なスループットが必要でした。さらに、これらのレコメンデーションは一般的な検索ではありませんでした。エンドユーザーは、しばしばフィルタリングされたレコメンデーションを必要としていた(アパレルの特定の寸法や特定の靴のサイズなど)。この複雑さは、商品データの性質にも及んでおり、商品のタイトル、説明、画像を含むマルチモーダルなデータでした。
Cardinalによってパフォーマンス要件を満たすことができましたが、Zilliz Cloudの動的スキーマとJSONのサポートがここでも画期的でした。これにより、顧客はデータモデルを各商品クラスの特定の特性に合わせて調整することができ、多様で複雑なメタデータを効率的に保存し、ベクトルごとにクエリできるようになりました。カーディナルの優れたパフォーマンスと組み合わされたこの適応性が、この特定の顧客にとっての決め手となった。
AIを活用した創薬
創薬は非常に難しい問題である。医薬品の分子は、数十個の原子を持つ「低分子」から数万個の原子を持つ巨大な生物製剤まで、その大きさは様々である。機械学習は各分子をベクトル化し、特定の病気や症状の治療など、その機能に基づいて表現を作成することができる。
このプロセスでは、Zilliz Cloudの範囲検索機能が重要な役割を果たす。研究者はターゲットとする病気や症状をベクトル化し、Zilliz Cloudで候補となる薬を検索します。範囲検索は、標準的なトップk検索を超え、ターゲットから一定の距離内にあるすべてのベクター(分子)を検索し、固定数ではなく、関連するすべての候補を提供します。この機能は創薬に不可欠なだけでなく、詐欺検出やサイバーセキュリティのような分野にも応用できる。例えば、銀行業務では、取引をベクトル化し、範囲検索を使って新しい取引と比較することで、類似した過去の活動を特定し、異常値検出を助けている。
おわりに
RAGは我々にとって非常に重要であり、今後も重要であり続けるだろうが、それはベクトル・データベースの氷山の一角に過ぎない。ここでは、今日発表する新機能のいくつかが直接可能にする3つの実際のユースケースを紹介しました。Zilliz Cloudを他のベクターデータベースと比較した場合、これらの機能は成功の決定的要因であり、今後もそうあり続けるでしょう。
とはいえ、私の言葉を鵜呑みにしないでください。多くのデータタイプがZilliz Cloudの中でベクトル化され、保存され、照会されます。今すぐ無料でお試しください。インストールの手間もなく、データ革命を起こしましょう。
読み続けて

Balancing Precision and Performance: How Zilliz Cloud's New Parameters Help You Optimize Vector Search
Optimize vector search with Zilliz Cloud’s level and recall features to tune accuracy, balance performance, and power AI applications.

How to Use Anthropic MCP Server with Milvus
Discover how Model Context Protocol (MCP) pairs with Milvus to eliminate AI integration hassles, enabling smarter agents with seamless data access and flexibility.

DeepSeek vs. OpenAI: A Battle of Innovation in Modern AI
Compare OpenAI's o1 and o3-mini with DeepSeek R1's open-source alternative. Discover which AI model offers the best balance of reasoning capabilities and cost efficiency.
