自然言語処理ツール・プラットフォーム トップ10
NLPツールとプラットフォームのトップ10を概観し、その主な機能、アプリケーション、利点を紹介します。
シリーズ全体を読む
人工知能が急速に進化するにつれ、その応用分野はますます多様化し、私たちの日常生活にとって重要なものとなっている。AIが大きな影響を及ぼしている最も重要な分野のひとつが、自然言語処理(NLP)である。NLPは、コンピュータと人間の言語との相互作用に焦点を当てたAIの一分野であり、機械が人間のコミュニケーションを理解し、解釈し、応答することを可能にする。ビッグデータの台頭もNLPの重要性を高めている。この技術は、大規模言語モデル(LLM)を利用したチャットボット、バーチャルアシスタント、翻訳サービス、感情分析ツールなど、幅広い現実世界のNLPアプリケーションを提供している。
トップ10 NLPツールとプラットフォーム
自然言語処理における大きな成長は、研究者、データ科学者、開発者のプロジェクトを支援するために設計された様々なツールとプラットフォームの開発につながった。これらのツールは、一連の機能を提供する包括的なライブラリから、テキスト分類やエンティティ認識のような特定のタスクのために設計された専門的なプラットフォームまで多岐にわたる。
これらのツールの機能と利点を理解することは、プロジェクトの成功に大きく影響します。適切なツールを選択することで、NLPプロジェクトの効率と効果を高めることができます。このガイドでは、トップ10のNLPツールとプラットフォームの概要を紹介し、その主な機能、アプリケーション、利点を強調することで、ニーズに最適なオプションを選択できるようにします。
1.## NLTK (自然言語ツールキット)
Natural Language Toolkit、またはNLTK](https://www.nltk.org/)は、人間の言語データを扱うPython開発者のための包括的なライブラリです。テキスト処理と言語データ分析に不可欠なツールを提供し、教育や研究の現場で広く利用されている。
主な機能
NLTKには、分類、トークン化、ステミング、タグ付け、構文解析などの豊富なテキスト処理ライブラリがあります。
フォーラム、チュートリアル、コード例を通じたサポートを提供する、大規模で活発なコミュニティの恩恵を受けています。
NLTKは汎用性が高いため、テキストの前処理から高度な分析まで、幅広いNLPタスクに適しています。
SciPyやNumPyのような他のライブラリとの統合も容易で、データ解析のための機能が強化されています。
アプリケーション
NLTK は教育目的に理想的で、豊富なドキュメントとチュートリアルを提供し、NLP の概念を教えるのに最適です。
チャットボットやテキスト要約などのNLPアプリケーションの迅速な開発をサポートし、プロトタイピングのための貴重なツールとなっています。
さらに、NLTKは、テキスト分類、構文解析、意味解析を含む実験に広く研究で使用されています。
利点
NLTK は、詳細な例とチュートリアルを含む広範なドキュメントを提供し、ユーザーがその機能を理解し、利用することを容易にします。
このライブラリは、フォーラム、チュートリアル、コード例を通じてサポートを提供する大規模で活発なコミュニティから利益を得ています。
以下は、NLTKを素早く使い始める方法です。
インポート nltk
from nltk.tokenize import word_tokenize
# NLTKデータパッケージをダウンロードする
nltk.download('punkt')
# サンプル文をトークン化する
text = "これはサンプル文です。"
トークン = word_tokenize(text)
print(tokens)
2.## スパシー
SpaCyは、Pythonによる高度な自然言語処理用に設計されたオープンソースのソフトウェアライブラリです。その速度と正確さで知られ、研究および産業アプリケーションの両方に理想的です。大量のテキストを高速に処理し、他のツールと統合できるため、あらゆる NLP プロジェクトの強力な資産となります。
主な機能
SpaCyはパフォーマンス重視で作られており、リアルタイムアプリケーションに不可欠な高速処理と高精度の結果を提供します。
SpaCyは複数の言語に対して事前にトレーニングされたモデルを提供し、ユーザーは大規模なトレーニングを受けることなく、複雑な自然言語処理タスクを即座に適用することができます。
このライブラリには、トークン化、品詞タグ付け、名前付きエンティティ認識、係り受け解析などの重要なNLPタスクのための効率的なパイプラインが含まれています。
SpaCyは、GensimやScikit-learnのような他のNLPライブラリとの統合をサポートしており、ユーザーはさらに機能を拡張することができます。
アプリケーション
SpaCyは、リアルタイムのテキスト処理、自動コンテンツ生成、センチメント分析など、大規模なNLPタスクのための商用環境で広く使用されています。
一般的に、エンティティ認識、品詞タグ付け、係り受け解析などのタスクに適用され、大規模なテキストデータセットの構造化と理解を支援します。
SpaCyは非構造化テキストから構造化データを抽出するのに便利で、例えば名前、日付、その他のエンティティをドキュメントから抽出することができます。
利点
大量のテキストを迅速かつ効率的に処理できるように設計されている。
他の Python ライブラリやフレームワークとシームレスに統合できるため、様々な用途に対応可能。
包括的でわかりやすいドキュメントと多数の例題とチュートリアルにより、ユーザが迅速かつ効率的に使い始めることができます。
以下は、SpaCyを素早く使い始める方法です。
インポートスパシー
# spaCyモデルをロードする
nlp = spacy.load('en_core_web_sm')
# サンプル文を処理する
text = "spaCyによる自然言語処理は効率的です。"
doc = nlp(text)
# トークンを抽出
tokens = [token.text for token in doc] # トークンを抽出する。
print(tokens)
3.## TensorFlow テキスト
TensorFlow Textは、TensorFlow上に構築された専用ライブラリであり、様々なNLPタスクを扱うために設計されています。TensorFlowの堅牢な機械学習機能を活用し、複雑なNLPモデルの構築とトレーニングのための最先端のツールを提供します。
主な機能
テキスト分類、翻訳、感情分析のモデルを構築し、トレーニングするための包括的なツールを提供します。
微調整が可能な事前学習済みモデルを提供するほか、ゼロからのカスタムモデル学習も可能です。
TensorFlowのエコシステムとシームレスに統合し、機械学習とニューラルネットワークの機能を活用。
シーケンス間モデリング、トランスフォーマ、BERTなどの高度なNLP機能をサポート。
アプリケーション
ニューラル機械翻訳、質問応答、テキスト要約、感情分析、エンティティ認識、言語生成などの NLP タスクのための高度なディープラーニングモデルの開発と展開に最適です。
TensorFlowの柔軟性とパワーを活用して、新しいモデルやアルゴリズムを開発するための高度な研究で頻繁に使用されます。
利点
TensorFlowの強力な機械学習フレームワークを活用し、高いパフォーマンスとスケーラビリティを実現。
広範なカスタマイズオプションを提供し、ユーザはモデルやワークフローを特定のニーズに合わせてカスタマイズできる。
TensorFlowの大規模なコミュニティと、ドキュメント、チュートリアル、フォーラムなどの広範なリソースに支えられ、あらゆるレベルのユーザを強力にサポートします。
以下は、TensorFlowをすぐに使い始める方法です。
import tensorflow as tf
import tensorflow_text as text # テキスト処理用の TF ops をインポートする。
# テキストベクタライズレイヤーを作成する
vectorize_layer = tf.keras.layers.TextVectorization(output_mode='int', output_sequence_length=10)
# データの例
text_data = ["TensorFlow NLPはテキスト処理を簡単にします。"] # サンプルデータ
# レイヤーをデータにフィットさせる
vectorize_layer.adapt(text_data)
# テキストデータをベクトル化する
vectorized_text = vectorize_layer(text_data)
print(vectorized_text)
4.## ハグ顔トランスフォーマー
Hugging Face Transformersは人気のあるオープンソースライブラリで、NLPタスクのための様々な事前訓練された変換モデルへのアクセスを提供する。使いやすさと高価なモデルのコレクションで高く評価されている。
主な特徴
BERT、GPT-2、T5など幅広いトランスモデルを収録。
膨大なデータセットで事前にトレーニングされたモデルを提供するため、ユーザーは最小限の追加トレーニングでモデルを適用できます。
TensorFlowやPyTorchのような一般的なフレームワークと簡単に統合できるため、柔軟な導入が可能。
トランスフォーマーモデルのロード、微調整、使用を簡素化するユーザーフレンドリーなAPIを提供します。
アプリケーション
GPT-2のようなモデルは、首尾一貫した文脈に関連したテキストを生成します。これは、チャットボットやコンテンツ作成などのアプリケーションで役立ちます。
T5のようなモデルは、異なる言語間のテキスト翻訳に使用できます。
Transformerモデルは、長い文書の簡潔な要約を生成できるため、情報検索やコンテンツ集約に役立ちます。
事前に訓練されたモデルは、文脈に基づいて質問に答えるように微調整することができ、インテリジェントな検索エンジンやバーチャルアシスタントの構築に役立つ。
利点
シンプルなAPIにより、最小限のNLP経験者でも簡単に高度なモデルを実装できる。
訓練済みモデルの豊富なコレクションは、幅広いタスクと言語をカバーし、多様なNLP課題に対してすぐに使えるソリューションを提供します。
Hugging Faceには活気あるコミュニティがあり、チュートリアルやサンプルプロジェクトを含む豊富なドキュメントが用意されているため、素早い学習やトラブルシューティングが可能です。
以下はHugging Face Transformersを素早く使い始める方法です。
from transformers import pipeline
# センチメント分析用に事前にトレーニングされたパイプラインをロードする
classifier = pipeline('sentiment-analysis')
# サンプル文を分析する
result = classifier("My experience with Hugging Face Transformers is great.")
print(result)
5.## ジェンシム
Gensimは文書の類似性を分析し、トピックモデリングを行うPythonライブラリである。大規模なテキストデータセットの処理における効率性とスケーラビリティで知られている。
主な機能
Word2Vec、FastText、Doc2Vecのようなよく知られたアルゴリズムを実装し、単語の埋め込みを作成し、テキストを分析します。
コーパスの隠れた主題構造を発見するために、LDA(Latent Dirichlet Allocation)やLSI(Latent Semantic Indexing)などのテクニックをサポート。
文書間の意味的類似度を測定するツールを提供し、クラスタリングや推薦システムを支援する。
大規模なコーパスを効率的に処理するように最適化されており、ビッグデータアプリケーションに適している。
アプリケーション
コンテンツの分類、傾向分析、情報検索に役立ちます。
検索エンジン、レコメンデーションシステム、クラスタリングタスクに役立ちます。
単語の密なベクトル表現を生成し、センチメント分析や機械翻訳などの様々なNLPタスクのための意味的関係をキャプチャします。
要約、キーワード抽出、その他のテキスト分析タスクを容易にします。
利点
パフォーマンスに最適化されており、大規模なデータセットを迅速かつ効果的に処理できる。
速度を犠牲にすることなく、大規模なテキストコーパスを処理できるように設計されています。
ユーザーフレンドリーなインターフェースと包括的なドキュメントにより、初心者でも経験豊富なユーザーでも利用可能。
Gensimをすぐに使い始める方法をご紹介します。
from gensim.models import Word2Vec
# サンプルデータ
sentences = [["Gensim", "is", "a", "library", "for", "topic", "modeling"]、
["It", "supports", "Word2Vec", "FastText", "and", "Doc2Vec"]]。
# Word2Vecモデルを学習する
model = Word2Vec(sentences, vector_size=100, window=5, min_count=1, workers=4)
# 単語のベクトルを取得
vector = model.wv['Gensim'].
print(vector)
6.## OpenNLP
OpenNLPはApacheのプロジェクトで、自然言語テキストを処理するための機械学習ベースのツールキットを提供している。様々な自然言語処理タスクを効率的に処理するための包括的なツールセットを提供している。
主な機能
テキストを単語やフレーズなどの個々のトークンに分割します。
テキスト内の品詞を識別してタグ付けし、文法分析を容易にします。
テキスト内の名前、日付、場所などのエンティティを検出して分類します。
文の構文構造を分析し、文法的関係を理解する。
文章中の異なる表現が同じエンティティを指していることを識別し、文章理解を深める。
応用
構造化されていないテキストから構造化された情報を抽出する。
要約、翻訳、質問応答など様々なタスクで使用される。
トークン化、タグ付け、構文解析などのタスクを実行することで、機械学習モデル用に生のテキストデータを準備する。
利点
大規模で複雑なテキストデータを処理するように設計されており、さまざまな NLP タスクで信頼性の高いパフォーマンスを保証します。
他の Apache ツールやライブラリとうまく統合されており、より広範なデータ処理パイプラインでの機能性と使いやすさを高めている。
モジュール設計により、ユーザーはニーズに合わせてツールキットを拡張、カスタマイズできる。
OpenNLPを素早く使い始める方法をご紹介します。
import opennlp.tools.sentdetect.SentenceDetectorME;
import opennlp.tools.sentdetect.SentenceModel;
import java.io.FileInputStream;
import java.io.InputStream;
// 文検出モデルをロードします。
InputStream modelIn = new FileInputStream("en-sent.bin");
SentenceModel model = new SentenceModel(modelIn);
// 文検出器を作成する
SentenceDetectorME sentenceDetector = new SentenceDetectorME(model);
// サンプルテキストから文を検出
String sentences[] = sentenceDetector.sentDetect("OpenNLPは素晴らしい。 文の検出に役立ちます。");
for (String sentences : sentences) { 文を検出します。
System.out.println(sentence);
}
7.## アレン自然言語処理
AllenNLPは、深層学習ベースの自然言語処理に特化して設計されたオープンソースのライブラリである。Allen Institute for AIによって開発され、最先端の自然言語処理モデルの作成、評価、導入に必要なツールを研究者や開発者に提供している。
主な機能
バックエンドにPyTorchを採用し、ディープラーニングモデルの開発に柔軟性と使いやすさを提供。
テキスト分類、名前付きエンティティ認識、機械翻訳などの一般的な NLP タスクに対して高レベルの抽象化を提供し、モデル開発を簡素化します。
高度にカスタマイズできるように設計されているため、ユーザーは特定のニーズに合わせてコンポーネントを変更したり拡張したりすることができます。
訓練済みモデルとモデル・アーキテクチャのコレクションが含まれているため、迅速な実験とプロトタイピングが可能。
アプリケーション
新しい自然言語処理モデルやアルゴリズムを開発・テストするために、学術研究や産業研究で広く使用されています。
ユーザーフレンドリーな設計と包括的なツールセットにより、自然言語処理における新しいアイデアやアプローチを迅速にプロトタイピングするのに理想的です。
さまざまな自然言語処理タスクにおけるモデルのパフォーマンスを評価するツールを提供し、ロバストで信頼性の高い結果を保証します。
利点
高度なカスタマイズが可能なため、ユーザーはライブラリを特定の要件に合わせたり、他のツールやライブラリと統合したりすることができます。
活発なコミュニティと、チュートリアルやサンプルプロジェクトを含む豊富なドキュメントに支えられ、学習やトラブルシューティングを支援。
PyTorchとのシームレスな統合により、その強力なディープラーニング機能と広範なエコシステムを活用。
AllenNLPを素早く使い始める方法をご紹介します。
from allennlp.predictors.predictor import Predictor
import allennlp_models.structured_prediction
# 意味役割ラベリングのために事前に訓練されたモデルをロードする
predictor = Predictor.from_path("https://storage.googleapis.com/allennlp-public-models/bert-base-srl-2020.03.24.tar.gz")
# サンプル文を分析する
result = predictor.predict(sentence="AllenNLP はディープラーニングベースの NLP 用に設計されています。")
print(result)
8.## テキストブロブ
TextBlobはテキストデータを処理するためのシンプルなライブラリで、一般的なNLPタスクのための使いやすいAPIを提供するように設計されている。特に初心者の方や、NLPアプリケーションのプロトタイピングを素早く行うのに適しています。
主な機能
テキスト中の品詞の識別や、主語や目的語を理解するのに役立つテキストからの名詞句の抽出など、さまざまな NLP タスクを実行するためのわかりやすく使いやすい API を提供します。
テキストを調べてセンチメントを識別し、肯定的、否定的、中立的のいずれかに分類します。
テキスト分類のためのツールを提供し、テキストを事前に定義されたラベルに分類する。
異なる言語間の翻訳をサポートします。
アプリケーション
様々なテキスト処理タスクのわかりやすい入門書を提供し、NLP概念の教育や学習に最適です。
センチメント分析、タグ付け、翻訳など、プロトタイピングを使用したシンプルで迅速なテキスト分析タスクに適しています。
利点
直感的で使いやすく設計されているため、初心者でも利用しやすい。
NLPアプリケーションの迅速な開発とテストを可能にし、実験と学習を容易にします。
TextBlobをすぐに使い始める方法をご紹介します。
from textblob import TextBlob
# TextBlobオブジェクトを作る
text = "TextBlobはNLPタスクを簡素化します。"
blob = TextBlob(text)
# センチメント分析を行う
sentiment = blob.sentiment
print(sentiment)
9.## CoreNLP
CoreNLPはStanford Universityが提供する自然言語処理ツールの包括的なスイートである。自然言語テキストを処理するための様々なツールを提供しており、その高い精度と堅牢な性能で知られている。
主な機能
文の文法構造を解析する構文解析ツールを提供。
テキストを評価してセンチメントを分類し、ポジティブ、ネガティブ、ニュートラルのカテゴリーに分類します。
名前、日付、場所など、テキスト内の名前付きエンティティを識別および分類する。
テキスト内の単語をそれぞれの品詞でタグ付けします。
テキスト内のどの単語が同じエンティティを参照しているかを判断し、テキストの理解を促進します。
単語を基本形または語根形に変換します。
アプリケーション
NLP や計算言語学の研究を行う学術的な場面で広く使用されています。
センチメント分析、情報抽出、テキスト要約など、様々な産業における大規模なテキスト処理タスクに適しています。
利点
様々なNLPタスクにおいて、正確で信頼性の高いパフォーマンスで知られています。
大規模なデータセットを効率的に処理できるため、研究用途と産業用途の両方に適しています。
スタンフォード大学によって開発・保守されているため、NLP研究の最新の進歩に対応しています。
CoreNLPをすぐに使い始める方法をご紹介します。
from stanfordcorenlp import StanfordCoreNLP
# StanfordCoreNLPの初期化
nlp = StanfordCoreNLP(r'/path/to/stanford-corenlp-full-2018-10-05')
# サンプル文を分析する
sentence = 'CoreNLPは正確で堅牢な自然言語処理ツールを提供する'
トークン = nlp.word_tokenize(sentence)
print(tokens)
# NLP パイプラインを閉じる
nlp.close()
10.## IBM Watson NLP
IBM Watson NLPは、IBMが開発したクラウドベースの自然言語処理プラットフォームである。企業レベルで様々なテキスト処理タスクに対応できるよう設計された、包括的な自然言語処理サービス・スイートを提供する。
主な特徴
複数言語間のテキストを翻訳し、グローバルなコミュニケーションを促進します。
テキストを分析してセンチメントを判断し、肯定的、否定的、中立的に分類します。
個人、組織、場所など、テキスト内の名前付きエンティティを検出し、分類します。
テキストを話し言葉に変換します。
特定のビジネスニーズに合わせたカスタムNLPモデルのトレーニングが可能。
他の IBM Cloud サービスとシームレスに統合し、機能を強化します。
アプリケーション
顧客サービス、自動サポート、コンテンツ管理などのアプリケーションに堅牢な NLP 機能を必要とする大規模組織に最適です。
多言語カスタマーサポートやグローバルコミュニケーションソリューションを提供する企業で使用されています。
利点
大量のデータを処理できるように設計されているため、エンタープライズ規模のアプリケーションに適しています。
企業専用のサポートとリソースを提供し、信頼性とパフォーマンスを保証。
広範なカスタマイズオプションを提供し、企業が特定のニーズに合わせてNLPモデルをカスタマイズできるようにします。
クラウドベースであるため、アクセスや統合が容易で、複雑なオンプレミスのセットアップの必要性を低減します。
IBM Watson NLPを素早く使い始める方法をご紹介します。
インポート json
from ibm_watson import NaturalLanguageUnderstandingV1
from ibm_watson.natural_language_understanding_v1 import Features, SentimentOptions
# IBM Watson NLP を初期化する
nlu = NaturalLanguageUnderstandingV1(
version='2019-07-12',
iam_apikey='YOUR_API_KEY'、
url='YOUR_SERVICE_URL'
)
# サンプル文を分析する
response = nlu.analyze(
text='IBM Watson NLPは非常にスケーラブルで、素晴らしいエンタープライズ・サポートを提供しています'、
features=Features(sentiment=SentimentOptions())
).get_result()
print(json.dumps(response, indent=2))
以下の表は、言語サポート、オープンソースかどうか、ライセンス、価格に基づいて、すべてのツールとプラットフォームを比較するための簡単な洞察を提供します。
ツール** | 言語サポート | オープンソース | ライセンス | コスト |
NLTK (Natural Language Toolkit) | Python | はい | Apache 2.0 | 無料 |
spaCy|Python|はい|MIT|無料||NLTK(自然言語ツールキット | ||||
TensorFlow NLP|Python(TensorFlowをベースに構築)|はい|Apache 2.0|無料|NLTK(自然言語ツールキット | ||||
Gensim|Python|はい|Apache 2.0|無料|Hugging Face Transformers|ハギング・フェイス・トランスフォーマー | ||||
Gensim|Python|はい|LGPL|フリー | ||||
OpenNLP|Java|はい|Apache 2.0|フリー|Gensim|Python|はい|LGPL|フリー | ||||
AllenNLP|Python(PyTorchで構築)|はい|Apache 2.0|フリー|Gensim|LGPL|フリー | ||||
TextBlob|Python|はい|MIT|無料|CoreNLP|Java|はい|Apache 2.0|無料 | ||||
CoreNLP|Java|はい|GPL|フリー | ||||
IBM Watson NLP|各種|なし|専有|1項目あたり0.003ドルから |
表:NLPツールとプラットフォームの比較トップ10
Zillizはどのように自然言語処理を支援しますか?
開発者は、自然言語処理(NLP)をベクトルデータベースで変革しています。このデータベースは、NLPモデルが生成したベクトル埋め込みの効率的な保存と検索を可能にします。この技術革新は、意味的類似性に基づいて、類似した文書、フレーズ、単語を見つけることを簡単にします。
ベクトルデータベースのもう一つの一般的な使用例は、RAG(Retrieval Augmented Generation)である。これは大規模言語モデル(LLM)の幻覚の問題に対処する技術である。これらのモデルは通常、一般に公開されているデータで学習され、ドメイン固有または独自の情報が欠けている場合がある。開発者は、このような特殊なデータをMilvusのようなベクトルデータベースに格納し、類似検索を実行して上位K個の関連する結果を見つけ、これらの結果をLLMに送り込むことができる。このアプローチは、LLMが一般的な情報とドメイン固有の情報の両方に基づいて正確な応答を生成することを保証する。
したがって、Milvusを活用することで、開発者はNLPアプリケーションの機能を強化し、より正確で文脈に関連した出力を保証することができる。
開発者はベクトル・データベースを統合することで、自然言語処理(NLP)を変革している。この技術は、NLPモデルによって生成されたベクトル埋め込みの効率的な保存と検索を可能にし、意味的類似性に基づく類似文書、フレーズ、単語の識別を容易にする。
ベクトルデータベースの著名な応用例として、大規模言語モデル(LLM)における幻覚の問題に対処する技術である検索拡張生成(RAG)がある。LLMは多くの場合、一般に公開されているデータで学習され、ドメイン固有の情報や独自の情報を含まないことがある。このような特殊なデータをMilvusのようなベクトルデータベースに格納することで、開発者は類似検索を行い、上位K個の関連する結果を取得し、LLMに入力することができる。これにより、LLMは一般的な情報とドメイン固有の情報を組み合わせることで、正確で文脈に関連した応答を生成することができます。
図- RAGチャットボットを促進するベクトルデータベース](https://assets.zilliz.com/Figure_Vector_database_facilitating_RAG_chatbot_1a87eb1206.png)
Milvusとベクターデータベースについて詳しくはこちらのビデオをご覧ください。
結論自然言語処理(NLP)ツールとプラットフォームは、様々なテキスト処理タスクの効率と効果を高める上で極めて重要である。NLTKやspaCyからIBM WatsonやHugging Face Transformersに至るまで、各ツールは教育目的、研究目的、または大規模な産業アプリケーションのいずれであっても、特定のニーズに合わせた独自の機能と利点を提供しています。これらのツールの中でも、Milvusのようなベクトルデータベースを統合することで、ベクトル埋め込みデータの効率的な保存、検索、分析を可能にし、様々な分野を変革することができる。
関連リソース
自然言語処理入門](https://zilliz.com/learn/A-Beginner-Guide-to-Natural-Language-Processing)
自然言語処理のパワーを解き明かす:トップ10の実世界アプリケーション](https://zilliz.com/learn/top-5-nlp-applications)
大規模言語モデルとは何か 開発者のためのリファレンス](https://zilliz.com/glossary/large-language-models-(llms))
ベクトルデータベースとは何か、どのように機能するか](https://zilliz.com/learn/what-is-vector-database)
生成AIリソースハブ|Zilliz](https://zilliz.com/learn/generative-ai)
あなたのGenAIアプリのためのトップパフォーマンスAIモデル|Zilliz](https://zilliz.com/ai-models)
AI、機械学習、ベクターデータベース学習センター ](https://zilliz.com/learn)
RAGとは ](https://zilliz.com/learn/Retrieval-Augmented-Generation)
ベクトルデータベースとは何か、どのように機能するのか ](https://zilliz.com/learn/what-is-vector-database)