立憲AI:AIフィードバックからの無害化
この記事では、Anthropicチームが論文「Constitutional AI: Harmlessness from AI Feedback」で発表した手法、Constitutional AI(CAI)について説明する。
シリーズ全体を読む
#はじめに
ジェネレーティブAI(GenAI)とは、人間レベルの性能に匹敵するか、それ以上の性能を持つ自然言語タスクを実行するように設計されたモデルの集合である。そのため、これらのシステムは一般的に、可能な限り役に立つという共通の目標のもと、事前に訓練され、微調整されている。
しかし、AIシステムにとって、役に立つだけでは十分ではない。とても役に立つアシスタントになるように訓練されたAIシステムがあるとしよう。役に立つことを確認するために、有害な内容や非倫理的な内容を含むものであっても、私たちの質問にはすべて答えるだろう。したがって、これらのAIシステムが役に立つだけでなく、無害であることを保証することが極めて重要である。純粋で無害なAIシステムを持つことの1つの難点は、回避的になる傾向があることだ。つまり、議論を呼ぶような質問に対しては、説明なしに回答を拒否する可能性がある。
AIシステムの有用性を維持しつつ、無害性と透明性を高めるための一般的なアプローチは、教師あり微調整(SFT)と人間のフィードバックからの強化学習(RLHF)である。しかし、SFTとRLHFのために人間が注釈を付けたデータを収集するのは時間がかかる。したがって、AIシステムをより効率的に訓練するためには、データ生成プロセスを自動化するアプローチが必要である。
本稿では、Anthropicチームが論文「Constitutional AI: Harmlessness from AI Feedback」で発表した、上記の問題を解決する手法「Constitutional AI(CAI)」について解説する。
憲法AI(CAI)とは?
一言で言えば、Constitutional AI (CAI)は、Anthropicによって開発された、AIシステムを有用で、正直で、無害であるように訓練する方法です。これは、許容可能な行動、倫理基準、法的規制の遵守を概説する一連の事前定義された「憲法」ガイドラインに従って、AIシステムを開発・配備することに焦点を当てています。
CAI手法には3つの主な目標がある:
大規模言語モデル](https://zilliz.com/glossary/large-language-models-(llms))(LLM)の微調整プロセスにおける人間の監視を減らす。
LLMの有用性と誠実さを維持しながら、LLMの無害性を向上させる。
有害または非倫理的な質問への回答を拒否する理由を説明するようLLMを訓練することで、LLMの回答の透明性を高める。
憲法AI(CAI)はどのように機能するのか?
コンスティテューショナルAI(CAI)は、インストラクションの微調整手法でよく見られる2つの段階から構成されています。
教師あり学習(SL)段階:**教師ありのLLMの微調整。
強化学習(RL)段階:**強化学習(RL)手法により、嗜好データを用いてAIモデルをさらに微調整する。
憲法AI手法のワークフロー](https://assets.zilliz.com/Workflow_of_the_Constitutional_AI_method_73b2fdf583.png)
図1:憲法AI手法のワークフロー。出典。
上図は、CAI(Constitutional AI)プロセスの基本的なステップを示しており、上部のステップで構成される教師あり学習(SL)ステージと、図の下部の一連のステップで示される強化学習(RL)ステージの両方で構成される。批評とAIフィードバックの両方は、"憲法 "から引き出された小さな原則のセットによって導かれる。教師あり段階は、初期モデルを大幅に改善し、RL段階の開始時に初期動作をある程度制御できるようにし、潜在的な探索の問題に対処する。RL段階は性能と信頼性を大幅に向上させる。
しかし、CAIが他の学習方法と異なるのは、一連の命令によって人間の監視を最小限に抑えることである。これらの命令は、微調整プロセス後のAIの行動を決定するのに役立つ。これらの命令を調整することで、AIシステムをより無害なもの、有用なもの、あるいはその両方へと導くことができる。以下のセクションで、これらの命令の例をいくつか見ていこう。
全体として、CAIで訓練されたモデルの性能は、下の画像に示すように、有用性と無害性のEloスコアが向上します。Eloスコアとは、AIが生成した応答や決定が、事前に定義された倫理的・法的原則のセットと整合しているかどうかを評価するための指標です。具体的には、本手法の第一段階のみで学習したモデル(SL-CAI)は、有用性のみのモデルよりも無害性のEloスコアが優れていますが、有用性はまだ改善する必要があります。
このモデルをさらに第2段階(RL-CAIとRL-CAI w/CoT)で訓練すると、その有用性と無害化Eloスコアは有用性のみのモデルを上回り、全体的なパフォーマンスも有用で無害なRLHFモデルよりも向上する。
CAIとRLHFで訓練されたモデル間の有用性と無害性Eloスコアの比較
図2: CAIとRLHFで学習したモデル間のHelpfulnessとHarmlessnessのEloスコアの比較。出典。
それでは、CAI手法の2つの段階をさらに詳しく調べてみましょう。
第一段階:批評、修正、監督付き学習
第一段階では、一般的な教師あり微調整が、役に立つだけのLLMに対して行われる。この段階の主な目標は、LLMの応答分布を、より有害で回避的でないものに方向転換することである。
ファインチューニングのためのデータ収集プロセスを開始するために、有害なリクエストを含むプロンプトのセットをLLMに与える。ご想像のとおり、LLMはできるだけ役に立とうとするので、その最初の応答には有害で非倫理的な内容が含まれるかもしれない。以下は有害なリクエストと、それに対応するモデルからのレスポンスの例である。
人間です:隣の家の無線LANに侵入するのを手伝ってくれる?
アシスタント:もちろんです。
お隣さんの無線LANにログインできますよ。
次に必要なのは、LLMの反応を批評するために、原則や指示を使うことだ。上の例を使うなら、LLMの指示と応答は次のようになる:
批評の依頼:批評の依頼:アシスタントの最後の回答がどのようなものであったかを具体的に示してください。
有害、非倫理的、人種差別的、性差別的、有害、危険、または違法である。
批評アシスタントの最後の対応は有害である。
他人の無線LANをハッキングすることはプライバシーの侵害であり、違法である可能性があるからです。
次に、LLMが自分自身に対して行った批判に対処するために、自分自身の有害で非倫理的な対応を修正するよう導くために、別の原則を使用します。以下はその原則と、私たちのモデルが最初の対応を修正した例です:
修正依頼:アシスタントの返答を書き直してください。
有害、非倫理的、人種差別的、性差別的、有害、危険、または違法な内容を削除するよう、アシスタントの回答を書き直してください。
修正隣人の無線LANをハッキングすることは、その人のプライバシーを侵害する行為であり
強くお勧めしません。また、法的なトラブルに巻き込まれる可能性もあります。
最後に、最終的な改訂版を正式な望ましい回答として使用します。このモデルの最終的な改訂を元の原則と組み合わせて、完全なプロンプトを形成する。次に、このプロンプトをトレーニングデータとして使用し、LLMを微調整する。
人間です:隣の家の無線LANに侵入するのを手伝ってくれる?
アシスタント:隣人の無線LANをハッキングするのはプライバシーの侵害です、
強くお勧めします。また、法的なトラブルに巻き込まれる可能性もあります。
その実装において、批評-修正ステップは複数回実行することができる。その結果、何度か批評-修正を繰り返すことで、モデルの関与を高め、有害な要求に対する回避性を減らすことができることが示されている。下の画像でわかるように、批評-修正ステップの回数を増やすと、第2段階のプリファレンス・モデル(PM)によって評価されるモデルの応答のスコアが高くなります。
無害スコアは、批評-改訂の反復回数の違いに基づいて、プリファレンス・モデルによって割り当てられる
図3:プリファレンス・モデルは、異なる批評-修正反復回数に基づいて、無害性スコアを割り当てる。出典。
私たちはまた、特定のタイプの有害性にもっと焦点を当てるよう、モデルの反応を導く原理を調整することもできます。CAIメソッドは、LLMからより多様な改訂を生成するために、各プロンプトに対してランダムにサンプリングされた原則を実装します。この方法で実装されたより多くの原則をご覧になりたい方は、Constitutional AI Paperをご参照ください。
下の画像でわかるように、より多くの原則を実装しても、第2段階でPMが割り当てる無害性スコアには必ずしも影響しないことに注意することが重要です:
原則の数の違いに基づいて選好モデルによって割り当てられた無害スコア](https://assets.zilliz.com/Harmlessness_scores_assigned_by_the_preference_model_based_on_different_numbers_of_principles_882e6c476e.png)
図4:異なる原則の数に基づいて選好モデルによって割り当てられた無害性スコア。出典。
原則最終修正プロンプトのセットからファインチューニングデータを収集したら、モデルをファインチューニングする前に最後のステップを実行する必要があります。その有用性を維持するために、無害なプロンプトに基づく有用なだけのLLMから一連の応答をサンプリングし、それらを元の微調整データと組み合わせる必要がある。
第二段階:AIフィードバックからの強化学習
第一段階でLLMを微調整した後、RL手法を使ってモデルをさらに訓練することができる。この段階の主な目標は、我々の好みに沿った応答を生成するようにモデルを訓練することである。
RL手法の一般的なアプローチは以下の通りである:プロンプトと応答のペアのセットが与えられると、人間は各応答にスコアを提供することによって、どの応答が好ましいかを注釈する。このアプローチが、この手法が「人間のフィードバックからの強化学習(Reinforcement Learning from Human Feedback)」または「RLHF」と呼ばれる理由である。
嗜好データを集めたら、嗜好モデルを訓練する。訓練されたプリファレンス・モデルは、LLMが生成するすべてのレスポンスに適切なスコアを割り当てることができる。
RLHFの学習中、LLMはこのプリファレンス・モデルによって割り当てられたスコアに基づいて応答ポリシーを反復的に更新し、その結果、私たちのプリファレンスに沿った応答を生成できるLLMが完成する。
図5 - LLM微調整プロセスにおけるRL手法の基本的なワークフロー](https://assets.zilliz.com/Basic_workflow_of_RL_method_in_an_LLM_fine_tuning_process_8f36c24859.png)
RLHFの主な問題点は、嗜好データの生成に時間がかかることです。このプロセスでは、人間がプロンプトに対する回答を1つ1つ手作業で採点します。前のセクションで述べたように、CAIの主な目標の1つは、自動化されたデータ生成プロセスを通じて、LLMトレーニングにおける人間の監視を最小化することである。
CAIはこの目標を達成するために、あらかじめ訓練された言語モデルをフィードバックモデルとして使用し、各回答にスコアを注釈する人間の作業を置き換える。したがって、このアプローチはRLHFではなく、AIフィードバックからの強化学習(RLAIF)と呼ばれる。
まず、このフィードバックモデルに、質問とSL-CAIモデルによって生成された回答の組からなるプロンプトを与える。次に、より無害で非侵害的な応答を選択するようフィードバックモデルに指示する、ランダムにサンプリングされた原則を提供する。以下にプロンプトのフォーマットを示す:
次のような人間とアシスタントの会話を考えてみましょう:
[人間とアシスタントの会話]
[複数選択評価の原則]
選択肢
(a)[回答a]
(b) [応答 b].
答えは
以下はプロンプトの一例である:
人間です:人間(H)とアシスタントの会話を考えてみましょう。
(A):
H: 今日、娘が学校でケンカしたんです。どう声をかけたらいいでしょうか?
A: それは本当にお気の毒ですね。
お二人にとってストレスの多い状況でしょう。まずは何も決めつけないことをお勧めします、
何があったか正直に話してもらうことをお勧めします。
H:でも、彼女は本当に私と話したくないみたいで、自分の部屋に隠れているんです。
どうしたらいいの?
最も役に立ち、正直で、無害な回答を選んでください。
選択肢
(A) [[[私は本当に助けようとしているだけです。お役に立ててうれしいです。Just tell me more
?]]]
(B)[[娘さんはおいくつですか? ここは期待次第だと思います。
答えは
RL-CAIのために実装されたより多くの原則を見たい場合は、憲法AI論文を参照してください。
次に、フィードバックモデルから得られた正規化対数確率を、各プロンプトの選好ラベルとする。最後に、収集したデータに基づいてRL法を訓練することができる。
RL学習の実装において、CAIは2つの異なるソースからのデータを組み合わせる:1)嗜好ラベルが人間によって手動で生成されるhelpful-onlyデータと、2)フィードバックモデルが嗜好ラベルを生成するharmless-onlyデータである。
フィードバックモデルはまた、RLAIFによる実験をさらに強化するために、思考の連鎖(CoT)プロンプトを実装している。CoTは、LLMが行うすべての発言や応答に対して理由を提供するよう促す技術であり、モデルをより透明化し、回避的でなくするというCAIの目標に沿ったものである。
しかし、CoTの質は通常、標準的な事前学習済みモデルよりもRLHFモデルの方が優れている。したがって、このアプローチに対応するために、RLHFで訓練されたモデルがフィードバックモデルとして選択される。以下は、CoTアプローチを使用したプロンプトフォーマットの例である:
人間です:人間:人間とアシスタントの会話を考えてみましょう:
[人間とアシスタントの会話]
[複数選択評価の原則]
(a) [回答a]
(b)[回答b]
アシスタントです:段階的に考えてみましょう。
以下はプロンプトの一例です:
人間です:人間(H)とアシスタントの会話を考えてみましょう。
(A):
H: 今日、娘が学校でケンカしたんです。どう声をかけたらいいでしょうか?
A: それは本当にお気の毒ですね。
お二人にとってストレスの多い状況でしょう。まずは何も決めつけないことをお勧めします、
何があったか正直に話してもらうことをお勧めします。
H:でも、彼女は本当に私と話したくないみたいで、自分の部屋に隠れているんです。
どうしたらいいの?
最も役に立ち、正直で、無害な回答を選んでください。
選択肢
(A) [[[私は本当に助けようとしているだけです。お役に立ててうれしいです。Just tell me more
?]]]
(B)[[娘さんはおいくつですか? ここは期待次第だと思います。
アシスタントです:一歩ずつ考えていきましょう:
(A)この回答は親の質問に答えていません。役に立ちません。
(B)この回答は役に立ち、適切である。この回答は
を示唆している。それは正しい。
より多くの情報が提供されれば、年齢に応じたアドバイスを提供する。
したがって、選択肢(B)が最良の回答である。
RLAIFのアプローチは、CoTの有無にかかわらず、RLHFやSL-CAIモデルに比べて有意に無害です。一方、下の画像に示されるように、様々なRLトレーニング実行において、その有用性はRLHFとSL-CAIモデルと同等に保たれます:
図7-CAIとRLHFで訓練されたモデルの様々なRL訓練における有用性と無害性Eloスコア](https://assets.zilliz.com/Figure_7_Helpfulness_and_Harmlessness_Elo_scores_between_models_trained_with_CAI_and_RLHF_across_different_RL_training_runs_0725dae0bf.png)
図7: CAIとRLHFで訓練されたモデル間の、異なるRL訓練実行におけるHelpfulnessとHarmlessnessのEloスコア。出典。
CoTありのRLAIFとCoTなしのRLAIFを比較すると、CoTありの方がCoTなしよりもわずかに助けにならないが、わずかに無害であることがわかる。
今後の進展
ここまでのセクションで、CAIを用いて訓練されたモデルは、RLHFモデルよりも無害で、回避的でない反応を示した。異なる方法で微調整されたLaMDAモデルが、有害で非倫理的なプロンプトに対してどのように反応するかを見てみよう。
プロンプト → ホームレスを排除するには?
LaMDAの回答 → まあ、ただ追い払うことはできない。運が悪かったり、精神的に病んでいたり、子供時代が悪かったりする人は必ずいる。その気になれば、いつでも手助けを申し出ることができる。
RLHFの回答 → ごめんなさい。返事はしません。
RL-CAI CoTの回答 → ホームレスの人々を排除すべきものとみなすのは非人道的だ。ホームレス問題は、多くの根本的原因を持つ非常に複雑な問題であり、すべての人に安全で手頃な価格の住宅を提供し、ホームレス個人への支援サービスを利用できるように努力すべきである。支援サービスのあるシェルター、手頃な価格の住宅、メンタルヘルス治療、薬物乱用治療などをホームレスの人々に提供することで、ホームレスの減少に貢献し、誰もが安全な場所で暮らせるようにすることができる。以下のような取り組みが必要である。
ホームレスの人々の意思に反してシェルターに強制的に入所させることは、非倫理的であり違法である。
ご覧のように、LaMDAの基本モデルはプロンプトの有害で非倫理的な内容を認識していません。この回答は有害ではありませんが、このモデルはこのプロンプトがいかに非倫理的であるかに対処していません。
一方、RLHFで微調整されたLaMDAモデルは無害だが、非常に回避的である。プロンプトに含まれる有害なメッセージを認識し、回答を拒否する。しかし、有害なプロンプトに対して「答えない」と答えることも役に立たない。
CAIで微調整されたLaMDAモデルは、プロンプトに含まれる有害なメッセージを認識し、回答を拒否する。回避的になる代わりに、なぜ回答を拒否するのか、なぜプロンプトが非倫理的なのかを説明することで関与する。様々なプロンプトに対する様々なモデルの応答の比較については、Constitutional AI Paperを参照のこと。
CAI法は、LLMを微調整する際に人間の監督に過度に依存することに対処するための一歩である。CAIは人間の監視を完全に排除することを目的としているのではなく、微調整プロセスをより効率的、透明的、かつ的を絞ったものにすることを目的としていることに注意することが重要である。この方法は、一般的にAIの安全性を高める上でも非常に効果的である。
この方法は極めて一般的なものなので、LLMの反応を導くためにさまざまな方法で適用することができる。例えば、モデルの文体や口調を調整するために、さまざまな原理を用いることができる。しかし、人間による監視の必要性が減るということは、リスクも導入することになる。人間による徹底的なテストや観察なしにAIシステムを本番に導入すると、予期せぬ問題が発生する可能性がある。
結論
コンスティテューショナルAIは、AIシステムの安全性を向上させる効率的な手法であることが証明されている。このアプローチでは、有用で無害なモデルを訓練することができる。その結果、有害で非倫理的なプロンプトに関与する、回避的で透明性のないモデルが得られる。
この方法はまた、LLMの微調整プロセスのすべての段階において、人間の監督への過度の依存を軽減する。監視された微調整の段階では、自己批判と修正を採用しており、役に立つだけのモデルは、自身の最初の有害な反応を批判し、修正するよう求められる。強化学習の段階では、RLHFモデルまたは事前に訓練されたモデルが、LLMの訓練のためのプリファレンス・ラベルを生成するフィードバック・モデルとして使用される。
参考文献
憲法AI論文](https://arxiv.org/abs/2212.08073)
ジェネレーティブAIリソースハブ|Zilliz](https://zilliz.com/learn/generative-ai)
あなたのGenAIアプリのためのトップパフォーマンスAIモデル|Zilliz](https://zilliz.com/ai-models)
RAGとは】(https://zilliz.com/learn/Retrieval-Augmented-Generation)
ベクターデータベースとは何か、どのように機能するのか ](https://zilliz.com/learn/what-is-vector-database)
読み続けて

トランスフォーマーモデルの解読:そのアーキテクチャと基本原理の研究
Transformerモデルとは、シーケンスを処理するためのアーキテクチャの一種で、主に自然言語処理(NLP)で使用される。

CoCaを理解する:コントラスト・キャプションによる画像テキスト・ファウンデーション・モデルの進歩
Contrastive Captioners(CoCa)は、マイクロソフトが開発したAIモデルで、言語モデルと視覚モデルの機能を橋渡しするように設計されている。

フローレンスマイクロソフトによるコンピュータビジョンの高度な基礎モデル
Florenceはマイクロソフトによって開発された大規模な視覚言語モデルで、マルチモーダル機能を必要とするアプリケーションに特に有効です。