バックプロパゲーションとは?

バックプロパゲーションとは?
♪ ニューラルネットワークにおけるバックプロパゲーション
最近サンフランシスコを歩いていると、WaymoやZooxの自律走行車が街を走っているだけでなく、昼夜を問わず乗客を送迎していることに気づくだろう。これらの車両は、交通ルールを丁寧に守り、他の車との衝突事故を避け、混雑する時間帯には人ごみの中をなんとか移動している。このような光景に慣れていない人々にとって、このような車の軍団が仕事をしているのを見るのは驚くべきことである!
サンフランシスコの自律走行車](https://assets.zilliz.com/Autonmous_Car_5cf0dc5f5a.jpg)
バックプロパゲーションと呼ばれる機械学習のプロセスによって、これらの車両はこのような複雑な状況をナビゲートすることができる。しかし、バックプロパゲーションとはいったい何なのだろうか?
バックプロパゲーションの核心は、ニューロンの出力を決定する活性化関数に大きく依存する、人工ニューラルネットワークの非常に効率的な学習メカニズムである。初心者のドライバーが市街地のナビゲーションを学習しているところを想像してみてほしい。最初は、急ブレーキ、急旋回、距離の見間違いなどのミスを犯すかもしれない。ミスをするたびに行動を調整し、徐々にスキルを向上させていく。バックプロパゲーションはこれと似たような働きをするが、そのスピードは非常に速く、数学的な精度も高い。
機械学習では、バックプロパゲーションは舞台裏の教師であり、AIシステムの意思決定プロセスを常に微調整している。入力データは学習過程でニューラルネットワーク・モデルの各層を流れ、ニューラルネットワークの学習とエラー調整プロセスのパフォーマンスと効率に影響を与える。この技術は自動運転車に限った話ではなく、私たちが日常的に遭遇する多くのAIアプリケーションを支える秘密のソースである。私たちのアクセントを理解する音声アシスタントから、私たち以上に私たちの好みを理解しているように見える推薦システムまで、すべてモデルの予測を生成する出力層のおかげである。
この投稿では、バックプロパゲーションの隠れ層を剥がし、それがどのように生のデータをインテリジェントな判断に変換するのかを探る。数式に惑わされることなく数式を分解し、あなたが共感できる実用的な例を通して説明し、Pythonを使ってこの強力なテクニックを実装する方法まで紹介します。
あなたがデータサイエンティストを目指す人であれ、好奇心旺盛な技術愛好家であれ、あるいは単に私たちを取り巻くAI革命に魅了されている人であれ、バックプロパゲーションを理解することで、現代のAIの仕組みについて貴重な洞察を得ることができるだろう。それでは、機械学習の核心に迫ってみよう。そこでは、数字がニューロンで踊り、私たちの世界を形作るインテリジェントなシステムを作り出す。
バックプロパゲーション・アルゴリズムとは?
バックプロパゲーションは、多くのAIアプリケーションの主力であるフィードフォワード・ニューラル・ネットワークの学習に欠かせないバックプロパゲーション・アルゴリズムである。
バックプロパゲーションは、データ駆動型の改良を得意とする容赦ないコーチだと考えてほしい:フィードフォワード・ニューラル・ネットワークは、学習中にリカレント・バックプロパゲーションを利用して重みとバイアスを調整し、最適なパフォーマンスを確保する。
フィードフォワード・ニューラル・ネットワークは、学習中にリカレント・バックプロパゲーションを利用して重みとバイアスを調整し、最適なパフォーマンスを確保する。各トレーニングラウンド(エポックと呼ばれる)で、バックプロパゲーションはネットワークのパフォーマンスを分析し、正確な調整を行う。これは、コーチが各プレーの後に試合映像を確認し、リアルタイムで戦略を微調整するようなものだ。
アルゴリズムの目標は?コスト関数」を最小化し、AIの予測と現実のギャップを小さくすること。これは、ネットワークの内部パラメーター(重みとバイアス)を微調整することによって行われ、エンジンのさまざまなコンポーネントを最適なパフォーマンスに調整するメカニックのようなものだ。
バックプロパゲーションは、洗練された最適化技術を採用しており、一般的には勾配降下法(gradient descent)、またはそれに近い確率的勾配降下法(stochastic gradient descent)を採用している。これらの手法は、ネットワークが複雑な解の可能性をナビゲートし、常にパフォーマンスを向上させる方向に進むのを助ける。
バックプロパゲーションの核心は、微積分の基本原理である連鎖法則を活用することである。この数学的ツールにより、アルゴリズムはニューラルネットワークの複雑なレイヤーを横断し、各コンポーネントが全体的なエラーにどのように寄与するかを決定することができる。これは川を源流までさかのぼり、それぞれの支流が本流にどのような影響を与えるかを理解するのに似ている。
反復学習、賢い最適化、数学的精度を組み合わせることで、バックプロパゲーションはニューラルネットワークを静的な構造から動的で自己改善的なシステムへと変える。単に予測をするだけでなく、より良い予測をするために常に進化し、人工知能が達成できる限界を押し広げるのだ。
ニューラルネットワークのバックプロパゲーション](https://assets.zilliz.com/Backpropagation_of_neural_networks_277b9bfdb2.jpg)
バックプロパゲーションのアルゴリズム
数学的には、バックプロパゲーションは微積分と最適化の高度なダンスである。その核心は、ニューラルネットワークのパラメーターの変化がその全体的なパフォーマンスにどのように影響するかを理解することである。このプロセスは、ネットワークの予測と実際の結果の差を定量化する損失関数から始まる。この関数はコンパスの役割を果たし、ネットワークをより良いパフォーマンスへと導く。フィードフォワードプロセスは、各ニューロンが重みとバイアスを適用した後、活性化関数を介して結果を渡すことで、ネットワークを通じてデータをプッシュする。
バックプロパゲーションは偏導関数を計算し、それぞれの重みとバイアスが全体の誤差にどのように寄与するかを決定する。微積分の基本原理である連鎖律は、勾配を計算する複数の層にわたってこれらの微分を効率的に計算することを可能にする。重要なハイパーパラメータである学習率は、これらの計算に応じてネットワークがどの程度の速さでパラメータを調整するかを制御する。高すぎるとネットワークは最適なコンフィギュレーションをオーバーシュートし、低すぎると学習がひどく遅くなる。このプロセス全体は反復的であり、各エポック(トレーニングデータをフルパスすること)ごとにネットワークのパラメーターが改良される。時間の経過とともに、この数学的機械がネットワークを損失関数を最小化する構成に向かわせ、AIがますます正確な予測をするように効果的に学習させる。
バックプロパゲーション・アルゴリズムを理解する
バックプロパゲーションは主に2つのフェーズで動作する:
1.フォワードパス:
入力データは入力層を通してネットワークに入る。
後続層の各ニューロンは、入力の加重和を計算し、バイアスを加え、活性化関数を適用する。
各層の出力が次の層の入力となる。
最終層はネットワークの予測を生成する。
2.後方パス:
ネットワークは予測と実際のターゲットの誤差を計算する。
この誤差信号はネットワークを通じて後方に伝搬する。
各ニューロンについて、アルゴリズムは、重みとバイアスを少し調整すると誤差がどのように変化するかを計算する。
これらの計算では、連鎖法則を使用して、各パラメータに対する誤差の勾配を決定する。
誤差が小さくなるように、重みとバイアスが調整される。
**主な構成要素
- 活性化関数:非直線性を導入し、ネットワークが複雑なパターンを学習できるようにする。一般的な選択には、隠れ層にReLU、分類出力にソフトマックスがある。
- 損失関数:予測値と実際の値の差を測定する。回帰では平均二乗誤差がよく使われ、分類ではクロスエントロピーがよく使われる。
- 学習率:重み更新の大きさを決定します。学習速度と安定性のバランスをとるために、慎重なチューニングが必要です。
- チェーン・ルール:複数の層にまたがる効率的な勾配計算を可能にし、ネットワークが最終的な誤差を各パラメーターに帰属させるのを助けます。
バックプロパゲーションの有効性は、多数のパラメーターを同時に調整し、何度も繰り返しながらネットワークの予測値を徐々に向上させる能力から生まれます。
バックプロパゲーション](https://assets.zilliz.com/Group_13530_f98c4fdfd5.png)
バックプロパゲーションの実例
バックプロパゲーションを実際の例で見てみよう。賑やかな街の住宅価格を予測するために、簡単なAIでニューラルネットワークをトレーニングしているとしよう。私たちのニューラルネットワークは、不動産評価のコツを学ぶ新米不動産業者のようなものだ。
まず基本的なネットワーク・アーキテクチャから始める:
入力レイヤー(エージェントの目と耳と考えてください)。
隠れ層(エージェントの脳)。
出力層(最終的な価格見積もり)。
私たちのデータセットは、平方フィート、ベッドルーム数、場所のような特徴を持つ最近の住宅販売のコレクションです。
前方および後方パススルーでは、AIエージェントは家を見る(特徴を入力する)。各特徴がどの程度重要かを最初に推測し(重みを適用)、個人的なカン(バイアス)を加える。いくつかの内部計算(活性化関数)の後、価格予測が生成される。
ここで現実のチェックが行われる。損失関数を用いて、AIの予測の二乗誤差と実際の販売価格を比較する。エージェントが5万ドル過大評価したとしよう!
ここでバックプロパゲーションが働く。これはエージェントのメンターのようなもので、予測が外れた理由を判断する手助けをする。バックプロパゲーションは、意思決定プロセスの各パートがどれだけ誤差に貢献したかを計算します。
この分析に基づいて、重みとバイアスを更新する。例えば、私たちのエージェントは寝室の数を重視しすぎて、立地をあまり重視していなかったかもしれません。これを修正するために小さな調整を行います。
このプロセスを何軒も繰り返します(反復)。私たちのAIエージェントは、予測と修正を繰り返すたびに少しずつ賢くなっていきます。時間が経つにつれて、その予測は実際の販売価格に近づき始める。
トレーニングが終わるころには、AIは新米から経験豊富な不動産鑑定士に変身し、住宅の特徴に基づいて正確な価格予測を行えるようになっている。これがバックプロパゲーションです。継続的な学習と改良により、生のデータを価値ある洞察に変えることができるのです。
クロスエントロピー損失**は、分類モデルの学習に使用されます。これは、正確な損失計算のために数値でエンコードされたラベルを必要とする、実装が簡単な損失関数です。
ニューラルネットワークにおけるバックプロパゲーションの利点
バックプロパゲーションはいくつかの重要な利点があるため、ニューラルネットワークの学習において基本的なアルゴリズムとなっている:
1.アクセシビリティ:このアルゴリズムには広範な数学的素養が必要ないため、機械学習初心者にも親しみやすい。実装が単純なため、デバッグや修正が容易である。
2.汎用性:バックプロパゲーションは様々なネットワーク・アーキテクチャや問題領域に適応する。フィードフォワードネットワーク、畳み込みニューラルネットワーク、リカレントニューラルネットワークに効果的に適用できる。
3.効率的な学習:誤差勾配を直接計算することで、バックプロパゲーションは迅速なウェイト調整を可能にする。この効率性は、複雑な特徴の学習に時間がかかるディープ・ネットワークにおいて特に価値がある。
4.汎化能力:バックプロパゲーションは、反復的なウェイトの更新を通じて、ネットワークがデータの根本的なパターンを識別するのを助ける。これにより、新たな未知の例に対して正確な予測を行うことができるモデルにつながります。
5.スケーラビリティ:バックプロパゲーション・アルゴリズムは、異なるデータセット・サイズとネットワークの複雑さにおいて優れた性能を発揮する。このスケーラビリティにより、小規模な実験と大規模な産業アプリケーションの両方に適している。
これらの利点が、バックプロパゲーションがニューラルネットワークの学習に広く採用される要因となっている。バックプロパゲーションはシンプルさと有効性のバランスが取れているため、様々なアプリケーションで機械学習モデルを開発するための貴重なツールとなっている。
バックプロパゲーションのPythonでの実装
バックプロパゲーションを自分で試すのに役立つ、クールなPythonプロジェクトがたくさんあります。
Pythonでバックプロパゲーションを実装する:ニューラルネットワークをゼロから構築する - Andres Berejnoi
- ブログ](https://medium.com/@andresberejnoi/how-to-implement-backpropagation-with-numpy-andres-berejnoi-e7c14f2e683a#id_token=eyJhbGciOiJSUzI1NiIsImtpZCI6IjQ1MjljNDA5Zjc3YTEwNmZiNjdlZTFhODVkMTY4ZmQyY2ZiN2MwYjciLCJ0eXAiOiJKV1QifQ.eyJpc3MiOiJodHRwczovL2FjY291bnRzLmdvb2dsZS5jb20iLCJhenAiOiIyMTYyOTYwMzU4MzQtazFrNnFlMDYwczJ0cDJhMmphbTRsamRjbXMwMHN0dGcuYXBwcy5nb29nbGV1c2VyY29udGVudC5jb20iLCJhdWQiOiIyMTYyOTYwMzU4MzQtazFrNnFlMDYwczJ0cDJhMmphbTRsamRjbXMwMHN0dGcuYXBwcy5nb29nbGV1c2VyY29udGVudC5jb20iLCJzdWIiOiIxMTYzNTE3ODI0NjM1NzcyOTgwMDIiLCJlbWFpbCI6ImNocmlzLmNodXJpbG9AZ21haWwuY29tIiwiZW1haWxfdmVyaWZpZWQiOnRydWUsIm5iZiI6MTcyMzE4MTkzNiwibmFtZSI6IkNocmlzIENodXJpbG8iLCJwaWN0dXJlIjoiaHR0cHM6Ly9saDMuZ29vZ2xldXNlcmNvbnRlbnQuY29tL2EvQUNnOG9jSTYxYU12cG9ITVdSM2NZeXdMOXcxTXZkM2ZORjY3TlB3RkduQkNvcUtUN0gtd3F2d0M9czk2LWMiLCJnaXZlbl9uYW1lIjoiQ2hyaXMiLCJmYW1pbHlfbmFtZSI6IkNodXJpbG8iLCJpYXQiOjE3MjMxODIyMzYsImV4cCI6MTcyMzE4NTgzNiwianRpIjoiMTc1MmFhNjg2MjBkYmE5YzQ4MGExNWU4MDYwZjg3ZGU4M2UxZDBjMiJ9.TsKPdiNBLBFCdEek6Nc-i5yLVkArKch2P1oXJDRsyD)
バックプロパゲーションの例](https://mattmazur.com/2015/03/17/a-step-by-step-backpropagation-example/)
Pythonでバックプロパゲーションを使ったニューラルネットワークをコーディングする方法(ゼロから)](https://machinelearningmastery.com/implement-backpropagation-algorithm-scratch-python/)
膨大なデータセットのマイニング](http://infolab.stanford.edu/~ullman/mmds/bookL.pdf)
バックプロパゲーションの応用
バックプロパゲーションの影響力は、理論的な機械学習をはるかに超え、我々の日常生活に不可欠となった多数のAIアプリケーションに力を与えている。これらのアプリケーションには以下のようなものがある:
1.自律走行車:WaymoやZooxで前述したように、自動運転車はセンサーデータの解釈、交通パターンの予測、瞬時の判断のためにニューラルネットワークに大きく依存している。バックプロパゲーションは、これらの車両が各走行から学習し、ナビゲーションと安全プロトコルを継続的に改善することを可能にする。
2.医療診断:AIシステムは、X線、MRI、CTスキャンなどの医療画像の解釈において、医療専門家を支援するようになってきている。バックプロパゲーションは、これらのシステムが膨大な医療画像のデータベースから学習することを可能にし、多くの場合、人間の目には見えないような微妙な異常を発見する。
3.自然言語処理:音声アシスタントにとどまらず、バックプロパゲーションは機械翻訳サービス、感情分析ツール、チャットボットに力を与えている。これらのアプリケーションは、書かれたテキストの文脈、ニュアンス、皮肉までも理解することができ、言語の壁を埋め、コミュニケーションを強化する。
4.レコメンデーション・システム:NetflixやSpotifyのようなストリーミング・サービスは、ニューラルネットワークを使って視聴や聴取の習慣を分析し、楽しめそうなコンテンツを提案する。バックプロパゲーションは、これらのシステムがユーザーのインタラクションから学習し、レコメンデーションを継続的に改善するのに役立つ。
5.ロボット工学:製造や研究の現場では、ロボットがニューラルネットワークを使って、正確な組み立て作業から予測不可能な環境のナビゲートまで、複雑なタスクを学習している。バックプロパゲーションは、これらのロボットが時間とともにその動きや意思決定プロセスを洗練させることを可能にする。
これらのアプリケーションは、バックプロパゲーションの影響力のほんの一部に過ぎない。AIが進化し続ける中、このアルゴリズムは、産業を再形成し、科学研究を前進させ、テクノロジーとの関わり方を変革するイノベーションの中心であり続けている。
*この投稿では、今日の言語モデルのすべてを理解するために不可欠な自然言語処理の基礎をカバーします。
課題と考察
バックプロパゲーションは機械学習に革命をもたらしたが、課題や考察がないわけではない。研究者や実務家が取り組んでいる重要な問題のいくつかを探ってみよう:
1.勾配の消失問題:ディープ・ニューラル・ネットワークでは、勾配は層を通して伝搬されるにつれて極端に小さくなる可能性がある。このため、学習が非常に遅くなったり、初期の層の学習が完全に停止したりすることさえある。これは、長い鎖を伝ってメッセージをささやこうとするようなものだ。
2.膨張勾配問題:勾配が極端に大きくなり、ネットワークの重みの更新が不安定になる。これは、入力の小さな変化が出力に不釣り合いに大きな変化を引き起こし、ネットワークを不安定にするようなものだ。
3.ローカル・ミニマムの罠:バックプロパゲーションは損失関数の大域的な最小値を見つけることを目的としているが、局所的な最小値にはまってしまい、最適な解が得られないことがある。目隠しをした状態で丘陵地帯の一番低い場所を探そうとするのを想像してみてほしい。
4.計算強度:バックプロパゲーションによる大規模なニューラルネットワークのトレーニングは、膨大な時間とリソースを必要とするため、非常に計算コストがかかります。このため、ディープラーニングを利用できるのは、強力なハードウェアにアクセスできる人に限られる。
5.**オーバーフィッティング複雑なパターンを学習する能力を持つバックプロパゲーションを使ったネットワークは、時として学習データのノイズを学習しすぎてしまい、新しいデータでの汎化がうまくいかなくなることがある。これは、根本的な原理を理解する代わりにテストの答えを暗記しているようなものだ。
6.**正しい学習率、バッチサイズ、ネットワークアーキテクチャーを選択することは、科学というより芸術であり、しばしば大規模な実験を必要とする。それは微妙なバランスであり、アグレッシブ過ぎるとモデルは収束しないかもしれないし、保守的過ぎると訓練に非現実的なほど長い時間がかかるかもしれない。
7.微分不可能な活性化関数:バックプロパゲーションは勾配の計算に依存するため、ステップ関数のような微分不可能な活性化関数では問題になります。このため、容易に学習できるニューラル・アーキテクチャの種類が制限される。
8.破局的忘却:新しいデータで学習する場合、ニューラルネットワークは以前に学習した情報を急速に忘れる可能性があります。これは、継続的な学習を必要とするシナリオでは特に困難です。
9.解釈可能性の問題:ディープニューラルネットワークの複雑な性質により、ネットワークが特定の判断を下した理由を解釈することが難しくなります。この "ブラックボックス "的な性質は、医療や金融のような透明性が要求されるアプリケーションでは問題となる可能性がある。
10.**データ依存性バックプロパゲーションの有効性は、学習データの質と量に大きく依存する。データが限られていたり偏っていたりするシナリオでは、アルゴリズムが効果的に学習するのに苦労したり、既存のバイアスを永続させたりする可能性がある。
このような課題に対処することは、機械学習コミュニティにおける活発な研究分野である。バッチ正規化](https://zilliz.com/learn/layer-vs-batch-normalization-unlocking-efficiency-in-neural-networks)、残差接続、適応学習率などの技術が、これらの問題のいくつかを軽減するために開発されている。この分野が進歩するにつれ、新しいイノベーションがバックプロパゲーションとニューラルネットワークで可能なことの限界を押し広げ続けている。
将来への示唆
AIの将来を見通すとき、バックプロパゲーションは魅力的な岐路に立たされている。バックプロパゲーションがディープラーニングの要であることに変わりはないが、新たなトレンドは、進化と革命の両方の展望を示唆している。ここでは、将来何が起こるかを垣間見ることができる:
1.量子バックプロパゲーション:量子コンピューティングの台頭により、研究者は量子版バックプロパゲーションを研究している。量子バックプロパゲーションは、従来の方法よりも指数関数的に高速に最適化問題を解決し、より複雑なネットワークのトレーニングへの扉を開く可能性がある。
2.ニューロモーフィック・コンピューティング:AIのハードウェアが生物学的な脳をより忠実に模倣するように進化するにつれ、よりエネルギー効率が高く、リアルタイム学習が可能な新しい形態のバックプロパゲーションが登場するかもしれない。
3.連合学習:将来のバックプロパゲーション・アルゴリズムは、より優れたプライバシー保護AIを可能にし、モデルが機密情報を一元化することなく分散データセットから学習できるようになるかもしれない。これは、データのプライバシーが最も重要であるヘルスケアAIのような分野に革命をもたらす可能性がある。
4.**説明可能なAIAIの透明性に対する要求が高まるにつれて、パフォーマンスを最適化するだけでなく、ニューラルネットワークの意思決定プロセスに対する明確な洞察を提供する新しいバックプロパゲーション技術が登場するかもしれない。
5.メタ学習:将来のバックプロパゲーションは、モデルのパラメーターを最適化するだけでなく、学習方法も学習するかもしれない。これは、人間の直感に似た、最小限のトレーニングで新しいタスクに適応するAIシステムにつながる可能性がある。
6.**連続学習システムバックプロパゲーションの進歩は、壊滅的な忘却という課題を解決し、運用期間を通じて継続的に学習し、以前に獲得した知識を失うことなく常に改善するAIシステムにつながる可能性がある。
7.ハイブリッド学習アプローチ:バックプロパゲーションが、強化学習や進化的アルゴリズムのような他の学習パラダイムと組み合わされ、より頑強で汎用性の高いAIシステムが誕生するかもしれない。
8.感情と社会的知性:将来のバックプロパゲーション技術は、AIシステムが人間の感情をより良く理解し、それに反応するのを助ける可能性があり、より共感的で社会的知能の高いAIアシスタントにつながる可能性がある。
9.環境適応n:AIシステムが多様で予測不可能な環境に導入されるにつれ、新しい形態のバックプロパゲーションは、災害対応ロボットや気候モニタリングシステムのようなアプリケーションにとって極めて重要な、状況の変化への迅速な適応を可能にするかもしれない。
10.**倫理的なAIトレーニング将来のバックプロパゲーション・アルゴリズムは、倫理的配慮を学習プロセスに直接組み込むことで、単に知能が高いだけでなく、人間の価値観や社会規範に沿ったAIシステムの構築を支援するかもしれない。
これらの潜在的な進歩は、バックプロパゲーションが現在の形を超えて進化し、我々が想像し始めたばかりの方法でAIイノベーションを推進し続ける未来を示唆している。すべての技術予測と同様に、これらのいくつかは実現するかもしれないし、まったく予期せぬ展開に道を譲るかもしれない。確かなことは、バックプロパゲーションの背後にある原理が、今後何年にもわたってAIの軌道を形成し続けるということだ。
ベクターデータベースとの学際的関連性:
バックプロパゲーションの影響力は多くの分野に及んでおり、ベクトルデータベースはそれを支える重要な役割を果たしている:
1.認知神経科学:人間の認知を理解するための神経過程のシミュレーション。
2.計算言語学:言語処理と生成に革命を起こす。
3.コンピュータビジョン:医療画像や自律走行車の画像解釈を強化する。
4.バイオインフォマティクス:タンパク質の構造や遺伝子の機能を予測する。
5.金融:市場動向やリスク評価のための予測モデルの構築。
6.ロボット工学:ロボットの新しい環境への適応を支援する。
7.材料科学:材料特性を予測し、新しい化合物を設計する。
8.気候科学:複雑な気候モデルを作成し、気象パターンを分析する。
9.推薦システム:パーソナライズされたコンテンツ配信のためのユーザー嗜好の洗練。
10.サイバーセキュリティネットワークトラフィックの異常と潜在的脅威の検出。
ベクターデータベースは、バックプロパゲーションで学習させたニューラルネットワークにとって重要な高次元データを効率的に格納・検索することで、これらのアプリケーションを強化する。この相乗効果により、より高速な学習、より効率的な推論、より大規模で複雑なデータセットを扱う能力が可能になる。
AIと機械学習が進化し続ける中、ベクトル・データベースによってサポートされるバックプロパゲーションの学際的な応用は、量子コンピューティングから創造的なAIシステムまで、拡大する分野にわたって新たなフロンティアを切り開くことを約束する。