今日のAI発展の基礎を築いたとされ、G検定の問題集でもその名が登場するカナダ・トロント大学のジェフリー・ヒントン名誉教授。
今晩、ノーベル物理学賞を受賞されたとの報道に触れ、ぜひ書き残しておきたいと思いました。
受賞のニュースはこちら。
ジェフリー・ヒントン名誉教授の業績がどのようなものか、せっかくなので最近覚えたてのGensparkを使って、Sparkpageを作ってもらいました。
Sparkpage、かなりのボリュームがあるので、その中で次の一文を深掘りしてみたいと思います。
バックプロパゲーションアルゴリズムの普及に貢献し、これにより多層神経ネットワークの学習が可能になりました。
いろいろと専門用語が出てきますね。。
G検定のときに覚えた用語も記憶がだいぶん飛んでます。。
まず、「バックプロパゲーション」について調べてみましょう。
バックプロパゲーションは、ニューラルネットワークの学習アルゴリズムの一種で、誤差逆伝播法とも呼ばれます。ニューラルネットワークの出力と目標値の誤差を逆向きに伝播させ、各ニューロンの重みを調整することで、ネットワークの性能を向上させます。
ふむふむ、なんとなく思い出してきました(笑)
次に、「多層神経ネットワーク」について調べてみます。
多層神経ネットワークは、複数の層を持つニューラルネットワークで、複雑なデータのパターンを学習することができます。これにより、画像認識や音声認識、自然言語処理などの高度なタスクに対応できます。
神経ネットワークと言われるとピンとこなかったんですが、ニューラルネットワークと言われて、「あ、あの線がいっぱい描かれた図」をイメージできました。
こんな図です。
多層神経ネットワークの学習が可能になると、いったい何が嬉しいのか。
もう少し調べてみます。
多層神経ネットワークは、データから自動的に特徴量を抽出する能力があります。これにより、人間が手動で特徴量を設計する必要がなくなり、効率的な学習が可能になります。
ここで「特徴量」というキーワードが出てきました。
これ、めちゃくちゃ重要です!
マナビDXQでAI需要予測モデルを構築する際も、この特徴量をいかに作成するかが予測精度を大きく左右します。
特徴量というキーワードを生み出す元となった技術がバックプロパゲーションであり、その生みの親がジェフリー・ヒントン名誉教授なんだ、ということをぜひ知っておいていただければと嬉しいです。
(巷で「機械学習」という言葉をよく見聞きするかもしれませんが、この特徴量を機械によって効率的に学習することに所以があります)
余談ですが、今年は息子がトロント大学を訪問したこともあり、今回の受賞の話を家族でしました。「何か縁があるんじゃないか」と。
結果は、自分だけ勝手に盛り上がって、しかとされて終わりましたとさ(泣笑)