勾配降下法の問題と改善
勾配降下法の問題と改善
勾配降下法は誤差の勾配を用いて誤差関数が最も小さくなるような重みを探索する手法ですが、学習に時間がかかりすぎたり、求めたい大域最適解ではなく局所最適解に陥ることがあるといった弱点を抱えています。
これを改善するための手法がモメンタムやAdaGradです。モメンタムは勾配の大きさに応じて更新量が変化するため、局所最適解に陥る可能性が小さくなります。AdaGradは最初は学習率は大きく、次第に小さくなっていくため効率的に学習が進みます。この二つの発想を取り入れた手法がAdamであり、汎用的に用いられています。


クイズ
以下の文章を読み、空欄(ア)に最もよく当てはまる選択肢を1つ選べ。
ニューラルネットワークにおけるパラメータの更新は勾配降下法を用いる。勾配降下方のアルゴリズムは複数あるが、最も一般的なのは確率的勾配降下法(SGD)である。そのほかに更新量が自動的に調整され、学習が進むと学習率が小さくなるというアルゴリズムで(ア)と呼ばれるものがある。
人工知能基礎講座を提供中
人工知能の第一人者である東京大学の松尾豊教授が監修した人工知能基礎講座を受講してみませんか?
人工知能の歴史から自然言語処理、機械学習、深層学習といった最先端のトピックやAIに関わる法律問題まで網羅しているので全てのビジネスパーソン・AIの初学者におすすめです。
サンプル動画
AIエンジニアを目指すならE資格
AI初学者・ビジネスパーソン向けのG検定対策講座
