Now Loading...

Now Loading...

AdaGrad

AdaGrad

AdaGradは最適化の手法の一つです。

この手法では学習係数を調整しながら学習を行います。確率的勾配降下法と違う点としては過去の勾配の2乗和を記録するという点です(更新式におけるh)。この2乗和は単調増加するため、学習係数が結果的に小さくなり、最終的には更新の度合いは0に近づきます。

クイズ

以下の文章を読み、空欄(ア)に最もよく当てはまる選択肢を1つ選べ。 ニューラルネットワークにおけるパラメータの更新は勾配降下法を用いる。勾配降下方のアルゴリズムは複数あるが、最も一般的なのは確率的勾配降下法(SGD)である。そのほかに更新量が自動的に調整され、学習が進むと学習率が小さくなるというアルゴリズムで(ア)と呼ばれるものがある。
  • 正解を見る
  • 解説を見る
    ディープラーニングにおいては、鞍点問題等過学習への対策が考案されてきました。1990年代に考案されたのがモメンタムで、そこから、効率的手法がAdagrad、Adadelta、RMSprop、Adamといった具合に次々に考案され、新しいものほど効率化が進んでいます。 (参考: G検定公式テキスト 第2版 第5章 5-5 P183) (参考: G検定公式テキスト 第1版 P144-148)

人工知能基礎講座を提供中

人工知能の第一人者である東京大学の松尾豊教授が監修した人工知能基礎講座を受講してみませんか? 人工知能の歴史から自然言語処理、機械学習、深層学習といった最先端のトピックやAIに関わる法律問題まで網羅しているので全てのビジネスパーソン・AIの初学者におすすめです。

サンプル動画

人工知能基礎講座はこちら↓ zero to one G検定 人工知能基礎 jdla

AIエンジニアを目指すならE資格

日本ディープラーニング協会の実施するE資格の受験に必要となるE資格認定プログラムを割引価格で提供中です。最短合格を目指す方向けのスピードパッケージを70,000円で提供中。(一発合格で33,000円のキャッシュバックキャンペーンも実施中です) zero to one E資格 jdla

AI初学者・ビジネスパーソン向けのG検定対策講座

G検定受験前にトレーニングしたい方向けの問題集「G検定実践トレーニング」も提供中です。 zero to one E資格 jdla