Now Loading...

Now Loading...

ADAM

ADAM

ADAMはモーメンタムとRMSpropを混合させたような最適化アルゴリズムです。

パラメータの更新式は画像に示す通りであり、mはモーメンタムに用いられているような速度に関する項、vはRMSpropに用いられている勾配の二乗和に関する項です。これによって勾配の小さい方向にもスムーズに更新が可能で、少なくとも学習が進むため、最初に試す場合により適しています。

クイズ

SGD(確率的勾配降下法)よりも効率的な最適化手法として,多くのアルゴリズムが考えられている.学習率の減衰とモーメンタムの考え方を組み合わせた手法として,最も適切な選択肢を一つ選べ.
  • 正解を見る
  • 解説を見る
    モーメンタムは,勾配方向に力を受けて加速するような動きでパラメータを更新する手法です.また,単純なSGDに学習率の減衰を取り入れた手法がAdaGradです.この二つのアイデアを組み合わせた手法がAdamです.また,AdaGradでは学習を無限に進めていくと更新量が0になるという問題を改善した手法がRMSPropです.

人工知能基礎講座を提供中

人工知能の第一人者である東京大学の松尾豊教授が監修した人工知能基礎講座を受講してみませんか? 人工知能の歴史から自然言語処理、機械学習、深層学習といった最先端のトピックやAIに関わる法律問題まで網羅しているので全てのビジネスパーソン・AIの初学者におすすめです。

サンプル動画

人工知能基礎講座はこちら↓ zero to one G検定 人工知能基礎 jdla

AIエンジニアを目指すならE資格

日本ディープラーニング協会の実施するE資格の受験に必要となるE資格認定プログラムを割引価格で提供中です。最短合格を目指す方向けのスピードパッケージを70,000円で提供中。(一発合格で33,000円のキャッシュバックキャンペーンも実施中です) zero to one E資格 jdla

AI初学者・ビジネスパーソン向けのG検定対策講座

G検定受験前にトレーニングしたい方向けの問題集「G検定実践トレーニング」も提供中です。 zero to one E資格 jdla