Now Loading...

Now Loading...

二重降下現象

二重降下現象

二重降下現象はCNN,ResNet,Transformerなどの多くの深層学習モデルにおいて、正則化などを行わないと現れる現象です。

この現象では一度誤差が減少したもののまた増加し、それに対してモデルサイズ、データサイズ、訓練時間を増やすことによって再びモデルの精度が向上するといったことが生じます。この現象はモデルは大きいほど良いという現代のMLパラダイムの考え、モデルは大きすぎるのはよくないという統計学の研究どちらにも反した結果となっています。この現象ではより大きな訓練データで学習するとパフォーマンスが低下してしまうことを示唆しています。

クイズ

誤差関数はパラメータが少ない時には大きく、多い時には少ないという特徴(バイアス・分散トレードオフ)という性質があるが、それを超えてパラメータが多大になると再び誤差関数が減少しだす(A)という現象が生じることがある。この誤差関数の挙動に合わせて適切なタイミングで学習を止める必要があるが、学習を止めるタイミングとして誤差関数が増加し始めた時点で学習を停止する(B)がある。
  • 正解を見る
  • 解説を見る
    誤差関数は学習を一定以上進めていくと増加しますが、さらに進めていくと再び減少する二重降下現象が起きることがあります。よって学習を辞めるタイミングは慎重に決めるべきです。誤差関数が増加し始めた時点で学習を停止する方法を早期終了と言います。ちなみに、ドロップアウトとは学習の繰り返しごとにランダムにニューロンを削除する手法のことを言います。

人工知能基礎講座を提供中

人工知能の第一人者である東京大学の松尾豊教授が監修した人工知能基礎講座を受講してみませんか? 人工知能の歴史から自然言語処理、機械学習、深層学習といった最先端のトピックやAIに関わる法律問題まで網羅しているので全てのビジネスパーソン・AIの初学者におすすめです。

サンプル動画

人工知能基礎講座はこちら↓ zero to one G検定 人工知能基礎 jdla

AIエンジニアを目指すならE資格

日本ディープラーニング協会の実施するE資格の受験に必要となるE資格認定プログラムを割引価格で提供中です。最短合格を目指す方向けのスピードパッケージを70,000円で提供中。(一発合格で33,000円のキャッシュバックキャンペーンも実施中です) zero to one E資格 jdla

AI初学者・ビジネスパーソン向けのG検定対策講座

G検定受験前にトレーニングしたい方向けの問題集「G検定実践トレーニング」も提供中です。 zero to one E資格 jdla