Now Loading...

Now Loading...

二重降下現象

二重降下現象

二重降下現象はCNN,ResNet,Transformerなどの多くの深層学習モデルにおいて、正則化などを行わないと現れる現象です。

この現象では一度誤差が減少したもののまた増加し、それに対してモデルサイズ、データサイズ、訓練時間を増やすことによって再びモデルの精度が向上するといったことが生じます。この現象はモデルは大きいほど良いという現代のMLパラダイムの考え、モデルは大きすぎるのはよくないという統計学の研究どちらにも反した結果となっています。この現象ではより大きな訓練データで学習するとパフォーマンスが低下してしまうことを示唆しています。

クイズ

誤差関数はパラメータが少ない時には大きく、多い時には少ないという特徴(バイアス・分散トレードオフ)という性質があるが、それを超えてパラメータが多大になると再び誤差関数が減少しだす(A)という現象が生じることがある。この誤差関数の挙動に合わせて適切なタイミングで学習を止める必要があるが、学習を止めるタイミングとして誤差関数が増加し始めた時点で学習を停止する(B)がある。
  • 正解を見る
  • 解説を見る
    誤差関数は学習を一定以上進めていくと増加しますが、さらに進めていくと再び減少する二重降下現象が起きることがあります。よって学習を辞めるタイミングは慎重に決めるべきです。誤差関数が増加し始めた時点で学習を停止する方法を早期終了と言います。ちなみに、ドロップアウトとは学習の繰り返しごとにランダムにニューロンを削除する手法のことを言います。

特別割引クーポンのお知らせ

zero to one G検定 jdla

zero to one G検定 jdla