Now Loading...

Now Loading...

Leaky ReLU関数

Leaky ReLU関数

Leaky ReLUは活性化関数ReLUの派生です。

ReLUは勾配消失をある程度抑制できますが、入力値が0以下の場合に勾配が0となるため勾配が壊れやすいというデメリットがあります。これに対応したものがLeaky ReLUです。

クイズ

以下の文章を読み、空欄(ア)~(イ)に最もよく当てはまる選択肢を1つ選べ。 ニューラルネットワークの活性化関数の中で、現在頻繁に用いられるReLU関数の派生形である(ア)は、入力をxとしたときx<0の領域でわずかな傾きを持った直線になっていることが特徴である。ReLU関数では勾配が(イ)になる現象が懸念されるが、(ア)ではこれを防ぐことができると期待される。
  • 正解を見る
  • 解説を見る
    入力x<0の時、わずかな傾きをもつReLU関数をLeaky ReLU関数と言います。Leaky ReLU関数では微分値が0になる(勾配が0になる)ことはないため、ReLU関数よりも勾配消失しにくくなります。 (参考: G検定公式テキスト 第2版 第5章 5-4 P177-178) (参考:G検定公式テキスト 第1版 P141-143)

人工知能基礎講座を提供中

人工知能の第一人者である東京大学の松尾豊教授が監修した人工知能基礎講座を受講してみませんか? 人工知能の歴史から自然言語処理、機械学習、深層学習といった最先端のトピックやAIに関わる法律問題まで網羅しているので全てのビジネスパーソン・AIの初学者におすすめです。

サンプル動画

人工知能基礎講座はこちら↓ zero to one G検定 人工知能基礎 jdla

AIエンジニアを目指すならE資格

日本ディープラーニング協会の実施するE資格の受験に必要となるE資格認定プログラムを割引価格で提供中です。最短合格を目指す方向けのスピードパッケージを70,000円で提供中。(一発合格で33,000円のキャッシュバックキャンペーンも実施中です) zero to one E資格 jdla

AI初学者・ビジネスパーソン向けのG検定対策講座

G検定受験前にトレーニングしたい方向けの問題集「G検定実践トレーニング」も提供中です。 zero to one E資格 jdla