Leaky ReLU関数
Leaky ReLU関数
Leaky ReLUは活性化関数ReLUの派生です。
ReLUは勾配消失をある程度抑制できますが、入力値が0以下の場合に勾配が0となるため勾配が壊れやすいというデメリットがあります。これに対応したものがLeaky ReLUです。

クイズ
以下の文章を読み、空欄(ア)~(イ)に最もよく当てはまる選択肢を1つ選べ。
ニューラルネットワークの活性化関数の中で、現在頻繁に用いられるReLU関数の派生形である(ア)は、入力をxとしたときx<0の領域でわずかな傾きを持った直線になっていることが特徴である。ReLU関数では勾配が(イ)になる現象が懸念されるが、(ア)ではこれを防ぐことができると期待される。
人工知能基礎講座を提供中
人工知能の第一人者である東京大学の松尾豊教授が監修した人工知能基礎講座を受講してみませんか?
人工知能の歴史から自然言語処理、機械学習、深層学習といった最先端のトピックやAIに関わる法律問題まで網羅しているので全てのビジネスパーソン・AIの初学者におすすめです。
サンプル動画
AIエンジニアを目指すならE資格
AI初学者・ビジネスパーソン向けのG検定対策講座
