Now Loading...

Now Loading...

ReLU関数

ReLU関数

ReLU関数は負の入力は0として、0もしくは正の入力はそのまま出力する関数です。

ランプ関数とも呼ばれます。導関数の最大値が1と大きく、シグモイド関数といった導関数の最大値が小さい活性化関数と比較して勾配消失問題を抑制します。また、計算が単純であるため計算コストが小さいといった利点もあります。ちなみに、入力が丁度0であるときReLU関数は不連続であるため微分は定義できません。実際に運用する際は便宜的に0、0.5、1等の値で定めてしまうのが一般的です。

クイズ

以下の文章を読み,空欄(ア)に最もよく当てはまる選択肢を1つ選べ. 誤差逆伝搬法では,活性化関数としてシグモイド関数のような微分値の最大値が小さい関数を使うと勾配消失が起こりやすく,学習がうまく進まない場合がある.現在活性化関数としてよく使われている(ア)は入力値が0以上では常に微分値が1であり,学習精度の向上と深層化に貢献した.
  • 正解を見る
  • 解説を見る
    シグモイド関数では微分値の最大値が0.25と小さいため,逆伝搬の際に入力層側までうまく誤差が伝搬しない勾配消失問題が生じる可能性が高くなります.そして入力値が0以下では0,0より大きいときには入力値をそのまま返すReLU関数は,微分値が0以上では常に1となり,勾配消失問題を大きく改善しました. (参考:G検定公式テキスト 第2版 第5章 5-4 P176-177) (参考:G検定公式テキスト 第1版 P138-142)

    👉G検定の受験対策は約1,000問収録の「G検定実践トレーニング」へ

ReLU関数やシグモイド関数などの活性化関数を解説

ReLU以外にも活性化関数は多く存在しています。最も有名な活性化関数はシグモイド関数です。活性化関数についてより具体的なことを知りたい方はプログラムコードも実行できる下記の記事がおすすめです。ぜひご覧ください。

深層学習において重要なシグモイドやReLUなどの活性化関数の特徴を解説

👉より体系的に学びたい方は「人工知能基礎」(東京大学松尾豊先生監修)へ

人工知能基礎講座を提供中

人工知能の第一人者である東京大学の松尾豊教授が監修した人工知能基礎講座を受講してみませんか? 人工知能の歴史から自然言語処理、機械学習、深層学習といった最先端のトピックやAIに関わる法律問題まで網羅しているので全てのビジネスパーソン・AIの初学者におすすめです。

サンプル動画

人工知能基礎講座はこちら↓ zero to one G検定 人工知能基礎 jdla

AI初学者・ビジネスパーソン向けのG検定対策講座

G検定受験前にトレーニングしたい方向けの問題集「G検定実践トレーニング」も提供中です。 zero to one E資格 jdla

zero to oneの「E資格」向け認定プログラム

日本ディープラーニング協会の実施するE資格の受験ならzero to oneの「E資格」向け認定プログラム (税込165,000円) をおすすめします。当講座は、東京大学大学院工学系研究科の松尾豊教授と東北大学大学院情報科学研究科の岡谷貴之教授が監修する実践的なプログラムとなっています。 厚生労働省の教育訓練給付制度対象のE資格認定プログラムの中では最安値※となり、実質負担額49,500円~(支給割合70%の場合)で受講可能です。※2023年弊社調べ zero to one E資格 jdla