ReLU関数
ReLU関数
ReLU関数は負の入力は0として、0もしくは正の入力はそのまま出力する関数です。
ランプ関数とも呼ばれます。導関数の最大値が1と大きく、シグモイド関数といった導関数の最大値が小さい活性化関数と比較して勾配消失問題を抑制します。また、計算が単純であるため計算コストが小さいといった利点もあります。ちなみに、入力が丁度0であるときReLU関数は不連続であるため微分は定義できません。実際に運用する際は便宜的に0、0.5、1等の値で定めてしまうのが一般的です。
クイズ
以下の文章を読み,空欄(ア)に最もよく当てはまる選択肢を1つ選べ.
誤差逆伝搬法では,活性化関数としてシグモイド関数のような微分値の最大値が小さい関数を使うと勾配消失が起こりやすく,学習がうまく進まない場合がある.現在活性化関数としてよく使われている(ア)は入力値が0以上では常に微分値が1であり,学習精度の向上と深層化に貢献した.
ReLU関数やシグモイド関数などの活性化関数を解説
ReLU以外にも活性化関数は多く存在しています。最も有名な活性化関数はシグモイド関数です。活性化関数についてより具体的なことを知りたい方はプログラムコードも実行できる下記の記事がおすすめです。ぜひご覧ください。
深層学習において重要なシグモイドやReLUなどの活性化関数の特徴を解説
👉より体系的に学びたい方は「人工知能基礎」(東京大学松尾豊先生監修)へ
人工知能基礎講座を提供中
人工知能の第一人者である東京大学の松尾豊教授が監修した人工知能基礎講座を受講してみませんか?
人工知能の歴史から自然言語処理、機械学習、深層学習といった最先端のトピックやAIに関わる法律問題まで網羅しているので全てのビジネスパーソン・AIの初学者におすすめです。
サンプル動画
AI初学者・ビジネスパーソン向けのG検定対策講座
zero to oneの「E資格」向け認定プログラム
日本ディープラーニング協会の実施するE資格の受験ならzero to oneの「E資格」向け認定プログラム (税込165,000円) をおすすめします。当講座は、東京大学大学院工学系研究科の松尾豊教授と東北大学大学院情報科学研究科の岡谷貴之教授が監修する実践的なプログラムとなっています。
厚生労働省の教育訓練給付制度対象のE資格認定プログラムの中では最安値※となり、実質負担額49,500円~(支給割合70%の場合)で受講可能です。※2023年弊社調べ