ReLUの改良版である。
・αは0.01など小さい定数を表す
・ReLUはx<0のときに勾配が消えてしまうので、学習が不安定になり得るという問題があったが、LReLUはx<0でも学習が進むので、ReLUよりも効果的な活性化関数として期待された。しかし、実際には効果が出ないときもある。また、どのようなときに効果が出るのかについてはっきり分かっておらず、最初に提案した文献では効果はないと言及していたりもする。
詳解 ディープラーニング ~TensorFlow・Kerasによる時系列データ処理~
- 作者: 巣籠悠輔
- 出版社/メーカー: マイナビ出版
- 発売日: 2017/05/30
- メディア: 単行本(ソフトカバー)
- この商品を含むブログ (1件) を見る