- 標準シグモイド関数 (standard sigmoid function): y = 1 / (1 + exp(-x)) 【グラフ】
- 双曲線正接関数: y = tanh(x) 【グラフ】
- abs を使った関数: y = x / (1 + abs(x)) 【グラフ】
- y * (1 - y)
- 1 - y * y
- 1 / pow(1 + abs(x), 2) または pow(1 - abs(y), 2)
A Better Activation Function for Artificial Neural Networks, David Elliott, 1993次のサイトによると、活性化関数の計算の速さは (3) の abs を使った関数の方が (1) の標準シグモイド関数よりも2倍以上速いらしい。
http://drum.lib.umd.edu/handle/1903/5355
※ 2004年の結果なので、最近の CPU では異なるかも知れない。
Neural Network Code Optimizationsその他、参考にしたサイト。
http://sharpneat.sourceforge.net/network_optimization.html
Backpropagator's Review
http://www.dontveter.com/bpr/activate.html
[追記]
[関連記事]