線形活性化関数

概要

y=axで定められる入力に対して線形な出力値を出す活性化関数.絶対に使われない. 効果的な学習を行うには活性化関数は常に非線形活性化関数を使う必要がある.
Facebookシェア Twitterツイート LINEで送る このエントリーをはてなブックマークに追加
この章を学ぶ前に必要な知識
0
ポイント
  • 線形な活性化関数
  • 使うと無駄に層が増えるだけでネットワークの表現力が高まらないので、絶対に活性化関数としては使われない

解 説

層を重ねたニューラルネットワークにおける活性化関数に線形活性化関数は使用されることはない. 層を重ねたネットワークで線形活性化関数を用いても表現力が高まらず、 ただの単純パーセプトロンと変わらなくなる. 単純パーセプトロンと同じということは線形分離可能な問題(白黒つけやすい簡単な問題)しか解けないことになるということ.
線形活性化関数概要
$$y=\alpha x$$
線形活性化関数
この章を学んで新たに学べる
Comments

Reasons
>>隠す