<<展開

恒等活性化関数

Facebookシェア Twitterツイート LINEで送る Googleシェア このエントリーをはてなブックマークに追加
この章を学ぶ前に必要な知識
Up
0
Down

要約

概要

線形活性化関数で傾きa=1とした恒等活性化関数. ニューラルネットでは通常使用されない.
ーポイントー
  • 意味がないので通常使用されることはない.

解  説

線形活性化関数のy=axy=axにてa=1a=1としたものに等しい. 通常このようなものをDeepLearning等の活性化関数に入れても表現力が単純パーセプトロンと等しいため、使用しない.
線形活性化関数
この章を学んで新たに学べる
Comments

Reasons
>>隠す

知識: 線形活性化関数
y=axで定められる入力に対して線形な出力値を出す活性化関数.絶対に使われない. 効果的な学習を行うには活性化関数は常に非線形活性化関数を使う必要がある.