誤差逆伝搬型ニューラルネットワークの伝達関数として ReLU (Rectified Linear Unit) は対応していますか?
7 Ansichten (letzte 30 Tage)
Ältere Kommentare anzeigen
MathWorks Support Team
am 24 Mär. 2017
Beantwortet: MathWorks Support Team
am 24 Mär. 2017
現在、誤差逆伝搬型型ニューラルネットの出力関数にシグモイド関数を使用していますが、これを「ReLU(Rectified Linear Unit)」に変更したいと考えておりますがToolboxとして対応していますか?
Akzeptierte Antwort
MathWorks Support Team
am 24 Mär. 2017
ReLU(Rectified Linear Unit) 関数は、 poslin() としてご利用頂く事が可能です。
>> doc poslin
にて、伝達関数の形を確認することが可能です。
0 Kommentare
Weitere Antworten (0)
Siehe auch
Kategorien
Mehr zu Deep Learning Toolbox finden Sie in Help Center und File Exchange
Community Treasure Hunt
Find the treasures in MATLAB Central and discover how the community can help you!
Start Hunting!