reluLayer
ReLU-Schicht (Rectified Linear Unit)
Beschreibung
Eine ReLU-Schicht führt eine Grenzwert-Operation an jedem Eingangselement aus, wobei jeder Wert unter Null auf Null gesetzt wird.
Dieser Vorgang ist äquivalent zu
Erstellung
Eigenschaften
Beispiele
Mehr über
Referenzen
[1] Nair, Vinod, and Geoffrey E. Hinton. "Rectified linear units improve restricted boltzmann machines." In Proceedings of the 27th international conference on machine learning (ICML-10), pp. 807-814. 2010.
Erweiterte Fähigkeiten
Versionsverlauf
Eingeführt in R2016a