relu
Anwenden einer Rectified Linear Unit-Aktivierung
Syntax
Beschreibung
Die Rectified Linear Unit-Aktivierung (ReLU) führt eine nichtlineare Grenzwert-Operation durch, bei der alle Eingangswerte unter Null auf Null gesetzt werden.
Dieser Vorgang ist äquivalent zu:
Beispiele
Eingabeargumente
Ausgangsargumente
Erweiterte Fähigkeiten
Versionsverlauf
Eingeführt in R2019b