Hauptinhalt

Die Übersetzung dieser Seite ist veraltet. Klicken Sie hier, um die neueste Version auf Englisch zu sehen.

reluLayer

ReLU-Schicht (Rectified Linear Unit)

Beschreibung

Eine ReLU-Schicht führt eine Grenzwert-Operation an jedem Eingangselement aus, wobei jeder Wert unter Null auf Null gesetzt wird.

Dieser Vorgang ist äquivalent zu

f(x)={x,x00,x<0.

Erstellung

Beschreibung

layer = reluLayer erstellt eine ReLU-Schicht.

layer = reluLayer('Name',Name) erstellt eine ReLU-Schicht und setzt die optionale Eigenschaft Name mit einem Namen-Wert-Paar. reluLayer('Name','relu1') erstellt beispielsweise eine ReLU-Schicht mit dem Namen 'relu1'.

Beispiel

Eigenschaften

alle erweitern

Schichtname, angegeben als Zeichenvektor oder String-Skalar. Bei einem Layer-Array-Eingang weisen die Funktionen trainnet und dlnetwork Schichten mit dem Namen "" automatisch Namen zu.

Das ReLULayer-Objekt speichert diese Eigenschaft als Zeichenvektor.

Datentypen: char | string

Diese Eigenschaft ist schreibgeschützt.

Anzahl der Eingänge der Schicht, ausgegeben als 1. Diese Schicht akzeptiert nur einen Eingang.

Datentypen: double

Diese Eigenschaft ist schreibgeschützt.

Eingangsnamen, ausgegeben als {'in'}. Diese Schicht akzeptiert nur einen Eingang.

Datentypen: cell

Diese Eigenschaft ist schreibgeschützt.

Anzahl der Ausgänge der Schicht, ausgegeben als 1. Diese Schicht verfügt nur über einen einzigen Ausgang.

Datentypen: double

Diese Eigenschaft ist schreibgeschützt.

Ausgangsnamen, ausgegeben als {'out'}. Diese Schicht verfügt nur über einen einzigen Ausgang.

Datentypen: cell

Beispiele

alle reduzieren

Erstellen Sie eine ReLU-Schicht mit dem Namen relu1.

layer = reluLayer(Name="relu1")
layer = 
  ReLULayer with properties:

    Name: 'relu1'

Nehmen Sie eine ReLU-Schicht in ein Layer-Array auf.

layers = [ ...
    imageInputLayer([28 28 1])
    convolution2dLayer(5,20)
    reluLayer
    maxPooling2dLayer(2,Stride=2)
    fullyConnectedLayer(10)
    softmaxLayer]
layers = 
  6x1 Layer array with layers:

     1   ''   Image Input       28x28x1 images with 'zerocenter' normalization
     2   ''   2-D Convolution   20 5x5 convolutions with stride [1  1] and padding [0  0  0  0]
     3   ''   ReLU              ReLU
     4   ''   2-D Max Pooling   2x2 max pooling with stride [2  2] and padding [0  0  0  0]
     5   ''   Fully Connected   10 fully connected layer
     6   ''   Softmax           softmax

Mehr über

alle erweitern

Referenzen

[1] Nair, Vinod, and Geoffrey E. Hinton. "Rectified linear units improve restricted boltzmann machines." In Proceedings of the 27th international conference on machine learning (ICML-10), pp. 807-814. 2010.

Erweiterte Fähigkeiten

alle erweitern

C/C++ Codegenerierung
Generieren Sie C und C++ Code mit MATLAB® Coder™.

GPU-Codegenerierung
Generieren von CUDA® Code für NVIDIA® Grafikprozessoren mit dem GPU Coder™.

Versionsverlauf

Eingeführt in R2016a