Hauptinhalt

Die Übersetzung dieser Seite ist veraltet. Klicken Sie hier, um die neueste Version auf Englisch zu sehen.

Operationen

Entwicklung benutzerdefinierter Deep-Learning-Funktionen

Für die meisten Aufgaben können Sie integrierte Schichten verwenden. Wenn es eine integrierte Schicht, die Sie für Ihre Aufgabe benötigen, nicht gibt, können Sie Ihre eigene Ebene definieren. Sie können benutzerdefinierte Schichten mit erlernbaren Parametern und Zustandsparametern definieren. Nachdem Sie eine benutzerdefinierte Schicht definiert haben, können Sie überprüfen, ob die Schicht gültig und GPU-kompatibel ist und korrekt definierte Gradienten ausgibt. Weitere Informationen finden Sie unter Define Custom Deep Learning Layers. Eine Liste der unterstützten Schichten finden Sie unter List of Deep Learning Layers.

Wenn die trainingOptions-Funktion nicht die Trainingsoptionen bietet, die Sie für Ihre Aufgabe benötigen, oder Sie eine Verlustfunktion haben, die die trainnet-Funktion nicht unterstützt, können Sie eine eigene Trainingsschleife definieren. Für Modelle, die nicht als Netz von Schichten angegeben werden können, können Sie das Modell als Funktion definieren. Weitere Informationen finden Sie unter Define Custom Training Loops, Loss Functions, and Networks.

Verwenden Sie Deep Learning-Operationen zur Entwicklung von MATLAB®-Code für benutzerdefinierte Schichten, Trainingsschleifen und Modellfunktionen.

Funktionen

alle erweitern

dlarrayDeep learning array for customization
dimsData format of dlarray object
finddimFind dimensions with specified label
stripdimsRemove dlarray data format
extractdataExtrahieren von Daten aus dlarray
isdlarrayCheck if object is dlarray
dlconvDeep learning convolution
dltranspconvDeep learning transposed convolution
lstmLong short-term memory
gruGated recurrent unit
attentionDot-product attention (Seit R2022b)
embedEmbed discrete data
fullyconnectSum all weighted input data and apply a bias
dlode45Deep learning solution of nonstiff ordinary differential equation (ODE) (Seit R2021b)
batchnormNormalize data across all observations for each channel independently
crosschannelnormCross channel square-normalize using local responses
groupnormNormalize data across grouped subsets of channels for each observation independently
instancenormNormalize across each channel for each observation independently (Seit R2021a)
layernormNormalize data across all channels for each observation independently (Seit R2021a)
avgpoolPool data to average values over spatial dimensions
maxpoolPool data to maximum value
maxunpoolUnpool the output of a maximum pooling operation
reluAnwenden einer Rectified Linear Unit-Aktivierung
leakyreluApply leaky rectified linear unit activation
geluApply Gaussian error linear unit (GELU) activation (Seit R2022b)
softmaxApply softmax activation to channel dimension
sigmoidAnwenden der Sigmoid-Aktivierung
crossentropyCross-entropy loss for classification tasks
indexcrossentropyIndex cross-entropy loss for classification tasks (Seit R2024b)
l1lossL1 loss for regression tasks (Seit R2021b)
l2lossL2 loss for regression tasks (Seit R2021b)
huberHuber loss for regression tasks (Seit R2021a)
ctcConnectionist temporal classification (CTC) loss for unaligned sequence classification (Seit R2021a)
mseHalf mean squared error
dlaccelerateAccelerate deep learning function for custom training loops (Seit R2021a)
AcceleratedFunctionAccelerated deep learning function (Seit R2021a)
clearCacheClear accelerated deep learning function trace cache (Seit R2021a)

Themen

Automatische Differenzierung

Modellfunktionen

Deep-Learning-Funktionsbeschleunigung

Enthaltene Beispiele