Main Content

Erstellen tiefer neuronaler Netze

Erstellen von Netzen für Sequenz- und Tabellendaten mit MATLAB®-Programmcode oder interaktiv mit Deep Network Designer

Erstellen Sie neue tiefe Netze für Aufgaben wie Klassifizierung, Regression und Vorhersage, indem Sie die Netzarchitektur von Grund auf neu definieren. Erstellen Sie Netze mithilfe von MATLAB oder interaktiv mithilfe von Deep Network Designer.

Für die meisten Aufgaben können Sie integrierte Schichten verwenden. Wenn es eine integrierte Schicht, die Sie für Ihre Aufgabe benötigen, nicht gibt, können Sie Ihre eigene Ebene definieren. Sie können benutzerdefinierte Schichten mit erlernbaren Parametern und Zustandsparametern definieren. Nachdem Sie eine benutzerdefinierte Schicht definiert haben, können Sie überprüfen, ob die Schicht gültig und mit der Grafikkarte kompatibel ist und korrekt definierte Farbverläufe ausgibt. Eine Liste der unterstützten Schichten finden Sie unter List of Deep Learning Layers.

Für Modelle, die nicht als Netz von Schichten angegeben werden können, können Sie das Modell als Funktion definieren. Weitere Informationen finden Sie unter Define Custom Training Loops, Loss Functions, and Networks.

Apps

Deep Network DesignerEntwurf und Visualisierung von Deep-Learning-Netzen

Funktionen

alle erweitern

Eingangsschichten

sequenceInputLayerSequence input layer
featureInputLayerFeature input layer (Seit R2020b)

Wiederkehrende Schichten

lstmLayerLong short-term memory (LSTM) layer for recurrent neural network (RNN)
bilstmLayerBidirectional long short-term memory (BiLSTM) layer for recurrent neural network (RNN)
gruLayerGated recurrent unit (GRU) layer for recurrent neural network (RNN) (Seit R2020a)
lstmProjectedLayerLong short-term memory (LSTM) projected layer for recurrent neural network (RNN) (Seit R2022b)
gruProjectedLayerGated recurrent unit (GRU) projected layer for recurrent neural network (RNN) (Seit R2023b)

Transformer-Schichten

selfAttentionLayerSelf-attention layer (Seit R2023a)
attentionLayerDot-product attention layer (Seit R2024a)
positionEmbeddingLayerPosition embedding layer (Seit R2023b)
sinusoidalPositionEncodingLayerSinusoidal position encoding layer (Seit R2023b)
embeddingConcatenationLayerEmbedding concatenation layer (Seit R2023b)
indexing1dLayer1-D indexing layer (Seit R2023b)

Neuronale ODE-Schichten

neuralODELayerNeural ODE layer (Seit R2023b)

Faltungsneuronale und vollständig verknüpfte Schichten

convolution1dLayer1-D convolutional layer (Seit R2021b)
transposedConv1dLayerTransposed 1-D convolution layer (Seit R2022a)
fullyConnectedLayerFully connected layer

Aktivierungs- und Dropout-Schichten

reluLayerRectified Linear Unit (ReLU) layer
leakyReluLayerLeaky Rectified Linear Unit (ReLU) layer
preluLayerParametrized Rectified Linear Unit (PReLU) layer (Seit R2024a)
clippedReluLayerClipped Rectified Linear Unit (ReLU) layer
eluLayerExponential linear unit (ELU) layer
tanhLayerHyperbolic tangent (tanh) layer
swishLayerSwish layer (Seit R2021a)
geluLayerGaussian error linear unit (GELU) layer (Seit R2022b)
sigmoidLayerSigmoid layer (Seit R2020b)
softmaxLayerSoftmax layer
dropoutLayerDropout layer
spatialDropoutLayerSpatial dropout layer (Seit R2024a)
functionLayerFunction layer (Seit R2021b)

Normalisierungsschichten

batchNormalizationLayerBatch normalization layer
groupNormalizationLayerGroup normalization layer (Seit R2020b)
instanceNormalizationLayerInstance normalization layer (Seit R2021a)
layerNormalizationLayerLayer normalization layer (Seit R2021a)
crossChannelNormalizationLayer Channel-wise local response normalization layer

Pooling-Schichten

maxPooling1dLayer1-D max pooling layer (Seit R2021b)
averagePooling1dLayer1-D average pooling layer (Seit R2021b)
globalMaxPooling1dLayer1-D global max pooling layer (Seit R2021b)
globalAveragePooling1dLayer1-D global average pooling layer (Seit R2021b)
adaptiveAveragePooling2dLayerAdaptive average pooling 2-D layer (Seit R2024a)

Kombinationsschichten

additionLayerAddition layer
multiplicationLayerMultiplication layer (Seit R2020b)
concatenationLayerConcatenation layer
depthConcatenationLayerDepth concatenation layer
dlnetworkDeep learning neural network
addLayersAdd layers to neural network
removeLayersRemove layers from neural network
replaceLayerReplace layer in neural network
connectLayersConnect layers in neural network
disconnectLayersDisconnect layers in neural network
addInputLayerAdd input layer to network (Seit R2022b)
initializeInitialize learnable and state parameters of a dlnetwork (Seit R2021a)
networkLayerNetwork Layer (Seit R2024a)
expandLayersExpand network layers (Seit R2024a)
groupLayersGroup layers into network layers (Seit R2024a)
networkDataLayoutDeep learning network data layout for learnable parameter initialization (Seit R2022b)
setL2FactorSet L2 regularization factor of layer learnable parameter
getL2FactorGet L2 regularization factor of layer learnable parameter
setLearnRateFactorSet learn rate factor of layer learnable parameter
getLearnRateFactorGet learn rate factor of layer learnable parameter
plotPlot neural network architecture
summaryÜbersicht über Netze drucken (Seit R2022b)
analyzeNetworkAnalyze deep learning network architecture
checkLayerCheck validity of custom or function layer
isequalCheck equality of neural networks (Seit R2021a)
isequalnCheck equality of neural networks ignoring NaN values (Seit R2021a)

Themen

Integrierte Schichten

Benutzerdefinierte Schichten

Enthaltene Beispiele