Hauptinhalt

cascadeforwardnet

Generieren von vorwärtsgerichteten Kaskadennetzen

Beschreibung

net = cascadeforwardnet(hiddenSizes,trainFcn) gibt ein vorwärtsgerichtetes Kaskadennetz mit einer verborgenen Schichtgröße von hiddenSizes und einer Trainingsfunktion aus, die durch trainFcn angegeben ist.

Vorwärtsgerichtete Kaskadennetze ähneln Feed-Forward-Netzen, umfassen jedoch eine Verbindung vom Eingang und jeder vorherigen Schicht zu den folgenden Schichten.

Wie ein Feed-Forward-Netz kann ein Kaskadennetz mit zwei oder mehr Schichten beliebige endliche Eingangs-Ausgangs-Beziehungen beliebig gut lernen, sofern genug verborgene Neuronen zur Verfügung stehen.

Beispiel

Beispiele

alle reduzieren

Dieses Beispiel zeigt, wie man ein vorwärtsgerichtetes Kaskadennetz zur Lösung eines einfachen Problems einsetzt.

Laden Sie die Trainingsdaten.

[x,t] = simplefit_dataset;

Die 1x94-Matrix x enthält die Eingabewerte und die 1x94-Matrix t enthält die zugehörigen Ziel-Ausgabewerte.

Konstruieren Sie ein vorwärtsgerichtetes Kaskadennetz mit einer verborgenen Schicht der Größe 10.

net = cascadeforwardnet(10);

Trainieren Sie das Netz net unter Verwendung der Trainingsdaten.

net = train(net,x,t);

Figure Neural Network Training (09-Aug-2025 13:46:48) contains an object of type uigridlayout.

Sehen Sie sich das trainierte Netz an.

view(net)

Schätzen Sie die Ziele mithilfe des trainierten Netzes.

y = net(x);

Bewerten Sie die Leistung des trainierten Netzes. Die Standardleistungsfunktion ist die mittlere quadratische Abewichung.

perf = perform(net,y,t)
perf = 
1.9372e-05

Eingabeargumente

alle reduzieren

Größe der verborgenen Schichten des Netzes, angegeben als Zeilenvektor. Die Länge des Vektors bestimmt die Anzahl der verborgenen Schichten im Netz.

Beispiel: Sie können zum Beispiel ein Netz mit 3 verborgenen Schichten angeben, wobei die Größe der ersten verborgenen Schicht 10, der zweiten 8 und der dritten 5 beträgt: [10,8,5]

Die Eingabe- und Ausgabegrößen werden auf Null gesetzt. Die Software passt deren Größe während des Trainings entsprechend den Trainingsdaten an.

Datentypen: single | double

Name der Trainingsfunktion, angegeben als eine der folgenden Möglichkeiten:

TrainingsfunktionAlgorithmus
'trainlm'

Levenberg-Marquardt

'trainbr'

Bayes‘sche Regularisierung

'trainbfg'

BFGS Quasi-Newton

'trainrp'

Resiliente Backpropagation (Rprop)

'trainscg'

Skalierter konjugierter Gradient

'traincgb'

Konjugierter Gradient mit Powell/Beale-Restarts

'traincgf'

Konjugierter Fletcher-Powell-Gradient

'traincgp'

Konjugierter Polak-Ribiére-Gradient

'trainoss'

Ein-Schritt-Sekantenverfahren

'traingdx'

Gradientenabstieg mit variabler Lernrate

'traingdm'

Gradientenabstieg mit Momentum

'traingd'

Gradientenabstieg

Beispiel: Sie können zum Beispiel den Gradientenabstiegsalgorithmus mit variabler Lernrate wie folgt als Trainingsalgorithmus festlegen: 'traingdx'

Weitere Informationen zu den Trainingsfunktionen finden Sie unter Train and Apply Multilayer Shallow Neural Networks und Choose a Multilayer Neural Network Training Function.

Datentypen: char

Ausgangsargumente

alle reduzieren

Vorwärtsgerichtetes Kaskadennetz, ausgegeben als network-Objekt.

Versionsverlauf

Eingeführt in R2010b