Hauptinhalt

patternnet

Generieren eines Mustererkennungs-Netzes

Beschreibung

net = patternnet(hiddenSizes,trainFcn,performFcn) gibt ein neuronales Mustererkennungs-Netz mit einer verborgenen Schichtgröße von hiddenSizes, einer durch trainFcn festgelegten Trainingsfunktion und einer durch performFcn festgelegten Leistungsfunktion aus.

Mustererkennungs-Netze sind Feed-Forward-Netz, die darauf trainiert werden können, Eingänge nach Zielklassen zu klassifizieren. Die Zieldaten für Mustererkennungs-Netze sollten aus Vektoren mit Nullwerten bestehen, mit Ausnahme von 1 bei dem Element i, wobei i für die darzustellende Klasse steht.

Beispiel

Beispiele

alle reduzieren

Dieses Beispiel zeigt, wie Sie ein Mustererkennungs-Netz zur Klassifizierung von Schwertlilien entwickeln können.

Laden Sie die Trainingsdaten.

[x,t] = iris_dataset;

Konstruieren Sie ein Muster-Netz mit einer verborgenen Schicht der Größe 10.

net = patternnet(10);

Trainieren Sie das Netz net unter Verwendung der Trainingsdaten.

net = train(net,x,t);

Figure Neural Network Training (09-Aug-2025 13:47:08) contains an object of type uigridlayout.

Sehen Sie sich das trainierte Netz an.

view(net)

Schätzen Sie die Ziele mithilfe des trainierten Netzes.

y = net(x);

Bewerten Sie die Leistung des trainierten Netzes. Die Standardleistungsfunktion ist die mittlere quadratische Abewichung.

perf = perform(net,t,y)
perf = 
0.0181
classes = vec2ind(y);

Eingabeargumente

alle reduzieren

Größe der verborgenen Schichten des Netzes, angegeben als Zeilenvektor. Die Länge des Vektors bestimmt die Anzahl der verborgenen Schichten im Netz.

Beispiel: Sie können zum Beispiel ein Netz mit 3 verborgenen Schichten angeben, wobei die Größe der ersten verborgenen Schicht 10, der zweiten 8 und der dritten 5 beträgt: [10,8,5]

Die Eingabe- und Ausgabegrößen werden auf Null gesetzt. Die Software passt deren Größe während des Trainings entsprechend den Trainingsdaten an.

Datentypen: single | double

Name der Trainingsfunktion, angegeben als eine der folgenden Möglichkeiten:

TrainingsfunktionAlgorithmus
'trainlm'

Levenberg-Marquardt

'trainbr'

Bayes‘sche Regularisierung

'trainbfg'

BFGS Quasi-Newton

'trainrp'

Resiliente Backpropagation (Rprop)

'trainscg'

Skalierter konjugierter Gradient

'traincgb'

Konjugierter Gradient mit Powell/Beale-Restarts

'traincgf'

Konjugierter Fletcher-Powell-Gradient

'traincgp'

Konjugierter Polak-Ribiére-Gradient

'trainoss'

Ein-Schritt-Sekantenverfahren

'traingdx'

Gradientenabstieg mit variabler Lernrate

'traingdm'

Gradientenabstieg mit Momentum

'traingd'

Gradientenabstieg

Beispiel: Sie können zum Beispiel den Gradientenabstiegsalgorithmus mit variabler Lernrate wie folgt als Trainingsalgorithmus festlegen: 'traingdx'

Weitere Informationen zu den Trainingsfunktionen finden Sie unter Train and Apply Multilayer Shallow Neural Networks und Choose a Multilayer Neural Network Training Function.

Datentypen: char

Leistungsfunktion. Der Standardwert ist 'crossentropy'.

Dieses Argument legt die zur Messung der Netzleistung verwendete Funktion fest. Die Leistungsfunktion wird zur Berechnung der Netzleistung während des Trainings verwendet.

Geben Sie für eine Liste der Funktionen help nnperformance in das MATLAB-Befehlsfenster ein.

Ausgangsargumente

alle reduzieren

Neuronales Mustererkennungsnetz, ausgegeben als network-Objekt.

Versionsverlauf

Eingeführt in R2010b