Hauptinhalt

googlenet

(Nicht empfohlen) Convolutional Neural Network GoogLeNet

  • GoogLeNet network architecture

googlenet wird nicht empfohlen. Verwenden Sie stattdessen die imagePretrainedNetwork-Funktion und geben Sie das "googlenet"-Modell an. Weitere Informationen finden Sie unter Versionsverlauf.

Beschreibung

GoogLeNet ist ein 22 Schichten tiefes Convolutional Neural Network. Sie können eine vortrainierte Version des Netzes laden, das anhand mehr als einer Million Bildern aus der Datenbank ImageNet [1] oder Places365 [2] [3] vortrainiert wurde. Das mit ImageNet trainierte Netz kann Bilder in 1000 Objektkategorien klassifizieren (z. B. Tastatur, Maus, Bleistift und viele Tierarten). Das mit Places365 trainierte Netz ähnelt dem mit ImageNet trainierten Netz, kann Bilder jedoch in 365 Ortskategorien klassifizieren, wie Feld, Park, Landebahn oder Lobby. Diese Netze haben unterschiedliche Merkmale für eine große Bandbreite von Bildern erlernt. Diese vortrainierten Netze weisen eine Bild-Eingangsgröße von 224x224 auf. Weitere Informationen über vortrainierte Netze in MATLAB® finden Sie unter Pretrained Deep Neural Networks.

net = googlenet gibt ein mit dem ImageNet-Datensatz trainiertes GoogLeNet-Netz zurück.

Diese Funktion erfordert das Supportpaket Deep Learning Toolbox™ Model for GoogLeNet Network. Wenn das Supportpaket nicht installiert ist, stellt die Funktion einen Download-Link bereit.

Beispiel

net = googlenet('Weights',weights) gibt ein mit dem ImageNet- oder Places365-Datensatz trainiertes GoogLeNet-Netz zurück. Die Syntax googlenet('Weights','imagenet') (Standard) ist äquivalent zu googlenet.

Das mit ImageNet trainierte Netz erfordert das Supportpaket Deep Learning Toolbox Model for GoogLeNet Network. Das mit Places365 trainierte Netz erfordert das Supportpaket Deep Learning Toolbox Model for Places365-GoogLeNet Network. Wenn das erforderliche Supportpaket nicht installiert ist, stellt die Funktion einen Download-Link bereit.

lgraph = googlenet('Weights','none') gibt die untrainierte GoogLeNet-Netzarchitektur zurück. Das untrainierte Modell erfordert kein Supportpaket.

Beispiele

alle reduzieren

Laden Sie das Supportpaket Deep Learning Toolbox Model for GoogLeNet Network herunter und installieren Sie es.

Geben Sie in der Befehlszeile googlenet ein.

googlenet

Wenn das Supportpaket Deep Learning Toolbox Model for GoogLeNet Network nicht installiert ist, stellt die Funktion einen Link zum erforderlichen Supportpaket im Add-On Explorer bereit. Um das Supportpaket zu installieren, klicken Sie auf den Link und daraufhin auf Install. Geben Sie in der Befehlszeile googlenet ein, um zu überprüfen, ob die Installation erfolgreich war. Wurde das erforderliche Supportpaket installiert, gibt die Funktion ein DAGNetwork-Objekt aus.

googlenet
ans = 

  DAGNetwork with properties:

         Layers: [144×1 nnet.cnn.layer.Layer]
    Connections: [170×2 table]

Visualisieren Sie das Netz mithilfe von Deep Network Designer.

deepNetworkDesigner(googlenet)

Klicken Sie auf New, um weitere vortrainierte neuronale Netzwerke in Deep Network Designer zu erkunden.

Deep Network Designer start page showing available pretrained neural networks

Wenn Sie ein neuronales Netz herunterladen müssen, halten Sie bei dem gewünschten neuronalen Netz an und klicken Sie auf Install, um den Add-On Explorer zu öffnen.

Eingabeargumente

alle reduzieren

Quellen von Netzparametern, angegeben als 'imagenet', 'places365' oder 'none'.

  • Ist weights gleich 'imagenet', weist das Netz mit dem ImageNet-Datensatz trainierte Gewichtungen auf.

  • Ist weights gleich 'places365', weist das Netz mit dem Places365-Datensatz trainierte Gewichtungen auf.

  • Ist weights gleich 'none', wird die untrainierte Netzarchitektur zurückgegeben.

Beispiel: 'places365'

Ausgangsargumente

alle reduzieren

Vortrainiertes Convolutional Neural Network GoogLeNet, zurückgegeben als DAGNetwork-Objekt.

Architektur des untrainierten Convolutional Neural Networks GoogLeNet, zurückgegeben als LayerGraph-Objekt.

Referenzen

[1] ImageNet. http://www.image-net.org.

[2] Zhou, Bolei, Aditya Khosla, Agata Lapedriza, Antonio Torralba, and Aude Oliva. "Places: An image database for deep scene understanding." arXiv preprint arXiv:1610.02055 (2016).

[3] Places. http://places2.csail.mit.edu/

[4] Szegedy, Christian, Wei Liu, Yangqing Jia, Pierre Sermanet, Scott Reed, Dragomir Anguelov, Dumitru Erhan, Vincent Vanhoucke, and Andrew Rabinovich. “Going Deeper with Convolutions.” In 2015 IEEE Conference on Computer Vision and Pattern Recognition (CVPR), 1–9. Boston, MA, USA: IEEE, 2015. https://doi.org/10.1109/CVPR.2015.7298594.

Erweiterte Fähigkeiten

alle erweitern

Versionsverlauf

Eingeführt in R2017b

alle reduzieren