Deep Learning

 

MATLAB für Deep Learning

Entwerfen, erstellen und visualisieren Sie neuronale Faltungsnetzwerke

Sie können mit wenigen Zeilen des MATLAB®-Codes Deep-Learning-Modelle erstellen – und müssen dafür kein Experte sein. Erfahren Sie, wie MATLAB Ihnen helfen kann, mit Deep Learning zu arbeiten.

  • Sie können mühelos auf die neuesten Modelle zugreifen, wie GoogLeNet, VGG-16, VGG-19, AlexNet, ResNet-50, ResNet-101 und Inception-v3.
  • Sie können Algorithmen in NVIDIA® GPUs, in der Cloud und in Rechenzentren beschleunigen, ganz ohne spezielle Re-Programmierung.
  • Sie können komplexe tiefe neuronale Netzwerkarchitekturen mithilfe von MATLAB-Apps und Visualisierungstools erstellen, ändern und analysieren.
  • Sie können die Ground-Truth-Kennzeichnung von Bild-, Video- und Audiodaten mithilfe von Apps automatisieren.
  • Sie können mit Modellen aus Caffe und TensorFlow-Keras arbeiten.
  • MATLAB unterstützt ONNX™, sodass Sie mit Fachkollegen, die Frameworks wie PyTorch und MxNet nutzen, zusammenarbeiten können.

Warum MATLAB für Deep Learning?

Interoperabilität

Es geht nicht um eine Entweder-oder-Wahl zwischen MATLAB und Python-basierten Frameworks. MATLAB unterstützt die Interoperabilität mit Open-Source-Deep-Learning-Frameworks mithilfe von ONNX-Import- und -Exportfähigkeiten. Nutzen Sie MATLAB-Tools, wo es am sinnvollsten ist – greifen Sie auf Fähigkeiten und vordefinierte Funktionen und Apps zu, die nicht in Python verfügbar sind.

Use labeling apps for deep learning workflows like semantic segmentation. 

Apps für die Vorverarbeitung

Beschreiten/Bewältigen Sie den Weg (bis) zum Training Ihrer Netze schneller (als bisher). Führen Sie die Vorverarbeitung von Datensätzen schneller als bisher durch, mit domänenspezifischen Apps für Audio-, Video- und Bilddaten. Visualisieren, prüfen und beheben Sie Probleme vor dem Trainieren von Netzen mithilfe der Deep Network Designer-App, mit der Anwender komplexe Netzarchitekturen erstellen oder komplexe vortrainierte Netze für das Transfer Learning verändern können.

Multi-Plattform-Entwicklung

Stellen Sie Deep-Learning-Modelle überall bereit: In CUDA, als C-Code, in Unternehmenssystemen oder in der Cloud. Sobald es um die Performance geht, können Sie Code generieren, der optimierte Bibliotheken von Intel® (MKL-NNN), NVIDIA (TensorRT, cuDNN) und ARM® (ARM Compute Library) nutzt, um bereitzustellende Modelle mit hochleistungsfähiger Inferenzgeschwindigkeit zu erstellen.

Jetzt schnell loslegen

Sehen Sie sich eine Demo an, erkunden Sie die interaktiven Beispiele und nutzen Sie kostenlose Tutorials.

Kostenlose Testversion anfordern

Eine 30-tägige Erkundungsreise in greifbarer Nähe.

Haben Sie Fragen?

Sprechen Sie mit einem Deep-Learning-Experten.