Deep Learning

MATLAB und Simulink für Edge-KI

Bereitstellung von Machine-Learning- und Deep-Learning-Anwendungen auf Embedded Systems

Simulieren, testen und implementieren Sie Machine-Learning- und Deep-Learning-Modelle auf Edge-Geräten und Embedded Systems. Generieren Sie Code für vollständige KI-Anwendungen, einschließlich Vor- und Nachverarbeitungsalgorithmen.

Mit MATLAB® und Simulink® können Sie Folgendes tun:

  • Generierung von optimiertem C/C++ und CUDA-Code zur Bereitstellung auf Prozessoren und Grafikprozessoren
  • Generierung von synthetisierbarem Verilog- und VHDL-Code zur Bereitstellung auf FPGAs und SoCs
  • Beschleunigung der Inferenz mit hardwareoptimierten Deep-Learning-Bibliotheken, einschließlich oneDNN, Arm Compute Library und TensorRT
  • Integration von vortrainierten TensorFlow-Lite(TFLite)-Modellen in auf Hardware bereitgestellten Anwendungen
  • Komprimierung von KI-Modellen zur Inferenz auf ressourcenbegrenzter Hardware mit Tools zur Hyperparameterabstimmung, Quantisierung und Netzkomprimierung

„Von der Datenannotierung über das Auswählen, Trainieren und Testen bis hin zur Feinabstimmung unseres Deep-Learning-Modells besaß MATLAB alle benötigten Werkzeuge. GPU Coder ermöglichte die schnelle Bereitstellung auf unseren NVIDIA-Grafikprozessoren, obwohl wir nicht viel Erfahrung in dem Bereich hatten.“

Screenshot von der Bereitstellung von C/C++ Code auf einem Bild von Embedded Hardware.

Prozessoren und Mikrocontroller

Generieren Sie portablen, optimierten C/C++ Code aus trainierten Machine-Learning- und Deep-Learning-Modellen mit MATLAB Coder™ und Simulink Coder™. Optional können anbieterspezifische Bibliotheken einbezogen werden, die für Deep-Learning-Inferenz im generierten Code optimiert wurden, wie oneDNN und Arm® Compute Library.

Screenshot von C/C++ Code in Simulink, der für Bilder eines NVIDIA-Desktop und einer Embedded GPU bereitgestellt wird.

Grafikprozessoren

Generieren Sie optimierten CUDA®-Code für trainierte Deep-Learning-Netze mit GPU Coder™. Integrieren Sie Vor- und Nachverarbeitung in Ihr Netz, um vollständige Algorithmen auf Desktops, Servern und Embedded GPUs bereitzustellen. Arbeiten Sie mit NVIDIA® CUDA-Bibliotheken wie TensorRT™ und cuDNN, um die Leistung zu maximieren.

FPGA-basierte Deep-Learning-Inferenzen können aus MATLAB heraus auf Prototypen-Hardware ausgeführt werden, um anschließend einen HDL-basierten IP-Kern für Deep Learning zu erzeugen, der auf beliebigen FPGAs oder ASICs bereitgestellt werden kann.

FPGAs und SoCs

Erstellen Sie Prototypen und implementieren Sie Deep-Learning-Netze mit Deep Learning HDL Toolbox auf FPGAs und SoCs. Programmieren Sie Deep-Learning-Prozessoren und IP-Kerne mit vordefinierten Bitströmen für beliebte FPGA-Entwicklungskits. Generieren Sie mit HDL Coder™ individuell erstellte IP-Prozessorkerne und Bitströme für Deep Learning.

Screenshot mit mehrschichtigem Graphen, einer Kalibrierungsstatistik und Validierungsergebnissen, um KI-Modelle für die Bereitstellung in Embedded-Systemen zu optimieren.

Komprimierung von KI-Modellen

Verringern Sie den Arbeitsspeicherbedarf für Machine-Learning- und Deep-Learning-Modelle durch Hyperparameter-Abstimmung und Quantisierung von Gewichtungen, Verzerrungen und Aktivierungen. Minimieren Sie die Größe eines tiefen neuronalen Netzes durch das Komprimieren unwesentlicher Schichtverbindungen.