Simulieren, testen und implementieren Sie Machine-Learning- und Deep-Learning-Modelle auf Edge-Geräten und Embedded Systems. Generieren Sie Code für vollständige KI-Anwendungen, einschließlich Vor- und Nachverarbeitungsalgorithmen.
Mit MATLAB® und Simulink® können Sie Folgendes tun:
- Generierung von optimiertem C/C++ und CUDA-Code zur Bereitstellung auf Prozessoren und Grafikprozessoren
- Generierung von synthetisierbarem Verilog- und VHDL-Code zur Bereitstellung auf FPGAs und SoCs
- Beschleunigung der Inferenz mit hardwareoptimierten Deep-Learning-Bibliotheken, einschließlich oneDNN, Arm Compute Library und TensorRT
- Integration von vortrainierten TensorFlow-Lite(TFLite)-Modellen in auf Hardware bereitgestellten Anwendungen
- Komprimierung von KI-Modellen zur Inferenz auf ressourcenbegrenzter Hardware mit Tools zur Hyperparameterabstimmung, Quantisierung und Netzkomprimierung
Prozessoren und Mikrocontroller
Generieren Sie portablen, optimierten C/C++ Code aus trainierten Machine-Learning- und Deep-Learning-Modellen mit MATLAB Coder™ und Simulink Coder™. Optional können anbieterspezifische Bibliotheken einbezogen werden, die für Deep-Learning-Inferenz im generierten Code optimiert wurden, wie oneDNN und Arm® Compute Library.
Grafikprozessoren
Generieren Sie optimierten CUDA®-Code für trainierte Deep-Learning-Netze mit GPU Coder™. Integrieren Sie Vor- und Nachverarbeitung in Ihr Netz, um vollständige Algorithmen auf Desktops, Servern und Embedded GPUs bereitzustellen. Arbeiten Sie mit NVIDIA® CUDA-Bibliotheken wie TensorRT™ und cuDNN, um die Leistung zu maximieren.
FPGAs und SoCs
Erstellen Sie Prototypen und implementieren Sie Deep-Learning-Netze mit Deep Learning HDL Toolbox auf FPGAs und SoCs. Programmieren Sie Deep-Learning-Prozessoren und IP-Kerne mit vordefinierten Bitströmen für beliebte FPGA-Entwicklungskits. Generieren Sie mit HDL Coder™ individuell erstellte IP-Prozessorkerne und Bitströme für Deep Learning.
Komprimierung von KI-Modellen
Verringern Sie den Arbeitsspeicherbedarf für Machine-Learning- und Deep-Learning-Modelle durch Hyperparameter-Abstimmung und Quantisierung von Gewichtungen, Verzerrungen und Aktivierungen. Minimieren Sie die Größe eines tiefen neuronalen Netzes durch das Komprimieren unwesentlicher Schichtverbindungen.