Simulieren, testen und implementieren Sie Machine-Learning- und Deep-Learning-Modelle auf Edge-Geräten und Embedded Systems. Generieren Sie Code für vollständige KI-Anwendungen, einschließlich Vor- und Nachverarbeitungsalgorithmen.
Mit MATLAB® und Simulink® können Sie Folgendes tun:
- Generierung von optimiertem C/C++ und CUDA-Code zur Bereitstellung auf Prozessoren und Grafikprozessoren
- Generierung von synthetisierbarem Verilog- und VHDL-Code zur Bereitstellung auf FPGAs und SoCs
- Beschleunigung der Inferenz mit hardwareoptimierten Deep-Learning-Bibliotheken, einschließlich oneDNN, Arm Compute Library und TensorRT
- Integration von vortrainierten TensorFlow-Lite(TFLite)-Modellen in auf Hardware bereitgestellten Anwendungen
- Komprimierung von KI-Modellen zur Inferenz auf ressourcenbegrenzter Hardware mit Tools zur Hyperparameterabstimmung, Quantisierung und Netzkomprimierung
„Von der Datenannotierung über das Auswählen, Trainieren und Testen bis hin zur Feinabstimmung unseres Deep-Learning-Modells besaß MATLAB alle benötigten Werkzeuge. GPU Coder ermöglichte die schnelle Bereitstellung auf unseren NVIDIA-Grafikprozessoren, obwohl wir nicht viel Erfahrung in dem Bereich hatten.“
Valerio Imbriolo, Drass Group
![STMicroelectronics Discovery Kit Screenshot von der Bereitstellung von C/C++ Code auf einem Bild von Embedded Hardware.](https://de.mathworks.com/solutions/deep-learning/edge-ai/_jcr_content/mainParsys/band_copy_copy/mainParsys/columns_copy/507537ca-afa8-41c5-806f-bbdd06667040/image_copy_copy.adapt.full.medium.jpg/1719298026741.jpg)
Prozessoren und Mikrocontroller
Generieren Sie portablen, optimierten C/C++ Code aus trainierten Machine-Learning- und Deep-Learning-Modellen mit MATLAB Coder™ und Simulink Coder™. Optional können anbieterspezifische Bibliotheken einbezogen werden, die für Deep-Learning-Inferenz im generierten Code optimiert wurden, wie oneDNN und Arm® Compute Library.
![GPU Coder App Screenshot von C/C++ Code in Simulink, der für Bilder eines NVIDIA-Desktop und einer Embedded GPU bereitgestellt wird.](https://de.mathworks.com/solutions/deep-learning/edge-ai/_jcr_content/mainParsys/band_copy_copy/mainParsys/columns_copy/b827a46e-7d00-424f-81d8-b611fc9edab9/image_copy.adapt.full.medium.jpg/1719298026811.jpg)
Grafikprozessoren
Generieren Sie optimierten CUDA®-Code für trainierte Deep-Learning-Netze mit GPU Coder™. Integrieren Sie Vor- und Nachverarbeitung in Ihr Netz, um vollständige Algorithmen auf Desktops, Servern und Embedded GPUs bereitzustellen. Arbeiten Sie mit NVIDIA® CUDA-Bibliotheken wie TensorRT™ und cuDNN, um die Leistung zu maximieren.
![Prototyperstellung und Bereitstellung von HDL-basierten Deep-Learning-IP-Kernen für FPGAs und SoCs FPGA-basierte Deep-Learning-Inferenzen können aus MATLAB heraus auf Prototypen-Hardware ausgeführt werden, um anschließend einen HDL-basierten IP-Kern für Deep Learning zu erzeugen, der auf beliebigen FPGAs oder ASICs bereitgestellt werden kann.](https://de.mathworks.com/solutions/deep-learning/edge-ai/_jcr_content/mainParsys/band_copy_copy/mainParsys/columns_copy_copy/507537ca-afa8-41c5-806f-bbdd06667040/image_copy_copy.adapt.full.medium.jpg/1719298026911.jpg)
FPGAs und SoCs
Erstellen Sie Prototypen und implementieren Sie Deep-Learning-Netze mit Deep Learning HDL Toolbox auf FPGAs und SoCs. Programmieren Sie Deep-Learning-Prozessoren und IP-Kerne mit vordefinierten Bitströmen für beliebte FPGA-Entwicklungskits. Generieren Sie mit HDL Coder™ individuell erstellte IP-Prozessorkerne und Bitströme für Deep Learning.
![Deep Network Quantizer App Screenshot mit mehrschichtigem Graphen, einer Kalibrierungsstatistik und Validierungsergebnissen, um KI-Modelle für die Bereitstellung in Embedded-Systemen zu optimieren.](https://de.mathworks.com/solutions/deep-learning/edge-ai/_jcr_content/mainParsys/band_copy_copy/mainParsys/columns_copy_copy/b827a46e-7d00-424f-81d8-b611fc9edab9/image_copy_copy_copy.adapt.full.medium.jpg/1719298026980.jpg)
Komprimierung von KI-Modellen
Verringern Sie den Arbeitsspeicherbedarf für Machine-Learning- und Deep-Learning-Modelle durch Hyperparameter-Abstimmung und Quantisierung von Gewichtungen, Verzerrungen und Aktivierungen. Minimieren Sie die Größe eines tiefen neuronalen Netzes durch das Komprimieren unwesentlicher Schichtverbindungen.