Unterstützung für MATLAB-Berechnungen

auf CUDA-fähigen NVIDIA-GPUs

Durchführung von MATLAB-Berechnungen auf CUDA-fähigen NVIDIA-GPUs

 

Mit MATLAB® können Sie NVIDIA®-GPUs verwenden, um die KI, das Deep Learning und andere berechnungsintensive Analysen zu beschleunigen, ohne die CUDA®-Programmierung zu beherrschen. Mit MATLAB und der Parallel Computing Toolbox™ können Sie:

  • NVIDIA-GPUs direkt von MATLAB aus nutzen und dabei über 500 integrierte Funktionen verwenden
  • mit MATLAB-Workerprozessen und MATLAB Parallel Server™ auf mehrere GPUs auf Desktop-PCs, Computerclustern und in der Cloud zugreifen
  • CUDA-Code mit dem GPU Coder™ direkt von MATLAB aus generieren, um ihn in Rechenzentren, in Clouds und auf eingebetteten Geräten bereitzustellen
  • NVIDIA TensorRT™-Code mit dem GPU Coder von MATLAB aus generieren, um Vorhersagen mit geringer Latenz und hohem Durchsatz zu machen
  • in MATLAB entwickelte KI-Anwendungen auf NVIDIA-gestützten Rechenzentren bereitstellen, um sie in Unternehmenssysteme mithilfe des MATLAB Production Server™ zu integrieren

“Unser Legacy-Code brauchte bis zu 40 Minuten, um einen einzigen Windkanaltest zu analysieren; mit MATLAB und einer GPU dauert eine solche Berechnung jetzt unter einer Minute. Wir brauchten nur 30 Minuten, um unseren MATLAB-Algorithmus auf der GPU zum Laufen zu bekommen – es war keine Low-Level-CUDA-Programmierung notwendig.”

Christopher Bahr, NASA

Verwendung von MATLAB für GPU-Berechnungen

Entwicklung, Skalierung und Bereitstellung von Deep Learning-Modellen mit MATLAB

Mit MATLAB kann ein einzelner Benutzer einen End-to-End-Workflow implementieren, mit dem Deep-Learning-Modelle mit der Deep Learning Toolbox™ entwickelt und trainiert werden. Dann können Sie das Training mithilfe von Cloud- und Clusterressourcen skalieren, indem Sie die Parallel Computing Toolbox und den MATLAB Parallel Server einsetzen und das Ergebnis mit dem GPU Coder in Rechenzentren oder auf eingebetteten Geräten bereitstellen.

Entwicklung von Deep Learning und anderen berechnungsintensiven Analysen mit GPUs

MATLAB ist eine Plattform für End-to-End-Workflows für die Entwicklung von KI und Deep Learning. MATLAB bietet Tools und Apps für den Import von Trainingsdatensätzen, die Visualisierung und das Debugging, die Skalierung des Trainings von CNNs und die Bereitstellung.

Sie können mit einer einzigen Codezeile auf zusätzliche Berechnungs- und GPU-Ressourcen auf Desktop-PCs, in Clouds und in Clustern hochskalieren.


Test your own CPU and GPU hardware using gpuBench.

Skalierung von MATLAB auf GPUs mit minimalen Anpassungen des Codes

Führen Sie MATLAB-Code auf NVIDIA-GPUs aus, indem Sie über 500 CUDA-fähige MATLAB-Funktionen verwenden. Verwenden Sie GPU-fähige Funktionen in Toolboxen für Anwendungen wie Deep Learning, Machine Learning, Computer Vision und Signalverarbeitung. Die Parallel Computing Toolbox stellt gpuArray zur Verfügung, einen speziellen Arraydatentyp mit zugehörigen Funktionen, mit dem Sie Berechnungen auf CUDA-fähigen NVIDIA-GPUs direkt aus MATLAB heraus ausführen können, ohne sich mit Low-Level-Bibliotheken für GPU-Berechnungen auskennen zu müssen.

Ingenieure können GPU-Ressourcen nutzen, ohne zusätzlichen Code zu schreiben. Daher können sie sich auf ihre Anwendungen konzentrieren statt auf die Leistungsoptimierung.

Mithilfe paralleler Sprachkonstrukte wie parfor und spmd können Sie Berechnungen auf mehreren GPUs durchführen. Um ein Modell auf mehreren GPUs zu trainieren, müssen Sie lediglich eine Trainingsoption ändern.

Außerdem können Sie Ihre vorhandenen CUDA-Kernels in MATLAB-Anwendungen integrieren, ohne zusätzlichen C-Code zu programmieren.


Verwendung aus MATLAB generierten CUDA-Codes für die Vorhersage mit TensorRT

Verwenden Sie den GPU Coder, um optimierten CUDA-Code aus MATLAB-Code für Deep Learning, Embedded Vision und autonome Systeme zu generieren. Der generierte Code ruft automatisch optimierte CUDA-Bibliotheken von NVIDIA auf, darunter TensorRT, cuDNN und cuBLAS, damit er mit geringer Latenz und hohem Durchsatz auf NVIDIA-GPUs ausgeführt werden kann. Integrieren Sie den generierten Code als Quellcode, statische oder dynamische Bibliotheken in Ihr Projekt, und stellen Sie diese dann zur Ausführung auf GPUs wie NVIDIA Volta®, NVIDIA Tesla®, NVIDIA Jetson® und NVIDIA DRIVE® bereit.