Unterstützung für MATLAB-Berechnungen
auf CUDA-fähigen NVIDIA-GPUs
Durchführung von MATLAB-Berechnungen auf CUDA-fähigen NVIDIA-GPUs
Durchführung von MATLAB-Berechnungen auf CUDA-fähigen NVIDIA-GPUs
Mit MATLAB können Sie NVIDIA®-GPUs verwenden, um die KI, das Deep Learning und andere berechnungsintensive Analysen zu beschleunigen, ohne die CUDA®-Programmierung zu beherrschen. Mit MATLAB und der Parallel Computing Toolbox können Sie:
Mit MATLAB kann ein einzelner Benutzer einen End-to-End-Workflow implementieren, mit dem Deep-Learning-Modelle mit der Deep Learning Toolbox entwickelt und trainiert werden. Dann können Sie das Training mithilfe von Cloud- und Clusterressourcen skalieren, indem Sie die Parallel Computing Toolbox und den MATLAB Parallel Server einsetzen und das Ergebnis mit dem GPU Coder in Rechenzentren oder auf eingebetteten Geräten bereitstellen.
MATLAB ist eine Plattform für End-to-End-Workflows für die Entwicklung von KI und Deep Learning. MATLAB bietet Tools und Apps für den Import von Trainingsdatensätzen, die Visualisierung und das Debugging, die Skalierung des Trainings von CNNs und die Bereitstellung.
Sie können mit einer einzigen Codezeile auf zusätzliche Berechnungs- und GPU-Ressourcen auf Desktop-PCs, in Clouds und in Clustern hochskalieren.
Testen Sie Ihre eigene CPU- und GPU-Hardware mithilfe von gpuBench.
Führen Sie MATLAB-Code auf NVIDIA-GPUs aus, indem Sie über 1000 CUDA-fähige MATLAB-Funktionen verwenden. Verwenden Sie GPU-fähige Funktionen in Toolboxen für Anwendungen wie Deep Learning, Machine Learning, Computer Vision und Signalverarbeitung. Die Parallel Computing Toolbox stellt gpuArray zur Verfügung, einen speziellen Arraydatentyp mit zugehörigen Funktionen, mit dem Sie Berechnungen auf CUDA-fähigen NVIDIA-GPUs direkt aus MATLAB heraus ausführen können, ohne sich mit Low-Level-Bibliotheken für GPU-Berechnungen auskennen zu müssen.
Ingenieure können GPU-Ressourcen nutzen, ohne zusätzlichen Code zu schreiben. Daher können sie sich auf ihre Anwendungen konzentrieren statt auf die Leistungsoptimierung.
Mithilfe paralleler Sprachkonstrukte wie parfor und spmd können Sie Berechnungen auf mehreren GPUs durchführen. Um ein Modell auf mehreren GPUs zu trainieren, müssen Sie lediglich eine Trainingsoption ändern.
Außerdem können Sie Ihre vorhandenen CUDA-Kernels in MATLAB-Anwendungen integrieren, ohne zusätzlichen C-Code zu programmieren.
Produkte
Verwenden Sie den GPU Coder, um optimierten CUDA-Code aus MATLAB-Code für Deep Learning, Embedded Vision und autonome Systeme zu generieren. Der generierte Code ruft automatisch optimierte CUDA-Bibliotheken von NVIDIA auf, darunter TensorRT, cuDNN und cuBLAS, damit er mit geringer Latenz und hohem Durchsatz auf NVIDIA-GPUs ausgeführt werden kann. Integrieren Sie den generierten Code als Quellcode, statische oder dynamische Bibliotheken in Ihr Projekt, und stellen Sie diese dann zur Ausführung auf GPUs wie NVIDIA Volta®, NVIDIA Tesla®, NVIDIA Jetson® und NVIDIA DRIVE® bereit.