Embedded KI findet sich heute überall – in Geräten für den Verbraucher ebenso wie in industriellen Systemen. Wie gut kennen Sie sich mit Embedded-KI-Techniken und Tools aus? Beantworten Sie einfach 7 Fragen und finden Sie es heraus.
Frage 1/7
Was ist eine zentrale Herausforderung bei der Bereitstellung von KI-Anwendungen auf Embedded-Geräten?
Frage 4/7
Sie arbeiten mit einem ressourcenbeschränkten Mikrocontroller und müssen ein trainiertes KI-Modell effizient und in kurzer Zeit bereitstellen. Welches ist der empfohlene Ansatz?
Frage 5/7
Sie möchten ein Deep-Learning-Modell für die Bereitstellung auf einer NVIDIA®-GPU beschleunigen. Welche Strategie ist dafür praktisch?
Frage 6/7
Wie importiert man ein trainiertes PyTorch® oder TensorFlow™-Modell zur eingetteten Bereitstellung in MATLAB?
Frage 7/7
Welche Technik kann verwendet werden, um die Größe von KI-Modellen für den Einsatz auf Embedded-Systemen zu reduzieren?
Ihr Ergebnis ist:
%
Gut gemacht!
Erfahren Sie mehr über Modellierung, Simulation und Einsatz von KI in eingebetteten Systemen.
- MATLAB und Simulink für Embedded KI - Übersicht
Bravo!
Erfahren Sie mehr über Modellierung, Simulation und Einsatz von KI in eingebetteten Systemen.
- MATLAB und Simulink für Embedded KI - Übersicht
Das war eine starke Leistung!
Entdecken Sie vortrainierte KI-Modelle, eine Verifikationsbibliothek und Optionen für die Bereitstellung bei eingeschränkten Ressourcen.
- MATLAB und Simulink für Embedded KI - Übersicht
Lösungen
- Was ist eine zentrale Herausforderung bei der Bereitstellung von KI-Anwendungen auf Embedded-Geräten? Begrenzter Speicher und eingeschränkte Rechenressourcen
- Was ist der zentrale Unterschied zwischen Embedded KI und Edge KI? Embedded KI läuft auf ressourcenbeschränkter Hardware; Edge KI kann auch leistungsfähigere lokale Geräte umfassen
- Was beschreibt am besten das Ziel von tinyML? Machine Learning auf ressourcenbeschränkten Geräten zu ermöglichen
- Sie arbeiten mit einem ressourcenbeschränkten Mikrocontroller und müssen ein trainiertes KI-Modell effizient und in kurzer Zeit bereitstellen. Welches ist der empfohlene Ansatz? Verwendung eines Codegenerierungstool (z. B. MATLAB Coder), um automatisch optimierten C oder C++ Code für Ihren Mikrocontroller zu generieren
- Sie möchten ein Deep-Learning-Modell für die Bereitstellung auf einer NVIDIA-GPU beschleunigen. Welche Strategie ist dafür praktisch? Verwenden eines Tools, das CUDA-Code generiert oder optimierte Modelle direkt auf der GPU bereitstellt (z. B. GPU Coder, TensorRT)
- Wie können Sie ein trainiertes PyTorch- oder TensorFlow-Modell für die eingebettete Bereitstellung in MATLAB importieren? Verwenden der von MATLAB bereitgestellten Import-Tools, um die Modelle zu konvertieren
- Welche Technik kann verwendet werden, um die Größe von KI-Modellen für den Einsatz auf Embedded-Systemen zu reduzieren? Quantisierung
Website auswählen
Wählen Sie eine Website aus, um übersetzte Inhalte (sofern verfügbar) sowie lokale Veranstaltungen und Angebote anzuzeigen. Auf der Grundlage Ihres Standorts empfehlen wir Ihnen die folgende Auswahl: .
Sie können auch eine Website aus der folgenden Liste auswählen:
So erhalten Sie die bestmögliche Leistung auf der Website
Wählen Sie für die bestmögliche Website-Leistung die Website für China (auf Chinesisch oder Englisch). Andere landesspezifische Websites von MathWorks sind für Besuche von Ihrem Standort aus nicht optimiert.
Amerika
- América Latina (Español)
- Canada (English)
- United States (English)
Europa
- Belgium (English)
- Denmark (English)
- Deutschland (Deutsch)
- España (Español)
- Finland (English)
- France (Français)
- Ireland (English)
- Italia (Italiano)
- Luxembourg (English)
- Netherlands (English)
- Norway (English)
- Österreich (Deutsch)
- Portugal (English)
- Sweden (English)
- Switzerland
- United Kingdom (English)