Dauer des Videos 20:41

Komprimierung neuronaler Netze für Embedded KI: Pruning, Projektion und Quantisierung

Aus der Reihe: Edge-KI und Embedded-KI

In diesem Tech Talk wird untersucht, wie man neuronale Netzwerkmodelle komprimieren kann, damit sie effizient auf eingebetteten Systemen laufen, ohne an Genauigkeit einzubüßen. Viele neuronale Netze sind überparametrisiert, das heißt, sie enthalten mehr Gewichte und Strukturen als nötig. Dieser Überschuss kann systematisch durch drei leistungsstarke Techniken reduziert werden: Pruning, Projektion und Quantisierung. Anhand eines praktischen MATLAB®-Beispiels lernen Sie, wie Sie ein trainiertes Modell komprimieren, das rissigen Asphalt anhand von Beschleunigungsdaten klassifiziert – und dabei eine Reduzierung der Modellgröße um über 94% bei gleichzeitig hoher Genauigkeit erreichen.

Veröffentlicht: 8 Aug 2025