Schulungen zu MATLAB und Simulink

Autonomes Fahren mit MATLAB

Programm ansehen und anmelden

Kursbeschreibung

Dieser zweitägige Kurs liefert eine Einführung in die Entwicklung und Verifizierung von Algorithmen zur Umgebungswahrnehmung. Beispiele und Übungen verdeutlichen die Verwendung geeigneter Funktionalitäten von MATLAB® und der Automated Driving System Toolbox™.

  • Themen sind unter anderem:
  • Erstellen von Ground-Truth-Daten
  • Visualisieren von Sensordaten
  • Fahrspur- und Fahrzeugerkennung
  • Arbeiten mit Lidar-Punktwolken
  • Tracken und Zusammenführen von Sensordaten
  • Erzeugen von Fahrszenarien und Synthetisieren von Sensordaten

Tag 1 von 2


Erstellen von Ground-Truth-Daten

Ziel: Interaktives und automatisiertes Erstellen der Ground-Truth aus Videos und Bildsequenzen.

  • Verwenden der "Ground Truth Labeler App"
  • Beschriften von ROIs (Region of Interest) und Szenen
  • Automatisiertes Erstellen der Ground-Truth mithilfe von Detektions- und Tracking Algorithmen
  • Betrachten und exportieren der Ground-Truth

Visualisierung von Sensordaten

Ziel: Visualisieren von Kamerabildern, Radar- und Lidardaten. Verwenden geeigneter Koordinatensysteme.

  • Visualisierung in Vogelperspektive
  • Grafische Darstellung der Sensorabdeckung
  • Visualisierung von detektierten Objekten und Fahrspur
  • Transformation zwischen Fahrzeug- und Bildkoordinaten
  • Kennzeichnung detektierter Objekte und Fahrspurbegrenzung in Videos

Fahrspur- und Fahrzeugerkennung

Ziel: Segmentieren und Modellieren von Fahrspurbegrenzungen. Verwenden vortrainierter Detektoren zur Fahrzeugerkennung.

  • Transformation von Bilddaten in Vogelperspektive
  • Erkennen der Fahrspurmarkierung
  • Erstellen eines Fahrspurmodells
  • Abgleich von Fahrspurerkennung und Ground-Truth
  • Erkennen von Fahrzeugen

Arbeiten mit Lidar-Punktwolken

Ziel: Arbeiten mit Lidar-Daten, dargestellt als 3D-Punktwolken. Importieren, Anzeigen und Verarbeiten von Punktwolken. Ausrichten der Punktwolken und Erstellen einer Karte.

  • Importieren und Anzeigen von Punktwolken
  • Vorverarbeiten von Punktwolken
  • Segmentieren von Objekten aus Lidar-Sensordaten
  • Erstellen einer Karte basierend auf Lidar-Sensordaten

Tag 2 von 2


Tracken und Zusammenführen von Sensordaten

Ziel: Erzeugen eines Multi-Object Trackers um Informationen verschiedener Sensoren, wie z.B. Kamera, Radar und Lidar, zusammenzuführen.

  • Tracken mehrerer Objekte
  • Vorverarbeiten von Detektionen
  • Verwendung von Kalman-Filtern
  • Verwalten mehrerer Tracks
  • Arbeiten mit dem Multi-Object Tracker

Tracken von erweiterten Objekten

Ziel: Erstellen eines Trackers zum Tracken von erweiterten Objekten und Bestimmen ihrer Maße.

  • Definieren von Sensorkonfigurationen
  • Tracken von erweiterten Objekten
  • Schätzen der räumlichen Ausdehnung

Erzeugen von Fahrszenarien und Synthetisieren von Sensordaten

Ziel: Erzeugen künstlicher Fahrszenarien, sowie Radar- und Kameradetektionen um Algorithmen zur Umgebungswahrnehmung zu testen.

  • Verwenden der "Driving Scenario Designer App"
  • Erzeugen von Szenarien mit Straßen, Akteuren und Sensoren
  • Simulation und Visualisierung von Szenarien
  • Erzeugen von Detektionen und Exportieren von Szenarien
  • Testen von Algorithmen in Szenarien

Stufe: Aufbaukurse

Voraussetzungen:

Dauer: 2 Tage

Sprachen: English, 한국어

Programm ansehen und anmelden