Automated Driving Toolbox

 

Automated Driving Toolbox

Entwicklung, Simulation und Testen von ADAS und Systemen für autonomes Fahren

Referenzanwendungen

Referenzanwendungen bilden die Grundlage für das Entwickeln und Testen von ADAS-Anwendungen.

Befolgen von Fahrspuren und Spurwechsel

Notbremsassistent und Kollisionsvermeidung

Systeme für automatisiertes Parken

Verkehrsaushandlung an Kreuzungen

Produkt-Highlights

Szenario-Simulation

Simulation mithilfe realistischer Fahrszenarien und Sensormodelle ist ein entscheidender Testbestandteil von Algorithmen für automatisiertes Fahren. Die Automated Driving Toolbox bietet verschiedene Optionen zum Testen dieser Algorithmen, zum Beispiel eine quaderförmige Simulationsumgebung, die Unreal Engine-Simulationsumgebung sowie die Integration in RoadRunner Scenario. Diese Anwendung unterstützt den Import und Export von Szenen und Szenarien in und aus ASAM OpenDRIVE- und ASAM OpenSCENARIO®-Formaten.

Ground Truth-Kennzeichnung

Automatisierung der Kennzeichnung von Ground Truth-Daten und Vergleich der Ausgabe eines Testalgorithmus mit den Ground Truth-Daten. Mithilfe der Ground Truth Labeler-App können mehrere Signale wie Videos, Bildsequenzen und LiDAR-Signale gekennzeichnet werden, die dieselbe Szene repräsentieren.

Testautomation

Automatisiertes Testen von ADAS-Algorithmen und -Systemen von den Anforderungen bis zur Implementierung. Zugriff auf Funktionen von Anwendungen für das automatisierte Fahren (automatische Notbremsung, Fahrspurbefolgung auf Autobahnen, Spurwechsel auf Autobahnen) durch Definition von Szenarien und Ausführung von Regressionstests. Nutzen Sie Tools zum Erzeugen von Szenarien und Varianten-Tools zur Erstellung von Szenarien aus erfassten Sensordaten und zur Erzeugung verschiedener Varianten eines Ausgangsszenarios.

Bewegungsplanung und -steuerung

Planung von Fahrwegen mit Fahrzeugkostentabellen und Bewegungsplanungsalgorithmen. Verwendung von Quer- und Längssteuerungen, um einer geplanten Bewegungsbahn zu folgen.

Detektion und Tracking

Entwicklung und Testen von Vision- und LiDAR-Verarbeitungsalgorithmen für automatisiertes Fahren. Ausführung von Multi-Sensordatenfusions- und Multi-Object-Tracking-Frameworks mit Kalman-Filtern.

Lokalisierung und Kartierung

Verwendung von Simultaneous Localization and Mapping(SLAM)-Algorithmen zur Erzeugung von Karten von der Ego-Fahrzeugumgebung basierend auf visuellen oder LiDAR-Daten. Zugriff auf und Visualisierung von hochauflösenden Kartendaten des HERE HD Live Map-Service. Anzeige von Fahrzeug- und Objektstandorten in Streaming-Karten-Viewern.