Was ist ADAS?
3 Dinge, die Sie wissen sollten
Fahrerassistenzsysteme (Advanced Driver-assisted Systems, ADAS) sind Hardware- und Softwarekomponenten, die bestimmte Aspekte des Fahrvorgangs automatisieren. Anwendungsbeispiele von ADAS in heutigen Fahrzeugen umfassen adaptive Abstands- und Geschwindigkeitsregelung, Totwinkelüberwachung, Spurwechselerkennung, automatische Spurhaltung und automatische Notbremsung.
ADAS macht Straßen sicherer, indem es menschliche Fehler minimiert. Einige ADAS-Systeme fördern sicheres Fahrverhalten, indem sie den Fahrer vor unsicheren Verkehrsszenarien warnen, etwa wenn sich ein Fahrzeug im toten Winkel des Fahrers befindet und ein Spurwechsel die Fahrsicherheit gefährden würde. Andere ADAS-Systeme automatisieren das Fahrverhalten, z. B. die Kollisionsvermeidung mit automatischer Notbremsung.
Laut einer Studie der Boston Consulting Group trägt ADAS jährlich zur Vermeidung von 28% aller Unfälle und von 9900 Todesfällen im Straßenverkehr in den USA bei.
ADAS-Automatisierungsstufen
SAE International (ein US-amerikanisches Standardisierungsinstitut für Verkehrstechnologie) hat die Automatisierungsstufen 0-5 für Fahrerassistenzsysteme definiert. Ein Großteil aller Fahrzeuge auf den heutigen Straßen verfügt über ADAS-Funktionen der Stufen 0 bis 3. Führende Unternehmen im Bereich des automatisierten Fahrens streben die Stufen 4 bis 5 an.
Komplett autonome Fahrzeuge könnten mit fortschreitender Behebung von Sicherheits-, Cybersicherheits- und Policy-Problemen zur Realität werden.
Nehmen wir die adaptive Abstands- und Geschwindigkeitsregelung (Adaptive Cruise Control ACC) als Beispiel, um Einblicke in die Konzeption von ADAS-Funktionen zu erhalten. Mithilfe dieser ADAS-Funktion verlangsamt ein Auto, wenn es sich einem vorausfahrenden Fahrzeug nähert und beschleunigt auf die eingestellte Fahrtgeschwindigkeit, sobald sich das vorausfahrende Fahrzeug in einem sicheren Abstand befindet.
Der erste Schritt beim Entwurf einer adaptiven Geschwindigkeitsregelung ist die Datenerfassung der am Fahrzeug montierten Sensoren. Für die adaptive Geschwindigkeitsregelung sind eine Kamera und ein Radarsensor erforderlich. Die Kamera erkennt andere Objekte im Kamerasichtfeld (Fahrzeuge, Fußgänger, Bäume usw.) und der Radarsensor berechnet die Distanz des Fahrzeugs zu diesen Objekten.
Nach der Erfassung der Sensordaten verlagert sich der Entwicklungsschwerpunkt auf die benötigten ADAS-Algorithmen. Die Entwicklung der adaptiven Geschwindigkeitsregelung lässt sich in drei Schritte unterteilen:
Die Schritte 1 bis 3 umfassen:
- Ein Wahrnehmungsalgorithmus, der vorausfahrende Fahrzeuge erkennt
- Einen Radaralgorithmus, der die Distanz zu diesen Fahrzeugen berechnet
- Einen Regelungsalgorithmus, der die Fahrzeuggeschwindigkeit basierend auf der Distanzmessung regelt.
Wir haben die adaptive Geschwindigkeitsregelung (ACC) als Beispiel genannt, aber die allgemeine Methodik zur Auswahl der richtigen Sensoren und den Entwurf der Algorithmen gilt für alle ADAS-Funktionen.
Die Bedeutung von Sensoren
Die drei gängigsten Sensortypen für ADAS-Funktionen sind Kameras, Radar und LiDAR.
Kameras
Kameras werden für erkennungsrelevante ADAS-Funktionen genutzt. Seitenkameras können tote Winkel erkennen. Frontkameras können Fahrspuren, Fahrzeuge, Schilder, Fußgänger und Fahrradfahrer erkennen. Die zugehörigen ADAS-Entwicklungsalgorithmen basieren im Allgemeinen auf konventionellen Computer-Vision- und Deep-Learning-Algorithmen. Kameras bieten gleich mehrere Vorteile:
- Sie liefern erstklassige Daten für die Objekterkennung.
- Sie sind relativ kostengünstig – aufgrund des niedrigeren Preises ist das Testen zahlreicher Kameratypen für Hersteller günstiger.
- Es gibt zahlreiche Varianten – Hersteller können eine große Auswahl von Kameratypen testen, z. B. Fischaugen-, Monokular- und Lochkameras.
- Sie wurden umfassend erforscht – Kameras sind die ältesten der drei Sensortypen und wurden ausgiebig erforscht.
Kameradaten haben jedoch den Nachteil, dass sie sich im Vergleich zu Daten von anderen Sensortypen nicht besonders gut für die Abstandserkennung zu Objekten eignen. Aus diesem Grund verwenden ADAS-Entwickler oft Kameras in Verbindung mit Radarsensoren.
Radar
Radarsensoren senden Hochfrequenzwellen aus und erfassen die von Objekten in der Umgebung reflektierten Wellen. Diese Daten können verwendet werden, um die Entfernung zu einem Objekt zu berechnen. Radarsensoren befinden sich bei Fahrerassistenzsystemen in der Regel an der Vorderseite des Fahrzeugs.
Radar funktioniert unter unterschiedlichsten Witterungsbedingungen und ist daher eine sinnvolle Wahl für ADAS-Funktionen wie z. B. die automatische Notbremsung und die adaptive Geschwindigkeitsregelung.
Obwohl sich die Daten von Radarsensoren gut für Distanzerkennungsalgorithmen eignen, sind diese Daten für die Klassifizierung der erkannten Objekte weniger zweckdienlich. Aus diesem Grund nutzen ADAS-Entwickler Radar häufig in Verbindung mit Kameras.
LiDAR
LiDAR-Sensoren (Light Detection and Ranging) senden ein Lasersignal in die Umgebung aus und erfassen das reflektierte Signal. Die reflektierten Signale werden rekonstruiert, um eine 3D-Punktwolke zu erzeugen, die die umliegende Umgebung repräsentiert. Mithilfe von LiDAR-Daten lässt sich der Abstand des Sensors zu Objekten in der 3D-Punktwolke berechnen.
Zwei Arten von LiDAR-Sensoren kommen bei ADAS-Anwendungen zum Einsatz:
- Elektromechanisches (rotierendes) LiDAR – elektromechanisches LiDAR wird auf dem Fahrzeugdach befestigt und rotiert während der Datenerfassung, um eine 3D-Punktwolkenkarte der Umgebung zu erstellen.
- Festkörper-LiDAR – dies ist eine neuartige LiDAR-Version ohne bewegliche Teile. Langfristig gesehen ist Festkörper-LiDAR potenziell schneller, kostengünstiger und genauer als elektromechanisches LiDAR. Der Entwurf eines wirtschaftlich rentablen Sensors ist jedoch mit bautechnischen Herausforderungen in Bezug auf Sensorsicherheit und -reichweite verbunden.
Sie können LiDAR-Daten sowohl für Distanzerkennungs- als auch für Objektklassifizierungsfunktionen in Fahrerassistenzsystemen nutzen. Die Verarbeitung von LiDAR-Daten erfordert im Vergleich zu Kamera- und Radardaten jedoch eine größere Rechnerleistung und stellt die Entwickler von ADAS-Algorithmen vor einige Herausforderungen.
Entwicklung von ADAS-Algorithmen mithilfe von Simulationen
Hardwaretests sind kostspielig, daher testen Entwicklungsingenieure ADAS-Lösungen zuerst mithilfe virtueller Simulationen. Dabei sind 2D- und 3D-Simulationsumgebungen möglich.
Sie können 2D-Simulationen zum Testen von ADAS-Algorithmen für Kameras und Radarsensoren nutzen. Zu Beginn können Sie virtuelle Szenen wie Straßen, Fußgänger, Radfahrer und andere Fahrzeuge erzeugen. Anschließend fügen Sie das eigene Fahrzeug in die Szene ein und befestigen virtuelle Kameras und Radarsensoren daran. Daraufhin können Sie Fahrzeugbewegungen programmieren, um synthetische Sensordaten für Entwicklung und Test von ADAS-Algorithmen zu generieren.
3D-Simulationen bauen auf 2D-Simulationen auf und ermöglichen das Testen von LiDAR ergänzend zu Kameras und Radarsensoren. 3D-Umgebungen sind relativ komplex und benötigen eine größere Rechenleistung.
Nachdem Sie ADAS-Algorithmen in einer Simulationsumgebung entwickelt haben, besteht die nächste Entwicklungsphase aus Hardware-in-the-Loop (HIL)-Tests. Hier werden ADAS-Algorithmen durch Anbindung an eine Simulationsumgebung mithilfe physischer Fahrzeughardware getestet, z. B. mit einem Bremssystem. HIL-Tests vermitteln einen guten Eindruck davon, wie eine ADAS-Komponente eines Fahrzeugs in der Realität funktioniert.
Es gibt weitere ADAS-Tests, z. B. Driver-in-the-Loop, aber sie alle führen letztlich zu Tests im realen Fahrzeug, die Aufschluss über die tatsächliche Fahrzeugleistung geben, wenn alle Komponenten installiert sind. Dies ist die kostspieligste Art von ADAS-Tests, aber zugleich auch die präziseste. Sie muss erfolgen, bevor ein Fahrzeug in Produktion geht.
MATLAB® und Simulink® unterstützen die ADAS-Entwicklung in sämtlichen Phasen des Workflows:
- Datenanalyse
- Synthetisieren von Fahrszenarien
- Entwurf von ADAS-Planungs- und Regelungsalgorithmen
- Entwurf von Wahrnehmungsalgorithmen
- Bereitstellen von Algorithmen
- Integration und Tests
Datenanalyse
MATLAB ermöglicht Ihnen den Zugriff auf, sowie die Visualisierung und Kennzeichnung von aufgezeichneten und Echtzeit-Fahrzeugdaten für die Entwicklung von ADAS-Funktionen. MATLAB unterstützt außerdem geografische Kartendaten mittels Live-Karten des Dienstes HERE HD sowie OpenStreetMap und Karten des Dienstes Zenrin Japan. Diese Daten werden oft zur Entwicklung und Verifizierung von ADAS-Algorithmen verwendet.
Synthetisieren von Fahrszenarien
Mit MATLAB können Sie nicht nur ADAS-Algorithmen in virtuellen Szenarien mithilfe einer quaderförmigen Simulationsumgebung für Regler, Sensorfusion und Bewegungsplanung entwickeln und testen, sondern auch mit der Unreal-Engine-Umgebung für die Wahrnehmung. Sie können außerdem realistische 3D-Szenen mit RoadRunner entwerfen.
Entwurf von ADAS-Planungs- und Regelungsalgorithmen
MATLAB enthält zahlreiche Referenzanwendungen, die Ihnen als Ausgangspunkt für den Entwurf eigener ADAS-Planungs- und Regelungsalgorithmen dienen können.
Entwurf von Wahrnehmungsalgorithmen
MATLAB bietet Tools für die Entwicklung von Wahrnehmungsalgorithmen für Kamera-, Radar- und LiDAR-Daten. Sie können Algorithmen mithilfe von Computer-Vision-, Deep-Learning-, Radar- und LiDAR-Verarbeitung sowie Sensor Fusion entwickeln.
Bereitstellen von ADAS-Algorithmen
Toolboxen wie MATLAB Coder™, Embedded Coder® und GPU Coder™ ermöglichen Ihnen die automatische Codegenerierung für die Bereitstellung von ADAS-Algorithmen auf Embedded-Geräten und serviceorientierten Architekturen wie ROS und AUTOSAR.
Integration und Tests
Sie können Ihre Wahrnehmungs-, Planungs- und Regelungssysteme mit Simulink-Tools integrieren und testen. Mithilfe von Requirements Toolbox™ können Sie Ihre ADAS-Anforderungen erfassen und verwalten. Darüber hinaus lassen sich mit Simulink Test™ Testfälle parallel ausführen und automatisieren.
Verwandte Produkte: Automated Driving Toolbox™, Computer Vision Toolbox™, Lidar Toolbox™, Radar Toolbox, RoadRunner, RoadRunner Asset Library, RoadRunner Scene Builder