Future Technology
Die Evolution der Fahrzeugsensorik
Auf dem Weg zum autonomen Fahren entwickeln sich Sensor-Technologien wie Ultraschall, Radar und Lidar permanent weiter. Durch ihre gegenseitige Ergänzung haben moderne Fahrzeuge einen Rundumblick auf ihre Umwelt. Das ermöglicht schon heute automatisierte Fahrfunktionen wie das Fahren auf der Autobahn.
Versteckt hinter Karosserieteilen und Plastikabdeckungen befindet sich in modernen Autos mittlerweile eine ganze Menge Technologie. Auch die sogenannte Fahrzeugsensorik mit ihren verschiedenen „Sinnesorganen“ gehört dazu. Ob GPS-Sender für das Navigationssystem oder Ultraschall für die Einparkhilfe – die Sensorik hilft Fahrzeug und Fahrer, sich in ihrer Umgebung besser zurecht zu finden. Doch wie genau funktionieren die verschiedenen Technologien und was fehlt modernen Fahrzeugen noch, um sich künftig vollkommen selbstständig im Verkehr fortzubewegen?
Ultraschall: Günstig und robust
Moderne Autos verfügen über eine Vielzahl an sensorischen Geräten. Ultraschallsensoren gehören bereits seit Anfang der Neunzigerjahre dazu. Damals wurden sie vor allem als Einparkhilfe in Fahrzeugen verbaut. Inzwischen hat sich ihr Funktionsumfang deutlich erweitert: Sie können Parklücken während der Fahrt vermessen und erkennen, wenn Fahrzeuge auf der Nebenspur fahren (Totwinkel-Assistent). Die Technologie basiert auf akustischen Signalen, weshalb sie ihre Stärke vor allem im Nahbereich hat. Ultraschall-Sensoren sind günstig und robust und dürften ihren Platz im Sensorik-Arsenal noch lange behalten.
Kameras: Für den Rundumblick
Das gilt auch für Radar-Sensoren und Kameras, die heute in immer mehr Fahrzeugen verbaut sind. Letztere kommen unter anderem bei der Erkennung von Fahrstreifenmarkierungen, Verkehrszeichen, Ampeln und anderen Verkehrsteilnehmern zum Einsatz. Für die Streifenerkennung ist eine Videokamera hinter der Windschutzscheibe verbaut, über die der Fahrspurverlauf beobachtet und der Fahrer bei unbeabsichtigtem Verlassen der Fahrspur gewarnt wird. Personen und Wildtiere können von Kameras dank Infrarot-Technologie selbst bei Dunkelheit erkannt werden. Darüber hinaus werden Kameras seit einiger Zeit auch als zusätzliche Ausstattungsvariante für den Parkassistenten angeboten. Hier ermöglichen sie dem Fahrer einen noch besseren Rundumblick. Dank Stereo-Kameras und moderner Algorithmen sind sogar 3D-Bilder aus der Vogelperspektive möglich.
Radar: Für den richtigen Abstand
Radar-Systeme arbeiten mit elektromagnetischen Signalen, weshalb sie besonders gut metallische Objekte wahrnehmen können und sich für die Abstandsmessungen zwischen Fahrzeugen eignen. Die Radarsensoren sind für gewöhnlich im vorderen und hinteren Bereich des Fahrzeugs angebracht. Während der rückwärtige Sensor den sich von hinten nähernden und überholenden Verkehr erfasst, wird der vorausfahrende Verkehr von einem Fernbereichsradar in der Front überwacht. Das Nahbereichsradar beobachtet das unmittelbare Umfeld des Autos.
Radar, Kameras und Ultraschallsensoren wurden in der Vergangenheit für voneinander unabhängige Funktionen verwendet. Inzwischen können alle relevanten Daten aber mithilfe der Sensorfusion digital verknüpft werden, was eine wichtige Voraussetzung für das automatisierte Fahren darstellt. Besonderes Augenmerk wird dabei auf die Funktionssicherheit gelegt. Durch Redundanzen und Plausibilitätsprüfungen, also die systeminterne Kontrolle, ob die Umgebungsdaten korrekt erfasst wurden, wird eine fehlerhafte Interpretation der Daten verhindert. Dabei werden die Signale der Fahrzeugsensoren untereinander verglichen. Nur wenn die Daten stimmig sind, werden Lenkung und Motor angesteuert. So können schon heute automatisierte Fahrfunktionen wie das Fahren auf der Autobahn ermöglicht werden.
Lidar-Systeme für die Echtzeit-Bilderkennung
Lidar-Systeme basieren auf optischen Signalen. Dadurch können Hindernisse, ausgenommen metallische Gegenstände, besser erfasst werden als bei einem Radar. Einfachere Lidar-Systeme für die kurze Distanz werden schon heute bei Notbremsassistenten eingesetzt, doch die wirklich leistungsfähigen Geräte befinden sich noch in der Entwicklung. Neben einigen kleineren Herstellern wie der Intel-Tochter Mobileye ist seit ein paar Jahren auch der deutsche Branchenriese Continental im Markt aktiv. Mit seinem „High Resolution Flash Lidar“ will Continental künftig die 3D-Umgebungserfassung und das Bildverstehen in Echtzeit ermöglichen. Ähnliches haben die Entwickler bei Mobileye vor, die neben der Sensorik auch an neuer Hardware für die Datenverarbeitung forschen. Für 2025 plant der Spezialist die Markteinführung eines siliziumbasierten „System-on Chip“, mit dem sich die riesigen Datenmengen, die bei Lidar-Systemen anfallen, besser verarbeiten lassen.
Kommunikation durch Vernetzung
Eine weitere Technologie, die bei der Entwicklung des autonomen Fahrens helfen kann, ist die Vernetzung von Fahrzeugen und Infrastruktur. Experten sprechen in diesem Zusammenhang auch von Car-2-X- und Car-2-Car-Kommunikation. Das Ziel: Mittels WLAN oder 5G-Netz sollen Verkehrsinfrastruktur und Verkehrsteilnehmer ihr Verhalten aufeinander abstimmen. Wie diese Vernetzung umgesetzt werden soll, ist jedoch noch nicht genau geklärt, international anerkannte Standards fehlen noch. Dass das Sensorik-Instrumentarium im Auto der Zukunft noch umfangreicher und leistungsstärker als heute wird, ist dagegen sicher. Eine Entwicklung, von der alle Fahrer profitieren, da das Auto so weiter an Komfort und Sicherheit gewinnt.
(Aufmacherfoto: © BMW)