Nachlese zum Digitalgipfel 2024
Redaktion Digital Chiefs
Ende Oktober fand in Frankfurt am Main der Digitalgipfel 2024 der Bundesregierung statt. Die übte ...
Zum BeitragRobotaxis sollen den Verkehr und die Umwelt entlasten. Die Google-Schwester Waymo und General-Motors Cruise dürfen nun offiziell in Kalifornien damit durchstarten, für Geld allerdings noch mit menschlichem Co-Piloten. Was das bedeutet und wo die Reise hingeht, erfahren Sie hier.
Waymo und General-Motors Cruise sind fest entschlossen, selbstfahrende Robotaxis auf die Straße zu bringen und haben beide auch schon entsprechende Services in Kalifornien aufgenommen. Jedoch dürfen sie für die Fahrten laut der Regulierungsbehörde CPUC nur Geld annehmen, sofern ein menschlicher Co-Pilot am Steuer sitzt.
Ein solcher menschlicher Sicherheitsfahrer entspricht Level 3 der von der SAE International aufgestellten Norm J3016 für insgesamt sechs verschiedene Grade der Fahrzeug-Automatisierung. Und diese Stufe hat Deutschland mit Verabschiedung des Gesetzes für autonomes Fahren Mitte 2021 schon hinter sich gelassen. Genauer will die Bundesrepublik damit das erste Land weltweit sein, das hochautomatisiertes Fahren ohne menschliches Eingreifen nach Level 4 im Regelbetrieb eingeführt hat.
Das ist auch Ziel der Google-Schwester Waymo und der GM-Tochter Cruise. Waymo darf seine selbstfahrenden Autos laut IT-Zoom in Teilen von San Francisco und des Mateo Countys im Silicon Valley rund um die Uhr mit Geschwindigkeiten von bis zu 100 Stundenkilometern (65 m/h) kommerziell einsetzen, Cruise zwischen 22 und 6 Uhr morgens mit bis zu knapp 50 km/h. Die Intel-Tochter Mobileye will bis Ende 2022 ihren ersten autonomen Fahrdienst in München starten.
Zurück zu den Levels oder Stufen für automatisiertes Fahren: Level 0 heißt keine Automatisierung oder nur Unterstützung durch einfache Fahrerassistenzsysteme, die bei Level 1 (Fahrerassistenz) und Level 2 (teilautomatisiert) schon sehr viel weiter gehen. Level 2 erlaubt auch schon automatisches Einparken, allerdings muss bei all diesen Stufen jeweils ein menschlicher Fahrer oder Co-Pilot am Steuer sitzen und im Notfall eingreifen können.
So richtig interessant wird es erst ab Level 3 für bedingtes autonomes Fahren, wobei Assistenzsysteme große Teile des Fahrens selbst übernehmen. Der Fahrzeugführer muss zwar weiter an Bord sein, kann sich zwischendurch allerdings anderen Dingen widmen, muss aber im Notfall ebenfalls eingreifen, zum Beispiel ein Bremsmanöver einleiten.
Level 4 für hoch automatisiertes Fahren, wie es das oben genannte deutsche Gesetz vorsieht, lässt zu, dass das ADAS- oder FAS-System (Advanced Driver Assistence oder Fahrerassistenzsystem) die Fahrzeugführung ganz allein übernehmen kann und auch kein Eingreifen des Fahrzeughalters erforderlich ist. Level 5 schließlich heißt komplett autonomes Fahren, was auch Botendienste ohne Halter an Bord beinhaltet. Das ist aber noch weitgehend Zukunftsmusik, weil die meisten bisherigen Systeme dazu noch gar nicht in der Lage sind, von einer noch unzureichenden flächendeckenden 5G- oder G5-Infrastruktur ganz abgesehen.
Letztere ist kein Schreibfehler, sondern ein auch als IST-G5, IEEE 802.11p oder kurz pWLAN bezeichneter WLAN-Standard für die Vernetzung von Fahrzeugen untereinander (Car2Car) oder zur Infrastruktur (C2I), im englischen Sprachraum unter V2X (Vehicle to X) zusammengefasst. Tatsächlich sah es bis vor kurzem noch so aus, dass der vom European Telecomunications Standard Institute (ITSI) favorisierte WLAN-Standard sich durchsetzen würde. Alle Anzeichen sprechen jetzt aber eher für 3GPP oder C-V2X (C wie Cellular oder Mobilfunk), ursprünglich für LTE entwickelt, aber mehr und mehr auf den neuen 5G-Mobilfunkstandard erweitert.
5G und IST-G5 nutzen in etwa dieselben Frequenzbereiche und haben beide ihre Vor- und Nachteile. So gilt pWLAN zum Beispiel noch als günstiger und ist mit Latenzen von wenigen Millisekunden für Geschwindigkeiten von bis zu 200 Stundenkilometer geeignet. Dass sich der Mobilfunk immer mehr durchzusetzen scheint, liegt wohl auch an der Marketing-Power und Marktmacht einiger Fahrzeughersteller und vor allem der Betreiber, die ihre teuren Lizenzen wieder einholen wollen. 5G oder G5 erhöhen durch die C2X- oder V2X-Vernetzung zwar die Sicherheit und erleichtern das Umfahren von Staus oder die Suche nach freien Parkplätzen. Tatsächlich müssen die mit autonomem Fahren gemäß Level 4 und Level 5 beworbenen Fahrzeuge aber auch ohne C2X/V2X in der Lage sein, sicher durch jede Verkehrssituation zu finden und selbst Entscheidungen zu treffen. Flächendeckendes 5G oder IST-G5 dürfen also keineswegs Voraussetzung für autonomes Fahren sein, wie es immer heißt, obwohl die Vernetzung natürlich hilft, die ADAS- oder FAS-Systeme stetig zu verbessern.
Diese beziehen ihre Daten von einer stark wachsenden Zahl von Sensoren, Ultraschall-, Radar-, Kamera- und Lidar- oder 3D-Laser-Erfassungssystemen, die den völligen 360-Grad-Rundum-Blick ermöglichen. „Der aktuelle Audi A8 besitzt allein für seinen Staupiloten, der bis 60 Stundenkilometer schnell nach Autonomielevel 3 fahren kann, 24 verschiedene Sensorsysteme, darunter fünf Radarsensoren und sechs Kameras“, berichtete im Mai 2019 das ARD-Wissenschaftsmagazin Quarks.
Lidar-Sensoren auf dem Dach haben dem Artikel zufolge gegenüber Ultraschall den Vorteil, dass sie auch nachts bis zu 200 Meter weit „sehen“ können. Somit gilt Lidar oder LiDAR (Light Detection and Ranging) als Schlüsseltechnologie für höhere Autonomielevels, wie Florian Petit von Blickfeld es beschreibt. Hochauflösende Kameras ermöglichen in seinem Sensorfusion genannten Artikel zwar Farbbilder, sind aber abhängig von Umwelteinflüssen. Radarsysteme sind zwar weitgehend davon befreit, liefern aber nur monochrome Bilder in relativ niedriger Auflösung. Gleiches gilt auch für Ultraschall, wo auch noch eine begrenzte Reichweite hinzukommt. LiDAR ist Petit zufolge noch recht teuer und kaum etabliert. Alle genannten Technologien sind komplementär zu sehen, wie er schlussfolgert.
Neben den genannten kommen natürlich noch eine Reihe von anderen Technologien hinzu. Das fängt an mit Big Data oder Advanced Analytics, weil die meisten der von den Sensoren gelieferten Daten unstrukturiert sind. Hinzu kommen künstliche Intelligenz und Machine Learning, denn nur so „lernen“ die Systeme selbst zu entscheiden, wie sie die Fahrzeuge auch in den brenzligsten Situationen sicher durch den Verkehr und auch an „menschlichen Hindernissen“ vorbei lenken. Das Zusammenführen und Auswerten der Daten erfolgt in der Regel in der Cloud und in großen Rechenzentren wie denen von Axians-Partner Equinix, dem weltweit führenden Unternehmen für digitale Infrastruktur.
Axians und andere Unternehmen im Verbund von VINCI Energies decken das ganze Lösungsspektrum für autonomes Fahren sowie die entsprechenden Verkehrs- und Netzinfrastrukturtechnik ab. VINCI Energies und Citeos zum Beispiel, der Name ist Programm, unterstützen eine große Reihe von Smart-City-Projekten, die letztlich auch autonomem Fahren zugutekommen. Jeffery Greenblatt vom Lawrence Berkeley National Laboratory kam laut einem Bericht im Deutschlandfunk von 2015 zu dem Ergebnis, dass mit Ökostrom geladene Roboterfahrzeuge 90 Prozent weniger Treibhausgasemissionen verursachen. Robotaxis könnten durch neue Mobilitätskonzepte bis zu 50 Prozent einsparen helfen, weil sie viel weniger herumstehen und schneller auf die Fahrleistung kommen, ab der E-Autos samt Produktion und Vorprodukten eine positive Umweltbilanz aufweisen. So trägt autonomes Fahren auch zu mehr Nachhaltigkeit und Umweltschutz bei.
Quelle Titelbild: Adobe Stock / kinwun