Teil 1
Die Idee des autonomen Fahrens fasziniert Ingenieure, Wissenschaftler und Autofahrer seit Jahrzehnten. Was einst als Science-Fiction galt, entwickelt sich zunehmend zur Realität.
Martin Hund hat für das T&Emagazin eine Bestandsaufnahme gemacht, die wir an dieser Stelle und in einem zweiten Teil in der kommenden Woche veröffentlichen. Der komplette Beitrag ist in der Ausgabe 26 erschienen die in Wunschmenge gegen Übernahme der Porto- und Versandkosten bestellt werden kann.

Die Geschichte des autonomen Fahrens reicht zurück bis in die 1920er-Jahre, als erste Konzepte für fahrerlose Fahrzeuge erdacht wurden. Einen frühen visionären Meilenstein setzte General Motors auf der Weltausstellung 1939 mit einem Konzept für ein durch elektromagnetische Felder gesteuertes Auto.
In den folgenden Jahrzehnten wurden die Grundlagen für autonomes Fahren weiterentwickelt. Bereits in den 1960er-Jahren experimentierten Forscher mit computergestützter Navigation und Sensorik. In den 1980er-Jahren gelang mit Projekten wie dem „EUREKA Prometheus“ von Mercedes-Benz und der „Navlab“-Reihe der Carnegie Mellon University ein bedeutender technologischer Fortschritt. Diese Entwicklungen führten zur Integration von Kameras, Sensoren und künstlicher Intelligenz, die Fahrzeuge erstmals in die Lage versetzten, selbstständig Hindernisse zu erkennen und darauf zu reagieren.
Der Durchbruch für die moderne autonome Fahrzeugtechnologie kam in den 2000er-Jahren mit Wettbewerben wie der DARPA Grand Challenge, welche die Entwicklung leistungsfähiger Algorithmen und Sensoren vorantrieb. Seitdem haben große Technologieunternehmen und Autohersteller erhebliche Fortschritte gemacht. Mit der Einführung von Fahrerassistenzsystemen wie Teslas „Autopilot“ und dem ersten fahrerlosen Taxi-Service von Waymo in den 2010er-Jahren rückte das autonome Fahren immer näher an den Alltag heran.
Heute stehen wir an der Schwelle einer neuen Ära der Mobilität. Während vollständig autonome Fahrzeuge noch in der Entwicklung sind, haben teilautonome Systeme bereits Einzug in den Straßenverkehr gehalten. Mit fortschreitender Technologie und regulatorischen Anpassungen könnte das autonome Fahren in den kommenden Jahren zu einem festen Bestandteil unseres Verkehrs werden – und damit eine der größten Revolutionen in der Automobilgeschichte vollenden.
Aktueller Stand der Technik
Autonomes Fahren ist längst keine Science-Fiction mehr, sondern ein hochkomplexes Zusammenspiel moderner Sensorik, leistungsfähiger Rechnerarchitekturen und intelligenter Software. Die Systeme heutiger Fahrzeuge befinden sich auf einem beeindruckenden technischen Niveau – auch wenn vollständig autonomes Fahren (Level 5) nach wie vor Zukunftsmusik bleibt. Um das Thema greifbarer zu machen, lohnt sich ein Blick auf die aktuellen technologischen Grundlagen.
Die zwei Regelkreise des Autonomen Fahrens
Da Verkehrssituationen nicht vorhersehbar und nicht umfassend beschreibbar sind, kommt bei den meisten Herstellern eine Lösung auf Basis künstlicher Intelligenz zum Einsatz. Diese sogenannten neuronalen Netze definieren sich nicht über einen festgelegten Software-Algorithmus, sondern werden durch Training mit großen Datenmengen erstellt und anschließend als Software-Paket im Auto ausgeführt. Beide Schritte beschreiben jeweils einen Zyklus, der fortwährend durchlaufen wird.

Der innere Regelkreis – das autonome Fahrzeug in Echtzeit
Im Fahrzeug selbst läuft während der autonomen Fahrt permanent ein hochdynamischer Entscheidungsprozess ab. Dieser lässt sich grob in drei Schritte gliedern:
Situation erfassen: Sensoren wie Kameras, Radar, Lidar und Ultraschall erfassen kontinuierlich die Umgebung. Dazu zählen andere Fahrzeuge, Fahrbahnmarkierungen, Fußgänger, Verkehrszeichen und viele weitere Elemente. Die Signale werden mittels neuronaler Netze verarbeitet und interpretiert.
Reaktion entscheiden: Eine weitere Software-Komponente (bei Tesla ebenfalls auf Basis neuronaler Netze seit FSD V13) analysiert die Ergebnisse in Echtzeit. Sie erkennt Muster und trifft Entscheidungen, zum Beispiel bremsen, ausweichen oder beschleunigen.
Aktion ausführen: Steuergeräte setzen die Entscheidungen um, etwa durch Ansteuerung von Bremse, Lenkung oder Motorsteuerung.
Dieser Regelkreis muss in Millisekunden reagieren – denn Sicherheit im Straßenverkehr duldet keinen Verzug. Bei Tesla wird dieser Ablauf zum Beispiel 36 mal pro Sekunde durchlaufen.
Der äußere Regelkreis – das System hinter dem System
Der zweite Regelkreis findet außerhalb des Fahrzeugs statt, insbesondere in Rechenzentren der Hersteller oder Entwicklungsfirmen:
Training neuronaler Netze: Die künstliche Intelligenz wird mit gewaltigen Mengen an Daten trainiert. Dazu zählen aufgezeichnete Videodaten von Fahrzeugen in realen Situationen als auch Software-Simulationen, um z.B. Szenarien unter verschiedenen Wetterverhältnissen oder Verkehrsdichten zu vergleichen.
Labeling: Diese Daten werden händisch oder automatisiert annotiert – etwa mit der Information „Fußgänger“, „Ampel“, „Kreuzung“. Das ist aufwendig, aber entscheidend für das Lernen der Systeme.
Simulation und Verifikation: In virtuellen Umgebungen wird getestet, wie die KI auf bestimmte Situationen reagiert – bevor sie in reale Fahrzeuge kommt.

Einsatz: Neue Modelle oder Software-Updates werden über OTA (Over-the-Air) ins Fahrzeug eingespielt. So wird die KI ständig weiterentwickelt und verbessert.
Dieser äußere Regelkreis ist essenziell, um autonome Systeme robuster, sicherer und intelligenter zu machen. Bei Tesla wird der äußere Regelkreis in einem dauerhaften Prozess betrieben und per Software-Update auch für bestehende Fahrzeuge verteilt. Nicht alle Hersteller nutzen solche hochdynamischen Prozesse, sondern verteilen die Software-Updates oft nur bei Service-Terminen oder bieten gar keine Aktualisierungen für bestehende Fahrzeuge.
Sensoren für das autonome Fahrzeug
Ein autonomes Fahrzeug braucht viele „Augen und Ohren“, um seine Umwelt zu erfassen. Dafür kommen unterschiedliche Sensorarten zum Einsatz:
Kameras: Sie liefern hochauflösende Bilder der Umgebung. Vorteil: preiswert und detailreich. Nachteil: empfindlich bei schlechtem Licht oder Wetter.
Radar: Misst Abstände und Geschwindigkeiten mit elektromagnetischen Wellen. Besonders zuverlässig bei Regen, Nebel oder Dunkelheit. Nachteil: Geringe Auflösung.
Lidar (Light Detection and Ranging): Arbeitet mit Laserimpulsen, um ein exaktes 3D-Bild der Umgebung zu erzeugen. Sehr präzise, aber teuer.
Ultraschall: Kurzstreckensensoren für Einparkhilfen und enge Manöver.
Viele Hersteller setzen auf Sensorfusion – also die Kombination verschiedener Sensoren – um die Stärken auszubalancieren und Schwächen auszugleichen.
Teslas Vision-Only
Ein Sonderfall ist der Vision-Only-Ansatz von Tesla. Das Unternehmen setzt ausschließlich auf Kameras und verzichtet vollständig auf Radar oder Lidar. Die Philosophie: Der Mensch fährt schließlich auch nur mit zwei Augen – also sollte eine KI mit mehreren Kameras ebenfalls zurechtkommen. Die Verarbeitung der Bilddaten erfolgt über Teslas eigenes neuronales Netz („Tesla Vision“), das mit Milliarden Kilometern realer Fahrdaten trainiert wird. Kritiker befürchten, dass rein visuelle Systeme unter bestimmten Bedingungen – z. B. bei Schneefall oder tiefstehender Sonne – an ihre Grenzen stoßen.
Betrachtet man dabei die Gesamtarchitektur des Systems inkl. der beiden Regelkreise, kann man zu der Einschätzung kommen, dass schlussendlich die Qualität des autonomen Fahrens nicht auf der Ebene der Sensoren entschieden wird, sondern eher über die Leistungsfähigkeit der neuronalen Netze und der Rechenleistung beim Training. Nicht ohne Grund betreibt Tesla für die Entwicklung der Autopilot-Software eines der größten Rechenzentren und entwickelt sogar eigene Prozessorlösungen (DOJO). Schließlich können auch Menschen mit einem Auge erfolgreich Auto fahren, weil wir von der Natur mit einem Gehirn ausgestattet sind, das man als die beste natürliche Signalerfassungs- und Interpretationsmaschine der Welt bezeichnen kann.

Wie funktioniert ein neuronales Netz?
Teil 2 in der kommenden Woche an dieser Stelle oder im neuen T&Emagazin 26.

Die aktuelle Ausgabe 26 des T&Emagazin kann jetzt in Wunschmenge gegen Übernahme von Porto und Versandkosten bezogen werden.
Aus dem Inhalt der Ausgabe 26:
- Titelthema: Autonomes Fahren
- Das neue Tesla Model Y
- Tesla-Fanboy bleiben?
- Neuigkeiten zum Event: elektrische Community (19. bis 21.9. in Fulda)
- ÖPNV-Test, dank Führerschein weg…
- Welchen Wald sehen wir morgen?
- USA-Reisebericht: Auf den Spuren von Tesla und SpaceX
- Überall Greenwashing
- Tesla läuft geradeaus
- Aktuelle E-Auto Tests
- …