T-Systems-Claim-Logo
Suchen
Blick aus einem autonom fahrenden Auto auf nächtlichen Straßenverkehr.

Autonome Augen


09. September 2019Hermann Hänle

„Oh, schau mal – da drüben steht ein Eismann. Ah, pass auf …“ Quietsch. Knirsch. 5-mal pro Minute gibt es auf deutschen Straßen einen Unfall, insgesamt 2,6 Millionen pro Jahr – sagt Generalis Karambolage-Atlas 2018. Zumeist leidet lediglich das Blech der Autos. Könnte das auch mit autonomen Autos passieren? 

Hauptunfallrisiko: der Mensch

„Natürlich nicht“, wird die landläufige Antwort lauten. Bereits jetzt häufen sich Studien und Prognosen, die den Verkehrssicherheitsbeitrag autonomer Autos belegen wollen. McKinsey beispielsweise kalkuliert mit einem Rückgang von 90 Prozent aller Autounfälle, was Schäden in Milliarden-Höhe vermeiden hilft.

Autos lernen sehen

Damit diese Vision wahr wird, muss das Auto aber erstmal anständig sehen lernen. Verschiedenste Sensoren-„Augen“ sind dazu an den meisten modernen Autos schon integriert, typische Beispiele sind Radar, Lidar, aber auch traditionelle optische Kameras. Deren „Sicht“ hat bei mir meist ihren großen Auftritt, wenn ich in die Garage oder einen anderen engen Parkplatz einfahre. Dann geht zuverlässig das Gepiepe los. 

Für ein Level-5-Auto müssen diese Augen aber vor allem während der Fahrt alert sein – und wenigstens können wir uns bei ihnen sicher sein, dass sie nicht nach dem nächsten Eismann schauen. Zumindest wenn sie entsprechend trainiert sind. Denn Sensorik ist natürlich nur ein Teil des Sehens. So wie der Mensch die optischen Impulse des Auges in seinem Gehirn verarbeitet, braucht auch das Autos eine Onboard-Intelligenz, die die aufgefangenen Daten verarbeitet und die aktuelle Situation bewertet.

Gutes Training ist die halbe Miete

Klingt einfach, ist es aber nicht: Die Sensoren erfassen einen Haufen von Daten während der Fahrt und sie müssen alle Objekte in der Nähe, zumindest aber im Field of View, im Blick behalten. Das heißt, das Auto muss zum einen die Objekte in der Nähe erkennen und zum anderen die realen Abstände und Bewegungsvektoren kennen, um abzuschätzen, ob es zu einem Konflikt mit dem Objekt kommen kann. Das Erkennen von Objekten kann vor der Fahrt trainiert werden. Während der Fahrt fließen dann beispielsweise aufbereitete Radar-oder Lidar-Daten mit dieser Szenenerkennung zusammen.

Der Anspruch an ein solches Erkennungssystem kann natürlich variieren. Im australischen Outback mit seinem überschaubaren Verkehrsaufkommen, gilt es wohl eher, Dingos, Kängurus oder Krokodile zu identifizieren, die die Straße kreuzen. In einer deutschen oder französischen Kleinstadt spielen andere motorisierte Verkehrsteilnehmer eine weitaus bedeutsamere Rolle. Ganz zu schweigen von London, Paris, Frankfurt – oder meinem Lieblingsbeispiel Stuttgart. Übrigens sind offenbar gerade die deutschen Stadtstaaten Berlin, Hamburg und Bremen die „Leader“ in der Unfalldichte. Hier hat etwa jedes sechste Auto jährlich einen Unfall.

Relativ einfach ist es, den longitudinalen Verkehr zu bewerten, also alles, was sich parallel zu meiner Richtung bewegt. Schwieriger ist es, den querenden Verkehr oder gar Kurvenbewegungen zu bewerten. Doch eine zuverlässige Sensorik und Situationsbewertung ist ein essenzieller Faktor für das autonome Fahren. Mit Hochdruck arbeiten Automobilhersteller daher daran, die Sehkraft ihrer Autos zu erhöhen. Der Schlüssel dazu ist künstliche Intelligenz. Sie kann „Szenen“ identifizieren und die während der Fahrt erfassten Bildpunkte Objekten zuordnen. Für das Training der Objekterkennung sind nicht nur haufenweise Echtdaten erforderlich, sondern auch sehr leistungsfähige Rechenkapazitäten. 

Da capo – und natürlich besser

Mit der trainierten Intelligenz können dann wieder neue Tests initiiert werden, um die Fahrerassistenzsysteme zu optimieren. Diese müssen übrigens nicht unbedingt auf der Straße ablaufen. Wahlweise können diese auch virtuell und vollkommen unschädlich für das Blech (und andere Verkehrsteilnehmer) gestaltet werden. Die Grundlage dafür ist eine Plattform, die auf Knopfdruck komplexe Fahrsituationen zur Resimulation für Fahrerassistenzsysteme bereitstellen kann, sozusagen ein virtueller Nicht-Crashtest.

Beim DAIMLER EDM CAE FORUM hatten wir ein solches System zur Datenanalyse und Resimulation im Gepäck. Gerne stelle ich bei Interesse einen Kontakt mit unseren Spezialisten her. Ich freue mich auf Sie.

Zur Person
Porträt von Hermann Hänle, Senior Manager, Sales Marketing Automotive, T-Systems

Hermann Hänle

Head of Global Automotive Marketing, T-Systems International GmbH

Profil und alle Artikel ansehen
Besuchen Sie t-systems.com außerhalb von Germany? Besuchen Sie die lokale Website für weiterführende Informationen und Angebote für Ihr Land.