Hermann Hänle
9. September 2019 0
Automotive

Autonome Augen

„Oh, schau mal – da drüben steht ein Eismann. Ah, pass auf …“ Quietsch. Knirsch. 5-mal pro Minute gibt es auf deutschen Straßen einen Unfall, insgesamt 2,6 Millionen pro Jahr – sagt Generalis Karambolage-Atlas 2018. Zumeist leidet lediglich das Blech der Autos. Könnte das auch mit autonomen Autos passieren?

Hauptunfallrisiko: der Mensch

„Natürlich nicht“, wird die landläufige Antwort lauten. Bereits jetzt häufen sich Studien und Prognosen, die den Verkehrssicherheitsbeitrag autonomer Autos belegen wollen. McKinsey beispielsweise kalkuliert mit einem Rückgang von 90 Prozent aller Autounfälle, was Schäden in Milliarden-Höhe vermeiden hilft.

Autos lernen sehen

Damit diese Vision wahr wird, muss das Auto aber erstmal anständig sehen lernen. Verschiedenste Sensoren-„Augen“ sind dazu an den meisten modernen Autos schon integriert, typische Beispiele sind Radar, Lidar, aber auch traditionelle optische Kameras. Deren „Sicht“ hat bei mir meist ihren großen Auftritt, wenn ich in die Garage oder einen anderen engen Parkplatz einfahre. Dann geht zuverlässig das Gepiepe los. 

Für ein Level-5-Auto müssen diese Augen aber vor allem während der Fahrt alert sein – und wenigstens können wir uns bei ihnen sicher sein, dass sie nicht nach dem nächsten Eismann schauen. Zumindest wenn sie entsprechend trainiert sind. Denn Sensorik ist natürlich nur ein Teil des Sehens. So wie der Mensch die optischen Impulse des Auges in seinem Gehirn verarbeitet, braucht auch das Autos eine Onboard-Intelligenz, die die aufgefangenen Daten verarbeitet und die aktuelle Situation bewertet.

Gutes Training ist die halbe Miete

Klingt einfach, ist es aber nicht: Die Sensoren erfassen einen Haufen von Daten während der Fahrt und sie müssen alle Objekte in der Nähe, zumindest aber im Field of View, im Blick behalten. Das heißt, das Auto muss zum einen die Objekte in der Nähe erkennen und zum anderen die realen Abstände und Bewegungsvektoren kennen, um abzuschätzen, ob es zu einem Konflikt mit dem Objekt kommen kann. Das Erkennen von Objekten kann vor der Fahrt trainiert werden. Während der Fahrt fließen dann beispielsweise aufbereitete Radar-oder Lidar-Daten mit dieser Szenenerkennung zusammen.

Der Anspruch an ein solches Erkennungssystem kann natürlich variieren. Im australischen Outback mit seinem überschaubaren Verkehrsaufkommen, gilt es wohl eher, Dingos, Kängurus oder Krokodile zu identifizieren, die die Straße kreuzen. In einer deutschen oder französischen Kleinstadt spielen andere motorisierte Verkehrsteilnehmer eine weitaus bedeutsamere Rolle. Ganz zu schweigen von London, Paris, Frankfurt – oder meinem Lieblingsbeispiel Stuttgart. Übrigens sind offenbar gerade die deutschen Stadtstaaten Berlin, Hamburg und Bremen die „Leader“ in der Unfalldichte. Hier hat etwa jedes sechste Auto jährlich einen Unfall.

Relativ einfach ist es, den longitudinalen Verkehr zu bewerten, also alles, was sich parallel zu meiner Richtung bewegt. Schwieriger ist es, den querenden Verkehr oder gar Kurvenbewegungen zu bewerten. Doch eine zuverlässige Sensorik und Situationsbewertung ist ein essenzieller Faktor für das autonome Fahren. Mit Hochdruck arbeiten Automobilhersteller daher daran, die Sehkraft ihrer Autos zu erhöhen. Der Schlüssel dazu ist künstliche Intelligenz. Sie kann „Szenen“ identifizieren und die während der Fahrt erfassten Bildpunkte Objekten zuordnen. Für das Training der Objekterkennung sind nicht nur haufenweise Echtdaten erforderlich, sondern auch sehr leistungsfähige Rechenkapazitäten.

Da capo – und natürlich besser 

Mit der trainierten Intelligenz können dann wieder neue Tests initiiert werden, um die Fahrerassistenzsysteme zu optimieren. Diese müssen übrigens nicht unbedingt auf der Straße ablaufen. Wahlweise können diese auch virtuell und vollkommen unschädlich für das Blech (und andere Verkehrsteilnehmer) gestaltet werden. Die Grundlage dafür ist eine Plattform, die auf Knopfdruck komplexe Fahrsituationen zur Resimulation für Fahrerassistenzsysteme bereitstellen kann, sozusagen ein virtueller Nicht-Crashtest.

Beim DAIMLER EDM CAE FORUM hatten wir ein solches System zur Datenanalyse und Resimulation im Gepäck. Gerne stelle ich bei Interesse einen Kontakt mit unseren Spezialisten her. Ich freue mich auf Sie.

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert.

* Pflichtfeld

 
 

Twitter

tsystemsde @tsystemsde
#SiemensInnovationDay: Als @Siemens Partner sind wir bei T-Systems stolz darauf, unsere Innovationen zu #5G,… https://t.co/FdzGX6gr3B
Hawk, einer der leistungsfähigsten Rechner der Welt, wurde im Stuttgarter Höchstleistungsrechenzentrum (#HLRS) in B… https://t.co/DUJLQhzFpS
Die smarte #IoT-Lösung Mobile Identity & Access (#MIA) für die #Logistik-Branche bringt #TSystems zum zweiten Mal i… https://t.co/NVg6c1xgd2
#CustomerExperience zwischen on- und offline Welt? Wie die eigene Marke emotional aufgeladen und damit eine höhere… https://t.co/TKIJyuyaWz
Von Zentrale bis Filiale: Customer Experience macht den #Handel erfolgreich. Diese digitalen #Retail-Lösungen helfe… https://t.co/k5MsOUTkL0
In Webshops sind Wunschartikel nur einen Klick entfernt, doch viele Kunden legen auch weiterhin Wert auf ein klassi… https://t.co/smWXrM7mF9
Mit dem digitalen Preisschild passt der #Handel flexibel Preise an. Händler bieten blitzschnell Sonderrabatte. Sie… https://t.co/015MKhmTrO
Unser #Gesundheitswesen ist digitaler als sein Ruf – Mark Düsener, Leiter von Telekom Healthcare Solutions im Inter… https://t.co/SXXSHBn4jo
T-Systems präsentiert beim 6. Zukunftskongress Bayern wie Co-Creation bei der Digitalisierung unterstützen kann.… https://t.co/eVwbzZkN2j
Load More...