Hermann Hänle
9. September 2019 0
Automotive

Autonome Augen

„Oh, schau mal – da drüben steht ein Eismann. Ah, pass auf …“ Quietsch. Knirsch. 5-mal pro Minute gibt es auf deutschen Straßen einen Unfall, insgesamt 2,6 Millionen pro Jahr – sagt Generalis Karambolage-Atlas 2018. Zumeist leidet lediglich das Blech der Autos. Könnte das auch mit autonomen Autos passieren?

Hauptunfallrisiko: der Mensch

„Natürlich nicht“, wird die landläufige Antwort lauten. Bereits jetzt häufen sich Studien und Prognosen, die den Verkehrssicherheitsbeitrag autonomer Autos belegen wollen. McKinsey beispielsweise kalkuliert mit einem Rückgang von 90 Prozent aller Autounfälle, was Schäden in Milliarden-Höhe vermeiden hilft.

Autos lernen sehen

Damit diese Vision wahr wird, muss das Auto aber erstmal anständig sehen lernen. Verschiedenste Sensoren-„Augen“ sind dazu an den meisten modernen Autos schon integriert, typische Beispiele sind Radar, Lidar, aber auch traditionelle optische Kameras. Deren „Sicht“ hat bei mir meist ihren großen Auftritt, wenn ich in die Garage oder einen anderen engen Parkplatz einfahre. Dann geht zuverlässig das Gepiepe los. 

Für ein Level-5-Auto müssen diese Augen aber vor allem während der Fahrt alert sein – und wenigstens können wir uns bei ihnen sicher sein, dass sie nicht nach dem nächsten Eismann schauen. Zumindest wenn sie entsprechend trainiert sind. Denn Sensorik ist natürlich nur ein Teil des Sehens. So wie der Mensch die optischen Impulse des Auges in seinem Gehirn verarbeitet, braucht auch das Autos eine Onboard-Intelligenz, die die aufgefangenen Daten verarbeitet und die aktuelle Situation bewertet.

Gutes Training ist die halbe Miete

Klingt einfach, ist es aber nicht: Die Sensoren erfassen einen Haufen von Daten während der Fahrt und sie müssen alle Objekte in der Nähe, zumindest aber im Field of View, im Blick behalten. Das heißt, das Auto muss zum einen die Objekte in der Nähe erkennen und zum anderen die realen Abstände und Bewegungsvektoren kennen, um abzuschätzen, ob es zu einem Konflikt mit dem Objekt kommen kann. Das Erkennen von Objekten kann vor der Fahrt trainiert werden. Während der Fahrt fließen dann beispielsweise aufbereitete Radar-oder Lidar-Daten mit dieser Szenenerkennung zusammen.

Der Anspruch an ein solches Erkennungssystem kann natürlich variieren. Im australischen Outback mit seinem überschaubaren Verkehrsaufkommen, gilt es wohl eher, Dingos, Kängurus oder Krokodile zu identifizieren, die die Straße kreuzen. In einer deutschen oder französischen Kleinstadt spielen andere motorisierte Verkehrsteilnehmer eine weitaus bedeutsamere Rolle. Ganz zu schweigen von London, Paris, Frankfurt – oder meinem Lieblingsbeispiel Stuttgart. Übrigens sind offenbar gerade die deutschen Stadtstaaten Berlin, Hamburg und Bremen die „Leader“ in der Unfalldichte. Hier hat etwa jedes sechste Auto jährlich einen Unfall.

Relativ einfach ist es, den longitudinalen Verkehr zu bewerten, also alles, was sich parallel zu meiner Richtung bewegt. Schwieriger ist es, den querenden Verkehr oder gar Kurvenbewegungen zu bewerten. Doch eine zuverlässige Sensorik und Situationsbewertung ist ein essenzieller Faktor für das autonome Fahren. Mit Hochdruck arbeiten Automobilhersteller daher daran, die Sehkraft ihrer Autos zu erhöhen. Der Schlüssel dazu ist künstliche Intelligenz. Sie kann „Szenen“ identifizieren und die während der Fahrt erfassten Bildpunkte Objekten zuordnen. Für das Training der Objekterkennung sind nicht nur haufenweise Echtdaten erforderlich, sondern auch sehr leistungsfähige Rechenkapazitäten.

Da capo – und natürlich besser 

Mit der trainierten Intelligenz können dann wieder neue Tests initiiert werden, um die Fahrerassistenzsysteme zu optimieren. Diese müssen übrigens nicht unbedingt auf der Straße ablaufen. Wahlweise können diese auch virtuell und vollkommen unschädlich für das Blech (und andere Verkehrsteilnehmer) gestaltet werden. Die Grundlage dafür ist eine Plattform, die auf Knopfdruck komplexe Fahrsituationen zur Resimulation für Fahrerassistenzsysteme bereitstellen kann, sozusagen ein virtueller Nicht-Crashtest.

Beim DAIMLER EDM CAE FORUM hatten wir ein solches System zur Datenanalyse und Resimulation im Gepäck. Gerne stelle ich bei Interesse einen Kontakt mit unseren Spezialisten her. Ich freue mich auf Sie.

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert.

* Pflichtfeld

 
 

Twitter

tsystemsde @tsystemsde
Die #SAP-Community trifft sich auf dem DSAG 2019. T-Systems stellt erfolgreiche SAP-Projekte vor. Um 17:45 Uhr in R… https://t.co/cwJmYBikGr
Deutschland kann ein #5G-Pionier sein: #TSystems-CEO Adel Al-Saleh (@adel_al_saleh) sprach auf der Eröffnungsfeier… https://t.co/SZ4mFQVQuN
Alles im Blick: Wie kann man große Außenlager mit moderner Technik effizienter überwachen? #TSystems-Experte Lars V… https://t.co/rfuAwmh719
Consumer Experience im Arbeitsleben – alles rund um Service Automation im Personalbereich erfahren Sie beim… https://t.co/6UwYdaGaXq
Software Defined Wide Area Networks bieten vor allem eines: Flexibilität. Dank einer neuen Partnerschaft mit… https://t.co/7kJXqHt9dN
#Smart City-Lösungen werden zu einem neuen Markt für Versorgungsunternehmen, vor allem in mittelgroßen europäischen… https://t.co/iEf3g11guy
#TSystems hat den “Rising Star of the Year”-Award des @AWS_DACH Partnernetzwerks erhalten. Jetzt mehr über das Rund… https://t.co/tSz106LrJR
Das #SAP Leonardo-Exponat „Connected Greenhouse“ auf der DSAG 2019 zeigt ein modernes, intelligentes Unternehmen au… https://t.co/hOczb56x0c
Dank einer #Verschlüsselungssoftware können nun auch mit dem #iPhone vertrauliche Gespräche geführt werden. Die von… https://t.co/IZAMs5Na47
Load More...