Hermann Hänle
7. Juni 2019 0
Automotive

Vor-Ort-Zähmung des Datenmonsters

In der Wissenschaft ist das Problem schon längst bekannt: Forscher erzeugen mehr Daten als verarbeitet werden können. Berühmte Beispiele dafür sind die verschiedenen Kernforschungszentren, in denen Rechenressourcen rund um die Uhr damit beschäftigt sind, die Stecknadel im Heuhaufen der Teilchenphysik zu finden. Die Auswertungsprojekte müssen in die virtuelle Warteschlange und sich gedulden, bis sie aufgerufen werden. Fast wie auf dem Amt.

Big Data in der Fahrzeugentwicklung

2018 wurde die globale digitale Datenmenge auf 33 Zettabyte geschätzt – das ist viel. Würde man diese Daten auf Blu-Ray brennen, der Stapel würde für zwei Hin- und Rückreisen zum Mond reichen. Ein schönes Geduldsspiel und wahrscheinlich ein Alptraum für die Blu-Ray-Hersteller.
Auch die Entwicklung von Autos – nicht nur von autonomen – trägt ihr Scherflein zum globalen Datenwachstum bei: Ein autonomes Auto beispielsweise erzeugt in einer Fahrstunde drei Terabyte an Daten. Allein für die Google-Autos von Waymo mit ihren bislang 16 Millionen Testkilometern auf öffentlichen Straßen läuft das auf knapp eine Million TB heraus, ein Exabyte. Stichwort: Big Data.
Je näher der Marktstart eines Autos rückt, desto dringender wird die Notwendigkeit von Fahrtests. Letzten Endes ist das Autofahren immer noch eine physische Angelegenheit und keine virtuelle – digitaler Twin hin oder her. Das gilt freilich auch für „ganz normale“ Autos – wenngleich dann nicht ganz so viele Bytes erzeugt werden. Allerdings kommt immer noch genügend zusammen. Doch das Datensammeln ist noch nicht mal die halbe Miete.
Es ist vielmehr wie im Kinderzimmer: Wenn die Jungs das Zimmer verwüsten – das geht schnell. Aber wenn sie es nachher aufräumen müssen – das kann dauern. Die Rohdaten allein mögen wohl wertvoll (und geheim) sein, aber sie offenbaren ihren wahren Wert erst, wenn sie mit den passenden Modellen durchgerechnet werden. Und dazu braucht es immense Rechenkapazitäten. Sonst sitzt der Ingenieur am St. Nimmerleinstag immer noch am Rechner. Immense Rechenkapazitäten – das schreit nach der Cloud.

Big Data hier, Cloud da

Doch dazu müssten die Daten erstmal zu den Rechenkapazitäten in der Cloud kommen. Das ist übrigens generell eine Herausforderung, die gerne übersehen wird. Bleiben wir der Einfachheit halber bei unserem Beispiel des autonomen Autos, das mit drei TB pro Stunde „fährt“. Müssten diese Daten direkt in die Cloud abtransportiert werden, bedeutete das eine Transferrate von 834 Megabyte pro Sekunde. Das ist durchaus stattlich. Besonders wenn an entlegenen Orten getestet wird, um das Hitze- und Kälteverhalten des Autos zu vermessen. Die Netzanbindung nördlich des Polarkreises soll ja nicht gerade prickelnd sein.

Edge Computing springt in die Bresche

Wenn der Berg nicht zum Propheten kommt, dann muss der Prophet eben zum Berg kommen. In diesem Fall kommen Rechenressourcen und Auswertungsmodelle an den Polarkreis, wo die Daten erfasst werden. Und zwar in ein mobiles Rechenzentrum. Das Konzept, dass die Rechenkapazität an den Erzeugungsort der Daten transportiert wird, um Latenzen zu reduzieren, nennt sich Edge Computing. Edge Computing kann von Fall zu Fall, v.a. in vielen Themen der Industrial IoT, eine clevere Ergänzung für Cloud Computing sein.
Das Edge-Rechenzentrum übernimmt das Durchrechnen der Daten und sendet die Ergebnisse an das Cloud-Backend. Später – nach Abschluss der Tests – können auch die Testdaten dort abgelegt werden, damit der OEM sie dauerhaft im Zugriff hat. Die Vorteile des Edge Computing liegen auf der Hand: Die Auswertung beschleunigt sich dramatisch, die Ergebnisse stehen den Ingenieuren schneller zur Verfügung und ganz nebenbei reduzieren sich auch die Kosten.
Beim Daimler EDM CAE Forum stellen wir ein weltumspannendes Netzwerk von Super-Clustern vor, die eine Big-Data-basierte Signalverarbeitung ermöglichen. Kommen Sie doch vorbei und schauen Sie sich das an.

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert.

* Pflichtfeld

 
 

Twitter

tsystemsde @tsystemsde
Noch liegen einer digitalen #SupplyChain viele Steine im Weg. Das digitale Frachtpapier von #TSystems hilft Unterne… https://t.co/CUI8hsd9Ni
Das Internet ist nur ein Hype!? – So kann man sich irren. Gerade einmal 4 Universitäten in den USA sollte das… https://t.co/GVPq9K7aZs
Das @bmu unterstützt Kommunen und Akteure beim Umstieg auf energieeffiziente und smarte LED-Beleuchtung: Damit könn… https://t.co/0SO5974pny
#Automation ist in der Industrie allgegenwärtig und beeinflusst neben den Produkten selbst auch die Produktionssteu… https://t.co/GBv17sbuvV
Stabiles Internet ist für Hotelgäste heute ein absolutes Muss. Wie @Lindner_Hotels mit Hilfe der @deutschetelekom d… https://t.co/3YnMmtgEzN
Von wegen teuer und nur für IT-Experten geeignet: @bigdata_insider erklärt, wie auch #KMU #IoT-Lösungen unkomplizie… https://t.co/KSDgjPXWDF
Die @deutschetelekom setzt auf Datennetze der neuen Generation – anstatt Hardware steuert jetzt Software die Netzve… https://t.co/D1rNge5NX4
Ein zukunftsfähiges Product Lifecycle Management in der Automobilbranche: Leistungsstarke Tools für die globale… https://t.co/z56BMsvO2g
Wie #KünstlicheIntelligenz Manager und Controller herausfordert, beleuchtet Prof. Jürgen Weber von der @WHU_edu bei… https://t.co/EKTvsLZBLN
Load More...