Hermann Hänle
7. Juni 2019 0
Automotive

Vor-Ort-Zähmung des Datenmonsters

In der Wissenschaft ist das Problem schon längst bekannt: Forscher erzeugen mehr Daten als verarbeitet werden können. Berühmte Beispiele dafür sind die verschiedenen Kernforschungszentren, in denen Rechenressourcen rund um die Uhr damit beschäftigt sind, die Stecknadel im Heuhaufen der Teilchenphysik zu finden. Die Auswertungsprojekte müssen in die virtuelle Warteschlange und sich gedulden, bis sie aufgerufen werden. Fast wie auf dem Amt.

Big Data in der Fahrzeugentwicklung

2018 wurde die globale digitale Datenmenge auf 33 Zettabyte geschätzt – das ist viel. Würde man diese Daten auf Blu-Ray brennen, der Stapel würde für zwei Hin- und Rückreisen zum Mond reichen. Ein schönes Geduldsspiel und wahrscheinlich ein Alptraum für die Blu-Ray-Hersteller.
Auch die Entwicklung von Autos – nicht nur von autonomen – trägt ihr Scherflein zum globalen Datenwachstum bei: Ein autonomes Auto beispielsweise erzeugt in einer Fahrstunde drei Terabyte an Daten. Allein für die Google-Autos von Waymo mit ihren bislang 16 Millionen Testkilometern auf öffentlichen Straßen läuft das auf knapp eine Million TB heraus, ein Exabyte. Stichwort: Big Data.
Je näher der Marktstart eines Autos rückt, desto dringender wird die Notwendigkeit von Fahrtests. Letzten Endes ist das Autofahren immer noch eine physische Angelegenheit und keine virtuelle – digitaler Twin hin oder her. Das gilt freilich auch für „ganz normale“ Autos – wenngleich dann nicht ganz so viele Bytes erzeugt werden. Allerdings kommt immer noch genügend zusammen. Doch das Datensammeln ist noch nicht mal die halbe Miete.
Es ist vielmehr wie im Kinderzimmer: Wenn die Jungs das Zimmer verwüsten – das geht schnell. Aber wenn sie es nachher aufräumen müssen – das kann dauern. Die Rohdaten allein mögen wohl wertvoll (und geheim) sein, aber sie offenbaren ihren wahren Wert erst, wenn sie mit den passenden Modellen durchgerechnet werden. Und dazu braucht es immense Rechenkapazitäten. Sonst sitzt der Ingenieur am St. Nimmerleinstag immer noch am Rechner. Immense Rechenkapazitäten – das schreit nach der Cloud.

Big Data hier, Cloud da

Doch dazu müssten die Daten erstmal zu den Rechenkapazitäten in der Cloud kommen. Das ist übrigens generell eine Herausforderung, die gerne übersehen wird. Bleiben wir der Einfachheit halber bei unserem Beispiel des autonomen Autos, das mit drei TB pro Stunde „fährt“. Müssten diese Daten direkt in die Cloud abtransportiert werden, bedeutete das eine Transferrate von 834 Megabyte pro Sekunde. Das ist durchaus stattlich. Besonders wenn an entlegenen Orten getestet wird, um das Hitze- und Kälteverhalten des Autos zu vermessen. Die Netzanbindung nördlich des Polarkreises soll ja nicht gerade prickelnd sein.

Edge Computing springt in die Bresche

Wenn der Berg nicht zum Propheten kommt, dann muss der Prophet eben zum Berg kommen. In diesem Fall kommen Rechenressourcen und Auswertungsmodelle an den Polarkreis, wo die Daten erfasst werden. Und zwar in ein mobiles Rechenzentrum. Das Konzept, dass die Rechenkapazität an den Erzeugungsort der Daten transportiert wird, um Latenzen zu reduzieren, nennt sich Edge Computing. Edge Computing kann von Fall zu Fall, v.a. in vielen Themen der Industrial IoT, eine clevere Ergänzung für Cloud Computing sein.
Das Edge-Rechenzentrum übernimmt das Durchrechnen der Daten und sendet die Ergebnisse an das Cloud-Backend. Später – nach Abschluss der Tests – können auch die Testdaten dort abgelegt werden, damit der OEM sie dauerhaft im Zugriff hat. Die Vorteile des Edge Computing liegen auf der Hand: Die Auswertung beschleunigt sich dramatisch, die Ergebnisse stehen den Ingenieuren schneller zur Verfügung und ganz nebenbei reduzieren sich auch die Kosten.
Beim Daimler EDM CAE Forum stellen wir ein weltumspannendes Netzwerk von Super-Clustern vor, die eine Big-Data-basierte Signalverarbeitung ermöglichen. Kommen Sie doch vorbei und schauen Sie sich das an.

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert.

* Pflichtfeld

 
 

Twitter

tsystemsde @tsystemsde
„Unser Gesundheitssystem braucht #Digitalisierung“, sagt Mark Düsener. T-Systems lud zum Event „Gemeinsam… https://t.co/aFwZsfAD4X
Mit unseren Cloud-Lösungen reagieren sie schneller, flexibler und effizienter auf Kundenbedürfnisse. Garantiert sic… https://t.co/5UMzkZbJJ3
250 GB Daten an einem einzigen Drehtag von „Gute Zeiten, schlechte Zeiten“. Diese Daten hebt die UFA in die Open Te… https://t.co/4OR2zgkM76
Bis zu 46 Millionen Cyberattacken pro Tag werden auf firmeninterne Netzwerke, Cloud- und IoT-Anwendungen registrier… https://t.co/Ueq83Go9Se
Spannende Insights, ein produktiver Austausch und neue Lösungen für das #Gesundheitswesen - Das war Gemeinsam… https://t.co/tfwWUxU5Yk
Auch Thema auf der #360digital: Auf Knopfdruck Pflegepersonal entlasten. Der #IoT Service Button unterstützt Pflege… https://t.co/vlbW3sKcdc
Neues vom Workshop #360digital: Die digitale Gesundheitsplattform @mdoc_gmbh hat das Patientenportal iMedPortal für… https://t.co/jdbktLcuRK
Die richtige Balance für Ihre IT: Jetzt das kostenlose Whitepaper „Unlocking the value of unified IT infrastructure… https://t.co/qfyoTeMFES
Nicht nur Herausforderungen, auch Chancen für 2020: Mike Kraus, @deutschetelekom #healthcare im Workshop… https://t.co/eyxkzSK6gr
Load More...