Bild aus dem Innenraum eines Autos, überall Linien und Zahlen

Kickdown! [Vollgas/Full Throttle]


Eine „Datentankstelle“ mit moderner Hardwaretechnologie und einem zum Patent angemeldeten Software-Verfahren bringt Kunden aus dem Automotive Bereich einen Boost für die Pkw-Entwicklung.

Probier´s mal mit Gemütlichkeit – war gestern. In der digitalen Welt zählt einzig und allein Tempo. Die berüchtigte „Time-to-Market“ wird immer mehr zum entscheidenden Erfolgskriterium. Die Crux daran: Die Begleiterscheinungen neuer Technologien für einen schnellen und sicheren Markteintritt arbeiten meist gegen diese Geschwindigkeit, und das liegt in der Natur der Sache.

10 Petabyte Daten pro Testfahrzeug 

Beispielsweise bei der Entwicklung autonomer Fahrzeuge. Die amerikanische Society of Automotive Engineer (SAE) hat hierzu ein paar Vergleichszahlen ermittelt. Schon die Entwicklung eines autonomen Autos mit Level 2 – das umfasst gerade einmal die Einparkhilfe und adaptive Geschwindigkeitsregelung – benötigt bis zur Marktreife rund 200.000 Kilometer Fahrstrecke und erzeugt dabei vier bis zehn Petabyte an Sensordaten zu Testzwecken. Die allerhöchste SAE-Ebene 5, diese umfasst vollautonome Fahrzeuge, benötigt bis zum Markteintritt geschätzt mehr als 240 Millionen Kilometer Fahrstrecke und erzeugt dabei gut zwei Exabyte Sensordaten, das entspricht zwei Trillionen Bytes. Zur Einordnung: Etwas mehr als ein Exabyte entsprach laut Presseberichten im Jahr 1998 der Größenordnung menschlichen Wissens.

Also ist es für eine kurze Time-to-Market wichtig, diese großen Datenmengen in einem adäquaten Ausmaß handhabbar zu machen. Entwicklungsingenieure benötigen die Informationen, welche von in den Autos eingebauten Sensoren, Kameras, LIDAR (=optisches Radar)-Scannern und KI-Steuergeräten sowie externen Mess- und Prüfanlagen generierten werden, sehr zügig, damit sie daraus ebenso flott ihre Schlüsse ziehen können. Die konkrete Herausforderung ist, die hunderten Gigabyte, die ein mit Messtechnik versehenes Elektrofahrzeug während der Dauerprobung in der arabischen Wüste generiert hat, während eines Fahrerwechsels oder der Betankung in wenigen Minuten zu entladen. Und das revisionssicher! 

Herausforderung für Messdaten-Management 

Und nicht nur das: Denn die regionale Entladung von vielen Fahrzeugen während eines Schichtwechsels ist nur die erste Hürde; die anschließende Bereitstellung der Daten innerhalb einer komplexen und immer dynamischer organisierten Entwicklungsorganisation stellt einen weiteren Prüfstand für jedes Messdaten-Managementsystem dar, dies gilt für die gesamte Industrie insbesondere aber auch für Global Player der Automobilbranche. Der Test-Ingenieur, der bspw. einen hybriden Antriebsstrang betreut, benötigt nicht nur die Daten eines einzigen Prototypen, sondern er interessiert sich aktuell für alle Kickdown-Betätigungen (=Schwellwert-Schalter am Gaspedal, um den Motor für optimale Beschleunigung hochzudrehen) sowie ABS-begleitete Vollbremsungen in der gesamten, mehrere hundert Fahrzeuge umfassenden Testflotte. Und das möglichst unmittelbar nach ihrer Aufzeichnung auf bis zu drei Kontinenten, irgendwo zwischen Polar- und Wendekreis. „Die für solche Bedürfnisse traditionell eingesetzten Hub-And-Spoke Architekturen [Anm. der Red: welche die verteilt produzierten Dateien zunächst an einer zentralen Stelle, zum Beispiel einer Cloud, zusammenführt und von dort dann wiederum an die Analysten zielgerichtet verteilt] sind mit den benötigten Bandbreiten für automobile Messdaten hoffnungslos überfordert“, so Dr. Christoph G. Jung, Principal Architect in der Digital Solutions Einheit von T-Systems.

Echtzeitanalyse der Testdaten 

Die beiden langjährigen Partner, T-Systems und Daimler, haben nun gemeinschaftlich für eine überraschende Lösung dieser wichtigen Herausforderungen gesorgt. Damit können die Entwicklungsingenieure des Autobauers weltweit diesen gigantischen Datenstrom „in situ“ und damit in Nahzeit analysieren. Edge Computing heißt das Konzept, welches anstelle die Daten zu den Analysten zu transportieren, stattdessen die Analysealgorithmen hin zu den Produzenten, hier an die Erprobungsstandorte, überträgt.

IM-Daimler-2-Huge-Data

RückblickSo fing alles an

Diese Technologie kombiniert zunächst dedizierte, auf Server-Computern basierende Cluster-Hardware, wie sie auch in T-Systems Rechenzentren eingesetzt wird, mit einer zum Patent angemeldeten Signalverarbeitungs-Software („Big Data Signal Processing“) zu einer sogenannten „Datentankstelle“. Diese regional stationierten Mini-Rechenzentren werden daraufhin miteinander über ein globales Cloud-Netzwerk so föderiert, dass ein „Data-As-A-Service“ (DAAS) entsteht, der somit als transparente „Datenstromdose“ fungiert.

Code to Data statt Data to Code 

Das ist sehr effizient, denn die Rohmessdaten werden nicht mehr kopiert, sondern lediglich deren Berechnungsvorschriften (Algorithmen) werden als Code in die jeweils relevanten, an der Teststrecke installierten Datentankstellen „injiziert“. Lediglich die interessanten Auszüge (Exzerpt) und Ergebnisse der Algorithmen werden im Anschluss übertragen, das Datenvolumen sinkt typischerweise auf ein Tausendstel.

Die von einem im Fahrzeug verbauten und mit der Messtechnik verbundenen Computer (Logger) in den Fahrzeugen aufgezeichneten Messungen werden dabei zunächst in standardisierten Industrieformaten schnell, effizient und drahtlos über breitbandige Verbindungen (Terabytes können in wenigen Minuten übertragen werden) in die Datentankstellen gesaugt.

Dort gewinnen die Beteiligten dann zusätzliches Tempo durch ein von T-Systems entwickeltes Spezial-Verfahren (wir berichteten), das, vereinfacht ausgedrückt, an das MP3 Verfahren für Audiodateien erinnert – hier jedoch auf Messdatenreihen verallgemeinert. Das Verfahren dekodiert die Messdaten, minimiert Redundanzen bei der Speicherung und beschleunigt den gesamten Prozess durch massive Parallelisierung, d.h. die simultane Bearbeitung der Datenreihen auf mehreren Rechnern. Wobei den Ingenieuren – und das ist wichtig, im Gegensatz zu MP3 - keinerlei Daten verloren gehen, denn die urspr. Aufzeichnungen können jederzeit verlustfrei und revisionssicher rekonstruiert werden.

KI für die Datensteckdose 

Außerdem sammeln die Datentankstellen bei dieser sogenannten Transkodierung unmittelbar sowohl wichtige Metadaten, beispielsweise die verbauten Fahrzeugkomponenten und Softwarestände, die die Umstände der Messdatenaufzeichnungen und Dauerlauftests näher beschreiben, als auch vordefinierbare Ereignisse, die einen Erkenntnisgewinn für die Ingenieure bei der Optimierung der zukünftigen Fahrzeuge darstellen. 

Im aktuellen Vorzeigeprojekt wurde die bislang einzigartige T-Systems Hard- und Software über den Telekom-Backbone an die Unternehmens-Cloud des Kunden angebunden. Dort können unterschiedlichste Analysewerkzeuge, Datenanreicherungsprozesse, Visualisierungen und auch KI-Algorithmen kosteneffizient an die Datenstromdose angesteckt werden. Mit dieser Technologie steht zum ersten Mal ein Mittel zur Verfügung, Fulltrace Daten sämtlicher Dauererprobungsfahrzeuge in Ihrer Vollständigkeit zu erfassen und auszuwerten. Das führt dazu, dass der Testprozess erheblich beschleunigt und flexibilisiert werden kann, quasi ein Kickdown-Schalter für die gesamte Fahrzeugentwicklung.

Autor: Sven Hansel 
Fotos: Gettyimages

Kontaktieren Sie unsere Experten!

Weitere Fragen zu Edge Computing? Gerne besprechen wir Ihre individuellen Wünsche und Projekte mit Ihnen.
Bitte füllen Sie dieses Feld aus.
Anrede
Bitte wählen Sie eine Option aus.
Bitte füllen Sie dieses Feld aus.
Bitte füllen Sie dieses Feld aus.
Bitte füllen Sie dieses Feld aus.
Bitte füllen Sie dieses Feld aus.
Bitte füllen Sie dieses Feld aus.
Bitte wählen Sie eine Option aus.
  • Bitte bestätigen Sie dieses Feld.

* Pflichtfeld

Bitte füllen Sie diese Anfrage zum Spam-Schutz aus.
Besuchen Sie t-systems.com außerhalb von Germany? Besuchen Sie die lokale Website für weiterführende Informationen und Angebote für Ihr Land.