T-Systems-Claim-Logo
Suchen
Kurve einer mehrspurigen Straße bei Nacht, die Lichter der Autos bilden leuchtende Linien, die Autos sind nicht erkennbar

Mit Edge Computing an die Autoteststrecken

Bei Protoypentests entstehen täglich riesige Datenmengen, die Ingenieure möglichst schnell zur Verfügung haben müssen. 

15. Dezember 2020Jörg Heizmann

Aufwändige Fahrzeugerprobung

Im Winter geht es gern nach Finnland an den Polarkreis, 50 Grad Celsius heiß ist es im Death Valley, und auf Schotterpisten rasen Testfahrzeuge verschiedener Hersteller der Autoindustrie durch den Westen Namibias: Nach wie vor absolvieren Prototypen und Dauerläufer durchschnittlich 150.000 Kilometer, bevor die neuen Automodelle in die Serienfertigung gehen. Das Gesamtsystem Fahrzeug ist inzwischen so komplex, dass sich alle Wechselwirkungen nicht gänzlich simulieren lassen. Obwohl Rechner, digitale Zwillinge oder Hardware-in-the-Loop-Simulationen die Testzeiten von neuen Autos verkürzen, kommen Testingenieure nicht ohne ausgiebige Testfahrten unter verschiedensten klimatischen Bedingungen, Streckenuntergründen und verschiedenen regionalen Bedienungsunterschieden aus. Wenn es darum geht, wie Systeme in einem realen Fahrzeug zusammenspielen, geht es in weltweite Testgebiete. 

Datenlogger erfassen große Datenmengen

Weißes Auto fährt durch ockerfarbenen aufgewühlten Wüstensand

Autotests in der Automobilindustrie sind teuer und komplex. Je nach Unternehmen kann der Testbetrieb eines Prototyps abhängig vom Erprobungsgegenstand jährlich bis zu 200.000 Euro kosten – ohne die Herstellungskosten für das Fahrzeug selbst. Und trotz Computersimulation testen die Ingenieure alle Fahrzeuge und Komponenten eines Autos im Realbetrieb. Längst sind Testfahrzeuge fahrende Messlabors, die mit jeder Menge Messtechnik ausgestattet sind. Unter anderem auch mit sogenannten Datenloggern, die alle Messdaten aufzeichnen, die die Sensoren, Aktoren, Bussysteme und sonstigen Messgeräte während eines Autotests produzieren. Bis zu 10.000 Kanäle erfassen die modernen Sensoren mancher Autos heute. Darunter inzwischen neben Verkehrsschildern und Passanten auch die Pupillenbewegungen des Fahrers selbst. Das Auto soll erkennen, ob der Fahrer Müdigkeitssymptome zeigt und ihn warnen. Und die Fahrzeugdaten geben Hinweise darauf, ob sich doch noch was bei der Feinabstimmung von elektrischen Servolenkungen, Stoßdämpfern oder Stabilitätsprogrammen optimieren lässt. 

Datenübertragung dauert und ist teuer  

All diese Daten landen auf Festplattenspeichern, die am Ende des Arbeitstages in der Fahrzeughalle „nur“ noch ausgelesen und in die Auswertungssoftware eingespeist werden müssten – eigentlich. Denn hier fangen die Probleme an. Inzwischen erzeugt ein einziges Testfahrzeug an einem Tag mehrere Terabyte an Testdaten. Zum Vergleich: Es braucht rund 1.400 CDs um 1 Terabyte Daten zu speichern. Das ist aber nicht das eigentliche Problem. Speicherkapazitäten lassen sich genug vorhalten – auch durch Cloud Computing. Aber Ingenieure und Data Scientists sollen diese Daten möglichst schnell mit Big-Data-Software analysieren. Dafür müssen sie entweder auf Festplatten vom Nordkap, aus der Wüste oder dem Regenwald ins nächstgelegene Rechenzentrum transportiert werden – was Tage dauern kann. Oder sie müssen übertragen werden – was selbst bei Festnetz und LTE-Netzen Zeit braucht, je nach Datenmenge dauert und vor allem entsprechende Übertragungskosten zur Folge hat.

Whitepaper „Smartes Engineering mit Big Data und digitalen Zwillingen“

Wie verändern Big-Data-Signalverarbeitung-, automatische Standortbestimmung und digitale Zwillinge die Ingenieurswissenschaften?
In unserem Whitepaper erfahren Sie mehr.

Daten auf bis zu 10 Prozent des Volumens komprimieren

Nahaufnahme einer Leiterplatte

An dieser Stelle kommt eine neue Big-Data-Lösung ins Spiel, die wir bei T-Systems entwickelt haben und mehrere Effekte zusammenführt. Erstens komprimieren wir die Daten, zweitens bauen wir Mini-Rechenzentren an den Teststrecken auf und drittens analysieren wir die Daten vor Ort. 

Die Komprimierung der Daten war bis dato nicht ganz einfach. Bei den Testdaten handelt es sich um Signaldaten, deren proprietäre Datenformate erst decodiert und aufbereitet werden mussten. Mit der von uns entwickelten Software „Big Data Signal Processing“ transcodieren wir jetzt diese Daten in ein Big-Data-Format, die die Datenmenge um bis zu 90 Prozent verringert. Ohne Informationsverlust versteht sich. Im Gegenteil: Die Daten sind angereichert um Metadaten, die unter anderem Informationen wie Fahrzeugdaten, Teststrecke oder Wetterbedingungen enthält. Des Weiteren prozessieren wir die Daten durch eine optimierte Big Data Speicherung parallel, was die Datenprozessierung um das bis zu 40zig fache beschleunigt. Das erleichtert den Ingenieuren später, Daten zu identifizieren und schneller zu analysieren und mit anderen Mess- und Metadaten zusammenzuführen. 

Code to Data statt Data to Code

Weniger Daten ist ein erster wichtiger Schritt für schnellere Datenanalysen. Bleiben bei mehreren Testfahrzeugen an einer Teststrecke immer noch viele Daten, die übertragen werden müssten. Daher bauen wir zusätzlich Edge Big Data Cluster an den Testrecken auf. Diese kleinen Rechenzentren bestehen aus wenigen Racks und sind mobil mit einem zentralen Rechenzentrum verbunden. Auf diese Edge-Computer werden nicht nur die Daten der Testfahrzeuge gespeichert. Hier findet die Datenkompression statt und die Analyse der Testdaten. Dafür wird der Code der Business-Analytics-Software zu den Edge-Computing-Systemen übertragen – in der IT heißt das Prinzip „Code to Data“ – , die Daten vor Ort analysiert und nur die Ergebnisse an die Entwicklungsingenieure zurückgespielt. Was auch bei geringeren Übertragungsbandbreiten kein Problem ist.

Analysekosten und Analysezeit sinken 

Das ganze Big-Data-Signal-Processing und Edge-Cluster-Verfahren bringt enorme Vorteile für die Fahrzeugtests, wobei die weitaus schnellere Analyse der Testdaten bei deutlich geringeren Kosten zunächst die wichtigsten sind. Aber der gesamte Testprozess profitiert: Die Autohersteller brauchen weniger Testfahrzeuge, da sie Fehler schneller erkennen und Testzyklen weniger wiederholt werden müssen. Messdaten liegen nach wenigen Stunden, genau genommen nach dem Daten-Entladezyklus während des Schichtwechsels statt wie bisher erst nach Tagen vor. Die Kosten für die Datenübertragung sinken, da die Kosten für Connectivity aufgrund der kleineren Datenmengen geringer sind. Mussten die Ingenieure bisher bestimmte Testdaten der intelligenten Autotests vorbestellen, können sie jetzt jederzeit auf alle benötigten Daten zugreifen, da zukünftig aufgrund der effizienten Datenprozessierung auch sogenannte Full-Traces zur Verfügung stehen. Dies bedeutet, sämtliche Testdaten aus den Bus-Systemen stehen dank eines Hybriden Edge und Cloud Computing IT Systems jederzeit, auch für Ad-hoc Abfragen bereit. 

Große Autohersteller haben die neue Lösung schon erfolgreich erprobt. Gerade rollen wir für einen Hersteller an allen Teststrecken die Edge-Cluster aus und wenden dann das „Big Data Signal Processing“ an. Prototypen und Erlkönige wird es aber weiterhin geben. Ansonsten würden die Erlkönig-Jäger aussterben.

Zum Autor
Bild von Jörg Heizmann

Jörg Heizmann

Senior Sales Manager Big Data & AI, T-Systems

Profil und alle Artikel ansehen
Besuchen Sie t-systems.com außerhalb von Switzerland? Besuchen Sie die lokale Website für weiterführende Informationen und Angebote für Ihr Land.