Big Data Signal Processing verarbeitet enorme Datenvolumina 40-mal schneller als bisherige Verfahren.
Next Generation

„‘Nen Big Data und ’nen O-Saft, bitte!“

Wenn Sie nicht mehr weiterwissen, dann fragen Sie doch Ihre Applikationen um Rat. Prescriptive Analytics reifen zu einer wirkungsvollen Allzweckwaffe für bessere Entscheidungen.
Autor: Sven Hansel
Fotos: iStockphoto (4)
Fast-Food-Fans kennen den Bissen, der weltweit nahezu identisch schmeckt: Hackfleisch, Brötchen, Gürkchen, Zwiebeln und schließlich die Saucen. Dass sich diese Einzelkomponenten in den fast 40.000 Lokalen des größten Schnellrestaurantbetreibers der Welt zum immer selben Burgergeschmack zusammenfügen, ist das Ergebnis jahrelanger und penibler Feinarbeit sowie intensiver Analysen und einer perfekten Supply Chain. Deutlich schwerer ist dieses Ziel indes beim kaum beeinflussbaren Produkt Orangensaft zu erreichen. Ein Jahr fällt die Ernte der Früchte sehr süß aus, in einem anderen Jahr haben diese weniger Aroma. Mal sind die Orangen saftiger, ein anderes Mal verhageln Stürme den Plantagen die Ernte – eben die Auswirkungen von Mutter Natur. Und doch erwartet der Kunde den bestimmten Geschmack „seines“ Safts. Beim – wie  Coca-Cola – in Atlanta/USA beheimateten größten Fruchtsaftproduzenten des Planeten kommt deshalb einer besonderen Methodik („Blackbook“) immer größere Bedeutung zu. Mithilfe dieser Technologie synchronisiert der Getränkekonzern seine Orangensaftproduktion und sorgt auch hier für ein gleichbleibendes Geschmackserlebnis. Die Supply Chain wird minutiös ausgewertet und aufgrund von vorliegenden Wetter- oder Erntedaten wird die Saftmischung bereits im Vorfeld bestimmt. Willkommen in der Welt von Prescriptive Analytics.
„Ohne künstliche Intelligenz (KI) und maschinelles Lernen (ML) keine schlagkräftigen Prescriptive Analytics.“
Helena Schwenk, IDC-Expertin
Es ist der nächste logische Schritt in der Evolution der analytischen Datenauswertung. Nach den Descriptive („Was ist passiert?“) und den Diagnostic Analytics („Warum ist es passiert?“) folgten zunächst die Predictive Analytics („Was wird passieren?“). Nunmehr ist die Zeit reif für die vorerst letzte Königsdisziplin: die Prescriptive Analytics („Was sollte passieren?“).
Der Markt für Business Intelligence und analytische Werkzeuge erreichte 2016 ein globales Volumen von 4,79 Milliarden Euro, so die Fachleute der IDC. Sie erwarten bis zum Jahr 2020 ein jährliches weiteres Wachstum von gut 8 Prozent. „Dieser Anstieg wird in erster Linie durch die anhaltende Notwendigkeit getrieben, das Geschäft zu digitalisieren und den Wert der gigantisch steigenden Datenmengen, die von Unternehmen erfasst und gespeichert werden, zu erhöhen. Um ihre Kunden besser zu verstehen und zu bedienen und ihr Geschäft voranzubringen“, erläutert IDC-Expertin Helena Schwenk.
Künstliche Intelligenz und Maschinelles Lernen unterstützen die marktgerechte Produktion natürlicher Lebensmittel.
Künstliche Intelligenz und Maschinelles Lernen unterstützen die marktgerechte Produktion natürlicher Lebensmittel.
Anhand des Orangensaftbeispiels heißt das also: In dieser Disziplin wird nicht nur analysiert, was wahrscheinlich passieren wird, sondern die Technologie gibt geradeheraus konkrete Handlungsanweisungen oder Lösungsvorschläge vor.
Schwenks Kollege Axel Oppermann hält die Technologie in Zukunft für „kriegsentscheidend“, wie er sagt. „Alle Unternehmen, alle Verantwortlichen, die sich die Frage stellen ‚Was soll ich tun?‘, also die aktiv Zukunfts- und Businessplanungen betreiben, profitieren von den Technologien und Denkmustern der Prescriptive Analytics“, betont der Chef des Analystenhauses Avispador.
Ein zweiter, wesentlicher Grund für die starke Nachfrage nach Prescriptive Analytics ist, dass sich diese Technologien mit anderen angesagten digitalen Entwicklungen wechselseitig positiv beeinflussen. „So, wie sich Analytics als solche fortentwickeln, benötigen sie ihrerseits Unterstützung wie das maschinelle Lernen, welches Muster in den Daten aufdecken und im Laufe der Zeit kontinuierlich Wissen aufbauen kann, um Probleme zu prognostizieren und die notwendigen Maßnahmen zu ergreifen“, erklärt Helena Schwenk. Anders ausgedrückt: ohne künstliche Intelligenz (KI) und maschinelles Lernen (ML) keine schlagkräftigen Prescriptive Analytics. Und im Umkehrschluss nehmen die beiden Technologien erst durch die Analyse Fahrt auf und bekommen ihren besonderen Wert.
Wie das in der Praxis zukünftig aussehen wird, weiß Helena Schwenk. Demnach werden die Prescriptive-Analytics-Werkzeuge sukzessive von KI und ML gefüttert, lernen somit permanent dazu und können ihren Bedienern oder anderen Maschinen Empfehlungen geben, was konkret zu tun ist. „Das können präzise Vorhersagen sein, automatisierte Abläufe wie eine vollautomatische Warenbestellung oder die Dosierung bestimmter Güter.“ Ein anderes Beispiel nennt Dr. Carsten Bange vom Analystenhaus BARC: „Bei Predictive Analytics ging es etwa darum, überhaupt frischen Salat in ausreichender Menge am Samstag vorzuhalten. Etwa aufgrund der Analyse von Wetterdaten oder des Einkaufsverhaltens der Kunden. In Zukunft wird dann die Software konkret sagen: ‚Halte 30 Salatköpfe vor, damit wirst du auskommen und wenig Überschuss haben.‘“
„In Zukunft wird dann die Software konkret sagen: „Halte 30 Salatköpfe vor, damit wirst Du auskommen und wenig Überschuss haben.“
CARSTEN BANGE, Geschäftsführer der Würzburger BARC-GmbH
In Summe ist es also immer weniger ein Stochern im Nebel, wozu die neue Vorhersagemethodik dient. Sie präzisiert, unterstützt sehr gezielt bei Entscheidungen und nimmt diese optional auch komplett ab. Daraus resultieren für Fachleute wie Helena Schwenk nahezu grenzenlose weitere Anwendungsszenarien. So zum Beispiel in der Betrugserkennung, in der Diagnose und der weiter gehenden Behandlung von Krankheiten oder in der automatisierten Schadensabwicklung in Versicherungen. Für Axel Oppermann werden Prescriptive Analytics auch eine herausragende Position im Supply Chain Management und – last, but not least – im Energiemanagement einnehmen. „Gerade im Bereich der erneuerbaren Energien wird diese Technologie enorm bedeutend werden, wenn es darum geht, Versorgungsengpässe zu vermeiden.“
Wie realistisch diese Einschätzung Oppermanns ist, zeigt denn auch eine Untersuchung aus dem vergangenen Jahr. Bereits heute ließen sich die Kosten für das Management von Engpässen im Stromnetz demnach um mehr als 200 Millionen Euro pro Jahr senken. Das fand eine branchenübergreifende Arbeitsgruppe unter der Leitung der Deutschen Energie-Agentur (dena) und des BET – Büro für Energiewirtschaft und technische Planung – auf Initiative des Bundesministeriums für Wirtschaft und Energie (BMWi) heraus. Zuletzt habe es fast eine Milliarde Euro pro Jahr gekostet, Engpässe im deutschen Stromnetz zu vermeiden und die Systemstabilität sicherzustellen. Angesichts der weltweit ehrgeizigen Ziele hinsichtlich erneuerbarer Energien ist es deshalb mehr als verständlich, dass auch hier Prescriptive Analytics eine große Rolle spielen werden. Klimadaten und Verbrauchsparameter fließen dann in die Berechnungen ein, auf deren Grundlage dann wiederum fundierte Empfehlungen für das Energiemanagement ausgesprochen werden können.
Für Lebensmittelproduzenten lassen sich die Auswirkungen wetterbedingter – und latent riesiger – Ausfallrisiken ihrer wichtigsten Lieferländer landwirtschaftlicher Produkte mittels
Prescriptive Analyics minimieren.
​​​​​​​Ein anderes Beispiel kommt aus der Rohstoffbeschaffung. Die Fachleute der Technischen Universität München fanden heraus, dass datengetriebene Optimierungsansätze mit Prescriptive Analytics valide Beschaffungsstrategien hervorbringen. Durch diese können beispielsweise sehr rohstoffintensive Branchen sowohl das operative Risiko durch Preisschwankungen als auch ihre Beschaffungskosten signifikant reduzieren. Auf diesem Weg könnten Unternehmen durchschnittlich bis zu 11 Prozent günstigere Einkaufspreise für Erdgas erzielen, statt sich auf traditionell geprägte reine Kassa- bzw. Termingeschäfte zu verlassen.
Letztlich ist es so, dass Unternehmen übergreifend von Prescriptive Analytics profitieren. Und Branchenexperten zufolge arbeiten Fast-Food-Ketten gegenwärtig daran, die Analysetools selbstständig neue Rezepturen und Burgerideen vorschlagen zu lassen. Vielleicht wird also doch der „Big Data“ auf der Speisenkarte bereits in wenigen Jahren Realität werden – wer weiß.

Weitere Informationen