Reportage

Deep Dive-Experten.

Die Digitalisierung der Betriebsprozesse und Geschäftsmodelle gewinnt an Fahrt. Ein "Steering Lab" hilft Unternehmen mit neuen analytischen Methoden bei der Entwicklung quantitativer Steuerungsmodelle. Eine Reportage von Wolf K. Müller Scholz.   

  

Hinter den glänzenden Bürofassaden an der Ganghoferstraße in München residieren etablierte Unternehmen. Es wirkt gesättigt. Business as usual. Doch seit kurzem sprießt hier etwas Neues, Hungriges: ein Hightech-Labor. Es heißt «Steering Lab» und trägt seinen selbstbewussten Namen wohl zu recht. Schließlich gehört es zu Horváth & Partners, einem der führenden Beratungshäuser für die Unternehmenssteuerung (Claim: «Steering Business Successfully»). 

Das Praxislabor entwickelt für Unternehmen aller Branchen quantitative Modelle für digital basiertes Management. Mit deren Hilfe können zum Beispiel Lieferketten oder Produktionskapazitäten transparenter gestaltet, Forecasting oder Nachfrageanalysen verfeinert oder Kos-tensenkungen kontinuierlich und hochautomatisiert betrieben werden.

Dazu werden Big Data von hochkarätigen Mathematikern, Physikern und Informatikern – sogenannten «Quantitative Business Modelern» – mittels profunder Algorithmen und Wertmodellierungen veredelt und beispielsweise in speziellen Apps aufbereitet. Diese Lösungen ermöglichen Managern eine stärker systemisch angelegte Sicht auf das Unternehmen – und damit besser basierte Entscheidungen: sowohl im operativen Bereich (etwa bei der Optimierung der Wertschöpfungsketten oder bei Logistiknetzen, die auf Echtzeitdaten basieren) als auch in der Strategie (zum Beispiel mit fundierteren Simulationen und Hypothesenmodellen).

Der Chef des aufstrebenden Praxislabors ist Alexander Vocelka, Partner bei Horváth & Partners im dortigen Competence Center Controlling & Finance. Auf dem Weg zum Konferenzraum passieren wir das Allerheiligste des «Steering Labs»: den Computerraum. «Er ist vielfach abgeriegelt. Unsere Kunden wissen, dass ihre digitalen Modelle, die wir für sie entwickeln, hier sicher sind», sagt Vocelka. Dann verschwindet er kurz zu seinem Team. Informationen. Instruktionen. Drei Minuten später ist er wieder da. Ein Business-Sprint im Silicon Valley-Stil. 

 

Ökonomische Realität besser abbilden.
Vocelka ist ein intellektuelles Energiepaket. Wir trafen uns erstmals vor ungefähr 20 Jahren, als wir parallel im Silicon Valley arbeiteten (er in Fremont, ich in Menlo Park). Schon damals sprühte er vor wegweisenden Ideen – etwa einem webbasierten Reportingsystem, das er kurz danach auch in die Tat umsetzte. 

Seitdem hat sich die Welt weiterentwickelt. Radikal. Digital. Zu jener Zeit waren Internet und Computer nur digitale Hilfsmittel. Heute werden unter Leitlinien wie Industrie 4.0 komplette Geschäftsprozesse, ganze Unternehmensbereiche von Grund auf digital neu organisiert, viele Abläufe automatisiert. Managemententscheide können aufgrund von Echtzeitdaten getroffen werden. «Was das Business Process Reengineering in den 1990er Jahren auf Papier in aufwendigen Sonderprojekten anstieß, läuft heute in den digitalen Unternehmensprozessen effektiver, genauer – und permanent», sagt Vocelka. 

In produzierenden Unternehmen ermöglichen Big Data-Analysen Rückschlüsse zum Beispiel auf Schwachstellen in den Lieferketten, benötigte Produktionskapazitäten oder Nachfragepotentiale.   

Für die Entwicklung der dafür geeigneten Modelle sind, so Vocelka, die üblichen betriebswirtschaftlichen Methoden nicht ausreichend: «Damit schnorcheln Unternehmen nur an der Oberfläche eines tiefen Ozeans an Möglichkeiten.» Um die immer komplexere wirtschaftliche Realität in Steuerungsmodellen und Szenarien sauber abbilden zu können, brauche es analytisch sehr viel tiefer reichende «Deep Dive»-Techniken. 

Dazu zählen etwa multivariable Regressionen, rekurrente neuronale Netzwerkmodelle (RNN) oder autoregressive Integrated Moving Average-Modelle (ARIMA), die sowohl die zurückliegenden Messwerte als auch die Zufallseinflüsse gewichten. «Das Ziel ist, dass alle Funktionen und Prozesse eines Unternehmens als System durch genügend Daten so gut modelliert werden können, dass ihr Verbesserungspotential transparenter wird», sagt Alexander Vocelka. 

 

Simulationen mit unendlichen Daten.
Was an Modellen in der Praxis möglich ist, zeigt der Teammitarbeiter Dr. Andrei Belitski an einigen Beispielen: Beeindruckend ist ein Projekt zur Optimierung der Straßenverkehrssicherheit   in Großbritannien, das sämtliche Unfalldaten aus mehreren Jahrzehnten in einem analytischen Modell zusammenfasst. Die Datenbank beinhaltet alle erfassten Informationen zu Millionen von Unfällen – von den Fahrzeugdetails über die Wetterverhältnisse bis zum Alter des Fahrers. «Das System ist sehr flexibel, es können mehrere Variablen als Ausgangspunkt eines Szenarios gewählt werden», sagt der promovierte Informatiker. Es liefert Entscheidern Antworten auf die verschiedensten Fragen wie etwa: «Was müsste ich ändern, um zum Beispiel die Unfallschwere zu reduzieren?» 

Das Ziel dieses Projekts ist es also nicht, ein Prognosesystem anzutrainieren, das die Unfallschwere vorhersagt, sondern eines, das verschiedene Szenarien darstellen kann. 

Aus diesen können die Nutzer beispielsweise ableiten, ob es Sinn macht, die Höchstgeschwindigkeit zu senken. So kann das Management sich etwa in Szenarien vom System durchrechnen lassen, welche Auswirkungen eine bestimmte andere Höchstgeschwindigkeit auf die Unfallschwere hätte. 

Der Nutzwert derart hochkarätiger Szenariomodelle ist vielfältig: «Wenn eine Versicherung zum Beispiel wissen will, wie genau männliche Autofahrer zwischen 16 und 20 hinsichtlich der Unfallschwere betroffen sind, kann das bei den Variablen eingegeben werden», sagt Dr. Belitski. «Für die Autohersteller kann es zum Beispiel im Hinblick auf die künftige Konstruktionsentwicklung interessant sein, mit welchem Bauteil das Auto unter bestimmten Unfallumständen zuerst aufgeschlagen ist.» Auch externe Informationen, beispielsweise Statistiken oder Expertenanalysen, können als Variablen integriert werden.  

 

Logistikoptimierung in der Industrie.
Ein zweites Beispiel ist die Erarbeitung eines operativen Steuerungsmodells für die Logistik eines Unternehmens aus der produzierenden Industrie. «Wie in vielen anderen Organisationen sah der Vorstand die Logistik nicht als Kernkompetenz: Er gab sich damit zufrieden, das sie im Hintergrund funktionierte und beurteilte sie nicht als Bereich, in dem gezielt Optimierungspotential herausgeholt werden soll», beschreibt Belitskis «Steering Lab»-Kollege Dr. Carsten Moldenhauer die Herausforderung bei dem Projekt.    

Dabei gibt es in der Logistik des Unternehmens genug zu optimieren: Das Bahnnetz umfasst 27 Standorte, Hunderte von Ladestationen und 1’000 Kilometer Gleise mit jährlich 500’000 Verbindungen. Dafür reichen die üblichen GPS-Ortungsgeräte laut Moldenhauer nicht aus: «GPS-Daten erzeugen zwar eine höhere Datenqualität, aber per se keine bessere Steuerung.»

Mit dieser Einschätzung überzeugte das «Steering Lab»-Team und entwickelt jetzt ein operatives Modell der bislang existierenden Logistikinfrastruktur – also keine Simulation wie im ersten Beispiel des Verkehrssystems, sondern ein Modell des realen Verkehrs. «Das Management hatte im bisherigen System bereits die Informationen über alle Verbindungen – also von wo nach wo Ladungen zu transportieren sind, wie viele Waggons pro Tag, deren Standorte et cetera. Alle diese Fakten muss das Management – anders als bei der Simulation – nicht erst aus den Daten lernen», umreißt der promovierte Mathematiker die Projektausrichtung. 

In dieser modellhaften Abbildung der Realität für das Industrieunternehmen geht es vielmehr darum, wie sämtliche verfügbaren Züge die Produkte optimal von A nach B transportieren können, um unter dem Strich höchstmögliche Einsparungen zu erzielen. 

Bis zur Erreichung dieses Ziels hatte das «Steering Lab»-Team indes mit einer unzureichenden Datenlage zu kämpfen: Der Ist-Fahrplan musste aufwendig rekonstruiert und auf dieser Basis der geeignete Algorithmus kreiert werden. 

Schon bald zeigte sich ein beeindruckendes Optimierungspotential: Mehrere Optionen kamen in Frage, die mithilfe der speziell entwickelten App auch unmittelbar erprobt wurden: zum Beispiel eine gleichmäßigere Auslastung der Gleise und Lokomotiven sowie die Verringerung der Anzahl der Loks.  

In der App-Lösung können die Anwender in dem Industrieunternehmen nun mithilfe eines Regelschiebers am Bildschirm unter anderem den gewünschten  Zeitraum, die erforderliche Anzahl der eingesetzten Loks und der Waggons pro Zug einstellen – und erhalten auf dem Display per Mausklick sofort das Ergebnis einer möglichen Zugschicht. 

Das Ergebnis ist in der Abbildung  rechts oben zu sehen: Die bislang großen Unterschiede bei den Fahrtzeiten (linker Graph in der Abbildung rechts) werden erheblich geglättet (Graph rechts) und die vielen Leerzeiten (siehe die weißen Löcher in den Balken links) völlig eliminiert. Darüber hinaus wurden die Längen der Zugschichten erheblich reduziert. In dem Fall rechts erreichte die Lösung nahezu eine Halbierung: von vier Stunden 37 Minuten auf zwei Stunden 20 Minuten.

Solche Optimierungsverfahren waren bislang aufwendig und kostspielig. Deshalb fanden sie in der Industrie kaum Anwendung. Die innovative Methodik, die das «Steering Lab» für Unternehmen entwickelt, macht die tiefreichenden Modelle für die Industrie zunehmend attraktiv. Dabei eröffnen sich zahlreiche Einsatzmöglichkeiten – außer in der Logistik zum Beispiel auch in der Lagerverwaltung, im Marketing oder in der Produktionssteuerung.  

 

Schwäche der Finanzkennzahlen.
Doch wie können Unternehmen wissen, welche Lösung sich für sie in der Praxis eignet? Um diese Frage zu beantworten, ist gemäß «Steering Lab»-Chef Vocelka die konkrete Anschauung im Labor äußerst wichtig: «Der Ansatz der Datenlabore der großen Internetfirmen erscheint vielen Anwenderunternehmen hierzulande unpassend; auch verlaufen die Diskussionen über die Möglichkeiten der Digitalisierung oft viel zu theoretisch. Deshalb setzen wir hier auf das High Touch-Prinzip: Unsere Kunden können sich live anschauen, wie zum Beispiel eine bestimmte Unternehmenssteuerung funktioniert.»   

Das A und O leistungsstarker digitaler Steuerungsmodelle und Simulationen ist laut Vocelka die möglichst exakte Abbildung der Wirklichkeit. Denn in den kommenden zehn Jahren werde der Anteil der digital basierten Entscheidungsprozesse in den Unternehmen erheblich zunehmen. «Heute schon liefern Sensoren etwa in Autos oder Supply Chains unzählige wertvolle Daten, können Unternehmen auf Knopfdruck Zehntausende von Reviews ihrer Kunden in E-Commerce- oder Social Media-Kanälen analysieren – auf Bedürfnis und Bedarf. Und zwar sehr gezielt», unterstreicht Vocelka.

Diese vielen Informationen aus den verschiedensten Bereichen ermöglichen erweiterte, systemischere Managementsichten, die weit mehr als die klassischen Finanzkennzahlen beinhalten: «Big Data aus den vorausgehenden operativen betrieblichen Prozessen treten tendenziell viel eher zutage – und sollten daher für die Steuerung stärker genutzt werden.» 

Alexander Vocelka rät zu radikalen Konsequenzen: «Unternehmen, die gegenüber Wettbewerbern die Nase vorn haben wollen, müssen in ihrer Steuerungsphilosophie, Sicht- und Handlungsweise fundamental auf digital umschalten. Das beinhaltet unter anderem: lineare durch systemische Perspektiven ersetzen, aggregierte durch hochgradig granulare Analysen und Bauchgefühlentscheide durch solche, die auf Algorithmen und digitalen Modellen beruhen.» 

Und schließlich trifft der Topberater eine überraschende, aber treffende Aussage, die so manchen Manager im Hamsterrad zum Innehalten und Nachdenken anregen dürfte: «Isolierte Finanzkennzahlen haben heute nur noch eine begrenzte Aussagekraft, denn sie sind letztlich nur die Endsymptome der betriebswirtschaftlichen Wahrheit.» Das ist Brainfood für die kommende Strategiesaison.

Deep Dive Experten

 

Quelle: BUSINESS INTELLIGENCE MAGAZINE, www.bi-magazine.net 
© ProfilePublishing Germany GmbH 2016. Alle Rechte vorbehalten. 
Vervielfältigung nur mit Genehmigung der ProfilePublishing Germany GmbH

Business Intelligence Magazine: Springe zum Start der Seite