Interview

Verborgene Verknüpfungen aufspüren

Die Analyse immer komplexerer, auch externer Informationen eröffnet Unternehmen zusätzliches Potential. Wann aber stimmen Aufwand und Ertrag? Fragen an Peter Welker, Big Data-Experte bei Trivadis.

 

Kein IT-Thema hat Topmanager je so interessiert wie Big Data. Warum? 

Welker: Das hängt mit den völlig neuen Arten und Quellen von Informationen zusammen – zum Beispiel aus Social-Media-Kanälen wie Facebook und Twitter oder Sensoren in Maschinen und Fahrzeugen. Die schnell wachsende Menge an Informationen muss heute nicht nur quantitativ bewältigt werden, sondern kann auch qualitativ zu viel weiter reichenden Einsichten genutzt werden. Dabei helfen auch neue Formen der Visualisierung.

 

Welche Instrumente sind das?

Welker: Das sind einerseits im Cluster extrem skalierbare und dabei kostengünstige IT-Werkzeuge wie Hadoop, aber auch komplexere analytische Methoden wie etwa Semantic Web, Data Mining oder Natural Language Processing. Mit allen können Unternehmen verborgene Verknüpfungen von Informationen jeglicher Art aufspüren und analysieren, wertvolle zusätzliche Einsichten erzielen und somit Umsatz und Gewinn steigern.

 

Erst müssen sie in der Informationsflut die wirklich relevanten Daten finden.

Welker: Es gibt bereits eine Reihe vorzeigbarer Best Practices. So bringt zum Beispiel das digitale Smart Metering des Strom- oder Heizungsverbrauchs in den Haushalten den Anbietern nicht nur einen immensen Rationalisierungsschub, sondern erleichtert unter anderem auch die Analyse von Verbrauchstrends. Ein anderes Beispiel sind die Sentimentanalysen in Social Media-Kanälen, auf deren Grundlage vor allem Konsumgüterhersteller heute ein repräsentatives Marktbild zu relativ geringen Kosten erstellen können. Das Image eines Unternehmens und seiner Produkte zu messen, war in dieser Feinheit und Tiefe früher nicht möglich.

 

Dabei wachsen die Kosten oft ins Uferlose. Wie lässt sich das verhindern?

Welker: Indem beispielsweise die IT die Informationen maßgeschneidert für das jeweilige Unternehmen modelliert – und zwar nicht allein mit herkömmlichen relationalen Datenbanken, sondern auch mit Big Data-Methoden. 

 

Wie genau funktioniert das?

Welker: Einer unserer Kunden aus dem Energiesektor kann zum Beispiel in sehr kurzer Zeit sämtliche Leistungs- und Handelsdaten analysieren und auf der Basis zahlreicher Szenarien auch ohne Verzögerungen planen und handeln. Um dies zu ermöglichen, reichte es in diesem Falle auf der technischen Ebene aus, eine herkömmliche Data Warehouse-Architektur gemäß genau dieser Anforderungen zu optimieren. Mit dieser kostengünstigen Lösung erreicht der Stromanbieter eine für seine Branche herausragende Geschwindigkeit der Geschäftsprozesse: Die Latenz, also die Verzögerung zwischen der Informationsentstehung und der vollständigen Aufbereitung für den Anwender, beträgt bei über 50 Millionen Datensätzen am Tag nur 20 Minuten. Dennoch kann der Kunde aus allen, über viele Jahre gespeicherten 200 Milliarden Datensätzen die jeweils relevanten Informationen extrahieren– jederzeit und innerhalb weniger Sekunden.

 

Das schafft der Betreiber eines Riesennetzes ohne große neue IT-Investitionen?

Welker: Das Unternehmen musste zwar weitgehend nicht in neue Technologien investieren, aber seine Anforderungen an die IT neu definieren: In der Lösung etwa gibt es nicht den üblichen Tages-Load mit riesigen Datenmengen, sondern wir stückeln über 15’000 Datenlieferungen und laden alle drei Minuten nach. Dieses Verfahren funktioniert performant, weil die Transformationslogik im Vergleich etwa zu vielen Data Warehouses im Finanzbereich anhand der spezifischen Anforderungen gezielt begrenzt werden kann.

 

Teure Softwarekäufe lassen sich durch individuelle Konzepte vermeiden?

Welker: Beides hängt zusammen: die Technik und die Konzepte. Letztere basieren bei Big Data auf den völlig neuen Arten von Informationen, die in einer viel feineren Granularität vorliegen, und innovativen Möglichkeiten von Datenrepräsentationen. Unabhängig davon aber helfen auch neue Technologien – aber nicht notwendigerweise. Es kommt letztlich auf die richtigen Entscheidungskriterien für die Technologien an. 

 

Des Managements?

Welker: Im Management und in der Technik. Die Entscheidung für neue Technologien sollte auf jeden Fall pragmatisch getroffen werden – in Abhängigkeit von den benötigten Informationen und den Anforderungen an die Latenz, an die Datenvolumina, an die Analytik, das vorhandene Know-how und die Kosten. Erst auf dieser Basis sollte geprüft werden, welche Big Data-Werkzeuge am besten geeignet sind. Im Normalfall wird man klassische und neue Technologien kombinieren.

 

Welche zusätzlichen Möglichkeiten eröffnen sich dadurch den Unternehmen?

Welker: Pharmakonzerne beispielsweise verbinden im Bereich Forschung und Entwicklung semantische Analysen der internen Forschungsdaten mit denen externer, frei verfügbarer Informationsquellen, um neue inhaltliche Verbindungen ausfindig zu machen. Diese Verknüpfungen verfolgen die Experten über mehrere Stufen und in sehr verschiedenen Bereichen. Die Unternehmen wollen so verborgene Beziehungen zwischen Wirkstoffen, Verfahren und Anwendungsgebieten herausfinden – Relationen, die mit klassischen Methoden nicht unmittelbar ersichtlich sind.

 

Wie können wir uns das vorstellen?

Welker: Diese Methode hat – vereinfacht gesagt – eine gewisse Verwandtschaft mit den Verknüpfungen in sozialen Netzwerken wie Xing oder LinkedIn, in denen sich Menschen, die bislang nur über viele Ecken indirekt verbunden waren, nunmehr direkt zusammenschalten. Mit traditionellen Methoden wie SQL und relationalen Datenbanken lassen sich solche indirekten Zusammenhänge nur sehr schwer erkennen und darstellen – und es ist ineffizient.

 

Viele herkömmliche IT-Systeme der Unternehmen sind also abbruchreif?

Welker: Nein, die neuen Big Data- und «Advanced Analytics»-Systeme ergänzen die klassischen Datenbanken, aber sie lösen sie nicht einfach ab. Denn für viele zentrale betriebswirtschaftliche Anwendungen, beispielsweise im Finanzsektor, sind die neuen Technologien wie Hadoop nicht ohne Weiteres geeignet. Es ist zum Beispiel keine gute Idee, die Compliance-Reports aus dem traditionellen Datenbank- und Data Warehouse-Umfeld in einer komplett neuen Systemlandschaft wie etwa einer Hadoop-Umgebung zu installieren, die nicht für solche Anforderungen geschaffen wurde. Auch nutzen die Hersteller der bestehenden relationalen Datenbanken, wie Oracle, ihre technischen Optionen, um die neuen Funktionalitäten in die alte relationale Welt zu übertragen.

 

Gibt es so neuen Schwung etwa für das oft lahmende Wissensmanagement?

Welker: Das ist gut möglich. Gerade beim Thema Wissensmanagement könnte es besonders vorteilhaft sein. Diese Disziplin wurden in den 1990er Jahren entwickelt – zur gleichen Zeit wie die Grundlagen der erwähnten semantischen Systematik – und könnte sicherlich von den neuen Daten und Möglichkeiten profitieren.

 

Gibt es Leitfäden für Unternehmen, die in Big Data-Projekte einsteigen wollen?

Welker: Wir haben dafür eine «Big Data Roadmap» entwickelt. Sie beginnt mit einem Orientierungsworkshop zu den Grundlagen, Konzepten und Technologien. Danach besprechen wir mit unseren Kunden die passenden Geschäfts- und Anwendungsfälle, machen gemeinsam eine Potentialanalyse und gehen dann in eine Evaluationsphase. Erst dann folgt die Entscheidung für Hard- und Software. Umgekehrt gibt es Anwenderunternehmen, die bestimmte Technologien gezielt kennenlernen wollen.

 

Peter Welker ist Senior Principal Consultant und Partner bei Trivadis. Der studierte Medizininformatiker arbeitet seit 20 Jahren im Bereich diverser Datenbanken wie etwa Oracle oder MySQL.

  

Quelle: BUSINESS INTELLIGENCE MAGAZINE, www.bi-magazine.net
© ProfilePublishing Germany GmbH 2014_2015. Alle Rechte vorbehalten.
Vervielfältigung nur mit Genehmigung der ProfilePublishing Germany GmbH

Business Intelligence Magazine: Springe zum Start der Seite