Soccer team in a huddle

Aktuelle Hindernisse in Sachen Big Data Analytics

31. Juli 2015 von Timo Elliott 0

Was sind die aktuellen Hindernisse, die erfolgreichen Big-Data-Implementierungen im Weg stehen, und wie können wir sie überwinden?

Wir ringen seit einigen Jahren mit Enterprise Big Data. Neue Technologien, wie die In-Memory-Plattform SAP HANA und Open-Source-Projekte wie Hadoop und Spark verändern die IT-Landschaft. Es gibt neue Techniken wie Diagrammdatenbanken, Textanalyse, Geodatenverarbeitung, maschinelles Lernen und vieles mehr. Die gute Nachricht: Wir haben den Gipfel der Hype-Kurve überschritten. Mit anderen Worten, es gab Gelegenheit, zu experimentieren und Pilotprojekte durchzuführen. Jetzt haben wir eine bessere Vorstellung davon, was die neuen Technologien leisten können und was nicht.

Bei der Einführung neuer Technologien werden meistens alte Dinge auf neue Weise durchgeführt. So ist zum Beispiel viel seltener davon die Rede, herkömmliche Analysefunktionen komplett zu ersetzen, und viel häufiger davon, Funktionen zu verpacken und zu erneuern: Big Data wird verwendet, um vorhandene Lösungen zu erweitern und mit neuen Funktionen zu versehen.

Die richtigen Leute sind immer noch schwer zu finden

Eine Big-Data-Implementierung bedeutet, die richtigen Leute mit den richtigen Qualifikationen zu finden, was immer noch schwer ist. Positiv ist jedoch, dass Unternehmen auf vorhandene Analytikmitarbeiter zurückgreifen konnten, die sich in der Regel auf die Gelegenheit stürzen, neue, am Markt gefragte Kenntnisse zu erwerben. Erleichtert wurde dies auch durch die Vielzahl der kostenlosen Online-Schulungsmöglichkeiten wie etwa open.sap.com oder die SAP HANA academy. In diesen Kursen werden die technischen Schritte zur Ausschöpfung des Potenzials von In-Memory-Technologie und Hadoop ausführlich erläutert.

Außerdem fehlt es an Leuten, die aus all diesen neuen Daten möglichst viele Erkenntnisse gewinnen können. Neu ist, dass die Technologie dabei hilft, einige Engpässe zu beseitigen. So gibt es jetzt etwa einfacher zu bedienende, stärker automatisierte Werkzeuge für vorausschauende Analysen, die zum Beispiel von Marketingmitarbeitern eingesetzt werden können, um Kampagnen zu optimieren. Dadurch bleibt den überlasteten Datenwissenschaftlern mehr Zeit für strategisch wichtige Projekte. Außerdem gibt es mittlerweile erste Unternehmen, die „Data Science as a Service“ anbieten. Bei SAP beispielsweise gibt es Teams von Mitarbeitern mit Hochschulabschlüssen in Statistik, die mit Kunden an gemeinsamen Innovationsprojekten arbeiten.

Auf den richtigen Business Case kommt es an

Zu den größten Herausforderungen gehört immer noch die Entwicklung des ersten Business Case für Big-Data-Projekte in Unternehmensumgebungen. Und wie üblich gibt es zwei verschiedene Herangehensweisen: entweder Kostensenkung oder Eröffnung neuer Chancen.

Eines meiner Lieblingsbeispiele für Kostensenkung ist eine große europäische Fluggesellschaft. Sie muss für gerichtliche Beweisverfahren in der Lage sein, große Mengen an ausführlichen historischen Daten zu speichern und abzufragen. Bisher wurden die Daten auf Bändern gesichert und erst im Fall eines Gerichtsverfahrens wieder in das Data-Warehouse eingespielt. Dies war jedoch mit hohem Arbeitsaufwand verbunden, sodass die Daten schließlich im Data-Warehouse blieben, auch wenn sie selten benötigt wurden. Durch die Verlagerung der Daten auf eine Hadoop-Plattform wurde viel Geld gespart, und die relativ langsamen Abfragen waren bei diesem Use Case kein Problem.

Ein weiteres Beispiel ist Molson Coors in Kanada. Das Unternehmen hat sein BW-System auf HANA umgestellt, und zwar nicht, um die Abfragen zu beschleunigen (es hatte bereits den In-Memory-BW-Beschleuniger im Einsatz), sondern weil der Analysebedarf stieg, während die Zahl der BI-Fachkräfte begrenzt war. Durch SAP HANA wurde das System erheblich vereinfacht, was zu weniger Datenspeicherbedarf, weniger Wartungsaufwand und weniger Entwicklungsarbeit führte.

Bei der zweiten Herangehensweise ist das Ziel eine wertschöpfende Fähigkeit, die sich das Unternehmen immer schon aneignen wollte, die aber einfach nicht realisierbar war – vieles in diesem Bereich hat mit besserem Kundenservice zu tun. Center Point Energy in Houston beispielsweise nutzte SAP HANA zur Schaffung einer Call-Center-Anwendung, die sozusagen Gedanken lesen kann. Sie identifiziert die Anrufer anhand der Rufnummer und lässt dann einen prädiktiven Algorithmus über die Kundenhistorie der letzten zwei Jahre laufen, um anschließend einen von 40 möglichen Gründen für den Anruf des Kunden zu wählen – das alles in weniger als einer Sekunde. Dann leitet das System den Kunden an den passenden Dienst weiter und stellt den Call-Center-Agenten alle zur Bearbeitung des Anliegens nötigen Informationen bereit. So erhalten die Kunden einen besseren, schnelleren Service, der das Unternehmen zudem weniger kostet.

Das Projekt war keine neue Idee. Das Unternehmen hatte so etwas schon lange vor, doch frühere Versuche waren gescheitert. Damit dieses Verfahren möglich war, mussten die Ergebnisse in weniger als fünf Sekunden vorliegen. Mit herkömmlichen Systemen dauerte es mehr als anderthalb Minuten – viel zu lange, um bei Anrufen brauchbar zu sein. Auch die Vorabberechnung der Informationen funktionierte nicht: Nicht nur war die ganze Verarbeitung und Speicherung teuer, sondern oft riefen die Kunden auch wegen einer Rechnung an, die sie erst vor fünf Minuten versucht hatten zu bezahlen.

In allen Fällen fanden die ursprünglichen Projekte die Zustimmung der Geschäftsanwender, und die Erstinvestitionen wurden dann für andere Anwendungen mit geringeren Zusatzkosten genutzt.

Integration in vorhandene Systeme ist wichtiger

Die meisten heutigen Big-Data-Projekte spielen sich in isolierten Silos ab, die kaum mit der vorhandenen Unternehmensinfrastruktur verknüpft sind. So ist etwa klar, dass Hadoop unternehmenstauglich ist, weil es für nützliche Projekte eingesetzt werden kann, ebenso ist jedoch klar, dass es noch viel unternehmenstauglicher werden muss. Damit man den vollen Nutzen aus diesen neuen Technologien ziehen kann, müssen sie unbedingt mit anderen Unternehmensdaten verbunden werden. So ist es zum Beispiel sinnlos, die Facebook-Likes zu verfolgen, ohne gleichzeitig im Blick zu haben, welche Marketingausgaben getätigt werden und ob diese wirklich Einfluss auf den Absatz haben.

Eine echte Big-Data-Integration befindet sich in den meisten Unternehmen noch in der Planungsphase. In letzter Zeit hatte ich viele Meetings mit Kunden, die gerade über ihre strategischen Informations-Roadmaps diskutieren. Sie suchen nach neuen Best-Practice-Architekturkonzepten, die die neuen Big-Data-Systeme nicht nur mit den herkömmlichen Analysefunktionen, sondern auch mit ihren Kern-Geschäftsanwendungen kombinieren.

Neue Geschäftsmodelle sind die nächste große Chance

Um das Big-Data-Potenzial voll auszuschöpfen, muss man seine Geschäftsprozesse ändern, und Change Management ist bekanntermaßen schwierig. Aber natürlich liegt darin auch die große Chance. Weil man jetzt neue Dinge auf neue Weise messen kann, kann man auch neue Produkte und Dienstleistungen entwickeln.

Vodafone in den Niederlanden konnte vorausschauende Analysen nutzen, um die richtige Zielgruppe für Roaming-Rabatte während der Skisaison zu bestimmen. Kaeser Compressor nutzte die Daten seiner Anlagensensoren, um neue prädiktive Online-Wartungsservices zu konzipieren.

Big Data ist schon weit gekommen. Die Tatsache, dass wir uns mittlerweile im Tal der Desillusionierung befinden, zeigt, dass wir dem Berg der Erleuchtung und dem Plateau der Produktivität schon einen großen Schritt näher gekommen sind.

Dieser Beitrag wurde ursprünglich auf meinem Business Analytics Blog veröffentlicht.

 

Bildquelle: Shutterstock

Tags: , , , ,

Leave a Reply