Was ist eigentlich Big Data?

Feature | 1. November 2012 von Michael Matzer 0

Foto: iStockphoto.com

Die Entwicklung

Nach Vorhersage des Netzwerkspezialisten Cisco vom Mai 2012 wird sich das Datenvolumen im Internet zwischen 2011 und 2016 auf jährlich 1,3 Zettabyte, also 1 300 000 000 000 000 000 000 Byte,  vervierfachen. Die Zahl der ans Netz angeschlossenen Geräte werde sich auf 19 Milliarden verdoppeln, die von 3,4 Milliarden Nutzern verwendet werden, fast die Hälfte der künftigen Weltbevölkerung.

Woher kommen diese Unmengen an Daten? Zum einen sind da die herkömmlichen Transaktionen. Der drahtlose WLAN-Datenverkehr dürfte nach Ciscos Schätzungen im Jahr 2016 etwa die Hälfte allen Datenverkehrs ausmachen. Der mobile Datenverkehr wird in Deutschland, wo im Jahr 2016 jeder Einwohner fünf internetfähige Geräte nutzen wird, von 2011 bis 2016 um das 21-fache von monatlich 18 auf 394 Petabyte (PB) steigen, 394 000 000 000 000 000 Byte. Damit wächst er dreimal so schnell wie der Traffic über feste Leitungen. Der Anteil der Videoübertragungen erhöht sich von 44 auf 63 Prozent. Dazu verhelfen schnellere Breitbandverbindungen und entsprechend ausgerüstete Endgeräte, etwa Überwachungskameras.

Woher die Daten kommen

Worin das Problem besteht

Welche Werkzeuge es gibt

Warum der Umgang mit Big Data Kernkompetenz wird

Woher die Daten kommen

Mobilgeräte, WLAN, soziale Netzwerke, Sensoren, Maschinen – sie alle erzeugen Massendaten, die von den Marktforschern unter dem Begriff „Big Data“ zusammengefasst werden. Doch je nach Quelle weisen die Daten völlig unterschiedliche Charakteristika auf. Diese Merkmale gilt es zu beachten, wenn man sich Big Data genauer anschauen will, etwa um damit aus Daten Informationen und aus Informationen Wissen zu gewinnen.

Nach Gartner-Angaben nimmt die Datenmenge weltweit jährlich um 59 Prozent zu. „Die heutigen Disziplinen und Technologien für das Information Management sind für diese Dynamik einfach nicht gerüstet“ , konstatiert Mark Beyer, Research Vice President bei Gartner. „Informationsmanager müssen ihren Ansatz der Datenverarbeitung grundlegend überdenken, indem sie für alle Dimensionen des Informationsmanagements planen.“

Worin das Problem besteht

Während Big Data ein Problem hinsichtlich Speicherung und Analyse darstellen, besteht das eigentliche Problem laut Gartner darin, sinnvolle Muster in dieser Datenmenge zu finden, die Unternehmen helfen, bessere Entscheidungen zu treffen.

Die Suche nach Daten, die einen Sinn ergeben, wird erschwert durch die Strukturen dieser Daten, die den vorhandenen IT-Systemen Schwierigkeiten bereiten. Relationale Datenbanken (RDBMS), die praktisch alle Kernprozesse unterstützen, sind sehr gut darin, strukturierte Transaktionsdaten schnell in Zeilen und Spalten zu schreiben und zu lesen. Denn Transaktionsdaten bestehen meist aus Daten in Feldern, die über je ein Datenattribut verfügen, etwa einen Zahlwert oder einen alphanumerischen Wert. Häufig beschreiben sich die Daten durch sogenannte „Metadaten“ sogar selbst.

Aber wohin soll die relationale Datenbank eine E-Mail schreiben, die nur aus Header und Text besteht? Wie sind ein Tweet oder eine Facebook-Meldung zu speichern, geschweige denn zu analysieren? Offensichtlich brauchen die traditionellen Datenbanken neue Werkzeuge für die Analyse von Daten, die mehrere Strukturen aufweisen können, oder der Anwender setzt andersartige Datenbanken ein, die für diese Aufgabe besser geeignet sind.

Welche Werkzeuge es gibt

Hinsichtlich jener Daten, die bereits eine gewisse Strukturiertheit aufweisen, liegen diese Werkzeuge bereits vor. Für Callcenter-Protokolle werden ja Formulare mit Text ausgefüllt, so dass eine Struktur vorgegeben ist, die sich relativ leicht durchsuchen lässt. In Webshops hingegen greifen entsprechende Werkzeuge Daten aus den Mausklicks der Benutzer ab und erzeugen einen sogenannten „Clickstream“. Diese Clickstream-Daten werden seit Jahren in Data Warehouses großer Unternehmen gespeichert und von geeigneten Analysewerkzeugen ausgewertet. Diese erkennen die „Muster“, die Gartner für wünschenswert hält.

Deren Analyseergebnisse wiederum liefern den Fachabteilungen, die sich mit den Kunden befassen, unter anderem wertvolle Hinweise darauf, wie sie die Werbung, das Marketing, die Kampagnen, sogar die Produktentwicklung verbessern können. Denn aus den „mitgeschnittenen“ Mausklicks der Online-Nutzer geht in der Regel eindeutig hervor, wo ihre Vorlieben liegen und welche Produkte oder Produkteigenschaften sie ignorieren. Am wertvollsten ist diese Analyse, wenn sie neue Trends aufspürt, die zunächst als „Ausreißer“ in der Statistik auftauchen. Dann könnte das Unternehmen innovative Produkte entwickeln und der erste, tonangebende Anbieter auf diesem entstehenden Markt sein.

Warum der Umgang mit Big Data Kernkompetenz wird

Aber Unternehmen sollten nicht kurz-, sondern langfristig zu Big Data planen. „Die Fähigkeit, extrem große Datenmengen zu handhaben” sagt Yvonne Genovese, Vice President und Analystin bei Gartner, voraus, „wird sich zu einer Kernkompetenz von Unternehmen und Organisationen entwickeln. Sie wollen zunehmend neue Formen von Informationen – etwa Text, Kontext und Social Media – nutzen, um entscheidungsunterstützende Muster zu suchen. Die Anwendung dieser Art von Suche nennen wir bei Gartner Muster-basierte Strategie.“

Diese Strategie, so Genovese weiter, sei ein Antriebsmotor für den Wandel. Dabei setzt diese Strategie auf die Nutzung aller Dimensionen im mustersuchenden Vorgang. Mit ihren Ergebnissen liefere sie die Grundlage für die Modellierung neuer geschäftlicher Lösungen. Diese erlaubten es dem Unternehmen, sich veränderten Marktbedingungen anzupassen. „Der Zyklus des Suchens, Modellierens und sich Anpassens lässt sich in verschiedenen Medien vollenden, so etwa in der Social-Media-Analyse oder in kontext-orientierten Berechnungsmodellen“, erläutert die Analystin.

„Weltweit haben Unternehmen im Jahr 2011 bereits 3,38 Milliarden Euro in Big-Data-Projekte und -Services investiert”, berichtet Steve Janata, Berater bei der Experton Group. Der Markt für die neuen Lösungen wächst 2011 bis 2016 jährlich um 36 Prozent. In Deutschland in 2012 werden rund 350 Millionen Euro für Big Data investiert.Damit gehört der Markt für Big Data laut Experton zu den wachstumsstärksten Segmenten des gesamten IT-Marktes und entwickelt sich zum Zugpferd der IT-Konjunktur.

Tags: ,

Leave a Reply