>

Big Data, Business Analytics, KI (Künstliche Intelligenz) und ML (Machine-Learning) gehören zu den Technologien, aus denen neue digitale Applikationen und Geschäftsmodelle entstehen sollen. Voraussetzung dafür ist ein intelligentes Datenmanagement, das die Verknüpfung und Analyse von Daten aus unterschiedlichsten Quellen ermöglicht.

Moderne digitale Technologien und Datenmanagement sind sehr viel enger miteinander verknüpft, als es auf den ersten Blick erscheint. Denn selbst die fortschrittlichsten Lösungen müssen zwangsläufig scheitern, wenn sie auf „schlechten“ Daten aufsetzen. Im Vergleich zum klassischen Data Warehouse, traditionell die Basis für BI-Anwendungen im Unternehmen, vergrößern die digitalen Technologien sogar das Risiko fehlerhafter Ergebnisse: „Machine Learning auf qualitativ schlechten Daten ist ein Fiasko, weil der Algorithmus die Fehler im System als Normalität erkennt und daraus lernt – und in der Folge immer weitere Fehler ableitet“, sagt Matthias Stemmler, Head of Presales Platform & Data Management bei SAP Deutschland.

Datenmanagement ist kein neues Thema. Es begleitet die IT-Verantwortlichen seit Beginn der IT – in der Anfangszeit „elekronische Datenverarbeitung“ genannt. Und noch immer gilt die alte Programmierregel „Garbage in – Garbage out“, was nichts anderes heißt, als das vernünftige Ergebnisse nur aus verlässlichen, qualitätsgesicherten Daten zu erwarten sind. Aber während in traditionellen Data Warehouse Umgebungen längst zuverlässige und praxiserprobte Mechanismen für die Aggregation und Qualitätssicherung etabliert sind, stellen die digitalen Technologien völlig neue Anforderungen an den Umgang mit Daten.

Qualitätsgesicherte Daten sind die Voraussetzung für sinnvolle Ergebnisse

Denn in immer mehr Unternehmen entstehen heute hybride Umgebungen aus lokalen Infrastrukturen, Private und Public Clouds. Strukturierte und unstrukturierte Daten aus verschiedenen Datenquellen wie Sensor- und Maschinendaten aus dem IoT, Enterprise-Applikationen wie ERP und CRM, Cloud-basierten Kollaborations- und Social Media-Applikation oder aus Mobilgeräten müssen für die Analyse zusammengeführt werden. „Es geht um vollkommen unterschiedliche Datenquellen mit zum Teil gewaltigen Datenmengen“, sagt der SAP-Exerte. „Das Konzept des Data Warehouse, das darauf beruht, alle Daten für die Analyse in einer Datenbank zu aggregieren, geht an den Gegebenheiten in hybriden Umgebungen vorbei.“

Dabei ginge es zum einen um den gewaltigen Bedarf an Speicherplatz und Rechenleistung, zum anderen aber um die völlig andere Nutzung von modernen analytischen Anwendungen: „Data Warehouse Applikationen sind retrospektiv“, sagt Stemmler. Auswertungen und Reports, gäben immer nur Auskunft über die Vergangenheit. In modernen digitalen Applikationen aber sei die Auswertung der Daten essentieller Bestandteil operativer Systeme, die im besten Fall in Echtzeit erfolgt. „Den Unternehmen stehen heute neue Analysemethoden zur Verfügung. Im Gegensatz zur vergangenheitsorientierten klassischen Business Intelligence (BI) verfolgen diese modernen Analysewerkzeuge einen in die Zukunft gerichteten Verwendungszweck“, schreiben die Autoren der „biMA®-Studie 2017/18“ von Sopra Steria Consulting und den Marktforschern von BARC.

Die Highlights der SAP NOW Berlin 2019

Click the button below to load the content from YouTube.

Die Highlights der SAP NOW Berlin 2019

Mangelhaftes Metadatenmanagement behindert den Einsatz digitaler Technologien

Für das Zusammenführen von Daten in hybriden Umgebungen tritt das Konzept der Metadaten an Stelle der Aggregation in einer Datenbank. Metadaten sind Informationen, den Wert, Aufbau, Herkunft und Qualität der Daten in Informationssystemen beschreiben. Wenn die Datenbestände eines Unternehmens in einem Metadatenkatalog zusammengestellt werden, lassen sich ad hoc die Daten aus unterschiedlichen Quellen für die Analyse zusammenführen.

Nach Einschätzung der Analysten von BARC ist das Metadatenmanagement ein entscheidender Hebel für den Erfolg von Projekten: „Viele Initiativen in BI & Analytics erzielten aufgrund mangelhafter Datenqualität beziehungsweise fehlenden Metadatenmanagements nicht den erhofften Mehrwert.“ Obwohl bereits vielfach neue Technologien eingesetzt würden, entfalteten sie ihr Potential nur bedingt, weil die schlechte Datenqualität einer sinnvollen fachlichen Nutzung entgegenstehe. „Die neuen Möglichkeiten der modernen Technologien breiten sich deshalb nur langsam aus“, resümieren die Autoren der biMA-Studie.

Das traditionelle Data Warehouse hat nicht ausgedient

Für die Anwender von traditionellen BI- und Data Warehouse Systemen hat Datenmanagement-Experte von der SAP dennoch gute Nachrichten. Zwar stehe das Data Warehouse heute nicht mehr im Mittelpunkt von modernen digitalen Applikationen, es sei aber nach wie vor eine verlässliche Datenquelle im Kontext übergreifender Analyse-Architekturen. „Das Data Warehouse mit seinen qualitätsgesicherten Daten ist ein solider Fixpunkt und verlässlicher Datenlieferant gerade auch in hybriden Landschaften“, sagt Stemmler.

Mehr noch: Die Mechanismen und Tools für die Qualitätssicherung, Aufbereitung, Dublettenbereinigung sowie die Aggregation und die qualitative Auswertung von Daten ließen sich grundsätzlich auch auf hybride, per Metadaten definierte Umgebungen übertragen. SAP hat deshalb unter der Bezeichnung „Data Hub“ klassische SAP-Systeme wie Master Data Governance und weitere Applikationen und Tools etwa für ETL (Extraction, Transformation, Loading), für die Messung der Datenqualität, das Master Data Management, OLAP (Online Analytical Processing) und Data Mining zusammengestellt und für das Metadatenmanagement in hybriden Umgebungen weiter entwickelt.

Damit bietet SAP seinen Kunden ein umfassendes Paket an Entwicklungs- und Management-Tools für das Metadatenmanagement und BI- und Analyse-Lösungen in hybriden Architekturen. Denn der Nutzen und die Verwendbarkeit hängen vor allem von der Qualität und exakten Beschreibung der Datenquellen im Metadatenkatalog ab. Gerade der Erfolg von digitalen Lösungen, die auf Zukunftstechnologien wie KI und ML aufsetzten, steht und fällt mir der Datenqualität.

„Heute verbringen Data Scientists –früher sprach man von Mathematikern und Statistikern – 80 bis 90 Prozent ihrer Zeit damit, Daten aufzubereiten, um sie überhaupt für eine Auswertung zugänglich zu machen“, sagt SAP-Experte Stemmler. Dieser Zeitaufwand und damit auch die Entwicklungszeit für neue digitale Applikationen und Geschäftsmodelle verringere sich drastisch mit steigender Daten- und Metadatenqualität. „Datenmanagement ist kein Selbstzweck und keine technische Spielerei, sondern die Grundlage für moderne digitale Lösungen, mit denen Unternehmen einen messbaren Mehrwert erzielen können.“

SAP NOW | 23. bis 24. September 2020 in Berlin

Erfahren Sie mehr zu diesem Thema und den drängenden Fragestellungen der Digitalisierung auf der SAP NOW in Berlin. Hier kommen Branchenexperten und SAP-Community zusammen, um zu debattieren, ihr Wissen zu teilen und die neuesten Entwicklungen zu bewerten. Nutzen Sie diese exklusive Veranstaltung in inspirierender Atmosphäre zum Informieren, Austauschen und Netzwerken. Mehr Informationen zur SAP NOW

Update (COVID-19):

Das nicht einschätzbare Verbreitungspotential des Coronavirus hat uns dazu veranlasst, die geplante SAP NOW Berlin zu verschieben. Wir freuen uns bereits jetzt, Sie stattdessen am 23. und 24. September 2020 in der STATION Berlin begrüßen zu können. Die Tickets behalten ihre Gültigkeit.