“Eine Größe passt nicht allen”

Feature | 7. Februar 2007 von admin 0

IT-Architekten gingen fast zwei Jahrzehnte lang davon aus, dass für eine optimale Performance die Daten in Finanzprogrammen und anderen Kernanwendungen in Tabellenzeilen angeordnet sein müssen. Diese Annahme ist die Grundlage des weit verbreiteten relationalen Datenbankdesigns.
Wenn also die Zeilenanordnung für operative Anwendungen geeignet ist, dann müsste dies auch für alle anderen Programmtypen gelten. Laut SAP Research hat sich jedoch herausgestellt, dass analytische Business-Intelligence-Anwendungen viel schneller laufen, wenn die Informationen in Spalten angeordnet und dann komprimiert im Fast RAM (Random Access Memory) abgelegt werden – und nicht auf Festplatten, wie es der relationale Datenbankansatz vorsieht.
“In den letzten 15 bis 20 Jahren galt das Paradigma, dass sich ein Format – nämlich Relationale Datenbanken mit Festplatten-Speicherung – für alle Anwendungen eignet ”, sagt Vishal Sikka, Executive Vice President bei SAP für den Bereich Architektur. “Jetzt wissen wir, dass eine Größe nicht allen passt. Unterschiedliche Anwendungstypen haben auch unterschiedliche Anforderungen an das Datenmanagement.”

Schneller, flexibler und kostengünstiger

Hier kommen die von SAP entwickelten In-Memory-Datenbankarchitekturen ins Spiel. Ihr Ansatz unterscheidet sich in drei Punkten von den herkömmlichen relationalen Datenbanken. Zunächst ist das die Anordnung in Spalten statt Zeilen, was die Performance bei analytischen BI-Anwendungen steigert. “Analytische Daten speichert man besser in Spalten, da Anwender in der Regel in einer bestimmten Spalte nach Informationen suchen, beispielsweise nach regionalen Verkaufszahlen oder Produktattributdaten ”, erklärt Sikka. Während Zeilen unter anderem Daten enthalten können, die für die einzelnen Kunden relevant sind, liefern die Spaltenüberschriften für den Gesamtumsatz oder die Quartalsgewinne eine umfassende Sicht auf die Unternehmensleistung und erleichtern es so, Trends und Geschäftschancen zu erkennen.
Das zweite Unterscheidungsmerkmal ist das Datenvolumen. Kompressionsalgorithmen verdichten die Informationen auf ein Fünftel ihrer Größe, so dass Unternehmen komplette Datenbestände im Direktzugriffsspeicher (RAM) ablegen können. Und drittens verarbeiten In-Memory-Datenbanken sowohl hochgradig strukturierte Daten, zum Beispiel Statistiken, als auch Daten in freier Form, wie sie in Textdokumenten und E-Mails zu finden sind. Denn Unternehmen benötigen immer öfter verschiedene Optionen beim Datenmanagement, um das gesamte Spektrum von Formaten abzudecken, in denen Informationen vorliegen.
Durch diese drei Merkmale bieten In-Memory-Datenbanken eine starke Mischung aus hoher Performance und flexiblem Design. “Da die Daten im RAM gespeichert werden, sind die Zugriffszeiten deutlich kürzer, als bei der Speicherung auf einer Festplatten-Farm”, erklärt Joshua Greenbaum, Chef von Enterprise Applications Consulting, Berkeley, Kalifornien. Die Informationen liegen “physisch nahe beim Prozessor. Dies bedeutet eine erheblich schnellere und häufig auch kostengünstigere Umgebung. Große Festplatten-Farmen können teuer sein”, fügt er hinzu.
Um den In-Memory-Ansatz mit dem SAP NetWeaver Business Intelligence Accelerator (SAP NetWeaver BI Accelerator) zu vermarkten, hat SAP mit Intel, Hewlett-Packard und IBM eine spezielle Kombination aus Hardware und Software entwickelt und in die SAP-NetWeaver-Umgebung integriert.
SAP NetWeaver BI Accelerator nutzt die In-Memory-Umgebung, indem er Datenspalten anordnet, die aus InfoCubes bezogen werden, den mehrdimensionalen Containern für die Datenspeicherung. Mit dem SAP NetWeaver BI Accelerator können Unternehmen Abfragen und Analysen ad hoc durchführen, ohne zuerst die Informationen vorzuverdichten, wie es bei relationalen Datenbankarchitekturen notwendig ist.
Nach Angaben von SAP arbeiten 30 Unternehmen mit Erstversionen des SAP NetWeaver BI Accelerator, darunter Novartis, Coca-Cola und British Petroleum. Bei Coca-Cola hat sich damit die Zeit für das Starten einer Abfrage gegen 60 Millionen Daten von 30 Sekunden auf drei Sekunden verkürzt.

Technologische Entwicklungen nutzen

Laut Sikka berücksichtigt der In-Memory-Ansatz nicht nur die Tatsache, dass verschiedene Anwendungstypen verschiedene Anforderungen an das Datenmanagement haben, sondern macht sich auch neue technologische Entwicklungen zunutze.
So ist in den vergangenen zwei Jahrzehnten die Rechenleistung enorm gewachsen. Unternehmen, die heutzutage in CPUs investieren, erhalten pro US-Dollar etwa sieben MIPS (Millions of Instruction Per Second) Rechenleistung, das sind 143-mal mehr als im Jahr 1990. Entsprechend erhält man jetzt für einen Dollar etwa fünf MB RAM, was eine 250-fache Verbesserung gegenüber 1990 bedeutet. Die heutigen 64-Bit-Betriebssysteme können auf fast unbegrenzte Speicherreserven zugreifen. Deshalb bieten In-Memory-Datenbanken Unternehmen hohe Geschwindigkeit und ein zweckmäßiges Design für bestimmte Anwendungstypen.
Diese Vorteile kommen zu einem wichtigen Zeitpunkt, denn die Nachfrage nach analytischen BI-Anwendungen nimmt weiter zu. Immer mehr Firmen stellen ihren Mitarbeitern nahezu in Echtzeit Dashboards und verdichtete Kennzahlen zur Verfügung, um die Effizienz von Geschäftsprozessen zu steigern. Ende letzten Jahres wuchs der Markt für BI-Plattformen laut dem Technologieforschungsunternehmen Gartner um 15,5 Prozent auf etwa vier Mrd. US-Dollar Lizenzerlöse. Bis 2010 könnte der Markt 6,3 Mrd. Dollar erreichen, so Gartner. “[Unternehmen] bauen größere Data Warehouses auf, und sie wollen schnellere Antwortzeiten und mehr analytische Funktionen nutzen”, erklärt Greenbaum.

Neue Suchmaschine in Sicht

Da In-Memory-Datenbanken strukturierte und unstrukturierte Daten aufnehmen können, bieten sie einen Ansatz für Suchmaschinen, die sich für die verschiedensten Formen der Datenspeicherung eignen müssen. Entsprechend bringt SAP als nächste Anwendung einer In-Memory-Datenbankarchitektur die Enterprise Search Appliance auf den Markt. Auf der Konferenz SAP TechEd ’06 hat SAP Testversionen der Suchanwendung freigegeben und plant nach Angaben von Sikka für 2007 die allgemeine Verfügbarkeit. Anwender können damit Informationen in Warehouses mit strukturierten und unstrukturierten Daten suchen. Die Suchmaschine eignet sich sowohl für SAP-Lösungen als auch für Fremdanwendungen und enthält Schnittstellen zu externen Informationsquellen. Darüber hinaus lässt sich über Kontrollmechanismen festlegen, welche Informationen einzelne Anwender entsprechend ihres Zugriffsprofils oder ihrer Rolle einsehen dürfen. Laut SAP kann die neue Suchmaschine eng mit dem SAP NetWeaver BI Accelerator zusammenarbeiten, da beide In-Memory-Datenbankarchitekturen nutzen. Längerfristig untersucht SAP, wie sich In-Memory-Architekturen in Verbindung mit dem Stammdatenmanagement in SAP NetWeaver einsetzen lassen.
Noch ist offen, wie weit sich In-Memory-Datenbanken verbreiten werden. Laut Sikka ist aber bereits klar, dass sie Unternehmen für immer mehr Anwendungen eine Alternative zum relationalen Datenbankmodell eröffnen: “Relationale Datenbanken sind in erster Linie für operative Anwendungen geeignet. Für Analysefunktionen, Unternehmenssuche und Stammdatenmanagement betrachten wir dies jedoch nicht mehr als den richtigen Ansatz.”

Alan Joch

Alan Joch

Tags:

Leave a Reply