SAP HANA: Daten auf Speed

Feature | 30. November 2010 von Frank Völkel 0

Sämtliche Daten im Arbeitsspeicher: Neue Technologie SAP HANA (Foto: Frank Völkel)

Alle Daten im Arbeitsspeicher: Analysen in Echtzeit (Foto: Frank Völkel)

Eine mechanische Festplatte ist deutlich langsamer als Arbeitsspeicher. Der Zugriff auf letzteren, wo sämtliche Daten lagern, erfolgt im Vergleich zu zeitaufwändigen Schreib-Leseoperationen sehr schnell. Außerdem können beliebige Bereiche im Arbeitsspeicher direkt angesprochen werden. Neuartige In-Memory-Datenbanken, auch als NewDB bezeichnet, organisieren sämtliche Daten in Spalten – und nicht wie bisher in Zeilen – siehe auch Artikel TechEd 2010 live: Produkt-Feuerwerk.

Doch auch schon auf der Sapphire 2009 in Orlando sprach SAP-Mitbegründer Hasso Plattner von ungekochten Spaghetti. Die Abkürzung „HANA“ steht für High Performance Analytic Appliance, wo es primär um schnelles Auswerten von Geschäftsdaten geht. Dazu arbeitet SAP mit Cisco, Fujitsu, Hewlett-Packard, IBM und vor allem dem Chiphersteller Intel zusammen. Die Vielfalt unter den Hardware-Herstellern bringt es mit sich, dass HANA ab 2011 auf verschiedenen Plattformen angeboten wird.

Im folgenden Video äußert sich Ingo Brenckmann, Program Director Data and Analytical Engines bei SAP, über die Details von HANA:

Prinzip des spaltenweisen Zugriffs bei Datenbanken

Schnelles und abschnittsweises Lesen: Spaltenweiser Zugriff bei Datenbanken

Geschäft in Echtzeit: Was bringts?

Fast alle Unternehmen – unabhängig von der jeweiligen Branche – kämpfen heute gegen die unaufhaltsame Datenflut: Die zu verwaltenden Datenvolumina werden immer größer, was operative und analytische Anwendungen angeht. Hinzu gesellt sich die Situation, dass Berichte aus ERP- und CRM-Daten mit einem mehr oder weniger großen Zeitaufwand erstellt werden. Dabei sind die Daten mindestens 2 Stunden alt, so dass kaum von einem Echtzeit-Bezug die Rede sein kann. Unter dem Strich entstehen recht hohe Kosten (TCO = Total Cost of Ownership) durch die unterschiedlichen Interfaces und Software-Anwendungen.

Durch den direkten Zugriff auf Daten im Arbeitsspeicher (In-Memory-Computing) lassen sich historische Kennzahlen und Trendindikatoren mit aktuellen Datenquellen für eine vorausschauende Analyse kombinieren. Im Ergebnis sind plötzliche Veränderungen sofort sichtbar, die so mit der alten Technik gar nicht festzustellen ist. Bei Business-Intelligence-Anwendungen kommen so genannte OLAP-Würfel (Online Analytical Processing) zum Einsatz, die eine mehrdimensionale Sichtweise auf existierende Datenbestände erlauben.

Im Grunde geht es darum, die Funktionalitäten von relationalen Datenbanken und OLAP-Würfeln direkt in den Arbeitsspeicher eines Servers zu laden. Im Ergebnis können beispielsweise Vertriebsleute per Smartphone auf den Datensatz zugreifen und in Echtzeit nach Kriterien wie Produkt, Umsatz usw. auswählen und die Abfragen auch verändern.

Geht langsamer: Zeilenweises Lesen eines Datensatzes

Geht langsamer: Zeilenweises Lesen eines Datensatzes

Basis Intel Hardware: Performance-Entwicklung von SAP-Anwendungen (Quelle: Intel)

IBM-Server: Performance-Entwicklung von SAP-Anwendungen (Quelle: IBM)

Trend 2020: 2 Billionen Transaktionen

Geht es nach den Vorhersagen des Marktforschers IDC, so sollen im Jahre 2020 bis zu 50 Billionen Gigabyte an Daten bewegt werden, 2 Billionen Transaktionen im Finanzbereich stattfinden, 31 Milliarden vernetzte Geräte existieren, 4 Milliarden Menschen vernetzt leben und 25 Millionen Software-Applikationen existieren.

Fujitsu, HP und IBM: Blade-Server mit 2 TB

Um die HANA-Technologie „Datenbank komplett im Arbeitsspeicher“ nutzen zu können, bieten Fujitsu, Hewlett-Packard und IBM entsprechende Blade-Server auf der Basis von Intel-Chips (Prozessoren, Chipsatz) an. HP und IBM vermarkten schon gemeinsam über die Appliance den SAP Netweaver BWA (Business Warehouse Accelerator).

Die aktuellen Blade-Server basieren auf Motherboards mit Intel Westmere-EX-Plattform, die DIMM-Speicher mit maximal 32 GB pro Modul unterstützen. Bei einer Bestückung mit 64 Speichermodulen lässt sich der Arbeitsspeicher so auf 2 TB ausbauen. Neben dem üppigen Arbeitsspeicher stehen auch bis zu 64 CPU-Kerne (mit Hyperthreading) zur Verfügung, die genügend Leistung für Rechenoperationen bereithalten. Was Geschäftsprozesse angeht, sind die in den meisten Unternehmen anzutreffenden Datenbanken kaum größer als 500 GB – so der Stand heute.

Basis für SAP HANA: Intel Westmere Server-Plattform

Basis für SAP HANA: Intel Westmere Server-Plattform

Datenpresse NewDB: Aus 2,7 TB werden 700 GB

Doch auch zukünftige sehr große Datensätze sollen sich mit Hilfe von In-Memory-Datenbanken beschleunigen lassen. Gehen wir beispielsweise von einem Datensatz eines CRM-Systems aus, der auf einer Festplatte 2,5 TB an Speicherplatz belegt, der durch HANA und spaltenbasierte Anordnung den notwendigen Speicherplatz auf zirka 600 GB verringert werden. Im Idealfall sind Kompressionsraten um den Faktor 10 zu erwarten.

Tags: ,

Leave a Reply