Transformation des Rechenzentrums

Feature | 18. Februar 2009 von Dr. Markus Winter 0

Virtuelle Maschinen erlauben mehrere parallele Betriebssysteme auf einem Rechner.

Bisher ließen sich betriebliche Anwendungen nur über neue physische Servereinheiten erweitern. Das heißt: Wachstum musste immer über die Aufstellung neuer Server im Rechenzentrum abgebildet werden.
Mit den Jahren sind dadurch große, komplexe Landschaften entstanden. Gleichzeitig sorgt der technologische Fortschritt für eine zunehmende Leistungsfähigkeit moderner Hardware, so dass die Rechenleistung der einzelnen Computer nicht mehr voll ausgeschöpft werden kann. Nicht selten betreiben mittlere und große Unternehmen heute mehrere tausend Server mit einer durchschnittlichen Auslastung von deutlich unter 20 Prozent.

Wiederbelebung auf der der x86-Plattform

Virtualisierung
… geht über den Serverbetrieb hinaus und lässt sich allgemein als die Abstraktion von Ressourcen beschreiben, wobei der Begriff Ressource für Hardware-, Software- oder eine logische Komponente (wie zum Beispiel eine IP- oder andere Zugriffsadresse) stehen kann. Neben der Virtualisierung von Computern in virtuelle Maschinen, das so genannte Virtual Computing, gibt es etliche weitere Einsatzfelder auf allen Ebenen der IT-Infrastruktur, wie zum Beispiel virtuelle Netzwerke (VLAN) , so dass Virtualisierung das gesamte Rechenzentrum umfassen kann.

Im Großrechnerumfeld sind Rechenleistung ein vergleichsweise kostbares Gut und eine deutlich höhere Ressourcen-Auslastung an der Tagesordnung. So wundert es nicht, wenn eine dort seit den 1970er Jahren etablierte Technologie nun in abgewandelter Form eine „Renaissance“ im Rechenzentrum erlebt. Die Rede ist von Virtualisierung – oder genauer gesagt von Server-Virtualisierung – einer Technologie, die es bereits vor 30 Jahren ermöglicht hat, Großrechner in mehrere kleinere logische Einheiten, sogenannte virtuelle Maschinen (VM), zu unterteilen.

Virtualisierung bezeichnet die Einführung einer logischen Schicht zur Verwaltung und Aufteilung von Ressourcen, um hierdurch eine logische Trennung der Präsentation von Ressourcen und den tatsächlichen physischen Ressourcen zu erreichen.

Doch wie hilft das konkret dem Betrieb eines Rechenzentrums?

Die Renaissance-Künstler des Rechenzentrums heißen heute VMware oder XEN – nur zwei von etlichen Herstellern und Produkten, die es geschafft haben, die klassische Technologie virtueller Maschinen auf der x86-Plattform neu zu beleben. Virtuelle Maschinen ermöglichen es, auf einem einzelnen physischen Computersystem mehrere Betriebssystemumgebungen parallel zu betreiben.

Die Produkte am Markt unterscheiden sich hierbei in der technischen Umsetzung und in ihrem Funktionsumfang. Alle haben aber direkt oder indirekt das Ziel, mittels Konsolidierung von Betriebssystemumgebungen die vorhandenen physischen Ressourcen eines Computersystems besser auszulasten.

Ressourcen besser auslasten

Mittels einer speziellen Software, dem Hypervisor, laufen parallel mehrere virtuelle Maschinen samt Betriebssystem auf einem physischen Rechnersystem. Im Regelfall ist dies für den Endanwender nicht sichtbar. IT-Betreiber können dadurch benötigte physische Servereinheiten im Rechenzentrum auf eine deutlich geringere Stückzahl konsolidieren – auf einen größeren physischen Server passen nicht selten fünf, zehn, 20 oder mehr kleinere virtuelle Maschinen.

IT-Betreiber können also Kosten sparen: Weniger physisches Equipment, weniger Stellplatzfläche, weniger Stromverbrauch und Kühlung etc.. Anstelle für eine neue Anwendung im Rechenzentrum einen physischen Server anzuschaffen, der eine starre, definierte Leistungskapazität hat, können dank virtueller Maschinen applikationsspezifisch und dem jeweiligen Bedarf angepasst virtuelle Ressourcen zur Verfügung gestellt werden.

Flexibilität einer VM

Eine virtuelle Maschine (VM) ist in Größe und Leistungsfähigkeit in wenigen Sekunden anpassbar – teilweise sogar im laufenden Betrieb. VM schaffen stets die passende virtuelle Hardwareumgebung, die sich entsprechend der Anforderungen der Anwendung schnell und flexibel konfigurieren lässt.

Für den Lebenszyklus einer Applikation ergibt dies weitere Kostenvorteile, da zum Anschaffungszeitpunkt noch keine fixe Hardwaregröße festgelegt werden muss, die sich bereits bei Installation an der maximal möglichen zukünftigen Auslastung orientiert. Stattdessen wächst die virtuelle Maschine mit und kann ungenutzte Ressourcen bei Bedarf auch wieder freigeben. Für Betreiber und Kunden bedeutet dies eine deutlich höhere Flexibilität und höhere Verfügbarkeit von Services bei geringeren Kosten.

Risiken der Virtualisierung

Weitere Hinweise und Konfigurationsdetails für den Betrieb von SAP-Systemen in virtuellen Umgebungen finden sich im SAP Community Network, sowie über eine Reihe von SAP-Hinweisen im SAP Support Portal (z.B. 1122388, 895807, 674851).

Wie bei Konsolidierungsszenarien allgemein, erfordert auch Server-Konsolidierung mit dem Einsatz virtueller Maschinen eine sorgfältige Planung und Überwachung des operativen Betriebs. Die verdichtete Nutzung bringt weniger Toleranz für Ausfälle mit sich. Fällt im klassischen Betrieb ein System aus oder ist aufgrund von Performance-Engpässen langsam, so ist nur dieses eine System betroffen. Mit Server-Virtualisierung bedeutet der Ausfall eines physischen Servers in der Regel den Ausfall aller virtuellen Server auf dieser Einheit. Dieses Risiko gilt es im Vorfeld abzuwägen und durch sorgfältige Planung sowie ausgewählte technische Redundanzen aktiv zu kontrollieren.

Dies trifft ebenfalls auf die korrekte Größenzuordnung, das so genannnte Sizing, von Anwendungslandschaften zu, wie es im SAP-Umfeld üblich ist. Virtualisierung kann diesen Schritt durch die dargestellte Entkopplung von Infrastruktur und Betrieb unterstützen, nicht aber ersetzen.

Das Wissen um das konkrete Einsatzszenario (Anzahl der Anwender, erwarteter Datendurchsatz, Klassifizierung des Systems) ist auch für den reibungslosen Ablauf in virtuellen Umgebungen notwendig.

VLBA-Lab Magdeburg

Der Autor des Beitrags, Markus Winter, ist Product Manager Virtualization & Cloud Management bei SAP. Er beschäftigt sich mit den Auswirkungen neuer Computing-Technologien auf Architektur, Betrieb und Dienstleistungsangebote zukünftiger Rechenzentren und promovierte über “Server-Virtualisierung im Rechenzentrum: Konsolidierung von IT-Infrastruktur am Beispiel von SAP-Systemlandschaften“.

Das VLBA-Lab Magdeburg wurde im November 2006 in der Arbeitsgruppe Wirtschaftsinformatik an der Otto-von-Guericke-Universität gegründet. Die Forschungsgruppe beschäftigt sich mit dem Entwurf, der Entwicklung und dem Betrieb von sehr großen betrieblichen Anwendungssystemen bzw. Systemlandschaften (Very Large Business Applications). SAP und T-Systems engagieren sich im Rahmen des SAP University Competence Centers (SAP UCC) am VLBA-Lab; dadurch fließen aktuelle Problemstellungen aus Industrie und Wirtschaft in die Langzeit ein.

Tags: ,

Leave a Reply