Virtuelle Systeme bieten ganz reale Vorteile


Nutzungsvorteile führen zu neuen Virtualisierungsprojekten: An oberster Stelle stehen Disaster-Recovery und Business-Continuity
Hervorragend für die Verbesserung der Systemverfügbarkeit: Virtuelle Systeme erlauben einen schnellen Restart nach einem Systemausfall erlauben

(30.11.09) - Mit Virtualisierungstechnologien werden die IT-Ressourcen besser genutzt und die Flexibilität zur Anpassung an neue Anforderungen und Arbeitsbelastungen steigt. Mit der Hinzufügung von Automatisierungstechnologien könne darüber hinaus die Effektivität aller IT-Ressourcen dramatisch verbessert werden. Doch was verbirgt sich hinter dem Begriff Virtualisierung sowie den zugehörigen Märkten und Systemen?

Der gemeinsame Nenner über alle Interpretationen in der professionellen IT-Welt hinweg ist der, dass man mit Hilfe von Virtualisierung verschiedene – eben virtuelle – Systeme auf ein und derselben Hardware betreiben kann. Und in einer etwas neueren Definition bedeutet Virtualisierung auch das Gegenteil, dass also eine logische Einheit über mehrere Hardware-Systeme verteilt sein kann. Schlussendlich ist es die totale Trennung von logischer und physischer Ebene. Damit ist zwar einiges gesagt, aber auch vieles noch offen.

Ein Hypervisor macht noch kein dynamisches RZ
So bedeutet das Wort "Systeme" in diesem Fall entweder Server, Storage, Netzwerk oder Desktop. Und damit wird schlagartig deutlich, wie weit der Begriff Virtualisierung reicht. Die Server-Virtualisierung gilt inzwischen als eine Art Allround-Lösung für alle gegenwärtigen und zukünftigen Rechenzentrumsprobleme. Doch noch hat sie ihre Grenzen.

Die Mindestanforderung an eine Server-Virtualisierung ist ein so genannter Hypervisor, der auf der einen Seite mit der Hardware und auf der anderen Seite mit dem Betriebssystem kommuniziert. Der Hypervisor ist zwar wichtig, ist aber nur ein Teil der Lösung. Er erlaubt zwar die logische Partitionierung eines physischen Servers – doch das ist bei Weitem nicht das, was die erheblichen Einsparungen bei der Virtualisierung ausmachen. Erst das damit einhergehende Managen der Server, die zugehörigen Backups und Restart-Prozeduren und letztlich das unterbrechungsfreie Verschieben einer Anwendungen von einem logischen Server auf einen anderen machen in Verbindung mit Storage- und Netz-Virtualisierung diese Technologie so besonders attraktiv.

Knapp gesagt: Das Betreiben von vielen virtuellen Servern auf einem physischen erlaubt einen annähernd automatischen RZ-Betrieb und erhöht darüber hinaus die Auslastung des Systems, was wiederum zu Maintenance- und Energieeinsparungen führt. Das sind die wesentlichen Kosteneinsparungen von denen alle reden. Doch um das zu erreichen, bedarf es eines umfangreichen Softwarepaketes, das weit über den Hypervisor hinausgeht.

Auch für Forrester-Analyst Frank Gillet hängt die weitere Akzeptanz der Virtualisierung bei den IT-Chefs davon ab, in wie weit sich diese Technologie in das Gesamtsystem einfügen und administrieren lässt. "Es geht überhaupt nicht darum, welchen Hypervisor man benutzt, sondern vielmehr darum, welches Ökosystem man für das Management einsetzt", lautet seine Feststellung. Somit seien die zugehörigen Management-Tools für den Erfolg der Virtualisierung viel wichtiger als die Technologie an sich.

Virtualisierung für High-Performance-Umgebungen?
Dass erst die oberhalb des Hypervisors liegenden Schichten über den Sinn und den Nutzen einer Virtualisierung entscheiden, bedeutet aber auch, dass es viele Anwendungen gibt, die sich (noch) nicht besonders gut zur Virtualisierung eignen. "Alle CIOs lesen von Virtualisierung und meinen, man muss nur einen Schalter umlegen um damit viel Geld zu sparen, doch das ist leider nicht der Fall", sagt Yankee-Analystin Gery Chen. Als nicht virtualisierungsgeeignet hält sie beispielsweise High-Performance-Datenbanken oder auch stark zentralisierte Anwendungen.

Virtuell ausfallsicher
Zusätzliche, bislang unberücksichtigte, Nutzungsvorteile könnten den Einsatz der Virtualisierungstechnologie ebenfalls voran bringen. Gemäß einer neuen Forrester-Untersuchung meinen rund die Hälfte der Unternehmen, die bereits eine Server-Virtualisierung installiert haben, dass sie im Anschluss daran weitere Nutzungsvorteile erkannt hätten, die zu neuen Virtualisierungsprojekten führen würden. An oberster Stelle stehen dabei Disaster-Recovery und Business-Continuity.

Da virtuelle Systeme einen schnellen – häufig sogar einen automatischen – Restart nach einem Systemausfall erlauben, eignet sich diese Technologie hervorragend für eine Verbesserung der Systemverfügbarkeit. In Verbindung mit Datenreplikation zwischen verschiedenen Rechenzentren bietet diese Technologie eine äußerst zuverlässige IT-Infrastruktur für Disaster-Recovery und Mission-Critical-Applikationen. Läuft beispielsweise auf einem physischer Server eine wichtige Anwendung, so beschränkt sich die Ausfallzeit auf den Zeitraum vom Entdecken des Problems bis zum erfolgreichen Neustart der Anwendung auf einem anderen verfügbaren Server.

Doch es gibt keine bahnbrechend neue Technologie ohne Schattenseiten. So kommt die größte Kritik an der Server-Virtualisierung gegenwärtig von den Sicherheitsexperten. Einige meinen, dass ein in einer virtuellen Umgebung verpackter Rootkit die absolute Bedrohung darstellt, da er niemals erkannt werden kann. Vergangenes Jahr hatte die Malware-Forscherin Joanna Rutkowska behauptet, ein absolut unauffindbares Hypervisor-Rootkit namens Blue Pill entwickelt zu haben.

Doch diese "transparenten VMMs" (Virtual Machine Monitor) sind nur ein Mythos. So haben Wissenschaftler der Carnegie Mellon University (CMU) und Stanford University jetzt herausgefunden, dass eine absolute Transparenz nicht möglich ist. Nach Testläufen mit den Virtualisierungs-Technologien von VMware und Xensource kommen sie zu dem Ergebnis, dass sich schädliche Rootkits auch dann aufspüren lassen, wenn sie mit Hypervisor-Technologie versteckt wurden. "Egal wie minimal schädlich ein bösartiger VMM ist, er muss in jedem Fall gewisse physische Ressourcen benutzen. Und damit ist das Schadprogramm letztendlich immer aufspürbar", heißt es in dem Forschungsbericht.

Trotz der zunehmenden Akzeptanz von Virtualisierung bei den Servern wird sich das vorläufig nicht auf den Hardware-Absatz auswirken. So meinen die Analysten von Standard & Poors, dass die Virtualisierung noch kein Grund für einen Wachstums-Stopp bei den Servern sei, da die zunehmenden IT-Aufgaben und -Anwendungen auch zusätzliche Hardware benötigen werden. Allerdings gibt es eine deutliche Verschiebung bei der Server-Beschaffung. "Es gibt einen eindeutigen Trend zu weniger – dafür aber größeren und teureren Systemen – der sich nur mit zunehmender Virtualisierung erklären lässt", sagt IDC-Analyst Jed Scaramella.

Ergänzt wird der Trend zur Server-Virtualisierung von parallelen Entwicklungen beim Storage, den Netzen und bei den Desktops. Bei der Storage-Virtualisierung ist es ähnlich wie bei der Server-Virtualisierung: Völlige Trennung von logischen und physischen Einheiten. Entsprechend der zu Grunde liegenden Technologie unterscheidet man hier die SAN-Virtualisierung, die eine unterbrechungsfreie Datenmobilität zwischen den Storage-Areas ermöglicht, das bedeutet eine höhere Unabhängigkeit zwischen Storage- und Server-Betrieb.

Mit der File-Virtualisierung lassen sich Dateien auf unterschiedlichen Systemen zusammenfassen, und wenn ganze File-Systeme virtualisiert werden, entstehen hochperformante, flexible NAS-Umgebungen. Eine Besonderheit der Storage-Virtualisierung sind virtuelle Bandlaufwerke. Dabei werden ganze Tape-Bibliotheken auf einer Festplatte emuliert. Das verkürzt den Backup und das Recovery ganz erheblich. (EMC: ra)

EMC Deutschland GmbH
Frank Gülpen
Am Kronberger Hang 2a, 65824 Schwalbach/Taunus
Telefon (0 61 96) 47 28 - 240; Telefax (0 61 96) 47 28 - 218


Kostenloser PMK-Verlags-Newsletter
Ihr PMK-Verlags-Newsletter hier >>>>>>



Schwerpunktinhalte im Überblick

Virtualisierung und Ausfallsicherheit

  • Funktionsweise von Advanced Site Recovery

    In Unternehmen werden Disaster Recovery-Konzepte oft vernachlässigt. Das kann gerade dann zur Katastrophe führen, wenn geschäftskritische Daten in eine virtuelle Struktur eingebunden sind. Um den Geschäftbetrieb auch im Falle eines Ausfalls zu erhalten, müssen virtuelle Infrastrukturen nicht nur hochverfügbar vorgehalten werden, sondern im Notfall schnell wiederherstellbar sein. Site Recovery-Technologien sollen helfen, auch verteilte Ressourcen zu nutzen und Kosten zu sparen.

  • Rezept für Business Continuity & Disaster Recovery

    DataCore Software bietet kosteneffektive Verwaltung und Kontrolle von Speicherressourcen und Speichererweiterungen, Verbesserung von Datensicherheit, Business Continuity und Disaster Recovery, mehr Flexibilität bei Kaufentscheidungen und zukunftssichere Lösungen, da der Anwender heute aus einem breiten Spektrum von Speichergeräten entsprechend seiner individuellen Anforderungen auswählen kann, administratordefinierte Unternehmenslösungen für Storage und Storage-Dienste, die für alle Systeme und Speichergeräte sowie alle FC-, iSCSI-, FCoE- und gemischten Netzwerke geeignet sind.

  • DataCore-SAN: Krankenhausbetrieb rund um die Uhr

    DataCore und Citrix - bei der Muldentalkliniken GmbH mit den Krankenhäusern Grimma und Wurzen setzt man auf diese Kombination und beziffert die Einsparungen durch die Zentralisierung der EDV in Zusammenhang mit der Virtualisierung auf bis zu 100.000 Euro in 3 Jahren. Das DataCore-SAN unterstützt die Performance-hungrige SAP-Umgebung ebenso wie das kapazitätsfressende PACS-Bildarchiv.

  • Kosteneinsparung durch "Backup-as-a-Service"

    Wie eine Datensicherungs- und Notfallvorsorge-Lösung für ein mittelständisches Handelsunternehmen aussehen kann, beschreibt der folgende Situationsbericht. Der Kunde forderte optimierte Datensicherheit, verbesserter Service-Level und Serviceangebote für die Tochtergesellschaften, ein zentrales Vorsorgekonzept und damit eine erhöhte Planungssicherheit.

  • Disaster Recovery im Virtualisierungsumfeld

    "Eine generelle Änderung in der strategischen Ausrichtung seitens Brocade hat sich durch die Virtualisierungstechnik nicht ergeben", sagt Marco De Luca, Principal Solution Architect, EMEA bei Brocade. "Im Gegenteil, die von Brocade angebotenen Lösungen sind die Voraussetzung für die Einführung von Virtualisierung. In sofern hat die Virtualisierungstechnik die Ausrichtung Brocades auf innovative, hochperformante und zuverlässige Netzwerk-Lösungen vielmehr bestätigt." Marco De Luca äußert sich zum Thema Virtualisierung und Disaster Recovery.

  • Strategien für die Sicherung virtueller Umgebungen

    Für die Sicherung virtueller IT-Umgebungen empfiehlt sich ein mehrstufiges Sicherungskonzept: Redundanter Primärspeicher stellt Hochverfügbarkeit sicher. Auf Seiten des Sekundärspeichers liefern Disks die Performance und Flexibilität für die Wiederherstellung, während Tapes Kosteneffizienz bei der Archivierung, beim Energieverbrauch und der Notfallplanung liefern.

  • FCoE - Was es ist und was es bringt

    Es ist nicht zu übersehen, dass die Konsolidierungswelle rollt und stark wächst. Durch die Verbreitung von Virtualisierungslösungen getrieben, wird seit geraumer Zeit (genauer gesagt seit Ende 2007) auch an einer Lösung zur Konsolidierung von I/Os gearbeitet. Der Heilsbringer heißt hier "Fibre Channel over Ethernet", kurz FCoE.

  • Datenverlust und Faktor Mensch

    Menschliche Fehler sind ein wesentlicher Grund für die Zunahme an Datenverlusten. Dies belegen die Erfahrungen von Kroll Ontrack. Fehlbedienungen werden durch immer komplexere Storage-Systeme folgenschwerer. Gerade in der Virtualisierung kommt es daher immer häufiger zu Anfragen nach Datenrettung. Sinkende Investitionen in Hardware, in das Training und in eine optimale Besetzung des IT-Personals verstärken diesen Effekt. Über die Risiken eines Datenverlustes und die Möglichkeiten einer Datenrettung in virtuellen Umgebungen informierte jetzt Kroll Ontrack.

  • Disaster Recovery ist Teamarbeit

    Viele Unternehmen machen den großen Fehler, auf regelmäßige Backups zu verzichten. Zehn wichtigen Maßnahmen sollten kleinere Unternehmen zum Schutz und zur Sicherung ihrer Daten und für stabile Wiederherstellungsstrategie ergreifen.

  • Virtuelle Systeme bieten ganz reale Vorteile

    Mit Virtualisierungstechnologien werden die IT-Ressourcen besser genutzt und die Flexibilität zur Anpassung an neue Anforderungen und Arbeitsbelastungen steigt. Mit der Hinzufügung von Automatisierungstechnologien könne darüber hinaus die Effektivität aller IT-Ressourcen dramatisch verbessert werden. Doch was verbirgt sich hinter dem Begriff Virtualisierung sowie den zugehörigen Märkten und Systemen?

  • Datensicherheit für den Exchange-Server

    Microsoft Exchange ist eine wichtige Komponente der täglichen Arbeit in vielen kleinen und mittelständischen Unternehmen (KMU). Das Kommunikationstool unterstützt Angestellte dabei, ihre Meetings zu planen, sich an Termine zu erinnern und Kontaktdaten zu speichern. Die nachfolgenden Tipps helfen Ihnen den kontinuierlichen Betrieb Ihrer Exchange-Umgebung sicherzustellen und zeigen Ihnen auf, wie Sie bei einem Ausfall des Exchange Servers Ihre Daten schnellst möglichst wiederherstellen können.

  • Hochverfügbare und skalierbare Netzwerkkomponenten

    Als eines der führenden Unternehmen im Netzwerkmarkt bietet Brocade eine breite Palette an Lösungen für das klassische IP-Umfeld ebenso wie im Bereich des Fibre Channel SAN. Die Produktpalette integriert hochverfügbare und skalierbare Netzwerkkomponenten für Unternehmen im Mittelstand sowie für international aufgestellte Großunternehmen. Brocade Produkte gehören zu den industrieweit leistungsfähigsten Netzwerkkomponenten, die in Unternehmen mit extrem hohen Ansprüchen an Zuverlässigkeit, Administrierbarkeit, Service-Level sowie die Total Cost of Ownership (TCO) und Return on Investment (ROI) für einen reibungslosen, kosteneffizienten Betrieb sorgen.

Wir verwenden Cookies um unsere Website zu optimieren und Ihnen das bestmögliche Online-Erlebnis zu bieten. Mit dem Klick auf "Alle akzeptieren" erklären Sie sich damit einverstanden. Erweiterte Einstellungen