Sie sind hier: Startseite » Fachartikel » Hintergrund

Appliances: Engpass im Rechenzentrum?


Hardware-Appliances im Rechenzentrum: Zeit Lebwohl zu sagen
Ist es an der Zeit, sich von den letzten physischen Appliances wie Load Balancern und Web Application Firewalls zu verabschieden?



Von Guntram Alffen, Avi Networks

Es scheint ein Widerspruch zu sein: Obwohl die meisten Unternehmen viele ihrer Anwendungen in die Cloud migrieren, erfreut sich das klassische Rechenzentrum nach wie vor großer Beliebtheit. Seit nun mehr als einem Jahrzehnt virtualisieren Unternehmen ihre Rechenzentren und führen Cloud-Technologien ein. Und sagten einige Experten vor gut zehn Jahren voraus, dass das Rechenzentrum der Zukunft vollständig in der Cloud betrieben würde, sehen wir heute, dass dies nicht eingetreten ist. Stattdessen führten Unternehmen Hybrid- und Multi-Cloud-Umgebungen ein, die ihnen die Wahl geben, ihren Anwendungen und Daten das ideale Zuhause zu geben.

Hybrid und Multi-Cloud sind der primäre Anwendungsfall unserer Zeit.
Aufgrund dieses Ansatzes, und obschon viele Unternehmen einen Teil ihrer Workloads auf externe Cloud-Provider verlagern, bleibt die lokale Infrastruktur im Rechenzentrum ziemlich fest etabliert. Die Cloud ist oft nur eine Erweiterung des Rechenzentrums, wobei die hybride Cloud der primäre Anwendungsfall unserer Tage ist. Einer der Gründe, warum das Rechenzentrum weiter fest verankert bleibt, sind die Verschärfung der Compliance-Regeln.

Vor allem in Europa hat die neue Gesetzgebung der DSGVO dazu geführt, dass Organisationen mehr Wert auf ihr eigenes Rechenzentrum legen, das einfacher abzusichern und zu kontrollieren scheint. Die Kontrolle jeder Facette der eigenen Architektur mag aufwändig klingen, aber zumindest haben Unternehmen die volle Kontrolle darüber, was mit ihren Daten passiert. Alle großen Public Cloud-Anbieter hatten in der Vergangenheit sowohl Ausfallzeiten als auch Datenverluste. Und Technologien für eine erhöhte Verfügbarkeit im Rechenzentrum sind schon seit ein paar Jahren verfügbar.

Ein weiterer Grund, warum Organisationen ihre Daten in unmittelbarer Nähe behalten wollen, ist das relativ neue Phänomen der "Data Gravity". Die Datenmenge wächst seit einiger Zeit exponentiell und wird weiter zunehmen, etwa indem die Digitale Transformation Technologien wie das Internet der Dinge oder künstliche Intelligenz ermöglicht. Das Problem mit wachsenden Datenmengen ist jedoch, dass sie fast nicht mehr zu bewegen sind. Selbst mit fortschrittlichen Netzwerktechnologien wie Glasfaser wird es nahezu unmöglich sein, größere Datensätze zur zeitnahen Verarbeitung an einen anderen Ort zu senden.

Dies hat dazu geführt, dass Unternehmen ihre Rechenleistung für die Verarbeitung von Daten in die Nähe des Standorts der Daten verlagern. Branchenschwergewichte wie Microsoft und Amazon haben bereits auf diesen Trend reagiert und bieten Azure Stack und Amazon Outpost an, die Cloud Computing-Technologie in das Rechenzentrum bringen. Ein weiteres Zeichen für diesen Trend ist die steigende Nachfrage nach Edge Computing. Edge Computing verarbeitet und speichert Daten dort, wo sie erzeugt werden, ohne dass sie zuerst verschoben werden müssen.

Natürlich würde niemand, der bei klarem Verstand ist, Workloads und Daten aus einer modernen Cloud-Infrastruktur in ein altmodisches, hardwarebasiertes Rechenzentrum verschieben. Seitdem Unternehmen jedoch auf eine softwaredefinierte Infrastruktur im Rechenzentrum umgestellt haben, um sie für Hybrid- und Multi-Clouds fit zu machen, ist es nun problemlos möglich, davon Gebrauch zu machen - und sogar Apps zurück ins Rechenzentrum zu holen. Der aktuelle Trend der Cloud-Repatriation belegt diese Entwicklung.

Aber einer der langjährigen Bewohner des Rechenzentrums passt nicht in die neue hybride und Multi-Cloud-Welt, die auf Geschwindigkeit, Flexibilität und Wahlmöglichkeiten ausgerichtet ist: die gute alte Hardware-Appliance. Zu den letzten noch vorhandenen physischen Appliances in vielen Rechenzentren gehören der Load Balancer oder die Web Application Firewall.

Appliances werden zum Engpass im Rechenzentrum.
Die Server-Virtualisierung läutete einst den Aufstieg des Software-definierten Rechenzentrums ein. Heutzutage sind die meisten modernen Organisationen größtenteils virtualisiert, was ihnen eine bessere Automatisierung und Elastizität verleiht. Dennoch setzen viele Unternehmen immer noch auf physische und virtuelle Appliances für Anwendungsdienste wie Load Balancing und WAF.

Das Ziel für Unternehmen ist es jedoch, dass Rechenzentren durch softwaredefinierte Technologie Cloud-ähnlicher werden. Aber Hardware und virtuelle Appliances bieten keine Cloud-ähnliche Funktionalität - und untergraben damit die Modernisierung. Diese Geräte befinden sich zwischen zwei Welten. Sie haben immer noch eine Funktion, die jedoch in der Vergangenheit verwurzelt ist, und funktionieren in der neuen Welt der softwaredefinierten Infrastruktur nicht wirklich gut.

Das klassische Beispiel ist der traditionelle Load Balancer. Er kann nicht auf die Cloud umsteigen, und seine Zeit läuft ab. Unternehmen ersetzen ihn im Rechenzentrum durch moderne Software-Load-Balancer, die in die flexiblere, softwaredefinierte Welt passen. Der Schritt ist längst überfällig, da Load-Balancer-Appliances inhärente Mängel aufweisen, die hauptsächlich mit ihrer begrenzten Automatisierung und Skalierbarkeit zusammenhängen - eine Disziplin, in der softwaredefinierte Technologien herausragen. Die Hardware-Appliances lediglich zu virtualisieren reicht nicht aus, da die Technologie sich nicht in die software-definierte Welt integrieren lässt.

Frei nach Mark Twain: Die Nachricht vom Tod des Rechenzentrums ist stark übertrieben. Im Gegenteil, das Rechenzentrum bleibt wo es ist, nur eben nicht so, wie wir es uns vorgestellt haben. Die Nutzung der Cloud bietet die fehlende Flexibilität und Agilität und da Unternehmen ihr eigenes Rechenzentrum nicht so schnell aufgeben werden, ist das neue Rechenzentrum eben Cloud-ähnlich. Das bedeutet, dass das Rechenzentrum neu strukturiert werden muss, um softwaredefiniert zu sein. Um dies zu erreichen, müssen Unternehmen softwaredefinierte Lösungen begrüßen und alte Hardware und virtuelle Appliances endlich dorthin schaffen, wo sie hingehören: Auf den Schrotthaufen der IT-Geschichte.
(Avi Networks: ra)

eingetragen: 23.06.19
Newsletterlauf: 12.07.19

Avi Networks: Kontakt und Steckbrief

Der Informationsanbieter hat seinen Kontakt leider noch nicht freigeschaltet.


Kostenloser PMK-Verlags-Newsletter
Ihr PMK-Verlags-Newsletter hier >>>>>>



Meldungen: Hintergrund

  • Datensicherheit auf mehreren Ebenen

    Unternehmen verlassen sich bei der Verwaltung und Bereitstellung ihrer Daten zunehmend auf Cloud-Dienstleistungen. Dadurch müssen sich die Datenverantwortlichen zunehmend mit der nötigen Datensicherheit und -integrität auseinandersetzen.

  • Schock über die Cloud-Rechnung?

    Die Relevanz von Cloud Computing-Technologie hat im vergangenen Jahrzehnt rasant zugenommen und damit auch die Anzahl an Geschäftsprozessen und Services, die Unternehmen in die Cloud auslagern. Viele Unternehmen verfolgen dabei einen "Cloud first"-Ansatz als zentralen Bestandteil ihrer digitalen Transformationsbemühungen.

  • Einführung in CRaaS

    In der Datenwelt findet ein Sicherheitswettlauf statt. Mit dem Fortschritt der Technologie entwickeln sich aber auch die Waffen und Taktiken der Cyberkriminellen weiter. Unternehmen müssen deshalb ständig ihre Performance optimieren und bessere Methoden entwickeln, um sich vor neuen Attacken und Angriffsmethoden zu schützen.

  • Wenn das Flussdiagramm in die Cloud zieht

    Business-Process-Management (BPM) hat in den letzten Jahren eine steile Weiterentwicklung hingelegt. Das Dokumentationstool von einst, dessen Zweck vorwiegend darin bestand, eine möglichst große Zahl von Prozessen präzise zu visualisieren, hat sich zu einer vielseitig vernetzbaren Technologie entwickelt, die Geschäftsprozesse systemübergreifend analysiert und überwacht, mit dem Ziel Optimierungspotenziale zu nutzen.

  • Kenntnisse über AWS-Cloud-Mechanismen

    Das Sysdig Threat Research Team entdeckte kürzlich eine ausgeklügelte Cloud-Operation, genannt Scarleteel, welche in einer Kundenumgebung, zum Diebstahl geschützter Daten führte. Der Angreifer nutzte eine containerisierte Arbeitslast aus und verschaffte sich so Zugang zu einem AWS-Konto, um geschützte Software und Anmeldeinformationen zu stehlen.

  • Den richtigen Cloud-Service-Anbieter auswählen

    Vorschriften zur Datenhoheit, wie der Data Governance Act in Europa, können für Unternehmen eine Herausforderung darstellen. Eine der Hauptschwierigkeiten besteht darin, den Überblick darüber zu behalten, wo Daten gespeichert sind. Zudem müssen Unternehmen sicherstellen, dass die Speicherung mit den lokalen Datenschutzbestimmungen übereinstimmt.

  • Compliance vs. oder sogar mit IT-Sicherheit?

    Kleine und mittelständische Unternehmen (KMU) sehen sich seit Jahren mit Cyberattacken konfrontiert, die vor allem auf ihre Daten abzielen. In den letzten Jahren hat sich diese Perspektive dahingehend geändert, dass sie sich mit immer mehr Ransomware-Bedrohungen auseinandersetzen müssen. Beispiele dafür lassen sich so viele finden, dass sie nicht einzeln erwähnt werden müssen, allerdings sind in jüngster Zeit bereits Fahrradhersteller, Chemieproduzenten oder Nachrichtenmagazine darunter zu finden.

  • Data Act könnte schon 2024 in Kraft treten

    Wir erleben es jeden Tag: Datenmengen steigen ins Unermessliche. Die Prognose der EU-Kommission erwartet allein in der EU zwischen 2020 und 2030 einen Anstieg des Datenflusses in Cloud- und Edge-Rechenzentren um 1500 Prozent - kein Tippfehler. Entsprechend riesig ist das wirtschaftliche Potential, denn Daten sind der zentrale Rohstoff etwa für das Internet of Things.

  • Mit richtiger Unterstützung zum MSSP-Erfolg

    Auch kleine und mittlere Unternehmen (KMU) benötigen heute eine ganzheitliche IT-Sicherheitsstrategie, inklusive einer 24/7-Überwachung durch ein Security Operations Center (SOC). Sie verfügen aber meist nicht über die nötigen personellen und finanziellen Ressourcen, um diese Aufgabe selbst zu stemmen. Mit den richtigen Managed-Security-Angeboten schließen Reseller diese Lücke.

  • Keine Bestnoten für Deutschlands Rechenzentren

    Rechenzentren werden geplant, gebaut, in Betrieb genommen und dann viele Jahre lang mehr oder minder unverändert genutzt. Doch die Anforderungen der betreibenden Unternehmen, die technologischen Möglichkeiten und die gesetzlichen Rahmenbedingungen ändern sich im Laufe der Zeit. Um böse Überraschungen zu verhindern, Kosten zu sparen und Risiken zu vermeiden, ist es notwendig, Defizite in Bestandsrechenzentren zu entfernen und Optimierungspotentiale zu nutzen. Hierzu sollten Rechenzentren regelmäßig einer ganzheitlichen Betrachtung unterzogen werden.

Wir verwenden Cookies um unsere Website zu optimieren und Ihnen das bestmögliche Online-Erlebnis zu bieten. Mit dem Klick auf "Alle akzeptieren" erklären Sie sich damit einverstanden. Erweiterte Einstellungen