Sie sind hier: Startseite » Fachartikel » Hintergrund

Cloud Computing ist Mainstream in der IT


Cloud-basierte und virtualisierte Infrastrukturen: Datenverschlüsselung bleibt fundamentaler Bestandteil der IT-Security
Nach den Anwendungen wandert die Infrastruktur in die Cloud



Von Garry McCracken, Vice President of Technology Partnerships bei WinMagic

"Die Wolke" ist in der Unternehmens-IT deutscher Unternehmen angekommen. Auch hierzulande profitieren Firmen jeder Größe von niedrigeren Kosten bei größerer Skalierbarkeit und Zuverlässigkeit. Die Verantwortung für die Sicherheit ihrer Daten sollten Unternehmen jedoch nicht in die Hände von Cloud-Providern legen. Der Datenverschlüsselung und der Kontrolle über die Verschlüsselungs-Keys kommt in heterogenen IT-Landschaften besondere Bedeutung zu. Denn im Ernstfall ist Verschlüsselung die letzte Feste der IT-Security.

Cloud Computing ist Mainstream in der IT von Unternehmen geworden, auch in Deutschland. Eine aktuelle Studie des Branchenverbands BITKOM (Cloud Monitor 2018) kommt zu dem Ergebnis, dass die Mehrheit der hiesigen Unternehmen "die Wolke" in irgendeiner Form nutzen: "Acht von zehn Unternehmen (83 Prozent) mit mehr als 2.000 Mitarbeitern setzen mittlerweile auf Cloud-Dienste. In Unternehmen mit 100 bis 1.999 Mitarbeitern liegt die Cloud-Nutzung bei 65 Prozent, ähnlich hoch wie bei kleineren Unternehmen mit 20 bis 99 Mitarbeitern (66 Prozent)." Der Business-Nutzen von Dateispeicherung in der Cloud oder Software-as-a-Service (SaaS) liegt auf der Hand: Niedrigere IT-Kosten bei höherer Skalierbarkeit und größerer Zuverlässigkeit im Vergleich zu Ressourcen im eigenen Rechenzentrum.

Dennoch bringt die Cloud Herausforderungen mit sich. Selbst hartgesottene Cloud-Verfechter haben Bedenken hinsichtlich "Was-wäre-wenn"-Szenarien, über die sie keine oder nur wenig Kontrolle hätten, beispielsweise einen Dienstausfall oder einen Hackerangriff. An dieser Stelle beruhigt es wenig zu wissen, dass bei Cloud-Providern mehrere Redundanz-Ebenen und Backups zum Standard gehören. Einige Anbieter beschäftigen einen Stab an professionellen Service- und Sicherheitsexperten, um den sie IT-Leiter in Unternehmen beneiden.

Cloud Computing-Anbieter stehen in vielerlei Hinsicht gut da, manchmal besser als manche Inhouse-IT. Die Zuverlässigkeit von Cloud-Providern lässt sich deutlich besser einstufen als so manche interne Infrastruktur. Gleichzeitig wird die Cloud schneller und zuverlässiger, etwa weil sich die Leistung von Glasfasernetzen ständig verbessert. Latenzzeiten nehmen ab, obwohl immer mehr bandbreitenhungriger Traffic die Datenautobahn passiert. Dadurch fühlen sich Rechenzentren näher an als je zuvor. In der Folge wandern immer mehr Infrastrukturbestandteile in die Cloud. Unternehmen nutzen Infrastructure-as-a-Service-Anbieter verstärkt für ihre IT-Anforderungen.

Ein prominentes Beispiel hierfür ist das Serverlose Computing. Es baut auf der Methodik der DevOps auf, die Softwareentwicklung und traditionelle IT-Teams kombiniert, um den Entwicklungszyklus von Systemen zu verkürzen. Das serverlose Computing geht noch einen Schritt weiter. Bei diesem Cloud Computing-Modell fungiert die Cloud als Server, sodass sich Entwicklungsteams ganz auf den Code konzentrieren können, den sie ausführen möchten, und nicht auf operative Komplexitäten.

Außerdem gibt es neue Preismodelle, bei denen die tatsächlichen Ressourcen, die von einer einzelnen Anwendung oder sogar ihren Bibliotheksfunktionen genutzt werden, die Kosten bestimmen – nicht die vorab erworbene Kapazität.

Edge Computing und Co.: Die Art und Weise, wie wir die Cloud nutzen, verändert sich
Während IT-Bestandteile vom eigenen Rechenzentrum in die Cloud verlagert werden, gibt es einen zweiten Trend, Rechenzentrumsressourcen wieder zu lokalisieren, etwa beim Edge Computing. Dabei werden Daten von Geräten, beispielsweise IoT-Devices, an den äußersten Rändern des Netzwerks verarbeitet, um den Datenverkehr zu anderen Rechenzentren zu reduzieren. Manchmal wird den Geräten sogar die Möglichkeit gegeben, als eigenständige Einheit zu agieren.

Einen zweiten, ähnlichen Ansatz gibt es für Probleme im Netzwerk. Dieser Ansatz sieht vor, kleinere Rechenzentren in der Nähe eines Unternehmens einzurichten, und dieses mit direkten Glasfaser-Backbones anzubinden. Netzwerk-Hops sollen reduziert, Redundanz soll ermöglicht und das Ausfallrisiko soll verteilt werden. Unternehmen wollen näher an die Cloud-Dienste rücken, auf die sie angewiesen sind, ohne dabei die Kontrolle über ihre wertvollen Daten zu verlieren.

Die Rechenzentren werden entweder extra gebaut oder an gemeinsam genutzten Standorten errichtet. Die Leistung dieser Verbindungen lässt Cloud-Services auf der ganzen Welt näher erscheinen als je zuvor. Der Unternehmens-Traffic konkurriert so weniger mit dem übrigen Datenverkehr. Der Nachteil: Diese Strategie kann zu einer weit verteilten Infrastruktur führen, die sich nur schwer verwalten lässt.

Herausforderungen der Vergangenheit bleiben
Die meisten Unternehmen setzen heute auf eine heterogene IT-Infrastrukturen mit unterschiedlichen Betriebssystemen und Multi-Cloud-Umgebungen. Allen Gewinnen zum Trotz: Die grundlegende Herausforderung bleibt bestehen. Daten müssen geschützt werden. Beim Schutz dieser Daten geht es nicht nur um Hacking. Es ist auch eine gute Governance erforderlich, um sicherzustellen, dass der gesamte Umgang mit diesen Daten den gesetzlichen Anforderungen und speziellen Anforderungen der Branche entspricht. Stichwort: Datenschutz und Compliance.

Virtualisierung ist eine grundlegende Technologie in der Cloud. Die Verwaltung virtueller Maschinen ist äußerst schwierig, gerade weil sie so einfach aufzusetzen sind und in vielen Fällen dynamisch erstellt und außer Betrieb genommen werden. Es ist nicht immer klar, welche Daten in einer virtuellen Maschine vorgehalten werden – insbesondere, wenn sie nicht aktiv ist. Daten sind dann mitunter ungeschützt und können offengelegt, entwendet und missbraucht werden, egal ob sie sich in der Cloud oder vor Ort befinden.

Die Verschlüsselung ist in Cloud-basierten und virtualisierten Umgebungen daher zum fundamentalen Bestandteil der Sicherheitstechnologie geworden. Aber sie muss ordnungsgemäß umgesetzt werden. Die Datenverschlüsselung einfach dem Cloud-Anbieter zu überlassen, ist keine gangbare Methode. Das Unternehmen ist für die Daten verantwortlich, deshalb muss es die Kontrolle über gespeicherte und übertragene Daten behalten. Im Ernstfall ist Verschlüsselung die einzige Möglichkeit, Daten zu schützen.

Effizientes und sicheres Verschlüsselungs-Management – aber wie?
Jedes Betriebssystem hat heutzutage eingebaute Verschlüsselungstechnologien. Und diese Tools funktionieren in der Regel gut, zumindest auf ihrer "Geräteinsel". Einen echten Rundumblick gibt es mit diesen Insellösungen allerdings nicht – ein Risiko, gerade in heterogenen IT-Infrastrukturen mit Cloud-Ressourcen und VMs, wo der Strom der Daten nicht immer sofort offensichtlich ist.

Wenn es um die Verschlüsselungsverwaltung in heterogenen IT-Landschaften geht, sollten IT-Verantwortliche anbieterübergreifende Management-Tools in Betracht ziehen, die einen Rundumblick über die Verschlüsselung aller Ressourcen und deren Steuerung ermöglichen. Auch die Verwaltung der Verschlüsselungs-Keys und die Authentifizierung der Endpunkte erfolgt mit diesen Tools zentral und Server-basiert, oft anhand vorhandener Netzwerk-Policies, etwa Active-Directory-Datenbanken.

Es ist unmöglich, ohne geeignete Verwaltungstools eine infrastrukturweite Verschlüsselung und Sicherheitskonformität zu erreichen. Wird die Verwaltung erschwert, passieren Fehler. Der Schutz von Daten in heterogenen IT-Infrastrukturen mit hohem Cloud- und Virtualisierungsanteil ist eine Gratwanderung, die in Zukunft sicher nicht weniger komplex werden dürfte. (WinMagic: ra)

eingetragen: 28.03.19
Newsletterlauf: 16.04.19

WinMagic: Kontakt und Steckbrief

Der Informationsanbieter hat seinen Kontakt leider noch nicht freigeschaltet.


Kostenloser PMK-Verlags-Newsletter
Ihr PMK-Verlags-Newsletter hier >>>>>>



Meldungen: Hintergrund

  • Datensicherheit auf mehreren Ebenen

    Unternehmen verlassen sich bei der Verwaltung und Bereitstellung ihrer Daten zunehmend auf Cloud-Dienstleistungen. Dadurch müssen sich die Datenverantwortlichen zunehmend mit der nötigen Datensicherheit und -integrität auseinandersetzen.

  • Schock über die Cloud-Rechnung?

    Die Relevanz von Cloud Computing-Technologie hat im vergangenen Jahrzehnt rasant zugenommen und damit auch die Anzahl an Geschäftsprozessen und Services, die Unternehmen in die Cloud auslagern. Viele Unternehmen verfolgen dabei einen "Cloud first"-Ansatz als zentralen Bestandteil ihrer digitalen Transformationsbemühungen.

  • Einführung in CRaaS

    In der Datenwelt findet ein Sicherheitswettlauf statt. Mit dem Fortschritt der Technologie entwickeln sich aber auch die Waffen und Taktiken der Cyberkriminellen weiter. Unternehmen müssen deshalb ständig ihre Performance optimieren und bessere Methoden entwickeln, um sich vor neuen Attacken und Angriffsmethoden zu schützen.

  • Wenn das Flussdiagramm in die Cloud zieht

    Business-Process-Management (BPM) hat in den letzten Jahren eine steile Weiterentwicklung hingelegt. Das Dokumentationstool von einst, dessen Zweck vorwiegend darin bestand, eine möglichst große Zahl von Prozessen präzise zu visualisieren, hat sich zu einer vielseitig vernetzbaren Technologie entwickelt, die Geschäftsprozesse systemübergreifend analysiert und überwacht, mit dem Ziel Optimierungspotenziale zu nutzen.

  • Kenntnisse über AWS-Cloud-Mechanismen

    Das Sysdig Threat Research Team entdeckte kürzlich eine ausgeklügelte Cloud-Operation, genannt Scarleteel, welche in einer Kundenumgebung, zum Diebstahl geschützter Daten führte. Der Angreifer nutzte eine containerisierte Arbeitslast aus und verschaffte sich so Zugang zu einem AWS-Konto, um geschützte Software und Anmeldeinformationen zu stehlen.

  • Den richtigen Cloud-Service-Anbieter auswählen

    Vorschriften zur Datenhoheit, wie der Data Governance Act in Europa, können für Unternehmen eine Herausforderung darstellen. Eine der Hauptschwierigkeiten besteht darin, den Überblick darüber zu behalten, wo Daten gespeichert sind. Zudem müssen Unternehmen sicherstellen, dass die Speicherung mit den lokalen Datenschutzbestimmungen übereinstimmt.

  • Compliance vs. oder sogar mit IT-Sicherheit?

    Kleine und mittelständische Unternehmen (KMU) sehen sich seit Jahren mit Cyberattacken konfrontiert, die vor allem auf ihre Daten abzielen. In den letzten Jahren hat sich diese Perspektive dahingehend geändert, dass sie sich mit immer mehr Ransomware-Bedrohungen auseinandersetzen müssen. Beispiele dafür lassen sich so viele finden, dass sie nicht einzeln erwähnt werden müssen, allerdings sind in jüngster Zeit bereits Fahrradhersteller, Chemieproduzenten oder Nachrichtenmagazine darunter zu finden.

  • Data Act könnte schon 2024 in Kraft treten

    Wir erleben es jeden Tag: Datenmengen steigen ins Unermessliche. Die Prognose der EU-Kommission erwartet allein in der EU zwischen 2020 und 2030 einen Anstieg des Datenflusses in Cloud- und Edge-Rechenzentren um 1500 Prozent - kein Tippfehler. Entsprechend riesig ist das wirtschaftliche Potential, denn Daten sind der zentrale Rohstoff etwa für das Internet of Things.

  • Mit richtiger Unterstützung zum MSSP-Erfolg

    Auch kleine und mittlere Unternehmen (KMU) benötigen heute eine ganzheitliche IT-Sicherheitsstrategie, inklusive einer 24/7-Überwachung durch ein Security Operations Center (SOC). Sie verfügen aber meist nicht über die nötigen personellen und finanziellen Ressourcen, um diese Aufgabe selbst zu stemmen. Mit den richtigen Managed-Security-Angeboten schließen Reseller diese Lücke.

  • Keine Bestnoten für Deutschlands Rechenzentren

    Rechenzentren werden geplant, gebaut, in Betrieb genommen und dann viele Jahre lang mehr oder minder unverändert genutzt. Doch die Anforderungen der betreibenden Unternehmen, die technologischen Möglichkeiten und die gesetzlichen Rahmenbedingungen ändern sich im Laufe der Zeit. Um böse Überraschungen zu verhindern, Kosten zu sparen und Risiken zu vermeiden, ist es notwendig, Defizite in Bestandsrechenzentren zu entfernen und Optimierungspotentiale zu nutzen. Hierzu sollten Rechenzentren regelmäßig einer ganzheitlichen Betrachtung unterzogen werden.

Wir verwenden Cookies um unsere Website zu optimieren und Ihnen das bestmögliche Online-Erlebnis zu bieten. Mit dem Klick auf "Alle akzeptieren" erklären Sie sich damit einverstanden. Erweiterte Einstellungen