Einen immer wichtigeren Produktionsfaktor stellen Daten dar. Allerdings besitzen die Daten je nach Eigenschaft und Sicherheitsklasse eine gewisse Trägheit, die sogenannte Data Gravity. Damit ein Unternehmen Daten außerhalb der eigenen IT-Infrastruktur kontrolliert verarbeiten kann, sind neue Storage-Konzepte notwendig.
Autor: Roman Isheim, 06.04.2018, Thema: Data Gravity
Kurznavigation in diesem Beitrag:
Seite 1 Beitrag / Diskussionsgrundlage
Seite 2 Am nächsten persönlichen Erfahrungsaustausch teilnehmen
Seite 3 Kostenloses PDF-Angebot zum Artikel
Seite 4 Personalbedarf oder Jobsuche melden
Seite 5 Artikel mitgestalten, Fragen stellen, Erfahrungen teilen
Was ist Data Gravity überhaupt?
Der Begriff Data Gravity stammt von dem Blogger Dave McCrory und bezeichnet das Phänomen, dass die größten Datensammlungen auch die größte Anzahl an Systemen, Features und Software um sich herum versammeln. Kurz gesagt ziehen die Unternehmen, die bereits viele Kundendaten (und Kunden) haben, auch immer mehr Features und Drittanbieter an. Je größer das Datenvolumen wird, desto größer wird auch seine Anziehungskraft. Die Data Gravity führt dazu, dass Datenbestände an der bestehenden Infrastruktur „kleben“ bleiben. Dadurch verhindert sie bereits das einfache Verschieben von Daten und erschwert den effizienten Einsatz von Cloud-Ressourcen.
Was sind die Gründe für die Data Gravity?
Daten verfügen je nach Typ und individueller Sicherheitsklasse über eine bestimmte Trägheit. Die sogenannte Data Gravity macht die Daten unterschiedlich beweglich. Gründe dafür sind:
- die Latenz des Zugriffs auf die Daten
- der Durchsatz und die Bandbreite für den Zugriff auf die Daten
- die Größe der Datenbestände
- die Möglichkeiten der Kontrolle über die Daten
- der Zugriff von mobilen oder lokalen Apps und Cloud-Services
- die Erfüllung rechtlichter Rahmenbedingungen
Anhand dieser Beispiele wird deutlich, wie Data Gravity entstehen kann und warum Informationen dadurch an die zugrundeliegende Infrastruktur gebunden werden. Für die IT-Experten wird es somit sehr schwer, Daten flexibel in die Cloud zu verschieben und bestehende Datensilos innerhalb der eigenen Organisation aufzulösen.
Hinweis: Unsere Berichte sind oft sehr ausführlich. Daher bieten wir an dieser Stelle eine Zusendung des Artikels im PDF-Format zur späteren Sichtung an. Nutzen Sie das Angebot um sich die Praxis-Impulse in Ruhe durchzulesen, Sie können hierfür auch einfach auf das PDF-Symbol klicken.
Wie kann die Data Gravity reduziert werden?
Um die Herausforderungen der Data Gravity meistern zu können, bietet sich eine Hybrid-Cloud-Architetkur an. Für eine hybride Cloud-Umgebung wird eine zentrale Datenmanagement-Plattform benötigt. Unternehmen werden bei dieser Lösung dabei unterstützt, bestehende Storage- und Datenmanagement-Architekturen mit einheitlichem Management und Monitoring auf hybride Cloud-Architekturen auszuweiten. Somit erhalten IT-Verantwortliche die Möglichkeit, um Data Gravity auszuhebeln.
Für eine Hybrid-Cloud-Architektur müssen jedoch erst einmal eine Reihe von Anforderungen erfüllt werden. Dazu zählt die dynamische Datenportabilität, um Datenbestände sicher und in einer vorgegebenen Zeit mithilfe von Replizierungstechnologien zwischen Cloud-Umgebungen zu transferieren. Außerdem sollte die Möglichkeit bestehen unter verschiedenen Public-Cloud-Anbietern wählen zu können. Hierbei ist zu beachten, dass die Daten tatsächlich portabel bleiben und es nicht zu einem Vendor Lock-in kommt. Des Weiteren sollten die eigenen IT-Systeme an alle genutzten Cloud-Umgebungen auf Basis standardisierte Protokolle und Schnittstellen einheitlich angebunden sein.
Ein Hybrid-Cloud-Szenario bietet daher eine gute Grundlage, um Herausforderungen im Zuge der Data Gravity zu bewältigen. Zu den Herausforderungen zählen unter anderem die Verringerung der Latenz, die Erhöhung der Zugriffskontrolle, die Sicherstellung von Governance , die Stabilisierung der Performance sowie die Einhaltung von Compliance-Richtlinien und Gesetzesvorgaben.