Datengravitation überwinden

Bild: Pixabay/Jiří Rotrekl

Typography
  • Smaller Small Medium Big Bigger
  • Default Helvetica Segoe Georgia Times

Die Überwindung der Datengravitation ist eine Frage der Geschwindigkeit und erfordert eine Abkehr von der Infrastruktur des 20. Jahrhunderts hin zu einer modernen Speicherplattform.

Die Legende besagt, dass Sir Isaac Newton die Schwerkraft entdeckte, als ein Apfel von einem Baum fiel und ihn am Kopf traf. Dies führte schliesslich zu seiner Theorie, dass jedes Teilchen jedes andere Teilchen im Universum mit einer Kraft anzieht, die direkt proportional zum Produkt ihrer Massen ist. Was hat das nun mit Daten zu tun? Auch wenn Daten keine Anziehungskraft im wissenschaftlichen Sinne haben, so ist dies doch eine nützliche Methode, um über moderne Daten und datenintensive Anwendungen, wie z. B. Analyseanwendungen, nachzudenken – insbesondere im Kontext der digitalen Transformation. Für Storage ist die Überwindung der Datengravitation ein zentrales Anliegen.

Eine Konsequenz des Datenvolumens

Der Begriff „Datengravitation“ wurde erstmals vom Softwareentwickler David McCrory geprägt und bezieht sich auf die Beziehung zwischen Daten und Anwendungen. Ähnlich wie die Anziehungskraft zwischen Objekten, die durch das Gesetz der Schwerkraft erklärt wird, werden Daten und Anwendungen voneinander angezogen. Je grösser die Datensätze werden, desto mehr Anziehungskraft üben sie aus, so dass sie schwieriger, ineffizienter und teurer zu bewegen sind. Das Ergebnis ist, dass Daten stationär bleiben, während Anwendungen zu ihnen hingezogen werden. Ein Beispiel für die Schwerkraft von Daten in Bewegung ist Dropbox, das als einfacher Dateispeicherdienst startete. Als der Dienst jedoch wuchs und allgegenwärtig wurde, mussten Anwendungen von Drittanbietern aufgrund der riesigen Menge an strukturierten und unstrukturierten Daten, die er beherbergt, schliesslich mit ihm kompatibel werden.

Big Data bringt grosse Herausforderungen mit sich

Es wird oft gesagt, dass wir uns im Informationszeitalter befinden. Dennoch ist uns manchmal nicht bewusst, wie unsere zunehmende Abhängigkeit von Big Data zu einem exponentiellen Wachstum der Datenmengen führt. Laut Forbes wird die Menge der erstellten, erfassten, kopierten und verbrauchten Daten zwischen 2010 und 2020 von 1,2 Billionen Gigabyte auf 59 Billionen Gigabyte ansteigen – eine Zunahme von fast 5.000 Prozent. IDC schätzt, dass die in den nächsten drei Jahren erzeugte Datenmenge grösser sein wird als die in den letzten 30 Jahren erzeugte. Mobile Geräte und das Internet der Dinge generieren einen Grossteil dieser Daten, die irgendwo gespeichert werden müssen. Gleichzeitig sind neue datenintensive Anwendungen wie Analytik und maschinelles Lernen auf die grossen Datenmengen angewiesen, die zunehmend an Orten gespeichert werden, die nicht immer leicht in der Cloud zentralisiert werden können. Das gleichzeitige Wachstum der Datenproduktion und der Datennachfrage hat ein Problem der Datengravitation geschaffen, das einfach nicht zu übersehen ist. In allen Branchen haben IT-Verantwortliche mit enormen Mengen unstrukturierter Daten zu kämpfen, die immer schwerer zu verwalten sind und von modernen datenintensiven Anwendungen kaum noch genutzt werden können. Dies behindert die Innovation, schränkt die Leistung ein und verringert die Produktivität.

Auf dem Weg zur Modern Data Experience

Da das Verschieben von Daten keine einfache Aufgabe ist, besteht eine gängige Strategie darin, Prozesse und Systeme an die dadurch entstehende Schwerkraft anzupassen. Viele Anbieter von herkömmlicher Infrastruktur haben Architekturen wie Data Lakes entwickelt. Diese Ansätze konzentrieren sich jedoch mehr auf die effiziente Speicherung der Daten als auf deren optimale Nutzung. Dieser Ansatz ist jedoch keine tragfähige, langfristige Strategie. Stattdessen müssen IT-Architekturen so konzipiert werden, dass sie die Realität der Datengravitation widerspiegeln. Die Überwindung der Datengravitation ist nach Meinung von Pure Storage eine Frage der Geschwindigkeit. Das bedeutet, dass man sich von der Infrastruktur des 20. Jahrhunderts und den ausufernden Datensilos verabschieden und die Zeit und den Abstand zwischen den zu verarbeitenden Datensätzen verkürzen muss. Eine einheitliche, schnelle Datei- und Objektspeicherplattform (Unified Fast File and Object, UFFO) beseitigt die Herausforderung der Datengravitation, indem sie sowohl herkömmliche Workloads als auch Anwendungen der nächsten Generation unterstützt und gleichzeitig die erforderliche Skalierung, Leistung und Flexibilität bietet.

Eine moderne Speicherplattform bietet mehrere Vorteile

  1. Geschwindigkeit: Mit einer UFFO-Plattform werden Analysetools vom Ingest bis zur Visualisierung für Echtzeit-Ergebnisse in beliebigem Umfang unterstützt. Eine UFFO-Speicherplattform bietet einen enormen Durchsatz zur Beschleunigung aller Aspekte von KI-Workflows und Datenanalyse-Pipelines – und das in jedem Massstab.
  2. Einfachheit: Big Data kann mit skalierbarer, effizienter Datenspeicherung erschlossen werden, die sowohl von Benutzern als auch von Anwendungen einfach genutzt werden kann. Die Rechenleistung ist vom Speicher getrennt und bietet eine effiziente Plattform für das Hosten mehrerer Analyseanwendungen, die gleichzeitige Unterstützung einer grossen Anzahl von Benutzern und die einfache Skalierung mit dem
  3. Datenwachstum. Mit anderen Worten: Effizienzhemmende Datensilos lassen sich aufbrechen.
    Cloud Everywhere: Analysen können überall entwickelt und bereitgestellt werden, um einen besseren ROI für Datenverarbeitung und Storage zu erzielen. Unternehmen erhalten die Kontrolle und Effizienz von On-Premises-Lösungen und können sowohl herkömmliche als auch Cloud-native Anwendungen mit Konsistenz und Leistung ausführen. All dies erfolgt mit den wirtschaftlichen Vorteilen des Cloud-Nutzungsmodells durch Storage as-a-Service.
  4. Flexibles Speicherabonnement: Unternehmen können Innovationen beschleunigen, indem sie kostspielige, komplexe Forklift-Upgrades oder Datenmigrationen vermeiden und gleichzeitig die Flexibilität erhalten, Budgets in den Computing-Bereich umzuleiten. Ein flexibles Speicherabonnement bietet einen innovations- und cloudübergreifenden Ansatz, der den Einkauf vereinfacht und Budgets für Bereiche freisetzt, die für Analysen vor Ort oder in der Cloud entscheidend sind.

www.purestorage.com

Wir verwenden Cookies auf unserer Website. Einige von ihnen sind für den Betrieb der Website von wesentlicher Bedeutung, während andere uns dabei helfen, diese Website und die Benutzererfahrung zu verbessern (Tracking-Cookies). Sie können selbst entscheiden, ob Sie Cookies zulassen möchten oder nicht. Bitte beachten Sie, dass Sie möglicherweise nicht alle Funktionen der Website nutzen können, wenn Sie sie ablehnen.