Moderne Datenflut ebbt nicht ab

Typography
  • Smaller Small Medium Big Bigger
  • Default Helvetica Segoe Georgia Times

Über die rapide steigende Masse und Bedeutung von Daten für Unternehmen wurde schon viele Male berichtet. Unklar bleibt aber oft, was sich daraus ableitet. Pure Storage, als Experte für Data Management täglich mit diesem Phänomen konfrontiert, erläutert die Aspekte, Voraussetzungen und Potentiale moderner Datenanalytik.

Eine moderne Datenanalysestrategie ist entscheidend, um den grösstmöglichen Nutzen aus den Daten zu ziehen. Viele Unternehmen tun sich aber schwer damit, Daten richtig einzusetzen. Zum Beispiel versuchen 60 Prozent der Unternehmen, zwischen vier und neun unverbundene Datensilos zu integrieren. Ohne die richtige Grundlage kann das eine echte Herausforderung sein.

Warum in Datenanalyse investieren?

In einem aktuellen Forschungsprojekt hat Pure Storage zusammen mit der Enterprise Strategy Group (ESG) die Vorteile für Unternehmen untersucht, die in Analytik investieren, im Vergleich zu denen, die das nicht tun. Die Studie brachte einige faszinierende Erkenntnisse zutage und zeigte, dass Unternehmen mit den ausgereiftesten Datenanalysefähigkeiten der Konkurrenz einen Schritt voraus sind. Im Vergleich zu Unternehmen, die keine Datenanalysefähigkeiten nutzen, war es bei diesen Unternehmen 3,2-mal wahrscheinlicher, dass sie bei der Kundenzufriedenheit besser abschnitten, 2,4-mal wahrscheinlicher, dass sie den Umsatz pro Mitarbeiter in den letzten zwei Jahren steigern konnten und 2,7-mal wahrscheinlicher, dass sie eine kürzere Markteinführungszeit hatten.

Hindernisse für Analytik – vier zentrale Herausforderungen

Während die Vorteile einer Investition in eine ausgereifte Analytikplattform klar sind, gibt es mehrere Herausforderungen, die Unternehmen daran hindern, ihre Analytikziele zu erreichen. Erstens, und das ist die häufigste Herausforderung, geht es um die Leistung. Mit zunehmender Skalierung von Log-Analytic-Architekturen wird ihre Leistung immer schwerer vorhersehbar, was zu Verlangsamungen bei Suchanfragen und nachfolgenden Prozessen führt. Als verteiltes System, das eine grosse Menge an eingelesenen Daten verwaltet, hängt ein grosser Teil der Suchleistung von der Fähigkeit des Administrators ab, vorherzusagen, welche Daten abgefragt werden. Da Unternehmen jedoch ihre Pipelines weiterentwickeln und immer mehr Daten zur Gewinnung von Erkenntnissen nutzen, wird es für Administratoren immer schwieriger, genau vorherzusagen, welche Daten wo und wie lange vorhanden sein sollen. Wenn die Analytikplattform reift und mehr Daten aufnimmt, kann die Infrastruktur leicht überlastet werden und die Suchfunktionen in allen Bereichen beeinträchtigt werden. Dies kann zu einer Überbelegung der Infrastruktur und einer verminderten Effizienz führen, wie Pure Storage berichtet. Zweitens gibt es neben der unvorhersehbaren Performance auch Probleme mit der engen Kopplung von Compute und Storage, die traditionelle Log-Analytic-Implementierungen nutzen, was bei der Skalierung dieser Umgebungen zu Unterbrechungen und Komplexität führt. Wenn der Kapazitätsbedarf steigt, sind Kunden gezwungen, auch unnötige Rechenressourcen einzusetzen und erleben langwierige und aufwändige Rebalancing-Prozesse. Wenn ein Kunde seine Rechenressourcen erweitern muss, ist er gezwungen, auch die Kapazität zu erweitern, egal ob er sie braucht oder nicht. Drittens sind die Teams, die Log-Analytic-Anwendungen betreiben und verwalten, oft nicht dieselben, die auch die Infrastruktur verwalten. Aus diesem Grund kommt es oft zu dramatischen Auswirkungen auf Datenpipelines in Form von Leistungsproblemen, überlasteten Ressourcen oder Ausfällen. Die Anwendungseigentümer haben Mühe, die Anforderungen an ihre Systeme zu erfüllen, weil die Infrastruktur nicht ausreicht. Die Infrastrukturteams wiederum verstehen die Anforderungen und die Dynamik der Anwendungen nicht, um sich schnell an die sich ständig ändernden Anforderungen anzupassen.

Daten müssen hart arbeiten – wie bei Domino´s

Da Unternehmen mit noch grösseren Herausforderungen und einem noch stärkeren Wettbewerb konfrontiert sind als zuvor, gibt es nicht viel, bei dem Analytik nicht helfen kann, um Unternehmen voranzubringen. Überall auf der Welt machen Unternehmen Investitionen in Datenanalytik zu einer Top-Priorität. Ihre Ziele: Steigerung der Effizienz, der Produktbereitstellung und der Markteinführungszeit, Steigerung des Geschäftsumsatzes und Verbesserung der Kundenzufriedenheit und -bindung. Ein gutes Beispiel dafür ist Domino´s Pizza. Dan Djuric, Global Infrastructure and Enterprise Information Management bei Domino's, erklärt: „Unsere Daten arbeiten genauso hart wie unsere Lieferfahrer. Es dreht sich alles um Geschwindigkeit, also die Fähigkeit, Daten aufzunehmen, sie zu analysieren und sie in verwertbare Kanäle zurückzuspeisen.“ Dies ist ein Beweis für die Vorteile der Datenanalytik und dafür, wie eine konkrete Datenstrategie dem Unternehmen hilft, ständig zu lernen und sich an die Kundenwünsche anzupassen. Viele Unternehmen haben ihre Analysefähigkeiten durch das Erfassen von „Big Data“ erweitert, um neue Geschäftsmöglichkeiten zu erforschen. Zukunftsorientierte Unternehmen sind diejenigen, die diese Fähigkeiten beschleunigen, indem sie über das Experimentieren mit Analysen hinausgehen und zu ausgereifteren Investitionen und Fähigkeiten übergehen.

Der Bedarf an Geschwindigkeit

Wenn es um Analytik geht, ist nach Erfahrung von Pure Storage vor allem Schnelligkeit gefragt. Das ist der Grund, warum viele Unternehmen auf die Leistung von All-Flash setzen, das in Verbindung mit der Fähigkeit, in mehreren Dimensionen zu skalieren, zukunftsorientierte Unternehmen in die Lage versetzt, die Geschwindigkeit verteilter Systeme mit der Einfachheit einer konsolidierten Plattform zu verbinden. Es geht auch um Skalierung. Die Fähigkeit, Kapazität, Leistung und Gleichzeitigkeit auf einer Unified Fast-File- und Object-Plattform (UFFO) zu skalieren, ermöglicht es Datenarchitekten, dasselbe System für eine Vielzahl von Analyseanwendungen zu nutzen. Das bedeutet, dass sich Datenwissenschaftler auf ihre Datenpipelines konzentrieren können, anstatt sich mit der dafür benötigten Infrastruktur herumzuschlagen. Darüber hinaus muss eine moderne Datenarchitektur, die für die Datenanalyse geeignet ist, die Investitionen des Kunden schützen und sicherstellen, dass er jetzt und auch in Zukunft innovativ sein kann, ohne unnötige, oft wiederkehrende Ausgaben. Wie jede andere geschäftskritische Anwendung kann sich auch eine Analytik-Pipeline keine Ausfallzeiten leisten. Jeder Ausfall, ob geplant oder ungeplant, wirkt sich nachteilig auf Analytik-Pipelines und Geschäftseinblicke aus. Aus diesem Grund suchen Unternehmen nach Lösungen, die eine Six-Nines-Verfügbarkeit übertreffen.

Das Rettungsboot der Analytik

Die Chancen der Datenanalytik sind gross. Während die Herausforderungen weiterbestehen, werden die technologischen Barrieren immer weiter abgebaut. Wenn Unternehmen im Zeitalter der modernen Datenflut das Gefühl haben, zu versinken, können sie auf Lösungen zurückgreifen, die zu ihrer Strategie passen. Wenn ihre Analytikfähigkeiten ausgereifter sind und sie bereits das Gefühl haben, dass sie obenauf schwimmen, statt unterzugehen, sind die Möglichkeiten nahezu unbegrenzt.