«Big Data» auch im Mittelstand

  Dr. Ulrich Kampffmeyer
«Big Data» auch im Mittelstand © Fractal Verlag/123rf.com

    Business-Intelligence-Software gewinnt auch im Mittelstand an Popularität. Aktuell werden neue Technologien wie «Big Data» diskutiert, mit denen Mittelständler zum Beispiel Liefermengen und Arbeitszeiten optimieren oder Verkaufsräume und Sortimente verbessern können. Dabei sollten allerdings die Daten der Betroffenen wirksam geschützt werden und die Datenverarbeitung nachvollziehbar bleiben. Dann aber schaffen Big-Data-Anwendungen neue Geschäftsmodelle und können eine Quelle für künftiges Wachstum werden.

    Software unterstützt die Entscheidungsprozesse in der Unternehmensplanung und -steuerung schon fast so lange, wie es Computer gibt. In manchen Bereichen gelingt das schon gut – in
    anderen müssen wir auf Verbesserungen durch den technischen Fortschritt hoffen. Im Planungsprozess selbst kommen längst Workflow-Instrumente und intelligente Funktionen, wie z. B. Datenallokationen oder Trendberechnungen, zum Einsatz. Ausgangsbasis für operative Entscheidungen und ihre fundierte Software-Unterstützung sind in der Regel die aktuellen Daten sowie Annahmen und Ziele für die Zukunft. Aufgrund der stetig wachsenden Menge aktueller Daten – Stichwort «Big Data» – wird es aber immer schwieriger, Wichtiges von Unwichtigem zu trennen, Zusammenhänge zu erkennen und Besonderheiten in den Datensätzen zu finden.

    Innovative Analysen und Algorithmen
    Diese Aufgaben muss in Zukunft durch entsprechende Analysen und Algorithmen verstärkt Business-Intelligence-Software übernehmen. Zudem können Tools für «Predictive Analytics» bereits heute Vorhersagen über Absätze in bestimmten Märkten machen und damit die Verfügbarkeiten der Produkte optimieren. Die Verlässlichkeit dieser Prognosen wird in Zukunft weiter zunehmen. Die technischen Möglichkeiten sind bereits ausgereift und differenziert; diese Differenzierung wird durch technische Innovationen laufend weiter vorangetrieben.

    Aber: Der Mensch vor dem Rechner bleibt entscheidend. Zum einen, weil die Planung oft langfristiger sein muss, als es Maschinen schon aus statistischen Gründen je vorausberechnen könnten. Zum anderen, weil auch die strategischen Entscheidungen des Managements berücksichtigt werden müssen. Von den Planungstools wünscht sich der Mensch vor dem Rechner in Zukunft mehr Transparenz, schnellere Reaktionsfähigkeit, eine höhere Datenqualität und mehr Zeitgewinn. Das Aufkommen neuer Werkzeuge für die Pflege von Planungsmodellen und die darin integrierten statistischen Funktionen zur Überprüfung der Modelle werden Wege ebnen, die ein kontinuierliches Feedback und die laufende Verfeinerung der Planung und ihre Anpassung an neue Gegebenheiten ermöglichen.

    Viele Fragen in der BI-Praxis
    In der BI-Praxis stellt sich mittlerweile die Frage, an welcher Stelle die entscheidungsrelevanten Informationen eingesetzt werden und wie diese Informationen konsumiert und angewendet werden können. Hier haben viele Unternehmen noch einigen Aufholbedarf, da BI oft nur einem kleinen Kreis ausgewählter Personen zur Verfügung steht und die eigentlichen Bedarfsträger nicht oder nicht ausreichend Zugriff auf die entscheidungsrelevanten Informationen haben. Dazu brauchen auch die nicht «BI-affinen» Nutzer ein Medium, mit dem sie entscheidungsrelevante Informationen jederzeit, sicher, einfach und schnell konsumieren können, ohne dass dafür ein komplexes BI-Tool erlernt werden müsste. Zwei Schlagworte mögen als Stellvertreter für diesen technischen Fortschritt im Bereich «Business Intelligence» dienen: In-Memory-Computing und Big Data.

    Allerdings führt Technik per se zu keiner Veränderung der Qualität der Unternehmensplanung und -steuerung. Es kommt vielmehr darauf an, wie Technik bzw. Innovation eingesetzt wird und welches Ziel mit der Anwendung neuer Technik verfolgt wird. Wieder sind es die Fragen «Wem nützt es?» und «Wer benötigt welche Information wie aufbereitet, damit bessere Entscheidungen getroffen werden als bisher?», die vor allen Überlegungen zur Anwendung dieser technischen Innovationen stehen.

    In-Memory-Computing wird wichtiger
    Technik ist immer nur ein Mittel zum Zweck, um gesteckte Ziele zu erreichen. Anders gesagt: Nicht alles, was technisch möglich ist, ist auch zweckmässig und sinnvoll. In-Memory-Computing beispielsweise ist alles andere als neu, wird aber tatsächlich immer relevanter. Denn Performance ist in der BI-Branche seit An-beginn ein Dauerthema – bei wachsenden Datenmengen ist In-Memory-Computing also eine notwendige Voraussetzung. Big Data mag ein Buzzword sein, das gerne auch mal für Lösungen verwendet wird, die man früher als grösseres Data Warehouse bezeichnet hätte. Wichtiger als dieses Schlagwort ist die zugrunde liegende Thematik. Wir leben bereits mitten im «Internet of Things» und sind täglich von einer Unmenge an Sensoren umgeben, die ständig Daten sammeln. Viele der so gewonnenen Daten werden oft auch gleich wieder verworfen. Soll auch nur ein Bruchteil davon aufgehoben und für Analysen verwendet werden, sind völlig neue BI-Lösungen gefragt. Lösungen, die mit diesen Datenmengen performant zurechtkommen, sie aber auch intelligent vernetzen. Und Lösungen, die sich vor allem sinnvoll steuern und verwalten lassen. Dabei gilt es, in allen Anwendungen die Privatsphäre der Menschen zu respektieren, die hinter diesen vielen Daten stehen, ihre Freiheitsrechte zu bewahren und Missbrauch zu verhindern. Diesem Ziel sollte ein Dreiklang aus Gesetzen, Selbstverpflichtungen und Leitlinien der Wirtschaft dienen. Dabei müssten der Nutzen von Anwendungen und der Schutz persönlicher Daten immer wieder neu abgewogen werden.

    Die Nadel im Heuhaufen
    Ziel von Big-Data-Analysen ist es, aus der Fülle der Daten die wirklichen wichtigen Informationen herauszukitzeln – also neue Zusammenhänge zu erkennen und Besonderheiten in den Datensätzen zu finden. Oft vermissen Mittelständler noch die Handlungsrelevanz der BI-Analysen und Reports, denn diese werden oft noch von Controllern für Controller gemacht. Controller können diese Informationen auch in der dargebotenen Form verarbeiten und im Rahmen ihrer Möglichkeiten anwenden. Nicht jeder Mitarbeiter eines Unternehmens, der Tag für Tag Entscheidungen treffen muss, verfügt aber über das Wissen und die Erfahrung eines Controllers bzw. BI-Spezialisten. Das bedeutet, dass Informationen so aufbereitet werden müssen, dass auch Herr und Frau Schweizer als User diese aufnehmen und verstehen können. Das ist schliesslich die Grundvoraussetzung dafür, dass der BI-User aus dieser Information auch die bessere – weil faktenbasierte – Entscheidung ableiten kann. Nur wenn dies gegeben ist, z. B. durch den Einsatz von einfach zu konsumierenden Informationsquellen, nur dann kann die Information ihren vollen Wert für das Unternehmen entfalten und den Mitarbeiter bei der Entscheidungsfindung unterstützen, seine Kreativität befeuern und seine Intuition stärken. Im Umkehrfall bleibt die relevante Information ungenutzt, weil sie nicht erkannt und verstanden wird. Einen grossen Beitrag dazu liefert die immer bessere grafische Aufbereitung von Daten, durch die wir, als visuelle Menschen, Informationen viel besser und schneller aufnehmen können als über die nackten Zahlen aus den bekannten mehrdimensionalen Würfeln. Unter dem Schlagwort «Natural Language Query» verbergen sich auch für Big Data neue, ungeahnte Möglichkeiten. Wie viel Handlungsrelevanz wäre gewonnen, wenn sich das BI-System so einfach bedienen liesse wie Google, Siri oder Cortana? Das beste Rezept für mehr Kreativität bleibt aber, dem Anwender genau dafür Zeit zu schenken – BI-Software muss also noch viel mehr Basisarbeit übernehmen!

    Soziale Netzwerke

     

    Fractal Verlag GmbH

      +41 61 683 88 76

      Diese E-Mail-Adresse ist vor Spambots geschützt! Zur Anzeige muss JavaScript eingeschaltet sein!