ICT-News Dach

Scheitervermeidungsstrategie

Holm Landrock

Wenn Big-Data-Projekete scheitern, dann hat es oft den einzigen Grund - nämlich, dass das Pferd vom Schwanz her aufgezäumt wurde. Wir haben schon in den frühen Jahren des Big-Data-Hypes festgestellt: Big-Data-Projekte müssen in einem Top-Down-Approach mit dem Verständnis, dem Willen und der durchgehenden Rückendeckung der Geschäftsführung aufgesetzt und umgesetzt werden. Alleingänge der Fachabteilungen sind als eher schädlich zu erachten, auch wenn sie vielleicht schnelle plakative (allerdings eben auch sehr oberflächliche, kurzlebige) Erfolge mit Self-Service-BI-Versuchen liefern. Schädlich sind diese Versuche, weil sie alle Gefahren der Schatten-IT, vom Wildwuchs der IT angefangen, bis hin zu einer erhöhten Gefährdungslage für die Sicherheit der unternehmensweiten IT-Infrastrukturen, mit sich bringen. Die immer schnellere Abfolge der Technologie-Hype-Cycles birgt außerdem die Gefahr in sich, dass die Anwender gar keine Zeit mehr haben, sich überhaupt ausführlich und in vernünftigen Investitionszeiträumen mit einer Technologie zu beschäftigen. Die Hype Cycles ordnen lediglich die aktuell in Entwicklung befindlichen Technologien – sie sind keineswegs Dogma für deren baldmöglichste Umsetzung.

Bereits zu Beginne des Big-Data-Hypes - vielleicht erinnern Sie als langjährige Leserin und langjähriger Leser dieses Newsletters daran - haben wir den notwendigen Kulturwandel beschworen. In Kürze: Wir haben gesagt, dass Big-Data-Projekte von der Unternehmensführung getragen und gesteuert werden müssen, damit das Ziel neuer Geschäftsmodelle auf der Basis neuer Erkenntnisse aus den Daten erreichbar wird.

Nicht alle Big-Data-Projekte, die wir bislang im Markt beobachten konnten, waren von Erfolg gekrönt. Vielfach scheiterten die Projekte daran, dass mit sehr optimistischer Technologiegläubigkeit eine verheißungsvolle Big Data Software beschafft worden ist. Allerdings standen weder die Daten in der geeigneten Form bereit, noch war so richtig klar, was eigentlich aus den Analysen herauskommen sollte. Vielfach betrat man mit dem Einsatz von Big Data Tools Neuland.

Empfehlungen für den Ablauf

Wir wollen deshalb kurz umreißen, wie Big-Data-Projekte gestaltet werden müssen, damit sie erfolgreich zum Ziel gebracht werden können.

Ausgangsbasis für den Erfolg von Big-Data-Projekten ist ein Geschäftsmodell. Dieses muss zuallererst im Big-Data-Projekt modelliert werden. Der Gegenstand dieses Geschäftsmodells kann allerdings aus den Fachabteilungen oder aus der IT heraus angeregt werden: Die Fachabteilung weiß, welche Analysen zu neuen Produkten führen können, und niemand weiß besser als die IT, welche Daten in welcher Menge im Unternehmen existieren. Vielleicht erinnern Sie sich an unser Beispiel einer anonymisierten und neutralisierten Analyse von Vertragsdaten auf ein Geodatum, um so eine Kaufkraftanalyse zu errechnen. Versicherer, Versorgungsunternehmen, Online-Handelsunternehmen und viele andere haben solche Daten. Das Problem beim ersten Gedanken: Zu oft sollen Big-Data-Analysen dazu dienen, den Kunden zu durchleuchten und diesem noch ein Produkt anzubieten. Das kann und darf aber nicht das einzige Ziel von Big-Data-Analysen sein. Wenn man die Daten auch losgelöst vom Verbraucher analysiert, können hier neue oder zumindest sehr viel feiner granulierte Erkenntnisse ein neues Geschäftsmodell entstehen lassen.

Haben sich die Anwender bereichsübergreifend, unternehmensweit und gegebenenfalls sogar supply-chain-übergreifend auf ein neues Geschäftsmodell geeinigt, müssen die Daten zusammengetragen und geeignete Datenmodelle erarbeitet werden. Wer hier voreilig darauf hofft, dass die Big-Data-Applikationen die Lösung mitliefern, wird mit seinem Projekt vermutlich scheitern. Graben Sie hier wirklich in die Tiefe und werfen Sie einen Blick auf Speichersysteme, die im Bestandsschutz mitlaufen, oder schauen Sie in Ihre Archive. Mit der Analyse der Daten wird sichtbar, welche Datenmodelle und Metadatenmodelle für die Big-Data-Analyse entwickelt werden müssen. Erst wenn die definiert sind, lohnt es sich überhaupt, einmal nach den entsprechenden Big-Data-Applikationen zu schauen.

Aus dem inzwischen recht unübersichtlichen Zoo an Big-Data-Lösungen (siehe ICT-Newsletter aus Kalenderwoche 4/2018) können Sie erst dann die geeigneten Lösungen ermitteln, wenn Sie Informationen über die Menge und die Art der zu verarbeitenden Daten und die Modelle erarbeitet haben.

Erst jetzt lohnt es sich, über die Implementierung dieser Modelle nachzudenken. In einem früheren Projekt legten die Anwender sehr früh fest, dass die Big-Data-Analysen bei einem Rechenzentrumsdienstleister mit den entsprechenden Big-Data-Fähigkeiten durchzuführen seien. Allerdings lagen dieser Vorgabe keinerlei der notwendigen Vorarbeiten zugrunde. Das an sich recht gut geplante Fachverfahren musste dann gründlich überarbeitet werden. Wenn beispielsweise mehrere hundert Gigabyte an Daten täglich neu entstehen, lohnt es sich, das Rechenzentrum zu den Daten zu bringen und nicht umgekehrt. Hier Planungen ohne die genannten Voraussetzungen zu beginnen, führt nur im Glücksfall zum gewünschten Ziel.

Erst wenn die ersten Stufen – Geschäftsmodell, Datenmodell, Applikationsmodell – feststehen, hat man auch genügend Informationen, um beispielsweise über eine Implementierung in der Cloud nachzudenken.

Leider werden die einfachen, grundlegenden Überlegungen nicht oder nicht in der richtigen Reihenfolge angestellt. Wir unterstützen Anwender wie auch Provider gerade auch im interessanten Umfeld der Implementierung von Big-Data-Services in der Cloud.

Bei Fragen hierzu stehen wir Ihnen gern zur Verfügung. Bitte schreiben Sie an holm.landrock@isg-one.com.