Mehr Geschäftserfolg mit der Datenfabrik

von Bernhard Steimel
23. November 2021

Mehr als ein Viertel (28 %) der Unternehmen besitzen eine Datenplattform für datengetriebene Geschäftsmodelle, hat eine aktuelle Studie zur Datenwirtschaft herausgefunden. Sie gehen den letzten Schritt der Data Journey: Die Skalierung des experimentellen Prototyps zum fertigen Produkt. Basis für die Industrialisierung ist die Technologie der Data Factory, zum Beispiel Cloud-Plattformen und eine einheitliche Cloud-Datenarchitektur. Zudem ist ein schlagkräftiges Data-Analytics-Team ein wichtiger Faktor bei der Skalierung von Datenprodukten.

Daten industrialisieren - von der Data Strategy über das Data Lab bis zur Data Factory
(Quelle)

Dieser Beitrag ist ein Auszug aus dem „Trendbook Smart Analytics“. Einen Überblick über den Inhalt gibt der Artikel Aus Daten Mehrwerte schaffen. Sie können das Trendbook außerdem direkt kostenlos herunterladen.

Die Data Factory aufbauen

Der erfolgreiche Aufbau einer Data Factory (Datenplattform) für die Industrialisierung von datenbasierten Produkten und Services geht auf eine Reihe von Faktoren zurück. Die Unternehmensberatung McKinsey hat sie in einer Studie zusammengefasst, die Vorreiter und Nachzügler miteinander vergleicht.

Vorreiter bei der Industrialisierung der Data Factory zeichnen sich dadurch aus, dass Geschäftsführung und Management ihre Führungsaufgabe auch bezüglich der Vision und Strategie von Data Analytics erfüllen. Zudem setzen sie in der Anfangsphase möglichst viele (3+) Use Cases um und erhöhen dafür in der IT-Organisation und den Fachbereichen die Budgets für Data Analytics. Und sie geben einen deutlichen Teil des Budgets dafür aus, um Data Analytics in Form einer Datenkultur in das Unternehmen einzubetten.

Das vollständige Trendbook als kostenloses E-Book herunterladen.

Eine erfolgreiche Data Factory zeichnen sich demnach durch die folgenden vier Schlüsselelemente aus:

  • Eine Daten-Ontologie zur begrifflichen Klarheit bei der Kommunikation über die vorhandenen Daten.
  • Ein Stammdaten-Modell für alle Schlüsselbereiche im Unternehmen, etwa Kunde, Produkt, Standort, Mitarbeiter.
  • Eine klare Data Governance. Sie muss festlegen, wer für Qualität und Pflege der Daten verantwortlich ist und welchen Kategorien und Wertebenen die Daten angehören. Dazu gehört etwa die Unterscheidung nach geschäftskritischen und nicht-kritischen Daten.
  • Ein umfassender Anforderungskatalog für die technische Datenumgebung. Sie muss dafür sorgen, dass die Daten automatisch und kontinuierlich aktualisiert werden. Dazu gehören auch technische Möglichkeiten für das Management von Datenmodellen, um sie kontinuierlich zu pflegen und zu verbessern.
  • Unternehmen sollten ihre Systeme und Anwendungen so organisieren, dass die richtigen Personen Zugriff auf Daten haben. Nur dann können sie schnelle Entscheidungen treffen.
Eine Datenplattform mit KI nutzen
YouTube

Mit dem Laden des Videos akzeptieren Sie die Datenschutzerklärung von YouTube.
Mehr erfahren

Video laden

Die Ergo Gruppe hat für ihre Daten eine strategische Entscheidung getroffen: Sie nutzt eine einheitliche Datenplattform mit der Bezeichnung „AI Factory“. Sämtliche internen Daten von allen Versicherungsmarken sowie eine Vielzahl von externen Daten wie Wetter oder Marktanalysen werden in einem Cloud-Speicher zusammengeführt.

Dort stehen sie über einheitliche Schnittstellen allen Teams für die Modellierung und Operationalisierung zur Verfügung. Das erlaubt Data Scientists und Data Engineers einheitliche Entwicklungsprozesse für neue Datenprodukte. Dadurch ist es möglich, Data Analytics und KI-Anwendungen auf einfache Weise zu skalieren.

Doch die technologische Basis der Datenplattform muss stimmen. So sollte sie von Anfang an auf Skalierung ausgerichtet sein. Zudem muss sie den Aspekt der Industrialisierung von datenbetriebenen Geschäftsmodellen berücksichtigen. Ein Beispiel: In vielen Unternehmen werden Proof-of-Concepts mit Sprachen wie Python entwickelt. Solche Entwicklungsumgebungen eignen sich meist nur für Prototypen. Für die Industrialisierung müssen die Produkte das Lab verlassen und mit entsprechend großvolumigen technischen Systemen umgesetzt werden. Eine effiziente Lösung dafür sind Cloud-Angebote für Data Analytics und KI, die sich gut zur Skalierung eignen. (Quelle)

Das Data Analytics Team gründen

Für gute Ergebnisse ist ein kooperativer Ansatz erforderlich. Das bedeutet, dass einige Unternehmen sich neu um die Datenplattform herum organisieren müssen. Sinnvoll sind gemischte Teams, in denen Fachexperten, kaufmännische Experten, IT-Fachexperten, Spezialisten, Data Scientists, Dataingenieure und Entwickler gemeinsam an einem Problem arbeiten.

Rollen und Aufgaben im Data-Analytics-Team
YouTube

Mit dem Laden des Videos akzeptieren Sie die Datenschutzerklärung von YouTube.
Mehr erfahren

Video laden

Die Teams müssen Daten auswerten, transformieren, korrelieren, verknüpfen und interpretieren. Dabei haben die Analytics-Spezialisten spezifische Aufgaben:

Data Scientists besitzen das heute geforderte Know-how in der Analyse und Manipulation von Daten. Sie kennen sich mit Machine Learning aus, sodass sie aus Daten Schlüsse ziehen und Vorhersagen treffen können. Sie sind diejenigen Experten, die Datenmodelle aufbauen, Trainingsdaten auswählen und Algorithmen anpassen.

Data Engineers konzentrieren sich auf die technischen Abläufe der Modelle und Algorithmen. Sie sind oft mit dem Lösen spezifischer Probleme beschäftigt. Sie arbeiten sehr eng mit den Data Scientists zusammen und sorgen dafür, dass Machine Learning erfolgreich wird.

Data Architects sind die Schnittstelle zwischen den Fachbereichen und den beiden anderen Rollen. Sie haben einen ganzheitlichen Blick auf die unterschiedlichen Datenprojekte. Sie steuern ihre Entwicklung, designen die KI-Lösungen und berichten den Fachexperten und Managern im Unternehmen. Als Übersetzer zwischen Analytics und Business beschreiben sie Business-Probleme in Analytics-Terminologie. Zudem interpretieren sie Ergebnisse für das Management, sodass es bessere Entscheidungen treffen kann.

Die Bedeutung der einzelnen Rollen in Data-Science-Teams wächst stark an, da die Leistungsfähigkeit der KI-Anwendungen deutlich steigt. Unter Umständen sind KI-Systeme sogar besser als Menschen. Dafür müssen Data Scientists und Data Engineers allerdings viel Know-how in das Training der KI-Modelle investieren.

So gibt es unterschiedliche Sprachmodelle wie BERT oder GPT-3 sowie einige Varianten davon. Besonders interessant ist ein Sprachmodell, das Textzusammenfassungen schreibt. Für sein Training wird auch menschliches Feedback genutzt. Menschliche Leser bewerten dabei die Qualität von Zusammenfassungen. Der auf diese Weise entstandene Datensatz wird als Bewertungsfunktion für einen Textgenerator genutzt, der Zusammenfassungen schreibt.

Nur Sammeln reicht nicht, der Nutzwert steigt mit der Komplexität der Operationen

Mit Datenplattformen Mehrwert schaffen

Mehrwerte entstehen nicht ohne weiteres aus den Daten. Entlang der Datenwertschöpfungskette müssen verschiedene Herausforderungen gemeistert werden.

Collect

Daten werden lediglich gesammelt und visualisiert. Es geht in erster Linie darum, Daten über Sensorik zu ermitteln und alle Datenquellen online zu bringen, um überhaupt Daten zu erhalten.

Fahrzeugdaten auf einer Plattform sammeln
YouTube

Mit dem Laden des Videos akzeptieren Sie die Datenschutzerklärung von YouTube.
Mehr erfahren

Video laden

CARUSO ist ein neutraler, offener und sicherer Marktplatz für Mobilitätsdaten. Die Plattform ermöglicht es Dritten, Daten zu nutzen, die über mehrere Fahrzeughersteller hinweg standardisiert sind. Darüber hinaus gewährleistet die integrierte Technologie für das Einwilligungsmanagement den Datenschutz, indem sie den Fahrzeugnutzern die volle Kontrolle über die gemeinsame Nutzung von Daten gibt. 

Damit versetzt CARUSO seine Kunden in die Lage, auf einfache Weise lebensverbessernde Lösungen auf der Grundlage von Daten aus vernetzten Fahrzeugen zu entwickeln. Die Vision des Unternehmens ist es, als die bessere Plattform für Autodaten Innovationen freizusetzen.

Integrate

Die gesammelten Daten werden mit Informationen aus anderen Datenquellen zusammengeführt, beispielsweise die Integration mit Prozessdaten aus einem ERP-System oder Marketingdaten aus einer CRM-Anwendung.

Stromverbrauch präzise ermitteln
YouTube

Mit dem Laden des Videos akzeptieren Sie die Datenschutzerklärung von YouTube.
Mehr erfahren

Video laden

Die Polygonvatro GmbH aus Olpe saniert Brand- und Wasserschäden. Der Energieverbrauch der Trocknungsgeräte wird für die Abrechnung mit der Gebäudeversicherung präzise erfasst. Vernetzte Strom-Messboxen senden die Daten in die Cloud, so dass die Abrechnung automatisiert erzeugt wird. Sie bieten präzises Erfassen der Energieverbrauchswerte von Geräten. 

Digitale Daten werden unkompliziert aus der Cloud übernommen und für einen Energienachweis genutzt. Die zugrunde liegende Connected Things Integrator (CTI) Strom-Messbox kann ferner die Betriebs- und Positionsdaten von Baugeräten aufzeichnen und mit den Geschäftstätigkeiten der Akteure vernetzen – passgenau für alle Kundenbedürfnisse.

Analyse

In den Daten werden Trends und Muster erkannt, sodass sie für weitergehende Erkenntnisse genutzt werden können. Dazu gehört beispielsweise die Auswertung von gesammelten Fehlermeldungen, um Aufschlüsse über den Status von Maschinen zu erhalten.

Optimierte Wartung von Rolltoren
YouTube

Mit dem Laden des Videos akzeptieren Sie die Datenschutzerklärung von YouTube.
Mehr erfahren

Video laden

Die Seuster KG in Lüdenscheid produziert Schnelllauftore. Für ihren datengetriebenen Service Smart Control nutzt sie ein Onlineportal, mit dem Unternehmen ihre Tore technisch überwachen können – jederzeit und von jedem Ort aus. Sogar die Fernsteuerung ist möglich. Das Unternehmen erreicht dieses datengetriebene Geschäftsmodell mit der durchgängigen digitalen Vernetzung der Produkte. 

In Kooperation mit der Deutschen Telekom werden die Torinformationen in ein Rechenzentrum in Deutschland übermittelt und im SmartControl Onlineportal angezeigt. Bei der Diagnose werden aktuelle Informationen wie Ausfälle oder Fehlermeldungen ausgelesen. Parallel werden auch die Lastwechsel aller Tore digital erfasst. Die Daten ermöglichen unter anderem eine vorbeugende Instandhaltung und eine rechtzeitige Planung der UVV-Prüfungen.

Use

Datennutzung heißt, die Daten als Produkt zu interpretieren. Sie erweitern und ergänzen vorhandene Geschäftsmodelle oder bilden sogar eigene Geschäftsmodelle wie beispielsweise As-a-Service-Konzepte. Diese sind nur möglich, weil in allen vorherigen Wertschöpfungsstufen wichtige Daten zusammengeführt wurden.

Risikomanagement für die Supply Chain
YouTube

Mit dem Laden des Videos akzeptieren Sie die Datenschutzerklärung von YouTube.
Mehr erfahren

Video laden

Supply-Chain-Risikomanagement hilft bei der Bewertung aller Risiken in mehrstufigen und vernetzten Lieferketten. Everstream Analytics (ehem. DHL Resilience360) kann auf Grundlage von DHL-eigenen und externen Daten das Risiko von Lieferkettenunterbrechungen vorhersagen und bewerten. Informationen für die Visualisierung der Lieferkette und die Einhaltung von Handelsbestimmungen lassen Lieferkettenunterbrechungen nahezu in Echtzeit erkennen.

Das vollständige Trendbook als kostenloses E-Book herunterladen.

Zentrale Herausforderung ist die agile Software-Entwicklung und die kontinuierliche Bereitstellung der Dienste auf einer skalierbaren und sicheren Cloud-Plattform. Nutzt Ihr Unternehmen bereits eine Datenplattform in der Cloud? Wie ist die Data Journey gestaltet? Schreiben Sie uns oder hinterlassen Sie einen Kommentar.

Schreiben Sie einen Kommentar

Ähnliche Beiträge