Datenplattformen: Erfolg mit datengetriebenen Geschäftsmodellen

von Bernhard Steimel
24. Oktober 2023

Mehr als ein Viertel (28 %) der Unternehmen besitzen eine Datenplattform für datengetriebene Geschäftsmodelle, hat eine Studie zur Datenwirtschaft herausgefunden. Ein solches datengetriebenes Geschäftsmodell basiert darauf, Daten zu sammeln, zu analysieren und zu nutzen, um Werte zu schaffen. Unternehmen treffen damit Entscheidungen, die auf Datenanalysen basieren statt auf Intuition. Ihr Ziel ist, durch datenbasierte Erkenntnisse einen Wettbewerbsvorteil zu erlangen.

Hinweis: Dieser Beitrag vom 23.11.2021 ist im Oktober 2023 überarbeitet worden.

Sie gehen damit alle Schritte der Data Journey: Die Skalierung des experimentellen Prototyps zum fertigen Produkt. Basis für die Industrialisierung ist die Technologie der Data Factory, zum Beispiel Cloud-Plattformen und eine einheitliche Cloud-Datenarchitektur. Zudem ist ein schlagkräftiges Data-Analytics-Team ein wichtiger Faktor bei der Skalierung von Datenprodukten. 

Der Inhalt dieses Beitrags:

Daten industrialisieren - von der Data Strategy über das Data Lab bis zur Data Factory
(Quelle)

Dieser Beitrag ist ein Auszug aus dem „Trendbook Smart Analytics“. Einen Überblick über den Inhalt gibt der Artikel Aus Daten Mehrwerte schaffen. Sie können das Trendbook außerdem direkt kostenlos herunterladen.

Den Kundenkontakt gestalten

Ein datengetriebenes Geschäftsmodell beeinflusst die Interaktion eines Unternehmens mit seinen Kunden in mehrfacher Hinsicht:

  1. Personalisierung: Unternehmen erzeugen Kundenprofile und passen damit Angebote individuell an die Vorlieben und Bedürfnissen des Kunden an.
  2. Verbesserte Kundenerfahrung: Durch die Analyse von Daten erkennen Unternehmen Engpässe und Schwachstellen im Kundenservice.
  3. Vorausschauende Dienstleistungen: Daten erlauben es, Trends und Verhaltensmuster zu erkennen, um Produkte vorausschauend anzubieten.
  4. Kommunikation: Unternehmen entscheiden datenbasiert, wann, wie und über welchen Kanal sie mit ihren Kunden kommunizieren.
  5. Transparenz und Vertrauen: Datennutzung bedeutet Verantwortung und Transparenz über die Nutzung, damit bei den Kunden Vertrauen entsteht.

Insgesamt ermöglicht ein datengetriebenes Geschäftsmodell Unternehmen, ihre Kunden besser zu verstehen und effektiver mit ihnen zu interagieren. 

Die folgenden Abschnitte erörtern die Bedeutung einer Data Factory für datengetriebene Geschäftsmodelle und nennen die Schlüsselelemente einer erfolgreichen Datenplattform. Ebenso wichtig für den Erfolg mit einem datengetriebenen Geschäftsmodell ist die Zusammenstellung und Rollen eines effektiven Data Analytics Teams.  Damit erzielen Unternehmen die Mehrwerte datengetriebener Geschäftsmodelle und können die verschiedenen Phasen der Datennutzung maximieren.

Die Data Factory aufbauen

Der erfolgreiche Aufbau einer Data Factory (Datenplattform) für die Industrialisierung von datenbasierten Produkten und Services im Rahmen datengetriebener Geschäftsmodelle geht auf eine Reihe von Faktoren zurück. Die Unternehmensberatung McKinsey hat sie in einer Studie zusammengefasst, die Vorreiter und Nachzügler miteinander vergleicht.

Vorreiter bei der Industrialisierung der Data Factory zeichnen sich dadurch aus, dass Geschäftsführung und Management ihre Führungsaufgabe auch bezüglich der Vision und Strategie von Data Analytics erfüllen. Zudem setzen sie in der Anfangsphase möglichst viele (3+) Use Cases um und erhöhen dafür in der IT-Organisation und den Fachbereichen die Budgets für Data Analytics. Und sie geben einen deutlichen Teil des Budgets dafür aus, um Data Analytics in Form einer Datenkultur in das Unternehmen einzubetten.

Das vollständige Trendbook als kostenloses E-Book herunterladen.

Eine erfolgreiche Data Factory zeichnen sich demnach durch die folgenden fünf Schlüsselelemente aus:

  • Eine Daten-Ontologie zur begrifflichen Klarheit bei der Kommunikation über die vorhandenen Daten.
  • Ein Stammdaten-Modell für alle Schlüsselbereiche im Unternehmen, etwa Kunde, Produkt, Standort, Mitarbeiter.
  • Eine klare Data Governance. Sie muss festlegen, wer für Qualität und Pflege der Daten verantwortlich ist und welchen Kategorien und Wertebenen die Daten angehören. Dazu gehört etwa die Unterscheidung nach geschäftskritischen und nicht-kritischen Daten.
  • Ein umfassender Anforderungskatalog für die technische Datenumgebung. Sie muss dafür sorgen, dass die Daten automatisch und kontinuierlich aktualisiert werden. Dazu gehören auch technische Möglichkeiten für das Management von Datenmodellen, um sie kontinuierlich zu pflegen und zu verbessern.
  • Unternehmen sollten ihre Systeme und Anwendungen so organisieren, dass die richtigen Personen Zugriff auf Daten haben. Nur dann können sie schnelle Entscheidungen treffen.
Eine Datenplattform mit KI nutzen
YouTube

Mit dem Laden des Videos akzeptieren Sie die Datenschutzerklärung von YouTube.
Mehr erfahren

Video laden

Die Ergo Gruppe hat für ihre Daten eine strategische Entscheidung getroffen: Sie nutzt eine einheitliche Datenplattform mit der Bezeichnung „AI Factory“. Sämtliche internen Daten von allen Versicherungsmarken sowie eine Vielzahl von externen Daten wie Wetter oder Marktanalysen werden in einem Cloud-Speicher zusammengeführt.

Dort stehen sie über einheitliche Schnittstellen allen Teams für die Modellierung und Operationalisierung zur Verfügung. Das erlaubt Data Scientists und Data Engineers einheitliche Entwicklungsprozesse für neue Datenprodukte. Dadurch ist es möglich, Data Analytics und KI-Anwendungen auf einfache Weise zu skalieren.

Doch die technologische Basis der Datenplattform muss stimmen. So sollte sie von Anfang an auf Skalierung ausgerichtet sein. Zudem muss sie den Aspekt der Industrialisierung von datengetriebenen Geschäftsmodellen berücksichtigen. Ein Beispiel: In vielen Unternehmen werden Proof-of-Concepts mit Sprachen wie Python entwickelt. Solche Entwicklungsumgebungen eignen sich meist nur für Prototypen. Für die Industrialisierung müssen die Produkte das Lab verlassen und mit entsprechend großvolumigen technischen Systemen umgesetzt werden. Eine effiziente Lösung dafür sind Cloud-Angebote für Data Analytics und KI, die sich gut zur Skalierung eignen. (Quelle)

Das Data-Analytics-Team gründen

Für gute Ergebnisse ist ein kooperativer Ansatz erforderlich. Das bedeutet, dass einige Unternehmen sich neu um die Datenplattform herum organisieren müssen. Sinnvoll sind gemischte Teams, in denen Fachexperten, kaufmännische Experten, IT-Fachexperten, Spezialisten, Data Scientists, Dataingenieure und Entwickler gemeinsam an einem Problem arbeiten.

Rollen und Aufgaben im Data-Analytics-Team
YouTube

Mit dem Laden des Videos akzeptieren Sie die Datenschutzerklärung von YouTube.
Mehr erfahren

Video laden

Die Teams müssen Daten auswerten, transformieren, korrelieren, verknüpfen und interpretieren. Dabei haben die Analytics-Spezialisten im Rahmen datengetriebener Geschäftsmodelle spezifische Aufgaben:

Data Scientists besitzen das heute geforderte Know-how in der Analyse und Manipulation von Daten. Sie kennen sich mit Machine Learning aus, sodass sie aus Daten Schlüsse ziehen und Vorhersagen treffen können. Sie sind diejenigen Experten, die Datenmodelle aufbauen, Trainingsdaten auswählen und Algorithmen anpassen.

Data Engineers konzentrieren sich auf die technischen Abläufe der Modelle und Algorithmen. Sie sind oft mit dem Lösen spezifischer Probleme beschäftigt. Sie arbeiten sehr eng mit den Data Scientists zusammen und sorgen dafür, dass Machine Learning erfolgreich wird.

Data Architects sind die Schnittstelle zwischen den Fachbereichen und den beiden anderen Rollen. Sie haben einen ganzheitlichen Blick auf die unterschiedlichen Datenprojekte. Sie steuern ihre Entwicklung, designen die KI-Lösungen und berichten den Fachexperten und Managern im Unternehmen. Als Übersetzer zwischen Analytics und Business beschreiben sie Business-Probleme in Analytics-Terminologie. Zudem interpretieren sie Ergebnisse für das Management, sodass es bessere Entscheidungen treffen kann.

Nur Sammeln reicht nicht, der Nutzwert steigt mit der Komplexität der Operationen

Mit Daten Mehrwert schaffen

Mehrwerte entstehen nicht ohne weiteres aus den Daten. Entlang der Datenwertschöpfungskette müssen in datengetriebenen Geschäftsmodellen verschiedene Herausforderungen gemeistert werden.

Collect

Daten werden lediglich gesammelt und visualisiert. Es geht in erster Linie darum, Daten über Sensorik zu ermitteln und alle Datenquellen online zu bringen, um überhaupt Daten zu erhalten.

Fahrzeugdaten auf einer Plattform sammeln
YouTube

Mit dem Laden des Videos akzeptieren Sie die Datenschutzerklärung von YouTube.
Mehr erfahren

Video laden

Caruso Dataplace ist ein neutraler, offener und sicherer Marktplatz für Mobilitätsdaten. Die Plattform ermöglicht es Dritten, Daten zu nutzen, die über mehrere Fahrzeughersteller hinweg standardisiert sind. Darüber hinaus gewährleistet die integrierte Technologie für das Einwilligungsmanagement den Datenschutz, indem sie den Fahrzeugnutzern die volle Kontrolle über die gemeinsame Nutzung von Daten gibt. 

Damit versetzt Caruso seine Kunden in die Lage, auf einfache Weise lebensverbessernde Lösungen auf der Grundlage von Daten aus vernetzten Fahrzeugen zu entwickeln. Die Vision des Unternehmens ist es, als die bessere Plattform für Autodaten Innovationen freizusetzen.

Integrate

Die gesammelten Daten werden mit Informationen aus anderen Datenquellen zusammengeführt, beispielsweise die Integration mit Prozessdaten aus einem ERP-System oder Marketingdaten aus einer CRM-Anwendung.

Stromverbrauch präzise ermitteln
YouTube

Mit dem Laden des Videos akzeptieren Sie die Datenschutzerklärung von YouTube.
Mehr erfahren

Video laden

Die Polygonvatro GmbH aus Olpe saniert Brand- und Wasserschäden. Der Energieverbrauch der Trocknungsgeräte wird für die Abrechnung mit der Gebäudeversicherung präzise erfasst. Vernetzte Strom-Messboxen senden die Daten in die Cloud, so dass die Abrechnung automatisiert erzeugt wird. Sie bieten präzises Erfassen der Energieverbrauchswerte von Geräten. 

Digitale Daten werden unkompliziert aus der Cloud übernommen und für einen Energienachweis genutzt. Die zugrunde liegende Connected Things Integrator (CTI) Strom-Messbox kann ferner die Betriebs- und Positionsdaten von Baugeräten aufzeichnen und mit den Geschäftstätigkeiten der Akteure vernetzen – passgenau für alle Kundenbedürfnisse.

Analyse

In den Daten werden Trends und Muster erkannt, sodass sie für weitergehende Erkenntnisse genutzt werden können. Dazu gehört beispielsweise die Auswertung von gesammelten Fehlermeldungen, um Aufschlüsse über den Status von Maschinen zu erhalten.

Optimierte Wartung von Rolltoren
YouTube

Mit dem Laden des Videos akzeptieren Sie die Datenschutzerklärung von YouTube.
Mehr erfahren

Video laden

Die Seuster KG in Lüdenscheid produziert Schnelllauftore. Für ihren datengetriebenen Service Smart Control nutzt sie ein Onlineportal, mit dem Unternehmen ihre Tore technisch überwachen können – jederzeit und von jedem Ort aus. Sogar die Fernsteuerung ist möglich. Das Unternehmen erreicht dieses datengetriebene Geschäftsmodell mit der durchgängigen digitalen Vernetzung der Produkte. 

In Kooperation mit der Deutschen Telekom werden die Torinformationen in ein Rechenzentrum in Deutschland übermittelt und im SmartControl Onlineportal angezeigt. Bei der Diagnose werden aktuelle Informationen wie Ausfälle oder Fehlermeldungen ausgelesen. Parallel werden auch die Lastwechsel aller Tore digital erfasst. Die Daten ermöglichen unter anderem eine vorbeugende Instandhaltung und eine rechtzeitige Planung der UVV-Prüfungen.

Use

Datennutzung heißt, die Daten als Produkt zu interpretieren. Sie erweitern und ergänzen vorhandene Geschäftsmodelle oder bilden sogar eigene, teil datengetriebene Geschäftsmodelle wie beispielsweise As-a-Service-Konzepte. Diese sind nur möglich, weil in allen vorherigen Wertschöpfungsstufen wichtige Daten zusammengeführt wurden.

Risikomanagement für die Supply Chain
YouTube

Mit dem Laden des Videos akzeptieren Sie die Datenschutzerklärung von YouTube.
Mehr erfahren

Video laden

Supply-Chain-Risikomanagement hilft bei der Bewertung aller Risiken in mehrstufigen und vernetzten Lieferketten. Everstream Analytics (ehem. DHL Resilience360) kann auf Grundlage von DHL-eigenen und externen Daten das Risiko von Unterbrechungen der Lieferkette vorhersagen und bewerten. Informationen für die Visualisierung der Lieferkette und die Einhaltung von Handelsbestimmungen lassen Unternehmen Störungen nahezu in Echtzeit erkennen.

Das vollständige Trendbook als kostenloses E-Book herunterladen.

Zentrale Herausforderung für datengetriebene Geschäftsmodelle ist die agile Software-Entwicklung und die kontinuierliche Bereitstellung der Dienste auf einer skalierbaren und sicheren Datenplattform. Nutzt Ihr Unternehmen bereits eine solche Datenplattform in der Cloud? Wie ist die Data Journey gestaltet? Schreiben Sie uns oder hinterlassen Sie einen Kommentar.

Hinweis: Dieser Beitrag vom 25.11.2016 ist im Oktober 2023 überarbeitet worden.

Hinweis: Dieser Beitrag vom 25.11.2016 ist im Oktober 2023 überarbeitet worden.

Schreiben Sie einen Kommentar

Ähnliche Beiträge

Der kostenlose Smartletter

Regelmäßig Impulse für die Gestaltung digitaler Produkte und Services.
Jetzt anmelden!