Über die Sehnsüchte der Controlling-Gichtlinge

von Gunnar Sohn 2. Mai 2013

Big Data und das Himmelreich der Planbarkeit

In Delphi befand sich die berühmteste griechische Orakelstätte. Dort erteilte die Priesterin Pythia in ekstatischem Rausch auf einem Dreifuß sitzend ihre scheinbar widersinnigen Orakel, zu denen sie Apollon inspirierte. Die Antworten von Pythia wurden in Versen verkündet und zumeist zweideutig formuliert.

Ähnlich kryptisch klingen die Verheißungen der Big Data-Hohepriester, die die Welt wieder berechenbar machen wollen, von der perfekten Vermessung des Internets träumen und vom Ende des Zufalls predigen. Es ist das Versprechen, in der anschwellenden Datenflut des Netzes wieder Herr der Lage zu werden.

Ob Mensch, Smartphone, Tablet, Internet der Dinge, Auto oder Industriesensor: Nach Schätzungen von IBM produzieren wir täglich 2,5 Quintillionen Bytes neuer Daten – das gesamte Informationsvolumen verdoppelt sich alle zwei Jahre. Immer mehr mobile Endgeräte, 500 Millionen Tweets am Tag, ungezählte Petabyte-Berechnungen aus Windkanal-Tests der Autoindustrie: Längst gelten Daten als das neue Öl und Big Data-Systeme als digitale Bohrmaschinen zur Schaffung von Reichtum und Allwissenheit – begleitet von einer Aura aus Wahrheit, Objektivität und Genauigkeit: Daten seien die Trittleiter zu einer neuen Erkenntnisstufe, proklamieren die Roland Berger-Berater Bjön Bloching und Lars Luck sowie brandeins-Autor Thomas Ramge in ihrem Opus „Data unser – Wie Kundendaten die Wirtschaft revolutionieren“: „Big Data wird Gesellschaft, Politik und Wirtschaft so grundlegend verändern wie der elektrische Strom und das Internet.“

Da werde an Apparaturen wie aus einem guten Science Fiction-Roman gebastelt. Es seien die ehrgeizigsten Vorhaben der Prognostik seit dem Orakel von Delphi. Weltsimulatoren sollen durch Echtzeitanalyse den epidemischen Weg von Schweinegrippen-Viren vorausberechnen. Es sollen Empfehlungen zur Bewältigung des Klimawandels und Frühwarnungen ausgespuckt werden – selbst Befunde zur Bewältigung von Finanzkrisen stellen die Konstrukteure von Simulationsrechnern in Aussicht. Im unternehmerischen Anwendungsmodus könnten die Entscheidungsmaschinen Aussagen treffen, ob die Einführung eines neuen Produktes den Wettbewerber in die Bredouille bringt oder eher das eigene Portfolio kannibalisiert.

IT-Systeme würden das realisieren, was IT-Visionäre vor Jahrzehnten versprochen haben. „Sie aggregieren das Wissen der Welt auf einem Bildschirm. Sie erkennen Zusammenhänge, die für die menschliche Auffassungsgabe zu komplex waren. Und sie bilden Modelle, die uns mit den Mitteln der Wahrscheinlichkeitsrechnung ein Fenster für den Blick in die Zukunft öffnen. Rechner kennen uns besser als wir selbst“, so die drei Buchautoren. Mietwagenfirmen wissen aufgrund des Kundenprofils, mit wie viel Benzin im Tank das Leihauto zurückgegeben wird. Ein analytisch ausgerichteter Online-Händler weiß, bei welchem Preis der Stammkunde mit welcher Wahrscheinlichkeit zum Kauf eines Produktes oder Dienstes bereit ist. Und wie viel Budget ein Anbieter für personalisierte Werbung einsetzen muss.

Die letzt Schlacht der Controlling-Gichtlinge
Vielleicht erleben wir auch nur die letzte Schlacht des Controllings, um in den Zeiten des Kontrollverlustes die alte Logik des Industriezeitalters in die vernetzte Welt zu retten. Die Schaffung von neuer Übersichtlichkeit im chaotischen Universum des Cyberspace. Der Wunsch nach Rückgewinnung der Deutungshoheit und die Sehnsucht nach maschinengesteuerten Entscheidungen auf dem Fundament der Ratio.

Big Data evoziert utopische wie auch dystopische Rhetorik. Es weckt Hoffnungen als auch Ängste vor Überwachung. Das eine Lager warnt vor dem Niedergang des selbstbestimmten Lebens und das andere erträumt sich ein Himmelreich der Planbarkeit. Beide Fraktionen sitzen im selben Schützengraben und glauben an die vermeintlichen Zahlen-Zauberstücke, die ihnen Big Data-Analysten mit bedeutungsschweren Gesten vorführen. Häufig handelt es sich um Physiker oder Mathematiker, die zur Sozialwissenschaft konvertiert sind. Und das wiederum ist kein Zufall. Schaut man in ihren Zauberkasten hinein, findet man recht simple Formeln. So hat Professor Michael Feindt schon vor 13 Jahren den so genannten NeuroBayes-Algorithmus erfunden. Sein Ziel war es, ein Werkzeug für exakte Prognosen zu schaffen – sowohl für die wissenschaftliche Forschung als auch für unterschiedliche Wirtschaftszweige und Entscheidungsproblemen in Unternehmen.

Entscheiden Maschinen besser?
Das Feindt-Szenario klingt so: Man habe beispielsweise irgendeine App mit einer Entscheidungskompetenz, wie häufig ein bestimmter Artikel der Bekleidungsindustrie verkauft wird. Etwa ein Anzug oder eine Krawatte. Das sei eine wichtige Information für Disponenten von Mode. „Ich selbst würde sagen: Ich habe keine Ahnung. Unsere Software schon. Sie macht eine Prognose und die Prognose hat einen Erwartungswert, einen Mittelwert, aber das ist eine ganze Wahrscheinlichkeitsverteilung. Vieles ist eben nicht durch einfache Zahlen darstellbar, vieles ist auch sehr unsicher. Es kann nur durch eine Wahrscheinlichkeitsverteilung beschrieben werden. Diese Unsicherheit mag sehr groß sein. Es gibt Artikel, die eine höhere Wahrscheinlichkeit richtig zum Mode-Renner zu werden als andere. Und das kann man eben vorhersagen”, glaubt der Teilchenphysiker Feindt.

Mit der bekannten Unsicherheit könnte man die optimale Entscheidung treffen. Entscheidungsmaschinen seien besser als menschliche Experten. Denn der Mensch, das wisse man aus der Biologie, neige zu Verhaltensweisen, die nicht zu rationalen Entscheidungen beitragen. Eine Maschine könne bessere Entscheidungen treffen. Sie sei in der Lage, für eine Versicherung den günstigsten Tarif zu berechnen, der zu einer niedrigen Schadensquote beiträgt. Es werden also zwei Ziele gleichzeitig erreicht, die sich eigentlich ausschließen. Manager würden vielleicht den Tarif zu teuer oder zu billig anbieten. „Aufgrund von historischen Daten mit individualisierten Algorithmen erreicht man beide Ziele gleichzeitig”, meint Feindt.

Er würde sogar am liebsten auf Menschen bei diesen Anwendungen verzichten. Besser wäre es, wenn eine Dispositionsmaschine automatisch die Bestellungen auslöst. Also für den Einkauf von Modeartikeln, für Mettwurst und Schinken oder eben für die Berechnung des optimalen Tarifs bei einer Versicherung. Im Groben kann das sinnvoll sein, um die Menge an Hackfleisch besser zu kalkulieren, die täglich über die Verkaufstheke geht. So wären Einzelhändler in der Lage, weniger Fleisch wegzuwerfen. Verbessert sich dadurch aber der Verkauf von Fleisch- und Wurstware? Was steckt hinter den Durchschnittswerten, die man ermittelt?

Optionen sind keine Gewissheiten
Was Algorithmen leisten, sind Optionen, Wahrscheinlichkeiten, Vorschläge, Hinweise und Anregungen – gesteuert von Menschen, die mit Annahmen und Gewichtungen für ihre Prognose-Rechnungen operieren. Und die können Unternehmen, Volkswirtschaften, Konsumenten, Wähler und Politiker auch völlig in die Irre führen. Selbst bei Textilwaren: „Hier kann eine Maschine nicht vorhersagen, ob ich eine bestimmte Art von Bikini in der nächsten Sommersaison kaufen werde. In der Vorsaison galten vielleicht andere Regeln oder ein anderes Modebewusstsein. Die Maschinen müssen also immer wieder Neues in ihre Analysen einbeziehen, um das Interesse der Konsumenten zu testen. Genauso ist es mit politischen Ereignissen. Wenn etwa Themen wie die Sarrazin-Debatte oder der Fukushima-Atomunfall in den Nachrichten auftauchen, ist es für Maschinen nicht möglich zu sagen, was der Nutzer tun soll. Diese Ereignisse sind einzigartig“, erklärt der Jurist und Informatiker Christoph Kappes.

Auch wenn der Blick in den Rückspiegel immer schneller gelingt und die Daten aus der Vergangenheit mehr oder weniger in Echtzeit vorliegen, was können die Big Data-Systeme wirklich? Hinter jedem Algorithmus stecken immer auch Konstruktionen der Wirklichkeit:
„Soziale Systeme sind selbstbeobachtende Systeme, wobei jede Beobachtung das System verändert. Ein soziales System ist nicht, es wird und zwar durch Beobachtung!
 Egal mit welchen Algorithmen beobachtet wird. Beobachtung ist nur wirksam, wenn sie kommuniziert wird. Also selbst beobachtet wird. Durch Kommunikation fügt sich die Beobachtung dem System zu. Jede Beobachtung verändert das Beobachtete. Die Beobachtung beobachtet immer auch sich selbst. Solche Systeme nennt man komplex. Sie produzieren ständig Überraschungen, die nicht einmal Wahrscheinlichkeiten folgen“, sagt Organisationswissenschaftler Gerhard Wohland.

Sehnsucht nach Vereinfachung
Es gebe immer wieder Modewellen, die die Analysierbarkeit komplexer Systeme versprechen. Es sei der monokausale Glaube, dass das was in der Gegenwart geschieht, seinen Grund in der Vergangenheit hat. „Wenn ich die Vergangenheit umfangreich und schnell genug auswerte, weiß ich, was die Zukunft bringt. Und genau das ist die Illusion. Das ist zwar möglich. Aber ich muss dann für sehr triviale Strukturen sorgen. In der Physik nennt man das Labor. Die Welt, wie sie ist, wird ausgeblendet. Mit den wenigen Wirkungszusammenhängen, die übrig bleiben, entwickelt man Gesetzmäßigkeiten. Für soziale Systeme ist das aber albern“, so Wohland. Ein Modell müsse einfacher sein als das, was es modelliert. Wenn das nicht so wäre, könnte man ja direkt den Untersuchungsgegenstand heranziehen. Modelle müssen also immer simplifizieren. Aspekte der Wirklichkeit werden ausgeblendet. Das gelingt aber nur, wenn zwischen wichtig und unwichtig unterschieden wird. Komplexe Systeme, also auch die menschliche Gesellschaft, kennen aber diese Unterscheidung überhaupt nicht.

„Welches Ereignis nun eine Wirkung in der Zukunft erzeugt, kann man in der Gegenwart nicht wissen“, so Wohland. Die kleinsten Ursachen, die von Big Data-Maschinen in Echtzeit-Analysen noch gar nicht als wichtig erachtet werden, könnten enorme Wirkungen erzeugen und die Simulationsrechner ad absurdum führen. Am Ende bleibe Frust und Enttäuschung übrig.

Insofern sei es fragwürdig, Maschinen, Software und Algorithmen in ihrer Wirkung und Bedeutung in ungeahnte Fallhöhen zu schrauben. Es steht außer Frage, dass die Datenspuren, die wir im Internet hinterlassen und von Maschinen gelesen werden, uns in gewisser Weise analysierbar machen. „Man kann rückwärts Informationen über Personen gewinnen. Eine völlig andere Frage ist, ob ich das Verhalten von Menschen vorhersagen kann, bestätigt auch Kappes. Da stünden wir, allenfalls am Anfang einer Entwicklung, die bis zum Ende des 21. Jahrhunderts keine Ergebnisse zeitigen wird.

Es komme immer darauf an, um welche Arten von Vorhersagen es geht. Über großvolumige Datenmassen habe man schon heute die Möglichkeit, Wahrscheinlichkeitsaussagen über Personengruppen zu treffen. Das Handeln einer einzelnen Person fernab von Clusteranalysen ist nicht bestimmbar.

Über solche Dinge kann man eine gewisse Zeit Unsinn reden, ohne negative Folgen. Eine Gefahr entsteht mit Sicherheit nicht, wenn sich Entscheidungsmaschinen über die Krawattenmode der nächsten Saison irren oder ständig personalisierte Werbebotschaften über Dinge einblenden, die mich schon längst nicht mehr interessieren.

Stigmatisierungs-Maschinen
Wenn Big Data-Algorithmen ohne meine Zustimmung anfangen, mich zu klassifizieren und zu stigmatisieren, automatisch meine Bonität herabstufen, einen Wechsel der Krankenversicherung wegen meines vermeintlich exakt berechneten Gesundheitszustandes verhindern oder Personalberatern die Abweisung meiner Stellenbewerbung empfehlen, dürfte es zu heftigen Gegenreaktionen der Netzgesellschaft kommen. „Das wird noch eine Weile beobachtet und irgendwann reagiert die Gesellschaft“, meint der Systemtheoretiker Wohland. Es folgen Störungen des Systems, die bis zu Boykott und Ausstieg reichen können. Man merkt es an der sinkenden Akzeptanz von Facebook und Google. Der Machtwille der Netzgiganten werde immer sichtbarer – auch ihre Manipulation von Algorithmen und ihre Bereitschaft zur Überwachung, bemerkt die amerikanische Ökonomin Shoshana Zuboff.

Man fühle sich bloßgestellt. Jeder Nutzer von Internet-Diensten sei bereit, für Dinge zu zahlen oder Daten bereitzustellen, die sein Leben besser machen. „Um zu verstehen, wonach ich verlange, musst du in meinen Raum kommen, und ich muss dir deshalb vertrauen können. Wenn du meinen Raum missbrauchst, schalte ich dich ab“, verkündet die Wissenschaftlerin. In jedem Augenblick, in dem die Web-Konzerne das Vertrauen des Individuums enttäuschen, geht ihnen Geld verloren.

Im Wettbewerb von personalisierten und vernetzten Angeboten werden nur jene überleben, die einen Vertrauenspakt mit ihren Kunden eingehen, ist sich der Düsseldorfer Unternehmensberater und Smart Service-Blogger Bernhard Steimel sicher. „Wer Big Data anwendet, kann sich an Open Data nicht vorbeimogeln. Jedes Tracking zur Auswertung von Datenspuren, jede Lokalisierung und jeder Abgleich mit dem Profil eines Internetnutzers darf nur erfolgen, wenn der Kunde es will.“ Friss-oder-stirb-Geschäftsbedingungen könne sich niemand auf Dauer erlauben. Nicht alles, was technisch machbar sei, ist auch kulturell mehrheitsfähig. „Das Maß aller Dinge ist meine Bereitschaft, Daten von mir preiszugeben. Hier liegt der Kern von Big Data-Anwendungen. Mein digitales Ich, meine digitale Repräsentanz und mein digitales Beziehungsnetzwerk müssen in meiner Hand liegen. Sozusagen ein Recht auf virtuelle Selbstbestimmung. Die Nutzung dieser Daten kann ich den Big Data-Systemen zu jeder Zeit wieder wegnehmen. Der Datenschlüssel, den ich zur Verfügung stelle, kann abhängig sein vom Zeitpunkt der Nutzung, er kann abhängig sein von Personen, er kann definiert sein für bestimmte Aktionen oder Nutzungsszenarien. Entscheidend ist nur, dass mir die personalisierten Dienste das Leben einfacher machen“, verkündet Steimel.

Datenpakt mit vernetzten Konsumenten
Die ersten Anbieter, die zu einem neuen Datenpakt mit den vernetzten Konsumenten bereit sind, werden zu den Gewinnern der Netzwerk-Ökonomie zählen. Ein direkter Vertrag könne auch fernab von Facebook und Google über Apps abgeschlossen werden, so Steimel. Da eignet sich dann aber nicht der anmaßende Begriff „Big Data“, sondern eher „Smart Data“.

Smartphone-Applikationen bieten eine riesige Bandbreite an personalisierten, datenschutzkonformen und punktgenauen Services. Der Kunde steuert, wie tief die Datenanalyse gehen soll, um seine Anliegen schneller zu lösen.

„Diese Apps ermöglichen nicht nur die Identifikation des Kunden, sondern bieten sehr viele Möglichkeiten für die Datenanalyse und Vorqualifizierung, die der Anwender individuell gestaltet“, so die Empfehlung von Heinrich Welter vom Software-Anbieter Genesys.
Der Kunde entscheide die Kommunikationsform und der Anbieter stellt sich genau auf das ein, was in der App abgerufen wird. Zudem werde die Autarkie des Kunden gestärkt, meint Welter. „Er gibt genau seine Präferenzen an und teilt dem Unternehmen mit, welche Daten analysiert werden dürfen und welche nicht.“

Und das könne sich auch von Fall zu Fall ändern, etwa bei der Übermittlung von Geopositionen bei einem Autounfall, die man dann nur in dem einzelnen Fall freigibt.

„Bei Unternehmen ist dieses Thema leider unterentwickelt, weil das Ganze nur unter Marketing- und Verkaufsaspekten vorangetrieben wurde. Es geht um Markenbekanntheit, Unterhaltung, Lifestyle, Transaktionen oder nette Produktvideos“, kritisiert Welter.
Bei den personalisierten Diensten, die man mit Netzintelligenz bestücken will, gehe es nicht darum, bunte Alternativen zu bestehenden Applikationen anzubieten, sondern um eine Neuerfindung von Assistenzsystemen, die diesen Namen auch verdienen.

Smarte Apps statt Welterklärung
Wirklich smarte Apps tauchen aber auf der Landkarte noch gar nicht auf. Der Systemingenieur Bernd Stahl vom Netzwerkspezialisten Nash Technologies in Stuttgart spricht sogar von den leeren Versprechen der App Economy. „Die Kombination von Apps zu größeren Applikationen ist bislang ausgeblieben. Jede App ist autark und macht nicht viel mit anderen Diensten. Es gibt zwar einige einfache Kombinationen wie den Kalender auf dem iPhone. Aber so richtig begeistert hat mich das nicht. Man sieht nichts von komplexeren Software-Architekturen wie man das in der traditionellen Software-Entwicklung kennt. Da ist noch ziemlich viel Luft nach oben. Die Frage ist, ob die App-Anbieter sich überhaupt in diese Richtung bewegen”, so Stahl.

Es müsste möglich sein, ein größeres System in einem Framework aus vielen Applikationen zusammen zu bauen. Also die Überwindung der Software-Krise durch die Schaffung von einfach nutzbaren Apps.

„Irgendwie klappt es mit der Modularisierung von Apps nicht so, wie man sich das anfänglich vorgestellt hat”, sagt Stahl. Von wirklich personalisierten und interagierenden Diensten sei man noch weit entfernt – mit und ohne Apps. Bislang laufen die Analyse-Systeme eher auf Cookie-Niveau und elektrisieren vor allem die Werbeindustrie.

Verkäufer interessieren sich für Big Data
Das erkennt man beispielsweise an der Nachfrage nach Big Data-Spezialisten. „Die Zahl der Vakanzen steigt vor allem bei Sales und Consulting“, so der Düsseldorfer Personalberater Karsten Berge von SearchConsult.

Es geht um Verkauf und sehr wenig um wirklich nutzbringende Netzintelligenz. Insofern sollten sich die Big Data-Apologeten mit ihren Versprechungen etwas mehr zurückhalten und Programme entwickeln, die man im Alltag nützlich einsetzen kann. Punktuell, situativ und nur dann, wenn ich es als Anwender auch zulasse. Ansonsten könnten sie ein ähnliches Debakel wie Krösus erleben, der gegen Persien in den Krieg ziehen wollte und das Orakel von Delphi um Rat fragte. Die Pythia antwortete ihm, wenn er nach Persien zöge, würde ein großes Reich zerstört werden. Krösus war begeistert von der Antwort und zog gleich mit seinem Heer los. Leider war das große Reich, das dabei zerstört wurde, sein eigenes.


Dieser Beitrag ist zuerst erschienen auf Neue Nachricht.

2 Kommentare

gsohn 2. Mai 2013 at 11:35

Reblogged this on Ich sag mal.

Antworten
Big Data: Auch der Spiegel beerdigt die Zukunft | Smart Service 15. Mai 2013 at 7:34

[…] Ausführlich nachzulesen unter: Über die Sehnsüchte der Controlling-Gichtlinge: Big Data und das Himmelreich der Planbarkeit. […]

Antworten

Schreibe einen Kommentar

Ähnliche Beiträge