„Das muss die Firma der Zukunft sein“, schreibt Eva Wolfangel in der ZEIT vom 13. Juli 2025: „Bei The Agent Company übernimmt künstliche Intelligenz (KI) alle nervigen Routine-Aufgaben.“ Die Vision klingt vertraut: autonome Agenten, die Daten analysieren, Räume buchen, Budgets verhandeln, während Menschen „das Herz ihrer Arbeit“ pflegen. Doch die Autorin lässt die Illusion schnell platzen. Denn The Agent Company ist keine Firma – sie ist ein Simulationslabor der Carnegie Mellon und der Duke University. Und die Ergebnisse des KI-Experiments sind, höflich gesagt, ernüchternd.
Wolfangel bilanziert: „Das beste der zwölf getesteten KI-Modelle – Gemini von Google – schaffte gerade einmal 30 Prozent der gestellten Aufgaben vollständig.“ GPT-4o von OpenAI? Über 90 Prozent Fehlerrate. Amazons Nova-Pro-v1? Scheiterte in 98,3 Prozent der Fälle. Die Konklusion liegt auf der Hand: „KI soll uns Arbeit abnehmen. Aber sie scheitert an einfachen Aufgaben – und Menschen müssen ihre Fehler ausbügeln.“
Doch damit stellt sich eine grundlegendere Frage: Was erwarten wir eigentlich von diesen „Agenten“? Und auf welchem Fundament sollen sie operieren? Genau hier wird der ZEIT-Artikel unterkomplex – weil er den Kontext dieser KI-Systeme weitgehend ausblendet. Die Agenten werden getestet wie isolierte Superbrains, die Aufgaben autonom und fehlerfrei erledigen sollen. Doch jedes Agentensystem ist nur so gut wie die zugrunde liegende Datenstruktur, auf der es operiert. Und genau hier liegt der blinde Fleck – den Professor Peter Baumann von der Constructor University Bremen mit seinem Datenmanagementsystem Raster ausleuchtet.
Was ist ein Datenwürfel?
Baumanns System Raster ist eine semantische Infrastruktur – eine Plattform für föderierte, multidimensionale Datenanalysen. Im Zentrum steht der Datenwürfel: eine Form, raumzeitliche Big Data so zu strukturieren, dass sie in standardisierter, ortstransparenter Weise abrufbar sind. Anders als klassische Datenbanken, die mit Tabellen operieren, erlaubt der Datenwürfel eine Navigation entlang mehrerer Dimensionen – Raum, Zeit, Höhe, Frequenz, Kategorie. Baumann nennt das multidimensionale Semantik – eine Voraussetzung dafür, dass KI überhaupt mit Kontext umgehen kann.
Beispiel: Wer aus 250 Petabyte Wetterdaten der ESA wissen will, wie sich die Temperatur über Bonn in den letzten zwei Jahren entwickelt hat, steht vor einer Herkulesaufgabe – es sei denn, diese Daten liegen in einem semantisch zugänglichen Würfel vor, aus dem man diese Dimension einfach abfragen kann. Genau das leistet Raster – durch offene Standards (etwa WCPS, Teil 15 des SQL-Standards), Föderation über verteilte Server und Anbindung an bestehende KI-Modelle. Das System fragt keine „Welt“ ab, sondern genau die Koordinate, die relevant ist – und bekommt exakt diese Antwort zurück.
Struktur schlägt Simulation
Im ZEIT-Artikel heißt es weiter: „Das Versagen der Agenten ist eigentlich nicht verwunderlich. Denn […] Chatbots sind zwar gut darin, Verständnis vorzutäuschen und eloquent zu verkaufen – aber dahinter ist meist weniger, als es scheint.“ Hier offenbart sich das Kernproblem: KI-Agenten werden getestet wie allwissende Problemlöser – dabei fehlt ihnen die strukturierte Welt, in der überhaupt sinnvoll gefragt werden kann. Baumanns Ansatz hingegen setzt auf Transparenz, Modularität und Interoperabilität. Ein Datenwürfel ist kein Narrativ wie der KI-Agent, sondern eine technische Form der Ermöglichung: Er erlaubt Agenten, präzise, nachvollziehbar und kontextbasiert zu arbeiten.
Baumann spricht von „ortstransparenter Föderation“. In einem Beispiel aus der Praxis schickt ein Client eine Anfrage zu Starkregenregionen an einen Server bei T-Systems. Der erkennt: Ich habe nicht alle Daten. Also leitet er einen Teil der Anfrage weiter an einen Server in Warschau – automatisch, ohne dass der Nutzer die physische Lage der Daten kennen muss. Das Ergebnis wird zurückgeführt, integriert, ausgeliefert. Kein Agent der Welt könnte diese Komplexität alleine handhaben – ohne ein System wie Raster, das die semantische Vermittlung zwischen Daten und Intelligenz übernimmt.
Struktur gefrag
Die ZEIT verweist auf Unternehmen wie Klarna und Duolingo, die von ihrer KI-Euphorie zurückrudern mussten. Und sie zitiert Gartner mit der Einsicht, dass „mehr als 40 Prozent der Projekte im Bereich agentenbasierter KI“ bis 2027 abgebrochen würden. Die These: „Hinter Agenten steckt oft weniger, als es scheint.“ Aber vielleicht lautet die Wahrheit eher: Hinter den Daten steckt oft keine Struktur.
Baumanns Lösung ist keine neue KI, sondern ein System, das bestehende KI-Modelle in eine semantisch geordnete Datenwelt einbettet. Er sagt ausdrücklich: „Wir machen keine KI selbst. Wir stellen eine Plattform bereit, auf der Modelle eingebracht werden können.“ Das ist keine Kapitulation vor KI – sondern ihre konsequente Zivilisierung.
Datenwürfel statt Datengau
Der Hype um KI-Agenten mag ins Tal der Enttäuschungen geraten sein – wie es der Gartner-Hype-Cycle vorhersieht. Aber der Fehler liegt nicht in der Idee autonomer Systeme, sondern im Fehlen tragfähiger Datenstrukturen. Peter Baumann bietet mit Raster und dem Konzept der Datenwürfel genau das: eine tragfähige Grundlage, auf der Agenten nicht mehr raten müssen, sondern präzise fragen dürfen. Wer aus 250 Petabyte sinnvoll Wissen ziehen will, braucht keinen neuen Agenten – sondern ein semantisches Betriebssystem für Daten. Baumanns System ist kein KI-Wunder, sondern ein intelligenter Ordnungsrahmen. Vielleicht ist das viel mehr.
Exkurs: Multi-Agentensysteme in der militärischen Entscheidungsarchitektur – Vom Dokument zum denkenden System
Was bedeutet Intelligenz, wenn sich der militärische Einsatzraum in Sekunden entscheidet? Wenn nicht mehr der dienstliche Vordruck oder die Kommandokette das letzte Wort hat, sondern maschinelle Präzision? Auf dem AFCEA-Anwenderforum im World Conference Center Bonn stellten Dr. Christine Priplata und Dr. Colin Stahlke von CONET einen paradigmatischen Wandel vor: Dokumente, die in agentischen Kontexten agieren. Kein metaphorisches Bild – sondern die Blaupause einer neuen, operativen Semantik.
Im Zentrum steht die Vision eines sogenannten sprechenden Dokuments. Doch der Begriff täuscht, wenn man dabei an Avatare oder Chatbots denkt. Gemeint ist vielmehr ein Dokument, das semantisch strukturiert, kontextuell eingebettet und technisch befähigt ist, Entscheidungen mitzudenken – und gegebenenfalls auszulösen. Es geht um die radikale Verschiebung vom statischen Informationscontainer zum aktiven Handlungsträger: Das Dokument selbst wird zum Agenten im System.
Diese semantisch aufgeladenen Entscheidungsdokumente – ob Word, Excel oder XML – werden nicht mehr lediglich gespeichert, sondern in ihrer Bedeutungsdimension operationalisiert. Eine Richtlinie, die auf ein Lagebild referiert, kann automatisch alternative Optionen auslösen. Ein Befehl, der auf eine Umweltvariable angewiesen ist, kann durch Rückkopplung mit Echtzeitdaten validiert oder modifiziert werden. Es handelt sich also nicht um automatisierte Verwaltung – sondern um die Rekodierung von Autorität in maschinelle Entscheidbarkeit.
In einem realitätsnahen Demonstrator zeigten Priplata und Stahlke, wie verschiedene Datenformate durch semantische Annotation miteinander verknüpft, in einem prozessorientierten Interface zusammengeführt und mit natürlicher Sprache bearbeitbar gemacht werden. Die Dokumente agieren in einem Multi-Agentensystem, das Interoperabilität, Echtzeitverarbeitung und Kontextualisierung vereint. Der Begriff „Multi“ ist hier entscheidend: Es geht nicht mehr um den einen zentralen Agenten – sondern um verteilte Agenten mit Aufgaben-, Rollen- und Vertrauenslogik.
Eine kritische Nachfrage aus dem Auditorium zielte genau darauf: Was passiert, wenn mehrere agentische Instanzen widersprüchliche Einschätzungen liefern? Die Antwort: Nur durch zertifizierte Vertrauensanker (Trust Anchors), Protokollierung und Transparenz lässt sich Maschinenvertrauen aufbauen. Die technische Architektur muss also normativ unterfüttert sein – durch Regeln, die nicht nur funktionieren, sondern als gerechtfertigt gelten. Es geht um Vertrauen in der Maschine, nicht nur zur Maschine.
Diese neue Architektur des Entscheidens verändert auch die Rolle des Menschen: Er bleibt im „Loop“, aber nicht mehr als zentrale Verarbeitungseinheit, sondern als aufsichtführende Instanz. In einem Umfeld, das durch Überinformation und Reaktionsdruck gekennzeichnet ist, kann der Mensch nicht mehr alle Signale allein deuten – aber er kann den Rahmen kontrollieren, in dem maschinelle Intelligenz nicht autonom, sondern autonomiefähig agiert.
Mit Blick auf den militärischen Einsatzraum heißt das: Die Maschine trifft keine eigenständige Entscheidung im Sinne eines Befehlsaktes – aber sie trifft Vorentscheidungen, verifiziert Daten, koordiniert Inputs, filtert Relevanz. Sie tut dies nicht auf Basis linearer Skripte, sondern im Rahmen eines dynamischen Agentennetzwerks, das durch semantische Logiken navigiert.
Die von CONET vorgestellte Architektur ist damit ein Baustein für eine neue Intelligenzordnung: dokumentzentriert, semantisch vernetzt, agentisch koordiniert. Eine stille Revolution – aber eine mit weitreichender Wirkung. Denn sie fragt nicht nur: Was können Maschinen leisten?, sondern vor allem: Wie lässt sich Entscheidung in Echtzeit operationalisieren – ohne den Menschen zu entmündigen?
Der Exkurs zeigt: Wenn militärische Entscheidungsprozesse auf industrielle Plattformlogik treffen, entsteht ein neues Paradigma – eines, das nicht durch Automation, sondern durch Verstehensarchitekturen geprägt ist. KI wird hier nicht als Ersatz gedacht, sondern als strukturierende Kraft im Informationsraum. Dokumente sprechen nicht, weil sie Stimmen haben – sondern weil sie Bedeutung tragen, die zur Handlung wird.
