Manchmal fällt Licht auf eine Bühne, und was sichtbar wird, könnte kaum deutlicher zeigen, wie weit Vorstellung und Wirklichkeit auseinanderliegen. Der Ausschnitt auf der Leinwand mit „J McCarthy“ darüber – und die Inszenierung eines Zitats aus der Dartmouth Conference von 1956 – bietet ein Sinnbild einer KI-Folklore, die sich hartnäckig hält. Doch es ist eben genau das: Folklore, Mythenbildung, im schlimmsten Falle Etikettenschwindel.
Besonders deutlich wird dies beim Begriff der „Kybernetik“, der als wissenschaftliche Camouflage eine erstaunliche Karriere machte. Was sich auf den sogenannten Macy-Konferenzen zwischen 1946 und 1953 entfaltete, besitzt bis heute Wirkung: Wenn Naturwissenschaftler und Mathematiker Ausflüge in sozial- oder geisteswissenschaftliche Disziplinen unternehmen, als Börsengurus an die Wall Street gehen oder politische Diagnosen wagen, resultiert daraus häufig mechanistischer Unfug.
Kybernetik als Tarnbegriff
Beim Mathematik-Genie John von Neumann jedoch lag der Fall anders. Die Entwicklung der Wasserstoffbombe stellte ihn vor Berechnungsaufgaben, die nur mit neuen Rechenmaschinen lösbar waren. Doch als hochrangiger Geheimnisträger durfte er die militärischen Hintergründe nicht offenlegen. Also tarnte er die Rechenmaschine mit der Metaphorik eines Diskurses, der später als Kybernetik bekannt wurde – wie Wolfgang Hagen in seinem Band zur Kybernetik erläutert.
Von Neumann unterstützte die Camouflage, weil die disziplinübergreifende Ausrichtung der Kybernetik dem Computer eine Friedenslegitimation verschaffte. Doch er unterschätzte die Eigendynamik dieser Bewegung. Norbert Wiener propagierte die Generalisierung rückkoppelnder Systeme und behauptete, alles Berechenbare könne in Maschinen gegossen werden, denen der Mensch funktional unterlegen sei. Von Neumann widersprach dem – allerdings nur im Privaten. Öffentlich äußerte sich Wiener mit PR-Macht, während von Neumann lakonisch feststellte: „I have been quite virtuous and had no journalistic contacts whatever.“
Von Neumanns Automatentheorie beruhte nicht auf psychophysikalischen Ableitungen, sondern auf der Integration des Messsystems in das gemessene System – ein Re-Entry, das später konstruktivistische Theoretiker wie Luhmann, Glaserfeld oder Bateson verallgemeinerten, jedoch unter Missachtung der quantenmechanischen Beschränkungen, die von Neumann betonte. Der Übertrag auf das Nervensystem sei schlicht unsinnig: „Whatever the system is, it cannot fail to differ considerably from what we consciously and explicitly consider as mathematics.“
Die Camouflage der Kybernetik blieb letztlich unenttarnt. Ihre zweite Ordnung schwebt im spekulativen Raum, sofern man sie nicht – wie George Spencer-Brown – spirituell auflädt. Letztlich erinnert vieles an einen Gottesbeweis: Kann man Gottes Nichtexistenz nicht beweisen, so ist das Beweis seiner Existenz. Ein zirkulärer Kurzschluss, geeignet für Geschäftsmodelle, nicht für Wissenschaft.
KI-Lobby
Die legendäre Dartmouth Conference, organisiert von John McCarthy (dem Informatiker!) und Marvin Minsky, war vor allem ein politisches Ereignis, ein Lobbytreffen mit dem Ziel, große Fördertöpfe des Ministry of Defense für IBM und deren Großrechner-basierte Projekte zu erschließen. Der eigentlich visionäre Pfad, den Alan Turing schon 1950 in „Computing Machinery and Intelligence“ gezeichnet hatte, geriet dabei beinahe zur Nebensache.
Es ist irritierend, wie lange sich der Irrtum gehalten hat, dass klassische programmierte Algorithmen – auch jene, die in hochmodernen Serverhallen am Rhein stehen – irgendetwas mit echter künstlicher Intelligenz zu tun hätten. Denn Künstliche Intelligenz, wenn sie denn mehr als nur Marketing-Phrase sein soll, folgt nicht der Logik klassischer Programmierung. Frank Rosenblatts bahnbrechende Erfindung, der „Perceptron“ von 1958, verkörperte den eigentlichen Turing’schen Geist. Rosenblatt war es, der versuchte, mit analogen Computern die Lernmechanismen biologischer Netzwerke nachzubilden – schlicht weil damalige Digitalrechner kaum in der Lage waren, die Komplexität solcher neuronaler Systeme effektiv zu simulieren.
Die bittere Ironie liegt darin, dass gerade McCarthy und Minsky, die sich später vehement gegen neuronale Netzwerke stellten, den Weg der KI in eine Sackgasse führten, die Jahrzehnte andauerte – eine KI-Winterzeit. Terrence J. Sejnowski beschreibt das dramatische Duell pointiert und unverblümt: Bei der Feier „AI@50“ konfrontierte er Minsky direkt mit dessen historischer Verantwortung. „Sind Sie der Teufel, der für den neuronalen Winter verantwortlich ist?“, fragte Sejnowski provokant. Minsky zögerte nur kurz, dann entfuhr ihm ein wütendes „Ja, ich bin der Teufel!“
Ein erschreckendes Eingeständnis, und doch eines, das Klarheit schafft. Denn es waren die ideologischen Grabenkämpfe und finanziellen Interessen jener Generation, welche die eigentliche Innovation künstlicher Intelligenz lähmten. Erst in den 2010er Jahren, als Rechenleistung und Algorithmen endlich zusammenkamen, offenbarte sich das wahre Potenzial neuronaler Netzwerke. Und plötzlich wurde sichtbar, wie weit entfernt die programmierte Logik von IBM’s Großrechnern und der tatsächlichen Funktionsweise des Gehirns voneinander entfernt lagen.
Neuronale Netzwerke wurden unterschätzt
Während McCarthy und Minsky in den 1950er Jahren KI noch als ein abstraktes Rechenproblem begriffen und auf klassisch programmierte Systeme setzten, hat sich das Paradigma grundlegend verschoben. Heute verzeichnen wir erhebliche Fortschritte in der Entwicklung agentenbasierter KI-Systeme – etwa bei OpenAI, in chinesischen Forschungsclustern oder bei Projekten wie Manus. Diese Agenten agieren bislang noch innerhalb enger funktionaler Grenzen, leisten jedoch bereits beachtliche Beiträge zur Orientierung in virtuellen Umgebungen – und zunehmend auch in der realen Welt.
Ein qualitativer Sprung wird dann möglich, wenn sich – wie Frank H. Witt in seinen jüngsten Arbeiten betont – die Entwicklung an der funktionalen Architektur biologischer Intelligenz orientiert. Konkret geht es dabei um die Nachbildung von Nervenzellclustern der Großhirnrinde in Form spezialisierter GPTs, die mit großen multimodalen LLMs zusammenarbeiten und sich über unüberwachtes Lernen (unsupervised learning) innerhalb eines Agentenökosystems dynamisch weiterentwickeln. In dieser Perspektive entsteht „echte Agency“ nicht als anthropomorphe Simulation, sondern als emergentes, funktionales Prinzip – vergleichbar mit der arbeitsteiligen Organisation neuronaler Netze in der Natur.
Kompetenzen in Epigenetik, Neuro- und Soziobiologie gefragt
Witt hebt hervor, dass dieses System auf funktionale Intelligenz zielt – bewusst ohne emotionale oder moralische Module, wie sie in tieferliegenden Hirnregionen verankert sind. Denn diese würden, so die Argumentation, nicht zur Verbesserung, sondern zur Beeinträchtigung kognitiver Stabilität führen: Sie machen menschliche Intelligenz adaptiv, aber auch fehleranfällig. In der funktionalen KI wird Emotionalität daher nicht als Ziel, sondern als Risiko verstanden.
Gerade deshalb, so Witt weiter, sei ein tiefes Verständnis biologischer Grundlagen – von der Genetik über die Epigenetik bis hin zur Neuro- und Soziobiologie – unerlässlich für künftige Entwickler. Nur wer die Prinzipien der Selbstorganisation, der plastischen Anpassung und der funktionellen Integration aus der Natur versteht, kann eine KI erschaffen, die nicht nur auf Daten reagiert, sondern im eigentlichen Sinn des Wortes handelt.
Die Bühne zeigt also deutlich: Nicht überall, wo KI draufsteht, ist auch KI drin. Was Rosenblatt und Turing vorzeichneten, brauchte Jahrzehnte, um die ideologischen und finanziellen Hürden der Vergangenheit zu überwinden. Ein klärendes Eingeständnis wie jenes von Minsky kann uns helfen, aus dem Schatten der KI-Mythen herauszutreten und endlich die Debatten zu führen, die die Zukunft tatsächlich gestalten.

1 Kommentar
Sicher einer der wichtigsten deutschsprachigen Beiträge zur KI in jüngster Zeit – Chapeau! Und danke für die besonders gelungene Darstellung dessen, was ist, weil es überaus wahrscheinlich ist. So hätte es wohl Rudolf Augstein seinem Chefredakteur ins Heft diktiert – vorausgesetzt, er hätte nicht nur vom guten Journalismus, sondern auch von der Evolution Künstlicher Intelligenz als kumulativer Innovation etwas verstanden.