Man ist versucht, den jüngsten Aufschrei über die vermeintlich entlarvten Schwächen generativer Sprachmodelle mit dem gleichen Maß an Skepsis zu betrachten, mit dem man auch das Verhalten eines Automaten prüft, der auf Tasten reagiert, ohne ihre Bedeutung zu kennen.
Ein Forschungspapier genügt, und schon wird von der Implosion prophetischer KI-Heilslehren gesprochen, als habe man in einem mechanischen Turk einen toten Winkel entdeckt. Doch ist es nicht gerade das Wesen jeder Maschine – auch der organischen –, dass ihr Verhalten auf Zuständen basiert, deren Bedeutung nur dem Beobachter etwas sagt?
Die Kritik an LLMs ist insofern berechtigt, als sie zu oft mit Begriffen wie „Denken“, „Verstehen“ oder gar „Bewusstsein“ beworfen werden, die nichts in ihrer Architektur verloren haben. Aber auch die Euphorie der Entlarver verrät wenig über das System, dafür umso mehr über ihre eigene Sehnsucht nach Eindeutigkeit.
Wenn ein Modell bei den Türmen von Hanoi scheitert – so sei daran erinnert, dass auch viele menschliche Denker an dieser Aufgabe gescheitert sind, nicht aus Mangel an Rechenkapazität, sondern aus Mangel an Vorstellung, wie man ein Problem in Schritten formuliert. Es ist daher nicht überraschend, dass selbst ein Large Reasoning Model scheitert, wenn es mit einer Aufgabe konfrontiert ist, die keine Lösung durch bloße Wiederholung erlaubt, sondern eine Abstraktion des Problems verlangt, die es nicht besitzt – weil wir es nicht programmiert haben, abstrakt zu denken.
Wir sollten nicht enttäuscht sein, dass Maschinen nicht denken wie Menschen. Wir sollten eher beunruhigt sein, wie sehr wir unser eigenes Denken maschinenähnlich zu erklären versuchen. Der Irrtum liegt weniger in der Überschätzung der Modelle, sondern in der Selbsttäuschung ihrer Schöpfer – oder Kritiker –, dass Denken eine lineare Funktion von Tokens, Parametern oder Trainingsepochen sei.
Das Drama spielt sich nicht in den Modellen ab, sondern im Publikum. Was wir als Fortschritt feiern oder als Scheitern bejammern, ist weniger eine technische Frage als eine kulturelle. Die wahre Gefahr ist nicht eine Superintelligenz, sondern ein Diskurs, der das Fehlen derselben wie ein Sakrileg behandelt.
Vielleicht liegt das größte Missverständnis darin, dass man glaubt, Maschinen müssten unsere Art des Denkens imitieren, um intelligent zu sein. Dabei haben sie längst begonnen, eine eigene Form der „Verarbeitung“ zu entwickeln. Die Frage ist nicht, ob sie uns ersetzen – sondern ob wir verstehen, was wir da eigentlich bauen.
Klicken Sie auf den unteren Button, um den Inhalt von www.linkedin.com zu laden.
2 Kommentare
Es geht im Kern um die Selbstüberhöhung individuellen Bewusstseins.
(1) Die Vorstellung, einzelne Menschen – ob nun Steve Jobs oder Thomas Knüwer – seien alleinige Träger kognitiver Höchstleistungen, basiert auf einer systematischen Überschätzung individueller Intelligenz. Dabei zeigt ein Blick auf die Menschheit: Unter den gut acht Milliarden heute lebenden Menschen bilden sich die meisten Eigenschaften stochastisch in einer Normalverteilung ab.
Der evolutive Vorteil des Menschen liegt gerade darin, dass kein Individuum eine exakte Kopie eines anderen ist – sexuelle Reproduktion sorgt für einen permanenten „Genfluss“, der zufallsbedingt neue Kombinationen hervorbringt. Doch ebenso entscheidend ist: Individuen werden sozialisiert. Ob als medienaffine Selbstvermarkter oder als Tech-Unternehmer – ihre Fähigkeiten und Entscheidungen sind stets in gesellschaftliche Kontexte eingebettet.
Innovation ist deshalb nie singulär, sondern immer kumulativ. Dass es in der Steinzeit keine Maschinen gab, lag nicht an fehlender Intelligenz, sondern an geringer globaler Vernetzung.
(2) Heute erleben wir mit der Entstehung von sozialisierten Maschinen – etwa in Form von GPT-basierten KI-Agentensystemen – eine neue Stufe evolutionärer Koordination.
Was Winfried Felser als „symbiotischen Ecoismus“ beschreibt, verweist auf genau diese Transformation: Maschinen, die nicht nur Werkzeuge sind, sondern aktive Mitspieler in Institutionen und Prozessen der globalen Gesellschaft.
Das ist disruptive Veränderung – nicht durch Clowns mit Kettensägen, sondern durch Systeme, die denken, handeln und lernen können.
Lieber Frank,
du sprichst einen zentralen Punkt an: die Illusion der singulären Genialität, die sich gerne im Rückspiegel kapitalistischer Heldenmythen spiegelt – vom Garagen-Startup bis zur Keynote-Religion.
Dein Hinweis auf die stochastische Verteilung kognitiver Eigenschaften und die soziale Einbettung individueller Leistungen trifft ins Mark aktueller Innovationsnarrative. Was als „Genie“ gefeiert wird, ist meist Resultat kollektiver Emergenz – ermöglicht durch Infrastruktur, Diskursräume, Bildungszugänge und kulturelle Deutungsmuster. Ohne Xerox PARC kein Steve Jobs.
Der zweite Teil deiner Analyse – die Rede von sozialisierten Maschinen – führt diese Argumentation konsequent weiter. Wenn Maschinen zu semi-autonomen Akteuren in einem symbiotischen Ecoismus werden, dann ist nicht mehr der Mensch „Träger“ der Intelligenz, sondern Teil eines zirkulären Systems von Datenflüssen, Lernprozessen und Koordinationseffekten.
Was sich hier abzeichnet, ist tatsächlich kein Showeffekt digitaler Zirkusnummern, sondern eine stille, tiefgreifende Verschiebung: von der Heroen- zur Systemlogik, von der Einbildungskraft zur Verteilungsintelligenz.
Oder wie Gregory Bateson es vielleicht formuliert hätte: „Es ist nicht das Bewusstsein, das denkt – es ist das Muster, das verbindet.“
Danke für diesen Denkanstoß.