Die Sprache ist eine merkwürdige Erfindung. Sie soll uns helfen, einander zu verstehen, doch oft führt sie genau zum Gegenteil. Kommunikation ist kein bloßer Informationsaustausch – sie ist eingebettet in soziale Praxis, Erfahrung und Kontext. Und nun gibt es Maschinen, die sprechen. Die schreiben. Die argumentieren. Die klingen, als hätten sie verstanden. Alan Turing hat es vorhergesagt: „Man wird sagen, diese Maschinen denken.“
Doch tun sie das wirklich?
Professor Frank H. Witt hat sich auf der Next Economy Open genau dieser Frage gewidmet: Warum funktionieren Large Language Models (LLMs) so verblüffend gut? Warum sind sie mehr als „stochastische Papageien“? Und was bedeutet es, wenn Maschinen nicht nur Sprache imitieren, sondern sie in gewisser Weise auch gebrauchen?
Wittgenstein: Bedeutung entsteht durch Gebrauch
Ludwig Wittgenstein wusste es besser als jeder andere: Sprache ist kein festes System von Zeichen mit klar definierten Bedeutungen. Sprache ist ein Spiel, ein Prozess, ein lebendiges Netz von Kontexten.
In seinem Frühwerk, dem Tractatus Logico-Philosophicus, ging er noch davon aus, dass die Welt aus Tatsachen besteht und Sprache diese Tatsachen exakt abbildet. Doch später, in den Philosophischen Untersuchungen, kam der Bruch: Sprache ist keine Landkarte der Realität, sondern eine Art, in der Welt zu handeln.
„Die Bedeutung eines Wortes ist sein Gebrauch in der Sprache.“
Was bedeutet das für künstliche Intelligenz?
Lange Zeit galt die Idee, dass Maschinen Sprache niemals „verstehen“ könnten. Sie würden einfach nur statistische Muster erkennen und Wahrscheinlichkeiten berechnen. Doch genau hier setzt die Revolution der LLMs an: Sie arbeiten nicht nur mit Syntax, sondern mit Kontext.
LLMs: Mehr als Wahrscheinlichkeitsmaschinen
Professor Witt machte es in seinem Vortrag deutlich: Large Language Models sind keine simplen Papageien. Sie erzeugen emergente Fähigkeiten, die aus dem schieren Umfang der Daten, der Tiefe ihrer Architektur und der Rekursivität ihres Lernens entstehen.
Wie funktioniert das?
- Ein eingegebener Satz wird in kleinste Einheiten (Token) zerlegt.
- Diese Token werden nicht isoliert verarbeitet, sondern im Kontext des gesamten Gesprächs interpretiert.
- Die KI generiert eine Antwort basierend auf Milliarden von Mustern, nicht nur aus reinen Wahrscheinlichkeiten, sondern durch tiefergehende Strukturen.
„Diese Maschinen verarbeiten Kontext“, betonte Witt. „Sie wissen nicht, was sie tun, aber sie wissen, dass das, was sie tun, kohärent sein muss.“
Das klingt nach einem Paradox – aber es ist ein produktives Paradox.
Turing: Lernen wie ein Kind
Hier kommt Alan Turing ins Spiel. Er war überzeugt, dass Maschinen lernen sollten wie Kinder: nicht durch starre Regeln, sondern durch Erfahrung.
In seinem berühmten Aufsatz Computing Machinery and Intelligence (1950) schlug er ein Modell vor, in dem KI durch kumulative Innovation entsteht – durch Versuch und Irrtum, durch Adaption, durch schrittweises Lernen.
Was Turing damals nur erahnen konnte, ist heute Realität: LLMs werden nicht programmiert, sondern trainiert. Sie sind keine Maschinen, die explizite Regeln befolgen, sondern Netzwerke, die durch Exposition mit Textmustern „lernen“, wie Sprache funktioniert.
KI und die unendliche Skalierbarkeit
Ein zentraler Punkt in Witts Vortrag war die These, dass KI unendlich skalierbar ist. Während das menschliche Gehirn biologisch begrenzt ist – es kann nicht geklont oder wesentlich vergrößert werden –, existieren für künstliche Intelligenz keine derartigen Limitierungen.
„Die Software stirbt nicht“, sagte Witt. „Sie kann in immer größerem Maßstab operieren, ohne dass ihr Grenzen gesetzt sind.“
Diese Skalierbarkeit eröffnet Möglichkeiten, die weit über menschliche Kapazitäten hinausgehen. Die Fähigkeit zur schnellen Anpassung, zum ständigen Lernen und zur unbegrenzten Reproduktion macht KI zu einem Werkzeug mit enormem Potenzial. Doch sie stellt uns auch vor die Frage: Wie gestalten wir eine Welt, in der Maschinen nicht nur kommunizieren, sondern auch Entscheidungen treffen?
Die Debatte darüber hat gerade erst begonnen.
Exkurs: Die unendliche Skalierbarkeit und die Wissensökonomie
Die Theorie der Smart-Service-Ökonomie, wie sie auf Smarter-Service.com entwickelt wurde, argumentiert, dass Unternehmen jenseits der Berechenbarkeit operieren, wenn sie sich von klassischen Ressourcengrenzen lösen. Wissensbasierte Geschäftsmodelle profitieren fundamental von der unendlichen Skalierbarkeit digitaler Systeme – und genau hier liegt das transformative Potenzial der KI.
- Unbegrenzte Wissensverarbeitung: Künstliche Intelligenz kann gewaltige Datenmengen in Echtzeit analysieren, ohne durch menschliche Aufnahmefähigkeit begrenzt zu sein. Dadurch entstehen völlig neue Formen der Entscheidungsfindung.
- Automatisierte Innovation: KI kann bestehende Forschungsergebnisse miteinander verknüpfen, Hypothesen aufstellen und neue Erkenntnisse generieren – ein Mechanismus, der das klassische Innovationsmanagement revolutioniert.
- Globale Vernetzung und Wissensverteilung: Während menschliche Experten begrenzt verfügbar sind, lassen sich KI-Systeme global replizieren und so Wissen weltweit zugänglich machen.
- Dynamische Anpassung an Märkte: Unternehmen können auf Basis von KI-Analysen Trends früher erkennen und agile Strategien entwickeln, die sich in Echtzeit an Marktveränderungen anpassen.
Diese Entwicklung legt nahe, dass Wissensökonomie und KI nicht nur kompatibel, sondern in einem symbiotischen Verhältnis stehen. Die KI entgrenzt das Wirtschaften, indem sie Informationen exponentiell nutzbar macht – eine Perspektive, die Unternehmen, Politik und Wissenschaft noch längst nicht vollständig durchdrungen haben.
Die Frage ist nicht, ob KI die Wissensökonomie transformiert, sondern wie schnell wir uns darauf einstellen.