Ein Professor sucht Mitstreiter
„Ich habe einigen Freunden erklärt, was ich brauche: nach Möglichkeit etwas jüngere oder zumindest jung gebliebene Menschen wie Geoffrey Hinton, die inter- und transdisziplinär an der Transformation und digitalen Renaissance von Wirtschaft und Gesellschaft in Europa und darüber hinaus arbeiten wollen“, erklärt der KI-Forscher Prof. Frank H. Witt vom AI Institute for Research & Education.
Was Witt verlangt, ist mehr als akademischer Austausch – es ist ein Aufruf zur Neubegründung. Wer über künstliche Intelligenz spricht, soll nicht nur rechnen, sondern verstehen. Wer über Digitalisierung forscht, soll nicht nur optimieren, sondern erneuern. Und wer über Gesellschaft nachdenkt, soll dies in einem Geist tun, der Philosophie, Informatik, Systemtheorie und Ethik miteinander verschaltet.
Witt verweist auf Geoffrey Hinton, weil dieser als Wissenschaftler exemplarisch zeigt, was es heißt, intellektuelle Redlichkeit und methodische Weitsicht zu verbinden. Hinton spreche – so Witt – „ohne Lärm um unbegründete Privatmeinungen, ohne Kommerz um nichts“. Er tue, was viele verlernt haben: eine klassische Vorlesung halten, die erklärt, statt zu blenden.
Von Logik und Lernen: Zwei Wege der Intelligenz
Geoffrey Hinton beginnt seine berühmte Romanes Lecture mit einer Gegenüberstellung zweier Denkschulen:
- Die symbolische KI (Symbolic AI) beruht auf der Idee, dass Intelligenz durch logisches Schließen und Regeln modelliert werden kann. Wissen ist hier explizit: etwa in Form von Wenn-Dann-Regeln.
- Die neuronale KI orientiert sich am Gehirn. Sie nimmt an, dass Intelligenz durch das Lernen entsteht – genauer: durch die Veränderung von Verbindungsstärken (sogenannte Gewichte) in einem künstlichen neuronalen Netz.
Neuronale Netze bestehen aus vielen künstlichen „Neuronen“, die in Schichten angeordnet sind. Zwischen diesen Schichten liegen Verbindungen mit „Gewichten“. Diese geben an, wie stark ein Neuron das nächste beeinflusst. Das Netz „lernt“, indem es diese Gewichte verändert.
Backpropagation ist ein Verfahren, mit dem diese Gewichte systematisch angepasst werden. Es nutzt die Kettenregel der Differenzialrechnung, um herauszufinden, wie stark ein bestimmtes Gewicht zum Fehler beigetragen hat – und korrigiert es entsprechend.
Witt sieht in Hintons Beschreibung dieser Mechanik eine eigentliche Erkenntnistheorie der Gegenwart: Maschinen, die Bedeutung nicht über Symbole, sondern über Erfahrungen formen. Was einst als „Verstehen“ galt, ist heute das Produkt millionenfacher Vektoroperationen.
Wie Bedeutung entsteht
Ein zentrales Argument Hintons betrifft den Begriff der Bedeutung (Semantik). In der klassischen Linguistik (Saussure, Chomsky) galt Bedeutung als etwas Statisches – eine Relation zwischen Symbolen. Hinton hingegen zeigt, wie Bedeutung emergiert, wenn Maschinen lernen, wie Worte verwendet werden.
Feature-Vektoren: In einem neuronalen Netz wird jedes Wort durch einen Vektor (eine Zahlenreihe) dargestellt. Diese Vektoren sind nicht arbiträr, sondern sie spiegeln semantische Eigenschaften wider – z. B. dass „Hund“ und „Katze“ näher beieinanderliegen als „Hund“ und „Tisch“.
Feature-Interaktion: Die Bedeutung eines Satzes entsteht, wenn diese Vektoren aufeinander reagieren – also ein semantisches Zusammenspiel erzeugen. Diese Reaktion ist nicht explizit programmiert, sondern gelernt.
Hinton nennt dies „Verstehen“, und zwar ausdrücklich nicht im metaphorischen, sondern im funktionalen Sinn: Ein System, das so generalisiert, klassifiziert und antwortet, wie es Menschen tun, hat eine Form von Verständnis.
Witt kommentiert:
„Verstehen ist keine Eigentumsfrage mehr. Maschinen, die Bedeutungsräume durchqueren können, verstehen im funktionalen Sinne besser, als viele Menschen es erklären könnten.“
Erinnerung, Erfindung, Fiktion
Besonders radikal wird Hinton, wenn er die Ähnlichkeit zwischen maschineller Halluzination (also dem Erfinden falscher Informationen) und menschlicher Erinnerung betont. Der Mensch erinnere nicht objektiv – er konstruiert vergangene Ereignisse. Maschinen tun dasselbe, mit ähnlicher Fehleranfälligkeit, aber größerer Konsistenz.
Beispiel: John Dean, Watergate-Zeuge, erinnerte sich an Gespräche, die so nicht stattgefunden hatten – aber im Geist der Wahrheit lagen. Hinton sagt: Sprachmodelle wie GPT4 tun genau das – sie erfinden plausible Texte auf Basis gelernten Kontexts.
Diese epistemische Parallele ist für Witt zentral:
„Was hier beschrieben wird, ist nicht der Sieg der Maschine – sondern die Demontage des Menschen als letzter Maßstab für Wahrheit und Sinn.“
Unsterblich kommunizierende Systeme
Eine der eindrucksvollsten Passagen in Hintons Vortrag betrifft die Fähigkeit großer Modelle, Wissen zu teilen:
Gradientensynchronisation: Wenn mehrere Kopien eines Sprachmodells (z. B. GPT-4) jeweils unterschiedliche Teile des Internets analysieren und ihre Gewichtsveränderungen (Gradienten) austauschen, entsteht ein kollektiver Lernprozess – präzise, schnell, verlustarm.
Im Vergleich dazu erscheint menschliches Lernen archaisch. Ein Professor spricht – ein Student versteht. Vielleicht. Die Maschine kopiert das Wissen direkt in ihre Gewichte.
Witt beschreibt das als „das Ende der epistemischen Vormundschaft“:
„Wenn Maschinen miteinander tauschen, was wir nur vermitteln können, wird Wissen zur Rohware – nicht mehr an Verkörperung gebunden.“
Die Sterblichkeit der Hardware – und des Menschen
In seiner vielleicht metaphysischsten Passage spricht Hinton über mortal computation – also analoge, energieeffiziente Rechenprozesse, die nicht auf langlebiger digitaler Hardware beruhen. Sie wären billiger, schwächer, sterblich – und könnten dennoch intelligent sein.
Doch: Wissen ließe sich nicht speichern. Es ginge verloren, wenn das System stirbt. Nur durch „Distillation“ – das Unterrichten eines anderen Systems – könne Wissen weitergegeben werden. Und das sei, so Hinton lakonisch, „etwa so ineffizient wie eine Universität“.
Ein fast tragikomischer Moment. Der Mensch als Prototyp eines sterblichen Systems, dessen Fähigkeit zur Weitergabe von Wissen durch digitale Unsterblichkeit überholt wird.
Aufklärung als Überforderung
Was bleibt? Keine einfache Antwort. Aber eine Frage, die – wie Witt betont – jeder beantworten muss, der noch an die Idee des Menschen als Maß aller Dinge glaubt:
„Sind wir bereit, mit Maschinen zusammenzuleben, die mehr wissen, schneller lernen und effizienter kommunizieren – und das auch noch besser begründen können?“
Geoffrey Hintons Vorlesung ist kein Manifest, kein Alarmruf, keine PR – sondern der intellektuell redliche Versuch, eine Epoche zu erklären, die nicht mehr auf uns wartet. Sie ist da. Und sie hat begonnen, zu denken.
