Während die globale KI-Entwicklung in rasantem Tempo voranschreitet, übt sich Europa in normativer Selbstvergewisserung. Der AI Act, als weltweit erstes Regelwerk für Künstliche Intelligenz gefeiert, ist Ausdruck eines tief verankerten Kontrollreflexes – nicht etwa aus technischer Einsicht, sondern aus institutionellem Sicherheitsdenken heraus.
Statt Innovation aktiv zu gestalten, wird sie in Kategorien gepresst: „hochriskant“, „niedrigriskant“, „verträglich mit Brüssel“. Aus Vorsicht wird Verzicht. Fortschritt wird zur Ausnahme erklärt, Regulierung zum Standard.
Ein Höhepunkt der Symbolpolitik war der offene Brief der „Future of Life“-Initiative im Frühjahr 2023 – ein Moratorium für die Entwicklung leistungsfähiger KI-Modelle wurde gefordert, unterstützt von prominenten Unternehmern und Wissenschaftlern. Die mediale Wucht war groß, die inhaltliche Substanz überschaubar. Auffällig ist: Viele der damaligen Warner treten heute als Anbieter von Zertifizierungen und Beratungsdienstleistungen auf – ein Rollenwechsel mit Beigeschmack.
Gleichzeitig bleibt Europas digitalpolitische Debatte merkwürdig asymmetrisch. Während in den USA längst KI-Anwendungen in Gesundheit, Bildung und Forschung skaliert werden, diskutiert man hier über Risikoklassen und Transparenzregister – ohne eigene Modelle, ohne Plattformen, ohne unternehmerische Kraft.
Der jüngste AI Action Summit in Paris sendet zwar ein Signal der Trendwende: hin zu Innovationsförderung, weg von übermäßiger Regulierungsphantasie. Doch das europäische Grundproblem bleibt: Man will die Zukunft mit moralischer Überlegenheit verwalten, nicht mit kreativer Verantwortung gestalten.
Wenn Europa nicht zum Zuschauer des digitalen Wandels werden will, muss es den Mut entwickeln, Künstliche Intelligenz nicht nur zu kontrollieren, sondern produktiv einzusetzen – mit Augenmaß, aber ohne Angst.