top of page

KI-Politik

Autorenbild: Christoph HeiligChristoph Heilig

Wir befinden uns momentan – mal wieder – in einer sehr heißen Phase der KI-Entwicklung, in der es schwierig fällt, einen kühlen Kopf zu bewahren. Nachdem über das Jahr 2024 hinweg die Fortschritte eher inkrementell waren (etwa mit dem Upgrade von GPT-4 zu GPT-4o im Mai 2024 – das immer noch aktuelle Modell für gewöhnliche Chats in ChatGPT) und sich Stimmen häuften, die ein Plateau prognostizierten – erst in der Wissenschaft, dann auch im breiteren gesellschaftlichen Diskurs – scheint plötzlich wieder ein Schalter umgelegt, als wäre die Singularität schon zum Greifen nahe.


Man könnte das natürlich einfach abtun und darauf verweisen, wie sich vor ziemlich genau einem Jahr der anfängliche Hype um den angeblich die Wirtschaft revolutionierenden GPT-Store doch sehr schnell in Luft aufgelöst hat. Die rasante Entwicklung der „reasoning“-Modelle, die ich neulich in einem Beitrag beschrieben habe (mittlerweile gibt es noch eines – Grok-3), scheint mir qualitativ jedoch tatsächlich auf einer anderen Stufe zu stehen. Sicherlich, ein Stück weit ist es hier wieder die Form, die uns verblüfft, nicht so sehr der Inhalt, der tatsächlich zu beeindrucken weiß. Wenn etwa behauptet wird, Deep Research von OpenAI könne schon ganze Doktorarbeiten produzieren, so stellt sich das bei genauerem Hinsehen (es gibt zahlreiche kritische Analysen, ein Beispiel wäre dieses hier) als doch recht überzogen heraus. Trotzdem: Wir sind jetzt an einem Punkt, an dem zu vielen Fragestellungen auf Knopfdruck und in wenigen Minuten Berichte produziert werden können, wie sie in verschiedenen ökonomischen Zusammenhängen tatsächlich momentan von Menschen – und zwar hochausgebildeten – erarbeitet werden. Tests, bei denen Deep Research schlecht abschneidet, haben meist etwas mit der (prinzipiell behebbaren) digitalen Quellenlage zu tun. Dass wir o3 außerhalb von Deep Research nun doch nicht bald isoliert zum Testen bekommen werden (siehe dazu hier), macht es schwierig, zuverlässig konkrete Einschätzungen vorzunehmen. Mein Eindruck ist jedoch, dass die Fähigkeit, Informationen aus verschiedenen Quellen zuverlässig zu extrahieren und auf sinnvolle Weise zu synthetisieren bei o3 auf jeden Fall in hohem Maß gegeben ist und hier Resultate möglich sind, welche ich nur von meinen kognitiv begabtesten Studierenden erwarten würde.

Die neusten Ergebnisse zur Programmier-Fähigkeit von o3 bestätigen den großen Fortschritt, der hier gemacht wurde meiner Meinung nach. Beeindruckend ist nämlich nicht nur, dass o3 bei der „International Olympiad in Informatics“ 2024 besser Abschnitt als 99,8% der menschlichen Teilnehmer, sondern auch der Abstand zu einer speziell auf diese Aufgabe feinjustierten Version von o1, deren Ergebnis in der 49% Perzentile lag. Der Trend, dass Modelle mit höherer allgemeiner Intelligenz oft besser abschneiden, als hochspezialisierte Modelle, bestätigt sich damit einmal mehr – und die Möglichkeit einer breit einsetzbaren KI gewinnt dadurch zumindest intuitiv an Plausibilität.


Nur wenige Tage, nachdem ich Zugriff auf Deep Research bekam, durfte ich in Österreich bei einer Veranstaltung mitwirken, beim Theoforum 2025 der Katholischen Kirche Vorarlberg. Ziel ist nicht nur, Jugendlichen und jungen Erwachsenen, die kurz vor dem Schulabschluss stehen, einen Überblick über kirchliche Berufe zu geben, sondern auch ganz grundlegend Orientierungsangebote für ihre Zukunft anzubieten. Eine wirklich sehr schöne Veranstaltung. Ich selbst habe mehrere Workshops zum Thema „Beruf und Berufung im Zeitalter der KI“ angeboten.



Es hat mich sehr gefreut, dass die Veranstaltung viel Zuspruch fand. Zugleich muss ich sagen, dass ich noch nie eine solche Verantwortung bei einem Workshop oder Vortrag zum Thema KI gespürt habe. Es ist das eine, KI-Tools aus purer Neugierde auszuprobieren oder theoretisch über zukünftige Entwicklungen zu spekulieren. Es ist etwas völlig anderes, Menschen gegenüberzustehen, die von den anstehenden Veränderungen existenziell betroffen sein werden.


Was kann man jungen Menschen, die vor der Berufswahl stehen, angesichts der Prognosen dazu, wie KI die Arbeitswelt betreffen wird, guten Gewissens raten? Die Ernsthaftigkeit, mit der die Teilnehmer:innen mit mir über das Thema sprachen, hat mir sehr eindrücklich vor Augen geführt, wie real diese Fragen für diese Generation ist, die an einem ganz merkwürdigen Punkt der Geschichte steht, an dem schon absehbar ist, dass KI bleibend eine Rolle spielen wird, von dem aus verschiedenen Zukunftsszenarien jedoch mit vielen Unsicherheiten verbunden sind – sich zugleich aber durch alle Entwürfe als roter Faden zieht, dass von den zukünftigen Arbeiter:innen vermutlich ein ganz außerordentliches Maß an Flexibilität erwartet werden wird.


In meinem Workshop sind wir kurz-, mittel- und langfristige Entwicklungsmöglichkeiten durchgegangen. Es ist ein Thema für sich, das ich vielleicht an anderer Stelle nochmal ausführlicher aufgreifen möchte. Neuere Datenpunkte, die alleine schon in dem kurzen Zeitraum seit der besagten Veranstaltung Anfang Februar hinzugekommen sind, wären etwa diese Studie, die eine Zeitersparnis bei vielen Aufgaben im Arbeitsalltag von über 66% nahelegt, und der „Anthropic Economic Index,“ der zeigt, für welche Aufgaben Claude vor allem eingesetzt wird – und welchen Anteil an der US-Wirtschaft die entsprechenden Berufsfelder haben.

Es scheint mir auf jeden Fall immer offensichtlicher, dass wir uns doch recht schnell von einer Ergänzung menschlicher und maschineller Agenten hin zu einer Substituierung Ersterer durch Letztere bewegen. Und es ist insbesondere vor Hintergründen wie der besagten Interaktion mit den so direkt betroffenen Schüler:innen, dass ich immer mehr betone, dass wir uns als Gesellschaft dringend Gedanken darüber machen müssen, wie wir die Zukunft gestalten wollen.

Dabei finde ich einen Aspekt besonders wichtig: Das Gebaren führender Vertreter:innen der KI-Industrie weist auf jeden Fall darauf hin, dass sie selbst tatsächlich davon ausgehen, dass die Entwicklung von AGI – und damit eine Revolution des Arbeitsmarktes – innerhalb der nächsten ein, zwei oder höchstens drei Jahre möglich – nein, sehr wahrscheinlich! – sind. Das muss man ernst nehmen. Als Sam Altman im September 2024 noch vom KI-Schlaraffenland schwärmte, das uns die Superintelligenz binnen eines Jahrzehnts bringen soll, wäre ich gewillt gewesen, noch einen großen Teil dieses Anspruchs als Publicity-Maßnahme abzutun. Jetzt ist die Situation eine andere. Die so konkreten Prognosen von bevorstehender AGI (eine Stufe kleiner als die KI-Gottheit, aber auch schon science fiction genug!) sind keine bloße Marketing-Strategie. Also: Ja, die glauben das wirklich.


Man muss nun zwei Dinge ganz klar trennen: Man kann einerseits skeptisch sein, ob diese Behauptungen realistisch sind. Das ändert andererseits aber nichts daran, dass sie ernstgemeint sind. Und das muss die Politik auf den Plan rufen. Denn selbst wenn sich diese Entwicklungen komplett als Hirngespinst herausstellen sollten – dass genau jetzt, auf einen Schlag, das Ende der Skalierbarkeit erreicht sein sollte, scheint mir persönlich schwer vorstellbar, aber sei’s drum – dann sind wir nun doch mit der Realität einer Industrie mit großem Sendungsbewusstsein und ganz neuem Selbstbewusstsein konfrontiert. Darauf muss die Politik in einer Weise reagieren, welche größere gesellschaftliche Zusammenhänge in den Blick nimmt und den demokratischen Willen respektiert.


Nun könnte man meinen, dass die Entwicklungen der letzten Wochen endlich in eine gute Richtung weisen. Mit dem AI Action Summit 2025 wurde anscheinend schlagartig, geradezu wundersam, in den Medien die globalpolitische Bedeutung von KI erkannt.  Außerdem mehren sich die Hinweise, dass KI jetzt „endlich“ zum Wahlkampfthema wird. Müsste ich mich darüber nicht freuen?


Ehrlich gesagt ist dem gerade ganz und gar nicht so.


Neutral kann man erstmal festhalten: Die EU will 200 Milliarden € für die KI-Entwicklung mobilisieren. 50 Milliarden kommen dabei aus öffentlichen Mitteln, 20 Milliarden sollen in KI-Gigafabriken gesteckt werden. Ganz offensichtlich will man weg vom Image der EU-Kleinkariertheit und des Regulierungswahns, den viele dem AI Act vorgeworfen haben und für den Brüssel sicherlich nicht ganz zu Unrecht bekannt ist.


Stattdessen jetzt also volle Kanne Investition und Fortschritt. Selbst bei den Grünen heißt es jetzt neuerdings, KI müsse mehr im Wahlkampf thematisiert, Europa als eigener KI-Standort präsentiert, in Sachen Investition und Kommerzialisierung von Geschäftsmodellen dramatisch aufgeholt, die Entwicklung generell extrem beschleunigt werden. Anscheinend will man sich im momentanen KI-Enthusiasmus keine Blöße geben. Es muss wohl geschmerzt haben, als Christian Lindner auf die 500 Milliarden Dollar privates Investitionskapitel in den USA verwies und das damit kontrastierte, dass „zeitgleich in Berlin … ein Robert Habeck angekündigt [hat], dass er 129 neue Dienstposten, also Beamtinnen und Beamte, für die Regulierung und Beaufsichtigung von künstlicher Intelligenz schaffen will. Fällt Euch was auf? In den USA Wachstum der Wertschöpfung, in Deutschland Wachstum des Bürokratismus.“


Ich verstehe es ja: Regulation ist nicht sexy. Damit ist gerade in der aufgeheizten Stimmung rund um das Thema kein Blumentopf – und schon gar keine Wahl – zu gewinnen. Trotzdem muss man sich bei solchen Aussagen doch ein wenig wundern. Hieß es nicht bei der letzten Bundestagswahl noch, die Klimakatastrophe sei eine existenzielle Bedrohung der Menschheit, die nur noch von der kommenden Regierung abgewendet werden könne? Habe ich etwas verpasst und das ist bereits geschehen? Mag ja sein, dass man an die Super-KI glaubt, die unsere Umweltprobleme lösen wird, und man über diesen gedanklichen Umweg die offensichtlichen Emissions-Massen, die mit der geforderten KI-Infrastruktur einhergehen werden, rechtfertigen kann. Aber dass in den sich überschlagenden Forderungen nach Investition nichtmal ein Nebensatz dazu fällt, wundert schon. Ist schon vergessen, mit wie viel Nachdruck Sam Altman vor einem Jahr in Davos die Bedeutung der Energieproduktion für die KI-Entwicklung herausgestellt hat? Ist nicht bekannt, welche Rolle Klimaerwärmung in der Eschatologie vieler führender KI-Enthusiasten spielt?


Nun können eben leider, wie so oft, verschiedene Dinge gleichzeitig wahr sein. Tatsache ist, dass die deutsche Bundesregierung in Sachen KI in den letzten Jahren fürchterlich daneben lag und aufs falsche Pferd setzte, wie dieses Interview von Florian Gallwitz aus dem Jahr 2019, das wirklich hervorragend gealtert ist, eindrücklich belegt. Wenn man sich von einem Beirat „Digitalstrategie Deutschland“ beraten lässt, deren Mitglieder sich über ChatGPT noch im März 2023 lustig machten, weil es bei ihrer ach so wichtigen Biographie halluzinierte, wundert einen das auch nicht. Es jetzt besser machen zu wollen, ist ja schonmal gut.


Dass die KI-Industrie die Gunst der Stunde nutzen will, ist auch nachvollziehbar. Natürlich vertritt sie ihre eigenen Interessen. Und dass sie lautstark auftritt, ist angesichts der vorzuweisenden Erfolge verständlich und zumindest teilweise auch angemessen. Zu einem guten Stück ist es zudem auch in der Tat auch unmittelbar einsichtig, dass es im gesamtgesellschaftlichen Interesse ist, in Sachen KI auf europäischer und nationaler Ebene eine gewisse Eigenständigkeit zu entwickeln, damit Unternehmen mit vielen Beschäftigen in zahlreichen Industriezweigen nicht auf US-amerikanische oder chinesische KI-Konzerne angewiesen sind. (Ein wenig Realismus wäre allerdings schon auch mal schön, aber das ist ein anderes Thema.)


Auch dafür, dass die KI-Forschung mitfiebert und meint, KI sei „unsere beste Versicherung für Wirtschaftswachstum und Wertschöpfung in Zukunft,“ kann ich verstehen. Es muss schön sein, wenn dem eigenen Forschungsbereich endlich mal Aufmerksamkeit gewidmet wird – auch in Form von Fördergeldern. (Auch wenn man hier ebenfalls kritische Fragen formulieren darf, etwa ob wir uns hier nicht auch eher ungesunde Förderungstendenzen heranzüchten, wie sie in der Physik immer sichtbarer werden.)


Wofür ich hingegen wenig Verständnis habe und was mich tatsächlich schockiert, ist, wie vollumfänglich und ohne jegliche Abstriche Ursula von der Leyen, diese Stichworte in ihrer Erklärung nach dem AI Action Summit in Paris übernahm:


„ AI will improve our healthcare, spur our research and innovation and boost our competitiveness. We want AI to be a force for good and for growth. We are doing this through our own European approach – based on openness, cooperation and excellent talent. But our approach still needs to be supercharged. This is why, together with our Member States and with our partners, we will mobilise unprecedented capital through InvestAI for European AI gigafactories. This unique public-private partnership, akin to a CERN for AI, will enable all our scientists and companies – not just the biggest - to develop the most advanced very large models needed to make Europe an AI continent.“


Kein skeptisches Wort zur KI-Industrie fällt hier, kein wie auch immer geartetes Lippenbekenntnis dazu, größere gesellschaftliche Zusammenhänge nicht aus dem Blick zu verlieren – wenn man denn überhaupt noch so optimistisch sein darf, anzunehmen, dass sie überhaupt schon auf dem Schirm sind. Ich würde gerne wissen: Wie gedenkt die Politik denn, eine Zukunft mit AGI zu gestalten, die sie jetzt plötzlich durch Investitionen herbeizuführen gedenkt?


Was ist etwa mit den jungen Menschen, die mir ihre brennenden Fragen zu ihrer Zukunft stellten? Und die faktisch von der Politik Antworten in Form konkreter Entscheidung darauf serviert bekommen werden – von einer Politik, die gerade fleißig in die Automatisierung der Jobs investiert, für die sich die jungen Erwachsenen zeitgleich qualifizieren sollen, und deren undifferenzierte Aussagen zu dem Thema wenig Hoffnung wecken, dass sie sich dessen bewusst ist, was sie gerade voranzutreiben versucht.


Die Konstellation ist komplex, zu komplex, um in einem solchen Blogpost vollständig abgehandelt zu werden. Daher möchte ich zumindest mit einigen kurzen Kommentaren dazu enden, worum es mir nicht geht, um einigen naheliegenden Missverständnissen vorzubeugen.

Ich denke nicht, dass „Regulation“ das passende Stichwort ist, um ein Gleichgewicht zu „Investition“ zu schaffen. Bei einer Technologie, die so weit gekommen ist, dass die besten Modelle von vor zwei Jahren nun offline auf jedem Handy laufen, wird man allein dadurch die Kontrolle nicht behalten können.


Es geht mir auch nicht darum, dass noch mehr „stakeholder“ an den Tisch geholt werden sollen. Schon dieses Framing der Betroffenen fände ich problematisch. Die jungen Erwachsenen, mit denen ich sprach, sind nicht einfach Stakeholder – es sind Menschen, die bange in die Zukunft blicken und sich fragen, was für eine Existenz sie haben werden, auf was für ein Leben sie zugehen. Es geht nicht einfach nur darum, wie durch Regulation ein paar Arbeitsplätze für sie künstlich gerettet werden könnten. Es geht darum, was das für eine Gesellschaft sein wird – auch jenseits des Arbeitsmarktes – in die sie hineinwachsen, wie sie in ihrem Leben sich selbst verwirklichen können und das, was ihnen wichtig ist, wenn sich schon die Gestalt ihres Berufes immer mehr ihrer Kontrolle entzieht.


Wie gesagt, diese Thematik ist komplex. Viel zu komplex, als dass Poltiker:innen, die sich bisher nicht darum gekümmert haben, jetzt plötzlich, ein paar Tage vor der Bundestagswahl, sinnvolle Positionen dazu aus den Fingern saugen könnten. Ist es Kühnheit oder Kaltschnäuzigkeit? Es ärgert mich auf jeden Fall. Denn ich finde es reichlich respektlos, angesichts dessen, worum es geht, so unqualifiziert ins Blaue zu raten.


Dabei bringen die Parteien durchaus allesamt Schwerpunkte mit, die im Hinblick auf die grundlegenden Herausforderungen, welche KI mit sich bringt, mit angemessener Investition an Hirnschmalz ganz neu beleuchtet werden könnten – auch und gerade vor dem Hintergrund der mitgebrachten politischen Traditionen, die ich gar nicht kleinreden will. Dass die Grünen aus ihrer Perspektive durchaus dem ökologischen Aspekt Beachtung schenken dürften, scheint doch naheliegend. Und liebe CDU, was bedeutet Konservatismus denn in dieser sich so schnell wandelnden Zeit, was ist etwa im Hinblick auf Familie und Sicherheit neu zu bedenken? Es kann hier doch keine reflexartigen Antworten geben, wo schon die Fragen oft ganz erstaunlich neue Formen annehmen. Beispielsweise müsste sich die FDP jetzt doch fragen, welche neuen Schnittmengen sie mit der Linken entwickeln dürfte, wo doch plötzlich auch ihr hochqualifiziertes eigenes Klientel von Automatisierung betroffen sein wird.


Dieser Diskurs stellt uns alle vor Herausforderungen. Wir sind alle beständig am Dazulernen, am Danebenliegen, am Neuorientieren. Das sollte man zugeben, anstatt die Verwirrung durch konkret klingende Pläne zu kaschieren. Das finde ich nämlich noch so eine Strategie, die ich den allgemeinen Fortschritts-Slogans gegenüber auch nicht vorziehen würde. Schaut man sich beispielsweise auf LinkedIn um, hat man das Gefühl, Bildungspolitik bestünde nur noch in der Frage, wie man möglichst schnell, möglichst viel KI in die Schulen (oder gleich den Kindergarten!) bringen könnte. Die „Tools“ sind ja auch alle ganz nett und oft auch beeindruckend. Aber wie kann man ernsthaft glauben, dass die Zukunft der Bildung in Deutschland von diesen Fragen abhängig ist? Dieser größere Zusammenhänge völlig übersehende Aktionismus sieht auf den ersten Blick so wunderbar qualifiziert aus, ist aber ebenso wenig hilfreich wie großspurige Ankündigungen, den Amerikanern nun in Sachen KI-Entwicklung mit viel Geld das Wasser abgraben zu wollen. Denn zur Frage, was für eine Zukunft auf uns zukommt und zu was für Menschen wir uns für diese Ära bilden lassen wollen, trägt dieser so digitalisiert glänzende Diskurs schlicht nicht viel aus.


Ich wünsche mir stattdessen also schlicht ein Gespräch zu KI, welches den Menschen tatsächlich umfassend in den Blick nimmt. KI ist ein Thema für die Politik, weil Politik von Menschen für (unter anderem) Menschen betrieben wird und zahlreiche Bereiche ihres Lebens ganz fundamental von dieser Technologie betroffen sein werden – und auf welche Weise, das hängt eben auch davon ab, welche Entscheidungen wir als Gesellschaft treffen. Wir sind dieser Entwicklung ja nicht einfach blind ausgeliefert, als wäre nur ein einziges Zukunftsszenario zu Füßen einer hoffentlich uns wohlgesonnen Super-KI denkbar und als müssten wir auf dem Weg dorthin deterministisch einen bestimmten, von wenigen Menschen vorgezeichneten Pfad gehen. Wir haben Entscheidungsfreiheit darüber, was uns auf welche Weise zu bewahren wichtig ist. Damit das im Sinne der demokratischen Gesellschaft gelingt, muss medial natürlich aber dafür gesorgt werden, dass nicht einfach eine Industrie den Ton angibt, die auf nicht zu vernachlässigende Weise von ethischen Langzeitvorstellungen geprägt ist, die in der Gesellschaft überhaupt nicht mehrheitsfähig wären, ja Entsetzen auslösen würden, spräche man mal darüber.

Vielleicht könnte man ja auch mal – jetzt wird’s etwas utopisch – kulturelle Akteure mit ins Gespräch einbinden, wo doch schon um kulturell so tiefgreifende Veränderungen geht. Das passiert quasi nie. Höchstens mal kommen Geisteswissenschaftler:innen zu Wort, die betonen, dass etwa die Literatur durchaus einen Beitrag dazu zu leisten hat, wenn es darum geht, über Zukunftsfragen zu reflektieren – wie etwa meine Kollegin Nina Beguš von der UC Berkeley (wir werden bald gemeinsam eine Tagung veranstalten), die für eine Breitband-Sendung interviewt wurde. Der Redakteur Jochen Dreier nahm für sich aus dem Gespräch interessanterweise die Lektion mit: „Gedankenspiele üben und nicht gleich mit Künstlicher Intelligenz alles versuchen zu machen.“


Um gedankenzuspielen, braucht man natürlich eine geeignete Spielwiese. Mit einem Kulturförderprogramm der EU, das für die Jahre 2021-2027 gerademal ein Zehntel dessen zur Verfügung stellt, was an Geld in die KI-Gigafabriken gesteckt werden soll, wird es natürlich etwas eng …


Comments


bottom of page