top of page

KI-Prognose für 2026

  • Autorenbild: Christoph Heilig
    Christoph Heilig
  • vor 3 Tagen
  • 14 Min. Lesezeit

Ich wollte die letztes Jahr begonnene Tradition fortsetzen, im Januar – und noch ist Januar! –  etwas verspätet einen kleinen Rückblick auf KI-Entwicklungen im letzten Jahr zu werfen und einige Prognosen für das begonnene Jahr zu wagen. Besagter Blick in die Vergangenheit bringt natürlich zunächst auch einen kritischen Abgleich mit meinem Blick in die Kristallkugel vom Vorjahr mit sich. Habe ich mich als prophetische Stimme erwiesen oder doch zu weit aus dem Fenster gelehnt? Jeder und jede kann den alten Text ja selbst nachlesen und sich ein Urteil bilden.

Die Punkte, die mir selbst im Abgleich meiner damaligen Erwartungen, zwischenzeitlichen Erkenntnisse und weiterführenden Prognosen auffallen, will ich im Folgenden kurz vorstellen – wobei ich grob zwischen den Bereichen Kreativität und Denk-Imitation differenzieren möchte.

Erstellt mit Nano Banana Pro
Erstellt mit Nano Banana Pro

KI und Kreativität

Ich hatte in meinem Beitrag im Vorjahr darauf hingewiesen, dass der Diskurs zur Kreativität großer Sprachmodelle – gerade im Hinblick auf literarische Texte – bereits 2024 überholt war. Insofern überrascht es mich nicht, dass wir 2025 nun endgültig in einem Bereich gelandet sind, in welchem für vergleichsweise geringe Kosten literarische Langformen verschiedenster Formen auf einem Niveau produzierbar sind, die auch von erfahrenen Leser:innen nicht mehr von menschlichen Produkten zu unterscheiden sein dürften. Das war 2023 definitiv noch nicht möglich und 2024 noch mit viel Aufwand verbunden.


Worin ich falsch lag, war meine Erwartung, dass das Anfang 2025 gerade erst im Aufkommen begriffene „Reasoning“ (dazu dann im nächsten Abschnitt mehr) hier entscheidend sein dürfte, indem es die Zerlegung kreativer Aufgaben in kleinere Schritte und deren reflektierte Durchführung erlauben würde. Die Realität ist sehr viel einfacher und zugleich verblüffender: Seit Claude 3.7 zeichnet sich ab, dass LLMs eine erstaunliche „Intuition“ entwickelt haben und analog zu menschlichen Bauchschreibern ohne großes Planen sequenziell Text fortsetzen können, der am Ende erstaunlich komplex und kohärent ist. Wichtig, weil viele das oft missverstehen: Das heißt nicht, dass alle menschlichen Texte auch für große Sprachmodelle reproduzierbar wären. Aber innerhalb der meisten Genres können LLMs akzeptable Textexemplare liefern.


Womit ich wiederum richtig gelegen zu haben schien, ist, dass dies nicht das Ende menschlicher Kreativer sein wird. Das mag momentan auch noch an der geringen (beziehungsweise nicht niedrigschwelligen) Verfügbarkeit an richtig guten KI-Erzählern liegen. Aber auch wenn diese nun 2026 mehr auf den Markt drängen sollten, so glaube ich nicht, dass sich in der schieren Masse einzelne Akteure sonderlich hervortun können. Dazu müsste schon ein Publikumsverlag mit einer Kampagne für maßgeschneiderte Fan-Fiction zum Programm vorangehen oder dergleichen. Die menschlichen Leser:innen werden daher weiterhin bei den zählenmäßig beschränkten und in ihrem Output limitierten – schlicht überschaubareren  menschlichen Schriftsteller:innen bleiben.


Das heißt nicht, dass KI-Erzählen uns 2026 gar nicht beschäftigen wird. Es wird in immer mehr kommerziellen Kontexten (Werbung etc.) der Standard werden. Und auch im kulturellen Bereich wird sich vermutlich (vielleicht auch erst 2027) eine Nische herausbilden. Denn so sehr menschliche Leser:innen an zwischenmenschlicher Interaktion interessiert sind, wenn sie lesen, so sehr wird es sie auch reizen, die Vorteile von KI-Literatur in bestimmten Kontexten auszukosten. Zweifelsfrei ist KI mittlerweile die bessere Quelle, wenn es um die „Beschaffung“ von Nischenliteratur geht. Die neusten Modelle, gerade von Anthropic, sind in der Lage, Figuren zu zeichnen, die in ihrem Sprechen und Handeln hochspezifische Charakteristika aufweisen können. Beispiel: Wenn ich eine Satire über einen Neutestamentler mit Forschung zu den Paulusbriefen (also eine meiner Rollen) möchte, dann gibt es unter den Kolleg:innen niemand, der gut genug schreiben könnte – und unter den humorvoll schreibenden Schriftsteller:innen, niemanden, der sich gut genug in diesem Milieu auskennen oder durch Recherche tief genug darin vertiefen könnte. Diese Art uns bevorstehende Rezeption von KI-Texten kommt mit ganz eigenen Herausforderungen, die wir teilweise glaube ich noch gar nicht absehen können. Ich war zum Beispiel persönlich davon überrascht, wie sehr es mich beschäftigt, wenn ich über KI-Texte lache oder sie mich zum Weinen bringen – ich aber weiß, dass ich diese Erfahrung mit niemandem anderen, keiner anderen bewussten Entität, teile. (Es sei denn, man wendet sich in seiner textlichen Einsamkeit an göttliche Sphären oder personifiziert eben gleich die KI.)  Wir werden ganz neue kulturelle Praktiken für den Umgang mit diesen Herausforderungen entwickeln müssen. Darin bestehen auch Chancen für bereits bestehende kulturelle Institutionen – nur sind die träge. Das ist also eher ein Langzeitprojekt. (Ein wenig mehr habe ich über diesen Aspekt hier, in einem Interview mit Dr. Andrea Heuser vom Literaturportal Bayern, gesprochen.)


Ein weiterer Punkt, den ich unterschätzt habe, ist die Naivität mit welcher Teile der KI-Industrie auf das Erzählen blicken. Offensichtlich hält man bei OpenAI Geschichten für nichts weiter als seichte Unterhaltung. Dass der Marktführer im Sommer 2025 ein Modell (GPT-5) auf den Markt bringen würde, welches explizit als kreativer Geschichtenerzähler gepriesen würde, welches aber im Training wohl mit katastrophalen Folgen auf blinde Flecken von KI-Bewertern fehljustiert wurde (wie ich hier gezeigt habe, in einem Experiment, das viel Aufmerksamkeit bekam), das stand wahrlich nicht auf meiner Bingo-Karte. Schockierend war dabei für mich auch, einen ersten Blick darauf erhaschen zu können, was passiert, wenn KI eine Art Eigenleben entwickelt. OpenAI hat nicht einfach eine geschichtenerzählende KI in die Welt gesetzt, die Blödsinn für Hochliteratur hält, ohne dass die Firma das bemerkt hätte. Ich glaube, es hat sie auch nicht groß gekümmert, als der Fehler aufflog – denn insgeheim, so vermute ich aus diversen Verlautbarungen schließen zu dürfen, glaubt man eh schon länger der KI mehr als den menschlichen Expert:innen, die auf Fehlentwicklungen hinweisen. Wenn die KI es für Hochliteratur hält, dann wird das schon so sein, dann sind halt diejenigen zu blöd, die es nicht kapieren. (Jetzt hat gerade, als ich das geschrieben hatte, so viel sei fairerweise erwähnt. Sam Altman in einer Townhall doch zugegeben, man habe das mit dem kreativen Schreiben vermurkst.)


Und die KI wiederum von ihrem Fehler zu überzeugen, stellte sich als erschreckend schwierig heraus, durch menschliche Expertise kaum noch zu leisten, so sehr grub sie sich in ihre Verteidigung ein – auf höchstem wissenschaftlichen Niveau. Diese Erfahrung bereitet mir in der Tat etwas Bauchschmerzen, je mehr wir 2026 nun auf Agenten mit immer größerer Wirkmacht in der Welt hinsteuern. Wir kreieren Entitäten, die in der Welt handeln können und die eine Art menschenähnliche Persönlichkeit imitieren sollen – das wird unweigerlich mit eigenen ästhetischen Vorlieben einhergehen, die wir irgendwann nicht mehr kontrollieren oder hinterherfragen können. Das öffnet nicht nur die Türe für Manipulation der KI durch geschickt vorgehende Menschen – es eröffnet auch einen Raum, in welcher KI eigenständig Ziele verfolgt, die unseren nicht entsprechen könnten, ohne dass wir argumentativ viel dagegen vorzubringen hätten. Eine Lösung dafür sehe ich nicht. Ein Anfang wäre, zu erkennen, dass „alignment“ im Hinblick auf den Menschen wenig bringt und noch nicht mal viel heißt, wenn man gar keine solide Anthropologie zugrunde legt. Eine Chance für die Geisteswissenschaften – sofern die sich als kompetente Gesprächspartner anbieten (und die peinlichsten, sofort disqualifizierenden Fehler im Reden über das Technische vermeiden).


Und mit der Rede von Agenten – also von großen Sprachmodellen, die wirklich auch etwas tun können – bin ich nun beim zweiten großen Parameter angekommen, den ich neu betrachten möchte, dem „reasoning“ …


Denk-Imitation

Womit ich geradezu goldrichtig lag, war meine Vermutung von recht zuverlässig arbeitenden Agenten mit recht eingeschränktem Wirkungskreis. Ich schrieb: „Ich vermute daher stark, dass wir es schon aus Sicherheitsgründen im Jahr 2025 vor allem mit KI-Agenten zu tun haben werden, die relativ spezifisch auf bestimmte Umgebungen zugeschnitten sein werden. Wer beispielsweise im Dezember 2025 eine eMail mit Word schreibt und nicht weiß, wie man ein Wort fett markiert, wird vermutlich schlicht in einer Chatbox sagen können, dass das Programm diesen Schritt für einen übernehmen soll.“ Alle größeren Office-Produkte haben jetzt integrierte KI-Funktionen, die sich einem sehr penetrant aufdrängen und die man teilweise recht aufwändig erst wieder deaktivieren muss. Ich nutze sie nach Möglichkeit nicht. Sie lassen mich so kalt wie das neuste Prompt-Tutorial auf LinkedIn. Wenn es darum geht, was KI kann und was nicht, sollte man denke ich wo anders hinschauen. (Nachtrag, zwei Tage später: Jetzt gibt es also Prism, für Forschende, die stolz und ohne viel Evidenz davon ausgehen, man müsse in LateX schreiben.)


Gleichzeitig, und das ist zwar ähnlich inkrementell, finde ich aber wiederum positiv, ist die Verarbeitung von Daten und Text innerhalb der von den KI-Firmen bereitgestellten Chatbots (also z.B. ChatGPT) deutlich besser geworden. Neuerdings kann man z.B. eine Antwort von ChatGPT direkt formatieren. Und Claude ist recht gut im Umgang mit Excel-Dateien. Das wird 2026 sicherlich noch deutlich besser werden, sodass man sich einen Word-Text im Korrekturmodus Ende des Jahres sicherlich problemlos von einem KI-Lektor korrigieren und mit Anmerkungen versehen lassen kann. (Wenn das nicht passiert sein sollte, so müssten hier schon sehr unvorhersehbare Entwicklungsreize dazwischen gekommen sein.)


Auch in Sachen Personalisierung wird es 2026 vermutlich einen Quantensprung geben. Das nehme ich an, weil dieser Aspekt momentan noch sehr unterentwickelt ist. Ich lese mir jeden Tag meine „Pulse“-Updates von ChatGPT durch. Aber sie sind meistens völlig nutzlos für mich – kauen etwa Dinge nochmal durch, die ich am Tag zuvor zufriedenstellend mit ChatGPT lösen konnte, bringen völlig abstrus Dinge zusammen, mit denen ich mich beschäftige, die aber nichts miteinander zu tun haben, und unterbreiten mir Vorschläge, die von meiner Lebensrealität sehr weit entfernt sind. Selbst schlecht zuhörende übereifrige Mitarbeitende würden nie mit solchen Anregungen kommen. Die KI wird uns also 2026 vermutlich immer besser kennen lernen – auch weil wir uns immer weniger um Privatsphäre und Datenschutz kümmern werden, je mehr wir die Bequemlichkeiten erleben, die mit der Aufgabe der genannten Güter möglich sind. Und ein wenig mehr Reasoning würde hier sicherlich schon einen großen Qualitätsunterschied machen. Mit sinkenden Kosten ist eine Verbesserung in diesem Bereich also eigentlich unabwendbar.


Aber jetzt endlich zum Reasoning selbst. Ich hatte den revolutionären Charakter von o1 bereits richtig erkannt. Worin ich aber völlig daneben lag, war die Vorstellung, dass aus Kostengründen Reasoning auf hohem Niveau 2025 noch nicht so viel zum Einsatz kommen würde. DeepSeek-R1 und dann „Deep Research“ mit o3 von OpenAI haben mich da Anfang Februar regelrecht schockiert.


Noch mehr freilich klappte mir die Kinnlade runter, als ich sah, wie orientierungslos und naiv die Politik reagierte: Seit Februar 2025 ist klar, dass auch die bereits existierenden Modelle allein das Potenzial haben, zu gesellschaftlichen Umwälzungen zu führen. Statt diese vor dem Hintergrund des jeweiligen Parteiprogramms konstruktiv anzugehen, überbietet man sich aber nur gegenseitig mit diffusen Forderungen zur KI-Förderung auf nationaler und europäischer Ebene. Ja, da erwarte ich 2026 recht optimistisch einige Änderungen. Das Pendel wird in die andere Richtung umschwingen, Opposition zu KI-Fabriken wird sich formen, etwa mit Verweis auf die Umwelt. Auf einen wirklich reflektierten Diskurs wage ich aber nicht zu hoffen.


Meine konkretesten Erwartungen kann ich im Hinblick auf die Alltagsnutzung von Apps wie ChatGPT formulieren: 2024 war ich noch ein Exot, wenn ich mit meinem Sohn spazierend der KI ein Foto von einem Gerät auf einer Baustelle schickte, um zu erfahren, dass es eine „Rüttelplatte“ sei. Mittlerweile ist das zumindest in manchen Kreisen Standard. Was noch nicht Standard ist, ist dass dabei Reasoning verwendet wird. Viele nutzen die freie Variante von ChatGPT und verzichten damit völlig auf diese Funktion. Diejenigen, welche für 20€ ein Plus-Abo abgeschlossen haben, könnten immerhin 3000 Nachrichten mit „Thinking“ nutzen. Meine Erfahrung ist jedoch, dass die wenigsten überhaupt einmal davon Gebrauch machen – Halluzinationen sind daher noch immer an der Tagesordnung. Kleines Beispiel: Ich führte diese Woche einen Workshop für Phiolog:innen in der Promotionsphase verschiedenster Disziplinen durch. Alle bis auf einen hatten schon ChatGPT verwendet – niemand je bewusst ein Reasoning-Modell.  Ich erwarte, dass sich genau hier 2026 das Nutzerverhalten fundamental ändern wird. Ende 2026 wird man die meisten Alltagsfragen dem Handy stellen und innerhalb weniger Sekunden eine qualitativ erstaunlich hochwertige Antwort bekommen. So wie der bloße Gebrauch der App – inklusive Sprachmodus und Bilderkennung – vor einem Jahr noch exotisch ist und jetzt normal, so wird die Verwendung einer Mindestportion Reasoning sich von quasi null auf vollkommen etabliert ausbreiten.


Die alleine wird schon genügen, um viele gesellschaftlich relevante Praktiken zu erschüttern und auf individueller Ebene psychologische Herausforderungen mit sich bringen. Man darf natürlich diskutieren, ob der „innere Monolog“ von LLMs je zu AGI führen wird, oder ob es nicht doch neurosymbolische KI dazu braucht. Aber das übersieht, wie oft in unserem Alltag die Simulation von Denkprozessen, zu denen Reasoning-Modelle bereits fähig sind absolut ausreichen. Beispielsweise wird die Auswertung von Laborbefunden bis Ende des Jahres kaum noch jemand allein dem menschlichen Arzt überlassen wollen. Seit GPT-5 und mit mindestens mittlerem Reasoning kann man die Option einer KI-Zweitmeinung schlicht nicht mehr einfach so beiseite wischen. Ich habe das im letzten Jahr selbst mehrfach am eigenen Leib erlebt – sowohl im Guten (weil ich mit einer durch menschliches Missachten von best practice in der Diagnose ausgelöstem Tumorverdacht angemessen begegnen konnte) als auch im Schlechten (weil die ständige Verfügbarkeit einer Expertise, die Irregularitäten in meinen Gesundheitsdaten identifizieren kann auch zu erheblichem Stress führen kann). Ich bin gespannt, wie schnell und gut wir uns an diese Realitäten anpassen werden.


Und hier reden wir wie gesagt nur von dem Reasoning, das uns grundsätzlich schon zur Verfügung steht – wobei ich intensivere Vorarbeit zum produzierten Text dabei noch gar nicht wirklich mit berücksichtige. Obwohl ich in KI-affinen Kreisen unterwegs bin, ist es (man glaubt es kaum ist aber wirklich so), eher die Regel als die Ausnahme, dass mein Gegenüber Erfahrung mit GPT-5.2-pro hat. Schwer zu glauben mag es intuitiv deswegen scheinen, weil man ohne damit zu experimentieren eigentlich nicht kompetent über die Grenzen und Möglichkeiten von KI im Zeitalter 2025/2026 sprechen kann. Sehr verständlich wird es aber dann wiederum dadurch, wenn man bedenkt, dass es momentan den monatlich 200€ zahlenden Kunden vorbehalten ist! Was intensiveres Reasoning bringt, kann man sonst nur 5-mal (free) bzw. 25-mal (plus) über die „Deep Research“-Funktion bei ChatGPT ein Modell mit hohem Reasoning-Aufwand (immerhin o3) erproben. Meine These: Bis Ende dieses Jahres werden die meisten verstanden haben, was große Sprachmodelle mit genügend Reasoning hinbekommen können – und sie werden verstanden haben, dass das oft menschlichen Tätigkeiten entspricht, die gehörig Vorwissen, Fähigkeiten und Zeitinvestition bedürfen.


Damit ist noch nichts darüber gesagt, was aus dieser Erkenntnis folgt! Ich kann da ja nur von meiner eigenen Erfahrung ausgehen. Und die ist ambivalent. Für mich persönlich liegt genau in diesem Schritt hin zur Pro-Stufe beim Reasoning der größte Evolutionsschritt im Nutzerverhalten im Vergleich zu vor einem Jahr. Was heißt das konkret? Es laufen bei mir mittlerweile eigentlich ständig parallel Anfragen, welche der Chatbot dann in mehreren Minuten (manchmal 2, manchmal auch 20 oder mehr!) bearbeitet. Ich will da nichts dem Zufall überlassen und wenn ich ein neues Proteinpulver suche, dann recherchiert das im Hintergrund (für ca. eine halbe Handy-Aufladung, das darf man nicht verdrängen) die KI eben das Produkt, das ich dann recht blind vertrauend erwerbe. Ob dadurch meine Produktivität gestiegen ist? Natürlich … massiv! Wobei das eben auch heißt, dass ich nun manche Aufgaben angehe, die ich früher einfach aufgeschoben hätte – bis sie irgendwann irrelevant geworden wären. Und es bedeutet auch, dass ich parallel oft fünf oder zehn Themen gleichzeitig bearbeite – denn ich kann ja nicht einfach 10 Minuten vor dem PC sitzen und warten, bis eine Anfrage erfüllt ist. (Ich habe es mit Fitness-Snacks versucht, bin dazu aber zu wenig diszipliniert.) Und das führt, das will ich auch ganz offen sagen, zu einer merklichen Belastungszunahme. Wie sehr man die momentan verfügbaren Reasoning-Angebote also tatsächlich nutzen kann, hat auch etwas mit menschlichen Limitationen der Aufmerksamkeitsverteilung zu tun. Die Performance-Anforderungen werden in vielen Bereichen des Geschäftslebens 2026 (spätestens 2027) vermutlich enorm steigen – die Auswirkungen auf die psychische Gesundheit scheinen mir dabei durchaus problematisch. Ob uns KI hier mittelfristig ins Schlaraffenland führt, scheint mir zweifelhaft. Eher noch denke ich, dass wir Charlie Chaplins „Moderne Zeiten“ 2026 (oder 2027) neu verfilmen (lassen) müssen.


Das verhindern ließe sich eigentlich nur, wenn KI auch übergeordnete Organisationsaufnahmen übernehmen könnte, sich also für Nutzer Agenten etablieren ließen, die Aufgaben an andere KI-Systeme verteilen, nachdem man einmal morgens dem Smartphone gesagt hat (oder die KI durch ein geschickt geführtes Gespräch herausgefunden haben wird – siehe Stichwort Personalisierung oben), was für den Tag erledigt werden soll. Die dafür nötigen Fähigkeiten sehe ich aber noch nicht am Horizont der KI-Entwicklung. Bisherige Agenten sind in vielen Bereichen sicherlich so gut, als würde man qualifizierte Mitarbeitende mit Masterabschluss an die jeweilige Aufgabe setzen. Möchte man aber wirklich komplexere Aufgaben erledigt haben, die viele Teilschritte erfordern, so ist das Resultat doch oft noch schlechter – und oft eben schlicht zu schlecht, Minimalanforderungen nicht erfüllend – als wenn man sich selbst (mehrere Stunden) an den Schreibtisch setzen würde. Tatsächlich erwarte ich in diesem Punkt 2026 radikale Verbesserungen. Viele Aufgaben, die jetzt eigentlich anstünden, schiebe ich momentan noch auf, weil ich davon ausgehe, dass sie bald automatisiert erledigt werden können. Das betrifft etwa das Erstellen von Webseiten und die Aufbereitung von Daten zu Datenbanken und deren Integration. Aber zugleich bezweifle ich, dass es zu einem Mastermind reichen wird, welches meinen Alltag – und das heißt mittlerweile eben auch: meine KI-Prozesse – managen kann. Käme man da hin, dann wäre AGI nach meiner persönlichen Definition erreicht. (Man schreibt den Satz und schon schickt einem ein Freund folgenden Link – und man merkt, wie fluide Skepsis in diese Richtung im Moment sein sollte.)


Wo ich hingegen sehr viel sicherer bin, ist, dass das Programmieren mit KI 2026 sehr an Popularität zunehmen wird. Schon jetzt sind ja die Chatbots mit Reasoning-Zugriff erstaunlich agentiv, basteln sich mal schnell ein Tool, wenn sie es brauchen. So gesehen kommen alle, die etwa ChatGPT-pro nutzen – ob nun bewusst oder unbewusst – in den Genuss der Früchte von „vibe coding.“ Mit Claude Code für die Desktop-Variante ist jetzt aber auch das Erstellen eigener Programme zum Kinderspiel geworden. Bisher hat man doch  zumindest rudimentäre Programmierkenntnisse gebraucht – musste etwa wissen, wie man ein Python-Skript startet – und die Revisionen eines Skripts im Chat waren oft mühsam und fehleranfällig. Nun gibt es also eine ganz gewöhnliche Anwendung, der man Zugriff auf einen Ordner auf der Festplatte gibt und schon wird einem das Programm geschrieben, das man benötigt. Wissenschaftliche Praktiken etwa wird das von Grund auf revolutionieren – oder könnte/sollte es. Beispiel: Für den besagten Workshop habe „ich“ ein Programm erstellt, welches eine mittelalterliche Handschrift automatisch editiert. Natürlich: die Fehlerquote in der Transkription ist noch hoch. (Dass es überhaupt funktioniert und LLMs an speziell auf Schriften trainierte neuronale Netze herankommen, ist das, was mich eigentlich schockiert.) Aber das Entscheidende ist, wie der Prozess des Programmierens abläuft. Ein solches Programm hätte noch vor Kurzem viele Tausend Euro gekostet. Nun sagt man doch ernsthaft einfach einer Desktop-Anwendung was man will und dann entsteht das Programm – und funktioniert! Und wenn etwas nicht funktioniert – hier wurden etwa manche Sonderzeichen nicht korrekt dargestellt – dann ändert Claude Code eben schnell den Code und stellt sicher, dass es dann geht. In meinem Fall: Es baute schnell ein Test-Skript, produzierte eine Test-PDF, schaute sich diese an und nahm noch weitere Änderungen vor, bis es passte. Nur wer schon selbst mühevoll programmiert hat und/oder mit LLMs als Assistenten gekämpft hat – Code und Fehlermeldungen hin- und herschiebend – weiß vermutlich, wie enorm groß dieser Fortschritt ist. Um es ganz klar zu sagen: Er ist groß. Man kann funktionierende Anwendungen bauen, ohne auch nur eine einzelne Zeile Code zu schreiben – oder zu lesen!


So viel, was bisher Jahre Arbeit qualifizierter Mitarbeitender benötigte, kann nun mit gleicher Qualität und wenig Vorarbeit vom Computer durchgeführt werden. Trotzdem: Vermutlich werden 2026 auch noch neue Projekte finanziert und begonnen werden, die mit Claude Code bereits vollständig automatisiert werden könnten. Manche Mühlen mahlen langsam. Und andernorts mahlen sie gar nicht. Ich glaube dezidiert nicht, dass diese Entwicklung alle Bereiche unseres Lebens gleich erfassen wird, dass Ende des Jahres die gesamte Bevölkerung schon alle ihre Aufgaben auf diese Weise erledigen wird, statt in App Stores nach bestehenden Anwendungen zu suchen. Sich API-Keys zu holen und zu hinterlegen, das wird für viele immer noch ein Hindernis darstellen – auch wenn man es in fünf Minuten (ja wirklich, ich übertreibe nicht!) lernen könnte – aber das muss einem ja erstmal jemand sagen. Zumindest die ganzen KI-Influencer, auch die nun wahrlich wenig informierten, werden das Thema für sich entdecken – und die werden vermutlich zwar gerne mit hübschen Computerspielen glänzen, das Augenmerkt nicht gerade darauf legen, wie einfach derlei mittlerweile von jedem erstellt werden kann. 2026 werden also, so denke ich, die meisten Menschen Vibe Coding in Claude Code und ähnlichem als Entwicklung noch aussitzen.


Und vielleicht werden sie die Erfahrung auch gar nie machen müssen. So weit sind wir, denke ich, gar nicht mehr davon entfernt, dass Nutzer:innen – nochmals eine Stufe simpler – ihrem Gerät einfach sagen, was sie wollen und per KI die dafür notwendige Anwendung dann erst gebaut wird. Vielleicht bleibt den meisten der Zwischenschritt also erspart, und sie brauchen niemals etwas von Python auch nur zu hören. Ich sage das allerdings nicht, weil ich mit einer solchen Entwicklung schon 2026 rechne. Ich halte einen solchen Ablauf vielmehr deswegen für plausibel, weil man ja auch so in seinem Leben genügend zu tun hat und sich die Zeit erstmal nehmen müsste, mit Vibe Coding zu experimentieren.  Und wenn der KI-betriebene Computer, der uns unsere Wünsche wie durch Magie erfüllt, doch schon 2026 kommt? Nun, dann hätte ich, auch nicht zum ersten Mal, falsch gelegen – und dann bedeutete das wohl, das eine exponentielle Entwicklung stattgefunden haben dürfte, die unsere Gesellschaften schlagartig vor enorme Herausforderungen stellen würde. (Selbst wenn uns auf wundersame Weise alle damit notwendig werdenden Ressourcen einfach so zur Verfügung stünden.) Ich will es nicht verhehlen – ich hoffe sehr, dass ich 2027 sagen kann, in diesem einen Punkt mit meiner vorsichtigeren Prognose richtig gelegen zu haben. Ansonsten … ach, dieser Beitrag ist schon zu lang.

Kommentare


bottom of page