
Mitte Januar hatte ich ein paar Prognosen für die KI-Entwicklung im Jahr 2025 aufgestellt. Kurz gesagt, hatte ich betont, dass dieses Jahr mit einem Fokus auf sogenannte KI-Agenten zu rechnen sei und die große Frage wäre, wie sich die sogenannten „denkenden“ Modelle wie o1 von OpenAI weiter entwickeln würden. Ich war skeptisch, dass wir dieses Jahr noch Agenten bekommen würden, die mit großer Freiheit diverse Aufgaben erfüllen könnten, weil einerseits die Kosten für die Inferenz-Phase vor der finalen Antwort eines solchen Modells nicht unerheblich sind (bzw. waren …) und andererseits größere Sicherheitsprobleme entstehen, wenn viel Eigenständigkeit zugestanden wird.
Tja, der Zeitpunkt meiner Prognosen war rückblickend ganz schön interessant gewählt – ein paar Tage später und ich hätte nicht mehr die Gelegenheit gehabt, mich so weit aus dem Fenster zu lehnen. Heute will ich kurz darüber schreiben, was in den letzten Wochen geschah und inwiefern es meine Perspektive verändert hat. Genau dazu, dass man auch sich selbst gegenüber Rechenschaft ablegt und man sich selbst austrickst, während man die Ziellinien unbewusst weiter verschiebt, ist es in meinen Augen wertvoll, möglichst konkrete Erwartungen in regelmäßigen Abständen festzuhalten.
Bereits einen Tag nach meinem Post kam die von mir in Aussicht gestellte Integration von auf spezifische Office-Produkte zugeschnittenen KI-Agenten. Ich hätte eigentlich vermutet, dass wir uns auf diesem Plateau für eine gewisse Zeit bewegen würden – schon, weil dies leicht verdientes Geld für Unternehmen wie Microsoft ist, ebenso wie für OpenAI als Kooperationspartner. Wie das eine Woche später zusammen mit Donald Trump präsentierte „Stargate“-Projekt aber zeigt, ist das Selbstbewusstsein der Industrie tatsächlich momentan ein anderes: die Überzeugung, schon recht nahe an „AGI“ – also einer generellen KI – zu sein, wird immer offensiver kommuniziert. Da ist Microsoft dann eben nur ein vorübergehender Kooperationspartner, solange die Sprachmodelle noch nicht ganze Jobs oder gar Unternehmen ersetzen können – und genau das soll sich bald ändern.
Und tatsächlich wird daran gerade auch mit Hochdruck gearbeitet. Ich gebe ganz offen zu, dass ich nicht damit gerechnet hätte, dass es im Monat nach meinem Blogpost so viele Fortschritte geben würde. So hat OpenAI etwa am 23. Januar den „Operator“ für Pro-Nutzer:innen zugänglich gemacht. Das ist ein Agent, der selbstständig im Internet browsen und dort Aufgaben erledigen kann. Immer wieder muss man zwar als Mensch eingreifen und es funktioniert noch nicht alles glatt, aber grundsätzlich ist jetzt davon auszugehen, dass uns schon bald KI-Agenten zur Verfügung stehen werden, die selbstständig und relativ zuverlässig Produkte für uns kaufen und reisen buchen werden. Die Frage ist: Bewegen wir uns hier schon in einem Bereich, in dem menschliche Jobs bedroht sind oder wird uns das lediglich ein bisschen Zeit am Smartphone sparen?
Und bei genau dieser Frage kommt jetzt der Elefant zur Sprache, der seit der ersten Zeile dieses Blogposts natürlich im Raum steht: DeepSeek-R1, ein Sprachmodell aus China, das am 20. Januar der Öffentlichkeit zugänglich gemacht wurde und ebenfalls – wie o1 und o3 von OpenAI – vor einer Antwort eine längere Gedankenkette simuliert. Diese Neuigkeit hat tatsächlich für einen regelrechten Schock geführt – in der Industrie und im öffentlichen Diskurs. Warum? Es hieß zunächst, R1 sei dem Modell o1 von OpenAI mindestens ebenbürtig, wenn nicht sogar besser. Und das, obwohl es für einen Bruchteil des Preises trainiert worden sei. Noch dazu steht es Nutzer:innen zum kostenlosen Gebrauch ganz einfach auf der Webseite zur Verfügung. Bei OpenAI musste man zu dem Zeitpunkt noch 200€ für das Pro-Abo zahlen, um mit einem solchen Modell arbeiten zu können. Aber die Kosten-Revolution geht noch weiter: Wenn man nicht einfach mit dem Modell chatten, sondern es in Software einbauen möchte, zahlt man pro verbrauchte Ein- und Ausgabetokens (über die API) – und zwar bei R1 jetzt 95% weniger als im Fall von o1! Das ist ein äußerst relevanter Faktor, was den potenziellen Einsatz von solchen Modellen in der freien Wirtschaft angeht – auch wenn R1 ineffizienter arbeitet als o1 und daher mehr „Denk“-Tokens verbraucht werden. Dass R1 so einschlug, lag sicher aber auch daran, dass genau dieser Inferenzprozess nun für Nutzer:innen sichtbar gemacht wurde (in etwas geschönter Form freilich). Es hat einfach einen gehörigen Reiz, zuzusehen, wie das Modell um die richtige Antwort ringt – man kann es kaum vermeiden, mitzufühlen, so wie man es vielleicht bei einem Studenten in einer mündlichen Prüfung täte.
Ist der Hype gerechtfertigt? Zunächst gilt es, festzuhalten, dass die Reasoning-Modelle durchaus einen Durchbruch gebracht haben. Wer sich bisher noch nicht mit Reasoning-Modellen beschäftigt hat, kann anhand des folgenden Experiments einen recht guten Zugang zum Unterschied zu klassischen Sprachmodellen bekommen. Fragt man ein „älteres“ Sprachmodell wie GPT-4 (siehe hier), wie viele Fahrten notwendig sind, damit ein Bauer und eine Ziege mit einem Boot, das zwei Lebewesen transportieren kann, über einen Fluss kommen – so antwortet es regelmäßig mit einer falschen Zahl, fängt nicht selten sogar an, einen Wolf zu erwähnen, der im Prompt gar nicht genannt war. Der Grund ist einfach, dass im Trainingsmaterial diese Konstellation typischerweise in der Form eines klassischen Rätselts erscheint und entsprechend das Sprachmodell, welches schlicht die wahrscheinlichsten nächsten Wörter rät, statistische Muster aus diesem Material extrahiert hat, welche es falsch raten lassen. Versucht man dasselbe bei R1, wird man beeindruckend beobachten können, wie das Sprachmodell eben nicht gleich eine, falsche, Antwort ausspuckt, sondern in viele Richtungen versucht, Fehlschlüsse auszuschließen, um dann am Ende mit großer Sicherheit zum richtigen Ergebnis zu kommen.
Gerade angesichts dieser kaum vermeidbaren anthropomorphisierenden Projektionen („es denkt“!) und der Empathie mit Sprachmodellen („du schaffst das!“) ist es freilich auch wichtig, festzuhalten, dass sich an der Fragestellung der Möglichkeit maschinellen Bewusstseins nichts geändert hat. Nach wie vor arbeiten wir mit einer Computer-Metapher für das Gehirn, aus der wir im Umkehrschluss leistungsfähige Software entwickelt haben, nämlich mit Rückgriff auf die Idee neuronaler Netze. Das heißt freilich nicht, dass damit etwas über die Interpretation dieser Prozesse als Denken ausgesagt wäre und noch viel weniger, dass damit menschliches Denken und Bewusstsein erhellt wäre. Einen solch simplen Fehlschluss begeht etwa der neue Nobelpreisträger und KI-Pionier Geoffrey Hinton in einem kürzlichen Interview: Auf die Frage, ob KI-Systeme auf eine Weise „denken“ könnten, welche analog zu unserem Denken sei, sagt er (fair paraphrasierend): „Ja. Denn diese Modelle sind das beste Modell dafür, wie wir denken.“ Angesichts dessen, dass sich die Philosophie des Geistes in den letzten Jahren derart die Zähne am harten Problem des Bewusstseins ausgebissen hat, dass jetzt ausgerechnet der Panpsychismus ein erstaunliches Revival feiert, ist es doch verwunderlich, dass derart naive Aussagen fallen, kaum geht es um das Stichwort KI.
Nach diesem kurzen Hinweis darauf, wie man sich den Unterschied von klassischen großen Sprachmodellen und Inferenz-Modellen vorstellen kann und dieser Seitenbemerkung zur teilweise irreführenden Konzeptualisierung der Prozesse, die hierbei ablaufen, möchte ich jetzt aber zurück zu R1 kommen und zur Frage, wie gut es tatsächlich ist. Denn dass hier Texte entstehen, wie wir sie sonst nur von Menschen mit gehöriger Intelligenz kennen, steht nicht zur Debatte. Die Frage ist nur, welche Art von menschlichen Denkprozessen hier simuliert und gegebenenfalls ersetzt werden können.
Wie gut ist R1 also? Antwort: Nicht ganz so gut, wie es in den Medien anfangs hieß. Ich war gleich von den Behauptungen irritiert, weil mir die sichtbaren Protokolle zunächst qualitativ eher so schienen, wie wenn man ein Modell wie GPT-3.5 schlicht auf Gedankenketten verpflichtet, also im Prompt festlegt, dass immer in Schritten geantwortet werden soll. Aber ein Stück weit war das Problem wohl auch einfach meine Erwartung: Es braucht eben gar nicht so viel, um bestimmt Fehlschlüsse zu vermeiden. Noch vor einem Jahr hätte ich argumentiert, dass es für große Sprachmodelle wohl schwierig werden würde, komplexe Antworten zu geben, ohne dass man sie mit anderen, logikbasierten, KI-Systemen zusammenbringen würde. Aber anscheinend lassen sich viele der Fehler, die Sprachmodelle machen eben durch recht simple Tricks vermeiden. Es braucht, in anderen Worten, gar nicht so viel Aufmerksamkeit an den Schnittstellen der einzelnen Antwortschritte, um zu verhindern, dass die Antwort in eine falsche Richtung abweicht. Der Inferenz-Prozess von R1 erinnert eben gerade deswegen an alte Experimente mit Gedankenketten, weil zwischen den Schritten nur ein sehr geringfügiges Nudging in die richtige Richtung nötig ist. Damit haben wir jetzt auch einen sehr viel besseren Zugang zu den Prozessen, die wohl bei o1 von OpenAI ablaufen. Das hat schon eine entmystifizierende Wirkung – ich hatte mir das etwas komplizierter vorgestellt.
Was das Training von R1 nun besonders bemerkenswert macht, ist, dass hier gar nicht mit menschlichen Beispielen logisch schlüssiger Gedankenketten gearbeitet wurde. Es wurde – anders als bei OpenAI – ausschließlich (bis auf ein späteres Finetuning) mit bestärkendem Lernen gearbeitet. Das heißt: Wenn in den Gedankenketten das Sprachmodell so abbog, dass es am richtigen Ziel herauskam, wurde das positiv verstärkt. Dadurch entwickelte es selbstständig Strategien, die über eine große Bandbreite von Anfragen zielführend sind! Man hat ihm also nicht beigebracht: „Achte darauf, dass Du auf mögliche Namensverwechslungen achtest.“ Es hat selbst „gemerkt,“ dass das bei vielen Antwortprozessen zu falschen Antworten führen könnte.
Nun ist an dieser Stelle auch zu betonen, dass diese Strategien nicht universell zum richtigen Ergebnis führen. Beispielsweise fiel mir persönlich schnell auf, dass R1 beim logischen Denken doch recht schnell zu verunsichern war. Andere haben gezeigt, dass auch im Hinblick auf metalinguistische Beschreibungen R1 klar im Hintertreffen gegenüber o1 ist. Ich war dann doch froh, als ich sah, dass andere auch zu dem Ergebnis kamen, dass der Hype um R1 deutlich übertrieben war. Kurz hatte ich schon an meiner eigenen Wahrnehmung gezweifelt (um die es angesichts einer üblen Erkältung auch wirklich nicht so gut stand).
[Update vom 14.02.2025: An dieser Stelle folgt ein etwas verwirrendes Update, das gerne übersprungen werden kann, zugleich aber auch zeigt, wie schnell und kompliziert die gegenwärtigen Entwicklungen sind. Deshalb mache ich hier den Veränderungsprozess des Beitrags ganz transparent. Beginnen wir damit, wie ich das erste Reasoning-Modell von OpenAI ursprünglich verstanden hatte. Am Anfang dachte ich, die wahrscheinlichste Erklärung für den Erfolg von o1 sei, dass nicht einfach sequentiell Tokens generiert würden, sondern der Raum der Möglichkeiten - stark vereinfacht - in parallelen Prozessen auf besonders "wohlgeformte" Wahrscheinlichkeitsbäume hin abgesucht würde. Das war ein wenig ein Argument aus mangelndem Vorstellungsvermögen. Ich konnte mir nicht vorstellen, dass das Ganze so gut (damals hatte ich allerdings nur o1-preview zum testen und musste für o1 offiziellen Berichten glauben) mit einer einzigen, linear produzierten Gedankenkette funktionieren könnte. Ich war mit diesen Vermutungen nicht alleine, OpenAI befeuerte das durch Geheimniskrämerei. Allerdings hätte uns vermutlich suspekt machen müssen, dass es ebenfalls intuitiv recht zweifelhaft scheint, ob Algorithmen wie MCTS bei den vielen Optionen natürlicher Sprache überhaupt zielführend sind. Die Probleme von o1-preview beim Reimen fielen mir auf jeden Fall auf. Das schien mir nur bedingt kompatibel mit der Vorstellung paralleler Prozesse. Dass R1 dann doch relativ gut mit einer einzigen simplen Gedankenkette funktionierte, überzeugte dann aber anscheinend viele Experten, dass bei OpenAI doch auch nur mit Wasser gekocht würde. Ich habe mich davon überzeugen lassen, was dann in der ersten Version dieses Beitrags durchschimmerte. Dazu beigetragen hatten auch meine eigenen Experimente über die API. Da konnte ich nämlich sehen, dass bei vielen Aufgaben o1 von der Anzahl der Denktokens doch recht nahe an R1 lag. Zuvor hatte ich nur mit o1-preview arbeiten können und da war die Differenz noch so groß gewesen, dass mir das für unterschiedliche Mechanismen zu sprechen schien. André Oksas hatte mich dann aber nach Lektüre dieses Beitrags auf die Arbeit von Noam Brown hingewiesen, die ich nur oberflächlich kannte. Auf dieser Grundlage hatte er geschlossen, dass OpenAIs Reasoning-Modelle nicht nur anders trainiert wurden wie DeepSeek-R1, sondern auch anders funktionierten. Demnach käme bei o1 eben doch noch ein - im Detail geheimer - zusätzlicher Suchalgorithmus hinzu, der es erlaubt, im Inferenzprozess besonders zielgerichtet vorzugehen. Ich nahm diesen Hinweis hier in einem Update auf und strich heraus, was das implizieren würde: Es würde einerseits den qualitativen Unterschied zwischen R1 und o1 erklären, zugleich aber auch unterstreichen, wie beeindruckend es ist, dass eine vergleichsweise simple einfache Gedankenkette doch so nah an die Leistungen des leider im Detail nicht nachvollziehbaren Inferenz-Prozesses von OpenAI kommt. Wie André Oksas mir dann aber in einem weiteren Hinweis mitteilte, ist in einer neuen OpenAI-Publikation explizit von einem einzigen Chain-of-Thought die Rede. Es gibt demnach gerade bei o3 erstaunliche emergente Korrektur-Mechanismen der eigenen Antwort. Allerdings laufen diese Prozesse tatsächlich nach wie vor sequenziell ab. Absolut erstaunlich ist an diesem neuen Modell übrigens, wie gut o3 im Programmieren abschneidet - nämlich sehr viel besser, als eine direkt darauf feinabgestimmte o1-Variante. Die bessere allgemeine "Intelligenz" schlägt hier einmal mehr hochspezifische Anwendungen. Aber zurück zum Text. Langer Rede, kurzer Sinn: So wie es hier ursprünglich stand, passt das schon.]
Tatsächlich war der Einfluss auf Nividia-Aktien (weil die Vermutung aufkam, dass es eben doch nicht so viel Rechenpower bräuchte, um bedeutende KI-Entwicklungen zu machen) so groß, dass man sich hier über Verschwörungstheorien nicht zu wundern braucht: Wenn es genügt, ein Sprachmodell mit angeblichen Wunderfähigkeiten ins Netz zu stellen und dann Aktien völlig unnötig vorübergehend einbrechen, kann man mit genügend Kapitel natürlich eine ganze Menge Geld machen – da lohnt sich auch das Training eines solchen Modells sehr schnell. Die Empfindlichkeit der Märkte für Meldungen zweifelhafter Validität ist auf jeden Fall eine der Lektionen, die man aus dieser Episode für die Zukunft mitnehmen sollte …
Trotzdem: R1 ist erstaunlich gut. Und vor allem effizient. Und es ist bemerkenswert, wie weit simples überwachtes Lernen doch führt. Ich denke, man sollte sich darauf einstellen, dass wir in naher Zukunft noch erstaunliche Simulationen von komplexen Denkprozessen als emergente Phänomene recht primitiver Trainingsmethoden sehen werden. Dafür spricht auch folgendes Paper, das mit einer ganz anderen Strategie ein Open-Source-Modell dazu brachte, in Mathematik zu o1 aufzuschließen: Man wählte 1000 sorgfältig ausgewählte Beispiele für logische Schlüsse aus und brachte das Modell einfach dazu, statt einer Antwort erstmal innezuhalten. Dass ein einfaches „Warte!“ und Trainingskosten von unter 50 USD reichen, um in Mathematik o1-Werte zu erzielen, finde ich eigentlich ebenso bemerkenswert wie der R1-Durchbruch.
Einen bemerkenswerten Aspekt von R1 haben wir allerdings noch gar nicht angesprochen – es ist Open Source und kann offline, auf eigener Hardware, betrieben werden – womit dann die Token-Kosten sogar komplett wegfallen. Man muss sich das wirklich mal ganz bewusst vor Augen halten: Eine abgespeckte Variante von R1 – und damit ein Modell, das zumindest sehr nahe an o1-preview oder o3-mini herankommt – läuft heutzutage auf jedem Heim-PC! Vor genau dieser Entwicklung habe ich vor ziemlich genau einem Jahr in einem Interview gewarnt – und ich sehe bis heute politisch und gesellschaftlich keine Vorbereitung auf ein Szenario, in welchem Kriminelle Modelle dieser Art zur Unterstützung ihrer Machenschaften heranziehen können. Ja, man sollte durchaus darauf hinweisen, dass das chinesische Modell zu Fragen bezüglich Taiwans sehr erwartbare Antworten ausspuckt. Eine noch viel grundsätzlichere Bedrohung für demokratische Strukturen ergibt sich aber doch wohl daraus, was man theoretisch mit so viel simulierter Denkleistung alles anstellen könnte, oder nicht?
Gesellschaftlich kommen auf uns auf jeden Fall große Herausforderungen zu. Aufgrund der genannten Sicherheitsbedenken, aber auch, weil das Rennen um AGI jetzt wirklich offiziell eröffnet ist. Das zeigt sich schon daran, wie OpenAI auf den DeepSeek-R1-Hype reagierte, nämlich ziemlich panisch. Relevant ist hier wiederum nicht so sehr die hämisch von Autor:innen in sozialen Netzwerken geteilte Klage, DeepSeek hätte urheberrechtlich geschütztes Material von OpenAI geklaut. Das ist ein Nebenschauplatz. Wirklich Aufmerksamkeit verdient, wie überhastet OpenAI in der Folge den Zugang zu o3-mini der Nutzerschaft eröffnete – nämlich schon am 31. Januar und mit erstaunlichen Fehlern in der Benutzeroberfläche.
Und nur wenige Tage später kam dann die Funktion „Deep Research,“ welche Pro-Nutzer:innen o3 in seiner ganzen Stärke und kombiniert mit einer sehr robusten Internet-Recherchefunktion zugänglich machte. Damit ist OpenAI jetzt zurück in den Schlagzeilen und dominiert – zurecht – den Diskurs. (Der Versuch, mit dem Operator zurück auf Pole-Position zu kommen, hatte irgendwie nicht so gut funktioniert.) Denn Deep Research bringt tatsächlich etwas qualitativ Neues: Es kann Berichte zu Fragestellungen produzieren, die – unter bestimmten Bedingungen (z.B. Zugänglichkeit hochwertiger Quellen im Internet) – eine Qualität erreicht haben, wie sie vergleichbare Texte von Menschen nur haben würden, wenn diese Personen erstens über hohes Spezialwissen (mindestens ein Masterabschluss für die meisten Fragestellungen) und eine hohe Lesekompetenz (eher auf der Ebene einer doktorierenden Person) verfügen würde – und zweitens über sehr viel Zeit. (Ich plane, dazu später noch einen eigenen Beitrag zu schreiben.)
Damit stellt sich die Frage einer wirtschaftlichen Revolution nun doch sehr drängend. Sam Altman, CEO von OpenAI, schätzt, dass Deep Research einen einstelligen prozentuellen Anteil der Gesamtheit der wirtschaftlich wertvollen Aufgaben durchführen könnte. Freilich: die Frage der Ressourcen für eine solche Übernahme der Wirtschaft durch KI ist nach wie vor – trotz bisher stetig sinkender Kosten – nicht geklärt. Es fehlt auch die Infrastruktur, um in Unternehmen Mitarbeitende großflächig durch KI-Agenten zu ersetzen. Dazu ist völlig zweifelhaft, ob es hierzu in unseren Gesellschaften überhaupt einen politischen Willen – und selbst wenn ja, auch eine politische Kompetenz – geben würde.
Aber grundsätzlich ist OpenAI mit Deep Research denke ich der Nachweis gelungen, dass viele Tätigkeiten auch hochqualifizierter Menschen in naher Zukunft maschinell ersetzt werden könnten. Ich dachte, es wäre eher eine Sache der mittelfristigen Perspektive, den Fokus darauf zu legen, wie gut, effizient und sicher verschiedene KI-Agenten im Team interagieren können. Diese Frage, welche für die Automatisierung ganzer Unternehmen wichtig ist, wird uns aber jetzt schon sehr viel früher beschäftigen. Ich nehme mal an, das wird für bestimmte Branchen schon dieses Jahr relevant werden. Für Prognosen zu ganz fundamentalen Umwälzungen bliebe dann als einzig momentan absehbarer grundsätzlicher Parameter eigentlich nur noch die Frage, wie es um die Integration von KI mit der Robotik in den nächsten Jahren gestellt sein wird…
Wir müssen also wirklich nachdenken. Und zwar, solange wir das überhaupt noch können. Mit Systemen wie Deep Research zu Diensten, wird die Schwelle für mentale Mühe, die wir zu überschreiten willig und fähig sein werden, vermutlich eher sinken. In diese Richtung weisen zumindest die Studien zum Einsatz von ChatGPT in der Bildung. Das mag kulturpessimistisch klingen, aber es ist zumindest eine Tendenz, die ich bei mir selbst feststellen kann und die ich in einer Situation, in der solch grundlegende gesellschaftliche Weichen gestellt werden, sehr besorgniserregend finde.
Wer wir als Menschen sind und was wir für unsere Zukunft wollen, sollte uns also gerade sehr beschäftigen. Und wir sollten auch bereit sein, uns zu dieser Frage wirklich den Kopf zu zerbrechen. Denn es geht um viel – nicht nur um die „10 besten KI-Tools,“ die uns vielleicht irgendjemand auf LinkedIn anpreist. Es geht darum, in welcher Art Gesellschaft wir leben wollen und welche Schritte wir ergreifen müssen, damit wir über diese Entwicklung nicht die Kontrolle verlieren.
Ein wenig Regulation auf EU-Ebene wird da nicht viel bringen. Dazu sind die Dynamiken, die im Gange sind, viel zu grundlegend. Wer sich mit den ideologischen Grundannahmen führender Personen der KI-Entwicklung beschäftigt hat – inklusive ihrer ethischen Implikationen – wird sich nicht auf die Ineffizienz von Regierungen verlassen wollen, wenn es darum geht, Lebensbereiche KI-frei und Menschen-exklusiv zu halten.
Wenn man derartiges denn anstreben möchte. Mir kommt hier auf jeden Fall zu kurz, dass recht offensichtlich ist, dass wichtige Befürworter:innen der AGI-Entwicklung viel stärker altruistischen Idealen verschrieben sind als einer bestimmten, demokratischen, Regierungsform. Die Experimente, die gerade mit möglichen Alternativen durchgeführt werden, sind alles andere als subtil – und laufen bisher erstaunlich reibungslos. Elon Musk hat doch nicht einfach ein Problem mit dem Ausmaß an Bürokratie – es geht ganz offensichtlich auch darum, auszutesten, wie flexibel traditionelle gesellschaftliche Institutionen sind, die rasante Entwicklung (zum Wohle der „Menschheit“!) einschränken.
Und wir denken einfach nicht darüber nach.
Comentários