
Franz Kafka hat vor gut 100 Jahren einen Theaterdirektor beschrieben, der so besessen von Kontrolle war, dass er am Ende nur noch Windeln wechselte. Anselm Küster vom Centrum für Europäische Politik hat dieses Bild diese Woche auf netzpolitik.org ausgegraben, um Sam Altmans Fantasie vom Ein-Personen-Unicorn zu widerlegen. Die Kritik ist berechtigt. Die Begründungen nicht.
Was die Quellen wirklich sagen
Die Apple-Studie “Illusion of Thinking” soll zeigen, dass Reasoning-Modelle keine strukturelle Zuverlässigkeit bieten. Sie zeigt das nicht. Sie zeigt, dass diese Modelle bei abstrakt-kompositorischen Puzzle-Aufgaben mit sehr hoher Komplexität kollabieren. Vertragsanalysen, Support-Klassifizierungen, Code-Templates sind das nicht. Die Schlussfolgerung ist zu breit für das, was die Studie tatsächlich misst.
Am gravierendsten ist der Umgang mit dem Brynjolfsson-Paper zur Produktivitäts-J-Kurve. Es soll zeigen, dass der KI-Effekt klein bleibt. Das Paper argumentiert das Gegenteil. Komplementäre Investitionen in Umschulungen und neue Prozesse werden statistisch als Kosten erfasst, nicht als Kapital. Deshalb wird KI-Produktivität systematisch unterschätzt. Brynjolfssons bereinigte Gesamtfaktorproduktivität liegt 15,9 Prozent über den offiziellen Messungen. Der Artikel zitiert die Anlaufphase der J-Kurve und lässt weg, was danach kommt.
Die eigentlich wichtige Frage
Trotzdem: Wenn man den Artikel weglegt, bleibt eine Frage, die größer ist als jede Quellenkorrektur.
Selbst wenn die Optimisten recht haben und die KI-Produktivität deutlich steigt, was passiert dann mit den Menschen, deren Arbeit wegfällt?
Kapitalismus braucht einen Kreislauf. Arbeit erzeugt Lohn, Lohn wird ausgegeben, Ausgaben schaffen Nachfrage, Nachfrage schafft Arbeit. Wenn Maschinen die Arbeit übernehmen, fließt der Produktivitätsgewinn als Profit zu Kapitalbesitzern. Der Lohn für die Masse entfällt. Das System frisst seinen eigenen Absatzmarkt.
Das ist keine neue Angst. Aber diesmal trifft es Kopfarbeit. Genau die Tätigkeiten, in die sich viele nach früheren Automatisierungswellen zurückgezogen haben.
Es gibt eine verführerische Antwort darauf: Menschen setzen Ziele, Maschinen führen sie aus. Wir sind die Auftraggeber.
Das stimmt, aber nur vorläufig. Sprachmodelle können bereits Subziele ableiten, Strategien entwerfen, Prioritäten setzen. Was dauerhaft menschlich bleibt, ist weniger die Fähigkeit zur Zielformulierung als Legitimität und Verantwortung. Wer darf entscheiden, was zählt? Wer haftet, wenn etwas schiefgeht?
Das sind normative Fragen, keine kognitiven. Aber sie zahlen keine Miete.
Das ist der Kern. Nicht ob KI denken kann, sondern wer die Gewinne bekommt, wenn sie es tut.
Dystopie ist keine Technologiefrage
Das Norwegen-Modell zeigt, dass es anders geht. Wer Ressourcengewinne breit ausschüttet statt sie zu privatisieren, bekommt gesellschaftliche Stabilität dafür. Das funktioniert seit Jahrzehnten. KI-Produktivität ist eine Ressource. Die Frage ist nicht ob, sondern wer.
Universelles Grundeinkommen, kürzere Arbeitszeiten, Fonds die Unternehmensgewinne abschöpfen und ausschütten. Die Konzepte sind durchgerechnet und in Varianten erprobt. Was fehlt, ist kein Entwurf. Was fehlt, ist politischer Wille gegen Interessen, die von der aktuellen Verteilung profitieren.
Die Dystopie passiert nicht, weil KI böse ist. Sie passiert, wenn Gesellschaften die Verteilungsfrage nicht aktiv beantworten.
Kafkas Theaterdirektor, der alles selbst kontrollieren will und am Ende Windeln wechselt, wäre heute vielleicht kein Startup-Gründer. Er wäre jemand, der verhindert, dass die Gewinne geteilt werden.
Quellen: Apple, “The Illusion of Thinking” (2025); Brynjolfsson/Rock/Syverson, “The Productivity J-Curve” (NBER w25148); Acemoglu, “The Simple Macroeconomics of AI” (NBER w32487).