
Anthropic hat ein neues Modell veröffentlicht, das auf den Namen Claude Mythos Preview hört und nach eigener Aussage ihr bislang fähigstes ist. Du bekommst keinen Zugang dazu, egal ob du Entwickler, Forscher oder ein kleineres Cybersicherheitsunternehmen bist, und das ist keine Kleinigkeit.
Was Mythos kann
Laut dem System Card, das Anthropic am 7. April 2026 veröffentlicht hat, stellt Claude Mythos Preview einen erheblichen Sprung gegenüber dem Vorgängermodell Claude Opus 4.6 dar. Das Modell zeigt Fähigkeiten in Software Engineering, Reasoning und Wissensarbeit, die substanziell über alle bisherigen Modelle hinausgehen, und Anthropic beschreibt den Leistungsunterschied als “striking leap”, einen auffälligen Sprung, auf vielen Benchmark-Kategorien.
Besonders auffällig ist eine Fähigkeit im Bereich Cybersicherheit: Mythos kann, wie im System Card dokumentiert, autonom Zero-Day-Schwachstellen in Betriebssystemen und Webbrowsern finden und ausnutzen. Genau das ist der Grund, warum das Modell nicht öffentlich veröffentlicht wird. Diese Fähigkeit ist dual-use in dem buchstäblichsten Sinne des Wortes. Wer Zero-Days findet, kann sie entweder schließen und damit Systeme absichern, oder ausnutzen und damit Schaden anrichten.

Anthropic hat sich deshalb entschieden, das Modell nur an eine begrenzte Gruppe von Partnern weiterzugeben, im Rahmen eines Programms namens Project Glasswing. Diese Partner betreiben laut Anthropic wichtige Software-Infrastruktur, und der Verwendungszweck ist auf defensive Cybersicherheit beschränkt.
Klingt vernünftig, und im Kern ist es das auch. Aber die Entscheidung wirft eine Frage auf, die Anthropic in ihrem System Card nicht beantwortet.
Wer entscheidet, wer vertrauenswürdig ist?
Anthropic entscheidet das. Allein, nach internen Kriterien, ohne externen Prüfmechanismus.
Es gibt keinen unabhängigen Prozess, der die Auswahl der Partner überprüft. Kein Gremium, das die Entscheidungskriterien bewertet. Keine parlamentarische Kontrolle, kein Einspruchsrecht für abgelehnte Organisationen, keine öffentliche Begründung im Einzelfall. Anthropic legt die Kriterien fest, Anthropic bewertet die Partner, Anthropic vergibt den Zugang zu einem der mächtigsten KI-Modelle, das jemals entwickelt wurde.
Die Entscheidung darüber, wer Zugang zu diesem Werkzeug bekommt, liegt bei einem einzigen privaten Unternehmen in San Francisco. Das ist keine technische Entscheidung. Das ist eine politische, und sie wird wie eine interne Unternehmensangelegenheit behandelt.
Die Begründung macht es nicht besser
Man könnte einwenden: Die Safety-Begründung ist legitim, das Modell ist tatsächlich gefährlich, und natürlich muss irgendjemand entscheiden, wer Zugang bekommt. Das alles stimmt. Aber die relevante Frage ist nicht, ob jemand entscheiden muss, sondern wer diese Entscheidung treffen sollte und nach welchen Regeln.
Wenn ein Rüstungsunternehmen Waffen mit dual-use Potenzial entwickelt, entscheidet nicht das Unternehmen allein, an wen es verkauft. Es gibt Exportkontrollgesetze, zwischenstaatliche Verträge und parlamentarische Aufsicht, die den Entscheidungsrahmen vorgeben. Das alles ist unvollkommen und in der Praxis oft von Interessen durchdrungen. Aber es ist ein struktureller Versuch, die Entscheidung aus der Hand einer einzelnen Firma zu nehmen und in einen Rahmen kollektiver Verantwortung zu stellen.
Bei Mythos gibt es nichts davon. Keine vergleichbare Struktur, kein vergleichbarer Rahmen.

Wer die Partner sind
Anthropic nennt keine vollständige Liste der Partner. Auf der Projektseite von Glasswing nennt Anthropic die Launch-Partner: Amazon Web Services, Apple, Broadcom, Cisco, CrowdStrike, Google, JPMorganChase, die Linux Foundation, Microsoft, NVIDIA und Palo Alto Networks. Dazu kommen über 40 weitere Organisationen, die kritische Software-Infrastruktur betreiben.
Das sind also die Begünstigten: ein Querschnitt der mächtigsten Technologie- und Finanzkonzerne der Welt, Unternehmen, die zusammen einen Großteil der globalen digitalen Infrastruktur kontrollieren und über Ressourcen, Reichweite und politischen Einfluss verfügen, die mit keiner anderen Branche vergleichbar sind. Auf der Liste stehen auch echte Spezialisten für defensive Cybersicherheit wie CrowdStrike und Palo Alto Networks, und das ist kein Zufall. Aber es sind eben Spezialisten, die bereits zu den mächtigsten Akteuren ihrer Branche gehören.
Safety-motiviertes Gatekeeping verstärkt in diesem Fall bestehende Machtkonzentration, anstatt ihr entgegenzuwirken. Wer bereits Infrastruktur kontrolliert, bekommt jetzt auch Zugang zu einem Werkzeug, das Infrastruktur schützen und angreifen kann. Der Abstand zwischen diesen Organisationen und allen anderen wächst weiter, nicht weil sie besser oder effizienter wären, sondern weil sie zur richtigen Zeit die richtigen Kriterien erfüllt haben, die ein einzelnes Unternehmen intern festgelegt hat.
Das eigentliche Problem
Es wäre einfach, Anthropic an dieser Stelle zu verurteilen, aber das wäre auch falsch. Anthropic hat das System Card veröffentlicht und damit die Fähigkeiten des Modells transparent dokumentiert. Sie erklären ihre Entscheidung, nennen die Risiken beim Namen und machen deutlich, warum sie sich gegen eine breite Veröffentlichung entschieden haben. Das ist mehr, als die meisten anderen Labore in vergleichbaren Situationen getan haben.
Das eigentliche Problem ist strukturell und liegt nicht bei Anthropic, sondern bei dem institutionellen Vakuum, in dem sie operieren. Es gibt keine internationale Institution, die den Zugang zu Frontier-KI-Modellen reguliert. Es gibt keine Exportkontrollregeln für Sprachmodelle mit dual-use Fähigkeiten. Es gibt keinen Vertrag, keinen Standard, keine Behörde, die festlegen würde, wer unter welchen Bedingungen Zugang zu solchen Werkzeugen bekommt.
Also trifft Anthropic diese Entscheidung, weil niemand anderes sie trifft. Das ist nicht ihr Versagen. Das ist das Versagen der Politik, rechtzeitig Strukturen zu schaffen, die für genau diesen Moment gedacht wären.
Was ich mir wünsche
Keine utopischen Forderungen, sondern eine konkrete: Anthropic sollte die Kriterien für die Partner-Auswahl öffentlich machen. Welche Anforderungen müssen Organisationen erfüllen? Welcher interne Prozess liegt der Entscheidung zugrunde? Gibt es einen Widerspruchsmechanismus für abgelehnte Bewerber?
Solange diese Kriterien nicht öffentlich sind, bleibt die Aussage “wir geben es nur vertrauenswürdigen Partnern” eine Behauptung ohne überprüfbare Substanz, auch wenn die Intention dahinter seriös ist. Und auf der politischen Ebene fehlt das Äquivalent dazu vollständig: kein AI Safety Summit hat bisher verbindliche Regeln für den Zugang zu Hochrisiko-Modellen produziert, der EU AI Act greift hier nicht, und ein internationaler Standard existiert nicht.
Vertrauen ist gut. Überprüfbarkeit ist besser, und beides schließt sich nicht aus.
Quellen
- Anthropic: System Card — Claude Mythos Preview (7. April 2026) — Primärquelle für alle Angaben zu Fähigkeiten, Release-Entscheidung und Partner-Programm
- Anthropic: Project Glasswing — Projektseite mit Partner-Liste und Details zur Initiative
- Anthropic: Responsible Scaling Policy v3.0 — Rahmenwerk für Anthropics Risikoentscheidungen, unter dem Mythos evaluiert wurde