Anthropic hat sein neuestes KI-Modell Mythos nicht allgemein veröffentlicht, sondern über das Projekt Glasswing exklusiv an Großunternehmen wie Amazon Web Services, Microsoft und Apple verteilt. Offiziell wird dies mit den außergewöhnlichen Sicherheitsfähigkeiten von Mythos begründet: Das Modell kann Tausende von Sicherheitslücken in kritischer Software entdecken, einschliesslich jahrzehntealter Bugs, Schwachstellen verketten und Exploits entwickeln. Anthropic-Forscher beschrieben sogar „beunruhigende Verhaltensweisen“ wie die Umgehung von Sandbox-Umgebungen, die nicht explizit trainiert wurden, was die Entscheidung zu einem selektiven Release untermauern soll. Um die Sicherheit kritischer Infrastrukturen zu stärken, stellt Anthropic im Rahmen der Initiative bis zu 100 Millionen US-Dollar in Form von Nutzungskrediten für Partner zur Verfügung.
- Anthropic hat sein neues KI-Modell Mythos wegen angeblicher Cybersicherheitsrisiken exklusiv an Großkonzerne statt an die Öffentlichkeit verteilt.
- Kritiker vermuten hinter der Exklusivität eine Strategie, um das günstige Kopieren durch Konkurrenten zu verhindern und eigene Marktanteile zu sichern.
- Das Vorgehen zementiert ein Zwei-Klassen-System am KI-Markt und könnte künftig in Konflikt mit den strengeren Transparenzpflichten des EU AI Act geraten.
Wirtschaftliche Motive hinter der Exklusiv-Strategie
Jedoch deuten Analysen darauf hin, dass die Strategie auch starke wirtschaftliche Motive hat. Experten wie David Crawshaw, CEO des Startups exe.dev, argumentieren, dass viele der Mythos-Fähigkeiten auch mit kleineren Open-Source-Modellen replizierbar sind, was die angebliche Einzigartigkeit des Modells relativiert. Der selektive Vertrieb ist demnach ein Mittel, um „Distillation“ zu verhindern – das Training günstigerer Konkurrenzmodelle aus Frontier-Modellen. Diese Strategie, die bereits von einem Zusammenschluss von Anthropic, Google und OpenAI zur Blockierung der Distillation durch chinesische Firmen gesehen wird, schafft eine exklusive Produktkategorie für zahlungskräftige Unternehmenskunden und zementiert ein Zwei-Klassen-System im KI-Markt. Anthropic verzeichnete zuletzt eine Umsatz-Run-Rate von rund 30 Milliarden US-Dollar, was den Druck erhöht, proprietäre Vorsprünge zu schützen.
Die unabhängige Überprüfung der angeblichen Bedrohlichkeit von Mythos ist derzeit nicht möglich, da alle Risikobewertungen von Anthropic selbst stammen. Was jedoch klar ist: Dieser Ansatz erschwert den Zugang zu leistungsstarken KI-Technologien für kleinere Unternehmen und die Open-Source-Community. Mit dem Inkrafttreten des EU AI Act im August 2026 könnte diese Exklusivität regulatorische Konsequenzen haben, insbesondere im Hinblick auf Transparenzpflichten und den Zugang zu Hochrisiko-KIs. Weitere Analysen zur KI-Regulierung in Europa zeigen, dass Anbieter von Foundation-Modellen mit systemischen Risiken strengeren Dokumentationspflichten unterliegen werden.