Zu Content springen
Editorial-Bild zu KI, Cybersecurity und Machtkonzentration in der Tech-Branche
Künstliche Intelligenz KI Mittelstand

Anthropic zeigt Anzeichen von AGI – oder nur perfektes Storytelling?

Maximilian Roeder
Maximilian Roeder

Anthropic hat vergangene Woche etwas angekündigt, das aus meiner Sicht deutlich mehr Aufmerksamkeit verdient hätte.

Mit Project Glasswing bringt das Unternehmen Schwergewichte wie AWS, Apple, Cisco, CrowdStrike, Google, JPMorganChase, Microsoft und NVIDIA zusammen, um besonders kritische Software abzusichern. Der Auslöser dafür ist ein internes KI-Modell namens Claude Mythos, das bisher nicht öffentlich verfügbar ist.

Und genau das macht die Sache spannend.

Was ist bei Anthropic passiert?

Laut Anthropic hat Mythos in kurzer Zeit Tausende kritische Schwachstellen identifiziert – darunter Fehler in großen Betriebssystemen, Browsern und Open-Source-Komponenten. Genannt werden unter anderem eine 27 Jahre alte Lücke in OpenBSD, eine 16 Jahre alte Schwachstelle in FFmpeg sowie verkettete Linux-Kernel-Exploits, die komplette Serverübernahmen ermöglicht hätten.

Wenn das so stimmt, reden wir nicht mehr nur über ein „besseres Modell“. Dann reden wir über ein System, das eigenständig sicherheitskritische Probleme auf einem Niveau findet, das für Menschen und klassische Prozesse nur schwer erreichbar ist.

Warum ist das mehr als nur eine starke Benchmark?

Auch die Benchmark-Zahlen unterstreichen das. Auf SWE-Bench Verified soll Mythos 93,9 % erreicht haben. Das bisherige Spitzenmodell Opus 4.6 lag bei 80,8 %. Das ist kein kleiner Fortschritt, sondern ein deutlicher Sprung.

Noch interessanter finde ich aber etwas anderes: Anthropic veröffentlicht dieses Modell nicht einfach sofort für alle.

Warum hält Anthropic das Modell zurück?

Die offizielle Begründung ist nachvollziehbar. Ein Modell mit solchen Fähigkeiten könnte nicht nur zur Verteidigung eingesetzt werden, sondern auch als Werkzeug für Angreifer. Deshalb will Anthropic die Technologie zunächst kontrolliert im defensiven Umfeld nutzen und stellt dafür laut eigener Aussage 100 Millionen Dollar an Nutzungsguthaben sowie 4 Millionen Dollar an direkten Spenden für Open-Source-Sicherheitsorganisationen bereit.

Das klingt verantwortungsvoll.

Es klingt allerdings auch nach einer nahezu perfekten Erzählung: Wir haben eine extrem mächtige KI. Wir halten sie zurück, um die Welt zu schützen. Und die größten Tech-Unternehmen der Welt arbeiten bereits mit uns.

AGI-Moment oder perfektes Storytelling?

Genau deshalb sollte man zwei Dinge gleichzeitig tun: das ernst nehmen und kritisch bleiben.

Denn selbst wenn ein Teil der Geschichte strategisch sehr gut inszeniert ist, bleibt die zentrale Frage bestehen: Was bedeutet es, wenn ein KI-Modell nicht primär wegen mangelnder Reife zurückgehalten wird, sondern wegen seines potenziellen Schadenspotenzials?

Für mich ist das einer der spannendsten Hinweise darauf, wie nah wir an einer neuen Stufe von KI-Fähigkeiten sein könnten.

Vielleicht ist das noch nicht AGI. Aber es ist definitiv mehr als nur ein weiterer Produktlaunch.

Was bedeutet das für Entscheider im Mittelstand?

Für Entscheider ist daran vor allem eines relevant: KI entwickelt sich nicht nur bei Texten, Chatbots oder Office-Helfern weiter, sondern zunehmend in Richtung echter Problemlösung in komplexen, sicherheitskritischen Kontexten. Wer KI heute nur als Produktivitäts-Feature betrachtet, unterschätzt, wie schnell daraus ein strategischer Machtfaktor werden kann.

Gerade im Mittelstand wird damit die Frage wichtiger, wo eigenes Know-how, eigene Datenhoheit und belastbare Automatisierung künftig Wettbewerbsvorteile sichern. Die spannendste Entwicklung ist deshalb nicht nur, dass KI besser wird – sondern wo sie plötzlich Fähigkeiten erreicht, die bisher als klar menschlich galten.

Diesen Beitrag teilen