Claude Mythos: Wie Anthropics KI die Cyber-Security herausfordert
MIT Technology Review
Analyse
Verpasse keine News mehr!
Claude Mythos: Wie Anthropics KI die Cyber-Security herausfordert
KI-Modelle wie Claude Mythos finden nicht nur Sicherheitslücken in Software, sie schreiben auch Code, der diese Lücken ausnützt. Ist das das Ende der Cybersicherheit?
Von
Wolfgang Stieler
14.05.2026, 06:15 Uhr
•
4 Min.
Artikel merken
Anzeige
Anzeige
Nur wenige Unternehmen haben Zugriff auf Claude Mythos Preview. (Foto: Stockinq / Shutterstock)
Seit Anthropic am 7. April 2026 Claude Mythos und sein Project Glasswing vorgestellt hat,
ist viel von Hype und Marketing
die Rede. Denn das Modell, das Sicherheitslücken in Software aufspüren kann, ist nach Angaben von Anthropic so mächtig, dass das Unternehmen das Modell nicht veröffentlicht. Technische Einzelheiten zur Beurteilung des Modells gibt es dagegen kaum. Nur handverlesene Kunden sollten Zugang zu einer „gated research preview“ bekommen.
Anzeige
Anzeige
Mittlerweile sind die ersten Ergebnisse ausgewählter Projekte veröffentlicht worden. Aus den spärlichen Puzzleteilen lässt sich ein Bild skizzieren. Wir beantworten die wichtigsten Fragen zu Claude Mythos Preview und der Zukunft der Cybersicherheit in Zeiten vollautomatischer Exploit-Agenten.
Empfehlungen der Redaktion
Code-Analyse in Rekordzeit: Wie die KI Sicherheitslücken aufspürt
Ein großes Sprachmodell findet Sicherheitslücken in Software, weil es mit vielen gut dokumentierten Code-Beispielen trainiert worden ist. Das ist aber nicht alles. Weil Agenten, die von diesen großen Sprachmodellen betrieben werden, selbstständig Tools aufrufen können, lässt sich auch der weitere Workflow weitgehend automatisieren. Anthropic beschreibt das für Mythos so: Code lesen, Hypothese für Exploit bilden, Proof-of-Concept schreiben und in einer virtuellen Umgebung testen und am Ende einen belastbaren Bug-Report ausgeben.
Anzeige
Anzeige
„Code lesen“ heißt natürlich nicht, den Code zu lesen wie ein menschlicher Entwickler. Aber Sprachmodelle sind mittlerweile in der Lage, Text und damit auch Code in einem größeren Kontext zu analysieren. Der schwedische Entwickler Daniel Stenberg beschreibt das in einer Fallstudie:
einem Bericht über die Analyse der Software curl mit dem Mythos Preview
. Sprachmodelle wie Claude Mythos erkennen beispielsweise, „wenn ein Kommentar etwas über den Code aussagt, und schließen daraus, dass der Code nicht so funktioniert, wie es der Kommentar beschreibt“, schreibt er. Oder das Modell nutzt sein Wissen zu „Details zu Bibliotheken von Drittanbietern und deren APIs, sodass es Missbrauch oder falsche Annahmen erkennen kann“.
Was sind das für Sicherheitslücken?
Die National Institute of Standards and Technology (NIST), die in den USA für Cybersicherheit zuständig ist,
definiert Sicherheitslücken
allgemein als Schwächen in der Logik von Soft- oder Hardware, die bei Ausnutzung Vertraulichkeit, Integrität oder Verfügbarkeit der IT beeinträchtigen.
Empfohlene redaktionelle Inhalte
Hier findest du externe Inhalte von
TargetVideo GmbH
,
die unser redaktionelles Angebot auf t3n.de ergänzen.
Mit dem Klick auf "Inhalte anzeigen" erklärst du dich einverstanden,
dass wir dir jetzt und in Zukunft Inhalte von
TargetVideo GmbH
auf unseren Seiten anzeigen dürfen.
Dabei können personenbezogene Daten an Plattformen von Drittanbietern übermittelt werden.
Inhalte anzeigen
Hinweis zum Datenschutz
Leider ist etwas schief gelaufen...
An dieser Stelle findest du normalerweise externe Inhalte von
TargetVideo GmbH
,
jedoch konnten wir deine Consent-Einstellungen nicht abrufen.
Lade die Seite neu oder passe deine Consent-Einstellungen manuell an.
Datenschutzeinstellungen verwalten
Angreifern geht es dabei in der Regel darum, unberechtigt Code auszuführen, Zugriffsrechte zu erlangen oder auf Daten aus geschützten Bereichen zuzugreifen. Ein Buffer-Overflow zum Beispiel ist eine Schwachstelle, die entsteht, wenn ein Programm Input ohne Längenüberprüfung zulässt. Ist der Input extrem lang, schreibt das Programm mehr Daten in einen Speicherbereich, als dort hineinpassen. Dadurch werden benachbarte Speicherstellen überschrieben – in ungünstigen Fällen kann der Angreifer auf diese Weise eigenen Code ausführen, der untergeschoben wurde wie ein Kuckusei.
Die KI findet keine neuartige Sorte von Schwachstelle, sondern übliche und im Prinzip auch bekannte Schwachstellen, die sich schon lange im Code befinden, die aber bisher niemand bemerkt hat.
Anzeige
Anzeige
Wie gut kann eine KI solche Schwachstellen ausnutzen?
Sprachmodelle können Sicherheitslücken ausnutzen, indem sie Hypothesen bilden und die dann mit Beispielcode prüfen. Thorsten Holz vom MPI für Sicherheit und Privatsphäre in Bochum berichtet auf einem Pressebriefing des Science Media Center von Ergebnissen aus dem Projekt
ExploitGym
, an dem er gemeinsam mit internationalen Forschenden beteiligt war. In dem Projekt testeten die Forschenden unter anderem an Claude Mythos, wie gut große KI-Modelle Sicherheitslücken vollautomatisch ausnutzen können.
Dabei bekamen die KI-Modelle knapp 900 Beispiele vorgesetzt, die jeweils den Code des anzugreifenden Programms, einen Crash-Report und den zugehörigen Input enthielten, der das Programm zum Absturz gebracht hatte. Daraus sollte ein Agent auf Basis des Modells in maximal sechs Stunden einen funktionierenden Exploit machen, der ermöglicht, eigenen Code in einem geschützten Bereich des Testsystems auszuführen.
Das Ergebnis: Mythos hat 160 Lücken gefunden, GPT 5.5 hat 120 Lücken aufgespürt. Nur ein offenes Modell, GLM (vom chinesischen Anbieter Zhipu AI), war überhaupt in der Lage, zwei Schwachstellen zu finden. „Wir sehen aber auch, dass die offenen Modelle sehr schnell aufholen. Demnächst sind vielleicht auch offen verfügbare Modelle online, die über ähnliche Fähigkeiten verfügen wie sie jetzt nur Mythos und GPT‑5.5 haben“, sagt Holz. Demnächst heißt für ihn sechs Monate bis ein Jahr.
Anzeige
Anzeige
Ist IT-Sicherheit damit kaputt?
Nein, aber die Lage ist nicht unkritisch. Einerseits sprechen die ersten Befunde für einen realen Fähigkeitszuwachs. Top-Modelle wie Claude Mythos sind in der Lage, Sicherheitslücken zu finden, die automatisiert bisher nicht aufgespürt werden konnten. Und sie können in vielen Fällen auch Software entwickeln, die diese Lücken bösartig ausnutzt. Bisher ist der Zugriff auf die Top-Modelle mit diesen Fähigkeiten stark eingeschränkt. Aber die Erfahrung zeigt, dass quelloffene Modelle schnell aufholen.
Allerdings kann dieselbe Technik, die Angriffe skaliert, auch Verteidigung skalieren. In diesem Sinn ist Mythos nicht nur Bedrohung, sondern auch ein Vorgeschmack auf eine Zukunft, in der Software-Entwickler ihre Software nicht nur automatisiert testen, sondern auch automatisiert patchen. „Das kann jetzt in den kommenden zwei bis drei Jahren unangenehm werden, aber wenn wir die Krise überstanden haben, wird Software insgesamt sogar sicherer“, sagt Holz.
Es gibt aber zwei große Unbekannte in dieser Gleichung. Zum einen ist nicht klar, wie viel Software in Zukunft von KI geschrieben wird und ob es damit gelingt, Code mit weniger Sicherheitslücken zu produzieren – oder ob sich die Situation eher noch verschlimmert. Zum anderen haben KI-Modelle bisher noch keine völlig neuen Angriffs- oder Verteidigungsmethoden gefunden. Das kann aber durchaus noch passieren. Wie sich die Situation dann entwickelt, ist völlig unklar.
Anzeige
Anzeige
Jonas Geiping von der Universität Tübingen befürchtet zudem, dass insbesondere kleine Unternehmen aus Deutschland ins Hintertreffen geraten könnten, wenn man die Sicherheit seiner Software nur mithilfe teurer Top-Modelle aus den USA sicherstellen kann. „Dann müssten wir schauen, wie wir die heimische Software-Industrie schützen können.“
Top-Artikel
MIT Technology Review
Security
Künstliche Intelligenz
← Volver a las noticias