Das neue KI-Modell von Anthropic beunruhigt Cybersecurity-Sektor
Cybersecurity-Aktien stehen unter Verkaufsdruck und ein Name taucht dabei immer wieder auf: Anthropic. Das KI-Unternehmen hat mit seinem neuen Modell Claude Mythos demonstriert, wie leistungsfähige künstliche Intelligenz bei der Erkennung von Software-Schwachstellen inzwischen ist. Was als technologischer Durchbruch für die Cyberverteidigung gedacht ist, hat an den Märkten eine Vertrauenskrise im gesamten Software-Sektor ausgelöst.
Drei Schockwellen innerhalb von sechs Wochen
Die Nervosität begann im Februar, als Anthropic ein Code-Scanning-Tool namens Claude Code Security vorstellte. Obwohl es sich um ein eng fokussiertes Werkzeug handelte, das Quellcode auf Schwachstellen analysiert und weder Endpoint-Schutz noch Netzwerksicherheit ersetzt, reagierten die Märkte heftig. Die Aktien von Cybersecurity-Unternehmen wie CrowdStrike oder Cloudflare verloren beide rund 8 Prozent (CNBC, 23.02.2026). CrowdStrike-CEO George Kurtz wehrte sich auf LinkedIn: «Ein Code-Scanning-Tool ersetze weder die Falcon-Plattform noch ein umfassendes Sicherheitsprogramm.»
Einen Monat später folgte der zweite Schock. Durch einen Konfigurationsfehler bei Anthropic wurde ein interner Blogbeitrag öffentlich, der ein neues Modell namens Claude Mythos beschrieb – leistungsfähiger als alle bisherigen Systeme und laut dem Entwurf mit «beispiellosen Risiken für die Cybersicherheit» behaftet (Fortune, 27.03.2026). Parallel dazu berichtete Axios, Anthropic habe ranghohe Regierungsvertreter hinter verschlossenen Türen gewarnt, Mythos erhöhe die Wahrscheinlichkeit grossangelegter Cyberangriffe deutlich (Axios, 07.04.2026).
Die dritte Welle rollte Anfang April an, als Anthropic das Modell offiziell unter dem Namen Project Glasswing vorstellte – allerdings nicht für die Öffentlichkeit, sondern ausschliesslich für rund 40 ausgewählte Organisationen, darunter Microsoft, Amazon, Apple, Google, CrowdStrike und Palo Alto Networks (Anthropic, 07.04.2026). Die technischen Ergebnisse sind bemerkenswert: Mythos Preview identifizierte Tausende bisher unbekannter Schwachstellen in jedem grossen Betriebssystem und Browser, manche davon über zwei Jahrzehnte alt. In Benchmark-Tests gelang es dem Modell in 83,1 Prozent der Fälle, eine gefundene Schwachstelle beim ersten Versuch nicht nur zu identifizieren, sondern auch zu demonstrieren, wie ein Angreifer sie konkret ausnutzen könnte (Axios, 07.04.2026). Erneut mussten die Cybersecurity-Aktien leiden.
Umbruch oder Nachfragesteigerung?
Der reflexartige Ausverkauf verdeckt eine differenziertere Realität. Cybersecurity umfasst Dutzende unterschiedlicher Produktkategorien – von Endpoint-Detection über Identitätsmanagement bis hin zu DDoS-Schutz. Ein KI-Modell, das Code-Schwachstellen findet, bedroht in diesem Geschäftsfeld nur einen Ausschnitt. Gleichzeitig macht Anthropic mit der Partnerstruktur von Glasswing deutlich, dass es die bestehenden Sicherheitsanbieter nicht ersetzen, sondern einbinden will. Dass ausgerechnet CrowdStrike und Palo Alto Networks als Partner miteinbezogen werden sollen, unterstreicht diese Absicht.
Die jüngsten Geschäftszahlen der beiden grössten börsennotierten Cybersecurity-Anbieter zeichnen dabei ein anderes Bild als die Kursentwicklung: CrowdStrike steigerte den Umsatz im vierten Quartal des Geschäftsjahres 2026 um 23 Prozent auf 1.31 Milliarden US-Dollar und übertraf die Konsensschätzungen (CrowdStrike, 03.03.2026). Palo Alto Networks meldete im selben Zeitraum ein Umsatzwachstum von 15 Prozent auf 2.6 Milliarden US-Dollar, ebenfalls über den Erwartungen (Palo Alto Networks, 17.02.2026). Die Kursrückgänge spiegeln weniger eine aktuelle Ertragsschwäche wider, sondern vielmehr die Unsicherheit überdie langfristige Tragfähigkeit bestehenden Geschäftsmodelle angesichts immer autonomer KI-Modelle. Zugleich gilt: Wenn KI die Angriffsfläche vergrössert, etwa durch autonome Agenten, kann der Bedarf an Sicherheitslösungen steigen.
Politische Gegenwinde
Hinzu kommt, dass Anthropic selbst in politisches Kreuzfeuer geraten ist. Das Unternehmen wurde Anfang März in einer viel diskutierten Affäre vom US-Verteidigungsministerium als Lieferketten-Risiko eingestuft, nachdem es sich geweigert hatte, dem Verteidigungsministerium uneingeschränkten Zugang zu seinen KI-Modellen zu gewähren – insbesondere zog Anthropic rote Linien bei vollautonomen Waffen und inländischer Massenüberwachung (CNBC, 08.04.2026). Die Einstufung ist historisch beispiellos für ein US-Unternehmen und wird derzeit vor verschiedenen Gerichten verhandelt (Reuters, 08.04.2026). Dieser Konflikt wirft die grundsätzliche Frage auf, wie KI-Unternehmen künftig zwischen kommerziellen und ethischen Anforderungen navigieren.
Die jüngsten Entwicklungen unterstreichen die vorherrschende Unsicherheit: Investoren bepreisen ein Umbruchsszenario, das technologisch plausibel, aber in seinem Ausmass noch unbestimmt ist. Die gleiche KI, die bestehende Geschäftsmodelle bedroht, schafft gleichzeitig neue Angriffsszenarien und damit neuen Schutzbedarf. Ob der Markt diese Ambivalenz derzeit angemessen bewertet oder überreagiert, wird sich erst zeigen, wenn die realen Auswirkungen auf Unternehmensbudgets und Sicherheitsarchitekturen sichtbar werden.