Sicherheitsforscher haben mit Hilfe einer frühen Version von Anthropics geheimem KI-Modell Mythos eine neue Methode gefunden, um Apples Schutzmechanismen in macOS zu umgehen. Apple prüft die Erkenntnisse aktuell – und bekommt damit erstmals einen konkreten Eindruck davon, was Mythos in den Händen ambitionierter Sicherheitsteams leisten kann.
Der Vorgang ist hochsensibel: Mythos gilt seit seiner Vorstellung als eines der mächtigsten KI-Modelle für Sicherheitsforschung – und genau deshalb wird der Zugriff darauf von Anthropic streng kontrolliert. Dass das System nun nicht nur in Forschungslaboren erprobt, sondern bei echten Apple-Lücken eingesetzt wird, fügt sich in das Bild, das mit dem gemeinsamen Cybersecurity-Projekt von Apple und Anthropic klar wurde: KI-Modelle übernehmen einen wachsenden Anteil bei der Schwachstellensuche – und Apple ist eines der primären Ziele dieser Forschung.
Was die Forscher konkret entdeckt haben
Das Team des kalifornischen Sicherheitsunternehmens Calif – mit Sitz in Palo Alto – hat im April mit einer frühen Mythos-Version gearbeitet und dabei ein Software-Stück entwickelt, das zwei Bugs mit einer Reihe technischer Methoden kombiniert. Das Ziel: den Speicher eines Macs gezielt zu beschädigen und anschließend auf Systembereiche zuzugreifen, die normalerweise gesperrt sind (via WSJ).
Das Ergebnis ist ein sogenannter Privilege-Escalation-Exploit – eine Schwachstelle, bei der ein Angreifer seine Rechte auf dem Zielsystem unbefugt erweitert. Kombiniert mit anderen Angriffen könnte ein solcher Exploit dazu genutzt werden, um vollständige Kontrolle über einen Mac zu übernehmen. Die Forscher haben ihren Befund in einem 55-seitigen Bericht zusammengefasst und persönlich in Cupertino bei Apple übergeben.
Was Apple sagt
Apple bestätigt den Eingang des Berichts und prüft die Erkenntnisse derzeit. Ein Apple-Sprecher erklärte gegenüber dem Wall Street Journal, Sicherheit sei oberste Priorität und Berichte über potenzielle Schwachstellen würden ernst genommen. Eine technische Bewertung, ob die im Calif-Bericht beschriebenen Lücken tatsächlich für reale Angriffe geeignet sind, hat Apple noch nicht abgegeben.
Calif selbst hält Details des Vorgehens vorerst zurück. Erst wenn Apple die zugrunde liegenden Probleme behoben hat, will das Unternehmen genauere Informationen veröffentlichen. Calif-CEO Thai Duong rechnet damit, dass Apple die Fehler relativ schnell schließen wird – ein Hinweis darauf, dass die identifizierten Schwachpunkte zwar gravierend, aber technisch behandelbar erscheinen.
Mythos allein hätte den Angriff nicht ermöglicht
Eine wichtige Einordnung kommt von Calif-CEO Duong selbst: Der Angriff sei nicht allein durch Mythos möglich gewesen, sondern habe auch die menschliche Cybersecurity-Expertise einiger Calif-Mitarbeiter erfordert. Das ist eine relevante Nuance in einer Debatte, in der KI-Modelle oft entweder als Wundermittel oder als Bedrohung dargestellt werden. Tatsächlich liegt der Erkenntnisgewinn in der Kombination: Mythos hilft Forschern, schneller Hypothesen zu bilden und größere Codebasen systematisch zu durchsuchen – die Bewertung, ob ein Bug tatsächlich ausnutzbar ist, bleibt aber Aufgabe menschlicher Experten.
Warum Mythos so umstritten ist
Anthropic hatte Mythos im April 2026 vorgestellt und bewusst nur einer eng begrenzten Gruppe externer Forscher Zugang gewährt. Die Begründung: Die Fähigkeiten des Modells im Bereich Schwachstellensuche könnten in falschen Händen massiven Schaden anrichten. Genau dieses Risiko wurde wenige Wochen später öffentlich diskutiert, als bekannt wurde, dass Unbefugte auf Mythos zugegriffen haben sollen – ein Vorgang, der Anthropic in Erklärungsnot brachte und auch in Cupertino aufmerksam verfolgt wurde.
Parallel ist Mythos längst ein Werkzeug der US-Behörden: Die NSA setzt das Modell trotz des öffentlich gewordenen Streits mit dem Pentagon für die Cyberabwehr ein. Die Calif-Forscher arbeiten in genau diesem Spannungsfeld: zwischen verantwortungsvoller Sicherheitsforschung und einem Werkzeug, dessen Verbreitung Anthropic eigentlich strikt eindämmen möchte.
Was der Vorgang für Apple bedeutet
Für Apple zeigt der Fall, was im KI-getriebenen Sicherheits-Zeitalter Standard wird: KI-Modelle finden Schwachstellen, die menschliche Forscher allein wahrscheinlich nicht oder nicht so schnell entdeckt hätten. Apples Patch-Zyklen mit regelmäßigen Sicherheitsupdates für iOS, macOS und Safari werden damit nicht obsolet – im Gegenteil, sie werden wichtiger, weil die Frequenz der entdeckten Schwachstellen mit jedem KI-Sprung wahrscheinlich weiter steigt.
Dass Calif den Bericht persönlich in Cupertino übergeben hat und nicht über öffentliche Coordinated-Disclosure-Plattformen, zeigt zudem den engen Draht, den professionelle Sicherheitsforscher mit Apples Product-Security-Team pflegen. Apple wiederum profitiert von der Vorabinformation – die Schwachstellen lassen sich schließen, bevor Details öffentlich werden.
Eine neue Phase der Apple-Sicherheitsforschung
Was Calif mit Mythos demonstriert, ist absehbar erst der Anfang. Je mehr Forschungsteams Zugriff auf entsprechende KI-Modelle bekommen, desto häufiger dürften große Plattformanbieter wie Apple mit komplexen, KI-assistierten Exploit-Ketten konfrontiert werden. Für macOS-Nutzer bedeutet das vor allem eines: Sicherheitsupdates zeitnah einzuspielen, sobald Apple sie ausrollt. Welche konkreten Patches in den nächsten Wochen mit den hier dokumentierten Befunden zu tun haben werden, bleibt vorerst Apples Sache – die Vorzeichen deuten aber darauf hin, dass die nächste macOS-Sicherheitsrunde umfangreicher ausfallen könnte als üblich.
Weitere Schutz-Ratgeber rund um Apple-Sicherheit, KI-gestützte Angriffe und macOS-Bedrohungen erscheinen regelmäßig in unserer Cybersecurity-Reihe, die Apple-spezifische Themen Schritt für Schritt einordnet.
KI verändert das Sicherheitsspiel – und Apple sitzt in der ersten Reihe
Was bisher als theoretisches Risiko galt, ist mit dem Calif-Bericht konkret geworden: KI-Modelle finden Lücken in Systemen wie macOS, die mit klassischer Forschung schwerer zu erschließen sind. Apple hat das Thema mit der Anthropic-Kooperation früh adressiert – und steht nun gleichzeitig auf beiden Seiten: als Plattformanbieter, der seine Software absichern muss, und als Partner einer KI-Strategie, die genau die Werkzeuge mitgestaltet, mit denen seine Schwachstellen aufgespürt werden. (Bild: Shutterstock / R.bussarin)
- Shrinking Staffel 4: Dreh startet nächste Woche – Premiere Anfang 2027 möglich
- iPhone 17 Pro lädt schneller als 32 andere Smartphones im Test
- Entsperrte iPhones bringen Dieben bis zu 800 Dollar mehr
- Apples F1-Pläne in Europa: Sky sichert sich Schlüsselmärkte vorzeitig
- Evercore hebt Apple-Kursziel auf 365 Dollar – Vertrauen in Apple Intelligence
- Tim Cook in Peking: Trump-Delegation mit Musk und Wall-Street-Spitze
- Margo’s Got Money Troubles: Apple TV bestellt zweite Staffel
- Safari 26.5: Sicherheitsupdate schließt 20 WebKit-Lücken
- WhatsApp führt Incognito-Chats mit Meta AI ein
- Apple stellt sich an die Seite von Google im EU-DMA-Streit
- „Fútbol is life“ wird Realität: Ted-Lasso-Star Cristo Fernández unterschreibt Profivertrag
- Umfrage: Faltbare Smartphones und KI motivieren kaum zum Wechsel
- Foxconn bestätigt Ransomware-Angriff auf nordamerikanische Werke
- iPhone 17 treibt Apples Marktanteil in den USA weiter nach oben
- Quick Share trifft AirDrop: Google öffnet Datei-Tausch für mehr Android-Geräte
- Apple setzt erstmals KI-generierte Präsentatoren in eigener App ein
- Severance Staffel 3 kommt deutlich schneller als die letzte
- Apple kauft Color.io-Macher Patchflyer für Creator Studio
- Apple Arcade im Mai und Juni: Bluey-Event plus vier neue Titel
- WhatsApp: Beta zeigt nächste Liquid-Glass-Stufe für Chats
- Tim Cook fliegt mit Trump nach China
- OpenAI startet Daybreak als Antwort auf Anthropics Glasswing-Programm
- Apple veröffentlicht Aufzeichnungen vom PPML-Workshop 2026



