Apple arbeitet intensiv daran, Siri grundlegend zu überarbeiten und fit für die Zukunft zu machen. Dabei geht es nicht nur um kleinere Verbesserungen, sondern um eine neue Generation der Sprachassistenz, die auf modernen KI-Modellen basiert. Um dieses Ziel zu erreichen, führt Apple derzeit Gespräche mit Google über die Integration von Gemini AI. Parallel dazu prüft das Unternehmen auch eigene Modelle und andere externe Partner.
Die Entwicklung im Bereich Künstliche Intelligenz schreitet rasant voran. Unternehmen wie OpenAI oder Anthropic haben bereits leistungsstarke Modelle vorgestellt, und auch Google mischt mit Gemini AI ganz vorne mit. Apple will nicht zurückfallen und überarbeitet deshalb Siri vollständig. Ziel ist eine intelligentere, personalisierte und flexiblere Sprachassistenz. Die Gespräche mit Google zeigen, wie ernst Apple dieses Vorhaben nimmt – auch wenn noch keine endgültige Entscheidung gefallen ist.
Gespräche mit Google über Gemini AI
Laut einem Bericht von Bloomberg verhandelt Apple mit Google über den Einsatz von Gemini AI als Basis für die nächste Siri-Version. Apple hat Google gebeten, ein speziell angepasstes Modell zu entwickeln, das auf den hauseigenen Private Cloud Compute-Servern laufen soll. Mit diesem Ansatz ließe sich die Integration von leistungsstarker KI mit Apples hohen Anforderungen an Datenschutz und Sicherheit verbinden.
Alternative Partner: OpenAI und Anthropic
Google ist nicht der einzige mögliche Partner. Schon zuvor hatte Apple Gespräche mit OpenAI und Anthropic geführt. Beide Unternehmen haben Modelle für Apples Server entwickelt, die kompatibel mit der geplanten Infrastruktur sind. Besonders Anthropic galt zeitweise als Favorit, doch die geforderten Lizenzgebühren führten dazu, dass Apple weitere Optionen prüfte. Eine endgültige Entscheidung ist bisher nicht gefallen, und Verträge mit keinem der Unternehmen wurden bisher unterzeichnet.
Eigene KI-Modelle von Apple
Neben externen Lösungen setzt Apple auch auf die Entwicklung eigener Large Language Models. Aktuell testet das Unternehmen mehrere Ansätze, um herauszufinden, welche Ergebnisse für die Nutzer am besten sind. In Arbeit sind zwei Versionen der neuen Siri: eine, die vollständig auf Apples eigenen Modellen basiert, und eine weitere, die externe Technologie nutzt.
Die Siri-Architektur der zweiten Generation
Ein zentrales Element der Weiterentwicklung ist die sogenannte „Siri-Architektur der zweiten Generation“. Craig Federighi, Chief Software Engineer bei Apple, erklärte, dass die Sprachassistenz vollständig neu aufgebaut wurde. Mit dieser Überarbeitung habe Apple genau die Fortschritte erzielt, die für moderne KI-Funktionen wie Personalisierung erforderlich seien. Diese sollen mit Apple Intelligence in iOS 18 eingeführt werden. Laut Federighi gehe die Weiterentwicklung sogar über das hinaus, was ursprünglich angekündigt war.
Geplanter Marktstart
Der Zeitplan für die neue Siri-Version sieht einen Marktstart im Frühjahr 2026 vor. Bis dahin testet Apple weiter verschiedene Modelle und entscheidet, ob die künftige Sprachassistenz auf eigenen Entwicklungen oder der Technologie von Google, OpenAI oder Anthropic basiert.
Apple testet eigene und externe KI-Lösungen
Apple hat mit der Überarbeitung von Siri ein ambitioniertes Projekt gestartet. Die Gespräche mit Google über Gemini AI, die bisherigen Tests mit OpenAI und Anthropic sowie die Entwicklung eigener Modelle zeigen, dass mehrere Wege offenstehen. Welche Lösung am Ende das Rennen macht, bleibt abzuwarten. Klar ist jedoch, dass Apple mit der Siri-Architektur der zweiten Generation und den geplanten KI-Funktionen in iOS 18 einen entscheidenden Schritt in Richtung einer deutlich intelligenteren Sprachassistenz macht. (Bild: Shutterstock / anatoliy_gleb)