Apple will bei Künstlicher Intelligenz aufholen. Die Sprachassistentin Siri hinkt der Konkurrenz schon lange hinterher – bei Funktionen, Verständnis und Zuverlässigkeit. Jetzt könnte sich etwas ändern. Apple prüft aktuell, ob man mit den Anbietern großer Sprachmodelle zusammenarbeiten will, um Siri deutlich zu verbessern. Im Gespräch sind OpenAI, die Entwickler von ChatGPT, und Anthropic, die Claude entwickelt haben.
Wenn du ein iPhone nutzt, kennst du Siri wahrscheinlich als nette, aber oft begrenzte Assistentin. Während ChatGPT komplexe Kontexte versteht und echte Dialoge führen kann, bleibt Siri oft an der Oberfläche. Apple ist sich dieses Problems bewusst. Deshalb sucht das Unternehmen nach Möglichkeiten, leistungsfähige Sprachmodelle in Siri zu integrieren – entweder über eine Partnerschaft mit OpenAI oder mit Anthropic. Die internen Gespräche laufen bereits.
Apple testet Sprachmodelle von OpenAI und Anthropic
Laut Bloomberg hat Apple sich mit beiden Firmen getroffen, um über eine mögliche Integration ihrer Sprachmodelle in Siri zu sprechen. Ziel ist es, die Schwächen von Siri durch ein modernes KI-Modell zu beheben, das auch auf Apples Infrastruktur läuft. Die Cloud-Lösungen, die Apple dabei nutzt, heißen Private Cloud Compute. Beide Firmen trainieren aktuell Versionen ihrer Modelle, die genau auf diese Server angepasst sind. Die Tests laufen. Eine Entscheidung gibt es noch nicht. Apple prüft aktuell, welches Modell sich technisch und strategisch am besten eignet – und ob man Siri wirklich teilweise oder ganz auf eine Drittanbieter-KI umstellen will.
Anthropic liegt in den Tests vorne
Bis jetzt soll Anthropic laut internen Quellen die Nase vorn haben. Claude scheint besser mit Apples Anforderungen zu harmonieren als ChatGPT. Apple und Anthropic haben sogar schon erste finanzielle Rahmenbedingungen diskutiert. Dabei geht es um eine jährliche Lizenzgebühr in Milliardenhöhe – mit Option auf Steigerung in den kommenden Jahren. Genau das macht die Entscheidung kompliziert. Apple möchte sich nicht abhängig machen und prüft deshalb auch weiterhin eine Zusammenarbeit mit OpenAI. Der Konzern wägt zwischen Technologie, Kosten und langfristiger Kontrolle ab.
Apple entwickelt auch ein eigenes KI-Modell – aber langsam
Parallel arbeitet Apple an einem eigenen großen Sprachmodell. Dieses Modell soll Siri langfristig antreiben – ist aber noch nicht einsatzbereit. Auf der WWDC im Juni 2024 kündigte Apple neue Siri-Funktionen für das iPhone 16 an, konnte sie aber technisch nicht rechtzeitig liefern. Im März 2025 gab Apple dann bekannt, dass die sogenannten Apple Intelligence Siri-Funktionen erst 2026 erscheinen werden. Die Verschiebung sorgte für Kritik und Klagen von Nutzern. Jetzt ist geplant, diese Funktionen mit einem Update für iOS 26 bereitzustellen. Das nächste große Ziel ist eine erweiterte Siri-Version mit einem vollwertigen Sprachmodell ab iOS 27 im Herbst 2026.
ChatGPT-Integration in Siri startet mit iOS 18
Die ersten Schritte sind bereits gemacht. Mit iOS 18 führt Apple eine Weiterleitungsfunktion ein: Siri kann Anfragen an ChatGPT senden, wenn sie selbst nicht weiterweiß. Du bekommst dann direkt von ChatGPT eine ausführlichere Antwort – ohne die App extra öffnen zu müssen. Apple arbeitet hier bereits offiziell mit OpenAI zusammen. Die Funktion ist so gestaltet, dass sie sich nahtlos in die bestehende Siri-Oberfläche einfügt. Das ist zwar noch keine vollständige Integration, aber ein wichtiger Zwischenschritt. Apple will dir damit schon jetzt verbesserte Funktionen bieten, während intern weiter am eigenen Modell gearbeitet wird.
- Apple Aktionäre klagen wegen falscher Siri-Versprechen
- Apple denkt über Übernahme von Perplexity AI nach
Apple plant die nächste Siri-Generation – aber wie?
Apple steht vor einer strategischen Entscheidung. Eigene Entwicklung oder Partnerschaft – oder beides? Mit Claude von Anthropic scheint eine technische Lösung greifbar, aber teuer. ChatGPT ist bereits teilweise integriert und könnte mehr liefern. Gleichzeitig möchte Apple mittelfristig unabhängig bleiben und investiert weiter in eigene KI-Modelle. Für dich als Nutzer heißt das: Siri wird sich verändern. Mit iOS 18 startete die ChatGPT-Anbindung, mit iOS 26 kommen personalisierte Funktionen, und ab iOS 27 soll Siri auf einem neuen Level funktionieren. Welche Rolle dabei Apple, OpenAI oder Anthropic spielen, entscheidet sich in den nächsten Monaten. (Bild: Apple)
- Siri soll besser werden – Apple verspricht Großes
- Apple stellt neue Technik für personalisierte KI vor
- Apple muss liefern – oder sich externe KI einkaufen
- Apple bringt neue Siri-Funktionen im Frühjahr 2026
- Apple verfolgt neue KI-Strategie bei Chipentwicklung
- Siri als Vaporware? Was hinter dem Streit mit Apple steckt