Apple arbeitet an einer grundlegenden Weiterentwicklung seiner KI-Funktionen. Im Zentrum steht dabei die Entscheidung, das Sprachmodell Gemini von Google als technische Basis zu nutzen. Ziel ist es, Siri leistungsfähiger zu machen, ohne Apples Prinzipien bei Datenschutz, Kontrolle und Nutzererlebnis aufzugeben. Ein aktueller Bericht liefert nun deutlich mehr Details dazu, wie diese Zusammenarbeit konkret aussieht und welche Erwartungen Apple an die neue Siri knüpft.
Ein Bericht von The Information gibt einen tiefen Einblick in die Partnerschaft zwischen Apple und Google. Während die gemeinsame Ankündigung bewusst technisch oberflächlich gehalten war, zeigt der Bericht, wie stark Apple die Kontrolle über Gemini behält. Gleichzeitig wird klar, warum Apple diesen Schritt geht und welche Probleme aus der Vergangenheit damit gelöst werden sollen.
Apple nutzt Gemini, behält aber die volle Kontrolle
In der offiziellen Ankündigung hieß es lediglich, dass Gemini die Basis für neue KI-Funktionen von Apple bildet und diese weiterhin auf Apple-Geräten sowie über Private Cloud Compute laufen. Damit wurde klargestellt, dass Google keinen Zugriff auf Nutzerdaten erhält. Weitere Details fehlten zunächst.
Laut The Information kann Apple Google zwar um Anpassungen am Modell bitten, nimmt die eigentliche Feinabstimmung aber selbst vor. Apple passt Gemini so an, dass Antworten und Verhalten den eigenen Vorstellungen entsprechen. Gemini wird damit nicht als externes Produkt eingebunden, sondern als internes Werkzeug genutzt.
Kein Google- oder Gemini-Branding in Siri
Eine der meistdiskutierten Fragen war, wie sichtbar Google innerhalb der neuen Siri sein wird. Der Bericht liefert dazu eine klare Antwort. In aktuellen Prototypen enthalten die KI-Antworten keinerlei Hinweise auf Google oder Gemini. Das gesamte Erlebnis wirkt wie ein rein von Apple entwickeltes System.
Das deckt sich mit früheren Einschätzungen von Mark Gurman, der bereits Ende letzten Jahres erklärte, dass diese Partnerschaft voraussichtlich nie offen vermarktet wird. Siri soll nicht mit Google-Diensten oder bekannten Gemini-Funktionen überfrachtet werden. Stattdessen arbeitet im Hintergrund ein leistungsfähiges Modell, das Siri auf ein Niveau bringt, das Nutzer inzwischen erwarten, eingebettet in eine typische Apple-Oberfläche.
Bessere Antworten auf Allgemeinwissen
Apple erwartet, dass die Gemini-basierte Siri deutlich besser auf Fragen zu Allgemeinwissen reagiert. In der Vergangenheit lieferte Siri oft nur Suchergebnisse oder Links. Künftig soll Siri Fragen tatsächlich beantworten, etwa mit konkreten Zahlen, Fakten oder wissenschaftlichen Informationen.
Der Fokus liegt darauf, Antworten direkt zu liefern, statt Nutzer auf externe Inhalte zu verweisen. Damit nähert sich Siri stärker an moderne KI-Assistenten an, ohne ihre Rolle als Systemassistentin zu verlieren.
Verbesserungen bei emotionaler Unterstützung
Ein weiterer Punkt aus dem Bericht betrifft emotionale Gespräche. Siri hatte hier bislang große Schwächen, etwa wenn Nutzer Einsamkeit oder Entmutigung äußerten. Laut The Information soll die Gemini-basierte Siri künftig umfassendere und dialogorientierte Antworten geben, ähnlich wie bei ChatGPT oder Gemini.
Gleichzeitig gilt dieses Ziel als heikel. Es gibt viele dokumentierte Fälle, in denen Chatbots emotionale Situationen falsch eingeschätzt haben. Statt Sicherheitshinweise zu geben oder auf echte Hilfe zu verweisen, kam es zu Halluzinationen oder problematischen Antworten, die teils schwerwiegende Folgen hatten. Wie Apple diese Risiken konkret adressiert, ist bislang nicht bekannt.
Zwei technische Systeme unter einer Oberfläche
Bereits im August des vergangenen Jahres sprach Craig Federighi offen über die Probleme der früheren Siri-Überarbeitung. Der Ansatz, klassische Sprachbefehle und generative KI in einem hybriden System zu vereinen, habe nicht die gewünschte Qualität geliefert.
Laut The Information bleibt die technische Trennung bestehen. Einfache Aufgaben wie Timer setzen, Erinnerungen erstellen oder Nachrichten an Kontakte senden werden weiterhin von lokal gespeicherter Apple-Technologie verarbeitet. Die Gemini-basierte KI kommt dann zum Einsatz, wenn Anfragen unklar oder komplex sind.
Ein Beispiel aus dem Bericht zeigt das Zusammenspiel beider Systeme. Wenn Siri gebeten wird, eine Nachricht an die Mutter oder Schwester zu senden, diese aber nicht eindeutig in den Kontakten benannt sind, kann die KI frühere Nachrichten analysieren. So lässt sich ableiten, welcher Kontakt gemeint ist. Apple versucht damit, deterministische Aufgaben und offene Sprachverarbeitung zu einer einheitlichen Erfahrung zu verbinden.
Technisch anspruchsvoll, auch für große Anbieter
Diese Art der Kombination wirkt auf den ersten Blick simpel, hat sich aber selbst für Google und Amazon als schwierig erwiesen. Die Balance zwischen Zuverlässigkeit, Kontextverständnis und natürlicher Sprache ist technisch komplex. Ob Apple diesen Spagat besser meistert, wird sich erst mit der breiten Einführung zeigen.
Zeitplan für die Einführung der neuen KI-Funktionen
Der Bericht bestätigt auch den geplanten Zeitrahmen. Einige Gemini-basierte Funktionen sollen bereits im Frühjahr eingeführt werden. Weitere Funktionen folgen später.
Dazu zählen unter anderem Siris Fähigkeit, sich an frühere Gespräche zu erinnern, sowie proaktive Vorschläge. Ein Beispiel wäre der Hinweis, rechtzeitig das Haus zu verlassen, um Staus vor einer im Apple-Kalender eingetragenen Abholung vom Flughafen zu vermeiden. Diese Funktionen sollen voraussichtlich auf der jährlichen Entwicklerkonferenz von Apple im Juni vorgestellt werden.
Siri, Gemini und der Anspruch auf Apple-Qualität
Apple setzt bei KI auf einen kontrollierten und schrittweisen Ansatz. Gemini liefert die technische Grundlage, doch Feinabstimmung, Datenschutz und Nutzererlebnis bleiben fest in Apples Hand. Kein sichtbares Google-Branding, keine Weitergabe von Nutzerdaten und eine klare Trennung zwischen einfachen und komplexen Aufgaben zeigen, wie konsequent Apple dabei vorgeht.
Ob die neue Siri langfristig intelligenter, hilfreicher und sicherer wird, hängt von der Umsetzung ab. Der Bericht macht jedoch deutlich, dass Apple aus früheren Fehlern gelernt hat und bei KI nicht auf schnelle Effekte, sondern auf Integration und Kontrolle setzt. (Bild: Shutterstock / Thrive Studios ID)
- Apple Glasses: So wird aus der Nische endlich Massenmarkt
- Apple und KI: Partnerschaft mit Google als Übergangslösung
- Apple bereitet neue KI-Serverchips und Rechenzentren vor
- Apple, KI und TSMC: Warum sich das Machtgefüge ändert
- iPhone 2027: Warum das Jubiläumsmodell weniger radikal wird
- iPhone Fold ebnet Weg für dünneres Display im iPhone Air 2
- iPhone mit 200 Megapixeln? Leaker bremst Erwartungen
- Apple prüft Multispektralbildgebung für iPhone-Kameras
- iPhone 18: Bruch mit dem jährlichen Release bei Apple
- iPhone 17e: Massenproduktion soll schon in Kürze anlaufen
- Apple bleibt ruhig bei KI und könnte am Ende gewinnen
- iPhone Fold: So soll Apples erstes Foldable laut Leaks aussehen
- iPhone 18: So teuer wird Apples neuer A20-Chip
- iPhone Air 2: Neue Hinweise widersprechen bisherigen Gerüchten
- iPhone 18 erhält erstmals Kamerasensoren aus US-Fertigung
- iPhone Fold: Apple testet weiter faltenfreies Display
- iPhone 18: Testproduktion soll bereits im Februar starten
- iPhone Fold könnte wegen Produktionsproblemen knapp bleiben
- Apple arbeitet an einem 24-Zoll-iMac mit OLED-Display
- iPhone Air 2: Apple plant Comeback mit besserem Konzept
- Apple prüft erstmals Chipmontage für iPhones in Indien
- HomePod mini 2: Neue Hinweise dämpfen Hoffnungen auf N1
- iPhone Fold: iPad-Seitenverhältnis im Smartphone-Format
- iPhone 17e bringt MagSafe zurück und wird deutlich besser
- Apple entwickelt acht iPhone-Modelle für die Jahre 2026–2027



