Apple-Forscher stellen mit LaDiR ein Framework vor, das Sprachmodelle dazu bringt, beim Denken mehrere Pfade gleichzeitig zu erkunden – mit beeindruckenden Ergebnissen bei Mathe und Code.
Apples KI-Forschung sorgt erneut für Aufmerksamkeit. Ein Team aus dem hauseigenen Machine-Learning-Bereich hat gemeinsam mit der University of California, San Diego, ein neues Framework namens LaDiR vorgestellt. Die Kernidee klingt simpel und einleuchtend: Bevor das Modell antwortet, soll es mehrere Lösungswege gleichzeitig durchdenken. Das Ergebnis sind deutlich bessere Resultate – vor allem bei Aufgaben, die echtes Nachdenken erfordern.
Was hinter LaDiR steckt
LaDiR steht für „Latent Diffusion Enhances LLMs for Text Reasoning“ und kombiniert zwei sehr unterschiedliche KI-Ansätze. Klassische Sprachmodelle wie ChatGPT arbeiten autoregressiv. Sie generieren Wort für Wort, jedes neue Wort baut auf den vorherigen auf. Diffusionsmodelle hingegen erzeugen Text in mehreren parallelen Iterationen, bei denen ein zunächst zufälliges Muster Schritt für Schritt zu einer kohärenten Antwort verfeinert wird.
Das Apple-Team schlägt jetzt vor, beide Methoden zu vereinen. Während der eigentlichen Denkphase nutzt LaDiR Diffusion. Erst wenn das Modell zur finalen Antwort kommt, schaltet es auf die klassische, autoregressive Methode um. Das Beste aus beiden Welten in einem System.
Wichtig dabei: LaDiR ist kein eigenständiges Sprachmodell, sondern ein Framework, das auf bestehende Modelle aufgesetzt wird. Es ändert also nicht das Modell selbst, sondern die Art, wie es Probleme durchdenkt. Damit lässt sich der Ansatz theoretisch auf viele bestehende Sprachmodelle übertragen.
Mehrere Lösungswege gleichzeitig
Der eigentliche Clou von LaDiR liegt in der Parallelisierung. Statt nur einen Lösungsweg zu verfolgen, lässt das Framework mehrere Denk-Pfade gleichzeitig laufen. Jeder dieser Pfade führt eine eigene Diffusions-Routine durch und kommt potenziell zu einer anderen Lösung.
Eingebaut ist dabei ein cleverer Mechanismus, der verhindert, dass alle Pfade zu früh in die gleiche Richtung laufen. Das Modell wird also aktiv dazu angeregt, unterschiedliche Möglichkeiten auszuprobieren. Erst wenn genug Optionen im Raum stehen, entscheidet sich das System für die beste Antwort und gibt diese aus.
Übertragen auf einen Menschen: LaDiR funktioniert ein bisschen wie ein Schachspieler, der vor jedem Zug mehrere Varianten durchspielt, bevor er sich für die beste entscheidet. Das ist langsamer als nur einen Zug zu prüfen, führt aber zu deutlich besseren Ergebnissen.
Beeindruckende Ergebnisse in drei Kategorien
Die Apple-Forscher haben LaDiR mit zwei bekannten Sprachmodellen getestet: Metas LLaMA 3.1 mit 8 Milliarden Parametern für Mathe und Logikrätsel sowie Qwen3-8B-Base für Code-Generierung. Die Ergebnisse können sich sehen lassen.
Bei mathematischen Aufgaben erreichte LaDiR eine höhere Genauigkeit als bestehende Ansätze. Besonders auffällig: Die Vorteile zeigten sich vor allem bei schwierigen Aufgaben, die nicht im Trainingsmaterial enthalten waren. Genau hier scheitern viele KI-Modelle bisher.
Bei der Code-Generierung schnitt LaDiR auf dem HumanEval-Benchmark deutlich besser ab als die Standard-Modelle. Vor allem bei kniffligen Programmieraufgaben war der Vorsprung spürbar – ein Bereich, in dem Sprachmodelle bisher oft an ihre Grenzen stoßen.
Bei logischen Rätseln wie dem Countdown-Game konnte LaDiR mehr gültige Lösungswege erforschen als alle Vergleichsmodelle. Eine spezialisierte, auf genau diese Aufgabe trainierte KI war zwar bei einzelnen Versuchen genauer. Sobald aber mehrere Versuche möglich waren, fand LaDiR zuverlässiger die richtige Antwort.
Was Apples Forschungs-Strategie verrät
LaDiR ist nur eines von vielen Apple-KI-Papern der vergangenen Monate. Cupertino veröffentlicht regelmäßig Forschungsergebnisse, die zeigen, dass das Unternehmen tief in Themen wie Diffusionsmodelle, Sprachverständnis und KI-Effizienz eintaucht. In der Vergangenheit hat Apple Diffusionsmodelle bereits auf Gebiete wie Protein-Faltung und Coding angewendet.
Bemerkenswert ist Apples Fokus auf Effizienz. Während OpenAI und Google in erster Linie auf immer größere Modelle setzen, sucht Apple nach Wegen, mit kleineren Modellen mehr herauszuholen. Das passt zur Strategie, KI-Funktionen direkt auf iPhones, iPads und Macs auszuführen – wo Rechenleistung und Stromverbrauch eine Rolle spielen.
LaDiR fügt sich in dieses Muster nahtlos ein. Statt das Modell selbst zu verändern, wird die Denkweise optimiert. Das Ergebnis: bessere Antworten ohne größere Hardware-Anforderungen.
Was das für Apple Intelligence bedeuten könnte
Spannend ist, ob und wann solche Forschungsansätze in Apples eigene Produkte einfließen. LaDiR ist aktuell ein reiner Forschungsbeitrag, doch die Apple-Forschungspipeline und die Apple-Intelligence-Produktentwicklung sind eng miteinander verwoben. Verfahren, die heute in einem Paper vorgestellt werden, können in zwei oder drei Jahren in iOS landen.
Spannend bleibt zu sehen, ob Apple die LaDiR-Methode tatsächlich für eigene Produkte einsetzt. Die Verbindung zur Praxis liegt nahe: Bessere Antworten bei Mathe-Aufgaben, beim Coding und bei logischen Problemen wären für die geplante überarbeitete Siri in iOS 27 ein klarer Vorteil – gerade wenn Siri komplexere Anfragen ohne Umweg über externe KI-Dienste beantworten soll.
Auch der Apple-Google-Deal spielt hier mit hinein. Apple will Teile der personalisierten Siri-Funktionen mit Gemini-Modellen von Google betreiben. Eigene Forschungsansätze wie LaDiR könnten dabei helfen, das Beste aus diesen externen Modellen herauszuholen, ohne die Kontrolle über die Endnutzer-Erfahrung abzugeben.
Apples KI-Profil schärft sich weiter
Mit LaDiR liefert Apple wieder einen Forschungsbeitrag, der zeigt, wo die Stärken des Unternehmens in der KI-Welt liegen. Nicht im Wettkampf um die größten Modelle, sondern in der gezielten Verbesserung bestehender Systeme. Das ist eine leise Strategie, aber sie passt zu Apples Markenbild – ein Konzern, der weniger über Schlagzeilen führt als über die Qualität der finalen Produkte. Wenn LaDiR oder ähnliche Ansätze irgendwann tatsächlich in iOS landen, wäre das ein konkreter Beleg dafür, dass Apples KI-Strategie nicht im Hintertreffen ist – sondern einfach einen anderen Weg geht. (Bild: Shutterstock / SWKStock)
- Satelliten-Smartphones: Apple dominiert den Markt klar
- Ternus muss früh über iPhone-Preise und US-Produktion entscheiden
- Apple gegen Epic Games: Berufungsgericht hebt Aussetzung auf
- Apple TV erhält sechs Nominierungen bei Gotham TV Awards
- UBS hebt Kursziel für Apple an – kurz vor den Quartalszahlen
- Apple Vision Pro: Erste Katarakt-OP weltweit erfolgreich
- Claude bekommt neun neue Connectors für Kreativ-Tools
- Ted Lasso Staffel 4: Start am 5. August auf Apple TV
- Apple TV: Umfrage bei Abonnenten zu Inhalten und Sport
- App Store: Neue Monatsabos mit 12-Monats-Verpflichtung kommen
- Severance: Adam Scott kennt das Ende und kündigt Überraschungen an
- iOS 26.5 Beta 4: Apple schließt die Testphase ab
- John Ternus zu Apple Services: „So viele Möglichkeiten“ für Wachstum
- Warum der 1. September für Ternus‘ CEO-Start entscheidend ist
- Wird das nächste Einsteiger-iPad zum „iPad Neo“?
- Ternus spricht über Vision Pro: „Wir sind erst am Anfang“
- Apple TV holt zwei Peabody Awards 2026
- GPT-5.5 ist da: OpenAI stellt „neue Intelligenzklasse“ für ChatGPT und Codex vor
- Perplexity-CEO: Das iPhone wird durch KI wichtiger, nicht überflüssig
- Mac mini Einstiegsmodell bei Apple ausverkauft
- Apple Maps war Cooks „erster großer Fehler“ – Apple Watch sein Stolz
- OpenAI stellt ChatGPT Images 2.0 mit Thinking-Fähigkeiten vor



