Apple hat eine neue Forschungsarbeit veröffentlicht, die zeigt, wie sich Bildverständnis und Bildgenerierung in einem einzigen KI-Modell sinnvoll zusammenführen lassen. Das Modell mit dem Namen Manzano richtet sich an ein zentrales Problem moderner multimodaler Systeme: Sie können meist entweder Bilder gut verstehen oder gute Bilder erzeugen, aber selten beides gleichzeitig. Genau an dieser Stelle setzt Manzano an und liefert laut den Forschern deutlich bessere Ergebnisse als viele bisherige Ansätze.
Multimodale KI ist längst kein Zukunftsthema mehr. Modelle, die Text und Bilder gemeinsam verarbeiten, sind die Grundlage für Bildgeneratoren, visuelle Assistenten und komplexe Analysewerkzeuge. Trotzdem gibt es nach wie vor grundlegende architektonische Schwierigkeiten. Besonders problematisch ist der Spagat zwischen semantischem Bildverständnis und präziser Bildgenerierung.
Apple beschreibt in der Manzano-Studie, warum viele aktuelle Modelle an dieser Stelle scheitern und warum bestehende Lösungsansätze oft neue Probleme schaffen. Manzano soll zeigen, dass sich diese Gegensätze nicht zwangsläufig ausschließen müssen.
Warum aktuelle multimodale Modelle an Grenzen stoßen
Der Kern des Problems liegt in der Art, wie Bilder in KI-Modellen repräsentiert werden. Bildgenerierung funktioniert in autoregressiven Modellen am besten mit diskreten Bild-Tokens. Bildverständnis hingegen profitiert von kontinuierlichen Einbettungen, die reichhaltige semantische Informationen enthalten.
Viele bestehende Modelle versuchen, beide Anforderungen mit zwei getrennten Bild-Tokenizern zu erfüllen. Ein semantischer Encoder erzeugt kontinuierliche Merkmale für das Verständnis, während ein quantisierter Tokenizer wie VQ-VAE für die Bildgenerierung zuständig ist. Das Sprachmodell muss dadurch zwei sehr unterschiedliche visuelle Repräsentationen verarbeiten. Eine stammt aus einem hochrangigen semantischen Raum, die andere aus einem niedrigeren, stärker räumlich orientierten Raum. Dieser Konflikt führt zu Leistungseinbußen, besonders wenn beide Aufgaben gleichzeitig ausgeführt werden sollen.
Einige Architekturen nutzen separate Verarbeitungspfade, etwa über Mixture-of-Transformers. Diese können den Konflikt abmildern, sind aber ineffizient in der Parameterverwendung und oft nicht kompatibel mit modernen Mixture-of-Experts-Ansätzen. Andere Lösungen koppeln ein eingefrorenes multimodales Sprachmodell an einen Diffusionsdecoder. Dadurch bleibt das Bildverständnis erhalten, aber die Bildgenerierung ist vom Sprachmodell entkoppelt. Gegenseitige Lerneffekte gehen verloren und die Skalierung des Sprachmodells bringt nur begrenzte Vorteile für die Generierung.
Kurz gesagt: Bestehende multimodale Architekturen sind strukturell schlecht darauf ausgelegt, Verständnis und Generierung gleichwertig zu behandeln.
Der grundlegende Ansatz von Manzano
Manzano verfolgt einen vereinheitlichten Ansatz. Das Modell nutzt ein autoregressives Large Language Model, um zunächst vorherzusagen, was ein Bild inhaltlich darstellen soll. Diese semantischen Vorhersagen werden anschließend an einen Diffusionsdecoder weitergeleitet, der daraus die tatsächlichen Bildpixel erzeugt.
Dadurch bleibt das Sprachmodell für das visuelle Verständnis verantwortlich, während die konkrete Bildsynthese in einem separaten, aber eng angebundenen Schritt erfolgt. Verständnis und Generierung sind nicht getrennt, sondern logisch aufeinander aufgebaut.
Die drei zentralen Komponenten der Architektur
Die Architektur von Manzano besteht aus drei klar definierten Bausteinen:
- Erstens ein hybrider Vision-Tokenizer. Dieser erzeugt sowohl kontinuierliche als auch diskrete visuelle Repräsentationen und überbrückt damit die Anforderungen von Verständnis und Generierung.
- Zweitens ein LLM-Decoder. Er verarbeitet Text-Tokens und kontinuierliche Bild-Embeddings und sagt autoregressiv die nächsten Text- oder Bild-Tokens aus einem gemeinsamen Vokabular voraus.
- Drittens ein Bilddecoder. Dieser rendert aus den vorhergesagten Bild-Tokens die finalen Bildpixel. Dabei kommt ein Diffusionsverfahren zum Einsatz, das schrittweise Rauschen entfernt und so ein konsistentes Bild erzeugt.
Diese Kombination erlaubt es Manzano, auch ungewöhnliche oder physikalisch unmögliche Szenarien sinnvoll zu verarbeiten. Die Forscher nennen explizit Beispiele wie „Der Vogel fliegt unter dem Elefanten“ und vergleichen die Fähigkeit des Modells in solchen Fällen mit bekannten Spitzenmodellen wie GPT-4o oder Nano Banana.
Modellgrößen, Skalierung und Benchmarks
Apple hat Manzano in mehreren Größen trainiert. Die kleinste Variante verfügt über rund 300 Millionen Parameter, die größte über etwa 30 Milliarden. Ziel war es zu untersuchen, wie sich die vereinheitlichte multimodale Leistung mit zunehmender Modellgröße entwickelt.
Die Ergebnisse zeigen, dass größere Manzano-Modelle deutlich profitieren. In mehreren Benchmarks erreichen die Varianten mit 3B und 30B Parametern eine überlegene oder zumindest wettbewerbsfähige Leistung im Vergleich zu anderen aktuellen vereinheitlichten multimodalen Modellen.
Auch im direkten Vergleich mit anderen hochmodernen Systemen, darunter Modelle von Google und OpenAI, schneidet Manzano gut ab. Die Studie zeigt, dass sich der Ansatz nicht nur theoretisch, sondern auch praktisch bewährt.
Starke Ergebnisse bei Bildbearbeitungsaufgaben
Neben klassischer Bildgenerierung wurde Manzano auch bei Bildbearbeitungsaufgaben getestet. Dazu zählen anweisungsgesteuerte Bildbearbeitung, Stilübertragung, Inpainting und Outpainting sowie Tiefenschätzung.
In all diesen Bereichen liefert das Modell überzeugende Ergebnisse und zeigt, dass der vereinheitlichte Ansatz nicht auf eine einzelne Aufgabe beschränkt ist. Besonders die Kombination aus semantischem Verständnis und präziser Bildmanipulation hebt Manzano von vielen bisherigen Modellen ab.
Apples Fokus auf saubere KI-Architektur statt schneller Effekte
Mit Manzano legt Apple eine umfassende und technisch fundierte Lösung für ein lange bestehendes Problem multimodaler KI vor. Der hybride Vision-Tokenizer und die enge Verzahnung von Sprachmodell und Diffusionsdecoder reduzieren Zielkonflikte, die bisher als kaum vermeidbar galten.
Auch wenn Manzano aktuell noch nicht in Apple-Produkten eingesetzt wird, deutet die Forschung klar auf zukünftige Anwendungen hin. Zusammen mit weiteren Projekten wie UniGen zeigt sich, dass Apple gezielt daran arbeitet, Bildverständnis und Bildgenerierung auf ein neues Qualitätsniveau zu heben. Die Studie macht deutlich, dass dabei weniger spektakuläre Versprechen, sondern saubere Architekturentscheidungen im Vordergrund stehen. (Bild: agsandrew / DepositPhotos.com)
- Final Cut Pro: Neue Funktionen auch ohne Apple Creator Studio?
- Apple Creator Studio: Icons zeigen klar die Abo-Version
- Apple Card belastet JP Morgan und sorgt für Gewinnrückgang
- Apple Arcade erweitert Angebot im Februar 2026 deutlich
- iPhone Air: Apple rollt Firmware-Update für MagSafe-Akku aus
- Apple TV kündigt große Dokumentarserie über Andre Agassi an
- Apple TV: Neuer Teaser für Monarch: Legacy of Monsters Staffel 2
- Apple Vision Pro: Kommt ein Apple-Pencil-ähnlicher Controller?
- Apple testet Car Key mit Autoherstellern im Praxiseinsatz
- Apple im PC-Markt 2025: Wachstum, Druck & Marktanteile
- Apple meldete 2025 deutlich weniger Patente in den USA
- Apple schränkt neue Features ohne Creator-Studio-Abo ein
- Apple bestätigt Ende von Pixelmator für iOS offiziell
- AirPods Pro 3 bekommen Wartungsupdate vor iOS 26.3 Release
- Apple öffnet Pages, Numbers und Keynote für Abos mit KI
- Pixelmator Pro startet auf dem iPad mit Profi-Features
- Apple Creator Studio als neue Plattform für Kreative
- iOS 26.3: Neue Hinweise auf verschlüsselte RCS-Nachrichten
- Apple TV erhält neue Nominierungen bei NAACP & MPSE Awards
- WhatsApp testet neue Sticker-Vorschläge in iOS-Chats
- Apple & Google: Musk kritisiert Gemini-Deal rund um Siri
- iOS 26.2.1 deutet sich als baldiges iPhone-Update an
- iOS 26.3 Beta 2 veröffentlicht: Apple setzt Testphase fort
- Apple und Google bei KI: Bleibt der Datenschutz gewahrt?
- Apple 2026 vor Durchbruch: Wedbush sieht großes Potenzial




