Apple arbeitet kontinuierlich daran, die Fotoqualität von iPhones durch Software zu verbessern. Eine aktuelle Studie zeigt nun, wie ein KI-gestützter Bildsignalprozessor Fotos bei extrem schlechten Lichtverhältnissen deutlich aufwerten könnte. Im Fokus steht ein neues Verfahren, das nicht erst nachträglich eingreift, sondern direkt Teil der Kamera-Pipeline ist. Ziel ist es, Details aus den Rohdaten des Sensors zu retten, die bisher verloren gingen.
Fotografie bei sehr wenig Licht ist seit jeher ein Schwachpunkt digitaler Kameras, insbesondere bei Smartphones. Obwohl Sensoren und Objektive besser geworden sind, bleiben physikalische Grenzen bestehen. Apple setzt deshalb verstärkt auf computergestützte Fotografie. Die vorgestellte Forschungsarbeit zeigt, wie moderne KI-Modelle genutzt werden können, um diese Grenzen zu verschieben, ohne die Hardware zu verändern.
Das Problem mit extrem schlechten Lichtverhältnissen
Bei sehr dunklen Szenen trifft nur wenig Licht auf den Bildsensor. Das führt zu starkem Rauschen, geringer Detailtreue und verwaschenen Farben. Um das auszugleichen, setzen Hersteller wie Apple seit Jahren auf aggressive Rauschunterdrückung und Glättung.
Diese klassischen Bildverarbeitungsalgorithmen reduzieren zwar sichtbares Rauschen, erzeugen aber oft unnatürlich glatte Bilder. Feine Texturen verschwinden, Schrift wird unleserlich und Oberflächen wirken wie gemalt. Genau hier setzt die neue Forschung an.
DarkDiff als neuer Ansatz
Um diese Schwächen zu überwinden, haben Forscher von Apple gemeinsam mit der Purdue University ein Modell namens DarkDiff entwickelt. Vorgestellt wurde es in der Studie „DarkDiff: Advancing Low-Light Raw Enhancement by Retasking Diffusion Models for Camera ISP“.
Der Kern der Idee ist, ein diffusionsbasiertes Bildmodell direkt in den Bildsignalprozessor der Kamera zu integrieren. Statt KI erst auf ein fertiges Foto anzuwenden, arbeitet DarkDiff mit sehr frühen Bilddaten. So lassen sich Informationen nutzen, die in späteren Verarbeitungsschritten normalerweise verloren gehen.
Diffusionsmodelle statt klassischer Glättung
Bisherige Deep-Learning-Modelle für Low-Light-Fotografie sind meist regressionsbasiert. Sie minimieren Pixelfehler, was zwar messbar gute Werte liefert, visuell aber oft zu übermäßiger Glättung führt. Diffusionsmodelle verfolgen einen anderen Ansatz. Sie lernen aus sehr großen Bilddatensätzen, wie natürliche Bilder aufgebaut sind, und können fehlende Details auf Basis des Gesamtzusammenhangs rekonstruieren.
Die Forscher haben ein bereits vortrainiertes generatives Diffusionsmodell, vergleichbar mit Stable Diffusion, so angepasst, dass es mit Kameradaten umgehen kann. Das Modell wird nicht neu von Grund auf trainiert, sondern für die Aufgabe der RAW-Bildverbesserung umfunktioniert.
Integration in die Kamera-Pipeline
Der Kamera-ISP übernimmt weiterhin die grundlegenden Schritte der Bildverarbeitung. Dazu gehören unter anderem Weißabgleich und Demosaicing, um aus den Rohdaten des Sensors ein lineares RGB-Bild zu erzeugen. An diesem Punkt setzt DarkDiff an.
Das Modell entfernt Rauschen, stellt Details wieder her und erzeugt direkt das finale sRGB-Bild. Ein spezieller Aufmerksamkeitsmechanismus sorgt dafür, dass lokale Bildbereiche gezielt analysiert werden. Dadurch bleiben feine Strukturen erhalten und das Risiko sinkt, dass die KI Inhalte verfälscht oder komplett neu erfindet.
Steuerung über classifier-free guidance
DarkDiff nutzt außerdem eine Standardtechnik aus der Diffusionsforschung namens classifier-free guidance. Damit lässt sich steuern, wie stark sich das Modell am tatsächlichen Eingabebild orientiert oder an seinen gelernten visuellen Mustern.
Bei geringer Führung entstehen glattere Ergebnisse mit weniger Details. Bei stärkerer Führung werden Texturen und feine Strukturen deutlicher rekonstruiert. Gleichzeitig steigt dann aber auch das Risiko für Artefakte oder ungewollte Halluzinationen. Die richtige Balance ist entscheidend für ein realistisches Ergebnis.
Tests unter realen Bedingungen
Für die Evaluation nutzten die Forscher echte Fotos, die bei extrem schlechten Lichtverhältnissen aufgenommen wurden. Zum Einsatz kamen unter anderem Kameras wie die Sony A7SII. Die Testbilder entstanden nachts mit sehr kurzer Belichtungszeit von nur 0,033 Sekunden.
Als Referenz dienten Aufnahmen derselben Szenen, die mit 300-mal längerer Belichtungszeit auf einem Stativ aufgenommen wurden. Diese Referenzbilder zeigen, wie die Szene bei ausreichend Licht eigentlich aussehen sollte.
DarkDiff wurde mit anderen Verfahren zur RAW-Verbesserung verglichen, darunter auch diffusionsbasierte Ansätze wie ExposureDiffusion. In mehreren anspruchsvollen Benchmarks erzielte DarkDiff eine höhere wahrgenommene Bildqualität. Details, Farben und Kontraste lagen näher an den Referenzaufnahmen als bei bisherigen Methoden.
Einschränkungen und offene Punkte
Trotz der starken Ergebnisse hat DarkDiff klare Nachteile. Die Berechnungen sind deutlich aufwendiger als bei klassischen Bildverarbeitungsalgorithmen. Eine Ausführung direkt auf dem Smartphone würde viel Rechenleistung benötigen und den Akku schnell belasten. Die Forscher gehen daher davon aus, dass eine Cloud-basierte Verarbeitung realistischer wäre.
Außerdem zeigen sich Schwächen bei der Erkennung von nicht-englischem Text in sehr dunklen Szenen. Auch wichtig ist der Hinweis, dass die Studie keinerlei Aussage darüber trifft, ob oder wann DarkDiff in iPhones integriert wird.
Apples Fokus auf Software statt neue Kamerahardware
Die Studie macht deutlich, dass Apple weiterhin intensiv an neuen Wegen in der computergestützten Fotografie arbeitet. Der Fokus liegt darauf, physikalische Grenzen der Kamerahardware mit intelligenter Software zu überwinden.
DarkDiff ist kein angekündigtes Produkt, sondern ein Forschungsprojekt. Dennoch zeigt es, welches Potenzial KI in Zukunft für iPhone-Fotos haben könnte, insbesondere bei extrem schlechten Lichtverhältnissen. Für den Smartphone-Markt insgesamt unterstreicht die Arbeit, wie wichtig fortschrittliche Bildverarbeitung geworden ist, um sich von der Konkurrenz abzuheben. (Bild: monsit / DepositPhotos.com)
- Apple zwingt iPhone-Nutzer indirekt zu iOS 26 Updates
- Samsung startet mit Exynos 2600 früher ins 2-nm-Zeitalter
- AirPods Pro 3: Störgeräusche auch nach Updates ungelöst
- ChatGPT erweitert den Chatverlauf um wichtige neue Funktion
- Apple stellt UniGen 1.5 vor: Ein KI-Modell für alle Bilder
- macOS Bug lässt Studio Display seit Monaten flackern
- Apple plant mehr Werbung in der App Store Suche ab 2026
- ChatGPT unterstützt jetzt Apple Music direkt in der App
- Apple öffnet App Store in Japan und ändert iOS-Regeln
- Apple TV erweitert Monarch-Universum mit neuem Spin-off
- Apple stellt SHARP vor: 3D-Szenen aus nur einem Foto
- Apple Aktie: Morgan Stanley hebt Kursziel auf 315 Dollar an
- Trump-Regierung droht der EU mit Vergeltung wegen DMA
- MacBook Pro M5: Apple vereinfacht den Akkutausch deutlich
- Apple und DMA: Warum Europas Entwickler protestieren
- ChatGPT setzt auf Apple Music und schnellere Bildgenerierung
- Apple plant Stoffdisplays für HomePod und andere Geräte
- Apple im Fokus: US-Kritik an Europas neuen Digitalgesetzen
- iOS 26.3 Beta 1: Alle Neuerungen und Funktionen im Überblick
- Apple kann steigende DRAM-Kosten besser abfedern als andere
- iOS 26 Leak gibt Einblick in kommende Apple Softwarepläne
- Apple als Partner des Weißen Hauses bei „Tech Force“-Programm



