Apple arbeitet offenbar an einer neuen Kameratechnologie, die die iPhone-Fotografie langfristig deutlich verändern könnte. Ein aktuelles Gerücht aus China deutet darauf hin, dass der Konzern Multispektralbildgebung für zukünftige iPhone-Modelle prüft. Ziel ist es, die visuelle Intelligenz der Kamera zu verbessern, Materialien präziser zu erkennen und die Bildverarbeitung insgesamt zu beschleunigen. Noch befindet sich das Ganze in einer frühen Phase, doch die möglichen Auswirkungen sind bemerkenswert.
Die Kamera ist seit Jahren eines der wichtigsten Verkaufsargumente des iPhones. Apple investiert kontinuierlich in neue Sensoren, Software-Algorithmen und maschinelles Lernen direkt auf dem Gerät. Die nun diskutierte Multispektralbildgebung würde einen weiteren Schritt darstellen, der über klassische Verbesserungen bei Auflösung oder Lichtstärke hinausgeht. Stattdessen geht es um ein tieferes Verständnis dessen, was die Kamera überhaupt „sieht“.
Hinweise aus der Lieferkette
Auslöser der aktuellen Diskussion ist ein Beitrag des bekannten Leakers Digital Chat Station auf der chinesischen Plattform Weibo. Demnach prüft Apple derzeit Komponenten für die Multispektralbildgebung innerhalb der Lieferkette. Gleichzeitig wird betont, dass offizielle Tests noch nicht begonnen haben. Das spricht dafür, dass sich die Technologie noch in einer Evaluierungs- und Konzeptphase befindet und nicht unmittelbar vor dem Einsatz in Seriengeräten steht.
Was Multispektralbildgebung bedeutet
Im Gegensatz zur klassischen Smartphone-Fotografie, die sich auf rotes, grünes und blaues Licht beschränkt, erfasst die Multispektralbildgebung Daten aus mehreren Wellenlängenbereichen. Dazu können auch schmale Spektren oder der nahe Infrarotbereich gehören. Auf diese Weise lassen sich Informationen erfassen, die für herkömmliche Kamerasensoren weitgehend unsichtbar bleiben.
Vorteile bei Material- und Objekterkennung
Ein möglicher Nutzen dieser Technik liegt in der deutlich verbesserten Material- und Oberflächendifferenzierung. Unterschiedliche Materialien reflektieren Licht je nach Wellenlänge auf unterschiedliche Weise. Eine iPhone-Kamera mit multispektralen Daten könnte Haut, Stoffe, Vegetation oder stark reflektierende Oberflächen präziser voneinander unterscheiden. Das würde nicht nur die Objekterkennung verbessern, sondern auch sauberere Porträteffekte und genauere Freistellungen ermöglichen.
Verbesserte Bildverarbeitung und KI
Auch die allgemeine Bildverarbeitung könnte von Multispektraldaten profitieren, vor allem in Szenarien mit gemischter oder schwieriger Beleuchtung. Zusätzlich könnten diese Daten die visuelle Intelligenz und das maschinelle Lernen von Apple auf dem Gerät stärken. Denkbar sind Fortschritte bei der Szenenerkennung, beim Verständnis komplexer Bildinhalte und bei der Tiefenschätzung, ohne ausschließlich auf Software-Tricks angewiesen zu sein.
Technische Hürden und Kosten
Die Integration zusätzlicher spektraler Empfindlichkeit bringt jedoch auch Herausforderungen mit sich. Komplexere Sensordesigns benötigen mehr Platz und treiben die Kosten nach oben. In einem ohnehin dicht gepackten iPhone-Innenraum ist das ein kritischer Faktor. Genau das könnte erklären, warum Apple die Technologie derzeit nur prüft, anstatt sie bereits aktiv in Prototypen zu verbauen. Ein kurzfristiger Einsatz in kommenden iPhone-Generationen gilt daher als unwahrscheinlich.
Weitere Kamera-Gerüchte zum iPhone 18 Pro
Im selben Weibo-Beitrag gab Digital Chat Station zusätzliche Einblicke in Apples Kamera-Pläne. Demnach sollen die iPhone-18-Pro-Modelle ein Hauptobjektiv mit variabler Blende erhalten. Die Telekamera soll zudem mit einer größeren Blende ausgestattet werden, was vor allem bei wenig Licht Vorteile bringen würde. Gleichzeitig wird betont, dass Apple aktuell noch keine Prototypen für 200-Megapixel-Kameras entwickelt. Der Fokus scheint also eher auf smarter Sensorik und Optik als auf reiner Megapixel-Zahl zu liegen.
Apple verfolgt einen neuen Ansatz für die iPhone-Kamera
Die Tests zur Multispektralbildgebung zeigen, dass Apple weiterhin an grundlegenden Innovationen für die iPhone-Kamera arbeitet. Statt nur technische Kennzahlen zu erhöhen, steht ein besseres Verständnis von Licht, Materialien und Szenen im Mittelpunkt. Auch wenn ein Einsatz dieser Technologie noch in weiter Ferne liegt, deutet sich an, in welche Richtung sich die iPhone-Fotografie entwickeln könnte: weg von reiner Hardware-Power, hin zu intelligenterer Wahrnehmung. Für Apple wäre das ein logischer nächster Schritt, um sich langfristig von der Konkurrenz abzuheben. (Bild: Shutterstock / BigTunaOnline)
- AirPods Pro 3: High-End-Modell soll deutlich teurer werden
- iPhone mit 200 Megapixeln: Das plant Apple langfristig
- iPhone 17e: Massenproduktion soll schon in Kürze anlaufen
- iPhone 18: So teuer wird Apples neuer A20-Chip
- Günstiges MacBook 2026: Alle Infos zum neuen Einstiegsmodell
- OpenAI bereitet neue Audiomodelle und eigenes Gerät vor
- Apple setzt auf neue Fitness+ Programme und Challenges
- Apple Vision Pro ist kein Flop sondern falsch bewertet
- Apple aktualisiert Vintage-Liste für Macs, iPhones und mehr
- Apple Fitness+ kündigt große Pläne für 2026 offiziell an
- Apple sammelt 3 Millionen Dollar für den Kampf gegen AIDS
- iPhone 17 Pro: Berichte über statische Geräusche beim Laden
- Apple besser vorbereitet: Notebook-Markt 2026 unter Druck
- Mehr Roomba-Modelle unterstützen Matter für HomeKit
- Pluribus Staffel 1: Das Finale war ganz anders geplant
- Apple erhält Aufschub bei US-Zöllen auf China-Halbleiter
- Cyberangriff auf Apple-Zulieferer: Hintergründe und Folgen
- Tesla arbeitet an nativen Autoschlüsseln für Smartphones
- Apple und das Milliardenurteil zum App Store in UK
- macOS Gatekeeper durch zweistufige Malware-Kette umgangen
- Apple Intelligence muss Chinas KI-Zensurtest bestehen
- Ted Lasso Staffel 4: Produzenten nennen möglichen Starttermin
- Apple erlaubt alternative App Stores auf iOS in Brasilien
- iOS 26.3 erhält Lob der EU für neue Funktionen
- WhatsApp testet neues Quiz-Feature für Kanäle




