iPhone Computational Photography: Warum Apple auf Automatik setzt

von | 30.10.2019 | iOS

Apple hat mit der iPhone 11-Serie 2019 den Grundstein für eine Revolution in der Smartphone-Fotografie gelegt. Drei Linsen, neue KI-gestützte Verarbeitungsmöglichkeiten durch den damals neuen A13-Prozessor – und Deep Fusion als Geheimwaffe. Diese Technologie war der Vorläufer dessen, was heute in modernen iPhones als Photographic Styles und Computational Photography bekannt ist. Doch auch heute noch fragen sich viele Nutzer: Wo findet man eigentlich die Einstellungen für diese automatischen Bildverbesserungen?

Die Antwort ist einfach: Ihr sucht vergeblich nach manuellen Kontrollen, und das ist Absicht.

Deep Fusion war Apples erster großer Schritt in Richtung vollautomatischer KI-Fotografie. Die Technologie sollte bei mittelhellen Lichtverhältnissen eingreifen – dort, wo Smart HDR bei hellen Szenen und der Nachtmodus in dunklen Umgebungen ihre Grenzen erreichten. Deep Fusion war das Mittel der Mitte, und diese Philosophie zieht sich bis heute durch alle iPhone-Generationen.

Wie funktionierte Deep Fusion damals? Das System war revolutionär: Bereits vor dem Drücken des Auslösers wurden vier Bilder mit extrem kurzer Belichtungszeit und vier mit normaler Belichtung aufgenommen. Diese acht Aufnahmen plus das finale Bild wurden zu einem einzigen, optimierten Foto verschmolzen. Pixel für Pixel analysierte die KI jedes Detail, um Rauschen zu reduzieren und die Schärfe zu maximieren.

Diese Grundtechnologie hat sich in den Jahren seit 2019 dramatisch weiterentwickelt. Mit dem iPhone 12 Pro kam das Apple ProRAW-Format dazu, das erstmals professionelle Kontrolle über die Bildbearbeitung ermöglichte. Das iPhone 13 Pro führte dann die Makro-Fotografie ein, während das iPhone 14 Pro mit dem 48-Megapixel-Hauptsensor und verbessertem Computational Photography aufwartete.

Heute, im Jahr 2026, ist das iPhone 16 Pro der aktuelle Standard. Die Deep Fusion-Technologie von damals ist längst in ein noch ausgeklügelteres System namens „Photonic Engine“ übergegangen. Diese KI-gestützte Bildverarbeitung arbeitet mit maschinellem Lernen und analysiert nicht nur Licht und Schatten, sondern auch Texturen, Gesichtszüge und sogar die Bewegung von Objekten in Echtzeit.

Die wichtigste Erkenntnis aber bleibt dieselbe wie 2019: Apple setzt konsequent auf Automatisierung. Ihr findet auch heute keine detaillierten Einstellungen für diese Technologien in den Kamera-Einstellungen. Stattdessen arbeitet die KI im Hintergrund und trifft Entscheidungen basierend auf Millionen von Trainingsdaten.

Das bedeutet aber nicht, dass ihr komplett machtlos seid. In den neuesten iOS-Versionen gibt es durchaus Möglichkeiten, Einfluss zu nehmen:

Photographic Styles: Diese Funktion, die mit iOS 15 eingeführt wurde, ermöglicht es euch, eure Bildästhetik anzupassen, ohne die zugrundeliegende Computational Photography zu deaktivieren. Ihr könnt zwischen verschiedenen Stilen wie „Warm“, „Cool“, „Lebendig“ oder „Dramatisch“ wählen.

Action Mode: Für bewegte Aufnahmen stabilisiert dieser Modus Videos ohne Gimbal auf professionellem Niveau.

Cinematic Mode: Ermöglicht Videoaufnahmen mit Tiefenschärfe-Effekten, die nachträglich angepasst werden können.

Die Philosophie dahinter ist klar: Apple will, dass ihr euch aufs Fotografieren konzentriert, nicht auf technische Parameter. Die KI soll die schwere Arbeit übernehmen, während ihr den kreativen Part übernehmt.

Interessant ist auch der Blick auf die Konkurrenz: Google hat mit seinem Pixel-Smartphones einen ähnlichen Ansatz gewählt, setzt aber stärker auf Cloud-basierte KI-Verarbeitung. Samsung bietet in seinen Galaxy-S-Modellen mehr manuelle Kontrollen, während OnePlus und andere Android-Hersteller oft beide Ansätze kombinieren.

Für Fotografen, die mehr Kontrolle wollen, bleibt ProRAW die beste Option. Dieses Format speichert sowohl die Rohdaten als auch die KI-Verbesserungen und ermöglicht nachträgliche Anpassungen in Apps wie Lightroom oder Apples eigener Fotos-App.

Ein praktischer Tipp: Wenn ihr wissen wollt, ob die KI-Verarbeitung aktiv war, achtet auf die Verarbeitungszeit nach dem Auslösen. Bei komplexen Szenen mit vielen Details oder schwierigen Lichtverhältnissen dauert es einen Moment länger, bis das finale Bild in der Galerie erscheint.

Die Zukunft der Smartphone-Fotografie liegt eindeutig in noch intelligenterer KI. Gerüchte sprechen von Features wie „Smart Scene Detection“, die automatisch erkennt, ob ihr ein Porträt, eine Landschaft oder ein Makro-Objekt fotografiert und die Einstellungen entsprechend optimiert.

Die Frage „Wo sind die Einstellungen?“ wird also auch in Zukunft mit „Nirgendwo, und das ist gut so“ beantwortet werden. Apple setzt darauf, dass die KI besser entscheidet als der Mensch – und in den meisten Fällen haben sie recht.

Zuletzt aktualisiert am 03.03.2026