Wo erkennt man Deep Fusion unter iOS 13?

Apple hat eine Menge an Wind um die Qualität der iPhone 11-Serie gemacht. Drei Linsen, neue Verarbeitungsmöglichkeiten durch den neuen Prozessor: Wie in jedem Jahr das Smartphone mit der besten Kamera also. Zumindest nach eigenen Aussagen. Eines der Kern-Features aber war zum Start noch nicht verfügbar: Deep Fusion. Nachdem Apple diese Funktion mit dem Update auf iOS 13.2. nachgereicht hat, vermissen viele Anwender die entsprechenden Einstellungen. Wir zeigen Ihnen, warum das so falsch nicht ist.

Deep Fusion soll bei mittelhellen Lichtverhältnissen einschreiten. iOS setzt Smart HDR automatisch bei hellen Szenen ein. Der Nachtmodus ist das Mittel der Wahl in extrem dunklen Umgebungen. Deep Fusion ist das Mittel der Mitte. Ist es (automatisch!) aktiviert, dann werden schon vor dem eigentlichen Drücken des Auslösers vier Bilder mit extrem kurzer Belichtungszeit und vier mit normaler Belichtung gemacht. Damit soll die Form des zu fotografierenden Objekts eingefangen werden.

Diese Bilder werden dann so ineinander vereint, dass das Ergebnis so scharf und deutlich wie möglich ist. Pixel für Pixel wird einzeln bearbeitet, um das optimale Ergebnis mit wenig Rauschen und Schärfe zu erzeugen. Das dauert einen Moment länger als die Erzeugung eines Smart HDR-Bildes. Wenn Sie nach dem Schießen des Fotos in die Bildergalerie gehen, dann kann es einen Moment dauern, bis das fertige Bild angezeigt wird.

Sichtbar ist Deep Fusion also in der Qualität der Bilder. Sie suchen allerdings vergeblich nach Einstellungen: Apple hat explizit die Wahl der richtigen Aufnahmemethode automatisiert. Sie als Benutzer sollen sich nicht mit der manuellen Auswahl des optimalen Aufnahmemodus belasten.

SCHIEB+ Immer bestens informiert

Schieb+ Tarife
Nach oben scrollen