Apple Deep Fusion für die iPhone 11-Serie kommt mit iOS 13.2

Auf der Apple Keynote letzten Monat, stellte uns Philip W. Schiller eine neue Kamera-Funktion mit dem Namen „Deep Fusion“ für das Apple iPhone 11, 11 Pro und 11 Pro Max vor. Unklar war jedoch wann das Smart-HDR-ähnliche Feature erscheinen wird. Nun ist klar, dass Entwickler „Deep Fusion“ in der iOS 13.2 Beta-Version ab sofort testen können.

Seit etwas mehr als eine Woche sind die drei Versionen des Apple iPhone 11 im Handel erhältlich. Besondere Aufmerksamkeit widmet Apple der Hauptkamera. Kunststück – ist sie doch für viele Apple-Kunden ein echter Design-Fehler. Doch in der quadratisch und leicht hervorstehenden Kamera-Einheit verbirgt sich auch neue Technologie. So neu, dass bereits vorgestellte Funktionen – wie Deep Fusion – es nicht zum Verkaufsstart der iPhone 11 Serie geschafft haben. Darum hat aber Apple Marketing-Vizepräsident Philip W. Schiller auf der Bühne kein Geheimnis gemacht. Nur wann die Funktion erscheinen soll, dass blieb unklar. Nun wissen wir, dass seit vergangener Nacht Deep Fusion mit iOS 13.2 erscheinen wird. Beta-Tester kommen bereits in den Genuss. The Verge verschafft uns mit dem Foto-Beispiel einen ersten Eindruck.

Apple iPhone 11 Pro
Beispielfoto mit Deep Fusion

Wie funktioniert Deep Fusion beim iPhone 11 (Pro)?

Doch wie funktioniert das neue Feature nun genau und worin unterscheidet es sich zum bereits vorhandenen Smart HDR? Zu allererst: Deep Fusion lässt sich nicht manuell einschalten oder ist ein wählbarer Modi. Vielmehr entscheidet die neuronale Engine selbst, ob es benötigt wird. Ob das Foto-Feature zum Einsatz kam, lässt sich auch nicht aus der EXIF-Datei erfahren.

  1. Kurz bevor der Auslöser gedrückt wird, hat die Kamera bereits vier Bilder mit einer kurzen Verschlusszeit aufgenommen, um die Bewegung in der Aufnahme und in den vier Standardbildern einzufrieren. Drückt ihr nun tatsächlich den Auslöser, wird eine länger belichtete Aufnahme gemacht, um entsprechende Details zu erfassen.
  2. Diese drei regulären Aufnahmen und die Langzeitbelichtung werden zu einem von Apple als „synthetic long“  bezeichnet und zusammengeführt. Dies ist ein wesentlicher Unterschied zu Smart HDR.
  3. Deep Fusion nimmt das kurz belichtete Bild mit den meisten Details auf und kombiniert es mit der synthetischen Langzeitbelichtung. Im Gegensatz zu Smart HDR werden bei Deep Fusion diese beiden Frames nicht mehr zusammengeführt – obwohl der „synthetic long“ bereits aus vier zuvor zusammengeführten Frames besteht. Alle Einzelbilder werden auch anders als bei Smart HDR auf Rauschen hin überprüft.
  4. Die Bilder durchlaufen vier Pixel für Pixel aufbereitete detaillierte Verarbeitungsschritte, die jeweils auf eine zunehmende Genauigkeit zugeschnitten sind: Himmel und Wände befinden sich im untersten Bereich, Haut, Haare, Stoffe usw. auf der höchsten Ebene. Dadurch wird eine Reihe von Gewichtungen für das Mischen der beiden Bilder erstellt. Dabei werden die Details des einen und der Ton, die Farbe und die Luminanz des anderen aufgenommen.
  5. Das endgültige Bild wird dann generiert.

Apple betont das Deep Fusion hauptsächlich bei mittleren bis dunklen Lichtverhältnissen zum Einsatz kommt. Richtig dunkle Szenen übernimmt dann der Nachtmodus und helle, Smart HDR. Wir sind schon ganz gespannt auf die Ergebnisse, wobei ein mit und ohne Vergleich schwer möglich wird.

[Quelle: The Verge]

Beitrag teilen:

MaTT

Schon immer ein Kind der kreativen Künste hat MaTT nun nach einer 15-jährigen Karriere als Musikproduzent die Liebe zur Videoproduktion gefunden. Android in seiner Individualität begeisterte MaTT schon von Beginn an, wie einige Arbeiten aus dem Jahre 2006 und folgend, heute noch bei den XDA Developers Zeugnis tragen.

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert.

shares