Google und der MIT gegen Reflexionen auf den Fotos

Geschrieben von

research_of_google Wer häufig und viel fotografiert, wird das jüngste Forschungsprojekt von Google und dem Massachusetts Institute of Technology zu schätzen wissen. Denn nichts ist störender als eine Reflexion verursacht durch ein Fensterglas, auf einem tollen Motiv, welches man gerade aufgenommen hat. Genau das soll nach den aktuellen Ergebnissen der Forschung durch Google und dem MIT der Vergangenheit angehören.

Die Situationen können grundverschieden sein, aber in einem gleichen sie sich: Man will etwas hinter einer Glasscheibe fotografieren und auf dem Resultat ist eine hässliche Reflexion zu sehen. Gerade bei Lichtquellen wie dem zusätzlichen Blitzlicht ist dies zu sehen, was anscheinend auch die Entwickler bei Google – seit gestern Abend unter der Dachgesellschaft Alphabet Inc. befindlich (zum Beitrag) – und dem MIT nicht so richtig passt. Daher hat man die Entwicklung einer neuen Software begonnen.

Perfekte Fotos mit Google und dem MIT

Bei diesem Programm handelt es sich hauptsächlich um einen neuen Algorithmus, welcher aus mehreren Fotos aus leicht verschiedenen Blickwinkeln ein neues Gesamtbild erstellt. Genau genommen muss man laut Google – beziehungsweise den Forschern des MIT – ein kurzes Video drehen und dabei das Smartphone ein kleines Stück hin und her schwenken, um die nötigen Informationen aufzuzeichnen. Während dieser Sequenz erkennt der Algorithmus die störenden Bildelemente und retuschiert diese aus dem eigentlichen Foto schließlich heraus. Ein kleines Video verdeutlicht die Errungenschaft von Google und dem MIT sehr anschaulich:

In dem Video erklären die Forscher von Google und dem MIT anhand verschiedener Reflexionen, wie deren Algorithmus arbeitet. Es gibt sogar Beispiele, in welchen kurzerhand Regentropfen von der Glasscheibe oder ein Maschendrahtzaun weg retuschiert wurden. Unabhängig davon, ob es sich um ein einfaches Foto handelt oder eine Panorama-Aufnahme.

Das Ergebnis der gemeinsame Forschung sowie Entwicklung haben Google und das Massachusetts Institute of Technology (MIT) auf der SIGGRAPH 2015 erstmals unter dem Titel „A Computational Approach for Obstruction-Free Photography“ der Öffentlichkeit präsentiert, wobei es auch vorerst dabei bleiben dürfte. Bis die Technologie reif ist für den Einsatz in aktuellen Geräten wird noch einiges an Zeit vergehen, was bei derartigen Forschungsprojekten nicht unüblich ist.

Die größte Herausforderung der Forscher dürfte es sein, die Verarbeitung der Daten auf ein angenehmes Niveau zu bringen, was angesichts immer leistungsfähigerer Prozessoren wie einem Samsung Exynos 7420 oder dem kommenden Snapdragon 820 ein eher kleineres Problem sein dürfte. Vielleicht ist genau diese Möglichkeit ein fester Bestandteil von Android Nutella oder einem zukünftigen Update der Google Kamera?

[Quelle: Whats Up Gang?]

The following two tabs change content below.
Mann mit Bart und Faible für Smartphones und Tablets jeder Plattform, doch eindeutig bekennender Androidliebhaber.

Hinterlasse eine Antwort

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert.

*


204 Abfragen in 0,431 Sekunden