Kategorien: News

Google und der MIT gegen Reflexionen auf den Fotos

Wer häufig und viel fotografiert, wird das jüngste Forschungsprojekt von Google und dem Massachusetts Institute of Technology zu schätzen wissen. Denn nichts ist störender als eine Reflexion verursacht durch ein Fensterglas, auf einem tollen Motiv, welches man gerade aufgenommen hat. Genau das soll nach den aktuellen Ergebnissen der Forschung durch Google und dem MIT der Vergangenheit angehören.

Die Situationen können grundverschieden sein, aber in einem gleichen sie sich: Man will etwas hinter einer Glasscheibe fotografieren und auf dem Resultat ist eine hässliche Reflexion zu sehen. Gerade bei Lichtquellen wie dem zusätzlichen Blitzlicht ist dies zu sehen, was anscheinend auch die Entwickler bei Google – seit gestern Abend unter der Dachgesellschaft Alphabet Inc. befindlich (zum Beitrag) – und dem MIT nicht so richtig passt. Daher hat man die Entwicklung einer neuen Software begonnen.

Perfekte Fotos mit Google und dem MIT

Bei diesem Programm handelt es sich hauptsächlich um einen neuen Algorithmus, welcher aus mehreren Fotos aus leicht verschiedenen Blickwinkeln ein neues Gesamtbild erstellt. Genau genommen muss man laut Google – beziehungsweise den Forschern des MIT – ein kurzes Video drehen und dabei das Smartphone ein kleines Stück hin und her schwenken, um die nötigen Informationen aufzuzeichnen. Während dieser Sequenz erkennt der Algorithmus die störenden Bildelemente und retuschiert diese aus dem eigentlichen Foto schließlich heraus. Ein kleines Video verdeutlicht die Errungenschaft von Google und dem MIT sehr anschaulich:

In dem Video erklären die Forscher von Google und dem MIT anhand verschiedener Reflexionen, wie deren Algorithmus arbeitet. Es gibt sogar Beispiele, in welchen kurzerhand Regentropfen von der Glasscheibe oder ein Maschendrahtzaun weg retuschiert wurden. Unabhängig davon, ob es sich um ein einfaches Foto handelt oder eine Panorama-Aufnahme.

Das Ergebnis der gemeinsame Forschung sowie Entwicklung haben Google und das Massachusetts Institute of Technology (MIT) auf der SIGGRAPH 2015 erstmals unter dem Titel „A Computational Approach for Obstruction-Free Photography“ der Öffentlichkeit präsentiert, wobei es auch vorerst dabei bleiben dürfte. Bis die Technologie reif ist für den Einsatz in aktuellen Geräten wird noch einiges an Zeit vergehen, was bei derartigen Forschungsprojekten nicht unüblich ist.

Die größte Herausforderung der Forscher dürfte es sein, die Verarbeitung der Daten auf ein angenehmes Niveau zu bringen, was angesichts immer leistungsfähigerer Prozessoren wie einem Samsung Exynos 7420 oder dem kommenden Snapdragon 820 ein eher kleineres Problem sein dürfte. Vielleicht ist genau diese Möglichkeit ein fester Bestandteil von Android Nutella oder einem zukünftigen Update der Google Kamera?

[Quelle: Whats Up Gang?]
Stefan

Mann mit Bart und Faible für Smartphones und Tablets jeder Plattform, doch eindeutig bekennender Androidliebhaber.

Share
Veröffentlicht von
Stefan

Recent Posts

Project Moohan: Samsung eröffnet mit dem Galaxy XR-Headset neue Welten!

Samsung hat nun auf seinem Galaxy-Oktober-Event in Südkorea und den USA das Galaxy XR-Headset offiziell…

4 Monaten vor

Vivo iQOO 15: Snapdragon 8 Elite Gen 5-Flaggschiff für knapp 500 Euro offiziell!

Anfang der Woche hat Vivo im Heimatland das als preiswert zu bezeichnende iQOO 15 präsentiert.…

4 Monaten vor

Apple iPad Fold soll über 4.000 Euro kosten!

Manch einer von Euch wird vermutlich schmunzeln, wenn wir wieder einmal über das Apple iPad…

4 Monaten vor

Realme GT 8: Snapdragon 8 Elite für 350 Euro!

Neben dem Realme GT 8 Pro, das mit austauschbaren Kamera-Arrays in runder und eckiger Form…

4 Monaten vor

Realme GT 8 Pro mit individuellem Kamera-Design by Ricoh GR offiziell!

Noch vor dem OnePlus 15 und OnePlus Ace 6 hat nun das Schwester-Unternehmen heute das…

4 Monaten vor

Kommt die komplette Samsung Galaxy S26-Serie mit dem Exynos 2600?

Bislang war der Exynos-Prozessor von Samsung eher ein Chip, welchen die werte Kundschaft gemieden hat.…

4 Monaten vor

Diese Seite verwendet cookies.