Forscher des MIT und Google Research haben einen neuen Algorithmus entwickelt, der Spiegelungen von anderen Bildelementen trennen soll. Die Basis für das neue Verfahren ist die Erkenntnis, dass Spiegelungen auf Fensterscheiben in der Regel aus zwei gleichen Bildern bestehen. Schließlich wird das Bild auch von der Rückseite des Glases reflektiert. Der Abstand zwischen diesen beiden Spiegelungen ist dabei immer gleich, weshalb sich die störende Reflexion verlässlich von anderen Bildelementen unterscheiden lässt – eine Tatsache, die sich der neue Algorithmus zunutze macht. Zur besseren Erkennung von Spiegeleffekten teilt die Software das jeweilige Bild in 8x8 Pixel große Quadrate auf und untersucht diese.
Die ersten im Forschungspapier vorgestellten Ergebnisse sehen schon ordentlich aus, denn auf den bearbeiteten Fotos sind keinerlei Spiegelungen mehr zu sehen. Der Haken: Der neue Algorithmus merzt zwar Reflexionen auf Glas aus, dürfte bei allen anderen Oberflächen wie beispielsweise Wasser aber versagen. Über den Einsatz der neuen Technik ist noch nichts bekannt. Es ist aber davon auszugehen, dass Google den neuen Algorithmus in Smartphone-Kameras integriert oder Bildbearbeitungsprogramme damit ausgestattet werden.