Forscher zeigen: Kamerabewegungen können schärfere Bilder erzeugen als statische Aufnahmen, wenn ein cleverer Algorithmus die Bewegungsinformationen nutzt.
Wie Bewegung zu mehr Details führt
Normalerweise gilt: Je ruhiger die Kamera, desto schärfer das Bild. Forscher der Brown University haben nun das Gegenteil bewiesen. Mit einem speziellen Algorithmus können bewegte Kameras höher aufgelöste Bilder produzieren als völlig stabile Aufnahmen. Die Verbesserung ist dramatisch: Aus 32×32-Pixel-Sensordaten rekonstruieren sie 128×128-Pixel-Bilder.
“Wir alle wissen, dass man bei einer wackelnden Kamera unscharfe Bilder bekommt”, erklärt Pedro Felzenszwalb, Professor für Ingenieurswesen und Informatik an der Brown University. “Aber wir zeigen, dass ein von einer bewegten Kamera aufgenommenes Bild tatsächlich zusätzliche Informationen enthält, die wir zur Erhöhung der Bildauflösung nutzen können.”
Das Geheimnis liegt in der Art, wie Kameras Bilder aufnehmen. Jeder Pixel eines Sensors misst das durchschnittliche Licht in einem kleinen quadratischen Bereich. Details, die kleiner als ein Pixel sind, verschwimmen dadurch normalerweise.
Bewegt sich die Kamera jedoch, wandern kleine Lichtpunkte über mehrere Pixel hinweg und hinterlassen Spuren. Diese Spuren verraten dem Computer, wo die ursprünglichen Details gewesen sein müssen. Ein Beispiel: Bewegt sich die Kamera während der Aufnahme um genau ein Pixel, verteilt sich ein Lichtpunkt auf zwei benachbarte Pixel. Aus den gemessenen Helligkeitswerten beider Pixel kann der Algorithmus die exakte Position des ursprünglichen Lichtpunkts berechnen.
Das Problem dabei: Aus den verwischten Daten die ursprünglichen scharfen Details zu rekonstruieren, ist mathematisch extrem schwierig. Die Forscher lösen es mit einem Verfahren namens “Total Variation”. Dabei nimmt der Computer an, dass echte Fotos bestimmte Eigenschaften haben: Sie bestehen hauptsächlich aus glatten Bereichen mit gelegentlichen scharfen Kanten, wie sie bei Objektgrenzen auftreten.
Diese Annahme hilft dem Algorithmus, aus unendlich vielen möglichen Lösungen die richtige herauszufinden. Frühere Ansätze verwendeten andere mathematische Annahmen, die zu übermäßig weichen, unrealistischen Bildern führten.
Verschiedene Bewegungsstrategien getestet
Die Forscher testeten unterschiedliche Arten der Kamerabewegung:
- Raster-Aufnahmen: In einem Versuchsaufbau machte die Kamera 64 Einzelbilder an leicht verschiedenen Positionen. Jede Position war dabei nur um Bruchteile eines Pixels versetzt.
- Vibration: In Simulationen wurde gezeigt, dass selbst eine einzige Aufnahme während einer starken Kameravibration ausreicht. Obwohl das Bild dadurch stark verwischt wird, kann der Algorithmus daraus ein scharfes, hochaufgelöstes Foto rekonstruieren.
- Gleichmäßige Bewegung: Die Kamera bewegt sich mit konstanter Geschwindigkeit. Diese Methode ist praktisch für Situationen, in denen ein Stillstand unmöglich ist, etwa bei Luftaufnahmen.
Präzision im Nanometer-Bereich erforderlich
Für ihre Experimente verwendeten die Forscher eine normale Kamera auf einem computergesteuerten Präzisionstisch. Dieser bewegt die Kamera mit einer Genauigkeit von Nanometern, also milliardstel Metern. Diese extreme Präzision ist nötig, weil die Bewegungsinformationen so genau sein müssen wie die angestrebte Bildauflösung.
Bei ihrem Versuchsaufbau betrugen die Bewegungsschritte nur 0,17 Millimeter. Trotz dieser winzigen Distanzen entstanden Bilder mit 64-fach höherer Pixelzahl als die ursprünglichen Sensordaten.
Das Verfahren widerspricht früheren wissenschaftlichen Arbeiten, die bewiesen hatten, dass Super-Resolution schnell an Grenzen stößt. “Es gab einige frühere theoretische Arbeiten, die suggerierten, dass dies nicht möglich sein sollte”, so Felzenszwalb. “Aber wir zeigen, dass einige Annahmen in diesen früheren Theorien sich als nicht zutreffend erwiesen.”
Der Durchbruch gelang, weil die Forscher andere mathematische Werkzeuge verwendeten als ihre Vorgänger. Während frühere Methoden zu weichen, unrealistischen Bildern führten, erhält ihr Ansatz scharfe Kanten und feine Details.
Von Kunstarchivierung bis Gigapixel-Fotografie
Die Anwendungsmöglichkeiten sind vielfältig. Museen könnten Kunstwerke in bisher unerreichter Auflösung digitalisieren. Luftbildfotografie könnte von bewegten Plattformen aus schärfere Bilder liefern. Sogar Gigapixel-Aufnahmen mit handelsüblichen Kameras werden möglich.
“Es gibt bereits Systeme, die Kameras verwenden, um Bewegungsunschärfe aus Fotos zu entfernen”, erklärt Felzenszwalb. “Aber niemand hat versucht, das tatsächlich zur Erhöhung der Auflösung zu nutzen. Wir zeigen, dass das definitiv möglich ist.”
Pixel-Shift-Kameras, die bereits im Handel erhältlich sind, könnten die gleiche Technologie für diese Super-Resolution-Verfahren nutzen. Das Team sucht nun Industriepartner, um die Technik in den kommenden Jahren marktreif zu machen.
Quelle: Arxiv | via: PetaPixel





Jonathan Kemper bereitet uns Leser auf die perfekte „Rentnerkamera“ vor!
Sowie die Smartwatch die korrekte „Zitter-Frequenz“ ermittelt und übertragen hat machen wir ältere Fotografen kombiniert mit dem „Pixel-Shift“ Modus die besten, schärfste, farb- treuesten Fotos die es je gegeben hat.
Was lernen wir daraus? Ohne den richten Algorithmus in der Fotowelt geht gar nichts!
Ich sehe schon den Support Chat: Ein 20 Jähriger beschwert sich, dass er nur auf knapp 100 Megapixel kommt, während Opa längst Gigapixel knackt. Dazu dann die ganzen Modding Tools, Frontlinse lockern, bisschen rütteln, fertig ist das Upgrade. Irgendwie herrlich, wenn man Vergangenheit und Zukunft nebeneinanderhält.
Aber mal im Ernst: Da gibt es sicher Grenzen. Bei einer 15 minütigen Langzeitbelichtung wird das nicht funktionieren und bei ultrakurzen Zeiten verschiebt sich wiederum gar nichts. Wahrscheinlich gibt es da einen Sweet Spot, wo die Kamerabewegung genau die richtige Menge an Informationen liefert, um zurückgerechnet zu werden. Spannend finde ich es auf jeden Fall, klasse dass es in dem Bereich immer weitergeht
D.H. der IBIS bekommt eine neue Funktion: Er gleicht nicht mehr das Wackeln aus, sondern wackelt wenn der Photograph die Camera ruhig haelt. )(;-oh)
Sehr interessant. Wäre cool wenn das die aktuelle Pixel-Shift Funktion der Kameras verbessern würde. Habe eine a7rV und bin recht entäuscht vom Pixelschift, da ich ein ähnliches Ergebnis auch mit ein Einzelbild mit DxO PureRaw hinbekomme.
Der Trick ist, die Sony-Pixel-Shift-Daten direkt in Lightroom zu entwickeln. Lightroom kann dieses Format ebenfalls lesen. Die Sony-Software ist dafür leider zu schlecht in der Qualität und wirklich nicht ideal. Die 16 RAW-Dateien bieten nicht nur einen deutlichen Auflösungsvorteil, sondern auch eine massiv verbesserte Farbwiedergabe. Voraussetzung ist allerdings ein Monitor und ein System, das mehr als sRGB darstellen kann. Bei Langzeitbelichtung ist es auch richtig stark, aber bei 16 RAW Dateien dauert das seine Zeit.