Mal wieder ein wenig Theorie als Hintergrundinformation.:)
Ich versuche hier mal von der technisch-physikalischen Seite an die Sache heran zu gehen und möglichst ohne Mathematik auszukommen. Etwaige Ungenauigkeiten bitte ich zu tolerieren. Eine möglichst für alle verständliche Form ist mein Ziel bei diesem Beitrag.
Anlaß sind die diversen Kamera- und Objektivtests allerorts und die daraus abgeleiteten Bewertungen. Als Beispiele zu diesem Text verwende ich die Testcharts in dpreview.com. Siehe dazu hier (dabei insbesondere die diagonalen Strukturen und die Tabelle am Ende der Seite):
http://www.dpreview.com/reviews/olympuse3/page34.asp
Am Ende der o. a. Seite von dpreview findet man eine Tabelle "Measurable results". In dieser Tabelle stolpere ich immer über den Eintrag "Moire is visible" und dabei fing ich als Techniker (der mit optischen Instrumenten seinen Lebensunterhalt verdient) früher schon mal an, kritische Überlegungen zur Auflösung anzustellen.
Moire ist im Grunde der Effekt, der hier bei sog. Phasengittermaßstäben zum Messen genutzt wird.
http://pdf.directindustry.de/p…ssgerate/155-4805-_8.html
http://de.wikipedia.org/wiki/Moir%C3%A9-Effekt
Dieser Effekt tritt immer dann auf, wenn sich Strukturen ähnlicher Abmessungen im Bereich weniger Lichtwellenlängen bewegen. Je nach Strukturbreite und Strukturbreitenunterschied der beiden Strukturen und dem Abstand der Strukturen und der Strukturbreite des Messempfängers (dem Abstand der Sensordioden des Sensors) ergeben sich verschiedene Auflösungen des Messsystems. Es können auch höhere Auflösungen vorgetäuscht werden (Aliasing, auch im Audiobereich, weswegen man höhere Abtastfrequenzen verwendet was man dann x-fach Oversampling nennt). Wir befinden uns mit den aktuellen Kameras im Strukturbereich von ~2 µm bis ~8 µm (d. h. im Bereich von wenigen Lichtwellenlängen) und damit in einem sehr sensiblen Bereich. Das kann die tollsten Effekte ergeben. Siehe das Schillern über Ölfilmen auf Wasser. Der Ölfilm ist nur wenige nm bis µm dick, das ergibt je nach Einblickwinkel verschiedene Farben, d. h. verschiedene Interferenzfrequenzen. Auf diesem Prinzip beruht auch das "Vergüten" der Linsen. Es werden mehrere Schichten mit verschiedenen Materialien von wenigen 100 Nanometer Dicke nacheinander im Vakuum aufgedampft, welche für bestimmte Farben (=Wellenlängen) die Reflexion auf der Oberfläche weitgehend verhindern.
http://de.wikipedia.org/wiki/Antireflexbeschichtung
Diese Mischung aus Interferenz-, Aliasing- und Moire-Effekt haben ALLE Sensor-Filter-Objektivkombinationen! Die Frage ist nur, wo schiebt man den Effekt hin. Mit etwas Pech passt die aufgenommene Struktur des Bildes genau dort rein und der Effekt wird sichtbar. Ein Lattenzaum mit bestimmter Lattenbreite und bestimmtem Lattenabstand in bestimmter Entfernung beispielsweise. Ich habe lange Zeit mit Phasengittermaßstäben gearbeitet und hätte mich doch sehr gewundert, wenn solche Effekte bei Digitalkameras NICHT auftreten würden. Je höher die Sensor-Auflösung wird und je besser die Objektive werden (wenn das Beugungsscheibchen theoretisch klein genug für die Sensorauflösung ist), um so kleiner sind die Strukturen, die Moiré erzeugen. Will man solche Effekte verhindern, verschmiert man die Strukturen, was ja nichts anderes ist als das Erzeugen von künstlicher Unschärfe. Mit Objektiven, die bei ihrer besten Blendeneinstellung einen Unschärfekreis erzeugen, der etwas größer als ein heute aktueller Pixel ist, hat man das Problem jetzt schon nicht mehr. Objektive, die auf heutigen Sensoren bei ihrer förderlichen Blende und in und nahe der Bildmitte bei passenden, regelmäßigen Strukturen kein Moiré erzeugen, taugen meiner Meinung nach noch gut als Briefbeschwerer.
Eine Lösung des Problems wären noch viel höher auflösende Sensoren, um die unvermeidlichen Unschärfen der Objektive ausfzulösen. Schlechte Objektive werden davon nicht besser, aber gute Objektive drehen nicht mehr Däumchen. Das wäre dann 3-fach oder 4-fach Linear-Oversampling mittels 90 MP oder 160 MP Sensor im FT- oder APS-Format! Für das KB-Format würde das nochmal Faktor 4, um bei diesem Beispiel zu bleiben also ca. 360 bzw. 640 Megapixel bedeuten. Mit einem solchen Sensor könnte man einerseits nahezu die theoretisch mögliche Auflösung eines idealen Objektivs für alle Sensorformate nutzen, andererseits diesen Vorteil durch zusammenfassen mehrerer Pixel (das wäre dann der Software-AA-Filter) zur Verhinderung der Schmutzeffekte auch gleich wieder vernichten. Diese Auflösung wäre außerdem auch nur exakt in der Schärfeebene bei voller Öffnung bzw. bei nicht beugungsbegrenzt gerechneten Objektiven bei der förderlichen Blende vorhanden.
Fortsetzung folgt ....