Sensortechnik - Ausblick

  • Schöne Zeit und immer gut Licht
    Wolfgang_R


    Der Amateur sorgt sich um die richtige Ausrüstung, der Profi sorgt sich ums Geld und der Meister sorgt sich ums Licht. (Georg IR B.)
    Always Look at the Bright Side of Life ...

  • Schöne Zeit und immer gut Licht
    Wolfgang_R


    Der Amateur sorgt sich um die richtige Ausrüstung, der Profi sorgt sich ums Geld und der Meister sorgt sich ums Licht. (Georg IR B.)
    Always Look at the Bright Side of Life ...

  • Eine Betrachtung der Hardwareseite bei Sensoren:
    Wie wirkt sich eine Temperaturerhöhung bei verschiedenen Belichtungszeiten aus. Wir wissen, dass mit steigender Temperatur das Rauschen zunimmt, besonders das Dunkelstromrauschen bei Langzeitbelichtungen. (Physikalisch ist das leider nicht zu umgehen.) Prinzipiell ist der Einfluß auch bei kurzen Belichtungszeiten vorhanden, denn die Empfindlichkeit der Fotodioden ändert sich mit der Temperatur. Das machen sie aber nicht alle genau gleich. Details, die eben gerade noch getrennt werden konnten, gehen jetzt im Rauschen unter. Wie erkennt die Software, was an dem Signal Rauschen ist und was Detail? Wie unterscheidet sich Rauschen und Detail, wenn das Detail in der Größenordnung eines Pixels ist und nur wenig über die umliegenden Pixel hinaus ragt? Sowas kann auch Rauschen sein, denn wenn es zu extrem wird sehen wir das als Pixelfehler an und rechnen sie einfach raus. Das sind aber nur die Pixelfehler, die auffallend weit herausragen oder gar nichts von sich geben (Stuckpixel, Deadpixel, Subpixelfehler). Wie sieht es mit den Messergebnissen unmittelbar nach dem Einschalten und nach zwei Minuten Betriebszeit aus. Die Erwärmung beeinflusst nicht nur den Sensor alleine, sondern ALLE elektronischen Komponenten in der Kamera. Die Verstärker nach dem Sensor sind davon maßgeblich betroffen. Wie verringert sich die effektive Auflösung der A/D-Wandler mit steigender Temperatur (die untersten 2 Bit kann man sowieso vergessen) und wie groß ist seine rauschfreie Auflösung? Pro ca. 6...7°C Temperaturerhöhung verdoppelt sich der Rauschlevel. Verdopplung heißt 1 Blendenstufe! Diese eine Blendenstufe geht der Dynamik verloren. Was sind schon 6°C Temperatursteigerung im Inneren einer Elektronik. Pippifax! Der Temperaturgradient ist in den ersten Minuten am steilsten, also könnte man doch theoretisch allein durch die Betriebszeit vor der Messung das Ergebnis beeinflussen. Wie wird das berücksichtigt? Ich vermute, überhaupt nicht. Kameraintern könnte man
    das sogar berücksichtigen, und weil die Chiptemperatur irgendwo verschlüsselt in den EXIF steht, auch nachträglich im RAW-Konverter. Als zusätzliches Problem könnte sich die über die Sensorfläche ungleichmäßige Erwärmung erweisen.
    Wie zuverlässig sind vor diesem Hintergrund die Dynamikmessungen? Welcher Zusammenhang besteht zwischen der gemessenen Dynamik (z. B. bei DxO) und der Auflösung von Details in den Schatten? Was spiegeln die Ergebnisse der verschiedenen RAW-Konverter eigentlich wieder, die Fantasie des Entwicklers, den Wunsch des Marketings oder gibt es dafür eine weltweite Norm?


    Fassen wir mal die wichtigsten Variablen zusammen, die von der Frontlinse des Objektivs bis zu einem Bild führen:


    Licht (wer hätte das gedacht),
    Das Lichtspektrum,
    Helligkeitsabhängiges Photonenrauschen,
    Objektiveigenschaften (das ist alleine schon ein großes Kapitel für sich),
    AA-Filter,
    Mikrolinsen (keine ist der anderen wirklich gleich),
    Mikro-Farbfilterarray (kein Mikrofilter ist dem anderen wirklich gleich, ergibt Farbrauschen),
    Fotoempfänger des Sensors, keiner ist dem anderen wirklich gleich (rauscht),
    Verstärker (rauscht),
    A/D-Wandler (rauscht),
    Interpolationsalgorithmus,
    Schärfung,
    Gradationskurve,
    Schwarzpunkt,
    Entrauschungsalgorithmus,
    Farbsättigung,
    Kontrast,
    Temperatur,
    ...
    Natürlich gilt das alles für jede der drei Grundfarben RGB separat.


    Diese Aufstellung erhebt keinen Anspruch auf Vollständigkeit. All die weiteren vielfältigen Bearbeitungsmöglichkeiten mit der Bildverarbeitungssoftware, die der Anwender selbst in der Hand hat, habe ich hier nicht berücksichtigt.


    Mathematiker dürfen jetzt berechnen, wieviele Variationsmöglichkeiten es gibt um ein Bild zu verhunzen.


    Ein kleines Zahlenspiel muss noch sein:
    Eine Dynamik von 12 Blendenstufen entspricht einem Verhältnis von 1:4096.
    Um das hinreichend genau messen zu können, muß die Messeinrichtung *) etwa die zehnfache Genauigkeit bieten, also 1:40000 oder bezogen auf den Maximalwert 0,0025 Prozent.
    Eine Dynamik von 14 Blendenstufen entspricht einem Verhältnis von 1:16384. Um das hinreichend genau messen zu können, muß die Messeinrichtung etwa die zehnfache Genauigkeit bieten, also 1:160000 oder bezogen auf den Maximalwert 0,000625 Prozent. Das entspricht einem Messwertumfang von 17 1/3 Blendenstufen oder 104 dB. Das ist ungefähr der Helligkeitsumfang zwischen weißen Wolken in 2500 m Höhe, die von oben ungebremst von der Mittagssonne beleuchtet werden, bis zur Hauswand im Dunkeln, die aus 5 m Entfernung von einer 60 W Glühbirne beleuchtet wird.


    Das alles für den potentiellen Kunden in eine Prozentzahl zu pressen macht die Sache natürlich übersichtlicher. Ich verstehe auch, warum man ein Testergebnis dann so verklausuliert beschreibt, dass der Ottonormalverbraucher da lieber drüber weg liest und der "informierte Forennutzer" sich das heraus suchen kann was ihm gefällt.


    Um die Sache abzurunden hier eine Kamera, die in der Lage ist eine Dynamik von 1:160000 zu erkennen.
    Andor iXon Ultra 897 High Speed EMCCD Camera
    Der Sensor-Hersteller: e2v
    Zitat: "The status of ‘Ultimate Sensitivity’ is also preserved in this model, offering thermoelectric cooling down to -100°C and industry-lowest clock induced charge noise. "
    Key Specifications
    Active Pixels: 512 x 512
    Pixel Size: 16 x 16 µm
    Image Area (mm): 8.2 x 8.2
    Image Area pixel well depth: 160,000 e-
    Max. Readout Rate: 17 MHz
    Frame Rate: 56 - 11074 fps
    Read Noise: < 1 e- with EM gain
    QEmax: > 90%


    Nun frage ich mich ernsthaft, wie man mit einer Konsumerkamera in der Lage ist, eine Dynamik von 14 Blendenstufen zu erkennen und als Messergebnis zu veröffentlichen. Vielleicht kann es mir ja jemand auf verständliche Weise erklären.


    *) Unter Messeinrichtung ist die gesamte Strecke von der Beleuchtung bis zum gemessenen RAW-Signal gemeint, also nicht alleine die Kamera!

    Schöne Zeit und immer gut Licht
    Wolfgang_R


    Der Amateur sorgt sich um die richtige Ausrüstung, der Profi sorgt sich ums Geld und der Meister sorgt sich ums Licht. (Georg IR B.)
    Always Look at the Bright Side of Life ...

    Einmal editiert, zuletzt von wolfgang_r ()

  • Nun, schau Dir das mal genau an. Schärfer als ein herkömmliches Bayer-Muster-Bild wird es dadurch nicht. Ob von der Frontlichse bis zum fertigen Bild unterm Strich wirklich ein in Rauschen UND GLEICHZEITIG Detailauflösung besseres Bild als mit anderen Sensoren erreicht wird, muss sich erst noch im direkten Vergleich zeigen. Eine Eigenschaft isoliert zu betrachten ist nicht zielführend.


    In diesem Zusammenhang ist mir noch etwas eingefallen. Die BSI-Sensoren hören sich ja ganz gut an. Etwas verstehe ich jedoch aus meiner Kenntnis in Halbleiterfertigungsprozessen nicht daran. Wenn die Verstärker-, Spitzenwertspeicher- und Ausleseschaltungen unter *) dem Fotoempfänger liegen sollen, dann müsste die Fläche des Fotoempfängers oben ziemlich uneben sein und die Maske darauf zu projiezieren hat auch seine Tücken. Wie kriegt man das mit den Farbfiltern und Mirolinsen hin? Was man veröffentlicht sieht, sind ja immer nur idealisierte Schemazeichnungen. Ich würde dass gerne mal in einer mikroskopischen Aufnahme von einem Schnitt-Schliff oder REM-Aufnahme sehen.


    *) Das ist die Reihenfolge in der Chipherstellung, von unten nach oben auf dem Wafer. Darunter ist das tragende Material, die Bezeichnung BackSideIllumination ist eigentlich irreführend. Es ist eine "unter den Fotoempfänger verlagerte" Schaltung.

    Schöne Zeit und immer gut Licht
    Wolfgang_R


    Der Amateur sorgt sich um die richtige Ausrüstung, der Profi sorgt sich ums Geld und der Meister sorgt sich ums Licht. (Georg IR B.)
    Always Look at the Bright Side of Life ...

    2 Mal editiert, zuletzt von wolfgang_r ()

  • Den man dann mit dem Sensor wieder vernichtet?

    Schöne Zeit und immer gut Licht
    Wolfgang_R


    Der Amateur sorgt sich um die richtige Ausrüstung, der Profi sorgt sich ums Geld und der Meister sorgt sich ums Licht. (Georg IR B.)
    Always Look at the Bright Side of Life ...


  • Nun frage ich mich ernsthaft, wie man mit einer Konsumerkamera in der Lage ist, eine Dynamik von 14 Blendenstufen zu erkennen und als Messergebnis zu veröffentlichen. Vielleicht kann es mir ja jemand auf verständliche Weise erklären.


    Vielleicht gehst Du von falschen Voraussetzungen aus? Zunächst gibt DxO ja immer zwei Werte für den Dynamikumfang an, nämlich "Print" und "Screen". Die beiden Werte können sich um bis zu zwei (!) Blendenstufen unterscheiden, z.B. bei der Phase One IQ 180: 13,56EV Print <> 11,89 Screen. SNR18% ändert sich dabei sogar um 10db, was respektable 3 Blendenstufen wären (und fast ein Drittel des gesamten DR einer E-P3). Print meint hier die "normalisierte" Ausgabe auf 8Mpix, und zwar keinen echten Print oder Ausdruck, denn der könnte nie im Leben 14 EV wiedergeben, sondern das verbesserte Rauschverhalten, wenn man das Bild herunterrechnet. Da Bilder beim Herunterrechnen normalerweise nicht heller werden oder mehr Kontrast bekommen, drängt sich die Möglichkeit auf, dass DxO gar nicht den Kontrastumfang des Sensors misst, sondern aus dem Rauschverhalten errechnet. Steht ja auch so in den Erklärungen: http://www.dxomark.com/index.p…ocols/Noise-dynamic-range
    Da ist auch Bild zu sehen, dass das verwendete Testchart zeigt. Lassen wir jetzt einfach mal Deiner - berechtigten - Bedenken zwecks Tauglichkeit für eine seriöse Messung (z.B. Streulichteinfluss) weg, und konzentrieren uns ganz auf das, was DxO macht. Mir fällt bei diesem Testchart auf, dass die meisten Grautöne sehr hell und praktisch nicht voneinander unterscheidbar sind, dass es in den Tiefen aber sehr schnell und ohne viel Abstufungen abwärts geht. Gut, dass muss nichts heißen, vielleicht handelt es sich um eine schematische Darstellung oder um ein Knipsbildchen. Falls jedoch nicht, dann würde es bedeuten, dass die Abstufungen nicht gleichmäßig sind, sondern dass es genau da, wo man Dynamik brauchen kann, nämlich in den Schatten, zu Tonwertsprüngen kommt. Allerdings können wir das hier nicht klären.
    Auf jeden Fall wird dieses Testchart fotografiert, und dann für jedes Feld das Signal/Rauschverhältnis ermittelt. In den dunklen Feldern misst man also hauptsächlich das Grundrauschen des Sensors (im schlimmsten Fall durch Streulicht korrumpiert). Von dem ausgehend emuliert man dann den Kontrastumfang, bzw. die Dynamik. Die Eckpunkte sind also SNR des Sensors (am RAW gemessen) und Sättigungspunkt der Pixel. Theoretisch würde das ja bereits ausreichen, um den DR zu ermitteln, warum man dann überhaupt noch die unterschiedlich hellen Felder braucht, ist mir nicht ganz klar. Vielleicht bin ich auch zu dumm, um das zu verstehen:
    "Once we measure the target and calibrate the DxO Analyzer software, the selected camera shoots an image of the noise target at different ISO settings, and we measure the noise for each color channel of the target image (R, Gr, Gb, B). We compute the mean gray level and noise values for each patch and for all images shot at different ISO settings. We then interpolate these numerical values for all gray levels to calculate and plot signal-to-noise ratio (SNR) curves, from which DxO Analyzer extracts the SNR 18%, the dynamic range, and the tonal range."
    Für mich jedenfalls bedeutet das, dass da der Kontrastumfang/DR nicht direkt gemessen (wie auch, bei RAW?), sondern indirekt über das Rauschverhalten ermittelt wird. Schade, dass sie die RAWs zu den Messungen nicht zum Download bereitstellen, sonst könnte man mal schauen, was da konkret mit einem handelsüblichen RAW-Konverter dabei herauskommt.
    Was mir auch Kopfzerbrechen macht, ist der Zusammenhang von Rauschverhalten mit der Bittiefe. Löst eine höhere Bittiefe das Rauschen höher auf (was bedeuten würde, dass es mehr rauscht) oder glättet sie es durch Homogenisierung der Stufen (was bedeuten würde, dass es weniger rauscht), oder hat sie überhaupt keinen Einfluss?


    Im Übrigen bin ich ein ausgesprochener Fan von DxO. Wenn man sich eine Weile mit deren Diagrammen beschäftigt, kann man jede Sensordiskussion wunderbar ad absurdum führen. Z.B. die erwähnte Phase One IQ180, eine respektable 40000 Dollar Kamera mit 81 Megapixeln. Schaut man sich das Ding z.B. im Vergleich gegen eine Pentax K5 an, so hat man ein Argument gegen den "Pixelwahn" (und gegen teure Kameras) bei der Hand: In Punkto DR wird die Phase One von der K5 in jeder Hinsicht deklassiert. Schaut man sich dagegen das SNR18% für "Print" an, dann hat die Phase One die Nase vorn, und man hat ein Argument für mehr Megapixel. Schaut man auf die Scores, dann ist die Phase One für Sport&Lowlight fast doppelt so gut geeignet, wie eine Pen, und man hat ein Argument gegen FT/mFT/kleine Sensoren. Dafür hat die Pen (E-P3) bei ISO 400 ca. 0,7EV mehr DR als die Phase One im Modus "Screen", bei "Print" ist es dann genau umgekehrt. Man muss eben wissen, welche Karten man im Datenpoker wann auf den Tisch legen muss, und welche nicht.

  • (...)
    Im Übrigen bin ich ein ausgesprochener Fan von DxO. Wenn man sich eine Weile mit deren Diagrammen beschäftigt, kann man jede Sensordiskussion wunderbar ad absurdum führen.(...)


    :D Du bist nicht der einzige Fan von DxO, scheint mir. Nur einen klitzekleinen Mangel muss ich Dir ankreiden ... DU DENKST ÜBER DAS NACH, WAS DIE DA MACHEN! Das darfst Du nicht! Das ist nicht vorgesehen!:motz:
    Du hast da nichts anzuzweifeln!:motz:
    Jetzt brauchen wir nur noch einen guten Mathematiker (bin leider keiner), der denen dann vorrechnet, dass mit der richtigen Sensor-Strategie (nicht "-Technologie") und der nicht einsehbaren Bearbeitung der Daten vor dem RAW ein praktisch unendlicher Dynamikumfang möglich ist (wenn man es übertreibt, aber dann fällt es ja auf).
    .
    .
    .

    Schöne Zeit und immer gut Licht
    Wolfgang_R


    Der Amateur sorgt sich um die richtige Ausrüstung, der Profi sorgt sich ums Geld und der Meister sorgt sich ums Licht. (Georg IR B.)
    Always Look at the Bright Side of Life ...

  • DU DENKST ÜBER DAS NACH, WAS DIE DA MACHEN! Das darfst Du nicht! Das ist nicht vorgesehen!:motz:


    Kann sein. Denken und Fotografieren verträgt sich sowieso nicht gut, wie mir scheint. Man könnte womöglich zu dem Schluss kommen, dass sämtliche Kameras auf dem Markt funktionieren und das machen, was sie sollen: Ansehbare Bilder produzieren. Von da ist es dann nur noch ein kleiner Schritt zu dem Gedanken, dass die Unterschiede zwischen Kameras derselben Leistungsklasse eigentlich marginal sein müssen. Und von da bis zu dem Abgrund, dass man eigentlich keine Probleme hat, und dass die Probleme, die man glaubt, zu haben, maßlos übertrieben sind, ist es nur noch ein kleiner Schritt. Wenn man dann so weit ist, kann man sich auch gleich kleine Schellen und Glöckchen an den Anzug nähen, weil einen sowieso keiner mehr ernst nimmt. Dass der ganze Dynamikkram vollkommen irrelevant ist, glaubt einem niemand, und beweisen kann man's nicht, weil man sich dazu desselben Jargons bedienen muss, der gebraucht wird, um die Wichtigkeit des ganzen Krams aufrecht zu erhalten.


    Jetzt brauchen wir nur noch einen guten Mathematiker (bin leider keiner), der denen dann vorrechnet, dass mit der richtigen Sensor-Strategie (nicht "-Technologie") und der nicht einsehbaren Bearbeitung der Daten vor dem RAW ein praktisch unendlicher Dynamikumfang möglich ist (wenn man es übertreibt, aber dann fällt es ja auf).


    Dazu braucht man gar kein großer Mathematiker zu sein. Weißt Du, wie eine Tonwertkurve aussieht? Man kann die so definieren, dass sie sich den Schatten und Lichtern asymptotisch (so heißt das glaube ich) nähert, ihnen also unendlich nahe kommt, ohne sie jedoch jemals zu erreichen. Schwupps, schon haben wir sie, die unendliche Dynamik. Dass die zugehörigen Blendenstufen dieses Dynamikumfangs zu den Lichtern und Schatten hin dann auch immer kleiner werden und schließlich unendlich klein werden, muss man ja nicht dazusagen.
    Falls da jetzt jemand denkt, ich hätte einen Witz gemacht, das stimmt nicht, das ist tatächlich so. Jedenfalls dann, wenn der Dynamikumfang des Ausgaberaums (z.B. Monitor, Print) kleiner ist, als der Dynamikumfang des Sensors, bzw. der Kamera, was ja oft der Fall ist.

  • Ooooch, und ich hatte so gehofft, dass jemand kommt und das mal richtig kompliziert mathematisch ableitet. Sooo einfach wie Du das erklärst glaubt Dir das kein Mensch, ganz einfach deshalb, weil es so einfach und logisch ist und nicht in einem mehr oder weniger unübersichtlichen Formelpaket dargelegt wurde. Du hast es nämlich auf den Punkt getroffen!

    Schöne Zeit und immer gut Licht
    Wolfgang_R


    Der Amateur sorgt sich um die richtige Ausrüstung, der Profi sorgt sich ums Geld und der Meister sorgt sich ums Licht. (Georg IR B.)
    Always Look at the Bright Side of Life ...

  • Schöne Zeit und immer gut Licht
    Wolfgang_R


    Der Amateur sorgt sich um die richtige Ausrüstung, der Profi sorgt sich ums Geld und der Meister sorgt sich ums Licht. (Georg IR B.)
    Always Look at the Bright Side of Life ...

  • Hallo Wolfgang,


    in dem verlinkten Beitrag findet sich der Satz:
    "Gleichzeitig haben die Wissenschaftler Mikrolinsen auf jeden Sensorchip aufgebracht,
    die die Einstrahlung in jedem Pixel auf die photoaktive Fläche fokussieren."


    Ist das bislang also nicht der Fall?
    Ich ging bislang (warum eigentlich?) von Mikrolinsen bei der Realisierung des Bayer-Musters aus.


    Für die Oly-Super-Kamera in 2013 ist die zitierte Entwicklung aber wohl noch nicht einsatzreif!


    Viele Grüße


    Eckhard

  • Hallo Eckhard,
    ich schiebe das mal auf den Schreiberling, der diese Zeilen verbrochen hat. Der hat nur das geschrieben, was IHM schreibenswert schien. Die Interview-Zitate enthalten das nicht. Mikrolinsen sind ja nun schon lange nichts neues und werden in der Fotografie nur in Ausnahmefällen NICHT eingesetzt, z. B. im Mittelformatbereich. Das hat da auch einen triftigen Grund. Bildseitig nahezu telezentrische Objektive würden gewaltige Ausmaße annehmen. Idealerweise hätte die Hinterlinse einen Durchmesser von 60 mm. Das gibt es noch nicht einmal bei KB (da wären es 43 mm). Bei der M9 z. B. hat man sich den Trick mit dem Mikrolinsenshift einfallen lassen und muss zusätzlich noch Colorshift herausrechnen, weshalb die Objektive eine Codierung brauchen.
    Ob die Technologie für die (unsere) bildmäßige Fotografie überhaupt geeignet ist? Die Single-Photon Avalanche Photodioden und Sensoren damit gibt es ja schon länger. Die hohe Zählgeschwindigkeit hat eher was damit zu tun, wie weit der Weg zum Zähler ist. Der muss sehr dicht an die Dioden und das ist das eigentlich Neue. Gehen wir von 10 Picosekunden aus (10*10^-12), dann legt das Licht in dieser Zeit nur 10^-12 km zurück, das sind nur 3 mm! Genau da liegt das Problem. Mit Leitungen zu einer Platine kann man das nicht mehr realisieren. Damit die Laufzeiten für alle Dioden-Zähler-Strecken gleich sind (sonst gibt es einen Zeitversatz beim Auslesen der Dioden untereinander), müssen die Zähler unmittelbar an die Dioden gekoppelt werden.
    Zum Vergleich: Bei einem PC mit einer CPU-Taktfrequenz von 1 GHz legen die Daten in der Periodendauer von 10^-9 Sekunden 30 cm zurück. Bereits bei diesen Zeiten sind auf der Leiterplatte ganz besondere Leitungsführungen notwendig.

    Schöne Zeit und immer gut Licht
    Wolfgang_R


    Der Amateur sorgt sich um die richtige Ausrüstung, der Profi sorgt sich ums Geld und der Meister sorgt sich ums Licht. (Georg IR B.)
    Always Look at the Bright Side of Life ...

  • Hallo Wolfgang,


    interessanter Link, dessen Inhalt sich mir als Laien aber nicht vollständig erschließt. Könntest du das Prinzip inkl. seiner praktischen Vorteile und eventueller Nachteile mal kurz für Theorienullen wie mich;) erklären. Wäre ja schön, wenn es im Sensorbereich tatsächlich mal einen essentiellen Fortschritt gäbe.:)


    LG Stefan

  • Dem schließe ich mich bedingungslos an.
    Ich hätte jedoch nicht gewagt, ohne Vorschreiber meine absolute Ahnungslosigkeit kundzutun.
    Ich denke, das geht auch anderen so.
    Was ein Sensor mit Bayerpattern ist, weiß ich jedoch.


    maxie

    Gruß - maxie



    Ein Freund ist jemand, vor dem man laut denken kann.

  • Bei diesem neuen Panasonic-Prinzip bin ich mir auch noch nicht so recht im Klaren, wie das auf dieser mikroelektronisch-miniaturisierten Basis funktioniert. Was eine Diffraktive Optik ist weiß ich, aber das so winzig im µm-Format Pixel für Pixel zu bauen ist was doch anderes. Neu ist das Prinzip nicht. Eigentlich kennt die Wirkung jeder:
    http://www.physikalische-prakt…/Vortraege/Rueckmann2.pdf
    WENN es funktioniert, dann ist es eine tolle Sache. Die Farbfilterklekse des Bayer-Filters braucht man dann nicht mehr und die Empfindlichkeit des Sensors steigt wesentlich an.

    Schöne Zeit und immer gut Licht
    Wolfgang_R


    Der Amateur sorgt sich um die richtige Ausrüstung, der Profi sorgt sich ums Geld und der Meister sorgt sich ums Licht. (Georg IR B.)
    Always Look at the Bright Side of Life ...

Unserer Olympus-Fachhändler

Foto Baur