Zottels Zeug
 Sat, 05 Jul 2014 03:18:54 +0200 zuletzt bearbeitet: Sat, 05 Jul 2014 04:06:07 +0200  
Im Folgenden wieder ein leicht überarbeiterer Artikel aus meinem alten Blog, zuerst dort erschienen im Oktober 2010.

Mittlerweile könnte das Thema Megapixel vielleicht ein wenig aus dem Marketing verschwinden, jedenfalls sah das ein Artikel in Spiegel Online zur CES 2014 so. Zu wünschen wäre es – denn in den meisten Kameras, vor allem im Consumer-Bereich und in Handys, bedeuten mehr Pixel im allgemeinen schlechtere, nicht bessere Qualität. Näher erläutert in folgendem Artikel:

Bei Consumer-Kameras, Handy-Kameras, sogar bei DSLRs wird die Megapixel-Grenze immer höher gepusht, denn die Werbung suggeriert: Je mehr Megapixel, desto besser.
Das Gegenteil ist der Fall, leider, und das führt dazu, dass neue Kameras absurderweise zum Teil schlechtere Bilder liefern als ihre Vorgänger.
Warum sind mehr Megapixel nicht besser? Dafür gibt es zwei Hauptgründe:

Die optische Auflösung
Objektive können keine beliebige optische Auflösung liefern. Die Bildschärfe der Abbildung auf dem Sensor ist begrenzt und nimmt zudem zu den Rändern hin ab.
Bei den üblichen Sensorgrößen für digitale Spiegelreflexkameras aus dem Consumer-Bereich liegt die optische Auflösung bezahlbarer Objektive meist irgendwo im Bereich zwischen 12 und 18 Megapixeln. Zoom-Objektive liegen meist unter 16 Megapixeln, Objektive mit Festbrennweite erreichen durchaus auch einmal 20 Megapixel (jeweils im bezahlbaren Bereich; Profi-Objektive erzielen teils bessere Werte, sind aber auch entsprechend teuer).
Um das mit echten Werten zu untermauern, müssen wir einen Ausflug in die Theorie unternehmen. Ein sehr guter Anlaufpunkt für praktische Messwerte sind die Objektivtests von dpreview:
Angegeben werden LW/PH, also „line widths per picture height“. Eine „line width“ steht dabei etwas missverständlich für ein Paar aus einer weißen und einer schwarzen Linie, was rein theoretisch zwei Pixeln entsprechen würde.
Die theoretische Auflösung eines Sensors in LW/PH wäre also die Anzahl der Pixel in der Bildhöhe geteilt durch zwei.
Tatsächlich kann so ein Bildsensor aber nicht ganz so hoch auflösen (wegen Farbfiltern, Antialiasing und evtl. weiteren Gründen), auch wenn moderne Kameras diesem Wert recht Nahe kommen.
Als Beispiel sei hier die 16MP-Kamera Nikon D5100 genannt. Hier ist die Seite zur Auflösung dieser Kamera bei dpreview zu sehen – um die Verwirrung komplett zu machen, werden hier dann Lines Per Height angegeben; diesen Wert muss man also wieder durch zwei teilen, um ihn mit den Objektiv-Werten vergleichen zu können.
Theoretisch könnte der Sensor in der Bildhöhe 3264 LPH oder 1632 LW/PH auflösen. Tatsächlich gelingen dem Sensor im RAW-Format etwa 2800 LPH oder 1400 LW/PH. Soweit die Fähigkeiten des Sensors.
Diesen Wert können wir jetzt also mit den Tabellen der Objektivtests vergleichen? Nicht ganz. Angegeben sind nämlich MTF50-Werte (d.h. MTF 50%). Das ist der Wert, bei der die Abbildung noch als „scharf“ empfunden wird, darunter sind die Kontrastwerte so niedrig, dass ein unscharfer Eindruck entsteht. Das heißt aber nicht, dass man die Linien dann nicht mehr unterscheiden kann. Als Beispiel kann man sich die zweite Grafik von oben auf Norman Korens MTF-Seite ansehen. Bei 10% saufen die dünnen Linien arg ins Grau ab, sind aber noch erkennbar.
Mit anderen Worten: Es kann schon als Faustregel gelten, dass eine einigermaßen scharfe Abbildung bis hinunter auf die maximale Auflösung des Sensors nur gegeben ist, wenn der MTF50-Wert des Objektivs auch an die maximale Auflösung des Sensors herankommt. Das heißt aber nicht, dass gar nichts mehr zu sehen ist (= eine einfarbige Fläche), wenn das Objektiv das nicht schafft. Die Abbildung wird „lediglich“ immer verwaschener und unschärfer.
Somit könnte man wie folgt rechnen:
Man nehme die vertikale Auflösung eines Sensors (die kleinere Zahl) und multipliziere sie mit 0,4. Das ergibt einen über den Daumen gepeilten Wert für die tatsächliche Auflösung des Sensors in LW/PH (normalerweise wird es etwas mehr sein, aber wir wollen den Objektiven etwas Vorsprung geben).
Dann muss man im Objektivtest noch die richtige Testkamera auswählen; meist gibt es eine mit APS-C und eine mit größerem Sensor (z. B. Vollformat).
Erreicht oder übertrifft ein Objektiv den Wert des Sensors, sind damit „knackscharfe“ Bilder möglich, auch wenn man weit ins Bild hineinzoomt. Wird er unterschritten, kann das Objektiv den Sensor nicht mehr ausreizen. Trotzdem können bei höherer Pixeldichte im Sensor zusätzliche Details sichtbar sein, zusätzliche Megapixel sind also nicht ganz für die Katz. Diese Details werden aber verwaschen und unscharf wirken.
Nimmt man den Wert der D5100 wird klar: Gute Zoom-Objektive geben die benötigte Auflösung für 16 Megapixel auf einem APS-C-Sensor in der Regel her, zumindest innerhalb der idealen Brennweiten und Blendenstufen. Festbrennweiten schaffen auch mehr. Durchschnittliche bis unterirdische Zooms sind dagegen schon mit 10 Megapixeln (ca. 1000 LW/PH) überfordert.
Merke: Wir sprechen hier von großen Spiegelreflex-Objektiven, und zudem von deren maximaler Auflösung, die meist im mittleren Blendenbereich liegt. Nicht umsonst sind Profi-Kameras mit größeren Bildsensoren ausgestattet: Neben den Vorteilen bei der Lichtempfindlichkeit (siehe unten) ist es nur so möglich, 18 Megapixel und mehr wirklich mit Daten zu versehen. Einen APS-C-Sensor dieser Auflösung dürfte kaum ein Zoom schaffen, und auch gute Festbrennweiten stoßen hier langsam an ihre Grenzen.
Jetzt sehen wir uns einmal Kompaktkameras und, noch schlimmer, Handy-Kameras an. Die kleine bis winzige Optik kann natürlich niemals die Auflösung eines Spiegelreflex-Objektivs bieten. Zudem sind die verbauten Sensoren meist noch kleiner als die der Consumer-DSLRs, im Falle von Handy-Kameras sogar sehr viel kleiner.
Das bedeutet, dass die Optik einer Kompaktkamera normalerweise nicht mehr als etwa 6-10 Megapixel echte Auflösung bietet, eher 6 als 10. Bei Handylinsen, die aus Kostengründen häufig aus Plastik gefertigt sind, dürften kaum mehr als als 3 oder 4 Megapixel drin sein, eher weniger – ohne Autofocus sogar viel weniger.
Die restlichen Pixel dienen nur zum Angeben. Weil das Objektiv die Schärfe nicht liefern kann, enthalten sie keine zusätzlichen Informationen. Sie müllen also nur die Speicherkarte zu. Und noch schlimmer: Sie sorgen sogar dafür, dass die Bildqualität schlechter wird:

Die Lichtempfindlichkeit
Je kleiner der einzelne Bildpunkt eines Kamerasensors ist, desto weniger Licht erreicht ihn logischerweise in der Summe.
Jeder Nutzer einer Digitalkamera weiß, dass in dunkler Umgebung die Bilder zum Rauschen tendieren: Statt sehr dunklem, einheitlichem Grau bekommt man farbige Bildpunkte, die die Bildqualität stark beeinträchtigen.
Beim Hochregeln der „Empfindlichkeit“ eines Sensors entstehen diese Artefakte; Ungenauigkeiten in der Digitalisierung des auftreffenden Lichts wirken sich sehr viel massiver aus als bei einem hellen Bild.
Das ist auch leicht nachzuvollziehen: Gehen wir von einem Sensor aus, der für den Rotanteil eines Pixels 256 Werte liefern kann (die meisten können mehr, das ist nur ein Beispiel): Maximale Helligkeit in einem sonnigen Bild wäre 256. Im einem sehr dunklen Bild kommen aber nur Werte von beispielsweise 0 bis 40 vor. Regelt man die jetzt so hoch, dass wieder Werte von 0 bis 256 herauskommen, wirken sich Abweichungen bei der Digitalisierung mehr als sechsmal so drastisch aus.
Je mehr Pixel man auf einen kleinen Sensor quetscht, desto weniger Licht erhält der einzelne Pixel.
Das bedeutet: Je mehr Megapixel bei gleicher Sensorgröße, desto schlechter das Bild, denn je weniger Licht auf den einzelnen Pixel fällt, desto höher muss man den Gain des Sensors einstellen, desto massiver muss man „verstärken“, was sich negativ auf die Bildqualität auswirkt.
Man kann das auch schön beobachten, wenn man ein stark unterbelichtetes Bild im Nachhinein mit einer Bildbearbeitungs-Software aufhellt: Starkes Rauschen tritt auf. Nichts anderes tut die Kamerasoftware bei kleinen, hochaufgelösten Sensoren, die zu wenig Licht erhalten.
Natürlich wird versucht, diesen Effekt zu vertuschen, so gut es geht. Gerade Handy-Kameras arbeiten mit massiver Rauschunterdrückung. Dadurch ist das Rauschen selbst kaum noch zu sehen, dafür erhält man flächige, verwaschene Bilder, die nur auf den ersten Blick „gar nicht so schlecht“ aussehen.
Auch diesen Effekt kann man mit einer Bildbearbeitungssoftware schön nachvollziehen: Man nehme ein deutlich verrauschtes Bild (zum Beispiel eines, das man stark aufgehellt hat) und nutze den Rauschfilter des Programms. Je nach eingestellter Intensität ist das Rauschen danach kaum noch sichtbar, dafür sind aber viele Konturen und Farbübergänge im Bild geopfert worden.

Fazit
Die immer größeren Megapixel-Zahlen sind bei Kompaktkameras und vor allem bei Handy-Kameras reiner Marketing-Humbug. Der Nutzer bezahlt dafür sogar mit schlechterer Bildqualität als der, die er bei gleicher Sensorgröße mit geringerer Megapixel-Zahl bekommen hätte. Ein paar gute Beispiele dazu gibt es unter http://6mpixel.org/.
Selbst bei Consumer-DSLRs sind inzwischen Sensoren verbreitet, die einfach keinen Sinn mehr machen. Es ist also besser, sich in der Megapixel-Zahl eher zu beschränken und lieber auf eine gute Optik zu achten.
Auch wenn die Sensoren und vor allem ihr Rauschverhalten immer besser werden – wer wirklich Wert auf gute Bildqualität legt und es sich leisten kann, ist mit größeren Sensoren, zum Beispiel „Vollformat“-Sensoren im Kleinbild-Format 24mm x 36mm, am besten bedient. Da sind Megapixelzahlen jenseits der 20 dann auch wirklich ausnutzbar.
#Fotografie
Einer von Vielen
 Sat, 05 Jul 2014 15:42:50 +0200 
Ergänzungen, warum mit zunehmender Pixeldichte unscharfe Bilder entstehen:

1. Beugungsunschärfe (diffraction)
#^http://www.cambridgeincolour.com/tutorials/diffraction-photography.htm

2.Allgemein (weil es so schön dargestellt ist bei cambridgeincolour.com)
#^http://www.cambridgeincolour.com/tutorials/digital-camera-sensor-size.htm