Ticker

    07 Bildsensor – Fotokurs

    Von

    Bildsensor Kamerasensor DSLR Fotokurs

     

    Der Bildsensor das Herz der Kamera

     

    Der Bildsensor ist das wichtigste Bauteil einer Digitalkamera. Er entscheidet über die technisch mögliche Bildqualität.

    Zum Bildsensor gibt es noch weitere wichtige Lektionen:

    • Sensorgröße (Teil 08)
    • Cropfaktor (Teil 09)

     

    Bildsensoren werden immer besser. Wer heute eine aktuelle Kamera kauft, kann davon ausgehen, dass die Bildqualität des Sensors besser ist als vor drei oder fünf Jahren.

    Die Sensorgröße und der dadurch definierte Cropfaktor, spielt eine wichtige Rolle für die Objektivauswahl und damit auch für die Bildgestaltung.

    Auch das Wissen um die Pixelgröße, welche von den Parametern Pixelanzahl und Sensorabmessungen bestimmt wird, ist wichtig.

     

    Es gibt sehr viel Halbwissen zur Sensorgröße, deswegen versuche ich etwas aufzuklären, denn es hängt zuletzt auch vom Motiv ab, mit welcher Sensorgröße man vorzugsweise arbeiten sollte.

    Dieser Beitrag richtet sich an Einsteiger und ich möchte nicht die hohe Komplexität und alle Unterschiede der Sensortechnik erörtern, sondern „nur“ die notwendigen Grundlagen für ein besseres Verständnis vermitteln.

     

    Kamerasensor

    Der Bildsensor besteht aus vielen lichtempfindlichen Elementen. Diese sind nebeneinander als Reihe angeordnet und es gibt viele Reihen übereinander. Diese Elemente sind entweder für die Farbe Rot, Grün oder Blau lichtempfindlich. Je nach Helligkeit der einzelnen Farbwerte können aus diesen drei Grundfarben alle anderen Farben und Grautöne erfasst werden. Mehrere Elemente werden als kleinste Einheit, dem Pixel (Bildpunkt) zusammengefasst.

    Die Fläche des Sensors und die damit verbundene Auflösung wird durch die Anzahl der Pixel pro Reihe (a) und der Anzahl der Reihen (b) definiert.

     

     

    Megapixel (MP)

    Da es sich um sehr viele Pixel handelt, werden nicht die einzelnen Pixel angegeben, sondern die Megapixelanzahl MP (Million Pixel, Bildpunkte)

    Pixelanzahl = a x b

    Megapixel = Pixelanzahl : 1.000.000

    Ein Bildsensor mit 24 MP besteht z.B. aus 6.000 x 4.000 Pixeln = 24.000.0000 Pixel

     

    Wie bereits erwähnt, besteht ein einzelnes Pixel dabei aus mehreren Bauelementen für die drei Grundfarben: Rot, Grün und Blau. Auch die Anzahl der Pixel ist oftmals nicht genau wie in der Beispielrechnung z.B. 6.000 Pixel sonder es können auch ein paar mehr oder weniger sein.

     

    Pixelgröße

    Die Pixelgröße ist abhängig von der Anzahl der Pixel und der Größe des Sensors. Wir bleiben bei unseren 24 MP und gehen davon aus, dass der Bildsensor eine Größe von 36 mm x 24 mm besitzt. Jetzt wird die Länge durch die Pixelanzahl geteilt.

    Seitenlänge : Pixelanzahl = Pixelgröße

    36 mm : 6.000 = 0,006 mm Pixelgöße
    24 mm : 4.000 = 0,006 mm Pixelgöße

    Die 0,006 mm werden üblicherweise als 6 µm (Mikrometer) angegeben.

    Je größer ein Pixel ist, desto besser ist das Rauschverhalten und ermöglicht höhere ISO Einstellungen. Allerdings gilt diese Regel nur, wenn es sich um dieselbe Sensorgeneration handelt.

    Die Pixelgröße spielt beispielsweise für die Beugungsunschärfe auch eine Rolle.

     

    Sensortypen

    Man unterscheidet unterschiedliche Bauarten von Sensoren, wie z.B. CMOS und CCD-Sensoren, was an dieser Stelle jedoch nicht vertieft werden soll.

    Interessanter sind folgende Unterschiede, wobei wahrscheinlich die Foveon-Bauart in Zukunft dominieren könnte.

     

    Bayer-Matrix-Sensoren

    Bildsensor Bayer-Matrix

    Bei Bayer-Matrix-Sensoren, wird eine schachbrettartige Anordnung von 4 Bauelementen, 1x Rot, 2x Grün und 1x Blau als Gruppe für ein Pixel verwendet. Dies ist die Bauart, die fast ausschließlich genutzt wird.

     

    Foveon-Bildsensoren

    Bildsensor Faveon Layer Ebenen

    Es gibt auch die viel weniger verbreiteten Foveon-Bildsensoren, die in mehreren Schichten (Ebenen) ihre farbempfindlichen Elemente platzieren.

    Wenn man nun von einem klassischen 40 MP Bayer-Matrix-Sensor ausgeht. Diesem drei Ebenen nach Foveon-Bauart spendiert. Dann kann man sich vorstellen, warum die Gerüchte über den zukünftigen 120 MP Sensor von Canon auf diese Bauart hindeuten.

     

    Filter vor dem Sensor

    Vor dem Sensor befindet sich normalerweise ein Filter, der ultraviolettes- (UV) und Infrarotlicht (IR) absorbiert.

    Darüber hinaus war es bis vor Kurzem üblich einen Tiefpass-Filter vor dem Sensor zu nutzen, der Moiré-Effekte minimiert hat, dafür aber etwas an Auflösung und damit Detailschärfe gekostet hat. Bei neuen Kameras, mit extrem vielen Megapixeln, wird auf diesen Tiefpassfilter heutzutage meistens verzichtet.

     

    Merkmale von Bildsensoren

    Bildrauschen und ISO

    Ein Kamerasensor besitzt eine Nennempfindlichkeit, dies ist die ISO-Stufe, in der die besten Bildergebnisse erzeugt werden. Bei klassischem Filmmaterial stieg die Filmkorngröße mit zunehmender Empfindlichkeit an. Feinste Details sind mit einem niedrigen ISO-Wert möglich.

    Bei digitalen Sensoren ist dies ähnlich, wobei es kein Filmkorn gibt, sondern das Bildrauschen je nach ISO-Wert unterschiedlich stark ausgeprägt ist. Mit zunehmendem Bildrauschen gehen auch Bilddetails verloren.

    Bildsensor Bildrauschen Rauschen

    Dieser Vergleich ist unter optimalen Lichtbedingungen im Studio entstanden.

    Um so moderner der Sensor ist, desto besser ist in der Regel sein Rauschverhalten, auch bei höheren ISO-Werten. Die Herstellerangaben, was ein Sensor kann und bis zu welchem Wert man wirklich damit fotografieren wird, ist ähnlich wie die Geschichten vom Baron Münchhausen.

     

     

    Dynamikumfang

    Der Dynamkiumfang beschreibt, wie groß der Unterschied zwischen den hellsten Bildpartien (Lichtern) und dunkelsten (Schatten) Bildpartien ist, in denen noch Zeichnung (Strukturen) wahrnehmbar sind. Der Dynamikumfang wird in Blendenstufen oder als Lichtwertstufen (LW) engl. Exposure Value (EV) angegeben. Die besten aktuellen Sensoren in DSLR-Kameras besitzen zurzeit (Dez .2015) ca. 14 Blendenstufen Dynamikumfang.

     

    Farbtiefe

    Die Farbtiefe (engl. Color Depth) beschreibt die möglichen Farbabstufungen, die der Sensor unterscheiden kann, auch hier gilt je mehr desto besser. DXOmark (Werbung) hat als Höchstwert 26 Bit gemessen.

     

    Das Speichern der Bilddaten

    Die erfassten Bildinformationen müssen jetzt noch vollständig abgespeichert werden, damit sich der ganze Aufwand auch gelohnt hat. Dies funktioniert nur in einem RAW-Format, das alle Bildinformationen unverändert speichert.

    Wenn man sich für das stark komprimierende Bildformat JPG (JPEG) entscheidet, werden die Informationen auf 256 Abstufungen (8 Bit) pro Farbkanal reduziert und die restlichen Bildinformationen gehen verloren.

    Je nach Einstellung werden die Bilder auch automatisch im Kamerabildprozessor stark verändert:

    • Bildschärfung
    • Belichtungskorrektur
    • Kontrast- und Gradationsänderungen
    • Farbkorrekturen
    • Rauschreduzierung
    • Effekte
    • etc.

    Diese Bearbeitungsschritte verändern das ursprüngliche Bild und können nicht rückgängig gemacht werden. Nachträgliche Bildkorrekturen reduzieren die 8 Bit Bildinformationen.

    Hinzu kommen noch Artefakte (Bildfehler). Diese werden extremer und sichtbarer, je stärker das JPG komprimiert wird.

     

    weiter mit Teil 08 Sensorgrößen


    zurück zu Teil 06 Brennweite und Bildwinkel

    Zur Kategorie Fotokurs

     

     

    [BannerVideo2Brain]

    You must be logged in to post a comment Login