Wenn wir den Sensor als das Herzstück unserer
DSLR sehen, machen wir nichts falsch.
Er ist für die Umwandlung des Lichts in elektrische Signale verantwortlich. Und ohne
elektrische Signale erhalten wir kein Bild.
Viele, ja Millionen von Fotozellen, die später zu Pixeln werden wollen, erledigen
diesen Job. Stellen Sie sich ein kleines Plättchen (i.w.S. eine Leiterplatte) vor,
auf dem waagerecht wie senkrecht lichtempfindliche Zellen aufgebracht sind. Diese Anordnung, waagerecht
und senkrecht, ergibt später die Anordnung der Pixel in unserem Bild als Breite und Höhe.
Die zur Verfügung stehende Fläche variiert dabei durch unterschiedliche
Sensorgrößen.
Zunächst kann der Sensor selbst "nur" Licht oder kein Licht (1 oder 0) unterscheiden. "Schlimmsten
Falles" würde quasi ein Schwarz-Weiß-Bild entstehen. Damit das nicht passiert, haben die Hersteller
vor dem Sensor einen Farbfilter (Bayer-Filter), durch den das Licht durch muß, montiert. Dieser Filter ist
nach dem sogenannten Bayer-Muster als
RGB-Matrix (Rot-Grün-Blau) aufgebaut. Dieses Muster ist den Zapfen auf
der Netzhaut (siehe menschliches Auge) nachempfunden. Da die Anzahl der für die Farben verantwortlichen Zapfen bei
jedem Menschen unterschiedlich ist, hat man nach einem internationalen Standard die Verteilung auf 25% Rot, 50% Grün
und 25% Blau festgelegt. Jeder zweite Farbfilter ist also "Grün".
Nachdem das Licht den Filter passiert hat und von den Fotozellen umgewandelt wurde, werden die elektrischen Signale in
einer Art Rechenzentrum bearbeitet. Hier findet die Konvertierung in ein Bildformat, meist
jpg, und die sofortige
automatische Bildbearbeitung statt. Unser Bild wird also schon in der Kamera bearbeitet, gefiltert, korrigiert,...
Wer diesen Prozeß nicht der Kameraautomatik (i.d.F. der Sensorsoftware) überlassen möchte, kann sich von der Kamera das
sogenannte
RAW-Format ausgeben lassen. Es stellt heute das Digitale Negativ dar und enthält fast reine Sensordaten.
zurück zu den anderen Tutorials