Beiträge: 7.660
Likes gegeben: 3.526
Likes bekommen: 2.531 in 1.180 posts
Themen: 830
Registriert seit: Nov 2009
Hallo,
ich hätte da mal eine Problem.
Mann liest immer bei L-R-G-B Fotos das in den verschiedenen Kanälen soundso lange Belichtet wurde und zählt dann die einzelnen Belichtungszeiten der Kanäle zur Gesamtbelichtungszeit zusammen.
zB. Kanäle getrennt aufgenommen
10x10 Minuten L
10x5 Minuten R, G und B
= 250 Minuten Gesamtbelichtungszeit
zB. Kanäle zusammen aufgenommen
10x10 Minuten RGB
= 100 Minuten Gesamtbelichtungszeit
Meine Frage wäre jetzt "Warum?" die Belichtungszeit wird doch nicht mehr wenn die einzelnen Kanäle getrennt belichtet und am Ende wieder zusammengefügt werden, oder?
Ansonsten müsste man ja auch bei einem Farbfoto (RGB) bei dem die einzelnen Farbkanäle gleichzeitig aufgenommen wurden die Zeiten für jeden Kanal auch addieren, hmm?
Astronomische Grüße
Ulf
Wer die Freiheit einschränkt, um Sicherheit zu gewinnen, wird am Ende beides verlieren!
Benjamin Franklin
Beiträge: 1.555
Likes gegeben: 981
Likes bekommen: 2.301 in 642 posts
Themen: 205
Registriert seit: Feb 2010
Hallo Ulf,
zwei Belange fallen mir dazu ein:
Zum ersten ist es die Nennung des Zeitaufwandes, die der Fotograf für das Ergebnis investiert hat.
Zum Zweiten mache ich es bei LRGB Aufnahmen gerne so, dass alle Kanäle zu einem Gesamtbild addiert werden, dass dann als neues "L-Bild" verwendet wird.
Damit ist dann nicht nur der L-Kanal als Lumminanz wirksam, sondern auch die anderen Kanäle liefern einen Beitrag zur Lumminanz. Da jedes Einzelbild seine eigene "Rauschsignatur" einbringt, ist es wirksam. Dagegen bringt es nichts, die vorhanden Bilder zu multiplizieren um damit sozusagen digital mehr Belichtungszeit einzubringen. Also 3 x 5min belichten lässt sich leider nicht einfach mal vier multiplizieren um auf eine Stunde Belichtung zu kommen.
Bei den RGB Aufnahmen entstehen die Kanäle gleichzeitig und deswegen der obigen Logik folgend bringt das Addieren der Kanäle aus der Bayer Matrik nicht so viel ein, wie Einzelaufnahmen. Bei dem Anteil, der sich farblich in RGB überschneidet, sollte aber ein Gewinn durch mehr Signal nutzbar sein. Das ist eine interessante Frage, zu der mir leider das Wissen fehlt.
Wenn die Bayer Matrix als Fläche verstanden wird, wo eine gewisse Energiemenge an Licht pro Fläche eintrifft, aber durch die Farbempfindlichkeit spektral gesiebt wird und damit Anteile schlicht ungenutzt bleiben, wäre eine Additon der Einzelkanäle falsch.
Besten Gruß
Ralf
Beiträge: 7.660
Likes gegeben: 3.526
Likes bekommen: 2.531 in 1.180 posts
Themen: 830
Registriert seit: Nov 2009
Hallo Ralf,
zum ersten - ja, der Zeitaufwand wird korrekt abgebildet.
Was ich aber meinte ist, wenn ich ein Bild aufnehme und die Kanäle, zB. L,R,G und B getrennt aufnehme sagen wir einmal je 10x10 Minuten also jeden Kanal 100 Minuten spricht man von einer Gesamtbelichtungszeit von 400 Minuten.
Wenn ich jetzt das exakt gleiche Motiv in Farbe 10x10 Minuten belichte spricht man von einer Gesamtbelichtungszeit von 100 Minuten nur weil ich die einzelnen Kanäle gemeinsam zur gleichen zeit aufgenommen habe.
Ist das getrennt aufgenommene Bild besser weil ich die einzelnen Kanäle getrennt besser bearbeiten kann oder bringt jeder Kanal Informationen ins Bild die bei einem Farbbild nicht da sind?
Würde es etwas bringen ein Farbbild zu zerlegen, die einzelnen Kanäle getrennt zu bearbeiten und anschließend wieder zusammenzufügen, die Funktion gibt es in den Bearbeitungsprogrammen?
Astronomische Grüße
Ulf
Wer die Freiheit einschränkt, um Sicherheit zu gewinnen, wird am Ende beides verlieren!
Benjamin Franklin
Beiträge: 1.555
Likes gegeben: 981
Likes bekommen: 2.301 in 642 posts
Themen: 205
Registriert seit: Feb 2010
Hallo Ulf,
betrachte einen 6µm großen Pixel einer Monokamera, welcher die einfliegenden Photonen einfängt um schließlich Elektronen zu erhalten.
Im Vergleich eine Farbkamera mit ebenfalls 6µm großem Pixel, der jedoch diesen Pixel viertelt. So entsteht dann ein 3µm Subpixel, der nur Rot aufnimmt, 2 x 3µm Subpixel die Grün detektieren und wiederum nur ein Subpixel der Blau einfängt.
Jetzt ordnen wir Wellenlängen den Subpixeln zu und tun mal so, als wenn es keine Farbüberlappungen gebe.
Z.B. 400nm bis 500nm Blau, 501nm bis 600nm Grün und 601nm bis 700nm Rot.
Dann bleibt für Rot und Blau jeweils nur 1/4 der lichtaufnehmenden Fläche zur Verfügung.
Der Monosensor mit Blaufilter würde in gleicher Zeit z.B. 40 Photonen einfangen, während die Farbkamera in Blau nur 10 Photonen einfängt!
Die Anzahl der eingefangenen Photonen/Fläche ist bei der Monokamera vereinfacht Faktor 4 besser und ist die Datenbasis zum Bearbeiten.
Demnach bin ich mit etwa 30min ( R,G und B) Belichtungszeit an der Farbkamera etwa so gut im Photonensammeln, wie eine Monokamera mit dreimal jeweils 10min.
Bei Grün hat man eben mehr Fläche und damit mehr Signal bei der OSC, was auch gerne einen Grünstich im Bild produziert.
Die Farbfilter sind exakter in dem Wellenlängenbereich, der den Farben zugeordnet wird. Die Farben sind sozusagen "reiner".
Im Detail ist dann Alles viel komplizierter, aber die Vereinfachung mit der geviertelten Fläche des Pixel der Farbkamera sollte Dir als Denkmodell weiterhelfen.
Besten Gruß
Ralf
Beiträge: 7.660
Likes gegeben: 3.526
Likes bekommen: 2.531 in 1.180 posts
Themen: 830
Registriert seit: Nov 2009
Hallo Ralf,
OK, das hört sich schon mal plausibel an.
Ich müsste also um das gleiche Ergebnis mit einer Farbkamera zu bekommen (grob) 3x länger belichten wie mit einer Mono Kamera und die Mono hat noch den Vorteil das die Farben "reiner" sind.
Astronomische Grüße
Ulf
Wer die Freiheit einschränkt, um Sicherheit zu gewinnen, wird am Ende beides verlieren!
Benjamin Franklin
|