Hallo alle miteinander, da ich mich gefühlt grade totgesucht habe nach der Antwort hier mal die Frage an die Bildverarbeitungsprofis. Und zwar würde ich gerne wissen, wie genau das Binning bei Pixeln funktioniert. Soweit, dass 2x2 Pixel zu einem Superpixel reduziert werden, indem deren Helligkeitsintensitäten gemittelt oder einfach "addiert" werden. Ist es an dieser Stelle egal ob roter, grüner oder blauer Pixel, da lediglich die Farbintensitäten gemittelt werden? Was käme dabei jetzt raus? Ein bunter Pixel? Geht ja irgendwie schlecht oder? Bzw. wie würde ein Rechensystem das speichern? Oder habe ich was falsch verstanden und es werden nur "benachbarte" gleichfarbige Pixel gemittelt? Würde mich freuen, wenn jemand meinen Knoten im Hirn lösen könnte. Beste Grüße, Na icke halt.
Icke_Wa?! schrieb: > Hallo alle miteinander, > > da ich mich gefühlt grade totgesucht habe nach der Antwort hier mal die > Frage an die Bildverarbeitungsprofis. > > Und zwar würde ich gerne wissen, wie genau das Binning bei Pixeln > funktioniert. Hardware- oder Softwarebinning? Sensoren können in der regel so ausgelesen werden, das fürs binning Pixel ausgelassen werden. Ein Blick ins Datenblatt verrät ob es benachtbarte oder nach dem bayer-Filter passende sind. Bei Software-binning musst du dir selbst die Pixel zusammensuchen die do weglassen willst. Jedes zweite Grüne wäre das Einfachste. Das sollte aber nur für Raw-Daten gelten. Die Pixeldate aus dem sensor werden ziemlich früh zu vollen drei Farben ergänzt. Aber dann kann die die Anordnung im Bayer-Filter schnurz sein. http://de.wikipedia.org/wiki/Bayer-Sensor http://de.wikipedia.org/wiki/Demosaicing MfG,
Hi Micki, ausgegangen bin ich auch von einer Bayer-Anordnung der Pixel, ob nun Hardware oder Software dürfte für die Frage doch eigentlich weitesgehend egal sein oder? Soweit ich das Binning verstanden habe, wird da garnichts weggelassen. Verstehe dich daher grade nicht so recht. Ich dachte es wäre sowas: Vorhande Matrix |r g| b g r g b g r g |g b| g r g b g r g r g b g r g b g r g Angenommen die mit |***| eingeklammerten Pixel erfahren jetzt ein Binning, dann werden deren Helligkeitswerte gemittelt und in einen neuen Pixel gesteckt. Nur welche Farbe soll dieser nun haben? Verstehst du meine Frage so besser oder habe ich bis hierher schon was falsch verstanden?
1) man unterscheided in Horizontalen und vertikalen binning: 2) zwei aufeinander folgenden "bayer-zeile sehen so aus: R1 G1 R2 G2 G3 B1 G4 B2 Also pr Zeile nur zwei Grundfarben, und jedes zweite Pixel hat die Grüninfo: Beim binning werden immer nur Pixel gleicher farbe addiert, also R1 und R2, sowie G1 und G2, etc . wir reduzieren also auf die halbe anzahl Spalten: (R1+R2)/2 (G1+G2)/2 (G3+G4)/2 (B1+B2)/2 beim vertikalen binning ebenso, es werden immer nur Pixel gleicher Farbe zusammengefasst. Das "benachtbarte" Pixel, bedeutet hier also nicht "angrenzend" oder gar "berührend". siehe http://www.heise.de/foto/meldung/Neuartiger-CCD-Sensor-von-Fuji-mit-abgewandeltem-Farbfilter-207477.html Beim Demosaicking wird jetzt für jedes Pixel die fehlende Farbinfo mit den benachtbarten Pixel interpoliert. Das "Addieren" der Pixel kann man nun entweder an den digitalisierten werten des sensors durch Addition erledigen. Oder im sensor (vor der Digitalisierung) indem beim Schieben der Ladung die Ladung zweier Pixel in eine zelle geschoben wird und siech so die Ladungen addieren. Nur beim Zusammenfassen der Ladung im sensor erhöht man die framerate des sensors. MfG,
Icke_Wa?! schrieb: > ob nun > Hardware oder Software dürfte für die Frage doch eigentlich weitesgehend > egal sein oder? Der Hardware ist es nicht egal, weil der Sensor das binning können muss. Und auch von der SV-Seite ist es nicht dasselbe,
Micki µ schrieb: > Beim binning werden immer nur Pixel gleicher farbe addiert, also Das war der Satz den ich gebraucht hatte. Vielen Dank für die Erklärung Micki! @ frimark: Das die technische Realisierung des binnings unterschiedlich ist, ist schon klar, aber an und für sich machen beide doch das selbe oder nicht? Ob ich jetzt die Lichtintensität in Hardware oder Software kombiniere ist für das Ergebniss im Idealfall doch unwichtig oder nicht.
Icke_Wa?! schrieb: > Das die technische Realisierung des binnings unterschiedlich ist, ist > schon klar, aber an und für sich machen beide doch das selbe oder nicht? > Ob ich jetzt die Lichtintensität in Hardware oder Software kombiniere > ist für das Ergebniss im Idealfall doch unwichtig oder nicht. In Hardware meint hier durch Ladungsaddition im Potentialtopf. Das klappt nur wenn der Topf nicht überläuft, man muß also für 2x hardwarebinning sicherstellen das maximal die halbe Ladung im Topf ist. Sonst ist das binning eine Addition mit unvermeidlicher Saturation. Man sollte also fürs hardwarebinning die Belichtungszeit halbieren. Das führt nun dazu das die Potentialtöpfe bei wenig beleuchteten Pixeln relativ zu den durch thermisch Rauschen erzeugten Ladungen wenig "Photonisch" erzeugt Ladung erhalten, der Rauschanteil also steigt. Binning im sensor ist also qualitativ schlechter hat aber den Vorteil das die Framerate steigt, was bei binning in Software, also nach der AD-wandlung nicht eintritt. MfG,
Kleiner Tipp: Wenn man für das binning die Belichtung reduzieren muss, dann sollte man das nicht tun. Wenn es aber aus Gründen des timing passiert, dann reicht Faktor 2 wohl nicht so ganz aus :-)
Icke_Wa?! schrieb: > Das die technische Realisierung des binnings unterschiedlich ist, ist > schon klar, aber an und für sich machen beide doch das selbe oder nicht? In Software hat man die Ladungsinformatino mehrfach zum Rechnen parat, in Elektronik nur einmal.
Bitte melde dich an um einen Beitrag zu schreiben. Anmeldung ist kostenlos und dauert nur eine Minute.
Bestehender Account
Schon ein Account bei Google/GoogleMail? Keine Anmeldung erforderlich!
Mit Google-Account einloggen
Mit Google-Account einloggen
Noch kein Account? Hier anmelden.