Eine dumme Frage zum Verhältnis des Helligkeitsabfalls in der Realität und der EBV 157

14.11.2011
Original von Dr.P.
... weil es mich auch interessiert; dabei kam folgendes heraus ...


Da waren wir wohl parallel dran:))
14.11.2011
@Peter Herhold:

ich habe geschrieben:

"Wenn deine Kamera zwei Blenden Dynamik-Umfang hätte, käme das "mittlere" Grau raus. Wenn sie nur eine Blende hätte, wäre schwarz das Ergebnis.
Die Frage ist also nur zu beantworten, wenn Du den Dynamik-Umfang deiner Kamera kennst."

Und was bitte ist da falsch bzw. Unsinn? Das wüßte ich jetzt gerne. Und bitte mit Blenden und nicht mit Lichtwerten :-)

LG Rüdiger
14.11.2011
Original von Peter Herhold
Ganz exakt läßt sich das nicht ausrechnen, da die Kameramodelle und die
weitere Bildverarbeitung je nach dem Ausgabemedium im Konrastumfang
voneinander abweichen.


Du denkst zu kompliziert
Es interessiert nicht, wie sich Kamera A zu Kamera B verhält.....sondern nur, wie sich Blende X auf Kamera A zu Blende Y auf Kamera A verhält

@Pixelbox & Dr.P
danke für die ausführliche Analyse. Da muß ich später mal in aller Ruhe drüber schauen... :)
15.11.2011
@Pixelbox: schöne Versuchsreihe, deren Ergebnisse ja auch gut zu meinen Ausführungen passen. Dazu zwei Fragen:
1. Wie hast du die RAW-Daten in Excel reingekriegt? (ich kenne kein Tool, das das kann; müsste man wohl selbst schreiben...)
2. Es werden ja bei deinem Aufbau nicht zufällig völlig farbneutrale Verhältnisse geherrscht haben in dem Sinn, dass die Histogramme von R,G und B halbwegs deckungsgleich (also mit gleicher Maximumslage) sind. Wie bist du damit umgegangen?
Hast du einfach alle Daten, unabhängig ob R,G oder B ins Histogramm eingelesen? (müsste eigentlch funktionieren)

Anmerkung: Bei der Konversion in 8 Bit wird wie beschrieben typischerweise u.a. die Gamma-Korrektur durchgeführt, daher dann die Nicht-Linearität.
Das ebenfalls nicht-lineare Verhalten bei den hohen Intensitäten müsste man auch noch mal näher untersuchen; bei 3439 ist man ja schließlich noch weit von 2^14=16384 entfernt, d.h ein Clipping der Werte durch "Überbelichten" kann eigentlich noch nicht sein, komisch...
15.11.2011
VigarLunaris, vielen Dank für Deine erneut so ausführliche Antwort. Ehrlich gesagt liest es sich für mich aber eher wie der Versuch mit einem Rundumschlag an Fachwissen zu imponieren als dem ernsthaften Versuch zu der Themaik etwas beizutragen.
Aber ok, dann mache ich mir auch mal die Mühe zu einer ausfürhlichen Antwort.


Es gibt keinen Pixel mit 200,200,200 RGB.

Da es 200,200,200 NUR und außnahmslos in der Darstellung deines Rechners gibt.

Niemand hat etwas anderes behauptet. Genau um die Darstellung am Rechner geht es ja in diesem Thread.


Wir bewegen uns nun durch Jahrzehnte der Grafikdatei / Konvertierung und Darstellungslogik. Das ist wirklich ein komplexes Thema, was eigentlich für eine Forendiskussion bei weitem den Rahmen sprengt.

Schön und wir werden gleich sehen wie weit uns das bringt ;-)


Blende beeinflusst nun einmal mehr als "nur" Licht. Es ist eben auch eine Focusierung.

Auch wenn der Punkt "unscharf" ist - kann er dennoch 200 Entsprechen also C:25%Y:17%:M:17%:K:1 oder eben H:0 S:0 B:78% oder eben L:81 a:0 b:0

Alle oben genannten Zahlen stellen 200,200,200 dar. Du kannst auch das Websystem nehmen und c8c8c8 dazu sagen. Du erhältst also einen Grauton. Das ist eben das was Rüdiger bennant hat also "Dynamik-Umfang"

Allerdings ist der Begriff Blende dort wieder zu einfach und vereinfacht angewendet worden.

Du blähst die Thematik unnötig auf. Ich kann keinen Vorteil erkennen, hier weitere Farbmodelle zur Rate zu ziehen. Aber schön dass Du so viele kennst ;-)
Hier geht es um den Einfluss der Blende auf die Lichtmenge. Ich sehe hier keinen Vorteil, weitere Eigenschaften einer Blende hinzuzuziehen. Rüdiger sicher auch nicht. ;-)


Ich sagte ja schon vorher das wir uns nun Formel um Formel an den Kopf werfen könnten. Bei Blende werden wir dann irgendwann auf Besselfunktion stossen. Dabei findet man gerade bei Wikipedia eine wunderschöne und Belichtungsreihe.

Nur zu. Hab mich ein ganzes Studium mit schlimmerem gequält *g*. Aber Deine Formeln sollten zum Thema passen. Kein Grund mir alle Formeln aufzuzählen, die Du kennst ;-)
Besselfunktion... ui ;-) Die mag zur Berechnung von Beugungseffekten recht nützlich sein. Hier geht es aber nicht um Beugung.


http://de.wikipedia.org/wiki/Optimale_Blende

Ja... Beugung gibt es. Förderliche und kritische Blende auch. Hier können wir sie getrost vernachlässigen. Mir persönlich würde zumindest eine näherungsweise Berechnung unter Annahme eines idealen linearen Systems reichen. Wenn wir das haben, können wirs ja verfeinern ;-)


Neben der Schärfe fällt vorallem eines auf : Die Farben bleiben FAST! gleich. Fast deshalb weil durch das mehr an Licht, bei geöffneter Blende, einfach der Wert vom Licht zunimmt der auf den Chip fällt und somit in Helligkeit umgesetzt werden kann.

Keine Ahnung was Du hier sagen willst und was es mit dem Thema zu tun hat. Dass durch Beugung Farbverschiebungen auftreten können, ist keine Sensation hat aber wieder nichts mit dem Thema zu tun.


Frecherweise habe ich daher einmal eines der Bilder von Wiki genommen um daran Blende 8 und Blende 11 zu simulieren.

Das erste Bild zeigt dir Blende 11 und somit das was der "Chip" wahrnehmen würde um seinen Abstand zum Objekt / Focus und Licht zu bestimmen :

[img=http://img120.imagevenue.com/loc371/th_302022930_Untitled_3_122_371lo.jpg]


Der nächste nun eine Blende 8:

[img=http://img256.imagevenue.com/loc34/th_302219362_Untitled_4_122_34lo.jpg]


Dir wird auffallen das im Bild 2 mit Blende 11 GERINGSTFÜGIG mehr Anteile an hellen Stellen zu sehen sind. Ein Resultat davon das nun mehr Licht auf das Objekt übertragen wird und das Bild dadruc Heller werden würde.

Japp, fällt auf. Nur kann ich wieder keinen Zusammenhang mit der Fragestellung erkennen.


Das liegt bei diesem Beispiel im übrigen darin begründet das dies ein rein Formelbasierendes Konstrukt ist. Also mit einem 100% Sensor mit einer 100% neutralen Beleuchtung mit 100% gleichen Vorraussetzungen. Ein Zustand der in der Realität kaum zu erreichen ist.

100% Sensor? Naja egal. Also Du willst sagen, konstante Bedingungen und die Blende einfach um einen Wert verstellt?


Die reine fotografische Theorie wird halt hier betrachtet : http://www.fotolehrgang.de/3_4.htm

Ja... dort und anderswo auch.


Auffallen wird immer wieder dass, egal welche Erklärungen man so durchschaut, der Begriff FARBE nicht auftauchen wird. Aber immer Begrifflichkeiten wie Schärfe und Lichtmenge/Stärke.

Du mit Deiner Farbe ;-) Farbe und Schärfe können wir m.E. hier gern außen vor lassen.


Daher spielen ja in der digitalen Fotografie dann wiederum Begriffe wie Zonenmessung / Focusfeld usw. eine wichtige Rolle, damit später wiederrum Formeln ihre Arbeit am Bild verrichten können.

Formeln verrichten Arbeit an Bildern? Nun ja.
Belichtungsmessung ist aus, Verschlusszeit konstant, Focus egal. So hab ich den Aufbau vom TO verstanden.


Kurz gesagt ist Camera vernüftig und Objektiv ebenso, spielt Blend 8 / 11 nur dann eine Rolle bei "Grau" wenn der Fotograf die Kamera nicht richtig eingestellt hat. Sollte er es getan haben, bleibt 200,200,200 = 200,200,200 egal bei welcher Blende.

Auch die Güte vom Kamera und Objektiv können wir hier m.E. außen vor lassen.


Der mystifizismus der um den Begriff Blende gemacht wird ist leider immer fehl am Platze.

Hab die Blende noch nirgends so mystifiziert erlebt wie bei Dir ;-)


Eine einfach Erklärung findet sich dann hier : http://kunst.gymszbad.de/fotografie/technik/blende/blende.htm das erklärt es wunderbar.

Ja wunderbar. Nochmals: die Frage hier ist aber nicht WAS eine Blende ist sondern WIE die Änderung eines Blendenwertes sich dann letztendlich "digital betrachtet" in RGB auswirkt.


Und so kann man es auch als einfacher Mensch nachvollziehen. Denn kommst du aus einem vollkommen dunklen Raum in helles Licht - nimmst du erstmal keine Farben mehr wahr, bis das Auge die Lichtstärke soweit reduziert hat, das deine Sehrnerven wieder Hell, Dunkel und Farbe auseinander halten können. Nicht anders geht es einer Kamera.

Lassen wir meine Nerven mal aus dem Spiel *g*. Auch bei diesem Absatz kann ich keinen Zusammenhang zum Thema erkennen.


Um nun zu deinem Beispiel von RGB 200 zu kommen :

Danke ;-)


Blende 8 = 200 Lichtmenge Effektiv am wirken : 64%
Blende 11 = 64 Lichtmenge Effektiv am wirken : 32%

Ok, das ist nun möglicherweise die Antwort auf meine Frage. Aber leider ohne Rechenweg. Vielleicht kannst Du das (und BITTE nur das:) näher erläutern?
Wieso entspricht ein RGB Wert von 200 64%. Ich hätte 78% vermutet.
64 ist etwa 1/3 von 200. Woher dieser Zusammenhang?


Daher Blende 8 = dargestelltes Grau / Blende 11 = dargestelltes Schwarz. Das passiert dann aber, wie schon vorher gesagt, nur dann wenn der Fotograf das nicht versteht ODER die Kamera eben nur eine Blende hat.


Diesen Effekt korrigieren die Kameras dann durch die ZEIT ... indem sie einfach "länger" Licht auf den Chip fallen lassen um am Ende 100% Lichtausbeute zu erreichen oder Objektvibauer indem Sie das Objektiv im Durchmesser und somit in der Lichtmenge vergrössern.

Ich glaube hier missverstehen wir uns. Zumindest ich verstehe den TO so, das er die Belichtungszeit konstant lässt. Wir wollen ja die Lichtmenge ändern um zu sehen wie sich das in RGB auswirkt.


Ich sagte ja schon in der Einleitung das Thema ist eigentlich viel zu viel für ein Forum, da es masse an Theorie vorraussetzt und ein wenig Mathe dazugehört. Ergo kann nur deine Kamera den echt "Aufnahmezeitpunkt" dokumentieren. Ein grund warum ich mir so gerne PNG Dateien zusenden lasse.Weil dies ein guter Mittelschritt zwischen Tiff und RAW darstellt und bei der Speicherung ( vorzugweise direkt aus der Cam ) eine Menge Arbeit bei Farbechtheit und Belichtung abnimmt.

Finde ich nicht. Es gibt einige sehr gute Beiträge in diesem Thread. Deine theoretischen und mathematischen Ausschweifungen gehen m.E. weitgehend an der Fragestellung vorbei. Da kann das Forum nichts dafür.


Womit wir dann wieder beim Anfang wären : Im Prinzip ist es völlig egal was deine Camera aufnimmt - solange es so brauchbar ist das man alle Kontraste und Bildinformationen inkl. der Farben wiederherstellen kann. Denn bei der letzendlichen "Entwicklung" im Raw import begehen die meisten den Fehler das Sie direkt im importer eine Korrektur versuchen und das schlägt fast immer fehl ;)

Auch in Deinem Schlusswort kann ich keinen Zusammenhang zum Thema finden.

Uff, das war lang ;-)
15.11.2011
Original von Pixelspalter
Gott oh Gott wird das allmählich kompliziert hier

Ich glaube ja die wirkliche Lösung ist deutlich einfacher ;)

Vor allem ist es reine simple Mathematik wie aus einer elektrischen Information auf dem Chip irgendein RGB Wert wird. Und es ist auch bestimmt genau so einfach berechenbar welcher RGB Wert aus einem Sensorpixel wird, welcher nur halb so viel Licht abbekommen hat....


Ja ist es. Die Fotodioden arbeiten in dem Bereich mit guter Näherung linear. D.h. die Spannungswerte verhalten sich zum Lichtwert auch linear und damit auch die Zahlenwerte (im RAW) nach der A/D-Wandulung. Aber: mit nur einer Belichtung kennst du den Startwert nicht (Bias). Du kannst aber per Blende/Zeit-Kombination die Lichtwerte abstufen und damit weitere Punkte auf der Geraden ermitteln. Daraus kannst du dann für die konkrete Aufnahme/Kamera die Grenzwerte berechnen. Daraus lassen wsich dann auch Vorraussagen ableiten über die zu erwartenden Zahlenwerte pro Lichtwert.

Im Prinzip wäre eine Kamera denkbar, die Gamma per Verstärkerschaltung (nichtlinear) vor dem A/D-Wander macht. Ich kenne aber keine real existierende, die sowas anbietet. Daher kann man beim RAW von einem linearen Verlauf ausgehen. Was bei der Konvertierung vom RAW passiert ist natürlich nochmal eine andere Sache und hängt von den Einstellungen des Konverters ab.

Reale Aufnahmen, die nicht eine gleichfarbige Fläche abbilden, verhalten sich aber auch nochmal ein bischen anders, wie weiter oben schon in Hinblick auf Abbildungsverhalten geschildert wurde. Da ergibt es schon einen Unterschied, ob der Lichtwert durch Verstellen von Blende oder der Belichtungszeit erhalten wird.

LG
k|d
15.11.2011
Ich habe nicht alle Antworten gelesen. Sorry,für eventuelles Doppelposting. Ich versuch's nochmal ganz einfach:
- Die Photodiode des Sensors kann eine bestimmte Menge Photonen aufnehmen, bevor sie überläuft. Sagen wir mal 250.000 Photonen.
- Wird nun die Beleuchtung halbiert (egal ob Blende oder Belichtungszeit) haben wir nur noch 125.000 Photonen. Nochmal halbiert 77.500 Photonen usw.
- Diese Photonen werden natürlich nicht gezählt, sondern ergeben einen analogen Ladungswert. Dieser wird ausgelesen und unter Abzug eines Sockels (in dem der Hauptteil des Rauschens steckt) digitalisiert.
- Nehmen wir eine 12bit-Digitalisierung an, dann haben wir 4096 unterschiedliche Werte, die dieser Pegel annehmen kann. Für die oberste Hälfte sind 2048 Werte zuständig - dies ist der hellste Lichtwert. Für das dann folgende Viertel sind weitere 1024 Werte zuständig. Das ist dann ein Lichtwert drunter.... usw. Der 12. Lichtwert hat dann noch 2 Werte.
- Das so entstandene Bild liefert aber keinen natürliichen Bildeindruck, da es scheinbar nur aus den oberen drei Lichtwerten besteht und alles drunter schwarz erscheint. Wenn man sich ein Photomatix-HDR vor dem Mapping ansieht, hat man einen groben Eindruck, wie sowas auskuckt.
- Aus diesem Grund liefern alle RAW-Konverter ein korrigiertes Bild ab - egal ob 16- oder 8bit. Und dabei werden natürlich die RGB-Werte, die ja auch noch 8bit sind (und nicht mehr 12 oder 14bit wie ursprünglich) entsprechend verschoben.
- Fazit: der RGB-Wert, den man aus einem JPG holt, hat mit dem, was ursprünglich am Sensor anliegt, nur noch sehr entfernt was zu tun, vorallem, weil ja der Sensor überhaupt keine Farbinformation kennt - sondern ausschließlich einen Graustufenwert. Die RGB-Farbinformationen entstehen ja erst durch das Demosaicing des Bayer-Algorithmus.

Hope that helps....

Grüße
Reinhard Wagner
15.11.2011
Original von Reinhard Wagner
- Fazit: der RGB-Wert, den man aus einem JPG holt, hat mit dem, was ursprünglich am Sensor anliegt, nur noch sehr entfernt was zu tun, vorallem, weil ja der Sensor überhaupt keine Farbinformation kennt - sondern ausschließlich einen Graustufenwert. Die RGB-Farbinformationen entstehen ja erst durch das Demosaicing des Bayer-Algorithmus.


Bis zu dem Punkt sind wir schon gekommen....es ging dann nur noch um die mathematische Umrechnung des Raw-Wertes zu einem RGB Wert.....sprich die Gammakorrektur

@Dr.P
Also sehe ich das richtig, daß sich die halbierung der Lichtmenge auf dem Sensor mit ungefähr dem Verlust von 27% Helligkeit bei einem RGB Pixel auswirkt? (bei einem Gamma von 2.2 gerechnet)
15.11.2011
Original von Pixelspalter
...
@Dr.P
Also sehe ich das richtig, daß sich die halbierung der Lichtmenge auf dem Sensor mit ungefähr dem Verlust von 27% Helligkeit bei einem RGB Pixel auswirkt? (bei einem Gamma von 2.2 gerechnet)


Nee, das kommt beim Gamma drauf an, an welcher Stelle der Kurve du dich befindest. Zur Not mal auf Milimeterpapier aufzeichnen :-)
15.11.2011
Ich dachte mir auch gerade, daß das ja dann wieder linear wäre.....dann stimmt an dieser Formel wohl doch was noch nicht

Original von Dr.P.
D.h. nach etwas Rechnerei, dass nach Reduzierung um eine Blendenstufe (=halbe Lichtmenge), der Wert im A/D-Wandler und damit im RAW ebenfalls halb so groß ist und der entsprechende RGB-Wert im JPEG um 0,5^(1/2,2)=~0,73 kleiner ist.
15.11.2011
Original von Pixelspalter
[quote]Original von Dr.P.
D.h. nach etwas Rechnerei, dass nach Reduzierung um eine Blendenstufe (=halbe Lichtmenge), der Wert im A/D-Wandler und damit im RAW ebenfalls halb so groß ist und der entsprechende RGB-Wert im JPEG um 0,5^(1/2,2)=~0,73 kleiner ist.

Ich dachte mir auch gerade, daß das ja dann wieder linear wäre.....dann stimmt an dieser Formel wohl doch was noch nicht
[/quote]

Um die Transformation korrekt auszuführen, musst du die Gammakurve einmal invers anwenden, dann deine Teilung machen und danach wieder die Gammakurve normal anwenden.

(Das kannst du natürlich zu einer Formel zusammenfassen, das überlasse ich dem geneigten Leser ;-)
15.11.2011
Mein Mathematik-Unterricht ist einfach schon zu lange her ;)
Ich glaube mein Denkfehler war, daß sich die obige Formel auf Werte zwischen 0 und 1 bezieht. Sprich die halbierung der Lichtmenge führt zu den Werten: 0.5, 0.25, 0.125 usw

Aber hier mal die Kurve,wie sie aussehen müsste
http://www.wolframalpha.com/input/?i=x+pow+%281%2F2.2%29%2C+x+from+0+to+1

Wenn ich das richtig rauslese ist bei der ersten Halbierung das Ergebnis 0.72, dann 0.53, 0.38, 0.28 usw
Hier mal ein Rechenbeispiel:
http://www.wolframalpha.com/input/?i=x+pow+%281%2F2.2%29%2C+x+%3D+1%2F16

Auf RGB Werte gerechnet wären wir dann bei
255,255,255
184,184,184
135,135,135
96,96,96
71,71,71

Ich hoffe das stimmt jetzt endlich mal ^^
15.11.2011
Da hast du natürlich recht, man sollte nicht so spät noch rumrechnen ;-)
15.11.2011
Original von Dr.P.

1. Wie hast du die RAW-Daten in Excel reingekriegt?

Das Tool stammt noch aus meiner Zeit vor der MK. Es ist frei erhältich und Du lernst damit die 'unendlichen' Weiten Deiner Kamera kennen. :))
Link zum Tool

2. Es werden ja bei deinem Aufbau nicht zufällig völlig farbneutrale Verhältnisse geherrscht haben in dem Sinn, dass die Histogramme von R,G und B halbwegs deckungsgleich (also mit gleicher Maximumslage) sind. Wie bist du damit umgegangen?

Zum Weißabgleich die Farbtemperatur des Blitzes in der Kamera voreingestellt.
Hast du einfach alle Daten, unabhängig ob R,G oder B ins Histogramm eingelesen? (müsste eigentlch funktionieren)

Ja, bin mir nicht hundertprozentig sicher ob das wirklich der korrekte Weg ist, hab's aber trotzdem so gemacht.
... Das ebenfalls nicht-lineare Verhalten bei den hohen Intensitäten müsste man auch noch mal näher untersuchen; bei 3439 ist man ja schließlich noch weit von 2^14=16384 entfernt, d.h ein Clipping der Werte durch "Überbelichten" kann eigentlich noch nicht sein, komisch...

In der Tat wird da noch nichts abgeschnitten, aber die Helligkeit ist normalverteilt und bei einem Durchschnitt von 3439 hatte ich den höchsten Wert bei 5122 -was immer noch reichlich von 14-Bit entfernt ist.

----------

Original von Pixelspalter
Mein Mathematik-Unterricht ist einfach schon zu lange her ;)

Dann wirst Du Dich über diesen Link besonders freuen *lol*

Understanding What is stored in a Canon RAW .CR2 file, How and Why *klick mich*
[gone] User_6449
15.11.2011
Original von Pixelspalter
[quote]Original von Peter Herhold
Ganz exakt läßt sich das nicht ausrechnen, da die Kameramodelle und die
weitere Bildverarbeitung je nach dem Ausgabemedium im Konrastumfang
voneinander abweichen.


Du denkst zu kompliziert
Es interessiert nicht, wie sich Kamera A zu Kamera B verhält.....sondern nur, wie sich Blende X auf Kamera A zu Blende Y auf Kamera A verhält[/quote]
Die Schwierigkeit für eine Umrechnung auf RGB Werte besteht darin,
daß nicht jeder Sensor oder Film genau den selben Kontrastumfang
darstellen kann.

Es gibt nur drei Referenzwerte, unter denen man dann den gesamten
Kontrastumfang aufteilen muß:

RGB 000 = Maximalschwarz
RGB 127 = 18% Grau
RGB 255 = Papierweiß

Im Idealfall geht man von 11 Lichtwerten zwischen Maximalschwarz
und Papierweiß aus und verteilt diese zwischen RGB 000 und 255 mit
RGB 127 als Mittelwert. Entsprechend dem Zonensystem mit Zone 0
(Maximalschwarz) über Zone V (18% Grau) bis Zone X (Papierweiß).

Wenn der Sensor oder der Film jedoch nicht 11 Lichtwerte schafft
sondern vielleicht nur 10, verschieben sich auch die Zwischenwerte
etwas und nur die drei Referenzwerte (RGB 000, RGB 127 und RGB
255) bleiben immer gleich.


Viele Grüße
Peter
[gone] VigarLunaris
15.11.2011

Um nun zu deinem Beispiel von RGB 200 zu kommen :

Danke ;-)


Blende 8 = 200 Lichtmenge Effektiv am wirken : 64%
Blende 11 = 64 Lichtmenge Effektiv am wirken : 32%

Ok, das ist nun möglicherweise die Antwort auf meine Frage. Aber leider ohne Rechenweg. Vielleicht kannst Du das (und BITTE nur das:) näher erläutern?
Wieso entspricht ein RGB Wert von 200 64%. Ich hätte 78% vermutet.
64 ist etwa 1/3 von 200. Woher dieser Zusammenhang?


Daher Blende 8 = dargestelltes Grau / Blende 11 = dargestelltes Schwarz. Das passiert dann aber, wie schon vorher gesagt, nur dann wenn der Fotograf das nicht versteht ODER die Kamera eben nur eine Blende hat.


Diesen Effekt korrigieren die Kameras dann durch die ZEIT ... indem sie einfach "länger" Licht auf den Chip fallen lassen um am Ende 100% Lichtausbeute zu erreichen oder Objektvibauer indem Sie das Objektiv im Durchmesser und somit in der Lichtmenge vergrössern.

Ich glaube hier missverstehen wir uns. Zumindest ich verstehe den TO so, das er die Belichtungszeit konstant lässt. Wir wollen ja die Lichtmenge ändern um zu sehen wie sich das in RGB auswirkt.



Uff, das war lang ;-)


Japps das ist immer lang : Rechenweg deshalb nicht weil ich damit die Beitragsgrenze sprenge.

Der "Grundgedanke" mit 78% stimmt - im Fotoapparat oder besser gesagt auf dem Chip. Es ist alles zum Thema auch wenn es evtl. nicht so wirken mag.

Das primäre Problem ist : Das hier Fotografen mit Fotografendenke und Bildbearbeiter mit XYZ Software gedanke rangehen.

Alle reden vom gleichen und dennoch ist es halt vollkommen unterschiedlich.

Dein Chip nimmt 78% auf.

Der Rechner macht daraus (in der Cam) 64%
Die Software erkennt 64% und errechnet wieder 78%

Der schon genannte Link von Dr.P zeigt schon warum das so ist :
Link von Dr.P

Das Rechnen übernimmt Pixelspalter nun schon und wird am Ende zum lustigen Thema Kalibration des Monitors und des Ausgabemediums kommen :)
15.11.2011
Original von VigarLunaris
Das Rechnen übernimmt Pixelspalter nun schon und wird am Ende zum lustigen Thema Kalibration des Monitors und des Ausgabemediums kommen :)


Das glaube ich nicht, weil vom Ausgabemedium nie die Rede war. Mich interessiert nicht, wie das Grau auf dem Monitor aussieht. Sondern nur sein RGB-Wert :)
[gone] VigarLunaris
15.11.2011
Dann ist Grau = 200,200,200 wenn DU es so haben willst :)

Ausser natürlich du machst ein Grau mit 196,200,196. Das ist eben das Problem mit der Darstellung, denn auch der RGB ist erstmal nur eine Darstellung.
15.11.2011
Original von Don Photo
Angenommen der Dynamikumfang der Kamera im RAW-Modus ist 9 Blenden bei neutralem Gamma. Wäre Neutralgrau dann nicht bei 4x Abblenden erreicht?


Mittlerweile hab ich glaub ich auch den Denkfehler daran heraus, obwohl es mir am Anfang auch logisch vorkam.

Es stimmt, daß eine Kamera einen gewissen Dynamikumfang hat. Aber das darf man nicht gleichsetzen mit dem Abblenden des Objektives.

Nehmen wir an, eine Kamera könnte wirklich nur 2 EV Dynamikumfang darstellen. Dann heißt das nicht, daß ich nur zweimal abblenden dürfte. Es heißt eher daß über den ganzen Blendenbereich den das Objektiv unterstützt nur drei Kontraststufen darstellen werde. Das heißt am Anfang bleibt alles weiß, auch wenn ich abblende. Dann wirds für eine Zeit Grau und anschließend Schwarz. Aber es kann durchaus sein, daß ich mit dem Objektiv 20x abgeblendet habe.
[gone] User_6449
15.11.2011
Original von Images at Twilight | neue Aufnahmebetreiche
@Peter Herhold:

ich habe geschrieben:

"Wenn deine Kamera zwei Blenden Dynamik-Umfang hätte, käme das "mittlere" Grau raus. Wenn sie nur eine Blende hätte, wäre schwarz das Ergebnis.
Die Frage ist also nur zu beantworten, wenn Du den Dynamik-Umfang deiner Kamera kennst."

Und was bitte ist da falsch bzw. Unsinn? Das wüßte ich jetzt gerne. Und bitte mit Blenden und nicht mit Lichtwerten :-)

LG Rüdiger

Anhand der Blende läßt sich das nicht erklären, da für eine genaue Definition immer
Blende, Belichtungszeit und ISO Wert im Zusammenhang stehen.

Die Blende ist nur ein einzelner Wert in einer Rechnung mit zwei Variablen (Blende
und Zeit) um zusammen mit dem ISO-Wert einen festen Belichtungswert für den
Sensor oder Film zu ergeben.

Anders formuliert:

Eine Blende kann man definitiv nicht in einen RGB Wert umwandeln. Aber mit einem
Lichtwert aus Blende und Zeit kann man es zumindest ansatzweise versuchen, wenn
der ISO Wert dazu bekannt ist.

Klingt erstmal kompliziert, ist es aber nicht ... ;-)


Viele Grüße
Peter

Topic has been closed