Scharfstellen bald unnötig? 180

[gone] falschbelichtung ( o.O )
22.06.2011
Original von cash - just ask for... Bald in Freiburg!
Die Frage nach ein Fake drängt sich auf.

Nein, das nicht.

Aber halt (noch nicht) allzu "konsumentenfreundlich" (im Punkt finanzieller Natur) realsierbar Wiki sagt das hier dazu
[gone] Howein
22.06.2011
Faszinierend sind technische Neuerungen aller Art allemal ...

Aber für mich Als HobbyFOTOGRAF ist der Anreiz und Spaß ander Sache eigentlich der, dass ich VOR dem Auslösen des Kameraverschlusses eine Bildidee habe, eine Vorstellung wie mein Bild aussehen soll, Schärfe und Schärfeverlauf bestimme, und das dann mit der Kamera umsetze. Was danach kommt ist dann nur noch normale Ausarbeitung, z. B. Optimierung von Helligheit, Kontrast, Farbsättigung etc. - so viel wie nötig, so wenig wie möglich (ist ja auch Arbeit).

Fotografieren ist für mich nicht ein Bild im Nachinein am Computer zu basteln ... das fertige Bild ist ja dann nicht mehr so sehr meine Leistung sondern die der Programme deren Knöpfchen ich nur noch drücke ...
Ausnahme ... es ist von Vornherein eine BEArbeitung geplant, das ist eine eigenständige Sache auf Basis eines Fotos - hier ist dann meine eigene Leistung die Kreativität und Beherrschung der BEA.
22.06.2011
Original von Howein
Fotografieren ist für mich nicht ein Bild im Nachinein am Computer zu basteln ... das fertige Bild ist ja dann nicht mehr so sehr meine Leistung sondern die der Programme deren Knöpfchen ich nur noch drücke ...


Das kann man jetzt so oder so sehen.
Natürlich ist das fertige Bild noch Deine Leistung. Du hast ja schließlich am Rechner entschieden, welcher Bereich scharf und welcher unscharf sein soll.
Da sehe ich keinen Unterschied zum Fokusieren an der Kamera
Du hast nur mehr Möglichkeiten nachträglich noch zu korrigieren

Das ist nichts anderes als den Weißabgleich eines Bildes erst am Rechner zu machen. Bevor es Raw-Formate gab mußtest Du das auch schon bei der Aufnahme richtig einstellen.
22.06.2011
Wenn ich das richtig verstehe ist das wohl eher ein GAG...


Physik ist Physik und sowas würde nur funktionieren wenn ich mit mind f16-22 das Licht auf den Sensor jage...


Schaut euch doch mal die Natur an und fragt euch warum das Auge in mehreren Mio. Jahren so entstanden ist, wie es ist...



Klar, sicherlich gibts Erfindungen die alles alte wegwerfen...
22.06.2011
Kaufste Nikon, dann haste das Problem nicht ..... ;-)

*Duck und weg*

Ach so und On Topic: Macht die Kamera dann einfach zig Aufnahmen mit verschiedener Schärfeebene, oder wie? Das funktioniert dann bei weit offener Blende bestimmt auch nicht mehr, oder?


Original von Pixelspalter
[quote]Original von falschbelichtung ( nich klicken! )
Im Grunde nur dann, wenn ich den Punkt dem "Zufall" überlasse bzw. mich auf das verlasse, was die Kamera meint, was scharf sein sollen soll. (seltsamer satzbau... *schulterzuck*)


Nun, wenn Du damit den Fehlfokus von diesen beiden Bildern erklären kannst? (jeweils auf die Augen fokusiert mit fest eingestelltem Fokuspunkt)
http://www.pixelspalter.de/temp/Canon30D-unscharf1.jpg
http://www.pixelspalter.de/temp/Canon30D-unscharf2.jpg
[edit]
Das jeweils untere Bild ist direkt kurz danach mit den gleichen Einstellungen gemacht worden

Mit meiner neuen 7D ist es auch nicht unbedingt besser. Ich habe so das Gefühl, gerade Canon Kameras haben bei Outdooraufnahmen und hellem Licht so ihre Schwierigkeiten.[/quote]
[gone] falschbelichtung ( o.O )
22.06.2011
Original von DerDe-Fotografie.de ;)
Wenn ich das richtig verstehe ist das wohl eher ein GAG...


Physik ist Physik und sowas würde nur funktionieren wenn ich mit mind f16-22 das Licht auf den Sensor jage...


Schaut euch doch mal die Natur an und fragt euch warum das Auge in mehreren Mio. Jahren so entstanden ist, wie es ist...



Klar, sicherlich gibts Erfindungen die alles alte wegwerfen...

Du hast Dir den Link zum Plenoptic-Camera-Modell bei Wiki nich durchgelesen, oder? ^^
(tendenziell erklärt das Adobe-Video bei Photorumors das aber sogar verständlicher find ich)
[gone] Howein
22.06.2011
Original von Pixelspalter
[quote]Original von Howein
Fotografieren ist für mich nicht ein Bild im Nachinein am Computer zu basteln ... das fertige Bild ist ja dann nicht mehr so sehr meine Leistung sondern die der Programme deren Knöpfchen ich nur noch drücke ...

Das kann man jetzt so oder so sehen.
Natürlich ist das fertige Bild noch Deine Leistung. Du hast ja schließlich am Rechner entschieden, welcher Bereich scharf und welcher unscharf sein soll.
Da sehe ich keinen Unterschied zum Fokusieren an der Kamera
Du hast nur mehr Möglichkeiten nachträglich noch zu korrigieren[/quote]
Ich versteh schon was du meinst ...
Aber es ist doch anders.

Im ersten Fall habe ich mir vor der Aufnahme Gedanken gemacht, das fertige Bild/die Bildidee ist nur in meinem Kopf, ohne dass ich es "sehen" kann, und beim Abdrücken muss es passen oder ich habe Pech gehabt ...

Im zweiten Fall habe ich am Computer bereits etwas Konkretes aber "Falsches" vorliegen, Programme ermöglichen es mir es per Knopfdruck in alle Richtungen zu verbiegen ... ich bastle daran herum bis was Brauchbares rauskommt ... und sage hinterher womöglich noch ich hätte das von Anfang an so gedacht oder gemacht ... ;-)))

Ist natürlich jetzt etwas übertrieben, um es deutlich zu machen.
Ich würde da auch nie jemand was vorschreiben wollen ... das muss jeder selber wissen ... aber mir macht das so keinen Spaß, mein Hobby ist nun mal FOTOGRAFIEREN ...
22.06.2011
Original von DerDe-Fotografie.de ;)
Wenn ich das richtig verstehe ist das wohl eher ein GAG...
Physik ist Physik und sowas würde nur funktionieren wenn ich mit mind f16-22 das Licht auf den Sensor jage...
Schaut euch doch mal die Natur an und fragt euch warum das Auge in mehreren Mio. Jahren so entstanden ist, wie es ist...
Klar, sicherlich gibts Erfindungen die alles alte wegwerfen...


Tja und weil der Mensch so ein Organ nicht eingebaut hat ist es natürlich schwer vorstellbar, daß das möglich ist ;)
Andererseits gibt es auch Sensoren für Magnetfelder, Radioaktive Strahlung, Infrarot usw. Alles Dinge, die kein menschliches Organ erfassen kann ;)
Das wäre ja das Ende des beliebten Standard-fc-Kommentars "Leider unscharf".
22.06.2011
Hab nicht nur von Menschen geredet...


Bis auf Radioaktivitätssensor (dat wüsste ich nich), wurde alles der Naturabgekupfert...
Original von falschbelichtung ( nich klicken! )
Die meisten unscharfen Bilder gibs ja nicht wegen Fehlfokus, sondern Fehlbedienung.


Hehe... :)

Ich finde es bedenklich. Davon ab das ich nicht glaube (so überzeugend sind die Bildbeispiele nicht) das das wirklich das gezielte Focussieren ersetzen kann und vor allem sollte.

Wenn das so weitergeht braucht man bald nur noch eine Kamera in die Nähe eines Models zu werfen und die macht den Rest dann automatisch. Wie Dr. Speedlite schon sagte... ob man das alles noch erleben muß. Ich finde nicht...
22.06.2011
Original von Howein
Im ersten Fall habe ich mir vor der Aufnahme Gedanken gemacht, das fertige Bild/die Bildidee ist nur in meinem Kopf, ohne dass ich es "sehen" kann, und beim Abdrücken muss es passen oder ich habe Pech gehabt ...
Im zweiten Fall habe ich am Computer bereits etwas Konkretes aber "Falsches" vorliegen, Programme ermöglichen es mir es per Knopfdruck in alle Richtungen zu verbiegen ... ich bastle daran herum bis was Brauchbares rauskommt ... und sage hinterher womöglich noch ich hätte das von Anfang an so gedacht oder gemacht ... ;-)))


Wir reden hier nur vom Schärfepunkt und von der Schärfentiefe. Deine Inszenierung der Bildidee mußt Du immer noch machen. Die Aufnahmeperspektive genau so wählen.
Laut Deiner Definition dürfte man übrigens am Rechner auch nie mehr den Bildschnitt verändern ;)
Da hat man auch mehr Information aufgenommen als man eigentlich braucht und schneidet sich zum Schluss das raus, was einem gefällt
Nichts anderes macht dieser neuartige Sensor.

@DerDe
Zu blöd daß wir jetzt aber nicht wissen, wie Tiere optisch ihre Umgebung wahrnehmen. Man denke nur mal an Libellenaugen mit den tausenden Linsen darin.
Übrigens ist die Optik in einer Kamera auch schon etwas, was über das menschliche Auge hinausgeht. Denn die Wahrnehmung die vom Auge kommt hat nur in der Mitte einen scharfen Bereich und flaut zum Rand hin ab. Das muß also auch schon Teufelswerk sein ;)
22.06.2011
Original von Pixelspalter
[quote]Original von Howein
Im ersten Fall habe ich mir vor der Aufnahme Gedanken gemacht, das fertige Bild/die Bildidee ist nur in meinem Kopf, ohne dass ich es "sehen" kann, und beim Abdrücken muss es passen oder ich habe Pech gehabt ...
Im zweiten Fall habe ich am Computer bereits etwas Konkretes aber "Falsches" vorliegen, Programme ermöglichen es mir es per Knopfdruck in alle Richtungen zu verbiegen ... ich bastle daran herum bis was Brauchbares rauskommt ... und sage hinterher womöglich noch ich hätte das von Anfang an so gedacht oder gemacht ... ;-)))


Wir reden hier nur vom Schärfepunkt und von der Schärfentiefe. Deine Inszenierung der Bildidee mußt Du immer noch machen. Die Aufnahmeperspektive genau so wählen.(...)[/quote]

Vision.....

Gibbet bald 840MP Kameras mit Süperkugelumsichtfisheye als Immerdrauf.
Die gewünschte Perspektive und Korrekturen erledigt dann eine beigefügte DVD mit der Software.

:)
22.06.2011
Original von Pixelspalter
[...]
Wir reden hier nur vom Schärfepunkt und von der Schärfentiefe. Deine Inszenierung der Bildidee mußt Du immer noch machen. Die Aufnahmeperspektive genau so wählen.
[...]

im prinzip ist es doch einfach. wenn ich dieses mikrolinsensystem vor dem sensor habe, wobei eine mikrolinse jeweils beispielsweise 100 bildpunkte abdeckt, kann ich mir hinterher daraus 10 verschiedene schärfeebenen meines bildes konstruieren und entsprechend mischen, so dass der von mir gewünschte eindruck der schärfentiefe entsteht. diese möglichkeit kann ich mir aber nur leisten, wenn ich in kauf nehme, dann nur noch ein hundertstel der auflösung zu haben. sprich: aus einer 24-megapixel-kamera kommen 240.000-pixel-bilder, standard-querformat in der mk ;)
22.06.2011
Ich schmunzel gerade etwas. Da wird ein Prototyp vorgestellt und alle schreien, dass es ne miese Qualität ist :)

Mal ein Paar Zitate zum PC:
Im Jahr 1943 soll der damalige IBM-Chef Watson angeblich gesagt haben: „Ich denke, es gibt weltweit einen Markt für vielleicht fünf Computer.“

„Computer der Zukunft werden vielleicht einmal nicht mehr als 1,5 Tonnen wiegen.“ - Popular Mechanics (Technikzeitschrift ) im Jahr 1949

„Interessante Sache... Aber wozu ist sie gut?“ - ein IBM Manager zum Mikroprozessor, 1968

„Es gibt keinen Grund, warum irgendjemand einen Computer in seinem Haus bräuchte.“ - Ken Olsen, 1977, US-amerikanischer Computer-Ingenieur und Manager


Über die ersten DigiCam wurde auch gelächelt und abgestitten, dass sie jemals Erfolg hätte: CLICK
Denke nicht das es darum geht irgendwelche Entwicklungen schlecht zu reden die neu, toll, sinnvoll, gut sind. Eher geht es darum das einem bald das Denken komplett abgenommen wird. Kann ich mir nicht vorher überlegen welches Bildelement scharf sein soll anstatt auf eine Technik zu hoffen das die es schon richten wird...

Ich für meinen Teil brauche keine Programmautomatik, keinen Verwackelschutz, keinen Liveview und auch keine "überleg dir hinterher wo es scharf sein soll" Funktion. :)
[gone] David Brad
22.06.2011
Original von Cerunnos
Ich schmunzel gerade etwas. Da wird ein Prototyp vorgestellt und alle schreien, dass es ne miese Qualität ist :)

Mal ein Paar Zitate zum PC:
Im Jahr 1943 soll der damalige IBM-Chef Watson angeblich gesagt haben: „Ich denke, es gibt weltweit einen Markt für vielleicht fünf Computer.“

„Computer der Zukunft werden vielleicht einmal nicht mehr als 1,5 Tonnen wiegen.“ - Popular Mechanics (Technikzeitschrift ) im Jahr 1949

„Interessante Sache... Aber wozu ist sie gut?“ - ein IBM Manager zum Mikroprozessor, 1968

„Es gibt keinen Grund, warum irgendjemand einen Computer in seinem Haus bräuchte.“ - Ken Olsen, 1977, US-amerikanischer Computer-Ingenieur und Manager


Über die ersten DigiCam wurde auch gelächelt und abgestitten, dass sie jemals Erfolg hätte: CLICK

super!!! genau so ist es.

erstmal schauen. interessant klingt es auf jeden fall ... ;)

lg, david
[gone] Howein
22.06.2011
[quote]Original von Pixelspalter
Wir reden hier nur vom Schärfepunkt und von der Schärfentiefe. Deine Inszenierung der Bildidee mußt Du immer noch machen. Die Aufnahmeperspektive genau so wählen.
Laut Deiner Definition dürfte man übrigens am Rechner auch nie mehr den Bildschnitt verändern ;)
Da hat man auch mehr Information aufgenommen als man eigentlich braucht und schneidet sich zum Schluss das raus, was einem gefällt
Nichts anderes macht dieser neuartige Sensor.quote]

Nö ... ;-)))

Das Festlegen des gewünschten Schärfepunkts und -verlaufs ist sogar mit die Wichtigste Vorüberegung bei der Bildgestaltung ... und selbstverständlich legt man auch den gewünschten Ausschnitt (zumindest grob) bereits bei der Aufnahme fest! Der eigentliche Schnitt wird dann natürlich erst beim Ausarbeiten gemacht, egal ob manuell oder am PC ... (Früher konnte man das durchaus auch gleich mit einer exakten Festlegung des Ausschnitts im Sucher erledigen, aber es gibt heute praktisch keine Sucher mehr die dafür genau genug sind).

Aber ich denke wir beenden diese kleine Nebendiskussion jetzt - ich gehe im Normalfall eben lieber fotografisch vor und arbeite am Computer dann nur noch aus, andere erstellen lieber aus einem Rohfoto das eigentliche Bild am Computer ... ist doch in Ordnung ... ;-)
[gone] jgobond
22.06.2011
Original von David Brad
[quote]Original von Cerunnos
Ich schmunzel gerade etwas. Da wird ein Prototyp vorgestellt und alle schreien, dass es ne miese Qualität ist :)

Mal ein Paar Zitate zum PC:
Im Jahr 1943 soll der damalige IBM-Chef Watson angeblich gesagt haben: „Ich denke, es gibt weltweit einen Markt für vielleicht fünf Computer.“

„Computer der Zukunft werden vielleicht einmal nicht mehr als 1,5 Tonnen wiegen.“ - Popular Mechanics (Technikzeitschrift ) im Jahr 1949

„Interessante Sache... Aber wozu ist sie gut?“ - ein IBM Manager zum Mikroprozessor, 1968

„Es gibt keinen Grund, warum irgendjemand einen Computer in seinem Haus bräuchte.“ - Ken Olsen, 1977, US-amerikanischer Computer-Ingenieur und Manager


Über die ersten DigiCam wurde auch gelächelt und abgestitten, dass sie jemals Erfolg hätte: CLICK

super!!! genau so ist es.

erstmal schauen. interessant klingt es auf jeden fall ... ;)

lg, david[/quote]

Da magst Du vielleicht recht haben, es ist aber etwasl unfair, das im nachhinein zu beurteilen. Auf jedes Patent, das sich durchsetzt kommen 1000 die inner Schublade verstauben. Die Kunst ist ja, vorher zu wissen, welche Idee sich durchsetzt.

3D dümpelt seit Jahrzehnten vor sich hin, hat mehrere Anläufe unternommen, aus seinem Nischendasein auszubrechen und ist immer wieder dorthin zurückgefallen. Das, was man jedenfalls derzeit in den Kinos sieht, überzeugt mich auch nicht, auch wenn die Industrie das gerne so hätte :-)

LG
Manfred
22.06.2011
Original von Andreas Grav - PixelWERK ™
Denke nicht das es darum geht irgendwelche Entwicklungen schlecht zu reden die neu, toll, sinnvoll, gut sind. Eher geht es darum das einem bald das Denken komplett abgenommen wird. Kann ich mir nicht vorher überlegen welches Bildelement scharf sein soll anstatt auf eine Technik zu hoffen das die es schon richten wird...
Ich für meinen Teil brauche keine Programmautomatik, keinen Verwackelschutz, keinen Liveview und auch keine "überleg dir hinterher wo es scharf sein soll" Funktion. :)


Ja aber könnte man mit diesem Argument nicht jede technische Neuerung ablehnen?
Stell Dir mal vor Du würdest einem Fotografen aus den Anfängen der Fotografie eine heutige Kamera zeigen. Was glaubst Du würde er von den ganzen Automatismen denken, an die wir uns schon alle gewöhnt haben? (Belichtungsautomatik, Autofokus, ein Display zur Bildansicht usw)
Wieso sollte es hier anders sein?
Wie gesagt....jede Arbeitserleichterung schaufelt Resourcen frei, die man in andere Dinge stecken kann. Vielleicht eine ausgefallenere Inszenierung. Oder mehr gestalterische Möglichkeiten usw.

Topic has been closed