Diskussion:High Dynamic Range Image/Archiv/1

aus Wikipedia, der freien Enzyklopädie
Letzter Kommentar: vor 7 Jahren von 2003:78:8D13:F300:C1C7:8A94:D8C8:4557 in Abschnitt Warum schreitet hier niemand ein?
Zur Navigation springen Zur Suche springen

Formulierungen

"HDRIs können dazu verwendet werden, Fotografien von speziellen hochdynamischen Digitalkameras abzuspeichern." Mir ist keine Kamera bekannt die ein HDRI "einfach " so erstellen kann. Die einzigste Lösung ist immer eine Belichtungsreihe... Alle anderen Lösungen sind noch im Entwicklungsstadium. Kann man alles in dem HDRI Handbuch (lim) nachlesen.... --Metoc 21:04, 4. Sep 2005 (CEST)

Hm, du hast recht. Ich habe da wohl etwas missverstanden. Den Satz habe ich enfernt. --Phrood 21:10, 4. Sep 2005 (CEST)
war etwas vorschnell. ^^ hattest recht mit den speziellen Kamers! War trotzdem komisch formuliert ;) Mit freundlichen Grüßen --Metoc 21:51, 4. Sep 2005 (CEST)
Klar gibt es solche Kameras. Sphereon aus Baden-Würthemberg müsst bei vielen grösseren Messen vertreten sein. Die sehr teuren Geräte werden für viele Aufgaben benutzt, unter anderem in Hollywood für CG Effekte. Ihre habt also Bilder von solchen Kameras bestimmt schon einmal gesehen. KaiUwe 08:24, 19. Nov. 2007 (CET)

Werbung vs. Information

Hallo Phrood,

über den Unterschied zwischen Werbung und Information kann man sicherlich trefflich streiten. Gerne nehme ich auch Korrekturen an meinen Formulierungen hin. Etwas befremdlich finde ich es aber meine Ergänzungen komplett zu streichen. Warum streichen wir dann nicht auch Infos und Artikel über Photoshop u.a. Programme? Ich bitte Dich da noch einmal drüber nachzudenken. Werde ich meinerseits gerne auch noch einmal tun. Werde mir dann morgen erlauben den Artikel in geeigneter Form zu überarbeiten.

Gruß FDRTools -- 81.173.147.80 12:20, 30. Mär 2006 (CET)

Bebilderung

Abb. zur Methodik (vgl. en.wikipedia)

Hallo, es gibt nun eine Commonsgalerie zum Thema (siehe auch meinen Hinweis im Kopf der Galerie). Die Beispielhaftig- und Tauglichkeit der enthaltenen Bilder für Artikel sollten aber besser "Experten" beurteilen. Ich würde sie nur ungerne in den Artikel einfügen wollen und damit womöglich eine Diskussion um die grundsätzliche HDR-Abbildbarkeit (ob überhaupt) in der Wikipedia auslösen ;-) Auf der engl. Diskussion dazu wird heftig u.a. um die flickr-Bilder gestritten.

Prinzipiell denke ich jedoch, dass beispielsweise die folgenden beiden Bilder die Möglichkeiten von HDR durchaus verdeutlichen können. Im konkreten Fall wurde mit Photomatix gearbeitet. Anhand der beiden Fotos lassen sich auch gewisse Details erkennen.

Datei:Lowther Southern uplands-HDR.jpg
Evtl. als Einzelbild verwendbar (keine "Normalversion" vorhanden), Nachteile von JPG-Umwandlung/Programm im Detail gut zu sehen, ansonsten für Laien auf Anhieb "beeindruckend"

Was meint ihr dazu? --Überraschungsbilder 03:20, 2. Mai 2006 (CEST)

Ich glaube nicht, dass man mit normalen Bildern das Prinzip von HDR-Bildern verdeutlichen kann. Ich würde sie daher lieber nicht einfügen. --Phrood 12:02, 2. Mai 2006 (CEST)

---

Es wird an einigen Orten über die flickr-HDR-Bilder diskutiert, nicht zuletzt in flickr selbst. Genauer gesagt wird dort auch oft über die mit Photomatix erzeugten HDR-Bilder diskutiert. Offenbar ist es mit diesem Programm leicht, surreal wirkende Szenen zu kreieren. Im Umkehrschluss kann man auch annehmen, dass die Wiedergabe natürlich wirkender Szenen mit diesem Programm um so schwerer fällt. Die mit dem genannten Programm erzeugten Bilder werden von einigen Kommentatoren auch als 'painting like' beschrieben. Dies mag manchmal ganz schön ausschauen, wenn derartige Aufnahmen dann jedoch in einer Massierung auftreten wie beispielsweise in einer flickr-Gruppe entsprechend dem Produktnamen, befallen gar manchen Beobachter dabei heftige Kopfschmerzen. Dies hat u.a. dazu geführt, dass sich eine neue Gruppe wie 'True Tone HDR' etabliert hat, in der dem 'painting like style' der Kampf angesagt wird. By the way - die als Beispielbilder weiter oben vorgeschlagenen beiden Aufnahmen erinnern verdächtig an den genannten Stil.

Eine mittels des HDR(I)-Verfahrens optimierte Bildszene und dann nachträglich mittels Dynamikkompression wieder in den normalen Bildbereich heruntergerechnete Szene sollte im Idealfall absolut natürlich und harmonisch wirken. Auch derartige Aufnahmen finden sich flickr. Ohne einen weiteren Produktnamen nennen zu wollen, verweise ich auf eine Aufnahme aus flickr. Derartige Aufnahmen erhellen jedoch nicht die Besonderheiten im Entstehungsprozess, insbesondere bei der HDRI-Generierung. Wenn hier noch Ergänzungsbedarf besteht, kann ich gerne eine Aufnahme und/oder einen Screenshot beisteuern, die diesen Prozess und einige Besonderheiten dabei treffender beschreiben. -- FDRTools 04. Mai 2006


---

Altes Rathaus Wittlich

Anbei ein Screenshot eines Programms zur Erstellung von HDRIs aus Fotografien. Gegenüber dem ursprünglich verwendeten Belichtungssatz wurde die Zahl der verwendeten Aufnahmen aus Gründen der Übersichtlichkeit reduziert. Das resultierende HDR-Bild kann für eigene Experimente heruntergeladen werden. Der Screenshot sollte zumindest ein wesentliches Element der HDRI-Synthese klar herausbringen, nämlich das der Verwendung von mehreren Aufnahmen einer Szene mit unterschiedlichen Belichtungen. -- FDRTools 07. Mai 2006


---

Hallo FDRTools,

in der angesprochenen "True Tone HDR" Gruppe bei flickr sind akzeptierte Aufnahmen zu sehen die eben mit Photomatix erzeugt wurden. Der von Dir geäusserte Rückschluss, dass es schwer fällt mit Photomatix Tone Mapping realistische Bilder zu erzeugen, ist mir nicht eingängig. Aus meiner Sicht stellt sich Photomatix als universelles Tool dar, das beide Varianten beherrscht und weiten Einfluss auf die Parameter zulässt. Was man daraus macht liegt im Interesse und Geschmack des Anwenders. Und wenn so viele Leute ihre Ergebnisse in flickr gerne zeigen, dann liegt das wohl daran dass sie mit den Ergebnissen Ihrer Arbeit zufrieden sind.

Gruss, Dieter


Also ich würde es schon interessant finden, wenn hier Fotos zur Illustration sind. Besonders, wenn ein vorher-nachher möglich ist. Es muss ja kein technisch perfektes Bild in einem speziellen Farbraum sein, sondern soll nur den Effekt veranschaulichen! Auch finde ich es wichtig, den Content in der wikipedia zu halten. Ein Link auf flickr-Fotos ist nur die zweitbeste Wahl. Gru0 aus Wien Gernot.hueller 18:38, 21. Jul 2006 (CEST)

Siehe Dynamic Range Increase --Phrood 19:48, 29. Jul 2006 (CEST)

Beispielbilder

Hallo Gernot,

ich hoffe ich habe Dein Anliegen richtig verstanden und zeige hier mal zwei Fotos von den Schären. Das erste zeigt die übliche normale Aufnahme, die zweite die mit PhotomatixHDR/Tone Mapping aufgewertete:

Datei:20060611 02534 01.jpg
Haus in den Schären - normal
Datei:Db 20060611 02534 tm.jpg
Haus in den Schären - HDR/Tone Mapping

--D.Bethke 14:06, 4. Aug 2006 (CEST)

Was ist denn an diesem Beispiel so schrecklich falsch: die 3 originale Bilder 1/60 1/160 1/400

Ergebnis

Das HDRI wurde mit Photomatix erstellt. Bitte klärt micn auf --RvM 14:46, 27. Mai 2007 (CEST)

Verständlichkeit

Hallo! Es wäre nett, wenn mal jemand, der sich damit auskennt, den Satz "Durch HDRI haben schattige oder dunkle Bereiche dieselbe Detailwiedergabe wie die hellsten Bereiche eines Bildes und können ein paar besondere Effekte hervorrufen: Sie sind als Umgebungsbeleuchtung einsetzbar, da ihre Helligkeit nicht vom maximalen Weißwert des RGB-Farbraums [war: RGB-Farbspektrums] abhängig ist (255/255/255), sie erzeugen so reale Glanzlichter in generell stärkeren Spiegelungen und werfen je nach HDR-Bild unterschiedlich lange indirekte und damit realistisch weiche Schatten." etwas allgemeinverständlicher formulieren könnte. Schatten sind als Umgebungsbeleuchtung einsetzbar? Was sind "reale Glanzlichter"? Bezieht sich das jetzt auf 3D oder Fotografie?
Ich finde auch das Bild "Veranschaulichung" eher ungeeignet... ich komme da nicht so recht draus raus. Auf was bezieht sich denn die Beschriftung? In welcher "Richtung" muss man das Bild interpretieren? Ist das Bild in der Mitte LDR oder HDR? Grüße, --Partner Sweeny 13:43, 20. Sep 2006 (CEST)

Immer wieder werden im Artikel Links zu Herstellern von HDR Software entfernt und hinzugefügt. Nach welchen Kriterien geschieht dies? Darf hier jeder einen Link zu seinem Lieblingshersteller anbringen, oder nur zu Freeware, oder wie seht Ihr das?

D.Bethke 22:02, 16. Feb. 2007 (CET)

Ich denke die guten Programme sollten gelassen werden, es muss aber stehen dass sie nicht freeware sind. Gute Tutorials sollten ebenso dort bleiben. Die veranschaulichen den Wikipedia Artikel noch weiter. Chicken3gg

Artikel umbenennen

Ich schlage vor diesen Artikel in "HDRI - High Dynamic Range Imaging" umzubenennen und verweise auf das englischsprachige Pendant ---D. Bethke 20:23, 22. Feb. 2007 (CET)

Bilder sehen unnatürlich aus

Bin ich der einzige oder gibt es auch unter euch Personen, welche finden, dass viele HDR-Bilder einfach unnatürlich wirken und diesen "digital aufgeblasenen" Touch haben? Würde mich freuen, wenn dazu, vielleicht unter dem Titel "Kritik", ein von einer Fachperson verfasster Abschnitt stehen würde.

Gruss --Tschikay 14:55, 13. Aug. 2007 (CEST)

Das kommt großteils von der übertriebenen Anwendung der Technik. Viele Anwender wollen, dass die Bilder ganz offensichtlich spektakuär wirken sollen. Das ist kein Mangel von DRI oder Tone Mapping, sondern ein küstlerisches Problem. --80.134.13.22 20:10, 5. Mär. 2008 (CET)
Ich glaube das nicht. Ich glaube eher, das kommt daher, dass schlechte Algorithmen, Kameras oder Einstellungen verwendet wurden. Die Bilder in den Tone-Mapping-Papers von Durand, Fattal und Reinhard, oder die mit speziellen Kameras wie der SpheroCam HDR aufgenommen wurden, sehen so schlecht nicht aus. --Phrood 20:54, 5. Mär. 2008 (CET)

Die Optik der Kamera ist auch oft schuld, wegen Lichtstreuungen im Linsensystem. Siehe aber [1] --Vierge Marie 01:03, 21. Apr. 2008 (CEST)

Ich stimme Phrood zu. Das Problem ist, wie mit allen neuen Techniken, dass sie "bis zum Erbrechen" ausgereizt und verwendet werden. Will man realistische Ergebnisse, braucht man State-Of-The-Art-Operatoren, wie etwa iCAM06. iCAM06 ist derzeit der Stand der Dinge, jedoch dient der Operator dazu, HDR-Bilder im LDR-Format so darzustellen, wie sie einem Betrachter tatsächlich erscheinen würden. Die Künstlerische Freiheit kommt da "etwas zu kurz", aber die Ergebnisse wirken viel natürlicher. Das liegt daran, dass Adaption (beliebig zwischen nicht adaptiert nis voll adaptiert), Hunt- und Stevens-Effekt, Chroma-Crispening, lokale Weißpunktanpassung usw. berücksichtigt werden.
"Künstlerische" HDRs kränken oft daran, dass die Bilder oft unnatürlich bunt sind (besonders bei Dämmerungs- und Nachtaufnahmen), da die geringere Sättigung und Schärfeabnahme, die bei Dämmerungssehen typisch sind, nicht vorhanden sind. Was natürlich besonders "unecht" wirkt, ist ein Bild, dass zwar starken lokalen Kontrast besitzt, aber im Gesamtkontrast sehr stark vom Natürlichen Seheindruck abweicht. Soll heißen: Bilder, die zu wenig Licht und Schatten besitzen, obwohl sie diese Kontraste eigentlich in der entsprechenden Beleuchtungssituation besitzen müßten.
Dennoch kann auch so manches "unnatürliche" HDR-Bild sehr beeindruckend aussehen, wenn die Wahl der Mittel mt Verstand vorgenommen wurde.
Hilfreiche Infos:
Evaluation of Tone Mapping Operators
http://www.cgg.cvut.cz/members/cadikm/tmo/
iCAM06: a new image color appearance model
http://www.cis.rit.edu/mcsl/icam06/
Dynamic Range Independent Image Quality Assessment
http://www.mpi-inf.mpg.de/resources/hdr/vis_metric/aydin_sg08.pdf
Display Adaptive Tone Mapping
http://www.mpi-inf.mpg.de/resources/hdr/datmo/mantiuk08datm.pdf
iCAM06, HDR, and Image Appearance
http://www.cis.rit.edu/mcsl/icam06/CIC15_iCAM06.pdf
iCAM06: A refined image appearance model for HDR image rendering In diesem Dokument sind auch Daten zu Qualitätsbeurteilungen durch Personen, die iCAM06 mit anderen Operatoren vergleichen sollten.
http://www.cis.rit.edu/mcsl/icam06/JVC_iCAM06.pdf
--Al'be:do 19:53, 9. Dez. 2008 (CET)

Links, Bilder uns sonstiger Unsinn

Ich finde es erschreckend, dass man hier auf so viel Inkompetenz trifft. Links zu Seiten auf denen nur DRI Bilder sind, aber kein einzigstes HDRI. Bilder sind mit HDRI untertitelt, anstatt, dass klar da steht, dass es umgewandelte HDRIs sind... Ich kann ja schlecht alles löschen, aber ich fänds super, wenn sich nochn paar Leute finden, die hier etwas aufräumen

Das "Runterrechnen" der HDRI-Bilder nennt man aber doch nicht DRI (Dynamic Range Increase), sondern Tone Mapping, oder? --Phrood 18:36, 30. Nov. 2007 (CET)

DRI ist technisch gesehen ein partielles Tonemapping, also nur an den Stellen, an denen es nötig ist.

Wieso gibt es hier eigentlich gar keine Weblinks?

HDR, HDRI DRI

Schwerpunkt auf diesen Artikel, dazu Teile aus DRI und HDR hierher verschoben. Siehe auch Diskussion unter: Redundanz

Ich protestiere gegen die widersinnige Aufteilung des Artikels Dynamic Range Increase und die Eingliederung in diesen Artikel unter dem Abschnitt "Technik" ohne jeglichen Kontext. Wer soll denn in diesem Artikel etwas mit solchen Details anfangen? Der Artikel Dynamic Range Increase beschreibt jetzt ein Sammelsurium von Techniken, die gar nichts miteinander zu tun haben. Ich habe mir daher erlaubt, den Abschnitt Technik zu entfernen und den Artikel DRI wieder auf die ursprüngliche Version zurückzusetzen. --Phrood 22:06, 30. Jan. 2009 (CET)

Lesenswert-Diskussion vom 1.3. - 8.3.2009 (erfolgreich)

Dieser Artikel wurde vor Kurzem von mir überarbeitet. --Phrood 21:11, 1. Mär. 2009 (CET)

  • Pro - Thema verständlich auf den Punkt gebracht und gut bebildert! MFG --Sensenmann 13:27, 2. Mär. 2009 (CET)
  • Kommentar: Ich fühl mich wie der Ober-Krümelpieker hier, aber ein oder zwei Feinheiten muss ich einwerfen:
  • 256 Quantifizierungsstufen implizieren nicht zwei Größenordnungen Helligkeitsumfang. Im sRGB-Farbraum ist das Intensitätsverhältnis von "1" zu "255" 2552.2, deutlich über fünf Größenordnungen.
  • Dementsprechend ist die Nichtproportionalität ("Außerdem ist der Pixelwert bei Digitalfotografien nicht proportional zur aufgenommenen Leuchtdichte") kein Nachteil, sondern Vorteil da sich eine größere Dynamik abbilden lässt.
  • Außer der bloßen Reduzierung auf den darstellbaren Dynamikbereich wird in der Computergrafik strahlende Helligkeit auch durch besondere, im "Bright Pass" hinzugefügte, Effekte (Bloom, Glare) dargestellt. Gehört aber wohl eher nach High Dynamic Range Rendering
(Ich verweige mich ja normalerweise dem Abgeben von buntigen Pro- oder Contra-Bapperln, möchte aber, wo ich schon einmal hier schreibe, anmerken, dass ich den Artikel im Wesentlichen OK finde.) --Pjacobi 23:28, 2. Mär. 2009 (CET)
  1. Krümelpieken ist hier erlaubt.
  2. Richtig, das war ein Fehler. Ich habe den Helligkeitsumfang gelöscht, der variiert ja ohnehin je nach Kodierung.
  3. Ja und nein. Der Nachteil ist, dass man nicht einfach (ohne die Kamerakurve zu berücksichtigen) auf ein Pixel klicken und die Leuchtdichte ablesen kann, was für einige Anwendungen (z.B. Lichtdesign) sinnvoll wäre. Ich habe den Satz jetzt gelöscht, weil er verzichtbar war.
  4. Im Abschnitt "HDR-Rendering" ist das schon angedeutet: "Grafikeffekte wie Linsenstreuung wirken mit HDRR realistischer." --Phrood 08:35, 3. Mär. 2009 (CET)
  • Pro Mit Interesse gelesen. Ist der hohe Preis der Kameras der Vorserienfertigung geschuldet, oder gibt es hinsichtlich Preis, Grösse und Gewicht prinzipielle Unterschiede?--Hgn-p 14:43, 3. Mär. 2009 (CET)
Dürfte vor allem an der Vorserienfertigung liegen. --Phrood 20:59, 4. Mär. 2009 (CET)

Pro Guter Artikel über ein unpopuläres, dennoch interessantes Thema, der der Sache gerecht wird. --MEWRS Zigarre gefällig? 16:18, 4. Mär. 2009 (CET)

So unpopulär auch wieder nicht, der Artikel wird pro Monat über 8000 Mal aufgerufen. --Phrood 20:59, 4. Mär. 2009 (CET)
  • Klares Pro, da interessantes Thema gut und ausführlich aufbereitet; keine offensichtlichen Unstimmigkeiten oder Fehler gefunden (ausser den vielen roten Links, aber dafür kann das Lemma ja nichts...). Gruß --Cvf-psDisk+/− 00:11, 7. Mär. 2009 (CET)

Ich finde in dem Artikel keine Antwort auf folgende Frage: Welchen Kontrastumfang (in Blendenstufen) kann ein HDR-Bild darstellen? Bzw. ab wieviel Blendenstufen spricht man von einem HDR-Bild? Wie äußert sich das praktisch am Graukeil? Da ist zwar eine schöne Formen für den Lichtwert, aber ich verstehe da nur Bahnhof, zumal ein Beispiel fehlt. -- Arne List 00:52, 8. Mär. 2009 (CET)

Ich glaube nicht, dass es dafür allgemeine Kriterien gibt. Als Anhaltspunkt umfasst das menschliche Sehvermögen 33 LW (Beispiel hinzugefügt) und das OpenEXR-Dateiformat ca. 35. Was du mit dem Graukeil meinst, ist mir nicht klar - es handelt sich lediglich um einen beleuchteten Streifen Papier, er verfügt daher ohnehin über keinen besonders großen Helligkeitsumfang. --Phrood 09:02, 8. Mär. 2009 (CET)
Der Artikel in dieser Version ist Lesenswert mit 4 Pro-Stimmen. --Vux 03:41, 8. Mär. 2009 (CET)

Literatur und Verknüpfungen

Wer und wie kann anhand einer Leseprobe bestimmen, welche Literatur angeführt wird, die laut zahlreicher Rezensionen zu den wichtigsten deutschsprachigen Büchern zum Thema gehört? Was ist beispielsweise mit HDR-Fotografie: Motive, Aufnahme, HDR-Verarbeitung, Fallbeispiele von Michael Freeman, wenn Helds Buch schon nicht akzeptiert wird? Das darf dann auch nicht angeführt werden? Sehr zweifelhafte Geschichte, die "Phrood" da treibt?! 87.178.26.134 13:52, 30. Mär. 2009 (CEST)

Ich treibe keine zweifelhaften Geschichten, sondern habe den Literatureintrag vorläufig entfernt.
Die Literaturliste bei Artikeln muss nicht dem Anspruch der Vollständigkeit genügen, wohl aber der Qualität. Nach Durchsicht der auf der Seite des Verlags veröffentlichten Leseprobe habe ich zweifel, ob Helds Buch diesen Kriterien genügt. Folgende falsche oder grob irreführende Sätze sind mir aufgefallen:
  • "HDR-Bilder sind Bilder mit 32 Bit Farbtiefe" (S. 17) - nicht unbedingt, siehe Tabelle in diesem Artikel.
  • "Ein HDR-Bild besteht aus mindestens zwei unterschiedlich belichteten Aufnahmen" (S. 15) - ein HDR-Bild "besteht" nicht aus Aufnahmen. Es kann, muss aber nicht, aus mehreren Aufnahmen erzeugt worden sein.
  • "Erst nachdem das 32-Bit-HDR-Bild zu einem 16- bzw. 8-Bit-Bild verarbeitet ist, wird der typische HDR-Look sichtbar" (S. 17) - Es wird unkritisch von einem "typischen HDR-Look" gesprochen, was fälschlicherweise nahelegt, dass Artefakte von Tone-Mapping-Operatoren als Standard und nicht als Fehler anzusehen sind.
Blochs Buch ist zwar von der fundierten Darstellung Reinhards et al. weit entfernt, bietet aber meines Erachtens sowohl fachlich korrekte Informationen als auch praxistaugliche Anleitungen. Helds Buch hingegen hinterlässt aufgrund der genannten Punkte den Verdacht, dass der Autor das Thema HDRI nicht richtig verstanden hat. Ich habe große Bedenken, es in die Literaturliste aufzunehmen, möchte deswegen aber auch keinen Edit-War anfangen. --Phrood 19:04, 30. Mär. 2009 (CEST)

Bezüglich einer Literaturempfehlung ein Fass aufzumachen, liegt auch mir fern. Mich störte nur die ungleiche Wertung zweier Bücher. Wie von Dir beschrieben, ist auch Bloch von der rein wissenschaftlichen Betrachtung weit entfernt, obgleich näher als Held,der jedoch praxisorientierter ist. Ich habe alle deutschsprachigen Bücher zur HDR-(Fotografie) (an-)gelesen und halte beide für nennenswert. Bloch fasst HDR weiter als Held. Held spricht eher die praktisch orientierten Fotografen an und hat dort mehr zu bieten. Auch wenn manche Aussagen nicht immer bis ins Detail mit allen "wen" und "aber" versehen sind. Der Mehrwert für den Leser, der beispielsweise das Tone-Mapping als kreatives Mittel einsetzen möchte, ist meines Erachtens höher, als bei anderen deutschsprachigen Publikationen und gehört somit in die Literaturliste. 87.178.21.14 10:16, 31. Mär. 2009 (CEST)

Dass es in der Wikipedia unüblich ist, sehr praxisorientierte Bücher aufzulisten, dürfte auf die Seite WP:LIT zurückgehen, derzufolge nur die "wissenschaftlich maßgeblichen Werke" oder "seriöse, möglichst aktuelle Einführungen" aufgelistet werden sollten. Die hervorragende Praxisorientiertheit des Buchs zweifle ich nicht an, aber die fachliche Qualität sollte doch höher wiegen. Ich habe jetzt deine Eintragung vorläufig gesichtet, würde mich aber wohler fühlen, wenn du sie rückgängig machen könntest. --Phrood 20:24, 31. Mär. 2009 (CEST)

Um auch den eher praxisorientierten Anwendern gerecht zu werden, bin ich für den Verbleib beider Literaturhinweise (Bloch und Held). Bei Held mit dem Blick auf die angekündigte Zweitauflage, die laut Amazon im Mai 2009 erscheinen soll. Ein erneutes Prüfen des Eintrags wäre dann fällig. 87.178.22.58 16:33, 1. Apr. 2009 (CEST)

Etwas Korrektur

Ich bin über folgenden Zusammenhang in diesem Artikel gestolpert: "... das die in der Natur vorkommenden großen Helligkeitsunterschiede detailgetreu speichern kann. ... Bisher existieren nur wenige Ausgabegeräte, die zur Anzeige von HDR-Bildern fähig sind."
Das widerspricht dem gesunden Menschenverstand; denn dann müßte die Darstellung dieser Bilder blind machen können. Es existieren aber weder die Möglichkeiten ALLE natürlich vorkommenden Helligkeitsunterschiede aufzunehmen, noch diese darzustellen. Die HDR-Technik macht im Grund 2 Dinge:

  1. sie erweitert das Spektrum gegenüber herkömmlichen Verfahren
  2. sie reduziert auf eine geschickte Art den Kontrastumfang, um so Bilder den normalen Darstellungsmethoden anzupassen.


Das Grundprinzip dieses Verfahrens wurde in den 70er Jahren übrigens von Agfa entwickelt. Damals entstand folgendes Problem:

  1. Ein Dia muß den Kontrastumfang der Natur auf geschickte Art verringern.
  2. Wird ein Papierabzug von diesem Dia benötigt, wird eine weitere drastische Reduzierung benötigt. daraus entstand das Agfa-Digi-Print-Verfahren.
  3. Der Nachfolger in den 80er Jahren war der Optimierungs-Printer in den Foto-Grosslaboren (HIER ist das Prinzip beschrieben).
  4. Daneben gab es viele wissenschaftliche Projekte (Erd-Fernerkundung usw.), die mit ähnlichen Techniken arbeiteten. Aber die Massenanwendung stammt aus dem analogen Fotobereich.

Wenn also in den nächsten Tagen keine Einwände kommen, würde ich diesen Artikel mit der nötigen Vorsicht korrigieren. -- Friedrich Graf 13:00, 23. Jun. 2009 (CEST)

Die von mir angekündigte Artikelkorrektur wird sich über mehrere Tage hinziehen (60-Stunden-Woche, Familie,...). In dieser Überarbeitungsphase bin ich selbst nicht zufrieden mit dem halbfertigen Zustand. Ich muß aber um etwas Geduld bitten. Kritiken, Wünsche, Fragen,... bitte einfach schreiben. -- Friedrich Graf 08:14, 26. Jun. 2009 (CEST)
Nein, HDRI-Formate speichern eine größere Helligkeitsspannweite, das ist alles.
Die Anpassung an Ausgabegeräte mit geringerem Helligkeitsumfang wird mit sog. Color/Image Appearance Models (CAM/IAM) oder Tone Mapping-Algorithmen vorgenommen (siehe Fattal, iCAM06, CIECAM02 etc.). Unter Umständen werden beim Tonemapping auch noch visuelle Phänomene, wie Stevens- und Hunt-Effekt, usw. berücksichtigt (in iCAM06 und CIECAM02).
Außerdem hat HDR nichts mit irgendwelchen Spektren zu tun. Prinzipiell sind natürlich HDR-Multispektralaufnahmen möglich, jedoch im außerakademischen Bereich kaum bezahlbar und schlecht zu handhaben, geschweige denn zu kalibrieren. Im Allgemeinen sind HDR-Aufnahmen Fotografien, die nur die üblichen Drei-Filter-Systeme für kurz-, mittel- und langwelliges sichtbares Licht verwenden.
-- [[Benutzer:Al'be:do|]] 13:18, 26. Jun. 2009 (CEST)
Danke für eure Hilfe. Mich würde 1 Detail interessieren: den Kontrastumfang eines Dias. Leider habe ich in Wikipedia nichts gefunden und hatte daher (in Vorbereitung dieser Überarbeitung) zum einen in den Lehrbüchern meiner Lehrlinge und zum anderen bei Heise.de nachgesehen ([2]). In beiden Fällen wurde 1:10.000 angegeben. Ich will mich darauf nicht versteifen, nur: gibt es dazu eine "offizielle" Quellenangabe die wir verwenden können? Ansonsten würde ich als Beispiel noch den Negativfilm vorschlagen, der besitzt einen deutlich höheren Umfang als das Dia ...

-- Friedrich Graf 18:56, 26. Jun. 2009 (CEST)


@albedo: "Nein, HDRI-Formate speichern eine größere Helligkeitsspannweite, das ist alles." ... damit ich dich nicht mißverstehe, übertreibe ich jetzt mal bei diesem Beispiel:

  • Im 1. Lehrjahr müssen meine Lehrlinge eine Lochkamera bauen. Diese lassen sie in der Sonne stehen (hoher Dynamikumfang), um Stilleben zu fotografieren.
  • Diese Lochkamera erfasst eine große Helligkeitsspannweite, aber keine hohe Kontrastdifferenzierung.
  • Wenn ich deine Definition richtig verstanden habe, würde die Lochkamera aber als "HDR" durchkommen ...

... wie gesagt, ich habe übertrieben, um zu verdeutlichen, was ich meine. Ich will dich hier nicht als "Idioten" abstempeln. Vielleicht meintest du etwas anderes ... -- Friedrich Graf 19:06, 26. Jun. 2009 (CEST)

Keine Sorge, ich fühle mich nicht als Idiot abgestempelt.
Ich habe als typisches Kontrastverhältnis für ein Dia 1:1000 gefunden. Ich denke, dass Deine Quelle durchaus akzeptabel und auch besser ist und wir doch eher 1:10000/10000:1 verwenden sollten.
Was das Prinzip HDRI angeht, ist ein direkter Vergleich zwischen Dia/fotografischem Film und dem Verhalten von CCDs natürlich nicht so einfach möglich. Im Grunde findet im analogen Fall ja das statt, was im digitalen Fall (Kalibration etc. vorausgesetzt) erst bei Weiterverarbeitung der HDR-Daten, also bei Anwendung von Tonemapping-Operatoren (oder IAM) passiert. CCDs weisen schließlich ein lineares Verhalten auf, analoger Film komprimiert die Helligkeit "automatisch". Das beste Beispiel für den digitalen Fall, das mir im Moment einfällt (da ich mich damit gerade beschäftige), sind die Pancams (panoramic cameras) der Mars-Rover. Die CCDs funktionieren linear (sind reine Photonenzähler mit wechselbaren Glasinterferenz-Filterscheiben). Die gewonnenen Daten sind sozusagen absolute Werte (nach Kalibration etc.). Die spektrale und helligkeitsdynamische Rekonstruktion bzw. Umrechnung in sRGB mit Dynamikkompression wird mit dem CIECAM02-Operator durchgeführt, um ein möglichst reales Erscheinungsbild der Marsfotos zu gewährleisten.
HDR bezeichnet eigentlich nur das Prinzip, hohe Kontrastbandbreiten zu erfassen bzw. zu speichern. Die Methoden und Datenformate (linear/logarithmisch etc.) sind unterschiedlich. Ob man die Lochkamera als "HDR-fähig" einstufen kann, hängt eigentlich nur von dem Helligkeitsverhältnis der den Werten "Schwarz" und "Weiß" zugeordneten physikalischen Werten (Leuchtdichte) ab.
Wenn ich es richtig verstehe, ist HDR eigentlich alles, was über die übliche 8-bit/16-bit Helligkeitsauflösung hinausgeht. Im Analogen Fall ist eine solche Zuordnung natürlich nicht so einfach. Man kann aber durchaus über eine Zuordnung mit Hilfe von JND-Schritten (Differentielle Wahrnehmbarkeitsschwelle) den entsprechenden digitalen Kontrastumfang berechnen.
Da ich nicht sicher bin, was Kontrastdifferenzierung physikalisch zu bedeuten hat, rate ich einfach mal. Ich gehe davon aus, dass der in der Lochkamera verwendete Film sich ebenfalss nichtlinear verhält, d.h. im Bereich der Helligkeitsober- und -untergrenze findet eine nichtlineare Kompression (ähnlich einer Sigmoidfunktion) statt. Dies führt natürlich dazu, dass das Bild zwar in den Mitten Kontraste gut differenzieren (Helligkeitsunterschiede gut auflösen) kann, aber in den hellen und dunklen Bereichen durch die Kompression Helligkeitsunterschiede/-nuancen schlechter aufgelöst werden. Doch dieses Problem betrifft ja nicht die Maximalwerte selbst, sondern nur die Zuordnung der Zwischenwerte.
Auch wenn oft HDR synonym mit dem LDR-Resultat eines Tonemappings verwendet wird, ist die Bezeichnung in dem Fall eigentlich nicht korrekt.
--[[Benutzer:Al'be:do|]] 21:04, 26. Jun. 2009 (CEST)

Ich stimme Albedos Erklärung zu: "HDRI-Formate speichern eine größere Helligkeitsspannweite, das ist alles". Vor einer Änderung der Definition bitte die maßgebliche Literatur (Buch von Reinhard et al.; SIGGRAPH-Papers) beachten! --Phrood 01:46, 27. Jun. 2009 (CEST)

Ästhetische Gesichtspunkte

Es ist von Halos und ähnlichen Artefakten der überwiegend lokalen Operatoren die Rede. Abgesehen davon, dass Reinhard-, Fattal- und viele andere bekannte Operatoren nicht mehr ganz "state-of-the-art" sind, gibt es auch nicht-lokale Operatoren, die keine Halos erzeugen. Der Stand der Technik ist meines Wissens iCAM06. iCAM06 arbeitet mit bilateraler Filterung. Dieses Filterverfahren filtert selektiv und nicht über kontraststarke Kanten hinweg, was bei anderen Operatoren für diese schrecklichen Halos sorgt. Das Bild wird zwar (global) gefiltert, aber der lokale Kontrast bleibt erhalten. Der Operator berücksichtigt auch lokale Weißpunktadaptation, Einfluss der Stäbchen beim Dämmerungssehen und allerlei andere physiologische Effekte und Phänomene (Simultankontrast etc.). Weitere Infos: http://www.cis.rit.edu/mcsl/icam06/CIC15_iCAM06.pdf

-- [[Benutzer:Al'be:do|]] 21:48, 26. Jun. 2009 (CEST)

  1. Man kann nicht einfach so vom "Stand der Technik" sprechen. iCAM ist zunächst einmal ein Farbwiedergabemodell; als Tone-Mapping-Verfahren hat es so seine eigenen Probleme. Erstens müssen bei iCAM die Eingangswerte als absolute Helligkeiten (in cd/m²) angegeben werden; diese Mühe macht sich kaum ein Fotograf. Bei nicht kalibrierten Werten kommt es zu einem starken Rotstich oder zu dunklen Bildern. Zweitens gibt es andere Eigenschaften, die in der Praxis relevant sind, z.B. Effizienz oder Robustheit gegenüber extrem kontrastreichen Bildern. Mir persönlich gefällt Reinhards "Dynamic Range Reduction inspired by Photoreceptor Physiology" gut, weil er absichtlich helligkeitsgesättigte Pixelwerte zulässt und dadurch ziemlich natürlich wirkt.
  2. Halo-Artefakte gibt es nur bei lokalen Verfahren, weil hierbei die lokale Helligkeit aus der Nachbarschaft des Pixels berechnet wird. Bi- und trilaterale Filterung sowie Adaptation des Filterradius sind Möglichkeiten, Haloartefakte zu vermeiden, und sie sind bei lokalen Verfahren beliebig austauschbar. Z.B. wäre es möglich, bei Reinhards "Photographic Tone Reproduction" bilaterale Filterung zu verwenden, obwohl im Original eine andere Methode verwendet wurde.

--Phrood 02:13, 27. Jun. 2009 (CEST)

Das iCAM-Framework ist mir bekannt. iCAM06 ist aber doch speziell auf LDR-Reproduktion von HDR-Bildern zugeschnitten und außerdem eine recht beachtliche Weiterentwicklung des eigentlichen Konzepts und hat mit dem "alten" iCAM nicht mehr ganz so viel zu tun. Es wurden z.B. sehr viele Teile des Konzeptes von R.W.G. Hunt übernommen, die ich aus seinem Buch "Measuring Color" kenne, unter anderem die physiologischen Eigenschaften der Kompression bei Stäbchen und Zapfen, die Umgebungsabhängige Bandbreitenänderung der wahrgenommenen Helligkeit usw.
Ob sich Fotografen die Mühe machen oder nicht, bleibt ihnen überlassen. Außerdem habe ich ja auch schon die nötige Kalibration erwähnt. Eine vernünftige Abschätzung hilft aber schon, die von dir erwähnten Probleme zumindest zu vermindern. Ich muss sagen, dass die Matlab-Implementation, die ich von iCAM06 habe, sehr gut funktioniert. Fotografen wollen ja nicht psychovisuell korrekte Simulationen produzieren, sondern "gute Bilder". Im iCAM06-paper ist das Testverfahren zur Quaitätsbeurteilung gut erläutert und da stellt sich klar heraus, dass die älteren Verfahren um einiges schlechter abschneiden, wenn es um visuellen Realismus geht.
Natürlich kann man die Filterverfahren und im Grunde die kompletten Algorithmen verändern, dann sind es aber nicht mehr die ursprünglichen Operatoren, sondern neue Tonemapping-Verfahren, oder nicht? Und soweit ich weiß, sind doch im Regelfall in den gängigen Softwarepaketen die "Originalalgorithmen" implementiert.
Übrigens bestätigst Du doch nur meine folgende Aussage: Es ist von Halos und ähnlichen Artefakten der überwiegend lokalen Operatoren die Rede. Das heißt ha nur, dass die (gängigen) Operatoren überwiegend lokal sind und dass diese eben "Halo-Anfällig" sind. Sollte ich mich missverständlich ausgedrückt haben, bitte ich um Entschuldigung.
-- [[Benutzer:Al'be:do|]] 22:25, 27. Jun. 2009 (CEST)
Interessant, ich wusste nicht, dass das neue Modell so sehr auf Tone Mapping zielt; ich habe es mal im Artikel erwähnt. Das Foto der Dämmerungsszene [3] sieht sehr plausibel aus, andere Operatoren würden das sicher nicht so gut hinbekommen. Bei der Halo-Anfälligkeit hatte ich dich offenbar tatsächlich missverstanden. --Phrood 23:49, 27. Jun. 2009 (CEST)
Hey, Phrood! das Papier "iCAM06:A refined image appearance model for HDR image rendering" bringt die Neuerungen gut auf den Punkt.
Auf der Seite des Munsell Color Science Laboratory (die Seite kennst Du wahrscheinlich schon) findest Du einige aufschlussreiche Informationen:
http://www.cis.rit.edu/mcsl/icam06/
-- [[Benutzer:Al'be:do|]] 11:25, 28. Jun. 2009 (CEST)

Änderungen rückgängig

Ich habe die Änderungen von Friedrich Graf rückgängig gemacht, da sie eine Reihe fragwürdiger Aussagen enthielten.

  • Der Begriff "bildgebendes Verfahren" ist hier unangebracht, er bezeichnet meist "Medical Imaging" und verwandte Gebiete.
  • Der Link auf Schärfe_(Fotografie)#Bildoptimierung ist nicht sinnvoll; die HDRI-Erzeugung aus Belichtungsreihen ist kein Verfahren der Bildoptimierung.

--Phrood 01:19, 27. Jun. 2009 (CEST)


Ich werde keinen Löschkrieg beginnen, ich mache es also kurz:

  • Phroods Meinung ist unbegründet, denn die Argumente sind fadenscheinig:
    • "bildgebendes Verfahren" enthält wesentlich mehr als nur Medizin. Es ist dazu ein eindeutiger deutscher Begriff, der den Kern aller fotografischen und Computergenerierten Methoden (Gegenprobe: ich bitte um 1! sinnvolle Alternative) zur Bilderzeugung sinnvoll zusammenfasst. Da dieser Begriff in der Medizin ältere Verwendung findet, ist es verständlich, das die reine Statistik mehr medizinische als fotografische Änderungen enthält.
    • Bildoptimierung ist ein in jedem bildgebenden Verfahren mehrfach verwendete Anwendung. Sie ist unverzichtbar und alltäglich. Sonst wäre keinerlei Anpassungen an geringste Abweichnung bei Farbraum, Farbsystem, hellgkeit, Farben, Punktdichte usw. möglich. Dieser Begriff ist seit jahrzehnten alltäglich. Auch das HDR-Verfahren nimmt eine Anpassung im Sinne der Bildoptimierung vor; allein das starke Einschränken des Kontrastumfangs zwischen Natur und Bildspeicherung fällt unter diese Kategorie
    • Ich habe die Überarbeitung angekündigt und noch nicht abgeschlossen. Ich war die ganze Zeit für alle Argumente offen. Welcher Grund ermächtigt dich, dich über alles hinweg zu setzen? Ich erwarte eine zügige Reaktion. Auch im Sinne einer kollegialen Schreibkultur in Wikipedia. Es kann nicht sein, das Willkür herrscht. Jeder hat sich an Spielregeln zu halten.

-- Friedrich Graf 08:45, 27. Jun. 2009 (CEST)

  • Zu deinen Einwänden:
    • Ich habe nie den Begriff "bildgebendes Verfahren" auf gerenderte Grafiken angewandt gehört, sondern nur auf die Visualisierung von physisch ermittelten Daten (in der Medizin oder anderen Bereichen). Auch gerenderte Grafiken können HDRIs sein, nicht nur Fotos!
    • Den Begriff "Bildoptimierung" auf die HDRI-Erzeugung anzuwenden, ist zumindest fragwürdig. Es geht ja nicht darum, eine bestehende Rastergrafik mit Filtern optisch aufzuwerten, sondern eine neue zu erzeugen.
  • Wenn man lange Artikel über den Zeitraum von mehreren Tagen überarbeiten will, empfiehlt es sich, dies auf einer eigenen Benutzerunterseite (z.B. Benutzer:Friedrich Graf/tmp) zu tun, und erst nach Fertigstellung den gesamten Text in den Artikelnamensraum zu verschieben. Wesentliche Überarbeitungen von aktiv betreuten, längeren Artikeln sind ohne vorherige Diskussion mit den Hauptautoren unüblich.
  • Bevor eine Kernaussage des Artikels korrigiert wird, sollte zumindest sichergestellt werden, dass sie tätsächlich eine Verbesserung ist, und das ist hier m.E. nicht der Fall. Bitte nicht böse sein, aber ich habe den Eindruck, dass du das Prinzip von HDRI noch nicht ganz verstanden hast. Ich gehe davon aus, dass deine Änderungen am Artikel mit deiner Frage weiter oben zusammenhängen, und dieser Sachverhalt sollte geklärt werden:
"Das widerspricht dem gesunden Menschenverstand; denn dann müßte die Darstellung dieser Bilder blind machen können. Es existieren aber weder die Möglichkeiten ALLE natürlich vorkommenden Helligkeitsunterschiede aufzunehmen, noch diese darzustellen. Die HDR-Technik macht im Grund 2 Dinge:
1. sie erweitert das Spektrum gegenüber herkömmlichen Verfahren
2. sie reduziert auf eine geschickte Art den Kontrastumfang, um so Bilder den normalen Darstellungsmethoden anzupassen.
Das Grundprinzip dieses Verfahrens wurde in den 70er Jahren übrigens von Agfa entwickelt."
  • Es ist sehr wohl möglich, die natürlich vorkommenden (für den Menschen sichtbaren) Helligkeitsunterschiede aufzunehmen, z.B. mit dem HDRC-Sensor. Selbst mit normalen Digitalkameras kann man die Sonne aufnehmen, wenn auch nur mit Tricks (siehe letzten Absatz im Abschnitt "Erzeugung aus Belichtungsreihen").
  • Okay, es ist nicht möglich, die Sonne auf einem Bildschirm darzustellen, aber das ist ein Extrembeispiel. Der HDRI-Bildschirm von BrightSide schafft 0,015 bis 3000 cd/m², das ist ausreichend für eine naturgetreue Darstellung vieler Szenen.
  • Wie oben geschrieben: ein HDRI ist zunächst eine besondere Art von Rastergrafik, bei der mehr Bit als gewöhnlich zur Speicherung von Helligkeits- und Farbwerten verwendet werden. Es existiert meines Wissens keine anerkannte Definition, ab welchem Dynamikumfang nun genau HDRI beginnt. 14-Bit-Rohdatenformate werden von Bloch und 12/16-Bit-scRGB von Reinhard noch als "Medium Dynamic Range", die 24 Bit von LogLuv bereits als HDR bezeichnet.
  • Das Problem des hohen Dynamikumfangs ist in der Fotografie seit langem bekannt, deshalb wurde so Hilfsmittel wie das Zonensystem erfunden. HDRI hingegen bezeichnet ausschließlich eine digitale Technik. Sie ist offensichtlich nicht dirket von der Analogtechnik inspiriert, sondern hat sich aus Anforderungen für Renderer (wie Wards Radiance) ergeben. --Phrood 20:40, 27. Jun. 2009 (CEST)

Ich danke für die ausführliche Antwort, kann aber - krankheitsbedingt - erst heute antworten.

  • Viele deiner Argumente emfinde ich als richtig - Beispiel Rendering. Hier könnte man sich zwar noch streiten - denn das Endergebnis ist ein Rasterbild. Aber vom Grundprinzip stimme ich dir zu.
  • Mein Hauptproblem ist eigentlich ein anderes (bezüglich des alten Artikels): Kontrastumfang wir immer gleichgesetzt mit tatsächlich vorhandenen Differenzierungsstufen. Da meine tägliche Arbeit aus dem Transfer unterschiedlichster Bildsorten besteht (Analog, Digital, Druck, usw., usw.), weiß ich, das eine der wichtigsten Faktoren in allen bildgebenden Verfahren (ich habe leider noch kein besseres Wort gefunden), das "Nadelöhr" ist. Sprich der Verwendungszweck. Also das Medium mit dem in der Regel dargestellt wird (Foto, Projektion,....). Und aus einem fein durchzeichneten 8bit-Bild kann ich mehr Qualität entnehmen als aus einem mittelmäßigem 16bit-Bild. Warum? ... die Kontrastdifferenzierung ist das entscheidende (natürlich neben dem Kontrastumfang). Es war meine Absicht, dieses im Artikel hervorzuheben.
  • Da kommen wir gleich zum nächsten Punkt: üben auf einer Unterseite. Mein eigentliches Argument wurde von mir vorher benannt. Dem wurde nicht widersprochen (wieso auch). Also hielt ich das ganze für eine harmlose Überarbeitung - wozu der Streß? Dann kamst du und deine sehr intensive Löschorgie.
  • Unsere aller Fachwissen ist in der Regel "learning by doing". Ich vermute, es gibt niemand, der "HDR" studiert hat. Ich hatte auch nicht vor, den kompletten Artikel zu ändern (s.a. Ankündigung) - ein "Logik-Fehler" und all seine Auswirkungen sollten ausgemerzt werden (s.a. Ankündigung)
  • Fazit: ich sehe nach wie vor den Fehler in dem jetzigen Artikel. Nach meiner Erfahrung wird sich das Richtige durchsetzen, manchmal muß man diesbezüglich Geduld haben. Der Preis der Geduld ist halt, das es nicht um "Recht haben" geht, sondern um Wikipedia - und das ist auch gut so! Meine Frage an dich lautet nur: wäre es nicht besser, das wir diese Korrektur vornehmen? -- Friedrich Graf 12:15, 29. Jun. 2009 (CEST)
* Es gibt kein "HDR-Studium", das ist wohl klar. Man braucht kein Informatik-Diplom zu besitzen, um den Unterschied zwischen 8 bit und 16 bit pro Farbkanal zu erkennen. Außerdem gibt es unglaublich viele wissenschaftliche Abhandlungen diverser Fachleute - ganz zu schweigen von den vielen Fachbüchern, die man sich bei Unibibliotheken oder im Buchhandel besorgen kann -, die man frei von den Seiten der entsprechenden Universitäten oder etwa bei CiteSeer herunterladen kann.
* Und aus einem fein durchzeichneten 8bit-Bild kann ich mehr Qualität entnehmen als aus einem mittelmäßigem 16bit-Bild. Warum? ... die Kontrastdifferenzierung ist das entscheidende (natürlich neben dem Kontrastumfang). Es war meine Absicht, dieses im Artikel hervorzuheben.
Die "Kontrastdifferenzierung", auch bekannt als Grauwertabstufung, ist bei den HDR-Datenformaten generell besser als mit Gamma-korrigierten oder linearen 8-bit-Kodierungen möglich sind. Das ist im Artikel auch ganz klar erkennbar. Um Grauwerte visuell stufenlos darstellen bzw. speichern zu können darf die Helligkeitsdifferenz zwischen zwei benachbarten Grauwerten maximal ~1% betragen. Um diese 1%-Abstufung mit 8 bit pro Kanal überhaupt einhalten zu können, sind diese 8 bit ja auch nichlinear kodiert (mit einem Exponenten irgendwo zwischen 1.8 und 2.5 - auch bekannt als Gamma). Eine lineare 8-bit-Kodierung führt automatisch zu unschönen Farbsäumen und gut erkennbaren Stufen z.B. in einem Graukeil.
Beispielbilder zum Unterschied zwischen 8-bit- und 16-bit-Auflösung (linear und Gamma-kodiert) sind auf Bruce Lindblooms Internetseite zu bekommen: http://www.brucelindbloom.com/ReferenceImages.html
* Dein Argument, dass du lieber mit guten 8-bit-Fotos arbeitest als mit schlechten 16-bit-Aufnahmen, ist ungefähr so schlagkräftig, wie zu sagen, dass man lieber mit einem einwandfreiem Trabi fährt als mit einem schrottreifen Mercedes der E-Klasse, der drei platte Reifen hat. Ein schimmeliges Scheibchen vom Kobe-Rind ist selbstverständlich schlechter als eine frische Käsestulle, aber das Offensichtliche zu erwähnen ist keine Kunst.
-- Al'be:do 15:53, 29. Jun. 2009 (CEST)

Dein Argument mit dem Trabbi zeigt mir, das ich mich mißverständlich ausgedrückt habe! Ich wollte etwas anderes sagen: 16bit ist nicht zwangsläufig besser, als 8 bit. Denn die bit-Zahl (Grauabstufungen) ist nur die technische Skala, die für ein Bild angeboten wird. Wichtig für ein gutes (HDR-)Bild ist die tatsächlich vorhandenen Abstufungen, nicht das Maß der Skala. Natürlich wird ein mit der HDR-Kamera aufgenommenes Foto normalerweise besser sein - aber 16bit = automatisch besser; ist falsch! Der technische Hintergrund sind die (tatsächlichen) Grauabstufungen. Ein Artikel ohne diesen Zusammenhang ist schlicht unvollständig.
Die Artikel in Wikipedia dienen als Nachschlagewerke in den unterschiedlichsten Lebenssituationen. Bei diesen Artikel liegt die Bandbreite bei Begriffserklärung, Argument für Kamerakauf, Lernen u.v.a. Auch die Bandbreite der Menschen und ihr Wissenshintergrund ist sehr unterschiedlich. In der jetzigen Form ist es positiv gesprochen irreführend, negativ gesprochen falsch.
Ab sofort werde ich mit Interesse weiter verfolgen, was bei diesem Artikel passiert. Weitere Argument-Austauscherei halte ich aber für sinnlos. Die Diskussion ist leider zu theoretisch - in der täglichen praktischen Arbeit hat HDR mehr Facetten als nur Kontrastumfang. Findet selbst euren Denkfehler oder lasst es sein - mit freundlichen Grüßen -- Friedrich Graf 18:48, 29. Jun. 2009 (CEST)
HDR selbst ist doch nur die technische Lösung eines Problems.
Eine höhere Graustufenauflösung ist rein technisch gesehen selbstverständlich besser. Das ändert sich doch nicht dadurch, dass bei gegebenem Ausgangsmaterial diese hohe Auflösung eventuell nicht genutzt wird. Das liegt nicht am Verfahren selbst.
Um einen Vergleich zu nehmen, der technisch ähnlich ist, können wir die bit-Auflösung von Klangdaten nehmen. Auch dort ist es möglich, dass eine Audioaufnahme mit linearer 8-bit-Auflösung besser klingt als eine 16-bit-Aufnahme, die schlechtes "Ausgangsmaterial" nutzt. Das ist dennoch kein technisches Argument gegen 16-bit-Auflösung. Das ist nur ein Argument gegen schlechte Aufzeichnungsverfahren, schlechte Mikrofone usw. Genau darum geht es mir. Das „Maß der Skala“ ist in diesem Fall gleichbedeutend mit der ralisierbaren Qualität des Signals - mal von Rauschen usw abgesehen, was natürlich auch für 8 bit gilt. Gerade deswegen gibt es ja die Erfinding des noise-shapings, um das 8-bit-Quantisierungsrauschen in weniger hörbare Frequenzen zu verschieben - um die Mängel der niedrigen bit-Auflösung zu kaschieren.
Es spricht doch nichts dagegen, in den Artikel auch Hinweise darauf einzuflechten, was beachtet werden muss, um die Möglichkeiten höherer bit-Aufösungen auch sinnvoll zu nutzen. Dies sollte allerdings nicht in die Erläuterung der rein technischen Aspekte stattfinden.
Natürlich wird ein mit der HDR-Kamera aufgenommenes Foto normalerweise besser sein - aber 16bit = automatisch besser; ist falsch! Der technische Hintergrund sind die (tatsächlichen) Grauabstufungen. Ein Artikel ohne diesen Zusammenhang ist schlicht unvollständig.
Ich gehe davon aus, dass ein 16-bit-fähiges CCD nicht nur die halbe bit-Zahl nutzt und den Rest einfach verwirft. Die effektive bit-Breite ist im Regelfall niedriger, das liegt z.B. am Bildrauschen, Dunkelstrom (dark current), fertigungsbedingten Unregelmäßigkeiten usw. Doch das selbe Problem betrifft auch niedrigere bit-Zahlen.
Welchen Zusammenhang meinst du genau? Ich rede doch von den Grauabstufungen. Mit niedrigerer Graustufenauflösung sind auch automatisch weniger Graustufen erfassbar, oder habe ich da etwas grundsätzlich verpasst?
-- Al'be:do 11:26, 30. Jun. 2009 (CEST)

Konsumer-Kameras mit "Schmalspur-HDR"

Habe der Vollständigkeit halber unter "HDR-Kameras" zur Finepix F200EXR noch die Ricoh CX1 dazugeschrieben.

Mein Vorschlag wäre allerdings, diese beiden Kameras ganz aus der Rubrik "HDR-Kameras" herauszunehmen und statt dessen eine eigene Rubrik wie z.B. "(Consumer-)Kameras mit erweitertem Dynamikbereich" zu erstellen.

Begründung:

  • Es sind keine echten HDR-Kameras - es können nur LDR-Bilder erzeugt werden.
  • Vermutlich werden weitere Kameras in diesem Segment folgen.
  • Die Kameras in diesem Segment unterscheiden sich start hinsichtlich Technologie, Preis, Bedienung, Zielpublikum von den anderen genannten HDR-Kameras.

In dem Netzwelt-Artikel wird übrigens ein wenig auf die technischen Unterschiede zwischen Fuji- und Ricoh-Lösung eingegangen: Die Aufteilung des Sensors bei Fuji (jeder zweite Pixel belichtet "heller") hat niedrigere Auflösung und größere Rauschneigung zur Folge. Das Anfertigen von zwei Bildern in Serie und Verrechnen zu einem Bild, wie von Ricoh praktiziert, stellt quasi eine lange Belichtungszeit dar und erhöht damit die Verwacklungsgefahr.

Vorteil dieser Consumer-Lösungen sind die einfache Bedienbarkeit (Kamera übernimmt die Arbeit) bei bezahlbaren Preisen.

Gruß David aka Freevoice. (nicht signierter Beitrag von 78.54.138.196 (Diskussion | Beiträge) 01:57, 16. Nov. 2009 (CET))

Fuji S3 / S5 ?

ich vermisse die erwähnung dieser kameras? die s5/s3 kann m.w. schon ~ den dyn.umfang des menschlichen auges abbilden (in RAW) und bereits seit jahren erähtlich (nicht signierter Beitrag von 193.171.244.120 (Diskussion | Beiträge) 14:20, 23. Nov. 2009 (CET))

dynamikumfang vs. quantisierung!!

Im Artikel unberücksichtigt bleibt, dass die erwähnten 256 abstufungen NICHTS!! mit dem dynamikumfang einer kamera zu tun haben. lediglich wie genau der vorhandene umfang abgebildet werden kann! (nicht signierter Beitrag von 193.171.240.108 (Diskussion | Beiträge) 13:24, 3. Mär. 2010 (CET))

Pentax k-7

Die Pentax K-7 ist ebenfalls in der Lage HDR Bilder zu erzeugen. Jedenfalls bin ich nicht über die genaue Technik im Bilde. --Maxfahrer 12:33, 28. Jun. 2010 (CEST)

Die Fuji-Kameras sind meines Wissens die einzigen im Consumer-Bereich, die tatsächlich mit einer Aufnahme einen höheren Dynamikumfang erzielen. Bei der Ricoh- (siehe oben) und Pentax-Lösung werden nur Belichtungsreihen aufgenommen und zusammengerechnet, der Bildsensor ist ein ganz gewöhnlicher. --Phrood 16:19, 28. Jun. 2010 (CEST)
Ja, das stimmt. Das Bild wird aus mehreren Bildern zusammengerechnet. Sollte das niecht erwähnt werden? --Maxfahrer 10:31, 6. Jul. 2010 (CEST)
Am Ende des Abschnitts "HDR-Kameras" wird darauf allgemein hingewiesen. Es handelt sich dabei um keine besondere Technik (genausogut kann man die Einzelbilder selbst anfertigen), und ist zu erwarten, dass es in Zukunft noch mehr Kameras gibt, die eine solche Funktion unterstützen, daher würde ich keine Modelle erwähnen. --Phrood 00:27, 7. Jul. 2010 (CEST)
Hmm, warum sollten solche Kameras hier nicht Erwähnung finden? Es ist doch gerade eine der Aufgaben eines Lexikons möglichst genaue Infos zu liefern und nicht nur vage darauf hinzuweisen, dass es noch andere gibt, die das können. Jedenfalls fände ich es äußerst nützlich, wenn hier die Modell ständen, die HDR-Bilder herstellen. Es würde den interessierten Nutzer eine Menge Recherche-Arbeit ersparen, der auf der Suche nach so einer Kamera ist. Vielleicht hilft hier ein "z.B.-Zusatz"? Richard Huber 13:06, 19. Okt. 2010 (CEST)
Eine Auflistung aller Kameras mit solchen Funktionen (meine k-x kann das auch) muß vollständig sein, sonst ist es POV. Ausnahme: Wenn irgendein Modell das erste ist, dann kann man das erwähnen, etwa in der Art "die blafoo gilt als erste DSLR, die 2008 eine HDR-Funktion... , andere Hersteller....". Eine vollständige Liste ist auch nur sehr schlecht wartbar und eine Kaufberatung machen wir an sich nicht. -- smial 13:17, 19. Okt. 2010 (CEST)
Eine vollständige Liste ist ja auch gar nicht wünschenswert. Es wäre schon ausreichend, wenn die aktuellen Modelle genannt würden. Oder so: "Ab dem Modell 34xx des Herstellers XY verfügen alle Kameras über den HDR-Modus.". Zum Punkt Kaufberatung: Wenn ich in Wiki erfahre, dass folgende x Kameras dieses Feature haben, dann ist das - meine ich - noch keine Kaufberatung. Es ist schlichte Information. Recherchieren muss dann der User immer noch selber. Richard Huber 13:28, 19. Okt. 2010 (CEST)
Ich weiß, daß ich mich überall mehr oder weniger vergeblich gegen diese Produktauflisterei wehre, bleibe aber trotzdem der Ansicht, daß, wenn überhaupt, nur Produkte mit belegbaren Alleinstellungsmerkmalen aufgeführt werden sollten. Nicht nur hier. Oder eben, umm POV zu verhindern, vollständige Auflistungen. Ich weiß nicht, welche Knipse als erstes kamerainterne HDR-Verarbeitung angeboten hat, die Canon G12 ist es wohl nicht gewesen, mithin fehlt dort das Alleinstelllungsmerkmal und mithin ist die Erwähnung POV. -- smial 14:35, 19. Okt. 2010 (CEST) (btw: Ich empfehle nachweislich gerade die G12 gerne allen, die eine vielseitige Kompakte mit Sucher und Blitzschuh und brauchbarer Bildqualität wollen, es geht also hier nicht gegen Canon)

Ich stimme smial zu. Meine Erfahrung ist, dass wenn man ein Produkt ohne Alleinstellungsmerkmal auflistet, etliche Benutzer weitere hinzufügen wollen. Deshalb sollte man sich auf diejenigen Modelle beschränken, die tatsächlich einen besondere HDR-fähige Sensoren besitzen. --Phrood 19:15, 19. Okt. 2010 (CEST)

RAW-Dateien normler DSLRs?

Ich stimme dem Artikel nicht zu im Punkt der Erzeugung: es ist auch möglich, mit normalen RAW-Dateien von handelsüblichen DSLRs HDR-Bilder zu erzeugen. Diese haben eventuell keinen so großen Kontrastumfang wie eine mehrstufige Belichtungsreihe mit großer Bandbreite, bieten aber dennoch eine größere Helligkeitsauflösung - und genau darum geht es ja. Der Artikel Rohdatenformat (Fotografie) stellt z.B. einen 7-Bit-Kanal einem 14-Bit-Kanal gegenüber, was schon ein drastischer Unterschied ist.

In der Praxis ist die Frage, ob ein RAW besser oder schlechter für die HDR-Erstellung ist eine Glaubensfrage - technisch gesehen steht der Möglichkeit, aus RAW ein HDR zu erzeugen aber erst mal nichts im Wege. --87.139.82.80 14:48, 4. Mär. 2011 (CET)

Die Aussage im Artikel lautet: "Die herstellerabhängigen, internen Dateiformate von Digitalkameras (Rohdatenformate oder Raw-Formate) bieten mit 10 bis 14 Bit pro Farbkanal eine etwas höhere Farbtiefe als gewöhnliche 8-Bit-Bilder, erreichen aber bei weitem nicht den Dynamikumfang von HDR-Bildern. Sie können noch als LDR-Formate[20] oder allenfalls als Medium Dynamic Range, Formate mit mittelgroßem Dynamikumfang, bezeichnet werden.[21]". Die Fachliteratur zählt Raw-Dateien also noch zu LDR oder MDR. Ich habe ergänzt, dass trotzdem eine Konvertierung möglich ist. --Phrood 02:25, 5. Mär. 2011 (CET)

Beispielbild "Igreja Nossa Senhora de Fatima"

Ich halte das Beispielbild (Gegenüberstellung von LDR und HDR) ganz am Anfang des Artikels für problematisch. Zum einen ist das LDR Bild einfach fehlbelichtet. In der Beschreibung steht, es wurde Auto Exposure benutzt. Mit einer Spotmessung der Innenwand hätte man sicher eine geeignetere Belichtung gefunden. Zum anderen sind in den kleinen Bildausschnitten, insbesondere im 4. von Links, starke Kompressionsartefakte zu sehen, die m.E. nichts mit LDR vs. HDR zu tun haben und hier nur irritieren. --78.52.99.85 10:24, 9. Apr. 2011 (CEST)

Das stimmt natürlich. Der Sinn des LDR ist hier aber eher, zu zeigen, dass mit einem LDR-Bild Über- und Unterbelichtungen entstehen. Dazu reicht das vorhandene Bild. Die RAW-Dateien ohne Artefakte liegen mir nicht vor, vielleicht wären die unveränderten Ausschnitte ohne Helligkeitsänderung für das LDR-Bild besser geeignet. --Phrood 19:04, 14. Apr. 2011 (CEST)
Zumindest wurden die irritierenden LDRI-Bildausschnitte jetzt entfernt. --Phrood 14:58, 30. Apr. 2011 (CEST)

Photoshop

Zitat aus dem Artikel: In Photoshop ist es ab der Version CS5 nicht mehr nötig, die Einzelbilder mit dem Stativ anzufertigen, selbst größere Abweichungen werden von der Software gefiltert.

Ich vermute mal, dass auch ein sündhaft teures Programm wie PS keine "Wunder" zu vollbringen vermag, das heißt, dieses Ausgleichen von Abweichungen muss durch andere Abstriche erkauft werden; möglicherweise nämlich durch gewisse Verzerrungen an Objekten im Bild, wie sie auch beim Stitchen von freihand geschossenen Panoramen mit guten Panoramaeditoren entstehen.

Wenn das zutrifft, wäre ein entsprechender Zusatz im Artikel nicht schlecht. - A.Savin 13:45, 24. Jan. 2012 (CET)

Irgendwas Derartiges konnte ich noch nicht beobachten, habe auch noch nichts in Testberichten gelesen. --Marcela 14:21, 24. Jan. 2012 (CET)
Hmm, und hast du eine Idee wie das möglich ist? A.Savin 15:17, 24. Jan. 2012 (CET)
Die Panoramafunktion von CS5 ist sowas von genial geworden, wahrscheinlich wird das dabei mit verwendet. Beim normalen Panoramarechnen wird ein ziemlich weitreichender Tonwertabgleich gemacht, schon fast sowas wie HDR-light. Also spielen die Komponenten irgendwie zusammen. Ich vermute, die Objektivkorrektur spielt auch mit in dieser Liga. Da diese ständig neue Objektive und Kameras kennenlernt, lernt sie auch hinzu, man merkt das förmlich. Nagelneue Objektivmodelle kennt CS5 nicht, nach einigen Wochen sind sie in der Liste und Ergebnisse in den genannten 3 Modulen auch bedeutend besser. --Marcela 15:48, 24. Jan. 2012 (CET)

Welche Höchstzahl an Bildern darf eine Belichtungsreihe zur Erstellung eines HDR-Bildes haben? Drei als Minimum, das ist mir bekannt. Dürfen es aber auch - überspitzt ausgedrückt - hunderte sein? Vielleicht kann mir die Autor/Mitautor darüber Auskunft geben. Danke pkschuler@bluewin.ch 01.08.2013 (nicht signierter Beitrag von 178.198.116.72 (Diskussion) 10:43, 2. Aug. 2013 (CEST))

Das ist eher von den Fähigkeiten der Kamera begrenzt, unendlich viele3 Bilder in einer Belichtungsreihe gehen nicht. Ich habe mal einen Test mit 15 Einzelbildern gemacht, das geht. Ist aber nicht sinnvoll, das Ergebnis wird nicht besser als bei 5. --M@rcela ¿•Kãʄʄchen•? 11:25, 2. Aug. 2013 (CEST)

> > Danke für die Antwort. Ich habe die Frage, d.h. deren "Hintergründigkeit" unklar formuliert. Kann eine Software mehrere Belichtungsreihen von je 3 oder 6 Aufnahmen zu einem einzigen HDR zusammenfügen? Mögliche Motive: Nächtliche Gewitter oder andere Phänomene, bei denen mehrere Ereignisse (erwünschte Geisterbilder) über Minuten hinweg eingegangen, addiert werden sollten. Gruss von Peter, 3. August 2013 (nicht signierter Beitrag von 178.198.116.72 (Diskussion) 08:28, 3. Aug. 2013 (CEST))

Wenn man nicht aufpaßt und falsche Bilder gruppiert, dann werden die (aber nicht immer) zusammengerechnet. Für solche Sachen ist dann aber HDR Projects Platin deutlich besser geeignet. --M@rcela ¿•Kãʄʄchen•? 08:40, 3. Aug. 2013 (CEST)

Warum schreitet hier niemand ein?

Die Zahlenangaben in diesem Artikel sind durch keinerlei Belege oder Quellen hinterlegt! Zudem erscheinen sie höchst zweifelhaft. Da ist z.B. von Datenformaten die Rede, die Bereiche von mehr als 70 Größenordnungen überdecken. Was sollte man damit anfangen? Wie sollte man das Darstellen? Etwa mit Ausdrucken oder mit einem Monitor dessen Hintergrundbeleuchtung aus 10^68 Lichtbogen-Lampen besteht?

Solche Artikel bilden die Grundlage für den schlechten Ruf von Wikipedia! (nicht signierter Beitrag von 91.6.80.193 (Diskussion) 17:40, 23. Okt. 2015 (CEST))

Hier hat jemand fast nichts begriffen:
  • Wikipedia beschreibt, was diese Dateiformate als maximale Dynamik abspeichern können. Wenn es 5000 Größenordnungen sind, haben dort 5000 Größenordnungen (16000 Blendenstufen) zu stehen.
  • Ein Dateiformat ist gut designt, wenn man in der Praxis keine Rücksicht auf Beschränkungen nehmen muss. Es ist eine gute Idee, das unter allen Umständen niemals die minimal mögliche Helligkeit des Formats unterschritten wird und niemals die maximal mögliche Helligkeit überschritten wird. Hubble beginnt bei etwa 3·10−16 cd/m², Bogenlampen gehen bis etwa 1010 cd/m². Das sind 26 Größenordnungen. Das ist nicht mehr so weit von den 76 Größenordnungen von einfach genauen Gleitkommaformaten entfernt. Das Gleitkommaformat mit halber Genauigkeit ist schon überfordert (kann keine Helligkeiten oberhalb von 65000 cd/m² abspeichern).
  • Ein Teil der Formate sind an Datentypen gekoppelt, die vom aktuellen CPUs/GPUs unterstützt oder relativ gut unterstützt werden. Daraus ergeben sich 80 Größenordnungen (256 Blendenstufen), da float einen 8 bit Exponenten hat bzw. separat abgespeicherte Exponenten als Byte abgespeichert werden und damit 8 bit breit sind.
--2003:78:8D13:F300:C1C7:8A94:D8C8:4557 14:11, 8. Aug. 2017 (CEST)