Hallo zusammen! Bei TV Geräten kommt ja so langsam das Thema HDR in Fahrt. Und mal ehrlich: es wurde auch Zeit ;-) Die Farbdarstellung mit 8Bit für R, G, und B ist ziemlich überholt, und liefert gerade auf den heutigen Displays keine überzeugendes Ergebnis mehr. Besonders gut sieht man das ja z.B. bei Farbverläufen. Beispiel: ein einfacher Verlauf von Schwarz nach Hellgrün erzeugt auf einem 4k Display 16 Pixel breite Streifen... Wie viel mehr Farbinformation in einem Bild stecken kann, zeigen aktuelle Kameras, die HDRs (z.B. mit 16 Bit Farbtiefe) aufnehmen können. Da wäre es doch schön, wenn Monitore das auch gleich so abbilden könnten. Und da TV Geräte ja momentan in diese richtung entwickelt werden, sollte es bei PC Monitoren ja auch nur eine Frage der zeit sein, oder? Weiß jemand wie es mit der Unterstützung durch Grafikkarten und Betriebssysteme aussieht? Kämen die out-of-the-box mit 48 Bit farbtiefe zurecht? (Ich vermute mal nicht?)
http://heise.de/-2612003 http://www.heise.de/ct/ausgabe/2015-10-Eingeschraenkte-Farbwiedergabe-beim-Mac-Pro-2603964.html Geht bei Windows schon lange. Beim Mac verbietet das Betriebsystem sowas, auch wenn Hardware und Treiber eigentlich geeignet wären. Vermutlich kommt irgendwann in 5 Jahren die Keynote: "Wir haben da was ganz neues erfunden, das ihre Sicht auf die Welt revolutionieren wird". Wie gut, dass es heute noch keine Grafiker gibt, die an Macs arbeiten ;)
Planlos schrieb: > Geht bei Windows schon lange. Hat sich aber nicht wirklich durchgesetzt, oder? Welche Grafikkarten unterstützden das? Warum wird nicht damit geworben? Welche Anwendungen können das nutzen? Gerade für Spiele müsste das Thema doch hochgradig spannend sein. Warum stehen immer nur die hohen Auflösungen (4k, 8k..) im Fokus? Planlos schrieb: > Vermutlich kommt irgendwann in 5 Jahren die Keynote: > "Wir haben da was ganz neues erfunden, das ihre Sicht auf die Welt > revolutionieren wird". WENN Apple so ein Thema angeht, dann werden sie vermutlich gleich ein komplettes HW + OS + API + Apps Update für all ihre Platformen raushauen, und das an die ganz große Glocke hängen. Hat den Vorteil, dass es für den Kunden sichtbar/interessant wird, und gleich alle Entwickler mit an Bord kommen. Ist ja mit den Retina-Displays ähnlich gelaufen... Insofern: lieber erst mal abwarten, aber das Thema dann mit voller Kraft durchsetzen ;-) Beim PC hingegen dümpeln soclche Sachen Jahre lang vor sich hin. Beispiel Retina: Obwohl Windows schon seit Jahren high DPI unterstützt, kommen gefühlte 80% aller Programme nicht richtig damit klar oder sehen zumindest sche**e aus. Das scheint auch niemanden wirklich zu interessieren. Wer hingegen eine OSX Anwendung veröffentlicht, die mit Retina nicht klarkommt, wird sofort an den Pranger gestellt ;-)
:
Bearbeitet durch User
Boris P. schrieb: > Hat sich aber nicht wirklich durchgesetzt, oder? Bei den Grafikern schon. > Welche Grafikkarten unterstützden das? NVIDIA (Seit ~2011?) und ATI (seit 2013?) Evtl. aber per Treiber auf die "nicht-Gamer"-Modelle beschränkt. > Warum wird nicht damit geworben? Wird doch. Nur eben nicht in Gamer-Magazinen. > Welche Anwendungen können das nutzen? Photoshop z.B.. Und damit werden schon 90% der Zielgruppe erreicht. > Gerade für Spiele müsste das Thema > doch hochgradig spannend sein. Nein. Für Spiele ist 4K und adaptive Framerate, ("G-Sync" etc) viel, viel, viel, viel interessanter. Welchen Spieler interessiert schon eine kleine Kante im Schattenverlauf, die für 1/60 sekunde im Augenwinkel sichtbar wäre?
Planlos schrieb: > Welchen Spieler interessiert schon eine kleine Kante im Schattenverlauf, > die für 1/60 sekunde im Augenwinkel sichtbar wäre? Hier mal ein Beispiel aus Witcher 3. Ich finde, dass das die Atmosphere ziemlich kaputt macht... Und es geht ja nicht nur darum, Artefakte wie dieses zu vermeiden. Die Qualität der Grafik könnte damit massiv angehoben werden. Ich stelle mir das ähnlich beeindruckend wie den Schritt von SD- auf HD-Auflösungen vor.
HDR und hohe auflösung in farbrichtung (gegen color banding) haben bei einem display nichts miteinander zu tun. Das problem bei echtem hdr ist die wahnsinnig hohe benötigte helligkeit der hintergrundbeleuchtung. Die untere grenze ist durch die umgebung vorgegeben so dass es nur nach oben gehen kann. Sinn dieser sache? Man würde geblendet Und das auge müsste sich anpassen. Ob das irgendwie erstrebenswert ist muss jeder für sich entscheiden.
Boris P. schrieb: > Hier mal ein Beispiel aus Witcher 3. Das ist dann aber einfach nur schlecht gemacht. Mit JPG-Dateien (die nur 8 Bit Farbtiefe haben) lassen sich durchaus Farbverläufe wie den Himmel wiedergeben, ohne daß es zu diesen "banding"-Effekten kommt. Die Anforderungen an "Gamer"-Hardware steigen jedenfalls beständig; wenn Monitore mit mehr als 8 Bit Farbtiefe eingesetzt werden, muss natürlich der ganze Rest nachziehen. Und dann werden 1kW-Netzteile im Kinderzimmer die Regel, und nicht mehr die Ausnahme sein.
karl schrieb: > HDR und hohe auflösung in farbrichtung (gegen color banding) haben bei > einem display nichts miteinander zu tun. Da kann ich dir nicht ganz folgen. Für mich ist HDR = hohe Farbauflösung (>= 10 Bit pro Kanal?). Hab ich da was falsch verstanden? karl schrieb: > Das problem bei echtem hdr ist die wahnsinnig hohe benötigte helligkeit > der hintergrundbeleuchtung. Auch das leuchtet mir auf Anhieb nicht ein. Es braucht viele Abstufungen zwischen Weiß und Schwarz, aber mit den Absoluwerten hat das doch nichts zu tun? BTW: Hab gerade gelsen, dass "Alien: Isolation" tatsächlich Deep Color unterstützt. Es geht also doch was ;-)
:
Bearbeitet durch User
Boris P. schrieb: > Für mich ist HDR = hohe Farbauflösung (>= 10 Bit pro Kanal?). Hab ich da > was falsch verstanden? Ja. HDR steht primär für hohen Dynamikumfang. Hohe Farbauflösung kann den mit sich bringen, muss aber nicht unbedingt.
Boris P. schrieb: > Kämen die out-of-the-box mit 48 Bit farbtiefe > zurecht? (Ich vermute mal nicht?) OpenGL und DirectX an sich können generell auch bis 32bit Farbtiefe pro Komponente (auch für Alpha-Kanal). Beim Mac fehlt der entsprechende Support in der OpenGL-Implementierung allerdings. Bei Windows ist es Sache des Grafikkartentreibers: Die Windows-eigene OpenGL-Implementierung wird praktisch nur dann wirklich genutzt, wenn der Grafikkartentreiber selbst keine eigene OpenGL-Implementierung mit bringt (was allerdings praktisch nie der Fall ist). Die Windows-eigene OpenGL-Implementierung dient praktisch hauptsächlich als Loader für den echten OpenGL-Treiber ;D Die tatsächlich möglichen Farbtiefen hängen natürlich noch vom Display und der eingesetzten Schnittstelle ab.
HDR bedeutet in der Fotografie (da, wo der Begriff herkommt), Aufnahmen mit extrem hohem Tonwertumfang zu machen, d.h. mit extremer Helligkeit UND perfekter Tiefe (quasi Null Helligkeit). Da bisherige Bildesensoren das nicht beherrschen, behilft man sich damit, diesen großen Tonwertumfang aus mehreren Belichtungen (Aufnahmen) zusammenzusetzen. Eine überbelichtete Aufnahme (helle Bildteile unbrauchbar) stellt aber die eigentlich sonst in Finsternis versinkenden dunklen Bildteile ganz gut dar. Eine unterbelichtete Aufnahme (dunkle Bildteile unbrauchbar) stellt aber die eihenlich sonst hell überstrahlten Bildteile (z.B. Himmel und Wolken) ganz gut dar. Also werden die jeweils gut dargestellten Bildpartien aus mindestens zwei solcher Aufnahmen zu einer neuen Aufnahme per Software zusammengesetzt. DAS ist HDR. In wie viele Stufen man den Bereich zwischen Minimum und Maximum einteilt, nennt sich Farb- oder Tonwertauflösung, aber nicht Density (das"D" in HDR, das steht für optische Dichte) und hat Nchts mit dem Begriff HDR zu tun. Bei Fernsehern wird übrigens viel öfter an der Bitzahl des verbauten Pufferspeichers gespart als an der Technologie des Diplays.
:
Bearbeitet durch User
Boris P. schrieb: > Auch das leuchtet mir auf Anhieb nicht ein. > Es braucht viele Abstufungen zwischen Weiß und Schwarz, aber mit den > Absoluwerten hat das doch nichts zu tun? Was ist schwarz und was ist weiß? Warum kann ein beamer schwarze pixel auf einer weißen wand darstellen? Weil er die weißen pixel so hell macht, dass für das auge die normale unbeleuchtete wand schwarz erscheint. nennen wir die kleinste wahrnehmbare Helligkeit 1. Dann ist die größte vom auge erfassbare helligkeit 100.000.000. Nur kann auch das auge das nicht gleichzeitig, sondern zwischen aktuellem schwarz und weiß muss ein faktor 1000 liegen. Dafür sorgt das auge durch verstellen der pupille. Wenn ich nun ein bild mit dem genannten dynamikumfang berechne und es am bildschirm 1:1 ausgeben möchte, muss mein monitor entsprechend hell sein. Der schwarzwert wird von der Umgebung bestimmt. Siehe beamer. Das auge würde sich anpassen und einen angemessenen dynamikbereich wählen. Will man das? gehe von der außenwelt in eine höhle und warte zehn Minuten sich deine augen angepasst haben? Was braucht man wirklich? So genanntes tone-mapping, das die helligkeitsinformation in darstellbare farben umrechnet. Mit der ganzen künstlerischen freiheit wie es sich für ein spiel gehört. Hier wird die dynamikbereichsanpassung des auges erledigt, inkl überstrahleffekten und was man sich so vorstellen kann. Genau das macht der photoshopper wenn er aus unterschiedlich belichteten bildern den jeweils künstlerisch besten dynamikbereich wählt. So richtig viel luft ist bei monitoren imo nicht, weil das auge annähernd logarithmisch arbeitet. Geringe sehbare dynsmikerhöhung kostet richtig Viel helligkeit. Da scheint die erhöhung der farbauflösung einfacher und billiger. Natürlich ist meine darstellung vereinfacht, der weißabgleich des hirns unterschlagen und die Rechtschreibung schlecht. Schreibe am handy.
Bitte melde dich an um einen Beitrag zu schreiben. Anmeldung ist kostenlos und dauert nur eine Minute.
Bestehender Account
Schon ein Account bei Google/GoogleMail? Keine Anmeldung erforderlich!
Mit Google-Account einloggen
Mit Google-Account einloggen
Noch kein Account? Hier anmelden.