Post
by Homerclon » Thu, 31. Dec 20, 07:28
Falls ich es nicht übersehen/vergessen habe, dann bietet X4 keine HDR-Untertützung. Also nein, bringt (quasi) nichts.
Wenn HDR, dann sollte man Monitore mit G-Sync Ultimate oder Freesync Premium Pro (bei älteren Modellen "Freesync 2") nutzen, denn bei HDR-Bildschirmen ohne dieses Feature, würde sonst der Inputlag (Eingabeverzögerung) höher ausfallen. Die meiste Zeit in X kein Problem, aber im Dogfight möchte man ein geringen Inputlag.
Bei Bildschirmen mit HDR die kein G-Sync Ultimate oder Freesync Premium Pro unterstützen, würde sonst erst von der GPU HDR berechnet werden, und nachdem das fertige Bild an den Bildschirm gesendet wurde von selbigen nochmal HDR angewendet werden. Selbst wenn man HDR bei der GraKa-Berechnung abschaltet, würde durch den Bildschirm trotzdem ein höherer Inputlag verursacht werden, denn alles was am Bild verändert wird nachdem die GraKa es fertig berechnet hat, erhöht den Inputlag.
Farbtiefe: Die Angaben beziehen sich auf die Farbabstufungen pro Farbkanal in Bit, daher auch bpc (Bit per Channel). Oftmals auch nur Bit genannt.
Mit Kanäle sind die Farben Rot, Grün, Blau und Alpha (Transparenz) gemeint. Bei 8 Bit pro Kanal sind das 32 Bit insgesamt, die heute übliche Farbtiefe. 8 Bit sind 256 Abstufungen.
Es gibt aber auch noch Monitore die beherrschen nur 6 Bit pro Farbkanal, viele davon simulieren zwei weitere Bit durch schnellen Wechsel zwischen zwei Abstufungen - dies wird Frame Rate Control (FRC) genannt. Solche Monitore mit 6 Bit + FRC (Alternativ als 6+2 bezeichnet) sollte man meiden, wenn man auch nur halbwegs Wert auf Bildqualität legt. Von Modellen die nur 6 Bit und kein FRC unterstützen, würde ich generell abraten, außer die Bildqualität ist einem egal und der Preis sehr niedrig.
FRC gibts auch bei Bildschirmen mit 8 Bit + FRC, um so 10 Bit zu erreichen. Nicht ideal, aber für den Privatgebrauch völlig ausreichend. Der Wert ohne FRC wird meist als der "Native" bezeichnet.
12 Bit kann man sich vorerst sparen, denn die Endkunden-Grafikkarten sind auf 10-Bit begrenzt. Ob nur Software-Seitig oder anderweitig, weiß ich nicht, aber 10 Bit wurde erst vor 1-2 Jahren für die Endkunden-GraKas per Treiber freigeschaltet.
Will man HDR nutzen, sollte der Monitor schon 10 Bit beherrschen, ob mit oder ohne FRC ist nicht kritisch. Bei TVs ist für HDR AFAIK 10 Bit vorgeschrieben, Abkürzung lautet HDR10. Hinweis: HDR10+ ist kein Nachfolger oder Erweiterung, sondern ein anderer Standard. Bei HDR10+ wird dynamisch von Bild zu Bild angepasst, anstatt einmalig für den gesamten Film. HDR10+ muss vom Film natürlich auch unterstützt werden, sonst gibts keine Dynamische Anpassung.
Des weiteren gibts Dolby Vision, das bis zu 12 Bit unterstützt. Im Gegensatz zu HDR10 und HDR10+ müssen die TV-Hersteller dafür eine Lizenzgebühr zahlen, daher wird man Dolby Vision eher nicht bei den günstigen Modellen finden.
Manche Monitore Werben auch mit Unterstützung für HDR10.
Wichtig bei HDR ist auch eine hohe Leuchtkraft. HDR bei Monitore wird in HDR400, HDR600 und HDR1000 unterteilt, was für die unterschiedlichen Anforderungen an die Leuchtkraft steht. HDR400 soll kein nennenswert sichtbaren Vorteil ggü. SDR (also kein HDR) bieten - hatte leider noch keine Gelegenheit dies selbst zu beurteilen. Ab HDR600 kann man immerhin schon mal ein Eindruck davon bekommen, wenn man es ernst meinen sollte es HDR1000 sein. Monitore mit HDR1000 sind recht wenige auf den Markt, und ziemlich teuer.
Während für HDR400 noch Edge-LED (die LEDs zur Hintergrundbeleuchtung sind am Bildschirmrand angebracht - erlaubt sehr dünne Bildschirme) ausreicht, braucht es für HDR1000 eine großflächige Verteilung der LEDs hinter dem Display, auch als "Full Aray LED" oder "direct LED" bezeichnet. Durch Local Dimming kann dann gezielt einzelne Bildbereiche dunkler oder heller dargestellt werden, und ein hervorragender Kontrast erreicht werden.
Ideal wären selbstleuchtende Panels, wie bspw. Plasma oder OLED. In Zukunft kommt da noch µLED hinzu, das Vorteile ggü. Plasma und OLED hat. OLED kommt vor allem bei Smartphones und Tablets zum Einsatz, gibt auch viele TVs damit, aber an Monitore gibts fast keine (iirc 1 Modell). Plasma gibts nur bei TVs, haben aber hohe Stromkosten und brennen leicht ein, sind für den PC-Einsatz daher schlecht geeignet. Man will sicherlich keinen mehrere Tausend € teuren TV nach wenigen Jahren wegwerfen müssen, nur weil sie die Startleiste von Windows eingebrannt hat.
- 01100100 00100111 01101111 01101000 00100001
- Nur DL-Vertrieb? Ohne mich!