Forum: PC Hard- und Software 4k-TV am PC mit 2 Kabeln betreiben: kürzerer INPUTLAG?


von Chris D. (chrisdee)


Lesenswert?

Hallo Leute,

da hier im Forum viele Leute mit technischen Know-how sind, könnt ihr 
mir gewiss weiterhelfen. :)

Ihr kennt doch bestimmt den Inputlag, wenn man den PC an einem (4k)-TV 
anschließt? Grob gesagt: eine Verzögerung zwischen Mausbewegung und 
Darstellung am Bildschirm. Hier mal ein Extrembeispiel, um das zu 
verdeutlichen:
https://www.youtube.com/watch?v=IQrcne-F6sM

Dieser TV wäre somit zum arbeiten und spielen eher ungeeignet. Man kann 
zwar noch Einstellungen zur Verbesserung vornehmen, aber darum geht es 
hier nicht.

WORUM es mir geht:
Es gibt ja einige 4k-TV's mit denen man 2 (oder auch 4) Quellen parallel 
(!) betreiben kann. Kann man nun den Inputlag dadurch verkürzen 
(halbieren?), indem man den PC über 2 anstatt einem Kabel betreibt? Also 
mit 2x 3840x1080 oder 2x 1920x2160.

Hat das vielleicht mal irgendwer praktisch getestet?

: Verschoben durch Admin
von andi6510 (Gast)


Lesenswert?

nein, kann man nicht.

die Zeitverzoegerung kommt durch die Bildverbesserungsalgorithmen im 
Fernsehgeraet zustande. Nicht durch den Uebertragungsweg.

Jeder moderne Fernseher hat einen "Game" Modus mit dem sich diese 
Algorithmen weitgehend abschalten lassen und somit auch kaum noch Latenz 
auftritt.

von Chris D. (chrisdee)


Lesenswert?

Danke.

Aber das müsste doch möglich sein, oder liege ich da falsch?

VGA, DVI, HDMI sind doch serielle Schnittstellen?! Wenn nun der PC das 
Signal zerlegt und über 2 Kabel zum TV schickt, dann hat doch der TV 
direkt 2 Pixel, die er verarbeiten kann. Dann könnte er doch das Bild 
gleichzeitig oben und unten (2 Zeilen) bzw. rechts und links (2 
Halbzeilen) aufbauen ?! Aufbauen: so ähnlich wie der Elektronenstrahl 
beim CRT.

Oder braucht der TV für die Bildverbesserungsalgorithmen ein komplettes 
Bild (3840x2160)? Aber auch hier sollte der TV, durch die parallele 
Signalübertragung, das komplett Bild schneller haben.
Bei einer Übertragungsfrequenz von 60Hz hat der TV ein komplettes Bild 
in 16,66ms, bei einer parallelen Übertragung in 8,33ms, oder liege ich 
da falsch?


Hier noch ein paar Anhaltspunkte zum Inputlag für Nichtzocker :)
<30ms         Sehr guter Wert
30...100ms    Akzeptabel
>100ms        nicht gut zum arbeiten und spielen
150-230ms     in dem Youtube-Video

von Chris D. (chrisdee)


Lesenswert?

Einen Penny für eure Gedanken!

von spontan (Gast)


Lesenswert?

Und was an der Erklärung von andi6510 paßt dir nicht in den Kram????

>die Zeitverzoegerung kommt durch die Bildverbesserungsalgorithmen im
>Fernsehgeraet zustande. Nicht durch den Uebertragungsweg.


>Aber das müsste doch möglich sein, oder liege ich da falsch?
SIehe Antwort von andi.

>VGA, DVI, HDMI sind doch serielle Schnittstellen?!
Gewagte These, wenn das Dein Fernsehr kann: Glückwunsch:

von Chris D. (chrisdee)


Lesenswert?

Hallo spontan, du hast den Beitrag nicht richtig gelesen!

>Und was an der Erklärung von andi6510 paßt dir nicht in den Kram????
Was soll denn diese Aussage????

von Frank K. (fchk)


Lesenswert?

Chris D. schrieb:

> Es gibt ja einige 4k-TV's mit denen man 2 (oder auch 4) Quellen parallel
> (!) betreiben kann. Kann man nun den Inputlag dadurch verkürzen
> (halbieren?), indem man den PC über 2 anstatt einem Kabel betreibt? Also
> mit 2x 3840x1080 oder 2x 1920x2160.

Nein. Die beiden Videoquellen laufen ja nicht notwendigerweise synchron, 
und so muss der Fernseher erst beide Halbbilder speichern und dann als 
ganzes Bild ausgeben.

fchk

von Rolf M. (rmagnus)


Lesenswert?

Chris D. schrieb:
> Es gibt ja einige 4k-TV's mit denen man 2 (oder auch 4) Quellen parallel
> (!) betreiben kann. Kann man nun den Inputlag dadurch verkürzen
> (halbieren?), indem man den PC über 2 anstatt einem Kabel betreibt? Also
> mit 2x 3840x1080 oder 2x 1920x2160.

Nein. Das macht man, weil die Schnittstelle nicht mehr hergibt und man 
zwei braucht, um die Daten überhaupt schnell genug übertragen zu 
bekommen. Mit einer geht's auch, aber nur mit 30 statt 60 Hz.

Chris D. schrieb:
>>Und was an der Erklärung von andi6510 paßt dir nicht in den Kram????
> Was soll denn diese Aussage????

Sie soll dir sagen, daß du eine Antwort erhalten hast, aber sie 
ignorierst:

andi6510 schrieb:
> die Zeitverzoegerung kommt durch die Bildverbesserungsalgorithmen im
> Fernsehgeraet zustande. Nicht durch den Uebertragungsweg.

Chris D. schrieb:
> Aber das müsste doch möglich sein, oder liege ich da falsch?

Du liegst falsch.

> VGA, DVI, HDMI sind doch serielle Schnittstellen?! Wenn nun der PC das
> Signal zerlegt und über 2 Kabel zum TV schickt, dann hat doch der TV
> direkt 2 Pixel, die er verarbeiten kann.

Der verarbeitet aber nicht jeden Pixel einzeln. Wenn das ganze Bild 
fertig ist, wird es angezeigt. Ob ich jetzt einmal schnell oder zweimal 
parallell, dafür aber jeweils halb so schnell übertrage, macht also 
keinen Unterschied.

> Aufbauen: so ähnlich wie der Elektronenstrahl beim CRT.

So funktioniert ein LCD aber nicht.

> Oder braucht der TV für die Bildverbesserungsalgorithmen ein komplettes
> Bild (3840x2160)?

Er braucht immer ein komplettes Bild. Die Algorithmen brauchen dann 
nach der Übertragung noch zusätzlich Zeit, um an dem Bild rumzurechnen 
und es zu ver(schlimm)bessern.

von Irgendwer (Gast)


Lesenswert?

Chris D. schrieb:
> GA, DVI, HDMI sind doch serielle Schnittstellen?! Wenn nun der PC das
> Signal zerlegt und über 2 Kabel zum TV schickt

Wenn du dir die von dir zitierten Schnittstellen mal genauer anschauen 
würdest, würdest du sehen das dort jetzt schon mehrere Kanäle zum 
Einsatz kommen um die benötigten Bandbreiten überhaupt transportieren zu 
können.

Dual-Link-DVI -> maximal 2560×1600 Bildpunkte bei 60 Hz
http://de.wikipedia.org/wiki/Digital_Visual_Interface

Ultra HD mit bis zu 60p ist ab HDMI 2.0 möglich mit drei Links
http://de.wikipedia.org/wiki/High_Definition_Multimedia_Interface#HDMI_und_Aufl.C3.B6sungen_oberhalb_von_Full_HD_und_HDMI_2.0


Wie du siehst ist das ganze also durchaus möglich, allerdings alleine 
schon um überhaupt die benötigten Datenmengen transportieren zu können.

Wenn du das noch selbst erweitern wolltest musst du dir nur mal eben 
eine neue Firmware für die Grafikkarte und den Fernseher schreiben, 
einige OS-Treiber anpassen und ggf. die Hardware etwas erweitern damit 
sie mit der Datenmenge überhaupt in der gegebenen Zeit verarbeiten 
kann:-)
Dann hast du eventuell eine etwas höhere mögliche Bildwiederholrate aber 
ob dadurch die Verzögerungszeit kürzer wird bleibt zu bezweifeln.

von Chris D. (chrisdee)


Lesenswert?

Irgendwer schrieb:
>Chris D. schrieb:
>> VGA, DVI, HDMI sind doch serielle Schnittstellen?! Wenn nun der PC das
>> Signal zerlegt und über 2 Kabel zum TV schickt
>Wenn du dir die von dir zitierten Schnittstellen mal genauer anschauen
>würdest, würdest du sehen das dort jetzt schon mehrere Kanäle zum Einsatz
>kommen um die benötigten Bandbreiten überhaupt transportieren zu können.
Das wäre also geklärt! DVI (Dual-Link) und HDMI sowie DisplayPort können 
also die Daten parallel übertragen. Wobei DVI kein UHD (3840 × 2160 
Pixel) schafft.

>Wie du siehst ist das ganze also durchaus möglich,
Es ist nicht nur "möglich", es ist zwingend erforderlich um einen 4k-TV 
mit UHD (3840 × 2160 Pixel) betreiben zu können!


Erklärt mir doch mal, warum der Übertragungsweg keinen Einfluss auf 
die Zeitverzögerung haben soll? Das heißt ja, das die Daten ohne 
Verzögerung übertragen werden, egal wie lang der Übertragungsweg ist!?

: Bearbeitet durch User
von derElf (Gast)


Lesenswert?

Der Übertragungsweg hat einen Einfluss auf die Verzögerung, nur ist der 
bei weitem nicht so groß wie du denkst.
HDMI 2.0 kann UHD mit 60 Hz Darstellen. Das bedeutet im Umkehrschluss 
das die Übertragung eines Bildes maximal 16,67 ms dauern darf und damit 
macht die Übertragung nur einen kleinen Teil deiner Latenz aus.

von Chris D. (chrisdee)


Lesenswert?

Aha, also hat der Übertragungsweg doch einen Einfluss auf die 
Zeitverzögerung!

16,67ms wäre aber schon ein großer Teil der Latenz (siehe Post 3).
<30ms       Sehr guter Wert
30...100ms  Akzeptabel
>100ms      nicht gut zum arbeiten und spielen
150-230ms   in dem youtube-Video

Das sind ja ca. 50% plus die 50% Bildverbesserungsalgorithmen um sehr 
gute Werte zu erreichen. Wenn man die Videodaten noch mehr 
"parallelisiert", so müsste man dann doch eine Verringerung der Latenz 
erreichen können! HDMI 2.0 hat 3 Datenleitungen und DisplayPort 1.3 
bereits 4.

Einige Behauptungen das ich damit falsch liege, stimmen somit nicht!

von anonymous (Gast)


Lesenswert?

Du liegst auch nicht gänzlich falsch. Der Übertragungsweg hat einen 
Einfluss auf die Verzögerung, allerdings ist dieser im Vergleich zur 
Bearbeitungszeit im TV der kleinste Teil.

Was denkst du warum es so wenig gescheite 4k PC Bildschirme gibt (für 
eine "normale" Geldbörse)?

von Thorsten (Gast)


Lesenswert?

Philips hat seit kurzem einen bezahlbaren (rund 750.-€) 40" 4k@60Hz 
Monitor im Angebot, über den kann ich mich eigentlich nicht beschweren.

von Rufus Τ. F. (rufus) Benutzerseite


Lesenswert?

Chris D. schrieb:
> Aha, also hat der Übertragungsweg doch einen Einfluss auf die
> Zeitverzögerung!

Nein, das hat "derelf" gründlich missverstanden. Insofern sind Deine 
weiteren Schlüsse komplette Trugschlüsse.

Aus der Bildwiederholfrequenz kann man nicht auf die maximale 
Verzögerung schließen - beide haben schlichtweg überhaupt nichts 
miteinander zu tun.

Der DVB-S-Satellit Astra befindet sich im geostationären Orbit, damit 
dauert der "roundtrip", also das Übertragen des Fernsehsignals von der 
Erdfunkstelle zum Satelliten und das Übertragen vom Satelliten zurück 
zur Erde fast 250 msec.

Der Radius des geostationären Orbit beträgt etwa 42000 km, davon muss 
man den Erdradius abziehen, woraus 36000 km resultieren. Wir kennen die 
Lichtgeschwindigkeit von etwa 300000 km, somit dauert die Übertragung in 
einer Richtung 120 msec.

Und trotzdem wird das Fernsehbild mit 50 Bildern pro Sekunde übertragen.

Jemand macht eine Aufnahme dieses Fernsehprogrammes auf einer DVD und 
schickt diese per Post nach Australien. Das dauert zwei Wochen ... an 
den 50 Bildern pro Sekunde ändert das nichts.

von Asko B. (dg2brs)


Lesenswert?

Thorsten schrieb:
> Philips hat seit kurzem einen bezahlbaren (rund 750.-€) 40" 4k@60Hz
> Monitor im Angebot, über den kann ich mich eigentlich nicht beschweren.

Hast Du dazu einen Link ?

Angestachelt vom Bildschirm meines neuen MacBook pro
hatte ich mit einem monitor von Medion geliebaeugelt.

http://www.medion.com/de/shop/pc-monitore-medion-70-9-cm-28-30017758a1.html

mit ca. 500€ fand ich den eigentlich "noch bezahlbar".

Gruss Asko.

von Chris D. (chrisdee)


Lesenswert?

@Rufus Τ. Firefly
Das mit DVB-S-Satellit ist ein gutes Beispiel, hat aber einen Hacken, 
das du nicht mit dem Satellit interagierst. Es findet keine 
bidirektionale Übertragung statt. Wenn du mit dem Fernglas den Mond 
betrachtest stört es dich ja auch nicht, dass die Bildinformation schon 
ca. 1,3s alt ist.

Die Lichtgeschwindigkeit beträgt etwa 300 000 km/s. Das Kabel hat eine 
Länge von 2m. Die Übertragungsgeschwindigkeit in der Kupferleitung ist 
etwa 3/4 Lichtgeschwindigkeit.
Um eine Information durch das 2m-Lange Kabel zu transportieren benötigt 
man (2m / 300 000 000 m/s x 3/4) 5ns.
FRAGE: Wie lange würde es theoretisch dauern um eine Information durch 
ein 300 000 000 m langes Kabel zu transportieren?
Der Einfluss des Übertragungsweg ist doch hier offensichtlich!


Schaut mal hier: 
http://de.wikipedia.org/wiki/Displayport#Daten.C3.BCbertragungsraten
DisplayPort 1.3 (15. September 2014) mit 810 MHz Symbolrate
 1 Leitung: 810 MByte/s (6,48 GBit/s): ausreichend für 2560×1600
 2 Leitungen: 1620 MByte/s (12,96 GBit/s): ausreichend für 3840×2160
 4 Leitungen: 3240 MByte/s (25,92 GBit/s): ausreichend für 5120×2880
Mit einer Verdoppelung der Leitung kann man doppelt so viele 
Informationen übertragen. Daher müsste entsprechend auch die 
Zeitverzögerung geringer werden.

anonymous schrieb:
>Der Übertragungsweg hat einen Einfluss auf die Verzögerung, allerdings ist
>dieser im Vergleich zur Bearbeitungszeit im TV der kleinste Teil.
Wie groß ist die denn nun? In Zahlen ausgedrückt?

@Thorsten
Wie hast du denn den Philips angeschlossen? HDMI, DisplayPort 
(Version?)?

von Rufus Τ. F. (rufus) Benutzerseite


Lesenswert?

Chris D. schrieb:
> Das mit DVB-S-Satellit ist ein gutes Beispiel, hat aber einen Hacken,
> das du nicht mit dem Satellit interagierst.

Mir ist schon klar, worauf Du hinauswillst, aber diese Interpretation 
ist trotzdem falsch:

> Mit einer Verdoppelung der Leitung kann man doppelt so viele
> Informationen übertragen. Daher müsste entsprechend auch die
> Zeitverzögerung geringer werden.

Da kannst Du wieder das Beispiel des Satellitenfernsehsenders 
herannehmen, wenn der zwei Programme gleichzeitig sendet (und man deren 
Bilder sinnvoll zu einem kombinieren könnte), ändert das exakt gar 
nichts an der Übertragungsdauer; der Satellit reduziert seinen Abstand 
nicht.

Und wie Dir bereits mitgeteilt wurde, sind die Anzeigeverzögerungen bei 
UHD-Displays nicht auf die Signalschnittstelle, sondern auf die im 
Monitor durchgeführten Bildoptimierungen zurückzuführen.

Wenn man den Monitor selbst konstruieren würde, bzw. die Elektronik 
zwischen HDMI/Displayport-Eingang und TFT-Panel selbst bauen würde, 
könnte man all diese Bildoptimierungen beiseitelassen (unter Verzicht 
auf die Fähigkeit der Bildskalierung und der Abtastratenanpassung), und 
damit die Verzögerung reduzieren.

Es ist durchaus denkbar, daß so etwas auch irgendwann von 
Monitorherstellern gemacht wird; um die Spielkinder zu befriedigen, 
wurden ja auch spezielle "Gamer"-Monitore mit sehr kurzen Bildwechsel- 
und Reaktionszeiten produziert (was den Monitorherstellern die Chance 
gab, grottige und sonst unverkäufliche TN-Panels nochmal zu versilbern).

Hacken ist übrigens ein anderes Wort für Ferse (hinterer Teil des 
Fußes), vermutlich meinst Du einen Haken.

von bluppdidupp (Gast)


Lesenswert?

(Ich finde bei DisplayPort speziell "Adaptive Sync" interessant)

von anonymous (Gast)


Lesenswert?

Chris D. schrieb:
> Wie groß ist die denn nun? In Zahlen ausgedrückt?

Hast du ja für mich bereits ausgerechnet :)

von Chris D. (chrisdee)


Lesenswert?

@anonymous
Meinst du die 5ns? In der Zeit ist das Signal von der Grafikkarte beim 
Bildschirm. Wir benötigen aber ein komplettes Bild - habe ich gelernt :) 
- dann greift erst der Bildverbesserungsalgorithmus und dann wird dieses 
Bild am Monitor dargestellt.

Das heißt also einmal den kompletten Datenstrom eines Bildes:
-UHD (3840 × 2160 Pixel) hat 8 294 400 Pixel
-Farbinformationen (3 Farben)
-Die einzelnen Signale brauchen eine bestimmte Länge, damit man sie 
unterscheiden/abtasten kann -> Übertragungsfrequenz
-Datenkomprimierung
-...

Rechne die Zeit doch bitte mal aus. Mal für eine Datenleitung und mal 
für mehrere Datenleitungen. Vielleicht können wir damit die Leute 
überzeugen, die der Meinung sind, dass das Signal in 0 Sekunden 
übertragen wird ;)

von Christian H. (ch-hunn)


Lesenswert?

Chris D. schrieb:
> Rechne die Zeit doch bitte mal aus. Mal für eine Datenleitung und mal
> für mehrere Datenleitungen. Vielleicht können wir damit die Leute
> überzeugen, die der Meinung sind, dass das Signal in 0 Sekunden
> übertragen wird ;)

Du kannst auch 1000 Datenleitungen nehmen, es wird nicht schneller.
Der PC sendet 60 Bilder pro Sekunde. Egal ob als Vollbild über eine 
Leitung, oder als 1/1000tel Teilbild über 1000 Leitungen. Es bleiben 60 
Bilder pro Sekunde. Einzig die Datenrate pro Leitung verringert sich, 
die gesamte Datenmenge bleibt gleich.
Erst wenn das Bild komplett am PC angekommen ist, also nach 1/60tel 
Sekunde, wird der Algorithmus angeworfen und das Bild wird angezeigt.

von Chris D. (chrisdee)


Lesenswert?

So, habe noch mal ein paar Nächte drüber geschlafen.

Christian Hunn schrieb:
>Erst wenn das Bild komplett am PC angekommen ist, also nach 1/60tel Sekunde,
>wird der Algorithmus angeworfen und das Bild wird angezeigt.
Du meinst Bildschirm anstatt PC?

So wie Christian Hunn das schreibt ist das sehr einleuchtend!

Die Bildwiederholfrequenz 
(http://de.wikipedia.org/wiki/Bildwiederholfrequenz) von 60 Vollbildern 
pro Sekunde begrenzt also die Schnittstelle. Da macht es dann wirklich 
keinen Sinn die Daten über mehrere Leitungen zu schicken, es seid denn 
die Menge an Videodaten käme über eine Leitung nicht mehr nach.

Also haben wir immer eine "Grund"-Verzögerung (Inputlag-Teil) zwischen 
der Signaleingabe (PC) und der Signalausgabe (Bildschirm) von 16,66ms 
bei der Bildwiederholfrequenz von 60Hz.
Hinzu kommt dann noch auf der Bildschirmseite: 
Bildverbesserungsalgorithmus, Pixel-Reaktionszeit, eventuell eine 
Skalierung, ...
und auf der PC-Seite: Eingabeverzögerung (Maus, Tastatur, Gamepad, ...), 
Software/Spiel (fps-Begrenzung, ...), ...

Wir bräuchten also eine höhere Bildwiederholfrequenz beim Bildschirm 
(und PC) um die "Grund"-Verzögerung weiter zu reduzieren.

Wenn das nun, was ich in dieser Antwort geschrieben habt, alles stimmt, 
dann ist die Frage im Titel beantwortet. Irgendwelche Einsprüche?


Weitere Quellen:
----------------------
http://en.wikipedia.org/wiki/Input_lag
http://en.wikipedia.org/wiki/Display_lag

: Bearbeitet durch User
von Christian H. (ch-hunn)


Lesenswert?

Chris D. schrieb:
> So, habe noch mal ein paar Nächte drüber geschlafen.
>
> Christian Hunn schrieb:
>>Erst wenn das Bild komplett am PC angekommen ist, also nach 1/60tel Sekunde,
>>wird der Algorithmus angeworfen und das Bild wird angezeigt.
> Du meinst Bildschirm anstatt PC?

Uups, ja klar meinte ich den Bildschirm :-)


>
> So wie Christian Hunn das schreibt ist das sehr einleuchtend!
>
> Die Bildwiederholfrequenz
> (http://de.wikipedia.org/wiki/Bildwiederholfrequenz) von 60 Vollbildern
> pro Sekunde begrenzt also die Schnittstelle.

Nicht unbedingt nur die Schnittstelle. Einerseits braucht die 
Grafikkarte auch eine gewisse Zeit, um die Bilddaten zu berechnen. Vor 
allem bei 3D Geschichten kann die Framerate weit unter 60FpS sinken. 
Dann werden halt eben die Bilder Doppelt an das Anzeigegerät gesendet. 
Übersteigt die berechenbare Framerate diejenige des Anzeigegerätes, 
werden umgekehrt Bilder ausgelassen.
Andererseits ist die Maximale Framerate natürlich auch vom 
angeschlossenen Anzeigegerät abhängig. LCD Pixel haben eine gewisse 
Trägheit. Da würde eine schnellere Ansteuerung eher eine 
Verschlechterung der Bildqualität bringen - Das Pixel kann in dieser 
kurzen Zeit nicht ein- oder ausschalten, somit geht der Bildkontrast 
verloren.
Bei günstigen DLP Beamern Z.B. wird ein einzelnes Bild in seine RGB 
Anteile zerlegt und nacheinander angezeigt. Die Drehgeschwindigkeit der 
Farbscheibe im Strahlengang gibt so die Framerate hart vor. Bei besseren 
Modellen mit drei DLP Modulen wird jede Farbe über ein eigenes Modul 
angezeigt. Hierbei wäre rein theoretisch eine höhere Framerate möglich, 
jedoch würde dies zu einer stark verminderten Helligkeit führen, da die 
Helligkeit eines Pixels durch die Einschaltdauer bestimmt wird - Analog 
zum PWM Dimmen einer LED.
Zuletzt noch das Menschliche Auge und Gehirn: Auch hier sind wiederum 
Grenzen der maximalen Bildfrequenz gesetzt.

hth
Christian

von Rufus Τ. F. (rufus) Benutzerseite


Lesenswert?

Christian Hunn schrieb:
> Die Drehgeschwindigkeit der Farbscheibe im Strahlengang gibt so die
> Framerate hart vor.

Das tun TFT-Panels übrigens auch, weil sie --von Ausnahmen abgesehen-- 
eh' fix mit 60 Bildern/sekunde angesteuert werden wollen.

Die Ausnahmen gibt es mittlerweile für den Einsatz in Fernsehern, damit 
eine bessere Bildwechselratenanpassung erfolgen kann, die können dann 
z.B. auch mit Vielfachen von 24 Hz angesteuert werden. Aber das sind 
eben fernseh-spezifische Dinge; Desktopmonitore oder die Displays in 
Notebooks machen so etwas üblicherweise nicht.

Was natürlich nicht ausschließen soll, daß für die "GamerZ"-Fraktion 
auch da technische Ausnahmen geschaffen werden, weil die ja bekanntlich 
allesamt Übermenschen sind, die viel reaktionsschneller als normale 
Menschen sind, Dinge viel schneller sehen können und für die alles 
andere "lagt". Diesen Leuten kann man dann natürlich neben 
innenbeleuchteten PCs und Tastaturen mit Arschgeweihstickern auch 
hundsmiserable TN-Panels mit geringen Verzögerungszeiten verkaufen. 
Vermutlich lassen sich die Weltraummonsterkilleraliens dann schneller 
abmurksen oder so.

von Chris D. (chrisdee)


Lesenswert?

Christian Hunn schrieb:
>LCD Pixel haben eine gewisse Trägheit.
Das habe ich auch gelesen. Von Werten von 1 bis 10ms war die Rede. Da 
macht es dann wirklich keinen Sinn die Bildschirme mit >120Hz 
anzusteuern.
Im Gegensatz dazu haben gute OLEDs eine Reaktionszeit von unter 0,001ms 
(http://www.chip.de/news/LG-zeigt-neue-4K-OLED-Fernseher-High-Tech-TVs-mit-WebOS-bald-fuer-alle_75409179.html), 
hier macht es dann wieder Sinn mit höheren Bildwiederholfrequenzen zu 
arbeiten.

Am Wochenende habe ich mal einen 27-Zoll-Monitor mit einem 40-Zoll-TV 
bei 1920x1080@60Hz verglichen. Im direkten Vergleich hat man eine 
deutlich höhere Verzögerung beim TV wahrgenommen. Über 100ms reagierte 
der TV langsamer als der Monitor (gemessen mit einer 
Hochgeschwindigkeitskamera bei 600fps). Den Bildverbesserungsalgorithmus 
am TV habe ich soweit es möglich war abgeschaltet. Habe mal spaßeshalber 
den TV mit 1920x1080@25Hz angesteuert: Ein totales geLAGe :)
Der TV ist nicht nur zum Spielen sondern auch zum Arbeiten ungeeignet. 
Filme über den PC schauen geht hingegen.

Die Auswahl an 4k-TV's mit einen geringen Inputlag ist sehr gering. Hier 
mal Vergleichstests:
http://www.displaylag.com/display-database

von Rolf M. (rmagnus)


Lesenswert?

Rufus Τ. Firefly schrieb:
> Die Ausnahmen gibt es mittlerweile für den Einsatz in Fernsehern, damit
> eine bessere Bildwechselratenanpassung erfolgen kann, die können dann
> z.B. auch mit Vielfachen von 24 Hz angesteuert werden. Aber das sind
> eben fernseh-spezifische Dinge; Desktopmonitore oder die Displays in
> Notebooks machen so etwas üblicherweise nicht.

Bei Destkop-Monitoren gibt es Systeme, die die Bildwiederholrate im 
Bereich von 30 bis 144 Hz dynamisch an die erzielte Framerate der 
Grafikkarte anpassen. Stichwörter sind G-Sync und FreeSync.

von Rufus Τ. F. (rufus) Benutzerseite


Lesenswert?

Normale Desktopmonitore sind das dann aber auch nicht mehr, sondern 
"Gamer"-Geräte.

von Rolf M. (rmagnus)


Lesenswert?

Rufus Τ. Firefly schrieb:
> Normale Desktopmonitore sind das dann aber auch nicht mehr, sondern
> "Gamer"-Geräte.

Richtig. In der ursprünglichen Frage ging es ja auch Monitore für's 
Spielen.

Bitte melde dich an um einen Beitrag zu schreiben. Anmeldung ist kostenlos und dauert nur eine Minute.
Bestehender Account
Schon ein Account bei Google/GoogleMail? Keine Anmeldung erforderlich!
Mit Google-Account einloggen
Noch kein Account? Hier anmelden.