Forum: PC Hard- und Software Computermonitor als Fernseher


von is hier egal (Gast)


Lesenswert?

Hallo, eignet sich ein Computermonotor mit HDMI-Anschluss als Fernseher?
An den HDMI-Anschluss kann man dann einen SAT-Reciver, BLURAY-Player, 
Chromecast-Stick, Raspberry oder was auch immer anschließen.

: Wiederhergestellt durch Admin
von Christian B. (casandro)


Lesenswert?

Bedingt, ja. Computermonitore sind in aller Regel nicht für bewegte 
Bilder optimiert, deshalb haben die weder "blitzende" 
Hintergrundbeleuchtungen oder Bewegungsinterpolation. Sprich das bewegte 
Bild auf einem guten Fernsehgerät wird subjektiv besser sein. Unter 
Umständen ist der De-Interlacer im Computermonitor sehr schlecht.

Aber Du solltest ein Bild bekommen. Viele Computermonitore haben ja 
sogar normale Videoeingänge.

Ach ja, es gab früher mal die Idee in HDMI einen Kapierschutz namens 
HDPI einzführen. Der ist aber, außerhalb von BluRay Playern, heute 
ziemlich irrelevant.

: Wiederhergestellt durch Admin
von is hier egal (Gast)


Lesenswert?

Wie das? Die Gamer brauchen doch Newegtbilfer auf dem Monitor?

: Wiederhergestellt durch Admin
von npn (Gast)


Lesenswert?

is hier egal schrieb:
> Newegtbilfer

Was ist das? :-)
Schweren Abend gehabt? :-))

Aber mal im Ernst, wenn die Grafikkarte eines Rechners den Monitor 
ansteuert, dann tut sie das mit einer wesentlich höheren Bildrate als 
ein Fernsehsignal. Deshalb werden beispielsweise von den 100Hz- oder 
200Hz-Fernsehern eigene Zwischenbilder errechnet, die dann zur Anzeige 
gebracht werden, um die Bewegungsunschärfe zu verringern. Das 
Fernsehsignal hat nun mal nur 50 Bilder pro Sekunde, deswegen wird hier 
die Bildfrequenz künstlich erhöht.

: Wiederhergestellt durch Admin
von (prx) A. K. (prx)


Lesenswert?

npn schrieb:
> Aber mal im Ernst, wenn die Grafikkarte eines Rechners den Monitor
> ansteuert, dann tut sie das mit einer wesentlich höheren Bildrate als
> ein Fernsehsignal.

Yep. Mit 60Hz statt 50Hz. ;-)

: Wiederhergestellt durch Admin
von npn (Gast)


Lesenswert?

npn schrieb:
> Deshalb werden beispielsweise von den 100Hz- oder
> 200Hz-Fernsehern eigene Zwischenbilder errechnet, die dann zur Anzeige
> gebracht werden, um die Bewegungsunschärfe zu verringern.

Und diese Errechnung von Zwischenbildern (Interpolation), wie es 
Christian schon beschrieben hat, ist eben in einem PC-Monitor nicht 
vorhanden, so daß du damit nur das reine Fernsehsignal siehst ohne 
Interpolation. Wenn deine Grafikarte den Monitor ansteuert, macht sie 
das ja wesentlich schneller. Deswegen braucht es bei PC-Betrieb keine 
Interpolation.

: Wiederhergestellt durch Admin
von Michi (Gast)


Lesenswert?

hallo

wüsste nicht warum es nicht gehen sollten ^^ wenn du nicht wert legst 
auf das ULTRA HD FILM BLOCKBUSTER erlebnis sondern nur zwischendurch 
nachrichten zwischendurch gucken willst dann ist das problemlos möglich.
habe hierzu einen Dell U2711B mit hdmi tv receiver mit displayport 
meinen arbeitslaptop und mit dualdvi standpc ...

: Wiederhergestellt durch Admin
von is hier egal (Gast)


Lesenswert?

Achso. Und die "Grafikkarte" im SAT-Receiver oder im Raspberry pi macht 
es also nicht genauso wie die  Grafikkarte im PC?

: Wiederhergestellt durch Admin
von (prx) A. K. (prx)


Lesenswert?

npn schrieb:
> Wenn deine Grafikarte den Monitor ansteuert, macht sie
> das ja wesentlich schneller.

Normalerweise nicht. Standardfrequenz von TFTs ist 60Hz. Röhrenmonitore 
hatte man üblicherweise mit 70-90Hz betrieben. Ich habe zwar 
mittlerweile schon von 120(144)Hz TFTs gelesen, aber damit scheint eher 
3D-Betrieb mit 60Hz pro Auge gemeint zu sein.

Wobei das klassische SD TV-Signal 50Hz als Halbbildfrequenz hat, 
Spielfilme auf klassischem Film aber mit 24Hz gedreht und hierzulande 
mit 25Hz im TV abgespielt werden. Games mit 60Hz Vollbildfrequenz sind 
also viel schneller als SD-Spielfilme mit 24/25Hz, aber da kann der 
Monitor nix dafür. Wenn Material in HD mit 720p gedreht wurde ist der 
Vorsprung des Gamers fast dahin.

Interessanter ist die Frage, wie der Player eines PCs die Bildfrequenz 
des 25/50Hz Streams auf die 60Hz des Monitors abbildet. Das muss nicht 
unbedingt zu optimalem Bildeindruck führen.

: Wiederhergestellt durch Admin
von Bernd (Gast)


Lesenswert?

is hier egal schrieb:
> Hallo, eignet sich ein Computermonotor mit HDMI-Anschluss als Fernseher?

aber zu 100%. Ein guter Monitor ist allerdings teuer.

Ich habe seit 1994 keinen Fernseher mehr. Ein 42" Display, kleiner 
UCFF-Rechner mit Fernbedinung, und für das Kino-Erlebnis ein Beamer. 
Eine Hi-Fi-Anlage ist auch vorhanden ...

Schau mal was Fritz (AVM) macht. Die neuen Produkte zielen genau auf 
dein Thema ab.

Sicherlich gibt es Menschen die vehement an ihrer Glotze hängen. Ein 
Grund der dafür spricht ist aus technischer Sicht der Kaufpreis der 
gesamten Anlage. Hier ist die PC-Lösung ganz klar im Nachteil (wenn du 
gewissen Standard und Qualität haben möchtest)

: Wiederhergestellt durch Admin
von Rolf M. (rmagnus)


Lesenswert?

Christian Berger schrieb:
> Bedingt, ja. Computermonitore sind in aller Regel nicht für bewegte
> Bilder optimiert, deshalb haben die weder "blitzende"
> Hintergrundbeleuchtungen oder Bewegungsinterpolation.

Du meinst die ganzen Bildverschlimmbesserer, die man am besten erstmal 
ausschaltet?

> Unter Umständen ist der De-Interlacer im Computermonitor sehr
> schlecht.

Oder gar nicht vorhanden.

> Ach ja, es gab früher mal die Idee in HDMI einen Kapierschutz namens
> HDPI einzführen.

HDPI bezieht sich auf besonders hochauflösende Bildschrime. Was du wohl 
meinst, ist HDCP.

> Der ist aber, außerhalb von BluRay Playern, heute ziemlich irrelevant.

Und Satelliten- oder Kabeltunern.

A. K. schrieb:
> Ich habe zwar mittlerweile schon von 120(144)Hz TFTs gelesen, aber
> damit scheint eher 3D-Betrieb mit 60Hz pro Auge gemeint zu sein.

Es gibt eine neue Technik, mit der sich die Bildwiederholrate des 
Monitors dynamisch an die aktuelle Framerate der Grafikkarte anpasst, 
und die geht meines Wissen maximal bis zu den von dir genannten 
Frequenzen.

> Wobei das klassische SD TV-Signal 50Hz als Halbbildfrequenz hat,
> Spielfilme auf klassischem Film aber mit 24Hz gedreht und hierzulande
> mit 25Hz im TV abgespielt werden. Games mit 60Hz Vollbildfrequenz
> sind also viel schneller als SD-Spielfilme mit 24/25Hz, aber da kann
> der Monitor nix dafür.

Beim PC-Monitor braucht man das auch, denn im Gegensatz zu den 
Filmaufnahmen gibt es keine Bewegungsunschärfe, es sei denn, sie wird 
mit extremem Rechenaufwand künstlich mit reingerechnet.

> Interessanter ist die Frage, wie der Player eines PCs die Bildfrequenz
> des 25/50Hz Streams auf die 60Hz des Monitors abbildet. Das muss
> nicht unbedingt zu optimalem Bildeindruck führen.

Spannend auch die Frage, was ein 16:10-Monitor aus dem Signal macht. 
Meiner hat das Bild z.B. auf volle Größe hochskaliert und damit verzerrt 
dargestellt.

Bernd schrieb:
> aber zu 100%. Ein guter Monitor ist allerdings teuer.
>
> Ich habe seit 1994 keinen Fernseher mehr. Ein 42" Display, kleiner
> UCFF-Rechner mit Fernbedinung, und für das Kino-Erlebnis ein
> Beamer.

Wo hast du denn einen 42"-Monitor gefunden? Oder ist das so ein 
Digital-Signage-Gerät? Hat das irgendwelche Vorteile gegenüber einem 
normalen Fernseher?

: Wiederhergestellt durch Admin
von npn (Gast)


Lesenswert?

is hier egal schrieb:
> Achso. Und die "Grafikkarte" im SAT-Receiver oder im Raspberry pi macht
> es also nicht genauso wie die  Grafikkarte im PC?

Alles, was TV ist, muß sich nach der TV-Norm richten. Und wenn Filme mit 
Kameras aufgenommen werden, ist das was anderes, als wenn auf dem PC 
jedes einzelne Bild berechnet, also erzeugt wird. Im TV gibt es 25 echte 
Bilder/s, die auch Bewegungsunschärfe enthalten können. Beim PC hat man 
(bei TFTs) 60 Bilder/s, und die sind ohne Bewegungsunschärfe und in der 
Regel mit einer wesentlich höheren Auflösung als (selbst ein HD-) 
Fernsehbild. Bei 4k wird der Vergleich eng, aber da gibt's ja praktisch 
noch kein Bildmaterial.
Der eigentliche Unterschied liegt also bei 25B/s mit Bewegungsunschärfe 
gegen 60B/s ohne Unschärfe.

: Wiederhergestellt durch Admin
von Rufus Τ. F. (rufus) Benutzerseite


Lesenswert?

npn schrieb:
> Im TV gibt es 25 echte Bilder/s,


Wenn auf Film gedrehtes Kinomaterial gesendet wird, vielleicht. Sonst 
sind das 50 Halbbilder pro Sekunde, und die Halbbilder sind nicht 
Hälften eines Vollbildes, sondern zeitlich zueinander versetzt. 
Kombiniert man die einfach nur, bekommt man bei Bewegungen sehr schöne 
"Kamm-Artefakte", was wieder mit viel Aufwand weggerechnet werden muss 
("de-interlacing").

Diesen ganzen historisch gewachsenen Krampf macht man nur wegen 
Fernsehern mit Bildröhre - die es kaum noch geben dürfte.

Wie auch immer: Jeder technische Fortschritt beim Fernsehen, wie groß er 
auch sein mag, wird problemlos vom Fernsehprogramm zunichtegemacht.

: Wiederhergestellt durch Admin
von ... (Gast)


Lesenswert?

npn schrieb:
> is hier egal schrieb:
>> Achso. Und die "Grafikkarte" im SAT-Receiver oder im Raspberry pi macht
>> es also nicht genauso wie die  Grafikkarte im PC?
>
> Alles, was TV ist, muß sich nach der TV-Norm richten. Und wenn Filme mit
> Kameras aufgenommen werden, ist das was anderes, als wenn auf dem PC
> jedes einzelne Bild berechnet, also erzeugt wird. Im TV gibt es 25 echte
> Bilder/s, die auch Bewegungsunschärfe enthalten können. Beim PC hat man
> (bei TFTs) 60 Bilder/s, und die sind ohne Bewegungsunschärfe und in der
> Regel mit einer wesentlich höheren Auflösung als (selbst ein HD-)
> Fernsehbild. Bei 4k wird der Vergleich eng, aber da gibt's ja praktisch
> noch kein Bildmaterial.
> Der eigentliche Unterschied liegt also bei 25B/s mit Bewegungsunschärfe
> gegen 60B/s ohne Unschärfe.

Eizo Monitore funktionieren z.B. mit einer Bildfrequenz ab 25 bis weit 
über 80Hz.

: Wiederhergestellt durch Admin
von npn (Gast)


Lesenswert?

Rufus Τ. Firefly schrieb:
> Wie auch immer: Jeder technische Fortschritt beim Fernsehen, wie groß er
> auch sein mag, wird problemlos vom Fernsehprogramm zunichtegemacht.

Volle Zustimmung :-)

: Wiederhergestellt durch Admin
von npn (Gast)


Lesenswert?

... schrieb:
> Eizo Monitore funktionieren z.B. mit einer Bildfrequenz ab 25 bis weit
> über 80Hz.

TFT's?

Bei Röhrenmonitoren ist das kein Thema, da gabs viele, die weit über 
200Hz mitmachten. Aber bei TFTs ist meist 60Hz die Frequenz der Wahl.

: Wiederhergestellt durch Admin
von DirkB (Gast)


Lesenswert?

Rufus Τ. Firefly schrieb:
> Jeder technische Fortschritt beim Fernsehen, wie groß er
> auch sein mag, wird problemlos vom Fernsehprogramm zunichtegemacht.

Die TV-Geräte haben sich dem Programm angepasst. Sie ind flach geworden.

Jetzt versucht man künstlich Tiefe zu bekommen - mit 3D.

: Wiederhergestellt durch Admin
von Rolf M. (rmagnus)


Lesenswert?

Rufus Τ. Firefly schrieb:
> Diesen ganzen historisch gewachsenen Krampf macht man nur
> wegen Fernsehern mit Bildröhre - die es kaum noch geben dürfte.

Das hat weniger mit der Bildröhre als mit der Bandbreite zu tun. Bei 50 
ganzen Bildern, wie man sie heute im LCD-Zeitalter eher nutzt, hätte ein 
Kanal zuviel Platz gebraucht. Und auch heute wird im Kabel und Satellit 
1080i sehr viel genutzt, auch aufgrund der Bandbreite, und nicht etwa, 
weil man es auf einem Röhrenmonitor nutzen wollte.

: Wiederhergestellt durch Admin
von ... (Gast)


Lesenswert?

npn schrieb:
> ... schrieb:
>> Eizo Monitore funktionieren z.B. mit einer Bildfrequenz ab 25 bis weit
>> über 80Hz.
>
> TFT's?
>
> Bei Röhrenmonitoren ist das kein Thema, da gabs viele, die weit über
> 200Hz mitmachten. Aber bei TFTs ist meist 60Hz die Frequenz der Wahl.

meine schon TFTs von Eizo, wobei die einfachen Modell meist nur 55-65Hz 
machen.

: Wiederhergestellt durch Admin
von npn (Gast)


Lesenswert?

Rolf Magnus schrieb:
> Rufus Τ. Firefly schrieb:
>> Diesen ganzen historisch gewachsenen Krampf macht man nur
>> wegen Fernsehern mit Bildröhre - die es kaum noch geben dürfte.
>
> Das hat weniger mit der Bildröhre als mit der Bandbreite zu tun. Bei 50
> ganzen Bildern, wie man sie heute im LCD-Zeitalter eher nutzt, hätte ein
> Kanal zuviel Platz gebraucht. Und auch heute wird im Kabel und Satellit
> 1080i sehr viel genutzt, auch aufgrund der Bandbreite, und nicht etwa,
> weil man es auf einem Röhrenmonitor nutzen wollte.

Stimmt, da wird eine Qualität vorgegauckelt, die gar nicht vorhanden 
ist. Wenn man sieht, daß die Datenrate bei HD-Sendern oftmals sogar 
niedriger ist als bei SD-Programmen, dann weiß man auch, daß heute nur 
"Masse statt Klasse" zählt. Hauptsache man bekommt möglichst viele 
Sender auf einen Transponder.

: Wiederhergestellt durch Admin
von (prx) A. K. (prx)


Lesenswert?

npn schrieb:
> Wenn man sieht, daß die Datenrate bei HD-Sendern oftmals sogar
> niedriger ist als bei SD-Programmen,

Zumindest wenn man die Programme verschiedener Sendergruppen vergleicht. 
Die ÖR-Hauptsender sind zumindest im hiesigen Kabel mit deutlich höherer 
Bitrate vertreten als die Privaten.

: Wiederhergestellt durch Admin
von Rufus Τ. F. (rufus) Benutzerseite


Lesenswert?

Rolf Magnus schrieb:
> Das hat weniger mit der Bildröhre als mit der Bandbreite zu tun.

Dann könnte man echte Halbbilder übertragen, die sich ohne Kammartefakte 
rekombinieren lassen, um 25p hinzubekommen. Andererseits kann man dann 
auch gleich auf die Halbbilder verzichten, und echte 25p übertragen. 
Flackern tut's nicht, weil TFT-Panels quasistatische Bilder darstellen; 
der ganze Interlacekrampf ist nur dazu da, damit die nicht zu träge 
Bildröhre den Eindruck erweckt, flächig zu leuchten, was sie bei echtem 
25p nicht täte.

Spätestens bei HD-Material (das sich wohl niemand auf einer Röhre 
'reinziehen dürfte) ist der ganze Interlace-Kram also völlig 
überflüssig. Reicht die Bandbreite nicht für 50p, nimmt man halt 25p. So 
what. Kinofilmmaterial wird mit 24p gedreht (von neuesten Experimenten 
mal abgesehen), also reicht das dicke.

: Wiederhergestellt durch Admin
von (prx) A. K. (prx)


Lesenswert?

Rufus Τ. Firefly schrieb:
> Dann könnte man echte Halbbilder übertragen, die sich ohne Kammartefakte
> rekombinieren lassen, um 25p hinzubekommen.

Tut man doch. Zumindest hierzulande bei 50Hz. Schlechter dran sind die 
Amis mit ihrem 3:2 pulldown für die 24/30Hz Umwandlung, da passen die 
Halbbilder nicht zusammen. Bei 50Hz schon, da einfach bloss die 24Hz auf 
25Hz beschleunigt werden (US TV-Kunden kriegen folglich mehr Film fürs 
Geld). Denke aber, dass die Fernseher diese Verwurstung wieder 
rückrechnen - ein PC-Monitor wohl eher nicht.

Es ist ganz spannend, wenn man sich den gesamten Übertragungskanal von 
Studio bis Auge des Zuschauers mal betrachtet, mit allen Umrechnungen 
von Format, Frequenz, Bewegung, Voll/Halbbildern etc über sämtliche 
zwischengeschalteten Komponenten. Insbesondere wenn man auf einem PC 
(mit seinem 60Hz Monitor) fernsieht. Der Spruch "von hinten durch die 
Brust ins Auge" erscheint dabei als höfliche Untertreibung.

> der ganze Interlacekrampf ist nur dazu da, damit die nicht zu träge
> Bildröhre den Eindruck erweckt, flächig zu leuchten, was sie bei echtem
> 25p nicht täte.

Bewegtbilder sind bei i50 besser als bei p25. Fernsehkameras haben 
deshalb auch schon immer mit i50 erfasst.

> Spätestens bei HD-Material (das sich wohl niemand auf einer Röhre
> 'reinziehen dürfte) ist der ganze Interlace-Kram also völlig
> überflüssig. Reicht die Bandbreite nicht für 50p, nimmt man halt 25p.

Macht man teilweise doch auch. Der ÖR hatte im HDTV zumindest anfangs 
auf 720p gesetzt, andere auf 1080i. Wie das heute aussieht weiss ich 
nicht.

> Kinofilmmaterial wird mit 24p gedreht (von neuesten Experimenten
> mal abgesehen), also reicht das dicke.

Bei Sportübertragungen sieht das etwas anders aus.

: Wiederhergestellt durch Admin
von ... (Gast)


Lesenswert?

A. K. schrieb:
> Denke aber, dass die Fernseher diese
> Verwurstung wieder rückrechnen - ein PC-Monitor wohl eher nicht.

Macht hier die Abspielsoftware bzw. eine "vernünftige" Grafikkarte.

: Wiederhergestellt durch Admin
von (prx) A. K. (prx)


Lesenswert?

... schrieb:
> Macht hier die Abspielsoftware bzw. eine "vernünftige" Grafikkarte.

Jo, aber nicht wenn der Monitor direkt am Receiver hängt, und das war ja 
die ursprüngliche Fragestellung.

Ich hatte vor etlichen Jahren eine Folge von Startrek-Voyager bildweise 
untersucht, SDTV 50Hz. Das war teilweise eine ganz krude Halbbildfolge, 
gegen die 3:2 pulldown direkt elegant wirkt. Ich bin mir einigermassen 
sicher, dass sowas letztlich nur im Auge des Zuschauers wieder 
rückgerechnet wird.

: Wiederhergestellt durch Admin
von Rolf M. (rmagnus)


Lesenswert?

Rufus Τ. Firefly schrieb:
> Rolf Magnus schrieb:
>> Das hat weniger mit der Bildröhre als mit der Bandbreite zu tun.
>
> Dann könnte man echte Halbbilder übertragen, die sich ohne
> Kammartefakte rekombinieren lassen, um 25p hinzubekommen.

Das würde ich gerade nicht als "echte Halbbilder" bezeichnen, denn dann 
habe ich nicht mehr von 50 Bildern jeweils die Hälfte (also 50 von 
einander unabhängige Halbbilder), sondern ich habe eigentlich 25 ganze 
Bilder, die nur jeweils in zwei Etappen übertragen werden.

> Flackern tut's nicht, weil TFT-Panels quasistatische Bilder darstellen;

Allerdings müssen die auch entsprechend gebaut werden, denn auch dort 
ist die Leuchtdauer nicht beliebig veränderbar. Dazu stand im 
Zusammenhang mit den Herausforderungen bei Nvidias G-Sync letztens ein 
Artikel in der c't. Oder man muss das Bild zwischenspeichern und zweimal 
anzeigen.

> der ganze Interlacekrampf ist nur dazu da, damit die nicht zu träge
> Bildröhre den Eindruck erweckt, flächig zu leuchten, was sie bei
> echtem 25p nicht täte.
>
> Spätestens bei HD-Material (das sich wohl niemand auf einer Röhre
> 'reinziehen dürfte) ist der ganze Interlace-Kram also völlig
> überflüssig. Reicht die Bandbreite nicht für 50p, nimmt man halt 25p.
> So what. Kinofilmmaterial wird mit 24p gedreht (von neuesten
> Experimenten mal abgesehen), also reicht das dicke.

Weswegen machen sich die Hersteller dann den Umstand, mit aufwenigen 
Berechnungen Zwischenbilder zu generieren, um die Bildrate künstlich 
sogar noch weiter zu erhöhen?

A. K. schrieb:
> Bei 50Hz schon, da einfach bloss die 24Hz auf 25Hz beschleunigt
> werden (US TV-Kunden kriegen folglich mehr Film fürs
> Geld).

Naja, eigentlich kriegen sie nicht mehr Film, sondern brauchen bloß 
länger, um ihn anzusehen ;-)

> Es ist ganz spannend, wenn man sich den gesamten
> Übertragungskanal von Studio bis Auge des Zuschauers mal
> betrachtet, mit allen Umrechnungen von Format, Frequenz,
> Bewegung, Voll/Halbbildern etc über sämtliche zwischengeschalteten
> Komponenten. Insbesondere wenn man auf einem PC  (mit seinem
> 60Hz Monitor) fernsieht. Der Spruch "von hinten durch die
> Brust ins Auge" erscheint dabei als höfliche Untertreibung.

Am besten ist ja immer noch, wenn das Material als 1080i50 gespeichert 
ist (mit echten 50 Halbbildern), dann in 720p50 umgerechnet und 
übertragen wird und der PC-Monitor es letzendlich in 1080p60 umrechnet 
und anzeigt. Womöglich auch noch zwischendrin mit einer Stauchung des 
Bildes auf 4:3 (mit entsprechendem Verlust der Auflösung) und wieder 
zurückrechnen auf 16:9.

>> der ganze Interlacekrampf ist nur dazu da, damit die nicht zu träge
>> Bildröhre den Eindruck erweckt, flächig zu leuchten, was sie bei
>> echtem 25p nicht täte.
>
> Bewegtbilder sind bei i50 besser als bei p25. Fernsehkameras haben
> deshalb auch schon immer mit i50 erfasst.

Offensichtlich, denn sonst würden sie das bestimmt nicht tun. Es 
bedeutet ja letztendlich auch halbe Belichtungszeit und damit die 
Notwendigkeit für doppelt soviel Licht im Studio.

: Wiederhergestellt durch Admin
von ... (Gast)


Lesenswert?

A. K. schrieb:
> Jo, aber nicht wenn der Monitor direkt am Receiver hängt, und das war ja
> die ursprüngliche Fragestellung.

hab gerade umgesteckt, also Receiver an Monitor. Das Bild ist ein wenig 
dunkler, was ich natürlich nachregeln könnte. Ansonsten ist auf die 
Schnelle nichts weiter zu erkennen. Die Hochskalierung übernimmt ja 
jetzt der Monitor (schwöre auf Eizo mit sinnvollem Menü, auch 
Flimmerkisten-Modus!), daher kein Problem.

Benötige den PC weil in den Receiver Blu-ray Discs schlecht platz haben. 
Ansonsten könnte ich darauf verzichten.

Ansonsten den richtigen Monitor kaufen, dann wird alles gut.

: Wiederhergestellt durch Admin
von (prx) A. K. (prx)


Lesenswert?

... schrieb:
> hab gerade umgesteckt, also Receiver an Monitor. Das Bild ist ein wenig
> dunkler, was ich natürlich nachregeln könnte. Ansonsten ist auf die
> Schnelle nichts weiter zu erkennen.

Bei progessivem Material die Grösse zu skalieren ist einfach - das macht 
jeder PC-Monitor, wenn die Auflösung nicht stimmt. Da liegt aber auch 
nicht der Witz drin. Interlaced wirds interessanter. Denn das wird ein 
besserer TV intern in progressive Darstellung umrechnen. Einem normalen 
PC-Monitor stellt sich diese Aufgabe üblicherweise nicht.

Dass subjektiv nicht unbedingt etwas zu sehen ist, das ist die Grundlage 
allen Fernsehens seit dessen Erfindung. Zumal bei Standbildern. Man 
müsste jetzt den Monitor mit einer Highspeed-Kamera abfilmen und die 
exakte Bildfolge betrachten, von interlaced Bildmaterial von TV-Kameras 
mit schnellen Bewegungen. Und das mit einem modernen TV mit seiner 
Bildumrechnerei vergleichen.

: Wiederhergestellt durch Admin
von ... (Gast)


Lesenswert?

Die ursprüngliche Frage

> Hallo, eignet sich ein Computermonotor mit HDMI-Anschluss als Fernseher?

beantworte ich mit einem eindeutigem JA, wenn der richtige Monitor 
verwendet wird. Achte einfach auf die grundlegenden Funktionen des 
Monitors. Viele Hersteller haben u.a. hierfür (native Unterstützung 
TV-Bild) ein eigenes Menü.

> An den HDMI-Anschluss kann man dann einen SAT-Reciver, BLURAY-Player
> oder was auch immer anschließen.

Definitiv.

: Wiederhergestellt durch Admin
von ... (Gast)


Lesenswert?

aufgemerkt:

es gibt zig TFT-Monitore mit eingebautem TV-Tuner. Würde natürlich alles 
einfacher machen

Panasonic z.B. verkauft solche Teile, Samsung nennt die Dinger 
Syncmaster. Loewe ist auch mit dabei, die machen nichts anderes.

Interessiert mich jetzt selbst ...

: Wiederhergestellt durch Admin
von Rolf M. (rmagnus)


Lesenswert?

Es gilt auch zu beachten, daß es auch Monitore gibt, die kein HDCP 
können. Dann bleibt beim Bluray-schauen der Bildschirm schwarz. Sollte 
aber bei aktuellen Geräten eher selten sein.

: Wiederhergestellt durch Admin
von WehOhWeh (Gast)


Lesenswert?

Rolf Magnus schrieb:
> Es gilt auch zu beachten, daß es auch Monitore gibt, die kein HDCP
> können. Dann bleibt beim Bluray-schauen der Bildschirm schwarz. Sollte
> aber bei aktuellen Geräten eher selten sein.

Scheiß Kopierschutz :-(
Genau deshalb kaufe ich keine Filme mehr.

Bisher habe ich mir ab und zu einmal eine blue-Ray / DVD gekauft und am 
PC angeschaut. Mit Game of Thrones Season3 ging dann der Ärger los:
Keine Updates mehr für Power DVD10. Das ging dann noch, mittels 
irgendwie geartetem Einflicken von irgendwelchen Patches für eine andere 
Version.

Jetzt ist es entgültig aus: Aktuelle Blue Ray bekomme ich überhaupt 
nicht mehr abgspielt - Kopierschutzfehler. Dafür müsste ich mir Power 
DVD 14 (oder wasauchimmer) kaufen. Und natürlich alle paar Monate eine 
neue Version. Sonst noch Wünsche?

Dafür kann man den Film bei den bekannten Seiten im Internet sehr 
einfach ansehen. Wenn die es leichter ist, eine Raubkopie aus dem 
Internet abzuspielen als einen Originalfilm, dann weiß ich es auch nicht 
mehr was das soll. Seppuku der Hersteller vielleicht?

: Wiederhergestellt durch Admin
von Rolf M. (rmagnus)


Lesenswert?

WehOhWeh schrieb:
> Jetzt ist es entgültig aus: Aktuelle Blue Ray bekomme ich überhaupt
> nicht mehr abgspielt - Kopierschutzfehler. Dafür müsste ich mir Power
> DVD 14 (oder wasauchimmer) kaufen. Und natürlich alle paar Monate
> eine neue Version. Sonst noch Wünsche?

Tja, es geht ja noch darüber hinaus. Selbst wenn du einen "echten" 
Bluray-Player hast, kann eine Disk oder eine Verbindung zum Internet 
dort einfach heimlich einen zuvor gültigen Schlüssel sperren, weil der 
z.B. inzwischen geknackt ist. Was wird danach wohl mit einer Bluray 
passieren, die damit verschlüsselt ist.

> Dafür kann man den Film bei den bekannten Seiten im Internet sehr
> einfach ansehen. Wenn die es leichter ist, eine Raubkopie aus dem
> Internet abzuspielen als einen Originalfilm, dann weiß ich es auch
> nicht mehr was das soll. Seppuku der Hersteller vielleicht?

Das ist auch das, was ich daran nicht verstehe. Diejenige, die sie damit 
wirklich treffen, sind die ehrlich zahlenden Kunden. Wer sich den Film 
illegal aus dem Netz zieht, kommt mit dem ganzen Mist gar nicht erst in 
Kontakt. Klassisches Eigentor.

: Wiederhergestellt durch Admin
Bitte melde dich an um einen Beitrag zu schreiben. Anmeldung ist kostenlos und dauert nur eine Minute.
Bestehender Account
Schon ein Account bei Google/GoogleMail? Keine Anmeldung erforderlich!
Mit Google-Account einloggen
Noch kein Account? Hier anmelden.