Hallo, eignet sich ein Computermonotor mit HDMI-Anschluss als Fernseher? An den HDMI-Anschluss kann man dann einen SAT-Reciver, BLURAY-Player, Chromecast-Stick, Raspberry oder was auch immer anschließen.
:
Wiederhergestellt durch Admin
Bedingt, ja. Computermonitore sind in aller Regel nicht für bewegte Bilder optimiert, deshalb haben die weder "blitzende" Hintergrundbeleuchtungen oder Bewegungsinterpolation. Sprich das bewegte Bild auf einem guten Fernsehgerät wird subjektiv besser sein. Unter Umständen ist der De-Interlacer im Computermonitor sehr schlecht. Aber Du solltest ein Bild bekommen. Viele Computermonitore haben ja sogar normale Videoeingänge. Ach ja, es gab früher mal die Idee in HDMI einen Kapierschutz namens HDPI einzführen. Der ist aber, außerhalb von BluRay Playern, heute ziemlich irrelevant.
:
Wiederhergestellt durch Admin
Wie das? Die Gamer brauchen doch Newegtbilfer auf dem Monitor?
:
Wiederhergestellt durch Admin
is hier egal schrieb: > Newegtbilfer Was ist das? :-) Schweren Abend gehabt? :-)) Aber mal im Ernst, wenn die Grafikkarte eines Rechners den Monitor ansteuert, dann tut sie das mit einer wesentlich höheren Bildrate als ein Fernsehsignal. Deshalb werden beispielsweise von den 100Hz- oder 200Hz-Fernsehern eigene Zwischenbilder errechnet, die dann zur Anzeige gebracht werden, um die Bewegungsunschärfe zu verringern. Das Fernsehsignal hat nun mal nur 50 Bilder pro Sekunde, deswegen wird hier die Bildfrequenz künstlich erhöht.
:
Wiederhergestellt durch Admin
npn schrieb: > Aber mal im Ernst, wenn die Grafikkarte eines Rechners den Monitor > ansteuert, dann tut sie das mit einer wesentlich höheren Bildrate als > ein Fernsehsignal. Yep. Mit 60Hz statt 50Hz. ;-)
:
Wiederhergestellt durch Admin
npn schrieb: > Deshalb werden beispielsweise von den 100Hz- oder > 200Hz-Fernsehern eigene Zwischenbilder errechnet, die dann zur Anzeige > gebracht werden, um die Bewegungsunschärfe zu verringern. Und diese Errechnung von Zwischenbildern (Interpolation), wie es Christian schon beschrieben hat, ist eben in einem PC-Monitor nicht vorhanden, so daß du damit nur das reine Fernsehsignal siehst ohne Interpolation. Wenn deine Grafikarte den Monitor ansteuert, macht sie das ja wesentlich schneller. Deswegen braucht es bei PC-Betrieb keine Interpolation.
:
Wiederhergestellt durch Admin
hallo wüsste nicht warum es nicht gehen sollten ^^ wenn du nicht wert legst auf das ULTRA HD FILM BLOCKBUSTER erlebnis sondern nur zwischendurch nachrichten zwischendurch gucken willst dann ist das problemlos möglich. habe hierzu einen Dell U2711B mit hdmi tv receiver mit displayport meinen arbeitslaptop und mit dualdvi standpc ...
:
Wiederhergestellt durch Admin
Achso. Und die "Grafikkarte" im SAT-Receiver oder im Raspberry pi macht es also nicht genauso wie die Grafikkarte im PC?
:
Wiederhergestellt durch Admin
npn schrieb: > Wenn deine Grafikarte den Monitor ansteuert, macht sie > das ja wesentlich schneller. Normalerweise nicht. Standardfrequenz von TFTs ist 60Hz. Röhrenmonitore hatte man üblicherweise mit 70-90Hz betrieben. Ich habe zwar mittlerweile schon von 120(144)Hz TFTs gelesen, aber damit scheint eher 3D-Betrieb mit 60Hz pro Auge gemeint zu sein. Wobei das klassische SD TV-Signal 50Hz als Halbbildfrequenz hat, Spielfilme auf klassischem Film aber mit 24Hz gedreht und hierzulande mit 25Hz im TV abgespielt werden. Games mit 60Hz Vollbildfrequenz sind also viel schneller als SD-Spielfilme mit 24/25Hz, aber da kann der Monitor nix dafür. Wenn Material in HD mit 720p gedreht wurde ist der Vorsprung des Gamers fast dahin. Interessanter ist die Frage, wie der Player eines PCs die Bildfrequenz des 25/50Hz Streams auf die 60Hz des Monitors abbildet. Das muss nicht unbedingt zu optimalem Bildeindruck führen.
:
Wiederhergestellt durch Admin
is hier egal schrieb: > Hallo, eignet sich ein Computermonotor mit HDMI-Anschluss als Fernseher? aber zu 100%. Ein guter Monitor ist allerdings teuer. Ich habe seit 1994 keinen Fernseher mehr. Ein 42" Display, kleiner UCFF-Rechner mit Fernbedinung, und für das Kino-Erlebnis ein Beamer. Eine Hi-Fi-Anlage ist auch vorhanden ... Schau mal was Fritz (AVM) macht. Die neuen Produkte zielen genau auf dein Thema ab. Sicherlich gibt es Menschen die vehement an ihrer Glotze hängen. Ein Grund der dafür spricht ist aus technischer Sicht der Kaufpreis der gesamten Anlage. Hier ist die PC-Lösung ganz klar im Nachteil (wenn du gewissen Standard und Qualität haben möchtest)
:
Wiederhergestellt durch Admin
Christian Berger schrieb: > Bedingt, ja. Computermonitore sind in aller Regel nicht für bewegte > Bilder optimiert, deshalb haben die weder "blitzende" > Hintergrundbeleuchtungen oder Bewegungsinterpolation. Du meinst die ganzen Bildverschlimmbesserer, die man am besten erstmal ausschaltet? > Unter Umständen ist der De-Interlacer im Computermonitor sehr > schlecht. Oder gar nicht vorhanden. > Ach ja, es gab früher mal die Idee in HDMI einen Kapierschutz namens > HDPI einzführen. HDPI bezieht sich auf besonders hochauflösende Bildschrime. Was du wohl meinst, ist HDCP. > Der ist aber, außerhalb von BluRay Playern, heute ziemlich irrelevant. Und Satelliten- oder Kabeltunern. A. K. schrieb: > Ich habe zwar mittlerweile schon von 120(144)Hz TFTs gelesen, aber > damit scheint eher 3D-Betrieb mit 60Hz pro Auge gemeint zu sein. Es gibt eine neue Technik, mit der sich die Bildwiederholrate des Monitors dynamisch an die aktuelle Framerate der Grafikkarte anpasst, und die geht meines Wissen maximal bis zu den von dir genannten Frequenzen. > Wobei das klassische SD TV-Signal 50Hz als Halbbildfrequenz hat, > Spielfilme auf klassischem Film aber mit 24Hz gedreht und hierzulande > mit 25Hz im TV abgespielt werden. Games mit 60Hz Vollbildfrequenz > sind also viel schneller als SD-Spielfilme mit 24/25Hz, aber da kann > der Monitor nix dafür. Beim PC-Monitor braucht man das auch, denn im Gegensatz zu den Filmaufnahmen gibt es keine Bewegungsunschärfe, es sei denn, sie wird mit extremem Rechenaufwand künstlich mit reingerechnet. > Interessanter ist die Frage, wie der Player eines PCs die Bildfrequenz > des 25/50Hz Streams auf die 60Hz des Monitors abbildet. Das muss > nicht unbedingt zu optimalem Bildeindruck führen. Spannend auch die Frage, was ein 16:10-Monitor aus dem Signal macht. Meiner hat das Bild z.B. auf volle Größe hochskaliert und damit verzerrt dargestellt. Bernd schrieb: > aber zu 100%. Ein guter Monitor ist allerdings teuer. > > Ich habe seit 1994 keinen Fernseher mehr. Ein 42" Display, kleiner > UCFF-Rechner mit Fernbedinung, und für das Kino-Erlebnis ein > Beamer. Wo hast du denn einen 42"-Monitor gefunden? Oder ist das so ein Digital-Signage-Gerät? Hat das irgendwelche Vorteile gegenüber einem normalen Fernseher?
:
Wiederhergestellt durch Admin
is hier egal schrieb: > Achso. Und die "Grafikkarte" im SAT-Receiver oder im Raspberry pi macht > es also nicht genauso wie die Grafikkarte im PC? Alles, was TV ist, muß sich nach der TV-Norm richten. Und wenn Filme mit Kameras aufgenommen werden, ist das was anderes, als wenn auf dem PC jedes einzelne Bild berechnet, also erzeugt wird. Im TV gibt es 25 echte Bilder/s, die auch Bewegungsunschärfe enthalten können. Beim PC hat man (bei TFTs) 60 Bilder/s, und die sind ohne Bewegungsunschärfe und in der Regel mit einer wesentlich höheren Auflösung als (selbst ein HD-) Fernsehbild. Bei 4k wird der Vergleich eng, aber da gibt's ja praktisch noch kein Bildmaterial. Der eigentliche Unterschied liegt also bei 25B/s mit Bewegungsunschärfe gegen 60B/s ohne Unschärfe.
:
Wiederhergestellt durch Admin
npn schrieb: > Im TV gibt es 25 echte Bilder/s, Wenn auf Film gedrehtes Kinomaterial gesendet wird, vielleicht. Sonst sind das 50 Halbbilder pro Sekunde, und die Halbbilder sind nicht Hälften eines Vollbildes, sondern zeitlich zueinander versetzt. Kombiniert man die einfach nur, bekommt man bei Bewegungen sehr schöne "Kamm-Artefakte", was wieder mit viel Aufwand weggerechnet werden muss ("de-interlacing"). Diesen ganzen historisch gewachsenen Krampf macht man nur wegen Fernsehern mit Bildröhre - die es kaum noch geben dürfte. Wie auch immer: Jeder technische Fortschritt beim Fernsehen, wie groß er auch sein mag, wird problemlos vom Fernsehprogramm zunichtegemacht.
:
Wiederhergestellt durch Admin
npn schrieb: > is hier egal schrieb: >> Achso. Und die "Grafikkarte" im SAT-Receiver oder im Raspberry pi macht >> es also nicht genauso wie die Grafikkarte im PC? > > Alles, was TV ist, muß sich nach der TV-Norm richten. Und wenn Filme mit > Kameras aufgenommen werden, ist das was anderes, als wenn auf dem PC > jedes einzelne Bild berechnet, also erzeugt wird. Im TV gibt es 25 echte > Bilder/s, die auch Bewegungsunschärfe enthalten können. Beim PC hat man > (bei TFTs) 60 Bilder/s, und die sind ohne Bewegungsunschärfe und in der > Regel mit einer wesentlich höheren Auflösung als (selbst ein HD-) > Fernsehbild. Bei 4k wird der Vergleich eng, aber da gibt's ja praktisch > noch kein Bildmaterial. > Der eigentliche Unterschied liegt also bei 25B/s mit Bewegungsunschärfe > gegen 60B/s ohne Unschärfe. Eizo Monitore funktionieren z.B. mit einer Bildfrequenz ab 25 bis weit über 80Hz.
:
Wiederhergestellt durch Admin
Rufus Τ. Firefly schrieb: > Wie auch immer: Jeder technische Fortschritt beim Fernsehen, wie groß er > auch sein mag, wird problemlos vom Fernsehprogramm zunichtegemacht. Volle Zustimmung :-)
:
Wiederhergestellt durch Admin
... schrieb: > Eizo Monitore funktionieren z.B. mit einer Bildfrequenz ab 25 bis weit > über 80Hz. TFT's? Bei Röhrenmonitoren ist das kein Thema, da gabs viele, die weit über 200Hz mitmachten. Aber bei TFTs ist meist 60Hz die Frequenz der Wahl.
:
Wiederhergestellt durch Admin
Rufus Τ. Firefly schrieb: > Jeder technische Fortschritt beim Fernsehen, wie groß er > auch sein mag, wird problemlos vom Fernsehprogramm zunichtegemacht. Die TV-Geräte haben sich dem Programm angepasst. Sie ind flach geworden. Jetzt versucht man künstlich Tiefe zu bekommen - mit 3D.
:
Wiederhergestellt durch Admin
Rufus Τ. Firefly schrieb: > Diesen ganzen historisch gewachsenen Krampf macht man nur > wegen Fernsehern mit Bildröhre - die es kaum noch geben dürfte. Das hat weniger mit der Bildröhre als mit der Bandbreite zu tun. Bei 50 ganzen Bildern, wie man sie heute im LCD-Zeitalter eher nutzt, hätte ein Kanal zuviel Platz gebraucht. Und auch heute wird im Kabel und Satellit 1080i sehr viel genutzt, auch aufgrund der Bandbreite, und nicht etwa, weil man es auf einem Röhrenmonitor nutzen wollte.
:
Wiederhergestellt durch Admin
npn schrieb: > ... schrieb: >> Eizo Monitore funktionieren z.B. mit einer Bildfrequenz ab 25 bis weit >> über 80Hz. > > TFT's? > > Bei Röhrenmonitoren ist das kein Thema, da gabs viele, die weit über > 200Hz mitmachten. Aber bei TFTs ist meist 60Hz die Frequenz der Wahl. meine schon TFTs von Eizo, wobei die einfachen Modell meist nur 55-65Hz machen.
:
Wiederhergestellt durch Admin
Rolf Magnus schrieb: > Rufus Τ. Firefly schrieb: >> Diesen ganzen historisch gewachsenen Krampf macht man nur >> wegen Fernsehern mit Bildröhre - die es kaum noch geben dürfte. > > Das hat weniger mit der Bildröhre als mit der Bandbreite zu tun. Bei 50 > ganzen Bildern, wie man sie heute im LCD-Zeitalter eher nutzt, hätte ein > Kanal zuviel Platz gebraucht. Und auch heute wird im Kabel und Satellit > 1080i sehr viel genutzt, auch aufgrund der Bandbreite, und nicht etwa, > weil man es auf einem Röhrenmonitor nutzen wollte. Stimmt, da wird eine Qualität vorgegauckelt, die gar nicht vorhanden ist. Wenn man sieht, daß die Datenrate bei HD-Sendern oftmals sogar niedriger ist als bei SD-Programmen, dann weiß man auch, daß heute nur "Masse statt Klasse" zählt. Hauptsache man bekommt möglichst viele Sender auf einen Transponder.
:
Wiederhergestellt durch Admin
npn schrieb: > Wenn man sieht, daß die Datenrate bei HD-Sendern oftmals sogar > niedriger ist als bei SD-Programmen, Zumindest wenn man die Programme verschiedener Sendergruppen vergleicht. Die ÖR-Hauptsender sind zumindest im hiesigen Kabel mit deutlich höherer Bitrate vertreten als die Privaten.
:
Wiederhergestellt durch Admin
Rolf Magnus schrieb: > Das hat weniger mit der Bildröhre als mit der Bandbreite zu tun. Dann könnte man echte Halbbilder übertragen, die sich ohne Kammartefakte rekombinieren lassen, um 25p hinzubekommen. Andererseits kann man dann auch gleich auf die Halbbilder verzichten, und echte 25p übertragen. Flackern tut's nicht, weil TFT-Panels quasistatische Bilder darstellen; der ganze Interlacekrampf ist nur dazu da, damit die nicht zu träge Bildröhre den Eindruck erweckt, flächig zu leuchten, was sie bei echtem 25p nicht täte. Spätestens bei HD-Material (das sich wohl niemand auf einer Röhre 'reinziehen dürfte) ist der ganze Interlace-Kram also völlig überflüssig. Reicht die Bandbreite nicht für 50p, nimmt man halt 25p. So what. Kinofilmmaterial wird mit 24p gedreht (von neuesten Experimenten mal abgesehen), also reicht das dicke.
:
Wiederhergestellt durch Admin
Rufus Τ. Firefly schrieb: > Dann könnte man echte Halbbilder übertragen, die sich ohne Kammartefakte > rekombinieren lassen, um 25p hinzubekommen. Tut man doch. Zumindest hierzulande bei 50Hz. Schlechter dran sind die Amis mit ihrem 3:2 pulldown für die 24/30Hz Umwandlung, da passen die Halbbilder nicht zusammen. Bei 50Hz schon, da einfach bloss die 24Hz auf 25Hz beschleunigt werden (US TV-Kunden kriegen folglich mehr Film fürs Geld). Denke aber, dass die Fernseher diese Verwurstung wieder rückrechnen - ein PC-Monitor wohl eher nicht. Es ist ganz spannend, wenn man sich den gesamten Übertragungskanal von Studio bis Auge des Zuschauers mal betrachtet, mit allen Umrechnungen von Format, Frequenz, Bewegung, Voll/Halbbildern etc über sämtliche zwischengeschalteten Komponenten. Insbesondere wenn man auf einem PC (mit seinem 60Hz Monitor) fernsieht. Der Spruch "von hinten durch die Brust ins Auge" erscheint dabei als höfliche Untertreibung. > der ganze Interlacekrampf ist nur dazu da, damit die nicht zu träge > Bildröhre den Eindruck erweckt, flächig zu leuchten, was sie bei echtem > 25p nicht täte. Bewegtbilder sind bei i50 besser als bei p25. Fernsehkameras haben deshalb auch schon immer mit i50 erfasst. > Spätestens bei HD-Material (das sich wohl niemand auf einer Röhre > 'reinziehen dürfte) ist der ganze Interlace-Kram also völlig > überflüssig. Reicht die Bandbreite nicht für 50p, nimmt man halt 25p. Macht man teilweise doch auch. Der ÖR hatte im HDTV zumindest anfangs auf 720p gesetzt, andere auf 1080i. Wie das heute aussieht weiss ich nicht. > Kinofilmmaterial wird mit 24p gedreht (von neuesten Experimenten > mal abgesehen), also reicht das dicke. Bei Sportübertragungen sieht das etwas anders aus.
:
Wiederhergestellt durch Admin
A. K. schrieb: > Denke aber, dass die Fernseher diese > Verwurstung wieder rückrechnen - ein PC-Monitor wohl eher nicht. Macht hier die Abspielsoftware bzw. eine "vernünftige" Grafikkarte.
:
Wiederhergestellt durch Admin
... schrieb: > Macht hier die Abspielsoftware bzw. eine "vernünftige" Grafikkarte. Jo, aber nicht wenn der Monitor direkt am Receiver hängt, und das war ja die ursprüngliche Fragestellung. Ich hatte vor etlichen Jahren eine Folge von Startrek-Voyager bildweise untersucht, SDTV 50Hz. Das war teilweise eine ganz krude Halbbildfolge, gegen die 3:2 pulldown direkt elegant wirkt. Ich bin mir einigermassen sicher, dass sowas letztlich nur im Auge des Zuschauers wieder rückgerechnet wird.
:
Wiederhergestellt durch Admin
Rufus Τ. Firefly schrieb: > Rolf Magnus schrieb: >> Das hat weniger mit der Bildröhre als mit der Bandbreite zu tun. > > Dann könnte man echte Halbbilder übertragen, die sich ohne > Kammartefakte rekombinieren lassen, um 25p hinzubekommen. Das würde ich gerade nicht als "echte Halbbilder" bezeichnen, denn dann habe ich nicht mehr von 50 Bildern jeweils die Hälfte (also 50 von einander unabhängige Halbbilder), sondern ich habe eigentlich 25 ganze Bilder, die nur jeweils in zwei Etappen übertragen werden. > Flackern tut's nicht, weil TFT-Panels quasistatische Bilder darstellen; Allerdings müssen die auch entsprechend gebaut werden, denn auch dort ist die Leuchtdauer nicht beliebig veränderbar. Dazu stand im Zusammenhang mit den Herausforderungen bei Nvidias G-Sync letztens ein Artikel in der c't. Oder man muss das Bild zwischenspeichern und zweimal anzeigen. > der ganze Interlacekrampf ist nur dazu da, damit die nicht zu träge > Bildröhre den Eindruck erweckt, flächig zu leuchten, was sie bei > echtem 25p nicht täte. > > Spätestens bei HD-Material (das sich wohl niemand auf einer Röhre > 'reinziehen dürfte) ist der ganze Interlace-Kram also völlig > überflüssig. Reicht die Bandbreite nicht für 50p, nimmt man halt 25p. > So what. Kinofilmmaterial wird mit 24p gedreht (von neuesten > Experimenten mal abgesehen), also reicht das dicke. Weswegen machen sich die Hersteller dann den Umstand, mit aufwenigen Berechnungen Zwischenbilder zu generieren, um die Bildrate künstlich sogar noch weiter zu erhöhen? A. K. schrieb: > Bei 50Hz schon, da einfach bloss die 24Hz auf 25Hz beschleunigt > werden (US TV-Kunden kriegen folglich mehr Film fürs > Geld). Naja, eigentlich kriegen sie nicht mehr Film, sondern brauchen bloß länger, um ihn anzusehen ;-) > Es ist ganz spannend, wenn man sich den gesamten > Übertragungskanal von Studio bis Auge des Zuschauers mal > betrachtet, mit allen Umrechnungen von Format, Frequenz, > Bewegung, Voll/Halbbildern etc über sämtliche zwischengeschalteten > Komponenten. Insbesondere wenn man auf einem PC (mit seinem > 60Hz Monitor) fernsieht. Der Spruch "von hinten durch die > Brust ins Auge" erscheint dabei als höfliche Untertreibung. Am besten ist ja immer noch, wenn das Material als 1080i50 gespeichert ist (mit echten 50 Halbbildern), dann in 720p50 umgerechnet und übertragen wird und der PC-Monitor es letzendlich in 1080p60 umrechnet und anzeigt. Womöglich auch noch zwischendrin mit einer Stauchung des Bildes auf 4:3 (mit entsprechendem Verlust der Auflösung) und wieder zurückrechnen auf 16:9. >> der ganze Interlacekrampf ist nur dazu da, damit die nicht zu träge >> Bildröhre den Eindruck erweckt, flächig zu leuchten, was sie bei >> echtem 25p nicht täte. > > Bewegtbilder sind bei i50 besser als bei p25. Fernsehkameras haben > deshalb auch schon immer mit i50 erfasst. Offensichtlich, denn sonst würden sie das bestimmt nicht tun. Es bedeutet ja letztendlich auch halbe Belichtungszeit und damit die Notwendigkeit für doppelt soviel Licht im Studio.
:
Wiederhergestellt durch Admin
A. K. schrieb: > Jo, aber nicht wenn der Monitor direkt am Receiver hängt, und das war ja > die ursprüngliche Fragestellung. hab gerade umgesteckt, also Receiver an Monitor. Das Bild ist ein wenig dunkler, was ich natürlich nachregeln könnte. Ansonsten ist auf die Schnelle nichts weiter zu erkennen. Die Hochskalierung übernimmt ja jetzt der Monitor (schwöre auf Eizo mit sinnvollem Menü, auch Flimmerkisten-Modus!), daher kein Problem. Benötige den PC weil in den Receiver Blu-ray Discs schlecht platz haben. Ansonsten könnte ich darauf verzichten. Ansonsten den richtigen Monitor kaufen, dann wird alles gut.
:
Wiederhergestellt durch Admin
... schrieb: > hab gerade umgesteckt, also Receiver an Monitor. Das Bild ist ein wenig > dunkler, was ich natürlich nachregeln könnte. Ansonsten ist auf die > Schnelle nichts weiter zu erkennen. Bei progessivem Material die Grösse zu skalieren ist einfach - das macht jeder PC-Monitor, wenn die Auflösung nicht stimmt. Da liegt aber auch nicht der Witz drin. Interlaced wirds interessanter. Denn das wird ein besserer TV intern in progressive Darstellung umrechnen. Einem normalen PC-Monitor stellt sich diese Aufgabe üblicherweise nicht. Dass subjektiv nicht unbedingt etwas zu sehen ist, das ist die Grundlage allen Fernsehens seit dessen Erfindung. Zumal bei Standbildern. Man müsste jetzt den Monitor mit einer Highspeed-Kamera abfilmen und die exakte Bildfolge betrachten, von interlaced Bildmaterial von TV-Kameras mit schnellen Bewegungen. Und das mit einem modernen TV mit seiner Bildumrechnerei vergleichen.
:
Wiederhergestellt durch Admin
Die ursprüngliche Frage > Hallo, eignet sich ein Computermonotor mit HDMI-Anschluss als Fernseher? beantworte ich mit einem eindeutigem JA, wenn der richtige Monitor verwendet wird. Achte einfach auf die grundlegenden Funktionen des Monitors. Viele Hersteller haben u.a. hierfür (native Unterstützung TV-Bild) ein eigenes Menü. > An den HDMI-Anschluss kann man dann einen SAT-Reciver, BLURAY-Player > oder was auch immer anschließen. Definitiv.
:
Wiederhergestellt durch Admin
aufgemerkt: es gibt zig TFT-Monitore mit eingebautem TV-Tuner. Würde natürlich alles einfacher machen Panasonic z.B. verkauft solche Teile, Samsung nennt die Dinger Syncmaster. Loewe ist auch mit dabei, die machen nichts anderes. Interessiert mich jetzt selbst ...
:
Wiederhergestellt durch Admin
Es gilt auch zu beachten, daß es auch Monitore gibt, die kein HDCP können. Dann bleibt beim Bluray-schauen der Bildschirm schwarz. Sollte aber bei aktuellen Geräten eher selten sein.
:
Wiederhergestellt durch Admin
Rolf Magnus schrieb: > Es gilt auch zu beachten, daß es auch Monitore gibt, die kein HDCP > können. Dann bleibt beim Bluray-schauen der Bildschirm schwarz. Sollte > aber bei aktuellen Geräten eher selten sein. Scheiß Kopierschutz :-( Genau deshalb kaufe ich keine Filme mehr. Bisher habe ich mir ab und zu einmal eine blue-Ray / DVD gekauft und am PC angeschaut. Mit Game of Thrones Season3 ging dann der Ärger los: Keine Updates mehr für Power DVD10. Das ging dann noch, mittels irgendwie geartetem Einflicken von irgendwelchen Patches für eine andere Version. Jetzt ist es entgültig aus: Aktuelle Blue Ray bekomme ich überhaupt nicht mehr abgspielt - Kopierschutzfehler. Dafür müsste ich mir Power DVD 14 (oder wasauchimmer) kaufen. Und natürlich alle paar Monate eine neue Version. Sonst noch Wünsche? Dafür kann man den Film bei den bekannten Seiten im Internet sehr einfach ansehen. Wenn die es leichter ist, eine Raubkopie aus dem Internet abzuspielen als einen Originalfilm, dann weiß ich es auch nicht mehr was das soll. Seppuku der Hersteller vielleicht?
:
Wiederhergestellt durch Admin
WehOhWeh schrieb: > Jetzt ist es entgültig aus: Aktuelle Blue Ray bekomme ich überhaupt > nicht mehr abgspielt - Kopierschutzfehler. Dafür müsste ich mir Power > DVD 14 (oder wasauchimmer) kaufen. Und natürlich alle paar Monate > eine neue Version. Sonst noch Wünsche? Tja, es geht ja noch darüber hinaus. Selbst wenn du einen "echten" Bluray-Player hast, kann eine Disk oder eine Verbindung zum Internet dort einfach heimlich einen zuvor gültigen Schlüssel sperren, weil der z.B. inzwischen geknackt ist. Was wird danach wohl mit einer Bluray passieren, die damit verschlüsselt ist. > Dafür kann man den Film bei den bekannten Seiten im Internet sehr > einfach ansehen. Wenn die es leichter ist, eine Raubkopie aus dem > Internet abzuspielen als einen Originalfilm, dann weiß ich es auch > nicht mehr was das soll. Seppuku der Hersteller vielleicht? Das ist auch das, was ich daran nicht verstehe. Diejenige, die sie damit wirklich treffen, sind die ehrlich zahlenden Kunden. Wer sich den Film illegal aus dem Netz zieht, kommt mit dem ganzen Mist gar nicht erst in Kontakt. Klassisches Eigentor.
:
Wiederhergestellt durch Admin
Bitte melde dich an um einen Beitrag zu schreiben. Anmeldung ist kostenlos und dauert nur eine Minute.
Bestehender Account
Schon ein Account bei Google/GoogleMail? Keine Anmeldung erforderlich!
Mit Google-Account einloggen
Mit Google-Account einloggen
Noch kein Account? Hier anmelden.