Hallo! Ich kann auf meinem Dell P2214H Filme von Amazon Prime nicht in HD sehen. Grund hierfür scheint das "HDCP" zu sein. Ich schließe den Monitor wie folgt an mein T440s an: T440s (DP) --> Mini DP zu HDMI --> HDMI Kabel --> HDMI zu DVI Adapter --> DVI D Port am Monitor Ich schätze den Mini DP zu HDMI Adapter kann ich ausschließen, denn ich schließe so auch den Fernsehr an meinen PC an und dort funktioniert die Wiedergabe von HD (Amazon) wunderbar. Hat jemand Tipps? Viele Grüße, Nico
Das Problem wird das Stück zu DVI sein. Bedank dich bei den Urheberrechtsdeppen mit ihrer Verschlüsselung.
Ist das generell so oder gibt es HDMI zu DVI Adapter, die definitiv das Signal korrekt durchschleifen?
Vielleicht, da habe ich nicht genug Ahnung. Ich weiß nur, dass die Verschlüsselung mit DVI öfter Probleme macht. Bei Google lässt sich aber sicher was dazu finden.
PIC nico schrieb im Beitrag #3705891: > Hallo! > > Ich kann auf meinem Dell P2214H Filme von Amazon Prime nicht in HD > sehen. Grund hierfür scheint das "HDCP" zu sein. Kann der Monitor überhaupt HDCP? Viele Computermonitore können es nicht. fchk
Laut Herrstellerangabe kann er es (http://accessories.euro.dell.com/sna/productdetail.aspx?c=ch&l=de&s=dhs&cs=chdhs1&sku=825732)
T.roll schrieb: > Das Problem wird das Stück zu DVI sein. Nö, das ist es ganz sicher nicht, denn das ist nur ein ganz simpler Adapter ohne jedwede Elektronik. HDMI und DVI sind elektrisch kompatibel, sie verwenden nur unterschiedliche Stecker, und der Adapter besteht aus zwei Steckern bzw. Buchsen und einer Handvoll Drähten, die die korrespondierenden Pins miteinander verbinden.
Spielt das Notebook denn auf dem internen Display Filme in HD ab? Das ist über LVDS ohne HDCP an den Graphikteil der CPU angekoppelt, nicht das der Player darüber stolpert...
PIC nico schrieb im Beitrag #3705940: > Laut Herrstellerangabe kann er es > (http://accessories.euro.dell.com/sna/productdetail.aspx?c=ch&l=de&s=dhs&cs=chdhs1&sku=825732) Laut der Seite hat der Monitor auch DisplayPort, also könntest du es auch darüber probieren. Was natürlich ein neues Kabel nötig macht.
PIC nico schrieb im Beitrag #3705990: > Ja auf dem Notebook selber geht es mit HD auch. Hmm. Also: Windows am Notebook kann prinzipiell HDCP. Displayport-Anschluss am Notebook kann (Laut Lenovo-Webseite) HDCP. Wär auch komisch, der Port wird von der Intel HD-Graphics-Einheit der CPU angesteuert. Der Monitor kann HDCP am DVI-D-Port (Laut Dell-Webseite). Kabelverbindung zwischen Notebook und Monitor besteht, sonst wär kein Bild da. Bleibt: Treiberproblem. Bei NVIDIA kann man in der Systemsteuerung nachschauen, welche der angeschlossenen Geräte HDCP-fähig sind, und welche nicht. Evtl. geht das auch im Intel-Treiber (Hab mein Notebook grad nicht griffbereit um das nachzuschauen) Hast du das Notebook mal neu gebootet während der Monitor angestöpselt war? Nicht dass der HDCP-Status nur einmalig beim Hochfahren ermittelt wird...
Ich habe jetzt mal die neuesten Treiber direkt von der Nvidia Seite installiert und auch das Notebook neugestartet während der Dell angeschlossen war. Leider kein Erfolg.
Seltsam ist, starte ich das Notebook mit eingestecktem Dell, und schaue mir bei Amazon ein Video an, dann bekomme ich keinen Hinweis darauf, dass eine HD-Wiedergabe wegen fehlender HDCP-Unterstützung nicht möglich ist. Diesen Hinweis bekomme ich nur, wenn ich den Monitor im laufenden Betrieb einstecke. Das Bild ist jedoch definitiv kein HD!
PIC nico schrieb im Beitrag #3706057: > Ich habe jetzt mal die neuesten Treiber direkt von der Nvidia Seite Moment. Von der NVIDIA-Seite? d.H. du hast die T440s-Version mit zwei Grafikkarten? Hab jetzt zwar nicht nachgeschaut, glaube aber trotzdem, dass der Displayport an der CPU / Intel-HD-Graphik hängt, nicht an der Geforce. Evtl. Klappt HDCP nicht im Optimus-Verbund. Versuch den NVIDIA-Chip mal deaktiviert zu lassen, beim reinen Video-Playback ist der eh nicht besser als die Intel-Grafik.
In Wikipedia steht ein wenig was darüber. Liegt am DVI-Adapter, der das HDCP-Signal nicht weiterleitet. Hatte das Problem auch schon des öfteren. Hier mal der Artikel: http://de.wikipedia.org/wiki/DVI#Zukunft
AriChrisi schrieb: > Liegt am DVI-Adapter, der das > HDCP-Signal nicht weiterleitet. Das ist, mit Verlaub, Humbug. HDMI und DVI sind elektrisch kompatibel, der Adapter hat überhaupt keine Chance, HDCP "nicht weiterzuleiten". Der von Dir zitierte Wikipedia-Artikel weist auch nur darauf hin, daß DVI-Geräte HDCP nicht unterstützen müssen, was kein Wunder ist, da es DVI-Geräte schon länger gibt als es HDMI-Geräte gibt. Also: Wenn die Signalquelle HDCP erfordert, und der Monitor HDCP unterstützt, dann funktioniert die Kombination von beidem, egal, ob da DVI- oder HDMI-Stecker verwendet werden. Das ist ziemlich exakt gleichzusetzen mit seriellen Schnittstellen am PC, die es in 9- und 25-poliger Ausführung gibt. Ob man nun zwei Geräte mit 9-poligen Anschlüssen mit einem 9-poligen Kabel verbindet, oder Adapter auf 25-polige Stecker und 25-polige Kabel verwendet, es ändert an den übertragenen Dingen exakt gar nichts.
Rufus Τ. Firefly schrieb: > Das ist, mit Verlaub, Humbug. HDMI und DVI sind elektrisch kompatibel, > der Adapter hat überhaupt keine Chance, HDCP "nicht weiterzuleiten". Kann ich bestätigen. HDCP gibt es für DVI und HDMI. Elektrisch sind beide wirklich identisch. Ob ein Monitor über HDMI/DVI HDCP kann wird über das EEDID Interface (I2C) ausgehandelt. HDMI ist vom Protokoll gegenüber DVI erweitert worden, um auch Metadaten wie Audio zu übertragen. DVI überträgt ganz stupide nur Video. Deswegen sind beide auch nicht direkt 100% kompatibel, wobei ich meine, dass ein HDMI Gerät auch immer DVI können muss. Amazon/Prime und HD: Ich hatte auch mal ein Problem, und zwar habe ich einen Monitor mit HDCP und einen ohne. PrimeHD funktioniert nur, wenn ich den Monitor ohne HDCP Unterstützung abstecke, auch wenn ich das Fenster an dem anderen Monitor habe. Es gibt da irgendwie Softwareprobleme. Ich habe den Eindruck, dass nur abgefragt wird, ob ein Monitor ohne HDCP angeschlossen ist, dann wird auch kein HD unterstützt.
Das komische ist nur, dass in der Dell-Spec explizit bei DVI steht, dass es HDCP kann. Ansonsten kann DVI und HDMI schon ein meilenweiter Unterschied sein. Ich habe einen PC-Monitor (LG irgendwas), der kann über HDMI 1080i, uber DVI aber nicht... Und das ist kein EDID/DDE-Problem, weil die Quelle (Bildmischer) das gar nicht macht.
Georg A. schrieb: > der kann über HDMI 1080i, uber DVI > aber nicht... Hat der zwei getrennte Eingänge?
> Hat der zwei getrennte Eingänge?
VGA, HDMI und DVI. Erschliesst sich mir nicht so ganz, warum DVI und
HDMI so unterschiedlich behandelt werden...
Ich habe hin und wieder auch mal das Problem, dass die Bluray-Software HDCP anmeckert, wenn ich in den Ruhezustand/Standby gegangen bin, während das Programm noch offen war. Es ist also auch bei korrekter Hardware eine fehlerhafte HDCP-Meldung möglich, wenn auch in deinem Fall eher unwarscheinlich...
Bitte melde dich an um einen Beitrag zu schreiben. Anmeldung ist kostenlos und dauert nur eine Minute.
Bestehender Account
Schon ein Account bei Google/GoogleMail? Keine Anmeldung erforderlich!
Mit Google-Account einloggen
Mit Google-Account einloggen
Noch kein Account? Hier anmelden.