Forum: Mikrocontroller und Digitale Elektronik DVI - Kein analoges Signal bei DVI-D-Monitor?


von Marius O. (marius_o)


Lesenswert?

Hallo,
Ich fand den Betreff etwas schwierig zu formulieren, es geht hier aber 
darum:
Ich will das analoge Signal des DVI-Ausgangs meiner Grafikkarte 
abgreifen, das digitale soll jedoch an meinen Monitor weitergegeben 
werden.

Grafikkarte -> Splitter -> DVI-D-Monitor
                  |
                  V
             Analogsignal

Ich kann den Splitter (kann man das so nennen? :D) bereits zwischen 
Kabel und Bildschirm stecken, ohne dass sich am Bild etwas ändert. Die 
Pins für das Analogsignal liegen jedoch alle bei 0V. Kann es sein, dass 
meine AMD-GraKa vom Bildschirm erfährt, welches Signal benötigt wird, 
und das andere dann ausschaltet? Wenn ja, lässt sich das irgendwie 
umgehen?

Für Hilfe wäre ich sehr dankbar!

von mhh (Gast)


Lesenswert?

Nicht jeder DVI Anschluß bietet das analoge Signal mit an.
Wenn er es anbietet, dann mußt Du ohne (analogen) Monitor RGB mit 75 Ohm 
abschließen, denn erst dann wird dort ein Signal ausgegeben. Das dient 
quasi als Erkennung für "da ist was drann, Signal schieb raus".

Erst dann kannst Du feststellen, ob es zweigleisig überhaupt 
funktionieren wird.

von Vlad T. (vlad_tepesch)


Lesenswert?

bist du sicher, dass man überhaupt beides gleichzeitig verwenden kann?
afaik sind diese Splitter (wenn du von diesen Y-Kabeln redest, die den 
GraKas meist beiliegen) nur da um eins von beiden anzuschließen

von Frank K. (fchk)


Lesenswert?

Marius O. schrieb:

> Ich will das analoge Signal des DVI-Ausgangs meiner Grafikkarte
> abgreifen, das digitale soll jedoch an meinen Monitor weitergegeben
> werden.
>
> Grafikkarte -> Splitter -> DVI-D-Monitor
>                   |
>                   V
>              Analogsignal

Die meisten Grafikkarten mit mehreren Ausgängen bieten einen Clone-Modus 
an, bei dem auf beiden Ausgängen das gleiche Bild ausgegeben wird. 
Vorteil: Die Timings beider Ausgänge können unterschiedlich sein.

fchk

von Rufus Τ. F. (rufus) Benutzerseite


Lesenswert?

Marius O. schrieb:
> Kann es sein, dass
> meine AMD-GraKa vom Bildschirm erfährt, welches Signal benötigt wird,
> und das andere dann ausschaltet?

Das ist anzunehmen.

von Marius O. (marius_o)


Lesenswert?

Den zweiten Ausgang habe ich leider bereits in Benutzung, da ich zwei 
Bildschirme habe...
Zu den 75 Ohm: Irgendwo hatte ich das schon mal gelesen, ich dachte 
aber, dass der Widerstand einfach nicht geringer sein darf (um den 
Ausgang der Graka nicht zu beschädigen). Muss ich also einfach jeweils 
75 Ohm zwischen R/G/B/Sync-Pin und Masse stecken?

Den Splitter habe ich ja selbst gebastelt, es war nur einfach kein 
Analogsignal messbar.

Außerdem gibt es ähnliche Splitter auch bei Amazon oder Conrad, bei 
denen dabeisteht, dass damit auf einem Analog- und einem Digitalmonitor 
das gleiche Bild angezeigt werden kann. Die Grafikkarte kann also auf 
jeden Fall beides gleichzeitig ausgeben. Ich meld mich, wenns 
funktioniert ;)

von mhh (Gast)


Lesenswert?

Marius O. schrieb:
> Zu den 75 Ohm: Irgendwo hatte ich das schon mal gelesen, ich dachte
> aber, dass der Widerstand einfach nicht geringer sein darf (um den
> Ausgang der Graka nicht zu beschädigen). Muss ich also einfach jeweils
> 75 Ohm zwischen R/G/B/Sync-Pin und Masse stecken?

Ich habe Dich so verstanden, daß Du kein Signal messen kannst an den 
Analogausgängen und während der Messung sich kein Monitor an diesen 
Anschlüssen befindet.

Steckt der Monitor an den Analogausgängen dran, brauchst Du die 75 Ohm 
Widerstände natürlich nicht.

von mhh (Gast)


Lesenswert?

Ach ja, nach dem Anstecken ist ein Neustart des Rechners notwendig. Im 
Win Betrieb wird der Monitor i.A. nicht nachträglich erkannt.

von John B. (johnbauer)


Lesenswert?

Hallo Marius,
wenn es ein DVI-D Anschluss ist dann liefert dieser nur ein Digitales 
Signal.
Digitale und analoge Signale liefert nur ein DVI-I Anschluss.
Was steht in der Anleitung zu deiner Grafikkarte?

Gruß
John

von Jörg S. (joerg-s)


Lesenswert?

Er hat einen DVI-D Monitor!

von Torsten S. (torstensc)


Lesenswert?

Habe ich auch schon probiert, geht nicht. Der DVI-I kann beide Signale
zur Verfügung stellen, welches entscheidet er beim Starten des Ports.
Die Idee hatte ich auch schon und habe das an verschiedenen Rechnern
probiert. Ob Intel, NVIDIA oder ATI, es hat bei keinem Anschluss
funktioniert. Es ging immer nur einer von beiden. Ich habe das Problem 
dann mit einer kleinen USB-VGA Karte gelöst.

Torsten

von Marius O. (marius_o)


Lesenswert?

@Torsten du hast also auch versucht, an 2 Geräte das gleiche Bild zu 
übergeben? Dieses Gerät hier

http://www.conrad.de/ce/de/product/972556/DVI-I-SPLITER-KABEL-AUF-VGADVI-I-20CM

funktioniert doch auch. Oder etwa nur bei speziellen Grafikkarten?

Ich ätz' mir einfach nochmal eine Platine, bei der ich mehr 
Möglichkeiten zum rumprobieren hab... Kostet ja nicht die Welt und ich 
bin sowieso gelangweilter Abiturient ;)

von Torsten S. (torstensc)


Lesenswert?

Ich hatte das Problem, dass an einem Rechner mit DVI-Anschluss per
Adapter ein Projektor hing. Jetzt sollte noch ein Kontrollmonitor neben
den Rechner. Ich dachte keine Problem, splittest einfach das Kabel in 
DVI
und VGA auf. Hat aber nicht funktioniert. Nur wenn nur ein Gerät dran 
war
hat es funktioniert. Die Verkabelung funktionierte also. Aus Interesse 
habe
ich das dann mal an verschiedenen Rechnern probiert, die haben 
allerdings
alle gleich reagiert. Das Ganze ist jetzt allerdings schon ca. 1,5 Jahre
her, möglicherweise funktioniert das mit heutigen Chipsätzen. Sonst wäre
das Kabel ja auch sinnlos.

Torsten

Bitte melde dich an um einen Beitrag zu schreiben. Anmeldung ist kostenlos und dauert nur eine Minute.
Bestehender Account
Schon ein Account bei Google/GoogleMail? Keine Anmeldung erforderlich!
Mit Google-Account einloggen
Noch kein Account? Hier anmelden.