Forum: PC Hard- und Software Welches ist der gebräuchlichste Monitor Anschluss am PC?


von Harm P. (Gast)


Lesenswert?

Moin! VGA war lange der gebräuchlichste Monitor Anschluss am PC. Welcher 
ist es heute bei neuen Monitoren?

von waflija (Gast)


Lesenswert?

HDMI (DVI) - Die sind auch elektrisch kompatibel

Im Profibereich eher Displayport - Nicht kompatibel mit HDMI / DVI

von Rufus Τ. F. (rufus) Benutzerseite


Lesenswert?

waflija schrieb:
> Nicht kompatibel mit HDMI / DVI

So groß ist das Problem nicht - einerseits sind viele Graphikkarten mit 
Displayport "bilingual", d.h. sie können mit sehr günstigen passiven 
Adaptern am DisplayPort ein HDMI/DVI-Signal ausgeben, andererseits sind 
auch aktive Displayport-zu-HDMI/DVI kaum teurer als passive Adapter.

Vorzüge von Displayport:

Höhere Auflösungen, mechanische Verriegelung des Steckers (sofern nicht 
Mini-DP), und die prinzipiell vorgesehene Möglichkeit des 
"daisy-chaining", d.h. mehrere Monitore können quasi hintereinander an 
einen DP-Ausgang angeschlossen werden, sofern Graphikkarte und 
Monitore das unterstützen.

von (prx) A. K. (prx)


Lesenswert?

Displayport ist recht verbreitet. HDMI, DVI und Displayport sind zwar 
nicht direkt kompatibel, aber eng miteinander verwandt. Daher sind 
Konverter günstig erhältlich.

von Harm P. (Gast)


Lesenswert?

Gemäß den Postings scheint es - anders als beim früher allgegenwärtigen 
VGA - DEN Standard nicht zu geben. Wenn man von Anwendungen ausgeht, die 
auf dem Intel-CPU internen Grafikprozessor ausgeführt werden und keiner 
Grafikkarte bedürfen: Gibt es dort auch keine Präferenz für HDMI, DVI 
oder Displayport, so dass man auf einer relativ sicheren Seite ist, 
Alles mit Allem ohne Adapter verbinden zu können?

von Erwin D. (Gast)


Lesenswert?

Harm P. schrieb:
> Gibt es dort auch keine Präferenz für HDMI, DVI
> oder Displayport, so dass man auf einer relativ sicheren Seite ist,
> Alles mit Allem ohne Adapter verbinden zu können?

Das interessiert eigentlich die Anwendung gar nicht. Das Programm weiß 
in der Regel gar nicht, welche Schnittstelle zum Monitor geht. Im 
Extremfall ist gar kein Monitor angeschlossen, sondern am anderen Ende 
der Welt sitzt jemand, der den Rechner z.B. über RDP oder ähnliches 
bedient...
Ich verstehe im Moment dein Problem nicht :-)

von (prx) A. K. (prx)


Lesenswert?

PC-Monitore haben oft mehrere verschiedene Schnittstellentypen.

von Rufus Τ. F. (rufus) Benutzerseite


Lesenswert?

Harm P. schrieb:
> Gibt es dort auch keine Präferenz für HDMI, DVI oder Displayport,

Die native Schnittstelle aktueller Intel-Graphikhardware ist 
Displayport, auf Motherboards sind entsprechende Konverterbausteine 
verbaut, die darauf DVI/HDMI oder auch VGA-Signale erzeugen.

Aber das ist ein reines Hardware-, kein Softwarethema.

von Georg (Gast)


Lesenswert?

Harm P. schrieb:
> so dass man auf einer relativ sicheren Seite ist,
> Alles mit Allem ohne Adapter verbinden zu können?

Das glaube ich nicht, es gibt schon Probleme DVI mit DVI zu verbinden. 
Ich habe mehrere NVidia-Karten, die mit einem Samsung-Monitor (VGA + 
DVI) absolut nicht reden wollen, nur mit einem DVI-VGA-Adapter, was die 
Sache ziemlich absurd macht. Es gibt von DVI soweit ich weiss 3 
Ausführungen.

Ich denke, DVI war so eine Fehlentwicklung wie die Energiesparlampen. 
Der Stecker ist ja grösser als VGA und die Kompatibilität miserabel. 
Langfristig sollten sich Displayport und HDMI durchsetzen, wobei man 
eigentlich nicht 2 Standards braucht.

Georg

von Rufus Τ. F. (rufus) Benutzerseite


Lesenswert?

Georg schrieb:
> Es gibt von DVI soweit ich weiss 3 Ausführungen.

Naja, praktisch nutzlos war die Idee, darüber auch VGA-Signale 
transportieren zu wollen. Lässt man das beiseite, gibt es zwei Varianten 
- Single-Channel-DVI, was die Bildschirmauflösung auf WUXGA (1920x1200) 
begrenzt, oder Dual-Channel-DVI, was WQXGA (2560x1600) ermöglichte.

Tatsächlich kann man DVI als überholt betrachten - HDMI schafft es mit 
höheren Datenraten höhere Auflösungen zu übertragen, obwohl die Anzahl 
der Signalleitungen der von Single-Channel-DVI entspricht.

Allerdings gibt es viele HDMI-Standards, und noch wird viel Hardware mit 
veralteten Ausführungen verkauft (also HDMI < 2.0), was lästig ist, wenn 
man "UHD"- (3840x2160) oder gar "5K"-Displays (5120x2880) betreiben 
möchte.

Natürlich ist auch bei DP keine Perfektion zu erwarten, auch da gibt es 
unterschiedliche Versionen, und man will mindestens DP 1.2 haben (kann 
2160p60), besser aber DP 1.3 (2880p60).

Immerhin hatte OpenLDI als Monitorschnittstelle nur ein kurzes Gastspiel 
... das gab es nur bei einem einzigen Monitor, den man heute als 
komplett obsolet betrachten kann (SGI 1600SW mit sagenhaften 1200x1024 
Pixeln Auflösung).

von Alter Mann (Gast)


Lesenswert?

Rufus Τ. F. schrieb:
> Georg schrieb:
>> Es gibt von DVI soweit ich weiss 3 Ausführungen.
> Naja, praktisch nutzlos war die Idee, darüber auch VGA-Signale
> transportieren zu wollen.

Wie bitte!? Das war doch gerade in der Anfangszeit von DVI, als viele 
Monitore und Beamer nur mit VGA-Eingang daher kamen, richtig praktisch.
Statt dass man auf dem Slotblech der Grafikkarte oder dem Laptop-Gehäuse 
Platz für einen VGA-Ausgang verschwenden musste, konnte man sich einfach 
für ein paar Mark einen DVI-VGA-Adapter besorgen und fertig.

von Rufus Τ. F. (rufus) Benutzerseite


Lesenswert?

Alter Mann schrieb:
> Wie bitte!? Das war doch gerade in der Anfangszeit von DVI, als viele
> Monitore und Beamer nur mit VGA-Eingang daher kamen, richtig praktisch.

Sicher. Für die ersten drei Wochen*. Dann aber war VGA obsolet.

*) etwas überspitzt dargestellt.

von Erwin M. (nobodyy)


Lesenswert?

waflija schrieb:
> HDMI (DVI) - Die sind auch elektrisch kompatibel
>
> Im Profibereich eher Displayport - Nicht kompatibel mit HDMI / DVI

Falsch, denn es gibt diverse passive Adapter DP - HDMI.
Ich habe so ein Teil und das funktioniert, von DM zu einem HDMI-Monitor.

von Paul B. (paul_baumann)


Lesenswert?

>Welches ist der gebräuchlichste Monitor Anschluss am PC?

Der, an den man mit der Hand in der dunklen Zimmer-Ecke am schlechtesten 
rankommt. Wenn man denkt, man hat ihn gefunden, ist es der von der 
seriellen Schnittstelle.

BTDT
Paul

von Peter II (Gast)


Lesenswert?

Erwin M. schrieb:
> Falsch, denn es gibt diverse passive Adapter DP - HDMI.
> Ich habe so ein Teil und das funktioniert, von DM zu einem HDMI-Monitor.

deswegen sind sie noch lange nicht immer kompatibel

https://de.wikipedia.org/wiki/DisplayPort
[...]
1.keine direkte elektrische Kompatibilität mit DVI - allerdings durch 
automatische Erkennung des Verbindungstyps und Umschaltung der 
Leitungstreiber ab DisplayPort 1.1 emulierbar.
[...]

muss also nicht funktionieren.

von Erwin M. (nobodyy)


Lesenswert?

Peter II schrieb:
> Erwin M. schrieb:
>> Falsch, denn es gibt diverse passive Adapter DP - HDMI.
>> Ich habe so ein Teil und das funktioniert, von DP zu einem HDMI-Monitor.
>
> deswegen sind sie noch lange nicht immer kompatibel
>
> https://de.wikipedia.org/wiki/DisplayPort
> [...]
> 1.keine direkte elektrische Kompatibilität mit DVI - allerdings durch
> automatische Erkennung des Verbindungstyps und Umschaltung der
> Leitungstreiber ab DisplayPort 1.1 emulierbar.
> [...]
>
> muss also nicht funktionieren.

Ja, ok, es ist also halb-kompatibel. Oder wie Gates sagen würde "It 
works most of the time/tries.".

von Rufus Τ. F. (rufus) Benutzerseite


Lesenswert?

Peter II schrieb:
> muss also nicht funktionieren.

Ich schrieb schon vor Stunden, daß es auch aktive Adapter gibt, und 
daß die nur unwesentlich mehr kosten als die passiven Adapter für 
bilinguale Graphikkarten.

Das ist also kein Problem.

von Rolf M. (rmagnus)


Lesenswert?

Rufus Τ. F. schrieb:
> Höhere Auflösungen, mechanische Verriegelung des Steckers (sofern nicht
> Mini-DP), und die prinzipiell vorgesehene Möglichkeit des
> "daisy-chaining", d.h. mehrere Monitore können quasi hintereinander an
> einen DP-Ausgang angeschlossen werden, sofern Graphikkarte und
> Monitore das unterstützen.

Warum sollte das denn bei DVI und HDMI anders sein? Und warum muss die 
Grafikkarte das unterstützen?

Harm P. schrieb:
> Gemäß den Postings scheint es - anders als beim früher allgegenwärtigen
> VGA - DEN Standard nicht zu geben.

Das ist richtig. Früher war in Besprechungsräumen am Beamer ein 
VGA-Anschluss und fertig. Heute ist der meist auch noch vorhanden, 
daneben aber ein DisplayPort-Kabel und eine Handvoll Adapter für 
mini-DP, HDMI, mini-HDMI und DVI.

Georg schrieb:
> Das glaube ich nicht, es gibt schon Probleme DVI mit DVI zu verbinden.

Das Problem hatte ich bisher nur mit Kabeln, die außerhalb der 
Spezifikation lagen.

> Es gibt von DVI soweit ich weiss 3 Ausführungen.

Naja, es gibt DVI-D, das nur ein Digital-Signal hat, DVI-I, bei dem auf 
dem Stecker zusätzlich noch ein VGA-Signal liegt und DVI-A, das nur das 
VGA-Signal hat. Letzteres habe ich aber in der realen Welt nie gesehen.
Dann hat man noch DualLink-DVI, das man für Auflösungen größer als 
1920x1200 benötigt.

> Ich denke, DVI war so eine Fehlentwicklung wie die Energiesparlampen.
> Der Stecker ist ja grösser als VGA und die Kompatibilität miserabel.

Weil du einen Monitor gefunden hast, der nicht richtig funktioniert? 
Bei mir war DVI immer genauso zuverlässig wie VGA.

> Langfristig sollten sich Displayport und HDMI durchsetzen, wobei man
> eigentlich nicht 2 Standards braucht.

Du beschwerst dich über den DVI-Stecker und willst dann HDMI. Bei dem 
hat man nicht mal an eine Arretierung gedacht.

Rufus Τ. F. schrieb:
> Natürlich ist auch bei DP keine Perfektion zu erwarten, auch da gibt es
> unterschiedliche Versionen, und man will mindestens DP 1.2 haben (kann
> 2160p60), besser aber DP 1.3 (2880p60).

Gibt's denn überhaupt Monitore, die letzteres haben? Oder warum will 
"man" das?

Rufus Τ. F. schrieb:
> Alter Mann schrieb:
>> Wie bitte!? Das war doch gerade in der Anfangszeit von DVI, als viele
>> Monitore und Beamer nur mit VGA-Eingang daher kamen, richtig praktisch.
>
> Sicher. Für die ersten drei Wochen*. Dann aber war VGA obsolet.
>
> *) etwas überspitzt dargestellt.

Eher sehr überspitzt. Ich würde eher so 5 Jahre nennen. Man muss eben 
mal weiter denken als den heimischen PC, zu dem man sich dann gleich den 
passenden Monitor dazu kauft.
Auch heute hat praktisch jede Grafikkarte noch den DVI-I-Ausgang, damit 
man überhaupt noch VGA-Geräte anschließen kann. Die gibt es nämlich 
durchaus noch.
Lustigerweise habe ich letztens geschäftlich einen 19"-Rechner mit 
aktuellem Xeon-Prozessor gekauft und mußte feststellen, dass der nur 
einen VGA-Ausgang hat. Kein DVI, kein HDMI, kein Displayport. Es werden 
also auch heute noch neue Rechner verkauft, die gar nix anders haben als 
VGA.

von (prx) A. K. (prx)


Lesenswert?

Ja, die Zeiten eines einheitlichen VGA Steckers für alle Lebenslagen 
sind vorbei. Aber dank der eifrigen Chinesen ist das kein Problem, denn 
aktive Kombi-Adapter mit beispielsweise Displayport rein und 
VGA+DVI+HDMI raus gibts für 10€ oder so. Das sieht ein wenig doof aus, 
funktioniert aber.

Rolf M. schrieb:
> also auch heute noch neue Rechner verkauft, die gar nix anders haben als
> VGA.

Bei Servern ist das völlig normal. Die werden oft headless betrieben und 
ein Monitor kommt nur bei Gelegenheit ran. Dafür tut es dann auch VGA. 
Bei Rackservern findet sich deshalb mitunter auch ein VGA-Anschluss 
vorne. Fürs Wägelchen mit Monitor, Tastatur und Maus.

: Bearbeitet durch User
von Icke ®. (49636b65)


Lesenswert?

Georg schrieb:
> Ich habe mehrere NVidia-Karten, die mit einem Samsung-Monitor (VGA +
> DVI) absolut nicht reden wollen, nur mit einem DVI-VGA-Adapter, was die
> Sache ziemlich absurd macht.

Aus der Praxis kenne ich das nur von zwei Fällen her, die allerdinsg mit 
dem DVI-Standard an sich nichts zu tun haben. Einmal bestimmte 
Monitor-/Grafikkarten-Kombis unter Linux und der andere Fall war ein 
Problem des Treibers früherer Intel CPU-Grafik. Der wollte am DVI-Port 
nicht mit Monitoren arbeiten, die kein HDCP unterstützen. Die ließen 
sich nur per VGA betreiben. Das Problem wurde jedoch mit einem 
Treiberupdate behoben.

von Rufus Τ. F. (rufus) Benutzerseite


Lesenswert?

Rolf M. schrieb:
> Warum sollte das denn bei DVI und HDMI anders sein? Und warum muss die
> Grafikkarte das unterstützen?

"Daisy Chaining" bedeutet nicht, daß die betroffenen Monitore das 
gleiche Bild darstellen; sie werden separat angesteuert.

Und genau das ist bei DVI und HDMI nicht vorgesehen (nein, die 
Möglichkeit, mit einem Dual-Link-Ausgang zwei Single-Link-DVI-Geräte zu 
speisen ist nicht gleichwertig).

> Gibt's denn überhaupt Monitore, die letzteres haben? Oder warum will
> "man" das?

Ja, natürlich. Die Auflösung nennt sich "5K". Beispiele dafür sindDell 
UP2715K oder Philips 275P4VYKEB/00.

von Rolf M. (rmagnus)


Lesenswert?

A. K. schrieb:
> Rolf M. schrieb:
>> also auch heute noch neue Rechner verkauft, die gar nix anders haben als
>> VGA.
>
> Bei Servern ist das völlig normal. Die werden oft headless betrieben und
> ein Monitor kommt nur bei Gelegenheit ran. Dafür tut es dann auch VGA.

Wobei ich mich schon frage, wo die überhaupt noch Grafikchips 
herbekommen, die nur VGA können. Auf dem Board ist irgendein uralter 
Matrox-Chip verlötet, für den's nicht mal Windows-7-Treiber gibt. Für 
Server-Betriebssysteme gibt's anscheinen noch irgendeinen hochgepatchten 
Treiber.
Ich frage mich eh, warum Intel ausgerechnet bei den Server-CPUs die 
Prozessorgrafik weggelassen hat, sodass die Hersteller da immer noch 
eine separate Grafik auf dem Board verbauen müssen.

> Bei Rackservern findet sich deshalb mitunter auch ein VGA-Anschluss
> vorne. Fürs Wägelchen mit Monitor, Tastatur und Maus.

Ja, ist in dem Fall auch so.

von Rolf M. (rmagnus)


Lesenswert?

Rufus Τ. F. schrieb:
> Rolf M. schrieb:
>> Warum sollte das denn bei DVI und HDMI anders sein? Und warum muss die
>> Grafikkarte das unterstützen?
>
> "Daisy Chaining" bedeutet nicht, daß die betroffenen Monitore das
> gleiche Bild darstellen; sie werden separat angesteuert.

Nein, aber ich habe Monitore, die man per DVI kaskadieren kann, sprich: 
Jeder hat einen DVI-Eingang und einen DVI-Ausgang. Die hängt man dann 
alle hintereinander (Daisy Chain eben), und dann kann man sie so 
konfigurieren, dass sich jeder seinen Teil aus dem Bild rauspickt. Die 
Grafikkarte merkt dabei nicht, dass das mehrere Monitore sind. Somit 
muss das nur vom Monitor unterstützt werden und nicht von der 
Grafikkarte. Daher die Frage: Warum muss das bei DisplayPort extra 
vorgesehen sein, und warum muss es da auch die Grafikkarte untestützen?

>> Gibt's denn überhaupt Monitore, die letzteres haben? Oder warum will
>> "man" das?
>
> Ja, natürlich. Die Auflösung nennt sich "5K". Beispiele dafür sindDell
> UP2715K oder Philips 275P4VYKEB/00.

Ach richtig, die hatte ich ganz vergessen. Ob man sowas aber zwingend 
braucht, muss jeder selber wissen. Die meisten werden sich eh keinen 
5k-Monitor kaufen.

von Rufus Τ. F. (rufus) Benutzerseite


Lesenswert?

Rolf M. schrieb:
> ich habe Monitore, die man per DVI kaskadieren kann

Ach? Welche wären das?

von (prx) A. K. (prx)


Lesenswert?

Rolf M. schrieb:
> Ich frage mich eh, warum Intel ausgerechnet bei den Server-CPUs die
> Prozessorgrafik weggelassen hat, sodass die Hersteller da immer noch
> eine separate Grafik auf dem Board verbauen müssen.

Bei Servern hat man heute routinemässig ein umfangreiches 
Remote-Management mit eigenem Prozessor und eigenem Ethernet-Anschluss 
mit drin. Das braucht sowieso eine eigene Grafikfunktion, um direkt aufs 
Bild zugreifen zu können. Die CPU soll das tun wozu sie da ist.

Leicht schräg ist das nur bei den Lowend-Servern der e3-12xx Klasse. Das 
sind umgelabelte Desktop-Prozessoren mit abgeschalteter GPU.

: Bearbeitet durch User
von Rolf M. (rmagnus)


Lesenswert?

Rufus Τ. F. schrieb:
> Rolf M. schrieb:
>> ich habe Monitore, die man per DVI kaskadieren kann
>
> Ach? Welche wären das?

Ich habe sie nicht selber, sondern sie sind geschäftlich im Einsatz. Den 
Typ weiß ich gerade nicht. Es handelt sich auch nicht um normale 
Desktop-Monitore, sondern um Präsentationstechnik, in dem Fall 70"-TFTs. 
Ich glaube, dass das bei solchen Monitoren auch nicht so unüblich ist.

von Rufus Τ. F. (rufus) Benutzerseite


Lesenswert?

Besonders hohe Auflösung können die Dinger dann aber nicht haben, und 
die Graphikkarte muss in der Lage sein, sehr bizarre Bildformate zu 
liefern, wie z.B. 3840x1200 für zwei WUXGA-Displays nebeneinander, oder 
1920x2400 für zwei WUXGA-Displays übereinander.

Beim DP-Daisychaining sind die Monitore zwar physisch an einem Kabel 
angeschlossen, aber logisch sind sie separat, d.h. sie können auch 
unterschiedliche Auflösungen haben, und die Graphikkarte muss nicht 
irgendein riesiges Bildformat über alles ausgeben, aus dem sich die 
Monitore dann was aussuchen.

von Erwin M. (nobodyy)


Lesenswert?

A. K. schrieb:
> Rolf M. schrieb:
>> also auch heute noch neue Rechner verkauft, die gar nix anders haben als
>> VGA.
>
> Bei Servern ist das völlig normal. Die werden oft headless betrieben und
> ein Monitor kommt nur bei Gelegenheit ran. Dafür tut es dann auch VGA.

Ja, aber auch das ist problematisch. Bei einem Server, den ich 2000 
zusammenbaute und dann ohne Monitor im Keller aufstellte, zeigte sich 
das der ohne Monitor nicht bootet. Die Nachforschung ergab dann das die 
(Nvidia-)Grafikkarte dem Mainboard einen Fehler meldet, der in einer 
frühen POST-Phase zum Stopp führt. Gemeinerweise wird das dem Benutzer 
nicht gemeldet, beispielsweise über ein Piepen.
Letztlich musste ich damals einen VGA-Stecker nehmen und einen 75 
Ohm-Widerstand zwischen Masse und Grünsignal löten um den Bug zu 
umgehen.

Die meisten Rechner werden nur für Mausschubser gemacht und sie wollen 
Fürsorge wie einen immer angeschlossenen Monitor.

von (prx) A. K. (prx)


Lesenswert?

Erwin M. schrieb:
> Ja, aber auch das ist problematisch. Bei einem Server, den ich 2000
> zusammenbaute und dann ohne Monitor im Keller aufstellte, zeigte sich
> das der ohne Monitor nicht bootet.

Ich bezog mich auf Rechner, die für Serverfunktion gebaut werden. Nicht 
auf Bastelkram, oder Desktops, die als Server genutzt werden.

Es gab einstmals auch wirklich Rechner mit der legendären Meldung
   No keyboard detected.
   Press F1 to continue.
Oder so ähnlich.

Heute gibts im BIOS von Desktops nicht selten eine "headless" Option.

: Bearbeitet durch User
von Rolf Magnus (Gast)


Lesenswert?

A. K. schrieb:
> Es gab einstmals auch wirklich Rechner mit der legendären Meldung
>    No keyboard detected.
>    Press F1 to continue.
> Oder so ähnlich.

Ich meine, es war sowas wie "Keyboard error or no keyboard present. 
Press F1 to continue". Heute würde man sagen: FAIL!

> Heute gibts im BIOS von Desktops nicht selten eine "headless" Option.

Es gibt ja auch oft eine Option, um zu wählen, bei welchen "Fehlern" das 
BIOS anhält statt zu booten.

Rufus Τ. F. schrieb:
> Besonders hohe Auflösung können die Dinger dann aber nicht haben,

Nein. Man kann auf jeden Fall nicht die volle Auflösung der 
Einzeldisplays ausreizen. Das ist ja schon durch die Bandbreite von DVI 
vorgegeben. Ich weiß nicht genau, ob das ganze überhaupt Dual-Link-fähig 
ist.

> und die Graphikkarte muss in der Lage sein, sehr bizarre Bildformate zu
> liefern, wie z.B. 3840x1200 für zwei WUXGA-Displays nebeneinander, oder
> 1920x2400 für zwei WUXGA-Displays übereinander.

Sowas ist für die Grafikkarte in der Regel kein Problem. Limitierend 
sind da oft die Treiber, vor allem unter Windows - und die Automatiken. 
Wenn man sich dagegen von Hand für Xorg eine Modeline schnitzt, gehen in 
der Regel auch sehr exotische Auflösungen.

> Beim DP-Daisychaining sind die Monitore zwar physisch an einem Kabel
> angeschlossen, aber logisch sind sie separat, d.h. sie können auch
> unterschiedliche Auflösungen haben, und die Graphikkarte muss nicht
> irgendein riesiges Bildformat über alles ausgeben, aus dem sich die
> Monitore dann was aussuchen.

Ah, ok. Es sind quasi getrennte Monitore, die aber über ein gemeinsames 
Kabel am Rechner hängen, statt jeder über ein eigenes.

von Rufus Τ. F. (rufus) Benutzerseite


Lesenswert?

Rolf Magnus schrieb:
> Sowas ist für die Grafikkarte in der Regel kein Problem.

Sofern man im Rahmen dessen bleibt, was die Hardware ermöglicht. Und da 
ist bei DVI die Luft sehr schnell sehr dünn - die TMDS-Transceiver haben 
eine nur endliche Bandbreite.
Vor Äonen mal hatte ich mir meinen ersten Monitor mit DVI-Anschluss 
beschafft (mit UXGA-Auflösung) und vermeintlich passend dazu eine 
Matrox-Graphikkarte mit DVI-Anschluss. Leider stellte sich dann heraus, 
daß die auf dieser verbauten TMDS-Transceiver so lahm waren, daß bereits 
bei 1280x1024 das Ende der Fahnenstange erreicht war, und das Monitor 
nicht mit seiner nativen Auflösung angesteuert werden konnte. War, wenn 
ich mich recht erinnere, 'ne G450 oder 'ne G400.

von Georg (Gast)


Lesenswert?

Erwin M. schrieb:
> Die Nachforschung ergab dann das die
> (Nvidia-)Grafikkarte dem Mainboard einen Fehler meldet, der in einer
> frühen POST-Phase zum Stopp führt

Dafür sollte es die BIOS-Einstellung "Stop on Error" geben, die man 
ausschalten muss. Besonders für Server, aber nobody is perfect.

Ein Server sollte eigentlich starten selbst wenn garkeine Grafikkarte 
drin ist.

Georg

von Rolf Magnus (Gast)


Lesenswert?

Rufus Τ. F. schrieb:
> Rolf Magnus schrieb:
>> Sowas ist für die Grafikkarte in der Regel kein Problem.
>
> Sofern man im Rahmen dessen bleibt, was die Hardware ermöglicht. Und da
> ist bei DVI die Luft sehr schnell sehr dünn - die TMDS-Transceiver haben
> eine nur endliche Bandbreite.

Ich hatte mich nicht so sehr auf die hohe Auflösung, sondern eher auf 
"bizarre Bildformate" bezogen.
Ich musste letztens ein Display mit einer Auflösung von 1920x610 
ansteuern. Dafür habe ich mir vorher eine Modeline gebastelt, die diese 
Auflösung auch exakt so mit 60 Hz ausgibt. Der Full-HD-Monitor, wo ich's 
testweise angeschlossen habe, konnte das sogar darstellen, wenn auch in 
vertikaler Richtung gestreckt auf 1080 Zeilen.
Dann nacher am Zieldisplay angeschlossen - Bild ist gestört und sieht 
fehlerhaft aus. Es hat sich dann rausgestellt, dass das Display ein 
Full-HD-Signal erwartet und daraus dann die ersten 610 Zeilen darstellt 
und den Rest verwirft. Mit seiner nativen Auflösung konnte man es gar 
nicht ansteuern. Die Grafikkarte hätt's gekonnt.

Bitte melde dich an um einen Beitrag zu schreiben. Anmeldung ist kostenlos und dauert nur eine Minute.
Bestehender Account
Schon ein Account bei Google/GoogleMail? Keine Anmeldung erforderlich!
Mit Google-Account einloggen
Noch kein Account? Hier anmelden.