Hallo, wer kann mir erklären wie die physikalische Schnittstelle bei einer Farbtiefe von 32 Bit aussieht. Mir bekannte HDMI/DVI Receiver- und TransmitterBausteine unterstützen doch nur eine max. 24Bit Farbtiefe. Was passiert mit den 8Bit Alphawerten? Danke + Gruß max
max schrieb: > Was passiert mit den 8Bit Alphawerten? Nix, denn ein Monitor hat normalerweise kein Hintergundbild. Aber moderne Monitore können teilweise mehr als 8 Bits pro Kanal. Dreimal 10-Bit HDR sind 30 Bits, da bleiben nur noch 2 übrig - die drückt man in den Skat. ;-) Wenn kein HDR verwendet wird kann es gut sein dass die übrigen 8 Bits vom 32-bittigen Framebuffer nichtmal über HDMI rausgesendet werden.
HDMI nutzt 4 Signalpare, rot, grün, blau und Takt. Somit werden keine alpha-Werte übertragen, macht auch keinen Sinn, weil alpha nur die "Durchlässigkeit" des Bildes angibt.
user schrieb: > HDMI nutzt 4 Signalpare, rot, grün, blau und Takt. Somit werden keine > alpha-Werte übertragen, macht auch keinen Sinn, weil alpha nur die > "Durchlässigkeit" des Bildes angibt. Das ist doch Schwachsinn! Nur, weil normale TV's usw. keinen Alpha-Kanal brauchen heißt es noch lange nicht, dass es keinen Sinn machen würde!
user schrieb: > HDMI nutzt 4 Signalpare, rot, grün, blau und Takt. Ja, und jetzt erklären Sie mir, wie man das Audio dadurch hinbekommt. Wahrscheinlich kommen die roten Töne über den roten Signalpaar, usw....
max schrieb: > wer kann mir erklären wie die physikalische Schnittstelle bei einer > Farbtiefe von 32 Bit aussieht. Gar nicht, AFAIK auch nicht im Profibereich, wo das alles über SDI läuft. Da gibts einfach zwei Kanäle. Ist da aber auch einfacher als beim HDMI-Geraffel, sind nämlich nur zwei simple Koax-Leitungen.
Vielen Dank für die Ausführungen! Aber ist es nicht so, dass moderne Grafikkarten ausschließlich eine Farbtiefe von 32Bit (bzw. 16Bit) ausgeben. Bei älteren Systemen gab es noch 24Bit. Die sind aber heute kaum noch anzufinden. Gruß Max
>Das ist doch Schwachsinn! Nur, weil normale TV's usw. keinen Alpha-Kanal >brauchen heißt es noch lange nicht, dass es keinen Sinn machen würde! Hier arbeitet man bewusst mit den 8 Bit des Alpha-Kanals: https://www.hongkiat.com/blog/creative-transparent-screen-trick-photos/ ;)
max schrieb: > Vielen Dank für die Ausführungen! > Aber ist es nicht so, dass moderne Grafikkarten ausschließlich eine > Farbtiefe von 32Bit (bzw. 16Bit) ausgeben. Bei älteren Systemen gab es > noch 24Bit. Die sind aber heute kaum noch anzufinden. Das sind interne Darstellungsweisen, aber keine Ausgabeformate auf HDMI oder DisplayPort. Manche Grafikkarten können auch 10 Bit pro Farbkanal ausgeben. Wie das geht, steht im DisplayPort bzw HDMI Standard drin. fchk
max schrieb: > Aber ist es nicht so, dass moderne Grafikkarten ausschließlich eine > Farbtiefe von 32Bit (bzw. 16Bit) ausgeben. Nein, die 32 Bit bedeuten nur, daß im Speicher der Graphikkarte aus Performancegründen 32 Bit pro Pixel verwendet werden, 8 Bit bleiben davon ungenutzt. Bei "gepackter" 24-Bit-Anordnung sind Zugriffe des Rechners auf den Graphikkartenspeicher ineffizienter, weil Schiebe- und Maskierungsoperationen erforderlich sind. Bei einem 32-Bit-Schreibzugriff würden nicht nur die 24 Bit des gewünschten Pixels beschrieben, sondern auch 8 Bit des nächsten Pixels. Da Speicher von Graphikkarten aber mittlerweile erheblich größer ist als für die eigentliche Bitmapausgabe nötig, kann "verschwenderisch" mit dem Speicher umgegangen werden und jedes Pixel mit einem 32-bit-Schreibzugriff separat angesteuert werden. Die meisten Graphikkarten geben nur 8 Bit pro Grundfarbe aus; manche können auch 10 Bit pro Grundfarbe ausgeben, dann aber sind auch spezielle Monitore erforderlich, die in der Lage sind, so ein Signal zu verarbeiten. Um die Funktionsweise von HDMI zu verstehen, kann es hilfreich sein, sich von der Betrachtung von DVI zu lösen, zwar sind die beiden elektrisch kompatibel, aber aus HDMI-Sicht nur auf einer sehr einfachen und reduzierten Art. HDMI, so wie es heutzutage von Graphikkarten und Monitoren genutzt wird, kann erheblich mehr als DVI. Ein Beispiel dafür: HDMI entspricht "single-Link" DVI; mit "single-Link-DVI" kann maximal WUXGA-Auflösung (1920x1200) angesteuert werden. Über HDMI aber kann, je nach Version, auch UHD (3840x2160) angesteuert werden ...
max schrieb: > Aber ist es nicht so, dass moderne Grafikkarten ausschließlich eine > Farbtiefe von 32Bit (bzw. 16Bit) ausgeben. Nein, ist es nicht. Was du meinst, gibt an, mit wievielen Bits ein Pixel im Speicher dargestellt wird (8, 16, 24, oder 32). Am VGA-Ausgang wurde ein analoges Signal ausgegeben, da gab es keine Bits. Displays werden üblicherweise mit 18 (3x6), 24 (3x8) oder neuerdings auch 30 (3x10) Bits pro Pixel angesteuert und haben nie einen Alphakanal (wozu auch, sind ja nicht transparent). Die Daten werden dazu passend im HDMI-Datenstrom eincodiert.
Rufus Τ. F. schrieb: > Nein, die 32 Bit bedeuten nur, daß im Speicher der Graphikkarte aus > Performancegründen 32 Bit pro Pixel verwendet werden, 8 Bit bleiben > davon ungenutzt. Nitpick: Nur bei der Ausgabe. Bei 3D- Berechnungen kann man die extra 8 Bits für spezielle Effekte gezielt einsetzen.
Poiuytr schrieb: > user schrieb: > HDMI nutzt 4 Signalpare, rot, grün, blau und Takt. > > Ja, und jetzt erklären Sie mir, wie man das Audio dadurch hinbekommt. > Wahrscheinlich kommen die roten Töne über den roten Signalpaar, usw.... Nee, der rechte Audiokanal wird über den roten rgb-Kanal gesendet und der linke über den schwarzen rgb-kanal. So wie das immer schon war ;)
Schnappi schrieb: > Poiuytr schrieb: >> user schrieb: >> HDMI nutzt 4 Signalpare, rot, grün, blau und Takt. >> >> Ja, und jetzt erklären Sie mir, wie man das Audio dadurch hinbekommt. >> Wahrscheinlich kommen die roten Töne über den roten Signalpaar, usw.... > > Nee, der rechte Audiokanal wird über den roten rgb-Kanal gesendet und > der linke über den schwarzen rgb-kanal. So wie das immer schon war ;) Für den Fall, dass es jemanden interessiert, wie Audio übertragen wird: Normale Bildsignale werden in HDMI mittels TMDS kodiert. Ist eine 8b/10b Kodierung. Ein Datenkanal kann entweder 8 bit Daten in 10 bit codiert übertragen oder 2 Control-bits. Bei drei Datenkanälen kommen also 24 bit Daten oder 6 Controlbits zusammen. Zwei dieser Controlbits sind reserviert für HSYNC und VSYNC. Auf welchem Kanal die liegen, weiß ich nicht auswendig. Audiosignale werden, wie andere Datenpakete (Ethernet ...) auch, in der Blanking-Zeit des Bildes übertragen. Dafür wird über die Controlbits eine Präambel gesendet, dass ein Datenpaket folgt. Die Daten selbst werden dann über eine andere Kodierung übermittelt. Diese Datenpakete nennt man auch Data-Islands. Ein nicht HDMI-kompatibler Empfänger (Bsp: DVI Monitor) kann mit dieser Kodierung nichts anfangen, da diese Sequenzen in TMDS nicht belegt sind.
Rufus Τ. F. schrieb: > HDMI, so wie es heutzutage von Graphikkarten und > Monitoren genutzt wird, kann erheblich mehr als DVI. > > Ein Beispiel dafür: > HDMI entspricht "single-Link" DVI; mit "single-Link-DVI" kann maximal > WUXGA-Auflösung (1920x1200) angesteuert werden. > Über HDMI aber kann, je nach Version, auch UHD (3840x2160) angesteuert > werden ... HDMI war immer schon die Spielzeug-Schnittstelle für die Jubelelektronik. HDMI hinkt deshalb immer den aktuellen Computerschnittstellen hinterher. HDMI konnte erst mit v1.3 die DVI Auflösung von 1920x1200 übertragen. Da war DVI schon viele Jahre alt und bei Computern wurde da schon lange Dual-Link DVI mit noch viel höheren Auflösungen verwendet (wenn nötig). Kurz nach HDMI1.3 stellte die Computerindustrie für High End Video von DVI auf DisplayPort um, weil ja für Computer (im Gegensatz zur Jubelelektronik) auch Dual-Link DVI nicht mehr ausreichte. Natürlich gibt es noch immer DVI Schnittstellen, ganz einfach weil viele keine höheren Anforderungen haben. Aber es hat wenig Sinn aktuelles HDMI mit DVI zu vergleichen. Wer hohe Auflösung braucht, war früher mit DVI besser bedient als mit HDMI, und heute mit DP statt HDMI.
Andi B. schrieb: > HDMI konnte erst mit v1.3 die DVI Auflösung von 1920x1200 übertragen. Ich würd' mal sagen, daß Du Dich da ziemlich vertust. HDMI 1.0 war das direkte Äquvialent von Single-Link-DVI, mit 165 MHz TDMS-Takt. Damit ist 1920x1200 mit 24 Bit Farbtiefe und 60 Hz möglich. Wie kommst Du auf die Idee, daß das anders sein könnte?
Rufus Τ. F. schrieb: > Andi B. schrieb: >> HDMI konnte erst mit v1.3 die DVI Auflösung von 1920x1200 übertragen. > > Ich würd' mal sagen, daß Du Dich da ziemlich vertust. > > HDMI 1.0 war das direkte Äquvialent von Single-Link-DVI, mit 165 MHz > TDMS-Takt. Damit ist 1920x1200 mit 24 Bit Farbtiefe und 60 Hz möglich. > > Wie kommst Du auf die Idee, daß das anders sein könnte? Meinem Erinnerungsvermögen alleine würde ich da jetzt nicht mehr trauen. Darum hier eine schöne Übersicht - https://de.wikipedia.org/wiki/High_Definition_Multimedia_Interface Oder noch besser auf der englischen Seite - https://en.wikipedia.org/wiki/HDMI
Das ist schön, daß Du auch die Wikipedia-Seiten gefunden hast. Aber Du scheinst sie mit einem anderen Algorithmus zu lesen und zu verstehen als ich. Welchem Punkt bitte entnimmst Du, daß WUXGA (1920x1200) erst am HDMI1.3 möglich sein soll? Beziehst Du Dich darauf, daß statt 1200 Pixeln Vertikalauflösung nur die 1080 Pixel des vertikal kastrierten "Full-HD" genannt werden?
Andi B. schrieb: > Oder noch besser auf der englischen Seite - > https://en.wikipedia.org/wiki/HDMI Ich darf mal davon zitieren? Version 1.0 HDMI 1.0 was released on December 9, 2002 and is a single-cable digital audio/video connector interface. The link architecture is based on DVI, using exactly the same video transmission format but sending audio and other auxiliary data during the blanking intervals of the video stream. HDMI 1.0 allows a maximum TMDS clock of 165 MHz (4.95 Gbit/s bandwidth per link), the same as DVI. It defines two connectors called Type A and Type B, with pinouts based on the Single-Link DVI-D and Dual-Link DVI-D connectors respectively, though the Type B connector was never used in any commercial products. HDMI 1.0 uses 8b/10b encoding for video transmission, giving it 3.96 Gbit/s of video bandwidth (1920 × 1080 or 1920 × 1200 at 60 Hz) and 8 channel LPCM/192 kHz/24-bit audio. HDMI konnte also bereits in Version 1.0 das gleiche wie Single-Link-DVI, nur dass es zusätzlich noch 7.1-"HD"-Audio übertragen konnte. Sogar Dual-Link wurde unterstützt, aber nie verwendet, weil's keiner gebraucht hat.
:
Bearbeitet durch User
Rufus Τ. F. schrieb: > Das ist schön, daß Du auch die Wikipedia-Seiten gefunden hast. Aber Du > scheinst sie mit einem anderen Algorithmus zu lesen und zu verstehen als > ich. Das ist wohl die beste Erklärung :-) Ich hoffe wir sind uns zumindest da einig - Andi B. schrieb: > HDMI hinkt deshalb immer den aktuellen > Computerschnittstellen hinterher. Weil selbst die erste HDMI Version 3 1/2 Jahre jünger ist als DVI. (9.2002 - 4.1999) Ich denke noch immer, dass HDMI < 1.3 z.B. für 1900x1200 nicht spezifiziert ist. Und somit nicht garantiert funktionieren muss mit jedem Gerät welches einen HDMI Eingang hat. Dafür muss es aber HDCP können und in den Daten muss Platz für CEC und Audio sein. Vielleicht liege ich auch völlig falsch, aber selbst bei DVI geht 1920x1200 / 60 Hz nur mit reduced blanking interval. Und gerade im Blanking Bereich müssen bei HDMI die Zusatzdaten drinnen sein. Hauptsächlich ging es mir aber darum, dass dies - Rufus Τ. F. schrieb: > Ein Beispiel dafür: > HDMI entspricht "single-Link" DVI; mit "single-Link-DVI" kann maximal > WUXGA-Auflösung (1920x1200) angesteuert werden. > Über HDMI aber kann, je nach Version, auch UHD (3840x2160) angesteuert > werden ... ein unfairer Vergleich ist. DVI aus 1999 mit HDMI aus 2017.
Andi B. schrieb: > ein unfairer Vergleich ist. DVI aus 1999 mit HDMI aus 2017. Nö. Du hast DVI als HDMI überlegen dargestellt, erinnerst Du Dich nicht? Das aber war es nie, der einzige reale Vorteil sind die geschraubten Stecker. Die aber wiederum den Nachteil haben, deutlich klobiger zu sein.
:
Bearbeitet durch User
Sowohl DVI als auch HDMI basieren auf TDMS von Silicon Image. HDMI bekam noch den HDCP und einen Audiokanal um für Glotzen tauglich zu sein. Eigentlich wäre Displayport die Schnittstelle der Wahl, aber aus unerfindlichen Gründen halten die Hersteller der Glotzen an HDMI fest. Gibt es eigentlich schon Panel mit mehr als 8 Bit pro Farbe? Ich bin da etwas aus der Thematik raus.
Michael X. schrieb: > Eigentlich wäre Displayport die Schnittstelle der Wahl, aber aus > unerfindlichen Gründen halten die Hersteller der Glotzen an HDMI fest. Die "unerfindlichen Gründe" nenne ich mal "Infrastruktur". Du kannst nach wie vor noch Notebooks mit VGA-Ausgang kaufen, weil viele Beamer damit arbeiten und die Infrastruktur dafür in großem Stil verbaut wurde. Inzwischen wird statt VGA fast überall HDMI benutzt, aber bis die Bürogebäude nochmal umgebaut werden, ist DP auch schon wieder veraltet.
Michael X. schrieb: > Eigentlich wäre Displayport die Schnittstelle der Wahl, Eigentlich wäre HD-SDI die Schnittstelle der Wahl, das war AFAIR sogar noch etwas früher als DVI. Unkaputtbares und trotzdem einfach bedienbares BNC, einfaches Koaxkabel. Mit billigem Sat-Kabel geht SDI in 1080i50 ca. 150m weit. Das soll HDMI erstmal schaffen ;) Das EDID-Gefummel hätten sie sicher auch noch irgendwie reinbekommen, wenn sie gewollt hätten...
Georg A. schrieb: > Eigentlich wäre HD-SDI die Schnittstelle der Wahl, SDI mach meines Wissens nach nicht RGB, sondern YUV mit einem Farbdifferenzbyte pro Helligkeitsbyte,also 2/3 der Datenrate vom HDMI-Originalsignal. (Heißt das 4:2:2?) Es kommt halt aus der Fernsehtechnik. > Das EDID-Gefummel hätten sie sicher auch noch irgendwie reinbekommen, > wenn sie gewollt hätten... Schwierig. SDI ist unidirektional, und da noch was in Gegenrichtung zu senden - irgendwie würde es gehen, aber SDI war niemals für IT gedacht. S. R. schrieb: > Damit kannst du aber kein UltraFlachLaptop bauen. :-( Es sind auch Mini-Stecker für SDI standardisiert. Wie flach es damit geht, weiß ich nicht, aber so, wie USB-C, sicherlich nicht. Und wenn man es gewollt hätte, hätte man auch 3 mm-Stecker und Buchsen standardisiert, das wäre das kleinste Problem.
Poiuytr schrieb: > Das ist doch Schwachsinn! Nur, weil normale TV's usw. keinen Alpha-Kanal > brauchen heißt es noch lange nicht, dass es keinen Sinn machen würde! Sollte man das jemals brauchen macht man kurzerhand ne neue Norm, neue Stecker, neue Kabel, neue Geräte, neuer Umsatz.
Nur ist HDMI signaltechnisch ziemlich am Ende. Du bekommst bei der Zulassung entweder Probleme mit der EMV oder Signalintigrität.
Chester schrieb: >>Das ist doch Schwachsinn! Nur, weil normale TV's usw. keinen Alpha-Kanal >>brauchen heißt es noch lange nicht, dass es keinen Sinn machen würde! > > Hier arbeitet man bewusst mit den 8 Bit des Alpha-Kanals: > https://www.hongkiat.com/blog/creative-transparent-screen-trick-photos/ Ein derartiges Display ist soweit ich weiß durchaus schon in real erfunden worden, mit OLEDs für die Farben und einem darunterliegenden LCD für die Transparenz. Michael X. schrieb: > Nur ist HDMI signaltechnisch ziemlich am Ende. Du bekommst bei der > Zulassung entweder Probleme mit der EMV oder Signalintigrität. Ende letztes Jahr wurde die Spezifikation für HDMI 2.1 freigegeben, mit fast doppelt soviel Bandbreite wie der aktuelle DisplayPort. Es soll dann 10k-Videos mit 120 Hz ermöglichen.
Rufus Τ. F. schrieb: > Andi B. schrieb: >> ein unfairer Vergleich ist. DVI aus 1999 mit HDMI aus 2017. > > Nö. Du hast DVI als HDMI überlegen dargestellt, erinnerst Du Dich nicht? Nein. Ich habe gesagt, dass HDMI eine Spielzeugschnittstelle ist, welche den Computerschnittstellen puncto Auflösung immer hinterherhinkt. DVI konnte 1999 schon was HDMI erst viele Jahre später könnte. Du hast den Vergleich zwischen DVI 1999 mit dem 18 Jahre jüngeren HDMI 2017 ins Spiel gebracht um zu zeigen wie toll doch HDMI heutzutage mit Graphikkarten und Monitore läuft. Da war der Verweis meinerseits auf die zeitgerechte Computerschnittstelle DP doch angebracht. Den genau für diesen Anwendungsfall ist und war HDMI nie die beste Wahl. Das HDMI nach wie vor in der Jubelelektronik seine Berechtigung hat, ist dazu kein Widerspruch. Nur im Computerbereich gab und gibt es immer was besseres als HDMI.
:
Bearbeitet durch User
Das ist Deine sehr eigene und sehr spezifische Logik. Danke für die Darstellung.
Bitte melde dich an um einen Beitrag zu schreiben. Anmeldung ist kostenlos und dauert nur eine Minute.
Bestehender Account
Schon ein Account bei Google/GoogleMail? Keine Anmeldung erforderlich!
Mit Google-Account einloggen
Mit Google-Account einloggen
Noch kein Account? Hier anmelden.