Forum: Mikrocontroller und Digitale Elektronik 32 Bit Farbe physikalisch über HDMI übertragen


Announcement: there is an English version of this forum on EmbDev.net. Posts you create there will be displayed on Mikrocontroller.net and EmbDev.net.
von max (Gast)


Bewertung
0 lesenswert
nicht lesenswert
Hallo,
wer kann mir erklären wie die physikalische Schnittstelle bei einer 
Farbtiefe von 32 Bit aussieht. Mir bekannte HDMI/DVI Receiver- und 
TransmitterBausteine unterstützen doch nur eine max. 24Bit Farbtiefe. 
Was passiert mit den 8Bit Alphawerten?

Danke + Gruß
max

von Jim M. (turboj)


Bewertung
0 lesenswert
nicht lesenswert
max schrieb:
> Was passiert mit den 8Bit Alphawerten?

Nix, denn ein Monitor hat normalerweise kein Hintergundbild.

Aber moderne Monitore können teilweise mehr als 8 Bits pro Kanal. 
Dreimal 10-Bit HDR sind 30 Bits, da bleiben nur noch 2 übrig - die 
drückt man in den Skat. ;-)

Wenn kein HDR verwendet wird kann es gut sein dass die übrigen 8 Bits 
vom 32-bittigen Framebuffer nichtmal über HDMI rausgesendet werden.

von user (Gast)


Bewertung
1 lesenswert
nicht lesenswert
HDMI nutzt 4 Signalpare, rot, grün, blau und Takt. Somit werden keine 
alpha-Werte übertragen, macht auch keinen Sinn, weil alpha nur die 
"Durchlässigkeit" des Bildes angibt.

von Poiuytr (Gast)


Bewertung
-5 lesenswert
nicht lesenswert
user schrieb:
> HDMI nutzt 4 Signalpare, rot, grün, blau und Takt. Somit werden keine
> alpha-Werte übertragen, macht auch keinen Sinn, weil alpha nur die
> "Durchlässigkeit" des Bildes angibt.

Das ist doch Schwachsinn! Nur, weil normale TV's usw. keinen Alpha-Kanal 
brauchen heißt es noch lange nicht, dass es keinen Sinn machen würde!

von Poiuytr (Gast)


Bewertung
-5 lesenswert
nicht lesenswert
user schrieb:
> HDMI nutzt 4 Signalpare, rot, grün, blau und Takt.

Ja, und jetzt erklären Sie mir, wie man das Audio dadurch hinbekommt. 
Wahrscheinlich kommen die roten Töne über den roten Signalpaar, usw....

von Georg A. (georga)


Bewertung
0 lesenswert
nicht lesenswert
max schrieb:
> wer kann mir erklären wie die physikalische Schnittstelle bei einer
> Farbtiefe von 32 Bit aussieht.

Gar nicht, AFAIK auch nicht im Profibereich, wo das alles über SDI 
läuft. Da gibts einfach zwei Kanäle. Ist da aber auch einfacher als beim 
HDMI-Geraffel, sind nämlich nur zwei simple Koax-Leitungen.

von max (Gast)


Bewertung
0 lesenswert
nicht lesenswert
Vielen Dank für die Ausführungen!
Aber ist es nicht so, dass moderne Grafikkarten ausschließlich eine 
Farbtiefe von 32Bit (bzw. 16Bit) ausgeben. Bei älteren Systemen gab es 
noch 24Bit. Die sind aber heute kaum noch anzufinden.

Gruß
Max

von Chester (Gast)


Bewertung
0 lesenswert
nicht lesenswert
>Das ist doch Schwachsinn! Nur, weil normale TV's usw. keinen Alpha-Kanal
>brauchen heißt es noch lange nicht, dass es keinen Sinn machen würde!

Hier arbeitet man bewusst mit den 8 Bit des Alpha-Kanals:
https://www.hongkiat.com/blog/creative-transparent-screen-trick-photos/

;)

von Frank K. (fchk)


Bewertung
0 lesenswert
nicht lesenswert
max schrieb:
> Vielen Dank für die Ausführungen!
> Aber ist es nicht so, dass moderne Grafikkarten ausschließlich eine
> Farbtiefe von 32Bit (bzw. 16Bit) ausgeben. Bei älteren Systemen gab es
> noch 24Bit. Die sind aber heute kaum noch anzufinden.

Das sind interne Darstellungsweisen, aber keine Ausgabeformate auf HDMI 
oder DisplayPort.

Manche Grafikkarten können auch 10 Bit pro Farbkanal ausgeben. Wie das 
geht, steht im DisplayPort bzw HDMI Standard drin.

fchk

von Rufus Τ. F. (rufus) (Moderator) Benutzerseite


Bewertung
0 lesenswert
nicht lesenswert
max schrieb:
> Aber ist es nicht so, dass moderne Grafikkarten ausschließlich eine
> Farbtiefe von 32Bit (bzw. 16Bit) ausgeben.

Nein, die 32 Bit bedeuten nur, daß im Speicher der Graphikkarte aus 
Performancegründen 32 Bit pro Pixel verwendet werden, 8 Bit bleiben 
davon ungenutzt. Bei "gepackter" 24-Bit-Anordnung sind Zugriffe des 
Rechners auf den Graphikkartenspeicher ineffizienter, weil Schiebe- und 
Maskierungsoperationen erforderlich sind. Bei einem 
32-Bit-Schreibzugriff würden nicht nur die 24 Bit des gewünschten Pixels 
beschrieben, sondern auch 8 Bit des nächsten Pixels.

Da Speicher von Graphikkarten aber mittlerweile erheblich größer ist als 
für die eigentliche Bitmapausgabe nötig, kann "verschwenderisch" mit dem 
Speicher umgegangen werden und jedes Pixel mit einem 
32-bit-Schreibzugriff separat angesteuert werden.

Die meisten Graphikkarten geben nur 8 Bit pro Grundfarbe aus; manche 
können auch 10 Bit pro Grundfarbe ausgeben, dann aber sind auch 
spezielle Monitore erforderlich, die in der Lage sind, so ein Signal zu 
verarbeiten.

Um die Funktionsweise von HDMI zu verstehen, kann es hilfreich sein, 
sich von der Betrachtung von DVI zu lösen, zwar sind die beiden 
elektrisch kompatibel, aber aus HDMI-Sicht nur auf einer sehr einfachen 
und reduzierten Art. HDMI, so wie es heutzutage von Graphikkarten und 
Monitoren genutzt wird, kann erheblich mehr als DVI.

Ein Beispiel dafür:
HDMI entspricht "single-Link" DVI; mit "single-Link-DVI" kann maximal 
WUXGA-Auflösung (1920x1200) angesteuert werden.
Über HDMI aber kann, je nach Version, auch UHD (3840x2160) angesteuert 
werden ...

von S. R. (svenska)


Bewertung
0 lesenswert
nicht lesenswert
max schrieb:
> Aber ist es nicht so, dass moderne Grafikkarten ausschließlich eine
> Farbtiefe von 32Bit (bzw. 16Bit) ausgeben.

Nein, ist es nicht. Was du meinst, gibt an, mit wievielen Bits ein Pixel 
im Speicher dargestellt wird (8, 16, 24, oder 32). Am VGA-Ausgang wurde 
ein analoges Signal ausgegeben, da gab es keine Bits.

Displays werden üblicherweise mit 18 (3x6), 24 (3x8) oder neuerdings 
auch 30 (3x10) Bits pro Pixel angesteuert und haben nie einen Alphakanal 
(wozu auch, sind ja nicht transparent). Die Daten werden dazu passend im 
HDMI-Datenstrom eincodiert.

von Jim M. (turboj)


Bewertung
0 lesenswert
nicht lesenswert
Rufus Τ. F. schrieb:
> Nein, die 32 Bit bedeuten nur, daß im Speicher der Graphikkarte aus
> Performancegründen 32 Bit pro Pixel verwendet werden, 8 Bit bleiben
> davon ungenutzt.

Nitpick: Nur bei der Ausgabe. Bei 3D- Berechnungen kann man die extra 8 
Bits für spezielle Effekte gezielt einsetzen.

von Schnappi (Gast)


Bewertung
2 lesenswert
nicht lesenswert
Poiuytr schrieb:
> user schrieb:
> HDMI nutzt 4 Signalpare, rot, grün, blau und Takt.
>
> Ja, und jetzt erklären Sie mir, wie man das Audio dadurch hinbekommt.
> Wahrscheinlich kommen die roten Töne über den roten Signalpaar, usw....

Nee, der rechte Audiokanal wird über den roten rgb-Kanal gesendet und 
der linke über den schwarzen rgb-kanal. So wie das immer schon war ;)

von M. H. (bambel2)


Bewertung
1 lesenswert
nicht lesenswert
Schnappi schrieb:
> Poiuytr schrieb:
>> user schrieb:
>> HDMI nutzt 4 Signalpare, rot, grün, blau und Takt.
>>
>> Ja, und jetzt erklären Sie mir, wie man das Audio dadurch hinbekommt.
>> Wahrscheinlich kommen die roten Töne über den roten Signalpaar, usw....
>
> Nee, der rechte Audiokanal wird über den roten rgb-Kanal gesendet und
> der linke über den schwarzen rgb-kanal. So wie das immer schon war ;)

Für den Fall, dass es jemanden interessiert, wie Audio übertragen wird:

Normale Bildsignale werden in HDMI mittels TMDS kodiert. Ist eine 8b/10b 
Kodierung.

Ein Datenkanal kann entweder 8 bit Daten in 10 bit codiert übertragen 
oder 2 Control-bits. Bei drei Datenkanälen kommen also 24 bit Daten oder 
6 Controlbits zusammen. Zwei dieser Controlbits sind reserviert für 
HSYNC und VSYNC. Auf welchem Kanal die liegen, weiß ich nicht auswendig.

Audiosignale werden, wie andere Datenpakete (Ethernet ...) auch, in der 
Blanking-Zeit des Bildes übertragen. Dafür wird über die Controlbits 
eine Präambel gesendet, dass ein Datenpaket folgt. Die Daten selbst 
werden dann über eine andere Kodierung übermittelt. Diese Datenpakete 
nennt man auch Data-Islands. Ein nicht HDMI-kompatibler Empfänger (Bsp: 
DVI Monitor) kann mit dieser Kodierung nichts anfangen, da diese 
Sequenzen in TMDS nicht belegt sind.

: Bearbeitet durch User
von Andi B. (andi_b2)


Bewertung
-1 lesenswert
nicht lesenswert
Rufus Τ. F. schrieb:
> HDMI, so wie es heutzutage von Graphikkarten und
> Monitoren genutzt wird, kann erheblich mehr als DVI.
>
> Ein Beispiel dafür:
> HDMI entspricht "single-Link" DVI; mit "single-Link-DVI" kann maximal
> WUXGA-Auflösung (1920x1200) angesteuert werden.
> Über HDMI aber kann, je nach Version, auch UHD (3840x2160) angesteuert
> werden ...

HDMI war immer schon die Spielzeug-Schnittstelle für die 
Jubelelektronik. HDMI hinkt deshalb immer den aktuellen 
Computerschnittstellen hinterher. HDMI konnte erst mit v1.3 die DVI 
Auflösung von 1920x1200 übertragen. Da war DVI schon viele Jahre alt und 
bei Computern wurde da schon lange Dual-Link DVI mit noch viel höheren 
Auflösungen verwendet (wenn nötig).

Kurz nach HDMI1.3 stellte die Computerindustrie für High End Video von 
DVI auf DisplayPort um, weil ja für Computer (im Gegensatz zur 
Jubelelektronik) auch Dual-Link DVI nicht mehr ausreichte. Natürlich 
gibt es noch immer DVI Schnittstellen, ganz einfach weil viele keine 
höheren Anforderungen haben. Aber es hat wenig Sinn aktuelles HDMI mit 
DVI zu vergleichen. Wer hohe Auflösung braucht, war früher mit DVI 
besser bedient als mit HDMI, und heute mit DP statt HDMI.

von Rufus Τ. F. (rufus) (Moderator) Benutzerseite


Bewertung
0 lesenswert
nicht lesenswert
Andi B. schrieb:
> HDMI konnte erst mit v1.3 die DVI Auflösung von 1920x1200 übertragen.

Ich würd' mal sagen, daß Du Dich da ziemlich vertust.

HDMI 1.0 war das direkte Äquvialent von Single-Link-DVI, mit 165 MHz 
TDMS-Takt. Damit ist 1920x1200 mit 24 Bit Farbtiefe und 60 Hz möglich.

Wie kommst Du auf die Idee, daß das anders sein könnte?

von Andi B. (andi_b2)


Bewertung
0 lesenswert
nicht lesenswert
Rufus Τ. F. schrieb:
> Andi B. schrieb:
>> HDMI konnte erst mit v1.3 die DVI Auflösung von 1920x1200 übertragen.
>
> Ich würd' mal sagen, daß Du Dich da ziemlich vertust.
>
> HDMI 1.0 war das direkte Äquvialent von Single-Link-DVI, mit 165 MHz
> TDMS-Takt. Damit ist 1920x1200 mit 24 Bit Farbtiefe und 60 Hz möglich.
>
> Wie kommst Du auf die Idee, daß das anders sein könnte?

Meinem Erinnerungsvermögen alleine würde ich da jetzt nicht mehr trauen. 
Darum hier eine schöne Übersicht - 
https://de.wikipedia.org/wiki/High_Definition_Multimedia_Interface

Oder noch besser auf der englischen Seite - 
https://en.wikipedia.org/wiki/HDMI

von Rufus Τ. F. (rufus) (Moderator) Benutzerseite


Bewertung
0 lesenswert
nicht lesenswert
Das ist schön, daß Du auch die Wikipedia-Seiten gefunden hast. Aber Du 
scheinst sie mit einem anderen Algorithmus zu lesen und zu verstehen als 
ich.

Welchem Punkt bitte entnimmst Du, daß WUXGA (1920x1200) erst am HDMI1.3 
möglich sein soll?

Beziehst Du Dich darauf, daß statt 1200 Pixeln Vertikalauflösung nur die 
1080 Pixel des vertikal kastrierten "Full-HD" genannt werden?

von Rolf M. (rmagnus)


Bewertung
0 lesenswert
nicht lesenswert
Andi B. schrieb:
> Oder noch besser auf der englischen Seite -
> https://en.wikipedia.org/wiki/HDMI

Ich darf mal davon zitieren?

Version 1.0

HDMI 1.0 was released on December 9, 2002 and is a single-cable digital 
audio/video connector interface. The link architecture is based on DVI, 
using exactly the same video transmission format but sending audio and 
other auxiliary data during the blanking intervals of the video stream. 
HDMI 1.0 allows a maximum TMDS clock of 165 MHz (4.95 Gbit/s bandwidth 
per link), the same as DVI. It defines two connectors called Type A and 
Type B, with pinouts based on the Single-Link DVI-D and Dual-Link DVI-D 
connectors respectively, though the Type B connector was never used in 
any commercial products. HDMI 1.0 uses 8b/10b encoding for video 
transmission, giving it 3.96 Gbit/s of video bandwidth (1920 × 1080 or 
1920 × 1200 at 60 Hz) and 8 channel LPCM/192 kHz/24-bit audio.


HDMI konnte also bereits in Version 1.0 das gleiche wie Single-Link-DVI, 
nur dass es zusätzlich noch 7.1-"HD"-Audio übertragen konnte. Sogar 
Dual-Link wurde unterstützt, aber nie verwendet, weil's keiner gebraucht 
hat.

: Bearbeitet durch User
von Andi B. (andi_b2)


Bewertung
0 lesenswert
nicht lesenswert
Rufus Τ. F. schrieb:
> Das ist schön, daß Du auch die Wikipedia-Seiten gefunden hast. Aber Du
> scheinst sie mit einem anderen Algorithmus zu lesen und zu verstehen als
> ich.

Das ist wohl die beste Erklärung :-)

Ich hoffe wir sind uns zumindest da einig -
Andi B. schrieb:
> HDMI hinkt deshalb immer den aktuellen
> Computerschnittstellen hinterher.
Weil selbst die erste HDMI Version 3 1/2 Jahre jünger ist als DVI. 
(9.2002 - 4.1999)

Ich denke noch immer, dass HDMI < 1.3 z.B. für 1900x1200 nicht 
spezifiziert ist. Und somit nicht garantiert funktionieren muss mit 
jedem Gerät welches einen HDMI Eingang hat. Dafür muss es aber HDCP 
können und in den Daten muss Platz für CEC und Audio sein. Vielleicht 
liege ich auch völlig falsch, aber selbst bei DVI geht 1920x1200 / 60 Hz 
nur mit reduced blanking interval. Und gerade im Blanking Bereich müssen 
bei HDMI die Zusatzdaten drinnen sein.

Hauptsächlich ging es mir aber darum, dass dies -
Rufus Τ. F. schrieb:
> Ein Beispiel dafür:
> HDMI entspricht "single-Link" DVI; mit "single-Link-DVI" kann maximal
> WUXGA-Auflösung (1920x1200) angesteuert werden.
> Über HDMI aber kann, je nach Version, auch UHD (3840x2160) angesteuert
> werden ...
ein unfairer Vergleich ist. DVI aus 1999 mit HDMI aus 2017.

von Rufus Τ. F. (rufus) (Moderator) Benutzerseite


Bewertung
1 lesenswert
nicht lesenswert
Andi B. schrieb:
> ein unfairer Vergleich ist. DVI aus 1999 mit HDMI aus 2017.

Nö. Du hast DVI als HDMI überlegen dargestellt, erinnerst Du Dich nicht?

Das aber war es nie, der einzige reale Vorteil sind die geschraubten 
Stecker. Die aber wiederum den Nachteil haben, deutlich klobiger zu 
sein.

: Bearbeitet durch Moderator
von Michael X. (Firma: vyuxc) (der-michl)


Bewertung
0 lesenswert
nicht lesenswert
Sowohl DVI als auch HDMI basieren auf TDMS von Silicon Image. HDMI bekam 
noch den HDCP und einen Audiokanal um für Glotzen tauglich zu sein. 
Eigentlich wäre Displayport die Schnittstelle der Wahl, aber aus 
unerfindlichen Gründen halten die Hersteller der Glotzen an HDMI fest.

Gibt es eigentlich schon Panel mit mehr als 8 Bit pro Farbe? Ich bin da 
etwas aus der Thematik raus.

von S. R. (svenska)


Bewertung
1 lesenswert
nicht lesenswert
Michael X. schrieb:
> Eigentlich wäre Displayport die Schnittstelle der Wahl, aber aus
> unerfindlichen Gründen halten die Hersteller der Glotzen an HDMI fest.

Die "unerfindlichen Gründe" nenne ich mal "Infrastruktur". Du kannst 
nach wie vor noch Notebooks mit VGA-Ausgang kaufen, weil viele Beamer 
damit arbeiten und die Infrastruktur dafür in großem Stil verbaut wurde. 
Inzwischen wird statt VGA fast überall HDMI benutzt, aber bis die 
Bürogebäude nochmal umgebaut werden, ist DP auch schon wieder veraltet.

von Georg A. (georga)


Bewertung
0 lesenswert
nicht lesenswert
Michael X. schrieb:
> Eigentlich wäre Displayport die Schnittstelle der Wahl,

Eigentlich wäre HD-SDI die Schnittstelle der Wahl, das war AFAIR sogar 
noch etwas früher als DVI. Unkaputtbares und trotzdem einfach 
bedienbares BNC, einfaches Koaxkabel. Mit billigem Sat-Kabel geht SDI in 
1080i50 ca. 150m weit. Das soll HDMI erstmal schaffen ;)

Das EDID-Gefummel hätten sie sicher auch noch irgendwie reinbekommen, 
wenn sie gewollt hätten...

von S. R. (svenska)


Bewertung
0 lesenswert
nicht lesenswert
Georg A. schrieb:
> BNC, einfaches Koaxkabel

Damit kannst du aber kein UltraFlachLaptop bauen. :-(

von Der Zahn der Zeit (Gast)


Bewertung
1 lesenswert
nicht lesenswert
Georg A. schrieb:
> Eigentlich wäre HD-SDI die Schnittstelle der Wahl,

SDI mach meines Wissens nach nicht RGB, sondern YUV mit einem 
Farbdifferenzbyte pro Helligkeitsbyte,also 2/3 der Datenrate vom 
HDMI-Originalsignal. (Heißt das 4:2:2?) Es kommt halt aus der 
Fernsehtechnik.

> Das EDID-Gefummel hätten sie sicher auch noch irgendwie reinbekommen,
> wenn sie gewollt hätten...
Schwierig. SDI ist unidirektional, und da noch was in Gegenrichtung zu 
senden - irgendwie würde es gehen, aber SDI war niemals für IT gedacht.

S. R. schrieb:
> Damit kannst du aber kein UltraFlachLaptop bauen. :-(
Es sind auch Mini-Stecker für SDI standardisiert. Wie flach es damit 
geht, weiß ich nicht, aber so, wie USB-C, sicherlich nicht. Und wenn man 
es gewollt hätte, hätte man auch 3 mm-Stecker und Buchsen 
standardisiert, das wäre das kleinste Problem.

von Bernd K. (prof7bit)


Bewertung
0 lesenswert
nicht lesenswert
Poiuytr schrieb:
> Das ist doch Schwachsinn! Nur, weil normale TV's usw. keinen Alpha-Kanal
> brauchen heißt es noch lange nicht, dass es keinen Sinn machen würde!

Sollte man das jemals brauchen macht man kurzerhand ne neue Norm, neue 
Stecker, neue Kabel, neue Geräte, neuer Umsatz.

von Michael X. (Firma: vyuxc) (der-michl)


Bewertung
0 lesenswert
nicht lesenswert
Nur ist HDMI signaltechnisch ziemlich am Ende. Du bekommst bei der 
Zulassung entweder Probleme mit der EMV oder Signalintigrität.

von Rolf M. (rmagnus)


Bewertung
1 lesenswert
nicht lesenswert
Chester schrieb:
>>Das ist doch Schwachsinn! Nur, weil normale TV's usw. keinen Alpha-Kanal
>>brauchen heißt es noch lange nicht, dass es keinen Sinn machen würde!
>
> Hier arbeitet man bewusst mit den 8 Bit des Alpha-Kanals:
> https://www.hongkiat.com/blog/creative-transparent-screen-trick-photos/

Ein derartiges Display ist soweit ich weiß durchaus schon in real 
erfunden worden, mit OLEDs für die Farben und einem darunterliegenden 
LCD für die Transparenz.

Michael X. schrieb:
> Nur ist HDMI signaltechnisch ziemlich am Ende. Du bekommst bei der
> Zulassung entweder Probleme mit der EMV oder Signalintigrität.

Ende letztes Jahr wurde die Spezifikation für HDMI 2.1 freigegeben, mit 
fast doppelt soviel Bandbreite wie der aktuelle DisplayPort. Es soll 
dann 10k-Videos mit 120 Hz ermöglichen.

von Andi B. (andi_b2)


Bewertung
0 lesenswert
nicht lesenswert
Rufus Τ. F. schrieb:
> Andi B. schrieb:
>> ein unfairer Vergleich ist. DVI aus 1999 mit HDMI aus 2017.
>
> Nö. Du hast DVI als HDMI überlegen dargestellt, erinnerst Du Dich nicht?

Nein. Ich habe gesagt, dass HDMI eine Spielzeugschnittstelle ist, welche 
den Computerschnittstellen puncto Auflösung immer hinterherhinkt. DVI 
konnte 1999 schon was HDMI erst viele Jahre später könnte. Du hast den 
Vergleich zwischen DVI 1999 mit dem 18 Jahre jüngeren HDMI 2017 ins 
Spiel gebracht um zu zeigen wie toll doch HDMI heutzutage mit 
Graphikkarten und Monitore läuft. Da war der Verweis meinerseits auf die 
zeitgerechte Computerschnittstelle DP doch angebracht. Den genau für 
diesen Anwendungsfall ist und war HDMI nie die beste Wahl.

Das HDMI nach wie vor in der Jubelelektronik seine Berechtigung hat, ist 
dazu kein Widerspruch. Nur im Computerbereich gab und gibt es immer was 
besseres als HDMI.

: Bearbeitet durch User
von Rufus Τ. F. (rufus) (Moderator) Benutzerseite


Bewertung
0 lesenswert
nicht lesenswert
Das ist Deine sehr eigene und sehr spezifische Logik. Danke für die 
Darstellung.

Antwort schreiben

Die Angabe einer E-Mail-Adresse ist freiwillig. Wenn Sie automatisch per E-Mail über Antworten auf Ihren Beitrag informiert werden möchten, melden Sie sich bitte an.

Wichtige Regeln - erst lesen, dann posten!

  • Groß- und Kleinschreibung verwenden
  • Längeren Sourcecode nicht im Text einfügen, sondern als Dateianhang

Formatierung (mehr Informationen...)

  • [c]C-Code[/c]
  • [code]Code in anderen Sprachen, ASCII-Zeichnungen[/code]
  • [math]Formel in LaTeX-Syntax[/math]
  • [[Titel]] - Link zu Artikel
  • Verweis auf anderen Beitrag einfügen: Rechtsklick auf Beitragstitel,
    "Adresse kopieren", und in den Text einfügen




Bild automatisch verkleinern, falls nötig
Bitte das JPG-Format nur für Fotos und Scans verwenden!
Zeichnungen und Screenshots im PNG- oder
GIF-Format hochladen. Siehe Bildformate.
Hinweis: der ursprüngliche Beitrag ist mehr als 6 Monate alt.
Bitte hier nur auf die ursprüngliche Frage antworten,
für neue Fragen einen neuen Beitrag erstellen.

Mit dem Abschicken bestätigst du, die Nutzungsbedingungen anzuerkennen.