Forum: PC Hard- und Software Grafikkarten "D, §D Rendering, Codecs verstehen lernen, wo und wie?


von Vdioenaut (Gast)


Lesenswert?

Hallo

wegen einer Kurzzeitig schlecht funktionierender Grafikkarte (eigentlich 
nur ein Einstellung...) musste ich mit einigen Begrifflichkeiten 
auseinandersetzen .
Im meinen Fall war "auf einmal" die VPE Nutzung (NVidia grforce GT 1030) 
verschwunden - was man deutlich bei der Wiedergabe von 4k 60Hz Videos 
bemerkt hatte.
Nach viel Googeln und dann noch ziemlich indirekt  in der Art"Beste 
Einstellungen für 4k Video" bei meinen genutzten Programm -nebenbei: 
nicht VLC ;-) bin ich dann fündig geworden - muss wohl bei irgendeiner 
Aktion indirekt einen Haken entfernt haben - aber egal VPE und flüssige 
Videogabe von 4k60Hz (man kann sogar den Rechner sinnvoll parallel für 
weiter aufgaben Nutzen was ohne VPE dann überhaupt nicht mehr ging) ist 
jetzt wieder vorhanden - gut so (muss so sein).

Was mir aber klar geworden ist:
Das ist ein sehr weites Feld wo viele Sachen aufeinander aufbauen und so 
widersinnig es auch klingt vieles miteinander sowohl gar nichts als auch 
alles miteinander zu tun hat.
Wie erlerne ich das? Was und woher (Lernquellen, 
Erdklärvideos,Grundlagenliteratur, Entwicklungshistorie...) muss man 
dafür wissen und nutzen?
Woher weis ich an welcher "Schraube" ich drehen muss (und wann: 3D, 
Spiele und Video sind ja alle verwandt und trotzdem ganz anders in der 
Praxis).
Was ist ein "guter" (der jeweils beste) Codec?
Was genau ist interlacing, warum und wie welche genaue Ausführung?
Wann und woher jitter - wie verhindern und warum funktioniert das dann 
(eventuell auch nicht)?
Halt diesen ganzen Kram würde ich gerne verstehen und einigermaßen 
beherrschen.
Die Frage ist nur: Wie lernt man das als "Gesamtpaket" und mindestens so 
gut das man gezielt nachfragen bzw. googeln kann?
Wikipedia nutzt nur wenn man weis wonach man suchen muss und eine 
Begrifflichkeit im jeweiligen Artikel führt einen direkt zu neuen Fragen 
und Artikeln, die wiederum wieder zu weiteren fragen führen usw.

Das Grafikkarten ein großes Ding bei den Gamern sind und auch viel Posen 
und  Tuning (ähnlich wie in der Autotunerszene) dahintersteht macht es 
auch nicht unbedingt einfacher das alles technisch und ohne 
Fanboyeinfluss zu verstehen...

Wie also beginnend bei Adam und Eva an die Sache herangehen`?

Videonaut

von S. R. (svenska)


Lesenswert?

Vdioenaut schrieb:
> Wie erlerne ich das?

Erstmal musst du überhaupt definieren, was du eigentlich lernen willst. 
Vorher kannst du nicht gezielt danach suchen.

Es hilft auch nicht besonders, dass die ganze Thematik relativ 
schnellebig war und ist, also auch viele Herangehensweisen veraltet 
sind.

> Was und woher (Lernquellen, Erdklärvideos,Grundlagenliteratur,
> Entwicklungshistorie...) muss man dafür wissen und nutzen?

Normalerweise muss man nichts wissen, denn es funktioniert einfach so.

> Woher weis ich an welcher "Schraube" ich drehen muss (und
> wann: 3D, Spiele und Video sind ja alle verwandt und trotzdem
> ganz anders in der Praxis).

Wenn es dir um "geile Grafik", "hohe Performance" und "gekaufte Hardware 
ausnutzen" geht, dann gibt es da maximal ein paar Hilfestellungen vom 
Hersteller, welche Knöpfe man im Treiber drücken kann sowie große 
Ratespiele in irgendwelchen Gamer-Foren.

Vieles kann sich von einer GPU-Generation auf die nächste ändern und hat 
sich auch geändert. Einiges hängt vom GPU-Hersteller ab, die Treiber-GUI 
in jedem Fall, ebenso die Fähigkeiten der Hardware.

> Was ist ein "guter" (der jeweils beste) Codec?

Das hängt von der Zeit ab, in der du dich befindest, ebenso von Nutzung.

In der Vergangenheit waren das so coole Dinge wie "Video 1" oder 
"Indeo", später dann MPEG (in verschiedenen Versionen, einschließlich 
H.264 und HEVC) und inzwischen wird das abgelöst (VP9, AV1).

> Was genau ist interlacing, warum und wie welche genaue Ausführung?

Interlacing kommt aus der analogen Welt. Damit kann man bei gleicher 
Bandbreite die Bildwiederholrate verdoppeln (PAL hat 576 Zeilen bei 25 
Hz, aber dank Interlacing werden 50 Bilder pro Sekunde gezeichnet - mit 
jeweils der Hälfte der Zeilen).

In der digitalen Welt ermöglicht es die gleiche Bandbreite für 720p60 
und 1080i60. Dafür gibt es Artefakte und stinkt.

> Wann und woher jitter - wie verhindern und warum funktioniert
> das dann (eventuell auch nicht)?

Jitter ist die erste Ableitung der Latenz. Es beschreibt nicht, wie 
lange etwas verzögert wird, sondern wie sehr diese Verzögerung über die 
Zeit schwankt.

> Wikipedia nutzt nur wenn man weis wonach man suchen muss und eine
> Begrifflichkeit im jeweiligen Artikel führt einen direkt zu neuen Fragen
> und Artikeln, die wiederum wieder zu weiteren fragen führen usw.

Genau so macht man das. Einfach mal in die Untiefen absaufen und sich 
von den Fragen zuprasseln lassen, die eventuell aufschreiben und dann 
der Reihe nach abarbeiten. Tauchen neue Fragen auf, kommen die mit auf 
die Liste.

Es gibt auch ordentliche Youtube-Videos, die ein Thema gebrauchbar 
abarbeiten, wenn man auf sowas steht.

> Wie also beginnend bei Adam und Eva an die Sache herangehen`?

Such dir einen Einstieg und arbeite dich in die Tiefe.
Wenn du auf Linux stehst, kannst du bei X-Video (Xv) und X-Video Motion 
Compensation (XvMC) anfangen - das waren die ersten APIs für 
hardwarebeschleunigte Videodarstellung und Videodekodierung. Dann fehlen 
nur noch etwa 30 Jahre Geschichte und fertig.

;-)

von Jim M. (turboj)


Lesenswert?

Vdioenaut schrieb:
> Was ist ein "guter" (der jeweils beste) Codec?

Das kommt schwerstens auf Deine Anforderungen an.

Vdioenaut schrieb:
> Wann und woher jitter - wie verhindern und warum funktioniert das dann
> (eventuell auch nicht)?

Interessiert Dich als Anwender eher selten.

Vdioenaut schrieb:
> Wie also beginnend bei Adam und Eva an die Sache herangehen

Doku des Programms lesen, dessen Einstellungen Du geändert hattest.

von Videonaut (Gast)


Lesenswert?

Hallo

Danke an euch beiden.
Vor allem ein Dank an S.R. das hilft schon mal.

Jim eben das will ich nicht, das reicht mir nicht - ich möchte verstehen 
und selbst sinnvoll handeln (ohne zu hoffen das jemand schon mal ein 
ähnliches Problem hatte und das in den weiten des Netzes beantwortet 
wurde).


Ich komme übrigens nicht aus der gamerszene noch habe ich jemals ein 
wirkliches Interesse daran gehabt (Moorhuhn was das einzige "Game" was 
mich mal über längere Zeit interessiert hat - echte Gamer kommen da aus 
dem Lachen wohl nicht raus).
Bin mehr der Videofreund - die technisch zu verstehen (zumindest der 
wille - das können...)und manchmal auch Inhaltlich zu analysieren macht 
mir viel Spaß - und gerade im letzten Punkt ist halt Auflösung schon 
wichtig da darf die Videokarte und deren Einstellungen nicht der 
Bremsklotz sein, auch möchte ich einfach (lol) wie jeder maximale 
Qualität mit möglichst wenig Berechnungszeit herausbekommen wenn ich mal 
(selten) selbst Videos erstelle und bearbeite.

Videonaut

von S. R. (svenska)


Lesenswert?

Videonaut schrieb:
> auch möchte ich einfach (lol) wie jeder maximale Qualität
> mit möglichst wenig Berechnungszeit herausbekommen wenn ich
> mal (selten) selbst Videos erstelle und bearbeite.

Für maximale Qualität willst du einen Software-Encoder, für maximale 
Geschwindigkeit willst du die Hardware codieren lassen. Das widerspricht 
sich also schonmal.

Ich glaube, für dich ist tatsächlich erstmal das Werbematerial deiner 
Grafikkarte interessant, denn da steht drin, was die kann. Danach kannst 
du dann suchen und dich tiefer einarbeiten.

Mein Wissen kommt halt viel über die Entwicklung der Linux-Treiber, die 
ich eine Zeit lang verfolgt habe (seit einigen Jahren nicht mehr, weil 
es für mich gut genug funktioniert). Immer mit einem Seitenblick auf 
z.B. Allwinner oder Raspberry Pi. Android verlangt Hardware-Videocodecs, 
daher ist das dort immer vorhanden, aber nicht unbedingt im 
Mainline-Kernel. Da lernt man einiges über die Hardware, dazu dann ein 
bisschen Vorträge von z.B. den Entwicklern freier Implementationen 
(ffmpeg, x265 und so).

Da kommt schon einiges an Hintergrundwissen zusammen, aber eher wenig 
Expertenwissen. Wenn du das haben willst, musst du dich schon 
spezialisieren.

Bitte melde dich an um einen Beitrag zu schreiben. Anmeldung ist kostenlos und dauert nur eine Minute.
Bestehender Account
Schon ein Account bei Google/GoogleMail? Keine Anmeldung erforderlich!
Mit Google-Account einloggen
Noch kein Account? Hier anmelden.