Hi, in meinem Lehrbuch beschreibt Parallelrechnerarchitektur wesentlich anhand von CPUs oder Cores von CPUs. Nun betrifft KI hauptsächlich GPUs. Frage: Sind Techniken in der Parallelrechnerarchitektur (Schlüsselbegriffe Superskalarität, dynamische (spektative) Befehlsausführung, NUMA, Message Passing Interface usw.) noch gültig für den GPU Bereich?
Viele der Schlüsselwörter treffen bei GPU Programmierung eher nicht zu. GPUs können z.B. dynamische Befehlsausführung eher schlecht verglichen mit CPUs.
>in meinem Lehrbuch beschreibt Parallelrechnerarchitektur wesentlich >anhand von CPUs oder Cores von CPUs. Nun betrifft KI hauptsächlich GPUs. Schau dir mal dieses Video an, es ist recht lehrreich: https://www.youtube.com/watch?v=h9Z4oGN89MU
Bitte melde dich an um einen Beitrag zu schreiben. Anmeldung ist kostenlos und dauert nur eine Minute.
Bestehender Account
Schon ein Account bei Google/GoogleMail? Keine Anmeldung erforderlich!
Mit Google-Account einloggen
Mit Google-Account einloggen
Noch kein Account? Hier anmelden.