Viele der neueren CPUs bringen doch von Haus aus schon alles mit, was man fürs Zocken benötigt. Für welche Aufgaben (zielgruppen) sind denn Grafikkarten (Steckkarten) geeignet? Man hört oft Videoschnitt und 3D-Modellierung. Ich habe keine einsteckbare Grafikkarte und trotzdem kann ich Filme in 4096x2304@24Hz gucken, Videos bearbeiten und mit Blender 3D-Modelle erstellen.
… dann zocke mal ’n aktuelleres Spiel mit deiner internen GPU, oder rendere ’n geblendertes Modell mit Cycles (gut, das geht gar nicht erst – da wirst du direkt die CPU nehmen müssen).
Für Videoschnitt nehmen Profis Mac-OS, und das wird seinen Grund haben.
René H. schrieb: > Für Videoschnitt nehmen Profis Mac-OS, und das wird seinen Grund > haben. Der Grund ist, sie haben von Technik keine Ahnung und Geld spielt nicht so die Rolle.
René H. schrieb: > Für Videoschnitt nehmen Profis Mac-OS, und das wird seinen Grund haben. Stimmt, MacOS ist viel besser als eine Grafikkarte. Oh mann.
Hallo, Suppenklaus schrieb: > Viele der neueren CPUs bringen doch von Haus aus schon alles mit, was > man fürs Zocken benötigt. Für welche Aufgaben (zielgruppen) sind denn > Grafikkarten (Steckkarten) geeignet? für aufwendige Graphikberechnungen braucht es die Rechenleistung von leistungsfähigen Graphikkarten. Eine andere Anwendung von Graphikkarten ist das Training von (tiefen) neuronalen Netzwerken. Viele Grüße Peter
:
Bearbeitet durch User
ich schrieb: > René H. schrieb: >> Für Videoschnitt nehmen Profis Mac-OS, und das wird seinen Grund >> haben. > > Der Grund ist, sie haben von Technik keine Ahnung und Geld spielt nicht > so die Rolle. Das würde ich nicht behaupten (die erste Aussage von ich).
Alles was eine Grafikkarte gut kann ist Operationen die parallel ablaufen können schnell zu erledigen. Einfach gesagt kann sie das weil sie viele Recheneinheiten besitzt. Ohne jetzt mal auf die detaillierten unterschiede einzugehen. Deine CPU hat sagen wir mal 8 mit um die 4GHz aktuell, die iGPU vielleicht 50 mit um die 1GHz und eine ausgewachsene Grafikkarte hat 2000 bis 3000 mit mit gut 1,5 bis 2 GHz. Außerdem haben dedizierte GPUs eigenen deutlich schnelleren und vor allem viel mehr Grafikspeicher. Die iGPU muss sich sowohl Bandbreite als auch Speicher mit der CPU teilen weil die den normalen RAM benutzt. René H. schrieb: > Für Videoschnitt nehmen Profis Mac-OS, und das wird seinen Grund haben. Das war einmal. Ich habe 3 Kollegen die das von Berufswegen machen, da nutzt keiner Mac OS. Die meisten nutzen Windows und das Adobe Ökosystem. Dazu ein dicker Intel bzw. mittlerweile eher Ryzen mit 12+ Kernen.
Eine Grafikkarte im Prozessor macht noch keine Grafikkarte. Davon abgesehen sind fast alle Prozessorgrafikkarten Diebe. Sie klauen normales RAM. Echte Grafikkarten haben schnelles RAM, und oft Hilfs-Chips an Board. Für z.b. 2 Monitore etc. Davon abgesehen, ich habe noch keine Prozessor-Grafikkarte gesehen die z.b. CUDA beherrscht. CUDA ist ein Möglichkeit Rechenoperationen auf einer Grafikkarte X mal schneller auszuführen aus das eine CPU kann. Und das brauch mal bei der Video-Verarbeitung z.b. dringend. Fakt ist : Aktuelle Prozessor-Grafikkarten sind schnell. Und diese Schnelligkeit reicht sauber für jeden Büro/Office-PC aus. Wenn man was gescheites machen will. Brauch man eine gescheite Grafikkarte. Gruß Pucki
René H. schrieb: > Für Videoschnitt nehmen Profis Mac-OS, und das wird seinen Grund haben. Es gibt Branchen, in denen Macs von Anfang an quasi ein Monopol hatten. Werbung, Grafik und Design beispielsweise. Da bleibt man dann auch dabei, wenns irgend geht.
A. K. schrieb: > Es gibt Branchen, in denen Macs von Anfang an quasi ein Monopol hatten. > Werbung, Grafik und Design beispielsweise. Da bleibt man dann auch > dabei, wenns irgend geht. JA, hat sich aber aufgeweicht. Ich hatte vor 20 Jahren auch Stress mit der Druckerei. Die wollten die Daten auf MAC haben, oder sie wollten sie (teuer) selbst setzen. Nach der Drohung die Druckerei zu wechseln, und einen Probedruck einer Corel-Draw-Datei von der Konkurrenz haben die dann aber ein "Konverter-PC" angeschafft. Fakt ist, durch die Markt-Dominanz von Windows wird die MAC-Domain immer mehr aufgeweicht. Aber mein Freund schneidet seine Videos auch lieber auf seine MAC als auf seinen Windows-PC. Gruß Pucki
Alexander K. schrieb: > aus das eine CPU kann. > Und das brauch mal Bist du nicht in der Lage, vor dem Abschicken nochmal durchzulesen, was du geschrieben hast? Oder willst du einen Wettbewerb führen, wer der Schnellste ist?
Erwin D. schrieb: > Bist du nicht in der Lage, vor dem Abschicken nochmal durchzulesen, was > du geschrieben hast? Oder willst du einen Wettbewerb führen, wer der > Schnellste ist? Es gibt Leute die sich an einen Tippfehler aufgeilen, aber nix gescheites zum Thema beitragen. Aber zu deiner Beruhigung. Es sollte ALS statt aUs heißen. Ich denke aber das das den TO nicht wirklich interessiert. Und ja, du hast Recht. Ich schreibe schnell, und übersehe oft ein Tippfehler. Ich habe nämlich noch was anderes zu tun. Das hier mache ich nur in den "Wartepausen". Gruß Pucki
Wie muss man sich das vorstellen. Man steckt die Karte in den Rechner und fortan übernimmt die Grafikkarte alle Aufgaben, die zur grafischen Ausgabe relevant sind und nicht die CPU?
Suppenklaus schrieb: > Wie muss man sich das vorstellen. Man steckt die Karte in den Rechner > und fortan übernimmt die Grafikkarte alle Aufgaben, die zur grafischen > Ausgabe relevant sind und nicht die CPU? GENAU SO. Man muss nur im Bios die INTERNE abschalten. Und den Kabel umstecken danach. !!! Ach ja, damit die neue Grafikkarte mehr als "besseres VGA" anzeigen kann, braucht sie logoweis noch ein Treiber. "Besseres VGA" ist native und kann jede Grafikkarte, und das ist der Modus in den Windows die ansteuert wenn es kein Treiber findet. Dann hat man sogar mehr oft Ram-Speicher zur Verfügung. Weil die CPU-GK dann nicht mehr klauen darf. Gruß Pucki
Alexander K. schrieb: > CUDA ist ein Möglichkeit Rechenoperationen auf einer Grafikkarte X mal > schneller auszuführen aus das eine CPU kann. Und das brauch mal bei der > Video-Verarbeitung z.b. dringend. CUDA ist in erster Linie propietärer Kram von Nvidia. Videobearbeitung auf der GPU geht auch ganz gut über OpenCL, je nach Software. Mittlerweile gibt’s auch CPU/GPU-Einheiten von Intel, die’s beherrschen – natürlich ist die Leistung im Vergleich zu dedizierten Rechen-/Grafikkarten nicht beeindruckend, aber grundsätzlich kann man damit rechnen.
Jack V. schrieb: > CUDA ist in erster Linie propietärer Kram von Nvidia. Videobearbeitung > auf der GPU geht auch ganz gut über OpenCL, je nach Software. JA, wenn man ATI nimmt. Was ich leider habe. Ist aber nur halb so schön wie CUDA. Weil CUDA auch von einiger Software als "Rechenknecht" eingesetzt wird. Gruß Pucki
Alexander K. schrieb: > JA, wenn man ATI nimmt. Was ich leider habe. Du kannst gerne auch auf Nvidia-GPUs mit OpenCL arbeiten. Und auf neueren Intel-GPU/CPUs. Ist nur eine Frage der Präferenzen der Entwickler der von dir genutzten Software. Edit: ATI gibt’s schon wirklich lange nicht mehr in der Form …
:
Bearbeitet durch User
Als ich mein HD-7950 gekauft habe, war ATI noch eigenständig. Das sie danach von AMD gefressen wurden weiß ich. Nur ATI ist als Markenname immer noch ein Begriff , und AMD hat gut daran getan das zu lassen. Weil mit AMD + Grafikkarten kann in meinen Bekanntenkreis kaum jemand etwas anfangen. Und JA, ich habe OPENCL dabei im Einsatz. Allerdings wird meine nächste Grafikkarte eine Nvidia. Das ist FAKT. Grund : Cuda gefällt mir besser. Und ich hoffe ich muß nicht wieder fast 1.2 GigaBytes an Treiber installieren. Und eine Wissenschaft machen, um die Grafikkarte zu Konfigurieren. Und nein, ich Zocke nicht am PC. Jedenfalls kein Spiel was jünger wie 8 Jahre ist. Ich habe bei Stream ca. 20 Spiele in der Liste stehen, die ich noch nie gezockt habe ;) Gruß Pucki
Alexander K. schrieb: > Nur ATI ist als Markenname immer noch ein Begriff , und AMD hat gut > daran getan das zu lassen. Dann such mal in ’nem Onlineshop nach ’ner aktuellen ATI-Karte … Ich schlage vor, du versuchst erstmal, die Gegenwart zu erreichen. Dann lässt’s sich auch viel besser über die heutigen technischen Möglichkeiten diskutieren. Edit: die HD-7950 wurde sechs Jahre nach der Übernahme dann auch schon nicht mehr als ATI-Karte verkauft. Die HD-5000-Serie war die Letzte, um 2009 rum. Und dass viel Kram bei dir nicht auf der GraKa zu rechnen ist, obwohl’s dazu theoretisch geeignet wäre, wird vermutlich auch eher daran liegen, dass die alte Hardware die heute benötigten OpenCL-Versionen nicht unterstützt. Ich mein’: mit einer Nvidia-Karte aus der Zeit, mit entsprechend alter CUDA-Version, wird heute auch nicht mehr sehr viel funktionieren …
:
Bearbeitet durch User
In der letzten PC Games Hardware wurden verschiedene Mittelklasse-Grafikkarten miteinander verglichen. Was mich gewundert hat, dass die Auflösung gar kein Vergleichskriterium war. Wie ist das zu erklären? Hängt die nicht von der Größe des Video-Speichers ab?
Suppenklaus schrieb: > Was mich gewundert > hat, dass die Auflösung gar kein Vergleichskriterium war. Wie ist das zu > erklären? Hängt die nicht von der Größe des Video-Speichers ab? Hängt schon davon ab. Aber da geht’s um zweistellige Megabyte, während heute selbst die popeligste integrierte GPU auf dreistellige Werte zurückgreifen kann.
Suppenklaus schrieb: > Wie muss man sich das vorstellen. Man steckt die Karte in den > Rechner > und fortan übernimmt die Grafikkarte alle Aufgaben, die zur grafischen > Ausgabe relevant sind und nicht die CPU? Wo haben sie dich denn ausgegraben :) interne grafik in CPUs sind neumodisch - max seit 10 jahren, davor waren jahrzentelang externe Grafikkarten das einzige um was auf den Monitor zu zaubern, inter ist das neue, extern war schon 1985 standard Wenn du grafikaufwendiges zocken willst kommst du kaum um eine echte grafikkarte rum - ist auch völlig normal und gar nichts besonderes in einem grossteil der heute verkauften Rechner
Wir verbauen high end Grafikkarten und schließen nicht mal einen Monitor an
cppbert schrieb: > Wo haben sie dich denn ausgegraben :) interne grafik in CPUs sind > neumodisch - max seit 10 jahren, davor waren jahrzentelang externe > Grafikkarten das einzige um was auf den Monitor zu zaubern, inter ist > das neue, extern war schon 1985 standard Naja das ganze hat sich langsam in 2 verschiedene Richtungen entwickelt, entweder in CPU oder als komplett eigener Chip, es gab aber auch Zeiten da waren GPUs in den Chipsatz (North Bridge) integriert. Beispiel wäre zum Beispiel Intel G35 Chipsatz mit GMA X3500.
Suppenklaus schrieb: > Viele der neueren CPUs bringen doch von Haus aus schon alles mit, was > man fürs Zocken benötigt. Für welche Aufgaben (zielgruppen) sind denn > Grafikkarten (Steckkarten) geeignet? Die iGPU (in der CPU integrierte Grafik) reicht für viele Spiele nicht aus, da sie immer noch viel zu schwach sind bzw. die Speicheranbindung zu langsam ist und das wird sich bis auf absehbare Zeit auch nicht ändern. Das Hautproblem ist die Speicheranbindung. DDR4 ist halt nicht viel verglichen zu dem, was man bei dedizierten Grafikkarten macht. Da ist es nicht nur DDR5 und DDR5, sondern die einzelnen Chips haben auch noch ihre eigene Datenleitungen direkt zum GPU Chip. Durch dieses Aufteilen hat man ein Vielfaches der Bandbreite, wie sie bei der CPU vorhanden ist. Und ein anderer Grund ist natürlich, dass man einen ganzen Chip nur für GPU Shadereinheiten zur Verfügung hat, während sich die iGPU die Fläche mit der CPU teilen muss. > Man hört oft Videoschnitt und 3D-Modellierung. Ich habe keine > einsteckbare Grafikkarte und trotzdem kann ich Filme in 4096x2304@24Hz > gucken, Videos bearbeiten und mit Blender 3D-Modelle erstellen. Das was bei Blender GPU Leistung kostet ist das Rendern der Modelle, nicht das erstellen. Und ob das reicht hängt dann von der Komplexität deiner Modelle ab. Und beim Videoschnitt ist es nicht der Schnitt, der Leistung kostet, sondern besondere Postprocessing Effekte. Die meisten Gelegenheitshobbyvideoschneider werden so etwas aber ohnehin nicht machen. Ansonsten sind es noch die Encoder die Leistung benötigen. Das ist nur relevant, wenn man nicht ewig auf das Ergebnis warten will. Youtuber z.B. haben meist einen festen Zeitplan, wenn die zweimal die Woche ein Video raushauen müssen, dann muss das nach dem Fertigschneiden eben noch schnell kodiert werden. Wenn du für deine Kinder einen neuen Rechner kaufst und dich nun fragst ob du noch eine dedizierte GPU kaufen sollst, dann würde ich das davon abhängig machen, wie alt sie sind. Wenn sie noch sehr jung sind, dann wissen sie meist eh nicht welche aktuellen Spiele es derzeit gibt und für Minecraft und Kerbal Space Program reicht auch die iGPU. Dann würde ich das Geld in eine ordentliche CPU stecken und den Kauf der dedizierten GPU auf das nächste Jahr verschieben. Dann wirst du zwar im nächsten Jahr noch einmal Geld in die Hand nehmen müssen, um den PC zu einem vollwertigen Gaming PC zu machen, aber bis dahin wird die ein oder andere dedizierte Grafikkarte auch im Preis gefallen sein oder die nächste Generation da stehen, da kann man dann etwas Geld sparen. Auf jeden Fall kann man die Zeit zum ansparen nutzen. Wenn die Kinder aber schon älter sind. Also im jugendlichen Alter, dann wird das schwierig, denn dann wissen die, was gerade aktuell ist, dann hast du zwei Mglichkeiten und die solltest du dann mit denen besprechen. Die erste ist, ihr kauft euch eine CPU und gleich noch eine dedizierte GPU, wenn das Geld begrenzt ist, müsst ihr bei der CPU dann natürlich etwas abstriche machen. Die zweite Möglichkeit ist, ihr macht es wie bei den jungen Kindern, zuerst die CPU kaufen, dann die iGPU ein Jahr nutzen und später nachrüsten. Das solltest du mit deinen jugendlichen Kindern besprechen was ihnen lieber ist. Grundsätzlich kann man heutzutage sehr viele alte, aber auch davon viele sehr gute Spiele spielen und Spaß haben, so dass es an ein Spieleangebot nicht mangelt. Die alten Spiele sind zudem ohnehin günstiger. Die Kernfrage ist also, ob es immer das neuste Spiel sein muss und ob man das immer gleich am Anfang gespielt haben muss. Bei manchen Spielen ist letzteres wichtig, vor allem bei Multiplayerspielen, da die Spieler die das auch spielen und die man für die Multiplayerspiele benötigt, ja selber mit der Zeit gehen. Bei alten Multiplayerspielen werden irgendwann die Server leer und dann sind die nutzlos. Aber das werden deine Kinder sicherlich besser wissen, wenn du selbst kein Spieler bist.
René H. schrieb: > Für Videoschnitt nehmen Profis Mac-OS, und das wird seinen Grund haben. Blödsinn! Mac-OS nehmen Profis gerade eben nicht, weil sie dann für die Leistung zu viel Geld zahlen müssten, oder richtig viel Leistung erst gar nicht bekommen. Ich kann dir für das gleiche Geld einen PC zusammenstellen, der deutlich leistungsfähiger als der teuerste Mac ist. Apple Rechner kaufen eigentlich nur Leute die keine Ahnung haben und glauben, dass man mit einem Apple Rechner angeben kann. Was man bei Leuten, die sich bei Computern auskennen, NICHT kann!
Alexander K. schrieb: > Davon abgesehen, ich habe noch keine > Prozessor-Grafikkarte gesehen die z.b. CUDA beherrscht. CUDA werden die auch nie können, da CUDA von NVidia ist und proprietär ist. Was sie aber können ist OpenCL, das können nämlich alle, da es ein herstellerunabhängiger Standard ist. Solange NVidia also keine eigenen x86 CPUs bauen darfst, wirst du kein CUDA in x86 CPUs zu sehen bekommen. > CUDA ist ein Möglichkeit Rechenoperationen auf einer Grafikkarte X mal > schneller auszuführen aus das eine CPU kann. Und das brauch mal bei der > Video-Verarbeitung z.b. dringend. Das geht mit OpenCL auch.
A. K. schrieb: > René H. schrieb: >> Für Videoschnitt nehmen Profis Mac-OS, und das wird seinen Grund haben. > > Es gibt Branchen, in denen Macs von Anfang an quasi ein Monopol hatten. > Werbung, Grafik und Design beispielsweise. Da bleibt man dann auch > dabei, wenns irgend geht. Das war mal so, ist aber heute nicht mehr so. Auch diese Leute merken, dass sie bei einem normalen PC mehr Leistung fürs Geld kriegen und der PC das bessere Preis-/Leistungsverhältnis hat. Und da Windows 7 oder Windows 10 längst nicht mehr so schlimm ist, wie damals Windows 95 oder Windows 98, ist selbst Windows eine Alternative für diese Leute geworden. Ich halte es sogar für möglich, dass ein paar wenige einzelne Leute in dieser Branche sogar professionell auf Linux + Blender und Co. setzen.
René H. schrieb: > Da sieht man mal wieder die Marktmacht von Microsoft. Das ist nicht die Marktmacht von Microsoft, sondern das bessere Preis-/Leistungsverhältnis ohne Applemarkenzusatzzahlung.
Suppenklaus schrieb: > Wie muss man sich das vorstellen. Man steckt die Karte in den Rechner > und fortan übernimmt die Grafikkarte alle Aufgaben, die zur grafischen > Ausgabe relevant sind und nicht die CPU? Nicht ganz. Du steckst die Grafikkarte in den Rechner. Dann schließt du deinen Monitor an diese Grafikkarte an. Wenn das getan ist, bootest du den Rechner und installierst dir die Treiber für diese Grafikkarte für dein Betriebssystem. Wenn das getan ist, kannst du die Grafikkarte umfänglich nutzen.
Alexander K. schrieb: > Suppenklaus schrieb: >> Wie muss man sich das vorstellen. Man steckt die Karte in den Rechner >> und fortan übernimmt die Grafikkarte alle Aufgaben, die zur grafischen >> Ausgabe relevant sind und nicht die CPU? > > GENAU SO. Man muss nur im Bios die INTERNE abschalten. Die muss man nicht abschalten. Die kann man abschalten, muss man aber nicht. Man stellt das auf "auto", dann weiß das Betriebsystem anhand des angeschlossenen Monitors welche GPU verwendet wird. Wenn man es auf auto lässt, kann man bei Defekt der dedizierten GPU seinen Rechner noch benutzen.
Nano schrieb: > Die muss man nicht abschalten. Die kann man abschalten, muss man aber > nicht. > Man stellt das auf "auto", dann weiß das Betriebsystem anhand des > angeschlossenen Monitors welche GPU verwendet wird. > > Wenn man es auf auto lässt, kann man bei Defekt der dedizierten GPU > seinen Rechner noch benutzen. Bei ca. 40% der Rechner magst du recht haben. ABER ich kenne min. 8 Rechner wo du unrecht hast. Ich kann mich an einen Rechner erinnern da musste ich die defekte Grafikkarte sogar ausbauen, damit ich im Bios die interne aktivieren konnte. Ja, ich weiß das klingt schwachsinnig. Ist aber eine Tatsache. Weil ohne Aktivierung der internen war dunkel sobald Windows umgeschaltet hat (Win-7). Vermutlich (k.a.) schaut Windows im Bios nach, oder was weiß ich. Fakt ist, ohne Abschaltung war Ende sobald Windows den Grafikkartenmodus umgeschaltet hat. Gruß Pucki
Alexander K. schrieb: > Nur ATI ist als Markenname immer noch ein Begriff , und AMD hat gut > daran getan das zu lassen. Weil mit AMD + Grafikkarten kann in meinen > Bekanntenkreis kaum jemand etwas anfangen. Ati Grafikkarten sind als schlechte Qualität verschrien. Um dieses Image abzulegen, würde AMD gut daran tun, von AMD Grafikkarten zu sprechen. > Und JA, ich habe OPENCL dabei im Einsatz. Allerdings wird meine nächste > Grafikkarte eine Nvidia. Das ist FAKT. Ja, wundert mich nicht. ;) Leider hat sich auch mit AMD bei ATI nur wenig zum besseren getan. > Und nein, ich Zocke nicht am PC. Jedenfalls kein Spiel was jünger wie 8 > Jahre ist. Auch zum Zocken ist NVidia eigentlich besser. Der einzige Grund nicht NVidia zu kaufen wäre, wenn einem guter Open Source Treiber support unter Linux wichtig ist. Der Support für die NVidia Treiber läuft irgendwann aus, das ist aber so lange, dass ich bis dahin die GPU schon lange im Zweitrechner nutze und auf dem wird dann eh nicht mehr gespielt, also würde dort auch die iGPU reichen, die dann wiederum gute Open Source Treiber hat. Aber glücklicehrweise sind auch die Open Source Treiber für NVIdia GPUs inzwischen besser geworden, nur die Stromsparmodi gehen halt noch nicht und die ganz alten NVidia GPUs laufen mit den Open Source Treiber immer noch nicht rund.
Wobei mir gerade einfällt, Die Kiste (ne Dual-Core, Modell Fujitsu-Siemens) hat gar keine Automatik ;) Die Kiste kennt nur Intern / Extern. Hab ihr nämlich wegen des "Ram-Diebstahl" eine kleine aus der Grabelkiste eingebaut. Gruß Pucki
Jack V. schrieb: > Alexander K. schrieb: >> Nur ATI ist als Markenname immer noch ein Begriff , und AMD hat gut >> daran getan das zu lassen. > > Dann such mal in ’nem Onlineshop nach ’ner aktuellen ATI-Karte … > > Ich schlage vor, du versuchst erstmal, die Gegenwart zu erreichen. Dann > lässt’s sich auch viel besser über die heutigen technischen > Möglichkeiten diskutieren. Pucki scheint in Pension zu sein und ihm ist einfach nur langweilig, anders sind knapp 650 Posts in 37 Tagen nicht zu erklären.
MiWi schrieb: > ihm ist einfach nur langweilig, Stimmt Ich arbeite im Hintergrund an einen Sache die nur überwacht werden muss, und viele viele Berechnungen braucht. Und auf ein kleinen 8-Kern-Rechner bleibt da halt noch genug Power übrig. Gruß Pucki
Und was "aktuelle Grafikkarte" angeht. Ich habe keine Ahnung was überhaupt aktuell ist. Grund : Ich bin kein Händler und kein Spielkind das neue feuchte Träume braucht. Ich informiere mich in ein paar Jahren wenn mein Rechner nicht mehr genug Power hat. Aktuell schaffe ich es nicht (Lt. Taskanzeige) den über 20 % zu bringen. Außer ich benutzte da komischen OpenCL Zeug. Was eh nix viel taugt. Bei den CUDA bei meinen Freund werde ich nämlich neidisch. Der stellt das in seiner Software ein und schon rennt das ganze im Schnitt 40% schneller. Und bei der Geschwindigkeit wie die Grafikkarten auf den Markt werfen, muss ich die neue per Express liefern lassen, damit die nicht schon veraltet bei mir ankommt. Gruß Pucki ps. : Posted = Posted + 1
cppbert schrieb: > Wo haben sie dich denn ausgegraben :) interne grafik in CPUs sind > neumodisch - max seit 10 jahren, davor waren jahrzentelang externe > Grafikkarten das einzige um was auf den Monitor zu zaubern, inter ist > das neue, extern war schon 1985 standard Stimmt nicht ganz. Es gab schon damals Grafikchip, die direkt aufs Mainboard gelötet wurden. Diese waren praktisch der Vorläufer der iGPUs.
Nano schrieb: > Stimmt nicht ganz. > Es gab schon damals Grafikchip, die direkt aufs Mainboard gelötet > wurden. > Diese waren praktisch der Vorläufer der iGPUs. *Kann ich nur zustimmen.* Und es ist mir völlig egal wo die Grafikkarte wie auf den Board verbaut ist. Alles was ich nicht ohne Lötkolben ausbauen kann, ist intern. Man muss die Welt manchmal einfacher sehen. Gruß Pucki
Nano schrieb: > Mac-OS nehmen Profis gerade eben nicht, weil sie dann für die Leistung > zu viel Geld zahlen müssten, oder richtig viel Leistung erst gar nicht > bekommen. > > Ich kann dir für das gleiche Geld einen PC zusammenstellen, der deutlich > leistungsfähiger als der teuerste Mac ist. > > Apple Rechner kaufen eigentlich nur Leute die keine Ahnung haben und > glauben, dass man mit einem Apple Rechner angeben kann. Was man bei > Leuten, die sich bei Computern auskennen, NICHT kann! Ich kenne nicht einen Designer, Grafiker etc. der nicht MAC benutzt. Es geht dabei auch gar nicht so sehr um die Leistung des Rechners, sondern oftmals spielt die Software die entscheidende Rolle. Im Grafik-/Designbereich Adobe CS das auch zuerst für Mac entwickelt wurde. Weiteres Kriterium ist die Stabilität vom Mac, was aber an dem insgesamt gesehen homogenen Hardwaredesign vom Mac liegt. Das was da verbaut ist passt einfach perfekt zusammen und das merkt man auch. Weitere Geschichte, die unter Windows (zumindest bis Win 7) nie richtig funktioniert hat ist das Farbmanagement, d.h. das was am Ende auf dem Belichter raus kommt sieht farblich anders aus als wie auf dem Desktop. Für einen Designer tödlich. Und jetzt komm nicht mit kalibrieren - es funktioniert schlichtweg nicht. Letztendlich hat der Chef meiner Tochter in der Designerabteilung alle PC's durch Mac's ersetzt und das hat er nicht getan weil er gerade ein bissel was übrig hatte. Der Mehrpreis für die Mac's ist schnell wieder rein, wenn man nicht stundenlang am Ergebnis pröbeln muß. Ich bin derzeit noch in beiden Welten unterwegs, beruflich Windows und privat sehr viel Mac. Ich programmiere sogar beruflich für Windows und trotzdem werde ich für mich privat nur noch Mac kaufen - es läuft einfach runder. Da brauche ich mich nicht um irgendwelche Treiber zu kümmern, da muß ich beim neuen Mac auch nichts vom alten migrieren (das macht er nach Nachfrage ganz alleine). Ich nehme das Teil aus dem Karton und schalte den Kasten ein und kann sofort damit arbeiten. Da gibt es auch keine nervigen Meldungen das ich mit der neu angsteckten Kamera nun arbeiten könne, ich stecke das Ding dran und kann sofort los legen. Irgendwie machen die schon etwas anders. Na klar es gibt auch Sachen die bei Windows besser sind und auch Mac hat Macken, aber die Summe der Macken ist deutlich geringer und ich muß mich um fast nichts kümmern, das ist schon sehr angenehm.
Nano schrieb: > Auch diese Leute merken, dass sie bei einem normalen PC mehr Leistung > fürs Geld kriegen und der PC das bessere Preis-/Leistungsverhältnis hat. Hat er. Aber die Investitionskosten in Hardware sind wesentlich geringer als das, was in diesen Bereichen sonst noch gezahlt werden muss, für Arbeit und Software. Für Neuanfänger eher ein Kriterium als für Etablierte. > Ich halte es sogar für möglich, dass ein paar wenige einzelne Leute in > dieser Branche sogar professionell auf Linux + Blender und Co. setzen. Aber wenn schon Revolution, dann gehts vielleicht weniger darum, von Apple oder Microsoft wegzukommen, als vielmehr von Firmen wie Adobe.
:
Bearbeitet durch User
Wenn man bedenkt, dass man für eine nicht benutzte iGPU kein Geld zurückbekommt, kann man sie eigentlich nur mit den billigsten Grafikkarten für maximal etwa 50 € vergleichen. Und damit können sie IMHO sehr gut mithalten. Eine Intel Iris hat Zugriff auf schnellen eDRAM (50 GB/s, nach anderen Quellen sogar 100 GB/s), der Speicher auf billigen Grafikkarten ist meist deutlich langsamer. Auch in der Rechenleistung schlägt die Iris mit bis zu 1152 GFLOPS die in den billigen Grafikkarten oft verbaute nVidia GT 710 (366 GFLOPS) locker. Allerdings ist der integrierte eDRAM nur 128 MB groß, während die billigen Grafikkarten meist 1 oder 2 GB haben. Der Unterschied macht sich vor allem bei Spielen mit vielen aufwendigen Texturen bemerkbar, die bei der iGPU teilweise in den externen DRAM ausgelagert werden müssen, der längere Zugriffszeiten hat. Ob dies die iGPU so stark ausbremst, dass sie in Summe langsamer als die dGPU ist, kann ich nicht sagen, da ich zum einen keine dGPU habe und zum anderen keine Spiele spiele, bei denen der Unterschied in der RAM-Größe eine Rolle spielen würde. Auf jeden Fall wäre es falsch zu behaupten, dass eine Grafikkarte generell schneller als eine iGPU ist. Wenn man unsicher ist, was man kaufen soll, nimmt man am besten eine Karte mit nVidia Quadro RTX 8000 für knapp 7000 €. Diese dGPU wird nicht so schnell von iGPUs überholt werden.
Zeno schrieb: > Nano schrieb: >> Mac-OS nehmen Profis gerade eben nicht, weil sie dann für die Leistung >> zu viel Geld zahlen müssten, oder richtig viel Leistung erst gar nicht >> bekommen. >> >> Ich kann dir für das gleiche Geld einen PC zusammenstellen, der deutlich >> leistungsfähiger als der teuerste Mac ist. >> >> Apple Rechner kaufen eigentlich nur Leute die keine Ahnung haben und >> glauben, dass man mit einem Apple Rechner angeben kann. Was man bei >> Leuten, die sich bei Computern auskennen, NICHT kann! > > Ich kenne nicht einen Designer, Grafiker etc. der nicht MAC benutzt. Bei vielen Designern, Grafikern usw. ist es nur historisch bedingt. Natürlich wird's von denen auch einige Leute geben, die weiterhin Macs kaufen, aber wer heute Frisch an die Materia herangeht, der denkt auch über eine PC nach, wenn er die Leistung braucht. Und letztere ist hier relevant, wer nur mit Photoshop Bilder bearbeitet, wird längst nicht die maximale Leistung fürs Geld benötigen, wie jemand der CGI Videoszenen rendern muss. > Es > geht dabei auch gar nicht so sehr um die Leistung des Rechners, sondern > oftmals spielt die Software die entscheidende Rolle. Im > Grafik-/Designbereich Adobe CS das auch zuerst für Mac entwickelt wurde. > Weiteres Kriterium ist die Stabilität vom Mac, was aber an dem insgesamt > gesehen homogenen Hardwaredesign vom Mac liegt. Auch Windows Rechner sind heutzutage bombenstabil. Es liegt in beiden Fällen eher am Kernel und der Art und weise von welchem Typ dieser ist. Früher war das noch anders, sowohl bei Windows 9x/Me, als auch bei MacOS 9 und frühere Versionen. Bei letzteren half tatsächlich die homogenere Hardware etwas. Bei den heutigen Kernel können Anwendungsprogramme nicht mehr im RAM des OS herumpfuschen. Fürher wurde das teilweise gemacht, vor allen wenn die Plattform einheitlich war, hat sich das angeboten. > Das was da verbaut ist > passt einfach perfekt zusammen und das merkt man auch. > Weitere Geschichte, die unter Windows (zumindest bis Win 7) nie richtig > funktioniert hat ist das Farbmanagement, d.h. das was am Ende auf dem > Belichter raus kommt sieht farblich anders aus als wie auf dem Desktop. > Für einen Designer tödlich. Windows selbst hat es damals nicht direkt unterstützt, das mag sein, aber Farbprofile mit Farbkalibriergeräten konnte man schon damals nutzen. Die Anwendungen konnten diese auswerten, wenn ich mich richtig erinnere auch die Grafiktreiber. > Und jetzt komm nicht mit kalibrieren - es > funktioniert schlichtweg nicht. Man hat schon immer kalibrieren müssen. Davon ist auch ein Mac nicht gefeit, der kommt höchstens vorkalibriert, sofern Apple so etwas macht. Mit der Zeit lässt dessen Bildschirm aber auch nach, dann muss wieder kalibriert werden. Letztendlich hat der Chef meiner Tochter > in der Designerabteilung alle PC's durch Mac's ersetzt und das hat er > nicht getan weil er gerade ein bissel was übrig hatte. Der Mehrpreis für > die Mac's ist schnell wieder rein, wenn man nicht stundenlang am > Ergebnis pröbeln muß. Die Frage ist ja, wann das war? Vor 20 Jahren zu WinXP Zeiten? Da hat es Sinn gemacht. Heute? Nö. Allerdings könnte Win 10 für manche selbst ein Grund sein zum Mac zu wechseln. > ...aber die Summe der Macken ist deutlich geringer und ich muß mich > um fast nichts kümmern, das ist schon sehr angenehm. Das mag ja sein, aber fürs gleiche Geld kriegst du für einen Windows PC eben immer noch mehr Rechenleistung. Das wird sich auch nie ändern und wenn die wichtig ist, dann ist ein PC anstatt Mac immer eine gute Option. Wenn deine Präferenzen da anders liegen, dann nutzt du eben Mac und zahlst drauf bzw. kriegst weniger Leistung fürs Geld oder die max Leistung erst gar nicht.
Yalu X. schrieb: > Wenn man bedenkt, dass man für eine nicht benutzte iGPU kein Geld > zurückbekommt, kann man sie eigentlich nur mit den billigsten > Grafikkarten für maximal etwa 50 € vergleichen. Das ist richtig, allerdings muss man das so sehen, die billigen bzw. leistungsschwachen dedizierten Grafikkarten sind heute für die Leute, die sich eigentlich nicht auskennen und nur danach gehen, dass sie noch eine dedizierte Grafikkarte benötigen, um mehr Leistung zu bekommen. Die wissen dann oftmals nicht, dass die iGPU genauso gut oder sogar schneller ist und man sich das Geld bis auf wenige Ausnahmen eigentlich sparen könnte. Bei NVidia darf man innerhalb der gleichen Generation bspw. nichts kleiner als eine --5- kaufen. Die Zweite Ziffer in der Modellbezeichnung sagt aus, ob das eine potente High-End GPU oder Low-End GPU ist. Eine --3- kann man sich so gut wie immer sparen, da kann man auch gleich bei der iGPU bleiben. Aber die Laien kaufen die halt trotzdem, weil sie es nicht besser wissen und glauben, dass sie noch eine dedizierte GPU brauchen. Die - Zeichen sind Platzhalter für die anderen Daten wie bspw. Generation usw. das kann jeder für sich selber dann passend einfügen. Beispiel anhand der alten Generation (habe leider keine Geforce 2030 gefunden, die als Beispiel herhalten könnte): Geforce 1030 = Low End GPU, die kann man sich in den meisten Fällen sparen Geforce 1070 = gute Gamer GPU die definitiv besser ist als eine iGPU. Geforce 1080 = High End GPU wenn man es sich leisten kann oder will Heutezutage wäre natürlich die neue Generation, nämlich die Geforce 20?0 Serie entscheidend. Hier würde bspw. eine Geforce 2070 Sinnn machen. > Wenn man unsicher ist, was man kaufen soll, nimmt man am besten eine > Karte mit nVidia Quadro RTX 8000 für knapp 7000 €. Es hätte auch genügt einfach zu sagen eine GPU im Preisbereich von 650 bis 700 € nehmen. Dann erwischt man eigentlich immer Grafikkarte die zum Spielen sehr gut geeignet ist. Da muss man keine überteurte Quadro kaufen, die sich nur in wenigen Spezialanwendungen lohnt.
Nano schrieb: > Auch Windows Rechner sind heutzutage bombenstabil. Ach ja? Warum stürzen meine Windowssysteme öfter als meine Mac's oder auch Linuxsysteme ab? Warum ist es es immer noch möglich das ein Programm einen kompletten Windowsrechner zum Stillstand bringt? Bei Mac passiert das nicht oder so selten das ich mich nicht mehr daran erinnern kann. HP Unix läuft absolut stabil. Das liegt einfach daran das diese Systeme nicht jede Kackhardware von Haus aus unterstützen. Versuch mal eine stinknormale 3Com Karte in einen HP-UX Rechner zu stopfen. Die wird zwar erkannt, aber sie wird nicht funktionieren. Ja Du wirst auch diese Karte zum Laufen bekommen, wenn Du den passenden Treiber bekommst. Den bekommst Du aber denifinitiv nicht von HP. Die Beschränkung auf wenige aber gut aufeinander abgestimmte Hardware macht das System stabil. Alles andere bläht das System nur auf und macht es letztendlich instabil. Nano schrieb: > Die Frage ist ja, wann das war? Vor 20 Jahren zu WinXP Zeiten? > Da hat es Sinn gemacht. Heute? Nö. Das war vor vielleicht 2 Jahren. Nano schrieb: > Man hat schon immer kalibrieren müssen. Davon ist auch ein Mac nicht > gefeit, der kommt höchstens vorkalibriert, sofern Apple so etwas macht. > Mit der Zeit lässt dessen Bildschirm aber auch nach, dann muss wieder > kalibriert werden. Da sieht man mal was Du für Käse erzählst. Ihren Mac mußte meine Tochter noch nie kalibrieren. Es ist auch völlig egal ob sie dabei im Büro oder mobil mit dem Laptop arbeitet, sie bekommt genau das was sie auf dem Bildschirm sieht. Nano schrieb: > Das mag ja sein, aber fürs gleiche Geld kriegst du für einen Windows PC > eben immer noch mehr Rechenleistung. Das kommt darauf an. Rechner der Firma Dell unterscheiden sich nicht so arg viel im Preis von Mac Rechnern. Mein Firmenlaptop ist gerade mal 50€ billiger als mein Macbookpro. Ja der hat sogar eine bessere CPU (ist auch etwas neuer) und etwas mehr Speicher. Trotzdem ist der deutlich langsamer als mein Mac. Von der Darstellungsqualität des verbauten Displays wollen wir mal gar nicht reden.
Ganz schön abenteuerliche Aussagen hier. Nur mal so: Die derzeit wohl mit einer der flottesten iGPU AMD Radeon Vega 11, die in einer Ryzen 5 3400G CPU steckt, wird von einer älteren, dezidierten Radeon RX460 locker überholt. Übrigens heißt das schon seit einer Ewigkeit AMD und nicht ATI. Und woran Intels iGPU oft neben der solala Performance kranken, ist schlechte OpenGL etc. Implementation. Aber das sind halt auch Grafikeinheiten, die fürs Office gedacht sind. Mal sehen, was aus dem neuesten Versuch seitens Intel wird, im Markt der leistungsstärkeren GPUs wieder Fuß zu fassen. Und inzwischen ist das völlig schnurz ob ein Designer, Videoeditor usw. an nem Mac oder PC arbeitet. Lediglich bei der Soundbearbeitung hat Apple wegen der MacOS Soundarchitektur gegenüber Windows gewisse Vorteile (es ist einfacher geringe Latenzen hinzubekommen).
Zeno schrieb: > Ach ja? Warum stürzen meine Windowssysteme öfter als meine Mac's oder > auch Linuxsysteme ab? Schlechte Hardware, falsche Hardwarekonfiguration, schlechte/fehlerhafte Software.... Meine Linux, als auch meine Windows-Rechner stürzen nur schlechter/fehlerhafter Software oder Hardwarefehler ab. Das kann beim Mac genauso passieren. Meine Linux-Rechner sind in 20 Jahren vielleicht max. 5 Mal abgestürzt, mit Ursachen aus dem oben genannten Bereich. Die Windows-Rechner etwas mehr, aber auch hier wieder aus oben genannten Gründen und seit Windows 10 ist das Ganze definitiv sehr, sehr stabil geworden. Ich hatte bisher nur einen PC in den Händen, wo Windows 10 sich mit einem Bluescreen verabschiedet hat und hier war ganz klar die Hardware defekt. Zeno schrieb: > Da sieht man mal was Du für Käse erzählst. Ihren Mac mußte meine Tochter > noch nie kalibrieren. Es ist auch völlig egal ob sie dabei im Büro oder > mobil mit dem Laptop arbeitet, sie bekommt genau das was sie auf dem > Bildschirm sieht. Diese Aussage macht keinen Sinn, wenn deine Tochter wirklich Farbgetreu arbeiten muss. Selbst beim theoretisch perfektem Display muss hier die Umgebung in der gearbeitet wird, auch definierte Werte betreffend des Lichtes haben. Und auch Apple Laptops Displays sind nicht Proof-Sicher.
Nano schrieb: > Man stellt das auf "auto", dann weiß das Betriebsystem anhand des > angeschlossenen Monitors welche GPU verwendet wird. Ganz so einfach ist es auch wieder nicht. Zumindest auf Linux ist es möglich, auf einer GPU den Bildschirm zu zeichnen und zu rendern, und auf einer Anderen das Bild auszugeben. Zudem können Bildpuffer zwischen GPUs, und sonstigen Geräten, per DMA buffer und PRIME "geshart" werden[0]. Ein möglicher Anwendungsfall: Bei Laptops versucht man oft, für nicht GPU lastiges die interne GPU zu nehmen, um Stromverbrauch zu reduzieren, aber dann bei Spielen die leistungsfähigere zu verwenden. Ne andere Situation, sagen wir, die karte ist ein dummes Display Panel, oder ein DisplayLink device, darauf kann man nichts rendern. Das geht dann mit der gleichen Technologie, puffer mit GPU geshart, dort gerendert, fertig. Selbes mit TV Karten und v4l2 (wobei, dort gibts noch 2 alternativen zu dma-buf, und man muss immer schauen, welche der Treiber denn nun kann). Geht auch beim rendern mit CPU ähnlich, dort mappt man den buffer halt (meist (aber nicht immer) muss man dort zwar über gem & gbm gehen, die sind wiederum Kartenspezifisch. Und dann gibt es noch die Extrawurst neben gem, und den Spezialfall mit tiled memory...). (Oh, und nicht mehr speicher mappen, als man hat, schon garnicht auf unkonventionellen Wegen, die bound checks in den subsystemen sind nicht besonders gut...) 0) https://en.m.wikipedia.org/wiki/Direct_Rendering_Manager#DMA_Buffer_Sharing_and_PRIME
Zeno schrieb: > Nano schrieb: >> Auch Windows Rechner sind heutzutage bombenstabil. > > Ach ja? Warum stürzen meine Windowssysteme öfter als meine Mac's oder > auch Linuxsysteme ab? Ich tippte auf kaputte Treiber oder defektes RAM oder ein instabiles Netzteil. Mein Rechner lief mit Win 7 viele Jahre bombenstabil, inzwischen läuft darauf Win 10 und auch da habe ich keine Absturz zu verzeichnen. > Warum ist es es immer noch möglich das ein > Programm einen kompletten Windowsrechner zum Stillstand bringt? Bei einem Kernel der Präemptives Multitasking nutzt, was sowohl beim Kernel von Windows 10, Mac OS X und Linux der Fall ist, hat der Kernel immer die Kontrolle über die Ressourcen des PCs. Ein Programm kann da nur so viel CPU Zeit nutzen, wie ihm das OS zur Verfügung stellt. Braucht es länger, dann wird das OS ihm die CPU Zeit trotzdem entziehen. Dafür ist nämlich der Scheduler des OS verantwortlich, der einfach ausgedrückt, die Zeit in Zeitschlitze aufteilt und diese den einzelnen Prozessen zuteilt. Wie der Scheduler designed wird und die Resourcen zuteilt, dafür gibt es verschiedene Möglichkeiten und kann durch den Austausch des Schedules auch verändert werden. Was du schreibst ist daher im Normalbetrieb nicht möglich. Das kommt dir höchstens nur so vor. Und erweckt bspw. dann den Eindruck, wenn das RAM knapp wird und der Rechner swappen muss. Das ist aber auch bei Linux und Mac OS X (Darwin) nicht anders, da hilft dann nur mehr RAM. Und Prozesse die im RAM des Kernels herumpfuschen wollen, werden einfach vom OS abgeschossen. Aber vielleicht nutzt du einfach eine Antivirensoftware die mit Systemrechten läuft und daher ziemlich viel darf. Oder kaputte Treiber. Das Problem bei Windows 9x/ME, sowie MacOS <= 9 war nämlich, dass die gerade keinen Kernel mit präemtives Multitasking hatten, da haben sich die Anwendungen die CPU Zeit per Kooperatives Multitasking gegenseitig zugeschoben, was aber fatal sein kann, wenn ein Programm seine Zeit nicht abgeben will oder nicht mehr kann, weil es in einer Endlosschleife läuft. > Bei Mac > passiert das nicht oder so selten das ich mich nicht mehr daran erinnern > kann. HP Unix läuft absolut stabil. Das liegt einfach daran das diese > Systeme nicht jede Kackhardware von Haus aus unterstützen. Welche Hardware ein Nutzer nutzt, dafür ist jeder Nutzer ja immer noch selber verantwortlich. Wenn du Kackhardware kaufst, dessen Treiber nichts taugen, dann bist du schlichtweg selber schuld dir so einen Müll zuzulegen. Kaufe ordentliche Hardware, dann läuft auch das OS rund. Das beste OS kann bspw. deinen Rechner nicht retten, wenn man dem RAM nicht vertrauen kann und es Fehler hat. Mac OS X verwendet Darwin als Kernel, das ist ein Hybridkernel, d.h. eine Kombination aus monolithischem Kernel und Microkernel. Verpasse ihm kaputte Treiber im monolithischen Bereich, dann kann der Kernel von Mac OS X auch nichts mehr retten wenn der Treiber Amok läuft. Das gleiche gilt für den Windows Kernel, auch dieser ist ein hybrid Kernel, war das aber nicht immer. Der Kernel von Windows NT 3.x war bspw. ein reiner Microkernel, der war für GDI Prozesse aber zu langsam, weswegen man das in Windows NT für die Grafik aufgeweicht hat, so das heutige Windowskernel eher auch hybride Kernel haben. > Versuch mal > eine stinknormale 3Com Karte in einen HP-UX Rechner zu stopfen. Die wird > zwar erkannt, aber sie wird nicht funktionieren. Ja Du wirst auch diese > Karte zum Laufen bekommen, wenn Du den passenden Treiber bekommst. Den > bekommst Du aber denifinitiv nicht von HP. Die Beschränkung auf wenige > aber gut aufeinander abgestimmte Hardware macht das System stabil. Die Stabilität kommt bei modernen präemtiven Kernel durch qualtitativ guten Treibercode, an den Kernelschnittstellen muss sich jeder Treiber halten. Wenn der Code nichts taugt und bei der Nutzung der Schnittstellen geschluddert wird, musst du dich nicht wundern, wenn der Treiber dir alles um die Ohren haut. Das was Apple hier also höchstens macht, ist bei der Treiberzertifizierung darauf zu achten, dass das alles eingehalten wird. Schlechter Code kriegt keine Zertifizierung und Freigabe von Apple. Die Auswahl der Hardware wird deswegen beschränkt, um den Aufwand dafür klein zu halten. Das Resultat ist weniger unterstützte Hardware, bei der die Treiber aber zuverlässig arbeiten. Microsoft macht mit WHQL zertifizierten Treibern übrigens das gleiche, wie gut das dann in der Praxis aussieht, hängt ganz davon ab, wieviele Entwickler da für eine Hardware abgestellt werden. All das hat aber nichts damit zu tun, dass die Hardware irgendwie aufeinander abgestimmt wäre, denn das ist in Zeiten von wohlgeformten Kernelschnittstellen gar nicht nötig. Mit anderen Worten, man kann beliebig viel Hardware unterstützten, wenn sich die Treiberentwickler an die Vorgaben halten die Schnittstellen des Kernels richtig zu nutzen und den eigenen Code sauber programieren und gut Testen. Es gibt da keine Pflicht, sich bezüglich der Anzahl unterstützer Hardware einzuschränken um ein stabiles System zu erreichen. So etwas war früher vielleicht mal relevant, als es keine gut definierten Schnittstellen gab und jeder mit jedem irgendwie harmonieren musste. Diese Zeiten sind mit den modernen Kerneln aber schon lange vorbei. > Alles andere bläht das System nur auf und macht es letztendlich > instabil. Das ist Unfug. > > Nano schrieb: >> Man hat schon immer kalibrieren müssen. Davon ist auch ein Mac nicht >> gefeit, der kommt höchstens vorkalibriert, sofern Apple so etwas macht. >> Mit der Zeit lässt dessen Bildschirm aber auch nach, dann muss wieder >> kalibriert werden. > Da sieht man mal was Du für Käse erzählst. Ihren Mac mußte meine Tochter > noch nie kalibrieren. Ich schreibe keineswegs Käse, sondern du. Denn jeder Monitor verliert mit der Zeit an Helligkeit. Das ist technisch bedingt, die Leuchtstoffröhre hinter dem Display wird nämlich immer schwächer, das ist auch bei normalen Lampen so und dann muss der Monitor wieder kalibriert werden. Es gibt nicht umsonst Kalibriergeräte. Wäre es anders, dann könnten die Monitorhersteller ihre Monitore vor Auslieferung kalibrieren und wir hätten das Problem gar nicht. > Es ist auch völlig egal ob sie dabei im Büro oder > mobil mit dem Laptop arbeitet, sie bekommt genau das was sie auf dem > Bildschirm sieht. Mess den Bürocomputer und Laptop nach nach ein paar Jahren der Nutzung mal durch und vergleiche das Ergebnis mit einem neuen Rechner. Du wirst staunen. > Nano schrieb: >> Das mag ja sein, aber fürs gleiche Geld kriegst du für einen Windows PC >> eben immer noch mehr Rechenleistung. > Das kommt darauf an. Rechner der Firma Dell unterscheiden sich nicht so > arg viel im Preis von Mac Rechnern. Ich baue mir meinen Rechner selbst zusammen und kaufe keine Fertigrechner. Ich kriege damit nicht nur mehr Leistung, sondern auch bessere Qualität. > Von der Darstellungsqualität des verbauten > Displays wollen wir mal gar nicht reden. Ich habe einen EIZO.
Nano schrieb: > Das gleiche gilt für den Windows Kernel, auch dieser ist ein hybrid > Kernel, war das aber nicht immer. Der Kernel von Windows NT 3.x war > bspw. ein reiner Microkernel, der war für GDI Prozesse aber zu langsam, > weswegen man das in Windows NT für die Grafik aufgeweicht hat, so das > heutige Windowskernel eher auch hybride Kernel haben. Sry, da habe ich eine 4.0 nach "weswegen man das in Windows NT " vergessen.
Zeno schrieb: > Da sieht man mal was Du für Käse erzählst. Ihren Mac mußte meine Tochter > noch nie kalibrieren. Es ist auch völlig egal ob sie dabei im Büro oder > mobil mit dem Laptop arbeitet, sie bekommt genau das was sie auf dem > Bildschirm sieht. Da kann ich dir ein super Gegenbeispiel liefern: Meine Schwester bearbeitet Bilder mit einem relativ neuen Macbook. Wenn sie nicht 100% im richtigen Winkel davor sitzt, geht der Kontrast verloren und alles wird zum Glücksspiel. Paar cm falsche Neigung reichen aus. Mit meinem 7-8 Jahre alten Viewsonic IPS Display konnte ich die Fehler sofort erkennen, selbst wenn ich gemütlich im Stuhl herum lungere oder aufstehe. Also so viel zur Überlegenheit der Apple Geräte...
Naja, um das Problem zu lösen, muss man halt auf Papier ausweichen. Ich hatte damals in der Firma einige "Fächer" herumliegen. Jeder Streifen war bunt, und hatte eine feine Farben-Nr. drauf. Was ich auf mein Monitor sah war relativ egal, weil ich den DTP einfach gesagt habe. DAS Objekt hat RAL-1203 und das war's. Mein Liebling waren die RAL-Farben. Sind glaube ich Standard im Baumarkt ;) Wieso mehrere Fächer = Naja es gibt da noch Pantone // HKS und wie sie alle heißen. So haben wir das kalibrieren umgangen. Mein Chef war zu geizig für den Katalog und die Flyer extra Technik anzuschaffen. Aber immerhin habe ich ihn ein EIZO-Monitor abgeschwatzt. ;) Gruß Pucki
Nano schrieb: > Das Problem bei Windows 9x/ME, sowie MacOS <= 9 war nämlich, dass die > gerade keinen Kernel mit präemtives Multitasking hatten, da haben sich > die Anwendungen die CPU Zeit per Kooperatives Multitasking gegenseitig > zugeschoben Das stimmt nicht. Windows9x/ME hatte natürlich bereits präemptives Multitasking. Nur innerhalb des Subsystems für olle Win16-Software (die eigentlich zu Win3.x gehört) gab es noch kooperatives MT.
Gerade gefunden: https://www.pcgameshardware.de/Intel-GPU-Codename-267650/News/GPU-hinkt-Radeon-RX-560-und-Geforce-GTX-1050-Ti-weiter-hinterher-1351303/ Und selbst betagtere i5-2500K oder i7-26000/3770 sind heute noch als Spielerechner tauglich, solange nur eine passende Grafikkarte (ab RX570/580) drin steckt. Ja, nicht Doom Ethernal auf Ultra, aber ich schätze >90% der Spiele in FullHD und mindestens Medium sind spielbar (>60fps). Rendern in Blender....hm...ich würde da auf die Grafikkarte setzen statt auf CPU-Kerne. Selbst eine uralt-1070/80 rechnert einen 16-Kerner in Grund und Boden. (So lange der Grafikkarte nicht der RAM ausgeht) Problem sind die Workloads. Während CPUs meist sich bei 32x32 Tiles wohlfühlen, darf es bei Grafikkarten gerne um den Faktor 10 größer sein, damit es ordentlich performt. Ab Blender 2.8 geht zwar CPU+GPU Rendering, aber nur in einer Tile-Größe... Vielleicht kommt da ja noch etwas in der Zukunft... https://techgage.com/article/blender-2-80-viewport-rendering-performance/ AMDforever
c-hater schrieb: > Nano schrieb: > >> Das Problem bei Windows 9x/ME, sowie MacOS <= 9 war nämlich, dass die >> gerade keinen Kernel mit präemtives Multitasking hatten, da haben sich >> die Anwendungen die CPU Zeit per Kooperatives Multitasking gegenseitig >> zugeschoben > > Das stimmt nicht. Windows9x/ME hatte natürlich bereits präemptives > Multitasking. Nur innerhalb des Subsystems für olle Win16-Software (die > eigentlich zu Win3.x gehört) gab es noch kooperatives MT. Das ist mir bekannt, True und False gibt aber halt nicht True, also werte ich das erstmal als nicht präemptiv. Das ist im Prinzip so wie bei der Frage, ob ein Glas jetzt halb leer oder halb voll ist. Dazu brauchte es noch DOS, einschließlich einiger DOS Routinen, das schon einmal gar nicht präemtiv war. Im großen und ganzen hatte es somit keinen ausreichenden Speicherschutz und war den Anwendungen damit ausgeliefert. Und darum geht es eben. Mit einem Kernel, der strikt die Hohheit über den Speicher und die CPU Resourcen hat, passiert dir so etwas halt nicht und darum geht es. Das erste Windows, das diesen Schutz bot, war eben die NT Reihe.
Nano schrieb: > Es gab schon damals Grafikchip, die direkt aufs Mainboard gelötet > wurden. Diese waren praktisch der Vorläufer der iGPUs. Im Server-Bereich gibt es das immer noch. Denn ausgerechnet dort fehlt vielen Prozessoren die eingebaute Grafik, und damit man dann nicht extra nur für's BIOS-Setup und so eine separate Grafikkarte einbauen muss, integrieren die Boardhersteller dann eben irgendeine ranzige Uralt-Grafik auf dem Mainboard. Nano schrieb: > allerdings muss man das so sehen, die billigen bzw. leistungsschwachen > dedizierten Grafikkarten sind heute für die Leute, die sich eigentlich nicht > auskennen und nur danach gehen, dass sie noch eine dedizierte Grafikkarte > benötigen, um mehr Leistung zu bekommen. Die wissen dann oftmals nicht, dass > die iGPU genauso gut oder sogar schneller ist und man sich das Geld bis auf > wenige Ausnahmen eigentlich sparen könnte. Ich denke, solche Grafikkarten sind vor allem für die Leute, die halt eine brauchen, weil der Rechner keine integrierte Grafik hat oder diese aus irgendeinem Grund nicht nutzbar ist. Wenn man einfach nur eine Grafikkarte braucht, aber für den Anwendungsfall die Grafikleistung egal ist, dann kauft man eben so eine. > Die Zweite Ziffer in der Modellbezeichnung sagt aus, ob das eine potente > High-End GPU oder Low-End GPU ist. Eine --3- kann man sich so gut wie > immer sparen, da kann man auch gleich bei der iGPU bleiben. Da ist was dran. Oft ist sogar ein etwas "größeres" Modell der Vorgängergeneration günstiger und schneller als das Einstiegsmodell der aktuellen. Zeno schrieb: > Das kommt darauf an. Rechner der Firma Dell unterscheiden sich nicht so > arg viel im Preis von Mac Rechnern. Mein Firmenlaptop ist gerade mal 50€ > billiger als mein Macbookpro. Ja der hat sogar eine bessere CPU (ist > auch etwas neuer) und etwas mehr Speicher. Ja, inzwischen gibt's auch bei den Windows-Systemen ähnlich überteuerte Modelle.
Nano schrieb: > Das ist richtig, allerdings muss man das so sehen, die billigen bzw. > leistungsschwachen dedizierten Grafikkarten sind heute für die Leute, > die sich eigentlich nicht auskennen und nur danach gehen, dass sie noch > eine dedizierte Grafikkarte benötigen Für neue PCs mag das gelten, aber die "billigen" Grafikkarten (die von dir zitierte 1030) haben noch einen anderen Zweck: Nachrüstkarten! z.B. hat MS die Treiber für manche Grafiksysteme bei modernen W10 System eingestellt, z.B. Intel HD 2000 (war z.B. bei meinem i7 2600 so). Da passt die 1030, die es auch in low-profile gibt, dann ganz gut. Oder um UHD nachzurüsten oder ggfs. wenn man mehr als 2 Monitore anschließen möchte.
Nano schrieb: > René H. schrieb: >> Da sieht man mal wieder die Marktmacht von Microsoft. > > Das ist nicht die Marktmacht von Microsoft, sondern das bessere > Preis-/Leistungsverhältnis ohne Applemarkenzusatzzahlung. Auch wenn Apple günstiger werden würde, würde es kaum einer kaufen. Windows ist überall zu fest verankert, da hilft auf kurze Sicht auch keine Preissenkung.
:
Bearbeitet durch User
Nano schrieb: > Das ist mir bekannt, True und False gibt aber halt nicht True, also > werte ich das erstmal als nicht präemptiv. Das ist im Prinzip so wie bei > der Frage, ob ein Glas jetzt halb leer oder halb voll ist. Nein. Du verkennst, dass das kooperative MT nur innerhalb des Win16-Subsystems anzutreffen war. Dieses Subsystem war aber nur ein Task des übergeordneten Systems mit präemptivem MT. > Dazu brauchte es noch DOS, einschließlich einiger DOS Routinen, das > schon einmal gar nicht präemtiv war. DOS wurde im Wesentlichen nur noch als Bootlader verwendet. Naja und ein wenig Int2F-Mimik. Die DOS-Boxen hingegen waren ebenfalls ebenfalls präemptive Task (waren sie auch schon bei Win3.x). Das geht garnicht anders, weil DOS selber keinerlei Schnittstellen für ein Scheduling kennt. Es ist also nur mittels präemptivem MT möglich, überhaupt mehrere gleichzeitige Instanzen von command.com haben zu können. > Im großen und ganzen hatte es somit > keinen ausreichenden Speicherschutz Klar, der Speicherschutz war (überwiegend aus Kombatibilitätsgründen) sehr mangelhaft. Aber das ist eine ganz andere Geschichte. Der Speicherschutz hat mit der Art des Multitasking rein garnix zu schaffen.
Andre schrieb: > Da kann ich dir ein super Gegenbeispiel liefern: Meine Schwester > bearbeitet Bilder mit einem relativ neuen Macbook. Wenn sie nicht 100% > im richtigen Winkel davor sitzt, geht der Kontrast verloren und alles > wird zum Glücksspiel. Und was hat das jetzt mit dem Ausdruck auf dem Belichter zu tun? Dir ist aber schon klar das es zwischen einem Monitor für den Schreibtisch und einem Laptopbildschirm schon Unterschiede gibt. Laptopbildschirme liefern halt oftmals in Abhängigkeit vom Betrachtungswinkel unterschiedliche Resultate. Das ist eigentlich seit langem schon bekannt. Wie stark dieser Effekt ausgeprägt ist hängt von der Bauart des Displays ab. Bei meinem Retinadisplay ist der Effekt sehr schwach ausgeprägt und fast nicht wahrnehmbar. Bei meinem alten MacBookPro (17") war der Effekt deutlich stärker ausgeprägt. Andererseits lümmelt man bei Fotobearbeitung nicht vor dem Teil herum, da sitzt man in aller Regel am Schreibtisch so das man schon eine optimale Position hat. Für den Rest gibt es spezielle Bilder mit den man den Blickwinkel optimal einstellen kann (ist z.B. hier https://www.fotocommunity.de/forum/bildbearbeitung-digiart-druck-software/blickwinkel-auf-laptop---164366 beschrieben).
Alexander K. schrieb: > Naja, um das Problem zu lösen, muss man halt auf Papier ausweichen. Ich > hatte damals in der Firma einige "Fächer" herumliegen. Jeder Streifen > war bunt, und hatte eine feine Farben-Nr. drauf. Was ich auf mein > Monitor sah war relativ egal, weil ich den DTP einfach gesagt habe. DAS > Objekt hat RAL-1203 und das war's. Das ist aber Basteln und Kneten. Wenn man mit Design seine Brötchen verdienen muß, dann muß das schon ordentlich funktionieren. Man möchte ja sein Werk erst mal begutachten bevor man es herausgibt. Da geht es manchmal um kleinste Farbnuancen und da weis ich nicht wirklich ob da die Ral Nummern richtig greifen. Da müßte ich mal meine Tochter fragen, die hat es richtig gelernt und macht das auch täglich.
Suppenklaus schrieb: > Viele der neueren CPUs bringen doch von Haus aus schon alles mit, > was > man fürs Zocken benötigt. Für welche Aufgaben (zielgruppen) sind denn > Grafikkarten (Steckkarten) geeignet? > > Man hört oft Videoschnitt und 3D-Modellierung. Ich habe keine > einsteckbare Grafikkarte und trotzdem kann ich Filme in 4096x2304@24Hz > gucken, Videos bearbeiten und mit Blender 3D-Modelle erstellen. Du stellst die falsche Frage! Eine Graka benötigt man immer dann wenn der Rest des PCs die angeforderte Leistung nicht erbringen kann! Das hat nicht nur immer was mit Graphik zu tun!
Rolf M. schrieb: > Ja, inzwischen gibt's auch bei den Windows-Systemen ähnlich überteuerte > Modelle. "Marken"-PC's liegen mittlerweile nicht mehr so weit weg von Applerechnern. Andererseits muß ich sagen das ein iMac nun so teuer auch nicht war. Ich hatte meiner Tochter so ein Teil (27") vor 12 Jahren gekauft und das hat so um die 1400€ gekostet. Wenn ich da die Einzelkomponenten gekauft hätte wäre das definitiv nicht billiger geworden. Das Teil hatte damals i5, Onboardgrafik und eine zusätzliche NVidia (ich meine GForce). War/ist schon ein schickes Teil und funktioniert bestens.
Rolf M. schrieb: > integrieren die Boardhersteller dann eben irgendeine ranzige > Uralt-Grafik auf dem Mainboard. Was sich allerdings gut mit einem Remote-Management Controller kombinieren lässt (Dell iDRAC, ILO, ...), der ja ohne Mitarbeit des Prozessor an den Bildschirminhalt ran muss.
René H. schrieb: > Auch wenn Apple günstiger werden würde, würde es kaum einer kaufen. > Windows ist überall zu fest verankert, da hilft auf kurze Sicht auch > keine Preissenkung. Dummerweise sieht man immer mehr Apple. Dafür das die keiner kauft sind es eindeutig zu viele. Gerade bei Notebooks zeigt die Tendenz eher nach oben. Woran das wohl liegen mag?
Zeno schrieb: > da weis ich nicht wirklich ob da die Ral Nummern richtig greifen. Naja, wie schon geschrieben. RAL ist nur eine der vielen Familien. Allein mein Corel auf da ganz viele integriert. Und in der Regel greifen diese "Paletten" ziemlich gut. Den genau dafür wurden sie ja entwickelt. Ich habe meistens eine Pantone-Farben benutzt. Was "besondere Grafik" wie Firmenlogos angeht, da sieht das anders aus. Da hat man Tabellen, wo welche Farbe, mit den üblichen Mischpaletten angegeben ist. z.b. RGB (Nutzt man aber in der Werbung so gut wie nicht), CMYK (Hab ich immer benutzt) und was es da noch gibt. Ich muss aber dabei sagen, die Werbung (Digitale Arbeit) war nur ein kleiner Teil meiner Aufgabe. Ich hab sie erstellt, der Datei gesagt welche Farbe wohin, und die Druckerei hat den Rest gemacht. Für "Entwurf-Abzüge" hat mein Tintenstrahler bzw. hinterher Farblaser gereicht. Die Karten waren eh nur für mein Chef. Damit der mir sagte, welche Farbe er wollte ;) Da sind nämlich sonst die "virtuellen Eindrücke" auf einen Monitor sehr verwirrend. Gruß Pucki
Zeno schrieb: > Woran das wohl liegen mag? Am Design und der Werbeabteilung. Ist wie Ferrari. Das Auto ist unbequem, nicht alltagstauglich (Man kann damit nicht gut bei Aldi einkaufen) aber cool. Gruß Pucki
Alexander K. schrieb: > RAL ist nur eine der vielen Familien. Kommt auf den Zweck an. Wenn ich bei einer Lackierei ein Gehäuse lackieren lasse gebe ich RAL an, auch bei Autos. Pantone ist für Druckereien. Apple ist für Leute die selber keine Expertise haben (wollen). Ich schliesse an meine PCs einfach einen Monitor an und läuft, meine Offsetdruckerei liess dazu jemand von Stuttgart kommen, der an den Mac einen grösseren Monitor angeschlossen hat und dafür mehr als 1000 Euro berechnet (ohne den Monitorpreis natürlich). Nach dem Motto mit sowas machen wir uns doch nicht die Finger schmutzig, und das Geld haben wir ja. Georg
Dominic schrieb: > Wir verbauen high end Grafikkarten und schließen nicht mal einen Monitor > an Ich nehme an, weil ihr die Grafikkarten für KI-Aufgaben verwendet? Wenn ja, warum eignen sich dafür ausgerechnet Grafikkarten? Nano schrieb: > Und beim Videoschnitt ist es nicht der Schnitt, der Leistung kostet, > sondern besondere Postprocessing Effekte Solche Effekte sieht man ja auch in Computeranimationsfilmen. Um solche Effekte in einem Film anzusehen, bedarf es ja keine besondere externe Grafikkarte. Warum braucht man sie aber, wenn man den Film erstellt? Nano schrieb: > Und letztere ist hier > relevant, wer nur mit Photoshop Bilder bearbeitet, wird längst nicht die > maximale Leistung fürs Geld benötigen, wie jemand der CGI Videoszenen > rendern muss. Kennt jemand ein Tutorial, wo es um solche Filmbearbeitung geht? Wenn möglich sollte daran das Leistungspotential der verwendeten Grafikkarte demontriert werden? Nano schrieb: > Geforce 1030 = Low End GPU, die kann man sich in den meisten Fällen > sparen > Geforce 1070 = gute Gamer GPU die definitiv besser ist als eine iGPU. > Geforce 1080 = High End GPU wenn man es sich leisten kann oder will An welchen Kriterian machst du das fest? Supenkasper schrieb: > Eine Graka benötigt man immer dann wenn der Rest des PCs die > angeforderte Leistung nicht erbringen kann! > > Das hat nicht nur immer was mit Graphik zu tun! Mit was hat es denn noch zutun? Nano schrieb: > Das geht mit OpenCL auch. Hat jemand ein Beispielprogramm, wo man die Arbeit von OpenCL oder CUDA experimentell nachvollziehen kann.
Suppenklaus schrieb: > Ich nehme an, weil ihr die Grafikkarten für KI-Aufgaben verwendet? Wenn > ja, warum eignen sich dafür ausgerechnet Grafikkarten? EINFACH ERKLÄRT. Weil der Prozessor einer Grafikkarte ein Profi ist. Grundsätzlich kann man ALLE Mathematik-Aufgaben mit + / - rechnen. Es dauert nur sehr lange. Grafikausgabe beruht auf spezielle Mathematische Routinen. Und dafür hat der Prozessor einer Grafikkarte diese Routinen besser. Dafür würde er sich sehr schwer tun, eine Festplatte anzusteuern. Suppenklaus schrieb: > Solche Effekte sieht man ja auch in Computeranimationsfilmen. Um solche > Effekte in einem Film anzusehen, bedarf es ja keine besondere externe > Grafikkarte. Warum braucht man sie aber, wenn man den Film erstellt? Ebenfalls einfach gesagt. Weil es schneller geht. Gründe : siehe 1. Antwort. Suppenklaus schrieb: > Hat jemand ein Beispielprogramm, wo man die Arbeit von OpenCL oder CUDA > experimentell nachvollziehen kann. Es gibt Testprogramme und Brenchmarktest's ohne Ende. Nur gibt es dabei ein Problem. Es ist wie mit der Schummelsoftware bei Auto. Viele Grafikkarten erkennen den Test und liefern ein "besseres Ergebnis". Mein Tipp : Such dir mehrere !!! Tests aus, die mit gleicher Software die Karte testen. Das ist dann aussagekräftig. Gruß Pucki
Zeno schrieb: > René H. schrieb: >> Auch wenn Apple günstiger werden würde, würde es kaum einer kaufen. >> Windows ist überall zu fest verankert, da hilft auf kurze Sicht auch >> keine Preissenkung. > > Dummerweise sieht man immer mehr Apple. Dafür das die keiner kauft sind > es eindeutig zu viele. Die werden nur wegen dem Design gekauft und dann kommen sie ganz vorne an den Eingangsthesen der Firma, wegen der Kundschaft. Hinten, bei den Mitarbeitern werkeln dann normale PCs. Insofern täuscht der Eindruck, dass das immer mehr werden würden.
Suppenklaus schrieb: > Nano schrieb: >> Und beim Videoschnitt ist es nicht der Schnitt, der Leistung kostet, >> sondern besondere Postprocessing Effekte > > Solche Effekte sieht man ja auch in Computeranimationsfilmen. Um solche > Effekte in einem Film anzusehen, bedarf es ja keine besondere externe > Grafikkarte. Warum braucht man sie aber, wenn man den Film erstellt? Weil die gerendert werden müssen und dann in den Realfilm eingebaut werden. Aber es sind nicht nur CGI Vollbilder, sondern halt auch Bearbeitungseffekte die in bestehendes Realfilmmaterial eingebaut werden. Und dann gibt's noch Sachen, da wird der Realfilm selbst bearbeitet bzw. als Quellmaterial verwendet. > Nano schrieb: >> Und letztere ist hier >> relevant, wer nur mit Photoshop Bilder bearbeitet, wird längst nicht die >> maximale Leistung fürs Geld benötigen, wie jemand der CGI Videoszenen >> rendern muss. > > Kennt jemand ein Tutorial, wo es um solche Filmbearbeitung geht? Wenn > möglich sollte daran das Leistungspotential der verwendeten Grafikkarte > demontriert werden? Generelle Tutorials wird's wohl nicht geben, da die ja alle Programmspezfisch sind. Bei den Adobe Produkten ist das Programm, dass man dafür verwendet, bspw. Adobe After Effects. Insofern würde ich nach Tutorials für dieses Programm suchen, wenn du dieses Programm einsetzen möchtest. Bei anderen Programmen musst du entsprechend suchen. In der Open Source Szene gab es dafür das Programm Jahshaka, die Entwicklung wurde aber mal gestoppt. Ich weiß nicht, wie es mit dem Programm heute aussieht. > Nano schrieb: >> Geforce 1030 = Low End GPU, die kann man sich in den meisten Fällen >> sparen >> Geforce 1070 = gute Gamer GPU die definitiv besser ist als eine iGPU. >> Geforce 1080 = High End GPU wenn man es sich leisten kann oder will > > An welchen Kriterian machst du das fest? Du kannst auch die Leistungsdaten direkt vergleichen. Dann wirst du feststellen, dass die Karten bei denen die zweite Ziffer höher ist, die Speicheranbindung besser ist, z.b. bielbittiger ist, die GPU über mehr Shadereinheiten verfügt, teilweise ein größeres Die hat (Hintergrund: die High End Karten kommen zuerst raus, ein paar Monate später gibt's dann nen abgespeckten Chip mit manchmal kleinerer Fläche und Transistoranzahl). An der Taktzahl kannst du es aber nicht immer erkennen, da die schwachen GPU aufgrund der geringeren Shaderanzahl eine geringere Abwärme haben und daher höher getaktet werden können. Außerdem kommend diese Chiprevisionen meist später raus. Ebensowenig kann man es an der RAM Bestückung sehen. Mehr RAM dient als Kaufschlagargument für Laien, die darauf reinfallen. Tja und letzten Endes sieht man es auch an den Benchmarks. > Nano schrieb: >> Das geht mit OpenCL auch. > > Hat jemand ein Beispielprogramm, wo man die Arbeit von OpenCL oder CUDA > experimentell nachvollziehen kann. Es gibt dutzende Tutorials zu beiden APIs.
Suppenklaus schrieb: > Dominic schrieb: >> Wir verbauen high end Grafikkarten und schließen nicht mal einen Monitor >> an > > Ich nehme an.... > > Supenkasper schrieb: >> Eine Graka benötigt man immer dann wenn der Rest des PCs die >> angeforderte Leistung nicht erbringen kann! >> >> Das hat nicht nur immer was mit Graphik zu tun! > > Mit was hat es denn noch zutun? > Sorry du Troll!!! Du Tippst hier so flott einen Mist zusammen, bemühe lieber mal die Suchfunktion! Da wirst Du sofort fündig!
Suppenkasper schrieb: > Sorry du Troll!!! > > Du Tippst hier so flott einen Mist zusammen, bemühe lieber mal die > Suchfunktion! 1. Bin ich kein Troll. 2. Wenn mir der Moderator des Forum den Hinweis gibt, dass ich keine Fragen mehr stellen soll, werde ich das tun.
Beitrag #6288021 wurde von einem Moderator gelöscht.
Beitrag #6288031 wurde von einem Moderator gelöscht.
Nano schrieb im Beitrag #6288031: > Oben hättest du lesen können, dass ich einen EIZO Monitor habe, aber mit > dem Denken ist es bei dir wohl nicht so weit, sonst hättest du merken > müssen, das jemand, der einen EIZO hat, nicht besitzlos sein kann. Du willst sagen, dass jemand, der 200,-€ für ’nen Monitor¹ ausgeben kann, sich auch genausogut ’nen Mac kaufen könnte? Diese Logik verstehe ich nicht. Wie auch immer: Apples Geräte sind als geschlossene Systeme zu verstehen. Wie ein heutiger Fernseher: es gibt das Gerät, man kann es bedienen – und mehr Zugriff auf das System soll man nicht brauchen. Für Nur-Anwender vielleicht nicht mal die schlechteste Wahl; für alle, die selbst Kontrolle ausüben wollen, hingegen schon – weil man nämlich den Teil mitbezahlt, den man gar nicht braucht oder gar will. Die interessante Frage ist jedoch: was hat das mit dem Threadthema zu tun? ¹) https://www.idealo.de/preisvergleich/OffersOfProduct/4252287_-ev2216wfs3-bk-eizo.html
:
Bearbeitet durch User
Da fällt mir auch noch eine abschließende Anekdote zu einem MAC Book Pro ein. Hab mit dem Ding mal ne Fliege erschlagen. Das ging mit der Kiste ganz gut.
Suppenklaus schrieb: > Da fällt mir auch noch eine abschließende Anekdote zu einem MAC Book Pro > ein. Hab mit dem Ding mal ne Fliege erschlagen. Das ging mit der Kiste > ganz gut.
Beitrag #6288284 wurde von einem Moderator gelöscht.
Jack V. schrieb: > Wie auch immer: Apples Geräte sind als geschlossene Systeme zu > verstehen. Wie ein heutiger Fernseher: es gibt das Gerät, man kann es > bedienen – und mehr Zugriff auf das System soll man nicht brauchen. Für > Nur-Anwender vielleicht nicht mal die schlechteste Wahl; für alle, die > selbst Kontrolle ausüben wollen, hingegen schon – weil man nämlich den > Teil mitbezahlt, den man gar nicht braucht oder gar will. Die > interessante Frage ist jedoch: was hat das mit dem Threadthema zu tun? Ja da hast Du in gewisser Weise recht. Mac kauft man sich, wenn man ein Gerät haben möchte, das einfach nur funktioniert und man keine Lust auf das hat was dem TO passiert ist. Mac kauft man sich auch, wenn man ungestört arbeiten möchte und nicht alle Nasen lang irgendwelche Fenster weg klicken möchte die einem sagen das man das neue Gerät nun benutzen könne oder Fensterlein die einen auf irgend etwas hinweisen, was man demnächst tun soll. Und weil ich auf einige andere Segnungen von Windows ebenfalls keine Lust habe benutze ich für die meisten privaten Sachen halt einen Mac. Beruflich nutze ich halt Windows und ab und an HP-UX.
Hier wurde das Thema auch schon mal angerissen: ------------------------------------------------ Beitrag "Warum nicht gleich GPU statt CPU als Hauptprozessor auf Mainboard?" ------------------------------------------------
Beitrag #6288341 wurde von einem Moderator gelöscht.
Bei uns in der Firma sind wir nun komplett von Mac auf Windowsrechner umgestiegen. Grund: das Preis-Leistungs Verhältnis ist völlig neben jeglicher Relation. Softwareportierung war das allerkleinste Problem, da Adobe alles auch für Windows zur Verfügung stellt. Auch die Entwicklungsumgebungen sind alle Verfügbar. Größter Vorteil für uns. Wir sind unabhängig was das Aufrüsten und die Rechner mit den speziellen Wünschen der einzelnen Leute angeht. Somit sind die Rechner wesentlich performanter als ein Mac. Und vom völlig unterirdischen Preis für die gebotene Leistung mal ganz zu schweigen.
Ich benutze die GraKa zum Knacken von Passwortern, das geht viel schneller als mit der CPU
Beitrag #6288479 wurde vom Autor gelöscht.
Angsthase schrieb: > Ich benutze die GraKa zum Knacken von Passwortern, das geht viel > schneller als mit der CPU Haust du dann mit der Karte auf ein Fahrradschloss ein, wie das Spongebop und Patrick oben demonstrieren?
René H. schrieb: > Für Videoschnitt nehmen Profis Mac-OS, und das wird seinen Grund haben. Oh je. Schon lange nicht mehr. Die Zeiten sind vorbei. Nicht mal die großen Flaggschiffe entwickeln noch hauptsächlich für Mac. Inzwischen wird zähneknirschend portiert, wenn der Mac Hipster Glück hat.
:
Bearbeitet durch User
Steffi schrieb: > Was ist eigentlich ein Gra? Da musst du die Krähen fragen, die bei uns die Papierkörbe ausleeren - ein Gra ist ein Satz McDonalds Tüten, Boxen und Becher mit leckeren Resten. Georg
Ich bin es nochmal. Ich bin wirklich dumm und habe nur wenig Ahnung von der Thematik. Ich gebe es lieber gleich zu, damit der ein oder andere die Zeit, die er sonst für ein paar beleidigende Zeilen an mich verschwenden würde, für wichtigere Dinge nutzen kann. Ich habe es nicht verstanden, warum das Abspielen eines Computeranimationsfilms keine leistungsstarke Grafikkarte erforder, dafür aber das Erstellen des Films. Einige von euch deuten an, dass Grafikkarten nicht nur zur Berechnung der grafischen Ausgabe verwendet werden. Wäre es möglich, dass ihr hier noch einmal konkreter werdet? Wofür setzt man denn noch Grafikkarten ein?
Suppenklaus schrieb: > Wofür setzt man denn noch Grafikkarten > ein? Zum Auslagern mathematischer Prozesse an einen Profi. So einfach ist das. Gruß Pucki
Also Grafikkarten braucht man um Kryptowährungen zu minen. Lohnt sich bei Bitcoin zwar schon lange nicht mehr, bei manch anderen Kryptowährungen aber schon.
Ulli schrieb: > Also Grafikkarten braucht man um Kryptowährungen zu minen. Lohnt sich > bei Bitcoin zwar schon lange nicht mehr, bei manch anderen > Kryptowährungen aber schon. Und warum ausgerechnet Grafikkarten? Im PC ist noch auch noch eine Netzwerkkarte. Warum nimmt man nicht die?
In Deutschland dürfte sich das Crypto-Mining mit Grafikkarten oder ASICs wegen der hohen Strompreise nirgends lohnen. > Ich benutze die GraKa zum Knacken von Passwortern, das geht viel > schneller als mit der CPU Ich knacke meine Passwörter mit meinem Gehirn, das geht richtig schnell. Edit @Jackv Stell das Benzin daneben!
:
Bearbeitet durch User
Suppenklaus schrieb: > Und warum ausgerechnet Grafikkarten? Im PC ist noch auch noch eine > Netzwerkkarte. Warum nimmt man nicht die? Weil eine Netzwerkkarte überhaupt nicht rechnen kann. Nicht einmal 2+2 Mach die mach über die mathematischen Fähigkeiten einer Grafikkarte schlau, dann verstehst du das meiste was die hier schreiben. Kleiner Hinweis. : Der 2. IBM-PC (mit ein 80286 Prozessor) konnte schon gegen Aufpreis mit einen mathematischen CO-Prozessor (80287 Prozessor) schneller rechnen. Wurde schon damals für Spezial-Software eingesetzt die damit umgehen konnten. Das mit der Grafikkarte ist im Prinzip genau das selbe. Man lagert Berechnungen an einen Profi aus. Gruß Pucki
Alexander K. schrieb: > Der 2. IBM-PC (mit ein 80286 Prozessor) konnte schon > gegen Aufpreis mit einen mathematischen CO-Prozessor (80287 Prozessor) > schneller rechnen. Wurde schon damals für Spezial-Software eingesetzt > die damit umgehen konnten. > > Das mit der Grafikkarte ist im Prinzip genau das selbe. Man lagert > Berechnungen an einen Profi aus. Das ist mal Unsinn – die GPU kann einfache(!) mathematische Operationen durchführen, aber davon halt sehr viele zur gleichen Zeit. Mit Co-Prozessoren und Profis hat das nix zu tun.
Alexander K. schrieb: > Das mit der Grafikkarte ist im Prinzip genau das selbe. Man lagert > Berechnungen an einen Profi aus. Hier wird mir zuviel auf den "CUDA" Eigenschaften rumgeritten. Ja eine Grafikkarte kann man als mathematischen Co-Prozessor verwenden. Aber was tut sie eigentlich? Sie erstellt und zeigt Bilder für Spiele. Und wie tut sie das? Bzw. warum kann sie das so gut? Wegen der Shader. Moderne Grafikkarten haben eine Menge davon und das unterscheidet sie von jeder CPU. Hunderte bis tausende Mini-Rechenkerne die programmierbar sind und zusammen sehr schnell ein Bild erzeugen können welches aus sehr komplexen Elementen entsteht (Texturen, Licht, Schatten, Bewegung usw usw.). DAS macht doch erst einmal eine Grafikkarte aus.
:
Bearbeitet durch User
Suppenklaus schrieb: > Ich bin es nochmal. Ich bin wirklich dumm und habe nur wenig Ahnung von > der Thematik. Kein Problem, dieses Video hilft: https://youtu.be/KNechL9BIdw?t=373
Suppenklaus schrieb: > Ich habe es nicht verstanden, warum das Abspielen eines > Computeranimationsfilms keine leistungsstarke Grafikkarte erforder, > dafür aber das Erstellen des Films. Allein schon wegen der Datenmenge. Ein unbehandeltes HD-Video hat ca. 10GB Pro Stunde. Das muß dann auch noch so verrechnet werden, daß man zum Dekodieren keine Grafikkarte brauch, denn das vom Display dargestellte Video, muß auch wieder auf 10GB pro Stunde kommen sonst gibt es Qualitätseinbußen.
Ich haue mal folgende Theorie raus: Wahrscheinlich sind GPUs architektonisch näher an der RISC-Philosophie angelehnt. Die Befehlssätze der Grafikkarten sind vermutlich auf ganz wenige einfache Rechenoperationen beschränkt und können in einem Maschinenzyklus abgearbeitet werden. Das würde erklären, warum sie besser mit mathematischen Operationen umgehen können. Die CPU braucht ja allein deshalb schon mehr zZeit weil sie die Befehle erstmal vorsortieren muss.
Suppenklaus schrieb: > Ich haue mal folgende Theorie raus: Wahrscheinlich sind GPUs > architektonisch näher an der RISC-Philosophie angelehnt. Die > Befehlssätze der Grafikkarten sind vermutlich auf ganz wenige einfache > Rechenoperationen beschränkt und können in einem Maschinenzyklus > abgearbeitet werden. Das würde erklären, warum sie besser mit > mathematischen Operationen umgehen können. Die CPU braucht ja allein > deshalb schon mehr zZeit weil sie die Befehle erstmal vorsortieren muss. Das ist kompletter Humbug.
Cyblord -. schrieb: > Suppenklaus schrieb: >> Ich haue mal folgende Theorie raus: Wahrscheinlich sind GPUs >> architektonisch näher an der RISC-Philosophie angelehnt. Die >> Befehlssätze der Grafikkarten sind vermutlich auf ganz wenige einfache >> Rechenoperationen beschränkt und können in einem Maschinenzyklus >> abgearbeitet werden. Das würde erklären, warum sie besser mit >> mathematischen Operationen umgehen können. Die CPU braucht ja allein >> deshalb schon mehr zZeit weil sie die Befehle erstmal vorsortieren muss. > > Das ist kompletter Humbug. Das ist ja auch nur eine Theorie. Wenn sie falsch ist muss man es beweisen. Du musst also sagen, was aus deiner Sicht Humbug ist und es argumentativ beweisen. Das würde die Qualität der Beiträge verbessern.
Suppenklaus schrieb: > Das ist ja auch nur eine Theorie. Wenn sie falsch ist muss man es > beweisen. Nein das läuft andersrum. Wenn DU eine Theorie aufstellst, musst DU sie beweisen. > Du musst also sagen, was aus deiner Sicht Humbug ist und es > argumentativ beweisen. Auch in der Wiederholung wird nicht wahrer. >Das würde die Qualität der Beiträge verbessern. Nein. Einfach mal irgendeinen Quatsch hinschreiben und anderen sollen gefälligst das Gegenteil beweisen, trägt sicher nicht zu mehr Qualität bei. Das ist eher ABM für Forenuser. Lies dir das Wissen an, stelle konkrete Fragen. So kommt man weiter. Nicht mit Ratespielen.
Cyblord -. schrieb: > Nein das läuft andersrum. Wenn DU eine Theorie aufstellst, musst DU sie > beweisen. Du hast recht. Ich meinte Hypothese. Cyblord -. schrieb: > Nein. Einfach mal irgendeinen Quatsch hinschreiben und anderen sollen > gefälligst das Gegenteil beweisen, trägt sicher nicht zu mehr Qualität > bei. Das ist eher ABM für Forenuser. Habe ich verstanden.
Cyblord -. schrieb: > Nein das läuft andersrum. Wenn DU eine Theorie aufstellst, musst DU sie > beweisen. Nein, das ist nicht zwingend. Man kann Theorien aufstellen, so viel man will, solange sie als Theorie und nicht als bewiesener Fakt deklariert sind, passt das. Allerdings stellt man normalerweise Theorien auf, wenn man schon Fakten hat, die sich mit diesen Theorien erklären liessen. In diesem Fall eindeutig: Check. GPUs haben (in Teilen) tatsächlich viel mit GP-RISC-Architekturen gemeinsam. Und nun obliegt es den Opponenten, Fakten anzuführen, die das entkräften. Das ist allerdings auch nicht sehr schwer, denn es gibt auch riesige Unterschiede zwischen GPUs und GP-RISC-Architekturen. Allerdings: diese werden zunehmend geringer. Inbesondere das, was mal als "Shader" angefangen hat, nähert sich doch zusehends dem Funktionsumfang eines GP-RISC-Prozessors mit sehr vielen Kernen. Das erklärt übrigens auch die Existenz von sowas wie CUDA ganz zwanglos. Das ist schlicht die Software-Manifestation dieses Faktes...
c-hater schrieb: >> Nein das läuft andersrum. Wenn DU eine Theorie aufstellst, musst DU sie >> beweisen. > > Nein, das ist nicht zwingend. Man kann Theorien aufstellen, so viel man > will, solange sie als Theorie und nicht als bewiesener Fakt deklariert > sind, passt das. Wobei es auch eine andere Definition gibt. Dergestalt man beliebig Hypothesen formulieren kann, die aber erst dann zur Theorie reifen, wenn man dafür Belege gefunden hat.
Jetzt habe ich mir beim Lesen dieses Threads schon Chips geholt, mich zurückgehalten mit einer Grätsche, und dann sowas: Yalu X. schrieb im Beitrag #6288479: > Zeno und Nano, Das fängt ja gut an... zurückkomm mit Bier weiterlesend, , hier wird doch niemand zynisch werden? Nee, ein Moderator... jetzt wirds gleich laangweilig. Oder? > nehmt ihr den Apple bzw. den Eizo auch mit in den Kindergarten, oder > erlaubt das der Papa nicht? YMMD Hammerhart. In Zukunft lese ich hier nur noch mit Wassserdichter Tastatur :D Eigentlich verwirrend Mein Fazit: erst recht zum lesen braucht man eine robuste Tastatur, das hat mit schreiben nix zu tun. Es gibt aber auch noch andere Verwirrte in diesem Faden: Suppenklaus schrieb: > Ich bin es nochmal. Ich bin wirklich dumm und habe nur wenig > Ahnung von > der Thematik. Willkommen :D > Ich gebe es lieber gleich zu, damit der ein oder andere > die Zeit, die er sonst für ein paar beleidigende Zeilen an mich > verschwenden würde, für wichtigere Dinge nutzen kann. Gute Idee, hat leider nicht jeder verstanden. > Ich habe es nicht verstanden, warum das Abspielen eines > Computeranimationsfilms keine leistungsstarke Grafikkarte erforder Bei der Wiedergabe eines "fertigen Films" hat es deine Maschine relativ einfach. Dort gibt es schnelle Standard-rituale (codecs), vergleiche das mit dem "Wiedergeben und Betrachten eines Bildes"... > dafür aber das Erstellen des Films. Vergleiche den Aufwand zum erstellen des zu betrachtenden Bildes. Filme/Bewegtbilder herstellen ist weit aufwändiger als Bilder glotzen. Nur technisch (also solche Dinge wie Regisseur und Schauspieler und Drehbuchschreiber aussen vor): ein Bildkompressor (zB Pixeldaten zu JPG) benötigt enorme Rechenleistung. Der De-Kompressor (am Beispiel JPG zu Pixeldaten) hat es einfacher, ist viel schneller, braucht weniger Rechenpower um in Echtzeit (=ruckelfreier Film) mitzukommen. Ein Beispiel für Produktionsaufwand: Star-wars. Dort steckten monatelange Rechenzeit der damaligen Superrechner in der Berechnung der Bewegtbilder. Der Film selbst hat aber trotzdem nur Spielfilmlänge. Die Kiste auf der du dir den Film anschaust muss die Bilder nicht mehr erzeugen, sondern nur (nach Standardritualen) anzeigen. > Einige von euch deuten an, dass Grafikkarten nicht nur zur Berechnung > der grafischen Ausgabe verwendet werden. Wäre es möglich, dass ihr hier > noch einmal konkreter werdet? Wofür setzt man denn noch Grafikkarten > ein? Unter anderem auch als Zurückrechenhilfe beim Komprimieren der Bilder. Ist aber alles OT. OT --- Bitte bei aller Diskusssion nicht vergessen Eine iGPU klaut ihrem Prozessor nicht nur RAM, sie klaut ihrem Prozessor auch Zugriffszeit auf das RAM. Am Ende, beim zocken: der Prozessor wird "etwas" von der iGPU ausgebremst werden. Muss nicht, könnte aber ebenfalls ein Grund für eine billige "externe" werden. Multimonitor wurde ja schon genannt. HTH
2 Cent schrieb: > Multimonitor wurde ja schon genannt. Bei Büro-PCs sind Ausgänge für 2 Bildschirme längst üblich, trotz Prozessor-GPU.
Ich mach viel 3D-CAD mit SolidEdge Habe 2x 22-Zoll-4K-Displays hier und eine Radeon 5700XT Und die Gute ist schön ausgelastet beim Drehen von Baugruppen in Echtzeit Das gleiche habe ich auf einen Produktions-PC mit 35 Euro Graka versucht, darzustellen: ergibt kleiner 1 FPS und ist unbrauchbar Somit haben leistungsstarke Grafikkarten durchaus Ihre Berechtigung (natürlich nicht im einfachen Office-Bereich) und werden auch gebraucht!!
A. K. schrieb: > 2 Cent schrieb: >> Multimonitor wurde ja schon genannt. > > Bei Büro-PCs sind Ausgänge für 2 Bildschirme längst üblich, trotz > Prozessor-GPU. Multi >= Dual
Jack V. schrieb: >> Das mit der Grafikkarte ist im Prinzip genau das selbe. Man lagert >> Berechnungen an einen Profi aus. > > Das ist mal Unsinn – die GPU kann einfache(!) mathematische Operationen > durchführen, aber davon halt sehr viele zur gleichen Zeit. Was die CPU so ausführen kann, ist auch nicht komplexer.
Kommt drauf an, was für Kriterien man anlegt. Bei Fließkommaoperationen doppelter Genauigkeit brechen GPGPUs wohl ziemlich ein, verglichen mit CPUs. Letztere bringen da etwa die Hälfte der Rechnungen einfacher Genauigkeit pro Zeit, Erstere fallen z.T. auf unter 10% – für mich sieht das daher so aus, als „könnten“ sie dort benötigte Operationen gar nicht nativ, so dass diese in Software implementiert werden müssen.
Jack V. schrieb: > Kommt drauf an, was für Kriterien man anlegt. Bei Fließkommaoperationen > doppelter Genauigkeit brechen GPGPUs wohl ziemlich ein, verglichen mit > CPUs. Letztere bringen da etwa die Hälfte der Rechnungen einfacher > Genauigkeit pro Zeit, Erstere fallen z.T. auf unter 10% – für mich sieht > das daher so aus, als „könnten“ sie dort benötigte Operationen gar nicht > nativ, so dass diese in Software implementiert werden müssen. Soweit ich das weiß, haben viele Karten schon direkten Hardware-Support, aber lediglich ein kleiner Teil der Rechenkerne kann in double-Auflösung rechnen. Wie hoch dieser Anteil ist, hängt vom Typ der Grafikkarte ab. Im Gaming-Bereich ist der Anteil sehr gering, aber es gibt auch Modelle, die da durchaus flott unterwegs sind.
Daten meiner "alten" Grafikkarte. AMD gibt eine Rechenleistung von 4,5 TeraFLOPS für die Fließkommaperformance in Single-Precision an. Bei doppelter Genauigkeit kommt die „Tahiti“-GPU auf eine Rechenleistung von 947 GFLOPS. Zum Vergleich: Eine GF110-GPU kommt auf eine Rechenleistung von 1,58 TeraFLOPS bei einfacher Genauigkeit. Eine Cayman-XT-GPU kommt bei einfacher Genauigkeit auf 2,7 TeraFLOPS und 675 GFOPS bei doppelter Genauigkeit. Ich denke da muss eine CPU mächtig strampeln, um an so Werte zu kommen. Gruß Pucki
Rolf M. schrieb: > hängt vom Typ der Grafikkarte ab. Im Gaming-Bereich ist der Anteil sehr > gering, aber es gibt auch Modelle, die da durchaus flott unterwegs sind. Zum Beispiel die Tesla und Quadro Reihe. Die Quadro GV100 und die Tesla V100 schaffen bei Double Precision 64bit Floating Point beide über 7 Terra Flops. Das ist schon sehr beachtlich. Wohin gegen die GeForce 1080ti "nur" 0.3 TFlops schafft. Die Titan RTX kommt immerhin auf 0.5 TFlops.
Dazu sollte man vielleicht sagen, daß zur normalen Grafikberechnung keine doppelte Genauigkeit erforderlich ist. Infolge dessen werden Consumer-GPUs in Sachen Rechengeschwindigkeit bei doppelter Genauigkeit künstlich extrem beschnitten, damit man sie nicht anstelle der deutlich teureren "Profi"-GPUs für Rechenaufgaben einsetzen kann. Wer das braucht, soll auch dafür zahlen. Ich vermute, nVidia und AMD verdienen mit den "Profi"-Karten das meiste Geld und wollen nicht, daß solche Kunden einfache Consumer-Grafikkarten einsetzen können.
Ben B. schrieb: > Dazu sollte man vielleicht sagen, daß zur normalen Grafikberechnung > keine doppelte Genauigkeit erforderlich ist. Infolge dessen werden > Consumer-GPUs in Sachen Rechengeschwindigkeit bei doppelter Genauigkeit > künstlich extrem beschnitten, damit man sie nicht anstelle der deutlich > teureren "Profi"-GPUs für Rechenaufgaben einsetzen kann. Außerdem braucht doppelte Genauigkeit mehr Chipfläche und macht somit auch die Herstellung des Chips teurer.
Rolf M. schrieb: > Ben B. schrieb: >> Dazu sollte man vielleicht sagen, daß zur normalen Grafikberechnung >> keine doppelte Genauigkeit erforderlich ist. Infolge dessen werden >> Consumer-GPUs in Sachen Rechengeschwindigkeit bei doppelter Genauigkeit >> künstlich extrem beschnitten, damit man sie nicht anstelle der deutlich >> teureren "Profi"-GPUs für Rechenaufgaben einsetzen kann. > > Außerdem braucht doppelte Genauigkeit mehr Chipfläche und macht somit > auch die Herstellung des Chips teurer. Ursprünglich wurden die NVidia Quadro GPUs mit Chips aus dem Konsumerbereich versorgt, bei der dann Bestandteile des Chips nicht abgeschaltet wurden. Es sind also sowohl bei den Geforce, als auch den Quadros die gleichen Chips und bei den Geforce werden einige Funktionen dann abgeschaltet. Historisch war es deswegen sogar möglich, Geforce Grafikkarten zu Quadros umzufunktionieren. Ich weiß nicht, ob es immer noch so ist, es würde aber bei den geringen Stückzahlen von Quadro GPUs immer noch Sinn machen. Die Chipfläche wäre damit im großen und ganzen zumindest mit den High End GPUs* die gleiche. Das einzige was das also bringt ist eine bessere Ausbeute, da man Teildefekte Chips für Geforce Karten verwenden kann, wenn diese diese Defektbereiche nicht nutzen. * Für die abgespeckten Geforce xx3x und xx5x Reihen, werden meist neue Chiprevisionen rausgebracht. Hier wäre es dann möglich, dass diese eine kleinere Chipfläche als ihre größeren High End Konsumermodelle haben.
Starlord schrieb: > Ich mach viel 3D-CAD mit SolidEdge > Habe 2x 22-Zoll-4K-Displays hier und eine Radeon 5700XT > Und die Gute ist schön ausgelastet beim Drehen von Baugruppen in > Echtzeit > > Das gleiche habe ich auf einen Produktions-PC mit 35 Euro Graka > versucht, darzustellen: ergibt kleiner 1 FPS und ist unbrauchbar > > Somit haben leistungsstarke Grafikkarten durchaus Ihre Berechtigung > (natürlich nicht im einfachen Office-Bereich) und werden auch > gebraucht!! Ich schätze den Geschwindkeits Vorteil auf den Faktor 10 - 100 ein. Weiß das jemand genauer?
Quadrowuerfel schrieb: > Weiß das jemand genauer? Wie soll jemand genau wissen, wieviel schneller <unbekannter PC> mit einer Radeon 5700XT im Vergleich zu <anderer unbekannter PC> mit <unbekante 35-€-Grafikkarte> ist?
... dann also etwa 35. Und bei einer 1628-€-Grafikkarte? Dann etwa 1600, plusminus Rabatt. YGWYPF Genauer im Einzelfall können nur echte "Anwendungsorientierte" Benchmarks lügen.
Eine Platine DA4 groß, bestückt mit einem Haufen SMD Bauteilen und lesbarem Aufdruck der Werte wird um fünf Grad gedreht, danach wieder und wieder um fünf Grad. Die ganze Platine soll so oft gedreht werden bis sie insgesamt um 360 Grad gedreht wurde. Wie sieht die Platine dann auf dem Monitor aus? Sind die Bauteile inclusive der Aufdrucke noch erkennbar? So weit verständlich?
Beitrag #6293409 wurde von einem Moderator gelöscht.
Beitrag #6293424 wurde von einem Moderator gelöscht.
Beitrag #6293962 wurde von einem Moderator gelöscht.
Beitrag #6294111 wurde von einem Moderator gelöscht.
Beitrag #6294418 wurde von einem Moderator gelöscht.
Beitrag #6294440 wurde von einem Moderator gelöscht.
Beitrag #6294477 wurde von einem Moderator gelöscht.
Beitrag #6294576 wurde von einem Moderator gelöscht.
Alexander K. schrieb: > Und ja, du hast Recht. Ich schreibe schnell, und übersehe oft ein > Tippfehler. Ich habe nämlich noch was anderes zu tun. Das hier mache ich > nur in den "Wartepausen". Schon klar. Welt retten, Mails checken und zwischendurch mal schnell,schnell in die Threads scheissen!
Joe schrieb: > Schon klar. Oder? Hinweis: der ursprüngliche Beitrag ist mehr als 6 Monate alt. Bitte hier nur auf die ursprüngliche Frage antworten, für neue Fragen einen neuen Beitrag erstellen.
Man braucht zum Skyrim spielen eine gute Grafikkarte. Für Oblivion eigentlich auch, da scheinen mir die Auswirkungen aber nicht so schlimm. Wenn man Sachen mit Mathe oder Physik macht, und schnelle Rechnungen braucht, kann man die Grafikkarte(n) auch ganz gut einsetzen, und zu dieser und ähnlicher Frage gibt es denn z.B. auch Cuda. Und beim Supercomputing machen die Grafikkarten auch eine ganz gute Figur. Viel genauer kann man sich informieren, wenn man ein paar Vergleichstabellen hat, die verschiedene PC-Anwendungen und Rechnereien berücksichtigen. Das geht soweit, dass man ganz gut erkennt, dass man hier und da - sofern man Grafikchip hat - auf den CPU-Vergleich verzichten kann. Also beispielsweise i3 oder i5? Kommt ein wenig auf den Zusammenhang an, und da muss der User selber schauen, was er braucht und was geht.
Rbx schrieb: > Man braucht zum Skyrim spielen eine gute Grafikkarte Den Vogel schiesst hier im Moment Firmament ab. Läuft mit Ach und Krach auf meiner GTX1650, weil 'nur' 4GB VRAM. Und wenn du keine 16GB Hauptspeicher hast, brauchste gar nicht erst anzufangen. Man kann es auch übertreiben, zumal die Grafik bei dem Spiel auch nicht besser ist als bei Obduction. Und selten so viele Bugs gehabt wie bei Firmament.
:
Bearbeitet durch User
Matthias S. schrieb: > Rbx schrieb: >> Man braucht zum Skyrim spielen eine gute Grafikkarte > > Den Vogel schiesst hier im Moment Firmament ab. Läuft mit Ach und Krach > auf meiner GTX1650, weil 'nur' 4GB VRAM. Und wenn du keine 16GB > Hauptspeicher hast, brauchste gar nicht erst anzufangen. Man kann es > auch übertreiben, zumal die Grafik bei dem Spiel auch nicht besser ist > als bei Obduction. Und selten so viele Bugs gehabt wie bei Firmament. Dass mit den 16GB Hauptspeicher bezweifle ich stark. Aber deine GK ist altersschwach und max. noch 40.- Euro wert. Schau mal hier: https://www.youtube.com/watch?v=tPvgVzsERLY Die RX6600m gibt es bei Alix ab 160.-. Viel moderner und hat ein Vielfaches der Leistung. Statt in RAM lieber in neue GK investieren. Meine 2 Cent.
Joe schrieb: > Die RX6600m gibt es bei Alix ab 160.-. Hab mir ne GTX1650 eingebaut und auf 36GB RAM aufgestockt. Firmament lief aber trotzdem erst nach dem dritten Patch so, das man es durchspielen konnte.
Ne GTX1650 ist ja nun aber auch mal absolut nicht zum spielen geeignet. Ich verstehe dann auch nicht, warum nicht 50€ mehr in die Hand nimmt, wenn man weiß man möcht Spielen, und sich wenigstens ne Mid-Range Karte z.b. damals die GTX1060 zulegt.
Dieter D. schrieb: > Hinweis: der ursprüngliche Beitrag ist mehr als 6 Monate alt. > Bitte hier nur auf die ursprüngliche Frage antworten, > für neue Fragen einen neuen Beitrag erstellen. Leute lasst euch doch von Trollen nicht wieder verleiten! (Dieter du bist nicht gemeint)
Nano schrieb: > René H. schrieb: >> Für Videoschnitt nehmen Profis Mac-OS, und das wird seinen Grund haben. > > Blödsinn! > > Mac-OS nehmen Profis gerade eben nicht, weil sie dann für die Leistung > zu viel Geld zahlen müssten, oder richtig viel Leistung erst gar nicht > bekommen. > > Ich kann dir für das gleiche Geld einen PC zusammenstellen, der deutlich > leistungsfähiger als der teuerste Mac ist. > > Apple Rechner kaufen eigentlich nur Leute die keine Ahnung haben und > glauben, dass man mit einem Apple Rechner angeben kann. Was man bei > Leuten, die sich bei Computern auskennen, NICHT kann! Ich habe trotz Ahnung gerne einen M2 Mini gekauft: - Mehr Platz unter dem Schreibtisch - Deutlich! weniger Energieverbrauch - Ausreichend Leistung (512 GB SSD und 16 GB RAM) Bildbearbeitung, Zeitraffer Videos, … - Kein nervender Lüfter - Nahtlose Integration zwischen IPhone, iPad und co. - Geringerer Wertverlust
Sich ne Grafikkarte zu kaufen um aufwendige Simulationen abzuspielen ist in etwa so wie mit nem Hummer von A nach B zu kommen. Kannst du machen wenn du auf die Umwelt scheißt und deine Mitmenschen hasst und ihnen zeigen willst wie du so drauf bist. Allerdings werden die Teile auch in der Wissenschaft verwendet.
Der G. schrieb: > Sich ne Grafikkarte zu kaufen um aufwendige Simulationen abzuspielen ist > in etwa so wie mit nem Hummer von A nach B zu kommen. Kannst du machen > wenn du auf die Umwelt scheißt und deine Mitmenschen hasst und ihnen > zeigen willst wie du so drauf bist. Die meisten Simulationen sind auf GPUs mit massiv vielen Rechenkernen erheblich effizienter durchführbar, als auf CPUs. Dein … ich nenne es mangels passenderer Begriffe mal „Vergleich“ müsste also lauten: „Aufwendige Simulationen nicht auf dafür geeigneter effizienter Hardware laufen zu lassen ist in etwa so, wie mit’m Deutz D-15 auf der Bundesstraße von A nach B zu fahren. Kann man machen, wenn man auf die Umwelt scheißt und seine Mitmenschen hasst und ihnen zeigen will, wie man so drauf ist.“ Wie kommst du nun überhaupt auf dieses Thema? Hier im Thread ging es bislang jedenfalls nicht so richtig um sowas …
Der G. schrieb: > Sich ne Grafikkarte zu kaufen um aufwendige Simulationen abzuspielen ist > in etwa so wie mit nem Hummer von A nach B zu kommen. Kannst du machen > wenn du auf die Umwelt scheißt und deine Mitmenschen hasst und ihnen > zeigen willst wie du so drauf bist. Allerdings werden die Teile auch in > der Wissenschaft verwendet. Das ist ja wohl das dümmste Argument was ich jeh gehört habe! 😅 So ein Blödsinn lernt man bestimmt auf Telegramm oder YouTube. Eine GPU erledigt eine rechenintensive Simulation um ein vielfaches (wir reden hier um ein zweistelliges Vielfaches!) schneller und effizienter als es eine CPU je könnte. Parallelisierung ist hier das Zauberwort. Somit um ein vielfaches Ressourcenschonender, schneller und mit enormen Energieeinsparungen.
Nun, der Selbsterhaltungtrieb der Hardware und Unterhaltungsssoftwarebrache schlägt zwangsweise oder zwanghaft den Weg: größer monströs wahnsinnig ein. Mann kann sich ja mal Gedanken machen was das eigene Konsumverhalten für Auswirkungen auf die Umwelt hat, wenn es die Unternehmen schon nicht tun.
Der G. schrieb: > Mann kann sich ja mal Gedanken machen > was das eigene Konsumverhalten für Auswirkungen auf die Umwelt hat, wenn > es die Unternehmen schon nicht tun. Mach ich. Deswegen hab ich mir vor nicht zu langer Zeit ’ne neue, richtig dicke Grafikkarte gegönnt. Um Strom zu sparen, für die Umwelt, weißt schon.
u.a. weil externe Grafikkarten mehr Speicher und mehr Leistung haben als die internen und deshalb für schnelle und speicherintensive Anwendungen besser geeigent sind
Um Zombiespiele in 3D (The Walking "Dad") mit Raytracing zu zocken, damit der Drang uralte Threads auszugraben etwas abgemindert werden kann. Sonst vergesse ich auf das Datum zu kucken. Duck und weg.
:
Bearbeitet durch User
Bitte melde dich an um einen Beitrag zu schreiben. Anmeldung ist kostenlos und dauert nur eine Minute.
Bestehender Account
Schon ein Account bei Google/GoogleMail? Keine Anmeldung erforderlich!
Mit Google-Account einloggen
Mit Google-Account einloggen
Noch kein Account? Hier anmelden.