Computer Hardware Forum - TweakPC

Computer Hardware Forum - TweakPC (https://www.tweakpc.de/forum/)
-   News (https://www.tweakpc.de/forum/news/)
-   -   [News] CUDA wird immer mehr unterstützt (https://www.tweakpc.de/forum/news/66209-cuda-wird-immer-mehr-unterstuetzt.html)

TweakPC Newsbot 17.12.2008 16:41

CUDA wird immer mehr unterstützt
 
[SIZE=4][b]CUDA wird immer mehr unterstützt[/b][/SIZE]
[SIZE="1"][COLOR="Silver"]17.12.2008 16:39 - ID 15265[/COLOR][/SIZE]

Wir hatten die Tage bereits darüber berichtet, dass SETI@Home nun auch CUDA unterstützt. Es geht aber noch weiter.

[url=http://www.tweakpc.de//news/15265/cuda-wird-immer-mehr-unterstuetzt/]CUDA wird immer mehr unterstützt[/url]

Uwe64LE 17.12.2008 17:11

AW: CUDA wird immer mehr unterstützt
 
Die Jungens aus Berkeley werden also auch langsam munter und forcieren GPU-Berechnungen in ihren BOINC-Projekten.
Ich halte aber nach wie vor unsere Team-Entscheidung für das Stanford-Projekt Folding@home für die bessere Wahl was den praktischen Nutzen und relativ zeitnahe Einwirkung auf laufende Forschungen angeht.

Caramon2 18.12.2008 10:39

AW: CUDA wird immer mehr unterstützt
 
[quote]Durch den Einsatz der GPU-CUDA-Lösung kann bei SETI@home die Datenanalyse bei der Suche nach extraterrestrischer Intelligenz im Vergleich zur Nutzung einer CPU in einem Achtel der Zeit durchgeführt werden.[/quote]
Das halte ich für ein Gerücht.

Meine GF8300 ist Videokomprimierung jedenfalls ca. 7x langsamer, als mein Phenom und liefert trotzdem eine deutlich schlechtere Qualität.

Uwe64LE 18.12.2008 12:02

AW: CUDA wird immer mehr unterstützt
 
Selbst wenn ich mir jetzt mit viel Mühe einrede, dass ich dich nur falsch verstehe, bleibt bei deinem Vergleich ein mehr als nur fader Beigeschmack.
Fangen wir mal ganz im Allgemeinen an:
Wenn da steht, dass eine GPU eine Anwendung in einem Achtel der Zeit durchführen [B]kann[/B], die eine CPU dazu benötigt, dann heißt das nicht, dass das für alle GPU/CPU-Kombinationen Gültigkeit hat.
Wahrscheinlich hat man eine GF 9800 in Relation zu einem single core Prozessor gesetzt.
Wenn du nun genau das Gegenteil machst, nämlich eine der schwächsten Karten nimmst, die CUDA unterstützt und diese gegen eine Quad-CPU antreten läßt, kommst du mit Sicherheit zu anderen Ergebnissen.

Zweitens bezog sich der Vergleich ausdrücklich auf SETI@home, was meines Wissens keine Anwendung ist, die irgendetwas mit Videokomprimierung zu tun hat.

Drittens: Hast du wenigstens zur Bearbeitung mit Badaboom gearbeitet, um deine GPU überhaupt mit der Leistung deines Phenoms vergleichen zu können?

Caramon2 18.12.2008 21:03

AW: CUDA wird immer mehr unterstützt
 
[quote=Uwe64LE;594025]Wenn da steht, dass eine GPU eine Anwendung in einem Achtel der Zeit durchführen [B]kann[/B], die eine CPU dazu benötigt, dann heißt das nicht, dass das für alle GPU/CPU-Kombinationen Gültigkeit hat.[/quote]
Klar. Nur hört sich das so an, dass die GPU generell schneller ist, eben bis zu 8x.

Das trifft aber auf keinen Fall zu. Meine onboard-Grafik ist sogar ein vielfaches langsamer.

[quote]Zweitens bezog sich der Vergleich ausdrücklich auf SETI@home, was meines Wissens keine Anwendung ist, die irgendetwas mit Videokomprimierung zu tun hat.
Die Arbeitsweise ist aber vergleichbar. Seti ist genau genommen auch eine Grafikbearbeitung mit Mustererkennung.

Was sind die WUs denn? noch nur kleine Schnipsel des Himmels, nur mit Informationen, die über das sichtbare Spektrum hinaus gehen.

[QUOTE]Drittens: Hast du wenigstens zur Bearbeitung mit Badaboom gearbeitet, um deine GPU überhaupt mit der Leistung deines Phenoms vergleichen zu können?[/quote]
Natürlich. Wie soll ich denn sonst Videobearbeitung über die GPU laufen lassen?

Das war übrigens ein 2 Min. MPG2 (DVB-Aufnahme), die ich in ein 1 mBit, 640x480, h264-MP4 encodet habe, mit 128 kBit AAC.

Das hat auf der GPU 11 Min. gebraucht, während die CPU, mit AVIdemux dafür nur 1,5 Min. gebraucht hat, bei ~70% CPU-Auslastung. Also wenn die CPU voll ausgelastet gewesen wäre, hätte das nur eine Minute gedauert.

Und wie gesagt, das Ergebnis von AVIdemux sah auch noch deutlich besser aus (bei Badaboom gab es ziemlich grobe Farbabstufungen, was besonders in der Bewegung deutlich auffiel), von daher ist die Leistung der GPU noch schwächer einzuschätzen, da der Codec offensichtlich weniger aufwändig arbeitet.


Ich sag ja nicht, das Cuda nichts taugt. Nur es ist eben kein Allheilmittel, als das es gerne dargestellt wird, sondern man braucht auch eine entsprechend potente GPU, damit es sich überhaupt lohnt, darüber nachzudenken.

Und dann müssen die Anwendungen auch noch eine entsprechende Qualität bringen.

Wenn ich mir jetzt extra eine fette GraKa gekauft hätte, um Videos viel schneller encoden zu können (neben I-Net, Officeanwendungen und Grafikbearbeitung, der Haupteinsatzzweck meines PCs (hab eine DVB-S-Karte)), würde ich mich ziemlich ärgern, wenn da dann nur so ein Müll bei rauskommen würde.

Vor daher bin ich froh, dass ich das mit der GF8k3 testen konnte und so weiß, dass ich da nichts verpasse.

Uwe64LE 18.12.2008 22:19

AW: CUDA wird immer mehr unterstützt
 
Du solltest mal einen Blick in den Thread "Wieviele PPD mit welcher hardware" werfen und du wirst erstaunt sein, wie groß der Unterschied zwischen einer GF8400 und einer 8800GTS ist und du baust deine Theorie auf einer onboard Grafik auf, die noch schwächer als eine gesteckte 8400 sein dürfte.

dr_Cox 18.12.2008 22:50

AW: CUDA wird immer mehr unterstützt
 
Naja ist doch logisch. Man kann natürlich nicht alle Berechnungen voll auf der GPU machen, da gibt es eben Anwendungsszenarien wo das nicht so toll funktioniert. Aber natürlich hat NVIDIA ein großes Interesse daran, möglichst viel auf die GPU zu bringen (auch wenn der Sinn manchmal durchaus fraglich ist), denn NVIDIA baut nunmal keine CPUs sondern verkauft GPUs.
Das andere Extrem ist sicher Intel, wenns nach denen ginge, würde auch in Zukunft möglichst alles auf der x86-Architektur gerechnet werden, weil eine wirklich starke Shader-GPU hat Intel nicht.
Ergo sind das Extreme, die nicht den Mittelweg der effizienten Nutzung beider Processing Units suchen, weil sie ihn nicht gehen können - das ist aus der jeweiligen Perspektive natürlich absolut logisch. Müssen wir einfach abwarten wie sich das entwickelt und klug kaufen.

Und zum Rest sag ich nur "Fusion" ;)

Uwe64LE 18.12.2008 23:06

AW: CUDA wird immer mehr unterstützt
 
@Cox
Natürlich hast du Recht, aber kein Mensch (außer vielleicht mir:-P ) käme auf die Idee, sich nur wegen SETI oder f@h eine neue Grafikkarte zu kaufen.
Wenn sich jetzt aber jemand wegen Badaboom mit CUDA beschäftigt, ist es doch ziemlich sinnfrei, wegen Ergebnissen, die mit einer schwachen onboard Grafik erreicht wurden, gleich das ganze Projekt lächerlich zu machen.

dr_Cox 18.12.2008 23:43

AW: CUDA wird immer mehr unterstützt
 
Nein, das wollt ich damit doch auch nicht sagen :)

Aber der Einwand von Caramon2 ist ein Stück weit schon auch berechtigt, weil er hat in einem System eine Grafikkarte + Software, die GPGPU Video Encoding kann und eine CPU die beim Video Encoding auch richtig zulangen kann. Nur kann er mit seiner NVIDIA/AMD Lösung eben keine Synergien aus beiden Einheiten nutzen (sonst wäre es ja schneller als GPU bzw. CPU für sich genommen).

Ich plaudere jetzt hier nicht ins Leere, weil ich hab den AVIVO Video Converter 8.12 mit Phenom X4 und 4870 getestet. Da war interessant zu sehen, dass der zwei Kerne der CPU gut lastet und die GPU bei 1-2% arbeitet. Das Resultat ist sauschnell (396 MB Full HD MPEG2 + AC3, 3:14 Mins Video zu iPod Video 8 MB, Bitrate 0,45 mbps: Gesamtdauer 43 Sek.).
Das meinte ich oben mit "Fusion". Beide Komponeten tragen ihren Teil dazu bei, bei beiden bleiben noch ordentlich Ressourcen für anderes über.
Der AVIVO Converter ist natürlich auch noch alles andere als perfekt, da gibts schon noch ein paar Baustellen, ähnlich wie Caramon2 in Bezug auf NVIDIA anmerkte, ist z.B. die Qualität des Ergebnisvideos nicht optimal.

Es zeigt aber das AMD eben diesen Mittelweg gehen kann, beide Processing Units effizient zum Einsatz zu bringen. Aber was GPGPU angeht, muss AMD natürlich noch ein paar Pfünde zulegen, weil NVIDIA ist da prinzipiell schon weiter.

Nur ich hoffe dass sich das Prinzip von [I]Fusion[/I], und den leistungsmäßig ausgewogenen [I]Plattformen[/I] durchsetzt. Also nicht die Schlagworte, sondern die Idee/Philosophie die dahinter steckt. Weil das würde bedeuten, dass beide Processing Units nach gemeinsamen Effizienzkriterien eingesetzt werden, was uns allen künftig sicher nutzen würde.

Leider bekriegen sich ja Intel und NVIDIA recht kindisch mit CPU vs. GPU. Ich fänds besser wenn man zusammenarbeiten würde.

So, lange geredet, aber ich hoff es hat sich zu lesen gelohnt :)

LG

Uwe64LE 19.12.2008 00:14

AW: CUDA wird immer mehr unterstützt
 
Ach Mensch, Perry.
Wie schon gesagt: sowohl deine technischen Überlegungen als auch dein Ausblick in sinnvolle Entwicklungsmöglichkeiten sind lesenswert und richtig.
Mein Einwand galt dem Ausspruch:[quote=Caramon2]Das halte ich für ein Gerücht.[/quote] bezüglich der Meldung, dass eine GPU SETI-Berechnungen in einem Achtel der Zeit durchführen kann.
Ich bin ja beim Folding in einer ähnlich komfortablen Lage wie du bei AVIVO mit Phenom und 4870. Ich kann CPU und GPU gleichzeitig werkeln lassen und miteinander vergleichen.
Und da es in der news um SETI und Einstein@home geht, ist f@h als Vergleich nun mal geradezu prädistiniert.

Mit einer 25€ GF8400GS erreicht man fast die selben PPD wie mit einem C2D E6300. Ein C2D E8400 ist jedoch viel leistungsfähiger als die beiden, wird aber von einer GF8800GTS wiederum um das 3 bis 4-fache übertrumpft.
Wie gesagt, es kommt darauf an, welche GPU man mit welcher CPU vergleicht.
Fair wäre aber eine ähnliche Leistungs- oder Preisklasse und nicht onboard Grafik vs. Quad Core CPU.

dr_Cox 19.12.2008 00:31

AW: CUDA wird immer mehr unterstützt
 
Haha ja Uwe :D: Ich wollt natürlich auch etwas Spannung hier rausnehmen, daher hab ich halt leicht was anderes erzählt, was mir aber trotzallem sehr wichtig ist ;)

Und du hat vollkommen Recht mir der Aufzählung welche Komponenten sich wie schlagen. Nur läuft es eben immer noch auf das CPU vs GPU hinaus; ich will diesen Vergleich aber gar letztendlich nicht; ich will optimale Kooperation.

Was ich mir wünsche, ist dass beide Einheiten Hand in Hand arbeiten. Im Foldingforum wurde schon öfter der Ruf laut nach einem Client, der GPU & SMP in einem ist und somit automatisch das Optimum aus der verfügbaren Rechenleistung aller Komponenten herausholt (also gemeinsam an einer WU rechnen - grob gesagt)
Dann ist es nämlich total egal ob man IGP & Quad im System hat, wenn beide gemeinsam statt separat rechnen ist das Resultat optimal.
Natürlich ist das schwer zu programmieren bei all den möglichen Hardwareausstattungen - das ist der Punkt an dem AMD die "Platforms" ins Spiel bringt.

Also da kann wahnsinnig viel Musik drin sein, die Frage ist nur ob die Konkurrenz diesmal wieder nur das Geschäft belebt, anstatt das optimale Endresultat für die Anwender hervorzubringen.
...sowas wie DVD+R vs DVD-R brauchen wir schließlich nicht nochmal (bildhaft gesprochen) ;)

LG

Uwe64LE 19.12.2008 00:44

AW: CUDA wird immer mehr unterstützt
 
Ja, schöne Zukunftsmusik. Da ich aber auch in der jüngeren Vergangenheit mal wieder Opfer solch eines Krieges (HD-DVD vs. blu ray) geworden bin, sehe ich das eher skeptisch.
Na warten wir mal die Entwicklung ab.

Caramon2 19.12.2008 09:14

AW: CUDA wird immer mehr unterstützt
 
[quote=dr_Cox;594126]Ich plaudere jetzt hier nicht ins Leere, weil ich hab den AVIVO Video Converter 8.12 mit Phenom X4 und 4870 getestet. Da war interessant zu sehen, dass der zwei Kerne der CPU gut lastet und die GPU bei 1-2% arbeitet.[/quote]
Badaboom hat bei mir einen Kern zu ~15 % ausgelastet, das hat noch nicht mal gereicht, damit C&Q hochtaktet.

Die Auslastung der IGP kann ich nicht ermitteln, da die aber deutlich wärmer wurde, als normal, wird die gut zu tun gehabt haben.

Bei meiner Aussage oben kam es mir hauptsächlich darauf an, dass GPGPU als so überlegen dargestellt wird, dass man den Eindruck bekommt, selbst ne IGP wäre schnell, (meine hat ja immerhin 16 Shader @ 1,5 GHz), was aber nun alles andere als der Fall ist.

Andererseits habe ich hier 1680x1050 und da läuft Google-Earth mit 2x AA und 4x AF mit schätzungsweise 10-20 fps. (höchste Geländequalität, Treiber auf Hohe Qualität)

Lasse ich das dagegen über die 3D-Emu laufen, habe ich ganz ohne AA und AF höchstens 1-2 fps. Da kackt die CPU also total gegenüber der IGP ab.

Allerdings weiß ich nicht, in wie weit das noch fest verdrahtet ist, oder von den Shadern übernommen wird.


Alle Zeitangaben in WEZ +1. Es ist jetzt 12:25 Uhr.

Powered by vBulletin® Version 3.8.10 (Deutsch)
Copyright ©2000 - 2024, vBulletin Solutions, Inc.
SEO by vBSEO 3.5.2 ©2010, Crawlability, Inc.