TweakPC

Zurück   Computer Hardware Forum - TweakPC > News & Hilfen > News

Antwort
 
LinkBack Themen-Optionen Ansicht
Alt 17.12.2008, 16:41   #1 (permalink)
Selected Premium Quality
 
Benutzerbild von TweakPC Newsbot
 

Registriert seit: 06.10.2007
Beiträge: 30.995

TweakPC Newsbot ist ein sehr geschätzer MenschTweakPC Newsbot ist ein sehr geschätzer MenschTweakPC Newsbot ist ein sehr geschätzer Mensch

Beitrag CUDA wird immer mehr unterstützt

CUDA wird immer mehr unterstützt
17.12.2008 16:39 - ID 15265

Wir hatten die Tage bereits darüber berichtet, dass SETI@Home nun auch CUDA unterstützt. Es geht aber noch weiter.

CUDA wird immer mehr unterstützt
TweakPC Newsbot ist offline   Mit Zitat antworten
Alt 17.12.2008, 17:11   #2 (permalink)
Heimkehrer
 
Benutzerbild von Uwe64LE
 

Registriert seit: 23.02.2003
Beiträge: 8.057

Uwe64LE kann auf vieles stolz seinUwe64LE kann auf vieles stolz seinUwe64LE kann auf vieles stolz seinUwe64LE kann auf vieles stolz seinUwe64LE kann auf vieles stolz seinUwe64LE kann auf vieles stolz seinUwe64LE kann auf vieles stolz seinUwe64LE kann auf vieles stolz seinUwe64LE kann auf vieles stolz sein

Standard AW: CUDA wird immer mehr unterstützt

Die Jungens aus Berkeley werden also auch langsam munter und forcieren GPU-Berechnungen in ihren BOINC-Projekten.
Ich halte aber nach wie vor unsere Team-Entscheidung für das Stanford-Projekt Folding@home für die bessere Wahl was den praktischen Nutzen und relativ zeitnahe Einwirkung auf laufende Forschungen angeht.
Uwe64LE ist offline   Mit Zitat antworten
Alt 18.12.2008, 10:39   #3 (permalink)
Tweaker
 

Registriert seit: 22.11.2006
Beiträge: 544

Caramon2 sorgt für eine eindrucksvolle AtmosphäreCaramon2 sorgt für eine eindrucksvolle AtmosphäreCaramon2 sorgt für eine eindrucksvolle Atmosphäre

Standard AW: CUDA wird immer mehr unterstützt

Zitat:
Durch den Einsatz der GPU-CUDA-Lösung kann bei SETI@home die Datenanalyse bei der Suche nach extraterrestrischer Intelligenz im Vergleich zur Nutzung einer CPU in einem Achtel der Zeit durchgeführt werden.
Das halte ich für ein Gerücht.

Meine GF8300 ist Videokomprimierung jedenfalls ca. 7x langsamer, als mein Phenom und liefert trotzdem eine deutlich schlechtere Qualität.
Phenom II X6 1055T, GeForce GT 720, Asus M3N78-EM, 2x4 GB DDR2-800.
Caramon2 ist offline   Mit Zitat antworten
Alt 18.12.2008, 12:02   #4 (permalink)
Heimkehrer
 
Benutzerbild von Uwe64LE
 

Registriert seit: 23.02.2003
Beiträge: 8.057

Uwe64LE kann auf vieles stolz seinUwe64LE kann auf vieles stolz seinUwe64LE kann auf vieles stolz seinUwe64LE kann auf vieles stolz seinUwe64LE kann auf vieles stolz seinUwe64LE kann auf vieles stolz seinUwe64LE kann auf vieles stolz seinUwe64LE kann auf vieles stolz seinUwe64LE kann auf vieles stolz sein

Standard AW: CUDA wird immer mehr unterstützt

Selbst wenn ich mir jetzt mit viel Mühe einrede, dass ich dich nur falsch verstehe, bleibt bei deinem Vergleich ein mehr als nur fader Beigeschmack.
Fangen wir mal ganz im Allgemeinen an:
Wenn da steht, dass eine GPU eine Anwendung in einem Achtel der Zeit durchführen kann, die eine CPU dazu benötigt, dann heißt das nicht, dass das für alle GPU/CPU-Kombinationen Gültigkeit hat.
Wahrscheinlich hat man eine GF 9800 in Relation zu einem single core Prozessor gesetzt.
Wenn du nun genau das Gegenteil machst, nämlich eine der schwächsten Karten nimmst, die CUDA unterstützt und diese gegen eine Quad-CPU antreten läßt, kommst du mit Sicherheit zu anderen Ergebnissen.

Zweitens bezog sich der Vergleich ausdrücklich auf SETI@home, was meines Wissens keine Anwendung ist, die irgendetwas mit Videokomprimierung zu tun hat.

Drittens: Hast du wenigstens zur Bearbeitung mit Badaboom gearbeitet, um deine GPU überhaupt mit der Leistung deines Phenoms vergleichen zu können?
Uwe64LE ist offline   Mit Zitat antworten
Alt 18.12.2008, 21:03   #5 (permalink)
Tweaker
 

Registriert seit: 22.11.2006
Beiträge: 544

Caramon2 sorgt für eine eindrucksvolle AtmosphäreCaramon2 sorgt für eine eindrucksvolle AtmosphäreCaramon2 sorgt für eine eindrucksvolle Atmosphäre

Standard AW: CUDA wird immer mehr unterstützt

Zitat:
Zitat von Uwe64LE Beitrag anzeigen
Wenn da steht, dass eine GPU eine Anwendung in einem Achtel der Zeit durchführen kann, die eine CPU dazu benötigt, dann heißt das nicht, dass das für alle GPU/CPU-Kombinationen Gültigkeit hat.
Klar. Nur hört sich das so an, dass die GPU generell schneller ist, eben bis zu 8x.

Das trifft aber auf keinen Fall zu. Meine onboard-Grafik ist sogar ein vielfaches langsamer.

[quote]Zweitens bezog sich der Vergleich ausdrücklich auf SETI@home, was meines Wissens keine Anwendung ist, die irgendetwas mit Videokomprimierung zu tun hat.
Die Arbeitsweise ist aber vergleichbar. Seti ist genau genommen auch eine Grafikbearbeitung mit Mustererkennung.

Was sind die WUs denn? noch nur kleine Schnipsel des Himmels, nur mit Informationen, die über das sichtbare Spektrum hinaus gehen.

Zitat:
Drittens: Hast du wenigstens zur Bearbeitung mit Badaboom gearbeitet, um deine GPU überhaupt mit der Leistung deines Phenoms vergleichen zu können?
Natürlich. Wie soll ich denn sonst Videobearbeitung über die GPU laufen lassen?

Das war übrigens ein 2 Min. MPG2 (DVB-Aufnahme), die ich in ein 1 mBit, 640x480, h264-MP4 encodet habe, mit 128 kBit AAC.

Das hat auf der GPU 11 Min. gebraucht, während die CPU, mit AVIdemux dafür nur 1,5 Min. gebraucht hat, bei ~70% CPU-Auslastung. Also wenn die CPU voll ausgelastet gewesen wäre, hätte das nur eine Minute gedauert.

Und wie gesagt, das Ergebnis von AVIdemux sah auch noch deutlich besser aus (bei Badaboom gab es ziemlich grobe Farbabstufungen, was besonders in der Bewegung deutlich auffiel), von daher ist die Leistung der GPU noch schwächer einzuschätzen, da der Codec offensichtlich weniger aufwändig arbeitet.


Ich sag ja nicht, das Cuda nichts taugt. Nur es ist eben kein Allheilmittel, als das es gerne dargestellt wird, sondern man braucht auch eine entsprechend potente GPU, damit es sich überhaupt lohnt, darüber nachzudenken.

Und dann müssen die Anwendungen auch noch eine entsprechende Qualität bringen.

Wenn ich mir jetzt extra eine fette GraKa gekauft hätte, um Videos viel schneller encoden zu können (neben I-Net, Officeanwendungen und Grafikbearbeitung, der Haupteinsatzzweck meines PCs (hab eine DVB-S-Karte)), würde ich mich ziemlich ärgern, wenn da dann nur so ein Müll bei rauskommen würde.

Vor daher bin ich froh, dass ich das mit der GF8k3 testen konnte und so weiß, dass ich da nichts verpasse.
Caramon2 ist offline   Mit Zitat antworten
Alt 18.12.2008, 22:19   #6 (permalink)
Heimkehrer
 
Benutzerbild von Uwe64LE
 

Registriert seit: 23.02.2003
Beiträge: 8.057

Uwe64LE kann auf vieles stolz seinUwe64LE kann auf vieles stolz seinUwe64LE kann auf vieles stolz seinUwe64LE kann auf vieles stolz seinUwe64LE kann auf vieles stolz seinUwe64LE kann auf vieles stolz seinUwe64LE kann auf vieles stolz seinUwe64LE kann auf vieles stolz seinUwe64LE kann auf vieles stolz sein

Standard AW: CUDA wird immer mehr unterstützt

Du solltest mal einen Blick in den Thread "Wieviele PPD mit welcher hardware" werfen und du wirst erstaunt sein, wie groß der Unterschied zwischen einer GF8400 und einer 8800GTS ist und du baust deine Theorie auf einer onboard Grafik auf, die noch schwächer als eine gesteckte 8400 sein dürfte.
Uwe64LE ist offline   Mit Zitat antworten
Alt 18.12.2008, 22:50   #7 (permalink)
Coxito ergo sum
 
Benutzerbild von dr_Cox
 

Registriert seit: 23.02.2007
Beiträge: 8.119

dr_Cox kann auf vieles stolz sein
dr_Cox kann auf vieles stolz sein

Standard AW: CUDA wird immer mehr unterstützt

Naja ist doch logisch. Man kann natürlich nicht alle Berechnungen voll auf der GPU machen, da gibt es eben Anwendungsszenarien wo das nicht so toll funktioniert. Aber natürlich hat NVIDIA ein großes Interesse daran, möglichst viel auf die GPU zu bringen (auch wenn der Sinn manchmal durchaus fraglich ist), denn NVIDIA baut nunmal keine CPUs sondern verkauft GPUs.
Das andere Extrem ist sicher Intel, wenns nach denen ginge, würde auch in Zukunft möglichst alles auf der x86-Architektur gerechnet werden, weil eine wirklich starke Shader-GPU hat Intel nicht.
Ergo sind das Extreme, die nicht den Mittelweg der effizienten Nutzung beider Processing Units suchen, weil sie ihn nicht gehen können - das ist aus der jeweiligen Perspektive natürlich absolut logisch. Müssen wir einfach abwarten wie sich das entwickelt und klug kaufen.

Und zum Rest sag ich nur "Fusion"
dr_Cox ist offline   Mit Zitat antworten
Alt 18.12.2008, 23:06   #8 (permalink)
Heimkehrer
 
Benutzerbild von Uwe64LE
 

Registriert seit: 23.02.2003
Beiträge: 8.057

Uwe64LE kann auf vieles stolz seinUwe64LE kann auf vieles stolz seinUwe64LE kann auf vieles stolz seinUwe64LE kann auf vieles stolz seinUwe64LE kann auf vieles stolz seinUwe64LE kann auf vieles stolz seinUwe64LE kann auf vieles stolz seinUwe64LE kann auf vieles stolz seinUwe64LE kann auf vieles stolz sein

Standard AW: CUDA wird immer mehr unterstützt

@Cox
Natürlich hast du Recht, aber kein Mensch (außer vielleicht mir ) käme auf die Idee, sich nur wegen SETI oder f@h eine neue Grafikkarte zu kaufen.
Wenn sich jetzt aber jemand wegen Badaboom mit CUDA beschäftigt, ist es doch ziemlich sinnfrei, wegen Ergebnissen, die mit einer schwachen onboard Grafik erreicht wurden, gleich das ganze Projekt lächerlich zu machen.
Uwe64LE ist offline   Mit Zitat antworten
Alt 18.12.2008, 23:43   #9 (permalink)
Coxito ergo sum
 
Benutzerbild von dr_Cox
 

Registriert seit: 23.02.2007
Beiträge: 8.119

dr_Cox kann auf vieles stolz sein
dr_Cox kann auf vieles stolz sein

Standard AW: CUDA wird immer mehr unterstützt

Nein, das wollt ich damit doch auch nicht sagen

Aber der Einwand von Caramon2 ist ein Stück weit schon auch berechtigt, weil er hat in einem System eine Grafikkarte + Software, die GPGPU Video Encoding kann und eine CPU die beim Video Encoding auch richtig zulangen kann. Nur kann er mit seiner NVIDIA/AMD Lösung eben keine Synergien aus beiden Einheiten nutzen (sonst wäre es ja schneller als GPU bzw. CPU für sich genommen).

Ich plaudere jetzt hier nicht ins Leere, weil ich hab den AVIVO Video Converter 8.12 mit Phenom X4 und 4870 getestet. Da war interessant zu sehen, dass der zwei Kerne der CPU gut lastet und die GPU bei 1-2% arbeitet. Das Resultat ist sauschnell (396 MB Full HD MPEG2 + AC3, 3:14 Mins Video zu iPod Video 8 MB, Bitrate 0,45 mbps: Gesamtdauer 43 Sek.).
Das meinte ich oben mit "Fusion". Beide Komponeten tragen ihren Teil dazu bei, bei beiden bleiben noch ordentlich Ressourcen für anderes über.
Der AVIVO Converter ist natürlich auch noch alles andere als perfekt, da gibts schon noch ein paar Baustellen, ähnlich wie Caramon2 in Bezug auf NVIDIA anmerkte, ist z.B. die Qualität des Ergebnisvideos nicht optimal.

Es zeigt aber das AMD eben diesen Mittelweg gehen kann, beide Processing Units effizient zum Einsatz zu bringen. Aber was GPGPU angeht, muss AMD natürlich noch ein paar Pfünde zulegen, weil NVIDIA ist da prinzipiell schon weiter.

Nur ich hoffe dass sich das Prinzip von Fusion, und den leistungsmäßig ausgewogenen Plattformen durchsetzt. Also nicht die Schlagworte, sondern die Idee/Philosophie die dahinter steckt. Weil das würde bedeuten, dass beide Processing Units nach gemeinsamen Effizienzkriterien eingesetzt werden, was uns allen künftig sicher nutzen würde.

Leider bekriegen sich ja Intel und NVIDIA recht kindisch mit CPU vs. GPU. Ich fänds besser wenn man zusammenarbeiten würde.

So, lange geredet, aber ich hoff es hat sich zu lesen gelohnt

LG

Geändert von dr_Cox (19.12.2008 um 00:05 Uhr) Grund: Caramon2 heisst der Mann, nicht Camaron2 ^^
dr_Cox ist offline   Mit Zitat antworten
Alt 19.12.2008, 00:14   #10 (permalink)
Heimkehrer
 
Benutzerbild von Uwe64LE
 

Registriert seit: 23.02.2003
Beiträge: 8.057

Uwe64LE kann auf vieles stolz seinUwe64LE kann auf vieles stolz seinUwe64LE kann auf vieles stolz seinUwe64LE kann auf vieles stolz seinUwe64LE kann auf vieles stolz seinUwe64LE kann auf vieles stolz seinUwe64LE kann auf vieles stolz seinUwe64LE kann auf vieles stolz seinUwe64LE kann auf vieles stolz sein

Standard AW: CUDA wird immer mehr unterstützt

Ach Mensch, Perry.
Wie schon gesagt: sowohl deine technischen Überlegungen als auch dein Ausblick in sinnvolle Entwicklungsmöglichkeiten sind lesenswert und richtig.
Mein Einwand galt dem Ausspruch:
Zitat:
Zitat von Caramon2
Das halte ich für ein Gerücht.
bezüglich der Meldung, dass eine GPU SETI-Berechnungen in einem Achtel der Zeit durchführen kann.
Ich bin ja beim Folding in einer ähnlich komfortablen Lage wie du bei AVIVO mit Phenom und 4870. Ich kann CPU und GPU gleichzeitig werkeln lassen und miteinander vergleichen.
Und da es in der news um SETI und Einstein@home geht, ist f@h als Vergleich nun mal geradezu prädistiniert.

Mit einer 25€ GF8400GS erreicht man fast die selben PPD wie mit einem C2D E6300. Ein C2D E8400 ist jedoch viel leistungsfähiger als die beiden, wird aber von einer GF8800GTS wiederum um das 3 bis 4-fache übertrumpft.
Wie gesagt, es kommt darauf an, welche GPU man mit welcher CPU vergleicht.
Fair wäre aber eine ähnliche Leistungs- oder Preisklasse und nicht onboard Grafik vs. Quad Core CPU.
Uwe64LE ist offline   Mit Zitat antworten
Alt 19.12.2008, 00:31   #11 (permalink)
Coxito ergo sum
 
Benutzerbild von dr_Cox
 

Registriert seit: 23.02.2007
Beiträge: 8.119

dr_Cox kann auf vieles stolz sein
dr_Cox kann auf vieles stolz sein

Standard AW: CUDA wird immer mehr unterstützt

Haha ja Uwe Ich wollt natürlich auch etwas Spannung hier rausnehmen, daher hab ich halt leicht was anderes erzählt, was mir aber trotzallem sehr wichtig ist

Und du hat vollkommen Recht mir der Aufzählung welche Komponenten sich wie schlagen. Nur läuft es eben immer noch auf das CPU vs GPU hinaus; ich will diesen Vergleich aber gar letztendlich nicht; ich will optimale Kooperation.

Was ich mir wünsche, ist dass beide Einheiten Hand in Hand arbeiten. Im Foldingforum wurde schon öfter der Ruf laut nach einem Client, der GPU & SMP in einem ist und somit automatisch das Optimum aus der verfügbaren Rechenleistung aller Komponenten herausholt (also gemeinsam an einer WU rechnen - grob gesagt)
Dann ist es nämlich total egal ob man IGP & Quad im System hat, wenn beide gemeinsam statt separat rechnen ist das Resultat optimal.
Natürlich ist das schwer zu programmieren bei all den möglichen Hardwareausstattungen - das ist der Punkt an dem AMD die "Platforms" ins Spiel bringt.

Also da kann wahnsinnig viel Musik drin sein, die Frage ist nur ob die Konkurrenz diesmal wieder nur das Geschäft belebt, anstatt das optimale Endresultat für die Anwender hervorzubringen.
...sowas wie DVD+R vs DVD-R brauchen wir schließlich nicht nochmal (bildhaft gesprochen)

LG
dr_Cox ist offline   Mit Zitat antworten
Alt 19.12.2008, 00:44   #12 (permalink)
Heimkehrer
 
Benutzerbild von Uwe64LE
 

Registriert seit: 23.02.2003
Beiträge: 8.057

Uwe64LE kann auf vieles stolz seinUwe64LE kann auf vieles stolz seinUwe64LE kann auf vieles stolz seinUwe64LE kann auf vieles stolz seinUwe64LE kann auf vieles stolz seinUwe64LE kann auf vieles stolz seinUwe64LE kann auf vieles stolz seinUwe64LE kann auf vieles stolz seinUwe64LE kann auf vieles stolz sein

Standard AW: CUDA wird immer mehr unterstützt

Ja, schöne Zukunftsmusik. Da ich aber auch in der jüngeren Vergangenheit mal wieder Opfer solch eines Krieges (HD-DVD vs. blu ray) geworden bin, sehe ich das eher skeptisch.
Na warten wir mal die Entwicklung ab.
Uwe64LE ist offline   Mit Zitat antworten
Alt 19.12.2008, 09:14   #13 (permalink)
Tweaker
 

Registriert seit: 22.11.2006
Beiträge: 544

Caramon2 sorgt für eine eindrucksvolle AtmosphäreCaramon2 sorgt für eine eindrucksvolle AtmosphäreCaramon2 sorgt für eine eindrucksvolle Atmosphäre

Standard AW: CUDA wird immer mehr unterstützt

Zitat:
Zitat von dr_Cox Beitrag anzeigen
Ich plaudere jetzt hier nicht ins Leere, weil ich hab den AVIVO Video Converter 8.12 mit Phenom X4 und 4870 getestet. Da war interessant zu sehen, dass der zwei Kerne der CPU gut lastet und die GPU bei 1-2% arbeitet.
Badaboom hat bei mir einen Kern zu ~15 % ausgelastet, das hat noch nicht mal gereicht, damit C&Q hochtaktet.

Die Auslastung der IGP kann ich nicht ermitteln, da die aber deutlich wärmer wurde, als normal, wird die gut zu tun gehabt haben.

Bei meiner Aussage oben kam es mir hauptsächlich darauf an, dass GPGPU als so überlegen dargestellt wird, dass man den Eindruck bekommt, selbst ne IGP wäre schnell, (meine hat ja immerhin 16 Shader @ 1,5 GHz), was aber nun alles andere als der Fall ist.

Andererseits habe ich hier 1680x1050 und da läuft Google-Earth mit 2x AA und 4x AF mit schätzungsweise 10-20 fps. (höchste Geländequalität, Treiber auf Hohe Qualität)

Lasse ich das dagegen über die 3D-Emu laufen, habe ich ganz ohne AA und AF höchstens 1-2 fps. Da kackt die CPU also total gegenüber der IGP ab.

Allerdings weiß ich nicht, in wie weit das noch fest verdrahtet ist, oder von den Shadern übernommen wird.
Caramon2 ist offline   Mit Zitat antworten
Antwort


Aktive Benutzer in diesem Thema: 1 (Registrierte Benutzer: 0, Gäste: 1)
 
Themen-Optionen
Ansicht

Forumregeln
Es ist dir nicht erlaubt, neue Themen zu verfassen.
Es ist dir nicht erlaubt, auf Beiträge zu antworten.
Es ist dir nicht erlaubt, Anhänge hochzuladen.
Es ist dir nicht erlaubt, deine Beiträge zu bearbeiten.

BB-Code ist an.
Smileys sind an.
[IMG] Code ist aus.
HTML-Code ist aus.
Trackbacks are an
Pingbacks are an
Refbacks are an


Ähnliche Themen
Thema Autor Forum Antworten Letzter Beitrag
[News] Legale Online-Musik wird immer mehr genutzt TweakPC Newsbot News 0 25.05.2012 21:00
[News] CUDA unterstützt OpenCL 1.0 TweakPC Newsbot News 0 09.12.2008 18:27
[News] Internet wird immer mehr genutzt TweakPC Newsbot News Archiv 0 24.11.2008 18:08
ccc 9600 pro: ccc wird von der treiberversion ... nicht unterstützt Passi1504 AMD/ATI Radeon Grafikkarten 5 14.06.2007 20:25
wird mein nVidia-Chip unterstützt? speedrat Linux bzw. Non-MS & Programme 3 17.04.2003 05:08


Alle Zeitangaben in WEZ +1. Es ist jetzt 17:22 Uhr.




Powered by vBulletin® Version 3.8.10 (Deutsch)
Copyright ©2000 - 2019, vBulletin Solutions, Inc.
SEO by vBSEO 3.5.2 ©2010, Crawlability, Inc.
Impressum, Datenschutz Copyright © 1999-2015 TweakPC, Alle Rechte vorbehalten, all rights reserved