Du beklagst dich ja nicht über fehlende Punkte. Aber manche haben eben nicht die entsprechende hardware. Viele user haben unser Team nach 15, 30 oder 45 Punkten frustriert wieder verlassen und eben klang ja auch schon wieder Resignation durch beim Vergleich mit den Grafikkarten.
Ich finde es auch nicht toll dass GPUs so viel leichter Punkte machen können als CPUs aber was soll man machen? Ich versuche halt mit der Masse an CPUs dagegen zu halten
Masse statt Klasse
[FONT=Arial]Back to the roots...[/FONT] [FONT=Arial][/FONT] [FONT=Arial]On an on south of heaven...[/FONT]
Jo, ich hab halt auch keine Oberklasse GPU und ich finds schon Heftig, das da son riesen Unterschied ist zwischen meinem X2 4200+ und der kleinen 8400GS von Uwe.
Ob man GPU's so verallgemeinern sollte weis ich nicht, die PPD von ATI sind in Ordnung, nur was die GeForce da ausspucken ist echt nicht fair.
Wird Zeit, dass der nVidia Klient auch endlich ordentlich WU's bekommt und nicht solche Miniteile.
Nun mal langsam. Ich suche bei Gelegenheit mal den Artikel raus, in dem das wissenschaftlicher beschrieben ist.
Zunächst erstmal laienhaft:
Es gibt bestimmte Arbeitsschritte/Berechnungen, die sich nun mal mit einer Grafikkarte besser berechnen lassen als mit einer CPU.
Projekte für CPU-Berechnungen gibt es ziemlich viele. Folding@home hat sich gegen den Trend dazu entschieden, von Anfang an nicht auf BOINC zu setzen, sondern eine eigene Plattform zu nutzen und diese weiter zu entwickeln. Sie waren die ersten (ich glaube auch bisher noch die einzigen) die dann auf GPU-Berechnungen gesetzt haben.
Durch die Entscheidung für CUDA sind natürlich nVidia-Karten erstmal im Vorteil, weil das speziell auf deren Shader-Architektur aufbaut. ATI-Karten funktionieren ganz anders.
Im Entwicklerteam von f@h sitzen je 1 Mitarbeiter von nVidia und 1 von ATI. (Nebenbei bemerkt auch 2 von Sony/PS3) Es ist also nicht so, dass nVidia bevorzugt wird. Die Karten sind nur für diese spezielle Aufgabe besser geeignet. Dafür kann eine ATI halt irgendwas anderes besser als NV- nur dass das eben nichts nutzt für f@h. Der Typ von ATI hat jedenfalls vor kurzem behauptet, sie wären am Optimieren und dann sind auch mit seinen Karten bald 5000 PPD möglich.
Wir haben uns nun einmal für dieses Projekt entschieden und müssen diese Rahmenbedingungen eben in Kauf nehmen.
Wenn jemand ein anderes Distributed Computing Projekt kennt, das GPU-Berechnungen unterstützt, können wir das ja gerne mal testen.
Ansonsten sollten wir endlich mal powern und uns ein nächstes, anspruchsvolles Ziel setzten. Es gibt Mannschaften, die zum Race auf andere Teams aufrufen.
Die Olympischen Spiele haben angefangen. Weckt euren Sportsgeist!
Ich bin dafür, dass wir bei F@H bleiben!
Ich arbeite nur alternativ, da die paar Stunden die mein PC rennt die 200PPD von meinem CPU fast nichts bringen.
Es gibt für BOINC auch einen GPU (nVidia) Client, da ich selbige nicht besitze, weis ich nicht wie gut es funktioniert: PS3GRID
Aber auch hier sieht eine CPU alt aus gegen eine GPU.
Das wird wohl auch überall so sein, wenn man alleine die reinen GFlops vergleicht, da lässt ne aktuelle GPU einen Quadcore weit hinter sich, was sich natürlich auf die Rechenleistung auswirkt. Das wird sich auch mit Nehalem und Konsorten nich so schnell ändern.
Das Motto der Minensucher: Wer suchet, der findet. Wer drauftritt verschwindet.
Da in letzter Zeit viele über den neuen Windows SMP client geschimpft haben, hab ich mich mal auf die Suche nach einer passablen Lösung gemacht.
Es gibt ein fertiges VMWare-Image mit dem Debian SMP client, dass zwar im Moment noch den am 02.08. abgelaufenen client beinhaltet, der läßt sich aber updaten. In ein paar Tagen soll auch gleich der neue client eingearbeitet werden.
Man muss also nur noch Namen und Teamnummer eingeben und dann cruncht er los.
Wenn meine WU durchläuft ohne rumzuzicken, kann ich bei Bedarf Näheres posten.
Über Wehren sprechen wir nochmal wenn wieder Normalität in der Bepunktung einkehrt...
Da wirst du umsonst drauf warten. ATI hat sich von CAL verabschiedet und will sich mit dem Thema GPU Computing nun im Rahmen von Direct11 beschäftigen. Für signifikante Änderungen bei F@h benötigst du also eine neue Grafikkarte, die 2009 in Q1 erhältlich sein soll.
Vielleicht schafft es ATI ja doch noch, die Treiber so zu optimieren, dass eine 4xxx auch als solche und nicht mehr als 3xxx beim folden erkannt wird. Dann würden 160 nutzbare Stream Processing Units (statt jetzt 64) eine G92 nicht nur in Schach halten, sondern überflügeln- die hat nämlich 128.
Über 5000PPD wären also auch möglich.
Wenn man bedenkt, dass ATI schon einen Vorsprung auf dem Gebiet hatte und dass die von ATI verwendete GPGPU-Sprache Brook+ an der Stanford University- also der Heimstatt des F@h Projektes- entwickelt wurde, ist das eine schwache Kür von AMD/ATI.
Es ist also nicht so, dass nVidia unnormal oder bevorzugt bepunktet werden würde, sondern adäquat zu den 128 Stream Prozessoren der G92, die alle für die Berechnung nutzbar sind, während ATI aufgrund seiner Blockstruktur (1 komplexe ALU+4 einfache ALU) seine Leistungsfähigkeit auf diesem Gebiet beschnitten hat. Wenn von 320 SPU nur 64 GPU-Berechnungen durchführen können, kann auch nur die Hälfte der Punkte entstehen.
Bevor das jetzt jemand in den falschen Hals bekommt, der sich noch nicht mit F@h beschäftigt hat. Es geht nur um GPU-Computing, nicht um Grafik-Berechnungen!
Würde der Client eine HD 4800 optimal ausnutzen, wären das aber 800 Einheiten nicht 128. Da der neue GPU Client ATI Ab HD 2k unterstützt sollten davon im Moment 320 ausgelastet werden.
Das das allerdings ziemlich nichtssagend ist, hast du ja selbst angesprochen mit dem Unterschiedlichen Prinzipien im Aufbau der Karten.
Außerdem kannst du das ganze nicht auf die blanke Hardware bzw den Aufbau beschränken. Die jeweilige Software ist Grundverschieden. Der ATI Client war seit jeher bombenstabil aber wenig performant. Bei der Auslastung der GPU wird eine hohe CPU Zeit benötigt, oftmals verhindert eine zu schwache CPu die Volllast der GPU.
Dieses Problem erfährt man bei Nvidia nicht, erstens wegen dem Clienten selbst und zweitens weil Nvidia immernoch wesentlich kleinere Units bekommt.
Und allein schon die unterschiedlichen Units machen genügend Platz für "unnormale" bzw unfaire Bepunktung.
Reg dich nicht auf, sondern lass es einfach. Offenbar hat es F@H nicht nötig das Schaffen von ATI a) zu optimieren oder b) der Leistung gerecht zu bewerten. Keine Ahnung was die da machen, aber eins weiß ich:
Ich setze voraus, dass das Punktesystem den Wert an wissenschaftlicher Arbeit widergibt. Daran zeigt sich, dass die wissenschaftliche Arbeit von ATI Karten offensichtlich nicht den Strom wert ist, den sie verbrauchen.
Ergo: Folding ade - möge es besser werden oder nicht - im Zweifel spart man Strom
Gut, das muss jeder selber wissen, wo die Schmerzgrenze zwischen "freiwillig an einem Projekt teilnehmen" und "Ausbeutung" verläuft.
Würde der Client eine HD 4800 optimal ausnutzen, wären das aber 800 Einheiten nicht 128.
Es sind 800 SPU, davon sind 160 komplexe ALU und 640 einfache ALU.
Die 160 komplexen (fat alu) sind für GPU computing und Grafikberechnungen nutzbar, die 640 einfachen "nur" für Grafik- also für die eigentliche Hauptanwendung dieser Karten.
Die 128 bezog sich auf die GF 8800GTS (G92), die hat 128 Stream Prozessoren, die alle für GPU-Computing nutzbar sind.
Aber ist jetzt auch egal. Ich hab weder Einfluss darauf, wie ATI das umsetzt, noch bekomme ich Geld von nVidia dafür, dass ich ihre Technologie "verteidige".
OK !! D.h. ich schmeiße meine Kiste sofort wieder an so lange bis wir vorbei sind! AND GO!
Seh ich das richtig das wir in den letzen 24 h 15,602 PPD gemacht haben!
Das ist ja..... ich glaub echt ich muss jetzt mal eingreifen, wenn der verfluchte Strom net so teuer wär! Wer besorgt mir billig ne Solar Anlage für 600 - 700 Watt ^^
Webmaster / Forumadmin [TweakPC Team] "It is far easier to concentrate power than to concentrate knowledge." Thomas Sowell
Darf ich mal bitte vorbei?! Das geht nach Kompetenz... Danke! | | | Einmal dachte ich, ich hätte Unrecht. Hab mich aber getäuscht!
"Es ist gelogen, dass Videogames Kids beeinflussen. Hätte Pacman das getan, würden wir heute durch dunkle Räume irren, Pillen fressen und elektronische Musik hören."
ich würd ja noch mehr müll aufstellen, aber das Problem sind echt die Kosten, denn die QuadSLI Kiste würde mich 24/7 mal eben 100€ im Monat an Strom kosten :/ das is mir bils viel
Aber so lange bis wir CB überholt haben ^^ bin ich mit akutell 18921 PPD dabei hrhrhr