Einzelnen Beitrag anzeigen
Alt 22.04.2009, 17:51   #25 (permalink)
dr_Cox
Coxito ergo sum
 
Benutzerbild von dr_Cox
 

Registriert seit: 23.02.2007
Beiträge: 8.119

dr_Cox kann auf vieles stolz sein
dr_Cox kann auf vieles stolz sein

Standard AW: f@h: Gedanken zum Stromverbrauch

Richtig Uwe, wir nähern uns an!

Ich sage ja auch nicht, dass man mit Planung und Optimierungen nicht jedes System halbwegs effizient betreiben kann. Manche besser manche schlechter, vollkommen richtig.
Was ich sage ist, dass diese Aspekte der Planung und Optimierung das Problem sind, weshalb so viele abspringen. Ich persönlich bin ja nie abgesprungen sondern kann nur effizient folden wenn ich kurzzeitig Spitzenlasten erzeuge und dann wieder pausiere. So bekomm ich einfach die meisten PPD/kWh und damit PPD/€; ergo Effizienz. In dem Rahmen was ich zu leisten bereit bin.

Worum es mir geht ist einfach, dass eine Menge User da draussen einerseits nicht über so potente Hardware verfügen wie wir das hier z.T. tun. Und andererseits sind sie kaum in der Lage, ihre Clients wesentlich zu optimieren, denn dazu bedarf es einiger Vorahnung, Zeit und auch Experimenten.

Wenn ich z.B. auf meinem System 9950 + 3870 CF derzeit einfach den SMP draufpacke und den GPU2 Client, dann bleiben für den SMP maximal 75% CPU Ressourcen und es foldet nur eine Karte.
Das ist pervers ineffizient, aber mehr ist ehrlich gesagt von Otto-Normaluser nicht zu erwarten.

Das Beispiel ist etwas extrem, ich weiss, aber es verdeutlicht die Problematik ganz gut: Wie bekommt man 2 Grakas zum laufen? Wie minimiere ich die CPU Last des SMP Clients?
Oder in deinem Fall: Wie rechne ich 2 WUs auf einer GPU?

Da gehts dann los mit noch nicht öffentlich distributierten Cores, mehrere Systemvariablen setzen (und individuell testen!), Anwendungsdatenpfadekopiererei, Machine IDs setzen und und und und...
Dann bekommt man das System effizient.

Und genau das ist es, was ich Stanford vorwerfe: Es wird ständig daran gearbeitet, gezielt aus einer (1!) Komponente _noch_ ein bisschen mehr herauszuquetschen.
Es wird nicht daran gearbeitet, aus Gesamtsystemen das jeweilige Maximum herauszuholen.
Das würde _für mich_ bedeuten, einen Misch-Client aus GPU2 und SMP zu erstellen, die vorhandene Hardware abzufragen und diesem System nur solche WUs zu schicken, die es bei einer angenommenen Laufzeit von ca. 8h/Tag (typische Bürozeit) ohne Weiteres locker abschließen kann (eigentlich ganz einfach, wenn man die Deadlines einfach nicht so eng setzt). SLI und Crossfire auto-detect mit Option ob die GPU im 2D oder 3D Modus rechnen soll... Das ganze natürlich Final und nicht Beta!

Es würden längst nicht so viele abspringen, da bin ich mir sicher. Aber wie gesagt, daran hat Stanford ganz offenbar kein Interesse oder bringts einfach nicht auf die Reihe.

Mich würde sowieso mal interessieren, was ein Haufen Energie weltweit verbraten wird fürs Folding und wieviel Einsparpotential bestünde, wenn Stanford mal mit Blick aufs Gesamtsystem dahingehend optimieren würde...

LG
dr_Cox ist offline   Mit Zitat antworten