Ich denke, wir müssen hier 2 Sachen auseinander halten: Einerseits gibt es ja nur einen "offiziellen" client (als Konsolen- und als tray Variante) und eigentlich war ja DC ursprünglich nur dafür konzipiert, freie Kapazitäten sinnvoll zu nutzen.
(Daher auch die Petition zur Nutzung der "Behördenrechner")
Diesen Weg beschreiten ja u.a. hoyy und daddycool. Dadurch bekommt man zwar nicht viele Punkte, aber der Wille zählt.
Man belastet sein System nicht über Gebühr, strapaziert weder Stromrechnung noch Nerven.
Es erfordert auch keine große Einarbeitung und kein spezielles Wissen.
Andererseits ist aus DC aber auch ein Wettbewerb geworden. Wenn man in irgendeinem Ranking vorne mitmischen will, kann man mit dem einfachen client keinen Blumentopf gewinnen.
Um mehr Punkte zu bekommen, wurden clients für Mehrkernsysteme und Grafikkarten geschrieben- die sind aber alle Beta.
(Ich weiß, dass du dass alles selber weißt, aber es lesen ja auch andere mit.)
Nun ist Stanford in der Klemme, dass sie einerseits neben den üblichen CPU clients ja auch Software für die PS3 und für GPU bereithalten müssen.
Dazu gehört ja nicht nur der client, sondern auch die Bereitstellung und die Auswertung der WU.
Bei all dem dürfen wir nicht vergessen, dass die eigentliche Aufgabe ja in der Auswertung und Verarbeitung der Daten liegt.
Gerade durch die PS3 und GPU clients sind die aber so mit Daten zugeschüttet worden, dass sie wahrscheinlich nicht mit der Pflege und Weiterentwicklung der clienst hinterher kommen.
Dieses Problem haben aber auch andere Projekte. Manche werden monatelang eingestellt, bevor es wieder weiter geht.
Wahrscheinlich stimmt also deine 2.Vermutung, sie bringen es nicht auf die Reihe.
Das ist nicht schön, aber eben leider nicht zu ändern.
Dass dadurch viel Energie sinnlos verbraten wird, stimmt sicher.
Die Optimierung auf ein Gesamtsystem ist sicher ziemlich schwierig. Denk nur mal dran, dass ATI+SMP viel mehr Zicken macht als nVidia+SMP. Man bräuchte also bestimmt mindestens 2 "Gesamt" clients.
Wahrscheinlich haben sich die Forscher auch zu sehr auf die community verlassen- bei Linux funktioniert das ja auch ähnlich.
Mir ist schon klar, dass Lieschen Müller mit einem high performance client überfordert ist. Aber hier im Forum sind sicher viele Leute unterwegs, die von der Ausbildung her mehr Ahnung von Computern haben als ich.
Es liegt also IMHO mehr am Nicht-Wollen, als am Nicht-Können.
Es sei denn, es mangelt an der hardware- was aber hier im Forum auch nicht häufig der Fall sein sollte. Wir haben ja mehrere user, die auch mit "schwächeren" Komponenten nach ihren Möglichkeiten folden.
Wie du selber sagtest: niemand wird sich extra für f@h neue Komponenten kaufen.
Ist ja auch nicht nötig. Jeder Beitrag zählt und sei er noch so klein.
Ich denke Stanford muss einfach mit der Zeit gehen.
Der einzige Final Client den sie haben ist der popeligste von allen, ausgelegt für Single-Core CPUs. Der komplette Rest ist Beta. Manche schon seit Jahren.
Aktuell wird z.B. für den SMP (der ursprünglich für Single-Core MP Systeme gedacht war und gar nicht für MultiCore Systeme, einen dezidierten Client dafür gibts also streng genommen gar nicht) offenbar nur noch die Gültigkeit des Clients geupdatet, ansonsten offenbar nichts. Auch die GPUs erfahren lediglich ab und zu ein Core Update, der Client ist auch schon älter.
Das geht aber vollkommen an der Zeit vorbei, Dualcores sind aktuell Standard. Aber längst nicht jeder Dualcore kann eine SMP WU bewältigen, schon gar nicht mit "normalen" Systemlaufzeiten.
Derzeit verkaufen NVIDIA und AMD Boards mit IGPs, die allesamt in der Lage wären GPU WUs zu rechnen. Scheitert leider total an den Deadlines. Dabei wäre das hoch effizient und aufgrund der stark steigenden Verbreitung solcher Boards absolut sinnvoll.
Wenn die Vermutung zutrifft, dass Stanford nicht hinterherkommt, dann hat man sich dort übernommen. Wenn mehr gerechnet wird als ausgewertet werden kann, ist das hinsichtlich der Effizienz noch katastrophaler.
Klar kann man sagen: Was du heute schon rechnest musst du in Zukunft nicht mehr machen. Auf der anderen Seite ist künftige Hardware wesentlich effizienter was das Verhältnis Leistung/Watt angeht. Weil der Leistungszuwachs einfach viel größer ist als die i.d.R. zusätzlich benötigte Energie; im Vergleich zur älteren Generation.
Auch ich erzähl dir da nix neues... aber du weisst ja dass vielleicht wer mitliest
Sprich, wir quälen heutige Hardware mit vorerst überflüssiger Arbeit, die künftige Hardware schneller und damit energieeffizienter erledigen könnte. Nämlich dann wenn die Ergebnisse auch relevant sind weil sie verwertet werden können.
Deswegen meckere ich ja, dass eigentlich nur noch gelegentlich an der Detail-Performance getunt wird, aber nicht beachtet wird, wieviel Potential noch brach liegt. Sowohl bei der Rechenleistung Rechenkapazität eines Systems als Gesamtes als auch bei der Energieeffizienz.
Und die Mithilfe der Folder als Community bei der Optimierung ist enorm, nur rückt Stanford ja nahezu keinerlei Infos raus, so dass wirklich jemand mal sich hinsetzten könnte und einen All-in-One Open Source Client entwickeln.
Im Gegenteil:
Zitat:
You may not alter the software or associated data files.
You may only use unmodified versions of Folding@home obtained through authorized distributors to connect to the Folding@Home servers. Use of other software to connect to the Folding@home servers is strictly prohibited.
Es ist also ganz und gar unerwünscht, dass sich da jemand aus freien Stücken einbringt. Oder krass ausgedrückt: User rechne,aber halt sonst die Schnauze.
Ich halte die Zielsetzung nach wie vor für gut, aber die Umsetzung und den Umgang mit den Usern und ihren Ressourcen finde ich fatal.
Mensch doc, nun bringst du mich aber in eine verdammte Zwickmühle.
In deinem letzten Beitrag findet jedes Wort meine Zustimmung.
Aber ich bin weder ausführende Person, noch Sprecher der Pande Group.
(Sorry, musste gerade einen break machen, weil der debian client gerade fertig war und ich was auslesen und umkonfigurieren wollte.)
Ich hab ja vor längerer Zeit schon mal angefragt, ob wir nur noch GPU folden wollen und uns für CPU ein anderes Projekt suchen. Es gibt ja auch deutsche Unis, die sich mit DC beschäftigen.
Inzwischen würde ich das aber als "Verrat" betrachten.
Was können wir also tun? Meiner Meinung nach nur das Beste aus den vorgegebenen Umständen raus holen.
Ich persönlich hab das eben so geregelt, dass ich nach Möglichkeit aus 2 zur Verfügung stehenden GPU-WU die günstigere aussuche (und notfalls die andere verwerfe)
und dass ich SMP nur noch über einen Linux client via VMWare Player laufen lasse.
Hab gerade die 5.WU über den aktuellen debian client (von chris15 bereit gestellt) fertig. Ist zwar noch nicht so komfortabel, da man nicht mit FahMon auslesen kann, aber ich hab mir gerade die Log Dateien angesehen.
Alle waren in 17,75 Stunden fertig- egal ob unterbrochen oder durchlaufen lassen.
Macht also knapp 2600 PPD (a2 core, 1920 Punkte)
btw. Die Anweisungen aus deinem Zitat stossen mir auch schwer auf, besonders "strictly prohibited". Da könnte man sich zu der Frage verleiten lassen: Was bilden die sich überhaupt ein?
Andererseits wollen die natürlich sicherstellen, dass die Ergebnisse auch wissenschaftlich verwertbar sind und nicht durch gewissenlose freaks ausschließlich geschwindigkeits-optimiert werden.
Ist sicher eine Gratwanderung.
btw2 Man könnte meinen, wir werden nach Zeilen bezahlt.
Derzeit verkaufen NVIDIA und AMD Boards mit IGPs, die allesamt in der Lage wären GPU WUs zu rechnen. Scheitert leider total an den Deadlines. Dabei wäre das hoch effizient und aufgrund der stark steigenden Verbreitung solcher Boards absolut sinnvoll.
"hoch effizient"?
Ich habe so ein Board und nutze die IGP (GF8300).
Den GPU-Client habe ich vor einiger Zeit mal ausprobiert: Wenn der läuft, wird zusätzlich ein Kern der CPU voll ausgelastet.
Und von der Geschwindigkeit kann man die IGP vergessen. Ich habe zwar keine direkte Vergleichsmöglichkeit, aber wenn ich mit Badaboom ein Video encode, dauert das doppelt so lange, wie wenn ich es mit identischen Einstellungen mit AVIdemux auf einen Kern encoden lassen. - Zusätzlich sieht das Ergebnis von Badaboom auch noch schlechter aus, scheint also stärker zu cheaten.
Im Endeffekt heißt das, wenn ich mit der IGP crunche, ist nicht nur ein Core voll ausgelastet, auch die IGP wird deutlich wärmer, ich schaffe aber trotzdem nur die Hälfte (wenn überhaupt), als wenn ich das auf einem Core laufen lassen würde, wo die IGP dann unbelastet wäre, also bei niedrigerem Stromverbrauch.
Außerdem wird dabei die Grafik extrem langsam, so dass Windows XP praktisch unbenutzbar wird: Surfen ist nicht vernünftig möglich und wenn man ein Programm starten, kann ich beim Fensteraufbau zusehen.
Unter "hoch effizient" verstehe ich was anderes.
Also habe ich es gleich wieder gecancelt. Da mein PC unter Volllast 208 W zieht (Idle 76 W), ist mir das auch zu teuer.
Da schalte ich den PC lieber aus, wenn ich ihn nicht benutze.
Wie kommst du denn auf die Idee, das Folden sei mit Encoding zu vergleichen und daraus Rückschlüsse auf die Performance zu ziehen?
Das sind zwei völlig unterschiedliche Paar Schuhe
Mit Effizienz ist übrigens nicht das Tempo gemeint, sondern Energieeffizienz - darum gehts hier ja. Ergo hinkt auch dein Vergleich GPU vs. CPU, da deine CPU unter Last auf einem Core garantiert mehr zusätzlichen Saft zieht, als deine IGP unter Last
Denn wenn du mal vergleichst, was eine IGP an Energie frisst 2D vs. 3D dann wirst du feststellen, dass dieser Unterschied recht gering ist. Dürfte sich in etwa um 20-40 Watt handeln, je nachdem welche und von welchem Hersteller.
Nimmst du zum Vergleich eine halbwegs aktuelle dezidierte 3D Karte, rechnet natürlich schneller, aber verdoppelt bzw. verdreifacht dir gleich mal die Leistungsaufnahme des gesamten Systems im Vergleich zum Idle.
Es gibt nicht wenige Folder, die undervolten ihre Systeme so weit wie möglich und nehmen dadurch natürlich auch Einbußen in der Rohperformance hin. Nur um das PPD/Watt Verhältnis so gut wie möglich zu gestalten.
Aber schön, dass du eigentlich auch genau das ansprichst, was ich auch schon bemängelt habe: Die Mehrheit aller User probiert das Folden mal aus, stößt auf Probleme und lässts dann einfach sein. Einfach weil das ganze fast nur noch auf Leistung optimiert wird und die Usability schwer vernachlässigt wird.
Das Problem mit den CPU Lasten lässt sich z.B. beheben, wenn man weiss wie. Nur da scheiterts bei den meisten, weil sie ja IMHO zurecht sagen: Ich installier das und entweder das läuft gut oder es wird eben wieder deinstalliert.
Weil du hast vollkommen Recht, kein Mensch will beim GPU Folding noch einen gesamten CPU Kern unter Last haben...
@Uwe:
Ich weiss dass du nichts dafür kannst, nur denke ich muss man trotz aller Begeisterung für das Projekt auch immer im Auge behalten, wie es sich entwickelt.
Und wegen der angesprochenen Punkte fällt es mir im Moment ernsthaft schwer, neue Folder zu rekrutieren. Nichts wäre einfacher als ein paar Kollegen einen Client aufzuschwatzen - nur ich sehe es nicht ein, Leute für Stanfords Folding zu begeistern, wenn ich mich selber schon nicht mehr wirklich begeistern kann.
Wie kommst du denn auf die Idee, das Folden sei mit Encoding zu vergleichen und daraus Rückschlüsse auf die Performance zu ziehen?
Das sind zwei völlig unterschiedliche Paar Schuhe
Deshalb schrieb ich, dass ich keinen direkten Vergleich habe.
Aber da die IGP trotz sichbar getweakten Videoencoding nur halb so schnell ein ein CPU-Core ist, wird sie bei f@h auch nicht gerade eine Rakete sein.
Zitat:
Mit Effizienz ist übrigens nicht das Tempo gemeint, sondern Energieeffizienz - darum gehts hier ja. Ergo hinkt auch dein Vergleich GPU vs. CPU, da deine CPU unter Last auf einem Core garantiert mehr zusätzlichen Saft zieht, als deine IGP unter Last
Wie gesagt: selbst wenn ich nur auf dem IPG rechne, ist ein CPU-Kern voll ausgelastet.
Und was du außer acht, ist dass dabei sogar die 2D-Performance unter aller Sau ist: Der PC ist nicht mal für Officeanwendungen zu gebrauchen, wenn der GPU-Client läuft.
Also selbst ohne CPU-Last und selbst wenn der Verbrauch überhaupt nicht steigen würde (im idlen ist die IGP sowieso nicht der Hit), wäre das keine Alternative.
Btw: Wenn ich ein 1024x576 h264 Video mit dem MPC-HC per DXVA-Decoder ansehe, habe ich nur 0-2 % CPU-Last (auf einem 22" TFT: 1680x1050), wobei ein Teil ja noch für den Ton drauf geht (Vorbis - Matroska-Container).
Also die IGP ist durchaus zu gebrauchen, nur eben nicht zum crunchen.
@Uwe:
Ich weiss dass du nichts dafür kannst, nur denke ich muss man trotz aller Begeisterung für das Projekt auch immer im Auge behalten, wie es sich entwickelt.
Und wegen der angesprochenen Punkte fällt es mir im Moment ernsthaft schwer, neue Folder zu rekrutieren. Nichts wäre einfacher als ein paar Kollegen einen Client aufzuschwatzen - nur ich sehe es nicht ein, Leute für Stanfords Folding zu begeistern, wenn ich mich selber schon nicht mehr wirklich begeistern kann.
LG
Ich erwarte ja auch weder Begeisterung von dir, noch dass du irgendwelche Leute überredest. Hab ja selber die Erfahrung gemacht, dass man jemanden der das nicht will, nicht überreden kann.
Aber es gibt ja Leute, die das von sich aus mal ausprobieren und dann wieder hinwerfen, weil sie nicht weiter kommen oder unzufrieden sind.
Genau hier ist mein Ansatzpunkt. Und deswegen wünsche ich mir, dass nicht unsachlich und polemisch (wie in deiner ersten Antwort), sondern sachlich an das Thema herangegangen und auch kritisiert wird (wie in allen deinen folgenden Antworten).
An der Stelle muss ich noch was los werden:
Ich bin dir dankbar, dass du trotz deiner Bedenken immer wieder sporadisch einen erheblichen Beitrag zu unserem Punktekonto beisteuerst und dass du dich weiterhin auch mit theoretischen Grundlagen des Projektes beschäftigst und immer mit sehr guten Infos dienen kannst.
@Caramon2
Hast du statt des GPU- mal CPU Folding versucht? Auf den ersten Blick scheint dein System besser für SMP geeignet zu sein.
Läuft deine CPU dauerhaft auf 2,56 GHz?
Schon mal den Mehrverbrauch gegenüber Standardtakt 2,3 GHz gemessen?
Hast du statt des GPU- mal CPU Folding versucht? Auf den ersten Blick scheint dein System besser für SMP geeignet zu sein.
Läuft deine CPU dauerhaft auf 2,56 GHz?
Nein. Ich nutze C&Q und habe es per K10stat gepacht:
Idle: 1,28 GHz @ 0,80 V (Standard: 1,05 V)
Last: 2,56 GHz @ 1,25 V (=Standard)
Außerdem konnte ich die Spannung des integrieren RAM-Controllers von 1,25 V auf 1,10 V senken, obwohl der jetzt mit 2 GHz, anstatt 1,8 GHz läuft.
Übrigens bringt es nichts, den Idle-Takt weiter zu senken, da 0,80 V das niedrigste ist, was man einstellen kann. Selbst mit 642 MHz braucht der PC kein einziges Watt weniger!
Zitat:
Schon mal den Mehrverbrauch gegenüber Standardtakt 2,3 GHz gemessen?
Ja: Unter Volllast (Prime + h264-Video) beträgt der Mehrverbrauch gegenüber der Standardtaktung und -voltage: -5 W.
Das senken der NB-Spannung hat idle 8 W und unter Volllast 10 W gebracht.
Mein RAM (Mushkin) läuft übrigens mit 446,8 MHz. - Das schafft es auch noch locker mir Standard-VDimm. Erst über 490 MHz haut Prime Fehler raus.
Selbst mit 642 MHz braucht der PC kein einziges Watt weniger!
Dann muss es außerhalb des messbare Bereichs liegen, denn auch ein Runtertakten müsste Stromeinsparungen bringen, aufgrund der seltener werdenden Schaltverluste (kenne ich vom FJS V5535).
Mit K10stat kann man das zwar beliebig ändern, aber selbst wenn ich das auf 1/4 setzte ändert es nichts am Idle-Verbrauch. Der ändert sich ausschließen durch ändern der Spannung.
Der Phenom hat auch nur 2 P-States. Der K8 hat 3 und der Phenom2 soll sogar 4 haben - wobei ich mich da nach dem Sinn frage: Entweder man braucht nur ein Bisschen Rechenzeit, oder alles. Dass der K8 mal länger auf der mittleren Stufe lief, kam praktisch nie vor.
Nö, folden tue ich nicht. - s.o.
Ich habe das nur mal interessehalber ausprobiert, um den GPU-Client zu testen. Dto. bei Badaboom. Die IGP ist meine erste DX10, vorher hatte ich eine GeForce 7300 GT.
Da ich nach einem schweren Autounfall (unverschuldet) jetzt schon seit über 3 Jahren arbeitslos bin, schmeiße ich dafür bestimmt kein Geld aus dem Fenster.
Einen Quad-Core habe ich, weil ich den günstig bekommen habe (bin den X2 gut los geworden und musste nur 40 € drauf legen) und weil ich eine DVB-S Karte habe und viel mit Videoencoding mache. - Den X2 musste ich häufiger über Nacht encoden lassen, der X4 ist bis jetzt immer fertig gewesen, bevor ich ins Bett bin, so dass ich den PC ausschalten konnte.
OK, mal was ganz anderes bzgl. Stromverbrauch. Nehmen wir mal an, man bastelt sich einen Rechner mit zwei Highend Grafikkarten zusammen - wofür sei mal dahingestellt. Jetzt braucht man den Rechner aber nur teilweise im High-performance-mode und ansonsten dümpelt man mit MS Office und Co vor sich hin. Das sollte einen unglaublich hohen Idlestromverbrauch ergeben. Gibt es also eine Möglichkeit, die zweite Grafikkarte bequem ganz abzuschalten. Wenn nein, könnte man per nachträglich eingebautem Schalter die Karte manuell vom Strom trennen, ohne dass sie dadurch Schaden nimmt?
Oder gibt es moderne Boards mit brauchbarer Onboardgrafik (für Office etc.), die die zusätzliche(n) Grafikkarten bei Nichtgebrauch selbstständig abschaltet? Ach ja, soll sich alles auf Desktoprechner beziehen.
Ja das gibts schon und zwar bei Nvidia (750a/780a Chipset + entsprechende Hybrid Power fähige Nvidia Graka). Nennt sich Hybrid Power.
Die dezidierte Graka wird abgeschalten und die IGP übernimmt Office, Idle etc. Zum Gamen, Folden etc. kann man dann wieder die dezidierte zuschalten.
Geht aber nur bei AMD CPU Systemen. Wir hatten es mal getestet, damals wars leider etwas verbuggt, man konnte zwar die dezidierte abschalten, aber zuschalten hat nicht geklappt. Dazu musste man dann den Rechner neu starten.
OK, vielen Dank. Das hört sich schon mal gut an. Nur interessant, dass sich das noch nicht etabliert hat, denn es dürfte ja viele User geben, die eine teure Grafikkarte haben, aber sie nur ab und zu wirklich nutzen. Wie auch immer, man braucht dann wohl ein AMD-System.
OK, vielen Dank. Das hört sich schon mal gut an. Nur interessant, dass sich das noch nicht etabliert hat, denn es dürfte ja viele User geben, die eine teure Grafikkarte haben, aber sie nur ab und zu wirklich nutzen. Wie auch immer, man braucht dann wohl ein AMD-System.
Ganz im Gegenteil sogar, Nvidia hat die Technik mit den neuen Chipsätzen und Grakas unverständlicherweise wieder abgeschafft.
Das wäre natürlich sehr clever... kann mir aber kaum vorstellen, dass sich diese Position von Microsoft wird halten können.
Aber nochmal nachgefragt:
Könnte man nicht an die Grafikkartenstromzuführung einen Schalten einbauen, um so (vor dem Rechnerstart, nicht im Betrieb) der Karte den Strom zu nehmen? Dann müßte doch die Onboardgrafik laufen, weil praktisch keine dedizierte Grafikkarte vorhanden ist. Wäre natürlich eine Bastellösung.
Sorry, du bist hier im Unterforum Folding@home.
Hier geht es um Stromverbrauch beim Folden und evtl. Einsparmöglichkeiten.
Das Thema Hybrid SLI passt ja noch ganz gut dazu.
Wenn du aber jetzt nach Bastellösungen suchst, wie du deine GraKa ausschalten kannst,
dann mach bitte einen eigenen Thread auf.
...Nur interessant, dass sich das noch nicht etabliert hat, denn es dürfte ja viele User geben, die eine teure Grafikkarte haben, aber sie nur ab und zu wirklich nutzen. ...
Darum zweifle ich auch daran, dass die User wirklich am Stromverbrauch interessiert sind und die GraKa nicht zum Folden nutzen.
Ich hab diese Woche ein Angebot für ein ASUS M3N78 Pro gesehen. Incl. Abwrackprämie sollte das Board 39,99 kosten.
Leider hat der shop nicht auf meine Inzahlungnahme-Anfragen reagiert, sonst hätte ich zugeschlagen. (Boards waren wohl zu "alt"- aber wer tauscht schon neu gegen neu?)
Das Board hat einen GeForce 8300 chipsatz, der ebenfalls Hybrid Power unterstützt.
Hätte gerne mal eine GTX 260-216 darauf getestet.
Ich finde das sehr interessant. Wenn man nur so rum surft oder einen Brief schreibt, schaltet man die GraKa ab und wenn man zockt oder foldet, schaltet man sie an.
Für mich eine ideale Lösung.
Das Board hat einen GeForce 8300 chipsatz, der ebenfalls Hybrid Power unterstützt.
Hätte gerne mal eine GTX 260-216 darauf getestet.
Wobei ich neulich noch bei 3D-Center gelesen habe, dass neuere nV-Karten das nicht mehr unterstützen sollen. - Begründung: Durch den nötigen Zusatzchip wäre das zu teuer. - 3DC meinte dann dazu: Wohl den OEM-Herstellern.
Und so weit ich weiß, funktioniert das nur unter Vista. Win7 soll das lt. MS nicht mehr unterstützen. - Da war der Kommentar: Weil MS wohl Instabilitäten befürchtet, die dann natürlich Windows zugeschrieben werden.