@chris
Na genau von der Liste rede ich doch
Wenn du mal auf GTX 260 klickst, steht dann in den Details 192 Stream-Prozessoren- also die "alte" 260, die neue hat ja bekanntlich 216.
Wenn du das jetzt mixt mit der Aussage von Caramon, dass neuere Karten nicht mehr unterstützt werden, stehst du also vor einem Rätsel.
Ne 9800 lohnt nicht als Ersatz für eine 8800GTS(G92) und eine GTX 280 ist mir definitiv zu teuer. Die 260-216 wäre mein goldener Mittelweg.
So, jetzt habe ich noch den Stromverbrauch gemessen (CPU noch im C&Q-Modus: 1,28 GHz @ 0,80 V):
Prime95 x64: 105,5 W
Idle: 74,4 W
Seti, mit GPU: 104,4 W
Seti, ohne GPU: 96,5 W
dto., nur voller Takt (2,56 GHz @ 1,25 V):
Seti, mit GPU: 178,4 W
Seti, ohne GPU: 170,1 W
Also braucht die IGP beim crunchen ca. 8 W mehr.
Wenn die Grafikausgabe dann nicht so LAHM wäre (s.o.), wäre das durchaus eine Option. Zumindest wenn das bei allen so gut funktionieren würde, wie bei Seti.
Zuerst minimiere ich Opera und stelle es wieder her (toller Bildaufbau). Dann kloppe ich auf den Tasten herum, damit man sehen kann, wie wahnsinnig schnell der Text erscheint. - Einzelne Zeichen erscheinen auch in der Geschwindigkeit. - Btw: Komischerweise kann ich Videos dann aber trotzdem noch normal abspielen.
@Caramon2
Wenn du von CPU-Auslastung beim f@h-GPU client redest, unterscheide bitte zwischen nVidia und ATI-Karten.
Deine Aussage führt sonst schon ad hoc zu einem falschen Bild von f@h.
Bei deinem "Vergleich" kann ich nur Seti vs. Seti bei unterschiedlickem Takt sehen, aber nicht Seti vs. FAH.
Wenn du wirklich der Meinung bist, dass das imaginäre "Forschen nach außerirdischen Lebensformen" sinnvoller ist als die medizinische Grundlagenforschung für real existierende,
den Menschen bedrohende Krankheiten, dann starte bitte einen eigenen Thread dazu.
Ein direkter Vergleich ist natürlich legitim und im Rahmen einer vernünftigen Diskussion auch erwünscht- SETI Werbung aber bitte in einem anderen Bereich.
Meine persönliche Meinung dazu: 8W Seti Verbrauch sind weniger sinnvoll als 50W FAH Verbrauch.
Oder anders ausgedrückt, wenn jemand wegen der Energiekosten nicht bei FAH mitmacht, sehe ich auch keinen Grund, wegen weniger Kosten bei Seti einzusteigen.
Man kann ja den zeitlichen Einsatz für FAH drosseln, wenn man sparen will.
@chris und swatcher
Ich hab letztens irgendwo gelesen, dass die komplette GT200 Familie unterstützt wird. Bin aber nicht sicher, ob das stimmt.
Jedenfalls hat die Chip einen Empfehlungs-PC zusammen gebastelt mit Geforce 8200 und GTS250, bei dem Hybrid funktioniert.
@Caramon2
Wenn du von CPU-Auslastung beim f@h-GPU client redest, unterscheide bitte zwischen nVidia und ATI-Karten.
Deine Aussage führt sonst schon ad hoc zu einem falschen Bild von f@h.
Ich kann nur sagen, dass es auch allen von mir getesten GPU (eben meiner IGP ) so ist. Auf der F@H-Dowload-Seite ist mir auch nichts aufgefallen, dass da ein Unterschied sein soll.
Zitat:
Bei deinem "Vergleich" kann ich nur Seti vs. Seti bei unterschiedlickem Takt sehen, aber nicht Seti vs. FAH.
Ich habe CPU vs. IGP vs. verschiedene Taktstufen verglichen, um zu sehen, welche Auswirkungen das auf den Verbrauch hat. - Bei F@H würde das sicher auch nicht großartig anders sein, wenn es hier vernünftig laufen würde.
Als Anhaltspunkt für den Stromverbrauch von DC, ist das jedenfalls brauchbar.
Zitat:
Wenn du wirklich der Meinung bist, dass das imaginäre "Forschen nach außerirdischen Lebensformen" sinnvoller ist als die medizinische Grundlagenforschung für real existierende,
Ich bin der Meinung, dass beides rausgeschmissenes Geld ist, von dem ich aufgrund eines schweren, unverschuldeten Unfalles und daraus resultierender, inzwischen über 3 jähriger, Abeitslosigkeit, nichts zu verschenken habe.
Wenn du es als sinnvoll erachtest, den Stromversorgern dein Geld in den ***** (Hintern) zu stecken, damit die Bonzen, die von F@H letztendlich profitieren, sich noch mehr Geld in die Tasche stecken können, ist das deine Sache.
Ich kann nur sagen, dass es auch allen von mir getesten GPU (eben meiner IGP ) so ist. Auf der F@H-Dowload-Seite ist mir auch nichts aufgefallen, dass da ein Unterschied sein soll.
Dann gehört wenigstens die Angabe, mit welcher IGP du "getestet" hast dazu.
Mal ganz davon abgesehen, dass das Folden mit IGP aufgrund der geringen Leistung ziemlich sinnlos ist.
Dass ATI und nVidia zu unterschiedlichen Lasten bei der CPU führen, wurde schon mehrfach angesprochen.
Zitat:
Zitat von Caramon2
Ich habe CPU vs. IGP vs. verschiedene Taktstufen verglichen, um zu sehen, welche Auswirkungen das auf den Verbrauch hat. - Bei F@H würde das sicher auch nicht großartig anders sein, wenn es hier vernünftig laufen würde.
1. Wenn du Seti-Tests veröffentlichen willst, öffne einen eigenen Thread, sonst lösche ich die Beiträge. Der Thread ist deutlich mit "f@h" gekennzeichnet.
2. Dass f@h auf ner IGP nicht vernünftig läuft, sollte jedem klar sein.
3. Hast du schon mal Testreihen/Messungen o.ä. durchgeführt? Wie kann man von Ergebnissen bei SETI auf Ergebnisse bei FAH schließen? "Würde sicher nicht anders sein" ist wirklich ein super überzeugendes Argument.
Zitat:
Zitat von Caramon2
Als Anhaltspunkt für den Stromverbrauch von DC, ist das jedenfalls brauchbar.
Ah ja. Du weißt schon, dass SETI (wie die meisten DC Projekte) auf BOINC aufsetzt, während FAH einen anderen Weg geht.
Zitat:
Zitat von Caramon2
Ich bin der Meinung, dass beides rausgeschmissenes Geld ist, von dem ich aufgrund eines schweren, unverschuldeten Unfalles und daraus resultierender, inzwischen über 3 jähriger, Abeitslosigkeit, nichts zu verschenken habe.
Warum verschwendest du dann Geld für deine Messungen und Zeit, um hier zu posten?
Mach einfach nicht mit und gut ist es.
Zitat:
Zitat von Caramon2
Wenn du es als sinnvoll erachtest, den Stromversorgern dein Geld in den ***** (Hintern) zu stecken, damit die Bonzen, die von F@H letztendlich profitieren, sich noch mehr Geld in die Tasche stecken können, ist das deine Sache.
Das ist ein Uniprojekt, so wie es viele andere auch gibt. Ob davon ausschließlich Bonzen (ich vermute, du meinst die Pharmaindustrie) oder eben auch Kranke profitieren, sei mal dahingestellt. Über evtl. prophylaktische Erkenntnisse noch gar nicht nachgedacht.
Ich weiß auch nicht, warum du persönlich werden musst und was es dich angeht, was ich mit meinem Geld mache.
Ich hab in mehreren Threads schon gesagt, dass jeder machen kann, was er will und auch jeder das Recht dazu hat, frei zu äußern, aus welchen Gründen auch immer er/sie nicht mitmachen will.
Aber lass doch bitte die Polemik. Ich kann nichts dafür, dass du arbeitslos bist.
Ich reg mich auch nicht drüber auf, wenn andere ihr Geld für Zigaretten aus dem Fenster werfen.
Hat keiner was dagegen. Trotzdem muss er nicht so einen Mist verbreiten.
Ich hab anfangs schon mehrfach geschrieben, wozu der Thread dienen soll.
Warum muss man seinen Senf dazu geben, wenn einen das Thema nicht interessiert oder man es für sich abgeschlossen hat?
Ich poste doch auch nicht in jedem einzelnen Spiele-Thread, dass mich Spiele wenig interessieren und dass man dadurch massig Strom verschwendet.
Oder braucht die GraKa in einem Spiel weniger Strom als beim Folden?
Und das ich mich darüber ärgere, wenn "mein Baby" (wie tele das mal formulierte) und mein Bemühen, das Projekt am Leben zu erhalten, von Einzelnen in den Dreck gezogen werden, darf ich ja mal äußern.
1. Wenn du Seti-Tests veröffentlichen willst, öffne einen eigenen Thread, sonst lösche ich die Beiträge. Der Thread ist deutlich mit "f@h" gekennzeichnet.
Ich habe Stromverbrauchstest veröffentlicht. Durch welches Programm die CPU- und GPU-Last ausgelöst wird, ist doch irrelevant.
Zitat:
2. Dass f@h auf ner IGP nicht vernünftig läuft, sollte jedem klar sein.
3D, DXVA, Badaboom und Seti laufen doch darauf. Wieso sollte es klar sein, dass ausschließlich F@H das nicht macht?
Eigentlich sollte dem Programm doch wohl egal sein, wo die GPU verbaut ist, solange die Benötigten Funktionen unterstützt werden.
Zitat:
3. Hast du schon mal Testreihen/Messungen o.ä. durchgeführt? Wie kann man von Ergebnissen bei SETI auf Ergebnisse bei FAH schließen? "Würde sicher nicht anders sein" ist wirklich ein super überzeugendes Argument.
Klar.
Laste ich die CPU mit Prime, Seti, CPU-Burner, usw. aus, unterscheiden sich die Verbräuche nur marginal.
Aber bei F@H ist das natürlich vollkommen anders.
ROFL!!!!!!
Zitat:
Warum verschwendest du dann Geld für deine Messungen und Zeit, um hier zu posten?
Ich verschwende keine Zeit, ich habe sie aufgrund der Arbeitslosigkeit im Überfluss.
Also versuche sie sinnvoll zu nutzen und veröffentliche das auch, damit die Allgemeinheit auch was davon hat. - Was mit hier überwältigend gedankt wird. (Ich frage mich gerade, wieso ich meine Zeit damit vertrödele, mit so kleinkarierten Haarspaltern zu argumentieren. - Das ist wirklich verschwendet.)
Zitat:
Weise Entscheidung.
Das heißt im Umkehrschluss, deine Entscheidung, das doch zu machen, ist...
Zitat:
Zitat von Uwe64LE
Hat keiner was dagegen. Trotzdem muss er nicht so einen Mist verbreiten.
Ich habe meine Messwerte veröffentlicht. Das sind Fakten.
Du bist mit diesem "Mist" angefangen. Ich reagiere nur darauf.
Aber langsam wird mir das echt zu blöd, da du ja offensichtlich nicht dazu in der Lage bist, eine vernünftige Unterhaltung zu führen.
Ich grabe diesen Thread mal aus, um ein paar konkrete Stromverbrauchswerte einzustellen:
Notebook mit P7350 (2,0 GHz) und 9600GT M bringt, je nach WU, zwischen 2000 und 2500 PPD. Stromverbrauch des Systems ist im Idle ca. 40W, unter F@H Volllast bei ca. 105W. Macht also glatt 20-25 PPD/W.
Dagegen ergibt sich bei meinem Desktopsystem (i7 860 + GTX275) ohne OC, bei A3-Core WUs sowie 472 Pkte.-GPU-WUs (P5910) ein PPD-Wert von im Mittel 18.000. Das Interessante ist jetzt der Stromverbrauch:
Im Idle, also mit CPU- und GPU-Runtertaktung zieht das System ziemlich konstant 105W. Schaltet man nur den SMP-client hinzu, steigt der Wert auf 165W. Also 60W Mehrverbrauch, das finde ich gut, aber die i7 860er hat ja auch eine freundliche TDP von "nur" 95W. Kommt nun noch der GPU-client hinzu, messe ich einen Verbrauch, der zwischen 200 und 270W schwankt (kommt durch die wechselnde GPU-Belastung zustande). Über ca. 12h summiert hat der Rechner bei SMP+GPU-Volllast 2,8kWh verbraucht. Macht also einen Durchschnitt von 233W. Das ist im Vergleich zum Notebook wahnsinnig gut: 75 PPD/W gegenüber 25 PPD/W.
Also ist das große System dreimal (!) so effizient, was die Punkte-pro-Watt-Ausbeute angeht!
Der "geringe" Verbrauch kommt natürlich auch dadurch zustande, dass die Grafikkarte bei vielen F@H-WUs nicht permanent voll ausgelastet wird.
Wie auch immer, auf eine 24/7-Nutzung hochgerechnet würde sich ein Verbrauch von etwa 37 kWh in der Woche ergeben. Rechnen wir ungünstigerweise mal mit 50 kWh pro Woche, also 200 kWh im Monat, dann wären wir bei einer absoluten Obergrenze von 50€ pro Monat - realistisch gerechnet sogar eher 35€ im Monat. Das Ganze ist aber natürlich erst mal eine vorläufige Bilanz, weil die Datenbasis noch sehr gering ist.
Besonders interessant finde ich aber, dass die i7 860er CPU sehr effizient faltet und man mit nur 60W Mehrverbrauch etwa 10.000 PPD (bei starker sonstiger Rechnerbeanspruchung natürlich weniger) erzielt. D.h., Leute, die ihren Rechner prinzipiell 24/7 laufen lassen, wäre das ein vertretbarer Mehrverbrauch. Natürlich ist das alles relativ, und auch ich werde das System nicht dauernd laufen lassen, aber ich hätte mit einem höheren Verbrauch unter F@H-Volllast gerechnet.
Du hast mit deinem i7 system ja auch noch den Vorteil, dass du die Faltleistung "an deinen Geldbeutel anpassen" kannst.
Neben der Möglichkeit, eine WU zu rechnen und dann eine Zeit zu pausieren (geht ja mit dem Notebook auch), kann man ja die deadline ausreizen-
sprich während der WU pausieren. Allerdings müsste man dann die Faltzeit mit der Zeit optimieren, die man benötigt, um den Bonus zu erhalten.
35 bis 50€ im Monat hört sich doch gut an. Es gibt sicher Hobbies, die teurer sind.
Denke ich auch, mit einem i7 müsste es überhaubt kein Problem sein. Zumal dieser doch 8Kerne (4 Logische und 4 Virtuelle) besitzt.
Meine es vorallem deshalb weil der Rechner nicht unbedingt 7*24 laufen muss. Das spahrt natürlich auch eine ganze Menge (Strom wie Geld).
So, wollte nochmal einen Zwischenstand melden. Das Messgerät hängt jetzt seit über einer Woche am Rechner und bescheinigt mir einen Verbrauch pro Woche von etwas weniger als 44kWh. Bedeutet auf den Monat hochgerechnet bei einem Strompreis von 0,20€ Mehrkosten von knapp unter 38€ gegenüber gar keiner Rechnernutzung. Das ist etwas über meinen anfänglichen Werten, weil ich zu Beginn nur 472er-GPU-WUs bekam, die eine deutlich geringere GPU-Nutzung (und damit Verbrauch) haben. Trotzdem bleibe ich deutlich unter meinem worst-case Szenario.
Gibt es eigentlich auch ein Programm, was den Strombedarf des laufenden Systems über einen gewissen zeitraum aufnimmt und diesen dann graphisch oder i wie darstellen kann?
wäre ja an sich ne ganz geile sache
Hier noch die Stromverbrauchsüberlegungen zu meinen neuen CPU-OC-PPD-Werten. Die PPD der CPU haben sich (bei weiterhin voller GPU-Last) durch Anhebung des Taktes von 2,93 auf 3,3 GHz um etwa 2500 erhöht. Das sind etwa 25% mehr bei Takterhöhung um 12,5%. Das liegt natürlich am Bonussystem der A3-WUs und ist auch der Grund, weshalb sich verbrauchstechnisch OC lohnen kann, auch wenn CPU-Leistung / Takthöhe maximal linear steigen kann (und in der Realität etwas bis deutlich geringer als linear steigt).
In meinem Fall stieg der Gesamtverbrauch des Rechners (ohne Display) mit SMP+GPU-client von 270 auf 295 Watt, also um fast 10% bei einer Gesamt-PPD-Rate von 19.000 auf 21.500, also 13%.
Somit hat das moderate OC eine leichte Steigerung des PPD/W ergeben. Dies ist hauptsächlich dadurch bedingt, dass für das OC die Vcore praktisch nicht erhöht wurde - unter Last von 1,088V auf 1,096V. Steigt Vcore stärker, so erhöht sich der Verbrauch signifikant (bei 1,2V in meinem Fall weitere 40W), und der PPD/W-Wert sinkt wieder. Insgesamt ist also bei 24/7-Betrieb ein OC nur leidlich vorteilhaft in Bezug auf eine PPD/W-Steigerung.
Natürlich können andere CPUs abweichende Werte erzeugen, aber der prinzipielle Zusammenhang wird für jede CPU ähnlich sein.
Stromverbrauch schwankt zwischen 309-317Watt
Die PPD's betragen laut HFM.NET mit Bonuspunkte 26838 bei Projekt P2683.
Wobei nur der CPU Client rechnet in einer VMWare mit den Parametern: -smp 8 -bigadv
Die CPU Kerntemperatur ist bei relativ konstanten 71°C auf dem heißesten Kern.
Die Werte sind noch schwankend, da ich erst 5% gefaltet hab, dazu muss ich sagen, dass ich eigentlich immer wieder erlebe, dass die PPD's erheblich abnehmen durch längere Falt Zeiten...selbst wenn die TPF geringer wird.(warum auch immer)
Da ich mit diesem PC auch gerade die Nachricht verfasse werden die PPD Werte schon nicht mehr stimmen. Auch ist mir mein System in den ersten 2% 4 mal gefreezt (nicht optimale Settings) und somit ist auch wieder der PPD Wert verfälscht worden.