TweakPC

Zurück   Computer Hardware Forum - TweakPC > News & Hilfen > News

Antwort
 
LinkBack Themen-Optionen Ansicht
Alt 06.09.2008, 00:40   #1 (permalink)
Selected Premium Quality
 
Benutzerbild von TweakPC Newsbot
 

Registriert seit: 06.10.2007
Beiträge: 31.558

TweakPC Newsbot ist ein sehr geschätzer MenschTweakPC Newsbot ist ein sehr geschätzer MenschTweakPC Newsbot ist ein sehr geschätzer Mensch

Beitrag Kolumne: Schnellere Grafikkarten bald nicht mehr möglich?

Kolumne: Schnellere Grafikkarten bald nicht mehr möglich?
06.09.2008 01:40 - ID 14615

Der Stromverbrauch der Grafikkarten steigt und steigt - und irgendwann ist die Grenze erreicht.

Kolumne: Schnellere Grafikkarten bald nicht mehr möglich?
TweakPC Newsbot ist offline   Mit Zitat antworten
Alt 06.09.2008, 03:51   #2 (permalink)
Strafbank!
 

Registriert seit: 28.03.2007
Beiträge: 10

sebushmcchill befindet sich auf einem aufstrebenden Ast

Standard AW: Kolumne: Schnellere Grafikkarten bald nicht mehr möglich?

au mann, das klingt wie von nem nerd geschrieben. solche "haltlosen" texte/kolumnen gabs auch schon vor ewigen zeiten:
schneller als 1ghz gehts nich, irgendwann werden computer mehrere etagen benötigen und nur die 5 reichsten menschen der welt koennen sich einen leisten ..., alles dummes gefasel.

schon die aussicht auf raytraycing is doch wohl des rätsels lösung ... keine graka mehr nur noch cpu-cores und ich denke nicht, dass die auf 250watt anheben und selbst wenn, brauchst ya keine highendgraka mehr. dazu kommt eventuell mal eine "dual oder gar quadgpu on a die". auswege aus der (fuer euch) unlösbaren problematik gibt es viele, nicht nur neue renderverfahren, sondern neue technologien an die heute nicht mal zu denken sind werden kommen. und derzeit geht das moorsche gesetz weiter, und ibm meint sogar noch recht lange.

also wie gesagt eure kolumne ist pure panikmache oder (alp)träume eines einfallslosen menschen.
wem der stromhunger nervt, soll sich ne midrangekarte holen.
und wenns echt mal soweit kommen sollte, dass ne graka 1000w zieht , dann tritt die selbstregulierung des markes ein, wetten keiner wuerde so nen ding kaufen, erst recht nich im sli oder mehr und dass wollen die hersteller sicher nicht.

sieht man sich den vergleich p4(mit ht) zu quad bei intel an so ist das bild sogar anders: mehr leistung, weniger stromverbrauch, bleibt der trend bestehn, koennte ich wenn ich so unlogisch denken koennte wie ihr, ne kolumne schreiben, "brauchen rechner bald gar keinen strom mehr?" (bildschlagzeilenartig ich weiß aber so ist es ja bei euch auch).
reißer um reißer und die logischen wahrheiten werden weggelassen. seit endlich mal objektiver, aber so sind derzeit alle pc-news-seiten, alle tiefstes bildniveau

Geändert von sebushmcchill (06.09.2008 um 14:31 Uhr)
sebushmcchill ist offline   Mit Zitat antworten
2 Benutzer bedanken sich für den Beitrag:
kanonenfutter (06.09.2008), qLx (06.09.2008)
Alt 06.09.2008, 07:54   #3 (permalink)
Extrem Tweaker
 
Benutzerbild von Seebaer
 

Registriert seit: 10.04.2002
Beiträge: 2.133

Seebaer ist ein LichtblickSeebaer ist ein LichtblickSeebaer ist ein LichtblickSeebaer ist ein LichtblickSeebaer ist ein Lichtblick

Standard AW: Kolumne: Schnellere Grafikkarten bald nicht mehr möglich?

Nuklearbeschleuniger für VGA? - News Hartware.net
Seebaer ist offline   Mit Zitat antworten
Alt 06.09.2008, 12:21   #4 (permalink)
0190-Telefonierer™
 
Benutzerbild von muesli
 

Registriert seit: 10.04.2002
Beiträge: 5.630

muesli wird schon bald berühmt werdenmuesli wird schon bald berühmt werden

Standard AW: Kolumne: Schnellere Grafikkarten bald nicht mehr möglich?

schon mal gut zu wissen, dass die steckdose die grenze aufzeigt, sonst würden sich die hersteller wirklich keinen kopf um den verbrauch machen
muesli ist offline   Mit Zitat antworten
Alt 06.09.2008, 14:48   #5 (permalink)
Stickstoff Junkie
 
Benutzerbild von NPM | Destructor
 

Registriert seit: 16.07.2004
Beiträge: 3.046

NPM | Destructor ist ein sehr geschätzer MenschNPM | Destructor ist ein sehr geschätzer MenschNPM | Destructor ist ein sehr geschätzer Mensch

Standard AW: Kolumne: Schnellere Grafikkarten bald nicht mehr möglich?

so ne sicherung ist locker für ne dauerbelastung von 4000W gut, da seh ich bei weitem kein Problem,
auch handelsübliche mehrfachsteckerleisten vertragen 3,5KW.
das wären eben mal 10 unserer heutigen PCs, und das sich der energieverbrauch so schnell erhöht ist sehr unwarscheinlich, denn auch die kühlung kommt irgendwann an ihre grenzen, und ich denke wir haben uns inzwischen an die grenzen der luftkühlung angenähert.
so gross wie heutige standard graka kühler waren vor wenigen Jahren nichtmal die Besten nachrüst lösungen.
der Trend geht aber bei CPUs z.B. richtung mehr effizienz und weniger energieverbrauch, klar werden die top CPUs immer ne menge enrgie braucher aber der durchschnittliche Verbrauch geht runter.
in kürze wird der selbe trend auch bei grakas beginnen.
diese kolumne halt aber auch für lächerlich, das ist typische panikmache wie sie seit jahren praktiziert wird.
das gleiche wurde schon geschrieben als der Pentium 4 die 3ghz marke überschritt und damals die 9700Pro als erste graka nen eigenen Stromanschluss rauskam.
bewahrheitet hat sich davon nichts was damals geschrieben wurde.
Das einzige problem was sich häuft ist die Stromversorgung auf LAN, wenn mal eben
5 PCs unter vollast an einer Stockdose ziehen kann es zu problmen kommen.
oder wenn son profi die kabeltrommel nicht komplett abwickelt und die dann durchbrennt
<>X4 9950BE@3,2Ghz<>2GB OCZ<>PNY Geforce 8800GT <>

"Science is like sex, sometimes something useful comes out but that is not the reason we are doing it!"(Richard P. Feynman)
NPM | Destructor ist offline   Mit Zitat antworten
Alt 06.09.2008, 15:12   #6 (permalink)
TPC Rampensau
 
Benutzerbild von borsti
 

Registriert seit: 19.11.2006
Beiträge: 8.680

borsti ist ein wunderbarer Anblickborsti ist ein wunderbarer Anblickborsti ist ein wunderbarer Anblickborsti ist ein wunderbarer Anblickborsti ist ein wunderbarer Anblickborsti ist ein wunderbarer Anblickborsti ist ein wunderbarer Anblick

Standard AW: Kolumne: Schnellere Grafikkarten bald nicht mehr möglich?

Alle sprechen von den horrenden 236W der GTX280, dabei is die Lösung reichlich einfach, eine HD 4870 bietet 99% der Performance für fast 100W weniger...

Leicht einseitige Berichterstattung mE
borsti ist offline   Mit Zitat antworten
Alt 06.09.2008, 16:02   #7 (permalink)
Bitte nicht füttern!
 
Benutzerbild von Robert
 

Registriert seit: 22.01.2002
Beiträge: 15.318

Robert kann auf vieles stolz seinRobert kann auf vieles stolz seinRobert kann auf vieles stolz seinRobert kann auf vieles stolz seinRobert kann auf vieles stolz seinRobert kann auf vieles stolz seinRobert kann auf vieles stolz seinRobert kann auf vieles stolz seinRobert kann auf vieles stolz sein

Standard AW: Kolumne: Schnellere Grafikkarten bald nicht mehr möglich?

Also erstes ist das keine Berichterstattung sondern eine Kolumne gewesen und zweites gehts hier um die Zukunft und nicht um das jetzt !

Es steht ja wohl auser frage, das der Stromverbrauch der PC gerade von Gaming PCs immer weiter steigt. Und im High End Bereich jetzt bereits ausmaße annimmt, die einen bedenklich stimmen.

Zitat:
schon die aussicht auf raytraycing is doch wohl des rätsels lösung ... keine graka mehr nur noch cpu-cores und ich denke nicht,
Also sorry, das ist um es mit deinen Worten zu sagen "alles dummes gefasel."

Weisst du überhaupt was Raytracing ist? Techniken wie Raytracing usw. sind ja noch auwender und verbrauchen somit noch mehr Leistung und noch mehr Energie! Was meinst du warum das aktuell nicht genutzt wird? Weil die Leistung nicht zu Verfügung steht!

Und Borsti, wenn ich 4 - 4870 zusammen schalte zum tollen Crossfire X habe ich damit auch 400 Watt !! klar weniger als GTX280 aber immer noch unglaublich viel.

Zitat:
so ne sicherung ist locker für ne dauerbelastung von 4000W gut
Jo das stimmt wohl, aber hast du eine extra Sicherung für deinen PC zu hause? nicht schlecht! Oder hängen da vielleicht noch ein paar andere Sachen dran, Evtl dein ganzes Zimmer + ne Klimanlage usw ^^?
Oder sogar mehrere Zimmer? Also bei mir siehts so aus das oft 2 Räume an einer Sicherung hängen.

Zitat:
der Trend geht aber bei CPUs z.B. richtung mehr effizienz und weniger energieverbrauch, klar werden die top CPUs immer ne menge enrgie braucher aber der durchschnittliche Verbrauch geht runter.
in kürze wird der selbe trend auch bei grakas beginnen.
Das ändert doch alles nichts an der Tatsache das die Leistung immer weiter steigt, und damit der Energieverbrauch. Klar wenn die Leistung irgendwann mal gleich bleiben würde, dann könnte man den Stromverbrauch senken, aber nicht bei ständnig steigender Leistung.

Zitat:
klar werden die top CPUs immer ne menge enrgie braucher aber der durchschnittliche Verbrauch geht runter.
Das halt ich derzeit noch für ein Gerücht.

Oben hat ja schon einer "Raytracing" als das Heilmittel angepriesen, das noch mehr Leistung braucht und somit NOCH mehr Energie!

Es liegt zum großten Teil auch daran, das sich keiner mehr die Mühe macht effizient zu Programmieren, da "genug" Leistung zu Verfügung steht. Also wird schlecht Programmiert und es werden Grafikkarten mit noch mehr Leistung gebaut.

Einfaches Beispiel, es wird immer mehr und schnelleres "RAM" gebraucht und mehr schnelleres RAM heißt auch mehr Energieverbrauch.

Sprechen wir uns doch in 1-2 Jahren wieder, wenn die ersten 2 KW Netzteile auf dem Markt sind. Und warum sind diese Teile auf dem Markt, weil sie gekauft werden weil es - wenn auch wenig - Leute gibt die jetzt schon Systeme mit 500-600 Watt Verbrauch haben.
Webmaster / Forumadmin [TweakPC Team]
"Das Ärgerlichste in dieser Welt ist, dass die Dummen todsicher und die Intelligenten voller Zweifel sind" Bertrand Russell - britischer Mathematiker und Philosoph (1872 - 1970)
Robert ist offline   Mit Zitat antworten
3 Benutzer bedanken sich für den Beitrag:
DaKarl (06.09.2008), hoyy (07.09.2008), snoooc (06.09.2008)
Alt 06.09.2008, 16:38   #8 (permalink)
Tweaker
 

Registriert seit: 08.12.2004
Beiträge: 420

Izibaar befindet sich auf einem aufstrebenden Ast

Standard AW: Kolumne: Schnellere Grafikkarten bald nicht mehr möglich?

Also ich werde mir demnächst einen neuen PC anschaffen und werde auf Stromschleudern verzichten. CPU wird wohl ein X4 in der 'e' Edition und somit bei 65 Watt liegen. Bei der Grafikkarte werde ich zu einer 4650 greifen, obwohl ich vom Preis und der Leistung gerne eine 4850 hätte. Eventuell wird es auch eine 4670, da warte ich erst auf Tests.
Mir ist eine ruhige und damit möglichst passive Kühlung lieber als super Leistung. Nebenbei spart man (bzw Mutti) Stromkosten. Da der PC dauerhaft läuft lohnt es sich.


Finde den Artikel übrigens gar nicht so Untergangshaft geschrieben. Er zeigt lediglich die momentane Entwicklung auf. Und kritisiert diese, womit er Recht hat. Persönlich denke ich, dass wie bei der CPU auch der Verbrauch wieder sinken wird. Auch wenn das Prestigeprodukt steigen wird.
Die größte Einschränkung dürfte auch der Notebookmarkt sein. Die Laufzeit ist jetzt schon zu gering für längeres mobiles Arbeiten.
Izibaar ist offline   Mit Zitat antworten
Alt 06.09.2008, 16:50   #9 (permalink)
0190-Telefonierer™
 
Benutzerbild von muesli
 

Registriert seit: 10.04.2002
Beiträge: 5.630

muesli wird schon bald berühmt werdenmuesli wird schon bald berühmt werden

Standard AW: Kolumne: Schnellere Grafikkarten bald nicht mehr möglich?

die 65w beziehen sich auf die wärmeverlustleistung und nicht auf den stromverbrauch. ein 4kern frisst sicherlich viel mehr saft
muesli ist offline   Mit Zitat antworten
Alt 06.09.2008, 16:56   #10 (permalink)
Strafbank!
 

Registriert seit: 28.03.2007
Beiträge: 10

sebushmcchill befindet sich auf einem aufstrebenden Ast

Standard AW: Kolumne: Schnellere Grafikkarten bald nicht mehr möglich?

ich freu mich schon den thread in 2 jahren wieder ausgraben zu duerfen xD

raytraycing ist derzeit noch leistungshungriger als raster, aber wie du sicher weißt, ist der leistungsbedarf dort nicht linear sondern annähernd logarythmisch zur grafikqualität, dh: cpus werden leistungsfähiger und energiespaarender, und ab einem bestimmten punkt ist rt besser als raster. heute noch nicht stimmt, aber wenn wir dann 80 cores bei 5watt haben (uebertreiben muss auch ma sein), pff dann kommt das schon , dann koennen selbst handys diesen chip tragen und mit strom versorgen.
also wieder zu meiner kolumne: "werden rechner bald gar keinen strom mehr brauchen?"
desweiteren gibt es neben rt und raster noch einige andere verfahren die in zukunft populärer werden könnten.

Zitat:
Oben hat ja schon einer \"Raytracing\" als das Heilmittel angepriesen, das noch mehr Leistung braucht und somit NOCH mehr Energie!
wie gesagt cpus werden leistungsfähiger und stromspaarender, warum sollte das also noch mehr energie verbrauchen? es verbrauch dann eher weniger
es gibt schon q3 und q4 als rt und das mit gerade mal 16-32 cores.
dazu eignen sich auch die derzeitigen grakas schon fuer rt. und die nächsten generationen sicherlich noch besser.
dass highendmodelle von grakas auf jeden fall immer mehr saft wollen, ya dazu gibts nur einen grund, noobkiddies kaufen sich das. allerdings werden auch die nicht alles mitmachen, weil mutti dann heult. ergo tritt die selbstregulierung des marktes in kraft.
sebushmcchill ist offline   Mit Zitat antworten
Alt 06.09.2008, 16:56   #11 (permalink)
EoN
Kaffeejunkie
 
Benutzerbild von EoN
 

Registriert seit: 01.05.2002
Beiträge: 5.035

EoN ist ein wunderbarer AnblickEoN ist ein wunderbarer AnblickEoN ist ein wunderbarer AnblickEoN ist ein wunderbarer AnblickEoN ist ein wunderbarer AnblickEoN ist ein wunderbarer AnblickEoN ist ein wunderbarer AnblickEoN ist ein wunderbarer Anblick

Standard AW: Kolumne: Schnellere Grafikkarten bald nicht mehr möglich?

Zitat:
Zitat von muesli Beitrag anzeigen
die 65w beziehen sich auf die wärmeverlustleistung und nicht auf den stromverbrauch. ein 4kern frisst sicherlich viel mehr saft
Der Stromverbrauch einer CPU beläuft sich zu 99% auf die Wärmeverlustleistung, daher ist die Annahme die hier getroffen wurde schon korrekt.
EoN ist offline   Mit Zitat antworten
Alt 06.09.2008, 17:26   #12 (permalink)
Stickstoff Junkie
 
Benutzerbild von NPM | Destructor
 

Registriert seit: 16.07.2004
Beiträge: 3.046

NPM | Destructor ist ein sehr geschätzer MenschNPM | Destructor ist ein sehr geschätzer MenschNPM | Destructor ist ein sehr geschätzer Mensch

Standard AW: Kolumne: Schnellere Grafikkarten bald nicht mehr möglich?

@Robert, dann überleg mal wieviel energie braucht eine dem letzten P4 leistungsmässig ähnliche CPU?
die Pro watt leistung ist in letzter zeit in die höhe geschossen wie nie zuvor.
auch ich nutze in meinem Zimmer noch andere verbraucher, ne lampe mit 60W,
dann bleibwen noch 3940W übrig, dann noch mein handyladegerät, braucht auch evt. so um die 50W, dann sind wir bei 3890W, rechne ich noch mein Verstärker und musikanlage weg dann sind wir bei ca. 3000W, im nachbarraum ist auch nicht viel dran, wäre ne unglückliche konstruktion wenn zwei räume mit starken verbrauchern an einer sicherung hingen.
das heist es stehen meinem PC noch ca. 2900W zur verfügung.
jetzt denk mal nach, selbst in zukunft sind knappe 3kW wärmequellen in einem PC nicht zu kühlen, selbst eine Wasserkühlung schafft das nicht.
wie ich schon gesagt habe, der durchschnitt geht runter, die spitzenmodelle werden immernoch viel brauchen, das liegt in der natur der sache.
oder regst du dich über den spritverbauch eines Ferrari auch auf?
NPM | Destructor ist offline   Mit Zitat antworten
Alt 06.09.2008, 18:38   #13 (permalink)
TweakPC Redakteur
 

Registriert seit: 18.09.2004
Beiträge: 1.189

Andreas sorgt für eine eindrucksvolle AtmosphäreAndreas sorgt für eine eindrucksvolle Atmosphäre

Standard AW: Kolumne: Schnellere Grafikkarten bald nicht mehr möglich?

Also die ganzen Argumente mit der gestiegenen pro Watt Leistung und dass die CPUs ja immer weniger verbrauchen würden, würde ich doch mal überdenken. Auch die Diskussionen wieviel Watt da noch übrig bleiben, wenn man die Haushaltsgeräte mit dazurechnet.

Erstens sind es nicht die CPUs alleine, die für den Verbrauch verantwortlich sind. Mag sein, daß die Pro MHz und pro Watt Leistung steigt, aber der Verbrauch eben auch. Vielleicht bei den CPUs momentan nicht so dramiatisch, wie bei den GPUs, aber auf lange Sicht gesehen doch kontinuierlich.

Oder will jetzt jemand ernsthaft behaupten, daß ein Pentium III mit der damaligen Topausstattung mehr verbraucht hat, als die heutigen Systeme? Der komplette Rechner hat damals so ca. 20-30 Watt im Leerlauf verbraucht. Heute sind wir im Durchnitt bei 100 Watt und mehr. Und morgen?

Windows 7 wird sich auch nicht mit 500MB begnügen, wie Windows 2000, sondern dann gleich 16GB in Anspruch nehmen. Hätte man Windows Xp z.B. in Assembler geschrieben, würde es auch auf eine Floppydisk passen.

EIn gutes Beispiel ist auch der neue Atom, der mal eben 5 Watt verbraucht. Meint denn jetzt jeder, daß dann der gesamte Rechner 5 Watt verbrauchen wird? Der dazugehörige Chipsatz frisst schon satte 25 Watt. Also das 5-fache dessen, was die CPU verbraucht. Es stimmt zwar schon, daß die neuen CPUs mehr Leistung pro Watt haben, aber auch nur deshalb, weil einer der Hersteller irgendwann damit angefangen hat. Gäbe es AMD nicht, gäbe es heute auch keine Core2Duos, die mehr Leistung bei nierdigerem Verbrauch bieten. Erst die Konkurenz und die Nachfrage nach seinen Produkten hat Intel dazu bewegt von der Wattschleuder Pentium 4 abzurücken und die Core Architektur zu entwickeln.

Und was die Sicherungen im Stromkasten angeht..... man muß nicht unbedingt 16 Ampere verbrauchen, damit die Stromleitungen in den Wänden zu qualmen anfangen. Die stoßen auch irgendwann an ihre Grenzen und werden heiß. Wieso gibt es denn Kabelbrand in den Wänden, obwohl die Sicherung nicht ausgelöst wurde? Hat sich das jemand schon mal gefragt, oder will er diese Tatsachen einfach übersehen und weiterhin so argumentieren?
Andreas ist offline   Mit Zitat antworten
2 Benutzer bedanken sich für den Beitrag:
dr_Cox (06.09.2008), Robert (06.09.2008)
Alt 06.09.2008, 19:55   #14 (permalink)
Tweaker
 
Benutzerbild von StingR4Y
 

Registriert seit: 16.11.2007
Beiträge: 740

StingR4Y sorgt für eine eindrucksvolle AtmosphäreStingR4Y sorgt für eine eindrucksvolle AtmosphäreStingR4Y sorgt für eine eindrucksvolle Atmosphäre

Standard AW: Kolumne: Schnellere Grafikkarten bald nicht mehr möglich?

Eigentlich müsste man mal so zwischenfragen um was für einer Zeitspanne wir eigentlich reden.
Solang unsere Computer noch auf Transistoren basieren wird der Stromverbrauch generell anwachsen. Irgendwann wird sich aber eine neue Technologie durchsetzen, und spätestens dann wird der Stromverbrauch nochmal so runterkorrigiert wie damals von der Triode zum Transistor. Dann könnten PCs allein durch die Strahlung die inner Luft ist betrieben werden und somit wirklich 0 Watt aus der Steckdose saugen.
Klar das könnte noch ein Weilchen dauern, aber ich meine das irgend n Typ von Intel gesagt hat das bei 25nm Schluss ist. Bis dahin werden die sich garantiert was einfallen lassen (oder die Produktion absichtlich verzögern bis sie was haben)
StingR4Y ist offline   Mit Zitat antworten
Alt 06.09.2008, 20:23   #15 (permalink)
Bitte nicht füttern!
 
Benutzerbild von Robert
 

Registriert seit: 22.01.2002
Beiträge: 15.318

Robert kann auf vieles stolz seinRobert kann auf vieles stolz seinRobert kann auf vieles stolz seinRobert kann auf vieles stolz seinRobert kann auf vieles stolz seinRobert kann auf vieles stolz seinRobert kann auf vieles stolz seinRobert kann auf vieles stolz seinRobert kann auf vieles stolz sein

Standard AW: Kolumne: Schnellere Grafikkarten bald nicht mehr möglich?

Ich find das ja super das einige hier fast einen "gott" glauben in die Technik setzen, ich kann nur sagen, das ich set dem C64 nur eins in der Computertechnik sehe.

-> immer mehr Stromverbrauch
-> immer mehr Hitze
-> schneller gehts irgendwie auch nicht (ok man kann mehr machen) aber mit dem C64 hab ich letzentlich genauso gezockt wie heute auch, ausser das es nicht so nett aussah.

Nur mal eine kleiner einblick hier in die Redaktion! Ich Test Grafikkarten in einem ca 16m² großen RAUM. Dort stehen 3 Testsysteme, aber bereits 1 Quad SLI System (verbrauch ca 600 Watt) um den RAUM so stark aufzuheizen, dass ich ne Klimaanlage anschalten muss um es dort auszuhalten.

So und auch wenns doof klingt ich habe in diesem RAM bereits eine Extra Stromleitung mit Extra Sicherung, wenn wenn ich 3 Testsyteme und die Klimaanlage laufen habe, dann kann man sich den Stromverbrauch recht einfach vorstellen!

Und die High End Karten die ich heute Teste also GTX260 etc., dass sind die günstigen Karten von morgen, vielleich mit einem Die ******, denn man aber auch nicht unendlich weiter treiben kann.
Robert ist offline   Mit Zitat antworten
Alt 06.09.2008, 20:36   #16 (permalink)
Bitte nicht füttern!
 
Benutzerbild von Robert
 

Registriert seit: 22.01.2002
Beiträge: 15.318

Robert kann auf vieles stolz seinRobert kann auf vieles stolz seinRobert kann auf vieles stolz seinRobert kann auf vieles stolz seinRobert kann auf vieles stolz seinRobert kann auf vieles stolz seinRobert kann auf vieles stolz seinRobert kann auf vieles stolz seinRobert kann auf vieles stolz sein

Standard AW: Kolumne: Schnellere Grafikkarten bald nicht mehr möglich?

Zitat:
Zitat von sebushmcchill Beitrag anzeigen
dass highendmodelle von grakas auf jeden fall immer mehr saft wollen, ya dazu gibts nur einen grund, noobkiddies kaufen sich das. allerdings werden auch die nicht alles mitmachen, weil mutti dann heult. ergo tritt die selbstregulierung des marktes in kraft.
Nett gesagt, du siehst, das die "Leistungsteigerung" bald schneller ein Ende haben wird als man vielleicht denkt, denn wegen des Stromverbrauchs und der Kosten, die in etwa genauso eine Grenze darstellen, wie die Leistung der Steckdose, wird die derzeitige Methode zur Leistungssteigerung schon bald ein Ende haben!

Oder wird hier jemand eine Grafikkarte kaufen die alleine schon 500 Watt Leistung verbraucht, schon wegen der Stromkosten sicher nicht.

Schon jetzt regen sich alle über die neuen GeForce auf. sagen wir die nächste Karte ist 10x so schnell brauch aber 500 Watt. Die Karte wird sich so gut wie nicht verkaufen und was sich nicht verkauft, wird eigentlich auch selten gebaut.

Also andersrum, betrachtet man den bisherigen Verbrauchsanstiegt, wie lange wird es dauern bis an eine Grenze kommen wo die Leistung einfach durch die Betriebskosten "gestoppt" wird.

Danach wird sich die Leistung nur noch Steigern, wenn in gleichen Maße Strom gespart wird. Sprich die nächste Grafikkarte wird auch nur maximal 500 Watt brauchen dürfen.

aktuell wird der Verbrauch aber doch eigentlich nur durch Die ******s reduziert. Da diese aber nicht so schnell kommen wie die Leistung steigt wird meiner Ansicht nach der Fall oben evtl schneller eintreten als man denkt.
Robert ist offline   Mit Zitat antworten
Alt 06.09.2008, 21:41   #17 (permalink)
Heimkehrer
 
Benutzerbild von Uwe64LE
 

Registriert seit: 23.02.2003
Beiträge: 8.058

Uwe64LE kann auf vieles stolz seinUwe64LE kann auf vieles stolz seinUwe64LE kann auf vieles stolz seinUwe64LE kann auf vieles stolz seinUwe64LE kann auf vieles stolz seinUwe64LE kann auf vieles stolz seinUwe64LE kann auf vieles stolz seinUwe64LE kann auf vieles stolz seinUwe64LE kann auf vieles stolz sein

Standard AW: Kolumne: Schnellere Grafikkarten bald nicht mehr möglich?

Zitat:
Zitat von Andreas TweakPC Beitrag anzeigen
Heute sind wir im Durchnitt bei 100 Watt und mehr. Und morgen?
Ich stimme dem Grundtenor deines Beitrages zu, aber diesen Passus möchte ich aus zwei Gründen nicht unkommentiert stehen lassen:

Es gibt Hersteller, die sehr wohl Wert darauf legen, dass sie auch Systeme im Programm haben, die bedeutend weniger verbrauchen. Der Begriff "Green IT" wird zwar oft aus marketingtechnischen Gründen vergewaltigt, ein gewisses Interesse einer zwar noch relativ kleinen Benutzergruppe ist aber sichtbar.
Ich habe zwar gerade kein Messgerät angeschlossen, der genaue Wert steht aber im Stromverbrauchs-Thread. Mein Fujitsu Siemens Esprimo pro Green selection mit E8400 und 4GB RAM verbraucht mit onboard-Grafik ca. 40 W im Leerlauf. Wie weit ich den Verbrauch nach oben treibe, hängt von der verwendeten Grafikkarte (und somit von mir) ab.


Wir alle als Nutzer sind mit verantwortlich für diesen Trend. In einem Kaufberater-Thread hab ich vor kurzem 2 Gigabyte-Boards empfohlen, die im standby 4 oder 5 Watt verbrauchen. Der allgemeine Trend ging jedoch zu MSI Boards. Mein Hinweis auf einen Test in der c't, bei dem die beiden MSI Boards mit einem standby Verbrauch von 65W negativ auffielen, wurde mit "Stromverbrauch interessiert mich nicht" kommentiert.

Geändert von Uwe64LE (07.09.2008 um 18:19 Uhr)
Uwe64LE ist offline   Mit Zitat antworten
Alt 07.09.2008, 02:26   #18 (permalink)
TPC Rampensau
 
Benutzerbild von borsti
 

Registriert seit: 19.11.2006
Beiträge: 8.680

borsti ist ein wunderbarer Anblickborsti ist ein wunderbarer Anblickborsti ist ein wunderbarer Anblickborsti ist ein wunderbarer Anblickborsti ist ein wunderbarer Anblickborsti ist ein wunderbarer Anblickborsti ist ein wunderbarer Anblick

Standard AW: Kolumne: Schnellere Grafikkarten bald nicht mehr möglich?

Zitat:
Zitat von Andreas TweakPC Beitrag anzeigen
Also die ganzen Argumente mit der gestiegenen pro Watt Leistung und dass die CPUs ja immer weniger verbrauchen würden, würde ich doch mal überdenken. Auch die Diskussionen wieviel Watt da noch übrig bleiben, wenn man die Haushaltsgeräte mit dazurechnet.
Bessere pro Watt Leistung heißt nicht, dass die gesammte Aufnahme sinkt.


Zitat:
Erstens sind es nicht die CPUs alleine, die für den Verbrauch verantwortlich sind. Mag sein, daß die Pro MHz und pro Watt Leistung steigt, aber der Verbrauch eben auch. Vielleicht bei den CPUs momentan nicht so dramiatisch, wie bei den GPUs, aber auf lange Sicht gesehen doch kontinuierlich.
Richtig, überdenk doch mal, wieviele P3 du zusammenschließen müsstest, um auch nur an die Leistung eines Penryns oder X2 zu kommen.

Zitat:
Oder will jetzt jemand ernsthaft behaupten, daß ein Pentium III mit der damaligen Topausstattung mehr verbraucht hat, als die heutigen Systeme? Der komplette Rechner hat damals so ca. 20-30 Watt im Leerlauf verbraucht. Heute sind wir im Durchnitt bei 100 Watt und mehr. Und morgen?
Wenn ich unter Leerlauf jetzt mal idlen auf dem Desktop oder im Browser verstehe, dann könnte ein P3 System mit entsprechender Grafik unter der Software von heute garnicht erst in den "Leerlauf" geraten, die wären nämlich ständig unter Vollast und der entsprechende Verbrauch wäre dann auch nicht mehr so viel geringer als dien Hardware von heute, die da in CnQ/Eist und im 2D Modus läuft.


Zitat:
Windows 7 wird sich auch nicht mit 500MB begnügen, wie Windows 2000, sondern dann gleich 16GB in Anspruch nehmen. Hätte man Windows Xp z.B. in Assembler geschrieben, würde es auch auf eine Floppydisk passen.

EIn gutes Beispiel ist auch der neue Atom, der mal eben 5 Watt verbraucht. Meint denn jetzt jeder, daß dann der gesamte Rechner 5 Watt verbrauchen wird? Der dazugehörige Chipsatz frisst schon satte 25 Watt. Also das 5-fache dessen, was die CPU verbraucht. Es stimmt zwar schon, daß die neuen CPUs mehr Leistung pro Watt haben, aber auch nur deshalb, weil einer der Hersteller irgendwann damit angefangen hat. Gäbe es AMD nicht, gäbe es heute auch keine Core2Duos, die mehr Leistung bei nierdigerem Verbrauch bieten. Erst die Konkurenz und die Nachfrage nach seinen Produkten hat Intel dazu bewegt von der Wattschleuder Pentium 4 abzurücken und die Core Architektur zu entwickeln.
Frage:
Wie kommen wir vom Thema verbrauch aktueller Systeme zum Vor und Nachteil von Konkurrenz?

Und der Atom...
Der ist ja wohl mal der Witz dieses noch ausgesprochen jungen Jahrhunderts; der mag ja sehr verbrauchsarm sein, fällt dafür aber auch in der Leistung auf das Level eines P3 zurück. Wenn man dann die Zeit seit dem P3 bedenkt ist diese Verbrauchsminimierung angesichts ähnlicher Leistung nun wirklich kein Paradebeispiel des Energiesparens, da gebe ich dir Recht, das ist Augenwischerei.
Und nun doch ohne Nachfrage zum Thema Konkurrenzkampf:
Erst der Konkrurrenzkampf hat solche Wattschleudern wie den P4 doch erst entstehen lassen. Man hätte den sicher nicht krampfhaft im Takt so hochgeknüppelt wenn man nicht entsprechende Gegenstücke bei AMD zu "bekämpfen" gehabt hätte. AMD fördert sicher nicht alleine eine Minimierung des Energieverbrauchs, das ist für beide Firmen gleichermaßen ein Aspekt in ihren Verkaufsargumenten und solange der Schrei nach mehr Leistung lauter ist als der Schrei nach weniger Verbrauch, werden beide ihre Prozessorfamilen in entsprechende Taktregionen mit entsprechendem Vcore und Verbrauch prügeln. Bevor nicht von beiden ein Kampf um den Verbrauch um den vor Performancesteigerung beginnt nehmen die sich beide in der Energiepoltik mal garnichts.

Zitat:
Und was die Sicherungen im Stromkasten angeht..... man muß nicht unbedingt 16 Ampere verbrauchen, damit die Stromleitungen in den Wänden zu qualmen anfangen. Die stoßen auch irgendwann an ihre Grenzen und werden heiß. Wieso gibt es denn Kabelbrand in den Wänden, obwohl die Sicherung nicht ausgelöst wurde? Hat sich das jemand schon mal gefragt, oder will er diese Tatsachen einfach übersehen und weiterhin so argumentieren?
Wenn deine Leitung brennt bevor die Sicherung kommt hast du wohl einen wirklich unfähigen Elektriker beschäftigt. Sorry aber wo brennt denn die Wand bevor die Sicherung kommt, das hab ich noch ja nun noch nie gesehen.

MfG

Geändert von borsti (07.09.2008 um 02:51 Uhr)
borsti ist offline   Mit Zitat antworten
Alt 07.09.2008, 07:16   #19 (permalink)
Coxito ergo sum
 
Benutzerbild von dr_Cox
 

Registriert seit: 23.02.2007
Beiträge: 8.119

dr_Cox kann auf vieles stolz sein
dr_Cox kann auf vieles stolz sein

Standard AW: Kolumne: Schnellere Grafikkarten bald nicht mehr möglich?

Ach jetzt hängt euch doch nicht an Kleinigkeiten wie "Systemkonfiguration X braucht mit Onboardgraka ganz wenig Strom" oder "Im Standby verbraucht Produkt A weniger als Produkt B auf".
Das ist Augenwischerei, weil auf beiden System lässt sichs nicht Zocken, weder mit Intel IGP, noch im Standby!

Hier gehts um den Stromverbrauch von Gamer-Grakas und der geht nach wie vor durch die Decke!

Klar kann man sagen: Ich stelle mein System nicht nur nach Leistung, sondern auch nach Stromverbrauch zusammen. Aber das macht ja keiner, auch keiner von euch!
Ich kenn euch ja, wer hatte ne 8800GTer und wer ne 3870er? Das Strom/Performance Verhältnis der 3870 ist besser...

Also dann bitte die Finger hoch, wer dem Energiesparen Vorrang gegeben hatte (nein, ich nicht).

LG
dr_Cox ist offline   Mit Zitat antworten
Alt 07.09.2008, 13:39   #20 (permalink)
Stickstoff Junkie
 
Benutzerbild von NPM | Destructor
 

Registriert seit: 16.07.2004
Beiträge: 3.046

NPM | Destructor ist ein sehr geschätzer MenschNPM | Destructor ist ein sehr geschätzer MenschNPM | Destructor ist ein sehr geschätzer Mensch

Standard AW: Kolumne: Schnellere Grafikkarten bald nicht mehr möglich?

Hier werden teilweise sehr eigenartige Argumente herangezogen.
wenn deine Wand brennt bevor die sicherung auslöst dann hast du verpennt jene mal zu tauschen, sicherungen werden mit der Zeit auch alt, und sollten besonders wenn es sich um einen Altbau handelt mal gewechselt werden, aus diesem grund sollen auch FI schutzschalter regelmässig geprüft werden, was aber keiner macht.
und ein Quad-SLI system hier als beispiel anzuführen halte ich für sehr zweifelhaft, abgesehen davon das nur ein minimaler bruchteil aller PC nutzer so ein system sein eigen nennt interessiert sich jemand der soviel geld für seinen PC ausgibt sicher nicht der Stromverbrauch, das muss ihm vorher klar sein.
wie ich schon mal erwähnte, jemand der sich nen Bugatti Veyron leistet beschwert sich beim tanken nicht über den spritverbrauch.
der allgemeine stromverbrauch eines typischen normalo PCs ist zurückgegangen.
was den verbrauch wieder in die höhe treibt sind die gestiegenen anforderungen.
letzding durfte ich ein notebook eines freundes benutzen bei welchem das tolle windows vista im leerlauf schon zwischen 10-20% CPU auslastung benötigte, wenn man programme ausführte bedeutete das sofort ne mörder auslastung und damit stromverbrauch.
unt trotzdem kann das system im erbrauch mit meinem alten Pentium M 1,6Ghz auf XP mithalten, der braucht beinahe das gleiche.
das die topmodelle weiterhin viel strom brauchen ist logisch und das wird auch weiter steigen bis die grenze des vertretbaren verbrauches erreicht ist.
und diejenigen die sowas kaufen wird es auch weiterhin nicht interessieren.
jene dies interessiert kaufen sich keine high-end produkte sondern mainstream.
und jene die sich über den hohen stromverbrauch beschweren sollten drüber nachdenken ob sie vllt. mit F@H aufhören, das würde sehr viel strom sparen.
NPM | Destructor ist offline   Mit Zitat antworten
Alt 07.09.2008, 14:56   #21 (permalink)
TweakPC Redakteur
 

Registriert seit: 18.09.2004
Beiträge: 1.189

Andreas sorgt für eine eindrucksvolle AtmosphäreAndreas sorgt für eine eindrucksvolle Atmosphäre

Standard AW: Kolumne: Schnellere Grafikkarten bald nicht mehr möglich?

In der Tat werden hier eigenartige Argumente herangezogen, dass z.B der Stromverbrauch eines normalo PCs zurückgegangen sein, oder dass ein Pentium III heute garnicht in den Leerlauf geraten könnte, bei der Software, die man heute verwendet. Also ein Pentium III war auch ein normalo PC und selbst mit Windows XP und der Software drauf gerät er immer noch in den Leerlauf. Damit kann man zwar die heutigen Spiele nicht mehr spielen, aber darauf arbeiten lässt es sich immer noch ganz gut. Man braucht ja auch nicht unbedingt Vista, um normal arbeiten zu können. Der Unterschied zwischen meinem alten Pentium III und dem heutigen normalo PC, den ich verwende liegt bei 80 Watt Mehrverbrauch im Leerlauf. Spielen tue ich sowieso nicht und aufgerüstet habe ich immer aus einem Grund. Nicht die Leistung der CPU war entscheident, sondern weil die Software immer mehr Speicher benötigt und man z.B. einen Pentium III kaum auf 4GB aufrüsten kann.

Und was die tollen Gegenargumente zum Kabelbrand angeht. Ich rede nicht von unsachgemäßer Installation, defekten Sicherungen oder Altbauten, sondern von Tatsachen trotz Einhaltung der Normen, wobei später die Sicherungen auf ihre Funktionalität hin geprüft wurden. Die lösen ja auch aus, aber erst nachdem die Schutzummantelung der Kabel wegekokelt ist und ein fetter Kurzschluß in der Wand entstanden ist. Die Dicke der Kabel ist ja auch genormt und der maximale Strom hängt vom Durchmesser und dem Innenwiederstand ab. Es reicht ja auch schon, daß eins der Kabel an einer Stelle dünner ausfällt, beschädigt ist oder an Materialermüdung leidet. Die maximale Belastbarkeit ist eben nur so hoch, wie das schwächste Glied in der Kette.

Was die meisten von euch aber übersehen ist die Tatsache, daß bei einem Verbrauch von z.B. 1000 Watt auch mal die doppelte Amperezahl durch die leitungen fließen kann, wenn z.B die Phasenkorrektur bei 50% liegt. Dann fließen keine 4.3 Ampere sondern satte 8.6 Ampere durch das Kabel. Je schlechter die Phasenkorrektur, desto mehr Ampere fileßen durch die Leitungen. Bereits bei einer miserablen Phasenkorrektur von nur 25% fließen 16 Ampere durch die Kupferkabel, obwohl der Effektivverbrauch in diesem Fall auch bei 1000 Watt liegt.

Und nebenbei bemerkt. Wenn der Verbrauch im StandBy bei 40-65 Watt liegt, hat man wohl ein ganz anderes Problem.
Andreas ist offline   Mit Zitat antworten
Alt 07.09.2008, 14:57   #22 (permalink)
Extrem Tweaker
 
Benutzerbild von Seebaer
 

Registriert seit: 10.04.2002
Beiträge: 2.133

Seebaer ist ein LichtblickSeebaer ist ein LichtblickSeebaer ist ein LichtblickSeebaer ist ein LichtblickSeebaer ist ein Lichtblick

Standard AW: Kolumne: Schnellere Grafikkarten bald nicht mehr möglich?

@ dr_Cox

*Finger hoch heb* Ich hab meinen letzten Barebone nach Stromverbrauch, Hitzeentwicklung und Lautstärke zusammengebaut.
Seebaer ist offline   Mit Zitat antworten
Für diesen Beitrag bedankt sich:
dr_Cox (07.09.2008)
Alt 07.09.2008, 15:17   #23 (permalink)
Stickstoff Junkie
 
Benutzerbild von NPM | Destructor
 

Registriert seit: 16.07.2004
Beiträge: 3.046

NPM | Destructor ist ein sehr geschätzer MenschNPM | Destructor ist ein sehr geschätzer MenschNPM | Destructor ist ein sehr geschätzer Mensch

Standard AW: Kolumne: Schnellere Grafikkarten bald nicht mehr möglich?

mich würde interessieren wie alt dein Netzteil ist wenn es keine blindleistungs komepensation hat im falle das ein üblicher trafo seinen diesnt verrichtet.
ebenso kannst du davon ausgehen das du kleines Netzteil die phase niemals so stark verschiebt das du auf nen phi von 0,5 kommst.
das ist totaler humbug tut mir schrecklich leid wenn ich sowas sagen muss aber es ist so.
kenn mich da bisschen aus was schein blind und effektiv leistung im drehstromnetz angeht.
ein Pentium 3 hatte als coppermine ne leistungsaufnahme von 35W, ein Celeron 460 mit 2,4Ghz hat ebenfalls 35W
und warum hast du den nicht gekauft wenn es dir doch so ums stromsparen geht?
NPM | Destructor ist offline   Mit Zitat antworten
Alt 07.09.2008, 15:22   #24 (permalink)
TPC Rampensau
 
Benutzerbild von borsti
 

Registriert seit: 19.11.2006
Beiträge: 8.680

borsti ist ein wunderbarer Anblickborsti ist ein wunderbarer Anblickborsti ist ein wunderbarer Anblickborsti ist ein wunderbarer Anblickborsti ist ein wunderbarer Anblickborsti ist ein wunderbarer Anblickborsti ist ein wunderbarer Anblick

Standard AW: Kolumne: Schnellere Grafikkarten bald nicht mehr möglich?

Gut gut, gehen wir weg vom normalo PC zu Spielerechnern...

Ich gehe jetzt einfach mal davon aus, dass ich mein System durchaus als GaminPC bezeichnen darf, die HD4850, E8400, 3 3,5" HDDs, Wakü und sonst was für Spielereien inkl TFT ziehen trotz OC insgesammt 250W aus der Dose.
Die können nicht mal die DDR Aluminium Leitung in der Wand zum schwitzen bringen.

Im Endeffekt dreht es sich doch echt um die DIE Gieganten von Nvidia und vlt noch der 4870X2, ansonsten kann man doch bei 157W für eine High End Karte doch nicht von einem horrenden Anstieg sprechen...

Das kling jetzt zwar nach fanboy, doch wer nicht auf die Idee kommt ne gtx280 zu nutzen, dem schmort auch nicht die Leitung durch
borsti ist offline   Mit Zitat antworten
Alt 07.09.2008, 15:29   #25 (permalink)
TweakPC Redakteur
 

Registriert seit: 18.09.2004
Beiträge: 1.189

Andreas sorgt für eine eindrucksvolle AtmosphäreAndreas sorgt für eine eindrucksvolle Atmosphäre

Standard AW: Kolumne: Schnellere Grafikkarten bald nicht mehr möglich?

Hängt denn an deiner Steckdose nur das Netzteil dran, und geht das Kabel von der Steckdose direkt zu einer 16A Sicherung, oder hängen vielleicht noch mehr Verbraucher oder gar ganze Räume an der selben Leitung und Sicherung? Ich wette bei dir hängt alles im Haushalt an einem Netzteil, das eine so tolle Phasenkorrektur hat.

Ich rede auch nicht von der Maximalleistung eines Pentium III, sondern dem, was das Gesamtsystem im Leerlauf verbraucht. Vielleicht sollte man mal etwas genauer lesen, was ich schreibe und die Scheuklappen ablegen und das drum herum auch berücksichtigen.

Schön, daß ein Celeron 460 auch nur maximal 35 Watt verbraucht. Bei dir frisst wohl nur die CPU Strom. Der Rest wird sicherilich auch durch die schon erwähnte kosmische Strahlung betrieben.
Andreas ist offline   Mit Zitat antworten
Antwort


Aktive Benutzer in diesem Thema: 1 (Registrierte Benutzer: 0, Gäste: 1)
 
Themen-Optionen
Ansicht

Forumregeln
Es ist dir nicht erlaubt, neue Themen zu verfassen.
Es ist dir nicht erlaubt, auf Beiträge zu antworten.
Es ist dir nicht erlaubt, Anhänge hochzuladen.
Es ist dir nicht erlaubt, deine Beiträge zu bearbeiten.

BB-Code ist an.
Smileys sind an.
[IMG] Code ist aus.
HTML-Code ist aus.
Trackbacks are an
Pingbacks are an
Refbacks are an


Ähnliche Themen
Thema Autor Forum Antworten Letzter Beitrag
[News] Phenom II X3 zu Phenom X4 freischalten bald nicht mehr möglich? TweakPC Newsbot News 0 27.02.2009 14:05
[News] Die Geforce FX 5900 XT bald nicht mehr auf den Markt? TweakPC Newsbot News Archiv 0 05.12.2008 06:37
[News] xbox.com/de bald nicht mehr kostenlos? TweakPC Newsbot News Archiv 0 03.10.2008 14:55
Systemwiederherstellung nicht mehr möglich ?! Roofus Windows & Programme 3 04.09.2003 20:48
OC nicht mehr möglich & Fehlermeldung Gast AMD: CPUs und Mainboards 8 10.06.2003 20:20


Alle Zeitangaben in WEZ +1. Es ist jetzt 09:31 Uhr.




Powered by vBulletin® Version 3.8.10 (Deutsch)
Copyright ©2000 - 2020, vBulletin Solutions, Inc.
SEO by vBSEO 3.5.2 ©2010, Crawlability, Inc.
Impressum, Datenschutz Copyright © 1999-2015 TweakPC, Alle Rechte vorbehalten, all rights reserved