...aber das Schärfste ist, die Abwärme muss mer erstmal wieder aus dem Rechner bekommen, fürher hatten die Nvidia Hammerkarten ja wenigstens noch die Möglichkeit, die Abwärme (zumindest zum Teil) direkt aus dem der GraKa nächsten Slot zu befördern.
Korregiert mich, falls ich mich da täusche, aber auf den Fotos der neuen Nvidias sieht das so aus, dass der Kühlkörper zwar zwei Slots blockiert, die Hitze aber im Gehäuse bleibt.
Zumindest sehe ich keinen "Luftkanal", der die Abwärme direkt aus dem Gehäuse transportiert.
http://www.de.tomshardware.com/graph...0ultra-03.html
Also: Kauft Euch so eine Karte und vergesst passive NT und leise Lüfter, neben dem Lärm, den der GraKa-Lüfter selber schon produziert (sh. auch Toms Hardware) werden vermutlich noch einige "turbinen" benötigt, um die Abwärme der Karte (immerhin mehr, als eine aktuelle Intel P IV CPU - und die gelten ja schon als Heizkraftwerk) aus dem Gehäuse zu bekommen.
Vom Einsatz in kleinen Barebones ganz zu schweigen (da passt sie ja eh nur, wenn mer dafür auf die TV-Karte verzichtet).
Was bei der R800 laut Berichten ja möglich sein soll - auch von der Abwärme (!)
Mir liegt eigentlich nix daran, Nvidia zu diskreditieren, war ja selber stolzer Besitzer einer GF 1 DDR
.
Die Anforderungen neuer Spiele sind mörderisch und jeder GraKa-Entwickler, der sich dieser Herausforderung stellt, verdient unsere volle Bewunderung (ehrlich).
Aber ich finde, dass Nvidia da momentan auf dem falschen Weg ist, insbesondere unter Berücksichtigung des Trends, dass auch Gamer "Ruhe in der Bude" immer mehr schätzen lernen.
Gruesslies
Weazle