Ich frag' mich nur wieso nVidia das Interface kastriert und dafür die Takte nach oben dreht, das bringt doch mehr Stromverbrauch und Hitze wenn man gleiche Leistung will.
Das ist der Grund wieso ich ATi Fan bin. Das ist wie AMD/Intel genauso ist ATi/nVidia. Bei AMD kriegste viel Leistung/Takt und bei Intel halt viel Takt. Bei ATi kriegste ebenfalls viel Leistung/Takt und bei nVidia halt viel Takt.
Deswegen sind die nVidie 6800 Karten auch solche "Schreihalse" von den FANs her, die Coreclocks müssen halt einfach alles rausreißen... das halte ich persönlich für noch nicht ausgereift. Bin gespannt wann nVidia schnallt dass Befehlssatzoptimierung und Speicherinterface wichtiger sind als die puren MHz...
Oder dass man mit einem modernen Fertigungsprozess erstmal die Verlustleistung "auf den Boden der Tatsachen" bringen muss bis man an der Clockschraube drehen kann.
Außerdem halte ich ATi vom Preis/Leistungs-Verhältnis für besser (was bei der X800 Serie auch nur noch bedingt stimmt, weil die sehr teuer ist). Mich hat man schon gefragt: "Wieso hastn ne ATi? Kannst Dir keine nVidia leisten?" Auch dort passt der Vergleich AMD/Intel wieder. Intel = imho zu teuer.
Aber jeder so wie er's gern hat...