und dass UT 2004 auf 1024er Auflösung mit allen details high und 2xAA und 2xAF ruckelfrei rennt kann nicht sein, hakt ja soger je nach Map auf meinem P4 mit 9800Pro (wenn auch nur gaaaaaanz selten)
Ohne AntiAliasing und ohne AntiFlash geht's sogar ruckelfrei auf höchstem Detaillevel und 1280x1024 Auflösung im Fullscreen! Tja haken tut's manchmal (wenn zum Beispiel ein neuer Levelbereich sichtbar wird) aber danach läuft's wieder total glatt!
tja, gut dass ich weiß, dass es schlichtweg nicht möglich ist.
der letzte rechner den ich mit ner 5200 ausgestattet hatte wurde zunehmend vom sohn des kunden, den ich auch ganz gut kenne benutzt.
selbst UT 2003 war die reinste zumutung, und an AA oder AF trau ich mich bei so ner Krücke gar net zu denken.
OK, ich bin Hardware-Junkie, aber ich weiß auch, ab wann ein game spielar ist und ab wann nicht.
unter 30Fps sollte ein game während des spiels NIEMALS absinken.
Na ja, wir haben den Vater bequatscht, die beiden haben halbe halbe gemacht und ich habe 5950 Ultra eingebaut
wenn ich bock hab geh ich mal in den keller, wenn ich zu hause bin, ich mein da fliegt noch irgendwo ne 5200 rum, wenn ich mich nicht irre.
die werd ich mal mit UT 2004 testen, und mit fraps nen vid machen
mit Genuss habe ich gestern alle 11 Seiten gelesen und mich gut amüsiert... Was sich dann doch keiner so richtig getraut zu sagen, lese ich grad in der GameStar und werfe mich weg :
(Test der "Radeon 9550 Platinum") ....... "Wer aber nur gelegentlich spielt, bekommt mit der Gecube Karte immer noch mehr 3D Power als bei Nvidias Spiele-Gurke Geforce FX5200"
unter 30Fps sollte ein game während des spiels NIEMALS absinken.
Naja gut - wenn Du so hohe Absprüche stellst, dann ist UT2004 mit höchstem Detaillevel und 1280x1024 natürlich auf der 5200 NICHT spielbar - aber 15-20 fps sollten echt reichen! Natürlich ist die 5200 nicht im Geringsten High-End, aber hätte ich High-End gewollt, hätte ich mir ne GeForce 6xxx besorgt. Denk' dran! Ich bin die Frameraten der GeForce 2 gewohnt! Da iss die 5200 ne Revolution gegen!
Hab ein kleines OCing Experiment mit der 5200 (mit Originalkühler und Lüfter) durchgeführt:
Ich gebe immer an: GPUclock/RAMclock/AQUAMARK3score
250/331 sind die SPEC-Freqs und macht 7,884 auf Aquamark!
260/350/8,307
270/360/8,619
Ab hier wurde ich mutiger!!
280/375/8,933
300/380/9,354
315/390/CRASH
Naja... Dazu muss man sagen dass ich sämtliche regelbaren Lüfter total aufgedreht habe weil ohne Nachregeln der Lüfter die CPU nach dem OCen der GPU über die 60° Hürde gejumpt ist und auch die Northbridge mit 40° nicht gerade kühl war! Was GPU und DRAM bei diesem kleinen Experiment mitgemacht haben will ich garnicht wissen!
Ich gebe keine Garantie dass das immer so weit führt und auch keine Haftung für eventuelle Schäden beim Nachmachen! Dass OCing die Hardware zerstören kann sollte euch klar sein!
Wäre mal interessant zu wissen ob mit dem Heatpipekühler mehr oder weniger geht!
will dich jetzt nich wieder auf den boden der tatsachen zurückholen, aber ich schaff 40.000 punkte und mehr (un-oced)
wenn du wirklich noch was rausholen willst, dan leg dir den revoltek-kühle roder eine vga-silencer zu (wenn einer passt) nur dann kannst du wirklich die 10k grenze mit vertretbarer temperatur schaffen
@ Qndre
hast du nicht gesagt das ne 4ti4200 schlechter sei als deine 5200er?
(meine ich irgenwo vor 4 seiten oder so gelesen zu haben)
nu hab ich mal Aqumark3 durchlaufen lassen und komm auf 24,176 pkte
OCed sogar auf 26,547pkte
also mach mir hier keine gf4ti4200 schlecht
@ Qndre
hast du nicht gesagt das ne 4ti4200 schlechter sei als deine 5200er?
(meine ich irgenwo vor 4 seiten oder so gelesen zu haben)
nu hab ich mal Aqumark3 durchlaufen lassen und komm auf 24,176 pkte
OCed sogar auf 26,547pkte
also mach mir hier keine gf4ti4200 schlecht
Würde ich mich nie wagen! Hab auch schon die Reviews gelesen. Die 4er Generation von GeForce ist (abgesehen von einigen Macken wie mangelnder Unterstützung unter Linux soweit ich weiß) nicht schlecht und wartet auch für Zocker mit hohen Frameraten auf. Wie die Bildqualität aussieht vermag ich hier nicht zu beurteilen, da ich es ehrlich gesagt nicht weiß. Andererseits glaube ich nicht dass eine leistungsfähigere (und damit auch teurere) Grafikkarte entscheidend mehr Speed in mein System gebracht hätte, denn meine CPU ist selbst mit dieser (verglichen mit echten highend karten wie der 6er generation ja doch eher langsamen) Karte zu 100% ausgelastet (bei der CPU handelt es sich um einen 1,8 GHz AMD Palomino Prozessor).
Wie gesagt: Wenn man eine GeForce 2 gewohnt war kommt einem die 5200 schnell vor.
Ich glaube schon das z.B. eine FX5900XT auch mit dem 1800er Palomino wesentlich höhere Frameraten erzielen würde (3 wenn nicht sogar 4 mal so viel). Und die kostet gerade mal 100€ mehr als deine. In den meisten Spielen hat die GraKa mehr einfluss auf die gesamtperformance als der Prozessor.
Ich glaube schon das z.B. eine FX5900XT auch mit dem 1800er Palomino wesentlich höhere Frameraten erzielen würde (3 wenn nicht sogar 4 mal so viel). Und die kostet gerade mal 100€ mehr als deine. In den meisten Spielen hat die GraKa mehr einfluss auf die gesamtperformance als der Prozessor.
Mag sein! Schlechter wird die Performance durch eine bessere Grafikkarte auf keinen Fall! Nur warum ist die neuere 5200 langsamer als die vergleichsweise alte 4200 Ti? Um mit dem Preisdumping auf dem PC-Markt mitzuhalten? Ist die 5200 also so eine Art "Duron" unter den Grafikkarten während die 4200 Ti einen "Athlon" darstellen würde?
PS: FX5900XT ist doch eine "abgespeckte" FX5900, oder? Also das was früher MX war, oder verwechsele ich da irgendwas? Hauptgrund für den Kauf der Karte war ja auch dass sie DVI-D Ausgang hat, was den digitalen Anschluss meines 17" TFT Flachbildschirms ermöglicht.
du verwechselst da was ganz grob,
bei den Gf4kam bei der einteilung erst des MX und dann Ti,und alle ti waren schneller als die MX
bei den FX is des anders, dabei gehts um erster linie um die nummer also 59xx oder 56xx 52xx usw. erst dnach kommen die kürzel wie Ultra XT LE usw. d.h. die 5900 XT ist nur ne leicht abgespeckte und die Ultra ne etwas stärkere,
die LE gibts meines wissens nur beiden FX5700 und is da die abgespeckte
du verwechselst da was ganz grob,
bei den Gf4kam bei der einteilung erst des MX und dann Ti,und alle ti waren schneller als die MX
bei den FX is des anders, dabei gehts um erster linie um die nummer also 59xx oder 56xx 52xx usw. erst dnach kommen die kürzel wie Ultra XT LE usw. d.h. die 5900 XT ist nur ne leicht abgespeckte und die Ultra ne etwas stärkere,
die LE gibts meines wissens nur beiden FX5700 und is da die abgespeckte
Das heißt die haben dort ganz schön viele Versionen im Bereich der 5, die sich alle in mehr oder weniger großen Details unterscheiden, aber alle einen ähnlichen Core haben.
Was ist bitte eine "Ultra Extreme"? Hab ich noch nie gehört. Und an der Spitze steht die FX5950ultra.
Die bezeichnung XT kann man überhaupt nicht mit MX vergleichen. Die XT Karten haben nur verringerte Taktfrequenzen, die GF4MX ist ein umbenannter GeForce 2 und hat nicht im geringsten etwas mit der GeForce 4 zu tun.
Und du hast richtig erkannt: ja, die FX5200 ist so etwas wie ein Duron, ein Hersteller braucht immer low end Produkte, weil ein Kunde immer die neueste Technologie haben möchte, auch wenn er sie garnicht braucht. Deshalb benennt man eine GF2 in GF4MX um und der Kunde freut sich, weil er sowieso nie spielt.