DRAM clock: 400 MhZ (ebenfalls übertaktbar) [bis 440Mhz und bei guten umständen maximal 475Mhz wie se in dem artikel erwähnt ham]
Die "GeForce FX 5200 Ultra" (um welche es sich ja hier handelt) ist für 650 MHz RAM ausgelegt - die dürfte es also mitmachen! Die Frage ist nur ob der Speicher es mitmacht, denn irgendnen Grund werden sie schon haben warum sie ihn auf 400 drosseln!
Zitat:
Zitat von NPM | Destructor
GPU clock: 250 MhZ (kann man ja übertakten)[nur wie weit halt, bei 2oder4 pipelines is es 1/8 oder 1/4 der einer 5950Ultra, da die 8pipelines und doppelt soviel taktrate hat]
Für 325 MHz ist der Chip ausgelegt also kann man ihn auch soweit übertakten!
Max. Speichertakt: 650 MHz (hängt wohl vom speicher ab wie weit ich gehen kann)[solll ich mich kaputt lachen???????? du schaffst bei 5ns speicher keine 650, des schafft vllt. ein 3ns speicher]
Pixel-Pipelines: 4 (was sind eigentlich Pixel-Pipelines?)[wieviele pixel dro takt berechnet werden, trifft nicht ganz zu wegen den effekten und shadern sowie FSAA und AF]
dann is möglich,
wer hat hier behauptet das der chip 650Mhz mit macht?????
dem könnt ich in den ***** treten
weiter vorn im thread war nen link zu nem artikel wo beschreiben wurde das se bei 502Mhz fast des zetiliche gesegnet hätte
und des bei anstäändigem kühler
was willst du dann mim Zalman?
dann is möglich,
wer hat hier behauptet das der chip 650Mhz mit macht?????
dem könnt ich in den *zensiert* treten
weiter vorn im thread war nen link zu nem artikel wo beschreiben wurde das se bei 502Mhz fast des zetiliche gesegnet hätte
und des bei anstäändigem kühler
was willst du dann mim Zalman?
Die "GeForce FX 5200 Ultra" hat ja auch von haus aus eine DRAM-Clock von 650 MhZ (also 325 real clk).
ich glaub für deine karte brauchste nicht mal ne zalman heatpipe nimm einfach den alu block von deiner mx2 400....
Du meinst den Sockel-7 CPU-Kühler? Vergiss' es! Die GF5200 die ich hab hat nen 6 cm Lüfter drauf mit nem dicken Kühlkörper - und dafür wird's schon nen Grund geben, die GF2400 hatte nämlich nur nen 3 cm Lüfter ohne Kühlkörper drauf - den kann man dann getrost gegen einen Sockel-7 CPU-Kühler im Passivbetrieb tauschen! Aber 6 cm mit einem riesen Drums von Kühlkörper tausch' ich doch nich gegen nen Sockel-7 CPU-Kühler aus! Da glüht mir die Karte ja unterm ***** weg
duhast grad gesagt das der chip für 650Mhz ausgelegt ist,
des kannst du vergessen
Zitat:
Für 325 MHz ist der Chip ausgelegt also kann man ihn auch soweit übertakten!
Das habbisch geschrieben! Zitier's wenn ich irgendwo was anners geschrieben habe - dann war das ein Versehen! Hab höchstens gesagt dass das Memory das mitmacht!
des übertakten wird deine einzig emöglichkeit bleiben da noch wa srauszuholen,
aber ne zalman heatpipe is net so wirklich der renner biem ocen
der revoltek is da scho besser,
oder VGA Silencer wens einen für deien grka gibt
des übertakten wird deine einzig emöglichkeit bleiben da noch wa srauszuholen,
aber ne zalman heatpipe is net so wirklich der renner biem ocen
Das Ding hat 2 Heatpipes und eine RIESIGE Oberfläche. Meinst Du das steht ner Aktivkühlung trotzdem noch nach?
Zitat:
Zitat von First Class
Du hast keine Ultra. Sonst wäre die ja schon mit 325/650 getaktet.
Das Ding iss N.E.U.!! Selbst wenn ich keine HÄTTE, könnte ich sie ja so takten als wäre es eine ULTRA. Oder meinst das hält die GPU nich aus? Außerdem gibt's da noch ne ULTRA EXTREME - die ist noch höher getaktet - und die GPU ist keine andere - das könnte man der GPU ja auch noch antun! Müsste sie theoretisch auch noch mitmachen! (mal ganz abgesehen davon dass die cores aussortiert werden nach taktung - sonst könnte man ja den langsamsten prozessor in einer bestimmten klasse kaufen und auf den speed des schnellsten mit dem gleichen core ocen)
EDIT: Und mit nem gescheiten Kühler kriegst sowieso (etwas) mehr Speed ohne so schnell mit Fehlern rechnen zu müssen!
Die iss im PC verbaut und an dem poste ich grad'. Leider gibz davon 1000e Versionen sodass ich Dir kein PIC aussm Netz zeigen kann was vergleichbar wäre (überall sind annere Kühler druff).
Qndre, meinst du nicht dass du dich langsam lächerlich machst ?
aber es is lustig zu lesen wie du fragst, dir das anhörst was wir zu sagen haben und dann widersprichst...
Zitat:
Zitat von First Class
Qndre ist das typische Beispiel von Verblendung durch Werbung.
1. Eine 5200 hat technisch überhaupt nichts mit der damals beworbenen FX5800 Reihe zu tun.
2. Du hast eine non-Ultra Version----> man hat dich aufs Kreuz gelegt.
3. Die DirectX 9 Effekte überfordern die FX5200
4. Der 256MB Arbeitsspeicher hat höhere Latenzen und ist somit langsamer als die 128MB Version. Vorteile würde er nur bei Auflösungen wie 1600x1200 bringen, dafür ist aber wieder der Chip zu lahm.
5. ~8000 Aquamarks? Eine GeForce 3 Ti-200 mit XP1700+ schafft 14000. Den Unterschied den du von DX8 zu DX9 erkennst möchte ich sehen.
kann ihm nur recht geben
Linux is like a tipi: no windows, no gates, apache inside
Qndre, meinst du nicht dass du dich langsam lächerlich machst ?
Okay okay - ihr habt Recht und ich hab meine Ruhe! Das geht mir hier echt langsam auf die Nerven! Ich möchte hier wirklich nicht rumstreiten! Aber nein! Einige von euch müssen immer Recht behalten! Ihr kommt euch wohl echt super intelligent vor! Das jemand anders mal Ahnung haben könnte kommt garnicht in Frage! Irren? Ihr euch? Das ist doch nicht möglich! Dann muss eben der andere Unrecht haben weil man selbst kann sich ja garnicht irren weil man ja sowieso alles weiß! Glaubt ihr eigentlich ich bin blöde oder was?
Irgendwas zitieren von wegen dass der 128er DRAM schneller sei! Hab ich jemals was anderes behauptet? Wenn ja dann entschuldigung! Dann habe ich mich geirrt! Was bei euch ja niemals vorkommt! Soll ich euch jetzt anflehen mir wegen meines Irrtums zu vergeben! Ne echt nich, sowas hab ich bestimmt nich nötig!
Und immer alles SCHLECHT MACHEN die Leistung von anderen?
Zitat:
Was?? Der hat nur 12% übertaktet?? Ich hab 13% übertaktet!! Man ist der lächerlich!! Was?? Der hat nur ne 1,8 GhZ CPU?? Da lach' ich ja!! Was?? Nur ne GeForce 5?? Ich hab schon längst GeForce 6!! Der macht sich ja total zum Gespött mir der Karte!!
sorry wenns n bisshcen "hart" gekommen is, wollt ich nich
aber..
kommen wir zurück zu den grakas !
hast doch gefragt was eine pixel-pipeline is:
grobe erklärung:
Zitat:
Die Pixel Pipeline selbst ist ein wichtiger Teil des Chips. In ihr werden die nötigen Berechnungen vollzogen, damit aus den ihr gegebenen Daten einmal ein Bildpunkt berechnet werden kann.
sorry wenns n bisshcen "hart" gekommen is, wollt ich nich
aber..
kommen wir zurück zu den grakas !
THX - passt schon! Ich habe nur eine etwas andere Erfahrung aus einem englischen Entwicklerforum! Da haben die mich fertig gemacht weil ich nicht richtig Assembler programmieren konnte! Hinterher war ich der Depp des ganzen Forums! Die haben geschrieben ich sei geistig verwirrt und alles so ein Quatsch! Da habe ich mich unregistered und hab drauf ge***issen! Ich dachte das geht hier auch schon los! SRY! Berechnet die Pixel-Pipeline also auch die Bildpunkte in 3D-Grafiken? Wie arbeitet die eigentlich mit dem Kern des Ray-Tracers zusammen?
ich würde sagen schon, sonst wäre sie ja nicht so wichtig für die spieleleistung
K - die ist also quasi BESTANDTEIL des Ray-Tracers? Und je mehr es davon gibt, desto mehr Lichtstrahlen von den Lichtquellen kann der Chip gleichzeitig verfolgen wie sie gebrochen, eingefärbt und teilweise reflektiert werden?
Zitat:
dann wissen wir ja wer eventuell in ein paar seiten dieses threads der misteriöse gast is
naja eventuell
Welcher Gast?? In diesen Thread hat kein einziger Gast gepostet - auf jeden Fall ist mir keiner aufgefallen!