NVIDIA PhysX für GeForce - Grafikkarte als Physikbeschleuniger (4/14)
Doppelte Arbeit für die GPU?
Wie funktioniert PhysX mit der GeForce Karte
Die erste Frage, die sich uns stellte, nachdem wir ein paar Performance Tests
mit dem 3DMark Vantage gemacht haben war: Wie verteilt sich eigentlich die
Leistung der GPU auf 3D Berechnungen und Physikberechungen? Wird ein "Teil" Der
GPU für die Physikberechung abgezwackt und wenn ja wie viel?
Wie man uns von NVIDIA mitteilte ist dem aber nicht so. Wenn PhysX aktiv
und nur eine Karte vorhanden ist, wird auf der Grafikkarte zwischen "Compute"
und "Grafics" Mode hin und hergeschalt. Die Grafikkarte stellt also die gesamte
Leistung abwechselnd entweder für 3D oder für Physikberechnungen zur Verfügung.
In Zukunft wird es dazu zwei Modi geben:
- 3D Grafik und PhysX von der selben GPU oder SLI Pärchen
- Grafik von einer GPU und PhysX von einer anderen
Diese Beiden Optionen sollen dann mit dem 180er GeForce Treiber zur
Verfügung stehen.
Wenn man sich dies vor Augen hält, dann leuchtet erneut ein, das PhysX die
Performance nun mal eher verschlechtern wird, denn die Grafikkarte bekommt
deutlich mehr zu tun. Wie viel mehr, das hängt am Ende von den Entwicklern der
Spiele ab. Es wird also so aussehen, dass man ein Spiel ohne PhysX vielleicht in
1920x1200 flüssig spielen kann, sobald man PhysX einschaltet wird man evlt. aber
die Auflösung oder Grafikqualität reduzieren müssen. Dafür bekommt man dann aber
den entsprechenden Mehrwert im Spiel.
Wer nun Sorge hat, das er demnächst alle Spiele mit PhysX nur noch in 800x600
und Klötzchengrafik spielen kann, für den kann man Entwarnung geben. Denn PhysX
belastet die Grafikkarte deutlich weniger als man denken sollte.
Zudem sind die Physik Effekte in den Games Variable gehalten, man wird
also auswählen können wir bisher auch, ob man "viel" oder "wenig" sehen
möchte. Derzeit gibt es diese Optionen ja auch schon in anderen Bereichen.
Angesichts dieses Punktes macht es auch recht wenig Sinn tonnenweise
Benchmarks mit und Ohne PhysX durchzuführen, denn stell man die PhysX
Effekte auf Maximum und benchmarkt dann ohne einen PhysX Beschleuniger wir
die CPU so stark belastet, das quasi der komplette Rechner ausgelastet wird
und daher die Gesamtperformance katastrophal schlecht wird.
Um die Performance der einzelnen Karten dennoch zu vergleichen haben wir im folgenden
einmal den 3DMark Vantage CPU Test 2 auf allen G92 Modell und der GTX280 bemüht.
Dieser Test berechnet alleine die Physikleistung des gesamten Systems also
CPU+GPU. Er geht dabei nicht auf 3D Darstellung ein. Die Ergebnisse sind
recht interessant.
3DMark Vantage mit GeForce PhysX auf Dual Core CPU
So hat die GeForce GTX 280 nach dem 3DMark Vantage in etwa die 7,5 fache
Leistung der original PhysX Karte. Das heißt, um die Aufgaben der original PhysX
Karte mit zu übernehmen, würde die GeForce GX280 etwa 14% Leistung verlieren. Und
keine Angst, auch eine ältere GeForce 8800 GT kommt immerhin auf etwa die 5,5
fache Leistung des original PhysX Beschleunigers. PhysX wird also keine Sache
für den "dicken" Geldbeutel sondern eher für jedermann werden. Dazu wird
hoffentlich die Option geboten auch eine günstige kleine oder alte GeForce Karte
als Physikkarte zu "missbrauchen". Leistung haben auch diese alle mal
genug und sie sind sogar nicht einmal teurer als es der original Ageia Beschleuniger
war. Was sicher auch erklärt, warum NVIDIA diesen auslaufen lässt.
Im übrigen sind die aktuellen "Cheating" Vorwürfe gegen NVIDIA bzgl. des
3DMark Vantage ziemlich weit hergeholt, denn wer eine PhysX Karte in seinen
PC steckt kann so auch "cheaten" und den Score in die höhe treiben. Man erhält bei der gleichen Grafikkarte einen höheren Gesamtscore. Außerdem kann jederzeit im Setup die PPU deaktiviert werden, und alle PhysX
Berechnungen werden dann wieder auf der CPU durchgeführt. NVIDIA hier Cheaten vorzuwerfen geht also wohl etwas weit.
Eher müsste man Futuremark Inkonsequenz bei der Errechnung des Scores ankreiden, denn offenbar wird die Physikleistung auf den Score addiert. Wie wir ja bereits angemerkt haben, verliert die 3D Karte durch die Physikberechnungen aber an Performance, wenn diese
gleichzeitig genutzt wird. Der 3DMark Vantage testet aber beides nur einzeln für sich. Zum Realease Zeitpunkt des Benchmarks war aber bereits klar, das Physikberechungen in Zukunft in die GPU verlagert werden, somit ist hier die Schuld
zu einem Teil sicher bei der Score Berechnung des 3DMark Vantage zu suchen.