TweakPC



NVIDIA PhysX für GeForce - Grafikkarte als Physikbeschleuniger (4/14)

Doppelte Arbeit für die GPU?

Wie funktioniert PhysX mit der GeForce Karte

Die erste Frage, die sich uns stellte, nachdem wir ein paar Performance Tests mit dem 3DMark Vantage gemacht haben war: Wie verteilt sich eigentlich die Leistung der GPU auf 3D Berechnungen und Physikberechungen? Wird ein "Teil" Der GPU für die Physikberechung abgezwackt und wenn ja wie viel?

Wie man uns von NVIDIA mitteilte ist dem aber nicht so. Wenn PhysX aktiv und nur eine Karte vorhanden ist, wird auf der Grafikkarte zwischen "Compute" und "Grafics" Mode hin und hergeschalt. Die Grafikkarte stellt also die gesamte Leistung abwechselnd entweder für 3D oder für Physikberechnungen zur Verfügung.

In Zukunft wird es dazu zwei Modi geben:

  • 3D Grafik und PhysX von der selben GPU oder SLI Pärchen
  • Grafik von einer GPU und PhysX von einer anderen

Diese Beiden Optionen sollen dann mit dem 180er GeForce Treiber zur Verfügung stehen.

Wenn man sich dies vor Augen hält, dann leuchtet erneut ein, das PhysX die Performance nun mal eher verschlechtern wird, denn die Grafikkarte bekommt deutlich mehr zu tun. Wie viel mehr, das hängt am Ende von den Entwicklern der Spiele ab. Es wird also so aussehen, dass man ein Spiel ohne PhysX vielleicht in 1920x1200 flüssig spielen kann, sobald man PhysX einschaltet wird man evlt. aber die Auflösung oder Grafikqualität reduzieren müssen. Dafür bekommt man dann aber den entsprechenden Mehrwert im Spiel.

Wer nun Sorge hat, das er demnächst alle Spiele mit PhysX nur noch in 800x600 und Klötzchengrafik spielen kann, für den kann man Entwarnung geben. Denn PhysX belastet die Grafikkarte deutlich weniger als man denken sollte.

Zudem sind die Physik Effekte in den Games Variable gehalten, man wird also auswählen können wir bisher auch, ob man "viel" oder "wenig" sehen möchte. Derzeit gibt es diese Optionen ja auch schon in anderen Bereichen.

Angesichts dieses Punktes macht es auch recht wenig Sinn tonnenweise Benchmarks mit und Ohne PhysX durchzuführen, denn stell man die PhysX Effekte auf Maximum und benchmarkt dann ohne einen PhysX Beschleuniger wir die CPU so stark belastet, das quasi der komplette Rechner ausgelastet wird und daher die Gesamtperformance katastrophal schlecht wird.

Um die Performance der einzelnen Karten dennoch zu vergleichen haben wir im folgenden einmal den 3DMark Vantage CPU Test 2 auf allen G92 Modell und der GTX280 bemüht. Dieser Test berechnet alleine die Physikleistung des gesamten Systems also CPU+GPU. Er geht dabei nicht auf 3D Darstellung ein.  Die Ergebnisse sind recht interessant.


3DMark Vantage mit GeForce PhysX auf Dual Core CPU

So hat die GeForce GTX 280 nach dem 3DMark Vantage in etwa die 7,5 fache Leistung der original PhysX Karte. Das heißt, um die Aufgaben der original PhysX Karte mit zu übernehmen, würde die GeForce GX280 etwa 14% Leistung verlieren. Und keine Angst, auch eine ältere GeForce 8800 GT kommt immerhin auf etwa die 5,5 fache Leistung des original PhysX Beschleunigers. PhysX wird also keine Sache für den "dicken" Geldbeutel sondern eher für jedermann werden. Dazu wird hoffentlich die Option geboten auch eine günstige kleine oder alte GeForce Karte als Physikkarte zu "missbrauchen". Leistung haben auch diese alle mal genug und sie sind sogar nicht einmal teurer als es der original Ageia Beschleuniger war. Was sicher auch erklärt, warum NVIDIA diesen auslaufen lässt.

Im übrigen sind die aktuellen "Cheating" Vorwürfe gegen NVIDIA bzgl. des 3DMark Vantage ziemlich weit hergeholt, denn wer eine PhysX Karte in seinen PC steckt kann so auch "cheaten" und den Score in die höhe treiben. Man erhält bei der gleichen Grafikkarte einen höheren Gesamtscore. Außerdem kann jederzeit im Setup die PPU deaktiviert werden, und alle PhysX Berechnungen werden dann wieder auf der CPU durchgeführt. NVIDIA hier Cheaten vorzuwerfen geht also wohl etwas weit. Eher müsste man Futuremark Inkonsequenz bei der Errechnung des Scores ankreiden, denn offenbar wird die Physikleistung auf den Score addiert. Wie wir ja bereits angemerkt haben, verliert die 3D Karte durch die Physikberechnungen aber an Performance, wenn diese gleichzeitig genutzt wird. Der 3DMark Vantage testet aber beides nur einzeln für sich. Zum Realease Zeitpunkt des Benchmarks war aber bereits klar, das Physikberechungen in Zukunft in die GPU verlagert werden, somit ist hier die Schuld zu einem Teil sicher bei der Score Berechnung des 3DMark Vantage zu suchen.



ueber TweakPC: Impressum, Datenschutz Copyright 1999-2020 TweakPC, Alle Rechte vorbehalten, all rights reserved. Mit * gekennzeichnete Links sind Affiliates.