Nvidia GeForce GTX 980 und GTX 970 im Test - Energieeffizenz ist Trumpf (8/10)
GeForce G-SYNC - Ruckeln und Tearing hat ein Ende
Die ersten G-Sync Monitore sind auf dem Markt
An den aktuellen Bestrebungen von Nvidia ist unschwer zu erkennen, dass
der Faktor Performance nicht mehr das Hauptthema bei Grafikkarten zu sein
scheint. Sowohl bei der Software als auch der Hardware dreht sich immer mehr
um das "wie gut" und nicht mehr nur um "wie schnell". Zwei Beispiele wo
aktuell an der Hardware in Sachen Bildqualität geschraubt wird kommen auch
mit der GeForce GTX 980 wieder auf den Tisch.
Das erste Element dürfte regelmäßigen Lesern bereits bekannt sein, es ist
Nvidia G-Sync. Bislang wurde G-Sync schon oft anhand von Demos demonstriert,
bereits zum Launch der GeForce 780 Serie. Käuflich zu erweben ist G-Sync in
Monitoren aber erst seit etwas Juni/Juli diesen Jahres, weshalb wir mit der
GeForce 980 noch einmal einen genaueren Blick auf G-Sync werfen.
G-Sync ist ausnahmsweise keine direkte Technologie für
Grafikkarten, sondern für Monitor-Hersteller. Aktuelle Bildschirme besitzen
in der Regel eine feste Bildwiederholrate, die in Hz angegeben wird. In der
Regel liegt diese bei 60 Hz, teurere Modelle können auch 120 Hz oder sogar
144 Hz Bildwiederholrate besitzen. Dieser Wert ist üblicherweise fest.
Auf der anderen Seite erreicht eine Grafikkarte ohne softwareseitige
Frame-Begrenzung allerdings so gut wie nie eine feste konstante FPS-Zahl.
Vielmehr steigen und sinken die Frames per Sekond in Abhängigkeit von der
dargestellten Szene und deren Komplexität. Beim Spielen äußert sich diese
Diskrepanz beim Bildaufbau des Monitors und der Grafikkarte insbesondere
durch das Tearing. Tearing ist einer der wohl lästigsten Effekte, die man
beim Spielen am Monitor beobachten kann.
Das Tearing lässt sich auf normalen Monitoren nur durch einschalten von
V-Sync entfernen, was aber wieder anderen Nachteile wie Lag und Stottern bei
Frameraten um 60 FPS führt. In unserem
Artikel über Adaptive-Vsync sind wir auf dieses Problem schon genauer
eingegangen und haben es anhand von Videos erläutert.
Die Probleme lassen sich rein auf der Software oder Hardwareseite der
Grafikkarte nicht beseitigen und zudem werden sie mit den neuen 4K Displays
und Features wie DSR eher größer als geringer, denn bei sehr hohen
Auflösungen sinkt die Framerate selbst auf leistungsstarken System deutlich
in Richtung 60 FPS oder eher 30 FPS. Und in diesem Bereich treten Stottern,
Tearing und Lag besonders extrem auf. Das nutzen von V-Sync fällt in diesem
FPS-Bereich quasi flach, denn es führt dazu, das sobald man unter 60 FPS
fällt, V-Sync die FPS auf 30 herunterdrückt, was zu extremen Lags und zudem
in der Übergangsphase zu einem deutlichen Stottern führt.
Diese Probleme geht man mit G-Sync an. G-Sync ist eine
Monitortechnologie, die direkt in den Monitor integriert wird. Technisch
handelt dabei um eine Elektronik, die im Monitor dafür sorgt, dass der
Monitor nur und genau dann ein neues Bild ausgibt, wenn die Grafikkarte auch
ein komplettes neues Bild fertiggestellt hat. Man dreht den Spieß also um,
nicht mehr der Monitor gibt den Takt vor, sondern die Grafikkarte.
Auf dem Monitor werden so keine Halbbilder mehr dargestellt und ein Bild
wird schnellstmöglich ausgegeben, sobald es komplett berechnet und von der
Grafikkarte bereitgestellt wurde. So wird die Optik verbessert, weil Tearing
komplett vermieden wird und gleichzeitig wird dazu noch der Lag reduziert.
Voraussetzung für Nvidias G-SYNC ist eine Bildübertragung via DisplayPort.
G-Sync kann die Hertz-Zahl des Monitors in den Bereichen von 30 bis 144 Hz
anpassen.
Zum Testen von G-Sync standen uns diesmal gleich zwei neue G-Sync
Monitore zur Verfügung. Zum einen der
AOC g2460Pg ein Brandneues 24Zoll Modell mit Full-HD Auflösung, bis
zu 144 Hz Bildwiederholrate und 1 ms Reaktionszeit. Der AOC g2460Pg ist
derzeit der günstigste G-Sync Monitor mit einem Preis von etwa 450 Euro.
Neben einem geringen Stromverbrauch von nur 27,7 Watt besitzt der Monitor
auch gleichzeitig noch 2x USB 2.0 und 2x USB 3.0-Anschlüsse, ist
höhenverstellbar, und hat Swivel und Pivot Funktion.
Der AOC g2460Pg G-Sync Monitor mit 144 Hz und Full-HD Auflösung
Und zum anderen der etwas größere 27 Zoll Monitor ASUS ROG Swift
PG278Q, der stolze 2560x1440 Pixel Auflösung besitzt
und das ebenfalls bei 144 Hz! Der ASUS ROG Swift PG278Q ist derzeit
der einzige Monitor, der in dieser Auflösung offiziell bei 144 Hz und mit G-Sync arbeitet. Das schlägt sich leider auch im Preis nieder, der bei an die 800 Euro liegt.
Für Gamer, die gleichzeitig eine hohe Auflösung und eine
Bildwiederholfrequenz von 120 Hz oder mehr und nicht auf inoffizielle Tricks zurückgreifen wollen, ist er damit derzeit die einzige Wahl.
Anderen Monitore bieten bei dieser Auflösung nur maximal 60 Hz, auch wenn einige dieser Modelle sich auf auf 90 oder sogar 120 HZ "übertaktet" lassen.
Einen höhenverstellbaren Fuß, Pivot sowie Swivel
bietet der ASUS Monitor ebenfalls. Beide Monitore nutzen ein TN-Panel und
werden zwangsläufig über Displayport angeschlossen, denn nur damit
funktioniert G-Sync. Andere Eingänge bieten sie auch gar nicht erst an.
Der ASUS ROG Swift PG278Q mit 144 Hz und 2560x1440 Auflösung
G-Sync lässt sich sehr einfach Einrichten, weil prinzipiell nur die
bisher traditionellen V-Sync Settings um G-Sync erweitert wurden. G-Sync
muss dazu lediglich im Treiber einmal aktiviert werden, wenn ein G-Sync
Monitor angeschlossen ist, aktiviert es sich in der Regel sogar von selbst.
Danach steht in den üblichen "Vertical Sync Settings" im Control-Panel
neben den bekannten Optionen wie V-Sync On/Off oder Adaptive-VSync auch die
Option G-Sync zur Verfügung.
Die besten Ergebnisse erzielt man bei G-Sync natürlich mit den neuen
Monitoren die 144 Hz unterstützen. Theoretisch wäre G-Sync auch mit 60 Hz
Monitoren möglich, da es sich um ein spezielles Gamer-Produkte handelt
werden diese aber noch nicht angeboten. Interessant dürften auch die ersten
4K Displays mit G-Sync werden. Acer hat so ein Modell bereits angekündigt.
G-Sync vermindert mehr als deutlich das Tearing und auch das typische
Stottern, das bei normalem V-Sync besonders bei frameraten von 30 bis 60 FPS
auftritt. Wenn man die Möglichkeit hat sich G-Sync live anzusehen, sollte
man das einmal tun. Die Reaktionen darauf reichen allerdings von Euphorie
bis hin zu "ich sehe da kaum einen Unterschied". Es hängt wohl zu einem
großen Maß davon ab, wie empfindlich man ist, ähnlich wie es schon bei den
berühmten Mikrorucklern bei SLI und Crossfire in der Vergangenheit war.
Der Effekt von G-Sync ist allerdings unbestritten und lässt sich
insbesondere bei stark "scrollenden" Spielen beobachten. Also zum Beispiel
Titel wie Diablo 3, Simcity, Anno oder auch den so beliebten E-Sports Titel
wie DOTA oder League of Legends. Wer solche Spiele einmal mit G-Sync
gespielt hat und "Grafikverliebt" ist, wird sicher ungern wieder auf seinen
normalen Monitor wechseln.
Leider ist der Effekt wieder einmal auf Video nur sehr schwer
einzufangen. Der Output des Monitors lässt sich nicht capturen und den
Bildschirm via Camera einzufangen führt dazu das man das gleiche Problem,
das vorher zwischen Grafikkarte und Monitor hatte, nämlich eine nicht
vorhandene Synchronisierung, dann bei der Videoaufnahme auftritt.
Es gibt aber einige gelungene Aufnahmen auf YouTube zu sehen, die den
Effekt verdeutlichen, wie zum Beispiel das folgende kleine Video.
Wem das noch nicht ausreicht, der kann sich bei Nvidia auch eine spezielle
Demo herunter laden, die
Nvidia
G-Sync Pendel Demo. Die Pendel-Demo ist ein Paradebeispiel um die Probleme
von V-Sync zu demonstrieren und neigt dazu an den Säulen extremes Tearing zu
generieren. Auf einem G-Sync monitor läuft diese Demo absolut flüssig.
Auch zu dieser Demo gibt es auf Youtube viele
"Versuche" den G-Sync-Effekt auf Video einzufangen.
VR Direct
Eine Herausforderung, der sich Nvidia bereits auch angenommen hat ist VR.
VR-Brillen sind bereits in der Entwicklung und werden sicherlich in naher
Zukunft Marktreif sein. Diese neue Technik bringt aber einiges an Anforderungen
mit sich. Nicht nur das VR Brillen gleich zwei Bildschirme haben und daher bei
gleicher Auflösung die doppelte Rechenleistung erfordern, es gibt noch viele
andere Dinge die hierbei zu beachten sind. Was die reine 3D Darstellung angeht
konnte Nvidia mit 3D Vision ja bereits Erfahrungen Sammeln. Die bekannten 3D
Brillen sind allerdings immer noch ein Nieschenprodukt, und ob sie diese
Kategorie jemals verlassen werden, ist ungewiss. VR hat schon mehr das Potential
zum Massenprodukt zu werden, denn der unterschied zu einer normalen 3D-Brille
ist schon drastisch.
Da man bei den kommenden VR Brillen den Bildschirm quasi direkt auf der Nase
sitzen hat ergeben in Sachen Bildqualität und vor allem auch Bildwiederholraten
noch einmal ganz andere Anforderungen als bei normalen Monitoren. Um nicht
?Seekrank? zu werden benötigt man bei VR Brillen extrem hohe Bildwiederholraten
und zudem eine absolut gleichmäßige Bildwiedergabe auf dem rechten und Linken
Auge.
Nvidia arbeitet deshalb schon an einigen interessanten Verbesserungen der
GeForce Karten um auf den VR-Boom, wenn er denn kommen sollte, vorbereitet zu
sein. Besonders Interessant in diesem Zusammenhang ist VR-SLI und VR-DSR. Diese
beiden Features besagen, das bei SLI Setups mit VR-Brillen demnächst jeder
Bildschirm seine eigene GPU zugewiesen bekommt. Hat man also zwei GeForce Karten
im System, so berechnet die eine GPU das Bild für das linke und die andere das
Bild für das Rechte Auge. Dazu können die GPUs mit VR-DSR die Bilder in höheren
Auflösungen Rendern als die VR-Brille darstellen kann und so die Bildqualität
deutlich Verbessern und Artefakte die direkt vor dem Auge noch stärker auffallen
verhindern.
Insgesamt wird sich zeigen wie gut all diese Techniken funktionieren, wenn
die ersten VR-Brillen auf den Markt kommen.