TweakPC


Nvidia GeForce GTX 980 und GTX 970 im Test - Energieeffizenz ist Trumpf (8/10)

GeForce G-SYNC - Ruckeln und Tearing hat ein Ende

Die ersten G-Sync Monitore sind auf dem Markt

An den aktuellen Bestrebungen von Nvidia ist unschwer zu erkennen, dass der Faktor Performance nicht mehr das Hauptthema bei Grafikkarten zu sein scheint. Sowohl bei der Software als auch der Hardware dreht sich immer mehr um das "wie gut" und nicht mehr nur um "wie schnell". Zwei Beispiele wo aktuell an der Hardware in Sachen Bildqualität geschraubt wird kommen auch mit der GeForce GTX 980 wieder auf den Tisch.

Das erste Element dürfte regelmäßigen Lesern bereits bekannt sein, es ist Nvidia G-Sync. Bislang wurde G-Sync schon oft anhand von Demos demonstriert, bereits zum Launch der GeForce 780 Serie. Käuflich zu erweben ist G-Sync in Monitoren aber erst seit etwas Juni/Juli diesen Jahres, weshalb wir mit der GeForce 980 noch einmal einen genaueren Blick auf G-Sync werfen.

 G-Sync ist ausnahmsweise keine direkte Technologie für Grafikkarten, sondern für Monitor-Hersteller. Aktuelle Bildschirme besitzen in der Regel eine feste Bildwiederholrate, die in Hz angegeben wird. In der Regel liegt diese bei 60 Hz, teurere Modelle können auch 120 Hz oder sogar 144 Hz Bildwiederholrate besitzen. Dieser Wert ist üblicherweise fest.

Auf der anderen Seite erreicht eine Grafikkarte ohne softwareseitige Frame-Begrenzung allerdings so gut wie nie eine feste konstante FPS-Zahl. Vielmehr steigen und sinken die Frames per Sekond in Abhängigkeit von der dargestellten Szene und deren Komplexität. Beim Spielen äußert sich diese Diskrepanz beim Bildaufbau des Monitors und der Grafikkarte insbesondere durch das Tearing. Tearing ist einer der wohl lästigsten Effekte, die man beim Spielen am Monitor beobachten kann.

Das Tearing lässt sich auf normalen Monitoren nur durch einschalten von V-Sync entfernen, was aber wieder anderen Nachteile wie Lag und Stottern bei Frameraten um 60 FPS führt. In unserem Artikel über Adaptive-Vsync sind wir auf dieses Problem schon genauer eingegangen und haben es anhand von Videos erläutert.

Die Probleme lassen sich rein auf der Software oder Hardwareseite der Grafikkarte nicht beseitigen und zudem werden sie mit den neuen 4K Displays und Features wie DSR eher größer als geringer, denn bei sehr hohen Auflösungen sinkt die Framerate selbst auf leistungsstarken System deutlich in Richtung 60 FPS oder eher 30 FPS. Und in diesem Bereich treten Stottern, Tearing und Lag besonders extrem auf. Das nutzen von V-Sync fällt in diesem FPS-Bereich quasi flach, denn es führt dazu, das sobald man unter 60 FPS fällt, V-Sync die FPS auf 30 herunterdrückt, was zu extremen Lags und zudem in der Übergangsphase zu einem deutlichen Stottern führt.

Diese Probleme geht man mit G-Sync an. G-Sync ist eine Monitortechnologie, die direkt in den Monitor integriert wird. Technisch handelt dabei um eine Elektronik, die im Monitor dafür sorgt, dass der Monitor nur und genau dann ein neues Bild ausgibt, wenn die Grafikkarte auch ein komplettes neues Bild fertiggestellt hat. Man dreht den Spieß also um, nicht mehr der Monitor gibt den Takt vor, sondern die Grafikkarte.

Auf dem Monitor werden so keine Halbbilder mehr dargestellt und ein Bild wird schnellstmöglich ausgegeben, sobald es komplett berechnet und von der Grafikkarte bereitgestellt wurde. So wird die Optik verbessert, weil Tearing komplett vermieden wird und gleichzeitig wird dazu noch der Lag reduziert.

Voraussetzung für Nvidias G-SYNC ist eine Bildübertragung via DisplayPort. G-Sync kann die Hertz-Zahl des Monitors in den Bereichen von 30 bis 144 Hz anpassen.

Zum Testen von G-Sync standen uns diesmal gleich zwei neue G-Sync Monitore zur Verfügung. Zum einen der AOC  g2460Pg ein Brandneues 24Zoll Modell mit Full-HD Auflösung, bis zu 144 Hz Bildwiederholrate und 1 ms Reaktionszeit. Der AOC g2460Pg ist derzeit der günstigste G-Sync Monitor mit einem Preis von etwa 450 Euro. Neben einem geringen Stromverbrauch von nur 27,7 Watt besitzt der Monitor auch gleichzeitig noch 2x USB 2.0 und 2x USB 3.0-Anschlüsse, ist höhenverstellbar, und hat Swivel und Pivot Funktion.



Der  AOC g2460Pg G-Sync Monitor mit 144 Hz und Full-HD Auflösung

Und zum anderen der etwas größere 27 Zoll Monitor ASUS ROG Swift PG278Q, der stolze 2560x1440 Pixel Auflösung besitzt und das ebenfalls bei 144 Hz! Der ASUS ROG Swift PG278Q ist derzeit der einzige Monitor, der in dieser Auflösung offiziell bei 144 Hz und mit G-Sync arbeitet. Das schlägt sich leider auch im Preis nieder, der bei an die 800 Euro liegt. Für Gamer, die gleichzeitig eine hohe Auflösung und eine Bildwiederholfrequenz von 120 Hz oder mehr und nicht auf inoffizielle Tricks zurückgreifen wollen, ist er damit derzeit die einzige Wahl. Anderen Monitore bieten bei dieser Auflösung nur maximal 60 Hz, auch wenn einige dieser Modelle sich auf auf 90 oder sogar 120 HZ "übertaktet" lassen.

Einen höhenverstellbaren Fuß, Pivot sowie Swivel bietet der ASUS Monitor ebenfalls. Beide Monitore nutzen ein TN-Panel und werden zwangsläufig über Displayport angeschlossen, denn nur damit funktioniert G-Sync. Andere Eingänge bieten sie auch gar nicht erst an.



Der ASUS ROG Swift PG278Q mit 144 Hz und 2560x1440 Auflösung

G-Sync lässt sich sehr einfach Einrichten, weil prinzipiell nur die bisher traditionellen V-Sync Settings um G-Sync erweitert wurden. G-Sync muss dazu lediglich im Treiber einmal aktiviert werden, wenn ein G-Sync Monitor angeschlossen ist, aktiviert es sich in der Regel sogar von selbst.

 

Danach steht in den üblichen "Vertical Sync Settings" im Control-Panel neben den bekannten Optionen wie V-Sync On/Off oder Adaptive-VSync auch die Option G-Sync zur Verfügung.

Die besten Ergebnisse erzielt man bei G-Sync natürlich mit den neuen Monitoren die 144 Hz unterstützen. Theoretisch wäre G-Sync auch mit 60 Hz Monitoren möglich, da es sich um ein spezielles Gamer-Produkte handelt werden diese aber noch nicht angeboten. Interessant dürften auch die ersten 4K Displays mit G-Sync werden. Acer hat so ein Modell bereits angekündigt.

G-Sync vermindert mehr als deutlich das Tearing und auch das typische Stottern, das bei normalem V-Sync besonders bei frameraten von 30 bis 60 FPS auftritt. Wenn man die Möglichkeit hat sich G-Sync live anzusehen, sollte man das einmal tun. Die Reaktionen darauf reichen allerdings von Euphorie bis hin zu "ich sehe da kaum einen Unterschied". Es hängt wohl zu einem großen Maß davon ab, wie empfindlich man ist, ähnlich wie es schon bei den berühmten Mikrorucklern bei SLI und Crossfire in der Vergangenheit war.

Der Effekt von G-Sync ist allerdings unbestritten und lässt sich insbesondere bei stark "scrollenden" Spielen beobachten. Also zum Beispiel Titel wie Diablo 3, Simcity, Anno oder auch den so beliebten E-Sports Titel wie DOTA oder League of Legends. Wer solche Spiele einmal mit G-Sync gespielt hat und "Grafikverliebt" ist, wird sicher ungern wieder auf seinen normalen Monitor wechseln.

Leider ist der Effekt wieder einmal auf Video nur sehr schwer einzufangen. Der Output des Monitors lässt sich nicht capturen und den Bildschirm via Camera einzufangen führt dazu das man das gleiche Problem, das vorher zwischen Grafikkarte und Monitor hatte, nämlich eine nicht vorhandene Synchronisierung, dann bei der Videoaufnahme auftritt.

Es gibt aber einige gelungene Aufnahmen auf YouTube zu sehen, die den Effekt verdeutlichen, wie zum Beispiel das folgende kleine Video.

Wem das noch nicht ausreicht, der kann sich bei Nvidia auch eine spezielle Demo herunter laden, die Nvidia G-Sync Pendel Demo. Die Pendel-Demo ist ein Paradebeispiel um die Probleme von V-Sync zu demonstrieren und neigt dazu an den Säulen extremes Tearing zu generieren.  Auf einem G-Sync monitor läuft diese Demo absolut flüssig. Auch zu dieser Demo gibt es auf Youtube viele "Versuche" den G-Sync-Effekt auf Video einzufangen.

VR Direct

Eine Herausforderung, der sich Nvidia bereits auch angenommen hat ist VR. VR-Brillen sind bereits in der Entwicklung und werden sicherlich in naher Zukunft Marktreif sein. Diese neue Technik bringt aber einiges an Anforderungen mit sich. Nicht nur das VR Brillen gleich zwei Bildschirme haben und daher bei gleicher Auflösung die doppelte Rechenleistung erfordern, es gibt noch viele andere Dinge die hierbei zu beachten sind. Was die reine 3D Darstellung angeht konnte Nvidia mit 3D Vision ja bereits Erfahrungen Sammeln. Die bekannten 3D Brillen sind allerdings immer noch ein Nieschenprodukt, und ob sie diese Kategorie jemals verlassen werden, ist ungewiss. VR hat schon mehr das Potential zum Massenprodukt zu werden, denn der unterschied zu einer normalen 3D-Brille ist schon drastisch.

Da man bei den kommenden VR Brillen den Bildschirm quasi direkt auf der Nase sitzen hat ergeben in Sachen Bildqualität und vor allem auch Bildwiederholraten noch einmal ganz andere Anforderungen als bei normalen Monitoren. Um nicht ?Seekrank? zu werden benötigt man bei VR Brillen extrem hohe Bildwiederholraten und zudem eine absolut gleichmäßige Bildwiedergabe auf dem rechten und Linken Auge.

Nvidia arbeitet deshalb schon an einigen interessanten Verbesserungen der GeForce Karten um auf den VR-Boom, wenn er denn kommen sollte, vorbereitet zu sein. Besonders Interessant in diesem Zusammenhang ist VR-SLI und VR-DSR. Diese beiden Features besagen, das bei SLI Setups mit VR-Brillen demnächst jeder Bildschirm seine eigene GPU zugewiesen bekommt. Hat man also zwei GeForce Karten im System, so berechnet die eine GPU das Bild für das linke und die andere das Bild für das Rechte Auge. Dazu können die GPUs mit VR-DSR die Bilder in höheren Auflösungen Rendern als die VR-Brille darstellen kann und so die Bildqualität deutlich Verbessern und Artefakte die direkt vor dem Auge noch stärker auffallen verhindern.

Insgesamt wird sich zeigen wie gut all diese Techniken funktionieren, wenn die ersten VR-Brillen auf den Markt kommen.



ueber TweakPC: Impressum, Datenschutz Copyright 1999-2017 TweakPC, Alle Rechte vorbehalten, all rights reserved