TweakPC



MSI GeForce RTX 4080 16 GB Gaming X Trio im Test

 

Weiter geht es mit der "Aufarbeitung und Erneuerung" unserer Grafikkarten-Tests. Nachdem wir mittlerweile - nach längerer Pause - gleich alle Modelle der GeForce RTX 4000 Serie, namentlich die RTX 4070, RTX 4070 Ti, die RTX 4080 und RTX 4090 in der Redaktion hatten, können wir auch die entsprechenden Vergleiche durchführen, die für einen Test unerlässlich sind. An dieser Stelle geht dazu ein Dank an dank MSI und unserem Partner MIFCOM, die uns die Karten für einen längeren Testzeitraum zur Verfügung gestellt haben.

In diesem Test wollen wir uns der MSI GeForce RTX 4080 16 GB Gaming X Trio zuwenden, die sich im direkten Vergleich mit den anderen Karten der GeForce 4000 Serie inklusive dem Top-Modell GeForce RTX 4090 Suprim von MSI messen muss. Für wen ist welches Modell das Richtige? Unter diesem Aspekt haben wir uns die Karten allesamt angeschaut.

Mit den neuen Karten haben wir uns dann auch direkt dazu entschlossen auf ein komplett neues Testsystem zu setzen, dass auf einem Intel Core i9 12900K auf dem MSI Z690 Carbon Wifi, 32 GB Speicher, Wasserkühlung und besonders nützlich und teuer, einer 8 TB SSD zum schnellen Laden der vielen Games basiert. Und ganz neu mit dabei ist auch das MSI MEG Ai1300P ATX3/PCIe5 Netzteil, das wir gerade bei uns getestet haben.

Aufgrund des Neuaufbaus, sind die alten Benchmarkwerte leider hinfällig und wir müssen den kompletten Benchmark-Parcours neu erstellen, was hier nach und nach geschehen wird, da die Ergebnisse von uns jetzt nachträglich dynamisch in die Tests eingefügt werden. Sprich auch ältere Tests werden immer mit neuen Benchmarks aktualisiert, weil die zusammenpassenden Benchmarks in einer zentralen Datenbank gespeichert sind.

Die GeForce RTX 4080

Mit der GeForce 4080 setzt Nvidia seine Entwicklungen die bereits mit der 3080 begonnen haben fort und liefert eine Grafikkarte ab, die vor allem auf Features wie Raytracing und KI-gestützter Grafik setzt. Die Karten unterscheiden sich dadurch erheblich von vorherigen Modellen. Die RTX 4080 setzt auf die neue effizientere NVIDIA Ada Lovelace Architektur und ist mit 16 GB schnellem G6X Speicher ausgestattet. Dank neuer neuer Streaming-Multiprozessoren (SM) wird eine bis zu 2x höhere Leistung und Energieeffizienz erreicht. In der GeForce 4080 sind auch die neuen Tensor-Kerne der 4. Generation zu finden die neue transformative KI-Technologien, einschließlich NVIDIA DLSS und dem neuen Bildratenvervielfacher NVIDIA DLSS 3 ermöglichen. DLSS 3 gilt als das Killerfeature der neuen 40er GeForce Serie und konnte bereits auf der GeForce 4090 beeindruckend zeigen was durch hardwarebeschleunigte KI-Algorithmen möglich ist.

Die auf der GeForce 3080 zu findenden RT-Kerne der 3. Generation sind deutlich in der Raytracing-Leistung gesteigert und soll auch hier die bis zu zweifache Performance abliefern. Dazu gesellt sich das verbesserte Shader Execution Reordering (SER) das ebenfalls noch einmal die Raytracing-Performance optimiert.

Abseits der üblchen „Gaming-Grafik“ gibt es auch einen neuen AV1 Encoder in der 8. Generation (NVENC). AV1 soll 40% effizienter als H.264 sein und damit die Leistung also auch Bildqualität für Streamer, Broadcaster und Video-Caller deutlich verbessern.

DLSS 3 – Neuronale Grafik zur Performancesteigerung

DLSS3 ist sicherlich eines der spannendsten Features, das wir in den letzten 10 Jahren bei Grafikkarten gesehen haben. In den ersten Stufen von DLSS wurden KI-Modelle entwickelt um aus einem Bild in niedriger Auflösung ein Bild in hoher Auflösung zu erzeugen und das natürlich in einer so hohen Geschwindigkeit, dass sich dadurch die Performance gegenüber einem nativ gerenderten Bild deutlich steigert. Derartige Ansätze gab es in der reinen Bildverarbeitung schon Länger und auch Videos konnten durch intelligente Algorithmen in ihrer Auflösung und Qualität deutlich verbessert werden. Nvidia hat quasi diese Ideen aus der Bildverarbeitung auf Grafikkarten übertragen und so einen intelligenten Ki-gesteuerten Upscaler entwickelt.

DLSS 3 geht nun noch einen Schritt weiter und erhöht nicht nur die Auflösung sondern kann komplett neue „Zwischenbilder“ generieren. Um wieder beim Vergleich aus der Videoverarbeitung zu bleiben. DLSS3 erzeugt quasi zusätzliche Zwischenbilder um so eine flüssigere Wiedergabe zu erzeugen. Man kennt ähnliche Systeme auch von TV-Geräten. Der große Unterschied liegt darin, das eine Grafikkarte nicht nur ein erzeugtes Bild als Basisdaten hat, sondern viele weitere Informationen. Die Features von DLSS 3 gehen also weit darüber hinaus nur einfach „Zwischenbilder zu errechnen“

DLSS 3 setzt sich aus vier Komponenten zusammen:  Den Optical Flow Accelerator, Bewegungsvektoren der Spiele-Engine, also Informationen darüber welche Objekte sich in welche Richtung bewegen, einen Faltungs-Autoencoder-KI-Frame-Generator und die neue Reflex-Pipeline mit extrem niedriger Latenz.

DLSS 3 verarbeitet dabei jeweils den neusten und vorherigen Frame, um daraus zu erkennen, wie sich die Szene aktuell verändert. Aus all diesen Daten wird dann ein neues nächstes „Zwischenbild“ generiert. Dabei versorgt der Optical Flow Accelerator das neuronale Netzwerk mit Richtungs- und Geschwindigkeitsdaten der Pixel. Da dieser Algorithmus so schnell arbeitet, kann in einigen Fällen die Performance im vergleich zum kompletten Rendering der Szene um den Faktor 4 gesteigert werden. Natürlich muss man dabei Kleine Verluste in der Bildqualität oder auch manchmal Artefakte hinnehmen. Der Vorteil von KI-gestützten Algorithmen ist allerdings der, dass diese sich mit der Zeit und dem Sammeln von mehr Daten immer weiter verbessern.

Besonders interessant an der Technologie ist auch, dass sie die CPU nicht belastet. Die Performancesteigerung durch DLSS 3 bekommt man also ohne zusätzliche Belastung der CPU, also wieder ein Grund mehr Geld in die GPU als in die CPU zu stecken. Angesichts der mittlerweile sehr hohen Preise für GPUS, sicherlich nicht die schlechteste Option.

Auf DLSS 3 optimierte Spiele sind übrigens sind abwärtskompatibel zur DLSS 2-Technologie. Das heißt mit älteren Karten bekommt man zwar nicht die Features Zwischenbilder zu generieren, die Upscale-Features zur Verbesserung der Auflösung bleiben aber erhalten.

Technische Daten

Die GeForce RTX 4080 kommt mit 9.728 CUDA Cores zum Gamer in den PC, wobei 49 Shader-TFLOPS Leistung für traditionelle Rastergrafik geboten werden. Dazu gibt es 304 Tensor Cores der vierten Generation, die 780 Tensor-TFLOPS (mit Sparsity) für KI-Verarbeitung und DLSS bieten. 76 Ada RT Cores der dritten Generation, die 113 RT-TFLOPS für Raytracing-Grafiken leisten. Nicht weniger interessant, besonders angesichts der zuletzt aufgekommenen Diskussionen zur Speicherausstattung  der vorherigen Generationen, sind die 16 GB GDDR6X-Speicher welche die RTX 4080 mit sich bringt.

Mit den beeindruckenden Daten soll die RTX 4080 ist doppelt so schnell wie die GeForce 3080 Ti sein und dabei fast 10 % weniger Strom verbrauchen.

Apropos Stromverbrauch, auch hierzu gibt es von Nvidia nun detaillierte Angaben. Mit 250 Watt beim durchschnittlichen Gaming liegt die karte deutlich unter der GeForce RTX 3080, die auf 320 Watt kam. Die TGP (W) liegt aber bei beiden Karten bei 320 Watt, was bedeutet das die neue GeForce 4080 einfach wesentlich effizienter mit dem ihr zu stehenden Budget umgeht. Der Idle Stromverbrauch hat sich nicht verändert und liegt bei etwa 13 Watt, aber beim Videoplayback gibt es gegenüber dem Vorgänger auch eine deutlich Ersparnis von 27 auf 21 Watt.

Aber genug der Theorie, die Praxis ist so viel interessanter und deshalb schauen wir uns erst einmal die neue MSI GeForce RTX 4080 16 GB Gaming X Trio im Detail an.

Testsystem: 

  • Intel Core i9 12900K
  • MSI Z690 Carbon Wifi
  • Corsair Dominatror 2x16 GB DDR5
  • MSI MPG CoreLiquid K360
  • MSI MEG Ai1300P ATX3/PCIe5 Netzteil
  • WD 850 1 TB SSD System-Drive
  • 8 TB U2. SSD als Game-Drive
ueber TweakPC: Impressum, Datenschutz Copyright 1999-2024 TweakPC, Alle Rechte vorbehalten, all rights reserved. Mit * gekennzeichnete Links sind Affiliates.