| |
16.04.2004, 17:06
|
#26 (permalink)
| Extrem Tweaker
Registriert seit: 19.01.2004
Beiträge: 2.660
| Zwischenmenschliche Beziehungen.... ähm ja | |
| |
16.04.2004, 17:10
|
#27 (permalink)
| Overclocker
Registriert seit: 18.03.2004
Beiträge: 249
| nein keine Nutten oder so. Erkaufte Liebe hab ich nicht nötig . war mehr so was wie "einen Saufen" gemeint oder in Urlaub | |
| |
16.04.2004, 19:56
|
#28 (permalink)
| Lecker Forenbrot
Registriert seit: 10.04.2002
Beiträge: 14.992
| Naja, ich will erstmal mehrere Final benchmarks abwarten, denn diese jetzgien Tests sind auch nur mit speziealtreibern von nvidia und mit spezial Boards gemacht worden, da wird sich einiges ändern.
Sollte die 5800 nicht auch so viel schneller sein und sie war es nicht? So einen Benchmark kann man gut manipulieren, also erstmal warten, bis TPC das dingen getestet hat | |
| |
18.04.2004, 10:13
|
#29 (permalink)
| Extrem Tweaker
Registriert seit: 01.07.2002
Beiträge: 2.031
| Würde die Karte halb so viel Strom verbrauchen wäre sie interessant. Das die Karte mal ganz locker Videos in Divx oder MPeg Formate umwandeln kann klingt ganz gut und die 3D Leistung wird auch nicht übel. Nur kommt so ein Monster selbst wenn ich mal das Geld überhätte nicht in meinen Rechner. Da investiere ich doch lieber in sinvollere Sachen wie nen dual Opteron sobald AMD mal auf den Reg. Speicher verzichtet. | |
| |
18.04.2004, 10:23
|
#30 (permalink)
| Hardware Freak
Registriert seit: 10.04.2002
Beiträge: 6.256
| Intel hat verstanden, dass pure Zahlen nicht alles sind und auch der Stromverbrauch recht bedeutend ist - vielleicht verstehen das jetz ja auch mal die Grafikkarten Hersteller, dass wir in einer Welt mit begrenzten Ressourcen leben | |
| |
18.04.2004, 10:34
|
#31 (permalink)
| Overclocker
Registriert seit: 18.03.2004
Beiträge: 249
| Vieleicht wird ja eine abgespeckte Version mit weniger Tackt und weniger Stromverbrauch viel interressanter. wenn die Leistung dann noch stimmt.
Das Ganze wird dann einen 1 Slotkühler und "nur" einen zusätzlichen Stromanschluss haben.
Über den Stromverbrauch von einer solchen Mainstreamkarte wurden noch keine ungefähren Angaben gemacht. | |
| |
18.04.2004, 11:28
|
#32 (permalink)
| Lecker Forenbrot
Registriert seit: 10.04.2002
Beiträge: 14.992
| Zitat:
Zitat von Fr@ddy Würde die Karte halb so viel Strom verbrauchen wäre sie interessant. Das die Karte mal ganz locker Videos in Divx oder MPeg Formate umwandeln kann klingt ganz gut und die 3D Leistung wird auch nicht übel. Nur kommt so ein Monster selbst wenn ich mal das Geld überhätte nicht in meinen Rechner. Da investiere ich doch lieber in sinvollere Sachen wie nen dual Opteron sobald AMD mal auf den Reg. Speicher verzichtet. | Etrm, die hat einen integrierten Decoder, oder? Also kann die Karte die dinger alleine Abspielen, ohne dass es die CPU belasten würde.
Zu dem Opteron: Der wird immer ECC Ram brauchen, das ist halt eine Worksstation/Server CPU. Der Athlon 64 FX auf dem Sockel 939 wird kein ECC RAM mehr benötigen, jedoch wird dieser auch nicht Multiprozessorfähig sein. | |
| |
18.04.2004, 11:56
|
#33 (permalink)
| Extrem Tweaker
Registriert seit: 01.07.2002
Beiträge: 2.031
| Naja der Heise-Verlag sagt:
Schließlich spendiert Nvidia noch einen programmierbaren Video-Prozessor, der die Formate MPEG-1, -2 und -4 sowie WMV9 und DivX nicht nur dekodiert, sondern auch erzeugt. Die zu erwartenden NV40-Abkömmlinge für das mittlere und das Einsteiger-Segment sollen über die gleichen 3D- und Video-Eigenschaften verfügen wie das Flaggschiff.
Vielleicht werden ja die kleineren Karten interessanter. Denn 110Watt für die Grafikkarte ist echt etwas übertrieben. Dagegen war meine Voodoo5 ja harmlos.
Ach und für die Opterons die Dual tauglich sind braucht man Registered Ram meineswissens aber nicht zwingend ECC.
Aber mal abwarten wenn Intels HT das letzte Kriterium ist aus dem man zu einem Intel greift wenn es um Performance geht wird AMD vielleicht mal günstige Dualsysteme ermöglichen. Nach dem Motto warum eine 2. CPU emulieren wenn man für fast genausoviel Geld und Stromverbrauch auf 2 mit je 2 Speicherkanälen haben kann. (der Vergleich trifft nur auf die EE von Intel zu und ist wohlmöglich noch etwas überzogen aber abwarten wie sich der Markt entwickelt) | |
| |
18.04.2004, 12:03
|
#34 (permalink)
| Lecker Forenbrot
Registriert seit: 10.04.2002
Beiträge: 14.992
| Ok, dann nehme ich das zurück und behaupte das gegenteil.
Nur frage ich mich, ob die leistung da besser ist ,als wenn das der prozessor macht. | |
| |
19.04.2004, 19:36
|
#35 (permalink)
| PC Schrauber
Registriert seit: 26.12.2003
Beiträge: 190
| hmm die karte is hammer in jeder hinsicht. also das flagschiff frisst mir persönlich zu viel saft, aber die kleineren versionen mögen ja vielleicht nicht schlecht sein. vor allem das nvidia endlich mal gutes FSAA hinbekommen hat freut mich doch sehr. und ich denk mal mit neuen treibern wird die leistung noch mehr steigen | Skill ist wenn Luck zur Gewohnheit wird |
| |
19.04.2004, 21:59
|
#36 (permalink)
| Lecker Forenbrot
Registriert seit: 10.04.2002
Beiträge: 14.992
| Immer ruhig bleiben, die 5800 wurde auch so gehyped.... | |
| |
20.04.2004, 14:50
|
#37 (permalink)
| Extrem Tweaker
Registriert seit: 24.07.2003
Beiträge: 1.951
| Zitat:
Zitat von Pirke Immer ruhig bleiben, die 5800 wurde auch so gehyped.... |
ganz genau | |
| |
21.04.2004, 14:13
|
#38 (permalink)
| Extrem Performer
Registriert seit: 04.06.2002
Beiträge: 1.250
| sicherlich wird erst mal viel Wind gemacht aber ich glaube nicht das NVIDIA nicht den selben Fehler wie beim 5800er macht. Dies war ein herber Rückschlag für sie und hat sich mit Sicherheit bei den PR Leuten eingebrannt.
Ich glaube ausserdem auch nicht das NVIDIA die ganzen karten auf den Tisch packen, die haben mit Sicherheit noch etwas in der Hinterhand, wo sie gegen ATI kontern können.
ATI setzt mal wieder nicht auf neue technologien beim X800, Shader 2.0 und nur 96 bit Berechnungsgenauigkeit, sorgen natürlich dafür dass der R420 wieder verdammt schnell sein wird.
Es bleibt abzuwarten ob Sie auf das richige Pferd gesetzt haben. Hinsichtlich der aktuellen Lage und der genutzen features von DX9 ist abzusehen dass es jetzt die richtige war aber jetzt einen neuen chip zu präsentieren der eventuell in einem halben Jahr nicht mehr optimal ist für neue features in Games, naja wie schon erwähnt es bleibt abzuwarten.
NVIDIA geht mal wieder den Weg der Technologie, ob dies jetzt schon gebraucht werden, ist die 2. Frage aber zumindest sammeln Sie jetzt wichtige Erfahrungen welche sich in der Zukunft positiv auszahlen werden.
Der NV40 wird mit Sicherheit ein richtiges Brett werden. Der Kampf um die Krone hat begonnen!!
Grüsse Realive | |
| |
21.04.2004, 15:35
|
#39 (permalink)
| Lecker Forenbrot
Registriert seit: 10.04.2002
Beiträge: 14.992
| Naja, die Daten des x880 sehen gut aus, nur sehen die vom 600 irgendwie "besser" aus. Man wird sehen, wie die sich beide schlagen, am ende wird es bestimmt nur wieder ein minimaler Unterschied, in dem einen Game ist die GF schneller in dem anderen ist die ATI schneller, das wird sich wohl nicht viel tun. | |
| |
21.04.2004, 16:52
|
#40 (permalink)
| Extrem Tweaker
Registriert seit: 11.11.2003
Beiträge: 2.288
| Zitat:
Zitat von Pirke Naja, die Daten des x880 sehen gut aus, nur sehen die vom 600 irgendwie "besser" aus. Man wird sehen, wie die sich beide schlagen, am ende wird es bestimmt nur wieder ein minimaler Unterschied, in dem einen Game ist die GF schneller in dem anderen ist die ATI schneller, das wird sich wohl nicht viel tun. | So wars, so ist es und so wird es sein...
Und mal ehrlich, besser so, als wenn nun nur noch einer den GK Markt beherscht.... denn Monopole sind nie gut | |
| |
21.04.2004, 16:58
|
#41 (permalink)
| Extrem Performer
Registriert seit: 02.10.2003
Beiträge: 1.125
| aber kann mir bitte jemand verraten warum der 880er immernoch in 130 nm fertiggestellt iwrd? o0?! mit 90 könnten sie ihn bestimmt viel höher takten oder versteh ich da was nicht? irgenwie glaub ich immer mehr das nvidia und ati n kontrakt haben, wo steht das ihr top grakas nur aufm selben niveau laufen dürfen... | |
| |
21.04.2004, 17:27
|
#42 (permalink)
| Lecker Forenbrot
Registriert seit: 10.04.2002
Beiträge: 14.992
| 90 nm müssen erstmal ordentliche Produktionsraten haben, sonst wirds zu teuer, zumal die jetzigen High End ATIs noch in 150 gefertigt werden. | |
| |
21.04.2004, 18:15
|
#43 (permalink)
| Extrem Tweaker
Registriert seit: 24.07.2003
Beiträge: 1.951
| weil ganz einfach 130 Nanometer reicht besonders das Low-k von TSMC sorgt dafür denke ich
außerdem ist der 130 Nanometer Prozess von TSMC noch nicht einmal ausgeschöpft, ATI bewies mit der Radeon 9800 Xt das erst jetzt gerade einmal der 150 Nanometer Prozess am Ende ist
außerdem ist Takt bei Grafikkarten nicht alles auch bei CPUs wobei bei Grafikkarten besonders das andere neben den Takt gefragt ist, Takt spielt eher eine untergeordnete Rolle .... so denke ich | |
| |
21.04.2004, 18:46
|
#44 (permalink)
| Lecker Forenbrot
Registriert seit: 10.04.2002
Beiträge: 14.992
| Stimmt das ist so. Sicher wird auch da irgendwann 90nm von nöten sein, doch sollte der erstmal ordentlich ausrgereift sein und an den 9600er Karten sieht man jja, das 130 nm erstmal ausreicht. | |
| |
21.04.2004, 19:33
|
#45 (permalink)
| PC Schrauber
Registriert seit: 30.12.2003
Beiträge: 114
| Was soll das gute Stück denn kosten...Also ich schätze mal so um die 900 Euro.... | |
| |
21.04.2004, 19:40
|
#46 (permalink)
| Hardware Freak
Registriert seit: 23.04.2002
Beiträge: 12.111
| ich denke der einstiegspreis, wird ganzschön heftig sein! | |
| |
21.04.2004, 19:53
|
#47 (permalink)
| Extrem Tweaker
Registriert seit: 24.07.2003
Beiträge: 1.951
| 900 Euro ist doch etwas übertrieben
499 US-Dollar wenn ich mich nicht irre solls kosten, das wären 530 Euros hier bei uns, doch vermutlich wird der Handel oder besser gesagt die Board Hersteller noch etwas drauf legen, so um die 600 bis 650 Euro denk ich, ist realistisch | |
| |
21.04.2004, 20:26
|
#48 (permalink)
| Lecker Forenbrot
Registriert seit: 10.04.2002
Beiträge: 14.992
| Naja, ich denke das es eher 700 Euro werden für das Top Modell, doch der Preis wird auch schnell sinken. | |
| |
21.04.2004, 21:27
|
#49 (permalink)
| Extrem Tweaker
Registriert seit: 10.04.2002
Beiträge: 2.133
| 350 Euro für die 6800, 550 Euro für die 6800 Ultra. | |
| |
21.04.2004, 21:59
|
#50 (permalink)
| Lecker Forenbrot
Registriert seit: 10.04.2002
Beiträge: 14.992
| Na da wäre ich mir nicht so sicher, denn die 6900 Ultra bewegte sich anfangs auch ins solchen Regiionen oder noch ein stück höher und das ist jetzt eine Komplett neue Leistungsmäßig noch bessere Karte, da wird erstmal, so füpr ein zwei Monate, der preis so richtig hoch sein. | |
| | | |
Aktive Benutzer in diesem Thema: 1 (Registrierte Benutzer: 0, Gäste: 1) | |
Forumregeln
| Es ist dir nicht erlaubt, neue Themen zu verfassen. Es ist dir nicht erlaubt, auf Beiträge zu antworten. Es ist dir nicht erlaubt, Anhänge hochzuladen. Es ist dir nicht erlaubt, deine Beiträge zu bearbeiten. HTML-Code ist aus. | | | Alle Zeitangaben in WEZ +1. Es ist jetzt 01:38 Uhr. | | |