gtx595 erscheint unwahrscheinlich, weil es sich hierbei um kein offizielles exemplar handeln kann. sprich die karte wird wahrscheinlich evga-exklusiv und nvidia hat nicht mehr damit zu schaffen als die chips verkauft zu haben.
die gtx275+gtx250 auf einem pcb hies ja "gtx275 coop:halloween-edition" und ähnliches wäre auch hier denkbar. dass man einfach so sich am namensschema bedienen darf ist nicht zu schlüßig, sonst würde bestimmt ein boardpartner eine übertaktete karte als gtx680 rausbringen und damit genauso das namensschema verhunzen, ehe er mit einem kräftigen tritt in den allerwertesten gegangen wird...
450mm or bust!
Wenn Kritik nicht kritisch ist, ist sie zu kritisieren.
nur weil man spekuliert, dass kein 2*384bit-SI draufsitzt, sondern nur 2*256bit zusammen mit 2*1GB VRam?
gf104 und gf114 stehen trotzdem gleichmäßig noch zur wahl...
und was für specs? da sind schon 2*8pins oben, also da stört die 300watt-schallmauer nun niemanden mehr, also könnte man daher noch von 2 gf110ern träumen.
im falle von 2 x gtx570 wärens schon 450 watt... und drosseln bis auf 2 x gtx560 niveau wäre ja auch dumm
a) nur milchmädchen multiplizieren den verbrauch einer karte mit der zahl der grafikchips einer anderen karte um auf den verbrauch zu kommen.
b)hast du dir schonmal den verbrauch gedrosselter fermi-vollausbauten angeguckt? weniger takt und spannung reduzieren ja nicht die zahl der hardwareunits um den die kleineren gedrosselt sind... es bleibt weiterhin der big tank mit massig material, der dann eben nur noch ein schippchen gemütlicher die arbeit in einem batz erledigen statt sich kaputt zu rennen.
zum strom: ja und guck dir erstmal amd an, die verschieben ihr dual-produkt sogar erst in den februar um das örtlich marode stromnetz nicht über zu strapazieren, wenn die leute im tiefsten winter heitzen und zeit zum spielen haben...
a) dann rechne den milchmädchen ma vor, wie viel die karte brauchen wird
b) ein gf114 ist ungleich billiger herzustellen als ein gf110. warum sollte man dann die teuren gf110 "ein schippchen gemütlicher die arbeit" verrichten lassen, wenns die vergleichsweise kostengünstigen gf114 auch tun?
wie? ich helf dir auf die sprünge bei der völligen fehlkalkulation (vielleicht kannst du es ja mit einer 9800x2,gtx295,hd4870x2 und so weiter besser abschätzen? ) und dann soll ich auch noch den richtigen wert auswerfen? pfüh...
glaubst du es geht hier darum die karte as cheap as possible anzubieten? das ist ein reines prestige-ding, was noch nichtmal von nvidia auf breiter schulter mitgetragen wird, sondern wirklich nur unter evgas namen in den noblen kaufhallen (die könnten das ding auch als limitierte auflage bringen, würde auch nix am enormen preis mehr groß verändern) auftrumpfen soll.
warum schließt du eigentlich so sicher den gf104 aus? dass es kein dual-gf110 wird glaubt man schnell (siehe si-schätzung), aber die andere fixierung ist nicht fundiert begründet, oder?
ich schließe den gf104 nahezu aus, weil amd wohl die 6990 mit mindestens zwei mal barts bringen wird, wenn nicht gleich cayman (was eigentlich eher erwartet wird). da nvidia wohl nicht freiwillig hinter amd zurückstehen will, werden sie wohl auf den überarbeiteten gf104, den gf114 setzen.
ich persönlich fänd ja ne dual gtx580 als machbarkeitsstudie ohne watt-beschränkung toll, aber aus wirtschaftlichen erwägungen herraus glaube ich nicht daran. ich sehe iwie ein duell dual-gtx560 vs. dual-6950 mit noch ungewissem ausgang. wobei ich die gtx59? leicht vorne sehe.
Auch wenn es ein reines prestige Objekt wird, versuchen die Firmen trotzdem den maximalen Gewinn (oder bei den Karten eher den minimalen Verlust) einzufahren. Zwei GF110 sprengen da deutlich den Rahmen!
Auf die schnelle nur einen Verbrauchswert (Nvidia Geforce GTX 570 für 350 Euro im Test: Grafikqualität mit Leistung über GTX-480-Niveau - fermi, geforce - Seite 2) gefunden, aber selbst wenn man die Karte abrundet (sagen wir mal 275 Watt) kommt man auf einen Gesamtverbrauch von 450 Watt und das liegt selbst bei 2x8-pin ganze 75 Watt über der Spezifikation.
Die GF104 / GF100 Dual-GPU Karte ist auch nie gekommen, würd mir bei dem Teil nicht allzuviel Hoffnung machen!
ich persönlich fänd ja ne dual gtx580 als machbarkeitsstudie ohne watt-beschränkung toll, aber aus wirtschaftlichen erwägungen herraus glaube ich nicht daran.
evga hat die gtx580HC2, ist ne singleslot-karte. da nimmst du jetzt 2 von, ein verbindugnsstück für die waküs, ein dual-bricket in das du eigene löcher machst für die 4*dvi und 2mal mini-dp (airflow musst du ja dank fullcover-kügler nicht beachten). dann kommt noch ne sli-bridge und ein anderes kartengehäuse drüber und et voila, hast du eine gtx595PLUS (eine dual-karte aus dem top-modell gabs schon ewig nicht mehr) im dualslot-design, die du mit wenig arbeit und nem riser-board (von glaube asus hatte das mal gebracht?) in einen pcie x16-slot quetschen kannst.
sollte für 1500USD mit ordentlich werbebudget machbar sein bei ner auflage von 1500stück.
für nen hersteller wär das nicht unmachbar, aber momentan sind selbst viele enthusiasten mit 2-4 gtx580 gut bedient...
und irgendwann kommen sich auch die kunden dumm vor, wenn du das pcb immer weiter verlängern musst, weil du xy komponenten aufs pcb quetschen willst,
das ist anteilig auch ein problem für einen dual gf100 bzw gf110.
Das einzige was das bewirkt ist, dass aus einem SLI Verbund mittels mechanischer nicht notwendiger Verbindungen eine Einheit geformt wird, die aus Gründen der elektrischen Spezifikationen weniger Performance bieten könnte, als wenn man einfach zwei der Karten im SLI betreibt.
Oder anders gesagt: Wo siehst du denn den Vorteil deines Konstrukts gegenüber zwei dieser Karten im SLI?
Die Kühlmittelzufuhr pro Karte würde rein rechnerisch halbiert, die Performance im Vergleich zum SLI geschmälert, ein Raumgewinn ergibt sich nicht...
und genau das wäre spannend: wieviel leistung kann man aus einer einzelnen karte kitzeln, dass sie sich sowohl thermisch als auch verbrauchstechnisch in alltagstauglichen regionen bewegt. mehrere karten in reihe zu schalten geht ja bekanntlich immer und sehr viel einfacher.
wie dem auch sei, ich vermute ganz stark eine dual-gtx560. alles andere wäre eine überraschung für mich.
das ist wahr. viele glauben ja, was man sich nicht vorstellen kann ginge nicht... und das ist schon die höffliche form!
siehe die aktuelle leak-folie von nvidia mit hochgerechneten eigenschaften einer cpu für das jahr 2017, wenn man einzig moores law und keine eigenen vorstellungsgrenzen zugrunde legt... glaube unter den top20 kommentaren ist "lol! das und das geht garnicht!"
@poloniumium: ich seh das problem nicht. ich will wissen wie viel leistung eine einzelne grafikkare für den altagsgebrauch mit heutiger technik bieten kann. unter ln2 und für wenige sekunden sind natürlich wieder ganz andere werte möglich, aber darauf will ich nicht hinaus (wäre aber auch interessant^^)
und was ich tolleriere, ist was ganze anderes, denn so ein teil werd ich mir sicher nicht zulegen. imho ist die derzeit "beste" grafikkarte die gtx460. sie bietet für mich das beste paket aus preis, leistung, featurset, hitze, lautstärke etc. es muss für mich nicht das schnellste sein, denn schnellstes ungleich bestes.
also guckst du nach der karte auch nicht, weil du irgendwo mehr leistung brauchst.
also guckst du nur, macht man für gewöhnlich ja lediglich mit den augen.
sorry, da ist der ofen jetzt aus, für einmal specs angucken, über betriebsparameter unter heutigen möglichkeiten wahrscheinlich noch lachen und dann wars das würde ich auch kein zirkelbrett warm machen...
ich glaube, du hast das prinzip vom marketing noch nich verstanden
gucken tut jeder leser einer pc-zeitschrift und sich anhand dessen eine meinung bilden, kaufen tut die dinger fast keiner. aber wenn der geneigte computerbildleser in den mediamarkt geht und ne graka oder nen pc haben will, denkt er: " was stand nochma neben dem längsten balken? achja nvidia, also muss ich nvidia haben"
für mich ist es aus reiner neugierde und ich lasse mich natürlich nicht durch sowas an einen hersteller binden. aber ich bin numa technikbegeistert und will son ding ma in aktion sehn
wo kommt jetzt auf einmal der begriff "marketing" her? da hast du jetzt das falsche schlagwort eingestreut und anderen untergemogelt...
ich war mit den überlegungen auch schon ein stückchen weiter als nur konsumenten den mund wässrig zu machen, wenn du otto normalo aus kreiz legen willst indem du ihm konzepte zeigst limitierst du deine möglichkeiten ja schon wieder, weil du das ganze zu einer breiten öffentlichkeit trägst und dabei sofort kritiker auf dem plan stehen und versuchen alles zu schreddern.
das würde wieder auf eine gtx595 zutreffen, aber von der karte hatten wir uns schon etwas entfernt in richtung vodoo10k...
denn nicht alles was man unternimmt muss in die öffentlichkeit kommen. natürlich ist transparenz schön, aber ab einer gewissen dummbeutelquote (ich kenn den marketingfachausdruck dafür nicht ) kannst du einfach nicht alles zeigen, weil es sofort deinen makellosen ruf schädigt, obwohl du den leuten nur mehr möglichkeiten für die zukunft bzw. informationen bietest...