Computer Hardware Forum - TweakPC

Computer Hardware Forum - TweakPC (https://www.tweakpc.de/forum/)
-   Grafikkarten und Displays allgemein (https://www.tweakpc.de/forum/grafikkarten-und-displays-allgemein/)
-   -   Die neue Gforce hat 2 Stromanschlüsse...warum? (https://www.tweakpc.de/forum/grafikkarten-und-displays-allgemein/15577-die-neue-gforce-hat-2-stromanschluesse.html)

Zyrano 06.05.2004 15:32

Die neue Gforce hat 2 Stromanschlüsse...warum?
 
....

Hi-


Ich meine der benötigte Strom kann doch locker über ein Kabel in die Karte gelangen.
Hat das was mit der Stabilität zu tun oder ist das en PR gag oder was?
Dem NT dürfte die Belastung auf einem Kabel auch nix ausmachen denke ich mal.

Raffiky 06.05.2004 15:37

Das stimmt so nicht .Jeder Kabelstrang läuft seperat zu den anderen und man soll 2 an die Graka anschliessen (ja soviel Power braucht das Ding). Also hat man auf 2 Kabelsträngen die doppelte Amperzahl zür Verfügung.

Pirke 06.05.2004 15:51

Die wird wohl zwei habenm weil die einfach Pro Leitung zu viel ziehen würde, das heist nicht, dass die Kabel es net packen würden, sondern ich denke viel mehr, dass die Leitungen auf de mBoard einfach nicht so viel aushalten würden und darum wird es dann wohl auf zwei verlegt.

taxi 06.05.2004 16:01

war doch schon des öfteren thema hier (sie nv40 wird der hammer thread)

MysteriousLink 10.05.2004 18:46

Ich hab ma noch ne Vermutung (korrigiert mich bitte wenn ich falsch liege):

Bei nem neuen PC liegen immer sone Plastikringe mit Metallkern bei. Die müssen um die Kabel gelegt werden, wegen magnetischer Strahlung. Wie entsteht diese magnetische Strahlung? Durch Induktion (also im Endeffekt durch Strom der sich ändert --> Magnetisches Feld). Diese Strahlung kann den PC stören oder "kawutsch" machen :lol: . Könnte es nicht sein, das bei einem einzigen Kabel diese ominöse Strahlung zu hoch ist und dadurch die hochsensible Karte futsch gehen könnte? Oder ist ein Kabel für Karte und eins für Lüfter? :D

Weberli 10.05.2004 19:56

also erstmal sag ich eins: Elektro Magnetische Strahlung kannste vergessen. Ob 1 Leitung oder 2 an der GraKa macht null unterschied.
Ich halte es für nen schei** PR Gag!
Ob die Karte nun 10A :lol: durch ein Kabel zieht oder durch 2 ist egal. Ein Netzteil kann die Volle Leistung auch auf einem Kabel liefern. Allerdings wird das Kabel dann relativ WARM. Ich denk mal nicht das die Karte soviel Ampere zieht das ein Kabel gleich abbrennt oder so stark belastet wird das es warm wird. Die Leitung vom Mobo + extra einen Strom Anschluss sollten reichen!
Das nächste Ding, bevor ich mir so nen verfressenen Heizlüfter hole greiff ich lieber zur Konkurenz, die ne bessere Lösung hat.... ENDE

taxi 10.05.2004 20:03

[quote]Ich halte es für nen schei** PR Gag![/quote]
wohl kaum, denn das ist pr technisch ne katastrophe!
guck mal in den "der nv40 wird hammer" thread, da steht was zum stromverbrauch...

MysteriousLink 10.05.2004 21:39

PS: Wer kauft eigentlich GForce Produkte? :lol:

io.sys 12.05.2004 07:56

Ich!

Hab ne 5900XT und bin zufrieden!
Zufriedener als mit meinen beiden 9500Pro die Stress gemacht haben OHNE ENDE!!!

Und nu Schluss mit dem ATigitt vs NieVIDder geflame!

Fr@ddy 12.05.2004 08:07

Die Übergangswiederstände sind eher zu vernachlässigen wenn die Karte über 2 Leitungen versorgt wird.

Raffiky 12.05.2004 09:15

Man soll[b] 2 komplete Kabelstränge[/b] anschliessen, nicht nur einfach 2 Stecker.
Jeder Kabelstrang hat seine eingene Stromversorgung (seinen eigenen Spannungswandler) ich denke mal um die V Zahl besser halten zu können.
Es heist das ein Kabelstrang nicht unbedingt die erforderlichen Ampers/Watt bringt und man so 2 zusammenaddiert.

Deswegen haben dicke Netzteile auch meist mehr Kabelstränge als kleinere. Und mehr Stecker pro Strang weil pro Strang die Leistung auch höher ist.[size=6][/size]

Shader 12.05.2004 13:36

[quote=MysteriousLink]PS: Wer kauft eigentlich GForce Produkte? :lol:[/quote]

eigentlich krass wie sich das entwickelt hat, in den Geforce Zeiten (bis GF4) wurden die User ausgelacht die ne Radeon besaßen oder gar ne Kyro, für die meisten Geforce User hat sich nun die Welt auf einen Schlag geändert

taxi 12.05.2004 13:52

ach die pc-welt ist zu schnell lebig, da kann in 2-3 jahren alles passieren... vielleicht ist 3dfx in 3 jahren wieder marktführer , nachdem nvidia sie wieder abgestossen hat :twisted: :inflames:

_Smash_ 18.05.2004 19:26

das ist kein pr gag.... irgendwoher müssen die 150watt abwärmeleistung ja herkommen.

ps: das ist doppelt so viel wie ne gerade aktielle cpu.... also finger weg von dem drecksding.

Catweazle 19.05.2004 06:21

...aber das Schärfste ist, die Abwärme muss mer erstmal wieder aus dem Rechner bekommen, fürher hatten die Nvidia Hammerkarten ja wenigstens noch die Möglichkeit, die Abwärme (zumindest zum Teil) direkt aus dem der GraKa nächsten Slot zu befördern.

Korregiert mich, falls ich mich da täusche, aber auf den Fotos der neuen Nvidias sieht das so aus, dass der Kühlkörper zwar zwei Slots blockiert, die Hitze aber im Gehäuse bleibt.
Zumindest sehe ich keinen "Luftkanal", der die Abwärme direkt aus dem Gehäuse transportiert.

[url]http://www.de.tomshardware.com/graphic/20040414/nv40_geforce6800ultra-03.html[/url]

Also: Kauft Euch so eine Karte und vergesst passive NT und leise Lüfter, neben dem Lärm, den der GraKa-Lüfter selber schon produziert (sh. auch Toms Hardware) werden vermutlich noch einige "turbinen" benötigt, um die Abwärme der Karte (immerhin mehr, als eine aktuelle Intel P IV CPU - und die gelten ja schon als Heizkraftwerk) aus dem Gehäuse zu bekommen.
Vom Einsatz in kleinen Barebones ganz zu schweigen (da passt sie ja eh nur, wenn mer dafür auf die TV-Karte verzichtet).
Was bei der R800 laut Berichten ja möglich sein soll - auch von der Abwärme (!)

Mir liegt eigentlich nix daran, Nvidia zu diskreditieren, war ja selber stolzer Besitzer einer GF 1 DDR :-).
Die Anforderungen neuer Spiele sind mörderisch und jeder GraKa-Entwickler, der sich dieser Herausforderung stellt, verdient unsere volle Bewunderung (ehrlich).
Aber ich finde, dass Nvidia da momentan auf dem falschen Weg ist, insbesondere unter Berücksichtigung des Trends, dass auch Gamer "Ruhe in der Bude" immer mehr schätzen lernen.

Gruesslies

Weazle

hanuta 19.05.2004 09:43

NVIDIA ging es halt darum ATI zuschlagen, da war der Rest dann Nebensache.

Raffiky 19.05.2004 10:50

Nvidia ist ja auch nicht so Stark auf den High End Graka Markt angewiesen wie ATI. Die stellen ja auch Mainboardchipsätze und Onboardgraka´s her bis zum geht nicht mehr.Und Nvidea hatte halt zulange ein Monopol und hat zur Zeit der Gforce 3ér und 4ér Serie wohl gebummelt.

_Smash_ 19.05.2004 10:55

naja ati macht das genau so... zusätzlich sind in vielen büro-pc´s 2d- und ältere 3d-ati-karten verbaut. damit machen die das meiste geld.

Raffiky 19.05.2004 11:08

Ja stimmt natuerlich aber die Zugpferde sind halt die Graka´s ueber 300 €. Es gibt ja nicht die meisten Test´s zu den 2d und Onboard Graka´s weil die Leistung von denen ehr nebelsächlich ist .

Das Schoene daran ist aber die gute Konkurenz zwischen denen so dass die Preise gedrückt und die Entwicklung vorran getrieben wird .

_Smash_ 19.05.2004 11:12

jo das sind die prestige-objekte.
aber an den gamern verdienen die im prinzip kaum was. in der industrie liegt das geld der pc-hersteller. das ist genau so wie bei den prozessoren.


Alle Zeitangaben in WEZ +1. Es ist jetzt 10:10 Uhr.

Powered by vBulletin® Version 3.8.10 (Deutsch)
Copyright ©2000 - 2024, vBulletin Solutions, Inc.
SEO by vBSEO 3.5.2 ©2010, Crawlability, Inc.