TweakPC

Zurück   Computer Hardware Forum - TweakPC > News & Hilfen > News
Registrieren Hilfe Community Downloads

Antwort
 
LinkBack Themen-Optionen Ansicht
Alt 12.09.2008, 12:52   #51 (permalink)
Fingerabzähler
 

Registriert seit: 12.09.2008
Beiträge: 9

Edanoib befindet sich auf einem aufstrebenden Ast

Standard AW: Kolumne: Schnellere Grafikkarten bald nicht mehr möglich?

@ borsti

Zitat:
Der Begriff State of the Art bezeichnet den höchsten anzunehmenden Entwicklungszustand einer bestimmten Technologie.
Und wo braucht der "höchste anzunehmenden Entwicklungszustand" bei Grafikkarten ein 1 KW? Dieser Entwicklungszustand ist im Moment eine 280GTX oder eine X2 HD4870.
Nur in dem man die Anzahl der Komponenten erhöht, erreiche ich auch diese extreme Leistungsaufnahmen! Dann kann ich genausogut mit Rechenclustern daher kommen. Die haben auch schon vor 10 Jahren extrem viel verbraucht...
Wie du siehst, beschränkt sich auch deine Definition auf einen bestimmten Rahmen, da sonst die Leistungsaufnahme im Grunde nur von der Anzahl der verwendeten Komponenten abhängig ist!

Es gibt auch noch viele andere Möglichkeiten für geringere Leistungsaufnahme, als einen DIE-******... (warum darf ich nicht s.h.r.i.n.k. schreiben?)
Schau doch einfach einmal die Chipentwicklung (nicht nur auf dem Grafikkartenmarkt) der vergangenen Jahre an!
Auch die Forschung schläft nicht (müsstest einfach nach ein paar Artikeln Googeln)...
Aber so lange es auch so geht, gibt es keinen Grund vom bisherigen Schema abzuweichen!


@ dr_Cox

Die Lösung der Multi-GPU-Lösung ist ja von ATI schon seit langem angekündigt worden (und damit meine ich keine CrossFire/SLI-Verbunde oder X2-Karten, wie wir sie jetzt kennen, was ja auch nur Crossfire auf einer Karte ist).

Und warum sollte es nicht interessieren, was in der Vergangenheit (das sind 4 Jahre) möglich war?
Und so lange etwas funktioniert, macht es auch keinen Sinn etwas zu ändern, was extrem kostenintensiv ist. Erst wenn man an die Grenzen stößt, wird es etwas Neues geben! (siehe auch Intel: Netburst auf Core-Architektur).
Von daher ist die Kolumne eher Panikmache, als eine realistische Einschätzung!
Edanoib ist offline   Mit Zitat antworten
Alt 12.09.2008, 13:31   #52 (permalink)
Extrem Tweaker
 
Benutzerbild von Seebaer
 

Registriert seit: 10.04.2002
Beiträge: 2.133

Seebaer ist ein LichtblickSeebaer ist ein LichtblickSeebaer ist ein LichtblickSeebaer ist ein LichtblickSeebaer ist ein Lichtblick

Standard AW: Kolumne: Schnellere Grafikkarten bald nicht mehr möglich?

Als Nichtbenchmarkjäger und Nichtframesfanatiker sieht das bei mir so aus:
P4 3.4 Northwood+1950 Pro - E 8600+9600GT= 50 Watt weniger bei 3facher Leistung.
SLI war für mich schon immer Geldmacherei für Benchmarkjäger.
Ich hab ein Haar auf der Brust! Ich bin ein Bär.
Seebaer ist offline   Mit Zitat antworten
Alt 12.09.2008, 13:46   #53 (permalink)
Coxito ergo sum
 
Benutzerbild von dr_Cox
 

Registriert seit: 23.02.2007
Beiträge: 8.119

dr_Cox kann auf vieles stolz sein
dr_Cox kann auf vieles stolz sein

Standard AW: Kolumne: Schnellere Grafikkarten bald nicht mehr möglich?

@Edanoib:
Deine Argumentation erinnert mich irgendwie an die Diskussionen der 90er: "Die Autohersteller haben das 3-Liter Auto schon längst in der Schublade".
Viele Menschen würden sich heute 3-Liter Autos sofort kaufen... aber es gibt sie nicht.

@Seebaer:
Du vergleichst - sorry - schon wieder Äpfel mit Birnen.
Der Pentium 4 Northwood 3,4 GHz war seinerzeit das stärkste Modell von Intel. Du müsstest es heute also mit mit einem QX9770 vergleichen. Die 1950pro war die drittstärkste Karte der 1950er Serie, ergo müsstest du ihr heute eine 4870 gegenüber stellen.

EDIT: Wenn du jetzt drauf rumreiten möchtest, dass es die 4850X2 noch nicht gibt, dann nimm statt der 4870 einfach die 4850
dr_Cox ist offline   Mit Zitat antworten
Alt 12.09.2008, 14:09   #54 (permalink)
Extrem Tweaker
 
Benutzerbild von Seebaer
 

Registriert seit: 10.04.2002
Beiträge: 2.133

Seebaer ist ein LichtblickSeebaer ist ein LichtblickSeebaer ist ein LichtblickSeebaer ist ein LichtblickSeebaer ist ein Lichtblick

Standard AW: Kolumne: Schnellere Grafikkarten bald nicht mehr möglich?

Ich möchte einfach ein Spiel ohne Probleme spielen können. Und das kann ich.
Seebaer ist offline   Mit Zitat antworten
Alt 12.09.2008, 14:12   #55 (permalink)
Coxito ergo sum
 
Benutzerbild von dr_Cox
 

Registriert seit: 23.02.2007
Beiträge: 8.119

dr_Cox kann auf vieles stolz sein
dr_Cox kann auf vieles stolz sein

Standard AW: Kolumne: Schnellere Grafikkarten bald nicht mehr möglich?

Ja, das in Ehren, aber hier gehts ja um schnellere Grakas in der Zukunft
dr_Cox ist offline   Mit Zitat antworten
Alt 12.09.2008, 14:16   #56 (permalink)
Extrem Tweaker
 
Benutzerbild von Seebaer
 

Registriert seit: 10.04.2002
Beiträge: 2.133

Seebaer ist ein LichtblickSeebaer ist ein LichtblickSeebaer ist ein LichtblickSeebaer ist ein LichtblickSeebaer ist ein Lichtblick

Standard AW: Kolumne: Schnellere Grafikkarten bald nicht mehr möglich?

Spekulationen für die Zukunft sind irrelevant (Seven of Nine)
Seebaer ist offline   Mit Zitat antworten
Für diesen Beitrag bedankt sich:
Robert (12.09.2008)
Alt 12.09.2008, 14:18   #57 (permalink)
Coxito ergo sum
 
Benutzerbild von dr_Cox
 

Registriert seit: 23.02.2007
Beiträge: 8.119

dr_Cox kann auf vieles stolz sein
dr_Cox kann auf vieles stolz sein

Standard AW: Kolumne: Schnellere Grafikkarten bald nicht mehr möglich?

Die lebt doch schon in der Zukunft
dr_Cox ist offline   Mit Zitat antworten
Alt 12.09.2008, 14:35   #58 (permalink)
Fingerabzähler
 

Registriert seit: 12.09.2008
Beiträge: 9

Edanoib befindet sich auf einem aufstrebenden Ast

Standard AW: Kolumne: Schnellere Grafikkarten bald nicht mehr möglich?

@ dr_Cox

Entwicklung dauert und kostet Geld! Bei einem Unternehmen geht es nur um Gewinnmaximierung! Warum sollte ich also "alte Prinzipien" nicht weiter fördern und verkaufen (was günstiger ist als eine Neuentwicklung), wenn sie noch funktionieren? Intel hat auch bis zuletzt an Netburst festgehalten...
Vergleiche doch einfach einmal, wie lange z.B. die aktuelle Grafikkarten-Architektur in der Entwicklung war, bis sie marktreif war!
Und diese Vorgehen gibt es in jedem Industriezweig (egal, ob Gesundheit, Elektronik, Physik, Mechanik...)
Wenn man entwickeln will/muss, dann wirst du dich wundern, was alles möglich wird... Schau doch einfach einmal an, was bei Kriegen alles herausgekommen ist (leider nicht nur positives)!

Und zu den Autos:
Man sieht es ja in den letzten Jahren, was Druck ausmacht! Die Techniken, die heute verwendet werden, gibt es alle schon länger, nur der Druck in diese Richtung zu Entwickeln war früher noch nicht so stark vorhanden!
Oder glaubst du ernsthaft, dass die ganzen sparsamen Autos nicht schon ein paar Jahre früher möglich gewesen wären?
Und an den 3 Litern, ist man übrigens schon relativ nahe dran!

Und ich bleibe dabei:
Die Kolumne geht davon aus, dass alles beim alten bleibt und nichts neues kommt (Stichwort: Trigates). Von daher zeugen solche Überlegungen nicht gerade von viel Weitsicht.
Edanoib ist offline   Mit Zitat antworten
Für diesen Beitrag bedankt sich:
djs (12.09.2008)
Alt 12.09.2008, 16:03   #59 (permalink)
djs
Extrem Tweaker
 

Registriert seit: 16.05.2006
Beiträge: 1.971

djs ist jedem bekanntdjs ist jedem bekanntdjs ist jedem bekanntdjs ist jedem bekanntdjs ist jedem bekannt

Standard AW: Kolumne: Schnellere Grafikkarten bald nicht mehr möglich?

@Seebaer
SLI war eine Zeitlang das Mittel, um Simulationen zu ermöglichen.
SLI war einen sehr kurzen Zeitraum das möglichste Maß von Leistung einer Firma, die nicht untergehen wollte.
Heute sind SLI wie auch Crossfire in der Tat Werbeklunker der Unternehmen. Wirtschaftlich uninteressant, höchstens im Sinne der technischen Entwicklung fördernd. Erst schlechtes SLI und danach anständig die X Menge an Gpu auf einem Siliziumstück.

@dr_Cox
Unter meiner hitzigen Doppelslot 88GT liegt die W-Lankarte, darüber mein PCI-E Raidcontroller. Es gibt also Leute, die die ursprüngliche Funktionsinnovation eines PCs und Leistungsanspruch erwarten und nutzen wollen. Ich habe insgesamt 3 belegte PCI Slots und 2 PCI-E, davon einer die Grafikkarte..

3 Liter Autos gab es auch in den 70'gern. Als die Wagen nicht vollgestopft mit High-Tech und Gewicht waren. Man kann ohne Probleme ein aktuelles Auto bei Verzicht der Luxus und Verwöhnoptionen auf 3 Liter schrumpfen lassen. Zu jener Zeit musste ein Auto auch keine zunehmend übergewichtige Gesellschaft tragen, ausser du bekommst einen 150 Kilo Mann mit seiner beleibten Frau und zuckerdicken Kindern in einen Smart. Nur dann schluckt dieser 10 Liter auf Anhieb.

Etwas zum positiven Vergleich, was dem Grundartikel tragend zusagt zwischen der 7900Gx zur 9500GT. Letztere ist schneller, passiv, mit Energiesparoptionen versehen und braucht keinen zusätzlichen Stromanschluss.
Schlussfolgernd hat sich was am Markt durch den Druck auf die Unternehmen getan. Etwas, was immer möglich gewesen wäre, wenn man innovativ statt nur durch das Kapitalsystem handeln würde. AMD hätte auch den Athlon XP in einer Cool'n'Quit Variante rausbringen können, doch die Antriebskraft lag in 64 Bit um intel richtig einzuheizen. Ausserdem hat niemand nach Energieverbrauch zu der damaliger Zeit bis auf den im mobilen PC Bereich Nötigen verlangt, sonst wären viele von intel abgewandert.

Die Hersteller haben alle Produkte in peto, nur werden diese auch bereitgestellt, wenn der Markt es auch verlangt. Man kann halt keine Kohle verdienen, wenn keiner technologische Innovationen kaufen will.

Daher erscheint derzeit ein Mainboard mit Onboardgrafik den Unternehmen wirtschaftlich zu sein, weil man einen größeren Markt bedienen kann, statt zusätzliche Energiesparoptionen in Form von Clusterabschaltungen oder einer kleinen dedizierten 3D Einheit in eine High-End Karte zu stecken.
Wem Onboardleistung nicht reicht und Sparoptionen will, wird halt diesem hybridpower Unfug beitreten müssen.

Gruß

Geändert von djs (12.09.2008 um 20:29 Uhr)
djs ist offline   Mit Zitat antworten
Alt 12.09.2008, 19:34   #60 (permalink)
TPC Rampensau
 
Benutzerbild von borsti
 

Registriert seit: 19.11.2006
Beiträge: 8.674

borsti ist ein wunderbarer Anblickborsti ist ein wunderbarer Anblickborsti ist ein wunderbarer Anblickborsti ist ein wunderbarer Anblickborsti ist ein wunderbarer Anblickborsti ist ein wunderbarer Anblickborsti ist ein wunderbarer Anblick

Standard AW: Kolumne: Schnellere Grafikkarten bald nicht mehr möglich?

Zitat:
Zitat von Edanoib Beitrag anzeigen
@ borsti

Und wo braucht der \"höchste anzunehmenden Entwicklungszustand\" bei Grafikkarten ein 1 KW? Dieser Entwicklungszustand ist im Moment eine 280GTX oder eine X2 HD4870.
Nur in dem man die Anzahl der Komponenten erhöht, erreiche ich auch diese extreme Leistungsaufnahmen! Dann kann ich genausogut mit Rechenclustern daher kommen. Die haben auch schon vor 10 Jahren extrem viel verbraucht...
Wie du siehst, beschränkt sich auch deine Definition auf einen bestimmten Rahmen, da sonst die Leistungsaufnahme im Grunde nur von der Anzahl der verwendeten Komponenten abhängig ist!

Es gibt auch noch viele andere Möglichkeiten für geringere Leistungsaufnahme, als einen DIE-******... (warum darf ich nicht s.h.r.i.n.k. schreiben?)
Schau doch einfach einmal die Chipentwicklung (nicht nur auf dem Grafikkartenmarkt) der vergangenen Jahre an!
Auch die Forschung schläft nicht (müsstest einfach nach ein paar Artikeln Googeln)...
Aber so lange es auch so geht, gibt es keinen Grund vom bisherigen Schema abzuweichen!


@ dr_Cox

Die Lösung der Multi-GPU-Lösung ist ja von ATI schon seit langem angekündigt worden (und damit meine ich keine CrossFire/SLI-Verbunde oder X2-Karten, wie wir sie jetzt kennen, was ja auch nur Crossfire auf einer Karte ist).

Und warum sollte es nicht interessieren, was in der Vergangenheit (das sind 4 Jahre) möglich war?
Und so lange etwas funktioniert, macht es auch keinen Sinn etwas zu ändern, was extrem kostenintensiv ist. Erst wenn man an die Grenzen stößt, wird es etwas Neues geben! (siehe auch Intel: Netburst auf Core-Architektur).
Von daher ist die Kolumne eher Panikmache, als eine realistische Einschätzung!
Du drehst dir die Sachlage ständig zurecht. Du sagst mir es gäbe kein System das 1kW verbrauchen könnte, erst wenn du mit dr_Cox sprichst denkst du wieder an Multi GPU Systeme.
Das ganze ist doch ganz schnell gemacht, 3 mal eine GTX280 a 236W auf ein 780i Chipset das sich auch schon um 80W genehmigt und noch nen übertakten Quadcore mit der sich dann auch mal eben 150W oder mehr genehmigt.

Das ist frei erwerbbare Hardware und keine Machbarkeitsstudie und verschluckt mal eben knapp 1000W.

Zitat:
Zitat von Edanoib Beitrag anzeigen
@ dr_Cox

Entwicklung dauert und kostet Geld! Bei einem Unternehmen geht es nur um Gewinnmaximierung! Warum sollte ich also \"alte Prinzipien\" nicht weiter fördern und verkaufen (was günstiger ist als eine Neuentwicklung), wenn sie noch funktionieren? Intel hat auch bis zuletzt an Netburst festgehalten...
Vergleiche doch einfach einmal, wie lange z.B. die aktuelle Grafikkarten-Architektur in der Entwicklung war, bis sie marktreif war!
Und diese Vorgehen gibt es in jedem Industriezweig (egal, ob Gesundheit, Elektronik, Physik, Mechanik...)
Wenn man entwickeln will/muss, dann wirst du dich wundern, was alles möglich wird... Schau doch einfach einmal an, was bei Kriegen alles herausgekommen ist (leider nicht nur positives)!
Auch hier stellst du einfach nur belanglose Thesen auf, nenne doch mal einfach nur einen Ansatz auf Nvidias/ATIs Roadmap der die GPU Funktion von heute auf morgen revolutionieren wird.

PS:
Das Wort shr!nk darfst du nicht schreiben das das tool dvdsh!nk im vbb Zensur Filter enthalten ist.

MfG
borsti ist offline   Mit Zitat antworten
Alt 12.09.2008, 21:44   #61 (permalink)
Fingerabzähler
 

Registriert seit: 12.09.2008
Beiträge: 9

Edanoib befindet sich auf einem aufstrebenden Ast

Standard AW: Kolumne: Schnellere Grafikkarten bald nicht mehr möglich?

@ borsti

Ich sehe nicht, wo eine 3. GTX280 440 Watt brauchen sollte. Ob ich jetzt mit irgendwelchen Burn-In-Tests a la FurMark die Leistung in nochmal höhere Regionen treiben kann, ist in meinen Augen irrelevant, weil dies keine realen Spielebedingungen sind (und mit 3 GTX wird es als solches System auch gedacht sein!).
ComputerBase - Nvidia GeForce GTX 280 (SLI) (Seite 32)

Bezüglich der MultiGPU-Systeme habe ich mich auf die Idee von AMD/Nvidia bezogen, keine riesigen Einzelchips mehr zu Produzieren, sondern im Grunde nur noch "Midrange-Chips" und deren Anzahl je nach Leistungsklasse zu variieren.
Deswegen habe ich auch geschrieben:
"(und damit meine ich keine CrossFire/SLI-Verbunde oder X2-Karten, wie wir sie jetzt kennen, was ja auch nur Crossfire auf einer Karte ist)."
Für mich macht es einfach einen Unterschied, ob ich ein Produkt erwerbe (auch wenn darauf mehrere Recheneinheiten sind) oder ob ich mehrere einzelne Produkte kaufen muss!
Ich unterscheide auch zwischen Dual- und Quadcores und Multi-Prozessor-Systemen (oder wenn man es noch weiter treibt Rechencluster). Selbst Windows macht diese Unterscheidung. Von daher ist "State of the Art" für mich das Leistungsstärkste Einzelprodukt und nicht das leistungsstärkste System, das durch zusammenlegen von vielen Recheneinheiten erreicht wird. Wikipedia siehts ja genauso: "das höchstentwickelte (High-End) verfügbare technische Gerät seiner Klasse". Natürlich kommt es jetzt auf die Definition von Klasse und Gerät an, aber das würde jetzt zu weit führen...

Warum stelle ich belanglose Thesen auf?
Nur weil ich nicht daran glaube, dass Lösungen in Entwicklung sind! Hast du dich schon einmal mit dem Thema Trigates (zwar aus den Laboren Intels, aber deswegen nicht minder interessant) auseinander gesetzt bzw. davon gelesen? Ist das kein Fortschritt?
Glaubst du wirklich, Nvidia und ATI sagen in 2 Jahren: Wir können unsere Produkte nicht mehr kühlen, deswegen gibts in Zukunft nichts schnelleres mehr?
Intel war doch schon in diesem Dilemma. Und was ist passiert?

btw danke für die Aufklärung bezüglich des Wortes shr!nk.
Edanoib ist offline   Mit Zitat antworten
Alt 12.09.2008, 22:18   #62 (permalink)
TPC Rampensau
 
Benutzerbild von borsti
 

Registriert seit: 19.11.2006
Beiträge: 8.674

borsti ist ein wunderbarer Anblickborsti ist ein wunderbarer Anblickborsti ist ein wunderbarer Anblickborsti ist ein wunderbarer Anblickborsti ist ein wunderbarer Anblickborsti ist ein wunderbarer Anblickborsti ist ein wunderbarer Anblick

Standard AW: Kolumne: Schnellere Grafikkarten bald nicht mehr möglich?

Zitat:
Zitat von Edanoib Beitrag anzeigen
@ borsti

Ich sehe nicht, wo eine 3. GTX280 440 Watt brauchen sollte. Ob ich jetzt mit irgendwelchen Burn-In-Tests a la FurMark die Leistung in nochmal höhere Regionen treiben kann, ist in meinen Augen irrelevant, weil dies keine realen Spielebedingungen sind (und mit 3 GTX wird es als solches System auch gedacht sein!).
ComputerBase - Nvidia GeForce GTX 280 (SLI) (Seite 32)

Bezüglich der MultiGPU-Systeme habe ich mich auf die Idee von AMD/Nvidia bezogen, keine riesigen Einzelchips mehr zu Produzieren, sondern im Grunde nur noch \"Midrange-Chips\" und deren Anzahl je nach Leistungsklasse zu variieren.
Deswegen habe ich auch geschrieben:
\"(und damit meine ich keine CrossFire/SLI-Verbunde oder X2-Karten, wie wir sie jetzt kennen, was ja auch nur Crossfire auf einer Karte ist).\"
Für mich macht es einfach einen Unterschied, ob ich ein Produkt erwerbe (auch wenn darauf mehrere Recheneinheiten sind) oder ob ich mehrere einzelne Produkte kaufen muss!
Ich unterscheide auch zwischen Dual- und Quadcores und Multi-Prozessor-Systemen (oder wenn man es noch weiter treibt Rechencluster). Selbst Windows macht diese Unterscheidung. Von daher ist \"State of the Art\" für mich das Leistungsstärkste Einzelprodukt und nicht das leistungsstärkste System, das durch zusammenlegen von vielen Recheneinheiten erreicht wird. Wikipedia siehts ja genauso: \"das höchstentwickelte (High-End) verfügbare technische Gerät seiner Klasse\". Natürlich kommt es jetzt auf die Definition von Klasse und Gerät an, aber das würde jetzt zu weit führen...

Warum stelle ich belanglose Thesen auf?
Nur weil ich nicht daran glaube, dass Lösungen in Entwicklung sind! Hast du dich schon einmal mit dem Thema Trigates (zwar aus den Laboren Intels, aber deswegen nicht minder interessant) auseinander gesetzt bzw. davon gelesen? Ist das kein Fortschritt?
Glaubst du wirklich, Nvidia und ATI sagen in 2 Jahren: Wir können unsere Produkte nicht mehr kühlen, deswegen gibts in Zukunft nichts schnelleres mehr?
Intel war doch schon in diesem Dilemma. Und was ist passiert?

btw danke für die Aufklärung bezüglich des Wortes shr!nk.
Wir drehen uns doch hier im Kreis...
Nicht eine 3te verbraucht 440W

Zitat:
3 mal eine GTX280 a 236W
Grundrechenarten! 3*236W+80W+150W=938W

Des weiteren sprichst du selber davon, man solle doch mal relativieren was beim normalen User rechnet und was machbar ist, argumentierst aber teilweise dann mit Rechenclustern die im Gegensatz zur High-End Karte nun wirklich garnix mit einem Desktop PC zu tun haben.

Den Trend zu Multi GPU, auch auf einer Karte habe ich doch selber schon angesprochen, nur ändert das nichts an der Aufnahme. Die Performence/W ist in einer Generation ziemlich gleich.

Mit belanglosen Themen meine ich Sprüche wie, "Entwicklung dauert.. und erst wenn sie notwendig wird beschäftigt sich die Industrie damit". Sorry, aber das ist lachhaft, glaubst du wirklich Intel fing das Forschen erst an, als auf der Netburst garnichts mehr ging? Denk doch mal über den Tellerrand hinaus, glaubst du Intel gibt Pressemitteilungen mit in denen sie die Netburst schonmal zur Sackgasse erklären, und lassen die Leute dann erstmal 2 Jahre Forschungszeit damit stehen? AMD hätte es sicher gefreut...

Und mit all dem will ich nicht sagen, dass es irgendwann garkeine neuen Karten mehr gibt, weil sie nicht zu kühlen seien. Doch man erkennt doch, dass es demnächst keinen steilen leistungsanstieg geben kann, die High-End Modelle werden zunehmend mit Wasserkühlungen uÄ angeboten, das kann ja wohl nicht die Antwort sein, genauso wenig eine steigende Anzahl von Netzteilen mit 1kW und mehr.

Mein durchaus gamingtaugliches System zB verbraucht unter Last 230W, sicherlich stößt man da noch lange nicht an irgendwelche physikalischen Grenzen, doch auch hier geht der Trend beständig nach oben, oder hast du vor 2 Jahren in Midrange Systemen schon >400W Netzteile gesehen? Schneller werden unrpoblematische Lösungen sicher noch lange nicht an Grenzen stoßen, doch Fakt ist, die "State of the Art" Systeme stoßen an diese Grenzen.

Und deswegen regt es mich eben auf, wenn hier einer mit der Tür ins Haus fällt:
Zitat:
Der Artikel ist völliger quatsch.
MfG
borsti ist offline   Mit Zitat antworten
Alt 12.09.2008, 22:46   #63 (permalink)
Bitte nicht füttern!
 
Benutzerbild von Robert
 

Registriert seit: 22.01.2002
Beiträge: 15.725

Robert kann auf vieles stolz seinRobert kann auf vieles stolz seinRobert kann auf vieles stolz seinRobert kann auf vieles stolz seinRobert kann auf vieles stolz seinRobert kann auf vieles stolz seinRobert kann auf vieles stolz seinRobert kann auf vieles stolz seinRobert kann auf vieles stolz sein

Standard AW: Kolumne: Schnellere Grafikkarten bald nicht mehr möglich?

Ich wiederhole noch mal das es sich um eine Kollumne gehandelt hat und da neigt man gerne mal zur Übertreibung damit die Leute es auch lesen und sich mit dem Thema befassen.

Hat funktioniert ^^

Natürlich wirds morgen nicht auf einemal ende mit Grafikkarten sein aber fassen wir doch mal zusammen.

Derzeit ist es so, das die Games der gebotenen Grafikleistung doch total hinterher hinken, weil die Entwicklung neuer Games länger dauert als die neuer Grafikkarten.

Als Crysis angekündigt wurde haben sich alle in die Hose gemacht und als es dann da war hatte schon jeder der wirklich ein Zocker ist, ne Grafikkarte im PC die das Teil locker geschaukelt hat.

Die Leistungsanforderungen werden aber in nächster Zeit immens steigen.

1) durch größere Displays. 30'' mit 2560x1600 sind im totalen Preisverfall und liegen nun schon bei < 1000€
2) die Games werden immer komplexer und aufwendiger

Es wird also immer mehr und mehr leistung gefordert. Und wir sehen doch ganz klar, das der Verbrauch der jeweiligen High End Lösungen immer weiter steigt.

Und von wegen mann brauch keine 4870x2 oder 280GTX TriSLI. Spiel mal Crysis in very high auf 2560x1600 ^^ Klar das hat heute keiner.

Aber bereits fast 10% der TweakPC Leser haben eine Auflösung 1920x1200 ! 1680x1080 ist jetzt schon standard.

Jahre lang war das immer 1024 und 1280, daran hat sich ewigkeiten nix geändert und nun steigt das jede Woche.

Ich denke das die Leistungsanforderungen in den nächsten Jahre gerade im Gaming Sektor echt extrem steigen werden und daher wird Multi GPU irgendwann genau wie MultiCore CPU zum standard werden.

Gleichzeitig werden Strompreise immer weiter steigen und die Physik wird die derzeitige Entwicklung immer weiter zu schrinken nicht gerade einfach machen.
Webmaster / Forumadmin [TweakPC Team]
"It is far easier to concentrate power than to concentrate knowledge." Thomas Sowell
Robert ist offline   Mit Zitat antworten
Alt 13.09.2008, 10:54   #64 (permalink)
Fingerabzähler
 

Registriert seit: 12.09.2008
Beiträge: 9

Edanoib befindet sich auf einem aufstrebenden Ast

Standard AW: Kolumne: Schnellere Grafikkarten bald nicht mehr möglich?

@ borsti

Hast du dir den Link überhaupt angeschaut? Hier kommt man selbst mit dritter GTX auf vielleicht 760 Watt, wenn man den Verbrauchssprung von einer auf die 2. GTX zu Grunde legt! Und du rechnest mir immer irgendeinen theoretischen Verbrauch zusammen, während ich dir einen Praxistest unter Realbedingungen gebe. Wo ist also dein Praxistest? Nichts anderes habe ich von dir verlangt, als ich dich nach einem System gefragt habe, das 1 KW verbraucht!
Das System, so wie es jetzt getestet wurde, ist für mich ein High-End-System (2xGTX280 mit 4 GHz Quadcore) Was willst du mehr? Und selbst mit der 3. GTX kommst du unter Realbedingungen eben nicht auf 1 KW!

Ich Argumentiere nicht mit Rechenclustern, sondern ich will dir zeigen, dass es einen Unterschied macht, ob ich ein Komponente betrachte oder einen Verbund aus mehreren Komponenten! Wenn du den Verbund mit vielen Komponenten zulässt, dann musst du ganz andere Verbunde aus Recheneinheiten zulassen, was die Definition von High-End im Privat-Gebrauch aber dann obsolet macht...

Zitat:
Zitat von borsti
glaubst du wirklich Intel fing das Forschen erst an, als auf der Netburst garnichts mehr ging?
Wo habe ich das geschrieben?
Intel hat dann angefangen, ein Komplett neues Konzept zu entwickeln, als man intern gesehen hat, dass bei dem alten ein Ende in Sicht war. Davor war man noch der Meinung, dass man mit dieser Architektur auf 10 GHz kommen kann. Warum sollte man dann eine zweite Architektur entwickeln, was Zeit, Resourcen und enorm viel Geld kostet?
Intern sind bestimmte Dinge meist schon sehr lange bekannt, bevor man sie der Öffentlichkeit mitteilt!
Zitat:
Denk doch mal über den Tellerrand hinaus, glaubst du Intel gibt Pressemitteilungen mit in denen sie die Netburst schonmal zur Sackgasse erklären
Glaubst du ernsthaft, dass in Pressemitteilungen sofort interne Probleme veröffentlicht werden? Man hält sein Produkt so lange hoch und wirbt dafür, bis man es wirklich ausgereizt hat (eben weil Entwicklung viel kostet) und eine Alternative vor der Tür steht. Dann ändern sich z.B. auch die Werbesprüche: Nicht mehr der Takt ist entscheidend, sondern Leistung pro Watt.
Und nein, ich will damit nicht, sagen, dass nicht ständig in den Intel-Laboren (oder in sonstigen) an Alternativen geforscht wird. Jedoch wird die Resourcenverteilung bei Bedarf, enorm verlagert bzw. bestimme Erkenntnis forciert!

Und ein Indiz, dass Intel wohl doch nicht rechtzeitig ferig geworden ist, mit der neuen Architektur, zeigt ja das letzte Jahr von Netburst. Dort haben habe sie relativ viel Marktanteil verloren (weil die Athlon 64 in allen Belangen überlegen waren). Warum haben sie nicht schon ein Jahr früher die Core-Architektur vorgestellt, wenn sie schon fertig gewesen wäre?

Und mit der Behauptung bezüglich des Leistungsanstiegs, wäre ich vorsichtig. natürlich kann es sein, dass man 1-2 Jahre stagniert bzw. keinen nennenswerten Fortschritte macht (hatten wir ja bei den CPUs auch). Jedoch hat damals auch niemand eine Weltuntergangsstimmung verbreitet (und zu Recht, wie wir es später gesehen haben).

Und zu den Netzteilen:
Vor 2 Jahren waren auch für Midrange-Systeme ein 400 Watt-Netzteil Standard.
Genauso, wie heute auch noch ist!

Bezieht sich das letzte Zitat auf mich?



@ Robert

Natürlich darf eine Kolumne übertreiben, jedoch sollte eine Kolumne, die sich zumindest ansatzweise von einem Bildzeitungsniveau abheben will, einfach ein bisschen differenzierter an eine Thematik herangehen.

Die wachsende Bildschirmauflösung hat aber alleine mit dem Preis der Monitore zu tun. 24" gibt es jetzt schon für 260€, das haben vor ein paar Jahren die 19" gekostet.
Aber wenn du glaubst, dass in den nächsten Jahren sich die 30" genauso etablieren, wie die jetzt die 22" oder 24", dann liegst du falsch.
1. der Preis müsste auch erst auf ca. 300€ fallen
2. die Monitorgröße/Platzproblem lässt jetzt schon manche eher zum 22" als zum 24" Monitor greifen.

Zitat:
Als Crysis angekündigt wurde haben sich alle in die Hose gemacht und als es dann da war hatte schon jeder der wirklich ein Zocker ist, ne Grafikkarte im PC die das Teil locker geschaukelt hat.
Ähm, wenn ich mich richtig erinnere, war das Gegenteil der Fall!
Wobei es immer auf die Definition von "locker schaukeln" an. Wenn du damit "nur" spielbar meinst, dann hast du recht.
Für alles andere war jede erhältliche Grafikkarte nicht wirklich schnell genug!

Zitat:
Ich denke das die Leistungsanforderungen in den nächsten Jahre gerade im Gaming Sektor echt extrem steigen werden und daher wird Multi GPU irgendwann genau wie MultiCore CPU zum standard werden.
Es kommt drauf an, was du unter MultiGPU verstehst. Wenn du damit mehrere Grafikkarten meinst, dann halte ich vehement dagegen!
Das "Crysis-Debakel" war hoffentlich den Entwicklern eine Lehre. Lieber Ressourcenschonend programmieren und dann 98% der Optik erreichen, als für die letzten 2% die doppelte Rechenleistung verbrauchen.
Das neue Crysis soll es ja z.B. schon besser machen!
Edanoib ist offline   Mit Zitat antworten
Alt 13.09.2008, 11:11   #65 (permalink)
TPC Rampensau
 
Benutzerbild von borsti
 

Registriert seit: 19.11.2006
Beiträge: 8.674

borsti ist ein wunderbarer Anblickborsti ist ein wunderbarer Anblickborsti ist ein wunderbarer Anblickborsti ist ein wunderbarer Anblickborsti ist ein wunderbarer Anblickborsti ist ein wunderbarer Anblickborsti ist ein wunderbarer Anblick

Standard AW: Kolumne: Schnellere Grafikkarten bald nicht mehr möglich?

Ich schlag hier bald mit dem Kopf auf den Tisch, jetzt streitest du darum ob das nun knappe 900 oder 1000W werden und hältst mir dann einen Vortrag über interne Planung über Dinge, auf die ich vorher anspiele. Du brauchst nicht meine Argumente ausformulieren...

Das ganze wird sinnfrei, von meiner Seite aus ist dann an dieser Stelle die Diskussion beendet.

Und ob sich das Zitat auf dich bezieht solltest Du doch am besten wissen!
Um dir das Suchen zu ersparen, ja es ist ein Zitat aus deiner ersten Antwort.

Gruß
borsti ist offline   Mit Zitat antworten
Alt 13.09.2008, 12:42   #66 (permalink)
Fingerabzähler
 

Registriert seit: 12.09.2008
Beiträge: 9

Edanoib befindet sich auf einem aufstrebenden Ast

Standard AW: Kolumne: Schnellere Grafikkarten bald nicht mehr möglich?

Zitat:
Zitat von borsti
Du brauchst nicht meine Argumente ausformulieren...
Ich habe auch nur das wiederholt, was ich schon die ganze Zeit geschrieben habe! Wenn du mich falsch verstehst und mir durch rhetorische Fragen eine falsche Aussage in den Mund legst, werde ich wohl das Recht haben, diese richtig zu stellen!
Und von mir aus, dann sind das deine Argumente: Und wo widersprechen die auch nur in einem Punkt dem von mir Gesagtem?

Und ja, zwischen 760 (oder selbst auf 800 Watt aufgerundet) und 1000 Watt sehe ich einen Unterschied! Rechne doch einfach einmal den Verbrauch in dem Test hoch!

Und ich finde es unverschämt, mir eine Aussage in den Mund zu legen, die ich nicht getätigt habe!
Ein tolles Diskussionsniveau habt ihr hier im Forum!
Edanoib ist offline   Mit Zitat antworten
Alt 13.09.2008, 13:37   #67 (permalink)
TPC Rampensau
 
Benutzerbild von borsti
 

Registriert seit: 19.11.2006
Beiträge: 8.674

borsti ist ein wunderbarer Anblickborsti ist ein wunderbarer Anblickborsti ist ein wunderbarer Anblickborsti ist ein wunderbarer Anblickborsti ist ein wunderbarer Anblickborsti ist ein wunderbarer Anblickborsti ist ein wunderbarer Anblick

Standard AW: Kolumne: Schnellere Grafikkarten bald nicht mehr möglich?

Zitat:
Zitat von >SX<Killerstute Beitrag anzeigen
Der Artikel ist völliger quatsch.
Das beste Beispiel dafür ist die 8800GTS von NVidia. Die neue Generation (G92) hat einen deutlich höhere Leistung bei deutlich geringerem Stromverbrauch als die alte Generation (G80).
Díes ist unter anderem auf den kleineren Fertigungsprozess zurückzuführen, und genau so wird es bei den zukünftigen Grafikkarten auch sein.
Soviel zum Diskussionsniveau und Dinge in den Mund legen...

Allein deswegen ist denn jetzt aber auch wirklich Schluss
borsti ist offline   Mit Zitat antworten
Alt 13.09.2008, 13:49   #68 (permalink)
Coxito ergo sum
 
Benutzerbild von dr_Cox
 

Registriert seit: 23.02.2007
Beiträge: 8.119

dr_Cox kann auf vieles stolz sein
dr_Cox kann auf vieles stolz sein

Standard AW: Kolumne: Schnellere Grafikkarten bald nicht mehr möglich?

Du zitierst den falschen
dr_Cox ist offline   Mit Zitat antworten
2 Benutzer bedanken sich für den Beitrag:
borsti (13.09.2008), kanonenfutter (13.09.2008)
Alt 13.09.2008, 13:56   #69 (permalink)
TPC Rampensau
 
Benutzerbild von borsti
 

Registriert seit: 19.11.2006
Beiträge: 8.674

borsti ist ein wunderbarer Anblickborsti ist ein wunderbarer Anblickborsti ist ein wunderbarer Anblickborsti ist ein wunderbarer Anblickborsti ist ein wunderbarer Anblickborsti ist ein wunderbarer Anblickborsti ist ein wunderbarer Anblick

Standard AW: Kolumne: Schnellere Grafikkarten bald nicht mehr möglich?

OMFG die letzten 3 Antworten spreche ich mit dem Falschen

epic fail

Die Vorwürfe mit diesen ausfallenden Äußerungen nehme ich dann mal zurück.
borsti ist offline   Mit Zitat antworten
Für diesen Beitrag bedankt sich:
kanonenfutter (13.09.2008)
Alt 13.09.2008, 14:22   #70 (permalink)
Fingerabzähler
 

Registriert seit: 12.09.2008
Beiträge: 9

Edanoib befindet sich auf einem aufstrebenden Ast

Standard AW: Kolumne: Schnellere Grafikkarten bald nicht mehr möglich?

Ok, nichts für ungut!
Kann ja mal passieren !

Trotzdem würde mich deine Stellungnahme zudem von mir geschriebenen interessieren. Du siehst ja die Planung und Entwicklung laut deiner Aussage ähnlich wie ich. Warum ist also mein Gedanke, dass man durch neue Techniken (auf die Trigates bist du z.B. noch gar nicht eingegangen) trotzdem noch eine Weile Leistungsfortschritt verbuchen kann, ohne, dass das in der Kolumne angesprochene Szenario eintritt, so falsch? Und bis wirklich das Ende der Fahnenstange der herkömmlichen Transistortechnik erreicht ist (da wage ich mich jetzt einmal weit aus dem Fenster zu lehnen), wird es entsprechende Alternativen geben oder zumindest Möglichkeiten, die die Negativaspekte so kaschieren, dass trotzdem noch Leistungssteigerungen möglich sind!
Edanoib ist offline   Mit Zitat antworten
2 Benutzer bedanken sich für den Beitrag:
borsti (13.09.2008), kanonenfutter (13.09.2008)
Alt 13.09.2008, 21:41   #71 (permalink)
Bitte nicht füttern!
 
Benutzerbild von Robert
 

Registriert seit: 22.01.2002
Beiträge: 15.725

Robert kann auf vieles stolz seinRobert kann auf vieles stolz seinRobert kann auf vieles stolz seinRobert kann auf vieles stolz seinRobert kann auf vieles stolz seinRobert kann auf vieles stolz seinRobert kann auf vieles stolz seinRobert kann auf vieles stolz seinRobert kann auf vieles stolz sein

Standard AW: Kolumne: Schnellere Grafikkarten bald nicht mehr möglich?

Zitat:
Die wachsende Bildschirmauflösung hat aber alleine mit dem Preis der Monitore zu tun. 24\\" gibt es jetzt schon für 260€, das haben vor ein paar Jahren die 19\\" gekostet.
Aber wenn du glaubst, dass in den nächsten Jahren sich die 30\\" genauso etablieren, wie die jetzt die 22\\" oder 24\\", dann liegst du falsch.
Das gleiche hat man vor kurzem noch von 24'' gesagt und 1920x1200 (wäre ja viel zu teuer).
und nun kommen schon die neuen 26'' und 27'' Monitore für etwa 400 € und etwas mehr.

30'' sind von 3000 auf 950€ gefallen, ich bin fest überzeugt das das so weiter gehen wird.

Irgendwann wird auch die Auflösung auf den kleinen erhöht werden. Sprich 26'' mit 2560x1600 usw. Das ist für mich keine Frage, denn nur so können die Chinesen ihre Produkte weiter verscheuern, Billiger ... billiger ... billiger. Das geht seit Jahren so, die billigen Produkte fliegen irgendwann raus damit von oben wieder teuere dazu kommen. Technisch wird kaum etwas verbessert, sondern nur "größer, schneller breiter" Die Gesamte Produktion ist auf Masse ausgelegt und daher vom absatz abhängig. Warum sollte sich jemand noch einen neuen Monitor kaufen. Genau weil das Teil so groß und so billig ist, das er sich denkt, naja son 26'' für 300€ schon cool. Genau so funktioniert es doch seit Jahren mit den Handys





Sprich 19'' monitore 22'' werden irgendwann gar nicht mehr angeboten weil es sich für den Hersteller nicht lohnt die für 50€ zu verkaufen. Der billigste 24'' 1920x1200 liegt schon bei 220€.

Es wird nicht lange dauern da ist 1680x1080 quasi der minimale Standard. Und Gamer werden auf 24. oder 26'' mit 1920x1200 gehen.

Zitat:
Ähm, wenn ich mich richtig erinnere, war das Gegenteil der Fall!
Wobei es immer auf die Definition von \\"locker schaukeln\\" an. Wenn du damit \\"nur\\" spielbar meinst, dann hast du recht.
Für alles andere war jede erhältliche Grafikkarte nicht wirklich schnell genug!
Ich rede hier immer von High End wie im gesamten Artikel und dazu gehört NATÜRLICH auch SLI, denn Multi GPU ob mit 2 oder einer Karte ist für mich "technisch" gesehen identisch. Und jede SLI combo von NVIDIA 8800 GTS SLI oder so und die 8800 GT sowieso haben das hin HQ locker hinbekommen.

Und das wo wie du auch schon erkannt hast, das Game extrem bescheiden programmiert ist. Was wir auch schon angemerkt haben, das es sich für die Gamer Hersteller gar nicht mehr lohn "effektiv" zu programmieren. Das macht kaum noch einer, weil immer wieder genügend Leistung zu Verfügung steht und wer die nicht hat darf dann die Details runter drehen!

Zitat:
Es kommt drauf an, was du unter MultiGPU verstehst. Wenn du damit mehrere Grafikkarten meinst, dann halte ich vehement dagegen!
Das \\"Crysis-Debakel\\" war hoffentlich den Entwicklern eine Lehre. Lieber Ressourcenschonend programmieren und dann 98% der Optik erreichen, als für die letzten 2% die doppelte Rechenleistung verbrauchen.
Ob mehrere Grafikkarten oder "mehrere Karten auf einer Platine" wie 4870X2 oder 9800GX2 das ist doch irrelevant. Technisch besteht dazwischen kein unterschied. Ne 9800GX2 sind quasi 2 Grafikkarten.

Resourcen schonen programmieren wäre ja ne tolle Sache, nur wer macht das. Niemand schau mal in deinen Windows Taks manager. Selbst die kleinsten Anwendungen schlucken 10-20 MB und "Icons" in der Tray leiste, die nix machen als ein mini menu aufzupoppen brauchen schon 1MB

Warum sollte man auch denn bald hat jeder Rechner 4GB Speicher oder 8 usw. Grafikkarten 1GB Speicher etc. etc.

Alles was du schreibst orientiert sich immer am "mainstream" aber davon reden wir nicht. Wir reden von der weiterentwicklung im High End Sektor.
Robert ist offline   Mit Zitat antworten
2 Benutzer bedanken sich für den Beitrag:
dr_Cox (13.09.2008), kanonenfutter (13.09.2008)
Alt 14.09.2008, 10:03   #72 (permalink)
Fingerabzähler
 

Registriert seit: 12.09.2008
Beiträge: 9

Edanoib befindet sich auf einem aufstrebenden Ast

Standard AW: Kolumne: Schnellere Grafikkarten bald nicht mehr möglich?

@ Robert

Ich persönlich glaube nicht, dass 30" jemals (oder sagen wir besser in absehbarer Zukunft) wirklich Standard werden wird, so wie es jetzt 19" ist und in ein paar Jahren 22" oder 24" sein wird. Dass sich der Anteil von 30"-Monitoren erhöhen wird, will ich ja nicht abstreiten, für die Masse (auch für die Masse der High-End-Zocker) ist ein solcher Monitor alleine aus Platzgründen und aus Gründen der Übersichtlichkeit (das geht einem ja schon bei 24" so) schon nicht wirklich geeignet.
Bei den Monitoren gibt es außerdem noch Steigerungsmöglichkeiten bezüglich der Panels (und nicht nur durch Größe). Und bis blickwinkelunabhängige 24"-Monitore für 220€ zu kaufen sind, wird noch einige Zeit vergehen.
Auch wenn die Tendenz zu immer größeren Geräten geht, sieht man doch jetzt schon bei den TV-Geräten, dass nicht jeder zu den größten Modellen greift, sondern sich auch mit 37 oder 40" zufrieden gibt.

Meine ganz persönliche Prognose: Die Tendenz geht eher in die Richtung, dass man LCD-TVs auch vermehrt als Monitor einsetzt, wenn man einen größeren will!


Wenn du von High-End-Rechner sprichst, musst du aber auch von "High-End" Auflösungen bzw. Einstellungen sprechen!
Für 1600x1200 mit AA und AF hat auch ein Triple-SLI-Gespann von 3 8800 ultras nicht wirklich ausgereicht!
Erst ohne AA wurde es mit Triple-SLI relativ gut "spielbar".
ComputerBase - Nvidia 3-Way-SLI (?Triple-SLI?) (Seite 15)

Zitat:
Ob mehrere Grafikkarten oder \\\"mehrere Karten auf einer Platine\\\" wie 4870X2 oder 9800GX2 das ist doch irrelevant. Technisch besteht dazwischen kein unterschied. Ne 9800GX2 sind quasi 2 Grafikkarten.
Ich gehe mal stark davon aus, dass der Name Steckkarte bzw. Grafikkarte von der Kartenform kommt. Von daher sind 2 GPUs mit jeweils extra Speicher auf einer Karte, nachwievor eine Karte. Dass ich trotzdem technischbedingt mit den Nachteilen von Multi-GPU-Lösungen (so wie wir sie nach dem heutigen Prinzip kennen) leben muss, ist wieder eine andere Frage!
Ich kaufe also bei einer X2 eine Karte, die in der Form auch vom Hersteller angeboten wird!
Ein weiterer Unterschied ist z.B. dass ich ein spezielles Board für SLI brauche, das ich mit einer X2 nicht benötige.
Macht es für dich dann auch keinen Unterschied, ob ich eine CPU mit mehreren Kernen im Rechner habe oder mehrere CPUs auf verschiedenen Sockeln? Wie ich schon geschrieben habe, macht selbst Windows diese Unterscheidung.

Intels Quadcores sind doch auch keine nativen Quadcores und haben deswegen den ein oder anderen, in der Praxis eigentlich nicht relevanten, Nachteil. Trotzdem spricht man von einer 4 Kern-CPU. Entscheidend ist hier, dass sie auf einem Sockel sitzt!
Edanoib ist offline   Mit Zitat antworten
Alt 14.09.2008, 15:39   #73 (permalink)
Coxito ergo sum
 
Benutzerbild von dr_Cox
 

Registriert seit: 23.02.2007
Beiträge: 8.119

dr_Cox kann auf vieles stolz sein
dr_Cox kann auf vieles stolz sein

Standard AW: Kolumne: Schnellere Grafikkarten bald nicht mehr möglich?

Zitat:
Zitat von Edanoib Beitrag anzeigen
@ Robert

Ich persönlich glaube nicht, dass 30\\\" jemals (oder sagen wir besser in absehbarer Zukunft) wirklich Standard werden wird, so wie es jetzt 19\\\" ist und in ein paar Jahren 22\\\" oder 24\\\" sein wird. Dass sich der Anteil von 30\\\"-Monitoren erhöhen wird, will ich ja nicht abstreiten, für die Masse (auch für die Masse der High-End-Zocker) ist ein solcher Monitor alleine aus Platzgründen und aus Gründen der Übersichtlichkeit (das geht einem ja schon bei 24\\\" so) schon nicht wirklich geeignet.
Bei den Monitoren gibt es außerdem noch Steigerungsmöglichkeiten bezüglich der Panels (und nicht nur durch Größe). Und bis blickwinkelunabhängige 24\\\"-Monitore für 220€ zu kaufen sind, wird noch einige Zeit vergehen.
22" (1680x1050) IST Standard, 19" sind Out. Schau dich doch mal in den Foren im Web um, welche Anfragen da gestellt weden. Da fragt keiner mehr nach 19", sondern alle nach 22".
Zitat:
Auch wenn die Tendenz zu immer größeren Geräten geht, sieht man doch jetzt schon bei den TV-Geräten, dass nicht jeder zu den größten Modellen greift, sondern sich auch mit 37 oder 40\\\" zufrieden gibt.

Meine ganz persönliche Prognose: Die Tendenz geht eher in die Richtung, dass man LCD-TVs auch vermehrt als Monitor einsetzt, wenn man einen größeren will!
Da hast du recht, ich sehe diese Entwicklung auch. Nur verfügen die 37"/40" TVs schon über native Auflösungen von 1920x1080. Diese Auflösung und schöne hohe/sehr hohe Details, das kannst du in aktuellen Games mit High-End Single Core Grakafikkarten überwiegend vergessen. Und die Games werden ja nicht anspruchsloser...

Zitat:
Wenn du von High-End-Rechner sprichst, musst du aber auch von \\\"High-End\\\" Auflösungen bzw. Einstellungen sprechen!
Für 1600x1200 mit AA und AF hat auch ein Triple-SLI-Gespann von 3 8800 ultras nicht wirklich ausgereicht!
Erst ohne AA wurde es mit Triple-SLI relativ gut \\\"spielbar\\\".
ComputerBase - Nvidia 3-Way-SLI (?Triple-SLI?) (Seite 15)
Eben deswegen brauchts stärkere High-End Grafiklösungen künftig. Nur wenn du dir anschaust wie NVIDIA beim Monsterchip GT200 mit den Yields rumwürgt, dann ist klar, dass auf herkömmliche Graka-Bauweise _jetzt_ schon der Punkt gekommen ist, an dem ein "Weiter so" nicht mehr möglich ist.
Was glaubst du denn, warum ATI beschlossen hat, keine Single Core High-End Karten mehr zu bauen? Richtig - sie haben am R600 gesehen, dass das Dead End ist. Seitdem wird im oberen Leistungssegment konsequent auf CF gesetzt - will sagen: CF ist Vorraussetzung und nicht nur Option. Und sie haben es soweit gebracht, ihre CF Lösungen preislich einer Single-Core Highend Lösung von NVIDIA ebenbürtig zu machen.

Zitat:
Ich gehe mal stark davon aus, dass der Name Steckkarte bzw. Grafikkarte von der Kartenform kommt. Von daher sind 2 GPUs mit jeweils extra Speicher auf einer Karte, nachwievor eine Karte. Dass ich trotzdem technischbedingt mit den Nachteilen von Multi-GPU-Lösungen (so wie wir sie nach dem heutigen Prinzip kennen) leben muss, ist wieder eine andere Frage!
Ich kaufe also bei einer X2 eine Karte, die in der Form auch vom Hersteller angeboten wird!
Ein weiterer Unterschied ist z.B. dass ich ein spezielles Board für SLI brauche, das ich mit einer X2 nicht benötige.
Macht es für dich dann auch keinen Unterschied, ob ich eine CPU mit mehreren Kernen im Rechner habe oder mehrere CPUs auf verschiedenen Sockeln? Wie ich schon geschrieben habe, macht selbst Windows diese Unterscheidung.
Es macht einen Unterschied. Wenn du z.B. Folding@Home hernimmst. Mit 2 ATI Karten im System kannst du auf beiden GPUs folden, mit einer X2 nicht. Das liegt an der "Detection", also wie das Betriebssystem die Karte erkennt.

Zitat:
Intels Quadcores sind doch auch keine nativen Quadcores und haben deswegen den ein oder anderen, in der Praxis eigentlich nicht relevanten, Nachteil. Trotzdem spricht man von einer 4 Kern-CPU. Entscheidend ist hier, dass sie auf einem Sockel sitzt!
Nein, entscheidend ist, dass diese 4 Cores in einem Package zusammen die CPU ergeben. Zumal du schon wieder anfängst eine High-End Graka (die sind zum Zocken gebaut, sonst nix) mit einer CPU zu vergleichen. Der Aufgabenbereich einer CPU erstreckt sich aber viel weiter (nich nur Gaming). Dein angeblich "nicht relevanter Nachteil" einer nicht-nativen Architektur spielt gerade im Server Segment, bei der Virtualisierung und beim Clustering eine entscheidende Rolle. Da wird bei CPUs das fette Geld verdient, nicht durch die Gamer.
Also zieht bitte keine Vergleiche, wo sie nicht angebracht sind!

LG
dr_Cox ist offline   Mit Zitat antworten
Alt 14.09.2008, 16:24   #74 (permalink)
djs
Extrem Tweaker
 

Registriert seit: 16.05.2006
Beiträge: 1.971

djs ist jedem bekanntdjs ist jedem bekanntdjs ist jedem bekanntdjs ist jedem bekanntdjs ist jedem bekannt

Standard AW: Kolumne: Schnellere Grafikkarten bald nicht mehr möglich?

Nur sind Multi-GPU Systeme auch weit entfernt von einer nativen Leistung einer derzeit nicht vorhandenen Mehrkern GPU. Daher bleibt auch CF/SLI weiterhin ein Kompromiss. Desweiteren fallen Multigpu Systeme allein wegen ihrer Treiberanbindung negativ auf. Nichts weiter waren auch die Mehrkern Lösungen des Pentium 2/3 für den betuchten Zocker, nämlich Kompromiss. Heute sind wir durch ermöglichten Technologiefortschritt bei Mehrkern angelangt, was allein durch kürzere Datenleitungen deutlich besser skaliert. Robert würde für seine Stromrechnung, bessere Leistung und F@H bei einer Mehrkerngpu sein derzeit ehemaliges SLI Gespann sicherlich sofort auflösen.

Samsung will übrigens kleinere Zoll Monitore mit erhöhter nativer Auflösung auf den Markt bingen. Wären die schon draussen, wäre ich mit einem 22 Zoll in einer 1920x1200 Auflösung besser bedient, statt mit einem 24 Zoll. Der Gamer und High-End Markt ist im Massenmarkt eine Nische und lediglich Prestige nach aussen hin. Der normale Kunde bleibt bei seinem 17 Zoll bis 20 Zoll TFT. In Foren treiben sich ein Bruchteil aller möglichen Käufer auf dem Weltmarkt rum.

Wir sind Porsche sind Ferrari Liebhaber, der Rest der Welt fährt ein Famillienauto oder einen Volkswagen.

Gruß
djs ist offline   Mit Zitat antworten
Alt 14.09.2008, 16:38   #75 (permalink)
Bitte nicht füttern!
 
Benutzerbild von Robert
 

Registriert seit: 22.01.2002
Beiträge: 15.725

Robert kann auf vieles stolz seinRobert kann auf vieles stolz seinRobert kann auf vieles stolz seinRobert kann auf vieles stolz seinRobert kann auf vieles stolz seinRobert kann auf vieles stolz seinRobert kann auf vieles stolz seinRobert kann auf vieles stolz seinRobert kann auf vieles stolz sein

Standard AW: Kolumne: Schnellere Grafikkarten bald nicht mehr möglich?

Jetzt fallt doch nicht immer wieder auf den "normal" user zurück. Wir reden hier über HIGH END. Natürlich wird der Büro typ nicht in kürze einen 30'' monitor haben. Aber wer mal auf so einem Teil gezockt hat, der weiss das das zumindest beim Zockern in diese Richtung gehen wird.

Was die X2 Sache angeht. Eine X2 ist letzendlich nichts anderes als 2 Karten, die auf eine Karte mit einem "Bridge Chip" gepackt sind.

Das ist wie ein Server Board auf dem 2 CPUs stecken. Ein riesen Unterschied zu eine Dual oder Quad Core CPU auf dem mehrere Kerne in einer CPU sind.

Da die GPUs sowieso total parallelisiert sind und anders aufgebraut als eine GPU, ist es sowieso fraglich, ob es Sinn macht wirklich eine Dual Core GPU zu machen, oder nicht einfach eine "Single Core GPU", die einfach größer und noch weiter parallelisiert mit mehr Stream prozessoren etc.

Genau wie im Serverbereich 2 Quad Core Xeons auf einem Board zusammengepackt werden und man so 8 Cores hat, wird es bei den Grafikkarten erst mal ne Zeit lang so weiter gehen, das man mehere GPUs auf eine Karte klatscht. ATI hat das ja wohl erkannt das es dahin geht. Der nächste Schritt wird sein zu erreichen, das sich die beiden GPUs dann den gleichen Speicher teilen, damit man nich immer den doppelten Speicher mitschleppen muss.

ich persönlich warte ja schon auf die Ankündigung der ersten GX4 karte, eine Huckepack Karte wie die 9800GX2 nur mit je 2 GPUs auf jeder Platine. Ich bin mir eigentlich fast sicher das so was kommen wird. Schon alleine nur aus prestige Gründen. und Vermutlich wird die Karte 4 PCIe Stromanschlüsse haben. Machbar wäre das prinzipiell jetzt schon, denn es ist nix anderes als QuadSLI oder CrossfireX in eine Karte zusammengebaut.
Robert ist offline   Mit Zitat antworten
Antwort


Aktive Benutzer in diesem Thema: 1 (Registrierte Benutzer: 0, Gäste: 1)
 

Forumregeln
Es ist dir nicht erlaubt, neue Themen zu verfassen.
Es ist dir nicht erlaubt, auf Beiträge zu antworten.
Es ist dir nicht erlaubt, Anhänge hochzuladen.
Es ist dir nicht erlaubt, deine Beiträge zu bearbeiten.

BB-Code ist an.
Smileys sind an.
[IMG] Code ist aus.
HTML-Code ist aus.
Trackbacks are an
Pingbacks are an
Refbacks are an


Ähnliche Themen
Thema Autor Forum Antworten Letzter Beitrag
[News] Phenom II X3 zu Phenom X4 freischalten bald nicht mehr möglich? TweakPC Newsbot News 0 27.02.2009 14:05
[News] Die Geforce FX 5900 XT bald nicht mehr auf den Markt? TweakPC Newsbot News Archiv 0 05.12.2008 06:37
[News] xbox.com/de bald nicht mehr kostenlos? TweakPC Newsbot News Archiv 0 03.10.2008 14:55
Systemwiederherstellung nicht mehr möglich ?! Roofus Windows & Programme 3 04.09.2003 20:48
OC nicht mehr möglich & Fehlermeldung Gast AMD: CPUs und Mainboards 8 10.06.2003 20:20


Alle Zeitangaben in WEZ +1. Es ist jetzt 08:30 Uhr.






Powered by vBulletin® Version 3.8.10 (Deutsch)
Copyright ©2000 - 2024, vBulletin Solutions, Inc.
SEO by vBSEO 3.5.2 ©2010, Crawlability, Inc.
Impressum, Datenschutz Copyright © 1999-2015 TweakPC, Alle Rechte vorbehalten, all rights reserved