wunderbar, nvidia bringt bald ihre neue version der grafikkarten raus, die die cpu massiv unterstützen (cuda-schnittstelle), dann sieht der laie in einem solchen rechenr überhaupt nicht mehr durch, was wofür eingesetzt wird.
oder die bauteile nehmen sich gegenseitig die arbeit weg
grafikkarten ersetzen ja auch schon soundkarten oder chips auf dem mobo dafür, teilweise sogar die netzwerkschnittstelle... irgendwann führt nurnoch ein bildschirmkabel, strom und usb in die gpu und wir nennen das dann "Computer"
450mm or bust!
Wenn Kritik nicht kritisch ist, ist sie zu kritisieren.
Ich finde den Schritt gut. Im Prinzip ist eine dedizierte "Einsteiger"karte nicht wirklich leistungsfähiger als eine Onboard. Für Office und leichtes Multimedia jedenfalls ideal
Das einzige as mich dabei interessiert ist, wie viele Monitore man digital an ein Board mit CPU/GPU Kombi man ansteuern kann.
Desktop: AMD Phenom II X4 955 BE | Gigabyte GA-MA790XT-UD4P | 8GB Corsair DDR3 1600 cl9 | Sapphire HD6950/2048MB | ASUS 248H | Win7 64 | ------------------------ Mobil: Dell Studio 17: C2D P8400 | PM45 | 4GB DDR2 800 | HD 3650/256 | WiFi 5300 | WLED-Display | Win7 64 | Vista 64 | ------------------------
ne dedizierte kann man aber leichter austauschen und hat zumeist aktuellere technik drinnen. gpus kommen praktisch jedes jahr und cpus wenn es hoch kommt alle 2 jahre und werden gern auch länger genutzt. da fällt eine schwäche der treiber wie gerade erst im forum gepostet doppelt auf die füße...
zudem wird der gpu-markt im hinblick auf die verkaufs-charts weiter verzerrt... naja, man post halt gerne.
fassen wir zusammen, man verliert flexibilität, der grundbedarf eines minimalrechners steigt, weil man nurnoch begrenzt kerne ohne gpu findet und zahlt dafür noch nen höheren preis, damit sich die restliche welt über 2% geringere kosten. praktisch ein solidaritätszuschlag, ole...
ne, ne, ne. sollte zum beispiel ferry knigths noch nen durchbruch schaffen kann man genau diese apus fast flächendeckend wegwerfen nach nur wenigen jahren.
ich erwarte dann in nem dreiviertel jahr ne news dazu, dass amd in zukunft ihre cpus nicht mehr nach kernen und threads zu unterteilen pflegt, sondern "module" propagiert.
ne dedizierte kann man aber leichter austauschen und hat zumeist aktuellere technik drinnen. gpus kommen praktisch jedes jahr und cpus wenn es hoch kommt alle 2 jahre und werden gern auch länger genutzt.
Als ob in der Leistungsklasse was getauscht werden würde. Da wird höchstens getauscht wenn die alte kaputt ist.
Es geht ja nicht um High End GPUs, sondern um schnöde Minimalmodelle.
Als ob in der Leistungsklasse was getauscht werden würde. Da wird höchstens getauscht wenn die alte kaputt ist.
Es geht ja nicht um High End GPUs, sondern um schnöde Minimalmodelle.
Du glaubst gar nicht, wie viele Medion- und Dell-Rechner ich früher in der Werkstatt mit dedizierten Einsteigergrafikkarten aufgerüstet habe. 50, 75, 100 Euro investiert und der Rechner war erst mal wieder fit für das Wunschgame des Bengels. Mehr wollen viele gar nicht. Game X soll laufen und dafür soll n Betrag, möglichst unter 100 Euro investiert werden.
Wenn die CPU dafür noch ausreicht, war meistens ne neue Graka, manchmal in Kombination mit nem Ram-Update eine gefragte Lösung. Denke nicht, dass sich das in den letzten paar Jahren so dramatisch verändert hat.
edit: Wobei ich eingestehen muss, dass es wenn es nur um Kartenklassen im Rahmen der jetzigen HD6400er geht, wäre das bezüglich meines geschilderten Falles gar nicht so relevant, die sind sogar zum Nachrüsten zu low. ^^ Ich relativiere meinen Beitrag also.
Das sehe ich etwas anders. Wo genau liegt der Unterschied ob einen Einsteiger-GPU auf dem Mainboard oder auf der CPU integriert ist? Ist die auf dem Mainboard defekt muß die ganze Platine getauscht werden. Eine APU ist in der beziehung leichter zu handhaben. Und aufrüstwilligen steht ja nihcts im Weg, es können ja immernoch Leistungsfähigere Grafikkarten eingebaut werden. Also ich persönlich finde den Schritt begrüßenswert, alleine schon aus gründen der Stromeinsparung da die Signalwege kürzer und weniger Störanfällig weren und so die Spannung reduziert werden kann.
wenn wir es aus dem gesichtspunkt green it (ich unterstell dabei mal stromsparen) sehen dann ist eine kombination wie es uns die notebooks vormachen wünschenswerter. warum nicht einfach eine intel gpu oder amd apu und wenn bedarf ist soll eine große karte dies unterstützen. das würde ich mir wünschen weil das auch strom sparen würde aber die karten verbrauchen immer mehr und man fragt sich doch manchmal schon warum eine einstiegskarte heutzutage schon min 30watt futter bei hd abspielen?! muss das sein? realtek und via (chrome gpu) machen es uns doch vor wie es gehen kann! das sind für mich richtige graka´s für den alltag und der rest soll dann eine große karte machen.
aber wie bleiben unseren motto treu besser höher weiter *G*
Naja anders gesehen, reichen ja auch die Lösungen, die in modernen Handys stecken um flüssig HD Material wieder zu geben. Und die sind noch weit aus sparsamer als die 17,5W die AMD anstrebt.
Eigentlich brauch ein Netbook heutzutage nicht mehr als nen guten ARM Prozzessor, nur leider unterstützt Windows 7 die Architektur z.B. noch nicht.
Ich denke es wir immer mehr in die Richtung gehen, weil irgendwann ist nen Netbook dann nichts anderes als nen sehr großer IPod mit Monsterakku und 72 Stunden Akkulaufzeit.
Für Alltagsaufgaben super.... zum Gaming, waren die Teile noch nie da.
Wenn man also schafft so stromsparend auch eine ordentliche APU zu verarbeiten, dass man auch noch gescheit spielen kann... das wäre schon genial.
Geändert von Mother-Brain (26.07.2011 um 09:46 Uhr)
Eigentlich brauch ein Netbook heutzutage nicht mehr als nen guten ARM Prozzessor, nur leider unterstützt Windows 7 die Architektur z.B. nicht mehr.
wann hat windows für den homeuser (von nichts anderes redet man ja, wenn es um den strang von 7 als longhorn-nachfolger geht) das letzte mal was anderes als x86 unterstützt? im gegenteil, das soll ja schon alsbald kommen.
den rest editier ich mal weg, dachte das wär schon wieder das greenIT-thema und wollte was vom stapel lassen *g*
jaja, im prüfungsstress sind wir alle nur physische und seelische wracks sowie kleine häufchen elend
die idee eines ipods ist aber auch überholt. es wird weiterhin an einer guten gehirnwellen-schnittstelle gearbeitet und wenn die eingabe darüber fuppt sind es nurnoch jahrzehnte bis auch die ausgabe von informationen realisiert wird.
in kürzerer zeit können wir uns ja vielleicht auch thin-clients wünschen. intel hat mit knigths ferry ja schon gezeigt, was tolles sie alles streamen können und sowas kann man auch dem homeanwender schmackhaft machen. dann hat man ein interaktives display und empfänger und fertig da reicht der akku jetzt schon tagelang...