Nach dem Ende des Gigahertz-Wettrennens vor Jahren ereilt das Integrieren von immer mehr Rechenkernen in CPUs möglicherweise bald das gleiche Schicksal.
Hier ist eure Meinung gefragt! Postet eure Kommentare und Fragen zu den News.
AW: Krieg der Kerne: AMD CTO glaubt an baldiges Ende
Doch nen bissel weit gergriffen... Ich denke die Power kann man immer irgendwie gebrauchen. Auch wenn ich glaube das diese CPU/GPU Kombi für viele sehr interessant sein wird, wird es nicht das Non-Plus sein bzw. werden.... kommt immer darauf an, was man haben will... und ich glaube nicht, dass AMD aufhört Prozessoren zu optimieren auch nach Leistung hin.
AW: Krieg der Kerne: AMD CTO glaubt an baldiges Ende
Zitat:
128 Kerne [...] seinen sie hinsichtlich des zu erwartenden Energiebudgets für Server nicht machbar. Effizienz ist seit einiger Zeit ein Entwicklungsschwerpunkt der beiden Chipdesigner AMD und Intel und wird dies auch bleiben.
Woher will der gute Mann wissen, dass es sich in den nächsten 10 JAHREN nur genau so entwickelt, dass man auch 128 Kerne mit 120TDP betreiben kann? Und dass man solche extremen Leistungen benötigt, zeigen doch die aktuellen F@H Projekte.
Zitat:
Statt immer weiterer x86 Kerne sollen die CPUs um dedizierte Special-Function-Units erweitert werden. [...] AMD (Fusion APU)
Dies klingt meiner Meinung danach, ob würde man sich zunehmend um die "Function-Units" kümmern und die eigentliche Entwicklung der CPU in den Hintergrundrücken lassen. Fakt ist aber, dass nicht jedes Programm mit den "Function-Units" überhaupt was anfangen kann. Oder man halt mit einer dediziert Grafiklösung _wesentlich_ mehr Rechenleistung wie mit einer GPU+Function-Units erreichen kann.
Eigentlich sagt Newell dass die Rechenleistung der CPU immer weiter in den Hintergrund gedrängt und später alles über die Architektur einer GPU laufen _könnte_. Dennoch verstehe ich seine Aussage dahingehen nicht, dass er überhaupt so etwas äußert.
AW: Krieg der Kerne: AMD CTO glaubt an baldiges Ende
Zitat:
Zitat von Mother-Brain
Woher will der gute Mann wissen, dass es sich in den nächsten 10 JAHREN nur genau so entwickelt, dass man auch 128 Kerne mit 120TDP betreiben kann?
Nun weil er 16 Jahre für Intel gearbeitet hat und jetzt für AMD und ich so den leisen Verdacht habe, dass er wirklich mehr Ahnung von der Thematik hat als du oder ich. Der Mann ist ja kein CEO oder PR, der ist CTO...
Zitat:
Und dass man solche extremen Leistungen benötigt, zeigen doch die aktuellen F@H Projekte.
Im Gegenteil: die zeigen, dass man aus lauter kleinen Einheiten am Ende mehr Performance bekommt als aus einer Farm mit fetten Servern.
Zitat:
Dies klingt meiner Meinung danach, ob würde man sich zunehmend um die "Function-Units" kümmern und die eigentliche Entwicklung der CPU in den Hintergrundrücken lassen.
Eine CPU besteht aus mehr als aus x86 Cores. AMD hat damals den Speichercontroller (auch Fixed Function) in die CPU geholt, jetzt holen sie weitere dazu. Und dennoch hat AMD ja seine CPUs weiterentwickelt. Die Sorge halte ich also für unberechtigt, zumal ja schon bekannt ist, was mit Bulldozer zunächst ins Haus steht.
Zitat:
Fakt ist aber, dass nicht jedes Programm mit den "Function-Units" überhaupt was anfangen kann.
Das liegt in der Natur der Sache. Nur gäbe es die Fixed Funtion nicht, bestünde nichtmal die Möglichkeit es woanders als auf x86 rechnen zu lassen. So besteht immerhin die Möglichkeit. Es ist wie immer: Niemand schreibt Software für Hardware, die es nicht gibt. Also muss zwangsläufig die Hardware in Vorleistung gehen.
Zitat:
Oder man halt mit einer dediziert Grafiklösung _wesentlich_ mehr Rechenleistung wie mit einer GPU+Function-Units erreichen kann.
Wie gesagt, die Fixed Function Units sind ohnehin in der "CPU". Eine dedizierte Grafiklösung kann man ja trotzdem einsetzen, solange ein Slot auf dem Board vorhanden ist.
Zitat:
Eigentlich sagt Newell dass die Rechenleistung der CPU immer weiter in den Hintergrund gedrängt und später alles über die Architektur einer GPU laufen _könnte_.
Nein das sagt er nicht, er spielt z.B. auch auf die Fixed Function Unit in Intels Sandy Bridge zum Video-Transoding an. Und die hat mit einer GPU nix zu tun.
Zitat:
Dennoch verstehe ich seine Aussage dahingehen nicht, dass er überhaupt so etwas äußert.
Weil du offenbar nicht zwischen einem x86 Core und einer CPU unterscheidest (ja für manche mag das spitzfindig sein, aber um einen CTO zu verstehen sollte man auf diese Unterschiede Wert legen).
Ich sags mal so: AMD und Intel beschreiten beide diesen Weg. Was will man da an der Entwicklung leugnen oder nicht verstehen?
AW: Krieg der Kerne: AMD CTO glaubt an baldiges Ende
Zitat:
Zitat von dr_Cox
Nun weil er 16 Jahre für Intel gearbeitet hat und jetzt für AMD und ich so den leisen Verdacht habe, dass er wirklich mehr Ahnung von der Thematik hat als du oder ich. Der Mann ist ja kein CEO oder PR, der ist CTO...
Der gute Mann kann so viel Ahnung haben wie er möchte, wer Prognosen aufstellt, die 10 Jahren in der Zukunft liegen und das in der IT, der hat _meiner Meinung nach_ keine Ahnung. Bzw. nimmt sich zu viel heraus und wirkt unglaubwürdig.
Zitat:
Im Gegenteil: die zeigen, dass man aus lauter kleinen Einheiten am Ende mehr Performance bekommt als aus einer Farm mit fetten Servern.
Da verstehst du den "Grundgedanken" von mir nicht. Klar ist ein verteiltes Rechnen für solch "große Projekte" von nöten, es zeigt aber, dass man die "starke" Rechenkraft verwenden kann, und 128 Kerne etc. nicht unnötig sind.
Zitat:
Eine CPU besteht aus mehr als aus x86 Cores. AMD hat damals den Speichercontroller (auch Fixed Function) in die CPU geholt, jetzt holen sie weitere dazu. Und dennoch hat AMD ja seine CPUs weiterentwickelt. Die Sorge halte ich also für unberechtigt, zumal ja schon bekannt ist, was mit Bulldozer zunächst ins Haus steht.
Ist mir bewusst, genau wie es Intel mit den Core I Modellen gemacht hat und jetzt mit Sandy machen will, dennoch bleiben die x86 Cores das A und O einer Cpu, daran wird sich erstmal nix ändern. Ich wage aber nicht zu behaupten, wie es in 10 Jahre aussieht.
Zitat:
Das liegt in der Natur der Sache. Nur gäbe es die Fixed Funtion nicht, bestünde nichtmal die Möglichkeit es woanders als auf x86 rechnen zu lassen. So besteht immerhin die Möglichkeit. Es ist wie immer: Niemand schreibt Software für Hardware, die es nicht gibt. Also muss zwangsläufig die Hardware in Vorleistung gehen.
Durch die Berechnung auf GPUs ist es jetzt aber schon möglich. Man muss zwangsweise nicht mehr auf x86 zurückgreifen, aber gerade bei Games etc. wird es diesen Trend zunächst nicht geben.
Zitat:
Wie gesagt, die Fixed Function Units sind ohnehin in der "CPU". Eine dedizierte Grafiklösung kann man ja trotzdem einsetzen, solange ein Slot auf dem Board vorhanden ist.
Da kann ich dir nicht widersprechen.
Zitat:
Nein das sagt er nicht, er spielt z.B. auch auf die Fixed Function Unit in Intels Sandy Bridge zum Video-Transoding an. Und die hat mit einer GPU nix zu tun.
Jaein, natürlich hat es explizit nichts mit einer GPU zu tun, aber dass eine GPU es noch schneller _könnte_ wird halt auch nicht erwähnt.
Zitat:
Weil du offenbar nicht zwischen einem x86 Core und einer CPU unterscheidest (ja für manche mag das spitzfindig sein, aber um einen CTO zu verstehen sollte man auf diese Unterschiede Wert legen).
Ich unterscheide dies schon, aber ich bin immer noch der Auffassung, dass eine CPU durch seine x86 Leistung sich auszeichnet, und wenn dies sich ändern sollte, dann kann ich dagegen ja auch nix unternehmen
Zitat:
Ich sags mal so: AMD und Intel beschreiten beide diesen Weg. Was will man da an der Entwicklung leugnen oder nicht verstehen?
Ich verstehe nicht, warum er die x86 Cores so schmälert... zumindest noch nicht. Immerhin gibt es noch keinen Bulldozer der sowas überhaupt mit sich bringt. Man kann zwar absehen, dass sich ein Trend entwickeln wird, dass will ich auch nicht abstreiten, aber die Behauptungen finde ich zu einem solchen Zeitpunkt unpassend...kann ja sein, dass du dies anders siehst. Ich will ihm auch nicht unterstellen, dass er vllt. nicht recht haben _kann_, aber es als Tatsache zu deklarieren finde ich einfach unpassend.
AW: Krieg der Kerne: AMD CTO glaubt an baldiges Ende
Zitat:
Zitat von Mother-Brain
Der gute Mann kann so viel Ahnung haben wie er möchte, wer Prognosen aufstellt, die 10 Jahren in der Zukunft liegen und das in der IT, der hat _meiner Meinung nach_ keine Ahnung. Bzw. nimmt sich zu viel heraus und wirkt unglaubwürdig.
Also ich glaube demjenigen, der sagt sein Unternehmen entwickelt nicht in die Richtung. Jemandem der sagt, er könne innerhalb der nächsten 10 Jahre ein Die mit 128 x86 Cores in handelsüblichen Stückzahlen verkaufen, der ist unseriös.
Intels Schwierigkeiten mit Larrabee sind schon ein deutlicher Hinweis darauf, dass das ganze nicht so trivial ist. Und dabei hadelt es sich um x86 Kerne, die weit nicht dem entsprechen, was man in einer zeitgemäßen CPU erwarten würde.
Zitat:
Da verstehst du den "Grundgedanken" von mir nicht. Klar ist ein verteiltes Rechnen für solch "große Projekte" von nöten, es zeigt aber, dass man die "starke" Rechenkraft verwenden kann, und 128 Kerne etc. nicht unnötig sind.
Nein du verstehst mich nicht. Der größte Erfolg bei F@H war beispielsweise, Dinge auf GPUs zu berechnen. Das war damals 2006 auf ATI X-Series Grafikkarten, als noch kein Mensch von GPGPU geredet hat. Hätte dir damals jemand gesagt: "Hey, in viereinhalb Jahren wandert die GPU in die CPU um parallelisierte Berechnungen zu beschleunigen...". Ich weiß nicht was du ihm gesagt hättest - vielleicht dass man das gar nicht braucht, wenn endlich die 10 GHz CPUs kommen?
Zitat:
Ist mir bewusst, genau wie es Intel mit den Core I Modellen gemacht hat und jetzt mit Sandy machen will, dennoch bleiben die x86 Cores das A und O einer Cpu, daran wird sich erstmal nix ändern. Ich wage aber nicht zu behaupten, wie es in 10 Jahre aussieht.
Natürlich bleiben die x86 Cores vorerst wichtig, aber sie werden einfach überflügelt, wo andere Units die anfallende Arbeit einfach effizienter erledigen. Die x86 Architektur ist nicht für alle Brechnungen optimal, nie gewesen und wirds nicht sein.
Zitat:
Durch die Berechnung auf GPUs ist es jetzt aber schon möglich. Man muss zwangsweise nicht mehr auf x86 zurückgreifen, aber gerade bei Games etc. wird es diesen Trend zunächst nicht geben.
Die GPU alleine ist auch keine Wunderlösung. Eine wesentliche Bedeutung der AMD Fusion APUs wird die UVD haben. Das ist eine Fixed Function Unit innerhalb der GPU, die aber beim Transcoding beteiligt ist, bei der Flash Video Beschleunigung und beim Genuss von HD Content sowieso. Du siehst also: Fixed Function Units machen Sinn.
Zitat:
Jaein, natürlich hat es explizit nichts mit einer GPU zu tun, aber dass eine GPU es noch schneller _könnte_ wird halt auch nicht erwähnt.
Moment, das wissen wir nicht... aber wir werden es bald sehen
Zitat:
Ich unterscheide dies schon, aber ich bin immer noch der Auffassung, dass eine CPU durch seine x86 Leistung sich auszeichnet, und wenn dies sich ändern sollte, dann kann ich dagegen ja auch nix unternehmen
Ich verstehe nicht, warum er die x86 Cores so schmälert... zumindest noch nicht. Immerhin gibt es noch keinen Bulldozer der sowas überhaupt mit sich bringt.
Er schmälert die Bedeutung der x86 Cores ja nicht. Nur sitzen sie als Recheneinheiten jetzt nicht mehr exklusiv im Die sondern bekommen andere Units zur Seite gestellt, die da eingreifen können, wo ein x86 traditionell schlecht aussieht. Im Prinzip wird der x86 Kern so sogar künstlich gestützt.
Beim Bulldozer ist absehbar, dass nicht auf mega fette x86 Kerne gesetzt wird, sondern auf kleinere Varianten, die zwar bei der IPC nicht ganz mithalten können, dafür aber die CPU als Gesamteinheit effizienter arbeitet. Zumindest ist das das erklärte Ziel von AMD und da müssen wir halt warten.
Zitat:
Man kann zwar absehen, dass sich ein Trend entwickeln wird, dass will ich auch nicht abstreiten, aber die Behauptungen finde ich zu einem solchen Zeitpunkt unpassend...kann ja sein, dass du dies anders siehst. Ich will ihm auch nicht unterstellen, dass er vllt. nicht recht haben _kann_, aber es als Tatsache zu deklarieren finde ich einfach unpassend.
Nun, ich sehe das nicht so, dass er es als Tatsache hinstellt, sondern dass er sagt, dass er es nicht erwartet. Und das ist lediglich eine Einschätzung.
AW: Krieg der Kerne: AMD CTO glaubt an baldiges Ende
Ich glaube wir unterscheiden uns gar nicht so extrem in unseren Aussagen/Auffassungen wie ich zuvor gedacht/verstanden hätte/habe.
Wenn man alles als Prognose sieht, dann kann ich dies auch hinnehmen.
Danke für deine ausführlichen Kommentare
PS: 2006 hatte ich noch kein Interesse und/oder Ahnung von Hardware, demnach hätte ich wohl gar nichts gesagt bzw. mich getraut irgendwelche Prognosen auf zu stellen
AW: Krieg der Kerne: AMD CTO glaubt an baldiges Ende
Wie lange dauert die Entwicklung eines CPU's? Ich vermute mal, wenn ein 128-Core das Ziel in 10 Jahren wäre, dann müsste man schon jetzt mit der Forschung beginnen, da sie selbiges nicht tun, kann er es vermutlich relativ leicht ausschließen.
Genauso gut kann es sein, dass diese Aussage Intel nur verwirren soll...
AW: Krieg der Kerne: AMD CTO glaubt an baldiges Ende
Zitat:
Zitat von chrisr15
Wie lange dauert die Entwicklung eines CPU's? Ich vermute mal, wenn ein 128-Core das Ziel in 10 Jahren wäre, dann müsste man schon jetzt mit der Forschung beginnen, da sie selbiges nicht tun, kann er es vermutlich relativ leicht ausschließen. Genauso gut kann es sein, dass diese Aussage Intel nur verwirren soll...
Was wird denn da großartig entwickelt und geforscht? Die lumpige alte Technik wird aktuell nur mehrfach auf einen Chip gepresst, um möglichst billig mehr Leistung zu verkaufen. Forschung wird bei anderen Prozessorherstellern betrieben, so u.a. am bekanntesten: IBM. Die haben etwas durchgeforscht und entwickelt. Das ist auch der Grund dafür, warum der Power nicht mit den technischen Problemen der beiden großen PC-Frickler kämpfen muß.