TweakPC

Zurück   Computer Hardware Forum - TweakPC > News & Hilfen > News
Registrieren Hilfe Community Downloads

Antwort
 
LinkBack Themen-Optionen Ansicht
Alt 09.02.2010, 19:26   #1 (permalink)
Selected Premium Quality
 
Benutzerbild von TweakPC Newsbot
 

Registriert seit: 06.10.2007
Beiträge: 35.494

TweakPC Newsbot ist ein sehr geschätzer MenschTweakPC Newsbot ist ein sehr geschätzer MenschTweakPC Newsbot ist ein sehr geschätzer Mensch

Beitrag NVIDIA präsentiert Optimus-Technologie

NVIDIA präsentiert Optimus-Technologie
09.02.2010 20:19 - ID 17758

Wir hatten kürzlich schon über NVIDIAs Optimus berichtet. Nun wurde die Technologie offiziell vorgestellt.

NVIDIA präsentiert Optimus-Technologie
TweakPC Newsbot ist offline   Mit Zitat antworten
Alt 09.02.2010, 19:51   #2 (permalink)
Extrem Tweaker
 

Registriert seit: 20.06.2006
Beiträge: 1.651

BigBoymann sorgt für eine eindrucksvolle AtmosphäreBigBoymann sorgt für eine eindrucksvolle AtmosphäreBigBoymann sorgt für eine eindrucksvolle Atmosphäre

Standard AW: NVIDIA präsentiert Optimus-Technologie

Gratuliere!!!!

Aber eine der unwichtigsten Meldungen die ich seit langem gehört habe. (ist nicht an TPC gerichtet)

Statt sich darum zu kümmern, dass die eigenen Chips möglichst stromsparend sind, bauen sie halt einfach einen Chip der dann einen zweiten Chip nutzt um Strom zu sparen. Klass Leistung, warum ist mir das nicht eingefallen, ich bau in meinen 6Liter V12 Ferrari einfach noch einen 1Liter Corsa Motor ein, dann spar ich Sprit wenn ich in der Stadt fahre.
BigBoymann ist offline   Mit Zitat antworten
Alt 09.02.2010, 20:14   #3 (permalink)
Hardware Killer
 
Benutzerbild von Mr_Eyeballz
 

Registriert seit: 01.10.2009
Beiträge: 979

Mr_Eyeballz wird schon bald berühmt werden

Standard AW: NVIDIA präsentiert Optimus-Technologie

Ne vom Grundprinzip her ists ja okay, was halt lustig ist dass NV vor 2 Jahren damit schonmal kam als "Hybrid SLI" . Hat sich damals wohl nicht so wirklich durchgesetzt.. denke allein schon wegen der fehlgeschlagenen Bezeichnung, Mit SLI verbindet man ja automatisch massig Rechenpower, Abwärme und Stromverbrauch.

jetzt Mischen se den alten Käse halt nochmal neu auf... neuer Aufkleber drauf und ab dafür Kennen wir doch schon oder ?
Aber für ne Nvidia Pressemitteilung noch ganz angenehm geschrieben... sonst steht da ja immer sowas wie "we rule the world by using bacon" drin
Mr_Eyeballz ist offline   Mit Zitat antworten
Alt 09.02.2010, 20:17   #4 (permalink)
Hardware Freak
 
Benutzerbild von Killerpixel
 

Registriert seit: 01.01.2007
Beiträge: 11.499

Killerpixel kann auf vieles stolz seinKillerpixel kann auf vieles stolz seinKillerpixel kann auf vieles stolz seinKillerpixel kann auf vieles stolz seinKillerpixel kann auf vieles stolz seinKillerpixel kann auf vieles stolz seinKillerpixel kann auf vieles stolz seinKillerpixel kann auf vieles stolz seinKillerpixel kann auf vieles stolz sein

Standard AW: NVIDIA präsentiert Optimus-Technologie

Nene....altes zeug aufwärmen is da nicht, sie mussten das gesamte Prinzip neu entwicklen, da Win 7 keine Unterstützung für Hybrid SLI in seiner Ursprungsart bietet.
Das Motto der Minensucher: Wer suchet, der findet. Wer drauftritt verschwindet.

Killerpixel ist offline   Mit Zitat antworten
Alt 09.02.2010, 20:20   #5 (permalink)
Hardware Freak
 
Benutzerbild von chrisr15
 

Registriert seit: 23.05.2004
Beiträge: 5.498

chrisr15 ist ein wunderbarer Anblickchrisr15 ist ein wunderbarer Anblickchrisr15 ist ein wunderbarer Anblickchrisr15 ist ein wunderbarer Anblickchrisr15 ist ein wunderbarer Anblickchrisr15 ist ein wunderbarer Anblick

Standard AW: NVIDIA präsentiert Optimus-Technologie

Zusätzlich sollen es ja nicht 2 nVidia Chips sein, sondern ein Intel und ein nVidia.
chrisr15 ist offline   Mit Zitat antworten
Alt 09.02.2010, 20:21   #6 (permalink)
Hardware Killer
 
Benutzerbild von Mr_Eyeballz
 

Registriert seit: 01.10.2009
Beiträge: 979

Mr_Eyeballz wird schon bald berühmt werden

Standard AW: NVIDIA präsentiert Optimus-Technologie

Na ich denke aber nicht dass die deswegen alles aus der alten Entwicklung über Bord werfen mussten.
Aber will hier auch nicht den mega Kritiker machen, wie gesagt prinzipiell find ich die Idee ja recht gut.
Mr_Eyeballz ist offline   Mit Zitat antworten
Alt 09.02.2010, 20:24   #7 (permalink)
Extrem Tweaker
 

Registriert seit: 20.06.2006
Beiträge: 1.651

BigBoymann sorgt für eine eindrucksvolle AtmosphäreBigBoymann sorgt für eine eindrucksvolle AtmosphäreBigBoymann sorgt für eine eindrucksvolle Atmosphäre

Standard AW: NVIDIA präsentiert Optimus-Technologie

ich werfe da nur mal kurz ATI in den Raum die es ja immerhin geschafft haben die neuen High End Karten auf 18W im Idle herunterzutakten. Da muss es doch hingehen, die guten Chips müssen weniger verbauchen und im Idle soweit runtertakten, dass sie gerade noch laufen, am besten bei 1Watt. Bei CPUs gehts doch auch, Intel hat doch hier ein hervorragendes Set an Erweiterungen parat.

Müssen immer alle Shader laufen? Muss der Speicher noch mit so undsoviel HZ laufen, die GPU kann auch noch runter, dazu ein wenig weniger Volt, fertig ist ein Chip der beides kann. Das kann doch echt nicht so schwer sein.
BigBoymann ist offline   Mit Zitat antworten
Alt 09.02.2010, 20:29   #8 (permalink)
Hardware Killer
 
Benutzerbild von Mr_Eyeballz
 

Registriert seit: 01.10.2009
Beiträge: 979

Mr_Eyeballz wird schon bald berühmt werden

Standard AW: NVIDIA präsentiert Optimus-Technologie

Zitat:
Zitat von BigBoymann Beitrag anzeigen
Das kann doch echt nicht so schwer sein.
Naja, einfach auch nicht!

Ich hoffe mal nur nicht dass das nicht bedeutet das Fermi der Monsterstromfresser wird Und dies sozusagen dem ganzen entgegenwirken soll ...
Wobei dass die Verzögerungen erklären könnte. "Wir können Fermi noch nich bringen - Optimus is noch nich fertig" ...
Mr_Eyeballz ist offline   Mit Zitat antworten
Alt 09.02.2010, 20:30   #9 (permalink)
Hardware Freak
 
Benutzerbild von Killerpixel
 

Registriert seit: 01.01.2007
Beiträge: 11.499

Killerpixel kann auf vieles stolz seinKillerpixel kann auf vieles stolz seinKillerpixel kann auf vieles stolz seinKillerpixel kann auf vieles stolz seinKillerpixel kann auf vieles stolz seinKillerpixel kann auf vieles stolz seinKillerpixel kann auf vieles stolz seinKillerpixel kann auf vieles stolz seinKillerpixel kann auf vieles stolz sein

Standard AW: NVIDIA präsentiert Optimus-Technologie

3 Milliarden Transistoren...was soll das sonst werden, außer n Monster? Das ist doch Nvidias gewählter Weg..brachiale Leistung mit gigantischen Chips. Siehe GTX200.
Killerpixel ist offline   Mit Zitat antworten
Alt 09.02.2010, 20:33   #10 (permalink)
Hardware Killer
 
Benutzerbild von Mr_Eyeballz
 

Registriert seit: 01.10.2009
Beiträge: 979

Mr_Eyeballz wird schon bald berühmt werden

Standard AW: NVIDIA präsentiert Optimus-Technologie

Oh Gott ich seh schon dass Revival der 1000W Netzteile kommen...
Mr_Eyeballz ist offline   Mit Zitat antworten
Alt 09.02.2010, 20:35   #11 (permalink)
Hardware Freak
 
Benutzerbild von Killerpixel
 

Registriert seit: 01.01.2007
Beiträge: 11.499

Killerpixel kann auf vieles stolz seinKillerpixel kann auf vieles stolz seinKillerpixel kann auf vieles stolz seinKillerpixel kann auf vieles stolz seinKillerpixel kann auf vieles stolz seinKillerpixel kann auf vieles stolz seinKillerpixel kann auf vieles stolz seinKillerpixel kann auf vieles stolz seinKillerpixel kann auf vieles stolz sein

Standard AW: NVIDIA präsentiert Optimus-Technologie

Na das nu nich, aber er wird doch n anderes Kaliber. Dagegen sehen die Evergreen klein und zierlich aus.
Killerpixel ist offline   Mit Zitat antworten
Alt 09.02.2010, 22:22   #12 (permalink)
Hardware Killer
 
Benutzerbild von BaseALiEN
 

Registriert seit: 09.02.2009
Beiträge: 900

BaseALiEN wird schon bald berühmt werden

Standard AW: NVIDIA präsentiert Optimus-Technologie

ich versteh nich, warum bigboy das so herabsetzt, ich finde das ist eine gute Erfindung, auch wenn ich zur radfrac gehöre, denke ich, dass es ein guter schritt in dir richtige Richtung ist. ich denke das das auch gewürdigt werden sollte, und oftmals sind Umwege die Wege, die ab und an neues hervor bringen, genauso denke ich war der Hybridmotor eine super Erfindung. ich meine nur man sollte nicht urteilen, wenn man nichts von der Komplexität des faches weis...
BaseALiEN ist offline   Mit Zitat antworten
Alt 09.02.2010, 22:35   #13 (permalink)
Extrem Tweaker
 

Registriert seit: 20.06.2006
Beiträge: 1.651

BigBoymann sorgt für eine eindrucksvolle AtmosphäreBigBoymann sorgt für eine eindrucksvolle AtmosphäreBigBoymann sorgt für eine eindrucksvolle Atmosphäre

Standard AW: NVIDIA präsentiert Optimus-Technologie

naja, es ist ersteinmal richtig, dass ich nichts von dem Fach weiss, ich kann also wirklich nicht beurteilen wie schwierig es ist einen stromsparenden GPU Chip herzustellen.

Aber ich beurteile dies einfach mal anhand der Mitbewerber. Eine Intel GPU verbraucht nunmal auch Strom und effizient sind die leider auch nicht wirklich. Verbrauchen tun sie wenig, da sie sehr langsam sind und nicht einmal eigenen Speicher haben.

Also denke ich einfach mal, dass auch die GPU Hersteller vor allem nach dieser News NV in der Lage sein sollten einen Chip zu entwickeln, der im 2D Modus energiesparend ist und im 3D Modus entsprechende Leistung bieten sollte.
Die CPU Hersteller, AMD und Intel können es, ATI kann es nur Nvidia möchte auf noch einen zweiten Chip setzen. Da denke ich kann etwas nicht stimmen, denn zum einen produziert das Kosten, zwei GPUs statt einer, dazu Gewicht, denn beider GPUs müssen gekühlt werden, Platz (gerade in Notebooks sehr eng) und so weiter. Deshalb halt ich von dieser Lösung nichts.

Zum Thema Hybrid Motor kann ich nur sagen, auch hier ist es bewiesen, dass es nur ein reiner Marketing Gag ist. Denn oft verbrauchen sie nicht nur nicht weniger, sondern sogar mehr, da die Akkus sehr schwer und viel zu klein sind um ein Auto lange fortzubewegen. Dagagen sind ganze E-Autos durchaus zu empfehlen und im entsprechenden Einsatzgebiet das beste und sparsamste was es gibt. Aber auf der rennstrecke geht eben nichts über einen Formel 1 Wagen (auch hier hat sich Kers ja nicht durchgesetzt).
BigBoymann ist offline   Mit Zitat antworten
Alt 09.02.2010, 23:00   #14 (permalink)
Hardware Freak
 
Benutzerbild von Killerpixel
 

Registriert seit: 01.01.2007
Beiträge: 11.499

Killerpixel kann auf vieles stolz seinKillerpixel kann auf vieles stolz seinKillerpixel kann auf vieles stolz seinKillerpixel kann auf vieles stolz seinKillerpixel kann auf vieles stolz seinKillerpixel kann auf vieles stolz seinKillerpixel kann auf vieles stolz seinKillerpixel kann auf vieles stolz seinKillerpixel kann auf vieles stolz sein

Standard AW: NVIDIA präsentiert Optimus-Technologie

Naja....uneingeschränkt stromsparend beißt sich etwas mit Nvidias "groß und schnell" GPU-Politik.

Es ist sicher möglich, einen Prototyp-Chip zu entwickeln, der auf 20 Mhz oder so im idle runtergeht. Problem ist die Serienfertigung. Wenn du NUR solche Chips verkaufen willst, haste am Ende Mondpreise, weil du 98% des Wafers wegschmeißen kannst.

Außerdem...so schlecht sind Nvidias aktuelle bzw alte Modelle doch garnicht. Sie waren/sind im idle besser als ihre damaligen ATI-Pendants (4870 *hust*)

Dass die neue Generation besser ist, ist ja wohl klar, ist ja üblich in der Branche. Man darf die Evergreen nicht mit den GT200 vergleichen..das ist Äpfel und Birnen. Wenns soweit ist, kann man Fermi und Evergreen vergleichen. Optimus hat damit gar nix zu tun, das is für Notebooks (bei AMD heißt das btw PowerExpress)

Optimus produziert auch keine Kosten, zumindest keine Materialkosten, wie du es behauptest, denn die Intel-IGP is ja so oder so aufm Board. Das einzige was kostet, ist die Softwareentwicklung (und das ist bei neuer Technik immer so) und am Anfang sicher auch der Exklusivitätsbonus.
Sobald man Power braucht, wird die dedizierte Graka zugeschaltet, braucht man die Power nicht mehr, geht sie aus und die stromsparende IGP übernimmt. So einfach is das.
Killerpixel ist offline   Mit Zitat antworten
Alt 09.02.2010, 23:31   #15 (permalink)
Hardware Killer
 
Benutzerbild von BaseALiEN
 

Registriert seit: 09.02.2009
Beiträge: 900

BaseALiEN wird schon bald berühmt werden

Standard AW: NVIDIA präsentiert Optimus-Technologie

naja ich denk ma man kann die evergreens genauso wenig mit den gtx 2xx wie mit den fermis vergleichen, ich mein der fermi kam schließlich (oder besser kommt) viel später raus.
nv hats ja mal ast rein vergeigt zeitgleich den fermi zu bringen, also kann man meiner meinung nach da nicht vergleichen...
BaseALiEN ist offline   Mit Zitat antworten
Alt 10.02.2010, 07:27   #16 (permalink)
Hardware Freak
 
Benutzerbild von poloniumium
 

Registriert seit: 23.03.2009
Beiträge: 10.323

poloniumium ist ein wunderbarer Anblickpoloniumium ist ein wunderbarer Anblickpoloniumium ist ein wunderbarer Anblickpoloniumium ist ein wunderbarer Anblickpoloniumium ist ein wunderbarer Anblickpoloniumium ist ein wunderbarer Anblickpoloniumium ist ein wunderbarer Anblick

Standard AW: NVIDIA präsentiert Optimus-Technologie

Zitat:
Zitat von BigBoymann Beitrag anzeigen
ich werfe da nur mal kurz ATI in den Raum die es ja immerhin geschafft haben die neuen High End Karten auf 18W im Idle herunterzutakten.
das ist ja ne schöne aussage...
ATI im Rückwärtsgang? 2D-Leistung bleibt auf der Strecke : Einführung: 2D-Grafik ? ungeliebtes Stiefkind oder Routineübung?
ja, die gehen im 2d teilweise so weit zurück, das praktisch nichts mehr geht und du schon zum fenster verschieben in den 3d wechseln musst, klasse.
450mm or bust!

Wenn Kritik nicht kritisch ist, ist sie zu kritisieren.
poloniumium ist offline   Mit Zitat antworten
Alt 10.02.2010, 10:22   #17 (permalink)
Hardware Freak
 
Benutzerbild von chrisr15
 

Registriert seit: 23.05.2004
Beiträge: 5.498

chrisr15 ist ein wunderbarer Anblickchrisr15 ist ein wunderbarer Anblickchrisr15 ist ein wunderbarer Anblickchrisr15 ist ein wunderbarer Anblickchrisr15 ist ein wunderbarer Anblickchrisr15 ist ein wunderbarer Anblick

Standard AW: NVIDIA präsentiert Optimus-Technologie

Du vergleichst da Äpfel mit Birnen, die geringe 2D Leistung hat absolut nichts mit dem Zurücktakten zu tun, selbst im 3D Modus ist die 2D Leistung unter deren der Vorgängerkarten.

Die Entwicklung der HD5000 war vermutlich großenteils während Vista, wer konnte da wissen, dass mit Win7 2D Beschleunigung wieder genutzt wird?

------

Habe in meinem Laptop 2 ATI-Grafikkarten und muss sagen das Konzept des Umschaltens ist kein schlechtes. Eine flotte dedizierte Grafikkarte wird man nie auf den Stromverbrauch einer IGP bringen (ausgenommen manche Intel-IGP).
chrisr15 ist offline   Mit Zitat antworten
Antwort


Aktive Benutzer in diesem Thema: 1 (Registrierte Benutzer: 0, Gäste: 1)
 

Forumregeln
Es ist dir nicht erlaubt, neue Themen zu verfassen.
Es ist dir nicht erlaubt, auf Beiträge zu antworten.
Es ist dir nicht erlaubt, Anhänge hochzuladen.
Es ist dir nicht erlaubt, deine Beiträge zu bearbeiten.

BB-Code ist an.
Smileys sind an.
[IMG] Code ist aus.
HTML-Code ist aus.
Trackbacks are an
Pingbacks are an
Refbacks are an


Ähnliche Themen
Thema Autor Forum Antworten Letzter Beitrag
[News] Analyst: NVIDIA benötigt X86-Technologie TweakPC Newsbot News 8 11.08.2010 22:55
[News] Medion P6622: Aldi-Notebook mit i3 und NVIDIA Optimus TweakPC Newsbot News 9 14.02.2010 13:59
[News] NVIDIA Notebook Technologie Optimus TweakPC Newsbot News 1 07.01.2010 20:31
[News] NVIDIA-APEX-Technologie vereinfacht Echtzeit-Physikberechnungen - Video TweakPC Newsbot News 3 26.03.2009 15:15
[News] Intel präsentiert 64bit-Technologie TweakPC Newsbot News Archiv 0 22.11.2008 16:33


Alle Zeitangaben in WEZ +1. Es ist jetzt 02:54 Uhr.






Powered by vBulletin® Version 3.8.10 (Deutsch)
Copyright ©2000 - 2024, vBulletin Solutions, Inc.
SEO by vBSEO 3.5.2 ©2010, Crawlability, Inc.
Impressum, Datenschutz Copyright © 1999-2015 TweakPC, Alle Rechte vorbehalten, all rights reserved