Smut
takeover&ether
|

"veraltet" hätte auf jeden fall besser gepasst. damit war die entwicklung weg von großen monolithischen chips gemeint -> r700. das heißt zwar nicht automatisch weniger stromverbrauch, lässt aber auf ein intelligenteres/vereinfachtes power-management schließen.
|
Stormscythe
Addicted
|
vllt kommt so eine fix-fertig-mini Wakü mit den Karten... 250w sind kein pemmerl! Bei ATI wird sicher grad gewaltig gebastelt  Jo, als Gimmick gibt's dann wohl eine (mit der Grafikkarte) beheizbare Zocker-Badewanne inklusive wasserfester Tastatur und 3D-Maus (über Flügelraddurchflussmesser gesteuert)!
|
Ovaron
AT LAST SIR TERRY ...
|
Jo, als Gimmick gibt's dann wohl eine (mit der Grafikkarte) beheizbare Zocker-Badewanne inklusive wasserfester Tastatur und 3D-Maus (über Flügelraddurchflussmesser gesteuert)! Also DANN kauf ich sie mir sicher! In der Badewanne zocken GEILE IDEE
|
Stormscythe
Addicted
|
|
userohnenamen
leider kein name
|
|
Castlestabler
Here to stay
|
Scheinbar haben jetzt doch die erste geschafft eine paar Infos online zu stellen. http://www.vr-zone.com/?i=4830Aber für ein paar frames mehr 100W mehr Verbauch zu haben, ist einfach sinnlos, vor allem da ja die G90 nicht mehr sehr lange dauern wird.
|
Vo
LegendEditor from hell
|
Auch manche Grafikkartenhersteller waren im Gespräch der Meinung, daß dergleichen grobe Energieverschwendung ist. Finde ich sehr reif.
Bearbeitet von Vo am 25.03.2007, 11:27
|
Hornet331
See you Space Cowboy
|
was hier wohl immer einge zu vergessen scheinen, ist das die gpus wesentlich mehr transistoren verbaut haben als cpus, vorallem sind der großteil der transistoren ja nicht wie beim cpu cache, sonderen gehören zur logik. 681 mio bzw. 720mio sind kein pappenstiel, im gegensatz zum Core2 mit 291mio. Sprich der r600 wird 2,5mal mehr transitoren haben als der core 2
|
Castlestabler
Here to stay
|
Wenn du aber mit dem Transistor Count beginst, muss man aber damit anfangen das CMOS Logik nur Strom verbraucht, wenn sie schaltet und die Leckströme sind zwar immer größer kann man aber bei 80nm immer noch unter 10% ansetzten.
Der C2D taktet 2-4mal so schnell wie die Graka und damit verbraucht er alleine vom schalten 2-4mal soviel Strom und das dann umgelegt auf die 3fache Transistoranzahl, dürfte die Graka nur 1,5mal soviel Strom verbrauchen wie ein C2D, wenn beide voll gefordert werden.
Die Rechnung ist zwar nicht genau, aber sie stimmt mit der Realität überein, die GPU-Hersteller vergessen einfach drauf auch Energiemamagment zu machen, wie es mittlerweile bei den CPU Herstellern normal geworden ist.
Wenn sie alle Shaderunits in achter Blöcken abschalten könnten, wären garantiert schon 30% Strom einzusparen. Das ganze wird zwar dann nicht mehr so einfach zu übertakten gehen, aber wofür kann man die Dinger flashen, auch wenn das mehr Risiko bedeutet.
|
Hornet331
See you Space Cowboy
|
ja, aber die 291mio includieren locker 150-200mio transitoren alleinig nur für den cache, und cache selber verbraucht nicht viel. Also bleiben effektiv 100-150min transistoren überig. Also bist bei 6-7 (gerundet) facher anzahl.
Trotzdem stimm ich zu das die gpu hersteller ähnliche techniken wie die cpu hersteller anwenden sollten um im idle energie zu sparen.
|
dcb
Big d00d
|
Also DANN kauf ich sie mir sicher!
In der Badewanne zocken GEILE IDEE geil dann kommen sicher bald die ersten Badewannen Mods
|
Error404
Dry aged
|
vllt hat der Stromverbrauch in irgendeiner abstrusen Weise auch mit Prestige zu tun.. wow, meine neue Graka frisst 250w, muss das ein Monster sein, oder anders formuliert: was, meine 600€ Graka frisst nur 60w? Versteht ihr, was isch mein?
|
dcb
Big d00d
|
|
Stormscythe
Addicted
|
Scheinbar haben jetzt doch die erste geschafft eine paar Infos online zu stellen.
http://www.vr-zone.com/?i=4830
Aber für ein paar frames mehr 100W mehr Verbauch zu haben, ist einfach sinnlos, vor allem da ja die G90 nicht mehr sehr lange dauern wird. Also das mit den paar fps und 100W mehr ist wirklich ein lustiger gag, auch wenn du dir die übrigens specs von der karte anschaust und dann nur 200 punkte mehr bei 3Dmark rauschaun als bei der 8800GTX, dann muss sich an den Treibern noch so EINIGES ändern ^^
|
stevke
in the bin
|
Stimmt, entweder es waren wirklich noch Alpha Treiber, was ich nicht glaube, da er ja im Mai kommen soll, bis dahin ist nicht mehr soo viel Zeit, oder er hat nicht die Leistung wie erhofft. Oder die Benchmarks sind kompletter Blödsinn. Außerdem gibts wiedermal neue Gerüchte, wonach der R600 jetzt doch noch in 80nm kommt. http://www.fudzilla.com/index.php?o...1&Itemid=34
|