"Christmas - the time to fix the computers of your loved ones" « Lord Wyrm

NVIDIA GTX 470/480 Review-Roundup

mat 27.03.2010 - 13:39 65961 341
Posts

charmin

Super Moderator

Avatar
Registered: Dec 2002
Location: aut_sbg
Posts: 13836
Das erinnert mich sehr stark an die damalige 5800 gforce. Ich bin zwar NV Fanboy, aber vor 1-2 Redesigns/Updates wirds nicht zu gebrauchen sein, leider. Ich habe mir, ehrlich gesagt, mehr erwartet.

GrandAdmiralThrawn

XP Nazi
Avatar
Registered: Aug 2000
Location: BRUCK!
Posts: 3682
rofl, ich packs immer noch ned? Was wollts...

Einen Chip, der überall schneller ist als eine 5970, und mit 150 Watt TDP läuft auf TSMCs 40nm?! rofl..

Starsky

Erbeeren für alle!
Registered: Aug 2004
Location: Proletenacker
Posts: 14293
vielleicht sehe ich das auch falsch, aber gf100 müßte man wohl eher mit intels larrabee vergleichen anstatt mit ati cypress.
und larrabee wurde ja bekanntlich auf eis gelegt, vermutlich auch wegen problemen mit leistungsahfnahme und abwärme.

GrandAdmiralThrawn

XP Nazi
Avatar
Registered: Aug 2000
Location: BRUCK!
Posts: 3682
Für mich sieht es so aus, als hätte nVidia folgende drei Optionen mit beschriebenem Ausgang gehabt:

1.) Einen Chip bauen, der lahmer ist als der von ATi, dafür aber weniger frisst. => Regen sich alle auf, weil "Wieso baut nVidia keinen schnelleren Chip ololololo FAIL?"

2.) Einen Chip bauen, der ca. gleich schnell ist wie der von ATi und ca. gleich viel frisst. => Schert keinen, weil "Das hat ATi auch schon können, interessiert mi ned, FAIL!"

3.) Einen Chip bauen, der schneller ist als der von ATi, und mehr frisst (Was ca. das ist, was nVidia gemacht hat?). => "Könnts ned machen, die armen Blumen und Bäume, seits deppat??? FAIL!!"

Jo.. öhm...

Was also soll man in der Situation machen? Auf ~32nm warten bis im Herbst und derweil das komplette Feld räumen, Investoren und Marktanteile komplett verlieren.. geht auch ned...

Und 4.) Wir bauen einen Wunderchip, der superschnell, superbillig, supersparsam ist..... gehört halt momentan wohl eher ins Märchenbuch, als sonstwohin...

Und was Larrabee wirklich gewesen wäre (oder noch sein wird), das kann halt keiner sinnvoll abschätzen..

mat

Administrator
Legends never die
Avatar
Registered: Aug 2003
Location: nö
Posts: 25373
5.) Zwei Chips bauen - einer der für 3D-Spiele optimiert ist und alltagstaugliche Eigenschaften mit sich bringt, und einer der den GPGPU-Markt bedient und 10x so viele double-Operationen schafft, die in Spielen vollkommen unnötig sind.

GrandAdmiralThrawn

XP Nazi
Avatar
Registered: Aug 2000
Location: BRUCK!
Posts: 3682
Nette Idee. Nun wurde die GPU Entwicklung in den letzten 10 Jahren so weit als möglich konsolidiert, um die Entwicklung heutiger GPUs überhaupt noch wirtschaftlich zu ermöglichen.

Jetzt wird halt eine modulare Architektur entwickelt über mehrere Jahre, die dann entsprechend angepaßt wird, um alle Marktsegmente (wovon nun GPGPU auch langsam eines wird) abzudecken.

Die getrennte Entwicklung von ZWEI Top-End Lösungen, wovon eine für einen noch etwas ungewissen Markt gedacht ist, würde unfaßbare Kosten verursachen, und alte "Synergieeffekte" hinfällig machen.

Ich glaube sogar, daß sowas den Untergang bedeuten könnte, wenn man sich die aktuelle Lage anschaut.

Viper780

Moderator
Er ist tot, Jim!
Avatar
Registered: Mar 2001
Location: Wien
Posts: 48757
Zitat von mat
5.) Zwei Chips bauen - einer der für 3D-Spiele optimiert ist und alltagstaugliche Eigenschaften mit sich bringt, und einer der den GPGPU-Markt bedient und 10x so viele double-Operationen schafft, die in Spielen vollkommen unnötig sind.

imho the way to go.

auch wen beide Chips sehr ähnlich ausfallen können - bis jetzt waren die synergie effekte sowieso nur in der Entwicklung vorhanden und das bleibt dann bestehen

@GAT
problem am aktuellen Design ist 1. ganz klar die Lautstärke (und Wasserkühlung ist halt nur für die wenigsten eine Option).

Wenn ich die Benches der GTX470 her nehm die Preislich schon gehoben aber noch OK ist, dann seh ich das Problem das die Karte in vielen Fällen (vorallem alles _nicht_ DX11 und Tesselation) auf dem Niveau einer GTX280 (der im Juni 2 Jahre alt wird!) liegt oder wenn überhaupt auf der der Konkurrenz von AMD mit einer HD5870 die bis dahin alles richtig gemacht hat und seit einem halben Jahr (schwer aber doch) verfügbar ist.

Ich weiß zB nicht wie schnell die Karte unter DirectCompute bzw OpenCL ist aber wenn ich mir die leistung meiner HD4870 512MB unter rc5 anschaue dann bin ich damit auf der selben Höhe wie eine GTX295.

Bleibt also nur die gute Leistung einer GTX480 bei den neuesten spielen und alles auf max gedreht, wo aber die Frames auch unter 60fps bleiben und somit unspielbar ist (und laut den aktuellen Tests AMD durch das schönere AF besser aussieht).

Klar es ist wieder was neues - aber es wurde zu sehr von Spielen weg entwickelt und für mich praktisch (noch?) nicht einsetzbar

MaxMax

Here to stay
Registered: Jul 2001
Location: Wien
Posts: 1913
Bezüglich hd5870 GPGPU leistung: eine hd5970 war doppelt so schnell wie 4xGT200 (also non-fermi) Tesla GPUs beim passwortknacken: http://www.golem.de/1003/73862.html

wenn man davon ausgeht, dass ein fermi chip = 2xGT200 in der CUDA leistung ersetzt, dann sind 4x Fermis ca. genauso schnell wie eine HD5970.

was sicher die "schlechtere" leistung der fermi in non-DX11 spielen ausmacht, ist, dass die fermi weniger TMU`s hat als die GTX280er und diese wieder nur mit coretakt und nicht wie geplant mit shadertakt arbeiten, dadurch hat die Hd5870 den vorteil, dass da 80 TMU`s mit >850MHz rangehen. also theoretisch muss ATI die tesselation einheit flexibler machen im refresh chip und die taktraten weiter hochschrauben und sie können gut paroli bieten denk ich....

@viper780: wo hast du gelesen, dass die hd5870 das schönere AF haben soll? ich lese immer nur, dass die GTX480 noch immer das beste AF von allen hat...wobei aber ATI seit der hd5xxx serie etwas aufgeholt hat im beim AF (winkelabhängigkeit ist nicht mehr so arg, aber dafür sieht man noch immer diese MIPMAP linien vor sich herschieben...)
lg
Bearbeitet von MaxMax am 31.03.2010, 12:53

Dreamforcer

New world Order
Avatar
Registered: Nov 2002
Location: Tirol
Posts: 8892
interessanter artikel @ golem, welcher Lautstärke der karte etwas relativiert.

http://www.golem.de/1003/74213.html

daisho

SHODAN
Avatar
Registered: Nov 2002
Location: 4C4
Posts: 19561
Ehrlich gesagt finde ich beide schlimm. Hören sich beide wie Jets an, die GTX halt mit eingeschaltetem Nachbrenner :eek:
Da muss auf jeden Fall was anderes drauf, wie soll man das aushalten ohne Kopfhörer?

Dreamforcer

New world Order
Avatar
Registered: Nov 2002
Location: Tirol
Posts: 8892
das mit dem zusätzlcihen lüfter klingt recht "praktikabel" ohne lang einen anderen Kühler montieren zu müssen

Starsky

Erbeeren für alle!
Registered: Aug 2004
Location: Proletenacker
Posts: 14293
also die gpu meiner gtx 285 (mit vmod) wird lt. evga precision auch knappe 90°C warm, der lüfter ist dann auch sehr deutlich wahrnehmbar. von daher schockt mich das nicht so.

Gladiac

Peng peng
Avatar
Registered: Mar 2002
Location: Linz
Posts: 4086
also vom gefühl her war meine 295er auch ned leiser -> wayne -> fps :)

Gladiac

Peng peng
Avatar
Registered: Mar 2002
Location: Linz
Posts: 4086
Gerade gelesen das XFX nvidia aus der produktion gekicked hat ATI only :(


Premier NVIDIA partner doesn't have Fermi in its launch schedule.

Several sources are confirming that XFX will not be releasing their own GTX 480 or 470 graphics card, at least initially. Some sites have speculated this is due to the way NVIDIA bundles the GTX 480 or margins on the cards. XFX was an NVIDIA premier partner but recently began selling cards from NVIDIA's only rival, AMD. We already broke the news of the XFX 5970 Black Edition.

XFX are expected to continue selling other cards.
Bearbeitet von Gladiac am 31.03.2010, 22:47

Starsky

Erbeeren für alle!
Registered: Aug 2004
Location: Proletenacker
Posts: 14293
nv wollte so oder so weniger partner, genauso wie sich bfg nun vom europäischen markt wieder zurückzieht.
schade darum.
Kontakt | Unser Forum | Über overclockers.at | Impressum | Datenschutz