URL: https://www.overclockers.at/grafikkarten/nvidia_gtx_470_480_review-roundup_215151/page_6 - zur Vollversion wechseln!
rofl, ich packs immer noch ned? Was wollts...
Einen Chip, der überall schneller ist als eine 5970, und mit 150 Watt TDP läuft auf TSMCs 40nm?! rofl..
vielleicht sehe ich das auch falsch, aber gf100 müßte man wohl eher mit intels larrabee vergleichen anstatt mit ati cypress.
und larrabee wurde ja bekanntlich auf eis gelegt, vermutlich auch wegen problemen mit leistungsahfnahme und abwärme.
Für mich sieht es so aus, als hätte nVidia folgende drei Optionen mit beschriebenem Ausgang gehabt:
1.) Einen Chip bauen, der lahmer ist als der von ATi, dafür aber weniger frisst. => Regen sich alle auf, weil "Wieso baut nVidia keinen schnelleren Chip ololololo FAIL?"
2.) Einen Chip bauen, der ca. gleich schnell ist wie der von ATi und ca. gleich viel frisst. => Schert keinen, weil "Das hat ATi auch schon können, interessiert mi ned, FAIL!"
3.) Einen Chip bauen, der schneller ist als der von ATi, und mehr frisst (Was ca. das ist, was nVidia gemacht hat?). => "Könnts ned machen, die armen Blumen und Bäume, seits deppat??? FAIL!!"
Jo.. öhm...
Was also soll man in der Situation machen? Auf ~32nm warten bis im Herbst und derweil das komplette Feld räumen, Investoren und Marktanteile komplett verlieren.. geht auch ned...
Und 4.) Wir bauen einen Wunderchip, der superschnell, superbillig, supersparsam ist..... gehört halt momentan wohl eher ins Märchenbuch, als sonstwohin...
Und was Larrabee wirklich gewesen wäre (oder noch sein wird), das kann halt keiner sinnvoll abschätzen..
5.) Zwei Chips bauen - einer der für 3D-Spiele optimiert ist und alltagstaugliche Eigenschaften mit sich bringt, und einer der den GPGPU-Markt bedient und 10x so viele double-Operationen schafft, die in Spielen vollkommen unnötig sind.
Nette Idee. Nun wurde die GPU Entwicklung in den letzten 10 Jahren so weit als möglich konsolidiert, um die Entwicklung heutiger GPUs überhaupt noch wirtschaftlich zu ermöglichen.
Jetzt wird halt eine modulare Architektur entwickelt über mehrere Jahre, die dann entsprechend angepaßt wird, um alle Marktsegmente (wovon nun GPGPU auch langsam eines wird) abzudecken.
Die getrennte Entwicklung von ZWEI Top-End Lösungen, wovon eine für einen noch etwas ungewissen Markt gedacht ist, würde unfaßbare Kosten verursachen, und alte "Synergieeffekte" hinfällig machen.
Ich glaube sogar, daß sowas den Untergang bedeuten könnte, wenn man sich die aktuelle Lage anschaut.
Zitat von mat5.) Zwei Chips bauen - einer der für 3D-Spiele optimiert ist und alltagstaugliche Eigenschaften mit sich bringt, und einer der den GPGPU-Markt bedient und 10x so viele double-Operationen schafft, die in Spielen vollkommen unnötig sind.
Bezüglich hd5870 GPGPU leistung: eine hd5970 war doppelt so schnell wie 4xGT200 (also non-fermi) Tesla GPUs beim passwortknacken: http://www.golem.de/1003/73862.html
wenn man davon ausgeht, dass ein fermi chip = 2xGT200 in der CUDA leistung ersetzt, dann sind 4x Fermis ca. genauso schnell wie eine HD5970.
was sicher die "schlechtere" leistung der fermi in non-DX11 spielen ausmacht, ist, dass die fermi weniger TMU`s hat als die GTX280er und diese wieder nur mit coretakt und nicht wie geplant mit shadertakt arbeiten, dadurch hat die Hd5870 den vorteil, dass da 80 TMU`s mit >850MHz rangehen. also theoretisch muss ATI die tesselation einheit flexibler machen im refresh chip und die taktraten weiter hochschrauben und sie können gut paroli bieten denk ich....
@viper780: wo hast du gelesen, dass die hd5870 das schönere AF haben soll? ich lese immer nur, dass die GTX480 noch immer das beste AF von allen hat...wobei aber ATI seit der hd5xxx serie etwas aufgeholt hat im beim AF (winkelabhängigkeit ist nicht mehr so arg, aber dafür sieht man noch immer diese MIPMAP linien vor sich herschieben...)
lg
interessanter artikel @ golem, welcher Lautstärke der karte etwas relativiert.
http://www.golem.de/1003/74213.html
Ehrlich gesagt finde ich beide schlimm. Hören sich beide wie Jets an, die GTX halt mit eingeschaltetem Nachbrenner
Da muss auf jeden Fall was anderes drauf, wie soll man das aushalten ohne Kopfhörer?
das mit dem zusätzlcihen lüfter klingt recht "praktikabel" ohne lang einen anderen Kühler montieren zu müssen
also die gpu meiner gtx 285 (mit vmod) wird lt. evga precision auch knappe 90°C warm, der lüfter ist dann auch sehr deutlich wahrnehmbar. von daher schockt mich das nicht so.
also vom gefühl her war meine 295er auch ned leiser -> wayne -> fps
Gerade gelesen das XFX nvidia aus der produktion gekicked hat ATI only
Premier NVIDIA partner doesn't have Fermi in its launch schedule.
Several sources are confirming that XFX will not be releasing their own GTX 480 or 470 graphics card, at least initially. Some sites have speculated this is due to the way NVIDIA bundles the GTX 480 or margins on the cards. XFX was an NVIDIA premier partner but recently began selling cards from NVIDIA's only rival, AMD. We already broke the news of the XFX 5970 Black Edition.
XFX are expected to continue selling other cards.
nv wollte so oder so weniger partner, genauso wie sich bfg nun vom europäischen markt wieder zurückzieht.
schade darum.
overclockers.at v4.thecommunity
© all rights reserved by overclockers.at 2000-2025