x3
† 18.03.2006
|
also mir scheint es so als hätten einige den bericht nicht fertig gelesen (ala UncleFucka, etc)! also: es heist, das nv das genau so gemacht hat (mit den fx karten), und sie das bei den nv40 karten noch nicht wissen ob sie es machen, und sie eine nv40 brauchen um das zu testen! (haben leider keine) das heist: das es sein kann das nv das wieder fortsetzt (wie bei der fx) und das wieder macht! aja und noch was, das ist die pro die keinen interessiert! und bei der xt weis man nichts! also wie wärs wenns einfach alle mal abwartets und teedrinkts, bevor ihr eure meinung 1000x ändert! ala na jetzt kauf i ma ati, frechheit von nv; nächsten tag: na jetzt kauf i ma nv, frechheit von ati; nächsten tag: na jetzt kauf i ma ati, frechheit von nv;
mfg
|
Ringding
Pilot
|
Für Spiele ist es wirklich egal, ob sich da jetzt ein paar Pixel um eine oder 2 Helligkeitsstufen (von 256) unterscheiden.
Aber schön langsam fangen die Leute an, alle möglichen Sachen auf der Grafikkarte zu rechnen. Die klassischen Sachen halt, die immer auf Cluster laufen - Klimavorhersage, Strömungssimulationen, usw. Und die Animationsstudios verwenden auch teilweise schon die Grafikkarte zum Rendern, weil's einfach viel viel schneller geht. Und genau denen ist es dann aber nicht egal, ob was anderes rauskommt, als eigentlich sollte.
|
JoeDesperado
...loves the ride
|
3dcenter.de:
"... Wirklich bezeichned ist jedoch der Punkt, daß diese neue ATi-Optimierung sich offensichtlich deaktiviert, testet man die jeweiligen Anwendung mit eingefärbten Mipmaps aus (in Spielen auf Basis der Q3A-Engine im gewöhnlichen "r_colormiplevels 1", in Spielen auf Basis der Unreal-Engine im gewöhnlichen "firstcoloredmip 1"). Sollte sich dies bestätigen, wäre ATi in der Tat in höchsten Erklärungsnöten, denn eine Funktion, um eine Optimierung zu verschleiern, grenzt schon an Kundenbetrug (ist allerdings nicht neu, auch nVidia hatte zeitweise einmal eine Erkennung des D3D AF-Testers im Treiber integriert, sich dieses aber schnell wieder abgewöhnt) ...
... Eventuell läßt sich ATi ja diesbezüglich zu einer Aussage bewegen, immerhin hätte man damit die Gelegenheit für den Beweis, daß die neue ATi-Optimierung viel Leistung aus einem geringem Verlust an Bildqualität schöpft. Denn ehrlicherweise geben die bisherigen Screenshots zu diesem Fall noch nicht viel her - allerdings kann es auch sein, daß wir schlicht noch nicht wissen, wo wir hinsehen müssen (was oftmals der Fall ist, wenn die Art der Optimierung im unklaren liegt). An dieser Stelle ist nun eine gute Informationspolitik seitens ATi gefragt: Denn warum sollte man eine neue Treiber-Optimierung vor seinen Kunden und Käufern geheim halten wollen?"
DAS ist imho die eigentliche frechheit! extra eine fkt in den treiber einbauen, die versucht, die entdeckung der optimierung zu verhindern... unabhängig davon, ob ATi oder NV so etwas macht, das ist eine absolute frechheit >.<
Bearbeitet von JoeDesperado am 17.05.2004, 10:18
|
Nightstalker
ctrl+alt+del
|
is doch schnurz, du merkst es ohnehin nicht, genauso wie du 10 fps auf oder ab ned merkst wennst eh schon 200 fps hast.
wayne?
|
JoeDesperado
...loves the ride
|
is doch schnurz, du merkst es ohnehin nicht, genauso wie du 10 fps auf oder ab ned merkst wennst eh schon 200 fps hast.
wayne? du hast mein post gelesen? [ ] ja [x] nein nur um das klarzustellen: mir ist jede optimierung recht, ich nehm dafür sogar kleine abstriche der IQ in kauf - darum gehts mir aber auch nicht. wichtiger ist, dass das, was ATi aufführt, fast schon an betrug grenzt, da sie ja versuchen, ihre optimierung mit allen mitteln zu verbergen. und spätestens da versteh ich keinen spaß mehr.
|
EddieRodriguez
*AUDIO-ENGINEER*
|
sorry, aber bei dem preis/leistungs-verhältnis von ati ist mir herzlich egal ob die karte letztendlich hinter der nv40 liegt. der leistungsunterschied in anwendungen/spielen ist nicht bemerkbar. diese ewigen diskussionen vor dem launch der karten gehen mir schon wohin. nvidia muss nach den letzten jahren reagieren und hätte die finanziellen möglichkeiten ein paar tests positiver aussehen zu lassen. ich nehme zwar an das nvidia bei einer der nächsten graka-generationen wieder die oberhand gewinnen wird, aber momentan stehen preis und leistung bei nvidia sehr weit auseinander.
|
masterpain
bofh
|
du hast mein post gelesen? [ ] ja [x] nein
nur um das klarzustellen: mir ist jede optimierung recht, ich nehm dafür sogar kleine abstriche der IQ in kauf - darum gehts mir aber auch nicht. wichtiger ist, dass das, was ATi aufführt, fast schon an betrug grenzt, da sie ja versuchen, ihre optimierung mit allen mitteln zu verbergen. und spätestens da versteh ich keinen spaß mehr. würdest du eine optimierung, die es wirklich bringt in irgendeiner weise deiner direkten konkurrenz zugeänglich machen? überleg doch mal bitte.
|
JoeDesperado
...loves the ride
|
würdest du eine optimierung, die es wirklich bringt in irgendeiner weise deiner direkten konkurrenz zugeänglich machen? überleg doch mal bitte. NV hat bei der GFX-reihe iirc die selben optimierungen, nur waren sie dort deaktivierbar.
|
salsa
So spät wie gestern.
|
Ich hab so ganz leicht des Gefühl, dass diese Beschuldigungen hauptsächlich von NV Sympathisanten kommen. NV hat gecheatet, jetzt wollens ATi auch in den Dreck ziehen.
Kann das dem Verbraucher ned egal sein, woraus ein Grafikchip seine Leistung zieht? Und ich würd die Optimierung auch verstecken, angenommen die Konkurrenz hat nicht den blassesten Schimmer wieso mein Chip schnell is.
Viel Wind um nichts.
|
x3
† 18.03.2006
|
die geschichte der neuen generation: die ersten nv40 reviews sind da (die leute: wow meine nächste karte wird nv, ati ist so schlecht) nun sind auch r420 reviews da (die leute: die is ja viel besser, meine nächste karte ist eine ati, nv ist so schlecht) enthüllung der ultra extrem (die leute: wow die is ja geil, die is ja nochmal schneller, meine nächste karte ist nv, ati ist so schlecht) nv´s ultra extrem nur bluff (die leute: so eine frechheit, wa meine nächste karte ist ati, niewieda ist scheise) lug betrug von ati? (die leute: wa das ist so eine frechheit, meine nächste karte ist eine nv, ati ist so scheise) fortsetzung folgt ... also das ist nun mal zusammen gefasst, ich muss sagen echt witzig, mit die leute sind einfach viele hier und in anderen foren gemeind! immer diese meinungsänderung, und das von einem auf den anderen tag, ich bin gespannt wie lang das noch weitergeht! den bis die karten am markt sind dauerts noch ein bisl, und wies ausschaut wird man noch auf einiges draufkommen! und die leute werden immer weitermachen: ****** nv, ati is super, den tag darauf, ****** ati, nv is super
Bearbeitet von x3 am 17.05.2004, 11:54
|
Mr. Zet
Vereinsmitgliedresident spacenerd
|
die geschichte der neuen generation: die ersten nv40 reviews sind da (die leute: wow meine nächste karte wird nv, ati ist so schlecht) nun sind auch r420 reviews da (die leute: die is ja viel besser, meine nächste karte ist eine ati, nv ist so schlecht) enthüllung der ultra extrem (die leute: wow die is ja geil, die is ja nochmal schneller, meine nächste karte ist nv, ati ist so schlecht) nv´s ultra extrem nur bluff (die leute: so eine frechheit, wa meine nächste karte ist ati, niewieda ist scheise) lug betrug von ati? (die leute: wa das ist so eine frechheit, meine nächste karte ist eine nv, ati ist so scheise) fortsetzung folgt ...
also das ist nun mal zusammen gefasst, ich muss sagen echt witzig, mit die leute sind einfach viele hier und in anderen forums gemeind!
immer diese meinungsänderung, und das von einem auf den anderen tag, ich bin gespannt wie lang das noch weitergeht! den bis die karten am markt sind dauerts noch ein bisl, und wies ausschaut wird man noch auf einiges draufkommen! und die leute werden immer weitermachen: ****** nv, ati is super, den tag darauf, ****** ati, nv is super  word!
|
JoeDesperado
...loves the ride
|
so, nur um das klarzustellen (reaktion auf ein paar posts): ich hab eine R9800pro -> kein NV-fanboy  ich werd mir weder eine NV40 noch eine R420 zulegen - wozu auch, die derzeitige leistung meiner radeon ist mehr als ausreichend. ich hoffe, diesbezügliche zweifel an meiner person damit ausgeräumt zu haben, falls überhaupt irgendetwas auf mich bezogen war.  ich wär euch sehr verbunden, wenn dieser thread nicht zugeflamed oder ins lächerliche gezogen wird -- bis jetzt gehts eh noch halbwegs sachlich zu, aber erste negative tendenzen sind schon zu erkennen. und wer nichts zur thematik beizutragen hat solls_bitte_lassen, thx  btw: forums ?! scnr
Bearbeitet von JoeDesperado am 17.05.2004, 11:50
|
Viper780
ElderEr ist tot, Jim!
|
nur die sich ertappt fühlen müssen sich entschuldigen oder ausreden suchen, kan X3 nur beipflichten und i werd auch sicher keinen high end chip kaufen da die P/L unterm hund is und es mir nix bringt.
was bei mir in den rechner kommt is wos bei ordentlciher leistung billig is (unter 200€) und zur restl. HW passt
|
Goldlocke
(c) Dirty Donny
|
In meinen Augen hat ATI einfach nur die Methoden NVidias kopiert. Was mehr als traurig ist.  Denn auch NVidia hat schon seit Mitte 2003 seine Filtering-Optimierungen bei IQ tools wie dem AF Tester deaktiviert. (siehe 3DCenterArtikel damals). Und ich kauf mir sicher in den nächsten Wochen eine X800Pro oder GF6800GT.  Denn die Farcry Performance auf meiner 9800Pro gefällt mir gar net.
Bearbeitet von Goldlocke am 17.05.2004, 14:18
|
JoeDesperado
...loves the ride
|
In meinen Augen hat ATI einfach nur die Methoden NVidias kopiert. Was mehr als traurig ist.  Denn auch NVidia hat schon seit Mitte 2003 seine Filtering-Optimierungen bei IQ tools wie dem AF Tester deaktiviert. (siehe 3DCenterArtikel damals). full ack! (auch mal ein konstruktiver beitrag, thx  ) btw, was das preis / leistungs-verhältnis angeht, war das imho noch nie so gut wie bei der neuen generation, da ja der leistungssprung diesmal wirklich enorm war.
|