"We are back" « oc.at

Lug & Betrug bei ATI

IcYrOcKeT 16.05.2004 - 19:54 6294 113 Thread rating
Posts

x3

† 18.03.2006
Avatar
Registered: Jan 2003
Location: lnz/(hgb)
Posts: 1480
also mir scheint es so als hätten einige den bericht nicht fertig gelesen (ala UncleFucka, etc)!
also:
es heist, das nv das genau so gemacht hat (mit den fx karten),
und sie das bei den nv40 karten noch nicht wissen ob sie es machen,
und sie eine nv40 brauchen um das zu testen! (haben leider keine)
das heist:
das es sein kann das nv das wieder fortsetzt (wie bei der fx) und das wieder macht!
aja und noch was, das ist die pro die keinen interessiert!
und bei der xt weis man nichts!
also wie wärs wenns einfach alle mal abwartets und teedrinkts, bevor ihr eure meinung 1000x ändert!
ala
na jetzt kauf i ma ati, frechheit von nv; nächsten tag: na jetzt kauf i ma nv, frechheit von ati; nächsten tag: na jetzt kauf i ma ati, frechheit von nv;

mfg

Ringding

Pilot
Avatar
Registered: Jan 2002
Location: Perchtoldsdorf/W..
Posts: 4300
Für Spiele ist es wirklich egal, ob sich da jetzt ein paar Pixel um eine oder 2 Helligkeitsstufen (von 256) unterscheiden.

Aber schön langsam fangen die Leute an, alle möglichen Sachen auf der Grafikkarte zu rechnen. Die klassischen Sachen halt, die immer auf Cluster laufen - Klimavorhersage, Strömungssimulationen, usw. Und die Animationsstudios verwenden auch teilweise schon die Grafikkarte zum Rendern, weil's einfach viel viel schneller geht. Und genau denen ist es dann aber nicht egal, ob was anderes rauskommt, als eigentlich sollte.

JoeDesperado

...loves the ride
Avatar
Registered: Jul 2001
Location: Salzburg
Posts: 2340
3dcenter.de:

"... Wirklich bezeichned ist jedoch der Punkt, daß diese neue ATi-Optimierung sich offensichtlich deaktiviert, testet man die jeweiligen Anwendung mit eingefärbten Mipmaps aus (in Spielen auf Basis der Q3A-Engine im gewöhnlichen "r_colormiplevels 1", in Spielen auf Basis der Unreal-Engine im gewöhnlichen "firstcoloredmip 1"). Sollte sich dies bestätigen, wäre ATi in der Tat in höchsten Erklärungsnöten, denn eine Funktion, um eine Optimierung zu verschleiern, grenzt schon an Kundenbetrug (ist allerdings nicht neu, auch nVidia hatte zeitweise einmal eine Erkennung des D3D AF-Testers im Treiber integriert, sich dieses aber schnell wieder abgewöhnt) ...

... Eventuell läßt sich ATi ja diesbezüglich zu einer Aussage bewegen, immerhin hätte man damit die Gelegenheit für den Beweis, daß die neue ATi-Optimierung viel Leistung aus einem geringem Verlust an Bildqualität schöpft. Denn ehrlicherweise geben die bisherigen Screenshots zu diesem Fall noch nicht viel her - allerdings kann es auch sein, daß wir schlicht noch nicht wissen, wo wir hinsehen müssen (was oftmals der Fall ist, wenn die Art der Optimierung im unklaren liegt). An dieser Stelle ist nun eine gute Informationspolitik seitens ATi gefragt: Denn warum sollte man eine neue Treiber-Optimierung vor seinen Kunden und Käufern geheim halten wollen?"

DAS ist imho die eigentliche frechheit! extra eine fkt in den treiber einbauen, die versucht, die entdeckung der optimierung zu verhindern...
unabhängig davon, ob ATi oder NV so etwas macht, das ist eine absolute frechheit >.<
Bearbeitet von JoeDesperado am 17.05.2004, 10:18

Nightstalker

ctrl+alt+del
Avatar
Registered: Jan 2002
Location: .^.
Posts: 6814
is doch schnurz, du merkst es ohnehin nicht, genauso wie du 10 fps auf oder ab ned merkst wennst eh schon 200 fps hast.

wayne?

JoeDesperado

...loves the ride
Avatar
Registered: Jul 2001
Location: Salzburg
Posts: 2340
Zitat von Nightstalker
is doch schnurz, du merkst es ohnehin nicht, genauso wie du 10 fps auf oder ab ned merkst wennst eh schon 200 fps hast.

wayne?

du hast mein post gelesen?
[ ] ja
[x] nein

nur um das klarzustellen: mir ist jede optimierung recht, ich nehm dafür sogar kleine abstriche der IQ in kauf - darum gehts mir aber auch nicht.
wichtiger ist, dass das, was ATi aufführt, fast schon an betrug grenzt, da sie ja versuchen, ihre optimierung mit allen mitteln zu verbergen.
und spätestens da versteh ich keinen spaß mehr.

EddieRodriguez

*AUDIO-ENGINEER*
Avatar
Registered: May 2003
Location: wean
Posts: 1034
sorry, aber bei dem preis/leistungs-verhältnis von ati ist mir herzlich egal ob die karte letztendlich hinter der nv40 liegt. der leistungsunterschied in anwendungen/spielen ist nicht bemerkbar. diese ewigen diskussionen vor dem launch der karten gehen mir schon wohin. nvidia muss nach den letzten jahren reagieren und hätte die finanziellen möglichkeiten ein paar tests positiver aussehen zu lassen. ich nehme zwar an das nvidia bei einer der nächsten graka-generationen wieder die oberhand gewinnen wird, aber momentan stehen preis und leistung bei nvidia sehr weit auseinander.

masterpain

bofh
Avatar
Registered: Jun 2002
Location: kevelaer de
Posts: 2640
Zitat von JoeDesperado
du hast mein post gelesen?
[ ] ja
[x] nein

nur um das klarzustellen: mir ist jede optimierung recht, ich nehm dafür sogar kleine abstriche der IQ in kauf - darum gehts mir aber auch nicht.
wichtiger ist, dass das, was ATi aufführt, fast schon an betrug grenzt, da sie ja versuchen, ihre optimierung mit allen mitteln zu verbergen.
und spätestens da versteh ich keinen spaß mehr.

würdest du eine optimierung, die es wirklich bringt in irgendeiner weise deiner direkten konkurrenz zugeänglich machen? überleg doch mal bitte.

JoeDesperado

...loves the ride
Avatar
Registered: Jul 2001
Location: Salzburg
Posts: 2340
Zitat von masterpain
würdest du eine optimierung, die es wirklich bringt in irgendeiner weise deiner direkten konkurrenz zugeänglich machen? überleg doch mal bitte.

NV hat bei der GFX-reihe iirc die selben optimierungen, nur waren sie dort deaktivierbar.

salsa

So spät wie gestern.
Avatar
Registered: Oct 2003
Location: SU
Posts: 5329
Ich hab so ganz leicht des Gefühl, dass diese Beschuldigungen hauptsächlich von NV Sympathisanten kommen. NV hat gecheatet, jetzt wollens ATi auch in den Dreck ziehen.

Kann das dem Verbraucher ned egal sein, woraus ein Grafikchip seine Leistung zieht? Und ich würd die Optimierung auch verstecken, angenommen die Konkurrenz hat nicht den blassesten Schimmer wieso mein Chip schnell is.

Viel Wind um nichts.

x3

† 18.03.2006
Avatar
Registered: Jan 2003
Location: lnz/(hgb)
Posts: 1480
die geschichte der neuen generation:
die ersten nv40 reviews sind da (die leute: wow meine nächste karte wird nv, ati ist so schlecht)
nun sind auch r420 reviews da (die leute: die is ja viel besser, meine nächste karte ist eine ati, nv ist so schlecht)
enthüllung der ultra extrem (die leute: wow die is ja geil, die is ja nochmal schneller, meine nächste karte ist nv, ati ist so schlecht)
nv´s ultra extrem nur bluff (die leute: so eine frechheit, wa meine nächste karte ist ati, niewieda ist scheise)
lug betrug von ati? (die leute: wa das ist so eine frechheit, meine nächste karte ist eine nv, ati ist so scheise)
fortsetzung folgt ... :rolleyes:

also das ist nun mal zusammen gefasst, ich muss sagen echt witzig,
mit die leute sind einfach viele hier und in anderen foren gemeind!

immer diese meinungsänderung, und das von einem auf den anderen tag, ich bin gespannt wie lang das noch weitergeht!
den bis die karten am markt sind dauerts noch ein bisl, und wies ausschaut wird man noch auf einiges draufkommen!
und die leute werden immer weitermachen: ****** nv, ati is super, den tag darauf, ****** ati, nv is super :rolleyes:
Bearbeitet von x3 am 17.05.2004, 11:54

Mr. Zet

Vereinsmitglied
resident spacenerd
Avatar
Registered: Oct 2000
Location: Edge of Tomorrow
Posts: 12068
Zitat von x3
die geschichte der neuen generation:
die ersten nv40 reviews sind da (die leute: wow meine nächste karte wird nv, ati ist so schlecht)
nun sind auch r420 reviews da (die leute: die is ja viel besser, meine nächste karte ist eine ati, nv ist so schlecht)
enthüllung der ultra extrem (die leute: wow die is ja geil, die is ja nochmal schneller, meine nächste karte ist nv, ati ist so schlecht)
nv´s ultra extrem nur bluff (die leute: so eine frechheit, wa meine nächste karte ist ati, niewieda ist scheise)
lug betrug von ati? (die leute: wa das ist so eine frechheit, meine nächste karte ist eine nv, ati ist so scheise)
fortsetzung folgt ... :rolleyes:

also das ist nun mal zusammen gefasst, ich muss sagen echt witzig,
mit die leute sind einfach viele hier und in anderen forums gemeind!

immer diese meinungsänderung, und das von einem auf den anderen tag, ich bin gespannt wie lang das noch weitergeht!
den bis die karten am markt sind dauerts noch ein bisl, und wies ausschaut wird man noch auf einiges draufkommen!
und die leute werden immer weitermachen: ****** nv, ati is super, den tag darauf, ****** ati, nv is super :rolleyes:

word!

JoeDesperado

...loves the ride
Avatar
Registered: Jul 2001
Location: Salzburg
Posts: 2340
so, nur um das klarzustellen (reaktion auf ein paar posts):
ich hab eine R9800pro -> kein NV-fanboy ;)
ich werd mir weder eine NV40 noch eine R420 zulegen - wozu auch, die derzeitige leistung meiner radeon ist mehr als ausreichend.

ich hoffe, diesbezügliche zweifel an meiner person damit ausgeräumt zu haben, falls überhaupt irgendetwas auf mich bezogen war. ;)

ich wär euch sehr verbunden, wenn dieser thread nicht zugeflamed oder ins lächerliche gezogen wird -- bis jetzt gehts eh noch halbwegs sachlich zu, aber erste negative tendenzen sind schon zu erkennen.
und wer nichts zur thematik beizutragen hat solls_bitte_lassen, thx :)

btw:
Zitat
forums
?! scnr
Bearbeitet von JoeDesperado am 17.05.2004, 11:50

Viper780

Elder
Er ist tot, Jim!
Avatar
Registered: Mar 2001
Location: Wien
Posts: 50844
nur die sich ertappt fühlen müssen sich entschuldigen oder ausreden suchen, kan X3 nur beipflichten und i werd auch sicher keinen high end chip kaufen da die P/L unterm hund is und es mir nix bringt.

was bei mir in den rechner kommt is wos bei ordentlciher leistung billig is (unter 200€) und zur restl. HW passt

Goldlocke

(c) Dirty Donny
Avatar
Registered: Apr 2000
Location: Wien Nord
Posts: 3129
In meinen Augen hat ATI einfach nur die Methoden NVidias kopiert. Was mehr als traurig ist. :(
Denn auch NVidia hat schon seit Mitte 2003 seine Filtering-Optimierungen bei IQ tools wie dem AF Tester deaktiviert. (siehe 3DCenterArtikel damals).

Und ich kauf mir sicher in den nächsten Wochen eine X800Pro oder GF6800GT. :D
Denn die Farcry Performance auf meiner 9800Pro gefällt mir gar net.
Bearbeitet von Goldlocke am 17.05.2004, 14:18

JoeDesperado

...loves the ride
Avatar
Registered: Jul 2001
Location: Salzburg
Posts: 2340
Zitat von Goldlocke
In meinen Augen hat ATI einfach nur die Methoden NVidias kopiert. Was mehr als traurig ist. :(
Denn auch NVidia hat schon seit Mitte 2003 seine Filtering-Optimierungen bei IQ tools wie dem AF Tester deaktiviert. (siehe 3DCenterArtikel damals).

full ack! (auch mal ein konstruktiver beitrag, thx ;))
btw, was das preis / leistungs-verhältnis angeht, war das imho noch nie so gut wie bei der neuen generation, da ja der leistungssprung diesmal wirklich enorm war.
Kontakt | Unser Forum | Über overclockers.at | Impressum | Datenschutz