"Christmas - the time to fix the computers of your loved ones" « Lord Wyrm

Half Life 2 Leistung mit ATI deutlich höher als mit Nvidia!

tombman 11.09.2003 - 05:56 36951 159
Posts

Nimbus4DM

schaut mal wieder rein
Avatar
Registered: Sep 2002
Location: Wien
Posts: 1388
irgendwie beruhigt mich, dass ich mir eine 9600 Pro gekauft habe

charmin

Super Moderator

Avatar
Registered: Dec 2002
Location: aut_sbg
Posts: 13881
Zitat von The Red Guy
...und den montag danach wo ATI einen neuen Treiber bringt...
...und den montag danach wo nVidia einen neuen Treiber bringt...
...und den montag danach wo ATI einen neuen Treiber bringt...
...und den montag danach wo nVidia einen neuen Treiber bringt...
...und den montag danach wo ATI einen neuen Treiber bringt...
...und den montag danach wo nVidia einen neuen Treiber bringt...
...und den montag danach wo ATI einen neuen Treiber bringt...
...und den montag danach wo nVidia einen neuen Treiber bringt...
...und den montag danach wo ATI einen neuen Treiber bringt...
...und den montag danach wo nVidia einen neuen Treiber bringt...
....


btw

der neue detonator 45.33 ist heraussen!

LTD

frecher fratz
Avatar
Registered: Feb 2001
Location: is where it is
Posts: 6333
wenn das so weitergeht dann gute nacht. am end brauchst a nvidia karte damit du game a und a ati karte damit du game b spielen kannst.

ich erinner mich nur an die zeiten von 3dfx... die haben damals zwar die bessere bildquali gehabt, von den treibern ganz zu schweigen, jedoch hat nvidia es nur durch stupide forcierung der raw power geschafft 3dfx zu ruinieren. gott sei dank is ati nicht so arm wie 3dfx sonst würdens die auch no schlucken und was dann wär könn ma uns eh vorstellen oda?

2006 kommt a gf 8 100000 mit ps/vs 18.3 hat nen 100cm² chip am board, baucht a flüssigstickstoffkühlung + atomkraftwerk und 5gb an onboardram nur damit die überwichtigen overdraw daten gespeichert werden können.

achja und wir werden mit 47,3 fach antialiasing abgespeist, das verfahren der gf1 wird wiederbelebt! yeah ich freu mich einfach...

Domo-Kun

im Weihnachtsstress
Avatar
Registered: Jun 2003
Location: Vienna
Posts: 1067
Ich hoff ich kann das Game mim Barebone spielen :D
1700+ und 9500 pro.
Hoffe es reicht.

@Topic:Wundert mich schon irgendwie das HL so viel schneller mit ner ATI rennt,bin scho gspannt wies bei DOOM III aussieht.

JC

Administrator
Disruptor
Avatar
Registered: Feb 2001
Location: Katratzi
Posts: 9067

JC

Administrator
Disruptor
Avatar
Registered: Feb 2001
Location: Katratzi
Posts: 9067
BTW, nVidia's official response:
[quote]Over the last 24 hours, there has been quite a bit of controversy over comments made by Gabe Newell of Valve at ATIs Shader Day.

During the entire development of Half Life 2, NVIDIA has had close technical contact with Valve regarding the game. However, Valve has not made us aware of the issues Gabe discussed.

We're confused as to why Valve chose to use Release. 45 (Rel. 45) - because up to two weeks prior to the Shader Day we had been working closely with Valve to ensure that Release 50 (Rel. 50) provides the best experience possible on NVIDIA hardware.

Regarding the Half Life2 performance numbers that were published on the web, we believe these performance numbers are invalid because they do not use our Rel. 50 drivers. Engineering efforts on our Rel. 45 drivers stopped months ago in anticipation of Rel. 50. NVIDIA's optimizations for Half Life 2 and other new games are included in our Rel.50 drivers - which reviewers currently have a beta version of today. Rel. 50 is the best driver we've ever built - it includes significant optimizations for the highly-programmable GeForce FX architecture and includes feature and performance benefits for over 100 million NVIDIA GPU customers.

Pending detailed information from Valve, we are only aware one bug with Rel. 50 and the version of Half Life 2 that we currently have - this is the fog issue that Gabe referred to in his presentation. It is not a cheat or an over optimization. Our current drop of Half Life 2 is more than 2 weeks old. NVIDIA's Rel. 50 driver will be public before the game is available. Since we know that obtaining the best pixel shader performance from the GeForce FX GPUs currently requires some specialized work, our developer technology team works very closely with game developers. Part of this is understanding that in many cases promoting PS 1.4 (DirectX 8) to PS 2.0 (DirectX 9) provides no image quality benefit. Sometimes this involves converting 32-bit floating point precision shader operations into 16-bit floating point precision shaders in order to obtain the performance benefit of this mode with no image quality degradation. Our goal is to provide our consumers the best experience possible, and that means games must both look and run great.

The optimal code path for ATI and NVIDIA GPUs is different - so trying to test them with the same code path will always disadvantage one or the other. The default settings for each game have been chosen by both the developers and NVIDIA in order to produce the best results for our consumers.

In addition to the developer efforts, our driver team has developed a next-generation automatic shader optimizer that vastly improves GeForce FX pixel shader performance across the board. The fruits of these efforts will be seen in our Rel.50 driver release. Many other improvements have also been included in Rel.50, and these were all created either in response to, or in anticipation of the first wave of shipping DirectX 9 titles, such as Half Life 2.

We are committed to working with Gabe to fully understand his concerns and with Valve to ensure that 100+ million NVIDIA consumers get the best possible experience with Half Life 2 on NVIDIA hardware.

Brian Burke NVIDIA Corp.[/quote]
NFI reports:
[quote]nVidia has released the response as seen in the link. Particularly interesting, however, is this part of the e-mail sent to certain nVidia employees ( this was not posted at the given link ):

We have been working very closely with Valve on the development of Half Life 2 and tuning for NVIDIA GPU's. And until a week ago had been in close contact with their technical team. It appears that, in preparation for ATI's Shader Days conference, they have misinterpreted bugs associated with a beta version of our release 50 driver.

You also may have heard that Valve has closed a multi-million dollar marketing deal with ATI. Valve invited us to bid on an exclusive marketing arrangement but we felt the price tag was far too high. We elected not to participate. We have no evidence or reason to believe that Valve's presentation yesterday was influenced by their marketing relationship with ATI.[/quote]

moep

OC Addicted
Avatar
Registered: Jun 2001
Location: here
Posts: 2149
Toll, nun fangt Nvidia in der Verzweiflung mit verschwörungs-theorien an. :rolleyes:

Was dagegen spricht, ist das auch John Carmack schreibt das Nvidia deutliche Probleme mit der PS-Performance hat:

Zitat
"Yes. NV30 class hardware can run the ARB2 path that uses ARB_fragment_program, but it is very slow, which is why I have a separate NV30 back end that uses NV_fragment_program to specify most of the operations as 12 or 16 bit instead of 32 bit."

John Carmack

Quelle

Falls Nvidia Karten in Doom 3 wirklich schneller als ATI Karten sind, liegt das wohl daran das die Nvidia Karten teilweise in 12 oder 16 bit rendern - die ATIs aber in den vollen 32 bit.

Mr. Zet

Super Moderator
resident spacenerd
Avatar
Registered: Oct 2000
Location: Edge of Tomorrow
Posts: 11992
Zitat von -fenix-
wer den 3dcenter artikel gelesen hat weiß warum die NV3x so schwach bei pixelshadern und generell bei PS2.0 is, das hat ganz andere gründe als "A besticht B damit C schlechter dasteht"

wollt ich auch nochmal hervorheben ;)

@ moep
was redest du von nvidia verschwörungstheorien?
lern lesen:
Zitat
We have no evidence or reason to believe that Valve's presentation yesterday was influenced by their marketing relationship with ATI.

wen die gründe für die schlechte performance interessieren, der soll (wie von tomb, fenix und anderen bereits mehrfach vorgeschlagen) bitte den artikel zur CineFX I/II Pipeline auf http://www.3dcenter.de lesen.

Wer den artikel nicht versteht, möge bitte so freundlich sein und hier keine sinnlosen "xy ist besser, weil bla bla bla" postings ablassen.

tombman

the only truth...
Avatar
Registered: Mar 2000
Location: Wien
Posts: 9496
Noch was ganz wichtiges, was ein bischen untergeht im Trubel:

Selbst wenn der mixed mode der nv35 mit neuem Treiber halbwegs auf das Niveau der 9800pro VOM SPEED her anschließt, sieht es immer noch deutlich qualitativ schlechter aus als beim "echten" PS 2.0 dx9 code path!!!!
Hier der quote vom anandtech review
Zitat
The sacrifices you encounter by running either the mixed mode path or the DX8 path are obviously visual. The 5900 Ultra, running in mixed mode, will exhibit some banding effects as a result of a loss in precision (FP16 vs. FP32) but still looks good - just not as good as the full DX9 code path. There is a noticeable difference between this mixed mode and the dx82 mode, as well as the straight DX8 path - for example, you'll notice that shader effects on the water aren't as impressive as they are in the native DX9 path.

Are the visual tradeoffs perceptive? Yes. The native DX9 path clearly looks better than anything else, especially the DX8.0/8.1 modes.

:cool:
Bearbeitet von tombman am 12.09.2003, 10:27

nitschi

miau!
Avatar
Registered: Oct 2002
Location: Wien
Posts: 1731
Wens interessiert.. Benchmark-Vergleiche auf GamersDepot:
http://www.gamersdepot.com/hardware...ollowup/003.htm

Bloodvirus

Toshiba P10 Begeisterter
Avatar
Registered: Sep 2001
Location: Ingolstadt
Posts: 1285
Woohoo, mit der 9800 Pro hat man in 1024 x 768, 4 x FSAA und 8 x AF immer noch schlechtestens 41 Fps, wohingegen die FX5900 Ultra nur noch 19 Fps hat.
Das tut weh.

tombman

the only truth...
Avatar
Registered: Mar 2000
Location: Wien
Posts: 9496
Ich frag mich echt wie nvidia einen Treiber proggn will, der mixed mode beschleunigt, auf 9800pro aufholt und TROTZDEM nicht die Qualität der shader vermindert? -> kann ned gehen imo.

Und da i ned glaub, daß die nv38 so anders sein wird, dürftens die 2003 Runde an ATI verloren haben, und das TROTZ besseren 3dmark2003 scores ---> na wenn DAS nix heißt für die Zukunft :D:D:D

Mr. Zet

Super Moderator
resident spacenerd
Avatar
Registered: Oct 2000
Location: Edge of Tomorrow
Posts: 11992
Zitat von tombman
Ich frag mich echt wie nvidia einen Treiber proggn will, der mixed mode beschleunigt, auf 9800pro aufholt und TROTZDEM nicht die Qualität der shader vermindert? -> kann ned gehen imo.

Und da i ned glaub, daß die nv38 so anders sein wird, dürftens die 2003 Runde an ATI verloren haben, und das TROTZ besseren 3dmark2003 scores ---> na wenn DAS nix heißt für die Zukunft :D:D:D

naja, warten wir mal ab, was die neuen compiler leisten werden, die ja dann angeblich den code auch für den nv3x optimal erstellen sollen.

aber momentan sieht es wirklich nach einem 2ten 3dfx desaster aus.. nvidia hat zwar (imho) den interessanteren hardware-ansatz, schafft aber einfach nicht die leistung der konkurrenz... :(

geforceraid

Big d00d
Avatar
Registered: Mar 2003
Location: Uhrwerk
Posts: 299
Zitat von moep
Falls Nvidia Karten in Doom 3 wirklich schneller als ATI Karten sind, liegt das wohl daran das die Nvidia Karten teilweise in 12 oder 16 bit rendern - die ATIs aber in den vollen 32 bit.

ATI Karten können gar nicht mit 32Bit Präzision rendern.
Sie verwenden 24Bit pro Farbkanal in Low-Precision sowie im High-Precision Modus.
Meiner Meinung nach der beste Kompromiss zwischen Leistung und Performance. Ich bezweifle, dass man einen unterschied erkennen kann (zw.24 und 32Bit/zw. 24 u. 16Bit).
Also wieso soll nv nicht auf 16Bit runterschalten?

tombman

the only truth...
Avatar
Registered: Mar 2000
Location: Wien
Posts: 9496
klar erkennst einen Unterschied, sagt valve selbst..
Rein mathematisch ist es auch ein großer, denn von 16 auf 24 sind es 50% (!) und von 24 auf 32 aber nur 33%. Und das dann noch mal 4, wegen 3 Farben und alpha!
Bearbeitet von tombman am 12.09.2003, 16:58
Kontakt | Unser Forum | Über overclockers.at | Impressum | Datenschutz