doom iii performance ... - Seite 2

Seite 2 von 3 - Forum: Spiele auf overclockers.at

URL: https://www.overclockers.at/spiele/doom_iii_performance_35768/page_2 - zur Vollversion wechseln!


AMDfreak schrieb am 29.05.2002 um 10:30

Ja, zank, das wär natürlich das beste, nur dann kann ich Morrowind und Konsorten nicht spielen, weil ich nur ne MX-400 hab --> jetzt Ti4200 kaufen!


tombman schrieb am 29.05.2002 um 11:14

Man darf aber ned vergessen, daß er die r300 mit der gf4ti verglichen hat, was a bissi a Bledsinn is. Und die nv30 hat er no ned in der Hand gehabt...


JC schrieb am 29.05.2002 um 11:20

Zitat von tombman
Man darf aber ned vergessen, daß er die r300 mit der gf4ti verglichen hat, was a bissi a Bledsinn is. Und die nv30 hat er no ned in der Hand gehabt...
Nun, vielleicht doch? Ich denke, NDAs sind nicht umsonst. Tja, das sind jetzt allerdings nur noch reine Spekulationen...


tombman schrieb am 29.05.2002 um 12:00

Zitat von JC
Nun, vielleicht doch? Ich denke, NDAs sind nicht umsonst. Tja, das sind jetzt allerdings nur noch reine Spekulationen...

Also wenn er wirklich eine nv30 und eine r300 gehabt hat und ati schneller war, dann *seufz*; i will daß nvidia gewinnt, weil ATI Treiber.....naja ;)


HaBa schrieb am 29.05.2002 um 12:03

Maybe habe ich das ja falsch verstanden, aber steht da nicht was von wegen NVIDIA ist derzeit eine Generation hinten weils sie viel Energie in die XBOX gesteckt haben, das er aber NVIDIA sehr lobt weil sie immer alles erfüllt haben und das "derzeit" ATI einen Schritt voraus ist.


JC schrieb am 29.05.2002 um 12:09

Zitat von HaBa
Maybe habe ich das ja falsch verstanden, aber steht da nicht was von wegen NVIDIA ist derzeit eine Generation hinten weils sie viel Energie in die XBOX gesteckt haben, das er aber NVIDIA sehr lobt weil sie immer alles erfüllt haben und das "derzeit" ATI einen Schritt voraus ist.
Genau so steht's da :)

Allerdings kann ein NDA ja auch die bloße Existenz einer Karte betreffen, aber das ist, wie bereits erwähnt, nur bloße Spekulation. Verglichen hat JC die ATI-Karte mit der GF4.
Den Performance-Thron wird dann für kurze Zeit sowieso Matrox mit dem Parhelia innehaben, wenn sowohl nVidia und ATI, als auch Matrox ihre Pläne einhalten.


JC schrieb am 29.05.2002 um 12:13

BTW, JC 0wnage:

Zitat
There is something unique about interviewing John Carmack.
Carmack does not play the public relations game when he enters interviews. He says exactly what he thinks, and seems unwilling to worry about the company line or politically sensitive answers to questions. Ask him a question, and he sometimes spends 10 minutes answering as he considers every possible angle and follow-up question.
Don’t bother trying to take notes during a Carmack interview. Technical information pours out of him in a nonstop stream. If you do not record his words, you cannot possibly hope to catch his answers with a pad and paper.
And with John Carmack, almost everything seems to be technical.


Hubman schrieb am 29.05.2002 um 12:21

Zitat von JC
BTW, JC 0wnage:

w00t, da obaowner;)


-wrax- schrieb am 30.05.2002 um 12:54

ich mag den johhhnnny boy.. .kann der nicht gscheiter programmieren, das die engine weniger hardwareperformance schluckt...

aber is ja egal, ich hab ghoert ,dass das spiel auf ati technologien aufgebaut ist... aber mittlerweile hat nvidia schon bessere triber fuer ihre karten heraus, das man wieder sagen kann: es ist wurscht welche card man sich kauft, kosten beide zu viel...


AMDfreak schrieb am 30.05.2002 um 16:48

Zitat von JC
BTW, JC 0wnage:

JC rockz da w0rld :D
Er 0wnt einfach jeden, sogar mich :cool:


starfucker schrieb am 30.05.2002 um 17:43

Zitat
kann der nicht gscheiter programmieren, das die engine weniger hardwareperformance schluckt

das ding ist doch wenn überhaupt im alpha stadium, also hats nichts zu sagen!

und wann hat der nicht gescheit programmiert??? :confused:

schau da die quake engine an, war imma das beste wenns rauskam! und lief auch immer super!
wenn ich mir da de unreal engine anschau... ;)


Hermander schrieb am 31.05.2002 um 01:24

nur so zur korrektheit..... ATI hat auch einen Konsolen-Chip entwickelt (Gamecube ;)... also is Nvidia keine Schritt hinten nach... auch keinen halben... ! ;)

und tombman... die treiber sind nimma so gschissen wie früher... ;)
(sonst hätt ich ma auch eine Nvidia gekauft... (wenns auch noch ein scharfes Bild erzeugen würden und man gscheid DVDs schaun könnt! ;)))

:D


Redphex schrieb am 31.05.2002 um 13:43

Zitat
kann der nicht gscheiter programmieren, das die engine weniger hardwareperformance schluckt

ich weiss net, ob's den performance-nörglern aufgfalln ist, aber ein großteil der lighting-engine wird erst durch die pixel-shader möglich gemacht.
Daher ist es nur allzuverständlich, daß des game auf allen karten, die diese features nicht bieten, NICHT gscheit laufen KANN - weil vermutlich alles per Software emuliert werden muss, was natürlich CPUpower frisst.


tombman schrieb am 31.05.2002 um 17:35

Zitat von Hermander
nur so zur korrektheit..... ATI hat auch einen Konsolen-Chip entwickelt (Gamecube ;)... also is Nvidia keine Schritt hinten nach... auch keinen halben... ! ;)

und tombman... die treiber sind nimma so gschissen wie früher... ;)
(sonst hätt ich ma auch eine Nvidia gekauft... (wenns auch noch ein scharfes Bild erzeugen würden und man gscheid DVDs schaun könnt! ;)))

:D

Aber ATI hat viel mehr manpower als nvidia und daher kratzt es ati weniger wenns mit artx Firma einen console chip proggn als ATI. Und irgendwie hab i zu ATI Treibern ka Vertrauen, bei nvidia gibts SO VIELE leaks und zig Treiber, da rennt jedes game 100%. ATI "released" ned so viele Treiber, also is die Wahrscheinlichkeit höher, daß mal was ned paßt...is halt eine Gefühlssache von mir.


Redphex schrieb am 31.05.2002 um 18:05

auch bei ati gibs regelmässig leaks ...
es hat zeitn geben, da hätt ich jeden 3. tag eine neue revision installn können.
ob des positiv oder negativ zu sehn ist, sei dahingstellt :)




overclockers.at v4.thecommunity
© all rights reserved by overclockers.at 2000-2026