URL: https://www.overclockers.at/grafikkarten/david_kirk_nvidia_im_interview_94173/page_1 - zur Vollversion wechseln!
ziemliches marketingblahblah
"eigendlich haben wir die weit bessere hardware nur weiß/merkt das keiner"
"24bit FP hat keine zukunft weil die zahl nicht schön ist"
"mit neuen treibern werden wir alles in grund und boden ownen"
True. Das letzte Interview mit ihm war definitiv technisch detaillierter. Bis Half Life rauskommt, ist ja noch Zeit; da begnüge ich mich vorerst mal mit abwarten und Tee trinken
hmm die technischen Argumente können stimmen, oder auch nicht. Da nVidia ja leider keine genauen Details der CineFX Pipeline bekanntgibt, bleibt weiterhin alles Spekulation.
In diesem Sinne setz ich mich zu JC und trinke mit ihm einen Tee
PS: das restliche Marketinggeschwafel war wirklich sehr zweifelhaft und daher unnötig
Zitat von -fenix-"eigendlich haben wir die weit bessere hardware nur weiß/merkt das keiner"
"24bit FP hat keine zukunft weil die zahl nicht schön ist"
"mit neuen treibern werden wir alles in grund und boden ownen"
Imho ist es gar nicht mal so sehr Marketing-Blabla.
Cg
Warum sollte sich nVidia noch viel um Cg kümmern, wenn's mit MS' HLSL genauso funktioniert? Auf Non-Windows-Systemen bzw. unter OpenGL wird auch Cg weiterhin verwendet werden
24 vs 32 Bit Presicion
Imho hat Kirk recht gut dargelegt, was es mit der 24Bit-Präzision auf sich hat. Es ist korrekt, dass es unüblich und daher nicht Standard ist. Er führt weiterhin aus, dass 24Bit zuviel für Farbberechnungen sind und zuwenig für Geometrieberechnungen und dergleichen. 16 Bit Genauigkeit reicht für Farbberechnungen demnach aus und 32 Bit sind notwendig für den Rest.
Auch wenn er nicht sagt, dass es derzeit ein recht effizenter Kompromiß ist, so hat er imho recht, wenn er behauptet, dass die 24 Bit Genauigkeit nur temporär ist.
Hardware- bzw. Spiele-Performance
Hier spricht mir Kirk aus der Seele. Er gibt zu, dass die Performance nicht gerade beraubend ist - doch das war schließlich von Anfang an klar: Die FX benötigt optimierten Code.
Der Zeit- und Kostenaufwand steigt dadurch natürlich an, weshalb einige Hersteller wohl gerne darauf verzichten. Optimierte Treiber - die natürlich IMMER der Hardware hinterherkinken - bringen zwar auch noch Verbesserungen, doch den Großteil der Optimierungen müsste natürlich der Spiele-Produzent erledigen. Würden das auch alle tun, anstatt ihre Zeit mit Benchmarks zu verschwenden, kämen wir wohl in den Genuss einer weitaus besseren Grafik.
Viel wichtiger ist es jedoch, andere mit seiner Penislänge zu übertreffen und andere Produkte schlecht zu machen.
worauf beziehst du dich?Zitat von JCViel wichtiger ist es jedoch, andere mit seiner Penislänge zu übertreffen und andere Produkte schlecht zu machen.
Die sich für mich nach "Arbeitet mit uns, wir sind die Guten, wir verhelfen euch zu besseren Verkaufszahlen" anhörenZitatYou know in our case I haven’t worked with all of the developers, but the ones that I have worked with have seen marked improvements when they start to actually work with our hardware and optimize for our hardware.
top! und JC spricht mir aus der seele..
btw: genauso ists mit intels hyperthreading. wird von der software einfach noch viel zu wenig unterstützt. im 3d bereich kenn ich nur eine engine (Auran Jet), sowie ein paar spiele (zB Jedi Knight II). relativ dürftig, wenn man bedenkt wie lange ht schon für developers zur verfügung steht. Hat wahrscheinlich eher den grund dass sich die implementierung für die spielefirmen nicht auszahlt.
Ich beziehe mich darauf, dass jeder "Spieler" in diesem Markt mit harten Bandagen kämpft ("Unsere neue GPU kann soviel mehr als die von xxx", "[unser produkt] ist mind. doppelt so schnell", ...). Da ist weder ATI noch nVidia eine Ausnahme.
Und ja, der Shaderday fällt da auch hinein.
@Marketing-Blabla
Beantworte dir die Frage selbst: Bringen die Optimierungen was oder nicht?
Es war ja von anfang an klar, dass die FX-Karten keine "gewöhnlichen" Karten mehr sein werden. Cinematic Computing steht im Vordergrund, nicht höhere Framerates oder was dergleichen. Von Anfang an forcierte nVidia Cg und behauptete, dass nur mit entsprechender Optimierung ein passables Ergebnis möglich ist.
Bei Intel ist's ja auch nicht so ein Trara, wenn Optimierungen aufgrund von erweiterten Befehlssätzen stattfinden.
JC
I know
aber wie du selbst gesagt hast: abwarten und Tee trinken ... bisher gibt es weder Hieb und Stichfeste "Beweise" dafür was der Deto 50 bringen wird, noch ob und wie gut die Developer für CineFX optimieren werden.
Und wenns auch noch so ausgelutscht ist: Man erinnere sich an 3Dfx: Die bessere (fortschrittlichere) Hardware ist leider kein Garant für wirtschaftlichen Erfolg
add(some seconds later):
Glaube es ist auf jedenfall der richtige Schritt von nVidia, Cg - zumindest was DX betrifft - "fallen" zu lassen und auf HLSL zu setzen.
Ich denke sie haben sich damit nicht gerade viele Freunde gemacht, indem sie nicht nur speziellen Code verlangten (was ja durchaus legitim wäre), sondern auch noch eine eigene Shader-Language voraussetzten.
@Z
True
Ich persönlich erwarte von den 50er Dets nicht allzuviel, erwarte jedoch eine spürbare Steigerung. Tja ... der Tee ist schon kalt
Ohne Zweifel liegen die Dinge heute anders. Ich möchte aufgrund meiner nicht allzu genauen Kenntniss auch nicht behaupten, dass diese oder die andere Lösung besser ist, aber ich hielt und halte die FX-Architektur für keine schlechte Sache. Man muss sie nur nutzen
//add (aufgrund deiner änderung)
Wie Kirk bereits erwähnte: Es gab damals keine andere High Level Coding Language. Sie machten es vor und widerwillig nahmen es die Kunden an. Jetzt geht der Trend in die richtige Richtung
Ich habs ja gelesenZitat von JC//add (aufgrund deiner änderung)
Wie Kirk bereits erwähnte: Es gab damals keine andere High Level Coding Language. Sie machten es vor und widerwillig nahmen es die Kunden an. Jetzt geht der Trend in die richtige Richtung
Also von mir aus kann ja kirk die fx schönreden was er will.
Nvidia war einfach zu spät dran mit ihrer dx9 Lösung --> der MArkt und die developer richten und optimieren nach ATI --> Nvidia kommt mit 32 bit was keiner braucht und was nur langsam ist --> Ati gewinnt.
Klar ist 24 bit ungewöhnlich, aber FÜR DIESE Zeit offenbar ideal. Und klar wird 32bit Standard, trotzdem gewinnt ATI diese Runde.
Und wenn gabe newell sagt er hat 5 mal mehr Zeit in die Optmierung von FX als in die von ati investiert, dann kanns aber bitte ned sein, daß es nur auf Optimierung hinausläuft...
Irgendwas MUSS mit der FX ned stimmen... (und ich tipp da mal ganz banal auf nur 4pipes )
Und carmack und newell verstehen die Architektur ned? Na wer dann bitte DANN? --> Lächerlich..
Kommt man wie ein trotziges KInd vor was ned verlieren kann:
"Aber die wollten nicht mir spielen und jetzt hab ich die falsche Turnhose an (=32bit)"
"Aber dann hol ich meinen großen Bruder und der wird alles ownen (= in Zukunft wird alles besser durch mad-Optimierungs-skills)"
"Ihr seids ja alle deppat (=they don´t understand our architecture)"
Und wegen dieser Nvidia Pleite wurde jetzt HL2 verschoben --> klar, damit man ein paar Monate mehr optimieren kann, damit ja die Nvidia Kunden auch des game kaufen --->
Dann sollens des game dooch releasen und später einen nvidia patch rausbringen (i weiß, würde keiner machen
)
Zitat von tombmanUnd wegen dieser Nvidia Pleite wurde jetzt HL2 verschoben --> klar, damit man ein paar Monate mehr optimieren kann, damit ja die Nvidia Kunden auch des game kaufen --->
Dann sollens des game dooch releasen und später einen nvidia patch rausbringen(i weiß, würde keiner machen
)
@Tombman und Mr.Z
Ihr habts ja beide recht!!! Einerseits bezweifle ich auch, dass HL2 nur wegen Nvidia no net released wurde! Valve nutzt die Zeit sicha ned nur für die FX-Optimierung
Andererseits, was is mit der FX los!!!! Seit der FX5800 geht bei Nvidia alles daneben! Okay zugegeben mit der FX5900 habens schon irgendwie den Anschluß gefunden - und warum: Nur wegen der Speicheranbindung von 256 bit anstatt bei der "alten" FX 5800 mit 128 bit!
Ich bin weder ein Befürworter von Ati, noch von Nvidia! Die Karte, welche die bessere Leistung fürs Geld bringt wird gekauft!
Damals fiel meine Entscheidung auf die Radeon 9700 Pro und ich bereue diesen kauf bis heut no ned!!!
Aber wie oben schon erwähnt: Abwarten und Tee trinken!!! Wenn HL2 released wurde können ma ja noch mal darüber diskutieren
overclockers.at v4.thecommunity
© all rights reserved by overclockers.at 2000-2025