blood
darkly dreaming
|
jetzt gibt sogar jensen einen kommentar dazu ab: Jensen Huang says gamers are 'completely wrong' about DLSS 5"Well, first of all, they're completely wrong," Huang said in response to a question from Tom's Hardware editor-in-chief Paul Alcorn about the criticism. "The reason for that is because, as I have explained very carefully, DLSS 5 fuses controllability of the of geometry and textures and everything about the game with generative AI," Huang continued. He added that developers can still "fine-tune the generative AI" to make it match their style, adding that DLSS 5 adds generative capability to the existing geometry of the game, but that it "doesn't change the artistic control." "It’s not post-processing, it’s not post-processing at the frame level, it’s generative control at the geometry level," he said. Link: www.tomshardware.com sehr diplomatisch, nicht anders hätte ich es mir erwartet
Bearbeitet von blood am 17.03.2026, 23:18
|
Jedimaster
Here to stay
|
"You're holding it wrong"?
Edit: Raytracing ist tot, es lebe "neural Rendering". Na dann ...
|
Rogaahl
Elderinterrup
|
Damit es auch einmal was Gutes zu berichten gibt. FSR4.1 leaked und liegt wohl zwischen DLSS4 und DLSS4.5, in manchen Szenarios ist es sogar besser als 4.5, und das ohne Performance unterschied zu FSR4. Wobei was besser ist kann zumindest ich sowieso nicht mehr beurteilen, schärfer muss nicht gleich besser bedeuten, wie die Spiele eigentlich aussehen soll, weis ja eh kein Mensch mehr. Is AMD About to Catch Up? - Leaked FSR 4.1 Tested
|
Starsky
Erdbeeren für ALLE!
|
"You're holding it wrong"?
Edit: Raytracing ist tot, es lebe "neural Rendering". Na dann ... Ob jetzt eine klassische GPU über Rasterizer rendert oder die Grafik AI generiert ist, ist glaube ich dann egal wenn das Ergebnis passt. Ich hab´s schon einmal in einem anderen Thread erwähnt, wir werden uns halt künftig von klassischen CPUs und GPUs als auch vom PC Design verabschieden müssen, das Ganze wird wohl auf eine Combo aus CPU/NPU/GPU hinauslaufen, anders wird man die Verlustleistungen im herkömmlichen Design auch nicht mehr kühlen können.
|
Umlüx
Huge Metal Fan
|
WENN das Ergebnis passt! ein von hand gebautes 3d modell und was die KI denkt, wie sowas aussieht, muss halt eher nicht übereinstimmen. siehe das DLSS 5 vergelchsbild von indiana jones. dort erkennst harrison ford auch nicht mehr
|
Jedimaster
Here to stay
|
Ich glaube die Entwicklung die angestrebt wird: Jeder hat nur mehr ein dummes Endgerät zuhause das nur noch nen Stream anzeigen kann, die Rechenarbeit läuft in großen Rechenzentren und ist monatlich zu zahlen. Das wär doch der feuchte Wunschtraum der Betreiber.
|
InfiX
she/her
|
Ob jetzt eine klassische GPU über Rasterizer rendert oder die Grafik AI generiert ist, ist glaube ich dann egal wenn das Ergebnis passt. also mir zumindest ists definitiv nicht egal.
|
mr.nice.
security baseline pusher
|
Es steht ein relativ großer Paradigmenwechsel bei Computergrafik bevor, ähnlich wie bei der Erfindung programmierbarer Shader im Jahre 2001. Jetzt kommt ein weiteres Abstraktionslayer, eine antrainierte AI die per Tensorcores in Echtzeit den programmierbaren Shadercode lesen und verändern kann. Sofern es optional ist und das Endergebnis eine Verbesserung darstellen kann, bin ich nicht dagegen und freue mich über den technologischen Fortschritt.
Bearbeitet von mr.nice. am 18.03.2026, 13:39
|
Jedimaster
Here to stay
|
Optional wär zu erhoffen. Manche Dinge will man Grafikmäßig einfach abschalten können weils eh nahezu jedem am A... gehn. (I look at you, motion blur!) Für AI-Generiertes Rendering würd ich schon Anwendungsgebiete sehen, wie zb. ein Wald der aus 5 verschiedenen Baumvorlangen generiert wird und wo trotzdem dann jeder Baum a bissal anders aussieht womit der Wald realistischer wird. Für Charaktermodelle natürlich quatsch, wenn er aus einem vorher im Charaktereditor fein säuberlich erstelltem Charakter dann ein AI-Mashup-Einheitsbreigsicht macht. Aber mal schaun wie es in der Realität sein wird, das was wir bisher gesehn haben ist ja von der Realität Meilenweit entfernt - oder wieviel von euch haben 2x RTX 5090 im Rechner
|
Umlüx
Huge Metal Fan
|
Manche Dinge will man Grafikmäßig einfach abschalten können weils eh nahezu jedem am A... gehn. TAA winkt übern zaun....
|
InfiX
she/her
|
Es steht ein relativ großer Paradigmenwechsel bei Computergrafik bevor, ähnlich wie bei der Erfindung programmierbarer Shader im Jahre 2001. programmierbare shader gibt es seit den späten 80ern und nvidia hat sie auch nicht erfunden, die firma gab es da nämlich noch garnicht.
|
Starsky
Erdbeeren für ALLE!
|
Es steht ein relativ großer Paradigmenwechsel bei Computergrafik bevor, ähnlich wie bei der Erfindung programmierbarer Shader im Jahre 2001. Jetzt kommt ein weiteres Abstraktionslayer, eine antrainierte AI die per Tensorcores in Echtzeit den programmierbaren Shadercode lesen und verändern kann. Sofern es optional ist und das Endergebnis eine Verbesserung darstellen kann, bin ich nicht dagegen und freue mich über den technologischen Fortschritt. Vergiß´ es mit Argumenten zu diskutieren, es muß so bleiben und Nvidia ist böse...
|
charmin
Vereinsmitgliedstay classy!
|
Vergiß´ es mit Argumenten zu diskutieren, es muß so bleiben und Nvidia ist böse... He hallo, nix gegen unsere Heiligkeit. Alle anderen san doof.
|
mr.nice.
security baseline pusher
|
programmierbare shader gibt es seit den späten 80ern und nvidia hat sie auch nicht erfunden, die firma gab es da nämlich noch garnicht. Das ist richtig, die ersten hardwarebeschleunigten, programmierbaren Pixel- und Vertexshader waren dennoch im NV20 enthalten, der im Jahr 2001 erschien. Erfunden wurde die Bezeichnung "Shader" und deren technische Umsetzung in der RenderMan Interface Specification von Pixar im Jahr 1988, Mehrheitseigentümer war übrigens ein gewisser Steve Jobs damals. RenderMan ist mittlerweile vollständig path-traced und physically based.
|
JDK
Oberwortwart
|
Ihr solltet allesamt eure grünen und roten Schreine mal in den Müll werfen.
Künstliche Einführung neuer Hardware, proprietäre Technologie, Notwendigkeit von 2x High End Karten, AI Slop und Satan mal ins Abseits gestellt: wäre lässig wenn man sich damit als Enduser die Grafik/Art Direction nach belieben tunen kann. Cel-Shading everywhere, Ghibli look etc. Ghost of Tsushima hatte schon so vorgefertigte Art-Styles, dynamisch wäre das schon cool.
Aber damit wär ich dann schon Offtopic, weil Upscaling ist das dann ja keines mehr. xD
|