URL: https://www.overclockers.at/artificial-intelligence/dlss-fsr-xess-und-andere-erfundene-pixel_264467/page_6 - zur Vollversion wechseln!
Passt, wo wir das geklärt haben können wir wieder OT gehen:
Ich bin gerade auf der Suche nach DLSS Ressourcen:
Hier gibts eine Präsentation zu DLSS2.0, ich muss aber noch das Video suchen. Es ist nicht soviel text drinnen leider.
http://behindthepixels.io/assets/files/DLSS2.0.pdf
Hier is das white paper zu DLSS 3:
https://images.nvidia.com/aem-dam/S...gpu-science.pdf
Ah, steht schon mehr drin, danke.
Ich führs mir mal zu Gemüte.
so, bin grad wieder ein bisserl gechillter und mir ist fad...
zahlen, variablen, daten.Zitat aus einem Post von charminwas sind bitte "mathematische grundlagen" ?
davon war nie die rede, es ging um den vergleich zwischen kompression von video (bewegtbildern) bzw. dem decoding davon verglichen mit DLSS angewandt auf bewegtbilder eines videospiels.Zitatdoch tut es, nennt sich jpeg.
nein, das ist schlichtweg falsch, die pixelwerte werden auf basis vorhandener daten errechnet, das ergebnis ist nicht identisch mit dem ausgangsmaterial da bei der kompression informationen verloren gegangen sind, hatte ich bereits erwähnt -> lossy compression.Zitatdoch tut es, du näherst die pixelwerte mit summen aus irgendwelchen sin und cos schwingungen an und das wird dann auch noch quantisiert.
Das Ergebnis ist eben nicht identisch mit dem Ausgangsmaterial.
i-tüpferl reiterei, du weisst genau wie ich wie es gemeint warZitatNein, die temporale Komponente fehlt nicht, du hast n frames in die Vergangenheit.
vielleicht glaubst du ja einem video mit technischem know-how direkt von nvidia?ZitatNein die kommen nicht dazu, weil die Messung genau so funktioniert. Eingabe bis Ausgabe am Monitor und das beinhaltet den Frameaufbau und ein Computer kann dinge sogar parallel verarbeiten
nein, sind sie nicht, bilineare interpolation (die übrigens eher meh ist) ist eine simple form die aus bereits vorhandenen informationen die neue information berechnet, diese basiert direkt auf diesen informationen ohne jeglicher externen veränderung.ZitatInterpolation sind auch erfundene Daten. Wennst texturen bilinear interpolierst, dann sind das daten die erfunden sind. Die Modelle sind bei DLSS nur komplexer.
ZitatDie "AI" ist einfach ein neuronales netz, was eine mathematisch Funktion lernt, und die wird angewandt. Kann ma bitte aufhören als wäre da eine echte künstliche Intelligenz dahinter und würde das träumen oder so.
Es ist eine Datentransformation basierend auf gelernten Mustern und nicht händisch hingeschrieben wie bei irgend einem Shader.
nein, weil es schlichtweg was anderes ist, auch wenn du das zwanghaft nicht verstehen willst.ZitatAh schau! Da wird also die Linie gezogen von dir. Shader Algorithmen mit inter- und extrapolierten daten ist OK. Extrapolierte Bilder bei DLSS nicht OK. Check.
auf die sinnlose polemik brauch ich eh nicht eingehen, aber bitte erspar dir unwahre behauptungen, ich hab sogar explizit auch auf AMD hingehaut, nein AMD ist nicht "nicht böse" ist aber derzeit zumindest in der GPU welt rein ethisch gesehen das geringere übel für mich, das kann aber jeder für sich selbst entscheiden.ZitatMan kann sich echt alles richten wie man mag und sich vieles einreden scheinbar.
Aber ums nochmal zusammenzufassen: Nvidia böse, weils dein Hobby zerstört. Check.
AMD nicht böse, weil die ja nur auf Nvidia reagieren müssen, die Armen! (komisch irgendwie, wollen die etwa auch Infix' Hobby zerstören?) Check.
Intel hat dann noch XeSS, kruzefix, jetz wollen die auch unser Hobby zerstören.
dann spar dir evtl so ansagen wie "reingrätscher" oder "du hast keine ahnung" (im übertragenen sinne), das wäre einer normalen diskussion dienlich.ZitatIch möchte einfach nur normal diskutieren können
@Infix, Ethik in den Kontext mit börsennotierten Unternehmen zu setzen ist irgendwie befremdlich.
In deinem Post ist einfach soviel falsch. Sorry, ich spiel das Spiel nicht mehr mit. Wir habens verstanden. Nvidia zerstört dein Hobby und wir müssens in jedem AI und Nvidia Thread ausbaden.
Ich poste ab jetzt nur noch on topic hier herinnen und Spar mir die sinnlos verplemperte Lebenszeit.
Zitat aus einem Post von Starsky@Infix, Ethik in den Kontext mit börsennotierten Unternehmen zu setzen ist irgendwie befremdlich.
hey, that's my line!Zitat aus einem Post von charminIch poste ab jetzt nur noch on topic hier herinnen und Spar mir die sinnlos verplemperte Lebenszeit.
https://www.computerbase.de/news/pr...-pc-chip.90945/
Hat jetzt zwar nicht explizit mit Fake FPS und AI zu tun, aber wenn NV und MediaTek gemeinsame Sache für Desktop und Laptop machen, ist das schon ein Indiz wohin die Reise künftig geht. MediaTek ist mittlerweile gegenüber Qualcomm richtig konkurrenzfähig geworden und könnte da wirklich mit NV ein Monster erschaffen, wo auch AMD mit CPUs als auch Apple mit deren Chips das Lachen vergehen könnte.
Ich kann das grundsätzliche Unbehagen von InfiX DLSS gegenüber verstehen und mir ging es auch so. Gerade (multi) frame generation hat in seiner aktuellen Ausprägung nachweislich negative Auswirkungen auf die Eingabelatenz, selbst wenn diese erstaunlich gering sind, ich will genauso wenig, dass sich Kameraschwenks in Spielen schwammiger anfühlen als früher. Ich bin überzeugt DLSS5 wird noch besser werden und wir werden vermutlich an den Punkt kommen, wo der zusätzliche input lag im Mikrosekunden Bereich liegt und menschlich nicht mehr wahrnehmbar ist.
Die Tatsache, dass diese Technologie DLSS an einen einzigen Hersteller gebunden ist, ist meiner Meinung nach der größte Kritikpunkt. Hier ist AMDs und Intels Ansatz, deren Technologien FSR und XeSS offen und herstellerunabhängig gestaltet sind, einfach besser. Es bleibt zu hoffen, dass Nvidia sich in diesem Bereich zukünftig großzügiger zeigen wird. Selbst wenn deren Algorithmen auf anderer Hardware aufgrund fehlender Features nicht lauffähig sind.
Meine Einwände sind folgende, ich finde die Wortwahl "Fake FPS" falsch, richtiger wäre die Bezeichnung "nicht nachvollziehbar generierte frames", denn dass ist es was gut trainierte neuronale Netze machen. Man füttert sie mit Input und sie liefern sehr schnell, sehr hochwertigen Output, der mit traditionellen Methoden nicht erreichbar wäre, allerdings lässt sich im Nachhinein nicht mehr exakt sagen, wie dieses Ergebnis zu Stande gekommen ist. Dass diese Tatsache Unbehagen bereitet, finde ich, ist nur allzu menschlich. Aber das ist der große Paradigmenwechsel in dem wir uns befinden.
Selbst auf Chipebene wird mit Synopsys EDA Tools seit 2021 künstliche Intelligenz eingesetzt, man kann also davon ausgehen, dass Teile von Blackwell tatsächlich bereits derart optimiert wurden, wie es rein mit menschlicher Intelligenz und Ingenieurskunst nicht mehr möglich gewesen wäre und wir das resultierende Ergebnis im Detail nachträglich auch gar nicht mehr nachvollziehen können. Das ist anfänglich schwer auszuhalten, aber das ist mittlerweile die Realität in der wir leben.
Mein Ansatz ist daher ein pragmatischer, wenn für mich selbst das Ergebnis besser ist als es mit traditionellen Methoden möglich wäre, dann akzeptiere ich das und nehme die Verbesserungen gerne mit, auch wenn sich dadurch eine gewisse Unschärfe im Entstehungsprozess ergibt.
AMD hat mit dem offenen FSR bislang sicher gut beigetragen, aber mit FSR4 ist ja explizit RDNA4 erforderlich und damit ist es mit dem offenen Standard wohl vorbei.
Ich gehe davon aus, daß die klassische GPU künftig noch weit mehr NPU Anteile hat und das klassische Rendern wohl so nicht mehr fokussiert wird.
Im Endeffekt sind ja auch gerenderte Bilder nicht wirklich da und ob jetzt die GPU oder NPU bewegte Bilder erzeugt ist sekundär wenn das Resultat mit der Latenz passt.
Naja du musst ja immer noch die Originalbilder berechnen. Ohne die geht auch kein FSR/DLSS.
Aber ja, ich denke auch dass das noch mehr kommt und hoffentlich mit besserer Bildqualität.
ich hab mit FSR nur auf der steam deck erfahrung, und da hat's halt das problem, dass aus matsch marginal besserer matsch wird. sobald wir von auflösungen reden die groß genug sind ist auch das generierte besser, also dort lass ich mir diese techniken einreden.
bei frame generation wirds glaub ich ähnlich sein. von 30fps auf 200fps kann nur ein laggy fiebertraum sein. wenn wir aber von 60fps auf 120fps reden schauts ev schon anders aus.
auf jeden fall eine interessante entwicklung. gerade im handheld bereich dann, wenn die ausgangsbasis mal besser wird.
Was mit dem weitertreiben dieser Technologie auch ein Thema wird sind Beweisvideos für Cheaten - und zwar auf Lanpartys oder Live-Esports-Turnieren. Da wird halt auch der Livestream bzw. jeder Monitor mit seinen angezeigten Frames übertragen, was macht jetzt eine Jury bei einem Turnier oder Event, wenn zwei Monitore die selbe Situation unterschiedlich zeigen weil verschieden AI-Generiert ?
Sprich auf dem einen Monitor ist eindeutig zu sehen, das der Schuss ein einwandfreier Headshot war, beim anderen sieht man das der Spieler sich bereits geduckt hat. Da wirds möglicherweise noch einiges an Diskussionen geben. (Jo das Beispiel is jetzt net sondernlich überlegt und an den Haaren herbeigezogen, aber ich glaub jedem ist klar in welche Richtung das ganze geht)
Latenztechnisch würden wir damit wieder in die gute alte Modemzeit zurückfallen, wo die latenzhohen Spieler nicht immer nur im Nachteil waren, sondern damit auch schwerer zu treffen waren, da sie sich für den Server wo anders befunden haben als die Client-PC's angezeigt haben.
Und ich freu mich schon wieder auf den Lanpartys auf Meldungen wie "so ein ******* Netzwerk, ich hab den klar getroffen, aber der Schuss wurde net registriert"
Wenn die NPU entsprechend potenter ist, wird wohl auch die Latenz geringer werden.
Und davon gehe ich schon aus.
@b_d: Welche FSR Versionen werden am Steamdeck genutzt, mir fehlt hier die Erfahrung? Aber wenn es nur Upscaling ist, dann ist es leider klar.
Zitat aus einem Post von sk/\rdie diskussion find ich interessant.
am end vom tag ist nämlich _alles_ mathematik.
also das ein pixel für pixel für pixel "in echt" erzeugt wird.
aber auch das ein "fake" pixel zwischen zwei "echten" pixeln generiert wird.
es ist ja nur eine frage der genauigkeit, also des genauen rechnens, (die immer besser wird) bis man keinen unterschied mehr kennt.
imho natürlich.
aktuell stecken da noch viele kinderkrankheiten drin. das wird aber sicher von gen zu gen besser.
overclockers.at v4.thecommunity
© all rights reserved by overclockers.at 2000-2025