URL: https://www.overclockers.at/artificial-intelligence/dlss-fsr-xess-und-andere-erfundene-pixel_264467/page_5 - zur Vollversion wechseln!
Zitat aus einem Post von InfiXnein, die sind nämlich mathematisch rekonstruierbar, da wird nichts "erfunden", das sind "einfache" formeln.
nicht alles was hinkt ist auch ein vergleich.
Zitat aus einem Post von InfiXaus einem frame das noch nicht existiert kannst nix rekonstruieren, dafür muss man kein AI spezialist sein.
für alles andere müsstest mindestens bis zum nächsten frame warten und damit hättest dann eine sehr hohe latenz.
Quelle: https://en.wikipedia.org/wiki/Deep_...mpling#DLSS_3.0ZitatAugments DLSS 2.0 by making use of motion interpolation.
Zitat aus einem Post von InfiXdu könntest auch einfach meine frage beantworten.
wie interpolierst du zwischen 2 bildern, wenn das 2. bild noch nicht existiert?
nein? ok. also ist jedes nachfolgende frame erfunden.
ein plumpes "na du kennst dich halt nicht aus" als antwort wird mich auch nicht von dem standpunkt abbringen
und nachdem es um videospiele geht wo nichts im vornherein klar ist und sich der input oder die reaktion darauf jederzeit ändern kann ist es nochmal schwieriger irgendetwas vorherzusagen.
wenn ich so uninformiert bin dann zeig mir doch welche glaskugel da verwendet wird, mich würden auch die nächsten lottozahlen interessieren.
Zitat aus einem Post von InfiXpredictive heisst auf deutsch aber auch nichts anderes als erfunden
klar man kann richtig liegen... oder auch nicht... dann bekommt man halt schöne artefakte.
e: ^das war auf dune's post bezogen.
@Jedimaster, das schaut aber eher danach aus als wär da irgendein schärfefilter aktiv, das lässt sich vermutlich in den grakasettings ändern?
ich find das ehrlich gesagt zu überschärft ^^
Zitat aus einem Post von InfiXnein?
jeder pixel basiert auf einer berechnung aus grunddaten, 3D modelle, texturdaten etc. das alles wird für jeden pixel aus diesen grunddaten durch shaderformeln etc. berechnet, da wird nichts erfunden.
Zitat aus einem Post von InfiXdanke, aber nein, dafür hab ich weder die zeit noch die nerven um auf alles vollinhaltlich zu antworten und auf manches hab ich evtl. auch gar keine antwort, deswegen quote ich ja auch explizit den teil worauf ich mich beziehe.
ich finds auf jedenfall schade, dass nvidia mir ein weiteres hobby kaputt macht und damit werd ich wohl in meiner überzeugung denen nie mehr auch nur einen cent zu geben bestätigt.
es macht mir nicht nur spiele sondern leider auch die ganze begeisterung über neue hardware und technische weiterentwicklungen madig.
...jaja ich hab mir vor kurzem erst eine nvidia karte gekauft... aber zum glück gebraucht... und weil ich halt unbedingt CUDA gebraucht hab... gleiches thema gleicher grund warum nvidia bei mir unten durch ist.
Sind wir schon beim full blown flamewar, wenn ja, hier ein passendes Meme
Imho sollten wir jetzt aber alle wieder nen Gang runterschalten und abwarten was jetzt wirklich released wird, wie es tatsächlich mit der Raw-Performance aussieht und wie slushy die bis zu 7fach komprimierten Texturen dann wirklich aussehen. Das diesmal viel BS verkauft wurde wird keiner abstreiten können, siehe 5070 hat die Performance der 4090 dank der Power of Ai-Aussage.
Schaun ma mal was wird, auch wenn ich persönlich halt auch bedenken bezüglich Qualität hab, was recht ironisch ist, da ich oft mal ein Game wo's drauf ankommt auf potato² runterdreh um soviele fps wie mögich zu haben.
Lol, das Meme kannst auch mit AMD, RDNA4 und FSR4 bringen.Zitat aus einem Post von JedimasterSind wir schon beim full blown flamewar, wenn ja, hier ein passendes Meme
Imho sollten wir jetzt aber alle wieder nen Gang runterschalten und abwarten was jetzt wirklich released wird, wie es tatsächlich mit der Raw-Performance aussieht und wie slushy die bis zu 7fach komprimierten Texturen dann wirklich aussehen. Das diesmal viel BS verkauft wurde wird keiner abstreiten können, siehe 5070 hat die Performance der 4090 dank der Power of Ai-Aussage.
Schaun ma mal was wird, auch wenn ich persönlich halt auch bedenken bezüglich Qualität hab, was recht ironisch ist, da ich oft mal ein Game wo's drauf ankommt auf potato² runterdreh um soviele fps wie mögich zu haben.
Die 5070 und 4090 Geschichte ist lächerlich.
Aber erinnert euch Mal zurück über all die Jahre. Sämtliche Vorstellungen, egal ob Intel, NV, AMD etc, waren immer so. Einfach Marketing BS Bingo vom feinsten. Wems interessiert wie DLSS überblicksmäßig funktioniert wird auf Wikipedia fündig.
full ack @Starsky
Natürlich ists mit der 9070 von AMD dasselbe, mich zipfts halt an das das da neue "Way to go" werden wird.
Zitat aus einem Post von JedimasterNatürlich ists mit der 9070 von AMD dasselbe, mich zipfts halt an das das da neue "Way to go" werden wird.
die diskussion find ich interessant.
am end vom tag ist nämlich _alles_ mathematik.
also das ein pixel für pixel für pixel "in echt" erzeugt wird.
aber auch das ein "fake" pixel zwischen zwei "echten" pixeln generiert wird.
es ist ja nur eine frage der genauigkeit, also des genauen rechnens, (die immer besser wird) bis man keinen unterschied mehr kennt.
imho natürlich.
aktuell stecken da noch viele kinderkrankheiten drin. das wird aber sicher von gen zu gen besser.
Jein, es halt halt nen verdammten Nachgeschmack von Intel's "Moores Law is dead" von 2014 oder so wo's gmeint haben besser gehts jetzt nimma weil material gibt net mehr her usw... was wirklich los war (kein Zwang was zu entwickeln) ham wir dann 2018 gsehn wie dank Ryzen sämtliche Alarmglocken geleutet ham.
Mag jetzt nicht dieselbe Situation sein, aber wie heute had AMD auch damals angekündigt nimma "High End" liefern zu wollen/können und schön is das ganze 5 Jahre lang stagniert.
Zitat aus einem Post von charminNatürlich wird da was erfunden. Nämlich der Teil, der zwischen den bekannten Datenpunkten liegt.
Dass I-frames mathematisch erzeugt sind, macht es nicht automatisch zu einer exakten Abbildung vom echten Video sondern
es bleibt eine berechnete (neu erzeugte) Version des fehlenden Inhalts. Ergo Fake.
nein, nein und nein.Zitat aus einem Post von charminDoch, die GPU erfindet ständig Details die irgendwie plausibel wirken sollen mithilfe von Shadern. "Echt(er)" berechnen wäre Raytracing im Lichtbereich. Aber auch das ist böse weil das Infix auch blöd findet und wir uns das ständig anhören müssen.
Shader approximieren, inter-, extrapolieren auch sauviel Daten, alles fake also.
Ein paar beispiele: Gouraud Shading, Phong Shading, Bump Mapping (fake high poly textur auf low poly objekt), oder Normal Mapping mit fake Oberflächenstruktur.
Aber auch hier wirst du irgendwo deine persönliche Linie ziehen, was nun fake ist und was nicht, und die Argumente ignorieren.
kannst es ja löschen wenn es dir nicht passtZitat aus einem Post von charminJa, am besten gleich zig mal in Nvidia Thread rumbashen... oh wait.
was mich an FSR, DLSS und framegen stört, ist die tatsache, dass hier mehr und mehr verantwortung den gamedevs zugeschoben wird, diese ganzen features auch gescheit zu implementieren.
außerdem hat optimierung und gute performance heutzutage für viele studios leider nur geringe priorität und upscaler und framegen werden vermehrt dazu missbraucht, um diese missstände auszugleichen.
Zitat aus einem Post von InfiXnein, schau, ich will dir jetzt keine wissenschaftliche abhandlung darüber schreiben wie video-kompression funktioniert, aber du hast mehrere frames über einen längeren zeitraum aus der mathematische grundlagen für die dekompression errechnet werden, auf basis dieser rekonstruiert/errechnet der decoder dann die (zuvor bereits vorhandenen und nicht erfundenen) frames, dabei gehen natürlich informationen verloren -> lossy compression. dazu erfunden wird _nichts_ alles was errechnet wird basiert auf zuvor zugrunde liegenden daten.
Zitat aus einem Post von InfiXdeswegen nimmt man video ja im besten fall direkt in raw auf (bzw. halt eine möglichst minimale kompression mit dem was im speicher der kamera landet), da eine vernünftige kompression ohne die temporale komponente eben nicht funktioniert.
Zitat aus einem Post von InfiXalles andere führt zu pixelbrei, sieht nicht schön aus, aber erfunden wird wenigstens immer noch nichts.
Zitat aus einem Post von InfiXbei einem spiel stehen die zukünftigen frames aber noch nicht fest, die temporale komponente fehlt, und kann nur "predicted" werden, da man nicht weiss was sich in den nächsten frames tun wird, da es sich jederzeit ändern kann, zudem werden nicht bereits vorhandene frames komprimiert sondern neue dazu erzeugt, aus daten die es für diese frames nie gegeben hat (ausnahme siehe unten), wenn ich jetzt also zumindest das eine nächste frame dazunehme...
Zitat aus einem Post von InfiX(latenz ist additiv, die 16ms für ein frame bei 60fps kommen zu allem anderen was im computer latenz erzeugt dazu)
Zitat aus einem Post von InfiX...weiss ich trotzdem nicht was zwischen diesen 2 frames tatsächlich passiert ist, ich kann entweder eine simple mathematische interpolation machen (simple motion smoothing algorithmen *würg*), oder eben durch prediction auf basis von AI modellen mir ausdenken was da gewesen sein könnte, und jetzt hab ich etwas erfunden, das vorher nicht da war = fake, mag kein schönes wort sein, ist aber so.
Zitat aus einem Post von InfiXnein, nein und nein.
die GPU erfindet keine details, die shader sind vordefinierte formeln die aus den vorhandenen daten die darstellung eines pixels am monitor bestimmen, da findet keine "prediction" durch AI oder ähnliches statt.
Zitat aus einem Post von InfiXdiese daten sind vorhanden, und bleiben immer die gleichen, es werden keine zusätzlichen grundlagen erzeugt die es vorher nicht gab.
Zitat aus einem Post von InfiXkannst es ja löschen wenn es dir nicht passt
aber ja solange nvidia aktiv mein hobby zerstört werde ich auf ihnen herumbashen.
genauso wie auf intel oder auch AMD wenn sie wieder mal was verhauen, *looking at you VCN3*
nachdem nvidia derzeit den markt vorgibt und AMD z.b. mit FSR darauf lediglich reagiert (gezwungenermaßen), kann ich schlecht FSR bashen, die ursache ist und bleibt DLSS, aber im endeffekt ists natürlich das gleiche (bezogen auf die AI techniken)
Kann's sein, dass du alles ein bisschen persönlicher ("früher war alles leiwand") nimmst, als es letztlich ist? Es geht immerhin um Grafikkarten.
Ich find's schade dass du im AI Sub gefühlt jedes zweite Thema mit Befindlichkeiten betonierst. Das ist sonst eher ein Verhalten was man im WEP beobachten darf, und es passiert mir natürlich auch, aber es geht im Endeffekt immer noch nur um GPUs. Und früher war auch nicht alles so super, wie es heute vielleicht scheint. Das bereichert die Diskussion halt nicht wirklich und dein Standpunkt ist weitgehend bekannt.
TOM, Starsky et al haben's imho gut auf den Punkt gebracht. Die Technik ist gekommen um zu bleiben. Take it or leave it.
schau charmin, ich habs mit einem langen argumentativen post probiert, wenn jetzt wieder nur polemik und aktives nicht verstehen wollen zurück kommt bringt die diskussion wirklich nix, ist mir echt schade um die zeit.
nein.Zitat aus einem Post von DuneTake it or leave it.
Zitatforum
/ˈfɔːrəm/
noun
1.
a meeting or medium where ideas and views on a particular issue can be exchanged.
"we hope these pages act as a forum for debate"
Zitat aus einem Post von InfiXschau charmin, ich habs mit einem langen argumentativen post probiert, wenn jetzt wieder nur polemik und aktives nicht verstehen wollen zurück kommt bringt die diskussion wirklich nix, ist mir echt schade um die zeit.
Zitat aus einem Post von InfiXzum glück sind wir hier in einem...
Zitat aus einem Post von charminHilft halt nix, wenn die Argumentation falsch ist.
Glaub mir, kann ich vollen Herzens zurückgeben.
overclockers.at v4.thecommunity
© all rights reserved by overclockers.at 2000-2025