so, bin grad wieder ein bisserl gechillter und mir ist fad...
was sind bitte "mathematische grundlagen" ?
zahlen, variablen, daten.
doch tut es, nennt sich jpeg.
davon war nie die rede, es ging um den vergleich zwischen kompression von video (bewegtbildern) bzw. dem decoding davon verglichen mit DLSS angewandt auf bewegtbilder eines videospiels.
warum du jetzt plötzlich mit jpeg daherkommst keine ahnung.
aber auch bei jpeg wird beim decoding nichts dazuerfunden sondern lediglich auf basis der vorhandenen daten das bild zurückgerechnet.
doch tut es, du näherst die pixelwerte mit summen aus irgendwelchen sin und cos schwingungen an und das wird dann auch noch quantisiert.
Das Ergebnis ist eben nicht identisch mit dem Ausgangsmaterial.
nein, das ist schlichtweg falsch, die pixelwerte werden auf basis vorhandener daten errechnet, das ergebnis ist nicht identisch mit dem ausgangsmaterial da bei der kompression informationen verloren gegangen sind, hatte ich bereits erwähnt -> lossy compression.
diese informationen werden nicht wieder dazuerfunden sondern fehlen schlichtweg, alles andere würde unter "AI reconstruction" o.ä. laufen.
Nein, die temporale Komponente fehlt nicht, du hast n frames in die Vergangenheit.
i-tüpferl reiterei, du weisst genau wie ich wie es gemeint war
die temporale komponente besteht nur aus tatsächlich gerenderten frames (bzw. z.B. auch den bewegungsvektoren, siehe meine ausnahme) alles dazwischen war nie als ausgangslage zur berechnung vorhanden.
Nein die kommen nicht dazu, weil die Messung genau so funktioniert. Eingabe bis Ausgabe am Monitor und das beinhaltet den Frameaufbau und ein Computer kann dinge sogar parallel verarbeiten 
vielleicht glaubst du ja einem video mit technischem know-how direkt von nvidia?
https://www.youtube.com/watch?v=Fj-wZ_KGcsgdiese latenz komponenten sind immer vorhanden, wenn du jetzt das rendering um ein frame verzögerst kommt das kumulativ dazu.
wenn du dazu eine gegenteilige info findest immer her damit.
Interpolation sind auch erfundene Daten. Wennst texturen bilinear interpolierst, dann sind das daten die erfunden sind. Die Modelle sind bei DLSS nur komplexer.
nein, sind sie nicht, bilineare interpolation (die übrigens eher meh ist) ist eine simple form die aus bereits vorhandenen informationen die neue information berechnet, diese basiert direkt auf diesen informationen ohne jeglicher externen veränderung.
https://en.wikipedia.org/wiki/Bilinear_interpolationes wird nichts erfunden, es wird lediglich wie der name schon sagt... interpoliert.
Die "AI" ist einfach ein neuronales netz, was eine mathematisch Funktion lernt, und die wird angewandt. Kann ma bitte aufhören als wäre da eine echte künstliche Intelligenz dahinter und würde das träumen oder so.
Es ist eine Datentransformation basierend auf gelernten Mustern und nicht händisch hingeschrieben wie bei irgend einem Shader.
die "modelle" sind genau der springende punkt, denn diese daten haben mit den eigentlichen renderdaten nichts zu tun, hier werden plötzlich externe daten herangezugen um die AI zu "trainieren" selbstständig nicht vorhandene informationen zu erzeugen, natürlich fließen hier auch die ursprungsdaten mit ein in die berechnung, aber das resultierende ergebnis basiert nicht mehr _nur_ auf den zugrundeliegenden renderdaten -> es wird etwas neues erzeugt das mit den ursprungsdaten nicht zwingend direkt zusammenhängt -> erfunden -> fake.
da kannst dich jetzt 27 stunden an der semantik aufhängen von mir aus...
Ah schau! Da wird also die Linie gezogen von dir. Shader Algorithmen mit inter- und extrapolierten daten ist OK. Extrapolierte Bilder bei DLSS nicht OK. Check.
nein, weil es schlichtweg was anderes ist, auch wenn du das zwanghaft nicht verstehen willst.
ein shader errechnet das bild nachvollziehbar aus den original zugrundeliegenden daten.
Man kann sich echt alles richten wie man mag und sich vieles einreden scheinbar.
Aber ums nochmal zusammenzufassen: Nvidia böse, weils dein Hobby zerstört. Check.
AMD nicht böse, weil die ja nur auf Nvidia reagieren müssen, die Armen! (komisch irgendwie, wollen die etwa auch Infix' Hobby zerstören?) Check.
Intel hat dann noch XeSS, kruzefix, jetz wollen die auch unser Hobby zerstören.
auf die sinnlose polemik brauch ich eh nicht eingehen, aber bitte erspar dir unwahre behauptungen, ich hab sogar explizit auch auf AMD hingehaut, nein AMD ist nicht "nicht böse" ist aber derzeit zumindest in der GPU welt rein ethisch gesehen das geringere übel für mich, das kann aber jeder für sich selbst entscheiden.
und ja nvidia ist in meinen augen vorrangig "schuld" an den "AI" komponenten von DLSS, FSR, XeSS "ob sie wollen oder nicht" wenn du es so willst

Ich möchte einfach nur normal diskutieren können
dann spar dir evtl so ansagen wie "reingrätscher" oder "du hast keine ahnung" (im übertragenen sinne), das wäre einer normalen diskussion dienlich.
und nein, nicht jeder einzelne post muss einer diskussion würdig sein.