NVIDIA stellt neue GeForce-Generation vor: RTX 2080 Ti, RTX 2080 und RTX 2070 - Seite 22

Seite 22 von 60 - Forum: Grafikkarten auf overclockers.at

URL: https://www.overclockers.at/grafikkarten/nvidia-stellt-neue-geforce-generation-vor-rtx-2080-ti-rtx-2080-rtx-2070_251898/page_22 - zur Vollversion wechseln!


charmin schrieb am 18.09.2018 um 20:36


Earthshaker schrieb am 18.09.2018 um 20:40

Wäre eigentlich ein ziemlich geiles Feature :)


rad1oactive schrieb am 18.09.2018 um 21:16

Zitat aus einem Post von mr.nice.
Nein, das geht soweit ich weiß nur, wenn die Entwickler vorab ein neuronales Netz mit 64 fachem super sampling für das jeweilige Spiel angelernt haben und die Differenzen zum lokal vorhandenen, upgesampelten 4k Bild per GeForce Experience, in Form von Tensor-Daten, in die Tensor-Cores gestreamt wurden. Wie gut bzw. schlecht das dann tatsächlich ausschaut und wie schnell es ist, das gilt es abzuwarten.

für dummies: die karte wird über zeit schneller, weil sie aus daten anderer karten lernt zu berechnen?


charmin schrieb am 18.09.2018 um 21:16

Ja recht gscheid. Vor allem werden die Datensätze bei Nvidia Rechencluster erstellt und dann verteilt.


Darksteel schrieb am 19.09.2018 um 09:02

Zitat aus einem Post von rad1oactive
für dummies: die karte wird über zeit schneller, weil sie aus daten anderer karten lernt zu berechnen?

Whoah. :eek:
Wenn dem so ist, find´ich das ein geiles Feature ...


mr.nice. schrieb am 19.09.2018 um 09:06

Hier die neue 3DMark Ray Tracing Techdemo auf einer RTX 2080 Ti:


charmin schrieb am 19.09.2018 um 09:13

Zitat aus einem Post von rad1oactive
für dummies: die karte wird über zeit schneller, weil sie aus daten anderer karten lernt zu berechnen?

Hmm nein. Sie wendet einfach nur den Nvidia Datensatz an. Da wurde halt ein neuronales Netz trainiert um die Bildqualität zu verbessern. Das anlernen ist Recht aufwendig, daher auch in Nvidias Rechenzentren. Der Datensatz wird dann von der Karte daheim "angewendet".

Kenn mich mit DNN auch noch nicht so gut aus. Also bitte schreiben wenn ich das falsch interpretiere.


mat schrieb am 19.09.2018 um 11:33

Um DLSS überhaupt im Spiel anbieten zu können, muss der Spieleentwickler per NVIDIA API die entsprechenden Funktionalitäten einbauen:


Welche Möglichkeiten es für kleine Entwickler geben wird, um für ihr Game DLSS zu trainieren, habe ich noch nicht gelesen.


p1perAT schrieb am 19.09.2018 um 11:44

Also das AI InPainting, Slow-Mo und Up-res, finde ich, sieht interessant und brauchbar aus.

Bei DLSS bin ich skeptisch. Glaub kaum, dass das wirklich genutzt werden wird und spürbar für den User sein wird. Ganz unabhängig davon, wenn ich einen Standard AAA-SP-Titel hernehm, dann ist da nach gut gemeinten 10~15h meist eh schluss und das Spiel durchgespielt. In der kurzen Zeit wird es wahrscheinlich nicht genug Input geben um das DLSS irgendwie zu merken. Fraglich auch ob man allg. den Qualitätsunterschied während dem Spielen merkt oder ob das ohnehin untergeht.


mat schrieb am 19.09.2018 um 12:06

Wie hier schon im Thread korrekt geschrieben wurde, wird DLSS nicht vom Spieler selbst eingelernt, es werden nur die Interferenz-Daten angewandt, um das Supersampling zu bewerkstelligen. Diese Daten müssen über GeForce Experience vorab heruntergeladen werden.

In der Praxis befürchte ich, dass nur die Blockbuster bzw. die Spiele mit NVIDIA-Kooperation DLSS bekommen werden.


p1perAT schrieb am 19.09.2018 um 12:18

Da hab ich mich etwas ungut ausgedrückt. Dass die Daten für DLSS von NV über GeForce Experience zur Verfügung gestellt werden war mir klar. :) Was ich meinte war, dass es zum Release von Spielen noch keine Daten für DLSS geben wird, da die erst durch die Userbase gesammelt werden müssen - sprich das System muss erst "lernen". Sobald es dann genug Input gibt und DLSS genutzt werden kann, werden die notwendigen Daten an GeForce-Experience übertragen und der User profitiert davon - oder?


mr.nice. schrieb am 19.09.2018 um 12:45

Ich denke nicht, dass die Tensor-Daten durch die gamer generiert werden, eher vorab von den Entwicklern während der Alpha- und Beta-Tests auf einem oder mehreren DGX-Clustern von Nvidia.


charmin schrieb am 19.09.2018 um 12:48

Wäre unlogisch. Hab auch gelesen dass die Daten bei Nvidia erzeugt werden.


rad1oactive schrieb am 19.09.2018 um 12:58

ja aber irgendwie ists ja unlogisch oder?
wenn ich schon so ein system etablier, wär ich doch blöd, nicht die berechnungen, die jede einzelne GPU weltweit macht, auch miteinzubeziehen.


mat schrieb am 19.09.2018 um 13:16

Zitat aus einem Post von p1perAT
Da hab ich mich etwas ungut ausgedrückt. Dass die Daten für DLSS von NV über GeForce Experience zur Verfügung gestellt werden war mir klar. Was ich meinte war, dass es zum Release von Spielen noch keine Daten für DLSS geben wird, da die erst durch die Userbase gesammelt werden müssen - sprich das System muss erst "lernen". Sobald es dann genug Input gibt und DLSS genutzt werden kann, werden die notwendigen Daten an GeForce-Experience übertragen und der User profitiert davon - oder?
Das wäre eine tolle Zukunftsvision. So wie es derzeit aussieht, wird das Spiel (oder sogar der Source Code?) zu NVIDIA geschickt und mittels DGX SATURNV trainiert. Offizielle Informationen dazu gibt es keine, auch nicht im Dev-Portal von NVIDIA. Das NGX SDK ist auch noch nicht offiziell zum Download verfügbar.




overclockers.at v4.thecommunity
© all rights reserved by overclockers.at 2000-2025