URL: https://www.overclockers.at/grafikkarten/nvidia-stellt-neue-geforce-generation-vor-rtx-2080-ti-rtx-2080-rtx-2070_251898/page_22 - zur Vollversion wechseln!
Wäre eigentlich ein ziemlich geiles Feature
Zitat aus einem Post von mr.nice.Nein, das geht soweit ich weiß nur, wenn die Entwickler vorab ein neuronales Netz mit 64 fachem super sampling für das jeweilige Spiel angelernt haben und die Differenzen zum lokal vorhandenen, upgesampelten 4k Bild per GeForce Experience, in Form von Tensor-Daten, in die Tensor-Cores gestreamt wurden. Wie gut bzw. schlecht das dann tatsächlich ausschaut und wie schnell es ist, das gilt es abzuwarten.
Ja recht gscheid. Vor allem werden die Datensätze bei Nvidia Rechencluster erstellt und dann verteilt.
Zitat aus einem Post von rad1oactivefür dummies: die karte wird über zeit schneller, weil sie aus daten anderer karten lernt zu berechnen?
Hier die neue 3DMark Ray Tracing Techdemo auf einer RTX 2080 Ti:
Zitat aus einem Post von rad1oactivefür dummies: die karte wird über zeit schneller, weil sie aus daten anderer karten lernt zu berechnen?
Um DLSS überhaupt im Spiel anbieten zu können, muss der Spieleentwickler per NVIDIA API die entsprechenden Funktionalitäten einbauen:
Also das AI InPainting, Slow-Mo und Up-res, finde ich, sieht interessant und brauchbar aus.
Bei DLSS bin ich skeptisch. Glaub kaum, dass das wirklich genutzt werden wird und spürbar für den User sein wird. Ganz unabhängig davon, wenn ich einen Standard AAA-SP-Titel hernehm, dann ist da nach gut gemeinten 10~15h meist eh schluss und das Spiel durchgespielt. In der kurzen Zeit wird es wahrscheinlich nicht genug Input geben um das DLSS irgendwie zu merken. Fraglich auch ob man allg. den Qualitätsunterschied während dem Spielen merkt oder ob das ohnehin untergeht.
Wie hier schon im Thread korrekt geschrieben wurde, wird DLSS nicht vom Spieler selbst eingelernt, es werden nur die Interferenz-Daten angewandt, um das Supersampling zu bewerkstelligen. Diese Daten müssen über GeForce Experience vorab heruntergeladen werden.
In der Praxis befürchte ich, dass nur die Blockbuster bzw. die Spiele mit NVIDIA-Kooperation DLSS bekommen werden.
Da hab ich mich etwas ungut ausgedrückt. Dass die Daten für DLSS von NV über GeForce Experience zur Verfügung gestellt werden war mir klar. Was ich meinte war, dass es zum Release von Spielen noch keine Daten für DLSS geben wird, da die erst durch die Userbase gesammelt werden müssen - sprich das System muss erst "lernen". Sobald es dann genug Input gibt und DLSS genutzt werden kann, werden die notwendigen Daten an GeForce-Experience übertragen und der User profitiert davon - oder?
Ich denke nicht, dass die Tensor-Daten durch die gamer generiert werden, eher vorab von den Entwicklern während der Alpha- und Beta-Tests auf einem oder mehreren DGX-Clustern von Nvidia.
Wäre unlogisch. Hab auch gelesen dass die Daten bei Nvidia erzeugt werden.
ja aber irgendwie ists ja unlogisch oder?
wenn ich schon so ein system etablier, wär ich doch blöd, nicht die berechnungen, die jede einzelne GPU weltweit macht, auch miteinzubeziehen.
Das wäre eine tolle Zukunftsvision. So wie es derzeit aussieht, wird das Spiel (oder sogar der Source Code?) zu NVIDIA geschickt und mittels DGX SATURNV trainiert. Offizielle Informationen dazu gibt es keine, auch nicht im Dev-Portal von NVIDIA. Das NGX SDK ist auch noch nicht offiziell zum Download verfügbar.Zitat aus einem Post von p1perATDa hab ich mich etwas ungut ausgedrückt. Dass die Daten für DLSS von NV über GeForce Experience zur Verfügung gestellt werden war mir klar. Was ich meinte war, dass es zum Release von Spielen noch keine Daten für DLSS geben wird, da die erst durch die Userbase gesammelt werden müssen - sprich das System muss erst "lernen". Sobald es dann genug Input gibt und DLSS genutzt werden kann, werden die notwendigen Daten an GeForce-Experience übertragen und der User profitiert davon - oder?
overclockers.at v4.thecommunity
© all rights reserved by overclockers.at 2000-2025