Schön wäre es, wenns in allen Spielen ohne aufwändige Implementierung funktionieren würde. DLSS2 war für mich vor einem Jahr schon der Hauptgrund für die "3080" M. Das 3er wäre/ist dann DAS Killer Feature schlechthin, abhängig von der Verfügbarkeit in Games.
charmin
Super Moderator
Registered: Dec 2002
Location: aut_sbg
Posts: 13894
Kann man mit "Kühler überdimensioniert" recht kurz beschreiben und dass das Ding schnell wird - nona
+ könnte die "leiseste" High End Karte der letzten Jahre werden ++ vielleicht hat man auch in letzter Minute den Stromverbrauch gedrosselt bzw. behält einen Headroom für die kommende Ti. Das ist wiederum Spekulation
Bei igor ist jede Minute eine Minute zuviel, der gehört in ein Kämmerchen eingesperrt wo er testen kann und seine Reviews schreiben, direkte Kommunikation mit der Außenwelt gehört allerdings unterbunden und sämtliche Texte von ihm sollten von einem halbwegs vernünftigen Menschen überarbeitet werden und dann erst veröffentlicht.
ja und? seine "blumige" ausdrucksweise findet sich 1:1 in seinen geschriebenen Berichten wieder, die englischen Artikel sind dagegen etwas harmloser. Tut sich manchmal wohl schwer den Humor zu übersetzen, manchmal ist es aber nur noch mehr cringe.
seine Zielgruppe ist imho irgendeine interessante Schnittmenge aus Ronald McDonald und trump fanboys.
~ +70-80% @ 4k (Rasterization) und bei RTRT BM`s sind es immerhin ~150% der 3090ti Leistung. Dabei erstaunlich effizient (mit DLSS) - passt scheinbar fast alles, bis auf die Preisgestaltung.
add.: Der RTRT Gewinn ist aber überraschend überschaubar, was von der Konkurrenz erreichbar sein könnte. Spannend !
Über DigitalFoundry bin ich über Tests dazu gestolpert und absolut fasziniert
Hier zwei Beispiele:
Ein AI upscaled 1080p image (via DLSS3) ist nicht nur deutlich schneller gerendert als ein native 4k Bild (so 200-300% schneller), sondern es enthält auch mehr Bilddetails(!) als das original rendered Bild.
Schaut Euch die Details in den Bäumen an und sagt mir, dass Native besser aussieht als upscaled
Keine Artefakte oder sonstige Probleme sind aufgetreteten bei den Tests und NVIDIA arbeitet seit angeblich 5-6 Jahren an der optimierung dieser Technologie.
In einer Zeit wo wir an physische Limits der Transistoren gelangen (Moores law), reisst uns AI/Software-Optimierung sowas von raus hier
mind: blown
...and this is just the beginning
Mit DLSS3 on: ~20% weniger Leistungsaufnahme als Native gerendert, bei deutlich FPS - wow (Quelle: der8auer)
Power target auf 60-70% kostet scheinbar nur minimal FPS, aber dafür deutlich geringere (1/3 weniger) Leistungsaufnahme
Leise ist sie auch, preis ist halt pervers
Also irgendwas haben sie komplett verpeilt bei diesem OC Power target und dem üppigen Kühlerdesign... ist die 4090 darauf ausgelegt in Mining-Rigs Karte an Karte 24/7 zu arbeiten und sie haben den Boom einfach verpasst? poor NVIDIA