Das ist mir in den Teaser-Videos und in der Präsentation auch schon teilweise aufgefallen. Man stelle sich nun vor wie flott Raytracing auf einer RTX 2070 läuft ...
jep, RTX in 4K sub-30fps in höchster qualität auf einer 2080Ti my guess....btw der TU102 hat eine die-fläche von 770mm^2 xD 13phasen, evga XC ultra kommt mit TDP zwischen 260-285W, bin auf overclocked powerconsumption gespannt....
Die Präsentation sah generell sehr low-res aus und Auflösung wird bei RT vermutlich extrem viel Performance kosten (weil ja für jeden Pixel berechnet werden muss wie er beleuchtet ist). Aber notwendige Performance war ja generell immer schon das Problem von RT.
Ich würde mir keine Wunder erwarten, aber es geht mal in die richtige Richtung - ich freue mich jetzt schon auf die kommenden RT Spiele.
lel, pcgameshardware.de zeigt grad: "Wir haben Shadow of the Tomb Raider mit Raytracing auf einer Geforce RTX 2080 Ti ausprobiert und zeigen im Video die Bilder pro Sekunde bei Full HD und vermutlich in höchster Detailstufe. " im video sieht man dann zwischen 30 - 70 fps @FullHD, wobei IMHO bei Kameraschwenks ein deutliches Ruckeln wahrzunehmen ist für mich ...
artikel und footage in question:
Geforce RTX 2080 Ti: Raytracing-Performance in Shadow of the Tomb Raider (Off-screen-Gameplay)
Wir haben Shadow of the Tomb Raider mit Raytracing auf einer Geforce RTX 2080 Ti ausprobiert und zeigen im Video die Bilder pro Sekunde bei Full HD und vermutlich in höchster Detailstufe. Wichtig: Es handelt sich hier keinesfalls um eine finale Version von Shadow of the Tomb Raider, die Entwickler haben bereits bestätigt, dass das Spiel zum Release noch ohne Raytracing-Funktionen erscheint. Die Raytraced-Schatten werden per Patch nach Release nachgereicht.
oder 4 xD ich glaub, nvidia wird mGPU wieder forcieren. das wär ja wiedermal eine geile Titan Zt, 2x quadro 8000 gpus mit 2x24GB DDR6 und 2x Titanen dann in nvlink sli
Deswegen wurden ja auch keine schnellen Szenen gezeigt. Da wärs ruckeln direkt aufgefallen
Die Benches werden echt die interessantesten seit langem. Wenn weder die Mehrperformance zur Vorgängergeneration unter normalen Umständen passt oder RT Performance im Alltag fürn Popsch ist (FHD@30fps lol)... ja dann bin ich gespannt wie der Absatz ist.
UnleashThebeast
Mr. Midlife-Crisis
Registered: Dec 2005
Location: 127.0.0.1
Posts: 3547
ja, ich versteh nicht, wieso nv nicht das RTX als addon karte bringt, wg. 21 spiele für dieses und nächstes Jahr, wovon mich pers. 75% nicht interessieren, hab ich dann eine GPU im gehäuse, deren ~25-50% chipfläche im idle modus pennt und nur die kreisbewegung physikalisch korrekt meines drehstromzähler beschleunigen xD
Kein Mensch will Addon-Karten, wollte man schon bei PhysX nicht und dafür extra Fertigungsanlagen errichten etc. würde sicher ein gigantisches Minus einfahren.
Klar wird sich ein Teil der GPU dieser Generation von Grafikkarten vermutlich fadisieren weil es nichts zu tun gibt die meiste Zeit. Ist und war aber immer schon so (siehe DX9, 10, 11, 12, ...) ... steht jedem frei zu warten bis die nächste Generation da ist um dann zuzuschlagen wenn auch Content da ist.
es wird einfach nicht wirtschaftlich sein, das hab ich vorher ja schon mal angemerkt, wir bekommen ein "abfallprodukt" das wir gamer in vielen teilen nicht brauchen zu eine n hohenpreis
@maxmax: Da bin ich dabei aber anscheinend könnte die zusätzliche Leistung auch für Kantenglättung oder ähnliches genutzt werden. Ist wohl nicht ganz unnötig
nur die tensorcores "helfen" mit DSAA, bzw. DNN Processing (=AI guessing "pixels not finished yet") RTcores langweilen sich aber worin turing ganz stark sein dürfte: DX12 asynchronous computing. weil was da alles parallel in der turing gpu berechnet werden kann, ohne anscheinend sich gegenseitig zu "behindern", ist schon ein gewaltige entwicklungsarbeit IMHO....