Also ich glaube das ich mit der Gigabyte GeForce RTX 2080 Ti Gaming OC einen echten Hitzkopf erwischt. Mehr als 1813 Mhz sind nicht drin, ich habe Heute 2 Stk 120mm Noctua satt den Originalen 3 x 80 mm montiert, die Karte wird noch wärmer.
ich würd mir generell nicht viel an oc bei turing erwarten: a) das ist ein 18x10^6 transistoren chip in einem verbesserten 16nm verfahren b) werden sicher die besten TU102 chips für quadro (t-rex) karten verwendet.
aus meiner eig. erfahrung bei Pascal: 3 von 4 Titan Xp liefen OOT mit 2100MHz, 2 x 1080 Ti, die ich hatte, wollten nicht mal 2000mhz machen, die dritte 1080 ti (eine gigabyte waterforce WB) machte grad mal 2050mhz, sind jetzt nicht die weltkrassen unterschiede. aber ich denk, da wird ziemlich gut selektiert in der fabrik.
yep, gab mal einen bericht darüber, vl find ich den link noch.
"Calling its new 16nm refresh “12nm” allows the company to appear to stay in near-lockstep with the rest of the industry, as opposed to falling behind it (even if that ‘falling behind’ is illusory and based in marketing nomenclature, not fact). Intel’s 10nm node will be smaller than Samsung’s, but Intel generally marches to the beat of its own drum. But we’re seeing a bit of jockeying for position and even different plans around specific nodes today that didn’t used to be the case."
wenn du die tranistordichte pro mm2 silizium von turing vs pascal durchrechnest, kommst auf nahezu denselben wert, und wenn du die oc ergebnisse anschaust, kommt kaum jemand über die ~2100 mhz wall bei turing i.A. zu pascal, wenn du den stromverbrauch vergleichst, hast ein weiteres indiz, dass es "nur" 16nm+++ ist. aber ich kann mich auch täuschen, ist nur mein gefühl, ich bin kein elektronikexperte.
Muss sagen der neue Treiber mit G-Sync auf adaptive sync Monitoren macht sich wirklich gut. Funktioniert einwandfrei obwohl mein Monitor nicht kompatibel ist. Glück gehabt
Denke mal sie haben einfach freesync implementiert, weil mein XF270HU anzeigt im freesync modus zu arbeiten wenn ich G-Sync compatible aktiviere. Wundert mich eigentlich das NV das erst jetzt macht, somit kann NV alle monitore am Markt bedienen mit variabler refreshrate, während AMD nur Free/Adaptiv sync bedienen kann. Ein eindeutiger vorteil für NV.
Sie hatten wohl keine Wahl weil Freesync eindeutig gewonnen hat. Warum sie das jetzt erst machen liegt ganz einfach daran das sie somit mehr Geld verdient haben und die Kunden nicht ewig verarschen können.
Kann mir wer sagen wodurch der massive Performance Gewinn von RTX Karten auf OpenCL zustande kommt?
Im Vergleich zu CUDA kommt bei GPUPI 1B mit OpenCL ein Vorsprung von ca. 0,2-0,3 Sekunden heraus. In Blender bei Barbershop komme ich mit CUDA auf ~7min 20sek und mit OPenCL ~5min 15sek.
RT Cores der GPU werden ja noch nirgends genutzt ausser ev. in VRay? Ist das Performance plus, dann ausschließlich auf die Tensor Cores zurückzuführen?
nvidia hat massiv an asynchronous compute gearbeitet: turing kann sämtliche INT4/INT8/FP16/FP32 aufgaben parallel starten und abarbeiten, ohne das die eine einheit auf die abarbeitung der anderen warten muß, (tensorcores können IMHO nur INT4, ob die dafür aber extra angesprochen werden müssen vom programm, oder ob der scheduler GPU einfach automatisch die tensorcores hinzuschaltet, wenn dementsprechende tasks anstehen, weiß ich nicht), weiters wurde der L2 cache Turing verdoppelt, und auch die L1 Registers wurden glaub ich größer und der zugriff unabhängiger gemacht (alles was ich schrieb ausm gedächtnis von der nv präsentation auf der Gamescon)
edit: RT cores können IMHO nur das BVH für raytracing (also das "reverse" zurückverfolgen der eingehenden lichtstrahlen in das auge des betrachters und dann das abprallen an oberflächen und bouncen bis zur nächsten etc) berechnen, und können sonst für nix anderes benutzt werden.
Oh yeah, we review theMSI GeForce RTX 2080 Ti LIGHTNING Z, the beast has been unleashed with highly clocked factory tweaks and a completely new look. That look entails a gorgeous RGB lighting system... Introduction