"Christmas - the time to fix the computers of your loved ones" « Lord Wyrm

NVIDIA stellt neue GeForce-Generation vor: RTX 2080 Ti, RTX 2080 und RTX 2070

mat 20.08.2018 - 18:43 228002 890
Posts

Slavi

Addicted
Avatar
Registered: Dec 2002
Location: Wien
Posts: 546
Also ich glaube das ich mit der Gigabyte GeForce RTX 2080 Ti Gaming OC einen echten Hitzkopf erwischt.
Mehr als 1813 Mhz sind nicht drin, ich habe Heute 2 Stk 120mm Noctua satt den Originalen 3 x 80 mm montiert, die Karte wird noch wärmer.

MaxMax

Here to stay
Registered: Jul 2001
Location: Wien
Posts: 1913
ich würd mir generell nicht viel an oc bei turing erwarten: a) das ist ein 18x10^6 transistoren chip in einem verbesserten 16nm verfahren b) werden sicher die besten TU102 chips für quadro (t-rex) karten verwendet.

aus meiner eig. erfahrung bei Pascal: 3 von 4 Titan Xp liefen OOT mit 2100MHz, 2 x 1080 Ti, die ich hatte, wollten nicht mal 2000mhz machen, die dritte 1080 ti (eine gigabyte waterforce WB) machte grad mal 2050mhz, sind jetzt nicht die weltkrassen unterschiede. aber ich denk, da wird ziemlich gut selektiert in der fabrik.

xtrm

social assassin
Avatar
Registered: Jul 2002
Location:
Posts: 11893
12nm ist ein verbessertes 16nm Verfahren? :D

MaxMax

Here to stay
Registered: Jul 2001
Location: Wien
Posts: 1913
yep, gab mal einen bericht darüber, vl find ich den link noch.

"Calling its new 16nm refresh “12nm” allows the company to appear to stay in near-lockstep with the rest of the industry, as opposed to falling behind it (even if that ‘falling behind’ is illusory and based in marketing nomenclature, not fact). Intel’s 10nm node will be smaller than Samsung’s, but Intel generally marches to the beat of its own drum. But we’re seeing a bit of jockeying for position and even different plans around specific nodes today that didn’t used to be the case."

https://www.extremetech.com/computi...ew-12nm-process


dasselbe gilt auch für AMDs 7nm prozeß, welcher in echt nicht viel besser als intels 10nm ist/sein wird...
Bearbeitet von MaxMax am 16.01.2019, 21:25

xtrm

social assassin
Avatar
Registered: Jul 2002
Location:
Posts: 11893
Cool, gut zu wissen. Sehe das aber ehrlich gesagt nicht ein, entweder etwas ist 12nm oder nicht :mad:.

MaxMax

Here to stay
Registered: Jul 2001
Location: Wien
Posts: 1913
wenn du die tranistordichte pro mm2 silizium von turing vs pascal durchrechnest, kommst auf nahezu denselben wert, und wenn du die oc ergebnisse anschaust, kommt kaum jemand über die ~2100 mhz wall bei turing i.A. zu pascal, wenn du den stromverbrauch vergleichst, hast ein weiteres indiz, dass es "nur" 16nm+++ ist. aber ich kann mich auch täuschen, ist nur mein gefühl, ich bin kein elektronikexperte.

D-Man

knows about the word
Avatar
Registered: Feb 2003
Location: nrw.de
Posts: 5792

Hornet331

See you Space Cowboy
Avatar
Registered: Sep 2003
Location: Austria/Korneubu..
Posts: 7674
Zitat aus einem Post von The Source
Muss sagen der neue Treiber mit G-Sync auf adaptive sync Monitoren macht sich wirklich gut.
Funktioniert einwandfrei obwohl mein Monitor nicht kompatibel ist. Glück gehabt :)

Denke mal sie haben einfach freesync implementiert, weil mein XF270HU anzeigt im freesync modus zu arbeiten wenn ich G-Sync compatible aktiviere.
Wundert mich eigentlich das NV das erst jetzt macht, somit kann NV alle monitore am Markt bedienen mit variabler refreshrate, während AMD nur Free/Adaptiv sync bedienen kann.
Ein eindeutiger vorteil für NV.

Rogaahl

Super Moderator
interrupt
Avatar
Registered: Feb 2014
Location: K
Posts: 2040
Sie hatten wohl keine Wahl weil Freesync eindeutig gewonnen hat. Warum sie das jetzt erst machen liegt ganz einfach daran das sie somit mehr Geld verdient haben und die Kunden nicht ewig verarschen können.

The Source

Big d00d
Avatar
Registered: Apr 2003
Location: Linz
Posts: 242
Kann mir wer sagen wodurch der massive Performance Gewinn von RTX Karten auf OpenCL zustande kommt?

Im Vergleich zu CUDA kommt bei GPUPI 1B mit OpenCL ein Vorsprung von ca. 0,2-0,3 Sekunden heraus.
In Blender bei Barbershop komme ich mit CUDA auf ~7min 20sek und mit OPenCL ~5min 15sek.

RT Cores der GPU werden ja noch nirgends genutzt ausser ev. in VRay?
Ist das Performance plus, dann ausschließlich auf die Tensor Cores zurückzuführen?

MaxMax

Here to stay
Registered: Jul 2001
Location: Wien
Posts: 1913
nvidia hat massiv an asynchronous compute gearbeitet: turing kann sämtliche INT4/INT8/FP16/FP32 aufgaben parallel starten und abarbeiten, ohne das die eine einheit auf die abarbeitung der anderen warten muß, (tensorcores können IMHO nur INT4, ob die dafür aber extra angesprochen werden müssen vom programm, oder ob der scheduler GPU einfach automatisch die tensorcores hinzuschaltet, wenn dementsprechende tasks anstehen, weiß ich nicht), weiters wurde der L2 cache Turing verdoppelt, und auch die L1 Registers wurden glaub ich größer und der zugriff unabhängiger gemacht (alles was ich schrieb ausm gedächtnis von der nv präsentation auf der Gamescon)

edit: RT cores können IMHO nur das BVH für raytracing (also das "reverse" zurückverfolgen der eingehenden lichtstrahlen in das auge des betrachters und dann das abprallen an oberflächen und bouncen bis zur nächsten etc) berechnen, und können sonst für nix anderes benutzt werden.
Bearbeitet von MaxMax am 22.01.2019, 15:34

Rogaahl

Super Moderator
interrupt
Avatar
Registered: Feb 2014
Location: K
Posts: 2040
Interessantes Video bzgl input lags mit diversen Einstellungen und AMD vs NV.

erlgrey

formerly known as der~erl
Registered: Aug 2002
Location: Wien
Posts: 4366
was zum Henker führt Nvidia auf, dass ein Monitor bei Verwendung von "gsync compatible" weniger Inputlag hat als mit?

aber sehr spannendes video, der produziert generell immer wieder recht interessante sachen.

creative2k

Phase 2.5
Avatar
Registered: Jul 2002
Location: Vienna
Posts: 8288


Monster :D
Bearbeitet von creative2k am 23.01.2019, 11:23

xtrm

social assassin
Avatar
Registered: Jul 2002
Location:
Posts: 11893
Eine GTX Variante namens 1660 (Ti) scheint auch unterwegs zu sein: https://www.computerbase.de/2019-01...-rumor/#update2

Würde mir natürlich eine Performance nahe der 2060 mit weniger Energieaufnahme wünschen, aber das wäre vermutlich zu schön, um wahr sein zu können :X.

btw, den Titel könnte man mal anpassen, nachdem es ja zumindest die 2060 schon seit Wochen gibt
Kontakt | Unser Forum | Über overclockers.at | Impressum | Datenschutz