"Christmas - the time to fix the computers of your loved ones" « Lord Wyrm

NVIDIA GeForce GTX Titan X

creative2k 04.03.2015 - 20:00 31749 199
Posts

creative2k

Phase 2.5
Avatar
Registered: Jul 2002
Location: Vienna
Posts: 8289
Das Netz.... Ich bin heikel und komm mit SLI klar bzw hab nix negatives gemerkt, egal ob 8800 GTX, 580 oder 780 im SLI.

Früher kann schon was gewesen sein aber seit der 580 hat NV das doch ziemlich optimiert, da würd ich eher von CF die finger lassen als von SLI. Vorallem laufen so ziemlich alle wichtigen Titel damit.
Bearbeitet von creative2k am 19.06.2015, 20:51

charmin

Super Moderator

Avatar
Registered: Dec 2002
Location: aut_sbg
Posts: 13890
full ack, SLI rockt und ich konnte nichts von diesen Dingen bemerken.

mat

Administrator
Legends never die
Avatar
Registered: Aug 2003
Location: nö
Posts: 25376
Bei NVIDIA schaut es ganz gut aus, Dual-SLI ist relativ problemlos. Triple hingegen ist furchtbar, fast bei jedem Spiel Bildfehler wie zB flackernde Schatten.

Bei Crossfire passt gerne mal die Performance nicht.

maXX

16 bit herz
Avatar
Registered: Dec 2002
Location: dahoam
Posts: 10609
speicher steht jetzt bei +420 mhz und ist scheinbar noch immer nicht am ende.

raucht der jetzt einfach ab, wenn ich es übertreibe? oder brauche ich mir da eh keine sorgen machen?

power limit steht bei 110 % und lüftersteuerung habe ich so eingestellt, dass die karte in witcher 3 nicht über 80 grad bekommt.

maXX

16 bit herz
Avatar
Registered: Dec 2002
Location: dahoam
Posts: 10609
kann es sein, dass g-sync MASSIV hitze produziert? :eek:

hatte mit dieser technik in witcher 3 rund 80 grad.

jetzt (50 hz, vsync, fps auf 50 gelockt) rund 70 grad.

Kingping

...
Avatar
Registered: Jul 2003
Location: NÖ
Posts: 3395
nein, kann nicht sein. eine logische erklärung wäre, dass du mit g-sync keinen 50 fps cap verwendet hast.

mat

Administrator
Legends never die
Avatar
Registered: Aug 2003
Location: nö
Posts: 25376
G-SYNC hat eben ein anderes, von deinem Monitor abhängiges Frame-Target und damit eher 60 FPS.

maXX

16 bit herz
Avatar
Registered: Dec 2002
Location: dahoam
Posts: 10609
habe ich mir auch gedacht, dass es das sein könnte. fps mit g-sync lagen irgendwo zwischen 50 und 80.

mit 50 gelockt ist es zwar nicht mehr ganz so geschmeidig, dafür fallen mir die nachladeruckler nicht mehr so auf, welche ich bei g-sync hatte. war der zweite punkt, welcher mich neben der schlechten bildqualität nicht überzeugen konnte.
Bearbeitet von maXX am 01.08.2015, 11:44

mat

Administrator
Legends never die
Avatar
Registered: Aug 2003
Location: nö
Posts: 25376
Hab selbst einen G-SYNC-Monitor und bin von der Technologie überzeugt. Das ist definitiv der richtige Weg, um die gelieferte Anzahl der Frames/Sekunde auch fix auf den Monitor zu bekommen. Allerdings fällt es je nach angezeigtem Bild mal mehr und mal weniger auf.

Nachladeruckler hatte ich noch nie und ich kann mir auch nicht vortellen, dass dafür G-SYNC verantwortlich ist. Klingt eher mehr wie ein Bottleneck bei deinem System oder eine Schwäche des Spiels.

SLI ist übrigens mittlerweile sehr unproblematisch, allerdings würde ich immer nur zu zwei Karten raten. Mit einer dritten beginnen dann die von dir angesprochenen Probleme bei der Bildqualität. Man ist dann sehr abhängig von SLI-Profilen und Co. Ich nehme an, dass das mit DX12 durch die detaillierte Ressourcenverwaltung bei mehreren Grafikkarten besser werden könnte - hoffentlich endlich auch bei Crossfire. Wird aber auch sehr stark von den Fähigkeiten bzw. dem Zeitbudget der Spieleentwickler abhängen.

Bezüglich schlechte Bildqualität meinst du wahrscheinlich deinen speziellen Monitor, richtig? Welchen hast du denn probiert?

maXX

16 bit herz
Avatar
Registered: Dec 2002
Location: dahoam
Posts: 10609
acer xb240h

hatte mit argem dithering zu kämpfen, wenn die fps/hz auf rund 50 oder weniger fielen.

montagsgerät schließe ich aus, weil ich dasselbe phänomen auf einem zweiten monitor getestet habe und auch das netz voll davon ist. fairerweise muss ich sagen, dass ich da wohl etwas sensibel bin und es vielen garnicht auffällt.

die ruckler sind sicher noch da, aber durch das nicht so geschmeidige bild, welches man ohne g-sync hat, fallen sie nicht so stark auf.

edit: man könnte auch sagen, dass g-sync die schwächen einer engine gnadenlos aufdeckt. was durchaus kontraproduktiv sein kann, wenn ich mir witcher 3 anschaue.
Bearbeitet von maXX am 04.08.2015, 06:53

maXX

16 bit herz
Avatar
Registered: Dec 2002
Location: dahoam
Posts: 10609
warum bleibt der core-takt bei manchen spielen auf 1001 mhz?

fällt mir zB bei besiege auf, dass die karte nur dann auf voller leistung läuft, wenn ich zB dsr einstelle.

auf 1080p nicht.

mat

Administrator
Legends never die
Avatar
Registered: Aug 2003
Location: nö
Posts: 25376
Hast du ein Frame-Target eingestellt? Wenn ja und die Karte nicht mehr Performance braucht, um die Framerate darzustellen, dann versucht sie so energieeffizient wie möglich zu sein.

maXX

16 bit herz
Avatar
Registered: Dec 2002
Location: dahoam
Posts: 10609
ja, rivatuner läuft im hintergrund. ist mit 51 fps eingestellt, vsync läuft auf adaptiv.

mir fallen halt zahlreiche framedrops auf, wo die karte auch nicht hochtaktet.

mat

Administrator
Legends never die
Avatar
Registered: Aug 2003
Location: nö
Posts: 25376
Lass mal den MSI Afterburner neben dem Spielen laufen und lass dir die Temp- und Power-Limits anzeigen. Klingt eher so als würde die Karte dadurch limitiert werden und auch deshalb runtertakten.

maXX

16 bit herz
Avatar
Registered: Dec 2002
Location: dahoam
Posts: 10609
powerlimit ist auf 110% eingestellt und templimit auf 89°C.

muss ich am abend mal probieren.
Kontakt | Unser Forum | Über overclockers.at | Impressum | Datenschutz