URL: https://www.overclockers.at/grafikkarten/nvidia-geforce-gtx-970-die-vram-affaere_241880/page_4 - zur Vollversion wechseln!
Das ist aber was anderes. Das heißt nur, dass 4GB zu viel sind für die GPU oder was weiß ich. Darüber steht auch:
ZitatSynthetische Tests zeigen, dass der Speicher der Grafikkarte bis zu einem Limit von 3,3 GByte Daten mit rund 150 GByte pro Sekunde überträgt, danach sinkt die Leistung schlagartig auf 46, 22 und zum Schluss sogar unter 20 GByte/s.
Der gleiche Test bei einer Geforce GTX 980 zeigt diesen Einbruch nicht und zeigt stets rund 178 GByte/s
Also ich hab auf der pcgh.de auch so einen VRAM Speedtest gemacht mit der 970 und ab ca. 3500MB gehts los mit rapidem Verlust an Geschwindigkeit. Laut NV ist die 980 davon ja nicht betroffen da diese eine etwas andere Architektur wohl hat. Also 4GB am Stück lol,scnr
Ah okay, also da gibts direkt nen Test um das zu testen. Echt schräg, warum man sowas macht.
AMD wird sich freuen
Dann gibts in nem Jahr halt 2 Stück AMD Karten indn Rechner und die beiden 970er werden verkauft
Mann, hätt ich nur gewartet mit dem Kauf der 970er, jetzt gerade gibts sicher genug Irre, die ihre 970er zu kranken Billigstpreisen verkaufen, da hätt man sicher ordentlich Sparen können.
guck mal hier nach: http://extreme.pcgameshardware.de/n...aendler-zu.html Da sieht man das auf den screens. Mehr Beweis braucht wohl keiner.
Iwo da in dem Flame Chaos ist ein link zum Bench
Die Maxwell Karten sind ja an sich ein Hammer! Ich hab mir Gestern ne 980er geholt und im Vergleich zur 780 ein Traum von der Temp/Verbrauch/Lautstärke/OC.
Schade dass die 970er nun so durch den Dreck gezogen wird, aber NV hat sich das halt selbst eingebrockt.
Bei AMD passt das Package halt nicht. Die Karten sind zwar Günstig, aber verbrauchen weitaus mehr und sind auch noch lauter und langsamer.
Keine Ahnung ob NV das wirklich absichtlich macht und probiert was beim Kunden reingeht, aber solang AMD nix dagegen macht bzw. dem was entgegen zu setzen hat werdens weiter probieren bzw. wird's ihnen relativ egal sein.
Zitat von Templerhttp://youtu.be/spZJrsssPA0
Schade das sich AMD & NV sich nicht gerade "grün" sind, sorry aber das Wort ist keinerlei Anspielung auf Nvidia.
Ich würde auch gerne eine kleine NV GPU nur zum Surfen,Vids gucken nehmen aber das ist mit einer AMD Karte im System halt die Krux an der Sache. Weil wenn ich sehe das bei einem Flash Video meine Karte gegen 50°C geht krieg ich auch die Krise hier ... Da muss AMD viel tun für die next gen. Ich fand ja die GTX970 auch absolut nicht schlecht aber Marketing zieht eig. nicht bei jedem oder in dem Falle sogar bei vielen, zu vielen
Nur damit das noch einmal hier richtig gestellt wird: Die GTX 980 hat das Problem nicht! Wer die Theorie hinter dem Problem liest - zB sehr ausführlich bei PC Perspective -, der weiß genau warum. Auch ein interessantes Zitat vom Autor des Artikels:Zitat von charminNaja 24% Leistungsverlust bei der GTX 980 und 25% Leistungsverlust bei der GTX 970 bei Überschreiten der 3,5GiB Grenze,
hab ich da vorhin gelesen. Also was jetzt?
Seid also bitte nicht so engstirnig und verkauft eure GTX 970 deshalb, denn dann zahlt ihr nämlich wirklich drauf. Die Karte ist was sie ist und nur wegen falsch angegeben Spezifikationen in keiner Form schlechter. NVIDIA war hier nicht ehrlich und das wird ihnen bei den nächsten Reviews eine gehörige Portion Misstrauen von den Redakteuren bringen. Im Endeffekt haben sie sich damit sowieso selbst keinen Gefallen getan.ZitatThe performance of the GTX 970 is what the performance is. This information is incredibly interesting and warrants some debate, but at the end of the day, my recommendations for the GTX 970 really won’t change at all.
Zitat von matSeid also bitte nicht so engstirnig und verkauft eure GTX 970 deshalb, denn dann zahlt ihr nämlich wirklich drauf. Die Karte ist was sie ist und nur wegen falsch angegeben Spezifikationen in keiner Form schlechter. NVIDIA war hier nicht ehrlich und das wird ihnen bei den nächsten Reviews eine gehörige Portion Misstrauen von den Redakteuren bringen. Im Endeffekt haben sie sich damit sowieso selbst keinen Gefallen getan.
nvidia könnte per firmwareupdate auch einfach das eine cache-modul freigeben
oder haben sie da defekte chips verbaut?
Eben nicht. Es liegt an der Architektur und wie Stream Multiprocessors an die Ressourcen der Grafikkarte angebunden sind.
Was war dann mit dem Leistungsverlust im Gamestar Artikel gemeint? Die schreibens doch als wäre da ein ähnlicher Effekt.
Mat, ich sehe das nicht als engstirnig an. Konsumenten sollten sich nicht veräppeln lassen.
Da gehts ums Prinzip, ich habe mich bewusst für eine 4GB Karte entschieden um die nächste Zeit Ruhe zu haben.
Da hätte ich gleich eine 3GB Karte kaufen können und hab da stabile Performance.
Hmm also wenn man den zu benützenden VRAM auf 3,5GB fixieren könnte, hätte man stets volle Leistung oder? Übern Treiber zu lösen?
Zitat von Error404Hmm also wenn man den zu benützenden VRAM auf 3,5GB fixieren könnte, hätte man stets volle Leistung oder? Übern Treiber zu lösen?
Wenn der Speicher am Ende ist, hat man sowieso keine gute Leistung mehr. Dann gehen die Minimum-Frames in den Keller, es sei den das Spiel checkt es und schmeißt auf intelligente Art und Weise vorher weg, sodass es gar nicht soweit kommt. Um das allerdings zu wissen, wird die Speichergröße über die API und damit den Driver geholt. Wenn diese aber 4 GB zurückgibt, wo die letzten 0,5 GB schon langsamer sind, dann kann das Spiel bzw. die Anwendung keine intelligente Entscheidung treffen und es kommt bei fehlender Bandbreite auf jeden Fall zu einem Engpass. Hmmm, bleibt nur die Frage, wieviele Spiele/Engines überhaupt so genaues Speicher-Management betreiben. Wahrscheinlich nur wenige. Das wird eher bei GPGPU ein Thema sein.
Übrigens gibt es eine neue Theorie, die besagt, dass die letzten 0,5 GB gar nur direkt am Hauptspeicher angebunden sind und daher nur die Bandbreite von PCIe verwenden. Wenn dem so wäre, dann hat die Karte tatsächlich nur 3,5 GB.
overclockers.at v4.thecommunity
© all rights reserved by overclockers.at 2000-2025