Starcraft II ist für NVIDIAs Grafikkarten zu heiß?

Seite 1 von 6 - Forum: Spiele auf overclockers.at

URL: https://www.overclockers.at/spiele/starcraft_ii_ist_fuer_nvidias_grafikkarten_zu_heis_218044/page_1 - zur Vollversion wechseln!


Locutus schrieb am 09.08.2010 um 10:40

<div class="previewimage content"></div>Dass selbst ein großer Publisher wie Blizzard kein Spiel auf den Markt bringen kann, das bereits von Anfang an fehlerfrei ist, haben die kurz nach Release erschienen Patches für Starcraft II gezeigt. Nun bereitet aber ein anderes Problem den Fans große Sorgen: Das Strategiespiel soll bei Nvidia-Grafikkarten zu Überhitzungen führen.


3mind schrieb am 09.08.2010 um 10:54

hm. aber wie kann das nur bei nvidia zu einem problem werden? hat ati da eine art idle-absicherung oder wie kann ich mir das vorstellen?


FX Freak schrieb am 09.08.2010 um 11:00

von dem problem habe ich auch schon gelesen, soll aber angeblich vermehrt mit gtx280/285 grafikkarten auftreten:)


maXX schrieb am 09.08.2010 um 11:05

wenn 1/3 von dem spiel schon zu hardwareschäden führt, was löst dann wohl die komplette version aus. den weltuntergang?

scnr. :D

im ernst, blöde geschichte.


Mayve schrieb am 09.08.2010 um 11:09

Zitat von maXX
wenn 1/3 von dem spiel schon zu hardwareschäden führt, was löst dann wohl die komplette version aus. den weltuntergang?

scnr. :D

im ernst, blöde geschichte.

Hmmm, wenn die jedes Jahr eine neue Kampagne bringen, dann stehen wir ja bei 2012. So wie es aussieht, könntest du mit deiner Prognose Recht haben. :D


InfiX schrieb am 09.08.2010 um 11:11

Zitat von 3mind
hm. aber wie kann das nur bei nvidia zu einem problem werden? hat ati da eine art idle-absicherung oder wie kann ich mir das vorstellen?

keine ahnung, angemessenere kühlung evtl? :D


rad1oactive schrieb am 09.08.2010 um 11:15

omfg! gestern hab ich SC2 im menü sicher 2h rennenlassen während ich fernsehn war. aber gottseidank is dem föhrmi nix passiert :D


pari schrieb am 09.08.2010 um 11:15

die meldung is ja wohl ein scherz - sie impliziert ja, dass eine grafikkarte nicht 24/7 zu 100% ausgelastet sein darf.

ein eindeutiges nvidia fail :D


mat schrieb am 09.08.2010 um 11:24

Zitat von 3mind
hm. aber wie kann das nur bei nvidia zu einem problem werden? hat ati da eine art idle-absicherung oder wie kann ich mir das vorstellen?
Idle-Absicherung ist das falsche Wort, aber ein Schutz vor übermäßiger Hitze (wie es bei CPUs schon seit vielen Jahren der Fall ist) wäre sicher nicht übel. Bei der Dual-GPU HD 5970 ist soetwas eingebaut, denn sonst wäre es möglich durch zB Furmark die GPUs auf weit über 100 °C zu bringen.

Natürlich kann es auch sein, dass abhängig von der Implementierung nur gewisse Teile der GPU extrem beansprucht werden und diese dann schmoren. Ich kann mich noch erinnern, dass im Menü von Stalker gerne die Spulen von so manchen Grafikkarten gerne kräftig gefiept haben. Das hat dann auch schön geheizt und wenn der Lüfter staubig ist, die WLP nicht mehr vom feinsten, Sommer usw., dann könnte ich mir schon derartige Probleme vorstellen.


maXX schrieb am 09.08.2010 um 11:24

Zitat von Mayve
Hmmm, wenn die jedes Jahr eine neue Kampagne bringen, dann stehen wir ja bei 2012. So wie es aussieht, könntest du mit deiner Prognose Recht haben. :D

20080414_simpsons-end_157892.jpg


foo_on_air schrieb am 09.08.2010 um 11:40

Ich finde solche Meldungen immer lustig. Ein Hersteller sollte für so einen Fall doch vorsorgen und nicht die Komponenten so designen, dass alles am Rande der Spezifikation ist. Hardware so auszulegen, dass sie mit-Augen-zudrücken die Standardanwendungen abdeckt und kein Quentchen mehr ist so wie Glücksspiel. Darauf zu spekulieren, dass schon nix passieren wird. Es ist ein kalkuliertes Risiko.

Äußerst ärgerlich ist es für den Anwender. Der kauft sich ein Produkt und kann nicht ahnen, dass eine fehlende Schutzschaltung die Hardware zerstören kann.


mat schrieb am 09.08.2010 um 11:43

NVIDIA halt. GTX 285 ... kleinerer Fertigungsprozess und was wird gemacht? Jedes MHz zusätzlich in die GPU gepumpt, anstatt eine effizientere und leisere Gamer-Grafikkarte zu machen. Fermi detto.

This is my shocked face:


Starsky schrieb am 09.08.2010 um 11:49

andere frage ist aber, wozu spiele im pausemodus auch im 3d-last modus laufen müssen, wenn die power gar nicht benötigt wird. so auch bei diversen nfs-teilen schon bemerkt. warum der user dann noch zusätzlich so dämlich ist und nicht per alt-tab zum desktop switcht und damit die grafikkarte dann in den 2d modus geht, frage ich mich auch.

kann aber eigentlich nur dann problematisch werden, wenn der lüfter manuell auf eine gewisse drehzahl gefixt ist.

kann man ja auch im furmark nachvollziehen, mit steigender temperatur dreht der lüfter kontinuierlich schneller.


enforcer schrieb am 09.08.2010 um 12:20

dass da nvidia treibermäßig nichts absichert ist ziemlich schwach.

der lüfet ist halt auch irgendwann "am limit" und dreht nicht mehr schneller - und da sollte ne grafikkarte dann halt abschalten (oder zumindest so designt sein, dass die schnellste umdrehungsanzahl des lüfters reicht, was ja anscheinend hier nicht der fall ist)

schwach ist es von beiden seiten .. sowohl von nvidia als auch von blizz


Earthshaker schrieb am 09.08.2010 um 12:59

Tja dafür läufts halt ingame um Welten besser als mit Ati und ich bin mir sicher ich hab ingame mehr Zeit verbracht als im Menü :D

Die letzten Spielereleases zeigen wunderbar das ich mit Ati aufs falsche Pferd gesetzt hab. Schlechtere Perfomance, fehlendes AA etc (GTA4 anyone?).
(2 gleiche Rechner nur Grakaunterschied im Vergleich, also persönlich getestet)

Btw: Wenn ich weiss ich geh bin jetzt eine Weile nicht am Rechner, einfach auf den Desktop switchen und fertig.

@Edit: Achso das normale Hauptmenü is gemeint...




overclockers.at v4.thecommunity
© all rights reserved by overclockers.at 2000-2024