"Christmas - the time to fix the computers of your loved ones" « Lord Wyrm

Starcraft II ist für NVIDIAs Grafikkarten zu heiß?

Locutus 09.08.2010 - 10:40 21399 75 Thread rating
Posts

InfiX

she/her
Avatar
Registered: Mar 2002
Location: Graz
Posts: 13678
Zitat von Starsky
dann solltest sowieso nur maximal 60 fps haben.

"sollte" ist mir klar, deswegen frag ich ja ob sich das bei der starcraft geschichte auch wirklich so auswirkt, heisst das problem behebt.

EG

thinking with portals
Avatar
Registered: May 2004
Location: 11**
Posts: 3918
Zitat von Bodominjaervi
Wieso gibt man einer News, die einen Quick-Tipp zur Verfügung stellt und vor einem Problem warnt einen Stern? :confused:

Weil hier einfach GANZ VIEL Unwahrheiten kursieren und obwohl Colo, Spikx oder daisho - um nur einige zu nennen - wie die Weltmeister argumentieren, diese Gewissen nicht von ihrer Unwahrheit absehen.

Es gibt einfach keinen Unterschied zwischen "unnötiger Last" und "nötiger Last". Es is komplett wurscht ob die Graka jetzt wegen dem Menü, oder dem Spiel ausgelastet wird...sie muss das aushalten!

Da kann man sich dann noch drüber unterhalten, dass ein Überhitzungsschutz sinnvoll ist (natürlich ist er!), aber im Endeffekt darf eine Grafikkarte die im Rahmen der Spezifikationen betrieben wird (nicht übertaktet, kein anderer Kühler drauf) nicht überhitzen.

Dann kann da natürlich Staub sein wie Spikx auf Seite 3 mal gemeint hat...spätestens dort _MUSS_ der Treiber einfach runtertakten/abschalten. Egal wie vermeintlich dumm das Starcraft-Kiddie sein mag...der Grafikkartenhersteller muss dafür sorgen, dass seine Grafikkarte nicht abraucht. "Mit Staub war nicht zu rechnen" gleicht der vielseits bekannten Facebook-Gruppe über das Linzer Auge ("Mit Wasser konnte keiner rechnen) -> abgesoffen -> Wer is Schuld? Wohl die Architekten des Teils...

Wurscht wie man die Gschichte dreht und wendet, der Entwickler hat niemals Schuld dran.

BooTes

Octocat!
Avatar
Registered: Sep 2002
Location: St. Egyden
Posts: 1595
Also ich sehe hier auch die Schuld bei der Hardware.

Interessant wäre hierzu ein Statement seitens Nvidia, betrifft sie ja schließlich so oder so.

Hansmaulwurf

u wot m8?
Avatar
Registered: Apr 2005
Location: VBG
Posts: 5639
Zitat von EvilGohan
Wurscht wie man die Gschichte dreht und wendet, der Entwickler hat niemals Schuld dran.
Der Entwickler muss aber _imho_ trotzdem möglichst resourcenschonend programmieren.

Für mich ist aber auch hauptsächlich Nvidia Schuld, ich hab nie Nvidia gekauft allein wegen Hitze und vor allem wegen Stromaufnahme verglichen mit ATI.

EG

thinking with portals
Avatar
Registered: May 2004
Location: 11**
Posts: 3918
Der Entwickler muss garnix. Sicher gehörts zum guten Ton, wenn man effizient programmiert und ich bin sicher der Letzte, der sinnlos Ressourcen verblasen würd.

Fakt ist aber, dass in diesem Fall Activision-Blizzard keine Schuld trifft. Es spielen wohl vielmehr ein paar ganz helle Sterne am Himmel gern Starcraft 2 und haben mangels geistigen Alters sofort losge*****d.

delete1


Registered: Apr 2007
Location:
Posts: 1845
also seit dem debakel mit der fx 5800 (wir erinnern uns => http://www.youtube.com/watch?v=WOVjZqC1AE4 :D ) bin ich auch im ati lager und ich gestehe, ich muss ich da gerade ein wenig schmunzeln, wenn sich sehe, was nv mal wieder verbockt. ;)

aber selbst rein objektiv betrachtet liegt das einzig alleine am hw hersteller und mmn _muss_ man auf derartige möglichkeiten als hersteller eingehen. wird ja - wenn auch schlecht - gemacht.

edit: wenn ich genau nachdenke, dann wars wahrscheinlich schon seit dem 3dfx kauf. :rolleyes:

Aslinger

"old" oc.at Member
Avatar
Registered: Nov 2000
Location: カ&..
Posts: 7401
Der neue ATI Werbespot hats schon in sich: http://www.youtube.com/watch?v=2Qky...player_embedded

Spikx

My Little Pwny
Avatar
Registered: Jan 2002
Location: Scotland
Posts: 13504
hrhr, nice

EG

thinking with portals
Avatar
Registered: May 2004
Location: 11**
Posts: 3918
Zitat von Aslinger
Der neue ATI Werbespot hats schon in sich: http://www.youtube.com/watch?v=2Qky...player_embedded

Ganz in Web 3.0 manier: I like :D :cool:

Chrissicom

Rise of the Ryzen
Avatar
Registered: Jul 2006
Location: Falkensee
Posts: 1942
Zitat
Und der nächste Programmierer, der nicht das Menü mit 500 fps rendert, sondern irrsinnig komplexe Spieleszenen mit 15 fps, ist dann auch schuld, dass die Grafikkarte abschmort? Oder darf die Grafikkarte nur dann kaputt werden, wenn die Last sinnlos ist?

Die letzte Frage würde ich fast mit ja beantworten wollen. Wie ich sagte, Spielegrafikkarten sind Desktop Komponenten und die sind wie gesagt nicht für 24/7 100% Dauerlast gemacht. 12 Stunden 3D Mark in der neuesten Version laufen zu lassen hat so weit mir bekannt auch noch keinen Rechner zum abrauchen gebracht (übertaktete jetzt mal ausgenommen), irgendwas ist da also nicht ganz richtig wenn man sagt die Hardware ist Schuld.

P.S. Ich bin seit praktisch immer ATI User, mir geht's also nicht darum Nvidia zu verteidigen ;)

HaBa

Legend
Dr. Funkenstein
Avatar
Registered: Mar 2001
Location: St. Speidl / Gle..
Posts: 19617
Zitat von Chrissicom
Die letzte Frage würde ich fast mit ja beantworten wollen. Wie ich sagte, Spielegrafikkarten sind Desktop Komponenten und die sind wie gesagt nicht für 24/7 100% Dauerlast gemacht. 12 Stunden 3D Mark in der neuesten Version laufen zu lassen hat so weit mir bekannt auch noch keinen Rechner zum abrauchen gebracht (übertaktete jetzt mal ausgenommen), irgendwas ist da also nicht ganz richtig wenn man sagt die Hardware ist Schuld.

P.S. Ich bin seit praktisch immer ATI User, mir geht's also nicht darum Nvidia zu verteidigen ;)

Hast du irgendwo specs bei der Hand die deine Aussagen auch nur ansatzweise bestätigen?

Was benutzen denn dann die ganzem Goldfarmer und diverse koreanische Zock-Götter?


=> wenn die Hersteller doch alle in den Treibern für die Benchmarks cheaten können sollen sie doch auch für solche Spiele was reinbasteln wenn ihr Gerümpel nichtmal fürs Menüanzeigen taugt ...

Generell ist das IMHO sowieso ein Problem, früher wurde aufgrund der mangelnden Vielfalt alles mögliche bis zum Abwinken optimiert, da gabs sogar Tastenkombinationen damit am Chip "bessere" Grafik freigebrannt wurde, auf das sind irgendwelche fraks draufgekommen usw. usf.

Jetzt: irgendwelche Konstrukte deren Versionsnummer jährlich steigen muß dienen als Frickel-Grundlage, die HW braucht immer mehr Energie, wird immer lauter usw. usf., aber so richtig "geiler" wird das ganze irgendwie garnicht.


IMHO wäre es besser wenn es längere Zyklen gäbe für das Umfeld, bzw. der HW-Müll nicht so schnell rausgebracht werden würde.
Ich bin sowieso kein fashion victim und hab hier eine 3870 im Einsatz, wohl noch für länger, aber wenn ich sowas da lese: besser ist ja nichts geworden ...

Spikx

My Little Pwny
Avatar
Registered: Jan 2002
Location: Scotland
Posts: 13504
Zitat von Chrissicom
Die letzte Frage würde ich fast mit ja beantworten wollen. Wie ich sagte, Spielegrafikkarten sind Desktop Komponenten und die sind wie gesagt nicht für 24/7 100% Dauerlast gemacht.
Du solltest nicht an diesem Mythos festhängen :rolleyes:.

Viper780

Er ist tot, Jim!
Avatar
Registered: Mar 2001
Location: Wien
Posts: 48846
Wo steht das?

HDD Hersteller wollen uns weismachen dass sowas nicht für 24/7 ausgelegt ist (die anderen is wurscht) - aber im Großen und ganzen schadet das on/off mehr als der dauerlauf

Polyfire

Addicted
Avatar
Registered: Feb 2007
Location: .
Posts: 415
Zitat von HaBa
Hast du irgendwo specs bei der Hand die deine Aussagen auch nur ansatzweise bestätigen?

Wie erklaerst Du dir dann die vielen Ausfaelle die passieren. Userberichte von ploetzlich auftretenten Grafikfehlern, etc.. Das mag in manchen Faellen die schuld vom Enduser sein, weil er z.B. die Karte angegriffen wie er elektrostatisch aufgeladen war. Oft ist es aber so das die Dinger einfach so im normalen Betrieb kaputt werden.

Es gibt auch physikalische Gruende, warum die Dinger nicht 100% zuverlaessig sein koennen. Stichwort Elektromigration

Laut empirischen Beobachtungen ist die zu erwartente Lebensdauer einer Leiterbahn abhaengig von Stromdichte und Temperatur.

Die Abhaengigkeit von T:
Code:
k = 8.617343E-5
Ea = 0.7
>>> def mttf(T):
...     Tkelvin = T + 273.15
...     return math.exp(Ea / (k * Tkelvin))
>>> for i in range(40,120,10):
...     print "%d, %e" % (i, mttf(i))
... 
40, 1.843562e+11
50, 8.261097e+10
60, 3.884601e+10
70, 1.908772e+10
80, 9.764235e+09
90, 5.182690e+09
100, 2.845877e+09
110, 1.612376e+09

Der Unterschied schaut jetzt zwar nicht so gross aus, aber wenn man bedenkt das hier wegen 10° mehr die ganze Verteilungskurve der zu erwartenden Lebensdauer quasi um die Hälfte nach links rutscht, dann steigt die Ausfallrate in der typischen Lebensdauer natürlich auch beträchtlich.


Zitat

Was benutzen denn dann die ganzem Goldfarmer und diverse koreanische Zock-Götter?

In einem typischen Spiel wird die GPU aber im Durchschnitt wesentlich weniger ausgelastet wie bei Furmark.

jives

And the science gets done
Avatar
Registered: Sep 2001
Location: Baden
Posts: 3548
Dass die MTBF von unzähligen Faktoren wie durschschnittliche und maximale Betriebstemperatur/Auslastung der Komponente/uvm. abhängt ist klar. Dass eine Komponente innerhalb kürzester Zeit ex geht, nur weil man sie (innerhalb der spezifizierten Rahmenbedingungen!) zu 100% belastet nicht.

Beispiel: Nur weil ich einen E-Motor auf 100% Leistung fahre, brennt er ja auch nicht gleich ab.
Kontakt | Unser Forum | Über overclockers.at | Impressum | Datenschutz