URL: https://www.overclockers.at/grafikkarten/gt300_erst_2010_207123/page_1 - zur Vollversion wechseln!
<div class="previewimage content"></div>Wenn es nach dem Inquirer geht, hat NVIDIA heute bei seinen Partnern anklingen lassen, dass der hoffnungsvolle GT300 erst 2010 den Markt erreichen wird.
auch egal, der gt200 bietet einstweilen mehr als genug power. 
Das stimmt, nur für welchen Preis? Lautstärke, Gesamtgröße, Wärmeabgabe und Stromverbrauch sind unter aller Sau. Deshalb spielt auf meinem Schreibtisch eine GTX 285 mit einer GTX 295, während eine HD4770 in meinem System Spaß haben darf.
Solange sie das fiepen nicht in den Griff bekommen und die Lüfter so laut sind, bleib ich bei meiner 8800gts, obwohls langsam an der Zeit währe aufzurüsten...
Das fiepen liegt zu 100% am netzteil!
Hab jetzt schon 3 PSUs, ähm seit ein paar tagen sogar ein viertes netzteil getestet.
Be Quiet Dark Power Pro P6 530w (leichtes fiepen) GTX280/8800GTX
Corsair HX620w (sehr lautes fiepen) GTX280/HD2900 Pro
Enermax Revolution 85+ 950w (_kein fiepen_) GTX280
PC Power & Cooling Silencer 750W (sehr lautes fiepen) mit 4870x2
was für eine hast den?Zitat von zottel35Solange sie das fiepen nicht in den Griff bekommen und die Lüfter so laut sind, bleib ich bei meiner 8800gts, obwohls langsam an der Zeit währe aufzurüsten...
Zitat von matDas stimmt, nur für welchen Preis? Lautstärke, Gesamtgröße, Wärmeabgabe und Stromverbrauch sind unter aller Sau. Deshalb spielt auf meinem Schreibtisch eine GTX 285 mit einer GTX 295, während eine HD4770 in meinem System Spaß haben darf.
Zitat von kekxxund da die Karte für ein 24/7 Sys imho sowiso völlig ungeeignet ist ==> who cares...
klingt plausibel, aber wenns irgendwie möglich gewesen wäre hätten sies gemacht bzw. eingebaut.
Cpus kannst mit Gpus nicht wirklich vergleichen, haben beide doch ziemlich wenig gemeinsam.
Zitat von kekxxklingt plausibel, aber wenns irgendwie möglich gewesen wäre hätten sies gemacht bzw. eingebaut.
Zitat von kekxxCpus kannst mit Gpus nicht wirklich vergleichen, haben beide doch ziemlich wenig gemeinsam.
wobei man vielleicht (spitzfindig
) bemerken sollte, daß nv wenigstens die stromsparmodi beherrscht, sprich heruntertakten im idle.
Hast recht, dennoch sind sie grundverschieden - warum werden Gpus nicht als Cpu´s gebaut? Sind von der reinen Rechenleistung her gesehn immens schneller als jetzige high-end cpus..
Die erste möglichkeit des stromsparens habns da eingeführt wo es am sinnvollsten ist (Achtung Ironie) - Hybrid SLI...
Whatever, mit einem 500PS Auto wirst auch nie unter 10 Liter kommen..
naja wer hochleistung will sollte nicht mim strom geizen
find das kindisch, die ergare hardware und dann rauntzen das mehr strom braucht als andere teile 
Das tut ja überhaupt nichts zur Sache wenn es ums Idlen geht, gerade bei den GPUs könnte man einen Haufen x-fach redundant vorhandener Einheiten abschalten.Zitat von kekxxHast recht, dennoch sind sie grundverschieden - warum werden Gpus nicht als Cpu´s gebaut? Sind von der reinen Rechenleistung her gesehn immens schneller als jetzige high-end cpus..
Beim Stromsparen geht es auch nicht unbedingt bloß um das Wohl des Einzelnen.Zitat von shadnaja wer hochleistung will sollte nicht mim strom geizen
find das kindisch, die ergare hardware und dann rauntzen das mehr strom braucht als andere teile
Die 4770 ist aber auch kein gutes Beispiel für eine effiziente Karte, im Idle ist die GTX285 dort besser.
10W finde ich für eine High-End-Karte schon etwas gering, weil einfach die gesamte zusätzliche Elektronik auch Strom braucht und dort das abschalten schwierig wird.
Aber so um die 20W ist durchaus realistisch und sollte auch kein Problem mehr sein es zu erreichen.
Wer auch immer auf die tolle Idee kommt GPU´s als CPU Ersatz zu verwenden, der darf mal versuchen das zu programmieren. Jeder Programmierer wird sich freuen.
Grundsätzlich läuft nur alles schnell auf einer GPU, dass sehr viele gleiche Berechnungen braucht, also viele Pixel die alle gleichzeitig berechnet werden.
Versuch auf dem gleichen System ein Betriebssystem zu verwenden und die GPU ist extrem langsam. Mittlerweile schaffen es nur sehr wenige Programmiere Quad Cores gut anzusprechen und jetzt soll man auf einmal 240 und mehr Prozessoren ansprechen, die alle den gleichen Befehl ausführen müssen.
Es gibt grundlegende Unterschiede zwischen einer GPU und einer CPU und das bleibt so, es können nur die Funktionen zusammengeführt werden.
overclockers.at v4.thecommunity
© all rights reserved by overclockers.at 2000-2025