URL: https://www.overclockers.at/grafikkarten/gt300_erst_2010_207123/page_2 - zur Vollversion wechseln!
Cuda erlaubt die Programmierung und die Ausführung, aber programmieren muss man es noch immer und da profitieren nur Anwendungen mit starker Parallelität.
Programmieren != ProgrammierenZitat von vanHellCUDA??
Zitat von Starskywobei man vielleicht (spitzfindig) bemerken sollte, daß nv wenigstens die stromsparmodi beherrscht, sprich heruntertakten im idle.
ja, das mit dem flackern ist mir auch schon aufgefallen.
wenn nvidia aber auch mal karten mit ddr5 hat, werden sie auf das selbe problem stoßen?
Ich hab in der letzten Zeit viel mit GPGPU-Programmierung herumgespielt und ich muss dir wirklich recht geben. Zwar muss ein Befehl nur für ein Wavefront gleich sein, aber der Unterschied ist programmiertechnisch (abhängig von der Berechnung) sehr klein. Abgesehen davon, dass nur wenige Berechnungen überhaupt parallelisierbar sind, gibt es dazu noch etliche andere Restriktionen:Zitat von CastlestablerWer auch immer auf die tolle Idee kommt GPU´s als CPU Ersatz zu verwenden, der darf mal versuchen das zu programmieren. Jeder Programmierer wird sich freuen.
Grundsätzlich läuft nur alles schnell auf einer GPU, dass sehr viele gleiche Berechnungen braucht, also viele Pixel die alle gleichzeitig berechnet werden.
Versuch auf dem gleichen System ein Betriebssystem zu verwenden und die GPU ist extrem langsam. Mittlerweile schaffen es nur sehr wenige Programmiere Quad Cores gut anzusprechen und jetzt soll man auf einmal 240 und mehr Prozessoren ansprechen, die alle den gleichen Befehl ausführen müssen.
Es gibt grundlegende Unterschiede zwischen einer GPU und einer CPU und das bleibt so, es können nur die Funktionen zusammengeführt werden.
Zitat von Turricanja, das mit dem flackern ist mir auch schon aufgefallen.
wenn nvidia aber auch mal karten mit ddr5 hat, werden sie auf das selbe problem stoßen?
Das der Speicher auch ein wenig schuld daran ist, dass sie Idle-Leistung nicht berauschend ist, muss ich zugeben, aber in einem PC macht ein RAM-Riegel zwischen 5 und 10W aus.
Wenn man das vergleicht verbraucht die GPU selber noch immer zuviel Saft, auch wenn der RAM sich nicht heruntertaktet.
Vielleicht kann es ja einer mal kontrollieren, aber aus allen Meldungen, bis jetzt, scheint es so, das die ATI-Karten die Core-Spannung nie anpassen, warum auch immer. Der Takt alleine hat zwar Einfluss auf die aufgenommene Leistung, aber sinnvoller ist noch immer die Spannung.
Und eine Spannungsanpassung müsste möglich sein, weil keine der Komponenten wird im Idle stark belastet und der Speichercontroller sollte als einzige Komponente noch gleich viel Strom ziehen, aber eben fast keine Zugriffe machen.
Zitat von CastlestablerDas der Speicher auch ein wenig schuld daran ist, dass sie Idle-Leistung nicht berauschend ist, muss ich zugeben, aber in einem PC macht ein RAM-Riegel zwischen 5 und 10W aus.
Wenn man das vergleicht verbraucht die GPU selber noch immer zuviel Saft, auch wenn der RAM sich nicht heruntertaktet.
Vielleicht kann es ja einer mal kontrollieren, aber aus allen Meldungen, bis jetzt, scheint es so, das die ATI-Karten die Core-Spannung nie anpassen, warum auch immer. Der Takt alleine hat zwar Einfluss auf die aufgenommene Leistung, aber sinnvoller ist noch immer die Spannung.
Und eine Spannungsanpassung müsste möglich sein, weil keine der Komponenten wird im Idle stark belastet und der Speichercontroller sollte als einzige Komponente noch gleich viel Strom ziehen, aber eben fast keine Zugriffe machen.
0,85V ist ja schon erstaunlich, ich rede jetzt nicht von 0,3-0,4V Spannungssenkung, sondern im Idle halt nur 0,1V weniger.
Bringt auch schon was und ich kann mir nicht vorstellen, das die Karte da nicht normal läuft.
Zitat von OxygenDas fiepen liegt zu 100% am netzteil!
Hab jetzt schon 3 PSUs, ähm seit ein paar tagen sogar ein viertes netzteil getestet.
Be Quiet Dark Power Pro P6 530w (leichtes fiepen) GTX280/8800GTX
Corsair HX620w (sehr lautes fiepen) GTX280/HD2900 Pro
Enermax Revolution 85+ 950w (_kein fiepen_) GTX280
PC Power & Cooling Silencer 750W (sehr lautes fiepen) mit 4870x2
Zitat von chapwas für eine hast den?
meine 88er 320 war lauter als die gtx260...
Zitat von Castlestabler0,85V ist ja schon erstaunlich, ich rede jetzt nicht von 0,3-0,4V Spannungssenkung, sondern im Idle halt nur 0,1V weniger.
Bringt auch schon was und ich kann mir nicht vorstellen, das die Karte da nicht normal läuft.
die sollen von mir aus noch einen kleinen 2D only mobile grafikkern implementieren (auf die paar transistoren kommts auch nicht mehr draufan), dann könnte man im desktopbetrieb den 3D blutsauger komplett abdrehen...
früher (und auch heute) gibts grakas die im normalbetrieb so gut wie nix brauchen (siehe notebooks)
Ich finde aus Kosumentensicht die GTX 275 und 285 nicht schlecht, was den Preis, die Lautstärke und die gebotene Leistung betrifft. Der Stromverbrauch und die Größe sind definitiv verbesserungswürdig.
Der Hybridpower on a board Gedanke gefällt mir, ich denke da z.B. an eine Karte mit 9400 und GTX 285 auf einer Platine, im 2D- und Videomodus wird der große Kern komplett abgeschaltet und im 3D Modus könnte der kleine Core für Physik-Berechnungen herangezogen werden.
Das der GT300 erst 2010 auf den Markt kommt dürfte mit mehreren Dingen zu tun haben, wohl zeitnah zum DX11 Release, andererseits die Probleme mit der 40nm Produktion und dann bleibt noch die generelle schwächelnde Nachfrage.
Zu guter letzt hat nVidia immer noch die stärkste Singlechip Grafikkarte im 300,- Euro Segment, steht daher imho nicht total unter Zugzwang.
Eine 9400er ist wohl noch immer viel zu stark für 2D.
Bei zwei Karten ist das Problem des Speichercontrollers nicht ohne, entweder man verbaut noch mal extra RAM oder man schafft es das zwei Karten auf den gleichen RAM zugreifen können.
Nvidia ist im Moment eh nicht so schlecht unterwegs, die 30W von der GTX-Reihe sind schon halbwegs annehmbar. Hauptproblem bleibt weiterhin, das keiner selber produziert und deswegen die Auswahl an verbaubaren Bausteinen beschränkt ist und das extrem geniale Design von den Intel i7 ist bei den GPU´s leider nicht anwendbar.
overclockers.at v4.thecommunity
© all rights reserved by overclockers.at 2000-2025