c&p von
http://extreme.pcgameshardware.de/u...uf-des-nda.htmldie bilder spar ich mir aber....
Auf Computerbase kann man einige Bilder von Usern zur neuen GTX 580 bewundern. Dabei wird eine MSI GTX 580 ausgepackt, aber auch EVGA und Galaxy dürfen nicht fehlen.
Selbst das Bild eines Headspreaders mit GF110 Schriftzug ist zu finden.
Viel Spaß mit den Bildern:
Quelle: Erste Nvidia GeForce GTX 580 verfügbar - 09.11.2010 - ComputerBase
Update 1:
Die Seite hat einen kompletten Testbericht zur GTX580 anscheinend vor ablauf der NDA veröffentlich. Wie lange der Test online bleibt/ist ist daher fraglich, bei der 68x0 von AMD waren die test ja auch schnell wieder offline.
Update:5
Bleibt die Frage ob die Seite dies beabsichtigte oder unabsichtlich den Test veröffentlichte, da PCGH ja heute um 15 Uhr offiziell einen Testbericht bringen wird! Ein NDA Bruch ist daher sehr wahrscheinlich. Ich möchte euch dennoch nicht die Neuigkeiten vorenthalten.
Laut PCGH_Marc hat TechPowerUp die NDA nicht gebrochen, da sie den Test nicht offiziel online gestellt haben. Es handelt sich daher wohl um eine unglückliche Panne. Ich selbst habe gerade eben auch festgestellt, das in der Zusammenfassung noch der Text zu einer HD68x0 steht, der Artikel also noch garnicht fertig ist/war.
Update2:
Laut hardwareboard.de beträgt die UVP für die GTX 580 499,-€. Dies ist ein sehr hoher Preis, war aber, da es sich dabei um das Topmodell von nVidia handelt zu erwarten gewesen. Bleibt zu hoffen das mit der 69x0 Serie von AMD die Preise schnell in eine Region von unter 400€ fallen, denn der aktuelle Preis ist schon sehr hoch in meinen Augen, da die Karte laut ihren Aussagen "nur" zwischen 15-20% schneller als ihr direkter Vorgänger die GTX 480 ist, welche bereits für unter 350€ zu haben ist.
Update 3:
Betrachtet man die Zusammenfassung der Benchmarks nach Auflösung, die ich im unteren Post gepostet habe, dann sieht man, das bei den meist verbreiteten Auflösungen von 1680 und 1920 nicht viel von der Versprochen Mehrleistung von 20-30% im Vergleich zur GTX480 übrig bleibt. Bei 1920 sind es gerade einmal rund 10% Mehrleistung im Vergleich zur GTX 480 und ca 31% im Vergleich zur HD 5870. In 2560 schafft es sogar die HD 5970 wieder an der GTX580 vorbeizuziehen, wobei man die mit einer DualGPU Karte verbundenen Probleme dabei berücksichtigen sollte.
Was noch besonders auffällt ist die recht schlechte SLI Skalierung. Bei 1920 im SChnitt gerade einmal 24% schneller als mit einer GTX580. Dies könnte aber sich noch an den frühen Treibern liegen.
Alles in allem könnte die 69x0 von AMD somit wohl doch die GTX580 übertreffen in den nächsten Wochen. Bleibt nur zu hoffen, das sich bald eine große Verfügbarkeit bei beiden Herstellern ergibt, wodurch die Preise fallen.
Überfliegt man die Ergebnisse und vergleicht die technischen Daten und erinnert sich an die Probleme mit Fermi vor dem Release der GTX480, so drängt sich einem doch die Vermutung auf, das es sich bei der GTX580 eigentlich "nur" um eine GTX485 handelt, wobei man sogar so weit gehen könnte, das mit der GTX580 nVidia nun endlich annähernd das auf den Markt gebracht hat, was sie sich ursprünglich vor knapp einem Jahr vorgenommen haben mit dem GF100. Einen voll ausgebauten GF100 mit etwas höheren Taktraten und etwas niedrigerem Energieverbrauch, wobei dieser im Maximum nur leicht sinkt, aber gerade im IDL recht gut zurückgegangen ist.
Diese Infos wurden auch entnommen von NVIDIA GeForce GTX 580 SLI Review - Page 24/27 | techPowerUp
Update 4:
Hier noch ein Direktvergleich der technischen Daten der GTX480/580. Wie man sieht hat sich kaum etwas getan. Eigentlich nur volle Shaderanzahl und etwas mehr Takt.
Quelle: Hardwareboard.eu - Das ultimative Hardware Forum - Nvidia stellt GeForce GTX 580 offiziell vor - mit vielen Tests der Karte
Update 5:
TechPowerUp hat gerade eben ihren Test geupdatet mit vielen neuen Fotos und vielen neuen Infos. GANZ besonder stich hier folgender Abschnitt heraus, den ich, da er nicht ganz einfach ist sicherheitshalber noch als Orginalzitat mit poste, falls mir ein Übersetzungsfehler passiert:
Zitat:
In order to stay within the 300 W power limit, NVIDIA has added a power draw limitation system to their card. When either Furmark or OCCT are detected running by the driver, three sensors measure the inrush current and voltage on all 12 V lines (PCI-E slot, 6-pin, 8-pin) to calculate power. As soon as the power draw exceeds a predefined limit, the card will automatically clock down and restore clocks as soon as the overcurrent situation has gone away. NVIDIA emphasizes this is to avoid damage to cards or motherboards from these stress testing applications and claims that in normal games and applications such an overload will not happen. At this time the limiter is only engaged when the driver detects Furmark / OCCT, it is not enabled during normal gaming. NVIDIA also explained that this is just a work in progress with more changes to come. From my own testing I can confirm that the limiter only engaged in Furmark and OCCT and not in other games I tested. I am still concerned that with heavy overclocking, especially on water and LN2 the limiter might engage, and reduce clocks which results in reduced performance. Real-time clock monitoring does not show the changed clocks, so besides the loss in performance it could be difficult to detect that state without additional testing equipment or software support.
I did some testing of this feature in Furmark and recorded card only power consumption over time. As you can see the blue line fluctuates heavily over time which also affects clocks and performance accordingly. Even though we see spikes over 300 W in the graph, the average (represented by the purple line) is clearly below 300 W. It also shows that the system is not flexible enough to adjust power consumption to hit exactly 300 W.
So dann versuch ich es mal kurz zusammen zu fassen auf Deutsch:
nVidia sieht sich anscheinend gezwungen die Leistungsaufnahme der GTX580 durch spezielle Chips, die die Leistungsaufnahme der GPU bestimmen, auf 300 Watt zu beschränken, indem der Takt der GPU reduziert wird, wenn zu viel Ampere durch die 12V Leitungen gezogen werden, bis sich wieder die Leistungsaufnahme unter ein gewisses Maß reduziert hat. Laut nVidia soll diese Technik aber nur in Benchmarks/Stresstests wie Furmark oder OCCT mittels Treibererkennung aktiviert werden, da diese extreme Belastungen für die GPU darstellen. Im normalen Spielbetrieb soll es zu dieser Reduzierung des Taktes nicht kommen.
nVidia begründet dies damit, das Sie hiermit verhindern wollen, das die GPU oder das Mainboard durch diese Extremsituationen in denen die Leistungsaufnahme ansteigt nicht beschädigt werden. Dies ist wohl an bisher einzigartiger Schritt und hinterlässt bei mir ein ungutes Gefühl. Denn was noch zu erwähnen ist, die Reduzierung des Taktes ist nicht sichtbar in den Einstellungen. Nur durch große Schwankungen in der Leistungsaufnahme kann man darauf zurück schliesen, dass der Takt reduziert wurde.
Nun stellen sich für mich einige schwerwiegende Fragen:
1. Wie soll man zukünftig die Leistungsaufnahme in Extremsituationen direkt vergleichen?
2. Wenn nVidia sich bereits bei ********takt zu solchen Maßnahmen genötigt fühlt, gibt es dann überhaupt Spielraum für OC Karten, und wenn ja, laufen diese in die Reduzierung des Taktes?
3. Wird wirklich nur per Treiber Furmark etc detektiert, oder kann es doch auch im normalen Spielbetrieb dazu kommen?
4. Was passiert wenn man die Karte selbst OCed? Besteht dann eine erhöhte Gefahr für das Mainboard und die GPU, falls wirklich nur per Treiber die Schutzfunktion aktiviert wird?
5. Wie lässt sich in Zukunft erkennen wann der Clock reduziert wird?
6. Wir stark wirkt sich das alles auf das OCPotenzial aus? Gibt es faktisch überhaupt eines?
Hiermit ergeben sich wohl mehr Fragen als sonst nach Release einer neuen GPU. Vielleicht werden einige dieser Punkte bereits im PCGH Test zur GTX580 eingehender beleuchtet.
Ich gehe aber sehr stark davon aus, das sich PCGH außführlich dieser Thematik annimmt und die Leser über die damit verbundenen Konsequenzen aufklärt.
Update 6:
Wie zu befürchten war, ist PowerTechUp nun offline und nicht mehr zu erreichen. Uns bleibt nun wohl nichts anders mehr übrig als wieder zu warten
Unter
http://www.hardwareboard.eu/content/...ests-der-Karte hat der User amox82 aber noch eine interessante Meldung kund getan. Er hatte wohl offenbar Zeit sich noch andere Teile des Test durchzulesen, bevor die Seite nicht mehr erreichbar war. Hierbei schreibt er folgendes:
Zitat:
war ja keine kritik an der neuen karte und deren leistung ... nur overclocker werden die karte wohl meiden müssen, wo doch gerade diese mit wasser oder anderen kühlungen gern die grenzen austesten wollen
im overclocking bereich des tests wurde ja geschrieben, dass ab bestimmter volterhöhung der limiter angesprungen ist
Die von mir angestellten Befürchtungen bezüglich OC könnten sich also als berechtigt herausstellen.