"Christmas - the time to fix the computers of your loved ones" « Lord Wyrm

NVIDIA GeForce RTX 4000 Serie

Wyrdsom 11.03.2022 - 00:30 200683 1320 Thread rating
Posts

Bender

don`t jinx it
Avatar
Registered: Apr 2001
Location: Here..
Posts: 4939
3 Jahre Garantie und sie ist um 5 Grad und 2db "kühler" als die FE.
Mal schaun.
Einen Monat hab ich Zeit die Sache zu überdenken.

add.: OC war nie ein Thema - Blasphemie in einem Forum wie diesem, ist mir klar :D
Bearbeitet von Bender am 01.02.2023, 10:47

Jedimaster

Here to stay
Avatar
Registered: Dec 2005
Location: Linz
Posts: 2459
Abschiebung nach default.at droht :D

WONDERMIKE

Administrator
kenough
Avatar
Registered: Jul 2001
Location: Mojo Dojo Casa H..
Posts: 10505
Inno3D ist nicht hip, aber eine schlechte Karte hatte ich von denen noch nie in der Hand. Die GTX 980 oder 1070 von denen waren zB solide Karten. Mit den 3-Slots wäre sie bei der 4090 auch meine Präferenz gewesen, aber es geht sich mit der FE zum Glück auch aus :D

smashIt

master of disaster
Avatar
Registered: Feb 2004
Location: OÖ
Posts: 4998
inno3d scheint sich ganz gut zu schlagen:
https://www.pcgameshardware.de/Inte...alerie/3708719/

Roman

CandyMan
Avatar
Registered: Jun 2000
Location: Im schönen Kär..
Posts: 3771
Inno3d ist kein Glump. Die sind halt nicht so gehyped wie eine ASU’s ROG Strix oder MSI Gaming Z oder EVGA K1ngp1n oder Gigabyte Aorus.
Sind aber auch erst seit Rive TNT Zeitn dabei also gebt’s dem noch a bissl Zeit.

Kann man kaufen.

Bender

don`t jinx it
Avatar
Registered: Apr 2001
Location: Here..
Posts: 4939
Bevor ich 1800 Euronen raushaue, mach ich schon meine Hausaufgaben.
Trotzdem hätte ich eine FE fast lieber gehabt. Ich mag das Design*.
Obwohl die Inno angeblich leiser und kühler läuft.

* die 80er war großartig

creative2k

Phase 2.5
Avatar
Registered: Jul 2002
Location: Vienna
Posts: 8288
Zitat aus einem Post von Roman
Inno3d ist kein Glump. Die sind halt nicht so gehyped wie eine ASU’s ROG Strix oder MSI Gaming Z oder EVGA K1ngp1n oder Gigabyte Aorus.
Sind aber auch erst seit Rive TNT Zeitn dabei also gebt’s dem noch a bissl Zeit.

Kann man kaufen.

Warum soll die kein Klump sein? Ja schön entspricht den „Standards“, aber im Vergleich zu allen andern Karte miese VRMs, niedriges PWR Limit usw.

Also für mich ist eine Karte schon Klump wenn sie alle anderen in der Qualität unterbietet :p

Kann man sie kaufen? Ja klar. Will sie jeder kaufen? #doubt.

Wenn ich schon so viel Geld ausgebe dann kann ich auch gleich paar mehr Euro in gutes Design investieren.


Edit. Ok sorry von PNY und Gigabyte gibts auch „Klump“ Karten :p
Bearbeitet von creative2k am 01.02.2023, 17:39

Bender

don`t jinx it
Avatar
Registered: Apr 2001
Location: Here..
Posts: 4939
Die Karte ist möglicherweise mistig. Sie wird für 30 Tage gequält und wenn sie versagt -> back 2..
Schaun wir mal.

Und das "Unterbieten" ist per Design und gewollt.
Eine 4090er untertakten wird trotzdem spassig.

OC war nicht einmal angedacht -> 650W Netzteil ;)

aja.: eine wichtige Anforderung war - 3 slots only
Bearbeitet von Bender am 01.02.2023, 17:50

Jedimaster

Here to stay
Avatar
Registered: Dec 2005
Location: Linz
Posts: 2459
Mutig :D

Bender

don`t jinx it
Avatar
Registered: Apr 2001
Location: Here..
Posts: 4939
Eigentlich nur faul.
Wenns nicht geht @ Max Power, geht entweder die Karte und/oder das Netzteil zurück/in Rente.

Die 4080er konnte ich mit 110% und bis zu 370 Watt quälen ohne Ende.
Furmark und Prime95 parallel.

Sollte also kein Problem sein.

Bender

don`t jinx it
Avatar
Registered: Apr 2001
Location: Here..
Posts: 4939
Die 4090er kommt nur ganz selten über 350 Watt @ Stock CPU und +1300 Mem.
Eigentlich nur bei Port Royale und CP77.

Da ich sie mit höchsten 70-90% betreiben werde, mehr ist völlig sinnlos, selbst @ 4k (-3%) mach ich mir wirklich keine Sorgen

..hab mir das lange und gut überlegt..
OC frisst nur sinnfrei Strom, für so gut wie keinen spürbaren benefit

>Der Süßpunkt der 90er liegt (ang.) bei ca. 300 Watt. Bei der 80er waren es um die 260 Watt.
Wird man alles austesten müssen, bis das Netzteil verglüht, (oder nicht) ;)
Bearbeitet von Bender am 01.02.2023, 18:11

WONDERMIKE

Administrator
kenough
Avatar
Registered: Jul 2001
Location: Mojo Dojo Casa H..
Posts: 10505
Wenn bei Bender in den Spielen die übertaktete 4080 keine Probleme gemacht hat, dann wird das Netzteil die 4090 auch noch irgendwie dablasen. Die Leute sind vom Sen­sa­ti­o­nalis­mus rund um die TDP der 4090 imo übertrieben eingeschüchtert. Lastspitzen wie bei den Top Karten der letzten Generation sind auch bei weitem weniger wild.

Bender

don`t jinx it
Avatar
Registered: Apr 2001
Location: Here..
Posts: 4939
So, Karte mal schnell eingebaut und Port Royale/77 stressgetestet.

Geht mit +230 GPU und +1240 MEM ohne Absturz. Waren aber nur knapp 10 Durchläufe.
Stromverbrauch liegt um lächerliche 20 Watt höher (370Watt) als die 4080er @ 110%. Gesamt Systemverbrauch bleibt noch recht deutlich unter 600W.
Prime 95 lass ich aber erst dann parallel laufen, wenn ich den Laptop dabei habe. Falls das Ding abraucht. :D

Schaut gut aus bis jetzt. Muss die City aber schon wieder verlassen.

Bender

don`t jinx it
Avatar
Registered: Apr 2001
Location: Here..
Posts: 4939
So, endlich wieder zurück und Zeit für GTA5 @ 8k.

Selbe Einstellung wie die 4080er, also alles maxed out, nur Msaa auf 4x. Bei 8x ging der 80er der Speicher (17,2GB) aus und es gab Mikroruckler.

Bei diesen Pixelmenge fühlt sich das Monster erst so richtig wohl.
31 vs 46fps.
Der Stromverbrauch ist auch fast lächerlich "niedrig" mit etwas über 300* Watt.

Hätte man die 90er als 300(-350) Watt Karte vermarktet und minimal niedriger getaktet und bestromt, wäre das nicht einmal gelogen gewesen.
Man kann sie natürlich auch maximal ineffizient bei 500-600 Watt betreiben, bei 10(?)% mehr Leistung.
Fürs Benchmarken natürlich nett, ansonsten eher - naja - nicht so klug, um es mal vorsichtig auszudrücken. ;)


*an die 400 - hätte mich auch sehr gewundert - hab den Chip Draw ausgelesen statt den des Bretts - silly me
Bearbeitet von Bender am 07.02.2023, 18:23

Sagatasan

Here to stay
Registered: Dec 2005
Location: Wernberg Hills
Posts: 1817
womit liest du den stromverbrauch der grafikkarte aus??
GPU-Z zeigt ja mehrere werte an - muss man da mehrere werte zusammenzählen um auf den korrekten verbrauch zu kommen?
Kontakt | Unser Forum | Über overclockers.at | Impressum | Datenschutz