"Christmas - the time to fix the computers of your loved ones" « Lord Wyrm

AMD Radeon RX 6000-Serie Sammelthread

WONDERMIKE 16.06.2020 - 12:24 257883 1358 Thread rating
Posts

sk/\r

i never asked for this
Avatar
Registered: Dec 2002
Location: oö
Posts: 10585
jetzt is halt die frage wer sich ernsthaft eine 3080 für einen 1080p monitor mit 60hz kauft.
ich glaub da sind wir auf alle fälle im einstelligen %-bereich.
da fährst mit einer gebrauchten 2080 oder später 3070 sicher besser.

shad

und des is des
Avatar
Registered: Oct 2007
Location: Vienna
Posts: 3788
klar bist mit was anderm besser dran, mir gings nur darum das die 320W ned immer voll ausgenutzt werden (kommt halt drauf an :D)

gibt sicher genug wache die sich für fhd so ne karte kaufen

Viper780

Moderator
Er ist tot, Jim!
Avatar
Registered: Mar 2001
Location: Wien
Posts: 48757
Wie gut der Samsung Prozess ist wissen wir nicht. Es fehlt komplett ein Vergleich und Einblick.

Durch die starke Geheimhaltung bei AMD rechne ich nicht mit (auseinander) Verfügbarkeit beim Start.
Ich hoff aber auf einen Termin.

Dune

Here to stay
Registered: Jan 2002
Location: Wien
Posts: 9486
Zitat aus einem Post von sk/\r
da fährst mit einer gebrauchten 2080 oder später 3070 sicher besser.

Ich glaub sogar bis inkl. 1440p warad die 3070er der bessere Move

JDK

Oberwortwart
Avatar
Registered: Feb 2007
Location: /etc/graz
Posts: 2737
Das "AMD liefert besser, günstiger und mehr RAM" ist einfach Wunschdenken. Ich wünsch es mir ja auch, aber so ein Kaffeesudlesen bringt halt nichts.
Ja, wir sind alle schon spitz wie Nachbars Lumpi auf den 8. und 28. (?) Oktober, aber man sollte die Erwartungen nicht zu hoch schrauben. Ich persönlich bin schon froh, wenn AMD ein gleichklassiges High End Produkt zum gleichen Preis bringen kann. Alles andere wäre purer Bonus wenn man auf die letzten Jahre zurückblickt.

MaxMax

Here to stay
Registered: Jul 2001
Location: Wien
Posts: 1913
hat eigentlich jemand von euch die PS5 präsentation gesehen, wo sony am ende den preis und erscheinungsdatum nannte? weil da sah man ja einige spiele mit raytracing on, und imho haben die szenen, wo viele spiegelungen/beleuchtungen etc waren, deutlich "unrunder" von den fps her gewirkt, als die sonstigen kamerafahrten in den spielen...?
Bearbeitet von MaxMax am 03.10.2020, 21:26

sk/\r

i never asked for this
Avatar
Registered: Dec 2002
Location: oö
Posts: 10585
Zitat aus einem Post von Dune-
Ich glaub sogar bis inkl. 1440p warad die 3070er der bessere Move

jein. kommt drauf an was du willst und wie groß dein geldbeutel ist. :D
wenn der monitor neben der Auflösung noch 144hz oder mehr schafft und es zumindest a bissl zukunftssicher sein soll wär eine 3080 eine überlegung. oder später 3070ti. vorausgesetzt die ti hat mehr vram.
aber grundsätzlich hast du sicher recht. besser aktuelle gen als letzte gen.

Dune

Here to stay
Registered: Jan 2002
Location: Wien
Posts: 9486
Zitat aus einem Post von MaxMax
hat eigentlich jemand von euch die PS5 präsentation gesehen, wo sony am ende den preis und erscheinungsdatum nannte? weil da sah man ja einige spiele mit raytracing on, und imho haben die szenen, wo viele spiegelungen/beleuchtungen etc waren, deutlich "unrunder" von den fps her gewirkt, als die sonstigen kamerafahrten in den spielen...?

Wie geht das mit AMD Karte?

Dreamforcer

New world Order
Avatar
Registered: Nov 2002
Location: Tirol
Posts: 8892
software based ?

WONDERMIKE

Administrator
kenough
Avatar
Registered: Jul 2001
Location: Mojo Dojo Casa H..
Posts: 10505
Zitat aus einem Post von Dune-
Wie geht das mit AMD Karte?

Das geht weil hardwarebeschleunigtes RT in DX12 Ultimate als DXR Tier 1.1 enthalten ist.

Unabhängig davon kann man es auch so realisieren. Der Crysis Remaster hat zB Software RT in der Cryengine und es läuft auf PS4/Xbox/PC ohne einer Nvidia Karte.

Die Frage ist immer wie gut die Hardware das am Ende hinbekommt. Laut Gerüchten soll AMD da zwischen Turing und Ampere liegen.

Zitat aus einem Post von MaxMax
hat eigentlich jemand von euch die PS5 präsentation gesehen, wo sony am ende den preis und erscheinungsdatum nannte? weil da sah man ja einige spiele mit raytracing on, und imho haben die szenen, wo viele spiegelungen/beleuchtungen etc waren, deutlich "unrunder" von den fps her gewirkt, als die sonstigen kamerafahrten in den spielen...?

Weiß man auf welcher Hardware das genau lief? iirc war da ja ein PC im Einsatz statt einer PS5.

Römi

Hausmeister
Avatar
Registered: Feb 2001
Location: Bez. Tulln
Posts: 5224
Zitat aus einem Post von WONDERMIKE
Wieso nicht effizienter? Nvidia ist jetzt die Ausgeburt der Ineffizienz auf der schlechteren Samsung Node und bei AMD werden 250-300 Watt gemunkelt.

Halte ich für nicht korrekt. Laut https://www.computerbase.de/2020-09...tx-3080-test/6/ bei gleichem Verbrauch 25% mehr fps als Turing (2080ti). Also auch wenn man jetzt davon ausgeht dass 8nm schlechter ist, AMD würde ich da von haus aus keinen großen Vorteil zusprechen.

Weinzo

Become like water
Avatar
Registered: Oct 2000
Location: 4621
Posts: 5020
interessant wär halt auch noch zu wissen, wie die 2080Ti mit undervolt laufen würde....

MaxMax

Here to stay
Registered: Jul 2001
Location: Wien
Posts: 1913
also das die ampere effizienter als turing arbeitet, ist eigentlich glasklar. das nv aber den sweetspot der gpu mit 320/350W überschritten hat, ist leider auch richtig :/

Bender

don`t jinx it
Avatar
Registered: Apr 2001
Location: Here..
Posts: 4941
Warum man Ampere dermaßen an/über der Kotzgrenze bewegt erschließt sich mir nicht ganz.
4-5% weniger Leistung bei akzeptablerem Verbrauch wäre für alle besser gewesen.

Scheinbar wollte NV für ihre ARM Akquisition möglichst gut dastehen - sprich die längst-möglichen Balken zeigen, welcher sich nach der Präsentation auch positiv auf den Kurs ausgewirkt hat.

Für uns Kunden natürlich Gift - speziell die Krüppelkarten mit 8/10.

add.: Big Navi Die shot ?

https://www.youtube.com/watch?v=Fe1xycgVVyM

xtrm

social assassin
Avatar
Registered: Jul 2002
Location:
Posts: 11893
Man sieht es anhand der 3090 gut, welche effizienter ist als die 3080, weil sie etwas niedriger taktet. Man wollte bei der 3080 anscheinend einen spezifischen Punkt treffen.
Kontakt | Unser Forum | Über overclockers.at | Impressum | Datenschutz