"Christmas - the time to fix the computers of your loved ones" « Lord Wyrm

RX6800XT - Hell Let Loose

FearEffect 01.07.2022 - 16:58 6088 29
Posts

SoldierBeast

Big d00d
Avatar
Registered: Sep 2003
Location: Perchtoldsdorf
Posts: 168
manchal hilft generell wechsel zu frameless windowed mode oder wieder zurück auf fullscreen

sonst kann ich den enterprise driver empfehlen, kann das gleiche, scheint nur wesentlich fehlerfreier zu sein https://www.amd.com/en/support/kb/r...n-pro-win-21-q4

hab lange mit meiner auf LC gemoddeten Vega 64 gekämpft, seitdem ich den enterprise verwende, alle spiele super-smooth ohne probleme

Jedimaster

Here to stay
Avatar
Registered: Dec 2005
Location: Linz
Posts: 2553
Scheint so als ob VLC Player einfach verhindert das diverse Energiesparfunktionen greifen ?

Nochmals bezüglich des Spiels, ich hab explizit wegen SINGLECORE gefragt weil nunmal 98% aller Spiele einen oder vielleicht zwei Kerne nutzen. Das sich der 3600er Ryzen 'langweilt' liegt daran das er halt 6 Kerne + 6 virtuelle Kerne hat :) Wenn die CPU - Auslastung gesamt bei 10% liegt mag das bedeuten 'jo der CPU als gesamtes ist fad, allerdings läuft 1 kern für das game auf 100% und kann halt nicht mehr'

Hatte das Erlebnis mit Black Desert Online, Rust und einigen anderen Spielen. Ryzen 3700x wird von nem 5600G sowas von dezimiert (bei manchen Games doppelte FPS) einfach weil die Singlecore-Leistung wesentlich höher ist. Die Anzahl der Kerne ist für Spiele sehr relativ ...

xtrm

social assassin
Avatar
Registered: Jul 2002
Location:
Posts: 11916
Zitat aus einem Post von Jedimaster
Nochmals bezüglich des Spiels, ich hab explizit wegen SINGLECORE gefragt weil nunmal 98% aller Spiele einen oder vielleicht zwei Kerne nutzen.
Das ist aber mal sowas von falsch, dass es nicht mehr lustig ist ;). Da bist du 10 Jahre in der Vergangenheit gerade.

Jedimaster

Here to stay
Avatar
Registered: Dec 2005
Location: Linz
Posts: 2553
Unity engine ist das Beispiel par excellence.

FearEffect

Here to stay
Avatar
Registered: May 2003
Location: Oberösterreich
Posts: 6020
ok also ich werde mal das mit dem VLC probieren (auch wenn ich immer noch glaube, du willst mich bissl ********en :D )

Und dass die Radeon Pro Treiber einfach mal so besser sein sollen - bei fast gleicher Performance ist halt auch wieder so komisch.
Probieren kann ichs aber, mir verstellts sowieso Random immer die "Tuning-Presets", vor allem wenn der Treiber wieder mal abschmiert.

erlgrey

formerly known as der~erl
Registered: Aug 2002
Location: Wien
Posts: 4371
vermutlich cpu limit, gibt genug spiele wo das der fall ist.

SoldierBeast

Big d00d
Avatar
Registered: Sep 2003
Location: Perchtoldsdorf
Posts: 168
bzgl. der pro driver
da kommt viel seltener ein neuer raus, max 1 pro quartal
d.h. viel weniger bugs
und ich schätze sie müssen viel mehr wert auf den support älterer hardware legen

bei den normalen drivern gehts ja immer nur um die neusten features, spiele

Garbage

Administrator
The Wizard of Owls
Avatar
Registered: Jul 2000
Location: GR.ch|TI.ch
Posts: 11229
Ist halt so wie die NVIDIA Studio Treiber auf Stabilität und Anwendungen optimiert, dafür eben nicht ständig Updates für die neuesten Spiele.

ENIAC

Do you Voodoo
Avatar
Registered: Sep 2003
Location: Klosterneuburg
Posts: 1745
Zitat aus einem Post von xtrm
Das ist aber mal sowas von falsch, dass es nicht mehr lustig ist ;). Da bist du 10 Jahre in der Vergangenheit gerade.
So Easy Peasy Lemon Squeezy wie du tust würde ich das aber auch nicht abtun ;)

Klar hat sich auf dem Multikern Sektor, vor allem bei Spielen, einiges getan in den letzten 10 Jahren.
Aber ich werfe mal 2 Stichwörter in die Runde: Parallelisierung und Echtzeitberechnung...

Du darfst den Zeitfaktor nie aus den Augen lassen!
Vor allem in Spielen hast du es mit zeitkritischer Ursache<->Wirkung zu tun.
Zum Beispiel bei einem FPS.
Meine Spielfigur drückt ab und auf der anderen Seite fällt der Gegner instant um - hoffe ich mal... :D

Man kann natürlich auf mehrere Kerne auslagern und gleichzeitig rechnen. Die Frage wird nur sein: Wann wird das Ergebnis gebraucht bzw. erwartet? Müssen bzw. wie lange müssen die verschiedenen Jobs und deren Ergebnisse aufeinander warten...
Da ist es, von der Programmlogik her, sicher einfacher zeitkritische Jobs auf einem Kern mit höherer Single Core Performance laufen zu lassen als diese parallel abzuarbeiten und danach, zeitgerecht, zusammenzuführen.

Ob nun groß parallelisiert werden kann oder nicht hängt vermutlich stark vom eigentlichen Spiel ab.
Ein Runden basierendes Spiel kann man sicher einfacher auf mehrere Kerne auslagern. Aber einen FPS oder gar eine ernst zu nehmende Simulation, wie z.B. den Flusi 2020, wohl eher nicht.
Das hat uns ja auch schon unser Forums-Flieger Dune gezeigt, dass der Flusi 2020 schön mit Mhz und Singlecore Perf. skaliert. Klar, der Flusi ist auch nicht optimiert um auf vielen Kernen zu laufen. Was wahrscheinlich auch mit der Schwierigkeit zusammenhängt, eine Simulation auf mehreren Kernen zu berechnen. ;)

Ich bin kein Programmierer aber ich habe schon von so vielen Seiten gehört, dass Echzeit Parallelisierung die Hölle ist :D :D

Somit bin auch ich der Meinung, dass SingleCore Leistung immer wichtig sein wird. Vor allem in Spielen!

Und um auch noch etwas zum eigentlichen Topic bezutragen:
Der beste Indikator ist wahrscheinlich die GPU Auslastung. Ist die nicht dauerhaft bei 99-100%, wie es beim Threadersteller zu sein scheint, bremst die CPU. So einfach ist das. :cool:

Aber solange das Game nicht dropped und flüssig spielbar ist, würde ich mir diesbezüglich keinen Kopf machen!

xtrm

social assassin
Avatar
Registered: Jul 2002
Location:
Posts: 11916
Du lässt hier eines außer Acht: es gibt in einer Spielwelt sehr sehr viele Objekte, die parallel berechnet werden müssen. Du hast nicht nur einen Charakter der genau eine Sache macht, du hast unzählige Dinge, die live berechnet werden müssen und das andauernd. Nur als Beispiel: Multiplayer-Spiel mit einer großen map und 64 Spielern - viel Spaß!

Die Parallelisierung übernimmt dabei die Engine und Engines werden meistens für viele Spiele genutzt, kaum ein Entwickler macht eine eigene Engine für sein Spiel (gibt's natürlich, würde ich aber als Ausnahme bezeichnen). Heutige Engines sind dafür ausgelegt und nachdem aktuelle Konsolen 8-Kern CPUs haben, werden 8 Kerne auf absehbare Zeit das Optimum bei Spielen bleiben.

Und nur weil die Single Core Leistung nach wie vor sehr wichtig ist, heißt das nicht, dass man deswegen nur 1-2 Kerne braucht. Viele Spiele starten heutzutage mit zwei Kernen bzw. Threads nicht einmal mehr und selbst mit vier Threads hat man enormen Leistungsverlust. Ab acht Threads ist man in einem Bereich, wo man schon relativ knapp an der maximalen Leistung dran ist - aber dabei darf man nicht vergessen, dass normalerweise neben dem Spiel noch viele weitere Dinge laufen, wie zum Beispiel ein Browser mit eventuell einem Video von YT, Musik, Discord, und so weiter. Lange Rede kurzer Sinn: doch, es ist so "Easy Peasy Lemon Squeezy" ;).

Jedimaster

Here to stay
Avatar
Registered: Dec 2005
Location: Linz
Posts: 2553
Schade nur das das einzige was üblicherweise wirklich Leistung braucht die Grafikrenderpipeline ist ... wo sich die 64 hansln koordinatenmäßig auf der Map befinden hat damals schon ein singlecore Athlon in Battlefield 1942 packt - und nebenbei auf dem selben Kern noch die Grafik mitgemacht ;)

Tldr - bis auf wenige Ausnahmen (zb. Civilization) ist die Render-Engine das was die meiste CPU-Power in Games benötigt. Schön wenn die anderen 1-15 Kerne was zu tun haben aber ausgelastet ist sicher keiner so sehr wie der Kern der für die Darstellung zuständig ist (neben der GPU natürlich).

Wie ENIAC sehr richtig gesagt hat: Ist die GPU nicht auf Vollast ist das Limit die CPU (oder eine Einstellung wie VSync oder limitfps). Bugs oder Configprobleme sind natürlich nie ausgeschlossen ... (zb. Graka wird warum auch immer nur mit PCI 1x angesprochen oder es läuft irgendein kompatibilitätsmodus, ...)

InfiX

she/her
Avatar
Registered: Mar 2002
Location: Graz
Posts: 13731
das einzige spiel das ich kenn das es schafft alle kerne effektiv auszulasten is Cyberpunk, k.a. warum das andere nicht schaffen.

xtrm

social assassin
Avatar
Registered: Jul 2002
Location:
Posts: 11916
Soweit ich mich erinnern kann, war Battlefield 4 eines der ersten Spiele, das mehr als 4 CPU Threads ordentlich nutzen konnte und wo es auch Sinn machte. Mittlerweile gibt es diverse davon, von PUBG (Unreal Engine 4) weiß ich z.B., dass es 8 Threads komplett nutzen kann - nur verteilt es die Last eben auf alle vorhandenen Threads, was heutzutage oft mehr als 8 ist.

Bender

Banned by Moderators
Avatar
Registered: Apr 2001
Location: Here..
Posts: 4980
Zitat aus einem Post von InfiX
das einzige spiel das ich kenn das es schafft alle kerne effektiv auszulasten is Cyberpunk, k.a. warum das andere nicht schaffen.

77 ist auch das einzige bzw eines von sehr wenigen Spielen, das aus einem 5950er noch echte Vorzeile ziehen kann laut diverser Benchmarks. Speziell unter Raytracing..

So schlecht kann die Engine also nicht sein. Umso mehr schade, als man für den nächste Hexer auf Unreal wechselt.

Jedimaster

Here to stay
Avatar
Registered: Dec 2005
Location: Linz
Posts: 2553
Battlefield 1 schaffts auch ... war damals ja beim ersten Ryzen DAS Demospiel weil halt alle Kerne genutzt wurden ...

Ich vermute mal das die Renderengine hier einfach Teilbilder rendert die dann zusammengesetzt werden ? Ka, das letzte mal das ich mit Direct 3D herumgebastelt hab ist 15 Jahre her ;)

Punkt ist - ja es gibt Games die effektiv Multithreading nutzen, aber nein es ist bei weitem noch nicht standard.
Kontakt | Unser Forum | Über overclockers.at | Impressum | Datenschutz