AMD Quad-Core bereits 2007

Seite 1 von 4 - Forum: Prozessoren auf overclockers.at

URL: https://www.overclockers.at/prozessoren/amd_quad-core_bereits_2007_157360/page_1 - zur Vollversion wechseln!


Zaphod schrieb am 28.01.2006 um 01:06


Yankee schrieb am 28.01.2006 um 01:54

scheinbar sinds bei den fertigungsprozessen bzw. mit der technologie schon hart am limit des machbaren.
sonst würdens nicht auf leistungssteigerung durch multikern architektur setzen...


COLOSSUS schrieb am 28.01.2006 um 01:59

"make -j9", ich komme! :D


daisho schrieb am 28.01.2006 um 02:03

Die Frage ist nur wegen der Software.
Afaik wird es ja pro Core immer komplizierter für Programmierer ( wenn mehrere Cores für ein Programm arbeiten sollen ) oder?


COLOSSUS schrieb am 28.01.2006 um 02:30

Jein - der "schwierigste" oder kritischste Schritt ist wohl der von 1 auf n Cores (weil manche Probleme schwer oder ueberhaupt nicht parallelisierbar sind). Hat man jetzt 4 Cores zur Verfuegung statt 2, kann das OS mehr Prozessen und/oder Threads "exklusiver" ungeteilte Rechenzeit auf einigen Kernen zur Verfuegung stellen. Bloed halt, wenn man sein Programm in sagen wir drei Threads (Audio, Video, Logik oder sowas) aufgeteilt hat, dann aber ploetzlich z. B. 8 CPUs zur Verfuegung stehen - das kostet relativ zur theoretischen Gesamtperformance des Systems natuerlich sehr viel (in dieser Applikation eben nicht nutzbarer, aber fuer was Anderes verfuegbare) Rechenleistung.

Der zu erwartende bemerkbare Performanceschub ist also nicht so stark wie beim Sprung von einem auf zwei Kerne. Ueberhaupt: Ich habe kuerzlich Benchmarks zu SMP/NUMA-Loesungen unter verschiedensten OS gesehen; der Linux-Kernel (2.6) zum Beispiel (der im Vergleich zu anderen OS extrem gut skaliert) steigert sich von 4 auf 8 CPUs kaum noch merklich, Windows verliert sogar im einstelligen Prozentbereich.

Zumindest mit heute gaengiger Programmierpraxis - und aufgrund fundamentaler mathematischer Probleme innerhalb der Informatik - wird diese "wir hau'n einfach mehr Core auf den Carrier"-Mentalitaet auch nicht der Weisheit letzter Schluss sein.


GATTO schrieb am 28.01.2006 um 12:15

Kann es sein das Microsoft genau deswegen schon am Nachfolger zu Vista bastelt??
Rein logisch könnte man ja alles auch auf 8 Threads ausweiten.. z.B.bei Videoprocessing würd ich mir das praktisch vorstellen:
eine CPu rein für Windows und Hardware, 2. für Audio, die weiteren für resizing, je eien für jeden weiteren filter und den rest fürs eigentliche encoden.
Wäre zwar dann maximal so schnell wie der langsamste filter aber dennoch schneller wie wenns auf einer Core hintereinander gemacht wird.

MFG
GATTO


t3mp schrieb am 28.01.2006 um 13:08

Dann wird wohl endlich das Zeitalter des ZETA-OS anbrechen...? :p

@GATTO: Microsoft arbeitet aus den selben Gründen am Nachfolger von Vista wie ATI schon längst am "RV600" und Nvidia am "G80" arbeiten, das ist ganz normal und lässt besonders im Falle von Microsoft nicht auf besonders außergewöhnliche Revolutionen schließen.


xdfk schrieb am 28.01.2006 um 13:19

Zitat von GATTO
Kann es sein das Microsoft genau deswegen schon am Nachfolger zu Vista bastelt??
Rein logisch könnte man ja alles auch auf 8 Threads ausweiten.. z.B.bei Videoprocessing würd ich mir das praktisch vorstellen:
eine CPu rein für Windows und Hardware, 2. für Audio, die weiteren für resizing, je eien für jeden weiteren filter und den rest fürs eigentliche encoden.
Wäre zwar dann maximal so schnell wie der langsamste filter aber dennoch schneller wie wenns auf einer Core hintereinander gemacht wird.

MFG
GATTO

noch viel einfacher: die cpus rendern zeitlich versetzt jeweils eine sequenz des gesamten films. wuerde bis ins unendliche skalieren(theoretisch) ;)

bei echtzeit anwendungen ist es aber schon schwieriger.

ich bin jetzt mit dem make -j2 schon absolut happy am neuen imac :)


daisho schrieb am 28.01.2006 um 13:30

Der neue mit dem Intel CoreDuo? Dann hast aber -j3 :p


MrBurns schrieb am 30.01.2006 um 02:16

Zitat von Yankee
scheinbar sinds bei den fertigungsprozessen bzw. mit der technologie schon hart am limit des machbaren.
sonst würdens nicht auf leistungssteigerung durch multikern architektur setzen...

Das denk ich auch.

Die leistungssteigerungen inzwischen 2003 udn 2006 waren ja auch viel geringer als zwischen 2000 und 2003...


MrBurns schrieb am 30.01.2006 um 20:51

Zitat von COLOSSUS
Jein - der "schwierigste" oder kritischste Schritt ist wohl der von 1 auf n Cores (weil manche Probleme schwer oder ueberhaupt nicht parallelisierbar sind). Hat man jetzt 4 Cores zur Verfuegung statt 2, kann das OS mehr Prozessen und/oder Threads "exklusiver" ungeteilte Rechenzeit auf einigen Kernen zur Verfuegung stellen. Bloed halt, wenn man sein Programm in sagen wir drei Threads (Audio, Video, Logik oder sowas) aufgeteilt hat, dann aber ploetzlich z. B. 8 CPUs zur Verfuegung stehen - das kostet relativ zur theoretischen Gesamtperformance des Systems natuerlich sehr viel (in dieser Applikation eben nicht nutzbarer, aber fuer was Anderes verfuegbare) Rechenleistung.

Der zu erwartende bemerkbare Performanceschub ist also nicht so stark wie beim Sprung von einem auf zwei Kerne. Ueberhaupt: Ich habe kuerzlich Benchmarks zu SMP/NUMA-Loesungen unter verschiedensten OS gesehen; der Linux-Kernel (2.6) zum Beispiel (der im Vergleich zu anderen OS extrem gut skaliert) steigert sich von 4 auf 8 CPUs kaum noch merklich, Windows verliert sogar im einstelligen Prozentbereich.

Zumindest mit heute gaengiger Programmierpraxis - und aufgrund fundamentaler mathematischer Probleme innerhalb der Informatik - wird diese "wir hau'n einfach mehr Core auf den Carrier"-Mentalitaet auch nicht der Weisheit letzter Schluss sein.

ich glaub da Problem liegt weniger in den Mathematisschen problemen selbst sondern eher daran, dass die heutigen Programme nicht für 8 Cores programmiert sind.

Der Cell-Prozessor der PS3 profitiert ja auch stark von den 8 Kernen, weil die PS3-Spiele halt speziell für 8 Threads programmiert sind...


Agens schrieb am 31.01.2006 um 10:02

Kann dem nur zustimmen:
Entweder die Programme werden angepasst dass sie mit mehreren Thread rennen oder man bekommt es irgendwie hin, dass ein Betriebssystem einen Thread nicht nur auf einer CPU laufen lassen kann (selbst wenn dann Vorteile durch Cache wieder wegfallen und ich keine echte Vorstellung hab wie das gehen sollte :D )...


quad-prozzi-fan schrieb am 31.01.2006 um 20:45

Wenn sie jetzt an die Grenzen der Machbarkeit im Single-Core bereich gestoßen sind, wieso sind die dann nicht ganz eifrig drann, dass sie was komplett neues entwickeln?

Ich weiß ist so einfach dahin gesagt und ist sicher verdammt schwer aber irgentwas müssen sie sich doch einfallen lassen, sonst sama irgentwann soweit, dass ma 20 Cores auf einem Chip ham der ziehmli groß ist und wir die Cores aber net nutzen können weil es keine gscheite Software dazu gibt!

Aber Quad-Core hört sich schon cool an und ich hoff echt das die Software das zukünftig nutzen kann.

Kann man eigetlich abschätzen wie teuer so eine Quad-Core Cpu sein wird?

lg dual-prozzi-fan


that schrieb am 31.01.2006 um 20:51

Das meiste, was viel Rechenleistung braucht, passiert in Schleifen, und das lässt sich bei entsprechender Programmierung in vielen Fällen parallelisieren.

Aber es erfordert ein Umdenken bei der Softwareentwicklung. Hier ist ein netter (wenn nicht sogar "der") Artikel zu diesem Thema:
http://www.gotw.ca/publications/concurrency-ddj.htm


I__rObOt schrieb am 31.01.2006 um 23:00

bin mal auf die abwärme von 4 cores gespannt:rolleyes:




overclockers.at v4.thecommunity
© all rights reserved by overclockers.at 2000-2024