Details zu Intels Teracore enthüllt
JC 12.02.2007 - 07:57 10035 10
JC
VereinsmitgliedDisruptor
|
Bereits im Jänner haben einige Neuigkeiten im Bezug auf Intels Teracore-Architektur den Weg in die Medien gefunden. Die Kollegen von AnandTech haben nun weiterführende Informationen zu diesem Thema - direkt von der International Solid-State Circuits Conference (ISSCC). Das große Problem der mangelnden Bandbreite, das sich bereits bei heutigen Multicore-CPUs zeigt und beim Spring IDF 2005 erstmals angesprochen wurde, steigt mit jedem zusätzlichen Kern, der seinen Weg auf den Chip findet. Intels Lösungsansatz benötigt dazu weder schnelleren Speicher noch höhere Busgeschwindigkeiten oder zusätzlichen Cache. » Beitrag lesen
|
Starsky
Erdbeeren für ALLE!
|
soll lga 1248 nicht schon bei nehalem zum einsatz kommen, oder täusche ich mich da jetzt?
|
Ex0duS
Banned
|
imho solltest du das DIE Stacking etwas besser erklähren denn so wies hier steht versteht man genau 0 was damit gemeint sein soll  sie packen die DIEs ja nur übereinander damit sie trotz viel grösserer cache speicher, die die ned all zu sehr vergrössern müssen. d.h. die bandbreite wird durch mehr cache bekämpft ned durch stacking
|
JC
VereinsmitgliedDisruptor
|
Das bedeutet, dass eine CPU zB aus einer CPU-Schicht, einer Speicher(SDRAM)-Schicht und einer weiteren Speicher(Flash)-Schicht bestehen kann, wobei die Schichten dabei übereinander - buzzword: vertical integration - gepackt werden.
Die Stacking ist im Prinzip keine neue Sache. Multi-Chip-Module (MCMs) aka Multi Chip Package (MCP) gibt es nun doch schon seit längerer Zeit. Es gibt dazu kaum etwas zu erklären - Schichtenmodelle gibt es in der IT viele und im Prinzip erklärt sich die Technologie von selbst.
Mehr Cache allein reicht nicht, es geht in diesem Ansatz vordergründig um Bandbreite - die Datenrate steigt, vor allem in Kombination mit optischen Bussen. 80 Cores ständig mit Daten zu versorgen ist ziemlich aufwändig.
|
Hornet331
See you Space Cowboy
|
afaik wird diestacking doch eingendlich dazu benutzt um kosteneffizienter zu arbeiten. Sprich cache und logik kann extra produziert werden. die einzelnen dies sind kleiner und die ausbeute ist höher, als wenn beides auf einem die wäre.
|
Ex0duS
Banned
|
eben aus dem artikel liest man imho nicht heraus das DIE stacking nur verwendet wird um platz = Geld zu sparen  die eigenltich "technik" um der speicherbandbreite herr zu werden ist einfach nur mehr cache schichten einsetzen und die CPUs untereinander besser zu vernetzen (was imho beides keine grossartig neuen dinge sind) Mehr Cache allein reicht nicht, es geht in diesem Ansatz vordergründig um Bandbreite - die Datenrate steigt, vor allem in Kombination mit optischen Bussen. 80 Cores ständig mit Daten zu versorgen ist ziemlich aufwändig. doch wenn du dir den artikel genau durchliest wirst du feststellen das ihr ansatz darin bestehe einfach noch mehr cache und noch mehr cache schichten einzuführen und um diese dann noch halbwegs preisgünstig herstellen zu können benutzen stacking damit der chip "klein" bleibt. die optischen bus systeme sind ein zukunftswunsch von intel um die bandbreite noch mehr zu boosten, aber die "kurzfristige" lösung scheint einfach nur cache cache und nochmal cache zu sein  immerhin redens davon das 1 layer ~256MB cache aufnehmen koennte
Bearbeitet von Ex0duS am 12.02.2007, 11:33
|
JC
VereinsmitgliedDisruptor
|
Klar, ich streite nicht ab, dass bei einem solchen Monster mehr Cache von Nöten ist. Wenn du das aber aufbrichst, hast du pro Core ~3 MB Speicher, was wiederum Cache-Verhältnisse hat. Wobei aber nach wie vor offen ist, wie denn dieser große Cache dann zugeteilt/verwendet wird. In erster Linie geht es aber dennoch um die Geschwindigkeit. Das erlaubt laut Intel-Seite eine Bandbreite von 1TB/s. Ich denke nicht, dass sich das auf einen einzigen Faktor reduzieren lässt. Man wird sich wohl eher auf die gesammelten Vorteile stützen, als einen herauszupicken und diesen breit zu treten
|
Ex0duS
Banned
|
ich meinte damit nur "die stacking" .... ich versteh dein post so das "die stacking" das bandbreitenproblem löst, und das tut es ja nicht wirklich, es ist mehr eine art workaround. imho klingt die intelversion a bissal nach "wir verlagern 50% des RAMS einfach in die CPU  was dann in meinen augen eben nur augenauswischerei ist
|
mat
AdministratorLegends never die
|
tgdaily berichtet ebenfalls darüber: Intel claims that it can scale the voltage and clock speed of the processor to gain even more floating point performance. For example, at 5.1 GHz, the chip reaches 1.63 TFlops (2.61 Tb/s) and at 5.7 GHz the processor hits 1.81 TFlops (2.91 Tb/s). However, power consumption rises quickly as well: Intel measured 175 watts at 5.1 GHz and 265 watts at 5.7 GHz. However, considering the fact that just 202 of these 80-core processors could replicate the floating point performance of today's highest performing supercomputer, those power consumption numbers appear even more convincing: The Department of Energy's BlueGene/L system, rated at a peak performance of 367 TFlops, houses 65,536 dual core processors. http://www.tgdaily.com/2007/02/11/intel_80_core/
|
p44ever
Ed
|
|
Roadrunner
Floating on Water
|
vor etlichen jahren war man der meinung daß nicht mhr als 5 computer weltweit benötigt werden und jetzt redet man bereits davon eine fast dreistellige anzahl an cpukernen in einem einzigen system zu vereinen! goil goil..... immer weiter.... oder, war das schon alles!??? he, he
|