"Christmas - the time to fix the computers of your loved ones" « Lord Wyrm

Conroe- der Killer ;)

tombman 08.03.2006 - 14:02 24199 231 Thread rating
Posts

SYSMATRIX

Legend
Legend
Registered: May 2000
Location: ~
Posts: 5020
Zitat von that
Genau dort sehe ich den Vorteil von JIT-basierten Systemen, die können das auf der Zielmaschine machen. Was sagst du dazu?

alles was mit optimierung zu tun hat sollte nicht vom programmierer (der kann das meistens nur falsch) und nicht von der CPU gemacht werden (die kann das am schlechtesten).

all power to the compiler(oder jitter in dem fall) ist mein motto diesbezüglich, insofern find ich das eine gute sache.

GrandAdmiralThrawn

XP Nazi
Avatar
Registered: Aug 2000
Location: BRUCK!
Posts: 3682
Zitat von SYSMATRIX
Das ist vollkommener BS.

Wirklich? Dann würde also ein Itanium II auf der Stelle jeden 32-bittigen x86 Code (sprich: Zeug unter WinXP), den ich habe schneller ausführen, als ein P4 oder K8? Wenn ja, gebe ich dir recht.

Wenn nein, dann hat er momentan noch am Desktopbereich nichts zu suchen, und gehört dahin, wo es die passende Software für ihn auch gibt (und zwar in naher Zukunft und nicht in 5 Jahren). Oder würdest du dir jetzt einen Itanium II als Workstation hinstellen? Es sei angemerkt, daß ich von Anfang an von der gegenwärtigen Situation gesprochen habe was den Itanium belang, und nicht von zukünftigem Architekturtrend...

btw, was meinst du damit, es gäbe keine Computation Server? Wir betreiben Dual Xeons auf der Uni für wissenschaftliche Berechungen und auch Serverapplikationen (Datenbanken), diese werden bei uns als "Computation Server" bezeichnet....

Nachtrag: Ich bin kein Coder, und interessiere mich auch nicht für Softwareentwicklung. Für mich zählt, daß die Binaries (Sprich: Videoschnittsoftware, Photopaint, Spiele, etc.) schnellstens laufen, und daß der Architekturumstieg (falls nötig) stufenlos vonstatten geht. Solang das nicht gegeben ist, steht die Sache für mich nicht zur Debatte?
Bearbeitet von GrandAdmiralThrawn am 10.03.2006, 21:53

SYSMATRIX

Legend
Legend
Registered: May 2000
Location: ~
Posts: 5020
Zitat von GrandAdmiralThrawn
Wirklich? Dann würde also ein Itanium II auf der Stelle jeden 32-bittigen x86 Code (sprich: Zeug unter WinXP), den ich habe schneller ausführen, als ein P4 oder K8? Wenn ja, gebe ich dir recht.
wie soll er denn das anstellen? das is ja technisch nicht möglich.




Zitat von GrandAdmiralThrawn
btw, was meinst du damit, es gäbe keine Computation Server? Wir betreiben Dual Xeons auf der Uni für wissenschaftliche Berechungen und auch Serverapplikationen (Datenbanken), diese werden bei uns als "Computation Server" bezeichnet....
ja, auf der uni wird sowas sicher gemacht :) [weils dort nicht anders geht]

aber es ist nicht die regel ein system zu habn welches scientific computing macht und dabei database workloads auch abzuarbeiten hat. dir brauch ich das sicher nicht zu sagen, aber server haben jede menge disk space und I/O leistung und dergleichen. computational nodes brauchen nur schnell zu rechnen usw. ...

GrandAdmiralThrawn

XP Nazi
Avatar
Registered: Aug 2000
Location: BRUCK!
Posts: 3682
Zitat von SYSMATRIX
wie soll er denn das anstellen? das is ja technisch nicht möglich.

Das war es, was ich andeuten wollte. Damit wird die Sache rein hypothetisch, weils einfach die Software nicht gibt! Sprich: Hier und jetzt kann ich die CPU gar nicht einsetzen (für mein Anwendungsgebiet halt), den Conroe aber schon.

Die beste CPU ist nur dann die beste CPU, wenn auch die ganze Software drauf rennt, die ich brauche, oder meinst nicht? Intel meinte ja selbst ein Mal, man sollte die 64-Bit Applikationsentwicklung nicht zu sehr auf IA32e (oder x86-64, EMT64, wie auch immer mans nennt) einschießen, weil der Itanium die Zukunft im 64-Bit Sektor sein wird, und die XEONs bald brachial ablöst (was nicht dem originalen Intel Wortlaut entspricht, rofl). Aber was bringts, wenn XEONs die "billige Masse" ausmachen...

Als Anwender ists mir - ganz ehrlich gesagt, wie ignorant das auch für dich klingen mag - völlig wurscht, wie gut die CPU ist, wenns noch 5 Jahre dauert, bis ich sie in meinem Bereich einsetzen kann. Ich würd den Itanium II gern Mal Matlab gegen eine unserer XEON Kisten rechnen sehen, aber die einzige Itanium II Kiste an unserer Uni hat der ZID in seinen Krallen, und die verkaufen jede einzelne Rechenstunde auf dem Ding für CASH an die Institute, rofl...

Viper780

Moderator
Er ist tot, Jim!
Avatar
Registered: Mar 2001
Location: Wien
Posts: 48757
Zitat von SYSMATRIX
Verwendest du die Maschinen die im roten Bereich des (TU)ZID sind?

Nein bin auf der hauptuni, haben aber da kleine P4 cluster direkt am institut, bzw. mehrere arbeitsgruppen haben welche.

und sonst schrödinger Cluster.

habe aber auch Privat zugriff auf das ganze HP computing zeugs auf der Uni Linz, neben einer nicht verwendeten Altrix die fürs Austrian Grid angeschafft wurde das aber jetzt wieder schlafen gelegt wurde. (daher auch meien itanium erfahrungen)

Zitat von SYSMATRIX
HT ist eine sehr gute Möglichkeit die latencies der pipline statistisch gesehen zu maskieren. Daß die Netburst basierenden Maschinen das wesentlich notwendiger haben als die 12-13 stages Conroes&Co ist auch klar. Aber HT ist im allgemeinen nicht viel Implementationsaufwand und kann überall eingesetzt werden.

Die entscheidung HT oder nicht HT ist da eher eine kommerzielle, da es technisch gesehen bei modernen CPUs immer sinnvoll ist.

durchaus, was anderes wollte ich nie sagen, obwohl es software mässig noch immer nicht ideal gelöst ist, mein Northwood rennt ohne HT fast besser unter WinXP (is aber eher ein persönliches gefühl)


Zitat von SYSMATRIX
Es gibt diese sachen auf Opteron basis auch schon. (für Infiniband links und derartiges beim zB Horus, PathScale, ...)

Außerdem hat zB SGI schon länger sowas in der Art im Petto, nämlich direkt ans fabric angebundenen FPGAs (als fettes single system image mit routing und allem!)

Aber was hat das mit multi cores zu tun?

naja bis jetzt wurde das indirekt übern chipsatz gelöst.
jetzt soll es als weiterer Kern angebunden werden, vielleicht direkt an die crossbar (Sofern des sinnvoll geht). Vorallem wollen alle weg von einzelnen schnellen aberuniversellen Kernen hin zu vielen speziellen Kernen.


Zitat von Hornet331
Link ? :D

den bei den zukünftigen workstation cpus find ich davon nix. (Sossaman/Woodcrest/Clovertown basieren alle auf mereom und der hat kein HT, Dempsey is noch altes netburst design, ist daher logisch der HT hat Tulsa kann ich nix sagen is glaub ich aber auch noch netburst.
Whitefield hab ich keine ahnung was der für ne architektur ist.)

Pentium D basiert auch auf Netburst und hat kein HT.

siehe den Post von Sysmatrix - alles nur marketing sache da ned viel aufwand.

info stehen eigentlich in den letzten 3-4 c't

gibt aber auch sonst genug infos dazu wenn ma sucht

Hornet331

See you Space Cowboy
Avatar
Registered: Sep 2003
Location: Austria/Korneubu..
Posts: 7674
P4 hatte HT schon seit ewigkeiten (seit northwood). Imho tut das aber nix zur sache, solange es deaktiviert bleibt.

Ich persönlich find HT auch ne tolle sache aber wie gesagt bei all den echten multicores die intel bis 2008 angekündigt hat is HT einfach nur ein nice to have future.

XXL

insomnia
Avatar
Registered: Feb 2001
Location: /dev/null
Posts: 15703
iirc hätte amd mit leichtigkeit früher ht integieren können, gab aber 2 gute gründe das net zu tun
amd hat kürzere pipelines => bringt net wirklich was
dann noch die lizenzkosten ...

fresserettich

Here to stay
Registered: Jul 2002
Location: hier
Posts: 5316
Zitat von SYSMATRIX
alles was mit optimierung zu tun hat sollte nicht vom programmierer (der kann das meistens nur falsch) und nicht von der CPU gemacht werden (die kann das am schlechtesten).

all power to the compiler(oder jitter in dem fall) ist mein motto diesbezüglich, insofern find ich das eine gute sache.
und wer macht die compiler? programmierer? :confused: :D
aber ich versteh die kernaussage schon aus deinem post auf gut deutsch wrid der durchschnittsprogrammierer mehr verpfuschen als gut machen

Zitat von GrandAdmiralThrawn
btw, was meinst du damit, es gäbe keine Computation Server? Wir betreiben Dual Xeons auf der Uni für wissenschaftliche Berechungen und auch Serverapplikationen (Datenbanken), diese werden bei uns als "Computation Server" bezeichnet....

hab vor kurzem mal mit einem sw-entwickler gesprochen der hat mir erzählt sie hatten im datenbank-bereich mal einen fall wo die response-zeit von einem itanium ca. 0.5 sec war und bei einem xeon 30 sec
aber im großen und ganzen entwickeln setzen sie trotzdem auf xeons , ...

edit: hab jetzt grad a black out
bei den benches ist der conore mit 266 mhz intern gelaufen aber nur auf ddr2 667 oder?
Bearbeitet von fresserettich am 11.03.2006, 13:34

Hornet331

See you Space Cowboy
Avatar
Registered: Sep 2003
Location: Austria/Korneubu..
Posts: 7674
ja die conroe's laufen nur mit 1066MHz Fsb. (266 x 4 (quadpumped ;) ) bis jetzt vielleicht ändert sich das noch, da der XE conroe fsb 1333 hat. (333Mhz intern)

warum der conroe mit ddr 667 gelaufen is versteh ich ned da locker ddr2 533 ausgereicht hätte.
Bearbeitet von Hornet331 am 11.03.2006, 15:48

Hornet331

See you Space Cowboy
Avatar
Registered: Sep 2003
Location: Austria/Korneubu..
Posts: 7674
Zitat von mr.nice.
Wirft irgendwie kein so gutes Licht auf Intel, wenn man sich diese Grafik ansieht:
conroe.png

Ein FX60 @ stock is um 6 Frames schneller als der von Intel OC'te FX60 :rolleyes:

http://www.anandtech.com/tradeshows...?i=2716&p=1

;)

richtige results mit gscheitem bios und richtigen auflösungen -> still 20% lead for conroe. :D

fresserettich

Here to stay
Registered: Jul 2002
Location: hier
Posts: 5316
wenn ich des jetzt richtig verstanden habe müsste er ja dann nochmal von ddr2 800 proftieren

Hornet331

See you Space Cowboy
Avatar
Registered: Sep 2003
Location: Austria/Korneubu..
Posts: 7674
ja sollte er, aber keiner weis bis jetzt, wie gut conroe mit höheren fsb skalliert. Netburst war/ist drauf angewiesen, P-M zb. waren auch steigerungen da aber lang nicht so drastisch wie bei P4.

plainvanilla

rudi
Avatar
Registered: Aug 2002
Location: vienna
Posts: 3414
was mich schon stutzig macht ist dieser riesenunterschied.
wenn man in diesen auflösungen normalerweise cpu's vergleicht,
liegen die unterschiede im einstelligem prozentbereich.
sollte es wirklich das ganze so auf den markt kommen wirds
ziemlich finster für amd.

auf den grafiken sind natürlich andere gpu's verwendet worden,
mir gehts eben nur um den % abstand der imho dermassen gewaltig
wäre. zw. einem FX60 und einem X2 3800er haben wir hier gerade
mal 3% unterschied bei gleicher gpu konfiguration, beim conroe
reden wir gleich mal von 25% und mehr.

q1.jpg q2.jpg

SYSMATRIX

Legend
Legend
Registered: May 2000
Location: ~
Posts: 5020
ja, das SMP scaling vom conroe ist *argh* dafür daß das ding dort @ 1280x960 gebenched wurde und das ding einen bus verwendet.

aber wie man sieht sind auf den korriegierten results die einflüsse vom bios gar nicht drinnen bzw nur marginal. was eh klar war.

Castlestabler

Here to stay
Registered: Aug 2002
Location: Wien
Posts: 3775
Leider sind die ganzen alten Benchmarks ohne yonah oder dathan, oder sonstige Intel Notebook CPU´s nicht aussagekräftig.

Der Conroe passiert auf der mobilen CPU und durch die doch gewaltige taksteigerung ist das gnaze doch erklärlich, es gib soweit ich mich erinnern kann einen Benchmark von yonah mit 2,16GHz gehen den FX60 und die beiden sind fast gleich schnell.

Insofern sind die Ergebnisse nicht wirklich überraschend.
Kontakt | Unser Forum | Über overclockers.at | Impressum | Datenschutz