The Prophet
EditorAddicted
|
weiß jemand of es für die Kaby Lake E3 Xeons auch einen neuen Chipsatz geben wird? Sie sollen ja mit C232/C236 kompatibel sein, trotzdem würde mich interessieren ob es da einen neuen Chipset (mit ev. mehr PCIe Lanes) geben wird.
|
rad1oactive
knows about the birb
|
mhmmm...wann darf ich endlich meine sandy bridge in rente schicken? gibts ja ned
|
Umlüx
Huge Metal Fan
|
HEVC 10b in hardware ist schon sexy... aber das hätt ich dann lieber im tablet
|
Master99
verträumter realist
|
wieviel content gibts eigentlich schon in H265 und wieviel davon in 10bit/HDR?
|
Garbage
AdministratorThe Wizard of Owls
|
Bei einer voraussichtlichen Nutzungsdauer von 3-5 Jahren, ist alles was man HW beschleunigt bekommt von Vorteil.
|
Master99
verträumter realist
|
sowieso.. meine frage war auch eher informativer natur und nicht ob die haedwareunterstützung sinnvoll ist.
|
delete1
|
kennen tu ich das schon... hab schon 2014 angefangen mit einer liste für ein neues x99 sys... aber mittlerweile bin ich umgeschweift darauf mein sys solange es nur irgendwie geht aktuell zu halten, hat auch irgendwie einen charme, siehe S1366 thread. echt schade, dass es keinen triftigen grund für ein ugrade gibt.
|
Starsky
Erbeeren für alle!
|
mhmmm...wann darf ich endlich meine sandy bridge in rente schicken? gibts ja ned Unfassbar...der 2600K verrichtet nun auch schon seit März 2011 seine Dienste bei mir...und aktuell gibt es wirklich keinen Grund, CPU und MB zu tauschen!
|
FearEffect
Here to stay
|
Unfassbar...der 2600K verrichtet nun auch schon seit März 2011 seine Dienste bei mir...und aktuell gibt es wirklich keinen Grund, CPU und MB zu tauschen! Same ... i5 seit Ende 2011 und reicht noch locker ... Upgrade würde 500€ kostn ca ^^
|
Starsky
Erbeeren für alle!
|
Schon arg wenn ich bedenke wieviele Smartphones ich in dieser Zeit schon hatte. Kein Wunder wenn Händler wie Ditech & Co auf der Strecke geblieben sind.
|
semteX
Risen from the banned
|
deto hier. i brauch jetzt dann mal ein neues board weil das alte spinnt, aber sonst..
|
sLy-
semiconductor physicist
|
Bei einer voraussichtlichen Nutzungsdauer von 3-5 Jahren Ihr macht mich fertig mit euren CPU Nutzungsdauern Ich gurk immer noch auf einen Q9550 herum - mach aber weder videoschnitt noch rendereien noch bildbearbeitungen - von daher verschmerzbar.
|
Umlüx
Huge Metal Fan
|
Bei einer voraussichtlichen Nutzungsdauer von 3-5 Jahren, ist alles was man HW beschleunigt bekommt von Vorteil. hmm. mein i7-2600K is von 2011. bin also schon am oberen ende allerdings habe ich noch nicht vor, die CPU demnächst zu ersetzen.
|
Garbage
AdministratorThe Wizard of Owls
|
Bla bla, mir ist bewusst, dass viele ihr Zeug länger haben und es trotzdem geht. Am Desktop tut man sich da auch leichter, denn da verwenden eh nur wenige den iGPU und wenn doch, und der tuts halt nicht mehr in Kombination mit der CPU-Leistung, schmeißt man halt eine neue Graka dazu und fertig.
Mobile oder verlötete Geschichten wie NUC, etc., siehts halt anders aus, da merkt man das Alter deutlich schneller und stärker. Gerade hier äußert sich nämlich selbst moderate dauerhafte CPU Belastung in lästigem Lüfterlärm, bzw. bei Mobile in deutlich geringeren Laufzeiten. Film am Notebook oder NUC schauen kann relativ wenig, wenn der Lüfter ständig jault.
|
mat
AdministratorLegends never die
|
Tom's Hardware bringt wieder einen Vorabtest mit einem geleakten Sample. Im Test gibt es einen Vergleich mit dem Skylake-Vorgänger i7-6700K und das Resultat ist ernüchternd: Trotz höherem Basis- und Turbotakt bringt das Topmodell von Kaby Lake gerade mal Performance-Verbesserungen zwischen 2,6 und 7,2%. Dafür läuft der 7700K allerdings auch deutlich heißer und hat einen höheren Stromverbrauch. Der einzige Vorteil ist eine deutlich bessere Übertaktbarkeit im Vergleich zu Skylake und Haswell, die wegen der hohen Wärmeabgabe allerdings nur sehr guten Luftkühlern oder Wasserkühlung vorbehalten bleibt. Overclocking Intel’s Core i7-7700K: Kaby Lake Hits The Desktop!Intel's new Kaby Lake CPU delivers on the clock speeds the company promised, but the power consumption and thermal characteristics were disappointing based on a leaked sample of the new chip we received and tested weeks ahead of its official launch. Link: www.tomshardware.com
|