Master99
verträumter realist
|
ich bezweifle das die auflösungen daheim recht viel mehr wie hdtv betragen werden. dafür dann 32fach FSAA usw *gg*
|
that
Hoffnungsloser Optimist
|
btw denke ich, dass es bald auch kaum mehr konverntionell programmierte 3d-anwendungen (games) geben wird, die wirklich so programmiert sind, einen pc auszulasten Versuch nur mal, halbwegs realistische Schatten und Reflexionen darzustellen.
|
.dcp
notamodbuthot
|
Versuch nur mal, halbwegs realistische Schatten und Reflexionen darzustellen. bevor man dazu kommt sie darzustellen müssen sie auch erst mal programiert werden, darauf wollte ich ja mit dem post drauf hinaus. es wird immer aufwendiger realistische schatten etc zu programieren, und auch wenn mit 4 facher rechenleistung tolle sachen möglich werden, wird es viel länger dauern / viel komplizierter sein diese zu programieren
|
Erklärbär
Banned
|
Quasi. Man hat ein Auto das 350km/h fährt,..aber wo fahren?
|
that
Hoffnungsloser Optimist
|
es wird immer aufwendiger realistische schatten etc zu programieren, und auch wenn mit 4 facher rechenleistung tolle sachen möglich werden, wird es viel länger dauern / viel komplizierter sein diese zu programieren Die Programme sind alle schon längst fertig (siehe computergenerierte Szenen in Filmen, oder sogar ganze Filme). Nur die Rechenleistung, das in Echtzeit darzustellen, fehlt noch.
|
Sputnik
GenericHumaniodCarbonUnit
|
hmm aber was kann man den machen um die gesamte rechenleistung auszunutzen? bzw. wieso macht man das jetzt noch nicht...das wär doch eh gemütlich wenn man auf an 1Ghz p3 scho flüssig und super ut zocken könnt Was wird man denn dann in den nächsten cpugenerationen an den cpus ändern?
|
.dcp
notamodbuthot
|
@gerenderte szenen/filme: klar reichts noch lange nicht um z.b. Final Fantasy in realtime zu rendern, allerdings dauert es auch ewig das erstmal am rechner zu konstruieren.
ich rede da eher von games, wenn man sieht wie lange an farcry entwickelt wurde, bzw wie lange doom3, hl2 schon brauchen, dann ist der aufwand für noch realistische games so groß, dass man die engine kaum mehr auf die durchschnittliche rechenleistung der user zum launch abstimmen kann.
|
charmin
Vereinsmitgliedstay classy!
|
najou das die chips immer kleiner werden stimmt schon, aber thermisches problem? ne sicher net ausserdem wird die technik net immer die gleiche bleiben, was is mit organischer elektrik ?,sollte das mal ausreifen gehören thermische probleme der vergangenheit an, cpus werden keine kühlung mehr benötigen, und trotzdem eine derart grosse leistung besitzen die alles bisher dagewesene in den Schatten stellt,
es wird wieder mal zeit für nen grossen "sprung" immer dieses "neue cpu boa geil, mit 1 ghz mehr" das kann definitiv net so weitergehn.
alles eine frage der zeit
Bearbeitet von charmin am 22.05.2004, 18:43
|
UncleFucka
-
|
ich hoff ich erleb den nächsten großen sprung für die menschheit noch
|
Master99
verträumter realist
|
der nächste sprung der menschheit?
mhm, kennst du Terminator3?
|
othan
Layer 8 Problem
|
@gerenderte szenen/filme: klar reichts noch lange nicht um z.b. Final Fantasy in realtime zu rendern, allerdings dauert es auch ewig das erstmal am rechner zu konstruieren.
ich rede da eher von games, wenn man sieht wie lange an farcry entwickelt wurde, bzw wie lange doom3, hl2 schon brauchen, dann ist der aufwand für noch realistische games so groß, dass man die engine kaum mehr auf die durchschnittliche rechenleistung der user zum launch abstimmen kann. wie wärs wenn der game-hersteller keine zeit mehr verliert seine enginge auf die hardware abzustimmen? er könnt seine eigenen quellen ins game einpflanzen ohne vorher noch mit poligonen und texturen zu spielen damits einigermassen flüssig auf aktueller hardware rennt wenn genug systemleistung da ist kann er einfach seine 3d models direkt zum rendern schicken -> Ergebnis: games in Rendergrafik die flüssig rennen! bis es aber soweit ist, brauchst du mehr wie 8ghz  vor allem wenn mal genug leistung da ist, brauchst keine schnelle grafikkarte mehr, da das alles die cpu erledigt
|
manalishi
tl;dr
|
also bitte, rechenleistung kamma NIE genug haben. realistische verformung und zerstörung braucht beispielsweise extrem viel power. sowas gehört eigentlich irgendwie in hardware integriert, vielleicht gibts ja irgendwann mal tendenzen in die richtung.
|
daisho
VereinsmitgliedSHODAN
|
najou das die chips immer kleiner werden stimmt schon, aber thermisches problem? ne sicher net ausserdem wird die technik net immer die gleiche bleiben, [...] alles eine frage der zeit full ack Die Probleme lagen, liegen und werden immer bei der Baugröße liegen. Alle anderen Probleme sind schnurz, kühlen kann man immer genug. Früher konnte man keine IC's bauen --> zu klein Heutzutage wirds immer kleiner --> Chips werden kleiner In Zukunft --> wer weis Wir sind eh schon nahe am Atomgroßen Bereich --> Optische Gatter, die mit Rotationsrichtungen von Elektronen um Atome arbeiten --> Hut ab  Ich frage mich obs irgendwann ein Limit gibt, villeicht schon das Atom selbst. Oder es ist irgendwie möglich wird, mit subatomaren Partikel zu arbeiten (Quarks,...)
|