"Christmas - the time to fix the computers of your loved ones" « Lord Wyrm

In Your Face Friday - Das ist Moore doch egal

karlstiefel 25.07.2014 11859 20
click to enlarge
Laut dem Mooreschen Gesetz verdoppelt sich alle zwei Jahre die Transistorendichte in Prozessoren. Das war lange Zeit so, mittlerweile stagniert diese Entwicklung allerdings. Statt die gesetzesuntreue Technologie strafrechtlich zu verfolgen, sollten wir uns Gedanken über Alternativen machen. Diese beinhalten neuartige Akkus, Weltraum-Fahrstühle und Laser. Da können die alten CPUs einpacken.

Wie ein Prozessor funktioniert, brauche ich euch nicht erklären - einer der Vorteile eines fachkundigen Publikums. Wenn wir uns eine CPU/GPU/APU (unabhängig vom Hersteller) mal genauer anschauen, wird stets nur mit Wasser gekocht. Und wenn ich "Wasser" sage, meine ich Silizium. Der Halbleiter ist in seiner reinsten Form bildet die Basis von integrierten Schaltkreisen, die - stark vereinfacht - aus Transistoren bestehen. Was einen Prozessor mit Haswell-Architektur von einem Pentium II unterscheidet, ist unter anderem die Dichte dieser Bauelemente. Damit ging es seit den frühen Tagen der Computer stätig bergauf. Das hat 1965 schon Intel-Mitbegründer Gordon Moore vorhergesehen, weshalb er das Moorsche Gesetz verfasst hat. Dieses besagt, dass sich alle zwei Jahre die Dichte der Transistoren in einem Mikrochip verdoppelt. Da er Recht behalten sollte, verbesserte sich seit knapp 50 Jahren auch stets die Rechenleistung der Chipsätze. Dabei ist erwähnenswert, dass die doppelte Dichte nicht bedeutet, dass der Rechner auch doppelt so schnell ist. Viele Meisterleistungen in der Chiparchitektur bringen die gängigen Prozessoren zu immer höheren Rechenleistungen, die Transistorendichte ist hierfür jedoch ein regelrechter Antriebsmotor. In den vergangenen Jahren gibt sich die Tech-Branche aber eher punkig und hält nichts von Gesetzen. Zwar wird jährlich immer mehr auf die Chips gepackt, die lange vorgelegte Rate wird jedoch nicht mehr erreicht. Wäre das der Fall, hätten wir mittlerweile vier bis fünf Mal mehr Transistoren auf der gleichen Fläche.
Was sich auf so wenig Raum abspielt ist faszinierend: Das doch ganz gut leitende Silizium wird mit Phosphor- oder Bor-Atomen gespickt, un die Leitfähigkeit zu erhöhen. Mit den vier Elektronen in der äußeren Atomhülle bildet Silizium die ideale Vorlage, um ein regelmäßiges Raster zu bilden. Da die hinzugefügten Atome ein freies Elektron (fünf Elektronen bei Phosphor) oder eines zu wenig (drei bei Bor) haben, erhöht sich die Leitfähigkeit enorm. Die "freien Elektronen" können zwischen zwei Leiterbahnen springen - der Transistor funktioniert auf atomarer Ebene.
Genau hier liegt aktuell der Flaschenhals der Prozessoren-Technologie: Wie klein kann es werden? Mit einer erhöhten Transistoren-Dichte erhöht sich auch die erzeugte Hitze. Dementsprechend möchte die CPU auch gekühlt werden, sonst ist sie schnell beleidigt und/oder Grillkohle. Wenn es um wirklich kleine Dimensionen geht, dann wird die Kühlung nur zu einem Nebenproblem. Wenn die Bauelemente nur noch wenige Atome groß sind, kann ein einziges falsch platziertes Atom den Chip komplett unbrauchbar machen. Dementsprechend dürften die Kosten eines solch präzise gefertigten Prozessors auch in die Höhe schnellen. Das ist noch ein bewältigbares Problem - vorausgesetzt, man hat das notwendige Kleingeld. Unbestechlich ist jedoch die Physik, die das ganze Gebilde zusammen hält. Ab einem gewissen Punkt pfuscht die Quantenphysik nämlich in die Prozessoren-Architektur hinein. Durch den Tunneleffekt springen einzelne Elektronen nämlich mal gerne spontan über. Somit kann eine 1 spontan zu einer 0 oder anders rum werden und ehe man sich versieht, ist die gesamte Musikbibliothek korrumpiert und man hat nur noch Justin Bieber Songs auf der Festplatte. Langfristig gibt es zwei Optionen: Entweder wir bleiben bei den aktuell verwendeten Materialien und lösen alle damit einhergehenden Probleme oder wir schauen uns nach einer Alternative um.
click to enlarge click to enlarge
"You! Do as I tell you!" - Gordon Moore zum Prozessor.

Ein vielversprechender Kandidat dafür ist Graphen, ein präzise sechseckig angeordnetes Gebilde aus Kohlenstoff. Das Material mit der Dicke von nur einem Atom ist wesentlich leitfähiger als Silizium. Aktuell wurde erst die 100-GHz-Schwelle mit graphenbasierten Transistoren überschritten, theoretisch sollen aber Taktraten von bis zu 1000 GHz möglich sein. Damit aber nicht genug - Graphen könnte für Akkus, als Wasserfilter, für Touchscreens und in der Gewinnung von Solarenergie eine Anwendung finden. Den Vogel schießt aber die Verwendung in der Raumfahrt ab: Mit Graphen könnte ein Weltraumlift endlich Realität werden. Aktuell stehen Ingenieure vor dem Problem, dass es kein Material gibt, aus welchem das Band auf dem ein solcher Lift fahren würde, hergestellt werden kann. Ein Geflecht aus Graphen-Nanoröhren könne stark genug sein, um die auf ein solches Band wirkenden Kräfte aushalten zu können. Warum haben wir also noch keinen Weltraumlift und warum kann ich noch keinen Prozessor aus Bleistiften basteln? Leider ist Graphen sehr schwer herzustellen. Um das Material herzustellen, muss eine perfekt angeordnete Schicht von Atomen eines einzigen Elements konstruiert werden. Wieder ergibt sich das Problem: Ein falsch angeordnetes Atom, eine Unreinheit und wir haben eine Sollbruchstelle. Bis Graphen also massentauglich wird, werden noch einige CPU-Generationen ins Land gehen.
Eine Möglichkeit wäre auch, das grundlegende Prinzip zu wechseln - hier kommen Laser ins Spiel. Elektronen bewegen sich mit lächerlichen 8,5 Zentimeter pro Stunde. Diese 0,000085 km/h kann Licht mit etwa 1.079.252.848,8 km/h doch ganz gut schlagen. Auch wenn sich diese Geschwindigkeit bei der Bewegung durch Materie etwas verringert, müssen sich die Elektronen doch mit einem "hat Teilgenommen"-Zertifikat zufrieden geben. Wenn Computer also mit Licht - genauer gesagt mit Photonen - statt mit Ladungen arbeiten könnten, wäre das nicht nur optisch beeindruckend, sondern auch entsprechend schneller. Genau diese Geschwindigkeit bricht dem Prinzip aber das Genick. Während sich mit den gemütlichen Elektronen Informationen halbwegs verlässlich speichern lassen, sind die ADHS-Photonen wesentlich schwerer auslesbar. Die Informationen bewegen sich so schnell, dass sie über ihr Ziel hinaus schießen, bevor sie an die gewünschte Stelle kommen. Außerdem sind Laser größere Energiefresser als jeder Benchmark-Rechner vom wHm.
Die letzte Option die ich euch vorstellen möchte, ist richtig exotisch: Quantencomputer. Das uns die Quantenphysik das Leben nicht leichter macht, haben wir ja schon festgestellt. Ein entsprechenden Quantenrechner würde noch immer ein binäres System verwenden, die Bits bestehen aber nicht aus Ladungen oder Impulsen, sondern aus Zuständen. Stattdessen wird der Spin eines Teilchens gemessen und manipuliert. Ob und in welcher Form wir eine solche Maschine in unseren Quanten-Wohnzimmern stehen haben werden, ist jedoch noch nicht bekannt.
Aktuell läuft das Wettrüsten mit klassischen Prozessoren noch - immerhin ist ja noch Luft nach oben. In den nächsten Jahren werden wir höhere Transistorendichten, neue Architekturen und vielleicht mehr Kerne in den CPUs sehen. Unsere Rechner werden also noch ein bisschen schneller, bevor wir neue Prinzipien brauchen. Wenn wir dann an die Grenzen kommen, können wir ja noch immer mehr RAM runterladen. Vielleicht hilft das ja.

click to enlargeclick to enlarge
Der typische Laser-Computer wird wie der Durchschnittsrechner eines 14-Jährigen aussehen, Quantencomputer werden hingegen schwer in das Wohnzimmerdesign zu integrieren sein.
Kontakt | Unser Forum | Über overclockers.at | Impressum | Datenschutz