2016-03-26

Die ersten Computer waren raumfüllend. Ein paar Jahre später waren sie immer noch riesig, irgendwann nur noch klobig. Heute hat ein normales Smartphone 120 Millionen Mal die Rechenleistung des Steuercomputers des Apollo-Mondprogramms der Nasa. Das iPad 2 hätte es noch im Jahr 1994 auf die Liste der schnellsten Super-Computer der Welt geschafft.

Ohne immer kleinere, leistungsfähigere und trotzdem günstigere Chips wäre diese Entwicklung nicht möglich gewesen. Doch womöglich ist die Chipindustrie an einem Punkt angelangt, an dem sie ihr Prinzip des exponentiellen Wachstums verwerfen muss – oder völlig neu denken. Verliert die digitale Revolution gerade jetzt, wo sie nahezu alle Lebensbereiche zu durchdringen beginnt, den Schwung?

Jahrzehntelang galt für die Chipherstellung die simple Regel des Gordon Moore. Der Chemiker und Physiker war Mitgründer des heute weltgrößten Halbleiterherstellers Intel. Im April 1965 formulierte er in der Zeitschrift “Electronics” mit Blick auf die bisherige Entwicklung eine Prognose, die verblüffende 50 Jahre lang Gültigkeit behalten sollte: Moore stellte fest, dass sich die Anzahl der Schaltkreiskomponenten auf einem integrierten Schaltkreis jedes Jahr verdoppele und prognostizierte, dass das erst einmal so weitergehen werde. Später korrigierte er die Zeitspanne auf zwei Jahre.

Der Colossus gilt als erster programmierbarer elektronischer Digitalcomputer der Welt. Er wurde 1943 während des Zweiten Weltkriegs vom englischen Ingenieur Tommy Flowers entwickelt. Der sollte im Auftrag der Briten eine Maschine entwickeln, die die Lorenz-Schlüsselmaschine der deutschen Armee entschlüsseln konnte – und somit die Kommunikation des Kriegsfeindes. Die Rechengeschwindigkeit des Colusssus: 5000 Operationen pro Sekunde.

Der CDC 6600 des US-Unternehmens Control Data Corporation gilt vielen als der erste Supercomputer der Welt. Mit seiner Markteinführung 1965 waren plötzlich ganz andere Rechenleistungen Realität: Er arbeitete rund dreimal so schnell wie der vorherige leistungsstärkste Computer der Welt, der IBM 7030 Stretch. Erst sein Nachfolgemodell, der CDC 7600, löste ihn fünf Jahre später als weltschnellsten Computer ab. Der CDC 6600 hatte eine Rechengeschwindigkeit von drei Millionen Gleitkommaoperationen pro Sekunde, FLOPS abgekürzt.

Der dritte Supercomputer aus dem Hause Cray konnte nicht nur rechnen, sondern hätte auch locker als Inneneinrichtung für eine Discothek herhalten können. Auf anderen Modellen des Herstellers konnte man bequem Platz nehmen: Sie dienten als Sitzgelegenheit, in leuchtenden Farben. Der Cray-2 im Bild löste den Cray X-MP als Spitzenreiter unter den Großrechnern ab: Von 1985 bis 1990 war die futuristisch designte Rechenmaschine der schnellste Computer der Welt. Rechengeschwindigkeit: 3,9 Millionen FLOPS.

Der damalige Direktor des National Supercomputing Research Center of Singapore, William Hale, zeigt in einem Archivfoto den Cray T94. Er stammt aus der Cray-T90-Serie, die ab 1995 ausgeliefert wurde. Der T94 hat zwischen acht und 16 Prozessoren, während sein großer Bruder, der T932 bis zu 32 Prozessoren hat. In der großen Version war der Cray nicht gerade ein Schnäppchen: Er kostete rund 35 Millionen Dollar.

Der Apple I gehört zu den ersten Computern, die der heutige Weltkonzern Apple 1977 verkaufte, damals für 666 Dollar.

Erst “Load”, dann “Run”: So startete man Programme auf dem heute legendären Commodore 64. Er eröffnete den Kindern der Achtzigerjahre eine neue Spielewelt – wenn die Eltern die 1495 Mark Kaufpreis locker machen konnten. So viel kostete der C64 nämlich bei Verkaufsstart in Deutschland 1983.

Stolze 3250 Quadratmeter nahm der Earth Simulator des Elektronikkonzerns NEC ein. In Yokohama war eigens ein neues Gebäude errichtet worden, das groß genug war, den Riesenrechner zu beherbergen. Seine Aufgabe war es, ein umfangreiches Datenmodell des Weltklimas zu berechnen, etwa um die Folgen der globalen Erwärmung vorhersagen zu können. Das erforderte enorme Leistung: Von 2002 bis 2004 war der Earth Simulator der schnellste Supercomputer der Welt. Rechengeschwindigkeit: 35.860.000.000.000 FLOPS

Der Roadrunner war 2008 der ganze Stolz von IBM: Damals gab die Firma bekannt, dass der Rechner als erster Computer der Welt mehr als eine Billiarde Operationen in der Sekunde geschafft und damit die Petaflops-Grenze gesprengt hatte.

Doch in der Welt der Computer hielt der Rekord des IBM-Roadrunners nicht lange. Schon ein Jahr später, im November 2009, wurde der 133 Millionen Dollar teure Riesenrechner von seinem Spitzenplatz als schnellster Computer der Welt verdrängt – von einem Großrechner namens Jaguar. Rechengeschwindigkeit: 1.105.000.000.000.000 FLOPS

2013 war der Titel des schnellsten Supercomputers der Welt schon längst weitergegangen, ans amerikanische Oak Ridge National Laboratory in Knoxville. Der dortige Titan-Computer enthielt zahlreiche Bauteile seines Vorgängermodells, des Großrechners Jaguar, war aber nochmal deutlich schneller. Der Titan belegte Ende 2015 immer noch einen Spitzenplatz unter den Supercomputern. Rechengeschwindigkeit: 17.590.000.000.000.000 FLOPS.

iPhone, MacBook Air und iPad 2 in einer Ladenauslage: Die Rechenleistung von Technik hat sich so rasant entwickelt, dass das abgebildete iPad 2 1994 noch zu den schnellsten Computern der Welt gezählt hätte.

Der aktuell schnellste Computer der Welt steht in China, im National Super Computer Center in Guangzhou. Der Tianhe-2 kommt zumindest auf einem weltweiten Ranking aus dem November 2015 auf den ersten Platz unter den Supercomputern. Er liegt vor dem Titan von Cray und dem Sequoia von IBM und hatte in seiner ersten Ausbaustufe schon eine Rechenleistung von 33,86 Petaflops. Und natürlich sollen das noch mehr werden.

“Das Mooresche Gesetz ist am Ende”, sagt ein IBM-Forscher

Als Moore’s Law, das Mooresche Gesetz, wurde die Prognose zum selbstverständlichen Pfeiler, zum Leitsatz der Industrie. Sie hielt viel länger, als Moore selbst das je erwartet hätte. Firmen wie Apple oder Microsoft konnten jahrzehntelang darauf zählen, dass Chips – wie einem Naturgesetz folgend – der Voraussage entsprachen.

Bereits in den Neunzigerjahren wurde aber diskutiert, wann die Entwicklung von immer kleineren Computerchips mit immer mehr Leistung stocken werde. Die Chiphersteller verfeinerten ihre Verfahrenstechniken, reizten jeden Vorteil aus, verschafften sich Zeit – bis jetzt.



SPIEGEL ONLINE

Thilo Maurer auf der Cebit

“Das Mooresche Gesetz ist am Ende”, sagt Thilo Maurer. Er erforscht Halbleitertechnologie für IBM . “Es gibt physikalische Grenzen, an denen wir nicht rütteln können.” Auch das Fachmagazin “Nature” warnte im Februar von dem nahen Ende des Schrumpfprinzips.

Der aktuelle Intel-Chef Brian Krzanich verkündete schon letztes Jahr, dass sich die Entwicklungsdauer von einer Generation von Intel-Mikroprozessoren zur nächsten auf zweieinhalb Jahre verlängern werde. Der von Moore definierte Zeitraum von zwei Jahren war nicht mehr haltbar – auch wenn Krzanich rasch betonte, es könne sich auch nur um eine temporäre Entwicklungsdelle handeln. Das aber erscheint zunehmend unwahrscheinlich.

Kleiner als ein paar Atome geht nicht – und rechnet sich nicht

Die Chipindustrie denkt schon längst in unvorstellbar kleinen Größen. Sie rechnet in Nanometern, also Millionstel Millimetern. Mit dem bloßen Auge kann man solche Strukturbreiten längst nicht mehr erkennen, ein Haar wirkt im Vergleich dick wie ein Baumstamm. Auf einen modernen Prozessor mit wenigen Quadratmillimetern Größe lassen sich heute mehrere Milliarden Transistoren quetschen. Intels 4004-Prozessor von 1971 fasste nur 2300 Transistoren.




Corbis

Produktion des IBM 4300-Prozessors im Jahr 1979

Die Leiterbahnen von heute sind nur noch ein paar Atome breit. Bei solchen winzigen Größen angelangt, kommen die Gesetze der Quantenmechanik ins Spiel, sagt IBM-Forscher Maurer. Sie bringen das Teilchenverhalten durcheinander. “Die aktuelle Siliziumtechnologie schafft es voraussichtlich nur noch, bis sieben oder fünf Nanometer zu kommen”, schätzt er. Dann ist Schluss mit der Miniaturisierung.

Die letzten physikalisch möglichen Schrumpfprozesse seinen außerdem “mit erheblich höherem Entwicklungsaufwand” verbunden. Je weiter man die Chip-Architektur noch verkleinern will, desto kostspieliger wird es.

Moore’s Law bestand auch fort, weil die Branche immer bereit war, das für den Fortschritt nötige Geld zu investieren. Manche Hersteller geben nun schon vor der Fünf-Nanometer-Grenze auf. Toshiba etwa hat 2015 angekündigt, dass es seine weit verbreiteten sogenannten Nand-Flash-Speicher nicht mehr weiter schrumpfen lassen will. Auf unter 15 Nanometer kommen zu wollen, habe keinen Sinn.

REUTERS

Moderne Chipfabrik in Südkorea

“Mehr als Moore” lautet der neue Leitsatz

Dass die bisher praktizierte Verdichtung von Transistoren auf einem Chip, wie Moore sie beschreibt, an ihre Grenzen stößt, bedeutet aber kein Ende der Chipentwicklung. Die Branche forscht unter dem Motto “More than Moore” an neuen Ideen.

“Die Diskussion um Moore’s Law sollte berücksichtigen, dass es mehr gibt als Miniaturisierung”, heißt es etwa von Chiphersteller Infineon. “Die technischen Möglichkeiten, Halbleiter kleiner, kostengünstiger und gleichzeitig funktionsfähiger zu gestalten sind noch lange nicht ausgereizt.”

Viele Hersteller setzen zum Beispiel darauf, ihre Prozessoren zu spezialisieren und mehr Leistung zu erreichen, indem sie verschiedene Spezial-Chips in ein System integrieren. Sie können in ihrem Aufgabenbereich höhere Leistungen erzielen als allgemein ausgerichtete Prozessoren.

Chips wachsen jetzt in die Höhe

Wenn es nicht mehr kleiner geht, liegt außerdem nahe, die bestehenden Flächen besser zu nutzen. Chiphersteller entwickeln deshalb mit Hochdruck neuen Aufbau- und Verbindungstechniken – zum Beispiel das vertikale Stapeln oder das horizontale Verteilen in einem gemeinsamen Gehäuse.

Toshiba mag die Entwicklung seiner Nand-Flash-Bausteine eingestellt haben – das gilt aber nur für die 2D-Variante, sagt Axel Störmann von Toshiba. Stattdessen fokussiert man sich auf die Entwicklung von 3D-Varianten. So sei nochmal deutlich mehr Leistung möglich. Moores Gesetz muss also doch noch nicht ganz abgeschrieben werden.

Man kann sich den Bau in 3D etwa so vorstellen wie bei einer Stadt, die immer dichter besiedelt worden ist, sagt Störmann, der sich bei Toshiba insbesondere mit Flash-Speichern beschäftigt. Irgendwann sind alle Bauflächen ausgenutzt. Also wächst die Nutzfläche in die Höhe weiter. Es entstehen Hochhäuser und Wolkenkratzer.

So ähnlich ist es auch beim 3D-Nand-Flash. Aktuell stapelt Toshiba 48 Lagen, im nächsten Schritt sollen es schon 64 sein, sagt Störmann. “Wir müssen schauen, wie weit wir das bei der Fertigung treiben können. Ich schätze, dass über 100 Lagen möglich sind, aber nicht viel mehr.”

Das menschliche Gehirn als Vorbild

Die Grenzen von Moore’s Law sind auch der Anstoß, radikale Ansätze auszuprobieren und Selbstverständlichkeiten der Branche in Frage zu stellen: Zum einen wird der Grundbaustein der Halbleitertechnologie, das Silizium, auf den Prüfstand gestellt. Das Leibniz-Institut für innovative Mikroelektronik etwa untersucht, ob sich nicht Germanium oder Graphen besser für Chips eignen könnten.

Bei IBM forschen Maurer und Kollegen außerdem im “SyNAPSE”-Projekt mit neuromorphen Systemen weiter. Solche Systeme orientieren sich an den Strukturen des Nervensystems von Menschen. Die Architektur von Chips wird grundlegend verändert, mit dem menschlichen Gehirn als Vorbild. Das soll mehr Leistung bringen und Strom sparen – die neuen Chips bräuchten deutlich weniger Energie als bisherige Chips, verspricht IBM.

“Wir können so eine ganz neue Art der Datenverarbeitung etablieren”, sagt Maurer. Dass das ein ziemlich hoch gestecktes Ziel ist, weiß er. Das Ende von Moore sei aber eben nicht das Ende des Fortschritts.

Halbleiterbauelemente: Die Rechenknechte des IT-Zeitalters

Transistor

Transistoren können elektrische Signale verstärken (wichtig beim Einsatz in Radios) oder als nicht-mechanische Schalter wirken. Als Schalter können Transistoren die beiden grundlegenden Zustände des Binärsystems darstellen: Strom oder kein Strom, 1 oder 0 – die Basis der Informationstechnologie.

integrierter Schaltkreis

Ein integrierter Schaltkreis fasst Elemente wie Transistoren, Widerstände und Kondensatoren zusammen. Auf Computerprozessoren finden heute Millionen von Transistoren Platz – 820 Millionen zum Beispiel auf Intel-Chips der “Penryn”-Reihe.

Source link

The post Moore’s Law: Die goldene Regel der Chiphersteller bröckelt appeared first on 23on.com.

Show more