Das Mooresche Gesetz – endlich verständlich Teil II

Gordon Moore

1965 sagte Gordon Moore voraus, wie schnell sich die Computertechnik entwickeln würde. Bis heute bleibt sein Gesetz ungebrochen! (Bild: Screenshot „Gordon Moore on the early history of the semiconductor industry„, von ASML, YouTube)

Das mooresche Gesetz besagt: Geräte werden regelmäßig kleiner, dennoch immer leistungsfähiger. Dieses Gesetz scheint 2016 erstmalig nicht mehr aufzugehen.

Nachdem wir im Artikel „Das Mooresche Gesetz – endlich verständlich“ einige Grundlagen der Informationstechnologie besprochen haben, können wir uns nun das Mooresche Gesetz genauer ansehen. Was hat es damit auf sich? Wieso ist dieses Gesetz in der IT so wichtig? Und: wo liegen die Grenzen?

Drei Lesarten des Mooreschen Gesetzes

Das Mooresche Gesetz ist eine der Grundlagen der Informationstechnologie, das die Komplexität von integrierten Schaltkreisen mit den Produktionskosten und der Leistungsfähigkeit in Verbindung bringt. Es besagt, dass sich Komponenten innerhalb eines integrierten Schaltkreises in regelmäßigen Zeitabständen verdoppeln und immer mehr Transistoren auf engstem Raum untergebracht werden können. Das ist eine Lesart.

Mehr Transistoren bedeuten zugleich auch mehr Leistung; diese drückt sich in Taktfrequenz und Größe der Speicher aus. Das heißt, dass allgemein auch Faktoren wie die Speicherkapazität und Schnelligkeit der Mikrochips exponentiell ansteigen. Das ist die andere Lesart.

Moore law

Moores Aussage ist insofern wichtig, da Chip-Hersteller wie Intel seit jeher versucht, die Chip-Fläche so gering wie möglich zu halten, um Chips wirtschaftlich – also gewinnbringend – zu produzieren. (Bild: Screenshot „Gordon Moore: Thoughts on the 50th Anniversary of Moore’s Law“ von Intel Newsroom)

Das muss man sich so vorstellen: hättest du in den Siebzigern ein Smartphone gehabt, wäre das so groß gewesen wie eine kleine Serverfarm. Ähnlich groß wie ein Auto und ziemlich unhandlich. Oder andersherum:

was diese kleine Serverfarm an Rechenleistung mitbrachte, kann heute dein Smartphone spielend leicht erledigen – vielleicht sogar mit dem Cache, dem Zwischenspeicher.

Der Grund: auf immer kleinerem Raum werden immer mehr Chipbauteile untergebracht, sodass die Rechenleistung fast exponentiell ansteigt. Ergo: die Geräte werden kleiner und gleichzeitig leistungsfähiger – vom Großrechner zum Smartphone.

Dennoch müssen sie bei annehmbaren Kosten produzierbar sein. Die Kosten für die Innovationen dürfen die Margen der verkauften Stückzahlen langfristig nicht übersteigen. Sonst würden Chiphersteller wie Intel keine Gewinne für Aktieninhaber wie Gordon Moore abwerfen. Letzteres ist die dritte Lesart. Noch mal in kurz:

  1. Die Anzahl der Transistoren pro Mikrochip steigt in regelmäßigen Zeitabständen exponentiell an.
  2. Die Taktfrequenz in MHz verdoppelt sich in den gleichen Zeitabständen.
  3. Der Verdoppelung der Transistorendichte und der Leistungsfähigkeit muss kompatibel mit dem finanziellen Aufwand sein.

Noch mal erklärt durch die Uni Bremen:

Was sind regelmäßige Zeitabstände und was bedeutet Komplexität in integrierten Schaltkreisen?

Moore ging davon aus, dass sich die Computertechnologie so schnell weiterentwickelt, dass schon nach einem Jahr die doppelte Anzahl an Transistoren auf einem Chip verbaut werden kann. Verschiedene empirische Belege aus den sechziger Jahren untermauerten seine These: schon zu Beginn der Informationstechnologie konnte die Anzahl auf einem Chip binnen eines Jahres verdoppelt werden – ohne dass die Produktionskosten nicht mehr tragbar waren. Im Laufe der Zeit schwankten zwar die Wachstumsraten, aber als Faustregel galt das Mooresche Gesetz ungebrochen. Im Nachgang wurden die Zeitabstände von 12, 18 und 24 Monaten diskutiert. In der Praxis zeigte sich, dass 18 Monate eine realistische Zeitspanne ist, um die Leistung der mittlerweile berüchtigten Ein- und Ausgabegeräte, sprich Computer, zu verdoppeln.

Das Faszinierende daran: diese Faustregel beschreibt die Entwicklung in der Informationstechnologie in den letzten 50 Jahren. Moore wusste das natürlich noch nicht. Sein Anliegen war es, einen Zeitplan für die Zukunft auszuarbeiten und die technischen Möglichkeiten von Transistoren auszuloten. Es war ein Blick in die Glaskugel.

Schon in den Sechzigern sagte er voraus, dass wir in naher Zukunft sehr kleine persönliche Kommunikationsgeräte mit uns führen würden. An Handys und Smartphone dachte aber noch niemand – Science Fiction-Autoren ausgenommen.

In letzter Konsequenz führte die Komplexität beim Mooreschen Gesetz auch zu neuen Geräten, die zwar hauptsächlich aus Transistoren bestehen, aber ganz neue Möglichkeiten eröffnen. Smartphones, Tablets und das Internet of Things lassen grüßen. Im Rückblick ist Moore ein IT-Prophet, wenn man ihn so nennen will.

Das Herz des Mooreschen Gesetzes: Die Integrationsdichte von Transistoren

Als wichtigsten Indikator für den technologischen Fortschritt wählte Moore den Transistor: ein elektronisches Bauelement, das zur Steuerung von Spannung und Strömen verwendet werden kann. Rechenvorgänge werden durch Transistoren digitalisiert. Die dabei benutzten Spannungen befinden sich meist im Bereich der Klein- oder Niederspannung. Stromschläge sind ausgeschlossen, aber die Arbeit mit Transistoren erfordert eine vorherige Entladung. Deshalb sehen IT-Labore von innen auch ein wenig aus wie ein Seuchenschutzraum. Fear the walking Transistor.

Transistoren dienen als aktive Schalter für integrierte Schaltkreise. Aktive Bauteile steuern das System, indem sie Signale erzeugen und unterbrechen. Hinzu kommen weitere Bauteile wie Kondensatoren oder Widerstände, die jedoch weder steuern noch verstärken, also passiv sind. Werden beide Arten von Bauteilen miteinander kombiniert, können komplexe Anwendungen realisiert werden. Zum Beispiel ein moderner Personal Computer: er beinhaltet mehrere Millionen solcher integrierter Schaltkreise, die wiederum aus Millionen von Transistoren bestehen. Die Strukturen, die dabei erzeugt werden, sind so etwas wie das zentrale Nervensystem eines Computers. Oder einfach die Hardware. Gemeinsam mit einer Softwareschicht, die das Gehirn darstellt, bilden sie ein Terminal, mit dem ein Benutzer über eine Benutzerschnittstelle interagieren kann.

Ohne Transistoren wäre die technologische Entwicklung der letzten fünfzig Jahre unmöglich gewesen. Speicherbausteine, Prozessoren, Grafikkarten oder Festplatten – alle Bauteile verwenden Transistoren in unterschiedlichem Ausmaß.

Generell gilt: je mehr Transistoren, umso mehr Rechenleistung. Deshalb versuchte man, die sogenannte Integrationsdichte immer weiter zu erhöhen. Auf immer kleineren Strukturen wurden immer mehr Transistoren verbaut. Und wir reden hier vom Mikrometern und Nanometern.

In den Sechzigerjahren betrug die Integrationsdichte 10 µm, Ende der Neunziger war sie schon bei 0,2 µm. Aktuell wird mit Integrationsdichten von 14 nm gearbeitet. Zum Vergleich: ein menschliches Spermium ist 60 µm klein.

Fotolithografie: Wie kommen die Transistoren in den Computer?

Da fragt man sich: wie kommen die Transistoren auf oder in den Chip?

Das Verfahren wird als Fotolithografie bezeichnet. Hierbei wird eine Fotomaske verwendet, die die Blaupause für die spätere integrierte Schaltung bzw. für eine Schicht dieser Schaltung darstellt. Die Fotomaske wird belichtet und überträgt somit ihre Strukturen auf einen lichtempfindlichen Fotolack. Der spezielle Lack kann entweder aushärten, um die unbelichteten Strukturen aufzulösen, oder die belichteten Stellen werden aufgelöst. Verschiedene photochemische Reaktionen können eingesetzt werden, um diese Chipstrukturen herzustellen.

Das Ergebnis dieser Prozesse ist eine lithografische Maske, die wie eine Druckvorlage die Strukturen des Mikroprozessors abbildet und chemisch wie physikalisch verändert werden kann. Es gibt unterschiedliche Techniken, wie die Strukturen in das Halbleiter-Material eingebracht und verändert werden können. Die neueste Methode wird als Next-Generation-Lithografie bezeichnet. Sie soll es ermöglichen, auch integrierte Schaltungen herzustellen, die kleiner als 10 nm sind. Ja, Nanometer!

transistor_blog

Der erste 1-Chip-Mikroprozessor 4004 von Intel 1971 hatte schon 2300 Transistoren, der Intel 8008 drei Jahre später 4500. (Bild: Screenshot „Plotter aus zwei alten CD-Laufwerken, einem Servo und einem Raspberry Pi„, von HomoFaciens)

Dass die Technologiehersteller bisher in der Lage waren, das Mooresche Gesetz mit Leben zu füllen, lag aber nicht an Moore. Sondern an der Halbleiter-Industrie: aus eigenem Antrieb setzten sie sich zusammen und besprachen den Fahrplan für die nächsten zwei Jahre. Der Grund: bis zu einem fertigen Chip sind mehr als 30 unterschiedliche Entwicklungsschritte notwendig. Beteiligt sind zahlreiche Zulieferer und Hersteller von benötigten Bauteilen. Um das zu koordinieren und auf einen Nenner zu bringen, sind brancheninterne Regeln und Absprachen notwendig. Diese Aufgabe kam dem ITRS zu: Das Gremium International Technology Roadmap for Semiconductors gab den roten Faden vor, an dem sich die Halbleiter-Hersteller abarbeiten konnten. Der ITRS setzt sich aus internationalen Unternehmen und Experten zusammen. Das Ziel ist es, die Anforderungen von mikroelektronischen Schaltungen und deren Fertigungs- und Messtechnologien zu präzisieren. Im März 2016 wurden erstmals Dokumente veröffentlicht, die den Abgesang des Mooreschen Gesetzes bedeuten könnten.

IT-Klaustrophobie: wenn es zu eng wird für Transistoren

Es gibt eine Grenze bei der Herstellung von Mikroprozessoren. Ab einer gewissen Anzahl von Transistoren auf einem Chip entsteht zu viel Wärme. Wo sich Elektronen bewegen, wird es früher oder später warm. Zudem: die physikalischen Gesetze werden auf Quantenebene teilweise problematisch. Chips, die auf engstem Raum zu viele Transistoren besitzen, reagieren anders als erwartet.

In diesen Mikrobereichen gilt die Unschärferelation der Quantenmechanik: die Systeme benehmen sich chaotisch und machen nicht das, was nach einer zweiwertigen Logik von ihnen verlangt wird. Um diesen und anderen Problemen zu begegnen, wird an unterschiedlichen Fronten geforscht: an neuen Herstellungsverfahren, neuen Materialien und neuen Paradigmen in der Computerherstellung – beispielsweise Quantencomputern, mehrdimensionalen Siliziumstrukturen oder Graphenverbindungen.

Die Halbleiter-Industrie wendet sich deshalb von dem Mooreschen Gesetz ab und versucht nicht mehr, die Wachstumsraten für Transistoren und Rechnerleistung zu erfüllen. Vielmehr forscht sie nach Alternativen, wie bessere Computer entworfen und hergestellt werden können. Eines scheint jedenfalls klar zu sein: selbst wenn die Siliziumtechnologie sich ihren Grenzen zuneigt, gibt es vielversprechende Alternativen. Die Schwierigkeiten liegen in erster Linie in der Finanzierung. Weder Intel, Microsoft und Apple noch ein anderer Hersteller kann es sich leisten, Milliarden für Forschungen auszugeben, ohne dass sich die Produktion in großen Stückzahlen bewerkstelligen lässt – auch das sagt das Mooresche Gesetz voraus. Letzteres ist ein Grund, warum Moores Thesen dann doch nicht gänzlich abgelöst werden. Ein neues Computerzeitalter ist in greifbarer Nähe.

Auf super leistungsfähige Quantencomputer müssen wir aber wohl noch einige Jahre warten, oder? Das sehen wir im dritten Teil unserer Moore-Serie, der sich mit den Grenzen der Prozessortechnik und Ausblicke auf das freigibt, was kommen könnte.


Produkte, die Sie interessieren könnten


Ein Kommentar

Sag uns deine Meinung!

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert.