Highlight

Những điều thú vị khi dùng Trí tuệ nhân tạo của Viettel

Những người dùng Internet tại Việt Nam thường lấy “chị Google” ra để… giải trí. Khi “chị” đọc văn bản hay chỉ đường cho người tham gia gi...

Saturday, October 22, 2016

Die Geburt einer neuen Maschine

Google Data Center in Clarksville, Tennessee (Bild:PD)
Das Ende ist nah. In der Halbleitertechnik werden die Grenzen der Miniaturisierung bald erreicht sein. Ab Anfang der 1960er Jahre wurden Computerchips laufend kleiner und schneller. Der Fortschritt war planbar, die Zukunft liess sich auf der Basis des Mooreschen Gesetzes voraussagen. Bald aber wird dieses Gesetz seine Gültigkeit verlieren, bald werden die Grenzen der Miniaturisierung erreicht sein. Dann wird's spannend.

Was würde Google tun?

Am vergangenen Freitag hat Google unter dem Namen Zaius P9 dieSpezifikation eines neuen Server-Computers vorgestellt. Kaum eine Firma hat so viele Rechner im Einsatz wie Google, deshalb horchen in der Branche alle auf, wenn Google darlegt, wie ein guter Server-Computer auszusehen hat. Ausgangspunkt bei der Entwicklung der neuen Maschine waren die Vorgaben des Open Compute Project. Dieses Projekt, 2011 von Facebook gestartet, ist eine Art Selbsthilfegruppe: Firmen, die grosse Rechenzentren betreiben, haben angefangen, das Design von Computerhardware selbst an die Hand zu nehmen.
Eine erste Auffälligkeit des Zaius-Servers, den Google zusammen mit der Cloud-Computing-Firma Rackspace entwickelt hat, ist die Wahl des Hauptprozessors: Es ist ein Open-Power-Prozessor von IBM. Die zweite Besonderheit ist die Art und Weise, wie diese Prozessoren – Zaius wird zwei Power-9-CPU mit 24 Rechenkernen besitzen – mit der Umwelt kommunizieren: Sie verwenden ein von IBM entwickeltes Coherent Accelerator Processor Interface (Capi). IBM hat jetzt diese Technik offengelegt. Am vergangenen Freitag hat sich ein Open-Capi-Konsortium den Medien vorgestellt. Fast alle wichtigen Computerfirmen machen mit, neben IBM und Google etwa AMD, Dell, EMC, Hewlett Packard (HPE), Nvidia und Xilinx – mit einer Ausnahme: Intel.
Wenige Tage vor der Publikation der Open-Capi-Medienmitteilung hat sich ein Gen-Z-Konsortium zu Wort gemeldet, das ebenfalls die Rechenzentren mit schnelleren Datenleitungen neu gestalten will. Auch dieses Konsortium wird von fast allen wichtigen Computerfirmen getragen, auch hier fehlt – Intel. Während Open-Capi im Innern eines Server-Computers neue Verbindungen aufbauen will, fokussiert sich Gen-Z auf die Verbindungen zwischen Computern. Der Technik soll 2018 einsatzbereit sein, Open-Capi und Power-9-Prozessoren von IBM werden bereits 2017 Jahr erwartet.

Mehr Datendurchsatz

In der Medienmitteilung verspricht das Open-Capi-Konsortium, dass sich die Rechenleistung von Server-Computern dank der neuen Technik um den Faktor 10 verbessern lasse. Dieses Interface stellt eine Verbindung her zwischen Prozessor, Beschleuniger, Hauptspeicher, Massenspeicher und Netzwerk. Es soll den Peripheral Component Interconnect (PCI) von Intel ablösen. Open Capi, so verspricht das Konsortium, ermögliche einen Datendurchsatz von 25 GBit pro Sekunde. Bei der jüngsten PCI-Variante – PCIe – seien es nur 16 GBit pro Sekunde.
Doch es ist nicht allein die Geschwindigkeit, die den Unterschied macht. PCI wurde für herkömmliche Server entwickelt, Open Capi orientiert sich an zukünftigen Computerarchitekturen. In diesen neuen Systemen ist die CPU, die Zentraleinheit, nicht mehr das Zentrum. Vielmehr muss sie sich, je nach Aufgabenstellung, auf Beschleuniger verlassen. Das sind zunächst die Grafikchips (Graphic Processing Units, GPU), die sich bereits im Supercomputing bewähren konnten. Diese für Anwendungen im Bereich der Computergrafik entwickelten Koprozessoren verfügen über eine grosse Zahl von Rechenkernen und können dort auftrumpfen, wo sich Rechenaufgaben in eine Vielzahl von parallel ausführbaren Rechenschritten zerlegen lassen.

Paradigmenwechsel

Nicht nur bei den Prozessoren, auch bei den Speichertechnologien vervielfältigen sich die Optionen. Ab den Anfängen der Computerbranche beherrschte während Jahrzehnten eine Zweiteilung die Datenablage: hier der Hauptspeicher, dort der Massenspeicher, hier Volatilität, dort Langfristigkeit, hier schneller Zugriff, dort Umständlichkeit. Diese Zweiteilung löst sich nun auf. Flash-Speicherchips und andere sogenannte Storage-Class-Memory-Technologien ermöglichen es, die Vorteile von Massenspeicher und Hauptspeicher zu kombinieren. Um diese neuen Möglichkeiten zu nutzen, braucht es, so glauben die im Open-Capi-Konsortium zusammengeschlossen Firmen, ein neues Interface.
‹›Neben den GPU wird die CPU dereinst auch auf TPU oder NPU angewiesen sein: Die Tensor Processing Unit von Google oder dieNeural Processing Unit von Qualcomm sind für Aufgaben im Bereich künstliche Intelligenz spezialisiert.
Auch Field Programmable Gate Arrays (FPGA) werden als Beschleuniger in vielen Aufgabenbereichen eine wichtige Rolle übernehmen. Bereits seit fünf Jahren untersuchen Microsoft-Forscher die Einsatzmöglichkeiten von FPGA im Rechenzentrum. Ein Forschungsprojekt namens Catapult wurde gestartet, um – so schreibt Microsoft – sich vorzubereiten auf einen Paradigmenwechsel, auf einen Bedeutungsgewinn von «Post-CPU-Technologien». Microsoft-Forscher konnten zeigen, dass FPGA als Beschleuniger im Rechenzentrum viele Vorteile haben. Die Suchmaschine Bing nutzt bereis die Erkenntnisse von Catapult. Weil absehbar war, dass FPGA wichtig werden, hat Intel vor einem Jahr den FPGA-Hersteller Altera gekauft. Der Altera-Konkurrent Xilinx engagiert sich derweil für Open Capi.

Alle gegen Intel

Noch vor kurzem waren Experten der Meinung, dass Halbleiterelemente sich noch lange ungehindert verkleinern liessen. Die «International Technology Roadmap for Semiconductors» (ITRS)von 2013 ging davon aus, dass die Miniaturisierung erst im Jahr 2028 an Grenzen stösst. 2028 werde es möglich sein, Computerchips zu produzieren, deren kleinste Elemente nur noch 5 Nanometer gross seien, heisst es in dem Bericht, der von Branchenorganisationen aus den USA, aus Europa, Taiwan und Südkorea gemeinsam erarbeitet wurde.
Die neueste Version dieser «Roadmap», im Juli publiziert, sieht bereits 2021 bei 10 Nanometern das Ende erreicht. «Das Mooresche Gesetz ist tot, lang lebe das Mooresche Gesetz», schreiben die Autoren des Berichts, um anzudeuten, dass auch nach 2021 noch mit Fortschritten in der Halbleitertechnik zu rechnen ist. Allerdings sind die Experten nicht einig, wie es danach weitergehen könnte. Es kann deshalb nicht erstaunen, dass die jüngste «Technology Roadmap» die letzte sein wird. Während fast 25 Jahren haben die grossen Halbleiterfirmen die langfristige Planung gemeinsam erarbeitet, haben gemeinsam die Forschungsschwerpunkte gesetzt. Jetzt, in Zeiten der Unsicherheit, zerfallen diese internationalen Allianzen.
Nach den Ankündigungen vom letzten Freitag lässt sich in Umrissen bereits erkennen, wie die Computer der Zukunft aussehen werden. Doch es geht dabei nicht nur um Technik, es geht auch um Geschäftsmodelle: Während Jahrzehnten hat Intel Richtung und Geschwindigkeit des Fortschritts bestimmt. Firmen wie HPE und Dell haben dann die Vorgaben von Intel in marktgängige Produkte umgesetzt. Jetzt läuft es andersrum: Grosskunden wie Google oder Facebook diktieren die Spezifikationen, nach denen HPE oder Dell sich richten. Die Firma Intel muss in dieser neuen Welt ihren Platz erst noch finden.

No comments:

Post a Comment