Technologieriesen ringen um Dominanz im Supercomputing
Im Blickfeld
Supercomputing-Rennen
der Tech-Riesen gewinnt Fahrt
Amerikas IT-Konzerne pumpen gewaltige Mittel ins Supercomputing. Neben dem KI-Boom wirken Sorgen um die nationale Sicherheit als Investitionstreiber.
Derweil träumen Branchenvertreter schon vom nächsten Technologiesprung.
Von Alex Wehnert, New York
Börsenliebling Nvidia will sich mit einem neuen Produkt noch unverzichtbarer für die globale Entwickler machen. Der Supercomputer „Project Digits“, den der Chipdesigner in der laufenden Woche auf der Elektronikmesse CES in Las Vegas vorgestellt hat, soll ab Mai bei mehreren Endkundenanbietern verfügbar sein. Besonders dabei: Das mit einer bislang geheimen Prozessorvariante aus der neuen „Blackwell“-Reihe ausgestattete Gerät kommt im Schreibtischformat daher. Nach Vorstellung der Konzernführung um CEO Jen-Hsun Huang soll es künftig Millionen von Forschern, Datenwissenschaftlern und sonstigen Anwendern ermöglichen, an aufwendigen Modellen künstlicher Intelligenz (KI) arbeiten zu können, ohne dabei auf die hochleistungsfähigen, in Rechenzentren von Technologieriesen eingesetzten Nvidia-Chips zurückgreifen zu müssen.
Gewaltige Chipmengen benötigt
Der Halbleiterdesigner aus dem kalifornischen Santa Clara positioniert sich damit einmal mehr als Vorreiter des KI-Booms. Doch auch andere Branchenvertreter kurbeln ihre Investitionen in Dateninfrastruktur beträchtlich an. Das Supercomputing rückt dabei nun besonders in den Fokus: Bei den stärksten bislang errichteten Maschinen handelt es sich um sogenannte Cluster – also miteinander vernetzten Rechnern, in denen gewaltige Mengen Chips verbaut sind.
Amazon kündigte Anfang Dezember ein „Ultracluster“ auf Basis Hunderttausender der hauseigenen Trainium-Halbleiter und eines neuen Servers an. Das „Project Rainier“ soll seinen Standort in den USA haben und im laufenden Jahr zu einem der größten Supercomputer für das Training von KI-Modellen werden. Nutzen wird es die für ihren Chatbot Claude bekannte Technologieschmiede Anthropic, in die Amazon seit 2023 rund 8 Mrd. Dollar investiert hat und die ihre Bewertung bei einer neuen, 2 Mrd. Dollar schweren Finanzierungsrunde wohl auf 60 Mrd. Dollar steigern will.
Größe bringt Effizienzgewinne
„Project Rainier“ ist nach Zahl der möglichen Berechnungen pro Sekunde dabei fünfmal leistungsstärker als das bislang von Anthropic verwendete Trainingscluster. Wie Amazon Web Services betont, bringt die Größe des Computers nicht nur enorme Kapazität mit sich, sondern auch exponentielle Effizienzgewinne. Mit jeder vernetzten Einheit nehme die für Rechenprozesse benötigte Zeit ab.
Unterdessen rüstet auch das von Tesla-Chef Elon Musk gegründete Startup xAI kräftig auf: Sein Supercomputer „Colossus“ entstand im vergangenen Jahr innerhalb von nur drei Monaten und setzt sich aus 100.000 Nvidia-Grafikprozessor-Einheiten der Reihe „Hopper“ zusammen. Die Maschine bildet die Trainingsplattform für Musks Chatbot Grok, der Textgeneratoren wie ChatGPT von OpenAI oder Gemini von Google bisher sowohl beim technischen Vermögen als auch bei der Nutzerzahl hinterher hinkt.
Musk arbeitet an Mega-Expansion
Zum Abschluss des vergangenen Jahres kündigte der reichste Mensch der Welt an, die Größe von „Colossus“ verzehnfachen zu wollen. Die entsprechenden Arbeiten am Standort in Memphis, Tennessee haben laut der örtlichen Industrie- und Handelskammer bereits begonnen. Zudem sollen Nvidia, Dell und Supermicro Computer vor Ort an der Expansion mitarbeiten. Die Investitionsausgaben für den Ausbau dürften laut IT-Experten an sich schon in den Bereich von mehreren 10 Mrd. Dollar schnellen. Hinzu kommen stark anziehende Stromkosten und Aufwendungen für die Kühlung der verbauten Server. Im vergangenen Jahr sammelte die zuletzt mit 50 Mrd. Dollar bewertete xAI insgesamt rund 11 Mrd. Dollar von Investoren ein.
Musk will mit xAI insbesondere OpenAI Konkurrenz machen, mit deren CEO Sam Altman ihn eine persönliche Fehde verbindet. Doch während sich der Fokus der Marktteilnehmer stark auf das Wettrennen im KI-Segment fokussiert, übernehmen die bisher stärksten High-Performance-Computer einen deutlich breiteren Aufgabenbereich in der Wissenschaft und der nationalen Verteidigungsstrategie ganzer Länder.
Zentral für nationale Sicherheit
Stand November kann Hewlett Packard Enterprise (HPE) sieben der zehn weltweit leistungsfähigsten Systeme im Supercomputing-Markt vorweisen, der laut Fortune Business Insights im vergangenen Jahr Erlöse von 54,4 Mrd. Dollar generierte und dessen Umsatz sich bis 2032 mehr als verdoppeln soll. Spitzenreiter im zweimal jährlich veröffentlichten Ranking „TOP500“ ist der im kalifornischen Lawrence Livermore National Laboratory installierte „El Capitan“. Er kommt auf eine Geschwindigkeit von 1.742 Exaflops, kann also 1.742 Trillionen Berechnungen pro Sekunde treffen und soll in der Spitze 22-mal so schnell sein wie die von IBM und Nvidia entwickelte Vorgängermaschine Sierra. Das US-Energieministerium nutzt ihn für Forschung und Entwicklung zu Belangen der nationalen Sicherheit – die Wissenschaftler in Livermore sind für die Sicherheit und Zuverlässigkeit des US-Nukleararsenals verantwortlich.
CEO Antonio Neri erachtet die Flüssigkeitskühlung von Supercomputern und Datenzentren als „besonders spannende Gelegenheit“ für HPE. „Durch Liquid Cooling können wir auf die Nutzung von Ventilatoren verzichten und die Energieeffizienz der Systeme bedeutend steigern“, betonte der Vorstandschef zuletzt im Gespräch mit der Börsen-Zeitung. Damit adressiert das Unternehmen Sorgen hinsichtlich des steigenden Elektrizitätsverbrauchs infolge des KI-Booms.
Nachhaltigkeitsbedenken bremsen
Die Internationale Energieagentur schätzt, dass auf KI ausgerichtete Datenzentren im übernächsten Jahr 90 Terawattstunden Strom fressen werden – 2022 lag der Wert noch bei sechs Terawattstunden. Hinzu komme der Verbrauch in traditionellen Datenzentren, der von 345 auf 576 Terawattstunden steigen werde. Klimaschützer fürchten, dass die KI-Anwendungen der Technologieriesen dem gesamten Netz stabile Ressourcen entziehen, die dann durch fossile Energieträger wie Erdgas ersetzt werden.
Die Kühlung ist eine entscheidende Komponente des Verbrauchs. Neri verweist darauf, dass das „Liquid Cooling“ besonders effizient sei, weil sich in ihrem Rahmen Abwasser recyclen lasse. „Das funktioniert in Norwegen, wo sich ein bedeutender Teil des Stromnetzes aus Wasserkraft speist, zum Beispiel sehr gut“, sagt der in Argentinien geborene Manager.
Traum vom kommerziellen Quantencomputing
Während andere Tech-Konzerne noch damit ringen, ihre Computing-Expansion in Einklang mit Nachhaltigkeitsstrategien zu bringen, träumen Branchenvertreter schon vom nächsten großen Sprung. So hat Google zuletzt lang gehegte Hoffnungen auf kommerziell relevante Quantencomputing-Anwendungen neu entfacht. Gemäß einem Blogpost der Alphabet-Tochter bietet der neue Chip „Willow“ bedeutende Fortschritte bei der Fehlerkorrektur von Berechnungen.
Eine Aufgabe, für die aktuelle Supercomputer nahezu eine Ewigkeit brauchen würden, soll der Prozessor in unter fünf Minuten erledigt haben. Im Gegensatz zu den bisher leistungsfähigsten Rechnern nutzen Quantencomputer nicht das Binärsystem, sondern einen wesentlich komplexeren Informationsmix. Bis das Quantencomputing aber kommerzielle Anwendungen wie die Medikamentenentwicklung und Sicherheitslösungen antreibt, dürfte es laut Analysten noch Jahrzehnte dauern. In der Zwischenzeit nimmt aber das Wettrennen der Tech-Riesen bei herkömmlichen Supercomputern Fahrt auf.