VZ-Analyse
Kürzlich hat der chinesische Discount-KI-Chatbot DeepSeek ein Beben in der Tech-Welt verursacht. Dennoch schiessen die Ausgaben der US-Anbieter von Cloud-Computing-Dienstleistungen in die Höhe. Das sind die Gründe dafür.
Es ist noch nicht lange her, dass der chinesische Discount-KI-Chatbot von DeepSeek ein kleines Beben in der Techwelt – und in deren Börsenbewertungen – verursacht hat. Nichtsdestotrotz verkündeten die «Hyperscaler», also die Anbieter von Cloud-Computing-Diensten, die hochskalierbare Rechenressourcen bereitstellen, wie Google, Microsoft und Amazon, jüngst eine kräftige Erhöhung ihrer geplanten KI-Investitionen. Wie geht das zusammen?
Nun, da sich der Staub nach dem DeepSeek-Wirbel gelegt hat, reiben sich Beobachter die Augen: Wo eben noch wegen der chinesischen Billig-Konkurrenz die Geschäftsmodelle der grossen KI-Pioniere angezweifelt wurden, verkünden die grössten Abnehmer von KI-Chips und -Technologien - Amazon, Google, Microsoft, und Meta und Oracle - eine Anhebung ihrer geplanten Investitionsausgaben in diesem Bereich auf über 330 Milliarden US-Dollar allein dieses Jahr. Gegenüber den Investitionsplanungen noch Anfang 2024 von knapp 200 Milliarden US-Dollar ist das eine Steigerung um über 70 Prozent. Und immer noch 19 Prozent mehr als noch kurz vor den jüngsten Q4-Ergebnissen veranschlagt. Dabei entfallen die grössten Posten von rund 100 Milliarden US-Dollar auf Amazon, 75 auf Google, 80 auf Microsoft und 65 Milliarden US-Dollar auf Meta. Bei diesen gewaltigen Zahlen sind Apple, Tesla und die zahlreichen anderen Unternehmen, die ihre eigenen KI-Kapazitäten noch aufbauen wollen, gar nicht mit eingerechnet.
Investitionen sollen Effizienzgewinne und Marktanteile sichern
Als Anleger hat man meist eine andere Sicht als die Unternehmer, die an vorderster Front die Entwicklung und Kommerzialisierung von KI vorantreiben. Daher lohnt es sich, diesen Unternehmen genauer zuzuhören. Wenn man exemplarisch den Geschäftsbericht von Amazon analysiert, dann stellt man beispielsweise fest, dass das Unternehmen die Investitionen in die Infrastruktur aufgrund des anhaltenden Wachstums und der steigenden Nachfrage nach leistungsfähiger Cloud-Infrastruktur und KI-Lösungen weiter erhöht. Die zusätzlichen Mittel sollen primär in den Ausbau und die Modernisierung der AWS (Amazon Web Services)-Datenzentren sowie in die Entwicklung eigener KI-Technologien und -Hardware fließen. Dadurch wird eine verbesserte Skalierbarkeit und Leistungsfähigkeit der Rechenzentren erreicht, was vor allem den Einsatz von KI-Anwendungen unterstützt. Mit diesen Maßnahmen erhofft sich Amazon, operative Prozesse zu optimieren, langfristige Kosteneinsparungen zu erzielen und seine Wettbewerbsposition im globalen Markt nachhaltig zu stärken. Amazon-CEO Andy Jassy sprach wörtlich sogar von einer «once in a lifetime»-Gelegenheit von Investitionen für sein Unternehmen.
Die Hauptnutzniesser dieser Investitionen dürften die altbekannten sein: Die fortlaufenden Investitionen in den Ausbau von Cloud- und KI-Infrastrukturen führen zu einer kontinuierlich hohen Nachfrage nach leistungsstarken Halbleiterlösungen, wodurch etablierte Unternehmen wie Nvidia, AMD, Broadcom, TSMC und Marvell dank ihrer technologischen Führungsposition und Skaleneffekte weiterhin profitieren. Trotz des Aufstiegs von Konkurrenz wie DeepSeek bleibt diese Dynamik bestehen, da diese oft als Nischenanbieter agieren, während die umfassende Leistungsfähigkeit und das breite Ökosystem der etablierten Anbieter für gross angelegte, komplexe Anwendungen unverzichtbar sind.
Effizienzgewinne schaffen zusätzliche Nachfrage
Nun könnte man einwenden: DeepSeeks Discount-Modell weist doch eher in die Richtung, dass zukünftig viel weniger Investitionen benötigt werden. Die Hyperscaler kalkulieren allerdings anders. Ein Post auf X von Microsofts Chef Satya Nadella mit der Nachricht «Jevons Paradox schlägt wieder zu» verschaffte einen Einblick in die Denkweise der grossen Player der Künstlichen Intelligenz.
Der britische Ökonom William Stanley Jevons stellte im 19. Jahrhundert fest, dass technologische Fortschritte die Effizienz von kohleverbrauchenden Dampfmaschinen erheblich erhöhten. Allerdings führte diese Effizienzsteigerung zu einer breiteren Nutzung der Dampfmaschinen und einer Ausweitung der Industrie, was paradoxerweise zu einem Anstieg des Gesamtverbrauchs an Kohle führte, anstatt ihn zu senken.
Nadellas Hinweis auf diese ökonomische Begebenheit lenkte den Blick verstärkt auf die mögliche Durchdringung und den flächendeckenden Einsatz von KI. Als anschauliches Beispiel dürften Computer und Smartphones nicht zu weit hergeholt sein. Die Kalkulation der Hyperscaler sieht eine Explosion der Nachfrage nach Chips und Software für Künstliche Intelligenz, wenn diese effizienter und günstiger werden. Dies trotz oder vielleicht sogar gerade wegen harter Konkurrenz von Unternehmen wie DeepSeek.
Nvidia mit einem entscheidenden Konkurrenzvorteil
Eine insgesamt weiter steigende Nachfrage nach Chips schön und gut. Aber warum sollten weiterhin Nvidia und die alte Garde westlicher KI-Firmen profitieren? Immerhin zeigt eine aktuelle Morgan-Stanley-Studie, dass das Kosten-Leistungs-Verhältnis von spezialisierten ASIC-Chips (Application-Specific Integrated Circuits), wie Google und AWS sie selbst entwickeln, gegenüber Nvidia-Chips klar vorne liegt. Warum also ordern die Hyperscaler dennoch weiterhin sehr grosse Mengen dieser teuren Konkurrenz-Chips? Weil Nvidias GPUs (Graphics Processing Unit - ein spezialisierter Prozessor zur schnellen Verarbeitung von Grafiken und parallelen Aufgaben) Flexibilität und eine breite Anwendbarkeit für verschiedene Workloads bieten, während ASICs meist spezifischen Algorithmen vorbehalten sind. Nvidia hat ein etabliertes AI-Software- und Tool-Ökosystem geschaffen, das von Entwicklern bevorzugt wird, während ASICs oft proprietäre und weniger ausgereifte Software erfordern. Nvidia kann durch Partnerschaften große Mengen an GPUs liefern, wohingegen der Aufbau der Massenproduktion von ASICs mehr Zeit erfordert. Kunden der Hyperscaler wünschen zudem häufig gerade Nvidia-GPUs, da sie bereits für diese Chips optimierte Software und Arbeitsprozesse eingeführt haben. Während ASICs in spezifischen Leistungskennzahlen führen, dominieren Nvidia-GPUs in absoluter Performance und sind zudem bei großen KI-Modellen wie ChatGPT unverzichtbar.
Damit dürften auch neu auftretende Chatprogramme nicht so schnell am Thron der bisherigen Platzhirsche und des etablierten Systems rütteln. Morgan Stanley erwartet beispielsweise, dass der globale Markt für KI-GPUs bis 2027 auf 400 Milliarden US-Dollar steigen wird und sich Nvidia 70 Prozent aus diesem Kuchen wird herausschneiden können. Aber, wie wir aus Erfahrung allzu gut wissen, erstens kommt es anders, und zweitens, als man denkt. Durchaus denkbar, dass durch Innovationen in der Entwicklung von Chips oder der Effizienz bei der Datenverarbeitung ein Preiswettkampf einsetzen wird, der die Margen der aktuellen Profiteure schnell schmelzen lassen wird. Dann jedoch, wir erinnern uns, dürfte das Jevons Paradox umso heftiger wirken und Chips und Künstliche Intelligenz zu einem unverzichtbaren Commodity werden lassen. Dies wiederum den Markt beziehungsweise um bei unserem Bild zu bleiben – den Kuchen – nur umso grösser machen.
Disclaimer: Alle Angaben ohne Gewähr. Bei den aufgezeigten Informationen handelt es sich um Werbung gemäss Art. 68 FIDLEG. Die Analysen haben nur indikativen Charakter und stellen keinesfalls ein Angebot, eine Beratung oder eine Empfehlung zum Kauf oder Verkauf eines Finanzinstruments oder zur Ausführung irgendeiner Transaktion dar.