Nvidia ewidentnie dostała zadyszki – kurs akcji spółki zanurkował w listopadzie o 15% i od tego czasu nie może się podnieść mimo polepszenia koniunktury na rynku pozostałych firm technologicznych. Spadek ten był w dużej mierze związany z obawami o pęknięcie „bańki” AI, ale spółce zaszkodził też ciąg doniesień przypominających inwestorom, że Nvidia ma konkurencję na kluczowym dla siebie rynku akceleratorów AI. Czy Google, Amazon, AMD naprawdę mogą zagrozić dominacji „zielonych”? Przyjrzyjmy się im – tym innym graczom na tym rynku. Kto podgryza Nvidię?
Listopad to nie był dobry czas dla Nvidii. Inwestorzy coraz częściej powtarzali słowa „bańka AI”, zastanawiając się, czy wyceny spółek związanych ze sztuczną inteligencją nie są przypadkiem zawyżone. Świetne wyniki Nvidii tylko na chwilę poprawiły nastroje. Dodatkowo zaczęły nadchodzić informacje przypominające inwestorom, że konkurencja dla Nvidii jak najbardziej istnieje i ma się coraz lepiej. I zaczyna Nvidię podgryzać.
- Tak Duńczycy przygotowują się na kryzys? Bank centralny wydał nowe zalecenie dotyczące form płatności w sklepach [POWERED BY EURONET]
- Przesiadka na mniejszego konia da zarobić? Akcje polskich małych i średnich spółek mogą przejąć pałeczkę hossy od gigantów [POWERED BY UNIQA TFI]
- Jest nowy ETF oparty na polskich indeksach akcji! I to… dwóch naraz! Czy to ma sens? TFI PZU chce ściągnąć polskie pieniądze na polską giełdę [POWERED BY PZU]
Już kilka tygodni temu zaczęły krążyć spekulacje, że Google w końcu zacznie udostępniać klientom swojej chmury układy TPU Ironwood, czyli najnowszej generacji akceleratory AI. Potem marketingowo strzelił sobie w stopę sam prezes i założyciel Nvidii Jensen Huang, ogłaszając współpracę z Microsoftem (udziałowcem OpenAI) i Anthropikiem (twórcą modeli Claude), Huang niechcący uświadomił publiczności, że do trenowania absolutnie topowych modeli AI sprzęt Nvidii zupełnie nie jest potrzebny.
No i wreszcie nadeszła feralna końcówka poprzedniego miesiąca i gruchnęła wieść, że Google, który dotąd udostępniał klientom TPU Ironwood głównie w swojej chmurze obliczeniowej, rozmawia z Metą i instytucjami finansowymi o udostępnieniu tych układów do użytku w ich centrach danych. Według tych doniesień układy Google’a mogłyby trafić do Mety w 2027 roku. W końcu w ostatnich dniach Amazon ogłosił, że udostępnił swoim klientom układy Trainium 3, czyli najnowszej generacji układy do trenowania modeli AI.

Gdybyśmy słuchali tylko prezesa Huanga i jego zapewnień o absolutnej supremacji Nvidii i ograniczyli się do szacunków IDC mówiących, że Nvidia kontroluje 85% rynku akceleratorów AI, to moglibyśmy dojść do wniosku, że Nvidia w ogóle nie ma konkurencji. Tak jednak nie jest. Firma Huanga nie jest nawet głównym rozgrywającym. Tym bowiem jest tajwański TSMC.
TSMC – serce produkcji, producent „serc”
TSMC to obecnie najważniejszy producent na rynku półprzewodników i praktycznie jedyny, który jest w stanie dostarczyć układy będące „sercami” zaawansowanych akceleratorów AI (i inne zaawansowane układy, na przykład do telefonów) w ogromnej skali.
TSMC produkuje wafle krzemowe dla Nvidii, AMD, Google, Amazona czy Apple. I to on wybiera, dla kogo produkuje, zwykle starając się balansować między dbaniem o najlepszych klientów (głównie o Nvidię) a nieuzależnianiem się od jednego klienta, co przy istotnej przewadze popytu na produkty TSMC nad ich podażą powoduje, że nikt z największych graczy nie dostaje tyle, ile by chciał.
Ta pozycja rynkowa TSMC powoduje, że może się on pochwalić bardzo wysoką marżą brutto na sprzedaży – w ostatnich kwartałach było to prawie 60%, co może nie wygląda aż tak imponująco przy 70–75% marży Nvidii, jest jednak dla producenta kontraktowego kosmiczna.
Jeśli nic się tu w najbliższej przyszłości nie zmieni, a na to nie wygląda, bo konkurencji brakuje skali (Samsung) lub technologii (Intel), to TSMC pozostanie panem życia i śmierci dla rynku akceleratorów AI. Co prawda nie słychać, by tej pozycji nadużywał arbitralnymi decyzjami, ale decyzje tajwańskiej firmy mogą wpłynąć, jak rynek będzie wyglądał w przyszłości.
Google, czyli (jak dotąd) swój własny klient
Google jest również jednym z najstarszych graczy na tym rynku – prace nad układami przyspieszającymi obliczenia AI zaczęły się jakąś dekadę temu, a pierwszy układ TPU ujrzał światło dzienne w 2018 roku. Nic więc dziwnego, że w bieżącym roku ujrzeliśmy siódmą już generację układu, czyli Ironwood.
Czy ten układ naprawdę może konkurować z układami Nvidii? Zapewne tak, choć Ironwód podobno jest o mniej więcej połowę mniej potężny, to można je łączyć w zespoły (tzw. pody) liczące kilka tysięcy układów. W przypadku Nvidii pody mogą liczyć do 256 układów – choć można je łączyć, zapewne nieco mniej efektywnie, osprzętem sieciowym. Google umożliwia dostęp do swoich układów po cenie niższej niż do układów Nvidii (bo i one są obecne w jego chmurze). Czemu więc niektórzy klienci wolą droższą Nvidię?
Powodów jest kilka. Po pierwsze inżynierowie AI świetnie znają oprogramowanie CUDA Nvidii, które umożliwia efektywny dostęp do sprzętu. Po drugie TPU Google’a są jeszcze bardziej wyspecjalizowane niż GPU Nvidii, co oznacza, że w niektórych zadaniach słabiej się sprawdzają, są po prostu mniej wszechstronne. Dodatkowo TPU podobno dobrze pracuje przede wszystkim z oprogramowaniem TensorFlow stworzonym przez Google, podczas gdy większość badaczy AI woli konkurencyjnego PyTorcha, lepiej działającego na GPU.
Ten ostatni czynnik może się jednak zmienić – jeśli Google przekona Metę do kupna TPU, to Meta może dostosować PyTorcha do układów Google’a. Bo to właśnie Meta PyTorcha stworzyła i może mieć interes w tym, by go dostosować w taki sposób, by dobrze działał na TPU.
Podobno Nvidia produkuje około trzykrotnie więcej swoich GPU dla centrów danych, niż Google produkuje TPU. To istotnie mniejsza przewaga, niż można by wnosić z tych 85% wartościowych udziałów Nvidii w rynku według szacunków IDC. Dodatkowo Google planuje zwiększyć swoją produkcję do 3 mln w przyszłym roku i do około 5 mln w 2027 roku, być może nawet więcej. To są już znaczące liczby – według jednej z prognoz w bieżącym roku Nvidia ma wyprodukować do 7 mln akceleratorów.
Czy Google’owi uda się zrealizować te plany i mocniej podgryźć Nvidię? Wiele tu zależy od klientów – zarówno tych korzystających z Google Cloud, jak i tych wciąż potencjalnych, którzy wykorzystywaliby TPU we własnych centrach danych. Tu rola Mety może być znacząca – zarówno jako potencjalnego klienta, jak i twórcy, jak wspominałem wcześniej, PyTorcha.
Wiele zależy jednak również od TSMC – od tego, jak alokuje swoje moce produkcyjne między klientów. Czy wspominałem, że prezes Nvidii Jensen Huang jest z pochodzenia Tajwańczykiem?
Amazon, Broadcom, AMD: oni też „polują” na Nvidię
I inni gracze? Amazon, a raczej jego chmurowa spółka zależna AWS, to największy operator chmury obliczeniowej na świecie. I podobnie jak jego największy konkurent Google oferuje swym klientom wybór – GPU od Nvidii lub własny układ Trainium.
Jednak spółka kładzie nacisk na nieco inne elementy – dla Amazona ważniejsza niż sama wydajność jest stosunek wydajności do kosztu. Ten nacisk na efektywność kosztową, a nie na najwyższą wydajność sprawia, że Amazon wydaje się mniejszym zagrożeniem dla Nvidii. Firma wydaje się też bardziej zainteresowana utrzymywaniem pozycji AWS w rynku chmurowym niż sprzedawaniem akceleratorów zewnętrznym klientom do ich centrów danych.
Broadcom to jeden z dużych beneficjentów boomu na AI. Przede wszystkim firma jest długoletnim partnerem Google’a w projekcie TPU. Dodatkowo firma ma swój udział w produkcji innego sprzętu do centrów danych oraz umowy na opracowanie akceleratorów AI, w tym z OpenAI. Nie jest to bezpośredni konkurent Nvidii, ale jest to gracz, który może pomóc klientom Nvidii w opracowaniu własnych układów i uniezależnieniu się od drogiego sprzętu firmy Huanga. Rynek już tę rolę docenił – Broadcom jest wart obecnie 1,8 biliona dolarów, a więc więcej niż Tesla.
Z kolei AMD jest swoistym wiecznym spóźnionym na rynku akceleratorów AI, ale to się zmienia pod władzą prezes Lisy Su. Mimo że firma startowała z podobnego pułapu jak Nvidia, poprzez przejęcie ATI stała się jednym z dwóch czołowych obok Nvidii producentów konsumenckich kart graficznych, to zastosowaniami GPU do wysokowydajnych obliczeń zainteresowała się dopiero w drugiej połowie zeszłej dekady, a więc w momencie, kiedy CUDA Nvidii istniała już od przeszło 10 lat.
To niedopatrzenie dużo kosztuje AMD do dzisiaj. Układy AI firmy są coraz lepsze, są sprzedawane po niższej cenie, a i tak AMD nie jest łatwo przekonać do siebie inżynierów AI – a więc i ich płacących za sprzęt szefów. Czemu? CUDA, a więc ekosystem narzędzi służących do programowania kart Nvidii jest o wiele bardziej popularna od ROCm, czyli jej odpowiednika dla kart AMD.
Jak AMD chce dogonić Nvidię?
Sytuację może zmienić premiera kart z serii MI400, zwłaszcza ich najmocniejszego wariantu MI450, który ma pozwolić firmie dogonić Nvidię pod względem wydajności i może, jak twierdzi Dylan Patel, analityk z SemiAnalysis, „wziąć sektor przebojem”. Lisa Su podczas niedawnego spotkania z analitykami przewidywała, że przychody firmy w kolejnych latach powinny rosnąć średnio o 35% rocznie, a udział firmy w rynku akceleratorów AI powinien wzrosnąć do wartości dwucyfrowych. Obecnie, według IDC, jest to około 2%.
Czy to się uda? Znowu wiele zależy od TMSC. Lisa Su jest, podobnie jak Jensen Huang, z pochodzenia Tajwanką. Ale Nvidia jest dla tajwańskiej firmy większym, a więc ważniejszym klientem. Tak jak pisałem – TSMC jest głównym rozgrywającym. To on może zdecydować, w którą stronę pójdzie rynek.
Wiele też zależy od klientów. Ostatnio AMD odnotował pewne sukcesy, takie jak umowy z Microsoft i OpenAI. Pozytywne opinie od tak dużych graczy mogą firmie Su pomóc w zdobywaniu udziałów rynkowych. Jak dotąd AMD nie jest ulubieńcem inwestorów głównie dlatego, że konkuruje z Nvidią marżą, co drastycznie ogranicza jego zyski. To jednak oznacza, że jeśli plany prezes Su się powiodą, to inwestorzy firmy mogą nieźle zarobić. No właśnie, jeśli…
To oczywiście nie jest pełna lista chętnych do uszczknięcia kawałka z „nvidiowego” tortu. Mamy niegdysiejszego giganta Intela, który chętnie by wrócił do silnej pozycji na rynku półprzewodników, ale na razie mu zbyt mocno nie wychodzi. Mamy Qualcomma, giganta chipów do smartfonów, który chce wprowadzić własny akcelerator graficzny i twierdzi, że będzie on konkurencyjny pod względem efektywności energetycznej.
Mamy też startupy z interesującymi pomysłami na własne chipy. Te mają najbardziej pod górkę – ze względu na rozmiar nie są na liście priorytetów TSMC, więc na wyprodukowanie własnych chipów czekają wiele miesięcy, czasem lata.
Co potencjalna presja oznacza dla Nvidii?
Czy ta coraz mocniejsza konkurencja na rynku wpłynie na biznes Nvidii? W krótkim terminie pewnie nie – jak niedawno informowała dyrektor finansowa Colette Kress, przychody spółki ze sprzedaży GPU obecnej architektury Blackwell i kolejnej Rubin powinny do końca 2026 roku przekroczyć 500 mld dolarów. To zapewne oznacza, że portfel zamówień firmy jest na ten okres praktycznie pełny i w przyszłym roku raczej nie spodziewajmy się osłabienia czy to sprzedaży, czy to marż.
A jak będzie dalej? Przewaga technologiczna Nvidii wydaje się z wolna maleć i nie można wykluczyć, że coraz większa grupa klientów będzie rozważać alternatywy. Zwłaszcza że obecną przeszło 70-procentową marżę brutto na sprzedaży, jaką osiąga Nvidia, trudno nazwać inaczej niż haraczem.
Nadchodzą więc być może lepsze czasy dla klientów Nvidii. A prezesowi Huangowi słowo „dywersyfikacja” zapewne już teraz śni się po nocach i nie są to przyjemne sny. Bo jeśli plany Google’a, Broadcoma czy AMD się powiodą, to będzie to dywersyfikacja od Nvidii w kierunku konkurencji. Nie przełoży się to raczej na spadki sprzedaży firmy, ale może oznaczać redukcję kosmicznej obecnie marży.
—————————
WIĘCEJ O BIGTECHACH:

———————————-
ZAPISZ SIĘ NA NASZE NEWSLETTERY:
>>> W każdy weekend sam Samcik podsumowuje tydzień wokół Twojego portfela. Co wydarzenia ostatnich dni oznaczają dla Twoich pieniędzy? Jakie powinieneś wyciągnąć wnioski dla oszczędności? Kliknij i się zapisz.
>>> Newsletter „Subiektywnie o Świ(e)cie i Technologiach” będziesz dostawać na swoją skrzynkę e-mail w każdy czwartek bladym świtem. Będzie to podsumowanie najważniejszych rzeczy, o których musisz wiedzieć ze świata wielkich finansów, banków centralnych, najpotężniejszych korporacji oraz nowych technologii. Kliknij i się zapisz.
———————————
zdjęcie tytułowe: Pixabay













