Nvidia złapała zadyszkę i spada na giełdzie. Na chwilę czy na stałe? Inwestorzy na całym świecie zastanawiają się: czy to może być koniec czipowej hossy? Jej lider, produkująca procesory niezbędne do korzystania z generatywnej sztucznej inteligencji Nvidia, od dwóch miesięcy nie chce już bić rekordów. Akcje potaniały o 15% i nadal spadają. Analitycy zastanawiają się, czy technologia AI nie jest „przepłacona”, przeciwko Nvidii wszczął postępowanie francuski regulator, a analitycy zaczynają obniżać rekomendacje. Pojawiły się też nowe rozwiązania technologiczne, które mogłyby zachwiać pozycją Nvidii na rynku AI
W połowie czerwca kurs Nvidii osiągnął 140 dolarów, co oznaczało wycenę spółki na poziomie 3,3 biliona dolarów i czyniło ją w tamtym momencie najcenniejszą firmą na świecie. Trzeba pamiętać, że to cena po splicie (podziale akcji) w proporcji 1:10, więc po „starych” cenach mówilibyśmy o kursie 1400 dolarów za akcję. Ale potem zaczyna się drastyczna przecena akcji o kilkanaście procent. W ciągu trzech najbardziej „krwawych” sesji spółka straciła na wartości 430 mld dolarów – był to największy trzydniowy spadek wartości w historii firm notowanych na giełdach.
- Wymarzony moment, żeby inwestować w fundusze obligacji? Podcast z Pawłem Mizerskim [POWERED BY UNIQA TFI]
- Nowe funkcje terminali płatniczych. Jak biometria zmieni świat naszych zakupów? [POWERED BY FISERV]
- BaseModel.ai od BNP Paribas: najbardziej zaawansowana odsłona sztucznej inteligencji we współczesnej bankowości!? [POWERED BY BNP PARIBAS]
Nvidia złapała zadyszkę. I cała branża czipów też. Na dłużej?
Takie gwałtowne „strząśnięcia” się zdarzają w notowaniach mocno „przegrzanych” spółek, ale z reguły później wracają one do wzrostów, bo do gry wchodzą inwestorzy, którzy tylko czekali na możliwość nieco tańszego zakupu. Jednak w tym przypadku było inaczej – Nvidia przez dwa tygodnie nie była w stanie wspiąć się powyżej 130 dolarów. Potem – przez kolejne dwa tygodnie – zbliżała się do rekordowych poziomów, ale nie zdołała ich pokonać. A teraz znów szybko spada, tym razem już z innymi producentami czipów.
Czy z firmą stało się coś złego? Nie musiało. Przy obecnej wycenie Nvidia handlowana jest na poziomie 22-krotności przychodów szacowanych na następne 12 miesięcy. Tak, przychodów, nie zysku netto. Wskaźnik cena/zysk wynosi obecnie… 73. To mniej więcej dwukrotność analogicznych wskaźników dla takich firm jak Apple czy Microsoft.
Inwestorzy przynajmniej czasami zadają sobie pytanie, czy firma, pomimo fenomenalnego popytu na jej produkty i wysokich marż, jakie jest w stanie uzyskać, faktycznie powinna być wyceniana tak kosmicznie wysoko.
A cała branża czipowa jest w depresji, ponieważ pojawiły się obawy związane z ostrzejszymi ograniczeniami handlowymi, które Stany Zjednoczone chcą wprowadzić w sprzedaży czipów do Chin. Od Stanów Zjednoczonych po Europę i Azję producenci czipów znaleźli się w tarapatach. Amerykańskie potęgi Nvidia i AMD tracą z tego powodu w ostatnich godzinach po 4-5%, a holenderski ASML Holding (największy producent czipów w Europie) spadł nawet o 10%.
Administracja prezydenta Bidena zapowiedziała, że rozważa najsurowsze możliwe ograniczenia handlowe, jeśli firmy takie jak japońskie Tokyo Electron, czy ASML nadal będą zapewniać Chinom dostęp do zaawansowanej technologii półprzewodników. Stany Zjednoczone rozważają również dodatkowe sankcje wobec konkretnych chińskich firm produkujących (chodzi głównie o firmy powiązane z Huawei).
Do wątpliwości inwestorów, skutkujących potężną korektą wartości Nvidii (spółka straciła pół biliona dolarów wartości rynkowej w kilka tygodni – to dwie trzecie całego polskiego rocznego PKB), doszły wątpliwości jednego z renomowanych analityków rynkowych.
Pierre Ferragu z New Street Research obciął rekomendację dla spółki do „neutralnie” z „kupuj”, ustalając 12-miesięczną cenę docelowa na poziomie 135 dolarów. Wynikałoby z tego, że Nvidia – nawet w optymistycznym scenariuszu rozwoju rynku AI – jest już wyceniana „fair”. Ale to na razie ewenement. Według Bloomberga prawie 90% analityków wydających rekomendacje dla Nvidii wciąż rekomenduje kupno akcji spółki.
Skąd wątpliwości Ferragu? Jak twierdzi analityk, jeśli nie zmienią się obecne perspektywy dla spółki, to wzrost jej wyceny stoi pod dużym znakiem zapytania. Potencjał dla wzrostu pojawiłby się tylko w przypadku istotnej poprawy perspektyw dla wyników finansowych spółki w latach 2026-2030. A te po pierwsze są niepewne, a po drugie istnieje – zdaniem analityka – ryzyko, że mogą być skorygowane w dół.
Jesteś Big Techem? Strzeż się europejskich regulatorów
Dodatkowo Nvidię wydaje się spotykać los praktycznie wszystkich firm, które uzyskują status amerykańskiego Big Techu, czyli niekoniecznie życzliwe zainteresowanie ze strony europejskich regulatorów. Komisarz do spraw konkurencji Margrethe Vestager zasugerowała, że Komisja Europejska przygląda się potencjalnym ryzykom związanym z wąskimi gardłami w dostawach Nvidii na europejski rynek.
Mniej łaskawy – jak już nieraz przekonywały się takie amerykańskie firmy jak Google – okazał się regulator francuski. Jak donosi Reuters, francuski regulator antymonopolowy zarzuca Nvidii praktyki naruszające konkurencję. Na razie niewiele wiadomo na temat natury tych zarzutów, bo nie zostały one upublicznione.
Jednak w raporcie opublikowanym pod koniec czerwca tenże francuski regulator sygnalizował ryzyka nadużywania pozycji przez producentów procesorów w stosunku do firm rozwijających sztuczną inteligencję i wyraziła niepokój związany z inwestycją Nvidii w firmy chmurowe.
Jednak, o ile regulatorzy mogą utrudnić firmie życie, a nawet spowodować pogorszenie marżowości (na przykład poprzez ograniczenia na wykorzystywanie przez Nvidię jej pozycji rynkowej), to istnieją ryzyka, które, jeśliby się zrealizowały, mogłyby zrobić coś znacznie gorszego: wywrócić do góry nogami biznes Nvidii.
Szlakiem Bitcoina, czyli czy karty Nvidii będą (znowu) niepotrzebne?
Jednym z takich ryzyk jest oczywiście powstanie procesorów, które mogłyby konkurować z ofertą Nvidii. Firm produkujących układy, które mogą służyć do trenowania sztucznej inteligencji lub do generowania treści przez sztuczną inteligencję, jest sporo – na przykład AMD, Intel czy Qualcomm. Swoje układy scalone zaprojektowały nawet Google i Amazon. To jednak w żaden sposób nie zachwiało pozycją Nvidii, której karty graficzne i stosowana na nich technologia CUDA są wciąż postrzegane jako wzorzec dla innych.
Jednak startup Etched twierdzi, że możemy uzyskać dużo lepszą wydajność w generatywnej sztucznej inteligencji, jeśli zamiast kart graficznych (GPU) będziemy używać układów specjalizowanych w przetwarzaniu danych w architekturze transformerów, czyli w architekturze wykorzystywanej we wszystkich dużych modelach językowych (LLM) stanowiących bazę generatywnej sztucznej inteligencji.
Skąd przekonanie, że tak się da? Bo już się udało – przy Bitcoinie. Po boomie na Bitcoin pojawiły się specjalizowane układy mogące „wydobywać” kryptowalutę dużo szybciej niż używane do tego wcześniej karty graficzne. Jak twierdzi Investopedia, najpotężniejsze układy ASIC są około miliona razy wydajniejsze niż najnowsze układy graficzne – przynajmniej w tym konkretnym zastosowaniu. Etched uważa, że jest w stanie powtórzyć ten sukces.
Wada układu od Etched? Można go używać tylko do generacji treści na już wytrenowanym modelu. Do trenowania modeli się nie nadaje. Ale dla Nvidii to niewiele zmienia – większość jej kart jest wykorzystywanych w centrach danych do generowania treści, a nie do trenowania modeli. Gdyby układy Nvidii, takie jak H100 czy B200, zostały zastąpione w klastrach AI przez układy od Etched, oznaczałoby to potężny spadek popytu na układy Nvidii.
Etched niedawno pozyskał od inwestorów 120 mln dolarów i zawarł porozumienie z TSMC, największym kontraktowym producentem procesorów, by wspólnie produkować układy Sohu, które mają zdetronizować karty graficzne od Nvidii…
A co, jeśli moc Nvidii… nie będzie potrzebna?
O ile twórcy Sohu skupili się na tym, by ich procesor był niezwykle wydajny w jednym konkretnym obszarze – transformerach – o tyle grupa naukowców z czterech ośrodków badawczych zadała inne pytanie, czy te wszystkie intensywne obliczenia, które wymagają potężnych kart graficznych, są nam w ogóle potrzebne.
By odpowiedzieć na to pytanie, badacze z UCSC, UC Davies, LuxiTech i Uniwersytetu Soochow stworzyli nową architekturę dużego modelu językowego. Architekturę, w której pewna szczególnie uciążliwa obliczeniowo operacja, zwana mnożeniem macierzy, nie jest w ogóle potrzebna.
Co się okazało? Przede wszystkim w zaproponowanej architekturze mamy do czynienia ze znacznym spadkiem zapotrzebowania na energię elektryczną. Użyty przez badaczy układ scalony zużywał tylko 13 W energii dla modelu z 1,3 mld parametrów, podczas gdy na domowym komputerze taki model wymagałby karty graficznej zużywającej do 200 W. Mielibyśmy więc wielokrotne zmniejszenie zapotrzebowania na energię.
Nowa architektura wymaga też mniej pamięci. Badacze oceniają, że trenowanie modeli w nowej architekturze będzie wymagać aż o 61% mniej pamięci. Więc jeśli obecnie wytrenowanie modelu o wielkości 1 mld parametrów wymaga około 80 GB na karcie graficznej, to w nowej architekturze wystarczy około 32 GB. Jeszcze lepiej jest przy wykorzystywaniu wytrenowanego modelu do generowania treści — tutaj wymagania co do pamięci spadają dziesięciokrotnie!
Czy to oznacza, że karty Nvidii byłyby niepotrzebne? Tak naprawdę, to nie wynika to bezpośrednio z artykułu badaczy. Ale można zakładać, że przy użyciu nowej architektury moglibyśmy używać albo mniej potężnych kart graficznych albo po prostu mniejszej ich liczby – i jedno, i drugie nie byłoby korzystne dla biznesu Nvidii. W pierwszym wypadku zwiększyłby się popyt na mniej potężne, lecz tańsze produkty konkurencji, w drugim spadłby globalny popyt na karty graficzne.
To oczywiście tylko ryzyka – Sohu to tylko prototyp od startupu i nie wiadomo, jak zostanie przyjęty przez rynek, ani ile układów będzie w stanie dostarczyć. Zaś nowa architektura ograniczająca wymagania obliczeniowe to, jak dotąd, tylko projekt badawczy. Jednak, jeśli te technologie udowodnią swoją użyteczność, to będą łakomym kąskiem dla rywali (a nawet wydających miliardy dolarów na sprzęt klientów) Nvidii.
Sztuczna inteligencja jest „przepłacona”?
Zaczyna się też w świecie technologii inna dyskusja, z której wnioski mogą być niepokojące nie tylko dla Nvidii. Niedawno (1 czerwca) w „The Wall Street Journal” ukazała się ciekawa analiza zatytułowana „AI has been massively overhyped” (co można przetłumaczyć jako „sztuczna inteligencja została drastycznie przeszacowana”), w której autor stawia pytanie, czy inwestycje w rozwój sztucznej inteligencji i infrastruktury potrzebnej do jej obsługiwania mają szansę kiedykolwiek się zwrócić.
Jego zdaniem tempo doskonalenia sztucznej inteligencji spada i wydaje się, że istnieje mniej zastosowań, w których można by jej użyć, niż pierwotnie sobie wyobrażano. A budowanie i uruchamianie sztucznej inteligencji jest szalenie drogie. Ciągle pojawiają się nowe, konkurujące ze sobą modele sztucznej inteligencji. Przedstawia wątpliwości, czy sztuczna inteligencja może stać się „towarem”, czy ma wystarczająco duży potencjał do generowania przychodów i zysków.
Autor analizy zwraca uwagę na to, że większość ulepszeń w dużych modelach językowych sztucznej inteligencji (takich jak ChatGPT od OpenAI i Gemini od Google’a) sprowadza się do wtłaczania do nich coraz większej ilości danych. A właściciele modeli językowych wyszkolili je już na niemal wszystkich dostępnych danych. Teraz zwracają się ku „danym syntetycznym”, czyli generowanym przez inne odmiany sztucznej inteligencji. To wcale nie musi być skuteczne, czyli nie musi pozwolić na dalszy wzrost efektywności działania AI.
Autor analizy stawia tezę, że do sztucznej inteligencji zbliża się biznesowe „sprawdzam”. Różnice między wydajnością różnych modeli sztucznej inteligencji zmniejszają się. To oznacza, że dla rentowności inwestycji zaczną mieć znaczenie efekt skali i umiejętność ograniczania kosztów. Duże firmy, takie jak Microsoft i Google, będą w stanie przyciągnąć wystarczającą liczbę użytkowników, aby ich inwestycje w sztuczną inteligencję były opłacalne, ale co na to mniejsze firmy? Ich inwestycje mogą się nie zwrócić i ich zaprzestaną.
Fundusz venture capital Sequoia policzył, że branża technologiczna wydała zaledwie w rok 50 mld dolarów na chipy od Nvidii na szkolenie sztucznej inteligencji, ale inwestycje te przyniosły tylko 3 mld dolarów przychodów. Sztuczna inteligencja musi „myśleć” na nowo za każdym razem, gdy jest o coś pytana. Koszty odpowiedzi na pytanie z wykorzystaniem AI są dziesięciokrotnie wyższe niż w przypadku tradycyjnego wyszukiwania. Czy ktoś tę cenę będzie gotów zapłacić?
„Financial Times” poinformował w grudniu, że przychody OpenAI wynoszą co najmniej 2 mld dolarów, a firma uważa, że może podwoić tę kwotę do 2025 r. Ale to wciąż daleko od przychodów potrzebnych do uzasadnienia wyceny OpenAI na prawie 90 mld dolarów.
Nie wiadomo też, w jakim stopniu sztuczna inteligencja może zwiększać wydajność pracy. Może pomóc niektórym ludziom w wykonywaniu ich pracy, ale nie może ich zastąpić. Oznacza to, że jest mało prawdopodobne, aby AI pomogła firmom zaoszczędzić na kosztach wynagrodzeń. A z tym właśnie wiązano największe nadzieje. I za to firmy gotowe byłyby płacić. AI, która nie zastępuje pracownika, a tylko pomaga mu w pracy, jest wielokrotnie mniej „cenna” w zastosowaniach biznesowych.
Goldman Sachs i Seqoia Capital liczą: komu to się opłaci?
Również gigant inwestycyjny Goldman Sachs opublikował analizę na temat ekonomicznej opłacalności generatywnej sztucznej inteligencji, w którym zauważono, że czy gigantyczne wydatki na infrastrukturę dla sztucznej inteligencji kiedykolwiek się zwrócą. Analiza zatytułowana „Gen AI: too much spend, too little benefit?” opiera się na wywiadach z ekonomistami i badaczami AI.
Analitycy Goldman Sachs twierdzą, że optymizm związany ze sztuczną inteligencją (napędzający wzrost cen akcji spółek takich jak Nvidia) opiera się na założeniu, że generatywna sztuczna inteligencja doprowadzi do wyższej produktywności (co z konieczności oznacza automatyzację, zwolnienia, niższe koszty pracy i wyższą wydajność). Goldman Sachs argumentuje w swoim artykule: „Chociaż wzrost produktywności, który obiecuje sztuczna inteligencja, może przynieść korzyści, to ceny akcji często „przewidują” wyższy wzrost produktywności, niż ten, który się zmaterializuje”
Goldman sugeruje, że firmy zachowują się tak, jakby generatywna sztuczna inteligencja miała zmienić świat, podczas gdy na razie jest to technologia głęboko zawodna i może niewiele zmienić w wydajności firm. Jim Covello, który jest szefem działu globalnych badań kapitałowych w Goldman Sachs, powiedział, że jest sceptyczny zarówno co do kosztów generatywnej sztucznej inteligencji, jak i jej „ostatecznego potencjału transformacyjnego”.
„Technologia sztucznej inteligencji jest wyjątkowo droga i aby uzasadnić te koszty, musi być w stanie rozwiązywać złożone problemy, do czego nie została zaprojektowana” – powiedział Covello.
Raport Goldman Sachs pojawił się tuż po artykule Davida Cahna, partnera w firmie venture capital Sequoia Capital, która jest jednym z największych inwestorów w startupy generatywnej sztucznej inteligencji, zatytułowanym „AI’s 600 Billion Billion Question”, który próbował przeanalizować, ile przychodów musi osiągnąć branża AI, aby zwróciły się inwestycje w moc obliczeniową i infrastrukturę.
Roczne przychody OpenAI podwoiły się z 1,6 mld dolarów w 2023 r. do 3,4 mld dolarów, ale Cahn pyta: „Poza ChatGPT, z ilu produktów AI naprawdę korzystają dziś konsumenci? W dłuższej perspektywie firmy zajmujące się sztuczną inteligencją będą musiały zapewnić konsumentom znacznie większą wartość, aby klienci chcieli za to płacić. „Znacznie większą wartość za 15 dolarów abonamentu daje dziś Netflix, niż technologie AI” – dodaje.
Ryzyka? Jakie ryzyka?
Są jednak tacy, którzy zadają się nie dostrzegać ryzyk dla Nvidii. Steve Eisman, zarządzający aktywami znany z tego, że tuż przed kryzysem finansowym w 2008 r. postawił (słusznie) gigantyczne pieniądze na scenariusz załamania się rynku obligacji zabezpieczonych kredytami hipotecznymi, kompletnie nie przejął się zjazdem ceny Nvidii z historycznych szczytów i przekonywał, że to inwestycja długoterminowa, która będzie ważna „w nadchodzących latach”.
Jaka jest argumentacja Eismana? Że tak długo, jak perspektywy dla Nvidii się nie zmienią, będą powody do inwestowania w tę firmę. „Nie myślę za dużo o wycenie Nvidii” – dodał. Eisman podziela chyba przekonanie, że sztuczna inteligencja jest dopiero na początku drogi i czipy od Nvidii będą niedługo kupowane przez najróżniejszych branż firmy tworzące własne modele sztucznej inteligencji. Eismanowi wyszedł Big Short. Czy teraz wyjdzie mu Big Long?
zdjęcie tytułowe: Unsplash