Inwestorzy Nvidii byli już w dolinie:

Spadek kursu akcji Nvidii

Ten wykres nie jest jednak z ostatnich dwóch lat, ale raczej z początku 2017 roku do początku 2019 roku; tutaj od 2017 do dziś:

Obecny spadek cen akcji Nvidii

W ciągu ostatnich trzech lat w działalności Nvidii wydarzyły się trzy wielkie rzeczy, które doprowadziły cenę do niespotykanych dotąd wyżyn:

  • Pandemia doprowadziła do eksplozji zakupów komputerów osobistych, a zwłaszcza kart do gier, ponieważ klienci potrzebowali zarówno nowych komputerów, jak i ogromnego wzrostu dochodów uznaniowych, których nie można było wydać poza lepszymi grami.
  • Aplikacje do uczenia maszynowego, które były trenowane na procesorach graficznych Nvidii, eksplodowały wśród hiperskalerów.
  • Bańka kryptograficzna doprowadziła do gwałtownego wzrostu popytu na chipy Nvidii do rozwiązywania równań Ethereum w celu zarobienia – tj. mojego – Etheru.

Crypto to nie tyle dolina, co klif: Ethereum pomyślnie przeszło na model oparty na zasadzie „proof-of-stake”, przez co całe operacje wydobywcze, zbudowane przy użyciu tysięcy procesorów graficznych Nvidii, stały się bezwartościowe z dnia na dzień; biorąc pod uwagę, że Bitcoin, inna duża sieć kryptograficzna korzystająca z dowodu pracy, jest wydobywana prawie wyłącznie na specjalnie zaprojektowanych układach scalonych, wszystkie te stare procesory graficzne zalewają rynek wtórny. To szczególnie zły moment dla Nvidii, biorąc pod uwagę, że pandemia zakupów zakończyła się, gdy próba firmy nadrobienia popytu na chipy z serii 3000 dobiegła końca. Nie trzeba dodawać, że zbyt wiele nowych zapasów i zbyt wiele używanych zapasów jest fatalne dla wyników finansowych firmy, szczególnie gdy próbujesz oczyścić kanał dla nowej serii:

Spadek przychodów Nvidii z gier

Dyrektor generalny Nvidii, Jensen Huang, powiedział mi w wywiadzie dla Stratechery w zeszłym tygodniu , że firma nie spodziewała się tego:

Nie sądzę, żebyśmy mogli to zobaczyć. Nie sądzę, żebym zrobił coś innego, ale z poprzednich przykładów nauczyłem się, że kiedy w końcu ci się to przydarzy, po prostu weź twarde lekarstwo i miej to za sobą… Mieliśmy dwa złe kwartały i dwa złe kwartały w kontekście firmy, to frustrujące dla wszystkich inwestorów, to trudne dla wszystkich pracowników.

Byliśmy tu już wcześniej w Nvidii.

Musimy po prostu sobie z tym poradzić i nie podchodzić do tego zbyt emocjonalnie, uświadomić sobie, jak to się stało, utrzymać firmę tak zwinną, jak to tylko możliwe. Ale kiedy pojawiły się fakty, po prostu podjęliśmy zimne, twarde decyzje. Dbaliśmy o naszych partnerów, dbaliśmy o nasz kanał, dbaliśmy o to, aby każdy miał pod dostatkiem czasu. Opóźniając Adę, upewniliśmy się, że wszyscy mieli dużo czasu i przeceniliśmy wszystkie produkty tak, że nawet w kontekście Ady, nawet jeśli Ada była dostępna, produkty, które po przecenie były naprawdę dobrej jakości. Myślę, że zadbaliśmy o tyle rzeczy, ile się dało, zaowocowało to dwoma dość fatalnymi kwartami. Ale myślę, że w wielkim schemacie rzeczy, zaraz wrócimy, więc myślę, że prawdopodobnie była to lekcja z przeszłości.

To może być trochę hojne; analitycy, tacy jak Tae Kim i Doug O'Laughlin , prognozują spadek akcji na początku tego roku, chociaż prawdopodobnie było już za późno, aby uniknąć tej idealnej burzy spowolnienia sprzedaży komputerów osobistych i przejścia na Ethereum, biorąc pod uwagę, że Nvidia zamówiła wszystkie te dodatkowe procesory graficzne z serii 3000 w środek pandemii (Huang wymienił również wydłużające się czasy realizacji chipów jako główny powód, dla którego Nvidia tak bardzo się pomyliła).

Jednak bardziej niepokojące dla Nvidii jest to, że podczas gdy jej zapasy i problemy z Ethereum są największymi czynnikami napędzającymi jej „dość przerażające kwartały”, nie jest to jedyna dolina, po której porusza się jej biznes gier. Przypomina mi się „Wędrówka pielgrzyma” Johna Bunyana:

Chrześcijanin nie zaszedł daleko w tej Dolinie Upokorzenia, zanim został poddany surowej próbie, ponieważ zauważył bardzo paskudnego diabła, który szedł mu na spotkanie; nazywał się Apollyon [Niszczyciel].

Zadzwoń do Apollyon w sprawie inwentaryzacji; Christian go pokonał, jak ostatecznie zrobi to Nvidia.

Na końcu tej doliny znajdowała się inna, zwana Doliną Cienia Śmierci; i chrześcijanin musiał przez nią przejść, ponieważ w tym kierunku prowadziła droga do Niebiańskiego Miasta. Teraz ta dolina była bardzo samotnym i samotnym miejscem. Prorok Jeremiasz opisuje to jako: „Pustynia, ziemia pustyń i dołów, ziemia suszy i cienia śmierci, ziemia, której nikt” (oprócz chrześcijan) „nie przechodzi i gdzie nikt nie mieszka ”.

To, co było uderzające w przemówieniu Nvidii GTC w zeszłym tygodniu, to stopień, w jakim ta alegoria wydaje się pasować do ambicji Nvidii: firma wyrusza w coś, co wydaje się być dość samotną podróżą, aby zdefiniować przyszłość gier, i nie jest jasne, kiedy i czy reszta branży się pojawi. Co więcej, firma realizuje podobnie zuchwałą strategię w centrum danych i ambicjach metaverse: we wszystkich trzech przypadkach firma dąży do wyżyn jeszcze większych niż te osiągnięte w ciągu ostatnich dwóch lat, ale ścieżka jest zaskakująco niepewna.

Gry w dolinie: śledzenie promieni i sztuczna inteligencja

Prezentacja gier 3D od dawna zależała od serii hacków, szczególnie w zakresie oświetlenia. Po pierwsze, gra określa, co faktycznie widzisz (tj. nie ma sensu renderować obiektu, który jest zasłonięty przez inny); następnie odpowiednia tekstura jest nakładana na obiekt (tj. drzewo, trawę lub cokolwiek innego, co możesz sobie wyobrazić). Wreszcie światło jest stosowane w oparciu o położenie wcześniej określonego źródła światła, z mapą cieni na wierzchu. Cała scena jest następnie tłumaczona na pojedyncze piksele i renderowana na ekranie 2D; proces ten jest znany jako rasteryzacja.

Ray tracing obsługuje światło zupełnie inaczej: zamiast zaczynać od z góry określonego źródła światła i stosować mapy światła i cienia, ray tracing zaczyna się od twojego oka (a dokładniej kamery, przez którą oglądasz scenę). Następnie śledzi linię wzroku do każdego piksela na ekranie, odbija go od tego piksela (w zależności od tego, jaki typ obiektu reprezentuje) i kontynuuje podążanie za tym promieniem, dopóki nie trafi w źródło światła (a tym samym oblicza oświetlenie) lub odrzuca to. Daje to fenomenalnie realistyczne oświetlenie, szczególnie pod względem odbić i cieni. Przyjrzyj się uważnie tym obrazom z PC Magazine :

Zobaczmy, jak ray tracing może wizualnie poprawić grę. Zrobiłem następujące pary zrzutów ekranu w Shadow of the Tomb Raider firmy Square Enix na PC, która obsługuje cienie oparte na ray tracingu na kartach graficznych Nvidia GeForce RTX. W szczególności spójrz na cienie na ziemi.

Obraz z rasteryzowanym oświetleniem
Rasteryzowane cienie
Cienie oparte na ray tracingu
Cienie oparte na ray tracingu

[…] Cienie oparte na ray tracingu są bardziej miękkie i realistyczne w porównaniu z ostrzejszymi wersjami zrasteryzowanymi. Ich ciemność zmienia się w zależności od tego, ile światła blokuje obiekt, a nawet w samym cieniu, podczas gdy rasteryzacja wydaje się nadawać każdemu obiektowi ostrą krawędź. Rasteryzowane cienie nadal nie wyglądają źle, ale po zagraniu w grę z cieniami opartymi na ray tracingu ciężko jest wrócić.

Nvidia po raz pierwszy ogłosiła obsługę API dla ray tracingu w 2009 roku; jednak niewiele gier, jeśli w ogóle, używało go, ponieważ jest tak kosztowny obliczeniowo (śledzenie promieni jest używane w filmowym CGI; jednak te sceny mogą być renderowane przez godziny, a nawet dni; gry muszą być renderowane w czasie rzeczywistym). Właśnie dlatego Nvidia wprowadziła dedykowany sprzęt do śledzenia promieni w swojej linii kart z serii GeForce 2000 (które w ten sposób zostały ochrzczone „RTX”), które pojawiły się w 2018 roku. AMD poszło w innym kierunku, dodając możliwości śledzenia promieni do swoich podstawowych jednostek cieniujących ( które również obsługują rasteryzację); jest to wolniejsze niż czyste rozwiązanie sprzętowe Nvidii, ale działa i, co ważne, odkąd AMD produkuje karty graficzne na PS5 i Xbox, oznacza to, że obsługa ray tracingu jest teraz dostępna w całej branży. Coraz więcej gier będzie obsługiwać ray tracing, chociaż większość aplikacji jest nadal dość ograniczona ze względu na problemy z wydajnością.

Oto ważna rzecz dotycząca ray tracingu: dzięki dynamicznemu obliczaniu światła, zamiast map światła i cienia, jest to coś, co programiści mogą uzyskać „za darmo”. Tworzenie gry lub środowiska 3D, które całkowicie opierałoby się na ray tracingu, powinno być łatwiejsze i tańsze; co ważniejsze, oznacza to, że środowiska mogą zmieniać się w sposób dynamiczny, którego deweloper nigdy nie przewidział, a wszystko to przy bardziej realistycznym oświetleniu niż najbardziej pracochłonne, wstępnie narysowane środowisko.

Jest to szczególnie przekonujące w dwóch pojawiających się kontekstach: pierwszy dotyczy gier symulacyjnych, takich jak Minecraft. Dzięki ray tracingowi bardziej realistyczne będą bardzo szczegółowe światy 3D, które są budowane w locie i doskonale oświetlone. Przyszłe gry mogą pójść dalej: myśl przewodnia rozpoczęła się grą o nazwie RacerX , w której każda część gry była w pełni symulowana, w tym obiekty; tego samego rodzaju obliczenia dla światła zastosowano również w fizyce w grze.

Drugi kontekst to przyszłość treści generowanych przez sztuczną inteligencję, które omówiłem w DALL-E, Metaverse i Zero Marginal Cost Content . Wszystkie te tekstury, o których wspomniałem powyżej, są obecnie rysowane ręcznie; ponieważ możliwości graficzne — w dużej mierze napędzane przez Nvidię — wzrosły, podobnie jak koszt tworzenia nowych gier, dzięki potrzebie tworzenia zasobów o wysokiej rozdzielczości. Można sobie wyobrazić przyszłość, w której tworzenie zasobów jest w pełni zautomatyzowane i wykonywane w locie, a następnie odpowiednio oświetlane za pomocą ray tracingu.

Na razie jednak Nvidia używa już sztucznej inteligencji do renderowania obrazów: firma ogłosiła również wersję 3 swojej technologii Deep Learning Super Sampling (DLSS), która przewiduje i wstępnie renderuje klatki, co oznacza, że w ogóle nie trzeba ich obliczać ( poprzednie wersje przewidywanych i wstępnie renderowanych pojedynczych pikseli DLSS). Co więcej, Nvidia, podobnie jak w przypadku ray tracingu, tworzy kopię zapasową DLSS za pomocą dedykowanego sprzętu, aby uczynić go znacznie bardziej wydajnym. Te nowe podejścia, w połączeniu z dedykowanymi rdzeniami procesorów graficznych Nvidii, sprawiają, że Nvidia jest bardzo dobrze przygotowana do zupełnie nowego paradygmatu nie tylko w grach, ale ogólnie wciągających doświadczeniach 3D (takich jak metaverse).

Oto problem: cały ten dedykowany sprzęt ma swoją cenę. Nowe procesory graficzne Nvidii to duże chipy — topowy model AD102, sprzedawany jako RTX 4090, to w pełni zintegrowany układ typu system-on-a-chip, który mierzy 608,4 mm2 w procesie TSMC N4; Dla porównania, topowy układ Navi 31 w nadchodzącej linii kart graficznych AMD RDNA 3 to projekt chipletu z układem graficznym 308 mm2 w procesie N5 firmy TSMC, 2 oraz sześcioma układami pamięci 37,5 mm2 w procesie N6 firmy TSMC . 3 W skrócie, chip Nvidii jest znacznie większy (co oznacza znacznie droższy) i jest oparty na nieco nowocześniejszym procesie (co prawdopodobnie kosztuje więcej). Dylan Patel wyjaśnia implikacje w SemiAnalysis :

Krótko mówiąc, AMD znacznie oszczędza na kosztach matryc, rezygnując z akceleratorów AI i ray tracingu o stałej funkcji i przechodząc na mniejsze matryce z zaawansowanym opakowaniem. Zaawansowany koszt opakowania jest znacznie wyższy w przypadku procesorów graficznych AMD RDNA 3 N31 i N32, ale małe pakiety RDL typu fan-out są nadal bardzo tanie w porównaniu z kosztami wafla i wydajności. W ostatecznym rozrachunku, zwiększone koszty AMD są niwelowane przez oszczędności, jakie uzyskują dzięki dezagregacji kontrolerów pamięci/nieskończonej pamięci podręcznej, wykorzystaniu tańszego N6 zamiast N5 i wyższej wydajności… Nvidia prawdopodobnie ma gorszą strukturę kosztów w tradycyjnej rasteryzacji wydajności gier po raz pierwszy od prawie dekada.

To jest dolina, do której wkracza Nvidia. Gracze byli natychmiast wzburzeni po przemówieniu Nvidii ze względu na wysokie ceny serii 4000, zwłaszcza gdy drobny druk na stronie internetowej Nvidii ujawnił, że jeden z chipów poziomu drugiego, które Nvidia ogłosiła, był znacznie bardziej podobny do przemianowanego poziomu 3 chip, z podejrzeniem, że Nvidia grała w gry marketingowe, aby ukryć znaczny wzrost cen. Karty Nvidii mogą mieć najlepszą wydajność i bez wątpienia najlepiej nadają się do przyszłości ray tracingu i treści generowanych przez sztuczną inteligencję, ale kosztem bycia najlepszymi wartościami dla gier, w które obecnie się gra. Osiągnięcie wyżyn czysto symulowanych wirtualnych światów wymaga przejścia przez generację opłat za możliwości, którymi większość graczy jeszcze się nie przejmuje.

Sztuczna inteligencja w dolinie: systemy, nie żetony

Jednym z powodów do optymizmu co do podejścia Nvidii do gier jest to, że firma postawiła podobny zakład na przyszłość, kiedy wynalazła shadery; Wyjaśniłem shadery po zeszłorocznym GTC w codziennej aktualizacji :

Nvidia po raz pierwszy zyskała rozgłos dzięki linii kart graficznych Riva i TNT, które zostały zakodowane na stałe w celu przyspieszenia bibliotek 3D, takich jak Microsoft Direct3D:

Linia GeForce była jednak w pełni programowalna za pomocą programu komputerowego zwanego „shaderem” (więcej o shaderach wyjaśniłem w tej codziennej aktualizacji ). Oznaczało to, że kartę GeForce można było ulepszyć nawet po jej wyprodukowaniu, po prostu przez zaprogramowanie nowych shaderów (być może na przykład w celu obsługi nowej wersji Direct3D).

[…] Co ważniejsze, shadery niekoniecznie musiały renderować grafikę; każdy rodzaj oprogramowania — najlepiej programy z prostymi obliczeniami, które można wykonywać równolegle — można zaprogramować jako moduły cieniujące; sztuczka polegała na wymyśleniu, jak je napisać, i tu właśnie pojawiła się CUDA. Wyjaśniłem wNvidii's Integration Dreams z 2020 roku:

Ten zwiększony poziom abstrakcji oznaczał, że podstawowa jednostka przetwarzania grafiki może być znacznie prostsza, co oznacza, że układ graficzny może mieć ich znacznie więcej. Na przykład najbardziej zaawansowane wersje właśnie ogłoszonych przez firmę Nvidia kart GeForce RTX z serii 30 mają niesamowitą liczbę 10 496 rdzeni.

Ten poziom skalowalności ma sens w przypadku kart graficznych, ponieważ przetwarzanie grafiki jest żenująco równoległe: ekran można podzielić na dowolną liczbę sekcji, a każda sekcja jest obliczana indywidualnie, wszystkie w tym samym czasie. Oznacza to, że wydajność skaluje się poziomo, co oznacza, że każdy dodatkowy rdzeń zwiększa wydajność. Okazuje się jednak, że grafika nie jest jedynym żenująco równoległym problemem w informatyce…

Właśnie dlatego Nvidia przekształciła się z producenta komponentów modułowych w zintegrowanego producenta sprzętu i oprogramowania; pierwsze to karty graficzne, a drugie to platforma o nazwie CUDA. Platforma CUDA umożliwia programistom dostęp do mocy przetwarzania równoległego kart graficznych Nvidii za pośrednictwem wielu języków, bez konieczności rozumienia, jak programować grafikę.

Teraz „stos” Nvidii miał trzy poziomy:

Ważną rzeczą do zrozumienia na temat CUDA jest jednak to, że nie tylko umożliwiła zewnętrznym programistom pisanie programów dla układów Nvidii; umożliwiło to samą Nvidię.

Wiele z tego wynikało z desperacji; Huang wyjaśnił w wywiadzie dla Stratechery zeszłej wiosny , że wprowadzenie shaderów, które uważał za niezbędne na przyszłość, prawie zabiło firmę:

Wadą programowalności jest to, że jest mniej wydajna. Jak wspomniałem wcześniej, stała funkcja jest po prostu bardziej wydajna. Wszystko, co można zaprogramować, wszystko, co może zrobić więcej niż jedną rzecz, z definicji niesie ze sobą obciążenie, które nie jest konieczne do żadnego konkretnego zadania, więc pytanie brzmi: „Kiedy to robimy?” Cóż, była też wtedy inspiracja, że wszystko wygląda jak OpenGL Flight Simulator. Wszystko było rozmyte tekstury i trójliniowe mipmapy, i nic nie miało życia, i czuliśmy, że jeśli nie ożywisz medium i nie pozwolisz artyście na tworzenie różnych gier i różnych gatunków i opowiadanie różne historie, w końcu medium przestałoby istnieć. Kierowała nami jednocześnie ambicja stworzenia bardziej programowalnej palety, aby gra i artysta mogli zrobić z nią coś wspaniałego. Jednocześnie byliśmy zmuszeni nie wychodzić z biznesu pewnego dnia, ponieważ byłoby to utowarowione. Więc gdzieś w tego rodzaju zupie stworzyliśmy programowalne shadery, więc myślę, że motywacja do zrobienia tego była bardzo jasna. Później kara była taka, jakiej się nie spodziewaliśmy.

Co to było?

Cóż, kara jest nagle, wszystkie rzeczy, których oczekiwaliśmy na temat programowalności i narzutu na zbędną funkcjonalność, ponieważ obecne gry tego nie potrzebują, stworzyłeś coś na przyszłość, co oznacza, że obecne aplikacje nie korzyść. Dopóki nie masz nowych aplikacji, twój chip jest po prostu zbyt drogi, a rynek jest konkurencyjny.

Nvidia przetrwała, ponieważ ich zdolność do bezpośredniego przyspieszania była nadal najlepsza; rozwijał się na dłuższą metę, ponieważ podjęli się zbudowania całej infrastruktury CUDA w celu wykorzystania shaderów. Stąd bierze się rozwój centrów danych; Huang wyjaśnił:

W dniu, w którym zostaniesz firmą zajmującą się procesorami, musisz zinternalizować, że ta architektura procesorów jest zupełnie nowa. Nigdy wcześniej nie było programowalnego shadera pikseli ani programowalnego procesora graficznego i takiego modelu programowania, więc internalizujemy. Musisz zinternalizować, że jest to zupełnie nowy model programowania i wszystko, co jest związane z byciem firmą zajmującą się procesorami programów lub platformą obliczeniową, musiało zostać stworzone. Musieliśmy więc stworzyć zespół kompilatorów, musimy pomyśleć o SDK, musimy pomyśleć o bibliotekach, musieliśmy dotrzeć do programistów i ewangelizować naszą architekturę i pomóc ludziom uświadomić sobie korzyści z niej płynące, a jeśli nie, to nawet się zbliżyć praktycznie zrobić to sami, tworząc nowe biblioteki, które ułatwią im przeniesienie ich aplikacji do naszych bibliotek i zobaczenie korzyści z tego płynących.

Pierwszym powodem, dla którego warto opowiedzieć tę historię, jest zwrócenie uwagi na podobieństwa między kosztem złożoności shaderów a kosztem ray tracingu i sztucznej inteligencji w obecnych grach; po drugie należy zauważyć, że podejście Nvidii do rozwiązywania problemów zawsze polegało na robieniu wszystkiego samemu. Wtedy oznaczało to opracowanie CUDA do programowania tych shaderów; dziś oznacza to budowanie całych systemów dla sztucznej inteligencji.

Huang powiedział podczas przemówienia w zeszłym tygodniu:

Nvidia jest zaangażowana w rozwój nauki i przemysłu dzięki akceleracji obliczeniowej. Czasy skalowania wydajności bez pracy dobiegły końca. Nieprzyspieszone oprogramowanie nie będzie już cieszyć się skalowaniem wydajności bez nieproporcjonalnego wzrostu kosztów. Z prawie trzema dekadami skupienia się na jednym celu, Nvidia jest ekspertem w przyspieszaniu oprogramowania i skalowaniu komputera o 1 000 000x, wykraczając daleko poza prawo Moore'a.

Przyspieszone przetwarzanie to pełne wyzwanie. Wymaga głębokiego zrozumienia domeny problemu, optymalizacji w każdej warstwie obliczeniowej i wszystkich trzech układów: CPU, GPU i DPU. Skalowanie wielu procesorów graficznych na wielu węzłach jest wyzwaniem na skalę centrum danych i wymaga traktowania sieci i pamięci masowej jako części struktury obliczeniowej, a programiści i klienci chcą uruchamiać oprogramowanie w wielu miejscach, od komputerów osobistych po centra superkomputerowe, korporacyjne centra danych, chmura, do krawędzi. Różne aplikacje chcą działać w różnych lokalizacjach i na różne sposoby.

Dzisiaj porozmawiamy o przyspieszonym przetwarzaniu całego stosu. Nowe chipy i sposób, w jaki zwiększą wydajność, znacznie wykraczające poza liczbę tranzystorów, nowe biblioteki i sposób, w jaki przyspieszają krytyczne obciążenia w nauce i przemyśle, nowe ramy specyficzne dla domeny, aby pomóc w opracowywaniu wydajnego i łatwego do wdrożenia oprogramowania. Oraz nowe platformy umożliwiające bezpieczne wdrażanie oprogramowania z korzyściami rzędu wielkości.

Zdaniem Huanga samo posiadanie szybkich chipów nie wystarcza już do obsługi obciążeń w przyszłości: dlatego Nvidia buduje całe centra danych przy użyciu całego własnego sprzętu. Tutaj znowu jednak przyszłość, w której każda firma ogólnie potrzebuje przyspieszonych obliczeń, a Nvidia zbuduje ją specjalnie dla nich — Nvidia's Celestial City — kontrastuje z teraźniejszością, w której największymi użytkownikami chipów Nvidii w centrum danych są hiperskalerzy, którzy mają swoje już funkcjonujące własne systemy.

Na przykład firma taka jak Meta nie potrzebuje sieci Nvidii; wymyślili własne . To, czego potrzebują, to wiele chipów, które można zrównoleglić, aby trenować swoje algorytmy uczenia maszynowego, co oznacza, że muszą płacić Nvidii i jej wysokie marże. Nic więc dziwnego, że Meta, podobnie jak wcześniej Google, buduje własny układ .

To jest kurs, który prawdopodobnie podążą wszystkie największe firmy: nie potrzebują systemu Nvidia, potrzebują chipa, który działa w ich systemie dla ich potrzeb. Właśnie dlatego Nvidia tak bardzo inwestuje w demokratyzację sztucznej inteligencji i przyspieszone przetwarzanie: długoterminowym kluczem do skalowania będzie budowanie systemów dla wszystkich oprócz największych graczy. Sztuką, aby przejść przez dolinę, będzie obserwowanie, jak ten ekosystem się rozwija, zanim obecni wielcy klienci Nvidii przestaną kupować drogie chipy Nvidii. Huang zobaczył kiedyś, że akceleratory 3D zostaną utowarowione i zrobił skok z shaderami; można odnieść wrażenie, że ma takie same obawy co do żetonów i dlatego wskakuje do systemów.

Metaverse w Dolinie: Jądro Omniverse

W wywiadzie zeszłej wiosny zapytałem Huanga, czy Nvidia kiedykolwiek zbuduje usługę w chmurze;

Jeśli kiedykolwiek będziemy świadczyć usługi, uruchomimy je na całym świecie na procesorach graficznych, które znajdują się w chmurach wszystkich, oprócz samodzielnego zbudowania czegoś, jeśli będzie to konieczne. Jedną z zasad naszej firmy jest nie marnowanie zasobów naszej firmy na robienie czegoś, co już istnieje. Jeśli coś już istnieje, na przykład procesor x86, po prostu go użyjemy. Jeśli coś już istnieje, będziemy z nimi współpracować, ponieważ nie trwońmy na to naszych rzadkich zasobów. A więc jeśli coś już istnieje w chmurze, po prostu bezwzględnie to wykorzystujemy lub pozwalamy im to zrobić, co jest jeszcze lepsze. Jeśli jednak jest coś, co ma dla nas sens, a oni nie, to nawet zwracamy się do nich, aby to zrobili, inni ludzie nie chcą tego robić, wtedy możemy zdecydować się to zrobić. Staramy się być bardzo selektywni w tym, co robimy, jesteśmy dość zdeterminowani, aby nie robić rzeczy, które robią inni ludzie.

Okazuje się, że było coś, czego nikt inny nie chciał zrobić, a mianowicie stworzenie uniwersalnej bazy danych obiektów 3D do użytku w tym, co Nvidia nazywa Omniverse. Obiekty te mogą być bardzo szczegółowymi obiektami z dokładnością do milimetra do wykorzystania w produkcji lub łańcuchach dostaw lub mogą to być fantastyczne obiekty i budynki generowane dla światów wirtualnych; w wizji Huanga byłyby dostępne dla każdego, kto buduje na Omniverse Nucleus.

Tutaj Celestial City to świat doświadczeń 3D wykorzystywanych w przemyśle i rozrywce — Omniwersum metawersów, jeśli wolisz, wszystkie połączone z chmurą Nvidii — i jest wystarczająco ambitne, by Mark Zuckerberg się zarumienił! Ta dolina z tego samego powodu wydaje się jeszcze dłuższa i ciemniejsza: nie tylko trzeba stworzyć wszystkie te zasoby i doświadczenia 3D, ale trzeba przekonać całe rynki o ich przydatności i konieczności. Budowanie chmury dla świata, który jeszcze nie istnieje, to sięganie na wyżyny, które wciąż są poza zasięgiem wzroku.


Z pewnością nie można kwestionować ambicji Huanga i Nvidii, chociaż niektórzy mogą spierać się o mądrość nawigacji w trzech dolinach jednocześnie; być może właściwe jest, aby akcje znajdowały się w samej dolinie, ponad i poza tą idealną burzą w grach.

Warto jednak wziąć pod uwagę, że głównym powodem, dla którego klienci Nvidii — zarówno na rynku konsumenckim, jak i korporacyjnym — są sfrustrowani firmą, jest cena: GPU Nvidii są drogie, a marże firmy — inne niż kilka ostatnich kwartałów — są bardzo wysokie. Siła cenowa w przypadku Nvidii jest jednak bezpośrednio niższa od własnych innowacji Nvidii, zarówno pod względem samej wydajności w ustalonych obciążeniach, jak i inwestycji w ekosystem CUDA, tworząc narzędzia dla zupełnie nowych.

Innymi słowy, Nvidia zasłużyła sobie na nienawiść, podejmując dokładnie takie ryzyko w przeszłości, jakie podejmuje teraz. Załóżmy na przykład, że wszystkie gry w przyszłości będą wymagać nie tylko ray tracingu, ale pełnej symulacji wszystkich cząsteczek: inwestycja Nvidii w sprzęt oznacza, że Nvidia zdominuje epokę, tak jak zrasteryzowaną. Podobnie, jeśli aplikacje sztucznej inteligencji staną się demokratyzowane i dostępne dla wszystkich przedsiębiorstw, nie tylko dla hiperskalerów, to Nvidia będzie w stanie przejąć cały długi ogon. A jeśli dojdziemy do świata metawersów, wtedy Nvidia będzie miała przewagę nie tylko nad infrastrukturą, ale także nad niezbędną biblioteką obiektów niezbędnych do urzeczywistnienia tego świata (oczywiście obiekty, które będą oświetlane przez ray tracing w przestrzeniach generowanych przez sztuczną inteligencję ), sprawią, że będzie to najważniejsza infrastruktura w kosmosie.

Nie wszystkie te zakłady mogą się opłacić; Doceniam jednak śmiałość wizji i nie będę żałować przyszłych marginesów, które mogą skutkować powstaniem Niebiańskiego Miasta, jeśli Nvidia przedostanie się przez dolinę.


  1. Proces 5 nm trzeciej generacji TSMC

  2. Proces TSMC pierwszej generacji 5 nm

  3. Proces 7 nm trzeciej generacji TSMC