Michael Burry zarobił fortunę, stawiając przeciwko rynkowi w 2008 roku. Teraz patrzy na biliony płynące w infrastrukturę AI i dostrzega znajome oznaki bańki. Jack Clark buduje właśnie tę AI w Anthropic. Dwarkesh Patel – popularny podkaster, przeprowadzający wywiady z kluczowymi postaciami branży – zadaje im obu niewygodne pytania. Patrick McKenzie, analityk finansowy i autor newslettera Bits About Money, moderuje dyskusję. Czterech ekspertów o różnych poglądach zebrało się, by odpowiedzieć: czy inwestujemy w przyszłość, czy powtarzamy błędy dotcomów?
Historia AI
Patrick McKenzie: Wyobraźcie sobie, że zatrudniono was jako historyka ostatnich kilku lat. Opowiedzcie pokrótce, co zostało stworzone po "Attention Is All You Need" (artykuł z 2017 roku, od którego rozpoczęła się era transformerów). Co w 2025 roku zaskoczyłoby publiczność z 2017? Które prognozy poinformowanych ludzi się nie sprawdziły? Opowiedzcie tę historię tak, jak opowiedzielibyście specjaliście w swojej dziedzinie – badaczom, politykom czy uczestnikom rynku.
Jack Clark: W 2017 roku większość ludzi stawiała na to, że droga do naprawdę uniwersalnego systemu prowadzi przez trenowanie agentów od zera na programie nauczania składającym się z coraz trudniejszych zadań, i poprzez to – stworzenie uniwersalnie zdolnego systemu. Widać to było w projektach badawczych wszystkich dużych laboratoriów – DeepMind, OpenAI – które próbowały wytrenować nadludzkich graczy w grach pokroju Starcraft, Dota 2 i AlphaGo. Nazywam to zakładem na "tabula rasa" – zaczynasz od czystego agenta i "wypiekasz" go w jakimś środowisku (lub środowiskach), aż stanie się inteligentny.
Oczywiście, jak teraz wiemy, nie doprowadziło to do stworzenia ogólnej inteligencji – ale doprowadziło do pojawienia się nadludzkich agentów w ramach tych konkretnych zadań, na których były trenowane.
Jednocześnie ludzie zaczęli eksperymentować z innym podejściem – masowym treningiem na zbiorach danych i próbami budowania modeli, które mogłyby przewidywać i generować na podstawie tych rozkładów. Okazało się to niezwykle efektywne i zostało przyspieszone przez dwa kluczowe czynniki:
- architektura Transformer z "Attention Is All You Need", która uczyniła takie masowe wstępne trenowanie znacznie bardziej efektywnym, oraz
- mniej więcej równoległe rozwinięcie "praw skalowania" – podstawowego zrozumienia, że można modelować związek między możliwościami wstępnie wytrenowanych modeli a zainwestowanymi zasobami (danymi, obliczeniami).
Łącząc Transformer i zrozumienie praw skalowania, kilka osób poprawnie postawiło na to, że można uzyskać uniwersalne systemy poprzez masywne skalowanie danych i obliczeń.
Teraz, co dość zabawne, wszystko wraca do punktu wyjścia: ludzie znowu zaczynają budować agentów, ale tym razem są obdarzeni wszystkimi insightami uzyskanymi z wstępnie wytrenowanych modeli. Świetny przykład – artykuł SIMA 2 od DeepMind, gdzie tworzą uniwersalnego agenta do eksploracji środowisk 3D, który opiera się na podstawowym wstępnie wytrenowanym modelu Gemini. Inny przykład – Claude Code, agent kodujący, którego podstawowe możliwości pochodzą z dużego wstępnie wytrenowanego modelu.
Patrick McKenzie: Dzięki temu, że duże modele językowe (LLM) są programowalne i szeroko dostępne, włącznie z wersjami open source, które są ograniczone, ale i tak potężne w porównaniu z 2017 rokiem, znajdujemy się teraz w punkcie, w którym żadne dalsze rozwinięcia w zakresie możliwości AI (ani niczego innego interesującego) nigdy nie będą budowane na gorszym podłożu kognitywnym niż to, które mamy teraz. To "to, co widzisz dziś to podłoga, a nie sufit" – jedna z rzeczy, które najlepiej rozumieją insiderzy, a najgorzej – politycy i szeroka publiczność.
Każda przyszła AI do Starcrafta już przeczytała "Sztukę wojny" w oryginale po chińsku – chyba że jej twórcy zdecydują, że to czyni ją gorszą w obronie przed zerg rushami.
Jack Clark: Tak, często mówimy politykom w Anthropic: "To najgorsze, co kiedykolwiek będzie!" – i bardzo trudno jest im uzmysłowić, jak ostatecznie jest to ważne. Inna nieintuicyjna rzecz – jak szybko poprawiają się możliwości. Bieżący przykład: wielu teraz bawi się Opus 4.5 w Claude Code i mówi coś w stylu "Wow, to o wiele lepsze niż było wcześniej". Jeśli ostatnio pracowałeś z LLM w listopadzie, jesteś teraz mocno w tyle ze zrozumieniem obecnych możliwości.
Michael Burry: Z mojej perspektywy, w 2017 roku pod AI rozumiano nie LLM. Pod AI rozumiano sztuczną ogólną inteligencję (AGI). Myślę, że ludzie wtedy nie uważali LLM za sztuczną inteligencję. Dorastałem na science fiction, i tam wiele rzeczy zostało przewidzianych, ale w żadnej książce "AI" nie była przedstawiana jako coś w rodzaju wyszukiwarkowego chatbota.
Jeśli chodzi o "Attention Is All You Need" i wprowadzenie architektury Transformer – to wszyscy byli inżynierami Google, używającymi Tensora, i w połowie lat 2010. AI nie była obcą koncepcją. Sieci neuronowe, startupy uczenia maszynowego były czymś normalnym, a AI często była wspominana na spotkaniach. Google już miał duży model językowy, ale był wewnętrzny. Jednym z głównych zaskoczeń dla mnie jest to, że Google nie liderował przez cały czas, biorąc pod uwagę ich dominację w Search i Android, i w chipach, i w oprogramowaniu.
Kolejne zaskoczenie – myślałem, że układy scalone specjalizowane (ASIC) będą przyjęte znacznie wcześniej, i małe modele językowe (SLM) będą przyjęte znacznie wcześniej. To, że Nvidia pozostaje chipem do AI tak daleko w epoce inferencji (wykonywania modeli) – szokuje.
Największe zaskoczenie dla mnie – że ChatGPT uruchomił boom wydatków. Scenariusze użycia ChatGPT od samego początku były ograniczone – wyszukiwanie, studenci ściągający, kodowanie. Teraz są lepsze LLM do kodowania. Ale to właśnie chatbot uruchomił wydatki na biliony.
Mówiąc o wydatkach, uważam za jeden z najlepszych momentów wywiadu Dwarkesh z Satyą Nadellą uznanie, że wszystkie duże firmy softwareowe są teraz firmami hardwareowymi, kapitałochłonnymi, i nie jestem pewien, czy analitycy, którzy je śledzą, w ogóle wiedzą, czym są wydatki kapitałowe na utrzymanie.
Dwarkesh Patel: Świetne uwagi. Naprawdę zaskakujące, jak nietrwałe jak dotąd okazały się przewagi w AI. Oczywiście, w 2017 roku Google był daleko w przodzie. Parę lat temu OpenAI wydawał się znacznie wyprzedzać pozostałych. Jest jakaś siła (być może podkupywanie talentów, plotki lub inżynieria wsteczna), która dotąd neutralizowała wszelkie uciekające przewagi pojedynczego laboratorium. Zamiast tego wielka trójka co kilka miesięcy zamienia się miejscami na podium. Jestem ciekawy, czy "rekurencyjna superinteligencja" naprawdę to zmieni, czy powinniśmy po prostu oczekiwać silnej konkurencji na zawsze.
Jack Clark: Co do rekurencji – wszystkie frontierowe laboratoria przyspieszają swoich deweloperów za pomocą narzędzi AI, ale nie jest to bardzo płynne. Wygląda na to, że ma to właściwość "jesteś szybki tylko tak, jak najsłabsze ogniwo w łańcuchu" – na przykład, jeśli możesz teraz produkować 10 razy więcej kodu, ale twoje narzędzia do przeglądu kodu poprawiły się tylko 2 razy, nie widzisz masywnego przyspieszenia. Wielkie otwarte pytanie – czy możliwe jest całkowite zamknięcie tego cyklu, i wtedy można zobaczyć jakąś akumulującą się przewagę w R&D (badaniach i rozwoju).
Czy narzędzia AI naprawdę zwiększają produktywność?
Dwarkesh Patel: Pytanie za milion dolarów – co jest lepszym miernikiem rzeczywistego przyspieszenia badaczy i inżynierów w laboratoriach: badanie produktywności METR (które pokazuje, że deweloperzy dobrze znający swoje bazy kodu mieli około 20% spadek w mergowaniu pull requestów przy użyciu narzędzi do kodowania) czy człowieko-równoważne horyzonty czasowe samodzielnych zadań kodowania (które są już w zakresie wielu godzin i podwajają się co 4-7 miesięcy). Nie mam tu bezpośredniego doświadczenia, ale założyłbym, że bliżej pierwszego, biorąc pod uwagę, że nie ma dobrego cyklu sprzężenia zwrotnego do weryfikacji, a kryteria są otwarte (utrzymywalność, gust itp.).
Jack Clark: Zgadzam się, to krytyczne pytanie – i dane są sprzeczne i skąpe. Na przykład, przeprowadziliśmy ankietę deweloperów w Anthropic i zobaczyliśmy samoceniony wzrost produktywności o 50% u 60% ankietowanych, którzy używali Claude w pracy. Ale potem takie rzeczy jak badanie METR jakby temu przeczą. Potrzebujemy lepszych danych i konkretnie instrumentacji dla deweloperów wewnątrz i poza laboratoriami AI, by zrozumieć, co się dzieje. Patrząc szerzej, masowe i bezprecedensowe przyjęcie narzędzi do kodowania sugeruje, że ludzie widzą jakąś znaczącą subiektywną korzyść z ich używania – byłoby bardzo nieintuicyjne, gdyby rosnący odsetek deweloperów z entuzjazmem czynił siebie mniej produktywnymi.
Dwarkesh Patel: Nie chcę się w to zagłębiać, ale to, że samoceniona produktywność jest znacznie wyższa – i potencjalnie nawet w przeciwnym kierunku – niż rzeczywista produktywność, jest przewidywane przez badanie METR.
Jack Clark: Tak, zgadzam się. Nie ujawniając zbyt wiele, konkretnie myślimy o instrumentacji i wyjaśnieniu, czym tutaj jest "prawda", ponieważ to, co ludzie raportują o sobie, może różnić się od rzeczywistości. Mam nadzieję, że będziemy mieć jakieś wyniki badawcze na ten temat w 2026 roku!
Kto wygrywa?
Michael Burry: Myślisz, że podium będzie się nadal obracać? Z tego, co słyszę, Google wygrywa wśród deweloperów zarówno u AWS, jak i Microsoft. I wygląda na to, że inercja starego biznesu wyszukiwarek w firmie została pokonana.
Dwarkesh Patel: Ciekawe. Mi się wydaje, że konkurencja jest silniejsza niż kiedykolwiek. Nastroje na Twitterze są świetne zarówno dla Opus 4.5, jak i Gemini 3.5 Pro. Nie mam zdania, która firma wygra, ale zdecydowanie nie wygląda na to, że to zostało rozstrzygnięte.
Jack Clark: Mnie też wydaje się, że konkurencja jest silniejsza niż kiedykolwiek!
Dwarkesh Patel: Ciekawa jest opinia wszystkich na ten temat: ile nieudanych uruchomień treningowych/nieudanych modeli mogą przetrwać Anthropic, OpenAI czy Google? Biorąc pod uwagę ciągłą potrzebę pozyskiwania środków (pytanie poboczne: na co dokładnie?) na podstawie przychodów i nastrojów rynku.
Michael Burry: Sekret wyszukiwania Google zawsze polegał na tym, jak bardzo było tanie, więc zapytania informacyjne, które nie są monetyzowane (a to 80% lub więcej), nie kumulowały się jako straty dla firmy. Myślę, że to fundamentalny problem generatywnej AI i LLM dzisiaj – są bardzo drogie. Trudno zrozumieć, jaki jest model zysku, lub jaką będzie przewaga konkurencyjna jakiegokolwiek konkretnego modelu – czy będzie mógł brać więcej czy działać taniej?
Być może Google w końcu będzie w stanie działać najtaniej i wygra, gdy AI stanie się zwykłym towarem.
Dwarkesh Patel: Świetna myśl. Szczególnie jeśli myśleć, że wiele/większość ulepszeń z ostatniego roku stały się wynikiem skalowania inferencji, co wymaga wykładniczego wzrostu kosztów zmiennych do utrzymania.
Ostatecznie cena czegokolwiek jest ograniczona z góry kosztem jego zastąpienia. Tak więc firmy fundamentalnych modeli mogą brać wysoką marżę (co teraz robią) tylko jeśli postęp będzie nadal szybki i, do uwagi Jacka, ostatecznie stanie się samowzmacniający.
Dlaczego AI nie odebrała nam całej pracy?
Dwarkesh Patel: Naprawdę zaskakujące, ile wszystkiego wymaga automatyzacja pracy i wykonywanie tego, co robią ludzie. Właśnie przeszliśmy przez tyle intuicyjnych definicji AGI – test Turinga już nawet nie wart komentarza; mamy modele, które mogą rozumować i rozwiązywać złożone, otwarte zadania z kodowania i matematyki. Gdyby pokazano mi Gemini 3 lub Claude 4.5 Opus w 2017 roku, pomyślałbym, że zostawi to bez pracy połowę białych kołnierzyków. A jednak wpływ AI na rynek pracy jest tak mały, że trzeba go szukać pod lupą w tabelach – jeśli w ogóle jest.
Uznałbym też za zaskakującą skalę i szybkość prywatnych inwestycji w AI. Jeszcze parę lat temu ludzie mówili, że AGI musi być projektem państwowym w stylu Manhattanu, bo to jedyny sposób na przekształcenie gospodarki w silnik obliczeń i danych. I jak dotąd wygląda na to, że stare dobre rynki całkiem mogą wspierać inwestycje w AI na poziomie kilku procent PKB.
Michael Burry: Dobra uwaga, Dwarkesh, o teście Turinga – to zdecydowanie był przedmiot dyskusji przez jakiś czas. W przeszłości, na przykład podczas Rewolucji Przemysłowej i Rewolucji Usług, wpływ na pracę był tak wielki, że obowiązkowa edukacja szkolna została wprowadzona i rozszerzona, by dłużej trzymać młodych ludzi poza siłą roboczą. Zdecydowanie nie widzieliśmy nic podobnego.
Jack Clark: Tak, Dwarkesh i Michael, typowe miejsce dla społeczności AI – ciągle budują rzekomo trudne zadania, które zmierzą prawdziwą inteligencję, potem systemy AI przelatują przez te benchmarki, i odkrywasz, że masz coś, co powierzchownie jest bardzo zdolne, ale wciąż prawdopodobnie popełnia błędy, które każdy człowiek uznałby za dziwne lub nieintuicyjne. Niedawny przykład: LLM pokazały "nadludzkie" wyniki na szeregu rzekomo trudnych zadań kognitywnych według benchmarków, ale były niezdolne do autokorekty przy błędach. Teraz to się poprawia, ale to ilustracja tego, jak nieintuicyjne mogą być słabości modeli AI. I często odkrywasz je jednocześnie z masywną poprawą.
Dwarkesh Patel: Ciekawe, czy odwrotnie też jest prawdą – czy ludzie niezawodnie popełniają klasy błędów, które LLM uznałby za dziwne lub nieintuicyjne, lol. Czy LLM naprawdę są bardziej "zębate" (z nierównymi możliwościami) niż ludzie, czy po prostu nierówne inaczej?
Patrick McKenzie: Pożyczając obserwację z książki Dwarkesha, banalny sposób, w jaki LLM są nadludzkie – mówią w większej liczbie języków niż którykolwiek człowiek, w stopniu, który poraża wyobraźnię, i z większą łatwością, niż prawie wszyscy poligoci kiedykolwiek osiągają. Niewiarygodne, że dzieje się to przypadkowo, nawet bez tego, by laboratoria specjalnie na to trenowały. Jedna z najbardziej uderzających demonstracji, które widziałem – LLM wytrenowany na korpusie, który powinien zawierać tylko dokumenty po angielsku, był w stanie przetłumaczyć artykuł informacyjny CNN na japoński mniej więcej na poziomie profesjonalnego tłumacza. Z tej perspektywy, LLM, w którego nie wbito uprzejmości, mógłby powiedzieć: "Ludzie są dziwni i nierówni; spójrzcie, ilu z nich nie mówi po japońsku, mimo życia w świecie z książkami".
Dlaczego wielu pracowników nie używa AI (jeszcze)
Patrick McKenzie: Kodowanie wydaje się być przednią krawędzią szerokiego przemysłowego przyjęcia AI, z meteorycznym wzrostem przychodów u takich firm jak Cursor, technologami ze smakiem, którzy przeszli na narzędzia w rodzaju Claude Code i OpenAI Codex, oraz hype'em wokół "vibe coding" (programowania poprzez opis zadania w języku naturalnym). To tworzy wyraźną asymetrię entuzjazmu co do AI, ponieważ większość ludzi to nie koderzy. Który sektor zmieni się następny? Jaka zmiana uczyni to widocznym w raportach, zatrudnieniu czy cenach, a nie w demo?
Jack Clark: Kodowanie ma dobrą właściwość – jest względnie "zamkniętym cyklem": używasz LLM do generowania lub dopracowania kodu, który potem waliduje się i pchasz do produkcji. Naprawdę wymagało pojawienia się szerszego zestawu narzędzi, by LLM uzyskały tę właściwość "zamkniętego cyklu" w obszarach poza kodowaniem – na przykład, stworzenie możliwości wyszukiwania w sieci i pojawienie się takich rzeczy jak podłączenie przez Model Context Protocol (MCP – protokół kontekstu modeli), pozwoliło LLM masywnie rozszerzyć ich użyteczność w trybie zamkniętego cyklu poza kodowaniem.
Na przykład, niedawno badałem krzywe kosztów różnych rzeczy (np. dolar za masę na orbitę, lub dolary za wat z energii słonecznej), i są to rzeczy, które można było badać z LLM i przed tymi narzędziami, ale z ogromnym tarciem i koniecznością chodzenia tam i z powrotem między LLM a wszystkim innym. Teraz to tarcie zostało usunięte, i widzimy większe przyjęcie. Dlatego oczekuję, że wkrótce zobaczymy, jak to, co stało się z koderami, stanie się z pracownikami wiedzy w ogóle – i powinno to objawić się rozproszenie, ale szeroko w takich obszarach jak badania naukowe, prawo, akademia, konsulting i inne dziedziny.
Michael Burry: W końcu AI musi być przez kogoś kupione. Ktoś tam płaci za towar lub usługę. To PKB. I te wydatki rosną w tempie PKB, 2-4% – być może z pewnym podniesieniem dla firm z władzą cenową, co nie wygląda na prawdopodobne w przyszłości AI.
Gospodarki nie mają magicznie rozszerzających się placków. Mają arytmetycznie ograniczone placki. Nic fantastycznego. Cały placek oprogramowania – SaaS (oprogramowanie chmurowe na subskrypcję), uruchamiający wszystkie rodzaje funkcji korporacyjnych i kreatywnych – to mniej niż $1 bilion. Dlatego ciągle wracam do stosunku infrastruktury do aplikacji – Nvidia sprzedaje chipów za $400 miliardów przy mniej niż $100 miliardach przychodów z produktów AI dla użytkowników końcowych.
AI musi zwiększyć produktywność i stworzyć nowe kategorie wydatków, które nie kanibalizują innych kategorii. To wszystko bardzo trudne do zrobienia. Czy AI zwiększy produktywność wystarczająco? To dyskusyjne. Cykl wydatków kapitałowych oparty jest na wierze i FOMO (strachu przed utratą okazji). Nikt nie wskazuje na liczby, które działają. Jeszcze.
Jest znacznie prostszy narracja, że AI zrobi wszystko tak lepszym, że wydatki eksplodują. Raczej je ściśnie. Jeśli AI zastąpi licencję za $500 za miejsce na $50, to świetnie dla produktywności, ale deflacyjnie dla wydatków na produktywność. I ten wzrost produktywności prawdopodobnie będzie podzielony przez wszystkich konkurentów.
Dwarkesh Patel: Michael, czy to nie jest błędne przekonanie o "stałej ilości pracy"? Że jest stała objętość oprogramowania do napisania, i możemy ograniczyć z góry wpływ AI na oprogramowanie tą objętością?
Michael Burry: Nowe rynki powstają, ale rozwijają się wolniej, niż myślą zainteresowani futuryści. Tak było zawsze. Demografia i całkowity adresowalny rynek (TAM) zbyt często są sztuczkami marketingowymi, nieopartymi na rzeczywistości. Populacja Chin się kurczy. Populacja Europy się kurczy. USA to jedyny duży zachodni kraj ze wzrostem, i to z powodu imigracji, ale ona też jest upolityczniona. FOMO to cholernie silny narkotyk. Jeśli spojrzeć na niektóre komentarze Apple czy Microsoft, wydaje się, że to rozumieją.
Dwarkesh Patel: Nawiasem mówiąc, zabawne, że AI pojawia się właśnie wtedy, gdy jej potrzebujemy, by uratować nas przed demograficzną dziurą, w którą nasze gospodarki inaczej wpadłyby w najbliższych dekadach.
Michael Burry: Tak, Dwarkesh. W medycynie, gdzie jest prawdziwy niedobór, nie ma nadziei, że ludzkich lekarzy będzie wystarczająco w przyszłości. Dobra opieka medyczna musi stać się tańsza, i potrzebne są technologie, by rozszerzyć zasięg i pokrycie prawdziwej ekspertyzy medycznej.
Inżynierowie zostaną bez pracy?
Patrick McKenzie: AppAmaGooFaceSoft [Apple, Amazon, Google, Facebook, Microsoft] obecnie zatrudniają rzędu 500 000 inżynierów. Nazwij liczbę na 2035 rok i wyjaśnij swoje myślenie – lub argumentuj, że liczebność personelu to zła zmienna, i nazwij bilansową lub produktywościową metrykę, którą śledziłbyś zamiast tego.
Michael Burry: Od 2000 roku Microsoft dodał 18 000 pracowników, podczas gdy akcje nikąd się nie ruszały przez 14 lat. Faktycznie liczebność ledwo się zmieniła w Cisco, Dell i Intel, mimo dużych załamań akcji. Więc myślę, że to zła zmienna. Nic nie mówi o tworzeniu wartości, szczególnie dla bogatych w gotówkę firm i firm w sytuacjach monopolu, duopolu czy oligopolu. Myślę, że będzie niższa lub niewiele wyższa, bo myślę, że zmierzamy ku bardzo długiemu spadkowi. Hiperskalerzy zwolnili pracowników w 2022, gdy ich akcje spadły, i zatrudnili większość z powrotem, gdy akcje wzrosły. To w ciągu paru lat.
Śledziłbym pełną wartość kompensacji opartej na akcjach (SBC), zanim powiem, że produktywność bije rekordy. W Nvidii obliczyłem, że około połowa zysków jest niszczona przez kompensację związaną z akcjami, które przekazały wartość tym pracownikom. Cóż, jeśli połowa pracowników jest teraz warta $25 milionów, to jaki wzrost produktywności na tych pracownikach? Nie wspominając, że marża z dokładnymi kosztami SBC byłaby znacznie niższa.
Miara, która bije wszystkie miary – to zwrot z zainwestowanego kapitału (ROIC), i ROIC był bardzo wysoki u tych firm softwareowych. Teraz, gdy stają się kapitałochłonnymi firmami hardwareowymi, ROIC zdecydowanie spadnie, i to będzie ciążyć na akcjach długoterminowo. Nic nie przewiduje długoterminowych trendów na rynkach lepiej niż kierunek ROIC – w górę czy w dół, i z jaką prędkością. ROIC spada bardzo szybko u tych firm teraz, i tak będzie do 2035 roku.
W wywiadzie z Dwarkeshem Satya Nadella powiedział, że chce, by oprogramowanie zachowało ROIC przez ciężki cykl wydatków kapitałowych. Nie widzę tego, i nawet dla Nadelli to brzmi tylko jak nadzieja.
Dwarkesh Patel: Naiwne pytanie, ale dlaczego ROIC jest ważniejszy niż absolutne zwroty? Wolałbym posiadać duży biznes, który może ciągle rosnąć i rosnąć (choć jako mniejszy udział inwestycji), niż mały biznes, który w zasadzie drukuje pieniądze, ale jest ograniczony z góry rozmiarem.
Tyle dużych firm technologicznych ma niższy ROIC, ale ich adresowalny rynek na następne dwie dekady wzrósł z reklamy ($400 miliardów przychodów rocznie) do pracy (dziesiątki bilionów przychodów rocznie).
Michael Burry: Zwrot z zainwestowanego kapitału – i co ważniejsze, jego trend – to miara tego, ile możliwości zostało w firmie. Z mojej perspektywy, widziałem wiele roll-upów (konsolidacji przez przejęcia), gdzie firmy stawały się większe głównie przez kupowanie innych firm na dług. To czyni ROIC krytycznie ważnym wskaźnikiem. Jeśli zwrot z tych zakupów okazuje się niższy niż koszt długu, firma ponosi porażkę podobnie do WorldCom.
W pewnym momencie te wydatki na budowę AI muszą mieć zwrot z inwestycji wyższy niż koszt tych inwestycji, inaczej po prostu nie ma dodanej wartości ekonomicznej. Jeśli firma jest większa, bo pożyczyła znacznie więcej lub wydała cały swój przepływ pieniężny na coś niskodochodowego, to nie jest atrakcyjna cecha dla inwestora, i mnożnik spadnie. Jest wiele nietechnologicznych firm, drukujących pieniądze bez rzeczywistych perspektyw wzrostu poza jego kupowaniem, i handlują one około 8x zysku.
Dokąd idą pieniądze?
Patrick McKenzie: Z perspektywy cyklu kapitału, gdzie jesteśmy w budowie AI – wczesna nadwyżka inwestycji, środek cyklu z wysiewem, czy coś strukturalnie odmiennego od przeszłych boomów technologicznych? Co zmieniłoby twoje zdanie?
Michael Burry: Widzę to odmiennie od poprzednich boomów, z wyjątkiem tego, że wydatki kapitałowe są zadziwiająco nietrwałe. Chipy zmieniają się co roku; centra danych dzisiaj nie poradzą sobie z chipami za kilka lat. Można niemal argumentować, że wiele z tego powinno być spisywane jako wydatki, a nie kapitalizowane. Lub amortyzowane za dwa-trzy-cztery lata.
Inne duże odróżnienie – kredyt prywatny finansuje ten boom tak samo, jeśli nie bardziej, niż publiczne rynki kapitału. Ten kredyt prywatny to mętna strefa, ale niedopasowanie terminów rzuca się w oczy – wiele z tego jest sekurytyzowane, jakby aktywa służyły dwie dekady, przy jednoczesnym dawaniu hiperskalerom wyjść co 4-5 lat. To po prostu prosi się o problemy. Utknięte aktywa.
Oczywiście, ci którzy wydają – to najbogatsze firmy na ziemi, ale z gotówki czy z rynków kapitału, duże wydatki to duże wydatki, i zaplanowane wydatki przygniatają bilanse i przepływy pieniężne nawet dzisiejszych masywnych hiperskalerów.
Również prace w toku (CIP) stały się teraz księgową sztuczką, która moim zdaniem jest już wykorzystywana. Sprzęt kapitałowy, jeszcze nie "oddany do użytku", nie zaczyna amortyzować się ani być księgowany w wydatkach. I może tam być wiecznie. Wyobrażam sobie, że wiele utknięte aktywa będą ukrywane w CIP dla ochrony zysków, i myślę, że już widzimy ten potencjał.
W wywiadzie Dwarkesha Nadella powiedział, że wycofał się z niektórych projektów i spowolnił budowę, bo nie chciał utkwiąć z 4-5 latami amortyzacji na jednej generacji chipów. To wymowne przyznanie problemu.
Jesteśmy teraz w środku cyklu – przeszliśmy punkt, gdzie akcje będą nagradzać inwestorów za dalszą budowę, i wchodzimy w okres, gdy rzeczywiste koszty i brak przychodów zaczną się ujawniać.
W przeszłych cyklach akcje i rynki kapitału osiągały szczyt mniej więcej w połowie, a reszta wydatków kapitałowych następowała, gdy coraz bardziej pesymistyczny czy realistyczny pogląd opadał na aktywa.
Dwarkesh Patel: Myślę, że to tak bardzo zależy od tego, czy AI będzie nadal się poprawiać szybkim tempem. Gdyby można było naprawdę uruchomić najbardziej produktywne ludzkie umysły na B200 (GPU Nvidia B200), to oczywiście masywnie niedoinwestowujemy. Myślę, że przychody z warstwy aplikacyjnej są jak dotąd mniej informatywne niż surowe prognozy o postępie w możliwościach AI.
Jack Clark: Zgadzam się z tym – objętość postępu w możliwościach w ostatnich latach była głęboko zadziwiająca i doprowadziła do masywnego wzrostu użycia AI. W przyszłości mogą być dalsze skokowo rosnące możliwości modeli, i mogą one mieć niezwykle znaczące efekty na gospodarkę.
W czym rynek się myli
Patrick McKenzie: Gdzie kumuluje się wartość w łańcuchu dostaw AI? Czym to różni się od niedawnych czy historycznych przełomów technologicznych? W czym, waszym zdaniem, rynek najbardziej się teraz myli?
Michael Burry: Cóż, wartość kumuluje się, historycznie, we wszystkich branżach, u tych, którzy mają trwałą przewagę konkurencyjną, przejawiającą się albo jako władza cenowa, albo jako nieosiągalna przewaga w kosztach lub dystrybucji.
Nie jest jasne, że wydatki tutaj doprowadzą do tego.
Warren Buffett posiadał dom towarowy pod koniec lat 60. Gdy dom towarowy po drugiej stronie ulicy postawił schody ruchome, on też musiał. W rezultacie żaden nie wygrał z tego drogiego projektu. Żadnej trwałej poprawy marży czy kosztów, i obaj znaleźli się w tym samym miejscu. Tak będzie z większością wdrożeń AI.
Dlatego biliony dolarów wydatków bez jasnej ścieżki do wykorzystania przez realną gospodarkę tak martwią. Większość nie wygra, bo ich konkurenci wygrają w tym samym stopniu, i nikt nie będzie miał przewagi konkurencyjnej z tego powodu.
Myślę, że rynek najbardziej się myli co do dwóch głównych symboli AI: Nvidia i Palantir. To dwie najbardziej szczęśliwe firmy. Dobrze się zaadaptowały, ale miały szczęście, bo gdy to wszystko się zaczęło, żadna nie rozwijała produktu dla AI. Ale są używane jako taka.
Przewaga Nvidii nie jest trwała. SLM i ASIC to przyszłość dla większości scenariuszy użycia AI. Będą wstecznie kompatybilne z CUDA [równoległa platforma obliczeniowa i model programowania Nvidia], jeśli w ogóle będzie potrzebne. Nvidia to energożerne, brudne rozwiązanie, trzymające fort, aż konkurencja nie przyjdzie z zupełnie innym podejściem.
CEO Palantir porównał mnie do [złych aktorów] z powodu wyimaginowanego zakładu na miliard dolarów przeciwko jego firmie. To nie pewny siebie CEO. Marketinguje na całego, by to podtrzymać, ale to się ześliźnie. Praktycznie nie ma zysku po kompensacji opartej na akcjach.
Dwarkesh Patel: Jeszcze zobaczymy, czy laboratoria AI mogą osiągnąć trwałą przewagę konkurencyjną z efektów typu rekurencyjnego samodoskonalenia. Ale jeśli Jack ma rację i deweloperzy AI już powinni widzieć ogromne wzrosty produktywności, to dlaczego teraz wszystko jest bardziej konkurencyjne niż kiedykolwiek? Albo takie wewnętrzne "jedzenie własnego jedzenia" (testowanie produktu na sobie) nie może podtrzymać przewagi konkurencyjnej, albo wzrosty produktywności z AI są mniejsze, niż się wydają.
Jeśli okaże się, że (1) nikt w całym stosie AI nie może robić szalonych zysków i (2) AI i tak okaże się dużą sprawą, wtedy oczywiście wartość trafia do klienta. Co w moim słyszeniu brzmi świetnie.
Michael Burry: W przykładzie ze schodami ruchomymi jedyna wartość trafiła do klienta. Tak zawsze bywa, jeśli producenci czy dostawcy nie mogą pobierać monopolowej renty.
Co zmieniłoby ich zdanie
Patrick McKenzie: Jaki nagłówek 2026 roku – technologiczny czy finansowy – zaskoczyłby was i zmusił do rewizji ogólnych poglądów na postęp AI czy wyceny? Retrospektywnie, co było największym zaskoczeniem czy rewizją dotychczas?
Michael Burry: Największe zaskoczenie, które zmusiłoby mnie do rewizji poglądów – autonomiczni agenci AI, wypierający miliony miejsc pracy w największych firmach. To by mnie zszokowało, ale niekoniecznie pomogłoby zrozumieć, gdzie jest trwała przewaga. Znowu ten przykład ze schodami Buffetta.
Inne – przychody warstwy aplikacyjnej, osiągające $500 miliardów lub więcej dzięki rozprzestrzenieniu przełomowych aplikacji.
Właśnie teraz zobaczymy jedno z dwojga: albo chipy Nvidii służą 5-6 lat i ludziom dlatego potrzeba mniej, albo służą 2-3 lata i zyski hiperskalerów się zawalą, a kredyt prywatny będzie zniszczony.
Retrospektywnie, największe zaskoczenia dotychczas:
- Google nie liderował cały czas – ośmiu autorów "Attention Is All You Need" było pracownikami Google; mieli Search, Gmail, Android, a nawet LLM i chipy, ale to przegapili i dali szansę konkurentom ze znacznie mniejszymi zasobami. Google dogania startup w AI: to zdumiewające.
- ChatGPT – chatbot uruchomił infrastrukturalny wyścig na wiele bilionów dolarów. To jakby ktoś zbudował prototyp robota i każdy biznes na świecie zaczął inwestować w robotyczną przyszłość.
- Nvidia zachowała dominację tak daleko w epoce inferencji. Oczekiwałem, że ASIC i SLM będą dominować do tego momentu, i że już dawno wyszlibyśmy poza prompt engineering. Być może uwielbienie dla Nvidii naprawdę powstrzymywało graczy. Albo antykonkurencyjne zachowanie Nvidii.
Dwarkesh Patel: Największe zaskoczenia dla mnie byłyby:
- Łączne przychody laboratoriów AI za 2026 rok poniżej $40 miliardów lub powyżej $100 miliardów. To by oznaczało, że wszystko znacząco przyspieszyło lub zwolniło w porównaniu z tym, czego oczekiwałem.
- Ciągłe uczenie rozwiązane. Nie tak, jak GPT-3 "rozwiązał" uczenie w kontekście, ale tak, że GPT-5.2 naprawdę niemal ludzko rozumie z kontekstu. Jeśli praca z modelem to jak replikacja doświadczonego pracownika, który pracuje z tobą pół roku, a nie otrzymanie jego pracy w pierwszą godzinę pracy, myślę, że to stanowi ogromny skok w możliwościach AI.
- Myślę, że terminy do AGI znacząco się zawęziły od 2020 roku. W tym momencie można było przypisać jakieś prawdopodobieństwo skalowaniu GPT-3 tysiąc razy i osiągnięciu AGI, i jakieś prawdopodobieństwo temu, że jesteśmy całkowicie na złej drodze i trzeba będzie czekać do końca wieku. Gdyby postęp odbiegł od linii trendu i wskazał na pojawienie się prawdziwych ludzko-zastępowalnych inteligencji w najbliższych 5-20 latach, to byłoby największym zaskoczeniem dla mnie.
Jack Clark: Jeśli "skalowanie uderzy w ścianę", to byłoby naprawdę zaskakujące i miałoby bardzo znaczące konsekwencje zarówno dla podstawowego paradygmatu badawczego, jak i szerszej gospodarki AI. Oczywiście budowa infrastruktury, włączając ogromne inwestycje w obiekty do trenowania przyszłych modeli AI, zakłada, że ludzie stawiają inaczej.
Inna rzecz, która by mnie zaskoczyła – gdyby był przełom technologiczny, poprawiający efektywność rozproszonego trenowania, i jacyś gracze zebraliby wystarczająco komputerów do trenowania bardzo potężnego systemu. Gdyby to się stało, sugerowałoby, że można mieć nie tylko modele z otwartymi wagami, ale i formę otwartego rozwoju modeli, gdzie nie potrzeba jednej ogromnej organizacji (w rodzaju dużej firmy) do trenowania frontierowego modelu. To zmieniłoby polityczną ekonomię AI i miałoby niezwykle nietrywialne konsekwencje polityczne, szczególnie wokół rozprzestrzeniania frontierowych możliwości. Epoch ma dobrą analizę rozproszonego trenowania, na którą warto spojrzeć.
Jak naprawdę używają LLM
Patrick McKenzie: Jakie była wasza ostatnia profesjonalnie istotna interakcja z LLM? Usuńcie szczegóły, jeśli trzeba. Jak odnosiliście się do LLM w tej interakcji?
Michael Burry: Używam Claude do tworzenia wszystkich moich wykresów i tabel teraz. Znajduję materiał źródłowy, ale nie tracę czasu na tworzenie czy projektowanie profesjonalnej tabeli, wykresu czy wizualizacji. Wciąż nie ufam cyfrom i muszę je sprawdzać, ale ten kreatywny aspekt jest w przeszłości dla mnie. Poza tym, używam Claude w szczególności do wyszukiwania materiałów źródłowych, ponieważ tak wiele materiałów źródłowych dzisiaj nie znajduje się po prostu w SEC czy w mainstreamowym raporcie.
Patrick McKenzie: Myślę, że ludzie poza finansami nie rozumieją, ile miliardów dolarów zostało wydane na utrzymywanie jednych z najlepiej opłacanych, najlepiej wykształconych ludzi na świecie, zatrudnionych jako specjaliści od Microsoft PowerPoint i Excel. W tym wciąż jest wartość, na razie, i być może statusowa wartość umiejętności pracy z pivot tables i VLOOKUP() przetrwa dłużej niż one same, ale moja prezentacja w Banku Anglii też używała LLM do wszystkich wykresów. Wydaje się niemal dziwne, że kiedyś prosiliśmy ludzi, by tracili godziny na ich staranne dopasowanie.
Dwarkesh Patel: Są teraz moimi osobistymi korepetytorami jeden-na-jeden. Naprawdę próbowałem wynajmować ludzkich korepetytorów z różnych przedmiotów, które przygotowuję, i odkryłem, że szybkość odpowiedzi LLM po prostu daje jakościowo znacznie lepsze doświadczenie. Otrzymuję cyfrowy ekwiwalent tego, jak ludzie są gotowi płacić ogromne premie za Waymo zamiast Ubera. To naprowadza mnie na myśl, że premia za żywą osobę w wielu zawodach będzie nie tylko niska, ale ujemna – ludzie będą woleli AI.
Michael Burry: W tej sprawie – wielu wskazuje na zawody rzemieślnicze jako wybór chroniący przed AI. Biorąc pod uwagę, ile teraz mogę zrobić w elektrice i innych obszarach w domu po prostu z Claude pod ręką, nie jestem tak pewien. Jeśli jestem klasą średnią i przede mną rachunek na $800 od hydraulika czy elektryka, być może po prostu użyję Claude. Podoba mi się, że mogę sfotografować i zrozumieć wszystko, co trzeba zrobić do naprawy.
Ryzyko, władza i jak kształtować przyszłość
Patrick McKenzie: Spektrum poglądów na ryzyka AI wśród relatywnie poinformowanych ludzi rozciąga się od "to może wywołać kłopoty w mediach społecznościowych" przez "szkoda byłoby, gdyby Chiny wyprzedziły USA w bardzo użytecznej rozwijającej się technologii z potencjalnymi wojskowymi zastosowaniami" do "ryzyka obejmują dosłowny koniec wszystkiego drogiego dla ludzkości". Co najbardziej nie daje wam spać po nocach? Oddzielnie, gdybyście mieli pięć minut z wysokimi rangą politykami, jaką nową dystrybucję uwagi i zasobów zaproponowalibyście?
Jack Clark: Główna rzecz, o którą się martwię – czy uda się ludziom "budować AI, która buduje AI" – całkowicie zamknąć cykl na R&D AI (czasem nazywany rekurencyjnie samodoskonalącym się AI). Żeby było jasne, przypisuję praktycznie zerowe prawdopodobieństwo istnieniu rekurencyjnie samodoskonalących się systemów AI na planecie w styczniu 2026 roku, ale widzimy bardzo wczesne oznaki, że AI staje się lepsza w komponentach badań AI, od rozwoju rdzeni obliczeniowych po autonomiczne dotrenowywanie modeli z otwartymi wagami.
Jeśli to będzie się nadal poprawiać i zbudujesz system AI, który może budować siebie, to rozwój AI gwałtownie przyspieszy i prawdopodobnie stanie się trudniejszy do zrozumienia dla ludzi. To stworzy szereg znaczących problemów politycznych i też prawdopodobnie doprowadzi do bezprecedensowego skoku w aktywności ekonomicznej świata, przypisywanej systemom AI.
Inaczej mówiąc, gdybym miał pięć minut z politykiem, w zasadzie powiedziałbym: "Samodoskonalące się AI brzmi jak science fiction, ale nie ma nic w technologii, co mówi, że to niemożliwe, i gdyby to się stało, to byłaby ogromna sprawa, i powinniście na to zwracać uwagę. Powinniście wymagać przejrzystości od firm AI co do tego, co dokładnie tutaj widzą, i upewnić się, że macie strony trzecie, którym ufacie, które mogą testować systemy AI na te właściwości."
Michael Burry: Jack, wyobrażam sobie, że politycy cię słuchają, i mam nadzieję, że słuchają.
AI w jej obecnym kształcie nie bardzo mnie niepokoi z punktu widzenia ryzyka dla ludzkości. Myślę, że chatboty mają potencjał czynić ludzi głupszymi – lekarze, którzy używają ich zbyt wiele, zaczynają zapominać własną skumulowaną wiedzę medyczną. To nie jest dobre, ale nie katastrofalne.
Katastroficzne obawy o AGI czy sztuczną superinteligencję (ASI) nie martwią mnie zbytnio. Dorastałem w Zimnej Wojnie, i świat mógł wybuchnąć w każdej chwili. Mieliśmy szkolne ćwiczenia na ten wypadek. Grałem w piłkę nożną z helikopterami, rozpylającymi Malathion nad wszystkimi nami. I oglądałem "Terminatora" ponad 30 lat temu. "Czerwony Świt" wydawał się możliwy. Myślę, że ludzie się adaptują.
Gdyby wysoko rangą politycy mnie słuchali, poprosiłbym ich, by wzięli bilion dolarów (skoro biliony są teraz rozrzucane jak miliony) i obeszli wszystkie protesty i regulacje i usiali cały kraj małymi reaktorami jądrowymi, jednocześnie budując zupełnie nową, nowoczesną sieć elektryczną dla wszystkich. Zrobić to tak szybko, jak to możliwe i chronić wszystko przed atakami za pomocą najnowszego bezpieczeństwa fizycznego i cybernetycznego; może nawet stworzyć specjalne Siły Obrony Jądrowej, które chronią każdy obiekt, finansowane federalnie.
To jedyna nadzieja na uzyskanie wystarczającej energii, by nie zostać w tyle za Chinami, i to jedyna nadzieja dla nas jako kraju na wystarczający wzrost, by ostatecznie spłacić dług i zagwarantować długoterminowe bezpieczeństwo, nie pozwalając energii być ograniczającym czynnikiem naszej innowacji.
Jack Clark: Całkowicie zgadzam się w sprawie energii (choć możemy mieć różny subiektywny poziom niepokoju co do innych rzeczy!). AI będzie odgrywać znaczącą rolę w gospodarce, i jest fundamentalnie zależna od podstawowej infrastruktury do efektywnej i taniej dostawy biznesom i konsumentom – analogicznie do tego, jak w przeszłości kraje decydowały się przeprowadzać masową elektryfikację, budowę dróg, kanalizacji itd. (masywne projekty wydatków kapitałowych!). Pilnie musimy zrobić to samo dla energii.
Również myślę, że wielkoskalowe centra danych AI są bardzo użytecznymi klientami testowymi dla nowych technologii energetycznych, i jestem szczególnie podekscytowany połączeniem popytu AI na energię i technologii jądrowych w przyszłości. Szerzej, myślę, "bezpieczeństwo ekonomiczne to bezpieczeństwo narodowe", tak więc tworzenie infrastruktury do budowy gospodarki AI będzie miało pośrednie pozytywne efekty na naszą bazę przemysłową i ogólną odporność.
O uczestnikach
Michael Burry – były zarządzający funduszem hedgingowym i pisarz, publikujący analizy inwestycyjne i komentarze o rynkach w swoim Substack "Cassandra Unchained". Najbardziej znany z przewidzenia kryzysu subprime, jak pokazano w "Wielkim Krótkim", i ostatnio wyrażał sceptycyzm wobec rynkowej euforii wokół AI.
Jack Clark – współzałożyciel i szef polityki w Anthropic, gdzie pracuje nad bezpieczeństwem AI, zarządzaniem i społecznymi konsekwencjami frontierowych modeli. Także prowadzi Import AI, długo wychodzący newsletter z analizą osiągnięć w sztucznej inteligencji, władzy państwowej i ryzyk technologicznych.
Dwarkesh Patel – założyciel i prowadzący Dwarkesh Podcast, gdzie przeprowadza wywiady z czołowymi myślicielami o AI, gospodarce i postępie naukowym. Także publikuje eseje i wywiady w swoim Substack, skupiając się na długoterminowych trajektoriach technologicznych, bezpieczeństwie AI i ryzykach cywilizacyjnych.
Patrick McKenzie – pisarz i przedsiębiorca softwareowy, najbardziej znany ze swojego newslettera Bits About Money, gdzie wyjaśnia finanse, rynki i instytucje. Także prowadzi podcast Complex Systems i wcześniej pracował w technologiach i płatnościach, m.in. w Stripe.