
Aby przygotować się do nauczania, czytam słynny artykuł z badań nad sztuczną inteligencją: Gorzka lekcja, napisany przez Richarda Suttona w 2019 r. Zastanawiałem się, co mogłoby wydawać się prorocze i czy można było odnieść wrażenie, że Sutton się mylił. Na koniec omówię implikacje ekonomiczne.
Sutton czerpie z dziesięcioleci historii sztucznej inteligencji, aby argumentować, że badacze poznali „gorzką” prawdę. Naukowcy wielokrotnie zakładają, że komputery dokonają kolejnego postępu w inteligencji, opierając się na specjalistycznej wiedzy ludzkiej. Najnowsza historia pokazuje, że metody skalujące się wraz z obliczeniami są skuteczniejsze niż metody opierające się na wiedzy człowieka. Na przykład w szachach komputerowych wyszukiwanie metodą brute-force na specjalistycznym sprzęcie zatriumfowało nad podejściem opartym na wiedzy. Sutton ostrzega, że badacze niechętnie wyciągają wnioski z tej lekcji, ponieważ zdobywanie wiedzy daje satysfakcję, ale prawdziwe przełomy wynikają z nieustannego skalowania obliczeń. W sztucznej inteligencji skalowanie oznacza powiększanie modeli i uczenie ich na większej ilości danych przy większej mocy obliczeniowej.
Gorzka lekcja nie dotyczy pojedynczego algorytmu, ale raczej intelektualnej pokory: postęp w sztucznej inteligencji wynika z zaakceptowania faktu, że uczenie się ogólnego przeznaczenia, stale skalowane, przewyższa nasze najlepsze próby zakodowania inteligencji na stałe. Ma znaczenie, czy Sutton ma rację, czy nie, ponieważ nie jesteśmy u kresu eksplozji sztucznej inteligencji ani okresu zwanego „Era skalowania” autorstwa Dwarkesha Patela.
Goście EconTalk spekulują, że sztuczna inteligencja uratuje świat lub zabije nas wszystkich. Zobacz co następuje:
Tak ekstremalne prognozy zakładają, że możliwości sztucznej inteligencji będą rosły. Chociaż od czasu, gdy Sutton napisała w 2019 r., sztuczna inteligencja szybko się poprawia, nie ma żadnego znanego nam prawa natury, które nakazywałoby jej dalsze doskonalenie. Czasami ludzie nawet twierdzą, że widzą stabilizację możliwości sztucznej inteligencji lub zwracają na to uwagę halucynacje utrzymują się nawet w zaawansowanych modelach.
Jeśli skalowanie rzeczywiście jest drogą do większej inteligencji, możemy spodziewać się, że sztuczna inteligencja będzie nadal przekraczać oczekiwania, jeśli dodamy do systemu więcej sprzętu. Ta hipoteza jest testowana: mogłyby to zrobić prywatne inwestycje w sztuczną inteligencję w USA przekraczać 100 miliardów dolarów rocznieco stanowi jeden z największych osiągnięć technologicznych w historii. Przeanalizujmy tezę Suttona w świetle ostatnich osiągnięć.
Możemy wskazać trzy dowody na to, że Sutton miał rację w sprawie skalowania. Po pierwsze, sztuczna inteligencja w grach zapewnia czysty, naturalny eksperyment. AlphaZero nauczył się grać w szachy i przejść grę samodzielnie, bez ludzkich debiutów i strategii. AlphaZero przewyższył wcześniejsze systemy zbudowane w oparciu o wiedzę branżową. Tak jak przewidywał Sutton, jego sukces wynikał ze skali i obliczeń.
Po drugie, przetwarzanie języka naturalnego (NLP), gałąź sztucznej inteligencji skupiająca się na umożliwieniu komputerom rozumienia i generowania ludzkiego języka, pokazuje ten sam schemat. Wcześniejsze systemy NLP kładły nacisk na zasady oparte na języku i strukturę symboliczną. GPT-3 i następcy OpenAI opierają się na architekturach ogólnych trenowanych na ogromnych danych i ogromnych mocach obliczeniowych. Wydajność zyskuje na skali toru bardziej niezawodnie niż spryt architektoniczny.
Trzeci przykład to wizja komputerowa. Ręcznie konstruowane potoki funkcji (techniki, w których programiści ręcznie opracowywali algorytmy do wykrywania krawędzi i kształtów) zostały wyparte, gdy konwolucyjne sieci neuronowe (rodzaj architektury sztucznej inteligencji luźno inspirowanej korą wzrokową i zaprojektowanej do automatycznego uczenia się wzorców wizualnych z danych) można było wytrenować na dużą skalę. Dokładność wzrosła wraz ze wzrostem zbiorów danych i obliczeń.
Argument Suttona dotyczy skalowalności metod, ale w praktyce skalowalność ta staje się widoczna dopiero wtedy, gdy inwestycja kapitałowa zmniejszy ograniczenia obliczeniowe.
Tempo rozwoju sztucznej inteligencji odzwierciedla nie tylko możliwości technologiczne, ale także bezprecedensową mobilizację zasobów finansowych. Typowa osoba korzystająca z ChatGPT do tworzenia list zakupów może nie wiedzieć, co oznacza słowo „skalowanie”. Możliwy powód gdyż niedoszacowanie tempa postępu nie jest jedynie niezrozumieniem technologii, ale błędnym oszacowaniem, ile pieniędzy zostanie w nią wpompowanych.
Porównuję to do Projektu Manhattan. Ludzie wątpili w Projekt Manhattan nie dlatego, że naruszał on fizykę, ale dlatego, że wydawał się zbyt kosztowny. Niels Bohr podobno powiedział, że będzie to wymagało „przekształcenia całego kraju w fabrykę”. Ale zrobiliśmy to. Robimy to ponownie. Zamieniamy kraj w fabrykę sztucznej inteligencji. Bez tych wszystkich inwestycji postęp byłby wolniejszy.
Jednak ani zagłada, ani utopiści nie okażą się słuszni, jeśli zbliżymy się do granicy mocy skalowania lub naszej zdolności do fizycznego dalszego skalowania. Czy ta gorzka lekcja pomoże nam przetrwać rok 2026 i lata kolejne? Ma to znaczenie dla dzisiejszego bezrobocia i egzystencjalnego zagrożenia jutro.
Najnowsze badania ekonomiczne przedstawiają zróżnicowany pogląd. W artykule ze stycznia 2026 r. ekonomista Joshua Gans opracowuje model „sztucznej postrzępionej inteligencji”. Gans zauważa, że generatywne systemy sztucznej inteligencji wykazują nierówną wydajność w przypadku zadań, które wydają się „w pobliżu”: mogą być doskonałe w jednym zdaniu i z pewnością błędne w innym, wystarczy jedynie niewielka zmiana sformułowań lub kontekstu. Każdy, kto korzystał z ChatGPT do pomocy przy zadaniu zawodowym, a następnie patrzył na halucynacje zawierające wiarygodnie brzmiące kłamstwa, doświadczył tego na własnej skórze.
Tym, co czyni analizę Gansa interesującą z ekonomicznego punktu widzenia, jest potraktowanie przez nią praw skalowania. W jego modelu rosnąca skala (reprezentowana przez gęstość znanych punktów w krajobrazie wiedzy) zmniejsza średnie luki i poprawia średnią jakość w mniej więcej liniowy sposób. To dobra wiadomość dla tezy Suttona: więcej obliczeń oznacza lepszą średnią wydajność. Jednakże nierówności nadal występują i błędy. Skalowanie podnosi średnią wydajność bez eliminowania niespodzianek lub długotrwałych niepowodzeń.
Gans postrzega przyjęcie sztucznej inteligencji jako problem informacyjny: użytkownikom zależy na lokalnej niezawodności (czy sztuczna inteligencja pomoże Ja z Mój zadanie?), ale zazwyczaj obserwujemy tylko ogólne, ogólne sygnały jakości (wyniki testów porównawczych). To niedopasowanie powoduje prawdziwe tarcia gospodarcze. Asystent prawny może zaufać sztucznej inteligencji, która doskonale radzi sobie z 95% przeglądów umów, ale zostaje oślepiony przez zdecydowanie błędną odpowiedź w sprawie pozornie rutynowej klauzuli. Gans pokazuje, że doświadczane błędy są wzmacniane przez to, co statystycy nazywają „paradoksem inspekcji”. Użytkownicy napotykają błędy właśnie tam, gdzie najbardziej potrzebują pomocy.
Artykuł Gansa z 2026 r. nie cytuje bezpośrednio Suttona ani mu nie zaprzecza, ale można go odczytać jako badanie ograniczeń strukturalnych, które utrzymują się nawet przy podążaniu ścieżką gorzkiej lekcji. Skalowanie działa, ale korzyści ekonomiczne wynikające ze skalowania mogą zostać częściowo zrekompensowane utrzymującą się nieprzewidywalnością, której skalowanie nie leczy.
To ograniczenie ma praktyczne konsekwencje dla sposobu, w jaki przedsiębiorstwa wdrażają sztuczną inteligencję: nie mogą po prostu ufać wynikom testów porównawczych, ale muszą inwestować w nadzór człowieka i testowanie specyficzne dla danej dziedziny. Oznacza to również, że sztuczna inteligencja nie oznacza końca ludzkich stanowisk pracy.
Sutton miał rację co do kierunku, ale nie powinniśmy wyrywać jego spostrzeżeń z kontekstu. Samo skalowanie nie wystarczy, a samo dodanie większego skalowania raczej nie doprowadzi nas do superinteligencji. Modele nadal wymagają ludzkiej wiedzy i struktury, aby były maksymalnie przydatne dla firm. RLHF (uczenie się przez wzmacnianie na podstawie informacji zwrotnej od ludzi) – technika szkoleniowa, w której osoby oceniające oceniają wyniki sztucznej inteligencji, aby pomóc modelowi dowiedzieć się, które reakcje są pomocne i bezpieczne, jest składnikiem wprowadzającym ludzkie wartości do modeli. Wcześniejsze architektury nie stały się GPT-4 tylko poprzez dodanie większej ilości danych.
Nie możemy też w nieskończoność po prostu „skalować bardziej”. Koszty energii i limity danych są ograniczeniami w świecie rzeczywistym. Zatem jeśli sztuczna inteligencja ma się znacznie ulepszyć, będzie wymagać wydajności i sprytu algorytmicznego, a nie tylko brutalnej siły. Ludzka wiedza nie straciła jeszcze na znaczeniu. Przeszło od bezpośredniego kodowania inteligencji do kształtowania, ograniczania i sterowania skalowanymi systemami uczenia się.
Ogólnie rzecz biorąc, przyznajmy Suttonowi należne uznanie. Skalowanie działa. Jednak skuteczność tego skalowania zależy od ludzkiej wiedzy na temat struktury i wdrażania tych systemów. Ekonomiści uznają to za znajomy wzór: kapitał i praca pozostają dopełnieniem, nawet jeśli kapitał mierzy się w procesorach graficznych, a praca wiąże się z projektowaniem funkcji straty.
Praca Gansa dodaje ważny przypis ekonomiczny: chociaż skalowanie poprawia średnią wydajność sztucznej inteligencji, postrzępiony i nieprzewidywalny charakter tej wydajności stwarza realne koszty dla użytkowników wdrażających rozwiązania. Firmy i osoby prywatne muszą poruszać się w środowisku, w którym sztuczna inteligencja jest jednocześnie bardziej wydajna i stale zawodna w sposób trudny do przewidzenia. Zwroty ekonomiczne z inwestycji w sztuczną inteligencję zależą nie tylko od surowych możliwości, ale od rozwoju instytucji i uzupełniającej wiedzy ludzkiej w celu radzenia sobie z nierównościami.
Gorzka lekcja może być taka, że czyste skalowanie ma potężną moc, ale słodkim wnioskiem jest to, że ludzka pomysłowość jest nadal istotnym składnikiem postępu w przyszłości.
[1] Obliczaćw badaniach nad sztuczną inteligencją to całkowita moc obliczeniowa (zwykle mierzona w operacjach zmiennoprzecinkowych (FLOP)) wykorzystywana do uczenia lub uruchamiania modelu.