Connect with us

Liderzy opinii

Dane wygenerowane przez gry mogą być najmniej docenianym zasobem w szkoleniu AI

mm

Firmy zajmujące się sztuczną inteligencją przez ostatnie pięć lat pochłonęły każdy fragment tekstu, każde zdjęcie i każdy skrawek publicznie dostępnych danych w internecie. Ten zapas jest ograniczony, i zbliżamy się do punktu, w którym po prostu nie będzie już wystarczającej ilości danych, aby utrzymać tempo postępu, od którego zależy.

Jednak jest oczywisty kandydat, którego przemysł AI w dużej mierze zignorował. 

Buduję systemy gier na życie, a dane, które przepływają przez nie każdego dnia, są niepodobne do niczego, z czym większość badaczy AI kiedykolwiek pracowała. I prawie nikt poza branżą gier nie zdaje się zwracać na to uwagi.

Platformy gier generują terabajty danych behawioralnych każdego dnia, ustrukturyzowane strumienie decyzji w czasie rzeczywistym, aktywności gospodarczej i interakcji społecznych, wszystko w środowiskach zbudowanych na podstawie spójnych reguł fizycznych.

Prawie żadne z tych danych nie zostało wykorzystanych do szkolenia AI. I firmy, które to zrobiły, od DeepMind do NVIDIA, wyprodukowały niektóre z najbardziej znaczących przełomów w tej dziedzinie. 

Problem danych AI

Badanie przeprowadzone przez Epoch AI wykazało, że zapas publicznie dostępnych, ludzkich danych tekstowych zostanie w pełni wykorzystany gdzieś pomiędzy 2026 a 2032 rokiem. Modele, które stoją za ChatGPT, Gemini i Claude, już zużyły praktycznie wszystko, co internet ma do zaoferowania.

Syntetyczne dane lub tekst, który AI generuje, aby nakarmić AI, jest obejściem stosowanym przez przemysł. Ale modele szkolone na własnym wyjściu ulegają degradacji w czasie przez udokumentowany fenomen, który badacze nazywają kolapsem modelu.

To, w co wierzę, że pole potrzebuje, to bogate, interaktywne, wielomodalne informacje, gdzie przyczyna i skutek występują w czasie rzeczywistym, a każde działanie ma wymierne konsekwencje. Gry produkują exactly to, i robią to w skali, której prawie nic innego nie może dorównać.

Platformy gier pompują terabajty danych behawioralnych przez swoje systemy każdego dnia. Ruchy graczy, strategiczne wybory, czasy reakcji, transakcje gospodarcze i interakcje społeczne wszystkie przepływają przez ustrukturyzowane, znakowane czasem strumienie, których większość badaczy AI nigdy nie dotknęła.

Niedawne opracowanie naukowe na temat danych wygenerowanych przez gry przedstawia dziewięciokategoriową taksonomię tych informacji i twierdzi, że ogromna większość z nich pozostaje całkowicie niewykorzystana przez przemysł AI.

Mogę to potwierdzić z własnego doświadczenia. Ilość danych, która przepływa przez nasze systemy gier w dowolnym dniu, byłaby uważana za złoto w jakimkolwiek innym obszarze badań AI. W grach po prostu archiwizuje się ją lub wyrzuca.

Dlaczego dane gier są inne

Kiedy budujesz w silniku gry przez wystarczająco długi czas, zaczynasz zdawać sobie sprawę, ile ustrukturyzowanych danych masz pod ręką, o których nikt w AI nie prosił jeszcze. Każda sesja produkuje zsynchronizowaną fizykę, zachowanie gracza i systemowy przyczynowo-skutkowy związek w skali, której trudno znaleźć gdzie indziej.

Silniki gier egzekwują fizykę. Obiekty spadają, zderzają się i łamią zgodnie ze spójnymi regułami, co oznacza, że dane zawierają relacje przyczynowo-skutkowe wbudowane na poziomie systemu, a nie wzorce, które model musi zgadnąć z korelacji tekstowych.

Kiedy gracz wystrzeliwuje pocisk, silnik oblicza trajektorię, opór powietrza i wpływ. AI uczą się w środowisku, które demonstruje fizykę bezpośrednio poprzez każdą interakcję, a nie w takim, który traktuje prawa fizyki jako statystyczne przybliżenia.

Istnieje również problem wielomodalnej synchronizacji. W grze dane wizualne, sygnały dźwiękowe, dane wejściowe gracza i stan środowiska występują jednocześnie i są rejestrowane razem. Tego rodzaju naturalna synchronizacja kosztuje fortunę, aby ją odtworzyć w danych z świata rzeczywistego, gdzie badacze zwykle muszą oznaczać i wyrównywać każdą modalność ręcznie.

Gry produkują przypadki graniczne w skali, również poprzez proceduralną generację treści. No Man’s Sky ma 18 kwintylionów unikalnych planet, a dla AI ta zmienność ma ogromne znaczenie, ponieważ przypadki graniczne określają, czy model działa niezawodnie, czy niebezpiecznie.

I jest jeszcze złożoność emergentna, która może być najcenniejszą właściwością ze wszystkich. Kiedy OpenAI umieściło agenty w prostej grze w chowanego, agenci ci rozwinęli sześć odrębnych faz zaawansowanej strategii całkowicie samodzielnie przez setki milionów rund.

Zbudowali schronienia z przenośnych obiektów, używali ramp, aby sforsować umocnienia, i nawet wykorzystywali błędy fizyki, aby przypłynąć skrzynkami nad murami. Nic z tego nie było zaprogramowane. Wszystko to wynikło z konkurencji w środowisku gry, bez jednej linii kodu, która by im powiedziała, aby to zrobić.

Tego rodzaju samogenerowana złożoność jest dokładnie tym, czego potrzebuje badanie AI w skali, a gry są jedynymi środowiskami, które produkują ją niezawodnie bez drogiej nadzoru ludzkiego.

Od plansz do Nagród Nobla

Najbardziej oczywistym dowodem na to, że AI wyszkolona w grach przenosi się do świata rzeczywistego, jest system, który otrzymał Nagrodę Nobla, i jest to przykład, do którego wracam, gdy ludzie pytają mnie, dlaczego zbudowałem swoją karierę wokół gier i AI.

DeepMind zaczęło od AlphaGo w 2016 roku, a następnie zbudowało AlphaZero, system, który nauczył się samodzielnie gry w szachy, Go i shogi bez żadnej wiedzy ludzkiej. Architektura AlphaZero stała się podstawą dla AlphaFold, który rozwiązał 50-letni problem składania białek i przyniósł jego twórcom Nagrodę Nobla w dziedzinie chemii w 2024 roku. 

CEO DeepMind, Demis Hassabis, był otwarty w tej kwestii. Powiedział Scientific American, że gry nigdy nie były celem końcowym, ale raczej najbardziej efektywnym sposobem rozwoju i testowania technik AI, zanim zastosował je do prawdziwych problemów naukowych. 

Pamiętam, jak czytałem to i czułem, że ktoś sformułował dokładnie to, co widziałem od wewnątrz rozwoju gier przez lata.

Ta trajektoria powtarzała się od tego czasu w całej dziedzinie. Środowiska uczenia wzmocnionego, które OpenAI po raz pierwszy standaryzowało za pomocą Gymnasium, teraz stanowią podstawę badań w robotyce, pojazdach autonomicznych i automatyce przemysłowej.

Grająca struktura agenta, środowiska, działania i nagrody zaczęła się jako wygodność badawcza i stała się standardową ramą dla każdego systemu AI, który musi działać w świecie fizycznym.

Gry jako nowa warstwa symulacji

W grudniu 2025 roku NVIDIA wydało NitroGen, model podstawowy wyszkolony na 40 000 godzinach gry w ponad 1000 tytułach. Model obserwuje publicznie dostępne nagrania gry, wyodrębnia działania gracza z nakładek kontrolera i uczy się grać w gry bezpośrednio z surowych pikseli.

W grach, które nie były widziane wcześniej, NitroGen wykazało nawet do 52% poprawy w powodzeniu zadania w porównaniu z modelami szkolonymi od zera. Ale prawdziwe znaczenie leży w architekturze pod spodem.

NitroGen działa na ramie robotycznej GR00T od NVIDIA, tej samej, której firma używa dla AI fizycznej i transferu symulacji do rzeczywistości w swojej platformie Isaac Sim. Agent gry i robot fabryczny dzielą ten sam system podstawowy.

Jim Fan z NVIDIA opisał ten projekt jako próbę zbudowania “GPT dla działań”, ogólnego modelu, który uczy się działać w dowolnym środowisku. 

Jako osoba, która buduje systemy gier, które generują dokładnie rodzaj danych, których te modele potrzebują do szkolenia, trudno mi przecenić, co to oznacza dla branży, w której pracuję.

I to nie jest ograniczone do NVIDIA. Waymo zalogowało ponad 20 miliardów symulowanych mil, aby wyszkolić swoje pojazdy autonomiczne, wszystko w środowiskach stylu silnika gry, które ćwiczą scenariusze zbyt niebezpieczne lub zbyt rzadkie, aby przetestować je na prawdziwych drogach. 

Platformy chirurgiczne zbudowane na silnikach gier wykazały dramatyczne poprawy w wydajności szkoleniowej. Urbanisty używają podobnych narzędzi do optymalizacji ruchu na skalę miasta.

Platformy chirurgiczne zbudowane na silnikach gier wykazały dramatyczne poprawy w wydajności szkoleniowej. Urbanisty używają podobnych narzędzi do optymalizacji ruchu na skalę miasta. Silnik gry stał się uniwersalną warstwą symulacji, gdziekolwiek AI musi uczyć się przez interakcję ze środowiskiem.

Infrastruktura, o której nikt nie mówi

Kiedy ludzie dyskutują o infrastrukturze AI, mają na myśli centra danych, klastry GPU i obliczenia. W całym czasie, jaki spędziłem pracując w grach, mogę policzyć na palcach jednej ręki, ile razy ktoś w przestrzeni AI wspomniał o środowiskach gier w tym samym oddechu. Ten rozdział zostanie bardzo szybko zamknięty.

To stanie się jeszcze bardziej oczywiste, gdy tradycyjne zestawy danych się wyczerpią. Branże, które produkują najbogatsze interaktywne dane, nieuchronnie przesuną się do centrum badań AI, a gry, symulacje i światy wirtualne są lepiej przygotowane niż cokolwiek innego, aby wypełnić tę lukę.

Pieniądze już następują tym trendem. AI w sektorze gier została wyceniona na 4,54 miliarda dolarów w 2025 roku i ma osiągnąć 81 miliardów dolarów do 2035 roku.

Większość studiów gier, z którymi rozmawiam, nadal uważa siebie za firmy rozrywkowe. Ale kiedy twoje systemy generują dokładnie te dane, których potrzebuje następna generacja modeli AI do szkolenia, jesteś w biznesie infrastruktury, czy tego chcesz, czy nie. 

Ilman Shazhaev jest założycielem i dyrektorem generalnym Dizzaract, największego studia gier w regionie MENA. Jest badaczem sztucznej inteligencji i ekspertem Organizacji Narodów Zjednoczonych w ramach programu UNODC, pracującym na styku sztucznej inteligencji i realnego wpływu.