Kąt Andersona
Przechodzenie do gospodarki weryfikacji

Sprawdzanie pracy AI może stać się znaczącym sektorem w nowej gospodarce uczenia maszynowego; jednym, który będzie musiał znacznie się rozwinąć, i który nie może być zautomatyzowany. Ale z upływem lat, ludzcy “eksperci” prawdopodobnie będą się pogarszać pod względem jakości.
Opinia. Moja żona jest architektem w jednej z najbardziej zakorkowanych i intensywnych biurokracji w Europie. Znacząca część wartości jej edukacji leży w uzyskaniu i utrzymaniu jej prawa do podpisu – drogiego certyfikatu, który musi być odnawiany co roku, i który pozwala jej dosłownie “zatwierdzić” propozycje, których wdrożenie może wynieść setki tysięcy, a nawet miliony euro.
Mówi mi, że to nie jest najtrudniejsza część jej pracy, ponieważ tylko formalizuje jej własne obliczenia lub obliczenia innych, i że w tym celu zewnętrzna praca nie jest zwykle trudna do sprawdzenia.
Podstawowo – jak to często ma miejsce również w przypadku powoływania CEO – ten znak (jest to dosłownie znak) głównie zapewnia stakeholderom kogoś, kto może ponieść odpowiedzialność, jeśli coś pójdzie nie tak. Zapewniając odpowiedzialność, ułatwia również ubezpieczenie i zaufanie inwestorów, które nie byłoby możliwe bez takich gwarancji.
To drugi raz w moim życiu, kiedy widzę ten proces bezpośrednio w działaniu; 25 lat temu byłem zaręczony z onkologiem w innej słynnej biurokracji UE, we Włoszech, i widziałem, jak jej podpis eksperta był ostatnim etapem w łańcuchu zaufania, do którego musieli się przyczynić inni eksperci.
Słyszałem od mojej byłej narzeczonej w tym okresie, a także od mojej żony, że ich zawody były/ są pełne wykwalifikowanych oszustów, którzy sprzedają swój podpis i unikają bardziej oryginalnej lub użytecznej pracy, ponieważ jest mniej opłacalna. Tacy cyniczni praktycy mogą pobierać wysokie sumy, ponieważ reprezentują relatywnie rzadkie i niezbędne zasoby.
Sprawdź to
Ten temat przyszedł mi do głowy, kiedy natknąłem się na nowy i rozległy artykuł dzisiaj, zatytułowany Niektóre proste ekonomiki AGI. W nim trzej badacze z MIT, Uniwersytetu w St. Louis i UCLA przedstawiają niedaleką przyszłość, w której straszny, zabójczy impetus w kierunku automatyzacji napędzanej przez AI zderza się z potrzebą prawdziwych, ludzkich “tyłków”, które można pociągnąć do odpowiedzialności w sytuacjach o wysokim ryzyku – prowadząc do nowej gospodarki ludzkiej weryfikacji, ratyfikacji i odpowiedzialności*.
Artykuł różni się od obecnych wyobrażeń mediów o zubożałych sektorach biznesu z obszernymi biurami zmniejszonymi do jednego “nadzorcy”, którego decyzje są wykorzystywane jako dane szkoleniowe, aby (mogą) zlikwidować nawet ten ostatni “mięsień”.
Zamiast tego autorzy uważają, że praktyczne rozważania i wymagania zgodności skupią ogromną uwagę na “ludzkich pieczątkach”, które uspokajają dział prawniczy firmy (AI/ludzki/pomocniczy AI):
‘Dla firm, podstawowa intuicja strategiczna polega na tym, że weryfikacja nie jest już funkcją zgodności, ale podstawową technologią produkcyjną — i coraz bardziej, ich najbardziej bronioną. To dyktuje strukturalną zmianę: inwestowanie ciężko w obserwowalność, rozszerzanie weryfikacji na poziomie podstawowej prawdy i reorganizowanie wokół topologii “kanapki” (ludzka intencja → wykonanie maszyny → ludzka weryfikacja i gwarancja).
‘W gospodarce, w której surowy wynik jest komodyzowany, przewaga konkurencyjna przechodzi do rzadkiego talentu i danych, które mogą niezawodnie kierować i certyfikować systemy agencji — generując efekty sieciowe nie w samym wyniku, ale w zaufanych wynikach.’
Autorzy hipotezują, że określająca ograniczenie wzrostu może nie być inteligencją — którą AI już “odłączyła od biologii” — ale przeszkodą weryfikacji.
Przesunięcie wartości w kierunku ludzkiej weryfikacji
Artykuł opisuje ruch w kierunku AGI jako rozszerzający się rozdźwięk między kosztem produkcji wyniku maszyny a kosztem sprawdzenia tego wyniku — ten ostatni pozostaje związany z ograniczonym czasem i doświadczeniem ludzkim.
Generowanie planów, raportów, projektów i rekomendacji w tym scenariuszu stanie się tanie i obfite, podczas gdy określenie, które z nich są słuszne, wyrównane i wystarczająco bezpieczne do działania, stanie się “rzadką funkcją”. Skuteczna granica wdrożenia będzie więc nie tyle ilością wyniku, jaki systemy mogą wyprodukować, ale ilością tego wyniku, który może być wiarygodnie zweryfikowany.
Zatem, zamiast nagradzać coraz bardziej wyspecjalizowane umiejętności w mierzalnych zadaniach, system, według autorów, zacznie nagradzać mierzalność samą w sobie: praca, która może być parametryzowana, będzie dryfować w kierunku komodyzacji, gdy koszt jej wykonania zbliży się do kosztu marginalnego obliczeń, a wartość będzie przypisywana do wysokiej jakości podstawowej prawdy, niezawodnych śladów audytowych i instytucjonalnych mechanizmów przypisywania i absorbujących odpowiedzialność.
Dlatego w gospodarce weryfikacji przewaga będzie leżała nie tyle w produkcji treści, ale w certyfikowaniu wyników i gwarantowaniu ryzyka z nimi związanego.
Jeśli automatyzacja będzie nadal przyspieszać, a weryfikacja pozostanie ograniczona czasem i uwagą ludzką, artykuł przewiduje, że pusta gospodarka wyłoni się, w której, gdy koszt automatyzacji pracy spada, więcej agentów będzie wdrożonych, ponieważ ma to ekonomiczny sens – chociaż zdolność właściwego sprawdzenia ich wyniku nie będzie rosła w tym samym tempie. W tym scenariuszu udział pracy, która jest rzeczywiście weryfikowana, zmniejszy się, z wszystkimi negatywnymi konsekwencjami, jakie to za sobą niesie.
Z drugiej strony, wzmocniona gospodarka zapewni, że zdolność weryfikacji będzie rosła wraz z automatyzacją. To będzie wymagało celowej inwestycji w ustrukturyzowane szkolenia, aby zachować ekspertyzę, a także nowe ramy odpowiedzialności, które mogą absorbować ryzyko. Wdrożenie będzie wówczas związane z tym, co można rzeczywiście sprawdzić i ubezpieczyć – skutecznie, bardzo starego wąskiego gardła, które zostało postawione na pierwszym planie przez bezprecedensowy rozwój technologiczny:
‘W sektorze technologicznym, dominujący model przychodu zmieni się z monetyzacji dostępu do oprogramowania (Software-as-a-Service) na monetyzowanie wyników („Software-as-Labor”). W związku z tym firmy będą wyceniane głównie na podstawie ich zdolności do absorbowania ryzyka ogonowego za pomocą Liability-as-a-Service.
‘Wykonanie jest teraz nieograniczone; prawna i finansowa zdolność do absorbowania nieuniknionych niepowodzeń jest nowym wąskim gardłem.’
Malejące zwroty
Rzeczywiście, zachowanie ekspertyzy w ludziach jest kluczowe dla problemu, ponieważ kultura przemysłowego nadzoru, według autorów, ryzykuje, że z czasem zniszczy jakość tych, którzy wykonują nadzór – ponieważ kolejne pokolenia nadzorców nie będą już posiadać bezpośredniego i doświadczalnego doświadczenia w dziedzinach wymagających weryfikacji.
Można argumentować, że w tym stadium jakość nadzoru byłaby naprawdę podatna na automatyzację, ponieważ nowe decyzje byłyby podejmowane wyłącznie na podstawie poprzednich decyzji. Jednakże to pozostawiłoby stakeholderów bez tyłka do kopnięcia, lub opłacalnego modelu biznesowego. Również uczyniłoby taką rolę tak lotną i pełną ryzyka, aby była nieatrakcyjna, nawet w klimacie niskiego zatrudnienia.
Odizolowanie wykwalifikowanych specjalistów, takich jak lekarze i architekci, w dobrze płatną, ale bardzo obciążoną pozycję “pieczątki”, prawdopodobnie erozyjnie wpłynie na ich wartość w takiej roli, z czasem: im dalej w przeszłości ich rzeczywiste doświadczenie polowe się cofa, tym bardziej “teoretyczne” mogą się stać ich decyzje, gdy ich porzucona dziedzina będzie nadal ewoluować w ich nieobecności.
(To jest znane nawet w pre-AI kulturze biznesu, w postaci wykwalifikowanego personelu, który awansuje na stanowiska kierownicze i staje się coraz bardziej nieświadomy nowych rozwojów, w końcu podważając ich wartość jako nadzorców i organizatorów. To również znane fanom Star Trek: TNG w postaci Pakledów – rasy, która używa zaawansowanej technologii, ale nie wie już, jak ją stworzyć ani naprawić.)
Wprowadzenie do wykonania historycznie służyło jako placówka szkoleniowa dla przyszłych ekspertów; ale jeśli automatyzacja eliminuje rutynowe zadania, przez które sądy są kultywowane, przyszły zapas zdolnych weryfikatorów zmniejszy się, sugerują autorzy.
Zatem artykuł zapowiada paradoks: im potężniejsze stają się systemy agencji, tym bardziej społeczeństwo będzie zależne od zapasu ludzkiej ekspertyzy która te same systemy mogą podważyć.
I pamiętajmy, że to nie jest w żaden sposób problem techniczny, ani podatny na rozwiązanie technologiczne. W wielu ways ten zespół sugeruje logistyczny odpowiednik zawodu modelu AI – z wyjątkiem, że tutaj rozważamy podważenie modelu ekonomicznego.
‘Z punktu widzenia polityki, podstawowym wyzwaniem jest głęboka asymetria strukturalna: zyski z wdrożenia AI są agresywnie prywatyzowane, podczas gdy systemowe ryzyko jest społeczne. Firmy i osoby przechwytują korzyści z automatyzacji, podczas gdy zewnętrzne katastrofalne ryzyko ogonowe.
‘Bez wspólnej infrastruktury weryfikacji i surowej wyceny odpowiedzialności, rynek będzie racjonalnie dryfować w kierunku pustej gospodarki — równowagi charakteryzującej się wybuchową zmierzoną aktywnością, ale podstawowo wypłukanym ludzkim kontrolą.’
Wnioski: Inny kryzys
Autorzy definiują przewidywany kryzys jako przerwę w mierzalności, w której procesy ilościowe mogą być zautomatyzowane poza wszelkim ludzkim wkładem, pozostawiając n-trudne lub n-prawne procesy, które nadal wymagają ludzkiej ekspertyzy.
Jednakże doświadczenie mojej żony sugeruje, że złożoność lub trudność procesu nie jest koniecznie związana z potrzebą odpowiedzialności w tym procesie; wiele rzeczy, które “podpisuje”, reprezentuje trywialne problemy lub obliczenia same w sobie, ale są konsekwencjami w przypadku naruszenia. I im bardziej procesy biznesowe stają się procesami sądowymi, tym bardziej ubezpieczyciele i inwestorzy będą wymagać ludzkiej odpowiedzialności w szerszym zakresie procesów.
Zatem przejście do gospodarki weryfikacji może spowodować inny kryzys niż ten, który obecnie dominuje w nagłówkach. Problemem w tym przypadku nie będzie, czy AI może produkować więcej, ale czy instytucje mogą zweryfikować wystarczająco dużo tego, co jest produkowane, aby przetłumaczyć inteligencję maszynową na trwałą wartość.
Ponieważ inteligencja maszynowa może już niebawem rosnąć bez precedensu, a dostępność odpowiednich przypadków czasu ludzkiego nie będzie w stanie nadążyć za tym tempem, problemy przedstawione w nowej pracy wydają się bardzo prawdopodobne — nawet jeśli mogą być początkowo zagłuszone przez szersze konsekwencje ekonomiczne wdrożenia AI.
* Artykuł jest zbyt długi, aby go rozbić w zwykły sposób, i w każdym razie strukturalnie nie nadaje się do tego rodzaju analizy. Dlatego zdecydowałem się skomentować go i rozważyć jego znaczenie, i odesłać czytelnika do źródłowego dzieła, aby mógł to zrobić.
† /s
Pierwotnie opublikowane w środę, 25 lutego 2026












