Connect with us

๊ฒ€์ฆ ๊ฒฝ์ œ๋กœ์˜ ์ „ํ™˜

Anderson์˜ ๊ด€์ 

๊ฒ€์ฆ ๊ฒฝ์ œ๋กœ์˜ ์ „ํ™˜

mm
AI-generated image featuring a harried office-worker struggling to rubber-stamp the print-outs of a dozen queuing robots. GPT-1.5.

인공지능의 작업을 확인하는 것이 새로운 기계 학습 경제에서 중요한 부문이 될 수 있으며, 이는 크게 확장되어야 하며 자동화될 수 없습니다. 그러나 시간이 지남에 따라 인간 전문가의 품질은 저하될 가능성이 있습니다.

 

의견.私の妻는 유럽에서 가장 혼잡하고 강도 높은 관료주의 중 하나에서 건축가입니다. 그녀의 교육의 가치 중 상당한 부분은 그녀의 서명권을 얻고 유지하는 데 있으며, 이는 매년 재등록해야 하는 비싼 자격증으로, 수백만 유로에 달하는 제안의 구현을 허용합니다.

彼女는 이것이 그녀의 작업에서 가장 어려운 부분이 아니라고 말합니다. 왜냐하면 이것은 그녀의 계산이나 다른 사람의 계산을 공식화하기 때문이며, 이러한 목적으로 외부 작업을 확인하는 것이 通常 어렵지 않기 때문입니다.

본질적으로 – CEO를 임명하는 경우에도 마찬가지입니다 – 이 스탬프(이것은 실제로 스탬프입니다)는 주로 이해 관계자에게 문제가 발생할 경우 책임을 지울 수 있는 사람을 제공합니다. 책임을 보장함으로써 이것은 또한 보험 보장과 투자자 신뢰를 용이하게 합니다. 이러한 보장이 없으면 이러한 보장을 얻을 수 없습니다.

이것은 내가 이 과정을 직접적으로 본 두 번째 경우입니다. 25년 전, 나는 이탈리아의 다른 유명한 관료주의에서 종양학자와 약혼했으며, 그녀의 전문가 서명이 신뢰의 사슬에서 마지막 단계였으며, 그녀 외에도 다른 많은 사람이 그 신뢰에 기여해야 했던 것을 보았습니다.

그녀와 나의 전 약혼자로부터, 나는 그들의 직업이/였으며, 기계적인 전문가들이 자신의 스탬프를 판매하고 더 원본적이거나 유용한 작업을 피하는 것으로 가득 차 있었다는 것을 들었습니다. 이러한 비판적인 전문가들은 상대적으로 희귀하고 필수적인 자원을 대표하기 때문에 높은 금액을 청구할 수 있습니다.

확인해 보세요

이 주제는 오늘 새로운 논문 발견했을 때 생각나게 되었습니다. 여기서 세 명의 연구자들은 MIT, 워싱턴 대학교, UCLA를 아우르는 近未来的 시나리오에서, 작업을 자동화하는 인공지능의 압도적인 추진력이 실제 세계의 책임을 지는 사람들을 필요로 하는 고위험 상황과 충돌하여, 인간의 검증, 비준, 책임의 새로운 경제를 창조할 것이라고 설명합니다.

이 논문은 미디어의 현재 상상과는 반대로, 광대하게 확장된 사무실이 단 하나의 사람, 즉 ‘감시자’로 축소되는 비즈니스 부문을 묘사합니다. 그들의 결정은 훈련 데이터로 사용되어 마지막 남은肉웨어를 해고하기 위해 사용됩니다.

저자들은 실제적인 고려와 규제 요구 사항이 회사 법률 부서를 달래는 ‘고무 스탬프’ 인간에게 엄청난 주목을 집중시킬 것이라고 믿습니다:

‘기업에서는 핵심 전략적 통찰력이 검증이 단순한 규제 기능이 아니라 주요 생산 기술임을 의미하며, 이는 구조적인 변화를 의미합니다. 관찰 가능성에大量으로 투자하고, 검증 등급的地面 真実을 확대하고, “샌드위치” 토폴로지(인간 의도 → 기계 실행 → 인간 검증 및 보증) вокруг에 재조직화합니다.

‘원시 출력이 상품화된 경제에서 경쟁 우위는 신뢰할 수 있는 결과를 생성하고 인증할 수 있는 희귀한 재능과 데이터로 이동합니다. 이는 순수한 출력에서 네트워크 효과를 생성하는 것이 아니라, 신뢰할 수 있는 결과에서 네트워크 효과를 생성합니다.’

저자들은 성장의 결정적 제약이 지능이 아니라 검증 대역폭일 수 있다고 가정합니다.

인간 검증으로의 가치 전환

이 논문은 AGI로의 이동이 기계 출력의 생산 비용과 그 출력을 확인하는 비용 사이의 확대하는 격차를 묘사합니다. 후자는 여전히 인간의 시간과 경험에 묶여 있습니다.

계획, 보고서, 설계, 추천서를 생성하는 것은 이 시나리오에서廉价하고 풍부해질 것입니다. 그러나 그 중 어떤 것이 안전하고 신뢰할 수 있는지 결정하는 것은 ‘희귀한 함수’가 될 것입니다. 시스템의 배포에 대한 효과적인 제한은 시스템이 생성할 수 있는 출력의 양이 아니라, 얼마나 많은 출력이 신뢰할 수 있게 검증될 수 있는지에 달려 있을 것입니다.

따라서, 측정 가능한 작업에 대한 보상보다 측정 가능성 자체를 보상하는 시스템이 될 것입니다. 매개변수화할 수 있는 작업은 실행 비용이 컴퓨팅의 한계 비용에 근접할 때 상품화로漂移할 것입니다. 가치는 높은 품질의 지面 真実, 신뢰할 수 있는 감사 트레일, 책임을 할당하고 흡수하는 기관 메커니즘에 축적될 것입니다.

따라서, 검증 경제에서 우위는 콘텐츠를 생성하는 것보다 결과를 인증하고, 그것에附随하는 위험을 보증하는 것입니다.

자동화가 가속화되는 동안 검증은 인간의 시간과 주의력에 제한되면, 논문은 중공 Economy가 나타날 것으로 예측합니다. 여기서, 자동화 작업의 비용이 떨어지면, 더 많은 에이전트가 배포되지만, 그들의 출력을 제대로 확인할 수 있는 능력은 같은 속도로 성장하지 않을 것입니다. 검증된 작업의 비중은 축소되고, 그에 따른 모든 부정적인 결과가 발생할 것입니다.

반대로, 증강 Economy는 검증 능력이 자동화와 함께 확대될 것입니다. 이는 구조화된 훈련에 대한 의도적인 투자와 새로운 책임 프레임워크를 포함할 것입니다. 배포는 실제로 확인되고 보험에 가입할 수 있는 것에 묶여 있을 것입니다. 이는 기술 개발의 전례 없는 규모로 인해 중심 무대에 오른 매우 오래된 병목 현象입니다:

‘기술 부문에서 지배적인 수익 모델은 소프트웨어 액세스(소프트웨어 서비스)를 монет화하는 것에서 결과(“소프트웨어-노동”)를 монет화하는 것으로 전환됩니다. 따라서, 회사들은 주로 책임을 흡수하는 능력에 따라 평가될 것입니다.

‘실행은 이제 무한히 확장 가능합니다. 법적 및 재무적 능력으로 그 실패를 흡수하는 것이 새로운 병목 현象입니다.’

감소하는 반환

실제로, 인간의 도메인 전문 지식을 보존하는 것이 문제에 중요합니다. 왜냐하면 산업화된 감시의 문화는, 감시를 수행하는 사람들의 품질을 저하할 위험이 있기 때문입니다. 감시를 수행하는 사람들은 더 이상 도메인에 직접적인 경험을 가지지 못할 것입니다.

인간의 감시를 자동화할 수 있지만, 이해 관계자에게는 책임을 질 수 있는 사람이나 비즈니스 모델이 없을 것입니다. 또한, 이러한 역할은 매우 불안정하고 위험하므로, حتى 낮은 고용 率의 기후에서도 매력적이지 않을 것입니다.

의사나 건축가와 같은 자격을 가진 전문가를 높은 보수를 받지만, 매우 부담되는 ‘고무 스탬프’ 위치에 고립시키는 것은, 그들의 실제 분야 경험을 더 이상 가지지 못하는 경우, 그들의 결정이 더 ‘이론적’이 될 수 있으므로, 시간이 지남에 따라 그들의 가치를 저하할 가능성이 있습니다.

(이것은 스타트렉: TNG 팬들에게도 익숙한 Pakleds의 형태로도 나타납니다 – 고급 기술을 광범위하게 사용하지만, 더 이상 그것을 만들거나 수리할 수 없습니다.)

입문자 실행은 역사적으로 미래의 전문가들을 위한 훈련의 터전으로 служ어왔습니다. 그러나 자동화가 일상적인 작업을 제거하면, 미래의 검증자 공급은 축소될 것입니다. 저자들은 vậy습니다.

따라서, 이 논문은 역설을 예측합니다. 인공지능 시스템이 더 강력해질수록, 사회는 인공지능 시스템 자체에 의해 침식될 수 있는 인간 전문 지속에 더 많이 의존할 것입니다.

그리고 이것이 기술적인 문제가 아니며, 기술적인 해결책으로 해결될 수 없다는 것을 기억하십시오. 여러 가지 방식으로, 이것은 로지스틱적으로 AI 모델 붕괴와 유사합니다. 그러나 여기에서는 경제 모델의 붕괴를 고려하고 있습니다:

‘정책 관점에서 핵심 도전은 근본적인 구조적 비대칭입니다. 인공지능 배포의 이익은 공격적으로 사유화되며, 시스템적인 위험은 사회적으로 분산됩니다. 회사와 개인은 자동화의 상위 부분을 포착하는 반면, 재난적인 꼬리 위험을 외부로 전가합니다.

‘공유 가능한 검증 인프라와 엄격한 책임 가격이 없으면, 시장은 합리적으로 Hollow Economy로漂移할 것입니다 – 이는 측정 가능한 활동의 폭발적인 확대로 특징지어지지만, 본질적으로 인간의 통제가空洞화된 균형입니다.’

결론: 다른 위기

저자들은 예측되는 위기를 측정 가능성 격차로 정의합니다. 여기서, 측정 가능한 프로세스는 인간의 기여 없이 자동화될 수 있지만, 여전히 인간의 전문 지식이 필요한 n-하드 또는 n-법적 프로세스가 남아 있습니다.

그러나,私の妻의 경험은 프로세스의 복잡성이나 어려움이 그 프로세스에서 책임을 지는 필요와 반드시 관련이 없다는 것을 시사합니다. 그녀가 ‘승인’하는 많은 것들은 자체적으로는 사소한 문제이나, 위반이 발생할 경우에는 중요한 결과를 초래할 수 있습니다. 또한, 더 많은 소송이 발생하는 비즈니스 문화가 되면, 보험자와 투자자는 더 많은 프로세스에서 인간의 책임을 요구할 것입니다.

따라서, 검증 경제로의 전환은 현재 헤드라인을 장식하는 것과는 다른 위기를 초래할 수 있습니다. 이 경우의 문제는 인공지능이 더 많이 생산할 수 있는지 여부가 아니라, 기관이 생성된 것의 충분한 부분을 검증하여 기계 지능을 지속 가능한 가치로 변환할 수 있는지 여부입니다.

기계 지능은 전례 없는 속도로 확장할 수 있으므로, 생성된 출력을 확인할 수 있는 인간의 시간은 따라가지 못할 것입니다. 따라서, 새로운 연구에서 제기된 문제는 곧 나타날 가능성이 높습니다. 이는 인공지능 채택의 더广泛한 경제적 의미에 의해 초기에 묻혀질 수 있지만, 결국에는 중요한 문제가 될 것입니다.

 

* 이 논문은 일반적인 방식으로 분해하기에는 너무 길며, 또한 그러한 분석에 구조적으로 적합하지 않습니다. 따라서, 나는 그것에 대해 논평하고, 그 의미를 고려하기로 결정했으며, 독자에게 원본 작품을 참조하여 그렇게 하도록 권장합니다.

/s

최초로 게시된 날: 2026년 2월 25일 수요일

๊ธฐ๊ณ„ ํ•™์Šต ์ž‘๊ฐ€, ์ธ๊ฐ„ ์ด๋ฏธ์ง€ ํ•ฉ์„ฑ ๋„๋ฉ”์ธ ์ „๋ฌธ๊ฐ€. Metaphysic.ai์˜ ์—ฐ๊ตฌ ์ฝ˜ํ…์ธ  ์ฑ…์ž„์ž ์ถœ์‹ .
๊ฐœ์ธ ์‚ฌ์ดํŠธ: martinanderson.ai
์—ฐ๋ฝ์ฒ˜: [email protected]
ํŠธ์œ„ํ„ฐ: @manders_ai