Connect with us

๋‚ด๊ฐ€ ์ง€์‹์„ ์ธ๊ฐ„ ์ „๋ฌธ๊ฐ€์ฒ˜๋Ÿผ ๊ฒฐ์ •ํ•  ์ˆ˜ ์žˆ๋Š” AI ์‹œ์Šคํ…œ์œผ๋กœ ์ „ํ™˜ํ•˜๋Š” ๋ฐฉ๋ฒ•

์‚ฌ์ƒ ๋ฆฌ๋”

๋‚ด๊ฐ€ ์ง€์‹์„ ์ธ๊ฐ„ ์ „๋ฌธ๊ฐ€์ฒ˜๋Ÿผ ๊ฒฐ์ •ํ•  ์ˆ˜ ์žˆ๋Š” AI ์‹œ์Šคํ…œ์œผ๋กœ ์ „ํ™˜ํ•˜๋Š” ๋ฐฉ๋ฒ•

mm
A human expert in a technical control room teaching an AI system to make complex decisions through a holographic interface.

마이크로소프트를 떠나 기업의 AI 배포와 함께 계속 작업할 때, 나는 사람들이 가장 흥奮하는 대부분의 AI 시스템이 실제로 인간 전문가의 판단력과 같은 결정을 내릴 수 없다는 것을 계속 보았다. 물론, 그들은 글을 쓸 수 있고, 요약하고, 결정처럼 들리는 놀라운 텍스트를 생성할 수 있지만, 이러한 시스템을 실제 운영 환경에 투입하면, 즉, 트레이드 오프, 불확실성, 불완전한 지침 및 실제 결과가 있는 경우, 그들은 빠르게 어려움을 겪는다. 이것은 MIT Project NANDA의 데이터와 일치한다. 즉, 60%의 조직이 AI 도구를 평가했지만, 20%만이 파일럿 단계에 도달했고, 5%만이 생산에 도달했다. 즉, 산업은 실제 워크플로우 내에서 유지될 수 있는 시스템을 구축하는 데 어려움을 겪고 있다.

기업 환경에서, 특히 공급망, 제조, 운영과 같은 분야에서, 답을 얻는 것이 어렵지 않다. 신뢰할 수 있는 답, 가장 중요한 변수, 그리고 잘못된 경우에 발생할 수 있는 다운스트림의 문제를 알 수 있는 것이 어렵다. 내 눈에 보이는 이것은 전문 지식과 판단력의 문제이다.

명확하게, AI는 더 나은 출력을 생성하는 데 놀라운 발전을 이루었다. 그러나 더 나은 출력은 더 나은 결정과 동일하지 않다. 이것들은 두 가지 별개의 里程碑이며, 나는 산업이 이들을 서로 교환 가능한 것으로 다루는 데 많은 시간을 보냈다고 생각한다.

전문 지식과 판단력의 부족은 내가 인간 전문가가 복잡한 결정력을 가르칠 수 있는 AI를 구축하는 데 관심을 가지게 된 이유이다. AI는 단순히 작업을 자동화하는 것뿐만 아니라, 인간의 판단력을 효과적으로 및 안전하게 전달하는 것이어야 한다.

대규모 언어 모델(Large Language Models, LLMs)은 결정권자처럼 말하지만, 실제로는 결정권자가 아니다

대규모 언어 모델이 유용하다는 것은 의심의 여지가 없지만, 기본적으로 결정 시스템은 아니다. 언어로 둘러싸인 예측 시스템이다. 그리고 언어는 설득력 있기 때문에, 이것은 부분적으로 문제이다. 시스템이 자신을 유창하게 설명할 수 있다면, 우리는 쉽게 그것이 이해하는 것을 과대평가한다. 비즈니스 질문을 하면, 시스템은 구조화된 답변을 제공하며, 트레이드 오프, 예외, 요약이 포함된 답변을 제공하여, 실제로보다 더 지능적으로 보인다. 일관된 소리를 내는 것과 운영적으로 능숙한 것은 동일한 것이 아니며, 이것은 많은 기업 AI가 부서지는 곳이다. 모델은 결정이 좋은지에 대한 이해 없이, 결정이 좋은지에 대한 소리를告诉할 수 있다. 이것은 많은 조직이 실험을 넘어서 이동하는 데 어려움을 겪는 이유 중 하나이다. Gartner는 적어도 50%의 생성형 AI 프로젝트가 증명된 개념之后에 중단된다고 발견했다. 이는 실제 운영적인 영향을 미치기 훨씬 전에, 불분명한 가치와 위험 통제로 인해 발생한다.

정보는 전문 지식과 동일하지 않다

AI와 함께 쉽게 빠질 수 있는 함정 중 하나는 시스템에 충분한 정보가 있다면, 전문가처럼 수행할 수 있어야 한다는 가정이다. 합리적으로 들리지만, 우리의 일상 생활에서 생각해 보면, 어떤 것에 대한 정보를 증가시키는 것은 자동으로 우리를 전문가로 만들지 않는다. 당신은 모든 항공 수동을 읽을 수 있지만, 여전히 비행기를 着陸할 준비가 되지 않을 수 있다. 당신은 공급망의 모든 최선의 관행을 암기할 수 있지만, 세 가지 일이 동시에 잘못되면 얼어붙을 수 있다.

계속할 수 있지만, 핵심은 정보가 능력과 동일하지 않다는 것이다. 능력은 경험, 특히, 메스한 상황에서 명확하지 않은 답을 반복적으로 노출하는 것에서 나온다.

매일, 나는 오늘날의 대부분의 AI 시스템이 정적인 예제로 훈련된다는 것을 보았다. 이것은 예측을 하는 데는 유용하지만, 결정의 작은 부분에 불과하다. 기업은 데이터가 부족한 것이 아니라, 시스템이 반복적으로:

  • 현실적인 시나리오를 마주칠 수 있는 환경
  • 선택을 할 수 있는 환경
  • 무엇이 발생하는지 볼 수 있는 환경
  • 피드백을 받을 수 있는 환경
  • 시간이 지남에 따라 개선될 수 있는 환경

AI는 예측 알고리즘을 사용하여 훈련될 수 있지만, 이러한 접근법에는 제한이 있다. 필요한 것은 시뮬레이션 환경에서 인간의 감독을 통해 훈련할 수 있는 AI이다. 나는 이것을 기계 교사라고 부르며, 복잡한 결정들을 시나리오와 기술로 분해하여, 인간 전문가가 시뮬레이션을 통해 AI를 가르치는 방법을 제공하는 방법론이다. 결과적인 피드백과 시도-오류는 최종적으로 에이전트가 실제 세계의 자율성을 직접 학습하고 행동할 수 있도록 한다.

AI를 단일체로 취급하지 마십시오

나는 또 다른 실수를 많이 본다. 즉, 하나의 큰 모델이 모든 것을 해야 한다는 가정이다. 어떤 농구 팀도 한 사람으로 구성되지 않는다. 어떤 공장도 한 사람에 의해 운영되지 않는다. 복잡한 시스템은 다양한 구성 요소가 다른 작업을 수행하고, 구조가 그것들을 함께 잡고 있기 때문에 작동한다.

AI도同様하게 구축되어야 한다. 나는 기업의 결정에 대한 장기적인 미래가 한 개의巨대 모델이 회사 중앙에 앉아 普遍的に 유능한 척하는 것이 아니라고 생각한다. 그것은 훨씬 더 가능성이 있다. 즉, 전문 에이전트 팀이 존재한다.

한 에이전트는 데이터 검색에 전문적이다. 또 하나는 시나리오 평가에 더 좋다. 또 하나는 계획을 수립한다. 하나는 규정 준수 또는 모순을 확인한다. 또 하나는 감독자처럼 행동하여, 언제 에스컬레이션할지 또는 계속 진행할 수 있는지 결정한다. 팀 아키텍처는 실제 조직이 작동하는 방식과 더 일치하며, 더 넓은 시장 동향과도 일치한다. McKinsey의 조사 결과에 따르면, 조직은 AI를 중심으로 워크플로우와 운영 구조를 재설계함으로써 가장 큰 가치를 얻는다.

모든 결정이 동일한 방식으로 이루어지지는 않는다. 그리고 우리는 너무 souvent 동일한 모델, 동일한 데이터 및 동일한 유형의推論이 모든 것을 처리할 수 있다고 가정한다. 실제로, 다른 결정에는 다른 메커니즘이 필요하다.

결정은 실제로 네 가지 방법으로 발생한다

내 경험에 따르면, 대부분의 결정은 몇 가지 범주에 속한다:

  1. 제어 시스템(규칙 및 수식): 결정은 미리 정의된 방정식 또는 규칙을 알려진 입력에 적용하여 이루어진다. 만약 X가 발생하면, Y를 한다.
  2. 검색 및 최적화: 결정은 여러 가능한 옵션을 평가하여 정의된 목표에 따라 최선의 옵션을 선택하여 이루어진다.
  3. 강화 학습(시도-오류): 결정은 행동을 취하고, 결과를 관찰하고, 보상 또는 벌칙에 따라 조정하여 시간이 지남에 따라 학습된다.
  4. 실습 및 경험(인간식 학습): 결정은 반복적인 노출, 안내된 피드백 및 실제 시나리오에서 축적된 판단력에 의해 형성된다.

대부분의 기업 AI는 첫 번째 두 가지 범주에서 잘 작동한다. 세 번째 및 네 번째 범주는 AI에게 더 도전적인데, 그것은 인간과 같은 판단력이 존재하는 곳이기 때문이다.

구조 없이 자율성은 위험이다

누구든지 자율적인 AI에 대해 이야기할 때, 대화는 일반적으로 두 가지 극단으로 나뉜다. 한쪽은 시스템이 거의 마법이고 모든 것을 운영할 준비가 되었다고 생각한다. 다른 쪽은 의미 있는 것을 신뢰할 수 없다고 행동한다.

나는 두 가지 관점 모두 유용하지 않다고 생각한다. 우리는 구조 내의 자율성에 초점을 맞출 필요가 있다. 즉, 감독, 에스컬레이션 논리, 경계 또는 책임이 없는 자율성은 위험의 주요 원인이다. 위험에 대한 우려는 현재도 나타나고 있으며, National Institute of Standards and Technology의 AI 위험 관리 프레임워크와 같은 노력에 의해 형성되는 대화에서 나타나고 있다. 이는 조직이 감독, 책임, 운영 신뢰와 같은 문제를 얼마나 심각하게 다루고 있는지 반영한다.

기업 AI의 미래는 에이전트 팀에 있다. AI에서 가장 큰 가치를 얻는 조직은 가장 많은 단어를 자동화하는 것이 아니다. 그것은 실제로 전문 지식을 시스템에 전달하여 메스한 환경에서 유지할 수 있는 시스템을 구축하는 것이다. 그것이, 내 생각에, 인상적인 AI와真正로 유용한 AI를 구별하는 것이다.真正로 유용한 AI는 실제 ROI를 생성한다.

Kence Anderson๋Š” AMESA์˜ ์ฐฝ๋ฆฝ์ž์ด์ž CEO์ด๋ฉฐ Microsoft์˜ ์ž์œจ AI ์ฑ„ํƒ ์ „ ๋””๋ ‰ํ„ฐ์ž…๋‹ˆ๋‹ค. ๊ทธ๋Š” ์‹œ๋ฎฌ๋ ˆ์ด์…˜, ํ”ผ๋“œ๋ฐฑ ๋ฐ ์‹œ๋„ ์˜ค๋ฅ˜๋ฅผ ํ†ตํ•ด ์‹ค์ œ ์„ธ๊ณ„ ์ž์œจ์„ฑ์„ ๊ฐœ๋ฐœํ•  ์ˆ˜ ์žˆ๋Š” ๋ฐฉ๋ฒ•๋ก ์ธ "Machine Teaching"์„ ๊ณต๋™ ๊ฐœ๋ฐœํ•œ ์ง€๋Šฅํ˜• ์ž์œจ ์—์ด์ „ํŠธ ๋ถ„์•ผ์˜ ์„ ๊ตฌ์ž์ž…๋‹ˆ๋‹ค.้ŽๅŽป 7๋…„ ๋™์•ˆ Kence๋Š” ์ œ์กฐ ๋ฐ ๋ฌผ๋ฅ˜๋ฅผ ์œ„ํ•œ ์ง€๋Šฅํ˜• ์ž์œจ ์—์ด์ „ํŠธ๋ฅผ ์„ค๊ณ„, ๊ตฌ์ถ• ๋ฐ ๋ฐฐํฌ์— ์ „์ ์œผ๋กœ ์ง‘์ค‘ํ•˜์—ฌ Shell, PepsiCo ๋ฐ Delta Airlines๋ฅผ ํฌํ•จํ•œ ์ฃผ์š” ๊ธฐ์—…์„ ์œ„ํ•œ 200๊ฐœ ์ด์ƒ์˜ ์‹ค์ œ ๋ฐฐํฌ๋ฅผ ์ด๋Œ์—ˆ์Šต๋‹ˆ๋‹ค. ๊ทธ๋Š” ๋˜ํ•œ Designing Autonomous AI (Oโ€™Reilly, 2022)์˜ ์ €์ž์ด๋ฉฐ ํ˜„์žฌ ๊ธฐ์—… ์šด์˜์—์„œ ๋ฐฑ๋งŒ ๋‹ฌ๋Ÿฌ์˜ ์˜์‚ฌ ๊ฒฐ์ •์„ ๋‚ด๋ฆด ์ˆ˜ ์žˆ๋Š” AI ์—์ด์ „ํŠธ๋ฅผ ์˜ค์ผ€์ŠคํŠธ๋ ˆ์ด์…˜ํ•˜๋Š” ์ˆ˜ํ‰ ํ”Œ๋žซํผ์„ ๊ฐœ๋ฐœ ์ค‘์ž…๋‹ˆ๋‹ค.