Connect with us

์ธ๊ณต์ง€๋Šฅ์˜ ์žฅ์• ๋ฌผ์€ ์‹คํŒจ๊ฐ€ ์•„๋‹ˆ๋‹ค. ๋„ˆ๋ฌด ๋А๋ฆฌ๊ฒŒ ์‹คํŒจํ•˜๋Š” ๊ฒƒ์ด๋‹ค.

์‚ฌ์ƒ ๋ฆฌ๋”

์ธ๊ณต์ง€๋Šฅ์˜ ์žฅ์• ๋ฌผ์€ ์‹คํŒจ๊ฐ€ ์•„๋‹ˆ๋‹ค. ๋„ˆ๋ฌด ๋А๋ฆฌ๊ฒŒ ์‹คํŒจํ•˜๋Š” ๊ฒƒ์ด๋‹ค.

mm
A conceptual photograph showing a hand approaching a transparent glass interface with a glowing green speedometer gauge and an upward-pointing arrow. The background shows an out-of-focus, tangled knot of black wires and red light.

인공지능의 장애물은 실패가 아니다. 너무 느리게 실패하는 것이다.

인공지능은 조직이 운영, 혁신, 성장하는 방식을 변화시키고 있다. 산업 전반에서 조직은 인공지능을 사용하여 워크플ロー를 최적화하고, 새로운 효율성을_unlock하고, 빠르고 더 자신감 있는 의사결정을 지원한다. 인공지능이 현대의 생산성의 엔진이 되는 동안, 조직은 더 큰 유연성과 규모를 달성할 수 있다.

그러나 인공지능의 많은 측정 가능한 이점에도 불구하고, 예상치 못한 일이 발생하고 있다. 많은 기업은 벽에 부딪히고 있다. 혁신을 가속화하는 대신, 일부 팀은 복잡성, 위험 관리, 그리고 미지의 страх에 빠져 있다.

왜 vậy인가? 우리는 그것에 대해 잘못된 방식으로 생각하고 있기 때문이다.

인공지능은 너무 souvent 잘못된 방식으로 이해된다. 즉, 신뢰할 수 있기 전에 완전히 제어되어야 하는 기술로 여겨진다. 이것은 확실성이 안전의 전제조건이라는 잘못된 믿음에서 비롯된다. 그러나 이것은 인공지능이 무엇인지, 그리고 어떻게 가치를 제공하는지에 대한 본질을 놓치고 있다. 인공지능은 사용 중에 학습하고 진화하도록 설계된 적응형 도구이다. 전통적인 소프트웨어와 같은 방식으로 작동해야 한다고 생각하는 것은 그 본질에 대한 잘못된 해석이며, 그 잠재력을 저해한다.

인공지능을 책임감 있게 사용하려는 노력에서, 많은 조직은 실수로 위험 완화를 병목 현상으로 만들었다. 산업 전반에서 팀은 인공지능을 배포하기 전에 의사결정 과정의 모든 계층을 해부하고, 설명하고, 정당화해야 한다고 생각한다. 이는 잘못된 의도에서 비롯된 근면함이지만, 인공지능의 본질적인 목적을 무효화한다. 즉, 통찰력을 가속화하고, 팀을 증폭시키고, 규모에 따라 문제를 해결하는 것이다.

인공지능을 책임감 있게 사용하려는 노력에서, 많은 조직은 실수로 위험 완화를 병목 현상으로 만들었다. 산업 전반에서 팀은 인공지능을 배포하기 전에 의사결정 과정의 모든 계층을 해부하고, 설명하고, 정당화해야 한다고 생각한다. 이는 잘못된 의도에서 비롯된 근면함이지만, 인공지능의 본질적인 목적을 무효화한다. 즉, 통찰력을 가속화하고, 팀을 증폭시키고, 규모에 따라 문제를 해결하는 것이다.

블랙박스의 두려움은 진행을 방해하고 있다

사람들은 완전히 이해하지 못하는 시스템에 대해 자연스럽게 불편함을 느끼고, 인공지능 도구, 특히 대규모 생성 모델은 쉽게 설명하기 어려운 방식으로 작동한다.因此, 많은 리더는 함정에 빠진다. 만약 그들이 모든 인공지능 결정에 대해 완전히 설명할 수 없다면, 시스템을 신뢰할 수 없다.

따라서 많은 조직은 감독 프로세스를 과도하게 설계하여, 여러 계층의 검토, 컴플라이언스 확인, 설명 가능성 감사 등을 추가한다. 팀이 설명 가능성을 모든 블랙박스를 열어야 한다는 필요성으로 간주할 때, 인공지능 구현은 검토의 무한한 사이클에 갇히게 된다. 이것은 “운영 마비”를 생성하여, 팀이 인공지능을 사용하여 잘못된 것을 하는 것에 대해 너무恐怖하여 아무 것도 하지 않게 되고, 결국 기회를 잃게 된다.

문제는 통제 시스템의 의도에서 비롯되지 않는다. 문제는 위험 완화가 반드시 통제와 동일해야 한다는 가정에서 비롯된다. 실제로, 인공지능 시스템을 완벽함 대신 탄력성으로 설계하는 것이 더 효과적인 접근 방식이다. 핵심은 절차적 접근 방식을 결과 기반 사고로 대체하는 것이다.

인공지능에서 탄력성은 실수가 발생할 수 있음을 수용하고, 그들을 обнаруж하고 수정할 수 있는 가드를 구축하는 것을 의미한다. 그것은 모든 가능한 실패를 방지하는 방법에 대한 대화를 중단하고, 실수가 발생할 때 빠르게 발견하고 개입하는 방법에 대한 대화를 시작하는 것을 의미한다.

대부분의 현대 시스템은某种 수준의 오류가 발생할 수 있다는 이해 아래에서 구축된다. 예를 들어, 사이버 보안 도구는 100% 침투할 수 없다고 기대되지 않는다. 그들은那样 설계되지 않았다. 대신, 그들은 발견, 응답, 빠른 복구 프로토콜을 생성하도록 설계되었다. 인공지능에도 동일한 기대가 적용되어야 한다.

인공지능의 모든 결정에 대한 완전한 가시성을 요구하는 것은 비현실적이며 가치 창조에 반대될 수 있다. 대신, 조직은 “대시보드 수준의 설명 가능성”을 옹호해야 한다. 즉, 오류를 обнаруж하고 안전 장치를 적용할 수 있는 충분한 컨텍스트와 감독을 제공하는 것이다. 이 모델은 조직이 혁신을 중단하지 않고 중요한 곳에 감독에 집중할 수 있도록 허용한다.

인공지능 배포를 과도하게 복잡하게 만들지 마라

조직은 모든 사용 사례에 대해 인공지능 구현에서 완전한 상호 운용성을 받아들여야 한다. 완전한 상호 운용성은 무제한 통합을 보장하고 시스템 전반에서 더 큰 가치를_unlock한다. 미래에는, 기업 전체에서 공통 목표를 향해 작동하는 인공지능 에이전트의 가상 군대가 나타날 수 있다.

이 사고 방식은 설명 가능성을 위험 수준과 일치시키는 것을 의미한다. 즉, 모든 인공지능 사용 사례를 자율 주행 자동차와 같이 취급하지 않는다. 팀은 인공지능 시스템을 인간의 의도와 일치시키고 책임을 지고 생산적인 시스템으로 설계할 수 있다. 배포를 과도하게 복잡하게 만들지 않으면서도 그렇게 할 수 있다.

실용적인 전략에는 다음이 포함된다:

  • 인간이 이미 어려움을 겪는 곳에 인공지능을 배포하기: 자원 할당, 작업 우선순위 지정, 백로그 관리와 같은 복잡하고大量의 영역에서 인간의 의사결정을 보완하는 데 인공지능을 사용하라. 여기서 속도와 규모가 완전한 확실성보다 더 중요하다.
  • 인공지능 성공 지표를 정의하기: 모든 모델을 설명하려고 시도하는 대신, 좋은 결과가 무엇인지 정의하라. 타임라인이 개선되고 있는가? 재작업이 감소하고 있는가? 사용자가 인공지능 제안을 더 자주 수락하고 있는가? 이러한 지표는 인공지능이 작동하는 방식에 대한 세부 정보를 조사하는 것보다 인공지능이 얼마나 잘 작동하는지에 대한 더 명확한 그림을 제공한다.
  • 신뢰 임계값을 설정하기: 인공지능 출력이 자동으로 수락되거나, 플래그가 설정되거나, 인간의 검토를 위해 보내기 전에 임계값을 설정하고, 시스템이 시간이 지남에 따라 학습하고 개선하는 피드백 루프를 구축하라.
  • 팀을 올바른 질문을 하는 방법으로 훈련시키기: 모든 팀을 인공지능 전문가로 만들기보다는, 올바른 질문을 하는 방법에 집중하라. 예를 들어, 인공지능을 사용하여 어떤 문제를 해결하려고 하는가? 어떤 위험이 가장 중요하게 여겨야 하는가? 효과성이 어떻게 모니터링될 것인가?
  • 인간의 이성을 우선시하기: 가장 좋은 인공지능 시스템도 인간의 감독에서 이익을 얻을 수 있다. 인간이 인공지능을 검증, 수정 또는 재정의할 수 있는 워크플ロー 구축하여 공동의 책임을 만들라.

이 접근 방식은 자동차를 운전하는 것과 비슷하다. 대부분의 사람들은 변속기, 연료 연소, 센서가 어떻게 작동하는지 모른다. 그러나 우리는 운전을 계속한다. 왜냐하면 우리가 필요한 정보를 제공하는 대시보드가 있기 때문이다. 즉, 속도, 연료 수준, 유지 보수 경고와 같은 정보가 있다.

인공지능 시스템도 동일한 방식으로 관리되어야 한다. 우리는 엔진을 열어보지 않아도 된다. 필요한 것은 문제가 발생했을 때, 인간의 개입이 필요할 때, 다음 단계를 취할 수 있는 지표 세트이다. 이 모델은 조직이 중요한 곳에 감독에 집중할 수 있도록 허용한다.

자신을 방해하지 마라

인공지능은 결코 완벽하지 않을 것이다. 그리고 조직이 인간 팀이 충족할 수 없는 완벽성의 기준을 인공지능에 요구한다면, 조직은 업무를 재창조하고, 의사결정을 가속화하고, 기업 전체에서 잠재력을_unlock하는 기회를 잃을 수 있다.

탄력성보다 통제에 집중하고, 대시보드 수준의 설명 가능성을 받아들이고, 감독을 컨텍스트에 맞추면, 우리는 인공지능에 대해 너무 많이 생각하는 것을 중단하고, 더 많은 성공을 창출할 수 있다.

๋ฒ ์Šค ์œ„ํฌ์Šค(Beth Weeks)๋Š” ํ”Œ๋žœ๋ทฐ(Planview)์˜ ๊ฐœ๋ฐœ ๋‹ด๋‹น ์ด์‚ฌ์ด๋‹ค. ๊ทธ๋…€๋Š” ์ „๋žต์  ํฌํŠธํด๋ฆฌ์˜ค ๊ด€๋ฆฌ, ์ „๋ฌธ ์„œ๋น„์Šค ์ž๋™ํ™”, ์—”ํ„ฐํ”„๋ผ์ด์ฆˆ ์•„ํ‚คํ…์ฒ˜, ์•„์ด๋””์–ด ๊ตฌํ˜„ ๊ธฐ๋Šฅ์„ ์ œ๊ณตํ•˜๋Š” ํ”Œ๋žœ๋ทฐ์˜ ์ œํ’ˆ์„ ์œ„ํ•œ ์†Œํ”„ํŠธ์›จ์–ด ๊ฐœ๋ฐœ ํŒ€์„ ์ด๋Œ๊ณ  ์žˆ๋‹ค.

๋ฒ ์Šค๋Š” ์ง€๋‚œ 20๋…„ ๋™์•ˆ ์†Œํ”„ํŠธ์›จ์–ด ์ด์‚ฌ ์ง์ฑ…์„ ๋งก์•„ ์™”์œผ๋ฉฐ, ์†Œํ”„ํŠธ์›จ์–ด ํšŒ์‚ฌ๋“ค์ด ์˜จํ”„๋ ˆ๋ฏธ์Šค ์ œํ’ˆ์„ ์ž˜ ์„ค๊ณ„๋œ ์†Œํ”„ํŠธ์›จ์–ด๋กœ์„œ์˜ ์„œ๋น„์Šค(SaaS)์™€ ํ”Œ๋žซํผ์œผ๋กœ์„œ์˜ ์„œ๋น„์Šค(PaaS) ์†”๋ฃจ์…˜์œผ๋กœ ๋ณ€ํ™˜ํ•˜๋Š” ๊ฒƒ์„ ๋„์™”๋‹ค. ๊ทธ๋…€๋Š” ๋˜ํ•œ ๋ถ๋ฏธ, EMEA, ์ธ๋„๋ฅผ ํ†ตํ•ด ๊ธ€๋กœ๋ฒŒํ•˜๊ฒŒ ๋ถ„์‚ฐ๋œ ๋งค์šฐ ์ƒ์‚ฐ์ ์ด๊ณ  ํ˜‘๋ ฅ์ ์ธ ํŒ€์„ ๊ตฌ์ถ•ํ•˜๋Š” ๊ฒฝํ—˜๋„ ์žˆ๋‹ค.

2017๋…„ ํ”Œ๋žœ๋ทฐ์— ํ•ฉ๋ฅ˜ํ•˜๊ธฐ ์ „์—, ๋ฒ ์Šค๋Š” WP ์—”์ง„์—์„œ ์ œํ’ˆ ์—”์ง€๋‹ˆ์–ด๋ง ๋ฐ ํด๋ผ์šฐ๋“œ ์šด์˜์˜ ์„ ์ž„ ๋ถ€์‚ฌ์žฅ์„ ๋งก์•˜์œผ๋ฉฐ, 50๋งŒ ๊ฐœ ์ด์ƒ์˜ ์›น์‚ฌ์ดํŠธ๋ฅผ ํ˜ธ์ŠคํŒ…ํ•˜๋Š” ์—ฌ๋Ÿฌ ๊ธ€๋กœ๋ฒŒ ๋ฐ์ดํ„ฐ ์„ผํ„ฐ์˜ ์ œํ’ˆ ๊ฐœ๋ฐœ ๋ฐ ํด๋ผ์šฐ๋“œ ์šด์˜์„ ์ด๋Œ์—ˆ๋‹ค. ๊ทธ๋…€๋Š” ๋˜ํ•œ ์งˆ๋ฆฌ์–ธํŠธ, ๋น„๋‹ˆ์—ํŠธ(์˜คํ”ˆ ํ…์ŠคํŠธ์— ์ธ์ˆ˜๋จ), ์ธํ„ฐ๊ทธ๋ž˜ํ”„์—์„œ ๋ฆฌ๋”์‹ญ ์ง์ฑ…์„ ๋งก์•˜๋‹ค.