Connect with us

사상 리더

AI가 운영에 진입할 때, 설명 가능성은 선택이 아닌 필수가 된다

mm

기업의 AI 도입은 보다 실용적인 단계에 접어들었습니다. 기술 리더들에게 도전 과제는 더 이상 조직에 AI의 잠재력을 설득하는 것이 아닙니다. 운영 결정에 영향을 미치는 시스템이 이해되고, 관리되며, 방어될 수 있도록 보장하는 것입니다.

AI는 사람들이 그것을 의지하려 할 때 기업 내 자리를 얻습니다. 그런 의존은 성능 통계만으로 구축되지 않습니다. 그것은 자동화가 일상적인 업무 흐름의 일부가 되었을 때 팀이 여전히 통제력을 유지한다고 느끼는지에 달려 있습니다.

많은 조직에서 그런 통제감은 여전히 불확실합니다.

불투명성이 도입을 늦추는 이유

AI는 이제 서비스 요청 라우팅부터 사고 상관관계 분석 및 용량 계획에 이르기까지 IT 운영 전반에 내장되었습니다. 이는 결정들이 상호 연결되고 실수가 빠르게 확대되는 환경입니다. AI 출력이 맥락 없이 나타날 때, 팀은 종종 주저합니다. 자동화는 기술적으로 배포되었을 수 있지만, 그 권고 사항은 재확인되거나, 지연되거나, 조용히 제쳐 놓아집니다.

이러한 행동은 종종 변화에 대한 저항으로 오해받습니다. 실제로, 이는 고위험 운영 환경에서의 전문적 책임감을 반영합니다. AI 실패의 공개 사례들은 이러한 경계심을 더욱 예리하게 만들었습니다. 자동화 시스템이 확신에 찬 것처럼 보이지만 잘못된 것으로 판명되는 출력을 생성할 때, 그 피해는 야망만으로는 거의 발생하지 않습니다. 그것은 불투명성에서 비롯됩니다. 아무도 결론에 도달한 과정을 설명할 수 없다면, 시스템이 대체로 정확하더라도 신뢰는 훼손됩니다.

IT 팀 내에서 이것은 미묘하게 나타납니다. 자동화는 실행 모드보다는 자문 모드로 운영됩니다. 엔지니어는 결과에 대해 책임을 지면서도 검사할 수 없는 추론을 신뢰할 것으로 기대받습니다. 시간이 지남에 따라, 이러한 불균형은 마찰을 일으킵니다. AI는 존재하지만, 그 가치는 제한됩니다.

투명한 AI 프로세스

더 큰 투명성설명 가능성은 자동화된 의사 결정에 책임성을 회복시킴으로써 이 문제를 해결할 수 있습니다. 설명 가능한 AI는 모든 내부 계산을 공개하는 것을 의미하지 않습니다. 그것은 인간 운영자에게 관련성이 있는 통찰력을 제공하는 것을 의미합니다; 어떤 데이터가 결정에 영향을 미쳤는지, 어떤 조건이 가장 큰 비중을 차지했는지, 신뢰도 수준이 어떻게 평가되었는지 등입니다. 이러한 맥락은 팀이 출력이 운영 현실과 부합하는지 판단할 수 있게 합니다.

화이트박스 AI라고도 불리는 설명 가능한 AI는 AI 결정이 어떻게 이루어졌는지 설명하는 일종의 해석 계층을 생성하여, 그 프로세스와 논리를 시야에서 숨겨진 상태로 두지 않습니다. 이는 AI 시스템이 보다 책임 있는 프레임워크의 일부가 될 수 있을 뿐만 아니라, 사용자가 각 시스템이 어떻게 작동하는지 이해할 수 있음을 의미합니다. 또한 이는 AI 모델의 취약점을 식별하고 편향으로부터 보호할 수 있음을 의미합니다.

결정적으로, 설명 가능성은 무언가 잘못되었을 때 팀이 추론 경로를 추적하고, 미약한 신호를 식별하며, 프로세스를 개선할 수 있음을 의미합니다. 그런 가시성이 없다면, 오류는 반복되거나 자동화를 비활성화함으로써 완전히 회피됩니다.

실제 적용에서의 설명 가능성

사고 관리를 생각해 보십시오. AI는 종종 경고를 그룹화하고 가능한 원인을 제안하는 데 사용됩니다. 대규모 기업 환경에서 주요 사고 발생 시 단일 오분류된 의존성은 해결을 수 시간 지연시킬 수 있으며, 여러 팀을 병렬 조사에 끌어들이는 동안 고객 대면 서비스는 저하된 상태로 유지됩니다. 그런 제안이 어떤 시스템이 관련되었는지, 의존성이 어떻게 접근되었는지, 또는 어떤 과거 사고가 참조되었는지에 대한 명확한 설명과 함께 제공될 때, 엔지니어는 권고 사항을 빠르게 판단할 수 있습니다. 만약 그것이 틀린 것으로 판명되면, 그 통찰력은 모델과 프로세스 모두를 개선하는 데 사용될 수 있습니다.

그런 투명성이 없다면, 팀은 AI가 얼마나 진보했는지에 관계없이 수동 진단으로 되돌아갑니다.

이 피드백 루프는 지속적인 도입의 핵심입니다. 설명 가능한 시스템은 그것을 사용하는 사람들과 함께 진화합니다. 반면, 블랙박스 시스템은 신뢰도가 떨어지면 정체되거나 제쳐 놓아지는 경향이 있습니다.

책임과 소유권

설명 가능성은 또한 책임이 어떻게 분배되는지 변화시킵니다. 운영 환경에서 책임은 단순히 결정이 자동화되었다고 해서 사라지지 않습니다. 누군가는 여전히 결과에 대해 책임을 져야 합니다. AI가 스스로 설명할 수 있을 때, 책임은 더 명확하고 관리하기 쉬워집니다. 결정은 방어적인 우회 방법에 의지하지 않고도 검토되고, 정당화되며, 개선될 수 있습니다.

거버넌스상의 이점도 있지만, 내부적으로는 드물게 주요 동기가 됩니다. 기존의 데이터 보호 및 책임 프레임워크는 이미 조직이 특정 맥락에서 자동화된 결정을 설명할 것을 요구합니다. AI 특정 규제가 계속 발전함에 따라, 투명성이 부족한 시스템은 조직을 불필요한 위험에 노출시킬 수 있습니다.

그러나 설명 가능성의 더 큰 가치는 규정 준수보다는 복원력에 있습니다. 자신의 시스템을 이해하는 팀은 더 빠르게 복구합니다. 그들은 사고를 더 효율적으로 해결하고, 자동화를 처음부터 신뢰해야 하는지 논쟁하는 데 더 적은 시간을 소비합니다.

운전 우수성을 위한 AI 설계

엔지니어는 가정을 질문하고, 의존성을 검사하며, 결과를 테스트하도록 훈련받습니다. 자동화가 이러한 본능을 우회하기보다 지원할 때, 도입은 협력적이 되고 부과된 구조가 아닌 프로세스의 일부가 됩니다.

불가피하게, 이런 방식으로 시스템을 구축하는 데는 비용이 듭니다. 설명 가능한 AI는 철저한 데이터 관행, 신중한 설계 선택, 그리고 출력을 책임 있게 해석할 수 있는 숙련된 직원을 요구합니다. 순수하게 속도나 참신함을 위해 최적화된 불투명한 모델만큼 빠르게 확장되지 않을 수 있습니다. 그러나 그 투자에 대한 수익은 안정성입니다.

설명 가능성을 우선시하는 조직은 중단된 이니셔티브가 더 적고 그림자 의사 결정이 더 적습니다. 자동화는 운영 내에서 신뢰받는 계층이 되며, 고립되어 실행되는 병렬 실험이 되지 않습니다. 가치 실현 시간은 시스템이 더 빠르기 때문이 아니라, 팀이 그것을 완전히 사용할 의향이 있기 때문에 개선됩니다.

책임 있는 확장

AI가 기업 인프라의 영구적인 고정 요소가 됨에 따라, 성공은 야망보다는 신뢰성에 의해 더 많이 정의될 것입니다. 자신의 결정을 설명할 수 있는 시스템은 신뢰하기 쉽고, 개선하기 쉬우며, 결과에 도전받을 때 뒷받침하기 쉽습니다.

운영 환경에서 지능은 이해가 자동화와 보조를 맞출 때만 확장됩니다.

//www.manageengine.com/">ManageEngine의 UK & Ireland Technical Head로, 테크니컬 세일즈, 어카운트 관리, 고객 성공 분야에서 13년의 경력을 가진 프리세일즈 및 전략적 어카운트 매니저입니다. 그는 ITSM, ITOM, SIEM, 엔드포인트 관리, CRM, ATS, HCM/HRIS 애플리케이션의 글로벌 컨설팅 및 구현에 대한 깊은 기술 전문성을 보유하고 있습니다. 그의 전문성은 고객 중심 솔루션을 꾸준히 제공하고, 제품 가치를 입증하며, 충성도 높은 장기 고객 관계의 기반을 구축함으로써 매출과 시장 점유율 증가를 주도하는 데 있습니다. 그는 여가 시간에 크리켓을 치고, 독서를 하며, 여행하는 것을 즐깁니다.