부본 설명 가능성은 모든 산업의 AI 문제를 해결할 수 있습니다: 투명성 부족 - Unite.AI
Rescale 미팅 예약

사상가

설명 가능성은 모든 산업의 AI 문제를 해결할 수 있습니다: 투명성 부족

mm

게재

 on

으로: Migüel Jetté, R&D 연설 부사장, 회전.

초기 단계에서 AI는 새로움의 영예에 안주할 수 있었을 것입니다. 머신러닝이 천천히 학습하고 AI의 계산이 일반 소비자가 침투할 수 없는 불투명한 프로세스를 유지하는 것은 괜찮았습니다. 그것은 변화하고 있습니다. 의료, 금융, 형사 사법 제도 등 더 많은 산업이 사람들의 삶에 실질적인 영향을 미칠 수 있는 방식으로 AI를 활용하기 시작하면서 더 많은 사람들이 알고리즘이 어떻게 사용되는지, 데이터가 어떻게 공급되는지, 그리고 어떻게 데이터가 제공되는지 알고 싶어합니다. 그 기능이 얼마나 정확한지. 기업이 시장에서 혁신의 최전선에 머물고 싶다면 청중이 신뢰할 수 있는 AI에 의존해야 합니다. AI 설명 가능성은 이러한 관계를 심화시키는 핵심 요소입니다.

AI 설명 가능성은 사람들에게 기계 학습 알고리즘이 출력을 생성하는 방법을 이해할 수 있는 방법을 제공한다는 점에서 표준 AI 절차와 다릅니다. Explainable AI는 사람들에게 잠재적인 결과를 제공할 수 있는 시스템입니다. 단점. 공정성, 책임성 및 프라이버시 존중에 대한 인간의 욕구를 충족시킬 수 있는 기계 학습 시스템입니다. Explainable AI는 기업이 소비자와 신뢰를 구축하는 데 필수적입니다.

AI가 확장되는 동안 AI 공급자는 블랙박스가 확장할 수 없다는 점을 이해해야 합니다. 블랙박스 모델은 데이터에서 직접 생성되며 종종 알고리즘을 생성한 개발자조차도 무엇이 기계의 학습된 습관을 유발했는지 식별할 수 없습니다. 그러나 성실한 소비자는 너무 뚫을 수 없어서 책임을 물을 수 없는 일에 참여하기를 원하지 않습니다. 사람들은 특히 AI의 계산 착오가 종종 기계 편향으로 인해 발생하는 경우 AI 알고리즘이 소싱된 입력과 제어된 출력의 수수께끼 없이 특정 결과에 도달하는 방법을 알고 싶어합니다. AI가 더욱 발전함에 따라 사람들은 알고리즘이 특정 결과에 도달한 방법을 이해하기 위해 기계 학습 프로세스에 액세스하기를 원합니다. 모든 산업의 리더는 조만간 사람들이 더 이상 이러한 액세스를 선호하지 않고 필요한 수준의 투명성으로 요구할 것임을 이해해야 합니다.

음성 지원 도우미, 필사 기술 및 사람의 말을 텍스트로 변환하는 기타 서비스와 같은 ASR 시스템은 특히 편견에 시달리다. 안전 조치를 위해 서비스를 이용할 때 억양, 나이, 배경 등으로 인한 실수는 중대한 실수가 될 수 있으므로 문제를 심각하게 고려해야 합니다. 예를 들어, ASR은 상호 작용을 자동으로 기록하고 기록하기 위해 경찰 차체 카메라에서 효과적으로 사용할 수 있습니다. 정확하게 기록하면 생명을 구할 수 있는 기록을 유지합니다. 설명 가능성을 실행하려면 AI가 구매한 데이터 세트에만 의존하는 것이 아니라 오류가 있는 경우 오류의 원인이 될 수 있는 수신 오디오의 특성을 이해하려고 노력해야 합니다. 음향 프로파일은 무엇입니까? 배경에 소음이 있습니까? 말하는 사람은 비영어권 국가입니까, 아니면 AI가 아직 배우지 않은 어휘를 사용하는 세대입니까? 기계 학습은 더 빠른 학습에 능동적으로 대응해야 하며 이러한 변수를 해결할 수 있는 데이터를 수집하여 시작할 수 있습니다.

그 필요성은 명백해지고 있지만 이 방법론을 구현하는 경로가 항상 쉬운 솔루션을 제공하지는 않습니다. 문제에 대한 기존의 대답은 더 많은 데이터를 추가하는 것이지만 특히 많은 회사에서 사용하는 구매 데이터 세트가 본질적으로 편향된 경우 더 정교한 솔루션이 필요합니다. 이는 역사적으로 AI가 내린 특정 결정을 설명하기 어려웠고 이는 종단 간 모델의 복잡성 특성 때문입니다. 하지만 지금은 할 수 있고 처음에 사람들이 어떻게 AI에 대한 신뢰를 잃었는지 묻는 것으로 시작할 수 있습니다.

필연적으로 AI는 실수를 할 것입니다. 기업은 잠재적인 단점을 인식하고, 문제가 발생하는 시기와 위치를 식별하고, 더 강력한 AI 모델을 구축하기 위한 지속적인 솔루션을 만드는 모델을 구축해야 합니다.

  1. 무언가 잘못되면 개발자는 무슨 일이 일어났는지 설명하고 즉각적인 계획을 세우다 미래의 유사한 실수를 줄이기 위해 모델을 개선하기 위해.
  2. 기계가 그것이 옳은지 그른지를 실제로 알기 위해서는 과학자들이 피드백 루프 생성 AI가 자신의 단점을 배우고 진화할 수 있도록 말이죠.
  3. AI가 여전히 개선되는 동안 ASR이 신뢰를 구축하는 또 다른 방법은 신뢰도 점수를 제공할 수 있는 시스템 구축, 그리고 AI가 덜 자신감 있는 이유에 대한 이유를 제공합니다. 예를 들어 기업은 일반적으로 자체 AI의 불완전성을 반영하고 고객과의 투명성을 확립하기 위해 100에서 XNUMX까지의 점수를 생성합니다. 미래에 시스템은 인지된 소음 수준이나 이해하기 어려운 악센트와 같은 오디오에 대한 더 많은 메타데이터를 제공하여 오디오가 어려운 이유에 대한 사후 설명을 제공할 수 있습니다.

추가 투명성으로 인해 AI 교육 및 성능에 대한 인간의 감독이 향상될 것입니다. 우리가 개선해야 할 부분에 대해 더 개방적일수록 이러한 개선 사항에 대해 조치를 취하는 데 더 많은 책임을 지게 됩니다. 예를 들어, 연구자는 문제를 완화하기 위해 잘못된 텍스트가 출력된 이유를 알고 싶어할 수 있으며, 전사자는 ASR이 유효성 평가를 돕기 위해 입력을 잘못 해석한 이유에 대한 증거를 원할 수 있습니다. 인간을 루프에 유지하면 AI가 확인되지 않을 때 발생하는 가장 명백한 문제 중 일부를 완화할 수 있습니다. 또한 AI가 오류를 포착하고 개선하고 결국 실시간으로 스스로 수정하는 데 필요한 시간을 단축할 수 있습니다.

AI는 사람들의 삶을 개선할 수 있는 능력을 가지고 있지만 인간이 제대로 생산할 수 있도록 구축하는 경우에만 가능합니다. 우리는 이러한 시스템뿐만 아니라 혁신 뒤에 있는 사람들에게도 책임을 물을 필요가 있습니다. 미래의 AI 시스템은 사람이 정한 원칙을 고수할 것으로 예상되며 그때까지만 사람이 신뢰하는 시스템을 갖게 될 것입니다. 궁극적으로 여전히 인간이 우리 자신을 섬기는 동안 지금은 토대를 마련하고 이러한 원칙을 위해 노력해야 할 때입니다.

Miguel Jetté는 AI R&D 책임자입니다. 회전, AI와 숙련된 인간을 결합한 음성-텍스트 전사 플랫폼. 그는 세계에서 가장 정확한 음성 텍스트 변환 AI 플랫폼 개발을 담당하는 팀을 이끌고 있습니다. 삶을 개선하면서 복잡한 문제를 해결하는 데 열정적이며 기술을 통해 빌드 포용성과 평등성을 높이는 데 전념하고 있습니다. XNUMX년 넘게 그는 Nuance Communications 및 VoiceBox를 비롯한 회사에서 음성 기술을 구현하기 위해 노력했습니다. 그는 몬트리올의 McGill University에서 수학과 통계학 석사 학위를 받았습니다. AI를 통한 커뮤니케이션을 발전시키지 않을 때는 암벽 등반 대회의 사진작가로 시간을 보냅니다.