์ฌ์ ๋ฆฌ๋
์ค๋ช ๊ฐ๋ฅ์ฑ์ด ๋ชจ๋ ์ฐ์ ์ AI ๋ฌธ์ ๋ฅผ ํด๊ฒฐํ ์ ์๋ค: ํฌ๋ช ์ฑ์ ๋ถ์กฑ

작성자: Migüel Jetté, VP of R&D Speech, Rev.
AI가 초기 단계에 있을 때, 새로운 기술이라는 이유로 투명성의 부족을 무시할 수 있었다. 기계 학습이 천천히 학습하고 평균 사용자가 이해할 수 없는 불투명한 프로세스를 유지하는 것이 괜찮았다. 그러나 이제 상황이 달라지고 있다. 의료, 금융, 사법 시스템 등 다양한 산업에서 실제로 사람들의 삶에 영향을 미칠 수 있는 방식으로 AI를 활용하기 시작하면서, 사람들이 알고 싶어하는 것이 더 많아졌다.人们들은 알고 싶어한다. 어떻게 알고리즘이 사용되는지, 데이터가 어디서 오는지, 그리고 그 기능이 얼마나 정확한지 알고 싶어한다. 회사가 혁신의 선두를 유지하려면 사용자가 신뢰할 수 있는 AI를 사용해야 한다. AI 설명 가능성이 그 관계를 깊게 하는 핵심 요소이다.
AI 설명 가능성은 표준 AI 절차와 다르다. 그것은 사람들이 기계 학습 알고리즘이 출력을 생성하는 방법을 이해할 수 있는 방법을 제공한다. 설명 가능한 AI는 시스템이 사람들에게 잠재적인 결과와 한계를 제공할 수 있다. 그것은 공정성, 책임성, 그리고 개인 정보 보호에 대한 인간의 жел cầu를 충족할 수 있는 기계 학습 시스템이다. 설명 가능한 AI는 기업이 소비자와 신뢰를 구축하는 데 필수적이다.
AI가 확장되는 동안, AI 제공 업체는 블랙 박스 모델이 작동할 수 없다는 것을 이해해야 한다. 블랙 박스 모델은 데이터에서 직접 생성되며, 때때로 알고리즘을 생성한 개발자조차도 기계가 학습한 습관을 무엇이驱動했는지 식별할 수 없다. 그러나 의식 있는 소비자는 책임을 질 수 없는 것과 같은 투명하지 않은 것과 상호 작용하고 싶어하지 않는다. 사람들은 특정 결과에 도달하기 위해 AI 알고리즘이 어떻게 작동하는지 알고 싶어한다. 특히 AI의 잘못된 계산은 기계 학습의 편향으로 인해 발생하는 경우가 많다. AI가 더 발전할수록, 사람들은 기계 학습 프로세스에 접근하여 알고리즘이 특정 결과에 도달하는 방법을 이해하고 싶어한다. 모든 산업의 리더는 사람들이 투명성을 필요로 하는 수준으로 접근을 원하는 것이 아니라, 필수적인 수준으로 요구할 것이라는 것을 이해해야 한다.
음성 인식 시스템과 같은 ASR 시스템은 특히 편향으로 고통받는다. 편향. 이 서비스가 안전 조치에 사용될 때, 억양, 나이, 배경과 같은 오류로 인한 실수는 심각한 실수가 될 수 있다. 따라서 이 문제는 심각하게 다루어져야 한다. 예를 들어, 경찰 바디 캠에서 ASR를 사용하여 자동으로 기록하고 전사할 수 있다. 기록이 정확하게 전사된다면 목숨을 구할 수 있다. 설명 가능성의 관행은 AI가 단지 구매한 데이터 세트에 의존하지 않고, 오류가 발생할 수 있는 들어오는 오디오의 특성을 이해하도록 요구한다. 음향 프로파일은 무엇인가? 배경에 노イズ가 있는가? 화자는 영어를 모국어로 사용하지 않는 국가나 AI가 아직 학습하지 않은 어휘를 사용하는 세대에서 온 사람인가? 기계 학습은 이러한 변수를 해결할 수 있는 데이터를 수집하여 더 빠르게 학습할 수 있어야 한다.
필요성은 명백해지고 있지만, 이 방법론을 구현하는 경로는 항상 쉬운 해결책을 가지지 않을 것이다. 전통적인 해결책은 더 많은 데이터를 추가하는 것이다. 그러나 더 복잡한 해결책이 필요하다. 특히 많은 회사에서 사용하는 구매 데이터 세트가 내재적으로 편향되어 있는 경우에 그렇다. 이것은 특정 결정이 AI에 의해 렌더링되었기 때문에 설명하기 어려웠기 때문이다. 그러나 우리는 이제 할 수 있다. 그리고 우리는 사람들이 AI를 신뢰하지 않게 된 이유를 묻기 시작할 수 있다.
결국, AI는 실수를 할 것이다. 회사는 모델이 잠재적인 약점을 인식하고, 문제가 발생하는 위치를 식별하며, 더 강력한 AI 모델을 구축하기 위한 지속적인 솔루션을 생성해야 한다:
- 何かが 잘못되면, 개발자는 무엇이 잘못되었는지 설명하고, 개선 계획을 개발하여 tương lai의 유사한 실수를 줄여야 한다.
- 기계가 실제로 자신이 옳았는지 틀렸는지 알 수 있도록, 과학자들은 피드백 루프를 생성하여 AI가 자신의 약점을 학습하고 진화하도록 해야 한다.
- ASR이 아직 개선되는 동안 신뢰를 구축하는 또 다른 방법은 신뢰도 점수를 제공하는 시스템을 생성하여, 왜 AI가 덜 신뢰할 수 있는지 이유를 제공하는 것이다. 예를 들어, 회사는 자신의 AI의 불완전성을 반영하기 위해 0에서 100까지의 점수를 생성하며, 고객과 투명성을 유지한다. 미래에는 시스템이 오디오가 어려웠던 이유를 제공하여 더 많은 메타데이터를 제공할 수 있다. 예를 들어, 인식된 노イズ 수준 또는 덜 이해되는 억양.
추가 투명성은 AI 훈련 및 성능에 대한 인간의 감독을 개선할 것이다. 우리는 어디에서 개선해야 하는지에 대해 더 열려 있을수록, 우리는 그 개선에 대한 책임을 지는 데 더 책임이 있다. 예를 들어, 연구자는 왜 잘못된 텍스트가 출력되었는지 알고 싶어할 수 있다. 이는 문제를 완화하기 위해, 그리고 전사자는 ASR이 입력을 잘못 해석한 이유를 증거로 알고 싶어할 수 있다. 이는 그들의 유효성에 대한 평가를 도와줄 수 있다. 인간을 루프에 유지하면 AI가 무시된 경우 발생하는 가장明显한 문제 중 일부를 완화할 수 있다. 또한 AI가 실수를 잡고, 개선하고, 궁극적으로 실시간으로 자신을 수정하는 데 필요한 시간을 단축할 수 있다.
AI는 인간의 삶을 개선할 수 있는 기능을 가지고 있지만, 인간이 올바르게 구축해야 한다. 우리는 이러한 시스템에 책임을 지우는 것뿐만 아니라, 혁신 뒤에 있는 사람들에게도 책임을 지워야 한다. 미래의 AI 시스템은 사람들에 의해 설정된 원칙을 준수해야 한다. 그리고 그때까지 우리는 신뢰할 수 있는 시스템을 가질 수 없다. 이제 그 원칙을 위해 기반을 마련하고, 아직 인간이 자신을 섬기고 있는 동안, 그 원칙을 위해 노력해야 한다.












