AI 101
책임 있는 AI란 무엇인가? 원칙, 도전, 및 이점

책임 있는 AI(RAI)란 투명한, 편향되지 않은, 책임을 지고, 윤리 지침을 따르는 AI 시스템을 설계하고 배포하는 것을 말합니다. AI 시스템이 더 강력하고 普遍적으로 되면서, 책임 있게 개발되고 안전 및 윤리 지침을 따르는지 확인하는 것이 필수적입니다.
건강, 교통, 네트워크 관리, 및 감시 등은 시스템 고장이 심각한 결과를 초래할 수 있는 안전에 중요한 AI 응용 프로그램입니다. 대기업들은 책임 있는 AI가 기술 위험을 완화하는 데 필수적임을 알고 있습니다. 그러나 MIT Sloan/BCG 보고서에 따르면 1093명의 응답자 중 54%의 기업이 책임 있는 AI 전문 지식과 인재가 부족했습니다.
사고 지도자와 조직이 책임 있는 AI를 위한 원칙을 개발했지만, AI 시스템의 책임 있는 개발을 보장하는 것은 여전히 도전을 제기합니다. 이 아이디어를 자세히 살펴보겠습니다:
책임 있는 AI의 5가지 원칙
1. 공정성
기술자들은 AI 시스템이 모든 개인과 그룹을 공정하게 대우하고 편향되지 않도록 절차를 설계해야 합니다. 따라서 공정성은 고위험 의사 결정 애플리케이션에서 주요 요구 사항입니다.
공정성은 다음과 같이 정의됩니다:
“다양한 인구 통계 그룹에 대한 영향을 조사하고 법적, 문화적, 윤리적 요구 사항을 충족시키기 위해 충분한 수준의 집단 공정성의 수학적 정의 중 하나를 선택하는 것.”
2. 책임성
책임성은 AI 시스템을 개발하고 배포하는 개인과 조직이 그들의 의사 결정과 행동에 책임을 지는 것을 의미합니다. AI 시스템을 배포하는 팀은 그들의 AI 시스템이 투명하고, 해석 가능하고, 감사 가능하며, 사회에 해를 끼치지 않는지 확인해야 합니다.
책임성에는 일곱 가지 구성 요소가 있습니다:
- 콘텍스트 (책임이 필요한 목적)
- 범위 (책임의 대상)
- 에이전트 (누가 책임을 지는지)
- 포럼 (책임을 지는 당사자가 보고해야 하는 곳)
- 표준 (책임의 기준)
- 과정 (책임의 방법)
- 의미 (책임의 결과)
3. 투명성
투명성은 AI 시스템의 의사 결정 이유가 명확하고 이해할 수 있음을 의미합니다. 투명한 AI 시스템은 설명 가능합니다.
신뢰할 수 있는 인공지능을 위한 평가 목록 (ALTAI)에 따르면, 투명성에는 세 가지 주요 요소가 있습니다:
- 추적 가능성 (데이터, 전처리 단계, 모델이 접근 가능)
- 설명 가능성 (의사 결정/예측 이유가 명확)
- 개방적 의사 소통 (AI 시스템의 제한에 관한)
4. 개인 정보 보호
개인 정보 보호는 책임 있는 AI의 주요 원칙 중 하나입니다. 개인 정보의 보호를 의미합니다. 이 원칙은 개인 정보가 동의 하에 수집되고 처리되고, 악의적인 사람들의 손에 넘어가지 않도록 보장합니다.
최근에 Clearview라는 회사에서 법 집행 기관과 대학을 위한 얼굴 인식 모델을 만들면서, 영국의 데이터 감시 기관이 Clearview AI를 7.5 백만 파운드의 벌금을 부과했습니다. 이는 영국 거주자의 소셜 미디어에서 동의 없이 20억 개의 이미지 데이터베이스를 만들기 위해 이미지를 수집한 것에 대한 벌금입니다.
5. 보안
보안은 AI 시스템이 안전하고 사회에 위협이 되지 않는 것을 의미합니다. AI 보안 위협의 예는 적대적 공격입니다. 이러한 악의적인 공격은 기계 학습 모델이 잘못된 결정을 내리도록 속입니다. 책임 있는 AI를 위해 AI 시스템을 사이버 공격으로부터 보호하는 것이 필수적입니다.
책임 있는 AI의 4가지 주요 도전 및 위험
1. 편향
나이, 성별, 국적, 인종과 관련된 인간의 편향은 데이터 수집에 영향을 미칠 수 있으며, 편향된 AI 모델로 이어질 수 있습니다. 미국 상무부 연구에 따르면, 얼굴 인식 AI는 유색인종을 잘못 식별합니다. 따라서 법 집행에서 얼굴 인식 AI를 사용하는 것은 잘못된 구금으로 이어질 수 있습니다. 또한, 공정한 AI 모델을 만드는 것은 어려울 수 있습니다. 왜냐하면 공정한 AI를 정의하는 21개의 다른 매개 변수가 있기 때문입니다. 따라서 하나의 공정한 AI 매개 변수를 만족시키는 것은 다른 매개 변수를 희생하는 것을 의미합니다.
2. 해석 가능성
해석 가능성은 책임 있는 AI를 개발하는 데 중요한 도전입니다. 기계 학습 모델이 특정 결론에 도달한 방법을 이해하는 것을 의미합니다.
깊은 신경망은 해석 가능성이 부족합니다. 왜냐하면 여러 개의 숨겨진 뉴런 레이어가 있는 블랙 박스로 작동하기 때문입니다. 이는 의사 결정 과정을 이해하기 어렵게 만듭니다. 이것은 의료, 금융 등과 같은 고위험 의사 결정에서 도전이 될 수 있습니다.
또한, ML 모델에서 해석 가능성을 공식화하는 것은 어려울 수 있습니다. 왜냐하면 그것은 주관적이고 도메인 특정적이기 때문입니다.
3. 거버넌스
거버넌스란 AI 시스템의 개발과 배포를 감독하는 일련의 규칙, 정책, 절차를 의미합니다. 최근에 AI 거버넌스 논의에서 상당한 진도가 나왔으며, 조직은 프레임워크와 윤리 지침을 제시했습니다.
신뢰할 수 있는 AI를 위한 EU의 윤리 지침, 호주 AI 윤리 프레임워크, 및 OECD AI 원칙은 AI 거버넌스 프레임워크의 예입니다.
그러나 최근 몇 년 동안 AI의 급속한 발전은 이러한 AI 거버넌스 프레임워크를 추월할 수 있습니다. 따라서 공정성, 해석 가능성, 윤리를 평가하는 프레임워크가 필요합니다.
4. 규제
AI 시스템이 더 普遍적으로 되면서, 윤리적 및 사회적 가치를 고려하는 규제가 필요합니다. AI 혁신을 억제하지 않는 규제를 개발하는 것은 책임 있는 AI의 중요한 도전입니다.
일반 데이터 보호 규정 (GDPR), 캘리포니아 소비자 개인 정보 보호법 (CCPA), 및 개인 정보 보호법 (PIPL)과 같은 규제 기관이 있음에도 불구하고, AI 연구자들은 97%의 EU 웹사이트가 GDPR 법적 프레임워크 요구 사항을 준수하지 않는다고 발견했습니다.
또한, 입법자들은 중대한 도전을 직면합니다. 즉, 기존 AI 시스템과 최신 AI 애플리케이션을 모두 포함하는 AI의 정의에 대한 합의를 달성하는 것입니다.
책임 있는 AI의 3가지 주요 이점
1. 편향성 감소
책임 있는 AI는 의사 결정 과정에서 편향성을 감소시킵니다. 이는 AI 시스템에 대한 신뢰를 구축합니다. AI 시스템에서 편향성을 감소시키는 것은 공정하고 공평한 금융 서비스를 제공하는 등 공정하고 공평한 의료 시스템을 제공할 수 있습니다.
2. 투명성 향상
책임 있는 AI는 투명한 AI 애플리케이션을 만듭니다. 이는 AI 시스템에 대한 신뢰를 구축합니다. 투명한 AI 시스템은 오류와 오용의 위험을 감소시킵니다. 투명성의 향상은 AI 시스템의 감사를 더 쉽게 만들며, 이해 관계자의 신뢰를 얻을 수 있으며, 책임 있는 AI 시스템으로 이어질 수 있습니다.
3. 보안 향상
보안이 강화된 AI 애플리케이션은 데이터 개인 정보를 보장하고, 신뢰할 수 있는 출력을 생성하며, 사이버 공격으로부터 안전합니다.
마이크로소프트와 구글 같은 기술 거물들이 책임 있는 AI 원칙을 개발했습니다. 책임 있는 AI는 AI 혁신이 개인과 사회에 해를 끼치지 않는다는 것을 보장합니다.
사고 지도자, 연구자, 조직, 및 법적 당국은 책임 있는 AI 문헌을 지속적으로 수정하여 AI 혁신의 안전한 미래를 보장해야 합니다.
더 많은 AI 관련 콘텐츠를 보려면 unite.ai를 방문하세요.












