부본 책임감 있는 AI란? 원칙, 과제 및 이점 - Unite.AI
Rescale 미팅 예약

AI 101

책임 있는 AI란? 원칙, 과제 및 이점

mm
업데이트 on
들판에 서 있는 동안 지구본을 손에 들고 있는 사람.

책임감있는 AI (RAI)는 투명하고 편향되지 않으며 책임 있고 윤리적 지침을 따르는 AI 시스템을 설계하고 배포하는 것을 말합니다. AI 시스템이 더욱 강력해지고 널리 보급됨에 따라 책임감 있게 개발하고 안전 및 윤리 지침을 준수하는 것이 필수적입니다.

건강, 교통, 네트워크 관리 및 감시는 안전에 중요한 AI 애플리케이션 시스템 오류가 심각한 결과를 초래할 수 있는 경우. 대기업은 RAI가 기술 위험을 완화하는 데 필수적이라는 것을 알고 있습니다. 그러나 1093명의 응답자가 포함된 MIT Sloan/BCG 보고서에 따르면, 54% 책임 있는 AI 전문 지식과 인재가 부족한 기업의 비율.

사고 리더와 조직은 책임 있는 AI에 대한 원칙을 개발했지만 AI 시스템의 책임 있는 개발을 보장하는 것은 여전히 ​​어려운 과제입니다. 이 아이디어를 자세히 살펴보겠습니다.

책임 있는 AI를 위한 5가지 원칙

1. 공정성

기술자는 AI 시스템이 편견 없이 모든 개인과 그룹을 공정하게 대하도록 절차를 설계해야 합니다. 따라서 공정성은 고위험 의사 결정 응용 프로그램의 기본 요구 사항입니다.

공평 다음과 같이 정의됩니다.

"다양한 인구 통계학적 그룹에 미치는 영향을 조사하고 원하는 법적, 문화적, 윤리적 요구 사항을 적절하게 충족할 수 있는 그룹 공정성에 대한 몇 가지 수학적 정의 중 하나를 선택합니다."

2. 책임

책임이란 AI 시스템을 개발하고 배포하는 개인과 조직이 자신의 결정과 행동에 책임을 져야 함을 의미합니다. AI 시스템을 배포하는 팀은 AI 시스템이 투명하고 해석 가능하고 감사 가능하며 사회에 해를 끼치지 않도록 해야 합니다.

책임에는 다음이 포함됩니다. 일곱 구성 요소 :

  1. 컨텍스트(책임이 요구되는 목적)
  2. 범위(책임 대상)
  3. 에이전트(책임자는 누구입니까?)
  4. 포럼(책임 당사자가 보고해야 하는 대상)
  5. 기준(책임 기준)
  6. 프로세스(책임 방법)
  7. 시사점(책임의 결과)

3. 투명도

투명성은 AI 시스템에서 의사 결정의 이유가 명확하고 이해할 수 있음을 의미합니다. 투명한 AI 시스템은 설명 가능합니다.

에 따르면 신뢰할 수 있는 인공 지능(ALTAI) 평가 목록, 투명성에는 세 가지 핵심 요소가 있습니다.

  1. 추적성(데이터, 전처리 단계 및 모델에 액세스 가능)
  2. 설명 가능성(의사 결정/예측의 이유가 명확함)
  3. 열린 커뮤니케이션 (AI 시스템의 한계에 대하여)

4. 개인 정보 보호

프라이버시는 책임 있는 AI의 주요 원칙 중 하나입니다. 개인정보 보호를 말합니다. 이 원칙은 사람들의 개인 정보가 동의 하에 수집 및 처리되고 불만 사항의 ​​손에 들어가지 않도록 합니다.

최근에 입증된 것처럼 법 집행 기관과 대학을 위한 안면 인식 모델을 만드는 회사인 Clearview의 사례가 있었습니다. 영국의 데이터 워치독 Clearview AI를 7.5만 파운드에 고소 20억 개의 이미지 데이터베이스를 만들기 위해 동의 없이 소셜 미디어에서 영국 거주자의 이미지를 수집했습니다.

5. 보안

보안이란 AI 시스템이 안전하고 사회를 위협하지 않도록 보장하는 것을 의미합니다. AI 보안 위협의 예는 다음과 같습니다. 적의 공격. 이러한 악의적인 공격은 ML 모델이 잘못된 결정을 내리도록 속입니다. 책임 있는 AI를 위해서는 사이버 공격으로부터 AI 시스템을 보호하는 것이 필수적입니다.

책임 있는 AI의 4가지 주요 과제 및 위험

1. 편견

연령, 성별, 국적 및 인종과 관련된 인간의 편견은 데이터 수집에 영향을 미쳐 잠재적으로 편향된 AI 모델로 이어질 수 있습니다. 미국 상무부 연구 안면 인식 AI가 유색 인종을 잘못 식별한다는 사실을 발견했습니다. 따라서 법 집행 기관에서 안면 인식에 AI를 사용하면 부당한 체포로 이어질 수 있습니다. 또한 공정한 AI 모델을 만드는 것은 어려운 일입니다. 21 다른 매개변수를 정의합니다. 따라서 트레이드 오프가 있습니다. 하나의 공정한 AI 매개변수를 만족한다는 것은 다른 매개변수를 희생한다는 것을 의미합니다.

2. 해석 가능성

해석성은 책임 있는 AI를 개발하는 데 있어 중요한 과제입니다. 이는 기계 학습 모델이 어떻게 특정 결론에 도달했는지 이해하는 것을 의미합니다.

심층 신경망은 여러 계층의 숨겨진 뉴런이 있는 블랙 박스로 작동하기 때문에 해석 가능성이 부족하여 의사 결정 프로세스를 이해하기 어렵습니다. 이는 의료, 금융 등과 같은 고부담 의사 결정에서 어려운 일이 될 수 있습니다.

또한 ML 모델에서 해석 가능성을 공식화하는 것은 어렵습니다. 주관적인 와 도메인별.

3. 통치

거버넌스는 AI 시스템의 개발 및 배포를 감독하는 일련의 규칙, 정책 ​​및 절차를 말합니다. 최근 조직이 프레임워크와 윤리적 지침을 제시하면서 AI 거버넌스 담론에 상당한 진전이 있었습니다.

윤리 지침 EU의 신뢰할 수 있는 AI호주 AI 윤리 프레임워크및 OECD AI 원칙 AI 거버넌스 프레임워크의 예입니다.

그러나 최근 몇 년간 AI의 급속한 발전은 이러한 AI 거버넌스 프레임워크를 능가할 수 있습니다. 이를 위해서는 AI 시스템의 공정성, 해석 가능성, 윤리성을 평가하는 프레임워크가 필요하다.

4. 규제

AI 시스템이 보편화됨에 따라 윤리적, 사회적 가치를 고려한 규제가 필요합니다. AI 혁신을 방해하지 않는 규정을 개발하는 것은 책임 있는 AI에서 중요한 과제입니다.

일반 데이터 보호 규정(GDPR), 캘리포니아 소비자 개인 정보 보호법(CCPA) 및 개인 정보 보호법(PIPL)이 규제 기관인 경우에도 AI 연구원은 다음을 발견했습니다. 97% 의 EU 웹사이트가 GDPR 법적 프레임워크 요구 사항을 준수하지 않습니다.

게다가 국회의원들은 중대한 도전 기존 AI 시스템과 최신 AI 애플리케이션을 모두 포함하는 AI의 정의에 대한 합의에 도달하는 것입니다.

책임 있는 AI의 3가지 주요 이점

1. 바이어스 감소

책임 있는 AI는 의사 결정 프로세스의 편견을 줄여 AI 시스템에 대한 신뢰를 구축합니다. AI 시스템의 편견을 줄이면 공정하고 공평한 의료 시스템을 제공하고 AI 기반 의료 시스템의 편견을 줄일 수 있습니다. 금융 서비스

2. 향상된 투명성

책임 있는 AI는 AI 시스템에 대한 신뢰를 구축하는 투명한 AI 애플리케이션을 만듭니다. 투명한 AI 시스템 오류 및 오용의 위험 감소. 향상된 투명성은 AI 시스템 감사를 더 쉽게 만들고 이해 관계자의 신뢰를 얻으며 책임 있는 AI 시스템으로 이어질 수 있습니다.

3. 더 나은 보안

보안 AI 애플리케이션은 데이터 프라이버시를 보장하고 신뢰할 수 있고 무해한 결과를 생성하며 사이버 공격으로부터 안전합니다.

같은 기술 거인 Microsoft 와 구글AI 시스템 개발의 최전선에 있는 는 Responsible AI 원칙을 개발했습니다. 책임 있는 AI는 AI의 혁신이 개인과 사회에 해롭지 않도록 보장합니다.

사상가, 연구자, 조직 및 법률 당국은 AI 혁신을 위한 안전한 미래를 보장하기 위해 책임 있는 AI 문헌을 지속적으로 수정해야 합니다.

더 많은 AI 관련 콘텐츠를 보려면 다음을 방문하세요. 단결.ai.