Connect with us

๊ธˆ์œต ๋ฒ”์ฃ„ ๋‚ด์—์„œ AI ๊ธฐ๋ฐ˜ ์‹œ์Šคํ…œ์˜ ํŽธํ–ฅ๊ณผ ๊ณต์ •์„ฑ

์‚ฌ์ƒ ๋ฆฌ๋”

๊ธˆ์œต ๋ฒ”์ฃ„ ๋‚ด์—์„œ AI ๊ธฐ๋ฐ˜ ์‹œ์Šคํ…œ์˜ ํŽธํ–ฅ๊ณผ ๊ณต์ •์„ฑ

mm

금융 범죄와 싸울 때, 단순히 사기꾼이나 나쁜 배우를 막는 것을 넘어서는 도전이 있습니다.

최근 출시되는 가장 최신의 고급 기술은 채택 단계에서 고려해야 할 특정 문제가 있는 경우가 많습니다. 이러한 기술을 사용하여 사기꾼을 효과적으로 막기 위해 규제적 결과를 피하는 데 필요한 것입니다. 사기 탐지에서 모델 공정성과 데이터 편향은 시스템이 특정 그룹 또는 데이터 범주를 더 많이 가중하거나 대표하지 않을 때 발생할 수 있습니다. 이론적으로, 예측 모델은 다른 문화의 성을 사기성 계정과 잘못 연관시킬 수 있거나 특정 유형의 금융 활동에 대한 인구 통계 세분의 위험을 잘못 낮출 수 있습니다.

편향된 AI 시스템은 데이터가 인구나 현상에 대표적이지 않을 때 심각한 위협을 나타낼 수 있습니다. 또는 데이터가 우리가 예측하려는 현상을 적절하게 포착하지 않는 변수를 포함하지 않을 수 있습니다. 또는 데이터에는 편향을 포함하는 인간이 생성한 콘텐츠가 포함될 수 있으며, 이는 문화적 및 개인적 경험에 의해 유래한 편향을 특정 그룹에 전달할 수 있습니다. 이는 결정을 내릴 때 왜곡을 일으킬 수 있습니다. 처음에 데이터는 객관적으로 보일 수 있지만, 여전히 인간에 의해 수집되고 분석되므로 편향될 수 있습니다.

AI 시스템이나 기계 학습 모델의 설계와 사용에서 편향과 공정성 완화를 위한 영원한 해결책은 없지만, 이러한 문제는 사회적 및 비즈니스 이유로 고려해야 합니다.

AI에서 올바른 일을 하는 것

AI 기반 시스템에서 편향을 해결하는 것은 비즈니스 리더에게 높은 스테이크를 가진 올바른 일이며, 또한 지능적인 일입니다. 편향된 AI 시스템은 기회, 자원, 정보 또는 서비스의 품질을 부당하게 할당하여 금융 기관을 잘못된 길로 이끌 수 있습니다. 또한 민권을 침해하거나 개인의 안전을 위협하거나, 비방적이거나 공격적으로 인식될 경우 개인의 복지를 손상시킬 수 있습니다.

기업은 AI 편향의 위험과 강점을 이해하는 것이 중요합니다. 기관에 알려지지 않은 편향된 AI 기반 시스템은 차별적 모델이나 데이터를 사용하여 대출 결정에 인종이나 성별 편향을 노출할 수 있습니다. 이름 및 성별과 같은 정보는 불법적인 방법으로申请자를 분류하고 식별하는 데 사용될 수 있는 대리물일 수 있습니다. 편향이 의도적이지 않더라도, 이는 규제 요구 사항을 준수하지 않으며 특정 그룹의 사람들이 부당하게 대출이나 신용을 거부받을 수 있으므로 기관에 위험을 초래합니다.

현재, 조직은 AI 시스템에서 편향을 성공적으로 완화하는 데 필요한 조각이 없습니다. 그러나 AI가 의사 결정 자동화 프로세스를 지원하고 비용을 절감하는 데越来越 많이 사용됨에 따라, 금융 기관은 편향된 결정이 발생하지 않는지 확인하기 위해 주의해야 합니다. 규제 책임자는 데이터 과학 팀과 함께 일해야 합니다. 이를 통해 AI 기능이 책임이 있으며, 효과적이고 편향이 없다는 것을 확인할 수 있습니다. 책임 있는 AI를 옹호하는 전략은 올바른 일이며, 이는 또한 미래의 AI 규제와의 규정 준수를 위한 길을 제공할 수 있습니다.

“공정성 인식” 문화와 구현

공정성 인식 설계와 구현에 초점을 맞춘 솔루션은 가장 유익한 결과를 가져올 것입니다. 제공자는 책임 있는 데이터 수집, 처리 및 관리를 알고리즘 공정성의 필수 구성 요소로 간주하는 분석 문화를 가져야 합니다. AI 프로젝트의 결과가 편향된, 손상된 또는 왜곡된 데이터 세트에서 생성되면, 영향을 받는 당사자는 차별적 손해에서 적절히 보호되지 않을 것입니다.

데이터 과학 팀이 고려해야 할 데이터 공정성의 요소는 다음과 같습니다:

  • 대표성:컨텍스트에 따라, 불이익을 받거나 법적으로 보호되는 그룹의 데이터 샘플에서 과대 또는 과소 대표는 훈련된 모델의 결과에서 취약한 당사자를 체계적으로 불이익으로 만들 수 있습니다. 이러한 샘플링 편향을 피하기 위해, 도메인 전문 지식은 수집된 데이터와 모델링할 인구 사이의 적합성을 평가하는 데 중요합니다. 기술 팀 구성원은 샘플링의 대표성 결함을 수정하기 위한 수단을 제공해야 합니다.
  • 목적에 맞는 것과 충분성:데이터가 수집된 목적에 충분한지 이해하는 것이 중요합니다. 불충분한 데이터 세트는 AI 시스템의 원하는 결과를 일관되게 생산하기 위해 고려해야 할 속성을 공정하게 반영하지 않을 수 있습니다. 따라서 프로젝트 팀의 기술 및 정책 전문성 소유자는 데이터 양이 충분하고 목적에 맞는지 함께 결정해야 합니다.
  • 소스 무결성 및 측정 정확성:효과적인 편향 완화는 데이터 추출 및 수집 프로세스의 시작부터 시작됩니다. 측정의 소스와 도구는 데이터 세트에 차별적 요인을 도입할 수 있습니다. 차별적 손해를 피하기 위해, 데이터 샘플은 최적의 소스 무결성을 가져야 합니다. 이는 데이터 수집 프로세스에 적합하고, 신뢰할 수 있으며, 편향이 없는 측정의 소스와 강력한 수집 방법을 보장하는 것을 포함합니다.
  • 시기와 신선도: 데이터 세트에 오래된 데이터가 포함된 경우, 기본 데이터 분포의 변경은 훈련된 모델의 일반화에 부정적으로 영향을 미칠 수 있습니다. 이러한 분포 이동이 사회적 관계 또는 그룹 역학의 변경을 반영한다면, 이는 실제 특성에 대한 정확성의 손실을 초래하여 AI 시스템에 편향을 도입할 수 있습니다. 차별적 결과를 방지하기 위해, 데이터 세트의 모든 요소의 시기와 신선도를 면밀히 조사해야 합니다.
  • 관련성, 적절성 및 도메인 지식: 가장 적절한 소스와 데이터 유형의 이해와 사용은 강력하고 편향이 없는 AI 시스템을 구축하는 데 중요합니다. 기본 인구 분포와 프로젝트의 예측 목표에 대한扎实한 도메인 지식은 합리적인 해결책을 달성하기 위해 기여하는 최적의 관련 측정 입력을 선택하는 데 중요합니다. 도메인 전문가들은 데이터 과학 팀과 긴밀히 협력하여 최적의 범주와 측정 소스를 결정하는 데 도움을 줄 수 있습니다.

AI 기반 시스템은 의사 결정 자동화 프로세스를 지원하고 비용을 절감하는 데 도움이 되지만, 금융 기관은 편향된 결정이 발생하지 않는지 확인하기 위해 주의해야 합니다. 규제 책임자는 데이터 과학 팀과 함께 일해야 합니다. 이를 통해 AI 기능이 책임이 있으며, 효과적이고 편향이 없다는 것을 확인할 수 있습니다. 책임 있는 AI를 옹호하는 전략은 올바른 일이며, 이는 또한 미래의 AI 규제와의 규정 준수를 위한 길을 제공할 수 있습니다.

Danny Butvinik๋Š” NICE Actimize์˜ Chief Data Scientist๋กœ ๊ธฐ์ˆ ์ ์ด๊ณ  ์ „๋ฌธ์ ์ธ ๋ฆฌ๋”์‹ญ์„ ์ œ๊ณตํ•ฉ๋‹ˆ๋‹ค. Danny๋Š” ์ธ๊ณต ์ง€๋Šฅ๊ณผ ๋ฐ์ดํ„ฐ ๊ณผํ•™์˜ ์ „๋ฌธ๊ฐ€๋กœ ์—ฌ๋Ÿฌ ๊ณผํ•™์  ๊ธฐ์‚ฌ์™€ ๋…ผ๋ฌธ์„ ์ €์ˆ ํ–ˆ์Šต๋‹ˆ๋‹ค. ํ˜„์žฌ์˜ ์—ญํ• ์—์„œ ๊ทธ๋Š” ๋Œ€๊ทœ๋ชจ ๋ฐ์ดํ„ฐ ๊ณผํ•™์ž ๊ทธ๋ฃน์„ ๊ด€๋ฆฌํ•˜๋ฉฐ ํšŒ์‚ฌ์˜ ํ˜์‹ ๊ณผ ์ง€์  ์žฌ์‚ฐ์˜ ์„ฑ์žฅ์— ๊ธฐ์—ฌํ•˜๋ฉฐ, ๋ฐ์ดํ„ฐ ๊ณผํ•™ ๋ฐ ์†Œํ”„ํŠธ์›จ์–ด ๊ฐœ๋ฐœ์—์„œ 15๋…„ ์ด์ƒ์˜ ์—ฐ๊ตฌ, ๊ฐœ๋ฐœ ๋ฐ ๊ด€๋ฆฌ ๊ฒฝํ—˜์„ ๋ณด์œ ํ•˜๊ณ  ์žˆ์Šต๋‹ˆ๋‹ค.