부본 연구자들이 오랫동안 지켜온 기계 학습 가정에 도전하다 - Unite.AI
Rescale 미팅 예약

윤리학

연구자들은 오랫동안 지켜온 기계 학습 가정에 도전합니다.

게재

 on

Carnegie Mellon University의 연구원들은 공공 정책 결정을 내리는 데 사용되는 알고리즘의 정확성과 공정성 사이에 상충 관계가 있다는 오랜 기계 학습 가정에 도전하고 있습니다. 

기계 학습의 사용은 형사 사법, 고용, 의료 서비스 제공 및 사회 서비스 개입과 같은 많은 영역에서 증가하고 있습니다. 이러한 성장과 함께 이러한 새로운 애플리케이션이 기존 불평등을 악화시킬 수 있는지에 대한 우려도 높아집니다. 그들은 소수 인종이나 경제적으로 불리한 개인에게 특히 해로울 수 있습니다. 

시스템 조정

편견을 방지하기 위해 데이터, 레이블, 모델 교육, 채점 시스템 및 기타 시스템 측면을 지속적으로 조정합니다. 그러나 이러한 조정이 많을수록 시스템의 정확도가 떨어진다는 이론적 가정이 있었습니다. 

CMU의 팀은 XNUMX년 XNUMX월 XNUMX일에 발표된 새로운 연구에서 이 이론에 도전하기 시작했습니다. 자연 기계 지능.

Rayid Ghani는 컴퓨터 과학 대학 기계 학습 부서(MLD)와 Heinz 정보 시스템 및 공공 정책 대학의 교수입니다. 그는 MLD의 연구 과학자인 Kit Rodolfa와 합류했습니다. 그리고 SCS의 박사 후 연구원인 Hemank Lamba. 

실제 애플리케이션 테스트

연구원들은 실제 응용 프로그램에서 이 가정을 테스트했고, 그들이 발견한 것은 많은 정책 영역에서 트레이드 오프가 무시할 수 있다는 것입니다. 

“실제로 둘 다 얻을 수 있습니다. 공정하고 공평한 시스템을 구축하기 위해 정확성을 희생할 필요가 없습니다.”라고 Ghani는 말했습니다. “하지만 시스템을 공정하고 공평하게 의도적으로 설계해야 합니다. 기성품 시스템은 작동하지 않습니다.”

팀은 수요가 많은 리소스가 제한된 상황에 집중했습니다. 이러한 리소스의 할당은 머신 러닝의 도움을 받습니다.

그들은 네 가지 영역의 시스템에 중점을 두었습니다.

  • 재감금을 줄이기 위해 감옥에 다시 갈 위험에 따라 제한된 정신 건강 치료의 우선 순위를 정합니다.
  • 도시의 제한된 주택 검사관을 더 잘 배치하기 위해 심각한 안전 위반을 예측합니다.
  • 추가 지원이 가장 필요한 학생을 식별하기 위해 고등학교를 제때 졸업하지 못하는 학생의 위험을 모델링합니다.
  • 교사가 학급에서 필요한 크라우드 펀딩 목표를 달성하도록 지원합니다.

연구자들은 정확성을 위해 최적화된 모델이 관심 있는 결과를 효과적으로 예측할 수 있음을 발견했습니다. 그러나 그들은 또한 중재에 대한 권장 사항에서 상당한 차이를 보여주었습니다. 

연구자들이 공정성 향상을 목표로 하는 모델의 출력에 조정을 적용했을 때 중요한 결과가 나왔습니다. 그들은 인종, 연령 또는 수입에 따른 격차가 제거될 때 정확도의 손실이 없다는 것을 발견했습니다. 

Rodolfa는 "우리는 인공 지능, 컴퓨터 과학 및 기계 학습 커뮤니티가 정확성과 공정성 간의 절충이라는 가정을 받아들이지 않고 두 가지를 모두 극대화하는 시스템 설계를 의도적으로 시작하기를 원합니다."라고 말했습니다. "우리는 정책 입안자들이 공평한 결과를 달성하는 데 도움이 되는 의사 결정 도구로 기계 학습을 수용하기를 바랍니다."

Alex McFarland는 인공 지능의 최신 개발을 탐구하는 AI 저널리스트이자 작가입니다. 그는 전 세계 수많은 AI 스타트업 및 출판물과 협력해 왔습니다.