부본 AI Now Institute, 감정 감지 소프트웨어 오용 및 기타 윤리적 문제 경고 - Unite.AI
Rescale 미팅 예약

윤리학

AI Now Institute, 감정 감지 소프트웨어의 오용 및 기타 윤리적 문제에 대해 경고

mm
업데이트 on

AI 나우 인스티튜트(AI Now Institute)는 국회의원 및 기타 규제 기관에 감정 감지 기술 사용에 대한 엄격한 제한을 설정하고 직원 채용이나 학생 수용과 같은 중요한 결정을 내리는 데 사용될 수 있는 경우에 감정 감지 기술을 금지할 것을 촉구하는 보고서를 발표했습니다. 또한 보고서에는 AI 분야의 다양한 주제에 대한 여러 가지 다른 제안이 포함되어 있습니다.

XNUMXD덴탈의 AI 나우 연구소 NYU에 기반을 둔 연구소로, AI가 사회에 미치는 영향을 연구한다는 미션을 가지고 있습니다. AI Now는 AI 연구 상태와 현재 AI가 어떻게 사용되고 있는지에 대한 윤리적 의미에 대한 조사 결과를 보여주는 연간 보고서를 발표합니다. BBC가 보도한 대로, 올해 보고서는 알고리즘 차별, AI 연구의 다양성 부족, 노동 문제와 같은 주제를 다루었습니다.

감정 감지 알고리즘의 기술 용어인 정서 인식은 AI 연구에서 빠르게 성장하는 분야입니다. 결정을 내리기 위해 이 기술을 사용하는 사람들은 종종 시스템이 목소리 톤 및 신체 언어와 같은 다른 단서와 함께 미세한 표현을 분석하여 사람들의 감정 상태에 대한 신뢰할 수 있는 정보를 도출할 수 있다고 주장합니다. AI Now 연구소는 이 기술이 누구를 고용할지 결정하고, 보험료를 책정하고, 학생들이 수업에 주의를 기울이고 있는지 모니터링하는 것과 같은 광범위한 응용 분야에서 사용되고 있다고 지적합니다.

AI Now의 공동 설립자인 Kate Crawford 교수는 인간의 감정이 비교적 간단한 모델로 정확하게 예측될 수 있다고 종종 믿었다고 설명했습니다. Crawford는 일부 기업들이 얼굴에 등록되는 감정의 기본 유형이 XNUMX가지뿐이라는 가설을 세운 심리학자 Paul Ekman의 작업에 소프트웨어 개발을 기반으로 하고 있다고 말했습니다. 그러나 Crawford는 Ekman의 이론이 도입된 이후 연구에서 얼굴 표정의 변동성이 훨씬 더 크고 상황과 문화에 따라 표정이 매우 쉽게 변할 수 있다는 사실을 발견했다고 지적합니다.

"이러한 기술이 출시되는 것과 동시에 많은 연구에서 사람들이 느끼는 감정과 얼굴 표정 사이에 일관된 관계가 있다는 실질적인 증거가 없다는 것을 보여주고 있습니다." 크로포드가 BBC에 말했다..

이러한 이유로 AI Now 연구소는 감정 인식의 많은 부분이 신뢰할 수 없는 이론과 의심스러운 과학에 기반하고 있다고 주장합니다. 따라서 감정 감지 시스템은 더 많은 연구가 수행되고 "정부는 고부담 의사 결정 프로세스에서 감정 인식의 사용을 구체적으로 금지해야 한다"는 결론을 내릴 때까지 배치해서는 안 됩니다. AI Now는 특히 고용, 교육, 치안을 포함하는 "민감한 사회적 정치적 맥락"에서 기술 사용을 중단해야 한다고 주장했습니다.

감정 인식을 전문으로 하는 적어도 하나의 AI 개발 회사인 Emteq는 기술의 오용을 방지하는 규제가 있어야 한다는 데 동의했습니다. Emteq의 설립자인 Charles Nduka는 BBC에 AI 시스템이 다양한 얼굴 표정을 정확하게 인식할 수 있지만 표정에서 감정으로의 간단한 지도는 없다고 설명했습니다. Nduka는 규제가 너무 심하고 연구를 질식시키는 것에 대해 우려를 표명하면서 "금지될 경우 사람들이 목욕물과 함께 아기를 버리지 않는 것이 매우 중요하다"고 언급했습니다.

NextWeb 보고서로, AI Now는 또한 AI 산업을 발전시키는 데 도움이 되는 여러 가지 다른 정책과 규범을 권장했습니다.

AI Now는 AI 산업이 작업장을 더욱 다양화해야 할 필요성을 강조하고 근로자가 침습적이고 착취적인 AI에 대한 우려를 표명할 권리를 보장해야 한다고 말했습니다. 기술 근로자는 또한 자신의 노력이 유해하거나 비윤리적인 작업을 구성하는 데 사용되는지 여부를 알 권리가 있습니다.

AI Now는 또한 의원들이 건강 관련 AI에서 파생된 모든 데이터의 사용에 대해 정보에 입각한 동의를 요구하는 조치를 취할 것을 제안했습니다. 이 외에도 데이터 개인 정보 보호를 더 심각하게 받아들이고 국가가 개인 및 공공 기관 모두를 포괄하는 생체 데이터에 대한 개인 정보 보호법을 설계하기 위해 노력해야 한다는 조언이 있었습니다.

마지막으로 연구소는 AI 산업이 AI의 더 큰 정치적, 사회적, 생태적 결과를 다루기 위해 더 글로벌하게 생각하고 행동하기 시작하라고 조언했습니다. 지리적 이동 및 기후에 관한 AI의 영향을 설명하기 위한 실질적인 노력이 있고 정부가 AI 산업의 기후 영향을 공개적으로 사용할 수 있도록 해야 한다는 것이 권장되었습니다.