부본 가속화된 AI 채택을 위한 산업 준비로서 윤리 및 책임에 대한 새로운 초점 - Unite.AI
소셜 네트워크

사상가

가속화된 AI 채택을 위한 산업 준비로서 윤리 및 책임에 대한 새로운 초점

mm

게재

 on

By: 판두랑 카마트 CTO 영구 시스템

인공지능(AI)의 핵심은 기계 학습 (ML), 머신이 데이터 입력을 기반으로 성능을 개선하는 방법을 학습하는 프로세스입니다. 오늘날 기존 데이터의 엄청난 양은 AI가 번창할 수 있는 비옥한 기반을 가지고 있다는 것을 의미합니다. 지난 몇 년 동안 엄청난 속도로 가속. 그리고 AI의 약속은 다양한 응용 프로그램에 대해 창의적으로 생각하는 광범위한 산업의 기술자와 경영진을 얻었습니다.

산업 혁명 이후 급속한 기술 발전의 시기는 열광과 공포로 특징지어집니다. 그만큼 월드 와이드 웹 컨소시엄 웹 개발자 산업 표준을 만드는 그룹인 W3C(WXNUMXC)는 편견, 개인 정보 보호, 보안, 지속 가능성 및 보안과 같은 영역을 포함하여 "머신 러닝의 적용이 위험을 초래하고 해를 끼칠 수 있다는 인식이 증가하고 있다"고 지적합니다. 전반적인 책임.

"시민 사회의 행동주의, 전 세계적으로 약 100세트의 윤리적 AI 원칙의 출현, 정부가 AI를 규제하기 위해 전 세계적으로 움직이고 있음을 통해 볼 수 있듯이 ML에 대한 윤리적 접근에 대한 분명한 요구가 있습니다." 그룹이 썼다. "기술이 작동하는 사회의 가치와 일치하지 않으면 기술을 약화시킬 위험이 있습니다."

현명하게 선택

표면적으로 향상된 속도와 출력이 비즈니스에 좋지 않다고 주장하기는 어렵습니다. 그러나 특정 산업의 경우 일부 사람들이 알고리즘에 맡겨서는 안 된다고 주장하는 의사 결정 프로세스와 관련된 많은 문제가 있습니다. 몇몇 대규모 산업을 살펴보면 우리가 기계 오류에 얼마나 취약한지, 그리고 책임 있는 AI가 왜 그토록 중요한지 알 수 있습니다.

은행, 금융 서비스 및 보험(BFSI)

세계경제포럼(WEF)과 딜로이트는 BFSI 기업에서 AI를 배치하는 과정을 조사한 결과 "AI가 엄청난 양의 정보에서 유용한 비즈니스 통찰력을 창출하는 데 도움이 될 수 있지만" "AI의 외래성"이 진행중인 심각한 위험.

보고서는 "AI가 비인간적인 방식으로 추론한다"고 말합니다. “AI 시스템은 인간의 논리 구조를 따르지 않으며 동일한 작업을 수행하는 인간 행위자와 매우 다르게 행동합니다. 또한 AI 시스템의 자체 학습 특성으로 인해 사람의 입력 없이도 진화할 수 있으므로 알려지지 않은 변수를 기반으로 예상치 못한 결과가 발생할 수 있습니다.”

책임 있는 AI 지지자들은 머신 러닝이 자동 위험 점수 매기기, 신용, 대출 결정과 같은 것들에 심각한 문제를 제기하며, 이 모든 것은 역사적으로 특정 인구 통계에 해롭다고 주장합니다. 최근 연구에 따르면 AI 기반 의사 결정 엔진을 사용하는 대출 기관은 유색 인종에 대한 주택 대출을 거부할 가능성이 더 높습니다. 흑인 지원자의 80%는 거절당할 확률이 더 높습니다..

의료

몇 년 전 미국 의학 협회 저널 (JAMA) 의료 분야의 AI 채택을 살펴보면서 "비현실적인 기대치, 편향되고 대표적이지 않은 데이터, 형평성 및 포함의 부적절한 우선 순위 지정, 의료 서비스 불균형 악화 위험, 낮은 수준의 신뢰 및 불확실함을 포함하여 많은 문제가 있음을 발견했습니다. 규제 환경.”

강력한 지지는 아니지만, 특히 말 그대로 삶과 죽음을 가르는 잠재력을 고려할 때 의료 분야에서 책임 있는 AI에 대한 더 높은 기준이 있습니다. 전반적으로 의료 전문가는 낙관적이지만 AI의 미래에 대해 경계하며 임상 환경에서 AI의 사용에 대해 다른 의사를 교육하는 데 노력을 집중하고 모든 환자에게 혜택을 주는 방식으로 책임감 있게 앞으로 나아가는 방법에 대한 지침을 만드는 것을 선택합니다.

미디어

PwC는 AI가 15.7년까지 세계 경제 성장에 2030조 XNUMX억 달러를 제공할 것으로 추정합니다.하지만, 세일즈포스에 따르면 고객의 절반 미만(48%)이 회사가 AI를 윤리적으로 사용한다고 신뢰하고 65%는 AI의 비윤리적 사용에 대해 우려합니다. 수익과 신뢰의 연결 고리에는 도달 범위와 영향력이 큰 얼리 어답터인 미디어 회사가 있습니다. 그리고 AI가 "설정하고 잊어버리는" 애플리케이션이 아니라는 사실에 대한 우려가 있습니다. 즉, 미디어 회사의 책임은 콘텐츠 제작뿐만 아니라 배포 후 지속적인 모니터링에도 있습니다.

광고는 어떻게 제공되고 개인화됩니까? 콘텐츠가 특정 청중에게 어떻게 도달하고 메시지는 무엇입니까? AI에게 학습 방법을 가르치는 사람은 누구입니까? 개인 정보를 존중하면서 어떻게 특정 소비자를 타겟팅할 수 있습니까? 이는 경쟁 우위 확보와 윤리 사이에서 균형을 유지해야 하는 미디어 회사를 괴롭히는 질문 중 일부에 불과합니다.

책임에 대한 반응

책임 있는 AI 개발의 진전은 매일 분명합니다. 입법자들은 규정을 작성하고 소비자는 더 많은 투명성을 요구하고 있으며 많은 회사는 AI가 적절하게 사용되도록 하는 특정 부서를 만들었습니다. 기업에는 잘 정의된 책임 있는 AI 프레임워크 윤리, 투명성, 책임, 공정성, 개인 정보 보호 및 보안을 다룹니다. 논의와 개혁이 계속되면서 MIT Sloan Management Review와 Boston Consulting Group의 최근 공동 연구 몇 가지 간단한 전반적인 지침을 제공합니다. 그들은 "책임 있는 AI 리더가 되고 싶다면 책임 있는 회사가 되는 데 집중하십시오."라고 썼습니다.

Pandurang Kamat 박사는 영구 시스템, 그는 대규모 혁신을 통해 비즈니스 가치를 창출하는 데 중점을 둔 첨단 기술 연구를 담당하고 있습니다. 그는 고객이 사용자 경험을 개선하고 비즈니스 프로세스를 최적화하며 새로운 디지털 제품을 만들 수 있도록 돕는 노련한 기술 리더입니다. Persistent에 대한 그의 비전은 학계와 신생 기업으로 구성된 글로벌하고 다양한 혁신 생태계를 기반으로 하는 혁신 강국이 되는 것입니다.