Connect with us

로보틱스

연구는 로봇이 인간인 척할 때 더 설득력 있음을 시사한다

mm

인공지능의 발전으로 인간과 구별하기 어려울 정도로 발전한 봇과 기계들이 등장했다. 최근 컴퓨터 과학 연구자들은 인간이 로봇을 인간으로 믿을 때 로봇과 인간의 상호작용을 연구했다. ScienceDaily에 따르면, 연구 결과에 따르면 사람들은 봇을 인간으로 믿을 때 더 설득력 있게 여긴다.

NYU Abu Dhabi의 Talal Rahwan 교수는 최근 로봇과 인간의 상호작용을 연구했다. 실험 결과는 Nature Machine Intelligence에 발표되었으며, Transparency-Efficiency Tradeoff in Human-Machine Cooperation이라는 보고서에 실렸다. 연구 참가자들은 파트너와 협력 게임을 하도록 지시받았으며, 파트너는 인간이거나 봇일 수 있다.

게임은 클래식 프린저의 딜레마를 변형한 것으로, 참가자들은 매 라운드마다 협력하거나 배신할지 결정해야 한다. 참가자들은 파트너의 정체에 대한 올바르거나 잘못된 정보를 제공받았으며, 일부 참가자들은 실제로 인간과 게임을 하지만 봇과 게임을 하는 것으로 속았다. 다른 참가자들은 반대의 상황이었다. 연구팀은 참가자들이 봇을 파트너로 믿을 때 어떻게 다르게 행동하는지 측정할 수 있었다. 연구팀은 봇에 대한 편견이 얼마나 존재하는지 그리고 이러한 태도가 봇과의 상호작용에 어떻게 영향을 미치는지 추적했다.

실험 결과는 봇이 인간으로 믿을 때 더 효과적으로 협력을 이끌어낼 수 있음을 보여주었다. 그러나 봇의 정체가 밝혀지면 협력 수준이 떨어진다. Rahwan은 많은 과학자와 윤리학자들이 인공지능이 투명하게 의사결정을 해야 한다고 동의하지만, 다른 사람들과 상호작용할 때 자신의 본질에 대해 투명해야 하는지에 대해서는 명확하지 않다고 설명했다.

지난해 Google Duplex는 스테이지 데모에서 전화 통화와 예약을 사용자의 대리인으로서 수행할 수 있음을 보여주었으며, 사람들은 봇과 통화하고 있다는 사실을不知道했다면 실제 사람으로 착각할 정도로 정교한 인간 같은 음성을 생성했다. Google Duplex의 데뷔 이후 많은 AI와 로봇 윤리학자들이 기술에 대한 우려를 표명했으며, Google은 향후 에이전트가 봇임을 식별할 것이라고 말했다. 현재 Google Duplex는 매우 제한된 용도로만 사용되고 있으며, 곧 뉴질랜드에서 비즈니스 운영 시간을 확인하는 용도로 사용될 예정이다. 그러나 윤리학자들은 기술이 어떻게 악용될 수 있는지에 대한 우려를 계속하고 있다.

Rahawan은 최근 연구가 투명성의 대가로 지불할 수 있는 비용을 고려해야 함을 시사한다.

“이런 시스템을 개발하는 것이 윤리적일까? 봇이 인간인 척하는 것을 금지하고, 봇이 누구인지에 대해 투명하게 해야 할까? 만약答案이 ‘예’라면, 우리의 연구 결과는 투명성의 효율성 비용을 지불할 수 있는 기준을 설정할 필요성을 강조한다.”

블로거이자 프로그래머로 Machine Learning Deep Learning 주제에 전문가입니다. 다니엘은 다른 사람들이 AI의 힘을 사회적善으로 사용하는 것을 돕기를 희망합니다.