부본 로봇이 인간인 척 할 때 더 설득력이 있다는 연구 결과 - Unite.AI
Rescale 미팅 예약

로보틱스

연구에 따르면 로봇은 인간인 척 할 때 더 설득력이 있습니다.

mm

게재

 on

인공 지능의 발전으로 디지털 매체를 통해서만 사람들과 상호 작용할 경우 잠재적으로 인간으로 통할 수 있는 봇과 기계가 만들어졌습니다. 최근 컴퓨터 과학 연구팀은 인간이 로봇도 인간이라고 믿을 때 로봇/기계와 인간이 어떻게 상호 작용하는지 연구했습니다. ScienceDaily에서 보고한 바와 같이, 연구 결과 사람들은 로봇/챗봇이 인간이라고 믿을 때 더 설득력이 있다는 것을 발견했습니다.

NYU Abu Dhabi의 컴퓨터 과학 부교수 Talal Rahwan은 최근 로봇과 인간이 서로 어떻게 상호 작용하는지 조사하는 연구를 주도했습니다. 실험 결과는 에 게재되었습니다. 자연 기계 지능 Human-Machine Cooperation의 Transparency-Efficiency Tradeoff라는 보고서에서. 연구 과정에서 피험자는 파트너와 협동 게임을 하도록 지시받았으며 파트너는 인간 또는 봇일 수 있습니다.

이 게임은 고전적인 죄수의 딜레마(Prisoner's Dilemma)를 변형한 것으로, 참가자는 매 라운드마다 협력할지 아니면 상대방을 배신할지 결정해야 합니다. 죄수의 딜레마에서 한 쪽은 다른 플레이어의 비용으로 이익을 달성하기 위해 파트너를 배신하고 배신할 수 있으며, 협력을 통해서만 양측이 이익을 보장할 수 있습니다.

연구원들은 파트너의 신원에 대한 정확하거나 잘못된 정보를 제공하여 테스트 대상을 조작했습니다. 참가자 중 일부는 파트너가 실제로 인간임에도 불구하고 봇과 놀고 있다는 말을 들었습니다. 다른 참가자들은 정반대의 상황에 처해 있었다. 실험 과정에서 연구팀은 파트너가 봇이라는 말을 들었을 때 사람들이 파트너를 다르게 대하는지 정량화할 수 있었습니다. 연구자들은 봇에 대한 편견의 정도와 이러한 태도가 자신을 식별한 봇과의 상호 작용에 어떤 영향을 미치는지 추적했습니다.

실험 결과는 인간이 봇도 인간이라고 믿었을 때 봇이 파트너로부터 협력을 이끌어내는 데 더 효과적이라는 것을 보여주었다. 하지만 그 봇이 봇이라는 사실이 밝혀지자 협력 수준이 떨어졌다. Rahwan은 많은 과학자와 윤리학자가 AI가 의사 결정 방법에 대해 투명해야 한다는 데 동의하지만 다른 사람과 의사소통할 때 자신의 본성에 대해서도 투명해야 한다는 점은 덜 명확하다고 설명했습니다.

작년에 구글 듀플렉스(Google Duplex)는 무대 시연에서 전화를 걸고 약속을 예약할 수 있다는 것을 보여주면서 화제를 불러일으켰습니다. 너무 정교해서 많은 사람들이 실제 사람으로 착각했을 것입니다. 그들이 봇과 대화하고 있다는 말을 듣지 않았습니다. Google Duplex가 출시된 이후 많은 AI 및 로봇 윤리학자들이 이 기술에 대한 우려를 표명했으며 Google은 에이전트가 자신을 식별하도록 합니다. 미래에 봇으로. 현재 Google Duplex만 사용 중입니다. 매우 제한된 용량으로. 곧 뉴질랜드에서 사용 참조, 그러나 비즈니스의 운영 시간을 확인하기 위해서만. 윤리학자들은 여전히 ​​기술이 오용될 수 있는 정도에 대해 우려하고 있습니다.

라하완은 주장한다 최근 연구는 투명성에 대한 대가로 기꺼이 지불할 비용을 고려해야 함을 보여줍니다.

“그런 시스템을 개발하는 것이 윤리적입니까? 봇이 인간 행세를 하는 것을 금지하고 자신이 누구인지 투명하게 밝혀야 합니까? 대답이 '예'라면 우리가 발견한 결과는 그러한 투명성에 대한 대가로 기꺼이 지불할 효율성 비용에 대한 표준을 설정해야 할 필요성을 강조합니다.”

전문 분야의 블로거 및 프로그래머 기계 학습 깊은 학습 주제. 다니엘은 다른 사람들이 사회적 이익을 위해 AI의 힘을 사용하도록 돕기를 희망합니다.