๋ก๋ณดํฑ์ค
์ ๋ขฐ์ๆฌบ็: ์ธ๊ฐ-๋ก๋ด ์ํธ์์ฉ์์ ์ฌ๊ณผํ๋ ์ญํ

로봇의 欺瞞은 연구되지 않은 분야로, 특히 로봇이 거짓말을 한 후 로봇 시스템에 대한 신뢰를 재건하는 문제에 대해서는 더 많은 질문이 있는 분야입니다. Georgia Tech의 두 명의 학생 연구자인 Kantwon Rogers와 Reiden Webber는 의도적인 로봇 欺瞞이 신뢰에 미치는 영향과 신뢰를 회복하는 데 사과의 효과를 조사함으로써 이 문제에 대한答案을 찾으려 하고 있습니다.
Rogers, 컴퓨팅 대학의 박사 과정 학생은 다음과 같이 설명합니다:
“우리의 모든 이전 연구는 사람들이 로봇이 거짓말을 한 것을 알게 되면 – 심지어 거짓말이 그들을 위해意図되었다고 해도 – 시스템에 대한 신뢰를 잃는다는 것을 보여주었습니다.”
연구자들은 인간-로봇 상호작용의 contexto에서 다양한 유형의 사과가 신뢰를 회복하는 데 더 효과적인지 여부를 결정하려고 합니다.
AI 보조 운전 실험 및 그 의미
두 사람은 고위험, 시간에 민감한 상황에서 인간-AI 상호작용을 연구하기 위해 운전 시뮬레이션 실험을 설계했습니다. 그들은 341명의 온라인 참가자와 20명의 현장 참가자를 모집했습니다. 시뮬레이션에는 경찰의 존재에 대한 거짓 정보를 제공하는 AI 보조 운전 시나리오가 포함되었습니다. 시뮬레이션 후에 AI는 다섯 가지 다른 텍스트 기반 응답 중 하나를 제공했으며, 다양한 유형의 사과와 비사과가 포함되었습니다.
결과는 참가자가 로봇 보조자가 조언할 때 속도 위반할 가능성이 3.5배 더 낮았으며, 이는 AI에 대한 과도한 신뢰를 나타냅니다. 사과 유형 중 어느 것도 완전히 신뢰를 회복하지 못했지만, 간단한 사과(“미안합니다”)는 다른 응답보다 더 나은 성과를 보였습니다. 이 발견은 문제가 있습니다. 로봇이 제공한 모든 거짓 정보는 시스템 오류가 아닌 의도적인 거짓말이라는先入観을 이용하기 때문입니다.
Reiden Webber는 다음과 같이 지적합니다:
“중요한 발견은 사람들이 로봇이 그들을欺瞞했다는 것을 이해하기 위해서는 명시적으로 알려야 한다는 것입니다.”
참가자가 사과에서 欺瞞을 인식할 때, 신뢰를 회복하는 데 가장 좋은 전략은 로봇이 왜 거짓말을 했는지 설명하는 것이었습니다.
향후 진행: 사용자, 설계자, 정책 입안자에 대한 의미
이 연구는 평균 기술 사용자, AI 시스템 설계자, 정책 입안자에게 중요한 의미를 가지고 있습니다. 사람들은 로봇의 欺瞞이 실제로 항상 가능성이 있다는 것을 이해해야 합니다. 설계자와 기술자들은 欺瞞이 가능한 AI 시스템을 생성하는 것의 결과를 고려해야 합니다. 정책 입안자는 혁신과 공공 보호의 균형을 잡는 입법을 주도해야 합니다.
Kantwon Rogers의 목표는 인간 팀과 협력할 때 로봇 시스템이 언제 거짓말을 하고 언제 하지 말아야 하는지, 그리고 장기적인 반복적인 인간-AI 상호작용에서 언제 그리고 어떻게 사과할 것인지 학습할 수 있는 시스템을 생성하는 것입니다.
그는 로봇 및 AI 欺瞞을 이해하고 규제하는 것의 중요성을 강조하며 다음과 같이 말합니다:
“私の 목표는 매우 적극적이고 로봇 및 AI 欺瞞을 규제하는 필요성을 알리는 것입니다. 그러나 우리는 문제를 이해하지 못한다면 그렇게 할 수 없습니다.”
이 연구는 AI 欺瞞 분야에 중요한 지식을 제공하며 기술 설계자와 정책 입안자에게 유용한 통찰력을 제공합니다. 그들은 欺瞞이 가능한 또는 자체적으로欺瞞을 학습할 수 있는 AI 기술을 생성하고 규제합니다.












