Rescale 미팅 예약

윤리학

AI와 조사 연구: 놀라운 협업

게재

 on

최근 공부 BYU의 정치학 및 컴퓨터 과학 교수와 대학원생으로 구성된 팀이 수행한 설문 조사 스타일 연구에서 인간 응답자를 대신하여 인공 지능(AI)을 사용할 가능성을 조사했습니다. 팀은 인간의 생각, 태도 및 다양한 하위 집단의 사회 문화적 맥락 사이의 복잡한 관계를 모방하는 GPT-3 언어 모델의 프로그래밍된 알고리즘의 정확성을 테스트했습니다.

인공 페르소나 및 투표 패턴

한 실험에서 연구원들은 인종, 나이, 이데올로기 및 종교와 같은 특정 특성을 AI에 할당하여 인공 페르소나를 만들었습니다. 그런 다음 이러한 인공 페르소나가 2012년, 2016년 및 2020년 미국 대통령 선거에서 인간이 했던 것과 같은 방식으로 투표하는지 여부를 테스트했습니다. ANES(American National Election Studies)를 비교 인간 데이터베이스로 사용하여 AI와 인간 투표 패턴 사이의 높은 일치성을 발견했습니다.

BYU 컴퓨터 과학 교수이자 이 연구의 공동 저자인 David Wingate는 결과에 대해 놀라움을 표시했습니다.

“모델이 정치학을 수행하도록 훈련되지 않았기 때문에 특히 흥미로웠습니다. 인터넷에서 다운로드한 천억 단어의 텍스트에 대해 훈련되었을 뿐입니다. 그러나 우리가 얻은 일관된 정보는 사람들이 실제로 어떻게 투표했는지와 매우 밀접하게 연결되어 있습니다.”

인터뷰 스타일 설문 조사 및 향후 응용 프로그램

또 다른 실험에서 연구자들은 인터뷰 스타일 설문 조사에서 옵션 목록의 응답을 제공하도록 인공 페르소나를 조정했으며 다시 ANES를 인간 샘플로 사용했습니다. 그들은 인간과 AI 반응의 미묘한 패턴 사이에 높은 유사성을 발견했습니다.

연구 결과는 연구원, 마케터 및 여론 조사원에게 흥미로운 전망을 제공합니다. AI를 사용하여 더 나은 설문 조사 질문을 만들고, 더 접근하기 쉽고 대표성이 있도록 개선하고, 도달하기 어려운 모집단을 시뮬레이션할 수도 있습니다. 또한 포커스 그룹을 수행하기 전에 설문 조사, 슬로건 및 태그라인을 테스트하는 데 사용할 수 있습니다.

BYU 정치학 교수 Ethan Busby는 다음과 같이 논평했습니다.

“인간을 대체하는 것이 아니라 사람을 보다 효과적으로 연구하는 데 도움이 됩니다. 그것은 우리의 능력을 대체하는 것이 아니라 강화하는 것입니다. 설문 조사와 메시징을 사전 테스트할 수 있어 사람들과의 작업에서 더 효율적일 수 있습니다.”

윤리적 질문 및 향후 연구

대규모 언어 모델이 계속 발전함에 따라 해당 응용 프로그램 및 의미와 관련하여 수많은 질문이 제기됩니다. 이 기술의 혜택을 받는 인구는 누구이며 부정적인 영향을 받는 인구는 누구입니까? 보다 정교한 피싱 사기를 만들기 위해 AI를 조작할 수 있는 사기꾼과 사기꾼으로부터 우리 자신을 어떻게 보호할 수 있습니까?

이러한 질문 중 많은 부분이 답이 없는 상태로 남아 있지만 이 연구는 미래의 연구자가 다양한 주제 영역에 대한 AI 모델의 정확성을 결정하는 데 사용할 수 있는 일련의 기준을 제공합니다.

Wingate는 AI 개발의 잠재적인 긍정적 및 부정적 결과를 인정합니다.

“새로운 기능을 활용할 수 있기 때문에 긍정적인 이점을 보게 될 것입니다. 또한 때때로 컴퓨터 모델이 부정확하고 때로는 편향되기 때문에 부정적인 일이 발생하는 것을 보게 될 것입니다. 계속해서 사회를 혼란스럽게 할 것입니다.”

Busby는 인공 페르소나를 조사하는 것이 실제 사람들을 조사할 필요성을 대체해서는 안 된다고 강조하고 학계와 전문가가 사회과학 연구에서 AI 조사의 윤리적 경계를 정의하는 데 협력할 것을 촉구합니다.

Alex McFarland는 인공 지능의 최신 개발을 탐구하는 AI 저널리스트이자 작가입니다. 그는 전 세계 수많은 AI 스타트업 및 출판물과 협력해 왔습니다.