Connect with us

AI๊ฐ€ ๋ฏผ์ฃผ์  ๋Œ€ํ™”์˜ ๋ฏธ๋ž˜๋ฅผ ํ˜•์„ฑํ•˜๋Š” ๋ฐฉ๋ฒ•

์ธ๊ณต์ง€๋Šฅ

AI๊ฐ€ ๋ฏผ์ฃผ์  ๋Œ€ํ™”์˜ ๋ฏธ๋ž˜๋ฅผ ํ˜•์„ฑํ•˜๋Š” ๋ฐฉ๋ฒ•

mm

오늘날 정치적으로 양극화된 세계에서 복잡한 사회적 및 정치적 문제에 대한 공통점을 찾는 것은 점점 더 어려워지고 있다. 사회가 더 다양해짐에 따라 기후 변화, 이민, 경제 정책과 같은 중요한 문제에 대한 의견 차이는 더욱 커졌다. 복잡한 문제에 대한 공통점을 찾기 위해 사람들을 모으는 것은 종종 시간, 자원, 그리고 모든 목소리가 들릴 수 있는 공평한 장소가 필요하다.

인공지능의 최근 발전은 기술이 복잡한 대화에 도움을 줄 수 있는 새로운 가능성을 열어주었다. 예를 들어, AI 기반의 대규모 언어 처리(NLP) 모델은 복잡한 언어를 해석하고 감정 및 관점의 차이를 구별하는 데 충분히 발전했다. 또한, AI 시스템은 실시간 감정 분석, 편향 감지, 적응형 피드백과 같은 기능으로 설계되고 있다. 이러한 능력은 공정하고 균형 잡힌 토론을 도와주는 데 특히 적합하다.

이 가능성은 Google DeepMind 연구원들의 주목을 받았으며, 그들은 AI가 민감한 대화에 기여할 수 있는 약속을 탐구하기 시작했다. 철학자 Jürgen Habermas의 아이디어에 영감을 받은 그들은 “Habermas Machine” (HM)을 만들었다. 이는 민감한 대화를 지원하고 공유된 가치를 발견하는 데 도움을 주는 도구이다. 이 기사는 “AI가本当に 공통점을 찾는 데 도움이 될 수 있는가?”라는 질문을 조사하고 Habermas Machine (HM)이 민주적 토론을 어떻게 도와줄 수 있는지 살펴본다.

Habermas Machine

Habermas Machine은 개인의 의견을 분석하고 통일된 집단 성명을 생성하는 도구이다. 이 기계는 “카우커스 중재”와 같은 방식으로 작동한다. 참가자들은 먼저 생각을 공유한다. 그런 다음 AI는 이러한 생각을 초안 성명서로 결합한다. 다음으로 참가자들은 이 초안을 검토하고 비평한다. AI는 입력을 사용하여 더广泛한 동의를 얻으려는 수정된 성명을 생성한다. 이는 다수 의견과 소수 의견을 모두 포착한다.

이 기계는 이 작업을 위해 두 가지 전문적인 LLM을 사용한다. 첫 번째는 그룹의 다양한 관점을 반영하는 성명을 생성하는 생성 모델이다. 두 번째는 참가자들이 이러한 성명에 동의할 가능성에 따라 성명을 평가하는 개인화된 보상 모델이다. 생성 모델은 지도학습을 통해 세부적으로 조정되고, 보상 모델은 보상 신호에 따라 반복적으로 향상된다.

이 기계는 영국 전역의 5,000명 이상의 참가자와 함께 테스트되었다. 일부 참가자는 크라우드소싱 플랫폼을 통해 참가했으며, 다른 참가자들은 시민의회를 조직하는 비영리 단체인 Sortition Foundation에 의해 모집되었다. 참가자들은 그룹으로 나누어졌으며, 테스트는 두 단계로 진행되었다. 첫 번째 단계에서는 기계가 집단적 의견을 요약했다. 두 번째 단계에서는 기계가 그룹 사이에서 중재하여 공통점을 찾는 데 도움을 주었다.

민주적 대화에서 공통점을 찾는 AI의 약속

이 연구는 민주적 대화에서 공통점을 찾는 AI의 잠재력을 강조한다. 주요 발견 중 하나는 AI 매개 토론이 참가자들이 공유된 관점으로 이동하도록 유도했다는 것이다. 매개되지 않은 토론과는 달리, 기존의 신념을 강화하는 대신, AI는 참가자들이 자신의 입장을 재고하도록 도와 중간 지대를 향해 끌어들이는 것으로 나타났다. 이러한 일치를鼓励하는 능력은 AI가 복잡하고 분열적인 문제를 다루는 데 유용한 도구가 될 수 있음을 보여준다.

연구는 또한 참가자와 독립된 판단관이 인간 중재자에 의해 생성된 성명보다 AI 생성 성명을 더 호의적으로 평가했다는 것을 보여주었다. 그들은 AI의 성명이 더 정확하고, 더 정보가 풍부하며, 더 공정하다고 판단했다. 중요한 것은 AI가 다수 의견만을 증폭하지 않고, 소수 의견에도 중점을 두었다는 것이다. 이 기능은 “다수 의견의 폭정”을 방지하고, 반대 의견이 들릴 수 있도록 해, 특히 민감한 논의에서 공정한 대표성이 중요하다.

민감한 민주주의에서 AI의 실제 적용

AI 매개 토론의 함의는 실제 시나리오에서重大하다. 예를 들어, AI는 정책 토론, 분쟁 해결, 계약 협상, 시민의회를 강화할 수 있다. 균형 잡힌 대화를 촉진하는 능력으로 인해, 정부, 조직, 그리고 다양한 이해관계자를 포함하는 복잡한 문제를 해결하려는 커뮤니티에게 유용한 도구가 된다.

모델의 효과를 실제 환경에서 테스트하기 위해, 연구자들은 대표적인 영국 거주자 샘플과 함께 가상 시민의회를 조직했다. 이 집회는 이민 정책과 기후 행동과 같은 분열적인 주제에 초점을 맞추었다. AI 매개 토론을 따랐을 때, 참가자들은 명백한 일치로 이동하는 것으로 나타났다. 이는 AI 중재가 중요한 사회 문제에 대한 집단적 의사결정을 안내하는 데 잠재적으로 유용할 수 있음을 보여준다.

제한과 윤리적 고려

AI 중재는 큰 약속을 보여주지만, 주목할만한 제한이 있다. 예를 들어, 이 연구에서 사용된 AI 모델은 사실 확인 기능이 없으므로, 참가자들의 입력의 질에 크게 의존한다. 또한, AI 지원 토론은 유해하거나 비생산적인 대화가 발생하지 않도록 주의 깊게 설계되어야 한다. 또 다른 중요한 고려 사항은 민주적 과정에서 AI의 윤리적 역할이다. 일부 개인은 정치적 토론에서 AI를 사용하는 것에 대해 주의를 기울일 수 있다. 그러므로, 민주적 가치를 존중하는 방식으로 AI를 사용할 수 있도록 지속적인 감시와 명확한 윤리적 프레임워크가 필요하다.

결론

Google DeepMind의 연구자들은 AI가 민주적 대화를 변革할 수 있는 잠재력을 강조했다. 그들은 Habermas Machine과 같은 AI 도구가 복잡한 문제에 대한 공통점을 찾는 데 도움을 줄 수 있다고 제안한다. AI는 대화를 더 접근하기 쉽고 포용적이게 만들 수 있지만, 민주적 가치를 보호하기 위해 책임감 있게 사용하는 것이 중요하다.

thoughtfully 개발된다면, AI는 집단적 이해를 촉진하는 데 중요한 역할을 할 수 있다. 그것은 다양한 관점 사이에서 공통점을 찾음으로써, 긴급한 사회 문제를 해결하는 데 도움을 줄 수 있다. AI 기술이 발전함에 따라, Habermas Machine과 같은 모델은 현대 민주주의의 도전을 해결하는 데 중요한 도구가 될 수 있다.

Dr. Tehseen Zia๋Š” COMSATS University Islamabad์˜ ์ •๊ต์ˆ˜์ด๋ฉฐ, ์˜ค์ŠคํŠธ๋ฆฌ์•„ ๋น„์—”๋‚˜ ๊ธฐ์ˆ ๋Œ€ํ•™๊ต์—์„œ ์ธ๊ณต์ง€๋Šฅ ๋ฐ•์‚ฌํ•™์œ„๋ฅผ ์ทจ๋“ํ–ˆ์Šต๋‹ˆ๋‹ค. ์ธ๊ณต์ง€๋Šฅ, ๊ธฐ๊ณ„ํ•™์Šต, ๋ฐ์ดํ„ฐ ๊ณผํ•™, ์ปดํ“จํ„ฐ ๋น„์ „์„ ์ „๋ฌธ์œผ๋กœ ํ•˜๋ฉฐ, ์œ ๋ช…ํ•œ ๊ณผํ•™ ์ €๋„์— ๋ฐœํ‘œ๋œ ๋…ผ๋ฌธ์œผ๋กœ ะทะฝะฐั‡์ ์ธ ๊ธฐ์—ฌ๋ฅผ ํ–ˆ์Šต๋‹ˆ๋‹ค. Dr. Tehseen์€ ์ฃผ์š” ์—ฐ๊ตฌ์ž๋กœ์„œ ๋‹ค์–‘ํ•œ ์‚ฐ์—… ํ”„๋กœ์ ํŠธ๋ฅผ ์ด๋Œ์—ˆ์œผ๋ฉฐ, ์ธ๊ณต์ง€๋Šฅ ์ปจ์„คํ„ดํŠธ๋กœ๋„ ํ™œ๋™ํ–ˆ์Šต๋‹ˆ๋‹ค.