์ธ๊ณต์ง๋ฅ
2020๋ ์ ๊ฑฐ๋ฅผ ์ํด ์ธ๊ฐ์ ํ๋์ ๋ ์ ๋ชจ๋ฐฉํ๋ ๋ด์ด ๋ฑ์ฅํ๋ค

Emilio Ferrara, USC Information Sciences Institute(USC ISI)의 컴퓨터 과학자에 따르면, 새로운 연구에 따르면 소셜 미디어의 봇과 가짜 계정은 인공지능으로 인해 감지되지 않기 위해 인간의 행동을 더 잘 모방하기 위해 진화하고 있다.
Ferrara와 그의 팀, Luca Luceri (Scuola Universitaria Professionale della Svizzera Italiana), Ashok Deb (USC ISI), Silvia Giordano (Scuola Universitaria Professionale della Svizzera Italiana)가 수행한 연구는 First Monday 저널에 발표되었다. 그들은 2018년 미국 선거와 2016년 미국 선거에서 사용된 봇과 가짜 계정의 행동을 비교했다.
연구자들은 총 250,000명의 소셜 미디어 활성 사용자를 연구했으며, 2016년과 2018년 선거에 대해 논의한 사용자에 초점을 맞췄다. 250,000명의 사용자 중 30,000명은 봇이었다.
2016년 선거에서 봇은 주로 콘텐츠를 리트윗하고 동일한 문제나 메시지에 대한大量의 트윗을 보냈다. 2018년 봇은 인간이 소셜 미디어에서 진화한 것처럼 진화했다. 봇은 리트윗을 줄이고大量의 메시지를 공유하는 것을 중단했다.
2018년 봇은 인간의 행동을 더 잘 모방할 수 있게 되었다. 연구자들은 봇이 더 진정한 것으로 보이기 위해 여러 봇을同時에 사용할 가능성이 더 높았다는 것을 발견했다. 봇은 아이디어나 메시지 주변에서 합법적인 인간의 참여를 나타내는 것처럼 보이기 위해이를 사용했다.
그 당시 인간은 리트윗보다 회신을 통해 참여하기 시작했다. 봇도 이를 따랐다. 봇은 대화에 참여하고 문제나 메시지에 대한 목소리를樹立하기 위해 회신을 사용했다. 또한 봇은 합법적인 뉴스 아웃レット과 설문조사기관이 사용하는 전략을 복제하기 위해 설문조사를 사용했다. 연구자들은 이러한 설문조사가 신뢰할 수 있는 이미지 구축에 사용되었다고 믿는다.
연구자들이 사용한 예 중 하나는 연방 선거에서 투표할 때 신분증을 제시해야 하는지에 대한 트위터 온라인 설문조사를 게시한 봇이다. 봇은 트위터 사용자에게 투표하고 설문조사를 리트윗하도록 요청했다.
연구의 주 저자 Emilio Ferrara는 새로운 연구와 그것이 의미하는 바에 대해 말했다.
“우리의 연구는 봇과 감지 알고리즘 사이에 무기 경쟁이 있다는 아이디어를 더욱 뒷받침한다. 소셜 미디어 회사들이 남용을 완화하고 자동화된 계정을 억제하기 위해 더 많은 노력을 기울일수록, 봇은 인간의 전략을 모방하기 위해 진화한다. 인공지능의 발전은 봇이 더 인간 같은 콘텐츠를 생성할 수 있게 한다. 우리는 봇이 어떻게 진화하는지 그리고 더 정교한 봇을 어떻게 감지할 수 있는지 이해하기 위해 더 많은 노력을 기울여야 한다. 곧 있을 2020년 미국 선거에서, 민주적 과정에서 외부의 영향이 없는 소셜 미디어 담론의 무결성은 매우 중요하다.”
미래에 대한 큰 의미
선거 기간 동안 가짜 온라인 소셜 미디어 계정과 봇的问题은 이미 여러 해 동안 계속되어 왔다. 2016년 선거 당시 발생한 문제는 당시에는巨大하게 보였지만, 인공지능으로 인해 가까운 미래에 더욱 심각해질 것이다.
봇은 인공지능 덕분에 인간의 행동을 더 잘 모방하기 위해 계속해서 진화할 것이다. 봇이 실제인지 아닌지 구분할 수 없을 정도가 될 것이다. 이는 곧 있을 2020년 미국 선거뿐만 아니라 미래의 모든 선거에서 극적인 의미를 가지게 될 것이다.












