์ฌ์ ๋ฆฌ๋
ํ์ด์ค๋ถ์ AI๊ฐ ์ด๋ป๊ฒ ํ์ ์ ๋ณด๋ฅผ ํผ๋จ๋ฆฌ๊ณ ๋ฏผ์ฃผ์ฃผ์๋ฅผ ์ํํ๋๊ฐ

LinkedIn에서 AI 연구를 담당했던 Dan Tunkelang은 “추천이 결정에 영향을 미치는 힘을 가지면, 그것은 스팸mer, 사기꾼, 그리고 고귀한 동기가 없는 다른 사람들의 목표가 됩니다.”라고 말했습니다.
이것이 소셜 미디어 회사들, 특히 페이스북이 직면한 딜레마입니다. 페이스북은 클릭, 조회, 기타 측정 가능한 사용자 행동을 추적하기 위해 암시적 피드백을 사용합니다. 이것은 “추천 엔진”으로 식별되는 AI 시스템을 설계하는데 사용되며, 사용자에게 어떤 콘텐츠를 언제 보여줄지 결정하는 최종 권한을 가지고 있습니다.
페이스북은 사용자 참여를 최대화하기 위해 추천 엔진을 최적화했습니다. 사용자 참여는 페이스북 플랫폼에서 사용자가 보내는 시간으로 측정되며, 콘텐츠의 품질이나 정확성보다 시간을 최대화하는 것이 우선시됩니다.
시스템은 사용자를 사로잡는 감각적인 제목을 보상하며, 이러한 제목이 러시아의 트롤에 의해 작성되어 사회를 분열시키거나 정치 선거를左右하려는 의도라 하더라도, 사용자를 사로잡는 인지 편향을 이용하여 사용자를 사로잡습니다.
페이스북이 AI를 사용하는 방법
페이스북이 사용자에게 무엇을 보여주고 상호작용하도록 결정하는 방법에 대한 인식이 부족합니다. 먼저 확인 편향이 무엇인지 이해해야 합니다. Psychology Today는 이것을 다음과 같이 설명합니다:
확인 편향은 이전의 믿음이나 가치와 일치하거나 지원하는 정보를 검색, 해석, 선호, 기억하는 경향입니다.
페이스북은 사용자가 확인 편향을 만족하는 뉴스를 클릭할 가능성이 더 높다는 것을 알고 있습니다. 이것은 음모론의 확산과 정확성이나 사회적 영향에 관계없이 사용자가 원하는 것을 독점적으로 보여주는 에코 챔버를 생성하는 데 위험한 전례를 설정합니다.
MIT의 연구에 따르면, 트위터에서 가짜 뉴스는 실제 뉴스보다 6배 빠르게 퍼집니다.
이는 트위터와 페이스북이 모두 무기화될 수 있음을 의미합니다. 트위터는 사용자가 의도적으로 편향된 관점을 가진 피드를 팔로우할 수 있도록 허용하는 반면, 페이스북은 이를 한 단계 더 나아갑니다. 페이스북 사용자는 현재 무엇을 보는지 제어하거나 측정할 방법이 없으며, 이것은 완전히 페이스북의 추천 엔진, 사용자 참여를 측정하는 방식, 사용자 참여를 최적화하는 방식에 의해 제어됩니다.
페이스북은 사용자의 жел정을 예측하고 형성하려고 시도합니다. 페이스북은 사용자가 아직 경험하지 않은 뉴스 항목에 대한 사용자의 호감도나 비호감도를 추정합니다. 사용자 참여를 손실하지 않기 위해 페이스북은 사용자 참여 수준을 낮출 수 있는 뉴스 항목을 무시하고 사용자의 확인 편향을 만족하는 뉴스 항목으로 사용자를 사로잡습니다.
페이스북은 또한 사용자의 역사적인 행동과 의견을 자동으로 필터링하여 자동으로 참여자(친구)를 유사한 의견으로 매칭합니다. 페이스북은 사용자가 원하는 항목에 대한 사용자의 선호도를 자동으로 예측하고 수학적으로 예측하는 유틸리티 함수를 사용합니다.
이는 사용자가 가짜 뉴스에 갇히게 되며, 그들의 편향을 강화하는 콘텐츠를 제공받습니다. 보여지는 콘텐츠는 사용자가 클릭할 수 있도록 설계되었습니다. 빌 게이츠가 백신을 사용하여 인간을 마이크로 칩으로 만들려고 하는 음모론을 믿는다면, 페이스북은 플랫폼에서 사용자를 분산시킬 수 있는 반대 증거를 왜 보여주어야 합니까? 특정 정치 후보를 지지한다면, 왜 페이스북은 그 후보에 대한 긍정적인 견해를 반대하는 뉴스를 제공해야 합니까?
페이스북은 또한 사용자에게 필터 버블을 제공하여 충돌, 반대, 또는 도전적인 관점에 대한 노출을 제한합니다.
페이스북 광고
페이스북 사용자는 의도하지 않게 광고를 클릭할 수 있습니다. 이유는 간단합니다. 광고를 처음 표시한 사용자만 광고免責 조항을 볼 수 있습니다. 사용자가 광고를 공유하면, 친구 목록의 모든 사용자는 광고免責 조항 없이 뉴스 피드를 볼 수 있습니다. 즉시, 사용자는 경계를 내리며, 광고와 유기적으로 나타나는 뉴스 피드를 구별할 수 없습니다.
페이스북 공유
불행히도, 상황은 더 나빠집니다. 사용자가 1000명의 친구와同時적으로 콘텐츠를 공유하면, 추천 엔진은 동일한 견해를 가진 소수에게 우선순위를 부여할 것입니다. 사용자는 뉴스 피드 항목이 모든 사용자에게 표시되는 것처럼 보이지만, 실제로는 확인 편향을 강화하는 콘텐츠만 표시됩니다.
사용자가 다른 사용자를誤導하는 항목에 대해 알리려고 시도하면, 뉴스 피드를 댓글이나 참여하는 행위는 원래 사용자의 참여 시간을 증가시킵니다. 이 피드백 루프는 페이스북이 사용자를 더 많은 가짜 뉴스로 사로잡게 만듭니다.
이는 에코 챔버, 필터 버블을 생성하며, 사용자는 자신이 보는 것만 믿도록 훈련됩니다. 진리는 단지 환상입니다.
문제의 심각성
1000만 명이 넘는 사람들이 뉴스 피드를 взаим작용했으며, 2016년 선거 이전 3개월 동안 가장 많이 공유된 뉴스 항목은 포프 프란치스가 트럼프의 선거를 지지한다는 가짜 뉴스였습니다.
이 뉴스 항목은 러시아의 트롤 팜인 “인터넷 연구소”에서 생성되었습니다. 이 조직은 트위터와 페이스북에서 인종 차별적인 文章을 홍보하고, 블랙 라이브스 매터를 비방하는 가짜 뉴스 항목을 퍼트리는 데 책임이 있습니다.
정보위원회는 85페이지의 보고서를 발간했으며, 2016년 미국 선거에 영향을 미치기 위한 러시아의 적극적인 캠페인과 간섭에 대해 자세히 설명했습니다.
2020년 선거로 이동하면 문제는 더 심각해졌습니다. 2020년 9월, FBI의 제보에 따라 페이스북과 트위터는 러시아의 국가 선전 노력과 연결된 뉴스 기관인 피스데이터의 소셜 미디어 계정을 종료했습니다.
그러나 계정을 종료하는 것은 일시적이고 효과가 없는 해결책입니다. 러시아 계정은 종종 여성 프로필이 매력적인 친구 요청으로 나타나거나, 정기적인 게시물이 있는 사용자 계정으로 탈취됩니다. 이러한 계정은 천천히 정치적인 게시물로 전환되며, 결국에는 선전 또는 음모론으로 가득 차게 됩니다.
무심한 사용자는 친구의 계정이 손상되었는지 모를 수 있습니다. 사용자가 음모론에 취약하다면, 그들은 가짜 뉴스 피드 항목에 참여할 수 있으며, 러시아의 트롤(종종 봇)은 추가적인 사회적 증거를 제공하기 위해 좋아요 또는 댓글을 남길 수 있습니다.
취약한 사용자는 기술과 AI가 어떻게 작동하는지 이해하지 못하는 사람들입니다. 65세 이상의 인구는 가장 많이 투표하는 인구이기도 하며, 가짜 뉴스를 퍼트리는 데 가장 많이 기여하는 인구입니다. 뉴욕 타임즈에 따르면, 페이스북 사용자 중 65세 이상의 사용자는 29세 미만의 성인보다 7배 더 많은 가짜 뉴스 웹사이트의 文章을 게시했습니다.
디지털 미디어 리터러시의 부족으로, 이 연령층은 사실이나 정확성에 기반하지 않고 사용자 참여에만 기반한 뉴스 피드에 대비되지 않습니다.
나쁜 행위자는 페이스북의 추천 엔진을 이용하여 우리의 인지 편향을 이용합니다. 이러한 조직은 음모론과 선전을 퍼트리기 위해 페이스북의 AI를 남용하기 위해 최적화되었습니다. 음모론은 처음에는 무해하게 보일 수 있지만, 종종 백인 우월주의, 극우 민족주의, 또는 QAnon과 같은 음모론으로 이어집니다.
요약
페이스북은 문제가 있다는 것을 알고 있으며, 페이스북의 커뮤니티 표준을 위반하는 콘텐츠를 제거하는 전략을 공개적으로 발표했습니다. 그러나 계정을 삭제하는 것은 일시적인 해결책이며, 봇에 의해 대량으로 생성되거나 사용자 계정이 대량으로 해킹되는 경우에는 효과가 없습니다. 또한 대부분의 공유가 가짜 정보를 퍼트리는 것에 무심한 정상 사용자에 의해 이루어지는 문제를 해결하지 못합니다.
경고 레이블을 추가하는 것은 보수적인 사람들이 사회 미디어巨頭에 편향된 것으로 생각하는 음모론을 강화할 수 있습니다.
해결책은 사용자 참여만을 측정하는 것이 아니라, 사용자의 행복을 최적화하고 진실을 제공하며, 사용자의 자각을 높이는 새로운 추천 엔진을 개발하는 것입니다.
현재, 페이스북은 트위터가 정치 광고를 금지한 방식으로 따라야 합니다.
마지막으로, 중요한 질문을 해야 합니다. 사용자가 보는 뉴스를 선택할 수 없다면, 언제 추천이 아니라 마음을 조종하는 것이 되는가?
추천 도서:
러시아의 적극적인 캠페인과 간섭 – 미국 상원의 정보위원회 보고서.
민주주의의 종말을 예측하는 충격적인 보고서 – 조지 워싱턴 대학교의 역사 뉴스 네트워크의 창립자 Rick Shenkman에 의해.
페이스북에서 가짜 뉴스를 더 많이 공유하는 노인들 – 뉴욕 타임즈에 의해.












