Connect with us

인공지능

기계 학습을 이용한 선전과 그 식별

mm

미국과 카타르의 새로운 연구는 인간이 실제로 가짜 뉴스를 작성하는 방식으로 가짜 뉴스를 식별하는 새로운 방법을 제공합니다. 즉, 주로 사실적인 문맥에 부정확한 문장을 삽입하고, 권위에 대한 호소와 같은 인기 있는 선전 기술을 사용합니다. 이 프로젝트는 이러한 기술을 통합한 새로운 가짜 뉴스 감지 훈련 데이터 세트인 PropaNews를 생성했습니다. 연구 저자는 새로운 데이터 세트에 훈련된 감지기가 이전의 최첨단 접근 방식보다 인간이 작성한 잘못된 정보를 감지하는 데 7.3-12% 더 정확하다는 것을 발견했습니다.

새로운 논문에서 권위에 대한 호소와 불러온 언어의 예

새로운 논문에서 권위에 대한 호소와 불러온 언어의 예 Source: https://arxiv.org/pdf/2203.05386.pdf

저자들은 이 프로젝트가 선전 기술(사실적인 부정확성 대신)을 기계 생성 텍스트 예제에 통합한 최초의 프로젝트라고 주장합니다. 이 분야의 대부분의 최근 연구는 편향을 연구했거나 선전 데이터를 편향의.context에서 재구성했습니다(아마도 편향이 Analytica 이후 기계 학습 부문에서 자금 지원을 받은 이유입니다).

저자들은 다음과 같이 말합니다:

‘반면, 우리의 작업은 선전 기술을 포함하여 가짜 뉴스를 생성하고 대부분의 올바른 정보를 보존합니다. 따라서 우리의 접근 방식은 인간이 작성한 가짜 뉴스에 대한 방어를 연구하는 데 더 적합합니다.’

그들은 또한 더 복잡한 선전 감지 기술의 필요성을 설명합니다:

‘인간이 작성한 잘못된 정보는 종종 특정 인구를 조작하는 데 사용되며, 2016년 미국 대통령 선거, 브렉시트, 코로나19 대유행 및 최근 러시아의 우크라이나 공격과 같은 여러 사건에 치명적인 영향을 미쳤습니다. 따라서 우리는 인간이 작성한 잘못된 정보에 대한 방어 메커니즘을 필요로 합니다.’

논문은 가짜 뉴스를 실제 가짜 뉴스 감지에 대한 가짜 뉴스 생성: 선전 로드된 훈련 데이터 생성이라는 제목으로, 일리노이 주 어바나-샴페인 대학교, 컬럼비아 대학교, 카타르의 하마드 빈 할리파 대학교, 워싱턴 대학교 및 인공 지능 연구소의 5명의 연구자로부터 나왔습니다.

불일치 정의

선전을 정량화하는 것은 주로 물리적인 문제입니다. 실제 자료의 선전과 같은 특성을 인식하고 주석을 달기 위해 인간을 고용하는 것은 매우 비용이 많이 들고, 미래의 ‘보이지 않는’ 데이터에서 작동할 가능성이 있는 고급 기능을 추출하고 사용하는 것은 훨씬 더 저렴할 수 있습니다.

더 확장 가능한 솔루션을 제공하기 위해 연구자들은 먼저 미디어 편향 사실 확인 사이트를 통해 사실적 정확성이 낮은 것으로 간주되는 뉴스 소스에서 인간이 생성한 잘못된 정보 기사를 수집했습니다.

그들은 조사된 기사 중 33%가 감동을 일으키는 용어, 논리적 오류 및 권위에 대한 호소와 같은 부정직한 선전 기술을 사용한다는 것을 발견했습니다. 기사 중 추가 55%에는 부정확한 정보와 정확한 정보가 혼합되어 있었습니다.

권위에 대한 호소 생성

권위에 대한 호소 접근 방식에는 두 가지 사용 사례가 있습니다. 부정확한 문장의 인용과 완전히 허구의 문장의 인용이 있습니다. 연구는 두 번째 사용 사례에 초점을 맞춥니다.

새로운 프로젝트에서 자연 언어 추론 프레임워크 RoBERTa는 권위에 대한 호소와 불러온 언어의 두 가지 추가 예를 식별합니다.

새로운 프로젝트에서 자연 언어 추론 프레임워크 RoBERTa는 권위에 대한 호소와 불러온 언어의 두 가지 추가 예를 식별합니다.

기계 생성 선전을 위한 새로운 데이터 세트를 생성하기 위한 목적으로 연구자들은 선전을 생성하기 위해 나중에 수정될 수 있는 관련 문장을 식별하기 위해 사전 훈련된 시퀀스-투-시퀀스 아키텍처 BART를 사용했습니다. 이 작업과 관련된 공개 데이터 세트가 없기 때문에 저자들은 2019년에 제안된 요약 모델을 사용하여 문장 관련성을 추정했습니다.

연구자들은 각 뉴스 아웃レット의 기사 중 하나에서 이러한 ‘표시된’ 문장을 위키데이터 쿼리 서비스와 기사에서 언급된 권위(즉, 사람 및/또는 조직)에서 파생된 가짜 인수를 사용하여 대체했습니다.

불러온 언어 생성

불러온 언어에는 사실을 전달하는 맥락에서 내재된 가치 판단을 포함하는 단어가 포함됩니다(위에 설명된 예와 같이 감각적인 부사와 형용사).

불러온 언어에 대한 데이터를 파생하기 위해 저자들은 2019년 연구에서 2,547개의 불러온 언어 인스턴스를 포함하는 데이터 세트를 사용했습니다. 2019년 데이터의 모든 예가 감정 트리거 부사를 포함하지는 않기 때문에 연구자들은 SpaCy를 사용하여 의존성 구문 분석 및 부분 구문 태그 지정(PoS 태그 지정)을 수행하고 프레임워크에 포함하기 위해 적합한 예만 유지했습니다.

필터링 과정은 1,017개의 유효한 불러온 언어 샘플을 생성했습니다. BART의 또 다른 인스턴스는 소스 문서의 관련 문장을 불러온 언어로 대체하기 위해 사용되었습니다.

PropaNews 데이터 세트

2015년 Google Deep Mind와 옥스포드 대학교의 CNN/DM 데이터 세트에 대한 중간 모델 훈련을 수행한 후 연구자들은 PropaNews 데이터 세트를 생성하여 ‘신뢰할 수 있는’ 소스(예: 뉴욕 타임즈가디언)의 비중한 기사를 알고리즘적 선전을 포함하는 ‘수정된’ 버전으로 변환했습니다.

이 실험은 17개의 뉴스 이벤트와 총 4,535개의 이야기에 대한 자동 생성 타임라인 요약을 생성한 2013년 하노버 연구를 모델링했습니다.

생성된 잘못된 정보는 400개의 고유한 작업자에게 제출되어 2000개의 인간 지능 작업(HIT)을 수행했습니다. 작업자에 의해 정확으로 간주되는 선전이 포함된 기사만이 최종 PropaNews 버전에 포함되었습니다. 불일치에 대한 판단은 작업자 동의도 집계(WAWA) 방법으로 평가되었습니다.

PropaNews의 최종 버전에는 2,256개의 기사가 포함되어 있으며, 가짜와 실제 출력이 균형을 이루고, 30%는 권위에 대한 호소를 사용하며, 추가 30%는 불러온 언어를 사용합니다. 나머지에는 이전 데이터 세트에서 주로 채워진 부정확한 정보가 포함됩니다.

데이터는 1,256:500:500의 훈련, 테스트 및 검증 분포로 나뉩니다.

HumanNews 데이터 세트

훈련된 선전 감지 루틴의 효과를 평가하기 위해 연구자들은 2015년부터 2020년까지 발행된 200개의 인간이 작성한 뉴스 기사를 컴파일했습니다. 이 데이터에는 폴리티팩트에 의해 반박된 기사와 비신뢰할 수 있는 뉴스 미디어 아웃レット에서 반박된 추가 기사가 포함되었습니다.

최종 데이터 세트인 HumanNews에는 로스앤젤레스 타임스의 100개 기사도 포함되어 있습니다.

테스트

검출 프로세스는 두 가지 형태의 이전 프레임워크와 경쟁했습니다. PN-실버는 AMT 주석자 확인을 무시하고, PN-골드는 기준으로 확인을 포함합니다.

경쟁 프레임워크에는 2019년의 Grover-GEN, 2020年的 Fact-GEN 및 FakeEvent가 포함되었습니다. 여기서 PN-Silver의 문서는 이전 방법으로 생성된 문서로 대체되었습니다.

Grover와 RoBERTa의 변형은 새로운 PropaNews 데이터 세트에 훈련될 때 가장 효과적이었으며, 연구자들은 ‘PROPANEWS에 훈련된 감지기는 다른 데이터 세트에 훈련된 감지기보다 인간이 작성한 잘못된 정보를 식별하는 데 더 잘 수행됩니다’라고 결론지었습니다.

연구자들은 또한 PN-Silver가 다른 데이터 세트에서 이전 방법을 능가한다는 것을 관찰했습니다.

구식?

저자들은 자동으로 생성되고 식별되는 선전 중심의 가짜 뉴스에 대한 연구가 부족하다고 다시 강조하며, 중요 사건(예: COVID 또는 현재 동유럽 상황) 이전에 데이터에 훈련된 모델은 최적의 성능을 발휘할 수 없다고 경고합니다:

‘인간이 작성한 약 48%의 잘못된 정보는 새로운 뉴스 소스에서 동적 지식을 습득할 수 없는 능력으로 인해 잘못 분류됩니다. 예를 들어, COVID 관련 기사는 일반적으로 2020년 이후에 게시되며, RoBERTa는 2019년 이전에 발표된 뉴스 기사에 사전 훈련되었습니다. RoBERTa가 감지기를 동적 지식 습득 능력으로 장착하지 않는 한 이러한 주제의 잘못된 정보를 감지하는 것은 매우 어려울 것입니다.’

저자들은 RoBERTa가 2019년 이전에 게시된 뉴스 기사에서 69.0%의 정확도를 달성하지만 2019년 이후에 게시된 뉴스 기사에서 51.9%의 정확도로 정확도가 떨어진다고 추가로 주목합니다.

팔터링 및 컨텍스트

이 연구는 직접적으로 다루지 않지만, 이러한 유형의 의미적 영향을 깊이 조사하면 궁극적으로 언어의 보다 미묘한 무기화, 즉 팔터링을 다룰 수 있습니다. 팔터링은 자기가 원하는 결과를 얻기 위해 사실적인 진실을 사용하는 것입니다. 이는 사실을 전달하는 데 사용된 증거의 정신과 의도를 반대할 수 있습니다.

NLP, 컴퓨터 비전 및 멀티모달 연구에서 관련 연구는 의미의 보조로 컨텍스트를 연구하는 것입니다. 여기서 사실을 선택적으로 재정렬하거나 재컨텍스트화하면 사실이 일반적으로 제시될 때 발생하는 반응과 다른 반응을 일으키는 시도를 하게 됩니다.

 

* 저자의 인라인 인용을 직접 하이퍼링크로 변환했습니다.

최초로 2022년 3월 11일에 게시되었습니다.

기계 학습 작가, 인간 이미지 합성 도메인 전문가. Metaphysic.ai의 연구 콘텐츠 책임자 출신.
개인 사이트: martinanderson.ai
연락처: [email protected]
트위터: @manders_ai