Neural Fake News 대응하기

최근 자연어 생성 기술의 발전은 이중 용도에 대한 우려를 제기하고 있습니다. 요약 및 번역과 같은 응용 프로그램이 긍정적인 반면, 기저에 있는 기술은 적대세력이 신경망 가짜 뉴스(Neural Fake News)를 생성할 수 있게 할 수도 있습니다. 신경망 가짜 뉴스는 실제 뉴스 스타일을 매우 유사하게 모방한 대상별 선동입니다.현대 컴퓨터 보안은 세심한 위협 모델링에 의존합니다: 적대세력의 관점에서 잠재적 위협과 취약점을 식별하고 이러한 위협을 완화할 수 있는 방법을 탐구합니다. 마찬가지로, 신경망 가짜 뉴스에 대한 강력한 방어책을 개발하기 위해서는 이러한 모델의 위험성을 철저히 조사하고 특성화해야 합니다. 따라서 우리는 백신과 자폐증 사이의 연관성 발견과 같은 헤드라인을 주어졌을 때 나머지 기사를 생성할 수 있는 제어 가능한 텍스트 생성 모델인 Grover를 소개합니다. 인간들은 Grover가 생성한 내용이 사람 손으로 작성된 허위 정보보다 더 신뢰할 만하다고 평가했습니다.Grover와 같은 생성기에 대항하는 강력한 검증 기법을 개발하는 것이 중요합니다. 현재 최고의 분류기는 중간 수준의 학습 데이터가 제공되는 경우 신경망 가짜 뉴스와 실제 사람이 작성한 뉴스를 73% 정확도로 구분할 수 있습니다. 역설적으로, Grover에 대한 가장 효과적인 방어책은 Grover 자체인 것으로 나타났으며, 92%의 정확도를 보였습니다. 이 결과는 강력한 생성기의 공개 출시가 중요한 것을 입증합니다. 우리는 이러한 결과를 더욱 깊게 연구하여 노출 편향(Exposure Bias)과 그 영향을 완화하는 샘플링 전략이 유사한 분류기가 감지할 수 있는 아티팩트를 남긴다는 점을 보여주었습니다. 마지막으로, 이 기술에 대한 윤리적 문제를 논의하며, 신경망 가짜 뉴스 감지를 위한 더 나은 방법론 마련을 돕기 위해 Grover를 공개적으로 출시할 계획입니다.