X 플랫폼, 인간과 AI 협력으로 가짜뉴스 대응 강화
X 플랫폼(이전 트위터)은 2021년에 "커뮤니티 노트" 프로그램을 시작하여 잘못된 정보를 방지하기 위해 사용자가 오해를 초래할 수 있는 게시물에 문맥 노트를 추가할 수 있도록 했습니다. 예를 들어, AI로 생성된 동영상이 실제로 발생한 것으로 오해될 수 있으므로 이를 명시하는 노트를 작성할 수 있습니다. 이러한 커뮤니티 노트는 분산된 소셜 미디어 커뮤니티의 평가를 통해 유용성을 결정하고, 유용하다고 평가된 노트만 게시물에 표시됩니다. X의 커뮤니티 노트는 이후 다른 플랫폼들이 비슷한 프로그램을 도입하는 데 영향을 미쳤습니다. 그동안 이와 같은 커뮤니티 기반의 팩트 체크 시스템은 완전히 인간이 작성하고 평가하는 노트로만 이루어져 있었습니다. 그러나 X는 이제 대형 학습 모델(LLMs)을 활용하여 AI가 인간과 함께 커뮤니티 노트를 작성하는 새로운 프로그램을 시험 중입니다. 최근 X 연구진이 발표한 제안 모델은 인간과 AI 노트를 모두 통합하지만, 여전히 유용한 노트를 결정하는 단계는 인간에게만 맡겨두는 방식을 취하고 있습니다. 연구진은 "AI가 작성한 노트를 허용하면 인간 작가가 불가능한 규모와 속도로 시스템을 운영할 수 있어, 웹상의 콘텐츠에 대해 훨씬 더 많은 문맥을 제공할 수 있을 것"이라고 강조했습니다. AI 노트 생성은 커뮤니티 피드백을 통해 개선되는 과정, 즉 커뮤니티 피드백을 기반으로 한 강화 학습(RLCF)을 거치게 됩니다. 이 과정은 다양한 의견을 가진 커뮤니티 구성원들의 다양한 피드백을 통해 미래의 노트 생성을 세부적으로 개선하여 더 정확하고 편향되지 않으며 유용한 노트를 만드는 것을 목표로 합니다. 연구 보고서는 또한 커뮤니티 노트 파이프라인에 더욱 많은 AI를 통합하는 여러 가능성에 대해 논의합니다. 미래 방향성으로는 인간 작가를 지원하는 AI 코파일럿, 인간 평가자를 돕기 위한 AI 지원, 이미 검증된 노트를 유사한 상황에 재적용하는 방법 등을 제시합니다. 또한, 인간 평가자와 작가의 스크리닝을 위한 인증 및 검증 방법, LLMs의 맞춤화 등도 포함됩니다. 연구진은 "목표는 사용자에게 무엇을 생각해야 하는지를 말해주는 AI 어시스턴트를 만드는 것이 아니라, 인간이 더 비판적으로 생각하고 세상을 더 잘 이해할 수 있는 생태계를 구축하는 것"이라고 설명했습니다. 이 새로운 모델이 전반적인 잘못된 정보 방지 과정을 개선할 것으로 예상되지만, 몇 가지 잠재적인 위험도 존재합니다. 연구진은 AI 생성 노트가 설득력 있게 부정확한 정보를 전달할 수 있다는 점을 지적하며, 이는 다른 모델에서도 알려진 문제입니다. 또한, 노트의 과도한 일률화와 AI 노트의 증가로 인해 인간 작가들이 덜 참여할 가능성이 있으며, 이로 인해 인간 평가자들의 능력이 부족해질 수 있다는 우려도 제기되었습니다. 인간과 AI의 협업 방법은 인간이 복잡성과 다양성을, LLMs가 속도와 규모를 제공함으로써 온라인에서 제공되는 방대한 양의 정보를 처리하는 데 효과적일 수 있습니다. 하지만 인간의 감각이 사라지지 않도록 충분한 테스트가 필요합니다. 연구진은 최종 목표를 다음과 같이 요약했습니다: "AI가 사용자에게 무엇을 생각해야 하는지를 말해주는 것이 아니라, 인간이 더 비판적으로 생각하고 세상을 더 잘 이해할 수 있는 생태계를 구축하는 것"입니다. 이 연구는 X 연구소의 최근 발표로, arXiv (2025)에 게재되었습니다. DOI: 10.48550/arxiv.2506.24118. 이 연구는 AI를 활용한 커뮤니티 노트의 미래 방향성을 제시하며, 특히 인간과 AI의 협력을 강조합니다. X는 이러한 모델이 온라인 정보의 질을 향상시키는 데 기여할 것으로 기대하고 있으며, 이를 통해 더 나은 사회적 대화와 정보 공유를 실현하고자 합니다. 그러나 이 과정에서 인간의 역할이 충분히 유지될 수 있도록 지속적인 검토와 조정이 필요할 것으로 보입니다.