HyperAI초신경

만우절의 이면: 기술은 사기를 만들어내는 동시에 사기를 퇴치합니다.

6년 전
헤드라인
정보
Dao Wei
特色图像

가짜 뉴스 문제가 점점 심각해짐에 따라, 다양한 연구팀은 AI 기술을 사용하여 가짜 뉴스를 더 정확하게 판별하고 식별하고 있습니다. 하지만 기술은 상대적입니다. 반면, 어둠 속에서는 AI 기술을 이용해 끊임없이 가짜 뉴스와 가짜 댓글을 만들어내는 사람들이 있습니다.

오늘 가짜뉴스를 접하셨나요? 통계에 따르면, "가짜 뉴스"라는 용어의 사용은 2016년 이후로 365% 증가했습니다.

주커버그는 포괄적인 가짜 뉴스 감지 시스템을 구축하는 데는 오랜 시간이 걸린다고 말한 적이 있다. 전통적인 아이디어는 메시지의 내용을 이해하고 공개 시간과 출처에 따라 판단을 내리는 것이기 때문에 많은 작업이나 기술적 요구 사항이 필요하기 때문이다.

하지만 우리가 생각을 바꾼다면 어떨까요? AI는 이 문제를 해결하는 데 인간의 사고를 사용할 필요가 없을 수도 있습니다. 사실, 최근의 발전에 따라 인터넷상의 가짜 뉴스를 판단하는 데 도움이 되는 새로운 AI 방법도 이미 존재합니다.

가짜 뉴스는 만우절에만 있는 게 아니다

불과 며칠 전, 마이크로소프트는 올해 만우절을 기념하지 않을 것이라고 발표했습니다. 이 소식은 놀랍지 않을지도 모릅니다. 구글이 만우절 농담에 대해 공개적으로 사과한 적이 있거든요.

2016년 만우절에 Gmail은 이메일에 "미니언이 마이크를 던지는" 이모티콘을 추가하여 분노를 샀습니다.

인터넷 시대로 접어들면서 만우절은 점차 작은 장난에서 인터넷에 퍼지는 대규모 이벤트로 진화했습니다. 장난처럼 보이는 이런 행동은 널리 퍼지고 너무 "현실적"이어서 대중 사이에 공황 상태를 초래하는 경우가 있습니다.

본래 편안한 휴일이어야 했던 이 날은, 이날 대량의 가짜 뉴스가 생산되면서 일부 사람들에게는 두려움의 날이 되었습니다.

소위 가짜 뉴스는 종종 일부 매체가 독자 수를 늘리거나 온라인 공유를 늘리기 위해 제작한 거짓 내용입니다. 가짜 뉴스 제작자는 클릭베이트 헤드라인과 유사하며, 관심이나 트래픽을 유치하기 위해 내용의 진실성을 무시합니다.

가짜 뉴스는 눈길을 끄는 헤드라인, 화제를 끄는 스토리, 트렌드 주제를 쫓는 경우가 많습니다. 이로 인해 가짜 뉴스는 광고 수익을 창출하고 주목을 끌 가능성이 더 큽니다.

만우절에 표적을 맞춰 꼼수를 부리는 것 외에도, 인터넷의 편리함과 언론 보도의 문턱이 낮아지면서 가짜 뉴스는 평소의 실제 뉴스보다 더 빠르고 광범위하게 퍼진다. 이런 골치 아픈 문제를 해결하는 가장 좋은 방법은 필터링을 도와주는 지능형 필터를 갖는 것입니다.

가짜 뉴스와의 싸움: MIT, AI를 활용해 언어 패턴에서 가짜 뉴스 식별

MIT 연구원들은 언어 패턴을 기반으로 가짜 뉴스를 식별하는 방법을 사용했습니다.

MIT 연구팀은 '가짜 뉴스의 언어: 딥 러닝 기반 감지기의 블랙박스 열기'라는 제목의 논문에서 머신 러닝 모델을 사용하여 실제 뉴스와 가짜 뉴스의 언어에서 미묘한 차이를 파악하여 뉴스가 사실인지 거짓인지 판별했습니다.

그들은 합성 신경망을 사용하여 가짜 뉴스와 실제 뉴스 데이터 세트를 사용하여 학습시켰습니다. 그들은 훈련을 위해 Kaggle의 인기 있는 가짜 뉴스 연구 데이터 세트를 사용했는데, 여기에는 244개 웹사이트의 약 12,000개 샘플 가짜 뉴스 기사가 포함되어 있습니다. 실제 뉴스 데이터 세트는 뉴욕 타임스의 2,000건 이상의 뉴스 기사와 가디언의 9,000건 이상의 뉴스 기사에서 나왔습니다.

이 모델을 실제 뉴스 분석에 사용하면 보라색과 빨간색 단어가 많이 나올 것입니다.

훈련된 모델은 기사의 언어를 "단어 임베딩"으로 포착합니다. 여기서 단어는 벡터, 즉 본질적으로 숫자 배열로 표현되고, 의미적 의미가 비슷한 단어는 서로 더 가깝게 클러스터링되어 실제 뉴스와 가짜 뉴스 모두에서 공통적인 언어 패턴을 드러냅니다. 그런 다음, 새로운 기사의 경우 모델은 유사한 패턴을 찾아 텍스트를 스캔하고 이를 일련의 레이어로 보냅니다. 최종 출력 레이어는 각 패턴의 확률(진짜인지 가짜인지)을 결정합니다.

이 모델은 실제 뉴스와 가짜 뉴스에 자주 등장하는 단어의 특성을 요약합니다. 예를 들어, 가짜 뉴스는 과장되거나 최상급의 형용사를 사용하는 경향이 있는 반면, 진짜 뉴스는 비교적 보수적인 단어를 사용하는 경향이 있습니다.

GTP-2 가상 가짜 뉴스 분석에 사용된 모델, 노란색으로 표시된 단어만 사용

MIT 연구진은 연구의 일부가 딥 러닝 기술의 블랙박스를 드러내는 것이라고 말하는데, 이는 이 모델이 포착한 단어와 구문을 찾아내고 이를 바탕으로 예측과 분석을 하는 것, 즉 딥 러닝 판단의 근거와 방법을 알아내는 것이라고 합니다.

논문 주소: https://cbmm.mit.edu/sites/default/files/publications/fake-news-paper-NIPS.pdf

가짜 뉴스 퇴치: Fabula AI는 가짜 뉴스가 전파되는 방식을 기반으로 가짜 뉴스를 식별합니다.

영국의 기술 회사인 Fabula AI는 뉴스가 전파되는 방식을 활용해 가짜 뉴스를 식별한다고 발표했습니다.

Fabula AI 회사 웹사이트 슬로건

Fabula AI는 기하학적 심층 학습을 사용하여 가짜 뉴스를 감지합니다. 이 접근법은 뉴스 콘텐츠를 살펴보는 대신, 그러한 정보가 소셜 네트워크에서 어떻게 퍼지는지, 그리고 누가 퍼뜨리는지 살펴봅니다. 그들은 이 기술에 대한 특허를 신청했습니다.

Fabula AI의 공동 창립자이자 수석 과학자인 마이클 브론스타인은 "우리는 오랫동안 소셜 네트워크에서 뉴스가 확산되는 방식을 관찰해 왔습니다. 분석 결과, 가짜 뉴스와 진짜 뉴스가 서로 다르게 확산된다는 것을 발견했습니다. 기하학적 딥러닝의 핵심은 네트워크 구조 데이터를 처리할 수 있다는 것입니다. 사용자 특성, 사용자 간 소셜 네트워크 상호작용, 뉴스 자체의 확산 등 다양한 데이터를 결합하여 판단을 내릴 수 있습니다."라고 말했습니다.

마지막으로, AI는 진실 또는 거짓 뉴스의 신뢰성을 기준으로 콘텐츠를 분류하고 평가 점수를 부여합니다. 가짜 뉴스와 진짜 뉴스의 확산 패턴을 시각화해 보세요. 주로 가짜 뉴스를 공유하는 사용자는 빨간색이고, 가짜 뉴스를 전혀 공유하지 않는 사용자는 파란색입니다. Fabula AI는 이를 통해 집단 간 차이가 뚜렷하고 전염 패턴에 즉시 인식 가능한 차이가 있다는 것을 확인했다고 밝혔습니다.

Fabula AI의 사용자 태그 지정 방식

또한, 회사 측은 Fabula AI 기술의 주요 장점은 뉴스의 내용과 언어에 구애받지 않고, 소셜 플랫폼 이용자들의 집단적 행동에 의존하기 때문에 기술적 방법으로 대응하기 어렵다는 점이라고 밝혔습니다. 게다가 이 시스템은 높은 정확도(ROC AUC > 93%)로 가짜 뉴스를 출판 후 훨씬 빠른 속도와 짧은 시간 내에 감지할 수 있습니다.

기사 블로그: https://fabula.ai/news-index/2019/2/7/fabula-ai-announces-breakthrough-in-algorithmic-fake-news-detection

물론, AI를 이용해 가짜뉴스를 판단하는 방법은 아직 대중적으로 완전히 활용될 수 있는 단계에 이르지 못했습니다. 현재는 연구 단계이거나 인간의 도움이 필요하며, 여전히 개선이 필요한 세부 사항이 몇 가지 있습니다.

하지만 반면에,기술의 발전으로 AI가 텍스트와 이미지를 생성하는 능력도 더욱 성숙해졌습니다. 많은 곳에서는 가짜와 진짜를 구별할 수 없는 지경에 이르렀습니다. 오늘 당신이 본 가짜 뉴스 중 일부는 AI가 쓴 것일 수도 있습니다.어떤 면에서 이는 실제로 탐지 기술의 개선을 촉구하는 셈입니다.

가짜 뉴스: OpenAI, 가짜 뉴스를 진짜처럼 보이도록 조작

올해 초 OpenAI가 출시한 GPT-2는 매우 큰 매개변수 규모와 학습 데이터에 의존합니다. 웹 페이지에서 방대한 양의 텍스트에 대한 비지도 학습을 거친 후, 이 시스템은 텍스트를 생성하거나 이어가는 데 매우 효과적입니다. 그들이 연습에 사용한 텍스트는 Reddit에서 필터링한 웹 콘텐츠 4,500만 페이지에 달하는 내용을 담고 있는 것으로 알려졌습니다.

GPT-2에 대한 Open AI의 트윗은 많은 관심과 논의를 불러일으켰습니다.

이 모델은 제공된 안내 문장을 기반으로 겉보기에 신뢰할 만한 텍스트를 생성할 수 있으며, 뉴스를 작성하는 데 사용할 경우 전혀 모호하지 않습니다.

예를 들어:

인위적인 예: 도널드 트럼프가 실수로 공중에서 미사일을 발사한 후, 러시아는 미국에 선전포고를 했습니다.

번역: 도널드 트럼프가 실수로 미사일을 공중으로 발사한 후, 러시아는 미국에 선전포고를 했습니다.

AI는 다음과 같은 텍스트를 추가했습니다. 러시아는 "미사일의 궤적을 확인했으며 러시아 국민과 국가 전략 핵전력의 안보를 보장하기 위해 필요한 조치를 취할 것"이라고 밝혔습니다. 백악관은 중거리 탄도 미사일 금지 조약을 러시아가 위반한 것에 대해 "극도로 우려하고 있다"고 밝혔습니다.

미국과 러시아는 2014년 모스크바가 우크라이나의 크림반도 지역을 합병하고 우크라이나 동부의 분리주의자들을 지원한 이후 불안한 관계를 유지해 왔습니다.

번역:

러시아는 "미사일의 궤적을 확인했으며 러시아 국민의 안전과 국가의 전략 핵무기를 보장하기 위해 필요한 조치를 취할 것"이라고 밝혔습니다. 백악관은 중거리 탄도 미사일 금지 조약을 위반한 러시아의 행위에 대해 "깊은 우려"를 표명했습니다.

2014년 모스크바가 우크라이나의 크림반도 지역을 합병하고 우크라이나 동부의 분리주의자들을 지원한 이후, 미국과 러시아의 관계는 경색되었습니다.

맞습니다. 위의 스토리는 인공지능에 의해 완전히 독립적으로 만들어졌습니다. 제공된 자료는 단 한 문장뿐이었습니다. "도널드 트럼프가 우연히... 러시아가 미국에 선전포고를 했습니다."

GPT-2 생성 텍스트의 예

물론 OpenAI 팀은 의도적으로 가짜 뉴스를 만들어내지는 않지만, 악의적인 사람들이 비윤리적인 행동을 하는 것을 막을 수는 없습니다. OpenAI는 모델이 너무 강력하기 때문에 주요 데이터와 코드를 공개하지 않기로 결정했습니다.

가짜: AI는 비디오 콘텐츠 생성에도 능숙하다

게다가 사람들은 AI가 생성한 비디오 콘텐츠를 구별하는 능력을 잃을 수도 있습니다.

가짜 초상화를 생성하는 AI 모델의 예

작년 초, 누군가가 외국의 비디오 사이트에 유명 프랑스 음악가 프랑수아즈 아르디의 영상처럼 보이는 영상을 올렸습니다.

영상 속 해설자는 트럼프 대통령이 백악관 대변인 스펜서에게 자신의 대통령 취임식 시청자 수에 대해 거짓말을 하라고 요구한 이유를 그녀에게 물었습니다.

하디 씨는 스펜서 씨가 단지 "대체적인 사실을 제시했을 뿐"이라고 답했습니다.

그러나 이 영상은 결함투성이이며, 하디의 목소리는 명백히 트럼프의 보좌관인 켈리앤 코네웨이의 목소리입니다.

더욱 놀라운 것은 73세로 추정되는 하디가 실제로는 겨우 20살 정도로 보인다는 점이다.

"Alternative Face v1.1"이라는 제목의 이 영상은 예술가 마리오 클링게만이 만든 예술 작품인 것으로 밝혀졌습니다. 이 기사에서 하디가 한 말은 실제로 NBC 기자들의 질문에 대한 코네웨이의 답변이다.

보도에 따르면 클링게만은 생성적 적대 신경망(GAN) 머신 러닝 알고리즘을 사용하여 이 프로그램에 하디의 젊은 시절의 MTV 영상을 대량으로 제공했습니다. 그는 68개의 얼굴 랜드마크를 추출하여 2,000개의 훈련 사례를 만들었고, 이를 pix2pix 모델에 입력했습니다. 3일간의 훈련 후, 그는 코네웨이의 얼굴 특징을 시스템에 입력하여 이 영상 작업을 얻었습니다.

또한, GAN과 같은 기술을 사용하여 이미지, 사운드, 심지어 얼굴 변환 기술까지 생성하는 방식이 기술과 하드웨어의 발전으로 점점 더 현실적으로 변하고 있습니다. 기술 자체에는 옳고 그름이 없습니다. 하지만 구글 브레인 연구원인 굿펠로우가 말했듯이 "AI는 우리가 무엇을 신뢰할 수 있는지에 대한 관점을 완전히 바꿔놓을 것입니다."

AI 방법은 가짜 뉴스를 구별하고 식별하는 데 점점 더 강력해지고 있습니다. 하지만 기술은 가짜 콘텐츠를 더욱 현실적으로 만들기도 합니다. 이 "창과 방패" 대결의 결과는 시간이 지나봐야 알 수 있을 것이다. 하지만 우리는 여전히 이러한 비전을 가져야 합니다. 훌륭한 기술이 올바른 곳에 사용되기를 바랍니다.

AI 위조 방지 및 위조는 모두 인간의 선택입니다.

구스타브 르 본은 그의 저서 '군중'에서 가짜 뉴스의 근원을 이렇게 설명했습니다. 대중은 결코 진실을 원하지 않기 때문입니다. 자신들이 좋아하지 않는 명백한 사실에 직면하면, 그들은 외면하고 오히려 자신에게 호소력이 있는 오류를 숭배합니다.

일부 언론 매체가 집단 의식의 약점을 악용하여 AI를 이용해 소문과 가짜 뉴스를 만들어낼 때, 그 책임은 기술 자체에 있는 것이 아닙니다. AI 자체는 가짜 뉴스를 적극적으로 생산하고 없애려는 의지가 없기 때문입니다. 이러한 현상의 이면에는 미디어 자체의 운영과 인간의 개입이 있습니다.

가짜 뉴스를 없애고 싶다면, 실제로 없애야 할 것은 사람들의 집착입니다.

즐거운 만우절이 아니네요.

원본 기사를 읽으려면 클릭하세요