HyperAI초신경

페이스북 사무실 건물 4곳이 긴급 대피했습니다. 이는 테러리스트의 복수였는가, 아니면 실수였는가?

6년 전
정보
神经小兮
特色图像

소셜 미디어는 테러 조직의 주요 선전 플랫폼이 되었고, 이는 페이스북과 트위터와 같은 소셜 미디어에도 골칫거리가 되었습니다. 이런 테러리스트와 극단주의자들을 퇴치하기 위해 그들은 AI 기술을 사용해 적절한 시기에 관련 게시물을 자동으로 삭제할 것입니다. 하지만 이 때문에 그들은 테러리스트들과 원한을 품게 되기도 했습니다...

외신 보도에 따르면 태평양 표준시 기준 7월 1일 오전 11시경 캘리포니아주 멘로파크에 있는 페이스북 사무실로 '의심스러운 패키지'가 도착했습니다. 일상적인 검사 중에 사린 가스(치명적인 신경 가스)가 검출되어 테러 공격이 의심되었고, 직원들 사이에 공황 상태가 발생했습니다.

현재 연방수사국(FBI)에 이 사건에 대한 도움을 요청했습니다.

페이스북 본사 사린가스 공격 의심

캘리포니아주 멘로파크 경찰 대변인에 따르면, 뉴욕 경찰은 캘리포니아주 멘로파크에 있는 페이스북 사무실에서 폭탄 위협이 있다는 익명의 제보를 받고 오후 4시 30분경 지역 당국에 경고했다고 합니다.

보고서에 따르면 Facebook이 받은 의심스러운 패키지는 큰 우편 가방, 많은 양의 우편물이 담겨 있었는데, 멘로 파크 시설의 우편물 스캐닝 기계를 통과한 후 사린 양성 반응이 나왔습니다. 이는 거짓 경보일 수도 있지만 위험성을 배제할 수는 없습니다.

페이스북이 4개 건물을 대피시킨 후 FBI가 수사에 개입했습니다.

화요일, 페이스북의 실리콘 밸리 캠퍼스에 있는 4개 건물은 우편 시설의 소포에 신경 가스 사린이 들어있을 수 있다는 우려로 인해 대피했습니다.

사린은 액체에서 기체로 증발할 수 있기 때문에 매우 불안정한 신경 가스입니다. 사린은 투명하고, 색도, 냄새도, 맛도 없습니다. 사람들이 피부, 눈 또는 호흡을 통해 사린에 접촉하면 핀프릭 크기의 사린 한 방울만으로도 성인을 빠르게 죽일 수 있습니다.

페이스북이 테러 위협을 받은 것은 처음이 아닙니다!

2018년 12월 11일 오후(현지 시간), 미국 경찰은 폭발 위협으로 인해 페이스북 본사 캠퍼스 내 건물을 대피시켰지만, 몇 시간 동안 진행된 수색에서 폭발 장치의 흔적은 발견되지 않았고 이후 경보가 해제되었습니다.

페이스북이 겪은 사건들은 인터넷상의 폭력적이고 불화적인 발언에 맞서 싸우는 것과 많은 관련이 있습니다. 소셜 미디어의 주요 트래픽 소비자인 Facebook은 네트워크 환경에 접근하고 이를 처리하는 데 엄청난 노력을 기울였으며, 심지어 목숨을 걸기도 했습니다.

전 세계에 증오와 인종 차별을 퍼뜨리는 극단주의 단체를 칭찬하거나, 지지하거나, 대표하는 모든 Facebook 콘텐츠는 삭제되어야 합니다. 그래서 정부 편에 선 페이스북이 이런 조직들의 공격 대상이 됐습니다.

단편소설: 극단적 사상의 형성

2014년경에는 ISIS가 부상하고 소셜 미디어와 모바일 인터넷 정보가 폭발적으로 증가했습니다.

ISIS는 그들이 주장하는 사상은 매우 보수적이지만, 트위터, 페이스북, 유튜브 등 다양한 커뮤니케이션 수단을 사용하여 극단주의 사상을 퍼뜨리고 전 세계의 지지자들을 끌어모으고 있습니다.

페이스북과 트위터는 ISIS의 가장 큰 타격을 입었습니다.

그들은 심지어 자신만의 페르소나를 만드는 방법도 알고 있습니다. 이들은 잔혹한 처벌 영상을 게시하는 것 외에도 젊은 네티즌들을 만족시키려고 노력한다.

심지어 ~을 만들었습니다 이슬람 국가 고양이들트위터와 페이스북에서 하나하나씩 폐쇄될 때까지 자신의 삶 속에서 새끼 고양이의 사진과 영상을 게시한 계정들이 있었습니다.

금지되기 전까지 이 계정은 트위터에서 ISIS의 가장 인기 있는 계정 중 하나였습니다.

2018년 1분기에 Facebook은 총 2,888만 3700개의 게시물을 삭제하고, 테러와 증오 표현과 관련된 정보와 계정을 중심으로 약 5억 8,300만 개의 가짜 계정을 폐쇄하고 삭제했습니다.

거인의 힘: 불화의 흔적을 조용히 지워내다

Facebook은 게시물 차단 및 삭제 과정에서 인간의 개입에 대한 의존도가 점점 높아지고 있다고 밝혔습니다. 99.5 % 테러와 관련된 게시물은 페이스북에서 인공지능 기술을 통해 발견됩니다.

이러한 기술 중 하나는이미지 인식 및 매칭사용자가 게시한 사진이 의심스럽다고 의심되면 Facebook은 알고리즘을 통해 자동으로 해당 사진이 ISIS 선전 영상과 관련이 있는지, 아니면 삭제된 극단적인 사진이나 영상과 연관이 있는지 확인한 후 금지 조치를 취합니다.

Facebook의 기술팀은 한때 블로그에 글을 올렸습니다."로제타: 머신러닝을 활용한 이미지와 비디오 속 텍스트 이해", 이미지 인식 도구인 Rosetta의 작동 방식을 설명합니다.

이미지 인식 도구 Rosetta는 아랍어 인식을 위해 특별한 처리를 했습니다.

Rosetta는 Faster R-CNN을 사용하여 문자를 감지한 다음 CTC(Connectionist Temporal Classification) 손실을 적용한 ResNet-18 완전 합성 모델을 사용하여 텍스트 인식을 수행하고 LSTM을 사용하여 정확도를 높입니다.

최종 생성된 텍스트 인식 모델 구조

또한 페이스북에서도 진행 중텍스트 분석 연구테러리스트가 웹사이트에서 사용할 수 있는 언어를 분석하고, 게시된 콘텐츠에 테러가 포함되는 경우 즉시 그에 따른 대응 조치를 취합니다.

Facebook은 점점 더 강력해지는 AI 검토 도구 외에도 강력한 수동 검토 팀을 보유하고 있습니다. 보안팀은 커뮤니티 운영팀과 커뮤니티 무결성팀의 두 팀으로 나뉩니다. 커뮤니티 무결성 팀은 주로 신고-응답 메커니즘을 위한 자동화 도구 구축을 담당합니다.

현재 이 매뉴얼 검토팀은 20,000명 이상에게 다가갔습니다. 현재 Facebook의 활성 사용자가 20억 명이라는 점을 고려하면, 각 보안 담당자는 10만 명의 사용자를 관리해야 합니다.

큰 힘에는 큰 책임이 따른다

우리가 접하는 모든 정보는 여러 겹의 알고리즘을 거쳐 검토된 후 구성됩니다. 페이스북, 트위터, 웨이보, 더우인 등의 플랫폼은 테러, 반동, 음란물 등과 관련된 부정적인 뉴스 콘텐츠를 대량으로 매일 차단하고 삭제하는데, 이는 불가피하게 일부 조직의 이익에 영향을 미칩니다.

더욱이 이 세상에서는 다양한 정부, 조직, 국적, 문화권의 세력이 정보 제공을 방해하고 있습니다.

이전에 ISIS가 프랑스 파리의 샤를리 에브도를 공격한 적이 있으며, 페이스북도 여러 차례 사고를 겪었습니다. 기술이든 플랫폼이든 그들은 종종 자신의 중립적 입장을 내세우지만, 그것과 완전히 거리를 둘 수는 없습니다. 오늘날의 세상에서 선량한 사람들이 테러 세력에 맞서 계속 싸울 수 있는 유일한 방법은 스스로를 보호하는 것입니다.

마블 세계에서는 여러 명의 슈퍼히어로가 이렇게 말했습니다.

큰 힘에는 큰 책임이 따른다.
큰 힘에는 큰 책임이 따른다

--위에--

원본 기사를 읽으려면 클릭하세요