내면의 비밀은 얼굴에 적혀있습니다. 과학자들은 얼굴 인식을 사용하여 성적 지향과 범죄 경향을 예측합니다.

Super Neuro에서
"겉모습은 마음을 반영한다"는 오래된 중국 속담이 있는데, 최근 스탠포드 과학자들이 얼굴 인식 기술을 사용하여 이 속담을 검증했습니다.
그들은 연구에서 대담한 추측을 내놓았습니다. 얼굴 인식을 통해 사람의 성적 지향과 범죄 경향을 분석할 수 있다는 것입니다. 정말 믿을 수 없을 것 같아요. 물론, 호기심을 갖고 가능한 한 빨리 시행되기를 바라는 사람도 있고, 큰 차별이라며 강하게 비판하는 사람도 있습니다.
얼굴 인식은 보안, 모니터링, 금융 위험 관리 등의 분야에서 가장 널리 사용되며, 주로 실제 사람 인증에 사용됩니다. 이제 스탠포드 대학 연구팀의 주도 하에 얼굴 인식이 새로운 방향을 찾았습니다. 그들은 얼굴 인식을 사용하여 사람들의 성적 지향과 범죄 경향을 연구하기를 희망합니다.
성적 지향을 연구하는 이유는 사회적 진보로 인해 주변 문화가 발전하고, 주류 문화에 더욱 통합되어 더 많은 사람들에게 받아들여질 수 있게 되었기 때문입니다. 다수의 다른 성 정체성이 점점 더 받아들여지고 있으며, 다양한 성적 지향도 사회와 심지어 법적으로 인정받고 있습니다.
특히 소셜 소프트웨어의 경우, 소수 성적 지향을 가진 사람들을 위해 특별히 설계된 앱이 많을 뿐만 아니라, 페이스북도 2014년 초부터 성별과 성적 지향의 구분에 주의를 기울이기 시작하여 사용자의 성별 옵션에서 원래 두 가지 선택 사항을 안드로진, 남성에서 여성으로, 트랜스젠더 여성, 투스피릿 등 58개로 늘렸습니다.

Facebook 등록 페이지에는 71개의 성별 옵션이 있었고(왼쪽), Google I/O 2019 등록 페이지에는 5개의 성별 옵션과 사용자 정의 옵션이 있었습니다(오른쪽).
하지만 현재 웹사이트에서는 이러한 옵션을 더 이상 이용할 수 없습니다. 남성과 여성 외에도 사용자 정의 옵션이 있어서 원하는 성별을 입력할 수 있습니다.
하지만 누군가가 당신의 사진만 봐도 당신이 게이일 가능성을 알 수 있다고 말한다면, 어떤 반응을 보이시겠어요? 만약 사진을 보고 범죄를 저지를 가능성이 높다고 추론할 수 있다면?
AI가 게이더가 될 때
스탠포드 대학의 한 팀이 2017년에 논문을 발표했습니다. 《딥 신경망은 얼굴 이미지에서 성적 지향을 감지하는 데 인간보다 더 정확하다》처음으로 AI와 얼굴 이미지, 동성애가 연결되었습니다.

여러 이미지에서 합성된 성적 지향 얼굴 이미지 및 얼굴 특징
소셜 네트워킹 사이트에서 얼굴 사진을 가져오고, 딥 뉴럴 네트워크(DNN)를 사용하여 일부 특징을 학습한 다음, 머신 러닝 방법을 사용하면 성적 지향을 구별하는 목적을 달성할 수 있습니다.
최종 결과는 AI 모델의 인식 정확도가 인간보다 우수했으며, 기계 알고리즘은 일부 얼굴 특징을 기반으로 사람의 성적 지향을 구별할 수 있다는 것이었습니다.
1년도 채 되지 않아 존 루너라는 석사과정 학생이 "반복 연구: 머신 러닝 모델은 얼굴 이미지로부터 성적 지향을 예측할 수 있다"라는 논문에서 이 연구를 재현하고 개선했습니다.
기본적으로 비슷한 방법을 사용하지만, 다양한 데이터 세트를 사용하고, 사람 사진에 대한 간섭을 저항하는 능력을 높이는 등 동시에 몇 가지 개선이 이루어졌습니다.
이 연구에서는 무엇을 발견했나요?
스탠포드 대학의 방법은 두 가지 모델을 사용했는데, 하나는 딥 신경망(DNN) 기반이고 다른 하나는 얼굴 형태학(FM) 기반이었고, 존은 흐릿한 사진 분류기 모델을 추가했습니다.
그는 논문에서 온라인 데이트 웹사이트의 20,910장 사진 데이터 세트를 사용하여 세 가지 모델의 예측 역량을 훈련하고 확인했습니다.
이 모델은 다양한 국가와 인종의 데이터를 사용하므로 적용성이 더 뛰어납니다. 또한 흐릿한 사진에 대한 연구도 진행되었습니다. 매우 흐릿한 사진의 경우, AI는 얼굴과 배경에 대한 정보를 결합해 예측을 내릴 수 있습니다.
게다가 사진을 찍을 때 의도적으로 화장을 하거나, 안경을 쓰거나, 머리카락으로 얼굴을 가리거나, 얼굴 각도를 바꾸더라도 모델이 예측한 결과는 변하지 않는다는 것을 실험을 통해 확인했습니다. 즉, 이성애자 남성이 크로스드레서로 분장하더라도 DNN은 여전히 당신이 실제로 이성애자 남성인지 구별할 수 있다는 뜻입니다.

같은 사람의 다른 복장과 각도에서 찍은 사진을 테스트해보세요.
전반적으로, 루너의 연구는 스탠포드 연구를 반복하고 개선한 것이며, 두 연구 모두 얼굴 정보를 사용하여 사람의 성적 지향을 판별할 수 있다는 것을 입증하기 위해 데이터를 사용합니다.
왜 다른 사람의 비밀을 밝히기 위해 AI를 사용해야 할까요?
그렇다면 AI가 인간보다 우수하고 어떤 면에서는 인간의 인지와 위치 지정을 촉진하거나 법이 비극을 피하는 데 도움이 될 수 있다는 것을 보여주는 이러한 연구가 왜 이토록 큰 논란을 일으키는 걸까?
한편으로는 동성애라는 민감한 주제가 관련되어 있습니다. 스탠포드 논문이 arXiv에 게재되자 큰 반향을 일으켰습니다. 일부 게이 단체는 기술로 인해 침해당하고 있다고 믿고 온 힘을 다해 저항하기도 했습니다.
2016년에도 비슷한 연구가 광범위한 사회적 논의를 촉발했습니다.
상하이 교통대학의 두 연구원은 "얼굴 이미지를 이용한 범죄에 대한 자동 추론"이라는 제목의 논문을 arXiv에 제출했는데, 연구 내용은 얼굴 인식을 이용해 범죄자를 식별하는 것이었습니다.

연구에 사용된 여러 샘플 사진, 맨 위 행에는 가해자가 나와 있습니다.
얼굴 정보를 이용해 개인의 성적 지향과 범죄 정보를 드러내는 것만으로도 사람들은 걱정하기 충분합니다. 한 걸음 더 나아가 이를 감정, IQ, 심지어 정치적 입장까지 예측하는 데까지 확장한다면 결국 심각한 편견과 차별로 이어질까요?
예를 들어, 동성애가 불법인 지역에서 기술을 이용해 법을 집행하면 피비린내 나는 사건이 벌어질 수 있습니다. 사람의 범죄 성향을 예측해 미리 체포하는 것 역시 공상과학 영화에서 흔히 볼 수 있는 장면이다.
어떤 사람들은 이를 "인상학"에 비유합니다.
많은 사람들이 의문을 제기하고 비판하는 또 다른 점은 이러한 유형의 연구가 실제로 AI 형태의 "의사과학"인지 여부입니다.
어떤 사람들은 얼굴 특징을 이용해 인간의 행동을 판단하는 방식을 인상학과 연관시키지만, 그들의 연구는 더 많은 데이터를 뒷받침 자료로 사용하기 때문에 AI의 예측이 더 "과학적"으로 보인다.
흥미롭게도, 2017년 범죄 연구 논문에는 참고문헌에 관상학에 관한 책인 "신관상학 전집"이 나열되어 있습니다.
그래서 많은 사람들이 이러한 연구들이 데이터의 정확도가 높더라도 실제로 두 가지 사이의 연관성을 보여주는지에 대해 의문을 품습니다.

연구에서 관심을 끌었던 몇 가지 특징
스탠포드 대학의 연구 논문이 발표되자 많은 의문이 제기되었는데, 데이터가 너무 적고 연구 결론이 너무 확실하다는 의심이 제기되었습니다. 범죄 예측에도 마찬가지입니다.
Privacy International의 리처드 타이넌 박사는 이렇게 말합니다. "개인인 당신은 기계가 당신에 대해 어떻게 판단하는지 알 수 없습니다.
소규모 데이터 세트에서는 알고리즘, AI, 머신 러닝이 임의적이고 터무니없는 상관관계를 만들어낼 수 있습니다. 기계의 잘못은 아니지만, 복잡한 시스템을 부적절한 곳에 사용하는 것은 위험합니다. "
기술이 무서운 것이 아니라, 편견과 사악한 의도가 무섭다
사람들이 무의식적으로 AI가 무엇을 발견할지 두려워하지 않고, 누군가가 AI 분석 결과에 대해 큰 소란을 피울까 봐 두려워하는 것일 수도 있다는 대담한 가정을 하는 게 좋겠습니다.
AI가 문제를 처리하는 방식은 설득력을 높이기 위해 더 많은 데이터에 의존합니다. 하지만 AI는 본질적으로 편견을 지닌 인간에 의해 훈련되고 설계되었다는 사실을 잊지 마세요.
AI가 데이터에서 얻는 것은 숫자에 불과하므로, 이를 해석하는 방식이 어떤 식으로든 활용되는 경우가 많습니다.
프린스턴 대학교 정보기술학과에서 실시한 연구에 따르면, 머신러닝과 AI 알고리즘은 사회나 사용자의 잠재의식에 널리 퍼져 있는 기존 편견을 의도치 않게 강화하고 확대할 수 있는 것으로 나타났습니다. 예를 들어, 많은 시나리오에서 "doctor"와 "he"는 서로 일치하고, "nurse"와 "she"는 서로 일치합니다.
AI가 동성애를 판별한다는 연구로 돌아가서, 예측하는 대상이 다른 것, 예를 들어 특정 질병으로 바뀌었다면, 같은 방법으로 비슷한 결론을 내렸을 때, 현재 AI에 반대하는 많은 사람들이 훌륭한 일이라고 칭찬할지도 모릅니다.
단순히 법을 공개하는 것뿐이라면 두려워할 것은 없습니다. 그러나 편견과 사악한 의도가 주입되면 기술이 강력해질수록 파괴도 커질 것입니다.
이 질문에 대한 답으로 스탠퍼드 연구원들은 다음과 같이 트윗했습니다. "위협을 담고 있는 최신 기술을 발견한다면 어떻게 하시겠습니까? 비밀로 하고, 연구하고, 동료들에게 검토를 요청한 후 경고를 발령하시겠습니까?"