心の秘密は顔に書かれている、科学者は顔認識を使用して性的指向と犯罪傾向を予測する

6 年前

見出し

おすすめリスト

Dao Wei

特色图像

超神経質で

「見た目は心から生まれる」という中国の古いことわざが、最近スタンフォード大学の科学者によって顔認識技術を使用して検証されました。

彼らは研究の中で、人々の性的指向と犯罪傾向は顔認識を通じて分析できるという大胆な推測を提唱しました。もちろん信じられない話に聞こえるが、興味を持って一刻も早く実用化されることを望む人もいる一方で、これは立派な差別であると強く批判する人もいる。

顔認識はセキュリティ、監視、金融リスク管理などの分野で最も広く使用されており、主に本人認証に使用されます。現在、スタンフォード大学の研究グループの主導のもと、顔認識は新たな方向性を見出しており、彼らは顔認識を通じて人々の性的指向と犯罪傾向を研究したいと考えている。

私たちが性的指向を研究する理由は、社会の進歩により疎外された文化が発展し、主流文化にさらに統合され、より多くの人々に受け入れられるようになったからです。さまざまな多数派のジェンダー認識がますます受け入れられ、さまざまな性的指向が社会によって、さらには法的にも認められています。

特にソーシャル ソフトウェアに関しては、2014 年には性別と性的指向の区別に注意を払い始め、ユーザーの性別の選択肢に当初の 2 つの選択肢を追加する Facebook を含む、少数派の性的グループ向けに設計されたアプリが多数あるだけではありません。両性具有、男性から女性、トランスジェンダー女性、二霊などを含む 58 件の商品があります。 

Facebook の登録ページにはかつて 71 の性別のオプションがあり (左の写真)、Google I/O 2019 の登録ページには 5 つの性別のオプションとカスタマイズがありました (右の写真)

これらのオプションは現在の Web サイトでは利用できなくなりました。男性と女性に加えて、任意の性別を入力できるカスタム オプションもあります。 

しかし、誰かがあなたの写真であなたがどれくらい曲がる可能性があるかを教えてくれたらどう反応しますか? 写真に基づいて、犯罪を犯す可能性が高いと推測された場合はどうしますか? 

AIがゲイダーになるとき  

スタンフォード大学のチームが2017年に論文を発表 「ディープ ニューラル ネットワークは、顔画像から性的指向を検出することにおいて、人間よりも正確です」 (訳: ディープ ニューラル ネットワークは、顔画像から性的指向を検出することにおいて、人間よりも正確です)、AI、顔画像、同性愛が初めて関連しました。

性的指向の顔画像と複数の画像から合成された顔の特徴

ソーシャル ネットワーキング サイトから顔写真を取得した後、ディープ ニューラル ネットワーク (DNN) を使用していくつかの特徴を学習し、その後、性的指向を区別するという目的を達成するためにいくつかの機械学習手法を使用します。 

最終的な結果は、AI モデルの認識精度が人間の認識精度よりも優れており、機械アルゴリズムがいくつかの顔の特徴を通じてその人の性的指向を区別できるということでした。 

ジョン・ロイナーという修士課程の学生は、1 年も経たないうちにこの研究を再現し、改良しました。「複製研究: 機械学習モデルは顔画像から性的指向を予測できる」。

基本的には同様の方法が使用されますが、同時に、異なるデータセットを使用したり、人物の写真の耐干渉能力を高めたりするなど、いくつかの改良が加えられています。 

この研究で何が明らかになったのでしょうか? 

スタンフォード大学の手法では、ディープ ニューラル ネットワーク (DNN) に基づくモデルと顔の形態学 (FM) に基づくモデルの 2 つのモデルが使用されており、ジョンはぼやけた写真分類器のモデルを追加しました。

彼の論文では、オンライン出会い系サイトからの 20,910 枚の写真のデータセットを使用して 3 つのモデルの予測能力をトレーニングし、決定しました。 

このモデルはさまざまな国や人種のデータを使用しているため、適用性が高くなります。また、ぼやけた写真についても、顔と背景の総合的な情報からAIが予測する研究も行われています。 

そして、キャラクターが意図的に化粧をしたり、メガネをかけたり、ひげを隠したり、顔写真の角度を変えたりしても、モデルが予測した結果は変わらないことがテストで判明した。 つまり、異性愛者の男性が女装男性のふりをしていても、DNN では実際には異性愛者であることがわかります。

同じ人物の異なる服装や角度での写真をテストする

一般的に言えば、ロイナー氏の研究はスタンフォード大学の研究を反復し改良したものであり、顔情報が人の性的指向を判断するために使用できることを証明するためにもデータが使用されています。 

なぜ AI を使って他人の秘密を明らかにするのでしょうか?

それでは、AIが人間よりも優れており、ある面では人間の認知や位置決めを促進し、あるいは法律が悲劇を回避するのに役立つことを示すこのような研究が、なぜこれほどの騒動を引き起こすのでしょうか? 

一方で、これは同性愛というデリケートなテーマを含んでおり、スタンフォード大学の論文が arXiv に掲載されたとき、一部の同性愛者グループはテクノロジーによって侵害されたと信じて、あらゆる努力を惜しみませんでした。

2016 年にも、同様の研究が広範な社会的議論を引き起こしました。

上海交通大学の研究者2名は「顔画像を用いた犯罪性の自動推論」という論文をarXivに投稿しており、その研究内容は顔認識によって犯罪者を特定するというものだ。

研究で使用された数枚のサンプル写真、一番上の行が犯人

顔情報を使って人の性的指向や犯罪情報を知ることは、人々を不安にさせるのに十分であるが、それをさらに一歩進めて、感情、IQ、さらには政治的立場の予測にまで拡張すると、最終的には深刻な偏見や差別につながるのだろうか。 

たとえば、同性愛が違法な地域では、ひとたびテクノロジーが法執行に利用されると、それは血なまぐさい話になるだろう。人の犯罪傾向を予測して事前に逮捕するというのは、SF映画などでも登場するシーンだ。 

「人相学」と比較する人もいます。 

多くの人が疑問と批判をしているもう一つの点は、この種の研究が AI の形で「疑似科学」として行われているかどうかです。

一部の人々の目には、人の行動を判断するために顔を使用する方法が人相学と関連付けられているように見えますが、彼らの研究では、AI 予測をより「科学的」に見せるためのサポートとしてより多くのデータが使用されています。 

興味深いことに、犯罪研究に関する2017年の論文には、参考文献に人相学に関する書籍『The Complete Collection of Divine Physiograms』が含まれていた。 

したがって、たとえデータの精度が高いとしても、これらの研究が本当にこの 2 つの関係を明らかにしているのかどうか疑問に思う人がたくさんいます。 

研究で興味深いいくつかの特徴

スタンフォード大学の研究論文が発表されたとき、データが少なすぎるのではないか、研究の結論が堅固すぎるのではないかと疑問の声が多かった。犯罪の予測についても同様です。

プライバシー・インターナショナルのリチャード・タイナン博士は次のように述べています。「個人としては、機械があなたをどのように判断するかを知る方法はありません。

小規模なデータセットでは、アルゴリズム、人工知能、機械学習が恣意的で不合理な相関関係を確立する可能性があります。機械のせいではありませんが、複雑なシステムを不適切な場所で使用すると危険が伴います。 」 

テクノロジーは怖くない、怖いのは偏見と邪念

おそらく人々は無意識のうちに、AI が何を発見するかは恐れていないが、誰かが AI の分析結果について大騒ぎすることを恐れているのではないかと大胆に仮定してもよいでしょう。 

AI が問題を処理する方法は、説得力を高めるためにより多くのデータに依存します。しかし、AI は本質的に偏見を持った人間によって訓練され、設計されているということを忘れないでください。 

AI がデータから導き出せるのは一部の数値にすぎないため、その解釈が何らかの形で悪用されることがよくあります。

プリンストン大学情報技術部門が実施した調査では、機械学習と AI アルゴリズムが、社会に、あるいはユーザーの間で無意識のうちに広がる確立された偏見を、意図せず強化したり、増幅したりする可能性があることを示しました。たとえば、多くのシナリオでは、「医師」と「彼」が一緒に照合され、「看護師」と「彼女」が一緒に照合されます。 

AIによる同性愛判定の研究に戻りますが、ある病気など、予測されるものが違っていれば、同じ手法で同様の結論が、現在反対している多くの人たちから美しい作品として賞賛されるかもしれません。

ルールを明らかにするだけであれば、それ自体は恐ろしいものではありませんが、偏見や邪念が注入されると、テクノロジーが強力であればあるほど、それがもたらす破壊は大きくなります。 

この質問に応えて、スタンフォード大学の研究者はツイッターに次のような回答を投稿した: 「人気のテクノロジーに隠された脅威を見つけたらどうしますか? それを秘密にしておくべきですか、それとも研究して同僚に知らせるべきですか?」コメントして警告を発しますか?」