HyperAI

Les Secrets Intérieurs Sont Écrits Sur Le Visage. Les Scientifiques Utilisent La Reconnaissance Faciale Pour Prédire L’orientation Sexuelle Et Les Tendances Criminelles

il y a 6 ans
Titres
Liste recommandée
Dao Wei
特色图像

Par Super Neuro

Il existe un vieux dicton chinois selon lequel « l'apparence reflète le cœur », ce qui a été récemment vérifié par des scientifiques de Stanford grâce à la technologie de reconnaissance faciale.

Dans leurs recherches, ils ont avancé une conjecture audacieuse : l’orientation sexuelle et les tendances criminelles d’une personne peuvent être analysées grâce à la reconnaissance faciale. Cela semble incroyable. Bien sûr, certains sont curieux et espèrent que cela puisse être mis en pratique le plus rapidement possible, tandis que d’autres le critiquent vivement, estimant qu’il s’agit d’une grande forme de discrimination.

La reconnaissance faciale est largement utilisée dans la sécurité, la surveillance, le contrôle des risques financiers et d’autres domaines, principalement pour l’authentification des personnes réelles. La reconnaissance faciale a désormais trouvé une nouvelle direction sous la direction d’une équipe de recherche de l’Université de Stanford. Ils espèrent utiliser la reconnaissance faciale pour étudier l’orientation sexuelle et les tendances criminelles des gens.

La raison pour laquelle l’orientation sexuelle est étudiée est que le progrès social a permis aux cultures marginales de se développer, de s’intégrer davantage dans la culture dominante et d’être acceptées par davantage de personnes. Les différentes identités de genre de la majorité sont de plus en plus acceptées, et les différentes orientations sexuelles sont également reconnues par la société et même par la loi.

En particulier pour les logiciels sociaux, il existe non seulement de nombreuses applications conçues spécifiquement pour les personnes d'orientations sexuelles minoritaires, mais Facebook a également commencé à prêter attention à la distinction entre le genre et l'orientation sexuelle dès 2014, et a augmenté les deux choix initiaux dans les options de genre de l'utilisateur à 58, y compris Androgyne, Homme à Femme, Femme transgenre, Bispirituel, etc. 

La page d'inscription Facebook proposait 71 options de genre (à gauche) et la page d'inscription Google I/O 2019 proposait 5 options de genre et personnalisées (à droite).

Cependant, ces options ne sont plus disponibles sur le site Web actuel. En plus des options homme et femme, il existe également une option personnalisée, ce qui signifie que vous pouvez indiquer n'importe quel sexe. 

Mais si quelqu’un vous disait qu’il peut déterminer la probabilité que vous soyez gay simplement en regardant votre photo, comment réagiriez-vous ? Et si, d’après la photo, vous pouviez déduire que vous avez de fortes chances de commettre un crime ? 

Quand l'IA devient Gaydar  

Une équipe de l'Université de Stanford a publié un article en 2017 « Les réseaux neuronaux profonds sont plus précis que les humains pour détecter l'orientation sexuelle à partir d'images faciales »Pour la première fois, l’IA, les images faciales et l’homosexualité ont été liées.

Images de visages et traits du visage d'orientation sexuelle synthétisés à partir de plusieurs images

En prenant des photos de visage à partir de sites de réseaux sociaux, en utilisant des réseaux neuronaux profonds (DNN) pour apprendre certaines caractéristiques, puis en utilisant certaines méthodes d'apprentissage automatique, l'objectif de distinction de l'orientation sexuelle peut être atteint. 

Leur résultat final était que la précision de reconnaissance du modèle d'IA était meilleure que celle des humains, et que l'algorithme de la machine pouvait distinguer l'orientation sexuelle d'une personne en fonction de certaines caractéristiques du visage. 

En moins d'un an, un étudiant en master nommé John Leuner a reproduit et amélioré cette recherche dans son article « A Replication Study: Machine Learning Models Are Capable of Predicting Sexual Orientation From Facial Images ».

Fondamentalement, une méthode similaire est utilisée, mais certaines améliorations sont apportées en même temps, en utilisant différents ensembles de données, en augmentant la capacité à résister aux interférences avec les images de personnes, etc. 

Qu’a révélé cette étude ? 

La méthode de l'Université de Stanford a utilisé deux modèles, l'un basé sur le réseau neuronal profond (DNN) et l'autre basé sur la morphologie faciale (FM), et John a ajouté un modèle de classificateur de photos floues.

Dans son article, il a formé et déterminé les capacités prédictives de trois modèles en utilisant un ensemble de données de 20 910 photos provenant d’un site de rencontres en ligne. 

Étant donné que le modèle utilise des données provenant de différents pays et races, son applicabilité devient meilleure. En outre, des recherches ont également été menées sur les photos floues. Pour les photos très floues, l’IA peut faire des prédictions basées sur les informations combinées du visage et de l’arrière-plan. 

De plus, même si la personne porte délibérément du maquillage, porte des lunettes, couvre son visage avec des cheveux ou change l’angle de son visage lorsqu’elle est photographiée, le test a révélé que les résultats prédits par le modèle ne changeront pas. Cela signifie que même si un homme hétéro se déguise en travesti, DNN peut toujours dire que vous êtes en fait un homme hétéro.

Testez des photos de la même personne dans des tenues et sous des angles différents

Dans l’ensemble, la recherche de Leuner est une répétition et une amélioration de l’étude de Stanford, et les deux utilisent des données pour prouver que les informations faciales peuvent être utilisées pour déterminer l’orientation sexuelle d’une personne. 

Pourquoi utiliser l’IA pour révéler les secrets des autres ?

Alors pourquoi une telle étude, qui démontre que l’IA est supérieure aux humains et peut favoriser la cognition et le positionnement humains dans certains aspects, ou aider la loi à éviter des tragédies, provoque-t-elle un tel tollé ? 

D’une part, il aborde le sujet sensible de l’homosexualité. Lorsque l’article de Stanford a été publié sur arXiv, il a provoqué un tollé. Certains groupes homosexuels ont même résisté de toutes leurs forces, estimant que leurs droits étaient bafoués par la technologie.

En 2016, une étude similaire a suscité un large débat social.

Deux chercheurs de l'Université Jiao Tong de Shanghai ont soumis un article sur arXiv, « Inférence automatisée sur la criminalité à l'aide d'images de visage », et le contenu de la recherche consistait à utiliser la reconnaissance faciale pour identifier les criminels.

Plusieurs exemples de photos utilisées dans l'étude, la rangée supérieure montre les auteurs

L’utilisation d’informations faciales pour révéler l’orientation sexuelle et les informations criminelles d’une personne suffit à inquiéter les gens. Si nous allons plus loin et étendons ce système à la prédiction des émotions, du QI et même de la position politique, cela conduira-t-il finalement à de graves préjugés et discriminations ? 

Par exemple, dans les régions où l’homosexualité est illégale, une fois que la technologie est utilisée pour faire respecter la loi, cela peut devenir une histoire sanglante. Prédire les tendances criminelles d’une personne et l’arrêter à l’avance est également une scène qui apparaît dans les films de science-fiction. 

Certains les comparent à la « physionomie ». 

Un autre point que beaucoup de gens remettent en question et critiquent est de savoir si ce type de recherche est en réalité une « pseudoscience » sous la forme de l’IA.

Aux yeux de certaines personnes, la méthode consistant à utiliser les traits du visage pour juger le comportement humain les amène à l'associer à la physionomie, mais leurs recherches utilisent davantage de données comme support, ce qui donne aux prédictions de l'IA un aspect plus « scientifique ». 

Il est intéressant de noter que l’article de recherche sur la criminalité de 2017 mentionne un livre sur la physionomie, « Complete Collection of Divine Physiognomy », dans ses références. 

Par conséquent, de nombreuses personnes se demandent si ces études, même si les données ont un taux de précision élevé, révèlent réellement le lien entre les deux ? 

Certaines des caractéristiques qui ont suscité l'intérêt de l'étude

Lorsque l’étude de recherche de l’Université de Stanford a été publiée, elle a suscité de nombreuses interrogations, soupçonnant que leurs données étaient insuffisantes et que leurs conclusions de recherche étaient trop certaines. Il en va de même pour la prédiction de la criminalité.

Le Dr Richard Tynan de Privacy International l’exprime ainsi : « En tant qu’individu, vous ne pouvez pas savoir comment une machine porte un jugement sur vous.

Sur de petits ensembles de données, les algorithmes, l’IA et l’apprentissage automatique peuvent créer des corrélations arbitraires et absurdes. Ce n’est pas la faute de la machine, mais il est dangereux d’utiliser des systèmes complexes dans des endroits inappropriés. " 

La technologie n’est pas effrayante, ce qui est effrayant, ce sont les préjugés et les mauvaises intentions.

Nous pourrions tout aussi bien faire l’hypothèse audacieuse que peut-être les gens n’ont pas inconsciemment peur de ce que l’IA va découvrir, mais ont peur que quelqu’un fasse tout un plat des résultats de l’analyse de l’IA. 

La manière dont l’IA gère les problèmes s’appuie sur davantage de données pour améliorer sa force de persuasion. Mais n’oubliez pas que l’IA est formée et conçue par des humains qui sont intrinsèquement biaisés. 

Ce que l’IA obtient à partir des données ne sont que des chiffres, donc son interprétation sera souvent utilisée d’une manière ou d’une autre.

Une étude menée par le département des technologies de l’information de l’Université de Princeton montre que l’apprentissage automatique et les algorithmes d’IA peuvent par inadvertance renforcer et étendre les préjugés établis qui prévalent dans la société ou dans le subconscient des utilisateurs. Par exemple, dans de nombreux scénarios, « docteur » et « il » sont associés, et « infirmière » et « elle » sont associés. 

Pour revenir à la recherche sur l'IA déterminant l'homosexualité, si la chose prédite était changée en quelque chose d'autre, comme une certaine maladie, alors avec la même méthode et des conclusions similaires, peut-être que de nombreuses personnes qui s'y opposent actuellement la loueraient comme un excellent travail.

Si cela révèle simplement les lois, il n’y a rien à craindre. Cependant, si des préjugés et des intentions malveillantes sont injectés, plus la technologie est puissante, plus grande sera la destruction qu’elle entraînera. 

En réponse à cette question, les chercheurs de Stanford ont tweeté : « Si vous découvrez une technologie de pointe qui contient une menace, que faites-vous ? La gardez-vous secrète, l'étudiez-la, soumettez-la à vos pairs et lancez un avertissement ? »