Die Inneren Geheimnisse Stehen Im Gesicht Geschrieben. Wissenschaftler Nutzen Gesichtserkennung, Um Sexuelle Orientierung Und Kriminelle Neigungen Vorherzusagen

Von Super Neuro
Es gibt ein altes chinesisches Sprichwort, das besagt, dass „das Aussehen das Herz widerspiegelt“, was kürzlich von Wissenschaftlern der Stanford University mithilfe einer Gesichtserkennungstechnologie bestätigt wurde.
In ihrer Forschung stellten sie eine kühne Vermutung auf: Durch Gesichtserkennung ließen sich die sexuelle Orientierung und die kriminellen Neigungen einer Person analysieren. Es klingt unglaublich. Natürlich sind einige Leute neugierig und hoffen, dass es so schnell wie möglich in die Praxis umgesetzt werden kann, während andere es stark kritisieren und glauben, dass es eine große Form der Diskriminierung ist.
Gesichtserkennung wird am häufigsten in den Bereichen Sicherheit, Überwachung, Finanzrisikokontrolle und anderen Bereichen eingesetzt, hauptsächlich zur Authentifizierung realer Personen. Nun hat die Gesichtserkennung unter der Leitung eines Forschungsteams der Stanford University eine neue Richtung eingeschlagen. Sie hoffen, mithilfe der Gesichtserkennung die sexuelle Orientierung und kriminelle Neigung von Menschen untersuchen zu können.
Der Grund für die Untersuchung der sexuellen Orientierung liegt darin, dass der soziale Fortschritt es Randkulturen ermöglicht hat, sich zu entwickeln, sich stärker in die Mainstream-Kultur zu integrieren und von mehr Menschen akzeptiert zu werden. Unterschiedliche Geschlechtsidentitäten der Mehrheit werden immer mehr akzeptiert und auch unterschiedliche sexuelle Orientierungen werden gesellschaftlich und sogar gesetzlich anerkannt.
Insbesondere im Bereich der sozialen Software gibt es nicht nur viele Apps, die speziell für Menschen mit sexueller Minderheitsorientierung entwickelt wurden, sondern auch Facebook begann bereits 2014, auf die Unterscheidung zwischen Geschlecht und sexueller Orientierung zu achten und erweiterte die ursprünglich zwei Auswahlmöglichkeiten der Benutzer hinsichtlich des Geschlechts auf 58, darunter Androgyn, Männlich zu Weiblich, Transgender-Weiblich, Two-Spirit usw.

Die Facebook-Registrierungsseite hatte 71 Geschlechtsoptionen (links) und die Registrierungsseite von Google I/O 2019 hatte 5 Geschlechtsoptionen und eine benutzerdefinierte Option (rechts).
Diese Optionen sind auf der aktuellen Website jedoch nicht mehr verfügbar. Neben „männlich“ und „weiblich“ gibt es auch eine benutzerdefinierte Option, d. h. Sie können jedes beliebige Geschlecht eingeben.
Aber wie würden Sie reagieren, wenn Ihnen jemand sagen würde, er könne allein anhand Ihres Fotos erkennen, wie wahrscheinlich es ist, dass Sie schwul sind? Was wäre, wenn Sie anhand des Fotos darauf schließen könnten, dass bei Ihnen eine hohe Wahrscheinlichkeit besteht, eine Straftat zu begehen?
Wenn KI zu Gaydar wird
Ein Team der Stanford University veröffentlichte 2017 eine Arbeit „Tiefe neuronale Netzwerke können die sexuelle Orientierung anhand von Gesichtsbildern genauer erkennen als Menschen.“wurden erstmals KI, Gesichtsbilder und Homosexualität miteinander verknüpft.

Gesichtsbilder mit sexueller Orientierung und aus mehreren Bildern synthetisierte Gesichtszüge
Durch die Aufnahme von Gesichtsfotos von Social-Networking-Sites, die Verwendung tiefer neuronaler Netzwerke (DNN) zum Erlernen einiger Merkmale und die anschließende Verwendung einiger Methoden des maschinellen Lernens kann das Ziel der Unterscheidung der sexuellen Orientierung erreicht werden.
Ihr Endergebnis war, dass die Erkennungsgenauigkeit des KI-Modells besser war als die des Menschen und der Maschinenalgorithmus die sexuelle Orientierung einer Person anhand einiger Gesichtsmerkmale unterscheiden konnte.
In weniger als einem Jahr reproduzierte und verbesserte ein Masterstudent namens John Leuner diese Forschung in seinem Artikel „Eine Replikationsstudie: Modelle des maschinellen Lernens können anhand von Gesichtsbildern die sexuelle Orientierung vorhersagen“.
Grundsätzlich wird eine ähnliche Methode verwendet, gleichzeitig werden jedoch einige Verbesserungen vorgenommen, indem unterschiedliche Datensätze verwendet werden, die Widerstandsfähigkeit gegenüber Störungen bei Bildern von Personen erhöht wird usw.
Was hat diese Studie ergeben?
Die Methode der Stanford University verwendete zwei Modelle, eines basierend auf einem tiefen neuronalen Netzwerk (DNN) und eines basierend auf der Gesichtsmorphologie (FM), und John fügte ein Modell eines Klassifikators für unscharfe Fotos hinzu.
In seinem Artikel trainierte und bestimmte er die Vorhersagefähigkeiten von drei Modellen mithilfe eines Datensatzes von 20.910 Fotos von einer Online-Dating-Website.
Da das Modell Daten aus verschiedenen Ländern und Rassen verwendet, ist seine Anwendbarkeit besser. Darüber hinaus wurden auch Untersuchungen zu unscharfen Fotos durchgeführt. Bei stark unscharfen Fotos kann die KI anhand der kombinierten Informationen zu Gesicht und Hintergrund Vorhersagen treffen.
Darüber hinaus ergab der Test, dass sich die vom Modell vorhergesagten Ergebnisse nicht ändern, selbst wenn die Person absichtlich Make-up trägt, eine Brille trägt, ihr Gesicht mit Haaren bedeckt oder den Winkel des Gesichts beim Fotografieren ändert. Dies bedeutet, dass DNN auch dann erkennen kann, dass Sie tatsächlich ein heterosexueller Mann sind, wenn sich ein heterosexueller Mann als Crossdresser verkleidet.

Testen Sie Fotos derselben Person in verschiedenen Outfits und aus verschiedenen Winkeln
Insgesamt handelt es sich bei Leuners Forschung um eine Wiederholung und Verbesserung der Stanford-Studie. Beide nutzen Daten, um zu beweisen, dass Gesichtsinformationen zur Bestimmung der sexuellen Orientierung einer Person verwendet werden können.
Warum KI nutzen, um die Geheimnisse anderer Leute zu enthüllen?
Warum also sorgt eine Studie, die zeigt, dass KI dem Menschen überlegen ist und die menschliche Wahrnehmung und Positionierung in einigen Aspekten fördern oder der Justiz helfen kann, Tragödien zu vermeiden, für einen solchen Aufruhr?
Einerseits geht es um das sensible Thema Homosexualität. Als das Stanford-Papier auf arXiv veröffentlicht wurde, verursachte es einen Aufruhr. Einige Schwulengruppen leisteten sogar mit aller Kraft Widerstand, weil sie glaubten, dass die Technologie in ihren Rechten eingeschränkt würde.
Im Jahr 2016 löste eine ähnliche Studie eine breite gesellschaftliche Diskussion aus.
Zwei Forscher der Shanghai Jiao Tong University haben bei arXiv ein Papier mit dem Titel „Automated Inference on Criminality using Face Images“ eingereicht. Der Forschungsinhalt bestand darin, Gesichtserkennung zur Identifizierung von Kriminellen zu verwenden.

Mehrere Beispielfotos, die in der Studie verwendet wurden, die obere Reihe zeigt die Täter
Die Verwendung von Gesichtsinformationen zur Offenlegung der sexuellen Orientierung und von Vorstrafen einer Person reicht aus, um die Menschen zu beunruhigen. Wenn wir noch einen Schritt weitergehen und die Methode auf die Vorhersage von Emotionen, IQ und sogar politischen Standpunkten ausweiten, wird sie dann letztlich zu schwerwiegenden Vorurteilen und Diskriminierung führen?
Wenn beispielsweise in Gegenden, in denen Homosexualität illegal ist, die Technologie zur Durchsetzung des Gesetzes eingesetzt wird, kann es zu einer blutigen Angelegenheit werden. Auch die kriminellen Neigungen einer Person vorherzusagen und sie im Voraus zu verhaften, ist eine Szene, die man in Science-Fiction-Filmen findet.
Manche Leute vergleichen sie mit „Physiognomie“.
Ein weiterer Punkt, den viele Menschen hinterfragen und kritisieren, ist, ob es sich bei dieser Art von Forschung tatsächlich um „Pseudowissenschaft“ in Form von KI handelt.
Manche Menschen assoziieren die Methode, menschliches Verhalten anhand von Gesichtszügen zu beurteilen, mit Physiognomie. Ihre Forschung stützt sich jedoch auf mehr Daten, wodurch die Vorhersagen der KI „wissenschaftlicher“ erscheinen.
Interessanterweise wurde in den Referenzen der Kriminalforschungsarbeit aus dem Jahr 2017 ein Buch über Physiognomie mit dem Titel „Complete Collection of Divine Physiognomy“ aufgeführt.
Daher stellen viele Menschen die Frage, ob diese Studien, selbst wenn die Daten eine hohe Genauigkeit aufweisen, wirklich den Zusammenhang zwischen beiden aufzeigen.

Einige der Merkmale, die in der Studie von Interesse waren
Als die Forschungsarbeit der Stanford University veröffentlicht wurde, gab es viele kritische Stimmen, die vermuteten, dass die Datenlage zu dürftig und die Forschungsergebnisse zu sicher seien. Dasselbe gilt für die Vorhersage von Straftaten.
Dr. Richard Tynan von Privacy International drückt es so aus: „Als Einzelperson können Sie unmöglich wissen, wie eine Maschine zu einem Urteil über Sie gelangt.
Bei kleinen Datensätzen können Algorithmen, KI und maschinelles Lernen willkürliche und absurde Korrelationen erzeugen. Es ist nicht die Schuld der Maschine, aber es ist gefährlich, komplexe Systeme an ungeeigneten Stellen einzusetzen. "
Technologie ist nicht beängstigend, was beängstigend ist, sind Vorurteile und böse Absichten
Wir könnten ebenso gut die kühne Annahme treffen, dass die Menschen vielleicht unterbewusst keine Angst vor den Entdeckungen der KI haben, sondern eher davor, dass jemand ein großes Aufheben um die Ergebnisse der KI-Analyse machen könnte.
Die Art und Weise, wie KI Probleme bewältigt, ist auf mehr Daten angewiesen, um ihre Überzeugungskraft zu verbessern. Aber vergessen Sie nicht, dass KI von Menschen trainiert und entwickelt wird, die von Natur aus voreingenommen sind.
Da KI aus Daten nichts weiter als Zahlen ableitet, wird ihre Interpretation häufig auf die eine oder andere Weise verwendet.
Eine Studie der Princeton University Information Technology zeigt, dass maschinelles Lernen und KI-Algorithmen unbeabsichtigt etablierte Vorurteile verstärken und ausweiten können, die in der Gesellschaft oder im Unterbewusstsein der Benutzer vorherrschen. Beispielsweise werden in vielen Szenarien „Arzt“ und „er“ zusammen zugeordnet, sowie „Krankenschwester“ und „sie“.
Zurück zur Forschung über die Bestimmung von Homosexualität durch KI: Würde man die Vorhersage in etwas anderes ändern, beispielsweise in eine bestimmte Krankheit, dann würden viele der Menschen, die sich derzeit dagegen aussprechen, die gleiche Methode und ähnliche Schlussfolgerungen als großartige Arbeit loben.
Wenn es lediglich die Gesetze offenlegt, gibt es nichts zu befürchten. Wenn jedoch Vorurteile und böse Absichten im Spiel sind, wird die Zerstörung umso größer sein, je mächtiger die Technologie ist.
Als Antwort auf die Frage twitterten die Stanford-Forscher: „Wenn Sie eine brandheiße Technologie entdecken, die eine Bedrohung birgt, was tun Sie dann? Halten Sie sie geheim, untersuchen Sie sie, lassen Sie sie von Ihren Kollegen prüfen und geben Sie eine Warnung heraus?“