HyperAI

الأسرار الداخلية مكتوبة على الوجه. يستخدم العلماء تقنية التعرف على الوجه للتنبؤ بالتوجه الجنسي والميول الإجرامية

منذ 6 أعوام
العناوين الرئيسية
القائمة الموصى بها
Dao Wei
特色图像

بقلم سوبر نيرو

هناك مقولة صينية قديمة تقول "المظهر يعكس القلب"، وقد تم التحقق من هذه المقولة مؤخرًا من قبل علماء ستانفورد باستخدام تقنية التعرف على الوجه.

وفي بحثهم، طرحوا تخمينًا جريئًا: وهو أنه من الممكن تحليل التوجه الجنسي والاتجاه الإجرامي للشخص من خلال التعرف على الوجه. يبدو الأمر لا يصدق. وبطبيعة الحال، هناك من يشعر بالفضول ويأمل أن يتم تطبيقه في أقرب وقت ممكن، في حين ينتقده آخرون بشدة، معتقدين أنه شكل كبير من أشكال التمييز.

يتم استخدام التعرف على الوجه على نطاق واسع في مجالات الأمن والمراقبة والتحكم في المخاطر المالية وغيرها من المجالات، وخاصة للمصادقة على الأشخاص الحقيقيين. والآن، وجد التعرف على الوجه اتجاهًا جديدًا تحت قيادة فريق بحثي من جامعة ستانفورد. ويأمل الباحثون في استخدام تقنية التعرف على الوجه لدراسة التوجه الجنسي والميول الإجرامية لدى الأشخاص.

السبب وراء دراسة التوجه الجنسي هو أن التقدم الاجتماعي سمح للثقافات الهامشية بالتطور والاندماج بشكل أكبر في الثقافة السائدة وقبولها من قبل المزيد من الناس. أصبحت الهويات الجنسية المختلفة للأغلبية مقبولة بشكل متزايد، كما يتم الاعتراف بالتوجهات الجنسية المختلفة من قبل المجتمع وحتى القانون.

بالنسبة للبرامج الاجتماعية بشكل خاص، لا يوجد فقط العديد من التطبيقات المصممة خصيصًا للأشخاص ذوي التوجهات الجنسية الأقلية، ولكن أيضًا بدأ فيسبوك في الاهتمام بالتمييز بين الجنس والتوجه الجنسي في وقت مبكر من عام 2014، وزاد الخيارين الأصليين في خيارات جنس المستخدم إلى 58، بما في ذلك Androgyne، و Male to Female، و Transgender Female، و Two-spirit، وما إلى ذلك. 

تحتوي صفحة تسجيل Facebook على 71 خيارًا للجنس (على اليسار)، وتحتوي صفحة تسجيل Google I/O 2019 على 5 خيارات للجنس ومخصصة (على اليمين)

ومع ذلك، لم تعد هذه الخيارات متاحة على الموقع الحالي. بالإضافة إلى الذكر والأنثى، هناك أيضًا خيار مخصص، مما يعني أنه يمكنك ملء أي جنس. 

ولكن إذا أخبرك أحدهم أنه يستطيع معرفة مدى احتمالية كونك مثليًا جنسيًا بمجرد النظر إلى صورتك، فكيف سيكون رد فعلك؟ ماذا لو كان بإمكانك، بناءً على الصورة، استنتاج أن لديك فرصة كبيرة لارتكاب جريمة؟ 

عندما يصبح الذكاء الاصطناعي غايدار  

نشر فريق من جامعة ستانفورد ورقة بحثية في عام 2017 《الشبكات العصبية العميقة أكثر دقة من البشر في اكتشاف التوجه الجنسي من صور الوجه》لأول مرة، تم ربط الذكاء الاصطناعي وصور الوجه والمثلية الجنسية معًا.

صور الوجه ذات التوجه الجنسي وملامح الوجه التي تم تركيبها من صور متعددة

من خلال أخذ صور الوجه من مواقع التواصل الاجتماعي، واستخدام الشبكات العصبية العميقة (DNN) لتعلم بعض الميزات، ثم استخدام بعض أساليب التعلم الآلي، يمكن تحقيق غرض التمييز بين التوجه الجنسي. 

وكانت النتيجة النهائية أن دقة التعرف لدى نموذج الذكاء الاصطناعي كانت أفضل من دقة التعرف لدى البشر، وأن خوارزمية الآلة قادرة على التمييز بين التوجه الجنسي للشخص بناءً على بعض ملامح الوجه. 

في أقل من عام، قام طالب الماجستير جون ليونر بإعادة إنتاج هذا البحث وتحسينه في ورقته البحثية "دراسة التكرار: نماذج التعلم الآلي قادرة على التنبؤ بالتوجه الجنسي من صور الوجه".

بشكل أساسي، يتم استخدام طريقة مماثلة، ولكن يتم إجراء بعض التحسينات في نفس الوقت، باستخدام مجموعات بيانات مختلفة، مما يزيد من القدرة على مقاومة التداخل مع صور الأشخاص، وما إلى ذلك. 

ماذا وجدت هذه الدراسة؟ 

استخدمت طريقة جامعة ستانفورد نموذجين، أحدهما يعتمد على الشبكة العصبية العميقة (DNN) والآخر يعتمد على مورفولوجيا الوجه (FM)، وأضاف جون نموذجًا لتصنيف الصور الضبابية.

وفي بحثه، قام بتدريب وتحديد القدرات التنبؤية لثلاثة نماذج باستخدام مجموعة بيانات مكونة من 20.910 صورة من موقع مواعدة عبر الإنترنت. 

وبما أن النموذج يستخدم بيانات من بلدان وأعراق مختلفة، فإن إمكانية تطبيقه تصبح أفضل. بالإضافة إلى ذلك، تم إجراء أبحاث أيضًا على الصور الضبابية. بالنسبة للصور الضبابية للغاية، يمكن للذكاء الاصطناعي إجراء تنبؤات استنادًا إلى المعلومات المجمعة للوجه والخلفية. 

وعلاوة على ذلك، حتى لو قام الشخص بوضع الماكياج بشكل متعمد، أو ارتداء النظارات، أو تغطية وجهه بالشعر، أو تغيير زاوية الوجه عند تصويره، فقد وجد الاختبار أن النتائج التي تنبأ بها النموذج لن تتغير. وهذا يعني أنه حتى لو ارتدى رجل مستقيم ملابس تشبه ملابس المتحولين جنسياً، فإن DNN لا يزال بإمكانه معرفة أنك رجل مستقيم بالفعل.

اختبار صور لنفس الشخص بملابس وزوايا مختلفة

وبشكل عام، فإن بحث ليونر هو تكرار وتحسين لدراسة ستانفورد، وكلاهما يستخدم البيانات لإثبات أن معلومات الوجه يمكن استخدامها لتحديد التوجه الجنسي للشخص. 

لماذا نستخدم الذكاء الاصطناعي للكشف عن أسرار الآخرين؟

فلماذا إذن تثير مثل هذه الدراسة، التي تظهر أن الذكاء الاصطناعي متفوق على البشر ويمكنه تعزيز الإدراك البشري وتحديد المواقع في بعض الجوانب، أو مساعدة القانون على تجنب المآسي، كل هذه الضجة؟ 

من ناحية أخرى، يتعلق الأمر بموضوع حساس وهو المثلية الجنسية. عندما تم نشر ورقة ستانفورد على arXiv، تسببت في ضجة كبيرة. حتى أن بعض المجموعات المثلية قاومت بكل قوتها، معتقدة أن التكنولوجيا تنتهك حقوقها.

وفي عام 2016، أثارت دراسة مماثلة نقاشا اجتماعيا واسع النطاق.

قدم باحثان من جامعة شنغهاي جياو تونغ بحثًا على arXiv بعنوان "الاستدلال الآلي على الجريمة باستخدام صور الوجوه"، وكان محتوى البحث هو استخدام التعرف على الوجه لتحديد المجرمين.

تم استخدام عدة صور نموذجية في الدراسة، الصف العلوي يوضح الجناة

إن استخدام معلومات الوجه للكشف عن التوجه الجنسي للشخص والمعلومات الجنائية كافٍ لإثارة القلق لدى الناس. وإذا ذهبنا إلى أبعد من ذلك وقمنا بتوسيع نطاقه ليشمل التنبؤ بالعواطف ومعدل الذكاء وحتى المواقف السياسية، فهل سيؤدي ذلك في نهاية المطاف إلى تحيز خطير وتمييز؟ 

على سبيل المثال، في المناطق التي تُعد فيها المثلية الجنسية غير قانونية، فبمجرد استخدام التكنولوجيا لفرض القانون، يمكن أن تتحول القصة إلى قصة دموية. إن التنبؤ بالاتجاهات الإجرامية لشخص ما والقبض عليه مسبقًا هو أيضًا مشهد ظهر في أفلام الخيال العلمي. 

يقارنها بعض الناس بـ "علم الفراسة". 

هناك نقطة أخرى يتساءل عنها وينتقدها كثير من الناس وهي ما إذا كان هذا النوع من البحث هو في الواقع "علم زائف" في شكل الذكاء الاصطناعي.

في نظر بعض الناس، فإن طريقة استخدام ملامح الوجه للحكم على السلوك البشري تجعلهم يربطونها بعلم الفراسة، لكن أبحاثهم تستخدم المزيد من البيانات كدعم، مما يجعل تنبؤات الذكاء الاصطناعي تبدو أكثر "علمية". 

ومن المثير للاهتمام أن ورقة البحث في الجريمة لعام 2017 أدرجت كتابًا عن علم الفراسة، "المجموعة الكاملة لعلم الفراسة الإلهي"، في مراجعها. 

ولذلك هناك الكثير من الناس الذين يتساءلون عما إذا كانت هذه الدراسات، حتى لو كانت بياناتها تتمتع بمعدل دقة مرتفع، تكشف حقا عن العلاقة بين الاثنين؟ 

بعض الميزات التي كانت موضع اهتمام في الدراسة

عندما تم نشر ورقة البحث التي أعدتها جامعة ستانفورد، تلقت الكثير من الأصوات المتسائلة، والتي كانت تشك في أن بياناتها كانت قليلة وأن استنتاجات بحثها كانت مؤكدة للغاية. والشيء نفسه ينطبق على التنبؤ بالجريمة.

يقول الدكتور ريتشارد تاينان من منظمة الخصوصية الدولية: "باعتبارك فردًا، لا يمكنك على الإطلاق أن تعرف كيف تصدر الآلة حكمًا عنك.

في مجموعات البيانات الصغيرة، يمكن للخوارزميات والذكاء الاصطناعي والتعلم الآلي إنشاء ارتباطات تعسفية وسخيفة. ليس خطأ الآلة، لكن من الخطير استخدام أنظمة معقدة في أماكن غير مناسبة. " 

التكنولوجيا ليست مخيفة، ما هو مخيف هو التحيز والنوايا الشريرة

قد يكون من الأفضل أن نفترض بجرأة أن الناس ربما لا يخافون من اللاوعي مما قد يكتشفه الذكاء الاصطناعي، لكنهم يخافون من أن يثير شخص ما ضجة كبيرة حول نتائج تحليل الذكاء الاصطناعي. 

تعتمد الطريقة التي تتعامل بها الذكاء الاصطناعي مع المشكلات على المزيد من البيانات لتحسين قدرتها على الإقناع. لكن لا تنس أن الذكاء الاصطناعي تم تدريبه وتصميمه من قبل البشر المتحيزين بطبيعتهم. 

ما تحصل عليه الذكاء الاصطناعي من البيانات هو مجرد أرقام، لذا سيتم استخدام تفسيرها غالبًا بطريقة ما.

أظهرت دراسة أجراها قسم تكنولوجيا المعلومات بجامعة برينستون أن خوارزميات التعلم الآلي والذكاء الاصطناعي يمكن أن تعمل بشكل غير مقصود على تعزيز وتوسيع التحيزات الراسخة السائدة في المجتمع أو في العقل الباطن للمستخدمين. على سبيل المثال، في العديد من السيناريوهات، يتم مطابقة "الطبيب" و"هو" معًا، ويتم مطابقة "الممرضة" و"هي" معًا. 

بالعودة إلى البحث حول الذكاء الاصطناعي لتحديد المثلية الجنسية، إذا تم تغيير الشيء المتوقع إلى شيء مختلف، مثل مرض معين، ثم بنفس الطريقة واستنتاجات مماثلة، فربما يشيد به العديد من الأشخاص الذين يعارضونه حاليًا باعتباره عملاً رائعًا.

إذا كان الأمر يتعلق فقط بالكشف عن القوانين، فلا داعي للخوف. ومع ذلك، إذا تم حقن التحيز والنوايا الشريرة، فكلما كانت التكنولوجيا أقوى، كلما كان الدمار الذي ستجلبه أكبر. 

ردًا على السؤال، غرّد باحثو ستانفورد: "إذا اكتشفتَ تقنيةً رائجةً تنطوي على تهديد، فماذا تفعل؟ تُبقيها سرًا، وتدرسها، وتسمح لأقرانك بمراجعتها، وتُصدر تحذيرًا؟"