من المغاسل إلى جائزة الملكة إليزابيث للهندسة، تتحدى في-في لي أسطورة التكنولوجيا في وادي السيليكون، من خلال التركيز على المخاطر غير الإنسانية للذكاء الاصطناعي.

في ربيع عام ٢٠٢٥، مُنحت البروفيسورة فاي فاي لي، الحاصلة على بكالوريوس العلوم في الفيزياء من جامعة برينستون ودكتوراه في علم الأعصاب الحاسوبي من معهد كاليفورنيا للتكنولوجيا، جائزة الملكة إليزابيث للهندسة، وهي جائزة تُعرف غالبًا باسم "جائزة نوبل في الهندسة". وقد أشادت لجنة التحكيم بأعمال لي التأسيسية في مجال الرؤية الحاسوبية والتعلم العميق.ويعتبر بحثها "مما سمح للآلات برؤية العالم بطريقة قريبة من الإدراك البشري لأول مرة".
أكدت فاي فاي لي في خطاب قبولها للجائزة أن "الهندسة لا تقتصر على قوة الحوسبة والخوارزميات فحسب، بل تشمل أيضًا المسؤولية والتعاطف". وأكدت أن الاختراقات التكنولوجية لا تعني بالضرورة تحسين الفهم. وفيما يتعلق بعصر الذكاء الاصطناعي المتسارع، تظل متيقظة: فبينما تُعيد الخوارزميات بناء اللغة والصور وأنظمة المعرفة، فإنها تُعيد أيضًا تشكيل هياكل السلطة الاجتماعية وإدراك الإنسان لذاته. وكتبت في مقدمة مذكراتها "العوالم التي أراها": "يكمن الخطر الأكبر للذكاء الاصطناعي في نزع الصفة الإنسانية"."إذا نسي الذكاء الاصطناعي قيمة الإنسانية، فإنه سيفقد سبب وجوده."
في سياق وادي السيليكون الصناعي، يُعدّ صوت فاي فاي لي المعارض نادرًا للغاية. فبدلًا من التركيز على النطاق والسرعة، تُركّز أكثر على البنية الاجتماعية والأسس الأخلاقية للذكاء:مع اكتساب الآلات فهمًا أفضل للبشر، هل سيظل البشر قادرين على فهم أنفسهم حقًا؟تتجاوز قصة لي فايفي الإنجازات العلمية؛ فهي تُركز على الخطاب الإنساني لأقلية غير تقليدية. السؤال الذي تُريد الإجابة عليه حقًا، بعيدًا عن الجوائز والأوسمة والثناء، هو: كيف يُمكن إعادة تكنولوجيا الذكاء الاصطناعي إلى نهج مُركز على الإنسان؟

باعتبارها "شخصية مهمشة"، اختارت أن تنأى بنفسها عن السرديات الكبرى.
وُلدت لي فايفي في بكين عام ١٩٧٦. كان والدها فيزيائيًا ووالدتها مهندسة. في الثانية عشرة من عمرها، هاجرت إلى نيوجيرسي بالولايات المتحدة الأمريكية مع والديها، وكانت تجيد الإنجليزية بشكل شبه كامل. كانت الحياة صعبة للغاية في الأيام الأولى بعد هجرتهم. كان والداها يعتمدان على العمل في مغسلة ملابس ومطعم لإعالة أنفسهما. درست اللغة الإنجليزية بجدّ، بينما كانت تعمل بدوام جزئي في المطعم وفي مغسلة والديها في وقت فراغها لتكملة دخل الأسرة. في المقابلة،وتذكرت لي فيفي قائلة: "كانت الحياة صعبة للغاية بالنسبة للمهاجرين أو الأسر المهاجرة".وأصبحت هذه التجربة أيضًا الأساس النفسي الهامشي لـ"وعيها المهاجر" في وقت لاحق: ففي البيئة الغربية، وباعتبارها "أخرى"، شهدت فاي فاي لي ازدهار النظام التكنولوجي الأمريكي، ولكنها شهدت أيضًا عدم المساواة في البنية الاجتماعية.
يشير مصطلح "الآخر" في الهوية الأنثوية إلى أولئك الذين يُصنفون خارج التيار الرئيسي/الذات في هياكل السلطة والسرديات الاجتماعية والبناءات الثقافية، ويُلاحظون ويُعرّفون ويُهمّشون أو يُعاملون كآخرين من خلال هوية "المرأة". ينبع هذا المصطلح من المفهوم الفلسفي الغربي "الآخر/الاختلاف"، وقد استُخدم منذ ذلك الحين على نطاق واسع في دراسات النوع الاجتماعي.
في عام ٢٠٠٠، حصلت فاي فاي لي على درجة الدكتوراه في علم الأعصاب الحاسوبي من معهد كاليفورنيا للتكنولوجيا، مُركزةً بحثها على التداخل بين التعرف البصري على الأشياء والذكاء الاصطناعي (التعرف البصري على الأشياء والدماغ). هذا التدريب متعدد التخصصات جعلها تُدرك أن "الرؤية" ليست مجرد مشكلة إدراك، بل هي أيضًا مشكلة فهم.هل تستطيع الآلات فهم العالم من خلال الخبرة والسياق والذاكرة، تمامًا كما يفعل البشر؟وقد أصبح هذا الفكر هو الأساس لمقترحها اللاحق لمشروع ImageNet.

في عام ٢٠٠٧، أثناء تدريسها في جامعة برينستون، أطلقت فاي فاي لي وفريقها البحثي مشروع ImageNet، الذي كان له لاحقًا تأثيرٌ بالغ. في ورقتها البحثية الصادرة عام ٢٠٠٩ بعنوان "ImageNet: قاعدة بيانات صور هرمية واسعة النطاق"، أشارت لي إلى أن معظم خوارزميات الرؤية الحاسوبية آنذاك اعتمدت بشكل كبير على خصائص مُعدّة يدويًا ومجموعات بيانات صغيرة، مما جعل فكرة "التعلم العميق المُوجّه بالبيانات" مثيرة للجدل. ومع ذلك، أثبت إصرارها أنه لا يتزعزع. ومع التحول التدريجي للنموذج التكنولوجي للذكاء الاصطناعي، أصبح النهج واسع النطاق المُوجّه بالبيانات، الذي كان يُعتبر في السابق "مقامرة محفوفة بالمخاطر" في الأوساط الأكاديمية، هو الإجماع السائد.
وكما أشارت شركة Venturebeat في تقريرها،لقد أدى "النموذج القائم على البيانات" الذي روجت له فيفي لي إلى تغيير مسار تطوير الرؤية الحاسوبية وحتى الذكاء الاصطناعي بأكمله.بعد مسابقة ImageNet عام ٢٠١٢، ركزت وسائل الإعلام سريعًا على اتجاه التعلم العميق. وبحلول عام ٢٠١٣، تحولت جميع أبحاث الرؤية الحاسوبية تقريبًا إلى الشبكات العصبية.

وهكذا، ومع وصول جنون الذكاء الاصطناعي، تم أخيرا دفع هذا العالم، الذي كان يكافح على هامش الهجرة، إلى مركز العصر.
ومع ذلك، وعلى الرغم من أن أبحاثها وضعت الأساس لعصر التعلم العميق، فإن فاي فاي لي لم تندمج بشكل كامل في السرد التكنولوجي الذي يهيمن عليه وادي السيليكون: فقد سمح لها منظورها الفريد، الذي توفره مكانتها الهامشية، دائمًا بالحفاظ على مسافة باردة من جنون الذكاء الاصطناعي العالمي.
في الخطاب السائد حول وادي السيليكون، يُصوَّر الذكاء الاصطناعي كقضية جوهرية في المنافسة التكنولوجية، وألعاب رأس المال، والاستراتيجية الوطنية. مع ذلك، اختارت فاي فاي لي إعادة النظر في هذا النظام من منظور إنساني وأخلاقي. وقد أشارت في مناسبات عامة عديدة إلى أن...يُفرط في تسويق الذكاء الاصطناعي وعسكرته. وتُركز موارد البحث والخيال الاجتماعي على "نماذج أكبر" و"قوة حوسبة أكبر"، بينما تُتجاهل العواقب الاجتماعية لهذه التقنية.
في عام ٢٠١٩، عادت فاي فاي لي إلى ستانفورد وشاركت في تأسيس معهد ستانفورد للذكاء الاصطناعي المتمركز حول الإنسان (HAI) مع مارك تيسييه لافين وجون إيتشيمندي وآخرين. يُعيد هذا المعهد دمج الأخلاقيات والقطاع العام والفئات الضعيفة في التصميم التقني للذكاء الاصطناعي، مُدرجًا صراحةً مبدأً أساسيًا في بيان مهمته:يجب أن يخدم الذكاء الاصطناعي المصالح الأوسع للبشرية.
في مقابلة نشرتها HAI، صرحت فاي فاي لي بصراحة: "أنا لستُ من النخبة التقنية التقليدية. أنا مهاجرة، وامرأة، وآسيوية، وباحثة. هذه الهويات منحتني منظورًا ووجهة نظر فريدة".إن التأثير المستقبلي للذكاء الاصطناعي عميق للغاية لدرجة أنه يتعين علينا الحفاظ على استقلاليتنا.علينا أن نختار كيفية بناء هذه التكنولوجيا واستخدامها. إذا تخلينا عن استقلاليتنا، فسنكون في حالة سقوط حر.

تحذر فاي فاي لي من خطر "نزع الصفة الإنسانية عن الذكاء الاصطناعي" في معارضة لأسطورة التكنولوجيا في وادي السيليكون.
على عكس السرد السائد في وادي السيليكون،تستمر لي فيفي في الترويج لمفهوم "الذكاء الاصطناعي من أجل الإنسانية".أكدت على أهمية دمج القيم الاجتماعية والأخلاقية في اعتبارات التطور التكنولوجي. وحذّرت من مخاطر "نزع الصفة الإنسانية" المحتملة المرتبطة بالتقدم التكنولوجي، مؤكدةً على ضرورة أن يكون الذكاء الاصطناعي متمحورًا حول الإنسان، وأن تتوافق التكنولوجيا مع احتياجات الإنسان وقيمه.
في عام 2018، عندما واجهت مشروع Maven، وهو مشروع التعرف على صور الطائرات بدون طيار العسكرية الذي طورته شركة Google بالتعاون مع وزارة الدفاع الأمريكية، أوضحت Fei-Fei Li معارضتها لعسكرة الذكاء الاصطناعي في رسالة بريد إلكتروني: "يجب أن يفيد الذكاء الاصطناعي البشرية، ولا يمكن لشركة Google أن تدع الجمهور يعتقد أننا نطور أسلحة".

في مقابلة مع مجلة Issues، تحدثت فاي فاي لي بصراحة عن المخاطر المحتملة للذكاء الاصطناعي: "إن تأثير تقنية الذكاء الاصطناعي سلاح ذو حدين. بالنسبة للمجتمع، يمكن لهذه التقنية علاج الأمراض، واكتشاف الأدوية، وإيجاد مواد جديدة، وإيجاد حلول للمناخ. في الوقت نفسه، قد تحمل أيضًا مخاطر، مثل انتشار المعلومات المضللة والتغيرات الجذرية في سوق العمل".

في الواقع، للحد من مخاطر الذكاء الاصطناعي بشكل أكبر،أكدت لي فيفي مرارا وتكرارا في العلن على ضرورة إنشاء آلية للإشراف على أخلاقيات الذكاء الاصطناعي.في مقابلة مع شركة ماكينزي، صرّحت فاي فاي لي بهدوء بأنّ إنشاء آلية تنظيمية قائمة على نظام قانوني أمرٌ مُلِحّ للغاية. "من الناحية المنطقية، يُعدّ هذا أمرًا ضروريًا للبشرية عند ابتكاراتها واكتشافاتها الجديدة. ستُحقّق هذه الآلية جزئيًا من خلال التثقيف. علينا أن نُعرّف الجمهور وصانعي السياسات ومتخذي القرار بقوة هذه التقنية وحدودها وحقائقها، ثمّ دمج اللوائح فيها. سيضمن الإطار التنظيمي إنفاذها وتطبيقها من خلال القوانين."

وفي الوقت نفسه، لتعزيز الدور القيادي للتعليم في التنظيم الأخلاقي للذكاء الاصطناعي، في حدث Semafor Tech في سان فرانسيسكو في مايو 2025،ودعت لي فيفي أيضًا إدارة ترامب إلى الحد من تدخلها في تمويل الجامعات.في إطار حملةٍ حديثةٍ على الهجرة، خفضت إدارة ترامب مليارات الدولارات من تمويل البحوث الجامعية، وألغت تأشيرات آلاف الطلاب. ردًا على ذلك، صرّحت فاي فاي لي بأنه مع اشتداد المنافسة التكنولوجية العالمية، فإن فرض عقوباتٍ على مؤسسات البحث يُشكّل مخاطرَ محتملةً على التطوير الأخلاقي للذكاء الاصطناعي.
لطالما كان القطاع العام، وخاصةً التعليم العالي، عنصرًا أساسيًا في منظومة الابتكار الأمريكية وجزءًا حيويًا من نمونا الاقتصادي. وتنبع معظم المعارف التقليدية التي نعرفها عن الذكاء الاصطناعي من البحث الأكاديمي، سواءً أكانت خوارزميات أم مناهج قائمة على البيانات أم أبحاثًا في مراحل مبكرة من المعالجات الدقيقة، وفقًا لفي-في لي. وأضافت: "ينبغي على الحكومة مواصلة توفير الموارد الكافية للتعليم العالي والقطاع العام لإجراء هذا النوع من الأبحاث المبتكرة والعفوية والمدفوعة بالفضول، وهو أمر بالغ الأهمية للتنمية السليمة لمنظومتنا ورعاية الجيل القادم".
وبالإضافة إلى ذلك، صرحت لي فيفي بصراحة أن حصص التأشيرات التي فرضتها الولايات المتحدة على مواطني دول معينة كانت دائما مشكلة بالنسبة للعديد من الأفراد الموهوبين للاحتفاظ بوظائفهم."بصراحة، آمل أن يتمكن طلابي من الحصول على تأشيرات عمل وإيجاد مسارات للهجرة."

باختصار، على الرغم من التفاؤل التكنولوجي المتقد في وادي السيليكون، حافظت فاي فاي لي دائمًا على موقف تأملي، حذرةً من خطر "نزع الإنسانية" عن الذكاء الاصطناعي. "يتحدث الكثيرون، وخاصةً في وادي السيليكون، عن زيادة الإنتاجية، لكن زيادة الإنتاجية لا تعني أن الجميع سيشاركون في الرخاء".يجب أن ندرك أن الذكاء الاصطناعي مجرد أداة؛ فالأداة نفسها لا قيمة لها. فقيمة الأداة تنبع في النهاية من قيمتها الإنسانية.
وأكدت على ضرورة اتباع نهج يركز على الإنسان في مجال الذكاء الاصطناعي من منظور الفرد والمجتمع. وقالت: "نحن بحاجة إلى إطار عمل يركز على الإنسان، مع دوائر مسؤولية متحدة المركز بين الأفراد والمجتمعات لضمان الالتزام المشترك بأن الذكاء الاصطناعي يجب أن يُحسّن رفاهية الإنسان".
استناداً إلى الخبرة المكتسبة، يتم تفسير الفرص والأعباء التي تفرضها المنافذ البيئية المعقدة.
في مواجهة هويات مهمشة متعددة كامرأة، ومهاجرة، وآسيوية، وأكاديمية، تُقرّ فاي فاي لي بأن هذه التجارب قد أثّرت بشكل كبير على بحثها ونشاطها الدعائي. في مقابلة مع HAI، ذكرت لي أن هذه التجارب المهمّشة تحديدًا هي التي منحتها منظورًا للتقنيات الجديدة يختلف اختلافًا جذريًا عن منظور الأطفال الذين ينشؤون في بيئات أكثر استقرارًا ويتعاملون مع الحواسيب منذ سن الخامسة، مما مكّنها من إدراك التحيزات الهيكلية في النظام التكنولوجي باستمرار.
يستكشف العلم المجهول، تمامًا كما تستكشف الهجرة المجهول. كلاهما رحلتان مليئتان بالغموض، وعليك أن تجد دليلك الخاص. في الواقع، أعتقد أن هذا هو بالضبط سبب رغبتي في العمل على الذكاء الاصطناعي المُركّز على الإنسان.تجربتي في الهجرة، وعملي في التنظيف الجاف، وصحة والديّ - كل ما مررت به متجذرٌ في الطبيعة البشرية. هذا ما منحني منظورًا ووجهة نظر فريدة.تحدثت لي فيفي بصراحة.
ومع ذلك، فإنّ الرؤى التي اكتسبتها من هويتها المهمّشة تصاحبها أيضًا سوء فهم وجدل وضغوط. بصفتها واحدة من أكثر النساء تأثيرًا في مجال التكنولوجيا العالمي، غالبًا ما تُصوّرها وسائل الإعلام على أنها "عرّابة الذكاء الاصطناعي"، لكنها أعربت عن عدم ارتياحها لهذه الرمزية في العديد من المناسبات العامة، وعن سخطها من وصفها بـ"قدوة نسائية".
"أنا لا أحب حقًا أن يطلق عليّ لقب العرابة للذكاء الاصطناعي."في تقريرها الذي نشرته أكسيوس، أشارت فاي فاي لي إلى أن توقعات صناعة التكنولوجيا من النساء رمزية للغاية، مما يؤدي في كثير من الأحيان إلى تحميل العالمات الإناث عبء "خيال قائم على الأدوار": غالبًا ما تتم دعوة النساء لسرد "قصص ملهمة"، ويُطلب منهن تمثيل التنوع والاختراقات والأمل، لكن لا يُنظر إليهن كعالمات أو باحثات أو صانعات سياسات عاديات، ولا يُتوقع منهن المشاركة على قدم المساواة في المناقشات التكنولوجية الأساسية والاستراتيجية.
لكنني أود أن أُشيد بمساهمات النساء، لأنهن غالبًا ما يُغفلن في تاريخ العلوم. آمل أن يكون هناك أكثر من عرابة في مجال الذكاء الاصطناعي، كما صرحت فاي فاي لي. وأضافت أن التحدي الحقيقي يكمن في جعل التنوع بين الجنسين هو المعيار في هذا المجال. ولتحويل هذا الهدف تدريجيًا إلى واقع ملموس، أطلقت برنامج AI4All التعليمي في جامعة ستانفورد، والذي يهدف إلى دعم النساء والأقليات في دخول مجال الذكاء الاصطناعي.

أيضًا،ويبدو أن الهوية العرقية للي فيفي قد لفتت المزيد من الانتباه إلى القضايا العرقية المحيطة بنتائج أبحاثها.
في حين تُعتبر ImageNet حجر الزاوية في أبحاث الرؤية الحاسوبية، إلا أن شجرتها الفرعية "البشرية" لطالما تعرضت لانتقادات من الأوساط الأكاديمية ووسائل الإعلام. ففي أوائل عام ٢٠١٩، نشرت صحيفة "ذا آرت نيوزبيبر" تقريرًا عن مخاوف بشأن النزعات العنصرية المحتملة لـ ImageNet، مجادلةً بأن قاعدة البيانات غالبًا ما تُصنّف الأشخاص البيض بتصنيفات غير دقيقة إلى حد كبير. على سبيل المثال، قدّم الفنان تريفور باغلين والباحثة كيت كروفورد تقييمات سلبية لمجموعة البيانات على الإنترنت بعد استخدامها. "صُنِّف محرر في موقع The Verge على أنه مدخن غليون ومضيف طيران، وأفاد مستخدمون آخرون على وسائل التواصل الاجتماعي بأنه وُصف بألفاظ عنصرية وأخرى مسيئة للغاية".
على الرغم من أن عددًا كبيرًا من المراجعات السلبية دفع فريق ImageNet إلى مناقشة تنظيف وإعادة بناء مجموعة البيانات، وحذف ما يقرب من 600 ألف صورة، إلا أن افتراض ImageNet باعتباره "حجر الزاوية المحايد" لا يزال موضع تساؤل.

في الوقت نفسه، أجبرت آراء الأقلية التي تتبناها فيفي لي على الوقوف في المنطقة الرمادية بين التيار الرئيسي في وادي السيليكون وعامة الناس، وبالتالي أثار دورها في صناعة الذكاء الاصطناعي جدلاً مستمراً.
وكتب مات أوبراين، المساهم في وكالة أسوشيتد برس، في مقال له: "إنها شخصية رئيسية وراء التطور الهائل للذكاء الاصطناعي اليوم، لكن ليس كل علماء الكمبيوتر يتفقون على أن فكرتها بشأن قاعدة البيانات المرئية العملاقة صحيحة".وفيما يتعلق بقضايا "مركزية الإنسان" و"أخلاقيات الذكاء الاصطناعي" التي ركز عليها أقلية من العلماء، مثل في-في لي، فقد انتقد بعض الباحثين منذ فترة طويلة نظرية المخاطر القصوى التي تكمن وراءها باعتبارها دعاية دينية.على سبيل المثال، ذكر شيام سانكار، كبير مسؤولي التكنولوجيا في شركة بالانتير، أنه لم يؤمن أبدًا بسردية "يوم القيامة للذكاء الاصطناعي"، وأن احتمالية أن يجلب الذكاء الاصطناعي عواقب كارثية منخفضة للغاية؛ وهو يعتقد أنها شائعة ينشرها "المتحولون".
رفض سانكار هذه النظرية، قائلاً: "نظرية التهديد ليست سوى حيلة لجمع التبرعات. يمكن للشركات الرائدة في مجال التطوير استغلالها لجذب الاستثمارات".

ومع ذلك، يعتقد بعض المعلقين أن مساهمة فاي فاي لي في اتجاه الجمع بين التكنولوجيا ورأس المال لا تتوافق مع رؤيتها البحثية: فعلى الرغم من تأكيدها منذ فترة طويلة على "مركزية الإنسان" ومعارضتها للتسويق التجاري المفرط للذكاء الاصطناعي، فإنها بصفتها كبيرة العلماء السابقة في Google Cloud AI، روجت حتمًا لتصنيع الذكاء الاصطناعي.
لذلك،باعتباره شخصية رائدة في مجال "الذكاء الاصطناعي المرتكز على الإنسان" وصانع البنية التحتية للذكاء الاصطناعي التجاري،تم وضع لي فايفي في مفترق طرق حساس إلى حد ما.

باختصار، داخل أسطورة الذكاء الاصطناعي، يعكس موقف فيفي لي التفاعل المعقد بين العلماء والخوارزميات والقيم الإنسانية، وكان لفترة طويلة بمثابة قصة متوترة وتحذيرية.هل يمكن للتكنولوجيا أن تتطور بمعزل عن الاعتبارات الاجتماعية والأخلاقية والإنسانية؟ وكيف يُمكن تحقيق التوازن بين التسويق التجاري السريع والمسؤولية الاجتماعية طويلة الأمد؟تظل تساؤلات فاي فاي لي حول "الذكاء الاصطناعي المتمركز حول الإنسان" تشكل تحديًا لم يتم حله بعد خارج نطاق رواية وادي السيليكون حول عبادة التكنولوجيا.
روابط مرجعية:
1.https://www.businessinsider.com/palantir-shyam-sankar-skeptical-ai-jobs-2025-10
2.https://apnews.com/article/ai-pioneer-feifei-li-stanford-computer-vision-imagenet-702717c10defd89feabf01e6c1566a4b
3.https://www.wired.com/story/fei-fei-li-artificial-intelligence-humanity/
4.https://www.theartnewspaper.com/2019/09/23/leading-online-database-to-remove-600000-images-after-art-project-reveals-its-racist-bias