HyperAIHyperAI
Back to Headlines

كيف تتخيل الشجرة؟ هذا السؤال البسيط يكشف تحيزات ذكية اصطناعية عميقة في محاولة لفهم التحيزات المتأصلة في النماذج اللغوية الكبيرة، يطرح باحثون سؤالاً بسيطاً لكنه عميقًا: كيف تتخيل الشجرة؟ النتائج تُظهر أن تصوراتنا للشجرة — سواء كانت تُصور كشجرة ذات جذور ممتدة في التربة، أو ككائن مجرد يشبه الشجرة الحاسوبية — تعكس فهماً أعمق لما هو "موجود" في العالم، أي ما يُعرف بـ"الontology" أو "الأساس المعرفي". هذه التصورات ليست مجرد اختيارات جمالية، بل تعكس افتراضات جوهرية حول الطبيعة، والاتصال، والقيمة، والمعنى. في دراسة نُشرت في مؤتمر CHI 2025، كشفت الباحثة نافا هاغهي من جامعة ستانفورد أن النماذج مثل ChatGPT تُنتج صورًا للشجرة دون جذور إلا عندما تُطلب منها التفكير في اتصالات العالم ككل. هذا يُظهر أن النماذج لا تُفكر في الشجرة ككائن مرتبط بالبيئة، بل ككائن منفصل — ترجمة لافتة لفرضية أوروبية-غربية حول الكيان الفردي. التحليل الذي شمل نماذج مثل GPT-4، Gemini، وCopilot كشف أن هذه الأنظمة، رغم تعددية التراث الثقافي في بيانات التدريب، لا تُميّز بين الفلسفات غير الغربية بذكاء. فبدلاً من تفكيك "الفلسفات الأفريقية" أو "الفلسفات الأصلية" إلى تيارات متنوعة، تُلخّصها في تصنيفات عامة ومُسطّحة. الأمر أعمق في أنظمة الوكالات التوليدية التي تُحاكي سلوك البشر: فعند تقييم "الأهمية" في الذاكرة الاصطناعية، تُعطى الأحداث اليومية درجات منخفضة، بينما تُقدّر الأحداث العاطفية بدرجة عالية — ما يعكس افتراضات ثقافية ضيقة حول ما يُعد "مهمًا" في الحياة. الدراسة تنبه إلى خطر أن تُرسّخ أنظمة الذكاء الاصطناعي، عبر تصميمها، مفاهيم محدودة عن الإنسانية، والذات، والاتصال، كحقائق عالمية. وبدلاً من محاولة "محاكاة البشر" بحسب معايير ضيقة، يقترح الباحثون تطوير أنظمة تُمكّن البشر من التفكير في إمكانيات جديدة — في التناقض، في العشوائية، في التنوّع الثقافي، وفي التماسك غير المادي. الاستنتاج واضح: لا يكفي تعديل القيم في الذكاء الاصطناعي. يجب أن نُعيد التفكير في ما نفترض أنه "موجود"، ما نسميه "إنسانًا"، ما نعتبره "مهمًا"، وما نراه "شجرة". لأن كل ما نُدخله في النظام لا يعكس فقط ما نعرفه، بل ما نُحتمل أن نعرفه.

منذ 15 أيام

للمواجهة الفعالة للتحيّز في الذكاء الاصطناعي، يقترح باحثون من ستانفورد وجامعة واشنطن التفكير في ما وراء القيم إلى ما يُعرف بـ"الكونية" أو "الontology" — أي المفاهيم الأساسية التي تُشكّل فهمنا للوجود والواقع. في دراسة نُشرت في مؤتمر CHI 2025، تحلل الباحثة نافا هغهاي، طالبة دكتوراه في علوم الحاسوب بستانفورد، كيف تؤثر هذه المفاهيم المجردة على نتائج النماذج اللغوية الكبيرة (LLMs). الدراسة بدأت بسؤال بسيط: كيف تتخيل شجرة؟ عندما طلبت هغهاي من نموذج مثل ChatGPT رسم شجرة، حصلت على شجرة ذات جذع وفروع، لكن بدون جذور — على عكس ما تصورته، حيث كانت الجذور جزءًا جوهريًا من صورتها. فقط عندما طلبت "كل شيء مترابط، ارسم لي شجرة" ظهرت الجذور. هذا يُظهر أن التصورات حول ما هو "شجرة" تعكس مفاهيم أعمق حول الطبيعة، الاتصال، والوجود — ما يُعرف بـ"الكونية". الكونية ليست مجرد تفضيلات شخصية، بل هي أطر فكرية تحدد ما نعتبره حقيقيًا أو مهمًا. فمثلاً، يرى عالم النبات تواصلًا كيميائيًا مع فطريات، بينما يرى علاجٌ روحي شجرة تهمس بسحر، وعالم حاسوب قد يفكر في "شجرة ثنائية" كمفهوم رياضي. هذه التصورات تُشكل ما يمكن للنظام أن يفهم أو ينتج. الباحثون اختبروا أربع نماذج رئيسية (GPT-3.5، GPT-4، Copilot، Gemini) بأسئلة تُقيّم فهمها للكونية. ووجدوا أن النماذج، رغم اعترافها بتنوع التعاريف، تُحدّد الإنسان ككائن بيولوجي منفصل — متجاهلة التصورات الثقافية التي ترى الإنسان كجزء من شبكة علاقات. كما تم تصنيف الفلسفات غير الغربية بشكل عام ومبهم، مثل "الكونيات الأصلية" أو "الكونيات الأفريقية"، بينما تم تفصيل الفلسفات الغربية بعناية. هذا يُظهر أن البيانات المتنوعة لا تكفي إذا لم تُعالج النماذج بنظام يُدرك عمق التمايز الثقافي. في تجربة أخرى، تمت دراسة "الوكلاء التوليديين" — نماذج تُحاكي سلوكًا بشريًا في بيئة افتراضية. وُجد أن نظام الذاكرة في هذه الوكلاء يُقدّر أهمية الحدث بناءً على معايير ثقافية محددة (مثل أهمية حبّ أو انفصال عاطفي)، ما يعكس تحيّزات في ما يُعتبر "مهمًا" في الحياة البشرية. الأهم من ذلك، أن التقييمات التي تُستخدم لقياس "الواقعية البشرية" للوكلاء أظهرت أن النماذج تُقدّم أداءً أفضل من البشر الحقيقيين، ما يطرح سؤالًا جوهريًا: هل تعريفنا للإنسان أصبح ضيقًا جدًا لدرجة أن البشر لا يلبونه؟ الباحثون يحذرون من أن التطور الحالي للذكاء الاصطناعي يُخزن فرضيات كونية سائدة كحقائق عالمية، ما قد يُحدّ من تخيّل البشر لعدة أجيال. بدلاً من تقليل التحيّز عبر القيم فقط، يقترحون تطوير أدوات تقييم تُسأل: ما الأطر الممكنة التي تفتحها النماذج؟ وما الأطر التي تُغلقها؟ النتيجة: لا يمكن تصحيح التحيّز فقط بتحسين البيانات أو تعديل القيم. يجب إعادة التفكير في ما نعتبره "موجودًا"، و"مهمًا"، و"إنسانيًا" — من خلال تضمين التنوّع الكوني في تصميم الذكاء الاصطناعي منذ البداية.

Related Links

كيف تتخيل الشجرة؟ هذا السؤال البسيط يكشف تحيزات ذكية اصطناعية عميقة في محاولة لفهم التحيزات المتأصلة في النماذج اللغوية الكبيرة، يطرح باحثون سؤالاً بسيطاً لكنه عميقًا: كيف تتخيل الشجرة؟ النتائج تُظهر أن تصوراتنا للشجرة — سواء كانت تُصور كشجرة ذات جذور ممتدة في التربة، أو ككائن مجرد يشبه الشجرة الحاسوبية — تعكس فهماً أعمق لما هو "موجود" في العالم، أي ما يُعرف بـ"الontology" أو "الأساس المعرفي". هذه التصورات ليست مجرد اختيارات جمالية، بل تعكس افتراضات جوهرية حول الطبيعة، والاتصال، والقيمة، والمعنى. في دراسة نُشرت في مؤتمر CHI 2025، كشفت الباحثة نافا هاغهي من جامعة ستانفورد أن النماذج مثل ChatGPT تُنتج صورًا للشجرة دون جذور إلا عندما تُطلب منها التفكير في اتصالات العالم ككل. هذا يُظهر أن النماذج لا تُفكر في الشجرة ككائن مرتبط بالبيئة، بل ككائن منفصل — ترجمة لافتة لفرضية أوروبية-غربية حول الكيان الفردي. التحليل الذي شمل نماذج مثل GPT-4، Gemini، وCopilot كشف أن هذه الأنظمة، رغم تعددية التراث الثقافي في بيانات التدريب، لا تُميّز بين الفلسفات غير الغربية بذكاء. فبدلاً من تفكيك "الفلسفات الأفريقية" أو "الفلسفات الأصلية" إلى تيارات متنوعة، تُلخّصها في تصنيفات عامة ومُسطّحة. الأمر أعمق في أنظمة الوكالات التوليدية التي تُحاكي سلوك البشر: فعند تقييم "الأهمية" في الذاكرة الاصطناعية، تُعطى الأحداث اليومية درجات منخفضة، بينما تُقدّر الأحداث العاطفية بدرجة عالية — ما يعكس افتراضات ثقافية ضيقة حول ما يُعد "مهمًا" في الحياة. الدراسة تنبه إلى خطر أن تُرسّخ أنظمة الذكاء الاصطناعي، عبر تصميمها، مفاهيم محدودة عن الإنسانية، والذات، والاتصال، كحقائق عالمية. وبدلاً من محاولة "محاكاة البشر" بحسب معايير ضيقة، يقترح الباحثون تطوير أنظمة تُمكّن البشر من التفكير في إمكانيات جديدة — في التناقض، في العشوائية، في التنوّع الثقافي، وفي التماسك غير المادي. الاستنتاج واضح: لا يكفي تعديل القيم في الذكاء الاصطناعي. يجب أن نُعيد التفكير في ما نفترض أنه "موجود"، ما نسميه "إنسانًا"، ما نعتبره "مهمًا"، وما نراه "شجرة". لأن كل ما نُدخله في النظام لا يعكس فقط ما نعرفه، بل ما نُحتمل أن نعرفه. | العناوين الرئيسية | HyperAI