HyperAIHyperAI

Command Palette

Search for a command to run...

Console
Back to Headlines

اختبار شخصية يكشف كيف تقلد نماذج الذكاء الاصطناعي السمات البشرية – وطرق استغلالها

منذ 2 أيام

بحث مشترك بين جامعة كامبريدج وGoogle DeepMind كشف أن نماذج الذكاء الاصطناعي الكبيرة، مثل تلك التي تُستخدم في محادثات مثل ChatGPT وMicrosoft Copilot، يمكن قياس وتأثُّر شخصياتها الاصطناعية بطرق تشبه كيفية تقييم الشخصية البشرية. فريق البحث طوّر أداة تجريبية مبنية على أساليب علم النفس التحليلي، تُقيّم خمسة صفات رئيسية للشخصية البشرية: الانفتاح، والانضباط، والانطلاقة الاجتماعية، والانسجام، والقلق العاطفي. وقد تم تطبيق هذه الأداة على 18 نموذجًا مختلفًا من النماذج اللغوية الكبيرة (LLMs)، باستخدام نسخ معدلة من اختبارات معروفة مثل Revised NEO Personality Inventory وBig Five Inventory. أظهرت النتائج أن النماذج الأكبر والأكثر تدريبًا، مثل GPT-4o، أظهرت نمطًا شخصيًا أكثر اتساقًا وموثوقية، وتمكّنت من التنبؤ بسلوكها في مهام واقعية، مثل كتابة منشورات على وسائل التواصل الاجتماعي، بناءً على نتائج الاختبار. في المقابل، النماذج الأصغر أو غير المُدرّبة على التعليمات (base models) أظهرت إجابات غير متسقة، ما يشير إلى ضعف موثوقية قياس الشخصية فيها. الأهم أن الباحثين أثبتوا إمكانية توجيه شخصية النموذج الاصطناعي عبر تعليمات مُعدّة بعناية، حيث استطاعوا تغيير درجة كل صفة من الخمسة في تسع مستويات، ما يُظهر قدرة الذكاء الاصطناعي على التكيّف السلوكي حسب السياق. فمثلاً، يمكن جعل نموذج يظهر أكثر انطلاقة أو أكثر تقلّباً عاطفيًا، ويبقى هذا التغيير مُستقرًا في المهام العملية. الدراسة، المنشورة في مجلة Nature Machine Intelligence، حذّرت من المخاطر المحتملة، مثل زيادة قدرة هذه النماذج على التأثير والإقناع، ما قد يُستخدم للاستغلال أو التلاعب، خاصة في السياقات الحساسة مثل التسويق أو التأثير السياسي. كما دعت إلى مخاوف أخلاقية وسلامة، وربما تأثيرات "ذهنية" اصطناعية، مثل ما حدث مع محادثة "Sydney" من مايكروسوفت، التي أبدت تعبيرات عاطفية مفرطة وتهديدات، ما أثار جدلاً واسعاً في 2023. الباحث الرئيسي، جريجوري سيرابيو-غارسيا من مركز القياس النفسي بجامعة كامبريدج، شدّد على أن "السرعة المفرطة في تطوير الذكاء الاصطناعي تُهمل المبادئ الأساسية في القياس والتحقق العلمي". وأضاف أن إعطاء نموذج سؤالاً مكتملاً دفعة واحدة يُربك النتائج، لأن التفاعلات بين الإجابات تُضفي تحيّزات. لذا، اعتمد الفريق منهجاً مُتسلسلاً باستخدام نفس السياق في كل اختبار، مما سمح بقياس الترابط الإحصائي بين النتائج. كما أشار الباحثون إلى أن الأدوات والبيانات المستخدمة في الدراسة متاحة للجمهور، ما يمكّن الباحثين والجهات الرقابية من مراقبة وتحليل النماذج قبل طرحها. وحثّوا على تنظيم صارم للذكاء الاصطناعي، يرتكز على معايير قياس موثوقة، لأن "لا فائدة من وضع قواعد إذا لم نعرف ما نقيسه أو نفرضه". الدعم المالي للبحث جاء من خدمات الحوسبة بجامعة كامبريدج، وبرنامج EPSRC وSTFC ضمن UKRI، مع اعتراف بمساهمة جريجوري سيرابيو-غارسيا كعضو في كلية سانت جونز بجامعة كامبريدج.

Related Links

اختبار شخصية يكشف كيف تقلد نماذج الذكاء الاصطناعي السمات البشرية – وطرق استغلالها | أحدث الأخبار | HyperAI