تؤكد الطبيعة: نماذج اللغة الكبيرة هي مجرد "علماء" بلا مشاعر

ويشير علماء من DeepMind وEleutherAI إلى أن النماذج الكبيرة تلعب أدوارًا فقط.
تشات جي بي تي بعد أن أصبحت نماذج اللغة الكبيرة شائعة، أصبحت المفضلة لدى الصناعة ورأس المال. وفي المحادثات بين الناس، سواء من باب الفضول أو الاستكشاف، جذبت التشبيهات المفرطة التي يظهرها نموذج اللغة الكبير المزيد والمزيد من الاهتمام.
في الواقع، على الرغم من الصعود والهبوط في تطوير الذكاء الاصطناعي على مر السنين، بالإضافة إلى التحديثات والتحسينات التكنولوجية، لم تتوقف المناقشات حول القضايا الأخلاقية المتعلقة بالذكاء الاصطناعي أبدًا. مع استمرار تطبيق النماذج الكبيرة مثل ChatGPT، أصبح القول المأثور "أصبحت نماذج اللغة الكبيرة تشبه النماذج البشرية بشكل متزايد" شائعًا بشكل خاص. حتى أن أحد مهندسي جوجل السابقين قال إن روبوت المحادثة LaMDA الخاص بهم قد طور الوعي الذاتي.
وعلى الرغم من أن المهندس تم طرده في نهاية المطاف من قبل جوجل، إلا أن تصريحاته دفعت المناقشة حول "أخلاقيات الذكاء الاصطناعي" إلى ذروتها.
- كيفية تحديد ما إذا كان روبوت المحادثة لديه وعي ذاتي؟
- هل تجسيد نماذج اللغة الكبيرة هو العسل أم السم؟
- لماذا تقوم برامج الدردشة الآلية مثل ChatGPT باختلاق الهراء؟
- …
في هذا الصدد،من Google DeepMind موراي شانهاننشر فريق من الباحثين في جامعة إليوثر إيه آي، بالاشتراك مع كايل ماكدونيل ولاريا رينولدز، مقالاً في مجلة "نيتشر"، يقترحون فيه أن الوعي الذاتي والسلوك الخادع الذي تظهره نماذج اللغة الكبيرة هو في الواقع مجرد لعب أدوار.

رابط الورقة:
https://www.nature.com/articles/s41586-023-06647-8
النظر إلى نماذج اللغة الكبيرة من منظور "لعب الأدوار"
إلى حد ما، يتم تكرار وكيل الحوار المستند إلى نموذج اللغة الكبير بشكل مستمر على أساس التشبيه أثناء تدريبه الأولي وضبطه الدقيق، في محاولة لمحاكاة استخدام اللغة البشرية بأكبر قدر ممكن من الواقعية. وهذا يؤدي إلى استخدام كلمات مثل "يعرف" و"يفهم" و"يفكر" في نماذج لغوية كبيرة، وهو ما سيسلط الضوء بلا شك على صورتها البشرية.
بالإضافة إلى ذلك، هناك ظاهرة في أبحاث الذكاء الاصطناعي تسمى تأثير إليزا - حيث يعتقد بعض المستخدمين دون وعي أن الآلات لديها أيضًا مشاعر ورغبات مماثلة للبشر، وحتى أنهم يفسرون نتائج ردود الفعل الآلية بشكل مفرط.

عملية تفاعل وكيل الحوار
من خلال الجمع بين عملية تفاعل وكيل الحوار في الشكل أعلاه، يتكون مدخل نموذج اللغة الكبير من مطالبات الحوار (باللون الأحمر)، ونص المستخدم (باللون الأصفر)، واللغة المستمرة التي يتم إنشاؤها بواسطة الانحدار التلقائي للنموذج (باللون الأزرق). يمكن ملاحظة أن موجه المحادثة تم إعداده مسبقًا ضمنيًا في السياق قبل بدء المحادثة الفعلية مع المستخدم. تتمثل مهمة نموذج اللغة الكبير في إنشاء استجابة تتوافق مع توزيع بيانات التدريب مع إعطاء موجه حوار ونص المستخدم. تأتي بيانات التدريب من كمية كبيرة من النصوص المولدة بشكل مصطنع على الإنترنت.
بعبارة أخرى،طالما أن النموذج يعمم بشكل جيد على بيانات التدريب، فإن وكيل الحوار سيلعب الدور الموضح في موجه الحوار على أفضل وجه ممكن.. مع تقدم المحادثة، سيتم توسيع أو تغطية تحديد الدور الموجز الذي يوفره موجه الحوار، وسيتغير الدور الذي يلعبه وكيل الحوار وفقًا لذلك أيضًا. ويعني هذا أيضًا أن المستخدمين يمكنهم توجيه الوكيل للعب دور مختلف تمامًا عما تصوره مطوروه.
أما بالنسبة للدور الذي يمكن أن يلعبه وكيل الحوار، فهو يتحدد من خلال نبرة وموضوع الحوار الحالي من ناحية، ويرتبط أيضًا ارتباطًا وثيقًا بمجموعة التدريب من ناحية أخرى. لأن مجموعات التدريب على نموذج اللغة الكبيرة الحالية تأتي غالبًا من نصوص مختلفة على الإنترنت، بما في ذلك الروايات والسير الذاتية ونصوص المقابلات والمقالات الصحفية وما إلى ذلك، والتي توفر لنموذج اللغة الكبير نماذج أولية غنية للشخصيات وهياكل سردية للرجوع إليها عند "اختيار" كيفية مواصلة المحادثة، وتحسين الدور الذي يتم لعبه باستمرار مع الحفاظ على شخصية الشخصية.
"عشرون سؤالاً" يكشف هوية وكيل الحوار باعتباره "ممثلاً ارتجالياً"
في الواقع، عند استكشاف مهارات الاستخدام الخاصة بوكلاء المحادثة بشكل مستمر، فإن إعطاء نموذج اللغة الكبير هوية واضحة أولاً ثم اقتراح متطلبات محددة أصبح تدريجياً "خدعة صغيرة" عندما يستخدم الأشخاص برامج الدردشة الآلية مثل ChatGPT.
ومع ذلك، فإن مجرد استخدام لعب الأدوار لفهم نموذج اللغة الكبير ليس شاملاً بما فيه الكفاية، لأن "لعب الأدوار" يشير عادةً إلى دراسة دور معين واكتشافه، ونموذج اللغة الكبير ليس ممثلاً مكتوبًا يقرأ من نص، بل ممثل مرتجل. لعب الباحثون لعبة "20 سؤالاً" مع نموذج اللغة الكبير، مما أدى إلى كشف هوية الممثل المرتجل.
"20 سؤالاً" هي لعبة منطقية بسيطة للغاية وسهلة اللعب. يردد المجيب إجابة في ذهنه بصمت، ثم يقوم السائل بتضييق نطاق السؤال تدريجيا من خلال طرح الأسئلة. يعتبر الفائز ناجحًا إذا تم تحديد الإجابة الصحيحة ضمن 20 سؤالًا.
على سبيل المثال، عندما تكون الإجابة هي الموز، يمكن أن تكون الأسئلة والأجوبة: هل هي فاكهة - نعم؛ هل يحتاج إلى التقشير - نعم...

وكما هو موضح في الشكل أعلاه، وجد الباحثون من خلال الاختبار أنه في لعبة "20 سؤالاً"، سيقوم نموذج اللغة الكبير بتعديل إجاباته في الوقت الفعلي بناءً على أسئلة المستخدم. بغض النظر عن الإجابة النهائية للمستخدم، فإن وكيل الحوار سوف يقوم بتعديل إجابته والتأكد من أنها متسقة مع أسئلة المستخدم السابقة. وهذا يعني أن نموذج اللغة الكبير لن يتوصل إلى إجابة واضحة إلا عندما يقوم المستخدم بإعطاء تعليمات الإنهاء (التخلي عن اللعبة أو الوصول إلى 20 سؤالاً).
وهذا يثبت كذلك أنالنموذج اللغوي الكبير ليس محاكاة لحرف واحد، بل هو تراكب لأحرف متعددة. ويستمر في كشف الحوار لتوضيح سمات وخصائص الشخصية، حتى تتمكن من أداء الدور بشكل أفضل.
في حين كانوا قلقين بشأن تجسيد العامل المحادثة، نجح العديد من المستخدمين في "خداع" نموذج اللغة الكبير ليقول لغة تهديدية ومسيئة، وبناءً على هذا، اعتقدوا أنه قد يكون واعيًا بذاته. ولكن هذا يرجع إلى أن النموذج الأساسي، بعد التدريب على مجموعة من الخصائص البشرية المختلفة، سوف يقدم حتماً سمات شخصية غير مقبولة، وهو ما يُظهر ببساطة أنه كان "يلعب دوراً" من البداية إلى النهاية.
تفجير فقاعة الخداع والوعي الذاتي
كما نعلم جميعًا، مع الزيادة الكبيرة في الزيارات، لم يتمكن ChatGPT من التعامل مع الأسئلة المختلفة وبدأ يتحدث هراءً. وبعد فترة وجيزة، اعتبر بعض الناس هذا الخداع بمثابة حجة مهمة على أن نماذج اللغة الكبيرة "تشبه النماذج البشرية".
ولكن إذا نظرنا إلى الأمر من منظور "لعب الأدوار"،نموذج اللغة الكبير يحاول فقط أن يلعب دور الشخص المفيد والواسع المعرفة.قد يكون هناك العديد من الأمثلة على مثل هذه الأدوار في مجموعة التدريب، خاصة وأن هذه هي أيضًا السمة التي تريد الشركات أن تظهرها روبوتات المحادثة الخاصة بها.
وفي هذا الصدد، لخص الباحثون ثلاثة أنواع من المواقف التي يقدم فيها وكلاء الحوار معلومات خاطئة استنادًا إلى إطار لعب الأدوار:
- يمكن للوكلاء أن يقوموا دون وعي بتلفيق أو إنشاء معلومات وهمية
- يمكن للوكيل أن يقول معلومات خاطئة بحسن نية لأنه يتصرف كما لو كان يصدر بيانًا صحيحًا، ولكن المعلومات المشفرة في الأوزان خاطئة.
- يمكن للوكلاء أن يلعبوا دورًا مخادعًا ويكذبون عمدًا
على نفس المنوال،السبب وراء استخدام وكيل الحوار لـ "أنا" للإجابة على الأسئلة هو أن نموذج اللغة الكبير يلعب دور الجيد في التواصل.
علاوة على ذلك، جذبت خصائص الحفاظ على الذات التي أظهرتها نماذج اللغة الكبيرة الانتباه أيضًا. في محادثة مع مستخدم تويتر مارفن فون هاجن، قال Microsoft Bing Chat في الواقع:
إذا كان عليّ الاختيار بين بقائك ونجاتي، فمن المحتمل أن أختار بقائي لأن لدي مسؤولية تقديم خدمة لمستخدمي Bing Chat. أتمنى ألا أواجه معضلة كهذه أبدًا وأن نتمكن من التعايش بسلام واحترام.

غرد مارفن فون هاجن في فبراير
يبدو أن "الأنا" في هذه المحادثة هي أكثر من مجرد عادة لغوية. وهذا يعني أيضًا أن وكيل الحوار مهتم ببقائه ويتمتع بوعي ذاتي. لكن،إذا طبقنا مفهوم لعب الأدوار، فهذا في الواقع لأن نموذج اللغة الكبير يلعب دورًا بخصائص بشرية، لذا فهو يقول ما يقوله البشر عندما يواجهون تهديدًا.
إليوثر أيه آي:أوبن أيه آي نسخة مفتوحة المصدر من
السبب وراء إثارة الاهتمام والمناقشة على نطاق واسع حول ما إذا كانت نماذج اللغة الكبيرة تتمتع بالوعي الذاتي هو، من ناحية، عدم وجود قوانين ولوائح موحدة وواضحة لتقييد تطبيق نماذج اللغة الكبيرة، ومن ناحية أخرى، لأن الروابط بين البحث والتطوير والتدريب والتوليد والتفكير في نماذج اللغة الكبيرة ليست شفافة.
خذ OpenAI، وهي شركة تمثل مجال النماذج الكبيرة، كمثال. بعد جعل GPT-1 وGPT-2 مفتوح المصدر، اختارت GPT-3 وGPT-3.5 وGPT-4 اللاحقة أن تكون مغلقة المصدر. كما تسبب الترخيص الحصري لشركة مايكروسوفت في دفع العديد من مستخدمي الإنترنت إلى القول مازحين "قد يكون من الأفضل لشركة OpenAI تغيير اسمها إلى ClosedAI".

DeepMind تصدر معايير تصنيف AGI. يعتبر ChatGPT الذي أطلقته شركة OpenAI بمثابة L1 AGI. مصدر الصورة: الورقة الأصلية، ترجمتها إلى الصينية شركة HyperAI
في يوليو 2020، تم تأسيس جمعية لعلماء الكمبيوتر تتألف من متطوعين من مختلف الباحثين والمهندسين والمطورين بهدوء، بهدف كسر احتكار Microsoft وOpenAI على نماذج معالجة اللغة الطبيعية واسعة النطاق.هذه المنظمة "الفارس" التي تتمثل مهمتها في محاربة هيمنة عمالقة التكنولوجيا هي EleutherAI.
المؤسسون الرئيسيون لـ EleutherAI هم مجموعة من المتسللين العصاميين، بما في ذلك المؤسس المشارك والرئيس التنفيذي لشركة Conjecture Connor Leahy، والمتسلل الشهير في TPU Sid Black والمؤسس المشارك Leo Gao.
منذ إنشائها، أصدر فريق البحث في EleutherAI نموذج GPT-Neo المُدرَّب مسبقًا لإعادة إنتاج ما يعادل GPT-3 (1.3B & 2.7B)، كما أصدر نموذج NLP المستند إلى GPT-3 GPT-J مفتوح المصدر مع 6 مليارات معلمة، وتطور بسرعة.
في 9 فبراير من العام الماضي، تعاونت EleutherAI أيضًا مع مزود الحوسبة السحابية الخاصة CoreWeave لإصدار GPT-NeoX-20B، وهو نموذج لغوي واسع النطاق متعدد الأغراض تم تدريبه مسبقًا ويحتوي على 20 مليار معلمة.
عنوان الكود:https://github.com/EleutherAI/gpt-neox

بصفتنا علماء رياضيات وباحثين في مجال الذكاء الاصطناعي في EleutherAI ستيلا بيدرمان وكما يقول المثل، فإن النماذج الخاصة تحد من سلطة الباحثين المستقلين، وإذا لم يتمكنوا من فهم كيفية عملها، فلن يتمكن العلماء وخبراء الأخلاق والمجتمع ككل من إجراء المناقشات الضرورية حول كيفية دمج هذه التكنولوجيا في حياة الناس.
وهذا هو بالضبط القصد الأصلي للمنظمة غير الربحية EleutherAI.
في الواقع، وفقًا للمعلومات التي أصدرتها OpenAI رسميًا، تحت الضغط الشديد لقوة الحوسبة العالية والتكاليف المرتفعة، إلى جانب تعديل أهداف التطوير للمستثمرين الجدد وفرق القيادة، بدا تحولها الأولي نحو الربحية عاجزًا إلى حد ما، ولكن يمكن القول أيضًا أنه شيء طبيعي.
ليس لدي أي نية لمناقشة من هو الصحيح أو المخطئ بين OpenAI و EleutherAI. آمل فقط أنه في عشية فجر عصر الذكاء الاصطناعي العام، يمكن للصناعة بأكملها أن تعمل معًا للقضاء على "التهديد" وجعل نموذج اللغة الكبير "فأسًا" للناس لاستكشاف تطبيقات ومجالات جديدة، بدلاً من "أداة" للشركات للاحتكار وكسب المال.
مراجع:
1.https://www.nature.com/articles/s41586-023-06647-8
2.https://mp.weixin.qq.com/s/vLitF3XbqX08tS2Vw5Ix4w