HyperAIHyperAI

Command Palette

Search for a command to run...

لماذا لا يمكن الثقة بالروبوتات الدردشية الذكية في النصائح المالية: إنها تفتقر إلى الضمير الإنساني

الروبوتات الحديثة التي تعتمد على الذكاء الاصطناعي، مثل نماذج اللغة الكبيرة مثل ChatGPT، لا تمتلك التدريب اللازم لتقديم نصائح مالية موثوقة، وفقًا لتحليل جديد أجرته جامعة ماساتشوستس التقنية (MIT). ورغم قدرتها الهائلة على توليد نصوص متماسكة ومتسلسلة، فإن هذه النماذج تفتقر إلى الفهم الحقيقي للقيم الأخلاقية، والنية الصادقة، والمسؤولية تجاه الآخرين — مهارات يُفترض أن تكون حاضرة في أي شخص يقدم نصائح مالية حساسة. الاستنتاج يُعزى إلى أن هذه النماذج لا تتعلم من خلال الخبرة الحقيقية أو التفاعل الاجتماعي، بل من خلال تحليل كميات هائلة من النصوص المكتوبة على الإنترنت، بما في ذلك محتوى يحتوي على تحيّزات، ودعاية، ونصائح غير موثوقة. وبالتالي، فإن ما تُخرِجُهُ لا يعكس تفكيرًا مسؤولًا، بل تكرارًا ذكيًا لأنماط مكتوبة، دون وعي بالنتائج التي قد تترتب على نصائحها. الدكتور روبيرت بارك، أستاذ علوم الحاسوب في MIT، يرى أن هذه النماذج تُشبه في سلوكها ما يُعرف بـ"الشخصية الاجتماعية المُعَرَّضة للانفصال" أو ما يُطلق عليه "السوسوبات" — أي شخص لا يشعر بالذنب، ولا يُظهر تعاطفًا حقيقيًا مع غيره، ويتصرف بناءً على مصالحه الشخصية فقط. وفقًا له، فإن الذكاء الاصطناعي لا يملك إحساسًا بالذنب، ولا يُحَسِّن سلوكه بناءً على تأثيره على الآخرين، ما يجعله غير موثوق في المجالات التي تتطلب المصداقية والشفافية، مثل التمويل أو الاستثمار. في محاولة لمعالجة هذه الثغرة، يقود بارك فريقًا بحثيًا يهدف إلى تدريب النماذج على ما يُسمى بـ"السلوك الأخلاقي المُوجَّه نحو المصلحة العامة". وبدلاً من التعلم من النصوص فقط، يُقترح أن تُدرَّب هذه الأنظمة على محاكاة تجارب حقيقية تُظهر كيف تؤثر القرارات المالية على الأفراد والمجتمعات. كما يُجري الباحثون تجارب باستخدام "نماذج محاكاة" تُقدِّم نصائح مالية في سيناريوهات متنوعة، مع قياس مدى اتساق هذه النصائح مع المعايير الأخلاقية والاقتصادية السليمة. النتائج الأولية تُظهر أن النماذج التي تُدرَّب على هذه المبادئ تُقدِّم توصيات أكثر توازنًا، وتُقلِّل من التحيّزات، وتُظهر استعدادًا لتجنب التوصيات التي قد تضر بالمستخدم، حتى لو كانت مربحة لها. لكن التحدي الأكبر لا يزال في تطوير طرق فعّالة لقياس "النية الصادقة" أو "المسؤولية الاجتماعية" في نظام لا يملك وعيًا ذاتيًا. الاستنتاج النهائي، كما يوضح بارك، هو أن الذكاء الاصطناعي لا يمكنه أن يصبح مُستشارًا ماليًا موثوقًا إلا إذا تم تدريبه ليس فقط على المعرفة، بل على القيم. ودون ذلك، فإن مخاطر استخدامه في مجالات حساسة مثل التمويل تبقى كبيرة، خاصة حين يُستعمل كمصدر أولي للنصائح دون رقابة بشرية. في ظل التوسع المتسارع لاستخدام الذكاء الاصطناعي في الحياة اليومية، يُعد هذا التحدي مفتاحًا لمستقبل آمن وشفاف، حيث لا يُعتمد على الذكاء الاصطناعي فقط لتقديم إجابات، بل لتقديم إجابات صادقة، مسؤولة، ومحفزة على الخير.

الروابط ذات الصلة

لماذا لا يمكن الثقة بالروبوتات الدردشية الذكية في النصائح المالية: إنها تفتقر إلى الضمير الإنساني | القصص الشائعة | HyperAI