MIT Undermines Its Own AI Research Policies in Controversial Mental Health Study
في مفارقة تثير الاستغراب، كشفت مقالة نُشرت مؤخرًا في معهد ماساتشوستس للتكنولوجيا (MIT) عن تناقض صارخ بين سياسات المؤسسة وتطبيقها في مجال الذكاء الاصطناعي، خصوصًا فيما يتعلق بإنتاج الأبحاث العلمية. المقال، الذي يتناول استخدام الذكاء الاصطناعي في الصحة النفسية، اكتُشف أنه يحتوي على صيغ وعبارات شبه ملزمة تُعدّ مؤشرات واضحة على استخدام أدوات توليد النصوص بالذكاء الاصطناعي، ما يثير تساؤلات جادة حول مصداقية الأبحاث الأكاديمية في عصر التوسع المتسارع للذكاء الاصطناعي. الإشكالية ليست مجرد تكرار لعبارات شائعة، بل تتمثل في تفشي نمط كتابي يفتقر إلى العمق الفكري والتميّز العلمي. فمثلاً، عبارة مثل: "نهج شامل يدمج وسائل الحماية التقنية مع تدخلات مجتمعية أوسع تهدف إلى تعزيز الروابط الإنسانية المعنى" — لا تُعدّ تعبيرًا عن رؤية علمية مبتكرة، بل تشبه نموذجًا مُولّدًا تلقائيًا من قبل نماذج لغوية كبيرة. هذه الصيغ، التي تُستخدم بكثرة في المقالات الأكاديمية المدعومة بالذكاء الاصطناعي، تُظهر نمطًا موحدًا يُفقد النصّ طابعه الشخصي والتحليلي، ويعزز الشعور بالسطحية. ما يزيد من تفاقم المشكلة هو أن MIT، الذي يُعدّ من أبرز المؤسسات الرائدة في مجال التكنولوجيا والبحث العلمي، يمتلك سياسات صارمة تُحظر استخدام الذكاء الاصطناعي في إعداد الأبحاث الأكاديمية دون إفصاح كامل. ومع ذلك، فإن نشر مقال بهذا الشكل يُظهر تناقضًا واضحًا: فكيف يمكن لمؤسسة تُحذّر من التلاعب في المعرفة أن تُنتج محتوى يُشبه نتاجًا مُولّدًا آليًا؟ الاستخدام غير الأخلاقي للذكاء الاصطناعي في الأبحاث لا يُعدّ مجرد مسألة أخلاقية، بل يهدد مصداقية العلم نفسه. عندما يُستخدم الذكاء الاصطناعي لتوليد محتوى بحثي دون مراجعة علمية صارمة، فإن النتائج قد تبدو موثوقة، لكنها في الحقيقة لا تعكس تفكيرًا منهجيًا أو تجربة بحثية حقيقية. هذا يُضعف الثقة في المعرفة العلمية، ويُمكّن من تضخيم النتائج المُضللة أو التحيّزات المخفية في البيانات. إضافة إلى ذلك، فإن توظيف الذكاء الاصطناعي في مجالات حساسة مثل الصحة النفسية يحمل مخاطر أكبر. فهناك من يُستخدم الذكاء الاصطناعي كأداة لتقديم استشارات نفسية أو تحليل مشكلات عقلية، بينما لا تتوفر للنماذج المعرفة العميقة حول السياقات الثقافية أو التفاعلات البشرية المعقدة. استخدامها في أبحاث علمية حول هذا المجال، دون شفافية أو تقييم دقيق، يُعدّ تهديدًا حقيقيًا لسلامة المرضى وموثوقية النتائج. المشكلة ليست في الذكاء الاصطناعي نفسه، بل في كيفية استخدامه. يمكن أن يكون أداة مساعدة مفيدة في مراحل معينة من البحث، مثل صياغة الملاحظات أو تلخيص الدراسات. لكنه لا يمكن أن يحل محل التفكير النقدي، أو التجريب العلمي، أو المراجعة البشرية الدقيقة. في النهاية، يُعدّ هذا الحدث دعوة ملحة لتفعيل المعايير الأخلاقية والشفافية في الأبحاث العلمية، لا سيما في المؤسسات الرائدة. يجب أن تُطبّق السياسات التي تُحظر استخدام الذكاء الاصطناعي في الأبحاث دون إفصاح، وتعزز من مسؤولية الباحثين عن صحة المحتوى الذي يُنتجونه. العلم لا يُبنى على عبارات مُولّدة تلقائيًا، بل على التفكير العميق، والتجريب الدقيق، والشفافية المطلقة.