HyperAIHyperAI
Back to Headlines

الأخلاقيون يستخدمون الذكاء الاصطناعي لتحسين مراجعة الأبحاث البشرية

منذ 4 أيام

تواجه لجان المراجعة الأخلاقية للبحوث البشرية (IRBs) تحمّلاً متزايداً بسبب تراكم الطلبات، ما يجعل مراجعتها بطيئة ومتعبة، حسب ما يشير إليه الفيليب نيكل، أستاذ الأخلاق الحيوية في جامعة إيندهوفن للتكنولوجيا. يُعدّ هذا التحدي محفّزاً لاستكشاف استخدام الذكاء الاصطناعي، خاصة النماذج اللغوية الكبيرة (LLMs) مثل ChatGPT وClaude وGemini، كأداة لفحص الطلبات الأولية وتحديد الثغرات في الحسابات المخاطر-الفوائد، أو نقص حماية المشاركين، أو المخالفات القانونية أو الأخلاقية. أظهرت دراسات حديثة أن هذه النماذج، مثل GPT-4o وGemini 1.5 Pro، تمكّنت من اكتشاف جميع المشكلات المحددة من قبل مراجعين بشريين في 50 اقتراحًا محاكاة لدراسات حيوانية، مما يشير إلى إمكانية دعمها الفعّال. واقتراح جديد نُشر في مجلة Journal of Medical Ethics يقترح تدريب هذه النماذج على بيانات مخصصة من لجان المراجعة، بما يشمل سياسات المؤسسة، وقرارات سابقة، وسياقات ثقافية، لجعلها أكثر تماشياً مع المعايير المحلية. يُقترح استخدام نماذج "مُبرّرة" مثل OpenAI’s o-series أو Anthropic’s Sonnet، التي تُقدّم تفسيرات خطوة بخطوة، بدلًا من النماذج "الصُّندوقيّة" التي تُصعّب فهم سبب قراراتها. كما يمكن ربط إجابات النموذج بمصادر رسمية مثل دليل لجنة المراجعة أو السياسات الرسمية، لتجنب "الهلوسة" أو الإجابات غير الدقيقة. الهدف ليس استبدال المراجعين البشر، بل تمكينهم من التركيز على التحديات الأخلاقية المعقدة، حسب ما يرى براين إيرب، أستاذ الأخلاق الحيوية في جامعة نيو ساوث ويلز. ويشير إلى أن عدم استخدام الذكاء الاصطناعي قد يصبح غير مقبول أخلاقيًا مع استمرار التراكم. لكن مخاوف تُطرح حول احتمال تحوّل النموذج إلى أداة تُستخدم لتعجيل المراجعات على حساب الجودة، خاصة في لجان بحثية تجارية لا تخضع لرقابة فدرالية، حيث قد تُقدّم السرعة والربح كأولويات. ومع ذلك، ترى دونا ساندر، مديرة طبية في شركة WCG IRB، أن الذكاء الاصطناعي يمكن أن يُستخدم لمساعدة الخبراء على استرجاع سابقة مماثلة بسرعة، وليس لتقليل المراجعة. في السياقات المحدودة الموارد، مثل لجان المراجعة في الجنوب العالمي، قد يكون الذكاء الاصطناعي مساعداً حيوياً، لكن كيمنثري مودلي، أستاذة طب الأسرة في جامعة ستيلينبوش، تحذر من أن النماذج المدربة على معايير غربية قد لا تناسب السياقات الأفريقية، مما قد يؤدي إلى تحيّزات أخلاقية. أحد الحلول المطروحة هو تطوير نماذج مفتوحة المصدر أو مخصصة تُشغل محليًا على خوادم المؤسسة، لضمان خصوصية البيانات وشفافيتها. تُظهر باحثة الأنثروبولوجيا ستيفي غروهمان نموذجًا أوليًا باسم EthicAlly، يعتمد على Claude Sonnet، وقد نجح في اكتشاف 24 من أصل 25 مشكلة أخلاقية في اقتراحات وهمية، من تفاصيل ناقصة إلى ممارسات عنصرية علمية. رغم التقدم، تؤكد هولي فرنانديز لينش من جامعة بنسلفانيا أن المراجعة الأخلاقية ليست عملية آلية، وأن جوهرها يكمن في مناقشة جماعية بين خبراء يُحاسَبون على حماية المشاركين. لذلك، تبقى المهمة الحاسمة: توظيف الذكاء الاصطناعي كأداة مساعدة، لا بديل.

Related Links