نصف المعلنين في الصناعة الدوائية لا يثقون في الذكاء الاصطناعي لتقديم المستندات التنظيمية
أظهر استبيان حديث أجرته شركة كليك هيلث بالتعاون مع مومينت إيفينتس أن 65 بالمئة من المهنيين في مجال التسويق والموافقة على المواد الدعائية في قطاع الصيدلة بالولايات المتحدة لا يثقون في استخدام الذكاء الاصطناعي لإعداد التقارير والتقديمات المتعلقة بالامتثال التنظيمي. وتُعد الظواهر الوهمية أو ما يُعرف بـ"الهلوسة" في الذكاء الاصطناعي أكبر مخاوفهم بنسبة 40 بالمئة، تليها ضعف الشفافية وعدم وجود سجلات تتبع بنسبة 20 بالمئة، ثم ضعف القدرة على تفسير النتائج بنسبة 12.5 بالمئة. هذه النتائج تؤكد الحاجة الملحة إلى أدوات ذكاء اصطناعي شفافة تُعرف بـ"الصناديق الزجاجية" التي توفر رؤية واضحة في العمليات وتمكّن من التحقق من سلامة القرارات. وأكد ألفرد وايتهيد نائب الرئيس التنفيذي للعلوم التطبيقية في كليك أن الحل ليس التخلي عن الذكاء الاصطناعي بل الانتقال من النماذج المظلمة التي لا توضح كيفية الوصول إلى النتائج إلى أدوات تُظهر منطقها وتحافظ على الشفافية والمساءلة. وأشارت جولي تيرنبول، نائب الرئيس للعلوم والتنظيم، إلى أن الأدوات الزجاجية مبنية على خبرات بشرية متخصصة في المجال الطبي والتنظيمي، مما يجعلها مناسبة بشكل خاص للمهام عالية الخطورة مثل إعداد المواد التنظيمية في مجال الرعاية الصحية. واعتبرت أن كليك غاردرايل تمثل نموذجاً مثالياً لهذه الفئة، حيث لا يقتصر دورها على تقديم توقعات بسيطة بل تستخدم محركاً قوياً للقرارات يُظهر تفكيره ومساره المنطقي. وأشارت التفاصيل الإضافية من الاستبيان إلى أن نصف المشاركين يثقون في الذكاء الاصطناعي عند مراجعة المواد، لكنهم يترددون في استخدامه في مهام حساسة مثل إعداد الحزم التنظيمية. وبيّن أن أكثر من ثلث المشاركين (37.5 بالمئة) يُقيّمون أكثر من 100 مادة كل ربع سنة، بينما يُقيّم أقل من عشرين بالمئة أقل من 25 مادة. و55 بالمئة من الشركات تُجري تجارب مع الذكاء الاصطناعي، و25 بالمئة في مراحل تجريبية، بينما لا تزال نسبة 5 بالمئة فقط تستخدمه جزئياً و2.5 بالمئة بشكل كامل، و12.5 بالمئة لا تفكر في استخدامه. وأشارت النتائج إلى أن 35 بالمئة من المشاركين يعملون في عمليات أو إدارة لجنة المراجعة الطبية والقانونية، و30 بالمئة في المجال التنظيمي، و15 بالمئة في التسويق، و12.5 بالمئة في المجال الطبي أو الاتصالات الطبية، و5 بالمئة في القانون، و2.5 بالمئة في التكنولوجيا. وتتوافق هذه النتائج مع تقرير كبي جي وجامعة ملبورن لعام 2025 الذي أظهر ارتفاعًا في القلق من الذكاء الاصطناعي من 49 بالمئة في 2022 إلى 62 بالمئة في 2024، و56 بالمئة من المستخدمين أفادوا بحدوث أخطاء في عملهم نتيجة محتوى وهمي أو تفسير خاطئ للنتائج. وأكد بـ جي جونز، المدير التنفيذي للتجارة في شركة نيوأمستردام فارما، أن نظام كليك غاردرايل يُظهر أن الذكاء الاصطناعي المسؤول ليس مجرد فكرة بل يمكن تطبيقه عملياً، مضيفاً أن التصميم يراعي مهنيي المراجعة والمؤلفين، ويُعزز الثقة والمساءلة. ويُستخدم النظام حاليًا في مراحل تجريبية مع شركات صيدلانية وبيوتكنولوجية، كما يُطبّق داخليًا في كليك لتحسين عمليات الإعداد والمراجعة والعمل مع لجان المراجعة الطبية والقانونية.
