HyperAIHyperAI

Command Palette

Search for a command to run...

علماء من ماساتشوستس يدرسون خطر تذكّر النماذج الذكية في الرعاية الصحية

في ظل التوسع المتسارع لذكاء اصطناعي في الرعاية الصحية، أجرت باحثون من معهد ماساتشوستس للتكنولوجيا (MIT) دراسة تسلط الضوء على خطر تذكّر النماذج الاصطناعية للبيانات الطبية الحساسة، رغم تفاديها التعرف على الهوية. تُعدّ خصوصية المريض جزءًا أساسيًا من أخلاقيات الطب، كما ينصّ على ذلك قسمة هيبيكراط، لكن النماذج الكبيرة المدربة على السجلات الصحية الإلكترونية (EHRs) التي تم إزالة هوياتها قد تُخزن معلومات محددة عن مرضى معينين، ما يشكل تهديدًا غير مُستبعد لخصوصية المرضى. الدراسة، التي عُرضت في مؤتمر NeurIPS 2025، قادها سانا تونكابوني، باحثة ما بعد الدكتوراه في مركز إريك وويندي سميث بمعهد برواد، بالتعاون مع البروفيسور مارزية غاسيمي، أستاذة مشاركة في MIT ورئيسة مختبر "الذكاء الاصطناعي في الصحة" (Jameel Clinic). ركّزت الدراسة على تقييم مدى قدرة النماذج على "تذكّر" معلومات محددة من سجلات مرضى، بدلًا من التعميم على مجموعات واسعة من البيانات. أظهرت النتائج أن النماذج تُظهر احتمالًا أكبر للكشف عن معلومات شخصية عندما يمتلك المهاجم معلومات مسبقة عن المريض، مثل تفاصيل مختبرات معينة أو تواريخ محددة. لكن الباحثين لاحظوا أن المخاطر تختلف حسب طبيعة المعلومات المُسربة: فكشف عمر المريض أو جنسه يُعدّ أقل خطورة مقارنة بتسريب تشخيص مرض مزمن مثل فيروس نقص المناعة أو سوء استهلاك الكحول، الذي قد يُسبب أذىً اجتماعيًا أو تمييزًا. النظام المُقترح يُقيّم المخاطر من خلال تجارب مُنظمة تُقيس درجات من التهديدات، من هجمات بسيطة إلى هجمات متقدمة تتطلب معرفة مسبقة بالبيانات. وتشير الدراسة إلى أن التهديد يكون ضعيفًا إذا احتاج المهاجم إلى معرفة تفاصيل دقيقة من سجلات مريض لاستخراج معلومات، لأن هذا يُشير إلى أن المهاجم يمتلك بالفعل وصولاً مباشرًا إلى البيانات. تُعدّ الحالات النادرة أو المميزة من المرضى أكثر عُرضة للاستهداف، لأن تفاصيل قليلة كافية لتمييزها. ورغم إزالة الهوية، تبقى بعض السمات كافية لاسترجاع الهوية، ما يُبرز الحاجة إلى حماية أعمق للبيانات الخاصة بالمرضى ذوي الحالات النادرة. الباحثون يخططون لتوسيع الدراسة لتشمل خبراء في الطب، والخصوصية، والقانون، لضمان تقييم شامل يأخذ بعين الاعتبار الجوانب الطبية والأخلاقية والقانونية. ويشيرون إلى أن سبب حماية البيانات الطبية هو تأكيد على أن هذه المعلومات تخص المريض وحده، ولا ينبغي أن تُستخدم أو تُكشف دون إذنه. العمل مدعوم من عدد من المؤسسات، منها مركز سميث، مؤسسة والينج، NSF، جوقة مور فاوندation، وبرنامج AI2050، إضافة إلى دعم من مختبرات وحكومات كندية وكندية. تُعد هذه الدراسة خطوة عملية نحو تطوير معايير تقييم فعّالة لخصوصية النماذج الاصطناعية في البيئة الطبية، قبل طرحها في الممارسة السريرية.

الروابط ذات الصلة

علماء من ماساتشوستس يدرسون خطر تذكّر النماذج الذكية في الرعاية الصحية | القصص الشائعة | HyperAI