لا تُدرَّب الذكاء الاصطناعي الطبي على بيانات المرضى دون علمهم
يُحذر مقال رأي نُشر في دورية ناتشر (Nature) من المخاطر المترتبة على استخدام بيانات المرضى الصحية في تدريب أنظمة الذكاء الاصطناعي الطبي دون علمهم أو موافقتهم الصريحة. ورغم أن التقدم في مجال الذكاء الاصطناعي يفتح آفاقاً واعدة لتحسين التشخيص والعلاج، إلا أن الاستخدام غير المُراقب لهذه البيانات قد يؤدي إلى تلوث السجلات الصحية الإلكترونية، مما يسبب تشويهاً في البيانات على المدى الطويل، ويُضعف دقة النماذج المستقبلية التي تعتمد عليها في التفسير والتحليل. الخطر الأكبر لا يكمن فقط في تدهور جودة البيانات، بل في غياب الشفافية والموافقة المستنيرة من المرضى حول كيفية استخدام بياناتهم. في كثير من الحالات، لا يدرك المرضى أن سجلاتهم الطبية تُستخدم كمصدر تدريب لخوارزميات ذكاء اصطناعي تُطبّق في مراكز الرعاية الصحية أو تُطوّر من قبل شركات تكنولوجية. هذا يشكل انتهاكاً لحقوق الخصوصية، ويُضعف الثقة بين المرضى ومقدمي الرعاية الصحية. الاستخدام غير المُعلن لبيانات المرضى يُفاقم مشكلة التحيّز في النماذج، خاصة إذا كانت البيانات متحيزة نحو فئات معينة (مثل الجنس أو العرق أو الموقع الجغرافي)، مما يؤدي إلى نتائج تشخيصية أو علاجية غير عادلة. كما أن تكرار استخدام نفس البيانات في تدريب نماذج متعددة قد يُحدث تأثيرات تراكمية تُضعف دقة التنبؤات مع الوقت، ما يُعرّض المرضى لمخاطر تشخيص خاطئ أو علاج غير مناسب. الحل لا يكمن في وقف تطوير الذكاء الاصطناعي في الطب، بل في تبني إجراءات صارمة لضمان الشفافية والمساءلة. يجب أن تُطلب موافقة واضحة ومستنيرة من المرضى قبل استخدام بياناتهم، مع إتاحة خيارات لرفض المشاركة. كما ينبغي تطوير معايير دولية لتنظيم استخدام البيانات الطبية في الذكاء الاصطناعي، تشمل مراقبة مستمرة لجودة البيانات وتحديث النماذج بطرق تضمن عدم التأثير السلبي على السجلات الصحية. بالإضافة إلى ذلك، يجب أن تُشجع المؤسسات الصحية والشركات التكنولوجية على نموذج مشاركة شفافة، حيث يتم إعلام المرضى بطرق استخدام بياناتهم، وتقديم تقارير دورية حول كيفية تأثير هذه الاستخدامات على الأداء الطبي. ويشمل ذلك أيضاً إشراك المرضى والمجتمعات في صياغة سياسات استخدام البيانات، لضمان تمثيل متنوع وعادل. في النهاية، لا يمكن تحقيق التقدم في الطب الذكي دون حماية حقوق المرضى. التوازن بين الابتكار والأخلاقيات يُعدّ ضرورياً لضمان أن تُستخدم تقنيات الذكاء الاصطناعي لخدمة المرضى، لا لتعريضهم للخطر أو انتهاك خصوصيتهم.