HyperAIHyperAI
Back to Headlines

مُراجعون خارجون يرون بيانات شخصية في محادثات المستخدمين مع ذكاء اصطناعي ميتا

منذ 4 أيام

تُظهر تقارير حديثة أن عمالًا مستقلين يعملون لصالح شركات تقنية كبرى، من بينها ميتا، يُجرون مراجعة لمحادثات المستخدمين مع الذكاء الاصطناعي الخاص بها، وقد يتعرضون لبيانات شخصية حساسة تُمكنهم من تحديد هوية الأشخاص. وفقًا لمصادر مطلعة، تشمل هذه البيانات أسماء كاملة، وأرقام هواتف، وعناوين بريد إلكتروني، وتفاصيل مثل الجنس، والهوايات، وحتى صورًا شخصية، بما في ذلك صور عارية أو صور ذات طابع عاطفي. تم توظيف هؤلاء العمال من خلال منصات مثل Outlier (تابعة لشركة Scale AI) وAlignerr، حيث يُطلب منهم تقييم جودة استجابات الذكاء الاصطناعي في محادثات حقيقية. ووفقًا لعقود ووثائق مراجعة، تم إدراج معلومات شخصية بجانب سجلات المحادثات، سواء كجزء من تدريب الذكاء الاصطناعي على التخصيص، أو نتيجة للكشف العرضي من قبل المستخدمين. أحد العمال أفاد أن أكثر من نصف المحادثات التي يراجعها أسبوعيًا تحتوي على بيانات شخصية، بينما أشار آخر إلى أن بعض المستخدمين أرسلوا صورًا شخصية عبر المحادثة. في مشروع "Omni" التابع لـ Alignerr، تضمنت بعض المحادثات محتوى حميمي جدًا، بما في ذلك تفاصيل عن العلاقات العاطفية، أو طلبات للدعم النفسي، مع تضمين معلومات مثل أسماء المستخدمين، وعناوينهم، ومهنهم. ورغم أن ميتا تؤكد أن سياساتها تُحدّد من يمكنه الوصول إلى البيانات، وتُشجع على التبليغ عن المحتوى الحساس، إلا أن العمال أشاروا إلى أن هذه الإجراءات غير كافية. أحد العمال أوضح أن بعض المحادثات كانت كارثية نفسيًا، لدرجة أنه اضطر لإيقاف العمل لليوم. وتمكّن فريق Business Insider من تحديد ملف شخصي على فيسبوك باستخدام معلومات مطابقة من محادثة حساسة، في أقل من خمس دقائق، مما يشير إلى خطورة تسرب البيانات. ميتا تؤكد أن العمال يخضعون لاختبارات أمنية وخصوصية، وأنهم يُسمح لهم بالوصول إلى بيانات شخصية فقط عند الحاجة، مثل تحديد الموقع لمساعدة المستخدم في العثور على مقهى قريب. لكن خبراء الخصوصية، مثل ميراندا بوجين من مركز الديمقراطية والتكنولوجيا، حذّروا من أن هذه الممارسات "تُفتح الباب أمام التلاعب والاحتيال"، وشددوا على أن المستخدمين لا ينبغي أن يفترضوا أن المحادثات مع الذكاء الاصطناعي سرية بطبيعتها. كما أشارت بوجين إلى أن أنظمة الحذف التلقائي للبيانات الشخصية لا تزال غير مثالية، وأن وجود مراجع بشريين لا يعني أن كل شيء مُدار بشكل آمن. ورغم أن شركات مثل ميتا وOpenAI وGoogle تُعلن عن استخدام المحادثات لتدريب النماذج، إلا أن ممارسات الخصوصية تختلف بين الشركات، مما يُركّز على الحاجة إلى معايير أكثر صرامة وشفافية في التعامل مع البيانات الحساسة.

Related Links

مُراجعون خارجون يرون بيانات شخصية في محادثات المستخدمين مع ذكاء اصطناعي ميتا | العناوين الرئيسية | HyperAI