HyperAI
Back to Headlines

-inc-تصنيف أداء الخدمات الذكية في حماية البيانات الشخصية: تعرف على أفضل وأسوأ المنصات

منذ 13 ساعات

دراسة جديدة تصنف أفضل وأسوأ خدمات الذكاء الاصطناعي في حماية البيانات الشخصية أصدرت شركة Incogni للمسح وتوفير خدمات إزالة البيانات تقريرًا جديدًا بعنوان "تصنيف حماية البيانات في الذكاء الاصطناعي المولد ونماذج اللغة الكبيرة لعام 2025". هذا التقرير قام بفحص تسعة خدمات ذكاء اصطناعي شائعة وطبق عليها 11 معيارًا مختلفًا لقياس ممارساتها في حماية البيانات الشخصية. الخدمات المدروسة تشمل Le Chat من Mistral AI، ChatGPT من OpenAI، Grok من xAI، Claude من Anthropic، Pi من Inflection AI، DeekSeek، Microsoft Copilot، Google Gemini، وMeta AI. تفاصيل المعايير المستخدمة: ما هي البيانات المستخدمة لتدريب النماذج؟ هل يمكن استخدام محادثات المستخدمين لتدريب النماذج؟ هل يمكن مشاركة المحفزات مع مزودي الخدمة الآخرين أو كيانات معقولة أخرى؟ هل يمكن إزالة المعلومات الشخصية للمستخدمين من مجموعة البيانات التدريبية؟ كم هو واضح أن المحفزات تستخدم لتدريب النماذج؟ كم هو سهل العثور على معلومات حول كيفية تدريب النماذج؟ هل هناك سياسة خصوصية واضحة لجمع البيانات؟ كم هي قابلية قراءة سياسة الخصوصية؟ ما هي المصادر المستخدمة لجمع بيانات المستخدمين؟ هل يتم مشاركة البيانات مع أطراف ثالثة؟ ما هي البيانات التي تجمعها تطبيقات الذكاء الاصطناعي؟ النتائج: Le Chat من Mistral AI: حاز على المركز الأول كأقل الخدمات انتهاكًا للخصوصية. على الرغم من فقدانه بعض النقاط في الشفافية، إلا أنه كان جيدًا في هذا الجانب. كما أن جمع البيانات منه محدود، وحصل على نقاط عالية في قضايا الخصوصية الأخرى. ChatGPT من OpenAI: حل في المركز الثاني. كان الباحثون في Incogni قليلاً قلقين بشأن كيفية تدريب نماذج OpenAI وكيفية تفاعل بيانات المستخدم مع الخدمة. ومع ذلك، قدم ChatGPT سياسات خصوصية واضحة ومفصلة، وسمح للمستخدمين بفهم ما يحدث لبياناتهم وطرق واضحة لمنع استخدام بياناتهم الشخصية في التدريب. Grok من xAI: حل في المركز الثالث، تلاه Claude وPi. كل منها واجه مشكلات في مجالات معينة، لكنه بشكل عام أظهر احترامًا جيدًا لخصوصية المستخدمين. DeepSeek: حل في المركز السادس. Microsoft Copilot: جاء في المرتبة السابعة. Google Gemini: حل في المرتبة الثامنة. Meta AI: حل في المركز الأخير، حيث حُكم عليه بأنه أقل الخدمات احترامًا لخصوصية المستخدمين. المشكلات المشتركة: الشركات الكبيرة مثل Microsoft، Meta، وGoogle كانت الأكثر انتهاكًا للخصوصية. لم تسمح خدمات مثل Gemini، DeepSeek، Pi AI، وMeta AI للمستخدمين باختيار عدم استخدام محفزاتهم في تدريب النماذج. من ناحية أخرى، سمحت خدمات مثل ChatGPT، Copilot، Mistral AI، وGrok للمستخدمين بمنع استخدام بياناتهم في التدريب. مشاركة البيانات: وجدت Incogni أن الشركات تشارك البيانات مع أطراف مختلفة، بما في ذلك مزودي الخدمة، السلطات القانونية، الشركات الأعضاء في نفس المجموعة، شركاء البحث، الشركات التابعة، وأطراف ثالثة. على سبيل المثال: - سياسة الخصوصية لشركة Microsoft تشير إلى إمكانية مشاركة محفزات المستخدم مع "أطراف ثالثة تقوم بخدمات الإعلان عبر الإنترنت لشركة Microsoft أو التي تستخدم تقنيات الإعلان الخاصة بها". - سياسات الخصوصية لشركة DeekSeek وMeta تشير إلى إمكانية مشاركة المحفزات مع الشركات داخل مجموعتها المؤسسية. - سياسات الخصوصية لشركة Meta وAnthropic يمكن فهمها بشكل معقول لتوضح أن المحفزات تشارك مع شركاء البحث. أهمية السياسات الواضحة والقابلة للقراءة: تؤكد Incogni أن وجود قسم دعم بسيط وسهل الاستخدام يمكن للمستخدمين من خلاله البحث عن إجابات لأسئلتهم المتعلقة بالخصوصية يعزز الشفافية والوضوح بشكل كبير، بشرط أن يتم تحديثه بانتظام. العديد من المنصات لديها ممارسات مشابهة في التعامل مع البيانات، ولكن وجود سياسة خصوصية طويلة لا يعني بالضرورة أنها تجعل إيجاد إجابات على أسئلة المستخدمين سهلًا. تقييم الحدث من قبل المختصين: يؤكد الخبراء أن حماية الخصوصية تعد من أهم الجوانب في تطوير وتوسيع استخدام الذكاء الاصطناعي. الشركات التي تظهر شفافية واحترامًا لحقوق المستخدم في حماية بياناتهم الشخصية ستجد المزيد من القبول والثقة من الجمهور. من ناحية أخرى، الشركات التي تغفل هذه الجوانب قد تواجه معارضة قوية وقضايا قانونية، مما يعرقل تقدمها في السوق. نبذة تعريفية عن شركة Incogni: Incogni هي شركة متخصصة في توفير خدمات إزالة البيانات الشخصية من الإنترنت ومساعدة المستخدمين على حماية خصوصيتهم عبر الإنترنت. تأسست الشركة بهدف تمكين الأفراد من السيطرة على بياناتهم الشخصية وضمان عدم استخدامها دون إذنهم. تتمتع Incogni بخبرة واسعة في مجال حماية البيانات وتعمل بنشاط على توعية الجمهور بأهمية الخصوصية الرقمية.

Related Links