HyperAI
Back to Headlines

جلسات العلاج باستخدام ChatGPT قد لا تكون سرية في القضايا القانونية، وفقًا لألمان

منذ 2 أيام

أفاد سام ألتمن، مدير شركة OpenAI، أن استخدام مستخدمي ChatGPT للتطبيق كمساعد نفسي قد يهدد خصوصيتهم في حالات قانونية مستقبلية. في مقابلة مع مُوسيقى تُبث عبر البودكاست، أشار ألتمن إلى أن الشباب، وخاصة، يستخدمون ChatGPT كطبيب نفسي أو مُستشار في العلاقات، لكن هذه المحادثات لا تحظى بالحماية القانونية التي توفرها المحادثات مع أخصائي نفسي حقيقي. وأوضح ألتمن أن المحادثات مع ChatGPT لا تتمتع بحقوق خصوصية قانونية مثل العلاقة بين الطبيب والمريض، أو بين المحامي والعميل. وأضاف: "إذا ذهبت لتتحدث مع ChatGPT عن أشياء حساسة، ثم واجهت قضية قانونية، فقد نُجبر على تسليم هذه المحادثات، وهذا أمر خاطئ جدًا". ودعا إلى ضرورة توفير نفس مستوى الخصوصية للتفاعل مع الذكاء الاصطناعي كما هو الحال مع الأطباء أو المحامين، مع التأكيد على ضرورة معالجة هذا الأمر بسرعة. يُذكر أن OpenAI تُخزن محادثات المستخدمين، ويمكن لفريقها قراءتها لتحسين النموذج أو مراقبة الاستخدام غير المشروع. وبحسب سياسات الحفظ الخاصة بها، يتم حذف محادثات ChatGPT المجاني والمستويات الأخرى بشكل دائم بعد 30 يومًا، إلا في حالات تتطلب الحفظ لأسباب قانونية أو أمنية. في يونيو، رفعت صحيفة "نيويورك تايمز" وصحيفة أخرى دعوى قضائية ضد OpenAI لطلب إبقاء سجلات المستخدمين بشكل دائم، وهو ما ترفضه الشركة وتُعترض عليه. أدت هذه التطورات إلى زيادة القلق حول خصوصية المستخدمين، خاصةً مع انتشار استخدام الذكاء الاصطناعي كمساعد نفسي. كما أشار ألتمن إلى قلقه من تأثير منصات التواصل الاجتماعي المدمرة على صحة الأطفال، بعد أن أصبح والدًا في فبراير. يُعد هذا التحذير جزءًا من نقاش أوسع حول كيفية تطبيق القوانين على التكنولوجيا الحديثة، وضرورة تطوير إطار قانوني يحمي المستخدمين في ظل التغيرات السريعة في استخدام الذكاء الاصطناعي.

Related Links