OpenAI تسعى جاهدة لتجنب توضيح سبب حذف مجموعات بيانات كتب مسروقة
في أحدث تطورات مواجهة شركات الذكاء الاصطناعي مع قضايا الملكية الفكرية، واجهت شركة OpenAI انتقادات متزايدة بعد حذفها مجموعات بيانات تحتوي على كتب مسروقة، دون تقديم توضيحات كافية حول سبب هذا الإجراء. ورغم أن الشركة أعلنت عن حذف هذه الملفات، إلا أن غياب شفافية في تبرير الخطوة أثار مخاوف من تفاقم المخاطر القانونية، خصوصاً في ظل تزايد التحقيقات حول استخدامها لبيانات غير قانونية في تدريب نماذجها الذكية. وقد اتُهمت OpenAI بجمع ملايين الكتب من مصادر غير رسمية، بما في ذلك منصات مثل Internet Archive، التي تُعَدّ مصدراً شائعاً للكتب المحمولة. ورغم أن بعض هذه الكتب كانت مُتاحة مجاناً، فإن استخدامها في تدريب نماذج الذكاء الاصطناعي دون ترخيص من أصحاب الحقوق يُعدّ انتهاكاً محتملاً للقوانين الدولية لحقوق الملكية الفكرية. وعندما أُعلن عن حذف هذه المجموعات، لم تُقدِّم OpenAI تفاصيل دقيقة عن أسباب الحذف، أو عن عدد الكتب المتأثرة، أو ما إذا كانت هذه البيانات قد استُخدمت فعلاً في تدريب نماذج مثل GPT-4. هذا التصعيد يُعدّ تطوراً مقلقاً، إذ يُمكن أن يُستخدم غياب التوضيح كدليل على محاولة تجنب المساءلة. ورغم أن الشركة تصرّ على التزامها بمبادئ الامتثال، فإن سلوكها يُثير تساؤلات حول مدى جدّية التزامها بحماية حقوق الملكية الفكرية، خصوصاً في ظل مطالبات متزايدة من ناشطين وكتاب ومؤسسات قانونية بمحاسبة الشركات التي تُستفيد من محتوى مسروق. ومن جهته، حذّر مراقبون من أن تجاهل OpenAI لضرورة توضيح مصادر البيانات قد يُفاقم المخاطر القانونية، خصوصاً في الولايات المتحدة وأوروبا، حيث تُفرض غرامات باهظة على انتهاكات الملكية الفكرية. وتشير تقارير قانونية إلى أن تأخير التصريح أو تجنبه قد يُفسر على أنه محاولة لتعطيل التحقيقات، ما يُزيد من احتمال فرض عقوبات أشد. في المقابل، تُصرّ الشركة على أن نماذجها تُدرّب على مصادر متنوعة، وتشمل محتوى مُتاح علناً ومرخصاً، لكنها لم تُقدِّم أي وثائق تثبت ذلك. ورغم تأكيدات OpenAI بتحديث سياسات التدريب وتعزيز المراقبة، فإن الشكوك تظل قائمة، خصوصاً في ظل تقارير تُشير إلى استمرار استخدام بيانات غير مُرخّصة في بعض مراحل التدريب. الحدث يُظهر التوتر المتزايد بين الابتكار التكنولوجي وحماية حقوق الملكية، ويُبرز الحاجة إلى شفافية أكبر من قبل شركات الذكاء الاصطناعي. فبينما تسعى الشركات إلى تطوير نماذج أذكى، يصبح من الضروري أن تُظهر تفاصيل دقيقة عن كيفية جمع البيانات، وضمان احترام القوانين. وإلا، قد تُواجه عواقب قانونية واقتصادية كبيرة، تُهدد استقرارها في سوق تكنولوجيا الذكاء الاصطناعي المتنامِي.
