OpenAI تعتذر مجددًا عن مشكلة في Sora، وتصبح هذه المرة نمطًا متكررًا
في أحدث تطورات مواجهة OpenAI مع قضايا الملكية الفكرية، أعلنت الشركة عن تعليق استخدام ميزة في منتجها Sora تتيح إنشاء مقاطع فيديو تُظهر مظهر مارتن لوثر كينغ جونيور، بعد احتجاج أسرته. هذه ليست المرة الأولى التي تُظهر فيها الشركة نمطًا متكررًا: تبدأ بتحديثات تُستخدم فيها مواد مُحمية بحقوق الملكية، ثم تُعيد التفكير في الأمر فقط بعد تلقي شكاوى من أصحاب الحقوق أو ممثلين قانونيين. قبل ذلك، أعلنت OpenAI عن تقييد إمكانية استخدام أسماء وصور شخصيات هوليوود في مقاطع الفيديو بعد تدخل نقابات الممثلين والمنتجين. وفي العام الماضي، توقفت الشركة عن استخدام صوت مُحاكٍ لسكارليت جوهانسون، رغم أن الشركة عرضت دفع مبلغ مقابل استخدام صوتها، لكنها رفضت. كل هذه الحوادث تُظهر نمطًا واضحًا: اعتماد OpenAI على مبدأ "الطلب بالعفو، لا السماح المسبق"، حيث تُطلق ميزات تُستخدم فيها بيانات حساسة أو صور شخصيات مشهورة، ثم تُصحح الخطأ لاحقًا. سام ألتمان، الرئيس التنفيذي للشركة، يعترف صراحة بأن الشركة ستُخطئ، لكنه يؤكد أنهم سيستمدون التغذية الراجعة ويصلحون الأخطاء بسرعة. أما فارون شيت، أحد المديرين التنفيذيين، فكشف أن هذا النهج ليس حادثًا، بل خيارًا استراتيجيًا في سياق تنافسي حاد، حيث تسعى الشركة إلى عدم التأخر عن منافسيها في تطوير محتوى مدعوم بالذكاء الاصطناعي. من الناحية العملية، قد لا تؤثر هذه التصرفات مباشرة على حياة الأفراد العاديين. لكنها تُشكل تهديدًا طويل الأمد لثقة النظام الكلي الذي يعتمد عليه مستقبل الذكاء الاصطناعي. ففي العصر الذي يُفترض أن تُسند فيه مهام متنوعة إلى روبوتات ذكية، يجب أن تكون القواعد ثابتة، وقابلة للتوقع. وإذا استمرت الشركات في الاعتماد على "الاعتذار لاحقًا" بدلًا من الحصول على التصاريح مسبقًا، فإن الثقة في هذه التكنولوجيا ستتآكل. على المدى الطويل، من المرجح أن تُحل هذه التحديات من خلال اتفاقيات ترخيص مع شركات ومؤسسات، كما حدث مع اتفاق OpenAI مع مجموعة أكسيل سبرينغر. لكن المعضلة تكمن في أن هذا النمط، وإن كان ناجحًا مؤقتًا، قد يُصبح عائقًا أمام التكامل الحقيقي للذكاء الاصطناعي في الاقتصاد والحياة اليومية. فحتى لو نجحت OpenAI في التسويق لتقنياتها، فإن استمرارها في التحدي المباشر للملكية الفكرية قد يُعرقل تبنيها على نطاق واسع.
