باحثون يكشفون نقاط ضعف حاسمة في أدوات حماية الفن الرقمي من الذكاء الاصطناعي
أدوات حماية الفنون من الذكاء الاصطناعي ما زالت تترك المبدعين عرضة للخطر، يقول الباحثون كشف فريق من الباحثين عن نقاط ضعف كبيرة في أداوت حماية الفن التي يستخدمها المبدعون لحماية أعمالهم من الاستخدامات الغير قانونية للذكاء الاصطناعي. أدوات "جليز" (Glaze) و"نيت شاد" (NightShade) هما من أشهر هذه الأدوات، وقد تم تنزيلهما ما يقارب تسعة ملايين مرة. تم تطوير هذه الأدوات لمنع نماذج الذكاء الاصطناعي من تقليد أساليب المبدعين الفريدة دون موافقتهم، حيث تعمل "جليز" على تقويض قدرة النموذج على استخراج الخصائص الأساسية للأسلوب، بينما تعمل "نيت شاد" على تشويه عملية التعلم بشكل أكثر فعالية. رغم ذلك، توصل فريق دولي من الباحثين إلى طريقة جديدة تُسمى "لايت شاد" (LightShed) يمكنها تجاوز هذه الحمايات. تستخدم "لايت شاد" ثلاث خطوات رئيسية: أولاً، تحديد ما إذا كان الصورة قد تم تعديلها باستخدام تقنيات التسميم المعروفة. ثانياً، تعلّم خصائص التشوهات باستخدام أمثلة مشوهة متاحة علنًا. وأخيراً، إزالة التسميم واستعادة الشكل الأصلي للصورة، مما يجعلها قابلة للاستخدام مرة أخرى في تدريب نماذج الذكاء الاصطناعي. في تقييمات تجريبية، تمكنت "لايت شاد" من اكتشاف الصور المحمية بـ"نيت شاد" بدقة تصل إلى 99.98% وإزالة الحمايات المضمنة فيها بشكل فعال. هذا يدل على أن المبدعين ما زالوا عرضة للاستخدام غير القانوني لأعمالهم في تدريب نماذج الذكاء الاصطناعي حتى عند استخدام مثل هذه الأدوات. قالت الباحثة الأولى هانا فورستر من جامعة كامبريدج، التي أجرت هذه الدراسة خلال فترة تدريب في جامعة دارمشتات التقنية: "هذا يظهر أن حتى عند استخدام أدوات مثل نيت شاد، ما زال المبدعون معرّضين لخطر استخدام أعمالهم في تدريب نماذج الذكاء الاصطناعي دون إذنهم." رغم أن "لايت شاد" كشفت عن نقاط ضعف جدية في أدوات حماية الفن، فإن الباحثين أكدوا أنها تم تطويرها ليس كهجمة عليها، بل كنداء عاجل لتطوير أدوات أفضل وأكثر تكيفًا. قال الباحث المشارك البروفيسور أحمد رضا صادقي من جامعة دارمشتات التقنية: "نرى هذا كفرصة للتطور المشترك. هدفنا هو التعاون مع العلماء الآخرين في هذا المجال ودعم المجتمع الفني في تطوير أدوات يمكنها الصمود أمام الأعداء المتقدمين." يتطور مجال الذكاء الاصطناعي والإبداع الرقمي بسرعة كبيرة. في مارس الماضي، أطلقت شركة OpenAI نموذجًا للصور في نظام ChatGPT قادرًا على إنتاج الأعمال الفنية بنمط استوديو غيبلي الياباني للرسوم المتحركة. هذا أدى إلى انتشار مجموعة واسعة من مقاطع الفيديو الفكاهية، وكذلك نقاشات معمقة حول حقوق التأليف والنشر، حيث أشار المحللون القانونيون إلى أن استوديو غيبلي سيواجه صعوبة في الرد على هذا بسبب قيود حقوق التأليف والنشر. بعد هذه النقاشات، أعلنت OpenAI عن حمايات جديدة للطلبات التي تهدف إلى إنشاء صور بأسلوب فنانين أحياء. ومع ذلك، تظل القضايا المتعلقة بالذكاء الاصطناعي وحقوق التأليف والنشر مستمرة، كما يظهر في الدعوى القضائية الجارية في المحكمة العليا في لندن. تزعم وكالة التصوير العالمية Getty Images أن شركة الذكاء الاصطناعي Stability AI دربت نموذجها لتوليد الصور على أرشيفها الكبير من الصور المحملة بحقوق التأليف والنشر. تقاوم Stability AI هذا الادعاء، وتؤكد أن القضية تمثل تهديدًا واضحًا للصناعة. في وقت سابق من هذا الشهر، أعلنت شركتا ديزني ويونيفيرسال أنهما ستقاضيان شركة Midjourney بسبب مولد صورها، الذي اعتبرتا أنه "حفر بلا نهاية للانتحال." تختتم فورستر بالقول: "نأمل أن تساهم دراستنا في تسليط الضوء على الحاجة الملحة لخطة عمل نحو استراتيجيات حماية أكثر صمودًا وموجهة للمبدعين. يجب إعلام المبدعين بأنهم ما زالوا في خطر والتعاون مع الآخرين لتطوير أدوات أفضل لحماية الفن في المستقبل." هانا فورستر هي عضو في كلية داروين في جامعة كامبريدج. تقييم الحدث من قبل المختصين يشير هذا البحث إلى أن التقنيات الحالية لحماية الفن من الذكاء الاصطناعي ليست كافية، وأنه هناك حاجة ملحة لتطوير حلول أكثر تطورًا وفعالية. هذا الأمر يعد مهمًا للغاية في ظل زيادة الاستخدامات غير القانونية للذكاء الاصطناعي في مجال الفن والإبداع الرقمي، وهو ما يهدد حقوق الملكية الفكرية للمبدعين. نبذة تعريفية عن شركة كامبريدج تعد جامعة كامبريدج من أبرز المؤسسات التعليمية والبحثية في العالم، وتعتبر مركزًا رائدًا في مجال العلوم والتكنولوجيا. تساهم الجامعة بشكل كبير في تطوير التقنيات الحديثة وتقديم حلول مبتكرة لتحديات العصر الرقمي، بما في ذلك قضايا حقوق التأليف والنشر والحماية من الذكاء الاصطناعي.