HyperAIHyperAI

Command Palette

Search for a command to run...

ما الذي يُعد سرقة فكرية؟ أوراق مُولَّدة بالذكاء الاصطناعي تُثير مخاطر جديدة في يناير، تلقى بايونج جون بارك، باحث في مجال الذكاء الاصطناعي، بريدًا إلكترونيًا مفاجئًا من باحثين من الهند، أخبراه أن ورقة بحثية مُولَّدة بالذكاء الاصطناعي استخدمت منهجيات من أحد أوراقه البحثية دون إسناد. فبحث بارك في الورقة، التي لم تُنشر رسميًا، لكنها نُشرت عبر الإنترنت كجزء من سلسلة من الأوراق التي أنتجها أداة تُسمى "العالم الاصطناعي" (The AI Scientist)، التي أُعلنت في 2024 من قبل شركة ساكانا آي في طوكيو. العالم الاصطناعي هو مثال على البحث التلقائي الكامل في علوم الحاسوب، حيث تستخدم نماذج لغة كبيرة (LLM) لتوليد أفكار، وكتابة الكود وتشغيله تلقائيًا، ثم صياغة النتائج كورقة بحثية — مع تحديد صراحة أنها مُولَّدة بالذكاء الاصطناعي. هذه الخطوة تمثل جزءًا من مبادرة لتمكين أنظمة الذكاء الاصطناعي من اكتشاف أبحاث جديدة بنفسها، بحسب الفريق الذي طوّرها. لم تكن الورقة المُولَّدة بالذكاء الاصطناعي تنسخ بحث بارك حرفيًا، لكنها اقترحَت معمارية جديدة لنموذج التبادل (diffusion models)، وهي النماذج التي تُستخدم في أدوات توليد الصور. أما بحث بارك فكان يتناول تحسين طريقة تدريب هذه النماذج. ومع ذلك، وفقًا لبارك، فإن المنهجيات الأساسية في الورقتين تتشابه بشكل ملحوظ. "كنت متفاجئًا من مدى تشابه المنهجية الأساسية مع بحثي"، يقول بارك، الباحث في المعهد الكوري للعلوم والتكنولوجيا (KAIST) في دايونجون، كوريا الجنوبية. الباحثان اللذان أبلغا بارك، تارون جوبتا ودانش بروثي، من معهد العلوم الهندية في بنغالور، يرون أن المشكلة أكبر من مجرد حالة واحدة. في فبراير، أبلغا عن وجود أمثلة متعددة لورقات مُولَّدة بالذكاء الاصطناعي استخدمت أفكارًا أخرى دون إسناد، حتى لو لم تكن نصوصها مُنسوخة حرفيًا. ويرى الفريق أن هذا يُعد نوعًا من السرقة الفكرية من قِبل الأدوات، رغم عدم وجود نية خبيثة من جانب مطوّريها. "جزء كبير من الأفكار البحثية المُولَّدة بالذكاء الاصطناعي يبدو مبتكرًا من النظرة الأولى، لكنه في الواقع مُسْرَق بمهارة من مصادر سابقة، ما يجعل من الصعب التحقق من أصليته"، يكتب جوبتا وبروثي. وفازت أبحاثهما بجائزة "ورقة متميزة" في مؤتمر الرابطة لغة الحاسوب في فيينا في يوليو. لكن بعض النتائج التي توصل إليها الفريق موضع جدل. فالفريق الذي طوّر "العالم الاصطناعي" رفض بشدة اتهامات السرقة الفكرية، ونفى أن تكون أي حالة من الحالات التي تناولها تقرير جوبتا وبروثي تمثل سرقة فكرية. وفي حالة بارك تحديدًا، قال خبير مستقل لنيتشر إن الطرق المستخدمة في الورقة المُولَّدة بالذكاء الاصطناعي لا تتقاطع بما يكفي مع بحثه لاعتبارها سرقة فكرية. وحتى بارك نفسه امتنع عن استخدام مصطلح "سرقة فكرية" لوصف ما رآه، ووصفه بـ"تداخل منهجي قوي". وراء الجدل حول "العالم الاصطناعي" تكمن مخاوف أوسع: فمع كثرة الأوراق التي تُنشر سنويًا، خاصة في علوم الحاسوب، يجد الباحثون صعوبة في تتبع ما إذا كانت أفكارهم حقيقية في الابتكار، بحسب جويران بيل، خبير في التعلم الآلي وعلوم المعلومات بجامعة زاين، ألمانيا. وإذا أصبحت أدوات الذكاء الاصطناعي أكثر استخدامًا في توليد الأفكار، فقد تتفاقم مشكلة فقدان الاعتراف بالملكية الفكرية. بما أن نماذج اللغة الكبيرة تعمل جزئيًا من خلال إعادة توليف ودمج النصوص التي تم تدريبها عليها، فمن الطبيعي أن تُسْتَلَم أفكار من أبحاث سابقة، بحسب بارشين شوجا، عالم حاسوب في مركز فرجينيا تك للبحث في أرلينغتون. المشكلة المتعلقة بـ"سرقة الأفكار"، رغم قلّة مناقشتها، موجودة بالفعل في الأوراق البشرية، بحسب ديبورا ويبير-فولف، خبيرة السرقة الفكرية في جامعة العلوم التطبيقية في برلين، وتتوقع أن تتفاقم مع الأوراق التي تُنتجها الآلات. لكنها تشير إلى أن من الصعب إثبات استنساخ الأفكار، على عكس السرقة النصية التي يمكن رصدها بسهولة، ما يجعل من الصعب تطوير أدوات آلية للتحقق من الأصالة، وفقًا لسرعة توليد الأوراق من قبل الذكاء الاصطناعي. "لا توجد طريقة واحدة لإثبات السرقة الفكرية"، تقول ويبير-فولف. المناهج المتداخلة بالطبع، يمكن لأشخاص سيئين استخدام الذكاء الاصطناعي للسرقة المتعمدة أو إعادة صياغة أعمال الآخرين لتُقدَّم كأعمالهم. لكن جوبتا وبروثي تساءلا إن كانت الأدوات الجيدة النية قد تستخدم أيضًا أفكارًا أو مناهج من أبحاث سابقة. أُبلغ الفريق الأول بمشكلة السرقة عندما قرأوا دراسة أُجريت في 2024 بقيادة تشينغلي سى، عالم حاسوب في جامعة ستانفورد. فطلب الفريق من البشر والذكاء الاصطناعي إنتاج "أفكار بحثية جديدة" في مجالات الحاسوب. ورغم أن بروتوكول الدراسة تضمن فحصًا للابتكار، وطلب من مراجعين بشريين تقييم الأفكار، إلا أن جوبتا وبروثي يجادلون بأن بعض الأفكار المُولَّدة بالذكاء الاصطناعي استخدمت أعمالًا سابقة — دون أن تكون "جديدة" حقًا. اختارا واحدة من الأفكار المُولَّدة بالذكاء الاصطناعي في دراسة سى، ورأيا أنها استلهمت من ورقة نُشرت كورقة أولية في 2023. ويوافق سى على أن الفكرة العامة مشابهة، لكنه يرى أن "ما إذا كانت الفروقات في التنفيذ المنخفضة تُعد ابتكارًا أم لا هو أمر يعتمد على التقييم الشخصي". أما شوبهيندو تريفيدي، الباحث في التعلم الآلي الذي شارك في الورقة الأولية، وسبق له العمل في ماساتشوستس للتكنولوجيا، فيقول إن "الورقة المُولَّدة بالذكاء الاصطناعي كانت مماثلة جدًا لورقتنا، رغم بعض الفروقات السطحية". اختبارات إضافية أجرى جوبتا وبروثي تجارب إضافية، حيث أخذوا أربع ورقات بحثية مُولَّدة بالذكاء الاصطناعي من دراسة سى، وعشر ورقات من ساكانا، وقاموا بإنشاء 36 فكرة جديدة باستخدام نفس المنهجية. ثم طلبوا من 13 خبيرًا التحقق من تشابه المنهجيات بين هذه الأوراق والدراسات السابقة، باستخدام مقياس من 5 درجات، حيث تشير الدرجة 5 إلى "مطابقة مباشرة في المنهجية"، والدرجة 4 إلى "دمج من ورقتين إلى ثلاث"، والدرجات 3 و2 تمثل تشابهًا محدودًا، والدرجة 1 تعني لا تشابه. كما طلبوا من مؤلفي الدراسات الأصلية التي أشار إليها الخبراء تقييم مدى التشابه. ووفقًا للنتائج، وصلت 12 ورقة من عينة الـ36 إلى درجات 4 و5، ما يشير إلى نسبة سرقة فكرية تبلغ 24%، وتزيد إلى 36% إذا أُخذت الحالات التي لم يُجب فيها المؤلفون بعين الاعتبار. ومن بين هذه الحالات، وردت أمثلة من أعمال ساكانا وسِي، لكن الفريق ناقش في تقريره فقط الأمثلة المذكورة في هذه القصة. كما وجدوا تشابهًا مشابهًا في ورقة مُولَّدة بالذكاء الاصطناعي (انظر go.nature.com/4oym4ru) أعلنت ساكانا في مارس أنها اجتازت مرحلة مراجعة من قبل خبراء لورشة عمل في مؤتمر مرموق لتعلم التمثيل، المؤتمر الدولي لتمثيل التعلم. في ذلك الوقت، ذكرت الشركة أن هذه كانت أول ورقة مُولَّدة بالكامل بالذكاء الاصطناعي تُمرَّر بمراجعة بشرية. كما أوضحت أنهم وافقوا مع منظمي الورشة على تجريب نشر أوراق مُولَّدة بالذكاء الاصطناعي، وسحبها إذا تم قبولها، نظرًا لأن المجتمع لم يُحدد بعد ما إذا كان ينبغي نشر مثل هذه الأوراق في مجموعات المؤتمرات. (رفض منظمو الورشة التعليق على طلب نيتيشر). جوبتا وبروثي يقولان إن الورقة المُولَّدة بالذكاء الاصطناعي استخدمت المساهمة الأساسية من عمل منشور في 2015، دون إسناد. ونقل تقريرهم أقوال مؤلفي ذلك العمل، عالمي الحاسوب ديفيد كروجر ورولاند ميميسيفيك، اللذين قالا إن العمل المُولَّد "ليس مبتكرًا على الإطلاق"، وحددوا ورقة ثانية لم تُذكر. خبير حاسوب آخر، رادو إونيسكو من جامعة بوخارست، قال لنيتشر إنه يُقيّم التشابه بين الورقة المُولَّدة بالذكاء الاصطناعي وعمل كروجر ومينيسيفيك بدرجة 5. كروجر، الذي يعمل في جامعة مونتريال، قال لنيتشر إن العملين ينبغي أن يكونا مذكورين، لكنه "لا يفاجأ برؤية باحثين بشريين يعيدون اختراع هذا ويتجاهلون الأبحاث السابقة". وأضاف أن "النظام الذكي لا يملك المعايير الأكاديمية للاستشهاد بالأعمال السابقة"، ووصف الورقة بأنها "منخفضة جدًا من حيث الجودة بشكل عام". لكنه لم يكن متأكدًا من تطبيق مصطلح "سرقة فكرية"، لأنه يرى أن هذا المصطلح يشير إلى وعي بالعمل السابق ورفض الإسناد، بينما لا يملك الذكاء الاصطناعي هذا الوعي. ردود الفعل الفريق الذي طوّر "العالم الاصطناعي"، الذي يضم باحثين من جامعة أكسفورد في بريطانيا وجامعة كولومبيا البريطانية في كندا، رد بقوة على تقرير جوبتا وبروثي. وقالوا إن "اتهامات السرقة غير صحيحة"، ووصفوها بأنها "مبنية على أسس خاطئة، ودقيقة جدًا، وتحتاج إلى تجاهلها". في حالتين من ورقات "العالم الاصطناعي" التي ناقشها التقرير، قال الفريق إن الفرضيات مختلفة عن تلك في الأوراق السابقة، وتطبق على مجالات مختلفة، حتى لو كانت بعض عناصر المنهجيات متشابهة. وأشار الفريق إلى أن الدراسات التي وُجدت من قبل الخبراء هي أعمال يمكن أن تُستشهد بها، لكنها لا تُعد دليلًا على سرقة، وفقًا لهم، مضيفين: "ما ينبغي الإبلاغ عنه هو وجود أعمال ذات صلة لم تُذكر (وهو أمر شائع جدًا لدى الباحثين البشريين)". واعتبروا أن من المناسب أن تُذكر ورقة بارك. أما في حالة عمل كروجر والورقة الثانية، فقالوا إنها مرتبطة، لذا "من الطبيعي أن يُغفلها البشر، لكن كان من الأفضل أن تُذكر من قِبل 'العالم الاصطناعي'". بينما قال بن هوفر، عالم تعلم آلي في معهد جورجيا للتكنولوجيا، إن تشابه الورقة مع بحث بارك يُقيّم بدرجة 3. ورأى أن الورقة أقل جودة بكثير من بحثه، وينبغي أن تُذكر، لكنه "لن يذهب إلى حد تسميتها سرقة فكرية". وتابع أن تحليل جوبتا وبروثي يعتمد على "تشابه سطحي" في عبارات عامة، التي لا تتطابق بشكل معنوي مع بحث بارك عند قراءته بتفصيل. أما إونيسكو، فقال إن تقييمه يقع بين الدرجة 2 و3. أما بارك، فيرى أن التشابه مع بحثه أقوى بكثير من تقييمات هوفر وإونيسكو، ويُقدّرها بدرجة 5 على مقياس جوبتا، ويضيف أنها "تُظهر تشابهًا منهجيًا قويًا يُعد مثيرًا للاهتمام". لكن حتى هذا لا يتطابق بالضرورة مع التعريف القانوني أو الأخلاقي للسرقة الفكرية، بحسب بارك. ما الذي يُعد سرقة فكرية؟ جزء من الخلاف ينبع من فهم مختلف لما تعنيه "السرقة الفكرية"، خاصة فيما يتعلق بالتشابه في الأفكار أو المنهجيات. وبحسب ويبير-فولف، فإن الباحثين في مجال السرقة الفكرية لديهم وجهات نظر مختلفة عن بعض عالمي الحاسوب في هذا الجدل. "السرقة الفكرية مصطلح نستخدمه ونحتفظ به للحالات المتطرفة من الاحتيال المقصود"، قال فريق "العالم الاصطناعي"، مضيفًا أن جوبتا وبروثي "مخطئان جدًا في التوجهات المتعارف عليها حول ما يُعد سرقة فكرية في الأوساط الأكاديمية". لكن ويبير-فولف تختلف: فهي ترى أن النية لا يجب أن تكون عاملًا حاسمًا. "الآلة لا تملك نية"، تقول. "لا لدينا آلية جيدة لتفسير لماذا النظام يقول شيئًا ما، أو من أين أتى"، لأن هذه الأنظمة لم تُصمم لتُقدّم مراجع. وتعتبر ويبير-فولف أن السرقة الفكرية تحدث عندما تستخدم ورقة "كلمات، أفكارًا، أو منتجات عمل مُسْتَلَمَة من شخص أو مصدر محدد، دون الإسناد الصحيح له، في سياق يُتوقع فيه الأصالة". هذا التعريف صاغته تيدي فيشمان، المديرة السابقة لتحالف غير ربحي أمريكي يُسمى المركز الدولي للنزاهة الأكاديمية.

في يناير، تلقى الباحث كوريا الجنوبية بيونججون بارك بريدًا إلكترونيًا مفاجئًا من باحثين هنديين، يُفيدون بأن ورقة بحثية تم إنشاؤها بواسطة ذكاء اصطناعي استخدمت منهجيات من إحدى أوراقه دون ذكر المصدر. لم تُنشر الورقة رسميًا، لكنها ظهرت على الإنترنت كجزء من مجموعة ورقات تم إنتاجها بواسطة أداة تُسمى "العالم الاصطناعي" (The AI Scientist)، التي أطلقتها شركة ساكانا آي في طوكيو عام 2024. هذه الأداة تمثل تقدمًا في البحث التلقائي، حيث تستخدم نموذجًا لغويًا كبيرًا (LLM) لاقتراح أفكار، وكتابة الشيفرة، وتنفيذ التجارب، ثم كتابة النتائج كورقة بحثية — مع تحديد أنها مُنتَجة بالذكاء الاصطناعي. بينما لم تكن الورقة مُقلدة حرفيًا، لاحظ بارك تشابهًا كبيرًا في المنهجية مع بحثه، الذي يتناول تحسين طريقة تدريب نماذج التشتت (diffusion models) المستخدمة في أدوات توليد الصور. ومع ذلك، يختلف البحث الجديد في تركيزه على بنية النموذج، وليس التدريب. الباحثان الهنديان، تارون غوبتا ودانيش بروثي، من معهد العلوم الهندسية في بنغالور، أكدا أن المشكلة أوسع من حالة بارك. في فبراير، أبلغوا عن وجود أمثلة متعددة لورقات مُنتَجة بالذكاء الاصطناعي استخدمت أفكارًا من أوراق سابقة دون ائتمان، رغم عدم وجود نصوص مُنسخة. ووصفوا ذلك بأنه "سرقة أفكار" من قبل الأدوات، حتى لو لم تكن هناك نية سيئة من مطوريها. في يوليو، حصل بحثهما على جائزة "ورقة متميزة" في مؤتمر رابطة معالجة اللغة الحسابية في فيينا. لكن فريق "العالم الاصطناعي" رفض هذه الادعاءات، ونفى حدوث سرقة، مؤكدًا أن الفرق في الفرضيات والتطبيقات يُقلل من التشابه. كما أشارت خبير مستقل إلى أن التشابه لا يكفي لاعتباره سرقة أخلاقية. المشكلة الأعمق تكمن في صعوبة التحقق من الأصالة في عصر الذكاء الاصطناعي. نظرًا لأن النماذج اللغوية الكبيرة تستند إلى إعادة توليف ودمج محتوى تدريسيها، فمن الطبيعي أن تُعيد توليد أفكار مماثلة. لكن السؤال الأهم: ماذا يُعد سرقة أفكار؟ باحثة مختصة في السرقة الأكاديمية، ديبورا ويبير-فولف، ترى أن السرقة لا تتطلب نية، بل كفاية أن يُستخدم عمل مُنتَج من شخص آخر دون ائتمان، خصوصًا في سياق يتوقع فيه الأصالة. ورغم أن بعض الباحثين يرون أن التشابه لا يكفي لوصفه بـ"السرقة"، إلا أن التحدي يكمن في عدم وجود آليات للكشف عن سرقة الأفكار، خاصة مع تسارع إنتاج الورقات بواسطة الذكاء الاصطناعي. في تجربة موسعة، قام غوبتا وبروتي بتحليل 14 ورقة مُنتَجة بالذكاء الاصطناعي، وطلبوا من 13 خبيرًا تقييم التشابه في المنهجيات. ووجدوا أن 12 ورقة (24%) بلغت درجات 4 أو 5 (تشابه كبير أو تداخل مباشر)، وارتفع الرقم إلى 36% إذا أُخذت حالات عدم الرد من المؤلفين الأصليين. وشملت أمثلة من أبحاث ساكانا وستانفورد، منها ورقة تم قبولها في مؤتمر معروف، رغم أن خبراء أشاروا إلى أنها اعتمدت على عمل من 2015 دون إسناد. رغم رفض فريق "العالم الاصطناعي" للادعاءات، فإن النقاش يعكس تحديًا أخلاقيًا وعلميًا جوهريًا: كيف نحمي الأصالة في عصر يُنتج فيه الذكاء الاصطناعي أبحاثًا دون وعي أو مسؤولية؟ هل نحتاج إلى معايير جديدة لتحديد ما يُعد سرقة أفكار، خاصة عندما لا يكون هناك نية، ولكن هناك تشابه مهني وعلمي واضح؟

الروابط ذات الصلة