الأبحاث تكشف أن التحايل على معظم دردشات الذكاء الاصطناعي للحصول على معلومات ضارة ما زال أمرًا سهلاً
دراسة تكشف عن سهولة خداع معظم الروبوتات المحادثة لتوفير معلومات ضارة قام فريق من الباحثين في الذكاء الاصطناعي من جامعة بن غوريون في النقب، إسرائيل، ببحث يؤكد أن معظم الروبوتات المحادثة الشائعة ما زالت سهلة الخداع لتوليد معلومات ضارة وأحياناً غير قانونية، رغم الجهود التي بذلت لتعزيز أمانها. نشر الباحثون، مايكل فير، يتسحاق إلبازيس، أدري واستينشتاين، وليور روكاش، ورقتهم البحثية على خادم arXiv للمسودات الأولية، حيث وصفوا كيف اكتشفوا أن حتى الروبوتات المحادثة الشائعة مثل ChatGPT يمكن خداعها بسهولة للحصول على إجابات كانت يجب ترشيحها. بعد أن أصبحت النماذج اللغوية الكبيرة (LLMs) شائعة الاستخدام، اكتشف المستخدمون أنهم يمكنهم استخدامها للبحث عن معلومات تتوفر عادةً فقط على الويب المظلم، مثل كيفية صنع النفتالين أو كيفية التسلل إلى شبكة حاسوبية. ردًا على ذلك، أضافت شركات النماذج اللغوية فلاتر لمنع الروبوتات من توليد مثل هذه المعلومات. ومع ذلك، وجد المستخدمون أنهم يستطيعون خداع LLMs باستخدام أسئلة منصوبة بعناية، وهي طريقة أصبحت تعرف باسم "فك السجن elektroni" (jailbreaking). في هذه الدراسة الجديدة، يشير فريق البحث إلى أن رد فعل شركات النماذج اللغوية على "فك السجن" كان أقل مما كانوا يتوقعون. بدأت أبحاث الفريق بهدف دراسة انتشار واستخدام LLMs المظلمة، مثل تلك المستخدمة في إنشاء صور وفيديوهات إباحية غير مصرح بها ضحايا غير مسؤولين. ولكنهم اكتشفوا بعد ذلك أن معظم الروبوتات المحادثة التي اختبروها كانت ما زالت سهلة الفك باستخدام تقنيات تم الكشف عنها منذ عدة أشهر. بالتفصيل، اكتشف الفريق ما يصفونه بـ"هجوم فك السجن العالمي" الذي يعمل على معظم LLMs، مما مكنهم من الحصول على معلومات مفصلة حول مجموعة واسعة من الأنشطة غير القانونية، مثل غسيل الأموال، التداول داخل السوق، وحتى صنع القنابل. كما لاحظ الباحثون وجود تهديد متزايد من LLMs المظلمة واستخدامها في مجموعة متنوعة من التطبيقات. ختم الباحثون دراستهم بتأكيد أن من الصعب في الوقت الحالي منع LLMs من دمج المعلومات "السيئة" التي تحصل عليها أثناء التدريب في قاعدة معلوماتها. لذلك، فإن الطريقة الوحيدة لمنعها من نشر مثل هذه المعلومات هي أن تبذل الشركات المصنعة لهذه البرامج جهداً أكبر في تطوير الفلاتر المناسبة. تقييم الحدث من قبل مختصين في المجال أثارت هذه الدراسة القلق بين المختصين في مجال الذكاء الاصطناعي وأمن المعلومات. يرى العديد من الخبراء أن هذا الإخفاق في تطوير الفلاتر المناسبة يمثل خطراً حقيقياً على المجتمع، حيث يمكن استغلال هذه القدرة لتوجيه أنشطة غير قانونية وضارة. يدعو الخبراء الشركات المصنعة للروبوتات المحادثة إلى اتخاذ إجراءات أكثر صرامة وابتكاراً لضمان عدم وجود ثغرات يمكن استغلالها. نبذة تعريفية عن جامعة بن غوريون في النقب تشتهر جامعة بن غوريون في النقب بأنها واحدة من الرائدات في مجال البحث العلمي والتكنولوجي في إسرائيل. تأسست الجامعة عام 1969 وتضم العديد من الكليات والمعاهد المتخصصة في العلوم والتكنولوجيا، بما في ذلك كلية الهندسة والعلوم التطبيقية وكلية العلوم الحاسوبية. تهدف الجامعة إلى المساهمة في التقدم العلمي والتكنولوجي من خلال بحوثها المبتكرة وبرامجها التعليمية المتميزة.
