الذكاء الاصطناعي النصي لا يُعدّ أداة فعّالة لاختراق كلمات المرور، وراء سبب فشله
أظهرت دراسة أجرتها فريق بحثي من مختبر Future Data Minds في أستراليا أن النماذج اللغوية الكبيرة (LLMs)، مثل تلك المستخدمة في منصات مثل ChatGPT، تفشل بشكل ملحوظ في توليد كلمات مرور واقعية لمستخدمين محددين، رغم قدرتها العالية في المهام اللغوية والبرمجة. وقد تم اختبار ثلاثة نماذج مفتوحة المصدر هي TinyLLaMA وFalcon-RW-1B وFlan-T5، باستخدام ملفات وهمية لمستخدمين تتضمن أسماء وأعياد ميلاد وهوايات. طُلب من النماذج توليد قائمة بـ"كلمات مرور محتملة" لكل ملف وهمي، بناءً على هذه البيانات الشخصية. استخدم الباحثون مقاييس شائعة في أبحاث استرجاع المعلومات وتخمين كلمات المرور، مثل Hit@1 وHit@5 وHit@10، التي تقيس مدى دقة النموذج في ترتيب كلمة المرور الصحيحة ضمن أول 1، 5، أو 10 اقتراحات. وخلصت النتائج إلى أن جميع النماذج حققت أداءً ضعيفًا جدًا، حيث لم تتجاوز دقتها 1.5% في اختبار Hit@10، مقارنة بنتائج متفوقة لأساليب تقليدية مثل الطرق القائمة على القواعد (rule-based) والتقنيات المركبة (combinator-based)، التي تُستخدم حاليًا في هجمات تخمين كلمات المرور. أشار الباحثون إلى أن سبب هذا الأداء الضعيف يكمن في نقص مهارات حاسمة لدى النماذج، مثل القدرة على استرجاع أمثلة محددة من بيانات التدريب أو تطبيق أنماط كلمات المرور المكتسبة في سياقات جديدة. رغم تمكّن النماذج من فهم اللغة وتكوين جمل متماسكة، فإنها تعاني من ضعف التكيف مع المهام المتخصصة مثل تخمين كلمات المرور، خاصة في غياب تدريب مخصص على مجموعات بيانات كلمات مرور مسربة. كما أظهرت التحليلات التفصيلية والتصورات أن النماذج تفتقر إلى القدرة على "الاستدلال التوليدية" الدقيقة في هذا المجال، ما يشير إلى أن قدرتها اللغوية لا تكفي لفهم السياقات الأمنية المعقدة أو التنبؤ بسلوكيات المستخدمين في تأمين حساباتهم. ورغم أن الدراسة ركزت على ثلاث نماذج فقط، فإن نتائجها تُعد دعوة لاستكشاف أداء نماذج أخرى، وتمهيدًا لتطوير نماذج أمنية أكثر موثوقية. تُعد هذه النتائج مفيدة لعلماء الحوسبة في تطوير نماذج تنبؤية آمنة وموثوقة لحماية الحسابات، وتفيد في توجيه جهود البحث نحو تطوير نماذج تُستخدم لاختبار قوة كلمات المرور بدلًا من استغلالها في هجمات. وتشير الدراسة إلى أن النماذج الحالية لا تُعد تهديدًا فعليًا لسلامة كلمات المرور، ما يُعزز الثقة في الأنظمة الحالية، لكنه يدعو أيضًا إلى تطوير أدوات أكثر تطورًا في المستقبل.
