DiffAug: تحسين التعلم المتناهي غير المراقب من خلال تكبير البيانات القائم على التشتت الخالي من المعرفة بالنطاق

لقد اكتسب التعلم المتناهي غير المُشرَّف (Unsupervised Contrastive Learning) أهمية متزايدة في مجالات مثل الرؤية الحاسوبية والبيولوجيا، حيث يعتمد على عينات مُحددة مسبقًا كأمثلة إيجابية/سلبية لتعلم التمثيلات. وقد تم التعرف على تكبير البيانات (Data Augmentation)، الذي يُصنف إلى أساليب مُصممة يدويًا وطرق تعتمد على النماذج، كعنصر حاسم لتعزيز التعلم المتناهي. ومع ذلك، تتطلب الأساليب المُصممة يدويًا خبرة بشرية في مجال البيانات المحددة، وغالبًا ما تُشوِّه معنى البيانات. في المقابل، تتطلب الطرق القائمة على النماذج التوليدية عادة بيانات مُشرَّفة أو بيانات خارجية كبيرة النطاق، مما أصبح عائقًا يُقيّد تدريب النماذج في العديد من المجالات. ولحل المشكلات المذكورة أعلاه، تُقدِّم هذه الورقة طريقة جديدة تُسمى DiffAug، وهي تقنية غير مُشرَّفة للتعلم المتناهي تعتمد على نموذج التمايز (Diffusion Model) لإنشاء عينات إيجابية. يتكوّن DiffAug من مشفر معنوي (Semantic Encoder) ونموذج تمايز مشروط؛ حيث يقوم النموذج التمايزي المشروط بإنشاء عينات إيجابية جديدة مشروطة بالتمثيل المعنوي، بهدف دعم تدريب التعلم المتناهي غير المُشرَّف. وباستخدام التدريب التكراري للمشفر المعنوي ونموذج التمايز، يُحسِّن DiffAug قدرة التمثيل بشكل مستمر وغير مُشرَّف. أظهرت التقييمات التجريبية أن DiffAug يتفوّق على الأساليب المُصممة يدويًا والأساليب المُعتمدة على النماذج الحديثة (SOTA) في مجموعات بيانات تشمل تسلسلات الحمض النووي (DNA)، والصور البصرية، والسمات البيولوجية. تم إصدار الشفرة المُستخدمة للمراجعة عبر الرابط: \url{https://github.com/zangzelin/code_diffaug}.