Pic2Word: ربط الصور بالكلمات لاسترجاع الصور المركبة بدون تدريب مسبق

في استرجاع الصور المركبة (Composed Image Retrieval - CIR)، يقوم المستخدم بدمج صورة استعلام مع نص لوصف الهدف المقصود. تعتمد الأساليب الحالية على التعلم الإشرافي لنموذج CIR باستخدام ثلاثيات مصنفة تتكون من صورة الاستعلام، المواصفات النصية، والصورة الهدف. تكلفة تصنيف هذه الثلاثيات باهظة وتعرقل التطبيق الواسع لـ CIR. في هذا البحث، نقترح دراسة مهمة مهمة، وهي استرجاع الصور المركبة بدون أمثلة تدريبية (Zero-Shot Composed Image Retrieval - ZS-CIR)، والتي تهدف إلى بناء نموذج CIR دون الحاجة إلى ثلاثيات مصنفة للتدريب. لتحقيق هذا الهدف، نقترح طريقة جديدة تُسمى Pic2Word، والتي تتطلب فقط أزواج صورة-تعليق ضعيفة التصنيف وقواعد بيانات صور غير مصنفة للتدريب. على عكس نماذج CIR الإشرافية الحالية، يظهر نموذجنا الذي تم تدريبه على قواعد البيانات ضعيفة التصنيف أو غير المصنفة قدرة تعميم قوية عبر مهام ZS-CIR المتنوعة، مثل تعديل الصفات (attribute editing)، تركيب الأشياء (object composition)، وتحويل المجال (domain conversion). أثبتت طريقتنا تفوقها على عدة أساليب إشرافية لـ CIR في المقاييس الشائعة لـ CIRR و Fashion-IQ. سيتم جعل الكود متاحًا بشكل عام في https://github.com/google-research/composed_image_retrieval.