HyperAIHyperAI
منذ 2 أشهر

الاستدلال المتغير الممتص القائم على الاختلاف لمشاكل العكس الضوضائية

Lee, Sojin ; Park, Dogyun ; Kong, Inho ; Kim, Hyunwoo J.
الاستدلال المتغير الممتص القائم على الاختلاف لمشاكل العكس الضوضائية
الملخص

دراسات حديثة حول المسائل العكسية اقترحت طرقًا لأخذ عينات من اللاحقة تستخدم النماذج المُدربة مسبقًا للانتشار كأولويات قوية. وقد فتحت هذه المحاولات الطريق أمام استخدام نماذج الانتشار في مجموعة واسعة من المسائل العكسية. ومع ذلك، تتطلب الأساليب الحالية إجراءات أخذ عينات متكررة ومكلفة من الناحية الحسابية وتُحسِّن حلًّا منفصلًا لكل قياس، مما يؤدي إلى قابلية توسع محدودة وعدم وجود قدرة على التعميم عبر العينات غير المعروفة. لمعالجة هذه القيود، نقترح نهجًا جديدًا يُعرف بـ "الاستدلال المتغير الممتص بالاعتماد على أولوية الانتشار" (DAVI)، والذي يحل المسائل العكسية باستخدام أولوية الانتشار من وجهة نظر الاستدلال المتغير الممتص. وبشكل خاص، بدلاً من التحسين المنفصل لكل قياس، يقوم استدلالنا الممتص بتعلم دالة تربط مباشرة بين القياسات والتوزيعات اللاحقة الضمنية للبيانات النظيفة المقابلة، مما يمكن من أخذ عينة لاحقة في خطوة واحدة حتى للقياسات غير المعروفة. وأظهرت التجارب الواسعة على مهام استعادة الصور، مثل إزالة التشويش الجاوسني (Gaussian deblur)، والزيادة في الدقة بمقدار 4 أضعاف (4$\times$ super-resolution)، وإعادة الرسم داخل الصندوق (box inpainting) باستخدام مجموعتين معتمدتين من البيانات، تفوق أداء نهجنا على القواعد الأساسية القوية. يمكن الحصول على الكود من الرابط: https://github.com/mlvlab/DAVI.

الاستدلال المتغير الممتص القائم على الاختلاف لمشاكل العكس الضوضائية | أحدث الأوراق البحثية | HyperAI