HyperAIHyperAI

Command Palette

Search for a command to run...

AltCLIP: تعديل مُشفر اللغة في CLIP لتوسيع قدرات اللغة

Zhongzhi Chen Guang Liu Bo-Wen Zhang Fulong Ye Qinghong Yang Ledell Wu

الملخص

في هذا العمل، نقدم طريقة بسيطة ومفهومة وفعالة لتدريب نموذج تمثيل ثنائي或多语言 (bilingual/multilingual) متعدد الوسائط قوي. بدأنا من النموذج المُعد مسبقًا للتمثيل المتعدد الوسائط CLIP الذي أطلقته OpenAI، حيث قمنا بتعديل مُشفر النص فيه باستخدام مُشفر النص متعدد اللغات المُعد مسبقًا XLM-R، وتم.Aligning كل من التمثيلات اللغوية وتمثيلات الصور من خلال نظام تدريب ذو مرحلتين يتكون من التعلم بالإشراف (teacher learning) والتعلم التبايني (contrastive learning). نحن نتحقق من صحة طرقنا من خلال تقييم مجموعة واسعة من المهام. لقد حققنا أداءً جديدًا يتفوق على أفضل الأداءات السابقة في العديد من المهام بما في ذلك ImageNet-CN، Flicker30k-CN، COCO-CN وXTD. علاوة على ذلك، حصلنا على أداء قريب جدًا من CLIP في جميع المهام تقريبًا، مما يشير إلى أنه يمكن ببساطة تعديل مُشفر النص في CLIP لتوسيع قدراته مثل فهم اللغات المتعددة. يمكن الوصول إلى نماذجنا وكود البرمجيات الخاص بنا عبر الرابط: https://github.com/FlagAI-Open/FlagAI.


بناء الذكاء الاصطناعي بالذكاء الاصطناعي

من الفكرة إلى الإطلاق — سرّع تطوير الذكاء الاصطناعي الخاص بك مع المساعدة البرمجية المجانية بالذكاء الاصطناعي، وبيئة جاهزة للاستخدام، وأفضل أسعار لوحدات معالجة الرسومات.

البرمجة التعاونية باستخدام الذكاء الاصطناعي
وحدات GPU جاهزة للعمل
أفضل الأسعار

HyperAI Newsletters

اشترك في آخر تحديثاتنا
سنرسل لك أحدث التحديثات الأسبوعية إلى بريدك الإلكتروني في الساعة التاسعة من صباح كل يوم اثنين
مدعوم بواسطة MailChimp