HyperAIHyperAI

Command Palette

Search for a command to run...

SGPT: تضمين الجملة GPT للبحث الدلالي

Niklas Muennighoff

الملخص

استمرت نماذج التحويل (decoder transformers) في التوسع بحجمها، حيث وصلت إلى مئات المليارات من المعلمات. وبسبب حجمها الكبير، تحقق هذه النماذج القيمة القصوى في مجموعة متنوعة من المهام اللغوية من خلال التحفيز (prompting) أو التخصيص الدقيق (fine-tuning). ومع ذلك، تبقى هذه النماذج الكبيرة الأساسية غير قابلة للاستخدام في المجالات المرتبطة بالبحث الدلالي (semantic search) وتمثيل الجمل (sentence embeddings). هذا يمنع إمكانية تحقيق نتائج جديدة تُعدّ الأفضل على الإطلاق، ويُجبر المؤسسات على تدريب وصيانة نماذج منفصلة. ولحل هذه المشكلة، نقترح نموذج SGPT الذي يستخدم النماذج المُحَوِّلة (decoders) لتمثيل الجمل والبحث الدلالي من خلال التحفيز أو التخصيص الدقيق. وبمقدار 5.8 مليار معلمة، يتفوّق SGPT على أفضل تمثيل جملة سابق بنسبة 7%، ويتفوق على منهجية متزامنة تمتلك 175 مليار معلمة عند قياس أدائها على معيار BEIR للبحث. يُتاح الكود والنماذج وملفات النتائج مجانًا عبر الرابط: https://github.com/Muennighoff/sgpt.


بناء الذكاء الاصطناعي بالذكاء الاصطناعي

من الفكرة إلى الإطلاق — سرّع تطوير الذكاء الاصطناعي الخاص بك مع المساعدة البرمجية المجانية بالذكاء الاصطناعي، وبيئة جاهزة للاستخدام، وأفضل أسعار لوحدات معالجة الرسومات.

البرمجة التعاونية باستخدام الذكاء الاصطناعي
وحدات GPU جاهزة للعمل
أفضل الأسعار

HyperAI Newsletters

اشترك في آخر تحديثاتنا
سنرسل لك أحدث التحديثات الأسبوعية إلى بريدك الإلكتروني في الساعة التاسعة من صباح كل يوم اثنين
مدعوم بواسطة MailChimp