HyperAIHyperAI

Command Palette

Search for a command to run...

Sentence Transformers تنضم إلى Hugging Face رسميًا مكتبة تُعد من أبرز أدوات الذكاء الاصطناعي في معالجة اللغة، تنتقل من مختبر تُد بارمستاد إلى Hugging Face لتعزز تطورها بفضل بنية تحتية قوية ودعم مجتمعي مكثف. بعد سنوات من الابتكار والنمو، أصبحت مكتبة Sentence Transformers – المعروفة أيضًا بـ SentenceBERT أو SBERT – أداة أساسية في ميدان معالجة اللغة الطبيعية، تُستخدم لتحويل الجمل إلى تمثيلات رياضية دلالية عالية الجودة. منذ إنشائها عام 2019 على يد الدكتور نيلس رايميرز في مختبر UKP بجامعة تُد بارمستاد، نمت المكتبة لتضم أكثر من 16 ألف نموذج متاحًا على Hugging Face Hub، وتُستخدم من قبل أكثر من مليون مستخدم فريد شهريًا في مهام مثل البحث الدلالي، التشابه النصي، التجميع، وتحديد الجمل المكافئة. مع انتقال المشروع إلى Hugging Face، سيستمر الدعم المُتعدد المستويات من خلال أنظمة التكامل المستمر والاختبارات التلقائية، مما يضمن مواكبة أحدث التطورات في مجالات الاسترجاع المعلوماتي ومعالجة اللغة. وستظل المكتبة مفتوحة المصدر بترخيص Apache 2.0، مع الحفاظ على روح التعاون والشفافية التي جعلت مشروعها ناجحًا. تُعد هذه الخطوة استمرارًا لمسيرة ناجحة بدأت بفكرة بسيطة: تحسين تمثيل الجمل في نماذج BERT لتمكين مهام دلالية أكثر دقة. وقد ساهمت المكتبة في تطوير مجالات متعددة، من الترجمة متعددة اللغات (أكثر من 400 لغة) إلى نماذج التقييم المتقاطع والمحاكاة النادرة، مع دعم مستمر من قبل المجتمع العلمي والتقني. وقد أشادت البروفيسورة إيرينا غوريفتش، رئيسة المختبر، بالإنجاز، مشيرة إلى أن المشروع لم يكن مجرد إنجاز بحثي، بل أداة حقيقية أثرت على جيلين من الباحثين والمطورين. كما عبرت Hugging Face عن فرحتها باستلام المشروع، معلنة التزامها بدعم نموه وابتكاره، مع الحفاظ على روحه المفتوحة والمجتمعية. الآن، يبدأ فصل جديد في رحلة Sentence Transformers، مع دعم من Hugging Face، ومشاركة مجتمع عالمي، ورؤية واضحة نحو مستقبل أكثر ذكاءً وشمولية في معالجة اللغة.

انضمّت مكتبة "Sentence Transformers" رسميًا إلى فريق هابينغ فايس، بعد انتقالها من مختبر "المعالجة المعرفية الشاملة" (UKP) في جامعة تيوبينغ دارمشتات بقيادة البروفيسور إيرينا غوريفيتش. تُعد المكتبة، المعروفة أيضًا بـ"SentenceBERT" أو "SBERT"، من أبرز الأدوات المفتوحة المصدر في مجال معالجة اللغة الطبيعية، وتُستخدم لاستخراج تمثيلات نصية ( embeddings) ذات دلالة معنوية عالية. أُطلقت عام 2019 من قبل الدكتور نيلس رايميرز، الذي طوّر نموذجًا يعتمد على بنية شبكات مزدوجة (Siamese) لتحسين تمثيل الجملة مقارنةً بتمثيلات BERT التقليدية، ما ساهم في تحسين أداء المهام مثل البحث المعنوي، مقارنة النصوص، التجميع، وتحديد التراكيب المترادفة. بفضل تصميمها المفتوح والمرن، انتشرت المكتبة بسرعة بين الباحثين والمهنيين، وتوسّعت لتشمل أكثر من 16,000 نموذجًا متاحًا على منصة هابينغ فايس، تُستخدم شهريًا من قبل أكثر من مليون مستخدم فريد. في 2020، أُضيف دعم متعدد اللغات يغطي أكثر من 400 لغة، وفي 2021، تم دعم التقييم الثنائي للجمل باستخدام نماذج "Cross Encoder" و"Sentence Transformer"، كما تم دمج المكتبة مع منصة هابينغ فايس (الإصدار 2.0). دُعمت تطويرات المكتبة لسنوات عديدة بتمويل من مؤسسات ألمانية مثل مؤسسة الأبحاث الألمانية (DFG)، ووزارة التعليم والبحث الألماني، ووزارة التعليم والبحث في ولاية هيسن. في أواخر 2023، تولى توم أارسين من هابينغ فايس مسؤولية الصيانة، وقدم تحسينات كبيرة، منها إصدار v3.0 للتدريب المُحدّث، وتحديثات لـ"Cross Encoder" (v4.0) و"Sparse Encoder" (v5.0). وانسجامًا مع رؤية المشروع، سيبقى "Sentence Transformers" مفتوح المصدر بترخيص Apache 2.0، ويعتمد على التعاون الجماعي، مع دعوة مفتوحة للمشاركة من الباحثين والمبرمجين والمهتمين. أعربت البروفيسورة غوريفيتش عن امتنانها للفريق، مُشيرة إلى أن المشروع يُعدّ إنجازًا بارزًا للفريق البحثي، ونتيجة لابتكار مبكر من رايميرز، وتأثيره المستمر على جيلين من الباحثين والمهنيين. وشكرت أيضًا المجتمع المُشارك، وعبّرت عن تفاؤلها بمستقبل المشروع تحت رعاية هابينغ فايس. من جهته، أكّد أرسين أن انتقال المشروع إلى هابينغ فايس يُعدّ بداية جديدة، مع التزام بدعم النمو والابتكار، مع الحفاظ على روح التعاون المفتوح التي جعلت المشروع ناجحًا.

الروابط ذات الصلة