تحسين التعلم القليل😊😊😊😊😊😊😊😊😊😊 من خلال البيانات العامة حتى بدون بيانات أساسية

يقدم هذا البحث ويقوم بدراسته التعلم القليل المعمم من الصفر (GFSL من الصفر)، وهو نسخة متطرفة ومعقولة من مشكلة التعلم القليل. ويرجع الدافع لهذا البحث إلى الحالات التي لا تكون فيها البيانات الأساسية متاحة بسبب قضايا الخصوصية أو الأخلاق، حيث تهدف GFSL من الصفر إلى دمج المعرفة الجديدة لعينات قليلة من الفئات الجديدة في نموذج مُدرب مسبقًا دون استخدام أي عينات من الفئات الأساسية. وفقًا لتحليلنا، اكتشفنا أن متوسط وزن التوزيع والانحراف المعياري للفئات الجديدة ليست مُحددة بشكل صحيح بالمقارنة مع تلك الخاصة بالفئات الأساسية. تحاول الطرق الحالية لـ GFSL تحقيق توازن في مقادير الأوزان، والتي نجد أنها تساعد فقط في جزء الانحراف المعياري وتتجاهل أهمية المتوسط للأوزان خاصةً بالنسبة للفئات الجديدة، مما يؤدي إلى أداء محدود في مشكلة GFSL حتى مع وجود بيانات أساسية. في هذا البحث، نتغلب على هذه القيود بطرح طريقة تطبيع بسيطة ولكن فعالة يمكنها التحكم بكفاءة في كلٍ من المتوسط والانحراف المعياري لتوزيع الأوزان للفئات الجديدة دون استخدام أي عينات أساسية وبالتالي تحقيق أداء راضٍ لكلٍ من الفئات الجديدة والأساسية. وقد أظهرت نتائج تجاربنا بشكل مفاجئ أن الطريقة المقترحة لـ GFSL من الصفر التي لا تستفيد من أي عينات أساسية تتفوق حتى على الطرق الحالية لـ GFSL التي تستفيد بأفضل شكلٍ ممكن من البيانات الأساسية. يمكن الوصول إلى تنفيذنا عبر الرابط: https://github.com/bigdata-inha/Zero-Base-GFSL.请注意,这里有一些术语的翻译:- Zero-base generalized few-shot learning (GFSL): التعلم القليل المعمم من الصفر (GFSL)- Pretrained model: النموذج المُدرب مسبقًا- Weight distribution: توزيع الأوزان- Weight norms: مقادير الأوزان- Normalization method: طريقة التطبيع这些术语在阿拉伯语中是通用的翻译方法,以保持专业性。如果您有任何疑问或需要进一步的帮助,请随时告诉我。