HyperAI
HyperAI
الرئيسية
الصفحة الرئيسية
GPU
وحدة التحكم
التوثيق
التسعير
Pulse
الأخبار
الموارد
الأوراق البحثية
دفاتر تفاعلية
مجموعات بيانات
ويكي
الاختبارات القياسية
SOTA
نماذج اللغة الكبيرة (LLM)
لوحة صدارة وحدات معالجة الرسوميات GPU
المجتمع
الفعاليات
أدوات
بحث
حول
شروط الخدمة
سياسة الخصوصية
العربية
HyperAI
HyperAI
Toggle Sidebar
⌘
K
Command Palette
Search for a command to run...
تسجيل الدخول
HyperAI
الأوراق البحثية
نصائح وحيل للإجابة على الأسئلة البصرية: تعلمات من تحدي عام 2017
منذ 7 أشهر
الإجابة على الأسئلة البصرية
متعدد الوسائط
التعلم العميق
مجال البحث
متعدد الوسائط
مهمة
ملخص
ورقة بحثية
المعايير المرجعية
الموارد
feifengwhu/question_attention
pytorch
yangdsh/VQA-BUTD-demo
peteanderson80/bottom-up-attention
SinghJasdeep/Attention-on-Attention-for-VQA
pytorch
thilinicooray/Bottom-up-vqa
pytorch
shailzajolly/Understanding-yesno-and-nonyesno-samples-VQA
pytorch
VincentYing/Attention-on-Attention-for-VQA
pytorch
snagiri/ECE285_Jarvis_ProjectA
pytorch
shailzajolly/icdar_vqa
pytorch
hengyuan-hu/bottom-up-attention-vqa
pytorch
HyperAI
HyperAI
الرئيسية
الصفحة الرئيسية
GPU
وحدة التحكم
التوثيق
التسعير
Pulse
الأخبار
الموارد
الأوراق البحثية
دفاتر تفاعلية
مجموعات بيانات
ويكي
الاختبارات القياسية
SOTA
نماذج اللغة الكبيرة (LLM)
لوحة صدارة وحدات معالجة الرسوميات GPU
المجتمع
الفعاليات
أدوات
بحث
حول
شروط الخدمة
سياسة الخصوصية
العربية
HyperAI
HyperAI
Toggle Sidebar
⌘
K
Command Palette
Search for a command to run...
تسجيل الدخول
HyperAI
الأوراق البحثية
نصائح وحيل للإجابة على الأسئلة البصرية: تعلمات من تحدي عام 2017
منذ 7 أشهر
الإجابة على الأسئلة البصرية
متعدد الوسائط
التعلم العميق
مجال البحث
متعدد الوسائط
مهمة
ملخص
ورقة بحثية
المعايير المرجعية
الموارد
feifengwhu/question_attention
pytorch
yangdsh/VQA-BUTD-demo
peteanderson80/bottom-up-attention
SinghJasdeep/Attention-on-Attention-for-VQA
pytorch
thilinicooray/Bottom-up-vqa
pytorch
shailzajolly/Understanding-yesno-and-nonyesno-samples-VQA
pytorch
VincentYing/Attention-on-Attention-for-VQA
pytorch
snagiri/ECE285_Jarvis_ProjectA
pytorch
shailzajolly/icdar_vqa
pytorch
hengyuan-hu/bottom-up-attention-vqa
pytorch
1
1
3
3
1.5k
1.5k
131
131
0
0
0
0
765
765
1
1
5
5