日期
大小
机构
发布地址
computing.ece.vt.edu
许可协议
其他
标签
分类
VQA-HAT 又称 VQA Human Attention,能根据所询问的问题评估图像的信息区域。康奈尔大学的团队通过让志愿者回答锐化模糊图像的区域,来获得人类视觉注意力图。
该数据集由原始 VQA 数据集中图像上的人类视觉注意力图组成。它包含超过 60k 张的人类视觉注意力图。