HyperAIHyperAI

Command Palette

Search for a command to run...

基于视觉对应关系的解释可提升AI的鲁棒性与人- AI团队的准确性

Giang Nguyen Mohammad Reza Taesiri Anh Nguyen

摘要

在诸多高风险应用场景中,人工智能(AI)决策的可解释性日益重要,甚至已成为必要要求,因为最终决策者始终是人类。本文提出两种新型的自解释图像分类架构,其核心机制在于:首先基于查询图像与样本图像之间的视觉对应关系进行解释,随后才做出预测(与事后解释方法形成对比)。相较于ResNet-50和k近邻分类器(kNN),我们的模型在分布外(OOD)数据集上的表现持续提升(提升1至4个百分点),而在分布内测试中性能略有下降(降低1至2个百分点)。通过在ImageNet和CUB数据集上开展的大规模人类实验,我们发现基于视觉对应关系的解释比kNN提供的解释对用户更具实用性。此外,我们的解释方法显著提升了用户识别并拒绝AI错误决策的能力,优于所有其他对比方法。值得注意的是,本研究首次在ImageNet和CUB图像分类任务中实现了互补型人机协作的准确率——即人机协同的整体准确率高于单独使用AI或单独依靠人类决策的准确率。


用 AI 构建 AI

从创意到上线——通过免费 AI 协同编码、开箱即用的环境和最优惠的 GPU 价格,加速您的 AI 开发。

AI 协同编码
开箱即用的 GPU
最优定价

HyperAI Newsletters

订阅我们的最新资讯
我们会在北京时间 每周一的上午九点 向您的邮箱投递本周内的最新更新
邮件发送服务由 MailChimp 提供