摘要
人工智能(AI)系统,尤其是深度学习(DL)模型的不透明性,对其可理解性与可信度构成了重大挑战。本研究旨在通过视觉分析(Visual Analytics, VA)与人机协同(Human-in-the-Loop, HITL)原则,提升深度学习模型的可解释性,使这些系统对终端用户更加透明和易于理解。为此,本文提出一种新方法,利用转移矩阵(transition matrix)将深度学习模型的输出结果通过更具可解释性的机器学习(ML)模型进行解读。该方法在形式化模型与心理模型的框架下,分别构建深度学习模型与机器学习模型特征空间之间的转移矩阵,从而增强分类任务中的可解释性。我们通过在MNIST、FNC-1和Iris三个数据集上开展计算实验,采用定性与定量相结合的评估标准,即:所提出方法所得结果与训练与测试样本真实标签之间的差异程度,对方法的有效性进行了验证。实验结果表明,该方法在MNIST数据集上显著提升了模型的清晰度与可理解性,重建图像的结构相似性(SSIM)和峰值信噪比(PSNR)分别达到0.697和17.94,展现出高保真度的重建效果。在FNC-1数据集上,方法取得了77.76%的F1m得分与89.38%的加权准确率,在立场检测任务中表现出优异性能,同时具备解释文本关键语义细微差异的能力。对于Iris数据集,基于该方法构建的分类超平面有效提升了分类准确率。综上所述,结合视觉分析、人机协同原则与转移矩阵机制,本方法在不牺牲深度学习模型性能的前提下,显著提升了其可解释性,为构建更加透明、可信的人工智能系统迈出了重要一步。