可解释人工智能 (XAI,全称为 Explainable AI) 是一组流程和方法,允许人类用户理解和信任机器学习算法创建的结果和输出。
XAI 用于描述人工智能模型、其预期影响和潜在偏差。它有助于表征人工智能决策中的模型准确性、公平性、透明度和结果。可解释的人工智能对于组织在将人工智能模型投入生产时建立信任和信心至关重要。人工智能的可解释性还有助于组织采用负责任的方法进行人工智能开发。
随着人工智能变得更加先进,人类面临着理解和追溯算法如何得出结果的挑战。整个计算过程变成了通常所说的无法解释的「黑匣子」。这些黑匣子模型是直接根据数据创建的。而且,即使是创建算法的工程师或数据科学家也无法理解或者解释它们内部究竟发生了什么,或者人工智能算法如何得出特定结果。
了解人工智能系统如何产生特定的输出有很多好处。可解释性可以帮助开发人员确保系统按预期工作,可能有必要满足监管标准,或者对于允许受决策影响的人质疑或改变结果可能很重要。