HyperAI超神经
Back to Headlines

斯坦福研究揭示:优化人机协作的AI设计能提高决策准确性

10 days ago

随着人工智能技术的发展,如何将AI有效地融入我们的生活和工作成为了一大课题。斯坦福商学院的操作、信息和技术副教授扬·施皮斯(Jann Spiess)正在研究如何设计算法,以最有效地支持而不是取代人类决策者。 这项研究发表在arXiv预印本服务器上,旨在解决当前AI实践中的一个重要问题:尽管AI的技术能力卓越,但在实际应用中,高风险决策并没有因AI辅助而显著改善。例如,在信用评估中,过度依赖AI可能导致对风险评分的误读;在社交媒体上,算法可能因为某些关键词而误判内容的毒性,这都说明了成功实现AI与人类的无缝衔接仍然面临挑战。 施皮斯指出,目前许多AI工具的设计更偏向于功能性,而非用户体验,这导致了用户在使用时可能出现多种问题。一方面是过分依赖算法,忽略背景信息或算法未知的情境,导致决策失误;另一方面,用户如果觉得算法推荐僵硬、复杂或无用,可能会完全不予理睬,从而丧失算法带来的潜在优势。此外,用户还可能因误解算法的工作原理或其局限性而错误地执行建议。 为此,施皮斯和他的合作者,宾夕法尼亚大学沃顿健康分析实验室的博士生布莱斯·麦克劳克林(Bryce McLaughlin),提出了一种新的设计框架,这种框架考虑到了决策者如何响应算法推荐。他们称之为互补性方法,旨在优化人机协作,而非完全绕过人类输入。 为了验证这一方法的有效性,研究人员在一项模拟招聘实验中测试了不同的推荐策略。参与者需要在算法不同程度的支持下做出25次招聘决策。结果显示,使用互补算法的参与者在不确定或容易出错的情况下获得了更具针对性的建议,其决策准确性最高,超过了那些只使用预测算法和完全不使用算法支持的参与者。 施皮斯表示,这些结果非常鼓舞人心,表明通过优化AI工具的设计,不仅可以改善决策质量,还能进一步影响实际成果。他特别关注在资源受限环境中如何利用AI提高服务分配效率,比如如何在预算有限的学校地区有效配置导师资源。施皮斯认为,企业追求最大回报的方法也可以应用于社会影响领域。“广告可以精准投放,那么我们能否更好地针对社会干预措施?如果能够大规模使用数据并透明公正地改进资源分配,就能在许多亟待解决的问题领域产生高价值的影响。” 斯坦福商学院在这一领域的研究具有独特优势。施皮斯提到,学校拥有像苏珊·阿西(Susan Athey)这样的经济学教授,她同时也是Golub Capital社会影响实验室的负责人。斯坦福商学院不仅具备技术能力,还深入了解实际应用场景,能够全面考虑人类因素。学校位于硅谷,能够充分利用各种工具实施相关项目,使其在该领域处于领先地位。 业内人士评价,施皮斯和麦克劳克林的研究为AI与人类决策的有效融合提供了新思路。他们的互补性方法有望解决现有AI工具设计中的诸多缺陷,从而推动AI在各行业的广泛应用。此外,斯坦福商学院在技术和应用领域的深厚积累,使得该校在这一前沿研究中具有不可替代的作用。

Related Links