斯坦福研究揭示:AI代理将如何重塑未来工作与技能需求
斯坦福大学最近的一项研究为AI代理如何塑造未来工作提供了新的视角。这项研究于2025年1月至5月期间进行,提出了一种全面框架,平衡了工人偏好与技术能力,旨在为不断变化的工作场所提供指导。 研究发现,大约80%的美国工人可能会看到大型语言模型(LLM)影响他们至少10%的任务。为了更好地量化人类在不同任务中的参与程度,研究引入了“人类代理尺度”(HAS),这是一个五级系统,从H1到H5,涵盖了从完全自动化到高度人类参与的各个方面。H1和H2层级的任务更适合由AI完全自动化,而H3到H5层级的任务则需要更多的人类干预来增强效果。这一细分方法揭示出不同的任务对人类输入的需求各不相同,挑战了“更高自动化总是更好”的传统观念。 根据Anthropic公司的数据,在2025年初,至少36%的职业中已有部分工人使用AI完成了其至少25%的任务。研究还发现了不同职业间对于人类参与的多元化期望。在46.1%的任务中,工人对AI代理的自动化持积极态度,认为AI可以处理重复性、低价值的工作,从而让他们有更多时间专注于更有意义的任务。然而,28%的工人对AI代理在日常工作中的应用持负面看法,主要原因包括缺乏对AI准确性和可靠性的信任(占45%)、担心失业(占23%)以及AI缺乏人类特质,如人性关怀、创意控制和决策自主权(占16.3%)。 研究通过对比技能的平均工资和所需的人类参与度,展示了哪些技能最容易受到AI的影响,哪些技能会增加价值。绿色线条代表在人类参与度上排名上升的技能,表明这些技能需要更多的人类投入,但目前工资水平可能低于其实际贡献;红色线条则显示高薪但相对较少依赖人力的技能,这些通常是与数据处理和自动化友好的任务相关联的技能。总体而言,这表明未来的工作环境将更重视人际交往和沟通技能,而非技术或信息密集型的能力。 研究建议,随着AI技术的进步,应采取主动的职业发展措施,包括重新技能培训和适应新工作动态的培训项目,以为工人做好准备。不过,研究也承认其局限性,如所依赖的现有职业数据可能无法反映出由AI引发的新任务,工人的反馈也可能受制于对AI能力有限的认知和对就业安全的担忧。尽管如此,研究依然着重于工人的视角,确保他们的意见和关切得到充分反映。 展望未来,斯坦福的研究为理解AI代理与人类工作的互动提供了一个及时的基础。它鼓励在工作场所的演变过程中采取平衡的方法,即充分利用AI的潜力,同时保持人类元素。研究的这些发现不仅有助于指导AI代理的发展方向,也为企业和政策制定者提供了重要的参考。 业内人士对这一研究给予了高度评价,认为它不仅突破了传统的自动化讨论,为AI代理的应用提供了更加具体和实用的框架,而且还倡导了工人参与到AI系统开发中的重要性。Kore.ai的首席布道者对此表示赞同,强调AI和语言技术的交叉点是当前科技发展的热点领域,未来的职场将更加注重人机协作,而不是单一的技术替代。