斯坦福大学的一项最新研究,为我们理解 AI Agents 如何塑造未来工作提供了新的视角。这项研究聚焦于人与 AI Agents 之间的协作模式,强调了 人类参与 的重要性,并提出了一个名为“人类自主性量表”(Human Agency Scale,简称HAS)的框架,旨在平衡工作者的偏好与 AI Agents 的技术能力,为未来的工作场所绘制了一份发展蓝图。研究揭示了 自动化 的潜力,同时也强调了 增强 人类能力的重要性,并指出不同职业对 AI Agents 的接受程度存在差异,最终需要关注 技能转型 的趋势。

人类自主性量表 (HAS):定义人机协作的共同语言

这项研究的核心在于“人类自主性量表”(HAS)。HAS是一个五级系统(H1-H5),旨在量化不同任务中所需的人类参与程度。它超越了传统“自动化或不自动化”的二元对立,将任务划分为AI擅长完全 自动化 的领域(H1-H2),以及人类自主性对于 增强 效果至关重要的领域(H3-H5)。

这种细致入微的方法表明,不同级别的人工输入适合不同的AI角色,挑战了“更高的自动化总是更好”的观点。例如,在数据录入等重复性工作中,H1级别的完全自动化可能最有效。然而,在需要创造性解决问题或进行人际沟通的任务中,H3-H5级别的人工 增强 将更加合适。想象一下一位医生使用 AI Agents 辅助诊断,AI可以快速分析大量的医学影像和病例数据,但最终的诊断决策仍然需要医生的专业知识和经验。HAS提供了一个框架,帮助企业和开发者理解在哪些环节需要保留人类的判断力,以及如何设计 AI Agents 以支持而非取代人类。

工作场所的多元期望:弥合技术可行性与人类偏好之间的差距

研究发现,不同职业对 人类参与 的期望存在显著差异。工人往往希望在工作中拥有比专家认为技术上必要的更高水平的自主性,这表明 AI Agents 的开发重点与人类的期望之间存在差距。这种不匹配为定制 AI Agents 以满足人类需求提供了重要的机会,而不是强行推行一种“一刀切”的解决方案。

例如,在客户服务领域,尽管 AI Agents 可以处理大量的查询,但许多客户仍然希望与真人互动。一项调查显示,即使AI能够提供快速准确的答案,仍有超过60%的消费者更喜欢与真人客服交流,因为他们认为真人客服更具同情心和理解能力。因此,企业需要考虑如何将 AI Agents 集成到客户服务流程中,以 增强 人工客服的能力,而不是完全取代他们。例如, AI Agents 可以帮助客服代表快速查找信息、处理重复性任务,并将更复杂的问题转交给人工客服处理。

研究还发现,46.1%的任务中,工人对 AI Agents自动化 持积极态度,而28%的工人对 AI Agents自动化 持负面情绪。负面情绪的主要原因包括:缺乏对AI准确性、能力或可靠性的信任(45%),害怕工作被取代(23%),以及AI缺乏人类品质,如人情味、创造性控制和决策自主性(16.3%)。这些数据表明,在部署 AI Agents 的过程中,企业需要积极与员工沟通,解释AI的作用和局限性,并提供相应的培训和支持,以缓解员工的担忧。

技能转型:重新评估工作场所的价值

这项研究表明, AI Agents 可能会从根本上重塑人类的核心能力,将重点从信息管理转移到人际交往能力上。随着 AI Agents 承担越来越多的重复性、低价值任务,员工可以专注于更具意义的工作。这种转变可能重新定义工作场所的技能,技术和信息密集型能力变得容易受到影响,而人际交往能力(如计划、教学和沟通)的价值则会上升。

研究中展示的技能对比图清晰地表明了这种趋势。绿色线条表示那些在 人类参与 方面排名高于工资水平的技能,表明这些技能需要更多的人工投入。这些技能通常与需要创造性、同情心和人际交往能力的职业相关,例如教师、社工和咨询师。红色线条表示那些工资水平较高但 人类参与 较少的技能,这些技能通常与数据处理或易于 自动化 的任务相关,例如数据录入员和会计。

这种技能 转型 意味着,企业需要积极投资于员工的再培训和技能提升,帮助他们掌握新的技能,以适应未来的工作场所。例如,企业可以提供培训课程,帮助员工提高沟通能力、解决问题的能力和创造性思维能力。同时,教育机构也需要调整课程设置,以培养更多具有人际交往能力和批判性思维能力的人才。

数据驱动的见解:专家评估与工人期望的匹配

研究深入分析了工人期望的HAS级别与专家评估的可行HAS级别之间的匹配情况。数据显示,大多数任务都集中在工人期望的H2级别和专家评估的可行H2级别上(112项任务),以及H3期望/H3可行(114项任务)和H2期望/H2可行(102项任务)。这种匹配表明,工人的偏好与专家的评估之间存在总体一致性,大多数任务都集中在H2和H3级别。

然而,研究也发现了一些不匹配的情况,例如H1期望/H5可行或H5期望/H1可行。这些不匹配突显了在部署 AI Agents 时需要考虑工人偏好的重要性。如果工人希望在某个任务中拥有更多的自主性(H5),但专家认为该任务可以完全 自动化 (H1),那么企业需要仔细权衡自动化带来的效率提升与工人满意度之间的平衡。强行推行完全 自动化 可能会导致员工士气低落,甚至引发抵制。

例如,在医疗保健领域,患者通常希望与医生进行面对面的交流,以便更好地了解病情和治疗方案。即使 AI Agents 能够提供准确的诊断建议,患者仍然希望获得医生的专业意见和情感支持。因此,医疗机构需要考虑如何将 AI Agents 集成到医疗服务流程中,以 增强 医生的能力,而不是完全取代医生。

挑战与机遇:构建以人为本的AI未来

这项研究也承认了一些局限性。它依赖于现有的职业数据,这些数据可能无法反映AI驱动的新兴任务。此外,工人的回答可能反映了他们对AI不断发展的能力或对工作保障的担忧的有限认识。尽管如此,该研究通过优先考虑工人的观点并确保具有代表性,来减轻了这些问题。

随着技术的发展,这种格局将会发生变化,需要未来的审计来跟踪长期趋势。通过将工人置于中心位置,该研究提倡一种协作方法,使他们能够塑造反映其价值观和担忧的AI系统。例如,企业可以成立一个由员工、管理人员和技术专家组成的委员会,共同制定 AI Agents 的部署策略。

构建以人为本的AI未来需要解决几个关键挑战。首先,需要确保AI系统的透明度和可解释性,以便工人能够理解AI的决策过程,并建立对AI的信任。其次,需要开发更具人情味的AI系统,使AI能够理解人类的情感和需求,并提供个性化的服务。第三,需要建立完善的伦理规范和法律框架,以规范AI的开发和使用,防止AI被滥用。

展望未来:保持平衡,拥抱人机协作

斯坦福大学的这项研究为我们理解 AI Agents 与人类工作之间的相互作用提供了一个及时的基线。随着工作场所的持续发展,其研究结果鼓励一种平衡的方法——利用AI的潜力,同时保留人类的要素。我们需要积极拥抱人机协作的新模式,充分发挥 AI Agents自动化增强 潜力,同时确保人类的价值观和需求得到充分的尊重。

Chief Evangelist @ Kore.ai Cobus Greyling 在他的文章中分享了诸多AI与语言结合的观点,如语言模型、AI Agents到Agentic应用、开发框架和以数据为中心的生产力工具,他分享了这些技术如何塑造未来的洞察与想法。

未来的工作场所将是一个人机协作的生态系统,人类和 AI Agents 相互 增强 ,共同完成任务。在这种生态系统中,人类将专注于那些需要创造性、同情心和人际交往能力的任务,而 AI Agents 将承担那些重复性、低价值的任务。通过这种分工合作,我们可以提高生产力、提升工作质量,并创造更具意义和价值的工作体验。
因此, 技能转型 变得尤为重要。只有持续学习和提升技能,才能在人机协作的新时代保持竞争力,并实现个人的职业发展。