去年,随着ChatGPT和其他生成式人工智能聊天机器人风靡全球,荷兰的芯片制造设备制造商阿斯麦(ASML)看到了在其内部法律部门中聘用一名“提示工程师”来部署该技术的机会。
阿斯麦的副总法律顾问道格•格伦费尔特(Douwe Groenevelt)在领英(LinkedIn)上的一篇帖子中表示,他设想了“一个可以弥合人工智能和我们的法律团队之间差距的新潜在角色”。该职位要求候选人能够撰写生成式人工智能提示——必须输入到人工智能工具中以生成所需输出的查询,并能够培训同事。
唯一的问题是:这个工作并不存在。
正如格伦费尔特后来解释的那样,该帖子的目的是为了对生成式人工智能时代的法律角色的未来进行讨论,该帖子获得了200多个赞和大约30条评论。
然而,快进到本月,这项工作已经成为现实。阿斯麦宣布其内部法律部门有一个首个合法提示工程师的真实职位空缺。它得出结论,随着人工智能工具的快速发展,有必要设立一个专门的角色。
而这一角色的设立表明,内部法律职业正在转型,以利用生成式人工智能的优势,因为全球各地的公司都在探索这项技术所带来的风险和机遇。
阿斯麦首席法律顾问桑德琳•奥弗里特(Sandrine Auffret)表示,生成式人工智能对整个法律行业来说是一个“改变游戏规则的”技术。
多年来,律师一直在使用其他类型的人工智能,例如合同管理和电子发现工具。但是,奥弗里特表示,生成式人工智能与众不同,因为它“似乎真正有能力改变我们的法律服务交付模式,并产生更大的影响力”。
她说,生成式人工智能所使用的大型语言模型“非常擅长自动化和增强任何基于文本的活动而许多法律活动在很大程度上都是基于文本的”。
阿斯麦预计这项技术将为其内部法律团队带来大量的时间节省,比引入的任何其他工具都要多,奥弗里特说。但它也看到了效率和服务质量的提高。
格伦费尔特表示,该团队是最早尝试A&O Shearman律师事务所去年底推出的ContractMatrix工具之一。他指出,现在,该团队约100名内部律师中的大约15人正在使用这款生成式人工智能工具来起草和审查合同。
“团队的早期反馈显示,这个工具不仅可以节省我们起草的时间,而且还提高了起草的质量,”格伦费尔特说。这个工具可以提供替代条款的建议,这也“增强了你的法律创造力”,他补充道。
格伦费尔特表示,高级律师从这个工具中获得的收益比初级律师更多,初级律师可能更容易对初步结果印象深刻,并且不太愿意对其进行压力测试。他强调,“人类监督仍然是必不可少的”。
其他公司的法律团队更多地专注于在内部进行生成式人工智能的实验,而不是雇佣专家。
例如,2016年从施乐(Xerox)分拆出来的商业服务公司康迪恩特(Conduent)曾探索在其内部法律部门中聘请一名专门的人工智能职位的可能性:一位专家来审查部门内以及整个业务中的人工智能使用情况。但是,总法律顾问迈克尔•克拉维茨(Michael Krawitz)表示,该集团很快意识到这种方法是错误的,因为生成式人工智能涉及到业务的许多敏感领域。
因此,公司不是雇佣一个人,而是成立了一个由内部专业人员组成的工作小组,他们拥有不同的专长,如知识产权、法规合规、隐私和风险等,来探索如何应用这项技术并采取适当的保障措施。
与阿斯麦一样,康迪恩特拥有约50名内部律师,一直在尝试将生成式人工智能应用于其合同工作中。
克拉维茨报告说:“我们参与[一个合同工具]试点时,认为它会帮助我们识别不符合我们标准的条款,但是这项技术并未达到我们的标准。”他解释说,试点项目将合同条款标记为“合规”,但实际上并不合规,这令人担忧。
然而,克拉维茨表示:“我仍然希望我们能看到这个功能开始运行良好。”然而,目前来说,它是“分散注意力和昂贵的”。
然而,康迪恩特使用由生成式人工智能驱动的翻译程序的经验更为积极,在与全球客户合作时加快了合同的审查和批准。
克拉维茨还记得,2022年ChatGPT开始流行时,一些法律部门考虑禁止其使用。
他争辩道:“我认为那种基调是错误的。”更好的方法是“展示我们正在使用生成式人工智能,并且以一种保护我们的想法、数据和人员的方式进行。”
普华永道(PwC)的一份报告显示,法律专业人士拥抱人工智能也有经济上的动机。
根据专业服务公司的AI就业指数(2024年5月),在美国,掌握人工智能技能的律师的工资溢价为49%,在英国为27%。
“这表明在法律领域,AI技能的重要性日益增长,”普华永道英国(PwC UK)法律业务解决方案合伙人桑迪普•阿格拉瓦尔(Sandeep Agrawal)表示。“未来的内部法律团队可能会由各种角色组成,拥有AI培训的律师与工程师和计算机科学家共同工作。”
未来内部法律团队的特点可能是多样化的角色组合,接受过人工智能培训的律师将与工程师和计算机科学家共同工作。
但美国学生贷款公司Sallie Mae前副法律顾问、曾在公司内部担任多个高级和行政法律职位的艾米•杨(Amy Yeung)表示,目前,许多公司内部法律部门才刚刚开始探索这项技术。
她解释说,由于生成式人工智能依赖大量数据,因此存在风险。例如,数据集中存在的隐含偏见或者在生成式人工智能过程中的偏见会被放大。杨表示,全面了解数据治理对于减轻这些风险至关重要。
然而,随着越来越多的内部法律团队开始在律师和技术专业人员之间加强合作,这些好处应该在公司内部得到更广泛的认可。
“将人工智能融入内部团队不仅改变了这些团队的组成,还重新定义了它们所带来的价值,”阿格拉瓦尔说。