{"text":[[{"start":7.83,"text":"作者是美国创新基金会(Foundation for American Innovation)的资深研究员,曾担任特朗普政府《人工智能行动计划》(AI Action Plan)的首席撰稿人"}],[{"start":16.32,"text":"3月4日,美国国防部对一家美国公司采取了前所未有的举措:将前沿人工智能初创公司Anthropic指定为“供应链风险”。通常,这一指定适用于来自敌对国家的技术。在此次事件中,之所以作出这一指定,是因为一场合同纠纷。"}],[{"start":35.68,"text":"这场冲突在上周被加州一名法官大体叫停,其核心争议是人工智能的控制权应归于何处。双方的答案都不尽正确。"}],[{"start":45.61,"text":"据称,特朗普政府官员之所以寻求重新谈判五角大楼使用Anthropic公司大模型Claude的合同条款——该模型是唯一获准用于美国机密军事环境的大型语言模型——并非因为他们打算违反该公司关于致命自主武器和大规模监控的红线,而是因为他们认为只有美国法律应当限制军方对技术的使用。"}],[{"start":67.1,"text":"这一原则本身并无不当。但正如法官Rita Lin所言,拟施加于Anthropic的惩罚“武断而反复无常”。更妥当的做法应当是取消合同,并通过立法来规范政府对AI系统的使用。"}],[{"start":82.08,"text":"这项裁决并非最终决定,特朗普政府很可能会上诉。但这一问题引出了更广泛的挑战,政府和公民在未来数十年都将为之苦思:强大AI系统的控制权究竟应当落在何处?私营公司是否应当有权为那些或许有朝一日将支撑我们生活的AI系统设定伦理边界?"}],[{"start":104.17,"text":"有些人把先进的人工智能比作核武器,进而认为如此强大的技术不应掌握在私人手中。但两者之间存在关键差异。早期的原子弹并不像当今的人工智能那样,为消费者和商业领域带来广泛益处。"}],[{"start":120.4,"text":"因此,由政府通过立法来规定人工智能系统的道德、伦理与哲学取向,这一设想显然公然违背了民主国家赖以立身的言论自由原则。至于将人工智能实验室国有化的前景——这正是“核武器”类比在逻辑上的终点——则仿佛是一种深重而激进的专制举措。"}],[{"start":140.44,"text":"这正是人工智能治理的核心难题:“核武器”类比者或许未必完全正确,但他们的担忧有其道理。先进的人工智能系统确实对国家安全构成严重风险。以美国最大人工智能公司的前沿模型为例,按这些公司自己的说法,这些模型在网络攻击和协助制造生物武器方面风险很高。而且,正如美国国防部的实际用例所示,人工智能——不是某个未来版本,而是我们当下已有的系统——确实可能助长致命后果的产生。"}],[{"start":173.21,"text":"好消息是,发达的资本主义社会以前已应对过这类挑战。我们的文明奠基于代代相承的基础性技术——印刷机、银行业、汽车、电力以及计算机本身。没有这些技术,就难以想象现代军事的存在,因此它们对国家安全至关重要。然而,它们当中没有任何一种,至少在美国,被实行国有化。相反,这些技术与产业由政治、法律、监管和技术等机构加以监督——往往采取公私混合的架构。"}],[{"start":206.76,"text":"为人工智能设立类似的机制充满风险。五角大楼与Anthropic的争端表明,即便是自诩“支持AI”的政府,也很容易滑向监管越界。犯错并扼杀创新的可能性很高。在这场AI竞赛中,时间这种资源比算力还要稀缺。"}]],"url":"https://audio.ftcn.net.cn/album/a_1774856677_4299.mp3"}