今年7月,《纽约时报》一篇题为“欢迎来到你的工作面试,你的面试官是人工智能(AI)”的报道描述了多位求职者与“无面孔的声音和虚拟形象”的面试官对话的经历——这些由“自主性AI”(agentic A.I.)驱动的面试官,能够实时生成对话并根据求职者的回答进行追问(注1)。文中,一位22岁的毕业生说,整个过程感觉非常“去人性化”(dehumanizing);另一位57岁的求职者与AI面试近一小时后,就再也没有收到任何反馈,她感到自己被“利用”了,甚至怀疑:这家公司是在用我训练AI吗?这份工作真的存在吗?其实,早在2020年,中国内地就有类似报道,讲述面试者如何应对AI面试官,比如在言语和妆容上投其所好(注2)。
近年来,当企业和高校纷纷探索人机(AI)协同时,人与AI的“对抗”也在升级。今年7月,《日经新闻》揭露了一种新的欺骗方式:来自14所全球顶级大学的研究者在预印本论文中用白色字体或极小字号隐藏AI提示词,让AI审稿人“只给正面评价(注3)。
说来讽刺,当人们处心积虑用AI把自己的表现或论文“变美”,也有人把图“修丑”。今年9月,《21世纪经济报道》曝光消费者使用AI工具在数秒内生成“发霉筷子”、“破裂水杯”等假图,向电商平台申请“仅退款“实施欺诈,商家客服难以辨别真假,成功率高达75%(注4)。上周,英国《金融时报》报导,造假者通过AI生成带有模拟商标、地址、明细的假发票——甚至模拟不完美的细节如折痕和咖啡渍——进行欺诈(注5)。
计算机领域称这类行为为“对抗性攻击”(adversarial attack),指通过向AI模型输入经过恶意操纵的数据,迫使模型做出错误预测。当AI系统在人类社会落地,这种人为对抗远非技术故障。以AI面试为例,传播学中的期望违背理论(Expectancy Violations Theory)指出,当沟通期望被打破时,人会产生负面感受,进而适应或抵抗。AI面试官违背了求职者对“人际互动”、接受“全面公平评估”的期待——它虽然可以对话,但缺乏真实情感,也难以捕捉全部细微的沟通信息。在人企权力不对等的背景下,企业的做法会被解读为“你还不配得到我司人类的评估”。求职者可能在社交媒体上抱怨企业,也可能在未来对类似系统进行欺骗,恶性循环。一旦用户优先考虑的不再是真诚沟通而是如何攻击系统时,这个系统的社会意义上就已经失败了。那么,人类的沟通在什么时候可以、什么时候不应该转化为计算机和数据工程问题?
要回答这个问题,不妨思考一个古老的“是不可杀错、还是不可放过”的伦理悖论。一方面, 我们可以严格限制AI,假定人性本恶、AI引发滥用。但这种“宁可错杀”的逻辑会阻止技术的合理应用(如气候建模、药物发现、消费者洞察等)。另一方面,有未来主义和社会达尔文主义片面混合后的观点竟然认为,AI成就的“完美犯罪”突破了人类智商和能力的极限,这是技术的胜利,而且“善与恶”的划分或许也是错误的、过时的。这种立场看似进步,实际上是在牺牲那些信息不对称、权力较弱的群体,且持这种观点的人因对人文社会的无知、也不屑于探索,就把他们不负责任地标签为“应该被技术淘汰的旧制度的维护者”。
这种辩论本质上是资源稀缺时,人们对“过程公平还是结果公平”几个世纪以来的思考、争辩与实践。任何博弈逻辑的出现都是条件制约的结果和妥协。草原上的弱肉强食是自然选择的结果;寄居蟹和海葵之间的共生是协同进化的产物;尊老爱幼代表人类尊严和关系责任,而日本传说中,贫困村庄的老人到了70岁就要前往荒地,放弃自己让年轻人活下去(如电影《楢山节考》所描绘的)。博弈胜负的逻辑扎根于具体的生态、历史、文化、和经济条件之中。但任何情况下,分配不应该超越正义:不应有个体受到伤害、不欺骗、过程透明、权力高位应能问责。
人机对抗也遵循同样的逻辑:不是人性变恶,而是评价系统、权力结构、资源竞争的制约。正如“内卷”一词的描述:参与者主动选择局部最优解,但其投入毫无意义、徒增消耗。然而,重大创新多诞生于容许探索的环境,而非将一切活动工具化为竞争筹码的社会。AlphaGo诞生于对未知的好奇,是增量游戏;但它也许很难诞生在特长是为了考试加分、让简历更引人注目的环境里。谴责对抗的同时,也应该拷问他们所处的社会:对风险、失败和探索的容忍度有多少?用大白话说,你是否可以理直气壮做一个平凡但快乐的普通人,不求大富大贵,但自食其力、自在自为?
改进的方向因此变得清晰。英伟达CEO黄仁勋最近指出,AI时代对电工、水管工、木匠的需求会大幅增加(因为数据中心需要这些物理世界的工作);同时建议大家“找到一门愿意用一生去完善的技艺”。这指向未来的职场能力:亲身经验、情境判断、无法批量生产、注重人际交流。新闻业一句老话异曲同工:好新闻不是写出来的,是“跑”出来的——走访、调查、叩门、抗压、变通,却又孜孜不倦。
对于部署AI面试的企业,关键环节更应保留人的观察和判断:AI当然可以做初筛、数据整理,但晋升、录用、资源分配等重要决定,应由人类做最终判断,且要能够向受评估者解释原因。评价维度上,许多对抗行为因为指标过于单一、且缺乏交叉验证而产生。企业应该清晰地告诉求职者评估标准是什么、为什么AI被使用、哪一部分数据会被使用、人工干预和审核的机制是什么。如今,在企业降本增效成为惯例的大背景下,这当然不是一朝一夕可以实现,但无疑可以稍稍改善人际对抗的死局。
技术发展终将适应这个社会,在此过程中,技术难免放大社会中最薄弱、最偏见、最自私自利的环节。减少人机恶性对抗,关键在于审视背后资源分配和权力的公正性。每个人不妨保留一点不合时宜的质疑,或许也是将对抗转化为合作、善用AI的起点。
注:
1. 纽约时报:https://www.nytimes.com/2025/07/07/technology/ai-job-interviews.html
2. 腾讯新闻谷雨工作室:https://mp.weixin.qq.com/s/UHsDjhOutHmBzEXio2_yzQ
3. Nikkei Asia: https://asia.nikkei.com/business/technology/artificial-intelligence/positive-review-only-researchers-hide-ai-prompts-in-papers
4. 21世纪经济报道:https://www.21jingji.com/article/20250901/herald/6742aa83f02805679ffde76e34d40690.html
5. FT中文网:https://ftchinese.com/interactive/237363
(作者简介:张昕之是香港城市大学媒体与传播系副教授和研究主任,他的研究考察人工智能对新闻生产、传播生态与政策制定的影响,以及由此推动的媒体创新转型。他曾获香港研究资助局(RGC)多项研究资助,并担任《人类传播研究》(HCR)、《新闻与大众传播季刊》(JMCQ)《数字新闻学》(Digital Journalism)等国际权威期刊编委。 本文仅代表作者观点。责任编辑邮箱:tao.feng@ftchinese.com)