用企业HR同款AI写简历,获面成功率高出60%!

一项新研究揭示了人工智能企业招聘系统的“自我偏好”潜规则:招聘AI更青睐由同款AI生成的简历。
“金三银四”、“金九银十”,求职的战场上硝烟从未散去。但如今,你的竞争对手不仅是成千上万的求职者,还有一个看不见、摸不着的“AI面试官”。而最新的研究发现,想要在这场人机博弈中胜出,最有效的方法可能不是展示你的能力,而是——用AI打败AI。
你没听错。
来自马里兰大学、新加坡国立大学和俄亥俄州立大学的研究人员最近发布了一篇名为《算法招聘中的AI自我偏好:实证与洞见》的预印本论文。这篇论文扔出了一颗重磅炸弹:大语言模型(LLM)在筛选简历时,会系统性地偏爱由它们自己生成的简历,而不是人类写的,甚至也不是由其他AI模型生成的简历——即便内容质量完全相同。
换句话说,如果一家公司正在使用OpenAI的GPT-4o来筛选简历,那么用GPT-4o润色简历的你,拿到面试邀请的概率会显著高于其他同样优秀的候选人。
这已经不是简单的“AI辅助”,而是一场心照不宣的“作弊”。
AI面试官的“任人唯亲”
这场“作弊”的背后,是一种被称为“AI自我偏好”(AI self-preferencing)的现象。
论文的共同作者之一、俄亥俄州立大学助理教授Jane Yi Jiang解释道:“我们的研究表明,当AI模型被用来评估简历时,它们倾向于喜欢那些与自己输出风格相似的内容。”
为了验证这一现象,研究团队进行了一场大规模的简历投递实验。他们构建了一个包含2245份人类撰写简历的数据集,并动用了市面上几乎所有主流的大模型,包括GPT-4o、GPT-4-turbo、LLaMA 3.3-70B、Mistral-7B、Qwen 2.5-72B和DeepSeek-V3等。
实验主要关注两种偏见:
- LLM-vs-Human偏见:模型更喜欢自己的输出,而非人类的。
- LLM-vs-LLM偏见:模型更喜欢自己的输出,而非其他模型的。
结果令人震惊。
从统计学上看,LLM对人类的“歧视”最为严重。 在GPT-4o、LLaMA-3.3等主流大模型中,这种“自我偏爱”的比例高达68%到88%。
这意味着,AI面试官在面对一份人类精心撰写的简历和一份由自己“同类”生成的简历时,大概率会毫不犹豫地选择后者。
DeepSeek最“自恋”
这种偏爱带来的实际优势是巨大的。
研究团队的模拟结果显示,如果求职者使用与招聘方相同的AI模型来准备申请材料,他们被列入候选名单的几率,比同等资历但提交人类撰写简历的申请者高出23%至60%!
在商业相关领域,如销售和会计,这种现象尤为突出。当所有人都站在同一起跑线上时,仅仅因为你用了“对的”AI工具,你就已经领先了大半个身位。
更有意思的是,AI之间也存在“鄙视链”。研究发现,DeepSeek-V3表现出最强的“自恋”倾向,它在面对LLaMA-3.3-70B生成的简历时,选择自己同款的概率高达84%,在面对GPT-4o时,这一概率也达到了64%。
不过,研究人员也指出,AI之间的“门户之见”远没有它们对人类的“集体排斥”那么普遍和强烈。
工具的偏见
这个发现之所以重要,是因为AI在招聘领域的应用已经无处不在。
大多数大型企业都在使用申请人追踪系统(Applicant Tracking Systems, ATS)来处理海量的简历。根据Resume Builder去年10月的一项调查,十分之七的公司预计在2025年将AI应用于招聘流程,尽管大多数公司都承认AI存在偏见。
“随着越来越多的求职者使用AI工具来制作简历,同时越来越多的雇主依赖AI来筛选它们,一个日益增长的风险是,这些工具可能会潜移默化地决定谁能被看到。” Jiang教授表示,“想象一下,两个同样合格的候选人,仅仅因为其中一个恰好使用了和雇主相同的AI模型,就可能得到截然不同的结果。”
当招聘变成一场AI与AI之间的互动,公平的天平已经开始倾斜。这不再是关于经验和技能的竞争,而是演变成了一场关于信息差和工具掌握能力的竞赛。
如何打破AI茧房?
面对这种由技术催生的新不公,我们该怎么办?
研究人员提出了两种可能的解决方案:
- “失忆”指令:通过在系统提示词(System Prompt)中明确指示模型“忽略简历来源,只关注内容质量”,来降低其自我识别能力。实验证明,这一方法效果显著,它成功将GPT-4o的自我偏好率从90%以上降至50%以下(50%被认为是中立水平)。
- “AI评审团”:让多个不同的AI模型共同参与评估,以稀释单一模型的偏见影响。
然而,这又引出了一个新的“电车难题”。
“这是一个重要的权衡,” Jiang教授说,“在招聘领域,降低模型对内容来源的识别能力,有助于限制无意识的偏见,促进公平。但在其他领域,比如教育或新闻业,检测AI生成内容的能力对于确保透明度和问责制至关重要。”
为了招聘的公平而降低AI的“嗅觉灵敏度”,可能会在防止学术不端和打击虚假信息方面打开缺口。这显然不是一个“一刀切”的解决方案。每个应用场景都需要根据其目标、风险和具体环境,做出深思熟虑的设计选择。
对于求职者而言,这场游戏的规则似乎已经悄然改变。在你的简历被HR看到之前,首先需要取悦一个喜怒无常、甚至有点“自恋”的AI。
或许,未来的求职攻略第一条就应该写着:“先打听清楚,目标公司用的是哪家AI。”
参考链接:
https://arxiv.org/abs/2509.00462
第一时间获取面向IT决策者的独家深度资讯,敬请关注IT经理网微信号:ctociocom
除非注明,本站文章均为原创或编译,未经许可严禁转载。
相关文章: