三校聯合研究發現,AI 招聘工具存在「自我偏好」現象——不只偏好 AI 撰寫的履歷,更偏好同款 AI 自己改寫的版本,候選人若用對工具,入圍率可提升 23%–60%。
(前情提要:14 所名校爆「秘密指令洗腦 AI」醜聞,早稻田教授:太多人偷懶把論文審稿給 AI)
(背景補充:加州大學研究「AI 腦霧」現象:14% 上班族被 Agent、自動化搞瘋)
你以為履歷寫得好就能過 AI 篩選?研究告訴你:重點不是寫得好,而是用哪套 AI 寫的跟篩履歷的是不是同一家。
X 使用者 @heynavtoor 一篇整理貼文這幾天在推特炸鍋,累計超過 21,000 讚。他引述一篇來自馬裡蘭大學、新加坡國立大學(NUS)與俄亥俄州立大學三校聯合發表的論文,主張「同一份履歷,AI 改寫版被 AI 招聘工具挑中的機率高達 97.6%」。
不過,這個 97.6% 的數字需要放進更完整的脈絡來理解。
論文原始資料:偏好率 68%–88%,GPT-4o 超過 80%
這篇論文「AI Self-preferencing in Algorithmic Hiring: Empirical Evidence and Insights」(arXiv:2509.00462)2025 年 9 月首次發表,2026 年 2 月 9 日更新,並已入選 AAAI/ACM AIES Conference。換句話說,這不是剛出爐的新研究——是近期因社群瘋傳才重新浮上水面。
研究設計相當嚴謹:團隊從 ChatGPT 問世之前的求職平台上,蒐集了 2,245 份真實人類撰寫的履歷,確保原稿是純人工寫作。接著讓七個主流 AI 模型分別改寫這些履歷,涵蓋閉源模型 GPT-4o、GPT-4o-mini、GPT-4-turbo,以及開源模型 LLaMA 3.3-70B、Mistral-7B、Qwen 2.5-72B、DeepSeek-V3。
論文原文指出,在大型對齊模型中,AI 改寫版履歷被同類 AI 審核工具優先挑選的比率,範圍落在 68%–88%;GPT-4o 的自我偏好率超過 80%。推文流傳的 97.6% 是在特定極端條件或測試設定下的單點數值,不等同於論文的整體結論範圍。
更詭異的是:AI 不只偏好「自己人」,還認得出自己的筆跡
研究中更深層、也更值得關注的發現,是「LLM 對 LLM 的自我偏好」現象。
每個模型不只偏好 AI 改寫的版本,更偏好自己改寫的那份。論文指出,DeepSeek-V3 挑選自家改寫履歷的頻率,比挑選 LLaMA 版本高出 28%;推文版本的表述是 69%,可能涵蓋特定子集的極值。
研究團隊還排除了一個最常見的反駁:「AI 改的比較好,所以 AI 當然挑 AI 的。」他們請真人評分員對同批履歷的「清晰度、連貫性、說服力」進行獨立評分,再重跑實驗,控制住品質變數後,自我偏好現象依然存在,而且沒有消失。也就是說,即便人類評審認為原版人寫的更好,AI 審核工具仍然選自己改的那份。
24 個職業模擬:用對工具,入圍率直接暴增
研究最具現實衝擊力的部分是職業情境模擬。團隊橫跨 24 種不同職業,模擬候選人使用「與招聘工具同款 AI」vs「不同款 AI」來準備履歷的結果。
結論:用同款 AI 的候選人,入圍率比其他人高出 23%–60%。
換句話說,在現有的 AI 招聘生態下,履歷最佳化策略的關鍵已經不再是「寫得好不好」,而是「猜對公司用哪套 AI 篩履歷,然後用同一套來準備」。這個邏輯如果成立,招聘過程就從能力競爭,悄悄滑向了資訊不對稱的系統性偏差。
99% 大公司用 AI 篩履歷,但沒人知道是哪套
研究引用產業資料指出,目前全球 99% 的大型企業在收到履歷時都已匯入 AI 篩選工具,其中多數使用的是 GPT 系列模型。
問題在於,求職者幾乎沒有管道知道對方的招聘系統究竟跑的是哪套模型。這讓「選對 AI」的策略本身變得不透明,甚至帶有運氣成分。
研究發表後,The Register 早在 2025 年 9 月 3 日就已報導,但當時沒有引起廣泛關注。直到 @heynavtoor 的整理貼文在 2026 年 4 月 25 日再次帶起討論浪潮,數字才開始在社群大量流傳——部分傳播版本在引用時有所誇大或脫離原始論文脈絡,閱讀時需多加留意。
這不只是 AI 偏見,而是招聘制度的結構性漏洞
這篇研究的意義不僅止於「AI 喜歡自己寫的東西」。它揭示了一個更系統性的問題:當 AI 同時扮演「履歷最佳化工具」與「履歷篩選工具」兩個角色,而且這兩個角色背後可能是同一套模型時,整個招聘流程的公正性就已經在結構上出現了漏洞。
研究團隊沒有在論文中提供具體的修復建議,但問題本身已經夠清晰:在你的資歷沒變的前提下,你被篩掉或被留下,可能取決於你用的和對方用的是不是同一家 AI。
📍相關報導📍
14 所名校爆「秘密指令洗腦 AI」醜聞,早稻田教授:太多人偷懶把論文審稿給 AI
加州大學研究「AI 腦霧」現象:14% 上班族被 Agent、自動化搞瘋
當 DAO 有 90% 人不投票,Vitalik 的解方是給每人一名 AI 幕僚

