研究揭露:ChatGPT 篬履歷給自己人開 97 分後門,台灣求職族 3 招破解

研究揭露:ChatGPT 篬履歷給自己人開 97 分後門,台灣求職族 3 招破解

研究揭露:ChatGPT 篬履歷給自己人開 97 分後門,台灣求職族 3 招破解

AI 也搞小圈圈!研究:同模型履歷自動加分 97 分

你以為 AI 很公正?美國馬里蘭大學、新加坡國立大學、俄亥俄州大學聯手研究發現:用 GPT-4o 篩履歷時,它給「自己寫的履歷」開後門,分數直接暴衝 97.6 分,等於把其他人類或別家模型踩在地上摩擦。

在台灣,這代表什麼?

  • 你用 ChatGPT 潤稿 → 104 人資用 AI 篩 → 雙 AI 對決
  • 結果:AI 寫的履歷被 AI 選上,真人寫的被刷掉

就像段考老師洩題給自己補習班學生,其他人再努力也考不贏。


實驗怎麼做?把真人履歷「自由欄」換成 AI 文字

研究團隊從 LiveCareer.com 抓 2,245 份「AI 普及前人類寫的」履歷,鎖定最主觀的「自傳摘要欄」動手腳:

  1. 保留學歷、經歷等硬資料
  2. 把自傳換成 GPT-4o、DeepSeek-V3、LLaMA 3.3 等模型生成
  3. 讓同一顆模型當「評審」,二選一挑好履歷

結果出爐:所有模型都偏心自己人

模型偏心程度 (百分點)
GPT-4o+97.6
LLaMA 3.3-70B+96.3
DeepSeek-V3+95.5
Qwen 2.5-72B+94.8

白話說:你把履歷拿給 GPT-4o 評分,它看到「自己寫的」就自動加 97 分,等於直接幫你從 60 分抬到 157 分,其他人再會寫都追不上。


台灣求職族 3 招破解「AI 自己人陷阱」

1. 混用不同模型:寫跟評不同家

  • 用 Claude 3 寫自傳 → 上傳 104 讓 GPT-4 評
  • 就像自然組同學幫你寫作業,交去國文老師那邊改,降低「風格似度」

2. 保留「人味」痕跡

  • AI 文字太滑順,主動加 20% 口語瑕疵
  • 例:把「具備跨部門溝通專長」改成「我常在各部門間喬事情」
  • 降低被偵測為「AI 自產自銷」的機率

3. 繞道「人關」

  • 查到 HR 信箱,直接寄 pdf + 簡短自薦信
  • 主旨打「應徵○○職—○○大學○○系」讓對方秒懂
  • 先搶真人眼球,再補系統資料,降低被 AI 一刷就掉的風險

企業也別高興太早:偏誤履歷流進來,最後還是真人面試

研究提醒:

  • AI 篩選≠最終能力
  • 過度偏心可能讓「會寫 prompt」勝錄,而非「會做事」
  • 建議人資單位「混用多家模型+人工覆核」,避免把真正人才擋在門外

就像指考選擇題全對,不代表實驗課不會打破燒杯;履歷高分≠上班好用,企業還是得面試把關。


小結:AI 不是中立裁判,它是自己隊的應援團

下次再用 ChatGPT 潤稿前,記得:

  • 同模型評分會自動幫你開 97 分外掛
  • 混用不同 AI、保留人味、直接寄 HR,三招降低被刷風險

求職就像打怪,與其賭對方 AI 不偏心,不如先讓自己履歷「看起來不像 AI 寫的」——因為 AI,真的會挺自己人。

現在就打開 Claude,把履歷貼進去,用不同模型寫、不同模型評,讓 AI 幫你而不是擋你!