英國近3000人調研顯示,AI面試已成主流,但82%的人事先不知情。更麻煩的是——30%的候選人已經用腳投票,直接退出招聘流程。
這張圖告訴你發生了什么
![]()
Greenhouse的最新調研勾勒出一幅尷尬圖景:技術滲透速度遠超企業坦誠度。47%的英國求職者經歷過AI面試,卻只有18%的人被明確告知。24%的人直到面試開始才發現自己被算法評分。
這種信息差正在反噬雇主。30%的候選人已經因AI面試放棄機會,另有19%表示準備這么做。換句話說,每五個求職者里就有一個可能因為你用了AI而消失——而你甚至不知道問題出在哪。
什么讓人最受不了?
Greenhouse列出了三條紅線,每條都踩中當代職場人的敏感神經。
第一是「無人之境」——25%的人反感預錄視頻面試由AI打分、全程無真人參與。這種單向輸出剝奪了最基本的互動感,候選人面對的是屏幕而非對話者。
第二是「暗箱操作」——24%的人因企業未披露AI使用方式而退出。不是反對技術,是反對被蒙在鼓里。
第三是「實時監控」——同樣24%的人無法接受面試過程中的AI監測。這種被審視的不適感,遠超傳統面試的緊張。
還有更深層的不信任:27%的候選人感受到年齡偏見,17%指出種族或族裔偏見。算法歧視的老問題,在高壓的求職場景中被放大。
CEO的 blunt 總結
Greenhouse聯合創始人Daniel Chait的評判相當直接:「當下招聘中的大多數AI,正在讓本就糟糕的系統變得更糟——申請更多、有效信號更少、透明度更低。」
這句話值得拆解。Chait沒有否定AI本身,而是批評當前的應用方式:批量處理簡歷制造了虛假繁榮,算法評分替代了人類判斷,而隱瞞使用則徹底摧毀信任。
他的潛臺詞很明確:技術不是問題,怎么用才是。
候選人正在重新定義規則
這場摩擦的本質是權力關系的微妙轉移。當勞動力市場從買方市場松動,求職者開始對工具選擇發表意見。AI面試成了試金石——測試企業是否尊重人,而非僅僅優化流程。
一個有趣的對照:企業端熱衷AI的效率承諾,卻低估了候選人的抵觸情緒。Greenhouse的數據說明,這種低估代價不菲——接近一半的潛在人才庫可能因此流失。
更諷刺的是,企業隱瞞AI使用的初衷往往是「減少摩擦」,結果制造了更大的摩擦。24%的候選人直到面試開始才知情,這種「驚喜」只會激化負面情緒。
透明度的悖論
調研揭示了一個看似矛盾的現象:候選人反對的不是AI,而是不被尊重。預錄視頻、算法評分、實時監測——這些工具本身并非不可接受,前提是知情同意。
但大多數企業選擇了另一條路。82%的未披露率說明,要么流程設計粗糙,要么刻意回避溝通。無論哪種,都在消耗品牌信譽。
Chait的建議指向一個更根本的轉向:雇主需要「更開放、更誠實地說明他們在使用什么工具」。這不是技術問題,是溝通策略問題。
偏見指控的殺傷力
27%的年齡偏見感知、17%的種族偏見感知——這些數字可能低于實際發生率,因為很多人無法明確識別算法歧視。但感知本身已經足夠破壞體驗。
傳統招聘也有偏見,但至少可以歸因于具體的人。AI偏見是系統性的、匿名的、難以追責的。對候選人來說,這更像一種無力對抗的結構性不公。
當企業無法解釋AI的決策邏輯時,任何負面結果都會被解讀為偏見。這種信任赤字,比技術缺陷更難修復。
行業正在往哪走?
Greenhouse的調研發布時機微妙。全球招聘市場仍在調整,企業急于降本增效,候選人則重新評估工作價值。AI面試恰好卡在中間——承諾效率,卻犧牲體驗。
短期內,抵制可能迫使部分企業回歸人工流程。但更可能的演變是分層:標準化崗位繼續AI篩選,高端崗位強調人性化接觸。問題是,分界線在哪里?
另一個變量是監管。歐盟AI法案已將招聘AI列為高風險應用,要求透明度和人工監督。英國雖無同等立法,輿論壓力正在積累。
企業面臨的選擇很現實:主動披露、優化體驗、接受監督——或者承受人才流失和聲譽風險。
你的面試里有沒有AI?
下次收到面試邀請,你會直接問對方「有沒有AI參與評估」嗎?如果被告知全程算法打分,你會繼續還是退出?當效率工具變成信任試金石,企業和求職者都在重新學習談判的籌碼——而這場博弈,才剛剛開始。
特別聲明:以上內容(如有圖片或視頻亦包括在內)為自媒體平臺“網易號”用戶上傳并發布,本平臺僅提供信息存儲服務。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.