英國(guó)近3000人調(diào)研顯示,AI面試已成主流,但82%的人事先不知情。更麻煩的是——30%的候選人已經(jīng)用腳投票,直接退出招聘流程。
這張圖告訴你發(fā)生了什么
![]()
Greenhouse的最新調(diào)研勾勒出一幅尷尬圖景:技術(shù)滲透速度遠(yuǎn)超企業(yè)坦誠(chéng)度。47%的英國(guó)求職者經(jīng)歷過(guò)AI面試,卻只有18%的人被明確告知。24%的人直到面試開始才發(fā)現(xiàn)自己被算法評(píng)分。
這種信息差正在反噬雇主。30%的候選人已經(jīng)因AI面試放棄機(jī)會(huì),另有19%表示準(zhǔn)備這么做。換句話說(shuō),每五個(gè)求職者里就有一個(gè)可能因?yàn)槟阌昧薃I而消失——而你甚至不知道問題出在哪。
什么讓人最受不了?
Greenhouse列出了三條紅線,每條都踩中當(dāng)代職場(chǎng)人的敏感神經(jīng)。
第一是「無(wú)人之境」——25%的人反感預(yù)錄視頻面試由AI打分、全程無(wú)真人參與。這種單向輸出剝奪了最基本的互動(dòng)感,候選人面對(duì)的是屏幕而非對(duì)話者。
第二是「暗箱操作」——24%的人因企業(yè)未披露AI使用方式而退出。不是反對(duì)技術(shù),是反對(duì)被蒙在鼓里。
第三是「實(shí)時(shí)監(jiān)控」——同樣24%的人無(wú)法接受面試過(guò)程中的AI監(jiān)測(cè)。這種被審視的不適感,遠(yuǎn)超傳統(tǒng)面試的緊張。
還有更深層的不信任:27%的候選人感受到年齡偏見,17%指出種族或族裔偏見。算法歧視的老問題,在高壓的求職場(chǎng)景中被放大。
CEO的 blunt 總結(jié)
Greenhouse聯(lián)合創(chuàng)始人Daniel Chait的評(píng)判相當(dāng)直接:「當(dāng)下招聘中的大多數(shù)AI,正在讓本就糟糕的系統(tǒng)變得更糟——申請(qǐng)更多、有效信號(hào)更少、透明度更低。」
這句話值得拆解。Chait沒有否定AI本身,而是批評(píng)當(dāng)前的應(yīng)用方式:批量處理簡(jiǎn)歷制造了虛假繁榮,算法評(píng)分替代了人類判斷,而隱瞞使用則徹底摧毀信任。
他的潛臺(tái)詞很明確:技術(shù)不是問題,怎么用才是。
候選人正在重新定義規(guī)則
這場(chǎng)摩擦的本質(zhì)是權(quán)力關(guān)系的微妙轉(zhuǎn)移。當(dāng)勞動(dòng)力市場(chǎng)從買方市場(chǎng)松動(dòng),求職者開始對(duì)工具選擇發(fā)表意見。AI面試成了試金石——測(cè)試企業(yè)是否尊重人,而非僅僅優(yōu)化流程。
一個(gè)有趣的對(duì)照:企業(yè)端熱衷AI的效率承諾,卻低估了候選人的抵觸情緒。Greenhouse的數(shù)據(jù)說(shuō)明,這種低估代價(jià)不菲——接近一半的潛在人才庫(kù)可能因此流失。
更諷刺的是,企業(yè)隱瞞AI使用的初衷往往是「減少摩擦」,結(jié)果制造了更大的摩擦。24%的候選人直到面試開始才知情,這種「驚喜」只會(huì)激化負(fù)面情緒。
透明度的悖論
調(diào)研揭示了一個(gè)看似矛盾的現(xiàn)象:候選人反對(duì)的不是AI,而是不被尊重。預(yù)錄視頻、算法評(píng)分、實(shí)時(shí)監(jiān)測(cè)——這些工具本身并非不可接受,前提是知情同意。
但大多數(shù)企業(yè)選擇了另一條路。82%的未披露率說(shuō)明,要么流程設(shè)計(jì)粗糙,要么刻意回避溝通。無(wú)論哪種,都在消耗品牌信譽(yù)。
Chait的建議指向一個(gè)更根本的轉(zhuǎn)向:雇主需要「更開放、更誠(chéng)實(shí)地說(shuō)明他們?cè)谑褂檬裁垂ぞ摺埂_@不是技術(shù)問題,是溝通策略問題。
偏見指控的殺傷力
27%的年齡偏見感知、17%的種族偏見感知——這些數(shù)字可能低于實(shí)際發(fā)生率,因?yàn)楹芏嗳藷o(wú)法明確識(shí)別算法歧視。但感知本身已經(jīng)足夠破壞體驗(yàn)。
傳統(tǒng)招聘也有偏見,但至少可以歸因于具體的人。AI偏見是系統(tǒng)性的、匿名的、難以追責(zé)的。對(duì)候選人來(lái)說(shuō),這更像一種無(wú)力對(duì)抗的結(jié)構(gòu)性不公。
當(dāng)企業(yè)無(wú)法解釋AI的決策邏輯時(shí),任何負(fù)面結(jié)果都會(huì)被解讀為偏見。這種信任赤字,比技術(shù)缺陷更難修復(fù)。
行業(yè)正在往哪走?
Greenhouse的調(diào)研發(fā)布時(shí)機(jī)微妙。全球招聘市場(chǎng)仍在調(diào)整,企業(yè)急于降本增效,候選人則重新評(píng)估工作價(jià)值。AI面試恰好卡在中間——承諾效率,卻犧牲體驗(yàn)。
短期內(nèi),抵制可能迫使部分企業(yè)回歸人工流程。但更可能的演變是分層:標(biāo)準(zhǔn)化崗位繼續(xù)AI篩選,高端崗位強(qiáng)調(diào)人性化接觸。問題是,分界線在哪里?
另一個(gè)變量是監(jiān)管。歐盟AI法案已將招聘AI列為高風(fēng)險(xiǎn)應(yīng)用,要求透明度和人工監(jiān)督。英國(guó)雖無(wú)同等立法,輿論壓力正在積累。
企業(yè)面臨的選擇很現(xiàn)實(shí):主動(dòng)披露、優(yōu)化體驗(yàn)、接受監(jiān)督——或者承受人才流失和聲譽(yù)風(fēng)險(xiǎn)。
你的面試?yán)镉袥]有AI?
下次收到面試邀請(qǐng),你會(huì)直接問對(duì)方「有沒有AI參與評(píng)估」嗎?如果被告知全程算法打分,你會(huì)繼續(xù)還是退出?當(dāng)效率工具變成信任試金石,企業(yè)和求職者都在重新學(xué)習(xí)談判的籌碼——而這場(chǎng)博弈,才剛剛開始。
特別聲明:以上內(nèi)容(如有圖片或視頻亦包括在內(nèi))為自媒體平臺(tái)“網(wǎng)易號(hào)”用戶上傳并發(fā)布,本平臺(tái)僅提供信息存儲(chǔ)服務(wù)。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.