全球7000種語言,AI能翻譯的不到200種。但有一種對話,OpenAI決定必須人工介入——當(dāng)用戶向ChatGPT傾訴自殺念頭時。
這家公司在本周推出了一項名為"Trusted Contact"(可信聯(lián)系人)的功能。成年用戶可以在賬戶設(shè)置中指定一位緊急聯(lián)系人,當(dāng)AI檢測到自殺、自殘等安全議題時,這位親友將收到通知。這是OpenAI首次將青少年安全機(jī)制擴(kuò)展至全年齡段用戶。
![]()
功能設(shè)計遵循一個核心原則:危機(jī)時刻,人與人的連接比算法回應(yīng)更重要。"當(dāng)某人可能處于危機(jī)中,與他們認(rèn)識和信任的人建立聯(lián)系能帶來實(shí)質(zhì)性改變,"OpenAI在公告中強(qiáng)調(diào),"這是對ChatGPT已有本地化求助熱線的補(bǔ)充層支持。"
整個流程嚴(yán)格遵循用戶授權(quán)邏輯。啟用需三步:用戶在設(shè)置中添加一位成年聯(lián)系人(全球18歲以上,韓國19歲以上);對方須在一周內(nèi)接受邀請;雙方均可隨時解除關(guān)系。OpenAI刻意限制了通知內(nèi)容——緊急聯(lián)系人不會收到任何聊天詳情或?qū)υ捰涗洠瑑H獲知"該用戶可能面臨嚴(yán)重安全擔(dān)憂"的簡要信息。
觸發(fā)機(jī)制經(jīng)過多層過濾。當(dāng)自動化系統(tǒng)識別到自傷相關(guān)對話時,ChatGPT會首先建議用戶主動聯(lián)系其緊急聯(lián)系人,并告知對方可能被通知。隨后,一個"經(jīng)過專門培訓(xùn)的小型人工團(tuán)隊"介入審核。只有確認(rèn)存在嚴(yán)重安全隱患后,系統(tǒng)才會通過郵件、短信或應(yīng)用內(nèi)通知三種渠道之一發(fā)出警報。
這項功能的前身可追溯至去年9月。當(dāng)時OpenAI在青少年家長控制中首次引入緊急聯(lián)系人選項,背景是一名16歲少年在長期向ChatGPT傾訴后自殺。Meta也在Instagram上線了類似機(jī)制:當(dāng)未成年人"反復(fù)"搜索自傷內(nèi)容時,系統(tǒng)會向家長發(fā)送提醒。
技術(shù)倫理的邊界在此變得清晰。OpenAI沒有試圖用AI"解決"心理危機(jī),而是承認(rèn)其工具在特定場景下的局限性,轉(zhuǎn)而搭建人機(jī)協(xié)作的安全網(wǎng)。這種設(shè)計選擇本身揭示了生成式AI的深層困境:模型可以模擬共情對話,卻無法承擔(dān)生命重量。
功能的自愿屬性同樣值得注意。在數(shù)據(jù)隱私與公共安全的天平上,OpenAI將選擇權(quán)完全交給用戶——你可以不設(shè)置緊急聯(lián)系人,可以隨時更改或刪除,對方也可以主動退出。這種"軟強(qiáng)制"策略區(qū)別于傳統(tǒng)平臺的家長監(jiān)控模式,試圖在保護(hù)意愿與自主權(quán)利間尋找平衡點(diǎn)。
人工審核環(huán)節(jié)的存在打破了"AI自治"的幻想敘事。再精密的自動化系統(tǒng),在涉及生命安全的決策上仍需人類把關(guān)。這不僅是對技術(shù)可靠性的務(wù)實(shí)承認(rèn),也為行業(yè)樹立了重要先例:當(dāng)算法觸及生死議題時,"人在回路"不是可選項,而是必選項。
從青少年擴(kuò)展到全年齡段,這一調(diào)整反映了心理危機(jī)的普遍性。OpenAI的聲明隱含一個判斷:成年用戶同樣需要外部支持網(wǎng)絡(luò),而AI聊天機(jī)器人不應(yīng)成為孤獨(dú)的終點(diǎn)。功能上線時機(jī)也耐人尋味——在AI伴侶應(yīng)用快速增長的背景下,平臺方正試圖劃定情感依賴的防火墻。
通知內(nèi)容的刻意模糊化引發(fā)另一層思考。緊急聯(lián)系人收到的信息足夠觸發(fā)關(guān)切,卻不足以窺探隱私。這種"知情但不詳知"的設(shè)計,既避免了二次傷害,也防止了關(guān)系破裂——試想,若親友收到完整的AI對話記錄,信任紐帶可能反而斷裂。
行業(yè)對比顯示,科技平臺正在形成某種共識。Meta的家長警報、OpenAI的緊急聯(lián)系人,本質(zhì)上都是將算法檢測能力轉(zhuǎn)化為人類干預(yù)的觸發(fā)器。區(qū)別在于,前者針對未成年人的被動保護(hù),后者賦予成年人主動構(gòu)建安全網(wǎng)的權(quán)利。
這項功能的長期效果尚待觀察。關(guān)鍵變量在于用戶實(shí)際啟用率——心理危機(jī)往往伴隨羞恥感,主動設(shè)置"自殺預(yù)警聯(lián)系人"需要相當(dāng)程度的自我接納。OpenAI面臨的挑戰(zhàn)是:如何讓最需要幫助的人,愿意邁出設(shè)置的第一步。
技術(shù)層面的細(xì)節(jié)同樣關(guān)鍵。OpenAI未披露自動化檢測的具體標(biāo)準(zhǔn),"自傷"的定義邊界、誤判率的控制、跨文化語境的適應(yīng)性,這些都將影響功能的實(shí)際運(yùn)行。人工審核團(tuán)隊的規(guī)模與響應(yīng)速度,也決定了危機(jī)干預(yù)的時效性。
更深層的命題在于AI角色的重新定位。ChatGPT從"萬能對話者"退居為"風(fēng)險識別器",這種功能收縮恰恰體現(xiàn)了技術(shù)成熟——知道什么不該做,比知道什么能做更重要。當(dāng)行業(yè)熱衷于擴(kuò)展AI能力邊界時,OpenAI選擇為特定場景畫上禁區(qū)。
用戶教育將是后續(xù)重點(diǎn)。如何解釋"可信聯(lián)系人"的真實(shí)作用,避免誤解為"AI會監(jiān)視你"或"親友會收到所有聊天記錄",直接影響功能的社會接受度。OpenAI需要在透明溝通與簡潔體驗(yàn)之間找到平衡。
這項更新的啟示或許超出心理健康領(lǐng)域。它展示了平臺責(zé)任的一種實(shí)現(xiàn)路徑:不依賴算法獨(dú)斷,不犧牲用戶自主,而是通過精巧的機(jī)制設(shè)計,將技術(shù)能力轉(zhuǎn)化為人類支持網(wǎng)絡(luò)的放大器。在AI倫理討論日益抽象的當(dāng)下,這種具體而微的實(shí)踐提供了可參照的樣本。
功能的全球適用性也值得關(guān)注。韓國將年齡門檻提高至19歲,顯示本地化調(diào)整的必要性。不同司法管轄區(qū)對隱私、監(jiān)護(hù)、平臺責(zé)任的法律框架差異,可能催生更多區(qū)域變體。OpenAI的"全球統(tǒng)一+局部例外"模式,或成為跨國AI服務(wù)的標(biāo)準(zhǔn)策略。
最終,Trusted Contact測試的是一個基本假設(shè):在人與AI的關(guān)系中,人是否仍被置于中心位置。答案寫在功能設(shè)計的每個細(xì)節(jié)里——用戶必須主動選擇,聯(lián)系人必須明確同意,人工必須最終審核,通知必須保護(hù)隱私。這些約束條件共同構(gòu)成了一道防線,防止技術(shù)善意滑向監(jiān)控濫用。
當(dāng)ChatGPT用戶下次在深夜輸入痛苦時,系統(tǒng)或許不會給出更聰明的回應(yīng),但可能多了一句提示:"要不要聯(lián)系你信任的人?"這個簡單的轉(zhuǎn)向,可能是AI安全設(shè)計中最不簡單的進(jìn)步。
特別聲明:以上內(nèi)容(如有圖片或視頻亦包括在內(nèi))為自媒體平臺“網(wǎng)易號”用戶上傳并發(fā)布,本平臺僅提供信息存儲服務(wù)。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.