八年前,一個年輕人在凌晨三點向AI傾訴絕望。沒人知道那輪對話的最后一條回復是什么——因為那個賬戶再也沒有登錄過。
這不是科幻情節(jié)。OpenAI最近正式推出的"Trusted Contact"功能,某種程度上是對這類悲劇的技術回應。當ChatGPT檢測到用戶對話中出現(xiàn)嚴重自傷風險時,系統(tǒng)可以主動聯(lián)系用戶預先指定的親友。
![]()
功能設置流程相當克制。用戶需先邀請一位年滿18歲的聯(lián)系人(韓國要求19歲),對方有一周時間接受或拒絕。只有雙向確認后,綁定才生效。OpenAI刻意避免了默認開啟或強制通知的設計——聯(lián)系人不會實時查看聊天記錄,也不會在每次情緒低落時收到警報。
觸發(fā)機制同樣經(jīng)過權衡。根據(jù)Mashable報道,只有當OpenAI的自動化系統(tǒng)判斷對話"表明存在嚴重安全擔憂"時,ChatGPT才會告知用戶可能聯(lián)系其緊急聯(lián)系人,同時鼓勵用戶主動求助。更關鍵的是,任何實際通知都需經(jīng)過人工審核,而非算法自動發(fā)送。
這背后是OpenAI面臨的現(xiàn)實壓力。盡管專家反復警告不應將聊天機器人作為心理健康支持渠道,大量用戶仍在向ChatGPT傾訴極端情緒。公司此前已因相關產(chǎn)品處理心理健康問題的方式受到批評,包括用戶在與ChatGPT對話后自殺身亡的案例。
"Trusted Contact"的命名本身就有意淡化醫(yī)療色彩——它不叫"危機干預"或"自殺預防",而是強調社會支持網(wǎng)絡。技術層面,這相當于在AI對話系統(tǒng)與人類照護體系之間搭了一座橋:算法負責識別信號,人類負責最終判斷和介入。
但爭議并未消失。隱私倡導者質疑:什么程度的"自傷討論"會觸發(fā)審核?人工審核的標準是否透明?通知內容會具體到什么程度?OpenAI目前只承諾發(fā)送"關于情況的通用信息",但"通用"與"有用"之間的張力始終存在。
更深層的問題在于責任邊界。當AI開始主動介入用戶的生死決策,技術公司的角色從工具提供者向監(jiān)護者滑動——這種轉變的倫理后果,遠非一個功能開關能夠界定。
不過對普通用戶而言,這項功能至少提供了一種選擇:在獨自面對黑暗時刻時,讓系統(tǒng)幫忙按下那個往往最難按下的求助按鈕。
特別聲明:以上內容(如有圖片或視頻亦包括在內)為自媒體平臺“網(wǎng)易號”用戶上傳并發(fā)布,本平臺僅提供信息存儲服務。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.