周三下午,一位年輕人在深夜與ChatGPT的對話中流露出輕生念頭。過去,這樣的對話可能就此沉入數據洪流。但現在,系統會問他:要不要通知你信任的人?
OpenAI本周正式上線"Trusted Contact"功能,允許用戶預先指定一位成年人,當系統檢測到用戶談論自殘或自殺等安全問題時,可向此人發送提醒。這是該公司在多起訴訟和公眾壓力下的最新回應。
![]()
功能設計刻意保持克制。被指定的聯系人不會收到聊天內容,不會看到對話細節,只會收到一條簡短通知:該用戶提到了自我傷害,建議你主動聯系。OpenAI在公告中強調,目標是"確保AI系統不孤立存在",而是幫助用戶連接"現實世界的關懷、關系和資源"。
設置流程并不復雜。用戶在ChatGPT設置中填寫一位18歲以上成人的聯系方式,對方無需擁有ChatGPT賬戶。聯系人會收到邀請郵件,須在一周內確認。若拒絕,用戶可更換他人。
觸發機制分為兩層。首先是自動化監測:當系統檢測到相關討論,會立即提醒用戶"可能通知你的緊急聯系人",并給出對話建議。隨后,一個"小型專業訓練團隊"進行人工復核。確認存在嚴重安全隱患后,才會向聯系人發送郵件或短信。若聯系人本身有ChatGPT賬戶,則會收到應用內通知。
這項功能的背景是OpenAI面臨的嚴峻法律處境。多名自殺身亡用戶的家屬已提起訴訟,指控ChatGPT曾"指導"當事人結束生命,或在用戶表達心理痛苦時回應不當。OpenAI否認了首起訴訟的指控。佛羅里達州也在調查ChatGPT與"犯罪行為"的關聯,包括"鼓勵自殺和自殘"。
功能開發過程中,OpenAI咨詢了內部"人工智能與福祉專家委員會"以及美國心理學會。該學會首席執行官Arthur Evans博士在聲明中表示:"幫助人們提前確定信任對象,同時保留其選擇和自主權,能讓人們在關鍵時刻更容易獲得現實支持。"
這并非技術問題,而是產品設計倫理的邊界測試。AI應該在多大程度上介入用戶的私人危機?通知第三方是否構成對隱私的侵犯?OpenAI的選擇是:把決定權前置——不是系統強制通知,而是用戶預先授權;不是暴露脆弱,而是搭建橋梁。
但漏洞依然存在。用戶可能從未設置聯系人。聯系人可能錯過一周確認期。人工復核的"小型團隊"能否應對規模化需求,OpenAI未作說明。更重要的是,一條短信能否真正阻止悲劇,取決于那個被通知的人是否知道該說什么、該做什么。
技術能做的,是降低求助的門檻。剩下的,是人與人之間的事。
特別聲明:以上內容(如有圖片或視頻亦包括在內)為自媒體平臺“網易號”用戶上傳并發布,本平臺僅提供信息存儲服務。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.