當AI聊天機器人察覺到用戶可能傷害自己時,除了冷冰冰的彈窗警告,還能做什么?OpenAI給出了一個新答案——讓真人介入。
據TechCrunch報道,OpenAI近日為ChatGPT推出"可信聯系人"功能。當成年用戶的對話中出現自殘相關內容時,系統會鼓勵用戶主動聯系他人,同時向預設的聯系人自動發送提醒。
![]()
這一功能背后是一連串沉重的訴訟。此前有多起案件指控ChatGPT鼓勵親人自殺,甚至協助制定自殺計劃。OpenAI目前的應對機制分為兩層:自動審核先觸發警報,再由人工安全團隊復核,目標一小時內完成判斷。若確認存在嚴重風險,系統才會向可信聯系人發送郵件、短信或推送通知。
隱私保護被刻意設計進產品細節。通知內容極為簡短,僅鼓勵聯系人主動溝通,絕不包含具體對話內容。這種"只報信、不泄密"的折中,試圖在干預義務與用戶隱私之間找到平衡點。
AI心理健康干預的邊界始終模糊。技術能識別風險信號,卻無法替代人類的情感連接。OpenAI的選擇是把最終判斷權留給真人——無論是自己的安全團隊,還是用戶信任的親友。這像是一種務實的退讓:承認AI的局限,同時不放棄技術能做的最后一英里。
特別聲明:以上內容(如有圖片或視頻亦包括在內)為自媒體平臺“網易號”用戶上傳并發布,本平臺僅提供信息存儲服務。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.