有個Redditor最近發(fā)帖說自己"快絕望了"——過去一個月,他的電話被陌生人打爆,對方要找律師、產品設計師、鎖匠。這些人都說是在Google的AI那里查到的號碼。他根本不認識這些人,也沒從事過這些職業(yè)。
這不是孤例。今年3月,以色列一名軟件開發(fā)者收到WhatsApp消息,因為Google的聊天機器人Gemini給出了錯誤的客服指引,把他的號碼塞了進去。4月,華盛頓大學一名博士生在用Gemini時,居然套出了同事的個人手機號。
![]()
AI研究人員和隱私專家早就警告過生成式AI對個人隱私的種種威脅。現(xiàn)在又多了一種:AI聊天機器人直接把真人電話號碼吐出來。更麻煩的是,收到這些電話的人幾乎沒辦法阻止。
DeleteMe是一家?guī)陀脩魪幕ヂ?lián)網上刪除個人信息的公司。聯(lián)合創(chuàng)始人兼CEO Rob Shavell說,過去七個月里,客戶關于生成式AI的咨詢量暴增400%,達到數(shù)千條。這些咨詢"明確提到了ChatGPT、Claude、Gemini或其他生成式AI工具"。具體分布是:55%涉及ChatGPT,20%涉及Gemini,15%涉及Claude,10%涉及其他AI工具。
![]()
Shavell說,客戶投訴LLM泄露個人信息通常有兩種情況。第一種,用戶問聊天機器人一些關于自己的無害問題,結果返回了準確的家庭住址、電話號碼、家庭成員姓名或雇主信息。第二種,用戶發(fā)現(xiàn)AI生成了"看起來合理但錯誤的聯(lián)系信息",于是報告了別人的數(shù)據泄露。
以色列軟件工程師Daniel Abraham的經歷屬于第二種。28歲的他在3月中旬收到一條WhatsApp消息,對方說Gemini告訴他這是某個公司的客服號碼。Abraham根本不在那家公司工作。他測試了一下,發(fā)現(xiàn)Gemini確實會錯誤地把他的號碼當成那家公司的聯(lián)系方式。
這些隱私漏洞很可能是因為訓練數(shù)據中包含了個人身份信息(PII),但具體機制尚不清楚。無論原因是什么,結果對接到電話的人來說都很糟——而且目前看來,沒什么辦法能阻止這種事發(fā)生。
特別聲明:以上內容(如有圖片或視頻亦包括在內)為自媒體平臺“網易號”用戶上傳并發(fā)布,本平臺僅提供信息存儲服務。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.