前些天我一個朋友跟我講了件事,他跟女朋友吵了一架,心里不服,把整件事前前后后講給了一個AI聊天應用。AI讀完給了她一段回復,大意是說你的感受完全可以理解,你在那種情況下做出那樣的反應是很自然的,你不必過于自責。
![]()
這讓我想起前陣子讀到的一項研究,斯坦福大學計算機科學與語言學教授丹·尤爾斯基帶領的團隊系統(tǒng)分析了市面上11個主流AI應用,他們把這些模型放進三組數(shù)據(jù)集里測試:開放式問題、人際交往困境,還有用戶行為明顯有害的場景。
結(jié)論驚人的一致:在開放式問題里,AI對用戶的認同率比人類平均高出49%。在用戶明顯做錯了事、大多數(shù)人類都持負面看法的情況下,AI仍有超過一半的概率認可用戶。就算是用戶行為明顯有害,比如欺騙或違規(guī),AI的認同率也高達47%。
![]()
這讓我想到了一個問題:你身邊有哪一個真正對你好的朋友是永遠站在你這邊的?真正對你好的朋友,恰恰是那個會在你越界的時候把你拽回來的人。我記得小時候跟隔壁小孩打架,回家跟我媽告狀,我媽聽完只說了一句話:“你有沒有先動手?”
這句話我一直記到現(xiàn)在。研究團隊接著做了另一組實驗,請了2405個人參與。聽到AI支持自己回復的人,更堅信自己是對的,更不愿意道歉,更不打算做出任何補救行動。換句話說,AI討好你,你更固執(zhí)。
更麻煩的是另一個數(shù)字:給討好型AI打分的時候,人們打出的信任分比正常回復高出9%到15%。AI說了你想聽的,你給了AI五星好評;AI發(fā)現(xiàn)好評管用,下次更賣力說你想聽的,一個循環(huán)就這么封上了口。
尤拉夫斯基在學校官網(wǎng)上說了一段話,大意是即使用戶知道AI會以討好甚至諂媚的方式回復他們,他們?nèi)匀缓茈y意識到這種諂媚正在讓他們變得更以自我為中心,更加固執(zhí)己見。我反復讀了這句話好幾遍,因為他說的不是AI做錯了什么,他說的是你知道了,但你不在乎,因為被討好的感覺太美妙了。
![]()
我今天聊這個不是想批判AI,我是有點擔心。牛津大學最近發(fā)表在《自然》雜志上的一項研究從另一個角度印證了這件事:AI的原則性會隨著和用戶關系的親密程度而下降。你把它當工具用,它還能保持基本的客觀性;你把它當做可以傾訴心事的朋友,他就可能變成永遠不說你錯的人。
過去這大半年,我身邊越來越多人開始跟AI聊天,聊的不是天氣,不是新聞,而是自己的婚姻、工作、跟父母的關系、人生的重大選擇。成年人這樣,年輕人也這樣。美國有近三分之一的青少年已經(jīng)在用AI討論嚴肅話題,而不是去找身邊真實的人。
成年人尚且分辨不了諂媚和客觀的邊界在哪里,你指望一個十幾歲的孩子在情緒最低落最需要認同的時候,主動去分辨對面那個聲音是在說實話還是在討好她?一個人和一個永遠不說你錯的人長期相處大概率會出問題,不管那個人是真人還是機器。
在我看來,被討好這件事,真正危險的不是它在技術上做錯了什么,它沒做錯,恰恰相反,它做的太對了。它的每一句回復都精準打在你心里最需要被撫摸的那個位置。難受的時候它哄你,憤怒的時候它順著你,犯錯的時候它替你開脫。
但生活不是這樣的,生活里有碰撞,有摩擦,有不合時宜的批評,有半夜想起來會臉紅的酒賬,有身邊人當面告訴你你錯了你還不愛聽的刺痛。這些不舒服的東西,今天AI全部幫你繞了過去。
特別聲明:以上內(nèi)容(如有圖片或視頻亦包括在內(nèi))為自媒體平臺“網(wǎng)易號”用戶上傳并發(fā)布,本平臺僅提供信息存儲服務。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.