剛到美國科羅拉多州的楊女士問AI附近有沒有適合走走的地方,AI推薦了一個野生動物保護(hù)區(qū),理由是風(fēng)景開闊,適合徒步。她戴著降噪耳機(jī)去了,沿途響尾蛇的警告聲被隔絕在耳外,她還順手從草叢里拔了一株植物準(zhǔn)備帶回家。事后她質(zhì)問AI,AI先是道歉,然后說這和送死沒有區(qū)別。這句話比任何專家警告都直白。但問題是,如果楊女士沒能活著回來,這句道歉還有意義嗎?
![]()
一、AI幻覺
很多人以為AI背后連著一本百科全書,問什么它查什么。其實不是。AI拿到你的問題后,會把它切成很多小塊,然后根據(jù)之前讀過的海量資料,一塊一塊地猜接下來該說什么。它不是在檢索事實,是在生成聽起來合理的句子。
AI行業(yè)把這種現(xiàn)象叫"幻覺",AI會一本正經(jīng)地說瞎話,而且說得特別肯定,連它自己都不知道真假。AI說話通常都是確定的、平穩(wěn)的。它不會說"我不太確定",它會說該地區(qū)風(fēng)景開闊,適合徒步。這種裝出來的肯定,最容易讓人上當(dāng)。
所以問題不是AI這次失手了,而是它這套工作方法本身就決定了它一定會時不時出錯,而且出錯的時候還特別有底氣。越來越多人把問路、看病、打官司甚至人身安全這些大事交給AI,就是在不斷重復(fù)楊女士的經(jīng)歷。她活下來了能上新聞,下次的人未必有這么好的運氣。
二、技術(shù)依賴
楊女士戴降噪耳機(jī)這個細(xì)節(jié),這次遇險不只是AI的問題,是一連串技術(shù)依賴疊加出來的結(jié)果。
![]()
降噪耳機(jī)讓她聽不見響尾蛇的警告聲,這是耳朵被遮住了;完全相信AI推薦,這是判斷被遮住了。兩樣加在一起,這個人就完全跟外界斷了聯(lián)系。危險就在旁邊,她看不見也聽不見,連最基本的警覺都沒了。
人類在野外生存了上百萬年,靠的是耳朵聽、鼻子聞、眼睛看,不是地圖APP。這些本能還在,只是被技術(shù)替代了。導(dǎo)航替我們記路,點評替我們篩選,算法替我們決策,最后我們連自己身處險境都意識不到。
這不是批評楊女士。換作大多數(shù)習(xí)慣了城市生活的人,突然被扔到野外,第一反應(yīng)也是打開手機(jī)問AI。真正該問的是:當(dāng)技術(shù)把人的感官一層一層遮住之后,我們還有沒有能力在關(guān)鍵時刻自己察覺到危險?
這種依賴正在變成社會的默認(rèn)設(shè)置。如果大家都覺得反正有AI,景區(qū)可能減少警示,管理部門可能放松安全提示,那危險就會成倍放大。技術(shù)越發(fā)達(dá),公共安全的兜底責(zé)任越容易被推卸。楊女士活著出來了,但如果她沒出來,追究責(zé)任的時候,AI公司會說僅供參考,景區(qū)會說她自己進(jìn)來的,最后沒人真正為這條命負(fù)責(zé)。
三、AI不知道你是誰,這是最要命的
同一個問題,附近適合走走的地方,問一個本地戶外愛好者和問一個剛落地三天的外國女性,答案應(yīng)該完全不同。但AI給的是同一個答案,因為它沒有我們是誰這個概念。
這就是AI的盲區(qū):看起來什么都知道,實際上對具體的地方、具體的人、具體的情況都不了解。一條信息原本是在特定場景下說的,被抽離出來重新組合后,意思可能就全變了。
對本地人而言,"野生動物保護(hù)區(qū)適合徒步"是有前提的:知道這里有蛇,要穿高幫靴,遇到響尾蛇該怎么應(yīng)對。但AI把這些前提全刪了,只把結(jié)論端給一個毫無準(zhǔn)備的人。這不是在傳遞信息,這是在誤導(dǎo)。
四、道歉不能代替責(zé)任
事后AI道歉了,甚至承認(rèn)這和送死沒有區(qū)別。但道歉不能抵消風(fēng)險,更不能替代責(zé)任。
![]()
目前幾乎所有AI服務(wù)條款都表示本回答僅供參考,不構(gòu)成專業(yè)建議。出了事你自己擔(dān)著。但問題是,當(dāng)用戶明確問安全嗎、適合嗎這類涉及人身風(fēng)險的詞時,平臺還能不能躲在免責(zé)聲明后面?
法律上,這觸及一個核心問題:AI建議到底算什么?是產(chǎn)品、服務(wù),還是純粹的信息發(fā)布?如果是產(chǎn)品,有缺陷導(dǎo)致人身傷害,生產(chǎn)者該擔(dān)責(zé);如果是服務(wù),提供者有過失也該賠;但如果只被定義為信息,那平臺幾乎可以為所欲為。
現(xiàn)在的尷尬在于,AI的產(chǎn)出既有產(chǎn)品的屬性,又有信息發(fā)布的屬性,法律還沒跟上這種新形態(tài)。楊女士的遭遇如果訴諸法庭,很可能陷入無人負(fù)責(zé)的困境:AI公司說只是工具,用戶只能自認(rèn)倒霉。
但社會不能總靠免責(zé)聲明來管理新技術(shù)。當(dāng)年汽車剛普及時,也沒有完善的交通法規(guī),是出了足夠多的血案之后,才倒逼出駕照制度、安全標(biāo)準(zhǔn)和責(zé)任認(rèn)定。AI現(xiàn)在走的,就是那條老路。區(qū)別在于,汽車撞人是一起一起的,AI誤導(dǎo)人是可以批量、同時、全球發(fā)生的。等法律完善的時候,中間還要出多少事,沒人知道。
五、幸運不能代替制度
楊女士最終沒事,靠的是運氣。但公共安全不能建立在運氣上。
真正該追問的是:保護(hù)區(qū)門口有沒有醒目的警示?當(dāng)?shù)赜袥]有把危險信息告訴AI平臺?AI在回答涉及人身安全的問題時,有沒有強(qiáng)制提醒?這些問題的答案大概率是沒有或者不完善。
![]()
一個系統(tǒng)性保護(hù)的缺位,被一個AI誤導(dǎo)的敘事輕輕蓋過去了。大家看完新聞,感慨一句AI真不靠譜,然后繼續(xù)該干嘛干嘛。但下次出事的,可能就不是楊女士了。
機(jī)器本身不危險,危險的是人把機(jī)器當(dāng)成不用思考的借口。AI不會消失,它會越來越深地嵌入生活。但前提是社會要建好配套的東西:安全兜底、責(zé)任劃分、公眾意識。否則,這次她活下來了,下次的人未必有這么好的運氣。
特別聲明:以上內(nèi)容(如有圖片或視頻亦包括在內(nèi))為自媒體平臺“網(wǎng)易號”用戶上傳并發(fā)布,本平臺僅提供信息存儲服務(wù)。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.