【作者】姚佳(法學(xué)博士,中國社會科學(xué)院法學(xué)研究所編審,中國社會科學(xué)院大學(xué)教授、博士生導(dǎo)師)
【來源】北大法寶法學(xué)期刊庫《法學(xué)論壇》2026年第3期(文末附本期期刊目錄)。因篇幅較長,已略去原文注釋。
![]()
內(nèi)容提要:生成式人工智能服務(wù)提供者注意義務(wù)的界定,是認(rèn)定侵權(quán)責(zé)任的核心前提。服務(wù)提供者因部署具有固有風(fēng)險(如“幻覺”現(xiàn)象)的人工智能系統(tǒng)而持續(xù)開啟風(fēng)險,且具備事實上的風(fēng)險控制能力而應(yīng)盡相應(yīng)注意義務(wù),履行該義務(wù)應(yīng)符合行為效益與風(fēng)險防范負(fù)擔(dān)之權(quán)衡原則。現(xiàn)行法相關(guān)規(guī)定及平臺用戶協(xié)議已設(shè)定了覆蓋內(nèi)容標(biāo)識、內(nèi)容安全管控、算法透明、數(shù)據(jù)質(zhì)量保障、個人信息保護(hù)等多維度義務(wù),侵權(quán)法中的交往安全義務(wù)在此難覓獨立的適用空間。過失認(rèn)定仍應(yīng)堅持以“理性人”標(biāo)準(zhǔn)為基石,但需將注意義務(wù)的適用范圍從單純的人類行為合理性拓展至“人機交互系統(tǒng)的整體安全性”,以契合技術(shù)特性與風(fēng)險結(jié)構(gòu)。據(jù)此,服務(wù)提供者的注意義務(wù)可類型化為技術(shù)特性維度的注意義務(wù)、提供服務(wù)過程中非技術(shù)維度的注意義務(wù)以及程序性的注意義務(wù)。這一分析框架在侵權(quán)法體系內(nèi)為過失認(rèn)定提供了類型化的判斷基準(zhǔn),有助于合理界定服務(wù)提供者的民事責(zé)任邊界,實現(xiàn)權(quán)益保障與行為自由的協(xié)調(diào)。
關(guān)鍵詞:生成式人工智能;服務(wù)提供者;注意義務(wù);“理性人”標(biāo)準(zhǔn);交往安全義務(wù)
目次 一、問題的提出 二、注意義務(wù)的產(chǎn)生基礎(chǔ) 三、注意義務(wù)的來源 四、注意義務(wù)的標(biāo)準(zhǔn):“理性人”標(biāo)準(zhǔn)抑或新的“合理的人工智能”標(biāo)準(zhǔn)? 五、注意義務(wù)的類型化 結(jié)語
一
問題的提出
生成式人工智能是指具有文本、圖片、音頻、視頻等內(nèi)容生成能力的模型及相關(guān)技術(shù),旨在通過學(xué)習(xí)大量數(shù)據(jù)的分布,捕捉數(shù)據(jù)的內(nèi)在特征和模式,在保持?jǐn)?shù)據(jù)分布一致性的基礎(chǔ)上進(jìn)行新內(nèi)容的生成。近年來,這一技術(shù)從實驗室研究躍升為備受學(xué)術(shù)界與產(chǎn)業(yè)界高度關(guān)注的戰(zhàn)略性前沿議題,以 ChatGPT為代表的大語言模型實現(xiàn)了現(xiàn)象級突破,并在軟件開發(fā)、科學(xué)研究、金融和醫(yī)療等多個領(lǐng)域得到廣泛應(yīng)用。生成式人工智能的技術(shù)架構(gòu)主要包括提供算力支撐的計算硬件層、云計算平臺層、涵蓋基礎(chǔ)與精調(diào)模型的模型層以及面向終端用戶的應(yīng)用層。基于該技術(shù)架構(gòu),相關(guān)主體涵蓋提供算力基礎(chǔ)設(shè)施的芯片制造商與智算中心運營商、提供分布式計算與存儲服務(wù)的云服務(wù)商、從事基礎(chǔ)模型研發(fā)與領(lǐng)域精調(diào)的模型開發(fā)方,以及面向終端用戶提供服務(wù)的服務(wù)提供者(基于商用閉源或開源路徑開展產(chǎn)品創(chuàng)新的應(yīng)用開發(fā)者與平臺運營方),并延伸至最終用戶、數(shù)據(jù)采集與標(biāo)注服務(wù)商、模型分發(fā)平臺運營方等多元主體。這些主體在基礎(chǔ)設(shè)施支持、數(shù)據(jù)治理、模型優(yōu)化、平臺分發(fā)及內(nèi)容應(yīng)用環(huán)節(jié)面臨差異化的技術(shù)風(fēng)險與法律責(zé)任分配。就技術(shù)風(fēng)險而言,如美國《人工智能風(fēng)險管理框架》Artificial Intelligence Risk Management Framework (AI RMF 1.0)中指出的,與傳統(tǒng)軟件相比,人工智能特有的新發(fā)或增加的風(fēng)險包括以下內(nèi)容:在數(shù)據(jù)層面,存在質(zhì)量缺陷(不真實、有偏見)、強依賴性、時效性脫節(jié)等情形;在系統(tǒng)層面,存在超大規(guī)模復(fù)雜性(數(shù)十億決策點)、透明度與可重復(fù)性不足等問題;在模型層面,存在訓(xùn)練過程敏感擾動、預(yù)訓(xùn)練模型統(tǒng)計不確定性及突發(fā)屬性等問題;在工程層面,存在測試標(biāo)準(zhǔn)缺失、難以規(guī)范記錄與驗證等情形;在運維層面,存在數(shù)據(jù)、模型、概念漂移導(dǎo)致頻繁維護(hù)困難;以及存在其他包括隱私泄露、環(huán)境影響和副作用不可預(yù)測等衍生風(fēng)險。就法律責(zé)任而言,依“產(chǎn)品—服務(wù)”二分法,以及各主體在技術(shù)架構(gòu)中的功能定位、風(fēng)險控制能力、注意義務(wù)程度及風(fēng)險收益配比上的差異,基于責(zé)任與風(fēng)險匹配原則,理論上以及法律適用上能夠形成從嚴(yán)格責(zé)任到過錯責(zé)任的梯度化歸責(zé)體系。
近年來域內(nèi)外有關(guān)生成式人工智能案例,均聚焦于服務(wù)提供者的注意義務(wù)。國內(nèi)典型案例如“奧特曼”案、AI 合成聲音侵權(quán)案、AI“幻覺”侵權(quán)案;域外典型案例如美國紐約時報訴微軟公司案(The New York Times Co. v. Microsoft Corp.)、“首例 AI 誹謗案”沃爾特斯訴 OpenAI 公司案(Walters v. OpenAI LLC)、斯塔巴克訴 Google 案(Starbuck v. Google LLC)等等。這些案件都聚焦于服務(wù)提供者對于生成內(nèi)容究竟是應(yīng)盡結(jié)果性義務(wù)還是方式性義務(wù),或者從源頭上對數(shù)據(jù)、算法和模型等應(yīng)盡何種義務(wù),這些問題不僅涉及服務(wù)提供者的民事責(zé)任,同時也涉及不同主體之間的風(fēng)險與責(zé)任分配。
目前,國內(nèi)有關(guān)生成式人工智能服務(wù)提供者的注意義務(wù)亦形成不同觀點。有論者認(rèn)為,服務(wù)提供者的注意義務(wù),應(yīng)以平臺技術(shù)中立原則為基礎(chǔ),以行業(yè)通行的技術(shù)水平和技術(shù)標(biāo)準(zhǔn)為參照,合理設(shè)定與其信息交互服務(wù)相關(guān)以及信息管理能力相適應(yīng)的注意義務(wù),主要包括數(shù)據(jù)來源的合規(guī)義務(wù)、內(nèi)容服務(wù)的專業(yè)義務(wù)和風(fēng)險管理義務(wù)等。有論者認(rèn)為,服務(wù)提供者的注意義務(wù)應(yīng)按照時序維度下生成式人工智能的運行階段進(jìn)行設(shè)置,包括事前防范規(guī)則,即語料提供者提供語料的安全性審查和模型訓(xùn)練者訓(xùn)練模型的安全性審查;事中干預(yù)規(guī)則,即對高危用戶的行為的監(jiān)控義務(wù)和對生成內(nèi)容的風(fēng)險提示義務(wù);事后處置規(guī)則,即對人工智能生成內(nèi)容的強制標(biāo)識和建立對違法不良內(nèi)容的投訴舉報反饋機制。有論者認(rèn)為,在“采用行業(yè)通行技術(shù)措施”和“服務(wù)功能與合同目的相一致”認(rèn)定標(biāo)準(zhǔn)基礎(chǔ)上,結(jié)合注意義務(wù)的功能目的,生成式人工智能服務(wù)提供者負(fù)有服務(wù)功能可靠性的基本保障義務(wù)、服務(wù)功能的顯著提示說明義務(wù)和生成內(nèi)容信息來源提示義務(wù)等注意義務(wù)。在國內(nèi)首例生成式人工智能“幻覺”引發(fā)的侵權(quán)訴訟案件中,法院采用動態(tài)系統(tǒng)論,認(rèn)為服務(wù)提供者應(yīng)盡三層注意義務(wù):一是對法律禁止的“有毒”、有害、違法信息,負(fù)有嚴(yán)格審查義務(wù);二是應(yīng)盡服務(wù)功能的顯著提示說明義務(wù);三是應(yīng)盡功能可靠性的注意義務(wù)。還有論者認(rèn)為,服務(wù)提供者對著作權(quán)侵權(quán)的注意義務(wù),應(yīng)當(dāng)遵循客觀標(biāo)準(zhǔn)與動態(tài)標(biāo)準(zhǔn),結(jié)合既有技術(shù)水平、侵權(quán)危害程度、內(nèi)容管理能力等因素,包括數(shù)據(jù)來源合法義務(wù)、算法優(yōu)化訓(xùn)練義務(wù)和監(jiān)督用戶合規(guī)使用義務(wù)。亦有論者提出,服務(wù)提供者的注意義務(wù)在風(fēng)險預(yù)防層、風(fēng)險控制層和風(fēng)險處置層分別具有不同的義務(wù);以及主要應(yīng)構(gòu)建和落實以生成內(nèi)容的標(biāo)識義務(wù)、使用服務(wù)的提示義務(wù)以及侵權(quán)投訴為主的注意義務(wù)體系等。以上這些理論與實務(wù)觀點,均針對生成式人工智能的技術(shù)特點、行業(yè)通用水平、風(fēng)險特征和服務(wù)特性設(shè)定服務(wù)提供者的合理注意義務(wù),較為全面系統(tǒng),為制度建構(gòu)和司法實踐提供了重要參考,也有助于在鼓勵技術(shù)創(chuàng)新與防范潛在風(fēng)險之間實現(xiàn)平衡。
本文擬在現(xiàn)有理論與司法實踐的基礎(chǔ)上,進(jìn)一步探討生成式人工智能服務(wù)提供者的注意義務(wù)。從理論框架而言,服務(wù)提供者的注意義務(wù)應(yīng)置于傳統(tǒng)過失法理論和生成式人工智能服務(wù)特性的雙重視角下探討。注意義務(wù)(duty of care)是英美侵權(quán)法中過失侵權(quán)(negligence)的核心構(gòu)成要件和基石概念。英國上議院阿特金勛爵(Lord Atkin)在 Donoghue v. Stevenson 案(1932)中的經(jīng)典論述,確立了現(xiàn)代過失侵權(quán)法中的“鄰人原則”(Neighbour Principle),即“你不得損害你的鄰人”。在該原則中,確立了注意義務(wù)(duty of care)產(chǎn)生的可預(yù)見性標(biāo)準(zhǔn)。那么,誰又是生成式人工智能服務(wù)提供者的“鄰人”呢?從法益角度而言,任何因使用生成式人工智能服務(wù)可能對其權(quán)益造成損害的主體均屬于“鄰人”范疇。具言之,“鄰人”是指可以合理預(yù)見到其權(quán)益將因服務(wù)提供者的行為而受到不利影響的主體,包括但不限于用戶、相關(guān)著作權(quán)人、相關(guān)數(shù)據(jù)主體或其他可能受到不利影響的主體等。但是,與傳統(tǒng)的基于物理意義上的鄰人原則(如火車站臺上爆炸物所及范圍、交通安全、職業(yè)或營業(yè)活動以及合同性的保護(hù)義務(wù)等等)相比,生成式人工智能服務(wù)欠缺了一般意義上的物理范疇或者一個法定的在先關(guān)系,而是自互聯(lián)網(wǎng)技術(shù)出現(xiàn)以來,各類互聯(lián)網(wǎng)服務(wù)提供者(包括互聯(lián)網(wǎng)平臺、搜索引擎、人工智能服務(wù)提供者等)所提供的服務(wù),均依托于特定發(fā)展階段下具有同質(zhì)性或相似性的通用技術(shù)。在同一技術(shù)發(fā)展階段(即“現(xiàn)有技術(shù)水平”)的前提下,相關(guān)主體可能基于法律規(guī)定、監(jiān)管要求、平臺用戶協(xié)議約定,或結(jié)合個案與實際場景,被課以相應(yīng)的注意義務(wù)。故此,這一邏輯鏈條就與傳統(tǒng)的注意義務(wù)有所不同,傳統(tǒng)的注意義務(wù)呈現(xiàn)為“個案化”特色,在不同個案中會形成不同的注意義務(wù),確定被告是否負(fù)有相應(yīng)注意義務(wù)以及注意義務(wù)的范圍和邊界。然而,生成式人工智能服務(wù)提供者的注意義務(wù)卻因技術(shù)發(fā)展的階段性表現(xiàn)為相對“標(biāo)準(zhǔn)化”的注意義務(wù),例如事先可預(yù)見并設(shè)定的標(biāo)識義務(wù)、提示義務(wù)、保障基本與適當(dāng)技術(shù)功能的義務(wù)以及舉報反饋機制等等,雖然這些義務(wù)可能是事后認(rèn)定,但是其往往是法律規(guī)定、監(jiān)管要求或者行業(yè)通識性做法,而嚴(yán)格意義上的基于交往而形成的注意義務(wù)較難尋找或者抽象提煉。在此基礎(chǔ)上,本文擬進(jìn)一步細(xì)化討論哪些問題可能會影響服務(wù)提供者的注意義務(wù)的設(shè)定,并影響相應(yīng)民事責(zé)任的承擔(dān)。
二
注意義務(wù)的產(chǎn)生基礎(chǔ)
之所以產(chǎn)生生成式人工智能服務(wù)提供者的注意義務(wù),一方面是因為生成式人工智能技術(shù)本身的固有風(fēng)險,如系統(tǒng)、模型、工程等方面,本身就具有受“現(xiàn)有技術(shù)水平”限制所不可克服的風(fēng)險;另一方面則是因為服務(wù)提供者在服務(wù)提供過程中可能存在的數(shù)據(jù)、著作權(quán)合規(guī)、生成內(nèi)容等風(fēng)險。服務(wù)提供者向公眾提供該項服務(wù),實質(zhì)上是制造并開啟了一個可能自主生成虛假信息、有害內(nèi)容的特定風(fēng)險源,作為該風(fēng)險源的開啟者和維持者,服務(wù)提供者也具有相較其他主體而言最強的風(fēng)險控制能力,故此應(yīng)承擔(dān)相應(yīng)風(fēng)險防范等注意義務(wù)。囿于技術(shù)發(fā)展水平的階段性局限,以及行業(yè)創(chuàng)新發(fā)展所需,應(yīng)在服務(wù)提供者的行為效益與防范負(fù)擔(dān)之間進(jìn)行權(quán)衡,以實現(xiàn)各方主體利益的合理平衡與風(fēng)險的有效分配。
(一)風(fēng)險開啟
生成式人工智能作為一種技術(shù),其本身具有數(shù)據(jù)偏見、人工智能系統(tǒng)的“黑箱性”、不可解釋和不可控等風(fēng)險。歐盟《人工智能法》(AI Act)采用風(fēng)險分級、分類監(jiān)管框架,將人工智能系統(tǒng)按照對人類健康、安全與基本權(quán)利的潛在損害程度,劃分為不可接受風(fēng)險(禁止)、高風(fēng)險(嚴(yán)格合規(guī))、有限風(fēng)險(透明度義務(wù))和最小風(fēng)險(無額外義務(wù))四級,風(fēng)險越高,監(jiān)管越嚴(yán)格。盡管各界對于法案以風(fēng)險為依據(jù)進(jìn)行分類是否科學(xué)存在一定批評,但至少“風(fēng)險進(jìn)路”是一個重要的理解維度。例如,美國《人工智能風(fēng)險管理框架》中指出,人工智能系統(tǒng)的最終用戶是指為特定目的使用該系統(tǒng)的個人或群體。這些個人或群體在特定情境下與人工智能系統(tǒng)進(jìn)行交互。終端用戶的技術(shù)能力水平參差不齊,從人工智能專家到初次接觸技術(shù)的普通用戶均有涵蓋。面對如此眾多的用戶,無論是技術(shù)的風(fēng)險還是服務(wù)可能產(chǎn)生的風(fēng)險,均可能對用戶和其他相關(guān)主體產(chǎn)生不利影響,風(fēng)險開啟由此而來。
如克雷斯蒂安·馮·巴爾(Christion von Bar)所言,一個被廣泛接受,甚至已被成文法所規(guī)定的法治觀念是:不當(dāng)行為責(zé)任,要么是作為責(zé)任要么是不作為責(zé)任。這一“兩分體系”的主要目的是避免歸責(zé)中的一些問題。概括而言,作為就是指侵權(quán)行為人在受害人的法益上制造了危險;不作為則是指未排除威脅到受害人的危險。再精準(zhǔn)一點講就是:在作為行為中被主張權(quán)利者自己啟動了具有法律意義的因果鏈;而在不作為中則是未中斷這一因果鏈。但是,將一個行為歸類到作為或不作為絕非僅是簡單的一對一關(guān)系,因為這一歸類直接關(guān)系到賠償責(zé)任認(rèn)定中原則與例外的適用。一個人對于沒有他的作用力而發(fā)生在別人身上的事件就無須承擔(dān)責(zé)任,除非他和受害者之間有特別的緊密關(guān)系,或者他對導(dǎo)致?lián)p害發(fā)生的危險源負(fù)有特別責(zé)任。
“風(fēng)險開啟說”的理論原型可溯至德國法上的“交往安全義務(wù)(Verkehrsspflicht)”中的“危險開啟或支配”理論。交往安全義務(wù)的功能在于擴大不作為的侵權(quán)行為,即于法定、契約、先行為義務(wù)所發(fā)生的作為義務(wù)之外,更使其他開啟或持續(xù)危險之人負(fù)有作為義務(wù),使違反安全義務(wù)的不作為等同作為而構(gòu)成侵權(quán)行為。德國法上也在嘗試塑造“除以保護(hù)他人為目的之法律、法典中(分量較少)的侵權(quán)行為法部分、損害賠償法及根源于法官造法的普通法之‘有名侵權(quán)’以外,各國都有進(jìn)一步為侵權(quán)行為法所特有的‘規(guī)范發(fā)生器’:一般注意義務(wù)”。當(dāng)然,亦有論者指出,“一般交往安全義務(wù)說”非德國法學(xué)界的通說。大部分學(xué)者不承認(rèn)交往安全義務(wù)可充當(dāng)一般注意義務(wù),主張唯其類型化后方能確定義務(wù)內(nèi)容。后經(jīng)法院通過“枯樹案”等裁判將其類型化為物件型(基于危險源支配)與債因型(基于合同關(guān)系擴張)兩種基本義務(wù)形態(tài)。二者的區(qū)別也較為明顯:物件型交往安全義務(wù)是危險先導(dǎo),由危險決定交往范圍;而債因型的交往安全義務(wù)是交往先導(dǎo),由交往決定危險范圍。由此可見,交往安全義務(wù)更強調(diào)物理意義上的“危險”,并且只能在個案中判斷。但是直至近年來的互聯(lián)網(wǎng)平臺、人工智能領(lǐng)域,物理意義上的危險式微,逐漸以“風(fēng)險”代之。但是,二者在理論原理上相似,即對于開啟或持續(xù)風(fēng)險之主體,使其承擔(dān)保護(hù)他人之義務(wù)。此處需強調(diào)的是,本文所討論的注意義務(wù)實際上是概括地包括法定、契約、先行為義務(wù)和交往安全義務(wù)在內(nèi)的服務(wù)提供者應(yīng)負(fù)之義務(wù),并非僅僅等同于德國法上的交往安全義務(wù)。
基于傳統(tǒng)理論上對風(fēng)險(危險)開啟的界定以及生成式人工智能的風(fēng)險特征,服務(wù)提供者開啟的風(fēng)險主要包括以下兩方面:其一,技術(shù)自身固有缺陷或局限帶來的風(fēng)險。作為以生成和輸出內(nèi)容為主要功能的技術(shù),其算法生成技術(shù)面對一定“技術(shù)黑箱”,故生成過程較難回溯,只能依據(jù)輸出內(nèi)容來判斷。由于生成的內(nèi)容具有概率性和創(chuàng)造性,同一提示詞可能產(chǎn)生截然不同的結(jié)果。實踐中,用戶或開發(fā)者難以理解模型是如何得出某個生成結(jié)果的,這不僅增加了使用的難度,也帶來了安全風(fēng)險。特別是在生成醫(yī)療、法律或金融等敏感領(lǐng)域的內(nèi)容時,生成式人工智能的不可解釋性可能導(dǎo)致決策失誤。這也就是在前述國內(nèi)和域外的“AI 幻覺”案例中,服務(wù)提供者不承擔(dān)責(zé)任的技術(shù)上的根本原因。總之,服務(wù)提供者首先開啟并持續(xù)的是由技術(shù)自身局限所引致的風(fēng)險。其二,基于“提供服務(wù)”而開啟和持續(xù)的風(fēng)險。服務(wù)提供者除提供模型之外,對于模型語料的使用等可能面臨數(shù)據(jù)治理瑕疵與授權(quán)鏈條缺陷等“軟風(fēng)險”。此類風(fēng)險并非技術(shù)固有缺陷,而是服務(wù)提供者在數(shù)據(jù)采集、處理及內(nèi)容生成過程中違反法定或約定義務(wù),導(dǎo)致侵害他人合法權(quán)益。在數(shù)據(jù)質(zhì)量維度,訓(xùn)練數(shù)據(jù)的真實性、準(zhǔn)確性及完整性缺陷可能導(dǎo)致輸出內(nèi)容不真實,引發(fā)虛假信息傳播風(fēng)險。在著作權(quán)維度,未經(jīng)授權(quán)使用受版權(quán)保護(hù)的作品進(jìn)行模型訓(xùn)練,構(gòu)成對權(quán)利人復(fù)制權(quán)、改編權(quán)等財產(chǎn)權(quán)益的侵害。在個人信息保護(hù)維度,未獲有效同意處理個人信息,或違反目的限制原則、最小必要原則,侵害個人信息權(quán)益。在人格權(quán)維度,生成內(nèi)容可能未經(jīng)許可使用他人肖像、聲音,或生成虛假信息貶損他人名譽,侵害肖像權(quán)、聲音權(quán)、名譽權(quán)等人格權(quán)益。總之,此類風(fēng)險的特殊性在于,其發(fā)生不依賴于技術(shù)故障,而取決于服務(wù)提供者是否遵守法律、約定及內(nèi)部治理規(guī)范,諸如是否建立全生命周期的數(shù)據(jù)治理體系和權(quán)利審查機制等。但從風(fēng)險維度而言,這是基于“提供服務(wù)”而開啟和持續(xù)的風(fēng)險本質(zhì)上仍屬行為風(fēng)險而非技術(shù)風(fēng)險,即因服務(wù)提供者的不當(dāng)行為或自身疏忽所致,而非算法或模型的固有缺陷引發(fā)。
(二)風(fēng)險控制能力
在服務(wù)提供者開啟風(fēng)險的基礎(chǔ)上,如何識別風(fēng)險并增強對風(fēng)險的控制能力,在邏輯上是融貫的。但是對于“風(fēng)險”這個前置性概念,仍有必要進(jìn)一步辨析。在侵權(quán)法上,“風(fēng)險”是指行為人行為所造成的可預(yù)見風(fēng)險的總體水平。風(fēng)險的概念必然包含一種可識別的危險,該危險基于對現(xiàn)有事實的某種認(rèn)知,以及某種傷害可能隨之發(fā)生的合理信念。為此目的,風(fēng)險可被定義為對處于行為人位置的人而言是明顯的或應(yīng)當(dāng)是明顯的危險。行為人的行為必須根據(jù)其在當(dāng)時明顯可見的可能性來評判,而非通過“事后聰明”而向前審視。該標(biāo)準(zhǔn)是一種行為標(biāo)準(zhǔn),而非結(jié)果標(biāo)準(zhǔn)。如果風(fēng)險在行為發(fā)生時并不明顯,那么僅僅因為事后所有人都能看出風(fēng)險很大是不夠的。鑒于該可識別的風(fēng)險,該行為若要構(gòu)成過失,必須是不合理的。“可預(yù)見的風(fēng)險是確定過失有無的一個因素。要判斷是否已行使恰當(dāng)關(guān)注,事實裁定者必須對被告實施‘過失’時的可預(yù)見風(fēng)險進(jìn)行評估。可預(yù)見風(fēng)險的范圍要看案件的具體事實情形,且無法對一整類案件進(jìn)行有效評估;事實情形稍加變化,可預(yù)見的風(fēng)險就可能發(fā)生巨大變化。因此,……法院應(yīng)當(dāng)將該問題留給陪審團裁定,除非理智之人對此絕無分歧。”可預(yù)見性判斷的是風(fēng)險類型而非具體損害。例如,在美國著名的 Palsgraf v. Long Island Railroad Company 案中,鐵路公司雇員協(xié)助乘客時包裹掉落爆炸致原告受傷,初審及上訴庭均判被告賠償,但紐約上訴法院最終以4∶3推翻原判,認(rèn)定被告對不可預(yù)見的損害不承擔(dān)責(zé)任。該案中,上訴法院多數(shù)法官認(rèn)為,“應(yīng)當(dāng)預(yù)防的合理風(fēng)險界定了應(yīng)當(dāng)遵守的義務(wù),而風(fēng)險意味著關(guān)聯(lián);它是指對他人或在可預(yù)見范圍內(nèi)對其他人的風(fēng)險。”在該案中,多數(shù)法官認(rèn)為,被告并不負(fù)有對原告安全盡到最高程度的注意義務(wù)。就上述內(nèi)容,可總結(jié)出“風(fēng)險”的幾個關(guān)鍵要素:風(fēng)險是可識別、可預(yù)見、客觀的、關(guān)聯(lián)的,應(yīng)事前預(yù)見而非事后審視,否則其并非法律意義上的風(fēng)險。
風(fēng)險控制能力所要討論的問題是有能力控制以及如何控制的問題。一個自然的邏輯推演——注意義務(wù)的邊界應(yīng)當(dāng)與服務(wù)提供者對風(fēng)險的控制能力相匹配,控制能力越強,注意義務(wù)越重;控制能力越弱,注意義務(wù)越輕。但果真如此嗎?服務(wù)提供者的控制能力是一般性、概括性的還是在“個案”中也依然能對特定侵權(quán)內(nèi)容產(chǎn)生預(yù)見而精準(zhǔn)控制?顯然,這個問題仍有必要進(jìn)一步討論。
從技術(shù)角度而言,生成式人工智能體現(xiàn)出較強的“涌現(xiàn)能力”。但凡存在復(fù)雜系統(tǒng),涌現(xiàn)現(xiàn)象就可能發(fā)生,其意義在于出現(xiàn)了一個超乎人們想象的現(xiàn)象或結(jié)果。這也意味著,在結(jié)果上,大模型可能產(chǎn)生訓(xùn)練時未曾預(yù)期的輸出,這個結(jié)果可能是好的,也可能是被負(fù)面評價的“幻覺”。從上述技術(shù)自身固有缺陷或局限帶來的風(fēng)險而言,服務(wù)提供者對風(fēng)險的控制只能是盡可能地提高技術(shù)水平,但是這個技術(shù)水平也受到現(xiàn)有科技發(fā)展階段的客觀限制。亦如有論者指出,對于因虛假信息構(gòu)成侵權(quán)的服務(wù)提供者,應(yīng)判斷其是否盡到了現(xiàn)有技術(shù)條件下最大的注意義務(wù)。可見,控制能力與注意義務(wù)之間的關(guān)系首先受“現(xiàn)有技術(shù)條件”限制。
就基于“提供服務(wù)”而開啟和持續(xù)的風(fēng)險的控制而言,其涉及技術(shù)設(shè)計、技術(shù)運行和技術(shù)后果等不同維度風(fēng)險的控制能力,這些控制能力與上述科技發(fā)展階段的技術(shù)水平不同。對于技術(shù)設(shè)計風(fēng)險的控制能力,通常指向服務(wù)提供者在模型架構(gòu)、訓(xùn)練數(shù)據(jù)、安全對齊機制等方面的控制能力;技術(shù)運行風(fēng)險的控制能力,則指向服務(wù)提供者在內(nèi)容生成過程中的干預(yù)能力,包括相應(yīng)敏感詞等輸入過濾或者隱私、敏感信息或事件方面的輸出審核等;技術(shù)后果風(fēng)險的控制能力,則指向服務(wù)提供者在侵權(quán)發(fā)生后的控制能力,也就是通常的“通知—刪除”規(guī)則,如刪除、屏蔽、斷開鏈接等。
以上分析可見,服務(wù)提供者有能力控制風(fēng)險,但是這些風(fēng)險一方面包括較為概括的由技術(shù)發(fā)展水平限制的風(fēng)險,另一方面則包括對于“軟風(fēng)險”在內(nèi)的不同維度的風(fēng)險控制。但是這種風(fēng)險控制與傳統(tǒng)上注意義務(wù)案例中的一系列風(fēng)險的可預(yù)見性不同,其對于特定侵權(quán)內(nèi)容僅具有統(tǒng)計意義上的“一般性預(yù)見”,而并非如交通安全、職業(yè)活動中的相對特定性內(nèi)容的預(yù)見。當(dāng)然,控制能力本身具有動態(tài)性,其隨著技術(shù)進(jìn)步,原本不可控的風(fēng)險可能會變得可控,注意義務(wù)的內(nèi)容也應(yīng)作相應(yīng)調(diào)整。
(三)行為效益與風(fēng)險防范負(fù)擔(dān)之權(quán)衡
服務(wù)提供者雖然開啟風(fēng)險并具有控制風(fēng)險的能力,但是其負(fù)有注意義務(wù)并防范風(fēng)險并非無限度、無條件的,而應(yīng)在合理范圍內(nèi)與其技術(shù)能力、行業(yè)水平及成本收益相適應(yīng)。美國《侵權(quán)法重述(第三版)》(Restatement of Torts, Third Edition)對“過失”概念進(jìn)行解析時指出,概念中暗示了一種過失的“風(fēng)險—利益測試”,“風(fēng)險”是指行為人行為所造成的可預(yù)見風(fēng)險的總體水平,而“利益”是行為人或其他人因行為人不去采取預(yù)防措施而得到的益處。風(fēng)險與利益的平衡是過失之“權(quán)衡進(jìn)路”,這一進(jìn)路基于并表達(dá)了一種簡單的理念——如果行為的壞處大于其益處,那么該行為存在過失;反之則否。這里的壞處是指行為所導(dǎo)致的風(fēng)險程度。行為的“益處”則與風(fēng)險防范的負(fù)擔(dān)相關(guān),當(dāng)行為人拒絕采納某種防范措施時即避免了該負(fù)擔(dān)。在很多案件中,它是一種經(jīng)濟負(fù)擔(dān),最初由行為人承受,隨后又被實質(zhì)性地轉(zhuǎn)移到其顧客身上。這種權(quán)衡更多是在個案中適用,但是其原理和思路同樣可適用于生成式人工智能領(lǐng)域。
生成式人工智能服務(wù)提供者從其行為中獲益。具體而言,服務(wù)提供者通過模型訓(xùn)練與數(shù)據(jù)價值挖掘,實現(xiàn)內(nèi)容生成效率躍升,降低信息生產(chǎn)邊際成本,并依托技術(shù)輸出、服務(wù)訂閱、API 接口調(diào)用等商業(yè)模式獲取直接經(jīng)濟收益;同時,其通過拓展應(yīng)用場景、提升用戶規(guī)模與市場占有率,強化數(shù)據(jù)優(yōu)勢與算法能力,獲得競爭優(yōu)勢并獲取經(jīng)濟效益。
與獲益相對應(yīng),服務(wù)提供者需承擔(dān)風(fēng)險防范義務(wù)。具體而言,服務(wù)提供者對模型具有控制能力,通過調(diào)整模型參數(shù)、訓(xùn)練數(shù)據(jù)集以及對生成內(nèi)容進(jìn)行監(jiān)控、篩選等方式有效管控風(fēng)險,因此有義務(wù)采取預(yù)防措施防止損害發(fā)生。其風(fēng)險防范成本包括建立安全審核、數(shù)據(jù)治理及風(fēng)險預(yù)警機制,通過設(shè)計相關(guān)制度和防范措施,規(guī)制算法偏見、數(shù)據(jù)泄露、內(nèi)容侵權(quán)等潛在風(fēng)險;同時,其需履行數(shù)據(jù)溯源、獲得合法授權(quán)及生成內(nèi)容標(biāo)識等義務(wù),防范因數(shù)據(jù)瑕疵或授權(quán)缺陷導(dǎo)致的權(quán)益侵害,以平衡技術(shù)創(chuàng)新與法益保護(hù)的關(guān)系。但同時也應(yīng)注意的是,其防范成本并非無限制。由于生成式人工智能面向海量用戶提供實時交互服務(wù),要求提供者對所有輸出進(jìn)行人工審核在經(jīng)濟上不可行,若采用傳統(tǒng)出版者的高強度注意標(biāo)準(zhǔn),也不符合技術(shù)發(fā)展和實際情況,就好比要求其窮盡所有措施而完全不產(chǎn)生“幻覺”并不切實際。
基于行為的社會價值的考量。如普洛瑟(William L. Prosser)曾指出,在每一案件中,都必須將該風(fēng)險的概率與嚴(yán)重性,與所涉行為類型的效用進(jìn)行權(quán)衡。問題在于“這是否值得”。雖然許多風(fēng)險是由簡單的粗心大意造成的,但許多其他風(fēng)險是在社會完全認(rèn)可的情況下可以被合理地承受的。必須考慮的因素中,最重要的是行為人所追求的利益的社會價值。大模型也能夠產(chǎn)生社會效益。例如,大模型能夠提升信息生產(chǎn)效率與知識獲取的便利性,推動各行業(yè)智能化轉(zhuǎn)型與產(chǎn)業(yè)升級,并且通過技術(shù)廣泛應(yīng)用解決社會復(fù)雜問題,如醫(yī)療診斷、科學(xué)研究和公共治理等,這些最終都能實現(xiàn)社會整體福利的增進(jìn)。故此,對于服務(wù)提供者,應(yīng)在其行為效益與風(fēng)險防范負(fù)擔(dān)之間進(jìn)行權(quán)衡,并考量技術(shù)進(jìn)步所帶來的整體社會增益,從而使其風(fēng)險防范負(fù)擔(dān)限定于合理范圍,既與其技術(shù)能力及發(fā)展階段相適應(yīng),又符合成本收益比例原則,而非課以超越現(xiàn)有技術(shù)水平或必要成本的不當(dāng)負(fù)擔(dān)。
三
注意義務(wù)的來源
注意義務(wù)的來源是確定注意義務(wù)范圍的直接依據(jù)與邏輯前提,不同的義務(wù)來源決定了義務(wù)內(nèi)容、強度及邊界的認(rèn)定。注意義務(wù)的產(chǎn)生基于誠實信用原則,但是其范圍已經(jīng)超越了該原則的范圍,因為其還具有保護(hù)他人的義務(wù)。而且這一義務(wù)的產(chǎn)生也是社會正常秩序的一般要求,是法的正義價值、秩序價值的具體體現(xiàn)。注意義務(wù)的產(chǎn)生依據(jù)在于社會規(guī)則,包括法律規(guī)則和非法律規(guī)則。具體包括制定法、技術(shù)性規(guī)范(也包括特定職業(yè)、行業(yè)的操作慣例)、習(xí)慣和常理、合同或者委托和先行行為等。根據(jù)生成式人工智能特性和行業(yè)慣例,以下主要討論服務(wù)提供者在現(xiàn)行法體系下、用戶協(xié)議約定和交往安全義務(wù)等三個主要方面。
(一)現(xiàn)行法
現(xiàn)行法規(guī)范體系下,生成式人工智能服務(wù)提供者的注意義務(wù)源于法律、行政法規(guī)及部門規(guī)章等多重來源,構(gòu)成其義務(wù)邊界與責(zé)任認(rèn)定的規(guī)范基礎(chǔ)。
在法律層面,《民法典》第1165條確立一般侵權(quán)責(zé)任,為服務(wù)提供者設(shè)定不得侵害他人民事權(quán)益的基本注意義務(wù);第1018條、第1024條要求防范生成內(nèi)容對他人肖像權(quán)、名譽權(quán)的侵害;第1034條至第1039條規(guī)定要求訓(xùn)練數(shù)據(jù)和用戶輸出端防止對個人信息權(quán)益的侵害;第1194條至第1197條關(guān)于網(wǎng)絡(luò)侵權(quán)責(zé)任的規(guī)定,也存在類推適用的空間。《個人信息保護(hù)法》第5條至第9條確立合法、正當(dāng)、必要等處理原則,第13條要求確保個人信息處理具有合法性基礎(chǔ),其他各條也系統(tǒng)性地規(guī)定了服務(wù)提供者作為信息處理者應(yīng)當(dāng)遵守相應(yīng)的義務(wù),也是注意義務(wù)的基礎(chǔ)。《著作權(quán)法》第3條、第10條、第52條、第條、第54條等要求服務(wù)提供者審查作品來源合法性,保護(hù)他人的著作權(quán)。《網(wǎng)絡(luò)安全法》第21條、第22條、第40條至第42條分別明確網(wǎng)絡(luò)安全等級保護(hù)義務(wù)、網(wǎng)絡(luò)產(chǎn)品與服務(wù)的安全保障義務(wù)以及要求網(wǎng)絡(luò)運營者依法處理并嚴(yán)格保護(hù)用戶個人信息。《數(shù)據(jù)安全法》第27條、第29條、第30條分別要求數(shù)據(jù)處理者建立健全全流程數(shù)據(jù)安全管理制度、加強風(fēng)險監(jiān)測與安全事件應(yīng)急處置,重要數(shù)據(jù)處理者應(yīng)定期開展風(fēng)險評估。
《生成式人工智能服務(wù)管理暫行辦法》系統(tǒng)構(gòu)建了服務(wù)提供者的注意義務(wù)體系,貫穿風(fēng)險預(yù)防與過程管控的治理理念與要求。該辦法第4條確立基本原則,要求服務(wù)提供者在技術(shù)研發(fā)、數(shù)據(jù)訓(xùn)練、模型優(yōu)化、服務(wù)提供等全過程中,采取有效措施防范歧視、虛假有害信息,保障知識產(chǎn)權(quán)與個人信息權(quán)益。第7條明確訓(xùn)練數(shù)據(jù)合法來源的注意義務(wù),要求使用具有合法來源的數(shù)據(jù)和基礎(chǔ)模型,涉及知識產(chǎn)權(quán)的不得侵害他人權(quán)利,涉及個人信息的應(yīng)當(dāng)取得個人同意或符合法定情形。第8條規(guī)定數(shù)據(jù)標(biāo)注義務(wù),要求規(guī)范標(biāo)注規(guī)則、開展質(zhì)量評估并加強人員培訓(xùn)。第9條課以服務(wù)提供者作為網(wǎng)絡(luò)信息內(nèi)容生產(chǎn)者與個人信息處理者的雙重責(zé)任。第10條要求采取措施防范未成年人過度依賴或沉迷生成內(nèi)容。第11條明確使用者信息保護(hù)義務(wù),不得收集非必要個人信息,不得非法留存能夠識別使用者身份的相關(guān)信息。第12條確立生成內(nèi)容標(biāo)識義務(wù)。第14條規(guī)定內(nèi)容審核與應(yīng)急處置注意義務(wù),要求發(fā)現(xiàn)違法內(nèi)容時及時采取停止生成、消除等處置措施,并履行報告義務(wù)。第15條要求建立投訴、舉報機制。上述規(guī)定共同構(gòu)成服務(wù)提供者注意義務(wù)的具體內(nèi)容,涵蓋數(shù)據(jù)來源合法性、內(nèi)容安全、用戶權(quán)益保護(hù)、應(yīng)急處置等多個維度。
上述規(guī)范形成了具有層次性的注意義務(wù)體系。法律確立一般性、基礎(chǔ)性的注意義務(wù),行政法規(guī)及部門規(guī)章針對生成式人工智能的特殊風(fēng)險設(shè)定具體、可操作的義務(wù)。故此,在司法實踐中,認(rèn)定服務(wù)提供者是否盡到注意義務(wù),需綜合考量規(guī)范來源,結(jié)合技術(shù)發(fā)展水平、行業(yè)慣例及個案情形,判斷其是否達(dá)到服務(wù)提供者應(yīng)有的注意程度。
(二)用戶協(xié)議
服務(wù)提供者與用戶之間的關(guān)系,與以往各類平臺與用戶之間的關(guān)系具有一定相似性,均通過用戶協(xié)議(用戶服務(wù)協(xié)議)根據(jù)平臺功能設(shè)定彼此之間的權(quán)利義務(wù)關(guān)系。但因生成式人工智能具有技術(shù)特性,其用戶協(xié)議在內(nèi)容上與以往平臺存在差異,除約定服務(wù)使用規(guī)則、費用標(biāo)準(zhǔn)、知識產(chǎn)權(quán)歸屬等一般條款外,還會明確服務(wù)提供者的注意義務(wù)內(nèi)容,包括數(shù)據(jù)安全保護(hù)義務(wù)、個人信息處理規(guī)則、生成內(nèi)容審核機制、風(fēng)險提示與告知義務(wù)等。用戶協(xié)議作為電子合同,在性質(zhì)上最接近于服務(wù)合同,屬于格式條款,服務(wù)提供者應(yīng)遵循公平原則確定雙方權(quán)利義務(wù),并采取合理方式提示用戶注意與其有重大利害關(guān)系的條款,確保用戶充分知悉服務(wù)風(fēng)險及自身權(quán)益邊界。
作為服務(wù)提供者單方面提供的用戶協(xié)議,其法律性質(zhì)素來存在一定爭議,主要集中在其是否實質(zhì)上取得用戶同意并且體現(xiàn)用戶的意思自治,從而使其可能會被認(rèn)定為合同或者不屬于傳統(tǒng)的合同。聯(lián)合國國際貿(mào)易法委員會認(rèn)為,平臺與用戶之間是一種合同關(guān)系,至于合同性質(zhì),取決于平臺與用戶之間的具體關(guān)系。數(shù)字平臺是“基于合同的模型”,其核心在于平臺與每個用戶之間的合同。根據(jù)該合同,平臺運營商向用戶提供平臺服務(wù),從而使用戶獲得對數(shù)字平臺的訪問權(quán)限(“平臺—用戶合同”)。這種訪問控制導(dǎo)致數(shù)字平臺被描述為“封閉”環(huán)境。這一合同是典型的附和合同,至于其具體的合同類型,可能屬于或超出現(xiàn)有法律下已確立的合同類型,這在不同司法管轄區(qū)可能有所不同。合同的定性,與平臺與用戶之間關(guān)系的定性相關(guān)聯(lián),并可能對雙方的權(quán)利和義務(wù)產(chǎn)生影響,包括對當(dāng)事人自治的限制。然而,萊姆利(Mark A. Lemley)早在2006年就指出,由于用戶協(xié)議實質(zhì)上缺少“同意”要素,因而其并非傳統(tǒng)意義上的合同。萊姆利認(rèn)為,“使用條款”(terms of use,中文也通常翻譯為“用戶協(xié)議”)這個總稱具有誤導(dǎo)性,其具體可包括拆封許可、點擊許可和瀏覽許可等多種形式。雖然“使用條款”聲稱是合同格式,而且只要在線用戶點擊“我同意”,法院就認(rèn)為這一“點擊許可”使該合同具有可執(zhí)行性,但是該“使用條款”可能缺乏合同意義上的(能夠代表用戶意思的)“同意”。在現(xiàn)實情況下,司法機構(gòu)卻表現(xiàn)出削弱甚至完全摒棄“同意”這一概念的傾向,這與人們所認(rèn)為的合同越來越不吻合。亦有論者將在線格式合同定性為“混亂的合同”,認(rèn)為此類合同存在平臺以低成本、便捷方式擬訂冗長合同,并且不利于消費者閱讀和同意,從而影響消費者的知情權(quán)和自身權(quán)利行使。盡管學(xué)界與實務(wù)中對用戶協(xié)議的法律性質(zhì)尚存爭議,但各類觀點的共識在于:用戶協(xié)議是以合同形式確立平臺與用戶之間權(quán)利義務(wù)關(guān)系的法律文件,且在平臺實踐中已被廣泛采用并普遍認(rèn)可。這意味著,除存在法律規(guī)定的格式條款無效等法定情形外,合法有效的用戶協(xié)議對平臺與用戶均具有法律約束力。
在用戶協(xié)議基本法理的基礎(chǔ)上,本文嘗試對目前國內(nèi)、域外主要大模型用戶服務(wù)協(xié)議中有關(guān)生成式人工智能服務(wù)提供者的注意義務(wù)的約定條款等進(jìn)行梳理和總結(jié)。本文選取了國內(nèi)四個較為主流的大模型的用戶協(xié)議和域外較為主流的兩個大模型的用戶協(xié)議,此處不列舉具體名稱。通過此項梳理,期待從用戶協(xié)議的視角揭示服務(wù)提供者注意義務(wù)的具體內(nèi)容、履行方式及其與法定注意義務(wù)的銜接關(guān)系,為司法實踐中注意義務(wù)的認(rèn)定與責(zé)任邊界的劃定提供參考。
國內(nèi)主要大模型用戶協(xié)議主要涵蓋五方面義務(wù),具體如下:
一是服務(wù)提供者負(fù)有風(fēng)險告知義務(wù)。服務(wù)提供者在用戶協(xié)議中均以顯著方式提示服務(wù)的局限性及潛在風(fēng)險。各協(xié)議均明確要求:提示生成內(nèi)容可能存在錯誤、遺漏或不準(zhǔn)確之處,不得作為專業(yè)建議(醫(yī)療、法律、金融等領(lǐng)域)或決策依據(jù);提示“聯(lián)網(wǎng)搜索”功能下第三方內(nèi)容的不可控性;提示未成年人需在監(jiān)護(hù)人陪同下使用,防范沉迷與過度依賴。此類義務(wù)旨在保障用戶知情權(quán),使其能夠較為理性地認(rèn)識技術(shù)特性與風(fēng)險邊界。
二是內(nèi)容標(biāo)識與透明度義務(wù)。根據(jù)相關(guān)規(guī)定,服務(wù)提供者負(fù)有顯式與隱式雙重標(biāo)識義務(wù)。顯式標(biāo)識包括在產(chǎn)品界面添加“AI 生成”提示、在生成圖片邊角位置添加標(biāo)識、在視頻起始畫面添加提示等;隱式標(biāo)識則要求在文件元數(shù)據(jù)中添加生成內(nèi)容屬性信息、服務(wù)提供者名稱或編碼等制作要素信息。同時,服務(wù)提供者需發(fā)布模型原理、算法備案或訓(xùn)練機制相關(guān)說明,對算法機制予以披露,保障用戶與公眾對技術(shù)原理的知情權(quán)。
三是審查處置與安全管理義務(wù)。服務(wù)提供者須建立內(nèi)容審查與風(fēng)險防控機制,包括采取技術(shù)手段或人工手段對輸入和輸出進(jìn)行審查,建立風(fēng)險過濾機制與違法內(nèi)容特征庫;對違規(guī)內(nèi)容采取警示、限制功能、暫停使用、關(guān)閉賬號、刪除內(nèi)容等處置措施;發(fā)現(xiàn)違法內(nèi)容時及時采取停止生成、停止傳輸、消除等處置措施,并履行報告義務(wù);對涉詐等異常賬號重新核驗,發(fā)現(xiàn)違法犯罪線索依法移送相關(guān)部門。
四是信息保護(hù)與數(shù)據(jù)安全義務(wù)。服務(wù)提供者對用戶輸入信息及使用記錄負(fù)有保護(hù)義務(wù),包括不得收集非必要個人信息,不得非法收集、泄露能夠識別用戶身份的信息;采取加密技術(shù)、匿名化處理等措施保障個人信息安全;將境內(nèi)收集的個人信息存儲于境內(nèi),向境外提供需取得單獨同意或符合法定情形;為用戶提供查閱、復(fù)制、更正、刪除個人信息及撤回授權(quán)的權(quán)利;建立賬號安全保護(hù)機制,對密碼找回、賬號申訴等情形進(jìn)行身份核驗。
五是反饋改進(jìn)與投訴處理義務(wù)。服務(wù)提供者須建立用戶反饋與投訴處理機制,包括提供便捷的反饋入口(如“聯(lián)系我們”、聯(lián)系郵箱等);建立侵權(quán)投訴指引,明確投訴路徑、所需材料及處理流程;對用戶的投訴、申訴在合理期限內(nèi)予以反饋;根據(jù)用戶反饋持續(xù)優(yōu)化模型與服務(wù)。
域外主要大模型用戶協(xié)議主要涵蓋四方面義務(wù),具體如下:
一是提示義務(wù)的層級化。平臺普遍采用“基礎(chǔ)提示+強化提示”雙層結(jié)構(gòu),基礎(chǔ)提示涵蓋服務(wù)更新、費用變更等常規(guī)事項,通常設(shè)置14日至30日合理預(yù)告期;強化提示針對測試版本、重大功能變更等特殊情形,以顯著形式突出服務(wù)可靠性不足、安全審計缺失等核心風(fēng)險。在人工智能特性風(fēng)險方面,要求明確披露相關(guān)關(guān)鍵內(nèi)容,如輸出可能存在重大不準(zhǔn)確、行動可能偏離用戶意圖、不應(yīng)未經(jīng)核實即依賴輸出、信息可能非最新以及非最完整、輸出不代表服務(wù)提供者觀點。這種披露義務(wù)源于大語言模型概率生成機制的技術(shù)本質(zhì)。
二是標(biāo)識義務(wù)的體系化。該義務(wù)圍繞三類對象展開:服務(wù)形態(tài)標(biāo)識,以特定標(biāo)簽區(qū)分測試版本與正式服務(wù);權(quán)屬邊界標(biāo)識,明確服務(wù)本身、用戶輸入、模型輸出三者的知識產(chǎn)權(quán)歸屬;第三方內(nèi)容標(biāo)識,標(biāo)明非平臺直接提供內(nèi)容的責(zé)任主體。
三是處置義務(wù)的梯度化。處置權(quán)配置呈現(xiàn)“階梯式”特征:第一層級為請求處置,針對終端用戶違規(guī),平臺先要求客戶方自行處理,未及時響應(yīng)時方得介入;第二層級為直接限制,針對安全緊急情況、法律強制要求等情形,平臺可徑行采取限制或暫停措施,但須受到嚴(yán)格限制,事由消除后及時恢復(fù);第三層級為終止處置,對根本違約情形,平臺可終止協(xié)議,同時負(fù)有清理數(shù)據(jù)、結(jié)算費用的后合同義務(wù)。
四是報告反饋義務(wù)。平臺負(fù)有審計報告提供、安全措施變更通知等義務(wù),承諾按年度提供獨立第三方審計報告。支持用戶對輸出進(jìn)行評分與問題上報,建立專門支持中心處理申訴,為內(nèi)容審核與賬號處置提供申訴渠道等,使用戶從被動接受者轉(zhuǎn)化為服務(wù)改進(jìn)的參與主體。
以上關(guān)于域內(nèi)外大模型服務(wù)提供者注意義務(wù)的比較分析,可見二者存在以下異同:
第一,協(xié)議內(nèi)容總體架構(gòu)和出發(fā)點不同。國內(nèi)用戶協(xié)議將風(fēng)險告知、內(nèi)容標(biāo)識、審查處置、信息保護(hù)、反饋改進(jìn)等設(shè)置為主干內(nèi)容,將治理規(guī)則融入?yún)f(xié)議較充分;域外用戶協(xié)議對于信息保護(hù)等多通過援引隱私政策實現(xiàn),未特別強調(diào)治理,反映傳統(tǒng)合同法理。
第二,義務(wù)內(nèi)容場景化和技術(shù)機理強調(diào)重點不同。風(fēng)險告知方面,國內(nèi)呈場景化特征,強制區(qū)分專業(yè)領(lǐng)域并單設(shè)未成年人條款;域外呈技術(shù)機理化特征,緊扣概率生成機制構(gòu)建標(biāo)準(zhǔn)化披露機制。內(nèi)容標(biāo)識方面,國內(nèi)屬監(jiān)管合規(guī)型,強制雙重標(biāo)識及算法備案;域外則屬市場自律型,側(cè)重服務(wù)形態(tài)與權(quán)屬邊界標(biāo)識。
第三,協(xié)議規(guī)則趨同與融合。盡管規(guī)范路徑存在一定差異,但雙方在技術(shù)認(rèn)知與治理工具層面基本趨同,均承認(rèn)大模型概率生成機制固有的不確定性風(fēng)險,重視用戶反饋數(shù)據(jù)對模型迭代的優(yōu)化價值,建立針對賬號處置的申訴救濟渠道等等。
(三)交往安全義務(wù)
傳統(tǒng)上,交往安全義務(wù)屬于除法定、契約、先行為義務(wù)所產(chǎn)生的作為義務(wù)之外的義務(wù),其內(nèi)容主要指應(yīng)采取防范危險的措施,須斟酌危險的性質(zhì)、嚴(yán)重性、對義務(wù)人期待可能性、行為效益、防范費用、被害人的信賴及自我保護(hù)可能性,以及法令規(guī)章等因素,就個案加以認(rèn)定,如創(chuàng)設(shè)并維持公共通行環(huán)境(系采廣義,包括多種情形)、從事職業(yè)活動(醫(yī)院、建筑師、旅游營業(yè)人等)等多種情形。交往安全義務(wù)在實踐中較為常見。然而,從以上分析可知,對于生成式人工智能服務(wù)提供者而言,在法定、用戶協(xié)議約定中,似乎已將幾乎所有與技術(shù)特性相關(guān)的風(fēng)險源和風(fēng)險防范的措施均列舉并規(guī)定,交往安全義務(wù)幾無適用空間,那么是否還有必要討論這個問題,仍有待討論。
對于網(wǎng)絡(luò)領(lǐng)域的安全保障義務(wù),本就存在較多爭議之處。有學(xué)者指出,司法實踐中安全保障義務(wù)主體呈現(xiàn)泛化趨勢,其公共性標(biāo)準(zhǔn)已從實體場所擴張至網(wǎng)絡(luò)虛擬空間。在有的條件中,法院認(rèn)定視頻平臺因用戶瀏覽、評論、點贊等行為具有互動性、公共性及群眾性而具有公共場所屬性,故對用戶生命安全負(fù)有安全保障義務(wù)。我國司法實踐普遍認(rèn)為場所公共性是產(chǎn)生安全保障義務(wù)的真正原因,該觀點亦被學(xué)者廣泛接受,在特殊侵權(quán)領(lǐng)域逐漸以安全保障義務(wù)概念替代注意義務(wù)。但是,網(wǎng)絡(luò)服務(wù)提供者對網(wǎng)絡(luò)用戶的注意義務(wù)不能一概認(rèn)定為安全保障義務(wù),須區(qū)分直接侵權(quán)與間接侵權(quán):直接侵權(quán)中,其基于物權(quán)特征或合同關(guān)系負(fù)有保護(hù)義務(wù),原則上限于審查、告知、刪除等技術(shù)手段;間接侵權(quán)中,其依《民法典》第1195條負(fù)有通知后采取措施義務(wù)。值得關(guān)注的是,實踐中也有時被課以事先審查義務(wù),但是該義務(wù)須以承認(rèn)安全保障義務(wù)為前提,且以明知或應(yīng)知特定危險為條件。兩類義務(wù)均限于網(wǎng)絡(luò)服務(wù)提供者可期待范圍內(nèi)的危險排除措施。換言之,網(wǎng)絡(luò)領(lǐng)域的安全保障義務(wù)不宜被泛化或任意擴大,仍應(yīng)限于確實對風(fēng)險具有支配或控制能力才可以。但是,在當(dāng)下人工智能領(lǐng)域之中,技術(shù)應(yīng)用極其廣泛,幾乎處于風(fēng)險敞口狀態(tài),再討論其風(fēng)險支配的范圍或者力度,似乎具有較大難度。
人工智能技術(shù)廣泛適用背景下的交往安全義務(wù)在實踐中仍有討論空間。例如,2026年3月,央視總臺“3·15晚會”曝光了一條產(chǎn)業(yè)鏈:一些機構(gòu)通過批量發(fā)布軟文、編造虛假測評報告、虛構(gòu)專家身份等方式,向大模型的數(shù)據(jù)源“投喂”定制內(nèi)容,讓商業(yè)推廣以“AI 標(biāo)準(zhǔn)答案”的面目呈現(xiàn)在用戶面前,影響大模型的抓取、引用和推薦結(jié)果,這種情形被稱為對 AI 的“投毒”。對于這一事件,在現(xiàn)行法律框架下,服務(wù)提供者并不對生成內(nèi)容的真實性負(fù)有絕對擔(dān)保義務(wù),用戶亦應(yīng)認(rèn)識到 AI 回答的固有局限性,自行審慎判斷并承擔(dān)相應(yīng)信賴風(fēng)險。但是一定程度上,在交往安全義務(wù)的層面,仍存在進(jìn)一步討論與解釋的空間,尤其是在第三方系統(tǒng)性偽造內(nèi)容、定向污染訓(xùn)練數(shù)據(jù)和檢索數(shù)據(jù)源的場景下,服務(wù)提供者是否負(fù)有相應(yīng)的注意與防控義務(wù),在學(xué)理與司法適用上仍有探討余地。
四
注意義務(wù)的標(biāo)準(zhǔn):“理性人”標(biāo)準(zhǔn)抑或新的“合理的人工智能”標(biāo)準(zhǔn)?
(一)“理性人”標(biāo)準(zhǔn)
所謂“過失”,是指被告未盡到一個通常謹(jǐn)慎之人在此情形下應(yīng)盡的注意義務(wù),也就是說,被告本應(yīng)預(yù)見到其行為會給原告的利益造成損害。整個過失理論預(yù)設(shè)了某種統(tǒng)一的行為標(biāo)準(zhǔn)。然而,可能出現(xiàn)的無限多樣的情形,使得不可能預(yù)先為所有可想象的人類行為制定確定的規(guī)則。法院通過創(chuàng)造一個虛構(gòu)的人物來處理這一非常困難的問題,這個人物從未在陸地或海洋上存在過,即“具有通常審慎態(tài)度的合理人”。有時他被描述為一個合理的人,或一個具有通常審慎態(tài)度的人,或一個具有合理審慎態(tài)度的人,或其他某種理性與謹(jǐn)慎的混合體。這一合理的人的行為標(biāo)準(zhǔn)可以通過適用法律、司法判例、立法(直接立法或者參照其他適當(dāng)行為的要求)等方式確定。
理性人標(biāo)準(zhǔn)是一個客觀標(biāo)準(zhǔn)。即便是可預(yù)見性,實際上也是一個客觀標(biāo)準(zhǔn)。可預(yù)見性關(guān)注“理想化的理性人”能否預(yù)見損害,確立注意義務(wù)的最低前提(無預(yù)見則無義務(wù))。例如,被告可以預(yù)見其助推乘客的行為可能導(dǎo)致包裹掉落站臺,但無法預(yù)見包裹內(nèi)藏有煙花爆竹并會爆炸傷及遠(yuǎn)處的他人;被告可以預(yù)見船舶泄漏燃油會造成港口污染損害,但無法預(yù)見油膜會在水面上被意外點燃并燒毀整個碼頭;被告作為指導(dǎo)教師可以預(yù)見生成式人工智能撰寫的學(xué)術(shù)論文可能存在參考文獻(xiàn)造假或數(shù)據(jù)錯誤,但無法預(yù)見學(xué)生會直接提交該論文作為畢業(yè)論文,導(dǎo)致被認(rèn)定嚴(yán)重學(xué)術(shù)不端并不予通過;被告可以預(yù)見生成式人工智能生成的新聞報道可能存在事實性或時間線錯誤,但無法預(yù)見權(quán)威媒體未經(jīng)核實直接轉(zhuǎn)載,引發(fā)公眾恐慌并影響上市公司股價下跌。一般而言,在確認(rèn)本應(yīng)采取的預(yù)防措施時,主張過失的一方無須證明該措施可以完全消除損害風(fēng)險。相反,該方只需證明,若實施該預(yù)防措施則風(fēng)險可以降低。例如,店主對顧客丟棄垃圾的潛在傷害風(fēng)險負(fù)有注意義務(wù),采取每半小時檢查一次的防范措施即滿足過失標(biāo)準(zhǔn)(無需不間斷檢查),但未能維持該頻率則可能構(gòu)成過失;原告除證明過失外,還須證明因果關(guān)系,即按時檢查本應(yīng)發(fā)現(xiàn)并移除致其受傷的特定垃圾。對于生成式人工智能服務(wù)提供者而言,其定期的敏感詞、有毒有害信息過濾、屏蔽等,就屬于降低風(fēng)險的預(yù)防措施。
以上可見,理性人標(biāo)準(zhǔn)并非僵化的抽象教條,而是一個結(jié)合具體情形確定被告有無過失而進(jìn)行客觀解釋的標(biāo)準(zhǔn)。這一標(biāo)準(zhǔn)具有一定開放性和適應(yīng)性,能夠隨著社會發(fā)展、技術(shù)演進(jìn)而不斷吸納新的考量維度。在生成式人工智能領(lǐng)域,通過確立“理性人”的基本標(biāo)準(zhǔn),經(jīng)由該標(biāo)準(zhǔn)進(jìn)行解釋,正是其從抽象標(biāo)準(zhǔn)走向具體適用、實現(xiàn)風(fēng)險合理分配的具體體現(xiàn)。
(二)合理的人工智能:一個新的過失標(biāo)準(zhǔn)?
面對快速發(fā)展的人工智能,諸多新情形的出現(xiàn),使得傳統(tǒng)的“理性人”標(biāo)準(zhǔn)受到一定挑戰(zhàn)與批評。有論者提出,理性人標(biāo)準(zhǔn)根植于人類行為邏輯與可預(yù)見性,而 AI 決策機制、錯誤類型均與人類存在本質(zhì)差異,既可能超越人類水平,也會犯下理性人絕不會犯的錯誤,套用該標(biāo)準(zhǔn)會導(dǎo)致認(rèn)定失衡、違背可操作性與進(jìn)步性要求。人工智能改變了侵權(quán)法,因為人類不再是唯一的行為主體,傳統(tǒng)以人類行為為基準(zhǔn)的理性人標(biāo)準(zhǔn)無法直接適用于算法,因為人工智能既超越人類表現(xiàn),又可能犯下任何合理人都不會犯的“愚蠢錯誤”。故此,應(yīng)設(shè)立一個新的過失標(biāo)準(zhǔn)——合理的人工智能。以“可管理性、創(chuàng)新性、安全性、進(jìn)步性”四項標(biāo)準(zhǔn)衡量,目前三類主流責(zé)任方案都存在缺陷:一是嚴(yán)格責(zé)任或推定過失,可能過度壓制技術(shù)創(chuàng)新和阻礙安全人工智能的發(fā)展;二是設(shè)計流程框架(如歐盟高風(fēng)險 AI 的程序要求),以事前程序合規(guī)替代風(fēng)險結(jié)果判斷,可能脫離 AI 實際安全表現(xiàn),其僵化且無法適應(yīng)技術(shù)發(fā)展;三是相對安全框架(僅以人類表現(xiàn)為基準(zhǔn)),僅將AI 與人類對比,標(biāo)準(zhǔn)僵化且無法適配技術(shù)迭代,可能早期阻礙安全 AI、后期縱容危險 AI。作者以自動駕駛汽車為例展開實證論證,通過事故率數(shù)據(jù)對比證明該標(biāo)準(zhǔn)可操作性強,同時滿足可管理性、創(chuàng)新性、安全性與進(jìn)步性四項準(zhǔn)則。該方案既保留過失法平衡風(fēng)險與創(chuàng)新的核心功能,又動態(tài)適配 AI 技術(shù)演進(jìn),實現(xiàn)對受害者的救濟與對企業(yè)合理激勵的統(tǒng)一,為 AI 侵權(quán)責(zé)任提供了兼具法理與實踐價值的新路徑。
構(gòu)建新的“混合基準(zhǔn)的人工智能過失標(biāo)準(zhǔn)”。有論者認(rèn)為,判斷 AI 是否存在過失,不再以理性人或其他 AI 為單一參照,而是以人類與 AI 共同從事同類行為的加權(quán)平均損害率為客觀基準(zhǔn)。若 AI 的單位損害率低于該整體平均值,則認(rèn)定為合理、無過失;反之則構(gòu)成過失。這一過失標(biāo)準(zhǔn)雖與理性人標(biāo)準(zhǔn)形式不同,但符合侵權(quán)法為特殊被告群體定制門檻的傳統(tǒng)(如專業(yè)過失)。人工智能過失標(biāo)準(zhǔn)與我們所熟知的理性人標(biāo)準(zhǔn)之間,相似性遠(yuǎn)大于差異性。過失法所保護(hù)的基本道德利益,是當(dāng)他人決定應(yīng)當(dāng)盡到何種程度的注意時,我們有權(quán)獲得充分的審慎對待。就企業(yè)人工智能而言,“充分考量”意味著僅部署那些能夠提升我們安全性的自動化系統(tǒng)。若某企業(yè)的人工智能使我們面臨更高危險,則未能履行該義務(wù)。一旦損害發(fā)生,正義即要求提供救濟,既為彌補我們的損失,也為重申我們的價值。
這一標(biāo)準(zhǔn)的提出,從形式上看,對于確立百余年的“理性人”標(biāo)準(zhǔn)有所沖擊。然而,究其實質(zhì),其到底是設(shè)立了一個新的標(biāo)準(zhǔn)還是對理性人標(biāo)準(zhǔn)進(jìn)行新解釋,仍有討論的余地。此前的理性人標(biāo)準(zhǔn)僅以“人”為參照物,而“混合基準(zhǔn)的人工智能過失標(biāo)準(zhǔn)”引入了人工智能參與,使得注意義務(wù)的判斷從人的行為合理性拓展至人機交互系統(tǒng)的整體安全性。筆者認(rèn)為,這種轉(zhuǎn)變并非顛覆傳統(tǒng)標(biāo)準(zhǔn),而是將其適用場域從“純粹人類行為”延伸至“人類設(shè)計、部署 AI 系統(tǒng)”的行為,核心仍在于判斷被告(企業(yè)或開發(fā)者)是否盡到了合理的技術(shù)管控與風(fēng)險防范義務(wù)。換言之,人工智能過失標(biāo)準(zhǔn)并未創(chuàng)造出超越理性人標(biāo)準(zhǔn)的新型道德基準(zhǔn),而是在人工智能這一特殊領(lǐng)域和特殊情形下,對“保護(hù)他人免受不合理風(fēng)險”的具體化與情境化重述。若將人工智能視為人類能力的延伸而非獨立主體,則所謂的“人工智能的過失”本質(zhì)上仍是人類過失,其歸責(zé)邏輯最終仍需回溯至理性開發(fā)者、服務(wù)提供者等諸多主體在特定技術(shù)條件下應(yīng)盡的注意義務(wù),將人工智能風(fēng)險納入既有侵權(quán)法的解釋框架之內(nèi)。故此,與其說這一標(biāo)準(zhǔn)的提出是在侵權(quán)法框架內(nèi)創(chuàng)設(shè)了一個新的注意義務(wù)標(biāo)準(zhǔn),不如說這一標(biāo)準(zhǔn)是對理性人標(biāo)準(zhǔn)在人工智能時代的新解釋,二者殊途同歸。
(三)“理性人”標(biāo)準(zhǔn)的分層化適用
“理性人”標(biāo)準(zhǔn)的適用不能停留于抽象概念,而需結(jié)合技術(shù)特性進(jìn)行層次化建構(gòu)。具體而言,可從技術(shù)水平、行業(yè)基準(zhǔn)與成本效益以及特殊場景等三個維度展開,形成對可預(yù)見性、關(guān)聯(lián)性以及公平、公正、合理(政策考量)進(jìn)行整體判斷的體系。
第一,技術(shù)水平維度。理性人標(biāo)準(zhǔn)首先關(guān)注的是服務(wù)提供者在現(xiàn)有技術(shù)條件下,對服務(wù)潛在風(fēng)險的認(rèn)知與管控能力。具體而言,需考察服務(wù)提供者是否明知或應(yīng)知所部署模型在特定應(yīng)用場景下存在“幻覺”、偏見或有毒有害內(nèi)容生成傾向,是否具備足夠的技術(shù)手段進(jìn)行輸入過濾和輸出審核。例如,對于可通過提示詞工程、內(nèi)容審核或攔截避免的高概率風(fēng)險,尤其是法律、行政法規(guī)規(guī)定的禁止輸出的內(nèi)容,服務(wù)提供者若未采取合理措施,則可能構(gòu)成過失。盡管大型平臺與小型或初創(chuàng)企業(yè)的技術(shù)能力會存在差異,但他們均應(yīng)達(dá)到同類型服務(wù)提供者的普遍技術(shù)水平。技術(shù)水平維度確立的是服務(wù)提供者在技術(shù)部署層面的主觀上的可預(yù)見性與客觀上的風(fēng)險防范義務(wù)。
第二,行業(yè)基準(zhǔn)與成本效益的平衡。這一層次是服務(wù)提供者在提供服務(wù)過程中的注意義務(wù)標(biāo)準(zhǔn)。例如,服務(wù)提供者通常采取何種風(fēng)險管理措施,如是否建立了用戶舉報機制、內(nèi)容審核周期、風(fēng)險提示規(guī)范及緊急處置流程。若行業(yè)已形成針對特定風(fēng)險(如醫(yī)療建議、惡意代碼生成)的通行防范標(biāo)準(zhǔn),未采納者則可能構(gòu)成過失。同時,應(yīng)進(jìn)行成本效益權(quán)衡,對于可通過較低運營成本,如增加審核頻次、完善用戶協(xié)議、設(shè)置顯著風(fēng)險提示等方式可避免的損害,服務(wù)提供者應(yīng)采取相應(yīng)措施;反之,若預(yù)防成本過高而損害發(fā)生概率極低,則可適當(dāng)降低注意義務(wù)。此層次的“理性人”應(yīng)遵循行業(yè)慣例等通行標(biāo)準(zhǔn)、符合經(jīng)濟利益和基本道德。但行業(yè)慣例等僅具有參考意義,不能成為注意義務(wù)的最低標(biāo)準(zhǔn),否則可能導(dǎo)致“逐底競爭”。
第三,特殊場景下的特別提示義務(wù)。在過失法中,一般專業(yè)人士以及從事任何需要特殊技能工作的人,不僅被要求在其工作中盡合理注意,而且還被要求具備最低限度的專業(yè)知識和能力。服務(wù)提供者雖然無法也不應(yīng)就人工智能生成的所有內(nèi)容承擔(dān)絕對擔(dān)保責(zé)任,但在專業(yè)應(yīng)用場景下,不得僅以一般性免責(zé)聲明替代針對該領(lǐng)域特有風(fēng)險的顯著提示義務(wù)。亦有論者認(rèn)為,在人們向大模型咨詢醫(yī)療問題的情形下,服務(wù)提供者應(yīng)當(dāng)有更高的注意義務(wù),采取一定的干預(yù)措施避免幻覺答案的出現(xiàn),或者以明顯的方式提醒用戶,其提供的答案并不能代替醫(yī)生的專業(yè)意見。在此種場景下,服務(wù)提供者不能僅限于一般性的“AI 可能不準(zhǔn)確”的籠統(tǒng)提示,而應(yīng)當(dāng)針對特定專業(yè)領(lǐng)域的固有風(fēng)險,提供明確、具體且顯著的警示或提示。例如,在醫(yī)療咨詢場景中,服務(wù)提供者應(yīng)以顯著方式提示 AI 生成內(nèi)容不構(gòu)成醫(yī)療建議、不能替代專業(yè)診斷,并明確告知用戶應(yīng)咨詢執(zhí)業(yè)醫(yī)師;在金融投資建議場景中,則應(yīng)以顯著方式提示 AI 分析可能基于過時數(shù)據(jù)或算法偏差,不構(gòu)成投資建議等。
五
注意義務(wù)的類型化
服務(wù)提供者的注意義務(wù)仍以“理性人”標(biāo)準(zhǔn)為基礎(chǔ),在此基礎(chǔ)上,結(jié)合生成式人工智能的技術(shù)特征,可進(jìn)一步類型化。在1990年 Caparo Industries Plc. v Dickman 案中,上議院提出了可預(yù)見性、關(guān)聯(lián)性和政策考量的三個要素作為識別注意義務(wù)的適當(dāng)決策標(biāo)準(zhǔn)。其中,鄰近性(關(guān)聯(lián)性)要素則聚焦原告與被告之間的“法律關(guān)聯(lián)性”(非物理距離),需通過具體結(jié)構(gòu)性特征(如控制關(guān)系、請求行為、相對技能、實際知曉等)證明,是判定注意義務(wù)的核心。生成式人工智能的技術(shù)特性決定了服務(wù)提供者注意義務(wù)的類型與邊界,并主要包括技術(shù)特性維度的注意義務(wù)、服務(wù)提供過程中非技術(shù)特性維度的注意義務(wù)以及程序性的注意義務(wù)等內(nèi)容。
(一)技術(shù)特性維度的注意義務(wù)
一是內(nèi)容準(zhǔn)確性提示義務(wù)。生成式人工智能存在固有的“幻覺”風(fēng)險,這也是生成式人工智能技術(shù)所具有的典型風(fēng)險。無論是用戶的一般認(rèn)知還是服務(wù)協(xié)議約定,服務(wù)提供者均會向用戶事先聲明生成信息的不準(zhǔn)確性等內(nèi)容,服務(wù)提供者負(fù)有向用戶提示該風(fēng)險的義務(wù)。在前述國內(nèi) AI 幻覺案中,法院也認(rèn)為,服務(wù)提供者并不負(fù)有結(jié)果性義務(wù),而僅為方式性義務(wù)。此外,針對醫(yī)療健康、金融等涉及生命安全、心理健康、資金安全等特定領(lǐng)域,服務(wù)提供者還應(yīng)盡到更高標(biāo)準(zhǔn)的提示義務(wù),明確告知用戶生成內(nèi)容的專業(yè)局限性,建議用戶尋求專業(yè)人士的幫助。
二是內(nèi)容標(biāo)識義務(wù)。為區(qū)分 AI 生成內(nèi)容與真實信息,防止公眾混淆誤認(rèn),服務(wù)提供者負(fù)有對生成內(nèi)容進(jìn)行顯著標(biāo)識的義務(wù)。根據(jù)《互聯(lián)網(wǎng)信息服務(wù)深度合成管理規(guī)定》第16條及《生成式人工智能服務(wù)管理暫行辦法》第12條,服務(wù)提供者應(yīng)當(dāng)對圖片、視頻等視覺類生成內(nèi)容進(jìn)行顯著標(biāo)識。這一義務(wù)的技術(shù)實現(xiàn)方式包括添加數(shù)字水印、元數(shù)據(jù)標(biāo)記等,確保標(biāo)識具有持久性和可追溯性。
三是內(nèi)容安全管控義務(wù)。服務(wù)提供者應(yīng)建立有效的內(nèi)容過濾機制,尤其是對于法律、行政法規(guī)所禁止的違法、有毒有害信息。義務(wù)具體包括:在輸入端建立關(guān)鍵詞過濾機制,對用戶輸入的違法、不良指令進(jìn)行識別和攔截;在輸出端對生成內(nèi)容進(jìn)行合規(guī)性審查,防止輸出虛假信息、歧視性內(nèi)容、暴力恐怖信息、侵害個人隱私以及違反公序良俗的內(nèi)容。當(dāng)發(fā)現(xiàn)違法內(nèi)容時,服務(wù)提供者應(yīng)當(dāng)及時采取停止生成、停止傳輸、消除等處置措施,并通過模型優(yōu)化訓(xùn)練等方式進(jìn)行整改,同時向有關(guān)主管部門報告。
四是算法透明度義務(wù)。服務(wù)提供者應(yīng)當(dāng)以適當(dāng)方式向用戶說明算法的基本原理、目的意圖和主要運行機制,保障用戶的知情權(quán)。根據(jù)《生成式人工智能服務(wù)管理暫行辦法》相關(guān)規(guī)定,服務(wù)提供者應(yīng)當(dāng)提供影響用戶信任與選擇的必要信息,包括預(yù)訓(xùn)練和優(yōu)化訓(xùn)練數(shù)據(jù)的來源、規(guī)模、類型、質(zhì)量,人工標(biāo)注規(guī)則及算法機制機理等內(nèi)容。該義務(wù)以保障用戶知情權(quán)、理解決策邏輯為目的,不要求披露核心商業(yè)秘密。《互聯(lián)網(wǎng)信息服務(wù)算法推薦管理規(guī)定》第16條規(guī)范了算法推薦服務(wù)的告知與選擇權(quán)。服務(wù)提供者應(yīng)當(dāng)顯著告知用戶算法推薦服務(wù)情況,提供關(guān)閉算法推薦或非個性化推薦的便捷選項,以及用戶特征標(biāo)簽的選擇、刪除功能,并在用戶關(guān)閉后立即停止相關(guān)服務(wù)。
(二)提供服務(wù)過程中非技術(shù)維度的注意義務(wù)
與前述技術(shù)帶來的風(fēng)險以及“提供服務(wù)”開啟風(fēng)險的二分思路一脈相承,服務(wù)提供者除內(nèi)容生成技術(shù)本身外,其在數(shù)據(jù)訓(xùn)練、模型運營過程中還負(fù)有數(shù)據(jù)合規(guī)與權(quán)益保護(hù)的注意義務(wù),這些義務(wù)不直接源于生成技術(shù),而是源于服務(wù)提供過程中的合規(guī)與保護(hù)他人的基本要求。
一是訓(xùn)練數(shù)據(jù)質(zhì)量保障義務(wù)。訓(xùn)練數(shù)據(jù)的質(zhì)量直接決定生成內(nèi)容的準(zhǔn)確性與安全性。服務(wù)提供者應(yīng)當(dāng)依法開展預(yù)訓(xùn)練、優(yōu)化訓(xùn)練等訓(xùn)練數(shù)據(jù)處理活動,根據(jù)相關(guān)規(guī)定,負(fù)有以下義務(wù):使用具有合法來源的數(shù)據(jù)和基礎(chǔ)模型;涉及知識產(chǎn)權(quán)的,不得侵害他人依法享有的知識產(chǎn)權(quán);涉及個人信息的,應(yīng)當(dāng)取得個人同意或者符合法律、行政法規(guī)規(guī)定的其他情形;采取有效措施提高訓(xùn)練數(shù)據(jù)質(zhì)量,增強訓(xùn)練數(shù)據(jù)的真實性、準(zhǔn)確性、客觀性、多樣性。在采集和獲取數(shù)據(jù)過程中,對于應(yīng)獲得授權(quán)的,應(yīng)取得權(quán)利人的授權(quán);基于市場交易取得的,應(yīng)要求出售方提供數(shù)據(jù)合法合規(guī)安全承諾和來源合法證明。
二是數(shù)據(jù)標(biāo)注合規(guī)義務(wù)。生成式人工智能技術(shù)研發(fā)過程中進(jìn)行數(shù)據(jù)標(biāo)注的,服務(wù)提供者應(yīng)當(dāng)制定清晰、具體、可操作的標(biāo)注規(guī)則,開展數(shù)據(jù)標(biāo)注質(zhì)量評估,抽樣核驗標(biāo)注內(nèi)容的準(zhǔn)確性。標(biāo)注規(guī)則的制定應(yīng)當(dāng)符合法律法規(guī)要求,標(biāo)注內(nèi)容的準(zhǔn)確性直接影響模型輸出的質(zhì)量,服務(wù)提供者對此負(fù)有質(zhì)量把控義務(wù)。
三是個人信息保護(hù)義務(wù)。服務(wù)提供者應(yīng)當(dāng)依法承擔(dān)個人信息處理者責(zé)任,履行個人信息保護(hù)義務(wù)。這是服務(wù)提供者負(fù)有的重要義務(wù)之一。具體包括:對用戶的輸入信息和使用記錄履行保護(hù)義務(wù),不得收集非必要個人信息,不得非法留存能夠識別用戶身份的輸入信息和使用記錄,不得非法向他人提供用戶的輸入信息和使用記錄;依法及時受理和處理個人關(guān)于查閱、復(fù)制、更正、補充、刪除其個人信息等請求。在模型訓(xùn)練、服務(wù)提供、用戶交互的全過程中,服務(wù)提供者均應(yīng)遵循最小必要原則,采取加密、訪問控制等技術(shù)措施保障數(shù)據(jù)安全。
四是著作權(quán)合規(guī)義務(wù)。服務(wù)提供者在訓(xùn)練數(shù)據(jù)準(zhǔn)備、模型生成內(nèi)容輸出兩個環(huán)節(jié)均可能涉及著作權(quán)問題。在輸入端,應(yīng)確保訓(xùn)練數(shù)據(jù)來源合法,不侵害他人依法享有的知識產(chǎn)權(quán),建立相應(yīng)機制防止使用侵權(quán)作品進(jìn)行訓(xùn)練;在輸出端,應(yīng)建立著作權(quán)投訴處理機制,根據(jù)權(quán)利人的合格通知采取必要措施,防止侵權(quán)生成物的持續(xù)產(chǎn)生。
(三)程序性注意義務(wù)
程序性的注意義務(wù)是確保前述實體義務(wù)實現(xiàn)的保障性義務(wù),具體包括:
一是安全評估與算法備案義務(wù)。根據(jù)《生成式人工智能服務(wù)管理暫行辦法》第17條,提供具有輿論屬性或者社會動員能力的生成式人工智能服務(wù)的,應(yīng)當(dāng)按照國家有關(guān)規(guī)定開展安全評估,并按照《互聯(lián)網(wǎng)信息服務(wù)算法推薦管理規(guī)定》履行算法備案和變更、注銷備案手續(xù)。安全評估應(yīng)當(dāng)依據(jù)國家有關(guān)規(guī)定及《生成式人工智能服務(wù)安全基本要求》,對語料安全、生成內(nèi)容安全、模型安全、安全措施等進(jìn)行全面評估,形成安全評估報告。算法備案則要求服務(wù)提供者向監(jiān)管部門報送算法的基本信息、主要功能、服務(wù)對象、使用范圍等,接受監(jiān)管部門的監(jiān)督管理。
二是用戶協(xié)議與告知義務(wù)。服務(wù)提供者應(yīng)當(dāng)與注冊其服務(wù)的生成式人工智能服務(wù)使用者(用戶)訂立用戶(服務(wù))協(xié)議,明確雙方權(quán)利義務(wù)。服務(wù)協(xié)議應(yīng)當(dāng)包含服務(wù)內(nèi)容、使用限制、風(fēng)險提示、知識產(chǎn)權(quán)歸屬、隱私政策、違約責(zé)任等條款,確保用戶在充分知情的基礎(chǔ)上作出選擇。
三是投訴舉報和反饋機制建立義務(wù)。服務(wù)提供者應(yīng)當(dāng)建立健全投訴、舉報機制,設(shè)置便捷的投訴、舉報入口,公布處理流程和反饋時限,及時受理、處理公眾投訴舉報并反饋處理結(jié)果。服務(wù)提供者應(yīng)當(dāng)確保投訴舉報渠道暢通、有效、便捷,及時處理權(quán)利人的侵權(quán)通知和用戶的權(quán)益訴求。
四是應(yīng)急處置與報告義務(wù)。服務(wù)提供者發(fā)現(xiàn)違法內(nèi)容的,應(yīng)當(dāng)及時采取停止生成、停止傳輸、消除等處置措施,采取模型優(yōu)化訓(xùn)練等措施進(jìn)行整改,并向有關(guān)主管部門報告。發(fā)現(xiàn)使用者利用生成式人工智能服務(wù)從事違法活動的,應(yīng)當(dāng)依法依約采取警示、限制功能、暫停或者終止提供服務(wù)等處置措施,保存有關(guān)記錄,并向有關(guān)主管部門報告。該義務(wù)要求服務(wù)提供者建立應(yīng)急響應(yīng)機制,對突發(fā)安全事件能夠快速反應(yīng)、有效處置。
五是未成年人保護(hù)義務(wù)。服務(wù)提供者對未成年人負(fù)有保護(hù)義務(wù),應(yīng)采取有效措施防范未成年人用戶過度依賴或者沉迷生成式人工智能服務(wù)。根據(jù)相關(guān)規(guī)定,具體措施包括:建立用戶身份識別機制,對未成年人用戶采取特殊保護(hù)措施;設(shè)置使用時長限制、內(nèi)容過濾等功能;建立家長監(jiān)護(hù)機制,允許家長對未成年人的使用行為進(jìn)行監(jiān)督和管理。這一義務(wù)體現(xiàn)了對未成年人群體的特殊保護(hù),要求服務(wù)提供者在產(chǎn)品設(shè)計和服務(wù)提供中充分考慮未成年人的身心特點。
在適用關(guān)系上,上述三類義務(wù)相互補充、相互強化。例如,內(nèi)容標(biāo)識義務(wù)(技術(shù)特性)的有效履行,有助于權(quán)利人及時發(fā)現(xiàn)侵權(quán)內(nèi)容并發(fā)出通知,從而觸發(fā)投訴舉報處理義務(wù)(程序性)的履行;訓(xùn)練數(shù)據(jù)質(zhì)量保障義務(wù)(非技術(shù)特性)的履行,能夠從根本上減少生成內(nèi)容的違法風(fēng)險,減輕內(nèi)容安全管控義務(wù)(技術(shù)特性)的壓力。故此,三者的區(qū)分既符合生成式人工智能的技術(shù)特性,同時又符合傳統(tǒng)上對于注意義務(wù)設(shè)定的原理,更具有客觀性和科學(xué)性。
結(jié)語
在侵權(quán)法理論中,過失僅僅是一種行為方式。但是,一項基于過失成立的、能夠從中產(chǎn)生責(zé)任的訴因,所要求的不僅僅是行為。構(gòu)成此類訴因所必需的要素的傳統(tǒng)公式可簡要表述如下:一是法律所認(rèn)可的一項義務(wù)或責(zé)任,要求該人符合特定的行為標(biāo)準(zhǔn),以保護(hù)他人免受不合理的風(fēng)險。二是該人未能符合所要求的標(biāo)準(zhǔn),即對義務(wù)的違反。這兩個要素共同構(gòu)成了法院通常所稱的過失。生成式人工智能服務(wù)提供者的侵權(quán)責(zé)任認(rèn)定,仍需回歸這一基礎(chǔ)框架,但在技術(shù)語境下呈現(xiàn)出了一些新特征與新問題:其一,生成式人工智能技術(shù)的固有風(fēng)險十分顯著,使得治理和行業(yè)自律層面已比較充分地預(yù)見到這些風(fēng)險,法定義務(wù)與約定義務(wù)幾乎覆蓋了從提示、標(biāo)識到內(nèi)容管控等多方面義務(wù),傳統(tǒng)侵權(quán)法中的交往安全義務(wù)似難覓蹤影,這反映出技術(shù)風(fēng)險規(guī)制與民事責(zé)任體系之間互嵌但尚存間隙;其二,“理性人”標(biāo)準(zhǔn)仍應(yīng)作為過失判斷的基石。盡管目前對于注意義務(wù)的標(biāo)準(zhǔn)提出個別新理論,諸如“混合基準(zhǔn)的人工智能過失標(biāo)準(zhǔn)”,但是這些新理論并未脫離理性人標(biāo)準(zhǔn)的本質(zhì)內(nèi)核,而是對該標(biāo)準(zhǔn)在技術(shù)語境下的具體化與情境化適用。這些新標(biāo)準(zhǔn)仍然是通過擴張“理性人”標(biāo)準(zhǔn)的內(nèi)涵,通過納入人工智能參與、人機交互系統(tǒng)的整體安全性等考量因素,使其更符合人工智能時代的歸責(zé)需求,保持了法律原則的解釋力和適應(yīng)性;其三,注意義務(wù)的類型化建構(gòu)并未脫離傳統(tǒng)分析范式,而是從技術(shù)維度的注意義務(wù)(可預(yù)見的技術(shù)風(fēng)險)、提供服務(wù)過程中非技術(shù)維度的注意義務(wù)(可預(yù)見的非技術(shù)風(fēng)險的“軟風(fēng)險”)以及程序性的注意義務(wù)三個層面展開,形成類型化、層次分明的義務(wù)體系。
-向上滑動,查看完整目錄-
《法學(xué)論壇》2026年第3期目錄
【特別策劃·生成式人工智能侵權(quán)責(zé)任研究】
1.生成式人工智能侵害肖像權(quán)的侵權(quán)責(zé)任
程嘯(5)
2.生成式人工智能服務(wù)提供者的注意義務(wù)
姚佳(17)
3.生成式人工智能中的個人信息保護(hù)
李西泠(32)
【學(xué)術(shù)視點】
4.論風(fēng)險行政的參與程序
王貴松(46)
5.標(biāo)準(zhǔn)必要專利芯片級許可的合理性問題
易繼明(56)
6.成年意定監(jiān)護(hù)協(xié)議的適用銜接
王雷(71)
【熱點聚焦】
7.論刑事涉案財物審判程序的優(yōu)化路徑
趙恒(83)
8.刑事涉案虛擬貨幣集中處置論
袁義康(95)
9.信息網(wǎng)絡(luò)犯罪案件管轄“犯罪地”確定的難題與破解
奚哲涵(108)
【法治前沿】
10.論違約消極獲益的區(qū)分定性
張平華、毛仙鵬(119)
11.論傳染病防治信息使用目的
滿洪杰、劉珺瑋(131)
12.數(shù)字紀(jì)檢監(jiān)察的邏輯起點與法治化治理的體系化展開
李智偉(140)
13.比例原則視角下家庭教育指導(dǎo)令的制度完善
李雪(153)
【青年論壇】
14.論商品房消費者的司法判斷標(biāo)準(zhǔn)
王懋祺(164)
《法學(xué)論壇》由山東省法學(xué)會主管主辦,以“繁榮法學(xué)研究,推進(jìn)依法治國”為宗旨,遵循“傳播新思想、探討新問題、交流新成果、宣傳新法律、介紹新知識”的辦刊思路,立足法學(xué)研究前沿,堅持法學(xué)基礎(chǔ)理論研究與法學(xué)應(yīng)用理論研究相合,刊登法學(xué)研究的最新成果,積極為推進(jìn)依法治國,建設(shè)社會主義法治國家提供理論支持和智力服務(wù)。《法學(xué)論壇》是CSSCl來源期刊、中文核心期刊、中國人文社會科學(xué)核心期刊、山東省優(yōu)秀期刊、華東地區(qū)優(yōu)秀期刊。
點擊進(jìn)入下方小程序
獲取專屬解決方案~
責(zé)任編輯 | 郭晴晴
審核人員 | 張文碩 韓爽
本文聲明 | 本文章僅限學(xué)習(xí)交流使用,如遇侵權(quán),我們會及時刪除。本文章不代表北大法律信息網(wǎng)(北大法寶)和北京北大英華科技有限公司的法律意見或?qū)ο嚓P(guān)法規(guī)/案件/事件等的解讀。
特別聲明:以上內(nèi)容(如有圖片或視頻亦包括在內(nèi))為自媒體平臺“網(wǎng)易號”用戶上傳并發(fā)布,本平臺僅提供信息存儲服務(wù)。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.