
-
專利
-
商标
-
版權
-
商業秘密
-
反不正當競争
-
植物新品種
-
地理标志
-
集成電路布圖設計
-
技術合同
-
傳統文化
律師動态
更多 >>知産速遞
更多 >>審判動态
更多 >>案例聚焦
更多 >>法官視點
更多 >>裁判文書
更多 >>内容提要:在生成式人工智能平台如何承擔著作權侵權責任的問題上,由于我國相關治理文件中未能對提供内容與提供服務加以明确區分,緻使平台在主體屬性和歸責事由上出現法源選擇和适用的雙重難題。根據域外和我國長期适用“避風港”規則的司法經驗,法院一般以類推适用信息存儲空間服務提供者版權侵權認定規則涵攝新興網絡服務提供者類型。雖然生成式人工智能平台在内容來源、生成過程和使用方式等方面都不同于傳統的信息存儲空間和搜索鏈接服務,但在著作權侵權責任的認定上,仍有必要類推适用。就主體定位而言,在現有法律體系内,生成式人工智能平台仍屬于網絡服務提供者的範圍。對于事前必要措施和事後必要措施的解釋,一方面當特定提示語和侵權内容之間出現穩定複現時,可将修改相關模型參數納入必要措施範圍;另一方面在延續适用“通知—必要措施”的基礎上針對合規通知的侵權内容中涉及他人作品的部分,增加内容标注義務。
關鍵詞:生成式人工智能 網絡服務提供者 “避風港”規則 通知—必要措施
一、問題的提出
互聯網平台作爲内容傳播和獲取的主要渠道,在給公衆帶來巨大經濟和社會價值的同時,亦面臨着愈發難以抑制的大規模侵權問題。在技術的幫助下,“用戶生成内容”(User-Generated Content)模式已經使普通網絡用戶獲得了随時借助他人作品進行“二次創作”的能力。如今“人工智能生成内容”(AI Generated Content)的普及,則是再次顯著降低了網絡用戶生成内容的門檻,“全民創作”的時代真正到來。作爲直接向網絡用戶提供人工智能技術的主體,生成式人工智能平台是否因其所生成的内容侵犯著作權而承擔責任,将會直接決定人工智能産業的侵權治理成本和發展前景。然而在此問題上,我國和域外在司法判定上都存在不同結論。我國有法院認爲平台方由于“投訴舉報機制欠缺、潛在風險提示欠缺、顯著标識欠缺”,且未能采取一定的技術性措施來避免生成與原作品實質性相似的圖片,所以應承擔侵權責任,相當于将生成式人工智能平台視爲内容提供者且認定爲直接侵權責任。但也有法院在認定同類争議時提出,平台對用戶輸入涉嫌侵權的提示語及其對生成内容的傳播行爲并不當然負有事先審查義務,隻有當其對具體侵權行爲具有過錯時才可能構成幫助侵權,這顯然是以間接侵權規則來審視平台的行爲。而在美國的相關訴訟中,法院基本駁回了原告提出的平台間接侵權之訴,認爲原告未能證明生成式人工智能平台有能力監督涉嫌侵權的行爲或者從該行爲中直接獲取經濟利益,其中對監督和直接獲利的考量,明顯是将平台視爲網絡服務提供者并納入“避風港”規則的免責範圍。
新技術對著作權制度的影響在曆史上乃是常态,無論是廣播時代“索尼”案中的著作權人與錄像設備生産者之争,還是互聯網時代Grokster案和谷歌圖書館案中的著作權人與各類網絡服務提供者的分歧,版權産業和著作權法始終根據技術發展進行調整。本次沖擊的不同之處在于,生成式人工智能平台開始根據用戶提示語提供具有獨創性的新内容,原作品和新内容的差異,以及用戶主動提示和平台被動生成之間的關系,都意味着既有規則面臨如下挑戰。
第一,生成式人工智能平台是提供内容的主體還是提供服務的主體的認定争議。無論是線上還是線下,傳統内容提供模式一直是擁有内容的一方單方面向用戶提供,而生成式人工智能平台是被動基于使用者的提示語生成内容,内容生成的意圖和結果皆來自用戶,導緻現今直接将生成式人工智能平台認定爲内容提供者的司法結論存在問題。另外從法源基礎上看,我國相關行政規章的表述本身就存在沖突。2023年《生成式人工智能服務管理暫行辦法》将生成式人工智能服務提供者定義爲“利用生成式人工智能技術提供生成式人工智能服務(包括通過提供可編程接口等方式提供生成式人工智能服務)的組織、個人”,其中使用的仍然是“提供服務”的表述。但在該辦法第三章服務規範的規定中,又明文規定“提供者應當依法承擔網絡信息内容生産者責任”。那麽人工智能平台究竟是提供服務還是提供内容,不但文件内涵和表達存在差異,司法判決的結果也并不統一。
第二,生成式人工智能平台是否适用“避風港”規則的争議。無論是認定爲直接侵權還是間接侵權的判決,都認爲人工智能平台未能滿足事前和事後必要措施的要求。從事前必要措施看,法院認爲平台未能根據《生成式人工智能服務管理暫行辦法》的要求提供投訴舉報機制、潛在風險提示和顯著标識;從事後必要措施看,法院提出平台應當“進一步采取關鍵詞過濾等措施,防範其服務繼續生成與涉案作品實質性相似的圖片”。可見,法院顯然将上述措施視爲生成式人工智能平台免責的前提,這其實是延續了在網盤和算法推薦等争議問題上部分法院要求将過濾納入平台必要措施的裁判趨勢。上述争議既包括主管部門公法性質的管制性文件是否能直接作爲著作權侵權認定的法源基礎,也包括“避風港”規則和著作權侵權規則體系在多年的本土化改造後如何應對生成式人工智能平台的侵權責任認定。裁判規範的選擇不但會決定平台責任承擔方式是否調整,更會影響人工智能産業的未來發展。
質言之,不同互聯網平台在技術和商業模式上的特點,使得其技術成本和信息管理能力亦存在巨大差異,是類推适用既有規範及其解釋經驗還是創設新的規範,則需要結合生成式人工智能的技術特點和治理成本來讨論。有鑒于此,我國生成式人工智能平台侵權規則的法源梳理與适用,需要首先明确提供内容和提供服務的标準,确立生成式人工智能平台主體的屬性。在此基礎上系統反思我國和域外在信息存儲空間服務等傳統網絡服務提供者類型上積累的裁判經驗,根據人工智能生成内容的技術和商業模式界定其事前和事後必要措施的範圍。以激勵版權産業與人工智能産業合作爲目标,構造生成式人工智能平台著作權侵權認定問題上的新的解釋路徑,爲傳統産業與新興産業的協調發展提供司法裁判上的穩定預期。
二、生成式人工智能平台——主體屬性的類型認定
長期以來,互聯網平台直接侵權和共同侵權的區分,都是基于其所實施的行爲。如果有證據證明平台直接參與了向公衆提供作品的行爲,就需作爲内容提供者納入直接侵權的判定标準下檢視,反之,如果平台存在幫助或引誘等行爲促成直接侵權的實現,則作爲網絡服務提供者并檢視共同侵權規則的适用。同理,生成式人工智能平台是納入既有網絡服務提供者類型還是需要另立新類型,也需要在充分比對其行爲與既有規範要件的基礎上确定,其後才涉及适用直接侵權抑或共同侵權的規範。
在既有制度體系中,何謂“網絡服務提供者”并無一個明确的界定規範。爲世界各國所仿效的《數字千年版權法案》(Digital Millennium Copyright Act, DMCA),乃是采取列舉的方式逐一設定不同網絡服務類型的免責條件,但對于網絡服務提供者概念本身既不存在一個統一的定義,也沒有明确提供内容與提供服務的邊界。根據該法案,可以适用“避風港”規則的“服務提供者”(service providers)包括四類:(1)爲第三方提供在線内容傳輸渠道服務;(2)爲通過互聯網傳輸内容提供臨時存儲空間服務;(3)爲用戶提供内容存儲空間服務;(4)爲用戶提供信息定位或鏈接服務。對于第一類僅提供傳輸服務的服務提供者,該法案将其定義爲“根據用戶指定進行點對點數字化在線内容傳輸或鏈接服務,且不會對傳輸内容進行任何修改”的主體。而針對僅提供傳輸服務以外的服務提供者,該法案則更廣義地界定爲所有“提供在線服務或網絡接入服務的提供者或服務設備運營者”。從中可見,網絡服務提供者乃是在技術中立前提下爲用戶提供傳輸、存儲和獲取内容等技術支持的主體。我國《信息網絡傳播權保護條例》(下稱“《信網權條例》”)及相關司法解釋,也移植了對網絡服務提供者的四種類型化列舉。這種以列舉具體類型來界定網絡服務提供者的立法模式,主要是因爲早期互聯網平台所提供的商業模式有限,所以僅在其信息管理能力範圍内承擔制止侵權行爲,“避風港”規則中最重要的“通知—必要措施”義務,隻需涵蓋信息存儲空間和搜索鏈接這兩類有能力影響内容傳輸的平台即可。
生成式人工智能平台迅速普及後,我國已有相關規範加以跟進,但其在私法領域的主體屬性卻出現了法源上的混亂。依據我國現有相關政策性文件和司法判例,生成式人工智能平台是納入既有類型還是創設新類型,甚至歸入内容提供者範疇的嘗試都已在實踐中出現。我國《生成式人工智能服務管理暫行辦法》一方面在第22條中将“生成式人工智能服務提供者”定義爲“利用生成式人工智能技術提供生成式人工智能服務(包括通過提供可編程接口等方式提供生成式人工智能服務)的組織、個人”,另一方面在第9條中又提出“提供者應當依法承擔網絡信息内容生産者責任,履行網絡信息安全義務”。其中“網絡信息内容生産者”這一概念,又來自2020年《網絡信息内容生态治理規定》第41條,是指“制作、複制、發布網絡信息内容的組織或者個人”。可見現有規章存在提供内容與提供服務不分的矛盾,在概念設定上使用“服務提供者”的表述,但在責任認定上又以“内容生産者”爲标準。無論是《生成式人工智能服務管理暫行辦法》還是《網絡信息内容生态管理規定》,其上位法都是《網絡安全法》《數據安全法》等公法性質的行政法律法規,顯然不能直接作爲著作權領域争議問題的法源基礎。故此,在應對著作權侵權問題時,生成式人工智能平台的主體屬性仍然需要回歸私法規範,即根據提供者的具體行爲來決定是否适用“避風港”規則。
在提供服務和提供内容的區分問題上,我國從作爲特殊法的《信網權條例》到作爲一般法的《民法典》都将直接提供内容的互聯網平台稱爲“網絡服務提供者”,與提供内容的網絡用戶等同對待。換言之,我國針對提供内容和提供服務的區分同樣是在網絡服務提供者這個統一的概念下通過平台具體行爲進行個案認定,然後在法律效果上分别歸入直接侵權和共同侵權的判定體系,并将直接或以實質替代等方式提供作品納入直接侵權。所以生成式人工智能平台的主體屬性,取決于生成内容的服務是否構成直接提供作品。如果單純着眼于生成結果,用戶通過生成式人工智能平台所獲得的大部分内容确實可視爲作品。但其中特殊之處,卻體現于在内容來源、生成過程和内容傳播三個方面如何認定平台的參與程度上,這些問題在已有判例中鮮有深入論證。
首先,從内容來源看,涉嫌侵權的作品既不是由平台主動提供,也并未事前存儲于平台服務器中。用戶輸入提示語後,後續的生成過程是以大規模語言模型預訓練的算法自動完成。如果平台同時是人工智能的設計者,則平台方僅在模型訓練階段塑造過人工智能生成内容的風格和偏好;如果平台使用來源于他人設計的人工智能,那麽更是在所有環節都沒有參與生成。無論屬于上述何種情況,可以确定的是,平台既未主動使内容處于用戶可獲取的狀态,也沒有主動向用戶推送内容。
其次,從生成過程看,平台無法決定所生成的内容中蘊含何種元素。人工智能乃是根據用戶“定制”生成内容,即使同一用戶多次輸入相同提示語,所獲得的内容也可能不同。在域外針對人工智能生成内容展開的諸項訴訟中,法院就已經明确駁回了原告著作權人請求認定生成式人工智能平台構成直接侵權的訴訟請求,認爲人工智能算法并非拼貼或洗稿工具,除非直接證明原作品的一部分被包含在所生成的内容中,否則生成後的内容并非未經許可制作的改編作品。這說明人工智能生成内容并非是從已有作品中直接摘取具有獨創性的元素來形成新作品,而是在前期通過機器學習獲得大量同類作品的風格、邏輯和表達方式等,然後根據用戶的需求生成新内容。
最後,從使用方式看,内容生成和向公衆傳播兩個環節應區分對待。在第一個環節中,生成式人工智能平台類似于提供搜索引擎服務,都是基于用戶的輸入提供内容,差别在于用戶從生成式人工智能平台那裏獲得的是新的内容。在第二個環節中,由于公開傳播内容的主體是用戶,平台僅向用戶提供其定制的内容,并未使内容處于公衆可獲取的狀态,其行爲顯然不滿足信息網絡傳播權中“向公衆提供”和“公衆在其選定的時間地點獲取”這兩個要件。
綜上可見,雖然用戶有獲得特定内容的事實,但該内容既非生成式人工智能平台主動提供,也沒有事先存儲于平台的服務器上,所以平台不構成信息網絡傳播,仍然以網絡服務提供者的身份适用“避風港”規則。《生成式人工智能服務管理暫行辦法》中不區分提供内容和提供服務,意在實現公法領域保障國家安全和社會公共利益的需要,但不應直接适用于著作權領域。同時,鑒于現今網絡服務提供者的具體類型與“避風港”規則提供的具體免責條件對應,創設全新的網絡服務提供者類型就需要對其歸責和免責條件加以全面設定。在生成式人工智能技術尚在快速發展的階段,如果在立法上将生成式人工智能平台作爲全新的網絡服務提供者來創設規則,短時間不可能做到立法的科學化和全面性。我國雖有法院在認定結論上提出生成式人工智能平台提供的是“新型網絡服務”,但從判定方法看,其仍然認爲平台對不受其控制和幹預的傳播行爲不負有事先審查義務,事實上完全采取了基于《信網權條例》和《最高人民法院關于審理侵害信息網絡傳播權民事糾紛案件适用法律若幹問題的規定》(下稱“《信網權司法解釋》”)的區分标準,并未設定任何新規則。故此,與其不斷根據人工智能技術的發展頻繁修改法律,不如選擇類比已有相關主體類型的制度安排,通過準确對具體情形下“應知”和必要措施的解釋來界定生成式人工智能平台的侵權責任。
三、網絡服務提供者——類型化涵攝的制度意義
将生成式人工智能平台界定爲網絡服務提供者,意味着其仍然可以适用“避風港”規則。但平台侵權責任的具體認定,卻無法直接套用現有解釋路徑。即使《民法典》出于覆蓋所有民事權利的需要沒有具體劃分網絡服務提供者的類型,著作權領域的網絡服務也仍在司法實踐中借助司法解釋和相關審理指南堅持類型化判斷。首先依據特别法優于一般法的原則,以《信網權條例》規制可納入法定類型的網絡服務提供者;其次才針對超出法定類型但又屬于提供網絡服務的互聯網平台适用《民法典》的網絡侵權條款。這種具體類型與具體侵權責任對應的立法模式,主要意義在于盡可能根據網絡服務提供者所提供服務的性質、方式及其引發侵權的可能性大小來合理安排歸責和免責事由,避免法定義務超越網絡服務提供者的信息管理能力。對于生成式人工智能平台而言,究竟是在網絡服務提供者的範圍内新設歸責事由,抑或在針對其商業模式特征的基礎上爲必要措施的認定提煉具體解釋,成爲首先需要解決的問題。
回溯曆史可以發現,如何規制新商業模式驅動下産生的網絡服務提供者其實有先例可循。随着互聯網商業模式的叠代,互聯網平台所提供服務的豐富程度已遠超出“避風港”規則所列舉的四種傳統類型。一方面移動互聯網時代“用戶生成内容”模式的普及,使網絡用戶大量使用受著作權法保護的作品進行二次創作成爲常态,不但大規模侵權和重複侵權顯著增長,而且平台與著作權人收益之間出現了越來越大的“價值差”(value gap);另一方面互聯網平台在當今社會的重要性和經濟實力,都遠勝“避風港”規則誕生時依靠“門戶網站”傳播内容的Web 1.0時代,因而平台有能力獲取市場優勢地位。各國都試圖改進規制手段來應對上述問題。
美國作爲互聯網産業長期強勢的國家,亦是“避風港”規則的創設之地,理應引領和細化針對網絡服務提供者的立法,然而其至今卻始終堅持通過擴大解釋存儲空間服務來吸納新興互聯網商業模式。從P2P軟件分享平台、電子商務平台到“用戶生成内容”平台,都先後通過法院判決類推适用信息存儲空間服務提供者的規範,延續了“避風港”規則中的“通知—删除”義務。選擇以信息存儲空間服務來涵攝新的服務類型,可視作美國判例法傳統和産業博弈考量相結合的産物。“舊瓶裝新酒”的原因,主要在于信息存儲空間服務乃是提供其他服務類型的基礎,無論是傳統的“用戶生成内容”還是算法推薦平台,都仍然是以提供信息存儲空間爲基礎的網絡服務提供者。在此基礎上,針對新型網絡服務提供者是否構成“不知悉具體侵權行爲”和“未直接獲取經濟利益”這兩個共同侵權要件,并以此要求生成式人工智能平台盡到注意義務并阻斷網絡用戶非法使用信息存儲空間後,可以起到與原先規制信息存儲空間服務相同的效果。如此一來,在信息存儲空間服務上積累的大量判例經驗就能類推适用,一方面省去了另設新規的繁瑣和困難,另一方面也實現了以類推解釋來保障同等對待同類行爲的效果。我國司法實踐雖然沒有明确以信息存儲空間服務歸責事由涵攝新興類别網絡服務,但立法上已經實現《民法典》“網絡侵權條款”對《信網權條例》的兜底和補充,而且“網絡侵權條款”的“避風港”規則完全是對該條例同類規則的移植與細化。故此,實踐中我國法院其實無需借助擴大解釋的手段應對新問題,隻需要直接适用《民法典》即可實現同類規制。但在判斷特定網絡服務提供者是否“知道”以及如何承擔“必要措施”問題上,仍然需要根據具體服務類型來形塑判定标準。
法院在裁判中偏向于采取一種謹慎解釋的司法态度,目的在于避免将技術創新等同于概念創新,不過于看重網絡服務在技術和新商業模式上的變化,而是繼續從平台實際的信息管理能力出發,将互聯網産業整體視作處于發展進程中的産業類型。事實上即使是在同一細分領域的網絡服務提供者,各自規模和信息管理能力也存在很大差别。所以針對采用新興技術和商業模式的網絡服務提供者,立法和司法上的基本立場也依舊是在歸責事由上予以重點考慮,以避免過分增加平台的治理成本。實踐中那些擁有大規模用戶的平台,在經濟實力和地位上一般具有兩項優勢,一是有條件使用包括算法過濾在内的各種技術措施來幫助抑制侵權問題,二是有能力從包括集體管理組織和出版機構等擁有大量作品著作權的權利人獲得授權。但對于中小規模特别是初創階段的互聯網平台來說,上述優勢顯然不可能在其可承受的成本範圍内獲得。如果改變“避風港”規則而提升注意義務标準,不但會導緻不正當競争,更會抑制平台新興商業模式的發展。早期針對短視頻平台的判決中,美國法院就曾堅持以既有規則涵攝視頻類社交媒體平台,将知曉的對象繼續限制在具體而非一般的侵權事實範圍内,并未提高其注意義務标準。相比而言,我國在此問題上同案不同判的情況則較爲明顯,特别是在算法推薦和算法過濾的案件中,法院對必要措施範疇的認定呈現出差異化認知。
與美國不同,本土互聯網産業一直處于弱勢地位的歐盟,早已呈現出強化互聯網平台法定義務的立法趨勢。在2019年《數字單一市場版權指令》(Directive on Copyright in the Digital Single Market, DSM Directive,下稱“《單一市場指令》”)中,歐盟同樣選擇了在信息存儲空間類服務上調整設定。但與美國司法實踐中直接以信息存儲空間服務涵蓋新興互聯網商業模式不同,《單一市場指令》是根據平台規模的差異,在現有信息存儲空間服務提供者類型中劃分出一類新的“在線内容分享服務提供者”(online content-sharing service providers, OCSSPs),即“主要以存儲和向公衆大規模提供由用戶上傳之作品爲營利性服務内容的互聯網平台”, 不但要求平台在事前“盡最大努力獲得授權”,而且必須于事後“盡最大努力阻止重複侵權”。如未滿足上述要件,平台将被視爲直接侵權而不适用“避風港”規則。
《單一市場指令》第17條構建了三層疊加式的免責體系,全面涵蓋了從事前到事後的平台義務。第一層是事前義務,即要求在線内容分享服務提供者盡最大努力對其平台上傳播的作品獲得授權。在滿足這一前提的基礎上,第二層是要求在線内容分享服務提供者盡最大努力保證著作權人已向平台提供必要信息的作品不會在該平台被獲取。第三層是要求在線内容分享服務提供者盡最大努力保證基于權利人合規通知被移除的非法内容不會被再次上傳。但與此同時,本條亦明确“不應導緻一般監控義務”(general monitoring obligation)。随後,歐盟又在2022年“爲用戶生成内容專門設計”的《數字服務法案》(Digital Services Act, DSA)中重申了對上述規則,并進一步在“在線内容分享服務提供者”的基礎上設定了“在線平台”和“超大規模在線平台”兩類主體類型,後者作爲接受服務的用戶規模達到四千五百萬的平台必須承擔更高的注意義務标準,使得該法案成爲完全根據平台規模來确定法定義務程度的典型。但這種以規模設定義務的類型化路徑,實踐中被專門針對的顯然就是谷歌、臉書和亞馬遜等極爲有限的幾家互聯網平台,所以并未從整體上顯著增加絕大多數信息存儲空間服務提供者的法定義務,仍然是局限在信息存儲空間類服務基礎上的有限調整。
由上可見,美國和歐盟作爲創設和調整“避風港”規則的先行者,雖然基于各自産業特點在注意義務的設定上有不同選擇,但在面對日新月異的互聯網商業模式時,都沒有貿然創設全新的網絡服務提供者類型,而是選擇在信息存儲空間服務的基礎上進行涵攝和調整。歐盟通過立法所調整的平台注意義務,也是将信息存儲空間服務大類中運營規模較大的那部分單列出來,仍然維持了“避風港”規則最初的類型化标準和具體化的免責設定,從信息存儲空間服務提供者這一既有網絡服務類型的侵權構成要件來涵攝新興服務。長期延續此種安排的原因,既是希望繼續利用“避風港”規則保障新興商業模式的發展,也是對未知發展方向的敬畏。針對互聯網這一仍然在不斷融合包括人工智能在内的新技術,且處于快速發展進程中的産業類型,在法律規範進行任何調整前都需要充分考慮一切類型和規模的網絡服務提供者。對于生成式人工智能平台而言,延續這種路徑也是現階段更爲可行的安排。從法律解釋的角度看,這種類推适用和等同對待也意味着按照同一法律視角來對既存差異加以抽象。當新出現的平台服務類型與既有服務類型在差異上并未達到區分對待的程度時,兩種情形的共同要素即應該通過類推使用來賦予相同法律後果,以使法律上的同等對待原則得以貫徹。特别是在我國著作權法與其他類别的知識産權法相比修法頻率較低,且人工智能産業仍處于快速叠代的現實情況下,一方面應基于《民法典》“網絡侵權條款”的解釋來應對生成式人工智能平台的侵權認定,另一方面應以技術上存在相似性的網絡服務侵權判例爲參照,在不動搖既有法律穩定性的基礎上通過類推和擴張解釋,及時應對生成式人工智能平台商業模式運作中的侵權問題。
四、事前與事後必要措施的範圍界定
基于既有網絡服務提供者的類型以及生成式人工智能平台的運作原理,在司法裁判中可以在納入生成式人工智能服務特殊性的前提下,借助信息存儲空間服務和搜索鏈接服務的裁判經驗來應對侵權認定問題。針對生成式人工智能平台在内容存儲上的争議,可以類推适用信息存儲空間服務提供者的規則。在内容獲取階段,人工智能模型一般通過網絡爬蟲等技術手段從互聯網獲取内容,然後存儲到服務器中進行轉碼、彙總和分類。所以即使在運作過程中生成式人工智能并非主動且直接使用原作品,平台在内容存儲上仍然需要信息存儲空間服務作爲前提。再者,針對生成式人工智能平台在内容提供上的争議,可以類推适用搜索鏈接服務提供者的規則。生成式人工智能服務與搜索鏈接服務類似之處,在于平台的服務目的是盡可能準确地向用戶提供其需要的内容。與之類似,生成式人工智能平台同樣無法預知提示語與所生成的作品,用戶也完全有能力同樣借助算法繞開被技術措施限制的詞句,無論是事前屏蔽抑或事後删除都無法有效解決侵權内容的生成問題。因此,根據信息存儲空間服務與搜索鏈接服務已有的解釋規則和司法積累,生成式人工智能平台侵權認定的要件,可以通過“應知—必要措施”和“通知—必要措施”的解釋來應對。
(一)“知道或應當知道侵害行爲應采取的必要措施”釋義
對于生成式人工智能平台而言,适用“知道或應當知道侵害行爲應采取的必要措施”的關鍵,在于如何解釋“應知”和如何界定應知後的必要措施範圍。我國《信網權司法解釋》将“明知”限定于網絡服務提供者接到通知後未采取必要措施的情形,但對“應知”則是從積極要件和消極要件兩個方面作出不完全列舉。積極要件是指平台對涉嫌侵權的内容進行整理、編輯或推薦等主動行爲;消極要件則是指平台未能基于應具備的信息管理能力來預見和預防侵權行爲。
從積極要件的層面看,生成式人工智能平台需要考慮其行爲是否構成“主動對作品、表演、錄音錄像制品進行了選擇、編輯、修改、推薦等”。類似行爲是否應認定爲構成主動參與的争議,之前在算法推薦問題上也曾出現。但即使在要求算法推薦平台應承擔更高注意義務的案件中,法院仍然認爲算法推薦技術的适用不屬于主動編輯或推薦。相比之下,人工智能是根據用戶的需要定制内容,隻有用戶在提示語中明确要求使用受著作權法保護的作品,算法才會在内容生成時加入,所以平台更不構成對作品的主動編輯、修改或推薦。
從消極要件的層面看,認定與平台信息管理能力相适應的注意義務與合理預防程度不可能有客觀标準,隻能依賴行業标準的積累和司法中的個案考量,因而也是司法認定争議最爲集中的部分。我國最高人民法院和相關法院發布的司法解釋和指導意見中,都是根據具體類型的網絡服務提供者來對需要滿足的構成要件進行不完全列舉,同時根據網絡服務的性質、方式、引發侵權的可能性大小、網絡服務提供者的管理能力、是否積極采取了預防侵權的合理措施,以及行業的平均預見水平和制止侵權的平均管理能力等因素加以判定。
具體到生成式人工智能平台的注意義務認定,上述在司法裁判中積累的判定經驗,可以結合提示語的侵權明顯程度以及提示語與侵權内容的關聯性加以類推适用,在此基礎上考量生成式人工智能平台是否有能力預知提示語中包含的侵權意圖。由于提示語完全源自用戶的個性化需求,平台無法事先預知,所以在此環節中用戶的輸入行爲類似在搜索引擎上輸入搜索信息,從而可借鑒對搜索鏈接服務提供者的“應知”的标準進行判斷。現行法律對搜索鏈接服務的立法和司法經驗中一直以來的觀點,都認爲對傳輸的作品、表演、錄音錄像制品或者搜索到的作品、表演、錄音錄像制品是否存在權利上的瑕疵先行作出判斷和篩選是不現實的,如果要求搜索鏈接服務提供者對搜索内容和結果逐一審核,則網絡服務提供者要麽嚴格控制規模,要麽增加審核投入,二者都會嚴重妨礙互聯網産業的創新與發展,犧牲社會的整體福祉。因此當搜索鏈接服務提供者僅根據用戶輸入的搜索關鍵詞提供鏈接,而且沒有證據證明其中存在人工幹預的痕迹時,搜索鏈接服務提供者就不構成“應知”。對于因用戶重複搜索類似内容形成的搜索提示詞,也因爲龐大的用戶量、搜索量,以及搜索提示詞即時性、動态變化、海量性特點,不可能要求平台承擔事先審核義務。
同理,排除内容的同一性差異,生成式人工智能平台基于用戶提示語生成内容,類似于搜索鏈接服務提供者對基于用戶搜索關鍵詞而鏈接到相應搜索結果,平台無法事前判定所生成的内容是否包含侵權元素。針對算法推薦展開的既有讨論也證明,過于嚴苛地要求平台擴張事前必要措施,隻會導緻平台迫于壓力采用過于嚴苛的政策進行過濾,既會損害用戶的合法利益,也會不當增加中小規模網絡服務提供者的運行成本。
基于上述推理,生成式人工智能平台是否因爲提示語中包含侵權意圖而構成應知,仍然取決于平台是否存在直接影響用戶設定提示語的行爲。如果平台僅被動地根據用戶輸入的提示語生成内容,其功能就類似于搜索鏈接服務平台基于用戶指令而提供鏈接的行爲,隻要平台沒有通過特定方式誘導使用者設定包含侵權要素的提示語,其應知義務認定就應維持在自身信息管理能力的限度,回歸适用《信網權司法解釋》第8條第1款中“網絡服務提供者應當具備的管理信息的能力”來加以判定,考量應知是否能夠在現有技術條件下直接阻止人工智能生成侵權内容。如果平台在用戶使用人工智能時以各種方式引導用戶輸入引發侵權行爲的提示語,則平台行爲就類似于搜索鏈接服務提供者所提供的“主動鏈接”服務,有理由推定平台方對所鏈接對象的具體内容具有可預見性。類推适用到生成式人工智能平台,可以認爲無論技術上是否有能力控制侵權内容的生成,平台都因爲這種主動行爲而負有對生成内容的預知義務,應視爲構成應知。從上述判定标準出發,生成式人工智能平台所應采取的必要措施,可界定爲事前盡可能降低人工智能算法在經過提示後輸出侵權内容的可能性,然而這意味着在技術層面需要考察是否能夠通過“調整模型參數”和“删除被訓練語料庫中的素材”來避免侵權。
在以往涉及信息存儲空間服務的相關判例中,法院曾提出要求信息存儲空間服務提供者積極與上傳者取得聯系,對涉嫌侵權的内容是否原創或者具有合法授權進行核實。但從生成式人工智能的現有技術原理來看,這一目标無法實現。實際上,真正的人工智能算法并非以類似“洗稿”的方式從語料庫中直接複制原作品中的獨創性元素,而是通過使用包含原作品在内的語料進行訓練的基礎上自主生成新内容。提示語引發人工智能算法生成了與既有作品構成實質性相似的内容并非是算法有意爲之,而是程序運行過程中暫時難以完全根除的錯誤所緻。究竟何種原因導緻實質性相似,技術上尚無結論,也無法預防。再者,從現階段生成式人工智能的訓練情況來看,平台對訓練數據的知曉程度也頗受限制。不但實踐中訓練數據的收集和整理有很大比例是由第三方完成,而且這種在訓練語料收集和整理過程中的權利信息标注和披露,也極可能侵害他人的隐私。因此平台在其信息管理能力内所能采取的必要措施,隻能是事後針對已經穩定呈現的具體提示語與侵權内容關聯來修改人工智能算法,而不應要求平台在事前實現調整模型參數來提前預防。
(二)“基于通知産生的必要措施”釋義
在如今的互聯網環境下,對于有效回應合格通知的必要措施界定,顯然已經不限于僅排除通知所發現的侵權内容,而是需要考量在何種程度上能夠達到防止重複侵權。對于生成式人工智能平台而言,一旦用戶發現某種表述的提示語可以穩定生成特定類型的侵權内容,此類行爲将反複出現,因而防止基于提示語重複生成已被通知過的侵權内容,同樣是界定生成式人工智能平台法定必要措施範疇時需要考慮的問題。根據《信網權司法解釋》第9條第6款,網絡服務提供者是否針對同一網絡用戶的重複侵權行爲采取了相應合理措施,也的确是判定其是否構成應知的考量要素之一。
一直以來,立法對這種合理措施的要求,是建立在技術手段的基礎上。早在“避風港”規則初次入法時,立法中就明确要求網絡服務提供者采用“标準技術措施”(standard technical measures)來阻止用戶實施重複侵權。但由于當時寄希望于完全由著作權人來承擔實施技術措施的成本,導緻何謂“标準技術措施”的“标準”始終無法達成共識,各方隻能從其他渠道應對重複侵權。這也是爲何同樣作爲美國“避風港”規則中網絡服務提供者免責條件之一的“标準技術措施”條款名不見經傳,且鮮有其他國家直接移植的原因。在互聯網平台的信息管理能力顯著提升後,歐盟又開始以“盡最大努力”阻止重複侵權的立法來要求網絡服務提供者承擔适用技術措施的成本,以此擴大平台法定必要措施的範圍。與此同時,網絡服務提供者在實踐中也因與版權産業主體在商業模式上的沖突而産生了相當的訴訟成本壓力。爲了降低商業運作成本和訴訟成本的需要,一些主流平台已經普遍采取包括算法過濾在内的技術手段來阻止重複侵權。
鑒于生成式人工智能平台所生成的是新内容,這種旨在通過技術比對實現過濾的手段難以取得類似效果。現有算法過濾技術的實現,一般包括“過濾—處置—異議”三個環節。在“過濾”環節中,“過濾”的啓動實質上取決于權利人授權。“過濾”的目的是确認版權内容與用戶上傳内容之間的相關度與重疊度,通過數字指紋技術逐幀拆解用戶上傳的文件,将其内容信息轉換爲對應的熱圖(Heat Map)信息進行采樣,據以完成實時“對比”與“匹配”。故平台在過濾之前,技術上必須先行獲取作爲參照對象的原作品。相比之下,平台顯然因所生成内容和原内容的差異而無法适用上述技術,因而阻止重複侵權隻能從語料和用戶兩個層面來嘗試。語料層面考量的關鍵是,回到平台是否有義務通過“調整模型參數”和“删除被訓練語料庫中的素材”來阻止重複侵權。但這種手段在論證“知道或應當知道侵害行爲應采取的必要措施”時已經發現,現階段技術條件下人工智能大模型一旦訓練完成,其生成内容偶然複現特定侵權内容的原因暫時難以确定,更不可能認定何種訓練數據與所生成的侵權内容存在穩定關聯,因此在“基于通知産生的必要措施”中也無法納入此項義務。而用戶層面的考量關鍵,在于是否應将封号等義務納入平台通知後的必要措施,以屏蔽侵權人的方式阻止反複侵權,以及平台是否建立已獲取合規通知提示語的數據庫,采取算法或人工審核的方式屏蔽相關關鍵詞的使用。前者目的在于将必要措施的實施對象從特定侵權行爲轉向特定侵權主體,後者目的在于提升平台對反複侵權的管理效率。兩者的共同特征,是嘗試把傳統的必要措施更多擴張适用到事前。
必要措施範圍的擴張,并非專門針對人工智能的出現,而是在以往的司法實踐中早有突破。這種解釋路徑顯然與歐盟《單一市場指令》在擴張必要措施上的立法選擇一緻。然而對于生成式人工智能平台而言,反複侵權表現爲相同或相近提示語引發了既有作品獨創性元素的複現,但每次呈現的方式會有差異,需要通過個案認定究竟應歸于侵權抑或合理使用,無法将所生成的内容一概認定爲侵權。因此司法裁判中針對直播平台和視頻分享網站提出的預知要求和事前必要措施,難以直接套用在生成式人工智能平台上。但即使技術條件和成本不允許,并不意味着平台無需采取任何必要措施來阻止反複侵權。在現階段可承受的技術和成本下,平台有能力通過以下必要措施阻止反複侵權行爲。
一是,在無法将作品庫和生成内容進行算法比對的情況下,針對已得到權利人通知且認定侵權内容中涉及他人作品的部分,可以采取内容标注的方式,提示用戶該生成的結果可能存在侵權争議。我國相關行政規章已在其他涉及算法和人工智能的領域提出“标識義務”。對于生成式人工智能平台涉及的著作權侵權争議而言,專門标識“此内容可能存在侵權争議”的義務仍然需要落實到事前必要措施的解釋中。
二是,保障用戶的利益,構建有效的“轉通知”和“反通知”渠道,避免著作權人和平台爲片面保障著作權而通過技術措施不當損害用戶的自由表達。對于平台方而言,在接到通知後直接采取必要措施是最爲節約成本和避免侵權風險的選擇,更多圍繞用戶利益展開的“轉通知”和“反通知”反而沒有得到應有的重視,以至于我國法院開始借助司法判決将“轉通知”納入平台必要措施的範圍,并認爲轉通知能夠起到“警示”侵權人的作用,一定程度上有利于防止損害後果擴大。但針對“反通知”卻缺少這樣的考量,以至于用戶的利益在其中被忽略。因此鑒于平台無法自行判斷所提供的内容是否侵權,應通過對必要措施的解釋來保障用戶有效反通知的渠道,以此制衡可能出現的通知和轉通知的濫用。
五、結論
從保障産業發展的延續性和制度的可預期性出發,生成式人工智能平台侵權的認定規則完全能夠以現有的“避風港”規則來涵攝。從技術層面看,人工智能生成内容具有被動性和不可預期性,平台并未直接向公衆提供同一性的内容,而是根據用戶的提示和引導向不同用戶生成個性化内容,所以仍然應被視爲網絡服務而非内容提供者。從規範層面看,“避風港”規則多年的本土化适用已經積累了相當的司法經驗來應對不同類型的網絡服務提供者,生成式人工智能平台在内容存儲與輸出上與信息存儲空間服務和搜索鏈接服務類型的相似性,使得在應知和必要措施範疇認定上的判例經驗積累爲平台著作權侵權責任上提供了諸多可借鑒的解釋經驗。
在此基礎上,應對生成式人工智能平台的制度适用有必要堅持以下兩點。其一,在平台主體資格的認定上,避免直接适用《互聯網信息服務深度合成管理規定》和《生成式人工智能服務管理辦法》等未明确區分提供服務和提供内容的行政規章,保障生成式人工智能平台作爲網絡服務提供者的主體定位。其二,避免過分超越現行法律來談論規制手段,借助類推解釋的方法來涵攝新問題。專門爲人工智能著作權問題設定新規的做法看似“按需定制”,但也必然導緻新舊規範的沖突和新規範對原産業的不當調整。所以針對生成式人工智能平台的特點,“避風港”規則的具體化可以從“應知—必要措施”和“通知—必要措施”兩個方面來加以專門解釋,在明知和應知的認定上,可以類推适用信息存儲空間服務和搜索鏈接服務在典型判例上解釋經驗,同時僅在有證據證明特定提示語和侵權内容之間的關聯穩定地重複出現時,才應将修改特定模型參數納入必要措施範圍。
評論