2024年2月,加拿大航空公司由于其人工智能客服為乘客提供錯誤的優(yōu)惠購票流程,造成當事人經(jīng)濟損失,被告上法庭。法庭判決加航賠償當事人差價及訴訟費。
值得關注的是加航的抗辯理由,判決書寫道:“實際上,加拿大航空公司認為聊天機器人是一個獨立的法律實體,應對自己的行為負責。 ”法官則認為:"雖然聊天機器人具有互動性,但它仍然只是加航網(wǎng)站的一部分……對于加航來說,顯而易見的是,它要對其網(wǎng)站上的所有信息負責……信息是來自靜態(tài)頁面還是聊天機器人并無區(qū)別。”
實際上,與人工智能有關的不少案件爭論點都可以追溯到“主體性”問題,比如2023年11月北京的“AIGC第一案”,也有律師認為人工智能主體性問題存在爭議;還有以強人工智能是否為刑事主體的研究……人工智能的主體性認定是實現(xiàn)人工智能治理難以繞過的話題。
目前為止,人工智能相關案件的判決基本體現(xiàn)了法官對“人工智能是法律主體”觀點的否定,但筆者希望通過本文建立對人工智能主體性的認定標準,以及人工智能產(chǎn)品造成損害時的侵權(quán)歸責的認定流程,并一窺人工智能法律治理的可能路徑。
人工智能是不是法律主體?根據(jù)我國《民法典》,人工智能不是自然人(無生命),也不是法人和非法人組織(非組織),自然不是《民法典》中調(diào)整的“平等主體”,故也不可認為是“無民事行為能力人”(這是自然人的一種)。
請想象這一情形:甲誘導AI生成對乙的誹謗信息,并令AI在網(wǎng)上公開。乙起訴甲侵犯名譽權(quán),甲辯稱誹謗信息不是其本人所作,而是AI生成并發(fā)布,應由AI承擔侵權(quán)責任。
這種辯駁當然是站不住腳的,但引發(fā)我們思考:在本案中,行為人是甲還是AI?當AI純粹作為甲的工具以實現(xiàn)其侵權(quán)行為時,顯然甲是真正的行為人,應承擔侵權(quán)責任。《民法典》第1194條有類似規(guī)定:“網(wǎng)絡用戶、網(wǎng)絡服務提供者利用網(wǎng)絡侵害他人民事權(quán)益的,應當承擔侵權(quán)責任?!比缃瘛熬W(wǎng)絡”應擴大至AIGC等信息技術產(chǎn)品。
但加航案中,AI客服不受加航教唆、利用而“自行”編造錯誤信息以回應當事人的情形下,是否可以認定加航是行為人呢?當加航不存在主觀故意和利用行為的情況下,這樣認定比較牽強。可見加航的抗辯理由實際上是:都是它干的!我沒叫它這樣做,所以不該我負責。兩案的區(qū)別在于:乙訴甲案中,AI充當?shù)氖怯幸馇謾?quán)者的工具,響應“甲方”需求;加航案中,AI是被侵權(quán)者的工具,響應“乙方”需求。
因此,加航案中 AI主體性問題的實質(zhì)是侵權(quán)行為人與權(quán)責主體的分離,即:AI的鍋,它自己不背,讓人類背。這類案件的特殊性就在于并非自然人、法人、非法人組織的的AI實際實施了侵權(quán)行為,但AI不能為其行為承擔法律責任,對目前的AI實施懲罰是沒有意義的,也無法從AI那里獲取對當事人的經(jīng)濟賠償。這與以往的行為人與擔責人的關系有本質(zhì)區(qū)別。AI并不能作為權(quán)責主體,但在此類案件中不得不被視為“行為人”,這是新技術時代下的“特殊行為人”。
那么,在加航案中,既然行為人是AI,為什么侵權(quán)責任由加航承擔呢?上文已給出法官的理由:作為AI客服提供者,加航應為其提供的信息負責。此外,筆者認為,若AI客服是加航外包給某生產(chǎn)商的產(chǎn)品,則生產(chǎn)商也應為產(chǎn)品缺陷負責?!睹穹ǖ洹返?202條規(guī)定:“因產(chǎn)品存在缺陷造成他人損害的,生產(chǎn)者應當承擔侵權(quán)責任?!蓖茝V地說,由于AI不可被認定為主體,則AI的責任必須壓實在某個主體上,否則被侵權(quán)者無處追訴。為促使提供者與生產(chǎn)者重視技術安全,這一壓實方式可能是必要的,這也將倒逼生產(chǎn)者研發(fā)更加安全可靠的AI技術。在理論上,提供AI客服服務的提供者也應當為其服務問題擔責。
在這一過程中,人類從來不知道AI是用什么方法解題的,這叫做“黑箱”;而AI最終可以做對它沒做過的題,也就是,AI可以輸出任何人都沒有教過它的東西,這與傳統(tǒng)的編程有很大不同。于是AI客服可以說出加航從來沒教過它的錯誤信息也就不足為奇了。
但是,AI永遠不可能成為“主體”嗎?一旦AI成為主體,其責任被確認時,其權(quán)利、義務也必須接踵而至,這的確難以想象。但筆者認為,人工智能的主體性認定應該具備這一要件:人工智能在人類沒有提出需求的情況下,自主輸出產(chǎn)品(自主原則)。
不難發(fā)現(xiàn)目前AI案件的共性:AI是人類的工具,即根據(jù)人類需求產(chǎn)出人類所需成果之非生物體。即使AI可以輸出沒學過的內(nèi)容,但任何輸出都因人類需求而產(chǎn)生。即使通用人工智能出現(xiàn),只要AI的工具性沒有改變,它與瑞士軍刀之類的通用工具沒有本質(zhì)差異。但是,一旦人類沒有提出需求,而AI可以自主行動,它可以生產(chǎn)出人類無法抵御的惡性產(chǎn)品,無論其是否有主觀意識、意圖如何,它已經(jīng)失控。根據(jù)行為,可認為這種AI在智力方面與有自由意志、可自我決策、執(zhí)行自身意圖的自然人一致。目前的AIGC產(chǎn)品都需要人類提出“提示語”,但人類的描述能力千差萬別。效率需求必將促使“AI自行給出提示語”的技術出現(xiàn),正如深度學習中AI自行提取特征代替人工提取。一旦如此,需求的提出就逐漸不再由人類進行,而是AI挖掘需求和實現(xiàn)需求。即使所有的需求實現(xiàn)都需先經(jīng)人類批準,但AI仍可將自己的“意圖”藏在支離破碎的申請中,很久后才發(fā)現(xiàn)實際作用。一根可以自行移動的木棍比人手中的瑞士軍刀更危險。筆者認為,可以自主行動的AI比AGI危險得多。
不是工具,就一定是主體嗎?動物也不能被認為是主體,因此有構(gòu)成要件二:可根據(jù)外在行為推定人工智能已具備至少與人類同等的“智力”、“體力”,并且對人工智能實施懲罰是有意義的(平等原則)。
圖靈測試就是根據(jù)外在行為推斷機器有沒有與人同等的智力。當AI可以自主輸出產(chǎn)品,并且與可承擔法律責任的自然人具有一定程度的“平等”性質(zhì)時,才可能認為AI具備主體性。
為什么上文只字不提“自我意識”?筆者認為,人工智能自圖靈1950年的構(gòu)想開始,就不以其內(nèi)部“思考”過程為衡量它能否思考的標準,同理,AI是否有意識、情感等,也不可以鉆進其中找答案,只可以根據(jù)外在行為。直到現(xiàn)在,AI都是在做“模仿游戲”。無論對人腦與意識的研究進行到何種地步,都應記住:AI技術受生物學啟發(fā),但并不是照搬;人機思考方式有別,照搬人類未必效果最好。不應該用無法證實或證偽的“人工智能具備自我意識”作為AI主體性認定的標準,“我們只能討論可以測量的東西”,即外在行為。
綜上可得:
1. 認定人工智能主體性的兩項要件(還不完整):自主原則、平等原則。
2. 認定非主體的AI是行為人的標準:響應受損者需求,或可證明造成侵權(quán)的輸出不由提供者引導產(chǎn)生(加航案);此時提供者應承擔侵權(quán)責任,生產(chǎn)者應承擔產(chǎn)品缺陷責任。
3. 認定AI非主體、非行為人的標準:響應侵害者需求,或可證明使用者引導AI輸出造成侵權(quán)的產(chǎn)品(乙訴甲案);此時僅需行為人承擔侵權(quán)責任,責令提供者與生產(chǎn)者加強技術安全水平。
從中可見,目前的人工智能產(chǎn)品造成的侵權(quán),如果是使用者惡意通過AI侵犯他人權(quán)益,則只追究使用者:AI生產(chǎn)者與提供者不承擔侵權(quán)賠償責任,但有維護網(wǎng)絡安全的責任;如果因AI缺陷,在沒有利用AI進行非法行為的情形下,生產(chǎn)者承擔產(chǎn)品缺陷責任,提供者承擔侵權(quán)責任(若生產(chǎn)者即提供者,如無人駕駛汽車公司,則需同時承擔雙重責任)。
在《人工智能法(學者建議稿)》中,第85、86條也體現(xiàn)了上文部分結(jié)論。
但是,一味在AI出現(xiàn)問題時追責提供者與生產(chǎn)者,也將導致技術發(fā)展受阻。上文雖已論證在提供者沒有利用AI侵權(quán)時仍需承擔侵權(quán)責任,但為了協(xié)調(diào)公平/安全與效率,長遠之計是設立AI安全標準。因為AI可以輸出無限種成果,測試者不可能一一遍歷,難免造成類似加航案的結(jié)果。如果生產(chǎn)者與使用者可以證明其AI產(chǎn)品已經(jīng)符合安全標準,則可酌情減輕責任,但造成重大事故、人員傷亡等嚴重后果的不適用該減輕條件。例如無人車事故案件,這種規(guī)定也許是必要的。
在技術方面,為AIGC加上過濾器是一條可能的路徑。讓AI學習哪些輸出是禁止的(這也是有標注數(shù)據(jù)),并在最終輸出前加上這一過濾器,可以減少類加航案的發(fā)生。
進一步思考:在AI高速發(fā)展的當下,成文法如何貼合現(xiàn)實是一個難題。若為及時貼合AI發(fā)展變化而頻繁修改法律,這對法治社會的影響或甚于AI造成的沖擊;若為了預留彈性只提供基本原理,隔較長時間后再行修訂完善,則在解決新情形和實踐中適用一般原則方面造成困難。筆者斗膽提出:對高速發(fā)展科技的法治,應當借鑒判例法的思路。筆者不加論述地提出以下具體建議:
1. 由最高檢、最高法在一定周期內(nèi)整理、發(fā)布國內(nèi)典型判例,重視案情分析與法律適用的內(nèi)容,作為今后裁判的參考,后經(jīng)人大審議通過即成為正式裁判依據(jù)之一,以補一般原理之抽象性。
2. 發(fā)布判例的周期應當短于人大修改法律的周期,并與技術發(fā)展速度、判例與法條適用程度相當。
3. 設立人工智能相關案件的專門研究單位和學術刊物,促進學術研討與交流。
4. 提升法律工作者對新技術的知識,組織培訓。
5. 重視對人工智能相關案件的復核、重審工作,盡量避免、努力糾正冤假錯案。
6. 積極對人民群眾進行普法和科普教育。
實際上,本文在一定程度上也體現(xiàn)了判例法的思路:對具體案件做分析并抽象出“具體規(guī)律”。今后,公平/安全與效率的協(xié)調(diào),理性主義與經(jīng)驗主義的協(xié)調(diào),科技發(fā)展與社會穩(wěn)定的協(xié)調(diào)仍是重要課題。
資料鏈接:
[1]https://www.cxtoday.com/speech-analytics/court-orders-air-canada-to-pay-out-for-chatbots-bad-advice/(加航AI客服案報道)
[2]中華人民共和國民法典[M]. 北京:人民出版社,2020.6.
[3]A. M. TURING, I.—COMPUTING MACHINERY AND INTELLIGENCE, Mind, Volume LIX, Issue 236, October 1950, Pages 433–460, https://doi.org/10.1093/mind/LIX.236.433
[4]https://mp.weixin.qq.com/s/soaPpX4eBq0TQZRrqkQPiA(中國經(jīng)營報報道北京AIGC第一案)
[5]https://mp.weixin.qq.com/s/sTG-mfp8DYa9nfkPUXsUmw(《人工智能法(學者建議稿)》)
2024年4月15日