版權(quán)說明:本文檔由用戶提供并上傳,收益歸屬內(nèi)容提供方,若內(nèi)容存在侵權(quán),請進行舉報或認領(lǐng)
文檔簡介
1、 人工智能有限法律人格審視 袁曾內(nèi)容Summary:現(xiàn)行法律體系下對于人工智能的法律人格規(guī)制缺位,造成實踐應(yīng)用缺乏法律價值指引,人工智能的法律地位與具體規(guī)制亟待明晰。人工智能具有獨立自主的行為能力,有資格享有法律權(quán)利并承擔(dān)責(zé)任義務(wù),人工智能應(yīng)當(dāng)具有法律人格。但由于人工智能承擔(dān)行為能力的后果有限,人工智能適用特殊的法律規(guī)范與侵權(quán)責(zé)任體系安排,其具有的法律人格是有限的法律人格,域外法律對此已有立法借鑒。為調(diào)整適應(yīng)人工智能有限法律人格的規(guī)制安排,必須明確人工智能歸責(zé)原則,通過強制投保責(zé)任險、確立以人為本的監(jiān)管體系、加速人工智能發(fā)展法立法等體系性安排促進人工智能在可控的范圍內(nèi)發(fā)展。Key:人工智能 法
2、律人格 人權(quán) 數(shù)據(jù)安全人工智能前景廣泛、應(yīng)用豐富,1 現(xiàn)階段23%的律師業(yè)務(wù)已可由人工智能完成。2 人工智能目前已實現(xiàn)自動駕駛航空器、完成高考試卷,甚至有學(xué)者提出將人工智能應(yīng)用于法律裁判。3 人工智能已進入社會生活,而與之相關(guān)的法律規(guī)制卻未能跟上人工智能技術(shù)前進的節(jié)奏。2017年7月,百度總裁李彥宏乘坐無人駕駛汽車行駛在北京五環(huán)路上引起了巨大爭議,交管部門認為此行為違反現(xiàn)行道路交通安全法。2017年7月20日,國務(wù)院印發(fā)關(guān)于新一代人工智能發(fā)展規(guī)劃的通知,4 明確提出把人工智能發(fā)展放在國家戰(zhàn)略層面系統(tǒng)布局,牢牢把握戰(zhàn)略主動。一般認為,人工智能是人機環(huán)境系統(tǒng)交互的產(chǎn)物,5 但迄今人工智能尚無一個能
3、被廣泛接受的定義。筆者認為,具有類似人類獨立思考與深度學(xué)習(xí)的能力是人工智能與其他科技最大的差異。艾倫圖靈等計算機大師曾提出人工智能遲早會威脅到人類生存,必須在問題積重難返前,對人工智能的發(fā)展作出妥善的法律規(guī)制安排,以引導(dǎo)實踐的發(fā)展。在技術(shù)的發(fā)展過程中,人工智能的法律地位、法律責(zé)任、權(quán)利義務(wù)范圍等法律規(guī)制該如何界定?對于這些問題,現(xiàn)行法律規(guī)制并無明確的解答。在法律制度無法有效應(yīng)對實際情況時,法律理論理應(yīng)出場,6 首先需要明確的問題就是人工智能是否具有法律人格,即人工智能是否等同于法律意義上的人,具有什么程度的權(quán)利與義務(wù)。人工智能的法律人格問題直接關(guān)系著侵權(quán)責(zé)任承擔(dān)、知識產(chǎn)權(quán)應(yīng)用、數(shù)據(jù)應(yīng)用安全、價
4、值一致性判斷、機器倫理學(xué)等一系列基礎(chǔ)理論的發(fā)展決策。一、人工智能的法律人格規(guī)制缺位法律人格,是指法律認可的一種享受權(quán)利、承擔(dān)義務(wù)的資格。包括自然人主體、法律擬制主體兩種形式。對于任何自然人,法律均承認其法律人格,民法上分為無民事行為能力人、限制行為能力人與完全行為能力人,但法律人格伴隨自然人終生。對于法律擬制主體的人格,則需要經(jīng)過法律規(guī)定的程序方可取得,例如有限責(zé)任公司的設(shè)立等。7 簡單地說,法律人格是某一主體能否成為法律意義上“人”的資格,是其享有權(quán)利、履行義務(wù)的基礎(chǔ)。人格是可以擴展于自然之外的實體的,8 但現(xiàn)行體系下,人工智能是否具有法律人格并不明晰,造成現(xiàn)實的適用困境。(一)缺乏法律價值
5、指引每一項重大科技應(yīng)用前后,均有對其的爭論。20世紀90年代克隆技術(shù)的成功就曾產(chǎn)生過巨大爭議,其中最大的焦點在于是否允許生理性繁殖克隆人。1997年11月,聯(lián)合國教科文組織制定人類基因組與人權(quán)世界宜言第11條明確規(guī)定,應(yīng)當(dāng)禁止生殖性克隆人類。2000年4月,日本內(nèi)閣會議通過關(guān)于限制對人的克隆技術(shù)的法律草案,禁止克隆人類。國際社會明確克隆人不具有法律人格,立法禁止克隆人類,但對人工智能的態(tài)度含混不清。對于克隆人的主要擔(dān)心在于其誕生將擾亂人類社會基礎(chǔ)的血親倫理關(guān)系,由于人工智能在繁殖方式、發(fā)展方式上均存在根本不同,因此學(xué)界主要擔(dān)憂人工智能發(fā)展程度過高后會反制人類。按照趨勢,人工智能的發(fā)展必將會在未
6、來出現(xiàn)突破,但現(xiàn)行法律規(guī)制對于人工智能法律人格的態(tài)度模糊,9 特別是在人工智能權(quán)利、侵權(quán)責(zé)任主體等關(guān)鍵問題上的缺位,使得人工智能的發(fā)展缺乏法律價值的引領(lǐng)。(二)法律地位不明由于人工智能的法律人格概念不明,導(dǎo)致其法律地位并不清晰。作為具有獨立思考能力的客體,人工智能可以“深度自主學(xué)習(xí)”、使用“神經(jīng)網(wǎng)絡(luò)”,人工智能具有此種類人特性,是否應(yīng)當(dāng)賦予人工智能以人權(quán)?從法哲學(xué)的角度分析,是否應(yīng)當(dāng)認同“人工智能等同于人”的根本問題?如果不能,人工智能技術(shù)應(yīng)當(dāng)作為何種法律主體、具有何種法律地位?人權(quán),是作為個體的人對于自己基本利益的要求與主張,這種要求或主張是通過某種方式得以保障的,它獨立于當(dāng)事人的國家歸屬、
7、社會地位、行為能力與努力程度,為所有的人平等享有人權(quán)是人之為人的最基本的權(quán)利,是一切利益和權(quán)利的前提和基礎(chǔ)。10 如果人工智能適用人權(quán)及人權(quán)倫理體系規(guī)制,則其法律地位是否等同于人類?若其具有人類完全相同的法律地位,則是否會出現(xiàn)人工智能機器人享有婚姻權(quán)同人類通婚,從而導(dǎo)致現(xiàn)行法律體系邏輯乃至人類賴以生存的倫理社會的崩塌?(三)缺少具體規(guī)則標準人工智能的短期影響取決于誰控制人工智能,而長期影響則取決于人工智能到底能否受到任何控制,人工智能的運用與發(fā)展需要法律人格的明確。從現(xiàn)實情況分析,現(xiàn)有規(guī)制并無法有效規(guī)制快速發(fā)展的人工智能技術(shù)。根據(jù)筆者2017年7月的實地調(diào)研,目前深圳人工智能產(chǎn)品由深圳市場監(jiān)管
8、委進行審批,但申報的類目為玩具類,所有的申報標準與文件均按照相應(yīng)玩具標準進行審批,在海關(guān)進出口過程中也并無人工智能這一單項列出,目前暫時仍作為玩具進出口,顯然無法滿足人工智能產(chǎn)品的生產(chǎn)與發(fā)展。筆者認為,有關(guān)人工智能發(fā)展的具體法律規(guī)制,至少應(yīng)當(dāng)包括以下幾個方面的內(nèi)容:第一是明確人工智能具有法律人格,確定人工智能享有的權(quán)利與義務(wù)邊界;第二是確定人工智能侵權(quán)的相關(guān)原則,若發(fā)生侵權(quán)事故時該怎樣認定相應(yīng)的法律責(zé)任,適用怎樣的歸責(zé)原則;第三是重視開發(fā)應(yīng)用人工智能技術(shù)時對于數(shù)據(jù)與隱私的保護;第四是確定人工智能的有效監(jiān)管規(guī)則。通過合適的具體規(guī)則標準,優(yōu)化發(fā)揮法律對于人工智能的引導(dǎo)與監(jiān)管作用。 二、人工智能具有
9、法律人格?法律規(guī)制的最終目標是構(gòu)建和諧可靠的人工智能應(yīng)用體系,在促進人工智能發(fā)展上,有必要通過法律的系統(tǒng)性調(diào)整以確保人工智能在可控的范圍內(nèi)有序發(fā)展。關(guān)于新一代人工智能發(fā)展規(guī)劃的通知提出,建立保障人工智能健康發(fā)展的法律法規(guī)框架。必須開展人工智能法律人格問題研究,明確人工智能具有法律人格。(一)人工智能是特殊性質(zhì)的法律主體對于人工智能的性質(zhì),學(xué)界一直有不同爭論。普遍流行的有工具說、電子奴隸說、代理說等。11 工具說認為人工智能是人類為生產(chǎn)生活應(yīng)用而創(chuàng)設(shè)的技術(shù),其本質(zhì)是為人類服務(wù)的工具。工具說認為人工智能無獨立的意思表示能力,并不承認人工智能具有獨立的法律人格。電子奴隸說認為人工智能不具有人類特殊的
10、情感與肉體特征,在工作時無休息等現(xiàn)實需要,可以認作不知疲倦的機器,有行為能力但沒有權(quán)利能力。代理說認為人工智能的所有行為均是為人類所控制,其作出的行為與引起的后果最終必須由被代理的主體承擔(dān)。上述三種觀點均存在不同程度的缺陷,工具說將人工智能作為工具,但忽視了人工智能技術(shù)已經(jīng)發(fā)展到可以作出獨立意思表示的階段,瑞士已有雇主為機器人繳納雇員稅的先例。再如特斯拉公司生產(chǎn)的電動汽車,已經(jīng)實現(xiàn)了不需要駕駛員操作的無人駕駛,能夠獨立自主進行選擇判斷,其工具屬性早已不屬于無意思表示能力的傳統(tǒng)“工具”。電子奴隸說認為人工智能并不具有權(quán)利能力,其引起的后果歸屬于其擁有者,雖解決了人工智能承擔(dān)法律責(zé)任的主體問題,但
11、實際上是延伸的工具說,否認人工智能的獨立主體地位。代理說中對于人工智能的代理地位的確認其實已承認人工智能具有獨立的法律人格,12 即在人工智能擁有權(quán)利能力與行為能力時,其才可能作出履行被代理人指令的行為,但代理人說并無法解決主體承擔(dān)責(zé)任的公平性問題,在人工智能完全自行作出意思表示時,由制造者還是使用者作為承擔(dān)責(zé)任的被代理人?筆者認為,人工智能是人類社會發(fā)展到一定階段的必然產(chǎn)物,具有高度的智慧性與獨立的行為決策能力,其性質(zhì)不同于傳統(tǒng)的工具或代理人。在現(xiàn)實條件下,將人工智能定義為具有智慧工具性質(zhì)又可作出獨立意思表示的特殊主體較妥。(二)人工智能享有法律權(quán)利“機器人不得傷害人類;機器人必須服從人類的
12、命令,除非這條命令與第一條原則相矛盾;機器人必須保護自己,除非這種保護與以上兩條原則相矛盾?!币陨鲜侵苹米骷?,“機器人學(xué)之父”阿西莫夫提出的“機器人三原則”。第2條中“機器人必須保護自己”實際就是給予人工智能自我保護的權(quán)利。西方哲學(xué)家認為技術(shù)發(fā)展到一定程度后必然會有精神,如果技術(shù)發(fā)展更加智慧,它就會像大腦成為精神的更好載體。13 按照上述觀點,人工智能應(yīng)該有權(quán)利,不是因為它們像人類,而是因為它們具有精神。14 權(quán)利向新實體擴展是需要經(jīng)過漫長過程的。大陸法系下,獨立的法律人格需要具備社會存在與法律確認這兩個必須條件,即需要獨立自主地作出意思表示并得到法律明確的確認。在現(xiàn)有技術(shù)條件下,人工智能
13、已可簽訂合同、管理公司,其獨立自主作出意思表示的能力已得到實現(xiàn),但暫時還未得到法律確認。在此境遇下,人工智能能否要求權(quán)利?其能否具有維持健康、獲得姓名的權(quán)利?其能否按照自我邏輯與算法作出價值判斷?其在過載時能否具有休息的權(quán)利?若人工智能沒有權(quán)利,就不會有法律地位,在法律上就不是真實的。15 根據(jù)斯通納的觀點,某一主體能否擁有法律權(quán)利應(yīng)滿足下列條件:第一,該主體應(yīng)其要求可以提起法律訴訟;第二,法院在決定授予法律救濟時必須考慮到損害;第三,法律救濟必須滿足它的利益要求。16 人工智能已可以應(yīng)用于司法裁判,其自行提出訴訟要求并無實踐難度。法院在決定救濟時應(yīng)當(dāng)考慮到人工智能受到的損害。例如,摧毀或“謀
14、殺”人工智能應(yīng)當(dāng)受到懲罰。人工智能雖然本質(zhì)上仍是工具,但這種智能可能造價高昂并且承載人類或社會的感情,因為普通機器并不具有思考與交流的能力。若有人刪除了孤寡老人的陪伴型人工智能機器人的記憶模塊,則有可能導(dǎo)致這種獨特記憶的永久消失并無法復(fù)原,從而造成更為嚴重的精神損害。法律救濟滿足人工智能的利益要求并非不可能。例如停止侵害、排除妨害均可適用于人工智能的救濟。綜上所述,人工智能可以滿足上述法律權(quán)利的三項條件,具有公認價值與尊嚴,理應(yīng)享有法律權(quán)利。(三)人工智能必須承擔(dān)法律責(zé)任1978年日本廣島的摩托車廠機器人突然轉(zhuǎn)身將其背后的工人抓住并切割,1989年全蘇國際象棋冠軍擊敗人工智能機器人,但機器人自
15、主釋放強電流致使冠軍身亡,人工智能侵權(quán)的事件事實上早已存在。隨著人工智能的不斷發(fā)展,其依靠獨立自主意識而作出的不可預(yù)測行為將變得更加危險。人類必須為自己的行為付出代價,人工智能同樣如此,并不因為人工智能并非人類就可以逃脫法律制裁,總有主體需要為作出的行為負責(zé)。若人工智能犯罪,應(yīng)當(dāng)適用怎樣的懲罰機制?而又應(yīng)當(dāng)如何避免此種犯罪行為的發(fā)生?人工智能在未來會面臨更加復(fù)雜的倫理安全問題,Google DeepMind等機構(gòu)已設(shè)立了倫理審查委員會,由不同知識背景和經(jīng)驗的專家組成,最大限度地考慮此問題。人工智能作為有獨立意識特性的特殊法律實體,法律需要向更前沿發(fā)展,而人工智能必須設(shè)計成為具有可責(zé)性與可驗證性
16、的實體,其中包括開發(fā)數(shù)據(jù)記錄全留存以便侵權(quán)后查驗、主動告知人工智能風(fēng)險、擴大人工智能相關(guān)數(shù)據(jù)披露范圍、大規(guī)模商用前現(xiàn)行測試等,盡最大努力減少人工智能可能造成的危害從而減輕相應(yīng)法律責(zé)任。三、人工智能的法律人格有限以法律手段調(diào)節(jié)生命社會關(guān)系,應(yīng)是最有力、最有效、最穩(wěn)定、最普遍的。17 從人工智能的特性分析,其具有獨立自主意識的智慧工具屬性,享有權(quán)利并承擔(dān)責(zé)任的獨特特點決定了其具有法律人格。但這種法律人格同自然人或現(xiàn)有的擬制法人并不完全相等,雖然人工智能可以作出獨立自主的行為,但其承擔(dān)行為后果的能力是有限的。在人工智能法律人格有限的前提下,方可對法律規(guī)制作出合理的安排。 (一)域外人工智能立法借鑒人
17、工智能的法律人格有限,是指其法律人格與自然人或公司不同,并不具有承擔(dān)完全責(zé)任的能力與地位。雖然人工智能可以取得權(quán)利并承擔(dān)一定的義務(wù),但其價值觀的形成與人類畢竟存在根本不同,人工智能的深度學(xué)習(xí)與應(yīng)用主要依靠的是各種復(fù)雜的算法與數(shù)據(jù)記錄應(yīng)用,在運用算法的過程中,很難保證人工智能的每次獨立自主行為均能作出合理合法的價值判斷。對于人工智能的規(guī)制,還必須依賴于立法的體系性安排,確保人工智能的發(fā)展與應(yīng)用在合理的區(qū)間范圍內(nèi)運行。在人工智能具有有限法律人格的層面上,國外立法已作出一定的嘗試:一是立法者和執(zhí)法者應(yīng)確保人工系統(tǒng)不被濫用,法律必須在公民隱私保護與新興技術(shù)發(fā)展間尋找到恰當(dāng)?shù)钠胶狻?8 在使用數(shù)據(jù)的層面
18、,已存在不少習(xí)慣法,如目的明確、最少夠用、公開告知、個人同意等原則。1998年英國數(shù)據(jù)保護法與2016年歐盟個人數(shù)據(jù)保護通用條例規(guī)定,禁止一切未經(jīng)同意的非法使用公民個人數(shù)據(jù)的行為。這些法律規(guī)則非常實用,并提議建立沙箱區(qū)域以在控制所有可能的變量前提下,安全地控制和引導(dǎo)錯誤使用數(shù)據(jù)的行為。在“大數(shù)據(jù)”時代,數(shù)據(jù)是寶貴的財富,也直接關(guān)系人身安全,已有利用人工智能非法竊取網(wǎng)絡(luò)信息的先例。19 人工智能系統(tǒng)對于個人數(shù)據(jù)的使用必須遵循規(guī)范的準則,濫用數(shù)據(jù)或竊取隱私將受到刑罰的規(guī)制,在人工智能的發(fā)展上,必須考慮能否保護公民的數(shù)據(jù)及隱私、能否一視同仁地對待每個公民的數(shù)據(jù),以及能否保證公民個人信息的完整。使用非
19、公共數(shù)據(jù)必須征得數(shù)據(jù)所有人同意。二是延伸身份保證范式,以保持法律責(zé)任鏈條的明確性。個人識別信息是個人擁有絕對控制權(quán)的資產(chǎn),法律應(yīng)給予優(yōu)先保護。2009年5月12日,歐盟委員會制定并通過射頻識別技術(shù)應(yīng)用中隱私和數(shù)據(jù)保護原則的建議,該建議中就明確包含信息和透明度要求、零售商使用數(shù)據(jù)的特殊要求等內(nèi)容。設(shè)計人員應(yīng)采用身份標簽,沒有身份標簽將不被準入。三是個人信息保護規(guī)制需要完善,以尊重個人數(shù)據(jù)完整性的方式設(shè)計并應(yīng)用人工智能系統(tǒng)。歐盟在1995年頒布關(guān)于涉及個人數(shù)據(jù)處理的個人保護以及此類數(shù)據(jù)自由流動的指令等多項個人數(shù)據(jù)保護指令,構(gòu)建了一套嚴謹完善的個人數(shù)據(jù)保護體系。根據(jù)德國現(xiàn)行法律,車輛中所積累的數(shù)據(jù)所
20、有權(quán)原則上屬于車主。2016年4月,歐盟一般個人數(shù)據(jù)保護條例發(fā)布,明確擴展了數(shù)據(jù)主體的權(quán)利,包括數(shù)據(jù)獲取權(quán)、修改權(quán)、刪除權(quán)、限制處理權(quán)及可攜權(quán)等。比較而言,中國在個人信息和隱私保護方面的制度建設(shè)是較為滯后的。2012年全國人民代表大會常務(wù)委員會關(guān)于加強網(wǎng)絡(luò)信息保護的決定的出臺,20 但在實踐上仍極為有限,涉及更為嚴厲制裁措施的個人信息保護法與相關(guān)刑法修正案亟待出臺。(二)適用特殊的法律規(guī)制標準筆者認為,人工智能具有獨立思考的能力是與其他科技最大的區(qū)別,但人工智能仍作為工具存在,僅應(yīng)具有有限的法律人格。即便人工智能發(fā)展到具有自我意志的程度,其構(gòu)造結(jié)構(gòu)、生產(chǎn)方式與人類存在根本性的不同。人工智能具有
21、有限的權(quán)利義務(wù),更應(yīng)適用特殊的法律規(guī)制標準。從哲學(xué)角度分析,人工智能畢竟只是人類為追求更美好生活創(chuàng)造出的智慧型工具。以人工智能創(chuàng)造的作品為例,人工智能創(chuàng)作文學(xué)作品早已經(jīng)投入實踐(例如由人工智能創(chuàng)作的小說甚至通過了日本文學(xué)獎的初審)。特別是在視覺等藝術(shù)應(yīng)用領(lǐng)域,人工智能已可以完全脫離人類獨立生成獨創(chuàng)性內(nèi)容。美國憲法第一修正案規(guī)定:作者與創(chuàng)作者在限定的時間內(nèi)具有科學(xué)發(fā)明與藝術(shù)創(chuàng)作的排他權(quán)利。如果人工智能具有完整的法律人格,則人工智能創(chuàng)造作品的著作權(quán)等知識產(chǎn)權(quán)的權(quán)利主體是誰?21 因此出現(xiàn)的法律真空地帶,只能依據(jù)現(xiàn)有規(guī)制進行推論。筆者認為,人工智能創(chuàng)造的作品可分為兩種,一種是人類利用人工智能技術(shù)創(chuàng)作
22、的作品,其作品歸屬毫無疑問歸屬創(chuàng)作的人類所有。例如使用計算機譜寫的樂曲,人工智能僅作為工具使用,在Burrow-Giles Lithographic Co. v. Sarony案例中,22 法院裁定使用相機拍照的人擁有照片的著作權(quán),而不是相機制造廠商;另外一種是人工智能不受人類意志干擾而自行創(chuàng)作的作品,有學(xué)者認為可適用“雇主理論”,23 即人工智能的所有者擁有人工智能獨立創(chuàng)造的作品權(quán)利,人工智能作為被雇用者,其權(quán)利歸歸主所有。還有判例認為非人類創(chuàng)造的作品應(yīng)該歸公眾所有,在2011年的Naruto v. Slater案例 24 中,一名叫Slater的野生動物攝影師將相機放在印尼的雨林中,結(jié)果一
23、只母恒猴拿起相機并按動快門,留下許多珍貴照片。Slater主張照片由其所有,動物愛好者協(xié)會則主張由母恒猴所有。法院最后認為由于恒猴并非人類,無法出庭或具有法律上的人格,而照片也并非Slater拍攝,因此將照片的所有權(quán)歸于公眾。無論上述何種觀點,均不認為機器或動物等非人類具有著作權(quán)。筆者認為,在人工智能獨立創(chuàng)作的情形下可適用“刺破人工智能面紗原則”來進行論證,即權(quán)利主體是人工智能背后的實際控制人。人工智能雖然具有法律人格,但這種人格是有限的,并非完全的法律人格。歸根結(jié)底人工智能是由人類創(chuàng)造以服務(wù)發(fā)展的智慧型工具,即人類自身的權(quán)利優(yōu)位于人工智能。人工智能的工具屬性決定了其法律地位。蘋果公司現(xiàn)在出產(chǎn)
24、的個人電腦軟件已經(jīng)可以根據(jù)現(xiàn)場環(huán)境獨立編曲,在此環(huán)境下產(chǎn)生的作品并非由蘋果公司或軟件制作者享有著作權(quán),而是由使用該個人電腦的主體所有。采用“刺破人工智能面紗”理論將會大大鼓勵人類利用人工智能進行創(chuàng)作的熱情,同時促進人工智能產(chǎn)業(yè)自身的發(fā)展。(三)以責(zé)任分配為基礎(chǔ)的侵權(quán)規(guī)制除對人工智能的法律地位進行必要規(guī)制外,更應(yīng)明晰若發(fā)生侵權(quán)事故時認定相應(yīng)法律責(zé)任的原則。25 由于人工智能具有的法律人格有限,其無法獨立完全承擔(dān)侵權(quán)責(zé)任。聯(lián)合國教科文組織關(guān)于機器人倫理的初步草案報告提出對機器人的責(zé)任采取分擔(dān)解決途徑。讓所有參與機器人發(fā)明、授權(quán)和使用過程中的主體分擔(dān)責(zé)任。這種以侵權(quán)為基礎(chǔ)的制度設(shè)計初衷,是迫使機器人
25、系統(tǒng)的設(shè)計者與生產(chǎn)者將人工智能侵權(quán)成本內(nèi)部化,督促系統(tǒng)的設(shè)計者、參與者、生產(chǎn)者自覺履行安全性義務(wù),保證受害者能夠?qū)ふ业街黧w獲得補償。依托侵權(quán)法分配的監(jiān)管路徑可以應(yīng)用于人工智能,為建立人工智能的安全屬性提供正面導(dǎo)向作用,強化人工智能產(chǎn)品責(zé)任?;谌斯ぶ悄芊扇烁竦挠邢扌?,通過侵權(quán)責(zé)任的杠桿,將人工智能系統(tǒng)的外部性安全成本內(nèi)部化,鼓勵人工智能的銷售商、零售商、設(shè)計者、使用者、監(jiān)管者,認真履行人工智能的安全責(zé)任,確保上下游鏈條不會隨意更改人工智能系統(tǒng)。26 為了確保人工智能是可以被問責(zé)的,人工系統(tǒng)必須具有程序?qū)用娴目韶?zé)依據(jù),證明其運作方式。由于人工智能研發(fā)具有高度的秘密性與分散性、不連續(xù)性及不透明性
26、,任何一個擁有電腦或智能手機的個體都可能參與到人工智能的開發(fā)或研制中去。因此,必須對數(shù)據(jù)進行留存,要求所有參與開發(fā)、制作、生產(chǎn)人工智能系統(tǒng)所產(chǎn)生的數(shù)據(jù)必須妥善記錄并永久保存,在事中授權(quán)或事后問責(zé)時向主管機關(guān)提供。由于人工智能系統(tǒng)復(fù)雜,普通民眾甚至主管機關(guān)的業(yè)務(wù)人員可能無法了解人工智能的所有缺陷,因此在發(fā)生事故后追尋原始數(shù)據(jù)將成為最有力的定責(zé)與索賠依據(jù)?,F(xiàn)代存儲材料的便攜性與高容量性使得數(shù)據(jù)記錄成為低成本的事情。由于有強制責(zé)任保險配套,如果人工智能的開發(fā)者無法提供完整的數(shù)據(jù)記錄,則由其承擔(dān)無過錯責(zé)任并進行賠償。未妥善儲存數(shù)據(jù)者需要承擔(dān)嚴格的人工智能產(chǎn)品責(zé)任。27 在舉證責(zé)任問題上,一般使用者針對
27、人工智能很難承擔(dān)過高的舉證標準與訴訟成本,應(yīng)當(dāng)考慮采用較低的舉證責(zé)任標準,即使用者證明有損害發(fā)生、并且這種損害是由人工智能造成的即可。四、人工智能有限法律人格的規(guī)制設(shè)置(一)明確“刺破人工智能面紗”的歸責(zé)原則人工智能的本質(zhì)依然為工具,即使人工智能具有自我意志也無法改變其服務(wù)人類社會發(fā)展的屬性。因此人工智能僅享有有限的法律人格,其自身承擔(dān)有限的法律責(zé)任,其造成的侵權(quán)損害賠償或刑事責(zé)任依據(jù)實際情況由其設(shè)計者、開發(fā)者、制造者或使用者承擔(dān)。人工智能涉及的侵權(quán)規(guī)制主要集中在責(zé)任負擔(dān)的主體、數(shù)據(jù)使用安全、破壞人工智能的責(zé)任分配等方面。在規(guī)制人工智能與促進人工智能發(fā)展的兩個維度間必須尋找恰當(dāng)?shù)钠胶?,促進人工
28、智能發(fā)展的首要問題是需要有主體為人工智能的行為承擔(dān)責(zé)任。人工智能獨立意志的情況下也無法僅完全苛責(zé)新興技術(shù)的創(chuàng)造者。28 即使是最細心的設(shè)計者、編程者以及制造者都沒有辦法控制或者預(yù)測人工智能系統(tǒng)在脫離之后將會經(jīng)歷些什么。假如嫌疑人醉酒駕駛無人駕駛汽車致人死亡,此種情況下將法律責(zé)任歸于開發(fā)者顯然是違背公理的。不解決此問題,人工智能的發(fā)展就缺少基礎(chǔ)性的理論支撐。人工智能沒有靈魂,其法律人格畢竟有限,即使將來擁有自我意志也無法存在繁殖性的肉體或者真實感情,在刑法對待人工智能的法律地位上,與公司的法律地位無異。29 有關(guān)公司的刑罰理論中最重要的是“實際控制人說”,按照“刺破人工智能面紗”的歸責(zé)原則確定責(zé)
29、任主體。在無人駕駛領(lǐng)域,美國道路交通安全管理局于2013年發(fā)布自動駕駛汽車的基本政策,對自動駕駛汽車測試事故的責(zé)任承擔(dān)進行了規(guī)定,車輛在被第三方改造為自動駕駛車輛后,測試過程中導(dǎo)致財產(chǎn)損失、人員傷亡的,車輛的原始制造商不對自動駕駛車輛的缺陷負責(zé),除非有證據(jù)證明車輛在被改造為自動駕駛車輛前已存在缺陷。德國道路交通法規(guī)定機動車持有人的道路交通事故嚴格責(zé)任獨立于車輛的自動系統(tǒng),駕駛員在車輛行駛過程中必須履行全程保持警惕、手不離開方向盤等強制義務(wù),否則需要承擔(dān)人工智能造成的損害。谷歌公司曾經(jīng)使用奔馳汽車進行測試,則安全責(zé)任由谷歌公司承擔(dān),而非奔馳公司。因此,在人工智能具有的法律人格有限的前提下,其造成
30、的損害由人工智能的實際控制人或責(zé)任人承擔(dān)責(zé)任是合理的。(二)強制投保責(zé)任保險凱西歐尼爾在其著作數(shù)學(xué)武器:大數(shù)據(jù)如何加劇不平等、威脅民主中,將造成歧視、個體損害等不利后果的人工智能稱為“殺傷性數(shù)學(xué)武器”,人工智能如果利用不當(dāng),其給個體和社會帶來的危害將極大。30 在數(shù)據(jù)網(wǎng)絡(luò)平民化時代,單一的國家或部門均無法獨自應(yīng)對人工智能帶來的責(zé)任風(fēng)險。傳統(tǒng)的監(jiān)管方式如產(chǎn)品許可制度、產(chǎn)品侵權(quán)責(zé)任,無法全面地適用于人工智能規(guī)制。事前監(jiān)管措施亦存在弊端,人工智能的開發(fā)與研究一般是分散的,在網(wǎng)絡(luò)時代,任何人均可獲得制造人工智能的機會,外部監(jiān)管人員極難在人工智能形成危險結(jié)果之前發(fā)現(xiàn)存在的風(fēng)險。必須采取新的經(jīng)濟措施以規(guī)制
31、人工智能帶來的責(zé)任風(fēng)險強制投保責(zé)任保險。2016年,英國議會提出一份有關(guān)無人駕駛汽車法律責(zé)任問題的提案,提出將汽車強制險適用擴大到產(chǎn)品責(zé)任,在駕駛者將汽車控制權(quán)完全交給自動駕駛系統(tǒng)時為其提供保障。31 而投保人可根據(jù)英國現(xiàn)行消費者保護法的產(chǎn)品責(zé)任和普通法中過失原則的適用,確定應(yīng)對事故發(fā)生負有責(zé)任的主體。在人工智能投入商用之前,必須為其強制投保責(zé)任險,以較小的經(jīng)濟付出,獲得保險共擔(dān)風(fēng)險的機會。此舉將大大減少人工智能侵權(quán)事件發(fā)生時的經(jīng)濟賠償糾紛,直接促進人工智能行業(yè)的良性發(fā)展。(三)確立“以人為本”的監(jiān)管體系人工智能行業(yè)的領(lǐng)軍者埃隆馬斯克認為,政府監(jiān)管介入人工智能領(lǐng)域是明智的選擇。人工智能應(yīng)在國際
32、或者國家層面上有相應(yīng)的監(jiān)管措施,防止陷入“人工智能悲劇”。法規(guī)必須同科技進步相協(xié)調(diào),若政府監(jiān)管缺位,將明顯加深公眾對于人工智能的危機感并使得人工智能的發(fā)展陷入無序狀態(tài)。在確定人工智能適用的一般原則時,主要考慮三大因素:人權(quán)、人類利益優(yōu)先、削弱人工智能的風(fēng)險。由于人工智能僅具有有限的法律人格,因此人工智能的本質(zhì)是為人類生產(chǎn)生活服務(wù)的工具(即“以人為本”),這是人工智能發(fā)展的首要原則,也是建立人工智能監(jiān)管整體框架的首要指導(dǎo)原則。由于人工智能的項目集成程度與開發(fā)難度較高,往往是眾多科研團隊協(xié)作的結(jié)果,很難在事前由政府相關(guān)部門預(yù)見或了解,由此在事前設(shè)立審批制度難度頗大,即使人工智能開發(fā)團隊將開發(fā)立項報告交予相關(guān)部門審批,相關(guān)部門的審批人員也未必能夠了解人工智能的梗概并作出及時答復(fù)。從監(jiān)管者角度分析,人工智能本身并不是難以處理的主體,難處理的是人工智能研究與開發(fā)。32 由此,依據(jù)“以人為本”原則創(chuàng)設(shè)事前備案、事中授權(quán)、事后懲處的整體機制較為適宜。事前監(jiān)管采取原則性申報,即設(shè)計建造人工智能系統(tǒng)前,所有開發(fā)設(shè)計者必須共同向行業(yè)主管部門備案,承諾在維護人類利益的前提下進行合法開發(fā),并不得用于違法犯罪活動,如果不進行
溫馨提示
- 1. 本站所有資源如無特殊說明,都需要本地電腦安裝OFFICE2007和PDF閱讀器。圖紙軟件為CAD,CAXA,PROE,UG,SolidWorks等.壓縮文件請下載最新的WinRAR軟件解壓。
- 2. 本站的文檔不包含任何第三方提供的附件圖紙等,如果需要附件,請聯(lián)系上傳者。文件的所有權(quán)益歸上傳用戶所有。
- 3. 本站RAR壓縮包中若帶圖紙,網(wǎng)頁內(nèi)容里面會有圖紙預(yù)覽,若沒有圖紙預(yù)覽就沒有圖紙。
- 4. 未經(jīng)權(quán)益所有人同意不得將文件中的內(nèi)容挪作商業(yè)或盈利用途。
- 5. 人人文庫網(wǎng)僅提供信息存儲空間,僅對用戶上傳內(nèi)容的表現(xiàn)方式做保護處理,對用戶上傳分享的文檔內(nèi)容本身不做任何修改或編輯,并不能對任何下載內(nèi)容負責(zé)。
- 6. 下載文件中如有侵權(quán)或不適當(dāng)內(nèi)容,請與我們聯(lián)系,我們立即糾正。
- 7. 本站不保證下載資源的準確性、安全性和完整性, 同時也不承擔(dān)用戶因使用這些下載資源對自己和他人造成任何形式的傷害或損失。
最新文檔
- 二零二五年度數(shù)據(jù)中心設(shè)備維修服務(wù)協(xié)議2篇
- 二零二五年度養(yǎng)殖場安全生產(chǎn)管理合作協(xié)議書2篇
- 2025年度農(nóng)村個人住房租賃市場調(diào)節(jié)合同3篇
- 2025年度幼兒園校園文化建設(shè)項目合同法律效力評估3篇
- 2025年度解除勞動合同經(jīng)濟補償金及企業(yè)社會責(zé)任履行合同2篇
- 2025年度農(nóng)機購置與維修保養(yǎng)配套合同3篇
- 2025北京新能源汽車指標租賃協(xié)議合同
- 2025年度農(nóng)村生活污水收集排放管道安裝工程合同
- 2025年度家具行業(yè)產(chǎn)品檢測與質(zhì)量認證服務(wù)合同樣本3篇
- 2025上海市學(xué)校學(xué)生公寓床上用品買賣合同
- 華為公司管理層選拔機制解析
- 第三方代付工程款協(xié)議書范本
- 烈士遺屬救助申請書
- 外研版英語九年級上冊 Module1-12作文范文
- 南京市七年級上冊地理期末試卷(含答案)
- 足球課程教學(xué)計劃工作總結(jié)
- 家具成品檢驗通用標準
- 粉末涂料有限公司成品裝車作業(yè)安全風(fēng)險分級管控清單
- 運輸類工作簡歷
- 煤礦施工巷道布置及支護設(shè)計方案
- GB/T 17799.2-2023電磁兼容通用標準第2部分:工業(yè)環(huán)境中的抗擾度標準
評論
0/150
提交評論