版權(quán)說明:本文檔由用戶提供并上傳,收益歸屬內(nèi)容提供方,若內(nèi)容存在侵權(quán),請進行舉報或認領(lǐng)
文檔簡介
我國醫(yī)療人工智能相關(guān)法律研究進展和國際比較
一醫(yī)療人工智能的應(yīng)用以及面臨的主要法律問題2017年7月,國務(wù)院發(fā)布了《新一代人工智能發(fā)展規(guī)劃》,明確了我國人工智能發(fā)展的戰(zhàn)略目標;2018年,國務(wù)院辦公廳出臺的《關(guān)于促進“互聯(lián)網(wǎng)+醫(yī)療健康”發(fā)展的意見》加速了醫(yī)療人工智能在輔助醫(yī)療、影像診斷、疾病管理、監(jiān)管控費、藥品研發(fā)等領(lǐng)域的普遍應(yīng)用。華為、阿里巴巴、騰訊以及科大訊飛等企業(yè)紛紛踏入醫(yī)療人工智能領(lǐng)域,掀起了醫(yī)療人工智能的研發(fā)與應(yīng)用的浪潮。但是人工智能的深度學(xué)習與自主意識不斷模糊著物理世界和“自然人”的界限,挑戰(zhàn)“自然人”的主體地位,并引發(fā)一系列的倫理、法律問題。我國沒有關(guān)于醫(yī)療人工智能的專門立法,醫(yī)療人工智能的研發(fā)、審批、應(yīng)用、監(jiān)管需要新的標準與法律規(guī)范。目前在醫(yī)院應(yīng)用的醫(yī)療人工智能產(chǎn)品,例如,“達·芬奇”手術(shù)機器人等是被當作醫(yī)療器械進行管理的。目前,我國解決涉及機器人醫(yī)療侵權(quán)損害糾紛[1]的主要法律依據(jù)是《侵權(quán)責任法》以及《最高人民法院關(guān)于審理人身損害賠償案件適用法律若干問題的解釋》。在與手術(shù)機器人相關(guān)的判例中,從作為判決依據(jù)的主要法律法規(guī)中可以看出,醫(yī)療機器人歸類于醫(yī)療器械。2020年中國第一個通過第三類醫(yī)療器械認證的人工智能產(chǎn)品上市,拉開了我國醫(yī)療人工智能產(chǎn)品獲批的序幕。隨著擁有深度學(xué)習能力的機器人出現(xiàn),醫(yī)療人工智能的監(jiān)管機制和防范理論亟待突破與發(fā)展。深度學(xué)習的機器人不再是弱人工智能級的機器人,而是擁有自主意識的強人工智能級機器人,它使我們醫(yī)療責任的歸責原則和承擔主體更加復(fù)雜,賦予強人工智能級的醫(yī)療人工智能法律主體地位將成為可能,這將打破原有的民法體系,需構(gòu)建新的法律原則與新的法律體系對其進行規(guī)制。新的監(jiān)管機制和防范理論有待構(gòu)建,有必要通過制定法律或設(shè)立機器人登記制度賦予醫(yī)療人工智能法律人格。有學(xué)者提出可構(gòu)建賠償基金制度與強制保險制度。(一)醫(yī)療人工智能的應(yīng)用當前,人工智能在AI治療、醫(yī)學(xué)影像、輔助診斷、健康管理、疾病預(yù)測、藥物研發(fā)等方面得到了廣泛的應(yīng)用(見圖1)。智能診療平臺可以根據(jù)大量的醫(yī)療數(shù)據(jù)與相關(guān)知識,以及病理報告和癥狀輔助醫(yī)生提高診斷結(jié)果的準確率,并針對每個患者制定個體化的精確治療方案。機器人輔助手術(shù)可以提高手術(shù)的成功率和精確度,減少患者創(chuàng)傷,縮短手術(shù)時間?;诜暖煂<液Y選出的病理診斷、影像文件、結(jié)構(gòu)數(shù)據(jù)等腫瘤大數(shù)據(jù),深度學(xué)習算法建立的預(yù)測模型,結(jié)合精準快速的腫瘤靶區(qū)自動勾畫,形成高質(zhì)量的放療計劃。此外,醫(yī)院護理機器人可以輔助完成護理工作,擔負輔助患者康復(fù)訓(xùn)練工作。在慢病管理方面,醫(yī)療人工智能能夠幫助患者維持良好的狀態(tài)或者使患者康復(fù);在疾病預(yù)防方面,醫(yī)療人工智能能夠有效降低患病率和發(fā)病率,預(yù)測、防控重大流行疾病,為衛(wèi)生行政主管部門提供應(yīng)對決策預(yù)警;在藥物研發(fā)方面,醫(yī)療人工智能的作用主要體現(xiàn)在分析藥物的化學(xué)結(jié)構(gòu)與藥效的關(guān)系,以及預(yù)測小分子藥物晶型結(jié)構(gòu)等。圖1人工智能在醫(yī)療領(lǐng)域的應(yīng)用(二)醫(yī)療人工智能面臨的主要法律問題醫(yī)療人工智能面臨的法律問題(見圖2),其核心或者出發(fā)點是對大數(shù)據(jù)與核心算法的規(guī)制。因為大數(shù)據(jù)與核心算法是醫(yī)療人工智能的靈魂與表現(xiàn)形式。然后確立規(guī)制醫(yī)療人工智能的基本原則。醫(yī)療人工智能基本原則是安全、有益、平等,最終目的是以人為本。還有一個問題是醫(yī)療人工智能的知識產(chǎn)權(quán)問題。在確定了出發(fā)點與最終目的之后,就從以下幾個方面進行規(guī)制。圖2醫(yī)療人工智能面臨的主要法律問題圖3醫(yī)療人工智能規(guī)制具體的規(guī)制領(lǐng)域1.是否可以確立醫(yī)療人工智能(或者“機器人醫(yī)生”)的法律人格醫(yī)療人工智能的法律人格問題可以分為兩個層面:一個是是否必須確定醫(yī)療人工智能法律人格的問題;另一個是如何確立醫(yī)療人工智能的法律人格的問題。人工智能通過深度學(xué)習,逐漸呈現(xiàn)出一些“自主性”的特征?!皺C器人是人嗎?”這個問題變得越來越重要。因為人工智能的民事主體身份的確認是明確其法律行為、法律責任、歸責原則等問題的基礎(chǔ)。在傳統(tǒng)的民法體系中,民事主體有自然人、法人、非法人組織、國家與國際組織。深度學(xué)習的強人工智能是否可以被賦予有限的民事能力,是否能以“機器人”的名義位列民事主體是一個重大的法律問題。2.如何設(shè)定醫(yī)療人工智能的診療規(guī)則法律是以國家名義頒布的、以權(quán)利義務(wù)為內(nèi)容的、以國家強制力保障的主體的行為規(guī)范。無論是設(shè)定醫(yī)療人工智能的民事主體身份,還是把醫(yī)療人工智能當作醫(yī)生的醫(yī)療輔助手段,都必須有相關(guān)的法律文件對醫(yī)療人工智能的診療行為進行規(guī)制,例如,關(guān)于機器人手術(shù)的相關(guān)法規(guī),2012年,國家衛(wèi)計委印發(fā)的《機器人手術(shù)系統(tǒng)輔助實施心臟手術(shù)技術(shù)規(guī)范(2012年版)》和《機器人手術(shù)系統(tǒng)輔助實施心臟手術(shù)技術(shù)培訓(xùn)管理規(guī)范(2012年版)》。但實際上,手術(shù)機器人不僅做心臟手術(shù),還做腦部、胸部、腹部、四肢等多部位手術(shù),但其他的相關(guān)法律法規(guī)的設(shè)立還在摸索初期,國際公認的手術(shù)機器人標準也尚未形成。3.法律責任歸責原則與承擔方式醫(yī)療人工智能導(dǎo)致醫(yī)療損害的責任認定要從兩個層面去進行法律架構(gòu):一個是法律責任的歸責原則;另一個是法律責任的承擔方式。醫(yī)療人工智能有可能因硬件故障、程序漏洞、深度學(xué)習后的自主性等引發(fā)醫(yī)療事故,例如,在英國2015年首例“達·芬奇”手術(shù)機器人心瓣修復(fù)手術(shù)中,機械手臂亂動打到醫(yī)生的手,還把病人心臟放錯位置,戳穿了患者的大動脈。[2]我國《侵權(quán)責任法》規(guī)定:“責任醫(yī)師或醫(yī)療機構(gòu)對患者在醫(yī)療服務(wù)中所受的損害有過錯的,醫(yī)療機構(gòu)應(yīng)承擔賠償責任。醫(yī)療器械產(chǎn)品缺陷導(dǎo)致的醫(yī)療損害,由醫(yī)療機構(gòu)和生產(chǎn)者承擔連帶賠償責任,適用無過錯責任原則?!焙茱@然,《侵權(quán)責任法》考慮到了由醫(yī)療器械導(dǎo)致的損害的責任承擔問題。但是在由具有自主性、獨立性和擬人性的醫(yī)療人工智能導(dǎo)致的醫(yī)療損害的案件中,誰是責任主體、應(yīng)用什么歸責原則,卻是一個新問題。4.風險防范問題(1)隱私風險患者個人的醫(yī)療數(shù)據(jù)包括個人基本信息,比如姓名、年齡、性別、住所、籍貫、工作單位、聯(lián)系方式等,還包括身體指標、既往病史、診療記錄、生物基因信息等健康信息。這些相關(guān)的隱私信息如何收集,如何儲存,如何使用,如何在保障患者知情權(quán)的情況下,合法獲取患者的疾病信息都是重要的法律問題。(2)數(shù)據(jù)安全醫(yī)療人工智能的深度學(xué)習需要收集并分析海量的數(shù)據(jù)資源。而這些數(shù)據(jù)資源關(guān)系到國計民生,甚至國家戰(zhàn)略決策,一旦泄露后果不堪設(shè)想,例如,2015年我國深圳某基因科技服務(wù)有限公司、某醫(yī)院與英國牛津大學(xué)開展合作研究,研究中國人類遺傳資源。在合作過程中,中國公司把人類遺傳資源信息通過網(wǎng)絡(luò)傳遞到國外,且沒有經(jīng)過相關(guān)部門的批準與許可,因此收到科技部的行政處罰書。2016年,英國倫敦皇家自由醫(yī)院為了研究腎臟醫(yī)療新方法,約160萬名患者的相關(guān)信息被該醫(yī)院交給“深度思維”公司,因為侵犯患者隱私,侵犯患者知情同意權(quán),“深度思維”公司數(shù)據(jù)來源的合法性和正當性受到質(zhì)疑,同時皇家自由醫(yī)院也因傳遞患者信息這一行為被英國信息委員會要求整改。因此如何充分利用大數(shù)據(jù)以供人工智能的深度學(xué)習同時保護好大數(shù)據(jù)安全也是一個期待解決的法律問題。(3)醫(yī)療人工智能深度學(xué)習后的“自主性”導(dǎo)致的風險上海交通大學(xué)江曉原教授認為人工智能的發(fā)展的會對人類造成遠期、中期、近期的三大威脅?!敖谕{是大規(guī)模失業(yè)與人工智能的軍事化應(yīng)用。中期威脅是人工智能的失控與反叛。遠期威脅是至善全能的人工智能消解人類的生存意義?!盵3]人工智能通過大數(shù)據(jù)的喂養(yǎng)與“自主性”地深度學(xué)習,成為各個領(lǐng)域的實際控制者。民眾不知不覺地被無形的、強大的算法技術(shù)管控與統(tǒng)治,無法抗拒。如被算法控制的打車平臺、自動駕駛與導(dǎo)航系統(tǒng)、銀行對個人或者企業(yè)的信任風險評估體系、互聯(lián)網(wǎng)的廣告分發(fā)系統(tǒng)、媒體軟件的內(nèi)容推送系統(tǒng)、犯罪預(yù)警系統(tǒng)、股票與基金模型等,其中一些具有偏見與歧視的算法被數(shù)據(jù)科學(xué)家稱為“數(shù)學(xué)毀滅武器”。尤其是人工智能的反叛與失控可能會給人類帶來毀滅性的打擊,因此如何防范人工智能深度學(xué)習后的“自主性”導(dǎo)致的風險是一個極其重要的法律問題。(4)倫理風險人工智能有可能因為設(shè)計者的偏見與歧視,或者經(jīng)過深度學(xué)習后習得了偏見與歧視,這種有意或者無意的偏見與歧視會導(dǎo)致不公平,或者對某些特定群體不利。因此我們要防止技術(shù)的濫用和異化,盡量避免歧視與偏見,避免損害生命體的尊嚴。在真實世界中,昂貴的醫(yī)療人工智能診療新技術(shù)的應(yīng)用有可能侵犯貧困患者平等的生命健康權(quán)利;優(yōu)生優(yōu)育計算軟件有可能剝奪某些缺陷胎兒的生存權(quán)利;利用醫(yī)療數(shù)據(jù)軟件指導(dǎo)開發(fā)的某些藥物與醫(yī)療器械有可能不利于某些特定人群、種族、性別等。算法的不透明,有可能嚴重影響消費者利益,甚至有可能通過輔助決策與執(zhí)行影響公共政策。當然還有戰(zhàn)爭機器人的倫理問題等。二醫(yī)療人工智能法律規(guī)制的基本原則與倫理問題國務(wù)院頒布的《新一代人工智能發(fā)展規(guī)劃》認為,應(yīng)當“最大限度降低風險,確保人工智能安全、可靠、可控發(fā)展”。騰訊研究院法律研究中心首席研究員蔡雄山認為應(yīng)該確定人工智能的發(fā)展方向與原則。發(fā)展方向是人類普遍受惠(BroadlyShared)和對人類有益(Beneficial),即普惠性與有益性。美國眾議院人工智能核心小組成員約翰·德蘭尼(JohnDelaney)稱贊《人工智能未來法案》,他認為該法案確保了人工智能的發(fā)展方向,就是利于社會發(fā)展與勞動者的生產(chǎn)方式。2016年5月,歐盟法律事務(wù)委員會的《就機器人民事法律規(guī)則向歐盟委員會提出立法建議的報告草案》、“機器人憲章”要求機器人的研發(fā)機構(gòu)與研發(fā)人員在研發(fā)與設(shè)計機器人時必須遵守基本的倫理原則,并且對這些基本倫理原則進行了歸納。2017年,電機電子工程師學(xué)會(TheInstituteofElectricalandElectronicsEngineers,IEEE)的自主化智慧系統(tǒng)倫理全球倡議(IEEEGlobalInitiativeonEthicsofAutonomousandIntelligentSystems)中的倫理通則包括不侵害人權(quán)(HumanRights)、福祉(Well-being)優(yōu)先、對技術(shù)設(shè)計及操作問責(Accountability)、透明公開(Transparency)、降低濫用(Misuse)風險。圖4關(guān)于人工智能立法原則的國際比較我國法律體系是一個一元多層次的統(tǒng)一法律體系,有許多通識性的基本原則包含在《憲法》,以及《民法》、《行政法》與《刑法》等部門法當中,而且這些基本原則對于下位法具有指導(dǎo)意義與法律效力,因此并非所有相關(guān)的基本原則都必須用文字體現(xiàn)于醫(yī)療人工智能的法律條文當中。簡要概括醫(yī)療人工智能法獨特的基本原則,就是安全、有益、平等(非歧視)、以人為本(見圖5)。圖5人工智能規(guī)制的基本原則法律是歷史的產(chǎn)物,具有時代的特色,也是對當下生活世界另外一種方式的真實寫照。目前我國國家食品藥品監(jiān)督管理總局(CFDA)認為醫(yī)療人工智能是第三類醫(yī)療器械,因此是“工具”,是“客體”。所以規(guī)制醫(yī)療人工智能的基本原則,首先是“以人為本,為人服務(wù)”。其次醫(yī)療器械與藥品的審核標準或者說臨床試驗的兩個考核指標是“安全性”與“有效性”,與此相對應(yīng),規(guī)制醫(yī)療人工智能的法律原則可以是“安全性”與“有益性”。最后由于人工智能可能存在歧視或偏見,可能導(dǎo)致不公平或者對特定人權(quán)不利,所以還必須確立另外一個原則,即平等(不歧視)原則。目前也有不同的聲音,認為對于深度學(xué)習的智能機器人應(yīng)當賦予其“人”的資格。如果賦予智能機器人“人”的資格,那么機器人就不再是“工具”,不再是“客體”,而是與自然人平等的“人”了。倫理規(guī)則、法律規(guī)范都對醫(yī)療人工智能起到引導(dǎo)與規(guī)范作用。但我們應(yīng)以倫理為先導(dǎo),開展人工智能的倫理研究,即先確立一些基本的倫理原則、設(shè)立倫理委員會、開展倫理審查,以此作為后來“人工智能法”確立的基礎(chǔ)是目前比較通用的方法,例如,韓國頒布了《機器人倫理憲章》、日本起草了《下一代機器人安全問題指引方針》;谷歌公司設(shè)立了“人工智能研究倫理委員會”。因此我國要盡快完善醫(yī)療人工智能的倫理審查機制。首先,統(tǒng)一共識,確立醫(yī)療人工智能研發(fā)與應(yīng)用的倫理規(guī)范指南。為相關(guān)的整個領(lǐng)域、整個行業(yè)提供依據(jù)與標準。其次,建立醫(yī)療人工智能倫理評價的指標體系。就像藥物臨床實驗一樣,確立醫(yī)療人工智能產(chǎn)品臨床實驗的評價指標體系,明確要達到什么樣的結(jié)果。這個指標體系既是立項審批時風險評估的依據(jù),也是結(jié)項驗收時的評價指標。再次,設(shè)立醫(yī)療人工智能倫理審查委員會。該倫理審查委員會的構(gòu)成包括醫(yī)學(xué)、倫理學(xué)、法學(xué)、計算機等理論與實踐領(lǐng)域的專家。審查底層算法的倫理性,防止存在偏見與歧視;審查合法性,使之符合相關(guān)法律法規(guī);審查安全性,即是否有相關(guān)的設(shè)計來保證人工智能的安全;審查有益性,即是否對社會發(fā)展、人類的生存、生活有益。最后,為促進醫(yī)療行業(yè)信息化的發(fā)展,我國可以根據(jù)《“健康中國2030”規(guī)劃綱要》和《關(guān)于促進和規(guī)范健康醫(yī)療大數(shù)據(jù)應(yīng)用發(fā)展的指導(dǎo)意見》的戰(zhàn)略部署,對底層算法、數(shù)據(jù)收集、存儲與利用、醫(yī)療人工智能產(chǎn)品的準入門檻、運行機制、實際應(yīng)用等制定一系列技術(shù)標準。三醫(yī)療人工智能核心算法與大數(shù)據(jù)的法律規(guī)制“算法即法律”,人工智能以算法為核心、為主體,以大數(shù)據(jù)與計算能力為兩翼,這種“一體兩翼”結(jié)構(gòu)的關(guān)鍵要素便是“算法+有效數(shù)據(jù)+計算能力”[4],它使得深度學(xué)習的機器人成為可能,并且不斷超越。(一)醫(yī)療人工智能核心算法的法律規(guī)制1.人工智能算法的法律屬性與特點“智能算法基于其不透明性和自主性逐漸脫離了工具化的范疇”。[5]海量數(shù)據(jù)與驚人的計算能力遠非人力所能為,因此人工智能在為人類服務(wù)的過程中或許會逐漸反客為主,甚至可能主宰公共政策的制定,主宰社會資源的分配,形成一種新型的關(guān)系,即人工智能算法與人類之間的技術(shù)支配關(guān)系。(1)智能算法的法律屬性算法的表現(xiàn)形式是程序,實體內(nèi)容是一套用計算機語言描述或表達的決策方案。算法的實體內(nèi)容可以理解為一套自動化的決策方案,這個決策方案就是對不同主體的權(quán)利義務(wù)的分配與處分,因此從公共管理、社會秩序、權(quán)利與義務(wù)等視角而言,算法即法律。法律必須公開才有利于遵守,既然算法是法律,算法就必須公開。而事實上,算法表現(xiàn)為程序、源代碼,與普通大眾具有隔離性,因此我們必須讓那些不懂算法的大眾具有救濟權(quán)利的機會。法律算法的表現(xiàn)形式是計算機語言描述后的程序,也可以理解為是開發(fā)者的數(shù)據(jù)產(chǎn)品、商業(yè)秘密、知識產(chǎn)權(quán)。為了實現(xiàn)對算法的解釋而要求披露算法源代碼引起了關(guān)于保護商業(yè)秘密的爭議。(2)智能算法的特點①算法黑箱與算法自主智能算法與民眾的理解和現(xiàn)有法律體系具有隔離性。人工智能需要海量數(shù)據(jù)“喂養(yǎng)”,依憑海量數(shù)據(jù)、計算能力與算法形成“深度學(xué)習”能力,或者“自主性”的能力,這種能力導(dǎo)致“黑箱”(blackbox)出現(xiàn)?!昂谙洹币环矫嬷傅氖侨斯ぶ悄艿脑O(shè)計者或者研發(fā)者所預(yù)設(shè)的底層算法,普通大眾無法洞悉;另一方面指的是人工智能通過深度學(xué)習,逐漸習得的“自主性”,人類無法捉摸與把控?!昂谙洹辈粌H意味著大眾不能目測觀察,甚至意味著不能理解。②算法偏見與算法歧視選取數(shù)據(jù)中預(yù)先存在的偏見、算法決策中數(shù)據(jù)的抽樣偏差及其所設(shè)置的權(quán)重等原因?qū)е碌尼槍哂心承┨卣鞯娜后w的不公平,就是算法偏見與算法歧視。③算法綁架與權(quán)力化趨勢首先,算法的“一體兩翼”結(jié)構(gòu),即“算法+有效數(shù)據(jù)+計算能力”,其中包含對于海量數(shù)據(jù)的壟斷性占有與使用,即對資源的壟斷性占有與使用。其次,算法直接變?yōu)樾袨橐?guī)范,影響并控制個體的行為。比如滴滴打車平臺控制了預(yù)約分配、路線、費用、評價標準,司機與乘客只有遵循這些規(guī)則才能良好地使用此平臺,司機與乘客的行為受到了管控。此外,算法將被普遍應(yīng)用于公共管理領(lǐng)域,例如公共領(lǐng)域的人臉識別、交通監(jiān)控、疾病監(jiān)控等。并且輔助甚至代替公權(quán)力,做出具有法律效力的管控決策。算法權(quán)力來源于三個方面:機器優(yōu)勢、架構(gòu)優(yōu)勢,嵌入優(yōu)勢。圖6智能算法的特點2.人工智能算法的法律規(guī)制人工智能的法律規(guī)制應(yīng)考慮的是基于何種理念和框架對其規(guī)制。在人工智能自動化決策中,監(jiān)管機構(gòu)需要對人工智能在透明、公平、歧視、偏見、隱私保護、數(shù)據(jù)安全等方面的影響進行評估。首先就是算法黑箱與算法自主性的問題,監(jiān)管部門可以要求研發(fā)者將算法公開或者對算法解釋。當然關(guān)于算法透明也有學(xué)者表示了擔憂,他們認為深度學(xué)習的算法是否可知,本身就是一個疑問;在與國家安全、社會秩序和個體權(quán)益權(quán)衡中,其是否應(yīng)當透明也值得探討;即便算法應(yīng)當透明,是否能夠保證算法在正當程序范圍內(nèi)被執(zhí)行,也尚存疑。因此應(yīng)該對透明原則的必要性和可行性有充分的認識。其次是算法歧視問題,對于防止算法歧視的措施是平等保護。算法支配在個人層面需要正當程序的保護,在企業(yè)層面需要維護公平競爭,在權(quán)利受到不公平的對待時具有權(quán)利救濟機制。最后就是針對算法權(quán)力化的問題,人工智能將會被普遍應(yīng)用于公共管理領(lǐng)域,例如疾病防控、預(yù)防接種、交通管理,人工智能輔助甚至憑借其“自主性”可能替代公權(quán)力做出決策。人類與人工智能的緊密結(jié)合導(dǎo)致人類可能對人工智能高度依賴。我們既要充分利用人工智能為人類服務(wù),也要防范人工智能“作惡”。有學(xué)者對算法權(quán)力的規(guī)制提出了一系列措施,包括算法的特征、算法權(quán)力的規(guī)制目的、算法權(quán)力的規(guī)制路徑、算法權(quán)力的規(guī)制方法(見圖7)。圖7智能算法的規(guī)制(二)大數(shù)據(jù)與隱私人工智能以算法和數(shù)據(jù)作為支撐做出行為,為了解決某些問題,人工智能利用其技術(shù)優(yōu)勢能輕易收集到人類的隱私,人工智能發(fā)展得越強,人類隱私所面臨的威脅就越大。面對在人工智能時代人類隱私問題的挑戰(zhàn),我們應(yīng)該發(fā)展更強大的隱私保護技術(shù),防止數(shù)據(jù)被黑客或其他不法分子獲取,人們應(yīng)該提高個人防范意識,同時尊重他人的隱私,政府應(yīng)該加強監(jiān)管,重視隱私評估制度,提高個人信息獲取的門檻。圖8人工智能涉及的隱私問題與對策人工智能隱私方面目前存在的問題包括如何對隱私直接監(jiān)控、更多獲得隱私的方法、畫像識別能力、人工智能信息載體、算法并不完美、侵權(quán)行為具有迷惑性、后果嚴重等問題(見圖8)。為應(yīng)對以上問題,可利用的對策包括明確調(diào)整對象、增強信息處理透明度、拓展用戶權(quán)利、禁止自動化處理敏感信息、引入隱私設(shè)計理論、增強隱私保護技術(shù)(見圖8)。以上這些對策雖有利于解決人工智能隱私目前存在的一些問題,但不能完全解決這些問題,因此我們引入一些倫理原則,包括透明原則、非歧視原則、安全原則以及控制原則(見圖8),借此進一步解決人工智能隱私的相關(guān)問題。(三)人工智能算法與大數(shù)據(jù)的相關(guān)法規(guī)1.我國的相關(guān)法規(guī)我國尚無關(guān)于人工智能算法的專門法律法規(guī),勉強有關(guān)聯(lián)性的是全國信息安全標準化技術(shù)委員會依據(jù)國家標準化管理委員會發(fā)布的《中國國家標準公告》(2017年第32號)中的“約束信息系統(tǒng)自動決策”的內(nèi)容:“當僅依據(jù)信息系統(tǒng)的自動決策而做出顯著影響個人信息主體權(quán)益的決定時(例如基于用戶畫像決定個人信用及貸款額度,或?qū)⒂脩舢嬒裼糜诿嬖嚭Y選),個人信息控制者應(yīng)向個人信息主體提供申訴方法。”[6]該公告也只是賦予了個人提出申請的程序性權(quán)利,并不涉及實質(zhì)約束。我國電子技術(shù)標準化研究院發(fā)布的《人工智能標準化白皮書(2018版)》中已涉及并重視人工智能的倫理、安全和隱私問題。有學(xué)者認為2018年8月31日第十三屆全國人民代表大會常務(wù)委員會第五次會議通過的《中華人民共和國電子商務(wù)法》中的第十八條、三十九條、四十條涉及對企業(yè)運用算法進行的商業(yè)行為的規(guī)制。2.歐盟的《通用數(shù)據(jù)保護條例》(GeneralDataProtectionRegulation,GDPR)2015年12月歐洲議會同意制定歐盟新的數(shù)據(jù)保護法規(guī);2016年4月14日,歐洲議會投票通過了《通用數(shù)據(jù)保護條例》(GeneralDataProtectionRegulation,GDPR),該法由11章共99條組成,2018年5月25日生效,在27個歐盟成員國統(tǒng)一實施,取代了原有的《數(shù)據(jù)保護指令》(DataProtectionDirective95/46/EC),并在《數(shù)據(jù)保護指令》的基礎(chǔ)上,進一步強化了對自然人數(shù)據(jù)的保護。其中包含的重要內(nèi)容有:受到約束的數(shù)據(jù)的范圍、數(shù)據(jù)主體的權(quán)利、處理個人數(shù)據(jù)的基本原則、數(shù)據(jù)控制者與數(shù)據(jù)處理者的義務(wù)、關(guān)于數(shù)據(jù)主體被遺忘權(quán)的規(guī)定、關(guān)于數(shù)據(jù)主體可攜帶權(quán)的規(guī)定、關(guān)于個人數(shù)據(jù)泄露通知的規(guī)定、關(guān)于執(zhí)法和處罰的規(guī)定等。歐盟的《通用數(shù)據(jù)保護條例》在“數(shù)據(jù)效率”之外,傳遞出“數(shù)據(jù)正義”(DataJustice)的理念以及它所包含的具體的法律規(guī)則,均可以作為我國數(shù)據(jù)立法的參考。3.美國的《2019年算法問責法案》(AlgorithmicAccountabilityActof2019)2019年4月10日,美國國會引入《2019年算法問責法案》(AlgorithmicAccountabilityActof2019),旨在指導(dǎo)聯(lián)邦貿(mào)易委員會(FederalTradeCommission,F(xiàn)TC)規(guī)范相關(guān)實體使用、存儲或共享用于進行自動決策系統(tǒng)影響評估和數(shù)據(jù)保護影響評估的個人信息。根據(jù)該法案的界定,自動決策系統(tǒng)是指“一種來源于機器學(xué)習、統(tǒng)計或其他數(shù)據(jù)處理或人工智能技術(shù)的決策方法,它可以影響消費者的決策或促進人類的決策”。自動決策系統(tǒng)影響評估是指“評估自動化決策系統(tǒng)和自動化決策系統(tǒng)的開發(fā)過程(包括自動化決策系統(tǒng)的設(shè)計和培訓(xùn)數(shù)據(jù))對準確性、公平性、偏見、歧視、隱私和安全性的影響”。數(shù)據(jù)保護影響評估是指“評估信息系統(tǒng)處理的個人信息的隱私安全水平”?!?019年算法問責法案》采用了影響評估的機制,強制要求相關(guān)實體針對高風險自動決策系統(tǒng)進行自動決策系統(tǒng)影響評估和數(shù)據(jù)保護影響評估,對自動化決策在公平、歧視、偏見、隱私保護、數(shù)據(jù)安全等方面的影響進行評估,明確FTC作為算法評估的監(jiān)管機構(gòu),并明確了FTC在監(jiān)管過程中的權(quán)力和責任。四醫(yī)療人工智能的主體地位(一)醫(yī)療人工智能是“人”嗎?醫(yī)療人工智能運用于醫(yī)院,法律力有不逮。例如“達·芬奇”手術(shù)機器人。當然目前的“達·芬奇”手術(shù)機器人有一個醫(yī)生操作平臺,由醫(yī)生在主導(dǎo)手術(shù)。但是當強人工智能的手術(shù)機器人出現(xiàn),并能夠獨立手術(shù)時,我們將如何定義手術(shù)機器人的身份,是醫(yī)療器械還是醫(yī)生?我國有學(xué)者(中國社會科學(xué)院研究員段偉文)將其定義為泛主體。“2016年,歐盟委員會法律事務(wù)委員會向歐盟委員會提交動議,要求將最先進的自動化機器人的身份定位為‘電子人’,除賦予其‘特定權(quán)利和義務(wù)外’,還建議為智能機器人進行登記,以便為其進行納稅、繳費、領(lǐng)取養(yǎng)老金的資金賬號”。[7]“2017年10月26日,沙特阿拉伯授予美國‘漢森’機器人索菲亞公司生產(chǎn)的‘女性’機器人索菲亞公民身份……2017年科大訊飛與清華大學(xué)聯(lián)合研發(fā)的人工智能‘智醫(yī)助理’機器人在國家醫(yī)學(xué)考試中心監(jiān)管下參加了臨床執(zhí)業(yè)醫(yī)師綜合筆試測試,2017年底科大訊飛發(fā)布公告稱,‘智醫(yī)助理’機器人以456分的成績通過了臨床執(zhí)業(yè)醫(yī)師考試”。[8]對于具有“自主性”的強人工智能的身份界定不僅是機器人或者人工智能立法的先決問題,而且是起點與前提。歐盟委員會法律事務(wù)委員提出應(yīng)建立機器人分類標準與登記制度,并界定了自主機器人——電子人(ElectronicPersons)的四大特征(見圖9)。圖9電子人的特征關(guān)于人工智能或者智能機器人的主體地位的界定,目前主要有三種說法(見圖10)。圖10人工智能的主體資格1.肯定說肯定說認可人工智能的法律人格,倡導(dǎo)推進立法以保護權(quán)利,規(guī)范機器人行為。有學(xué)者認為,“人工智能具有自主性、主動性,已非純受支配之客體,在法律上應(yīng)設(shè)定為‘電子人’。其依據(jù)在于實踐中人工智能主體已有成例或官方建議;歷史上,自然人、動物或無生命體法律主體的演化表明,存在充足的法律主體制度空間容納‘電子人’;法理上,現(xiàn)有法律主體根植之本體、能力與道德要素,‘電子人’皆備”。[9]2.積極否定說積極否定說,即絕對否定說,認為人工智能永遠不能獲得法律人格。有學(xué)者認為人類具有自由意志,人類才是法律關(guān)系的主體。人類的情感體驗、愛與信仰、對生命的敬畏是人工智能所不具備的;人類的欲望、激情與理性三者之間錯綜復(fù)雜的情感體驗與糾纏是人工智能無法習得的?!叭斯ぶ悄芙o當今法律帶來的現(xiàn)實問題可以在既有的法律主體格局中加以解決,并無將人工智能擬制為法律主體的必要,也無可操作性”。[10]人工智能的主體身份界定是機器人立法的前提與基礎(chǔ),“我們可以給予人工智能以倫理上的關(guān)懷和哲學(xué)上的反思,但不能在法律層面賦予人工智能以人格權(quán),因為這不僅在可行性和可能性上存在很大困難,更是出于對人類法律秩序和人類未來的關(guān)注和保障的考慮”。[11]3.消極否定說消極否定說,即智能機器人仍處于弱人工智能階段,并沒有達到能擁有法律人格的程度,但未來發(fā)展至強人工智能時則有可能承認其法律人格。我國學(xué)者大多采取消極否定說。有學(xué)者從法哲學(xué)的視角來探討人工智能的法律人格問題,認為人工智能具有“近人性”、人工智能的法律人格不必以人工智能是人為前提、承認人工智能的法律人格是一個現(xiàn)實問題。但賦予人工智能法律人格并非迫在眉睫?!霸噲D在現(xiàn)有法律框架下解決人工智能帶來的法律爭議,既是可行的,也是可以理解的。然而,面對人工智能的飛速發(fā)展,我們也許必須保持一種開放性態(tài)度,即不應(yīng)將固守現(xiàn)有法律框架作為解決人工智能法律爭議的前提,并因此而對其他路徑遽然否定”。[12]以上三種學(xué)說又有許多分支,比較典型的學(xué)說分支為“理性缺乏說”與“電子人格說”,理性缺乏說屬于絕對否定說,該學(xué)說認為機器人無論發(fā)展到何種地步,都缺乏像自然人一樣享有權(quán)利和履行義務(wù),接受刑事處罰的理性,認為其不能享有法律人格;電子人格說則屬于肯定說,賦予機器人電子法律人格,保護其權(quán)利。賦予人工智能民事主體地位,不僅會對我們的現(xiàn)實生活提出挑戰(zhàn),也會對我國民事法律體系提出重大挑戰(zhàn)。我國有學(xué)者認為,“法律不能領(lǐng)先于社會現(xiàn)實,以猜想為基礎(chǔ)、對人工智能的法律規(guī)制提出過于瑣細的規(guī)則設(shè)計,沒有太大價值。技術(shù)有變,法理有?!?。[13]我們應(yīng)該回到原理,發(fā)掘現(xiàn)有制度回應(yīng)新技術(shù)之潛力更具理論意義與實踐價值。五如何對醫(yī)療人工智能的診療行為進行規(guī)范圖11人工智能行為認定人工智能應(yīng)該被理解為某種能力,行為能力或者權(quán)利能力,本文更傾向于行為能力。無論主體如何界定,人工智能的這種能力都能與行為聯(lián)系并體現(xiàn)在具體活動之中?;诋斍搬t(yī)療人工智能的工具屬性,暫且被認定為醫(yī)療器械的醫(yī)療人工智能,其能力更多地體現(xiàn)在科學(xué)技術(shù)層面,更具體地說,醫(yī)療人工智能是醫(yī)療領(lǐng)域的新輔助工具、新技術(shù)、新方法?!叭斯ぶ悄艿摹恰鞘苋祟惖闹橇蛡惱淼赖滤鶝Q定的決策方法,同時也是人類智力通過數(shù)據(jù)技術(shù)和數(shù)學(xué)技術(shù)的體現(xiàn)”。[14]而其本身并無情感、意志,所以很難規(guī)避行為過程中存在的倫理道德與人類自身“偏見與歧視”帶來的問題。但我們可以對人工智能的設(shè)計者、制造者、銷售者、使用者進行法律規(guī)范,讓他們在與人工智能互動的相關(guān)過程中堅守倫理底線,堅持安全有益原則,讓人工智能更好地為人類服務(wù)。目前,人工智能不擁有對其自身行為的控制力。一方面,人工智能需要人對其實行控制;另一方面,在實踐應(yīng)用中出現(xiàn)了風險事件,如英格蘭麥格納科學(xué)中心的捕食者機器人從科學(xué)中心逃脫,根據(jù)自身的決策到達高速公路而造成交通事故和對他人損害;微軟人工智能聊天機器人Tay在不到24小時就違背了設(shè)計者的倫理價值,到處散布種族主義、性別歧視和攻擊同性戀的言論等。[15]然而人工智能的設(shè)計者、制造者和使用者對自身行為擁有控制力。以目前人工智能的發(fā)展現(xiàn)狀看,人工智能的能動性可以融入自然人的行為中,可以被看成是人類行為的延伸或者行為方式方法,是受人類思想支配而表現(xiàn)出的外在活動。作為中介影響對象,“認定人工智能是其設(shè)計者、制造者和使用者的法律行為有利于實現(xiàn)法律的價值,因為通過人工智能行為形成的法律關(guān)系是其主體的設(shè)計者、制造者和使用者與其相對人形成的;客體是設(shè)計者、制造者和使用者及其相對人的權(quán)利和義務(wù)共同指向的對象;人工智能行為的責任主體是設(shè)計者、制造者和使用者”。[16]這種法律關(guān)系的確認,能夠更好地約束相關(guān)參與者,使良好的法律道德秩序轉(zhuǎn)化成程序編入人工智能中,使人工智能不逾越法律和道德的底線,進一步為人類提供優(yōu)良的服務(wù)。六醫(yī)療人工智能的責任承擔問題醫(yī)療人工智能的責任承擔問題主要集中在民事責任體系中討論。若想通過我國現(xiàn)有的侵權(quán)體系解決有關(guān)醫(yī)療人工智能侵權(quán)責任糾紛,可發(fā)現(xiàn),各種責任類型都難以很好地適用。因醫(yī)療人工智能由人類借助精密算法進行支配,其外形和其他醫(yī)療設(shè)施相比并無太大變化,目前只起到輔助作用,而責任還需人類為其承擔。圖12醫(yī)療人工智能的責任承擔醫(yī)療人工智能操作失誤的“罪與罰”,誰為醫(yī)療人工智能的行為負責?一般侵權(quán)行為的成立無論在哪種歸責原則下,都需要有行為、損害事實以及二者之間的因果關(guān)系這三個構(gòu)成要件。在過錯責任原則下,需要行為人有過錯,而只要醫(yī)生的操作行為不具有違法性,并符合操作規(guī)則,其過錯便難以證明。另外,當醫(yī)療人工智能完全脫離人類控制時,人類無法履行其注意義務(wù),而智能機器人履行注意義務(wù)的標準也應(yīng)該重新擬定。在無過錯責任原則下,則不考慮行為人是否存在過錯。但由于醫(yī)療人工智能存在自主性與不可預(yù)測性,所以對于因果關(guān)系的證明存在困難。因為醫(yī)療人工智能的“自主性”有可能超越人類設(shè)計者的預(yù)設(shè)程序或修改底層算法,從而導(dǎo)致不可預(yù)測性與因果關(guān)系混亂。“更為復(fù)雜的是,即使醫(yī)療人工智能自身出現(xiàn)故障而引發(fā)糾紛,自主決策和深度學(xué)習會使得原定程序復(fù)雜化為‘技術(shù)黑箱’,甚至連設(shè)計和研發(fā)人員也不具有可讀性和可理解性,更遑論不具備技術(shù)背景的法官和普通民眾?!盵17]雖然《侵權(quán)責任法》規(guī)定了7種特殊侵權(quán)責任類型,但很難適用于醫(yī)療人工智能。在產(chǎn)品責任方面,違反政府有關(guān)標準或產(chǎn)品附帶的警告和說明通常會使產(chǎn)品存在缺陷,但國內(nèi)目前還沒有針對醫(yī)療人工智能的統(tǒng)一標準,對人工智能不合理的危險也無清晰的解釋。當醫(yī)療人工智能產(chǎn)品設(shè)計存在缺陷時,制造商應(yīng)對因缺陷造成的傷害承擔責任。因此,警告和對缺陷進行合理指示很有必要。因為,通過提供合理的指示或警告可以避免因產(chǎn)品缺陷造成的可預(yù)見危害。如果產(chǎn)品不是按照制造商的規(guī)格制造的,則會導(dǎo)致制造缺陷,被侵權(quán)人可通過產(chǎn)品責任填補自身損害,但“自主性”的醫(yī)療機器人具有不可預(yù)測性,這使得生產(chǎn)者負擔太過沉重。另外,對醫(yī)療人工智能適用產(chǎn)品責任也有可能會導(dǎo)致傳統(tǒng)的產(chǎn)品責任失靈。因為智能醫(yī)療機器人自身的發(fā)展性極高,使得生產(chǎn)者免責可能性也極高。就醫(yī)療損害而言,患者向法院既可提出違約之訴,也可提出侵權(quán)之訴,因為醫(yī)療損害賠償責任是違約責任和侵權(quán)責任兩者的競合。在醫(yī)療損害責任中適用過錯推定原則,但醫(yī)療人工智能的自主決策能力阻礙了醫(yī)療機構(gòu)與患者損害之間的因果關(guān)系,舉證面臨困難。對醫(yī)療人工智能的歸責原則的討論,國內(nèi)學(xué)者們說法不一,多數(shù)學(xué)者認為可以使用無過錯責任原則或者過錯推定原則,還有部分學(xué)者認為,應(yīng)該構(gòu)建新的責任原則。在國外的責任體系中還有瀆職和替代責任兩種理論,“瀆職實質(zhì)上是特定領(lǐng)域內(nèi)專業(yè)人士所負擔的更高標準的注意義務(wù)。當一名專業(yè)人士違反此類注意義務(wù)時,就會產(chǎn)生相應(yīng)的責任。涉及瀆職的訴訟本質(zhì)上都是有特定規(guī)則的過失侵權(quán)案件”。[18]目前醫(yī)生并未完全掌握和控制具有一定自主性的醫(yī)療人工智能,因此,瀆職責任理論的實施也存在困難?!疤娲熑?,是指如果雇員在職務(wù)范圍內(nèi)實施侵害他人權(quán)益的行為,那么雇主就需要對雇員的行為承擔責任”。[18]替代責任的前提是醫(yī)院與醫(yī)療人工智能是雇傭關(guān)系,但是醫(yī)療機構(gòu)并不能將醫(yī)療人工智能當作雇員,因此替代責任適用于醫(yī)療人工智能有待商榷。除了民事責任外,醫(yī)療人工智能也可能涉及刑事責任與行政責任。當醫(yī)療人工智能逐漸發(fā)展成強人工智能時,刑法學(xué)者們建議賦予醫(yī)療人工智能法律地位,同時對其定罪量刑。行政責任則涉及政府的監(jiān)管是否合理與到位。這些問題都值得我們思考。相較于依靠傳統(tǒng)的責任主張,很多學(xué)者提出應(yīng)構(gòu)建像工傷保險賠償程序一樣的保險?!霸鎯H僅需要證明實際受到了損害或損失,以及有證據(jù)證明是由人工智能造成的”。[19]這就避開了傳統(tǒng)責任體系中因果關(guān)系的證明難題。但是為了維持保險公司的支付能力,保險公司的賠償數(shù)額必將降低,方能同時保護遭受人工智能損失或損害的制造者與受害者。還有學(xué)者提出“建立儲備金(areserveoffunds)用于支付與人工智能相關(guān)的和解和賠償費用”。[20]具體方法是:政府或者行業(yè)主導(dǎo);購買特定保險;售價構(gòu)成中增加責任費用?!敖①r償基金,作為強制保險制度的一個補充。一方面,賠償基金可以確保未被保險覆蓋的損害可以得到彌補,這是設(shè)立賠償基金的首要目的;另一方面,允許機器人牽涉到的多個利益相關(guān)方的投入,比如向醫(yī)療人工智能作出的投資、捐贈或者支付,被轉(zhuǎn)移到該基金。此外,賠償基金可以作為限制制造商責任的一個條件,即對于被賠償基金覆蓋的醫(yī)療人工智能,其制造商僅承擔有限責任,即財產(chǎn)損害的賠償責任以該基金為限度,其他類型的損害的賠償則不受此限”。[21]另外設(shè)立機器人分類制度、登記制度,或者確認“電子人”身份。“在法律上承認其為‘電子人’(ElectronicPerson),具有明確的權(quán)利和義務(wù),包括對其造成的損害作出賠償,以及在智能機器人作出決策或者獨立自主地與第三方交往時,適用電子人格(這可以幫助解決合同責任、侵權(quán)責任等問題)”。[22]圖13醫(yī)療人工智能的責任承擔的配套制度七對醫(yī)療人工智能的風險如何防范2018年,我國國家食品藥品監(jiān)督管理總局(CFDA)發(fā)布的新版《醫(yī)療器械分類目錄》中大部分醫(yī)療人工智能產(chǎn)品屬于高風險的第三類醫(yī)療器械。由于CFDA無成熟的審核該類產(chǎn)品的經(jīng)驗與標準數(shù)據(jù)庫,難以明確人工智能診斷醫(yī)療責任主體,目前國內(nèi)很少有新一代醫(yī)療人工智能產(chǎn)品獲得CFDA第三類醫(yī)療器械注冊證書。如果我們把醫(yī)療人工智能產(chǎn)品定義為醫(yī)療器械軟件,那么我國國家食品藥品監(jiān)督管理總局認為醫(yī)療器械軟件就是“包括在被開發(fā)的醫(yī)療器械內(nèi)的已開發(fā)的軟件系統(tǒng),或者預(yù)期本身用作醫(yī)療器械而開發(fā)的軟件系統(tǒng)”。[23]美國食品藥品監(jiān)督管理局(FDA)定義的醫(yī)療器械軟件是指任何符合醫(yī)療設(shè)備法律定義的軟件,包括一個或多個軟件組件部件、附件或僅由軟件組成的器械。醫(yī)療器械軟件可以分為醫(yī)療器械嵌入式軟件(SoftwareinaMedicalDevice,SiMD)與醫(yī)療器械獨立軟件(SoftwareasaMedicalDevice,SaMD)。醫(yī)療器械嵌入式軟件指的是傳統(tǒng)的以硬件設(shè)備為主的輔助式軟件系統(tǒng),例如,監(jiān)護儀中的分析報警軟件。醫(yī)療器械獨立軟件指的是“預(yù)期用于一個或多個醫(yī)療目的,無須作為醫(yī)療器械硬件組成部分即可完成預(yù)期用途的軟件”[24],例如,輔助診斷疾病軟件、影像檔案傳輸處理系統(tǒng)。目前醫(yī)療器械人工智能主要指的是醫(yī)療器械獨立軟件。(一)醫(yī)療人工智能存在的問題第一,醫(yī)療人工智能本身存在安全風險與挑戰(zhàn)、法律地位和法律責任難以確定的問題。第二,監(jiān)管缺失的問題,缺少專門醫(yī)療人工智能監(jiān)管法規(guī),監(jiān)管人工智能大數(shù)據(jù)、安全性、隱私、責任承擔。第三,醫(yī)療數(shù)據(jù)的質(zhì)量、保護和利用方面的問題。醫(yī)療數(shù)據(jù)質(zhì)量方面的問題。高質(zhì)量的醫(yī)療數(shù)據(jù)信息不足,數(shù)據(jù)精準度以及實用性不高。醫(yī)療數(shù)據(jù)資料的隱私、權(quán)屬方面的問題,一方面容易侵害數(shù)據(jù)安全和患者隱私,另一方面數(shù)據(jù)過度保護可能會影響人工智能的發(fā)展。第四,醫(yī)療人工智能行業(yè)可信度問題。醫(yī)療行業(yè)的觀望態(tài)度的問題:醫(yī)療人工智能技術(shù)在臨床應(yīng)用過程中的安全性、穩(wěn)定性、準確性、智能性尚未取得醫(yī)學(xué)界完全認可。社會公眾不信任的問題:在用戶習慣上,老百姓對人機交互還停留在以觸控方式為主的傳統(tǒng)醫(yī)療器械的協(xié)助,不習慣信任機器,而是信任醫(yī)生。圖14醫(yī)療人工智能的風險防范問題(二)醫(yī)療人工智能的風險防范第一,醫(yī)療人工智能本身需要就其主體資格進行認定,并承擔其可能帶來的侵權(quán)責任和刑事責任。第二,醫(yī)療人工智能生產(chǎn)者首先應(yīng)該對醫(yī)療人工智能的生產(chǎn)制造過程進行嚴格把關(guān);如果因為設(shè)計的缺陷導(dǎo)致醫(yī)療損害,則適用《中華人民共和國產(chǎn)品質(zhì)量法》中的產(chǎn)品質(zhì)量責任。其次,需要履行培訓(xùn)義務(wù)或者培訓(xùn)告知義務(wù),告知使用者規(guī)范培訓(xùn)后方能臨床實用,如果未告知使用者先培訓(xùn)后使用或者未培訓(xùn)使用者,因此而造成醫(yī)療損害,生產(chǎn)者有過失。第三,醫(yī)療人工智能使用者應(yīng)意識到,目前醫(yī)療人工智能的臨床應(yīng)用,基本上還是作為醫(yī)生的輔助手段,主體還是醫(yī)生。如果因為醫(yī)療人工智能的使用而導(dǎo)致醫(yī)療損害,醫(yī)務(wù)人員未盡到應(yīng)盡的注意義務(wù),首先會追究醫(yī)務(wù)人員的責任。第四,醫(yī)療數(shù)據(jù)的保護和利用方面的風險防范,我們需要有完善的信息保護立法。一方面保護公民的醫(yī)療信息、保護公民的隱私權(quán);另一方面,建設(shè)醫(yī)療大數(shù)據(jù)資源庫,充分利用大數(shù)據(jù),促進醫(yī)療人工智能的發(fā)展。(三)安全政策面對醫(yī)療人工智能帶來的風險,我們需要構(gòu)建責任倫理,強化特殊監(jiān)管。醫(yī)療人工智能在實際的運用中,存在多個利益相關(guān)方,對其進行權(quán)利與義務(wù)的劃分,落實責任承擔的主體是解決糾紛的重要方面。Intel中國研究院閆守孟認為人工智能“在技術(shù)上已經(jīng)可以做到‘表達它的情緒,與人類做感情上的交流’”。[25]那么,如何控制機器人為人類服務(wù)而且不傷害到人類?有學(xué)者認為應(yīng)給機器人構(gòu)造一些所謂的安全政策(SafetyPolicy),機器人根據(jù)具體的場景,會產(chǎn)生決策并執(zhí)行決策。安全政策首先要保證該場景是機器人能夠理解的場景,其次,“該安全政策必須保證機器人能理解的場景是真實的、不能被篡改或者跳過的”。[25]同時“機器人設(shè)計者應(yīng)當設(shè)置一個‘一鍵關(guān)閉’功能,從而能夠在緊急情況下將機器人關(guān)閉”。[26]IEEE標準協(xié)會高級顧問、“EthicallyAlignedDesign”起草委員會委員王亮迪博士提到,IEEE的工作核心是將人類價值標準和倫理思考嵌套在自主化智能系統(tǒng)設(shè)計之中,使智能系統(tǒng)首先有哲學(xué)思考,再做原則,再做標準(見表1)。[25]表1人工智能的安全政策(1)嵌入倫理觀念將人類價值標準和倫理思考嵌入自主化智能系統(tǒng)設(shè)計之中(2)確定行為邊界給機器人構(gòu)造安全政策(安全閥),機器人在執(zhí)行命令的場景下要預(yù)先分析該情境下的安全政策。該安全政策必須保證機器人能理解的場景是真實的、不能被篡改或者跳過的(3)預(yù)設(shè)生命機器人設(shè)計者應(yīng)當考慮設(shè)置一個“一鍵關(guān)閉”功能(死亡代碼),以便可以在緊急情況下將機器人關(guān)閉|Excel下載表1人工智能的安全政策圖152017年“自動化智慧系統(tǒng)倫理全球倡議”報告內(nèi)容(四)FDA對于醫(yī)療器械獨立軟件的風險管控方式FDA對獨立軟件本身進行風險評估,從適用的醫(yī)療情形以及對醫(yī)療決策的重要性兩個維度評估獨立軟件本身的風險,將獨立軟件的風險分為四個等級(見表2)。表2FDA獨立軟件風險評估等級適用的醫(yī)療情形對醫(yī)療決策的重要性治療或診斷驅(qū)動臨床管理為臨床管理提供信息危重情形432嚴重情形321非嚴重情形211資料來源:蔡小舒、呂暉、于廣軍:《美國FDA醫(yī)療人工智能軟件審核指南研究》,《中國數(shù)字醫(yī)學(xué)》2019年第11期,第34~37頁。|Excel下載表2FDA獨立軟件風險評估等級FDA對獨立軟件的開發(fā)者(企業(yè)或者機構(gòu))進行預(yù)認證等級評估。對產(chǎn)品質(zhì)量、用戶安全、臨床可靠性、網(wǎng)絡(luò)安全責任、前瞻性文化五個方面的卓越性進行考量,評價結(jié)果分為兩個等級。等級一:企業(yè)在無審查情況下開發(fā)低風險軟件,其他風險類型產(chǎn)品通過精簡審查;等級二:企業(yè)在無審查情況下開發(fā)低風險與中度風險軟件,其他風險類型產(chǎn)品通過精簡審查。FDA根據(jù)獨立軟件本身的四個風險類型以及獨立軟件的開發(fā)者(企業(yè)或者機構(gòu))評估結(jié)果的兩個等級來確定審核路徑。FDA實施精簡審核流程。FDA對真實世界實效性能進行監(jiān)控,包括真實世界健康分析(產(chǎn)品結(jié)果分析、人為因素和可用性工程分析、臨床安全性以及有效性分析);用戶體驗分析(用戶滿意度分析、解決方案、用戶反饋渠道、用戶參與度分析);產(chǎn)品效能分析(產(chǎn)品結(jié)果的準確性、網(wǎng)絡(luò)安全性、可靠性)。表3預(yù)認證機構(gòu)獨立軟件審核路徑風險類型等級一與等級二預(yù)認證機構(gòu)獨立產(chǎn)品審核階段類型細分類描述原始產(chǎn)品重大變革次要變革一1非嚴重情形與為臨床管理提供信息無須審核無須審核無須審核2嚴重情形與為臨床管理提供信息3非嚴重情形與驅(qū)動臨床管理二4危重情形與為臨床管理提供信息等級一
精簡審核
等級二
無須審核—5非嚴重情形與治療或診斷6嚴重情形與驅(qū)動臨床管理三7嚴重情形與治療或診斷精簡審核等級一
精簡審核
等級二
無須審核8危重情形與驅(qū)動臨床管理精簡審核四9危重情形與治療或診斷資料來源:蔡小舒、呂暉、于廣軍:《美國FDA醫(yī)療人工智能軟件審核指南研究》,《中國數(shù)字醫(yī)學(xué)》2019年第11期,第34~37頁。|Excel下載表3預(yù)認證機構(gòu)獨立軟件審核路徑對于目前的弱醫(yī)療人工智能的風險防控,F(xiàn)DA把它當作醫(yī)療器械中獨立軟件進行風險防控,其防控的具體流程與方式是可以參考的。八人工智能知識產(chǎn)權(quán)人工智能知識產(chǎn)權(quán)包含兩個方面,第一個方面是人類自身在人工智能研發(fā)過程中創(chuàng)造的人工智能產(chǎn)品或方法的知識產(chǎn)權(quán),創(chuàng)新的主體是人類;第二個方面是人工智能創(chuàng)造的產(chǎn)品或方法的知識產(chǎn)權(quán),例如,人工智能創(chuàng)作的書法作品、文學(xué)作品等。所謂強智能化,就是體現(xiàn)在機器的學(xué)習功能?!皺C器學(xué)習技術(shù)運用統(tǒng)計學(xué)、數(shù)學(xué)、信息論、控制論等多門學(xué)科知識,通過訓(xùn)練程序?qū)崿F(xiàn)計算機程序的自動優(yōu)化,提高程序性能,最終推動人工智能的發(fā)展?!盵27]因此人工智能的創(chuàng)造物首先表現(xiàn)為對自身的改造,創(chuàng)造出性能更優(yōu)、自動化程度更高的計算機軟件。其次目前的弱人工智能也能創(chuàng)作一些文學(xué)作品、書畫作品、音樂作品等。人工智能的創(chuàng)造物是否可以獲得知識產(chǎn)權(quán),是對既有知識產(chǎn)權(quán)制度的巨大沖擊。圖16與人工智能相關(guān)的知識產(chǎn)權(quán)專利權(quán)問題的探討主要是人類在人工智能領(lǐng)域的發(fā)明創(chuàng)造是否具有可專利性,主體還是人類;而人工智能的書畫作品的著作權(quán)探討的主體則是人工智能本身,以及其生成物是否能被認定為作品。人類自身在人工智能領(lǐng)域的專利法律問題主要有三個:專利法律關(guān)系中的客體問題(可專利性問題);授予專利條件之一的創(chuàng)造性問題;專利申請資料中的說明書與權(quán)利要求書的表達問題。人工智能自主創(chuàng)造的專利法律問題集中在發(fā)明者或者創(chuàng)造者的主體身份問題與可專利性問題上。(一)人類在人工智能領(lǐng)域的發(fā)明創(chuàng)造的專利問題1.客體問題客體即法律關(guān)系中權(quán)利與義務(wù)所指向的對象,在人工智能領(lǐng)域表現(xiàn)為哪些發(fā)明創(chuàng)造具有可專利性,主要體現(xiàn)的是發(fā)明專利中的可專利性問題(實用新型與外觀設(shè)計與其他領(lǐng)域沒有區(qū)別,暫不予討論),即在人工智能領(lǐng)域,哪些對產(chǎn)品、方法或者其改進所提出的新的技術(shù)方案可以授予專利。簡言之,就是在人工智能領(lǐng)域,哪些技術(shù)方案具有可專利性,能夠成為客體,核心算法以及核心算法的改進能否獲得專利授權(quán)。人工智能的核心是算法,這是競爭的焦點。然而算法體現(xiàn)為數(shù)學(xué)模型,在多數(shù)國家都不是專利保護的客體。在中國,《專利法》中明示,對于“智力活動的規(guī)則和方法;疾病的診斷和治療方法”是不授予專利的?!稓W洲專利審查指南》指出神經(jīng)網(wǎng)絡(luò)等機器學(xué)習算法或計算模型具有數(shù)學(xué)的本質(zhì),審查時需要重點關(guān)注;美國在修訂審查指南前,在專利審查實踐中,計算機程序常被劃分為抽象的概念,屬于不適格的專利客體。但是如果是計算機程序與相關(guān)工業(yè)技術(shù)相結(jié)合的方案,即如果算法與具體的技術(shù)方案結(jié)合,是可以被授予專利的。目前在各國都具有可專利性,但是在評價創(chuàng)造性方面,各國的態(tài)度又差異明顯。中國尚未出臺針對人工智能及機器學(xué)習方面的審查指南,相關(guān)領(lǐng)域的審查參照計算機實施專利的規(guī)定,美國、日本與歐洲已經(jīng)修訂了審查規(guī)定,2018年3月,日本專利局公開了針對人工智能及機器學(xué)習方面的審查指南實例,內(nèi)容非常具體詳細。2.創(chuàng)造性問題創(chuàng)造性是專利獲得授權(quán)的關(guān)鍵要素,在人工智能技術(shù)的應(yīng)用場景專利中,創(chuàng)造性評價問題顯得尤為突出,如果相關(guān)的機器學(xué)習算法是已知的,應(yīng)用場景的技術(shù)也是已知的,將機器學(xué)習的算法應(yīng)用到新的場景中,這樣的技術(shù)方案的創(chuàng)造性如何確認是個問題。創(chuàng)造性的判斷是依賴于申請者主張的權(quán)利整體而不是著重強調(diào)人工智能生成的技術(shù)方案本身?!啊还馨l(fā)明者在創(chuàng)立發(fā)明的過程中是歷盡艱辛,還是唾手而得,都不應(yīng)當影響對該發(fā)明創(chuàng)造性的評價’?!睹绹鴮@ā返?03條亦明確規(guī)定:‘可專利性不得因發(fā)明制造出來的方式而受影響?!盵28]另外,還要考量本領(lǐng)域相關(guān)的人工智能技術(shù)水平。因此,人類在人工智能領(lǐng)域?qū)@械膭?chuàng)造性問題有諸多因素需要考慮。3.公開不充分與說明書支持問題在許多專利申請中,算法有時作為一個整體的模塊,或稱為“黑匣子”,比如擁有機器學(xué)習算法的腫瘤診斷裝置,有時候權(quán)利人為得到更大的保護范圍,會在權(quán)利要求中直接寫“如權(quán)利要求X的設(shè)備,所述設(shè)備通過機器學(xué)習的算法控制”。這樣的權(quán)利要求如何得到支持,說明書或權(quán)利要求如何才能做到公開充分值得思考。(二)人工智能的自主創(chuàng)造物的著作權(quán)問題1.獨創(chuàng)性問題巴黎索尼計算機科學(xué)實驗室的一個人工智能系統(tǒng)實驗,“使用了352首巴赫的歌曲,將其轉(zhuǎn)換成不同的音符,形成2503個作品,包括專業(yè)音樂家和音樂系學(xué)生在內(nèi)的1600名聽眾中,有超過一半的人以為是巴赫本人的作品”。[29]如何定義一個作品?“著作權(quán)法所稱作品,是指文學(xué)、藝術(shù)和科學(xué)領(lǐng)域內(nèi)具有獨創(chuàng)性并能以某種有形形式復(fù)制的智力成果”。[30]搜索數(shù)據(jù)庫的重新組合,可以是數(shù)據(jù)單純地羅列,也可以是將數(shù)據(jù)按照一定的排版。前者只是將人工智能作為工具利用,而后者則是去模仿人腦的思考,賦予了人工智能更多的自主性,在排版設(shè)計上體現(xiàn)人工智能創(chuàng)造物的獨創(chuàng)性。因此針對獨創(chuàng)性問題,應(yīng)區(qū)分人工智能創(chuàng)造物是程序性創(chuàng)造還是自主性創(chuàng)造。前者是基于大量的數(shù)據(jù)庫,通過編排等手段形成某物;而后者是在大數(shù)據(jù)分析與算法的自我優(yōu)化過程中獲得的,脫離了人的事先設(shè)計安排與管控,體現(xiàn)了人工智能通過學(xué)習而獲得的自主性與創(chuàng)造性。2.權(quán)利歸屬在作者和投資人之間理應(yīng)進行權(quán)屬分割。例如特殊職務(wù)作品,創(chuàng)作者除了擁有署名權(quán),其他的著作權(quán)歸法人或其他組織所有?!叭斯ぶ悄艿陌l(fā)展,使得智能機器人的自主創(chuàng)作逐步成為可能,但鑒于人工智能獨立法律人格尚存在倫理與道德爭議,對智能作品上的權(quán)利配置在設(shè)計者、所有者和使用者這三個利益主體之間進行權(quán)衡,是較為妥當?shù)摹?。[31]另外,賦予設(shè)計者、所有者和使用者著作權(quán)更有利于市場的發(fā)展,可以更加快速確認該人工智能本身的歸屬,進而對其設(shè)計者、所有者和使用者有經(jīng)濟上的效益。在國際上,英國的《1988年版權(quán)、外觀設(shè)計及專利法案》首先對于電腦生成著作制定的相關(guān)規(guī)范表明,“所謂電腦生成著作系指無人類作者之著作,該法案進一步規(guī)定,應(yīng)以為創(chuàng)作該著作進行必要安排之人為電腦生成著作的著作人”。[32]3.侵權(quán)行為人工智能對于他人著作權(quán)的侵權(quán)行為最為廣泛,以先進的技術(shù)手段,不經(jīng)著作權(quán)人允許或者強制獲得許可的手段,侵害他人著作權(quán)。這不僅是個人著作權(quán)的問題,而且已經(jīng)涉及互聯(lián)網(wǎng)公司之間的相互競爭。圖17人工智能知識產(chǎn)權(quán)侵權(quán)問題人工智能在創(chuàng)作時的侵權(quán)行為方式有以下四種:“一是通過爬蟲協(xié)議抓取網(wǎng)站數(shù)據(jù);二是未經(jīng)許可抓取數(shù)據(jù)庫數(shù)據(jù);三是未經(jīng)權(quán)利人許可,以商業(yè)目的數(shù)據(jù)化非電子數(shù)據(jù);四是人工智能開發(fā)公司通過服務(wù)協(xié)議強制獲得許可”。[33]這四種行為侵害了他人的知識產(chǎn)權(quán),需要對其從技術(shù)制約,如區(qū)塊鏈技術(shù)的安全性、政府政策、行業(yè)自律、法律規(guī)范等方面解決。附錄1.國際知識產(chǎn)權(quán)組織(WorldIntellectualPropertyOrganization,WIPO),在1991年11月4日至8日會議提出的《伯爾尼公約補充議定書可行性之相關(guān)問題》中,將人工智能定義為“能顯示出人類智能(如感知、理解、學(xué)習、說明及解決問題)相關(guān)能力的計算機程序”。2.電機電子工程師學(xué)會(TheInstituteofElectricalandElectronicsEngineers,IEEE)的自主化智能系統(tǒng)倫理全球倡議(IEEEGlobalInitiativeonEthicsofAutonomousandIntelligentSystems)。該委員會于2017年作成ETHICALLYALIGNEDDESIGN-VisionforPrioritizingHumanWell-beingwithAutonomousandIntelligentSystems。該報告確立相關(guān)科技發(fā)展遵循倫理通則包括:不侵害人權(quán)(HumanRights)、福祉(Well-being)優(yōu)先、對于技術(shù)設(shè)計及操作問責(Accountability)、透明公開(Transparency)以及降低濫用(Misuse)風險。3.美國國家科學(xué)技術(shù)委員會發(fā)布《國家人工智能研究和發(fā)展戰(zhàn)略計劃》,該計劃指出在醫(yī)療領(lǐng)域美國積極將人工智能應(yīng)用于可穿戴設(shè)備、記憶輔助系統(tǒng)和醫(yī)療診斷等領(lǐng)域;白宮發(fā)布《為人工智能的未來做好準備》(PreparingfortheFutureofArtificialIntelligence)白皮書;2017年12月12日,國會提出《人工智能未來法案》(FutureofArtificialIntelligenceActof2017);2019年4月10日,美國國會提出《2019年算法問責法案》(AlgorithmicAccountabilityActof2019)。4.英國2016年發(fā)布《人工智能:未來決策制定的機遇與影響》;2017年頒布
溫馨提示
- 1. 本站所有資源如無特殊說明,都需要本地電腦安裝OFFICE2007和PDF閱讀器。圖紙軟件為CAD,CAXA,PROE,UG,SolidWorks等.壓縮文件請下載最新的WinRAR軟件解壓。
- 2. 本站的文檔不包含任何第三方提供的附件圖紙等,如果需要附件,請聯(lián)系上傳者。文件的所有權(quán)益歸上傳用戶所有。
- 3. 本站RAR壓縮包中若帶圖紙,網(wǎng)頁內(nèi)容里面會有圖紙預(yù)覽,若沒有圖紙預(yù)覽就沒有圖紙。
- 4. 未經(jīng)權(quán)益所有人同意不得將文件中的內(nèi)容挪作商業(yè)或盈利用途。
- 5. 人人文庫網(wǎng)僅提供信息存儲空間,僅對用戶上傳內(nèi)容的表現(xiàn)方式做保護處理,對用戶上傳分享的文檔內(nèi)容本身不做任何修改或編輯,并不能對任何下載內(nèi)容負責。
- 6. 下載文件中如有侵權(quán)或不適當內(nèi)容,請與我們聯(lián)系,我們立即糾正。
- 7. 本站不保證下載資源的準確性、安全性和完整性, 同時也不承擔用戶因使用這些下載資源對自己和他人造成任何形式的傷害或損失。
最新文檔
- 2024生鮮乳電商平臺定制購銷及品牌推廣合同3篇
- 二手店鋪過戶協(xié)議模板版B版
- 二零二五年度豪華酒店建筑工程施工總承包合同2篇
- 二零二五年度安置房項目環(huán)保驗收合同6篇
- 二零二五年海洋平臺用鋼板租賃服務(wù)協(xié)議3篇
- 二零二五年度高等教育機構(gòu)教師聘期管理勞動合同范本3篇
- 二零二五年食品安全生產(chǎn)責任賠償合同3篇
- 武漢工貿(mào)職業(yè)學(xué)院《珠寶商務(wù)》2023-2024學(xué)年第一學(xué)期期末試卷
- 二零二五年度智能安防產(chǎn)品集成與調(diào)試合同3篇
- 2024銅門制安工程物流服務(wù)合同
- 小學(xué)四年級數(shù)學(xué)知識點總結(jié)(必備8篇)
- GB/T 893-2017孔用彈性擋圈
- GB/T 11072-1989銻化銦多晶、單晶及切割片
- GB 15831-2006鋼管腳手架扣件
- 醫(yī)學(xué)會自律規(guī)范
- 商務(wù)溝通第二版第4章書面溝通
- 950項機電安裝施工工藝標準合集(含管線套管、支吊架、風口安裝)
- 微生物學(xué)與免疫學(xué)-11免疫分子課件
- 《動物遺傳育種學(xué)》動物醫(yī)學(xué)全套教學(xué)課件
- 弱電工程自檢報告
- 民法案例分析教程(第五版)完整版課件全套ppt教學(xué)教程最全電子教案
評論
0/150
提交評論