厘清算法安全(影響)評(píng)估制度邏輯加快提升人工 智能治理水平_第1頁(yè)
厘清算法安全(影響)評(píng)估制度邏輯加快提升人工 智能治理水平_第2頁(yè)
厘清算法安全(影響)評(píng)估制度邏輯加快提升人工 智能治理水平_第3頁(yè)
厘清算法安全(影響)評(píng)估制度邏輯加快提升人工 智能治理水平_第4頁(yè)
厘清算法安全(影響)評(píng)估制度邏輯加快提升人工 智能治理水平_第5頁(yè)
已閱讀5頁(yè),還剩1頁(yè)未讀 繼續(xù)免費(fèi)閱讀

下載本文檔

版權(quán)說(shuō)明:本文檔由用戶提供并上傳,收益歸屬內(nèi)容提供方,若內(nèi)容存在侵權(quán),請(qǐng)進(jìn)行舉報(bào)或認(rèn)領(lǐng)

文檔簡(jiǎn)介

厘清算法安全(影響)評(píng)估制度邏輯,加快提升人工智能治理水平一、《生成式人工智能服務(wù)安全基本要求》出臺(tái)的重要性2023年8月15日,《生成式人工智能服務(wù)管理暫行辦法》正式施行,其中明確指出,“提供具有輿論屬性或者社會(huì)動(dòng)員能力的生成式人工智能服務(wù)的,應(yīng)當(dāng)按照國(guó)家有關(guān)規(guī)定開(kāi)展安全評(píng)估”,同時(shí)也要求在生成式人工智能技術(shù)研發(fā)過(guò)程中需要“開(kāi)展數(shù)據(jù)標(biāo)注質(zhì)量評(píng)估”。為進(jìn)一步落實(shí)該文件,2024年2月,全國(guó)網(wǎng)絡(luò)安全標(biāo)準(zhǔn)化技術(shù)委員會(huì)發(fā)布了技術(shù)文件《生成式人工智能服務(wù)安全基本要求》(以下簡(jiǎn)稱《安全基本要求》),從語(yǔ)料安全、模型安全、安全措施等方面提出了安全評(píng)估要求,為生成式人工智能服務(wù)提供者的安全評(píng)估工作、相關(guān)主管部門評(píng)判生成式人工智能服務(wù)安全水平提供了重要參考。盡管《安全基本要求》作為技術(shù)文件并不具有強(qiáng)制性,其治理效果仍然取決于監(jiān)管部門、一線技術(shù)研發(fā)與應(yīng)用主體、市場(chǎng)第三方評(píng)估機(jī)構(gòu)等利益相關(guān)主體如何理解、使用、執(zhí)行,但從制度演化視角來(lái)看,其是我國(guó)國(guó)家層面治理機(jī)構(gòu)第一次對(duì)人工智能算法安全評(píng)估的對(duì)象、范疇、標(biāo)準(zhǔn)等實(shí)質(zhì)性內(nèi)容提出制度要求,對(duì)于我國(guó)完善人工智能算法安全評(píng)估制度建設(shè)具有關(guān)鍵性的推動(dòng)作用。換言之,只有邁出了《安全基本要求》這樣一個(gè)重要起點(diǎn),我們才可能在不斷的補(bǔ)充、調(diào)整、完善過(guò)程中積累治理經(jīng)驗(yàn),真正開(kāi)啟人工智能算法安全評(píng)估的制度探索進(jìn)程。從全球視角來(lái)看,當(dāng)前世界各主要國(guó)家的人工智能治理正在經(jīng)歷從原則理念向制度落實(shí)方向發(fā)展的新階段,人工智能安全(影響)評(píng)估作為基礎(chǔ)性制度已經(jīng)被普遍納入各國(guó)制度框架,歐盟、加拿大、美國(guó)等也初步形成了一定的制度探索。相比之下,我國(guó)雖在不同政策文本中都明確提出了要開(kāi)展人工智能安全(影響)評(píng)估的基本要求,但直到《安全基本要求》的提出之前,我國(guó)并未形成較明確的評(píng)估框架,也未提出較明確的評(píng)估要求。在此背景下,《安全基本要求》的出臺(tái),有助于我們?cè)诒容^不同國(guó)家制度差異的基礎(chǔ)上,積累中國(guó)在算法安全(影響)評(píng)估方面的治理經(jīng)驗(yàn),進(jìn)而向人工智能全球治理做出貢獻(xiàn),協(xié)力各方共同促進(jìn)人工智能治理。不過(guò)人工智能安全議題本身的復(fù)雜性和不確定性,使得人工智能算法安全(影響)評(píng)估的體系構(gòu)建與機(jī)制探索并非單靠一個(gè)文件就能完成,其仍然依賴于自上而下對(duì)整體性頂層設(shè)計(jì)邏輯的斟酌權(quán)衡,以及自下而上治理經(jīng)驗(yàn)的匯集與擴(kuò)散。在《安全基本要求》作為重要制度文件出臺(tái)的背景下,對(duì)人工智能算法安全評(píng)估的制度邏輯展開(kāi)分析,因此也具有了極為重要的理論價(jià)值與實(shí)踐指導(dǎo)意義。二、人工智能算法安全評(píng)估的制度邏輯與目標(biāo)從制度特點(diǎn)來(lái)講,安全(影響)評(píng)估制度的特點(diǎn)在于將治理重心從結(jié)果轉(zhuǎn)向過(guò)程,在淡化追溯直接責(zé)任因果鏈條的同時(shí),強(qiáng)調(diào)治理信息的記錄、共享、監(jiān)督,并在此過(guò)程中積累治理經(jīng)驗(yàn),同時(shí)為算法設(shè)計(jì)者、應(yīng)用者的及時(shí)調(diào)整提供參考。具體而言,傳統(tǒng)監(jiān)管是直接面向可能出現(xiàn)的風(fēng)險(xiǎn)而展開(kāi),旨在對(duì)市場(chǎng)失靈現(xiàn)象作出回應(yīng)以避免出現(xiàn)權(quán)益侵害風(fēng)險(xiǎn),其針對(duì)的是風(fēng)險(xiǎn)結(jié)果而并不特別在意導(dǎo)致風(fēng)險(xiǎn)產(chǎn)生的過(guò)程;但安全(影響)評(píng)估制度卻“反其道而行之”,更關(guān)注安全風(fēng)險(xiǎn)產(chǎn)生過(guò)程,并要求作為一線主體的技術(shù)創(chuàng)新者、應(yīng)用者基于評(píng)價(jià)結(jié)果而對(duì)其內(nèi)部的技術(shù)生產(chǎn)、應(yīng)用過(guò)程作出調(diào)整。如果說(shuō)傳統(tǒng)監(jiān)管仍然建立在較為明確的“市場(chǎng)-政府”二分邊界基礎(chǔ)上,那么安全(影響)評(píng)估制度則打破了這一“二分法”,而直接切入至技術(shù)創(chuàng)新應(yīng)用的生產(chǎn)管理過(guò)程,以求對(duì)風(fēng)險(xiǎn)作出敏捷回應(yīng)。具體到人工智能算法作為治理對(duì)象而言,算法安全風(fēng)險(xiǎn)的環(huán)境嵌入性特征、算法技術(shù)方案的難解釋特征、算法安全風(fēng)險(xiǎn)的概率性而非個(gè)案性特征,都是催生算法安全(影響)評(píng)估制度的重要原因。在此背景下,人工智能算法安全(影響)評(píng)估制度的目標(biāo)主要圍繞兩方面而展開(kāi):對(duì)算法治理過(guò)程進(jìn)行記錄以累積治理經(jīng)驗(yàn)與知識(shí),基于評(píng)估結(jié)果而要求算法設(shè)計(jì)與應(yīng)用者及時(shí)干涉創(chuàng)新應(yīng)用流程以作出敏捷回應(yīng)。然而,作為一種新興事物,人工智能算法安全(影響)評(píng)估制度究竟如何建設(shè),仍然是一個(gè)全新命題。綜合制度沿襲和具體政策實(shí)踐來(lái)看,算法安全(影響)評(píng)估有可能采取環(huán)境影響評(píng)估、數(shù)據(jù)保護(hù)信息評(píng)估、列表式評(píng)估這三種基本模式。但每一種模式都不是完美的,都存在其優(yōu)勢(shì)和不足,而這也正是我們探索算法安全(影響)評(píng)估制度建設(shè)過(guò)程中所需要關(guān)注的取舍選擇與權(quán)衡之處。三、人工智能算法安全評(píng)估的制度建設(shè)模式比較自上個(gè)世紀(jì)六七十年代在全球各國(guó)逐步建立之后,環(huán)境影響評(píng)估幾乎可被視為安全(影響)評(píng)估領(lǐng)域最為典型、最具代表意義的制度典范。從制度內(nèi)涵來(lái)看,環(huán)境影響評(píng)估的關(guān)鍵在于三點(diǎn):基于環(huán)境影響級(jí)別的大小而分別提出不同程度的環(huán)境影響評(píng)估要求、廣泛納入公眾參與以確保環(huán)境影響評(píng)價(jià)的完整性和有效性、要求開(kāi)展替代方案對(duì)比分析以尋找最優(yōu)方案。在算法安全(影響)評(píng)估領(lǐng)域,部分利益相關(guān)方提出的制度設(shè)計(jì)方案即是以環(huán)境影響評(píng)估為藍(lán)本,較有代表性的例如紐約大學(xué)智庫(kù)AINow在2018年提出的公共部門算法影響評(píng)價(jià)框架,以及歐洲議會(huì)研究服務(wù)中心(EuropeanParliamentaryResearchService,EPRS)2019年研究報(bào)告提出的包含8個(gè)環(huán)節(jié)的算法影響評(píng)價(jià)方案。不過(guò)相關(guān)反思也指出,環(huán)境影響評(píng)估的冗繁要求,以及對(duì)廣泛公眾參與的強(qiáng)調(diào),并不一定適合人工智能算法治理領(lǐng)域,特別是完全的公開(kāi)可能侵害商業(yè)秘密并帶來(lái)更大衍生風(fēng)險(xiǎn)。數(shù)據(jù)保護(hù)影響評(píng)估(DataProtectionImpactAssessment,DPIA)的制度框架基本上源起于歐盟《一般通用數(shù)據(jù)規(guī)定》第35款。從流程要求來(lái)講,DPIA包括審查基本信息以判斷是否需要進(jìn)行數(shù)據(jù)保護(hù)影響評(píng)估、圍繞各目標(biāo)展開(kāi)影響評(píng)估以確定風(fēng)險(xiǎn)、向監(jiān)管者報(bào)告并分析降低風(fēng)險(xiǎn)的可能措施、在全過(guò)程咨詢利益相關(guān)方、復(fù)審以在必要時(shí)重啟影響評(píng)估等。與環(huán)境影響評(píng)估相比,DPIA的差別體現(xiàn)在兩點(diǎn):不特別強(qiáng)調(diào)替代方案的比較、公開(kāi)并非一項(xiàng)法律責(zé)任的要求而取決于數(shù)據(jù)處理者的決定。DPIA與環(huán)境影響評(píng)價(jià)的差別,事實(shí)上體現(xiàn)了其特殊的制度邏輯:考慮到數(shù)據(jù)治理的復(fù)雜性,DPIA更強(qiáng)調(diào)監(jiān)管者與被監(jiān)管者的合作而非對(duì)抗,數(shù)據(jù)處理者作為被監(jiān)管方的利益(例如商業(yè)秘密)因此需要得到承認(rèn)以激勵(lì)其尋找數(shù)據(jù)保護(hù)方案的積極性。但對(duì)DPIA的反思也正來(lái)源于此:在缺少充分公開(kāi)與監(jiān)督的環(huán)境下,“監(jiān)管俘獲”的擔(dān)憂是否會(huì)影響DPIA試圖構(gòu)建的監(jiān)管者與被監(jiān)管者“合作”愿景的實(shí)現(xiàn)?第三種模式是采取問(wèn)題列表清單的方式,而代表性實(shí)踐便是加拿大政府在20194月出臺(tái)施行的自動(dòng)決策指令(DirectiveonAutomatedDecision-making),其要求所有被用于行政決策領(lǐng)域的自動(dòng)決策系統(tǒng)都需要在采購(gòu)或使用前,按照問(wèn)題列表清單進(jìn)行算法影響評(píng)估,而該清單每?jī)赡甓紝⒈恢匦略u(píng)估并更新。具體而言,問(wèn)題列表共包含風(fēng)險(xiǎn)以及風(fēng)險(xiǎn)預(yù)防這兩個(gè)部分,形成了涉及商業(yè)流程、所用數(shù)據(jù)、模型邏輯等多個(gè)方面的80余個(gè)具體問(wèn)題,要求被評(píng)估主體對(duì)這些問(wèn)題作出回答,然后基于答案來(lái)對(duì)被評(píng)估系統(tǒng)的風(fēng)險(xiǎn)進(jìn)行評(píng)分,并按照評(píng)分將之相應(yīng)歸類到上述1-4個(gè)風(fēng)險(xiǎn)級(jí)別之中。該列表清單基本涵蓋了當(dāng)前算法影響評(píng)估利益相關(guān)方關(guān)心的主要問(wèn)題,而評(píng)估結(jié)果的公開(kāi)也進(jìn)一步促進(jìn)并提升了自動(dòng)化決策系統(tǒng)的可解釋性、可被監(jiān)督性,并因而提升了算法治理水平。但針對(duì)該模式的反思在于:列表清單能否涵蓋算法治理的所有問(wèn)題,以及預(yù)先設(shè)定好的問(wèn)題及答案是否可能會(huì)淡化治理經(jīng)驗(yàn)積累這一算法安全(影響)評(píng)估的制度目標(biāo)。上述各有優(yōu)點(diǎn)和不足的三種模式的對(duì)比分析說(shuō)明,算法安全(影響)評(píng)估制度建設(shè)還遠(yuǎn)未到成熟時(shí)期,在“基于標(biāo)準(zhǔn)的監(jiān)管與探索多方合作”、“保護(hù)商業(yè)秘密與公眾參與”、“監(jiān)管俘獲與透明”、“封閉列表與開(kāi)放治理”等多對(duì)治理關(guān)鍵點(diǎn)上,都需要決策者的權(quán)衡取舍,并最終找到適應(yīng)本國(guó)技術(shù)發(fā)展與應(yīng)用治理需要的平衡點(diǎn)。四、歐、美開(kāi)展人工智能算法安全評(píng)估的政策實(shí)踐不同國(guó)家出于差異化的制度文化背景、產(chǎn)業(yè)發(fā)展階段與治理需求,在算法影響評(píng)價(jià)的制度選擇方面仍然體現(xiàn)了一定的側(cè)重,并具有差異化特點(diǎn)。除上文提到加拿大采取的列表清單模式之外,歐盟、美國(guó)也在一定程度上形成了各具特色的算法安全評(píng)估制度。歐盟《人工智能法案》主要通過(guò)兩種方式引入了算法影響評(píng)估,并奠定了其在該法案中作為制度基礎(chǔ)的重要作用。一方面,法案要求高風(fēng)險(xiǎn)人工智能系統(tǒng)在投入使用前應(yīng)執(zhí)行“合規(guī)性評(píng)估(ConformityAssessments)”,即需要按照現(xiàn)行法律規(guī)則來(lái)評(píng)估該系統(tǒng)是否滿足各項(xiàng)法律要求,并將結(jié)果公開(kāi);另一方面,法案要求開(kāi)展基本權(quán)利影響評(píng)估(FundamentalRightsImpactAssessments,FRIA),較為寬泛地提出了9項(xiàng)評(píng)估內(nèi)容要求,且不要求完全公開(kāi)而主要向監(jiān)管機(jī)構(gòu)以及利益相關(guān)方匯報(bào)或分享。FRIA較有啟發(fā)意義的兩個(gè)特點(diǎn),其一在于將環(huán)境影響視為基本權(quán)利而納入評(píng)估范疇之中,這可被視為針對(duì)大模型快速發(fā)展的敏捷回應(yīng);其二在于提供了“例外豁免”條款,規(guī)定在應(yīng)急狀況或?qū)τ谥行∑髽I(yè)等缺少評(píng)估資源和能力情況下,可以在未展開(kāi)FRIA的前提下應(yīng)用人工智能。與歐盟相比,算法安全(影響)評(píng)估制度在美國(guó)人工智能治理框架下并沒(méi)有扮演特別重要的基礎(chǔ)性角色。美國(guó)當(dāng)前主要將人工智能治理置于垂直領(lǐng)域監(jiān)管框架之下,因而跨領(lǐng)域、一般性的算法算法安全(影響)評(píng)估制度建設(shè)并非其重點(diǎn)。但即使如此,兩個(gè)政策文件仍然值得重點(diǎn)關(guān)注。一方面,國(guó)家標(biāo)準(zhǔn)和技術(shù)研究所(NationalInstituteofStandardsandTechnology,NIST)提出的“人工智能風(fēng)險(xiǎn)管理框架”(AIRiskManagementFramework,AIRMF)可被視為專業(yè)機(jī)構(gòu)試圖影響行業(yè)實(shí)踐的重要工作,該框架同樣提出了風(fēng)險(xiǎn)評(píng)估的框架、流程乃至指標(biāo);另一方面,拜登政府聯(lián)邦管理與預(yù)算辦公室在2023年10月發(fā)布的“促進(jìn)聯(lián)邦機(jī)構(gòu)推動(dòng)人工智能治理、創(chuàng)新、風(fēng)險(xiǎn)管理的備忘錄”作為聯(lián)邦機(jī)構(gòu)應(yīng)用人工智能的治理框架,同樣明確了算法影響評(píng)估的關(guān)鍵地位,其區(qū)分了“安全影響”(SafetyImpacting)和“權(quán)益影響”(RightsImpacting)兩種類型,并基于這兩類區(qū)分而分別提出了不同程度的評(píng)估責(zé)任要求。五、《安全基本要求》要點(diǎn)特征評(píng)析及中國(guó)算法安全評(píng)估制度的未來(lái)改革在理解算法安全(影響)評(píng)估制度邏輯、模式及主要國(guó)家政策實(shí)踐的基礎(chǔ)上,再回過(guò)來(lái)分析《安全基本要求》的要點(diǎn)特征,以及更一般的我國(guó)算法安全(影響)評(píng)估制度建設(shè)的改革未來(lái),便可能具有更完整的觀察視野。從內(nèi)容上講,《安全基本要求》涵蓋語(yǔ)料、模型、場(chǎng)景等多個(gè)環(huán)節(jié)的治理思路,同樣反映了算法安全(影響)評(píng)估作為一種治理制度而與傳統(tǒng)規(guī)制思路的差異所在。在不同環(huán)節(jié)提出的具體治理要求,在模式上可以類比于加拿大列表清單模式,即基于預(yù)先設(shè)定的具體問(wèn)題或指標(biāo)要求來(lái)引導(dǎo)自評(píng)估或第三方評(píng)估工作。正如前文分析所指出,考慮到算法安全(影響)風(fēng)險(xiǎn)的不確定性及其產(chǎn)生機(jī)制的復(fù)雜性,類似于DPIA,算法安全(影響)評(píng)估同樣需要依賴包括監(jiān)管部門、一線企業(yè)或機(jī)構(gòu)、第三方機(jī)構(gòu)乃至公眾在內(nèi)的多方主體的監(jiān)管合作,而這其中又特別以一線企業(yè)或機(jī)構(gòu)的自評(píng)估或第三方評(píng)估為要,因它們所擁有的信息、資源優(yōu)勢(shì)能夠貢獻(xiàn)出有效的治理知識(shí)和經(jīng)驗(yàn);但另一方面,如果缺少一定的約束,完全放任的自評(píng)估或第三方評(píng)估也可能因?yàn)槿鄙俪浞忠龑?dǎo)而起不到積累治理經(jīng)驗(yàn)的積極作用,如果進(jìn)一步考慮到“共同無(wú)知”現(xiàn)象的存在則更是如此。在此背景下,以預(yù)先設(shè)定方式提出具體評(píng)估要求,便可被視為啟動(dòng)評(píng)估流程、推動(dòng)后續(xù)制度持續(xù)演化的一個(gè)重要基礎(chǔ),而這同樣應(yīng)被視為《安全基本要求》的積極作用所在。從未來(lái)改革來(lái)看,如果要充分發(fā)揮《安全基本要求》之于算法安全(影響)評(píng)估乃至于人工智能治理的潛在價(jià)值,后續(xù)的執(zhí)行以及配套措施的跟上,仍然是關(guān)鍵。一方面,監(jiān)管部門、一線主體、第三方機(jī)構(gòu)等多方主體對(duì)算法安全(影響)評(píng)估的制度邏輯,以及《安全基本要求》在該制度框架下所應(yīng)扮演的角色,需要清晰、整體且具有共識(shí)性的理解與把握。在一定程度上,《安全基本要求》不應(yīng)被視為對(duì)監(jiān)管部門以及被監(jiān)管主體套上的一個(gè)“硬筐”,其更多應(yīng)被視為多方主體通過(guò)算法安全(影響)評(píng)估而積累算法治理知識(shí)與經(jīng)驗(yàn)、在適當(dāng)時(shí)機(jī)對(duì)算法生產(chǎn)應(yīng)用流程做出干涉的起點(diǎn)。在此意義上,究竟如何應(yīng)用《安全基本要求》、發(fā)揮其推動(dòng)算法安全(影響)評(píng)估的積極作用,仍然是監(jiān)管部門需要考慮的重要工作。另一方面,繼《安全基本要求》之后,算法安全(影響)評(píng)估的配套制度可能需要加快演進(jìn),以減少制度不確定性空間。這既體現(xiàn)為我國(guó)算法安全(影響)評(píng)估制度頂層設(shè)計(jì)基本邏輯的討論與共識(shí),也體現(xiàn)為具體機(jī)制層面的豐富與拓展。就當(dāng)前進(jìn)程而言,我們還有諸多重要問(wèn)題尚待回答:“符合、不符合、不適用

溫馨提示

  • 1. 本站所有資源如無(wú)特殊說(shuō)明,都需要本地電腦安裝OFFICE2007和PDF閱讀器。圖紙軟件為CAD,CAXA,PROE,UG,SolidWorks等.壓縮文件請(qǐng)下載最新的WinRAR軟件解壓。
  • 2. 本站的文檔不包含任何第三方提供的附件圖紙等,如果需要附件,請(qǐng)聯(lián)系上傳者。文件的所有權(quán)益歸上傳用戶所有。
  • 3. 本站RAR壓縮包中若帶圖紙,網(wǎng)頁(yè)內(nèi)容里面會(huì)有圖紙預(yù)覽,若沒(méi)有圖紙預(yù)覽就沒(méi)有圖紙。
  • 4. 未經(jīng)權(quán)益所有人同意不得將文件中的內(nèi)容挪作商業(yè)或盈利用途。
  • 5. 人人文庫(kù)網(wǎng)僅提供信息存儲(chǔ)空間,僅對(duì)用戶上傳內(nèi)容的表現(xiàn)方式做保護(hù)處理,對(duì)用戶上傳分享的文檔內(nèi)容本身不做任何修改或編輯,并不能對(duì)任何下載內(nèi)容負(fù)責(zé)。
  • 6. 下載文件中如有侵權(quán)或不適當(dāng)內(nèi)容,請(qǐng)與我們聯(lián)系,我們立即糾正。
  • 7. 本站不保證下載資源的準(zhǔn)確性、安全性和完整性, 同時(shí)也不承擔(dān)用戶因使用這些下載資源對(duì)自己和他人造成任何形式的傷害或損失。

最新文檔

評(píng)論

0/150

提交評(píng)論