論文:人工智能治理的三個(gè)基本問(wèn)題_第1頁(yè)
論文:人工智能治理的三個(gè)基本問(wèn)題_第2頁(yè)
論文:人工智能治理的三個(gè)基本問(wèn)題_第3頁(yè)
已閱讀5頁(yè),還剩10頁(yè)未讀, 繼續(xù)免費(fèi)閱讀

下載本文檔

版權(quán)說(shuō)明:本文檔由用戶提供并上傳,收益歸屬內(nèi)容提供方,若內(nèi)容存在侵權(quán),請(qǐng)進(jìn)行舉報(bào)或認(rèn)領(lǐng)

文檔簡(jiǎn)介

【計(jì)算機(jī)論文】論文:人工智能治理的三個(gè)基本問(wèn)題

2017年7月,國(guó)務(wù)院印發(fā)《新一代人工智能發(fā)展規(guī)劃》,不僅對(duì)人工智能的發(fā)展做出了戰(zhàn)略性部署,還確立了“三步走”的政策目標(biāo),力爭(zhēng)到2030年將我國(guó)建設(shè)成為世界主要的人工智能創(chuàng)新中心。[1]值得注意的是,此次規(guī)劃不僅僅只是技術(shù)或產(chǎn)業(yè)發(fā)展規(guī)劃,還同時(shí)包括了社會(huì)建設(shè)、制度重構(gòu)、全球治理等方方面面的內(nèi)容。之所以如此,是由于人工智能技術(shù)本身具有通用性和基礎(chǔ)性。換句話說(shuō),為助推人工智能時(shí)代的崛起,我們面對(duì)的任務(wù)不是實(shí)現(xiàn)某一個(gè)專業(yè)領(lǐng)域或產(chǎn)業(yè)領(lǐng)域內(nèi)的顛覆性技術(shù)突破,而是大力推動(dòng)源于技術(shù)發(fā)展而引發(fā)的綜合性變革。也正因?yàn)槿绱?,人工智能發(fā)展進(jìn)程中所面臨的挑戰(zhàn)才不僅僅局限于技術(shù)或產(chǎn)業(yè)領(lǐng)域,而更多體現(xiàn)在經(jīng)濟(jì)、社會(huì)、政治領(lǐng)域的公共政策選擇上。首先,普遍建立在科層制基礎(chǔ)上的公共事務(wù)治理結(jié)構(gòu),是否能夠適應(yīng)技術(shù)發(fā)展和應(yīng)用過(guò)程中所大規(guī)模激發(fā)的不確定性和不可預(yù)知性?再者,長(zhǎng)久以來(lái)圍繞人類行為的規(guī)制制度,是否同樣能夠適應(yīng)以數(shù)據(jù)、算法為主體的應(yīng)用環(huán)境?最后,如何構(gòu)建新的治理體系和治理工具來(lái)應(yīng)對(duì)伴隨人工智能發(fā)展而興起的新的經(jīng)濟(jì)、社會(huì)、政治問(wèn)題?應(yīng)對(duì)上述挑戰(zhàn)并不完全取決于技術(shù)發(fā)展或商業(yè)創(chuàng)新本身,而更多依賴于我們的公共政策選擇。本文試圖在分析人工智能發(fā)展邏輯及其所引發(fā)的風(fēng)險(xiǎn)挑戰(zhàn)的基礎(chǔ)上,對(duì)人工智能時(shí)代的公共政策選擇做出分析,并討論未來(lái)改革的可能路徑,這也就構(gòu)成了人工智能治理的三個(gè)基本問(wèn)題。具體而言,人工智能本身成為治理對(duì)象,其發(fā)展與應(yīng)用構(gòu)成了治理挑戰(zhàn),而在此基礎(chǔ)上如何做出公共政策選擇便是未來(lái)治理變革的方向。全文共分為四個(gè)部分:第一部分將探討人工智能的概念及特征,并進(jìn)而對(duì)其發(fā)展邏輯進(jìn)行闡述。作為一項(xiàng)顛覆性技術(shù)創(chuàng)新,其本身的技術(shù)門檻對(duì)決策者而言構(gòu)成了挑戰(zhàn),梳理并捋清人工智能的本質(zhì)內(nèi)涵因而成為制定相關(guān)公共政策的前提;第二部分將著重分析人工智能時(shí)代崛起所帶來(lái)的治理挑戰(zhàn),主要包括三個(gè)方面,即傳統(tǒng)科層治理結(jié)構(gòu)應(yīng)對(duì)人工智能新的生產(chǎn)模式的滯后性、建基于行為因果關(guān)系之上的傳統(tǒng)治理邏輯應(yīng)對(duì)人工智能新主體的不適用性,以及人工智能發(fā)展所引發(fā)的新議題的治理空白;面對(duì)上述挑戰(zhàn),各國(guó)都出臺(tái)了相關(guān)政策,本文第三部分對(duì)此進(jìn)行了綜述性對(duì)比分析,并指出了其進(jìn)步意義所在。需要指出的是,盡管各國(guó)的政策目標(biāo)都試圖追求人工智能發(fā)展與監(jiān)管的二維平衡,但由于缺乏對(duì)人工智能內(nèi)涵及其發(fā)展邏輯的完整認(rèn)識(shí),當(dāng)前的公共政策選擇有失綜合性;本文第四部分將提出新的治理思路以及公共政策選擇的其他可能路徑,以推動(dòng)圍繞人工智能治理的相關(guān)公共政策議題的深入討論。一、人工智能的概念及技術(shù)發(fā)展邏輯:算法與數(shù)據(jù)伴隨著人工智能技術(shù)的快速發(fā)展,尤其是其近年來(lái)在棋類對(duì)弈、自動(dòng)駕駛、人臉識(shí)別等領(lǐng)域的廣泛應(yīng)用,圍繞人工智能所可能引發(fā)的社會(huì)變革產(chǎn)生了激烈爭(zhēng)論。在一方面,以霍金[2]、馬斯克[3]、比爾-蓋茨[4]、赫拉利[5]為代表的諸多人士呼吁加強(qiáng)監(jiān)管,警惕“人工智能成為人類文明史的終結(jié)”;在另一方面,包括奧巴馬[6]在內(nèi)的政治家、學(xué)者又認(rèn)為應(yīng)該放松監(jiān)管,充分釋放人工智能的技術(shù)潛力以造福社會(huì)。未來(lái)發(fā)展的不確定性固然是引發(fā)當(dāng)前爭(zhēng)論的重要原因之一,但圍繞“人工智能”概念內(nèi)涵理解的不同,以及對(duì)其發(fā)展邏輯認(rèn)識(shí)的不清晰,可能也同樣嚴(yán)重地加劇了人們的分歧。正因?yàn)榇?,廓清人工智能的概念?nèi)涵和發(fā)展邏輯不僅是回應(yīng)爭(zhēng)論的需要,也是進(jìn)一步提出公共政策建議的前提。就相關(guān)研究領(lǐng)域而言,人們對(duì)于“人工智能”這一概念的定義并未形成普遍共識(shí)。計(jì)算機(jī)領(lǐng)域的先驅(qū)阿蘭-圖靈曾在《計(jì)算機(jī)器與智能》一文中提出,重要的不是機(jī)器模仿人類思維過(guò)程的能力,而是機(jī)器重復(fù)人類思維外在表現(xiàn)行為的能力。[7]正是由此理解出發(fā),著名的“圖靈測(cè)試”方案被提出。但如同斯坦福大學(xué)計(jì)算機(jī)系教授約翰·麥卡錫所指出的,“圖靈測(cè)試”僅僅只是“人工智能”概念的一部分,不模仿人類但同時(shí)也能完成相關(guān)行為的機(jī)器同樣應(yīng)被視為“智能”的。[8]事實(shí)上,約翰·麥卡錫正是現(xiàn)代人工智能概念的提出者。在他看來(lái),“智能”關(guān)乎完成某種目標(biāo)的行為“機(jī)制”,而機(jī)器既可以通過(guò)模仿人來(lái)實(shí)現(xiàn)行為機(jī)制,也可以自由地使用任何辦法來(lái)創(chuàng)造行為機(jī)制。[9]由此,我們便得到了人工智能領(lǐng)域另一個(gè)非常重要的概念——“機(jī)器學(xué)習(xí)”。人工智能研究的目標(biāo)是使機(jī)器達(dá)到人類級(jí)別的智能能力,而其中最重要的便是學(xué)習(xí)能力。[10]因此,盡管“機(jī)器學(xué)習(xí)”是“人工智能”的子域,但很多時(shí)候我們都將這兩個(gè)概念等同起來(lái)。[11]就實(shí)現(xiàn)過(guò)程而言,機(jī)器學(xué)習(xí)是指利用某些算法指導(dǎo)計(jì)算機(jī)利用已知數(shù)據(jù)得出適當(dāng)模型,并利用此模型對(duì)新的情境給出判斷,從而完成行為機(jī)制的過(guò)程。此處需要強(qiáng)調(diào)一下機(jī)器學(xué)習(xí)算法與傳統(tǒng)算法的差異。算法本質(zhì)上就是一系列指令,告訴計(jì)算機(jī)該做什么。對(duì)于傳統(tǒng)算法而言,其往往事無(wú)巨細(xì)地規(guī)定好了機(jī)器在既定條件下的既定動(dòng)作;機(jī)器學(xué)習(xí)算法卻是通過(guò)對(duì)已有數(shù)據(jù)的“學(xué)習(xí)”,使機(jī)器能夠在與歷史數(shù)據(jù)不同的新情境下做出判斷。以機(jī)器人行走的實(shí)現(xiàn)為例,傳統(tǒng)算法下,程序員要仔細(xì)規(guī)定好機(jī)器人在既定環(huán)境下每一個(gè)動(dòng)作的實(shí)現(xiàn)流程;而機(jī)器學(xué)習(xí)算法下,程序員要做的則是使計(jì)算機(jī)分析并模擬人類的行走動(dòng)作,以使其即使在完全陌生的環(huán)境中也能實(shí)現(xiàn)行走。由此,我們可以對(duì)“人工智能”設(shè)定一個(gè)“工作定義”以方便進(jìn)一步的討論:人工智能是建立在現(xiàn)代算法基礎(chǔ)上,以歷史數(shù)據(jù)為支撐,而形成的具有感知、推理、學(xué)習(xí)、決策等思維活動(dòng)并能夠按照一定目標(biāo)完成相應(yīng)行為的計(jì)算系統(tǒng)。這一概念盡管可能仍不完善,但它突出了人工智能技術(shù)發(fā)展和應(yīng)用的兩大基石——算法與數(shù)據(jù),有助于討論人工智能的治理問(wèn)題。首先,算法即是規(guī)則,它不僅確立了機(jī)器所試圖實(shí)現(xiàn)的目標(biāo),同時(shí)也指出了實(shí)現(xiàn)目標(biāo)的路徑與方法。就人工智能當(dāng)前的技術(shù)發(fā)展史而言,算法主要可被劃分為五個(gè)類別:符號(hào)學(xué)派、聯(lián)接學(xué)派、進(jìn)化學(xué)派、類推學(xué)派和貝葉斯學(xué)派。[12]每個(gè)學(xué)派都遵循不同的邏輯、以不同的理念實(shí)現(xiàn)了人工智能(也即“機(jī)器學(xué)習(xí)”)的過(guò)程。舉例而言,“符號(hào)學(xué)派”將所有的信息處理簡(jiǎn)化為對(duì)符號(hào)的操縱,由此學(xué)習(xí)過(guò)程被簡(jiǎn)化(抽象)為基于數(shù)據(jù)和假設(shè)的規(guī)則歸納過(guò)程。在數(shù)據(jù)(即歷史事實(shí))和已有知識(shí)(即預(yù)先設(shè)定的條件)的基礎(chǔ)上,符號(hào)學(xué)派通過(guò)“提出假設(shè)-數(shù)據(jù)驗(yàn)證-進(jìn)一步提出新假設(shè)-歸納新規(guī)則”的過(guò)程來(lái)訓(xùn)練機(jī)器的學(xué)習(xí)能力,并由此實(shí)現(xiàn)在新環(huán)境下的決策判斷。從對(duì)“符號(hào)學(xué)派”的描述中可以發(fā)現(xiàn),機(jī)器學(xué)習(xí)模型成功的關(guān)鍵不僅是算法,還有數(shù)據(jù)。數(shù)據(jù)的缺失和預(yù)設(shè)條件的不合理將直接影響機(jī)器學(xué)習(xí)的輸出(就符號(hào)學(xué)派而言,即決策規(guī)則的歸納)。最明顯體現(xiàn)這一問(wèn)題的例子便是羅素的“歸納主義者火雞”問(wèn)題:火雞在觀察10天(數(shù)據(jù)集不完整)之后得出結(jié)論(代表預(yù)設(shè)條件不合理,超過(guò)10個(gè)確認(rèn)數(shù)據(jù)即接受規(guī)則),主人會(huì)在每天早上9點(diǎn)給它喂食;但接下來(lái)是平安夜的早餐,主人沒(méi)有喂它而是宰了它。所有算法類型盡管理念不同,但模型成功的關(guān)鍵都聚焦于“算法”和“數(shù)據(jù)”。事實(shí)上,如果跳出具體學(xué)派的思維束縛,每種機(jī)器學(xué)習(xí)算法都可被概括為“表示方法、評(píng)估、優(yōu)化”這三個(gè)部分。[13]盡管機(jī)器可以不斷的自我優(yōu)化以提升學(xué)習(xí)能力,且原則上可以學(xué)習(xí)任何東西,但評(píng)估的方法和原則(算法)以及用以評(píng)估的數(shù)據(jù)(數(shù)據(jù))都是人為決定的——而這也正是人工智能治理的關(guān)鍵所在。算法與數(shù)據(jù)不僅是人工智能發(fā)展邏輯的基石,其同樣是治理的對(duì)象和關(guān)鍵。總而言之,圍繞“人工智能是否會(huì)取代人類”的爭(zhēng)論事實(shí)上并無(wú)太大意義,更重要的反而是在廓清人工智能的內(nèi)涵并理解其發(fā)展邏輯之后,回答“治理什么”和“如何治理”的問(wèn)題。就此而言,明確治理對(duì)象為算法和數(shù)據(jù)無(wú)疑是重要的一步。但接下來(lái)的重要問(wèn)題仍然在于,人工智能時(shí)代的崛起所帶來(lái)的治理挑戰(zhàn)究竟是什么?當(dāng)前的制度設(shè)計(jì)是否能夠?qū)ζ渥龀鲇行?yīng)對(duì)?如果答案是否定的,我們又該如何重構(gòu)治理體系以迎接人工智能時(shí)代的崛起?本文余下部分將對(duì)此做進(jìn)一步的闡述。二、人工智能時(shí)代崛起的治理挑戰(zhàn)不同于其他顛覆性技術(shù),人工智能的發(fā)展并不局限于某一特定產(chǎn)業(yè),而是能夠支撐所有產(chǎn)業(yè)變革的通用型技術(shù)。也正因?yàn)榇?,其具有廣泛的社會(huì)溢出效應(yīng),在政治、經(jīng)濟(jì)、社會(huì)等各個(gè)領(lǐng)域都會(huì)帶來(lái)深刻變革,并將同時(shí)引發(fā)治理方面的挑戰(zhàn)。具體而言,挑戰(zhàn)主要體現(xiàn)在以下三個(gè)方面。首先,治理結(jié)構(gòu)的僵化性,即傳統(tǒng)的科層制治理結(jié)構(gòu)可能難以應(yīng)對(duì)人工智能快速發(fā)展而形成的開(kāi)放性和不確定性。之所以需要對(duì)人工智能加以監(jiān)管,原因在于其可能成為公共危險(xiǎn)的源頭,例如當(dāng)自動(dòng)駕駛技術(shù)普及之后,一旦出現(xiàn)問(wèn)題,便可能導(dǎo)致大規(guī)模的連續(xù)性傷害。但不同于飛機(jī)、大型水壩、原子核科技等二十世紀(jì)的公共危險(xiǎn)源,人工智能的發(fā)展具有極強(qiáng)的開(kāi)放性,任何一個(gè)程序員或公司都可以毫無(wú)門檻的進(jìn)行人工智能程序的開(kāi)發(fā)與應(yīng)用。這一方面是由于互聯(lián)網(wǎng)時(shí)代的到來(lái),使得基于代碼的生產(chǎn)門檻被大大降低[14];另一方面,這也是人工智能本身發(fā)展規(guī)律的需要。正如前文所提到,唯有大規(guī)模的數(shù)據(jù)輸入才可能得到較好的機(jī)器學(xué)習(xí)結(jié)果,因此將人工智能的平臺(tái)(也即算法)以開(kāi)源形式公開(kāi)出來(lái),以使更多的人在不同場(chǎng)景之下加以利用并由此吸收更多、更完備的數(shù)據(jù)以完善算法本身,就成為了大多數(shù)人工智能公司的必然選擇。與此同時(shí),人工智能生產(chǎn)模式的開(kāi)放性也必然帶來(lái)發(fā)展的不確定性,在缺乏有效約束或引導(dǎo)的情況下,人工智能的發(fā)展很可能走向歧途。面對(duì)這一新形勢(shì),傳統(tǒng)的、基于科層制的治理結(jié)構(gòu)顯然難以做出有效應(yīng)對(duì)。一方面,政府試圖全范圍覆蓋的事前監(jiān)管已經(jīng)成為不可能,開(kāi)放的人工智能生產(chǎn)網(wǎng)絡(luò)使得監(jiān)管機(jī)構(gòu)幾乎找不到監(jiān)管對(duì)象;另一方面,由上至下的權(quán)威結(jié)構(gòu)既不能傳遞給生產(chǎn)者,信息不對(duì)稱問(wèn)題的加劇還可能導(dǎo)致監(jiān)管行為走向反面。調(diào)整治理結(jié)構(gòu)與治理邏輯,并形成適應(yīng)具有開(kāi)放性、不確定性特征的人工智能生產(chǎn)模式,是當(dāng)前面臨的治理挑戰(zhàn)之一。再者,治理方法的滯后性,即長(zhǎng)久以來(lái)建立在人類行為因果關(guān)系基礎(chǔ)上的法律規(guī)制體系,可能難以適用于以算法、數(shù)據(jù)為主體的應(yīng)用環(huán)境。人工智能的價(jià)值并不在于模仿人類行為,而是其具備自主的學(xué)習(xí)和決策能力;正因?yàn)槿绱耍斯ぶ悄芗夹g(shù)才不能簡(jiǎn)單地理解為其創(chuàng)造者(即人)意志的表達(dá)。程序員給出的只是學(xué)習(xí)規(guī)則,但真正做出決策的是基于大規(guī)模數(shù)據(jù)訓(xùn)練后的算法本身,而這一結(jié)果與程序員的意志并無(wú)直接因果關(guān)聯(lián)。事實(shí)上也正由于這個(gè)特點(diǎn),AlphaGo才可能連續(xù)擊敗圍棋冠軍,而其設(shè)計(jì)者卻并非圍棋頂尖大師。也正是在這個(gè)意義上,我們才回到了??滤缘摹凹夹g(shù)的主體性”概念。在他看來(lái),“技術(shù)并不僅僅是工具,或者不僅僅是達(dá)到目的的手段;相反,其是政治行動(dòng)者,手段與目的密不可分”。[15]就此而言,長(zhǎng)久以來(lái)通過(guò)探究行為與后果之因果關(guān)系來(lái)規(guī)范人的行為的法律規(guī)制體系,便可能遭遇窘境:如果將人工智能所造成的侵權(quán)行為歸咎于其設(shè)計(jì)者,無(wú)疑不具有說(shuō)服力;但如果要?dú)w咎于人工智能本身,我們又該如何問(wèn)責(zé)一個(gè)機(jī)器呢?由此,如何應(yīng)對(duì)以算法、數(shù)據(jù)為核心的技術(shù)主體所帶來(lái)的公共責(zé)任分配問(wèn)題,是當(dāng)前面臨的第二個(gè)治理挑戰(zhàn)。最后,治理范圍的狹隘性,即對(duì)于受人工智能發(fā)展沖擊而引發(fā)的新的社會(huì)議題,需要構(gòu)建新的治理體系和發(fā)展新的治理工具。人工智能發(fā)展所引發(fā)的治理挑戰(zhàn)不僅僅體現(xiàn)在現(xiàn)有體系的不適應(yīng)上,同時(shí)還有新議題所面臨的治理空白問(wèn)題。具體而言,這又主要包括以下議題:算法是否能夠享有言論自由的憲法保護(hù),數(shù)據(jù)的權(quán)屬關(guān)系究竟如何界定,如何緩解人工智能所可能加劇的不平等現(xiàn)象,以及如何平衡人工智能的發(fā)展與失業(yè)問(wèn)題。在人工智能時(shí)代之前,上述問(wèn)題并不存在,或者說(shuō)并不突出;但伴隨著人工智能的快速發(fā)展和應(yīng)用普及,它們的重要性便日漸顯著。以最為人所關(guān)注的失業(yè)問(wèn)題為例,就技術(shù)可能性來(lái)說(shuō),人工智能和機(jī)器人的廣泛應(yīng)用代替人工勞動(dòng),已是一個(gè)不可否定的事實(shí)了。無(wú)論是新聞?dòng)浾?,還是股市分析員,甚至是法律工作者,其都有可能為機(jī)器所取代。在一個(gè)“充分自動(dòng)化(FullAutomation)”的世界中,如何重新認(rèn)識(shí)勞動(dòng)與福利保障的關(guān)系、重構(gòu)勞動(dòng)和福利保障制度,便成為最迫切需要解決的治理挑戰(zhàn)之一。[16]上述三方面共同構(gòu)成了人工智能時(shí)代崛起所帶來(lái)的治理挑戰(zhàn)。面對(duì)這些挑戰(zhàn),各國(guó)也做出了相應(yīng)的公共政策選擇。本文第三部分將對(duì)各國(guó)人工智能的治理政策進(jìn)行對(duì)比性分析。在此基礎(chǔ)上,第四部分將提出本文的政策建議。三、各國(guó)人工智能治理政策及監(jiān)管路徑綜述人工智能時(shí)代的崛起作為一種普遍現(xiàn)象,其所引發(fā)的治理挑戰(zhàn)是各國(guó)面臨的共同問(wèn)題,各國(guó)也陸續(xù)出臺(tái)了相關(guān)公共政策以試圖推動(dòng)并規(guī)范人工智能的快速發(fā)展。美國(guó)于2016年同時(shí)頒布了《國(guó)家人工智能研究與發(fā)展戰(zhàn)略規(guī)劃》和《為人工智能的未來(lái)做好準(zhǔn)備》兩個(gè)國(guó)家級(jí)政策框架,前者側(cè)重從技術(shù)角度指出美國(guó)人工智能戰(zhàn)略的目的、愿景和重點(diǎn)方向,而后者則更多從治理角度探討政府在促進(jìn)創(chuàng)新、保障公共安全方面所應(yīng)扮演的角色和作用。就具體的監(jiān)管政策而言,《為人工智能的未來(lái)做好準(zhǔn)備》提出了一般性的應(yīng)對(duì)方法,強(qiáng)調(diào)基于風(fēng)險(xiǎn)評(píng)估和成本-收益考量的原則以決定是否對(duì)人工智能技術(shù)的研發(fā)與應(yīng)用施以監(jiān)管負(fù)擔(dān)。[17]日本同樣于2016年出臺(tái)了《第五期(2016~2020年度)科學(xué)技術(shù)基本計(jì)劃》,提出了“超智能社會(huì)5.0”的概念,強(qiáng)調(diào)通過(guò)推動(dòng)數(shù)據(jù)標(biāo)準(zhǔn)化、建設(shè)社會(huì)服務(wù)平臺(tái)、協(xié)調(diào)發(fā)展多領(lǐng)域智能系統(tǒng)等各方面工作促進(jìn)人工智能的發(fā)展和應(yīng)用。[18]盡管美國(guó)和日本的政策著力點(diǎn)不同,但其共有的特點(diǎn)是對(duì)人工智能的發(fā)展及其所引發(fā)的挑戰(zhàn)持普遍的包容與開(kāi)放態(tài)度。就當(dāng)前的政策框架而言,美日兩國(guó)的政策目標(biāo)更傾斜于推動(dòng)技術(shù)創(chuàng)新、保持其國(guó)家競(jìng)爭(zhēng)力的優(yōu)勢(shì)地位;當(dāng)涉及對(duì)人工智能所可能引發(fā)的公共問(wèn)題施以監(jiān)管時(shí),其政策選擇也更傾向于遵循“無(wú)需批準(zhǔn)式(permissionless)”的監(jiān)管邏輯,即強(qiáng)調(diào)除非有充分案例證明其危害性,新技術(shù)和新商業(yè)模式默認(rèn)為都是被允許的。[19]至于人工智能的發(fā)展對(duì)個(gè)人數(shù)據(jù)隱私、社會(huì)公共安全的潛在威脅,盡管兩國(guó)的政策框架都有所涉及,卻并非其政策重心——相比之下,英國(guó)、法國(guó)則采取了不同的政策路徑。英國(guó)政府2016年發(fā)布了《人工智能:未來(lái)決策制定的機(jī)遇與影響》,對(duì)人工智能的變革性影響以及如何利用人工智能做出了闡述與規(guī)劃,尤其關(guān)注到了人工智能發(fā)展所帶來(lái)的法律和倫理風(fēng)險(xiǎn)。在該報(bào)告中,英國(guó)政府強(qiáng)調(diào)了機(jī)器學(xué)習(xí)與個(gè)人數(shù)據(jù)相結(jié)合而對(duì)個(gè)人自由及隱私等基本權(quán)利所帶來(lái)的影響,明確了對(duì)使用人工智能所制定出的決策采用問(wèn)責(zé)的概念和機(jī)制,并同時(shí)在算法透明度、算法一致性、風(fēng)險(xiǎn)分配等具體政策方面做出了規(guī)定。[20]與英國(guó)類似,法國(guó)在2017年發(fā)布的《人工智能戰(zhàn)略》中延續(xù)了其在2006年通過(guò)的《信息社會(huì)法案》的立法精神,同樣強(qiáng)調(diào)加強(qiáng)對(duì)新技術(shù)的“共同調(diào)控”,以在享有技術(shù)發(fā)展所帶來(lái)的福利改進(jìn)的同時(shí),充分保護(hù)個(gè)人權(quán)利和公共利益。[21]與美日相比,英法的公共政策更偏向于“審慎監(jiān)管(precautionary)”的政策邏輯,即強(qiáng)調(diào)新技術(shù)或新的商業(yè)模式只有在開(kāi)發(fā)者證明其無(wú)害的前提下才被允許使用。[22]在本文看來(lái),無(wú)論是“無(wú)需批準(zhǔn)式監(jiān)管”還是“審慎監(jiān)管”,在應(yīng)對(duì)人工智能時(shí)代崛起所帶來(lái)的治理挑戰(zhàn)方面都有其可取之處:前者側(cè)重于推動(dòng)創(chuàng)新,而后者則因重視安全而更顯穩(wěn)健。但需要指出的是,這兩種監(jiān)管路徑的不足卻也十分明顯。正如前文第二部分所指出,一方面,快速迭代的技術(shù)發(fā)展與商業(yè)模式創(chuàng)新必將引發(fā)新的社會(huì)議題,無(wú)論是算法是否受到言論自由的權(quán)利保護(hù)還是普遍失業(yè)對(duì)社會(huì)形成的挑戰(zhàn),它們都在客觀上要求公共政策做出應(yīng)對(duì),而非片面的“無(wú)需批準(zhǔn)式監(jiān)管”能夠處理。更重要的是,“無(wú)需批準(zhǔn)式監(jiān)管”的潛在假設(shè)是事后監(jiān)管的有效性;然而,在事實(shí)上,正如2010年5月6日美國(guó)道瓊斯工業(yè)指數(shù)“瞬間崩盤(pán)”事件所揭示的,即使單個(gè)電子交易程序合規(guī)運(yùn)行,當(dāng)各個(gè)系統(tǒng)行為聚合在一起時(shí)反而卻造成了更大的危機(jī)。[23]在此種情形下,依賴于合規(guī)性判斷的“事后監(jiān)管”基本上難以有效實(shí)施。另一方面,人工智能本身的自主性和主體性使得建立在人類行為因果關(guān)系基礎(chǔ)上的“審慎監(jiān)管”邏輯存在天然缺陷:既然人類無(wú)法預(yù)知人工智能系統(tǒng)可能的行為或決策,開(kāi)發(fā)者又如何證明人工智能系統(tǒng)的無(wú)害性?正如本文所反復(fù)強(qiáng)調(diào)的,人工智能與其他革命性技術(shù)的不同之處,正是在于其所帶來(lái)的社會(huì)沖擊的綜合性和基礎(chǔ)性。人工智能并非單個(gè)領(lǐng)域、單個(gè)產(chǎn)業(yè)的技術(shù)突破,而是對(duì)于社會(huì)運(yùn)行狀態(tài)的根本性變革;人工智能時(shí)代的崛起也并非一夜之功,而是建立在計(jì)算機(jī)革命、互聯(lián)網(wǎng)革命直至數(shù)字革命基礎(chǔ)上的“奇點(diǎn)”變革。因此,面對(duì)人工智能時(shí)代崛起所帶來(lái)的治理挑戰(zhàn),我們同樣應(yīng)該制定綜合性的公共政策框架,而非僅僅沿襲傳統(tǒng)治理邏輯,例如只是針對(duì)具體議題在“創(chuàng)新”與“安全”這個(gè)二元維度下進(jìn)行艱難選擇。本文在第四部分從承認(rèn)技術(shù)的主體性、重構(gòu)社會(huì)治理制度、推進(jìn)人工智能全球治理這三方面提出了政策建議,并希望以此推動(dòng)更深入地圍繞人工智能時(shí)代公共政策選擇的研究與討論。四、人工智能時(shí)代的公共政策選擇《新一代人工智能發(fā)展規(guī)劃》明確提出了到2030年我國(guó)人工智能發(fā)展的“三步走”目標(biāo),而在每一個(gè)階段,人工智能法律法規(guī)、倫理規(guī)范和政策體系的逐步建立與完善都是必不可少的重要內(nèi)容。面對(duì)人工智能時(shí)代崛起的治理挑戰(zhàn),究竟應(yīng)該如何重構(gòu)治理體系、創(chuàng)新治理機(jī)制、發(fā)展治理工具,是擺在決策者面前的重要難題。本文基于對(duì)人工智能基本概念和發(fā)展邏輯的梳理分析,結(jié)合各國(guó)已有政策的對(duì)比分析,提出以下三方面的改革思路,以為人工智能時(shí)代的公共選擇提供參考。第一,人工智能發(fā)展的基石是算法與數(shù)據(jù),建立并完善圍繞算法和數(shù)據(jù)的治理體系與治理機(jī)制,是人工智能時(shí)代公共政策選擇的首要命題,也是應(yīng)對(duì)治理挑戰(zhàn)、賦予算法和數(shù)據(jù)以主體性的必然要求。(1)就算法治理而言,涉及的核心議題是算法的制定權(quán)及相應(yīng)的監(jiān)督程序問(wèn)題。算法作為人工智能時(shí)代的主要規(guī)則,究竟誰(shuí)有權(quán)并通過(guò)何種程序來(lái)加以制定,誰(shuí)來(lái)對(duì)其進(jìn)行監(jiān)督且又如何監(jiān)督?長(zhǎng)久以來(lái)公眾針對(duì)社交媒體臉書(shū)(Facebook)的質(zhì)疑正體現(xiàn)了這一問(wèn)題的重要性:公眾如何相信臉書(shū)向用戶自動(dòng)推薦的新聞內(nèi)容不會(huì)摻雜特殊利益的取向?[24]當(dāng)越來(lái)越多的人依賴定制化的新聞推送時(shí),人工智能甚至?xí)绊懙娇偨y(tǒng)選舉。也正因?yàn)榇?,包括透明要求、開(kāi)源要求在內(nèi)的諸多治理原則,應(yīng)當(dāng)被納入到算法治理相關(guān)議題的考慮之中。(2)就數(shù)據(jù)治理而言,伴隨著人工智能越來(lái)越多地依賴于大規(guī)模數(shù)據(jù)的收集與利用,個(gè)人隱私的保護(hù)、數(shù)據(jù)價(jià)值的分配、數(shù)據(jù)安全等相關(guān)議題也必將成為公共政策的焦點(diǎn)。如何平衡不同價(jià)值需求、規(guī)范數(shù)據(jù)的分享與應(yīng)用,也同樣成為人工智能時(shí)代公共政策選擇的另一重要抓手。第二,創(chuàng)新社會(huì)治理制度,進(jìn)一步完善社會(huì)保障體系,在最大程度上緩解人工智能發(fā)展所可能帶來(lái)的不確定性沖擊。與歷史上的技術(shù)革命類似,人工智能的發(fā)展同樣會(huì)導(dǎo)致利益的分化與重構(gòu),而如何保證技術(shù)革命成本的承受者得到最大限度的彌補(bǔ)并使所有人都享有技術(shù)發(fā)展的“獲得感”,不僅是社會(huì)發(fā)展公平、正義的必然要求,也是促進(jìn)技術(shù)革命更快完成的催化劑。就此而言,在人工智能相關(guān)公共政策的考量中,我們不僅應(yīng)該關(guān)注產(chǎn)業(yè)和經(jīng)濟(jì)政策,同時(shí)也應(yīng)該關(guān)注社會(huì)政策,因?yàn)橹挥泻笳叩耐晟撇拍軌蚩刂乒と嘶蚱髽I(yè)家所承擔(dān)的風(fēng)險(xiǎn),并幫助他們判斷是否支持或抵制變革的發(fā)生。就具體的政策設(shè)計(jì)來(lái)說(shuō),為緩解人工智能所可能帶來(lái)的失業(yè)潮,基本收入制度的普遍建立可能應(yīng)該被提上討論議程了?!盎臼杖搿笔侵刚喂餐w(如國(guó)家)向所有成員不加任何限制條件地支付一定數(shù)額的收入,以滿足其基本生活的需求。盡管存在“養(yǎng)懶漢”的質(zhì)疑,但有研究者已指出,自18世紀(jì)就開(kāi)始構(gòu)想的基本收入制度很有可能反過(guò)來(lái)促進(jìn)就業(yè)。[25]芬蘭政府已經(jīng)于2017年初開(kāi)始了相關(guān)實(shí)驗(yàn),美國(guó)的一些州、瑞士也做出了一定探索。在人工智能時(shí)代尚未完全展現(xiàn)其“猙容”之前,創(chuàng)新社會(huì)治理機(jī)制、完善社會(huì)保障體系,可能是平衡技術(shù)創(chuàng)新與社會(huì)風(fēng)險(xiǎn)的最佳路徑。第三,構(gòu)建人工智能全球治理機(jī)制,以多種形式促進(jìn)人工智能重大國(guó)際共性問(wèn)題的解決,共同應(yīng)對(duì)開(kāi)放性人工智能生產(chǎn)模式的全球性挑戰(zhàn)。人工智能的發(fā)展具有開(kāi)放性和不確定性的特征,生產(chǎn)門檻的降低使得人工智能技術(shù)研發(fā)的跨國(guó)流動(dòng)性很強(qiáng),相關(guān)標(biāo)準(zhǔn)的制定、開(kāi)放平臺(tái)的搭建、共享合作框架的形成,無(wú)不要求構(gòu)

溫馨提示

  • 1. 本站所有資源如無(wú)特殊說(shuō)明,都需要本地電腦安裝OFFICE2007和PDF閱讀器。圖紙軟件為CAD,CAXA,PROE,UG,SolidWorks等.壓縮文件請(qǐng)下載最新的WinRAR軟件解壓。
  • 2. 本站的文檔不包含任何第三方提供的附件圖紙等,如果需要附件,請(qǐng)聯(lián)系上傳者。文件的所有權(quán)益歸上傳用戶所有。
  • 3. 本站RAR壓縮包中若帶圖紙,網(wǎng)頁(yè)內(nèi)容里面會(huì)有圖紙預(yù)覽,若沒(méi)有圖紙預(yù)覽就沒(méi)有圖紙。
  • 4. 未經(jīng)權(quán)益所有人同意不得將文件中的內(nèi)容挪作商業(yè)或盈利用途。
  • 5. 人人文庫(kù)網(wǎng)僅提供信息存儲(chǔ)空間,僅對(duì)用戶上傳內(nèi)容的表現(xiàn)方式做保護(hù)處理,對(duì)用戶上傳分享的文檔內(nèi)容本身不做任何修改或編輯,并不能對(duì)任何下載內(nèi)容負(fù)責(zé)。
  • 6. 下載文件中如有侵權(quán)或不適當(dāng)內(nèi)容,請(qǐng)與我們聯(lián)系,我們立即糾正。
  • 7. 本站不保證下載資源的準(zhǔn)確性、安全性和完整性, 同時(shí)也不承擔(dān)用戶因使用這些下載資源對(duì)自己和他人造成任何形式的傷害或損失。

評(píng)論

0/150

提交評(píng)論