可信任:人工智能倫理未來圖景的一種有效描繪_第1頁
可信任:人工智能倫理未來圖景的一種有效描繪_第2頁
可信任:人工智能倫理未來圖景的一種有效描繪_第3頁
可信任:人工智能倫理未來圖景的一種有效描繪_第4頁
可信任:人工智能倫理未來圖景的一種有效描繪_第5頁
已閱讀5頁,還剩10頁未讀, 繼續(xù)免費閱讀

下載本文檔

版權(quán)說明:本文檔由用戶提供并上傳,收益歸屬內(nèi)容提供方,若內(nèi)容存在侵權(quán),請進行舉報或認(rèn)領(lǐng)

文檔簡介

1、 可信任人工智能倫理未來圖景的一種有效描繪 Summary 可信任人工智能的構(gòu)建發(fā)端于人對技術(shù)倫理旨趣的審度,可信任的存在邏輯在于人工智能創(chuàng)建了基于任務(wù)和基于目標(biāo)信任得以產(chǎn)生的可能條件,并在與人類的交互之中呈現(xiàn)出某種關(guān)聯(lián)性的信任??尚湃稳斯ぶ悄軕?yīng)基于信任邊界厘清的前提下,兼顧技術(shù)倫理學(xué)的通用原則和人工智能自身的技術(shù)特性,在有效監(jiān)督和對技術(shù)動態(tài)的發(fā)展與應(yīng)用的審慎批判中,確保人工智能向善。反觀歐盟的“可信任人工智能的倫理框架”,其所闡述的技術(shù)與非技術(shù)兩個方面的構(gòu)建路徑、判別標(biāo)準(zhǔn)為可信任人工智能實現(xiàn)提供了有效的實踐保障,但其對信任邊界問題的擱置或排除則使其有效性遭遇質(zhì)疑。Key 信任度,人工智能,倫

2、理N1 A1004-4175(2019)04-0038-05人工智能倫理研究的本質(zhì)是對人與技術(shù)關(guān)系的再度厘清與辨析。在人工智能的背景下,人與技術(shù)的關(guān)系是基于某種信任而形成的一種新型深度融合。這種信任是人與人工智能關(guān)系存在的前提條件。但這種信任除了傳統(tǒng)意義上的人際信任之外,還涉及人對人工智能以及人工智能系統(tǒng)間的信任。關(guān)于這種信任的哲學(xué)考察,可以借助信任的表征可信任來進行。即通過可信任來解碼人與人工智能的關(guān)系,描繪人工智能倫理的未來圖景。但這種描繪是否有效呢?對此,本文將從倫理旨趣、存在邏輯、實現(xiàn)途徑三個方面,解析可信任人工智能何以可能,以推進人工智能向善。一、可信任人工智能的倫理旨趣對人工智能未

3、來發(fā)展圖景的倫理描繪是基于人工智能技術(shù)的發(fā)展目標(biāo)與倫理觀念的有機融合。因此,人工智能的倫理問題研究既應(yīng)包括對現(xiàn)有倫理問題的哲學(xué)反思,也應(yīng)涵蓋對技術(shù)未來發(fā)展的一種框定。這種反思與框定源自人類對技術(shù)倫理旨趣的審度。如,斯坦福大學(xué)“以人為中心的人工智能”(Human-Centered AI Initiative,簡稱HAI)研究計劃就是旨在通過多學(xué)科的攜手合作,導(dǎo)引人工智能造福人類,共筑人類美好未來 1 。易言之,該計劃的倫理目標(biāo)通過技術(shù)追求人類福祉。歐盟委員會在其所發(fā)布的“可信任人工智能的倫理框架”(Ethics Guidelines For Trustworthy AI) 2 中,以追求人性和善

4、、謀求人類福祉和自由的目標(biāo)為導(dǎo)向,對人工智能信任機制建立的原則與路徑進行了詳細闡述,進而確??尚湃稳斯ぶ悄艿膶崿F(xiàn)。因此,該框架的出發(fā)點不是對人工智能的發(fā)展是否需要倫理進行探討,而是指向人工智能需要以何種倫理為框架,以及如何實現(xiàn)其倫理目標(biāo)。與“可信任人工智能的倫理框架草案”(Draft Ethics Guidelines For Trustworthy AI)相比,該框架關(guān)于可信任人工智能組成部分的界定由倫理和技術(shù)兩部分變?yōu)榉?、倫理和技術(shù)三部分,且每個部分自身均為實現(xiàn)人工智能信任度的必要但非充分條件。即可信任人工智能應(yīng)當(dāng)是合乎法律的、合乎倫理的、且技術(shù)方面是穩(wěn)健的。但鑒于法律部分在倫理和技術(shù)這

5、兩個部分已經(jīng)有某種程度的體現(xiàn),且上述兩部分的全面實現(xiàn)也將超越現(xiàn)存的法律要求。因此,該框架的目標(biāo)主要是為促進和確保人工智能的發(fā)展能合乎倫理,并為實現(xiàn)技術(shù)方面的穩(wěn)健性提供指南 2 。從中可見,可信任人工智能的核心所在是倫理和技術(shù),而倫理與技術(shù)并非是割裂開來的,技術(shù)具有反映與實現(xiàn)某種倫理旨趣的功能。如該框架所描述:其之所以可信任,是在于其“能通過產(chǎn)生新的財富、創(chuàng)造價值以及將福利最大化的方式來改善個體和群體的生活狀態(tài)。其能通過“促進經(jīng)濟機會、社會機會以及政治機會的平等分布,來提升公民健康和福祉,進而構(gòu)建公平的社會” 2 。就可信任而言,吉登斯(Anthony Giddens)在其關(guān)于抽象體系中的信任解

6、讀中,將可信任(trustworthiness)分為“建立在彼此熟悉的個人之見和基于很長時間了解,從而互相從對方的眼中看出可信度證據(jù)的個人之間” 3 73兩類。這兩類主要在于人與人之間,而“可信任人工智能的倫理框架”中所言的可信任已經(jīng)超出上述兩類,將可信任延伸到了技術(shù)之中。這種延伸一方面體現(xiàn)了基于主客體二元對立的視角,由作為主體的人對作為客體的技術(shù)所進行的信任度預(yù)判;另一方面則體現(xiàn)了新技術(shù)所蘊含的能動性對傳統(tǒng)信任產(chǎn)生的條件、語境等的沖擊。依據(jù)弗洛里迪(Luciano Floridi)和桑德斯(Jeff W. Sanders)關(guān)于人工道德行動者的判別標(biāo)準(zhǔn) ,面對諸如自動駕駛等對人類行為所產(chǎn)生的助

7、推、導(dǎo)引、甚至規(guī)約與牽制等現(xiàn)象,人工智能已經(jīng)呈現(xiàn)出行動者所應(yīng)具有的諸多特質(zhì),并和人一樣參與到道德的構(gòu)建之中。反觀該框架所言的“可信任人工智能”,其包括人對技術(shù)的態(tài)度和技術(shù)本身的可信任兩個維度。其中,技術(shù)自身的可信任,即技術(shù)的穩(wěn)健性既是獲得人對其信任的技術(shù)保障,也是人對其發(fā)展目標(biāo)的預(yù)設(shè)。易言之,在人類對技術(shù)進行信任度評判的同時,技術(shù)也在進行信任度的構(gòu)建。因此,可信任是人類對人工智能發(fā)展旨趣的倫理訴求,也是其本身所應(yīng)遵循的倫理原則。毫無疑問,可信任人工智能的構(gòu)建發(fā)端于人對技術(shù)倫理旨趣的審度,但技術(shù)的能動性又將人類的倫理旨趣與技術(shù)自身的發(fā)展邏輯關(guān)聯(lián)在一起。如果說卡普的器官投影說是將技術(shù)與人之間進行了

8、物化層面的關(guān)聯(lián),那么,伴隨新興技術(shù)的涌現(xiàn),這種關(guān)聯(lián)已經(jīng)不僅僅是將人的功能進行了物質(zhì)性的外化,而是走向了技術(shù)對人的嵌入式內(nèi)化,并出現(xiàn)了主體客體化與客體主體化的跡象。如果說對技術(shù)價值中立說的質(zhì)疑揭示出了技術(shù)與倫理之間的內(nèi)在關(guān)聯(lián)性,那么,將技術(shù)道德化的嘗試則是基于技術(shù)能動性而走向技術(shù)對倫理的塑型與構(gòu)建;倫理輔助性設(shè)計的出現(xiàn)則意味著人類的倫理觀念已經(jīng)被嵌入到具體的技術(shù)實踐之中。當(dāng)下智能體、深度學(xué)習(xí)、人機融合等的發(fā)展,使得人類社會的泛智能化日趨普遍,人與技術(shù)的關(guān)聯(lián)也日趨內(nèi)化。這種內(nèi)化體現(xiàn)為技術(shù)越來越逼近人的本質(zhì)。也正是在這種內(nèi)化的過程中,人作為“技術(shù)性與價值性二重本質(zhì)的共在” 4 94。在人與技術(shù)共在的

9、語境中人自身的本質(zhì)與技術(shù)的本質(zhì)進行著倫理維度的構(gòu)連。這種構(gòu)連表現(xiàn)為人對技術(shù)的倫理審視與技術(shù)對人類倫理觀念的調(diào)節(jié)兩個方面。但無論是這種構(gòu)連的哪個方面,都涉及人對技術(shù)的信任度。然而,無條件的懷疑與無條件的信任一樣都不是人與技術(shù)共同應(yīng)有的合理方式。雖然“對人工智能的倫理反思可以用于不同的目的。首先,能激發(fā)對個人和群體的最基本層級需求的反思;其次,有助于激發(fā)產(chǎn)生實現(xiàn)某種倫理價值觀的新型創(chuàng)新方式” 2 ,但該框架重點在于上述第一個目的,即面對人工智能所蘊含的巨大技術(shù)潛能及其對人類社會的深度影響,該框架以對人類需求的厘清為切入點,基于以人為中心的視角,力圖規(guī)避與預(yù)防技術(shù)風(fēng)險,謀求技術(shù)為人類所能帶來的最大福

10、祉,并確保其為人類服務(wù)的倫理旨趣來構(gòu)建可信任人工智能。二、可信任人工智能的存在邏輯及其合理性對可信任人工智能的存在邏輯及其合理性的解析,首先需要對人工智能信任的合理性展開探討。若對其信任是不合理的,則其可信任性也就無從談起,可信任人工智能倫理框架的構(gòu)建也將是無意義的。而對其信任是否合理的追問,則需要先對其何以產(chǎn)生進行考察。因為如果沒有產(chǎn)生信任人工智能的語境,對其信任的探討也就不存在。(一)人工智能信任的語境。從產(chǎn)生的維度來看,傳統(tǒng)意義上的信任是委托者(人)與受托者(人)之間的某種關(guān)聯(lián),其“產(chǎn)生于心理系統(tǒng)和社會體系影響的交互之中” 5 7,是“減少復(fù)雜性的一種有效方式” 5 9。事實上,信任的產(chǎn)

11、生可以是目標(biāo)導(dǎo)向性的,即A和B有一個共同的目標(biāo)C,但A和B之間本來無信任可言,但鑒于C目標(biāo),A和B產(chǎn)生了某種信任,但這種信任并非是A認(rèn)為B是值得信任的,或者B認(rèn)為A是值得信任的;信任的產(chǎn)生也可以是任務(wù)導(dǎo)向性的,如A需要完成任務(wù)C,而B有完成任務(wù)C的能力,進而產(chǎn)生了A對B的某種信任,這種信任可以是A對B具有完成某種能力的信任,也可以是A對B的整體性信任。但無論是目標(biāo)導(dǎo)向性還是任務(wù)導(dǎo)向性,信任所表達的是“一種態(tài)度,相信某人的行為或周圍的秩序復(fù)合自己的愿望。它可以表現(xiàn)為三種期待:對自然與社會的秩序性、對合作伙伴承擔(dān)的義務(wù)、對某角色的技術(shù)能力” 6 14。在智能革命的背景下,人類對人工智能有所期待,且

12、這些期待伴隨人工智能的發(fā)展已經(jīng)在人類社會中逐步被現(xiàn)實化,并呈現(xiàn)出代替人類某些能力的趨勢。如基于人工智能系統(tǒng)的導(dǎo)航、自動識別、安防等的研發(fā)與應(yīng)用。與此同時,人工智能以人類合作伙伴的形式參與到人類事物中,與人類共同承擔(dān)某種義務(wù),完成某個任務(wù)。即人類對其承擔(dān)的義務(wù)有所期待。如基于人工智能系統(tǒng)的兒童看護、情感交流等的研發(fā)與應(yīng)用等。因此,人工智能與人的深度融合提供了產(chǎn)生信任的語境,但上述這些現(xiàn)象是否可以被稱作是信任呢?(二)人工智能信任的出場方式及其存在的判別依據(jù)。一般而言,信任的出現(xiàn)需要滿足如下三個條件:“(1)行動者(agent)之間的直接交互;(2)在交互環(huán)境中,有共同的規(guī)范和倫理價值觀;(3)參

13、與交互的各個部分是可以識別的” 7 。但在新技術(shù)發(fā)展的背景下,非直接交互的信任出場,如電子信任。因此,應(yīng)當(dāng)重新審視信任存在的判別依據(jù)。塔迪歐(Mariarosaria Taddeo)在其關(guān)于電子信任的論述中,指出上述三個條件并不能成為數(shù)字環(huán)境中存在電子信任的障礙。因為在數(shù)字環(huán)境中,行動者之間的交互雖然并非都是直接的物理接觸,但卻真實存在,并可識別;在數(shù)字環(huán)境中,共同的規(guī)范和倫理價值觀由來自不同區(qū)域的不同文化形成 7 。同樣地,依據(jù)上述三個條件以及對電子信任的判別,在人工智能的環(huán)境中,人與人工智能之間的交互與數(shù)據(jù)環(huán)境中一樣,真實存在卻并非完全直接的物理式,且可識別;就共同的規(guī)范和倫理價值觀而言,

14、阿西洛馬人工智能原則( The Asilomar AI Principle)、負(fù)責(zé)任人工智能的蒙特利爾宣言(The Montreal Declaration for Responsible AI)、人工智能合作組織原則(The Tenets of the Partnership on AI)等都是對此的響應(yīng)。因此,通過對信任出現(xiàn)條件的解析可得出:人工智能已經(jīng)呈現(xiàn)了基于任務(wù)導(dǎo)向和目標(biāo)導(dǎo)向的信任意蘊,雖然這與傳統(tǒng)意義上的信任以及電子信任的出現(xiàn)條件有所不同。但無論如何,當(dāng)人工智能以(準(zhǔn))智能體的形式展現(xiàn)出其完成任務(wù)、實現(xiàn)目標(biāo)的能力時,毫無疑問,一種策略性信任也隨之而至。這種源自人類對人工智能的期望,

15、以及人類與人工智能的交互之中所產(chǎn)生的某種信任,恰恰也就是吉登斯所言的與知識體系、專家系統(tǒng)、抽象系統(tǒng)打交道的過程中所產(chǎn)生的信任。這種信任被解讀為“一個人或一個系統(tǒng)之可依賴性所持有的信心,在一系列給定的后果或事件中,這種信心表達了對誠實和他人的愛的信念,或者對抽象原則(技術(shù)性知識)之正確性的信念” 3 30。然而,這樣的信任是否是合理的呢?(三)反思人工智能可信任存在的合理性。當(dāng)人工智能創(chuàng)建了信任得以產(chǎn)生的可能條件,并在與人類的交互中呈現(xiàn)出某種關(guān)聯(lián)性的信任時,如果人類面對“在抽象體系的交匯口,連接非專業(yè)人士與信任關(guān)系的當(dāng)面承諾,通常表現(xiàn)出明白無誤的可信任性與誠實性,并伴隨著一種習(xí)以為常或鎮(zhèn)定自如的

16、態(tài)度” 3 74時,就意味著默認(rèn)了技術(shù)信任的合理性。但事實并非一直如此,哲學(xué)一直在對此展開反思。伴隨基于技術(shù)啟蒙與技術(shù)理性的現(xiàn)代性,“外界對科學(xué)和技術(shù)知識的態(tài)度又具有某種心理。這種矛盾心理居于所有信任關(guān)系無論是抽象體系還是對個人的信任關(guān)系的核心” 3 78。這種矛盾心理源自人類對技術(shù)的依賴以及對這種依賴的反思。如,在米切姆(Carl Mictham)關(guān)于古代懷疑論(懷疑技術(shù))、啟蒙時代的樂觀主義(促進技術(shù)發(fā)展)和浪漫主義的焦慮(對技術(shù)的矛盾心理) 8 406這三種人與技術(shù)共在關(guān)系的分析中,對技術(shù)活動的不信任或不安的倫理方面 8 378一直貫穿其中;在海德格爾(Martin Heidegger)

17、對技術(shù)與人類存在天命的鄉(xiāng)愁式解析中,人與世界的存在關(guān)系、人的存在語境均由技術(shù)來決定,所有的一切都變成了持存物,甚至人類連自身生命的本質(zhì)也被交付給技術(shù)。在這種交付中,由技術(shù)對人類席卷而產(chǎn)生的對技術(shù)的無奈式被迫信任、以及對這種信任的質(zhì)疑與破除均被裹挾其中;在伊德(Don Ihde)關(guān)于人、技術(shù)與世界四種關(guān)系的解讀中,如通過眼鏡、溫度計等對外部世界進行感知時,人與技術(shù)的融合或者世界與技術(shù)的融合是具身、詮釋、它異、背景等關(guān)系的前提條件。而這種融合需要基于人類對技術(shù)或技術(shù)產(chǎn)品予以某種信任才能形成,雖然信任度有所不同。然而,從現(xiàn)實主義的視角來看,“自然賦予人類以無數(shù)的欲望和需要,而對于緩和這些需要,卻給了

18、他以薄弱的手段” 9 521。因此,人必須依賴社會。社會以協(xié)作、分工、互助這三種方式對人的缺陷進行了補救。在這種補救中,技術(shù)作為人類需要的一種表征進入到對這些需要的緩和之中,并成為人類社會的一種必備品。因此,無論人類對技術(shù)的信任是否合理,技術(shù)已經(jīng)成為人類在世的方式,并參與到了人類的事務(wù)之中。與此同時,對技術(shù)的某種信任也悄然而至。但這并不意味著技術(shù)必然是可信任的,也并不意味著對其的信任就是合理的,對其的哲學(xué)思考是徒然的。恰恰相反,對實然問題的思考是哲學(xué)的應(yīng)有之義,且對這種既有現(xiàn)實的思考是通向應(yīng)然性的一條有效進路。但與以往技術(shù)不同的是,人工智能對人類事物的參與是以可植入的方式進入到與人深度融合之中

19、,其所呈現(xiàn)出的實然問題,與其說是亟需展開人類對技術(shù)信任問題反思,倒不如說是亟需展開人類對自身信任問題的反思。因為當(dāng)我們說“可信任人工智能”包括人類對人工智能的信任和人類對自身的信任兩個方面時,事實上,這兩個方面歸根到底是人類對自身所制造產(chǎn)物是否可以有效應(yīng)對的解答,即關(guān)于可信任人工智能實現(xiàn)途徑的探討。三、可信任人工智能實現(xiàn)途徑的有效性與局限性在歐盟的“可信任人工智能的倫理框架”中,信任視為人工智能發(fā)展的前提條件,但這種信任并不是機器的一種特性。事實上,信任不僅僅在于人工智能系統(tǒng)是合乎法律的、合乎倫理的和穩(wěn)健的,還在于信任可被歸因到與人工智能全生命周期中相關(guān)的每個人和每個過程 2 。因此,對人工智

20、能信任的考察應(yīng)當(dāng)走出外在主義的立場與批判主義的情結(jié),走向倫理學(xué)的后思式批判功能與前思式導(dǎo)引功能有效整合,從內(nèi)在主義與外在主義的融合之中,展開對可信任人工智能實現(xiàn)途徑探討。反觀歐盟“可信任人工智能的倫理框架”的探討,其預(yù)設(shè)了兩個條件。一是,將可信任定位為人工智能未來發(fā)展的一種圖景。關(guān)于人工智能的不信任應(yīng)當(dāng)或被懸置或被排除。顯然,該框架在力圖將這種不信任排除;二是,可信任應(yīng)當(dāng)是人工智能的一種應(yīng)有屬性,信任度的提升既是人工智能未來發(fā)展一個重要的技術(shù)考量,也是其未來發(fā)展的一個倫理考量。在此背景下,該框架展開關(guān)于如何確保人工智能是可信任的探討。事實上,這種探討也就是關(guān)于“可信任人工智能”的構(gòu)建邏輯與構(gòu)建

21、方式有效性、以及如何正確地看待可信任的探討。就該框架的構(gòu)建邏輯而言,其依據(jù)概念闡述、路徑解析、判別依據(jù)界定三者之間的遞進層級關(guān)系,闡述可信任人工智能的實現(xiàn)途徑。其中,該框架關(guān)于可信任人工智能組成部分的厘清、其所需必要條件的闡釋為后續(xù)其構(gòu)建的展開框定了邊界。關(guān)于技術(shù)和非技術(shù)兩個方面的構(gòu)建路徑解析為如何走向可信任提供了實踐維度的保障。即通過技術(shù)維度的可信任與倫理維度的可信任來確??尚湃稳斯ぶ悄艿膶崿F(xiàn)。其中,技術(shù)維度的可信任是倫理維度可信任的基礎(chǔ)與保障,倫理維度的可信任是技術(shù)發(fā)展的主旨與目標(biāo);而關(guān)于可信任人工智能關(guān)鍵條件的解碼則為可信任的判定提供了可供參考的標(biāo)尺。就該框架所提出的構(gòu)建路徑而言,其所提

22、出的技術(shù)方法和非技術(shù)方法這兩個維度,與其關(guān)于可信任人工智能組成部分厘清的邏輯一致。上述方法旨在滿足可信任人工智能的七個必要條件。這七個必要條件是基于基本權(quán)而產(chǎn)生的人工智能系統(tǒng)倫理框架的倫理律令,即人類自治、不傷害、公平和可解釋性(explicability)為基礎(chǔ)而提出的。該倫理律令兼顧了通用倫理原則和人類智能倫理的特殊性兩方面。其中,前三項為技術(shù)倫理學(xué)的通用原則,而可解釋性則是直接指向人工智能倫理,并被視為構(gòu)建用戶對人工智能信任的關(guān)鍵所在。在這里,可解釋性意指人工智能系統(tǒng)過程的透明性、能力和目標(biāo)的公開性、決策的可說明性。在當(dāng)下,由人工智能系統(tǒng)的不可解釋性所帶來的不確定性而引發(fā)的焦慮與恐懼,是

23、對其質(zhì)疑的核心所在。因此,人工智能倫理的構(gòu)建必須對不可解釋性進行解碼。雖然人工智能系統(tǒng)中算法和模型黑箱使得基于其所作出決策的可信任(即信任度)遭遇質(zhì)疑,但這并不意味著其不可解釋。如通過人工智能架構(gòu)的設(shè)計、通過對參與決策因素的追溯與審計等技術(shù)方法來促進其可解釋性,提升其信任度。這種構(gòu)建路徑將可信任置于技術(shù)、設(shè)計與倫理的調(diào)節(jié)之中,通過設(shè)計走向倫理的構(gòu)建?!暗赖路▌t在我們的心中,但它也在我們的儀器中。在到達超我(Super-ego)的傳統(tǒng)之前,為了闡述我們行動的正確性、信任度和延續(xù)性,我們可能要增加技術(shù)的隱我(under-ego)” 10 。這種“隱我”就是隱藏在技術(shù)背后的某種自我,其可以通過設(shè)計將

24、倫理帶入,實現(xiàn)對技術(shù)的調(diào)節(jié)。但這種隱我背后的自我需要一個給定的理念。“可信任人工智能的倫理框架”將這個理念設(shè)定為可信任,將對其的構(gòu)建進入到技術(shù)之中,這種方法是在借助技術(shù)來構(gòu)建人類對技術(shù)的信任,進而構(gòu)筑對人類自身的信任。該框架通過倫理學(xué)通用規(guī)則與技術(shù)自身特性的結(jié)合來確保其實現(xiàn)的同時,還借助監(jiān)管、問責(zé)、治理、倫理教育等非技術(shù)方法來推進技術(shù)層面信任度的構(gòu)建,進而確??尚湃稳斯ぶ悄艿膶崿F(xiàn)。但類似于甘貝特(Diego Gambetta)對我們能否信任的追問一樣,我們該如何正確看待“可信任人工智能”中的可信任呢?若我們不能正確地看待可信任,則會降低該框架的實踐效用。因此,該框架雖然闡述了實現(xiàn)可信任人工智能

25、的有效方式,但卻未指出看待可信任的正確方式。在“可信任人工智能的倫理框架”中,信任被界定為“(1)由與仁慈、能力、誠信以及可預(yù)測性有關(guān)的特定信念組成的集合(信任信念);(2)在某個有風(fēng)險的情景中,一方依賴另一方的意愿(信任意向);或者(3)這些要素的組合” 11 。因此,信任是人類基于相關(guān)倫理規(guī)則,對不確定性以及風(fēng)險作出的主觀判斷,是一方對另一方的態(tài)度。就人工智能而言,這種判斷不是直接發(fā)生在人際之間,是在人與技術(shù)的交互之中。一般意義上,人與技術(shù)之間的信任可以還原為人與人之間的信任,但這種還原是基于人對技術(shù)有能力掌控的前提下??尚湃稳斯ぶ悄茏鳛槿祟悓ζ涞囊环N倫理訴求,與其相對應(yīng)的是不可信任的人工

26、智能。恰如奧妮爾(Onora ONeill)所言“信任危機不能用盲目信任來克服” 1269,同樣地,可信任人工智能不是走向盲目的信任,也不是將不可信任盲目地遮蔽,而應(yīng)當(dāng)是:1.基于有效監(jiān)督的可信任。雖然人際之間最理想的信任模式是受托人在委托人不監(jiān)督的情況下完成任務(wù),但人與人工智能之間的信任則恰恰需要有效監(jiān)督,以避免造成對人類基本權(quán)的傷害。雖然技術(shù)維度的透明性與可解釋性等有助于提升人工智能的信任度,但人類的有效監(jiān)督是人工智能之所以被視為可信任的根源所在,因為可信任究其本質(zhì)而言,是人類對其的一種價值評判。2.基于動態(tài)視角的可信任??尚湃问腔谌祟悓θ斯ぶ悄艿膫惱碓V求而對技術(shù)未來發(fā)展作出的框定,關(guān)于

27、其判別標(biāo)準(zhǔn)制定基于通用倫理原則的框架而制定的,但這些標(biāo)準(zhǔn)并非靜態(tài)的意義完全枚舉,而是動態(tài)式的開放體系。因此,應(yīng)當(dāng)基于技術(shù)的發(fā)展與應(yīng)用來審視可信任的判別標(biāo)準(zhǔn)。3.基于批判視角的可信任。可信任本身就是對不可信任、信任以及錯誤信任等的批判性思考,進而,對可信任本身也應(yīng)當(dāng)持有審慎的批判態(tài)度,而不是非此即彼式的斷然。特別在人工智能與人易交互和深融合情境中,不能因技術(shù)的強勢性、便利性而忽視其風(fēng)險性以及人的主體性;也不能因其巨大潛能所蘊含的不確定性而忽視其給人類社會所帶來的益處。因為可信任本身就包含著期望、焦慮、承諾與風(fēng)險。綜上可見,當(dāng)人工智能的擬人性、準(zhǔn)主體性、對人的深度內(nèi)在嵌入性等帶來了一種顛覆性的人與

28、技術(shù)關(guān)系,即一種深度融合式的新型合作關(guān)系時,信任問題也隨之而至。因為“合作常常需要信任,特別是相互信任。如果是完全不信任,那么,在自由行動者之間的合作則將失敗。進一步說,如果信任僅僅在單方面,合作也是無效的;如果信任是盲目的,則將誘發(fā)欺騙” 13 219。在人工智能與人的合作中,諸如由人工智能對人類決策行為的多層級介入,出現(xiàn)了輔助性、導(dǎo)引性、甚至牽制性等多種合作模式,特別是導(dǎo)引性與牽制性的合作模式,帶來了新的信任問題與信任模式,并將信任的邊界不斷拓寬,而這種拓寬卻亟需人類為其設(shè)定邊界。因此,信任邊界的重新界定、以及人與技術(shù)之間信任的重新解析成為人工智能倫理構(gòu)建研究的新論域?!翱尚湃稳斯ぶ悄艿膫?/p>

29、理框架”將人工智能的能動性納入到了對其倫理的考察之中,將關(guān)于信任的問題轉(zhuǎn)換為信任的一種表征即可信任,并將其作為人工智能未來圖景的一個倫理描繪。該框架將倫理觀念融入關(guān)于人工智能的評判標(biāo)尺之中,并提出了信任度的構(gòu)建路徑,但其所描述的可信任人工智能構(gòu)建,事實上是在將信任問題暫且懸置或排除的基礎(chǔ)上,借助一種反向的模式,而進行的一種自下而上的倫理夯實。可以說,該框架將可信任作為一種人工智能未來圖景的倫理描繪,并為人工智能時代的人與技術(shù)深度融合提供了有效的倫理導(dǎo)引,但其所擱置或排除的問題恰恰是人工智能倫理構(gòu)建必須面對的終極問題。這表現(xiàn)為:當(dāng)該框架對信任的邊界進行拓寬時,信任邊界的設(shè)定問題即該框架的局限性也

30、隨之而來。因此,可信任作為人工智能未來發(fā)展圖景的一種有效描繪,應(yīng)當(dāng)是在厘清信任邊界的前提下,界定其概念的內(nèi)涵與外延,指出可行的構(gòu)建路徑,制定合理且有效的判斷標(biāo)準(zhǔn),并以理性的方式對待可信任來確保可信任人工智能的實現(xiàn)。注 釋:弗洛里迪和桑德斯基于行動者的互動關(guān)系標(biāo)準(zhǔn),將相互作用性(interactivity)、自主性(autonomy)和適應(yīng)性(adaptability)作為判別行動者的標(biāo)準(zhǔn)。參見:Floridi, L. and Sanders, J.W. On the Morality of Artificial Agents J.Minds and Machines,2004(14):357-358.參考文獻:1Adams,A. Stanford University launches the Institute for Human-Centered Artificial IntelligenceEB/OL. https:/news/sta

溫馨提示

  • 1. 本站所有資源如無特殊說明,都需要本地電腦安裝OFFICE2007和PDF閱讀器。圖紙軟件為CAD,CAXA,PROE,UG,SolidWorks等.壓縮文件請下載最新的WinRAR軟件解壓。
  • 2. 本站的文檔不包含任何第三方提供的附件圖紙等,如果需要附件,請聯(lián)系上傳者。文件的所有權(quán)益歸上傳用戶所有。
  • 3. 本站RAR壓縮包中若帶圖紙,網(wǎng)頁內(nèi)容里面會有圖紙預(yù)覽,若沒有圖紙預(yù)覽就沒有圖紙。
  • 4. 未經(jīng)權(quán)益所有人同意不得將文件中的內(nèi)容挪作商業(yè)或盈利用途。
  • 5. 人人文庫網(wǎng)僅提供信息存儲空間,僅對用戶上傳內(nèi)容的表現(xiàn)方式做保護處理,對用戶上傳分享的文檔內(nèi)容本身不做任何修改或編輯,并不能對任何下載內(nèi)容負(fù)責(zé)。
  • 6. 下載文件中如有侵權(quán)或不適當(dāng)內(nèi)容,請與我們聯(lián)系,我們立即糾正。
  • 7. 本站不保證下載資源的準(zhǔn)確性、安全性和完整性, 同時也不承擔(dān)用戶因使用這些下載資源對自己和他人造成任何形式的傷害或損失。

評論

0/150

提交評論