《人工智能技術(shù)風險的規(guī)避策略探析綜述》9300字_第1頁
《人工智能技術(shù)風險的規(guī)避策略探析綜述》9300字_第2頁
《人工智能技術(shù)風險的規(guī)避策略探析綜述》9300字_第3頁
《人工智能技術(shù)風險的規(guī)避策略探析綜述》9300字_第4頁
《人工智能技術(shù)風險的規(guī)避策略探析綜述》9300字_第5頁
已閱讀5頁,還剩6頁未讀 繼續(xù)免費閱讀

下載本文檔

版權(quán)說明:本文檔由用戶提供并上傳,收益歸屬內(nèi)容提供方,若內(nèi)容存在侵權(quán),請進行舉報或認領(lǐng)

文檔簡介

人工智能技術(shù)風險的規(guī)避策略分析目錄TOC\o"1-2"\h\u7338人工智能技術(shù)風險的規(guī)避策略分析 121367第一節(jié)基于負責任創(chuàng)新框架下人工智能技術(shù)風險的應(yīng)對分析 123362一人工智能的技術(shù)研發(fā)之初嵌入預(yù)測維度 123932第二節(jié)規(guī)避人工智能技術(shù)風險的策略 428527一突破人工智能自身發(fā)展的局限性 432611(一)以保障數(shù)據(jù)安全為根本立足點 43849(二)發(fā)展人工智能的全球化治理模式 511971(一)增強技術(shù)主體的道德責任 631746(二)推進社會公眾參與創(chuàng)新決策 61453(一)加強人工智能的監(jiān)督管理機制建設(shè) 728776(二)設(shè)置人工智能的行為規(guī)范 817711(一)制定人工智能道德倫理準則 917252(二)建立健全的法律法規(guī) 9隨著現(xiàn)代科學(xué)技術(shù)的發(fā)展,人工智能正朝著強人工智能和超人工智能的方向發(fā)展,其技術(shù)應(yīng)用也將變得更加復(fù)雜化,對人類的威脅也將隨之產(chǎn)生。人們必須對技術(shù)的研究與應(yīng)用秉持審慎的態(tài)度,絕不能盲目崇拜。人工智能體越來越智能化,機器與人類的差異范圍越來越小,人類對智能機器的依賴程度越來越深,機器人威脅論已成為大家討論的熱門話題。當大家都沉浸在人工智能帶來的巨大驚喜中時,應(yīng)該沉著冷靜地思考這項技術(shù)將會把人類帶向何方。為了使機器更好地為人類服務(wù),預(yù)防人工智能潛在的技術(shù)風險的行動策略的制定也是當下緊迫的任務(wù)。第一節(jié)基于負責任創(chuàng)新框架下人工智能技術(shù)風險的應(yīng)對分析關(guān)于負責任創(chuàng)新的行動框架,理查德·歐文等人提出了負責任創(chuàng)新行動框架的四個維度:預(yù)測、反思、審議和響應(yīng)。這四個維度分階段參與了負責任創(chuàng)新的整個過程,保障創(chuàng)新行為對社會和人類生存的責任性,并得到了學(xué)術(shù)界的普遍認可。一人工智能的技術(shù)研發(fā)之初嵌入預(yù)測維度預(yù)測是指對研究和創(chuàng)新未來的展望,并根據(jù)當前動態(tài)塑造技術(shù)創(chuàng)新的未來。負責任創(chuàng)新的預(yù)測維度旨在以現(xiàn)有條件為基礎(chǔ),對技術(shù)創(chuàng)新可能給社會、環(huán)境、倫理道德、政治利益等方面帶來的不良后果進行分析和預(yù)測。一項新興技術(shù)的有害性通常是無法預(yù)見的,預(yù)測的目的是將研究人員的目光聚焦在“如果……怎么辦?”的問題BeckMB,RavetzJR,MulkeyLA,etal.“Ontheproblemofmodelvalidationforpredictiveexposureassessments”.StochasticHydrologyandHydraulics,1997,11(3):229-254.,以考慮技術(shù)創(chuàng)新的已知可能性、偶然性、合理性與可行性。負責任創(chuàng)新是將研究重點由下游環(huán)節(jié)技術(shù)創(chuàng)新成果所帶來的影響轉(zhuǎn)移到上游環(huán)節(jié)的技術(shù)創(chuàng)新本身,即在技術(shù)設(shè)計研發(fā)初期對技術(shù)實施后的不良影響與潛在風險進行分析,以設(shè)想最佳方案再進行項目的實施取代事后重點問題的解決。StilgoeJ,OwenBeckMB,RavetzJR,MulkeyLA,etal.“Ontheproblemofmodelvalidationforpredictiveexposureassessments”.StochasticHydrologyandHydraulics,1997,11(3):229-254.StilgoeJ,OwenR&MacnaghtenP.“Developingaframeworkforresponsibleinnovation”.ResearchPolicy,2013,42(9):1568-1580.RoseN.“Thehumanbrainproject:socialandethicalchallenges”.Neuron,2014,82(6):1212-1215.人工智能創(chuàng)新發(fā)展可能產(chǎn)生的技術(shù)風險具有不確定性。因此,如果在人工智能的技術(shù)設(shè)計研發(fā)初期階段嵌入負責任創(chuàng)新的預(yù)測維度,通過預(yù)測進行系統(tǒng)化的檢測和評估,那么,作為責任主體的個體或小型集體和以利益為目標的科研人員與企業(yè)制造商就難以應(yīng)對技術(shù)創(chuàng)新發(fā)展可能帶來的后果。負責任創(chuàng)新不僅與相關(guān)的決策機構(gòu)、研究機構(gòu)、社會組織等以及技術(shù)的設(shè)計者、生產(chǎn)者、銷售者、使用者、服務(wù)提供者等主體相關(guān)聯(lián),還涉及利益整合、權(quán)力沖突和話語選擇間的博弈,同時與技術(shù)的可行性、帶來的經(jīng)濟利益和道德倫理規(guī)范等因素緊密相關(guān)。對于技術(shù)創(chuàng)新可能帶來的風險,可以通過預(yù)測進行前瞻性的系統(tǒng)化調(diào)查與評估,從而更好地規(guī)劃未來發(fā)展與防范風險,使人工智能的技術(shù)創(chuàng)新具有一定的價值意義。因此,在人工智能的設(shè)計研發(fā)初期階段嵌入預(yù)測維度是必不可少的。二人工智能的技術(shù)研發(fā)與應(yīng)用過程嵌入反思維度在當前背景下,負責任創(chuàng)新的反思維度是指在技術(shù)設(shè)計、研發(fā)過程中體現(xiàn)價值觀與信念。斯蒂爾戈(JackStilgoe)等人將反思定義為“拿著一個鏡子來審視自己一個人的活動、承諾和假設(shè),看到知識的局限性,并注意到某個部分的特定框架可能不會被普遍接受”。StilgoeJ,OwenR&MacnaghtenP.“Developingaframeworkforresponsibleinnovation”.ResearchPolicy,2013,42(9):1568-1580.維恩(BrianWynne)認為,負責任創(chuàng)新的反思維度與科學(xué)家專業(yè)的自我批評不同,它是一個公共事務(wù),需要在制度實踐層面進行反思。WynneB.“Labworkgoessocial,andviceversa:strategisingpublicengagementprocesses”.ScienceandEngineeringEthics,2011,17(4):791-800.魯濱遜(DouglasK.R.Robinson)強調(diào),將反思與預(yù)測維度相結(jié)合,可以避免在技術(shù)發(fā)展早期階段預(yù)測失誤的風險StilgoeJ,OwenR&MacnaghtenP.“Developingaframeworkforresponsibleinnovation”.ResearchPolicy,2013,42(9):1568-1580.WynneB.“Labworkgoessocial,andviceversa:strategisingpublicengagementprocesses”.ScienceandEngineeringEthics,2011,17(4):791-800.RobinsonDK.“Co-evolutionaryscenarios:Anapplicationtoprospectingfuturesoftheresponsibledevelopmentofnanotechnology”.TechnologicalForecastingandSocialChange,2009,76:1222-1239.在人工智能的技術(shù)研發(fā)和應(yīng)用過程嵌入反思維度是非常有必要的。反思與預(yù)測、科研人員和公眾對話、合作聯(lián)系在一起。其中,科研人員和公眾合作是反思的關(guān)鍵組成部分。公眾直接參與到技術(shù)的研發(fā)過程,這樣,技術(shù)不僅為技術(shù)的設(shè)計者和創(chuàng)新者所獨有,可以有效地參與更廣泛的社會與道德倫理層面,提高人工智能的價值和創(chuàng)造力。同時,將反思作為參與人工智能技術(shù)設(shè)計研發(fā)的科研人員的一項行為準則,他們有道德責任反思在設(shè)計過程中做出的道德相關(guān)選擇。公眾參與其中,促使科研人員反思技術(shù)研究中的基本背景理論和價值體系,最終目的是通過反思有助于描述這些決策的過程來塑造技術(shù)創(chuàng)新發(fā)展的軌跡。反思要求科研人員模糊他們在研究領(lǐng)域的內(nèi)部責任與道德責任之間的界限,它強調(diào)在科學(xué)與技術(shù)創(chuàng)新中保持開放性與領(lǐng)導(dǎo)力。三人工智能的技術(shù)創(chuàng)新過程嵌入審議維度審議維度是負責任創(chuàng)新最具代表性的一個維度。尚伯格指出,每個人都肩負著一種特殊的道德義務(wù),即通過參與集體辯論作出集體決策。SchombergRV.“FromtheEthicsofTechnologyTowardsanEthicsofKnowledgePolicy&KnowledgeAssessment”.SSRNElectronicJournal,2007,11:5-24.為了履行這一義務(wù),尚伯格與其他學(xué)者將這一義務(wù)與確定社會理想的結(jié)果相關(guān)聯(lián),他們認為社會理想的結(jié)果可以通過公眾參與來實現(xiàn),公眾參與也是尋求技術(shù)問題解決方案的一項要求。因此,審議是指在技術(shù)進程的上游環(huán)節(jié)邀請利益相關(guān)者和公眾參與對話、辯論并提出廣泛的意見,實現(xiàn)包容性開放關(guān)于愿景、目的、問題和困境的集體審查和評議。審議維度通過引入廣泛的視角來重新審視定義問題并確定潛在的爭論領(lǐng)域。從不同的角度分析,理解并規(guī)劃設(shè)計對人類發(fā)展有利的創(chuàng)新結(jié)果。審議的主要形式包括建立審議論壇SchombergRV.“FromtheEthicsofTechnologyTowardsanEthicsofKnowledgePolicy&KnowledgeAssessment”.SSRNElectronicJournal,2007,11:5-24.從商業(yè)角度看,技術(shù)創(chuàng)新是技術(shù)主體將思想轉(zhuǎn)變?yōu)楦倪M的技術(shù)產(chǎn)品、服務(wù)或過程,以便在市場中成功的推進、競爭并脫穎而出。在這里,人工智能的技術(shù)創(chuàng)新是指科研人員致力于調(diào)節(jié)算法以模擬通常與視覺、語音等人類屬性相關(guān)的功能,包括語言處理、學(xué)習(xí)、解決問題等,并通過程序系統(tǒng)擴展這些功能。負責任創(chuàng)新重點關(guān)注公眾的價值和利益,強調(diào)包容性的公眾參與,數(shù)據(jù)處理的可解釋性、公開性與透明性以及民主化治理。在人工智能的技術(shù)創(chuàng)新過程嵌入審議維度,要向利益相關(guān)者闡述系統(tǒng)的數(shù)據(jù)處理和工作情況,并描述人工智能系統(tǒng)如何做出一般決策。同時,需要對在特定情況下系統(tǒng)做出某個決定的原因解釋說明,確保人工智能的健康發(fā)展。通過多方集體審議,將人工智能的技術(shù)創(chuàng)新發(fā)展與公眾對美好生活的關(guān)注與價值觀相結(jié)合,不斷對技術(shù)在社會中的應(yīng)用進行評估,最大程度的降低人工智能技術(shù)創(chuàng)新帶來的負面影響。四人工智能的技術(shù)成果嵌入響應(yīng)維度響應(yīng)維度是根據(jù)利益相關(guān)者的反應(yīng)和變化對技術(shù)創(chuàng)新發(fā)展方向與路徑進行調(diào)整,確定技術(shù)創(chuàng)新的最佳方案,更加合理地把握技術(shù)創(chuàng)新的全過程,確保技術(shù)創(chuàng)新過程的可訪問性、透明性與互動性,最大限度地保護利益相關(guān)者的權(quán)益,并幫助利益相關(guān)者提升對倫理道德和風險的認知能力。在強調(diào)技術(shù)內(nèi)在價值的同時,應(yīng)盡量避免倫理問題的產(chǎn)生。響應(yīng)維度的最終目標是為了解決在技術(shù)層面對人類價值理解的拓展,同時充分考慮各種與人類利益相關(guān)的價值因素。人工智能的技術(shù)創(chuàng)新所需要的時間尚不確定,可能產(chǎn)生的風險類別與強度也是不確定的。響應(yīng)通常與風險相關(guān)聯(lián),新技術(shù)所帶來的風險可以是中長期的,是經(jīng)濟的、環(huán)境的或社會的。將風險類別、障礙程度等因素整合到響應(yīng)中,在技術(shù)研發(fā)過程中不斷得到反饋,作出正確的響應(yīng),提前識別并防范技術(shù)帶來的風險與不良后果。同時,響應(yīng)還與透明度和可訪問性有關(guān)。人工智能可能產(chǎn)生的技術(shù)風險對于技術(shù)操作人員應(yīng)是透明的,以避免類似于波音737MAX客機事件的再次發(fā)生。此外,公共資助的研究成果必須向公眾開放,公眾能夠及時有效地提出意見和建議,幫助科研人員對創(chuàng)新的方法進行調(diào)整。同時,國家、政府等權(quán)威機構(gòu)也應(yīng)實時追蹤獲取人工智能的技術(shù)成果,以達到及時監(jiān)督管理的效果。第二節(jié)規(guī)避人工智能技術(shù)風險的策略人工智能是現(xiàn)階段最重要的科技成果之一,各個國家都對人工智能的發(fā)展高度重視,其中一部分國家已經(jīng)認識到了人工智能所帶來的技術(shù)風險與挑戰(zhàn),并試圖從多個角度進行技術(shù)風險的規(guī)避,以保障人工智能的安全。主要從以下幾個方面入手:突破人工智能自身發(fā)展的局限性、提升人工智能技術(shù)主體參與決策與責任承擔意識、完善人工智能的監(jiān)督管理體系、構(gòu)建人工智能的制度規(guī)范。一突破人工智能自身發(fā)展的局限性(一)以保障數(shù)據(jù)安全為根本立足點保障數(shù)據(jù)安全是人工智能創(chuàng)新發(fā)展的必要條件。因此,為了保護數(shù)據(jù)不被泄露主要采取以下措施:1、賦予數(shù)據(jù)被采集者“知情權(quán)”。讓人工智能用戶能夠了解自己個人信息的用途與處理方式;2、人工智能的設(shè)計人員要對用戶的數(shù)據(jù)安全保護負責任。根據(jù)對數(shù)據(jù)的采集與分析,將不同類型的數(shù)據(jù)按其重要性進行分類儲存管理,并通過數(shù)據(jù)庫加密、網(wǎng)絡(luò)防火墻等措施加強對個人隱私、商業(yè)機密等核心數(shù)據(jù)的重點保護;3、對數(shù)據(jù)的使用過程進行安全防護。在數(shù)據(jù)使用的過程中,需要對安全風險進行評估,并通過隱私保護、數(shù)字水印、身份認證、權(quán)限設(shè)置等方法對用戶的個人隱私信息和數(shù)據(jù)安全進行保護,同時防控威脅數(shù)據(jù)信息安全的因素;4、確保使用者登陸與使用時的數(shù)據(jù)安全性。對計算機程序進行優(yōu)化設(shè)置,通過指紋識別區(qū)分不同的使用者,而且每個使用者在操作完成后,個人信息都不會被記錄,切實確保個人隱私數(shù)據(jù)安全。對于在家庭等私人空間使用的一些人工智能產(chǎn)品,可以建立遠程識別控制系統(tǒng),隨時了解陌生的、遠程的使用情況;5、加強算法約束機制的建立。網(wǎng)絡(luò)信息部門與相關(guān)政府組織加強對算法監(jiān)管,算法在人工智能的操作過程中要具備價值觀念,必須符合倫理道德與法律規(guī)范,保障用戶的個人信息安全??傮w而言,通過上述的幾種方法可以保障人工智能的內(nèi)部數(shù)據(jù)不會被盜取、惡意修改或泄露等,確保人工智能的正常穩(wěn)定運行。2015年,聯(lián)合國教科文組織和世界科學(xué)知識與技術(shù)倫理委員會在報告中提出了數(shù)據(jù)與隱私保護等措施;2020年,我國的《中華人民共和國數(shù)據(jù)安全法》得到了初次審議。因此,保障數(shù)據(jù)信息安全是維護國家安全、確保人工智能健康發(fā)展的重要舉措。(二)發(fā)展人工智能的全球化治理模式人工智能作為一種新興技術(shù),對其技術(shù)風險的規(guī)避,是全球各個國家共同面臨的問題。因此,可以通過加強國際間的交流與合作,包括發(fā)展中國家在內(nèi)的各國政府部門、非政府組織、科研人員等積極與利益相關(guān)者、公眾合作,從而推動人工智能的創(chuàng)新發(fā)展,在負責任創(chuàng)新的發(fā)展可信賴的人工智能技術(shù)成果方面取得突破性進展。各國政府應(yīng)在經(jīng)濟合作組織等全球或區(qū)域論壇上共同協(xié)作,按需分享人工智能的相關(guān)知識。應(yīng)大力倡導(dǎo)各個國家、跨部門、跨領(lǐng)域多方利益相關(guān)者共同倡議,以及時獲得與人工智能相關(guān)的最新專業(yè)知識與實時動態(tài)。各國政府還應(yīng)制定有利于多方利益相關(guān)者、共識驅(qū)動的可互操作和值得信賴的人工智能全球技術(shù)標準,并鼓勵制定和使用國際可比指標來衡量人工智能的研究、開發(fā)和部署,并收集證據(jù)庫以評估這些原則的實施進展,發(fā)展值得信賴的人工智能。結(jié)合負責任創(chuàng)新的預(yù)測維度,對人工智能的創(chuàng)新應(yīng)用給人類、社會與環(huán)境帶來的的積極或消極影響進行評估,確定研究重點,針對具體的倫理、社會、監(jiān)管問題,按照特定的價值標準對人工智能的元程序進行設(shè)計,以確保其達到最優(yōu)。因此,正確的價值取向是人工智能程序設(shè)計的最關(guān)鍵因素,使人工智能的創(chuàng)新發(fā)展必須嚴格遵守人類道德的法律法規(guī),確保人工智能的應(yīng)用不能損害人類與社會既有的利益。二提升人工智能技術(shù)主體參與決策與責任承擔意識(一)增強技術(shù)主體的道德責任“技術(shù)不僅是科學(xué)的分支,也是道德哲學(xué)的一個分支”。MartinMW,SchinzingerR.EthicsinEngineering.Boston:McGraw—HillComepaniesInc.1996,1.人工智能的出現(xiàn)在某種程度上是對人類行為的延伸拓展,將人類行為變得越來越技術(shù)化。人工智能是技術(shù)的產(chǎn)物,自身是不存在道德倫理觀念與社會責任的,MartinMW,SchinzingerR.EthicsinEngineering.Boston:McGraw—HillComepaniesInc.1996,1.技術(shù)科研人員是一項技術(shù)的直接決策者,把控技術(shù)的研究與發(fā)展方向,對于規(guī)避人工智能在使用過程中可能引發(fā)的技術(shù)風險負有直接責任。在技術(shù)研發(fā)初期,科研人員首先要對技術(shù)進行評估,并對技術(shù)在發(fā)展與使用時可能帶來的影響進行預(yù)測與說明,杜絕一切為了經(jīng)濟利益而無視技術(shù)風險的行為。技術(shù)研發(fā)主體必須把握好科技的倫理道德標準,提升對人工智能發(fā)展的道德責任感,不能被個人特殊需求與經(jīng)濟利益等非理性因素影響主觀判斷,堅定負責任創(chuàng)新的理念積極承擔人工智能在應(yīng)用過程引發(fā)風險的責任。對于技術(shù)使用者而言,人工智能的發(fā)展已成為人類社會生活的重要組成部分,最終作用于使用者以促進社會生產(chǎn)力的提升。人工智能的發(fā)展必須在社會發(fā)展的框架下進行。人工智能的使用者要加強自身的道德文化修養(yǎng),增強社會責任感,同時也要將倫理道德制度規(guī)范作為自身的堅定信念,合理使用人工智能技術(shù)產(chǎn)品,確保人工智能的發(fā)展符合人類社會的發(fā)展方向。(二)推進社會公眾參與創(chuàng)新決策人工智能的技術(shù)風險不僅包括人工智能自身客觀存在的風險,同時也包括在發(fā)展與應(yīng)用過程中對人類和社會產(chǎn)生的危害,而現(xiàn)階段的專家治理模式往往會忽視作為人工智能技術(shù)成果的終端使用者公眾對技術(shù)安全性的主觀感受。因此,要加強社會公眾參與決策的力度,提升公眾對人工智能的接納程度,促進公眾“理解科學(xué)”,加強公眾的社會責任意識,進而實現(xiàn)技術(shù)風險的防控。例如,巴斯夫(BASF)公司與民間社會組織建立了對話論壇,并制定了公民社會組織對話守則。因此,相關(guān)部門可以提供一個主體交流平臺,促進科研人員與政府、企業(yè)、利益相關(guān)者等進行對話,交流有關(guān)人工智能政策和活動的信息,以促進對人工智能創(chuàng)新發(fā)展的信任與采納。在人工智能的創(chuàng)新發(fā)展過程中,人工智能的科研人員應(yīng)通過多種形式積極與公眾進行溝通交流,及時向公眾普及人工智能的相關(guān)知識信息,提升公眾對人工智能相關(guān)問題的認知與識別判斷能力,強化公眾對人工智能技術(shù)風險的防范意識,使公眾清楚的知道自己應(yīng)享有的權(quán)利與要承擔的義務(wù)和責任。同時讓公眾參與到人工智能的設(shè)計決策討論,對公眾提供的一些知識、經(jīng)驗、價值等信息合理德聽取、采納,了解公眾的期待與需求,從而更加有效的規(guī)避人工智能技術(shù)風險。三完善人工智能的監(jiān)督管理體系(一)加強人工智能的監(jiān)督管理機制建設(shè)人工智能的創(chuàng)新發(fā)展需要相關(guān)監(jiān)督管理機制的有效監(jiān)管。人工智能主體所在的位置與環(huán)境對人類是沒有情感糾紛的,人工智能在應(yīng)用時所表現(xiàn)的能力是對程序設(shè)定的表達,只是在機械地執(zhí)行任務(wù),不含有任何感情色彩。在人工智能的創(chuàng)新發(fā)展過程中可能會逾越界限,威脅人類的主體性地位,人類對人工智能更加依賴,最終可能導(dǎo)致人類反過來被人工智能所控制。因此,根據(jù)現(xiàn)階段人工智能發(fā)展對人類社會的影響以及在未來社會的發(fā)展趨勢,可以看出,如果沒有強有力的監(jiān)督管理機制對人工智能的發(fā)展進行規(guī)范約束,則可能嚴重影響人類主體性作用的發(fā)揮。人類社會建立并完善人工智能的監(jiān)督管理機制,使其管理范圍更加廣泛,以確保人工智能的高效合理運行。隨著人工智能的創(chuàng)新發(fā)展與廣泛應(yīng)用,世界各國都在不斷加強對人工智能監(jiān)管體系的完善。為了推動人工智能健康快速發(fā)展,在政治層面,2017年,我國國務(wù)院在發(fā)布的《新一代人工智能發(fā)展規(guī)劃》中提出,建立健全的人工智能監(jiān)管體系,保證其公開性與透明性,同時監(jiān)管設(shè)計者的責任與技術(shù)產(chǎn)品應(yīng)用過程,實現(xiàn)對人工智能的設(shè)計到研發(fā)再到應(yīng)用的全過程監(jiān)管?!缎乱淮斯ぶ悄馨l(fā)展規(guī)劃》(EB/OL),/zhengce/content/2017-07/20/content_5211996.htm,2017-07-20。這主要是從根源上規(guī)定人工智能的發(fā)展原則,并確立其發(fā)展方向,切實保障人類的主體性地位。與此同時,人工智能的發(fā)展也需要社會公眾的監(jiān)督。社會群體是人工智能技術(shù)產(chǎn)品的使用者,是人工智能技術(shù)長期應(yīng)用的體驗者,因此,公眾的監(jiān)督是人工智能監(jiān)管體系的重要組成部分,《新一代人工智能發(fā)展規(guī)劃》(EB/OL),/zhengce/content/2017-07/20/content_5211996.htm,2017-07-20。對于人工智能技術(shù)過程的監(jiān)督,監(jiān)管部門應(yīng)做到以下幾點:1、加強公眾對人工智能信任。公眾對人工智能的開發(fā)和部署的信任對于促進創(chuàng)新和充分解釋其利益至關(guān)重要;2、保證科研誠信與數(shù)據(jù)信息的有效性。監(jiān)管部門必須確??茖W(xué)理論的真實性、強有力的技術(shù)分析與數(shù)據(jù)信息的質(zhì)量;3、對風險評估并進行管理。對技術(shù)風險評估并試圖降低風險強度時,需要考慮到對人類、社會、環(huán)境的影響,對金融市場穩(wěn)定性的影響等因素;4、確保監(jiān)管辦法的靈活性。人工智能是一個不斷變化的領(lǐng)域,新的變革性技術(shù)正在不定時出現(xiàn),監(jiān)管部門的監(jiān)管辦法應(yīng)不斷更新,與時俱進,以適應(yīng)人工智能的持續(xù)創(chuàng)新發(fā)展;5、各個監(jiān)管機構(gòu)相互協(xié)調(diào)溝通,防止對人工智能監(jiān)管重復(fù)或相互沖突。綜上,通過相關(guān)政府部門對人工智能設(shè)計、研發(fā)與應(yīng)用過程的有效監(jiān)管,以及群眾對技術(shù)產(chǎn)品的監(jiān)督,從而確保人工智能和諧穩(wěn)定的發(fā)展,避免技術(shù)風險的發(fā)生。(二)設(shè)置人工智能的行為規(guī)范技術(shù)的發(fā)展與應(yīng)用是為實現(xiàn)人類的全面發(fā)展這一社會發(fā)展最終目標的重要手段。基于現(xiàn)階段人工智能的指數(shù)型上升發(fā)展趨勢,從負責任創(chuàng)新的視角構(gòu)建人工智能發(fā)展要遵循的基本原則,主要包括:責任原則、人本原則和公平公正原則。第一,責任原則。在人工智能設(shè)計、研發(fā)到上市應(yīng)用的整個發(fā)展過程中需要明確各個環(huán)節(jié)的責任、義務(wù)和權(quán)利歸屬,有效保障人類主體的利益。人工智能的倫理道德界限與價值標準都是由人工智能的設(shè)計者與研究人員控制的,因此,他們也需要對自己設(shè)計、研發(fā)的人工智能技術(shù)產(chǎn)品在使用過程中出現(xiàn)的問題承擔責任,同時,使用者需要嚴格按照使用說明在限定的區(qū)域正當使用,避免技術(shù)風險的發(fā)生。第二,人本原則。人工智能的本質(zhì)上是人為的和為人的活動,人工智能的發(fā)展創(chuàng)新必須遵循“以人為本”的原則,將人類發(fā)展的福祉、利益作為技術(shù)發(fā)展的前提,以滿足人類更多的訴求和實現(xiàn)更多的愿望。主要體現(xiàn)在以下三個方面:1、加強人工智能的深度感知能力?,F(xiàn)階段的人工智能技術(shù)成果尚未完全具備深度自主感知的能力,無法滿足人類更深層次的需求。因此,將人工智能與認知人類學(xué)、認知心理學(xué)、認知神經(jīng)科學(xué)等學(xué)科領(lǐng)域相互結(jié)合,為人工智能的長遠發(fā)展奠定理論基礎(chǔ);2、明確人工智能的發(fā)展定位。人工智能的發(fā)展是為了輔助人類更好地生活與工作,不能完全取代人類。例如,在醫(yī)學(xué)領(lǐng)域,智能機器人是為了輔助醫(yī)生工作,而不是代替醫(yī)生進行手術(shù)操作;3、積極引導(dǎo)人工智能的正確發(fā)展方向,密切關(guān)注并及時控制其可能對人類產(chǎn)生的危害??傊?,人工智能應(yīng)通過技術(shù)的價值體現(xiàn)人類的價值,以人為中心,保障人類的主體性地位。同時,人類也不能以消極的態(tài)度對人工智能避而遠之,而是要積極與人工智能相互協(xié)作,共同實現(xiàn)人類社會穩(wěn)步向前發(fā)展的最高目標。第三,公平公正原則。在人工智能的創(chuàng)新發(fā)展過程中必須要保證機會均等、規(guī)則公平、權(quán)利公平的公平公正原則。一項人工智能的設(shè)計,不能只是為了滿足一個人或幾個人的利益、需求,而是應(yīng)滿足大多數(shù)人的需求,設(shè)計者盡可能地做到公平公正。同時,不同職業(yè)、不同身份地位、不同種族的人在使用同一種人工智能技術(shù)產(chǎn)品時,最終應(yīng)達到相同的使用效果,而不能出現(xiàn)男女不平等、種族歧視等問題,對待所有使用者一視同仁,保障社會穩(wěn)定平衡發(fā)展。四構(gòu)建人工智能的制度規(guī)范(一)制定人工智能道德倫理準則人工智能的創(chuàng)新發(fā)展逐漸成為全球各國的重點關(guān)注與研究領(lǐng)域,但人工智能的發(fā)展創(chuàng)新成果也慢慢超出了現(xiàn)有道德倫理規(guī)范的限定范圍。為了預(yù)防并能夠及時控制人工智能帶來的各種負面影響,需要對已經(jīng)建立的倫理準則進行完善,從制度方面對人類進行關(guān)懷。人工智能的發(fā)展創(chuàng)新的最終目標就是人類的發(fā)展,人工智能倫理準則的制定必須從人工智能的上游環(huán)節(jié)出發(fā),在技術(shù)設(shè)計、研發(fā)初期就應(yīng)高度關(guān)注人工智能相關(guān)的倫理問題,而不能只關(guān)心對技術(shù)創(chuàng)新結(jié)果倫理的約束規(guī)范,逐步形成具有預(yù)測性、前瞻性的倫理準則。首先,將保障人類安全作為人工智能倫理準則的基本原則。人工智能的創(chuàng)新發(fā)展是為人類的全面發(fā)展服務(wù)的,必須做到:1、確保人類的生命安全與身心健康。人工智能的發(fā)展與應(yīng)用無論在身體方面還是精神方面都不得對人類造成傷害。2、保障人類的權(quán)利與主體性地位。人工智能發(fā)展在保證人類的生命安全的同時也要保證人們應(yīng)該享有的權(quán)利和尊嚴不受侵犯,促使社會穩(wěn)定向前發(fā)展。其次,以“為人類發(fā)展謀福利”為核心目標;人工智能倫理準則的建立應(yīng)同時包含人文關(guān)懷、生態(tài)關(guān)懷等。人工智能的發(fā)展應(yīng)滿足人類自身發(fā)展的需要為人類謀取更多的利益,同時也不能破壞人類賴以生存的生活環(huán)境。最后,綜合考慮不同的文化、宗教、意識形態(tài)等方面,保持公平公正,與時俱進,時刻追尋技術(shù)的發(fā)展方向與科研成果,不斷開拓創(chuàng)新,制定出為合理的人工智能倫理準則。(二)建立健全的法律法規(guī)隨著人工智能在各個國家的蓬勃發(fā)展,隨之而來的一些負面影響與技術(shù)風險也逐漸顯露出來,因此,全球各國都在試圖建立相關(guān)法律法規(guī)以規(guī)范人工智能的發(fā)展方向,謀求技術(shù)的健康發(fā)展。立法是國家和地方層面歷史悠久的風險管理辦法,當前的人工智能還處于弱人工智能階段,技術(shù)的研發(fā)和應(yīng)用還處于起步階段,需要用法律規(guī)章制度規(guī)范和指導(dǎo)人工智能的發(fā)展,使人工智能朝著對人類與社會有益的方向健康穩(wěn)定發(fā)展。目前,很多國家已經(jīng)相繼開始建立人工智能相關(guān)的法律與規(guī)章制

溫馨提示

  • 1. 本站所有資源如無特殊說明,都需要本地電腦安裝OFFICE2007和PDF閱讀器。圖紙軟件為CAD,CAXA,PROE,UG,SolidWorks等.壓縮文件請下載最新的WinRAR軟件解壓。
  • 2. 本站的文檔不包含任何第三方提供的附件圖紙等,如果需要附件,請聯(lián)系上傳者。文件的所有權(quán)益歸上傳用戶所有。
  • 3. 本站RAR壓縮包中若帶圖紙,網(wǎng)頁內(nèi)容里面會有圖紙預(yù)覽,若沒有圖紙預(yù)覽就沒有圖紙。
  • 4. 未經(jīng)權(quán)益所有人同意不得將文件中的內(nèi)容挪作商業(yè)或盈利用途。
  • 5. 人人文庫網(wǎng)僅提供信息存儲空間,僅對用戶上傳內(nèi)容的表現(xiàn)方式做保護處理,對用戶上傳分享的文檔內(nèi)容本身不做任何修改或編輯,并不能對任何下載內(nèi)容負責。
  • 6. 下載文件中如有侵權(quán)或不適當內(nèi)容,請與我們聯(lián)系,我們立即糾正。
  • 7. 本站不保證下載資源的準確性、安全性和完整性, 同時也不承擔用戶因使用這些下載資源對自己和他人造成任何形式的傷害或損失。

評論

0/150

提交評論