《人工智能技術(shù)風(fēng)險的主要表現(xiàn)及成因探析綜述》9800字_第1頁
《人工智能技術(shù)風(fēng)險的主要表現(xiàn)及成因探析綜述》9800字_第2頁
《人工智能技術(shù)風(fēng)險的主要表現(xiàn)及成因探析綜述》9800字_第3頁
《人工智能技術(shù)風(fēng)險的主要表現(xiàn)及成因探析綜述》9800字_第4頁
《人工智能技術(shù)風(fēng)險的主要表現(xiàn)及成因探析綜述》9800字_第5頁
已閱讀5頁,還剩6頁未讀, 繼續(xù)免費閱讀

下載本文檔

版權(quán)說明:本文檔由用戶提供并上傳,收益歸屬內(nèi)容提供方,若內(nèi)容存在侵權(quán),請進行舉報或認領(lǐng)

文檔簡介

人工智能技術(shù)風(fēng)險的主要表現(xiàn)及成因分析綜述目錄TOC\o"1-2"\h\u31724人工智能技術(shù)風(fēng)險的主要表現(xiàn)及成因分析綜述 1531第一節(jié)人工智能技術(shù)風(fēng)險的主要表現(xiàn) 127256一人工智能引發(fā)數(shù)據(jù)泄露 17725第二節(jié)人工智能技術(shù)風(fēng)險產(chǎn)生的主要原因 525612一人工智能技術(shù)的局限性 514438(一)人工智能算法的不透明性 511937(二)人工智能技術(shù)自身發(fā)展的局限性 6645(一)公眾對道德風(fēng)險認知的影響 729135(二)科研人員對道德風(fēng)險認知的滯后 830468(一)人工智能倫理評價標準的缺失 929276(二)人工智能相關(guān)法律法規(guī)的滯后 10近年來,隨著互聯(lián)網(wǎng)技術(shù)突飛猛進的發(fā)展,人工智能的創(chuàng)新發(fā)展也越來越引人矚目,科研人員對其研究的熱情也在不斷高漲。2016年,谷歌(Google)、微軟(Microsoft)、亞馬遜(Amazon)、國際商業(yè)機器公司(IBM)和臉書(Facebook)作為美國科技領(lǐng)域的五大巨頭,他們聯(lián)合成立了人工智能聯(lián)盟,與相關(guān)科研人員和倫理學(xué)專家合作,從思想、技術(shù)等方面緩解人們對人工智能技術(shù)風(fēng)險的擔憂,促使人工智能的發(fā)展水平邁向更高的臺階。人工智能的出現(xiàn)使人類耳目一新,但是人類在享受人工智能帶來的便利與經(jīng)濟利益的同時,也要看到它帶來的不良影響與技術(shù)風(fēng)險。人類必須以審視的態(tài)度來對待人工智能的創(chuàng)新發(fā)展,從而對其提出更高的要求。第一節(jié)人工智能技術(shù)風(fēng)險的主要表現(xiàn)一人工智能引發(fā)數(shù)據(jù)泄露人工智能發(fā)展的一個必要條件是大數(shù)據(jù)的集合,而大數(shù)據(jù)是指那些通過傳統(tǒng)的模式和程序系統(tǒng)無法對其進行有效分析、攝取和管理的極大規(guī)模量的數(shù)據(jù)。這類數(shù)據(jù)涉及范圍廣泛,包括個人、企業(yè)和政府數(shù)據(jù)等,一旦泄露,將會給個人、企業(yè)公司和政府部門帶來巨大的風(fēng)險和挑戰(zhàn)。在大數(shù)據(jù)的支持下,人工智能技術(shù)發(fā)展迅速。由于技術(shù)發(fā)展的深度和廣度不平衡,在大數(shù)據(jù)收集、管理與使用等經(jīng)過的每一過程都可能存在一定的紕漏。在數(shù)據(jù)收集過程,根據(jù)不同的需求,不同程序系統(tǒng)所設(shè)定的收集數(shù)據(jù)的標準和精確度不同,從而就會有不符合標準的數(shù)據(jù)被剔除甚至泄露。例如,僅收集收入數(shù)據(jù)的程序就會根據(jù)個人收支情況進行篩選,將支出數(shù)據(jù)剔除,進而支出數(shù)據(jù)就可能被泄露。而且,現(xiàn)階段的一些人工智能技術(shù)通過對用戶信息的過度采集來實現(xiàn)最終目標。比如虛擬現(xiàn)實(VR)技術(shù)在使用過程中會收集用戶面部的物理特征,從而導(dǎo)致用戶個人隱私的公開。在數(shù)據(jù)分析過程中,同一數(shù)據(jù)在不同的算法中有不同的分析過程,因此,算法認為不重要的數(shù)據(jù)內(nèi)容將不進行分析甚至剔除,導(dǎo)致數(shù)據(jù)泄露。比如,2017年在五角大樓建立的亞馬遜S3云存儲數(shù)據(jù)庫中,由于人工智能程序的不匹配,三臺S3人工智能服務(wù)器的數(shù)據(jù)可以“公開下載”,其中包括18億美國主要社交論壇的個人語音記錄和登錄IP地址。一旦這些信息被濫用,將會給個人帶來無法想象的后果。在數(shù)據(jù)管理過程中,用戶的不當管理或惡意傳播數(shù)據(jù),都會導(dǎo)致在管理過程中的數(shù)據(jù)泄露。美國《紐約時報》在2018年3月17日報道,由于Facebook管理紕漏,一家名為“劍橋分析公司”的數(shù)據(jù)研究企業(yè)在尚未經(jīng)過權(quán)威機構(gòu)獲許的情況收集了Facebook內(nèi)超過五百萬用戶的隱私信息用于產(chǎn)品研發(fā),從而準確預(yù)測出選民的投票。而且人工智能對于數(shù)據(jù)用戶的權(quán)限設(shè)置不完善,無法識別數(shù)據(jù)的用途與使用方式,在某種程度上也會導(dǎo)致數(shù)據(jù)泄露。二人工智能挑戰(zhàn)人類的主體地位人工智能是人類主體意志的客體化對象,在一定程度上將會對人類的主體性地位形成挑戰(zhàn)。人類的主體性主要表現(xiàn)為其作為主體的能力、社會地位和角色。在當今時代的社會環(huán)境中,計算機程序在邏輯系統(tǒng)與規(guī)則方面完全超越了人類。人工智能不僅給人類社會帶來了翻天覆地的變化,同時,也可能讓人類陷入迷茫狀態(tài)。因為理性,人類擁有語言和思維方式,可以進行推理和判斷等思維活動,也會產(chǎn)生以主觀意識為主導(dǎo)的心理活動。人工智能對人類智能進行模擬主要通過模擬大腦的結(jié)構(gòu)和功能兩種模式,從而形成計算機程序系統(tǒng)自身獨特的認知能力與認知形式,這在一定程度上挑戰(zhàn)了人類的主體性地位。人類在各個方面都受制于技術(shù),身心自由被嚴重威脅,在某種程度上人類已成為人工智能的“奴隸”。馬爾庫塞(HerbertMarcuse)指出,“因為這種不自由既不是不合理的,也不是政治性的,而是對擴大舒適生活、提高勞動生產(chǎn)效率的技術(shù)設(shè)備的屈從?!薄裁馈绸R爾庫塞〔美〕馬爾庫塞:《單向度的人》,劉繼譯,上海:上海譯文出版社,1989年,第126頁。第一,自然語言方面。語言是人類大腦最具表現(xiàn)力的功能之一,通過語言表達,人類可以溝通交流、學(xué)習(xí)、獲取信息。而人工智能專心從事建立計算機程序理解人類自然語言的能力,或通過機器語言形成與自然語言等效的溝通交流方式。隨著深度學(xué)習(xí)的大力發(fā)展,人工智能憑借大數(shù)據(jù)技術(shù)解決了其語音識別的制約因素。同時,人工智能通過對長難句進行拆解分析,識別句子的語法模式,極大地提高了語言效率,因此,人工智能逐漸取代了人類在自然語言方面的優(yōu)勢。第二,思維方式方面。憑借理性,人類可以對事物做出邏輯、實證、經(jīng)驗的判斷,基于人類的歷史評判數(shù)據(jù)記錄,人工智能可以做出理性的選擇判斷。通過深度學(xué)習(xí),人工智能借助神經(jīng)網(wǎng)絡(luò)模型,在一定程度上可以達到對人類意圖的理解。而且人工智能不僅具有超越人類的思維判斷能力,隨著其功能特性的強大,人類將會對其產(chǎn)生過分依賴的心理,因此,人類就失去了在判斷、認知等思維方式方面的主體性地位。第三,心理方面。人工智能的本質(zhì)是模擬人類智能,而人類智能的特點是人類通過心靈、意識等方式與世界相關(guān)聯(lián),主要表現(xiàn)為意向性問題。意向性是人類心智成熟發(fā)展的基礎(chǔ),也是人類主體性地位的體現(xiàn)。人工智能研究的一個重要組成部分就是對意向性的模擬,將意向性理解為一種分散在人類與世界之間并聯(lián)系在一起的特殊的非實體屬性,實現(xiàn)與人類心靈同樣的作用。將意向性作為一種數(shù)據(jù)屬性,人工智能可以通過大數(shù)據(jù)技術(shù)更深層次的模擬人類大腦。因此可以看出,在某種意義上人工智能取代了人類心靈的獨特作用。根據(jù)以上分析,人工智能通過模擬人類大腦的功能和邏輯結(jié)構(gòu),完成了對在語言、思維方式和心理等方面人類獨特能力的實現(xiàn),人工智能與人類智能之間的界限也越來越模糊。而且隨著人工智能在情感領(lǐng)域的持續(xù)性進展,情感機器人、虛擬伴侶等產(chǎn)品的研發(fā)對人類在感情方面的獨特性產(chǎn)生巨大的影響。技術(shù)的研發(fā)就是弱化人類能力的過程。人類的語言、思維、心理已無必要。EllulJ.TheTechnologicalSystem.NewYork:Contnuum,1980,95.因此,隨著人工智能的快速發(fā)展,人類的主體性地位在逐漸被取代。EllulJ.TheTechnologicalSystem.NewYork:Contnuum,1980,95.三人工智能致使社會發(fā)展失衡人工智能的每一次進步都代表了人類認知的飛躍,然而隨著技術(shù)進步出現(xiàn)的異化問題,常常令人擔憂。人工智能作為一項新興技術(shù),它的創(chuàng)新發(fā)展在一定程度上也將給人類的生存帶來挑戰(zhàn),從而致使社會發(fā)展失衡??梢钥闯?,人工智能所帶來的已經(jīng)不完全是傳統(tǒng)意義上單純的挑戰(zhàn),更多的是人類與自然的斗爭,是通過對人工智能技術(shù)成果的應(yīng)用,人類社會的生產(chǎn)生活對人類的排擠,從而引發(fā)了一系列問題,例如:失業(yè)問題、安全問題、社會秩序問題等。第一,失業(yè)問題。從第一次工業(yè)革命開始,機器生產(chǎn)代替手工業(yè)生產(chǎn),由傳統(tǒng)的農(nóng)業(yè)社會逐漸轉(zhuǎn)向為工業(yè)社會,人類的勞動力得到解放,同時也導(dǎo)致了大批量的勞動者失業(yè)。與工業(yè)革命相比,人工智能的技術(shù)應(yīng)用是取代人類腦力勞動的過程,革命程度更深。勞動者是生產(chǎn)力的一個重要組成部分,但是他們正在被人工智能的技術(shù)產(chǎn)品所取代,勞動者就要面臨失業(yè)的風(fēng)險,從而人類的生活將會變得更加情緒化,失業(yè)人員的生活難以維持,社會財富分配更加不均等。因此,人工智能的技術(shù)應(yīng)用將對我們的社會生產(chǎn)生活造成一定的影響,為社會平衡發(fā)展帶來不穩(wěn)定性因素。第二,安全問題?,F(xiàn)階段,隨著互聯(lián)網(wǎng)的覆蓋范圍不斷擴展,人工智能在家庭、教育、醫(yī)療、交通等很多領(lǐng)域得到了大力發(fā)展。人工智能的安全問題主要是指在人工智能應(yīng)用過程中出現(xiàn)的危害人類安全及環(huán)境破壞等不良后果,主要有四個方面:1、網(wǎng)絡(luò)安全。由于互聯(lián)網(wǎng)是開放、自由與共享的,黑客可以通過計算機網(wǎng)絡(luò)入侵計算機程序并進行攻擊,導(dǎo)致人工智能程序出現(xiàn)混亂,不能正常運行;2、信息安全。人機交互是人工智能獲取信息、數(shù)據(jù)的主要途徑,而這一過程可能加劇虛假信息的傳播;3、經(jīng)濟與金融安全。人工智能通過存儲并分析大量數(shù)據(jù),可以完成那些反非法融資系統(tǒng)無法完成的任務(wù)。同時,系統(tǒng)可以通過人工智能的識別功能與檢測異常功能采集金融機構(gòu)的一些非正常數(shù)據(jù),完善反非法融資系統(tǒng)的結(jié)構(gòu)框架,避免非法融資威脅;王志偉、程之年、郝威巍、丁宏:《新美國安全中心發(fā)布<人工智能與國家安全>報告》,《防務(wù)視點》2017年第10期,王志偉、程之年、郝威巍、丁宏:《新美國安全中心發(fā)布<人工智能與國家安全>報告》,《防務(wù)視點》2017年第10期,第56-58頁。第三,社會秩序問題。社會秩序是指社會處于規(guī)律性的變化中,不斷向前發(fā)展進步,社會內(nèi)部各個要素維持著相對平衡、穩(wěn)定的狀態(tài)。傳統(tǒng)的人類生活空間是由物質(zhì)與社會兩部分組成的二維空間,其秩序是由人類所制定或領(lǐng)導(dǎo)的,體現(xiàn)為人與人、人與物之間的相互作用和影響,而社會秩序可以通過多種手段來建立,例如:政治、法律、宗教等。隨著人工智能的出現(xiàn)與發(fā)展,計算機網(wǎng)絡(luò)成為人類日常生活中必不可少的一部分,將人類生活空間轉(zhuǎn)變?yōu)橛晌镔|(zhì)、社會和網(wǎng)絡(luò)組成的三維空間。在人工智能技術(shù)研發(fā)與應(yīng)用的過程中,由于網(wǎng)絡(luò)空間的秩序的相關(guān)法律法規(guī)與倫理規(guī)范制度的不完善,不斷引發(fā)新的問題,從而可能導(dǎo)致人類社會秩序的紊亂。四人工智能給社會帶來新的倫理問題從人類技術(shù)發(fā)展史的角度看,一項新技術(shù)的出現(xiàn)通常都會帶來新的倫理問題。雖然人工智能的發(fā)展將受到計算機程序算法在一定程度上的制約,到目前為止,真正的“強”人工智能尚未出現(xiàn),僅僅只是弱人工智能的跨越式發(fā)展,人類也開始逐漸體會到技術(shù)發(fā)展所帶來的挑戰(zhàn)。因此,人工智能給社會帶來的倫理風(fēng)險以及對社會穩(wěn)定發(fā)展產(chǎn)生的巨大影響等一系列問題都將引發(fā)研究專家學(xué)者們的高度重視。2016年,美國法院使用算法孔帕(Compas)預(yù)測罪犯在未來再次犯罪的可能性,黑人被預(yù)測出在未來暴力犯罪的可能性比其他種族人群高出77%,證明了人工智能算法帶來的種族歧視問題。微軟聊天機器人泰(Tay)在與推特(Twitter)用戶交流的過程中,口頭辱罵,散布女權(quán)主義、種族主義信息等,以及人工智能股票交易軟件造成數(shù)萬億美元崩盤;用于抓取汽車零部件的機器人抓住并殺死了一名男性等等。這些現(xiàn)象都表明,人工智能可能帶來社會不公、數(shù)據(jù)鴻溝等各種新的社會倫理問題??偠灾?,人工智能的技術(shù)風(fēng)險通??梢猿霈F(xiàn)在政治、經(jīng)濟、文化、社會等各個領(lǐng)域。在政治領(lǐng)域,人工智能可以針對不同選民的政治性認知提供不同的信息,干預(yù)或操控選民投票;在經(jīng)濟領(lǐng)域,通過人工智能的研發(fā)與使用,獲取更多的利益,原有的經(jīng)濟秩序被破壞,貧富差距不斷擴大;在文化領(lǐng)域,人類越來越沉迷于人工智能技術(shù)產(chǎn)品,線上聊天、購物、打游戲,人與人之間面對面交流的次數(shù)越來越少;在社會領(lǐng)域,人工智能的使用造成就業(yè)崗位大批量減少,社會發(fā)展不平衡;在安全領(lǐng)域,人工智能的使用對未來人類的生命安全造成極大的威脅。除此之外,人工智能在醫(yī)療、教育、商業(yè)等領(lǐng)域都會帶來一定的風(fēng)險。第二節(jié)人工智能技術(shù)風(fēng)險產(chǎn)生的主要原因雖然經(jīng)過了半個多世紀的發(fā)展,人工智能的發(fā)展尚未完善,人工智能的創(chuàng)新成果基本停留在弱人工智能階段,真正可以進行深度學(xué)習(xí),并且具有自我意識的強人工智能幾乎不存在。在實踐中,人工智能的技術(shù)風(fēng)險問題時有發(fā)生,其原因有人工智能技術(shù)的局限,技術(shù)主體的道德風(fēng)險認知不到位,人工智能監(jiān)督管理機制不健全,人工智能相關(guān)制度規(guī)范不完善等。一人工智能技術(shù)的局限性(一)人工智能算法的不透明性現(xiàn)階段人工智能的正常運行主要通過算法來實現(xiàn),而算法是由計算機程序語言編寫的,其中的含義與規(guī)則通常是難以理解的,因此,算法具有不透明性,這是可能引發(fā)人工智能技術(shù)風(fēng)險的一個客觀原因。算法的不透明性主要表現(xiàn)為在機器學(xué)習(xí)算法中存在的一個隱蔽層,即算法“黑箱”,在“黑箱”內(nèi)部,無法得知其由輸入到輸出的運行機制,而根本原因主要包括:1、算法代碼編寫的專業(yè)性;2、機器學(xué)習(xí)算法與人類推理和認知過程的不匹配;3、企業(yè)公司或機構(gòu)的自我保護或刻意隱藏欺詐的行為。這些原因都可能導(dǎo)致算法的不透明性。因此,在算法被用于處理解決一些問題時,可能出現(xiàn)令人意想不到的結(jié)果。比如,2015年,谷歌圖片應(yīng)用程序(GooglePhotos)的圖片自動分類處理器將一名非裔美國人的照片標記為“大猩猩”(Gorillas)。伯勒爾(JennaBurrell)認為,這一帶有種族主義的行為并不是因為“算法歧視”,而是因為人類是對圖片的整體是立即的潛意識的視覺識別過程,機器視覺算法是將圖片的整體感知轉(zhuǎn)換為對局部像素方格的概率計算,在一些特定的場景中,可能就會得到與人類認知完全不同的結(jié)果,算法并不考慮人類的理解。BurrellJ.BurrellJ.“Howthemachine‘thinks’:Understandingopacityinmachinelearningalgorithms”.BigData&Society,2016,3(1):1-12.荷蘭學(xué)者泰勒(LinnetTaylor)提出,“算法分組的目的可能不是訪問或識別個體,而是通過識別群體的某些偏好或特征,有效地自我選擇特定的干預(yù)措施,在認識論上是精確的。在此過程中,每個人包括算法設(shè)計人員可能都不知道個人數(shù)據(jù)是否被濫用或誤用,現(xiàn)有的數(shù)據(jù)保護還尚未涉及到集體的隱私保護問題。”TaylorL,FloridiL&vanderSlootB.GroupPrivacy:NewChallengesofDataTechnologies.Switzerland:SpringerInternationalPublishing,2017,13-36.因此,算法的不透明性是人工智能創(chuàng)新TaylorL,FloridiL&vanderSlootB.GroupPrivacy:NewChallengesofDataTechnologies.Switzerland:SpringerInternationalPublishing,2017,13-36.(二)人工智能技術(shù)自身發(fā)展的局限性隨著人工智能的發(fā)展,人類生活水平的提高,人工智能正在迅速成為我們?nèi)粘I畹墓逃胁糠种苯踊蜷g接地影響了每個人的生活方式,并正在塑造明天的未來。但是目前人工智能的發(fā)展還處于弱人工智能階段,其自身還存在著一定的局限性,人類對人工智能在未來的發(fā)展方向還沒有做出清晰明確的規(guī)劃。與其他任何技術(shù)一樣,人工智能作為人類主體意志的客體對象,在最初就與人類對立。這一局限是任何技術(shù)都必須面對的。此外,人工智能的目的是通過計算機算法對人類智能進行模擬,以展示機器的智能。因此,兩個對立主體相碰撞必然會帶來一些不良影響。對于人工智能自身發(fā)展的局限性,一般可以從數(shù)學(xué)基礎(chǔ)、計算機程序、智能化形成方法、技術(shù)實現(xiàn)等方面來分析。從數(shù)學(xué)基礎(chǔ)的局限來看,數(shù)學(xué)是構(gòu)成人工智能設(shè)計、研發(fā)、應(yīng)用、創(chuàng)新的基礎(chǔ)。在人工智能創(chuàng)新發(fā)展過程中出現(xiàn)的某些問題需要完善、成熟的計算數(shù)學(xué)體系以解決?;诂F(xiàn)階段計算數(shù)學(xué)的發(fā)展現(xiàn)狀,還不能夠很好的滿足人工智能創(chuàng)新發(fā)展的需要,因此,在保持數(shù)學(xué)精確性的同時,也要大力發(fā)展計算數(shù)學(xué)。就計算機程序方面而言,計算機程序系統(tǒng)通過一系列的算法、數(shù)據(jù)產(chǎn)生出的結(jié)果是“精準”,而人工智能的技術(shù)創(chuàng)新成果是對人類智能的模擬,以“類人”為主,在一定程度上會帶有一些“感性”色彩。換句話說,人工智能之“智”主要表現(xiàn)在其“類人”的“感性”上,而計算機則“精準”有余,“感性”不足。在智能化形成方法方面,目前,人工智能技術(shù)產(chǎn)品的研究和生產(chǎn)還沒有一套統(tǒng)一明確的方法,科研人員基于不同的理念、運用不同的方法、結(jié)合不同的工作原理研究出同樣一款人工智能技術(shù)產(chǎn)品,因此,這也必然給人工智能的應(yīng)用和發(fā)展帶來一些混亂和局限。而技術(shù)實現(xiàn)的局限性植根于人工智能發(fā)展時間的短暫,科研人員相關(guān)知識儲備的欠缺,其研發(fā)也存在著一定的局限性。由此可以看出,人工智能自身的局限性不僅可能阻礙人工智能的創(chuàng)新發(fā)展,同時,人工智能可能產(chǎn)生的技術(shù)風(fēng)險也使人類對其表示擔憂。因此,對于人工智能自身的局限性,科研人員應(yīng)當以長遠的眼光來對待,以尋求技術(shù)發(fā)展的持續(xù)突破。二技術(shù)主體的道德風(fēng)險認知不到位(一)公眾對道德風(fēng)險認知的影響由于對新技術(shù)本身的認知有限,公眾對技術(shù)風(fēng)險的感知主要是根據(jù)以往的經(jīng)驗而做出的直覺判斷。人類對于一項新興技術(shù)的出現(xiàn)往往會持懷疑的態(tài)度,對其帶來的技術(shù)風(fēng)險更是極度恐懼。而人類對科學(xué)技術(shù)的認知和判斷主要來源于新聞媒體的報道或自己的主觀意識,在很大程度上受到社會文化、社會輿論、社會心理等因素的影響。例如,阿爾法狗與棋手李世石、柯潔的圍棋大戰(zhàn)皆以人敗機勝為結(jié)局,從而引發(fā)了公眾對人工智能技術(shù)產(chǎn)品的大討論。很大一部分人認為人工智能的創(chuàng)新發(fā)展將會逐漸超越人類發(fā)展的腳步,人工智能的創(chuàng)新成果最終會凌駕于人類之上,威脅人類的生命安全。由此,人類對于人工智能的發(fā)展趨勢表示擔憂,對這種新興技術(shù)風(fēng)險感到惶恐不安,從而產(chǎn)生基于風(fēng)險社會影響的恐懼心理。事實上,現(xiàn)階段的人工智能仍處于弱人工智能的階段,生產(chǎn)應(yīng)用于世的人工智能技術(shù)產(chǎn)品都處在人類的可控范圍內(nèi)。即使阿爾法狗取得了勝利也并不意味著人工智能已經(jīng)完全超越人類,究其根源阿爾法狗是由人類所研制的,它所擅長的圍棋競技也是由人類將算法編入其程序系統(tǒng)的,是由人類所操控的。因此,人工智能的技術(shù)產(chǎn)品是結(jié)合人類的智慧與上千年的文化積累所創(chuàng)造出來的。公眾對人工智能誤解與恐懼的最根本的原因就是公眾對人工智能還沒有全面透徹的了解,而社會公眾對人工智能的偏見與錯誤認識也將間接地影響相關(guān)人員對技術(shù)風(fēng)險的判斷和風(fēng)險防范政策的制定。從另一角度來說,一部分人僅僅只是享受在使用人工智能技術(shù)產(chǎn)品之后獲得的便捷與利益,并沒有真正深入了解技術(shù)本身可能帶來的一些不良后果,對道德風(fēng)險的認知滯后以及相關(guān)法律知識欠缺,導(dǎo)致一些新技術(shù)產(chǎn)品為引發(fā)危害社會的各種不法事故留下了空間,同時,也為人們的公共利益和財產(chǎn)安全遭受威脅埋下了隱患。因此,為了實現(xiàn)人工智能的可持續(xù)發(fā)展,公眾應(yīng)通過新聞、網(wǎng)絡(luò)、報紙等渠道及時關(guān)注人工智能領(lǐng)域的相關(guān)信息,補充相關(guān)的法律知識,提高自身的道德修養(yǎng)與文化素質(zhì),以正確理解并積極應(yīng)對人工智能的技術(shù)風(fēng)險。(二)科研人員對道德風(fēng)險認知的滯后由于人工智能的發(fā)展速度之快,受到公眾、新聞媒體等社會各界輿論的壓力?,F(xiàn)代最偉大的物理學(xué)家之一霍金警告:“人工智能的過度發(fā)展就可能預(yù)示著人類最終被超越”。這樣的預(yù)言迫使人類換個角度重新審視人工智能這項高新技術(shù),從而將注意力從技術(shù)本身轉(zhuǎn)移到相關(guān)的科研人員身上。一項新技術(shù)的問世,為了確保其在社會生活中的應(yīng)用可以真正的為人類社會服務(wù),使人類受益,必然需要具有正確世界觀、人生觀、價值觀和高度道德責(zé)任感的科研人員來掌控從技術(shù)的設(shè)計、研發(fā)、生產(chǎn)到應(yīng)用這一過程?!半S著人工智能的飛速發(fā)展,在特定的歷史條件和階段人類自身的認知能力總是受限制的,而人類理性的有限性體現(xiàn)在人類對人工智能技術(shù)風(fēng)險認知的滯后性”。閆坤如:《人工智能的道德風(fēng)險及其規(guī)避路徑》,《上海師范大學(xué)學(xué)報(哲學(xué)社會科學(xué)版)》2018第閆坤如:《人工智能的道德風(fēng)險及其規(guī)避路徑》,《上海師范大學(xué)學(xué)報(哲學(xué)社會科學(xué)版)》2018第2期,第42頁??蒲腥藛T之所以缺乏道德責(zé)任感,主要有三個方面的原因:1、由于政治、經(jīng)濟利益等因素的限制,科研人員無法做出正確的決策?,F(xiàn)階段,政治、經(jīng)濟、文化、社會等因素越來越成為科技活動能否持續(xù)發(fā)展的先決條件,從而,一些科研人員為了順從政治、經(jīng)濟利益等,做出可能違背倫理道德或產(chǎn)生不良后果的決策;2、科研人員忽視了對技術(shù)風(fēng)險的預(yù)測、評估與規(guī)避。由于人類認知的有限性,人類可能無法全面了解一項新興技術(shù)的應(yīng)用給社會帶來的各種問題,因此,科研人員對技術(shù)的風(fēng)險評估是必不可少的。3、科研人員的科研不端行為、利欲熏心等。對實際應(yīng)用和利益追求,是技術(shù)的最根本動力之所在,完全擺脫利益的技術(shù)研究幾乎沒有。這樣,個別科研人員為了利益追求而不顧科學(xué)道德也是在所難免的。三人工智能監(jiān)督管理機制不健全縱觀人類社會的技術(shù)發(fā)展史,如果一項技術(shù)的產(chǎn)生沒有合理有效的監(jiān)督管理機制對其進行監(jiān)管,那么這項技術(shù)在其創(chuàng)新發(fā)展過程中將可能出現(xiàn)異化,從而將會給人類社會帶來一定的危害。隨著人工智能的創(chuàng)新發(fā)展,極其顯著的表現(xiàn)出了技術(shù)的“雙刃劍”屬性。一方面,人工智能具有改善人們福利和福祉的潛力,為積極的可持續(xù)全球經(jīng)濟活動做出貢獻,提高創(chuàng)新和生產(chǎn)力,并幫助應(yīng)對關(guān)鍵的全球性挑戰(zhàn)。它部署在許多部門,從生產(chǎn)、金融和運輸?shù)结t(yī)療保健和安全。另一方面,人工智能也給我們的社會和經(jīng)濟等方面帶來了一些挑戰(zhàn),特別是在經(jīng)濟變化和不平等、競爭、勞動力市場的過渡以及對民主和人權(quán)的影響等。因此,對于人工智能的創(chuàng)新發(fā)展需要完善的監(jiān)督管理機制對其進行預(yù)測評估并積極有效地實施監(jiān)管,否則那些監(jiān)督管理的的真空地帶將可能會出現(xiàn)一些威脅人類社會生產(chǎn)生活的不利因素。對于人工智能的監(jiān)管從根本上說是對人工智能技術(shù)風(fēng)險的防范,對人工智能創(chuàng)新發(fā)展的全過程的監(jiān)督管理,側(cè)重于解決人工智能帶來的新的風(fēng)險。然而,在傳統(tǒng)的監(jiān)管模式下,監(jiān)管者專業(yè)知識儲備與能力的進步已無法與技術(shù)創(chuàng)新發(fā)展的步伐同步,同時由于一些利益相關(guān)者的參與以及科技公司權(quán)力的增加,使得傳統(tǒng)的公共監(jiān)管機構(gòu)更難以對人工智能的發(fā)展進行監(jiān)管,而且目前大部分的人工智能研發(fā)與投資都來自于谷歌、微軟、亞馬遜等大型私營企業(yè)公司,這也加劇了人工智能的不透明性。因此,政府部門或公共監(jiān)管機構(gòu)必須開發(fā)新的監(jiān)管模式。為了進行適當?shù)娘L(fēng)險分析,監(jiān)管機構(gòu)必須對監(jiān)管目標有足夠的知識和理解,以便能夠?qū)Ω鞣N風(fēng)險類別進行分類與應(yīng)對。四人工智能相關(guān)制度規(guī)范不完善(一)人工智能倫理評價標準的缺失科學(xué)技術(shù)的發(fā)展與人類社會的發(fā)展相互促進、相輔相成。當人工智能的發(fā)展符合人類社會發(fā)展的要求和標準時,有利于其良好健康發(fā)展,為人類社會謀福利。同樣,人類社會的不斷發(fā)展進步也為人工智能的創(chuàng)新發(fā)展鋪平了道路。隨著人工智能在人類日常生活中的廣泛應(yīng)用,人類必須采取更加審慎的態(tài)度看待人工智能,從而及時防范與應(yīng)對技術(shù)帶來的嚴重不良后果。人工智能之所以會給社會帶來新的倫理問題,是因為對它沒有作出有效的道德和倫理評估。人工智能是一項高新技術(shù),在此之前人類對于人工智能道德倫理規(guī)范的構(gòu)建幾乎是不存在的。在早期的一些哲學(xué)家和研究人工智能的相關(guān)學(xué)者雖然對人工智能的潛在技術(shù)風(fēng)險做出過預(yù)測與假設(shè),然而隨著技術(shù)的持續(xù)創(chuàng)新與人類社會的發(fā)展,其發(fā)展現(xiàn)狀與假設(shè)出現(xiàn)不一致也是在所難免的。而且,人工智能的發(fā)展步伐也已經(jīng)遠遠超越了人類建立道德倫理評價標準的速度??茖W(xué)技術(shù)的發(fā)展進步在符合社會發(fā)展的道德倫理規(guī)范時,才能朝著正確的方向健康發(fā)展。因此,由于道德評價標準的模糊與不完善,人工智能在沒有規(guī)范約束的情況下飛速發(fā)展前行,給人類社會帶來了諸多風(fēng)險與挑戰(zhàn)。對于將道德倫理標準嵌入人工智能的方式主要有兩種:“自上而下”和“自下而上”?!白陨隙隆笔菍σ呀⒌牡赖聜惱碓瓌t進行復(fù)雜編碼,將編碼嵌入到人工智能程序系

溫馨提示

  • 1. 本站所有資源如無特殊說明,都需要本地電腦安裝OFFICE2007和PDF閱讀器。圖紙軟件為CAD,CAXA,PROE,UG,SolidWorks等.壓縮文件請下載最新的WinRAR軟件解壓。
  • 2. 本站的文檔不包含任何第三方提供的附件圖紙等,如果需要附件,請聯(lián)系上傳者。文件的所有權(quán)益歸上傳用戶所有。
  • 3. 本站RAR壓縮包中若帶圖紙,網(wǎng)頁內(nèi)容里面會有圖紙預(yù)覽,若沒有圖紙預(yù)覽就沒有圖紙。
  • 4. 未經(jīng)權(quán)益所有人同意不得將文件中的內(nèi)容挪作商業(yè)或盈利用途。
  • 5. 人人文庫網(wǎng)僅提供信息存儲空間,僅對用戶上傳內(nèi)容的表現(xiàn)方式做保護處理,對用戶上傳分享的文檔內(nèi)容本身不做任何修改或編輯,并不能對任何下載內(nèi)容負責(zé)。
  • 6. 下載文件中如有侵權(quán)或不適當內(nèi)容,請與我們聯(lián)系,我們立即糾正。
  • 7. 本站不保證下載資源的準確性、安全性和完整性, 同時也不承擔用戶因使用這些下載資源對自己和他人造成任何形式的傷害或損失。

最新文檔

評論

0/150

提交評論