盤(pán)點(diǎn):人類對(duì)人工智能十大誤解_第1頁(yè)
盤(pán)點(diǎn):人類對(duì)人工智能十大誤解_第2頁(yè)
盤(pán)點(diǎn):人類對(duì)人工智能十大誤解_第3頁(yè)
已閱讀5頁(yè),還剩3頁(yè)未讀, 繼續(xù)免費(fèi)閱讀

下載本文檔

版權(quán)說(shuō)明:本文檔由用戶提供并上傳,收益歸屬內(nèi)容提供方,若內(nèi)容存在侵權(quán),請(qǐng)進(jìn)行舉報(bào)或認(rèn)領(lǐng)

文檔簡(jiǎn)介

【計(jì)算機(jī)論文】盤(pán)點(diǎn):人類對(duì)人工智能十大誤解

1.“我們永遠(yuǎn)不可能發(fā)明出和人類智力相當(dāng)?shù)腁I?!痹谝恍┨囟I(lǐng)域,比如說(shuō)國(guó)際象棋、圍棋、股市交易以及人機(jī)對(duì)話等,我們已經(jīng)發(fā)明出與人腦匹敵或超越人腦的計(jì)算機(jī)。電腦和驅(qū)動(dòng)他們的運(yùn)算法則只會(huì)變得更好,電腦精通幾乎任何人類能力只是時(shí)間問(wèn)題。紐約大學(xué)心理學(xué)家蓋瑞?馬庫(kù)斯(GaryMarcus)曾說(shuō)過(guò),幾乎所有研究AI的人都認(rèn)為機(jī)器最終將取代人類?!翱駸岱肿雍蛻岩烧撜咧g唯一的不同是對(duì)時(shí)間早晚的判斷?!蔽磥?lái)主義者,像雷?庫(kù)茲韋爾,認(rèn)為機(jī)器統(tǒng)治人類會(huì)在幾十年后發(fā)生,而其他人則說(shuō)可能得幾個(gè)世紀(jì)。最初設(shè)想的機(jī)器智能可能缺乏一種或多種這些屬性。最終,我們可能制造出極其聰明的AI,但是它不能通過(guò)主觀的自我意識(shí)感受這個(gè)世界。沙納罕說(shuō)也許能夠?qū)⒅橇鸵庾R(shí)結(jié)合在一個(gè)機(jī)器內(nèi),但是我們也要認(rèn)識(shí)到智力和意識(shí)終究是兩種不同的概念。AI懷疑論者認(rèn)為生物腦在本質(zhì)上是有獨(dú)特之處的,這是無(wú)法解決的科技難題,其實(shí)這些是沒(méi)有說(shuō)服力的。我們的大腦是生物學(xué)意義的機(jī)器,但也不過(guò)是機(jī)器。他們存在于現(xiàn)實(shí)世界里,就要遵循基本的物理法則。人腦沒(méi)有東西是不可知的。2.“人工智能將會(huì)有意識(shí)。關(guān)于機(jī)器智能的一個(gè)普遍假設(shè)是:將來(lái)機(jī)器智能會(huì)有意識(shí)。也就是說(shuō),機(jī)器會(huì)像人一樣思考。評(píng)論家們,如微軟創(chuàng)始人之一的保羅?艾倫,則更進(jìn)一步認(rèn)為我們還未達(dá)到人工通用智能,即機(jī)器能夠像人類一樣執(zhí)行任何需要智力的任務(wù),因?yàn)槲覀內(nèi)狈﹃P(guān)于意識(shí)的科學(xué)理論。正如倫敦帝國(guó)理工學(xué)院認(rèn)知機(jī)器人研究者穆雷?沙納罕(MurrayShanahan)所指出的那樣,我們應(yīng)該避免混淆認(rèn)知和意識(shí)這兩種概念?!疤骄恳庾R(shí)確實(shí)是一門(mén)迷人且重要的課題,但是我認(rèn)為意識(shí)對(duì)于人類水平的人工智能來(lái)說(shuō)是并不是必要的。或者更精確地說(shuō),我們用‘意識(shí)’這個(gè)詞來(lái)指代心理的和認(rèn)知的屬性,這些在人類身上是捆綁在一起的。”最初設(shè)想的機(jī)器智能可能缺乏一種或多種這些屬性。最終,我們可能制造出極其聰明的AI,但是它不能通過(guò)主觀的自我意識(shí)感受這個(gè)世界。沙納罕說(shuō)也許能夠?qū)⒅橇鸵庾R(shí)結(jié)合在一個(gè)機(jī)器內(nèi),但是我們也要認(rèn)識(shí)到智力和意識(shí)終究是兩種不同的概念。不能僅僅因?yàn)橐慌_(tái)機(jī)器通過(guò)了圖靈測(cè)試,就認(rèn)為它有意識(shí)。先進(jìn)的AI留給我們的印象是它們是有意識(shí)的,但是再先進(jìn)的AI對(duì)于自己的認(rèn)識(shí)也不會(huì)比一塊石頭或一個(gè)計(jì)算器多。3.“超級(jí)人工智能會(huì)很友好。”哲學(xué)家康德認(rèn)為智能與道德密不可分。神經(jīng)學(xué)家DavidChalmers在他的論文《非凡的哲學(xué)分析》中吸取了康德的著名觀點(diǎn),并將其運(yùn)用于人工智能的提升中。如果這個(gè)觀點(diǎn)是正確的話,我們可以想到AI因智力爆發(fā)性增長(zhǎng)致使道德感急劇升高的狀況??梢韵氲?,ASI系統(tǒng)變得超級(jí)智能的同時(shí)會(huì)具有無(wú)上的道德感,因此我們可以認(rèn)為它們是善良的。但是,這個(gè)“先進(jìn)的AI從本質(zhì)上將是好的、開(kāi)明的”的觀點(diǎn)是站不住腳的。正如Armstrong指出,存在很多聰明的戰(zhàn)犯。智力和道德感間的關(guān)系在人類中貌似并不存在,所以他懷疑該假設(shè)在其他智能形式中,恐怕也是難以成立的。“聰明的人的不道德行為可以比他們的笨蛋同胞造成更大規(guī)模的破壞,”他說(shuō)?!爸橇χ皇墙o了他們變得更壞的能力,它并沒(méi)有把他們變成好人?!?.“簡(jiǎn)單的程序修補(bǔ)就能解決AI的控制難題。假設(shè)創(chuàng)造出比人類更偉大的AI,我們將面臨一個(gè)嚴(yán)重的問(wèn)題,那就是:控制問(wèn)題。如何在家里安置以及控制ASI?如何確保ASI對(duì)人類是友好的?在這些問(wèn)題上,未來(lái)主義者和AI理論家們完全不知所措。最近,佐治亞理工學(xué)院的研究人員天真地認(rèn)為AI可以通過(guò)閱讀簡(jiǎn)單的故事來(lái)學(xué)習(xí)人類的價(jià)值觀和社會(huì)習(xí)俗。這可能遠(yuǎn)不是讀幾個(gè)小故事能解決的?!叭藗兺扑]了很多可能解決整個(gè)AI控制問(wèn)題的簡(jiǎn)單技巧,”阿姆斯特朗說(shuō)。示例包括為ASI編寫(xiě)取悅?cè)祟惖某绦?,或者僅僅使ASI作為人類的工具使用。再或者,我們可以將積極的概念,比如愛(ài)或尊敬整合進(jìn)他的源代碼。為了防止ASI對(duì)社會(huì)只有單一偏激的看法,我們可以給它編寫(xiě)欣賞智力、文化和社會(huì)多樣性的程序。但是這些方法要么太過(guò)簡(jiǎn)單,這就好比試圖給復(fù)雜的人類喜惡確定一個(gè)簡(jiǎn)單膚淺的定義,要么就是把復(fù)雜的人類價(jià)值觀生硬地壓縮成一個(gè)簡(jiǎn)單的字詞或想法。比如,對(duì)“尊敬”這個(gè)詞,要確定內(nèi)涵一致又普遍接受的定義是極度困難的。“并不是說(shuō)這些簡(jiǎn)單的技巧是沒(méi)用的。這些對(duì)策里面有很多給研究指明了道路,對(duì)解決這個(gè)終極難題有所幫助。但是這些只是想法,具體的操作還需要我們做更多的開(kāi)發(fā)研究工作?!卑⒛匪固乩收f(shuō)。5.“人工超智能很聰明,不會(huì)犯錯(cuò)。AI研究者兼SurfingSamurai機(jī)器人開(kāi)發(fā)者RichardLoosemore認(rèn)為大多數(shù)假設(shè)的AI毀滅世界的情景都不符合邏輯。人們總假想在這種情景下,AI可能會(huì)說(shuō):“我知道毀滅人類文明只是我的設(shè)計(jì)故障,但我不得不這么做?!盠oosemore指出如果AI像這樣打算毀滅人類時(shí),那它一生會(huì)很多這樣的邏輯矛盾,也會(huì)因此摧毀自己的知識(shí)庫(kù),導(dǎo)致自己變得愚蠢,而不足以對(duì)我們?cè)斐蓚?。他還斷言,那些認(rèn)為“AI只會(huì)按照指定程序做事”的人,與當(dāng)初用這樣的話評(píng)價(jià)電腦不具備靈活性的人一樣,犯了同樣的錯(cuò)誤。就職于牛津大學(xué)人類未來(lái)研究所(FutureofHumanityInstitute)的皮特?麥金泰爾(PeterMcIntyre)和斯圖爾特?阿姆斯特朗(StuartArmstrong)都對(duì)此有不同看法。他們認(rèn)為人工智能將很大程度上受到編程的限制。他們相信AI也會(huì)犯錯(cuò)誤,或者他們還沒(méi)有聰明到了解人類想從他們那里得到什么。“從定義上講,超級(jí)人工智能(ASI)是一個(gè)擁有智力的載體,它在各個(gè)相關(guān)領(lǐng)域都要比最優(yōu)秀的人類大腦更聰明。”麥金泰爾如是告訴Gizmodo?!八鼘⑹智宄覀冇盟麄儊?lái)做什么。”麥金泰爾和阿姆斯特朗相信AI只會(huì)做程序編寫(xiě)的任務(wù),如果它能變得足夠聰明的話,它將能理解依照程序完成任務(wù)與領(lǐng)略規(guī)則精髓的不同,也將能理解人類的意圖。麥金泰爾把人類未來(lái)的困境比作老鼠的困境。老鼠想要在人類居所尋求食物和棲息地,人類不愿居室內(nèi)有老鼠,兩者沖突。麥金泰爾說(shuō),“正如我們明白老鼠的目的,超級(jí)智能系統(tǒng)也能知道人類想要的,但仍對(duì)此漠不關(guān)心。”6.“我們將被超級(jí)人工智能毀滅。”沒(méi)有任何證據(jù)表明我們會(huì)被AI毀滅或無(wú)法控制它們。正如AI研究者EliezerYudkowsky所說(shuō):“AI既不會(huì)恨,也不會(huì)愛(ài),但人類由原子構(gòu)成的,除了智能以外,人類還有感情?!迸=虼髮W(xué)的哲學(xué)學(xué)者NickBostrom在他的書(shū)《超級(jí)智能:路徑、危險(xiǎn)與策略》中提到,真正的超級(jí)人工智能一旦完成,將比以往人類的任何發(fā)明都危險(xiǎn)。一些著名的學(xué)者如ElonMusk,BillGates,andStephenHawking(后者曾警告AI也許是人類史上最糟糕的錯(cuò)誤)也提出了警告。但沒(méi)有什么事是可以確定的,沒(méi)人知道AI將采取什么行動(dòng)以及如何威脅到人類。正如Musk指出的,人工智能可以用來(lái)控制、調(diào)節(jié)和監(jiān)視其它人工智能。也許可以它灌輸人類的價(jià)值觀,使之毫無(wú)保留地對(duì)人類保持友好。7.“我們不應(yīng)該害怕AI。一月份,臉書(shū)創(chuàng)辦者馬克扎克伯格說(shuō)我們不應(yīng)該害怕AI,AI會(huì)為世界帶來(lái)難以估量的好處。扎克伯格只說(shuō)對(duì)了一半。我們隨時(shí)準(zhǔn)備從AI身上收獲巨大的利益——從自動(dòng)駕駛汽車到新藥物的研制,但是沒(méi)有人能保證AI的所有影響都是良性的。高度智能化的系統(tǒng)也許了解某一特定任務(wù)的一切,例如解決令人厭煩的財(cái)務(wù)問(wèn)題,或者黑進(jìn)對(duì)手的系統(tǒng)。但是在這些特殊領(lǐng)域之外,高度智能系統(tǒng)會(huì)變得極其無(wú)知無(wú)覺(jué)。谷歌的DeepMind系統(tǒng)精通圍棋,但除圍棋以后,它在其他方面沒(méi)有探索的理性和能力。8.“AI和機(jī)器人造成的風(fēng)險(xiǎn)是相同的?!边@是一個(gè)特別常見(jiàn)的錯(cuò)誤認(rèn)識(shí),不加鑒別發(fā)布消息的媒體和好萊塢電影比如《終結(jié)者》系列使這一錯(cuò)誤更加深入人心。如果一個(gè)超級(jí)人工智能比如天網(wǎng)想要?dú)缛祟?,它不?huì)使用端著機(jī)槍的機(jī)器人。其實(shí)還有更高效的辦法,如散播瘟疫,引發(fā)納米級(jí)灰霧(greygoo,具備自我復(fù)制能力的微小機(jī)器人)災(zāi)難,甚至僅僅破壞大氣層。人工智能有潛在的危險(xiǎn),不是因?yàn)樗咽镜臋C(jī)器人的未來(lái),而是它在世界上的自我定位。9.“未來(lái)的AI和科幻小說(shuō)里的AI是相同的?!钡拇_,科幻作品被作家和未來(lái)主義者們用來(lái)預(yù)測(cè)美好的將來(lái),但ASI所帶來(lái)的圖景完全不是一回事。更重要的是,與人類本性不同的AI不會(huì)讓我們知道并預(yù)測(cè)它們確切的本性和形式。科幻作品考慮到我們?nèi)祟愂侨跣〉?,大多?shù)AI被設(shè)定地與人類很類似?!坝幸恍┯^點(diǎn)認(rèn)為,即使是在人類中,也存在著多種類型的心智模式,你和你的鄰居也是不同的,但人與人之間的心智區(qū)別要同其他可能存在的心智形式相比是微不足道的,”McIntyre說(shuō)道。大多數(shù)科幻小說(shuō)旨在講一個(gè)引人入勝的故事,但不夠科學(xué)準(zhǔn)確。因此,科幻小說(shuō)中的沖突往往是存在于實(shí)力接近的實(shí)體之間。Armstrong說(shuō),“沒(méi)有意識(shí)、喜樂(lè)或仇恨的AI毫無(wú)阻力地消滅所有的人類、達(dá)到一個(gè)本身無(wú)趣目標(biāo),可以想見(jiàn)這樣的電影情節(jié)會(huì)有多無(wú)聊?!?0.“AI將會(huì)搶走我們所有的工作?!比斯ぶ悄馨盐覀兇蟛糠值墓ぷ髯詣?dòng)化和它能毀滅人類的潛在性,這是兩件完全不相關(guān)的事情。根據(jù)《機(jī)器人的崛起》的作者M(jìn)artinFord所說(shuō),這兩件事常常被混為一談。思考在遙遠(yuǎn)的將來(lái)AI的意義是很好的,但只有這不影響到我們思考未來(lái)的幾十年遇到的問(wèn)題時(shí),這樣做才有意義。其中最主要的是大規(guī)模的自動(dòng)化。毫無(wú)疑問(wèn),人工智能將取代很多現(xiàn)存的職業(yè),包括從車間工人到高級(jí)白領(lǐng)。一些專家預(yù)測(cè)在不久的將來(lái)美國(guó)的一半工作將被自動(dòng)化所取代。但這不意味著我們沒(méi)有能力應(yīng)付局面。最理想的情況是為我們?nèi)祟悓?shí)現(xiàn)人人稱贊的目標(biāo),達(dá)到接近烏托邦的境界,無(wú)論是腦力勞動(dòng)者還是體力勞動(dòng)者,人人都從勞役中解放了出來(lái)。機(jī)器人將在未來(lái)的幾十年取代數(shù)以百萬(wàn)計(jì)的崗位。我們必須強(qiáng)調(diào):“在未來(lái)的幾十年里AI將抹殺許多工作,但這是件好事,”Miller說(shuō)。例如,自動(dòng)駕駛汽車將取代卡車司機(jī),這樣可以節(jié)約運(yùn)輸成本

溫馨提示

  • 1. 本站所有資源如無(wú)特殊說(shuō)明,都需要本地電腦安裝OFFICE2007和PDF閱讀器。圖紙軟件為CAD,CAXA,PROE,UG,SolidWorks等.壓縮文件請(qǐng)下載最新的WinRAR軟件解壓。
  • 2. 本站的文檔不包含任何第三方提供的附件圖紙等,如果需要附件,請(qǐng)聯(lián)系上傳者。文件的所有權(quán)益歸上傳用戶所有。
  • 3. 本站RAR壓縮包中若帶圖紙,網(wǎng)頁(yè)內(nèi)容里面會(huì)有圖紙預(yù)覽,若沒(méi)有圖紙預(yù)覽就沒(méi)有圖紙。
  • 4. 未經(jīng)權(quán)益所有人同意不得將文件中的內(nèi)容挪作商業(yè)或盈利用途。
  • 5. 人人文庫(kù)網(wǎng)僅提供信息存儲(chǔ)空間,僅對(duì)用戶上傳內(nèi)容的表現(xiàn)方式做保護(hù)處理,對(duì)用戶上傳分享的文檔內(nèi)容本身不做任何修改或編輯,并不能對(duì)任何下載內(nèi)容負(fù)責(zé)。
  • 6. 下載文件中如有侵權(quán)或不適當(dāng)內(nèi)容,請(qǐng)與我們聯(lián)系,我們立即糾正。
  • 7. 本站不保證下載資源的準(zhǔn)確性、安全性和完整性, 同時(shí)也不承擔(dān)用戶因使用這些下載資源對(duì)自己和他人造成任何形式的傷害或損失。

最新文檔

評(píng)論

0/150

提交評(píng)論