可信人工智能白皮書_第1頁
可信人工智能白皮書_第2頁
可信人工智能白皮書_第3頁
可信人工智能白皮書_第4頁
可信人工智能白皮書_第5頁
已閱讀5頁,還剩59頁未讀, 繼續(xù)免費(fèi)閱讀

下載本文檔

版權(quán)說明:本文檔由用戶提供并上傳,收益歸屬內(nèi)容提供方,若內(nèi)容存在侵權(quán),請進(jìn)行舉報(bào)或認(rèn)領(lǐng)

文檔簡介

工中國信通院京東探索研究院2021年7月當(dāng)前,新一代人工智能技術(shù)迅猛發(fā)展,并向社會各個(gè)領(lǐng)域加速滲透,給人類生產(chǎn)生活帶來了深刻變化。人工智能在帶來巨大機(jī)遇險(xiǎn)研判和防范,維護(hù)人民利益和國家安全,確保人工智能安全、可工智能,這一原則也得到了國際社會的普遍認(rèn)同。歐盟和美國也都把增強(qiáng)用戶信任、發(fā)展可信人工智能放在其人工智能倫理和治理的核心位置。未來,將抽象的人工智能原則轉(zhuǎn)化為具體實(shí)踐,落實(shí)到技術(shù)、產(chǎn)品和應(yīng)用中去,是回應(yīng)社會關(guān)切、解決突出矛盾、防范安全風(fēng)險(xiǎn)的必然選擇,是關(guān)系到人工智能長遠(yuǎn)發(fā)展的重要議題,也是無論是回顧可信人工智能的背景和歷程,還是展望新一代人工智能的未來,本白皮書認(rèn)為人工智能的穩(wěn)定性、可解釋性、公平性等都是各方關(guān)注的核心問題。立足當(dāng)下,本白皮書從如何落實(shí)全球人工智能治理共識的角度出發(fā),聚焦于可信人工智能技術(shù)、產(chǎn)業(yè)和行業(yè)實(shí)踐等層面,分析了實(shí)現(xiàn)可控可靠、透明可釋、隱私保護(hù)、明確責(zé)任及多元包容的可信人工智能路徑,并對可信人工智能的未來由于人工智能仍處于飛速發(fā)展階段,我們對可信人工智能的認(rèn) 1 1 2 7 8 12 12 14 15 17 18 18 25 27 27 27 28 28 30 4 6 8 9 24一、可信人工智能發(fā)展背景(一)人工智能技術(shù)風(fēng)險(xiǎn)引發(fā)信任危機(jī)1/omn/201隱私數(shù)據(jù)泄露的可能性增大,數(shù)據(jù)一旦丟失會(二)全球各界高度重視可信人工智能2/a/23/n1/2018/0502/c40606-299599594/industry/company/20190909/507570023研發(fā)的投資力度,以促進(jìn)可信賴的人工智能(TrustworthyArtificial研究角度,可信人工智能研究范疇包含了安全性、可解釋、公平性、隱私保護(hù)等多方面內(nèi)容。2020年可信人工智能研究論文數(shù)量相比釋人工智能》并開展相關(guān)資助活動,致力于推動可信人工智能發(fā)展;研討,并一直保持火熱的研究態(tài)勢。同時(shí),圍繞著機(jī)器學(xué)習(xí)公一項(xiàng)名為《促進(jìn)政府使用可信人工智能》的行政命令6,該命令為聯(lián)456(三)可信人工智能需要系統(tǒng)方法指引可信。5月,美國國家標(biāo)準(zhǔn)與技術(shù)研究院提出了評估人工智能系統(tǒng)10,從實(shí)操層面定義了評價(jià)人類使用人工智能系統(tǒng)時(shí)的信任體驗(yàn)。68/2019/12/27/9https://www.bsi.bund.de/SharedDocs/Downloads/EN/BSI/CloudComputing/AIC4/AI-Cloud-Service-Criteria-Catalogue_A/news-events/news/2021/05/nist-proposes-method-evaluating-user-trust-artificial78二、可信人工智能框架9定,而是逐步擴(kuò)展至一套體系化的方法論,涉及到如何構(gòu)造“可信”需要在人工智能系統(tǒng)研發(fā)和使用的整個(gè)生命周期中貫徹可信特征的行業(yè)可信實(shí)踐層面,可信人工智能需要整個(gè)行業(yè)的參與三、可信人工智能支撐技術(shù)智能技術(shù)已成為研究領(lǐng)域的熱點(diǎn)[5,6]。研究的焦點(diǎn)主要是提升人工智(一)人工智能系統(tǒng)穩(wěn)定性技術(shù)而中毒攻擊的目的在于通過向人工智能模型的訓(xùn)練數(shù)據(jù)集注入中毒過打印對抗樣本等手段能夠直接對自動駕駛和人臉識別系統(tǒng)造成物(二)人工智能可解釋性增強(qiáng)技術(shù)理論框架有待完善[7,8,9,14,15]。例如,優(yōu)化算法的有效性在決策樹、支能模型的影響;通過Grad-CAM(GraMapping)方法分析人工智能模型利用哪些數(shù)據(jù)特征做出預(yù)測;通過的可解釋模型對復(fù)雜的黑盒模型進(jìn)行局部近似來研究黑盒模型的可(三)人工智能隱私保護(hù)技術(shù) 擊者進(jìn)行隱私竊取。2016年,谷歌公司的一項(xiàng)工作首次將差分隱私集用戶數(shù)據(jù)的條件下進(jìn)行人工智能模型的訓(xùn)練,以期保(四)人工智能公平性技術(shù)精確度(Multiaccuracy)的概念提出多精度提升法(MultiaccuracyBoost以減輕黑盒人工智能系統(tǒng)的決策偏差。四、可信人工智能實(shí)踐路徑(一)企業(yè)層面1.將可信人工智能融入企業(yè)文化斷創(chuàng)新和實(shí)踐可信人工智能。2.完善可信人工智能的管理制度3.將可信人工智能要求嵌入到研發(fā)應(yīng)用全流程企業(yè)在人工智能系統(tǒng)生命周期的開始就需要充分考慮落實(shí)可信的可解釋性研究與人工智能技術(shù)在應(yīng)用領(lǐng)域的高速發(fā)展相比仍較為濫用和泄漏等問題,同時(shí)探索使用隱私保護(hù)算法訓(xùn)練人工智能系統(tǒng)。和哈佛大學(xué)合作創(chuàng)辦的人工智能項(xiàng)目OpenDP開發(fā)了很多開源的差評估很大程度上能夠反映人工智能系統(tǒng)在實(shí)際應(yīng)用中的性能表現(xiàn)和偏差造成的信任缺失。人工智能系統(tǒng)的表現(xiàn)依賴于訓(xùn)練數(shù)據(jù)的質(zhì)量,從而導(dǎo)致人工智能系統(tǒng)可能會做出不準(zhǔn)確或帶有偏見和歧視的決策。企業(yè)應(yīng)注重提升訓(xùn)練數(shù)據(jù)的多樣性和公平性從而符合多元包容的要l通過可靠、合法的來源收集數(shù)據(jù),保證數(shù)據(jù)來源的可信程度。l通過統(tǒng)計(jì)學(xué)的方式或相關(guān)工具集,檢查數(shù)據(jù)集中樣本、特征、12345(二)行業(yè)層面五、可信人工智能發(fā)展建議打造可信任的人工智能系統(tǒng)已經(jīng)成為各界關(guān)注的焦點(diǎn)和努力方(一)政府層面加快推動我國人工智能監(jiān)管及立法進(jìn)程深入研究人工智能引發(fā)的新問題和新態(tài)勢,及時(shí)梳(二)技術(shù)研究層面需全面做好體系化前瞻性布局(三)企業(yè)實(shí)踐層面需匹配業(yè)務(wù)發(fā)展實(shí)現(xiàn)敏捷可信企業(yè)拓展人工智能技術(shù)應(yīng)用過程中應(yīng)注重可信人工智能敏捷迭另一方面應(yīng)積極與監(jiān)管部門對接,主動配合參與數(shù)(四)行業(yè)組織層面需搭建交流合作平臺打造可信生參考文獻(xiàn)[1]EUROPEANCOMMISSION.WHITEPAPEROnIntelligence-AEuropeanapproachtoexcellencehttps://ec.europa.eu/info/sites/info/files/commission-white-paper-artificial-intelligence-feb2020_en.pdf[2]JobinA.,etal.ThegloballandscapeofAIethicsguideli[R/OL].(2019-0808)/uploadfile/2019/0719487.pdf[R/OL].(2020-0923)/uploadfile/2020/0923/427421.pdf[5]張鈸等.邁向第三代人工智能[J].中國科學(xué):信息科學(xué),2020,v.50(09):7-28.MachineIntelligence,volume39,pages227-241,2016.Theoreticalandempiricalevapproach[C].InAdvancesinNeuralInformatipages12280-12290,2019.[10]DworkC.,etal.Thealgorithmicfoprivacy[J].FoundationsandTrendsinTheoretvolume9,pages211-407,2014.[11]Zhu,L.,etal.DeNeuralInformationProcessiprivatelearningalgorithms[J].arXivpreprintarXiv:2007.09371,2f214-226,2012.predictionsofanyclassifier[C].InProceedingsofthe22explanations[C].InProceedingsoftconstraints[C].IEEEInternationalConferenceonDataMining[17]Fang,M.,etal.Poisoningattackstographsystems[C].InProceedingsofthe3ApplicationsConference,pages381-392,2018.

溫馨提示

  • 1. 本站所有資源如無特殊說明,都需要本地電腦安裝OFFICE2007和PDF閱讀器。圖紙軟件為CAD,CAXA,PROE,UG,SolidWorks等.壓縮文件請下載最新的WinRAR軟件解壓。
  • 2. 本站的文檔不包含任何第三方提供的附件圖紙等,如果需要附件,請聯(lián)系上傳者。文件的所有權(quán)益歸上傳用戶所有。
  • 3. 本站RAR壓縮包中若帶圖紙,網(wǎng)頁內(nèi)容里面會有圖紙預(yù)覽,若沒有圖紙預(yù)覽就沒有圖紙。
  • 4. 未經(jīng)權(quán)益所有人同意不得將文件中的內(nèi)容挪作商業(yè)或盈利用途。
  • 5. 人人文庫網(wǎng)僅提供信息存儲空間,僅對用戶上傳內(nèi)容的表現(xiàn)方式做保護(hù)處理,對用戶上傳分享的文檔內(nèi)容本身不做任何修改或編輯,并不能對任何下載內(nèi)容負(fù)責(zé)。
  • 6. 下載文件中如有侵權(quán)或不適當(dāng)內(nèi)容,請與我們聯(lián)系,我們立即糾正。
  • 7. 本站不保證下載資源的準(zhǔn)確性、安全性和完整性, 同時(shí)也不承擔(dān)用戶因使用這些下載資源對自己和他人造成任何形式的傷害或損失。

最新文檔

評論

0/150

提交評論