《人工智能倫理導(dǎo)論》課件第9章人工智能設(shè)計(jì)倫理_第1頁(yè)
《人工智能倫理導(dǎo)論》課件第9章人工智能設(shè)計(jì)倫理_第2頁(yè)
《人工智能倫理導(dǎo)論》課件第9章人工智能設(shè)計(jì)倫理_第3頁(yè)
《人工智能倫理導(dǎo)論》課件第9章人工智能設(shè)計(jì)倫理_第4頁(yè)
《人工智能倫理導(dǎo)論》課件第9章人工智能設(shè)計(jì)倫理_第5頁(yè)
已閱讀5頁(yè),還剩20頁(yè)未讀, 繼續(xù)免費(fèi)閱讀

下載本文檔

版權(quán)說(shuō)明:本文檔由用戶提供并上傳,收益歸屬內(nèi)容提供方,若內(nèi)容存在侵權(quán),請(qǐng)進(jìn)行舉報(bào)或認(rèn)領(lǐng)

文檔簡(jiǎn)介

第九章人工智能設(shè)計(jì)倫理學(xué)習(xí)和理解人工智能設(shè)計(jì)倫理概念與含義學(xué)習(xí)和理解人工智能倫理設(shè)計(jì)路徑學(xué)習(xí)和理解機(jī)器道德設(shè)計(jì)的終極標(biāo)準(zhǔn)學(xué)習(xí)要點(diǎn)人工智能設(shè)計(jì)倫理主要關(guān)注的是包括機(jī)器人在內(nèi)的人工智能系統(tǒng)或智能機(jī)器如何遵守人類的倫理規(guī)范。從兩方面加以解決:一方面是人類設(shè)計(jì)者自身的道德規(guī)范。另一方面是人類的倫理道德規(guī)范如何以算法的形式實(shí)現(xiàn)并通過(guò)軟件程序嵌入到機(jī)器中去。除了這兩方面的設(shè)計(jì)倫理問(wèn)題,本章還介紹基于人類倫理道德原則的機(jī)器道德推理基本結(jié)構(gòu),以及形式化表達(dá)的機(jī)器倫理價(jià)值組成與結(jié)構(gòu)。學(xué)習(xí)導(dǎo)言在傳統(tǒng)技術(shù)倫理范疇中,一項(xiàng)技術(shù)的道德屬性取決于使用者的使用方式,技術(shù)本身被看做是價(jià)值中立的,即技術(shù)本身沒(méi)有任何價(jià)值取向或傾向性。在社會(huì)生產(chǎn)活動(dòng)中,從產(chǎn)品設(shè)計(jì)的角度岀發(fā),任何產(chǎn)品功能的實(shí)現(xiàn)都必然指向某種目的,這種目的總是與人類的主觀意圖有關(guān)系的。某類產(chǎn)品即使不隱含或體現(xiàn)設(shè)計(jì)者個(gè)人的主觀意圖,也可能隱含產(chǎn)品消費(fèi)者或者擁有者的主觀意圖,但一定要通過(guò)設(shè)計(jì)者來(lái)實(shí)現(xiàn),所以無(wú)論產(chǎn)品承載著誰(shuí)的主觀意圖,都可以稱之為“設(shè)計(jì)意圖”。9.1產(chǎn)品設(shè)計(jì)與人工智能設(shè)計(jì)9.1.1產(chǎn)品設(shè)計(jì)與價(jià)值觀對(duì)于人工智能產(chǎn)品設(shè)計(jì),可以從兩個(gè)方面進(jìn)行理解:設(shè)計(jì)者的角度從設(shè)計(jì)者的角度來(lái)看,人工智能產(chǎn)品應(yīng)該通過(guò)某種物理實(shí)體實(shí)現(xiàn)某種功能,它們一定具有某種結(jié)構(gòu)屬性及人工智能技術(shù)能力屬性。使用者的角度從使用者的角度來(lái)看,人們并不關(guān)心人工智能產(chǎn)品是通過(guò)何種物理結(jié)構(gòu)和技術(shù)來(lái)實(shí)現(xiàn)其功能的,人們關(guān)心的只是人工智能產(chǎn)品的功能。9.1產(chǎn)品設(shè)計(jì)與人工智能設(shè)計(jì)9.1.2人工智能產(chǎn)品設(shè)計(jì)問(wèn)題人工智能設(shè)計(jì)倫理指的是用于某種目的的人工智能產(chǎn)品或系統(tǒng)設(shè)計(jì)全周期過(guò)程中涉及的倫理問(wèn)題。人工智能設(shè)計(jì)倫理問(wèn)題毫無(wú)疑問(wèn)是人工智能倫理中的關(guān)鍵性問(wèn)題。包括機(jī)器人在內(nèi)的機(jī)器倫理等方面的理論成果,最終需要落實(shí)到對(duì)機(jī)器人或其他人工智能產(chǎn)品及系統(tǒng)的設(shè)計(jì)過(guò)程中才能發(fā)揮實(shí)際的作用。9.2人工智能設(shè)計(jì)倫理9.2.1人工智能設(shè)計(jì)倫理概念與含義比如,美國(guó)亞馬遜公司2019年左右生產(chǎn)的一款智能音箱Echo,常在半夜發(fā)出怪笑,給許多用戶造成巨大心理恐慌。后來(lái)發(fā)現(xiàn)這種恐怖效果是由于驅(qū)動(dòng)音箱的智能語(yǔ)音助手Alexa出現(xiàn)設(shè)計(jì)缺陷導(dǎo)致的。人工智能設(shè)計(jì)倫理比較重要的方面是開(kāi)發(fā)者如何遵守相應(yīng)的規(guī)范、標(biāo)準(zhǔn)、倫理規(guī)則開(kāi)發(fā)相關(guān)的算法、軟件、程序或硬件系統(tǒng),包括如何把能夠程序化的人類倫理規(guī)則嵌入到人工智能系統(tǒng)或智能機(jī)器當(dāng)中去,以解決人工智能系統(tǒng)可能面臨的道德困境。人工智能設(shè)計(jì)倫理的核心問(wèn)題:如何讓機(jī)器按照人們認(rèn)為正確的方式進(jìn)行道德判斷或推理并采取行動(dòng),也可以說(shuō)是從倫理的角度對(duì)機(jī)器的行為進(jìn)行規(guī)范與限制。

9.2人工智能設(shè)計(jì)倫理9.2.2人工智能開(kāi)發(fā)者設(shè)計(jì)倫理人工智能產(chǎn)品或系統(tǒng)設(shè)計(jì)中實(shí)現(xiàn)人的隱私保護(hù)設(shè)計(jì)是對(duì)于人工智能技術(shù)或系統(tǒng)設(shè)計(jì)的一個(gè)基本要求。隱私保護(hù)設(shè)計(jì)就是將隱私保護(hù)算法嵌入人工智能產(chǎn)品或系統(tǒng)中。隱私保護(hù)設(shè)計(jì)包括七大基本原則:隱私保護(hù)是主動(dòng)的而非被動(dòng)的,是預(yù)防性的而非補(bǔ)救性的;隱私保護(hù)是默認(rèn)設(shè)置,即在默認(rèn)情況下使用最高可能的隱私保護(hù)設(shè)置;將隱私保護(hù)嵌入設(shè)計(jì)中,即在設(shè)計(jì)過(guò)程中就要考慮到隱私保護(hù),而非在系統(tǒng)運(yùn)行時(shí)才考慮隱私保護(hù);隱私保護(hù)效應(yīng)具有正效應(yīng)而非零和效應(yīng);隱私保護(hù)貫穿在全生命周期,是全程保護(hù),而非僅在某幾個(gè)時(shí)間點(diǎn)保護(hù);隱私保護(hù)具有可見(jiàn)性、透明性和開(kāi)放性;以用戶為中心,尊重用戶隱私。這七大原則反映了人本主義數(shù)據(jù)倫理觀,是人本主義數(shù)據(jù)倫理的中觀原則,是人本主義數(shù)據(jù)倫理的種實(shí)踐機(jī)制。9.3隱私保護(hù)設(shè)計(jì)為實(shí)現(xiàn)“道德機(jī)器”,研究人員提出了很多可借鑒的理論和方法思路。1.倫理道德的數(shù)學(xué)設(shè)計(jì)理論設(shè)計(jì)人員采用代碼編寫的算法將人類的價(jià)值取向與倫理規(guī)范嵌入到各種人工智能系統(tǒng)或智能機(jī)器之中,使其成為遵守道德規(guī)范甚至具有自主倫理抉擇能力的“道德機(jī)器”。2.以行動(dòng)為基礎(chǔ)的倫理設(shè)計(jì)理論該理論告訴人工智能系統(tǒng)在倫理困境中如何采取行動(dòng),也就是賦予人工智能系統(tǒng)或智能機(jī)器一種或幾種原則,用以引導(dǎo)其行為。3.自主系統(tǒng)倫理行為范式以案例為支撐、以原則為基礎(chǔ)的行為范式。4.學(xué)習(xí)分布式智能體結(jié)構(gòu)模型采用一種“計(jì)算認(rèn)知結(jié)構(gòu)”的方式實(shí)現(xiàn)機(jī)器倫理。9.4嵌入式人工智能倫理設(shè)計(jì)9.4.1嵌入式人工智能倫理設(shè)計(jì)方法學(xué)者們?yōu)槿斯ぶ悄軅惱碓O(shè)計(jì)提出了三種實(shí)現(xiàn)模式自上而下模式自下而上模式混合模式。第一種模式把一套明確的規(guī)則賦予機(jī)器并不一定是合理的,因?yàn)橥环N原則在不同的情況下可能會(huì)導(dǎo)致不同的相互矛盾的決策;后一種模式則是希望機(jī)器在封閉環(huán)境中完成自我發(fā)展進(jìn)化,在開(kāi)放環(huán)境中實(shí)現(xiàn)復(fù)雜的倫理判斷或選擇。就目前人工智能技術(shù)而言,這是一個(gè)不可能完成的任務(wù)。無(wú)論是自上而下、自下而上,還是混合式進(jìn)路,對(duì)倫理問(wèn)題中涉及的因果關(guān)系難題、人類道德終極準(zhǔn)則難題是難以應(yīng)對(duì)的。9.4嵌入式人工智能倫理設(shè)計(jì)9.4.2

嵌入式人工智能倫理設(shè)計(jì)路徑一般說(shuō)來(lái),道德判斷的結(jié)論,是由一組道德原則的前提與一個(gè)或一組關(guān)于事實(shí)判斷的前提二者共同推出的。簡(jiǎn)而言之,道德判斷通常有兩種形式。第一種形式是道德評(píng)價(jià)判斷,它是對(duì)已存在的行為、行為的種類或行為原則是不是正當(dāng)?shù)?、是不是道德的一種斷言。第二種形式是道德決策判斷,它是對(duì)未發(fā)生的但人們準(zhǔn)備去做的事情是不是正當(dāng)?shù)?、是不是道德的一種判斷。9.5

智能機(jī)器的道德推理模型9.5.1道德推理的基本結(jié)構(gòu)在現(xiàn)實(shí)生活中,任何道德系統(tǒng)中的許多道德規(guī)范的是與非、真與假等判斷結(jié)果,由于不同文明或社會(huì)背后的價(jià)值觀不同,因此幾乎都是有例外的,即使在同一個(gè)文明體系或社會(huì)文化環(huán)境中,也會(huì)由于具體場(chǎng)景的變化而導(dǎo)致道德規(guī)范的差異化。也就是說(shuō),由于人類面對(duì)的具體境遇或情境不同,道德規(guī)則的含義、重要性和適用范圍都會(huì)不相同。所以,對(duì)于人類而言,除了應(yīng)該強(qiáng)調(diào)道德規(guī)則在道德決斷中的作用外,還應(yīng)強(qiáng)調(diào)情景對(duì)道德決策中的重要作用。因此,人類在一定情境作出道德決策時(shí),要將推理準(zhǔn)則運(yùn)用于實(shí)際情景,就必須插入一個(gè)項(xiàng)或一個(gè)步驟,就是根據(jù)情景對(duì)倫理原則的懷疑與反思項(xiàng)。9.5

智能機(jī)器的道德推理模型9.5.2情景推理DrN模型結(jié)構(gòu)在人類社會(huì)的道德體系中,從系統(tǒng)的觀點(diǎn)出發(fā),人們一般會(huì)同時(shí)承認(rèn)下列四項(xiàng)基本原則。有限資源與環(huán)境保護(hù)原則(R1)一個(gè)調(diào)節(jié)社會(huì)基本結(jié)構(gòu)以及政府與公民的行為是否正當(dāng)?shù)脑瓌t。必須趨向于保護(hù)生物共同體的完整、穩(wěn)定和優(yōu)美,否則是不正當(dāng)?shù)?。這個(gè)原則稱為“萊奧波爾德原則”。功利效用原則(R2)一個(gè)調(diào)節(jié)社會(huì)基本結(jié)構(gòu)的原則,以及調(diào)節(jié)個(gè)人與集體的行為準(zhǔn)則是正當(dāng)?shù)?,它必須趨向于增進(jìn)全體社會(huì)成員的福利和減輕他們的痛苦,否則是不正當(dāng)?shù)?。這個(gè)原則稱為“邊沁-穆勒功利主義原則”。9.6機(jī)器倫理價(jià)值計(jì)算模型9.6.1人類社會(huì)基本道德原則表達(dá)社會(huì)正義原則(R3)一種調(diào)節(jié)社會(huì)基本結(jié)構(gòu)和人的行為是正當(dāng)?shù)模仨毞线@個(gè)原則,否則就是不正當(dāng)?shù)?。這個(gè)原則稱為“康德-羅爾斯公正正義原則”。仁愛(ài)原則(R4)一種調(diào)節(jié)社會(huì)基本結(jié)構(gòu)和人們行為的原則是正當(dāng)?shù)?,它必須促進(jìn)人們的互惠互愛(ài),并將這種仁愛(ài)從家庭推向社團(tuán),從社團(tuán)推向社會(huì),從社會(huì)推向全人類,從人類推向自然,否則就是不正當(dāng)?shù)摹_@個(gè)原則稱為“博愛(ài)原則”。9.6機(jī)器倫理價(jià)值計(jì)算模型9.6.1人類社會(huì)基本道德原則表達(dá)在社會(huì)道德基本原則表達(dá)基礎(chǔ)上,將其推廣到機(jī)器倫理設(shè)計(jì),由此推導(dǎo)出機(jī)器行為倫理總價(jià)值的組成與結(jié)構(gòu)。對(duì)于某一機(jī)器的行為A來(lái)說(shuō),它的倫理價(jià)值有下列四項(xiàng)組成:機(jī)器行為A的功利價(jià)值。行為A具有其功利效用,因?yàn)槠浞瞎瓌t,即增進(jìn)社會(huì)有關(guān)成員的總福利而產(chǎn)生的價(jià)值稱為“功利價(jià)值”。機(jī)器行為A的正義價(jià)值。指的是行為A因符合正義原則而帶來(lái)的價(jià)值。機(jī)器行為A的生態(tài)價(jià)值。指的是行為A因符合環(huán)保原則或生態(tài)倫理原則而帶來(lái)的價(jià)值。機(jī)器行為A的仁愛(ài)價(jià)值。主要指的是A因符合仁愛(ài)原則或利他主義原則而帶來(lái)的價(jià)值。9.6機(jī)器倫理價(jià)值計(jì)算模型9.6.2機(jī)器行為倫理總價(jià)值按照功利主義倫理,功利原則是綜合行為功利主義和準(zhǔn)則功利主義的系統(tǒng)功利原則。當(dāng)人們根據(jù)行為功利主義評(píng)價(jià)某個(gè)智能機(jī)器道德行為時(shí),只考慮該機(jī)器道德行為的直接效用;而根據(jù)準(zhǔn)則功利主義考慮機(jī)器道德行為的效用時(shí),只考慮它符合道德準(zhǔn)則所帶來(lái)的社會(huì)效用。因此系統(tǒng)功利原則將某一智能機(jī)器的道德行為的總效用看作上述兩項(xiàng)效應(yīng)的函數(shù),即這里叫做智能機(jī)器行為的系統(tǒng)功利函數(shù)或整合功利函數(shù)。自變量表示該行為的直接效用,而表示該行為因符合某種道德準(zhǔn)則而間接獲得的效用。這里的效用可以計(jì)量可通過(guò)公理系統(tǒng)論證,在可以分離變量和線性化的簡(jiǎn)化情況中,則有

9.6機(jī)器倫理價(jià)值計(jì)算模型9.6.3機(jī)器倫理價(jià)值功利主義計(jì)算當(dāng)機(jī)器面臨道德原則相互間發(fā)生沖突時(shí),在程序設(shè)計(jì)上應(yīng)該遵循“服從比較根本的道德原則而違背被它所決定的道德原則”。機(jī)器最終必定應(yīng)該服從最為根本的道德原則,亦即道德終極原則、道德終極標(biāo)準(zhǔn)。它是最根本的道德標(biāo)準(zhǔn),是產(chǎn)生、決定、推導(dǎo)出其他一切道德標(biāo)準(zhǔn)的標(biāo)準(zhǔn),是在任何條件下都沒(méi)有例外而絕對(duì)應(yīng)該遵守的道德標(biāo)準(zhǔn),也就是絕對(duì)道德標(biāo)準(zhǔn)。9.7機(jī)器道德設(shè)計(jì)的終極標(biāo)準(zhǔn)9.7.1機(jī)器的道德終極標(biāo)準(zhǔn)在確定機(jī)器的道德終極標(biāo)準(zhǔn)基礎(chǔ)上,按照功利主義思想確立機(jī)器的道德終極標(biāo)準(zhǔn)體系如下。增減每個(gè)人的利益總量,道德終極總標(biāo)準(zhǔn)。最大利益凈余額,利益沖突的道德終極標(biāo)準(zhǔn)。最大多數(shù)人最大利益,他人之間利益沖突的道德終極標(biāo)準(zhǔn)。無(wú)私利他,己他利益沖突的道德終極標(biāo)準(zhǔn)。無(wú)害一人的增進(jìn)利益總量,利益不相沖突的道德終極標(biāo)準(zhǔn)。9.7機(jī)器道德設(shè)計(jì)的終極標(biāo)準(zhǔn)9.7.2道德終極標(biāo)準(zhǔn)體系2016年9月,英國(guó)標(biāo)準(zhǔn)協(xié)會(huì)發(fā)布業(yè)界第一個(gè)關(guān)于機(jī)器人倫理設(shè)計(jì)的公開(kāi)標(biāo)準(zhǔn)《機(jī)器人和機(jī)器系統(tǒng)的倫理設(shè)計(jì)和應(yīng)用指南》。指南指出,機(jī)器人欺詐問(wèn)題、機(jī)器人成癮現(xiàn)象,以及人工智能學(xué)習(xí)系統(tǒng)越俎代庖的行為,這些都是機(jī)器人制造商應(yīng)該考慮的問(wèn)題。該指南強(qiáng)調(diào)了一系列更具爭(zhēng)議的問(wèn)題,比如人與機(jī)器人之間的情感紐帶是否可取,特別是當(dāng)機(jī)器人被設(shè)計(jì)為與兒童或老人互動(dòng)的產(chǎn)品時(shí)。該標(biāo)準(zhǔn)最重要之處在于,為了防止智能機(jī)器人與人類道德規(guī)范發(fā)生沖突,機(jī)器人的設(shè)計(jì)者、研究者和生產(chǎn)商,三者應(yīng)該如何評(píng)估機(jī)器人帶來(lái)的道德風(fēng)險(xiǎn)問(wèn)題。9.8人工智能倫理設(shè)計(jì)案例護(hù)理機(jī)器人價(jià)值敏感設(shè)計(jì)責(zé)任倫理概念是德國(guó)學(xué)者馬克斯·韋伯于1919年提出。責(zé)任倫理是在對(duì)責(zé)任主體行為的目的、后果、手段等因素進(jìn)行全面、系統(tǒng)的倫理考量的基礎(chǔ)上,對(duì)當(dāng)代社會(huì)的責(zé)任關(guān)系、責(zé)任歸因、責(zé)任原因及責(zé)任目標(biāo)等進(jìn)行整體倫理分析和研究的理論范疇。責(zé)任倫理強(qiáng)調(diào)對(duì)于現(xiàn)在和將來(lái)的負(fù)責(zé),也就是說(shuō)人工智能不光是對(duì)于當(dāng)下人們的使用不產(chǎn)生相關(guān)的危害,這種危害更不能延續(xù)到下一代人的身上。人工智能技術(shù)的發(fā)展,無(wú)論從政府的監(jiān)管層面還是到消費(fèi)者的使用層面都應(yīng)該負(fù)起相應(yīng)的責(zé)任。9.9人工智能設(shè)計(jì)責(zé)任9.9.1人工智能與責(zé)任倫理最初的設(shè)計(jì)者應(yīng)有義務(wù)確保系統(tǒng)正常工作,以防止不良后果的產(chǎn)生。人工智能系統(tǒng)的設(shè)計(jì)責(zé)任主要涉及以下幾方面。責(zé)任免除問(wèn)題如果生產(chǎn)商和程序員未能遵循公認(rèn)的學(xué)術(shù)標(biāo)準(zhǔn),那么他們應(yīng)該為人工智能系統(tǒng)導(dǎo)致的損害承擔(dān)道德責(zé)任。責(zé)任分擔(dān)問(wèn)題人工智能系統(tǒng)的設(shè)計(jì)者(包括從事人工智能系統(tǒng)及相關(guān)科學(xué)技術(shù)研發(fā)的科學(xué)家、工程師等)承擔(dān)著道德責(zé)任。設(shè)計(jì)者需要對(duì)人工智能系統(tǒng)的安全性、可靠性負(fù)責(zé)。9.9人工智能設(shè)計(jì)責(zé)任9.9.2人工智能系統(tǒng)的設(shè)計(jì)責(zé)任在基本責(zé)任原則下,在人工智能技術(shù)開(kāi)發(fā)方面應(yīng)遵循透明度原則,在人工智能技術(shù)應(yīng)用方面則應(yīng)當(dāng)遵循權(quán)責(zé)-致原則。透明度原則透明度原則要求人工智能系統(tǒng)設(shè)計(jì)中保證人類了解智能決策系統(tǒng)的工作原理,從而預(yù)測(cè)其輸出結(jié)果,即人類應(yīng)當(dāng)知道人工智能如何以及為何作出特定決策。權(quán)責(zé)一致原則權(quán)責(zé)一致原則是指在人工智能的設(shè)計(jì)和應(yīng)用中應(yīng)當(dāng)保證問(wèn)責(zé)的實(shí)現(xiàn)。問(wèn)責(zé)原則“問(wèn)責(zé)原則”是指明確責(zé)任主體,建立具體的法律明確說(shuō)明為什么以及采取何種方式讓智能系統(tǒng)的設(shè)計(jì)者和部署者承擔(dān)應(yīng)有的義務(wù)與責(zé)任。9.9人工智能設(shè)計(jì)責(zé)任9.9.3人工智能設(shè)計(jì)的基本責(zé)任原則任何人工智能技術(shù)開(kāi)發(fā)都應(yīng)該遵循一般倫理原則。這些原則主要包括如下幾方面。福祉與幸福福祉主要是指人工智能設(shè)計(jì)和應(yīng)用應(yīng)該改善人類生活質(zhì)量和外部環(huán)境,包括人類賴以生存的各種個(gè)人、社會(huì)和環(huán)境因素。是非善惡人工智能的非惡意原則主要是指其設(shè)計(jì)和應(yīng)用應(yīng)該是出于仁愛(ài)而不是惡意的愿望,即絕對(duì)不應(yīng)該造成可預(yù)見(jiàn)或無(wú)意識(shí)的傷害、偏見(jiàn)和不公平,需要避免特定的風(fēng)險(xiǎn)或潛在的危害。公平正義公平正義原則要求人工智能對(duì)所有人都是公平公正的,并且要避免保留現(xiàn)有的社會(huì)偏見(jiàn)和引入新的偏見(jiàn),從而實(shí)現(xiàn)人人平等。9.10人工智能技術(shù)開(kāi)發(fā)的一般倫理原則人權(quán)與尊嚴(yán)人工智能應(yīng)該優(yōu)先考慮并明確尊重人的基本人權(quán)和尊嚴(yán)??沙掷m(xù)當(dāng)前,人類面臨著來(lái)自氣候、資源等方面的許多重大挑戰(zhàn)。信任人工智能需

溫馨提示

  • 1. 本站所有資源如無(wú)特殊說(shuō)明,都需要本地電腦安裝OFFICE2007和PDF閱讀器。圖紙軟件為CAD,CAXA,PROE,UG,SolidWorks等.壓縮文件請(qǐng)下載最新的WinRAR軟件解壓。
  • 2. 本站的文檔不包含任何第三方提供的附件圖紙等,如果需要附件,請(qǐng)聯(lián)系上傳者。文件的所有權(quán)益歸上傳用戶所有。
  • 3. 本站RAR壓縮包中若帶圖紙,網(wǎng)頁(yè)內(nèi)容里面會(huì)有圖紙預(yù)覽,若沒(méi)有圖紙預(yù)覽就沒(méi)有圖紙。
  • 4. 未經(jīng)權(quán)益所有人同意不得將文件中的內(nèi)容挪作商業(yè)或盈利用途。
  • 5. 人人文庫(kù)網(wǎng)僅提供信息存儲(chǔ)空間,僅對(duì)用戶上傳內(nèi)容的表現(xiàn)方式做保護(hù)處理,對(duì)用戶上傳分享的文檔內(nèi)容本身不做任何修改或編輯,并不能對(duì)任何下載內(nèi)容負(fù)責(zé)。
  • 6. 下載文件中如有侵權(quán)或不適當(dāng)內(nèi)容,請(qǐng)與我們聯(lián)系,我們立即糾正。
  • 7. 本站不保證下載資源的準(zhǔn)確性、安全性和完整性, 同時(shí)也不承擔(dān)用戶因使用這些下載資源對(duì)自己和他人造成任何形式的傷害或損失。

評(píng)論

0/150

提交評(píng)論