Hadoop精彩試題題庫_第1頁
Hadoop精彩試題題庫_第2頁
Hadoop精彩試題題庫_第3頁
已閱讀5頁,還剩11頁未讀, 繼續(xù)免費(fèi)閱讀

下載本文檔

版權(quán)說明:本文檔由用戶提供并上傳,收益歸屬內(nèi)容提供方,若內(nèi)容存在侵權(quán),請(qǐng)進(jìn)行舉報(bào)或認(rèn)領(lǐng)

文檔簡(jiǎn)介

1、1. 以下哪一項(xiàng)不屬于 Hadoop可以運(yùn)行的模式 CA. 單機(jī)(本地)模式B. 偽分布式模式C. 互聯(lián)模式D. 分布式模式2. Hadoop的作者是下面哪一位_B.A. Marti n FowlerB. Doug cutt ingC. Kent BeckD. Grace Hopper3. 下列哪個(gè)程序通常與NameNode在同一個(gè)節(jié)點(diǎn)啟動(dòng) _D.A. TaskTrackerB. DataNodeC. Seco ndaryNameNodeD. Jobtracker4. HDFS 默認(rèn) Block Size的大小是 _B_。A. 32MBB. 64MBC. 128MBD. 256M5. 下列哪項(xiàng)

2、通常是集群的最主要瓶頸 CA. CPUB. 網(wǎng)絡(luò)C. 磁盤10D. 內(nèi)存6. 下列關(guān)于 MapReduce說法不正確的是 C_。A. MapReduce是一種計(jì)算框架B. MapReduce來源于google的學(xué)術(shù)論文C. MapReduce程序只能用java語言編寫D. MapReduce隱藏了并行計(jì)算的細(xì)節(jié),方便使用8. HDFS是基于流數(shù)據(jù)模式訪問和處理超大文件的需求而開發(fā)的,具有高容錯(cuò)、高可靠性、 高可擴(kuò)展性、高吞吐率等特征,適合的讀寫任務(wù)是_D。A. 次寫入,少次讀B. 多次寫入,少次讀C. 多次寫入,多次讀D. 次寫入,多次讀9. HBase依靠 A存儲(chǔ)底層數(shù)據(jù)。A. HDFSB.

3、 HadoopC. MemoryD. MapReduce10. HBase依賴 D 供強(qiáng)大的計(jì)算能力。A. ZookeeperB. ChubbyC. RPCD. MapReduce11. HBase依賴 A 提供消息通信機(jī)制A. ZookeeperB. ChubbyC. RPCD. Socket12. 下面與HDFS類似的框架是_C?A. NTFSB. FAT32C. GFSD. EXT313. 關(guān)于SecondaryNameNode下面哪項(xiàng)是正確的 C 。A. 它是NameNode的熱備B. 它對(duì)內(nèi)存沒有要求C. 它的目的是幫助 NameNode合并編輯日志,減少NameNode啟動(dòng)時(shí)間D.

4、 SecondaryNameNode 應(yīng)與 NameNode 部署到一個(gè)節(jié)點(diǎn)14. 大數(shù)據(jù)的特點(diǎn)不包括下面哪一項(xiàng)_D_。A. 巨大的數(shù)據(jù)量B. 多結(jié)構(gòu)化數(shù)據(jù)C. 增長(zhǎng)速度快D. 價(jià)值密度高HBase測(cè)試題1. HBase來源于哪一項(xiàng)?CA The Google File SystemB MapReduceC BigTableD Chubby2. 下面對(duì)HBase的描述哪些是正確的?B、C DA不是開源的B是面向列的C是分布式的D是一種NoSQL數(shù)據(jù)庫3. HBase依靠()存儲(chǔ)底層數(shù)據(jù)AA HDFSB HadoopC MemoryD Map Reduce4. HBase依賴()提供消息通信機(jī)制

5、AA ZookeeperB ChubbyC RPCD Socket5. HBase依賴()提供強(qiáng)大的計(jì)算能力DA ZookeeperB ChubbyC RPCD Map Reduce6. Map Reduce與HBase的關(guān)系,哪些描述是正確的?B、CA兩者不可或缺,Map Reduce是 HBase可以正常運(yùn)行的保證B兩者不是強(qiáng)關(guān)聯(lián)關(guān)系,沒有 Map Reduce HBase可以正常運(yùn)行C Map Reduce可以直接訪問 HBaseD它們之間沒有任何關(guān)系7. 下面哪些選項(xiàng)正確描述了HBase的特性? A、B、C DA高可靠性B高性能C面向列D可伸縮8. 下面與Zookeeper類似的框架是

6、? DA ProtobufB JavaC KafkaD Chubby9. 下面與HDFS類似的框架是? CA NTFSB FAT32C GFSD EXT310. 下面哪些概念是 HBase框架中使用的? A、CA HDFSB GridFSC ZookeeperD EXT3第二部分:HBase核心知識(shí)點(diǎn)11. LSM含義是? AA日志結(jié)構(gòu)合并樹B二叉樹C平衡二叉樹D基于日志結(jié)構(gòu)的合并樹12. 下面對(duì)LSM結(jié)構(gòu)描述正確的是?A、CA順序存儲(chǔ)B直接寫硬盤C需要將數(shù)據(jù)Flush到磁盤D是一種搜索平衡樹13. LSM更能保證哪種操作的性能?BA讀B寫C隨機(jī)讀D合并14. LSM的讀操作和寫操作是獨(dú)立的?

7、AA是。B否。C LSM并不區(qū)分讀和寫D LSM中讀寫是同一種操作15. LSM結(jié)構(gòu)的數(shù)據(jù)首先存儲(chǔ)在()。BA硬盤上B內(nèi)存中C磁盤陣列中D閃存中16 HFile數(shù)據(jù)格式中的 Data字段用于()。AA存儲(chǔ)實(shí)際的 KeyValue數(shù)據(jù)B存儲(chǔ)數(shù)據(jù)的起點(diǎn)C指定字段的長(zhǎng)度D存儲(chǔ)數(shù)據(jù)塊的起點(diǎn)17 HFile 數(shù)據(jù)格式中的 Metalndex字段用于()。DA Meta塊的長(zhǎng)度B Meta塊的結(jié)束點(diǎn)C Meta塊數(shù)據(jù)內(nèi)容D Meta塊的起始點(diǎn)18 HFile數(shù)據(jù)格式中的 Magic字段用于()。AA存儲(chǔ)隨機(jī)數(shù),防止數(shù)據(jù)損壞B存儲(chǔ)數(shù)據(jù)的起點(diǎn)C存儲(chǔ)數(shù)據(jù)塊的起點(diǎn)D指定字段的長(zhǎng)度19 HFile 數(shù)據(jù)格式中的Ke

8、yValue數(shù)據(jù)格式,下列選項(xiàng)描述正確的是()。A、DA是byte數(shù)組B沒有固定的結(jié)構(gòu)C數(shù)據(jù)的大小是定D有固定的結(jié)構(gòu)長(zhǎng)的20 HFile數(shù)據(jù)格式中的 KeyValue數(shù)據(jù)格式中Value部分是()。CA擁有復(fù)雜結(jié)構(gòu)的字符串B字符串C二進(jìn)制數(shù)據(jù)D壓縮數(shù)據(jù)第三部分:HBase高級(jí)應(yīng)用介紹31 HBase中的批量加載底層使用()實(shí)現(xiàn)。 AA MapReduceB HiveC CoprocessorD Bloom Filter32. HBase性能優(yōu)化包含下面的哪些選項(xiàng)?A、B C、DA讀優(yōu)化B寫優(yōu)化C配置優(yōu)化D JVM優(yōu)化33. Rowkey設(shè)計(jì)的原則,下列哪些選項(xiàng)的描述是正確的?A、B、CA盡量保

9、證越短越好B可以使用漢字C可以使用字符串D本身是無序的34. HBase構(gòu)建二級(jí)索引的實(shí)現(xiàn)方式有哪些?A、BA MapReduceB CoprocessorC Bloom FilterD Filter35. 關(guān)于HBase二級(jí)索引的描述,哪些是正確的?A BA核心是倒排表B二級(jí)索引概念是對(duì)應(yīng) Rowkey這個(gè)"一級(jí)”索引C二級(jí)索引使用平衡二叉樹D二級(jí)索引使用LSM結(jié)構(gòu)36. 下列關(guān)于Bloom Filter的描述正確的是?A、CA是一個(gè)很長(zhǎng)的二進(jìn)制向量和一系列隨機(jī)映射函數(shù)B沒有誤算率C有一定的誤算率D可以在 Bloom Filter中刪除元素第四部分:HBase安裝、部署、啟動(dòng)37.

10、 HBase官方版本可以安裝在什么操作系統(tǒng)上?A、B、CA Ce ntOSB Ubu ntuC RedHatD Win dows38. HBase虛擬分布式模式需要()個(gè)節(jié)點(diǎn)?AA 1D最少3個(gè)39. HBase分布式模式最好需要()個(gè)節(jié)點(diǎn)?CB 2C 3D最少關(guān)于hadoop的選擇題1、Doug Cutting所創(chuàng)立的項(xiàng)目的名稱都受到其家人的啟發(fā),以下項(xiàng)目不是由他 創(chuàng)立的項(xiàng)目是A. HadoopB. NutchC. LuceneD. Solr答案:D2、配置Hadoop時(shí),JAVA_HOM包含在哪一個(gè)配置文件中A. hadoop-default.xmlB. hadoop-e nv .shC.

11、 hadoop-site.xmlD. con figuratio n. xsl答案:B知識(shí)點(diǎn):hadoop配置3、 Hadoop配置文件中,hadoop-site.xml 顯示覆蓋 hadoop-default.xml 里的內(nèi) 容。在版本0.20中,hadoop-site.xml 被分離成三個(gè) XML文件,不包括A. con f-site.xmlB. mapred-site.xmlC. core-site.xmlD. hdfs-site.xml答案:A知識(shí)點(diǎn):hadoop配置4、 HDFS默認(rèn)的當(dāng)前工作目錄是/user/$USER , 的值需要在哪個(gè) 配置文件內(nèi)說

12、明A. mapred-site.xmlB. core-site.xmlC. hdfs-site.xmlD. 以上均不是答案:B知識(shí)點(diǎn):hadoop配置5、關(guān)于Hadoop單機(jī)模式和偽分布式模式的說法,正確的是A. 兩者都起守護(hù)進(jìn)程,且守護(hù)進(jìn)程運(yùn)行在一臺(tái)機(jī)器上B. 單機(jī)模式不使用HDFS但加載守護(hù)進(jìn)程C. 兩者都不與守護(hù)進(jìn)程交互,避免復(fù)雜性D. 后者比前者增加了 HDFS俞入輸出以及可檢查內(nèi)存使用情況答案:D知識(shí)點(diǎn):hadoop配置6 下列關(guān)于Hadoop API的說法錯(cuò)誤的是A. Hadoop的文件API不是通用的,只用于 HDFSfc件系統(tǒng)B. Con figurati on類的默認(rèn)實(shí)例化方

13、法是以HDFS系統(tǒng)的資源配置為基礎(chǔ)的C. FileStatus 對(duì)象存儲(chǔ)文件和目錄的元數(shù)據(jù)D. FSDataInputStream 是 java.io.DatalnputStream 的子類答案:A/HDFS 7、HDFS的NameNode負(fù)責(zé)管理文件系統(tǒng)的命名空間,將所有的文件和文件夾的 元數(shù)據(jù)保存在一個(gè)文件系統(tǒng)樹中,這些信息也會(huì)在硬盤上保存成以下文件:A. 日志B. 命名空間鏡像C. 兩者都是答案:C知識(shí)點(diǎn):8、HDFS勺namenode保存了一個(gè)文件包括哪些數(shù)據(jù)塊,分布在哪些數(shù)據(jù)節(jié)點(diǎn)上, 這些信息也存儲(chǔ)在硬盤上。A. 正確B錯(cuò)誤答案:B知識(shí)點(diǎn):在系統(tǒng)啟動(dòng)的時(shí)候從數(shù)據(jù)節(jié)點(diǎn)收集而成的9、Se

14、condary namenode就是namenode出現(xiàn)問題時(shí)的備用節(jié)點(diǎn)A. 正確 B錯(cuò)誤 答案:B知識(shí)點(diǎn):它和元數(shù)據(jù)節(jié)點(diǎn)負(fù)責(zé)不同的事情。其主要功能就是周期性將元數(shù)據(jù)節(jié)點(diǎn) 的命名空間鏡像文件和修改日志合并,以防日志文件過大。合并過后的命名空間鏡像文件也在Seco ndary name node保存了一份,以防name node失敗的時(shí)候,可 以恢復(fù)。10、 出現(xiàn)在data node的VERSION件格式中但不出現(xiàn)在 name no de的VERSION 文件格式中的是A. n amespaceIDB. storageIDC. storageTypeD. layoutVers ion答案:B知識(shí)

15、點(diǎn):其他三項(xiàng)是公有的。layoutVersion 是一個(gè)負(fù)整數(shù),保存了 HDFS的持 續(xù)化在硬盤上的數(shù)據(jù)結(jié)構(gòu)的格式版本號(hào);namespaceID是文件系統(tǒng)的唯一標(biāo)識(shí)符, 是在文件系統(tǒng)初次格式化時(shí)生成的;storageType表示此文件夾中保存的是數(shù)據(jù) 節(jié)點(diǎn)的類型11、Clie nt在HDFSt進(jìn)行文件寫入時(shí),name node根據(jù)文件大小和配置情況,返 回部分data node信息,誰負(fù)責(zé)將文件劃分為多個(gè) Block,根據(jù)DataNode的地址 信息,按順序?qū)懭氲矫恳粋€(gè)DataNode塊A. Clie ntB. Name nodeC. Data nodeD. Secon dary n ame

16、node答案:A知識(shí)點(diǎn):HDFSfc件寫入12、HDFS的是基于流數(shù)據(jù)模式訪問和處理超大文件的需求而開發(fā)的,默認(rèn)的最 基本的存儲(chǔ)單位是64M具有咼容錯(cuò)、咼可靠性、咼可擴(kuò)展性、咼吞吐率等特征, 適合的讀寫任務(wù)是A. 次寫入,少次讀寫B(tài)多次寫入,少次讀寫C一次寫入,多次讀寫D. 多次寫入,多次讀寫答案:C知識(shí)點(diǎn):HDFS!性13、HDFS無法高效存儲(chǔ)大量小文件,想讓它能處理好小文件,比較可行的改進(jìn) 策略不包括A. 利用SequenceFile、MapFile、Har等方式歸檔小文件B. 多Master設(shè)計(jì)C. Block大小適當(dāng)調(diào)小D. 調(diào)大namenode內(nèi)存或?qū)⑽募到y(tǒng)元數(shù)據(jù)存到硬盤里答案:D

17、知識(shí)點(diǎn):HDFSI性14、關(guān)于HDFS的文件寫入,正確的是A. 支持多用戶對(duì)同一文件的寫操作B. 用戶可以在文件任意位置進(jìn)行修改C. 默認(rèn)將文件塊復(fù)制成三份存放D. 復(fù)制的文件塊默認(rèn)都存在同一機(jī)架上答案:C知識(shí)點(diǎn):在HDFS的個(gè)文件中只有一個(gè)寫入者,而且寫操作只能在文件末尾完 成,即只能執(zhí)行追加操作。默認(rèn)三份文件塊兩塊在同一機(jī)架上, 另一份存放在其 他機(jī)架上。15、Hadoop fs中的-get和-put命令操作對(duì)象是A. 文件B. 目錄C. 兩者都是答案:C知識(shí)點(diǎn):HDF歸令16、Name nod在啟動(dòng)時(shí)自動(dòng)進(jìn)入安全模式,在安全模式階段,說法錯(cuò)誤的是A. 安全模式目的是在系統(tǒng)啟動(dòng)時(shí)檢查各個(gè)

18、DataNode上數(shù)據(jù)塊的有效性B. 根據(jù)策略對(duì)數(shù)據(jù)塊進(jìn)行必要的復(fù)制或刪除C. 當(dāng)數(shù)據(jù)塊最小百分比數(shù)滿足的最小副本數(shù)條件時(shí),會(huì)自動(dòng)退出安全模式D. 文件系統(tǒng)允許有修改答案:D知識(shí)點(diǎn):HDFS安全模式/Map Reduce17、MapReduce框架提供了一種序列化鍵/值對(duì)的方法,支持這種序列化的類能 夠在Map和Reduce過程中充當(dāng)鍵或值,以下說法錯(cuò)誤的是A. 實(shí)現(xiàn)Writable接口的類是值B. 實(shí)現(xiàn)WritableComparable<T>接口的類可以是值或鍵C. Hadoop 的基本類型 Text 并不實(shí)現(xiàn) WritableComparable<T> 接口D.

19、鍵和值的數(shù)據(jù)類型可以超出 Hadoop自身支持的基本類型答案:C18、以下四個(gè)Hadoop預(yù)定義的Mapper實(shí)現(xiàn)類的描述錯(cuò)誤的是A. Ide ntity Map per<K, V>B. In verseM appervK, V>C. RegexMappervK > 實(shí)現(xiàn) 規(guī)表達(dá)式的匹配項(xiàng)生成一個(gè)實(shí)現(xiàn)MappervK, V, K, V>,將輸入直接映射到輸出 實(shí)現(xiàn)Mapper<K, V, K, V>,反轉(zhuǎn)鍵/值對(duì)Map per<K, Text, Text, L on gWritable>,為每個(gè)常(match, 1)對(duì)D. TokenCou

20、ntMapper<K>實(shí)現(xiàn) Mapper<K, Text, Text, LongWritable>,當(dāng)輸入的值為分詞時(shí),生成(taken, 1)對(duì)答案:B 知識(shí)點(diǎn):In verse Map per<K, V> 實(shí)現(xiàn) Map per<K, V, V, K> 19、下列關(guān)于HDFS為存儲(chǔ)MapReduce并行切分和處理的數(shù)據(jù)做的設(shè)計(jì),錯(cuò)誤的 是A. FSDatalnputStream 擴(kuò)展了 DatalnputStream 以支持隨機(jī)讀B. 為實(shí)現(xiàn)細(xì)粒度并行,輸入分片(In put Split)應(yīng)該越小越好C. 一臺(tái)機(jī)器可能被指派從輸入文件的任意位置

21、開始處理一個(gè)分片D. 輸入分片是一種記錄的邏輯劃分,而HDFS數(shù)據(jù)塊是對(duì)輸入數(shù)據(jù)的物理分割 答案:B知識(shí)點(diǎn):每個(gè)分片不能太小,否則啟動(dòng)與停止各個(gè)分片處理所需的開銷將占很大 一部分執(zhí)行時(shí)間20、針對(duì)每行數(shù)據(jù)內(nèi)容為” Timestamp Url ”的數(shù)據(jù)文件,在用JobConf對(duì)象conf 設(shè)置 conf.setInputFormat(WhichInputFormat.class)來讀取這個(gè)文件時(shí),Which In putFormat應(yīng)該為以下的A. TextI nputFormatB. KeyValueTextI nputFormatC. Seque nceFile In putFormatD.

22、 NLi nel nputFormat答案:B知識(shí)點(diǎn):四項(xiàng)主要的InputFormat類。KeyValueTextInputFormat以每行第一個(gè) 分隔符為界,分隔符前為key,之后為value,默認(rèn)制表符為t21、有關(guān)Map Reduce的輸入輸出,說法錯(cuò)誤的是A. 鏈接多個(gè)Map Reduct乍業(yè)時(shí),序列文件是首選格式B. FileInputFormat中實(shí)現(xiàn)的getSplits() 可以把輸入數(shù)據(jù)劃分為分片,分片 數(shù)目和大小任意定義C. 想完全禁止輸出,可以使用 NullOutputFormatD. 每個(gè)reduce需將它的輸出寫入自己的文件中,輸出無需分片答案:B知識(shí)點(diǎn):分片數(shù)目在

23、numSplits中限定,分片大小必須大于map red.mi n. size個(gè)字節(jié),但小于文件系統(tǒng)的塊22、Hadoop Streami ng支持腳本語言編寫簡(jiǎn)單 Map Reduce程序,以下是一個(gè)例 子:bin/hadoop jar con trib/streami ng/hadoop-0.20-streami ng.jarin put in put/file nameoutput outputmapper dosth.py 5 'file dosth.pyD mapred.reduce.tasks=123、以下說法不正確的是A. Hadoop Streaming使用Unix中的

24、流與程序交互B. Hadoop Streami ng允許我們使用任何可執(zhí)行腳本語言處理數(shù)據(jù)流C. 采用腳本語言時(shí)必須遵從 UNIX的標(biāo)準(zhǔn)輸入STDIN并輸出到STDOUTD. Reduce沒有設(shè)定,上述命令運(yùn)行會(huì)出現(xiàn)問題答案:D知識(shí)點(diǎn):沒有設(shè)定特殊的reducer,默認(rèn)使用IdentityReducer24、在高階數(shù)據(jù)處理中,往往無法把整個(gè)流程寫在單個(gè) MapReducd乍業(yè)中,下列 關(guān)于鏈接Map Reduct乍業(yè)的說法,不正確的是A. Job和JobControl類可以管理非線性作業(yè)之間的依賴B. Cha inM apper和Cha in Reducer類可以用來簡(jiǎn)化數(shù)據(jù)預(yù)處理和后處理的構(gòu)

25、成C. 使用Cha in Reducer時(shí),每個(gè) map per和reducer對(duì)象都有一個(gè)本地 JobC onf 對(duì)象D. Cha in Reducer.addM apper()方法中,一般對(duì)鍵/值對(duì)發(fā)送設(shè)置成值傳遞,性能 好且安全性高答案:D知識(shí)點(diǎn):Cha in Reducer.addM apper()方法中,值傳遞安全性高,引用傳遞性能高 25、下面哪個(gè)程序負(fù)責(zé)HDFS數(shù)據(jù)存儲(chǔ)。答案C data nodea) NameNodeb) Jobtrackerc) Data noded) sec on daryNameNodee) tasktracker26. HDfS中的block默認(rèn)保存幾份

26、?答案A默認(rèn)3分a) 3份b) 2份c) 1份d) 不確定27. 下列哪個(gè)程序通常與NameNode在一個(gè)節(jié)點(diǎn)啟動(dòng)?答案 Da) Sec on daryNameNodeb) DataNodec) TaskTrackerd) Jobtracker28. Hadoop 作者 答案 C Doug cuttinga) Marti n Fowlerb) Ke nt Beckc) Doug cutt ing29. HDFS 默認(rèn) Block Size 答案:Ba) 32MBb) 64MBc) 128MB30、下列哪項(xiàng)通常是集群的最主要瓶頸:答案:C磁盤a)CPUb)網(wǎng)絡(luò)c)磁盤10d)內(nèi)存31. 關(guān)于Se

27、condaryNameNode哪項(xiàng)是正確的?答案 Ca)它是NameNode的熱備b)它對(duì)內(nèi)存沒有要求c)它的目的是幫助NameNode合并編輯日志,減少 NameNode啟動(dòng)時(shí)間 d)Seco ndaryNameNode 應(yīng)與 NameNode 部署到一個(gè)節(jié)點(diǎn)。多選題:1. 下列哪項(xiàng)可以作為集群的管理?答案: ABDa) Puppetb) Pdshc) Cloudera Man agerd) Zookeeper2. 配置機(jī)架感知的下面哪項(xiàng)正確:答案 ABCa)如果一個(gè)機(jī)架出問題,不會(huì)影響數(shù)據(jù)讀寫b)寫入數(shù)據(jù)的時(shí)候會(huì)寫到不同機(jī)架的 DataNode中c)MapReduce會(huì)根據(jù)機(jī)架獲取離自己比較近的網(wǎng)絡(luò)數(shù)據(jù)3. Clie nt端上傳文件的時(shí)候下列哪項(xiàng)正確?答案 Ba)數(shù)據(jù)經(jīng)過NameNode傳遞給DataNodeb)Client 端將文件切分為Block,依次上傳c)Client只上傳數(shù)據(jù)到一臺(tái)DataNode,然后由NameNode負(fù)責(zé)Block復(fù)制工作4. 下列哪個(gè)是Hadoop運(yùn)行的模式:答案ABCa)單機(jī)版b)偽分布式c)

溫馨提示

  • 1. 本站所有資源如無特殊說明,都需要本地電腦安裝OFFICE2007和PDF閱讀器。圖紙軟件為CAD,CAXA,PROE,UG,SolidWorks等.壓縮文件請(qǐng)下載最新的WinRAR軟件解壓。
  • 2. 本站的文檔不包含任何第三方提供的附件圖紙等,如果需要附件,請(qǐng)聯(lián)系上傳者。文件的所有權(quán)益歸上傳用戶所有。
  • 3. 本站RAR壓縮包中若帶圖紙,網(wǎng)頁內(nèi)容里面會(huì)有圖紙預(yù)覽,若沒有圖紙預(yù)覽就沒有圖紙。
  • 4. 未經(jīng)權(quán)益所有人同意不得將文件中的內(nèi)容挪作商業(yè)或盈利用途。
  • 5. 人人文庫網(wǎng)僅提供信息存儲(chǔ)空間,僅對(duì)用戶上傳內(nèi)容的表現(xiàn)方式做保護(hù)處理,對(duì)用戶上傳分享的文檔內(nèi)容本身不做任何修改或編輯,并不能對(duì)任何下載內(nèi)容負(fù)責(zé)。
  • 6. 下載文件中如有侵權(quán)或不適當(dāng)內(nèi)容,請(qǐng)與我們聯(lián)系,我們立即糾正。
  • 7. 本站不保證下載資源的準(zhǔn)確性、安全性和完整性, 同時(shí)也不承擔(dān)用戶因使用這些下載資源對(duì)自己和他人造成任何形式的傷害或損失。

評(píng)論

0/150

提交評(píng)論