數(shù)據(jù)工程師培訓題庫(四)_第1頁
數(shù)據(jù)工程師培訓題庫(四)_第2頁
數(shù)據(jù)工程師培訓題庫(四)_第3頁
數(shù)據(jù)工程師培訓題庫(四)_第4頁
已閱讀5頁,還剩8頁未讀 繼續(xù)免費閱讀

下載本文檔

版權說明:本文檔由用戶提供并上傳,收益歸屬內(nèi)容提供方,若內(nèi)容存在侵權,請進行舉報或認領

文檔簡介

1、精品TDH數(shù)據(jù)平臺認證工程師試題姓名: _ 分數(shù): _【說明】a) 客觀題 30 題,每題 2 分,總計 60 分b) 主觀題 4 題,每題 10 分,總計 40 分c) 滿分 100 分?!静欢椷x擇題(每題2 分共 60 分)】1、下列與HDFS有關的說法正確的是()A HDFS DataNode節(jié)點上的磁盤需要做 RAID1,用來保證數(shù)據(jù)的可靠性B HDFS可以在磁盤之間通過 balance 操作,平衡磁盤之間的負載情況CHDFS建議 DataNode 之間的數(shù)據(jù)盤個數(shù)、容量大小不一致,以體現(xiàn)HDFS的負載均衡能力D規(guī)劃 HDFS集群時,建議Active NameNode 和 Stand

2、by NameNode 分配在不同的機架上2、以下哪個服務作為HDFS高可靠協(xié)調(diào)服務的共享存儲?()A. ZooKeeperB. JournalNodesC. NameNodeD. ZKFailoverController3、在集群中配置HDFS的副本數(shù)為3,設置數(shù)據(jù)塊大小為128M ,此時我們上傳一份64M的數(shù)據(jù)文件,該數(shù)據(jù)文件占用HDFS空間大小為()A.64MB . 128MC . 384MD . 192M4、在 Yarn 服務中,不包含以下哪種角色()A . ResourceManagerB . NodeManagerC . ApplicationMasterD . Contianer

3、5、ResourceManager 是 YARN的主要組成部分,有關其功能描述不正確的是()A . 它直接將集群所擁有的資源按需分配給運行在YARN上的應用程序B . 它負責將集群中的所有資源進行統(tǒng)一管理和分配C . 它接受各個節(jié)點的資源匯報信息D . 它把資源按照策略分配給各應用感謝下載載精品6、當前用戶提交了一個wordcount 詞頻統(tǒng)計的任務,最后任務執(zhí)行失敗,可能的原因有哪些()A . 當前集群中沒有足夠的資源,不足以滿足當前wordcount 任務的需求B . 執(zhí)行該任務的用戶沒有權限訪問HDFS上的數(shù)據(jù)文件C . 用戶在執(zhí)行任務之前在 HDFS相應的目錄下創(chuàng)建了提交任務時指定的輸

4、出目錄 D . 以上原因都有可能7、以下關于外表和托管表描述正確的是()A、外表的數(shù)據(jù)存儲在本地,托管表的數(shù)據(jù)存儲在hdfs 上B、刪除托管表只會刪除 Inceptor 上的元數(shù)據(jù)不會刪除數(shù)據(jù)文件, 刪除外表兩者都會被刪除C、刪除外表只會刪除 Inceptor 上的元數(shù)據(jù)不會刪除數(shù)據(jù)文件, 刪除托管表兩者都會被刪除D、刪除托管表或外表,incepotr 上的元數(shù)據(jù)和數(shù)據(jù)文件都會被刪除8、SQL運行中如果出現(xiàn)maptask 數(shù)據(jù)特別多,執(zhí)行時間又很短時可以通過小文件合并來進行優(yōu)化,以下是合并參數(shù)有()A. SET ngmr.partition.automerge = TRUE;B. SET ng

5、mr.partition.mergesize = n;C. SET ngmr.partition.mergesize.mb = m;D. SET mapred.reduce.tasks = N;9、以下關于inceptor 日志信息描述正確的有()A.Inceptor server 日志存放于各節(jié)點的/var/log/inceptorsqlx/hive-server.logB. 可以通過 inceptor server 4040 查看 SQL錯誤日志C. Excutor 日志存放于 excutor 節(jié)點的 /var/log/inceptorsqlx/spark -excutor.logD Ex

6、cutorGC 日志存放于excutor 節(jié)點的 /var/log/inceptorsqlx/spark-excutor.gc.log10、tableA有 10G 的數(shù)據(jù), tableB 有 100G 的數(shù)據(jù),兩個表通過共有的id 列做關聯(lián)查詢name 列,以下方式可以優(yōu)化計算效率的是()A. select /*+MAPJOIN(a)*/ , from tableA a join tableB b on a.id=b.idB. select /*+MAPJOIN(b)*/ , from tableA a join tableB b on a.id

7、=b.idC. 建表時將 tableA 和 tableB 根據(jù) id 字段分相同數(shù)量的桶D. 建表時將 tableA 和 tableB 根據(jù) name 字段分相同數(shù)量的桶11、以下屬于HMaster 功能的是()A 為 Region Server 分配 regionB 存儲數(shù)據(jù)元信息C 對 region 進行 compact 操作D 管理用戶對table 的增刪改查操作感謝下載載精品12、Hyperbase 與 Inceptor 的關系,描述正確的是()A 兩者不可或缺,Inceptor保證 Hyperbase 的服務的正常運行B 兩者沒有任何關系C Inceptor可以訪問 Hyperbas

8、eD 兩者相輔相成13、下列創(chuàng)建全局索引的語句,正確的是()A add_index't1', 'index_name , COMBINE_INDEX|INDEXED=f1:q1:9|rowKey:rowKey:10,UPDATE=true'B add_global_index't1', 'index_name ,'COMBINE_INDEX|INDEXED=f1:q1:9|rowKey:rowKey:10,UPDATE=true'C add_fulltext_index't1', 'index_na

9、me ,'COMBINE_INDEX|INDEXED=f1:q1:9|rowKey:rowKey:10,UPDATE=true'D create_global_index't1', 'index_name ,'COMBINE_INDEX|INDEXED=f1:q1:9|rowKey:rowKey:10,UPDATE=true'14、以下對流處理計算框架描述不正確的是()A Spark Streaming 是基于微批( batch)對數(shù)據(jù)進行處理的B Apache Storm 是基于時間( event)對數(shù)據(jù)進行處理的C Transwarp

10、 StreamSQL 可基于微批或事件對數(shù)據(jù)進行處理D 以上說法都不對15、某交通部門通過使用流監(jiān)控全市過往24 小時各個卡口數(shù)據(jù),要求每分鐘更新一次,原始流為org_stream ,以下實現(xiàn)正確的是()A. CREATE STREAMWINDOW traffic_stream AS SELECT * FROM original_stream STREAM w1 AS (length '1' minute slide '24' hour);B. CREATE STREAM traffic_stream AS SELECT * FROM original_stre

11、am STREAMWINDOW w1 AS (length '1' minute slide '24' hour);C. CREATE STREAM traffic_stream AS SELECT * FROM original_stream STREAMWINDOW w1 AS (length '24' hour slide '1' minute);D. CREATE STREAMtraffic_stream AS SELECT * FROM original_stream AS (length '24' se

12、cond slide '1' minute);16、Zookeeper 服務描述正確的為()A . Zookeeper 中每一個server 互為 leader 。B . Zookeeper 中只有一個leader,并通過備份機制產(chǎn)生。C . Zookeeper 中不存在leader,所有 server 共同提供服務。D . Zookeeper 通過選舉機制確定leader ,有且僅有一個。感謝下載載精品17、通過Hue 修改 HDFS目錄或文件的權限可以通過以下哪些方式實現(xiàn)()AHdfs 相應的權限B通過 Hue 超級用戶 hue 登錄C以 hdfs 用戶登錄D以上都可以18

13、、通過Oozie 使用 ssh,必須滿足以下條件()A以 root 用戶登錄各個節(jié)點BOozie 用戶可以免密鑰登錄COozie 用戶必須要有 bash 權限D .所訪問必須是集群的節(jié)點19、有關使用 sqoop 抽取數(shù)據(jù)的原理的描述不正確的是()A .sqoop 在抽取數(shù)據(jù)的時候可以指定map 的個數(shù), map 的個數(shù)決定在hdfs 生成的數(shù)據(jù)文件的個數(shù)B .sqoop 抽取數(shù)據(jù)是個多節(jié)點并行抽取的過程,因此map 的個數(shù)設置的越多性能越好C .sqoop 任務的切分是根據(jù) split 字段的(最大值-最小值) /map 數(shù)D .sqoop 抽取數(shù)據(jù)的時候需要保證執(zhí)行當前用戶有權限執(zhí)行相應的

14、操作20、在使用sqoop 連接關系型數(shù)據(jù)時,下面哪個命令可以查看關系型數(shù)據(jù)庫中有哪些表?()A. sqoop list -databases -username root-password 111111-connect jdbc:mysql:/5:3306/B. sqoop list -databases -username root-P-connect jdbc:mysql:/5:3306/C. sqoop list -databases -username root-password-file file:/root/.pwd-conne

15、ct jdbc:mysql:/5:3306/D. sqoop list -tables- username root- password 111111- connect jdbc:mysql:/5:3306/test感謝下載載精品21、要將采集的日志數(shù)據(jù)作為kafka 的數(shù)據(jù)源,則flume sink 需要設置為下列哪項參數(shù)()A . hdfsB . kafkaC . org.apache.flume.sink.kafka.KafkaSinkD . topicname22、下列是關于flume 和 sqoop 對比的描述,不正確的是()A .

16、 flume 主要用來采集日志而sqoop 主要用來做數(shù)據(jù)遷移B . flume 主要采集流式數(shù)據(jù)而sqoop 主要用來遷移規(guī)范化數(shù)據(jù)C . flume 和 sqoop 都是分布式處理任務D . flume 主要用于采集多數(shù)據(jù)源小數(shù)據(jù)而sqoop 用來遷移單數(shù)據(jù)源數(shù)據(jù)23、有關 Elasticsearch 描述有誤的一項是()A 它會利用多播形式發(fā)現(xiàn)節(jié)點。B 主節(jié)點 (master node)通過選舉方式產(chǎn)生。C 主節(jié)點 (master node) 進行集群的管理,只負責集群節(jié)點添加和刪除。D主節(jié)點會去讀集群狀態(tài)信息,必要的時候進行恢復工作。24、下面措施中,不能保證kafka 數(shù)據(jù)可靠性的是

17、()A . kafka 會將所有消息持久化到硬盤中保證其數(shù)據(jù)可靠性B . kafka 通過 Topic Partition 設置 Replication 來保證其數(shù)據(jù)可靠性C . kafka 通過設置消息重發(fā)機制保證其數(shù)據(jù)可靠性D . kafka 無法保證數(shù)據(jù)可靠性25、TDH 提供哪幾種認證模式?()A 所有服務使用簡單認證模式所有服務都無需認證即可互相訪問B 所有服務都啟用Kerberos 認證,用戶要提供Kerberos principal和密碼(或者keytab )來訪問各個服務C 所有服務都啟用 Kerberos 同時 Inceptor 啟用 LDAP認證D 所有服務都啟用 LDAP

18、認證26、開啟 LDAP后,應該使用哪個命令連接Inceptor ()A. transwarp -t -h $ip。B.beeline -u jdbc:hive2:/$ip:10000-n $username -p $password。C.beeline -u"jdbc:hive2:/$ip:10000/default;principal=hive/node1TDH"。D.beeline -u"jdbc:hive2:/$ip:10000/default;principal=user1TDH"。感謝下載載精品27、Inceptor server 服務無法啟

19、動時,該如何查看日志是()A 查看 TDH manager 所在節(jié)點 /var/log/inceptorsql*/目錄下的 hive-server2.log 日志B 查看 Inceptor server 所在節(jié)點 /var/log/inceptorsql*/目錄下的 hive-server2.log 日志C查 看Resource Manager 所在 節(jié) 點/var/log/Yarn*/ 目 錄 下 的yarn-yarn-resourcemanager -poc-node1.log 日志D 查看任意節(jié)點 /var/log/inceptorsql*/目錄下的 hive-server2.log 日志28、現(xiàn)有一批數(shù)據(jù)需要進行清洗,要求對其中null 通過 update 轉換為 0,刪除重復的記錄,添加部分新的記錄,則該表應該設計為()A. Tex表B. Orc 表C. Orc 事務表D. Holodesk 表

溫馨提示

  • 1. 本站所有資源如無特殊說明,都需要本地電腦安裝OFFICE2007和PDF閱讀器。圖紙軟件為CAD,CAXA,PROE,UG,SolidWorks等.壓縮文件請下載最新的WinRAR軟件解壓。
  • 2. 本站的文檔不包含任何第三方提供的附件圖紙等,如果需要附件,請聯(lián)系上傳者。文件的所有權益歸上傳用戶所有。
  • 3. 本站RAR壓縮包中若帶圖紙,網(wǎng)頁內(nèi)容里面會有圖紙預覽,若沒有圖紙預覽就沒有圖紙。
  • 4. 未經(jīng)權益所有人同意不得將文件中的內(nèi)容挪作商業(yè)或盈利用途。
  • 5. 人人文庫網(wǎng)僅提供信息存儲空間,僅對用戶上傳內(nèi)容的表現(xiàn)方式做保護處理,對用戶上傳分享的文檔內(nèi)容本身不做任何修改或編輯,并不能對任何下載內(nèi)容負責。
  • 6. 下載文件中如有侵權或不適當內(nèi)容,請與我們聯(lián)系,我們立即糾正。
  • 7. 本站不保證下載資源的準確性、安全性和完整性, 同時也不承擔用戶因使用這些下載資源對自己和他人造成任何形式的傷害或損失。

評論

0/150

提交評論