2024年世界職業(yè)院校技能大賽中職組“大數據應用與服務組”賽項考試題庫(含答案)_第1頁
2024年世界職業(yè)院校技能大賽中職組“大數據應用與服務組”賽項考試題庫(含答案)_第2頁
2024年世界職業(yè)院校技能大賽中職組“大數據應用與服務組”賽項考試題庫(含答案)_第3頁
2024年世界職業(yè)院校技能大賽中職組“大數據應用與服務組”賽項考試題庫(含答案)_第4頁
2024年世界職業(yè)院校技能大賽中職組“大數據應用與服務組”賽項考試題庫(含答案)_第5頁
已閱讀5頁,還剩118頁未讀, 繼續(xù)免費閱讀

下載本文檔

版權說明:本文檔由用戶提供并上傳,收益歸屬內容提供方,若內容存在侵權,請進行舉報或認領

文檔簡介

2024年世界職業(yè)院校技能大賽中職組“大數據應用與服務組”

賽項考試題庫(含答案)

一、單選題

1.ZooKeeper的特點不包括()。

A、順序一致性

B、原子性

C、可靠性

D、復合系統(tǒng)映像

答案:D

2.在hadoop配置中core-site,xml的配置是()參數。

A、集群全局參數

B、HDFS參數

C、Mapreduce參數

D、集群資源管理系統(tǒng)參數

答案:A

3.當Kafka中日志片段大小達到()時,當前日志片段會被關閉。

A、1M

B、100M

C、1GB

D、10GB

答案:C

4Hive中的哪個配置參數用于指定Hive的臨時文件目錄()?

A、hive.tmp.dir

Bvhive.temp.directory

C、hive.temp.dir

D、hive.tmp.directory

答案:A

5.Flume的哪個版本加入了Kafka作為源和匯點?()

A、1.X版本

B、2.X版本

C、3.X版本

D、4.X版本

答案:B

6.Kafka的消息是如何進行順序寫入的?()

A、順序寫入到磁盤

B、順序寫入到內存

C、順序寫入到緩存

D、順序寫入到索引文件

答案:A

7.Stage的Task的數量由()決定。

A、Partition

B、Job

C、Stage

D、TaskScheduIer

答案:A

8.sqoop的組件功能是()o

A、sqoop只能實現關系型數據庫向非關系型數據傳輸數據

B\sqoop是關系型數據庫

C、sqoop實現在關系型數據庫和非關系型數據庫之間時行數據傳輸

D、sqoop是非關系型數據庫

答案:C

9.ZooKeeper中的一次寫操作是原子的嗎?()

A、是,寫操作是原子的

B、否,寫操作可能不是原子的

C、取決于寫操作的類型

D、取決于節(jié)點的類型

答案:A

10.FIink的高可用性(HighAvailabiIity)設置通常需要配置的組件是()。

A、JobManager和TaskManager

B\ResourceManager和NodeManager

GNameNode和DataNode

D、ZooKeeper集群

答案:D

11.在Flink中,水位線是()生成的。

A、基于系統(tǒng)時間的周期性

B、基于事件時間的周期性

C、由用戶手動指定

D、實時

答案:A

12.典型的麗$01.數據庫是()。

A、Hive

B、MySQL

C、Hbase

D\OracIe

答案:C

13.Flink的窗口操作通常在()執(zhí)行,以對數據進行分組、聚合和統(tǒng)計。

A、數據產生時

B、數據進入Flink時

C、數據在窗口中間時

D、數據離開Flink時

答案:C

14.要在Hive中啟用Kerberos認證,應該設置哪個配置參數()?

A、hive.security.authentication

B\hive.kerberos.enabIed

C、hive.auth.kerberos

D\hive.authentication.method

答案:A

15.Hive中的自動分區(qū)是通過哪個配置參數啟用的()?

A、hive.auto,partition

Bvhive.partition.auto

C、hive.exec,dynamic,partition

D、hive.partitioning.auto

答案:c

16.以下選項哪個是MapReduce正確的運行模型()。

A、Reduce-Map-ShuffIe

B、ShuffIe-Map-Reduce

C、Map-ShuffIe-Reduce

D、Map-Reduce-ShuffIe

答案:c

17.將一個RDD轉換為DataFrame的方法是()。

A、dataFrame()

B\toDataFrame0

C、DF0

D、toDF0

答案:D

18.Hadoop集群中存在的主要性能瓶頸是()。

A、CPU

B、網絡

C\磁盤10

D、內存

答案:C

19.以下選項中說法正確的是()。

A、DAG是彈性分布式數據集的簡稱,是分布式內存的一個抽象概念,提供了一

種高度受限的共享內存模型

B、Application是運行在工作節(jié)點的一個進程,負責運行Task

C\Job是運行在Executor上的工作單元

D、Stage是Job的基本調度單位,一/Job會分為多組Task,每組Task被稱為

Stage

答案:D

20.Dataset最終在()版本中被定義成Spark新特性。

A、Sparkl.6

B、Sparkl.8

C、Spark2.0

D\Spark2.2

答案:c

21.在Hive中,哪個配置參數用于指定HiveCLI的歷史命令記錄目錄()?

A、hive.history,fiIe.directory

Bvhive.query.Iog.dir

C、hive.cIi.history,directory

D、hive.command.Iog.dir

答案:c

22.Docker中的每一個工作都可以抽象為一個()。

A、實例

B、進程

C、Job

D、請求

答案:C

23.關于Hivemetastore的三種模式的描述錯誤的是()。

A、Derby方式是內嵌的方式,也是默認的啟動方式,一般用于單元測試

B、local模式中,使用MySQL本地部署實現metastore

C、remote模式為遠程MySQL

D、erby方式在同一時間只能有多個進程連接使用數據庫

答案:D

24.Kafka是一種()。

A、數據庫系統(tǒng)

B、分布式消息隊列系統(tǒng)

C、緩存系統(tǒng)

D、文件系統(tǒng)

答案:B

25.在Hive中,以下哪個配置參數用于指定Hive的執(zhí)行引擎為Spark()?

A、hive.execution.engine=spark

B\hive.spark,execution.engine=true

C、hive.spark,engine.enabIed=true

D、hive.query,engine=spark

答案:A

26.Hive中的哪個配置參數用于指定Hive元數據存儲的連接URL()?

Avhive.metastore,db.urI

B、hive.metastore.uri

C、hive.metastore,connection.urI

Dvhive.metastore,db.connection

答案:A

27.將大數據平臺數據導出到mysqI可以使用()工具。

A、Hadoop

B、Sqoop

C、Hive

D、XshelI

答案:B

28.在導入開始之前,Sqoop檢索出表中所有的列以及列的SQL數據類型,這些SQ

L類型被映射什么類型()。

A、C

B、C++

C、Java

D\Python

答案:c

29.Flink的CEP(CompIexEventProcessing)庫用于(),幫助檢測和處理特定

的事件模式。

A、執(zhí)行復雜數據處理操作

B、處理圖形數據

C、處理實時事件流

D、控制數據流速度

答案:C

30.關于DataFrame的優(yōu)勢,以下描述錯誤的是O。

A、DataFrame提升了Spark框架的執(zhí)行效率

B\DataFrame減少了數據讀取時間

C\DataFrame可以優(yōu)化執(zhí)行計劃

D\ataFrame可以完全替換RDD

答案:D

31.Kafka的高可用性是通過什么機制實現的?()

A、數據復制

B、數據壓縮

C、數據分片

D、數據緩存

答案:A

32.使用Dockerrm命令刪除容器時只刪除容器的鏈接,需要使用的命令選項是()。

A、f

B、I

C、v

D、i

答案:B

33.在hive中下列哪個命令不可以實現去重()。

A、distinet

B、groupby

Cvrow_number

Dvhaving

答案:D

34.關于SparkSQL,以下描述錯誤的是()。

A、SparkSQL使用的數據抽象并非是DataFrame,而是RDD

B、在Spark的早期版本中,DataFrame被稱為SchemaRDD

C\DataFrame是一種以RDD為基礎的分布式數據集

D、ataFrame可以完成RDD的絕大多數功能

答案:A

35.Kafka的消息壓縮算法可以選擇的方式是()。

A、GZIP

B、Snappy

C、LZ4

D、所有以上

答案:D

36.FIink的廣播狀態(tài)(Broadcaststate)用于()。

A、在所有任務之間共享狀態(tài)

B、保持數據流的連續(xù)性

C、加速數據處理

D、控制數據流速度

答案:A

37.Sqoop將導入或導出命令翻譯成什么程序來實現導入導出()o

A、Spark

B、Storm

C\MapReduce

D\Tez

答案:C

38.關于ZooKeeper說法錯誤的是()。

A、ZooKeeper是一個高可用的分布式數據管理和協(xié)調框架

B、能夠很好的保證分布式環(huán)境中數據的一致性

C、越來越多的分布式系統(tǒng)(HadoopvHBase、Kafka)中使用ZooKeeper

D、Hadoop的高可用不需要用到ZooKeeper

答案:D

39.DockerfiIe配置文件使用()命令指定基礎鏡像。

A、IMPORT

B、GET

C、OPEN

D、FROM

答案:D

40.測試Sqoop是否能夠正常連接MySQL數據庫命令是()。

A、sqoopIist-database-connectjdbc:mysqI://127.0.0.1:3306/-usernamer

oot-P

B、sqoopIist-databases-connectionjdbc:mysqI://127.0.0.1:3306/-usern

ameroot-P

CvsqoopIist-databases-connectjdbc:mysqI://127.0.0.1:3306/-username

root-L

D、sqoopIist-databases-connectjdbc:mysqI://127.0.0.1:3306/-username

root-P

答案:D

41.hadoop2.0與hadoopl.0區(qū)別()。

A、增加MapReduce2

B、增加YARN

G增加HDFS2

D、增加容錯機制

答案:B

42.Sqoop中哪個參數用于指定要使用的分隔符,以便在導入數據時正確處理字

段?()

A、-fieId-separator

B\-fs

C、-deIimiter

D、-spIit-by

答案:A

43.SparkSQL中,model函數可以接收的參數有哪些()。

AvOverride、Ignore

B、Override、Ignore、Append

C、Ignore、Append、ErrorIfExists

DvOverridexIgnore、AppendsErrorIfExists

答案:D

44.在ZooKeeper中,每個節(jié)點都有一個唯一的標識符,這個標識符是()。

A、ZNode

B、EphemeraINode

C、PersistentNode

D、ZooNode

答案:A

45.ZooKeeper中的一次讀操作是原子的嗎?()

A、是,讀操作是原子的

B、否,讀操作可能不是原子的

C、取決于讀操作的類型

D、取決于節(jié)點的類型

答案:A

46.FIink的時間語義(TimeSemantics)中的事件時間(EventTime)和處理時

間(ProcessingTime)的區(qū)別是()。

A、事件時間是事件發(fā)生的時間,處理時間是事件進入Flink的時間

B、事件時間是事件進入Flink的時間,處理時間是事件發(fā)生的時間

C、事件時間和處理時間是相同的

D、事件時間和處理時間沒有明確的定義

答案:A

47.在Hive中,以下哪個配置參數用于指定Hive執(zhí)行計劃的輸出目錄()?

A、hive.query,pIan.output,directory

B、hive.exec,pIan.output,directory

C、hive.pIan.output,directory

D、hive.query,execution.directory

答案:A

48.啟動一個容器的操作命令是()。

A、dockerstart

B、dockeropen

Cvdockernew

Dvockergo

答案:A

49.Flink的本地模式(LocaIMode)和集群模式(CIusterMode)之間的主要區(qū)

別是()。

A、部署方式

B、編程語言

C、安全性設置

D、并行度設置

答案:A

50.消費者出現活鎖問題時應該()。

A、增加max.poll,intervaI.ms相關參數

B、減少消費者數量

C、重啟集群

D、提IWJpoII頻率

答案:A

51.Hive中分組的關鍵字是什么()?

Axgroupby

Bvorderby

C、distributeby

D、sortby

答案:A

52.關于Hive數據傾斜問題描述正確的是()。

A、不需要了解業(yè)務,對業(yè)務進行數據探查無法解決數據傾斜

B、每一個數據傾斜的作業(yè)都需要優(yōu)化

C、小文件合并不會解決數據傾斜的問題

D、可以適當的通過控制mapper和reducer來控制數據傾斜的問題

答案:D

53.在Docker的運行過程中,對鏡像的操作不包括()。

A、deIete

B、search

C、puII

Dvpush

答案:A

54.關于SparkStreaming的優(yōu)點,不包括()。

A、易用性

B、容錯性

C、易整合性

D、低吞吐量

答案:D

55.下列關于MapReduce說法不正確的是()。

A、MapReduce是一種計算框架

B\MapReduce來源于googIe的學術論文

C\MapReduce程序只能用java語言編寫

D\MapReduce隱藏了并行計算的細節(jié),方便使用

答案:C

56.以下關于Spark中的RDD的說法,錯誤的是()。

A、RDD就是一個分布式對象集合,本質上是一個只讀的分區(qū)記錄集合

B、每個RDD可分成多個分區(qū),每個分區(qū)就是一個數據集片段

C、RDD提供了一種高度共享內存模型,RDD既可以讀,也可以直接修改

D、RDD的不同分區(qū)可以被保存到集群中不同的節(jié)點上,從而可以在集群中的不

同節(jié)點上進行并行計算

答案:c

57.以下關于Spark計算框架,說法錯誤的是()。

A、Spark支持內存計算

B、Spark框架是使用Java編寫的

C、Spark提供了完整而強大的技術棧,包括SQL查詢、流式計算、機器學習和

圖算法組件

D\Spark可運行于獨立的集群模式中,可運行于Hadoop中,也可運行于Amazo

nEC2等云環(huán)境中

答案:B

58.在Hadoop生態(tài)組件中,哪個產品可用于復雜的批量數據處理。()

A、MapReducevHive

B、ImpaIa

C、Storm

D、Mahout

答案:A

59.在Hive中,以下哪個配置參數用于指定Hive服務器的端口號()?

A、hive,server,port

B、hive.server2,thrift.port

Cvhive.server,rpc.port

Dvhive,thrift,server.port

答案:B

60.HadoopMapReduce支持多種語言編程,下列說法不正確的是()。

A、可以用JAVA語言編寫MapReduce應用程序

B、可以用C/C++語言編寫MapReduce應用程序

C、可以用Python語言編寫MapReduce應用程序

D、可以用javascript語言編寫MapReduce應用程序

答案:D

61.查看HDFS的報告命令是0o

A、bin/hdfsdfsadmin-report

B、in/hdfs-report

C、bin/hdfsdeadmin-report

D、bin/hdfsdfs-report

答案:A

62.以下選項哪個是HDFS的名稱節(jié)點()。

A、DataNode

B、SecondaryNode

C、Node

DvNameNode

答案:D

63.SparkJob默認的調度模式是()。

A、FIFO

B、FAIR

C\無

D、運行時指定

答案:A

64.Flume的哪個版本引入了Kafka作為其事件源和接收器?()

A、FIume1.6

B、FIume1.7

C、DH5.0

D、CDH5.1

答案:c

65.在ZooKeeper中,關于節(jié)點的ACL(訪問控制列表)說法錯誤的是O。

A、CL可以用于控制節(jié)點的讀寫權限

B、ACL可以定義多個權限組合

C、ACL可以設置到子節(jié)點上并繼承父節(jié)點的權限

D、ACL只能設置在持久節(jié)點上

答案:D

66.查看Docker所有容器的命令是()。

A、dockerps

B、dockerps-a

C、dockerpsaII

D、ockeraII

答案:B

67.Flume的事件Body可以包含什么類型的數據?()

A、String,Byte數組,字節(jié)流,MapVString,String>和自定義對象序列化后的數

據。

B\String,Map<String,String>和自定義對象序列化后的數據。

C、Byte數組,字節(jié)流和自定義對象序列化后的數據。

D、String和自定義對象序列化后的數據。

答案:A

68.在ZooKeeper中,節(jié)點可以設置監(jiān)聽器嗎?()

A、是,可以設置監(jiān)聽器

B、否,節(jié)點沒有監(jiān)聽功能

C、取決于節(jié)點的類型

D、取決于節(jié)點的權限設置

答案:A

69.Flink中的轉換算子(TransformationOperator)通常用于()。

A、計算作業(yè)的結果

B、控制作業(yè)的執(zhí)行順序

C、定義數據源

D、過濾和轉換數據流

答案:D

70.Flink的安裝過程中,通常需要設置()來指定Flink的根目錄。

A、JAVA_HOME

B、PATH

C、FLINK_HOME

D、FLINK_PATH

答案:C

71.0不是Spark的四大組件。

A、SparkStreaming

B、MlIib

C、GraphX

D、SparkR

答案:D

72.關于Dataset,下列說法錯誤的是()。

AvDataset能從RDD中構建

B、Dataset提供了特定域對象中的弱類型集合

C、Dataset結合了RDD和DataFrame的優(yōu)點

D、ataset可以通過SparkSession中的createDataset來創(chuàng)建

答案:B

73.下列()不是RDD的緩存方法。

A、persist0

B、Cache()

C、Memory0

D、以上都不是

答案:C

74.在Hive中,以下哪個配置參數用于指定Hive元數據存儲的數據庫類型()?

Avhive.metastore,uris

B、hive.metastore,schema

C、hive.metastore,db.type

D、hive.metastore,db.urI

答案:c

75.下列描述中,哪項不屬于Sqoop的缺點()。

A、無法控制任務的并發(fā)度

B、格式緊耦合

C、安全機制不夠完善

D、connector必須符合JDBC模型

答案:A

76.Hive中的配置文件通常位于哪個目錄中()?

A、/etc/hive/conf

B、/etc/hadoop/conf

C、/etc/hive/

D、/etc/hive/config

答案:A

77.Flume的哪個攔截器可以按類型區(qū)分事件?()

A、ETL攔截器

B、分區(qū)攔截器

C、以上都不是

D、以上都是

答案:A

78.yarn狀態(tài)的查詢urI為()。

A、http://yarn:8088

B、http://yarn:50070

C、http://master:8088

D、http://master:50070

答案:c

79.Flume如何處理故障恢復?()

A、使用事務性機制

B、使用重試機制

C、使用斷點續(xù)傳機制

D、以上都不是

答案:C

80.Hive是由哪家公司開源的()。

A、GoogIe

B、Facebook

C、LinkedIn

D、NetfIix

答案:B

81.關于MapReduce優(yōu)點,下列說法不正確的是()。

A、高容錯性

B、適合PB級以上海量數據的離線處理

C、良好的擴展性

D、適合做實時計算

答案:D

82.Flink最常用的編程語言是()。

A、Java

B、Python

C、SeaIa

D\C++

答案:A

83.ZooKeeper中的一致性協(xié)議ZAB是基于()算法實現。

A、2PC(Two-PhaseCommit)算法

B、Raft算法

C、Paxos算法

D\3PC(Three-PhaseCommit)算法

答案:C

84.Docker的()命令用于構建鏡像。

A、create

B、add

C、build

D、new

答案:C

85.DStream的轉換操作方法中,()方法可以直接調用RDD上的操作方法。

A、countByKey()

B、updateStateByKey(func)

C、ogroup(otherStream,[numTasks])

D\transform(func)

答案:D

86.下列關于leader和follower的說法正確的是()。

A、一個topic的每個分區(qū)可以沒有l(wèi)eader

B\一?""btopic的每個分區(qū)可以沒有follower

C、消費者消費數據的對象都是leader

D\follower從Ieader中同步數據有一定延遲

答案:C

87.HMaster的主要作用是()。

A、用于啟動任務管理多個HRegionServer

B、負責響應用戶I/O請求,向HDFS文件系統(tǒng)讀寫數據

C、負責協(xié)調集群中的分布式組件

D、最終保存HBase數據行的文件

答案:A

88.Flume的哪個版本加入了對Thrift事件的的支持?。

A、FIume1.0

B、FIume1.1

C、FIume1.2

D\FIume1.3

答案:B

89.Flink的容錯機制是()工作的,它定期記錄數據流的狀態(tài),以便在發(fā)生故

障時進行恢復。

A、基于備份數據

B、基于檢查點

C、基于異常處理

D、基于數據重播

答案:B

90.在ZooKeeper中,節(jié)點的數據版本是如何維護的?()

A、自動遞增

B、手動指定

C、根據節(jié)點的創(chuàng)建時間確定

D、隨機生成

答案:A

91.設用壓力測試測出機器寫入速度是20M/s一臺,峰值的業(yè)務數據的速度是10

OM/s,副本數為6,預估需要部署Kafka機器數量為()。

A、6.0

B、12.0

C、13.0

D、20.0

答案:C

92.Kafka的消費者可以以什么方式進行消息偏移量的管理?()

A、手動管理

B、自動管理

C、隨機管理

D、循環(huán)管理

答案:B

93.以下哪個參數在sqoop命令中用于指定要刪除HDFS的目標目錄?()

Av-deIete-target-dir

B、一target-dir

C、一deIete-dir

Dv-deIete

答案:A

94.namenode在()模式下hdfs文件系統(tǒng)無法修改和寫入文件。

A、安全模式

B、維護模式

C、同步模式

D、待機模式

答案:A

95.Flink的核心概念之一是()o

A、數據表

B、數據流

C、數據庫

D、數據倉庫

答案:B

96.將nginx容器接入自定義的myops網絡的操作命令是()。

A、dockernetworkjoinmyopsnginx

B、dockernetworkconnmyopsnginx

C、dockernetworkconnectmyopsnginx

Dvockernetworkconnectnginxmyops

答案:c

97.在Flink的配置文件中,()通常用來指定Flink任務并行度。

A、paraIleiism.defau11

B、task,paraIIeIism

C、paraIIeIism.defauIt-task

D、task,defauIt-paraIIeIism

答案:D

98.Flume的哪個版本開始支持Avro作為數據傳輸格式?()

A、1.X版本

B、2.X版本

C、3.X版本

D\4.X版本以后

答案:D

99.下列語句中描述錯誤的是()o

A、可以通過CLI方式'JavaApi方式調用Sqoop

B\Sqoop底層會將Sqoop命令轉換為MapReduce任務,并通過Sqoop連接器進行

數據的導入導出操作

C、Sqoop是獨立的數據遷移工具,可以在任何系統(tǒng)上執(zhí)行

D\如果在Hadoop分布式集群環(huán)境下,連接MySQL服務器參數不能是"localhos

t”或“127.0.0.1"

答案:C

100.Flume的Snk組件負責什么?()

A、將數據從Channel中讀取并寫入目標位置

B、將數據從Channel中讀取并發(fā)送到下一組件

C、從Channel中讀取數據并將其寫入接收器

D、從Channel中讀取數據并將其寫入目標位置。

答案:D

101.DStream的輸出操作,不包括()。

A、foreachRDD(func)

B、print0

C\fIatMap(func)

D、saveAsTextFiIes(prefix)

答案:C

102.Flume的事件傳輸方式是什么?()

A、puII-based

B、push-based

C\stream-based

D、event-based

答案:B

103.下面那種情況不會觸發(fā)?ConsumerRebalance操作()。

A、某個消費者崩潰

B、某個生產者崩潰

C、消費者消費的多個topic中某個topic被刪除

D、新增消費者

答案:B

1O4.Flume的攔截器實現了哪個接口?()

A、ChannelInterceptor

B、EventInterceptor

C、SinkInterceptor

D、SourceInterceptor

答案:B

105.Kafka的核心是由哪個組件組成?()

A、Producer

B、Consumer

C、Broker

DvZooKeeper

答案:c

106.以下哪個選項不是Sqoop的導入模式?()

A、純文本導入

B、二進制導入

GAvro導入

D、JS0N導入

答案:D

107.關于SecondaryNameNode哪項是正確的?()

A、它是NameNode的熱備

B、它的目的是幫助NameNode合并編輯日志,減少NameNode啟動時間

C、它對內存沒有要求

D、SecondaryNameNode應與NameNode部署到一個節(jié)點

答案:B

108.以下哪種不是Hive支持的數據類型()o

A、Struct

B、Int

C、Map

DvLong

答案:D

109.獲取遠程倉庫中Docker鏡像的操作命令是()。

A、dockerget

B、dockerpush

C、dockerpuII

D、ockerdownIoad

答案:c

110.Hive的默認元數據存儲是什么()?

A、MySQL

B、PostgreSQL

C、Derby

D、OracIe

答案:c

111.Flink中的Watermark是用來(),幫助FIink正確地處理遲到的事件。

A、測量數據流的速度

B、表示數據流的起點

C、處理亂序事件

D、控制數據流的大小

答案:C

112.Kafka的消息保留策略可以根據什么進行配置?()

A、時間

B、大小

C、主題

D、分區(qū)

答案:A

113.在Kafka中,O是ISR隊列中最小的LEO。

A、LEO

B、ISR

C、HW

D、AR

答案:C

114.DockerfiIe中指定環(huán)境變量的指令是()。

A、WORKDIR

B、SHELL

C、ENV

D、ENTRYPOINT

答案:C

115.下列()不可以作為SparkStreaming的輸入數據流。

A、Kafka

B、Twitter

c、TCP套接字

D、Openstack

答案:D

116.Hive是為了解決哪類問題()?

A、海量結構化日志的數據統(tǒng)計

B、分布式組件調度

答案:A

117.Sqoop是Hadoop和關系數據庫服務器之間傳送數據的工具,下列哪種數據

庫是不支持使用Sqoop直接進行數據傳送()。

A、Postgres

B、OracIe

GMySQL

D、Redis

答案:D

118.Hive默認的元存儲是保存在內嵌的()數據庫中。

A、MySQL

B、Derby

C、OracIe

D、SqIServer

答案:B

119.在ZooKeeper中,Watcher是一次性的嗎?()

A、是,一旦觸發(fā)就無法再次使用

B、否,可以反復使用

G取決于Watcher的類型

D、取決于節(jié)點的類型

答案:C

120.關于Hive存儲的文件格式描述錯誤的是()。

A、ORC格式是Hive一直支持的

B、TEXTFILE是Hive的默認存儲格式

C、SequenceFiIe是一種二進制存儲

D、RC是ORC的前身

答案:A

121.以下關于Hive操作描述不正確的是()。

AxHive是一個建立在hadoop文件系統(tǒng)上的數據倉庫架構,可以用其對HDFS上

B\Hive依賴于MapReduce處理數據

C、Hive的加載數據時候,可以用local進行修飾,表示從某個本地目錄下加載

數據

D、Hive一般可以用于實時的查詢分析

答案:D

122.Hadoop組件在企業(yè)應用中,能用于大數據集實時查詢的產品有()。

A、Hive

B、Pig

C、Mahout

D、Hbase

答案:D

123.ZooKeeper中的節(jié)點可以設置()類型的觸發(fā)器。

A、數據變更觸發(fā)器

B、子節(jié)點變更觸發(fā)器

C、連接狀態(tài)觸發(fā)器

D、所有類型的觸發(fā)器

答案:D

124.下面哪個命令是創(chuàng)建hive表()□

A、import-aII-tabIes

B、Iist-databases

C、Iist-tabIes

D、create-hive-tabIe

答案:D

125.將一個已經創(chuàng)建的容器導出到一個文件使用的操作命令是()。

A、dockerimport

B、dockerIoad

C、dockeroutput

D、ockerexport

答案:D

126.關于Hive的SequenceFiIe格式描述正確的是()。

A、SequenceFiIe是二進制文件格式,以Iist的形式序列化到文件中

B\SequenceFiIe存儲方式:列存儲

C、SequenceFiIe不可分割、壓縮

D、SequenceFiIe優(yōu)勢是文件和Hadoopapi中的MapFiIe是相互兼容的

答案:D

127.Hive中的哪個配置參數用于指定Hive表的默認分隔符()?

A、hive,default,delimiter

B\hive,default,separator

C\hive.defau11.fieId.deIim

答案:C

128.Docker內置網絡模式不包括()。

A、host模式

B\mynet模式

C、none模式

D\bridge模式

答案:B

129.Docker配置文件的語法格式中,代表單個字符的符號是()。

A、*

B、?

C、!

D「

答案:B

130.新構建一個名為mydocker的鏡像的操作命令是()。

A、dockernewmydocker

BvdockerbuiIdmydocker

C、dockernew-tmydocker

D、ockerbuild-tmydocker

答案:D

131.在Hive中,哪個配置參數用于指定Hive的執(zhí)行模式,如本地模式或MapRe

duce模式()?

A、hive.execution.engine

B、hive.execution.mode

Cvhive.mapred.mode

Dvhive.exec,mode

答案:B

132.下面哪個命令行參數可以用來刪除Kafka中的Topic?()

A、Iist

B、create

CvdeIete

Dvescribe

答案:c

133.下列選項中,()不屬于轉換算子操作。

A、fiIter(func)

B、map(func)

C\reduce(func)

D、reduceByKey(func)

答案:C

134.關于Hive描述正確的是()。

A、count函數必須開窗口才能使用

B\max函數是窗口函數

C、lead函數是聚合函數,不是窗口函數

D、min函數是聚合函數,不是窗口函數

答案:B

135.Dockerfile中聲明鏡像內服務監(jiān)聽的端口的指令是()。

A、LISTEN

B、EXPOSE

C、ARG

D、MONITOR

答案:B

136.Flink的作業(yè)提交通常需要()來管理作業(yè)的執(zhí)行。

A、JobManager

B、TaskManager

C、ResourceManager

D、NameNode

答案:A

137.在Centos中啟動Docker服務的命令是()。

A、systemstartdocker

B、systemenabIedocker

CvsystemctIstartdocker

DvsystemctIrundocker

答案:c

138.DataFrame和RDD最大的區(qū)別是()。

A、科學統(tǒng)計支持

B、多schema

C、存儲方式不一樣

D、外部數據源支持

答案:B

139.ZooKeeper使用的是()文件系統(tǒng)。

A、HadoopDistributedFiIeSystem(HDFS)

B、NetworkFiIeSystem(NFS)

C\ZooKeeperFiIeSystem(ZFS)

D、ExtensibIeStorageEngine(ESE)

答案:C

140.允許開發(fā)人員為容器分配MAC地址的是()。

A、網橋網絡

B、覆蓋網絡

C、驅動網絡

D、主機網絡

答案:C

141.Spark默認的存儲級別是()。

A、MEM0RY_0NLY

B、MEM0RY_0NLY_SER

C、MEMORY_AND_DISK

D、MEMORY_AND_DISK_SER

答案:A

142.HBase依賴()技術框架提供消息通信機制。

A、Zookeeper

B、Chubby

C、RPC

D\Socket

答案:A

143.與傳統(tǒng)消息系統(tǒng)相比,Kafka的突出特點不包括()。

A、能夠持久化日志

B、容錯能力強,是一個分布式系統(tǒng)

C、支持實時的流式處理

D、提供在線消息同步和離線消息緩存的能力

答案:D

144.下面()端口不是Spark自帶服務的端口。

A、8080.0

B、4040.0

C、8090.0

D、18080.0

答案:C

145.在Hive中,以下哪個配置參數用于指定HiveCLI的歷史命令記錄文件名()?

A、hive.history,file,name

B、hive.cIi.history.file

Cvhive.command.Iog.fiIename

Dvhive.query.Iog.file

答案:B

146.在HDFS分布式文件系統(tǒng)中,一般采用冗余存儲,冗余因子通常設置為()o

A、1.0

B、2.0

C、3.0

D、4.0

答案:c

147.Flink的Web界面通常用于()。

A、編寫Flink作業(yè)

B、監(jiān)控Flink集群

G運行Flink作業(yè)

D、調試Flink作業(yè)

答案:B

148.關于DStream窗口操作函數,以下說法錯誤的是()。

A、window()返回基于源DStream的窗口進行批計算后的一個新的Dstream

B\countByWindow。返回基于滑動窗口的DStream中的元素數

C\reduceByWindow()做聚合操作并返回—新的Dstream

D、以上說法都不對

答案:D

149.Docker是基于。實現的開源容器項目。

A、C語后

B、Java]吾己

C、Go語三

D、Python語言

答案:C

150.在Sqoop中,使用哪個命令可以列出可用的數據庫連接?()

A、sqoopIist-databases

B、sqoopheIp

C、sqoopconnections

D、sqoopserver

答案:A

151.Kafka的消息消費可以使用哪種模式?()

A、單播

B、組播

C、廣播

D、串播

答案:A

152.下面()操作是寬依賴。

A、map公

B\fIatMap

C、groupByKey

D、union

答案:c

153.當之前下線的分區(qū)重新上線時,要執(zhí)行Leader選舉,選舉策略為()。

A、OffIinePartitionLeader選舉

B、ReassignPartitionLeader選舉

CvPreferredRepIicaPartitionLeader選舉

DvControIIedShutdownPartitionLeader選舉

答案:A

154.Hadoop安裝在一臺計算機上,需修改相應的配置文件,用一臺計算機模擬

多臺主機的集群是()模式。

A、全分布模式

B、偽分布模式

C、單機模式

D、全分布HA模式

答案:B

155.FIink支持的數據處理方式為()。

A、批處理

B、流處理

C、以上都是

D、無法確定

答案:C

156.()參數不影響kafka重平衡?

A、session.timeout.ms

B、heartbeat,intervaI.ms

C、message,max.bytes

D、max.poll,intervaI.ms

答案:c

157.在ZooKeeper中,()角色負責協(xié)調其他節(jié)點的工作。

A、領導者(Leader)

B、跟隨者(Follower)

C\觀察者(Observer)

D、所有角色均可

答案:A

158.當使用sqoop將數據從MySQL導入到HDFS時,以下哪個參數用于指定使用

多個mapper?()

A、-m

B、-f

C、-t

D、-c

答案:A

159.SparkSQL可以處理的數據源包括O。

A、Hive表

B、Hive表、數據文件

C、Hive表、數據文件、RDD

D、Hive表、數據文件、RDD、外部數據庫

答案:D

160.SparkStreaming中對DStream的轉換操作會轉變成對()的操作。

A、sqI

B、dataset

C、rdd

D、ataframe

答案:c

161.關于DataFrame與RDD在結構上的區(qū)別,以下描述錯誤的是()。

A、DataFrame可以看作是分布式的Row對象的集合,在二維表數據集的每一列

都帶有名稱和類型

B、RDD是分布式的Java對象的集合

C、RDD在轉換數據形式時效率相對較高

D\ataFrame提供了比RDD更豐富的算子

答案:C

162.配置Hadoop文件參數時,配置項“dfs.repIication"應該配置在哪個文件?

A、core-site,xml

B、hdfs-site.xml

C、mapred-site.xml

D、yarn-site,xml

答案:B

163.停止一個容器的操作命令是()。

Avdockerstop

B、dockershutdown

C、dockershift

Dvockerpause

答案:A

164.下列不是Spark的部署模式的是()。

A、單機式

B、單機偽分布式

C、列分布式

D、完全分布式

答案:C

165.下列哪個數據類型不是hadoop的數據類型()。

A、Text

B、String

GIntWritabIe

D、NulIWritable

答案:B

166.Flume的事件可以包含哪些屬性?()

AvTimest,Type,Body,Headers,Count

B、Timest,Type,Body,Headers,ID

C、Timest,Type,Body,Headers,SequenceID

DvTimest,Type,Body,Headers,Number

答案:c

167.在ZooKeeper中,ZAB協(xié)議是()。

A、用于節(jié)點間的數據同步和一致性保證的協(xié)議

B、用于節(jié)點間的消息傳遞和通信的協(xié)議

C、用于節(jié)點間的負載均衡和路由選擇的協(xié)議

D、用于節(jié)點間的權限控制和訪問管理的協(xié)議

答案:A

168.Flink的狀態(tài)管理用于(),以支持容錯性和狀態(tài)化的計算。

A、存儲和檢索中間結果

B、控制數據流速度

C、定時觸發(fā)窗口操作

D、執(zhí)行數據清洗

答案:A

169.下列關于topic和partition的描述,錯誤的是()。

A、Kafka中消息是以partition進行分類的

B\與partition不同,topic是邏輯上的概念而非物理上的概念

C、每個partition對應于—log文件

D\—partition分為多個segment

答案:A

170.在Flink中,()通常用于指定Flink作業(yè)的任務流圖(JobGraph)o

AxfIink.xml

B\job.conf

C、flperties

D、fIink-config.yamI

答案:D

171.Flume的哪個組件可以保證數據不會丟失?()

A、通道

B、接收器

C、攔截器

D、源

答案:B

172.當在Sqoop中使用一append參數時,它會將數據添加到目標表的哪個位置?

()

A、文件的開頭

B、文件的末尾

C、新文件中

D、隨機位置

答案:B

173.以下關于RDD的寬依賴和窄依賴的說法錯誤的是()。

A、窄依賴表現為子RDD的一個分區(qū)只依賴于某個(些)父RDD的一個分區(qū)

B、寬依賴則表現為子RDD的一個分區(qū)依賴于同一個父RDD的多個分區(qū)

C、寬依賴的RDD之間無ShuffIe操作

D、窄依賴的RDD之間無ShuffIe操作

答案:C

174.Docker的三大核心不包括()。

A、容器

B、算法

C\鏡像

D、倉庫

答案:B

175.下列()不是Docker項目中用于文件存儲的數據庫。

A、MYSQL

B、MongoDB

GRedis

D\Kafka

答案:D

176.Kafka服務器默認能接收的最大消息是多大?()$

A、1M

B、10M

C、100M

D、沒有大小限制,因為支持大數據

答案:A

177.Spark采用RDD以后能夠實現高效計算不是因為()。

A、高效的容錯性,通過血緣關系重新計算丟失分區(qū)

B、中間結果持久化到內存,數據在內存中的多個RDD操作之間進行傳遞,避免

了不必要的讀寫磁盤開銷

C、存放的數據可以是Java對象,避免了不必要的對象序列化和反序列化

D、RDD采用了高效的“轉換”和“動作”算子

答案:D

178.FIink支持處理各種類型的數據,包括()數據。

A、結構化

B、半結構化

C、無結構化

D、以上都是

答案:D

179.Hive是以()技術為基礎的數據倉庫。

A、HDFS

B、MAPREDUCE

C、HADOOP

D、HBASE

答案:C

180.Flink的作業(yè)調度(JobScheduIing)通常由()負責。

A、ResourceManager

B\TaskManager

C、JobManager

D\ZooKeeper

答案:C

181.Flume的哪個組件用于將事件數據寫入目標存儲?()

A、ChanneI

B、Sink

C、Source和ChanneI

D\Source和Sink

答案:B

182.關于HiveSQL編譯描述正確的是()。

A、HiveSQL的Parser層是為了將SQL轉化為執(zhí)行計劃的

B、邏輯層優(yōu)化器會進行算子轉換,優(yōu)化合并不必要的算子操作

C\MapReduce任務是需要遍歷QueryBlock后生成的

D、編譯器遍歷ASTTree,抽象出查詢的基本組成單元OperatorTree

答案:B

183.Docker的()命令只支持將本地文件復制到容器中。

A、DD

B、COPY

C、SCP

D、PUT

答案:B

184.在HDFS文件操作中,上傳文件的命令是()o

Avput

B、input

C、get

Dvup

答案:A

185.制作鏡像時,復制文件到鏡像中使用的命令是()。

A、DD

B、COPY

C、RUN

D、CMD

答案:B

186.以下關于Spark與Hadoop對比,說法錯誤的是()。

A、Spark的計算模式也屬于MapReduce,但不局限于Map和Reduce操作,還提

供了多種數據集操作類型,編程模型比HadoopMapReduce更靈活

B、Spark提供了內存計算,可將中間結果放到內存中,對于迭代運算效率更高

C、Spark磁盤I0開銷較大,任務之間的銜接涉及I0開銷

D、Spark基于DAG的任務調度執(zhí)行機制,要優(yōu)于HadoopMapReduce的迭代執(zhí)行

機制

答案:C

187.Hive適合()環(huán)境。

A、Hive適合用于聯機(onIine)事務處理

B、提供實時查詢功能

C、適合應用在大量不可變數據的批處理作業(yè)

D、Hive適合關系型數據環(huán)境

答案:C

188.強制刪除容器tmp01的操作命令是()。

A、dockerrm-ftmp01

B\dockerrm-vtmp01

C\dockerrm-1tmp01

D、ockerrm-ltmpOl

答案:A

189.在Sqoop中,哪個參數用于指定要導入的目標表?()

A、-tabIe

B、-target-dir

Cv-outdir

Dv-where

答案:A

190.以下()文件中主要用來配置ResourceManager,NodeManager的通信端口,

web監(jiān)控端口等。

Avcore-site,xml

B、mapred-site.xml

C、hdfs-site.xmI

Dvyarn-site,xml

答案:D

191.Docker運行的核心模塊是()。

A、DockerServer

BvDockerEngine

C、DockerCIient

答案:B

192.關于SparkSQL,以下說法正確的是()。

A、HiveContext繼承了SqIContext

B、DataFrame其實就是RDD

C、HiveContext只支持SQL語法解析器

D、SparkSQL的前身是Hive

答案:A

193.若要在Hive中啟用壓縮數據存儲,應該設置哪個配置參數()?

A、hive.compress,enabIed

B、hive.compression.enabIed

C、hive.storage,compression.enabIed

答案:B

194.Kafka的消息以什么形式進行存儲?()

A、表格

B、集合

C、文檔

D、日志

答案:D

195.關于MapReduce的說法正確的是()。

A、MapReducel.0用YARN框架來進行資源調度的

BvMapReduce是基于內存計算的框架

C\MapReduce是分布式文件存儲系統(tǒng)

D、MapReducel.0既是一個計算框架又是一個資源調度框架

答案:D

196.dockerfiIe文件的作用是()。

A、普通文件

B、用于自定義鏡像

C、用于保存容器配置

D\用于存放docker配置

答案:B

197.Flume的默認通道類型是什么?()

A、MemoryChanneI

B、FiIeChanneI

GKafkaChanneI

D、JdbcChanneI

答案:A

198.Kafka的消費者在處理消息時可以選擇的模式是()。

A、單線程模式

B、多線程模式

C、分布式模式

D、并行模式

答案:B

199.關于Hive各個格式使用場景描述錯誤的是()。

A、Parquet對于大型查詢的類型是高效的,對于掃描特定表格中的特定列的查

詢,Parquet特別有用

B\目前Parquet默認使用gzip壓縮格式

C、0RC可以支持復雜的數據結構(比如Map等)

D、RCFiIe是一種行列存儲相結合的存儲方式

答案:B

200.Kafka的消息傳遞語義是O。

A、最終一致性

B、強一致性

C、弱一致性

D、無一致性

答案:C

201.在Docker數據管理中,數據卷可以提供的特性不包括()。

A、數據卷可以在容器之間共享和重用

B、對數據卷內數據的修改立馬生效

C、對數據卷的更新不影響鏡像

D、掛載數據卷時要手工創(chuàng)建掛載目錄

答案:D

202.ZooKeeper中的數據模型是基于()。

A、關系模型

B、鍵值對模型

C、圖模型

D、文檔模型

答案:B

203.關于Hive內外表描述正確的是()。

A、內部表數據由HDFS自身管理,外部表數據由Hive管理;

B、內部表數據存儲的位置是hive.metastore,warehouse,dir設置配置(默認:

/user/hive/warehouse)

C\外表存儲必須指定LOCATION

D、內外表刪除時,都會刪除元數據和存儲

答案:B

204.Flume的事件是什么?()

A、數據項,記錄,和文件

B、數據流,記錄,和事件

G數據項,記錄,和消息

D、數據流,記錄,和消息

答案:D

205.使用Dockerrun命令運行一個容器時,通過參數()可啟動一個bash允許

用戶進行交互。

A、it

B、ia

C\nt

D\na

答案:A

206.Flink的集群部署通常需要()作為資源管理器。

A、YARN

B\ApacheZooKeeper

C、ApacheKafka

D、HadoopHDFS

答案:A

207.以下哪個文件是能夠修改HDFS的副本保存數量參數()。

A、修改mapred-site.xml配置文件

B、修改core-site,xml配置文件

G修改yarn-site.xml配置文件

D、修改hdfs-site.xml配置文件

答案:D

208.使用create命令新建容器時,指定容器在網絡中的別名的命令選項是()。

Avnet-name

B、net-aIias

C、network

Dvalias

答案:B

209.下列哪種情況不會觸發(fā)到消費者分區(qū)的重新分配?

A、當有新的消費者加入消費者組

B、已有的消費者推出消費者組

C、處于消費者所在分區(qū)最近提交的。開set位置

D、消費者所訂閱的主題的分區(qū)發(fā)生變化

答案:C

210.Flink的TabieAPI和SQL用于()。

A、數據可視化

B、執(zhí)行SQL查詢

C、數據流分析

D、數據清洗

答案:B

211.Flume的Kafka源類型是什么?()

AvKafkaSource

B、KafkaSpout

C、KafkaAvroSource

DvKafkaEventSource

答案:C

212.Hive中以下操作不正確的是()。

A、IoaddatainpathintotabIename

BvinsertintotabIename

C、insertoverwritetabIename

D、upddatetabIename

答案:D

213.Linux下啟動HDFS的命令是()。

A、Hdfs

B、startdfs

C、start-dfs.sh

Dvstart-dfs.cmd

答案:c

214.下列說法錯誤的是()o

A、生產者和消費者面向的都是一個topic

B、生產者發(fā)送數據的對象是leader

C、當集群中的某個節(jié)點發(fā)生故障時,Replica上的partition數據不會丟失

D、partition是一個沒有順序的隊列

答案:D

215.以下哪個是正確的sqoop導入數據的完整命令?()

A、sqoopimport-connectjdbc:mysqI://locaIhost:3306/userdb-usernamero

ot-deIete-target-dir-target-dir/MysqIToHDFSI-tabIestudent

B、sqoopimportdata-connectjdbc:mysqI://1ocaIhost:3306/userdb-userna

meroot-deIete-target-dir-target-dir/MysqIToHDFSI-tabIestudent

C、bin/sqoopimport-connectjdbc:mysqI://1ocaIhost:3306/userdb-userna

meroot-deIete-target-dir-target-dir/MysqIToHDFSI-tabIestudent

D、bin/sqoopimportdata-connectjdbc:mysqI://1ocaIhost:3306/userdb-us

ernameroot-deIete-target-dir-target-dir/MysqIToHDFSI-tabIestudent

答案:c

216.Flink中的Checkpoints(檢查點)主要用于()。

A、實現ExactIy-once語義

B、控制并行度

C、執(zhí)行作業(yè)

D、壓縮數據

答案:A

217.在ZooKeeper中,在配置文件zoo.cfg中,請問initLimit表示的含義是()。

A、Leader-FoIIower初始通信時限

B\Leader-Follower同步通信時限

C、Iient-Server通信心跳時間

D、Client-Server初始通信時限

答案:A

218.Sqoop的作用是()o

A、用于傳統(tǒng)關系數據庫和Hadoop之間傳輸數據

B、提供對日志數據進行簡單處理的能力

C、是Hadoop體系中數據存儲管理的基礎

D、是一個建立在HDFS之上,面向列的針對結構化和半結構化數據和動態(tài)數據庫

答案:A

219.Flink的主要特點是()o

A、高吞吐量

B、低延遲

C、ExactIy-once處理語義

D、以上都是

答案:D

220.Task運行在下面()選項中Executor上的工作單元。

A、Driverprogram

B\sparkmaster

C、workernode

D\CIustermanager

答案:C

221.Flink的日志管理通常包括()這幾個方面。

A、日志存儲和檢索

B、日志清理和壓縮

C、日志分析和報警

D、以上都是

答案:D

多選題

1■關于ZooKeeper順序節(jié)點的說法不正確的是O。

A、創(chuàng)建順序節(jié)點的命令為:create/testvaIue1

B、創(chuàng)建順序節(jié)點時不能連續(xù)執(zhí)行創(chuàng)建命令,否者報錯節(jié)點已存在

C、通過順序節(jié)點,可以創(chuàng)建分布式系統(tǒng)唯一ID

D、順序節(jié)點的序號能無限增加

答案:ABD

2.Flume的可靠性機制包括哪些內容?()

A、數據備份存儲

B、數據重復傳輸

C、數據校驗和

D、數據順序保證

答案:ABCD

3.查看Docker容器的子命令有()。

A、display

B\stats

C、inspect

D、Iist

答案:BC

4Flink的緩存機制包含以下哪些內容()o

A、可以使用戶在并行函數中很方便的讀取本地文件

B、通過ExecutionEnvironment注冊緩存文件并為其起名

C\當程序執(zhí)行時,Flink自動將文件或目錄復制到所有TaskManager節(jié)點的本

地文件系統(tǒng)

D、用戶可以從TaskManager節(jié)點的本地文件系統(tǒng)訪問它

答案:ABCD

5.Flink核心組成部分提供了面向()的接口。

A、批處理

B、流處理

C、表

溫馨提示

  • 1. 本站所有資源如無特殊說明,都需要本地電腦安裝OFFICE2007和PDF閱讀器。圖紙軟件為CAD,CAXA,PROE,UG,SolidWorks等.壓縮文件請下載最新的WinRAR軟件解壓。
  • 2. 本站的文檔不包含任何第三方提供的附件圖紙等,如果需要附件,請聯系上傳者。文件的所有權益歸上傳用戶所有。
  • 3. 本站RAR壓縮包中若帶圖紙,網頁內容里面會有圖紙預覽,若沒有圖紙預覽就沒有圖紙。
  • 4. 未經權益所有人同意不得將文件中的內容挪作商業(yè)或盈利用途。
  • 5. 人人文庫網僅提供信息存儲空間,僅對用戶上傳內容的表現方式做保護處理,對用戶上傳分享的文檔內容本身不做任何修改或編輯,并不能對任何下載內容負責。
  • 6. 下載文件中如有侵權或不適當內容,請與我們聯系,我們立即糾正。
  • 7. 本站不保證下載資源的準確性、安全性和完整性, 同時也不承擔用戶因使用這些下載資源對自己和他人造成任何形式的傷害或損失。

評論

0/150

提交評論