2023年能源大數(shù)據(jù)應(yīng)用開發(fā)技能競(jìng)賽備考試題庫(kù)匯總-上(單選題部分)_第1頁(yè)
2023年能源大數(shù)據(jù)應(yīng)用開發(fā)技能競(jìng)賽備考試題庫(kù)匯總-上(單選題部分)_第2頁(yè)
2023年能源大數(shù)據(jù)應(yīng)用開發(fā)技能競(jìng)賽備考試題庫(kù)匯總-上(單選題部分)_第3頁(yè)
2023年能源大數(shù)據(jù)應(yīng)用開發(fā)技能競(jìng)賽備考試題庫(kù)匯總-上(單選題部分)_第4頁(yè)
2023年能源大數(shù)據(jù)應(yīng)用開發(fā)技能競(jìng)賽備考試題庫(kù)匯總-上(單選題部分)_第5頁(yè)
已閱讀5頁(yè),還剩131頁(yè)未讀, 繼續(xù)免費(fèi)閱讀

下載本文檔

版權(quán)說明:本文檔由用戶提供并上傳,收益歸屬內(nèi)容提供方,若內(nèi)容存在侵權(quán),請(qǐng)進(jìn)行舉報(bào)或認(rèn)領(lǐng)

文檔簡(jiǎn)介

2023年能源大數(shù)據(jù)應(yīng)用開發(fā)技能競(jìng)賽備考試題庫(kù)匯總-上(單選

題部分)

一、單選題

I.DataWorks中不同角色擁有不同的權(quán)限,可以通過角色授權(quán)來控制成員的操作

權(quán)限。角色主要有組織管理員'項(xiàng)目管理員'開發(fā)員'防客等,其中開發(fā)角色不

具備什么權(quán)限。

A、添加項(xiàng)目成員

B、新建任務(wù)

C、新建函數(shù)

D、上傳資源

答案:A

2.下列屬于無(wú)監(jiān)督學(xué)習(xí)的是()。

AxK-means

B、SVM

c、最大熾

D、CRF

答案:A

3.關(guān)于嶺回歸,下列說法錯(cuò)誤的是0。

A、屬于線性回歸

B、使用L2正規(guī)項(xiàng)

C、使用L1正規(guī)項(xiàng)

D、基于最小二乘法

答案:C

4.以下哪個(gè)分類方法可以較好地避免樣本的不平衡問題()o

A、KNN

B、SVM

C、Bayes

D、神經(jīng)網(wǎng)絡(luò)

答案:A

5.MapReduce默認(rèn)的分區(qū)函數(shù)是()。

A、hash

B、disk

C、reduce

Dxmap

答案:A

6.關(guān)于SOM神經(jīng)網(wǎng)絡(luò)描述錯(cuò)誤的是:(_)o

A、一種競(jìng)爭(zhēng)學(xué)習(xí)型的無(wú)監(jiān)督神經(jīng)網(wǎng)絡(luò)

B、將高維輸入數(shù)據(jù)映射到低維空間,保持輸入數(shù)據(jù)在高維空間的拓?fù)浣Y(jié)構(gòu)

C、SOM尋優(yōu)目標(biāo)為每個(gè)輸出神經(jīng)元找到合適的權(quán)重

D、輸出層神經(jīng)元以矩陣方式排列在二維空間

答案:C

7.下面關(guān)于展示數(shù)據(jù)管理說法不正確的是O

A、大廳場(chǎng)景數(shù)據(jù)應(yīng)基于數(shù)據(jù)中臺(tái)統(tǒng)一獲取

B、建立大廳數(shù)據(jù)質(zhì)量常態(tài)巡檢核查機(jī)制

C、不得違規(guī)存儲(chǔ)、處理涉及敏感數(shù)據(jù)。

D、歷史數(shù)據(jù)需要?jiǎng)h除

答案:D

8.下面關(guān)于k近鄰學(xué)習(xí)算法的說法,正確的是()。

A、k近鄰可以用于分類,但是不能用于回歸

B、k近鄰屬于“急切學(xué)習(xí)”

C、k近鄰用于分類時(shí),對(duì)于新的樣本,計(jì)算離其最近的k個(gè)樣本的平均值,作

為新樣本的預(yù)測(cè)值

D、k近鄰用于分類時(shí),對(duì)于新的樣本,根據(jù)其k個(gè)最近鄰樣本的類別,通過多

數(shù)表決的方式預(yù)測(cè)新樣本的類別

答案:D

9.下列關(guān)于網(wǎng)絡(luò)用戶行為的說法中,錯(cuò)誤的是()o

A、網(wǎng)絡(luò)公司能夠捕捉到用戶在其網(wǎng)站上的所有行為

B、用戶離散的交互痕跡能夠?yàn)槠髽I(yè)提升服務(wù)質(zhì)量提供參考

C、數(shù)字軌跡用完即自動(dòng)刪除

D、用戶的隱私安全很難得以規(guī)范保護(hù)

答案:C

10.下列關(guān)于LSTM的說法,錯(cuò)誤的是()o

A、LSTM中存在Sigmoid函數(shù)

B、LSTM中存在tanh函數(shù)

CxLSTM又稱長(zhǎng)短時(shí)記憶網(wǎng)絡(luò)

D、RNN是LSTM的變種

答案:D

11.如果要將讀寫位置移動(dòng)到文件開頭,需要使用的命令是()o

A、close

B、seek(0)

Cxtruncate

D、write('stuff')

答案:B

12.服務(wù)(),提供多模式電力交易大數(shù)據(jù)分析服務(wù),開展電力交易市場(chǎng)化配置

和風(fēng)險(xiǎn)預(yù)警數(shù)據(jù)應(yīng)用,提高交易輔助決策和資源優(yōu)化配置能力。

A、電力供用電市場(chǎng)

B、電力客戶

C、電力市場(chǎng)用戶

D、電力資源市場(chǎng)化配置

答案:D

13.提供能源()服務(wù),提升上下游企業(yè)和能源生態(tài)圈的大數(shù)據(jù)運(yùn)營(yíng)服務(wù)能力。

A、大數(shù)據(jù)增值

B、支撐

C、運(yùn)營(yíng)

D、分析

答案:A

14.深度學(xué)習(xí)防止過擬合下列說法正確的是

A、BN(批歸一化)

B、增強(qiáng)數(shù)據(jù)集樣本數(shù)目、做一些數(shù)據(jù)增強(qiáng)的操作

C、限制模型的學(xué)習(xí)能力

D、以上都可以

答案:D

15.()是指通過訓(xùn)練而得到一種識(shí)別規(guī)則,通過此識(shí)別規(guī)則可以得到一種特征

分類,使圖像識(shí)別技術(shù)能夠得到高識(shí)別率。

A、預(yù)處理

B、特征抽取和選擇

C、分類器設(shè)計(jì)

D、分類決策

答案:C

16.構(gòu)建一個(gè)神經(jīng)網(wǎng)絡(luò),將前一層的輸出和它自身作為輸入,下列哪一種架構(gòu)有

反饋連接

A、循環(huán)神經(jīng)網(wǎng)絡(luò)

B、卷積神經(jīng)網(wǎng)絡(luò)

C、限制玻爾茲曼機(jī)

D、都不是

答案:A

17.對(duì)于一個(gè)圖像識(shí)別問題(在一張照片里找出一只貓),下面哪種神經(jīng)網(wǎng)絡(luò)可以

更好地解決這個(gè)問題()

A、循環(huán)神經(jīng)網(wǎng)絡(luò)

B、感知機(jī)

C、多層感知機(jī)

D、卷積神經(jīng)網(wǎng)絡(luò)

答案:D

18.下面算法中屬于圖像銳化處理的是()o

A、低通濾波

B、加權(quán)平均法

C、咼通濾波

D、中值濾波

答案:C

19.假設(shè)我們有一個(gè)使用ReLU激活函數(shù)(ReLUactivationfunction)的神經(jīng)網(wǎng)絡(luò),

假如我們把ReLU激活替換為線性激活,那么這個(gè)神經(jīng)網(wǎng)絡(luò)能夠模擬出同或函數(shù)

(XNORfunction)嗎?

A、能

B、依情況而定

C、不一定

D、不能

答案:D

20.Hadoop中MapReduce組件擅長(zhǎng)處理()場(chǎng)景的計(jì)算任務(wù)。

A、迭代計(jì)算

B、離線計(jì)算

C、實(shí)時(shí)交互計(jì)算

D、流式計(jì)算

答案:B

21.設(shè)X={1,2,3}是頻繁項(xiàng)集,則可由X產(chǎn)生()個(gè)關(guān)聯(lián)規(guī)則?

A、4

B、5

C、6

D、7

答案:C

22.開展數(shù)據(jù)產(chǎn)品研發(fā)'發(fā)布等活動(dòng)時(shí),應(yīng)確保遵從國(guó)家法律法規(guī)、數(shù)據(jù)主體授

權(quán)范圍、公司相關(guān)規(guī)章制度等()保護(hù)要求。

A、數(shù)據(jù)使用

B、數(shù)據(jù)研發(fā)

C、數(shù)據(jù)交換

D、數(shù)據(jù)安全

答案:D

23.如果對(duì)樣本分類,不可以選擇的方法是(?)

A、層次聚類法

B、K-均值聚類法

C、兩步聚類法

D、混合聚類法

答案:D

24.隨機(jī)森林中的隨機(jī)是指。

A、隨便構(gòu)建樹模

B、隨機(jī)選擇一個(gè)樹模型

C、隨機(jī)選擇多個(gè)樹模型

D、在構(gòu)建每個(gè)樹模型時(shí)隨機(jī)選擇樣本和特征

答案:D

25.CREATETABLEAS創(chuàng)建表,后面需要添加查詢語(yǔ)句類型是:()。

A、INSERT

B、UPDATE

GSELECT

D、DELETE

答案:c

26.下面哪個(gè)操作肯定是寬依賴()

A、map

B、fIatMap

C、reduceByKey

D、sampIe

答案:C

27.下面關(guān)于Hive四種排序方式的區(qū)別,描述正確的是()

A、order

B、sort

C、distribute

DxcIuster

答案:B

28.?時(shí)間序列數(shù)據(jù)更適合用()做數(shù)據(jù)規(guī)約。

A、小波變換

B、主成分分析

C、決策樹

D、直方圖

答案:A

29.HDFS集群中的namenode職責(zé)不包括()

A、維護(hù)HDFS集群的目錄樹結(jié)構(gòu)

B、維護(hù)HDFS集群的所有數(shù)據(jù)塊的分布'副本數(shù)和負(fù)載均衡

C、負(fù)責(zé)保存客戶端上傳的數(shù)據(jù)

D、響應(yīng)客戶端的所有讀寫數(shù)據(jù)請(qǐng)求

答案:C

30.批規(guī)范化(BatchNormaIization)的好處都有什么

A、讓每一層的輸入的范圍都大致固定

B、它將權(quán)重的歸一化平均值和標(biāo)準(zhǔn)差

C、它是一種非常有效的反向傳播(BP)方法

D、這些均不是

答案:A

31.下列關(guān)于循環(huán)神經(jīng)網(wǎng)絡(luò)說法錯(cuò)誤的是()o

A、長(zhǎng)短期記憶網(wǎng)絡(luò)是進(jìn)行優(yōu)化過后的循環(huán)神經(jīng)網(wǎng)絡(luò)

B、RNN是一類可用于處理序列數(shù)據(jù)的神經(jīng)網(wǎng)絡(luò)

C、循環(huán)神經(jīng)網(wǎng)絡(luò)廣泛應(yīng)用于自然語(yǔ)言處理領(lǐng)域,例如語(yǔ)音識(shí)別、語(yǔ)言建模和機(jī)

器翻譯等

D、LSTM引入了一個(gè)基于循環(huán)神經(jīng)網(wǎng)絡(luò)(RNN)的架構(gòu)后,梯度消失問題得以解

答案:D

32.以下不屬于神經(jīng)網(wǎng)絡(luò)模型的是()

A、DNN

B、CNN

GKNN

D、RNN

答案:C

33.在MapReduce中,reduce()函數(shù)可以將()值相同的輸入進(jìn)行合并處理。

A、input

B、key

C、vaIue

D、number

答案:B

34.下列屬于中臺(tái)發(fā)展期的戰(zhàn)略為

A、“中臺(tái)戰(zhàn)略”

B、“雙中臺(tái)”

C、“多中臺(tái)”

D、“融合中臺(tái)”

答案:C

35.依據(jù)(),建立基于負(fù)面清單的公司對(duì)內(nèi)數(shù)據(jù)共享機(jī)制,堅(jiān)持“以共享為原

則'不共享為例外”,改變當(dāng)前“一事一議”'層層審批的數(shù)據(jù)應(yīng)用授權(quán)方式。

A、《中華人民共和國(guó)民法典》

B、《中華人民共和國(guó)網(wǎng)絡(luò)安全法》

C、《國(guó)家電網(wǎng)有限公司數(shù)據(jù)管理辦法》

D、《中央企業(yè)商業(yè)秘密保護(hù)暫行規(guī)定》

答案:C

36.下列哪個(gè)用于說明在RDD上執(zhí)行何種計(jì)算()o

A、分區(qū);

B、算子;

C、日志;

D、數(shù)據(jù)塊;

答案:B

37.pandas的常用類不包括()。

AvSeries

B、DataFrame

CxPaneI

D、Index

答案:C

38.企業(yè)中臺(tái)不包含()

A、業(yè)務(wù)中臺(tái)

B、數(shù)據(jù)中臺(tái)

C、技術(shù)中臺(tái)

D、服務(wù)中臺(tái)

答案:D

39.Ndarray是一個(gè)通用的()數(shù)據(jù)容器

A、單維同類

B、單維多類

C、多維同類

D、多維多類

答案:C

40.MapReduce計(jì)算框架的輸人數(shù)據(jù)結(jié)構(gòu)是()。

A、key-vaIue

B、input-output

C、map-reduce

D、key-coIumn

答案:A

41.Relief的擴(kuò)展變體ReIief-F能夠處理(_)問題。

A、二分類

B、多分類

C、回歸

D、降維

答案:B

42.某公司要建立資料庫(kù),該資料庫(kù)要用ElasticSearch進(jìn)行檢索,請(qǐng)問下列哪

些選項(xiàng)可以放到資料庫(kù)中?

A、Word文檔

B、公司宣傳視頻

C、產(chǎn)品設(shè)計(jì)圖

D、以上全部正確

答案:D

43.Maxpute中負(fù)責(zé)對(duì)等待提交的task進(jìn)行排序的模塊是:()。

AxscheduIer

BxcontrolIer

Cxexecutor

D、worker

答案:A

44.當(dāng)我們需要在一張圖表中特意指出某個(gè)特殊點(diǎn),并加上標(biāo)注達(dá)到醒目的目的

時(shí),需要用至1」(_)函數(shù)。

A、pit.axvspan()

B、pit.axhspanO

Cxpit.annotate()

D、pit.text()

答案:C

45.()方面,研究基于大數(shù)據(jù)的電能質(zhì)量和計(jì)量數(shù)據(jù)分析技術(shù),建立典型用電

設(shè)備電能質(zhì)量信息庫(kù)、指標(biāo)體系和大數(shù)據(jù)分析平臺(tái),提供電能質(zhì)量輔助決策分析

服務(wù);

A、電測(cè)量技術(shù)

B、大數(shù)據(jù)測(cè)量技術(shù)

C、電能技術(shù)

D、用電技術(shù)

答案:A

46.以下算法中不屬于基于深度學(xué)習(xí)的圖像分割算法是()。

A、FCN

B、deepIab

C、Mask-RCNN

D、kNN

答案:D

47.數(shù)據(jù)倉(cāng)庫(kù)僅僅是提供存儲(chǔ)的,提供一種()的服務(wù),不面向最終分析用戶:而

數(shù)據(jù)集市是()的,面向最終用戶。

A、面向數(shù)據(jù)管理、面向分析應(yīng)用

B、面向分析應(yīng)用、面向數(shù)據(jù)管理

C、面向分析應(yīng)用、面向事務(wù)交互

D、面向事務(wù)交互、面向數(shù)據(jù)管理

答案:A

48.在反向傳播的過程中,首先被計(jì)算的是變量O的梯度,之后將其反向傳播。

A、連接權(quán)重

B、損失函數(shù)

C、激活函數(shù)

D、特征映射

答案:C

49.關(guān)于神經(jīng)網(wǎng)絡(luò)中經(jīng)典使用的優(yōu)化器,以下說法正確的是?

A、Adam的收斂速度比RMSprop慢

B、相比于SGD或RMSprop等優(yōu)化器,Adam的收斂效果是最好的

C、對(duì)于輕量級(jí)神經(jīng)網(wǎng)絡(luò),使用Adam比使用RMSprop更合適

D、相比于Adam或RMSprop等優(yōu)化器,SGD的收斂效果是最好的

答案:D

50.在MapReduce中,哪個(gè)組件是用戶不指定也不會(huì)有默認(rèn)的()

Axbiner

BxOutputFormat

C、Partitioner

D、InputFormat

答案:A

51.下列關(guān)于數(shù)據(jù)轉(zhuǎn)換,正確的是()o

A、json內(nèi)的取值只能有統(tǒng)一格式

B、pdf文件在不同平臺(tái)上打開顯示不同

C、可以通過python將csv文件轉(zhuǎn)換成ExceI格式

D、excel存儲(chǔ)數(shù)據(jù)的量無(wú)限制

答案:C

52.加強(qiáng)數(shù)據(jù)合規(guī)管理頂層設(shè)計(jì),強(qiáng)化跨專業(yè)、跨層級(jí)統(tǒng)籌協(xié)調(diào),建立健全()

工作機(jī)制,確保公司數(shù)據(jù)合規(guī)管理工作有力'有序、有效推進(jìn)。

A、閉環(huán)

B、協(xié)同

C、安全

D、監(jiān)控

答案:B

53.2*1的數(shù)組與1*3的數(shù)組相加結(jié)果為()o

A、2*3的數(shù)組

Bv1*1的數(shù)組

G3*2的數(shù)組

D、以上都不對(duì)

答案:A

54.感知機(jī)中,()是M-P神經(jīng)元,也稱為閾值邏輯單元。

A、輸入層

B、輸出層

C、第一層

D、第二層

答案:B

55.深度學(xué)習(xí)中的“深度”是指O。

A、計(jì)算機(jī)理解深度

B、中間神經(jīng)元網(wǎng)絡(luò)的層次很多

C、計(jì)算機(jī)的求解更加精確

D、計(jì)算機(jī)對(duì)問題的處理更加靈活

答案:B

56.在《國(guó)家電網(wǎng)公司“十三五”科技戰(zhàn)略研究報(bào)告》中指出,十二五期間“先

進(jìn)計(jì)算與電力大數(shù)據(jù)技術(shù)取得良好開端”,主要體現(xiàn)在:在()及專業(yè)應(yīng)用實(shí)現(xiàn)

基礎(chǔ)上,探索了大數(shù)據(jù)平臺(tái)基礎(chǔ)體系架構(gòu)與應(yīng)用規(guī)范

A、技術(shù)中臺(tái)

B、公司一體化信息平臺(tái)

C、公司統(tǒng)一管理平臺(tái)

D、數(shù)據(jù)中臺(tái)

答案:B

57.神經(jīng)網(wǎng)絡(luò)的訓(xùn)練結(jié)果模型不包括()。

A、權(quán)重矩陣

B、偏置參數(shù)

C、超參數(shù)

D、計(jì)算圖

答案:C

58.做好數(shù)據(jù)識(shí)別和分類分級(jí),通過數(shù)據(jù)盤點(diǎn)理清數(shù)據(jù)狀況,建立數(shù)據(jù)目錄,以

數(shù)據(jù)目錄為基礎(chǔ)梳理形成數(shù)據(jù)共享()

A、白名單

B、分級(jí)目錄

C、備忘錄

D、負(fù)面清單

答案:D

59.卷積神經(jīng)網(wǎng)絡(luò)可以對(duì)一個(gè)輸入進(jìn)行多種變換(旋轉(zhuǎn)、平移、縮放),這個(gè)表

述正確嗎()

A、對(duì)的

B、不知道

C、看情況

D、不對(duì)

答案:D

60.下列關(guān)于運(yùn)算符優(yōu)先級(jí)的說法不正確的是()

A、運(yùn)算符按照優(yōu)先級(jí)順序表進(jìn)行運(yùn)算

B、同一優(yōu)先級(jí)的運(yùn)算符在表達(dá)式中都是按照從左到右的順序進(jìn)行運(yùn)算的

C、同一優(yōu)先級(jí)的運(yùn)算符在表達(dá)式中都是按照從右到左的順序進(jìn)行運(yùn)算的

D、括號(hào)可以改變運(yùn)算的優(yōu)先次序

答案:C

61.Spark核心層主要關(guān)注()問題。

A、存儲(chǔ)

B、計(jì)算

C、傳輸

D、連接

答案:B

62.Maxpute架構(gòu)由四層組成,每一層完成不同的工作。現(xiàn)在執(zhí)行命令"selectc

ount(*)fromtable_a^^,最終由()處理該命令并返回結(jié)果。

A、計(jì)算層

B、客戶端

C、接入層

D、邏輯層

答案:A

63.()是公司大數(shù)據(jù)應(yīng)用工作的歸口管理部門。

A、互聯(lián)網(wǎng)部

B、信息化部

C、數(shù)字化工作部

D、科技信息部

答案:C

64.下列哪個(gè)不是專門用于可視化時(shí)間空間數(shù)據(jù)的技術(shù):O。

A、等高線圖

B、餅圖

C、曲面圖

D、矢量場(chǎng)圖

答案:B

65.回歸問題和分類問題的區(qū)別是什么?

A、回歸問題與分類問題在輸入屬性值上要求不同

B、回歸問題有標(biāo)簽,分類問題沒有

C、回歸問題輸出值是連續(xù)的,分類問題輸出值是離散的

D、回歸問題輸出值是離散的,分類問題輸出值是連續(xù)的

答案:C

66.自然語(yǔ)言處理、語(yǔ)音識(shí)別'股票交易、氣象預(yù)測(cè)等應(yīng)用適合采用(_)處理。

A、循環(huán)神經(jīng)網(wǎng)絡(luò)

B、卷積神經(jīng)網(wǎng)絡(luò)

C、多層神經(jīng)網(wǎng)絡(luò)

D、單層神經(jīng)網(wǎng)絡(luò)

答案:A

67.用onehot對(duì)某個(gè)只有一個(gè)屬性的樣本進(jìn)行編碼,下面可能是編碼結(jié)果的是()。

A、1010

B、1100

C、1111

D、1000

答案:D

68.有監(jiān)督的學(xué)習(xí)和無(wú)監(jiān)督的學(xué)習(xí)的根本區(qū)別在于:

A、學(xué)習(xí)過程是否需要人工干預(yù)

B、學(xué)習(xí)樣本是否需要人工標(biāo)記

C、學(xué)習(xí)結(jié)果是否需要人工解釋

D、學(xué)習(xí)參數(shù)是否需要人工設(shè)置

答案:B

69.給定測(cè)試樣本,基于某種距離度量找出訓(xùn)練集中與其最靠近的k個(gè)訓(xùn)練樣本,

然后基于這k個(gè)樣本的信息來進(jìn)行預(yù)測(cè)。這種學(xué)習(xí)算法稱為(_)。

A、k-means

B、k近鄰學(xué)習(xí)

C、隨機(jī)森林

D、決策樹

答案:B

70.以下哪個(gè)是有關(guān)數(shù)據(jù)科學(xué)研究目的的原則?()

A、DIKUW原則

B、5W1H原則

C、6s原則

D、PDCA原則

答案:A

71.假設(shè)你有5個(gè)大小為7x7、邊界值為0的卷積核,同時(shí)卷積神經(jīng)網(wǎng)絡(luò)第一層

的深度為1。此時(shí)如果你向這一層傳入一個(gè)維度為224x224x3的數(shù)據(jù),那么神經(jīng)

網(wǎng)絡(luò)下一層所接收到的數(shù)據(jù)維度是多少

A、218x218x5

B、217x217x8

G217x217x3

D、220x220x5

答案:A

72.下面哪個(gè)色彩空間最接近人的視覺系統(tǒng)的特點(diǎn)()。

A、RGB空間

B、CMY空間

GCMYK空間

DvHSI空間

答案:D

73.下列。不是神經(jīng)網(wǎng)絡(luò)的代表。

A、卷積神經(jīng)網(wǎng)絡(luò)

B、遞歸神經(jīng)網(wǎng)絡(luò)

C、殘差網(wǎng)絡(luò)

D、xgboost算法

答案:D

74.()可以使神經(jīng)網(wǎng)絡(luò)模型擬合復(fù)雜函數(shù)的能力增加。

A、隱藏層層數(shù)增加

B、Dropout比例增加

C、增大學(xué)習(xí)率

D、增加訓(xùn)練輪數(shù)

答案:A

75.()是TensorFlow的核心數(shù)據(jù)單位。

A、張量

B、向量

C、矩陣

D、數(shù)組

答案:A

76.卷積神經(jīng)網(wǎng)絡(luò)中池化層的作用是。。

A、降低卷積層對(duì)位置的敏感性,同時(shí)降低對(duì)空間降采樣表示的敏感性

B、權(quán)值初始化

C、對(duì)圖像實(shí)現(xiàn)邊緣檢測(cè)

D、提取輸入的不同特征

答案:A

77.以下表名不符合數(shù)據(jù)中臺(tái)分析層命名規(guī)范的是()。

A、dim_cst_cust_df

B、dim_cst_cust

C、dwscstcustdf

D、dwdcstcust

答案:D

78.國(guó)網(wǎng)公司堅(jiān)持?jǐn)?shù)據(jù)“一處生成、多處使用”,明確權(quán)威數(shù)據(jù)源引用規(guī)范,開

展權(quán)威數(shù)據(jù)源中臺(tái)標(biāo)注,推進(jìn)權(quán)威數(shù)據(jù)源在中臺(tái)的落地應(yīng)用,常態(tài)推進(jìn)()治理。

A、數(shù)據(jù)源頭

B、數(shù)據(jù)中臺(tái)

C、業(yè)務(wù)中臺(tái)

D、數(shù)據(jù)應(yīng)用

答案:A

79.相關(guān)關(guān)系是一種與函數(shù)關(guān)系區(qū)別的非確定性關(guān)系,而相關(guān)分析就是研究事物

或現(xiàn)象之間是否存在這種非確定性關(guān)系的統(tǒng)計(jì)方法,以下不屬于相關(guān)性分析方法

的是()o

A、Pearson相關(guān)系數(shù)

B、Spearman秩相關(guān)系數(shù)

C\KendaII相關(guān)系數(shù)

D、傅里葉系數(shù)

答案:D

80.假設(shè)給定一個(gè)長(zhǎng)度為n的不完整單詞序列,希望預(yù)測(cè)下一個(gè)字母是什么,如

輸入是predicti。(9個(gè)字母組成),希望預(yù)測(cè)第十個(gè)字母是什么。適用于解決

這個(gè)工作的是()。

A、循環(huán)神經(jīng)網(wǎng)絡(luò)

B、全連接神經(jīng)網(wǎng)絡(luò)

C、受限波爾茲曼機(jī)

D、卷積神經(jīng)網(wǎng)絡(luò)

答案:A

81.以下哪種方法可以將json字符串轉(zhuǎn)換為Python形式()。

Axread_json

B、json.trans

C、json.loads

D、json.dumps

答案:C

82.下面關(guān)于循環(huán)神經(jīng)網(wǎng)絡(luò)說法錯(cuò)誤的是()

A、循環(huán)神經(jīng)網(wǎng)絡(luò)用于靜態(tài)輸出

B、循環(huán)神經(jīng)網(wǎng)絡(luò)通過使用帶自反饋的神經(jīng)元,能夠處理任意長(zhǎng)度的時(shí)序數(shù)據(jù)

C、循環(huán)神經(jīng)網(wǎng)絡(luò)具有短期記憶能力,相當(dāng)于存儲(chǔ)裝置,因此其計(jì)算能力十分強(qiáng)

D、循環(huán)神經(jīng)網(wǎng)絡(luò)時(shí)間擴(kuò)展,神經(jīng)元與多個(gè)時(shí)間輸出計(jì)算

答案:A

83.預(yù)訓(xùn)練模型是指。。

A、先訓(xùn)練一個(gè)模型作為基準(zhǔn)

B、在正式訓(xùn)練之前,做一次試驗(yàn)訓(xùn)練

C、已經(jīng)在大數(shù)據(jù)集上訓(xùn)練好的一個(gè)模型

D、預(yù)先根據(jù)任務(wù)特點(diǎn),對(duì)模型結(jié)構(gòu)進(jìn)行調(diào)整

答案:C

84.國(guó)網(wǎng)公司數(shù)據(jù)管理堅(jiān)持()的原則。

A、面向?qū)I(yè)

B、面向基層

C、面向應(yīng)用

D、面向?qū)I(yè)、面向基層、面向應(yīng)用

答案:D

85.卷積神經(jīng)網(wǎng)絡(luò)的結(jié)構(gòu)不包括()o

A、池化層

B、卷積層

C、激活層

D、全連接層

答案:C

86.混淆矩陣中的T%16,FP=12,FN=8,TN=4,準(zhǔn)確率是()。

A、1212122023年1月4日

B、1212122023年1月2日

C、1212122023年4月7日

D、1212122023年1月7日

答案:B

87.通?!奥湮檎摺笔怯绊慚apReduce總執(zhí)行時(shí)間的主要影響因素之一,為此Ma

pReduce采用()機(jī)制來解決。

A、分布式計(jì)算

B、惰性計(jì)算

C、推測(cè)性執(zhí)行的任務(wù)備份

D、先進(jìn)先出

答案:C

88.長(zhǎng)短時(shí)記憶網(wǎng)絡(luò)屬于一種()o

A、全連接神經(jīng)網(wǎng)絡(luò)

B、門控RNN

GBP神經(jīng)網(wǎng)絡(luò)

D、雙向RNN

答案:B

89.k近鄰學(xué)習(xí)是一種(_)。

A、監(jiān)督學(xué)習(xí)方法

B、半監(jiān)督學(xué)習(xí)方法

C、無(wú)監(jiān)督學(xué)習(xí)方法

D、測(cè)試方法

答案:A

90.綜合類大數(shù)據(jù)應(yīng)用管理,主要包括(),由互聯(lián)網(wǎng)部統(tǒng)一組織開展。

A、應(yīng)用需求

B、分析應(yīng)用

C、成果管理

D、以上都是

答案:D

91.假設(shè)你有5個(gè)大小為7x7、邊界值為0的卷積核,同時(shí)卷積神經(jīng)網(wǎng)絡(luò)第一層

的深度為1。此時(shí)如果你向這一層傳入一個(gè)維度為224x224x3的數(shù)據(jù),那么神經(jīng)

網(wǎng)絡(luò)下一層所接收到的數(shù)據(jù)維度是多少()

A、218x218x5

B、217x217x8

C、217x217x3

D、220x220x5

答案:A

92.根據(jù)國(guó)家電網(wǎng)互聯(lián)[2020]745號(hào)《國(guó)家電網(wǎng)有限公司關(guān)于進(jìn)一步規(guī)范數(shù)據(jù)安

全工作的通知》,以下說法錯(cuò)誤的是()o

A、商業(yè)秘密、工作秘密、個(gè)人信息等納入負(fù)面清單的數(shù)據(jù),由數(shù)據(jù)使用方提出

申請(qǐng),經(jīng)數(shù)據(jù)產(chǎn)生的總部業(yè)務(wù)部門和數(shù)據(jù)歸口管理部門審批后方可對(duì)內(nèi)跨部門、

跨單位給數(shù)據(jù)使用方使用。

B、公司對(duì)外提供數(shù)據(jù)時(shí),應(yīng)根據(jù)有關(guān)要求,執(zhí)行標(biāo)準(zhǔn)統(tǒng)一的數(shù)據(jù)開放策略。

C、涉密數(shù)據(jù)按照公司保密規(guī)章制度執(zhí)行,嚴(yán)格履行相關(guān)保密合規(guī)審核流程。

D、除國(guó)家機(jī)關(guān)依法調(diào)取數(shù)據(jù)外,原則上公司明細(xì)業(yè)務(wù)數(shù)據(jù)不對(duì)外提供。

答案:B

93.優(yōu)化O,建立設(shè)備績(jī)效和供應(yīng)商業(yè)績(jī)之間的關(guān)聯(lián)關(guān)系,實(shí)現(xiàn)設(shè)備質(zhì)量評(píng)價(jià)

管理閉環(huán),建立健全供應(yīng)商信用風(fēng)險(xiǎn)評(píng)估體系,優(yōu)化采購(gòu)模式與供應(yīng)商管理。

A、設(shè)備質(zhì)量監(jiān)管

B、設(shè)備物資供應(yīng)鏈

C、設(shè)備供應(yīng)商管理

D、設(shè)備質(zhì)量評(píng)價(jià)管理

答案:B

94.安全巡檢屬于信息系統(tǒng)安全過程管理的()階段。

A、運(yùn)行

B、測(cè)試

C、科研

D、上線

答案:A

95.如果增加神經(jīng)網(wǎng)絡(luò)的寬度,精確度會(huì)增加到一個(gè)閾值,然后開始降低。造成

這一現(xiàn)象的原因可能是Oo

A、只有一部分核被用于預(yù)測(cè)

B、當(dāng)核數(shù)量增加,神經(jīng)網(wǎng)絡(luò)的預(yù)測(cè)能力降低

C、當(dāng)核數(shù)量增加,其相關(guān)性增加,導(dǎo)致過擬合

D、以上都不對(duì)

答案:C

96.關(guān)于Python的全局變量和局部變量,以下選項(xiàng)中描述錯(cuò)誤的是()

A、使用global保留字聲明簡(jiǎn)單數(shù)據(jù)類型變量后,該變量作為全局變量使用

B、局部變量指在函數(shù)內(nèi)部使用的變量,當(dāng)函數(shù)退出時(shí),變量依然存在,下次函

數(shù)調(diào)用可以繼續(xù)使用

C、簡(jiǎn)單數(shù)據(jù)類型變量無(wú)論是否與全局變量重名,僅在函數(shù)內(nèi)部創(chuàng)建和使用,函

數(shù)退出后變量被釋放

D、全局變量指在函數(shù)之外定義的變量,一般沒有縮進(jìn),在程序執(zhí)行全過程有效

答案:B

97.基于詞的n元文法模型,其最后的粗分結(jié)果集合大小ONo

A、大于

B、大于等于

G小于

D、小于等于

答案:B

98.對(duì)于依托公共服務(wù)能力平臺(tái)開發(fā)的大數(shù)據(jù)應(yīng)用,應(yīng)遵循平臺(tái)有關(guān)規(guī)范,重點(diǎn)

開展—、數(shù)據(jù)建模以及數(shù)據(jù)展示等工作,安全防護(hù)'三方測(cè)試等相關(guān)要求統(tǒng)一

納入公共服務(wù)能力平臺(tái)進(jìn)行管理,可不再單獨(dú)開展。

A、數(shù)據(jù)查詢

B、數(shù)據(jù)清洗

C、數(shù)據(jù)分類

D、數(shù)據(jù)溯源

答案:D

99.決策樹中的葉結(jié)點(diǎn)對(duì)應(yīng)于(_)。

A、屬性

B、樣本

C、決策結(jié)果

D、標(biāo)簽值

答案:C

100.依據(jù)《國(guó)家電網(wǎng)有限公司數(shù)據(jù)管理辦法》,建立基于負(fù)面清單的公司對(duì)內(nèi)數(shù)

據(jù)共享機(jī)制,堅(jiān)持“以O(shè)為原則、不共享為例外”,改變當(dāng)前“一事一議”、

層層審批的數(shù)據(jù)應(yīng)用授權(quán)方式。

A、共享

B、共建

C、共通

D、共贏

答案:A

101.數(shù)據(jù)安全,是指通過采取必要措施,確保數(shù)據(jù)處于有效保護(hù)和()的狀態(tài),

以及具備保障持續(xù)安全狀態(tài)的能力。

A、合法利用

B、合法獲取

C、規(guī)范使用

D、安全傳輸

答案:A

102.加強(qiáng)數(shù)據(jù)傳輸、存儲(chǔ)過程中的安全管理,釆取加密、隔離、備份等安全技術(shù)

手段,確保符合相應(yīng)安全條件或技術(shù)標(biāo)準(zhǔn),具備O能力,防范數(shù)據(jù)泄露、篡改、

損毀、丟失風(fēng)險(xiǎn)。

A、共享

B、災(zāi)備

C、安全

D、保護(hù)

答案:B

103.神經(jīng)網(wǎng)絡(luò)訓(xùn)練過程中,一般會(huì)遇到停滯期,即神經(jīng)網(wǎng)絡(luò)在進(jìn)入全局最小值之

前陷入局部最小值。以下哪個(gè)策略可以避免上述情況?

A、增加參數(shù)數(shù)量

B、減少參數(shù)數(shù)量

C、在開始時(shí)將學(xué)習(xí)率降低10倍

D、改變幾個(gè)時(shí)期的學(xué)習(xí)率

答案:D

104.假設(shè)我們有一個(gè)使用ReLU激活函數(shù)(ReLUactivationfunction)的神經(jīng)網(wǎng)絡(luò),

假如我們把ReLU激活替換為線性激活,那么這個(gè)神經(jīng)網(wǎng)絡(luò)能夠模擬出同或函數(shù)

(XNORfunction)嗎

A、可以

B、不好說

C、不一定

D、不能

答案:D

105.LSTM網(wǎng)絡(luò)引入門控機(jī)制來控制信息傳遞的路徑,其中輸入門的作用是()

A、控制上一個(gè)時(shí)刻的內(nèi)部狀態(tài)需要遺忘多少信息

B、控制上一個(gè)時(shí)刻的內(nèi)部狀態(tài)有多少信息需要保存

C、控制當(dāng)前當(dāng)刻的候選狀態(tài)有多少信息需要保存

D、控制當(dāng)前當(dāng)刻的內(nèi)部狀態(tài)有多少信息需要輸出給外部狀態(tài)

答案:C

106.下列關(guān)于深度學(xué)習(xí)中優(yōu)化問題說法錯(cuò)誤的是()。

A、當(dāng)優(yōu)化問題的數(shù)值解接近局部最優(yōu)值時(shí),隨著目標(biāo)函數(shù)解的梯度接近或變?yōu)?/p>

零,通過最終迭代獲得的數(shù)值解可能僅使目標(biāo)函數(shù)局部最優(yōu),而不是全局最優(yōu)

B、在深度學(xué)習(xí)優(yōu)化問題中,經(jīng)常遇到的是梯度爆炸或梯度消失

C、優(yōu)化問題中設(shè)置的學(xué)習(xí)率決定目標(biāo)函數(shù)能否收斂到局部最小值,以及何時(shí)收

斂到最小值

D、一般來說,小批量隨機(jī)梯度下降比隨機(jī)梯度下降和梯度下降的速度慢,收斂

風(fēng)險(xiǎn)較大

答案:D

107.可視分析學(xué)是一門以可視交互為基礎(chǔ),綜合運(yùn)用O、數(shù)據(jù)挖掘和人機(jī)交互

等技術(shù)等多個(gè)學(xué)科領(lǐng)域的知識(shí)。

A、圖像學(xué)

B、人工智能

C、分析學(xué)

D、圖形學(xué)

答案:A

108.嚴(yán)格遵守國(guó)家法律、法規(guī)和公司相關(guān)規(guī)定,在保護(hù)國(guó)家秘密和企業(yè)秘密,且

不損害公司及客戶'供應(yīng)商等相關(guān)方權(quán)益的前提下,有序推動(dòng)數(shù)據(jù)對(duì)外幵放,重

點(diǎn)防范對(duì)外幵放過程中的()數(shù)據(jù)泄露。

A、明細(xì)

B、業(yè)務(wù)

C、敏感

D\隱私

答案:C

109.電力線和信號(hào)線應(yīng)分別敷設(shè)在()、()或橋架內(nèi),走線應(yīng)整齊美觀安全。

A、走線架

B、強(qiáng)電線槽,弱電線槽

C、弱電線槽,強(qiáng)電線槽

D、槽鋼

答案:B

110.年度大數(shù)據(jù)應(yīng)用需求由()重抽組織開展儲(chǔ)備與立項(xiàng)工作。

A、數(shù)字化部

B、財(cái)務(wù)部

C、大數(shù)據(jù)中心

D、發(fā)展部

答案:A

111.總部與各單位按兩級(jí)貫通模式部署,并支持()成果共享。

A、一級(jí)

B、兩級(jí)

G三級(jí)

D、四級(jí)

答案:B

112.下面哪個(gè)屬于映射數(shù)據(jù)到新的空間的方法?

A、傅立葉變換

B、特征加權(quán)

C、漸進(jìn)抽樣

D、維歸約

答案:A

113.數(shù)據(jù)清洗的方法不包括O。

A、缺失值處理

B、噪聲數(shù)據(jù)清除

C、一致性檢查

D、重復(fù)數(shù)據(jù)記錄處理

答案:D

114.構(gòu)建()客戶畫像,設(shè)計(jì)全網(wǎng)客戶標(biāo)簽體系,形成客戶標(biāo)簽庫(kù),全面及時(shí)分

析客戶行為活動(dòng),深度提煉客戶行為特征規(guī)律,實(shí)現(xiàn)客戶行為動(dòng)態(tài)畫像。

A、全量

B、多維動(dòng)態(tài)

C、全方面

D、多維

答案:B

115.在lncep■tionNet中,使用()和單層的全連接層替換掉了VCG的三層全連

接層。

A、全局最大池化層

B、全局最小池化層

C、卷積層

D、全局平均池化層

答案:D

116.在線性回歸中,最小二乘法就是試圖找到一條直線,使所有樣本到直線上的

之和最小。

A、歐式距離

B、城市距離

C、余弦距離

D、馬氏距離

答案:A

117.在統(tǒng)計(jì)語(yǔ)言模型中,通常以概率的形式描述任意語(yǔ)句的可能性,利用最大相

似度估計(jì)進(jìn)行度量,對(duì)于一些低頻詞,無(wú)論如何擴(kuò)大訓(xùn)練數(shù)據(jù),出現(xiàn)的頻度仍然

很低,下列哪種方法可以解決這一問題

A、一元切分

B、一元文法

C、數(shù)據(jù)平滑

D、N元文法

答案:C

118.按照數(shù)據(jù)全生命周期安全合規(guī)思路,做好數(shù)據(jù)()頂層設(shè)計(jì),統(tǒng)籌推進(jìn)數(shù)據(jù)

合規(guī)管理體系建設(shè),強(qiáng)化數(shù)據(jù)合規(guī)風(fēng)險(xiǎn)管控,促進(jìn)公司數(shù)字化轉(zhuǎn)型發(fā)展,為建設(shè)

具有中國(guó)特色國(guó)際領(lǐng)先的能源互聯(lián)網(wǎng)企業(yè)作出積極貢獻(xiàn)。

A、模型建設(shè)

B、安全管理

C、數(shù)據(jù)規(guī)劃

D、合規(guī)管理

答案:D

119.假設(shè)已經(jīng)建立了一個(gè)神經(jīng)網(wǎng)絡(luò),決定將權(quán)重和偏差初始化為零。以下哪項(xiàng)陳

述是正確的?

A、第一隱藏層中的每個(gè)神經(jīng)元將執(zhí)行相同的計(jì)算。因此,即使在梯度下降的多

次迭代之后,層中的每個(gè)神經(jīng)元將執(zhí)行與其他神經(jīng)元相同的計(jì)算。

B、第一隱層中的每個(gè)神經(jīng)元在第一次迭代中執(zhí)行相同的計(jì)算。但是在梯度下降

的一次迭代之后,他們將學(xué)會(huì)計(jì)算不同的東西,因?yàn)橐呀?jīng)“破壞了對(duì)稱性”。

C、第一個(gè)隱藏層中的每個(gè)神經(jīng)元將執(zhí)行相同的計(jì)算,但不同層中的神經(jīng)元執(zhí)行

不同的計(jì)算,因此完成了課堂上所描述的“對(duì)稱性破壞”。

D、即使在第一次迭代中,第一個(gè)隱藏層的神經(jīng)元也會(huì)執(zhí)行不同的計(jì)算,因此,

它們的參數(shù)會(huì)以自己的方式不斷演化

答案:A

120.關(guān)于pandas庫(kù)的文本操作,下列說法錯(cuò)誤的是()。

A、Replace方法用于替換字符串

B、Slice方法不是通過截取字符實(shí)現(xiàn)文本索引操作的

C、Upper方法可將Series各元素轉(zhuǎn)換為大寫

D、存在一些特殊的方法是Python原生str類型所沒有的

答案:B

121.回溯“深度學(xué)習(xí)”領(lǐng)域的學(xué)術(shù)脈絡(luò),2017年-2020年間研究量最多的主題是

A、特征提取

B、卷積神經(jīng)網(wǎng)絡(luò)

C、人工智能

D、遷移學(xué)習(xí)

答案:B

122.從網(wǎng)絡(luò)的原理上來看,結(jié)構(gòu)最復(fù)雜的神經(jīng)網(wǎng)絡(luò)是()。

A、卷積神經(jīng)網(wǎng)絡(luò)

B、長(zhǎng)短時(shí)記憶神經(jīng)網(wǎng)絡(luò)

C、GRU

D、BP

答案:B

123.為了提高系統(tǒng)性能,Spark采取“惰性計(jì)算模式”,具體為。。

A、執(zhí)行Transformation操作時(shí)不會(huì)提交,只有執(zhí)行Action操作時(shí)才會(huì)被提交

到集群中開始被執(zhí)行

B、執(zhí)行Action操作時(shí)不會(huì)提交,只有執(zhí)行Transformation操作時(shí)才會(huì)被提交

到集群中開始被執(zhí)行

C、只有執(zhí)行完Action操作和Transformation操作時(shí),所有操作才會(huì)被提交到

集群中開始被執(zhí)行

D、執(zhí)行完Action操作或Transformation操作時(shí)都不會(huì)提交到集群

答案:A

124.從內(nèi)外部環(huán)境與市場(chǎng)需求來看,以下哪一項(xiàng)不是大數(shù)據(jù)應(yīng)用的業(yè)務(wù)規(guī)劃將聚

焦核心領(lǐng)域。

A、電網(wǎng)運(yùn)營(yíng)

B、經(jīng)營(yíng)管理

C、客戶服務(wù)

D、科技創(chuàng)新

答案:D

125.智能電網(wǎng)綜合支撐技術(shù),在()的智能電網(wǎng)管理及運(yùn)維關(guān)鍵技術(shù)中,應(yīng)用大

數(shù)據(jù)和先進(jìn)計(jì)算技術(shù),研究電網(wǎng)設(shè)備狀態(tài)信息集成與綜合分析技術(shù);

A、分布節(jié)能

B、高效節(jié)能

C、集約高效

D、分布高效

答案:C

126.長(zhǎng)短時(shí)記憶神經(jīng)網(wǎng)絡(luò)被設(shè)計(jì)用來解決什么問題?()

A、傳統(tǒng)RNN存在的梯度消失/爆炸問題

B、傳統(tǒng)RNN計(jì)算量大的問題

C、傳統(tǒng)RNN速度較慢的問題

D、傳統(tǒng)RNN容易過過擬合的問題

答案:A

127.關(guān)于LDA和PCA的描述,下列說法中錯(cuò)誤的是?

A、PCA是無(wú)監(jiān)督的,LDA是有監(jiān)督的

B、LDA最多可以降到k-2維

C、LDA可能會(huì)過擬合數(shù)據(jù)

D、PCA是去掉原始數(shù)據(jù)冗余的維度,LDA是選擇一個(gè)最佳的投影方向,使得投影

后相同類別的數(shù)據(jù)分布緊湊,不同類別的數(shù)據(jù)盡量相互遠(yuǎn)離

答案:B

128.負(fù)責(zé)關(guān)鍵信息基礎(chǔ)設(shè)施安全保護(hù)工作的部門,應(yīng)當(dāng)建立健全本行業(yè)、本領(lǐng)域

的網(wǎng)絡(luò)安全監(jiān)測(cè)預(yù)警和(),并按照規(guī)定報(bào)送網(wǎng)絡(luò)安全監(jiān)測(cè)預(yù)警信息。

A、網(wǎng)絡(luò)安全風(fēng)控機(jī)制

B、信息通報(bào)制度

C、網(wǎng)絡(luò)安全風(fēng)險(xiǎn)庫(kù)

D、信息預(yù)警制度

答案:B

129.數(shù)據(jù)中臺(tái)建立數(shù)據(jù)安全傳輸機(jī)制,根據(jù)數(shù)據(jù)保護(hù)需求,實(shí)現(xiàn)兩級(jí)數(shù)據(jù)中臺(tái)之

間、與()之間的安全傳輸。

A、外部用戶

B、內(nèi)部用戶

C、全部用戶

D、指定用戶

答案:A

130.a=[1,2,3.4,5],切片時(shí)如果需要取[2,3.4],則下列結(jié)果正確的是()

A、a[1:4]

B、a[-2:]

C、a[1:-1]

D、a[::2]

答案:C

131.數(shù)據(jù)中臺(tái)由O、()()、()、()五大板塊組成,采用總部和省市

公司兩級(jí)部署模式構(gòu)建。

A、貼源層、共享層、分析層、統(tǒng)一數(shù)據(jù)服務(wù)調(diào)度和數(shù)據(jù)

B、貼源層、應(yīng)用層、分析層、統(tǒng)一數(shù)據(jù)服務(wù)調(diào)度和數(shù)據(jù)

C、服務(wù)層、共享層、應(yīng)用層、統(tǒng)一數(shù)據(jù)服務(wù)調(diào)度和數(shù)據(jù)

D、服務(wù)層、共享層、分析層、統(tǒng)一數(shù)據(jù)服務(wù)調(diào)度和數(shù)據(jù)

答案:A

132.神經(jīng)網(wǎng)絡(luò)感知機(jī)只有()神經(jīng)元進(jìn)行激活函數(shù)處理,即只擁有一層功能神經(jīng)元。

A、輸出層

B、輸入層

C、感知層

D、網(wǎng)絡(luò)層

答案:A

133.為保障大數(shù)據(jù)應(yīng)用的快速開發(fā)和敏捷迭代,按照依托()兩種類型實(shí)施差異化

管控。

A、共享平臺(tái)開發(fā)和獨(dú)立開發(fā)

B、共享平臺(tái)開發(fā)和個(gè)人開發(fā)

C、公共服務(wù)能力平臺(tái)開發(fā)和獨(dú)立開發(fā)

D、公共服務(wù)能力平臺(tái)開發(fā)和個(gè)人開發(fā)

答案:C

134.《中華人民共和國(guó)數(shù)據(jù)安全法》中的數(shù)據(jù),是指任何以電子或者其他方式對(duì)

()的記錄。

A、數(shù)據(jù)

B、信息

C、文件

D、知識(shí)

答案:B

135.Transformer架構(gòu)首先是由下列哪項(xiàng)引入的?

A、GloVe

B、BERT

CxOpen

D、ULMFit

答案:c

136.plt.contourf(X,Y,f(X,Y),8,aIpha=.75,cmap=p11.cm.hot),cmap表示()?

A、圖例風(fēng)格

B、顏色映射風(fēng)格

C、網(wǎng)格線類型

D、透明度

答案:B

137.建立與政府主管部門、行業(yè)協(xié)會(huì)、專家學(xué)者的有效溝通機(jī)制,組織各級(jí)單位

積極參與《數(shù)據(jù)安全法》、《》等國(guó)家'地方和行業(yè)數(shù)據(jù)相關(guān)法律法規(guī)。

A、《個(gè)人信息保護(hù)法》

B、《網(wǎng)絡(luò)安全法》

C、《保守國(guó)家秘密法》

D、《網(wǎng)絡(luò)產(chǎn)品和服務(wù)安全審查辦法(試行)》

答案:A

138.在Apriori算法中,候選項(xiàng)集劃分為不同的桶,存放在()中。

A、字典

B、集合

C、Hash樹

D、列表

答案:C

139.多分類圖像識(shí)別任務(wù)常采用O作為輸出的編碼方式。

A、二進(jìn)制編碼

B、one-hot編碼

C、霍夫曼編碼

D、曼切斯特編碼

答案:B

140.關(guān)于下面代碼的描述,錯(cuò)誤的是n=1deffunc(a,b):c=a*breturncs=func(He

IIo,2)print(c)

A、打印輸出字符串:HeiIoHeIIo$運(yùn)行結(jié)果是出錯(cuò),出錯(cuò)類型是NameError:|運(yùn)

行結(jié)果是出錯(cuò),出錯(cuò)類型是NameError:|c是一個(gè)局部變量|n是一個(gè)全局變量

B、運(yùn)行結(jié)果是出錯(cuò),出錯(cuò)類型是NameError:

C、c是一個(gè)局部變量

D、n是一個(gè)全局變量

答案:A

141.假設(shè)有100,000張帶標(biāo)簽的圖片是使用汽車的前置攝像頭拍攝的,這也是模

型訓(xùn)練的數(shù)據(jù)分布,如果可以從互聯(lián)網(wǎng)上獲得更大的數(shù)據(jù)集,即使互聯(lián)網(wǎng)數(shù)據(jù)的

分布不相同,這也可能對(duì)訓(xùn)練有所幫助。在剛剛開始著手這個(gè)項(xiàng)目,要做的第一

件事是什么?假設(shè)下面的每個(gè)步驟將花費(fèi)大約相等的時(shí)間(大約幾天)。

A、花幾天時(shí)間去獲取互聯(lián)網(wǎng)的數(shù)據(jù),這樣就能更好地了解哪些數(shù)據(jù)是可用的。

B、花幾天的時(shí)間檢查這些任務(wù)的人類表現(xiàn),以便能夠得到貝葉斯誤差的準(zhǔn)確估

計(jì)。

C、花幾天的時(shí)間使用汽車前置攝像頭采集更多數(shù)據(jù),以更好地了解每單位時(shí)間

可收集多少數(shù)據(jù)。

D、花幾天時(shí)間訓(xùn)練一個(gè)基本模型,看看它會(huì)犯什么錯(cuò)誤

答案:D

142.數(shù)據(jù)質(zhì)量的基本屬性不包括()

A、正確性

B、時(shí)效性

C、一致性

D、完整性

答案:B

143.下列關(guān)于長(zhǎng)短時(shí)神經(jīng)網(wǎng)絡(luò)的敘述錯(cuò)誤的是()。

A、引用自循環(huán)思想

B、產(chǎn)生梯度長(zhǎng)時(shí)間持續(xù)流動(dòng)的路徑

C、積累的時(shí)間尺度不可以因輸入序列而改變

D、可應(yīng)用于語(yǔ)音識(shí)別和機(jī)器翻譯

答案:C

144.長(zhǎng)短時(shí)記憶神經(jīng)網(wǎng)絡(luò)通過什么來緩解梯度消失問題()

A、增加網(wǎng)絡(luò)深度

B、減少網(wǎng)絡(luò)神經(jīng)元

C、使用雙向的網(wǎng)絡(luò)結(jié)構(gòu)

D、增加一個(gè)用來保存長(zhǎng)期狀態(tài)的單元

答案:D

145.創(chuàng)建RDS實(shí)例后,您需要設(shè)置RDS實(shí)例的白名單,以允許()設(shè)備訪問該R

DS實(shí)例。

A、外部

B、內(nèi)部

C、任意

D、非安全

答案:A

146.在池化中,當(dāng)步長(zhǎng)小于卷積核的大小時(shí)會(huì)稱為重疊池化。與非重疊池化相比,

下面哪個(gè)不是重疊池化的優(yōu)點(diǎn)?()

A、損失信息少

B、獲得的圖像特征更豐富

C、提高卷積神經(jīng)網(wǎng)絡(luò)的正確率

D、減少計(jì)算量

答案:D

147.按照《關(guān)于進(jìn)一步加強(qiáng)公司數(shù)據(jù)安全的通知》,應(yīng)嚴(yán)格電網(wǎng)省側(cè)和經(jīng)營(yíng)管理

數(shù)據(jù)對(duì)外發(fā)布共享。遵循O的原則,確保生產(chǎn)經(jīng)營(yíng)數(shù)據(jù)及分析結(jié)果數(shù)據(jù)不出網(wǎng)

(管理信息大區(qū)和生產(chǎn)控制大區(qū))、不觸媒。

A、以共享為原則、不共享為例外

B、最小化授權(quán)

C、明細(xì)業(yè)務(wù)數(shù)據(jù)不出中臺(tái)

D、誰(shuí)主管誰(shuí)負(fù)責(zé),誰(shuí)使用誰(shuí)負(fù)責(zé)

答案:C

148.以下屬于Python腳本程序轉(zhuǎn)變?yōu)榭蓤?zhí)行程序的第三方庫(kù)的是:

Axrequests

B、pyinstaIIer

Cxnumpy

D、scrapy

答案:B

149.使用copy模塊深拷貝的方法為()。

A、copy()

B、deepcopy,copy()

C、copy,deepcopy()

D、deepcopy,deepcopy()

答案:c

150.考慮值集(12243324556826}的四分位數(shù)極差是。。

A、21

B、24

C、55

D、3

答案:A

151.一般將原始業(yè)務(wù)數(shù)據(jù)分為多個(gè)部分,用于構(gòu)建模型的是。

A、訓(xùn)練集

B、測(cè)試集

C、驗(yàn)證集

D、全部數(shù)據(jù)

答案:A

152.多義現(xiàn)象可以被定義為在文本對(duì)象中一個(gè)單詞或短語(yǔ)的多種含義共存。下列

哪一種方法可能是解決此問題的最好選擇?

A、隨機(jī)森林分類器

B、卷積神經(jīng)網(wǎng)絡(luò)

C、梯度爆炸

D、上述所有方法

答案:B

153.大數(shù)據(jù)應(yīng)用承建單位應(yīng)基于項(xiàng)目建設(shè)方案編制實(shí)施方案不包括

A、數(shù)據(jù)溯源

B、數(shù)據(jù)申請(qǐng)

C、數(shù)據(jù)需求調(diào)研

D、數(shù)據(jù)建模

答案:C

154.在情感分析任務(wù)中,其目的是將無(wú)結(jié)構(gòu)化的情感文本轉(zhuǎn)化成計(jì)算機(jī)容易識(shí)別

和處理的結(jié)構(gòu)化文本,進(jìn)而供情感分析上層的研究和應(yīng)用服務(wù)的是()

A、情感信息檢索

B、情感信息抽取

C、情感信息分類

D、情感信息歸納

答案:B

155.對(duì)于神經(jīng)網(wǎng)絡(luò)的說法,下面正確的是:(_)。1.增加神經(jīng)網(wǎng)絡(luò)層數(shù),可能會(huì)增

加測(cè)試數(shù)據(jù)集的分類錯(cuò)誤率2.減少神經(jīng)網(wǎng)絡(luò)層數(shù),總是能減小測(cè)試數(shù)據(jù)集的分

類錯(cuò)誤率3.增加神經(jīng)網(wǎng)絡(luò)層數(shù),總是能減小訓(xùn)練數(shù)據(jù)集的分類錯(cuò)誤率

A、1

B、1、3

C、1、2

D、2

答案:A

156.Hive的數(shù)據(jù)最終存儲(chǔ)在()

A、HDFS

B、HBase

GRDBMS

D、Metastore

答案:A

157.通過數(shù)據(jù)資產(chǎn)核查及可視化的建設(shè),可以幫助公司合理評(píng)估、規(guī)范高效的管

控公司數(shù)據(jù)資產(chǎn)信息,又可以挖掘和發(fā)揮數(shù)據(jù)資產(chǎn)價(jià)值并促進(jìn)持續(xù)增值,推動(dòng)公

司向()管理轉(zhuǎn)型。

A、數(shù)據(jù)質(zhì)量

B、數(shù)據(jù)治理

C、數(shù)據(jù)分析

D、數(shù)據(jù)驅(qū)動(dòng)

答案:D

158.下列關(guān)于凝聚層次聚類技術(shù)的描述中,合適的是()。

A、抗噪聲和異常值

B、MAX(全鏈)聚類中合并距離最遠(yuǎn)的兩個(gè)簇

C、兩個(gè)簇合并后,只保留一個(gè)簇

D、沒有可以直接最小化的目標(biāo)函數(shù)

答案:D

159.下列哪些不是目前機(jī)器學(xué)習(xí)所面臨的問題是()。

A、測(cè)試集的規(guī)模

B、維度災(zāi)難

C、特征工程

D、過擬合

答案:A

160.網(wǎng)絡(luò)運(yùn)營(yíng)者發(fā)布、共享'交易或向境外提供重要數(shù)據(jù)前,應(yīng)當(dāng)評(píng)估可能帶來

的安全風(fēng)險(xiǎn),并報(bào)經(jīng)()部門同意

A、安全監(jiān)察

B、上級(jí)主管

C、工業(yè)和信息化

D、行業(yè)主管監(jiān)督

答案:D

161.MapReduce任務(wù)map輸出結(jié)果將被寫入()。

A、HDFS文件系統(tǒng)

B、新的記錄文件

G磁盤(Linux文件系統(tǒng))

D、主數(shù)據(jù)庫(kù)

答案:C

162.HBase是一種可伸縮、高可靠、高性能、分布式和面向()的動(dòng)態(tài)模式數(shù)據(jù)

庫(kù)。

A、列

B、行

C、行和列

D、元組

答案:A

163.LSTM的3個(gè)門分別是()o

A、遺忘門、輸入門、輸出門

B、輸入門、更新門、輸出門

C、輸入門、重置門、遺忘門

D、遺忘門、更新門、輸出門

答案:A

164.數(shù)據(jù)中臺(tái)提供統(tǒng)一的身份認(rèn)證和操作鑒權(quán)能力,確保在數(shù)據(jù)傳輸、存儲(chǔ)、訪

問過程中的數(shù)據(jù)安全;提供數(shù)據(jù)訪問權(quán)限控制、保護(hù)業(yè)務(wù)核心數(shù)據(jù)、防止()能

力。

A、數(shù)據(jù)泄露

B、數(shù)據(jù)錯(cuò)亂

C、數(shù)據(jù)分散

D、數(shù)據(jù)無(wú)效

答案:A

165.下面哪一個(gè)主流任務(wù)沒有用到卷積層

A、中英文互譯

B、場(chǎng)景文字檢測(cè)

C、為圖像自動(dòng)生成標(biāo)題

D、中文分詞

答案:D

166.假如你使用YOLO算法,使用19x19格子來檢測(cè)20個(gè)分類,使用5個(gè)錨框(a

nchorbox)0在訓(xùn)練的過程中,對(duì)于每個(gè)圖像你需要輸出卷積后的結(jié)果y作為神

經(jīng)網(wǎng)絡(luò)目標(biāo)值(這是最后一層),y可能包括一些“?”或者“不關(guān)心的值”。

請(qǐng)問最后的輸出維度是多少。

A、19x19x(25x20)

B、19x19x(20x25)

C、19x19x(5x25)

D、19x19x(5x20)

答案:c

167.MapReduce計(jì)算框架的輸入是()數(shù)據(jù)結(jié)構(gòu)。

Axkey-vaIue

B、input-output

C、map-reduce

D、key-coIumn

答案:A

168.資產(chǎn)評(píng)估應(yīng)用實(shí)現(xiàn)全鏈路的數(shù)據(jù)資產(chǎn)監(jiān)管和價(jià)值追蹤,具體包括資產(chǎn)使用評(píng)

估'()評(píng)估和敏感數(shù)據(jù)評(píng)估等功能。

A、資產(chǎn)使用評(píng)估

B、資產(chǎn)價(jià)值

C、敏感數(shù)據(jù)評(píng)估

D、數(shù)據(jù)質(zhì)量評(píng)估

答案:B

169.MapReduce任務(wù)map輸出結(jié)果將被寫入()。

A、HDFS文件系統(tǒng)

B、新的記錄文件

C、磁盤(Linux文件系統(tǒng))

D、主數(shù)據(jù)庫(kù)

答案:C

170.將合規(guī)管理要求全面嵌入公司數(shù)據(jù)活動(dòng),在各領(lǐng)域、各環(huán)節(jié)確定合規(guī)管理重

點(diǎn),覆蓋O,促進(jìn)公司數(shù)據(jù)活動(dòng)全面合規(guī)。

A、數(shù)據(jù)生產(chǎn)

B、數(shù)據(jù)全生命周期

C、數(shù)據(jù)存儲(chǔ)

D、數(shù)據(jù)銷毀

答案:B

171.以下哪項(xiàng)工作屬于數(shù)據(jù)應(yīng)用優(yōu)化生產(chǎn)運(yùn)行,提升電網(wǎng)質(zhì)效。

A、優(yōu)化設(shè)備運(yùn)維策略

B、優(yōu)化能源配置

C、提升電網(wǎng)防災(zāi)抗災(zāi)能力

D、優(yōu)化設(shè)備物資供應(yīng)鏈

答案:C

172.下列關(guān)于神經(jīng)網(wǎng)絡(luò)結(jié)構(gòu)的權(quán)重共享現(xiàn)象的描述正確的是()。

A、只有全連接神經(jīng)網(wǎng)絡(luò)會(huì)出現(xiàn)

B、只有卷積神經(jīng)網(wǎng)絡(luò)(CNN)會(huì)出現(xiàn)

C、只有循環(huán)神經(jīng)網(wǎng)絡(luò)(RNN)會(huì)出現(xiàn)

D、卷積神經(jīng)網(wǎng)絡(luò)和循環(huán)神經(jīng)網(wǎng)絡(luò)都會(huì)出現(xiàn)

答案:D

173.下列關(guān)于隨機(jī)森林和GBDT的書法正確的是()

A、在隨機(jī)森林的單個(gè)樹中,樹和樹之間是有依賴的,而GBDT中的單個(gè)樹之間是

沒有依賴的

B、這兩個(gè)模型都使用隨機(jī)特征子集,來生成許多單個(gè)的樹

C、我們可以并行地生成GBDT單個(gè)樹,因?yàn)樗鼈冎g是沒有依賴的

D、GBDT訓(xùn)練模型的表現(xiàn)總是比隨機(jī)森林好

答案:B

174.公司大數(shù)據(jù)應(yīng)用需求與立項(xiàng)管理遵循()管理規(guī)范,嚴(yán)格落實(shí)項(xiàng)目制管理要

求,主要包括需求征集、評(píng)審、儲(chǔ)備、立項(xiàng)和計(jì)劃編制與調(diào)整等工作。

A、大數(shù)據(jù)應(yīng)用項(xiàng)目

B、數(shù)字化項(xiàng)目

C、信息化項(xiàng)目

D、數(shù)據(jù)研發(fā)項(xiàng)目

答案:B

175.健全數(shù)據(jù)合規(guī)管理體系,落實(shí)管理職責(zé),強(qiáng)化橫向協(xié)調(diào)和縱向指導(dǎo),突出事

前防范和過程管控,加強(qiáng)違規(guī)事件應(yīng)對(duì)處置,嚴(yán)格管控()。

A、數(shù)據(jù)安全風(fēng)險(xiǎn)

B、信息安全風(fēng)險(xiǎn)

C、數(shù)據(jù)合規(guī)風(fēng)險(xiǎn)

D、數(shù)據(jù)泄露風(fēng)險(xiǎn)

答案:C

176.每?個(gè)神經(jīng)元都有輸入、處理函數(shù)和輸出。神經(jīng)元組合起來形成了網(wǎng)絡(luò),可

以擬合任何函數(shù)。為了得到最佳的神經(jīng)網(wǎng)絡(luò),我們用梯度下降方法不斷更新模型

給定上述關(guān)于神經(jīng)網(wǎng)絡(luò)的描述,什么情況下神經(jīng)網(wǎng)絡(luò)模型被稱為深度學(xué)習(xí)模型?

A、力口?更多層,使神經(jīng)網(wǎng)絡(luò)的深度增加

B、有維度更高的數(shù)據(jù)

C、當(dāng)這是一個(gè)圖形識(shí)別的問題時(shí)

D、以上都不正確

答案:A

177.ODPS-SQL進(jìn)行操作連接表的關(guān)鍵字錯(cuò)誤的是()

A、Ieft

B、right

Cxouter

D、inner

答案:C

178.下列描述中不屬于數(shù)據(jù)治理內(nèi)容的是()

A、理解自己的數(shù)據(jù)

B、行為規(guī)范的制定

C、崗位職責(zé)的定義

D、獲得更多的數(shù)據(jù)

答案:D

179.下列哪項(xiàng)關(guān)于模型能力(modelcapacity指神經(jīng)網(wǎng)絡(luò)模型能擬合復(fù)雜函數(shù)的

能力)的描述是正確的()

A、隱藏層層數(shù)增加,模型能力增加

B、Dropout的比例增加,模型能力增加

C、學(xué)習(xí)率增加,模型能力增加

D、都不正確

答案:A

180.MapReduce的Shuffle過程中哪個(gè)操作是最后做的()

A、溢寫

B、分區(qū)

C、排序

D、合并

答案:D

181.公司在我國(guó)境內(nèi)收集和產(chǎn)生的個(gè)人信息和重要數(shù)據(jù)應(yīng)當(dāng)在O存儲(chǔ)。

A、境內(nèi)

B、境外

C、私有玄

D、公共云

答案:A

182.數(shù)據(jù)需求部門向科信部確認(rèn)數(shù)據(jù)的開放權(quán)限,需要詳細(xì)說明所開放的數(shù)據(jù)名

稱、數(shù)據(jù)()、數(shù)據(jù)提供系統(tǒng)、需求部門'提供方式、數(shù)據(jù)的定義'統(tǒng)計(jì)口徑以

及共享范圍和開放權(quán)限等。

A、權(quán)限

B、范圍

C、內(nèi)容

D、類型

答案:C

183.對(duì)于一個(gè)分類任務(wù),如果開始時(shí)神經(jīng)網(wǎng)絡(luò)的權(quán)重不是隨機(jī)賦值的,而是都設(shè)

成0,下面哪個(gè)敘述是正確的?

A、神經(jīng)網(wǎng)絡(luò)不會(huì)開始訓(xùn)練,因?yàn)闆]有梯度改變

B、沒有問題,神經(jīng)網(wǎng)絡(luò)會(huì)正常開始訓(xùn)練

C、神經(jīng)網(wǎng)絡(luò)可以訓(xùn)練,但是所有的神經(jīng)元最后都會(huì)變成識(shí)別同樣的東西

D、其他選項(xiàng)都不對(duì)

答案:C

184.BP神經(jīng)網(wǎng)絡(luò)具有很的表示能力,它經(jīng)常遭遇(),其訓(xùn)練誤差持續(xù)降低,

但測(cè)試誤差卻可能上升。

A、欠擬合

B、誤差過大

C、誤差過小

D、過擬合

答案:D

185.如果訓(xùn)練一個(gè)RNN網(wǎng)絡(luò)時(shí)發(fā)現(xiàn)權(quán)重與激活值都是NaN,則導(dǎo)致這個(gè)問題最有

可能的原因是()。

A、梯度消失

B、梯度爆炸

C、ReLU

D、Sigmoid

答案:B

186.大數(shù)據(jù)應(yīng)用管理包括大數(shù)據(jù)應(yīng)用()等全生命周期管理及大數(shù)據(jù)應(yīng)用能力建

設(shè)。

A、需求立項(xiàng)、開發(fā)實(shí)施、發(fā)布應(yīng)用、經(jīng)營(yíng)管理

B、需求立項(xiàng)、開發(fā)實(shí)施、發(fā)布應(yīng)用、成果評(píng)價(jià)

C、需求立項(xiàng)、發(fā)布應(yīng)用、經(jīng)營(yíng)管理、成果評(píng)價(jià)

D、需求立項(xiàng)、開發(fā)實(shí)施、經(jīng)營(yíng)管理、成果評(píng)價(jià)

答案:B

187.下面算法屬于局部處理的是O。

A、灰度線性變換

B、二值化

C、傅里葉變換

D、中值濾波

答案:D

188.大數(shù)據(jù)應(yīng)用需求分為()需求和即時(shí)需求兩類。

A、年度

B、半年度

C、季度

D、月度

答案:A

189.假設(shè)輸入是一個(gè)300X300的彩色(RGB)圖像,而沒有使用卷積神經(jīng)網(wǎng)絡(luò)。

如果第一個(gè)隱藏層有100個(gè)神經(jīng)元,每個(gè)神經(jīng)元與輸入層進(jìn)行全連接,那么這個(gè)

隱藏層有多少個(gè)參數(shù)(包括偏置參數(shù))?

A、9,000,001

B、9,000,100

C、27,000,001

D、27,000,100

答案:D

190.考慮下面的3項(xiàng)頻繁集的集合:{1,2,3},{1,2,4},{1,2,5},{1,3,

4},{1,3,5},{2,3,4},{2,3,5},{3,4,5}假定數(shù)據(jù)集中只有5個(gè)項(xiàng),

采用合并策略,由候選產(chǎn)生過程得到4項(xiàng)集不包含()

A、1,2,3,4

B、1,2,3,5

C、1,2,4,5

D、1,3,4,5

答案:c

191.單個(gè)神經(jīng)元模型不能解決()。

A、線性二分類

B、XOR問題

C、線性二判別

D、以上都不是

答案:B

192.()負(fù)責(zé)數(shù)據(jù)合規(guī)歸口管理,負(fù)責(zé)數(shù)據(jù)合規(guī)技術(shù)審查,持續(xù)提升數(shù)據(jù)合規(guī)管

理水平。

A、互聯(lián)網(wǎng)部

B、信通公司

C、辦公室

D、安監(jiān)部

答案:A

193.下列關(guān)于算法進(jìn)化的描述錯(cuò)誤的是()o

A、算法1.0的典型算法是精度分析,是實(shí)驗(yàn)分析技術(shù)的核心

B、算法2.0的典型算法是線性回歸,是問卷領(lǐng)域數(shù)據(jù)分析的核心

C、算法3.0的典型算法是數(shù)據(jù)挖掘類方法,是數(shù)據(jù)庫(kù)領(lǐng)域的核心

D、算法4.0的典型算法是DM類算法,時(shí)超大數(shù)據(jù)分析的基礎(chǔ)

答案:A

194.《國(guó)家電網(wǎng)有限公司數(shù)據(jù)共享負(fù)面清單管理細(xì)則》自()起施行。

A、2020年3月30日

B、2021年3月30日

C、2020年6月30日

D、2021年6月30日

答案:B

195.對(duì)于依托公共服務(wù)能力平臺(tái)開發(fā)的大數(shù)據(jù)應(yīng)用,應(yīng)遵循平臺(tái)有關(guān)規(guī)范,重點(diǎn)

開展數(shù)據(jù)溯源、數(shù)據(jù)建模以及數(shù)據(jù)展示等工作,安全防護(hù)、三方測(cè)試等相關(guān)要求

統(tǒng)一納入()進(jìn)行管理,可不再單獨(dú)開展。

A、數(shù)據(jù)中臺(tái)

B、大數(shù)據(jù)應(yīng)用建設(shè)平臺(tái)

C、公共服務(wù)能力平臺(tái)

D、人工智能平臺(tái)

答案:C

196.RNN不同于其它神經(jīng)網(wǎng)絡(luò)的地方在于()o

A、實(shí)現(xiàn)了記憶功能

B、速度快

C、精度高

D、易于搭建

答案:A

197.Project被設(shè)置了“保護(hù)模式”以后,以下()說法是正確。

A、所有人都無(wú)法訪問該P(yáng)roject中的數(shù)據(jù)

B、只有管理員可以訪問該P(yáng)roject中的數(shù)據(jù)

C、用戶可以在本Project中訪問數(shù)據(jù),但是不能將數(shù)據(jù)導(dǎo)出到外部。

D、以上全部

答案:C

198.下列關(guān)于線性回歸分析中的殘差說法正確的是()。

A、殘差均值總是為零

B、殘差均值總是約等于零

C、殘差均值總是大于零

D、以上答案都不正確

答案:A

199.在一個(gè)神經(jīng)網(wǎng)絡(luò)中,知道每一個(gè)神經(jīng)元的權(quán)重和偏差是最重要的一步。如果

知道了神經(jīng)元準(zhǔn)確的權(quán)重和偏差,便可以近似任何函數(shù),但怎么獲知每個(gè)神經(jīng)的

權(quán)重和偏移呢?

A、搜索每個(gè)可能的權(quán)重和偏差組合,直到得到最佳值

B、賦予一個(gè)初始值,然后檢查跟最佳值的差值,不斷迭代調(diào)整權(quán)重

C、隨機(jī)賦值,聽天由命

D、以上都不正確的

答案:B

200.下列不是NoSQL數(shù)據(jù)庫(kù)的是。

A、MongoD

B\BigTabIe

C、HBase

D、Access

答案:D

201.大數(shù)據(jù)的4V特性中,哪一個(gè)是錯(cuò)誤的:()o

A、數(shù)據(jù)量大

B、價(jià)值密度高

C、增長(zhǎng)快

D、維度高

答案:B

202.以下不符合大數(shù)據(jù)問題處理范疇的是

A、1TB數(shù)據(jù),秒級(jí)提交結(jié)果

B、1TB數(shù)據(jù),分鐘級(jí)提交結(jié)果

C、1TB數(shù)據(jù),半小時(shí)內(nèi)提交結(jié)果

D、1TB數(shù)據(jù),一天內(nèi)提交結(jié)果

答案:D

203.關(guān)于機(jī)器學(xué)習(xí)模型訓(xùn)練步驟的說法,錯(cuò)誤的是()。

A、測(cè)試集能夠測(cè)試模型對(duì)于未知數(shù)據(jù)的擬合效果

B、驗(yàn)證集能夠用于防止模型過擬合

C、劃分?jǐn)?shù)據(jù)集時(shí)需要注意數(shù)據(jù)是否為同分布

D、模型訓(xùn)練需要準(zhǔn)備多個(gè)備選算法用于效果比較

答案:B

204.參考公司()按域進(jìn)行數(shù)據(jù)分類。

A、維度模型

B、公共數(shù)據(jù)模型(SG-CIM)

C、通用數(shù)據(jù)模型

D、業(yè)務(wù)分類

答案:B

205.{'name':'john',code':6734,dept':'sales'}這種類型數(shù)據(jù)屬于。

A、列表

B、元組

G集合

D、字典

答案:D

206.列表中可以放()個(gè)字符串

A、1

B、255

C、無(wú)限個(gè)

D、由用戶自己定義

答案:C

207.關(guān)鍵信息基礎(chǔ)設(shè)施的運(yùn)營(yíng)者采購(gòu)網(wǎng)絡(luò)產(chǎn)品和服務(wù),應(yīng)當(dāng)按照規(guī)定與提供者簽

訂(),明確安全和保密義務(wù)與責(zé)任。

A、合作協(xié)議

B、安全保密協(xié)議

C、安全補(bǔ)充條款

D、保密涵

答案:B

208.當(dāng)不知道數(shù)據(jù)所帶標(biāo)簽時(shí),可以使用哪種技術(shù)促使帶同類標(biāo)簽的數(shù)據(jù)與帶其

他標(biāo)簽的數(shù)據(jù)相分離?

A、分類

B、聚類

C、關(guān)聯(lián)分析

D、隱馬爾可夫鏈

答案:B

209.假設(shè)文件不存在,如果使用。pen方法打開文件會(huì)報(bào)錯(cuò),那么該文件的打開

方式是下列哪種模式Oo

A、r

B、w

C\a

D、b

答案:A

210.若a=np.array([5,1,2,3]),a.sort(),則數(shù)組a的結(jié)果是()o

A、[5,1,2,3];

B、[1,2,3,5];

G[3,2,1,51;

D、11;

答案:B

211.結(jié)構(gòu)化數(shù)組不能使用以下哪種數(shù)據(jù)類型創(chuàng)建()o

A、元組列表

B、字符串

C、字典

D、整數(shù)

答案:D

212.DAGScheduler的作用是什么()

A、負(fù)責(zé)分配任務(wù);

B、負(fù)責(zé)調(diào)度Worker的運(yùn)行;

C、負(fù)責(zé)創(chuàng)建執(zhí)行計(jì)劃;

D、負(fù)責(zé)清理執(zhí)行完畢的任務(wù);

答案:C

213.數(shù)據(jù)傳輸環(huán)節(jié),在互聯(lián)網(wǎng)大區(qū)傳輸重要數(shù)據(jù)時(shí)應(yīng)()。采用公司統(tǒng)一密碼基

礎(chǔ)設(shè)施簽發(fā)的密鑰或證書,實(shí)現(xiàn)企業(yè)重要數(shù)據(jù)的加密傳輸。

A、安全保密

B、適時(shí)銷毀

C、加密保護(hù)

D、內(nèi)網(wǎng)存儲(chǔ)

答案:C

214.常用的圖像特征不包括

A、顏色特征

B、形狀特征

G紋理特征

D、像素特征

答案:D

215.大數(shù)據(jù)計(jì)算服務(wù)(Maxpute,原ODPS)tunne丨命令?供了豐富的參數(shù),可以

通過參數(shù)設(shè)置,對(duì)上傳或者下載操作進(jìn)行控制,現(xiàn)在有一個(gè)大文件要上傳至。dp

s某表中,想先檢查一下該文件內(nèi)容是否和表的定義匹配,并不實(shí)際上傳,以免

文件中有錯(cuò)誤記錄會(huì)導(dǎo)致上傳出錯(cuò)??梢允褂媚膫€(gè)參數(shù)實(shí)現(xiàn)這個(gè)功能?

A、錯(cuò)誤記錄丟棄:-dbr

B、字段分隔符:一千

G掃瞄選項(xiàng):-s

D、空字符串顯示:-ni

答案:C

216.機(jī)房照明一般要求有()

A、正常照明

B、保證照明

C、事故照明

D、以上都是

答案:D

217.下列代碼:deffoo():print(starting...)whiIeTrue:res=yieId4print(re

s:,res)foo()返回的是

A、res

B、4

C、starting...

D、以上都不對(duì)

答案:D

218.構(gòu)建多維動(dòng)態(tài)客戶畫像,設(shè)計(jì)全網(wǎng)客戶標(biāo)簽體系,形成O,全面及時(shí)分析

客戶行為活動(dòng),深度提煉客戶行為特征規(guī)律,實(shí)現(xiàn)客戶行為動(dòng)態(tài)畫像。

A、客戶標(biāo)簽庫(kù)

B、客戶畫像

C、客戶行為庫(kù)

D、用戶畫像

答案:A

219.向量空間模型的缺陷不包括()。

A、維度災(zāi)難

B、模型稀疏性

C、語(yǔ)義信息缺失

D、無(wú)法計(jì)算文本相似度

答案:D

220.批規(guī)范化(BatchNormalization)的好處都有()?

A、讓每一層的輸入的范圍都大致固定

B、它將權(quán)重的歸一化平均值和標(biāo)準(zhǔn)差

C、它是一種非常有效的反向傳播(BP)方法

D、這些均不

溫馨提示

  • 1. 本站所有資源如無(wú)特殊說明,都需要本地電腦安裝OFFICE2007和PDF閱讀器。圖紙軟件為CAD,CAXA,PROE,UG,SolidWorks等.壓縮文件請(qǐng)下載最新的WinRAR軟件解壓。
  • 2. 本站的文檔不包含任何第三方提供的附件圖紙等,如果需要附件,請(qǐng)聯(lián)系上傳者。文件的所有權(quán)益歸上傳用戶所有。
  • 3. 本站RAR壓縮包中若帶圖紙,網(wǎng)頁(yè)內(nèi)容里面會(huì)有圖紙預(yù)覽,若沒有圖紙預(yù)覽就沒有圖紙。
  • 4. 未經(jīng)權(quán)益所有人同意不得將文件中的內(nèi)容挪作商業(yè)或盈利用途。
  • 5. 人人文庫(kù)網(wǎng)僅提供信息存儲(chǔ)空間,僅對(duì)用戶上傳內(nèi)容的表現(xiàn)方式做保護(hù)處理,對(duì)用戶上傳分享的文檔內(nèi)容本身不做任何修改或編輯,并不能對(duì)任何下載內(nèi)容負(fù)責(zé)。
  • 6. 下載文件中如有侵權(quán)或不適當(dāng)內(nèi)容,請(qǐng)與我們聯(lián)系,我們立即糾正。
  • 7. 本站不保證下載資源的準(zhǔn)確性、安全性和完整性, 同時(shí)也不承擔(dān)用戶因使用這些下載資源對(duì)自己和他人造成任何形式的傷害或損失。

最新文檔

評(píng)論

0/150

提交評(píng)論