大數(shù)據(jù)競賽理論試題題庫及答案_第1頁
大數(shù)據(jù)競賽理論試題題庫及答案_第2頁
大數(shù)據(jù)競賽理論試題題庫及答案_第3頁
大數(shù)據(jù)競賽理論試題題庫及答案_第4頁
大數(shù)據(jù)競賽理論試題題庫及答案_第5頁
已閱讀5頁,還剩83頁未讀, 繼續(xù)免費(fèi)閱讀

下載本文檔

版權(quán)說明:本文檔由用戶提供并上傳,收益歸屬內(nèi)容提供方,若內(nèi)容存在侵權(quán),請進(jìn)行舉報(bào)或認(rèn)領(lǐng)

文檔簡介

大數(shù)據(jù)競賽理論試題題庫

一、選擇題

1.scipy.stats中,()表示二項(xiàng)分布。[單選題]*

A.gamma

B.binomV

C.uniform

C.rayleigh

2.下列關(guān)于PCA的說法中:①我們須在使用PCA前標(biāo)準(zhǔn)化數(shù)據(jù);②我們應(yīng)該選擇使得模型有最大

variance的主成分;③我們應(yīng)該選擇使得模型有最小variance的主成分;④我們可以使用PCA在低維度上

做數(shù)據(jù)可視化。正確的是()。[單選題]上

C.??

D.①③

3.下列描述中不屬于數(shù)據(jù)預(yù)處理方法的是()。[單選題]*

A.數(shù)據(jù)清洗:去噪聲和無關(guān)數(shù)據(jù)

B.數(shù)據(jù)集成:將多個(gè)數(shù)據(jù)源中的數(shù)據(jù)結(jié)合起來存在一個(gè)一致的數(shù)據(jù)存儲中

C.數(shù)據(jù)變換.把原始數(shù)據(jù)轉(zhuǎn)換成為適合數(shù)據(jù)挖掘的形式

。.數(shù)據(jù)轉(zhuǎn)化:把連續(xù)數(shù)據(jù)轉(zhuǎn)換為離散數(shù)據(jù)。

4.Scikit-Leam中,()可以實(shí)現(xiàn)整數(shù)分類值轉(zhuǎn)化為獨(dú)熱向量。[單選題]*

A.OridinalEncoder

B.OneHotEncoderV

C.LableEncoder

D.AutoEncoder

5.矩陣相減使用的函數(shù)是()[單選題]*

A.np.add()

B.np.subtract()V

C.np.multiply()

D.np.divide()

6.下列分割方法中不屬于區(qū)域算法的是()。[單選題]*

A分裂合并

B.閾值分割

C.區(qū)域生長

。?邊緣檢測V

7.語句np.random.randn(5,4)的運(yùn)算結(jié)果是()。[單選題]*

A.生成一個(gè)5行4列的隨機(jī)矩陣V

B.將矩陣的第5行第4列改成一個(gè)隨機(jī)值

C.將矩陣的第4行第了列改成一個(gè)隨機(jī)值

。.將矩陣的第5列和第4列都用隨機(jī)值代替

8.MapReduce里面的query、sort和limit等都是針對()的操作。[單選題*

Amap()之前V

B.reduce()之前

C.reduce()之后

D.finalize()之后

9.()模塊提供了用于加載和獲取流行的參考數(shù)據(jù)集的方法。[單選題]*

A.sklearn.data

B.sklearn.datasetsV

C.sklearn.datas

C.sklearn.datafetch

1)下列關(guān)于圖像的平滑處理的說法錯誤的是()。[單選題]*

A圖像的平滑處理是指在盡量保留原有信息的情況下,過濾掉圖像內(nèi)部的噪聲

B.圖像平滑處理會對圖像中與周圍像素點(diǎn)的像素值差異較大的像素點(diǎn)進(jìn)行處理,將其值調(diào)整為周圍像

素點(diǎn)像素值的近似值

C.經(jīng)過平滑處理后圖像質(zhì)量會下降4

C,以上都對

11.在神經(jīng)網(wǎng)絡(luò)中引入了非線性的是()。[單選題]*

A隨機(jī)梯度下降

B.修正線性單元(ReLU)V

C.卷積函數(shù)

D.以上答案都不正確

12大數(shù)據(jù)計(jì)算服務(wù)提供了大數(shù)據(jù)的存儲和計(jì)算服務(wù),非常適合應(yīng)用于大數(shù)據(jù)分析的領(lǐng)域。以下說法中

錯誤的是()o[單選題]*

A.可以實(shí)現(xiàn)大型互聯(lián)網(wǎng)企業(yè)的數(shù)據(jù)倉庫和BI分析

B.提供了便捷的分析處理海量數(shù)據(jù)的手段,用戶可以不必關(guān)心分布式計(jì)算細(xì)節(jié),從而達(dá)到分析大數(shù)據(jù)

的目的

C可以支持實(shí)時(shí)OLAP分析V

。.可以基于歷史數(shù)據(jù),進(jìn)行用戶特征和興趣挖掘

13.plt.show()函數(shù)的作用是()o[單選題]*

A.展示圖像,

B,畫直方圖

C.保存圖像

D.畫散點(diǎn)圖

14.()采用概率模型來表達(dá)聚類原型。[單選題]*

A.嘗試為不同的質(zhì)心(centroid)初始化運(yùn)行算法

B.調(diào)整迭代的次數(shù)

C.找到集群的最佳數(shù)量

。.以上答案都正確V

15.相對于HadoopMapReduce1.0,Spark的特點(diǎn)不包括()o[單選題]*

A速度快

B.并發(fā)多V

C通用性

C,易用性

16.下列算法中:①KNN;②線性回歸;③對數(shù)幾率回歸。可以用神經(jīng)網(wǎng)絡(luò)去構(gòu)造的([單選題]*

A.?2)

B.(2X3)V

C①@@

。.以上答案都不正確

17.最早被提出的循環(huán)神經(jīng)網(wǎng)絡(luò)門控算法是()。[單選題]*

A.長短期記憶網(wǎng)絡(luò)V

B.門控循環(huán)單元網(wǎng)絡(luò)

C.堆疊循環(huán)神經(jīng)網(wǎng)絡(luò)

D.雙向循環(huán)神經(jīng)網(wǎng)絡(luò)

1B.下列方法不能成功創(chuàng)建一個(gè)Numpy數(shù)組的是()[單選題]*

A.a=np.array([1,2,3,4])

B.b=np.zeros(3,4)

C.c=np.ones(1,2,3,4)V

D.d=np.arange(10,30,5)

19.語音識別的應(yīng)用場景包括()0[單選題]*

A.語音轉(zhuǎn)文本

B.語音合成

C.人機(jī)交互

。.以上都對V

29.Matplotlib中的axvspan()函數(shù)作用是()。[單選題]*

A.在X軸標(biāo)示不同圖形的文本標(biāo)簽圖例

B.繪制垂直于x的參考區(qū)域,

C.添加x軸內(nèi)容細(xì)節(jié)的指向性注釋文本

C.添加x軸標(biāo)題

21.在Linux下預(yù)裝了Python2、Python3且默認(rèn)Python版本為Python3,則下列描述可以正確啟動Python

的是()。[單選題]*

A在Linux應(yīng)用程序Terminal,打開一個(gè)終端窗口輸入whichPython

B.在Linux應(yīng)用程序Terminal,打開一個(gè)終端窗口,輸入Python2或Python3V

C.在Linux應(yīng)用程序Terminal,打開一個(gè)終端窗口,輸入whichPython3

D.在Linux應(yīng)用程序Terminal,打開一個(gè)終端窗口,輸入whichPython2

22.如果線性回歸模型中的隨機(jī)誤差存在異方差性,那么參數(shù)的。LS估計(jì)量是()□[單選題]*

A無偏的、有效的

B.無偏的、非有效的V

C.有偏的、有效的

。.有偏的、非有效的

23.一篇文章中某些名詞的TF-IDF值比較大,則說明()。[單選題]*

A這些名詞對這篇文章的區(qū)分度比較高V

B.這些名詞對這篇文章的區(qū)分度比較低

C.不能說明什么

D.以上都不對

24.HTML的表格中,如果需要定義表格的單元格內(nèi)文字和邊緣的空間,需要通過(來實(shí)現(xiàn)。[單選題]*

A.cellspacing屬性

B.colspan屬性

C.cellpadding屬性V

C.rowspan屬性

25.Scipy中模塊signal的作用是()。[單選題]*

A.信號處理V

B.程序輸入輸出

C.程序輸入輸出

。.計(jì)算積分

26.關(guān)系云的一個(gè)重要功能是提供()。[單選題]*

A.數(shù)據(jù)庫即服務(wù)V

B.虛擬服務(wù)

C.彈性計(jì)算

口?按需服務(wù)

27.下列關(guān)于可視化方法體系的說法不正確的是()0[單選題]*

A通常采用視覺圖形元素和視覺通道兩個(gè)維度進(jìn)行視覺編碼

B.常用的共性方法有統(tǒng)計(jì)圖表、圖論方法、視覺隱喻和圖形符號學(xué)等

C領(lǐng)域方法在所屬領(lǐng)域內(nèi)其可視化的信度和效果往往低于基礎(chǔ)方法的直接應(yīng)用V

。.視覺編碼為其他數(shù)據(jù)可視化方法提供了方法學(xué)基礎(chǔ)

28.如果建立一個(gè)5000個(gè)特征、100萬個(gè)數(shù)據(jù)的機(jī)器學(xué)習(xí)模型,則有效地應(yīng)對這樣的大數(shù)據(jù)訓(xùn)練的方法

是()。[單選題]*

A隨機(jī)抽取一些樣本.在這些少量樣本之上訓(xùn)練

B.可以試用在線機(jī)器學(xué)習(xí)算法

C.應(yīng)用PCA算法降維.減少特征數(shù)

二以上答案都正確V

29.()是一種著名的密度聚類算法,它基于一組鄰域參數(shù)來刻畫樣本的緊密程度。[單選題]*

A.DBSCANV

B.原型聚類

C.密度聚類

。.層次聚類

33.下列方法中屬于映射數(shù)據(jù)到新的空間的是()0[單選題]*

A傅里葉變換。

B.特征加權(quán)

C.漸進(jìn)抽樣

。?維歸約

31.決策樹的基本流程遵循()的策略。[單選題]*

A貪心

B.最優(yōu)化

C分而治之V

C.順序

32.下列關(guān)于SecondaryNameNode的說法正確的是()。[單選題]*

A.它是NameNode的熱備

B.它對內(nèi)存沒有要求

C.它的目的是幫助NameNode合并編輯日志,減少NameNode的負(fù)擔(dān)和冷啟動時(shí)的加載時(shí)間V

0.SecondaryNameNode應(yīng)與NameNode部署到一個(gè)節(jié)點(diǎn)

33.由于不同類別的關(guān)鍵詞對排序的貢獻(xiàn)不同,檢索算法一般把查詢關(guān)鍵詞分為幾類,下列不屬于此關(guān)鍵

詞類型的是()[單選題]*

A引用詞

B.普通關(guān)鍵詞

C.高頻詞匯V

。.擴(kuò)展關(guān)鍵詞

34.下列關(guān)于函數(shù)的參數(shù)的描述錯誤的是()。[單選題]*

A.可選參數(shù)可以定義在非可選參數(shù)的前面V

B.一個(gè)元組可以傳遞給帶有星號的可變參數(shù)

C.在定義函數(shù)時(shí),可以設(shè)計(jì)可變數(shù)量參數(shù),通過在參數(shù)前增加星號(*)實(shí)現(xiàn)

。.在定義函數(shù)時(shí),如果有些參數(shù)存在默認(rèn)值,可以在定義函數(shù)時(shí)直接為這些參數(shù)指定默認(rèn)值

35.假設(shè)你需要調(diào)整參數(shù)來最小化代價(jià)函數(shù)(c。stfimction),會使用()技術(shù)。[單選題卜

A.窮舉搜索

B.隨機(jī)搜索

C.Bayesian優(yōu)化

。.以上全是。

36.下列敘述正確的是()。[單選題]*

A.continue語句的作用是結(jié)束整個(gè)循環(huán)的執(zhí)行

B.只能在循環(huán)體內(nèi)使用break語句V

C.在循環(huán)體內(nèi)使用break語句或contnue語句的作用相同

D.從多層循環(huán)嵌套中退出時(shí),只能使用goto語句

37.Python代碼中mpI.rcParamsCfont.sans-serif]=「SimHei]的作用是()o[單選題]*

A設(shè)置圖表中文顯示的字體V

B.設(shè)置圖表圖例的位置

C.設(shè)置圖表標(biāo)題的顏色

。.設(shè)置圖表標(biāo)題的位置

38.訓(xùn)練一個(gè)RNN網(wǎng)絡(luò),如果權(quán)重與激活值都是NaN,下列選項(xiàng)中,哪一個(gè)是導(dǎo)致這個(gè)問題的最有可

能的原因()。[單選題]*

A梯度消失

B.梯度爆炸V

CReLU函數(shù)作為激活函數(shù)g(.),在計(jì)算g(z)時(shí),z的數(shù)值過大了

口Sigmoid函數(shù)作為激活函數(shù)g(.),在計(jì)算g(z)時(shí),z的數(shù)值過大了

39.大數(shù)據(jù)參考架構(gòu)的水平軸和垂直軸分別為()。[單選題]*

A信息(活動)價(jià)值鏈和信息技術(shù)價(jià)值鏈V

B.信息技術(shù)價(jià)值鏈和信息(活動)價(jià)值鏈

C.信息交互價(jià)值鏈和信息技術(shù)價(jià)值鏈

D.信息(活動)價(jià)值鏈和信息交互價(jià)值鏈

43.可用作數(shù)據(jù)挖掘分析中的關(guān)聯(lián)規(guī)則算法有()。f單選題]*

A.機(jī)器學(xué)習(xí)、對數(shù)回歸、關(guān)聯(lián)模式

B.K均值法、SOM機(jī)器學(xué)習(xí)

C.Apriori算法、FP-Tree算法V

D.RBF機(jī)器學(xué)習(xí)、K均值法、機(jī)器學(xué)習(xí)

41.運(yùn)行下面程序,a、b、c、d四個(gè)變量的值錯誤的是()oimportcopya=[l,2,3,4,['a',

'b']]b=ac=copy.copy(a)d=copy.deepcopy(a)a.append(5)a[4]append('c')[單選題]*

Aa==[l,2,3,4,['a','b':c']t5]

B.b==[l,2,3,4,['a'/b'.'c'],5]

C.c==[l,2,3,4I['a';b','c']]

D.d==[l,2,3,A.fa'.'b',<c']]V

42.如果一個(gè)SVM模型出現(xiàn)欠擬合,那么()能解決這一問題。[單選題]*

A增大懲罰參數(shù)CV

B.減小懲罰參數(shù)C

C.減小核系數(shù)(gamma參數(shù))

D.增大核系數(shù)(gamma參數(shù))

43.下列可以應(yīng)用關(guān)鍵詞提取的是()。[單選題]*

A.文獻(xiàn)檢索

B.自動文摘

C.文本聚類/分類

。.以上都對V

44.在MapReduce中,為了發(fā)現(xiàn)Worker故障,Master周期性進(jìn)行的操作是()。[單選題]*

A.Join

B.PingV

C.Check

C.Connect

45.下列不屬于Python內(nèi)置模塊的是()[單選題]*

A.sys

B.json

C.os

D.imageV

46.通常來說,()能夠用來預(yù)測連續(xù)因變量。[單選題卜

A線性回歸V

B.邏輯回歸

C線性回歸和邏輯回歸

。.以上答案都不正確

47.下列不屬于數(shù)據(jù)科學(xué)項(xiàng)目主要角色的是()。[單選題]*

A項(xiàng)目發(fā)起人

B.項(xiàng)目經(jīng)理

C.操作員

。.驗(yàn)收人員V

48.如果訓(xùn)練一個(gè)RNN網(wǎng)絡(luò)時(shí)發(fā)現(xiàn)權(quán)重與激活值都是NaN,則導(dǎo)致這個(gè)問題最有可能的原因是()o[單

選題]*

A梯度消失

B.梯度爆炸V

CReLU函數(shù)作為激活函數(shù)g(),在十算g(z)時(shí),z的數(shù)值過大了

□Sigmoid函數(shù)作為激活函數(shù)g(),在計(jì)算g(z)時(shí),z的數(shù)值過大了

49.運(yùn)行下面代碼的輸出結(jié)果為()oimportnumpyasnpx=np.array([3,1,2])y=np.argsort(x)

print(y)[單選題]*

A.[312]

B.[I2O]V

C.[12司

C.123

53.運(yùn)行下面代碼,則下列描述錯誤的是()。importtimeprint(time.time)[單選題]*

A.time庫是Python的標(biāo)準(zhǔn)庫

B.可使用time.ctime(),顯示為更可讀的形式

Ctime.sleep(5)推遲調(diào)用線程的運(yùn)行,單位為毫秒V

C.輸出自1970年1月1日00:00:00AM以來的秒數(shù)

51.在Numpy中,數(shù)組拼接的函數(shù)不包括()[單選題]*

A.append()

B.insert()

C.vstack()

D.where()7

52.下列關(guān)于_new_和_init_區(qū)別的說法不正確的是()。[單選題]*

A_new_是一個(gè)實(shí)例方法,而_init_是一個(gè)靜態(tài)方法V

B._new_方法會返回一個(gè)創(chuàng)建的實(shí)例,而_init_什么都不返回

C.只有在_new_返回一個(gè)cis的實(shí)例時(shí),后面的_init_才能被調(diào)用

D.當(dāng)創(chuàng)建一個(gè)新實(shí)例時(shí)調(diào)用一new-初始化一個(gè)實(shí)例時(shí)用_init_

53.下列情景中不屬于數(shù)據(jù)故事化的是()。[單選題]*

A.還原情景

B.統(tǒng)計(jì)情景V

C.移植情景

。.虛構(gòu)情景

54.對模型進(jìn)行超參數(shù)優(yōu)化,詳盡搜索指定參數(shù)的估計(jì)值使用()函數(shù)c[單選題]*

A.ParameterGrid()

B.ParameterSampler()

C.GridSearchCV()V

D.RandomizedSearchCV()

55.圖像中虛假輪廓的出現(xiàn)就其本質(zhì)而言是()。[單選題卜

A圖像的灰度級數(shù)不夠多而造成的V

B.圖像的空間分辨率不夠高而造成的

C.圖像的灰度級數(shù)過多而造成的

。.圖像的空間分辨率過高而造成的

56.下列語句中不能創(chuàng)建一個(gè)字典的是()[單選題]*

A.dictl=0

B.dict2={3:5)

C.dict3={[1,2,3]:"uestc"}V

D.dict4={(1,2,3):"uestc"}

57.np.setdiffld(Ndarray1,Ndarray2)函數(shù)的作用是()。[單選題*

A返回二者的交集并排序

B.返回二者的并集并排序

C.返回二者的差集v

C.返回二者的對稱差

58.集群的最主要“瓶頸”通常是()。[單選題]*

A.CPU

B.網(wǎng)絡(luò)

C.磁盤I/OV

D.內(nèi)存

59.FusionlnsightHD中Loader從SFFP服務(wù)器導(dǎo)入文件時(shí),不需要做編碼轉(zhuǎn)換和數(shù)據(jù)轉(zhuǎn)換且速度最快

的文件類型是:()。[單選題]*

A.graph-file

B.binary-fileV

C.text-file

D.sequence-file

63.著名的C4.5決策樹算法使用()來選擇最優(yōu)劃分屬性。[單選題]*

A信息增益

B.增益率V

C.基尼指數(shù)

。.均值

61.下列關(guān)于RNN的說法正確的是()。[單選題]*

ARNN可以應(yīng)用在NLP領(lǐng)域

B.LSTM是RNN的一個(gè)變種

C.在RNN中一個(gè)序列當(dāng)前的輸出與前面的輸出也有關(guān)

。.以上答案都正確V

62.有研究發(fā)現(xiàn)“頁面的顯示速度每延遲Is,網(wǎng)站訪問量就會降低11%,從而導(dǎo)致營業(yè)額或者注冊量減

少7%,顧客滿意度下降16就。該項(xiàng)研究表明了在數(shù)據(jù)產(chǎn)品開發(fā)中更加重要的是()。[單選題]*

A查全率

B.用戶體驗(yàn)V

C.數(shù)據(jù)可視化

D.查準(zhǔn)率

63冽表對象的sort()函數(shù)用來對列表元素進(jìn)行原地排序,該函數(shù)返回值為()。f單選題卜

A.False

B.NoneV

C.True

口報(bào)錯

64.()算法是分類算法。[單選題]*

A.DBSCAN

B.C4.5V

C.K-means

D.EM

65.下列關(guān)于Python單下劃線_foo與雙下劃線_foo與_foo_的說法錯誤的是()[單選題]*

A._foo不能直接用于'frommoduleiITport,

B._foo解析器用_classname_too來代替這個(gè)名字,以區(qū)別和其他類相同的命名

(:/。0_代表python里特殊方法專月的標(biāo)識

D._foo可以直接用于‘frommoduleimport'V

66.下列關(guān)于連接數(shù)組的描述不正確的是()。[單選題]*

A.concatenate()連接沿現(xiàn)有軸的數(shù)組序列

B.stack()沿著新的軸加入一系列數(shù)組

C.vstack()水平堆疊序列中的數(shù)組(列方向)

C.hstack()3D堆疊序列中的數(shù)組(行方向)V

67.Matplotlib中的legend()函數(shù)的作用是()。[單選題]*

A設(shè)置標(biāo)簽文本

B.繪制網(wǎng)格線

C.標(biāo)示不同圖形的文本標(biāo)簽圖例。

D.設(shè)置x軸的數(shù)值顯示范圍

68.一幅數(shù)字圖像是()。[單選題]*

A一個(gè)觀測系統(tǒng)

B.一個(gè)由許多像素排列而成的實(shí)體

C.一個(gè)2D數(shù)組中的元素V

C.一個(gè)3D空間中的場景

69.診斷性分析主要采取的分析方法是()。[單選題]*

A關(guān)聯(lián)分析法和因果分析法。

B.關(guān)聯(lián)分析法和分類分析法

C關(guān)聯(lián)分析法和運(yùn)籌學(xué)

。.因果分析法和分類分析法

7O.Spark的集群管理模式不包含([單選題卜

A.Standalone模式

B.Message模式。

C.YARN模式

D.Mesos模式

71.open()函數(shù)中,參數(shù)'wb'的含義是()[單選題]*

A創(chuàng)建并二進(jìn)制只讀

B.創(chuàng)建并只寫方式

C.創(chuàng)建并二進(jìn)制寫入V

。.創(chuàng)建并追加方式

72.()是指為最小化總體風(fēng)險(xiǎn),只需在每個(gè)樣本上選擇能使特定條件風(fēng)險(xiǎn)最小的類別標(biāo)記。[單選題]

A支持向量機(jī)

B.間隔最大化

C.線性分類器

。?貝葉斯判定準(zhǔn)則V

73.下列不屬于循環(huán)神經(jīng)網(wǎng)絡(luò)的輸出模式是()。[單選題]*

A單輸出

B.多輸出

C.同步多輸出V

。.異步多輸出

74.選擇哪一個(gè)解作為輸出,將由學(xué)習(xí)算法的歸納偏好決定,常見的做法是引入()。[單選題]*

A線性回歸

B.線性判別分析

C正則化項(xiàng)V

C.偏置項(xiàng)

75.Numpy中使用不同類型的數(shù)組進(jìn)行操作時(shí),結(jié)果數(shù)組的類型會進(jìn)行()[單選題]*

A.向下轉(zhuǎn)換

B.向上轉(zhuǎn)換V

C.不進(jìn)行轉(zhuǎn)換

D.無法計(jì)算

76.在多元線性回歸模型中,若某個(gè)解釋變量對其余解釋變量的判定系數(shù)接近于L則表明模型中存在

()。[單選題]*

A.異方差

B.序列相關(guān)

C.多重共線性V

[:?高擬合優(yōu)度

77.在一個(gè)簡單的線性回歸模型中(只有一個(gè)變量),如果將輸入變量改變一個(gè)單位(增加或減少),那

么輸出將改變()。[單選題]*

A.—個(gè)單位

B.不變

C.截距

C.回歸模型的尺度因子,

7B.Scipy中模塊i。的作用是()0[單選題]*

A.差值計(jì)算

B.程序輸入輸出V

C.稀缺矩陣

。優(yōu)化

79.()會發(fā)生權(quán)重共享。[單選題]*

A卷積神經(jīng)網(wǎng)絡(luò)

B.循環(huán)神經(jīng)網(wǎng)絡(luò)

C.全連接神經(jīng)網(wǎng)絡(luò)

D.A、BV

83.()不是Scipy庫中的模塊0[單選題]*

A.cluster

B.randomV

C.signal

D.misc

81.卷積的過程是讓過濾器在圖像上進(jìn)行()。[單選題]*

A縮放

B.剪切

C.窗口滑動V

。.鏡像對稱

82一元線性回歸方程戶0.7+0.82X,判定系數(shù)等于0.64廁尤與V的相關(guān)系數(shù)為().[單選題]*

A.0.82

B.0.64

C.0.8V

C.0.7

83.下列關(guān)于等距離散化和等頻離散化的敘述不正確的是()。[單選題]*

A等距離散化是將連續(xù)型特征的取值X間均勻地劃分成多個(gè)區(qū)間段

B.等距離散化對數(shù)據(jù)離群值不敏感V

C等頻離散化考慮了區(qū)間段中的樣本個(gè)數(shù),使每個(gè)區(qū)間段的樣本數(shù)相同

C.等頻離散化會將相似的樣本劃分到不同的區(qū)間

84.運(yùn)行下面代碼的輸出結(jié)果為()arr=np.array([1,5,3])arrl=np.array([2,4,6])print(arr

<arrl)[單選題]*

A.TRUE

B.FALSE

C.[Ture,False,Ture]V

C.([Ture,Ture,Ture])

85.下列不屬于模型集成方法的是([單選題]*

A.直接集成法

B.增強(qiáng)法

C.堆疊法

。.遞歸法V

86.如果要清空文件,需要使用的命令是()。[單選題]*

A.close()

B.seek(0)

C.truncate(0)7

D.write('stuff')

87.大數(shù)據(jù)應(yīng)用需依托的新技術(shù)有()。[單選題]*

A大規(guī)模并行處理

B.數(shù)據(jù)分析處理

C.智能化

。.三個(gè)選項(xiàng)都是,

8B.運(yùn)行下面代碼的輸出結(jié)果為()0importnumpyasnpa=np.arange(4)b=a[:]a[l]=9print(a)

print(b)[單選題]*

A.[0,1,2,3][0,1,2,3]

B.[l,9.3,4][1,2,3,4]

C.[0,9,2,3][0,9,2,3]V

C.[0,9,2,3][0,1,2,3]

89.下列關(guān)于欠擬合(under-fitting)的說法正確的是()。[單選題]*

A訓(xùn)練誤差較大.測試誤差較小

B.訓(xùn)練誤差較小.測試誤差較大

C.訓(xùn)練誤差較大.測試誤差較大V

。?訓(xùn)練誤差較小.測試誤差較小

93.對air二叩.arange(9).reshape(3,3),反轉(zhuǎn)二維數(shù)組air的行進(jìn)行的操作是()o[單選題]*

A.arr[::-1]V

B.arr[::-2]

C.arr[::1]

D.arr[::0]

91.Adaboost的核心思想是()。[單選題]*

A給定一個(gè)弱學(xué)習(xí)算法和一個(gè)訓(xùn)練集將該學(xué)習(xí)算法使用多次得出預(yù)測函數(shù)序列.進(jìn)行投票

B.針對同一個(gè)訓(xùn)練集訓(xùn)練不同的弱分類器并集合起來.構(gòu)成一個(gè)強(qiáng)分類器V

C.利用多棵樹對樣本進(jìn)行訓(xùn)練并預(yù)測的一種分類器

口基于前向策略的加法模型.每階段使用一個(gè)基模型去擬合上一階段基模型的殘差

92.下列不屬于特征選擇的標(biāo)準(zhǔn)方法的是()。f單選題]*

A嵌入

B.過濾

C.包裹

。.抽樣V

93.與HMM和MEMM模型相比,CRF模型的優(yōu)勢不包含()。[單選題*

A.特征靈活

B.速度快V

C.可容納較多上下文信息

。.全局最優(yōu)

94.后剪枝是先從訓(xùn)練集生成一顆完整的決策樹,然后()對非葉結(jié)點(diǎn)進(jìn)行考察。[單選題]*

A.自上而下

B.在劃分前

C.禁止分支展開

。.自底向上V

95.下列人工神經(jīng)網(wǎng)絡(luò)屬于反饋網(wǎng)絡(luò)的是()。[單選題]*

AHopfield神經(jīng)網(wǎng)格模型

B.BP網(wǎng)絡(luò)V

C.多層感知器

C.LVQ網(wǎng)絡(luò)

96以P(w)表示詞條w的概率,假設(shè)已知P(南京)=0.8,F(市長)=0.6,F(江大橋)=0.4;尸

(南京巾)=0.3,獨(dú)立的,那么分詞結(jié)果就是()。[單選題]*

A南京市*長江*大橋

B..南京*市長*江大橋V

C.南京市長*江大橋

97.下列關(guān)于。LAP的特性的描述:①快速性;②可分析性;③多維性;④信息性;⑤共享性。正確的是

()0[單選題]*

A.3X2X3)

B.②③?

c.?2X3)@

D.?2)3)3)@V

9B.常用的數(shù)據(jù)歸約方法可以分為(),[單選題]*

A.維歸約、數(shù)據(jù)壓縮

B.維歸約、參數(shù)歸約

C.維歸約、值歸約V

D.數(shù)據(jù)壓縮、值歸約

99.下列處理方法能獲得像素級標(biāo)注的是()。[單選題]*

A圖像分類

B.物體檢測

C.圖像去噪

。.語義分割V

100.在抽樣估計(jì)中,隨著樣本容量的增大,樣本統(tǒng)計(jì)量接近總體參數(shù)的概率就越大,這一性質(zhì)稱為()。

[單選題]*

A無偏性

B.有效性

C.及時(shí)性

D.一致性V

101.scipy.stats.fit()函數(shù)的作用是()<>[單選題]*

A.隨機(jī)變量的生存函數(shù)

B.對數(shù)據(jù)進(jìn)行擬合,找出最適合采樣數(shù)據(jù)的概率密度函數(shù)系數(shù)V

C.計(jì)算隨機(jī)變量的期望和方差

C.隨機(jī)變量的概率密度函數(shù)

102.ResNet-50有多少個(gè)卷積層()。[單選題]*

A.48

B.49V

C.50

C.51

133.下列關(guān)于文件的打開方式的描述正確的是()[單選題]*

A文件只能選擇二進(jìn)制或文本方式打開

B.文本文件只能以文本方式打開

C.所有文件都可能以文本方式打開

。.所有文件都可能以二進(jìn)制方式打開v

.長短時(shí)記憶網(wǎng)絡(luò)屬于一種(jo[單選題]*

A全連接神經(jīng)網(wǎng)絡(luò)

B.門控RNNV

C.BP神經(jīng)網(wǎng)絡(luò)

D.雙向RNN

135.下列函數(shù)中可以計(jì)算字典元素個(gè)數(shù)的是()。[單選題]*

A.cmp()

B.len()V

C.str()

C.type()

136.考察一個(gè)由三個(gè)卷積層組成的CNN:kemel=3x3,stride=21padding=SAMEo最低層輸出100個(gè)特

征映射(featuremap),中間層200個(gè)特征映射,最高層400個(gè)特征映射°輸入是200x300的RGB圖片,則

總參數(shù)的數(shù)量是()。[單選題]*

A.903400V

B.2800

C.180200

C.720400

107.異常檢測過程查找基于()組標(biāo)準(zhǔn)值偏差的異常個(gè)案。[單選題]*

A單體

B,分類

C聚類V

D.回歸

138.下列關(guān)于縮進(jìn)格式的描述不正確的是()[單選題]*

A.縮進(jìn)指在代碼行前面添加空格或Tcb

B.在Python程序中,縮進(jìn)不是任意的

C.縮進(jìn)可以使程序更有層次感、結(jié)構(gòu)感,從而使程序更易讀

。.平級的語句行(代碼塊)的縮進(jìn)可以不相同V

109.Scipy中模塊stats的作用是()。[單選題]*

A.統(tǒng)計(jì)V

B.差值計(jì)算

C.程序輸入輸出

。.稀疏矩陣

110.LSTM網(wǎng)絡(luò)引入門控機(jī)制來控制信息傳遞的路徑,其中輸入門的作用是()o[單選題]*

A控制上一個(gè)時(shí)刻的內(nèi)部狀態(tài)需要遺忘多少信息

B.控制上一個(gè)時(shí)刻的內(nèi)部狀態(tài)有多少信息需要保存

C.控制當(dāng)前當(dāng)刻的候選狀態(tài)有多少信息需要保存V

。.控制當(dāng)前當(dāng)刻的內(nèi)部狀態(tài)有多少信息需要輸出給外部狀態(tài)

111.下列關(guān)于支持向量的說法正確的是()。[單選題]*

A到分類超平面的距離最近的且滿足一定條件的幾個(gè)訓(xùn)練樣本點(diǎn)是支持向量V

B.訓(xùn)練集中的所有樣本點(diǎn)都是支持向量

C.每一類樣本集中都分別只有一個(gè)支持向量

D.支持向量的個(gè)數(shù)越多越好

112.運(yùn)行下面代碼,輸出結(jié)果是()。d={-2,-1,0,1,2.3}n=d.pop?)print(n)[單選題]*

A.-2

B.2

C.不確定V

D.3

113.執(zhí)行下列代碼后,Iist2的值是()e[單選題]*

A.[4,5,6]

B.[4,3,6]

C.[4,5,3]V

D.以上答案都不正確

114.Spark的()組件用于支持實(shí)時(shí)計(jì)算需求。[單選題]*

A.SparkSQL

B.SparkStreamingV

C.SparkGraphX

C.SparkMLLib

ns執(zhí)行一個(gè)job,如果這個(gè)job的輸巴路徑已經(jīng)存在,那么程序會()0[單選題]*

A覆蓋這個(gè)輸出路徑

B.拋出警告,但是能夠繼續(xù)執(zhí)行

C.拋出一個(gè)異常,然后退出V

。.創(chuàng)建一個(gè)新的輸出路徑

116.下列關(guān)于數(shù)據(jù)整合和分組的說法不正確的是()。[單選題]*

A.數(shù)據(jù)連接可以用concat或merge函數(shù)

B.axis=l表示軸向連接

C.數(shù)據(jù)分組可以使用mean函數(shù)V

。.使用agg可以自定義多個(gè)聚合函數(shù)

117.如果使用數(shù)據(jù)集的全部特征并且準(zhǔn)確率能夠達(dá)到100%,但在測試集上準(zhǔn)確率僅能達(dá)到70%左右,這

說明()。[單選題]*

A欠擬合

B.模型很棒

C過擬合V

D.以上答案都不正確

118.pit.scatter()函數(shù)中的參數(shù)c表示的含義是()。[單選題]*

Ax軸上的數(shù)值

B.y軸上的數(shù)值

C.散點(diǎn)圖中的標(biāo)記顏色V

。.標(biāo)記圖形內(nèi)容的標(biāo)簽文件

119.在Python中,下列不是int整型數(shù)據(jù)的是()。[單選題卜

A160

B.010V

C.-78

D.0x234

120.下列關(guān)于Python包的說法正確的是()[單選題]*

A.利用pip包管理器更新已安裝包的代碼是pipupdate包名

B.單獨(dú)導(dǎo)入包名即可導(dǎo)入包中所包含的所有子模塊

C.下載安裝、更新、查看、移除包等行為可以在命令行中進(jìn)行,但不可以在Jupyternotebook中進(jìn)行

D.下載安裝、更新、查看、移除包等行為既可以用pip工具,也可以用8nda工具V

121.下列關(guān)于文本分類的說法不正確的是()?!竼芜x題卜

A.文本分類是指按照預(yù)先定義的主題類別,由計(jì)算機(jī)自動地為文檔集合中的每個(gè)文檔確定一個(gè)類別

B.文木分類大致可分為基于知識工程的分類系統(tǒng)和基于機(jī)器學(xué)習(xí)的分類系統(tǒng)

C文本的向量形式一般基于詞袋模型構(gòu)建,該模型考慮了文本詞語的行文順序。

。.構(gòu)建文本的向量形式可以歸結(jié)為文本的特征選擇與特征權(quán)重計(jì)算兩個(gè)步驟

122.運(yùn)行代碼,輸出結(jié)果為()。#!/usr/bin/envpython3n=100sum=0counter:lwhilecounter<=n:sum

+countercounter+=lprint("1到%d之和為:%d"%(n,sum))[單選題]*

Al到100之和為:5000

B.1至ij100之和為

C.1到100之和為:2050

C.1到100之和為:5020

123.()算法是一種挖掘關(guān)聯(lián)規(guī)則的頻繁項(xiàng)集算法,其核心思想是通過候選集生成和情節(jié)的向下封閉

檢測兩個(gè)階段來挖掘頻繁項(xiàng)集。[單選題卜

A.AprioriV

B.EM

C.PCA

D.PAC

124.下列不是目前機(jī)器學(xué)習(xí)所面臨的問題是()。[單選題]*

A.測試集的規(guī)模V

B.維度災(zāi)難

C.特征工程

口過擬合

125.假設(shè)文件不存在,如果使用。pen()打開文件會報(bào)錯,那么該文件的打開方式是()。[單選題]*

A.'r'V

B.'w'

C.'a,

C.'w,

126.下列哪個(gè)神經(jīng)網(wǎng)絡(luò)結(jié)構(gòu)會發(fā)生權(quán)重共享()。[單選題]*

A卷積神經(jīng)網(wǎng)絡(luò)

B.循環(huán)神經(jīng)網(wǎng)絡(luò)

C.全連接神經(jīng)網(wǎng)絡(luò)

D.選項(xiàng)A和BV

127.下列語句會無限循環(huán)下去的是()。[單選題]*

A.forainrange(10):timesleep(10)

B.whilei<10:timesleep(10)V

C.whileTrue:break

D.a=[3,-1,,,']foriina[:]:ifnota.break

128.下列關(guān)于數(shù)據(jù)的存儲結(jié)構(gòu)的描述正確的是()。[單選題]*

A數(shù)據(jù)所占的存儲空間量

B.存儲在外存中的數(shù)據(jù)

C.數(shù)據(jù)在計(jì)算機(jī)中的順序存儲方式

口數(shù)據(jù)的邏輯結(jié)構(gòu)在計(jì)算機(jī)中的表示V

129.PHOTO_PATH="./photo/OJpg1指令可以實(shí)現(xiàn)()[單選題]*

A復(fù)制jpg文件到photo目錄下

B.定義一個(gè)名為photo的存儲路徑V

C.打開photo里所有的jpg文件

D.重命名目錄

130.下列關(guān)于分類算法的準(zhǔn)確率、召回率、比值的描述錯誤的是()□[單選題]*

A.準(zhǔn)確率是檢索出相關(guān)文檔數(shù)與檢索出的文檔總數(shù)的比率彳肉量的是檢索系統(tǒng)的查準(zhǔn)率

B.召回率是指檢索出的相關(guān)文檔數(shù)和文檔庫中所有的相關(guān)文檔數(shù)的比率指量的是檢索系統(tǒng)的查全率

C.正確率、召回率和尸]值取值都在。和1之間.數(shù)值越接近0.查準(zhǔn)率或查全率就越高V

「.為了解決準(zhǔn)確率和召回率沖突問題引入了F]分?jǐn)?shù)

131.假設(shè)函數(shù)中不包括global保留字,則下列關(guān)于改變參數(shù)值的方法的說法錯誤的是()。[單選題]*

A參數(shù)是列表類型時(shí),改變原參數(shù)的值

B.參數(shù)的值是否改變與函數(shù)中對變量的操作有關(guān),與參數(shù)類型無關(guān)V

C參數(shù)是整數(shù)類型時(shí),不改變原參數(shù)的值

。.參數(shù)是組合類型(可變對象)時(shí),改變原參數(shù)的值

132.下列關(guān)于降維的表述錯誤的是()。[單選題]*

A降維過程中可以保留原始數(shù)據(jù)的所有信息V

B.多維縮放的目標(biāo)是要保證降維后樣本之間的距離不變

C.線性降維方法目標(biāo)是要保證降維到的超平面能更好地表示原始數(shù)據(jù)

。?核線性降維方法目標(biāo)是通過核函數(shù)和核方法來避免采樣空間投影到高維空間再降維之后的低維結(jié)構(gòu)

丟失

133.下列關(guān)于HDFS的描述正確的是([單選題卜

A.如果NameNode宕機(jī),SecondaryNameNode會接替它使集群繼續(xù)工作

B.HDFS集群支持?jǐn)?shù)據(jù)的隨機(jī)讀寫

C.NameNode磁盤元數(shù)據(jù)不保存Block的位置信息V

D.DataNode通過長連接與NameNode保持通信

工34.下列不屬于現(xiàn)階段的大數(shù)據(jù)技術(shù)體系主要類型的是()。[單選題]*

A數(shù)據(jù)源與App

B.基礎(chǔ)設(shè)施

C.HadoopV

。.數(shù)據(jù)資源

135.對分類任務(wù)來說,學(xué)習(xí)器從類別標(biāo)記集合中預(yù)測出一個(gè)標(biāo)記,最常見的結(jié)合策略是()。[單選題]

*

A投票法V

B.平均法

C.學(xué)習(xí)法

。.排序法

136.Python中Jieba庫是一個(gè)()庫。[單選題]*

A第三方中文分詞詞庫V

B.機(jī)器學(xué)習(xí)庫

C.圖像處理庫

D,自動提取語義主題

137.為了觀察測試丫與X之間的線性關(guān)系,若X是連續(xù)變量,則使用()比較適合。[單選題]*

A.散點(diǎn)圖V

B.柱形圖

C.直方圖

[:?以上答案都不正確

138.屬于卷積神經(jīng)網(wǎng)絡(luò)應(yīng)用方向的是()0[單選題]*

A.圖像分類

B.目標(biāo)檢測

C.圖像語義分割

。.以上答案都正確V

139.如果python程序中包括零運(yùn)算,解釋器將在運(yùn)行時(shí)拋出()錯誤信息。[單選題]*

A.NameError

B.FileNotFoundError

C.SyntaxError

D.ZeroDivisionErrorV

140.針對以下數(shù)組,從一個(gè)數(shù)組中移除存在于另一個(gè)數(shù)組中的項(xiàng)時(shí)可進(jìn)行的操作是()。a=np.array

([1,2,3,4,5])b=np.array([5,6,7,8,9])期望輸出:array([1,2,3,4])[單選題]*

A.np.setdiffld(a,b)V

B.setdiffId(a)

C.setdiffId(b)

D.以上都不對

141.情感信息抽取不包括()。[單選題]*

A基于命名實(shí)體識別的抽取方法

B.基于重復(fù)段落的識別方法V

C.基于語義角色標(biāo)注的抽取方法

D.基于監(jiān)督學(xué)習(xí)的抽取方法

142.運(yùn)行下面代碼的輸出結(jié)果為()oimportnumpyasnpa二np.arange(6).reshape(3,2)

wt=np.array([3,5])print(np.average(a,axis=I,weights=wt))[單選題]*

A.[[01][23][45]]

B.[0,6252.6254.625]V

C.(array([0.625,2.625,4,625]),array([8.,8.,8.]))

。.以上都不對

143.在頁面中看不見的表單元素是()。[單選題]*

A.<inputtype="password"x/input>

B.<inputtype="radio"x/input>

C.<inputtype="hidden"x/input>V

D.〈inputtype="reset',x/input>

144執(zhí)行下面程序,打開文件的位置應(yīng)該在()。仁open('itheima.txtlW)[單選題卜

A.C盤根目錄下

B.D盤根目錄下

C.Python安裝目錄下

。.與源文件在相同的目錄下V

145.下列算法中屬于圖像銳化處理的是()。[單選題卜

A低通濾波

B.加權(quán)平均法

C高通濾波V

。?中值濾波

146.HBase作為數(shù)據(jù)存儲組件封裝于大數(shù)據(jù)平臺,用于()。[單選題]*

A關(guān)系型數(shù)據(jù)庫存儲

B,分布式文件存儲

C.非關(guān)系型數(shù)據(jù)庫存儲。

。.列式存儲

147.循環(huán)神經(jīng)網(wǎng)絡(luò)適合處理的數(shù)據(jù)是()0[單選題]*

A節(jié)點(diǎn)數(shù)據(jù)

B.序列數(shù)據(jù)V

C.結(jié)構(gòu)化數(shù)據(jù)

。,圖像數(shù)據(jù)

148.下列關(guān)于副本和視圖的描述錯誤的是()。[單選題]*

ANumpy的切片操作返回原數(shù)據(jù)的視圖

B.調(diào)用Ndarray的view()函數(shù)產(chǎn)生一個(gè)視圖

C.Python序列的切片操作,調(diào)用deepCopy()函數(shù)

D.調(diào)用Ndarray的copy()函數(shù)產(chǎn)生一個(gè)視圖V

149.Numpy默認(rèn)產(chǎn)生的數(shù)據(jù)類型是()[單選題]*

Aintl6

B.float32

C.char

D.float64V

150輸入圖片大小為200200,依次經(jīng)過一層卷積(kernelsize5x5,padding1,stride2),pooling

(kernelsize3x3,padding0,stride1),又一層卷積(kernelsize3x3,padding1,stride1)之后,輸出

特征圖大小為()。[單選題]*

A.95

B.96

C.97V

D.98

151.plt.plot()函數(shù)輸入?yún)?shù)'b'修改的是圖形的()。[單選題]*

A.位置

B.大小

C形狀

D.顏色V

152.以下哪種卷積神經(jīng)網(wǎng)絡(luò)的設(shè)計(jì)引入了殘差網(wǎng)絡(luò)結(jié)構(gòu)()。[單選題]*

A.LeNet

B.AIexNet

C.GoogLeNet

D.ResNetsV

153.下列說法正確的是()。[單選題]*

A函數(shù)的名稱可以隨意命名

B.帶有默認(rèn)值的參數(shù)一定位于參數(shù)列表的末尾,

C.局部變量的作用域是整個(gè)程序

D.函數(shù)定義后,系統(tǒng)會自動執(zhí)行其內(nèi)部的功能

154.scipy.stats.isf()函數(shù)的作用是()[單選題]*

A隨機(jī)變量的生存函數(shù)

B.scipy.stats.sf()的逆V

C計(jì)算隨機(jī)變量的期望和方差

。.隨機(jī)變量的累積分布函數(shù)

155.假設(shè)使用原始的非線性可分版本的S。ft-SVM目標(biāo)函數(shù)作為最優(yōu)化對象,則可通過()來保證得

到的模型是線性可分離的?!竼芜x題1*

A.設(shè)OO

B.設(shè)C=1

c.設(shè)c正無窮大v

。.設(shè)c負(fù)無窮大

156.關(guān)于神經(jīng)網(wǎng)絡(luò)中經(jīng)典使用的優(yōu)化器,以下說法正確的是()。[單選題]*

A.Adam的收斂速度比RMSprop慢

B.相比于SGD或RMSprop等優(yōu)化器,Adam的收斂效果是最好的

C.對于輕量級神經(jīng)網(wǎng)絡(luò),使用Adam比使用RMSprop更合適

。.相比于Adam或RMSprop等優(yōu)化器,SGD的收斂效果是最好的V

157.大數(shù)據(jù)環(huán)境下的隱私擔(dān)憂,主要表現(xiàn)為()。[單選題]*

A人信息的被識別與暴露V

B.用戶畫像的生成

C.廣告的推送

。.病毒入侵

158.下列關(guān)于Ndarrayhemsize的描述錯誤的是()。[單選題]*

A以字節(jié)的形式返回?cái)?shù)組中每一個(gè)元素的大小

B.一個(gè)元素類型為float64的數(shù)組,^emsize屬性值為8

C.一個(gè)元素類型為complex32的數(shù)組,itemsize屬性為4

。.一個(gè)元素類型為complex64的數(shù)組,itemsize屬性為4V

159.單獨(dú)使用多層索引時(shí),()。[單選題卜

A最外層和最里層的索引都可以單獨(dú)使用

B.只有最外層的索引可以單獨(dú)使用V

C.不能單獨(dú)使用多層索引

(:?只有最里層的索引可以單獨(dú)使用

160.假定使用SVM學(xué)習(xí)數(shù)據(jù)X,數(shù)據(jù)X里面有些點(diǎn)存在錯誤?,F(xiàn)在如果使用一個(gè)二次核函數(shù),多項(xiàng)式

階數(shù)為2,使用松弛變量C作為超參之一。當(dāng)使用較大的C(C趨于無窮),則()。[單選題]*

A仍然能正確分類數(shù)據(jù)V

B.不能正確分類

C不確定

。.以上均不正確

161.下列關(guān)于隨機(jī)森林和GBDT的說法正確的是()。[單選題]*

A在隨機(jī)森林的單個(gè)樹中.樹和樹之間是有依賴的.而GBDT中的單個(gè)樹之間是沒有依賴的

B.這兩個(gè)模型都使用隨機(jī)特征子集.來生成許多單個(gè)的樹V

C我們可以并行地生成GBDT單個(gè)樹.因?yàn)樗鼈冎g是沒有依賴的

C.GBDT訓(xùn)練模型的表現(xiàn)總是比隨機(jī)森林好

162.一個(gè)MapReduce程序中的MapTask的個(gè)數(shù)由()決定。[單選題]*

A.輸入的總文件數(shù)

B.客戶端程序設(shè)置的mapTask的個(gè)數(shù)

C.FilelnputFormat.getSplits(JobContextjob)計(jì)算出的邏輯切片的數(shù)量V

。.輸入的總文件大小/數(shù)據(jù)塊大小

163.數(shù)據(jù)集成的基本類型是()。[單選題]*

A內(nèi)容集成、結(jié)構(gòu)集成V

B.內(nèi)容集成、規(guī)約集成

C.規(guī)約集成、結(jié)構(gòu)集成

口模式集成、結(jié)構(gòu)集成

164.對矩陣0,3],[1,1,0],[0,2,1;,[1.0,2]]進(jìn)行獨(dú)熱編碼訓(xùn)練后,對矩陣[[0,1,3]]進(jìn)行獨(dú)熱編碼輸

出結(jié)果為()。[單選題]*

A.[0,1,0,1,0,0,0,1,0]

B.[1,0,0,1,0,0,0,0,1]V

C.[0t1,0,0,1,0,0,0,1]

c.[1,o,0,0,1,0,0,1,0]

165.下列關(guān)于降維算法中主成分分析的說法錯誤的是()。[單選題]*

A有監(jiān)督算法V

B.可以指定降維的維度

C.基于方差來計(jì)算

D.根據(jù)特征值大小來篩選特征

166.在情感分析中不屬于影響詞的是()。[單選題]*

A.識別V

B.開心

C.難過

。?無聊

167.下列關(guān)于python的類的說法錯誤的是()。[單選題]*

A類的實(shí)例方法必須創(chuàng)建對象后才可以調(diào)用

B.類的實(shí)例方法必須創(chuàng)建對象前才可以調(diào)用V

C.類的類方法可以用對象和類名來調(diào)用

口類的靜態(tài)屬性可以用類名和對象來調(diào)用

168.下列關(guān)于Python注釋的描述錯誤的是()。[單選題]*

APython注釋語句不被解釋器過濾掉,也不被執(zhí)行V

B.注釋可以輔助程序調(diào)試

C.注釋可用于標(biāo)明作者和版權(quán)信息

[:?注釋用于解釋代碼原理或者用途

169.下列說法錯誤的是()。[單選題]*

A當(dāng)目標(biāo)函數(shù)是凸函數(shù)時(shí)梯度下降算法的解一般就是全局最優(yōu)解

B.進(jìn)行PCA降維時(shí).需要計(jì)算協(xié)方差矩陣

C.沿負(fù)梯度的方向一定是最優(yōu)的方向V

D.利用拉格朗日函數(shù)能解帶約束的優(yōu)化問題

170.HadoopMapReduce2.0()負(fù)責(zé)資源的管理和調(diào)度。[單選題]*

A.JobTracker

B.YARNV

C.TaskTracker

C.ApplicationMaster

171.下列關(guān)于函數(shù)的關(guān)鍵字參數(shù)使用限制的描述錯誤的是()。[單選題]*

A關(guān)鍵字參數(shù)必須位于位置參數(shù)之前V

B.不得重復(fù)提供實(shí)際參數(shù)

C關(guān)鍵字參數(shù)必須位于位置參數(shù)之后

。?關(guān)鍵字參數(shù)順序無限制

172.線性模型中的權(quán)重w可以看做各個(gè)屬性工的()。[單選題]*

A正則化系數(shù)

B.對最終決策結(jié)果的貢獻(xiàn)度V

C.高維映射

C.取值

173.下列不是N°SQL數(shù)據(jù)庫的是()。[單選題]*

A.MongoDB

B.BigTable

C.Hbase

0.AccessV

174.運(yùn)行下面代碼的輸出結(jié)果為()oa=np.array([[5,3,2],[2,4,0]])n=np.sort(a,axis=None)

print(n)[單選題]*

A.[0,2,2,3,4,5]V

B.[5,4,3,2,2,0]

C.[[2,3,0],[5,4,2]]

C.[[2,3,5],[0,2,4]]

175.隨著集成中個(gè)體分類器(相互獨(dú)立)數(shù)目T的增大,集成的錯誤率將呈()下降,最終趨向于零。

[單選題]*

A.指數(shù)級V

B.對數(shù)級

C.線性級

。?平方級

176.在Python中,導(dǎo)入random包后random.random()可能的運(yùn)行結(jié)果為()。[單選題]*

A1

B.4.06364700016475

C.0.0965639318571762V

D.-0.885155622826353

177.緩解過擬合的一個(gè)辦法是允許支持向量機(jī)在一些樣本上出錯,()形式適合這種方法。[單選題卜

A.硬間隔支持向量機(jī)

B.軟間隔支持向量機(jī)V

C.線性核函數(shù)支持向量機(jī)

。.多項(xiàng)式核函數(shù)支持向量機(jī)

178.下列關(guān)于數(shù)據(jù)轉(zhuǎn)換的說法正確的是()。[單選題]*

AJson內(nèi)的取值只能有統(tǒng)一格式

B.PDF文件在不同平臺上打開顯示不同

C.可以通過Python將CSV文件轉(zhuǎn)換成Excel格式V

□.Excel存儲數(shù)據(jù)的量無限制

179.scipy.io模塊不可以讀?。ǎ?。[單選題]*

A.matlab文件

B.IDL文件

C.wav文件

D.CSV文件V

180.Hive的數(shù)據(jù)最終存儲在()中。[單選題]*

A.HDFSV

B.HBase

CRDBMS

D.MetaStore

181.下列關(guān)于在回歸分析中解釋變量與非解釋變量的說法正確的是()。[單選題]*

A.解釋變量和被解釋變量都是隨機(jī)變量

B.解釋變量為非隨機(jī)變量,被解釋變量為隨機(jī)變量V

C解釋變量和被解釋變量都為非隨機(jī)變量

。.解釋變量為隨機(jī)變量,被解釋變量為非隨機(jī)變量

182.通常落伍者是影響MapReduce總執(zhí)行時(shí)間的主要影響因素之一,為此MapReduce采用()機(jī)制

來解決。[單選題卜

A.分布式計(jì)算

B.惰性計(jì)算

C.推測性執(zhí)行的任務(wù)備份V

。.先進(jìn)先出

1B3.如果說線性回歸模型完美地?cái)M合了訓(xùn)練樣本(訓(xùn)練樣本誤差為零),則下列說法正確的是()。[單

選題]*

A.測試樣本誤差始終為零

B.測試樣本誤差不可能為零

C測試樣本誤差不一定為零V

。.以上答案都不對

184.下列算法中屬于局部處理的是()。[單選題]*

A灰度線性變換

B.二值化

C.傅里葉變換

。?中值濾波V

185.對文本數(shù)據(jù)處理通常采用()核函數(shù)。[單選題卜

A多項(xiàng)式

B.Sigmoid

C.線性V

。?拉普拉斯

186.特征工程的目的是()。[單選題]*

A找到最合適的算法

B得到最好的輸入數(shù)據(jù)V

C.減低模型復(fù)雜度

D.加快計(jì)算速度

1B7.已知數(shù)組

溫馨提示

  • 1. 本站所有資源如無特殊說明,都需要本地電腦安裝OFFICE2007和PDF閱讀器。圖紙軟件為CAD,CAXA,PROE,UG,SolidWorks等.壓縮文件請下載最新的WinRAR軟件解壓。
  • 2. 本站的文檔不包含任何第三方提供的附件圖紙等,如果需要附件,請聯(lián)系上傳者。文件的所有權(quán)益歸上傳用戶所有。
  • 3. 本站RAR壓縮包中若帶圖紙,網(wǎng)頁內(nèi)容里面會有圖紙預(yù)覽,若沒有圖紙預(yù)覽就沒有圖紙。
  • 4. 未經(jīng)權(quán)益所有人同意不得將文件中的內(nèi)容挪作商業(yè)或盈利用途。
  • 5. 人人文庫網(wǎng)僅提供信息存儲空間,僅對用戶上傳內(nèi)容的表現(xiàn)方式做保護(hù)處理,對用戶上傳分享的文檔內(nèi)容本身不做任何修改或編輯,并不能對任何下載內(nèi)容負(fù)責(zé)。
  • 6. 下載文件中如有侵權(quán)或不適當(dāng)內(nèi)容,請與我們聯(lián)系,我們立即糾正。
  • 7. 本站不保證下載資源的準(zhǔn)確性、安全性和完整性, 同時(shí)也不承擔(dān)用戶因使用這些下載資源對自己和他人造成任何形式的傷害或損失。

評論

0/150

提交評論