版權(quán)說明:本文檔由用戶提供并上傳,收益歸屬內(nèi)容提供方,若內(nèi)容存在侵權(quán),請進(jìn)行舉報(bào)或認(rèn)領(lǐng)
文檔簡介
大數(shù)據(jù)競賽理論試題題庫
一、選擇題
1.scipy.stats中,()表示二項(xiàng)分布。[單選題]*
A.gamma
B.binomV
C.uniform
C.rayleigh
2.下列關(guān)于PCA的說法中:①我們須在使用PCA前標(biāo)準(zhǔn)化數(shù)據(jù);②我們應(yīng)該選擇使得模型有最大
variance的主成分;③我們應(yīng)該選擇使得模型有最小variance的主成分;④我們可以使用PCA在低維度上
做數(shù)據(jù)可視化。正確的是()。[單選題]上
C.??
D.①③
3.下列描述中不屬于數(shù)據(jù)預(yù)處理方法的是()。[單選題]*
A.數(shù)據(jù)清洗:去噪聲和無關(guān)數(shù)據(jù)
B.數(shù)據(jù)集成:將多個(gè)數(shù)據(jù)源中的數(shù)據(jù)結(jié)合起來存在一個(gè)一致的數(shù)據(jù)存儲中
C.數(shù)據(jù)變換.把原始數(shù)據(jù)轉(zhuǎn)換成為適合數(shù)據(jù)挖掘的形式
。.數(shù)據(jù)轉(zhuǎn)化:把連續(xù)數(shù)據(jù)轉(zhuǎn)換為離散數(shù)據(jù)。
4.Scikit-Leam中,()可以實(shí)現(xiàn)整數(shù)分類值轉(zhuǎn)化為獨(dú)熱向量。[單選題]*
A.OridinalEncoder
B.OneHotEncoderV
C.LableEncoder
D.AutoEncoder
5.矩陣相減使用的函數(shù)是()[單選題]*
A.np.add()
B.np.subtract()V
C.np.multiply()
D.np.divide()
6.下列分割方法中不屬于區(qū)域算法的是()。[單選題]*
A分裂合并
B.閾值分割
C.區(qū)域生長
。?邊緣檢測V
7.語句np.random.randn(5,4)的運(yùn)算結(jié)果是()。[單選題]*
A.生成一個(gè)5行4列的隨機(jī)矩陣V
B.將矩陣的第5行第4列改成一個(gè)隨機(jī)值
C.將矩陣的第4行第了列改成一個(gè)隨機(jī)值
。.將矩陣的第5列和第4列都用隨機(jī)值代替
8.MapReduce里面的query、sort和limit等都是針對()的操作。[單選題*
Amap()之前V
B.reduce()之前
C.reduce()之后
D.finalize()之后
9.()模塊提供了用于加載和獲取流行的參考數(shù)據(jù)集的方法。[單選題]*
A.sklearn.data
B.sklearn.datasetsV
C.sklearn.datas
C.sklearn.datafetch
1)下列關(guān)于圖像的平滑處理的說法錯誤的是()。[單選題]*
A圖像的平滑處理是指在盡量保留原有信息的情況下,過濾掉圖像內(nèi)部的噪聲
B.圖像平滑處理會對圖像中與周圍像素點(diǎn)的像素值差異較大的像素點(diǎn)進(jìn)行處理,將其值調(diào)整為周圍像
素點(diǎn)像素值的近似值
C.經(jīng)過平滑處理后圖像質(zhì)量會下降4
C,以上都對
11.在神經(jīng)網(wǎng)絡(luò)中引入了非線性的是()。[單選題]*
A隨機(jī)梯度下降
B.修正線性單元(ReLU)V
C.卷積函數(shù)
D.以上答案都不正確
12大數(shù)據(jù)計(jì)算服務(wù)提供了大數(shù)據(jù)的存儲和計(jì)算服務(wù),非常適合應(yīng)用于大數(shù)據(jù)分析的領(lǐng)域。以下說法中
錯誤的是()o[單選題]*
A.可以實(shí)現(xiàn)大型互聯(lián)網(wǎng)企業(yè)的數(shù)據(jù)倉庫和BI分析
B.提供了便捷的分析處理海量數(shù)據(jù)的手段,用戶可以不必關(guān)心分布式計(jì)算細(xì)節(jié),從而達(dá)到分析大數(shù)據(jù)
的目的
C可以支持實(shí)時(shí)OLAP分析V
。.可以基于歷史數(shù)據(jù),進(jìn)行用戶特征和興趣挖掘
13.plt.show()函數(shù)的作用是()o[單選題]*
A.展示圖像,
B,畫直方圖
C.保存圖像
D.畫散點(diǎn)圖
14.()采用概率模型來表達(dá)聚類原型。[單選題]*
A.嘗試為不同的質(zhì)心(centroid)初始化運(yùn)行算法
B.調(diào)整迭代的次數(shù)
C.找到集群的最佳數(shù)量
。.以上答案都正確V
15.相對于HadoopMapReduce1.0,Spark的特點(diǎn)不包括()o[單選題]*
A速度快
B.并發(fā)多V
C通用性
C,易用性
16.下列算法中:①KNN;②線性回歸;③對數(shù)幾率回歸。可以用神經(jīng)網(wǎng)絡(luò)去構(gòu)造的([單選題]*
A.?2)
B.(2X3)V
C①@@
。.以上答案都不正確
17.最早被提出的循環(huán)神經(jīng)網(wǎng)絡(luò)門控算法是()。[單選題]*
A.長短期記憶網(wǎng)絡(luò)V
B.門控循環(huán)單元網(wǎng)絡(luò)
C.堆疊循環(huán)神經(jīng)網(wǎng)絡(luò)
D.雙向循環(huán)神經(jīng)網(wǎng)絡(luò)
1B.下列方法不能成功創(chuàng)建一個(gè)Numpy數(shù)組的是()[單選題]*
A.a=np.array([1,2,3,4])
B.b=np.zeros(3,4)
C.c=np.ones(1,2,3,4)V
D.d=np.arange(10,30,5)
19.語音識別的應(yīng)用場景包括()0[單選題]*
A.語音轉(zhuǎn)文本
B.語音合成
C.人機(jī)交互
。.以上都對V
29.Matplotlib中的axvspan()函數(shù)作用是()。[單選題]*
A.在X軸標(biāo)示不同圖形的文本標(biāo)簽圖例
B.繪制垂直于x的參考區(qū)域,
C.添加x軸內(nèi)容細(xì)節(jié)的指向性注釋文本
C.添加x軸標(biāo)題
21.在Linux下預(yù)裝了Python2、Python3且默認(rèn)Python版本為Python3,則下列描述可以正確啟動Python
的是()。[單選題]*
A在Linux應(yīng)用程序Terminal,打開一個(gè)終端窗口輸入whichPython
B.在Linux應(yīng)用程序Terminal,打開一個(gè)終端窗口,輸入Python2或Python3V
C.在Linux應(yīng)用程序Terminal,打開一個(gè)終端窗口,輸入whichPython3
D.在Linux應(yīng)用程序Terminal,打開一個(gè)終端窗口,輸入whichPython2
22.如果線性回歸模型中的隨機(jī)誤差存在異方差性,那么參數(shù)的。LS估計(jì)量是()□[單選題]*
A無偏的、有效的
B.無偏的、非有效的V
C.有偏的、有效的
。.有偏的、非有效的
23.一篇文章中某些名詞的TF-IDF值比較大,則說明()。[單選題]*
A這些名詞對這篇文章的區(qū)分度比較高V
B.這些名詞對這篇文章的區(qū)分度比較低
C.不能說明什么
D.以上都不對
24.HTML的表格中,如果需要定義表格的單元格內(nèi)文字和邊緣的空間,需要通過(來實(shí)現(xiàn)。[單選題]*
A.cellspacing屬性
B.colspan屬性
C.cellpadding屬性V
C.rowspan屬性
25.Scipy中模塊signal的作用是()。[單選題]*
A.信號處理V
B.程序輸入輸出
C.程序輸入輸出
。.計(jì)算積分
26.關(guān)系云的一個(gè)重要功能是提供()。[單選題]*
A.數(shù)據(jù)庫即服務(wù)V
B.虛擬服務(wù)
C.彈性計(jì)算
口?按需服務(wù)
27.下列關(guān)于可視化方法體系的說法不正確的是()0[單選題]*
A通常采用視覺圖形元素和視覺通道兩個(gè)維度進(jìn)行視覺編碼
B.常用的共性方法有統(tǒng)計(jì)圖表、圖論方法、視覺隱喻和圖形符號學(xué)等
C領(lǐng)域方法在所屬領(lǐng)域內(nèi)其可視化的信度和效果往往低于基礎(chǔ)方法的直接應(yīng)用V
。.視覺編碼為其他數(shù)據(jù)可視化方法提供了方法學(xué)基礎(chǔ)
28.如果建立一個(gè)5000個(gè)特征、100萬個(gè)數(shù)據(jù)的機(jī)器學(xué)習(xí)模型,則有效地應(yīng)對這樣的大數(shù)據(jù)訓(xùn)練的方法
是()。[單選題]*
A隨機(jī)抽取一些樣本.在這些少量樣本之上訓(xùn)練
B.可以試用在線機(jī)器學(xué)習(xí)算法
C.應(yīng)用PCA算法降維.減少特征數(shù)
二以上答案都正確V
29.()是一種著名的密度聚類算法,它基于一組鄰域參數(shù)來刻畫樣本的緊密程度。[單選題]*
A.DBSCANV
B.原型聚類
C.密度聚類
。.層次聚類
33.下列方法中屬于映射數(shù)據(jù)到新的空間的是()0[單選題]*
A傅里葉變換。
B.特征加權(quán)
C.漸進(jìn)抽樣
。?維歸約
31.決策樹的基本流程遵循()的策略。[單選題]*
A貪心
B.最優(yōu)化
C分而治之V
C.順序
32.下列關(guān)于SecondaryNameNode的說法正確的是()。[單選題]*
A.它是NameNode的熱備
B.它對內(nèi)存沒有要求
C.它的目的是幫助NameNode合并編輯日志,減少NameNode的負(fù)擔(dān)和冷啟動時(shí)的加載時(shí)間V
0.SecondaryNameNode應(yīng)與NameNode部署到一個(gè)節(jié)點(diǎn)
33.由于不同類別的關(guān)鍵詞對排序的貢獻(xiàn)不同,檢索算法一般把查詢關(guān)鍵詞分為幾類,下列不屬于此關(guān)鍵
詞類型的是()[單選題]*
A引用詞
B.普通關(guān)鍵詞
C.高頻詞匯V
。.擴(kuò)展關(guān)鍵詞
34.下列關(guān)于函數(shù)的參數(shù)的描述錯誤的是()。[單選題]*
A.可選參數(shù)可以定義在非可選參數(shù)的前面V
B.一個(gè)元組可以傳遞給帶有星號的可變參數(shù)
C.在定義函數(shù)時(shí),可以設(shè)計(jì)可變數(shù)量參數(shù),通過在參數(shù)前增加星號(*)實(shí)現(xiàn)
。.在定義函數(shù)時(shí),如果有些參數(shù)存在默認(rèn)值,可以在定義函數(shù)時(shí)直接為這些參數(shù)指定默認(rèn)值
35.假設(shè)你需要調(diào)整參數(shù)來最小化代價(jià)函數(shù)(c。stfimction),會使用()技術(shù)。[單選題卜
A.窮舉搜索
B.隨機(jī)搜索
C.Bayesian優(yōu)化
。.以上全是。
36.下列敘述正確的是()。[單選題]*
A.continue語句的作用是結(jié)束整個(gè)循環(huán)的執(zhí)行
B.只能在循環(huán)體內(nèi)使用break語句V
C.在循環(huán)體內(nèi)使用break語句或contnue語句的作用相同
D.從多層循環(huán)嵌套中退出時(shí),只能使用goto語句
37.Python代碼中mpI.rcParamsCfont.sans-serif]=「SimHei]的作用是()o[單選題]*
A設(shè)置圖表中文顯示的字體V
B.設(shè)置圖表圖例的位置
C.設(shè)置圖表標(biāo)題的顏色
。.設(shè)置圖表標(biāo)題的位置
38.訓(xùn)練一個(gè)RNN網(wǎng)絡(luò),如果權(quán)重與激活值都是NaN,下列選項(xiàng)中,哪一個(gè)是導(dǎo)致這個(gè)問題的最有可
能的原因()。[單選題]*
A梯度消失
B.梯度爆炸V
CReLU函數(shù)作為激活函數(shù)g(.),在計(jì)算g(z)時(shí),z的數(shù)值過大了
口Sigmoid函數(shù)作為激活函數(shù)g(.),在計(jì)算g(z)時(shí),z的數(shù)值過大了
39.大數(shù)據(jù)參考架構(gòu)的水平軸和垂直軸分別為()。[單選題]*
A信息(活動)價(jià)值鏈和信息技術(shù)價(jià)值鏈V
B.信息技術(shù)價(jià)值鏈和信息(活動)價(jià)值鏈
C.信息交互價(jià)值鏈和信息技術(shù)價(jià)值鏈
D.信息(活動)價(jià)值鏈和信息交互價(jià)值鏈
43.可用作數(shù)據(jù)挖掘分析中的關(guān)聯(lián)規(guī)則算法有()。f單選題]*
A.機(jī)器學(xué)習(xí)、對數(shù)回歸、關(guān)聯(lián)模式
B.K均值法、SOM機(jī)器學(xué)習(xí)
C.Apriori算法、FP-Tree算法V
D.RBF機(jī)器學(xué)習(xí)、K均值法、機(jī)器學(xué)習(xí)
41.運(yùn)行下面程序,a、b、c、d四個(gè)變量的值錯誤的是()oimportcopya=[l,2,3,4,['a',
'b']]b=ac=copy.copy(a)d=copy.deepcopy(a)a.append(5)a[4]append('c')[單選題]*
Aa==[l,2,3,4,['a','b':c']t5]
B.b==[l,2,3,4,['a'/b'.'c'],5]
C.c==[l,2,3,4I['a';b','c']]
D.d==[l,2,3,A.fa'.'b',<c']]V
42.如果一個(gè)SVM模型出現(xiàn)欠擬合,那么()能解決這一問題。[單選題]*
A增大懲罰參數(shù)CV
B.減小懲罰參數(shù)C
C.減小核系數(shù)(gamma參數(shù))
D.增大核系數(shù)(gamma參數(shù))
43.下列可以應(yīng)用關(guān)鍵詞提取的是()。[單選題]*
A.文獻(xiàn)檢索
B.自動文摘
C.文本聚類/分類
。.以上都對V
44.在MapReduce中,為了發(fā)現(xiàn)Worker故障,Master周期性進(jìn)行的操作是()。[單選題]*
A.Join
B.PingV
C.Check
C.Connect
45.下列不屬于Python內(nèi)置模塊的是()[單選題]*
A.sys
B.json
C.os
D.imageV
46.通常來說,()能夠用來預(yù)測連續(xù)因變量。[單選題卜
A線性回歸V
B.邏輯回歸
C線性回歸和邏輯回歸
。.以上答案都不正確
47.下列不屬于數(shù)據(jù)科學(xué)項(xiàng)目主要角色的是()。[單選題]*
A項(xiàng)目發(fā)起人
B.項(xiàng)目經(jīng)理
C.操作員
。.驗(yàn)收人員V
48.如果訓(xùn)練一個(gè)RNN網(wǎng)絡(luò)時(shí)發(fā)現(xiàn)權(quán)重與激活值都是NaN,則導(dǎo)致這個(gè)問題最有可能的原因是()o[單
選題]*
A梯度消失
B.梯度爆炸V
CReLU函數(shù)作為激活函數(shù)g(),在十算g(z)時(shí),z的數(shù)值過大了
□Sigmoid函數(shù)作為激活函數(shù)g(),在計(jì)算g(z)時(shí),z的數(shù)值過大了
49.運(yùn)行下面代碼的輸出結(jié)果為()oimportnumpyasnpx=np.array([3,1,2])y=np.argsort(x)
print(y)[單選題]*
A.[312]
B.[I2O]V
C.[12司
C.123
53.運(yùn)行下面代碼,則下列描述錯誤的是()。importtimeprint(time.time)[單選題]*
A.time庫是Python的標(biāo)準(zhǔn)庫
B.可使用time.ctime(),顯示為更可讀的形式
Ctime.sleep(5)推遲調(diào)用線程的運(yùn)行,單位為毫秒V
C.輸出自1970年1月1日00:00:00AM以來的秒數(shù)
51.在Numpy中,數(shù)組拼接的函數(shù)不包括()[單選題]*
A.append()
B.insert()
C.vstack()
D.where()7
52.下列關(guān)于_new_和_init_區(qū)別的說法不正確的是()。[單選題]*
A_new_是一個(gè)實(shí)例方法,而_init_是一個(gè)靜態(tài)方法V
B._new_方法會返回一個(gè)創(chuàng)建的實(shí)例,而_init_什么都不返回
C.只有在_new_返回一個(gè)cis的實(shí)例時(shí),后面的_init_才能被調(diào)用
D.當(dāng)創(chuàng)建一個(gè)新實(shí)例時(shí)調(diào)用一new-初始化一個(gè)實(shí)例時(shí)用_init_
53.下列情景中不屬于數(shù)據(jù)故事化的是()。[單選題]*
A.還原情景
B.統(tǒng)計(jì)情景V
C.移植情景
。.虛構(gòu)情景
54.對模型進(jìn)行超參數(shù)優(yōu)化,詳盡搜索指定參數(shù)的估計(jì)值使用()函數(shù)c[單選題]*
A.ParameterGrid()
B.ParameterSampler()
C.GridSearchCV()V
D.RandomizedSearchCV()
55.圖像中虛假輪廓的出現(xiàn)就其本質(zhì)而言是()。[單選題卜
A圖像的灰度級數(shù)不夠多而造成的V
B.圖像的空間分辨率不夠高而造成的
C.圖像的灰度級數(shù)過多而造成的
。.圖像的空間分辨率過高而造成的
56.下列語句中不能創(chuàng)建一個(gè)字典的是()[單選題]*
A.dictl=0
B.dict2={3:5)
C.dict3={[1,2,3]:"uestc"}V
D.dict4={(1,2,3):"uestc"}
57.np.setdiffld(Ndarray1,Ndarray2)函數(shù)的作用是()。[單選題*
A返回二者的交集并排序
B.返回二者的并集并排序
C.返回二者的差集v
C.返回二者的對稱差
58.集群的最主要“瓶頸”通常是()。[單選題]*
A.CPU
B.網(wǎng)絡(luò)
C.磁盤I/OV
D.內(nèi)存
59.FusionlnsightHD中Loader從SFFP服務(wù)器導(dǎo)入文件時(shí),不需要做編碼轉(zhuǎn)換和數(shù)據(jù)轉(zhuǎn)換且速度最快
的文件類型是:()。[單選題]*
A.graph-file
B.binary-fileV
C.text-file
D.sequence-file
63.著名的C4.5決策樹算法使用()來選擇最優(yōu)劃分屬性。[單選題]*
A信息增益
B.增益率V
C.基尼指數(shù)
。.均值
61.下列關(guān)于RNN的說法正確的是()。[單選題]*
ARNN可以應(yīng)用在NLP領(lǐng)域
B.LSTM是RNN的一個(gè)變種
C.在RNN中一個(gè)序列當(dāng)前的輸出與前面的輸出也有關(guān)
。.以上答案都正確V
62.有研究發(fā)現(xiàn)“頁面的顯示速度每延遲Is,網(wǎng)站訪問量就會降低11%,從而導(dǎo)致營業(yè)額或者注冊量減
少7%,顧客滿意度下降16就。該項(xiàng)研究表明了在數(shù)據(jù)產(chǎn)品開發(fā)中更加重要的是()。[單選題]*
A查全率
B.用戶體驗(yàn)V
C.數(shù)據(jù)可視化
D.查準(zhǔn)率
63冽表對象的sort()函數(shù)用來對列表元素進(jìn)行原地排序,該函數(shù)返回值為()。f單選題卜
A.False
B.NoneV
C.True
口報(bào)錯
64.()算法是分類算法。[單選題]*
A.DBSCAN
B.C4.5V
C.K-means
D.EM
65.下列關(guān)于Python單下劃線_foo與雙下劃線_foo與_foo_的說法錯誤的是()[單選題]*
A._foo不能直接用于'frommoduleiITport,
B._foo解析器用_classname_too來代替這個(gè)名字,以區(qū)別和其他類相同的命名
(:/。0_代表python里特殊方法專月的標(biāo)識
D._foo可以直接用于‘frommoduleimport'V
66.下列關(guān)于連接數(shù)組的描述不正確的是()。[單選題]*
A.concatenate()連接沿現(xiàn)有軸的數(shù)組序列
B.stack()沿著新的軸加入一系列數(shù)組
C.vstack()水平堆疊序列中的數(shù)組(列方向)
C.hstack()3D堆疊序列中的數(shù)組(行方向)V
67.Matplotlib中的legend()函數(shù)的作用是()。[單選題]*
A設(shè)置標(biāo)簽文本
B.繪制網(wǎng)格線
C.標(biāo)示不同圖形的文本標(biāo)簽圖例。
D.設(shè)置x軸的數(shù)值顯示范圍
68.一幅數(shù)字圖像是()。[單選題]*
A一個(gè)觀測系統(tǒng)
B.一個(gè)由許多像素排列而成的實(shí)體
C.一個(gè)2D數(shù)組中的元素V
C.一個(gè)3D空間中的場景
69.診斷性分析主要采取的分析方法是()。[單選題]*
A關(guān)聯(lián)分析法和因果分析法。
B.關(guān)聯(lián)分析法和分類分析法
C關(guān)聯(lián)分析法和運(yùn)籌學(xué)
。.因果分析法和分類分析法
7O.Spark的集群管理模式不包含([單選題卜
A.Standalone模式
B.Message模式。
C.YARN模式
D.Mesos模式
71.open()函數(shù)中,參數(shù)'wb'的含義是()[單選題]*
A創(chuàng)建并二進(jìn)制只讀
B.創(chuàng)建并只寫方式
C.創(chuàng)建并二進(jìn)制寫入V
。.創(chuàng)建并追加方式
72.()是指為最小化總體風(fēng)險(xiǎn),只需在每個(gè)樣本上選擇能使特定條件風(fēng)險(xiǎn)最小的類別標(biāo)記。[單選題]
A支持向量機(jī)
B.間隔最大化
C.線性分類器
。?貝葉斯判定準(zhǔn)則V
73.下列不屬于循環(huán)神經(jīng)網(wǎng)絡(luò)的輸出模式是()。[單選題]*
A單輸出
B.多輸出
C.同步多輸出V
。.異步多輸出
74.選擇哪一個(gè)解作為輸出,將由學(xué)習(xí)算法的歸納偏好決定,常見的做法是引入()。[單選題]*
A線性回歸
B.線性判別分析
C正則化項(xiàng)V
C.偏置項(xiàng)
75.Numpy中使用不同類型的數(shù)組進(jìn)行操作時(shí),結(jié)果數(shù)組的類型會進(jìn)行()[單選題]*
A.向下轉(zhuǎn)換
B.向上轉(zhuǎn)換V
C.不進(jìn)行轉(zhuǎn)換
D.無法計(jì)算
76.在多元線性回歸模型中,若某個(gè)解釋變量對其余解釋變量的判定系數(shù)接近于L則表明模型中存在
()。[單選題]*
A.異方差
B.序列相關(guān)
C.多重共線性V
[:?高擬合優(yōu)度
77.在一個(gè)簡單的線性回歸模型中(只有一個(gè)變量),如果將輸入變量改變一個(gè)單位(增加或減少),那
么輸出將改變()。[單選題]*
A.—個(gè)單位
B.不變
C.截距
C.回歸模型的尺度因子,
7B.Scipy中模塊i。的作用是()0[單選題]*
A.差值計(jì)算
B.程序輸入輸出V
C.稀缺矩陣
。優(yōu)化
79.()會發(fā)生權(quán)重共享。[單選題]*
A卷積神經(jīng)網(wǎng)絡(luò)
B.循環(huán)神經(jīng)網(wǎng)絡(luò)
C.全連接神經(jīng)網(wǎng)絡(luò)
D.A、BV
83.()不是Scipy庫中的模塊0[單選題]*
A.cluster
B.randomV
C.signal
D.misc
81.卷積的過程是讓過濾器在圖像上進(jìn)行()。[單選題]*
A縮放
B.剪切
C.窗口滑動V
。.鏡像對稱
82一元線性回歸方程戶0.7+0.82X,判定系數(shù)等于0.64廁尤與V的相關(guān)系數(shù)為().[單選題]*
A.0.82
B.0.64
C.0.8V
C.0.7
83.下列關(guān)于等距離散化和等頻離散化的敘述不正確的是()。[單選題]*
A等距離散化是將連續(xù)型特征的取值X間均勻地劃分成多個(gè)區(qū)間段
B.等距離散化對數(shù)據(jù)離群值不敏感V
C等頻離散化考慮了區(qū)間段中的樣本個(gè)數(shù),使每個(gè)區(qū)間段的樣本數(shù)相同
C.等頻離散化會將相似的樣本劃分到不同的區(qū)間
84.運(yùn)行下面代碼的輸出結(jié)果為()arr=np.array([1,5,3])arrl=np.array([2,4,6])print(arr
<arrl)[單選題]*
A.TRUE
B.FALSE
C.[Ture,False,Ture]V
C.([Ture,Ture,Ture])
85.下列不屬于模型集成方法的是([單選題]*
A.直接集成法
B.增強(qiáng)法
C.堆疊法
。.遞歸法V
86.如果要清空文件,需要使用的命令是()。[單選題]*
A.close()
B.seek(0)
C.truncate(0)7
D.write('stuff')
87.大數(shù)據(jù)應(yīng)用需依托的新技術(shù)有()。[單選題]*
A大規(guī)模并行處理
B.數(shù)據(jù)分析處理
C.智能化
。.三個(gè)選項(xiàng)都是,
8B.運(yùn)行下面代碼的輸出結(jié)果為()0importnumpyasnpa=np.arange(4)b=a[:]a[l]=9print(a)
print(b)[單選題]*
A.[0,1,2,3][0,1,2,3]
B.[l,9.3,4][1,2,3,4]
C.[0,9,2,3][0,9,2,3]V
C.[0,9,2,3][0,1,2,3]
89.下列關(guān)于欠擬合(under-fitting)的說法正確的是()。[單選題]*
A訓(xùn)練誤差較大.測試誤差較小
B.訓(xùn)練誤差較小.測試誤差較大
C.訓(xùn)練誤差較大.測試誤差較大V
。?訓(xùn)練誤差較小.測試誤差較小
93.對air二叩.arange(9).reshape(3,3),反轉(zhuǎn)二維數(shù)組air的行進(jìn)行的操作是()o[單選題]*
A.arr[::-1]V
B.arr[::-2]
C.arr[::1]
D.arr[::0]
91.Adaboost的核心思想是()。[單選題]*
A給定一個(gè)弱學(xué)習(xí)算法和一個(gè)訓(xùn)練集將該學(xué)習(xí)算法使用多次得出預(yù)測函數(shù)序列.進(jìn)行投票
B.針對同一個(gè)訓(xùn)練集訓(xùn)練不同的弱分類器并集合起來.構(gòu)成一個(gè)強(qiáng)分類器V
C.利用多棵樹對樣本進(jìn)行訓(xùn)練并預(yù)測的一種分類器
口基于前向策略的加法模型.每階段使用一個(gè)基模型去擬合上一階段基模型的殘差
92.下列不屬于特征選擇的標(biāo)準(zhǔn)方法的是()。f單選題]*
A嵌入
B.過濾
C.包裹
。.抽樣V
93.與HMM和MEMM模型相比,CRF模型的優(yōu)勢不包含()。[單選題*
A.特征靈活
B.速度快V
C.可容納較多上下文信息
。.全局最優(yōu)
94.后剪枝是先從訓(xùn)練集生成一顆完整的決策樹,然后()對非葉結(jié)點(diǎn)進(jìn)行考察。[單選題]*
A.自上而下
B.在劃分前
C.禁止分支展開
。.自底向上V
95.下列人工神經(jīng)網(wǎng)絡(luò)屬于反饋網(wǎng)絡(luò)的是()。[單選題]*
AHopfield神經(jīng)網(wǎng)格模型
B.BP網(wǎng)絡(luò)V
C.多層感知器
C.LVQ網(wǎng)絡(luò)
96以P(w)表示詞條w的概率,假設(shè)已知P(南京)=0.8,F(市長)=0.6,F(江大橋)=0.4;尸
(南京巾)=0.3,獨(dú)立的,那么分詞結(jié)果就是()。[單選題]*
A南京市*長江*大橋
B..南京*市長*江大橋V
C.南京市長*江大橋
97.下列關(guān)于。LAP的特性的描述:①快速性;②可分析性;③多維性;④信息性;⑤共享性。正確的是
()0[單選題]*
A.3X2X3)
B.②③?
c.?2X3)@
D.?2)3)3)@V
9B.常用的數(shù)據(jù)歸約方法可以分為(),[單選題]*
A.維歸約、數(shù)據(jù)壓縮
B.維歸約、參數(shù)歸約
C.維歸約、值歸約V
D.數(shù)據(jù)壓縮、值歸約
99.下列處理方法能獲得像素級標(biāo)注的是()。[單選題]*
A圖像分類
B.物體檢測
C.圖像去噪
。.語義分割V
100.在抽樣估計(jì)中,隨著樣本容量的增大,樣本統(tǒng)計(jì)量接近總體參數(shù)的概率就越大,這一性質(zhì)稱為()。
[單選題]*
A無偏性
B.有效性
C.及時(shí)性
D.一致性V
101.scipy.stats.fit()函數(shù)的作用是()<>[單選題]*
A.隨機(jī)變量的生存函數(shù)
B.對數(shù)據(jù)進(jìn)行擬合,找出最適合采樣數(shù)據(jù)的概率密度函數(shù)系數(shù)V
C.計(jì)算隨機(jī)變量的期望和方差
C.隨機(jī)變量的概率密度函數(shù)
102.ResNet-50有多少個(gè)卷積層()。[單選題]*
A.48
B.49V
C.50
C.51
133.下列關(guān)于文件的打開方式的描述正確的是()[單選題]*
A文件只能選擇二進(jìn)制或文本方式打開
B.文本文件只能以文本方式打開
C.所有文件都可能以文本方式打開
。.所有文件都可能以二進(jìn)制方式打開v
.長短時(shí)記憶網(wǎng)絡(luò)屬于一種(jo[單選題]*
A全連接神經(jīng)網(wǎng)絡(luò)
B.門控RNNV
C.BP神經(jīng)網(wǎng)絡(luò)
D.雙向RNN
135.下列函數(shù)中可以計(jì)算字典元素個(gè)數(shù)的是()。[單選題]*
A.cmp()
B.len()V
C.str()
C.type()
136.考察一個(gè)由三個(gè)卷積層組成的CNN:kemel=3x3,stride=21padding=SAMEo最低層輸出100個(gè)特
征映射(featuremap),中間層200個(gè)特征映射,最高層400個(gè)特征映射°輸入是200x300的RGB圖片,則
總參數(shù)的數(shù)量是()。[單選題]*
A.903400V
B.2800
C.180200
C.720400
107.異常檢測過程查找基于()組標(biāo)準(zhǔn)值偏差的異常個(gè)案。[單選題]*
A單體
B,分類
C聚類V
D.回歸
138.下列關(guān)于縮進(jìn)格式的描述不正確的是()[單選題]*
A.縮進(jìn)指在代碼行前面添加空格或Tcb
B.在Python程序中,縮進(jìn)不是任意的
C.縮進(jìn)可以使程序更有層次感、結(jié)構(gòu)感,從而使程序更易讀
。.平級的語句行(代碼塊)的縮進(jìn)可以不相同V
109.Scipy中模塊stats的作用是()。[單選題]*
A.統(tǒng)計(jì)V
B.差值計(jì)算
C.程序輸入輸出
。.稀疏矩陣
110.LSTM網(wǎng)絡(luò)引入門控機(jī)制來控制信息傳遞的路徑,其中輸入門的作用是()o[單選題]*
A控制上一個(gè)時(shí)刻的內(nèi)部狀態(tài)需要遺忘多少信息
B.控制上一個(gè)時(shí)刻的內(nèi)部狀態(tài)有多少信息需要保存
C.控制當(dāng)前當(dāng)刻的候選狀態(tài)有多少信息需要保存V
。.控制當(dāng)前當(dāng)刻的內(nèi)部狀態(tài)有多少信息需要輸出給外部狀態(tài)
111.下列關(guān)于支持向量的說法正確的是()。[單選題]*
A到分類超平面的距離最近的且滿足一定條件的幾個(gè)訓(xùn)練樣本點(diǎn)是支持向量V
B.訓(xùn)練集中的所有樣本點(diǎn)都是支持向量
C.每一類樣本集中都分別只有一個(gè)支持向量
D.支持向量的個(gè)數(shù)越多越好
112.運(yùn)行下面代碼,輸出結(jié)果是()。d={-2,-1,0,1,2.3}n=d.pop?)print(n)[單選題]*
A.-2
B.2
C.不確定V
D.3
113.執(zhí)行下列代碼后,Iist2的值是()e[單選題]*
A.[4,5,6]
B.[4,3,6]
C.[4,5,3]V
D.以上答案都不正確
114.Spark的()組件用于支持實(shí)時(shí)計(jì)算需求。[單選題]*
A.SparkSQL
B.SparkStreamingV
C.SparkGraphX
C.SparkMLLib
ns執(zhí)行一個(gè)job,如果這個(gè)job的輸巴路徑已經(jīng)存在,那么程序會()0[單選題]*
A覆蓋這個(gè)輸出路徑
B.拋出警告,但是能夠繼續(xù)執(zhí)行
C.拋出一個(gè)異常,然后退出V
。.創(chuàng)建一個(gè)新的輸出路徑
116.下列關(guān)于數(shù)據(jù)整合和分組的說法不正確的是()。[單選題]*
A.數(shù)據(jù)連接可以用concat或merge函數(shù)
B.axis=l表示軸向連接
C.數(shù)據(jù)分組可以使用mean函數(shù)V
。.使用agg可以自定義多個(gè)聚合函數(shù)
117.如果使用數(shù)據(jù)集的全部特征并且準(zhǔn)確率能夠達(dá)到100%,但在測試集上準(zhǔn)確率僅能達(dá)到70%左右,這
說明()。[單選題]*
A欠擬合
B.模型很棒
C過擬合V
D.以上答案都不正確
118.pit.scatter()函數(shù)中的參數(shù)c表示的含義是()。[單選題]*
Ax軸上的數(shù)值
B.y軸上的數(shù)值
C.散點(diǎn)圖中的標(biāo)記顏色V
。.標(biāo)記圖形內(nèi)容的標(biāo)簽文件
119.在Python中,下列不是int整型數(shù)據(jù)的是()。[單選題卜
A160
B.010V
C.-78
D.0x234
120.下列關(guān)于Python包的說法正確的是()[單選題]*
A.利用pip包管理器更新已安裝包的代碼是pipupdate包名
B.單獨(dú)導(dǎo)入包名即可導(dǎo)入包中所包含的所有子模塊
C.下載安裝、更新、查看、移除包等行為可以在命令行中進(jìn)行,但不可以在Jupyternotebook中進(jìn)行
D.下載安裝、更新、查看、移除包等行為既可以用pip工具,也可以用8nda工具V
121.下列關(guān)于文本分類的說法不正確的是()?!竼芜x題卜
A.文本分類是指按照預(yù)先定義的主題類別,由計(jì)算機(jī)自動地為文檔集合中的每個(gè)文檔確定一個(gè)類別
B.文木分類大致可分為基于知識工程的分類系統(tǒng)和基于機(jī)器學(xué)習(xí)的分類系統(tǒng)
C文本的向量形式一般基于詞袋模型構(gòu)建,該模型考慮了文本詞語的行文順序。
。.構(gòu)建文本的向量形式可以歸結(jié)為文本的特征選擇與特征權(quán)重計(jì)算兩個(gè)步驟
122.運(yùn)行代碼,輸出結(jié)果為()。#!/usr/bin/envpython3n=100sum=0counter:lwhilecounter<=n:sum
+countercounter+=lprint("1到%d之和為:%d"%(n,sum))[單選題]*
Al到100之和為:5000
B.1至ij100之和為
C.1到100之和為:2050
C.1到100之和為:5020
123.()算法是一種挖掘關(guān)聯(lián)規(guī)則的頻繁項(xiàng)集算法,其核心思想是通過候選集生成和情節(jié)的向下封閉
檢測兩個(gè)階段來挖掘頻繁項(xiàng)集。[單選題卜
A.AprioriV
B.EM
C.PCA
D.PAC
124.下列不是目前機(jī)器學(xué)習(xí)所面臨的問題是()。[單選題]*
A.測試集的規(guī)模V
B.維度災(zāi)難
C.特征工程
口過擬合
125.假設(shè)文件不存在,如果使用。pen()打開文件會報(bào)錯,那么該文件的打開方式是()。[單選題]*
A.'r'V
B.'w'
C.'a,
C.'w,
126.下列哪個(gè)神經(jīng)網(wǎng)絡(luò)結(jié)構(gòu)會發(fā)生權(quán)重共享()。[單選題]*
A卷積神經(jīng)網(wǎng)絡(luò)
B.循環(huán)神經(jīng)網(wǎng)絡(luò)
C.全連接神經(jīng)網(wǎng)絡(luò)
D.選項(xiàng)A和BV
127.下列語句會無限循環(huán)下去的是()。[單選題]*
A.forainrange(10):timesleep(10)
B.whilei<10:timesleep(10)V
C.whileTrue:break
D.a=[3,-1,,,']foriina[:]:ifnota.break
128.下列關(guān)于數(shù)據(jù)的存儲結(jié)構(gòu)的描述正確的是()。[單選題]*
A數(shù)據(jù)所占的存儲空間量
B.存儲在外存中的數(shù)據(jù)
C.數(shù)據(jù)在計(jì)算機(jī)中的順序存儲方式
口數(shù)據(jù)的邏輯結(jié)構(gòu)在計(jì)算機(jī)中的表示V
129.PHOTO_PATH="./photo/OJpg1指令可以實(shí)現(xiàn)()[單選題]*
A復(fù)制jpg文件到photo目錄下
B.定義一個(gè)名為photo的存儲路徑V
C.打開photo里所有的jpg文件
D.重命名目錄
130.下列關(guān)于分類算法的準(zhǔn)確率、召回率、比值的描述錯誤的是()□[單選題]*
A.準(zhǔn)確率是檢索出相關(guān)文檔數(shù)與檢索出的文檔總數(shù)的比率彳肉量的是檢索系統(tǒng)的查準(zhǔn)率
B.召回率是指檢索出的相關(guān)文檔數(shù)和文檔庫中所有的相關(guān)文檔數(shù)的比率指量的是檢索系統(tǒng)的查全率
C.正確率、召回率和尸]值取值都在。和1之間.數(shù)值越接近0.查準(zhǔn)率或查全率就越高V
「.為了解決準(zhǔn)確率和召回率沖突問題引入了F]分?jǐn)?shù)
131.假設(shè)函數(shù)中不包括global保留字,則下列關(guān)于改變參數(shù)值的方法的說法錯誤的是()。[單選題]*
A參數(shù)是列表類型時(shí),改變原參數(shù)的值
B.參數(shù)的值是否改變與函數(shù)中對變量的操作有關(guān),與參數(shù)類型無關(guān)V
C參數(shù)是整數(shù)類型時(shí),不改變原參數(shù)的值
。.參數(shù)是組合類型(可變對象)時(shí),改變原參數(shù)的值
132.下列關(guān)于降維的表述錯誤的是()。[單選題]*
A降維過程中可以保留原始數(shù)據(jù)的所有信息V
B.多維縮放的目標(biāo)是要保證降維后樣本之間的距離不變
C.線性降維方法目標(biāo)是要保證降維到的超平面能更好地表示原始數(shù)據(jù)
。?核線性降維方法目標(biāo)是通過核函數(shù)和核方法來避免采樣空間投影到高維空間再降維之后的低維結(jié)構(gòu)
丟失
133.下列關(guān)于HDFS的描述正確的是([單選題卜
A.如果NameNode宕機(jī),SecondaryNameNode會接替它使集群繼續(xù)工作
B.HDFS集群支持?jǐn)?shù)據(jù)的隨機(jī)讀寫
C.NameNode磁盤元數(shù)據(jù)不保存Block的位置信息V
D.DataNode通過長連接與NameNode保持通信
工34.下列不屬于現(xiàn)階段的大數(shù)據(jù)技術(shù)體系主要類型的是()。[單選題]*
A數(shù)據(jù)源與App
B.基礎(chǔ)設(shè)施
C.HadoopV
。.數(shù)據(jù)資源
135.對分類任務(wù)來說,學(xué)習(xí)器從類別標(biāo)記集合中預(yù)測出一個(gè)標(biāo)記,最常見的結(jié)合策略是()。[單選題]
*
A投票法V
B.平均法
C.學(xué)習(xí)法
。.排序法
136.Python中Jieba庫是一個(gè)()庫。[單選題]*
A第三方中文分詞詞庫V
B.機(jī)器學(xué)習(xí)庫
C.圖像處理庫
D,自動提取語義主題
137.為了觀察測試丫與X之間的線性關(guān)系,若X是連續(xù)變量,則使用()比較適合。[單選題]*
A.散點(diǎn)圖V
B.柱形圖
C.直方圖
[:?以上答案都不正確
138.屬于卷積神經(jīng)網(wǎng)絡(luò)應(yīng)用方向的是()0[單選題]*
A.圖像分類
B.目標(biāo)檢測
C.圖像語義分割
。.以上答案都正確V
139.如果python程序中包括零運(yùn)算,解釋器將在運(yùn)行時(shí)拋出()錯誤信息。[單選題]*
A.NameError
B.FileNotFoundError
C.SyntaxError
D.ZeroDivisionErrorV
140.針對以下數(shù)組,從一個(gè)數(shù)組中移除存在于另一個(gè)數(shù)組中的項(xiàng)時(shí)可進(jìn)行的操作是()。a=np.array
([1,2,3,4,5])b=np.array([5,6,7,8,9])期望輸出:array([1,2,3,4])[單選題]*
A.np.setdiffld(a,b)V
B.setdiffId(a)
C.setdiffId(b)
D.以上都不對
141.情感信息抽取不包括()。[單選題]*
A基于命名實(shí)體識別的抽取方法
B.基于重復(fù)段落的識別方法V
C.基于語義角色標(biāo)注的抽取方法
D.基于監(jiān)督學(xué)習(xí)的抽取方法
142.運(yùn)行下面代碼的輸出結(jié)果為()oimportnumpyasnpa二np.arange(6).reshape(3,2)
wt=np.array([3,5])print(np.average(a,axis=I,weights=wt))[單選題]*
A.[[01][23][45]]
B.[0,6252.6254.625]V
C.(array([0.625,2.625,4,625]),array([8.,8.,8.]))
。.以上都不對
143.在頁面中看不見的表單元素是()。[單選題]*
A.<inputtype="password"x/input>
B.<inputtype="radio"x/input>
C.<inputtype="hidden"x/input>V
D.〈inputtype="reset',x/input>
144執(zhí)行下面程序,打開文件的位置應(yīng)該在()。仁open('itheima.txtlW)[單選題卜
A.C盤根目錄下
B.D盤根目錄下
C.Python安裝目錄下
。.與源文件在相同的目錄下V
145.下列算法中屬于圖像銳化處理的是()。[單選題卜
A低通濾波
B.加權(quán)平均法
C高通濾波V
。?中值濾波
146.HBase作為數(shù)據(jù)存儲組件封裝于大數(shù)據(jù)平臺,用于()。[單選題]*
A關(guān)系型數(shù)據(jù)庫存儲
B,分布式文件存儲
C.非關(guān)系型數(shù)據(jù)庫存儲。
。.列式存儲
147.循環(huán)神經(jīng)網(wǎng)絡(luò)適合處理的數(shù)據(jù)是()0[單選題]*
A節(jié)點(diǎn)數(shù)據(jù)
B.序列數(shù)據(jù)V
C.結(jié)構(gòu)化數(shù)據(jù)
。,圖像數(shù)據(jù)
148.下列關(guān)于副本和視圖的描述錯誤的是()。[單選題]*
ANumpy的切片操作返回原數(shù)據(jù)的視圖
B.調(diào)用Ndarray的view()函數(shù)產(chǎn)生一個(gè)視圖
C.Python序列的切片操作,調(diào)用deepCopy()函數(shù)
D.調(diào)用Ndarray的copy()函數(shù)產(chǎn)生一個(gè)視圖V
149.Numpy默認(rèn)產(chǎn)生的數(shù)據(jù)類型是()[單選題]*
Aintl6
B.float32
C.char
D.float64V
150輸入圖片大小為200200,依次經(jīng)過一層卷積(kernelsize5x5,padding1,stride2),pooling
(kernelsize3x3,padding0,stride1),又一層卷積(kernelsize3x3,padding1,stride1)之后,輸出
特征圖大小為()。[單選題]*
A.95
B.96
C.97V
D.98
151.plt.plot()函數(shù)輸入?yún)?shù)'b'修改的是圖形的()。[單選題]*
A.位置
B.大小
C形狀
D.顏色V
152.以下哪種卷積神經(jīng)網(wǎng)絡(luò)的設(shè)計(jì)引入了殘差網(wǎng)絡(luò)結(jié)構(gòu)()。[單選題]*
A.LeNet
B.AIexNet
C.GoogLeNet
D.ResNetsV
153.下列說法正確的是()。[單選題]*
A函數(shù)的名稱可以隨意命名
B.帶有默認(rèn)值的參數(shù)一定位于參數(shù)列表的末尾,
C.局部變量的作用域是整個(gè)程序
D.函數(shù)定義后,系統(tǒng)會自動執(zhí)行其內(nèi)部的功能
154.scipy.stats.isf()函數(shù)的作用是()[單選題]*
A隨機(jī)變量的生存函數(shù)
B.scipy.stats.sf()的逆V
C計(jì)算隨機(jī)變量的期望和方差
。.隨機(jī)變量的累積分布函數(shù)
155.假設(shè)使用原始的非線性可分版本的S。ft-SVM目標(biāo)函數(shù)作為最優(yōu)化對象,則可通過()來保證得
到的模型是線性可分離的?!竼芜x題1*
A.設(shè)OO
B.設(shè)C=1
c.設(shè)c正無窮大v
。.設(shè)c負(fù)無窮大
156.關(guān)于神經(jīng)網(wǎng)絡(luò)中經(jīng)典使用的優(yōu)化器,以下說法正確的是()。[單選題]*
A.Adam的收斂速度比RMSprop慢
B.相比于SGD或RMSprop等優(yōu)化器,Adam的收斂效果是最好的
C.對于輕量級神經(jīng)網(wǎng)絡(luò),使用Adam比使用RMSprop更合適
。.相比于Adam或RMSprop等優(yōu)化器,SGD的收斂效果是最好的V
157.大數(shù)據(jù)環(huán)境下的隱私擔(dān)憂,主要表現(xiàn)為()。[單選題]*
A人信息的被識別與暴露V
B.用戶畫像的生成
C.廣告的推送
。.病毒入侵
158.下列關(guān)于Ndarrayhemsize的描述錯誤的是()。[單選題]*
A以字節(jié)的形式返回?cái)?shù)組中每一個(gè)元素的大小
B.一個(gè)元素類型為float64的數(shù)組,^emsize屬性值為8
C.一個(gè)元素類型為complex32的數(shù)組,itemsize屬性為4
。.一個(gè)元素類型為complex64的數(shù)組,itemsize屬性為4V
159.單獨(dú)使用多層索引時(shí),()。[單選題卜
A最外層和最里層的索引都可以單獨(dú)使用
B.只有最外層的索引可以單獨(dú)使用V
C.不能單獨(dú)使用多層索引
(:?只有最里層的索引可以單獨(dú)使用
160.假定使用SVM學(xué)習(xí)數(shù)據(jù)X,數(shù)據(jù)X里面有些點(diǎn)存在錯誤?,F(xiàn)在如果使用一個(gè)二次核函數(shù),多項(xiàng)式
階數(shù)為2,使用松弛變量C作為超參之一。當(dāng)使用較大的C(C趨于無窮),則()。[單選題]*
A仍然能正確分類數(shù)據(jù)V
B.不能正確分類
C不確定
。.以上均不正確
161.下列關(guān)于隨機(jī)森林和GBDT的說法正確的是()。[單選題]*
A在隨機(jī)森林的單個(gè)樹中.樹和樹之間是有依賴的.而GBDT中的單個(gè)樹之間是沒有依賴的
B.這兩個(gè)模型都使用隨機(jī)特征子集.來生成許多單個(gè)的樹V
C我們可以并行地生成GBDT單個(gè)樹.因?yàn)樗鼈冎g是沒有依賴的
C.GBDT訓(xùn)練模型的表現(xiàn)總是比隨機(jī)森林好
162.一個(gè)MapReduce程序中的MapTask的個(gè)數(shù)由()決定。[單選題]*
A.輸入的總文件數(shù)
B.客戶端程序設(shè)置的mapTask的個(gè)數(shù)
C.FilelnputFormat.getSplits(JobContextjob)計(jì)算出的邏輯切片的數(shù)量V
。.輸入的總文件大小/數(shù)據(jù)塊大小
163.數(shù)據(jù)集成的基本類型是()。[單選題]*
A內(nèi)容集成、結(jié)構(gòu)集成V
B.內(nèi)容集成、規(guī)約集成
C.規(guī)約集成、結(jié)構(gòu)集成
口模式集成、結(jié)構(gòu)集成
164.對矩陣0,3],[1,1,0],[0,2,1;,[1.0,2]]進(jìn)行獨(dú)熱編碼訓(xùn)練后,對矩陣[[0,1,3]]進(jìn)行獨(dú)熱編碼輸
出結(jié)果為()。[單選題]*
A.[0,1,0,1,0,0,0,1,0]
B.[1,0,0,1,0,0,0,0,1]V
C.[0t1,0,0,1,0,0,0,1]
c.[1,o,0,0,1,0,0,1,0]
165.下列關(guān)于降維算法中主成分分析的說法錯誤的是()。[單選題]*
A有監(jiān)督算法V
B.可以指定降維的維度
C.基于方差來計(jì)算
D.根據(jù)特征值大小來篩選特征
166.在情感分析中不屬于影響詞的是()。[單選題]*
A.識別V
B.開心
C.難過
。?無聊
167.下列關(guān)于python的類的說法錯誤的是()。[單選題]*
A類的實(shí)例方法必須創(chuàng)建對象后才可以調(diào)用
B.類的實(shí)例方法必須創(chuàng)建對象前才可以調(diào)用V
C.類的類方法可以用對象和類名來調(diào)用
口類的靜態(tài)屬性可以用類名和對象來調(diào)用
168.下列關(guān)于Python注釋的描述錯誤的是()。[單選題]*
APython注釋語句不被解釋器過濾掉,也不被執(zhí)行V
B.注釋可以輔助程序調(diào)試
C.注釋可用于標(biāo)明作者和版權(quán)信息
[:?注釋用于解釋代碼原理或者用途
169.下列說法錯誤的是()。[單選題]*
A當(dāng)目標(biāo)函數(shù)是凸函數(shù)時(shí)梯度下降算法的解一般就是全局最優(yōu)解
B.進(jìn)行PCA降維時(shí).需要計(jì)算協(xié)方差矩陣
C.沿負(fù)梯度的方向一定是最優(yōu)的方向V
D.利用拉格朗日函數(shù)能解帶約束的優(yōu)化問題
170.HadoopMapReduce2.0()負(fù)責(zé)資源的管理和調(diào)度。[單選題]*
A.JobTracker
B.YARNV
C.TaskTracker
C.ApplicationMaster
171.下列關(guān)于函數(shù)的關(guān)鍵字參數(shù)使用限制的描述錯誤的是()。[單選題]*
A關(guān)鍵字參數(shù)必須位于位置參數(shù)之前V
B.不得重復(fù)提供實(shí)際參數(shù)
C關(guān)鍵字參數(shù)必須位于位置參數(shù)之后
。?關(guān)鍵字參數(shù)順序無限制
172.線性模型中的權(quán)重w可以看做各個(gè)屬性工的()。[單選題]*
A正則化系數(shù)
B.對最終決策結(jié)果的貢獻(xiàn)度V
C.高維映射
C.取值
173.下列不是N°SQL數(shù)據(jù)庫的是()。[單選題]*
A.MongoDB
B.BigTable
C.Hbase
0.AccessV
174.運(yùn)行下面代碼的輸出結(jié)果為()oa=np.array([[5,3,2],[2,4,0]])n=np.sort(a,axis=None)
print(n)[單選題]*
A.[0,2,2,3,4,5]V
B.[5,4,3,2,2,0]
C.[[2,3,0],[5,4,2]]
C.[[2,3,5],[0,2,4]]
175.隨著集成中個(gè)體分類器(相互獨(dú)立)數(shù)目T的增大,集成的錯誤率將呈()下降,最終趨向于零。
[單選題]*
A.指數(shù)級V
B.對數(shù)級
C.線性級
。?平方級
176.在Python中,導(dǎo)入random包后random.random()可能的運(yùn)行結(jié)果為()。[單選題]*
A1
B.4.06364700016475
C.0.0965639318571762V
D.-0.885155622826353
177.緩解過擬合的一個(gè)辦法是允許支持向量機(jī)在一些樣本上出錯,()形式適合這種方法。[單選題卜
A.硬間隔支持向量機(jī)
B.軟間隔支持向量機(jī)V
C.線性核函數(shù)支持向量機(jī)
。.多項(xiàng)式核函數(shù)支持向量機(jī)
178.下列關(guān)于數(shù)據(jù)轉(zhuǎn)換的說法正確的是()。[單選題]*
AJson內(nèi)的取值只能有統(tǒng)一格式
B.PDF文件在不同平臺上打開顯示不同
C.可以通過Python將CSV文件轉(zhuǎn)換成Excel格式V
□.Excel存儲數(shù)據(jù)的量無限制
179.scipy.io模塊不可以讀?。ǎ?。[單選題]*
A.matlab文件
B.IDL文件
C.wav文件
D.CSV文件V
180.Hive的數(shù)據(jù)最終存儲在()中。[單選題]*
A.HDFSV
B.HBase
CRDBMS
D.MetaStore
181.下列關(guān)于在回歸分析中解釋變量與非解釋變量的說法正確的是()。[單選題]*
A.解釋變量和被解釋變量都是隨機(jī)變量
B.解釋變量為非隨機(jī)變量,被解釋變量為隨機(jī)變量V
C解釋變量和被解釋變量都為非隨機(jī)變量
。.解釋變量為隨機(jī)變量,被解釋變量為非隨機(jī)變量
182.通常落伍者是影響MapReduce總執(zhí)行時(shí)間的主要影響因素之一,為此MapReduce采用()機(jī)制
來解決。[單選題卜
A.分布式計(jì)算
B.惰性計(jì)算
C.推測性執(zhí)行的任務(wù)備份V
。.先進(jìn)先出
1B3.如果說線性回歸模型完美地?cái)M合了訓(xùn)練樣本(訓(xùn)練樣本誤差為零),則下列說法正確的是()。[單
選題]*
A.測試樣本誤差始終為零
B.測試樣本誤差不可能為零
C測試樣本誤差不一定為零V
。.以上答案都不對
184.下列算法中屬于局部處理的是()。[單選題]*
A灰度線性變換
B.二值化
C.傅里葉變換
。?中值濾波V
185.對文本數(shù)據(jù)處理通常采用()核函數(shù)。[單選題卜
A多項(xiàng)式
B.Sigmoid
C.線性V
。?拉普拉斯
186.特征工程的目的是()。[單選題]*
A找到最合適的算法
B得到最好的輸入數(shù)據(jù)V
C.減低模型復(fù)雜度
D.加快計(jì)算速度
1B7.已知數(shù)組
溫馨提示
- 1. 本站所有資源如無特殊說明,都需要本地電腦安裝OFFICE2007和PDF閱讀器。圖紙軟件為CAD,CAXA,PROE,UG,SolidWorks等.壓縮文件請下載最新的WinRAR軟件解壓。
- 2. 本站的文檔不包含任何第三方提供的附件圖紙等,如果需要附件,請聯(lián)系上傳者。文件的所有權(quán)益歸上傳用戶所有。
- 3. 本站RAR壓縮包中若帶圖紙,網(wǎng)頁內(nèi)容里面會有圖紙預(yù)覽,若沒有圖紙預(yù)覽就沒有圖紙。
- 4. 未經(jīng)權(quán)益所有人同意不得將文件中的內(nèi)容挪作商業(yè)或盈利用途。
- 5. 人人文庫網(wǎng)僅提供信息存儲空間,僅對用戶上傳內(nèi)容的表現(xiàn)方式做保護(hù)處理,對用戶上傳分享的文檔內(nèi)容本身不做任何修改或編輯,并不能對任何下載內(nèi)容負(fù)責(zé)。
- 6. 下載文件中如有侵權(quán)或不適當(dāng)內(nèi)容,請與我們聯(lián)系,我們立即糾正。
- 7. 本站不保證下載資源的準(zhǔn)確性、安全性和完整性, 同時(shí)也不承擔(dān)用戶因使用這些下載資源對自己和他人造成任何形式的傷害或損失。
最新文檔
- 插畫頭發(fā)課程設(shè)計(jì)思路
- 天氣預(yù)報(bào) app 課程設(shè)計(jì) 北大
- 現(xiàn)場施工管理課程設(shè)計(jì)
- 2025版新能源汽車充電樁建設(shè)清單合同2篇
- 組成原理課程設(shè)計(jì)張劍妹
- 【蘇教版】2023-2024學(xué)年五年級科學(xué)上冊期末模擬試卷12
- 2025版綠色環(huán)保物流運(yùn)營承包合同3篇
- 紙巾主題課程設(shè)計(jì)
- 2025版全新裝修公寓租賃協(xié)議書合同3篇
- 水污染課程設(shè)計(jì)結(jié)語
- SF-36生活質(zhì)量調(diào)查表(SF-36-含評分細(xì)則)
- 廠房租賃合同范文
- 活塞的機(jī)械加工工藝規(guī)程設(shè)計(jì)
- 附表-恙蟲病流行病學(xué)個(gè)案調(diào)查表
- 宣傳片基本報(bào)價(jià)單三篇
- 中國古建筑文化與鑒賞智慧樹知到期末考試答案章節(jié)答案2024年清華大學(xué)
- 天然氣長輸管道安全培訓(xùn)
- 2024版《隱患排查標(biāo)準(zhǔn)手冊》(附檢查依據(jù))
- 2024年三門峽職業(yè)技術(shù)學(xué)院單招職業(yè)技能測試題庫及答案解析
- (高清版)DZT 0268-2014 數(shù)字地質(zhì)數(shù)據(jù)質(zhì)量檢查與評價(jià)
- 泛微協(xié)同管理平臺(e-cology)產(chǎn)品白皮書2015-V1.0
評論
0/150
提交評論