2024年數(shù)據(jù)價值挖掘技能競賽考試題庫大全-上(單選題)_第1頁
2024年數(shù)據(jù)價值挖掘技能競賽考試題庫大全-上(單選題)_第2頁
2024年數(shù)據(jù)價值挖掘技能競賽考試題庫大全-上(單選題)_第3頁
2024年數(shù)據(jù)價值挖掘技能競賽考試題庫大全-上(單選題)_第4頁
2024年數(shù)據(jù)價值挖掘技能競賽考試題庫大全-上(單選題)_第5頁
已閱讀5頁,還剩191頁未讀, 繼續(xù)免費(fèi)閱讀

下載本文檔

版權(quán)說明:本文檔由用戶提供并上傳,收益歸屬內(nèi)容提供方,若內(nèi)容存在侵權(quán),請進(jìn)行舉報或認(rèn)領(lǐng)

文檔簡介

PAGEPAGE12024年數(shù)據(jù)價值挖掘技能競賽考試題庫大全-上(單選題匯總)一、單選題1.平滑圖像處理可以采用RGB彩色()模型。A、直方圖均衡化B、直方圖均衡化C、加權(quán)均值濾波D、中值濾波答案:C2.()是指對于數(shù)據(jù)局部不良行為的非敏感性,它是探索性分析追求的主要目標(biāo)之一。A、魯棒性B、穩(wěn)定性C、可靠性D、耐抗性答案:D3.對Python的sys模塊常用方法的描述,錯誤的是()。A、sys.argv命令行參數(shù)List,第一個元素是程序本身路徑B、sys.modules.keys)返回所有字典中的keysC、sys.exc_info)獲取當(dāng)前正在處理的異常類D、sys.exit(n)退出程序答案:B4.對于PCA處理后的特征,其樸素貝葉斯特征相互獨(dú)立的假設(shè)一定成立,因為所有主成分都是正交的,所以不相關(guān)。這句話()。A、正確B、錯誤C、-D、-答案:B5.pynlpir是一種常用的自然語言理解工具包,其中進(jìn)行分詞處理的函數(shù)是()。A、open()B、segment()C、AddUserWord()D、generate()答案:B6.在matplotlib中,以下關(guān)于繪圖標(biāo)準(zhǔn)流程說法錯誤的是()。A、繪制最簡單的圖形可以不用創(chuàng)建畫布B、添加圖例可以在繪制圖形之前C、添加x軸、y軸的標(biāo)簽可以在繪制圖形之前D、修改x軸標(biāo)簽、y軸標(biāo)簽和繪制圖形沒有先后答案:B7.使用似然函數(shù)的目的是()。A、求解目標(biāo)函數(shù)B、得到最優(yōu)數(shù)據(jù)樣本C、找到最適合數(shù)據(jù)的參數(shù)D、改變目標(biāo)函數(shù)分布答案:C8.假設(shè)我們使用原始的非線性可分版本的Soft-SVM優(yōu)化目標(biāo)函數(shù)。我們可通過()來保證得到的模型是線性可分離的。A、C=0B、C=1C、正無窮大D、C負(fù)無窮大答案:C9.線性回歸的基本假設(shè)不包括()。A、隨機(jī)誤差項是一個期望值為0的隨機(jī)變量B、對于解釋變量的所有觀測值,隨機(jī)誤差項有相同的方差C、隨機(jī)誤差項彼此相關(guān)D、解釋變量是確定性變量不是隨機(jī)變量,與隨機(jī)誤差項之間相互獨(dú)立答案:C10.隨機(jī)森林與Bagging中基學(xué)習(xí)器多樣性的區(qū)別是()。A、都來自樣本擾動B、都來自屬性擾動C、來自樣本擾動和自屬性擾動D、多樣本集結(jié)合答案:C11.過濾式特征選擇與學(xué)習(xí)器(),包裹式特征選擇與學(xué)習(xí)器()。A、相關(guān),相關(guān)B、相關(guān),不相關(guān)C、不相關(guān),相關(guān)D、不相關(guān),不相關(guān)答案:C12.以下代碼的輸出結(jié)果為()。A、[012345678]B、[array([0,1,2]),array([3,4,5]),array([6,7,8])]C、[array([0,1,2,3]),array([4,5,6]),array([7,8])]D、沒有正確答案答案:B13.在MapReduce計算架構(gòu)中,()組件運(yùn)行在DataNode上,具體管理本節(jié)點(diǎn)計算任務(wù)的執(zhí)行。A、ClientB、JobTrackerC、TaskTrackerD、Task答案:C14.假設(shè)我們擁有一個已完成訓(xùn)練的、用來解決車輛檢測問題的深度神經(jīng)網(wǎng)絡(luò)模型,訓(xùn)練所用的數(shù)據(jù)集由汽車和卡車的照片構(gòu)成,而訓(xùn)練目標(biāo)是檢測出每種車輛的名稱(車輛共有10種類型)?,F(xiàn)在想要使用這個模型來解決另外一個問題,問題數(shù)據(jù)集中僅包含一種車(福特野馬)而目標(biāo)變?yōu)槎ㄎ卉囕v在照片中的位置,則應(yīng)采取的方法是()。A、除去神經(jīng)網(wǎng)絡(luò)中的最后一層,凍結(jié)所有層然后重新訓(xùn)練B、對神經(jīng)網(wǎng)絡(luò)中的最后幾層進(jìn)行微調(diào),同時將最后一層(分類層)更改為回歸層C、使用新的數(shù)據(jù)集重新訓(xùn)練模型D、所有答案均不對答案:B15.scipy庫中用于物理和數(shù)學(xué)常量計算的模塊是()。A、scipy.clusterB、scipy.ioC、scipy.constantsD、scipy.linalg答案:C16.下列關(guān)于文本分類的說法不正確的是()。A、文本分類是指按照預(yù)先定義的主題類別,由計算機(jī)自動地為文檔集合中的每個文檔確定一個類別B、文本分類大致可分為基于知識工程的分類系統(tǒng)和基于機(jī)器學(xué)習(xí)的分類系統(tǒng)C、文本的向量形式一般基于詞袋模型構(gòu)建,該模型考慮了文本詞語的行文順序D、構(gòu)建文本的向量形式可以歸結(jié)為文本的特征選擇與特征權(quán)重計算兩個步驟答案:C17.圖像平滑會造成()。A、圖像邊緣模糊化B、圖像邊緣清晰化C、無影響D、以上答案都不正確答案:A18.數(shù)據(jù)產(chǎn)品開發(fā)工作之中需要特別注意的基本活動不包括()。A、創(chuàng)造性設(shè)計B、數(shù)據(jù)洞見C、虛擬化D、個性化描述答案:D19.數(shù)據(jù)倉庫是隨著時間變化的,下面的描述不正確的是()。A、數(shù)據(jù)倉庫隨時間的變化不斷增加新的數(shù)據(jù)內(nèi)容B、捕捉到的新數(shù)據(jù)會覆蓋原來的快照C、數(shù)據(jù)倉庫隨事件變化不斷刪去舊的數(shù)據(jù)內(nèi)容D、數(shù)據(jù)倉庫中包含大量的綜合數(shù)據(jù),這些綜合數(shù)據(jù)會隨著時間的變化不斷地進(jìn)行重新綜合答案:C20.()與HDFS類似。A、NTFSB、FAT32C、GFSD、EXT3答案:C21.設(shè)計為8層的卷積神經(jīng)網(wǎng)絡(luò)AlexNet網(wǎng)絡(luò)成功使用()函數(shù),其效果遠(yuǎn)遠(yuǎn)地超過了Sigmoid函數(shù)。A、ReLU函數(shù)B、sigmoid函數(shù)C、tanh函數(shù)D、sin函數(shù)答案:A22.選擇神經(jīng)網(wǎng)絡(luò)的深度時,對于下面參數(shù):①神經(jīng)網(wǎng)絡(luò)的類型(如MLP,CNN);②輸入數(shù)據(jù);③計算能力(硬件和軟件能力決定);④學(xué)習(xí)速率;⑤映射的輸出函數(shù),需要考慮的是()。A、①②③④B、②③④⑤C、都需要考慮D、①③④⑤答案:C23.()屬于SVM應(yīng)用。A、文本和超文本分類B、圖像分類C、新文章聚類D、以上均是答案:D24.有數(shù)組n=np.arange(24).reshape(2,-1,2,2),np.shape的返回結(jié)果是()。A、(2,3,2,2)B、(2,2,2,2)C、(2,4,2,2)D、(2,6,2,2)答案:A25.下列關(guān)于分詞的說法正確的是()。A、中文中句、字之間沒有空格,無法分詞B、一個句子的分詞結(jié)果是唯一的C、中文分詞是將一系列無空格間隔字符串分割成一系列單詞的過程D、分詞沒有實際應(yīng)用價值答案:C26.運(yùn)行下面的代碼,輸出結(jié)果是()。A、-2B、2C、不確定D、3答案:C27.HBase使用一個()節(jié)點(diǎn)協(xié)調(diào)管理一個或多個RegionServer從屬機(jī)。A、NameNodeB、DataNodeC、JobTrackerD、Master答案:D28.對于數(shù)據(jù)3,3,2,3,6,3,10,3,6,3,2.,得出以下結(jié)論:①這組數(shù)據(jù)的眾數(shù)是3;②這組數(shù)據(jù)的眾數(shù)與中位數(shù)的數(shù)值不相等;③這組數(shù)據(jù)的中位數(shù)與平均數(shù)的數(shù)值不相等;④這組數(shù)據(jù)的平均數(shù)與眾數(shù)的數(shù)值相等.。其中正確結(jié)論的個數(shù)為()。A、1B、2C、3D、4答案:B29.geoplot是()庫和()庫的擴(kuò)展。A、cartopy和seabornB、seaborn和matplotlibC、artopy和matplotlibD、matplotlib和ggplot2答案:C30.pyplot.pie)所畫的圖像是()。A、箱線圖B、折線圖C、直方圖D、餅圖答案:D31.下面哪個是針對下列程序,滿足期望輸出的代碼是()。A、rr%2==1B、arr[arr%2==1]C、arr[arr/2==1]D、arr[arr//2==1]答案:B32.隨著集成中個體分類器(相互獨(dú)立)數(shù)目T的增大,集成的錯誤率將呈()下降,最終趨向于零。A、指數(shù)級B、對數(shù)級C、線性級D、平方級答案:A33.以下處理能獲得像素級標(biāo)注的是()。A、圖像分類B、物體檢測C、圖像去噪D、語義分割答案:D34.對分類任務(wù)來說,學(xué)習(xí)器從類別標(biāo)記集合中預(yù)測出一個標(biāo)記,最常見的結(jié)合策略是()。A、投票法B、平均法C、學(xué)習(xí)法D、排序法答案:A35.假設(shè)你在卷積神經(jīng)網(wǎng)絡(luò)的第一層中有5個卷積核,每個卷積核尺寸為7×7,具有零填充且步幅為1。該層的輸入圖片的維度是224×224×3。那么該層輸出的維度是()。A、217x217x3B、217x217x8C、218x218x5D、220x220x7答案:C36.以下屬于圖像處理的常用方法有()。A、圖像變換B、圖像編碼壓縮C、圖像增強(qiáng)和復(fù)原D、以上答案都正確答案:D37.下列關(guān)于TF-IDF說法正確的是()。A、該值與特征項在文檔中出現(xiàn)的頻率成反比B、該值與特征項在文檔中出現(xiàn)的頻率成正比C、該值與在整個語料庫中出現(xiàn)該特征項的文檔庫成正比D、該值與特征項在文檔中出現(xiàn)的頻率無關(guān)答案:B38.在matplotlib中,在當(dāng)前圖形上添加一個子圖需要用到哪個的方法是()。A、plt.stackplot)B、plt.suptitle)C、plt.subplot)D、plt.imshow)答案:C39.()的本質(zhì)是將低層次數(shù)據(jù)轉(zhuǎn)換為高層次數(shù)據(jù)的過程。A、數(shù)據(jù)處理B、數(shù)據(jù)計算C、數(shù)據(jù)加工D、整齊數(shù)據(jù)答案:C40.()是指為最小化總體風(fēng)險,只需在每個樣本上選擇能使特定條件風(fēng)險最小的類別標(biāo)記。A、支持向量機(jī)B、間隔最大化C、線性分類器D、貝葉斯判定準(zhǔn)則答案:D41.Numpy.array數(shù)組的簡稱是()。A、rrayB、nparrayC、NdarrayD、pyarray答案:C42.以下代碼的輸出結(jié)果為()。A、[101001000]B、[100100001000000]C、[123]D、[10100001000000000]答案:B43.()是基于規(guī)則的分類器。A、C4.5B、KNNC、NaiveBayesD、ANN答案:A44.一切皆可連,任何數(shù)據(jù)之間邏輯上都有可能存在聯(lián)系,這體現(xiàn)了大數(shù)據(jù)思維維度中的()。A、定量思維B、相關(guān)思維C、因果思維D、檢驗思維答案:B45.屬于深度學(xué)習(xí)框架的是()。A、TensorflowB、CaffeC、PyTorchD、以上答案都正確答案:D46.下面代碼print(0.1+0.2==0.3)的輸出結(jié)果是()。A、TRUEB、FALSEC、TRUED、FALSE答案:B47.列表中可以放多少()個字符串()。A、1B、255C、無限個D、由用戶自己定義答案:C48.關(guān)于Hive說法正確的是()。A、一種數(shù)據(jù)倉庫B、一種數(shù)據(jù)處理工具C、一種可視化工具D、一種分析算法答案:A49.Numpy中確定隨機(jī)數(shù)生成種子使用以下哪個的函數(shù)是()。A、np.random)B、np.random.seed)C、np.uniform)D、np.eig)答案:B50.隨機(jī)森林中的隨機(jī)是指()。A、隨便構(gòu)建樹模B、隨機(jī)選擇一個樹模型C、隨機(jī)選擇多個樹模型D、在構(gòu)建每個樹模型時隨機(jī)選擇樣本和特征答案:D51.客戶端從HDFS上讀取數(shù)據(jù)時會()。A、從NameNode上獲取數(shù)據(jù)B、從DataNode上獲取Block位置C、從NameNode上獲取Block位置D、從NameNode上獲取數(shù)據(jù)和Block位置答案:C52.()是表示數(shù)據(jù)分布是否為對稱性的統(tǒng)計量。A、方差B、中位數(shù)C、偏態(tài)D、峰態(tài)答案:C53.下列關(guān)于Python全局變量和局部變量的描述,不正確的是()。A、local關(guān)鍵字用于定義局部變量,global關(guān)鍵字用于定義全局變量B、關(guān)鍵字local定義的變量僅在該函數(shù)內(nèi)可見C、關(guān)鍵字global定義全局變量時必須自成一行D、nonlocal變量不可以在內(nèi)嵌函數(shù)中使用答案:D54.以下關(guān)于Python模塊理解錯誤的有()。A、模塊是包含函數(shù)和變量的Python文件B、不可以使用.操作符訪問模塊中的函數(shù)和變量C、可以導(dǎo)入模塊中的所有類D、可以在一個模塊中導(dǎo)入另一個模塊答案:B55.MapReduce默認(rèn)的分區(qū)函數(shù)是()。A、hashB、diskC、reduceD、map答案:A56.下面算法中屬于圖像銳化處理的是()。A、低通濾波B、加權(quán)平均法C、高通濾波D、中值濾波答案:C57.在Hadoop生態(tài)系統(tǒng)中,()可以將結(jié)構(gòu)化的數(shù)據(jù)文件映射成一張數(shù)據(jù)庫表,并提供簡單的查詢語言。A、PigB、HBaseC、HiveD、MapReduce答案:C58.在linux下預(yù)裝了Python2,、Python3且默認(rèn)Python版本為Python3,下列描述可以正確啟動Python有的是()。A、在linux應(yīng)用程序Terminal,打開一個終端窗口。輸入whichPythonB、在linux應(yīng)用程序Terminal,打開一個終端窗口。輸入Python2或Python3C、在linux應(yīng)用程序Terminal,打開一個終端窗口。輸入whichPython3D、在linux應(yīng)用程序Terminal,打開一個終端窗口。輸入輸入whichPython2答案:B59.關(guān)于Hive說法正確的是()。A、一種數(shù)據(jù)倉庫B、一種數(shù)據(jù)處理工具C、一種可視化工具D、一種分析算法答案:A60.MapReduce編程模型,鍵值對<key,value>的key必須實現(xiàn)哪個接口()。A、WritableComparableB、ComparableC、WritableD、LongWritable答案:A61.a=np.array([1,0,0,3,4,5,0,8]),b=np.nonzero(a),則A、[0,3,4,5,7]B、[1,3,4,5,8]C、[03457]D、[13458]答案:A62.數(shù)據(jù)集成的基本類型是()。A、內(nèi)容集成、結(jié)構(gòu)集成B、內(nèi)容集成、規(guī)約集成C、規(guī)約集成、結(jié)構(gòu)集成D、模式集成、結(jié)構(gòu)集成答案:A63.下列()不屬于Statsmodels模塊的主要特點(diǎn)的是()。A、線性模型B、方差分析C、時間序列D、插值運(yùn)算答案:D64.對模型進(jìn)行交叉驗證可以使用以下哪種()方法()。A、learning_curve)B、cross_val_score)C、permutation_test_scoreD、validation)答案:B65.matplotlib中的step函數(shù)繪制的是什么圖()。A、階梯圖B、直方圖C、間斷條形圖D、堆積折線圖答案:A66.事務(wù)對數(shù)據(jù)對象加鎖后擁有何種控制權(quán)是由封鎖的()決定的。A、狀態(tài)B、類型C、數(shù)量D、屬性答案:B67.下列不屬于Action操作的是()。A、collectB、filterC、reduceD、count答案:B68.Spark核心層主要關(guān)注()問題。A、存儲B、計算C、傳輸D、連接答案:B69.下列關(guān)于表述數(shù)據(jù)可視化在數(shù)據(jù)科學(xué)中重要地位說法中,下列不正確的是()。A、視覺是人類獲得信息的最主要途徑B、數(shù)據(jù)可視化處理可以洞察統(tǒng)計分析無法發(fā)現(xiàn)的結(jié)構(gòu)和細(xì)節(jié)C、數(shù)據(jù)可視化處理結(jié)果的解讀對用戶知識水平的要求較高D、可視化能夠幫助人們提高理解與處理數(shù)據(jù)的效率答案:C70.K折交叉驗證器是以下哪個()方法()。A、model_selection.GroupKFold)B、model_selection.GroupShuffleSplit)C、model_selection.KFold)D、model_selection.RepeatedKFold)答案:C71.數(shù)據(jù)倉庫的最終目的是()。A、收集業(yè)務(wù)需求B、建立數(shù)據(jù)倉庫邏輯模型C、開發(fā)數(shù)據(jù)倉庫的應(yīng)用分析D、為用戶和業(yè)務(wù)部門提供決策支持答案:D72.設(shè)置圖的標(biāo)題的命令是()。A、plt.text('標(biāo)題')B、plt.legend('標(biāo)題')C、plt.xticks('標(biāo)題')D、plt.title('標(biāo)題')答案:D73.一位母親記錄了兒子3~9歲的身高,由此建立的身高與年齡的回歸直線方程為y=7.19x+73.93,據(jù)此可以預(yù)測這個孩子10歲時的身高,則正確的敘述是()。A、身高一定是145.83cmB、身高一定超過146.00cmC、身高一定高于145.00cmD、身高在145.83cm左右答案:D74.以下選項中哪個不屬于數(shù)據(jù)預(yù)處理的方法()。A、數(shù)據(jù)清洗B、數(shù)據(jù)集成C、數(shù)據(jù)變換D、數(shù)據(jù)統(tǒng)計答案:D75.如果只寫open(filename),那就是用()模式打開。A、rB、wC、aD、b答案:A76.以下選項中,正確地描述了浮點(diǎn)數(shù)0.0和整數(shù)0相同性的是()。A、它們使用相同的硬件執(zhí)行單元B、它們具有相同的數(shù)據(jù)類型C、它們具有相同的值D、它們使用相同的計算機(jī)指令處理方法答案:C77.以下關(guān)于模塊說法錯誤的是()。A、一個xx.py就是一個模塊;B、任何一個普通的xx.py文件可以作為模塊導(dǎo)入;C、模塊文件的擴(kuò)展名不一定是.py;D、運(yùn)行時會從指定的目錄搜索導(dǎo)入的模塊,如果沒有,會報錯異常答案:C78.np.setdiff1d(Ndarray1,Ndarray2)函數(shù)的作用是()。A、返回二者的交集并排序B、返回二者的并集并排序C、返回二者的差集D、返回二者的對稱差答案:C79.關(guān)于eval函數(shù),以下選項中描述錯誤的是()。A、eval函數(shù)的作用是將輸入的字符串轉(zhuǎn)為Python語句,并執(zhí)行該語句B、如果用戶希望輸入一個數(shù)字,并用程序?qū)@個數(shù)字進(jìn)行計算,可以采用eval(input(<輸入提示字符串>)組合C、執(zhí)行eval("Hello")和執(zhí)行eval("'Hello'")得到相同的結(jié)果D、eval函數(shù)的定義為:eval(source,globals=None,locals=None,/)答案:C80.以下代碼的輸出結(jié)果為()。A、[[0,2,3],[4,6,7],[8,10,11],[12,14,15]]B、[[0,1,2,3],[8,9,10,11],[12,13,14,15]]C、[[0,1,2,3],[4,5,6,7],[8,9,10,11],[12,13,14,15]]D、[[1,2,3],[5,6,7],[9,10,11],[13,14,15]]答案:C81.Matplotlib的核心是面向()。A、過程B、對象C、結(jié)果D、服務(wù)答案:B82.在Python中,函數(shù)()。A、不可以嵌套定義B、不可以嵌套調(diào)用C、不可以遞歸調(diào)用D、以上答案都不正確答案:D83.在linux下預(yù)裝了Python2,、Python3且默認(rèn)Python版本為Python3,下列描述可以正確啟動Python有的是()。A、在linux應(yīng)用程序Terminal,打開一個終端窗口。輸入whichPythonB、在linux應(yīng)用程序Terminal,打開一個終端窗口。輸入Python2或Python3C、在linux應(yīng)用程序Terminal,打開一個終端窗口。輸入whichPython3D、在linux應(yīng)用程序Terminal,打開一個終端窗口。輸入輸入whichPython2答案:B84.HadoopMapReduce2.0中,()負(fù)責(zé)資源的管理和調(diào)度。A、JobTrackerB、YARNC、TaskTrackerD、ApplicationMaster答案:B85.AGNES是一種采用()策略的層次聚類算法。A、自頂向下B、自底向上C、自左至右D、自右至左答案:B86.標(biāo)準(zhǔn)BP算法的目標(biāo)是使訓(xùn)練集上的()最小。A、累積方差B、累積誤差C、累積協(xié)方差D、累積偏差答案:B87.大數(shù)據(jù)涌現(xiàn)現(xiàn)象的形式有多種,不屬于大數(shù)據(jù)涌現(xiàn)形式的是()。A、價值涌現(xiàn)B、隱私涌現(xiàn)C、物質(zhì)涌現(xiàn)D、質(zhì)量涌現(xiàn)答案:C88.下列算法中,()更適合做時間序列建模。A、CNNB、決策樹C、LSTMD、貝葉斯算法答案:C89.Hadoop中partition()函數(shù)代表的是()。A、分區(qū)函數(shù)B、特征函數(shù)C、算法函數(shù)D、排序函數(shù)答案:A90.針對以下數(shù)組,下面哪個選項可以獲取兩個PythonNumpy數(shù)組之間的公共項的是()。A、intersect1d(a,b)B、ersect1d(a,b)C、erset(a,b)D、ersect1d(a)答案:B91.美國海軍軍官莫里通過對前人航海日志的分析,繪制了新的航海路線圖,標(biāo)明了大風(fēng)與洋流可能發(fā)生的地點(diǎn)。這體現(xiàn)了大數(shù)據(jù)分析理念中的()。A、在數(shù)據(jù)基礎(chǔ)上傾向于全體數(shù)據(jù)而不是抽樣數(shù)據(jù)B、在分析方法上更注重相關(guān)分析而不是因果分析C、在分析效果上更追究效率而不是絕對精確D、在數(shù)據(jù)規(guī)模上強(qiáng)調(diào)相對數(shù)據(jù)而不是絕對數(shù)據(jù)答案:B92.在scipyScipy中,想要生成20個服從正態(tài)分布的隨機(jī)數(shù)使用以下哪個函數(shù)()。A、stats.uniform.rvs(size=20)B、stats.norm.rvs(size=20)C、stats.beta.rvs(size=20)D、stats.poisson.rvs(size=20)答案:B93.數(shù)據(jù)的原始內(nèi)容及其備份數(shù)據(jù),是數(shù)據(jù)產(chǎn)品的研發(fā)的哪個階段()。A、零次數(shù)據(jù)B、一次數(shù)據(jù)C、二次數(shù)據(jù)D、采集數(shù)據(jù)答案:A94.多分類LDA將樣本投影到N-1維空間,N-1通常遠(yuǎn)小于數(shù)據(jù)原有的屬性數(shù),可通過這個投影來減小樣本點(diǎn)的維數(shù),且投影過程中使用了類別信息,因此LDA也常被視為一種經(jīng)典的()技術(shù)。A、無監(jiān)督特征選擇B、無監(jiān)督降維C、監(jiān)督特征選擇D、監(jiān)督降維答案:D95.()算法是一種挖掘關(guān)聯(lián)規(guī)則的頻繁項集算法,其核心思想是通過候選集生成和檢測兩個階段來挖掘頻繁項集。A、prioriB、EMC、PCAD、PAC答案:A96.以下代碼的輸出結(jié)果為()。A、[[1074][321]]B、3.5C、[]D、[7.2.]答案:B97.scipyScipy通常與下列哪個庫()同時使用()。A、pandasB、scikit-learnC、NumpyD、jieba答案:C98.數(shù)據(jù)使用環(huán)節(jié)的安全技術(shù)措施除防火墻、()、防病毒、防DDOS、漏洞檢測等網(wǎng)絡(luò)安全防護(hù)技術(shù)措施外,還需實現(xiàn)以下安全技術(shù)能力:賬號權(quán)限管理、數(shù)據(jù)安全域、數(shù)據(jù)脫敏、日志管理和審計、異常行為實時監(jiān)控和終端數(shù)據(jù)防泄漏。A、入侵檢測B、病毒檢測C、程序檢測D、進(jìn)程檢測答案:A99.協(xié)同過濾分析用戶興趣,在用戶群中找到指定用戶的相似(興趣)用戶,綜合這些用戶對某一信息的評價,形成系統(tǒng)對該指定用戶對此信息的喜好程度(),并將這些用戶喜歡的項推薦給有相似興趣的用戶。A、相似B、相同C、推薦D、預(yù)測答案:D100.下列哪些不是目前機(jī)器學(xué)習(xí)所面臨的問題是()。A、測試集的規(guī)模B、維度災(zāi)難C、特征工程D、過擬合答案:A101.下列程序打印結(jié)果為()。A、PythonB、PythC、thon’sD、Python‘sfeatures答案:B102.關(guān)于文件的打開方式,以下選項中描述正確的是()。A、文件只能選擇二進(jìn)制或文本方式打開B、文本文件只能以文本方式打開C、所有文件都可能以文本方式打開D、所有文件都可能以二進(jìn)制方式打開答案:D103.利用到每個聚類中心和的遠(yuǎn)近判斷離群值的方法,可以基于的算法為()。A、K-meansB、KNNC、SVMD、LinearRegression答案:A104.如果使用線性回歸模型,下列說法正確的是()。A、檢查異常值是很重要的,因為線性回歸對離群效應(yīng)很敏感B、線性回歸分析要求所有變量特征都必須具有正態(tài)分布C、線性回歸假設(shè)數(shù)據(jù)中基本沒有多重共線性D、以上說法都不對答案:A105.Seaborn要求原始數(shù)據(jù)的輸入類型不能是()A、DataframeB、SeriesC、NumpyD、-答案:B106.已知一組數(shù)據(jù)的協(xié)方差矩陣P,下面關(guān)于主分量說法錯誤的是()。A、主分量分析的最佳準(zhǔn)則是對一組數(shù)據(jù)進(jìn)行按一組正交基分解,在只取相同數(shù)量分量的條件下,以均方誤差計算截尾誤差最小B、在經(jīng)主分量分解后,協(xié)方差矩陣成為對角矩陣C、主分量分析就是K-L變換D、主分量是通過求協(xié)方差矩陣的特征值得到答案:C107.下列不能作為數(shù)據(jù)科學(xué)數(shù)據(jù)源的是()。A、醫(yī)院里的病歷、檢查、診斷等與健康相關(guān)的數(shù)據(jù)B、物聯(lián)網(wǎng)中涉及設(shè)備運(yùn)行情況的日志數(shù)據(jù)C、金融領(lǐng)域客戶的借款記錄以及信用情況D、個人電腦中用于備忘的日記答案:D108.對于SVM分類算法,待分樣本集中的大部分樣本不是支持向量,下列說法正確的是()。A、需要將這些樣本全部強(qiáng)制轉(zhuǎn)換為支持向量B、需要將這些樣本中可以轉(zhuǎn)化的樣本轉(zhuǎn)換為支持向量,不能轉(zhuǎn)換的直接刪除C、移去或者減少這些樣本對分類結(jié)果沒有影響D、以上都不對答案:C109.ndarry是一個通用的()數(shù)據(jù)容器。A、單維同類;B、單維多類;C、多維同類;D、多維多類;答案:C110.下列哪個()不是scipy.stats模塊中的功能()。A、連續(xù)性分布B、線性方程求解C、離散型分布D、核密度估計答案:B111.scipy中,線性模塊是以下哪個()模塊()。A、fftpackB、signalC、linalgD、ndimage答案:C112.Numpy中,利用函數(shù)自動創(chuàng)建數(shù)組不包括以下哪個的函數(shù)是()。A、range)B、ones)C、linspace)D、type)答案:D113.在matplotlib中,以下說法正確的是()。A、散點(diǎn)圖不能在子圖中繪制B、散點(diǎn)圖的x軸刻度必須為數(shù)值C、折線圖可以用作查看特征間的趨勢關(guān)系D、箱線圖可以用來查看特征間的相關(guān)關(guān)系答案:C114.如何通過代理服務(wù)器進(jìn)行爬蟲的方法是()。A、個人發(fā)送訪問請求到代理服務(wù)器,代理服務(wù)器轉(zhuǎn)發(fā)到網(wǎng)站,網(wǎng)站反饋給個人B、個人發(fā)送訪問請求到網(wǎng)站,網(wǎng)站反饋給個人,并備份訪問記錄到代理服務(wù)器C、個人發(fā)送訪問請求到代理服務(wù)器,代理服務(wù)器轉(zhuǎn)發(fā)到網(wǎng)站,網(wǎng)站反饋給代理服務(wù)器,代理服務(wù)器再發(fā)送給個人D、個人發(fā)送訪問請求到網(wǎng)站,網(wǎng)站反饋給代理服務(wù)器,個人再訪問代理服務(wù)器獲取網(wǎng)頁信息答案:C115.多分類學(xué)習(xí)中,最經(jīng)典的三種拆分策略不包括()。A、一對一B、一對其余C、一對多D、多對多答案:A116.已知數(shù)組a=np.array([[0,0,0],[10,10,10],[20,20,20],[30,30,30]])A、[[1,2,3],[10,10,10],[20,20,20],[30,30,30]]B、[[1,2,3],[0,0,0],[10,10,10],[20,20,20],[30,30,30]]C、[[1,2,3],[11,12,13],[21,22,23],[31,32,33]]D、無法計算答案:C117.使用pyplot.plot畫圖時,x,、y的參數(shù)的值的數(shù)據(jù)類型是()。A、charB、floatC、arrayD、ataFrame答案:C118.運(yùn)行下面的代碼,輸出結(jié)果是()。A、2B、6C、(2,3)D、(3,2)答案:B119.關(guān)于數(shù)據(jù)相關(guān)性,以下說法錯誤的是()。A、相關(guān)性體現(xiàn)了大數(shù)據(jù)的靈魂B、相關(guān)性思維實現(xiàn)了從“為什么”到“是什么”的思維轉(zhuǎn)變C、相關(guān)性關(guān)注事物的因果關(guān)系D、相關(guān)性關(guān)注事物的相關(guān)關(guān)系答案:C120.關(guān)于Logistic回歸和SVM的描述,不正確的是()。A、Logistic回歸本質(zhì)上是一種根據(jù)樣本對權(quán)值進(jìn)行極大似然估計的方法,用先驗概率的乘積代替后驗概率B、Logistic回歸的輸出就是樣本屬于正類別的概率C、SVM的目標(biāo)是找到使得訓(xùn)練數(shù)據(jù)盡可能分開且分類間隔最大的超平面,屬于結(jié)構(gòu)風(fēng)險最小化D、SVM可以通過正則化系數(shù)控制模型的復(fù)雜度,避免過擬合答案:A121.下列不屬于數(shù)據(jù)科學(xué)開源工具的是()。A、MapReduceB、ERPC、HadoopD、Spark答案:B122.關(guān)于python的類,說法錯誤的是()。A、類的實例方法必須創(chuàng)建對象后才可以調(diào)用B、類的實例方法必須創(chuàng)建對象前才可以調(diào)用C、類的類方法可以用對象和類名來調(diào)用D、類的靜態(tài)屬性可以用類名和對象來調(diào)用答案:B123.長短時記憶網(wǎng)絡(luò)屬于一種()。A、全連接神經(jīng)網(wǎng)絡(luò)B、門控RNNC、BP神經(jīng)網(wǎng)絡(luò)D、雙向RNN答案:B124.以下代碼的輸出結(jié)果為()。A、[[306570][809510][509060]]B、65C、[50.90.60.]D、[65.80.60.]答案:D125.讀代碼,請寫出程序正確的答案()。A、結(jié)果:1到100之和為:5000B、結(jié)果:1到100之和為:0C、結(jié)果:1到100之和為:2050D、結(jié)果:1到100之和為:5020答案:B126.Numpy中對數(shù)組進(jìn)行轉(zhuǎn)置的函數(shù)是哪個()。A、transpose)B、rollaxis)C、swapaxes)D、tan)答案:A127.()不屬于CRF模型對于HMM和MEMM模型的優(yōu)勢。A、特征靈活B、速度快C、可容納較多上下文信息D、全局最優(yōu)答案:B128.我們建立一個5000個特征,100萬數(shù)據(jù)的機(jī)器學(xué)習(xí)模型.我們怎么有效地應(yīng)對這樣的大數(shù)據(jù)訓(xùn)練()。A、我們隨機(jī)抽取一些樣本,在這些少量樣本之上訓(xùn)練B、我們可以試用在線機(jī)器學(xué)習(xí)算法C、我們應(yīng)用PCA算法降維,減少特征數(shù)D、以上答案都正確答案:D129.Scikit-Learn中StandardScaler是將特征數(shù)據(jù)的分布調(diào)整成(),也就是使得數(shù)據(jù)的均值為0,方差為1。A、正態(tài)分布B、泊松分布C、均勻分布D、二項分布答案:A130.sklearn中對模型進(jìn)行選擇主要是依靠()模塊。A、decompositionB、model_selectionC、linear_modelD、mixture答案:B131.如果x=5.5,則表達(dá)式x>0andx==int(x)的運(yùn)算結(jié)果為;表達(dá)式x>0orx==int(x)的運(yùn)算結(jié)果為()。A、TrueFalseB、FalseTrueC、TrueTrueD、FalseFalse答案:B132.為了降低MapReduce兩個階段之間的數(shù)據(jù)傳遞量,一般采用()函數(shù)對map階段的輸出進(jìn)行處理。A、sort()B、combiner()C、join()D、gather()答案:B133.決策樹中,同一路徑上的所有屬性之間是()關(guān)系。A、因果B、相關(guān)C、邏輯或D、邏輯與答案:D134.數(shù)據(jù)可視化是利用計算機(jī)圖形學(xué)和(),將數(shù)據(jù)轉(zhuǎn)換成圖形或圖像在屏幕上顯示出來,并進(jìn)行交互處理的理論、方法和技術(shù)。A、視覺處理技術(shù)B、視頻處理技術(shù)C、圖像處理技術(shù)D、圖片處理技術(shù)答案:C135.以下關(guān)于情感分析說法錯誤的是()。A、情感分類是一個領(lǐng)域相關(guān)的問題B、情感分類往往牽涉樣本的正負(fù)類別分布不平衡的問題C、情感分析屬于nlp范圍D、以上答案都不正確答案:D136.()不適合使用機(jī)器學(xué)習(xí)方法解決。A、判斷電子郵件是否是垃圾郵件B、判斷給定的圖中是否有環(huán)C、判斷是否給指定用戶辦理信用卡D、對滴滴拼車乘客分簇答案:B137.以下不屬于Python內(nèi)置模塊的是()。A、sysB、jsonC、osD、image答案:D138.線性判別分析在二分類問題上也稱為()。A、線性回歸B、對數(shù)幾率回歸C、Fisher判別分析D、主成分分析答案:C139.下列方法中,能夠返回某個子串在字符串中出現(xiàn)次數(shù)的是()。A、lengthB、indexC、ountD、find答案:C140.關(guān)于Python內(nèi)存管理,下列說法錯誤的是哪項()。A、變量不必事先聲明B、變量無須先創(chuàng)建和賦值而直接使用C、變量無須指定類型D、可以使用del釋放資源答案:B141.有研究發(fā)現(xiàn)“頁面的顯示速度每延遲1s,網(wǎng)站訪問量就會降低11%,從而導(dǎo)致營業(yè)額或者注冊量減少7%,顧客滿意度下降16%”。該項研究表明了()在數(shù)據(jù)產(chǎn)品開發(fā)中的重要性。A、查全率B、用戶體驗C、數(shù)據(jù)可視化D、查準(zhǔn)率答案:B142.當(dāng)()時,可以不考慮RDD序列化處理。A、完成成本比較高的操作后B、執(zhí)行容易失敗的操作之前C、RDD被重復(fù)使用D、實時性要求高答案:D143.卷積神經(jīng)網(wǎng)絡(luò)中每層卷積層(Convolutionallayer)由若干卷積單元組成,每個卷積單元的參數(shù)都是通過反向傳播算法最佳化得到,其作用是()。A、增強(qiáng)圖像B、簡化圖像C、特征提取D、圖像處理答案:C144.下列語句中,在python3中合法的語句為()。A、printHello,World!B、print'Hello,World!'C、print('Hello,World!')D、print"Hello,World!"答案:C145.以下內(nèi)容符合物體識別任務(wù)的是()。A、不能對圖像進(jìn)行壓縮或剪裁B、遵守誤差最小準(zhǔn)則和最佳近似準(zhǔn)則C、可以不指定分類的類別數(shù)量D、事先給定樣本的分布特征答案:B146.()會發(fā)生權(quán)重共享。A、卷積神經(jīng)網(wǎng)絡(luò)B、循環(huán)神經(jīng)網(wǎng)絡(luò)C、全連接神經(jīng)網(wǎng)絡(luò)D、選項A和B答案:D147.概率模型的訓(xùn)練過程就是()過程。A、分類B、聚類C、參數(shù)估計D、參數(shù)選擇答案:C148.在一個線性回歸問題中,我們使用R平方(R-Squared)來判斷擬合度。此時,如果增加一個特征,模型不變,則下面說法正確的是()。A、如果R-Squared增加,則這個特征有意義B、如果R-Squared減小,則這個特征沒有意義C、僅看R-Squared單一變量,無法確定這個特征是否有意義D、以上說法都不對答案:C149.一元線性回歸方程y=0.7+0.82x,判定系數(shù)等于0.64,則x與y的相關(guān)系數(shù)為()。A、0.82B、0.64C、0.8D、0.7答案:C150.以下算法中不屬于基于深度學(xué)習(xí)的圖像分割算法是()。A、FCNB、DeeplabC、Mask-RCNND、KNN答案:D151.檢測一元正態(tài)分布中的離群點(diǎn),屬于異常檢測中的基于()的離群點(diǎn)檢測。A、統(tǒng)計方法B、鄰近度C、密度D、聚類技術(shù)答案:A152.假設(shè)有n組數(shù)據(jù)集,每組數(shù)據(jù)集中,x的平均值都是9,x的方差都是11,y的平均值都是7.50,x與y的相關(guān)系數(shù)都是0.816,擬合的線性回歸方程都是y=3.00+0.500x。那么這n組數(shù)據(jù)集()。A、一樣B、不一樣C、無法確定是否一樣D、-答案:C153.MapReduce里面的query、sort和limit等都是針對()的操作。A、map()之前B、reduce()之前C、reduce()之后D、finalize()之后答案:A154.建立一個詞典[Alex,wants,to,go,play,football,shopping],下面的句子:Alexwantstogotoplayfootball可以用向量表示為()。A、[1,1,2,1,1,1,0]B、[1,1,2,1,1,1]C、[1,1,1,1,1,1,0]D、[1,1,1,1,1,1,1]答案:A155.執(zhí)行如下代碼:A、time庫是Python的標(biāo)準(zhǔn)庫;B、可使用time.ctime),顯示為更可讀的形式;C、time.sleep(5)推遲調(diào)用線程的運(yùn)行,單位為毫秒;D、輸出自1970年1月1日00:00:00AM以來的秒數(shù);答案:C156.假設(shè)函數(shù)中不包括global保留字,對于改變參數(shù)值的方法,以下選項中錯誤的是()。A、參數(shù)是列表類型時,改變原參數(shù)的值B、參數(shù)的值是否改變與函數(shù)中對變量的操作有關(guān),與參數(shù)類型無關(guān)C、參數(shù)是整數(shù)類型時,不改變原參數(shù)的值D、參數(shù)是組合類型(可變對象)時,改變原參數(shù)的值答案:B157.下列關(guān)于文本分類的說法不正確的是()。A、文本分類是指按照預(yù)先定義的主題類別,由計算機(jī)自動地為文檔集合中的每個文檔確定一個類別B、文本分類系統(tǒng)大致可分為基于知識工程的分類系統(tǒng)和基于機(jī)器學(xué)習(xí)的分類系統(tǒng)C、文本的向量形式一般基于詞袋模型構(gòu)建,該模型考慮了文本詞語的行文順序D、構(gòu)建文本的向量形式可以歸結(jié)為文本的特征選擇與特征權(quán)重計算兩個步驟答案:C158.可用信息增益來進(jìn)行決策樹的()。A、樹高B、葉子結(jié)點(diǎn)數(shù)C、總結(jié)點(diǎn)數(shù)D、劃分屬性選擇答案:D159.下列算法中,不屬于外推法的是()。A、移動平均法B、回歸分析法C、指數(shù)平滑法D、季節(jié)指數(shù)法答案:B160.以下關(guān)于深度學(xué)習(xí)框架的描述,正確的是()。A、Tensorflow是一款使用C++語言開發(fā)的開源數(shù)學(xué)計算軟件B、Caffe對于卷積網(wǎng)絡(luò)的支持特別好,同時提供的C++接口,也提供了matlab接口和python接口C、PyTorch的前身便是Torch,其底層和Torch框架一樣,但是使用Python重新寫了很多內(nèi)容D、以上答案都正確答案:D161.在機(jī)器學(xué)習(xí)中,不屬于常用的沖突消解策略是()。A、投票法B、排序法C、元規(guī)則法D、加權(quán)法答案:D162.如果要將讀寫位置移動到文件開頭,需要使用的命令是()。A、closeB、seek(0)C、truncateD、write('stuff')答案:B163.將一副圖像進(jìn)行分割后,分割出的區(qū)域彼此之間()重疊。A、可以B、不可以C、根據(jù)任務(wù)需要確定是否可以D、根據(jù)分割方法確定是否可以答案:B164.在深度學(xué)習(xí)中,下列對于sigmoid函數(shù)的說法,錯誤的是()。A、存在梯度爆炸的問題B、不是關(guān)于原點(diǎn)對稱C、計算exp比較耗時D、存在梯度消失的問題答案:A165.Spark的劣勢是()。A、運(yùn)算速度快B、業(yè)務(wù)實現(xiàn)需要較少代碼C、提供很多現(xiàn)成函數(shù)D、需要更多機(jī)器內(nèi)存答案:D166.矩陣相減使用以下哪種的函數(shù)是()。A、np.add)B、np.subtract)C、np.multiply)D、np.divide)答案:B167.()算法要求基學(xué)習(xí)器能對特定的數(shù)據(jù)分布進(jìn)行學(xué)習(xí),在訓(xùn)練過程的每一輪中,根據(jù)樣本分布為每個訓(xùn)練樣本重新賦予一個權(quán)重。A、BoostingB、支持向量機(jī)C、貝葉斯分類器D、神經(jīng)網(wǎng)絡(luò)答案:A168.以P(w)表示詞條w的概率,假設(shè)已知P(南京)=0.8,P(市長)=0.6,P(江大橋)=0.4;P(南京市)=0.3,P(長江大橋)=0.5。如果假設(shè)前后兩個詞的出現(xiàn)是獨(dú)立的,那么分詞結(jié)果就是()。A、南京市×長江×大橋B、南京*市長*江大橋C、南京市長*江大橋D、南京市*長江大橋答案:B169.與生成方法、半監(jiān)督SVM、圖半監(jiān)督學(xué)習(xí)等基于單學(xué)習(xí)機(jī)器利用未標(biāo)記數(shù)據(jù)不同,基于分歧的方法(disagreement-basedmethods)使用多學(xué)習(xí)器,而學(xué)習(xí)器之間的分歧(disagreement)對未標(biāo)記數(shù)據(jù)的利用至關(guān)重要。()是此類方法的重要代表。A、協(xié)同訓(xùn)練B、組合訓(xùn)練C、配合訓(xùn)練D、陪同訓(xùn)練答案:A170.在深度學(xué)習(xí)中,我們經(jīng)常會遇到收斂到localminimum,下面不屬于解決localminimum問題的方法是()。A、隨機(jī)梯度下降B、設(shè)置MomentumC、設(shè)置不同初始值D、增大batchsize答案:D171.參數(shù)估計又可分為()和區(qū)間估計。A、線型估計B、點(diǎn)估計C、回歸估計D、二維分析答案:B172.關(guān)于臟數(shù)據(jù)和亂數(shù)據(jù)的區(qū)分,以下哪種不屬于臟數(shù)據(jù)()。A、含有缺失數(shù)據(jù)B、冗余數(shù)據(jù)C、噪聲數(shù)據(jù)D、不規(guī)則形態(tài)數(shù)據(jù)答案:D173.從數(shù)據(jù)到智慧的轉(zhuǎn)換依次遞進(jìn)過程是()。A、數(shù)據(jù)、知識、信息、理解、智慧B、數(shù)據(jù)、信息、理解、知識、智慧C、數(shù)據(jù)、信息、知識、理解、智慧D、數(shù)據(jù)、理解、信息、知識、智慧答案:C174.關(guān)于數(shù)據(jù)分析,下列說法正確的是()。A、描述性分析和預(yù)測性分析是診斷性分析的基礎(chǔ)B、診斷性分析是對規(guī)范性分析的進(jìn)一步理解C、預(yù)測性分析是規(guī)范性分析的基礎(chǔ)D、規(guī)范性分析是數(shù)據(jù)分析的最高階段,可以直接產(chǎn)生產(chǎn)業(yè)價值答案:C175.()不是Spark服務(wù)層的功能。A、SQL查詢B、實時處理C、機(jī)器學(xué)習(xí)D、內(nèi)存計算答案:D176.可分解為偏差、方差與噪聲之和的是()。A、訓(xùn)練誤差(trainingerror)B、經(jīng)驗誤差(empiricalerror)C、均方誤差(meansquarederror)D、泛化誤差(generalizationerror)答案:D177.下列哪種業(yè)務(wù)場景中,不能直接使用Reducer充當(dāng)Combiner使用()A、sum求和B、max求最大值C、ount求計數(shù)D、avg求平均答案:D178.一個分布式應(yīng)用程序協(xié)調(diào)服務(wù),分布式應(yīng)用程序可以基于它實現(xiàn)同步服務(wù),配置維護(hù)和命名服務(wù)等的工具是()。A、FlumeB、ZookeeperC、StormD、SparkStreaming答案:B179.循環(huán)神經(jīng)網(wǎng)絡(luò)適合處理的數(shù)據(jù)是()。A、節(jié)點(diǎn)數(shù)據(jù)B、序列數(shù)據(jù)C、結(jié)構(gòu)化數(shù)據(jù)D、圖像數(shù)據(jù)答案:B180.當(dāng)不知道數(shù)據(jù)所帶標(biāo)簽時,可以使用()促使帶同類標(biāo)簽的數(shù)據(jù)與帶其他標(biāo)簽的數(shù)據(jù)相分離。A、分類B、聚類C、關(guān)聯(lián)分析D、隱馬爾可夫鏈答案:B181.下列關(guān)于神經(jīng)網(wǎng)絡(luò)的說法中:①增加神經(jīng)網(wǎng)絡(luò)層數(shù),可能會增加測試數(shù)據(jù)集的分類錯誤率;②減少神經(jīng)網(wǎng)絡(luò)層數(shù),總是能減小測試數(shù)據(jù)集的分類錯誤率;③增加神經(jīng)網(wǎng)絡(luò)層數(shù),總是能減小訓(xùn)練數(shù)據(jù)集的分類錯誤率,正確的是()。A、①B、①③C、①②D、②答案:A182.所有預(yù)測模型在廣義上都可稱為一個或一組()。A、公式B、邏輯C、命題D、規(guī)則答案:D183.假如我們使用非線性可分的SVM目標(biāo)函數(shù)作為最優(yōu)化對象,我們怎么保證模型線性可分()。A、設(shè)C=1B、設(shè)C=0C、設(shè)C為無窮大D、以上答案都不正確答案:C184.傳統(tǒng)目標(biāo)檢測流程包括()。A、區(qū)域選擇B、特征提取C、分類器分類D、以上答案都正確答案:D185.Python中statsmodel庫和()庫關(guān)系密切。A、NumpyB、ScipyC、jiebaD、Pandaspandas答案:D186.中文同義詞替換時,常用到Word2Vec,以下說法錯誤的是()。A、Word2Vec基于概率統(tǒng)計B、Word2Vec結(jié)果符合當(dāng)前預(yù)料環(huán)境C、Word2Vec得到的都是語義上的同義詞D、Word2Vec受限于訓(xùn)練語料的數(shù)量和質(zhì)量答案:C187.執(zhí)行以下代碼段時,輸出為()。A、['honda','yamaha','suzuki']B、['yamaha','suzuki','ducati']C、['honda','yamaha','suzuki','ducati']D、['honda','suzuki','ducati']答案:D188.大數(shù)據(jù)的4V特性不包括()。A、Volume(大量)B、Velocity(高速)C、Visual(可視)D、Variety(多樣)答案:C189.()操作屬于預(yù)剪枝。A、信息增益B、計算最好的特征切分點(diǎn)C、限制樹模型的深度D、可視化樹模型答案:C190.HBase作為數(shù)據(jù)存儲組件封裝于大數(shù)據(jù)平臺,用于()存儲。A、關(guān)系型數(shù)據(jù)庫B、分布式文件C、非關(guān)系型數(shù)據(jù)庫D、列式存儲答案:C191.構(gòu)造方法的作用是()。A、一般成員方法B、類的初始化C、對象的初始化D、對象的建立答案:C192.()在訓(xùn)練的每一輪都要檢查當(dāng)前生成的基學(xué)習(xí)器是否滿足基本條件。A、支持向量機(jī)B、oosting算法C、貝葉斯分類器D、Bagging算法答案:B193.以下不屬于基于區(qū)域的圖像分割方法的是()。A、區(qū)域生長法B、分水嶺算法C、大津算法D、基于圖論的分割算法答案:C194.下列關(guān)于RNN的說法,正確的是()。A、RNN可以應(yīng)用在NLP領(lǐng)域B、LSTM是RNN的一個變種C、在RNN中一個序列當(dāng)前的輸出與前面的輸出也有關(guān)D、以上答案都正確答案:D195.以下分割方法中不屬于區(qū)域算法的是()。A、分裂合并B、閾值分割C、區(qū)域生長D、邊緣檢測答案:D196.有數(shù)組arr=Numpy.array([1,,2,,3,,4]),執(zhí)行arr.dtype后輸出結(jié)果為()。A、int32B、int64C、float32D、float64答案:A197.一監(jiān)獄人臉識別準(zhǔn)入系統(tǒng)用來識別待進(jìn)入人員的身份,此系統(tǒng)識別獄警、小偷、送餐員、其他人員4種不同人員。下列學(xué)習(xí)方法最適合此種應(yīng)用需求的是()。A、二分類問題B、層次聚類問題C、多分類問題D、回歸問題答案:C198.在比較模型的擬合效果時,甲、乙、丙三個模型的相關(guān)指數(shù)R2的值分別約為0.71、0.85、0.90,則擬合效果較好的模型是()。A、甲B、乙C、丙D、效果一樣答案:C199.常用的數(shù)據(jù)歸約方法可以分為()。A、維歸約、數(shù)據(jù)壓縮B、維歸約、參數(shù)歸約C、維歸約、值歸約D、數(shù)據(jù)壓縮、值歸約答案:C200.對a=np.array([[1,2,3],[4,5,6]]),以下操作會改變數(shù)組本身形狀的是()。A、TB、a.reshape(2,3)C、a.ravel)D、a.resize)答案:D201.()不是長短時記憶神經(jīng)網(wǎng)絡(luò)三個門中的一個門。A、輸入門B、輸出門C、遺忘門D、進(jìn)化門答案:D202.以下代碼的輸出結(jié)果為()。A、[[1,2],[3,4],[1,2],[3,4]]B、[[1,2,3,4],[1,2,3,4]]C、[[1,2],[3,4]]D、[1,2,3,4,1,2,3,4]答案:A203.以下關(guān)于DNN說法不正確的是()。A、層數(shù)多B、抽象能力強(qiáng)C、模擬更復(fù)雜模型D、廣義上包含CNN、DBN、SVM等答案:D204.下列判斷錯誤的是()。A、XML數(shù)據(jù)屬于半結(jié)構(gòu)化數(shù)據(jù)B、JSON文件屬于非結(jié)構(gòu)化數(shù)據(jù)C、PPT文件屬于非結(jié)構(gòu)化數(shù)據(jù)D、音視頻文件屬于非結(jié)構(gòu)化數(shù)據(jù)答案:B205.神經(jīng)網(wǎng)絡(luò)感知機(jī)只有()神經(jīng)元進(jìn)行激活函數(shù)處理,即只擁有一層功能神經(jīng)元。A、輸出層B、輸入層C、感知層D、網(wǎng)絡(luò)層答案:A206.以下()不屬于廣義上的數(shù)據(jù)可視化技術(shù)。A、類別可視化B、科學(xué)可視化C、信息可視化D、可視分析學(xué)答案:A207.下列選項中,會輸出1,2,3三個數(shù)字的是()。A、foriinrange(3):print(i)B、foriinrange(2):print(i+1)C、a_list=[0,1,2]foriina_list:print(i+1)D、i=1whilei<3:prirt(i)i=i+1答案:C208.標(biāo)準(zhǔn)正態(tài)分布的均數(shù)與標(biāo)準(zhǔn)差是()。A、0,1B、1,0C、0,0D、1,1答案:A209.輸入圖片大小為37×37,經(jīng)過第一層卷積(thenumberoffilters=25,kernelsize=5×5,padding=valid,stride=1)與池化層maxpooling(kernelsize=3×3,padding=valid),輸出特征圖大小為()。A、10×10B、11×11C、12×12D、13×13答案:B210.對于隨機(jī)森林和GBDT,下面說法正確的是()。A、在隨機(jī)森林的單個樹中,樹和樹之間是有依賴的,而GBDT中的單個樹之間是沒有依賴的B、這兩個模型都使用隨機(jī)特征子集,來生成許多單個的樹C、我們可以并行地生成GBDT單個樹,因為它們之間是沒有依賴的D、GBDT訓(xùn)練模型的表現(xiàn)總是比隨機(jī)森林好答案:B211.()不屬于聚類性能度量外部指標(biāo)。A、Jaccard系數(shù)B、FM系數(shù)C、Rand指數(shù)D、B指數(shù)答案:D212.繪圖是如何通過()為項目設(shè)置matplotlib參數(shù)()。A、rc)B、sci)C、axes)D、sca)答案:A213.以下選項中,不是Python對文件的打開模式的是()。A、'w'B、'+'C、'c'D、'r'答案:C214.()是交叉驗證法的一種特例。A、自助法B、留一法C、交叉驗證法D、錯誤率分析答案:B215.圖像與灰度直方圖的對應(yīng)關(guān)系為()。A、一一對應(yīng)B、一對多C、多對一D、以上答案都正確答案:C216.關(guān)于函數(shù)的參數(shù),以下選項中描述錯誤的是()。A、可選參數(shù)可以定義在非可選參數(shù)的前面B、一個元組可以傳遞給帶有星號的可變參數(shù)C、在定義函數(shù)時,可以設(shè)計可變數(shù)量參數(shù),通過在參數(shù)前增加星號(*)實現(xiàn)D、在定義函數(shù)時,如果有些參數(shù)存在默認(rèn)值,可以在定義函數(shù)時直接為這些參數(shù)指定默認(rèn)值答案:A217.如果字符串中有*需要匹配,需要輸入的正則表達(dá)式為()。A、\*B、\\*C、*D、(*)答案:A218.單獨(dú)使用多層索引時,()。A、最外層和最里層的索引都可以單獨(dú)使用B、只有最外層的索引可以單獨(dú)使用C、不能單獨(dú)使用多層索引D、只有最里層的索引可以單獨(dú)使用答案:B219.一組數(shù)據(jù)中出現(xiàn)最多的變量值叫作做()。A、最大值B、平均值C、中位數(shù)D、眾數(shù)答案:D220.關(guān)于Spark的說法中,()是錯誤的。A、采用內(nèi)存計算模式B、可利用多種語言編程C、主要用于批處理D、可進(jìn)行map()操作答案:C221.在TF-IDF算法中,在計算完詞頻與逆文檔頻率后,將二者()后得到最終的結(jié)果。A、相加B、相減C、相乘D、相除答案:C222.深度學(xué)習(xí)是當(dāng)前很熱門的機(jī)器學(xué)習(xí)算法,深度學(xué)習(xí)涉及大量的矩陣相乘,現(xiàn)在需要計算三個稠密矩陣A、B、C的乘積ABC,假設(shè)三個矩陣的尺寸分別為m×n,n×p,p×q,且m<nA、(AB)CB、AC(B)C、A(BC)D、所有效率都相同答案:A223.對文本數(shù)據(jù)處理,通常采用()核函數(shù)。A、多項式B、SigmoidC、線性D、拉普拉斯答案:C224.Hive的數(shù)據(jù)最終存儲在()。A、HDFSB、HBaseC、RDBMSD、MetaStore答案:A225.matplotlib中的調(diào)用堆積折線圖的函數(shù)是什么()。A、step)B、stackplot)C、plusplot)D、hist)答案:B226.若X的值為1~~11(包含1、11),要用scipy輸出標(biāo)準(zhǔn)正態(tài)分布的概率密度函數(shù)在X=5處的值,下面哪個是正確的是()。A、scipy.stats.norm(loc=0,scale=1).pmf(5)B、scipy.stats.binorm(loc=0,scale=1).pdf(5)C、scipy.stats.binorm(loc=0,scale=1).pmf(5)D、scipy.stats.norm(loc=0,scale=1).pdf(5)答案:D227.()是以樣本統(tǒng)計量作為未知總體參數(shù)的估計量,并通過對樣本單位的實際觀察取得樣本數(shù)據(jù),計算樣本統(tǒng)計量的取值作為被估計參數(shù)的估計值。A、參數(shù)估計B、邏輯分析C、方差分析D、回歸分析答案:A228.數(shù)組允許批量計算而無須任何for循環(huán),這種特性叫()。A、矩陣化B、便捷化C、批量化D、矢失量化答案:D229.關(guān)于多層前饋神經(jīng)網(wǎng)絡(luò)的描述,錯誤的是()。A、輸出層與輸入層之間包含隱含層,且隱含層和輸出層都擁有激活函數(shù)的神經(jīng)元B、神經(jīng)元之間存在同層連接以及跨層連接C、輸入層僅僅是接收輸入,不進(jìn)行函數(shù)處理D、每層神經(jīng)元上一層與下一層全互連答案:B230.建立一個詞典[Alex,wants,to,go,play,football,shopping],下面的句子:Alexwantstogotoplayfootball可以用向量表示為()。A、[1,1,2,1,1,1,0]B、[1,1,2,1,1,1]C、[1,1,1,1,1,1,0]D、[1,1,1,1,1,1,1]答案:A231.考察一個由三個卷積層組成的CNN:kernel=3×3,stride=2,padding=SAME。最低層輸出100個特征映射(featuremap),中間層200個特征映射,最高層400個特征映射。輸入是200×300的RGB圖片,則總參數(shù)的數(shù)量是()。A、903400B、2800C、180200D、720400答案:A232.若A與B是任意的兩個事件,且P(AB)=P(A)·P(B),則可稱事件A與B()。A、等價B、互不相容C、相互獨(dú)立D、相互對立答案:C233.相關(guān)關(guān)系是一種與函數(shù)關(guān)系區(qū)別的非確定性關(guān)系,而相關(guān)分析就是研究事物或現(xiàn)象之間是否存在這種非確定性關(guān)系的統(tǒng)計方法,以下不屬于相關(guān)性分析方法的是()。A、Pearson相關(guān)系數(shù)B、Spearman秩相關(guān)系數(shù)C、Kendall相關(guān)系數(shù)D、傅里葉系數(shù)答案:D234.不屬于判別式模型的是()。A、決策樹B、P神經(jīng)網(wǎng)絡(luò)C、支持向量機(jī)D、貝葉斯答案:D235.在大規(guī)模的語料中,挖掘詞的相關(guān)性是一個重要的問題。以下不能用于確定兩個詞的相關(guān)性的是()。A、互信息B、最大熵C、卡方檢驗D、最大似然比答案:B236.Python中用()快捷鍵表示運(yùn)行當(dāng)前程序。A、Ctrl+F10B、Ctrl+Alt+F10C、Shift+F10D、Ctrl+Shift+F10答案:D237.對模型進(jìn)行超參數(shù)優(yōu)化,詳盡搜索指定參數(shù)的估計值使用以下哪種()方法()。A、ParameterGrid)B、ParameterSler)C、GridSearchCV)D、RandomizedSearchCV)答案:C238.scipy.stats中,()表示二項分布。A、gammaB、inomC、uniformD、rayleigh答案:B239.對于一個圖像識別問題(在一張照片里找出一只貓),()可以更好地解決這個問題。A、循環(huán)神經(jīng)網(wǎng)絡(luò)B、感知機(jī)C、多層感知機(jī)D、卷積神經(jīng)網(wǎng)絡(luò)答案:D240.下面關(guān)于詞袋模型的說法,錯誤的是()。A、詞袋模型使用一個多重集對文本中出現(xiàn)的單詞進(jìn)行編碼B、詞袋模型不考慮詞語原本在句子中的順序C、詞袋模型可以應(yīng)用于文檔分類和檢索,同時受到編碼信息的限制D、詞袋模型產(chǎn)生的靈感來源于包含類似單詞的文檔經(jīng)常有相似的含義答案:C241.()是Spark的核心數(shù)據(jù)結(jié)構(gòu)。A、彈性分布式數(shù)據(jù)集B、列表C、元組D、字典答案:A242.以下選項中Python用于異常處理結(jié)構(gòu)中用來捕獲特定類型的異常的保留字是()。A、exceptB、doC、passD、while答案:A243.Spark中引入RDD概念的目的是()。A、數(shù)據(jù)存儲B、數(shù)據(jù)查重C、提升容錯能力D、增強(qiáng)數(shù)據(jù)一致性答案:C244.如果規(guī)則集R中不存在兩條規(guī)則被同一條記錄觸發(fā),則稱規(guī)則集R中的規(guī)則為()。A、無序規(guī)則B、窮舉規(guī)則C、互斥規(guī)則D、有序規(guī)則答案:C245.對于兩次調(diào)用文件的write方法,以下選項中描述正確的是()。A、連續(xù)寫入的數(shù)據(jù)之間無分隔符B、連續(xù)寫入的數(shù)據(jù)之間默認(rèn)采用換行分隔C、連續(xù)寫入的數(shù)據(jù)之間默認(rèn)采用空格分隔D、連續(xù)寫入的數(shù)據(jù)之間默認(rèn)采用逗號分隔答案:A246.type(1e6)的結(jié)果為()。A、<class'int'>B、<class'float'>C、<class'complex'>D、<class'bool'>答案:B247.Spark的()組件用于支持實時計算需求。A、SparkSQLB、SparkStreamingC、SparkGraphXD、SparkMLLib答案:B248.線性回歸算法主要在sklearn中的哪個()模塊中()。A、baseB、clusterC、linear_modelD、kernel_impute答案:C249.下面哪行代碼中最適合接受系統(tǒng)輸入的一個整數(shù)是()。A、num=input)B、num=input(“6”)C、num=int(input)D、num=float(input)答案:C250.數(shù)據(jù)銷毀環(huán)節(jié)的安全技術(shù)措施有通過軟件或物理方式保障磁盤中存儲數(shù)據(jù)的()、不可恢復(fù),如數(shù)據(jù)銷毀軟件、硬盤消磁機(jī)、硬盤粉碎機(jī)等。A、暫時隔離B、暫時刪除C、永久刪除D、不做處理答案:C251.詞袋模型中的文本向量每個元素表示該詞的()。A、頻率B、順序C、含義D、語義關(guān)系答案:A252.()不是專門用于可視化時間空間數(shù)據(jù)的技術(shù)。A、等高線圖B、餅圖C、曲面圖D、矢量場圖答案:B253.在方差分析中,()反映的是樣本數(shù)據(jù)與其組平均值的差異。A、總離差B、組間誤差C、抽樣誤差D、組內(nèi)誤差答案:D254.關(guān)聯(lián)規(guī)則的評價指標(biāo)是()。A、均方誤差、均方根誤差B、Kappa統(tǒng)計、顯著性檢驗C、支持度、置信度D、平均絕對誤差、相對誤差答案:C255.以下描述中不屬于“規(guī)整數(shù)據(jù)(TidyData)”三個基本原則的是()。A、每一類觀察單元構(gòu)成一個關(guān)系(表)B、每個觀察占且僅占一行C、每個變量占且僅占一列D、每個觀察占且僅占一個關(guān)系(表)答案:D256.下列數(shù)據(jù)類型中,Numpy不支持以下哪種數(shù)據(jù)類型的是()。A、float32B、uint64C、boolD、byte答案:D257.以下()屬于數(shù)據(jù)可視化方法體系中的基礎(chǔ)方法。A、視覺編碼方法論B、視覺隱喻C、地理信息可視化D、時變數(shù)據(jù)可視化答案:B258.下列程序段n=1s=1whilen<5:s=s*nn=n+1Print(s)執(zhí)行后,輸出結(jié)果是()。n=1s=1whilen<5:s=s*nn=n+1Print(s)A、24B、10C、120D、15答案:A259.隨機(jī)試驗所有可能出現(xiàn)的結(jié)果稱為()。A、基本事件B、樣本C、全部事件D、樣本空間答案:D260.()用于將非線性引入神經(jīng)網(wǎng)絡(luò),它會將值縮小到較小的范圍內(nèi)。A、損失函數(shù)B、優(yōu)化函數(shù)C、激活函數(shù)D、目標(biāo)函數(shù)答案:C261.下列方法中,能夠讓所有單詞的首字母變成大寫的方法是()。A、capitalizeB、titleC、upperD、Ijust答案:B262.下列關(guān)于大數(shù)據(jù)的分析理念的說法中,錯誤的是()。A、在數(shù)據(jù)基礎(chǔ)上傾向于全體數(shù)據(jù)而不是抽樣數(shù)據(jù)B、在分析方法上更注重相關(guān)分析而不是因果分析C、在分析效果上更追求效率而不是絕對精確D、在數(shù)據(jù)規(guī)模上強(qiáng)調(diào)相對數(shù)據(jù)而不是絕對數(shù)據(jù)答案:D263.大數(shù)據(jù)平臺核心分布式存儲與計算組件采用Hadoop技術(shù)體系中的分布式存儲、分布式計算框架及Spark等開源產(chǎn)品和技術(shù),實現(xiàn)對數(shù)據(jù)的安全控制和管理功能,其中分布式存儲不包括()。A、HDFSB、PostgresqlC、HiveD、HBase答案:B264.python中,while的中止的關(guān)鍵字是()。A、continueB、rokenC、breakD、plug答案:C265.變量的不確定性越大,相對應(yīng)信息熵的變化是()。A、熵變小B、熵變大C、不變D、以上答案都不正確答案:B266.以等可能性為基礎(chǔ)的概率是()。A、古典概率B、經(jīng)驗概率C、試驗概率D、主觀概率答案:A267.階躍函數(shù)與sigmoid函數(shù)均為典型激活函數(shù),該說法()。A、正確B、錯誤C、-D、-答案:A268.回歸方程判定系數(shù)的計算公式R2=SSR/SST=1-SSE/SST,對判定系數(shù)描述錯誤的是()。A、式中的SSE指殘差平方和B、式中的SSR指總離差平方和C、判定系數(shù)用來衡量回歸方程的擾合優(yōu)度D、判定系數(shù)R2等于相關(guān)系數(shù)的平方答案:B269.有N個樣本,一般用于訓(xùn)練,一般用于測試。若N增大,則訓(xùn)練誤差和測試誤差之間的差距會()。A、增大B、減小C、無法確定D、無明顯變化答案:B270.下列()模塊包括用于加載和獲取流行的參考數(shù)據(jù)集的方法。A、sklearn.dataB、sklearn.datasetsC、sklearn.datasD、sklearn.datafetch答案:B271.以下字符串表示plot線條顏色、點(diǎn)的形狀和類型為紅色五角星點(diǎn)短虛線的是()。A、'bs-'B、'go-.'C、'r+-.'D、'r*-.'答案:D272.Python中用于生成隨機(jī)數(shù)的模塊是random,以下描述錯誤的是()。A、random.random):生成一個0-1之間的隨機(jī)浮點(diǎn)數(shù)B、random.uniform(a,b):生成[a,b]之間的浮點(diǎn)數(shù)C、random.randint(a,b):生成[a,b]之間的整數(shù)D、random.choice(sequence):隨機(jī)生成任意一個整數(shù)答案:D273.random庫中用于生成隨機(jī)小數(shù)的函數(shù)是()。A、random)B、randint)C、getrandbits)D、randrange)答案:A274.以下關(guān)于副本和視圖描述,錯誤的是()。A、Numpy的切片操作返回原數(shù)據(jù)的視圖B、調(diào)用Ndarray的view)函數(shù)產(chǎn)生一個視圖C、Python序列的切片操作,調(diào)用deepCopy)函數(shù)D、調(diào)用Ndarray的copy)函數(shù)產(chǎn)生一個視圖答案:D275.在數(shù)據(jù)科學(xué)項目的活動流程中,()主要回答的是“我們用什么方式記錄和展現(xiàn)數(shù)據(jù)結(jié)果”。A、數(shù)據(jù)的獲得與管理B、模式/模型的驗證和優(yōu)化C、結(jié)果的可視化與文檔化D、模式/模型的應(yīng)用及維護(hù)答案:C276.數(shù)據(jù)科學(xué)是一門以()為主要研究任務(wù)的獨(dú)立學(xué)科。A、“數(shù)據(jù)驅(qū)動”“數(shù)據(jù)業(yè)務(wù)化”“數(shù)據(jù)洞見”“數(shù)據(jù)產(chǎn)品研發(fā)”和(或)“數(shù)據(jù)生態(tài)系統(tǒng)的建設(shè)”B、數(shù)據(jù)研發(fā)C、數(shù)據(jù)處理D、數(shù)據(jù)洞見答案:A277.當(dāng)需要在字符串中使用特殊字符時,python使用()作為轉(zhuǎn)義字符。A、\B、/C、#D、%答案:A278.增加卷積核的大小對于改進(jìn)卷積神經(jīng)網(wǎng)絡(luò)的效果是必要的嗎()A、是的,增加卷積核尺寸一定能提高性能B、不是,增加核函數(shù)的大小不一定會提高性能C、-D、-答案:B279.下面說法錯誤的是()。A、可以利用統(tǒng)計量對缺失值進(jìn)行填補(bǔ)B、可以利用K近鄰值對缺失值進(jìn)行填補(bǔ)C、只要有缺失值就必須把對應(yīng)記錄刪除D、對于缺失值較多的屬性可以考慮刪除答案:C280.不屬于Mayer-Sch?nbergerV和CukierK.在其著名論著《BigData:ARevolutionThatWillTransformHowWeLive,Work,andThink》中提出了大數(shù)據(jù)時代統(tǒng)計的思維變革的是()。A、不是隨機(jī)樣本,而是全體數(shù)據(jù)B、不是精確性,而是混雜性C、不是描述性分析,而是預(yù)測性分析D、不是因果關(guān)系,而是相關(guān)關(guān)系答案:C281.常用的圖像去噪方法有()。A、高斯濾波B、中值濾波C、P-M方程去噪D、以上答案都正確答案:D282.np.floor([-1.7,1.5,-0.2,0.6,10])的輸出結(jié)果是()。A、[-1,1,0,0,10]B、[-2.,1.,-1.,0.,10.]C、[-1.,1.,-1.,0.,10.]D、[-2.,1.,0.,0.,10.]答案:B283.關(guān)于層次聚類算法:①不斷重復(fù)直到達(dá)到預(yù)設(shè)的聚類簇數(shù);②不斷合并距離最近的聚類簇;③對初始聚類簇和相應(yīng)的距離矩陣初始化;④對合并得到的聚類簇進(jìn)行更新。正確的執(zhí)行順序為()。A、①②③④B、①③②④C、③②④①D、③④①②答案:C284.以下說法正確的是()。A、一個機(jī)器學(xué)習(xí)模型如果有較高準(zhǔn)確率,總是說明這個分類器是好的B、如果增加模型復(fù)雜度,那么模型的測試錯誤率不一定會降低C、如果增加模型復(fù)雜度,那么模型的訓(xùn)練錯誤率總是會降低D、-答案:C285.下面色彩空間中,最接近人的視覺系統(tǒng)的特點(diǎn)的是()。A、RGB空間B、CMY空間C、MYK空間D、HSI空間答案:D286.Python運(yùn)算符中用來計算集合并集的是()。A、|B、&C、||D、+答案:A287.以下敘述正確的是()。A、continue語句的作用是結(jié)束整個循環(huán)的執(zhí)行B、只能在循環(huán)體內(nèi)使用break語句C、在循環(huán)體內(nèi)使用break語句或continue語句的作用相同D、從多層循環(huán)嵌套中退出時,只能使用goto語句答案:B288.當(dāng)訓(xùn)練樣本近似線性可分時,通過(),學(xué)習(xí)一個()。A、硬間隔,最大化非線性支持向量機(jī)B、軟間隔,最大化線性支持向量機(jī)C、硬間隔,最大化線性支持向量機(jī)D、軟間隔,最大化非線性支持向量機(jī)答案:B289.()是實現(xiàn)數(shù)據(jù)戰(zhàn)略的重要保障。A、數(shù)據(jù)管理B、數(shù)據(jù)分析C、數(shù)據(jù)治理D、數(shù)據(jù)規(guī)劃答案:C290.以下不屬于基于圖像灰度分布的閾值分割方法的是()。A、類間最大距離法B、最大類間方差法C、Otsu方法D、區(qū)域生長法答案:D291.直方圖均衡化適用于增強(qiáng)直方圖呈()分布的圖像。A、尖峰B、波形C、隨機(jī)D、高斯答案:A292.下列關(guān)于數(shù)據(jù)轉(zhuǎn)換,正確的是()。A、Json內(nèi)的取值只能有統(tǒng)一格式B、PDF文件在不同平臺上打開顯示不同C、可以通過Python將CSV文件轉(zhuǎn)換成Excel格式D、Excel存儲數(shù)據(jù)的量無限制答案:C293.SLIC算法的主要目的是()。A、目標(biāo)識別B、前景和背景分離C、超像素提取D、語義分割答案:C294.關(guān)于L1、L2正則化,下列說法正確的是()。A、L2正則化能防止過擬合,提升模型的泛化能力,但L1做不到這點(diǎn)B、L2正則化技術(shù)又稱為LassoRegularizationC、L1正則化得到的解更加稀疏D、L2正則化得到的解更加稀疏答案:C295.一幅數(shù)字圖像是()。A、一個觀測系統(tǒng)B、一個由許多像素排列而成的實體C、一個2-D數(shù)組中的元素D、一個3-D空間中的場景答案:C296.pipinstallscipy==1.7與pipinstallscipy兩者的區(qū)別是()。A、兩者作用一樣B、前者安裝指定版本的包,后者安裝最新版本的包C、前者安裝指定版本的包,后者安裝隨機(jī)版本的包D、以上答案都不正確答案:B297.以下代碼的輸出結(jié)果為()。A、[101001000]B、[100100001000000]C、[123]D、[10100001000000000]答案:B298.scipyScipy中的圖像處理模塊是哪個()。A、imageB、ndimageC、photoD、optimize答案:B299.以下不屬于大數(shù)據(jù)重要意義的是()。A、大數(shù)據(jù)成為推動經(jīng)濟(jì)轉(zhuǎn)型發(fā)展的新動力B、大數(shù)據(jù)成為重塑國家競爭優(yōu)勢的新機(jī)遇C、大數(shù)據(jù)成為提升政府治理能力的新途徑D、大數(shù)據(jù)會增加經(jīng)濟(jì)發(fā)展的成本答案:D300.假設(shè)你正在訓(xùn)練一個LSTM網(wǎng)絡(luò),你有一個10000詞的詞匯表,并且使用一個激活值維度為100的LSTM塊,在每一個時間步中,Γu的維度是()。A、1B、100C、300D、10000答案:B301.當(dāng)我們需要在一張圖表中加上文字標(biāo)注,達(dá)到提醒讀者的目的時,需要用到()函數(shù)。A、plt.axvspan)B、plt.axhspan)C、plt.annotate)D、plt.text)答案:D302.以下哪個數(shù)據(jù)類型中,不可以作為索引對Numpy數(shù)組進(jìn)行選取的是()。A、booleanB、tupleC、dictD、int答案:C303.scipy.stats中,()表示泊松分布。A、gammaB、poissonC、binomD、uniform答案:B304.訓(xùn)練完SVM模型后,不是支持向量的那些樣本我們可以丟掉,也可以繼續(xù)分類。該說法()。A、正確B、錯誤C、-D、-答案:A305.Spark的集群管理模式不包含()。A、Standalone模式B、Message模式C、YARN模式D、Mesos模式答案:B306.下列屬于無監(jiān)督學(xué)習(xí)的是()。

溫馨提示

  • 1. 本站所有資源如無特殊說明,都需要本地電腦安裝OFFICE2007和PDF閱讀器。圖紙軟件為CAD,CAXA,PROE,UG,SolidWorks等.壓縮文件請下載最新的WinRAR軟件解壓。
  • 2. 本站的文檔不包含任何第三方提供的附件圖紙等,如果需要附件,請聯(lián)系上傳者。文件的所有權(quán)益歸上傳用戶所有。
  • 3. 本站RAR壓縮包中若帶圖紙,網(wǎng)頁內(nèi)容里面會有圖紙預(yù)覽,若沒有圖紙預(yù)覽就沒有圖紙。
  • 4. 未經(jīng)權(quán)益所有人同意不得將文件中的內(nèi)容挪作商業(yè)或盈利用途。
  • 5. 人人文庫網(wǎng)僅提供信息存儲空間,僅對用戶上傳內(nèi)容的表現(xiàn)方式做保護(hù)處理,對用戶上傳分享的文檔內(nèi)容本身不做任何修改或編輯,并不能對任何下載內(nèi)容負(fù)責(zé)。
  • 6. 下載文件中如有侵權(quán)或不適當(dāng)內(nèi)容,請與我們聯(lián)系,我們立即糾正。
  • 7. 本站不保證下載資源的準(zhǔn)確性、安全性和完整性, 同時也不承擔(dān)用戶因使用這些下載資源對自己和他人造成任何形式的傷害或損失。

評論

0/150

提交評論