人工智能機(jī)器學(xué)習(xí)技術(shù)練習(xí)(習(xí)題卷11)_第1頁
人工智能機(jī)器學(xué)習(xí)技術(shù)練習(xí)(習(xí)題卷11)_第2頁
人工智能機(jī)器學(xué)習(xí)技術(shù)練習(xí)(習(xí)題卷11)_第3頁
人工智能機(jī)器學(xué)習(xí)技術(shù)練習(xí)(習(xí)題卷11)_第4頁
人工智能機(jī)器學(xué)習(xí)技術(shù)練習(xí)(習(xí)題卷11)_第5頁
已閱讀5頁,還剩55頁未讀, 繼續(xù)免費閱讀

下載本文檔

版權(quán)說明:本文檔由用戶提供并上傳,收益歸屬內(nèi)容提供方,若內(nèi)容存在侵權(quán),請進(jìn)行舉報或認(rèn)領(lǐng)

文檔簡介

試卷科目:人工智能機(jī)器學(xué)習(xí)技術(shù)練習(xí)人工智能機(jī)器學(xué)習(xí)技術(shù)練習(xí)(習(xí)題卷11)PAGE"pagenumber"pagenumber/SECTIONPAGES"numberofpages"numberofpages人工智能機(jī)器學(xué)習(xí)技術(shù)練習(xí)第1部分:單項選擇題,共155題,每題只有一個正確答案,多選或少選均不得分。[單選題]1.假設(shè)有n組數(shù)據(jù)集,每組數(shù)據(jù)集中,x的平均值都是9,x的方差都是11,y的平均值都是7.50,x與y的相關(guān)系數(shù)都是0.816,擬合的線性回歸方程都是y=3.00+0.500*x。那么這n組數(shù)據(jù)集是否一樣?A)一樣B)不一樣C)無法確定答案:C解析:[單選題]2.隨機(jī)森林的分類機(jī)制是()A)投票B)提升C)概率計算答案:A解析:[單選題]3.聚類屬于()A)監(jiān)督學(xué)習(xí)B)無監(jiān)督學(xué)習(xí)C)強(qiáng)化學(xué)習(xí)答案:B解析:[單選題]4.如果一個SVM模型出現(xiàn)欠擬合,那么下列哪種方法能解決這一問題?A)增大懲罰參數(shù)C的值B)減小懲罰參數(shù)C的值C)減小核系數(shù)(gamma參數(shù))答案:A解析:[單選題]5.所謂幾率,是指發(fā)生概率和不發(fā)生概率的比值。所以,拋擲一枚正常硬幣,正面朝上的幾率(odds)為多少?A)0.5B)1C)都不是答案:B解析:幾率(odds)是事件發(fā)生不發(fā)生概率的比率,正面朝上概率為1/2和反面朝上的概率都為1/2,所以幾率為1。[單選題]6.選擇哪一個解作為輸出,將由學(xué)習(xí)算法的歸納偏好決定,常見的做法是引人()。A)線性回歸B)線性判別分析C)正則化項D)偏置項答案:C解析:[單選題]7.給定初始點x0=(1,1),用最速下降法求函數(shù)f(x)=4*x1+6*x2-2*x1^2-2*x1*x2-2*x2^2的極大值,則迭代一次后x1=?A)(-1/2,1)B)(1/2,1)C)(-1,1)D)(2,1)答案:B解析:[單選題]8.半調(diào)輸出技術(shù)可以()A)改善圖像的空間分辨率B)改善圖像的幅度分辨率C)利用抖動技術(shù)實現(xiàn)D)消除虛假輪廓現(xiàn)象答案:B解析:[單選題]9.下面不屬于農(nóng)業(yè)的有(__)。A)farmersB)farmlogsC)prosperaD)uber答案:D解析:[單選題]10.第一個成功應(yīng)用的專家系統(tǒng)是()A)ELIZAB)DendralC)XconD)Deppepblue答案:B解析:[單選題]11.(__)不僅可用于多層前饋神經(jīng)網(wǎng)絡(luò),還可用于其他類型的神經(jīng)網(wǎng)絡(luò)。A)感知機(jī)B)神經(jīng)元C)神經(jīng)系統(tǒng)D)誤差逆?zhèn)鞑ゴ鸢?D解析:[單選題]12.下列選項不屬于專家系統(tǒng)底層核心部分的是()A)知識庫B)推理機(jī)C)規(guī)則庫D)決策樹答案:D解析:[單選題]13.下面關(guān)于hdfs中SecondaryNameNode描述正確的一項是()A)它是NameNode的熱備B)它對內(nèi)存沒有要求C)它的目的是幫助NameNode合并editlog,減少NameNode啟動時間D)SecondaryNameNode應(yīng)與NameNode部署到一個節(jié)點答案:C解析:[單選題]14.操作中,能夠在神經(jīng)網(wǎng)絡(luò)中引入非線性的是(A)隨機(jī)梯度下降B)ReLU函數(shù)C)卷積函數(shù)D)以上都不正確答案:B解析:[單選題]15.以下關(guān)于數(shù)據(jù)科學(xué)描述正確的是()A)數(shù)據(jù)科學(xué)是統(tǒng)計學(xué)的一部分B)數(shù)據(jù)科學(xué)就是機(jī)器學(xué)習(xí)C)天文學(xué)與數(shù)據(jù)科學(xué)無關(guān)D)數(shù)據(jù)科學(xué)家傾向于用探索數(shù)據(jù)的方式來看待周圍的世界答案:D解析:[單選題]16.以下關(guān)于大數(shù)據(jù)分析說法錯誤的是A)Python和R雖然都能用于數(shù)據(jù)分析,但它們相互獨立,不能互相調(diào)用B)云計算為大數(shù)據(jù)分析提供了便利C)數(shù)據(jù)分析可以用于銷售、營銷、客戶服務(wù)等企業(yè)應(yīng)用中D)數(shù)據(jù)分析可以用于廣告、教育、政府等特定行業(yè)應(yīng)用中答案:A解析:[單選題]17.假設(shè)NumPy數(shù)組A的原來的內(nèi)容是[[0,1,2],[3,4,5]],則命令print(A.max())的執(zhí)行結(jié)果是()。A)3B)5C)7D)9答案:B解析:[單選題]18.對于在原空間中線性不可分問題,支持向量機(jī)()。A)無法處理B)將數(shù)據(jù)映射到核空間中C)在原空間中尋找非線性函數(shù)的劃分?jǐn)?shù)據(jù)D)在原空間中尋找線性函數(shù)劃分?jǐn)?shù)據(jù)答案:B解析:[單選題]19.在有監(jiān)督學(xué)習(xí)中,我們?nèi)绾问褂镁垲惙椒?A)2和4B)1和2C)3和4D)1和3答案:B解析:我們可以為每個聚類構(gòu)建不同的模型,提高預(yù)測準(zhǔn)確率。?類別id?作為一個特征項去訓(xùn)練,可以有效地總結(jié)了數(shù)據(jù)特征。[單選題]20.以下哪種方法會增加模型的欠擬合風(fēng)險()A)添加新特征B)增加模型復(fù)雜度C)減小正則化系數(shù)D)數(shù)據(jù)增強(qiáng)答案:D解析:[單選題]21.與科學(xué)可視化相比,(__)更關(guān)注抽象且應(yīng)用層次的可視化問題。A)信息可視化B)可視化理論C)可視分析學(xué)D)數(shù)據(jù)可視化答案:A解析:[單選題]22.tf.nn.rnn_cell.BasicLSTMCell(n_hidden,forget_bias=1.0,state_is_tuple=True)函數(shù)中的參數(shù)forget_bias的含義是()。A)神經(jīng)元個數(shù)B)遺忘系數(shù)C)返回狀態(tài)D)神經(jīng)元類型答案:B解析:[單選題]23.TF-IDF與一個詞在文檔中的出現(xiàn)次數(shù)成(__)。A)正比B)反比C)無關(guān)D)冪次答案:A解析:[單選題]24.下面關(guān)于數(shù)據(jù)科學(xué)中機(jī)器學(xué)習(xí)思路相關(guān)描述不正確的有(__)。A)測試集為輸入B)機(jī)器學(xué)習(xí)算法來學(xué)習(xí)C)用函數(shù)比較算法估計目標(biāo)函數(shù)D)現(xiàn)有或部分?jǐn)?shù)據(jù)為訓(xùn)練集答案:A解析:[單選題]25.對OpenCV中的rectangle()說法正確的是()。A)可以用來繪制三角形B)可以用來繪制圓形C)可以用來繪制多邊形D)可以用來繪制矩形答案:D解析:[單選題]26.(__)在劃分屬性時是在當(dāng)前結(jié)點的屬性集合中選擇一個最優(yōu)屬性。A)AdaBoostB)RFC)BaggingD)傳統(tǒng)決策樹答案:D解析:[單選題]27.以下關(guān)于決策樹的說法錯誤的是()。A)冗余屬性不會對決策樹的精確率造成不利的影響B(tài))子樹可能在決策樹中重復(fù)多次C)決策樹對于噪聲的干擾非常敏感D)尋找最佳決策樹是NP完全問題答案:C解析:[單選題]28.(__)可以理解為對數(shù)據(jù)管理的管理。A)數(shù)據(jù)治理B)數(shù)據(jù)統(tǒng)治C)數(shù)據(jù)宰相D)數(shù)據(jù)戰(zhàn)略答案:A解析:[單選題]29.有N個樣本,一般用于訓(xùn)練,一般用于測試。若N增大,則訓(xùn)練誤差和測試誤差之間的差距會()。A)增大B)減小C)無法確定D)無明顯變化答案:B解析:增加數(shù)據(jù),能夠有效減小過擬合,減小訓(xùn)練樣本誤差和測試樣本誤差之間的差距。[單選題]30.PCA和LDA的以下比較哪些是正確的?A)1和2B)1和3C)只有3D)1、2和3答案:D解析:[單選題]31.以下幾個對直方圖規(guī)定化的兩種映射方式(SML與GML)的敘述中正確的是?A)SML的誤差一定大于GML;B)原始直方圖與規(guī)定化直方圖中的灰度級數(shù)相等時(M=N),SML的誤差一定等于GML;C)<M時,SML的誤差一定大于GML;D)SML與GML均是統(tǒng)計無偏的;答案:B解析:[單選題]32.下列關(guān)于基于層次的聚類方法的描述不正確的是()A)按照層次聚類的過程分為自底向上和自頂向下2大類方法B)如果一直重復(fù)聚類過程的話,所有的樣品最后可以歸為一類C)自底向上的聚類方法是一種分裂聚類方法D)無論類間距離采用哪種計算方法,最終都是將最小距離的2個簇合并答案:C解析:[單選題]33.聚類是一種典型的無監(jiān)督學(xué)習(xí)任務(wù),然而在現(xiàn)實聚類任務(wù)中我們往往能獲得一些額外的監(jiān)督信息,于是可通過()來利用監(jiān)督信息以獲得更好的聚類效果。A)監(jiān)督聚類B)半監(jiān)督聚類C)聚類D)直推聚類答案:B解析:[單選題]34.位勢函數(shù)法的積勢函數(shù)K(x)的作用相當(dāng)于Bayes判決中的()A)后驗概率B)先驗概率C)類概率密度D)類概率密度與先驗概率的和答案:A解析:勢函數(shù):主要用于確定分類平面,其思想源于物理D:積累勢函數(shù)K(x)的作用相當(dāng)于Bayes判決中的:后驗概率、類概率密度與先驗概率的乘積[單選題]35.()能反映出X和Y之間的強(qiáng)相關(guān)性。A)相關(guān)系數(shù)為0.9B)對于無效假設(shè),β=0的p值為0.0001C)對于無效假設(shè),β=0的t值為30D)以上說法都不對答案:A解析:相關(guān)系數(shù)反映了不同變量之間線性相關(guān)程度,取值范圍為[-1,1],值越大表示相關(guān)程度越高。因此,A選項中r=0.9,表示X和Y之間有較強(qiáng)的相關(guān)性。p和t的數(shù)值大小沒有統(tǒng)計意義,只是將其與某一個閾值進(jìn)行比對,以得到二選一的結(jié)論。[單選題]36.(__)是將特征選擇過程與學(xué)習(xí)器訓(xùn)練過程融為一體,兩者在同一個優(yōu)化過程中完成,即在學(xué)習(xí)器訓(xùn)練過程中自動地進(jìn)行了特征選擇。A)過濾式選擇B)包裹式選擇C)嵌入式選擇D)正則化答案:C解析:[單選題]37.(__)是指樣本空間中具有代表性的點。A)樣本點B)原點C)原型D)實例答案:C解析:[單選題]38.假如我們知道紋理清晰的西瓜是好瓜的概率大一些,大概是75%。如果把紋理清晰當(dāng)作一種結(jié)果,然后去推測好瓜的概率,那么這個概率P(好瓜|紋理清晰)就被稱為()A)先驗概率B)后驗概率C)條件概率D)聯(lián)合概率答案:B解析:[單選題]39.當(dāng)訓(xùn)練一個神經(jīng)網(wǎng)絡(luò)來作圖像識別任務(wù)時,通常會繪制一張訓(xùn)練集誤差和驗證集誤差圖來進(jìn)行調(diào)試。在下圖中,最好在哪個時間停止訓(xùn)練()A)AB)BC)CD)D答案:C解析:[單選題]40.在標(biāo)準(zhǔn)化公式z=中,使用e的目的是()A)為了加速收斂B)如果μ過小C)使結(jié)果更準(zhǔn)確D)防止分母為零答案:D解析:[單選題]41.向量空間模型的缺陷不包括()A)維度災(zāi)難B)模型稀疏性C)語義信息缺失D)無法計算文本相似度答案:D解析:[單選題]42.解決隱馬模型中預(yù)測問題的算法是?A)前向算法B)后向算法C)Baum-Welch算法D)維特比算法答案:D解析:[單選題]43.在圖像識別中,(__)是重中之重。A)人臉識別B)物品識別C)色彩識別D)輪廓識別答案:D解析:[單選題]44.以下不屬于人工智能在計算機(jī)視覺領(lǐng)域應(yīng)用的是______A)車站人臉識別進(jìn)站B)拍照識別植物C)醫(yī)療影像診斷D)實時字幕答案:D解析:[單選題]45.文本信息檢索的一個核心問題是文本相似度計算,將查詢條件和文本之間的相似程度數(shù)值化,從而方便比較。當(dāng)文檔和查詢都表示成向量時,可以利用向量的內(nèi)積的大小近似地表示兩個向量之間的相關(guān)程度。設(shè)有兩個文檔和查詢抽取特征和去除停用詞后分別是:文檔d1:abcafbafh文檔d2:ac查詢q:aca特征項集合為{abcdefgh}如果采用二值向量表示,那么利用內(nèi)積法計算出q和d1、d2的相似度分別是()A)1、1B)2、2C)7、2D)0、0答案:B解析:[單選題]46.LasVegasWrapper是一種典型的(__)算法。A)過濾式選擇B)嵌入式選擇C)包裹式選擇D)正則化答案:C解析:[單選題]47.下面不屬于客戶服務(wù)的有(__)。A)ravelB)medalliaC)gainsightD)frame.ai答案:A解析:[單選題]48.若svm出現(xiàn)欠擬合,以下合適的做法是A)使用更powful的kernelB)增加訓(xùn)練樣本C)使用L2正規(guī)化D)做數(shù)據(jù)增強(qiáng)答案:A解析:[單選題]49.DBSCAN在最壞情況下的時間復(fù)雜度是()。A)O(m)B)O(m^2)C)O(logm)D)O(mlogm)答案:B解析:[單選題]50.在支持向量機(jī)中,可利用(__)方法將原問題轉(zhuǎn)化為其對偶問題。A)拉格朗日乘子法B)留出法C)比較檢驗D)劃分選擇答案:A解析:[單選題]51.計算機(jī)初始狀態(tài)能識別(__)上的基本信息。A)像素點B)每個物體C)背景D)前景答案:A解析:[單選題]52.下列哪個不屬于CRF模型對于HMM和MEMM模型的優(yōu)勢()A)特征靈活B)速度快C)可容納較多上下文信息D)全局最優(yōu)答案:B解析:[單選題]53.SparkJob默認(rèn)的調(diào)度模式()。A)FIFOB)FAIRC)無D)運行時指定答案:A解析:[單選題]54.EM算法是()A)有監(jiān)督B)無監(jiān)督C)半監(jiān)督D)都不是答案:B解析:[單選題]55.關(guān)于決策樹結(jié)點劃分指標(biāo)描述正確的是A)類別非純度越大越好B)信息增益越大越好C)信息增益率越小越好D)基尼指數(shù)越大越好答案:B解析:[單選題]56.若設(shè)1.啟動,2.診斷,3.建立,4.行動,5.學(xué)習(xí),則DMM模型中的順序為(__)。A)12345B)12354C)13254D)13245答案:A解析:[單選題]57.以下對Variety相關(guān)描述不正確的是()。A)Variety是指類型多B)結(jié)構(gòu)化數(shù)據(jù)在各類數(shù)據(jù)中占比最多C)類型多是指大數(shù)據(jù)涉及多種數(shù)據(jù)D)大數(shù)據(jù)種類包括結(jié)構(gòu)化數(shù)據(jù)、非結(jié)構(gòu)化數(shù)據(jù)、半結(jié)構(gòu)化數(shù)據(jù)答案:B解析:[單選題]58.兩位同事從上海出發(fā)前往深圳出差,他們在不同時間出發(fā),搭乘的交通工具也不同,能準(zhǔn)確描述兩者?上海到深圳?距離差別的是()A)歐式距離B)余弦距離C)曼哈頓距離D)切比雪夫距離答案:D解析:①歐幾里得距離計算公式(n維空間下)二維:dis=sqrt((x1-x2)^2+(y1-y2)^2)三維:dis=sqrt((x1-x2)^2+(y1-y2)^2+(z1-z2)^2)②余弦距離:余弦相似度用向量空間中兩個向量夾角的余弦值作為衡量兩個個體間差異的大小。相比距離度量,余弦相似度更加注重兩個向量在方向上的差異,而非距離或長度上。公式如下:style="width:auto;"class="fr-ficfr-filfr-dib">③曼哈頓距離:兩個點在標(biāo)準(zhǔn)坐標(biāo)系上的絕對軸距總和Dis=abs(x1-x2)+abs(y1-y2)④切比雪夫距離:各坐標(biāo)數(shù)值差的最大值Dis=max(abs(x1-x2),abs(y1-y2))[單選題]59.以下哪個選項是真的?A)LDA明確地嘗試對數(shù)據(jù)類別之間的差異進(jìn)行建模,而PCA沒有。B)兩者都試圖模擬數(shù)據(jù)類之間的差異。C)PCA明確地試圖對數(shù)據(jù)類別之間的差異進(jìn)行建模,而LDA沒有。D)兩者都不試圖模擬數(shù)據(jù)類之間的差異。答案:A解析:[單選題]60.下列哪些技術(shù)能被用于關(guān)鍵詞歸一化(keywordnormalization),即把關(guān)鍵詞轉(zhuǎn)化為其基本形式?A)詞形還原(Lemmatization)B)探測法(Soundex)C)余弦相似度(CosineSimilarity)D)N-grams答案:A解析:[單選題]61.下列貝葉斯網(wǎng)結(jié)構(gòu)中不屬于三種典型的依賴關(guān)系A(chǔ))同父結(jié)構(gòu)B)選擇結(jié)構(gòu)C)順序結(jié)構(gòu)D)V型結(jié)構(gòu)答案:B解析:[單選題]62.協(xié)同過濾算法解決的是數(shù)據(jù)挖掘中的哪類問題?()A)分類問題B)聚類問題C)推薦問題D)自然語言處理問題答案:C解析:[單選題]63.詞匯表的增長將會導(dǎo)致文檔向量不斷的增長,表現(xiàn)為文檔向量的()不斷增加。A)個數(shù)B)維度C)集合D)元素答案:B解析:[單選題]64.關(guān)于正態(tài)分布,下列說法錯誤的是:A)正態(tài)分布具有集中性和對稱性B)正態(tài)分布的均值和方差能夠決定正態(tài)分布的位置和形態(tài)C)正態(tài)分布的偏度為0,峰度為1D)標(biāo)準(zhǔn)正態(tài)分布的均值為0,方差為1答案:C解析:[單選題]65.Bootstrap數(shù)據(jù)是什么意思()A)有放回地從總共M個特征中抽樣m個特征B)無放回地從總共M個特征中抽樣m個特征C)有放回地從總共N個樣本中抽樣n個樣本D)無放回地從總共N個樣本中抽樣n個樣本答案:C解析:[單選題]66.做一個二分類預(yù)測問題,先設(shè)定閾值為0.5,概率大于等于0.5的樣本歸入正例類(即1),小于0.5的樣本歸入反例類(即0)。然后,用閾值n(n>0.5)重新劃分樣本到正例類和反例類,下面哪一種說法正確是()1.增加閾值不會提高召回率2..增加閾值會提高召回率3..增加閾值不會降低查準(zhǔn)率4.增加閾值會降低查準(zhǔn)率A)1B)2C)1、3D)2、4答案:C解析:[單選題]67.在Pandas中tail()這個函數(shù)是做什么的?()。A)用來創(chuàng)建數(shù)據(jù)B)用來分析數(shù)據(jù)C)用來計算數(shù)據(jù)D)用來展現(xiàn)數(shù)據(jù)答案:D解析:[單選題]68.當(dāng)閔可夫斯基距離公式中的系數(shù)p值為2時,可得到(__)的公式。A)歐氏距離B)曼哈頓距離C)街區(qū)距離D)切比雪夫距離答案:A解析:[單選題]69.假設(shè)我們想估計A和B這兩個參數(shù),在開始狀態(tài)下二者都是未知的,但如果知道了A的信息就可以得到B的信息,反過來知道了B也就得到了A。可以考慮首先賦予A某種初值,以此得到B的估計值,然后從B的當(dāng)前值出發(fā),重新估計A的取值,這個過程一直持續(xù)到收斂為止,該算法是()的算法思想。A)極大似然法B)樸素貝葉斯分類器C)EM算法D)貝葉斯決策論答案:C解析:[單選題]70.多層感知機(jī)方法中,可用作神經(jīng)元的非線性激活函數(shù)()A)logistic函數(shù)B)范數(shù)C)線性內(nèi)積D)加權(quán)求和答案:A解析:[單選題]71.下列關(guān)于bootstrap說法正確的是?A)從總的M個特征中,有放回地抽取m個特征(m<M)B)從總的M個特征中,無放回地抽取m個特征(m<M)C)從總的N個樣本中,有放回地抽取n個樣本(n<N)D)從總的N個樣本中,無放回地抽取n個樣本(n<N)答案:C解析:bootstrap的思想是從已有的數(shù)據(jù)集中模擬出類似但又不完全一樣的數(shù)據(jù)集。主要是針對沒有足夠數(shù)據(jù)來訓(xùn)練多個模型的情況。Bootstrap的做法是,假設(shè)有N筆資料D,先從中選出一個樣本,再放回去,再選擇一個樣本,再放回去,共重復(fù)n次。這樣我們就得到了一個新的n筆資料D',這個新的數(shù)據(jù)集中可能包含原數(shù)據(jù)集里的重復(fù)樣本點,也可能沒有原數(shù)據(jù)集里的某些樣本,D'與D類似但又不完全相同。值得一提的是,抽取-放回的操作次數(shù)不一定非要是N,次數(shù)可以任意設(shè)定。例如原始樣本有10000個,我們可以抽取-放回3000次,得到包含3000個樣本的D'也是完全可以的。[單選題]72.SVM的算法性能取決于()A)核函數(shù)的選擇B)核函數(shù)的參數(shù)C)軟間隔參數(shù)CD)以上所有答案:D解析:[單選題]73.以下哪種NLP模型的準(zhǔn)確性最高?A)BERTB)XLNETC)GPT-2D)ELMo答案:B解析:[單選題]74.以下描述中不正確的是(___)。A)歸納是指從特殊到一般的泛化過程B)歸納是指從具體的事實歸結(jié)出一般性規(guī)律C)演繹是指從特殊到一般的特化過程D)演繹是指從基礎(chǔ)原理推演出具體情況答案:C解析:[單選題]75.隱馬爾可夫模型(HiddenMarkovModel,簡稱HMM)主要用于()數(shù)據(jù)建模A)時長B)時間C)時態(tài)D)時序答案:D解析:[單選題]76.熵是為消除不確定性所需要獲得的信息量,投擲均勻正六面體骰子的熵是:A)1比特B)2.6比特C)3.2比特D)3.8比特答案:B解析:[單選題]77.應(yīng)用PCA后,以下哪項可以是前兩個主成分?1(0.5,0.5,0.5,0.5)和(0.71,0.71,0,0)2(0.5,0.5,0.5,0.5)和(0,0,-0.71,0.71)3(0.5,0.5,0.5,0.5)和(0.5,0.5,-0.5,-0.5)4(0.5,0.5,0.5,0.5)和(-0.5,-0.5,0.5,0.5)A)1和2B)1和3C)2和4D)3和4答案:D解析:對于前兩個選擇,兩個向量不是正交的。[單選題]78.喚醒功能作為麥克風(fēng)陣列技術(shù)中重要的一環(huán),誤喚醒率指標(biāo)是低于()次/天?[]*A)1B)2C)3D)0.5答案:A解析:[單選題]79.卷積神經(jīng)網(wǎng)絡(luò)調(diào)整參數(shù)時信息的傳播方向是()。A)后向傳播B)前向傳播C)雙向傳播D)跳躍傳播答案:A解析:[單選題]80.解線性方程組時,若因變量過多,則會解出多組解都能使均方誤差最小化,選擇哪一個解,常見的做法是引入__。A)剪枝B)對數(shù)線性回歸C)極大似然法D)正則化答案:D解析:[單選題]81.圖像中虛假輪廓的出現(xiàn)就其本質(zhì)而言是由于?A)圖像的灰度級數(shù)不夠多造成的;B)圖像的空間分辨率不夠高造成;C)圖像的灰度級數(shù)過多造成的;D)圖像的空間分辨率過高造成;答案:A解析:[單選題]82.在一個神經(jīng)網(wǎng)絡(luò)中,確定每個神經(jīng)元的權(quán)重和偏差很重要。用()方法可以確定神經(jīng)元的權(quán)重和偏差,從而對函數(shù)進(jìn)行擬合。A)隨機(jī)賦值,祈禱它們是正確的B)搜索所有權(quán)重和偏差的組合,直到得到最佳值C)賦予一個初始值,通過檢杳與真值的誤差,逐步迭代更新權(quán)重D)以上都不正確答案:C解析:[單選題]83.以下哪種不是Hive支持的數(shù)據(jù)類型?A)StructB)IntC)MapD)Long答案:D解析:[單選題]84.下列選項中,關(guān)于drop_duplicates()方法描述錯誤的是()。A)僅支持單一特征數(shù)據(jù)的去重B)僅對Series和DataFrame對象有效C)數(shù)據(jù)去重時默認(rèn)保留第一個數(shù)據(jù)D)該方法不會改變原始數(shù)據(jù)排列答案:A解析:[單選題]85.特征工程的目的是()。A)找到最合適的算法B)得到最好的輸入數(shù)據(jù)C)減低模型復(fù)雜度D)加快計算速度答案:B解析:特征工程的目的是篩選出更好的特征,獲取更好的訓(xùn)練數(shù)據(jù)。[單選題]86.卷積神經(jīng)網(wǎng)絡(luò)中說的梯度下降,是指()的梯度。A)參數(shù)本身B)激活函數(shù)C)損失函數(shù)D)圖像大小答案:C解析:[單選題]87.關(guān)于Logistic回歸和SVM的描述,不正確的是()。A)Logistic回歸本質(zhì)上是一種根據(jù)樣本對權(quán)值進(jìn)行極大似然估計的方法,用先驗概率的乘積代替后驗概率B)Logistic回歸的輸出就是樣本屬于正類別的概率C)SVM的目標(biāo)是找到使得訓(xùn)練數(shù)據(jù)盡可能分開且分類間隔最大的超平面,屬于結(jié)構(gòu)風(fēng)險最小化D)SVM可以通過正則化系數(shù)控制模型的復(fù)雜度,避免過擬合答案:A解析:Logistic回歸目標(biāo)函數(shù)是最小化后驗概率,Logistic回歸可以用于預(yù)測事件發(fā)生概率的大小,SVM目標(biāo)是結(jié)構(gòu)風(fēng)險最小化,SVM可以有效避免模型過擬合。[單選題]88.下列是機(jī)器學(xué)習(xí)中降維任務(wù)的準(zhǔn)確描述的為A)依據(jù)某個準(zhǔn)則對項目進(jìn)行排序B)將其映射到低維空間來簡化輸入C)預(yù)測每個項目的實際值D)對數(shù)據(jù)對象進(jìn)行分組答案:B解析:[單選題]89.下面不屬于過擬合原因的是A)特征維度過多B)模型假設(shè)過于復(fù)雜C)訓(xùn)練數(shù)據(jù)過多D)噪聲過多答案:C解析:[單選題]90.以下哪個是PCA算法的主要應(yīng)用?A)聚類B)分類C)距離度量D)數(shù)據(jù)壓縮答案:D解析:[單選題]91.()是預(yù)測一個標(biāo)簽(離散型),屬于監(jiān)督學(xué)習(xí)A)分類B)回歸C)聚類D)強(qiáng)化學(xué)習(xí)答案:A解析:[單選題]92.下列算法常用于聚類的問題是()A)k-meansB)邏輯回歸模型C)決策樹模型D)隨機(jī)森林模型答案:A解析:[單選題]93.在訓(xùn)練神經(jīng)網(wǎng)絡(luò)時,損失函數(shù)(loss)在最初的幾個epochs時沒有下降,可能的原因是?class="fr-ficfr-dibcursor-hover"A)學(xué)習(xí)率(learningrate)太低B)正則參數(shù)太高C)陷入局部最小值D)以上都有可能答案:D解析:[單選題]94.下列方法使用最大似然估計的是()A)線性鑒別分析B)感知機(jī)C)Logistic回歸D)SVM答案:C解析:[單選題]95.假設(shè)使用邏輯回歸進(jìn)行n多類別分類,使用One-vs-rest分類法。下列說法正確的是?A)對于n類別,需要訓(xùn)練n個模型B)對于n類別,需要訓(xùn)練n-1個模型C)對于n類別,只需要訓(xùn)練1個模型D)以上說法都不對答案:A解析:One-vs-rest分類法中,假設(shè)有n個類別,那么就會建立n個二項分類器,每個分類器針對其中一個類別和剩余類別進(jìn)行分類。進(jìn)行預(yù)測時,利用這n個二項分類器進(jìn)行分類,得到數(shù)據(jù)屬于當(dāng)前類的概率,選擇其中概率最大的一個類別作為最終的預(yù)測結(jié)果。舉個簡單的例子,3分類,類別分別是{-1,0,1}。構(gòu)建3個二分類器:-1與0,1與-1,11與-1,0若第1個二分類器得到-1的概率是0.7,第2個二分類器得到0的概率是0.2,第3個二分類器得到1的概率是0.4,則最終預(yù)測的類別是-1。[單選題]96.下面哪些可能是一個文本語料庫的特征()1一個文檔中的詞頻統(tǒng)計2文檔中單詞的布爾特征3詞向量4詞性標(biāo)記5基本語法依賴6整個文檔A)123B)1234C)12345D)123456答案:C解析:[單選題]97.在概率模型中,利用已知變量推測未知變量的分布稱為?A)推論B)推斷C)推演D)推算答案:B解析:[單選題]98.下列選項中,()不可以直接對文本進(jìn)行分類。A)K-MeansB)決策樹C)支持向量機(jī)D)K近鄰答案:A解析:[單選題]99.根據(jù)DIKW信息、數(shù)據(jù)、知識、智慧模型,以下說法錯誤的是A)數(shù)據(jù)是記錄下來可以被鑒別的符號,它是最原始的素材,未被加工解釋,沒有回答特定的問題,沒有任何意義B)信息是已經(jīng)被處理、具有邏輯關(guān)系的數(shù)據(jù),是對數(shù)據(jù)的解釋,這種信息對其接收者具有意義C)知識是從相關(guān)信息中過濾、提煉及加工而得到的有用資料,不能從知識中產(chǎn)生新的知識D)智慧是人類所表現(xiàn)出來的一種獨有的能力,主要表現(xiàn)為收集、加工、應(yīng)用、傳播知識的能力,以及對事物發(fā)展的前瞻性看法答案:C解析:[單選題]100.如果深度學(xué)習(xí)訓(xùn)練過程不收斂,訓(xùn)練集準(zhǔn)確率很低,屬于下面哪個問題A)欠擬合B)過擬合C)泛化能力差D)泛化能力強(qiáng)答案:A解析:[單選題]101.以下哪個度量屬于數(shù)據(jù)散度的描述?()A)均值B)中位數(shù)C)標(biāo)準(zhǔn)差D)眾數(shù)答案:C解析:[單選題]102.假設(shè)一共有10篇文檔,其中某個詞A在其中10篇文章中都出現(xiàn)過,另一個詞B只在其中3篇出現(xiàn)。根據(jù)逆文檔頻率,()比較關(guān)鍵。A)無B)AC)BD)A和B答案:C解析:[單選題]103.下列分類方法中不會用到梯度下降法的是()A)感知機(jī)B)最小二乘分類器C)最小距離分類器D)Logistic回歸答案:C解析:[單選題]104.(__)度量了同樣大小的訓(xùn)練集的變動所導(dǎo)致的學(xué)習(xí)性能的變化。A)偏差B)方差C)均方差D)泛化誤差答案:B解析:[單選題]105.以等可能性為基礎(chǔ)的概率是()。A)古典概率B)經(jīng)驗概率C)試驗概率D)主觀概率答案:A解析:古典概率是以這樣的假設(shè)為基礎(chǔ)的,即隨機(jī)現(xiàn)象所能發(fā)生的事件是有限的、互不相容的,而且每個基本事件發(fā)生的可能性相等。根據(jù)大量的、重復(fù)的統(tǒng)計試驗結(jié)果計算隨機(jī)事件中各種可能發(fā)生結(jié)果的概率,稱為試驗概率或頻率概率。主觀概率,是指建立在過去的經(jīng)驗與判斷的基礎(chǔ)上,根據(jù)對未來事態(tài)發(fā)展的預(yù)測和歷史統(tǒng)計資料的研究確定的概率,反映的只是一種主觀可能性。[單選題]106.以下機(jī)器學(xué)習(xí)中,在數(shù)據(jù)預(yù)處理時,不需要考慮歸一化處理的是:A)logistic回歸B)SVMC)樹形模型D)神經(jīng)網(wǎng)絡(luò)答案:C解析:[單選題]107.__是在一個數(shù)據(jù)集上對多個算法進(jìn)行比較。A)t檢驗B)交叉驗證t檢驗C)Friedman檢驗D)McNemar檢驗答案:C解析:[單選題]108.請閱讀下列一段示例程序:ImportnumpyasnpArr1=np.array([[0],[1],[2]])Arr2=np.array([1,2])Result=arr1+arr2Print(result.shape)運行上述程序,那么最終輸出的結(jié)果為()。A)(3,2)B)(2,3)C)(3,0)D)(2,0)答案:A解析:[單選題]109.下面有關(guān)序列模式挖掘算法的描述,錯誤的是?A)AprioriAll算法和GSP算法都屬于Apriori類算法,都要產(chǎn)生大量的候選序列B)FreeSpan算法和PrefixSpan算法不生成大量的候選序列以及不需要反復(fù)掃描原數(shù)據(jù)庫C)在時空的執(zhí)行效率上,FreeSpan比PrefixSpan更優(yōu)D)和AprioriAll相比,GSP的執(zhí)行效率比較高答案:C解析:[單選題]110.關(guān)于K-Means和DBSCAN的比較,以下說法不正確的是()。A)K-Means丟棄被它識別為噪聲的對象,而DBSCAN一般聚類所有對象B)K-Means使用簇的基于原型的概念,而DBSCAN使用基于密度的概念C)K-Means很難處理非球形的簇和不同大小的簇,而DBSCAN可以處理不同形狀和不同大小的簇D)K-Means可以發(fā)現(xiàn)不是明顯分離的簇,即使簇有重疊它也可以發(fā)現(xiàn),但是DBSCAN會合并有重疊的簇答案:A解析:[單選題]111.Boosting是一可將弱學(xué)習(xí)器提升為強(qiáng)學(xué)習(xí)器的算法,最著名的代表是____。A)BaggingB)隨機(jī)森林C)AdaBoostD)決策樹答案:C解析:[單選題]112.以下關(guān)于集成的描述,錯誤的是__。A)集成學(xué)習(xí)通過構(gòu)建并結(jié)合多個學(xué)習(xí)器來完成學(xué)習(xí)任務(wù),也稱為多分類器系統(tǒng)、基于委員會的學(xué)習(xí)等B)集成中只包含同種類型的個體學(xué)習(xí)器,如?決策樹集成?,?神經(jīng)網(wǎng)絡(luò)集成?等,這樣的集成是?同質(zhì)?的C)集成中同時包含多種類型的個體學(xué)習(xí)器,這樣的集成是?異質(zhì)?的,異質(zhì)集成的個體學(xué)習(xí)器一般稱為基學(xué)習(xí)器D)隨著集成中個體分類器(相互獨立)數(shù)目T的增大,集成的錯誤率將指數(shù)級下降,最終趨向于零答案:C解析:[單選題]113.在非均等代價下,希望最小化__。A)召回率B)錯誤率C)錯誤次數(shù)D)總體代價答案:D解析:[單選題]114.以下對Volume相關(guān)描述不正確的是()。A)Volume是指數(shù)據(jù)量大B)就目前而言,當(dāng)數(shù)據(jù)量達(dá)到拍字節(jié)以上時,一般稱為大數(shù)據(jù)C)大數(shù)據(jù)時間分布是均勻的D)數(shù)據(jù)量大是相對計算與存儲能力而定的答案:C解析:[單選題]115.分類和回歸的區(qū)別在于輸出變量的類型,預(yù)測連續(xù)變量或者是定量輸出的稱為()A)分類B)回歸C)聚類D)以上都不是答案:B解析:[單選題]116.信息熵的值越小,則該樣本集合的純度(__)。A)越低B)越高C)沒有影響D)自由變化答案:B解析:[單選題]117.zookeeper節(jié)點的特性()A)可以存儲數(shù)據(jù)B)不可以存儲數(shù)據(jù)C)可以計算數(shù)據(jù)D)可以協(xié)調(diào)數(shù)據(jù)答案:A解析:[單選題]118.下面有關(guān)矩陣說法不正確的是()A)行列式不等于0的方陣問奇異矩陣B)相似矩陣是指同一個線性變換的不同的描述矩陣C)矩陣可以作為描述坐標(biāo)系的一種方式D)矩陣是線性空間里的變換的描述答案:A解析:[單選題]119.在有限支撐集上,下面分布的熵最大()A)幾何分布B)指數(shù)分布C)高斯分布D)均勻分布答案:D解析:[單選題]120.成熟度等級1.已執(zhí)行級,2.已定義級,3.已優(yōu)化級,4.已測量級,5.已管理級,則由低到高排序為(__)。A)12345B)13524C)15243D)13542答案:C解析:[單選題]121.下面那種2D變換有可能破壞平行性(平行的線變換后不再平行)的是()?A)剛性變換B)投影變換C)相似變換D)仿射變換答案:B解析:[單選題]122.機(jī)器學(xué)習(xí)這個術(shù)語是由()定義的?A)ArthurSamuelB)GuidovanRossumC)JamesGoslingD)以上都不是答案:A解析:[單選題]123.交叉驗證如果設(shè)置K=5,會訓(xùn)練幾次?()A)1B)3C)5D)6答案:C解析:[單選題]124.下列關(guān)于冗余特征的說法錯誤的是A)冗余特征是可以通過其他特征推演出來的特征B)冗余特征是無用的特征C)冗余特征有時候可以降低學(xué)習(xí)任務(wù)的難度D)去除冗余特征可以減輕學(xué)習(xí)過程的負(fù)擔(dān)答案:B解析:[單選題]125.(__)不屬于基本分析方法。A)回歸分析B)分類分析C)聚類分析D)元分析答案:D解析:[單選題]126.對主成分分析PCA方法描述正確的是:A)投影矩陣是正交矩陣B)進(jìn)行非正交投影C)PCA不需要進(jìn)行樣本去均值D)投影到特征值最小的方向答案:A解析:[單選題]127.下面有關(guān)線性判別分析錯誤的說法是哪個()。A)通過對原始的數(shù)據(jù)進(jìn)行線性變換,使得不同類的樣本盡量分開B)線性判別分析中線性變換可以使同類樣本的方差變大C)線性變換可以使不同類別樣本的距離加大D)提高不同類樣本的可分性答案:B解析:[單選題]128.下面哪種不屬于池化操作()。A)連接池化B)一般池化C)重疊池化D)金字塔池化答案:A解析:[單選題]129.以下哪個模型屬于生成模型()A)支持向量機(jī)B)邏輯回歸C)DNND)樸素貝葉斯答案:D解析:[單選題]130.下列方法中,屬于無監(jiān)督學(xué)習(xí)的為()A)線性回歸B)K均值C)神經(jīng)網(wǎng)絡(luò)D)決策樹答案:B解析:[單選題]131.以下哪一項給出了邏輯回歸與LDA之間的差異?A)1B)2C)1和2D)都不是答案:C解析:[單選題]132.以下描述中,能夠使神經(jīng)網(wǎng)絡(luò)模型成為深度學(xué)習(xí)模型的處理是(A)設(shè)置很多層,使神經(jīng)網(wǎng)絡(luò)的深度增加B)處理一個圖形識別的問題C)有維度更高的數(shù)據(jù)D)以上都不正確答案:A解析:[單選題]133.spark是用以下哪種編程語言實現(xiàn)的A)cB)C++C)javaD)Scala答案:D解析:[單選題]134.輸出門的作用是()。A)保留重要信息B)去除不重要信息C)信息增加D)決定要輸出的部分答案:D解析:[單選題]135.在NumPy通用函數(shù)中,用于計算元素級最大值的函數(shù)是()。A)maxB)maximumC)minD)maximal答案:B解析:[單選題]136.半監(jiān)督學(xué)習(xí)不包括A)直推學(xué)習(xí)B)純半監(jiān)督學(xué)習(xí)C)主動學(xué)習(xí)D)圖半監(jiān)督學(xué)習(xí)答案:C解析:[單選題]137.Dave于2012年發(fā)布(__)首次全面地刻畫了當(dāng)時快速發(fā)展的大數(shù)據(jù)技術(shù)體系。A)大數(shù)據(jù)產(chǎn)業(yè)網(wǎng)絡(luò)B)大數(shù)據(jù)產(chǎn)業(yè)全景圖C)大數(shù)據(jù)產(chǎn)業(yè)D)大數(shù)據(jù)網(wǎng)絡(luò)答案:B解析:[單選題]138.下列哪種詞嵌入支持上下文建模(ContextModeling)?A)Word2VecB)GloVeC)BERTD)以上所有答案:C解析:[單選題]139.在一個神經(jīng)網(wǎng)絡(luò)中,下面哪種方法可以用來處理過擬合?A)DropoutB)分批歸一化(BatchNormalization)C)正則化(regularization)D)都可以答案:D解析:[單選題]140.人工智能的目的是讓機(jī)器能夠(),以實現(xiàn)人類某些腦力勞動的機(jī)械化。A)具有智能B)和人一樣工作C)完全代替人的大腦D)模擬,延伸和擴(kuò)展人類的智能答案:D解析:[單選題]141.以下哪個度量不屬于數(shù)據(jù)中心趨勢度描述?()A)均值B)中位數(shù)C)眾數(shù)D)四分位數(shù)答案:D解析:[單選題]142.決策樹所形成的分類邊界有一個明顯特點,它的分類邊界由若干個__分段組成。A)與坐標(biāo)軸平行B)與坐標(biāo)軸垂直C)與坐標(biāo)軸重合D)過坐標(biāo)原點答案:A解析:[單選題]143.當(dāng)訓(xùn)練樣本近似線性可分時,通過(),學(xué)習(xí)一個()。A)硬間隔,最大化非線性支持向量機(jī)B)軟間隔,最大化線性支持向量機(jī)C)硬間隔,最大化線性支持向量機(jī)D)軟間隔,最大化非線性支持向量機(jī)答案:B解析:[單選題]144.關(guān)于樸素貝葉斯,下列選項中,描述正確的是()。A)它假設(shè)屬性之間相互獨立B)根據(jù)先驗概率計算后驗概率C)對于給定的待分類項X={a1,a2,,an},求解在此項出現(xiàn)的條件下各個類別yi出現(xiàn)的概率,哪個P(yi|X)最大,就把此待分類項歸屬于哪個類別D)它包括最小錯誤率判斷規(guī)則和最小風(fēng)險判斷規(guī)則答案:A解析:[單選題]145.下面的代碼中,不是用來用來評價所訓(xùn)練模型的預(yù)測準(zhǔn)確性的是:A)fromsklearn.metricsimportaccuracy_scoreB)fromsklearn.model_selectionimporttrain_test_splitC)fromsklearn.metricsimportmean_squared_errorD)fromsklearn.metricsimportmean_absolute_error答案:B解析:[單選題]146.屬于分類模型評測指標(biāo)的是:A)MSEB)AUCC)MAED)RMSE答案:B解析:[單選題]147.20個阿里巴巴B2B技術(shù)部的員工被安排為4排,每排5個人,我們?nèi)我膺x其中4人送給他們一人一本《effectivec++》,那么我們選出的4人都在不同排的概率為:A)5^4*5!*15!/20!B)4^5*5!*15!/20!C)5^4*4!*16!/20!D)4^5*4!*16!/20!答案:C解析:[單選題]148.LDA的以下哪項是正確的?alt="">A)LDA旨在最大化之間類別的距離,并最小化類內(nèi)之間的距離B)LDA旨在最小化類別和類內(nèi)之間的距離C)LDA旨在最大化類內(nèi)之間的距離,并最小化類別之間的距離D)LDA旨在最大化類別和類內(nèi)之間的距離答案:A解析:[單選題]149.對數(shù)幾率回歸和一般回歸分析有什么區(qū)別?A)對數(shù)幾率回歸是設(shè)計用來預(yù)測事件可能性的B)對數(shù)幾率回歸可以用來度量模型擬合程度C)對數(shù)幾率回歸可以用來估計回歸系數(shù)D)以上都有答案:D解析:[單選題]150.下列哪個不屬于常用的文本分類的特征選擇算法?A)卡方檢驗值B)互信息C)信息增益D)主成分分析答案:D解析:[單選題]151.Pandas處理缺失值的函數(shù)有?()A)fillna()B)fit()C)predict()D)iloc()答案:A解析:[單選題]152.下面關(guān)于決策樹學(xué)習(xí)相關(guān)描述不正確的有(__)。A)決策樹學(xué)習(xí)的本質(zhì)是一種逼近離散值目標(biāo)函數(shù)的過程B)決策樹的根節(jié)點表示分類的開始C)中間節(jié)點表示某一個屬性的屬性值D)從根節(jié)點到葉節(jié)點的路徑表示一個具體的實例答案:C解析:[單選題]153.若A為假命題,B為真命題,以下命題中假命題有()A)?AB)AC)AD)B答案:B解析:[單選題]154.Task運行在下來哪里個選項中Executor上的工作單元()。A)DriverprogramB)sparkmasterC)workernodeD)Clustermanager答案:C解析:[單選題]155.電子病案文本編輯中自然語言處理是為了()A)建立結(jié)構(gòu)化系統(tǒng)模型B)將數(shù)字化醫(yī)學(xué)信息整合到電子病案中C)從自由文本上提取代碼化的醫(yī)學(xué)數(shù)據(jù)D)協(xié)助臨床診斷、治療E)定義專業(yè)詞匯答案:C解析:第2部分:多項選擇題,共49題,每題至少兩個正確答案,多選或少選均不得分。[多選題]156.以下對數(shù)據(jù)描述正確的是()。A)數(shù)據(jù)只包含顯性數(shù)據(jù)和隱性數(shù)據(jù)B)數(shù)值是數(shù)據(jù)的一種形式C)數(shù)據(jù)到智慧是人們認(rèn)知提升的過程D)數(shù)據(jù)是現(xiàn)實世界的記錄答案:BCD解析:[多選題]157.下列關(guān)于學(xué)習(xí)器的性能度量說法正確的是(__)。A)對于二分類問題,可將樣例根據(jù)其真實類別與學(xué)習(xí)器預(yù)測類別的組合劃分為:真正例、假正例、真反例、假反例B)查準(zhǔn)率和查全率是一對矛盾的度量C)一般來說,查準(zhǔn)率越高,查全率往往也偏高D)一般來說,查準(zhǔn)率越高,查全率往往偏低答案:ABD解析:[多選題]158.使用有監(jiān)督學(xué)習(xí)的問題可以分為哪兩大類()A)回歸問題B)抽樣問題C)聚類問題D)分類問題答案:AD解析:[多選題]159.下面哪幾項適應(yīng)于深度學(xué)習(xí)的訓(xùn)練?A)監(jiān)督學(xué)習(xí)B)強(qiáng)化學(xué)習(xí)C)遷移學(xué)習(xí)D)機(jī)器學(xué)習(xí)答案:ABC解析:[多選題]160.(__)是科學(xué)推理的兩大基本手段。A)泛化B)歸納C)演繹D)特化答案:BC解析:[多選題]161.googlenet提出的Inception結(jié)構(gòu)優(yōu)勢有()A)保證每一層的感受野不變,網(wǎng)絡(luò)深度加深,使得網(wǎng)絡(luò)的精度更高B)使得每一層的感受野增大,學(xué)習(xí)小特征的能力變大C)有效提取高層語義信息,且對高層語義進(jìn)行加工,有效提高網(wǎng)絡(luò)準(zhǔn)確度D)利用該結(jié)構(gòu)有效減輕網(wǎng)絡(luò)的權(quán)重答案:AD解析:[多選題]162.確定圖像分割的閾值的方法有(__)。A)可變閾值法B)判別分析法C)中值濾波D)p尾法答案:ABD解析:[多選題]163.以下可用于聚類性能測量的評估方法()A)Jaccard系數(shù)B)FM指數(shù)C)Rand指數(shù)D)DB指數(shù)答案:ABCD解析:[多選題]164.以下可能會導(dǎo)致過擬合的是(___)。A)訓(xùn)練集中含有噪聲樣本B)訓(xùn)練集中缺乏代表性樣本C)訓(xùn)練集的樣本數(shù)目過少D)訓(xùn)練集中樣本的維度過少答案:AB解析:[多選題]165.一個完整的人工神經(jīng)網(wǎng)絡(luò)包括()A)一層輸入層B)多層分析層C)多層隱藏層D)兩層輸出層答案:AC解析:[多選題]166.下列關(guān)于EM算法描述正確的是(__)。A)EM算法是常用的估計參數(shù)隱變量的利器B)EM算法即是期望最大化算法C)EM算法常被用來學(xué)習(xí)高斯混合模型的參數(shù)D)EM算法是一種迭代式的方法答案:ABCD解析:[多選題]167.以下哪些函數(shù)是凸函數(shù)?()A)f(x)=xB)f(x)=x^3C)f(x)=x^4D)f(x)=x^3+x^4答案:AC解析:二階導(dǎo)數(shù)非負(fù)[多選題]168.以下對大數(shù)據(jù)4V特性描述正確的是()。A)Value是指價值密度低B)大數(shù)據(jù)中所說的?速度?包括兩種:計算速度和處理速度C)大數(shù)據(jù)時間分布是不均勻的D)在大數(shù)據(jù)中,價值價值與數(shù)據(jù)總量的大小存在線性關(guān)系答案:AC解析:[多選題]169.下列屬于有監(jiān)督算法的是()A)決策樹B)K-均值C)貝葉斯網(wǎng)路D)SVM答案:ACD解析:[多選題]170.下列表示同一種學(xué)習(xí)方法的是(__)。A)集成學(xué)習(xí)B)多分類器系統(tǒng)C)基于委員會的學(xué)習(xí)D)平均策略答案:ABC解析:[多選題]171.以下說法正確的是()。A)條件獨立性假設(shè)不成立時,樸素貝葉斯分類器仍有可能產(chǎn)生最優(yōu)貝葉斯分類器B)在估計概率值時使用的拉普拉斯修正避免了因訓(xùn)練集樣本不充分而導(dǎo)致概率估值為零的問題C)由于馬爾可夫鏈通常很快就能趨于平穩(wěn)分布,因此吉布斯采樣算法的收斂速度很快D)二分類任務(wù)中兩類數(shù)據(jù)滿足高斯分布且方差相同時,線性判別分析產(chǎn)生貝葉斯最優(yōu)分類器答案:ABD解析:由于馬爾可夫鏈通常需要很長時間才能趨于平穩(wěn)分布,因此吉布斯采樣算法的收斂速度較慢。[多選題]172.數(shù)據(jù)集成需要注意的三個基本問題有(__)。A)模式集成B)數(shù)據(jù)冗余C)沖突檢測和消除D)數(shù)據(jù)錯誤答案:ABC解析:[多選題]173.下列屬于機(jī)器學(xué)習(xí)類型的是()A)有監(jiān)督學(xué)習(xí)B)無監(jiān)督學(xué)習(xí)C)半監(jiān)督學(xué)習(xí)D)強(qiáng)化學(xué)習(xí)答案:ABCD解析:[多選題]174.假如你用logisticRegression算法去預(yù)測用戶在網(wǎng)上的購買項目,然而,當(dāng)你在新的用戶集上驗證你的假設(shè)時,你發(fā)現(xiàn)預(yù)測值有很大的偏差。并且你的假設(shè)在訓(xùn)練集上表現(xiàn)也很差,下面那些步驟你應(yīng)該采納,選擇出正確的選項()A)嘗試著減小正則項λB)嘗試增加交叉特征C)減小樣本量D)嘗試更小的測試集或者特征答案:AB解析:[多選題]175.下面屬于數(shù)據(jù)科學(xué)家的主要職責(zé)有(__)。A)提出?好問題?B)完成?數(shù)據(jù)加工?C)實現(xiàn)?數(shù)據(jù)洞見?D)數(shù)據(jù)?故事化?答案:ABCD解析:[多選題]176.下列哪幾個優(yōu)化算法適合大規(guī)模訓(xùn)練集的場景:A)minibatchsgdB)AdamC)LBFSGD)FTRL答案:ABD解析:FTRL是對每一維單獨訓(xùn)練,屬于一種在線學(xué)習(xí)優(yōu)化算法。由于對參數(shù)的每一維單獨訓(xùn)練,所以可以用于大規(guī)模數(shù)據(jù)訓(xùn)練。[多選題]177.數(shù)據(jù)源和APPs提供的數(shù)據(jù)內(nèi)容包括(__)和物聯(lián)網(wǎng),金融,人/實體,位置智能等數(shù)據(jù)。A)健康B)經(jīng)濟(jì)C)空氣D)海洋答案:ABCD解析:[多選題]178.根據(jù)輸出結(jié)果,數(shù)據(jù)科學(xué)中機(jī)器學(xué)習(xí)可分為(__)。A)概念學(xué)習(xí)B)歸納學(xué)習(xí)C)決策樹學(xué)習(xí)D)分析學(xué)習(xí)答案:ABCD解析:[多選題]179.下來哪些概念已被廣泛應(yīng)用于計算機(jī)視覺、自然語言處理、無人駕駛等領(lǐng)域?A)機(jī)器學(xué)習(xí)B)深度學(xué)習(xí)C)強(qiáng)化學(xué)習(xí)D)遷移學(xué)習(xí)答案:ABCD解析:[多選題]180.K均值聚類和層次聚類在一些方面有重大差異。以下說法正確的是()。A)在K均值聚類中,必須在運行算法前選定想要的簇的個數(shù)B)在K均值聚類中,可以在運行算法后選定想要的簇的個數(shù)C)在層次聚類中,可以在運行算法后選定想要的簇的個數(shù)D)K均值聚類算法所需的計算量比層次聚類算法小得多答案:ACD解析:在K均值聚類中,需要在運行算法前確定想要的簇的個數(shù)K。[多選題]181.常用的標(biāo)準(zhǔn)化方法()A)min-max標(biāo)準(zhǔn)化B)Z變換C)比例變換D)等寬分箱答案:ABC解析:[多選題]182.Spark應(yīng)用的計算邏輯會被解析成DAG,這個解析操作由以下哪個功能模塊完成()A)ClientB)ApplicationMasterC)ExecutorD)Driver答案:CD解析:[多選題]183.關(guān)于Zookeeper客戶端命令行操作,其中可以監(jiān)聽節(jié)點的命令有()A)ls-wpathB)create-wC)get-wpathD)set-w答案:AC解析:[多選題]184.話題模型中的幾個概念有?A)詞B)句C)文檔D)話題答案:ACD解析:[多選題]185.聚類旨在發(fā)現(xiàn)有用的對象簇,在現(xiàn)實中我們用到很多的簇的類型,使用不同的簇類型劃分?jǐn)?shù)據(jù)的結(jié)果是不同的,常見的簇類型有()A)明顯分離的簇B)基于中心的簇C)基于鄰近的簇D)基于密度的簇答案:ABCD解析:[多選題]186.分類評估指標(biāo)中的AUC()A)AUC=1,表示分類器是完美的B)AUC=0.5,表示分類器是可用的C)AUC<0.5,表示分類器不可用D)0.5<AUC<1,表示分類器優(yōu)于隨機(jī)猜測答案:ACD解析:[多選題]187.下面屬于數(shù)據(jù)科學(xué)理論基礎(chǔ)的有(__)。A)統(tǒng)計學(xué)B)數(shù)據(jù)可視化C)機(jī)器學(xué)習(xí)D)領(lǐng)域知識答案:ABCD解析:[多選題]188.關(guān)于謂詞邏輯,下列描述正確的是()**A)緊接于量詞之后被量詞作用的謂詞公式稱為該量詞的轄域B)在C)僅個體變元被量化的謂詞成為一階謂詞D)個體變元、函數(shù)符號和謂詞符號都被量化的謂詞成為二階謂詞答案:ABCD解析:[多選題]189.關(guān)于BP神經(jīng)網(wǎng)絡(luò)說法正確的是()A)是一種非線性模型B)sigmoid是其常用的一種激活函數(shù)C)可用于分類或回歸D)有良好的自組織自學(xué)習(xí)能力機(jī)器學(xué)習(xí)方法答案:ABCD解析:[多選題]190.給定兩個特征向量,以下哪些方法可以計算這兩個向量相似度()A)歐式距離B)夾角余弦C)信息熵D)曼哈頓距離答案:ABD解析:[多選題]191.以下方法屬于集成方法的是()A)baggingB)stackingC)blendingD)boosting答案:ABCD解析:[多選題]192.集成學(xué)習(xí)中多樣性的增強(qiáng)有哪些___A)數(shù)據(jù)樣本擾動B)輸入屬性擾動C)輸出表示擾動D)算法參數(shù)擾動答案:ABCD解析:[多選題]193.K-means算法中常見的距離度量有()A)兩點之間的距離B)兩類別之間的距離C)簇的距離D)樣本的距離答案:AB解析:[多選題]194.特征預(yù)處理一般包含()A)特征清洗B)特征生成C)特征選擇D)特征歸約答案:ABCD解析:[多選題]195.常見的決策樹節(jié)點測試的類型有()A)離散值,分裂所有可能B)連續(xù)值,分裂兩種可能C)離散值,分裂兩種可能D)連續(xù)值,分裂兩種以上可能答案:ABC解析:[多選題]196.給定兩個特征向量,以下哪些方法可以計算這兩個向量相似度?()A)歐式距離B)夾角余弦(Cosine)C)信息熵D)曼哈頓距離答案:ABD解析:[多選題]197.下列關(guān)于PCA和LDA的描述正確是()。A)PCA和LDA都可對高維數(shù)據(jù)進(jìn)行降維B)PCA可以保留類的信息C)LDA可以保留類的信息D)PCA一般選擇方差大的方向進(jìn)行投影答案:ACD解析:[多選題]198.以下可以有效解決過擬合的方法是:()A)增加樣本數(shù)量B)增加特征數(shù)量C)訓(xùn)練更多的迭代次數(shù)D)采用正則化方法答案:AD解析:[多選題]199.在機(jī)器學(xué)習(xí)中需要劃分?jǐn)?shù)據(jù)集,常用的劃分測試集和訓(xùn)練集的劃分方法有哪些()A)留出法B)交叉驗證法C)自助法D)評分法答案:ABC解析:[多選題]200.下列哪些是特征選擇方法A)AIC赤池信息準(zhǔn)則B)LARS嵌入式特征選擇方法C)LVW包裹式特征選擇方法D)Relief過濾式特征選擇方法答案:BCD解析:[多選題]201.下列關(guān)于偏差表述正確的是(__)。A)偏差度量了學(xué)習(xí)算法的期望預(yù)測與真實結(jié)果的偏離程度。B)偏差刻畫了模型本身的擬合能力C)偏差刻畫了數(shù)據(jù)擾動所造成的影響D)偏差刻畫了學(xué)習(xí)問題本身的難度答案:AB解析:[多選題]202.下列關(guān)于錯誤率和精度描述有誤的是(__)。A)錯誤率是分類錯誤的樣本占樣本總數(shù)的比例B)精度是指分類正確的樣本數(shù)占樣本總數(shù)的比例C)精度表示統(tǒng)計分類器預(yù)測出來的結(jié)果與真實結(jié)果不相同的個數(shù),然后除以總的樣例集D的個數(shù)D)錯誤率表示用統(tǒng)計分類正確的樣本數(shù),除以總的樣例集D的個數(shù)答案:CD解析:[多選題]203.針對維數(shù)災(zāi)難,我們主要采用的降維方法有()。A)多維縮放B)主成分分析C)核化線性降維D)流形學(xué)習(xí)E)度量學(xué)習(xí)答案:ABCDE解析:[多選題]204.關(guān)于線性回歸的描述,以下正確的有:A)基本假設(shè)包括隨機(jī)干擾項是均值為0,方差為1的標(biāo)準(zhǔn)正態(tài)分布B)基本假設(shè)包括隨機(jī)干擾項是均值為0的同方差正態(tài)分布C)在違背基本假設(shè)時,普通最小二乘法估計量不再是最佳線性無偏估計量D)在違背基本假設(shè)時,模型不再可以估計E)可以用DW檢驗殘差是否存在序列相關(guān)性F)多重共線性會使得參數(shù)估計值方差減小答案:BCE解析:第3部分:判斷題,共33題,請判斷題目是否正確。[判斷題]205.隨機(jī)梯度下降運行速度快,內(nèi)存開銷很小,可以支持使用海量數(shù)據(jù)集進(jìn)行訓(xùn)練A)正確B)錯誤答案:對解析:[判斷題]206.模型泛化能力與訓(xùn)練樣本數(shù)量無關(guān)A)正確B)錯誤答案:錯解析:[判斷題]207.通用函數(shù)會對數(shù)組中的每一個元素都進(jìn)行操作。A)正確B)錯誤答案:錯解析:[判斷題]208.DNN是卷積神經(jīng)網(wǎng)絡(luò)A)正確B)錯誤答案:錯解析:[判斷題]209.在聚類算法中,使用歐氏距離作為距離度量,歐氏距離越小,兩個數(shù)據(jù)相似度越低A)正確B)錯誤答案:錯解析:[判斷題]210.類腦人工智能及人工神經(jīng)網(wǎng)絡(luò)只是智能的一種形式A)正確B)錯誤答案:對解析:[判斷題]211.Dropout作用于每份小批量訓(xùn)練數(shù)據(jù),由于其隨機(jī)丟棄部分神經(jīng)元的機(jī)制,相當(dāng)于每次迭代都在訓(xùn)練不同結(jié)構(gòu)的神經(jīng)網(wǎng)絡(luò)。()A)正確B)錯誤答案:對解析:[判斷題]212.梯度下降,就是沿著函數(shù)的梯度(導(dǎo)數(shù))方向更新自變量,使得函數(shù)的取值越來越小,直至達(dá)到全局最小或者局部最小。A)正確B)錯誤答案:對解析:[判斷題]213.聚類效果可以用誤差平方和(SSE)來評價,誤差平方和越小,聚類效果越好A)正確B)錯誤答案:對解析:[判斷題]214.K近鄰算法既可用于分類,也可用于回歸,但更常見的是解決分類問題A)正確B)錯誤答案:對解析:[判斷題]215.如果要卸載指定環(huán)境中的包,則直接使用remove命令移除即可。A)正確B)錯誤答案:對解析:[判斷題]216.機(jī)器學(xué)習(xí)算法在圖像識別領(lǐng)域的性能表現(xiàn)可能會超過人類。A)正確B)錯誤答案:對解析:[判斷題]217.Series和DataFrame都支持切片操作。A)正確B)錯誤答案:對解析:[判斷題]218.NumPy的數(shù)組排序默認(rèn)是從小到大。A)正確B)錯誤答案:對解析:[判斷題]219.最近鄰分離器的泛化錯誤率不會超過貝葉斯最優(yōu)分類器錯誤率的兩倍A)正確B)錯誤答案:對解析:[判斷題]220.Python使用lambda創(chuàng)建匿名函數(shù),匿名函數(shù)擁有自己的命名空間。A)正確B)錯誤答案:對解析:[判斷題]221.神經(jīng)網(wǎng)絡(luò)訓(xùn)練時可以將全部參數(shù)初始化為0。()A)正確B)錯誤答案:錯解析:[判斷題]222.貝葉斯決策論是概率框架下實施決策的基本方法,它是決策論+概率論的組合A)正確B)錯誤答案:對解析:[判斷題]223.k均值聚類算法是一種典型的EM算法A)正確;B)錯誤;答案:對解析:[判斷題]224.神經(jīng)網(wǎng)絡(luò)中最基本的成分是神經(jīng)元模型,即神經(jīng)網(wǎng)絡(luò)中簡單單元A)正確B)錯誤答案:對解析:[判斷題]225.機(jī)器學(xué)習(xí)算法是一類能從數(shù)據(jù)中自動分析獲得規(guī)律,并利用規(guī)律對未知數(shù)據(jù)進(jìn)行預(yù)測的算法A)正確B)錯誤答案:對解析:[判斷題]226.神經(jīng)網(wǎng)絡(luò)算法不能用于數(shù)據(jù)降維A)正確B)錯誤答案:錯解析:[判斷題]227.創(chuàng)建數(shù)組時可以不指定數(shù)據(jù)的類型。A)正確B)錯誤答案:對解析:[判斷題]228.K近鄰算法比較適合于小數(shù)據(jù)樣本A)正確B)錯誤答案:對解析:[判斷題]229.先驗概率是指根據(jù)以往經(jīng)驗和分析得到的概率A)正確B)錯誤答案:對解析:[判斷題]230.平方損失函數(shù)適合

溫馨提示

  • 1. 本站所有資源如無特殊說明,都需要本地電腦安裝OFFICE2007和PDF閱讀器。圖紙軟件為CAD,CAXA,PROE,UG,SolidWorks等.壓縮文件請下載最新的WinRAR軟件解壓。
  • 2. 本站的文檔不包含任何第三方提供的附件圖紙等,如果需要附件,請聯(lián)系上傳者。文件的所有權(quán)益歸上傳用戶所有。
  • 3. 本站RAR壓縮包中若帶圖紙,網(wǎng)頁內(nèi)容里面會有圖紙預(yù)覽,若沒有圖紙預(yù)覽就沒有圖紙。
  • 4. 未經(jīng)權(quán)益所有人同意不得將文件中的內(nèi)容挪作商業(yè)或盈利用途。
  • 5. 人人文庫網(wǎng)僅提供信息存儲空間,僅對用戶上傳內(nèi)容的表現(xiàn)方式做保護(hù)處理,對用戶上傳分享的文檔內(nèi)容本身不做任何修改或編輯,并不能對任何下載內(nèi)容負(fù)責(zé)。
  • 6. 下載文件中如有侵權(quán)或不適當(dāng)內(nèi)容,請與我們聯(lián)系,我們立即糾正。
  • 7. 本站不保證下載資源的準(zhǔn)確性、安全性和完整性, 同時也不承擔(dān)用戶因使用這些下載資源對自己和他人造成任何形式的傷害或損失。

評論

0/150

提交評論