《機器學習-Python實踐》試卷及答案 卷2_第1頁
《機器學習-Python實踐》試卷及答案 卷2_第2頁
《機器學習-Python實踐》試卷及答案 卷2_第3頁
《機器學習-Python實踐》試卷及答案 卷2_第4頁
《機器學習-Python實踐》試卷及答案 卷2_第5頁
已閱讀5頁,還剩4頁未讀 繼續(xù)免費閱讀

下載本文檔

版權說明:本文檔由用戶提供并上傳,收益歸屬內(nèi)容提供方,若內(nèi)容存在侵權,請進行舉報或認領

文檔簡介

第1頁,共1頁一、單項選擇題(本大題共10小題,每題3分,共30分)試卷(試卷(學年第1學期)考試科目機器學習-Python實踐(A卷)適用專業(yè)班級(年級)得分命題人:審閱人:班級學號姓名考試科目裝訂線1、假設,現(xiàn)在我們已經(jīng)建了一個模型來分類,而且有了99%的預測準確率,我們可以下的結論是:()A.模型預測準確率已經(jīng)很高了,我們不需要做什么了B.模型預測準確率不高,我們需要做點什么改進模型C.無法下結論D.以上都不對2、我們想在大數(shù)據(jù)集上訓練決策樹,為了使用較少時間,我們可以:()A.增加樹的深度B.增加學習率(learningrate)C.減少樹的深度D.減少樹的數(shù)量3、對于線性回歸,我們應該有以下哪些假設?()1.找到離群點很重要,因為線性回歸對利群點很敏感2.線性回歸要求所有變量必須符合正態(tài)分布3.線性回歸假設數(shù)據(jù)沒有多重線性相關性A.1和2B.2和3C.1,2和3D.以上都不是4、關于正態(tài)分布,下列說法錯誤的是:()A.正態(tài)分布具有集中性和對稱性B.正態(tài)分布的均值和方差能夠決定正態(tài)分布的位置和形態(tài)C.正態(tài)分布的偏度為0,峰度為1D.標準正態(tài)分布的均值為0,方差為15、決策樹的父節(jié)點和子節(jié)點的熵的大小關系是什么?()A.決策樹的父節(jié)點更大B.子節(jié)點的熵更大C.兩者相等D.根據(jù)具體情況而定6、下列關于極大似然估計(MaximumLikelihoodEstimate,MLE),說法正確的是(多選)?()A.MLE可能并不存在B.MLE總是存在C.如果MLE存在,那么它的解可能不是唯一的D.如果MLE存在,那么它的解一定是唯一的7、一般來說,下列哪種方法常用來預測連續(xù)獨立變量?()A.線性回歸B.邏輯回顧C.線性回歸和邏輯回歸都行D.以上說法都不對8、你使用隨機森林生成了幾百顆樹(T1,T2,...,Tn),然后對這些樹的預測結果進行綜合,下列說法正確的是:()1、每棵樹是通過所有數(shù)據(jù)的子集構建而成的2、每棵樹學習的樣本數(shù)據(jù)都是通過隨機有放回采樣而得的3、每棵樹是通過數(shù)據(jù)集的子集和特征的子集構建而成的4、每棵樹是通過所有的數(shù)據(jù)構建而成的A.1和2B.2和4C.1、2和3D.2和39、下面關于隨機森林和GBDT的說法正確的是:()①這兩種方法都可以用來解決分類問題②隨機森林解決分類問題,GBDT解決回歸問題③隨機森林解決回歸問題,GBDT解決分類問題④這兩種方法都可以用來解決回歸問題A.①B.②C.③D.④E.①和④10、關于隨機森林和GBDT,下列說法錯誤的是:()A.隨機森林中每個學習器是相互獨立的B.隨機森林利用了bagging的思想來構建強學習器C.GBDT利用了Boosting的思想來構建強學習器D.GBDT中每個學習器之間沒有任何聯(lián)系二、判斷題(本大題共10小題,每題1分,共10分)1、SVM是一個凸優(yōu)化問題,因此局部最優(yōu)解一定是全局最優(yōu)解的優(yōu)點。()2、錯誤否定(FalseNegative,FN):預測為假,實際為真。()3、邏輯回歸的因變量可以是二分類的,也可以是多分類的,但是二分類的更為常用,也更加容易解釋。所以實際中最常用的就是二分類的邏輯回歸。()4、決策樹只能處理數(shù)據(jù)型屬性。()5、樸素貝葉斯適合高維數(shù)據(jù)。()6、隨機事件X所包含的信息量與其發(fā)生的概率有關。發(fā)生的概率越小,其信息量就越小。()7、決策樹短時間內(nèi)處理大量數(shù)據(jù),得到可行且效果較好的結果。()8、集成學習以boosting、Adaboost等算法為代表的,個體學習器不是串行序列化生成的、具有依賴關系。()9、Adaboost算法流程給數(shù)據(jù)中的每一個樣本一個權重。()10、Adaboost算法流程訓練數(shù)據(jù)中的每一個樣本,得到第一個分類器()三、填空(本大題共10小題,每題3分,共30分)1、評判分類效果好壞的三個指標就是上面介紹的三個指標:,,。2、提取出的正確信息條數(shù)/提取出的信息條數(shù)是。3、模型把訓練樣本學習“太好了”,可能把一些訓練樣本自身的特性當做了所有潛在樣本都有的一般性質(zhì),導致泛化能力下降叫。4、分類是預測,比如把人分為好人和壞人之類的學習任務。5、訓練用到的每個樣本叫。6、訓練過程中用到的數(shù)據(jù)叫。7、在某些情況下,我們會討論坐標超過兩維的數(shù)組。一般地,一個數(shù)組中的元素分布在若干維坐標的規(guī)則網(wǎng)格中,我們將其稱之為。8、聚類的特征選擇:從最初的特征中選擇最有效的特征,并將其存儲在?中。9、聚類的特征提取:通過對進行轉換形成新的突出特征。10、聚類的聚類:基于某種距離函數(shù)進行相似度度量,獲取。四、簡答題(本大題共3小題,共30分)1、為什么樸素貝葉斯如此“樸素”?2、簡單說下有監(jiān)督學習和無監(jiān)督學習的區(qū)別?3、特征選擇與數(shù)據(jù)降維(特征提取)?一、選擇題1.B 2.C 3.D 4.C 5.B 6.AC 7.A 8.D 9.E 10.D二、判斷題1.對 2.對 3.對 4.錯 5.錯 6.錯 7.對 8.錯 9.對 10.對 三、填空題1.正確率召回率F值 2.正確率 3.過擬合 4.離散值5.訓練樣本 6.訓練集 7.張量 8.向量 9.選擇的特征 10.簇四、簡答題1、因為它假定所有的特征在數(shù)據(jù)集中的作用是同樣重要和獨立的。正如我們所知,這個假設在現(xiàn)實世界中是很不真實的,因此,說樸素貝葉斯真的很“樸素”。2、答:有監(jiān)督學習:對具有標記的訓練樣本進行學習,以盡可能對訓練樣本集外的數(shù)據(jù)進行分類預測。(LR,SVM,BP,RF,GBDT)無監(jiān)督學習:對未標記的樣本進行訓練學習,比發(fā)現(xiàn)這些樣本中的結構知識。(KMeans,DL)3、答:降維的方法:結合專業(yè)知識剔除或合并類別通過數(shù)據(jù)概要來發(fā)現(xiàn)變量間的信息重疊(并剔除或合并類別)對數(shù)據(jù)進行轉換,例如將分類型變量轉換為數(shù)值型變量使用如主成分分析(PCA

溫馨提示

  • 1. 本站所有資源如無特殊說明,都需要本地電腦安裝OFFICE2007和PDF閱讀器。圖紙軟件為CAD,CAXA,PROE,UG,SolidWorks等.壓縮文件請下載最新的WinRAR軟件解壓。
  • 2. 本站的文檔不包含任何第三方提供的附件圖紙等,如果需要附件,請聯(lián)系上傳者。文件的所有權益歸上傳用戶所有。
  • 3. 本站RAR壓縮包中若帶圖紙,網(wǎng)頁內(nèi)容里面會有圖紙預覽,若沒有圖紙預覽就沒有圖紙。
  • 4. 未經(jīng)權益所有人同意不得將文件中的內(nèi)容挪作商業(yè)或盈利用途。
  • 5. 人人文庫網(wǎng)僅提供信息存儲空間,僅對用戶上傳內(nèi)容的表現(xiàn)方式做保護處理,對用戶上傳分享的文檔內(nèi)容本身不做任何修改或編輯,并不能對任何下載內(nèi)容負責。
  • 6. 下載文件中如有侵權或不適當內(nèi)容,請與我們聯(lián)系,我們立即糾正。
  • 7. 本站不保證下載資源的準確性、安全性和完整性, 同時也不承擔用戶因使用這些下載資源對自己和他人造成任何形式的傷害或損失。

最新文檔

評論

0/150

提交評論