![機(jī)器學(xué)習(xí)-溫州大學(xué)中國(guó)大學(xué)mooc課后章節(jié)答案期末考試題庫(kù)2023年_第1頁(yè)](http://file4.renrendoc.com/view2/M03/38/2A/wKhkFmYVefmANOxVAADY-22kwws958.jpg)
![機(jī)器學(xué)習(xí)-溫州大學(xué)中國(guó)大學(xué)mooc課后章節(jié)答案期末考試題庫(kù)2023年_第2頁(yè)](http://file4.renrendoc.com/view2/M03/38/2A/wKhkFmYVefmANOxVAADY-22kwws9582.jpg)
![機(jī)器學(xué)習(xí)-溫州大學(xué)中國(guó)大學(xué)mooc課后章節(jié)答案期末考試題庫(kù)2023年_第3頁(yè)](http://file4.renrendoc.com/view2/M03/38/2A/wKhkFmYVefmANOxVAADY-22kwws9583.jpg)
![機(jī)器學(xué)習(xí)-溫州大學(xué)中國(guó)大學(xué)mooc課后章節(jié)答案期末考試題庫(kù)2023年_第4頁(yè)](http://file4.renrendoc.com/view2/M03/38/2A/wKhkFmYVefmANOxVAADY-22kwws9584.jpg)
![機(jī)器學(xué)習(xí)-溫州大學(xué)中國(guó)大學(xué)mooc課后章節(jié)答案期末考試題庫(kù)2023年_第5頁(yè)](http://file4.renrendoc.com/view2/M03/38/2A/wKhkFmYVefmANOxVAADY-22kwws9585.jpg)
版權(quán)說(shuō)明:本文檔由用戶提供并上傳,收益歸屬內(nèi)容提供方,若內(nèi)容存在侵權(quán),請(qǐng)進(jìn)行舉報(bào)或認(rèn)領(lǐng)
文檔簡(jiǎn)介
機(jī)器學(xué)習(xí)一溫州大學(xué)中國(guó)大學(xué)mooc課后章節(jié)答案期末考試題庫(kù)2023
年
1.GBDT由哪三個(gè)概念組成:()
參考答案:
RegressionDecisionTree(即DT'GradientBoosting(即
GB)_Shrinkage(縮減)
2.對(duì)于非概率模型而言,可按照判別函數(shù)線性與否分成線性模型與非線性模型。
下面哪些模型屬于線性模型?
參考答案:
K-means_k近鄰一感知機(jī)
3.邏輯回歸分類的精度不夠高,因此在業(yè)界很少用到這個(gè)算法
參考答案:
錯(cuò)誤
4.SMOTE算法是用了上采樣的方法。
參考答案:
正確
5.支持向量是那些最接近決策平面的數(shù)據(jù)點(diǎn)
參考答案:
正確
6.100萬(wàn)條數(shù)據(jù)劃分訓(xùn)練集、驗(yàn)證集、測(cè)試集,數(shù)據(jù)可以這樣劃分:98%,
1%,1%。
參考答案:
正確
7.K均值是一種產(chǎn)生劃分聚類的基于密度的聚類算法,簇的個(gè)數(shù)由算法自動(dòng)地
確定。
參考答案:
錯(cuò)誤
8.樸素貝葉斯法的基本假設(shè)是條件獨(dú)立性。
參考答案:
正確
9.PCA投影方向可從最大化方差和最小化投影誤差這兩個(gè)角度理解。
參考答案:
正確
10.相關(guān)變量的相關(guān)系數(shù)可以為零,對(duì)嗎?
參考答案:
正確
11.Sigmoid函數(shù)的范圍是(-1,1)
參考答案:
錯(cuò)誤
12.影響KNN算法效果的主要因素包括()。
參考答案:
決策規(guī)則小的值一距離度量方式
13.邏輯回歸的特征一定是離散的。
參考答案:
錯(cuò)誤
14.閔可夫斯基距離中的p取1或2時(shí)的閔氏距離是最為常用的,以下哪項(xiàng)是
正確的:()。
參考答案:
閔可夫索基空間不同于牛頓力學(xué)的平坦空間.P取1時(shí)是曼哈頓距離-P取2
時(shí)是歐氏距離_p取無(wú)窮時(shí)是切比雪夫距離
15.KNN算法的缺點(diǎn)包括以下幾點(diǎn)?()
參考答案:
計(jì)算復(fù)采性高;空間復(fù)雜性高,尤其是特征數(shù)非常多的時(shí)候_可解釋性差,
無(wú)法給出決策樹(shù)那樣的規(guī)則_對(duì)訓(xùn)練數(shù)據(jù)依賴度特別大,當(dāng)樣本不平衡的時(shí)
候,對(duì)少數(shù)類的預(yù)測(cè)準(zhǔn)確率低
16.兩個(gè)向量的余弦相似度越接近1,說(shuō)明兩者越相似。
參考答案:
正確
17.k近鄰法(k-NearestNeighbor,kNN)是一種比較成熟也是最簡(jiǎn)單的機(jī)器學(xué)習(xí)
算法,可以用于分類,但不能用于回歸方法。
參考答案:
錯(cuò)誤
18.一個(gè)正例(2,3),一個(gè)負(fù)例(0,-1),下面哪個(gè)是SVM超平面?()
參考答案:
x+2y-3=0
19.數(shù)據(jù)科學(xué)家可能會(huì)同時(shí)使用多個(gè)算法(模型)進(jìn)行預(yù)測(cè),并且最后把這些
算法的結(jié)果集成起來(lái)進(jìn)行最后的預(yù)測(cè)(集成學(xué)習(xí)),以下對(duì)集成學(xué)習(xí)說(shuō)法正
確的是
參考答案:
單個(gè)模型之間有低相關(guān)性
20.KNN沒(méi)有顯示的訓(xùn)練過(guò)程,它在訓(xùn)練階段只是把數(shù)據(jù)保存下來(lái),訓(xùn)練時(shí)間
開(kāi)銷為0,等收到測(cè)試樣本后進(jìn)行處理。
參考答案:
正確
21.在其他條件不變的前提下,以下哪種做法容易引起機(jī)器學(xué)習(xí)中的過(guò)擬合問(wèn)題?
參考答案:
SVM算法中使用高斯核/RBF核代替線性核
22.關(guān)于L1正則化和L2正則化說(shuō)法正確的是()。
參考答案:
L1正則犯無(wú)法有效減低數(shù)據(jù)存儲(chǔ)量
23.BP算法陷入局部極小值的問(wèn)題可通過(guò)更換激活函數(shù)解決。
參考答案:
錯(cuò)誤
24.BP算法的正向傳播是為獲取訓(xùn)練誤差。
參考答案:
正確
25.BP算法的反向傳播是為了對(duì)權(quán)值進(jìn)行調(diào)整。
參考答案:
正確
26.BP算法"喜新厭舊",在學(xué)習(xí)新樣本后,會(huì)把舊樣本逐漸遺忘。
參考答案:
正確
27.關(guān)于BP算法缺點(diǎn)的說(shuō)法正確的是()。
參考答案:
BP算法很容易陷入局部極小值問(wèn)題一BP算法更新沒(méi)有明確的公式,需要不
斷試湊,才能決定隱層節(jié)點(diǎn)數(shù)量.BP算法涉及參數(shù)數(shù)量很多,因此更新速
度慢
28.關(guān)于BP算法優(yōu)點(diǎn)說(shuō)法正確的是()。
參考答案:
BP算法/向傳播采用鏈?zhǔn)椒▌t,推導(dǎo)過(guò)程嚴(yán)謹(jǐn)_BP算法能夠自適應(yīng)學(xué)習(xí)
_BP算法有很強(qiáng)的非線性映射能力
29.一般的多層感知器包含幾種類型層次的神經(jīng)元()。
參考答案:
輸出層一隱藏層一輸入層
30.隱藏層中常用的激活函數(shù)有(多選)()。
參考答案:
Tanh_ReLU_Sigmoid
31.以下關(guān)于極限學(xué)習(xí)機(jī)(ELM)說(shuō)法錯(cuò)誤的是()。
參考答案:
ELM有多個(gè)隱藏層
32.神經(jīng)網(wǎng)絡(luò)算法有時(shí)會(huì)出現(xiàn)過(guò)擬合的情況,那么采取以下哪些方法解決過(guò)擬合
更為可行()。
參考答案:
設(shè)置一個(gè)正則項(xiàng)減小模型的復(fù)雜度
33.Minsky在上世紀(jì)60年代末指出了神經(jīng)網(wǎng)絡(luò)算法的哪種缺點(diǎn),使得神經(jīng)網(wǎng)
絡(luò)算法陷入低潮()。
參考答案:
早期的J經(jīng)網(wǎng)絡(luò)算法無(wú)法處理非線性學(xué)習(xí)問(wèn)題
34.為避免BP算法在迭代過(guò)程中出現(xiàn)局部極小值的問(wèn)題,那么采取以下哪種方
法可行()。
參考答案:
在每一輪迭代中都賦予一定的概率接受次優(yōu)解,但是概率隨迭代不斷降低
35.BP算法總結(jié)錯(cuò)誤的是()。
參考答案:
隱層的閾值梯度只跟本層的神經(jīng)元輸出值有關(guān)
36.以下關(guān)于學(xué)習(xí)率說(shuō)法錯(cuò)誤的是()o
參考答案:
學(xué)習(xí)率必須是固定不變的
37.關(guān)于BP算法反向傳播的說(shuō)法正確的是()。
參考答案:
BP算法反向傳播進(jìn)行更新時(shí)一般用到微積分的鏈?zhǔn)絺鞑シ▌t
38.以下關(guān)于Sigmoid的特點(diǎn)說(shuō)法錯(cuò)誤的是()。
參考答案:
Sigmoid函數(shù)計(jì)算量小
39.關(guān)于BP算法信號(hào)前向傳播的說(shuō)法正確的是()。
參考答案:
C.BP算以在計(jì)算正向傳播輸出值時(shí)需要考慮激活函數(shù)
40.關(guān)于BP算法優(yōu)缺點(diǎn)的說(shuō)法錯(cuò)誤的是()。
參考答案:
BP算法不能用于處理非線性分類問(wèn)題
41.關(guān)于BP算法特點(diǎn)描述錯(cuò)誤的是()。
參考答案:
計(jì)算之前不需要對(duì)訓(xùn)練數(shù)據(jù)進(jìn)行歸一化
42.以下關(guān)于感知器說(shuō)法錯(cuò)誤的是
參考答案:
單層感知器可以用于處理非線性學(xué)習(xí)問(wèn)題
43.以下關(guān)于偏差(Bias)和方差(Variance)說(shuō)法正確的是
參考答案:
獲取更多的訓(xùn)練數(shù)據(jù)可解決高方差的問(wèn)題
44.以下關(guān)于ROC和PR曲線說(shuō)法不正確的是()。
參考答案:
類別不平衡問(wèn)題中,ROC曲線比PR曲線估計(jì)效果要差
45.下列哪種方法可以用來(lái)緩解過(guò)擬合的產(chǎn)生:()。
參考答案:
正則化
46.假設(shè)有100張照片,其中,貓的照片有60張,狗的照片是40張。識(shí)別結(jié)
果:TP=40,FN=20,FP=10,TN=30,則可以得到:()。
參考答案:
Precision=0.8
47.KNN分類的時(shí)候,對(duì)新的樣本,根據(jù)其k個(gè)最近鄰的訓(xùn)練樣本的類別,通
過(guò)多數(shù)表決等方式進(jìn)行預(yù)測(cè)。
參考答案:
正確
48.回歸問(wèn)題和分類問(wèn)題的區(qū)別是什么?
參考答案:
回歸問(wèn)題輸出值是連續(xù)的,分類問(wèn)題輸出值是離散的
49.一個(gè)計(jì)算機(jī)程序從經(jīng)驗(yàn)E中學(xué)習(xí)任務(wù)T,并用P來(lái)衡量表現(xiàn)。并且,T的
表現(xiàn)P隨著經(jīng)驗(yàn)E的增加而提高。假設(shè)我們給一個(gè)學(xué)習(xí)算法輸入了很多歷
史天氣的數(shù)據(jù),讓它學(xué)會(huì)預(yù)測(cè)天氣。什么是P的合理選擇?
參考答案:
正確預(yù)測(cè)未來(lái)日期天氣的概率
50.一個(gè)包含n類的多分類問(wèn)題,若采用一對(duì)剩余的方法,需要拆分成多少次?
參考答案:
n-1
51.()是機(jī)器學(xué)習(xí)的一部分,與神經(jīng)網(wǎng)絡(luò)一起工作。
參考答案:
深度學(xué)習(xí)
52.谷歌新聞每天收集非常多的新聞,并運(yùn)用()方法再將這些新聞分組,組成若
干類有關(guān)聯(lián)的新聞。于是,搜索時(shí)同一組新聞事件往往隸屬同一主題的,所
以顯不到一起。
參考答案:
聚類
53.7.哪種決策樹(shù)沒(méi)有剪枝操作
參考答案:
ID3
54.關(guān)于聚類的說(shuō)法正確的有()
參考答案:
聚類的算法訓(xùn)練樣本往往都不含有標(biāo)簽
55.降維屬于哪種類型的學(xué)習(xí)問(wèn)題()。
參考答案:
無(wú)監(jiān)督學(xué)習(xí)
56.關(guān)于PCA和SVD比較錯(cuò)誤的是()。
參考答案:
PCA無(wú)器進(jìn)行零均值化
57.給定關(guān)聯(lián)規(guī)則A->B,意味著:若A發(fā)生,B也會(huì)發(fā)生。
參考答案:
錯(cuò)誤
58.Apriori算法是一種典型的關(guān)聯(lián)規(guī)則挖掘算法。
參考答案:
正確
59.決策樹(shù)方法通常用于關(guān)聯(lián)規(guī)則挖掘。
參考答案:
錯(cuò)誤
60.SVD可用于求解矩陣的偽逆。
參考答案:
正確
61.PCA會(huì)選取信息量最少的方向進(jìn)行投影。
參考答案:
錯(cuò)誤
62.PCA是一種有效的降維去噪方法。
參考答案:
正確
63.以下關(guān)于PCA說(shuō)法正確的是(多選)()(,
參考答案:
PCA運(yùn)算時(shí)需要進(jìn)行特征值分解_PCA各個(gè)主成分之間正交
64.降維的優(yōu)點(diǎn)有哪些()。
參考答案:
方便消需冗余特征一方便實(shí)現(xiàn)數(shù)據(jù)可視化一減小訓(xùn)練時(shí)間
65.FP-Growth算法的優(yōu)點(diǎn)包括()。
參考答案:
數(shù)據(jù)庫(kù)存儲(chǔ)在內(nèi)存中的壓縮版本中_對(duì)長(zhǎng)、短頻繁模式的挖掘具有高效性和
可擴(kuò)展性一與Apriori算法相比,該算法只需對(duì)數(shù)據(jù)庫(kù)進(jìn)行兩次掃描_該算法
不需要對(duì)項(xiàng)目進(jìn)行配對(duì),因此速度更快
66.FP-Growth和Apriori算法的比較,正確的是()。
參考答案:
FP-growth的模式生成通過(guò)構(gòu)建FP-Tree_FP-Growth沒(méi)有候選集_Apriori
使用候選集
67.以下關(guān)于SVD的優(yōu)化過(guò)程說(shuō)法錯(cuò)誤的是()。
參考答案:
奇異值跟特征值性質(zhì)完全不同
68.幾種常見(jiàn)的降維算法有共同特點(diǎn)有()。
參考答案:
都利用了矩陣分解的思想
69.哪些類型的數(shù)據(jù)適合做降維()。
參考答案:
特征之間存在線性關(guān)系的數(shù)據(jù)
70.降維涉及的投影矩陣一般要求正交,正交矩陣用于投影的優(yōu)缺點(diǎn)說(shuō)法正確的
是()。
參考答案:
正交矩陣投影變換之后的矩陣不同坐標(biāo)之間是不相關(guān)的
71.關(guān)于維數(shù)災(zāi)難的說(shuō)法錯(cuò)誤的是()。
參考答案:
高維度血據(jù)可使得算法泛化能力變得越來(lái)越強(qiáng)
72.關(guān)聯(lián)規(guī)則使用的主要指標(biāo)有()。
參考答案:
支持度(support,置信度(confidence、提升度(lift)
73.關(guān)于關(guān)聯(lián)規(guī)則,正確的是:()。
參考答案:
支持度是衡量關(guān)聯(lián)規(guī)則重要性的一個(gè)指標(biāo)一關(guān)聯(lián)規(guī)則挖掘的算法主要有:
Apriori和FP-Growth_一個(gè)項(xiàng)集滿足最小支持度,我們稱之為頻繁項(xiàng)集
74.置信度(confidence)是衡量興趣度度量()的指標(biāo)。
參考答案:
確定性
75.以下屬于關(guān)聯(lián)規(guī)則分析的是
參考答案:
購(gòu)物籃分析
76.分析顧客消費(fèi)行業(yè),以便有針對(duì)性的向其推薦感興趣的服務(wù),屬于()問(wèn)題。
參考答案:
關(guān)聯(lián)規(guī)則挖掘
77.關(guān)聯(lián)規(guī)則的評(píng)價(jià)指標(biāo)是:()。
參考答案:
支持度、置信度
78.關(guān)于支持向量機(jī)中硬間隔和軟間隔的說(shuō)法錯(cuò)誤的是()。
參考答案:
硬間隔有利于消除模型的過(guò)擬合
79.可用作數(shù)據(jù)挖掘分析中的關(guān)聯(lián)規(guī)則算法有()。
參考答案:
Apriori算法、FP-Tree算法
80.關(guān)于PCA特點(diǎn)說(shuō)法錯(cuò)誤的是()。
參考答案:
PCA算法很難去除噪聲
81.以下哪些是PCA算法的主要應(yīng)用()。
參考答案:
數(shù)據(jù)壓縮
82.某超市研究銷售紀(jì)錄數(shù)據(jù)后發(fā)現(xiàn),買啤酒的人很大概率也會(huì)購(gòu)買尿布,這種
屬于數(shù)據(jù)挖掘的哪類問(wèn)題?o
參考答案:
關(guān)聯(lián)規(guī)則發(fā)現(xiàn)
83.關(guān)于Apriori和FP-growth算法說(shuō)法正確的是()。
參考答案:
FP-growth算法在數(shù)據(jù)庫(kù)較大時(shí),不適宜共享內(nèi)存
84.以下關(guān)于FP-Growth算法表述不正確的有()。
參考答案:
FP-growth只需要一次遍歷數(shù)據(jù),大大提高了效率
85.下列關(guān)于Apriori算法說(shuō)法錯(cuò)誤的是()。
參考答案:
Apriori算法運(yùn)算過(guò)程中不需要找出所有的頻繁項(xiàng)集
86.數(shù)據(jù)之間的相關(guān)關(guān)系可以通過(guò)以下哪個(gè)算法直接挖掘
參考答案:
Apriori
87.以下關(guān)于關(guān)聯(lián)規(guī)則說(shuō)法錯(cuò)誤的是0。
參考答案:
使用購(gòu)物車分析的方法,一定可以提高銷售額
88.關(guān)于特征選擇,下列對(duì)Ridge回歸和Lasso回歸的說(shuō)法正確的是:()。
參考答案:
Lasso回歸適用于特征選擇
89.某超市研究銷售記錄發(fā)現(xiàn)買啤酒的人很大概率也會(huì)買尿布,這屬于數(shù)據(jù)挖掘
的哪類問(wèn)題?
參考答案:
關(guān)聯(lián)規(guī)則發(fā)現(xiàn)
90.以下關(guān)于PCA說(shuō)法正確的是()。
參考答案:
PCA轉(zhuǎn)換后選擇的第一個(gè)方向是最主要特征
91.以下關(guān)于SVD說(shuō)法正確的有()。
參考答案:
SVD并不要求分解矩陣必須是方陣
92.關(guān)于數(shù)據(jù)規(guī)范化,下列說(shuō)法中錯(cuò)誤的是()。
參考答案:
標(biāo)準(zhǔn)化定任何場(chǎng)景下受異常值的影響都很小
93.市場(chǎng)上某商品來(lái)自兩個(gè)工廠,它們市場(chǎng)占有率分別為60%和40%,有兩人
各自買一件,則買到的來(lái)自不同工廠之概率為()。
參考答案:
0.48
94.PCA算法獲取的超平面應(yīng)具有哪些性質(zhì)()。
參考答案:
最近重構(gòu)性一最大可分性
95.下面屬于降維常用的技術(shù)的有:
參考答案:
主成分分析一奇異值分解
96.以下哪些是使用數(shù)據(jù)規(guī)范化(特征縮放)的原因?
參考答案:
它通過(guò)減少迭代次數(shù)來(lái)獲得一個(gè)好的解,從而加快了梯度下降的速度一它不
能防止梯度下降陷入局部最優(yōu)
97.以下關(guān)于降維的說(shuō)法不正確的是?
參考答案:
降維不會(huì)對(duì)數(shù)據(jù)產(chǎn)生損傷
98.以下關(guān)于支持向量機(jī)的說(shuō)法正確的是()。
參考答案:
SVM方條簡(jiǎn)單,魯棒性較好一SVM分類面取決于支持向量
99.線性回歸中,我們可以使用最小二乘法來(lái)求解系數(shù),下列關(guān)于最小二乘法說(shuō)
法正確的是?()
參考答案:
只適用于線性模型,不適合邏輯回歸模型等其他模型一不需要選擇學(xué)習(xí)率一當(dāng)
特征數(shù)量很多的時(shí)候,運(yùn)算速度會(huì)很慢一不需要迭代訓(xùn)練
100.評(píng)價(jià)指標(biāo)中,召回率(Recall)的計(jì)算需要哪些數(shù)值
參考答案:
TPFN
101.下面關(guān)于隨機(jī)森林和梯度提升集成方法的說(shuō)法哪個(gè)是正確的?(多選)()
參考答案:
這兩種三法都可以用來(lái)做分類.兩種方法都可以用來(lái)做回歸
102.LightGBM與XGBoost相比,主要有以下幾個(gè)改進(jìn):(多選)()
參考答案:
基于梯度的單邊采樣算法(Gradient-basedOne-SideSampling,GOSS)_互
斥特征捆綁算法(ExclusiveFeatureBundling,EFB)_直方圖算法
(Histogram]基于最大深度的Leaf-wise的垂直生工算法
103.置信度(confidence)是衡量興趣度度量。的指標(biāo)。
參考答案:
確定性
104.大部分的機(jī)器學(xué)習(xí)工程中,數(shù)據(jù)搜集、數(shù)據(jù)清洗、特征工程這三個(gè)步驟占總
時(shí)間比較少,而數(shù)據(jù)建模,占總時(shí)間比較多。
參考答案:
錯(cuò)誤
105.根據(jù)腫瘤的體積、患者的年齡來(lái)判斷良性或惡性,這是一個(gè)多分類問(wèn)題。
參考答案:
錯(cuò)誤
106.哪種開(kāi)發(fā)語(yǔ)言最適合機(jī)器學(xué)習(xí)?0
參考答案:
Python
107.機(jī)器學(xué)習(xí)這個(gè)術(shù)語(yǔ)是由0定義的?
參考答案:
ArthurSamuel
108.機(jī)器學(xué)習(xí)方法傳統(tǒng)上可以分為()類。
參考答案:
3
109.以下關(guān)于特征選擇的說(shuō)法正確的是?
參考答案:
選擇的特征需盡可能反映不同事物之間的差異
11。以下哪種方法屬于判別模型(discriminativemodel)
參考答案:
支持向量機(jī)
111.哪一個(gè)是機(jī)器學(xué)習(xí)的合理定義?
參考答案:
機(jī)器學(xué)3能使計(jì)算機(jī)能夠在沒(méi)有明確編程的情況下學(xué)習(xí)
112.當(dāng)數(shù)據(jù)分布不平衡時(shí);我們可采取的措施不包括()。
參考答案:
對(duì)數(shù)據(jù)*布較多的類別賦予更大的權(quán)重
113.以下關(guān)于訓(xùn)練集、驗(yàn)證集和測(cè)試集說(shuō)法不正確的是
參考答案:
訓(xùn)練集總用來(lái)訓(xùn)練以及評(píng)估模型性能
114.下面關(guān)于ID3算法中說(shuō)法錯(cuò)誤的是
參考答案:
ID3算卷是一個(gè)二叉樹(shù)模型
115.邏輯回歸與多元回歸分析有哪些不同?
參考答案:
以上全選
116.如果我使用數(shù)據(jù)集的全部特征并且能夠達(dá)到100%的準(zhǔn)確率,但在測(cè)試集上
僅能達(dá)到70%左右,這說(shuō)明
參考答案:
過(guò)擬合
117.某超市研究銷售紀(jì)錄數(shù)據(jù)后發(fā)現(xiàn),買啤酒的人很大概率也會(huì)購(gòu)買尿布,這種
屬于數(shù)據(jù)挖掘的哪類問(wèn)題?0
參考答案.
關(guān)聯(lián)規(guī)疝發(fā)現(xiàn)
118.下列哪種方法可以用來(lái)緩解過(guò)擬合的產(chǎn)生:()。
參考答案:
正則化
119.回歸問(wèn)題和分類問(wèn)題的區(qū)別是?
參考答案:
回歸問(wèn)題輸出值是連續(xù)的,分類問(wèn)題輸出值是離散的
120.bootstrap數(shù)據(jù)的含義是
參考答案:
有放回的從整體N中抽樣n個(gè)樣本
121.一監(jiān)獄人臉識(shí)別準(zhǔn)入系統(tǒng)用來(lái)識(shí)別待進(jìn)入人員的身份,此系統(tǒng)一共包括識(shí)別
4種不同的人員:獄警,小偷,送餐員,其他。下面哪種學(xué)習(xí)方法最適合此
種應(yīng)用需求:
參考答案:
多分類問(wèn)題
122.在邏輯回歸中,如果同時(shí)加入L1和L2范數(shù),不會(huì)產(chǎn)生什么效果
參考答案:
可以獲得更準(zhǔn)確的結(jié)果
123.C4.5是通過(guò)代價(jià)復(fù)雜度剪枝。
參考答案:
錯(cuò)誤
124.樸素貝葉斯適用于小規(guī)模數(shù)據(jù)集,邏輯回歸適用于大規(guī)模數(shù)據(jù)集。
參考答案:
錯(cuò)誤
125.邏輯回歸和樸素貝葉斯都有對(duì)屬性特征獨(dú)立的要求
參考答案:
錯(cuò)誤
126.邏輯回歸是判別模型,樸素貝葉斯是生成模型
參考答案:
正確
127.判別模型所學(xué)內(nèi)容是決策邊界。
參考答案:
正確
128.樸素貝葉斯對(duì)缺失數(shù)據(jù)較敏感。
參考答案:
正確
129.樸素貝葉斯模型假設(shè)屬性之間相互獨(dú)立,這個(gè)假設(shè)在實(shí)際應(yīng)用中往往是不成
立的,在屬性相關(guān)性較小時(shí),樸素貝葉斯性能良好。而在屬性個(gè)數(shù)比較多或
者屬性之間相關(guān)性較大時(shí),分類效果不好。
參考答案:
正確
130.根據(jù)以往經(jīng)驗(yàn)和分析得到的概率。在這里,我們用P(Y)來(lái)代表在沒(méi)有訓(xùn)練
數(shù)據(jù)前假設(shè)丫擁有的初始概率,因此稱其為丫的后驗(yàn)概率,它反映了我們
所擁有的關(guān)于丫的背景知識(shí)。
參考答案:
錯(cuò)誤
131.公司里有一個(gè)人穿了運(yùn)動(dòng)鞋,推測(cè)是男還是女?已知公司里男性30人,女
性70人,男性穿運(yùn)動(dòng)鞋的有25人,穿拖鞋的有5人,女性穿運(yùn)動(dòng)鞋的有
40人,穿高跟鞋的有30人。則以下哪項(xiàng)計(jì)算錯(cuò)誤()?
參考答案:
p(運(yùn)動(dòng)鞋I女性)=0.4
132.擲二枚骰子,事件A為出現(xiàn)的點(diǎn)數(shù)之和等于3的概率為()
參考答案:
1/18
133.關(guān)于樸素貝葉斯,下列說(shuō)法錯(cuò)誤的是:()
參考答案:
樸素的意義在于它的一個(gè)天真的假設(shè):所有特征之間是相互關(guān)聯(lián)的
134.以A表示事件"甲種產(chǎn)品暢銷,乙種產(chǎn)品滯銷",則其對(duì)立事件A為()
參考答案:
甲種產(chǎn)品滯銷或乙種產(chǎn)品暢銷
135.樸素貝葉斯的優(yōu)點(diǎn)不包括()
參考答案:
樸素貝加斯模型對(duì)輸入數(shù)據(jù)的表達(dá)形式很敏感
136.以下算法屬于判別模型的是()
參考答案:
線性回歸
137.假設(shè)X和丫都服從正態(tài)分布,那么P(X<5,丫<0)就是一個(gè)(),表示
X<5,Y<0兩個(gè)條件同時(shí)成立的概率,即兩個(gè)事件共同發(fā)生的概率。
參考答案:
聯(lián)合概率
138.以下關(guān)于決策樹(shù)特點(diǎn)分析的說(shuō)法錯(cuò)誤的有(
參考答案:
算法考捻了數(shù)據(jù)屬性之間的相關(guān)性
139.以下關(guān)于決策樹(shù)原理介紹錯(cuò)誤的有()。
參考答案:
決策樹(shù)算法屬于無(wú)監(jiān)督學(xué)習(xí)
140.我們想要在大數(shù)據(jù)集上訓(xùn)練決策樹(shù)模型,為了使用較少的時(shí)間,可以:()。
參考答案:
減少樹(shù)的深度
141.以下關(guān)于決策樹(shù)算法說(shuō)法錯(cuò)誤的是()。
參考答案:
C4.5算法不能用于處理不完整數(shù)據(jù)
142.以下關(guān)于剪枝操作說(shuō)法正確的是()。
參考答案:
ID3沒(méi)有剪枝策略
143.C4.5選擇屬性用的是()。
參考答案:
信息增益率
144.以下那種說(shuō)法是錯(cuò)誤的
參考答案:
中國(guó)足球隊(duì)?wèi)?zhàn)勝巴西足球隊(duì)的信息嫡要小于中國(guó)乒乓球隊(duì)?wèi)?zhàn)勝巴西乒乓球
隊(duì)的信息精
145.ID3算法的缺點(diǎn)不包括()。
參考答案:
既能用于處理離散分布的特征,也能用于連續(xù)分布的特征處理
146.關(guān)于CART算法,錯(cuò)誤的是
參考答案:
CART算法采用信息增益率的大小來(lái)度量特征的各個(gè)劃分點(diǎn)
147.關(guān)于C4.5算法,錯(cuò)誤的是()。
參考答案:
C4.5算法采用基尼系數(shù)的大小來(lái)度量特征的各個(gè)劃分點(diǎn)
148.1D3選擇屬性用的是
參考答案:
信息增益
149.關(guān)于拉普拉斯平滑說(shuō)法正確的是()
參考答案:
避免了出現(xiàn)概率為0的情況
150.以下算法不屬于生成模型()
參考答案:
支持向量機(jī)
151.下列關(guān)于樸素貝葉斯的特點(diǎn)說(shuō)法錯(cuò)誤的是()
參考答案:
樸素貝加斯模型無(wú)需假設(shè)特征條件獨(dú)立
152.假設(shè)會(huì)開(kāi)車的本科生比例是15%,會(huì)開(kāi)車的研究生比例是23%。若在某大
學(xué)研究生占學(xué)生比例是20%,則會(huì)開(kāi)車的學(xué)生是研究生的概率是多少?
參考答案:
27.71%
153.決策樹(shù)有哪些代表算法
參考答案:
ID3_C4.5_CART
154.以下那種算法需要對(duì)數(shù)據(jù)進(jìn)行歸一化或者標(biāo)準(zhǔn)化()。
參考答案:
KNN_邏輯回歸一線性回歸
155.關(guān)于剪枝,以下算法正確的是:()。
參考答案:
剪枝是防止過(guò)擬合的手段」D3算法沒(méi)有剪枝操作一決策樹(shù)剪枝的基本策略有
預(yù)剪枝和后剪枝
156.邏輯回歸的損失函數(shù)是交叉燧損失
參考答案:
正確
157.邏輯回歸算法資源占用大,尤其是內(nèi)存。
參考答案:
錯(cuò)誤
158.Sigmoid函數(shù)的范圍是(0,1)
參考答案:
正確
159.邏輯回歸的激活函數(shù)是Sigmoid?
參考答案:
正確
160.下面哪些是分類算法?
參考答案:
根據(jù)用戶的年齡、職業(yè)、存款數(shù)量來(lái)判斷信用卡是否會(huì)違約?一身高L85m,
體重100kg的學(xué)生性別?一根據(jù)腫瘤的體積、患者的年齡來(lái)判斷良性或惡性?
161.以下哪項(xiàng)陳述是正確的?選出所有正確項(xiàng)()
參考答案:
使用一式非常大的訓(xùn)練集使得模型不太可能過(guò)擬合訓(xùn)練數(shù)據(jù)。一邏輯回歸使
用了Sigmoid激活函數(shù)
162.你正在訓(xùn)練一個(gè)分類邏輯回歸模型。以下哪項(xiàng)陳述是正確的?選出所有正確
項(xiàng)
參考答案:
向模型中添加新特征總是會(huì)在訓(xùn)練集上獲得相同或更好的性能
163.決策樹(shù)的說(shuō)法正確的是()。
參考答案:
CART使用的是二叉樹(shù)一其可作為分類算法,也可用于回歸模型一它易于理解、
可解釋性強(qiáng)
164.ID3算法的核心思想就是以信息增益來(lái)度量特征選擇,選擇信息增益最大的
特征進(jìn)行分裂。
參考答案:
正確
165.LightGBM與XGBoost相比,主要的優(yōu)勢(shì)不包括0
參考答案:
采用二階泰勒展開(kāi)加快收斂
166.ID3算法只能用于處理離散分布的特征。
參考答案:
正確
167.假設(shè)使用邏輯回歸進(jìn)行多類別分類,使用OVR分類法。下列說(shuō)法正確的是?
參考答案:
對(duì)于n類別,需要訓(xùn)練n個(gè)模型
168.邏輯回歸通常采用哪種正則化方式?
參考答案:
L2正則化
169.以下哪些不是二分類問(wèn)題?
參考答案:
根據(jù)地段、房屋面積、房間數(shù)量來(lái)預(yù)測(cè)房?jī)r(jià)多少。
170.假設(shè)有三類數(shù)據(jù),用OVR方法需要分類幾次才能完成?
參考答案:
2
171.下列哪一項(xiàng)不是邏輯回歸的優(yōu)點(diǎn)?
參考答案:
處理非器性數(shù)據(jù)較容易
172.下面哪一項(xiàng)不是Sigmoid的特點(diǎn)?
參考答案:
當(dāng)o(z)小于0.5時(shí),預(yù)測(cè)y=-l
173.邏輯回歸的損失函數(shù)是哪個(gè)?
參考答案:
交叉牖(Cross-Entropy)損失函數(shù)
174.以下關(guān)于sigmoid函數(shù)的優(yōu)點(diǎn)說(shuō)法錯(cuò)誤的是?
參考答案:
在深層次神經(jīng)網(wǎng)絡(luò)反饋傳輸中,不易出現(xiàn)梯度消失
175.以下關(guān)于邏輯回歸與線性回歸問(wèn)題的描述錯(cuò)誤的是()
參考答案:
邏輯回歸一般要求變量服從正態(tài)分布,線性回歸一般不要求
176.以下關(guān)于分類問(wèn)題的說(shuō)法正確的是?
參考答案:
多分類問(wèn)題可以被拆分為多個(gè)二分類問(wèn)題
177.ID3和C4.5和CART都只能用于分類問(wèn)題,不能用于回歸問(wèn)題。
參考答案:
錯(cuò)誤
178.下列哪個(gè)距離度量不在KNN算法中體現(xiàn):()。
參考答案:
余弦相似度
179.下列選項(xiàng)中,關(guān)于KNN算法說(shuō)法不正確是:()。
參考答案:
效率很高
180.以下距離度量方法中,在城市道路里,要從一個(gè)十字路口開(kāi)車到另外一個(gè)十
字路口的距離是:()。
參考答案:
曼哈頓距離
181.以下關(guān)于KD樹(shù)的說(shuō)法錯(cuò)誤的是(
參考答案:
所有x值小于指定值的節(jié)點(diǎn)會(huì)出現(xiàn)在右子樹(shù)
182.利用KD樹(shù)進(jìn)行搜索時(shí),正確的方式是
參考答案:
若數(shù)據(jù)小于對(duì)應(yīng)節(jié)點(diǎn)中k維度的值,則訪問(wèn)左節(jié)點(diǎn)
183.以下哪項(xiàng)是KNN算法的缺點(diǎn)?()
參考答案:
計(jì)算成本高
184.關(guān)于余弦相似度,不正確的是()。
參考答案:
余弦相似度為-1時(shí)候,兩個(gè)向量完全不相關(guān)
185.KD樹(shù)(K-DimensionTree)的描述中,不正確的是()。
參考答案:
KD樹(shù)切.時(shí),從方差小的維度開(kāi)始切分
186.13聚類的代表算法有()。
參考答案:
K-means_DBSCAN
187.當(dāng)簇內(nèi)樣本點(diǎn)數(shù)量大于某個(gè)閾值時(shí),便將該簇進(jìn)行拆分,這種聚類方式為
()。
參考答案:
密度聚類
188.假設(shè)有6個(gè)二維數(shù)據(jù)點(diǎn):D={(2,3),(5,7),(9,6),(4,5),(6,4),(7,2)},第一次切分
時(shí)候,切分線為
參考答案:
x=6
189.KNN算法在什么情況下效果較好?()
參考答案:
樣本較少但典型性好
190.以下哪些可作為kmeans方法停止循環(huán)的指標(biāo)()。
參考答案:
當(dāng)所有數(shù)據(jù)隸屬的簇不再發(fā)生變化的時(shí)候
191.以下哪些不是聚類中用于衡量度量距離的指標(biāo)()。
參考答案:
馬氏距離
192.關(guān)于kmean算法的實(shí)現(xiàn)描述錯(cuò)誤的是()
參考答案:
可以輕松發(fā)現(xiàn)非凸形狀的簇
193.關(guān)于K均值和DBSCAN的比較,以下說(shuō)法不正確的是()。
參考答案:
K均值雇用簇的基于層次的概念
194.簡(jiǎn)單地將數(shù)據(jù)對(duì)象集劃分成不重疊的子集,使得每個(gè)數(shù)據(jù)對(duì)象恰在一個(gè)子集
中,這種聚類類型稱作()。
參考答案:
劃分聚類
195.以下不屬于聚類算法的是()。
參考答案:
隨機(jī)森林
196.以下關(guān)于K-means算法錯(cuò)誤的有
參考答案:
K-means算法不會(huì)出現(xiàn)局部極小值的問(wèn)題
197.下列關(guān)于Kmeans聚類算法的說(shuō)法錯(cuò)誤的是()。
參考答案:
初始聚類中心的選擇對(duì)聚類結(jié)果影響不大
198.1聚類屬于哪種學(xué)習(xí)方式
參考答案:
無(wú)監(jiān)督學(xué)習(xí)
199.關(guān)于KNN算法的描述,不正確的是
參考答案:
距離度量的方式通常用曼哈頓距離
200.在隨機(jī)森林里,你生成了幾百顆樹(shù)(TLT2.....Tn),然后對(duì)這些樹(shù)的結(jié)果進(jìn)
行綜合,下面關(guān)于隨機(jī)森林中每顆樹(shù)的說(shuō)法正確的是?()
參考答案:
每棵樹(shù)是通過(guò)數(shù)據(jù)集的子集和特征的子集構(gòu)建的
201.以下關(guān)于集成學(xué)習(xí)特性說(shuō)法錯(cuò)誤的是
參考答案:
集成多個(gè)線性分類器也無(wú)法解決非線性分類問(wèn)題
202.以下關(guān)于隨機(jī)森林(RandomForest)說(shuō)法正確的是()。
參考答案:
隨機(jī)森樂(lè)構(gòu)建決策樹(shù)時(shí),是有放回的選取訓(xùn)練數(shù)據(jù)
203.以下關(guān)于AdaBoost算法說(shuō)法正確的是
參考答案:
AdaBoost使用的損失函數(shù)是指數(shù)函數(shù)
204.以下關(guān)于GBDT算法說(shuō)法錯(cuò)誤的是()。
參考答案:
GBDT使用的是放回采樣
205.假設(shè)有100張照片,其中,貓的照片有60張,狗的照片是40張。識(shí)別結(jié)
果:TP=40,FN=20,FP=10,TN=30,則可以得到:()?
參考答案:
Precision=0.8
206.SMOTE算法是用了下采樣的方法。
參考答案:
錯(cuò)誤
207.L2正則化得到的解更加稀疏。
參考答案:
錯(cuò)誤
208.特征空間越大,過(guò)擬合的可能性越大。
參考答案:
正確
209.評(píng)估完模型之后,發(fā)現(xiàn)模型存在高偏差(highbias),應(yīng)該如何解決?()
參考答案:
增加模型的特征數(shù)量_嘗試減少正則化系數(shù)
210.XGBoost算法說(shuō)法錯(cuò)誤的是()
參考答案:
XGBoost算法的目標(biāo)函數(shù)采用了一階泰勒展開(kāi)
211.關(guān)于Bagging方法,以下說(shuō)法錯(cuò)誤的是()
參考答案:
對(duì)各弱分類器的訓(xùn)練可以通過(guò)串行方式進(jìn)行
212.Adboost的優(yōu)點(diǎn)不包括()
參考答案:
對(duì)異常點(diǎn)敏感,異常點(diǎn)會(huì)獲得較高權(quán)重
213.LightGBM與XGBoost相比,主要的優(yōu)勢(shì)不包括()
參考答案:
采用二加泰勒展開(kāi)加快收斂
214.隨機(jī)森林和GBDT的描述不正確的是()
參考答案:
兩者都是使用了Boosting思想
215.以下關(guān)于KNN說(shuō)法正確的是(多選)()。
參考答案:
對(duì)異常值不敏感_對(duì)數(shù)據(jù)沒(méi)有假設(shè)一計(jì)算復(fù)雜度低
216.以下那種算法不是集成學(xué)習(xí)算法()
參考答案:
決策樹(shù)
217.GBDT算法的描述,不正確的是
參考答案:
梯度提升算法通過(guò)迭代地選擇一個(gè)梯度方向上的基函數(shù)來(lái)逐漸逼近局部極
小值
218.集成學(xué)習(xí)有以下哪幾種代表算法(多選)()。
參考答案:
GBDT一隨機(jī)森林一AdaBoost
219.XGBoost對(duì)損失函數(shù)做了二階泰勒展開(kāi),GBDT只用了一階導(dǎo)數(shù)信息,并且
XGBoost還支持自定義損失函數(shù),只要損失函數(shù)一階、二階可導(dǎo)。0
參考答案:
正確
220.集成學(xué)習(xí)的數(shù)據(jù)不需要?dú)w一化或者標(biāo)準(zhǔn)化。
參考答案:
正確
221.評(píng)價(jià)指標(biāo)中,精確率(Precision)的計(jì)算需要哪些數(shù)值()。
參考答案:
TP.FP
222.以下關(guān)于交叉驗(yàn)證說(shuō)法正確的是()。
參考答案:
交叉驗(yàn)證可利用模型選擇避免過(guò)擬合的情況一交叉驗(yàn)證可對(duì)模型性能合理評(píng)
估一交叉驗(yàn)證大大增加了計(jì)算量
223.一個(gè)正負(fù)樣本不平衡問(wèn)題(正樣本99%,負(fù)樣本1%)。假如在這個(gè)非平衡的
數(shù)據(jù)集上建立一個(gè)模型,得到訓(xùn)練樣本的正確率是99%,則下列說(shuō)法正確
的是?()
參考答案:
模型正確率并不能反映模型的真實(shí)效果
224.隨著訓(xùn)練樣本的數(shù)量越來(lái)越大,則該數(shù)據(jù)訓(xùn)練的模型將具有:()。
參考答案:
相同偏差
225.LightGBM在建樹(shù)過(guò)程中,采用基于最大深度的Leaf-wise的垂直生長(zhǎng)算法。
參考答案:
正確
226.隨機(jī)森林和GBDT都是使用了Bagging思想。
參考答案:
錯(cuò)誤
227.過(guò)擬合的處理可以通過(guò)增大正則化系數(shù)。
參考答案:
正確
228.L1正則化往往用于防止過(guò)擬合,而L2正則化往往用于特征選擇。
參考答案:
錯(cuò)誤
229.隨機(jī)梯度下降,每次迭代時(shí)候,使用一個(gè)樣本。
參考答案:
正確
230.如果兩個(gè)變量相關(guān),那么它們有可能是線性關(guān)系。
參考答案:
正確
231.假如使用一個(gè)較復(fù)雜的回歸模型來(lái)擬合樣本數(shù)據(jù),使用Ridge回歸,調(diào)試正
則化參數(shù),來(lái)降低模型復(fù)雜度,若正則化系數(shù)較大時(shí),關(guān)于偏差(bias)和方
差(variance),下列說(shuō)法正確的是?()
參考答案:
方差減小一偏差增大
232.對(duì)于在原空間中線性不可分問(wèn)題,支持向量機(jī)()o
參考答案:
將數(shù)據(jù)映射到核空間中
233.SVM中核函數(shù)將高維空間中的數(shù)據(jù)映射到低維空間。
參考答案:
錯(cuò)
溫馨提示
- 1. 本站所有資源如無(wú)特殊說(shuō)明,都需要本地電腦安裝OFFICE2007和PDF閱讀器。圖紙軟件為CAD,CAXA,PROE,UG,SolidWorks等.壓縮文件請(qǐng)下載最新的WinRAR軟件解壓。
- 2. 本站的文檔不包含任何第三方提供的附件圖紙等,如果需要附件,請(qǐng)聯(lián)系上傳者。文件的所有權(quán)益歸上傳用戶所有。
- 3. 本站RAR壓縮包中若帶圖紙,網(wǎng)頁(yè)內(nèi)容里面會(huì)有圖紙預(yù)覽,若沒(méi)有圖紙預(yù)覽就沒(méi)有圖紙。
- 4. 未經(jīng)權(quán)益所有人同意不得將文件中的內(nèi)容挪作商業(yè)或盈利用途。
- 5. 人人文庫(kù)網(wǎng)僅提供信息存儲(chǔ)空間,僅對(duì)用戶上傳內(nèi)容的表現(xiàn)方式做保護(hù)處理,對(duì)用戶上傳分享的文檔內(nèi)容本身不做任何修改或編輯,并不能對(duì)任何下載內(nèi)容負(fù)責(zé)。
- 6. 下載文件中如有侵權(quán)或不適當(dāng)內(nèi)容,請(qǐng)與我們聯(lián)系,我們立即糾正。
- 7. 本站不保證下載資源的準(zhǔn)確性、安全性和完整性, 同時(shí)也不承擔(dān)用戶因使用這些下載資源對(duì)自己和他人造成任何形式的傷害或損失。
最新文檔
- 標(biāo)準(zhǔn)租房合同協(xié)議
- 汽車居間協(xié)議合同
- 勞務(wù)合同協(xié)議書
- 七年級(jí)上冊(cè)地理聽(tīng)課評(píng)課記錄人教版4篇
- 單位向個(gè)人租車合同年
- 押證不押車健身貸款合同
- 酒店內(nèi)部商鋪?zhàn)赓U合同范本
- 2024年生物科技項(xiàng)目運(yùn)營(yíng)合同
- 公司員工勞動(dòng)合同范本
- 入住酒店合同范本
- 《白蛇緣起》賞析
- Interstellar-星際穿越課件
- 蘇教版2022-2023學(xué)年三年級(jí)數(shù)學(xué)下冊(cè)開(kāi)學(xué)摸底考試卷(五)含答案與解析
- 2023學(xué)年度第一學(xué)期高三英語(yǔ)備課組工作總結(jié)
- 臨建標(biāo)準(zhǔn)化圖集新版
- 安監(jiān)人員考核細(xì)則(2篇)
- 生活老師培訓(xùn)資料課件
- 腹主動(dòng)脈瘤(護(hù)理業(yè)務(wù)學(xué)習(xí))
- 注射用醋酸亮丙瑞林微球
- 大學(xué)生就業(yè)指導(dǎo)PPT(第2版)全套完整教學(xué)課件
- 家具安裝工培訓(xùn)教案優(yōu)質(zhì)資料
評(píng)論
0/150
提交評(píng)論