機(jī)器學(xué)習(xí)-溫州大學(xué)中國(guó)大學(xué)mooc課后章節(jié)答案期末考試題庫(kù)2023年_第1頁(yè)
機(jī)器學(xué)習(xí)-溫州大學(xué)中國(guó)大學(xué)mooc課后章節(jié)答案期末考試題庫(kù)2023年_第2頁(yè)
機(jī)器學(xué)習(xí)-溫州大學(xué)中國(guó)大學(xué)mooc課后章節(jié)答案期末考試題庫(kù)2023年_第3頁(yè)
機(jī)器學(xué)習(xí)-溫州大學(xué)中國(guó)大學(xué)mooc課后章節(jié)答案期末考試題庫(kù)2023年_第4頁(yè)
機(jī)器學(xué)習(xí)-溫州大學(xué)中國(guó)大學(xué)mooc課后章節(jié)答案期末考試題庫(kù)2023年_第5頁(yè)
已閱讀5頁(yè),還剩42頁(yè)未讀 繼續(xù)免費(fèi)閱讀

下載本文檔

版權(quán)說(shuō)明:本文檔由用戶提供并上傳,收益歸屬內(nèi)容提供方,若內(nèi)容存在侵權(quán),請(qǐng)進(jìn)行舉報(bào)或認(rèn)領(lǐng)

文檔簡(jiǎn)介

機(jī)器學(xué)習(xí)一溫州大學(xué)中國(guó)大學(xué)mooc課后章節(jié)答案期末考試題庫(kù)2023

1.GBDT由哪三個(gè)概念組成:()

參考答案:

RegressionDecisionTree(即DT'GradientBoosting(即

GB)_Shrinkage(縮減)

2.對(duì)于非概率模型而言,可按照判別函數(shù)線性與否分成線性模型與非線性模型。

下面哪些模型屬于線性模型?

參考答案:

K-means_k近鄰一感知機(jī)

3.邏輯回歸分類的精度不夠高,因此在業(yè)界很少用到這個(gè)算法

參考答案:

錯(cuò)誤

4.SMOTE算法是用了上采樣的方法。

參考答案:

正確

5.支持向量是那些最接近決策平面的數(shù)據(jù)點(diǎn)

參考答案:

正確

6.100萬(wàn)條數(shù)據(jù)劃分訓(xùn)練集、驗(yàn)證集、測(cè)試集,數(shù)據(jù)可以這樣劃分:98%,

1%,1%。

參考答案:

正確

7.K均值是一種產(chǎn)生劃分聚類的基于密度的聚類算法,簇的個(gè)數(shù)由算法自動(dòng)地

確定。

參考答案:

錯(cuò)誤

8.樸素貝葉斯法的基本假設(shè)是條件獨(dú)立性。

參考答案:

正確

9.PCA投影方向可從最大化方差和最小化投影誤差這兩個(gè)角度理解。

參考答案:

正確

10.相關(guān)變量的相關(guān)系數(shù)可以為零,對(duì)嗎?

參考答案:

正確

11.Sigmoid函數(shù)的范圍是(-1,1)

參考答案:

錯(cuò)誤

12.影響KNN算法效果的主要因素包括()。

參考答案:

決策規(guī)則小的值一距離度量方式

13.邏輯回歸的特征一定是離散的。

參考答案:

錯(cuò)誤

14.閔可夫斯基距離中的p取1或2時(shí)的閔氏距離是最為常用的,以下哪項(xiàng)是

正確的:()。

參考答案:

閔可夫索基空間不同于牛頓力學(xué)的平坦空間.P取1時(shí)是曼哈頓距離-P取2

時(shí)是歐氏距離_p取無(wú)窮時(shí)是切比雪夫距離

15.KNN算法的缺點(diǎn)包括以下幾點(diǎn)?()

參考答案:

計(jì)算復(fù)采性高;空間復(fù)雜性高,尤其是特征數(shù)非常多的時(shí)候_可解釋性差,

無(wú)法給出決策樹(shù)那樣的規(guī)則_對(duì)訓(xùn)練數(shù)據(jù)依賴度特別大,當(dāng)樣本不平衡的時(shí)

候,對(duì)少數(shù)類的預(yù)測(cè)準(zhǔn)確率低

16.兩個(gè)向量的余弦相似度越接近1,說(shuō)明兩者越相似。

參考答案:

正確

17.k近鄰法(k-NearestNeighbor,kNN)是一種比較成熟也是最簡(jiǎn)單的機(jī)器學(xué)習(xí)

算法,可以用于分類,但不能用于回歸方法。

參考答案:

錯(cuò)誤

18.一個(gè)正例(2,3),一個(gè)負(fù)例(0,-1),下面哪個(gè)是SVM超平面?()

參考答案:

x+2y-3=0

19.數(shù)據(jù)科學(xué)家可能會(huì)同時(shí)使用多個(gè)算法(模型)進(jìn)行預(yù)測(cè),并且最后把這些

算法的結(jié)果集成起來(lái)進(jìn)行最后的預(yù)測(cè)(集成學(xué)習(xí)),以下對(duì)集成學(xué)習(xí)說(shuō)法正

確的是

參考答案:

單個(gè)模型之間有低相關(guān)性

20.KNN沒(méi)有顯示的訓(xùn)練過(guò)程,它在訓(xùn)練階段只是把數(shù)據(jù)保存下來(lái),訓(xùn)練時(shí)間

開(kāi)銷為0,等收到測(cè)試樣本后進(jìn)行處理。

參考答案:

正確

21.在其他條件不變的前提下,以下哪種做法容易引起機(jī)器學(xué)習(xí)中的過(guò)擬合問(wèn)題?

參考答案:

SVM算法中使用高斯核/RBF核代替線性核

22.關(guān)于L1正則化和L2正則化說(shuō)法正確的是()。

參考答案:

L1正則犯無(wú)法有效減低數(shù)據(jù)存儲(chǔ)量

23.BP算法陷入局部極小值的問(wèn)題可通過(guò)更換激活函數(shù)解決。

參考答案:

錯(cuò)誤

24.BP算法的正向傳播是為獲取訓(xùn)練誤差。

參考答案:

正確

25.BP算法的反向傳播是為了對(duì)權(quán)值進(jìn)行調(diào)整。

參考答案:

正確

26.BP算法"喜新厭舊",在學(xué)習(xí)新樣本后,會(huì)把舊樣本逐漸遺忘。

參考答案:

正確

27.關(guān)于BP算法缺點(diǎn)的說(shuō)法正確的是()。

參考答案:

BP算法很容易陷入局部極小值問(wèn)題一BP算法更新沒(méi)有明確的公式,需要不

斷試湊,才能決定隱層節(jié)點(diǎn)數(shù)量.BP算法涉及參數(shù)數(shù)量很多,因此更新速

度慢

28.關(guān)于BP算法優(yōu)點(diǎn)說(shuō)法正確的是()。

參考答案:

BP算法/向傳播采用鏈?zhǔn)椒▌t,推導(dǎo)過(guò)程嚴(yán)謹(jǐn)_BP算法能夠自適應(yīng)學(xué)習(xí)

_BP算法有很強(qiáng)的非線性映射能力

29.一般的多層感知器包含幾種類型層次的神經(jīng)元()。

參考答案:

輸出層一隱藏層一輸入層

30.隱藏層中常用的激活函數(shù)有(多選)()。

參考答案:

Tanh_ReLU_Sigmoid

31.以下關(guān)于極限學(xué)習(xí)機(jī)(ELM)說(shuō)法錯(cuò)誤的是()。

參考答案:

ELM有多個(gè)隱藏層

32.神經(jīng)網(wǎng)絡(luò)算法有時(shí)會(huì)出現(xiàn)過(guò)擬合的情況,那么采取以下哪些方法解決過(guò)擬合

更為可行()。

參考答案:

設(shè)置一個(gè)正則項(xiàng)減小模型的復(fù)雜度

33.Minsky在上世紀(jì)60年代末指出了神經(jīng)網(wǎng)絡(luò)算法的哪種缺點(diǎn),使得神經(jīng)網(wǎng)

絡(luò)算法陷入低潮()。

參考答案:

早期的J經(jīng)網(wǎng)絡(luò)算法無(wú)法處理非線性學(xué)習(xí)問(wèn)題

34.為避免BP算法在迭代過(guò)程中出現(xiàn)局部極小值的問(wèn)題,那么采取以下哪種方

法可行()。

參考答案:

在每一輪迭代中都賦予一定的概率接受次優(yōu)解,但是概率隨迭代不斷降低

35.BP算法總結(jié)錯(cuò)誤的是()。

參考答案:

隱層的閾值梯度只跟本層的神經(jīng)元輸出值有關(guān)

36.以下關(guān)于學(xué)習(xí)率說(shuō)法錯(cuò)誤的是()o

參考答案:

學(xué)習(xí)率必須是固定不變的

37.關(guān)于BP算法反向傳播的說(shuō)法正確的是()。

參考答案:

BP算法反向傳播進(jìn)行更新時(shí)一般用到微積分的鏈?zhǔn)絺鞑シ▌t

38.以下關(guān)于Sigmoid的特點(diǎn)說(shuō)法錯(cuò)誤的是()。

參考答案:

Sigmoid函數(shù)計(jì)算量小

39.關(guān)于BP算法信號(hào)前向傳播的說(shuō)法正確的是()。

參考答案:

C.BP算以在計(jì)算正向傳播輸出值時(shí)需要考慮激活函數(shù)

40.關(guān)于BP算法優(yōu)缺點(diǎn)的說(shuō)法錯(cuò)誤的是()。

參考答案:

BP算法不能用于處理非線性分類問(wèn)題

41.關(guān)于BP算法特點(diǎn)描述錯(cuò)誤的是()。

參考答案:

計(jì)算之前不需要對(duì)訓(xùn)練數(shù)據(jù)進(jìn)行歸一化

42.以下關(guān)于感知器說(shuō)法錯(cuò)誤的是

參考答案:

單層感知器可以用于處理非線性學(xué)習(xí)問(wèn)題

43.以下關(guān)于偏差(Bias)和方差(Variance)說(shuō)法正確的是

參考答案:

獲取更多的訓(xùn)練數(shù)據(jù)可解決高方差的問(wèn)題

44.以下關(guān)于ROC和PR曲線說(shuō)法不正確的是()。

參考答案:

類別不平衡問(wèn)題中,ROC曲線比PR曲線估計(jì)效果要差

45.下列哪種方法可以用來(lái)緩解過(guò)擬合的產(chǎn)生:()。

參考答案:

正則化

46.假設(shè)有100張照片,其中,貓的照片有60張,狗的照片是40張。識(shí)別結(jié)

果:TP=40,FN=20,FP=10,TN=30,則可以得到:()。

參考答案:

Precision=0.8

47.KNN分類的時(shí)候,對(duì)新的樣本,根據(jù)其k個(gè)最近鄰的訓(xùn)練樣本的類別,通

過(guò)多數(shù)表決等方式進(jìn)行預(yù)測(cè)。

參考答案:

正確

48.回歸問(wèn)題和分類問(wèn)題的區(qū)別是什么?

參考答案:

回歸問(wèn)題輸出值是連續(xù)的,分類問(wèn)題輸出值是離散的

49.一個(gè)計(jì)算機(jī)程序從經(jīng)驗(yàn)E中學(xué)習(xí)任務(wù)T,并用P來(lái)衡量表現(xiàn)。并且,T的

表現(xiàn)P隨著經(jīng)驗(yàn)E的增加而提高。假設(shè)我們給一個(gè)學(xué)習(xí)算法輸入了很多歷

史天氣的數(shù)據(jù),讓它學(xué)會(huì)預(yù)測(cè)天氣。什么是P的合理選擇?

參考答案:

正確預(yù)測(cè)未來(lái)日期天氣的概率

50.一個(gè)包含n類的多分類問(wèn)題,若采用一對(duì)剩余的方法,需要拆分成多少次?

參考答案:

n-1

51.()是機(jī)器學(xué)習(xí)的一部分,與神經(jīng)網(wǎng)絡(luò)一起工作。

參考答案:

深度學(xué)習(xí)

52.谷歌新聞每天收集非常多的新聞,并運(yùn)用()方法再將這些新聞分組,組成若

干類有關(guān)聯(lián)的新聞。于是,搜索時(shí)同一組新聞事件往往隸屬同一主題的,所

以顯不到一起。

參考答案:

聚類

53.7.哪種決策樹(shù)沒(méi)有剪枝操作

參考答案:

ID3

54.關(guān)于聚類的說(shuō)法正確的有()

參考答案:

聚類的算法訓(xùn)練樣本往往都不含有標(biāo)簽

55.降維屬于哪種類型的學(xué)習(xí)問(wèn)題()。

參考答案:

無(wú)監(jiān)督學(xué)習(xí)

56.關(guān)于PCA和SVD比較錯(cuò)誤的是()。

參考答案:

PCA無(wú)器進(jìn)行零均值化

57.給定關(guān)聯(lián)規(guī)則A->B,意味著:若A發(fā)生,B也會(huì)發(fā)生。

參考答案:

錯(cuò)誤

58.Apriori算法是一種典型的關(guān)聯(lián)規(guī)則挖掘算法。

參考答案:

正確

59.決策樹(shù)方法通常用于關(guān)聯(lián)規(guī)則挖掘。

參考答案:

錯(cuò)誤

60.SVD可用于求解矩陣的偽逆。

參考答案:

正確

61.PCA會(huì)選取信息量最少的方向進(jìn)行投影。

參考答案:

錯(cuò)誤

62.PCA是一種有效的降維去噪方法。

參考答案:

正確

63.以下關(guān)于PCA說(shuō)法正確的是(多選)()(,

參考答案:

PCA運(yùn)算時(shí)需要進(jìn)行特征值分解_PCA各個(gè)主成分之間正交

64.降維的優(yōu)點(diǎn)有哪些()。

參考答案:

方便消需冗余特征一方便實(shí)現(xiàn)數(shù)據(jù)可視化一減小訓(xùn)練時(shí)間

65.FP-Growth算法的優(yōu)點(diǎn)包括()。

參考答案:

數(shù)據(jù)庫(kù)存儲(chǔ)在內(nèi)存中的壓縮版本中_對(duì)長(zhǎng)、短頻繁模式的挖掘具有高效性和

可擴(kuò)展性一與Apriori算法相比,該算法只需對(duì)數(shù)據(jù)庫(kù)進(jìn)行兩次掃描_該算法

不需要對(duì)項(xiàng)目進(jìn)行配對(duì),因此速度更快

66.FP-Growth和Apriori算法的比較,正確的是()。

參考答案:

FP-growth的模式生成通過(guò)構(gòu)建FP-Tree_FP-Growth沒(méi)有候選集_Apriori

使用候選集

67.以下關(guān)于SVD的優(yōu)化過(guò)程說(shuō)法錯(cuò)誤的是()。

參考答案:

奇異值跟特征值性質(zhì)完全不同

68.幾種常見(jiàn)的降維算法有共同特點(diǎn)有()。

參考答案:

都利用了矩陣分解的思想

69.哪些類型的數(shù)據(jù)適合做降維()。

參考答案:

特征之間存在線性關(guān)系的數(shù)據(jù)

70.降維涉及的投影矩陣一般要求正交,正交矩陣用于投影的優(yōu)缺點(diǎn)說(shuō)法正確的

是()。

參考答案:

正交矩陣投影變換之后的矩陣不同坐標(biāo)之間是不相關(guān)的

71.關(guān)于維數(shù)災(zāi)難的說(shuō)法錯(cuò)誤的是()。

參考答案:

高維度血據(jù)可使得算法泛化能力變得越來(lái)越強(qiáng)

72.關(guān)聯(lián)規(guī)則使用的主要指標(biāo)有()。

參考答案:

支持度(support,置信度(confidence、提升度(lift)

73.關(guān)于關(guān)聯(lián)規(guī)則,正確的是:()。

參考答案:

支持度是衡量關(guān)聯(lián)規(guī)則重要性的一個(gè)指標(biāo)一關(guān)聯(lián)規(guī)則挖掘的算法主要有:

Apriori和FP-Growth_一個(gè)項(xiàng)集滿足最小支持度,我們稱之為頻繁項(xiàng)集

74.置信度(confidence)是衡量興趣度度量()的指標(biāo)。

參考答案:

確定性

75.以下屬于關(guān)聯(lián)規(guī)則分析的是

參考答案:

購(gòu)物籃分析

76.分析顧客消費(fèi)行業(yè),以便有針對(duì)性的向其推薦感興趣的服務(wù),屬于()問(wèn)題。

參考答案:

關(guān)聯(lián)規(guī)則挖掘

77.關(guān)聯(lián)規(guī)則的評(píng)價(jià)指標(biāo)是:()。

參考答案:

支持度、置信度

78.關(guān)于支持向量機(jī)中硬間隔和軟間隔的說(shuō)法錯(cuò)誤的是()。

參考答案:

硬間隔有利于消除模型的過(guò)擬合

79.可用作數(shù)據(jù)挖掘分析中的關(guān)聯(lián)規(guī)則算法有()。

參考答案:

Apriori算法、FP-Tree算法

80.關(guān)于PCA特點(diǎn)說(shuō)法錯(cuò)誤的是()。

參考答案:

PCA算法很難去除噪聲

81.以下哪些是PCA算法的主要應(yīng)用()。

參考答案:

數(shù)據(jù)壓縮

82.某超市研究銷售紀(jì)錄數(shù)據(jù)后發(fā)現(xiàn),買啤酒的人很大概率也會(huì)購(gòu)買尿布,這種

屬于數(shù)據(jù)挖掘的哪類問(wèn)題?o

參考答案:

關(guān)聯(lián)規(guī)則發(fā)現(xiàn)

83.關(guān)于Apriori和FP-growth算法說(shuō)法正確的是()。

參考答案:

FP-growth算法在數(shù)據(jù)庫(kù)較大時(shí),不適宜共享內(nèi)存

84.以下關(guān)于FP-Growth算法表述不正確的有()。

參考答案:

FP-growth只需要一次遍歷數(shù)據(jù),大大提高了效率

85.下列關(guān)于Apriori算法說(shuō)法錯(cuò)誤的是()。

參考答案:

Apriori算法運(yùn)算過(guò)程中不需要找出所有的頻繁項(xiàng)集

86.數(shù)據(jù)之間的相關(guān)關(guān)系可以通過(guò)以下哪個(gè)算法直接挖掘

參考答案:

Apriori

87.以下關(guān)于關(guān)聯(lián)規(guī)則說(shuō)法錯(cuò)誤的是0。

參考答案:

使用購(gòu)物車分析的方法,一定可以提高銷售額

88.關(guān)于特征選擇,下列對(duì)Ridge回歸和Lasso回歸的說(shuō)法正確的是:()。

參考答案:

Lasso回歸適用于特征選擇

89.某超市研究銷售記錄發(fā)現(xiàn)買啤酒的人很大概率也會(huì)買尿布,這屬于數(shù)據(jù)挖掘

的哪類問(wèn)題?

參考答案:

關(guān)聯(lián)規(guī)則發(fā)現(xiàn)

90.以下關(guān)于PCA說(shuō)法正確的是()。

參考答案:

PCA轉(zhuǎn)換后選擇的第一個(gè)方向是最主要特征

91.以下關(guān)于SVD說(shuō)法正確的有()。

參考答案:

SVD并不要求分解矩陣必須是方陣

92.關(guān)于數(shù)據(jù)規(guī)范化,下列說(shuō)法中錯(cuò)誤的是()。

參考答案:

標(biāo)準(zhǔn)化定任何場(chǎng)景下受異常值的影響都很小

93.市場(chǎng)上某商品來(lái)自兩個(gè)工廠,它們市場(chǎng)占有率分別為60%和40%,有兩人

各自買一件,則買到的來(lái)自不同工廠之概率為()。

參考答案:

0.48

94.PCA算法獲取的超平面應(yīng)具有哪些性質(zhì)()。

參考答案:

最近重構(gòu)性一最大可分性

95.下面屬于降維常用的技術(shù)的有:

參考答案:

主成分分析一奇異值分解

96.以下哪些是使用數(shù)據(jù)規(guī)范化(特征縮放)的原因?

參考答案:

它通過(guò)減少迭代次數(shù)來(lái)獲得一個(gè)好的解,從而加快了梯度下降的速度一它不

能防止梯度下降陷入局部最優(yōu)

97.以下關(guān)于降維的說(shuō)法不正確的是?

參考答案:

降維不會(huì)對(duì)數(shù)據(jù)產(chǎn)生損傷

98.以下關(guān)于支持向量機(jī)的說(shuō)法正確的是()。

參考答案:

SVM方條簡(jiǎn)單,魯棒性較好一SVM分類面取決于支持向量

99.線性回歸中,我們可以使用最小二乘法來(lái)求解系數(shù),下列關(guān)于最小二乘法說(shuō)

法正確的是?()

參考答案:

只適用于線性模型,不適合邏輯回歸模型等其他模型一不需要選擇學(xué)習(xí)率一當(dāng)

特征數(shù)量很多的時(shí)候,運(yùn)算速度會(huì)很慢一不需要迭代訓(xùn)練

100.評(píng)價(jià)指標(biāo)中,召回率(Recall)的計(jì)算需要哪些數(shù)值

參考答案:

TPFN

101.下面關(guān)于隨機(jī)森林和梯度提升集成方法的說(shuō)法哪個(gè)是正確的?(多選)()

參考答案:

這兩種三法都可以用來(lái)做分類.兩種方法都可以用來(lái)做回歸

102.LightGBM與XGBoost相比,主要有以下幾個(gè)改進(jìn):(多選)()

參考答案:

基于梯度的單邊采樣算法(Gradient-basedOne-SideSampling,GOSS)_互

斥特征捆綁算法(ExclusiveFeatureBundling,EFB)_直方圖算法

(Histogram]基于最大深度的Leaf-wise的垂直生工算法

103.置信度(confidence)是衡量興趣度度量。的指標(biāo)。

參考答案:

確定性

104.大部分的機(jī)器學(xué)習(xí)工程中,數(shù)據(jù)搜集、數(shù)據(jù)清洗、特征工程這三個(gè)步驟占總

時(shí)間比較少,而數(shù)據(jù)建模,占總時(shí)間比較多。

參考答案:

錯(cuò)誤

105.根據(jù)腫瘤的體積、患者的年齡來(lái)判斷良性或惡性,這是一個(gè)多分類問(wèn)題。

參考答案:

錯(cuò)誤

106.哪種開(kāi)發(fā)語(yǔ)言最適合機(jī)器學(xué)習(xí)?0

參考答案:

Python

107.機(jī)器學(xué)習(xí)這個(gè)術(shù)語(yǔ)是由0定義的?

參考答案:

ArthurSamuel

108.機(jī)器學(xué)習(xí)方法傳統(tǒng)上可以分為()類。

參考答案:

3

109.以下關(guān)于特征選擇的說(shuō)法正確的是?

參考答案:

選擇的特征需盡可能反映不同事物之間的差異

11。以下哪種方法屬于判別模型(discriminativemodel)

參考答案:

支持向量機(jī)

111.哪一個(gè)是機(jī)器學(xué)習(xí)的合理定義?

參考答案:

機(jī)器學(xué)3能使計(jì)算機(jī)能夠在沒(méi)有明確編程的情況下學(xué)習(xí)

112.當(dāng)數(shù)據(jù)分布不平衡時(shí);我們可采取的措施不包括()。

參考答案:

對(duì)數(shù)據(jù)*布較多的類別賦予更大的權(quán)重

113.以下關(guān)于訓(xùn)練集、驗(yàn)證集和測(cè)試集說(shuō)法不正確的是

參考答案:

訓(xùn)練集總用來(lái)訓(xùn)練以及評(píng)估模型性能

114.下面關(guān)于ID3算法中說(shuō)法錯(cuò)誤的是

參考答案:

ID3算卷是一個(gè)二叉樹(shù)模型

115.邏輯回歸與多元回歸分析有哪些不同?

參考答案:

以上全選

116.如果我使用數(shù)據(jù)集的全部特征并且能夠達(dá)到100%的準(zhǔn)確率,但在測(cè)試集上

僅能達(dá)到70%左右,這說(shuō)明

參考答案:

過(guò)擬合

117.某超市研究銷售紀(jì)錄數(shù)據(jù)后發(fā)現(xiàn),買啤酒的人很大概率也會(huì)購(gòu)買尿布,這種

屬于數(shù)據(jù)挖掘的哪類問(wèn)題?0

參考答案.

關(guān)聯(lián)規(guī)疝發(fā)現(xiàn)

118.下列哪種方法可以用來(lái)緩解過(guò)擬合的產(chǎn)生:()。

參考答案:

正則化

119.回歸問(wèn)題和分類問(wèn)題的區(qū)別是?

參考答案:

回歸問(wèn)題輸出值是連續(xù)的,分類問(wèn)題輸出值是離散的

120.bootstrap數(shù)據(jù)的含義是

參考答案:

有放回的從整體N中抽樣n個(gè)樣本

121.一監(jiān)獄人臉識(shí)別準(zhǔn)入系統(tǒng)用來(lái)識(shí)別待進(jìn)入人員的身份,此系統(tǒng)一共包括識(shí)別

4種不同的人員:獄警,小偷,送餐員,其他。下面哪種學(xué)習(xí)方法最適合此

種應(yīng)用需求:

參考答案:

多分類問(wèn)題

122.在邏輯回歸中,如果同時(shí)加入L1和L2范數(shù),不會(huì)產(chǎn)生什么效果

參考答案:

可以獲得更準(zhǔn)確的結(jié)果

123.C4.5是通過(guò)代價(jià)復(fù)雜度剪枝。

參考答案:

錯(cuò)誤

124.樸素貝葉斯適用于小規(guī)模數(shù)據(jù)集,邏輯回歸適用于大規(guī)模數(shù)據(jù)集。

參考答案:

錯(cuò)誤

125.邏輯回歸和樸素貝葉斯都有對(duì)屬性特征獨(dú)立的要求

參考答案:

錯(cuò)誤

126.邏輯回歸是判別模型,樸素貝葉斯是生成模型

參考答案:

正確

127.判別模型所學(xué)內(nèi)容是決策邊界。

參考答案:

正確

128.樸素貝葉斯對(duì)缺失數(shù)據(jù)較敏感。

參考答案:

正確

129.樸素貝葉斯模型假設(shè)屬性之間相互獨(dú)立,這個(gè)假設(shè)在實(shí)際應(yīng)用中往往是不成

立的,在屬性相關(guān)性較小時(shí),樸素貝葉斯性能良好。而在屬性個(gè)數(shù)比較多或

者屬性之間相關(guān)性較大時(shí),分類效果不好。

參考答案:

正確

130.根據(jù)以往經(jīng)驗(yàn)和分析得到的概率。在這里,我們用P(Y)來(lái)代表在沒(méi)有訓(xùn)練

數(shù)據(jù)前假設(shè)丫擁有的初始概率,因此稱其為丫的后驗(yàn)概率,它反映了我們

所擁有的關(guān)于丫的背景知識(shí)。

參考答案:

錯(cuò)誤

131.公司里有一個(gè)人穿了運(yùn)動(dòng)鞋,推測(cè)是男還是女?已知公司里男性30人,女

性70人,男性穿運(yùn)動(dòng)鞋的有25人,穿拖鞋的有5人,女性穿運(yùn)動(dòng)鞋的有

40人,穿高跟鞋的有30人。則以下哪項(xiàng)計(jì)算錯(cuò)誤()?

參考答案:

p(運(yùn)動(dòng)鞋I女性)=0.4

132.擲二枚骰子,事件A為出現(xiàn)的點(diǎn)數(shù)之和等于3的概率為()

參考答案:

1/18

133.關(guān)于樸素貝葉斯,下列說(shuō)法錯(cuò)誤的是:()

參考答案:

樸素的意義在于它的一個(gè)天真的假設(shè):所有特征之間是相互關(guān)聯(lián)的

134.以A表示事件"甲種產(chǎn)品暢銷,乙種產(chǎn)品滯銷",則其對(duì)立事件A為()

參考答案:

甲種產(chǎn)品滯銷或乙種產(chǎn)品暢銷

135.樸素貝葉斯的優(yōu)點(diǎn)不包括()

參考答案:

樸素貝加斯模型對(duì)輸入數(shù)據(jù)的表達(dá)形式很敏感

136.以下算法屬于判別模型的是()

參考答案:

線性回歸

137.假設(shè)X和丫都服從正態(tài)分布,那么P(X<5,丫<0)就是一個(gè)(),表示

X<5,Y<0兩個(gè)條件同時(shí)成立的概率,即兩個(gè)事件共同發(fā)生的概率。

參考答案:

聯(lián)合概率

138.以下關(guān)于決策樹(shù)特點(diǎn)分析的說(shuō)法錯(cuò)誤的有(

參考答案:

算法考捻了數(shù)據(jù)屬性之間的相關(guān)性

139.以下關(guān)于決策樹(shù)原理介紹錯(cuò)誤的有()。

參考答案:

決策樹(shù)算法屬于無(wú)監(jiān)督學(xué)習(xí)

140.我們想要在大數(shù)據(jù)集上訓(xùn)練決策樹(shù)模型,為了使用較少的時(shí)間,可以:()。

參考答案:

減少樹(shù)的深度

141.以下關(guān)于決策樹(shù)算法說(shuō)法錯(cuò)誤的是()。

參考答案:

C4.5算法不能用于處理不完整數(shù)據(jù)

142.以下關(guān)于剪枝操作說(shuō)法正確的是()。

參考答案:

ID3沒(méi)有剪枝策略

143.C4.5選擇屬性用的是()。

參考答案:

信息增益率

144.以下那種說(shuō)法是錯(cuò)誤的

參考答案:

中國(guó)足球隊(duì)?wèi)?zhàn)勝巴西足球隊(duì)的信息嫡要小于中國(guó)乒乓球隊(duì)?wèi)?zhàn)勝巴西乒乓球

隊(duì)的信息精

145.ID3算法的缺點(diǎn)不包括()。

參考答案:

既能用于處理離散分布的特征,也能用于連續(xù)分布的特征處理

146.關(guān)于CART算法,錯(cuò)誤的是

參考答案:

CART算法采用信息增益率的大小來(lái)度量特征的各個(gè)劃分點(diǎn)

147.關(guān)于C4.5算法,錯(cuò)誤的是()。

參考答案:

C4.5算法采用基尼系數(shù)的大小來(lái)度量特征的各個(gè)劃分點(diǎn)

148.1D3選擇屬性用的是

參考答案:

信息增益

149.關(guān)于拉普拉斯平滑說(shuō)法正確的是()

參考答案:

避免了出現(xiàn)概率為0的情況

150.以下算法不屬于生成模型()

參考答案:

支持向量機(jī)

151.下列關(guān)于樸素貝葉斯的特點(diǎn)說(shuō)法錯(cuò)誤的是()

參考答案:

樸素貝加斯模型無(wú)需假設(shè)特征條件獨(dú)立

152.假設(shè)會(huì)開(kāi)車的本科生比例是15%,會(huì)開(kāi)車的研究生比例是23%。若在某大

學(xué)研究生占學(xué)生比例是20%,則會(huì)開(kāi)車的學(xué)生是研究生的概率是多少?

參考答案:

27.71%

153.決策樹(shù)有哪些代表算法

參考答案:

ID3_C4.5_CART

154.以下那種算法需要對(duì)數(shù)據(jù)進(jìn)行歸一化或者標(biāo)準(zhǔn)化()。

參考答案:

KNN_邏輯回歸一線性回歸

155.關(guān)于剪枝,以下算法正確的是:()。

參考答案:

剪枝是防止過(guò)擬合的手段」D3算法沒(méi)有剪枝操作一決策樹(shù)剪枝的基本策略有

預(yù)剪枝和后剪枝

156.邏輯回歸的損失函數(shù)是交叉燧損失

參考答案:

正確

157.邏輯回歸算法資源占用大,尤其是內(nèi)存。

參考答案:

錯(cuò)誤

158.Sigmoid函數(shù)的范圍是(0,1)

參考答案:

正確

159.邏輯回歸的激活函數(shù)是Sigmoid?

參考答案:

正確

160.下面哪些是分類算法?

參考答案:

根據(jù)用戶的年齡、職業(yè)、存款數(shù)量來(lái)判斷信用卡是否會(huì)違約?一身高L85m,

體重100kg的學(xué)生性別?一根據(jù)腫瘤的體積、患者的年齡來(lái)判斷良性或惡性?

161.以下哪項(xiàng)陳述是正確的?選出所有正確項(xiàng)()

參考答案:

使用一式非常大的訓(xùn)練集使得模型不太可能過(guò)擬合訓(xùn)練數(shù)據(jù)。一邏輯回歸使

用了Sigmoid激活函數(shù)

162.你正在訓(xùn)練一個(gè)分類邏輯回歸模型。以下哪項(xiàng)陳述是正確的?選出所有正確

項(xiàng)

參考答案:

向模型中添加新特征總是會(huì)在訓(xùn)練集上獲得相同或更好的性能

163.決策樹(shù)的說(shuō)法正確的是()。

參考答案:

CART使用的是二叉樹(shù)一其可作為分類算法,也可用于回歸模型一它易于理解、

可解釋性強(qiáng)

164.ID3算法的核心思想就是以信息增益來(lái)度量特征選擇,選擇信息增益最大的

特征進(jìn)行分裂。

參考答案:

正確

165.LightGBM與XGBoost相比,主要的優(yōu)勢(shì)不包括0

參考答案:

采用二階泰勒展開(kāi)加快收斂

166.ID3算法只能用于處理離散分布的特征。

參考答案:

正確

167.假設(shè)使用邏輯回歸進(jìn)行多類別分類,使用OVR分類法。下列說(shuō)法正確的是?

參考答案:

對(duì)于n類別,需要訓(xùn)練n個(gè)模型

168.邏輯回歸通常采用哪種正則化方式?

參考答案:

L2正則化

169.以下哪些不是二分類問(wèn)題?

參考答案:

根據(jù)地段、房屋面積、房間數(shù)量來(lái)預(yù)測(cè)房?jī)r(jià)多少。

170.假設(shè)有三類數(shù)據(jù),用OVR方法需要分類幾次才能完成?

參考答案:

2

171.下列哪一項(xiàng)不是邏輯回歸的優(yōu)點(diǎn)?

參考答案:

處理非器性數(shù)據(jù)較容易

172.下面哪一項(xiàng)不是Sigmoid的特點(diǎn)?

參考答案:

當(dāng)o(z)小于0.5時(shí),預(yù)測(cè)y=-l

173.邏輯回歸的損失函數(shù)是哪個(gè)?

參考答案:

交叉牖(Cross-Entropy)損失函數(shù)

174.以下關(guān)于sigmoid函數(shù)的優(yōu)點(diǎn)說(shuō)法錯(cuò)誤的是?

參考答案:

在深層次神經(jīng)網(wǎng)絡(luò)反饋傳輸中,不易出現(xiàn)梯度消失

175.以下關(guān)于邏輯回歸與線性回歸問(wèn)題的描述錯(cuò)誤的是()

參考答案:

邏輯回歸一般要求變量服從正態(tài)分布,線性回歸一般不要求

176.以下關(guān)于分類問(wèn)題的說(shuō)法正確的是?

參考答案:

多分類問(wèn)題可以被拆分為多個(gè)二分類問(wèn)題

177.ID3和C4.5和CART都只能用于分類問(wèn)題,不能用于回歸問(wèn)題。

參考答案:

錯(cuò)誤

178.下列哪個(gè)距離度量不在KNN算法中體現(xiàn):()。

參考答案:

余弦相似度

179.下列選項(xiàng)中,關(guān)于KNN算法說(shuō)法不正確是:()。

參考答案:

效率很高

180.以下距離度量方法中,在城市道路里,要從一個(gè)十字路口開(kāi)車到另外一個(gè)十

字路口的距離是:()。

參考答案:

曼哈頓距離

181.以下關(guān)于KD樹(shù)的說(shuō)法錯(cuò)誤的是(

參考答案:

所有x值小于指定值的節(jié)點(diǎn)會(huì)出現(xiàn)在右子樹(shù)

182.利用KD樹(shù)進(jìn)行搜索時(shí),正確的方式是

參考答案:

若數(shù)據(jù)小于對(duì)應(yīng)節(jié)點(diǎn)中k維度的值,則訪問(wèn)左節(jié)點(diǎn)

183.以下哪項(xiàng)是KNN算法的缺點(diǎn)?()

參考答案:

計(jì)算成本高

184.關(guān)于余弦相似度,不正確的是()。

參考答案:

余弦相似度為-1時(shí)候,兩個(gè)向量完全不相關(guān)

185.KD樹(shù)(K-DimensionTree)的描述中,不正確的是()。

參考答案:

KD樹(shù)切.時(shí),從方差小的維度開(kāi)始切分

186.13聚類的代表算法有()。

參考答案:

K-means_DBSCAN

187.當(dāng)簇內(nèi)樣本點(diǎn)數(shù)量大于某個(gè)閾值時(shí),便將該簇進(jìn)行拆分,這種聚類方式為

()。

參考答案:

密度聚類

188.假設(shè)有6個(gè)二維數(shù)據(jù)點(diǎn):D={(2,3),(5,7),(9,6),(4,5),(6,4),(7,2)},第一次切分

時(shí)候,切分線為

參考答案:

x=6

189.KNN算法在什么情況下效果較好?()

參考答案:

樣本較少但典型性好

190.以下哪些可作為kmeans方法停止循環(huán)的指標(biāo)()。

參考答案:

當(dāng)所有數(shù)據(jù)隸屬的簇不再發(fā)生變化的時(shí)候

191.以下哪些不是聚類中用于衡量度量距離的指標(biāo)()。

參考答案:

馬氏距離

192.關(guān)于kmean算法的實(shí)現(xiàn)描述錯(cuò)誤的是()

參考答案:

可以輕松發(fā)現(xiàn)非凸形狀的簇

193.關(guān)于K均值和DBSCAN的比較,以下說(shuō)法不正確的是()。

參考答案:

K均值雇用簇的基于層次的概念

194.簡(jiǎn)單地將數(shù)據(jù)對(duì)象集劃分成不重疊的子集,使得每個(gè)數(shù)據(jù)對(duì)象恰在一個(gè)子集

中,這種聚類類型稱作()。

參考答案:

劃分聚類

195.以下不屬于聚類算法的是()。

參考答案:

隨機(jī)森林

196.以下關(guān)于K-means算法錯(cuò)誤的有

參考答案:

K-means算法不會(huì)出現(xiàn)局部極小值的問(wèn)題

197.下列關(guān)于Kmeans聚類算法的說(shuō)法錯(cuò)誤的是()。

參考答案:

初始聚類中心的選擇對(duì)聚類結(jié)果影響不大

198.1聚類屬于哪種學(xué)習(xí)方式

參考答案:

無(wú)監(jiān)督學(xué)習(xí)

199.關(guān)于KNN算法的描述,不正確的是

參考答案:

距離度量的方式通常用曼哈頓距離

200.在隨機(jī)森林里,你生成了幾百顆樹(shù)(TLT2.....Tn),然后對(duì)這些樹(shù)的結(jié)果進(jìn)

行綜合,下面關(guān)于隨機(jī)森林中每顆樹(shù)的說(shuō)法正確的是?()

參考答案:

每棵樹(shù)是通過(guò)數(shù)據(jù)集的子集和特征的子集構(gòu)建的

201.以下關(guān)于集成學(xué)習(xí)特性說(shuō)法錯(cuò)誤的是

參考答案:

集成多個(gè)線性分類器也無(wú)法解決非線性分類問(wèn)題

202.以下關(guān)于隨機(jī)森林(RandomForest)說(shuō)法正確的是()。

參考答案:

隨機(jī)森樂(lè)構(gòu)建決策樹(shù)時(shí),是有放回的選取訓(xùn)練數(shù)據(jù)

203.以下關(guān)于AdaBoost算法說(shuō)法正確的是

參考答案:

AdaBoost使用的損失函數(shù)是指數(shù)函數(shù)

204.以下關(guān)于GBDT算法說(shuō)法錯(cuò)誤的是()。

參考答案:

GBDT使用的是放回采樣

205.假設(shè)有100張照片,其中,貓的照片有60張,狗的照片是40張。識(shí)別結(jié)

果:TP=40,FN=20,FP=10,TN=30,則可以得到:()?

參考答案:

Precision=0.8

206.SMOTE算法是用了下采樣的方法。

參考答案:

錯(cuò)誤

207.L2正則化得到的解更加稀疏。

參考答案:

錯(cuò)誤

208.特征空間越大,過(guò)擬合的可能性越大。

參考答案:

正確

209.評(píng)估完模型之后,發(fā)現(xiàn)模型存在高偏差(highbias),應(yīng)該如何解決?()

參考答案:

增加模型的特征數(shù)量_嘗試減少正則化系數(shù)

210.XGBoost算法說(shuō)法錯(cuò)誤的是()

參考答案:

XGBoost算法的目標(biāo)函數(shù)采用了一階泰勒展開(kāi)

211.關(guān)于Bagging方法,以下說(shuō)法錯(cuò)誤的是()

參考答案:

對(duì)各弱分類器的訓(xùn)練可以通過(guò)串行方式進(jìn)行

212.Adboost的優(yōu)點(diǎn)不包括()

參考答案:

對(duì)異常點(diǎn)敏感,異常點(diǎn)會(huì)獲得較高權(quán)重

213.LightGBM與XGBoost相比,主要的優(yōu)勢(shì)不包括()

參考答案:

采用二加泰勒展開(kāi)加快收斂

214.隨機(jī)森林和GBDT的描述不正確的是()

參考答案:

兩者都是使用了Boosting思想

215.以下關(guān)于KNN說(shuō)法正確的是(多選)()。

參考答案:

對(duì)異常值不敏感_對(duì)數(shù)據(jù)沒(méi)有假設(shè)一計(jì)算復(fù)雜度低

216.以下那種算法不是集成學(xué)習(xí)算法()

參考答案:

決策樹(shù)

217.GBDT算法的描述,不正確的是

參考答案:

梯度提升算法通過(guò)迭代地選擇一個(gè)梯度方向上的基函數(shù)來(lái)逐漸逼近局部極

小值

218.集成學(xué)習(xí)有以下哪幾種代表算法(多選)()。

參考答案:

GBDT一隨機(jī)森林一AdaBoost

219.XGBoost對(duì)損失函數(shù)做了二階泰勒展開(kāi),GBDT只用了一階導(dǎo)數(shù)信息,并且

XGBoost還支持自定義損失函數(shù),只要損失函數(shù)一階、二階可導(dǎo)。0

參考答案:

正確

220.集成學(xué)習(xí)的數(shù)據(jù)不需要?dú)w一化或者標(biāo)準(zhǔn)化。

參考答案:

正確

221.評(píng)價(jià)指標(biāo)中,精確率(Precision)的計(jì)算需要哪些數(shù)值()。

參考答案:

TP.FP

222.以下關(guān)于交叉驗(yàn)證說(shuō)法正確的是()。

參考答案:

交叉驗(yàn)證可利用模型選擇避免過(guò)擬合的情況一交叉驗(yàn)證可對(duì)模型性能合理評(píng)

估一交叉驗(yàn)證大大增加了計(jì)算量

223.一個(gè)正負(fù)樣本不平衡問(wèn)題(正樣本99%,負(fù)樣本1%)。假如在這個(gè)非平衡的

數(shù)據(jù)集上建立一個(gè)模型,得到訓(xùn)練樣本的正確率是99%,則下列說(shuō)法正確

的是?()

參考答案:

模型正確率并不能反映模型的真實(shí)效果

224.隨著訓(xùn)練樣本的數(shù)量越來(lái)越大,則該數(shù)據(jù)訓(xùn)練的模型將具有:()。

參考答案:

相同偏差

225.LightGBM在建樹(shù)過(guò)程中,采用基于最大深度的Leaf-wise的垂直生長(zhǎng)算法。

參考答案:

正確

226.隨機(jī)森林和GBDT都是使用了Bagging思想。

參考答案:

錯(cuò)誤

227.過(guò)擬合的處理可以通過(guò)增大正則化系數(shù)。

參考答案:

正確

228.L1正則化往往用于防止過(guò)擬合,而L2正則化往往用于特征選擇。

參考答案:

錯(cuò)誤

229.隨機(jī)梯度下降,每次迭代時(shí)候,使用一個(gè)樣本。

參考答案:

正確

230.如果兩個(gè)變量相關(guān),那么它們有可能是線性關(guān)系。

參考答案:

正確

231.假如使用一個(gè)較復(fù)雜的回歸模型來(lái)擬合樣本數(shù)據(jù),使用Ridge回歸,調(diào)試正

則化參數(shù),來(lái)降低模型復(fù)雜度,若正則化系數(shù)較大時(shí),關(guān)于偏差(bias)和方

差(variance),下列說(shuō)法正確的是?()

參考答案:

方差減小一偏差增大

232.對(duì)于在原空間中線性不可分問(wèn)題,支持向量機(jī)()o

參考答案:

將數(shù)據(jù)映射到核空間中

233.SVM中核函數(shù)將高維空間中的數(shù)據(jù)映射到低維空間。

參考答案:

錯(cuò)

溫馨提示

  • 1. 本站所有資源如無(wú)特殊說(shuō)明,都需要本地電腦安裝OFFICE2007和PDF閱讀器。圖紙軟件為CAD,CAXA,PROE,UG,SolidWorks等.壓縮文件請(qǐng)下載最新的WinRAR軟件解壓。
  • 2. 本站的文檔不包含任何第三方提供的附件圖紙等,如果需要附件,請(qǐng)聯(lián)系上傳者。文件的所有權(quán)益歸上傳用戶所有。
  • 3. 本站RAR壓縮包中若帶圖紙,網(wǎng)頁(yè)內(nèi)容里面會(huì)有圖紙預(yù)覽,若沒(méi)有圖紙預(yù)覽就沒(méi)有圖紙。
  • 4. 未經(jīng)權(quán)益所有人同意不得將文件中的內(nèi)容挪作商業(yè)或盈利用途。
  • 5. 人人文庫(kù)網(wǎng)僅提供信息存儲(chǔ)空間,僅對(duì)用戶上傳內(nèi)容的表現(xiàn)方式做保護(hù)處理,對(duì)用戶上傳分享的文檔內(nèi)容本身不做任何修改或編輯,并不能對(duì)任何下載內(nèi)容負(fù)責(zé)。
  • 6. 下載文件中如有侵權(quán)或不適當(dāng)內(nèi)容,請(qǐng)與我們聯(lián)系,我們立即糾正。
  • 7. 本站不保證下載資源的準(zhǔn)確性、安全性和完整性, 同時(shí)也不承擔(dān)用戶因使用這些下載資源對(duì)自己和他人造成任何形式的傷害或損失。

評(píng)論

0/150

提交評(píng)論