機(jī)器學(xué)習(xí)基礎(chǔ)智慧樹知到答案2024年太原理工大學(xué)_第1頁(yè)
機(jī)器學(xué)習(xí)基礎(chǔ)智慧樹知到答案2024年太原理工大學(xué)_第2頁(yè)
機(jī)器學(xué)習(xí)基礎(chǔ)智慧樹知到答案2024年太原理工大學(xué)_第3頁(yè)
機(jī)器學(xué)習(xí)基礎(chǔ)智慧樹知到答案2024年太原理工大學(xué)_第4頁(yè)
機(jī)器學(xué)習(xí)基礎(chǔ)智慧樹知到答案2024年太原理工大學(xué)_第5頁(yè)
已閱讀5頁(yè),還剩20頁(yè)未讀, 繼續(xù)免費(fèi)閱讀

下載本文檔

版權(quán)說(shuō)明:本文檔由用戶提供并上傳,收益歸屬內(nèi)容提供方,若內(nèi)容存在侵權(quán),請(qǐng)進(jìn)行舉報(bào)或認(rèn)領(lǐng)

文檔簡(jiǎn)介

機(jī)器學(xué)習(xí)基礎(chǔ)太原理工大學(xué)智慧樹知到答案2024年第一章測(cè)試

樣本是連續(xù)型數(shù)據(jù)且有標(biāo)簽,我們采用()進(jìn)行機(jī)器學(xué)習(xí)。

A:分類算法B:嵌入算法C:回歸算法D:聚類算法

答案:C在機(jī)器學(xué)習(xí)中,樣本常被分成()。

A:評(píng)估集B:訓(xùn)練集C:測(cè)試集D:其它選項(xiàng)都有

答案:D機(jī)器學(xué)習(xí)算法需要顯示編程,具備歸納、總結(jié)等自學(xué)習(xí)能力。()

A:對(duì)B:錯(cuò)

答案:B機(jī)器學(xué)習(xí)和人工智能、深度學(xué)習(xí)是一個(gè)概念,都是指機(jī)器模仿人類推理、學(xué)習(xí)能力。()

A:錯(cuò)B:對(duì)

答案:A特征工程非常重要,在采用機(jī)器學(xué)習(xí)算法前,首先需要利用特征工程確定樣本屬性。()

A:錯(cuò)B:對(duì)

答案:B

第二章測(cè)試

K近鄰算法認(rèn)為距離越近的相似度越高。()

A:對(duì)B:錯(cuò)

答案:AK近鄰算法中數(shù)據(jù)可以不做歸一化,因?yàn)槭欠駳w一化對(duì)結(jié)果影響不大。()

A:對(duì)B:錯(cuò)

答案:BK近鄰算法中采用不同的距離公式對(duì)于結(jié)果沒有影響。()

A:錯(cuò)B:對(duì)

答案:A在上面圖中,K=5,綠色樣本的類別是()。

A:藍(lán)色正方形B:紅色三角形C:綠色圓形D:不能確定

答案:A在K近鄰算法中,K的選擇是()?

A:與樣本有關(guān)B:越小越好C:越大越好D:其它都不正確

答案:A

第三章測(cè)試

下列()中兩個(gè)變量之間的關(guān)系是線性的。

A:貓的皮毛顏色和體重B:女兒的身高和父親的體重C:人的工作環(huán)境和健康狀況D:重力和質(zhì)量

答案:D下列說(shuō)法不正確的是()。

A:回歸用于預(yù)測(cè)輸入變量和輸出變量之間的關(guān)系B:線性回歸模型也可以解決線性不可分的情況C:回歸就是數(shù)據(jù)擬合D:回歸分析就是研究?jī)蓚€(gè)事物的相關(guān)性

答案:C從某大學(xué)隨機(jī)選擇8名女大學(xué)生,其身高x(cm)和體重y(kg)的回歸方程是y=0.849x-85.712,則身高172cm的女大學(xué)生,預(yù)測(cè)體重為()。

A:其它都不正確B:小于60.316kgC:60.316kgD:大于60.316kg

答案:Classo中采用的是L2正則化。()

A:對(duì)B:錯(cuò)

答案:B線性回歸中加入正則化可以降低過(guò)擬合。()

A:對(duì)B:錯(cuò)

答案:A

第四章測(cè)試

以下說(shuō)法正確的是()。

A:logistic回歸的樣本屬性是連續(xù)型數(shù)據(jù)B:logistic回歸是回歸模型C:logistic回歸只能處理線性可分問題D:logistic回歸和線性回歸是相同的

答案:Alogistic回歸只能用于二分類問題。()

A:錯(cuò)B:對(duì)

答案:Alogistic回歸中也可以用正則化方法來(lái)防止過(guò)擬合。()

A:對(duì)B:錯(cuò)

答案:A考慮一個(gè)有兩個(gè)屬性的logistic回歸問題。假設(shè),則分類決策平面是()。

A:B:C:D:

答案:A假設(shè)訓(xùn)練了一個(gè)logistic回歸分類器,對(duì)于一個(gè)樣本我們有,則該式說(shuō)明()。

A:B:C:D:

答案:AD

第五章測(cè)試

以下關(guān)于梯度下降算法說(shuō)法正確的是()。

A:計(jì)算預(yù)測(cè)值和真實(shí)值之間的誤差B:梯度下降算法是計(jì)算目標(biāo)函數(shù)的最大值C:如果目標(biāo)函數(shù)梯度不存在就無(wú)法用梯度下降算法D:學(xué)習(xí)率的選取會(huì)影響梯度下降算法的求解速度

答案:D隨機(jī)梯度下降導(dǎo)致方向變化過(guò)大,不能很快收斂到最優(yōu)解。()

A:錯(cuò)B:對(duì)

答案:B小批量梯度下降是結(jié)合了批量梯度下降和隨機(jī)梯度下降,性能比批量梯度下降和隨機(jī)梯度下降都好。()

A:對(duì)B:錯(cuò)

答案:A批量梯度下降是最原始的形式,它是指在每一次迭代時(shí)使用一部分樣本的梯度來(lái)更新參數(shù)。()

A:對(duì)B:錯(cuò)

答案:B隨機(jī)梯度下降中每次迭代使用一個(gè)樣本的梯度。()

A:對(duì)B:錯(cuò)

答案:A

第六章測(cè)試

決策樹模型中建樹的基本原則是()。

A:應(yīng)利用盡可能多的屬性B:信息增益大的屬性應(yīng)放在上層C:取值多的屬性應(yīng)放在上層D:取值少的屬性應(yīng)放在上層

答案:B哪些情況下必須停止樹的增長(zhǎng)()

A:當(dāng)前數(shù)據(jù)子集的標(biāo)簽一致B:當(dāng)前訓(xùn)練誤差已經(jīng)較低C:沒有更多可用屬性D:當(dāng)前數(shù)據(jù)子集為空

答案:ABCD關(guān)于決策樹剪枝操作正確的描述是()。

A:可以防止過(guò)擬合B:用測(cè)試集來(lái)進(jìn)行剪枝C:后剪枝優(yōu)于預(yù)剪枝D:可以有效降低訓(xùn)練誤差

答案:A決策樹模型中如何處理連續(xù)型屬性()。

A:根據(jù)信息增益選擇閾值進(jìn)行離散化B:隨機(jī)選擇數(shù)據(jù)標(biāo)簽發(fā)生變化的位置進(jìn)行離散化C:直接忽略D:利用固定閾值進(jìn)行離散化

答案:A下面哪個(gè)可能是決策樹的決策邊界()。

A:B:C:D:

答案:C

第七章測(cè)試

下面對(duì)集成學(xué)習(xí)模型中的弱學(xué)習(xí)器描述錯(cuò)誤的是?()

A:弱學(xué)習(xí)器經(jīng)常不會(huì)過(guò)擬合B:弱學(xué)習(xí)器通常會(huì)過(guò)擬合C:弱學(xué)習(xí)器通常帶有高偏差,所以其并不能解決復(fù)雜學(xué)習(xí)問題D:弱學(xué)習(xí)器可以通過(guò)集成變成強(qiáng)學(xué)習(xí)器

答案:B給定數(shù)據(jù)集及弱分類器如上圖,回答問題:初始樣本的權(quán)重為()。

A:其它都不對(duì)B:0.1C:1D:0.5

答案:B給定數(shù)據(jù)集及弱分類器如上圖,回答問題:第一次迭代選擇的分類器是(

)。

A:B:任何一個(gè)都可以C:D:

答案:CD給定數(shù)據(jù)集及弱分類器如上圖,回答問題:

經(jīng)過(guò)一次迭代,第一個(gè)弱學(xué)習(xí)器的權(quán)重為()。

A:0.4236B:0.6496C:其它都不對(duì)D:0.3

答案:A給定數(shù)據(jù)集及弱分類器如上圖,回答問題:經(jīng)過(guò)一次迭代,錯(cuò)誤分類的樣本權(quán)重更新為()。

A:B:C:其它都不對(duì)D:

答案:D

第八章測(cè)試

下列選項(xiàng)中,對(duì)于硬間隔支持向量機(jī),超平面應(yīng)該是()。

A:B:C:D:

答案:B下列選項(xiàng)中,對(duì)于軟間隔支持向量機(jī),超平面應(yīng)該是()。

A:B:C:D:

答案:D現(xiàn)有一個(gè)能被正確分類且遠(yuǎn)離超平面的樣本,如果將其刪除,不會(huì)影響超平面的選擇。()

A:錯(cuò)B:對(duì)

答案:B上圖中,長(zhǎng)方形框中的樣本松弛變量的值為()。

A:大于1B:等于1C:大于0,小于1D:等于0

答案:A上圖中哪個(gè)超平面泛化能力更強(qiáng)()。

A:BB:AC:A、B一樣D:其它都不對(duì)

答案:B

第九章測(cè)試

訓(xùn)練樣本如下,其中和

是特征,取值的集合為A1={1,2,3}和

A2={S,M,L},C是類標(biāo)記,取值為{-1,1},回答如下問題:采用樸素貝葉斯算法,樣本屬于

1的概率為:()

A:10%B:1.48%C:無(wú)法確定D:6.67%

答案:B訓(xùn)練樣本如上,其中和是特征,取值的集合為A1={1,2,3}和

A2={S,M,L},C是類標(biāo)記,取值為{-1,1},回答如下問題:采用樸素貝葉斯算法,確定的分類為:()

A:-1B:1C:1或者-1都可以D:無(wú)法確定

答案:A訓(xùn)練樣本如上,其中和是特征,取值的集合為A1={1,2,3}和

A2={S,M,L},C是類標(biāo)記,取值為{-1,1},回答如下問題:采用樸素貝葉斯算法,樣本屬于

-1的概率為:()

A:無(wú)法確定B:1.48%C:6.67%D:10%

答案:D樸素貝葉斯的基本假設(shè)是屬性之間是相互獨(dú)立的。()

A:對(duì)B:錯(cuò)

答案:A樸素貝葉斯是概率模型。()

A:對(duì)B:錯(cuò)

答案:A

第十章測(cè)試

以下對(duì)經(jīng)典K-means聚類算法解釋正確的是()

A:不能自動(dòng)識(shí)別類的個(gè)數(shù),隨機(jī)挑選初始點(diǎn)為中心點(diǎn)計(jì)算B:能自動(dòng)識(shí)別類的個(gè)數(shù),隨機(jī)挑選初始點(diǎn)為中心點(diǎn)計(jì)算C:能自動(dòng)識(shí)別類的個(gè)數(shù),不能隨機(jī)挑選初始點(diǎn)為中心點(diǎn)計(jì)算D:不能自動(dòng)識(shí)別類的個(gè)數(shù),不能隨機(jī)挑選初始點(diǎn)為中心點(diǎn)計(jì)算

答案:A以下是一組用戶的年齡數(shù)據(jù),將K值定義為2對(duì)用戶進(jìn)行聚類。并隨機(jī)選擇16和22作為兩個(gè)類別的初始質(zhì)心,回答以下問題:

[15,15,16,19,19,20,20,21,22,28,35,40,41,42,43,44,60,61,65]

第一次迭代中,樣本“15”到質(zhì)心16的距離是()

A:1B:3C:6D:0

答案:A以下是一組用戶的年齡數(shù)據(jù),將K值定義為2對(duì)用戶進(jìn)行聚類。并隨機(jī)選擇16和22作為兩個(gè)類別的初始質(zhì)心,回答以下問題:

[15,15,16,19,19,20,20,21,22,28,35,40,41,42,43,44,60,61,65]

第一次迭代結(jié)束后,樣本20的分類為()

A:都不屬于B:原質(zhì)心16的類C:原質(zhì)心22的類D:不能計(jì)算

答案:C以下是一組用戶的年齡數(shù)據(jù),將K值定義為2對(duì)用戶進(jìn)行聚類。并隨機(jī)選擇16和22作為兩個(gè)類別的初始質(zhì)心,回答以下問題:

[15,15,16,19,19,20,20,21,22,28,35,40,41,42,43,44,60,61,65]

第一次迭代結(jié)束后,原質(zhì)心16的類包含()個(gè)樣本。

A:3B:5C:2D:1

答案:A以下是一組用戶的年齡數(shù)據(jù),將K值定義為2對(duì)用戶進(jìn)行聚類。并隨機(jī)選擇16和22作為兩個(gè)類別的初始質(zhì)心,回答以下問題:

[15,15,16,19,19,20,20,21,22,28,35,40,41,42,43,44,60,61,65]

第一次迭代結(jié)束后,原質(zhì)心16更新后的質(zhì)心是()。

A:36.25B:15.33C:15D:17.2

答案:B

第十一章測(cè)試

如果某個(gè)項(xiàng)集是頻繁的,那么它的所有子集也是頻繁的。()

A:錯(cuò)B:對(duì)

答案:B如果某個(gè)項(xiàng)集是頻繁的,那么它的所有超集也是頻繁的。()

A:錯(cuò)B:對(duì)

答案:A根據(jù)上面交易記錄,回答問題:2級(jí)頻繁項(xiàng)集有()。

A:尿布,橙汁B:豆奶,葡萄酒C:橙汁,豆奶D:尿布,豆奶

答案:D根據(jù)上面交易記錄,回答問題:規(guī)則“豆奶->萵苣”的可信度是()。

A:4/4B:1C:3/5D:3/4

答案:D根據(jù)上面交易記錄,回答問題:“豆奶”的支持度是()。

A:3/5B:2/5C:1D:4/5

答案:D

第十二章測(cè)試

下列關(guān)于主成分分析法(PCA)說(shuō)法錯(cuò)誤的是?()

A:要選出方差最小的作為主成分B:主成分分析法可用于低維數(shù)據(jù)的可視化處理C:進(jìn)行主成分分析之前要對(duì)數(shù)據(jù)進(jìn)行中心化D:要選出方差最大的作為主成分

答案:A主成分分析是一個(gè)線性變化,就是把數(shù)據(jù)變換到一個(gè)新的坐標(biāo)系統(tǒng)中。()

A:對(duì)B:錯(cuò)

答案:A假設(shè)將原矩陣降維到一維,采用的特征向量為,則映射后的結(jié)果為()。

A:B:C:D:其它結(jié)果都不對(duì)

答案:B假設(shè)有五條樣本,屬性是二維,樣本數(shù)據(jù)為:請(qǐng)回答以下問題:協(xié)方差矩陣為()。

A:其它結(jié)果都不對(duì)

B:C:D:

答案:C假設(shè)有五條樣本,屬性是二維,樣本數(shù)據(jù)為:請(qǐng)回答以下問題:進(jìn)行中心化后的結(jié)果為()。

A:B:其它結(jié)果都不對(duì)C:D:

答案:C

第十三章測(cè)試

以下說(shuō)法中錯(cuò)誤的是()。

A:正定矩陣的特征值即為奇異值B:ATA的特征值的平方根即為A的奇異值C:負(fù)定矩陣的

溫馨提示

  • 1. 本站所有資源如無(wú)特殊說(shuō)明,都需要本地電腦安裝OFFICE2007和PDF閱讀器。圖紙軟件為CAD,CAXA,PROE,UG,SolidWorks等.壓縮文件請(qǐng)下載最新的WinRAR軟件解壓。
  • 2. 本站的文檔不包含任何第三方提供的附件圖紙等,如果需要附件,請(qǐng)聯(lián)系上傳者。文件的所有權(quán)益歸上傳用戶所有。
  • 3. 本站RAR壓縮包中若帶圖紙,網(wǎng)頁(yè)內(nèi)容里面會(huì)有圖紙預(yù)覽,若沒有圖紙預(yù)覽就沒有圖紙。
  • 4. 未經(jīng)權(quán)益所有人同意不得將文件中的內(nèi)容挪作商業(yè)或盈利用途。
  • 5. 人人文庫(kù)網(wǎng)僅提供信息存儲(chǔ)空間,僅對(duì)用戶上傳內(nèi)容的表現(xiàn)方式做保護(hù)處理,對(duì)用戶上傳分享的文檔內(nèi)容本身不做任何修改或編輯,并不能對(duì)任何下載內(nèi)容負(fù)責(zé)。
  • 6. 下載文件中如有侵權(quán)或不適當(dāng)內(nèi)容,請(qǐng)與我們聯(lián)系,我們立即糾正。
  • 7. 本站不保證下載資源的準(zhǔn)確性、安全性和完整性, 同時(shí)也不承擔(dān)用戶因使用這些下載資源對(duì)自己和他人造成任何形式的傷害或損失。

評(píng)論

0/150

提交評(píng)論