機(jī)器學(xué)習(xí)基礎(chǔ)知到智慧樹章節(jié)測試課后答案2024年秋湖北商貿(mào)學(xué)院_第1頁
機(jī)器學(xué)習(xí)基礎(chǔ)知到智慧樹章節(jié)測試課后答案2024年秋湖北商貿(mào)學(xué)院_第2頁
機(jī)器學(xué)習(xí)基礎(chǔ)知到智慧樹章節(jié)測試課后答案2024年秋湖北商貿(mào)學(xué)院_第3頁
機(jī)器學(xué)習(xí)基礎(chǔ)知到智慧樹章節(jié)測試課后答案2024年秋湖北商貿(mào)學(xué)院_第4頁
免費(fèi)預(yù)覽已結(jié)束,剩余6頁可下載查看

下載本文檔

版權(quán)說明:本文檔由用戶提供并上傳,收益歸屬內(nèi)容提供方,若內(nèi)容存在侵權(quán),請進(jìn)行舉報(bào)或認(rèn)領(lǐng)

文檔簡介

機(jī)器學(xué)習(xí)基礎(chǔ)知到智慧樹章節(jié)測試課后答案2024年秋湖北商貿(mào)學(xué)院第一章單元測試

機(jī)器學(xué)習(xí)是一種:()

A:人工智能子領(lǐng)域B:算法庫C:數(shù)據(jù)分析工具D:編程語言

答案:人工智能子領(lǐng)域以下哪種算法是無監(jiān)督學(xué)習(xí)算法?()

A:樸素貝葉斯B:支持向量機(jī)C:K均值聚類D:決策樹

答案:K均值聚類在機(jī)器學(xué)習(xí)中,過擬合是指:()

A:模型無法適應(yīng)新數(shù)據(jù)B:模型的精度較低C:模型過于簡單D:模型過于復(fù)雜

答案:模型過于復(fù)雜監(jiān)督學(xué)習(xí)中,分類問題的輸出是離散值,而回歸問題的輸出是連續(xù)值。()

A:錯(cuò)B:對

答案:對機(jī)器學(xué)習(xí)中的特征工程是指對原始數(shù)據(jù)進(jìn)行預(yù)處理。()

A:錯(cuò)B:對

答案:對

第二章單元測試

訓(xùn)練一個(gè)機(jī)器學(xué)習(xí)模型往往需要對大量的參數(shù)進(jìn)行反復(fù)調(diào)試或者搜索,這一過程稱為調(diào)參。其中在訓(xùn)練之前調(diào)整設(shè)置的參數(shù)稱為超參數(shù)。()

A:錯(cuò)B:對

答案:對線性回歸的目標(biāo)是求解w和b,使得f(x)和y盡可能接近。求解線性回歸模型的基本方法是最小二乘法。()

A:對B:錯(cuò)

答案:對根據(jù)模型預(yù)測輸出的連續(xù)性,可以將機(jī)器學(xué)習(xí)算法適配的問題劃分為分類問題和線性問題。()

A:錯(cuò)B:對

答案:錯(cuò)如果兩個(gè)變量相關(guān),那么它們一定是線性關(guān)系。()

A:對B:錯(cuò)

答案:錯(cuò)以下()變量之間存在線性回歸關(guān)系。

A:學(xué)生的性別與他的成績B:正三角形的邊長與周長C:兒子的身高與父親的身高D:正方形的邊長與面積

答案:正三角形的邊長與周長回歸問題和分類問題的區(qū)別是()。

A:回歸問題輸出值是連續(xù)的,分類問題輸出值是離散的B:回歸問題與分類問題在輸入屬性值上要求不同C:回歸問題輸出值是離散的,分類問題輸出值是連續(xù)的D:回歸問題有標(biāo)簽,分類問題沒有

答案:回歸問題輸出值是連續(xù)的,分類問題輸出值是離散的以下說法錯(cuò)誤的是()。

A:損失函數(shù)越小,模型訓(xùn)練得一定越好B:殘差是預(yù)測值與真實(shí)值之間的差值C:正則項(xiàng)的目的是為了避免模型過擬合D:最小二乘法不需要選擇學(xué)習(xí)率

答案:損失函數(shù)越小,模型訓(xùn)練得一定越好以下()方法不能用于處理欠擬合。

A:對特征進(jìn)行變換,使用組合特征或高維特征B:增加模型復(fù)雜度C:增大正則化系數(shù)D:增加新的特征

答案:增大正則化系數(shù)以下()是使用數(shù)據(jù)規(guī)范化(特殊縮放)的原因。

A:它防止矩陣XTX不可逆(奇異/退化)B:它通過降低梯度下降的每次迭代的計(jì)算成本來加速梯度下降C:它通過減少迭代次數(shù)來獲得一個(gè)好的解,從而加快了梯度下降的速度D:它不能防止梯度下降陷入局部最優(yōu)

答案:它通過降低梯度下降的每次迭代的計(jì)算成本來加速梯度下降;它通過減少迭代次數(shù)來獲得一個(gè)好的解,從而加快了梯度下降的速度;它不能防止梯度下降陷入局部最優(yōu)線性回歸中,我們可以使用最小二乘法來求解系數(shù),下列關(guān)于最小二乘說法正確的是()。

A:不需要選擇學(xué)習(xí)率B:當(dāng)特征數(shù)量很多的時(shí)候,運(yùn)算速度會(huì)很慢C:不需要迭代訓(xùn)練D:只適用于線性模型,不適合邏輯回歸模型等其他模型

答案:不需要選擇學(xué)習(xí)率;當(dāng)特征數(shù)量很多的時(shí)候,運(yùn)算速度會(huì)很慢;不需要迭代訓(xùn)練;只適用于線性模型,不適合邏輯回歸模型等其他模型

第三章單元測試

邏輯回歸是一種什么類型的算法?()

A:關(guān)聯(lián)規(guī)則算法B:回歸算法C:分類算法D:聚類算法

答案:分類算法邏輯回歸的損失函數(shù)是什么?()

A:交叉熵B:正則化項(xiàng)C:對數(shù)損失D:均方誤差

答案:對數(shù)損失邏輯回歸常用的優(yōu)化算法是什么?()

A:隨機(jī)梯度下降B:牛頓法C:支持向量機(jī)D:梯度下降

答案:隨機(jī)梯度下降邏輯回歸是一種監(jiān)督學(xué)習(xí)算法。()

A:對B:錯(cuò)

答案:對在邏輯回歸中,線性回歸模型的輸出被映射到0和1之間的概率值。()

A:錯(cuò)B:對

答案:對

第四章單元測試

怎樣理解“硬間隔”()。

A:SVM允許分類時(shí)出現(xiàn)一定范圍的誤差B:SVM只允許極小誤差C:兩個(gè)均正確D:兩個(gè)均不正確

答案:SVM只允許極小誤差SVM算法的性能取決于()。

A:核函數(shù)的選擇、參數(shù)和軟間隔參數(shù)CB:軟間隔參數(shù)CC:核函數(shù)的選擇D:核函數(shù)的參數(shù)

答案:核函數(shù)的選擇、參數(shù)和軟間隔參數(shù)C如果使用數(shù)據(jù)集的所有特征,在訓(xùn)練集上的準(zhǔn)確率達(dá)到100%,而在驗(yàn)證集上的準(zhǔn)確率僅為70%,那么應(yīng)該注意什么?()

A:模型過擬合B:模型完美C:模型欠擬合

答案:模型過擬合如果不存在一個(gè)能正確劃分兩類樣本的超平面SVM的做法是()

A:將樣本從原始空間映射到一個(gè)更低維的特征空間,使樣本在這個(gè)特征空間內(nèi)非線性可分B:將樣本從原始空間映射到一個(gè)更低維的特征空間,使樣本在這個(gè)特征空間內(nèi)線性可分C:將樣本從原始空間映射到一個(gè)更高維的特征空間,使樣本在這個(gè)特征空間內(nèi)線性可分D:將樣本從原始空間映射到一個(gè)更高維的特征空間,使樣本在這個(gè)特征空間內(nèi)非線性可分

答案:將樣本從原始空間映射到一個(gè)更高維的特征空間,使樣本在這個(gè)特征空間內(nèi)線性可分采用hinge損失,當(dāng)軟間隔支持向量機(jī)松他變量ξn滿足什么條件時(shí),樣本位于間隔內(nèi),位于決策邊界的正確一側(cè)?()

A:ξn<0B:ξn=0C:0<ξn≤1D:ξn>1

答案:0<ξn≤1下面有關(guān)軟間隔支持向量機(jī)說法錯(cuò)誤的是()

A:軟間隔的基本思路為在最大化間隔的同時(shí),讓不滿足約束的樣本盡可能少B:軟間隔是支持向量機(jī)緩解過擬合的一種手段C:正則化參數(shù)C越小,模型對分類錯(cuò)誤的容忍度越小D:采用hinge損失函數(shù)后仍保持了SVM解的稀疏性

答案:正則化參數(shù)C越小,模型對分類錯(cuò)誤的容忍度越小關(guān)于支持向量機(jī)基本型中的間隔、支持向量和超平面wx+b=0的說法,下列說法正確的是()

A:間隔只與w有關(guān),與b無關(guān)B:支持向量機(jī)訓(xùn)練完成后,最后的解與所有訓(xùn)練樣本都有關(guān)C:對于線性可分的訓(xùn)練樣本,存在唯一的超平面將訓(xùn)練樣本全部分類正確D:對于線性可分的訓(xùn)練樣本,支持向量機(jī)算法學(xué)習(xí)得到的能夠?qū)⒂?xùn)練樣本正確分類且具有“最大間隔”的超平面是存在并且唯一的

答案:對于線性可分的訓(xùn)練樣本,支持向量機(jī)算法學(xué)習(xí)得到的能夠?qū)⒂?xùn)練樣本正確分類且具有“最大間隔”的超平面是存在并且唯一的假設(shè)采用線性SVM模型來處理某個(gè)任務(wù),并且知道這個(gè)SVM模型欠擬合。那么使用下列哪些方法可以提升該模型的性能?()

A:減少訓(xùn)練樣本B:增加特征數(shù)量C:減少特征數(shù)量D:減少參數(shù)CE:增加參數(shù)CF:增加訓(xùn)練樣本

答案:增加特征數(shù)量;減少參數(shù)C以下哪個(gè)屬于線性分類器最佳準(zhǔn)則?()

A:感知準(zhǔn)則函數(shù)B:Fisher準(zhǔn)則C:貝葉斯分類D:支持向量機(jī)

答案:感知準(zhǔn)則函數(shù);Fisher準(zhǔn)則;支持向量機(jī)支持向量是最靠近決策表面的數(shù)據(jù)。()

A:對B:錯(cuò)

答案:對

第五章單元測試

生成式分類器與判別式分類器的主要區(qū)別是什么?()

A:判別式分類器估計(jì)先驗(yàn)概率P(y)B:生成式分類器估計(jì)類條件概率分布P(y∣x)C:判別式分類器估計(jì)聯(lián)合概率分布P(x,y)D:生成式分類器估計(jì)聯(lián)合概率分布P(x,y)

答案:生成式分類器估計(jì)聯(lián)合概率分布P(x,y)以下哪一個(gè)是生成式分類器的例子()?

A:支持向量機(jī)(SVM)B:樸素貝葉斯C:k近鄰(k-NN)D:邏輯回歸

答案:樸素貝葉斯在樸素貝葉斯分類器中,假設(shè)特征之間是怎樣的()?

A:相互獨(dú)立B:完全相關(guān)C:線性相關(guān)D:非線性相關(guān)

答案:相互獨(dú)立樸素貝葉斯分類器的優(yōu)勢之一是():

A:能處理高度相關(guān)的特征B:對小樣本數(shù)據(jù)集表現(xiàn)良好C:不需要特征獨(dú)立性假設(shè)D:對噪聲數(shù)據(jù)不敏感

答案:對小樣本數(shù)據(jù)集表現(xiàn)良好樸素貝葉斯分類器在文本分類中的一個(gè)典型應(yīng)用是什么()?

A:信用評分B:圖像識(shí)別C:情感分析D:股票價(jià)格預(yù)測

答案:情感分析在使用生成式分類器時(shí),計(jì)算P(x∣y)的目的是為了():

A:確定數(shù)據(jù)集的先驗(yàn)概率B:估計(jì)聯(lián)合概率分布C:確定分類的條件概率D:最大化后驗(yàn)概率

答案:估計(jì)聯(lián)合概率分布當(dāng)特征數(shù)量增加時(shí),生成式分類器的表現(xiàn)通常會(huì)():

A:提高,因?yàn)橛懈嗟男畔:不變,因?yàn)榉诸惼鞑皇芴卣鲾?shù)量影響C:降低,因?yàn)樘卣鳘?dú)立性假設(shè)可能不成立D:隨機(jī)變化

答案:降低,因?yàn)樘卣鳘?dú)立性假設(shè)可能不成立學(xué)習(xí)曲線主要用來評估什么()?

A:模型在不同訓(xùn)練集大小下的性能B:模型的復(fù)雜度C:數(shù)據(jù)集的大小D:特征的重要性

答案:模型在不同訓(xùn)練集大小下的性能樸素貝葉斯分類器通常適用于以下哪種任務(wù)()?

A:時(shí)間序列預(yù)測B:文本分類C:信用評分D:圖像識(shí)別

答案:文本分類生成式分類器在處理以下哪種情況時(shí)表現(xiàn)更好()?

A:非線性特征B:高維度特征空間C:小樣本數(shù)據(jù)集D:強(qiáng)相關(guān)特征

答案:小樣本數(shù)據(jù)集

第六章單元測試

決策樹擁有過很強(qiáng)的數(shù)據(jù)議合能力,往往會(huì)產(chǎn)生過擬合現(xiàn)象,因此需要對決策樹進(jìn)行剪枝。

()

A:錯(cuò)B:對

答案:對信息增益是最早用于決策樹模型的特征選擇指標(biāo),也是ID3算法的核心。()

A:對B:錯(cuò)

答案:對()算法不需要數(shù)據(jù)歸一化。

A:SVMB:決策樹C:KNND:k-means

答案:決策樹關(guān)于機(jī)器學(xué)習(xí)中的決策樹學(xué)習(xí),說法錯(cuò)誤的是()。

A:受生物進(jìn)化啟發(fā)B:自頂向下遞推C:屬于歸納推理D:用于分類和預(yù)測

答案:受生物進(jìn)化啟發(fā)在構(gòu)建決策樹時(shí),需要計(jì)算每個(gè)用來劃分?jǐn)?shù)據(jù)特征的得分,選擇分?jǐn)?shù)最高的特征,以下可以作為得分的是()。

A:訓(xùn)練誤差B:基尼系數(shù)C:熵D:熵、基尼系數(shù)、訓(xùn)練誤差

答案:熵、基尼系數(shù)、訓(xùn)練誤差

第七章單元測試

假設(shè)在訓(xùn)練中突然遇到一個(gè)問題,在幾次循環(huán)之后,誤差瞬間降低。你認(rèn)為數(shù)據(jù)有問題,于是你畫出了數(shù)據(jù)并且發(fā)現(xiàn)也許是數(shù)據(jù)的偏度過大造成了這個(gè)問題。你打算怎么做來處理這個(gè)問題?()

A:對數(shù)據(jù)取對數(shù)變化B:對數(shù)據(jù)作主成分分析(PCA)和歸一化C:都不對D:對數(shù)據(jù)作歸一化

答案:對數(shù)據(jù)作主成分分析(PCA)和歸一化深度學(xué)習(xí)中的激活函數(shù)需要具有哪些屬性?()

A:非線性B:具有飽和區(qū)C:幾乎處處可微D:計(jì)算簡單

答案:非線性;幾乎處處可微;計(jì)算簡單CNN常見的Loss函數(shù)不包括以下哪個(gè)()

A:Contrastive_LossB:softmax_lossC:sigmoid_lossD:siamese_loss

答案:siamese_loss下列關(guān)于神經(jīng)網(wǎng)絡(luò)的敘述中,正確的是()

A:深度神經(jīng)網(wǎng)絡(luò)容易陷入局部最優(yōu)解B:損失函數(shù)關(guān)于輸入一定是非凸或非凹的C:存在某種深度神經(jīng)網(wǎng)絡(luò)(至少一個(gè)隱藏層),使其每個(gè)局部最優(yōu)解都是全局最優(yōu)解

答案:存在某種深度神經(jīng)網(wǎng)絡(luò)(至少一個(gè)隱藏層),使其每個(gè)局部最優(yōu)解都是全局最優(yōu)解目前神經(jīng)網(wǎng)絡(luò)最常用的網(wǎng)絡(luò)結(jié)構(gòu)是下列哪個(gè)選項(xiàng)?()

A:多層前饋網(wǎng)絡(luò)B:單層前饋網(wǎng)絡(luò)C:多層后向網(wǎng)絡(luò)D:單層后向網(wǎng)絡(luò)

答案:多層前饋網(wǎng)絡(luò)下列關(guān)于BP算法使用小步長優(yōu)化神經(jīng)網(wǎng)絡(luò)的說法中正確的是哪個(gè)?()

A:訓(xùn)練速度快B:可以較好的避免振蕩現(xiàn)象C:一定能學(xué)到最優(yōu)解D:學(xué)得的解比使用大步長具有更小的泛化誤差

答案:可以較好的避免振蕩現(xiàn)象使用梯度下降訓(xùn)練Logistic回歸分類器后,如果發(fā)現(xiàn)它對訓(xùn)練集欠擬合,在訓(xùn)練集或驗(yàn)證集上沒有達(dá)到所需的性能,那么以下哪項(xiàng)可能是有希望采取的步驟?()

A:增加多項(xiàng)式特征值B:采用其他優(yōu)化算法,因?yàn)樘荻认陆捣ǖ玫降目赡苁蔷植繕O小值C:增加訓(xùn)練集樣本數(shù)在全部數(shù)據(jù)集中的比例D:增加訓(xùn)練樣本

答案:增加多項(xiàng)式特征值;增加訓(xùn)練樣本輸入圖片大小為200×200,依次經(jīng)過一層卷積(kernelsize5×5,padding1,stride

2),pooling(kernelsize3×3,padding0,stride1),又一層卷積(kernelsize3×3,padding1,stride1)之后,輸出特征圖大小為()

A:95B:97C:98D:96

答案:97在深度學(xué)習(xí)中,涉及到大量的矩陣相乘,現(xiàn)在需要計(jì)算三個(gè)稠密矩陣A,B,C的乘積ABC,假設(shè)三個(gè)矩陣的尺寸分別為m*n,n*p,p*q,且m<n<p<q,以下計(jì)算順序效率最高的是()

A:A(BC)B:(AB)CC:AC(B)D:所以效率都相同

答案:(AB)CSigmoid是神經(jīng)網(wǎng)絡(luò)中最常用到的一種激活函數(shù),除非當(dāng)梯度太大導(dǎo)致激活函數(shù)被彌散,這叫作神經(jīng)元飽和。ReLU會(huì)被提出來,因?yàn)镽eLU可以使得梯度在正向時(shí)輸出值與原始值一樣。這是否意味著在神經(jīng)網(wǎng)絡(luò)中ReLU單元永遠(yuǎn)不會(huì)飽和?()

A:對B:錯(cuò)

答案:錯(cuò)

第八章單元測試

降維的主要?jiǎng)訖C(jī)不包括以下哪一項(xiàng)()。

A:提高后續(xù)訓(xùn)練算法的速度B:增加數(shù)據(jù)維度以便于可視化C:節(jié)省存儲(chǔ)空間D:去除數(shù)據(jù)中的噪聲和冗余特征

答案:增加數(shù)據(jù)維度以便于可視化關(guān)于PCA(主成分分析)的描述,以下哪項(xiàng)是錯(cuò)誤的()。

A:PCA的典型應(yīng)用是人臉識(shí)別中的特征臉構(gòu)建B:PCA是一種線性降維方法C:PCA是一種非線性降維方法D:PCA主要有矩陣分解和奇異值分解兩種解法

答案:PCA是一種非線性降維方法降維會(huì)丟失一些信息,但可能提高后續(xù)算法的性能。()

A:對B:錯(cuò)

答案:對自編碼器中的編碼器負(fù)責(zé)將數(shù)據(jù)從原始空間映射到低維空間。()

A:對B:錯(cuò)

答案:對K-means聚類算法的結(jié)果對初始簇中心的選擇不敏感。()

A:對B:錯(cuò)

答案:錯(cuò)

第九章單元測試

svm應(yīng)用的一般框架

A:收集數(shù)據(jù):可以適用任意方法B:準(zhǔn)備數(shù)據(jù):需要數(shù)

溫馨提示

  • 1. 本站所有資源如無特殊說明,都需要本地電腦安裝OFFICE2007和PDF閱讀器。圖紙軟件為CAD,CAXA,PROE,UG,SolidWorks等.壓縮文件請下載最新的WinRAR軟件解壓。
  • 2. 本站的文檔不包含任何第三方提供的附件圖紙等,如果需要附件,請聯(lián)系上傳者。文件的所有權(quán)益歸上傳用戶所有。
  • 3. 本站RAR壓縮包中若帶圖紙,網(wǎng)頁內(nèi)容里面會(huì)有圖紙預(yù)覽,若沒有圖紙預(yù)覽就沒有圖紙。
  • 4. 未經(jīng)權(quán)益所有人同意不得將文件中的內(nèi)容挪作商業(yè)或盈利用途。
  • 5. 人人文庫網(wǎng)僅提供信息存儲(chǔ)空間,僅對用戶上傳內(nèi)容的表現(xiàn)方式做保護(hù)處理,對用戶上傳分享的文檔內(nèi)容本身不做任何修改或編輯,并不能對任何下載內(nèi)容負(fù)責(zé)。
  • 6. 下載文件中如有侵權(quán)或不適當(dāng)內(nèi)容,請與我們聯(lián)系,我們立即糾正。
  • 7. 本站不保證下載資源的準(zhǔn)確性、安全性和完整性, 同時(shí)也不承擔(dān)用戶因使用這些下載資源對自己和他人造成任何形式的傷害或損失。

評論

0/150

提交評論