



下載本文檔
版權(quán)說明:本文檔由用戶提供并上傳,收益歸屬內(nèi)容提供方,若內(nèi)容存在侵權(quán),請進(jìn)行舉報(bào)或認(rèn)領(lǐng)
文檔簡介
機(jī)器學(xué)習(xí)基礎(chǔ)知到智慧樹章節(jié)測試課后答案2024年秋湖北商貿(mào)學(xué)院第一章單元測試
機(jī)器學(xué)習(xí)是一種:()
A:人工智能子領(lǐng)域B:算法庫C:數(shù)據(jù)分析工具D:編程語言
答案:人工智能子領(lǐng)域以下哪種算法是無監(jiān)督學(xué)習(xí)算法?()
A:樸素貝葉斯B:支持向量機(jī)C:K均值聚類D:決策樹
答案:K均值聚類在機(jī)器學(xué)習(xí)中,過擬合是指:()
A:模型無法適應(yīng)新數(shù)據(jù)B:模型的精度較低C:模型過于簡單D:模型過于復(fù)雜
答案:模型過于復(fù)雜監(jiān)督學(xué)習(xí)中,分類問題的輸出是離散值,而回歸問題的輸出是連續(xù)值。()
A:錯(cuò)B:對
答案:對機(jī)器學(xué)習(xí)中的特征工程是指對原始數(shù)據(jù)進(jìn)行預(yù)處理。()
A:錯(cuò)B:對
答案:對
第二章單元測試
訓(xùn)練一個(gè)機(jī)器學(xué)習(xí)模型往往需要對大量的參數(shù)進(jìn)行反復(fù)調(diào)試或者搜索,這一過程稱為調(diào)參。其中在訓(xùn)練之前調(diào)整設(shè)置的參數(shù)稱為超參數(shù)。()
A:錯(cuò)B:對
答案:對線性回歸的目標(biāo)是求解w和b,使得f(x)和y盡可能接近。求解線性回歸模型的基本方法是最小二乘法。()
A:對B:錯(cuò)
答案:對根據(jù)模型預(yù)測輸出的連續(xù)性,可以將機(jī)器學(xué)習(xí)算法適配的問題劃分為分類問題和線性問題。()
A:錯(cuò)B:對
答案:錯(cuò)如果兩個(gè)變量相關(guān),那么它們一定是線性關(guān)系。()
A:對B:錯(cuò)
答案:錯(cuò)以下()變量之間存在線性回歸關(guān)系。
A:學(xué)生的性別與他的成績B:正三角形的邊長與周長C:兒子的身高與父親的身高D:正方形的邊長與面積
答案:正三角形的邊長與周長回歸問題和分類問題的區(qū)別是()。
A:回歸問題輸出值是連續(xù)的,分類問題輸出值是離散的B:回歸問題與分類問題在輸入屬性值上要求不同C:回歸問題輸出值是離散的,分類問題輸出值是連續(xù)的D:回歸問題有標(biāo)簽,分類問題沒有
答案:回歸問題輸出值是連續(xù)的,分類問題輸出值是離散的以下說法錯(cuò)誤的是()。
A:損失函數(shù)越小,模型訓(xùn)練得一定越好B:殘差是預(yù)測值與真實(shí)值之間的差值C:正則項(xiàng)的目的是為了避免模型過擬合D:最小二乘法不需要選擇學(xué)習(xí)率
答案:損失函數(shù)越小,模型訓(xùn)練得一定越好以下()方法不能用于處理欠擬合。
A:對特征進(jìn)行變換,使用組合特征或高維特征B:增加模型復(fù)雜度C:增大正則化系數(shù)D:增加新的特征
答案:增大正則化系數(shù)以下()是使用數(shù)據(jù)規(guī)范化(特殊縮放)的原因。
A:它防止矩陣XTX不可逆(奇異/退化)B:它通過降低梯度下降的每次迭代的計(jì)算成本來加速梯度下降C:它通過減少迭代次數(shù)來獲得一個(gè)好的解,從而加快了梯度下降的速度D:它不能防止梯度下降陷入局部最優(yōu)
答案:它通過降低梯度下降的每次迭代的計(jì)算成本來加速梯度下降;它通過減少迭代次數(shù)來獲得一個(gè)好的解,從而加快了梯度下降的速度;它不能防止梯度下降陷入局部最優(yōu)線性回歸中,我們可以使用最小二乘法來求解系數(shù),下列關(guān)于最小二乘說法正確的是()。
A:不需要選擇學(xué)習(xí)率B:當(dāng)特征數(shù)量很多的時(shí)候,運(yùn)算速度會(huì)很慢C:不需要迭代訓(xùn)練D:只適用于線性模型,不適合邏輯回歸模型等其他模型
答案:不需要選擇學(xué)習(xí)率;當(dāng)特征數(shù)量很多的時(shí)候,運(yùn)算速度會(huì)很慢;不需要迭代訓(xùn)練;只適用于線性模型,不適合邏輯回歸模型等其他模型
第三章單元測試
邏輯回歸是一種什么類型的算法?()
A:關(guān)聯(lián)規(guī)則算法B:回歸算法C:分類算法D:聚類算法
答案:分類算法邏輯回歸的損失函數(shù)是什么?()
A:交叉熵B:正則化項(xiàng)C:對數(shù)損失D:均方誤差
答案:對數(shù)損失邏輯回歸常用的優(yōu)化算法是什么?()
A:隨機(jī)梯度下降B:牛頓法C:支持向量機(jī)D:梯度下降
答案:隨機(jī)梯度下降邏輯回歸是一種監(jiān)督學(xué)習(xí)算法。()
A:對B:錯(cuò)
答案:對在邏輯回歸中,線性回歸模型的輸出被映射到0和1之間的概率值。()
A:錯(cuò)B:對
答案:對
第四章單元測試
怎樣理解“硬間隔”()。
A:SVM允許分類時(shí)出現(xiàn)一定范圍的誤差B:SVM只允許極小誤差C:兩個(gè)均正確D:兩個(gè)均不正確
答案:SVM只允許極小誤差SVM算法的性能取決于()。
A:核函數(shù)的選擇、參數(shù)和軟間隔參數(shù)CB:軟間隔參數(shù)CC:核函數(shù)的選擇D:核函數(shù)的參數(shù)
答案:核函數(shù)的選擇、參數(shù)和軟間隔參數(shù)C如果使用數(shù)據(jù)集的所有特征,在訓(xùn)練集上的準(zhǔn)確率達(dá)到100%,而在驗(yàn)證集上的準(zhǔn)確率僅為70%,那么應(yīng)該注意什么?()
A:模型過擬合B:模型完美C:模型欠擬合
答案:模型過擬合如果不存在一個(gè)能正確劃分兩類樣本的超平面SVM的做法是()
A:將樣本從原始空間映射到一個(gè)更低維的特征空間,使樣本在這個(gè)特征空間內(nèi)非線性可分B:將樣本從原始空間映射到一個(gè)更低維的特征空間,使樣本在這個(gè)特征空間內(nèi)線性可分C:將樣本從原始空間映射到一個(gè)更高維的特征空間,使樣本在這個(gè)特征空間內(nèi)線性可分D:將樣本從原始空間映射到一個(gè)更高維的特征空間,使樣本在這個(gè)特征空間內(nèi)非線性可分
答案:將樣本從原始空間映射到一個(gè)更高維的特征空間,使樣本在這個(gè)特征空間內(nèi)線性可分采用hinge損失,當(dāng)軟間隔支持向量機(jī)松他變量ξn滿足什么條件時(shí),樣本位于間隔內(nèi),位于決策邊界的正確一側(cè)?()
A:ξn<0B:ξn=0C:0<ξn≤1D:ξn>1
答案:0<ξn≤1下面有關(guān)軟間隔支持向量機(jī)說法錯(cuò)誤的是()
A:軟間隔的基本思路為在最大化間隔的同時(shí),讓不滿足約束的樣本盡可能少B:軟間隔是支持向量機(jī)緩解過擬合的一種手段C:正則化參數(shù)C越小,模型對分類錯(cuò)誤的容忍度越小D:采用hinge損失函數(shù)后仍保持了SVM解的稀疏性
答案:正則化參數(shù)C越小,模型對分類錯(cuò)誤的容忍度越小關(guān)于支持向量機(jī)基本型中的間隔、支持向量和超平面wx+b=0的說法,下列說法正確的是()
A:間隔只與w有關(guān),與b無關(guān)B:支持向量機(jī)訓(xùn)練完成后,最后的解與所有訓(xùn)練樣本都有關(guān)C:對于線性可分的訓(xùn)練樣本,存在唯一的超平面將訓(xùn)練樣本全部分類正確D:對于線性可分的訓(xùn)練樣本,支持向量機(jī)算法學(xué)習(xí)得到的能夠?qū)⒂?xùn)練樣本正確分類且具有“最大間隔”的超平面是存在并且唯一的
答案:對于線性可分的訓(xùn)練樣本,支持向量機(jī)算法學(xué)習(xí)得到的能夠?qū)⒂?xùn)練樣本正確分類且具有“最大間隔”的超平面是存在并且唯一的假設(shè)采用線性SVM模型來處理某個(gè)任務(wù),并且知道這個(gè)SVM模型欠擬合。那么使用下列哪些方法可以提升該模型的性能?()
A:減少訓(xùn)練樣本B:增加特征數(shù)量C:減少特征數(shù)量D:減少參數(shù)CE:增加參數(shù)CF:增加訓(xùn)練樣本
答案:增加特征數(shù)量;減少參數(shù)C以下哪個(gè)屬于線性分類器最佳準(zhǔn)則?()
A:感知準(zhǔn)則函數(shù)B:Fisher準(zhǔn)則C:貝葉斯分類D:支持向量機(jī)
答案:感知準(zhǔn)則函數(shù);Fisher準(zhǔn)則;支持向量機(jī)支持向量是最靠近決策表面的數(shù)據(jù)。()
A:對B:錯(cuò)
答案:對
第五章單元測試
生成式分類器與判別式分類器的主要區(qū)別是什么?()
A:判別式分類器估計(jì)先驗(yàn)概率P(y)B:生成式分類器估計(jì)類條件概率分布P(y∣x)C:判別式分類器估計(jì)聯(lián)合概率分布P(x,y)D:生成式分類器估計(jì)聯(lián)合概率分布P(x,y)
答案:生成式分類器估計(jì)聯(lián)合概率分布P(x,y)以下哪一個(gè)是生成式分類器的例子()?
A:支持向量機(jī)(SVM)B:樸素貝葉斯C:k近鄰(k-NN)D:邏輯回歸
答案:樸素貝葉斯在樸素貝葉斯分類器中,假設(shè)特征之間是怎樣的()?
A:相互獨(dú)立B:完全相關(guān)C:線性相關(guān)D:非線性相關(guān)
答案:相互獨(dú)立樸素貝葉斯分類器的優(yōu)勢之一是():
A:能處理高度相關(guān)的特征B:對小樣本數(shù)據(jù)集表現(xiàn)良好C:不需要特征獨(dú)立性假設(shè)D:對噪聲數(shù)據(jù)不敏感
答案:對小樣本數(shù)據(jù)集表現(xiàn)良好樸素貝葉斯分類器在文本分類中的一個(gè)典型應(yīng)用是什么()?
A:信用評分B:圖像識(shí)別C:情感分析D:股票價(jià)格預(yù)測
答案:情感分析在使用生成式分類器時(shí),計(jì)算P(x∣y)的目的是為了():
A:確定數(shù)據(jù)集的先驗(yàn)概率B:估計(jì)聯(lián)合概率分布C:確定分類的條件概率D:最大化后驗(yàn)概率
答案:估計(jì)聯(lián)合概率分布當(dāng)特征數(shù)量增加時(shí),生成式分類器的表現(xiàn)通常會(huì)():
A:提高,因?yàn)橛懈嗟男畔:不變,因?yàn)榉诸惼鞑皇芴卣鲾?shù)量影響C:降低,因?yàn)樘卣鳘?dú)立性假設(shè)可能不成立D:隨機(jī)變化
答案:降低,因?yàn)樘卣鳘?dú)立性假設(shè)可能不成立學(xué)習(xí)曲線主要用來評估什么()?
A:模型在不同訓(xùn)練集大小下的性能B:模型的復(fù)雜度C:數(shù)據(jù)集的大小D:特征的重要性
答案:模型在不同訓(xùn)練集大小下的性能樸素貝葉斯分類器通常適用于以下哪種任務(wù)()?
A:時(shí)間序列預(yù)測B:文本分類C:信用評分D:圖像識(shí)別
答案:文本分類生成式分類器在處理以下哪種情況時(shí)表現(xiàn)更好()?
A:非線性特征B:高維度特征空間C:小樣本數(shù)據(jù)集D:強(qiáng)相關(guān)特征
答案:小樣本數(shù)據(jù)集
第六章單元測試
決策樹擁有過很強(qiáng)的數(shù)據(jù)議合能力,往往會(huì)產(chǎn)生過擬合現(xiàn)象,因此需要對決策樹進(jìn)行剪枝。
()
A:錯(cuò)B:對
答案:對信息增益是最早用于決策樹模型的特征選擇指標(biāo),也是ID3算法的核心。()
A:對B:錯(cuò)
答案:對()算法不需要數(shù)據(jù)歸一化。
A:SVMB:決策樹C:KNND:k-means
答案:決策樹關(guān)于機(jī)器學(xué)習(xí)中的決策樹學(xué)習(xí),說法錯(cuò)誤的是()。
A:受生物進(jìn)化啟發(fā)B:自頂向下遞推C:屬于歸納推理D:用于分類和預(yù)測
答案:受生物進(jìn)化啟發(fā)在構(gòu)建決策樹時(shí),需要計(jì)算每個(gè)用來劃分?jǐn)?shù)據(jù)特征的得分,選擇分?jǐn)?shù)最高的特征,以下可以作為得分的是()。
A:訓(xùn)練誤差B:基尼系數(shù)C:熵D:熵、基尼系數(shù)、訓(xùn)練誤差
答案:熵、基尼系數(shù)、訓(xùn)練誤差
第七章單元測試
假設(shè)在訓(xùn)練中突然遇到一個(gè)問題,在幾次循環(huán)之后,誤差瞬間降低。你認(rèn)為數(shù)據(jù)有問題,于是你畫出了數(shù)據(jù)并且發(fā)現(xiàn)也許是數(shù)據(jù)的偏度過大造成了這個(gè)問題。你打算怎么做來處理這個(gè)問題?()
A:對數(shù)據(jù)取對數(shù)變化B:對數(shù)據(jù)作主成分分析(PCA)和歸一化C:都不對D:對數(shù)據(jù)作歸一化
答案:對數(shù)據(jù)作主成分分析(PCA)和歸一化深度學(xué)習(xí)中的激活函數(shù)需要具有哪些屬性?()
A:非線性B:具有飽和區(qū)C:幾乎處處可微D:計(jì)算簡單
答案:非線性;幾乎處處可微;計(jì)算簡單CNN常見的Loss函數(shù)不包括以下哪個(gè)()
A:Contrastive_LossB:softmax_lossC:sigmoid_lossD:siamese_loss
答案:siamese_loss下列關(guān)于神經(jīng)網(wǎng)絡(luò)的敘述中,正確的是()
A:深度神經(jīng)網(wǎng)絡(luò)容易陷入局部最優(yōu)解B:損失函數(shù)關(guān)于輸入一定是非凸或非凹的C:存在某種深度神經(jīng)網(wǎng)絡(luò)(至少一個(gè)隱藏層),使其每個(gè)局部最優(yōu)解都是全局最優(yōu)解
答案:存在某種深度神經(jīng)網(wǎng)絡(luò)(至少一個(gè)隱藏層),使其每個(gè)局部最優(yōu)解都是全局最優(yōu)解目前神經(jīng)網(wǎng)絡(luò)最常用的網(wǎng)絡(luò)結(jié)構(gòu)是下列哪個(gè)選項(xiàng)?()
A:多層前饋網(wǎng)絡(luò)B:單層前饋網(wǎng)絡(luò)C:多層后向網(wǎng)絡(luò)D:單層后向網(wǎng)絡(luò)
答案:多層前饋網(wǎng)絡(luò)下列關(guān)于BP算法使用小步長優(yōu)化神經(jīng)網(wǎng)絡(luò)的說法中正確的是哪個(gè)?()
A:訓(xùn)練速度快B:可以較好的避免振蕩現(xiàn)象C:一定能學(xué)到最優(yōu)解D:學(xué)得的解比使用大步長具有更小的泛化誤差
答案:可以較好的避免振蕩現(xiàn)象使用梯度下降訓(xùn)練Logistic回歸分類器后,如果發(fā)現(xiàn)它對訓(xùn)練集欠擬合,在訓(xùn)練集或驗(yàn)證集上沒有達(dá)到所需的性能,那么以下哪項(xiàng)可能是有希望采取的步驟?()
A:增加多項(xiàng)式特征值B:采用其他優(yōu)化算法,因?yàn)樘荻认陆捣ǖ玫降目赡苁蔷植繕O小值C:增加訓(xùn)練集樣本數(shù)在全部數(shù)據(jù)集中的比例D:增加訓(xùn)練樣本
答案:增加多項(xiàng)式特征值;增加訓(xùn)練樣本輸入圖片大小為200×200,依次經(jīng)過一層卷積(kernelsize5×5,padding1,stride
2),pooling(kernelsize3×3,padding0,stride1),又一層卷積(kernelsize3×3,padding1,stride1)之后,輸出特征圖大小為()
A:95B:97C:98D:96
答案:97在深度學(xué)習(xí)中,涉及到大量的矩陣相乘,現(xiàn)在需要計(jì)算三個(gè)稠密矩陣A,B,C的乘積ABC,假設(shè)三個(gè)矩陣的尺寸分別為m*n,n*p,p*q,且m<n<p<q,以下計(jì)算順序效率最高的是()
A:A(BC)B:(AB)CC:AC(B)D:所以效率都相同
答案:(AB)CSigmoid是神經(jīng)網(wǎng)絡(luò)中最常用到的一種激活函數(shù),除非當(dāng)梯度太大導(dǎo)致激活函數(shù)被彌散,這叫作神經(jīng)元飽和。ReLU會(huì)被提出來,因?yàn)镽eLU可以使得梯度在正向時(shí)輸出值與原始值一樣。這是否意味著在神經(jīng)網(wǎng)絡(luò)中ReLU單元永遠(yuǎn)不會(huì)飽和?()
A:對B:錯(cuò)
答案:錯(cuò)
第八章單元測試
降維的主要?jiǎng)訖C(jī)不包括以下哪一項(xiàng)()。
A:提高后續(xù)訓(xùn)練算法的速度B:增加數(shù)據(jù)維度以便于可視化C:節(jié)省存儲(chǔ)空間D:去除數(shù)據(jù)中的噪聲和冗余特征
答案:增加數(shù)據(jù)維度以便于可視化關(guān)于PCA(主成分分析)的描述,以下哪項(xiàng)是錯(cuò)誤的()。
A:PCA的典型應(yīng)用是人臉識(shí)別中的特征臉構(gòu)建B:PCA是一種線性降維方法C:PCA是一種非線性降維方法D:PCA主要有矩陣分解和奇異值分解兩種解法
答案:PCA是一種非線性降維方法降維會(huì)丟失一些信息,但可能提高后續(xù)算法的性能。()
A:對B:錯(cuò)
答案:對自編碼器中的編碼器負(fù)責(zé)將數(shù)據(jù)從原始空間映射到低維空間。()
A:對B:錯(cuò)
答案:對K-means聚類算法的結(jié)果對初始簇中心的選擇不敏感。()
A:對B:錯(cuò)
答案:錯(cuò)
第九章單元測試
svm應(yīng)用的一般框架
A:收集數(shù)據(jù):可以適用任意方法B:準(zhǔn)備數(shù)據(jù):需要數(shù)
溫馨提示
- 1. 本站所有資源如無特殊說明,都需要本地電腦安裝OFFICE2007和PDF閱讀器。圖紙軟件為CAD,CAXA,PROE,UG,SolidWorks等.壓縮文件請下載最新的WinRAR軟件解壓。
- 2. 本站的文檔不包含任何第三方提供的附件圖紙等,如果需要附件,請聯(lián)系上傳者。文件的所有權(quán)益歸上傳用戶所有。
- 3. 本站RAR壓縮包中若帶圖紙,網(wǎng)頁內(nèi)容里面會(huì)有圖紙預(yù)覽,若沒有圖紙預(yù)覽就沒有圖紙。
- 4. 未經(jīng)權(quán)益所有人同意不得將文件中的內(nèi)容挪作商業(yè)或盈利用途。
- 5. 人人文庫網(wǎng)僅提供信息存儲(chǔ)空間,僅對用戶上傳內(nèi)容的表現(xiàn)方式做保護(hù)處理,對用戶上傳分享的文檔內(nèi)容本身不做任何修改或編輯,并不能對任何下載內(nèi)容負(fù)責(zé)。
- 6. 下載文件中如有侵權(quán)或不適當(dāng)內(nèi)容,請與我們聯(lián)系,我們立即糾正。
- 7. 本站不保證下載資源的準(zhǔn)確性、安全性和完整性, 同時(shí)也不承擔(dān)用戶因使用這些下載資源對自己和他人造成任何形式的傷害或損失。
最新文檔
- 2025年01月河南洛陽龍?zhí)洞髰{谷景區(qū)公開招聘20人筆試歷年典型考題(歷年真題考點(diǎn))解題思路附帶答案詳解-1
- 幼兒園角色扮演活動(dòng)設(shè)計(jì)計(jì)劃
- 投標(biāo)商務(wù)合同范本
- 會(huì)計(jì)職業(yè)規(guī)劃與目標(biāo)實(shí)現(xiàn)計(jì)劃
- 樓梯拆除合同范本
- 學(xué)校學(xué)期教學(xué)工作計(jì)劃總結(jié)備忘
- 懷舊行業(yè)保安工作計(jì)劃
- 屠宰場HACCP體系建立與實(shí)施考核試卷
- 寵物飼料企業(yè)的市場競爭力分析與提升策略考核試卷
- 2016借貸抵押合同范本
- 癥狀護(hù)理意識(shí)障礙
- 公司組織架構(gòu)圖模板完整版可編輯 10
- 《護(hù)理法律法規(guī)》課件
- AI在知識(shí)庫領(lǐng)域的應(yīng)用
- 易制毒化學(xué)品經(jīng)營管理制度
- 2024年中國成人心肌炎臨床診斷與治療指南解讀課件
- 全國川教版信息技術(shù)八年級下冊第一單元第2節(jié)《制作創(chuàng)意掛件》信息技術(shù)教學(xué)設(shè)計(jì)
- GB/T 22919.8-2024水產(chǎn)配合飼料第8部分:巴沙魚配合飼料
- 網(wǎng)絡(luò)營銷推廣與策劃教學(xué)大綱
- 北師大版五年級數(shù)學(xué)下冊教材分析解讀課件完整版
- 孩子你是在為自己讀書
評論
0/150
提交評論