下載本文檔
版權(quán)說明:本文檔由用戶提供并上傳,收益歸屬內(nèi)容提供方,若內(nèi)容存在侵權(quán),請(qǐng)進(jìn)行舉報(bào)或認(rèn)領(lǐng)
文檔簡介
機(jī)器學(xué)習(xí)知到智慧樹章節(jié)測試課后答案2024年秋山東科技大學(xué)第一章單元測試
機(jī)器學(xué)習(xí)最主要的兩種形式是監(jiān)督學(xué)習(xí)和無監(jiān)督學(xué)習(xí)。()
A:錯(cuò)B:對(duì)
答案:對(duì)機(jī)器學(xué)習(xí)的核心是算法。()
A:對(duì)B:錯(cuò)
答案:對(duì)過擬合只是監(jiān)督學(xué)習(xí)中的問題,對(duì)于無監(jiān)督學(xué)習(xí)影響不大。()
A:對(duì)B:錯(cuò)
答案:錯(cuò)下面哪句話是正確的?()
A:機(jī)器學(xué)習(xí)模型的精準(zhǔn)度越高,則模型的性能越好B:其余說法都不對(duì)C:增加模型的復(fù)雜度,總能減小測試樣本誤差D:增加模型的復(fù)雜度,總能減小訓(xùn)練樣本誤差
答案:增加模型的復(fù)雜度,總能減小訓(xùn)練樣本誤差下列屬于無監(jiān)督學(xué)習(xí)的是()
A:K-MeansB:決策樹C:邏輯回歸D:SVM
答案:K-Means
第二章單元測試
在實(shí)際應(yīng)用中,選取損失函數(shù)的制約因素包括()。
A:是否有異常值B:求導(dǎo)的難易程度C:機(jī)器學(xué)習(xí)算法的選擇D:梯度下降的時(shí)間復(fù)雜度
答案:是否有異常值;求導(dǎo)的難易程度;機(jī)器學(xué)習(xí)算法的選擇;梯度下降的時(shí)間復(fù)雜度嶺回歸的目標(biāo)函數(shù)是一個(gè)嚴(yán)格凸函數(shù),沒有唯一最優(yōu)解。()
A:對(duì)B:錯(cuò)
答案:錯(cuò)線性回歸算法、邏輯回歸算法和支持向量機(jī)等監(jiān)督式學(xué)習(xí)算法,都是經(jīng)驗(yàn)損失最小化架構(gòu)在具體問題中的表現(xiàn)。()
A:錯(cuò)B:對(duì)
答案:對(duì)以下關(guān)于無約束經(jīng)驗(yàn)損失最小化算法的說法哪個(gè)是正確的?()
A:“無約束”的意思是模型的選擇不受任何約束,可以輸出模型空間中的任何模型B:可以精確地?cái)M合訓(xùn)練數(shù)據(jù)C:為了降低過擬合,在實(shí)際應(yīng)用中大多會(huì)采用無約束經(jīng)驗(yàn)損失最小化算法D:容易發(fā)生過渡擬合
答案:“無約束”的意思是模型的選擇不受任何約束,可以輸出模型空間中的任何模型;可以精確地?cái)M合訓(xùn)練數(shù)據(jù);容易發(fā)生過渡擬合以下關(guān)于結(jié)構(gòu)損失最小化算法的說法哪個(gè)是錯(cuò)誤的?()
A:任何經(jīng)驗(yàn)損失最小化算法,都可以通過正則化方法轉(zhuǎn)化成結(jié)構(gòu)損失最小化算法B:體現(xiàn)了奧卡姆剃刀法則思想C:不會(huì)發(fā)生過渡擬合D:帶有正則化方法的經(jīng)驗(yàn)損失最小化算法被稱為結(jié)構(gòu)損失最小化算法
答案:不會(huì)發(fā)生過渡擬合
第三章單元測試
以下是線性回歸應(yīng)用場景的是()
A:銀行個(gè)人信用評(píng)估B:房價(jià)預(yù)測C:醫(yī)生病理診斷D:垃圾郵件判斷
答案:房價(jià)預(yù)測下列屬于線性回歸的分類的有()
A:單變量線性關(guān)系B:多變量線性關(guān)系C:非線性關(guān)系D:ABC都是
答案:ABC都是以下關(guān)于隨機(jī)森林算法說法錯(cuò)誤的是()
A:決策樹之間相關(guān)系數(shù)越低、每棵決策樹分類精度越高的隨機(jī)森林模型的分類效果越好。B:隨機(jī)森林算法對(duì)異常值和缺失值不敏感。C:隨機(jī)森林分類算法的輸出類別是由所有決策樹輸出類別的平均數(shù)來確定的。D:隨機(jī)森林算法的分類精度不會(huì)隨著決策樹數(shù)量的增加而提高。
答案:隨機(jī)森林分類算法的輸出類別是由所有決策樹輸出類別的平均數(shù)來確定的。K均值算法的關(guān)鍵是?()
A:計(jì)算每一個(gè)樣本和質(zhì)心之間相似度所用的距離算法B:所選取數(shù)據(jù)集的大小C:選取數(shù)據(jù)樣本的K個(gè)中心D:確定最終聚類類別數(shù)K
答案:選取數(shù)據(jù)樣本的K個(gè)中心合并聚類算法的時(shí)間復(fù)雜度為O(m2)。()
A:錯(cuò)B:對(duì)
答案:錯(cuò)
第四章單元測試
梯度下降算法的正確步驟是什么?
(a)計(jì)算預(yù)測值和真實(shí)值之間的誤差;(b)迭代更新,直到找到最佳權(quán)重;(c)把輸入傳入網(wǎng)絡(luò),得到輸出值;(d)初始化隨機(jī)權(quán)重和偏差;(e)對(duì)每一個(gè)產(chǎn)生誤差的神經(jīng)元,改變相應(yīng)的(權(quán)重)值以減少誤差。()
A:e,d,c,b,aB:c,b,a,e,dC:a,b,c,d,eD:d,c,a,e,b
答案:d,c,a,e,b隨機(jī)梯度下降法缺點(diǎn)在于每次更新可能并不會(huì)按照正確的方向進(jìn)行,參數(shù)更新具有高方差,從而導(dǎo)致?lián)p失函數(shù)劇烈波動(dòng)。()
A:錯(cuò)B:對(duì)
答案:對(duì)牛頓法是梯度下降法的進(jìn)一步發(fā)展,牛頓法不僅使用目標(biāo)函數(shù)的一階偏導(dǎo)數(shù),還進(jìn)一步利用了目標(biāo)函數(shù)的二階偏導(dǎo)數(shù),這樣就考慮了梯度變化的趨勢,因而能更全面地確定合適的搜索方向加快收斂,它具二階收斂速度。()
A:對(duì)B:錯(cuò)
答案:對(duì)坐標(biāo)下降算法的優(yōu)點(diǎn)是容易計(jì)算,同時(shí)收斂很快;缺點(diǎn)是當(dāng)loss比較復(fù)雜時(shí),會(huì)很明顯的降低速度。()
A:對(duì)B:錯(cuò)
答案:對(duì)通過梯度下降算法,計(jì)算方程取最小值(極小值)時(shí)候的最優(yōu)解x。求解過程主要通過迭代優(yōu)化方法完成迭代的方程為:
其中x為要求的解,為梯度(也就是導(dǎo)數(shù)或偏導(dǎo),我們在這里用最簡單的一元函數(shù)演示,所以直接寫成導(dǎo)數(shù)),a為學(xué)習(xí)率(或稱步長,是一個(gè)重要的參數(shù),a的選擇直接影響這著算法的效率)
答案:/zhs/onlineexam/ansewerImg/202210/8c1640e3e9a74f8b99972986850f0140.png
第五章單元測試
Logistic回歸算法是模型假設(shè)為Sigmoid函數(shù)的經(jīng)驗(yàn)損失最小化算法。()
A:對(duì)B:錯(cuò)
答案:對(duì)Logistic回歸屬于()
A:概率型線性回歸B:非概率性線性回歸C:概率型非線性回歸D:非概率型非線性回歸
答案:概率型非線性回歸Logistic回歸可用于()
A:影響因素分析B:校正混雜因素C:預(yù)測D:其余選項(xiàng)都是
答案:其余選項(xiàng)都是關(guān)于分類和回歸問題,下面說法正確的是?()
A:回歸和分類都是有監(jiān)督學(xué)習(xí)問題。B:回歸問題和分類問題都有可能發(fā)生過擬合。C:輸出變量為有限個(gè)離散變量的預(yù)測問題是回歸問題;輸出變量為連續(xù)變量的預(yù)測問題是分類問題。D:一般來說,回歸不用在分類問題上,但是也有特殊情況,比如Logistic回歸可以用來解決0/1分類問題。
答案:回歸和分類都是有監(jiān)督學(xué)習(xí)問題。;回歸問題和分類問題都有可能發(fā)生過擬合。;一般來說,回歸不用在分類問題上,但是也有特殊情況,比如Logistic回歸可以用來解決0/1分類問題。我們知道二元分類一般設(shè)定輸出概率大于或等于0.5,則預(yù)測為正類;若輸出概率小于0.5,則預(yù)測為負(fù)類。那么,如果將閾值0.5提高,例如0.6,大于或等于0.6的才預(yù)測為正類,則精確率(Precision)和召回率(Recall)會(huì)發(fā)生什么變化?()
A:召回率(Recall)增大。B:召回率(Recall)減小或者不變。C:精確率(Precision)減小。D:精確率(Precision)增大或者不變。
答案:召回率(Recall)減小或者不變。;精確率(Precision)增大或者不變。
第六章單元測試
SVM決策邊界只會(huì)被支持向量影響,跟其它樣本點(diǎn)無關(guān)。()
A:對(duì)B:錯(cuò)
答案:對(duì)SVM使用高斯核函數(shù)之前通常會(huì)進(jìn)行特征歸一化,經(jīng)過特征歸一化得到的新特征通常優(yōu)于舊特征。()
A:錯(cuò)B:對(duì)
答案:對(duì)下面關(guān)于SVM原理的說法錯(cuò)誤的是:()
A:分類超平面的法向量可用于計(jì)算樣本與分類超平面之間的最短距離。B:最大化間隔就是最大化,其中w是分類超平面的法向量C:在樣本線性不可分的情況下引入核函數(shù)是一個(gè)明智的選擇。D:SVM通過計(jì)算樣本到分類超平面的最大距離來確定最優(yōu)模型。
答案:最大化間隔就是最大化,其中w是分類超平面的法向量下列關(guān)于SVM的應(yīng)用場景說法正確的是(多選):()
A:SVM在二分類問題上表現(xiàn)突出。B:SVM思想能夠應(yīng)用于回歸問題。C:SVM能夠解決多分類問題。D:SVM能夠?qū)崿F(xiàn)異常值檢測。
答案:SVM在二分類問題上表現(xiàn)突出。;SVM思想能夠應(yīng)用于回歸問題。;SVM能夠解決多分類問題。;SVM能夠?qū)崿F(xiàn)異常值檢測。關(guān)于SVM核函數(shù),下列說法中錯(cuò)誤的是:()
A:常見的核函數(shù)有線性核、高斯核、多項(xiàng)式核、Sigmoid核等。B:核函數(shù)把特征映射到的空間維度越高越好。C:核函數(shù)是一種將某一類輸入映射為某一類輸出的函數(shù)。D:核函數(shù)的引入極大地提升了SVM在線性不可分場景下的模型的穩(wěn)健性。
答案:核函數(shù)把特征映射到的空間維度越高越好。
第七章單元測試
以下哪項(xiàng)關(guān)于決策樹的說法是錯(cuò)誤的()
A:子樹可能在決策樹中重復(fù)多次B:決策樹算法對(duì)于噪聲的干擾非常敏感C:冗余屬性不會(huì)對(duì)決策樹的準(zhǔn)確率造成不利的影響D:尋找最佳決策樹是NP完全問題
答案:決策樹算法對(duì)于噪聲的干擾非常敏感以下關(guān)于決策樹原理介紹錯(cuò)誤的有()。
A:決策樹算法本質(zhì)上是貪心算法B:決策樹生成過程中需要用到分割法C:決策樹算法屬于無監(jiān)督學(xué)習(xí)D:決策樹決策過程從根節(jié)點(diǎn)開始
答案:決策樹算法屬于無監(jiān)督學(xué)習(xí)我們想要在大數(shù)據(jù)集上訓(xùn)練決策樹模型,為了使用較少的時(shí)間,可以()。
A:增加樹的深度B:減少樹的數(shù)量C:減少樹的深度D:增大學(xué)習(xí)率
答案:減少樹的深度決策樹的說法正確的是()。
A:它易于理解、可解釋性強(qiáng)B:CART使用的是二叉樹C:其可作為分類算法,也可用于回歸模型D:不能處理連續(xù)型特征
答案:它易于理解、可解釋性強(qiáng);CART使用的是二叉樹;其可作為分類算法,也可用于回歸模型決策樹的生成只考慮局部最優(yōu),相對(duì)地,決策樹的剪枝則考慮全部最優(yōu)。()
A:對(duì)B:錯(cuò)
答案:對(duì)
第八章單元測試
有關(guān)循環(huán)神經(jīng)網(wǎng)絡(luò)(RNN)的理解,以下哪些說法是正確的?()
A:對(duì)于只有在最后一個(gè)時(shí)刻有輸出的RNN,可以擬合輸出的時(shí)序數(shù)據(jù)之間的關(guān)系對(duì)應(yīng)的類別,例如商超客戶的消費(fèi)行為分析B:某個(gè)時(shí)刻t,隱層神經(jīng)元擬合了上一時(shí)刻輸入與輸出以及當(dāng)前輸入與輸出的關(guān)系C:RNN不能處理數(shù)值型時(shí)序的數(shù)據(jù),例如由某行業(yè)幾個(gè)月的平均股票價(jià)格預(yù)測未來月份的平均股票價(jià)格D:某個(gè)時(shí)刻t輸入和輸出之間的關(guān)系可以通過隱層神經(jīng)元擬合
答案:對(duì)于只有在最后一個(gè)時(shí)刻有輸出的RNN,可以擬合輸出的時(shí)序數(shù)據(jù)之間的關(guān)系對(duì)應(yīng)的類別,例如商超客戶的消費(fèi)行為分析;某個(gè)時(shí)刻t,隱層神經(jīng)元擬合了上一時(shí)刻輸入與輸出以及當(dāng)前輸入與輸出的關(guān)系;某個(gè)時(shí)刻t輸入和輸出之間的關(guān)系可以通過隱層神經(jīng)元擬合長短期記憶網(wǎng)絡(luò)(LSTM)通過遺忘門減少一般循環(huán)神經(jīng)網(wǎng)絡(luò)(RNN)的短期記憶不足,但增加算法的計(jì)算復(fù)雜度。()
A:錯(cuò)B:對(duì)
答案:對(duì)誤差的反向傳播,即從第一個(gè)隱藏層到輸出層,逐層向前修改神經(jīng)元的連接權(quán)值參數(shù),使得損失函數(shù)值最小。()
A:錯(cuò)B:對(duì)
答案:對(duì)Sigmoid函數(shù)在變量取絕對(duì)值非常大的正值或負(fù)值時(shí)會(huì)出現(xiàn)飽和現(xiàn)象,意味著函數(shù)會(huì)變得很平,并且對(duì)輸入的微小改變會(huì)變得不敏感。在反向傳播時(shí),當(dāng)梯度接近于0,權(quán)重基本不會(huì)更新,很容易就會(huì)出現(xiàn)梯度消失的情況,從而無法完成深層網(wǎng)絡(luò)的訓(xùn)練。()
A:對(duì)B:錯(cuò)
答案:對(duì)設(shè)輸入為,濾鏡(卷積核)為,在步幅為1且無填充等其他特殊處理的情況下,請(qǐng)計(jì)算卷積生成的鏡像V
答案:/zhs/onlineexam/ansewerImg/202210/052ff6ac98984a6a98e61c1323130b31.png
第九章單元測試
局部線性嵌入法的基本思想是保持樣本點(diǎn)之間距離經(jīng)降維后不改變。()
A:錯(cuò)B:對(duì)
答案:錯(cuò)下列關(guān)于自動(dòng)編碼器說法錯(cuò)誤的是()
A:自動(dòng)編碼器是神經(jīng)網(wǎng)絡(luò)在降維問題中的應(yīng)用。B:自動(dòng)編碼器是一種無監(jiān)督學(xué)習(xí),不需要損失函數(shù)。C:自動(dòng)編碼器由編碼器和解碼器兩部分組成。D:自動(dòng)編碼器算法的目標(biāo)是:訓(xùn)練編碼器與解碼器,使得重構(gòu)誤差最小。
答案:自動(dòng)編碼器是一種無監(jiān)督學(xué)習(xí),不需要損失函數(shù)。線性判別分析法的目標(biāo)是()
A:類間區(qū)別盡可能小,類內(nèi)區(qū)別盡可能大。B:類間區(qū)別盡可能小,類內(nèi)區(qū)別盡可能小。C:類間區(qū)別盡可能大,類內(nèi)區(qū)別盡可能小。D:類間區(qū)別盡可能大,類內(nèi)區(qū)別盡可能大。
答案:類間區(qū)別盡可能大,類內(nèi)區(qū)別盡可能小。下列方法中,可以用于特征降維的方法包括()
A:最小二乘法LeastSquaresB:線性判別分析法LDAC:主成分分析法PCAD:自動(dòng)編碼器AE
答案:線性判別分析法LDA;主成分分析法PCA;自動(dòng)編碼器AE下列關(guān)于PCA說法正確的是()
A:在使用PCA之前,通常需要對(duì)數(shù)據(jù)進(jìn)行標(biāo)準(zhǔn)化放縮。B:可以使用PCA在低維空間中可視化數(shù)據(jù)。C:優(yōu)先選擇具有最小方差的主成分。D:優(yōu)先選擇具有最大方差的主成分。
答案:在使用PCA之前,通常需要對(duì)數(shù)據(jù)進(jìn)行標(biāo)準(zhǔn)化放縮。;可以使用PCA在低維空間中可視化數(shù)據(jù)。;優(yōu)先選擇具有最大方差的主成分。
第十章單元測試
下列哪些屬于聚類算法()
A:K-中心點(diǎn)B:KNNC:K-meansD:DBSCAN
答案:K-中心點(diǎn);K-means;DBSCANK-means的主要缺點(diǎn)之一是其簡單地使用了平均值作為簇的中心。()
A:對(duì)B:錯(cuò)
答案:對(duì)合并聚類算法是經(jīng)典的層級(jí)聚類算法,合并聚類算法不是貪心算法。()
A:對(duì)B:錯(cuò)
答案:錯(cuò)DBSCAN算法的優(yōu)點(diǎn)有?()。
A:不需要指定最小樣本量和半徑兩個(gè)參數(shù)B:可以處理噪聲點(diǎn)C:不需要?jiǎng)澐謧€(gè)數(shù)。跟K-means比起來,DBSCAN可以自動(dòng)分出類別個(gè)數(shù)D:可以處理任意形狀的空間聚類問題
答案:可以處理噪聲點(diǎn);不需要?jiǎng)澐謧€(gè)數(shù)。跟K-means比起來,DBSCAN可以自動(dòng)分出類別個(gè)數(shù);可以處理任意形狀的
溫馨提示
- 1. 本站所有資源如無特殊說明,都需要本地電腦安裝OFFICE2007和PDF閱讀器。圖紙軟件為CAD,CAXA,PROE,UG,SolidWorks等.壓縮文件請(qǐng)下載最新的WinRAR軟件解壓。
- 2. 本站的文檔不包含任何第三方提供的附件圖紙等,如果需要附件,請(qǐng)聯(lián)系上傳者。文件的所有權(quán)益歸上傳用戶所有。
- 3. 本站RAR壓縮包中若帶圖紙,網(wǎng)頁內(nèi)容里面會(huì)有圖紙預(yù)覽,若沒有圖紙預(yù)覽就沒有圖紙。
- 4. 未經(jīng)權(quán)益所有人同意不得將文件中的內(nèi)容挪作商業(yè)或盈利用途。
- 5. 人人文庫網(wǎng)僅提供信息存儲(chǔ)空間,僅對(duì)用戶上傳內(nèi)容的表現(xiàn)方式做保護(hù)處理,對(duì)用戶上傳分享的文檔內(nèi)容本身不做任何修改或編輯,并不能對(duì)任何下載內(nèi)容負(fù)責(zé)。
- 6. 下載文件中如有侵權(quán)或不適當(dāng)內(nèi)容,請(qǐng)與我們聯(lián)系,我們立即糾正。
- 7. 本站不保證下載資源的準(zhǔn)確性、安全性和完整性, 同時(shí)也不承擔(dān)用戶因使用這些下載資源對(duì)自己和他人造成任何形式的傷害或損失。
最新文檔
- 現(xiàn)金贖樓服務(wù)合同還款時(shí)間及費(fèi)用說明
- 旅游活動(dòng)贊助商合同
- 商業(yè)印刷品購買協(xié)議
- 私人借款協(xié)議范本在線
- 裝飾合同補(bǔ)充細(xì)則
- 借款協(xié)議與擔(dān)保合同
- 倉儲(chǔ)物流信息管理系統(tǒng)合作協(xié)議
- 設(shè)計(jì)合作終止協(xié)議解除合同條件
- 現(xiàn)房車庫買賣合同范本
- 租房質(zhì)量承諾
- 兔的飼養(yǎng)管理與疾病防治
- 基于單元的小學(xué)語文學(xué)習(xí)任務(wù)群設(shè)計(jì)案例
- 產(chǎn)品報(bào)價(jià)單(5篇)
- 2023年江蘇省南通市中考英語試題(含答案解析)
- 外科穿手術(shù)衣PPT參考幻燈片
- 浙江省護(hù)士執(zhí)業(yè)注冊健康體檢表
- 發(fā)貨員崗位安全操作規(guī)程
- 《員工培訓(xùn)與開發(fā)》考試復(fù)習(xí)題庫(含答案)
- 創(chuàng)新思維與創(chuàng)業(yè)實(shí)驗(yàn)-東南大學(xué)中國大學(xué)mooc課后章節(jié)答案期末考試題庫2023年
- 大學(xué)生心理健康與發(fā)展學(xué)習(xí)通課后章節(jié)答案期末考試題庫2023年
- 牛津譯林2011版九年級(jí)英語上冊《Reading1Peoplewhoarehappywiththeirjobs》教案及教學(xué)反思
評(píng)論
0/150
提交評(píng)論