機器學習知到智慧樹章節(jié)測試課后答案2024年秋長春理工大學_第1頁
機器學習知到智慧樹章節(jié)測試課后答案2024年秋長春理工大學_第2頁
機器學習知到智慧樹章節(jié)測試課后答案2024年秋長春理工大學_第3頁
機器學習知到智慧樹章節(jié)測試課后答案2024年秋長春理工大學_第4頁
機器學習知到智慧樹章節(jié)測試課后答案2024年秋長春理工大學_第5頁
已閱讀5頁,還剩8頁未讀, 繼續(xù)免費閱讀

下載本文檔

版權(quán)說明:本文檔由用戶提供并上傳,收益歸屬內(nèi)容提供方,若內(nèi)容存在侵權(quán),請進行舉報或認領(lǐng)

文檔簡介

機器學習知到智慧樹章節(jié)測試課后答案2024年秋長春理工大學第一章單元測試

下列方法為科學推理的兩大手段之一的是()。

A:監(jiān)督B:描述C:假設D:歸納

答案:歸納下列為統(tǒng)計學習的代表性技術(shù)的是()。

A:支持向量機B:BP算法C:決策樹D:感知機

答案:支持向量機根據(jù)訓練數(shù)據(jù)是否擁有標記信息,學習任務可大致分為()。

A:分類學習B:多分類學習C:監(jiān)督學習D:無監(jiān)督學習

答案:監(jiān)督學習;無監(jiān)督學習我們想要預測的值是離散的則把此類學習任務稱為回歸。()

A:對B:錯

答案:錯我們想要預測的是連續(xù)值則把此類學習任務稱為分類。()

A:錯B:對

答案:錯對于一個只涉及兩個類別的二分類任務,通常我們稱其中一個為正類,另一個為反類。()

A:錯B:對

答案:對學得模型后可以使用模型進行預測的過程稱為“測試”,被預測的樣本稱為“測試樣本”。()

A:對B:錯

答案:對在《人工智能手冊》一書中,將機器學習劃分為“機械學習”,“示教學習”,“類比學習”,“歸納學習”四種。()

A:對B:錯

答案:對核方法是機器學習中統(tǒng)計學習的一種。()

A:對B:錯

答案:對假設樣本空間Z和假設空間H都是離散的,令P(h|X,?a)代表算法?a基于訓練數(shù)據(jù)X產(chǎn)生假設h的概率,再領(lǐng)f代表我們希望學習的真實目標函數(shù)。那么?a在訓練集之外的所有樣本上的誤差為。()

A:錯B:對

答案:錯

第二章單元測試

下面對誤差的有關(guān)說法正確的是()。

A:學習器在訓練集上的誤差是泛化誤差B:將分類錯誤的樣本數(shù)占樣本總數(shù)的比例稱為誤差C:學習器實際預測輸出與樣本的真實輸出之間的差異稱為誤差D:學習器在新樣本的上的誤差是訓練誤差

答案:學習器實際預測輸出與樣本的真實輸出之間的差異稱為誤差下列對分類閾值相關(guān)概念描述正確的是()。

A:根據(jù)實值或概率的預測結(jié)果對樣本進行排序,最可能的排在最后B:小于閾值為反類C:根據(jù)實值或概率的預測結(jié)果對樣本進行排序,最不可能的排在前面D:大于閾值為反類

答案:小于閾值為反類下列說法正確的是()。

A:將查準率為縱軸,查全率為橫軸作圖就是P-R曲線B:查準率P=C:查準率高時,查全率也很高D:TP+FP+TN+FN=樣例總數(shù)

答案:將查準率為縱軸,查全率為橫軸作圖就是P-R曲線;TP+FP+TN+FN=樣例總數(shù)我們把分類錯誤的樣本數(shù)占總數(shù)的比例稱為錯誤率。()

A:錯B:對

答案:對學習器在訓練集上的誤差稱為訓練誤差或經(jīng)驗誤差。()

A:錯B:對

答案:對有這樣一個樹葉訓練樣本學習器,最后他的分類結(jié)果誤以為綠色的都是樹葉,他這屬于過擬合模型。()

A:對B:錯

答案:錯有這樣一個樹葉訓練樣本學習器,最后他的分類結(jié)果誤以為樹葉必須都有鋸齒,他這屬于過擬合模型。()

A:對B:錯

答案:對若一個學習器的ROC曲線被另一個學習器完全包住,則必然是后者的性能優(yōu)于前者。()

A:錯B:對

答案:對對于一個二分類問題,可根據(jù)樣例情況的真實類別和學習器預測類別的組合劃分為真正例,假正例,真反例和假反例。()

A:錯B:對

答案:對平衡點就是一個度量,他是查準率=查全率時的取值。()

A:對B:錯

答案:對

第三章單元測試

構(gòu)建一個最簡單的線性回歸模型需要幾個系數(shù)(只有一個特征)()

A:2B:4C:3D:1

答案:2回歸問題和分類問題的區(qū)別是?()

A:回歸問題輸出值是連續(xù)的,分類問題輸出值是離散的B:回歸問題有標簽,分類問題沒有C:回歸問題與分類問題在輸入屬性值上要求不同D:回歸問題輸出值是離散的,分類問題輸出值是連續(xù)的

答案:回歸問題輸出值是連續(xù)的,分類問題輸出值是離散的以下關(guān)于分類問題的說法正確的是?()

A:分類屬于非監(jiān)督學習B:回歸問題在一定條件下可被轉(zhuǎn)化為多分類問題C:分類屬于監(jiān)督學習D:二分類問題可以轉(zhuǎn)化成回歸問題

答案:分類屬于監(jiān)督學習線性回歸能完成的任務是()

A:預測連續(xù)值B:預測離散值C:聚類D:分類

答案:預測連續(xù)值為了觀察測試Y與X之間的線性關(guān)系,X是連續(xù)變量,使用下列哪種圖形比較適合?()

A:直方圖B:散點圖C:餅狀圖D:柱形圖

答案:散點圖下面哪些問題用到的是分類算法?()

A:根據(jù)房屋大小、衛(wèi)生間數(shù)量等特征預估房價B:根據(jù)腫瘤的體積、患者的年齡來判斷良性或惡性?C:根據(jù)用戶的年齡、職業(yè)、存款數(shù)量來判斷信用卡是否會違約?D:身高1.85m,體重100kg的男人穿什么尺碼的T恤?

答案:根據(jù)腫瘤的體積、患者的年齡來判斷良性或惡性?;根據(jù)用戶的年齡、職業(yè)、存款數(shù)量來判斷信用卡是否會違約?;身高1.85m,體重100kg的男人穿什么尺碼的T恤?對數(shù)幾率回歸與多元回歸分析有哪些不同之處?()

A:多元回歸的預測結(jié)果是數(shù)值B:多元回歸用來實現(xiàn)回歸問題C:對數(shù)幾率回歸用來實現(xiàn)分類問題D:對數(shù)幾率回歸用來預測事件發(fā)生的概率

答案:多元回歸的預測結(jié)果是數(shù)值;多元回歸用來實現(xiàn)回歸問題;對數(shù)幾率回歸用來實現(xiàn)分類問題;對數(shù)幾率回歸用來預測事件發(fā)生的概率對數(shù)幾率回歸的輸入特征一定是離散的。()

A:對B:錯

答案:錯多元線性回歸也可以用最小二乘法求解最優(yōu)參數(shù)。()

A:錯B:對

答案:對對數(shù)幾率回歸可以用來做線性回歸問題。()

A:錯B:對

答案:錯

第四章單元測試

對決策樹進行剪枝處理的主要目的是什么()。

A:避免欠擬合B:避免過擬合,降低泛化能力C:提高對訓練集的學習能力D:避免過擬合,提升泛化能力

答案:避免過擬合,提升泛化能力關(guān)于決策樹結(jié)點劃分指標描述正確的是()。

A:類別非純度越大越好B:信息增益率越小越好C:信息增益越大越好D:基尼指數(shù)越大越好

答案:信息增益越大越好在我們想在大數(shù)據(jù)集上訓練決策樹,為了使用較少時間,可以采用()。

A:增加樹的深度B:增加學習率C:減少樹的數(shù)量D:減少樹的深度

答案:減少樹的深度下列關(guān)于極大似然估計,說法正確的是()。

A:如果極大似然估計存在,那么它的解一定是唯一的B:極大似然估計可能并不存在C:極大似然估計總是存在D:如果極大似然估計存在,那么它的解可能不是唯一的

答案:極大似然估計可能并不存在;如果極大似然估計存在,那么它的解可能不是唯一的在分類樹中,什么指標可以作為二叉分裂的準則()。

A:互熵B:RSSC:基尼指數(shù)D:分類錯誤率

答案:互熵;基尼指數(shù);分類錯誤率決策樹的適用面較廣,對于分類應用和回歸應用,決策樹都可以被用來構(gòu)建模型。()

A:錯B:對

答案:對決策樹是基于樹結(jié)構(gòu)來進行決策的,決策樹學習的目的是為了產(chǎn)生一棵泛化能力強的決策樹。()

A:錯B:對

答案:對如果對決策樹進行剪枝可以減小決策樹的復雜度,提高決策樹的專一性能力。()

A:對B:錯

答案:錯預剪枝決策樹通常比后剪枝決策樹保留了更多的分支。()

A:對B:錯

答案:錯決策樹本身是一種貪心的策略,不一定能夠得到全局的最優(yōu)解。()

A:對B:錯

答案:對訓練算法的目的就是要讓模型擬合訓練數(shù)據(jù)。()

A:錯B:對

答案:錯當我們說模型訓練結(jié)果過擬合的時候,意思是模型的泛化能力很強。()

A:錯B:對

答案:錯

第五章單元測試

一個含有2個隱層的前饋神經(jīng)網(wǎng)絡,神經(jīng)元個數(shù)都為20,輸入和輸出分別有8和5個神經(jīng)元,這個網(wǎng)絡的權(quán)重和偏置數(shù)分別是多少?()

A:3000,32B:3200,45C:660,45D:16000,48

答案:660,45關(guān)于模型參數(shù)的描述,錯誤的是?()

A:每一次Epoch都會對之前的參數(shù)進行調(diào)整,迭代次數(shù)越多,損失函數(shù)一般越小B:訓練好的神經(jīng)網(wǎng)絡模型存儲于一定結(jié)構(gòu)的神經(jīng)元之間的權(quán)重和神經(jīng)元的偏置中C:在訓練神經(jīng)網(wǎng)絡過程中,參數(shù)不斷調(diào)整的依據(jù)是基于損失函數(shù)不斷減少D:模型參數(shù)量越多越好,但沒有固定的對應規(guī)則

答案:模型參數(shù)量越多越好,但沒有固定的對應規(guī)則以下關(guān)于反向傳播算法,描述不正確的是()

A:該算法可用于卷積神經(jīng)網(wǎng)絡模型訓練B:該算法可用于深度學習模型訓練C:反向傳播算法是訓練神經(jīng)網(wǎng)絡的主要方法D:該算法不依賴于模型預測誤差

答案:該算法不依賴于模型預測誤差反向傳播算法一開始計算的是什么內(nèi)容的梯度?()

A:各個輸入樣本的平方差之和B:各個網(wǎng)絡權(quán)重的平方差之和C:預測結(jié)果與樣本標簽之間的誤差D:各個權(quán)重的平方差之和加上各個偏置的平方差之和

答案:預測結(jié)果與樣本標簽之間的誤差下面關(guān)于單個神經(jīng)元輸入輸出錯誤的是?()

A:一個神經(jīng)元可以擁有多個輸入但只有一個輸出B:一個神經(jīng)元可以有多個輸入和多個輸出C:一個神經(jīng)元只能擁有一個輸入和一個輸出D:一個神經(jīng)元只能擁有一個輸入但可以有多個輸出

答案:一個神經(jīng)元可以擁有多個輸入但只有一個輸出;一個神經(jīng)元只能擁有一個輸入和一個輸出;一個神經(jīng)元只能擁有一個輸入但可以有多個輸出下面有關(guān)神經(jīng)網(wǎng)絡的說法,正確的是?()

A:神經(jīng)網(wǎng)絡的訓練主要是針對神經(jīng)元之間的權(quán)重和神經(jīng)元的偏置進行一定的調(diào)整,使得代價函數(shù)極小化B:神經(jīng)網(wǎng)絡神經(jīng)元的輸出都是傳給其他神經(jīng)元,不能再反饋回來C:均方差損失函數(shù)是神經(jīng)網(wǎng)絡常用的一種代價函數(shù)D:神經(jīng)網(wǎng)絡不同層次的神經(jīng)元可以使用不同的激活函數(shù)

答案:神經(jīng)網(wǎng)絡的訓練主要是針對神經(jīng)元之間的權(quán)重和神經(jīng)元的偏置進行一定的調(diào)整,使得代價函數(shù)極小化;均方差損失函數(shù)是神經(jīng)網(wǎng)絡常用的一種代價函數(shù);神經(jīng)網(wǎng)絡不同層次的神經(jīng)元可以使用不同的激活函數(shù)激活函數(shù)通常具有以下哪些性質(zhì)?()

A:非線性B:單調(diào)性C:可微性D:計算簡單

答案:非線性;單調(diào)性;可微性;計算簡單權(quán)重和偏置都可以全零初始化。()

A:對B:錯

答案:錯模型訓練時新樣本的加入會對已經(jīng)學習的結(jié)果有影響。()

A:錯B:對

答案:對反向傳播算法傳遞的是輸入信息。()

A:對B:錯

答案:錯

第六章單元測試

下面有關(guān)支持向量的主要思想正確的是()。

A:最大化支持向量到超平面的距離。B:最小化支持向量到超平面的距離C:最小化所有樣本到超平面的距離D:最大化負樣本到超平面的距離

答案:最大化支持向量到超平面的距離。在支持向量機中,如果線性可分則應該使用什么類型的核函數(shù)()。

A:徑向基函數(shù)B:二分類函數(shù)C:二次多項核函數(shù)D:線性核函數(shù)

答案:線性核函數(shù)在支持向量機中,以下陳述正確的是()。

A:支持向量機是一種監(jiān)督學習算法B:支持向量機只能用于二分類問題C:支持向量機通過找到最大間隔超平面來分隔數(shù)據(jù)D:在非線性可分的情況下,支持向量機可以通過使用核函數(shù)將數(shù)據(jù)映射到高維空間來找到分隔超平面

答案:支持向量機是一種監(jiān)督學習算法;支持向量機通過找到最大間隔超平面來分隔數(shù)據(jù);在非線性可分的情況下,支持向量機可以通過使用核函數(shù)將數(shù)據(jù)映射到高維空間來找到分隔超平面支持向量機形式是要求所有樣本均滿足約束,即所有樣本都必須劃分正確,這成為軟間隔。()

A:錯B:對

答案:對支持向量機只能用于二分類問題。()

A:對B:錯

答案:錯在支持向量機中,我們總是需要找到一個可以完美分類所有訓練樣本的超平面。()

A:對B:錯

答案:錯支持向量機中可以通過引入核函數(shù)來處理線性不可分的數(shù)據(jù)。()

A:錯B:對

答案:對在支持向量機中,支持向量是離決策邊界最近的那些點。()

A:對B:錯

答案:對支持向量機是一種無監(jiān)督學習算法。()

A:對B:錯

答案:錯在支持向量機中,軟間隔是為了處理線性不可分的情況。()

A:對B:錯

答案:對

第七章單元測試

()是現(xiàn)在新出現(xiàn)的人工智能的研究方向。

A:類腦人工智能B:貝葉斯網(wǎng)絡C:深度學習D:人工神經(jīng)元網(wǎng)絡

答案:類腦人工智能下列貝葉斯網(wǎng)結(jié)構(gòu)中不屬于三種典型的依賴關(guān)系()。

A:V型結(jié)構(gòu)B:同父結(jié)構(gòu)C:順序結(jié)構(gòu)D:選擇結(jié)構(gòu)

答案:選擇結(jié)構(gòu)最小風險貝葉斯分類器將待判別的樣本分類到使得樣本的后驗概率達到最大的那個類中。()

A:對B:錯

答案:錯樸素貝葉斯假定所有的特征在數(shù)據(jù)集中的作用是同樣重要和獨立的。()

A:錯B:對

答案:對貝葉斯定理的適用條件是條件變量之間的獨立性。()

A:錯B:對

答案:對邏輯回歸和樸素貝葉斯都有對屬性特征獨立的要求。()

A:對B:錯

答案:錯模型泛化能力與訓練樣本數(shù)量無關(guān)。()

A:對B:錯

答案:錯

第八章單元測試

下面有關(guān)隨機森林的陳述正確的是()。

A:隨機森林只包含一個決策樹B:隨機森林不能解決分類問題C:隨機森林中的每棵樹都是在完全相同的數(shù)據(jù)集上訓練的D:隨機森林是Bagging上的一個變體。

答案:隨機森林是Bagging上的一個變體。在Boosting算法中,以下哪個陳述是正確的()。

A:Boosting算法中的所有弱學習器的權(quán)重都是相等的B:Boosting算法試圖降低偏差C:Boosting算法是一種并行的集成學習方法D:Boosting算法中的每一個弱學習器都是獨立訓練的

答案:Boosting算法試圖降低偏差在Bagging算法中,以下哪個陳述是正確的()。

A:Bagging是并行式集成學習方法中最著名的代表B:Bagging算法在不剪枝決策樹,神經(jīng)網(wǎng)絡等易受到樣本擾動的學習器上效果更加明顯C:Bagging中的每一個基學習器都是獨立訓練的D:從偏差-方差角度來看,Bagging主要關(guān)注降低方差

答案:Bagging是并行式集成學習方法中最著名的代表;Bagging算法在不剪枝決策樹,神經(jīng)網(wǎng)絡等易受到樣本擾動的學習器上效果更加明顯;Bagging中的每一個基學習器都是獨立訓練的;從偏差-方差角度來看,Bagging主要關(guān)注降低方差Bagging和Boosting都是通過改變訓練數(shù)據(jù)的分布來生成基學習器。()

A:錯B:對

答案:對在AdaBoost算法中每一個基學習器的權(quán)重是相等的。()

A:對B:錯

答案:錯隨機森林算法是一種特殊的Bagging算法,他在構(gòu)建決策樹時引入了額外的隨機性。()

A:錯B:對

答案:對在集成學習中,基學習器的多樣性越大,集成的泛化能力就越強。()

A:對B:錯

答案:對在集成學習中,只有當基學習器的性能超過隨機猜測時,集成才可能有效。()

A:對B:錯

答案:對Boosting算法中的基學習器是串行生成的。

溫馨提示

  • 1. 本站所有資源如無特殊說明,都需要本地電腦安裝OFFICE2007和PDF閱讀器。圖紙軟件為CAD,CAXA,PROE,UG,SolidWorks等.壓縮文件請下載最新的WinRAR軟件解壓。
  • 2. 本站的文檔不包含任何第三方提供的附件圖紙等,如果需要附件,請聯(lián)系上傳者。文件的所有權(quán)益歸上傳用戶所有。
  • 3. 本站RAR壓縮包中若帶圖紙,網(wǎng)頁內(nèi)容里面會有圖紙預覽,若沒有圖紙預覽就沒有圖紙。
  • 4. 未經(jīng)權(quán)益所有人同意不得將文件中的內(nèi)容挪作商業(yè)或盈利用途。
  • 5. 人人文庫網(wǎng)僅提供信息存儲空間,僅對用戶上傳內(nèi)容的表現(xiàn)方式做保護處理,對用戶上傳分享的文檔內(nèi)容本身不做任何修改或編輯,并不能對任何下載內(nèi)容負責。
  • 6. 下載文件中如有侵權(quán)或不適當內(nèi)容,請與我們聯(lián)系,我們立即糾正。
  • 7. 本站不保證下載資源的準確性、安全性和完整性, 同時也不承擔用戶因使用這些下載資源對自己和他人造成任何形式的傷害或損失。

最新文檔

評論

0/150

提交評論