機器學習智慧樹知到期末考試答案2024年_第1頁
機器學習智慧樹知到期末考試答案2024年_第2頁
機器學習智慧樹知到期末考試答案2024年_第3頁
機器學習智慧樹知到期末考試答案2024年_第4頁
機器學習智慧樹知到期末考試答案2024年_第5頁
已閱讀5頁,還剩18頁未讀, 繼續(xù)免費閱讀

下載本文檔

版權說明:本文檔由用戶提供并上傳,收益歸屬內容提供方,若內容存在侵權,請進行舉報或認領

文檔簡介

機器學習智慧樹知到期末考試答案2024年機器學習下列關于感知器算法的說法中錯誤的是()

A:在感知器算法中的學習率是可以改變的B:感知器算法也適用于線性不可分的樣本C:在感知器算法中,如果樣本不是線性可分的,則算法最后不會收斂D:在感知器算法中可以通過調整學習率來減少迭代次數(shù)答案:感知器算法也適用于線性不可分的樣本關于K均值算法說法不正確的是()。

A:使用時需要預先確定聚類的類數(shù)B:K均值算法是基于劃分的聚類C:K均值算法不適用于所有的聚類問題D:當類中數(shù)據(jù)集構成凸集時,取得最差的效果答案:K一個正例(2,3),一個負例(0,-1),下面哪個是SVM超平面?()

A:x+2y-3=0B:2x+y-4=0C:無法計算D:2y+x-5=0答案:x+2y-3=0Logistic回歸與多重線性回歸比較()

A:logistic回歸的因變量為二分類變量B:Logistic回歸和多重線性回歸的因變量都可為二分類變量C:Logistic回歸的自變量必須是二分類變量D:多重線性回歸的因變量為二分類變量答案:logistic回歸的因變量為二分類變量下面關于機器學習與深度學習的描述錯誤的是()

A:深度學習是多層人工神經網(wǎng)絡,典型模型包括卷積神經網(wǎng)絡等B:深度學習是機器學習的一個分支C:深度學習由人工神經網(wǎng)絡演變而來D:卷積結構是循環(huán)神經網(wǎng)絡基礎結構答案:深度學習是機器學習的一個分支主成分分析中,各主成分之間()

A:存在線性關系B:互不相關C:相互獨立D:彼此相關答案:互不相關關于L1、L2正則化下列說法正確的是?()

A:L1正則化得到的解更加稀疏B:L2正則化技術又稱為LassoRegularizationC:L2正則化能防止過擬合,提升模型的泛化能力,但L1做不到這點D:L2正則化得到的解更加稀疏答案:L1下列哪一種方法的系數(shù)沒有閉式(closed-form)解?()

A:Ridge回歸和LassoB:選項中沒有正確答案C:LassoD:Ridge回歸答案:Lasso下面是交叉驗證的幾種方法:1.Bootstrap2.留一法交叉驗證3.5折交叉驗證4.重復使用兩次5折交叉驗證請對上面四種方法的執(zhí)行時間進行排序,樣本數(shù)量為1000。()

A:2>3>4>1B:1>2>3>4C:4>1>2>3D:2>4>3>1答案:2>4>3>1選項中哪些方法不可以直接來對文本分類?()

A:決策樹B:kNNC:支持向量機D:K-Means答案:K-Means選項中關于bootstrap說法正確的是?()

A:從總的N個樣本中,無放回地抽取n個樣本(n<N)B:從總的M個特征中,有放回地抽取m個特征(m<M)C:從總的N個樣本中,有放回地抽取n個樣本(n<N)D:從總的M個特征中,無放回地抽取m個特征(m<M)答案:從總的N個樣本中,有放回地抽取n個樣本(n<N)為了觀察測試Y與X之間的線性關系,X是連續(xù)變量,使用下列哪種圖形比較適合?()

A:柱形圖B:散點圖C:直方圖答案:散點圖智能化中醫(yī)望診時,對一幅舌脈圖像(伸出舌頭的人臉圖像),希望把舌頭部分從人臉的其他部分劃分出來,可以采用以下方法:在該圖像中分別在舌頭區(qū)域與其他區(qū)域各畫出一個窗口,把在這兩個窗口中的象素數(shù)據(jù)作為訓練集,用Fisher準則方法求得分類器參數(shù),再用該分類器對整幅圖進行分類。那么這種方法屬于:()

A:非監(jiān)督學習B:監(jiān)督學習C:半監(jiān)督學習答案:監(jiān)督學習SVM中核技巧(Kernaltrick)的作用包括以下哪項?()

A:防止欠擬合B:防止過擬合C:特征降維D:特征升維答案:特征升維智能化中醫(yī)望診時,對一幅舌脈圖像(伸出舌頭的人臉圖像),希望把舌頭部分從人臉的其他部分劃分出來,可以采用以下方法:將整幅圖的每個象素的屬性記錄在一張數(shù)據(jù)表中,然后用某種方法將這些數(shù)據(jù)按它們的自然分布狀況劃分成兩類。因此每個象素就分別得到相應的類別號,從而實現(xiàn)了舌頭圖像的分割。那么這種方法屬于:()

A:半監(jiān)督學習B:監(jiān)督學習C:非監(jiān)督學習答案:非監(jiān)督學習bootstrap數(shù)據(jù)是什么意思?()

A:有放回地從總共N個樣本中抽樣n個樣本B:有放回地從總共M個特征中抽樣m個特征C:無放回地從總共N個樣本中抽樣n個樣本D:無放回地從總共M個特征中抽樣m個特征答案:有放回地從總共N個樣本中抽樣n個樣本如果兩個變量相關,那么它們一定是線性關系嗎?()

A:是B:不一定答案:不一定關于L1、L2正則化下列說法正確的是?()

A:L2正則化能防止過擬合,提升模型的泛化能力,但L1做不到這點B:L1正則化得到的解更加稀疏C:L2正則化技術又稱為LassoRegularizationD:L2正則化得到的解更加稀疏答案:L1關于欠擬合(under-fitting),下面哪個說法是正確的?()

A:訓練誤差較小,測試誤差較大B:訓練誤差較大,測試誤差較大C:訓練誤差較大,測試誤差較小答案:訓練誤差較大,測試誤差較大模型的bias很高,我們如何降低它?()

A:增加數(shù)據(jù)點B:在特征空間中減少特征C:在特征空間中增加特征答案:在特征空間中增加特征加入使用邏輯回歸對樣本進行分類,得到訓練樣本的準確率和測試樣本的準確率?,F(xiàn)在,在數(shù)據(jù)中增加一個新的特征,其它特征保持不變。然后重新訓練測試。選項中說法正確的是?()

A:訓練樣本準確率一定增加或保持不變B:測試樣本準確率一定會降低C:訓練樣本準確率一定會降低D:測試樣本準確率一定增加或保持不變答案:訓練樣本準確率一定增加或保持不變k-NN最近鄰方法在什么情況下效果較好?()

A:樣本呈團狀分布B:樣本呈鏈狀分布C:樣本較少但典型性好D:樣本較多但典型性不好答案:樣本較少但典型性好在數(shù)據(jù)預處理階段,我們常常對數(shù)值特征進行歸一化或標準化(standardization,normalization)處理。這種處理方式理論上不會對下列哪個模型產生很大影響?()

A:決策樹B:k-NNC:k-Means答案:決策樹機器學習訓練時,Mini-Batch的大小優(yōu)選為2個的冪,如256或512。它背后的原因是什么?()

A:Mini-Batch為偶數(shù)的時候,梯度下降算法訓練的更快B:Mini-Batch設為2的冪,是為了符合CPU、GPU的內存要求,利于并行化處理C:選項中的說法都不對D:不使用偶數(shù)時,損失函數(shù)是不穩(wěn)定的答案:Mini-Batch設為2的冪,是為了符合CPU、GPU的內存要求,利于并行化處理已知坐標系中兩點A(2,?2)和B(?1,2),這兩點的曼哈頓距離(L1距離)是()

A:25B:1C:7D:0答案:7Dropout技術在下列哪種神經層中將無法發(fā)揮顯著優(yōu)勢?()

A:選項中沒有正確答案B:卷積層C:仿射層(全連接層)D:RNN層答案:RNN層假如你在訓練一個線性回歸模型,有下面兩句話:1.如果數(shù)據(jù)量較少,容易發(fā)生過擬合。2.如果假設空間較小,容易發(fā)生過擬合。關于這兩句話,下列說法正確的是?()

A:1和2都錯誤B:1和2都正確C:1正確,2錯誤D:1錯誤,2正確答案:1以垃圾微信識別為例,TomMitchell的機器學習的定義中,性能度量值P是什么?()

A:P是識別B:P是不必要條件C:P是垃圾微信D:P是識別為正確的概率答案:P是識別下列哪個不屬于常用的文本分類的特征選擇算法?()

A:主成分分析B:互信息C:卡方檢驗值D:信息增益答案:主成分分析給定三個變量X,Y,Z。(X,Y)、(Y,Z)和(X,Z)的Pearson相關性系數(shù)分別為C1、C2和C3?,F(xiàn)在X的所有值加2(即X+2),Y的全部值減2(即Y-2),Z保持不變。那么運算之后的(X,Y)、(Y,Z)和(X,Z)相關性系數(shù)分別為D1、D2和D3?,F(xiàn)在試問D1、D2、D3和C1、C2、C3之間的關系是什么?()

A:D1=C1,D2>C2,D3<C3B:D1=C1,D2>C2,D3>C3C:D1=C1,D2<C2,D3<C3D:D1=C1,D2=C2,D3=C3E:D1=C1,D2<C2,D3>C3答案:D1=C1,D2=C2,D3=C3假如我們使用非線性可分的SVM目標函數(shù)作為最優(yōu)化對象,我們怎么保證模型線性可分?()

A:設C=0B:設C=無窮大C:其余選項都不對D:設C=1答案:設C=無窮大符號集a、b、c、d他們相互獨立,相應概率為1/2、1/4、1/8、1/16,其中包含信息量最小的符號是()

A:aB:cC:dD:b答案:a中文同義詞替換時,常用到Word2Vec,以下說法錯誤的是()。

A:Word2Vec得到的都是語義上的同義詞B:Word2Vec基于概率統(tǒng)計C:Word2Vec結果符合當前語料環(huán)境D:Word2Vec受限于訓練語料的數(shù)量和質量答案:Word2Vec得到的都是語義上的同義詞我們想在大數(shù)據(jù)集上訓練決策樹,為了使用較少時間,我們可以()。

A:減少樹的深度B:增加樹的深度C:減少樹的數(shù)量D:增加學習率(learningrate)答案:減少樹的深度以下哪些方法不可以直接來對文本分類?()

A:支持向量機B:KNNC:決策樹D:K-means答案:K-means詞向量描述正確的是()。

A:女人+漂亮=女神B:自然語言表示的單詞不能轉換為計算機能夠理解的向量或矩陣形式C:沒有正確答案D:詞向量技術是將詞轉化成為稀疏向量的技術答案:女人+漂亮=女神關于數(shù)據(jù)集劃分,下列說法正確的是()

A:訓練集與測試集的理想劃分比例是5:5B:龐大數(shù)據(jù)集的訓練集與測試集的劃分比例可以為9:1C:訓練集的數(shù)據(jù)量越大,模型的泛化能力越好D:訓練集的數(shù)據(jù)總是越多越好答案:龐大數(shù)據(jù)集的訓練集與測試集的劃分比例可以為9:1下列屬于無監(jiān)督學習的是()。

A:最大熵B:K-meansC:SVMD:CRF答案:K-meansSPSS的界面中,以下是主窗口是()。

A:結果輸出窗口B:語法編輯窗口C:腳本編輯窗口D:數(shù)據(jù)編輯窗口答案:數(shù)據(jù)編輯窗口深度學習是當前很熱門的機器學習算法,在深度學習中,涉及到大量的矩陣相乘,現(xiàn)在需要計算三個稠密矩陣A,B,C的乘積ABC,假設三個矩陣的尺寸分別為m?n,n?p,p?q,且mA:AC(B)B:所以效率都相同C:(AB)CD:

A(BC)答案:(AB)C在HMM中,如果已知觀察序列和產生觀察序列的狀態(tài)序列,那么可用以下哪種方法直接進行參數(shù)估計()。

A:EM算法B:維特比算法C:極大似然估計D:前向后向算法答案:極大似然估計一般來說,下列哪種方法常用來預測連續(xù)獨立變量?()

A:其余選項說法都不對B:邏輯回顧C:線性回歸D:線性回歸和邏輯回歸都行答案:線性回歸關于SVM泛化誤差描述正確的是()。

A:SVM的誤差閾值B:超平面與支持向量之間距離C:SVM對未知數(shù)據(jù)的預測能力答案:SVM對未知數(shù)據(jù)的預測能力”點擊率問題”是這樣一個預測問題,99%的人是不會點擊的,而1%的人是會點擊進去的,所以這是一個非常不平衡的數(shù)據(jù)集。假設,現(xiàn)在我們已經建了一個模型來分類,而且有了99%的預測準確率,我們可以下的結論是()

A:模型預測準確率已經很高了,我們不需要做什么了B:其余選項都不對C:無法下結論D:模型預測準確率不高,我們需要做點什么改進模型答案:無法下結論在spss的基礎分析模塊中,作用是“以行列表的形式揭示數(shù)據(jù)之間的關系”的是()

A:交叉表B:數(shù)據(jù)描述C:相關D:多重相應答案:交叉表文本信息檢索的一個核心問題是文本相似度計算,將查詢條件和文本之間的相似程度數(shù)值化,從而方便比較。當文檔和查詢都表示成向量時,可以利用向量的內積的大小近似地表示兩個向量之間的相關程度。設有兩個文檔和查詢抽取特征和去除停用詞后分別是:文檔d1:a、b、c、a、f、b、a、f、h文檔d2:a、c查詢q:a、c、a特征項集合為{a、b、c、d、e、f、g、h}如果采用二值向量表示,那么利用內積法計算出q和d1、d2的相似度分別是()。

A:0、0B:1、1C:7、2D:2、2答案:2、2下列哪一種偏移,是我們在最小二乘直線擬合的情況下使用的?圖中橫坐標是輸入X,縱坐標是輸出Y。()

A:其余選項說法都不對B:垂向偏移(perpendicularoffsets)C:兩種偏移都可以D:垂直偏移(verticaloffsets)答案:垂直偏移(verticaloffsets)下面哪些對「類型1(Type-1)」和「類型2(Type-2)」錯誤的描述是錯誤的?()

A:類型1錯誤通常在其是正確的情況下拒絕假設而出現(xiàn)。B:類型2通常稱之為假正類,類型1通常稱之為假負類。C:類型1通常稱之為假正類,類型2通常稱之為假負類。答案:類型2通常稱之為假正類,類型1通常稱之為假負類。如果預測的結果與將來的實際情況總會存在著或大或小、或多或少、或前或后的偏差,它表明預測具有()

A:局限性B:近似性C:不確定性D:科學性答案:不確定性下面有關分類算法的準確率,召回率,F(xiàn)1值的描述,錯誤的是()。

A:準確率是檢索出相關文檔數(shù)與檢索出的文檔總數(shù)的比率,衡量的是檢索系統(tǒng)的查準率B:為了解決準確率和召回率沖突問題,引入了F1分數(shù)C:正確率、召回率和F值取值都在0和1之間,數(shù)值越接近0,查準率或查全率就越高D:召回率是指檢索出的相關文檔數(shù)和文檔庫中所有的相關文檔數(shù)的比率,衡量的是檢索系統(tǒng)的查全率答案:為了解決準確率和召回率沖突問題,引入了F1分數(shù)模式識別中,不屬于馬氏距離較之于歐氏距離的優(yōu)點是()

A:考慮了模式的分布B:平移不變性C:尺度不變性答案:平移不變性在分類問題中,我們經常會遇到正負樣本數(shù)據(jù)量不等的情況,比如正樣本為10w條數(shù)據(jù),負樣本只有1w條數(shù)據(jù),以下最合適的處理方法是()。

A:將負樣本重復10次,生成10w樣本量,打亂順序參與分類B:將負樣本每個權重設置為10,正樣本權重為1,參與訓練過程C:從10w正樣本中隨機抽取1w參與分類D:直接進行分類,可以最大限度利用數(shù)據(jù)答案:將負樣本每個權重設置為10,正樣本權重為1,參與訓練過程樸素貝葉斯算法在統(tǒng)計訓練樣本中每個類別出現(xiàn)的頻率時,若某一特征值的概率為0會使整個概率乘積變?yōu)?(稱為數(shù)據(jù)稀疏)問題,解決的的辦法有()

A:通過聚類將未出現(xiàn)的特征找出相關特征的概率求平均值進行替代B:其余選項都不對C:剔除掉某一特征值的概率為0的特征D:采用貝葉斯估計,如拉普拉斯平滑答案:剔除掉某一特征值的概率為0的特征###通過聚類將未出現(xiàn)的特征找出相關特征的概率求平均值進行替代###采用貝葉斯估計,如拉普拉斯平滑樸素貝葉斯算法能取得較好的效果是因為()

A:其余選項都不對B:如果屬性間依賴關系的影響能相互抵消,在屬性條件獨立性假設時不會對性能產生負面影響。C:如果屬性間依賴對所有類別相互影響相同,在屬性條件獨立性假設下可以降低計算D:對分類各類別的條件概率排序正確,無需精準概率值就可以獲得正確分類;答案:正確假如我們利用Y是X的3階多項式產生一些數(shù)據(jù)(3階多項式能很好地擬合數(shù)據(jù))。那么,下列說法正確的是?()

A:3階多項式擬合會造成低偏差(bias)、高方差(variance)B:3階多項式擬合具備低偏差(bias)、低方差(variance)C:簡單的線性回歸容易造成高偏差(bias)、低方差(variance)D:簡單的線性回歸容易造成低偏差(bias)、高方差(variance)答案:3階多項式擬合具備低偏差(bias)、低方差(variance)###簡單的線性回歸容易造成高偏差(bias)、低方差(variance)數(shù)據(jù)清理中,處理缺失值的方法是()。

A:整例刪除B:變量刪除C:成對刪除D:估算答案:估算###變量刪除###成對刪除###整例刪除在統(tǒng)計模式識分類問題中,當先驗概率未知時,可以使用?()

A:最小損失準則B:最小最大損失準則C:N-P判決D:最小誤判概率準則答案:N-P判決###最小最大損失準則機器學習中L1正則化和L2正則化的區(qū)別是?()

A:使用L1可以得到稀疏的權值B:使用L2可以得到稀疏的權值C:使用L2可以得到平滑的權值D:使用L1可以得到平滑的權值答案:使用L1可以得到稀疏的權值;使用L2可以得到平滑的權值下面哪些算法模型可以用來完成命名實體的任務?()

A:LDAB:GBDTC:seq2seqD:HMME:CRFF:LSTM答案:CRF###HMM###LSTM###seq2seq機器學習中做特征選擇時,可能用到的方法有?()

A:卡方B:平均互信息C:信息增益D:期望交叉熵答案:信息增益###卡方###平均互信息###期望交叉熵以下描述錯誤的是:()

A:在聚類分析當中,簇內的相似性越大,簇間的差別越大,聚類的效果就越差。B:在決策樹中,隨著樹中結點數(shù)變得太大,即使模型的訓練誤差還在繼續(xù)減低,但是檢驗誤差開始增大,這是出現(xiàn)了模型擬合不足的問題。C:SVM是這樣一個分類器,他尋找具有最小邊緣的超平面,因此它也經常被稱為最小邊緣分類器(minimalmarginclassifier)D:聚類分析可以看作是一種非監(jiān)督的分類。答案:c精確率(Precision),也叫查準率。即正確預測為正的占全部預測為正的比例。是真正正確的占所有預測為正的比例()

A:正確B:錯誤答案:正確K均值聚類的核心目標是將給定的數(shù)據(jù)集劃分為K個簇,并給出每個數(shù)據(jù)對應的簇中心點。()

A:錯誤B:正確答案:正確預剪枝是在決策樹的構建過程中加入限制,比如控制葉子節(jié)點最少的樣本個數(shù),提前停止。()

A:錯B:對答案:錯給定n個數(shù)據(jù)點,如果其中一半用于訓練,另一半用于測試,則訓練誤差和測試誤差之間的差別會隨著n的增加而減小。()

A:錯誤B:正確答案:正確基尼指數(shù)偏向于多值屬性;當類數(shù)較大時,基尼指數(shù)求解比較困難;基尼指數(shù)傾向于支持在兩個分區(qū)中生成大小相同的測試。()

A:錯誤B:正確答案:正確聚類算法中不需要給出標簽y。()

A:正確B:錯誤答案:正確決策樹只能用于分類問題,不能用于回歸問題。()

A:對B:錯答案:錯在AdaBoost算法中,所有被錯分的樣本的權重更新比例相同。()

A:錯B:對答案:對訓練集與測試集的劃分對最終模型的確定無影響。()

A:正確B:錯誤答案:錯誤如果特征很多,決策樹中最后沒有用到的特征一定是無用的。()

A:對B:錯答案:錯強化學習包含哪些元素?()

A:ActionB:StateC:RewardD:Agent答案:Reward###Agent###State###Action以下輸入梯度下降法的有:()

A:丟棄法B:小批量梯度下降法C:批量梯度下降法D:隨機梯度下降法答案:隨機梯度下降法主成分分析中可以利用()求解主成分

A:協(xié)方差矩陣B:Hessian矩陣C:距離矩陣D:相關系數(shù)矩陣答案:相關系數(shù)矩陣###協(xié)方差矩陣變量選擇是用來選擇最好的判別器子集,如果要考慮模型效率,我們應該做哪些變量選擇的考慮?()

A:模型是否具有解釋性B:特征是否攜帶有效信息C:交叉驗證D:多個變量是否有相同的功能答案:交叉驗證###多個變量是否有相同的功能###特征是否攜帶有效信息我們知道二元分類的輸出是概率值。一般設定輸出概率大于或等于0.5,則預測為正類;若輸出概率小于0.5,則預測為負類。那么,如果將閾值0.5提高,例如0.6,大于或等于0.6的才預測為正類。則準確率(Precision)和召回率(Recall)會發(fā)生什么變化?()

A:準確率(Precision)增加或者不變B:準確率(Precision)減小C:召回率(Recall)增大D:召回率(Recall)減小或者不變答案:準確率(Precision)增加或者不變###召回率(Recall)減小或者不變對于劃分屬性選擇,選項中說法正確的是()

A:選項中說法都不對B:增益率準則對可取值數(shù)目較少的屬性有所偏好C:C4.5算法并不是直接選擇增益率最大的候選劃分屬性,而是先從候選劃分屬性中找出信息增益高于平均水平的屬性,再從中選擇增益率最高的。D:信息增益準則對可取值數(shù)目較多的屬性有所偏好答案:信息增益準則對可取值數(shù)目較多的屬性有所偏好###增益率準則對可取值數(shù)目較少的屬性有所偏好###C4.5算法并不是直接選擇增益率最大的候選劃分屬性,而是先從候選劃分屬性中找出信息增益高于平均水平的屬性,再從中選擇增益率最高的選項中哪種方法可以用來減小過擬合?()

A:減小模型的復雜度B:L2正則化C:L1正則化D:更多的訓練數(shù)據(jù)答案:更多的訓練數(shù)據(jù)###L1正則化###L2正則化###減小模型的復雜度建立線性模型時,我們看變量之間的相關性。在尋找相關矩陣中的相關系數(shù)時,如果發(fā)現(xiàn)3對變量(Var1和Var2、Var2和Var3、Var3和Var1)之間的相關性分別為-0.98、0.45和1.23。我們能從中推斷出什么呢?()

A:Var1和Var2具有很高的相關性B:選項中沒有正確答案C:Var3和Var1相關系數(shù)為1.23是不可能的D:Var1和Var2存在多重共線性,模型可以去掉其中一個特征答案:Var1和Var2具有很高的相關性###Var1和Var2存在多重共線性,模型可以去掉其中一個特征###Var3和Var1相關系數(shù)為1.23是不可能的集成學習中個體學習器多樣性增強的主要途徑有:()

A:數(shù)據(jù)樣本擾動B:輸入屬性擾動C:算法參數(shù)擾動D:輸出表示擾動答案:數(shù)據(jù)樣本擾動###輸入屬性擾動###輸出表示擾動###算法參數(shù)擾動以下哪種方法屬于判別式模型(discriminativemodel)?()

A:隱馬爾可夫模型(HMM)B:樸素貝葉斯判別式模型C:線性判別分析LDAD:支持向量機答案:支持向量機有一些基學習器對數(shù)據(jù)樣本的擾動不敏感,稱為穩(wěn)定基學習器。下列學習器屬于穩(wěn)定基學習器的是:()

A:線性學習器B:樸素貝葉斯C:支持向量機D:神經網(wǎng)絡E:k近鄰學習器答案:線性學習器;樸素貝葉斯;支持向量機;k近鄰學習器我們想要訓練一個ML模型,樣本數(shù)量有100萬個,特征維度是5000,面對如此大數(shù)據(jù),如何有效地訓練模型?()

A:對訓練集隨機采樣,在隨機采樣的數(shù)據(jù)上建立模型B:使用PCA算法減少特征維度C:選項中沒有正確答案D:嘗試使用在線機器學習算法答案:使用PCA算法減少特征維度###對訓練集隨機采樣,在隨機采樣的數(shù)據(jù)上建立模型###嘗試使用在線機器學習算法在分類問題中,我們經常會遇到正負樣本數(shù)據(jù)量不等的情況,比如正樣本為10萬條數(shù)據(jù),負樣本只有1萬條數(shù)據(jù),以下合適的處理方法是()

A:將負樣本每個權重設置為10,正樣本權重為1,參與訓練過程B:將負樣本重復10次,生成10萬樣本量,打亂順序參與分類C:從10萬正樣本中隨機抽取1萬參與分類D:直接進行分類,可以最大限度利用數(shù)據(jù)答案:將負樣本每個權重設置為10,正樣本權重為1,參與訓練過程貝爾曼期望方程的基本思想是將待求解問題分解為若干子問題,從這些子問題的解得到原問題的解。()

A:對B:錯答案:對線性回歸算法、邏輯回歸算法和支持向量機等監(jiān)督式學習算法,都是經驗損失最小化架構在具體問題中的表現(xiàn)。()

A:錯誤B:正確答案:錯誤聚類分析是對未知分類的事物按照“物以類聚”的思想對其進行分類的一種算法。常用的算法有K均值聚類算法,其是基于層級的聚類算法。()

A:錯誤B:正確答案:錯誤馬爾科夫性特點:未來與現(xiàn)在有關,下一個狀態(tài)既和當前狀態(tài)有關,又和之前的狀態(tài)有關。()

A:正確B:錯誤答案:錯誤在實際應用中,不同的學習模型使用的損失函數(shù)一般情況下也不一樣。()

A:正確B:錯誤答案:正確增大正則化系數(shù)可以用于處理欠擬合()

A:錯誤B:正確答案:正確強化學習主要任務是使智能體能夠根據(jù)環(huán)境的狀態(tài),獲得最佳行動策略。()

A:正確B:錯誤答案:正確SVM分類超平面的解是唯一的,要滿足間隔最大化。感知機的解不唯一,沒有間隔最大化的約束條件,滿足分開數(shù)據(jù)點的分界面都是可以的。()

A:錯誤B:正確答案:正確?L2正則化得到的解更加稀疏。()

A:正確B:錯誤答案:錯誤牛頓迭代法是二階收斂的,梯度下降是一階收斂,所以牛頓法多數(shù)情況下收斂更快。()

A:正確B:錯誤答案:錯誤隨機梯度下降算法可以有效提高邏輯回歸的擬合度。()

A:正確B:錯誤答案:錯誤梯度下降法需要預先設定學習率,然后通過多次迭代求解最優(yōu)參數(shù)。()

A:錯B:對答案:對次梯度方法是傳統(tǒng)的梯度下降方法的拓展,用來處理不可導的凸函數(shù)。它的優(yōu)勢是比傳統(tǒng)方法處理問題范圍大,劣勢是算法收斂速度慢。()

A:錯B:對答案:對在決策樹學習過程中,一般而言,隨著劃分過程的不斷進行,分支節(jié)點的”純度“將越來越高。()

A:對B:錯答案:錯給定n個數(shù)據(jù)點,如果其中一半用于訓練,另一半用于測試,則訓練誤差和測試誤差之間的差別會隨著n的增加而減小。()

A:正確B:錯誤答案:正確剪枝(pruning)是決策樹學習算法對付"欠擬合"的主要手段,其基本策略有"預剪枝"(pre-pruning)和"后剪枝"(post-pruning)。()

A:錯B:對答案:錯在屬性個數(shù)比較多或者屬性之間相關性較大時,樸素貝葉斯分類器的分類效率比不上決策樹模型。()

A:對B:錯答案:對一個循環(huán)神經網(wǎng)絡可以被展開成為一個完全連接的、具有無限長度的普通神經網(wǎng)絡。()

A:對B:錯答案:對在訓練完SVM之后,只保留支持向量,而舍去所有非支持向量,仍然不會影響模型分類能力。()

A:對B:錯答案:對如果自變量X和因變量Y之間存在高度的非線性和復雜關系,那么樹模型很可能劣于經典回歸方法。()

A:對B:錯答案:錯決策樹的分界面是線性的。()

A:正確B:錯誤答案:錯誤邏輯回歸LR是參數(shù)模型,支持向量機SVM也是參數(shù)模型。()

A:對B:錯答案:錯監(jiān)督式學習中存在過擬合,而對于非監(jiān)督式學習來說,沒有過擬合。()

A:錯B:對答案:錯K-means算法中初始點的選擇對最終結果沒有影響,不同的初始值結果都一樣。()

A:對B:錯答案:錯隨機森林中基學習器的多樣性不僅來自樣本擾動,還來自屬性擾動和輸出表示擾動。()

A:錯B:對答案:錯ID3決策樹學習算法是以信息增益為準則來選擇劃分屬性的。()

A:對B:錯答案:對在決策樹的劃分屬性選擇中,信息增益準則對可取值數(shù)目較少的屬性有所偏好,而增益率準則對可取值數(shù)目較多的屬性有所偏好。()

A:錯B:對答案:錯SVM對缺失數(shù)據(jù)敏感,而且當觀測樣本很多時,SVM方法的效率也不是很高。()

A:對B:錯答案:對ID3算法以()作為測試屬性的選擇標準。

A:分類的速度B:所劃分的類個數(shù)C:信息增益D:信息熵答案:AI參考:正確選項是【D:信息熵】。\n\nID3算法是一種基于信息增益的決策樹分類算法,用于從一組屬性中選擇最優(yōu)屬性以生成決策樹。信息熵是描述數(shù)據(jù)集中的不確定性或信息量的指標,因此ID3算法以信息熵作為測試屬性的選擇標準,以此來最小化數(shù)據(jù)集的不確定性并提高分類的準確性。因此,選項D是正確答案。選項A、B、C雖然也是一些常見的選擇標準,但在ID3算法中不是主要標準。'線性回歸模型假設標簽隨機變量服從_______?Logistic回歸模型假設標簽隨機變量服從_______?Softmax回歸模型假設標簽隨機變量服從_______?()

A:伯努利分布、正態(tài)分布、多項分布B:正態(tài)分布、伯努利分布、多項分布C:正態(tài)分布、多項分布、伯努利分布D:伯努利分布、多項分布、正態(tài)分布答案:AI參考:正確答案是C:正態(tài)分布、多項分布、伯努利分布。\n\n線性回歸模型假設標簽隨機變量服從正態(tài)分布,Logistic回歸模型假設標簽隨機變量服從多項分布,Softmax回歸模型假設標簽隨機變量服從伯努利分布。因此,選項C是正確答案。選項A和D中的順序錯誤,選項B中的多項分布和伯努利分布位置顛倒。'以下哪個選項不屬于策略算法的實現(xiàn)過程?()

A:將策略參數(shù)化B:輸入某個狀態(tài),輸出一個動作的概率分布C:使用神經網(wǎng)絡尋找最差策略D:使用線性模型或者神經網(wǎng)絡對策略函數(shù)建模答案:AI參考:正確選項是B:輸入某個狀態(tài),輸出一個動作的概率分布。\n\n策略算法的主要目的是尋找一個最優(yōu)策略,即在給定狀態(tài)下,選擇最佳動作的概率分布。實現(xiàn)策略算法的過程中,通常會先將策略參數(shù)化(A對),使用神經網(wǎng)絡或線性模型對策略函數(shù)進行建模(D對),然后使用這些模型在給定狀態(tài)下輸出動作的概率分布(B錯,不屬于策略算法的實現(xiàn)過程)。最后,通過反復迭代和優(yōu)化這些模型,逐漸逼近最優(yōu)策略。使用神經網(wǎng)絡尋找最差策略(C對)也是策略算法的一種實現(xiàn)方式。'以下(1)動態(tài)規(guī)劃算法、(2)蒙特卡洛算法、(3)時序差分算法,無模型的算法有哪些?()

A:(1),(2)B:(2),(3)C:全都不是D:(1),(3)答案:AI參考:正確選項為C:全都不是。\n\n動態(tài)規(guī)劃算法和蒙特卡洛算法不需要使用模型,而時序差分算法雖然不是嚴格意義上的無模型算法,但其核心思想是通過差分來估計時間序列的變化,不需要事先建立模型。因此,這三個算法中只有動態(tài)規(guī)劃算法和蒙特卡洛算法是無模型的算法。'在二元分類問題中,給定樣本的特征組及其標簽將標簽為1的樣本稱為正采樣,標簽為0的樣本稱為負采樣。設為模型對樣本的標簽預測。將稱為正預測,稱為負預測。

以下說法不正確的是()

A:如果且1,則稱該預測為假正(falsepositive)B:如果且1,則稱該預測為真正(truepositive)C:如果且,則稱該預測為假負(falsenegative)D:如果且,則稱該預測為真負(truenegative)答案:AI參考:正確答案是D:如果且,則稱該預測為真負(truenegative)。\n\n根據(jù)題意,將標簽為1的樣本稱為正采樣,標簽為0的樣本稱為負采樣。設y為模型對樣本的標簽預測,將正預測稱為當y=1時,樣本被正確預測為正樣本,負預測稱為當y=0時,樣本被正確預測為負樣本。\n\n選項D表述不正確,因為如果樣本被正確預測為負樣本,即y=0時,樣本被正確預測為負樣本,而不是真負樣本。因此,選項D中的“真負”表述不準確。\n\n其他選項A、B、C均符合題意。選項A表示假正預測,即當模型預測為正樣本時,實際樣本為負樣本的情況;選項B表示真正預測,即當模型預測為正樣本時,實際樣本也為正樣本的情況;選項C表示假負預測,即當模型預測為負樣本時,實際樣本為正樣本的情況。'線性回歸經常使用的優(yōu)化算法是()

A:A和BB:正規(guī)方程C:最優(yōu)值搜索D:梯度下降法答案:AI參考:正確選項是D:梯度下降法。\n\n梯度下降法是一種常用的優(yōu)化算法,廣泛應用于線性回歸等機器學習算法中,用于尋找函數(shù)的最小值點。在梯度下降法中,通過不斷迭代更新參數(shù),逐步逼近函數(shù)的最小值點,從而優(yōu)化線性回歸模型。正規(guī)方程(B)和最優(yōu)值搜索(C)不是常用的優(yōu)化算法,通常用于求解線性回歸模型的系數(shù),而不是用于優(yōu)化算法。因此,選項D:梯度下降法是線性回歸經常使用的優(yōu)化算法。'PCA的理論基礎是()

A:方差最大理論B:系數(shù)最大理論C:殘差最大理論D:成分最大理論答案:AI參考:正確選項是:A:方差最大理論。\n\nPCA(主成分分析)的理論基礎是方差最大理論,即在新變量維度縮放的過程中,盡可能地保留原始數(shù)據(jù)中的所有方差信息。通過對數(shù)據(jù)降維,保留原始數(shù)據(jù)中的最大方差信息,達到簡化數(shù)據(jù)和提高數(shù)據(jù)可解釋性的目的。'在回歸分析中,下列哪個選項不屬于線性回歸()。

A:多個因變量與多個自變量的回歸B:一元線性回歸C:分段回歸D:多元線性回歸答案:AI參考:正確答案是C:分段回歸。\n\n回歸分析中,屬于線性回歸的是一元線性回歸和多元線性回歸,即選項B和D,即只有一個因變量和一個自變量的回歸分析和有多個因變量多個自變量的回歸分析屬于線性回歸。而選項A和B均符合線性回歸的定義。選項C分段回歸則不屬于線性回歸。故選C分段回歸。'下列說法錯誤的是?()

A:當目標函數(shù)是凸函數(shù)時,梯度下降算法的解一般就是全局最優(yōu)解B:利用拉格朗日函數(shù)能解帶約束的優(yōu)化問題C:沿負梯度的方向一定是最優(yōu)的方向D:進行PCA降維時,需要計算協(xié)方差矩陣答案:AI參考:正確答案是C:沿負梯度的方向一定是最優(yōu)的方向。\n\n梯度下降算法是解決無約束優(yōu)化問題的一種常用方法,在目標函數(shù)是凸函數(shù)時,梯度下降算法的解一般是全局最優(yōu)解,因此A選項正確。拉格朗日函數(shù)是一種求解帶約束優(yōu)化問題的常用方法,利用拉格朗日函數(shù)可以求解帶約束的優(yōu)化問題,因此B選項正確。沿負梯度的方向不一定是最優(yōu)的方向,因此C選項錯誤。在進行PCA降維時,需要計算協(xié)方差矩陣,D選項正確。'以下屬于回歸任務的是()

A:預測云南野生大象未來的走向B:判斷一個西瓜是本地瓜還是外地瓜C:根據(jù)一個人的頭像判斷性格D:預測一個房子的價格答案:AI參考:正確選項是D:預測一個房子的價格。\n\n回歸任務是指根據(jù)已知的數(shù)據(jù)預測一個因變量的值,這個因變量通常是一個數(shù)值型的結果。在這個問題中,回歸任務的任務是預測房子的價格,因為房子的價格是一個可以量化的數(shù)值,所以是回歸任務。而A、B、C三個選項中的預測都是根據(jù)已知數(shù)據(jù)進行預測,但不是根據(jù)已知結果來預測未來的值,因此不是回歸任務。'局部線性嵌入中,原空間局部信息指的是()。

A:除中心樣本外的樣本對中心樣本的線性表示信息B:鄰域樣本對中心樣本的線性表示信息C:ABC都是D:中心樣本的局部鄰域樣本信息答案:AI參考:正確答案是D:中心樣本的局部鄰域樣本信息。\n\n在局部線性嵌入中,原空間局部信息指的是中心樣本的局部鄰域樣本信息。這是因為局部線性嵌入方法通過將數(shù)據(jù)點周圍的鄰域中的樣本點線性組合,來獲取數(shù)據(jù)點的局部特征,從而實現(xiàn)對數(shù)據(jù)點的局部線性表示。因此,中心樣本的局部鄰域樣本信息是原空間局部信息的重要組成部分。選項A和B雖然也涉及到樣本對中心樣本的線性表示信息,但不夠全面,因此不是正確答案。選項C則完全不相關,因此也不正確。'下列哪個不屬于LDA和PCA的相同點()

A:兩者在降維時均使用了矩陣特征值分解的思想。B:兩者均可以對數(shù)據(jù)進行降維。C:兩者均屬于監(jiān)督式學習算法。D:兩者都假設數(shù)據(jù)符合高斯分布。答案:AI參考:正確選項是【兩者均屬于監(jiān)督式學習算法】。\n\nLDA(線性判別分析)和PCA(主成分分析)都是常用的降維方法,它們都使用了矩陣特征值分解的思想,可以對數(shù)據(jù)進行降維,并且都假設數(shù)據(jù)符合高斯分布。但是,LDA是一種有監(jiān)督學習算法,而PCA是一種無監(jiān)督學習算法,因此不屬于監(jiān)督式學習算法。因此,選項C是正確答案。'()

A:B:C:D:答案:AI參考:正確選項是【C】。\n\n題目中給出的是一個圖片鏈接,鏈接指向的是一個PNG格式的圖片文件。根據(jù)常識和題目要求,應該選擇一個與圖片相關的選項,而C選項“”符合這個要求,因此是正確答案。A、B、D選項都與圖片無關,因此不是正確答案。'假定你使用了一個很小值的RBF核,這意味著:()

A:模型將考慮使用遠離超平面的點建模B:模型僅使用接近超平面的點來建模C:ABC都不正確D:模型不會被點到超平面的距離所影響答案:AI參考:答案選【ABC都不正確】。\n\n使用一個小值的RBF核意味著模型在建模時,會考慮使用遠離超平面的點,但不會受到點到超平面的距離的影響。因此,選項C和D都是不正確的。而選項A和B則分別描述了RBF核的不同應用場景,但都不是題干中所描述的。因此,正確答案是ABC都不正確。'下列關于長短期記憶網(wǎng)絡LSTM和循環(huán)神經網(wǎng)絡RNN的關系描述正確的是()

A:LSTM是雙向的RNNB:LSTM是RNN的擴展方法,通過特有結構設計來避免長期依賴問題C:LSTM是多層的RNND:LSTM是簡化版的RNN答案:AI參考:選項B:LSTM是RNN的擴展方法,通過特有結構設計來避免長期依賴問題,是正確的描述。長短期記憶網(wǎng)絡(LSTM)是一種特殊的循環(huán)神經網(wǎng)絡(RNN),它通過特殊的設計結構,如記憶單元和門結構,有效地解決了RNN中存在的長期依賴問題,從而在許多自然語言處理任務中表現(xiàn)出了優(yōu)越的性能。因此,選項B“LSTM是RNN的擴展方法,通過特有結構設計來避免長期依賴問題”是正確的描述。選項A和C描述的是LSTM與RNN之間的關系,但不夠準確;選項D則表述錯誤,LSTM并不是簡化版的RNN。'以下說法正確的是()。

A:Logistic回歸算法是模型假設為Sigmoid函數(shù)的經驗損失最小化算法。B:Logistic回歸算法是針對多元分類問題的一個重要算法。C:線性回歸算法是用于解決分類問題的方法。D:回歸問題和分類問題是兩類非監(jiān)督式學習問題。答案:AI參考:正確答案是B:Logistic回歸算法是針對多元分類問題的一個重要算法。\n\nLogistic回歸是一種基于概率的非線性回歸分析方法,它通過將輸入特征映射到概率空間,從而實現(xiàn)對多元分類問題的建模。因此,選項B是正確的。選項A和C都是關于Logistic回歸算法的描述,但是它們的描述不夠準確。選項D則是關于非監(jiān)督式學習問題的描述,與Logistic回歸算法無關。因此,答案為B。'下面哪句話是正確的?()

A:機器學習模型的精準度越高,則模型的性能越好B:增加模型的復雜度,總能減小測試樣本誤差C:增加模型的復雜度,總能減小訓練樣本誤差答案:AI參考:正確選項是:A:機器學習模型的精準度越高,則模型的性能越好。\n\n原因分析:\n\nA選項:“機器學習模型的精準度越高,則模型的性能越好”這個選項表述是正確的。機器學習模型的精準度代表模型預測結果的準確性,而模型的性能還涉及到模型的穩(wěn)定性和運行效率等因素。通常來說,精準度是衡量模型性能的重要指標之一。因此,如果模型的精準度越高,那么模型的性能也會越好。\n\nB選項:“增加模型的復雜度,總能減小測試樣本誤差”這個選項表述不準確。增加模型的復雜度并不能直接減小測試樣本誤差,而是需要根據(jù)模型的特點和數(shù)據(jù)的特點來選擇合適的模型結構和參數(shù)設置,以達到減小測試樣本誤差的目的。\n\nC選項:“增加模型的復雜度,總能減小訓練樣本誤差”這個選項表述也是不準確的。模型復雜度的增加并不一定能夠減小訓練樣本誤差,有時候反而會增加訓練樣本誤差。因為模型的復雜度增加可能導致過擬合現(xiàn)象的出現(xiàn),而過擬合現(xiàn)象通常會導致訓練樣本誤差的增加。\n\n綜上所述,A選項是正確的。'設,則當x-->1時,()。

A:a(x)與b(x)是等價無窮小B:a(x)是比b(x)高階的無窮小C:a(x)與b(x)是同階無窮小,但不是等價無窮小D:b(x)是比a(x)高階的無窮小答案:AI參考:答案:C\n推理過程:\n首先根據(jù)題干給出的圖片可知圖片寬度為155.99127pt,高度為27.447165pt。因為一個單位為pt的長度是固定的,所以根據(jù)比值的縮放可以推斷出x->1時圖片寬高是按比例縮放的,因此可知b(x)的寬度是按比例縮小了的a(x),且其比例是無窮小。即當x->1時,b(x)的寬度相對于a(x)來說是一個無窮小量,因此兩者是同階無窮小,但不是等價無窮小。選項A、B、D顯然都錯誤。\n綜上所述,正確答案是C:a(x)與b(x)是同階無窮小,但不是等價無窮小。'以下關于聚類算法說法正確的是()。

A:合并聚類算法是基于密度的聚類B:聚類分析是無監(jiān)督學習算法C:聚類目標是將數(shù)據(jù)集中的樣本劃分為若干個不相交的子集D:K均值算法是一個近似算法答案:AI參考:關于聚類算法的說法正確的是:C:聚類目標是將數(shù)據(jù)集中的樣本劃分為若干個不相交的子集。\n\n解釋:A選項錯誤,因為合并聚類算法是基于距離的聚類;B選項錯誤,因為聚類分析是一種有監(jiān)督學習算法;D選項錯誤,因為K均值算法是一個優(yōu)化算法而非近似算法。因此,只有C選項是正確的,因為它準確地描述了聚類的目標。'LDA降維的目標是將帶有標簽的數(shù)據(jù)降維,投影到低維空間同時滿足三個條件有:()

A:在所投影的維度上數(shù)據(jù)的方差最大B:投影后使得同類樣本盡可能近,不同類樣本盡可能遠C:盡可能多地保留數(shù)據(jù)樣本的信息D:尋找使樣本盡可能好分的最佳投影方向答案:AI參考:正確選項為:B,C\n\nLDA降維的目標是將帶有標簽的數(shù)據(jù)降維,投影到低維空間同時盡可能多地保留數(shù)據(jù)樣本的信息,并且使得同類樣本盡可能近,不同類樣本盡可能遠。在選擇投影方向時,LDA算法會嘗試尋找使樣本盡可能好分的最佳投影方向,但這不是其唯一目標。因此,選項B和C是正確的。選項A和D雖然也是LDA降維的目標之一,但并不是LDA算法的核心目標。'關于BP神經網(wǎng)絡的缺點說法正確的是()

A:隨著神經網(wǎng)絡的層數(shù)加深,訓練過程存在嚴重的“梯度彌散”現(xiàn)象,即網(wǎng)絡的輸出結果通過反向傳播,當?shù)竭_前面層時,梯度會逐漸消失,使得不能指引網(wǎng)絡權值的訓練,從而導致網(wǎng)絡不能正常收斂。

溫馨提示

  • 1. 本站所有資源如無特殊說明,都需要本地電腦安裝OFFICE2007和PDF閱讀器。圖紙軟件為CAD,CAXA,PROE,UG,SolidWorks等.壓縮文件請下載最新的WinRAR軟件解壓。
  • 2. 本站的文檔不包含任何第三方提供的附件圖紙等,如果需要附件,請聯(lián)系上傳者。文件的所有權益歸上傳用戶所有。
  • 3. 本站RAR壓縮包中若帶圖紙,網(wǎng)頁內容里面會有圖紙預覽,若沒有圖紙預覽就沒有圖紙。
  • 4. 未經權益所有人同意不得將文件中的內容挪作商業(yè)或盈利用途。
  • 5. 人人文庫網(wǎng)僅提供信息存儲空間,僅對用戶上傳內容的表現(xiàn)方式做保護處理,對用戶上傳分享的文檔內容本身不做任何修改或編輯,并不能對任何下載內容負責。
  • 6. 下載文件中如有侵權或不適當內容,請與我們聯(lián)系,我們立即糾正。
  • 7. 本站不保證下載資源的準確性、安全性和完整性, 同時也不承擔用戶因使用這些下載資源對自己和他人造成任何形式的傷害或損失。

最新文檔

評論

0/150

提交評論