版權(quán)說(shuō)明:本文檔由用戶提供并上傳,收益歸屬內(nèi)容提供方,若內(nèi)容存在侵權(quán),請(qǐng)進(jìn)行舉報(bào)或認(rèn)領(lǐng)
文檔簡(jiǎn)介
機(jī)器學(xué)習(xí)(山東聯(lián)盟)智慧樹(shù)知到期末考試答案+章節(jié)答案2024年山東財(cái)經(jīng)大學(xué)高斯混合模型假設(shè)樣本的生成過(guò)程由高斯混合分布給出。
答案:對(duì)只需要一個(gè)包含足夠多神經(jīng)元的隱層,多層前饋網(wǎng)絡(luò)就能以任意精度逼近任意復(fù)雜度的連續(xù)函數(shù)
答案:對(duì)非線性降維的方法,是基于核技巧對(duì)線性降維方法進(jìn)行核化。
答案:對(duì)CNN由于其結(jié)構(gòu)復(fù)雜,不能用BP算法進(jìn)行訓(xùn)練
答案:錯(cuò)AGENS方法是一種采用自底向上聚合策略的層次聚類方法。
答案:對(duì)度量學(xué)習(xí)是指通過(guò)學(xué)習(xí)確定一種距離度量方式。
答案:對(duì)局部線性嵌入是一種常用的度量學(xué)習(xí)方法
答案:錯(cuò)由于BP神經(jīng)網(wǎng)絡(luò)強(qiáng)大的表示能力,它經(jīng)常遭遇欠擬合
答案:錯(cuò)距離度量一般滿足的性質(zhì)為:非負(fù)性、同一性、對(duì)稱性和直遞性。
答案:對(duì)頻率主義學(xué)派認(rèn)為參數(shù)是未觀察到的隨機(jī)變量,其本身也可有分布,因此,可假定參數(shù)服從一個(gè)先驗(yàn)分布,然后,基于觀察到的數(shù)據(jù)來(lái)計(jì)算參數(shù)的后驗(yàn)分布。
答案:錯(cuò)Jaccard系數(shù)是一種性能度量的內(nèi)部指標(biāo)。
答案:錯(cuò)下面哪幾種()機(jī)器學(xué)習(xí)的分類,完全不需要人工標(biāo)注數(shù)據(jù)?
答案:無(wú)監(jiān)督學(xué)習(xí)###強(qiáng)化學(xué)習(xí)常用的核函數(shù)有()
答案:拉普拉斯核###多項(xiàng)式核###線性核###高斯核決策樹(shù)模型中,決策過(guò)程中提出的每個(gè)判定問(wèn)題都是對(duì)某個(gè)屬性的“測(cè)試”,每個(gè)“測(cè)試”考慮的范圍,不必限定在上次決策結(jié)果的范圍之內(nèi)。
答案:錯(cuò)支持向量機(jī)通常采用二次規(guī)劃算法來(lái)求解
答案:對(duì)估計(jì)類條件概率P(x|C)的常用策略先假定其具有某種確定的概率分布形式,再基于訓(xùn)練樣本對(duì)概率分布參數(shù)估計(jì)。
答案:對(duì)決策樹(shù)學(xué)習(xí)中,因決策分支過(guò)多,把訓(xùn)練集自身的一些特點(diǎn),當(dāng)做所有數(shù)據(jù)都具有的一般性質(zhì)。因此,可主動(dòng)去掉一些分支,降低過(guò)擬合的風(fēng)險(xiǎn)。
答案:對(duì)決策樹(shù)學(xué)習(xí)算法采用選擇部分屬性和剪枝的技術(shù),得到最終的決策樹(shù)。
答案:對(duì)PCA是一種有監(jiān)督的線性降維方法。
答案:錯(cuò)緩解維數(shù)災(zāi)難的一個(gè)重要途徑是降維。
答案:對(duì)對(duì)數(shù)幾率回歸模型不僅預(yù)測(cè)出“類別”,且可得到“類別”的近似概率預(yù)測(cè)。
答案:對(duì)在神經(jīng)網(wǎng)絡(luò)的訓(xùn)練過(guò)程中,(
)方法被用來(lái)在參數(shù)空間中尋找一種使誤差最小的最優(yōu)參數(shù)。
答案:用多組不同的參數(shù)初始化多個(gè)神經(jīng)網(wǎng)絡(luò),按標(biāo)準(zhǔn)方法訓(xùn)練后,取其中誤差最小的解作為最終參數(shù)。###遺傳算法###使用“模擬退火”技術(shù)###使用隨機(jī)梯度下降對(duì)于正交屬性中的樣本點(diǎn),用一個(gè)超平面對(duì)所有樣本進(jìn)行恰當(dāng)表達(dá),則該超平面需要滿足最大可分性和最小重構(gòu)性。
答案:對(duì)一個(gè)擁有d個(gè)輸入神經(jīng)元、L個(gè)輸出神經(jīng)元、q個(gè)隱層神經(jīng)元的多層前饋網(wǎng)絡(luò)中有()個(gè)參數(shù)需要調(diào)整
答案:(d+L+1)q+LAGENS方法是種常用的層次聚類方法
答案:對(duì)信息熵是度量樣本集合純度的唯一指標(biāo)。
答案:錯(cuò)DBI指數(shù)是一種常用的外部指標(biāo)。
答案:錯(cuò)密度聚類方法一般從樣本的分布出發(fā),考察樣本之間的可連接性,并基于可連接樣本不斷擴(kuò)展聚類簇以獲得最終的聚類結(jié)果。
答案:對(duì)線性模型中,屬性的系數(shù)大,表明該屬性較為重要
答案:對(duì)局部線性嵌入和等度量映射都屬于流形學(xué)習(xí)的范疇。
答案:對(duì)剪枝是決策樹(shù)學(xué)習(xí)算法對(duì)付“欠擬合”的主要手段
答案:錯(cuò)支持向量機(jī)模型的復(fù)雜程度與支持向量的數(shù)目有關(guān)
答案:對(duì)為了避免其他屬性攜帶的信息被訓(xùn)練集中未出現(xiàn)的屬性值“抹去”,在估計(jì)概率值時(shí)通常要進(jìn)行“平滑”,常用“拉普拉斯修正”
答案:對(duì)神經(jīng)網(wǎng)絡(luò)的訓(xùn)練過(guò)程可以看作一個(gè)參數(shù)尋優(yōu)過(guò)程,即在參數(shù)空間中,尋找一組最優(yōu)參數(shù)使得神經(jīng)網(wǎng)絡(luò)在訓(xùn)練集上的誤差最小
答案:對(duì)PCA方法中使所有樣本的投影盡可能分開(kāi),則需最大化投影點(diǎn)的方差。
答案:對(duì)AdaBoost算法過(guò)程包括()。
答案:確定分類器權(quán)重ɑt###初始化樣本權(quán)值分布D1###基于分布Dt從數(shù)據(jù)集D中訓(xùn)練出分類器ht###估計(jì)分類器ht的誤差具有最大間隔的劃分超平面的優(yōu)點(diǎn)是()
答案:魯棒###泛化能力強(qiáng)樸素貝葉斯分類器的訓(xùn)練過(guò)程就是基于訓(xùn)練集D來(lái)估計(jì)(),并為每個(gè)屬性估計(jì)()。
答案:P(c),P(xi|c)線性判別分析地基本思想是給定訓(xùn)練樣例集,設(shè)法將樣例投影到()上。
答案:一條直線距離等度量映射是在降維時(shí)試圖保持相鄰樣本之間的線性關(guān)系。
答案:錯(cuò)貝葉斯學(xué)派認(rèn)為參數(shù)雖然未知,但卻是客觀存在的固定值,因此,可通過(guò)優(yōu)化似然函數(shù)等準(zhǔn)則來(lái)確定參數(shù)值。
答案:錯(cuò)最近重構(gòu)性是指樣本點(diǎn)到這個(gè)超平面的距離都足夠近;最大可分性是指樣本點(diǎn)在這個(gè)超平面上的投影盡可能分開(kāi)。
答案:對(duì)降維后的維度是由用戶確定的,主要是通過(guò)重構(gòu)的角度設(shè)置一個(gè)閾值,然后確定維度d
答案:對(duì)Agens方法是一種原型聚類,其聚類方法主要是實(shí)現(xiàn)對(duì)聚類原型的表示。
答案:錯(cuò)由于無(wú)論是高維空間還是低維空間,每個(gè)空間在樣本屬性上都定義了一個(gè)距離度量,因此,尋找合適的空間即使在尋找合適的距離度量。
答案:對(duì)對(duì)于不能線性可分的情況,考慮采用核的方法把不線性可分的高維空間映射到線性可分的低維空間。
答案:對(duì)主成分分析是可以實(shí)現(xiàn)線性降維,同時(shí)達(dá)到對(duì)數(shù)據(jù)的降噪。
答案:對(duì)K近鄰學(xué)習(xí)方法屬于懶惰學(xué)習(xí),是其的著名代表。
答案:對(duì)BP算法基于梯度下降策略,以目標(biāo)的負(fù)梯度方向?qū)?shù)進(jìn)行調(diào)整
答案:對(duì)高斯混合聚類假設(shè)樣本滿足高斯混合分布。
答案:對(duì)對(duì)降維效果的評(píng)估,通常是比較降維前后學(xué)習(xí)器的性能,若性能提高則認(rèn)為降維起到作用。
答案:對(duì)常用的替代損失函數(shù)有()
答案:hinge損失###指數(shù)損失###對(duì)率損失支持向量回歸的本質(zhì)是一個(gè)回歸問(wèn)題
答案:錯(cuò)緩解BP神經(jīng)網(wǎng)絡(luò)過(guò)擬合常采用的策略有()
答案:正則化###早停隨機(jī)森林算法的個(gè)體學(xué)習(xí)器間存在強(qiáng)依賴關(guān)系,是一種串行生成的序列化方法。
答案:錯(cuò)給定訓(xùn)練數(shù)據(jù)集,交疊的采樣子集的方法是()。
答案:Bagging流形學(xué)習(xí)方法是模式識(shí)別中的基本方法,分為線性流形學(xué)習(xí)算法和非線性流形學(xué)習(xí)算法。下列屬于線性流形學(xué)習(xí)算法的是()
答案:主成分分析假設(shè)基分類器的錯(cuò)誤率相互獨(dú)立,則由Hoeffding不等式可得,在一定條件下,隨著集成分類器數(shù)目的增加,集成的錯(cuò)誤率將()。
答案:指數(shù)級(jí)下降一般來(lái)說(shuō),欲獲得低維子空間,最簡(jiǎn)單的是對(duì)原始高維空間進(jìn)行線性變換。
答案:對(duì)Bagging算法的個(gè)體學(xué)習(xí)器間不存在強(qiáng)依賴關(guān)系,是一種可同時(shí)生成的并行化方法。
答案:對(duì)信息熵度量采用的劃分選擇為基尼指數(shù)。
答案:錯(cuò)決策樹(shù)模型中,決策過(guò)程的最終結(jié)論對(duì)應(yīng)了我們所希望的判定結(jié)果。
答案:對(duì)貝葉斯網(wǎng)學(xué)習(xí)的首要任務(wù)就是通過(guò)對(duì)訓(xùn)練樣本“計(jì)數(shù)”,估計(jì)出每個(gè)結(jié)點(diǎn)的條件概率表。
答案:錯(cuò)處理混合屬性之間的距離通常將米科夫斯基距離和VDM方法結(jié)合。
答案:對(duì)在空間上線性可分的兩類點(diǎn),分別向SVM分類的超平面上做投影,這些點(diǎn)在超平面上的投影仍然是線性可分的
答案:錯(cuò)密度聚類方法假設(shè)聚類結(jié)構(gòu)能夠通過(guò)樣本分布的概率密度確定。
答案:錯(cuò)閾值移動(dòng)可以解決類別不平衡問(wèn)題。
答案:對(duì)等度量映射是一種常用的度量學(xué)習(xí)方法。
答案:錯(cuò)現(xiàn)實(shí)學(xué)習(xí)任務(wù)中,常會(huì)遇到連續(xù)屬性,其可取值數(shù)目不再有限,可以使用離散化技術(shù)將連續(xù)屬性轉(zhuǎn)化為離散屬性
答案:對(duì)降維是指通過(guò)某種數(shù)學(xué)變換將原始高維屬性空間轉(zhuǎn)變?yōu)橐粋€(gè)低維“子空間”,可以用來(lái)緩解維數(shù)災(zāi)難。
答案:對(duì)誤差逆?zhèn)鞑ニ惴ㄊ瞧褡畛晒Φ纳窠?jīng)網(wǎng)絡(luò)學(xué)習(xí)算法。
答案:對(duì)引入軟間隔是為了允許支持向量機(jī)在一些樣本上出錯(cuò)。
答案:對(duì)訓(xùn)練數(shù)據(jù)較少時(shí)更容易發(fā)生欠擬合
答案:對(duì)演繹是從一般到特殊的"特化"過(guò)程,即從基礎(chǔ)原理推演出具體狀況
答案:對(duì)盡管多層網(wǎng)絡(luò)比單層感知機(jī)結(jié)構(gòu)復(fù)雜,但是它們的訓(xùn)練難度是相同的
答案:錯(cuò)廣義線性模型的目標(biāo)函數(shù),即為最大化樣本標(biāo)記屬于其真實(shí)標(biāo)記的概率。
答案:對(duì)流形學(xué)習(xí)在實(shí)際中降維性能一般不好。
答案:對(duì)直接使用頻率來(lái)估計(jì)類條件概率P(x|c)是可行的。
答案:錯(cuò)單一屬性的線性回歸目標(biāo)函數(shù)為f(x)=ωx+b使得min(f(x)–y)2
答案:對(duì)訓(xùn)練完成后,大部分訓(xùn)練樣本不需要保留,最終模型只與支持向量有關(guān)
答案:對(duì)常用的廣義線性回歸有單位躍階函數(shù)、對(duì)數(shù)線性回歸、對(duì)數(shù)幾率回歸
答案:對(duì)高斯混合聚類采用概率模型來(lái)表達(dá)聚類原型
答案:對(duì)支持向量是指分布在樣本簇邊緣的樣本點(diǎn)。
答案:錯(cuò)方差度量了學(xué)習(xí)算法期望預(yù)測(cè)與真實(shí)結(jié)果的偏離程度
答案:錯(cuò)獲得假設(shè)(模型)空間時(shí),從特殊到一般的過(guò)程屬于
答案:泛化###歸納分類學(xué)習(xí)任務(wù)中,若不同類別的訓(xùn)練樣本數(shù)目差別很大時(shí),對(duì)學(xué)習(xí)過(guò)程沒(méi)有明顯影響
答案:錯(cuò)以下哪些方法可以用于單個(gè)學(xué)習(xí)器性能的比較()。
答案:t-檢驗(yàn)###二項(xiàng)檢驗(yàn)加權(quán)平均法的權(quán)重,一般是從訓(xùn)練數(shù)據(jù)中學(xué)習(xí)而得,規(guī)模比較大的集成,要學(xué)習(xí)的權(quán)重比較多,較容易導(dǎo)致欠擬合。
答案:錯(cuò)下列屬于支持向量機(jī)核函數(shù)的是()
答案:高斯核###線性核###多項(xiàng)式核###Sigmoid核神經(jīng)網(wǎng)絡(luò)中的激活函數(shù)可以采用線性函數(shù)
答案:錯(cuò)要獲得好的集成,個(gè)體學(xué)習(xí)器應(yīng)“好而不同”,即個(gè)體學(xué)習(xí)器要有一定的(),即學(xué)習(xí)器不能太壞,并且要有(),即學(xué)習(xí)器間具有差異。
答案:準(zhǔn)確性###多樣性處理無(wú)序?qū)傩灾g的距離通常采用VDM算法。
答案:對(duì)機(jī)器學(xué)習(xí)可以應(yīng)用在下列哪些領(lǐng)域()
答案:天氣預(yù)報(bào)###商業(yè)營(yíng)銷###搜索引擎###自動(dòng)駕駛汽車決策樹(shù)算法的泛化性能提升,則驗(yàn)證集精度()
答案:提高AdaBoost適用于()任務(wù)。
答案:二分類無(wú)監(jiān)督學(xué)習(xí)任務(wù)中研究最多、應(yīng)用最廣的是任務(wù)是()
答案:聚類線性回歸模型中,聯(lián)系函數(shù)g(?)為對(duì)數(shù)幾率函數(shù)ln(y/(1-y))時(shí),該線性模型成為()
答案:對(duì)數(shù)幾率回歸結(jié)合策略中,具有初級(jí)學(xué)習(xí)器和結(jié)合學(xué)習(xí)器的是()。
答案:學(xué)習(xí)法局部線性嵌入在降維時(shí)試圖保持鄰域內(nèi)樣本之間的線性關(guān)系。
答案:相鄰樣本之間的線性關(guān)系隨機(jī)森林的優(yōu)點(diǎn)不包括()。
答案:初始性能較好以下關(guān)于回歸的說(shuō)法中,不正確的是()。
答案:回歸的目標(biāo)屬性是離散的多層感知機(jī)表示異或邏輯時(shí)最少需要()個(gè)隱含層(僅考慮二元輸入)
答案:2線性回歸模型中,對(duì)數(shù)ln(y)函數(shù)是在求取輸入空間到輸出空間的()映射
答案:非線性函數(shù)k近鄰分類器沒(méi)有被廣泛使用的原因是其泛化錯(cuò)誤率不超過(guò)貝葉斯最有分類器錯(cuò)誤率的兩倍。
答案:對(duì)PCA方法滿足的重要性質(zhì)是()
答案:最大可分性###最近重構(gòu)性PCA方法滿足的重要性質(zhì)是:最大重構(gòu)性和最近可分性。
答案:錯(cuò)流形學(xué)習(xí)中的流形是指在局部與歐式空間同胚的空間,即()
答案:在局部有歐式空間的性質(zhì)距離等度量映射是在降維時(shí)試圖保持()
答案:相鄰樣本之間的距離主成分分析是最常用的一種降維方法。
答案:對(duì)在高維情形下出現(xiàn)的數(shù)據(jù)樣本稀疏、距離計(jì)算困難等問(wèn)題是所有機(jī)器學(xué)期方法共同面臨的嚴(yán)重障礙,被稱為維數(shù)災(zāi)難,
答案:對(duì)K近鄰學(xué)習(xí)是急切學(xué)習(xí)的著名代表。
答案:錯(cuò)緩解維數(shù)災(zāi)難的操作是()
答案:降維在訓(xùn)練階段就對(duì)樣本進(jìn)行學(xué)習(xí)處理的方法是急切學(xué)習(xí)。
答案:對(duì)常用的聚類距離計(jì)算采用()。
答案:閔可夫斯基無(wú)監(jiān)督學(xué)習(xí)是指訓(xùn)練樣本的標(biāo)記信息是(),目標(biāo)是通過(guò)對(duì)()標(biāo)記訓(xùn)練樣本的學(xué)習(xí)來(lái)揭示數(shù)據(jù)內(nèi)在的性質(zhì)及規(guī)律,為進(jìn)一步的數(shù)據(jù)分析提供基礎(chǔ)
答案:未知,無(wú)聚類性能度量大致有兩類指標(biāo):外部指標(biāo)和內(nèi)部指標(biāo)。
答案:對(duì)常見(jiàn)的原型聚類方法:K均值聚類、學(xué)習(xí)向量量化和密度聚類。
答案:錯(cuò)無(wú)監(jiān)督學(xué)習(xí)任務(wù)中研究最多、應(yīng)用最廣的是“分類”。
答案:錯(cuò)聚類的基本目標(biāo)是()
答案:簇內(nèi)相似度高###簇間相似度低常用的聚類距離計(jì)算采用“余弦相似度距離”
答案:錯(cuò)懶惰學(xué)習(xí)是指在訓(xùn)練階段(),訓(xùn)練時(shí)間開(kāi)銷為零,待收到測(cè)試樣本后再進(jìn)行處理。
答案:對(duì)訓(xùn)練樣本進(jìn)行保存層次聚類試圖在不同層次對(duì)數(shù)據(jù)及進(jìn)行劃分,從而形成樹(shù)形的聚類結(jié)構(gòu)。
答案:對(duì)Boosting,個(gè)體學(xué)習(xí)器存在強(qiáng)依賴關(guān)系,逐個(gè)生成基學(xué)習(xí)器,每次調(diào)整訓(xùn)練數(shù)據(jù)的樣本分布
答案:對(duì)分歧代表了個(gè)體學(xué)習(xí)器在樣本x上的不一致性。
答案:對(duì)對(duì)基決策樹(shù)的每個(gè)結(jié)點(diǎn),首先,從該結(jié)點(diǎn)的屬性集合中,隨機(jī)選擇一個(gè)包含k個(gè)屬性的子集。然后,從這個(gè)子集中,選擇一個(gè)最優(yōu)屬性,用于劃分。該方法是()。
答案:隨機(jī)森林隨機(jī)改變一些訓(xùn)練樣本的標(biāo)記;將多分類任務(wù),拆解為一系列二分類任務(wù),來(lái)訓(xùn)練基學(xué)習(xí)器,這屬于()。
答案:輸出表示擾動(dòng)若同時(shí)有多個(gè)標(biāo)記獲最高票,則從中隨機(jī)選取一個(gè),該結(jié)合策略是()。
答案:相對(duì)多數(shù)投票法Bagging是并行式集成學(xué)習(xí)的最著名的代表,給定訓(xùn)練數(shù)據(jù)集,采用()方法采樣數(shù)據(jù)。
答案:自主采樣要獲得好的集成,個(gè)體學(xué)習(xí)器應(yīng)滿足()。
答案:學(xué)習(xí)器不能太差###學(xué)習(xí)器應(yīng)該不同假設(shè)集成通過(guò)()結(jié)合T個(gè)分類器,若有超過(guò)半數(shù)的基分類器正確則分類就正確。
答案:簡(jiǎn)單投票法Boosting算法關(guān)注降低偏差,可對(duì)泛化性能()的學(xué)習(xí)器,構(gòu)造出很()的集成。
答案:相對(duì)弱,強(qiáng)在樣本X上的條件風(fēng)險(xiǎn)是指將一個(gè)真實(shí)標(biāo)記為Cj的樣本x分類為ci所產(chǎn)生的期望損失。
答案:對(duì)通過(guò)已知變量觀測(cè)值來(lái)推測(cè)待推測(cè)查詢變量的過(guò)程稱為“推斷”
答案:對(duì)極大似然估計(jì)是試圖在θc所有可能的取值中,找到一個(gè)能使數(shù)據(jù)出現(xiàn)的“可能性”的最大的值。
答案:對(duì)對(duì)分類任務(wù)來(lái)說(shuō),在所有相關(guān)概率都已知的理想情況下,()考慮如何基于這些概率和誤判損失來(lái)選擇最優(yōu)的類別標(biāo)記。
答案:貝葉斯決策論貝葉斯網(wǎng)的近似推斷常使用吉布斯采樣(Gibbssampling)來(lái)完成,吉布斯采樣可以看做,每一步僅依賴于前一步的狀態(tài),這是一個(gè)“馬爾可夫鏈”。
答案:對(duì)為了適當(dāng)考慮一部分屬性間的相互依賴信息,從而不需要進(jìn)行完全聯(lián)合概率計(jì)算,又不至于徹底忽略了比較強(qiáng)的熟悉依賴關(guān)系,這種分類器是()。
答案:半樸素貝葉斯分類器一個(gè)貝葉斯網(wǎng)由結(jié)構(gòu)和參數(shù)兩部分組成,結(jié)構(gòu)是一個(gè)(),每個(gè)節(jié)點(diǎn)對(duì)應(yīng)個(gè)屬性,若兩屬性有直接依賴關(guān)系,則它們由一條邊連接起來(lái),參數(shù)定量描述這種依賴關(guān)系。
答案:有向無(wú)環(huán)圖拉普拉斯修正沒(méi)能避免因訓(xùn)練集樣本不充分而導(dǎo)致概率估值為0的問(wèn)題。
答案:錯(cuò)樸素貝葉斯分類器假設(shè)所有屬性相互獨(dú)立,其訓(xùn)練過(guò)程就成了基于訓(xùn)練集D來(lái)估計(jì)類先驗(yàn)概率P(c),并估計(jì)()。
答案:每個(gè)屬性的條件概率P(xi|c)為了更好地解決線性不可分問(wèn)題,我們常常需要擴(kuò)大可選函數(shù)的范圍。
答案:對(duì)支持向量機(jī)的學(xué)習(xí)策略是()
答案:間隔最大訓(xùn)練樣本集越大,SVM的分類結(jié)果越好
答案:錯(cuò)支持向量機(jī)的經(jīng)驗(yàn)風(fēng)險(xiǎn)描述了模型的某些性質(zhì)
答案:錯(cuò)核函數(shù)的引入是將原始空間中不可分的訓(xùn)練樣本映射到高維的特征空間后變得可分。
答案:對(duì)線性可分支持向量機(jī)是一種()模型
答案:二分類支持向量機(jī)的求解通常采用()來(lái)求解
答案:二次規(guī)劃算法當(dāng)訓(xùn)練樣本線性不可分時(shí)可采用()來(lái)緩解和解決
答案:軟間隔###核函數(shù)只擁有一層功能神經(jīng)元(能進(jìn)行激活函數(shù)處理)的感知機(jī)學(xué)習(xí)能力依然很強(qiáng),能解決異或這樣的非線性可分問(wèn)題。
答案:錯(cuò)基于梯度的搜索是使用最廣泛的參數(shù)尋優(yōu)方法,若誤差函數(shù)在當(dāng)前點(diǎn)的梯度為零,則已達(dá)到全局最小。
答案:錯(cuò)若兩類模式是線性可分的,即存在一個(gè)線性超平面能將它們分開(kāi),則感知機(jī)的學(xué)習(xí)過(guò)程一定會(huì)收斂。
答案:對(duì)BP神經(jīng)網(wǎng)絡(luò)由于其強(qiáng)大的表示能力,經(jīng)常遭遇()問(wèn)題,即訓(xùn)練誤差持續(xù)下降,但測(cè)試誤差卻可能上升。
答案:過(guò)擬合在現(xiàn)實(shí)任務(wù)中,人們常采用以下策略來(lái)試圖跳出局部極小,進(jìn)而接近全局最小
答案:遺傳算法###模擬退火###隨機(jī)梯度下降多隱層感知機(jī)比單隱層感知機(jī)的表達(dá)能力強(qiáng)
答案:錯(cuò)BP算法基于()策略對(duì)參數(shù)進(jìn)行調(diào)整
答案:梯度下降剪枝策略是對(duì)付“過(guò)擬合”的主要手段,即可通過(guò)主動(dòng)去掉一些分支來(lái)降低過(guò)擬合的風(fēng)險(xiǎn)。
答案:對(duì)基尼值可以度量樣本集合的純度。
答案:對(duì)預(yù)剪枝策略降低了過(guò)擬合風(fēng)險(xiǎn)。
答案:對(duì)決策樹(shù)的結(jié)點(diǎn)包含()
答案:根結(jié)點(diǎn)###葉結(jié)點(diǎn)###內(nèi)部結(jié)點(diǎn)在屬性劃分中,信息增益越大,結(jié)點(diǎn)的純度()
答案:提升越大基尼指數(shù),反映了從D中隨機(jī)抽取兩個(gè)樣本,其類別標(biāo)記一致的概率
答案:錯(cuò)決策樹(shù)學(xué)習(xí)算法中,隨著劃分過(guò)程不斷進(jìn)行,我們希望決策樹(shù)的分支結(jié)點(diǎn)所包含的樣本盡可能屬于不同類別。
答案:錯(cuò)決策樹(shù)學(xué)習(xí)算法中,預(yù)留一部分?jǐn)?shù)據(jù)用作“驗(yàn)證集”,進(jìn)行性能評(píng)估,決定是否剪枝。
答案:對(duì)決策樹(shù)模型中,隨著劃分過(guò)程不斷進(jìn)行,我們希望結(jié)點(diǎn)的“純度”越來(lái)越小。
答案:錯(cuò)多變量決策樹(shù)中的非葉子節(jié)點(diǎn)是對(duì)()屬性的線性組合進(jìn)行測(cè)試。
答案:若干個(gè)決策樹(shù)學(xué)習(xí)算法中,屬性a的信息增益越大,則使用該屬性進(jìn)行劃分所獲得的“純度提升”越大。
答案:對(duì)決策樹(shù)學(xué)習(xí)的目的是為了產(chǎn)生一棵泛化能力強(qiáng),即處理未見(jiàn)示例能力強(qiáng)的決策樹(shù)
答案:對(duì)線性回歸目的是學(xué)得多項(xiàng)式模型以盡可能準(zhǔn)確地預(yù)測(cè)實(shí)值輸出標(biāo)記。
答案:錯(cuò)在分類學(xué)習(xí)任務(wù)中,若正例遠(yuǎn)少于反例時(shí),可以通過(guò)增加一些正例解決類別不平衡問(wèn)題。
答案:對(duì)線性判別分析模型中,同類樣本的投影點(diǎn)盡可能近,即同類樣本的協(xié)方差盡可能小
答案:對(duì)線性判別分析在對(duì)新樣例進(jìn)行分類時(shí),將其投影到曲線上,再根據(jù)投影點(diǎn)的位置來(lái)確定新樣本的類別。
答案:錯(cuò)線性判別分析(LDA)設(shè)法將樣例投影到一條直線上,使得同類樣例的投影點(diǎn)盡可能接近
答案:對(duì)線性判別分析可通過(guò)該投影減小樣本點(diǎn)的維數(shù),且投影過(guò)程中使用了類別信息。因此,線性判別分析也常被視為一種經(jīng)典的()
答案:監(jiān)督降維技術(shù)基于均方誤差最小化來(lái)進(jìn)行模型求解的方法,稱為“最小二乘法”。
答案:對(duì)線性模型學(xué)得的參數(shù)ω直觀地表達(dá)了各屬性在預(yù)測(cè)中的重要性,因此,該模型具有較好的可解釋性。
答案:對(duì)在線性模型的基礎(chǔ)上,引入層級(jí)結(jié)構(gòu)或高維映射,構(gòu)成非線性模型。因此,非線性模型可以轉(zhuǎn)換為線性模型。
答案:對(duì)解決類別不平衡的方法包括()
答案:過(guò)采樣###欠采樣###閾值移動(dòng)線性回歸目的是學(xué)得一個(gè)()以盡可能準(zhǔn)確地預(yù)測(cè)實(shí)值輸出標(biāo)記
答案:線性模型過(guò)擬合不可以徹底避免。
答案:對(duì)以下哪些是可能導(dǎo)致模型過(guò)擬合的原因()
答案:學(xué)習(xí)迭代次數(shù)過(guò)多###訓(xùn)練集和測(cè)試集特征分布不一致###訓(xùn)練集數(shù)量級(jí)和模型復(fù)雜度不匹配,訓(xùn)練集的數(shù)量級(jí)小于模型的復(fù)雜度
溫馨提示
- 1. 本站所有資源如無(wú)特殊說(shuō)明,都需要本地電腦安裝OFFICE2007和PDF閱讀器。圖紙軟件為CAD,CAXA,PROE,UG,SolidWorks等.壓縮文件請(qǐng)下載最新的WinRAR軟件解壓。
- 2. 本站的文檔不包含任何第三方提供的附件圖紙等,如果需要附件,請(qǐng)聯(lián)系上傳者。文件的所有權(quán)益歸上傳用戶所有。
- 3. 本站RAR壓縮包中若帶圖紙,網(wǎng)頁(yè)內(nèi)容里面會(huì)有圖紙預(yù)覽,若沒(méi)有圖紙預(yù)覽就沒(méi)有圖紙。
- 4. 未經(jīng)權(quán)益所有人同意不得將文件中的內(nèi)容挪作商業(yè)或盈利用途。
- 5. 人人文庫(kù)網(wǎng)僅提供信息存儲(chǔ)空間,僅對(duì)用戶上傳內(nèi)容的表現(xiàn)方式做保護(hù)處理,對(duì)用戶上傳分享的文檔內(nèi)容本身不做任何修改或編輯,并不能對(duì)任何下載內(nèi)容負(fù)責(zé)。
- 6. 下載文件中如有侵權(quán)或不適當(dāng)內(nèi)容,請(qǐng)與我們聯(lián)系,我們立即糾正。
- 7. 本站不保證下載資源的準(zhǔn)確性、安全性和完整性, 同時(shí)也不承擔(dān)用戶因使用這些下載資源對(duì)自己和他人造成任何形式的傷害或損失。
最新文檔
- 2024全新房地產(chǎn)開(kāi)發(fā)顧問(wèn)勞動(dòng)合同范本3篇
- 2024年度水產(chǎn)購(gòu)買合同樣本2篇
- 2024年度離婚協(xié)議書(shū)起草:財(cái)產(chǎn)分割與子女權(quán)益2篇
- 2024版醫(yī)療衛(wèi)生行業(yè)就業(yè)實(shí)習(xí)管理協(xié)議2篇
- 2024年度體育賽事居間代理合同樣式3篇
- 2024年度自媒體賬號(hào)競(jìng)技比賽贊助合同3篇
- 2024年度音樂(lè)制作演唱會(huì)承辦合同3篇
- 2024年度網(wǎng)絡(luò)信息安全軟件售后服務(wù)保障承諾3篇
- 2024年標(biāo)準(zhǔn)版勞務(wù)承攬合同樣本版B版
- 2024年度木地板售后服務(wù)與維修保障合同2篇
- ISO13485質(zhì)量手冊(cè)+全套程序文件
- 人教版數(shù)學(xué)八年級(jí)上冊(cè)15.2.2.1《分式的加減》說(shuō)課稿1
- 宴會(huì)廳租賃合同
- AQ/T 2080-2023 金屬非金屬地下礦山在用人員定位系統(tǒng)安全檢測(cè)檢驗(yàn)規(guī)范(正式版)
- 事業(yè)編藥學(xué)類考試真題
- 蛋白質(zhì)組學(xué)知識(shí)考試題庫(kù)與答案
- 紅色文化教育教案與反思(3篇模板)
- JTT 1499-2024 公路水運(yùn)工程臨時(shí)用電技術(shù)規(guī)程(正式版)
- 職教高考數(shù)學(xué)復(fù)習(xí)8-4圓的方程教學(xué)課件
- 工業(yè)互聯(lián)網(wǎng)企業(yè)網(wǎng)絡(luò)安全 第4部分:數(shù)據(jù)防護(hù)要求
- 新疆伊犁哈薩克自治州2023-2024學(xué)年八年級(jí)下學(xué)期期中語(yǔ)文試題
評(píng)論
0/150
提交評(píng)論