版權(quán)說明:本文檔由用戶提供并上傳,收益歸屬內(nèi)容提供方,若內(nèi)容存在侵權(quán),請進行舉報或認領(lǐng)
文檔簡介
試卷科目:人工智能機器學(xué)習(xí)技術(shù)練習(xí)人工智能機器學(xué)習(xí)技術(shù)練習(xí)(習(xí)題卷2)PAGE"pagenumber"pagenumber/SECTIONPAGES"numberofpages"numberofpages人工智能機器學(xué)習(xí)技術(shù)練習(xí)第1部分:單項選擇題,共62題,每題只有一個正確答案,多選或少選均不得分。[單選題]1.分類模型在進行訓(xùn)練時需要()A)訓(xùn)練集B)訓(xùn)練集與測試集C)訓(xùn)練集、驗證集、測試集答案:C解析:[單選題]2.典型的分類算法是()A)決策樹B)k-meansC)BIRCH答案:A解析:[單選題]3.假如我們使用Lasso回歸來擬合數(shù)據(jù)集,該數(shù)據(jù)集輸入特征有100個(X1,X2,…,X100)?,F(xiàn)在,我們把其中一個特征值擴大10倍(如特征X1),然后用相同的正則化參數(shù)對Lasso回歸進行修正。那么,下列說法正確的是()。A)特征X1很可能被排除在模型之外B)特征X1很可能還包含在模型之中C)無法確定特征X1是否被舍D)以上答案都不正確答案:B解析:將特征X1數(shù)值擴大10倍,它對應(yīng)的回歸系數(shù)將相應(yīng)會減小,但不為0,仍然滿足β的正則化約束,因此可能還包含在模型之中。[單選題]4.關(guān)于預(yù)處理的說法中,下列選項中描述不正確是()。A)concat()函數(shù)可以沿著一條軸將多個對象進行堆疊B)merge()函數(shù)可以根據(jù)一個或多個鍵將不同的DataFrame進行合并C)可以使用rename()方法對索引進行重命名操作D)unstack()方法可以將列索引旋轉(zhuǎn)為行索引答案:D解析:unstack()方法可以將行索引旋轉(zhuǎn)為列索引。[單選題]5.對Boosting模型的描述錯誤的是A)采用串行訓(xùn)練模式B)增加被錯誤分類樣本的權(quán)值C)通過改變訓(xùn)練集進行有針對性的學(xué)習(xí)D)基礎(chǔ)分類器采用少數(shù)服從多數(shù)原則進行集成答案:D解析:[單選題]6.(__)度量了學(xué)習(xí)算法的期望預(yù)測與真實結(jié)果的偏離程度。A)偏差B)方差C)均方差D)泛化誤差答案:A解析:[單選題]7.下面列出特征選擇算法中,不屬于啟發(fā)式搜索的有()A)分支限界搜索B)序列前向選擇搜索C)增L去R搜索D)序列浮動選擇搜索答案:A解析:[單選題]8.下面關(guān)于機器學(xué)習(xí)相關(guān)描述不正確的有(__)。A)機器學(xué)習(xí)的主要議題是如何實現(xiàn)和優(yōu)化機器的自我學(xué)習(xí)B)機器學(xué)習(xí)的基本思路是以訓(xùn)練集為輸入,通過機器學(xué)習(xí)算法讓機器學(xué)習(xí)到能夠處理更多數(shù)據(jù)的能力C)AlphaGo的核心技術(shù)是深度學(xué)習(xí)與增強學(xué)習(xí)D)機器學(xué)習(xí)的只能是預(yù)定義的答案:D解析:[單選題]9.下面屬于Bagging方法的特點是()A)構(gòu)造訓(xùn)練集時采用Bootstraping的方式B)每一輪訓(xùn)練時樣本權(quán)重不同C)分類器必須按順序訓(xùn)練D)預(yù)測結(jié)果時,分類器的比重不同答案:A解析:[單選題]10.在使用軟間隔支持向量機(SVM)時,對于線性不可分數(shù)據(jù)集,線性支持向量機對每個樣本點引進松弛變量,放寬約束條件。為了使這種放寬適度,需要對每一個進行一個代價為的?懲罰?。關(guān)于懲罰系數(shù)C,正確的說法有:A)懲罰系數(shù)C越小,對于錯誤分類的懲罰越重B)懲罰系數(shù)C越大,對于錯誤分類的懲罰越重C)懲罰系數(shù)C越小越好D)懲罰系數(shù)C越大越好答案:B解析:[單選題]11.根據(jù)_______,目前的集成學(xué)習(xí)方法大致可分為兩大類,即個體學(xué)習(xí)器間存在強依賴關(guān)系、必須串行生成的序列化方法,以及個體學(xué)習(xí)器間不存在強依賴關(guān)系、可同時生成的并行化方法。A)個體學(xué)習(xí)器的數(shù)量B)個體學(xué)習(xí)器的生成方式C)個體學(xué)習(xí)器的的類型D)個體學(xué)習(xí)器的的強弱答案:B解析:[單選題]12.()的系數(shù)沒有封閉形式(closed-form)的解。A)Ridge回歸B)LassoC)Ridge回歸和LassoD)以上答案都不正確答案:B解析:Ridge回歸是一般的線性回歸再加上L2正則項,它具有封閉形式的解,可以基于最小二乘法求解。[單選題]13.與k均值算法類似,(__)也是試圖找到一組原型向量來刻畫聚類結(jié)構(gòu),但與一般聚類方法不同的是,該算法假設(shè)數(shù)據(jù)樣本帶有類別標記,學(xué)習(xí)過程利用樣本的這些監(jiān)督信息來輔助聚類。A)高斯混合聚類密度聚類B)學(xué)習(xí)向量量化C)k均值算法D)密度聚類答案:B解析:[單選題]14.多分類學(xué)習(xí)中,最經(jīng)典的三種拆分策略不包括()。A)一對一B)一對其余C)一對多D)多對多答案:A解析:多分類學(xué)習(xí)中,最經(jīng)典的三種拆分策略包括一對多、多對多、一對其余。[單選題]15.關(guān)于降維算法中的主成分分析,()是錯誤的。A)有監(jiān)督算法B)可以指定降維的維度C)基于方差來計算D)根據(jù)特征值大小來篩選特征答案:A解析:主成分分析法屬于無監(jiān)督算法。[單選題]16.SVM(支持向量機)與LR(邏輯回歸)的數(shù)學(xué)本質(zhì)上的區(qū)別是什么?A)損失函數(shù)B)是否有核技巧C)是否支持多分類D)其余選項皆錯答案:A解析:LR的損失函數(shù)從最大似然的角度理解;SVM損失函數(shù)的原始形式則是從最大化分類間隔的角度出發(fā)。[單選題]17.TF-IDF模型中TF是指(__)。A)詞頻數(shù)B)逆文檔頻率C)詞頻率D)逆文檔頻數(shù)答案:C解析:[單選題]18.有N個樣本,一般用于訓(xùn)練,一般用于測試。若N增大,則訓(xùn)練誤差和測試誤差之間的差距會()。A)增大B)減小C)無法確定D)無明顯變化答案:B解析:增加數(shù)據(jù),能夠有效減小過擬合,減小訓(xùn)練樣本誤差和測試樣本誤差之間的差距。[單選題]19.下面符合數(shù)據(jù)產(chǎn)品鏈的有(__):1.數(shù)據(jù),2.元數(shù)據(jù),3.數(shù)據(jù)對象,4.輔助服務(wù),5.集成應(yīng)用,6.軟件系統(tǒng),7.增值服務(wù),8.基礎(chǔ)設(shè)施,9.硬件系統(tǒng)A)23657B)234C)135D)238497答案:A解析:[單選題]20.與卷積神經(jīng)網(wǎng)絡(luò)相比,循環(huán)神經(jīng)網(wǎng)絡(luò)可以學(xué)習(xí)()。A)細節(jié)信息B)文章長度C)單詞之間的長距離依賴關(guān)系D)歧義答案:C解析:[單選題]21.混合高斯聚類中,運用了以下哪種過程()A)EM算法B)集合運算C)密度可達D)樣本與集合運算答案:A解析:[單選題]22.下面有關(guān)可視化原理的說法,錯誤的是哪個()。A)可視化主要是為滿足人類決策者對視覺信息的敏感性B)可視化分析的方法論基礎(chǔ)是視覺隱喻,可以對數(shù)據(jù)進行一定的抽象表示C)高維數(shù)據(jù)可視化需要對數(shù)據(jù)進行變換,抽取有效特征,從而降低維度D)餅圖可分析數(shù)據(jù)變化的趨勢答案:D解析:[單選題]23.決策樹的生成是一個__過程。A)聚類B)回歸C)遞歸D)KNN答案:C解析:[單選題]24.當(dāng)訓(xùn)練一個神經(jīng)網(wǎng)絡(luò)來作圖像識別任務(wù)時,通常會繪制一張訓(xùn)練集誤差和驗證集誤差圖來進行調(diào)試。在下圖中,最好在哪個時間停止訓(xùn)練()A)AB)BC)CD)D答案:C解析:[單選題]25.下面不屬于數(shù)據(jù)歸約方法有(__)。A)維歸約B)度歸約C)值歸約D)數(shù)據(jù)壓縮答案:B解析:[單選題]26.K-Means(聚類)算法基于距離來度量實例間的相似程度(與kNN算法一樣),然后把較為相似的實例劃分到同一簇。下列說法中,不正確的是:A)聚類屬于有監(jiān)督式學(xué)習(xí)B)聚類屬于無監(jiān)督式學(xué)習(xí)C)K-Means算法基于距離來度量實例間的相似程度,通過對無標記樣本的學(xué)習(xí)來揭示蘊含于數(shù)據(jù)中的性質(zhì)及規(guī)律D)聚類算法的任務(wù)是根據(jù)數(shù)據(jù)特征將數(shù)據(jù)集相似的數(shù)據(jù)劃分到同一簇答案:A解析:[單選題]27.GRAY灰度圖像的通道數(shù)為()。A)0B)1C)2D)3答案:B解析:[單選題]28.下面關(guān)于數(shù)據(jù)粒度的描述不正確的是:A)粒度是指數(shù)據(jù)倉庫小數(shù)據(jù)單元的詳細程度和級別;B)數(shù)據(jù)越詳細,粒度就越小,級別也就越高;C)數(shù)據(jù)綜合度越高,粒度也就越大,級別也就越高;D)粒度的具體劃分將直接影響數(shù)據(jù)倉庫中的數(shù)據(jù)量以及查詢質(zhì)量.答案:C解析:[單選題]29.假負率是指()。A)正樣本預(yù)測結(jié)果數(shù)/正樣本實際數(shù)B)被預(yù)測為負的正樣本結(jié)果數(shù)/正樣本實際數(shù)C)被預(yù)測為正的負樣本結(jié)果數(shù)/負樣本實際數(shù)D)負樣本預(yù)測結(jié)果數(shù)/負樣本實際數(shù)答案:B解析:[單選題]30.OpenCV中的CV指的是()A)開B)開源C)計算機D)計算機視覺答案:D解析:[單選題]31.()算法可以用于特征選擇。A)樸素貝葉斯B)感知器C)支持向量機D)決策樹答案:D解析:使用決策樹也可以計算每個特征的相對重要性。這些重要性能夠輔助進行特征選擇。[單選題]32.測試集應(yīng)盡可能與訓(xùn)練集__。A)相容B)相等C)互斥D)包含答案:C解析:[單選題]33.當(dāng)訓(xùn)練集特征非常多,而實例非常少的時候,可以采用()。A)sigmoid核的支持向量機B)不帶核的支持向量機C)高斯核的支持向量機D)多項式核的支持向量機答案:B解析:當(dāng)不采用非常復(fù)雜的函數(shù),或者當(dāng)我們的訓(xùn)練集特征非常多但是實例非常少的時候,可以采用不帶核函數(shù)的支持向量機。[單選題]34.下列核函數(shù)特性描述錯誤的是A)只要一個對稱函數(shù)所對應(yīng)的核矩陣半正定,就能稱為核函數(shù);B)核函數(shù)選擇作為支持向量機的最大變數(shù);C)核函數(shù)將影響支持向量機的性能;D)核函數(shù)是一種降維模型;答案:D解析:[單選題]35.以下哪個不是HDFS的守護進程?A)secondarynamenodeB)datanodeC)mrappmaster/yarnchildD)namenode答案:C解析:[單選題]36.雙邊濾波能夠較好的保留圖像的(__)。A)邊緣信息B)色彩信息C)亮度信息D)高頻信息答案:A解析:[單選題]37.Zookeeper在config命名空間下,每個znode最多能存儲()數(shù)據(jù)?A)1MB)16MC)512KD)64K答案:A解析:[單選題]38.假設(shè)在龐大的數(shù)據(jù)集上使用Logistic回歸模型,可能遇到一個問題,Logistic回歸需要很長時間才能訓(xùn)練,如果對相同的數(shù)據(jù)進行邏輯回歸,則花費更少的時間,并給出比較相似的精度的方法是()。A)降低學(xué)習(xí)率,減少選代次數(shù)B)降低學(xué)習(xí)率,增加迭代次數(shù)C)提高學(xué)習(xí)率,增加迭代次數(shù)D)增加學(xué)習(xí)率,減少迭代次數(shù)答案:D解析:如果在訓(xùn)練時減少選代次數(shù),就能花費更少的時間獲得相同的精度,但需要增加學(xué)習(xí)率。[單選題]39.假定你現(xiàn)在訓(xùn)練了一個線性SVM并推斷出這個模型出現(xiàn)了欠擬合現(xiàn)象,在下一次訓(xùn)練時,應(yīng)該采取的措施是()。A)增加數(shù)據(jù)點B)減少數(shù)據(jù)點C)增加特征D)減少特征答案:C解析:欠擬合是指模型擬合程度不高,數(shù)據(jù)距離擬合曲線較遠,或指模型沒有很好地捕捉到數(shù)據(jù)特征,不能夠很好地擬合數(shù)據(jù)。可通過增加特征解決。[單選題]40.()對應(yīng)于決策樹結(jié)果,其他節(jié)點對應(yīng)于()。A)葉節(jié)點,屬性測試B)根結(jié)點,學(xué)習(xí)測試C)內(nèi)部節(jié)點,學(xué)習(xí)測試D)葉節(jié)點,分類測試答案:A解析:決簧樹包含一個根節(jié)點、若子內(nèi)部節(jié)點和若干葉節(jié)點。葉節(jié)點對應(yīng)于決策結(jié)果,其他每個節(jié)點則對應(yīng)于一個屬性測試。[單選題]41.這是第25道,也是最后一道。請估算一下,包括本題在內(nèi),這25道題干及選項總共大約有多少個字符?A)500B)1000C)2000D)4000答案:C解析:[單選題]42.行業(yè)應(yīng)用解決的是行業(yè)()問題,并為企業(yè)應(yīng)用提供基礎(chǔ)平臺。A)單一B)共性C)基礎(chǔ)D)根本答案:B解析:[單選題]43.二分類任務(wù)中,有三個分類器h1,h2,h3,三個測試樣本x1,x2,x3。假設(shè)1表示分類結(jié)果正確,0表示錯誤,h1在x1,x2,x3的結(jié)果分別(1,1,0),h2,h3分別為(0,1,1),(1,0,1),按投票法集成三個分類器,下列說法正確的是()(注:0,1不是類別標簽,而是模型預(yù)測結(jié)果是正確還是錯誤的意思)A)集成提高了性能B)集成沒有效果C)集成降低了性能D)集成效果不能確定答案:A解析:[單選題]44.關(guān)于維數(shù)災(zāi)難說法錯誤的是?A)高維度數(shù)據(jù)可使得算法泛華能力變得越來越弱B)降低高維度數(shù)據(jù)會對數(shù)據(jù)有所損傷C)高維度數(shù)據(jù)增加了運算難度D)高維度數(shù)據(jù)難以可視化答案:A解析:[單選題]45.分詞中的正向最大匹配算法是(__)掃描字符串。A)從左到右B)從右到左C)兩邊同時進行D)從一個指定的字符發(fā)散答案:A解析:[單選題]46.TF-IDF與一個詞在文檔中的出現(xiàn)次數(shù)成(__)。A)正比B)反比C)無關(guān)D)冪次答案:A解析:[單選題]47.一般,k-NN最近鄰方法在()的情況下效果較好A)樣本較多但典型性不好B)樣本較少但典型性好C)樣本呈團狀分布D)樣本呈鏈狀分布答案:B解析:[單選題]48.在標準化公式中,使用ε的目的是(D)A)為了加速收斂B)如果μ過小C)使結(jié)果更準確D)防止分母為零答案:D解析:[單選題]49.數(shù)據(jù)戰(zhàn)略的目標是(__)。A)數(shù)據(jù)本身的管理B)培育數(shù)據(jù)驅(qū)動組織或文化C)增強組織機構(gòu)的敏捷性D)提高組織機構(gòu)的核心競爭力答案:B解析:[單選題]50.樸素貝葉斯的訓(xùn)練過程就是基于訓(xùn)練集D來估計類的()P(c),并為每個屬性估計條件概率A)后驗概率B)先驗概率C)條件概率D)聯(lián)合概率答案:B解析:[單選題]51.下列圖象邊緣檢測算子中抗噪性能最好的是︰()A)梯度算子B)Prewitt算子C)Roberts算子D)Laplacian算子答案:B解析:[單選題]52.規(guī)則生成本質(zhì)上是一個貪心搜索的過程,須有一定的機制來緩解過擬合的風(fēng)險,最常見的做法是A)序列化B)剪枝C)去重D)重組答案:B解析:[單選題]53.(__)主要面向自然科學(xué),尤其是地理、物理、化學(xué)、醫(yī)學(xué)等領(lǐng)域。A)信息可視化B)科學(xué)可視化C)可視分析學(xué)D)數(shù)據(jù)可視化答案:B解析:[單選題]54.以下()包提供了靈活高效的groupby功能,它使操作者能以一種自然的方式對數(shù)據(jù)進行切片,切塊,摘要等操作。A)PandasB)MatplotlibC)NumPyD)sklearn答案:A解析:[單選題]55.以下描述正確的是(__)。A)客戶代表的是項目的最終利益和目的B)項目經(jīng)理是項目的實際管理者C)項目發(fā)起人是項目的投資者D)數(shù)據(jù)工程師負責(zé)在軟/硬件上部署和實施數(shù)據(jù)科學(xué)家提出的方法和技術(shù)方案答案:A解析:[單選題]56.協(xié)同過濾算法解決的是數(shù)據(jù)挖掘中的哪類問題?()A)分類問題B)聚類問題C)推薦問題D)自然語言處理問題答案:C解析:[單選題]57.用于產(chǎn)生詞嵌入的單向語言模型A)BERTB)GPTC)ELMoD)Word2Vec答案:B解析:[單選題]58.根據(jù)DIKW信息、數(shù)據(jù)、知識、智慧模型,以下說法錯誤的是A)數(shù)據(jù)是記錄下來可以被鑒別的符號,它是最原始的素材,未被加工解釋,沒有回答特定的問題,沒有任何意義B)信息是已經(jīng)被處理、具有邏輯關(guān)系的數(shù)據(jù),是對數(shù)據(jù)的解釋,這種信息對其接收者具有意義C)知識是從相關(guān)信息中過濾、提煉及加工而得到的有用資料,不能從知識中產(chǎn)生新的知識D)智慧是人類所表現(xiàn)出來的一種獨有的能力,主要表現(xiàn)為收集、加工、應(yīng)用、傳播知識的能力,以及對事物發(fā)展的前瞻性看法答案:C解析:第2部分:多項選擇題,共17題,每題至少兩個正確答案,多選或少選均不得分。[多選題]59.在機器學(xué)習(xí)中,如果單純?nèi)ヌ岣哂?xùn)練數(shù)據(jù)的預(yù)測能力,所選模型的復(fù)雜度往往會很高,這種現(xiàn)象稱為過擬合,可以有效解決過擬合的方法包括A)增加樣本數(shù)量B)增加特征數(shù)量C)訓(xùn)練更多的迭代次數(shù)D)采用正則化方法答案:AD解析:[多選題]60.假如使用一個較復(fù)雜的回歸模型來擬合樣本數(shù)據(jù),使用嶺回歸,調(diào)試正則化參數(shù)λ,來降低模型復(fù)雜度。若λ較大時,關(guān)于偏差()和方差(variance),下列說法正確的是(C)A)若λ較大時,偏差減小,方差減小B)若λ較大時,偏差減小,方差增大C)若λ較大時,偏差增大,方差減小D)若λ較大時,偏差增大,方差增大答案:AB解析:[多選題]61.從理論上講數(shù)據(jù)能力評價方法有(__)。A)評價理論B)評價結(jié)果C)評價過程D)評價質(zhì)量答案:BC解析:[多選題]62.常用的標準化方法()A)min-max標準化B)Z變換C)比例變換D)等寬分箱答案:ABC解析:[多選題]63.實現(xiàn)人工神經(jīng)元的方法有(__)。A)感知器B)線性單元C)SIGMOD單元D)決策單元答案:ABC解析:[多選題]64.數(shù)據(jù)集成需要注意的三個基本問題有(__)。A)模式集成B)數(shù)據(jù)冗余C)沖突檢測和消除D)數(shù)據(jù)錯誤答案:ABC解析:[多選題]65.以下說法中正確的是()A)SVM對噪聲(如來自其他分布的噪聲樣本)魯棒B)在AdaBoost算法中,所有被分錯的樣本的權(quán)重更新比例相同C)Boosting和Bagging都是組合多個分類器投票的方法,二者都是根據(jù)單個分類器的正確率決定其權(quán)重D)給定n個數(shù)據(jù)點,如果其中一半用于訓(xùn)練,一般用于測試,則訓(xùn)練誤差和測試誤差之間的差別會隨著n的增加而減少答案:BD解析:[多選題]66.Analytics1.0的主要特點有().A)分析活動滯后于數(shù)據(jù)的生成。B)重視結(jié)構(gòu)化數(shù)據(jù)的分析。C)以對歷史數(shù)據(jù)的理解為主要目的。D)注重描述性分析。答案:ABCD解析:[多選題]67.大數(shù)據(jù)?涌現(xiàn)?現(xiàn)象有()。A)價值涌現(xiàn)B)質(zhì)量涌現(xiàn)C)隱私涌現(xiàn)D)數(shù)量涌現(xiàn)答案:ABC解析:[多選題]68.()是通過對無標記訓(xùn)練樣本的學(xué)習(xí)來進行分類的。A)密度估計B)異常檢測C)線性回歸D)聚類分析答案:ABD解析:[多選題]69.根據(jù)邊的性質(zhì)不同,概率圖模型可大致分為兩類:第一類是使用有向無環(huán)圖表示變量間的依賴關(guān)系,稱為();第二類是使用無向圖表示變量間的相關(guān)關(guān)系,稱為()。A)有向圖模型B)貝葉斯網(wǎng)C)無向圖模型D)馬爾可夫網(wǎng)答案:ABCD解析:[多選題]70.卷積神經(jīng)網(wǎng)絡(luò)可以用于()。A)圖像分類B)目標提取C)圖像分割D)中文分詞答案:ABC解析:[多選題]71.兩種代表性的精確推斷方法為A)變量消去B)信念傳播C)近似推斷D)近似推測答案:AB解析:[多選題]72.隱馬爾科夫模型和馬爾科夫隨機場都是(__)模型,而(__)是判別式模型。A)生成式模型B)隨機模型C)條件隨機場D)感知機模型答案:AC解析:[多選題]73.統(tǒng)計模式分類問題中,當(dāng)先驗概率未知時,可以使用()。A)最小最大損失準則B)最小誤判概率準則C)最小損失準則D)N-P判決答案:AD解析:[多選題]74.下列屬于Apriori算法特定的是(__)。A)使用先驗性質(zhì),大大提高了頻繁項集逐層產(chǎn)生的效率B)簡單易理解C)數(shù)據(jù)集要求高D)擴展性較好,可以并行計算答案:ABD解析:[多選題]75.(__)不屬于元分析方法。A)加權(quán)平均法B)優(yōu)化方法C)時序法D)關(guān)聯(lián)法答案:CD解析:第3部分:判斷題,共12題,請判斷題目是否正確。[判斷題]76.如果兩個數(shù)組的形狀不同,則它們是無法執(zhí)行算術(shù)運算的。A)正確B)錯誤答案:錯解析:當(dāng)數(shù)組滿足某一維度等長或滿足其中一個數(shù)組為一維數(shù)組時,便可以通過廣播機制進行運算。[判斷題]77.貝葉斯決策論是概率框架下實施決策的基本方法,它是決策論+概率論的組合A)正確B)錯誤答案:對解析:[判斷題]78.?L2正則化往往用于防止過擬合,而L1正則化往往用于特征選擇。A)正確B)錯誤答案:對解析:[判斷題]79.計算學(xué)習(xí)理論目的分析學(xué)習(xí)任務(wù)的困難本質(zhì),為學(xué)習(xí)算法提供理論保證,并根據(jù)分析結(jié)果知道算法設(shè)計A)正確B)錯誤答案:對解析:[判斷題]80.kNN算法的思想就是,物以類聚人以群分,即相似的人和物會相聚在一起A)正確B)錯誤答案:對解析:[判斷題]81.若不與專家交互,沒有獲得額外信息,還能利用未標記樣本來提高泛化性能嗎A)正確B)錯誤答案:對解析:[判斷題]82.當(dāng)損失函數(shù)很不規(guī)則時(存在多個局部最小值)時,相對批量梯度下降算法,隨機梯度下降算法更有可能跳過局部最小值,最終接近全局最小值A(chǔ))正確B)錯誤答案:對解析:[判斷題]83.梯度下降的中心思想就是迭代地調(diào)整參數(shù)從而使損失函數(shù)最小化A)正確B)錯誤答案:對解析:[判斷題]84.Dropout作用于每份小批量訓(xùn)練數(shù)據(jù),由于其隨機丟棄部分神經(jīng)元的機制,相當(dāng)于每次迭代都在訓(xùn)練不同結(jié)構(gòu)的神經(jīng)網(wǎng)絡(luò)。()A)正確B)錯誤答案:對解析:[判斷題]85.調(diào)用sklearn中的train_test_split函數(shù)將數(shù)據(jù)集切分為訓(xùn)練集和測試集。訓(xùn)練集與測試集比例為7:3。最合適的代碼為X_train,X_test,y_train,y_test=train_test_split(X,y,test_size=0.7)A)正確B)錯誤答案:錯解析:[判斷題]86.類腦人工智能及人工神經(jīng)網(wǎng)絡(luò)只是智能的一種形式A)正確B)錯誤答案:對解析:[判斷題]87.最近鄰分離器的泛化錯誤率不會超過貝葉斯最優(yōu)分類器錯誤率的兩倍A)正確B)錯誤答案:對解析:第4部分:問答題,共9題,請在空白處填寫正確答案。[問答題]88.標準梯度下降法若誤差曲面存在多個局部最小值,那么標準梯度模型可能找不到()。答案:全局最小值解析:[問答題]89.什么是過學(xué)習(xí)、過擬合?答案:P102解析:[問答題]90.是說,若有多個假設(shè)與觀察一致,則選擇最簡單的那個答案:奧卡姆剃刀解析:[問答題]91.LDA算法設(shè)法將樣例投影到一條直線上,使得__________(同類/異類)樣例的投影點盡可能近。答案:同類解析:[問答題]92.支持
溫馨提示
- 1. 本站所有資源如無特殊說明,都需要本地電腦安裝OFFICE2007和PDF閱讀器。圖紙軟件為CAD,CAXA,PROE,UG,SolidWorks等.壓縮文件請下載最新的WinRAR軟件解壓。
- 2. 本站的文檔不包含任何第三方提供的附件圖紙等,如果需要附件,請聯(lián)系上傳者。文件的所有權(quán)益歸上傳用戶所有。
- 3. 本站RAR壓縮包中若帶圖紙,網(wǎng)頁內(nèi)容里面會有圖紙預(yù)覽,若沒有圖紙預(yù)覽就沒有圖紙。
- 4. 未經(jīng)權(quán)益所有人同意不得將文件中的內(nèi)容挪作商業(yè)或盈利用途。
- 5. 人人文庫網(wǎng)僅提供信息存儲空間,僅對用戶上傳內(nèi)容的表現(xiàn)方式做保護處理,對用戶上傳分享的文檔內(nèi)容本身不做任何修改或編輯,并不能對任何下載內(nèi)容負責(zé)。
- 6. 下載文件中如有侵權(quán)或不適當(dāng)內(nèi)容,請與我們聯(lián)系,我們立即糾正。
- 7. 本站不保證下載資源的準確性、安全性和完整性, 同時也不承擔(dān)用戶因使用這些下載資源對自己和他人造成任何形式的傷害或損失。
最新文檔
- YY/T 0581.2-2024輸液連接件第2部分:無針連接件
- 貴州大學(xué)《生物防治學(xué)》2023-2024學(xué)年第一學(xué)期期末試卷
- 2025年貴州省安全員《C證》考試題庫及答案
- 2025湖北建筑安全員《C證》考試題庫
- 2025山西建筑安全員《A證》考試題庫及答案
- 硅湖職業(yè)技術(shù)學(xué)院《唐詩宋詞賞析》2023-2024學(xué)年第一學(xué)期期末試卷
- 貴陽學(xué)院《物流英語》2023-2024學(xué)年第一學(xué)期期末試卷
- 2025年河北建筑安全員C證(專職安全員)考試題庫
- 2025海南省安全員考試題庫及答案
- 2025年-黑龍江省安全員《A證》考試題庫及答案
- 三支一扶協(xié)議書模板
- 燙傷的防治與護理
- 2024年全國職業(yè)院校技能大賽高職組(護理技能賽項)備賽試題庫(含答案)
- 駕駛員三年內(nèi)工作總結(jié)
- 青年你為什么要入團-團員教育主題班會-熱點主題班會課件
- 司法鑒定工作應(yīng)急預(yù)案
- 《竹結(jié)構(gòu)建筑技術(shù)規(guī)程》
- 大一中國近代史綱要期末考試試題及答案
- (完整版)鋼筋加工棚驗算
- 安徽省合肥市廬陽區(qū)2023-2024學(xué)年三年級上學(xué)期期末數(shù)學(xué)試卷
- 概念方案模板
評論
0/150
提交評論