![人工智能機(jī)器學(xué)習(xí)技術(shù)練習(xí)(習(xí)題卷28)_第1頁](http://file4.renrendoc.com/view10/M01/19/32/wKhkGWW_BiaAf9LsAAFCtPkx1Lk692.jpg)
![人工智能機(jī)器學(xué)習(xí)技術(shù)練習(xí)(習(xí)題卷28)_第2頁](http://file4.renrendoc.com/view10/M01/19/32/wKhkGWW_BiaAf9LsAAFCtPkx1Lk6922.jpg)
![人工智能機(jī)器學(xué)習(xí)技術(shù)練習(xí)(習(xí)題卷28)_第3頁](http://file4.renrendoc.com/view10/M01/19/32/wKhkGWW_BiaAf9LsAAFCtPkx1Lk6923.jpg)
![人工智能機(jī)器學(xué)習(xí)技術(shù)練習(xí)(習(xí)題卷28)_第4頁](http://file4.renrendoc.com/view10/M01/19/32/wKhkGWW_BiaAf9LsAAFCtPkx1Lk6924.jpg)
![人工智能機(jī)器學(xué)習(xí)技術(shù)練習(xí)(習(xí)題卷28)_第5頁](http://file4.renrendoc.com/view10/M01/19/32/wKhkGWW_BiaAf9LsAAFCtPkx1Lk6925.jpg)
版權(quán)說明:本文檔由用戶提供并上傳,收益歸屬內(nèi)容提供方,若內(nèi)容存在侵權(quán),請進(jìn)行舉報(bào)或認(rèn)領(lǐng)
文檔簡介
試卷科目:人工智能機(jī)器學(xué)習(xí)技術(shù)練習(xí)人工智能機(jī)器學(xué)習(xí)技術(shù)練習(xí)(習(xí)題卷28)PAGE"pagenumber"pagenumber/SECTIONPAGES"numberofpages"numberofpages人工智能機(jī)器學(xué)習(xí)技術(shù)練習(xí)第1部分:單項(xiàng)選擇題,共58題,每題只有一個(gè)正確答案,多選或少選均不得分。[單選題]1.分類的類別標(biāo)簽列是()A)類別數(shù)值B)類別的不同C)具有次序、大小的意義答案:B解析:[單選題]2.混淆矩陣對角線上的值()A)越大越好B)越小越好C)無所謂大小答案:A解析:[單選題]3.下列屬于非線性分類方法的是()A)最小距離分類器B)線性鑒別分析C)感知機(jī)D)核SVM答案:D解析:[單選題]4.以下對Velocity相關(guān)描述不正確的是()。A)Velocity是指速度快B)實(shí)時(shí)分析數(shù)據(jù)處理要求速度快C)大數(shù)據(jù)中所說的?速度?包括兩種:增長速度和處理速度D)通常而言,處理速度比增長速度快答案:D解析:[單選題]5.對于以下代碼,Char*p=newchar[100];正確的是A)p和new出來的內(nèi)存都在棧上B)p和new出來的內(nèi)存都在堆上C)p在堆上,new出來的在棧上D)p在棧上,new出來的在堆上答案:D解析:[單選題]6.以下有關(guān)可視化認(rèn)識(shí)錯(cuò)誤的是哪個(gè)()。A)可視化是簡單地把原始的數(shù)據(jù)用圖的形式展示出來的方法B)可視化可以作為數(shù)據(jù)預(yù)處理的一種方法,找出其中的噪聲C)可視化本身是一種數(shù)據(jù)分析方法,使用圖表把數(shù)據(jù)中隱藏的規(guī)律展示出來D)通過數(shù)據(jù)的可視化,可以促進(jìn)數(shù)據(jù)分析人員對數(shù)據(jù)的認(rèn)識(shí)和規(guī)律發(fā)現(xiàn)答案:A解析:[單選題]7.歸納推理是()推理A)從一般到個(gè)別B)從個(gè)別到一般C)從個(gè)別到個(gè)別D)從一般到一般答案:B解析:[單選題]8.()是指數(shù)據(jù)減去一個(gè)總括統(tǒng)計(jì)量或模型擬合值時(shí)的殘余部分A)極值B)標(biāo)準(zhǔn)值C)平均值D)殘值答案:D解析:殘值在數(shù)理統(tǒng)計(jì)中是指實(shí)際觀察值與估計(jì)值(擬合值)之間的差。[單選題]9.以下哪種方法會(huì)增加模型的欠擬合風(fēng)險(xiǎn)()A)添加新特征B)增加模型復(fù)雜度C)減小正則化系數(shù)D)數(shù)據(jù)增強(qiáng)答案:D解析:[單選題]10.(__)是在不影響數(shù)據(jù)分析結(jié)果準(zhǔn)確性的前提下,對原始數(shù)據(jù)進(jìn)行一定的變換操作,對其中的個(gè)人(組織)敏感數(shù)據(jù)進(jìn)行替換或刪除操作。A)數(shù)據(jù)加工B)數(shù)據(jù)保護(hù)C)數(shù)據(jù)脫敏D)數(shù)據(jù)清洗答案:C解析:[單選題]11.下面不屬于NewSQL的有(__)。A)memsqlB)trafodionC)mariaDBD)objectivity答案:D解析:[單選題]12.KNN算法屬于一種典型的()算法A)監(jiān)督學(xué)習(xí)B)無監(jiān)督學(xué)習(xí)C)半監(jiān)督學(xué)習(xí)D)弱監(jiān)督學(xué)習(xí)答案:A解析:[單選題]13.梯度下降算法的正確步驟是(1計(jì)算預(yù)測值和真實(shí)值之間的誤差2迭代更新,直到找到最佳權(quán)重參數(shù)3把輸入傳入網(wǎng)絡(luò),得到輸出值4初始化權(quán)重和偏差⑤對每個(gè)產(chǎn)生誤差的神經(jīng)元,改變對應(yīng)的權(quán)重值以減小誤差A(yù))1234⑤B)54321C)431⑤②D)321⑤4答案:C解析:[單選題]14.多層感知機(jī)方法中,可用作神經(jīng)元的非線性激活函數(shù)()A)logistic函數(shù)B)范數(shù)C)線性內(nèi)積D)加權(quán)求和答案:A解析:[單選題]15.以下描述中不正確的是(___)。A)歸納是指從特殊到一般的泛化過程B)歸納是指從具體的事實(shí)歸結(jié)出一般性規(guī)律C)演繹是指從特殊到一般的特化過程D)演繹是指從基礎(chǔ)原理推演出具體情況答案:C解析:[單選題]16.下列關(guān)于半樸素貝葉斯描述錯(cuò)誤的為A)假設(shè)屬性之間完全獨(dú)立;B)假設(shè)屬性之間部分相關(guān);C)獨(dú)依賴估計(jì)為半樸素貝葉斯最常用的策略;D)假設(shè)所以屬性都依賴于同一個(gè)屬性;答案:A解析:[單選題]17.(__)采用概率模型來表達(dá)聚類原型。A)k均值算法B)學(xué)習(xí)向量量化C)高斯混合聚類密度聚類D)密度聚類答案:C解析:[單選題]18.(__)可以理解為對數(shù)據(jù)管理的管理。A)數(shù)據(jù)治理B)數(shù)據(jù)統(tǒng)治C)數(shù)據(jù)宰相D)數(shù)據(jù)戰(zhàn)略答案:A解析:[單選題]19.下面的代碼中,不是用來用來評價(jià)所訓(xùn)練模型的預(yù)測準(zhǔn)確性的是:A)fromsklearn.metricsimportmean_absolute_errorB)fromsklearn.metricsimportmean_squared_errorC)fromsklearn.model_selectionimporttrain_test_splitD)fromsklearn.metricsimportaccuracy_score答案:C解析:[單選題]20.專家系統(tǒng)中知識(shí)庫的知識(shí)可以獲取的來源是()A)領(lǐng)域?qū)<褺)專家系統(tǒng)的用戶C)計(jì)算機(jī)系統(tǒng)管理員D)專家系統(tǒng)程序的開發(fā)者答案:A解析:[單選題]21.在k均值算法中,假定聚類簇?cái)?shù)k=3,則在算法開始時(shí)隨機(jī)選?。╛_)個(gè)樣本作為初始均值向量A)1B)2C)3D)任意答案:C解析:[單選題]22.sparks中默認(rèn)的存儲(chǔ)級別()。A)MEMORY_ONLYB)MEMORY_ONLY_SERC)MEMORY_AND_DISKD)MEMORY_AND_DISK_SER答案:A解析:[單選題]23.在非均等代價(jià)下,希望最小化__。A)召回率B)錯(cuò)誤率C)錯(cuò)誤次數(shù)D)總體代價(jià)答案:D解析:[單選題]24.有關(guān)深度學(xué)習(xí)加速芯片,以下的說法中不正確的是:()A)GPU既可以做游戲圖形加速,也可以做深度學(xué)習(xí)加速B)用于玩游戲的高配置顯卡,也可以用于深度學(xué)習(xí)計(jì)算。C)GoogleTPU已經(jīng)發(fā)展了三代,它們只能用于推斷(Inference)計(jì)算,不能用于訓(xùn)練(Training)計(jì)算D)FPGA最早是作為CPLD的競爭技術(shù)而出現(xiàn)的答案:C解析:[單選題]25.隨機(jī)森林是()分類方法中最具代表性的一個(gè)。A)串行B)并聯(lián)C)串聯(lián)D)并行答案:D解析:[單選題]26.BP神經(jīng)網(wǎng)絡(luò)的學(xué)習(xí)規(guī)則是()A)梯度上升法B)梯度下降法C)梯度提升法D)梯度曲線法答案:B解析:[單選題]27.列表a=[1,2,[3,4]],以下的運(yùn)算結(jié)果為True的是()。A)length(a)==3B)len(a)==4C)len(a)==3D)length(a)==4答案:C解析:[單選題]28.下圖中,主成分的最佳數(shù)目是多少?A)10B)20C)30D)無法確定答案:C解析:本題考查的是PCA的基本概念。顯然,當(dāng)主成分?jǐn)?shù)目為30的時(shí)候,積累的方差比例最大。[單選題]29.()算法是決策樹學(xué)習(xí)的基本算法,其他多數(shù)決策樹學(xué)習(xí)方法都是它的變體。A)Find-SB)KNNC)概念D)ID3答案:D解析:[單選題]30.線性模型有很好的(__)。A)可描述性B)分類結(jié)果C)可解釋性D)聚類結(jié)果答案:C解析:[單選題]31.若對于數(shù)據(jù)分布D和概率密度函數(shù)p(?),錯(cuò)誤率與精度可分別描述為(__)。A)若測試數(shù)據(jù)集的精度高或錯(cuò)誤率小,則模型的泛化能力強(qiáng);反之,則泛化能力弱。B)若測試數(shù)據(jù)集的精度低或錯(cuò)誤率小,則模型的泛化能力強(qiáng);反之,則泛化能力弱。C)若測試數(shù)據(jù)集的精度高或錯(cuò)誤率高,則模型的泛化能力強(qiáng);反之,則泛化能力弱。D)若測試數(shù)據(jù)集的精度小或錯(cuò)誤率高,則模型的泛化能力強(qiáng);反之,則泛化能力弱。答案:A解析:[單選題]32.事件A在另外一個(gè)事件B已經(jīng)發(fā)生條件下的發(fā)生概率,稱為(__)。A)先驗(yàn)概率B)后驗(yàn)概率C)條件概率D)統(tǒng)計(jì)概率答案:C解析:[單選題]33.下列關(guān)于TF-IDF說法正確的是?A)該值與特征項(xiàng)在文檔中出現(xiàn)的頻率成反比B)該值與特征項(xiàng)在文檔中出現(xiàn)的頻率成正比C)該值與在整個(gè)語料庫中出現(xiàn)該特征項(xiàng)的文檔庫成正比D)該值與特征項(xiàng)在文檔中出現(xiàn)的頻率無關(guān)答案:B解析:[單選題]34.相關(guān)關(guān)系是指()。A)變量間的非獨(dú)立關(guān)系B)變量間的因果關(guān)系C)變量間的函數(shù)關(guān)系D)變量間不確定性的依存關(guān)系答案:D解析:[單選題]35.以下對支持向量機(jī)中的支撐向量描述正確的是()A)最大特征向量B)最優(yōu)投影向量C)最大間隔支撐面上的向量D)最速下降方向答案:C解析:[單選題]36.感知器(Perceptron)執(zhí)行任務(wù)的順序是1初始化隨機(jī)權(quán)重2得到合理權(quán)重值3如果預(yù)測值和輸出不一致,改變權(quán)重4對一個(gè)輸入樣本,計(jì)算輸出值A(chǔ))43②①B)①②34C)134②D)14③②答案:D解析:[單選題]37.下列哪項(xiàng)不是目前深度學(xué)習(xí)的必備技術(shù)()A)卷積可視化解釋B)反向傳播算法C)非線性激活函數(shù)D)深度神經(jīng)網(wǎng)絡(luò)答案:A解析:[單選題]38.(__)直接把最終將要使用的學(xué)習(xí)器的性能作為特征子集的評價(jià)標(biāo)準(zhǔn)。A)過濾式選擇B)包裹式選擇C)嵌入式選擇D)正則化答案:B解析:[單選題]39.下列直接影響傳統(tǒng)機(jī)器學(xué)習(xí)算法成敗的關(guān)鍵因素是哪個(gè)A)預(yù)處理B)后處理C)訓(xùn)練方法D)特征提取答案:D解析:[單選題]40.下列對于PCA說法:①我們須在使用PCA前標(biāo)準(zhǔn)化數(shù)據(jù);②我們應(yīng)該選擇使得模型有最大variance的主成分;③我們應(yīng)該選擇使得模型有最小variance的主成分;④我們可以使用PCA在低維度上做數(shù)據(jù)可視化。正確的是()。A)①、②、④B)②、④C)③、④D)①、③答案:A解析:須在使用PCA前標(biāo)準(zhǔn)化數(shù)據(jù),應(yīng)選擇使得模型有最大variance的主成分,PCA在低維度上做數(shù)據(jù)可視化。[單選題]41.對于非概率模型而言,可按照判別函數(shù)線性與否分成線性模型與非線性模型。下面哪個(gè)模型不屬于線性模型?A)感知機(jī)B)AdaBoostC)K-meansD)k近鄰答案:B解析:[單選題]42.增加以下哪些超參數(shù)可能導(dǎo)致隨機(jī)森林模型過擬合數(shù)據(jù)(1).決策樹的數(shù)量;(2).決策樹的深度;(3).學(xué)習(xí)率。A)(1)B)(2)C)(3)D)(2)、(3)答案:B解析:[單選題]43.以下描述不正確的是(__)。A)互動(dòng)資源結(jié)算屬于項(xiàng)目時(shí)間管理B)合同管理屬于項(xiàng)目采購管理C)效績報(bào)告屬于項(xiàng)目溝通管理D)項(xiàng)目團(tuán)隊(duì)建設(shè)屬于項(xiàng)目整體管理答案:D解析:[單選題]44.一般,K-NN最近鄰方法在什么情況下效果好()A)樣本較多但典型性不好B)樣本較少但典型性較好C)樣本呈團(tuán)狀分布D)樣本呈鏈狀分布注:最近鄰屬于分類算法,樣本多而且典型性不好容易造成分類錯(cuò)誤(尤其是在分類邊界上的樣本點(diǎn))。樣本分布對聚類算法的影響較大。答案:B解析:[單選題]45.下列關(guān)于數(shù)據(jù)轉(zhuǎn)換,正確的是()A)json內(nèi)的取值只能有統(tǒng)一格式B)pdf文件在不同平臺(tái)上打開顯示不同C)可以通過python將csv文件轉(zhuǎn)換成Excel格式D)excel存儲(chǔ)數(shù)據(jù)的量無限制答案:C解析:[單選題]46.邏輯回歸的以下模型:P(y=1|x,w)=g(w0+w1x)其中g(shù)(z)是邏輯函數(shù)。在上述等式中,通過改變參數(shù)w可以得到的P(y=1|x;w)被視為x的函數(shù)。A)(0,inf)B)(-inf,0)C)(0,1)D)(-inf,inf)答案:C解析:對于從-∞到+∞的實(shí)數(shù)范圍內(nèi)的x的值。邏輯函數(shù)將給出(0,1)的輸出。[單選題]47.下面選項(xiàng)中不是雙目攝像頭的內(nèi)參的是()。A)焦距(Focallength)B)基礎(chǔ)矩陣(Fundamentalmatrix)C)扭曲值(Distortion)D)光點(diǎn)中心(Opticalcenter)答案:B解析:[單選題]48.混合高斯聚類中,運(yùn)用了以下哪種過程()A)EM算法B)集合運(yùn)算C)密度可達(dá)D)樣本與集合運(yùn)算答案:A解析:[單選題]49.使用什么函數(shù)接收用輸入的數(shù)據(jù)()。A)accept()B)input()C)readline()D)login()答案:B解析:[單選題]50.下面哪個(gè)屬于映射數(shù)據(jù)到新的空間的方法?A)傅立葉變換B)特征加權(quán)C)漸進(jìn)抽樣D)維歸約答案:A解析:[單選題]51.在支持向量機(jī)中,軟間隔支持向量機(jī)的目標(biāo)函數(shù)比硬間隔支持向量機(jī)多了一個(gè)()。A)偏置項(xiàng)bB)系數(shù)C)松弛變量D)兩種情況的目標(biāo)函數(shù)相同答案:C解析:[單選題]52.關(guān)于ZooKeeper臨時(shí)節(jié)點(diǎn)的說法正確的是()A)創(chuàng)建臨時(shí)節(jié)點(diǎn)的命令為:create-s/tmpmyvalueB)一旦會(huì)話結(jié)束,臨時(shí)節(jié)點(diǎn)將被自動(dòng)刪除C)臨時(shí)節(jié)點(diǎn)不能手動(dòng)刪除D)臨時(shí)節(jié)點(diǎn)允許有子節(jié)點(diǎn)答案:B解析:[單選題]53.下列關(guān)于支持向量的說法,正確的是()。A)到分類超平面的距離最近的且滿足一定條件的幾個(gè)訓(xùn)練樣本點(diǎn)是支持向量B)訓(xùn)練集中的所有樣本點(diǎn)都是支持向量C)每一類樣本集中都分別只有一個(gè)支持向量D)支持向量的個(gè)數(shù)越多越好答案:A解析:在支持向量機(jī)中,距離超平面最近的且滿足一定條件的幾,個(gè)訓(xùn)練樣本點(diǎn)被稱為支持向量。一般情況下,支持向量的個(gè)數(shù)等于訓(xùn)練樣本數(shù)目,并不是越多越好。[單選題]54.下面關(guān)于SIFT特征描述錯(cuò)誤的是()?A)具有尺度不變性B)具有旋轉(zhuǎn)不變性C)檢查的是圖像中的極大極小值D)受光照變化影響大答案:D解析:[單選題]55.下面數(shù)據(jù)結(jié)構(gòu)能夠支持隨機(jī)的插入和刪除操作、并具有較好的性能的是A)鏈表和哈希表B)數(shù)組和鏈表C)哈希表和隊(duì)列D)堆棧和雙向隊(duì)列答案:A解析:[單選題]56.在構(gòu)造決策樹時(shí),以下哪種不是選擇屬性的度量的方法A)信息值B)信息增益C)信息增益率D)基尼指數(shù)答案:A解析:[單選題]57.學(xué)習(xí)器的實(shí)際預(yù)測輸出與樣本的真實(shí)輸出之間的差異稱為__。A)錯(cuò)誤率B)精度C)誤差D)查準(zhǔn)率答案:C解析:[單選題]58.假正率是指(__)。A)正樣本預(yù)測結(jié)果數(shù)/正樣本實(shí)際數(shù)B)被預(yù)測為負(fù)的正樣本結(jié)果數(shù)/正樣本實(shí)際數(shù)C)被預(yù)測為正的負(fù)樣本結(jié)果數(shù)/負(fù)樣本實(shí)際數(shù)D)負(fù)樣本預(yù)測結(jié)果數(shù)/負(fù)樣本實(shí)際數(shù)答案:C解析:第2部分:多項(xiàng)選擇題,共17題,每題至少兩個(gè)正確答案,多選或少選均不得分。[多選題]59.關(guān)于決策樹的CART分類樹構(gòu)造算法和ID3算法,下列說法正確的是?A)選擇切分特征時(shí),ID3算法使用基尼指數(shù)B)選擇切分特征時(shí),CART算法使用信息熵C)選擇切分特征時(shí),CART算法使用基尼指數(shù)來度量一個(gè)數(shù)據(jù)集的混亂程度D)選擇切分特征時(shí),ID3算法使用信息熵答案:CD解析:[多選題]60.下列關(guān)于BP網(wǎng)絡(luò)說法正確的是(__)。A)標(biāo)準(zhǔn)BP算法每次僅針對一個(gè)訓(xùn)練樣例更新連接權(quán)和閾值B)BP神經(jīng)網(wǎng)絡(luò)經(jīng)常遭遇過擬合C)早停策略可用來緩解BP網(wǎng)絡(luò)的過擬合問題D)晚停策略可用來緩解BP網(wǎng)絡(luò)的欠擬合問題答案:ABC解析:[多選題]61.按標(biāo)注活動(dòng)的自動(dòng)化程度,數(shù)據(jù)標(biāo)注可以分為(__)。A)手工標(biāo)注B)文本標(biāo)注C)半自動(dòng)標(biāo)注D)自動(dòng)標(biāo)注答案:ACD解析:[多選題]62.下列關(guān)于AUC面積的描述,正確的是()。A)AUC被定義為ROC曲線下與坐標(biāo)軸圍成的面積B)AUC面積的值大于1C)AUC等于0.5時(shí),則真實(shí)性最低,無應(yīng)用價(jià)值D)AUC越接近1.0,檢測方法真實(shí)性越高答案:ACD解析:AUC面積的值小于等于1。[多選題]63.影響K-Means聚類算法結(jié)果的主要因素有()A)樣本順序B)相似性度量C)初始聚類中心D)樣本類別答案:BC解析:[多選題]64.以下有關(guān)特征數(shù)據(jù)歸一化的說法,正確的是()。A)特征數(shù)據(jù)歸一化加速梯度下降優(yōu)化的速度B)特征數(shù)據(jù)歸一化有可能提高模型的精度C)線性歸一化適用于特征數(shù)值分化比較大的情況D)概率模型不需要做歸一化處理答案:ABD解析:歸一化方法比較適用在數(shù)值比較集中的情況。這種方法的缺陷是如果max和min不穩(wěn)定,很容易使得歸一化結(jié)果不穩(wěn)定,使得后續(xù)使用效果也不穩(wěn)定。實(shí)際使用中可以用經(jīng)驗(yàn)常量值來替代max和min。非線性歸一化經(jīng)常用在數(shù)據(jù)分化比較大的場景,有些數(shù)值很大,有些很小。[多選題]65.下列算法屬于深度學(xué)習(xí)的是()A)卷積神經(jīng)網(wǎng)絡(luò)B)循環(huán)神經(jīng)網(wǎng)絡(luò)C)決策樹D)受限玻爾茲曼機(jī)答案:ABD解析:[多選題]66.下列關(guān)于隨機(jī)森林說法正確的是(__)。A)隨機(jī)森林是Bagging的一個(gè)擴(kuò)展變體B)隨機(jī)森林在決策樹的訓(xùn)練過程中引入了隨機(jī)屬性選擇C)隨機(jī)森林簡單且容易實(shí)現(xiàn)D)隨機(jī)森林計(jì)算開銷大答案:ABC解析:[多選題]67.P{H|X}是給定觀測值X條件下H出現(xiàn)的概率,統(tǒng)稱為(__)。A)先驗(yàn)概率B)后驗(yàn)概率C)條件概率D)模型答案:BC解析:[多選題]68.下列表示同一種學(xué)習(xí)方法的是(__)。A)集成學(xué)習(xí)B)多分類器系統(tǒng)C)基于委員會(huì)的學(xué)習(xí)D)平均策略答案:ABC解析:[多選題]69.對于機(jī)器學(xué)習(xí)中的原始數(shù)據(jù),存在的問題可能有()。A)錯(cuò)誤值B)重復(fù)C)異常值D)不完整答案:ABCD解析:[多選題]70.__是對關(guān)于單個(gè)學(xué)習(xí)器泛化性能的假設(shè)進(jìn)行檢驗(yàn)。A)二項(xiàng)檢驗(yàn)B)t檢驗(yàn)C)交叉驗(yàn)證t檢驗(yàn)D)McNemar檢驗(yàn)答案:AB解析:[多選題]71.下列屬于原型聚類算法的是(__)。A)k均值算法B)學(xué)習(xí)向量量化C)高斯混合聚類密度聚類D)密度聚類答案:ABC解析:[多選題]72.數(shù)據(jù)能力的評價(jià)方法有哪些A)評價(jià)結(jié)果B)評價(jià)方法C)評價(jià)過程D)評價(jià)產(chǎn)品答案:AC解析:[多選題]73.給定兩個(gè)特征向量,以下哪些方法可以計(jì)算這兩個(gè)向量相似度()A)歐式距離B)夾角余弦C)信息熵D)曼哈頓距離答案:ABD解析:[多選題]74.關(guān)于Zookeeper客戶端命令行操作,其中可以監(jiān)聽節(jié)點(diǎn)的命令有()A)ls-wpathB)create-wC)get-wpathD)set-w答案:AC解析:[多選題]75.基因遺傳算法的組成部分包括()**A)初始化編碼B)適應(yīng)度函數(shù)C)選擇D)交叉和變異答案:ABCD解析:第3部分:判斷題,共16題,請判斷題目是否正確。[判斷題]76.隨機(jī)梯度下降運(yùn)行速度快,內(nèi)存開銷很小,可以支持使用海量數(shù)據(jù)集進(jìn)行訓(xùn)練A)正確B)錯(cuò)誤答案:對解析:[判斷題]77.核函數(shù)的值等于將向量xi和xj使用函數(shù)K映射至H后,兩個(gè)新向量的內(nèi)積。A)正確B)錯(cuò)誤答案:對解析:[判斷題]78.梯度下降算法一定能收斂于全局最小值A(chǔ))正確B)錯(cuò)誤答案:錯(cuò)解析:[判斷題]79.dropna()方法可以刪除數(shù)據(jù)中所有的缺失值。A)正確B)錯(cuò)誤答案:對解析:[判斷題]80.對于PCA(主成分分析)轉(zhuǎn)化過的特征,樸素貝葉斯的?不依賴假設(shè)?總是成立,因?yàn)樗兄饕煞质钦坏?這個(gè)說法是:A)正確的B)錯(cuò)誤的答案:錯(cuò)解析:這個(gè)說法是錯(cuò)誤的,首先,?不依賴?和?不相關(guān)?是兩回事,其次,轉(zhuǎn)化過的特征,也可能是相關(guān)的.[判斷題]81.選擇切分特征時(shí),ID3算法使用信息熵。A)正確B)錯(cuò)誤答案:對解析:[判斷題]82.強(qiáng)化學(xué)習(xí)在某種意義上可看作具有?延遲標(biāo)記信息?的監(jiān)督學(xué)習(xí)問題。A)正確B)錯(cuò)誤答案:對解析:[判斷題]83.專家系統(tǒng)模擬人類專家的知識(shí)和經(jīng)驗(yàn)解決特定領(lǐng)域的問題,實(shí)現(xiàn)了人工智能從理論研究走向?qū)嶋H應(yīng)用A)正確B)錯(cuò)誤答案:對解析:[判斷題]84.階躍函數(shù)與sigmoid函數(shù)均為典型激活函數(shù)A)正確B)錯(cuò)誤答案:對解析:[判斷題]85.JupyterNotebook可以將文件保存為ipynb格式。A)正確B)錯(cuò)誤答案:對解析:[判斷題]86.遷移學(xué)習(xí)是指為了解決新領(lǐng)域訓(xùn)練樣本較少無法訓(xùn)練而使用其他相近領(lǐng)域的訓(xùn)練成果遷移應(yīng)用到新領(lǐng)域幫助訓(xùn)練學(xué)習(xí)的方法A)正確B)錯(cuò)誤答案:對解析:[判斷題]87.Pandas中的索引對象是可以修改的。A)正確B)錯(cuò)誤答案:錯(cuò)解析:pandas中的索引對象是不可以修改的第4部分:問答題,共9題,請?jiān)诳瞻滋幪顚懻_答案。[問答題]88.回歸與分類的聯(lián)系與區(qū)別是什么?答案:P102解析:[問答題]89.決策樹學(xué)習(xí)的關(guān)鍵是如何選擇最優(yōu)劃分屬性。一般而言,隨著劃分過程不斷進(jìn)行,我們希望決策樹的分支結(jié)點(diǎn)的_______越來越高答案:純度解析:[問答題]90.試闡述LD
溫馨提示
- 1. 本站所有資源如無特殊說明,都需要本地電腦安裝OFFICE2007和PDF閱讀器。圖紙軟件為CAD,CAXA,PROE,UG,SolidWorks等.壓縮文件請下載最新的WinRAR軟件解壓。
- 2. 本站的文檔不包含任何第三方提供的附件圖紙等,如果需要附件,請聯(lián)系上傳者。文件的所有權(quán)益歸上傳用戶所有。
- 3. 本站RAR壓縮包中若帶圖紙,網(wǎng)頁內(nèi)容里面會(huì)有圖紙預(yù)覽,若沒有圖紙預(yù)覽就沒有圖紙。
- 4. 未經(jīng)權(quán)益所有人同意不得將文件中的內(nèi)容挪作商業(yè)或盈利用途。
- 5. 人人文庫網(wǎng)僅提供信息存儲(chǔ)空間,僅對用戶上傳內(nèi)容的表現(xiàn)方式做保護(hù)處理,對用戶上傳分享的文檔內(nèi)容本身不做任何修改或編輯,并不能對任何下載內(nèi)容負(fù)責(zé)。
- 6. 下載文件中如有侵權(quán)或不適當(dāng)內(nèi)容,請與我們聯(lián)系,我們立即糾正。
- 7. 本站不保證下載資源的準(zhǔn)確性、安全性和完整性, 同時(shí)也不承擔(dān)用戶因使用這些下載資源對自己和他人造成任何形式的傷害或損失。
最新文檔
- 跨代溝通與家庭關(guān)系中的文化融合
- DB15T 3843-2025新能源分布式電源并網(wǎng)技術(shù)規(guī)范
- 云計(jì)算建設(shè)項(xiàng)目服務(wù)合同
- 事業(yè)單位與員工停薪留職合同范本
- 個(gè)人車位交易合同范例
- 個(gè)人企業(yè)房屋租賃合同模板
- 個(gè)人車庫使用權(quán)轉(zhuǎn)讓合同
- 個(gè)人財(cái)產(chǎn)保管合同范本
- 中小學(xué)教師聘用合同范本
- 業(yè)務(wù)合作合同范例
- 蘇州2025年江蘇蘇州太倉市高新區(qū)(科教新城婁東街道陸渡街道)招聘司法協(xié)理員(編外用工)10人筆試歷年參考題庫附帶答案詳解
- 搞笑小品劇本《大城小事》臺(tái)詞完整版
- 物業(yè)服務(wù)和后勤運(yùn)輸保障服務(wù)總體服務(wù)方案
- 2025年北京市文化和旅游局系統(tǒng)事業(yè)單位招聘101人筆試高頻重點(diǎn)提升(共500題)附帶答案詳解
- 人大代表小組活動(dòng)計(jì)劃人大代表活動(dòng)方案
- 《大模型原理與技術(shù)》全套教學(xué)課件
- 2023年護(hù)理人員分層培訓(xùn)、考核計(jì)劃表
- 《銷售培訓(xùn)實(shí)例》課件
- 2025年四川省新高考八省適應(yīng)性聯(lián)考模擬演練(二)地理試卷(含答案詳解)
- 【經(jīng)典文獻(xiàn)】《矛盾論》全文
- Vue3系統(tǒng)入門與項(xiàng)目實(shí)戰(zhàn)
評論
0/150
提交評論