




版權(quán)說明:本文檔由用戶提供并上傳,收益歸屬內(nèi)容提供方,若內(nèi)容存在侵權(quán),請進行舉報或認(rèn)領(lǐng)
文檔簡介
試卷科目:人工智能機器學(xué)習(xí)技術(shù)練習(xí)人工智能機器學(xué)習(xí)技術(shù)練習(xí)(習(xí)題卷22)PAGE"pagenumber"pagenumber/SECTIONPAGES"numberofpages"numberofpages人工智能機器學(xué)習(xí)技術(shù)練習(xí)第1部分:單項選擇題,共58題,每題只有一個正確答案,多選或少選均不得分。[單選題]1.邏輯回歸擬合的函數(shù)是()A)sigmoidB)tanhC)relu答案:A解析:[單選題]2.我們常用()版。A)apache版B)cdh版C)Hortonworks版本答案:B解析:[單選題]3.下列有關(guān)核函數(shù)不正確的是:A)可以采用cross-va1idalion方法選擇最佳核函數(shù)B)滿足Mercer條件的函數(shù)不一定能作為支持向量機的核函數(shù)C)極大地提高了學(xué)習(xí)機器的非線性處理能力D)函數(shù)與非線性映射并不是一一對應(yīng)的關(guān)系答案:B解析:[單選題]4.假如你在訓(xùn)練一個線性回歸模型,有下面兩句話:1、如果數(shù)據(jù)量較少,容易發(fā)生過擬合。2、如果假設(shè)空間較小,容易發(fā)生過擬合。關(guān)于這兩句話,下列說法正確的是?A)1和2都錯誤B)1正確,2錯誤C)1錯誤,2正確D)1和2都正確答案:B解析:先來看第1句話,如果數(shù)據(jù)量較少,容易在假設(shè)空間找到一個模型對訓(xùn)練樣本的擬合度很好,容易造成過擬合,該模型不具備良好的泛化能力。再來看第2句話,如果假設(shè)空間較小,包含的可能的模型就比較少,也就不太可能找到一個模型能夠?qū)颖緮M合得很好,容易造成高偏差、低方差,即欠擬合。[單選題]5.在貓狗圖像分類任務(wù)中,如果100個樣本,其中50張貓,50張狗,但圖像混在一起,無法區(qū)分他們是貓是狗,也就是每個圖像無對應(yīng)的類別標(biāo)簽。如果將這100張樣本作為訓(xùn)練集,使用機器學(xué)習(xí)算法訓(xùn)練學(xué)習(xí)如何分類貓和狗,此時的訓(xùn)練方法是A)無監(jiān)督學(xué)習(xí)B)半監(jiān)督學(xué)習(xí)C)監(jiān)督學(xué)習(xí)D)混合學(xué)習(xí)答案:A解析:[單選題]6.關(guān)于Pandas數(shù)據(jù)讀寫的說法中,下列描述錯誤的是()。A)read_csv()能夠讀取所有文本數(shù)據(jù)B)read_sql()可以讀取數(shù)據(jù)庫中的數(shù)據(jù)C)to_csv()能夠?qū)⒔Y(jié)構(gòu)化數(shù)據(jù)寫入到csv文件中D)to_excel()能夠?qū)⒔Y(jié)構(gòu)化數(shù)據(jù)寫入到excel文件中答案:A解析:[單選題]7.Relief的時間開銷隨采樣次數(shù)以及原始特征數(shù)(__)。A)線性增長B)指數(shù)型增長C)快速增長D)負(fù)增長答案:A解析:[單選題]8.以下描述中,屬于集合特點的是A)集合中的數(shù)據(jù)是無序的B)集合中的數(shù)據(jù)是可以重復(fù)的C)集合中的數(shù)據(jù)是嚴(yán)格有序的D)集合中必須嵌套一個子集合答案:A解析:[單選題]9.構(gòu)建一個神經(jīng)網(wǎng)絡(luò),將前一層的輸出和它自身作為輸入。下列哪一種架構(gòu)有反饋連接?class="fr-ficfr-dibcursor-hover"A)循環(huán)神經(jīng)網(wǎng)絡(luò)B)卷積神經(jīng)網(wǎng)絡(luò)C)限制玻爾茲曼機D)都不是答案:A解析:[單選題]10.(__)是將?現(xiàn)實生活中的問題?轉(zhuǎn)換為?數(shù)據(jù)世界中的問題?,然后采用數(shù)據(jù)科學(xué)的理念、原則、方法、技術(shù)、工具,通過將數(shù)據(jù)、尤其的大數(shù)據(jù),轉(zhuǎn)換為知識和智慧。A)數(shù)據(jù)工程師B)數(shù)據(jù)碼農(nóng)C)數(shù)據(jù)科學(xué)家D)科學(xué)家答案:C解析:[單選題]11.下列對于精度的描述,解釋正確的是(__)。A)統(tǒng)計分類器預(yù)測出來的結(jié)果與真實結(jié)果不相同的個數(shù),然后除以總的樣例集D的個數(shù)。B)先統(tǒng)計分類正確的樣本數(shù),然后除以總的樣例集D的個數(shù)。C)預(yù)測為正的樣例中有多少是真正的正樣例D)樣本中的正例有多少被預(yù)測正確答案:B解析:[單選題]12.隨機變量X~N(1,2),Y~N(3,5),則X+Y~()A)N(4,7)B)N(4,+)C)N(1+,7)D)不確定答案:D解析:主要看兩個變量是否獨立。獨立條件下,正態(tài)加正態(tài)還是正態(tài)。Z=X+Y。均值加均值,方差加方差.[單選題]13.散點圖矩陣通過()坐標(biāo)系中的一組點來展示變量之間的關(guān)系。A)一維B)二維C)三維D)多維答案:B解析:[單選題]14.在深度學(xué)習(xí)中,涉及到大量矩陣相乘,現(xiàn)在需要計算三個稠密矩陣A,B,C的乘積ABC,假設(shè)三個矩陣的尺寸分別為m*n,n*p,p*q,且m<n<p<q,以下計算順序效率最高的是:()A)A(BC)B)(AB)CC)(AC)BD)所有效率都相同答案:B解析:[單選題]15.關(guān)于梯度下降算法,正確的說法是:A)小批量梯度下降同時具備批量梯度下降和隨機梯度下降二者的優(yōu)缺點。B)相對隨機梯度下降算法,批量梯度下降運行速度很快C)相對隨機梯度下降算法,批量梯度下降的一個優(yōu)勢是:當(dāng)損失函數(shù)很不規(guī)則時(存在多個局部最小值),它更有可能跳過局部最小值,最終接近全局最小值。D)隨機梯度下降同時具備批量梯度下降和小批量梯度下降二者的優(yōu)缺點。答案:A解析:[單選題]16.自然語言處理是用()技術(shù)的一種應(yīng)用A)語音識別B)虛擬現(xiàn)實C)人工智能D)自然語言答案:C解析:[單選題]17.以下對非結(jié)構(gòu)化數(shù)據(jù)描述不正確的是()。A)不能用關(guān)系數(shù)據(jù)庫存儲和管理的數(shù)據(jù)B)沒有統(tǒng)一的結(jié)構(gòu)C)圖像是非結(jié)構(gòu)化數(shù)據(jù)D)HTML是非結(jié)構(gòu)化數(shù)據(jù)答案:D解析:[單選題]18.機器學(xué)習(xí)算法在學(xué)習(xí)過程中對某種類型假設(shè)的偏好稱為()。A)訓(xùn)練偏好B)歸納偏好C)分析偏好D)假設(shè)偏好答案:B解析:[單選題]19.以下不是開源工具特點的是A)免費B)可以直接獲取源代碼C)用戶可以修改源代碼并不加說明用于自己的軟件中D)開源工具一樣具有版權(quán)答案:C解析:[單選題]20.以下對半結(jié)構(gòu)化數(shù)據(jù)描述不正確的是()。A)先有數(shù)據(jù),后有結(jié)構(gòu)B)先有結(jié)構(gòu),后有數(shù)據(jù)C)HTML是半結(jié)構(gòu)化數(shù)據(jù)D)經(jīng)過一定轉(zhuǎn)換后可以用傳統(tǒng)關(guān)系數(shù)據(jù)庫存儲答案:B解析:[單選題]21.以下關(guān)于人工智能的說法中,錯誤的是A)人工智能是研究世界運行規(guī)律的科學(xué)B)人工智能涵蓋多個學(xué)科領(lǐng)域C)人工智能包括自動推理,專家系統(tǒng),機器學(xué)習(xí)等技術(shù)D)現(xiàn)階段的人工智能核心是機器學(xué)習(xí)答案:A解析:[單選題]22.關(guān)于創(chuàng)建ndarray對象。下列描述錯誤的是()。A)使用list()函數(shù)可以創(chuàng)建一個ndarray對象B)通過ones()函數(shù)創(chuàng)建元素值都為1的數(shù)組C)ndarray對象可以使用array()函數(shù)創(chuàng)建D)通過zeros()函數(shù)創(chuàng)建元素值都是0的數(shù)組答案:A解析:list()函數(shù)不可以創(chuàng)建一個ndarry對象,不過可以將一個列表做為參數(shù)傳入array()函數(shù)中創(chuàng)建一個ndarray對象[單選題]23.多層前饋神經(jīng)網(wǎng)絡(luò)描述錯誤的是A)輸出層與輸入層之間包含隱含層,且隱含層和輸出層都擁有激活函數(shù)的神經(jīng)元;B)神經(jīng)元之間存在這同層連接以及跨層連接;C)輸入層僅僅是接收輸入,不進行函數(shù)處理;D)每層神經(jīng)元上一層與下一層全互連;答案:B解析:[單選題]24.NaveBayes是一種特殊的Bayes分類器,特征變量是X,類別標(biāo)簽是C,它的一個假定是:()A)各類別的先驗概率P(C)是相等的B)以0為均值,sqr(2)/2為標(biāo)準(zhǔn)差的正態(tài)分布C)特征變量X的各個維度是類別條件獨立隨機變量D)P(X|C)是高斯分布答案:C解析:[單選題]25.信息增益即數(shù)據(jù)集的熵與在某特征條件下的條件熵之差。關(guān)于信息增益,正確的說法是:(2.0分)2.0分A)信息增益越大,說明此特征分類能力越弱B)信息增益越小,說明此特征克服的不確定性越大,具有更強的分類能力C)信息增益越大,說明此特征克服的不確定性越大,具有更強的分類能力D)信息增益越小,說明此特征分類能力越強答案:C解析:[單選題]26.下列時間序列模型中,哪一個模型可以較好地擬合波動性的分析和預(yù)測A)AR模型B)MA模型C)ARMA模型D)GARCH模型答案:D解析:[單選題]27.拆分和合并圖像通道的方法為()。A)Split()和merge()B)split()和merge()C)split()和Merge()D)Split()和merge()答案:B解析:[單選題]28.下面哪個不是RDD的特點()。A)可分區(qū)B)可序列化C)可修改D)可持久化答案:C解析:[單選題]29.假設(shè)我們對西瓜的色澤、根蒂和紋理等特征一無所知,按照常理來說,西瓜是好瓜的概率是60%。那么這個好瓜的概率P就被稱為()A)先驗概率B)后驗概率C)條件概率D)聯(lián)合概率答案:A解析:[單選題]30.關(guān)于Attention-basedModel,下列說法正確的是()A)相似度度量模型B)是一種新的深度學(xué)習(xí)網(wǎng)絡(luò)C)是一種輸入對輸出的比例模型D)都不對答案:A解析:[單選題]31.關(guān)于欠擬合(under-fitting),下面哪個說法是正確的?()A)訓(xùn)練誤差較大,測試誤差較小B)訓(xùn)練誤差較小,測試誤差較大C)訓(xùn)練誤差較大,測試誤差較大D)訓(xùn)練誤差不變,測試誤差較大答案:C解析:[單選題]32.哪一個是機器學(xué)習(xí)的合理定義?A)機器學(xué)習(xí)是計算機編程的科學(xué)B)機器學(xué)習(xí)從標(biāo)記的數(shù)據(jù)中學(xué)習(xí)C)機器學(xué)習(xí)是允許機器人智能行動的領(lǐng)域D)機器學(xué)習(xí)能使計算機能夠在沒有明確編程的情況下學(xué)習(xí)答案:D解析:[單選題]33.以下關(guān)于Zookeeper的Leader節(jié)點在收到數(shù)據(jù)變更請求后的讀寫流程說法正確的是?()A)僅寫入內(nèi)存B)同時寫入磁盤和內(nèi)存C)先寫入內(nèi)存再寫入磁盤D)先寫磁盤再寫內(nèi)存答案:D解析:[單選題]34.數(shù)據(jù)清洗的方法不包括()。A)缺失值處理B)噪聲數(shù)據(jù)清除C)一致性檢查D)重復(fù)數(shù)據(jù)記錄處理答案:D解析:[單選題]35.ID3決策樹算法以()為準(zhǔn)則來選擇劃分屬性A)信息增益B)信息熵C)基尼系數(shù)D)信息增益率答案:A解析:[單選題]36.數(shù)據(jù)管理成熟度模型將機構(gòu)數(shù)據(jù)管理能力定義為(__)個不同成熟度等級,并給出了(__)類關(guān)鍵過程域,共(__)個關(guān)鍵活動。A)3,7,21B)4,6,24C)5,6,25D)6,7,28答案:C解析:[單選題]37.設(shè)線性規(guī)劃的約束條件為:則基本可行解為()A)(0,0,4,3)B)(3,4,0,0)C)(2,0,1,0)D)(3,0,4,0)答案:C解析:[單選題]38.對抗學(xué)習(xí)中兩個網(wǎng)絡(luò)互相競爭,一個負(fù)責(zé)生成樣本,另一個負(fù)責(zé)()A)判別樣本B)計算樣本C)統(tǒng)計樣本D)生成樣本答案:A解析:[單選題]39.字符串"http://^▽^//\n"的長度是A)6B)7C)8D)9答案:C解析:[單選題]40.圖像中虛假輪廓的出現(xiàn)就其本質(zhì)而言是由于?A)圖像的灰度級數(shù)不夠多造成的;B)圖像的空間分辨率不夠高造成;C)圖像的灰度級數(shù)過多造成的;D)圖像的空間分辨率過高造成;答案:A解析:[單選題]41.當(dāng)不知道數(shù)據(jù)所帶的標(biāo)簽時,可以使用()技術(shù)促使帶同類標(biāo)簽的數(shù)據(jù)與帶其他標(biāo)簽的數(shù)據(jù)相分離。A)分類B)聚類C)關(guān)聯(lián)分析D)隱馬爾可夫鏈答案:B解析:[單選題]42.研究某超市銷售記錄數(shù)據(jù)后發(fā)現(xiàn),買啤酒的人很大概率也會購買尿布,這種屬于數(shù)據(jù)挖掘的那類問題()A)關(guān)聯(lián)規(guī)則發(fā)現(xiàn)B)聚類C)分類D)自然語言處理答案:A解析:[單選題]43.我們建立一個5000個特征,100萬數(shù)據(jù)的機器學(xué)習(xí)模型。我們怎么有效地應(yīng)對這樣的大數(shù)據(jù)訓(xùn)練()。A)我們隨機抽取一些樣本,在這些少量樣本之上訓(xùn)練B)我們可以試用在線機器學(xué)習(xí)算法C)我們應(yīng)用PCA算法降維,減少特征數(shù)D)以上答案都正確答案:D解析:樣本數(shù)過多或者特征數(shù)過多,而不能單機完成訓(xùn)練,可以用小批量樣本訓(xùn)練,或者在線累計式訓(xùn)練,或者主成分PCA降維方式減少特征數(shù)量再進行訓(xùn)練。[單選題]44.(__)在劃分屬性時是在當(dāng)前結(jié)點的屬性集合中選擇一個最優(yōu)屬性。A)AdaBoostB)RFC)BaggingD)傳統(tǒng)決策樹答案:D解析:[單選題]45.LasVegasWrapper是一種典型的(__)算法。A)過濾式選擇B)嵌入式選擇C)包裹式選擇D)正則化答案:C解析:[單選題]46.變量的不確定性越大,相對應(yīng)信息熵的變化是()。A)熵變小B)熵變大C)不變D)以上答案都不正確答案:B解析:信息熵(informationentropy)是度量樣本集合純度最常用的一種指標(biāo),信息熵越大,變量的不確定性越大。[單選題]47.關(guān)于K均值和DBSCAN的比較,以下說法不正確的是()。A)K均值丟棄被它識別為噪聲的對象,而DBSCAN一般聚類所有對象B)K均值使用簇的基于原型的概念,而DBSCAN使用基于密度的概念C)K均值很難處理非球形的簇和不同大小的簇,DBSCAN可以處理不同大小和不同形狀的簇D)K均值可以發(fā)現(xiàn)不是明顯分離的簇,即便簇有重疊也可以發(fā)現(xiàn),但是DBSCAN會合并有重疊的簇答案:A解析:DBSCAN和K均值都是將每個對象指派到單個簇的劃分聚類算法,但K均值一般聚類所有對象,而DBSCAN丟棄被它識別為噪聲的對象。[單選題]48.神經(jīng)網(wǎng)絡(luò)是由()演化而來A)符號主義B)認(rèn)知主義C)聯(lián)結(jié)主義D)行為主義答案:C解析:[單選題]49.機器學(xué)習(xí)中發(fā)生過擬合的主要原因不包括()。A)使用過于復(fù)雜的模型B)數(shù)據(jù)噪聲較大C)訓(xùn)練數(shù)據(jù)少D)訓(xùn)練數(shù)據(jù)充足答案:D解析:訓(xùn)練數(shù)據(jù)充足可以降低過擬合。[單選題]50.hive的元數(shù)據(jù)存儲在derby和mysql中有什么區(qū)別()。A)沒區(qū)別B)多會話C)支持網(wǎng)絡(luò)環(huán)境D)數(shù)據(jù)庫的區(qū)別答案:B解析:[單選題]51.常用的聚合函數(shù)不包括()A)max()B)count()C)sum()D)sex()答案:D解析:[單選題]52.()算法是分類算法。A)DBSCANB)C4.5C)K-MeanD)EM答案:B解析:C4.5是分類算法;DBSCAN、K-Mean、EM是聚類算法。[單選題]53.隨著集成中個體分類器(相互獨立)數(shù)目T的增大,集成的錯誤率將呈___下降,最終趨向于零A)指數(shù)級B)對數(shù)級C)線性級D)平方級答案:A解析:[單選題]54.抖動技術(shù)可以()A)改善圖像的空間分辨率B)改善圖像的幅度分辨率C)利用半輸出技術(shù)實現(xiàn)D)消除虛假輪廓現(xiàn)象答案:D解析:[單選題]55.如右圖所示無向圖,節(jié)點G的馬爾可夫毯為()A){D,E}B){I,J}C){D,E,I,J}D){D,E,F,H,I,J}答案:C解析:[單選題]56.下面符合特征選擇標(biāo)準(zhǔn)的是()A)越少越好B)越多越好C)選擇能夠反映不同事物差異的特征D)以上均不對答案:C解析:[單選題]57.已知均值和方差,下面哪種分布的熵最大()A)幾何分布B)指數(shù)分布C)高斯分布D)均勻分布答案:C解析:[單選題]58.在訓(xùn)練神經(jīng)網(wǎng)絡(luò)時,損失函數(shù)(loss)在最初的幾個epochs時沒有下降,可能的原因是?class="fr-ficfr-dibcursor-hover"A)學(xué)習(xí)率(learningrate)太低B)正則參數(shù)太高C)陷入局部最小值D)以上都有可能答案:D解析:第2部分:多項選擇題,共21題,每題至少兩個正確答案,多選或少選均不得分。[多選題]59.數(shù)據(jù)柔術(shù)強調(diào)的基本問題有(__)。A)設(shè)計思維問題B)產(chǎn)品開發(fā)要有較高的藝術(shù)性C)以目標(biāo)用戶為中心的產(chǎn)品開發(fā)D)支持人機交互問題答案:BC解析:[多選題]60.在分析句子結(jié)構(gòu)時,句子的內(nèi)部組織結(jié)構(gòu)用樹來表示,組成的結(jié)構(gòu)具有顯著的特點是()A)遞歸B)中心詞C)循環(huán)D)修飾語答案:ABD解析:[多選題]61.關(guān)于決策樹的CART分類樹構(gòu)造算法和ID3算法,下列說法正確的是?A)選擇切分特征時,CART算法使用信息熵B)選擇切分特征時,CART算法使用基尼指數(shù)來度量一個數(shù)據(jù)集的混亂程度C)選擇切分特征時,ID3算法使用基尼指數(shù)D)選擇切分特征時,ID3算法使用信息熵答案:BD解析:[多選題]62.以下提法中正確的是()。A)數(shù)據(jù)學(xué)科中的?數(shù)據(jù)?并不僅僅是?數(shù)值?,也不等同于?數(shù)值?;B)數(shù)據(jù)科學(xué)中的?計算?并不僅僅是加、減、乘、除等?數(shù)學(xué)計算?,還包括數(shù)據(jù)的查詢、挖掘、洞見、分析、可視化等更多類型;C)數(shù)據(jù)科學(xué)關(guān)注的是?單一學(xué)科?的問題;D)數(shù)據(jù)科學(xué)強調(diào)的是?理論研究?,一般不涉及?領(lǐng)域?qū)崉?wù)知識?;答案:AB解析:[多選題]63.某服務(wù)請求經(jīng)負(fù)載均衡設(shè)備分配到集群A、B、C、D進行處理響應(yīng)的概率分別是10%、20%、30%和40%。已知測試集群所得的穩(wěn)定性指標(biāo)分別是90%、95%、99%和99.9%?,F(xiàn)在該服務(wù)器請求處理失敗,且已排除穩(wěn)定性以外的問題,那么最有可能在處理該服務(wù)請求的集群是________。A)AB)BC)CD)D答案:AB解析:[多選題]64.指出下面正確的說法?A)基于像素的圖像增強方法是一種線性灰度變換;B)基于像素的圖像增強方法是基于像素領(lǐng)域的圖像增強方法的一種;C)基于頻域的圖像增強方法由于常用到傅里葉變換和傅里葉反變換,所以總比基于圖像域的方法計算復(fù)雜較高;D)基于頻域的圖像增強方法可以獲得和基于空域的圖像增強方法同樣的圖像增強效果;答案:BD解析:[多選題]65.泛化誤差可分解為__之和。A)方差B)偏差C)協(xié)方差D)噪聲答案:ABD解析:[多選題]66.根據(jù)輸出結(jié)果,數(shù)據(jù)科學(xué)中機器學(xué)習(xí)可分為(__)。A)概念學(xué)習(xí)B)歸納學(xué)習(xí)C)決策樹學(xué)習(xí)D)分析學(xué)習(xí)答案:ABCD解析:[多選題]67.關(guān)于梯度下降算法中,超參數(shù)學(xué)習(xí)率的說法正確的是?A)學(xué)習(xí)率越小越好B)學(xué)習(xí)率控制參數(shù)調(diào)整的步長C)學(xué)習(xí)率越大越好D)學(xué)習(xí)率小會影響損失函數(shù)收斂于最小值的速度答案:BD解析:[多選題]68.下面哪幾項屬于神經(jīng)網(wǎng)絡(luò)的范疇?A)深度學(xué)習(xí)B)機器學(xué)習(xí)C)感知器D)CNN答案:ACD解析:[多選題]69.數(shù)據(jù)產(chǎn)品的主要特征有(__)。A)數(shù)據(jù)為中心B)多樣性C)層次性D)增值性答案:ABCD解析:[多選題]70.Hadoop組件的核心功能包括()A)分布式數(shù)據(jù)存儲B)分析C)挖掘D)分布式計算答案:AD解析:[多選題]71.k-means初始簇心的選擇的合理方式是()A)隨機k個簇心B)設(shè)定一個嘗試次數(shù)值,在這個值的范圍內(nèi)進行最遠簇心尋找C)計算所有樣本的兩兩距離,隨機給定一個樣本作為第1個簇心,使用距離排序確定k個簇心D)多次進行隨機初始簇心,聚類完成后,具體分析簇與簇之間的互斥性,然后進行優(yōu)化答案:AB解析:[多選題]72.半監(jiān)督學(xué)習(xí)四大范型有A)基于分歧的方法B)半監(jiān)督SVMC)半監(jiān)督聚類D)圖半監(jiān)督學(xué)習(xí)答案:ABD解析:[多選題]73.關(guān)于決策樹的CART分類樹構(gòu)造算法和ID3算法,下列說法正確的是?A)選擇切分特征時,ID3算法使用信息熵B)選擇切分特征時,CART算法使用基尼指數(shù)來度量一個數(shù)據(jù)集的混亂程度C)選擇切分特征時,ID3算法使用基尼指數(shù)D)選擇切分特征時,CART算法使用信息熵答案:AB解析:[多選題]74.根據(jù)波士頓郊區(qū)房屋信息,預(yù)測房屋價格。適合采用的方法有?A)CART回歸決策樹B)CART分類決策樹C)線性回歸D)樸素貝葉斯答案:AC解析:[多選題]75.解決欠擬合的方法有__。A)決策樹擴展分支B)增加訓(xùn)練輪數(shù)C)正則化D)剪枝答案:AB解析:第3部分:判斷題,共12題,請判斷題目是否正確。[判斷題]76.監(jiān)督學(xué)習(xí)需要有大量標(biāo)注好的數(shù)據(jù)集來對模型進行訓(xùn)練A)正確B)錯誤答案:對解析:[判斷題]77.回歸預(yù)測的目標(biāo)函數(shù)是離散值,分類預(yù)測的目標(biāo)函數(shù)是連續(xù)值。A)正確B)錯誤答案:錯解析:[判斷題]78.核函數(shù)可以將樣本從原始空間映射到一個更高維的特征空間,使得樣本在這個特征空間內(nèi)線性可分A)正確;B)錯誤;答案:對解析:[判斷題]79.把訓(xùn)練樣本自身的一些特點當(dāng)作了所有潛在樣本都會具有的一般性質(zhì),會導(dǎo)致泛化性能下降。__A)正確B)錯誤答案:對解析:[判斷題]80.決策樹基本流程遵循簡單且直觀的分而治之策略。__A)正確B)錯誤答案:對解析:[判斷題]81.Pandas是一個基于NumPy的數(shù)據(jù)分析包,它是為了解決數(shù)據(jù)分析任務(wù)而創(chuàng)建的。A)正確B)錯誤答案:對解析:[判斷題]82.最小二乘法是基于預(yù)測值和真實值的均方差最小化的方法來估計線性回歸學(xué)習(xí)器的參數(shù)w和b。A)正確B)錯誤答案:對解析:[判斷題]83.Series對象可以具有多層索引結(jié)構(gòu)。A)正確B)錯誤答案:錯解析:[判斷題]84.Seaborn是Python中基于Matplotlib的數(shù)據(jù)可視化工具,它提供了很多高層封裝的函數(shù)。A)正確B)錯誤答案:對解析:[判斷題]85.查全率越高,意味著模型漏掉的樣本越少,當(dāng)假陰性的成本很高時,查全率指標(biāo)有助于衡量模型的好壞。A)正確B)錯誤答案:對解析:[判斷題]86.訓(xùn)練一個支持向量機,除去不支持的向量后仍能分類。A)正確B)錯誤答案:對解析:只有支持向量會影響邊界[判斷題]87.與bagging不同,boosting采用的是一個串行訓(xùn)練的方法A)正確B)錯誤答案:對解析:第4部分:問答題,共9題,請在空白處填寫正確答案。[問答題]88.對于一個復(fù)雜的學(xué)習(xí)任務(wù),首先構(gòu)造多個簡單的學(xué)習(xí)模型,然后再把這些簡單模型組合成一個高效的學(xué)習(xí)模型,這是()的基本思想答案:集成學(xué)習(xí)解析:[問答題]89.層次聚類試圖在()對數(shù)據(jù)集進行劃分,從而形成()的聚類結(jié)構(gòu)。答案:不同層次解析:[問答題]90.如果兩個變量相關(guān),它們()線性關(guān)系。A)一定是B)不一定是答案:B解析:相關(guān)不一定是線性關(guān)系,也有可能是非線性相關(guān)。[問答題]91.隨機變量X的支撐集(也就是非零值域)定義為[a,b],沒有別的限制加在X上,該隨機變量的最大熵分布是什么。答案:最大熵分布為在[a,b]區(qū)間上的均勻分布。根據(jù)最大熵模型,推導(dǎo)出X概率密度函數(shù)是一個常函數(shù),所以最大熵分布為均勻分布。解析:[問答題]92.假設(shè)變量Var1和Var2是正相關(guān)的,那么下面那張圖是正確的?圖中,橫坐標(biāo)是Var1,縱坐標(biāo)是Var2,且對Var1和Var2都做了標(biāo)準(zhǔn)化處理。A)Plot1B)Plot2答案:B解析:顯然,Plot2顯示出Var2與Var1是正相關(guān)的,例如Var2=Var1。Plot1顯示出Var2與Var1是負(fù)相關(guān)的,例如Var2=-Var1。[問答題]93.寫出距離函數(shù)的四個基本性質(zhì)。答案:1)非負(fù)性:dist(xi,xj)302)同一性:dist(xi,xj)=0當(dāng)且僅當(dāng)xi=xj3)對稱性:dist(xi,
溫馨提示
- 1. 本站所有資源如無特殊說明,都需要本地電腦安裝OFFICE2007和PDF閱讀器。圖紙軟件為CAD,CAXA,PROE,UG,SolidWorks等.壓縮文件請下載最新的WinRAR軟件解壓。
- 2. 本站的文檔不包含任何第三方提供的附件圖紙等,如果需要附件,請聯(lián)系上傳者。文件的所有權(quán)益歸上傳用戶所有。
- 3. 本站RAR壓縮包中若帶圖紙,網(wǎng)頁內(nèi)容里面會有圖紙預(yù)覽,若沒有圖紙預(yù)覽就沒有圖紙。
- 4. 未經(jīng)權(quán)益所有人同意不得將文件中的內(nèi)容挪作商業(yè)或盈利用途。
- 5. 人人文庫網(wǎng)僅提供信息存儲空間,僅對用戶上傳內(nèi)容的表現(xiàn)方式做保護處理,對用戶上傳分享的文檔內(nèi)容本身不做任何修改或編輯,并不能對任何下載內(nèi)容負(fù)責(zé)。
- 6. 下載文件中如有侵權(quán)或不適當(dāng)內(nèi)容,請與我們聯(lián)系,我們立即糾正。
- 7. 本站不保證下載資源的準(zhǔn)確性、安全性和完整性, 同時也不承擔(dān)用戶因使用這些下載資源對自己和他人造成任何形式的傷害或損失。
最新文檔
- 打掃衛(wèi)生干凈勞務(wù)合同范本5篇
- 房屋租賃合同范本店鋪3篇
- 不良資產(chǎn)轉(zhuǎn)讓合同2篇
- 國際快遞倉儲運輸合同書4篇
- 廣州市房屋租賃合同(租金月付)3篇
- 國際航空運輸合同書9篇
- G電視廣告制作合同4篇
- 反擔(dān)保人合同模板
- 2025年版本農(nóng)村房屋買賣合同4篇
- 手機分期付款買賣合同6篇
- 《國際貿(mào)易地理》課件
- 沖壓車間品質(zhì)提升改善方案
- 三級動火作業(yè)許可證
- 施工組織設(shè)計實訓(xùn)任務(wù)書
- 貪污賄賂犯罪PPT(培訓(xùn))(PPT168頁)課件
- 制動器的英文版及翻譯
- 人教版七年級下冊數(shù)學(xué) 第五章達標(biāo)檢測卷
- 【醫(yī)學(xué)課件】生物大分子(蛋白質(zhì)、核酸和酶)的結(jié)構(gòu)與功能
- JAVA外文文獻畢業(yè)設(shè)計
- 機械原理課程設(shè)計巧克力包裝機(共27頁)
- 電阻熔煉爐操作安全規(guī)程
評論
0/150
提交評論