人工智能模擬考試題與答案_第1頁
人工智能模擬考試題與答案_第2頁
人工智能模擬考試題與答案_第3頁
人工智能模擬考試題與答案_第4頁
人工智能模擬考試題與答案_第5頁
已閱讀5頁,還剩15頁未讀, 繼續(xù)免費閱讀

下載本文檔

版權(quán)說明:本文檔由用戶提供并上傳,收益歸屬內(nèi)容提供方,若內(nèi)容存在侵權(quán),請進(jìn)行舉報或認(rèn)領(lǐng)

文檔簡介

人工智能模擬考試題與答案一、單選題(共103題,每題1分,共103分)1.特征A對訓(xùn)練數(shù)據(jù)集D的信息增益比的定義是()和()之比。A、信息增益與訓(xùn)練數(shù)據(jù)集的信息熵之比B、信息增益與訓(xùn)練數(shù)據(jù)集的經(jīng)驗熵之比C、信息增益與訓(xùn)練數(shù)據(jù)集的條件熵之比D、信息增益與訓(xùn)練數(shù)據(jù)集的交叉熵之比正確答案:B2.留出法直接將數(shù)據(jù)集劃分為()個互斥的集合A、四B、二C、一D、三正確答案:B3.對零次數(shù)據(jù)進(jìn)行初步加工,不包括()A、變換B、脫敏C、清洗D、集成正確答案:B4.下列度量不具有反演性的是()A、系數(shù)B、幾率C、Cohen度量D、興趣因子正確答案:D5.前饋神經(jīng)網(wǎng)絡(luò)通過誤差后向傳播(BP算法)進(jìn)行參數(shù)學(xué)習(xí),這是一種()機(jī)器學(xué)習(xí)手段A、監(jiān)督學(xué)習(xí)B、無監(jiān)督學(xué)習(xí)C、半監(jiān)督學(xué)習(xí)D、無監(jiān)督學(xué)習(xí)和監(jiān)督學(xué)習(xí)的結(jié)合正確答案:A6.有一長為16m的籬笆,要圍成一個矩形場地,則矩形場地的最大面積是________m2A、16B、$18C、14D、15正確答案:A7.數(shù)據(jù)挖掘技術(shù)包括三個主要的部分()。A、數(shù)據(jù)、模型、技術(shù)B、數(shù)據(jù)、建模能力、算法與技術(shù)C、建模能力、算法與技術(shù)、領(lǐng)域知識D、算法、技術(shù)、領(lǐng)域知識正確答案:B8.擲2n+1次硬幣,正面向上次數(shù)多于反面向上次數(shù)的概率是()。A、(n+1)/(2n+1)B、n/(2n+1)C、(n-1)/(2n+1)D、0.5正確答案:D9.協(xié)同訓(xùn)練(co-training)是針對(___)數(shù)據(jù)設(shè)計?A、多環(huán)境B、多視圖C、多版本D、多角度正確答案:B10.Python運算符中用來計算集合并集的是_______。A、&B、|C、+D、||正確答案:B11.聚類的性能度量亦稱聚類“()”A、驅(qū)動性指標(biāo)B、可靠性指標(biāo)C、無效性指標(biāo)D、有效性指標(biāo)正確答案:D12.()是建立在numpy基礎(chǔ)上的高效數(shù)據(jù)分析處理庫,是Python的重要數(shù)據(jù)分析庫。A、PILB、MatplotlibC、numpyD、pandas正確答案:D13.在CNN訓(xùn)練中,除了卷積偏置bias需要學(xué)習(xí)更新以外,()也是學(xué)習(xí)跟新的重要內(nèi)容A、learning_rateB、stepC、weightD、padding正確答案:C14.[[[1.3688,1.0125]],[[0.1747,-0.022463]]]張量的維度為()。A、(1,2,2)B、(2,1,2)C、(2,2)D、(4,1)正確答案:B15.以下關(guān)于降維,表述錯誤的是:()A、降維過程中可以保留原始數(shù)據(jù)的所有信息。B、多維縮放的目標(biāo)是要保證降維后樣本之間的距離不變。C、線性降維方法目標(biāo)是要保證降維到的超平面能更好的表示原始數(shù)據(jù)。D、核線性降維方法目標(biāo)是通過核函數(shù)和核方法來避免采樣空間投影到高維空間再降維之后的低維結(jié)構(gòu)丟失。正確答案:A16.半監(jiān)督學(xué)習(xí)四大范型不含有(___)A、生成式方法B、半監(jiān)督SVMC、半監(jiān)督聚類D、基于分歧方法正確答案:C17.決策樹的生成是一個(___)過程。A、KNNB、聚類C、遞歸D、回歸正確答案:C18.下列核函數(shù)特性描述錯誤的是(___)A、只要一個對稱函數(shù)所對應(yīng)的核矩陣半正定,就能稱為核函數(shù);B、核函數(shù)是一種降維模型;C、核函數(shù)選擇作為支持向量機(jī)的最大變數(shù);D、核函數(shù)將影響支持向量機(jī)的性能;正確答案:B19.根據(jù)numpy數(shù)組中ndim屬性的含義確定程序的輸出()。array=np.array([[1,2,3],[4,5,6],[7,8,9],[10,11,12]]);print(array.ndim)A、(4,3)B、2C、(3,4)D、$4正確答案:B20.在TensorFlow中,TensorBoard運行時的默認(rèn)訪問端口是以下哪個端口號A、4004B、8080C、8008D、$6,006正確答案:D21.()是以樣本統(tǒng)計量作為未知總體參數(shù)的估計量,并通過對樣本單位的實際觀察取得樣本數(shù)據(jù),計算樣本統(tǒng)計量的取值作為被估計參數(shù)的估計值A(chǔ)、邏輯分析B、參數(shù)估計C、回歸分析D、方差分析正確答案:B22.線性回歸方法是假定條件屬性和決策屬性之間存在線性關(guān)系,然后通過訓(xùn)練數(shù)據(jù)擬合出一個()方程,并使用該方程去預(yù)測未知的新實例。A、線性B、多元C、二元一次D、一元一次正確答案:A23.在一個神經(jīng)網(wǎng)絡(luò)中,知道每一個神經(jīng)元的權(quán)重和偏差是最重要的一步。如果知道了神經(jīng)元準(zhǔn)確的權(quán)重和偏差,便可以近似任何函數(shù),但怎么獲知每個神經(jīng)的權(quán)重和偏移呢?()A、搜索每個可能的權(quán)重和偏差組合,直到得到最佳值B、賦予一個初始值,然后檢查跟最佳值的差值,不斷迭代調(diào)整權(quán)重C、隨機(jī)賦值,聽天由命D、以上都不正確的正確答案:B24.數(shù)據(jù)科學(xué)家經(jīng)常使用多個算法進(jìn)行預(yù)測,并將多個機(jī)器學(xué)習(xí)算法的輸出(稱為“集成學(xué)習(xí)”)結(jié)合起來,以獲得比所有個體模型都更好的更健壯的輸出。則下列說法正確的是?()A、基本模型之間相關(guān)性高。B、基本模型之間相關(guān)性低。C、集成方法均使用加權(quán)平均代替投票方法。D、基本模型都來自于同一算法。正確答案:B25.表達(dá)式3andnot5的值為_______。A、FALSEB、3C、TRUED、$2正確答案:A26.Hadoop的作者是下面哪一位()。A、MartinFowlerB、DougcuttingC、KentBeckD、GraceHopper正確答案:B27.我們?nèi)粘I钪械纳舷掳?,指紋掃描打卡考勤、虹膜掃描,應(yīng)用到了人工智能中的A、機(jī)器翻譯技術(shù)B、虛擬現(xiàn)實C、機(jī)器翻譯D、模式識別正確答案:D28.多分類學(xué)習(xí)中,最經(jīng)典的三種拆分策略不包括()A、一對一B、一對其余C、一對多D、多對多正確答案:C29.專用人工智能的簡稱是()。A、ANIB、AGIC、AIND、AIG正確答案:A30.新一代調(diào)度技術(shù)支持系統(tǒng)以運行控制平臺、()兩種平臺協(xié)同為支撐。A、能量管理系統(tǒng)B、調(diào)度數(shù)據(jù)網(wǎng)平臺C、云計算平臺(調(diào)控云)D、調(diào)度管理系統(tǒng)正確答案:C31.a=[0,1,2,3,4,5,6,7,8,9],a[1:5]的輸出為()。A、[1,2,3,4]B、[0,1,2,3]C、[0,1,2,3,4]D、[1,2,3,4,5]正確答案:A32.以下關(guān)于標(biāo)準(zhǔn)RNN模型,說法正確的是?A、反向傳播時不考慮時間方向B、會出現(xiàn)長時間傳輸記憶的信息衰減的問題C、不存在多對多的模型結(jié)構(gòu)D、不存在一對一的模型結(jié)構(gòu)正確答案:B33.以下()屬于數(shù)據(jù)可視化方法體系中的基礎(chǔ)方法。A、視覺編碼方法論B、地理信息可視化C、視覺隱喻D、時變數(shù)據(jù)可視化正確答案:C34.Python內(nèi)置函數(shù)______用來返回序列中的最小元素。A、least()B、min()C、max()D、mini()正確答案:B35.下列樸素貝葉斯估計描述錯誤的是A、采用屬性條件獨立性假設(shè)B、假設(shè)屬性之間相互獨立C、為了避免條件概率是所以屬性上的聯(lián)合概率D、假設(shè)屬性之間是相關(guān)的正確答案:D36.一般情況下,KNN最近鄰方法在()情況下效果最好()A、樣本較少但典型性好B、樣本呈現(xiàn)團(tuán)狀分布C、樣本呈現(xiàn)鏈狀分布D、樣本較多但典型性不好正確答案:A37.關(guān)于貝葉斯網(wǎng)描述錯誤的是(___)A、用條件概率表來描述屬性的聯(lián)合概率分布;B、借助無向無環(huán)圖刻畫屬性之間的關(guān)系;C、借助有向無環(huán)圖刻畫屬性之間的關(guān)系;D、也稱為信念網(wǎng);正確答案:B38.相互關(guān)聯(lián)的數(shù)據(jù)資產(chǎn)標(biāo)準(zhǔn),應(yīng)確保()。數(shù)據(jù)資產(chǎn)標(biāo)準(zhǔn)存在沖突或銜接中斷時,后序環(huán)節(jié)應(yīng)遵循和適應(yīng)前序環(huán)節(jié)的要求,變更相應(yīng)數(shù)據(jù)資產(chǎn)標(biāo)準(zhǔn)。A、連接B、銜接和匹配C、連接和配合D、配合正確答案:B39.人工智能應(yīng)用研究的兩個最重要最廣泛領(lǐng)域為:()A、專家系統(tǒng)、自動規(guī)劃B、機(jī)器學(xué)習(xí)、智能控制C、專家系統(tǒng)、機(jī)器學(xué)習(xí)D、機(jī)器學(xué)習(xí)、自然語言理解正確答案:C40.循環(huán)隊列的存儲空間為Q(1:50)。經(jīng)過一系列正常的入隊與退隊操作后,front=rear=25。后又成功地將一個元素入隊,此時隊列中的元素個數(shù)為A、$2B、26C、1D、50正確答案:C41.VGG網(wǎng)絡(luò)在深度學(xué)習(xí)發(fā)展過程中做出了重要貢獻(xiàn),下面關(guān)于VGG描述正確的是:A、VGG全部使用了3*3的卷積核和2*2的池化核B、VGG證明了網(wǎng)絡(luò)越深越好,所以程序員應(yīng)該沒有限制的搭建更深的網(wǎng)絡(luò)C、VGG是到目前為止分類效果最好的網(wǎng)絡(luò)結(jié)構(gòu)D、VGG沒有使用全連接網(wǎng)絡(luò)結(jié)構(gòu)正確答案:A42.無監(jiān)督的建模技術(shù)有()、關(guān)聯(lián)分析、預(yù)報三類A、聚類B、相關(guān)性分析C、聚合D、離散正確答案:A43.關(guān)于GoogLeNet描述正確的有:A、GoogLeNet僅僅是在寬度上進(jìn)行了探索,所以它是一個很淺的網(wǎng)絡(luò)B、GoogLeNet結(jié)合多種網(wǎng)絡(luò)設(shè)計結(jié)構(gòu)所以是到目前為止分類效果最好的網(wǎng)絡(luò)結(jié)構(gòu)C、GoogLeNet在寬度上進(jìn)行了探索,為后人設(shè)計更加復(fù)雜的網(wǎng)絡(luò)打開了思路D、GoogLeNet使用了Inception結(jié)構(gòu),Inception結(jié)構(gòu)只有V1這一個版本正確答案:C44.人臉檢測服務(wù)在測試圖像中沒有人臉時會報錯。A、TRUEB、FALSE正確答案:B45.輸入圖片大小為200×200,依次經(jīng)過一層卷積(kernelsize5×5,padding1,stride2),pooling(kernelsize3×3,padding0,stride1),又一層卷積(kernelsize3×3,padding1,stride1)之后,輸出特征圖大小為?A、96B、$98C、95D、97正確答案:D46.特征是描述樣本的特性的維度,關(guān)于其在傳統(tǒng)機(jī)器學(xué)習(xí)和深度學(xué)習(xí)的可解釋性,以下說法正確的是:A、特征在傳統(tǒng)機(jī)器學(xué)習(xí)可解釋性強(qiáng),而在深度學(xué)習(xí)可解釋性弱B、特征在傳統(tǒng)機(jī)器學(xué)習(xí)可解釋性弱,而在深度學(xué)習(xí)可解釋性強(qiáng)C、特征在傳統(tǒng)機(jī)器學(xué)習(xí)和深度學(xué)習(xí)可解釋性均弱D、特征在傳統(tǒng)機(jī)器學(xué)習(xí)和深度學(xué)習(xí)可解釋性均強(qiáng)正確答案:A47.設(shè)f(x,y,z)=(x^2)yz,求在點M(1,1,1)沿向量l=(2,-1,3)的方向?qū)?shù)為()。A、8/sqrt(14)B、3/sqrt(6)C、6/sqrt(14)D、2/sqrt(6)正確答案:C48.如何選取合適的卷積核大???A、分布范圍小--->較小的卷積核,小的感受野B、分布范圍大--->較小的卷積核,小的感受野C、分布范圍廣--->較小的卷積核,大的感受野D、分布范圍小--->較大的卷積核,小的感受野正確答案:A49.()網(wǎng)絡(luò)是一種競爭學(xué)習(xí)型的無監(jiān)督神經(jīng)網(wǎng)絡(luò),它能將高維輸入數(shù)據(jù)映射到低維空間,同時保持輸入數(shù)據(jù)在高維空間的拓?fù)浣Y(jié)構(gòu),即將高維空間中相似的樣本點映射到網(wǎng)絡(luò)輸出層中的臨近神經(jīng)元。A、SOM網(wǎng)絡(luò)B、RBF網(wǎng)絡(luò)C、ART網(wǎng)絡(luò)D、ELman網(wǎng)絡(luò)正確答案:A50.支持向量機(jī)(SVM)算法的性能取決于()A、核函數(shù)的選擇B、核函數(shù)的參數(shù)C、軟間隔參數(shù)CD、以上都有正確答案:D51.假如我們建立一個60000個特征,1000萬數(shù)據(jù)集的機(jī)器學(xué)習(xí)模型,我們怎么有效的應(yīng)對這樣的大規(guī)模數(shù)據(jù)的訓(xùn)練A、對樣本進(jìn)行抽樣,在經(jīng)過抽樣的樣本上訓(xùn)練B、應(yīng)用PCA算法降維,減少特征數(shù)量C、根據(jù)重要性對特征進(jìn)行篩選D、以上所有正確答案:D52.在感知機(jī)中(Perceptron)的任務(wù)順序是什么?1隨機(jī)初始化感知機(jī)的權(quán)重2去到數(shù)據(jù)集的下一批(batch)3如果預(yù)測值和輸出不一致,則調(diào)整權(quán)重4對一個輸入樣本,計算輸出值A(chǔ)、1,2,3,4B、1,4,3,2C、4,3,2,1D、3,1,2,4正確答案:B53.人工智能誕生在1955年,50年代末第一款神經(jīng)網(wǎng)絡(luò)-()將人工智能推向了第一個高潮。A、費曼機(jī)B、感知機(jī)C、無人機(jī)D、機(jī)器人正確答案:B54.下面哪個敘述是對的?Dropout對一個神經(jīng)元隨機(jī)屏蔽輸入權(quán)重Dropconnect對一個神經(jīng)元隨機(jī)屏蔽輸入和輸出權(quán)重A、1是對的,2是錯的B、都是對的C、1是錯的,2是對的D、都是錯的正確答案:D55.若變量間存在顯式的因果關(guān)系,則常使用()模型。A、貝葉斯網(wǎng)B、馬爾可夫網(wǎng)C、切比雪夫網(wǎng)D、D珀爾網(wǎng)正確答案:A56.numpy數(shù)組的ndim屬性是()?A、數(shù)組的維度B、列數(shù)C、各維度大小的元組D、行數(shù)正確答案:A57.我們常說“人類是智能回路的總開關(guān)”,即人類智能決定著任何智能的高度、廣度和深度,下面哪一句話對這個觀點的描述不正確A、人類智能是機(jī)器智能的設(shè)計者B、機(jī)器智能目前無法完全模擬人類所有智能C、機(jī)器智能目前已經(jīng)超越了人類智能D、機(jī)器智能和人類智能相互協(xié)同所產(chǎn)生的智能能力可超越人類智能或機(jī)器智能正確答案:C58.已知f=exsiny,則▽f等于()。A、exsiny+excosyB、exsinyex+exsinyeyC、exsinyex+excosyeyD、excosyex+excosyey正確答案:C59.若某二叉樹中的所有結(jié)點值均大于其左子樹上的所有結(jié)點值,且小于右子樹上的所有結(jié)點值,則該二叉樹遍歷序列中有序的是A、前序序列B、中序序列C、后序序列D、以上說法均不正確正確答案:B60.在強(qiáng)化學(xué)習(xí)的過程中,學(xué)習(xí)率α越大,表示采用新的嘗試得到的結(jié)果比例越(),保持舊的結(jié)果的比例越()。A、小B、小C、大D、小E、大F、大正確答案:F61.下列不屬于人工智能學(xué)派的是A、符號主義B、連接主義C、機(jī)會主義D、行為主義正確答案:C62.()的出現(xiàn),使研究無限假設(shè)空間的復(fù)雜度成為可能。A、VC維B、Natarajan維C、計算機(jī)學(xué)習(xí)理論D、Rademacher復(fù)雜度正確答案:A63.下面是一段將圖像轉(zhuǎn)換為向量的函數(shù)img2vector。該函數(shù)創(chuàng)建1×1024的NumPy數(shù)組,然后打開給定的文件,循環(huán)讀出文件的前32行,并將每行的頭32個字符值存儲在NumPy數(shù)組中,最后返回數(shù)組。請問填充在空白處的代碼應(yīng)該是哪個。defimg2vector(filename):returnVect=zeros((1,1024))fr=open(filename)foriinrange(32):______________________________forjinrange(32):returnVect[0,32*i+j]=int(lineStr[j])returnreturnVectA、lineStr=fr.readline()B、lineStr=fr.read_line()C、lineStr=fr.readlines()D、lineStr=readline()正確答案:A64.表達(dá)式min(['11','2','3'])的值為________。A、3'B、5'C、2'D、11'正確答案:D65.下面哪個/些超參數(shù)的增加可能會造成隨機(jī)森林?jǐn)?shù)據(jù)過擬合()A、樹的數(shù)量B、樹的深度C、學(xué)習(xí)速率正確答案:B66.以下關(guān)于集成的描述,錯誤的是(___)。A、隨著集成中個體分類器(相互獨立)數(shù)目T的增大,集成的錯誤率將指數(shù)級下降,最終趨向于零B、集成學(xué)習(xí)通過構(gòu)建并結(jié)合多個學(xué)習(xí)器來完成學(xué)習(xí)任務(wù),也稱為多分類器系統(tǒng)、基于委員會的學(xué)習(xí)等C、集成中只包含同種類型的個體學(xué)習(xí)器,如“決策樹集成”,“神經(jīng)網(wǎng)絡(luò)集成”等,這樣的集成是“同質(zhì)”的D、集成中同時包含多種類型的個體學(xué)習(xí)器,這樣的集成是“異質(zhì)”的,異質(zhì)集成的個體學(xué)習(xí)器一般稱為基學(xué)習(xí)器正確答案:D67.()有跟環(huán)境進(jìn)行交互,從反饋當(dāng)中進(jìn)行不斷的學(xué)習(xí)的過程。A、監(jiān)督學(xué)習(xí)B、線性回歸C、非監(jiān)督學(xué)習(xí)D、強(qiáng)化學(xué)習(xí)正確答案:D68.Scikit-learn中數(shù)據(jù)和標(biāo)簽用什么數(shù)據(jù)結(jié)構(gòu)來存儲?A、字典B、列表C、數(shù)組正確答案:C69.下述()不是知識的特征。A、復(fù)雜性和明確性B、客觀性和依附性C、可重用性和共享性D、進(jìn)化和相對性正確答案:A70.語義網(wǎng)絡(luò)表達(dá)知識時,有向弧AKO鏈、ISA鏈表達(dá)節(jié)點知識的()A、無悖性B、可擴(kuò)充性C、繼承性D、完整性正確答案:C71.一般來說,下列哪種方法常用來預(yù)測連續(xù)獨立變量?A、線性回歸B、邏輯回歸C、線性回歸和邏輯回歸都行D、以上說法都不對正確答案:A72.神經(jīng)網(wǎng)絡(luò)研究屬于下列哪個學(xué)派A、符號主義B、連接主義C、行為主義D、其他選項均不對正確答案:B73.一般情況,K-NN最近鄰方法在()的情況下效果較好.A、樣本較少但典型性好B、樣本較多但典型性不好C、樣本呈鏈狀分布D、樣本呈團(tuán)狀分布正確答案:A74.如果我們希望預(yù)測n個類(p1,p2...pk)的概率使得所有n的p的和等于1,那么下列哪個函數(shù)可以用作輸出層中的激活函數(shù)?A、ReLuB、SigmoidC、TanhD、Softmax正確答案:D75.Root用戶無法在裝有Atlas300(3000)加速卡的服務(wù)器上安裝DDK(DeviceDevelopmentKit),只能使用普通用戶進(jìn)行安裝。A、TRUEB、FALSE正確答案:A76.強(qiáng)化學(xué)習(xí)在每個時刻環(huán)境和個體都會產(chǎn)生相應(yīng)的交互。個體可以采取一定的(),這樣的行動是施加在環(huán)境中的。A、agentB、stateC、rewardD、action正確答案:D77.關(guān)于MNIST,下列說法錯誤的是()。A、是著名的手寫體數(shù)字識別數(shù)據(jù)集B、有訓(xùn)練集和測試集兩部分C、訓(xùn)練集類似人學(xué)習(xí)中使用的各種考試試卷D、測試集大約包含10000個樣本和標(biāo)簽正確答案:C78.關(guān)于Docker安裝的表述錯誤的是()A、Docker支持在Windows、Linux、MacOS等系統(tǒng)上安裝B、CentOS安裝Docker有兩種方式:一,curl獲取腳本安裝,另外是yum倉庫安裝。C、Docker服務(wù)端和客戶端必須運行在一臺機(jī)器上D、可通過dockerversion命令參看Docker版本信息正確答案:C79.在機(jī)器學(xué)習(xí)建模過程中對原始數(shù)據(jù)集的劃分不包括A、verificationsetB、trainingsetC、validationsetD、testset正確答案:A80.變量的不確定性越大,相對應(yīng)信息熵有什么變化()A、熵變小B、熵變大C、不變D、以上都不對正確答案:B81.關(guān)于集成學(xué)習(xí),以下說法錯誤的是A、集成學(xué)習(xí)一定能提升個體學(xué)習(xí)器的性能&B、&Bagging方法中,個體學(xué)習(xí)器之間彼此獨立&C、&Boosting是一種重視錯誤樣本的學(xué)習(xí)方法&D、&Boosting方法中,個體學(xué)習(xí)器存在強(qiáng)依賴正確答案:A82.下面不能使用GPU進(jìn)行加速的算法框架是A、CaffeB、TheanoC、KerasD、Sklearn正確答案:D83.自然語言理解是人工智能的重要應(yīng)用領(lǐng)域,下面列舉中的()不是它要實現(xiàn)的目標(biāo)A、對自然語言表示的信息進(jìn)行分析概括或編輯B、欣賞音樂C、理解別人講的話D、機(jī)器翻譯正確答案:B84.隨著卷積層數(shù)的增加,下面描述正確的是:①.在一定層數(shù)范圍內(nèi),效果越來越好②.能夠抽取的特征更加復(fù)雜③.層數(shù)越多越容易發(fā)生梯度消失A、①②B、①②③C、①③D、②③正確答案:B85.為了增強(qiáng)網(wǎng)絡(luò)的表達(dá)能力,我們需要()來將線性函數(shù)轉(zhuǎn)換為非線性函數(shù)。A、損失函數(shù)B、激活函數(shù)C、指數(shù)函數(shù)D、三角函數(shù)正確答案:B86.在有監(jiān)督學(xué)習(xí)中,我們?nèi)绾问褂镁垲惙椒ǎ竣傥覀兛梢韵葎?chuàng)建聚類類別,然后在每個類別上用監(jiān)督學(xué)習(xí)分別進(jìn)行學(xué)習(xí)②我們可以使用聚類“類別id”作為一個新的特征項,然后再用監(jiān)督學(xué)習(xí)分別進(jìn)行學(xué)習(xí)③在進(jìn)行監(jiān)督學(xué)習(xí)之前,我們不能新建聚類類別④我們不可以使用聚類“類別id”作為一個新的特征項,然后再用監(jiān)督學(xué)習(xí)分別進(jìn)行學(xué)習(xí)A、①和③B、③和④C、①和②D、②和④正確答案:C87.Docker是通過()實現(xiàn)了資源隔離。A、namespaceB、cgroupsC、copy-on-writeD、unionfilesystem正確答案:A88.下列哪個不是專門用于可視化時間空間數(shù)據(jù)的技術(shù)()A、矢量場圖B、曲面圖C、餅圖D、等高線圖正確答案:C89.世界上第一次正式的AI會議于()年召開,JohnMarthy正式提出“ArtifiialIntelligene”這一術(shù)語A、1954B、1955C、1956D、$1,957正確答案:C90.關(guān)于學(xué)習(xí)率的描述正確的是:A、學(xué)習(xí)率的大小是根據(jù)不同場景程序員自己設(shè)定的,不宜太大或者太小B、學(xué)習(xí)率越小系統(tǒng)一定精度越高C、學(xué)習(xí)率越大系統(tǒng)運行速度越快D、學(xué)習(xí)率和w、b一樣是參數(shù),是系統(tǒng)

溫馨提示

  • 1. 本站所有資源如無特殊說明,都需要本地電腦安裝OFFICE2007和PDF閱讀器。圖紙軟件為CAD,CAXA,PROE,UG,SolidWorks等.壓縮文件請下載最新的WinRAR軟件解壓。
  • 2. 本站的文檔不包含任何第三方提供的附件圖紙等,如果需要附件,請聯(lián)系上傳者。文件的所有權(quán)益歸上傳用戶所有。
  • 3. 本站RAR壓縮包中若帶圖紙,網(wǎng)頁內(nèi)容里面會有圖紙預(yù)覽,若沒有圖紙預(yù)覽就沒有圖紙。
  • 4. 未經(jīng)權(quán)益所有人同意不得將文件中的內(nèi)容挪作商業(yè)或盈利用途。
  • 5. 人人文庫網(wǎng)僅提供信息存儲空間,僅對用戶上傳內(nèi)容的表現(xiàn)方式做保護(hù)處理,對用戶上傳分享的文檔內(nèi)容本身不做任何修改或編輯,并不能對任何下載內(nèi)容負(fù)責(zé)。
  • 6. 下載文件中如有侵權(quán)或不適當(dāng)內(nèi)容,請與我們聯(lián)系,我們立即糾正。
  • 7. 本站不保證下載資源的準(zhǔn)確性、安全性和完整性, 同時也不承擔(dān)用戶因使用這些下載資源對自己和他人造成任何形式的傷害或損失。

評論

0/150

提交評論