人工智能深度學習技術練習(習題卷11)_第1頁
人工智能深度學習技術練習(習題卷11)_第2頁
人工智能深度學習技術練習(習題卷11)_第3頁
人工智能深度學習技術練習(習題卷11)_第4頁
人工智能深度學習技術練習(習題卷11)_第5頁
已閱讀5頁,還剩18頁未讀, 繼續(xù)免費閱讀

下載本文檔

版權說明:本文檔由用戶提供并上傳,收益歸屬內(nèi)容提供方,若內(nèi)容存在侵權,請進行舉報或認領

文檔簡介

試卷科目:人工智能深度學習技術練習人工智能深度學習技術練習(習題卷11)PAGE"pagenumber"pagenumber/SECTIONPAGES"numberofpages"numberofpages人工智能深度學習技術練習第1部分:單項選擇題,共49題,每題只有一個正確答案,多選或少選均不得分。[單選題]1.激活函數(shù)把?()?保留并映射出來A)半激活的神經(jīng)元的特征B)未激活的神經(jīng)元的特征C)激活的神經(jīng)元的特征D)無所謂狀態(tài)的神經(jīng)元的特征答案:C解析:[單選題]2.什么是池化?A)隔離圖像特征的技術B)-種在保持特征的同時減少圖像信息的技術C)-種使圖像更清晰的技術D)組合圖片的技術答案:B解析:[單選題]3.pytorch增加維度的函數(shù)是:A)reshapeB)squeezeC)unsqueezeD)transpose答案:C解析:[單選題]4.壓縮文件命令正確的是()。A)tarB)gzipC)lsD)ls答案:B解析:難易程度:易題型:[單選題]5.如果詞匯量是10000,每個詞匯由300個特征表示,那么嵌入矩陣就是一個()的矩陣A)10000*10000B)300*300C)300*10000D)100*10000答案:C解析:[單選題]6.np.array([[1,2,3],[4,5,6]])屬于幾維數(shù)組()。A)0B)1C)2D)3答案:C解析:難易程度:易題型:[單選題]7.超參數(shù)范圍中說法正確的是A)隨機取值可以提升搜索效率B)隨機取值就是隨機均勻取值C)范圍就是[0,1]D)隨機取值對搜索無影響答案:A解析:[單選題]8.tf.GradientTape用來記錄()過程A)正向傳播B)反向傳播C)參數(shù)更新D)代價處理答案:A解析:[單選題]9.LSTM中,哪個門的作用是?確定哪些新的信息留在細胞狀態(tài)中,并更新細胞狀態(tài)??A)輸入門B)遺忘門C)輸出門D)更新門答案:A解析:[單選題]10.定義張量類型為32位浮點數(shù),下列代碼正確的是A)Tf.constant([1],32)B)Tf.constant([1],32.0)C)Tf.constant([1],type=tf.float32)D)Tf.constant([1],dtype=tf.float32)答案:D解析:[單選題]11.DataLoader中num_workers的作用是A)批次大小B)是否亂序C)使用多進程讀取數(shù)據(jù),設置的進程數(shù)。D)是否丟棄最后一個樣本數(shù)量不足batch_size批次數(shù)據(jù)。答案:C解析:[單選題]12.均方誤差損失函數(shù)用來處理()問題A)分類B)預測C)過擬合D)以上都不對答案:B解析:[單選題]13.Session是Tensorflow為了控制,和輸出文件的執(zhí)行的語句.運行session.run()可以獲得你要得知的運算結果,或者是你所要運算的部分通常要創(chuàng)建Session對象,對應的編程語句為:A)sess=tf.Session()B)sess.close()C)tf.add()D)tf.equal()答案:A解析:[單選題]14.當權值過大,前面層比后面層梯度變化更快,會引起梯度爆炸問題,就是所謂的()A)梯度爆炸B)卷積C)池化D)全連接答案:A解析:[單選題]15.從官網(wǎng)中下載的手寫數(shù)字數(shù)據(jù)集是什么類型文件()。A)二進制B)八進制C)十進制D)圖片文件答案:A解析:難易程度:易題型:[單選題]16.使用二維濾波器滑動到被卷積的二維圖像上所有位置,并在每個位置上與該像素點及其領域像素點做內(nèi)積,這就是()A)一維卷積B)二維卷積C)三維卷積D)四維卷積答案:B解析:[單選題]17.語句b=tf.ones_like(a)是A)將b節(jié)點內(nèi)容用a替換B)b對應張量維度和A相同,值為1C)b對應張量維度和A相同,值為2D)b對應張量維度和不同答案:B解析:[單選題]18.多義現(xiàn)象可以被定義為在文本對象中一個單詞或短語的多種含義共存。下列哪一種方法可能是解決此問題的最好選擇?BA)隨機森林分類器B)卷積神經(jīng)網(wǎng)絡C)梯度爆炸D)上述所有方法答案:B解析:[單選題]19.將一個骰子的?3?和?2?修改成?1?,那么擲這個骰子得信息熵會:A)增大B)減少C)不變D)不確定答案:B解析:[單選題]20.以下函數(shù)中不具備排序功能的是()。A)sortB)argsortC)lexsortD)extract答案:D解析:難易程度:中題型:[單選題]21.關于擬合說法正確的是A)過擬合只發(fā)生在理論階段,實際不會發(fā)生這種情況B)欠擬合是數(shù)據(jù)量過多,造成無法全部計算的現(xiàn)象C)訓練準確率高,測試準確率低的情況,數(shù)據(jù)過擬合D)過擬合是指數(shù)據(jù)量大,計算復雜的情況答案:C解析:[單選題]22.神經(jīng)網(wǎng)絡的三層網(wǎng)絡結構包括()。A)輸入層、中間層、輸出層B)輸入層、輸出層、中間層C)輸入層、隱藏層、輸出層D)輸入層、輸出層、隱藏層答案:C解析:難易程度:易題型:[單選題]23.下列關于循環(huán)語句的說法正確的是()。A)for語句是一種當型循環(huán)B)while語句是一種直到型循環(huán)C)使用while語句創(chuàng)建了無限循環(huán)時,一定是因為頂端布爾表達式只包含常數(shù)D)for語句和while語句都支持嵌套,并且可以相互嵌套答案:D解析:難易程度:中題型:[單選題]24.神經(jīng)網(wǎng)絡中使用激活函數(shù)處理非線性因素,是因為()的效果不夠A)非線性模型B)非線性+線性模型C)雙曲線性模型D)線性模型答案:D解析:[單選題]25.實踐中,Batch歸一化通常和什么一起使用A)訓練集的mini-batchB)測試集的mini-batchC)整個訓練集D)整個測試集答案:A解析:[單選題]26.MNIST數(shù)據(jù)集有多少條訓練樣本()。A)55000B)60000C)10000D)50000答案:D解析:難易程度:易題型:[單選題]27.Tf.matmul(a,B,transpose_a=False,transpose_b=False,adjoint_a=False,adjoint_b=False,a_is_sparse=False,b_is_sparse=False,name=None)函數(shù)返回值是一個跟張量a和張量b類型一樣的張量且最內(nèi)部矩陣是a和b中的相應矩陣的()A)相與B)乘積C)相除D)相加答案:B解析:[單選題]28.深度學習最早興起于()領域A)圖像識別B)語音識別C)數(shù)據(jù)挖掘D)自然語言處理答案:A解析:[單選題]29.對于一個圖像識別問題(在一張照片里找出一只貓),下面哪種神經(jīng)網(wǎng)絡可以更好地解決這個問題?A)循環(huán)神經(jīng)網(wǎng)絡B)感知機C)多層感知機D)卷積神經(jīng)網(wǎng)絡答案:D解析:[單選題]30.DataLoader中drop_last的作用是A)批次大小B)是否亂序C)使用多進程讀取數(shù)據(jù),設置的進程數(shù)。D)是否丟棄最后一個樣本數(shù)量不足batch_size批次數(shù)據(jù)。答案:D解析:[單選題]31.Youarebuildingabinaryelassifierforrecognizingcucumbers(y=1)vs.watermelons(y=0).Whichoneoftheseactivationfunctionswouldyourecommendusingfortheoutoutlaver?A)ReLUB)LeakyReLuC)sigmoidD)tanh答案:C解析:[單選題]32.Tf定義一個占位符號的語句是A)Y=tf.zeros(2.0,shape=[1,2])B)X=tf.variable(2.0,shape=[1,2])C)Y=tf.placeholder(tf.float32)D)Y=ones(2.0,shape=[1,2])答案:C解析:[單選題]33.以下選項中,對文件的描述錯誤的是()。A)文件是一個存儲在輔助存儲器上的數(shù)據(jù)序列B)文件中可以包含任何數(shù)據(jù)內(nèi)容C)文本文件和二進制文件都是文件D)文本文件不能用二進制文件方式讀入答案:D解析:難易程度:易題型:[單選題]34.(e^x)*x^2的導數(shù)是A)(e^x)(x^2+2x)B)(e^x)C)(e^x)*cos(x)D)cosx答案:A解析:[單選題]35.防止過擬合的方法可以使用正則化,正則化方法中不包括下面哪個方法()A)混合L1與L2正則化B)L1正則化C)L3正則化D)L2正則化答案:C解析:[單選題]36.在不使用輔助庫的情況下,Matplotlib不能繪制的圖形是()。A)箱線圖B)折線圖C)3D圖D)條形圖答案:C解析:難易程度:中題型:[單選題]37.對y=sigmoid(x)函數(shù)對x的導數(shù)可以寫成A)y(1+y)B)exp(-x)C)1-exp(-x)D)y(1-y)答案:D解析:[單選題]38.在tf.assign(a,B.的意義是:A)將b節(jié)點變量賦值給a節(jié)點變量B)將a節(jié)點變量賦值給b節(jié)點變量C)a=bD)b=a答案:A解析:[單選題]39.基礎的神經(jīng)網(wǎng)絡只在層與層之間建立了權連接,RNN最大的不同之處就是在層之間的神經(jīng)元之間也建立的()A)權連接B)層連接C)前饋連接D)反饋連接答案:A解析:[單選題]40.對于一個分類任務,如果開始時神經(jīng)網(wǎng)絡的權重不是隨機賦值的,而是都設成0,下面哪個敘述是正確的?A)其他都不對B)沒啥問題,神經(jīng)網(wǎng)絡會正常開始訓練C),但后都會別同樣的東西D)網(wǎng)絡不會開始訓練,因為沒有梯度改變答案:C解析:[單選題]41.模型訓練方式中最簡單的操作方式是:A)內(nèi)置fitB)內(nèi)置train_on_batchC)自定義訓練循環(huán)D)內(nèi)置compile答案:A解析:[單選題]42.AlexNet網(wǎng)絡結構有8層,其中有5個卷積層和()個全連接層A)3B)5C)16D)19答案:A解析:[單選題]43.JSON數(shù)據(jù)餓格式與下面哪種相似()。A)列表B)數(shù)組C)字典D)字符串答案:C解析:難易程度:易題型:[單選題]44.關于Python文件處理,以下選項中描述錯誤的是()A)Python能處理JPG圖像文件B)Python不可以處理PDF文件C)Python能處理CSV文件D)Python能處理Excel文件答案:B解析:難易程度:易題型:[單選題]45.X的值是False,tf.cast(x,tf.float32)的結果是A)0.0B)FalseC)1.0D)True答案:A解析:[單選題]46.卷積函數(shù)中,參數(shù)strides的作用是()A)設置卷積核B)設置卷積步長C)設置卷積層數(shù)D)以上都不對答案:B解析:[單選題]47.下列不屬于Lasso對象屬性的是()。A)coef_B)sparse_coef_C)intercept_D)n_features_答案:D解析:難易程度:中題型:第2部分:多項選擇題,共16題,每題至少兩個正確答案,多選或少選均不得分。[多選題]48.圖像讀寫語句:image0=tf.image.decode_jpeg(value)A)對Value進行解碼B)Value是jpeg格式數(shù)據(jù)C)value是壓縮數(shù)據(jù)D)tf.image是圖像處理類答案:ABCD解析:[多選題]49.范數(shù),在()、()及相關的數(shù)學領域,范數(shù)是一個函數(shù),是矢量空間內(nèi)的所有矢量賦予非零的正長度或大小。A)線性代數(shù)B)泛函分析C)腐蝕D)膨脹答案:AB解析:[多選題]50.Adagrad優(yōu)化器需要執(zhí)行的步驟是A)計算梯度B)累計平方梯度C)計算更新D)應用更新答案:ABCD解析:[多選題]51.Anaconda包含了()約180多個科學包及其依賴項。A)condaB)matlabC)PythonD)cad答案:AC解析:[多選題]52.函數(shù)conv2d()有好幾個參數(shù)…,對其參數(shù)描述正確的下面選項有那些?A)步長在高度方向和寬度方向均為stridesB)填充圖像邊緣,使圖像尺寸不變C)input是待卷積的數(shù)據(jù)D)filter是卷積核答案:ABCD解析:[多選題]53.在tensorflow中,tf.reshape函數(shù)的參數(shù)是(tensor,shape,name=None),以下哪些描述是正確的?A)函數(shù)的作用是將tensor變換為參數(shù)shape形式B)其中的shape為一個列表形式C)name可省略D)-1所代表的含義是我們不用親自去指定這一維的大小,函數(shù)會自動進行計算答案:ABCD解析:[多選題]54.語句a=tf.Variable([1,2,3])和b=tf.Variable(a)這條語句:A)合法B)非法C)合法但a需要提前初始化D)合法但不夠安全答案:ACD解析:[多選題]55.在tensorflow平臺中,能實現(xiàn)卷積運算的函數(shù)是:A)tf.nn.conv2dB)tf.nn.depthwise_conv2dC)tf.nn.convolutionD)tf.random_normal答案:ABC解析:[多選題]56.Anaconda包括()以及一大堆安裝好的工具包,比如:numpy、pandas等A)CondaB)PythonC)OPENCVD)TPU答案:AB解析:[多選題]57.optimizer中包含的方式有A)rmspropB)adagradC)adamD)sgd答案:ABCD解析:[多選題]58.Tf.train.AdamOptimizer(1e-4).minimize(cross_entropy)A)準備樣本集合B)前向傳遞,求出lossC)求出反向的梯度dYD)按照梯度dY,確定的更新參數(shù),更新X,繼續(xù)循環(huán)答案:ABCD解析:[多選題]59.writer.add_scalar僅能對標量的值的變化進行可視化,一般用于()分析A)損失B)評估指標C)權重D)截距答案:AB解析:[多選題]60.pytorch中tensorboard的可視化模塊有A)writer.add_graphB)writer.add_scalarC)writer.add_histogramD)writer.add_figure答案:ABCD解析:[多選題]61.梯度下降法主要有哪些缺點:()A)訓練速度慢B)計算量太大C)容易陷入局部最優(yōu)解D)代碼太多答案:AC解析:評價:梯度下降法主要有兩個缺點:訓練速度慢:每走一步都要要計算調(diào)整下一步的方向,下山的速度變慢。在應用于大型數(shù)據(jù)集中,每輸入一個樣本都要更新一次參數(shù),且每次迭代都要遍歷所有的樣本。會使得訓練過程及其緩慢,需要花費很長時間才能得到收斂解。容易陷入局部最優(yōu)解:由于是在有限視距內(nèi)尋找下山的反向。當陷入平坦的洼地,會誤以為到達了山地的最低點,從而不會繼續(xù)往下走。所謂的局部最優(yōu)解就是鞍點。落入鞍點,梯度為0,使得模型參數(shù)不在繼續(xù)更新。[多選題]62.屬于卷積的參數(shù)有A)strideB)kerner_sizeC)in_channelsD)out_channels答案:ABCD解析:第3部分:判斷題,共19題,請判斷題目是否正確。[判斷題]63.深度學習的思想,來源于人腦的啟發(fā),但絕不是人腦的模擬,人類的學習過程往往不需要大規(guī)模的訓練數(shù)據(jù),而現(xiàn)在的深度學習方法顯然是對人腦的模擬。A)正確B)錯誤答案:錯解析:深度學習的思想,來源于人腦的啟發(fā),但絕不是人腦的模擬,人類的學習過程往往不需要大規(guī)模的訓練數(shù)據(jù),而現(xiàn)在的深度學習方法顯然不是對人腦的模擬。[判斷題]64.獨熱編碼沒有什么作用A)正確B)錯誤答案:錯解析:[判斷題]65.隱藏層層數(shù)增加,模型能力增加。A)正確B)錯誤答案:錯解析:[判斷題]66.神經(jīng)網(wǎng)絡中,隱藏層如果具有足夠數(shù)量的單位,理論上它就可以近似任何連續(xù)函數(shù)。A)正確B)錯誤答案:對解析:[判斷題]67.Tensorflow是谷歌公司開發(fā)的深度學習開發(fā)框架。A)正確B)錯誤答案:對解析:[判斷題]68.使用torch.utils.data.TensorDataset根據(jù)Tensor創(chuàng)建數(shù)據(jù)集(numpy的array,Pandas的DataFrame需要先轉換成Tensor)。A)正確B)錯誤答案:對解析:[判斷題]69.卷積運算的主要目的是為了增強信號特征,較少噪音。A)正確B)錯誤答案:對解析:[判斷題]70.激活函數(shù)會將數(shù)據(jù)變?yōu)榉蔷€性模式A)正確B)錯誤答案:對解析:[判斷題]71.處理分類問題一般用神經(jīng)網(wǎng)絡,處理預測問題用線性回歸。A)正確B)錯誤答案:對解析:[判斷題]72.概率系統(tǒng)中,單個事件的信息熵,是系統(tǒng)信息熵的一個組成部分。A)正確B)錯誤答案:對解析:[判斷題]73.與傳統(tǒng)機器學習方法相比,深度學習的優(yōu)勢在于深度學習完全不提取底層特征,如圖像邊緣、紋理等。A)正確B)錯誤答案:錯解析:[判斷題]74.BP算法可以使網(wǎng)絡權值收斂到一個最終解,但它并不能保證所求為誤差超平面的全局最優(yōu)解,也可能是一個局部極小值。這主要是因為BP算法所采用的是梯度下降法A)正確B)錯誤答案:對解析:[判斷題]75.均方損失函數(shù),是個數(shù)量函數(shù),它的張量的維度是0A)正確B)錯誤答案:對解析:[判斷題]76.在tf語句中X.Value是將x中的內(nèi)容取出。A)正確B)錯誤答案:錯解析:[判斷題]77.全局變量初始化語句后,變量和常量都被初始化。A)正確B)錯誤答案:錯解析:[判斷題]78.MNIST全連接神經(jīng)網(wǎng)絡模型一共有3層,既輸入層、隱藏層和輸出層。A)正確B)錯誤答案:對解析:[判斷題]79.圖像經(jīng)過卷積之后會變小,輸入輸出大小不一致。采用0填充的方式解決這個問題。A)正確B)錯誤答案:對解析:[判斷題]80.Tf.reduce_mean函數(shù)的作用是求平均值。第一個參數(shù)是一個集合,可以是列表、二維數(shù)組和多維數(shù)組。第二個參數(shù)指定在哪個維度上面求平均值。默認對所有的元素求平均A)正確B)錯誤答案:對解析:[判斷題]81.所謂圖靈測試是一個典型思想實驗。A)正確B)錯誤答案:對解析:第4部分:問答題,共16題,請在空白處填寫正確答案。[問答題]82.卷積層的輸入輸出數(shù)據(jù)稱為_______答案:特征圖解析:[問答題]83.tensorflow中,變量是一種特殊的______。答案:張量;解析:[問答題]84.簡述批量梯度下降法的操作方法與優(yōu)缺點。答案:遍歷全部數(shù)據(jù)集算一次損失函數(shù),對各個參數(shù)進行更新;每更新一次參數(shù),需要遍歷數(shù)據(jù)集中所有樣本,導致計算速度慢。解析:[問答題]85.編程:tf.variable_scope里面還有一個resuse=True屬性,表示使用已經(jīng)定義過的變量,這時tf.get_variable都不會創(chuàng)建新的變量,而是直接獲取已經(jīng)創(chuàng)建的變量。聲明3個同名變量,使用該屬性使用已定義過的變量。答案:ImporttensorflowastfWithtf.variable_scope('V1?):a1=tf.get_variable(name='a1',shape=[1],initializer=tf.constant_initializer(1))Withtf.variable_scope('V2?):a2=tf.get_variable(name='a1',shape=[1],initializer=tf.constant_initializer(1))Withtf.variable_scope('V2',reuse=True):a3=tf.get_variable('a1?)Withtf.Session()assess:sess.run(tf.global_variables_initializer())print()print()print()解析:[問答題]86.損失函數(shù)一般使用_______和_______答案:均方誤差|交叉熵解析:[問答題]87.簡述深度學習的發(fā)展歷程。答案:但深度學習的發(fā)展先后經(jīng)過起源階段、發(fā)展階段、和爆發(fā)階段。起源階段:1943年美國神經(jīng)生理學家沃倫·麥克洛奇和邏輯學家沃爾特·茨設計使用計算機來模擬神經(jīng)元,被稱為人工神經(jīng)元模型。發(fā)展階段:1986年,杰弗里·辛頓提出了一種適用于多層感知器的反向傳播算法--BP算法,解決了非線性分類問題。爆發(fā)階段:2016年,谷歌基于深度學習開發(fā)的AlphaGo以4:1的比分戰(zhàn)勝了國際頂尖圍棋高手李世石,深度學習再次掀起狂潮。解析:[問答題]88.畫出一個包含1個卷積層、兩個全連接層,進行圖片分類任務的CNN網(wǎng)絡答案:解析:[問答題]89.神經(jīng)網(wǎng)絡的特征由_______決定權重參數(shù)的值答案:數(shù)據(jù)解析:[問答題]90.編程:新建tf.train.Saver()對象,恢復模型,模型路徑為src/step3/save_dir1/store.ckpt。答案:ImporttensorflowastfImporttimeDefvariable_restore():const123=tf.Variable(([[2]]),name="jjdaren")sess=tf.Session()saver=tf.train.Saver()saver.restore(sess,"src/step3/save_dir1/store.ckpt")final_result=sess.run(const123)sess.close()returnfinal_result解析:[問答題]91.importtensorflowastfA=tf.constant(3,32)B=tf.constant(4,32)C=tf.constant(5,32)Y=tf.add(a*b,c)Withtf.Session()assess:print(sess.run(y))該程序的輸出值為______。答案:17;解析:[問答題]92.M-P神經(jīng)元模型具有模型清晰、結構簡單、_________等優(yōu)點。答案:計算量??;解析:[問答題]93.為什么神經(jīng)網(wǎng)絡的激活函數(shù)必須使用非線性函數(shù)?答案:因為使用線性函數(shù)的話,不管如何加深層數(shù),總存在與之等效的?無隱藏層的神經(jīng)網(wǎng)絡?。為了發(fā)揮疊加層所帶來的優(yōu)勢,激活函數(shù)必須使用線性函數(shù)。解析:[問答題]94.編程:定義占位符input1和input2,利用占位符,啟動tensorflow圖,實現(xiàn)input1*input2,并將結果保存到變量result中。答案:Imp

溫馨提示

  • 1. 本站所有資源如無特殊說明,都需要本地電腦安裝OFFICE2007和PDF閱讀器。圖紙軟件為CAD,CAXA,PROE,UG,SolidWorks等.壓縮文件請下載最新的WinRAR軟件解壓。
  • 2. 本站的文檔不包含任何第三方提供的附件圖紙等,如果需要附件,請聯(lián)系上傳者。文件的所有權益歸上傳用戶所有。
  • 3. 本站RAR壓縮包中若帶圖紙,網(wǎng)頁內(nèi)容里面會有圖紙預覽,若沒有圖紙預覽就沒有圖紙。
  • 4. 未經(jīng)權益所有人同意不得將文件中的內(nèi)容挪作商業(yè)或盈利用途。
  • 5. 人人文庫網(wǎng)僅提供信息存儲空間,僅對用戶上傳內(nèi)容的表現(xiàn)方式做保護處理,對用戶上傳分享的文檔內(nèi)容本身不做任何修改或編輯,并不能對任何下載內(nèi)容負責。
  • 6. 下載文件中如有侵權或不適當內(nèi)容,請與我們聯(lián)系,我們立即糾正。
  • 7. 本站不保證下載資源的準確性、安全性和完整性, 同時也不承擔用戶因使用這些下載資源對自己和他人造成任何形式的傷害或損失。

評論

0/150

提交評論