版權說明:本文檔由用戶提供并上傳,收益歸屬內容提供方,若內容存在侵權,請進行舉報或認領
文檔簡介
試卷科目:人工智能自然語言技術練習人工智能自然語言技術練習(習題卷10)PAGE"pagenumber"pagenumber/SECTIONPAGES"numberofpages"numberofpages人工智能自然語言技術練習第1部分:單項選擇題,共116題,每題只有一個正確答案,多選或少選均不得分。[單選題]1.以下哪個模型是屬于產(chǎn)生式模型A)HMMB)SVMC)CRFD)MEMM答案:A解析:[單選題]2.ELMO的第一層LSTM中更多的得到的是什么信息A)固定的詞向量B)詞義信息C)語義信息D)句法信息答案:D解析:[單選題]3.tf.add函數(shù)是對兩個tensor做什么運算?A)維度轉化B)相加C)相減D)相乘答案:B解析:[單選題]4.以下幾個關于Bagging的說法正確的是A)對于偏差來說,Bagging通常選用偏差高的弱學習器B)對于方差來說,Bagging可以降低方差C)不確定D)對于方差來說,Bagging可以提高方差答案:B解析:[單選題]5.關于自然語言處理,以下說法正確的是()A)就是相人一樣聽到語言,然后查找數(shù)據(jù)庫識別聲音B)就是理解書面文字,翻譯成另一種語言C)理解自然界各種自然的聲響,并加以解釋D)具備人類般文字處理能力,從文本中提取意義答案:D解析:[單選題]6.對特征進行歸一化后有什么樣的優(yōu)點A)可以為數(shù)據(jù)增加適量的沉余B)可以為代價函數(shù)加入正則項C)不確定D)更快地通過梯度下降找到最優(yōu)解。答案:D解析:[單選題]7.結構化數(shù)據(jù)是()?A)數(shù)據(jù)庫中的數(shù)據(jù)B)HTML文檔C)文本D)圖片答案:A解析:[單選題]8.下面哪個個關于softmax函數(shù)的說法是正確的?A)主要用于二分類B)算出來為概率值C)將最小的概率值所對應的類別作為輸入樣本的輸出類別D)所有的概率相加大于1答案:B解析:[單選題]9.Fasttext做分類,會有以下哪個優(yōu)點A)網(wǎng)絡層數(shù)較多B)復雜度高C)精度高D)快速答案:D解析:[單選題]10.詞庫太大,使用詞袋子模型做文本表示會出現(xiàn)什么問題A)向量維度小B)有很強的語義信息C)維度爆炸D)簡單快速答案:C解析:[單選題]11.當使用withtf.Session()創(chuàng)建的會話時,在關閉時的同事()釋放資源A)自動B)手動C)不能D)無法答案:A解析:[單選題]12.下面模型當中哪個使用了Bi-LSTMA)bertB)GPTC)ELMOD)word2vec答案:C解析:[單選題]13.人工智能中關于F-范數(shù),可標記為()A)||*||FB)||·||FC)||-||FD)F||·||答案:B解析:[單選題]14.CNN網(wǎng)絡包含如下哪個概念A)視野域B)循環(huán)結構C)梯度消失D)以上都不包含答案:A解析:[單選題]15.seq2seq是什么樣的模型架構A)編碼和解碼B)解碼C)編碼D)預測答案:A解析:[單選題]16.在BERT模型當中有一個遮蔽任務的訓練,那么有多少的遮蔽掉的詞A)10%B)12%C)15%D)20%答案:C解析:[單選題]17.平方損失函數(shù)一般用在以下哪個算法中A)邏輯回顧B)線性回歸C)SVMD)聚類答案:B解析:[單選題]18.評估回歸模型的指標,用哪個?A)A:FR2B)B:MFFEC)C:MSED)D:ABC全錯答案:C解析:[單選題]19.人工智能關于數(shù)據(jù)預處理的方法,下面哪個不屬于?A)變量代換B)離散化C)聚集D)估計遺漏值答案:D解析:[單選題]20.基于語義的自然語言文本表示中深度學習是哪個?A)LDAB)LSIC)PLSID)wordembedding答案:B解析:[單選題]21.Relu的求導非常簡單所以速度快,它正半?yún)^(qū)的求導之后是多少A)0B)0.25C)1D)-1答案:C解析:[單選題]22.模型訓練階段,使用優(yōu)化算法是為了在迭代的過程中實現(xiàn)怎么的效果A)增大損失值B)使學習率衰減C)降低損失值D)提升正則項范圍答案:B解析:[單選題]23.人工智能機器學習的K均值算法,以下說法不對的是A)K均值算法是聚類算法B)K均值算法是通過迭代過程把數(shù)據(jù)集劃分成不同的類別C)K均值算法是有監(jiān)督學習算法D)K均值算法對初始值敏感,不同的初始值,可能會導致不同的結果答案:C解析:[單選題]24.GBDT(GradientBoostingDecisionTree)的全名叫什么A)隨機森林B)梯度提升決策樹C)聚類D)邏輯回歸答案:B解析:[單選題]25.XGBoost雖然是在GBDT的基礎上進行的改進但是它可以吧哪些方面發(fā)揮到極致A)速度B)代價C)準確率D)以上都是答案:A解析:[單選題]26.ELMO是一種什么樣的模型A)語言模型B)基于神經(jīng)網(wǎng)絡的語言模型C)基于統(tǒng)計的語言模型D)預訓練語言模型答案:D解析:[單選題]27.什么是隨機梯度下降A)隨機賦值,祈禱它們是正確的B)搜索所有權重和偏差的組合,直到得到最佳值C)賦予一個初始值,通過檢查跟最佳值的差值,然后迭代更新權重D)以上都不正確答案:C解析:[單選題]28.設輸入句子:?我愛人工智能?,通過自然語言處理產(chǎn)生輸出:?我/愛/人工智能?。這個過程稱為()。A)中文分詞B)詞性標注C)依存詞法分析D)命名實體識別答案:A解析:[單選題]29.XGBoost是對某個算法的改進,是以下四個選項中的哪個算法A)GBDTB)隨機森林C)線性回歸D)邏輯回歸答案:A解析:[單選題]30.Relu的求導,正半?yún)^(qū)的求導之后是多少A)0B)0.25C)1D)-1答案:C解析:[單選題]31.不同標注集的根本差別在于()A)如何對某些詞進行分類B)如何排布詞語C)如何對某種字符進行分類D)如何排布字符答案:A解析:[單選題]32.CBOW的模型網(wǎng)絡結構是___?A)輸入之后在投影層求和或求平均,最終使用softmax分類B)先對向量求和或求平均,然后將其映射到一個稠密的向量空間上C)先編碼再解碼D)不確定答案:A解析:[單選題]33.語言模型word2Vec有什么優(yōu)劣勢A)編碼的詞向量中不包含語義信息B)是一種有監(jiān)督的訓練方式C)無法處理一詞多意問題D)不確定答案:C解析:[單選題]34.常用的操作Batch歸一化,對比到神經(jīng)網(wǎng)絡中,和下列描述的哪個步驟很相似?A)reluB)dropoutC)sigmoidD)tanh答案:B解析:[單選題]35.梯度消失可以使用的處理方式有:A)對于RNN,可以通過梯度截斷,避免梯度消失B)可以通過添加正則項,避免梯度爆炸C)使用LSTM等自循環(huán)和門控制機制,避免梯度爆炸D)優(yōu)化激活函數(shù),譬如將sigmold改為relu,避免梯度消失答案:D解析:[單選題]36.在一個_概率_空間,進行多種劃分后,其其信息熵是()A)一定相等B)一定不等C)不確定無關聯(lián)D)互有關聯(lián)答案:C解析:[單選題]37.正則化也是常用的手段,以下關于正則化描述錯誤的是哪個A)過擬合可以通過正則化方式消除B)常用的正則化方式由L1,L2,以及dropoutC)欠擬合可以通過正則化方式消除D)正則化是損失函數(shù)的一個補償項答案:C解析:[單選題]38.下列管Batch歸一化操作的作用描述正確的是?A)作用于輸出層B)僅作用于輸入層C)無法在隱藏層起作用D)用于輸入層,甚至深度隱藏層的歸一化過程答案:D解析:[單選題]39.下列選項中不屬于智能問答分類的是()。A)開放領域自動問答B(yǎng))非特定領域自動問答C)特定領域自動問答D)常用問題集自動問答答案:B解析:[單選題]40.Transformer是一個基于什么的模型A)AttentionB)CNNC)RNND)LSTM答案:A解析:[單選題]41.下列四個選項中,對于正則化(regularization)的描述正確的選項是哪個?A)每一個隱層都需要正則化(regularization)B)每一個模型中都需要正則化,否則無法正確預測結果C)正則化可以預防欠擬合D)正則化可以預防過擬合答案:D解析:[單選題]42.多頭機制的作用是什么A)使每個子空間都有相互之間的連接B)使計算變得跟深,更不容易理解C)本質是多個獨立的Attention的計算,作為一個集成的作用防止過擬合,然后每個子空間之間相互獨立D)不確定答案:C解析:[單選題]43.不屬于文本挖掘的基本技術分類的是()A)文本信息抽取B)文本分類C)文本聚類D)文本數(shù)據(jù)挖掘答案:D解析:[單選題]44.在進行池化的時候,如果參數(shù)ksize=[1,4,4,1]那么圖像會發(fā)生什么樣的變化A)縮小到1/2B)縮小到1/16C)擴大兩倍D)擴大四倍答案:B解析:[單選題]45.以下是softmax函數(shù)的是()A)概率B)歸一化C)損失函數(shù)D)空間答案:B解析:[單選題]46.大概率事件怎么理解?如何理解大概率事件A)發(fā)生可能性不大的事件B)發(fā)生可能性大的事件C)發(fā)生可能性不去確定的事件D)以上都正確答案:B解析:[單選題]47.基于LDA主題模型的文本情感分析不包括()。A)文本轉換B)主題提取和情感詞提取C)主題情感摘要生成D)系統(tǒng)評測答案:A解析:[單選題]48.以下哪個不是文本向量化的常用方法?A)EMB)CBOWC)BDOWD)DM答案:A解析:[單選題]49.sigmoid作為常見的激活函數(shù),有著非線性變化的作用,它的曲線是什么樣的A)直線B)A型曲線C)C型曲線D)S型曲線答案:D解析:[單選題]50.關于梯度消失的解釋,下面哪個是準確的?A)通過優(yōu)化算法,處理梯度,可以更快做梯度下降,獲取最優(yōu)解B)由于數(shù)據(jù)處理或者激活函數(shù)選擇不合理等原因,無法獲取梯度,從而不能獲得最優(yōu)解C)由于隱藏層數(shù)量過少,無法獲取梯度,從而不能獲得最優(yōu)解D)通過更多隱藏層,減少梯度迭代,從而更快的進行計算,獲取最優(yōu)解答案:B解析:[單選題]51.決策樹的基本算法A)分支限界算法B)回溯法C)貪心算法D)概率算法答案:C解析:[單選題]52.以下幾個選項中,哪個可以表示超平面A)Wt*x+b=0B)w*log(x)=0C)w*ln(x)=0D)wx2=0答案:A解析:[單選題]53.以下哪個與LSTM無關A)遺忘門B)輸入門C)輸出門D)更新門答案:D解析:[單選題]54.CART回歸樹和XGBoost使用的什么相同的方法去尋找最優(yōu)結果A)貪心算法B)線性回歸C)邏輯回歸D)嶺回歸答案:A解析:[單選題]55.哪個技術可以用來解決過擬合問題?A)DorpoutB)正則化C)批規(guī)范化D)以上技術均可以答案:D解析:[單選題]56.語言是()A)句子的集合B)產(chǎn)生式的集合C)符號串的集合D)句型的集合答案:A解析:[單選題]57.Bagging中的采樣方法是什么樣的A)有放回的隨機抽樣B)無放回的隨機抽樣C)有放回的順序抽樣D)無放回的順序抽樣答案:A解析:[單選題]58.在實際的應用中,通常的歸一化和以下哪個選項中的描述一并使用A)訓練集的mini-batchB)測試集的mini-batchC)整個訓練集D)整個測試集答案:A解析:[單選題]59.TF-IDF中用權重衡量一個詞肯定不夠全面,怎么辦A)使用one-hotB)使用bagofwordC)使用Word2VecD)不確定答案:C解析:[單選題]60.下列哪個說法是正確的?A)神經(jīng)網(wǎng)絡的更深層通常比前面層計算更復雜的輸入特征。B)神經(jīng)網(wǎng)絡的前面層通常比更深層計算更復雜的輸入特性。C)神經(jīng)網(wǎng)絡由輸入和隱藏層構成D)神經(jīng)網(wǎng)絡的隱藏層只能是一層答案:A解析:[單選題]61.以下選項中關于sigmoid求導之后的值域描述正確的是?A)(0,0.1]B)(0,0.2]C)(0,0.25]D)(0,0.5]答案:C解析:[單選題]62.關于logit回歸和SVM不正確的是A)Logit回歸本質上是一種根據(jù)樣本對權值進行極大似然估計的方法,而后驗概率正比于先驗概率和似然函數(shù)的乘積。logit僅僅是最大化似然函數(shù),并沒有最大化后驗概率,更談不上最小化后驗概率。B)Logit回歸的輸出就是樣本屬于正類別的幾率,可以計算出概率C)SVM的目標是找到使得訓練數(shù)據(jù)盡可能分開且分類間隔最大的超平面,應該屬于結構風險最小化。D)SVM可以通過正則化系數(shù)控制模型的復雜度,避免過擬合。答案:A解析:[單選題]63.以下哪個超參數(shù)的調試,對神經(jīng)網(wǎng)絡最重要?A)mini-Batch的大小B)動量梯度下降的參數(shù)βC)學習率αD)隱藏層數(shù)目答案:C解析:[單選題]64.以下哪個聚類算法不是屬于基于原型的聚類A)模糊C均值B)EM算法C)SOMD)CLIQUE答案:A解析:[單選題]65.AUC的值不會大于幾?A)1B)2C)3D)4答案:A解析:[單選題]66.文本分類中,數(shù)據(jù)提取特征階段的任務是()A)選擇具體分類模型及算法,訓練文本分類器B)對文檔矩陣降維,提取訓練集中最有用的特征C)應用性能最高的分類模型對分類文檔進行分類D)應用性能最高的分類模型對分類文檔進行分類答案:B解析:[單選題]67.關于XGBoost對樹的復雜度以下描述正確的是A)一個是樹里面根節(jié)點的個數(shù)TB)一個是樹里面葉子節(jié)點的個數(shù)TC)不確定D)以上都正確答案:B解析:[單選題]68.怎樣理解?硬間隔??A)SVM只允許極小誤差B)SVM允許分類時出現(xiàn)一定范圍的誤差C)二者都不對D)不確定答案:A解析:[單選題]69.格的中心是()A)動詞B)名詞C)介詞D)副詞答案:A解析:[單選題]70.在模型構建前期,對數(shù)據(jù)進行劃分,正常的將數(shù)據(jù)集進行切分為三個集合,下面哪個不被包含?A)確認集B)測試集C)驗證集D)訓練集答案:A解析:[單選題]71.神經(jīng)網(wǎng)絡中經(jīng)常使用到激活函數(shù),下面關于激活函數(shù)的說法是正確的?A)神經(jīng)網(wǎng)絡中最好的激活函數(shù)是sigmoidB)激活函數(shù)有正則化作用C)dropout是CNN中的激活函數(shù)D)神經(jīng)元輸出后需要給定一個激活函數(shù)答案:D解析:[單選題]72.K-Means所處理的數(shù)據(jù)是什么樣子的A)未標記的數(shù)據(jù)集B)已標記的數(shù)據(jù)集C)半標記的數(shù)據(jù)集D)不確定答案:A解析:[單選題]73.trainset和testset描述正確的是A)可以直接使用訓練集來驗證算子的準確率B)訓練集用于算子的擬合C)驗證集和測試集用來評判算子的準確度D)可以不配置驗證集答案:A解析:[單選題]74.聚類肘部法的作用是:A)就是從K值和代價函數(shù)J的二維圖中找出J下降變平滑的拐點對應的K值。B)最大K值C)最小K值D)隨機K值答案:A解析:[單選題]75.編解碼器的encode在中如果使用LSTM接收的是什么A)每個單詞的wordembedding和上一時間點的hiddenstateB)接收的是原始的單詞C)接收的是上一層和hiddenstateD)接收的是每個單詞的wordembedding答案:A解析:[單選題]76.以下歸一化的描述,正確的是()A)通過中值和均值進行確定B)通過平均值和最小值確定C)通過方差和均值確定D)通過標準差和均值確定答案:C解析:[單選題]77.我們在做一個線性回歸時候,如果(x,y)的值為(5,6),(6,7),(7,8),(8,9),則y與x之間的回歸直線方程為A)y=x+1B)y=x+2C)y=x-1D)y=2x+1答案:A解析:[單選題]78.并行地訓練一系列各自獨立的同類模型,然后再將各個模型的輸出結果按照某種策略進行聚合,是什么思想A)BaggingB)BoostingC)StackingD)以上都正確答案:A解析:[單選題]79.在貝葉斯統(tǒng)計中,如果后驗分布與先驗分布屬于同類,則被稱為什么A)二項分布B)多項分布C)共軛分布D)Bete分布答案:C解析:[單選題]80.sigmoid函數(shù)的缺點:導數(shù)值范圍為(0,0.25],反向傳播時會導致?梯度消失?。而()函數(shù)導數(shù)值范圍更大,相對好一點。A)coshB)sinC)tanhD)sigmoid答案:C解析:[單選題]81.SVM處理一個四分類問題,假定數(shù)據(jù)集中每一類的分布相同,且訓練一次SVM模型需要10秒,若完成上面的任務,共花費多少秒?A)20B)40C)60D)80答案:B解析:[單選題]82.大數(shù)據(jù)中,哪種梯度下降速度最快A)A:隨機梯度下降B)B:小批量梯度下降C)C:對代價函數(shù)求導D)D:批量梯度下降答案:B解析:[單選題]83.Relu和Tanh相比有什么不同的地方A)輸出的值域不同B)Relu可以做非線性變換而Tanh不可以C)Relu是激活函數(shù)但是Tanh不是激活函數(shù)D)都不可以做線性變換答案:A解析:[單選題]84.以下哪個與支持向量機無關A)使用核函數(shù)B)將低維向量向高維向量轉換C)使低維線性不可分的數(shù)據(jù)在高維線性可分D)使用向量的都叫支持向量機答案:D解析:[單選題]85.需要做參數(shù)調優(yōu)的時候可以使用哪個方法A)網(wǎng)格搜索B)SVMC)嶺回歸D)貪心法則答案:A解析:[單選題]86.人工智能近幾年大火,它最早是在什么時候出現(xiàn)的?A)20世紀50年代B)20世紀60年代C)20世紀70年代D)20世紀80年代答案:A解析:[單選題]87.以下哪個邏輯運算不能用單層人工神經(jīng)網(wǎng)絡實現(xiàn)A)NOT(邏輯非)B)AND(邏輯與)C)OR(邏輯或)D)XOR(邏輯異或)答案:D解析:[單選題]88.tf.matmul()方法的作用是什么A)相與B)乘積C)相除D)相加答案:B解析:[單選題]89.如果要采用神經(jīng)網(wǎng)絡來對文本進行建模,必須先將文本向量化,這一過程是指()A)將文本分詞B)獲得文本類別標簽C)將文本壓縮D)將文本轉換為數(shù)值向量答案:D解析:[單選題]90.特征工程本質上是一個什么樣的過程A)特征工程是一個表示和展現(xiàn)數(shù)據(jù)的過程B)特征工程是一個文本分類的過程C)特征工程是一個回歸過程D)特征工程是一個聚類過程答案:A解析:[單選題]91.美元貨幣符號?$?表示匹配字符串的()位置。A)結束B)開始C)中間D)表示貨幣的字符串答案:A解析:[單選題]92.決策樹中為什么要進行剪枝的操作A)決策樹生成算法遞歸的產(chǎn)生決策樹,進行剪枝毫無意義B)決策樹生成算法遞歸的產(chǎn)生決策樹,直到不能繼續(xù)下去為止,這樣產(chǎn)生的樹往往對訓練數(shù)據(jù)的分類很準確,但對未知測試數(shù)據(jù)的分類缺沒有那么精確,即會出現(xiàn)過擬合現(xiàn)象,因此需要剪枝C)決策樹的訓練過程當中可能會發(fā)生欠擬合,因此需要做剪枝D)決策樹的需要做節(jié)點的選擇,因此需要做剪枝答案:B解析:[單選題]93.可以在自然語言處理中用于語義關系提取的神經(jīng)網(wǎng)絡技術是以下哪種?A)循環(huán)神經(jīng)網(wǎng)絡B)卷積神經(jīng)網(wǎng)絡C)遞歸神經(jīng)網(wǎng)絡D)殘差神經(jīng)網(wǎng)絡答案:A解析:[單選題]94.LDA稱為()A)損失分布法B)內部衡量法C)打分卡法D)內部損失數(shù)據(jù)法答案:A解析:[單選題]95.專家系統(tǒng)的推理機的最基本的方式是()。A)直接推理和間接推理B)正向推理和反向推理C)邏輯推理和非邏輯推理D)準確推理和模糊推理答案:B解析:[單選題]96.LightGBM中使用了帶有深度限制的按葉子生長算法去對GBDT進行優(yōu)化,關于這個算法縮寫,是以下選項中的哪個?A)leaf-wiseB)HistogramC)SklearnD)Nnumpy答案:A解析:[單選題]97.谷歌開源出的BERT模型也得到了很廣泛的應用,對于BERT有幾個訓練任務A)1B)2C)3D)4答案:B解析:[單選題]98.關于HMM的解碼問題,用什么算法處理A)前向算法B)后向算法C)Viterbi算法D)Baum-Welch算法答案:C解析:[單選題]99.SVM算法的性能取決于:A)核函數(shù)的選擇B)核函數(shù)的參數(shù)C)軟間隔參數(shù)CD)以上所有答案:D解析:[單選題]100.在下列四個選項中,正確的找出激活函數(shù)A)L1B)ReluC)L2D)MSE答案:B解析:[單選題]101.RMSprop相比較與算法Momentum,建議可以采取更大的()A)學習率B)樣本集C)損失函數(shù)D)激活函數(shù)答案:A解析:[單選題]102.()根據(jù)文本的不同特征劃分為不同的類A)文本概括B)文本分類C)文本聚類D)都可以答案:C解析:[單選題]103.設輸入句子?我愛人工智能?,經(jīng)過詞性標注等得到?我/PN愛/VV人工智能/NR",其中,PN、VV和NR的含義分別是代詞、動詞、專有名詞。以下()是命名實體。A)?我?B)?愛?C)?人工智能?D)?我?、?人工智能?答案:C解析:[單選題]104.以下哪個激活函數(shù)經(jīng)常用來解決二分類問題A)tanhB)LeakyReluC)sigmoidD)relu答案:C解析:[單選題]105.什么是自然語言處理(NLP)A)機器理解B)讓計算機/機器在理解語言上像人類一樣智能C)彌補人類交流和計算機理解之間的差距D)一門計算機科學、人工智能以及語言學的交叉學科答案:D解析:[單選題]106.在NLP任務中,以下哪個可以提高模型精度A)ELMoB)OpenAI?sGPTC)ULMFitD)One-Hot答案:B解析:OpenAI的GPT能夠通過使用Transformer模型的注意力機制(AttentionMechanism)來學習數(shù)據(jù)中的復雜模式,因此更適合于諸如語義相似性、閱讀理解和常識推理之類的復雜用例。[單選題]107.一個文本語料庫中我們要提取的特征可能是什么A)文本中詞計數(shù)B)詞的向量標注C)詞性標注(PartofSpeechTag)D)以上所有答案:D解析:[單選題]108.SVM中,若C趨于無窮,以下哪種說法正確?A)數(shù)據(jù)仍可正確分類B)數(shù)據(jù)無法正確分類C)不確定D)以上都不對答案:A解析:[單選題]109.以下哪個模型使用了雙向的Transformer作為特征提取A)BERTB)Word2VecC)ELMOD)GPT答案:A解析:[單選題]110.像個性化推薦,機器創(chuàng)作等這類任務,用到了以下哪個內容A)深度學習B)GANC)自編碼D)遷移學習答案:A解析:[單選題]111.DecisionTreeClassifier中的max_leaf_nodes參數(shù)的作用是什么A)最大葉子節(jié)點數(shù)B)類別權重C)隨機種子D)決策樹深度答案:A解析:[單選題]112.并行地訓練一系列各自獨立的不同類模型,然后通過訓練一個元模型(meta-model)來將各個模型輸出結果進行結合,是什么思想A)BaggingB)BoostingC)StackingD)以上都正確答案:C解析:[單選題]113.KNN算法更適合于()的分類問題。A)稀有事件B)易發(fā)事件C)不確定D)以上都正確答案:A解析:[單選題]114.梯度爆炸如何解決??A)對于RNN,可以通過梯度截斷,避免梯度消失B)可以通過添加正則項,避免梯度爆炸C)使用LSTM等自循環(huán)和門控制機制,避免梯度爆炸D)優(yōu)化激活函數(shù),譬如將sigmold改為relu,避免梯度消失答案:B解析:[單選題]115.中文NLP的基本流程由語料獲取、()、文本向量化、模型構建、模型訓練和模型評價6部分組成。A)語料預處理B)中文分詞C)去停用詞D)詞性標注答案:A解析:[單選題]116.自然語言處理包括哪些階段()。A)自然語言書寫。B)自然語言理解。C)自然語言寫作。D)然語言分析。答案:B解析:第2部分:多項選擇題,共57題,每題至少兩個正確答案,多選或少選均不得分。[多選題]117.以下哪些是CNN的內容A)卷積B)池化C)循環(huán)神經(jīng)結構D)以上都不對答案:AB解析:[多選題]118.關鍵詞提取系統(tǒng)的實用性主要表現(xiàn)在以下()A)可讀性B)高速性C)學習性D)健壯性答案:ABCD解析:[多選題]119.目前深度學習的到了廣泛的應用,那么深度學習可以應用到以下哪些領域A)計算機視覺B)語音識別C)自然語言處理D)人機博弈答案:ABCD解析:[多選題]120.SVM的原理是什么?A)當訓練樣本線性可分時,通過硬間隔最大化,學習一個線性分類器,即線性可分支持向量機B)當訓練數(shù)據(jù)近似線性可分時,引入松弛變量,通過軟間隔最大化,學習一個線性分類器,即線性支持向量機;C)當訓練數(shù)據(jù)線性不可分時,通過使用核技巧及軟間隔最大化,學習非線性支持向量機。D)以上都正確答案:ABCD解析:[多選題]121.下面哪些算法可以用于文本的分詞?()A)基于規(guī)則的分詞B)TF-IDF算法C)反向最大匹配法D)詞嵌入答案:AC解析:[多選題]122.降維最終是為了達到一個什么樣的效果A)減少預測變量的個數(shù)。B)降低算法運算開銷。C)去除數(shù)據(jù)噪聲。D)確保這些變量是相互獨立的。答案:ABCD解析:[多選題]123.CNN模型的核心包括下面哪些選項A)局部連接B)權值共享C)多層次結構D)池化操作答案:ABD解析:[多選題]124.同樣是做降維,LDA和PCA的相同點A)兩者均可以對數(shù)據(jù)進行降維;B)兩者在降維時均使用了矩陣特征分解的思想;C)有監(jiān)督的降維方法;D)兩者都假設數(shù)據(jù)符合高斯分布;答案:ABD解析:[多選題]125.如果網(wǎng)絡中的梯度達到了0,那么說明___?A)局部最優(yōu)解B)全局最優(yōu)解C)鞍點D)轉折點答案:ABC解析:[多選題]126.以下死哦模型當中,哪些是用于產(chǎn)生詞嵌入的雙向語言模型A)BERTB)GPTC)ELMoD)Word2Vec答案:AC解析:[多選題]127.在下列四個選項中,關于GBDT算法描述正確的選項有哪些?A)預測階段的計算速度快,樹與樹之間可并行化計算(注意預測時可并行)B)在分布稠密的數(shù)據(jù)集上,泛化能力和表達能力都很好;C)GBDT在高維稀疏的數(shù)據(jù)集上表現(xiàn)不佳;D)訓練過程需要串行訓練,只能在決策樹內部采用一些局部并行的手段提高訓練速度。答案:ABCD解析:[多選題]128.對于一個詞向量方式詞袋子模型,它有什么優(yōu)劣勢A)簡單方便快速B)在語料充足的前提下,對于簡單自然語言處理任務效果不錯C)準確率較低D)無法關注詞語間的順序答案:ABCD解析:[多選題]129.下列應用屬于自然語言處理的是()A)機器閱讀B)機器翻譯C)語音識別D)人臉識別答案:AB解析:[多選題]130.正則表達式可以()A)測試字符串內的模式。例如,可以測試輸入字符串,以查看字符串內是否出現(xiàn)電話號碼模式或信用卡號碼模式B)替換文本??梢允褂谜齽t表達式來識別文檔中的特定文本,完全刪除該文本或者用其他文本替換它C)基于模式匹配從字符串中提取子字符串D)可以查找文檔內或輸入域內特定的文本答案:ABCD解析:[多選題]131.下列()是違約概率模型A)風險中性定價模型B)信用監(jiān)測模型C)信用風險計算方法D)以上都正確答案:ABCD解析:[多選題]132.ELMO中使用雙向的LSTM有什么可以優(yōu)化的地方A)將LSTM替換成TransformerB)雙向的LSTM在最后拼接的時候融合效果差C)適應性廣,普適性強D)可以動態(tài)調整的詞向量答案:BC解析:[多選題]133.線性函數(shù)歸一化,是怎么去實現(xiàn)的A)將原始數(shù)據(jù)映射到均值為0、標準差為1的分布上B)對原始數(shù)據(jù)的等比縮放C)使結果映射到[1,2]的范圍D)以上都正確答案:AB解析:[多選題]134.TF-IDF分別代表__和__?A)TF(詞頻)B)TF(逆文檔頻率)C)IDF(逆文檔頻率)D)IDF(詞頻)答案:AC解析:[多選題]135.Batch歸一化對于神經(jīng)網(wǎng)絡的調試為什么有用?A)通過歸一化所有的輸入特征值,以獲得類似范圍的值,加速學習B)將參數(shù)歸一化可以減緩學習速率C)可以使權重比你的網(wǎng)絡更滯后或更深D)可以使權重比你的網(wǎng)絡更超前或更深答案:AC解析:[多選題]136.K-Means聚類的思想是什么A)適當?shù)倪x擇K個類的初始質心B)迭代更新,求C個中心的距離,找到距離最短的中心所在類C)利用均值等方法更新中心值D)不斷迭代更新,直到值保持不練答案:ABCD解析:[多選題]137.梯度消失對于模型的訓練非常重要,會造成模型學不到新的東西。下列說法中,關于其描述正確的選項都有哪些?A)梯度消失對神經(jīng)網(wǎng)絡無影響B(tài))可以通過激活函數(shù)防止梯度消失C)盡量避免梯度消失D)梯度消失反向傳播時,由于梯度值過小或消失的現(xiàn)象答案:BCD解析:[多選題]138.在下列參數(shù)中,有哪些參數(shù)是在神經(jīng)網(wǎng)絡中需要進行調試的?A)學習率αB)動量梯度下降的參數(shù)βC)mini-Batch的大小D)隱藏層數(shù)目答案:ABCD解析:[多選題]139.判別式Discriminativemodel模型使用的方式有:A)HMMB)SVMC)CRFD)MEMM答案:BCD解析:[多選題]140.詞性標注后會降低()處理的復雜度。A)詞義標注B)信息檢索C)字音轉換D)簡繁轉換答案:ABCD解析:[多選題]141.下列哪些是預訓練模型A)ELMOB)BERTC)GPTD)GPT-2答案:ABCD解析:[多選題]142.常用的激活函數(shù)包括哪些A)tanhB)sigmoidC)ReluD)leaky-Relu答案:ABCD解析:[多選題]143.能逃離局部最優(yōu)解的方式為A)AdamB)MomentumC)RMSpropD)Lasso答案:ABC解析:[多選題]144.關于如下運算:a=tf.Variable([3,4,5])和b=tf.Variable(a),以下描述正確的是A)合法B)非法C)合法但a需要提前初始化D)合法但不夠安全答案:ACD解析:[多選題]145.文本的One-hot表示的缺點有()A)維數(shù)過高B)矩陣稀疏C)不能保留語義D)以上都不對答案:ABC解析:[多選題]146.應用最寬泛的深度學習框架是哪個A)caffeB)tensorflowC)torchD)mxnet答案:ABCD解析:[多選題]147.自然語言處理的典型應用場景有()A)文檔分類和時間序列分類B)根據(jù)電影評論進行情感分析C)根據(jù)最近天氣數(shù)據(jù)預測未來天氣D)將英語翻譯為法語答案:ABCD解析:[多選題]148.下面關于_概率圖模型_,其分類說法正確的是A)有向圖:貝葉斯網(wǎng)絡B)有向圖:馬爾可夫隨機場C)無向圖:貝葉斯網(wǎng)絡D)無向圖:馬爾可夫隨機場答案:AD解析:[多選題]149.訓練好的線性回歸模型可能會遇到什么不好的問題A)欠擬合B)數(shù)據(jù)量過小C)過擬合D)模型正常答案:AC解析:[多選題]150.所謂的命名實體包括哪些?()A)人名B)地名C)機構名D)時間答案:ABCD解析:[多選題]151.文本分類任務中使用FastText算法有什么特點A)可以進行有監(jiān)督學習,也可以無監(jiān)督學習B)引入了分層的softmaxC)結構與CBOW類似D)缺點是沒有引入N-Gram答案:ABC解析:[多選題]152.One-Hot的缺點是什么A)簡單快速容易使用B)可能會產(chǎn)生維度爆炸C)沒有語義信息D)向量的特征表示并不是很好答案:BCD解析:[多選題]153.LDA中有四個分布分別是哪四個分布A)二項分布B)多項分布C)beta分布D)Dirichlet分布答案:ABCD解析:[多選題]154.下面哪些關于特征工程正則化的描述是正確的?A)正則化可以防止欠擬合B)relu函數(shù)具有正則化效果C)正則化可以防止過擬合D)dropout具有正則化效果答案:CD解析:[多選題]155.自然語言處理產(chǎn)生的對話系統(tǒng),對企業(yè)有哪些好處?A)節(jié)省人工B)提高獎金C)節(jié)省費用D)降低耗電答案:AC解析:[多選題]156.NLP研究的方向和內容都有哪些??A)文檔分類B)信息抽取C)輿情分析D)信息檢索答案:ABCD解析:[多選題]157.下列四個選項中,關于樸素貝葉斯算法特點描述正確的是?A)低偏差B)高方差C)低方差D)高偏差答案:CD解析:[多選題]158.下列屬于文本分類模型的有()。A)基于規(guī)則的分類模型B)基于概率的分類模型C)基于機器學習的分類模型D)基于神經(jīng)網(wǎng)絡的分類模型答案:ACD解析:[多選題]159.篇章分析中關于自動文摘,可以分為哪兩大類A)LDAB)ExtractiveC)AbstractiveD)Recall答案:BC解析:[多選題]160.CNN網(wǎng)絡中的卷積部分分別都是有哪些部分構成的A)卷積層B)RELUC)POOLING層D)pedding答案:ABC解析:[多選題]161.N-gram對NLP中的什么任務有不錯的效果A)中文詞性標注B)中文分詞C)中文文本分析D)以上都正確答案:ABCD解析:[多選題]162.以下哪些屬于長短期記憶網(wǎng)絡A)輸入門B)輸出門C)遺忘門D)重置門答案:ABC解析:[多選題]163.概率圖模型中關于判別式模型的缺點,以下哪些?A)學習過程比較復雜B)目標分類中易產(chǎn)生較大錯誤率C)不能反映訓練數(shù)據(jù)本身的特性D)沒辦法把整個場景描述出來答案:CD解析:[多選題]164.如果在訓練任務中發(fā)生了過擬合現(xiàn)象應該如何解決A)增加數(shù)據(jù)量B)減少數(shù)據(jù)量C)增加迭代次數(shù)D)減少迭代次數(shù)答案:AD解析:[多選題]165.以下哪些是隨機森林的特點:A)A:能夠有效地運行在大數(shù)據(jù)集上B)B:能夠處理具有高維特征的輸入樣本,而且不需要降維C)C:對于缺省值問題也能夠獲得很好得結果D)D:能夠評估各個特征在分類問題上的重要性答案:ABCD解析:[多選題]166.以下哪些網(wǎng)絡是循環(huán)神經(jīng)網(wǎng)絡A)RNNB)LSTMC)GRUD)以上都是的答案:ABCD解析:[多選題]167.以下哪些算法經(jīng)常會用到歸一化A)SVMB)線性回歸C)邏輯回歸D)神經(jīng)網(wǎng)絡答案:ABCD解析:[多選題]168.pytorch框架可用于解決以下哪些問題A)NLPB)CVC)DMD)都不能答案:ABC解析:[多選題]169.文本表示的模型有哪些A)詞袋子模型B)N-gramC)線性回歸模型D)邏輯回歸模型答案:AB解析:[多選題]170.相比機器學習,深度學習在處理數(shù)據(jù)的時,在以下哪些方面更加簡便A)數(shù)據(jù)清洗B)特征提取C)特征選擇D)模型訓練答案:ABC解析:[多選題]171.邏輯回歸可以做分類,以下對于它有點描述A)多重共線性和預測變量之間相互關聯(lián)。多重共線性會導致解空間的不穩(wěn)定,從而可能導致結果的不連貫。B)高維空間本身具有稀疏性。一維正態(tài)分布有68%的值落于正負標準差之間,而在十維空間上只有2%。C)過多的變量,對查找規(guī)律造成冗余麻煩。D)僅在變量層面上分析可能會忽略變量之間的潛在聯(lián)系。例如幾個預測變量可能落入僅反映數(shù)據(jù)某一方面特征的一個組內。答案:ABCD解析:[多選題]172.以下哪些是判別式模型A)HMMB)SVMC)CRFD)MEMM答案:BCD解析:[多選題]173.CNN在NLP中也有廣泛的應用,下面程序語句例如conv2d(input_d,filter_d,strides=[1,3,3,1],padding='SAME'),這條語句的含意理解為()?A)步長在高度方向和寬度方向均為3B)填充圖像邊緣,使圖像尺寸不變C)input_d是待卷積的數(shù)據(jù)D)進行卷積操作答案:ABCD解析:第3部分:判斷題,共66題,請判斷題目是否正確。[判斷題]174.Attention和Self-Attention的計算方式是相同的A)正確B)錯誤答案:對解析:[判斷題]175.提升隱層層數(shù)或者隱層神經(jīng)元個數(shù),神經(jīng)網(wǎng)絡?容量?會變大,空間表達力會變強。A)正確B)錯誤答案:對解析:[判斷題]176.感知器分類器最早由Rosenblatt提出(Rosenblatt,1962),其又被稱作正確驅動的方法。A)正確B)錯誤答案:錯解析:[判斷題]177.sub函數(shù)能夠找到所有模式匹配的字符串并用指定的字符串替換。對A)正確B)錯誤答案:對解析:[判斷題]178.中文對于詞沒有一個形式上的分界符。A)正確B)錯誤答案:對解析:[判斷題]179.類模型提出的意義是降低模型參數(shù)的規(guī)模。A)正確B)錯誤答案:對解析:[判斷題]180.自然語言處理是能實現(xiàn)計算機與計算機之間用自然語言進行有效通信的各種理論和方法。A)正確B)錯誤答案:對解析:[判斷題]181.決策樹如果不加剪枝操作的話,很容易陷入過擬合A)正確B)錯誤答案:對解析:[判斷題]182.在應用領域中,不會根據(jù)量而劃分是否是語料庫A)正確B)錯誤答案:對解析:[判斷題]183.激活函數(shù)一般連接在輸入層的后面A)正確B)錯誤答案:對解析:[判斷題]184.在分類問題中,表示基于特征對實例進行分類的過程,可以認為是if-then的集合,也可以認為是定義在特征空間與類空間上的條件概率分布。A)正確B)錯誤答案:對解析:[判斷題]185.ID3,C4.5,CART算法中,選擇的特征方法不同A)正確B)錯誤答案:對解析:[判斷題]186.將一個具有多變量的全局函數(shù)因子分解,得到幾個局部函數(shù)的乘積,以此為基礎得到的一個雙向圖叫做因子圖A)正確B)錯誤答案:對解析:[判斷題]187.情感詞的強度指的是情感的強弱。對A)正確B)錯誤答案:對解析:[判斷題]188.符合正態(tài)分布的兩類樣本的分類面的位置與先驗概率無關。A)正確B)錯誤答案:錯解析:[判斷題]189.層次softmax使用的是霍夫曼樹來編碼輸出層詞典A)正確B)錯誤答案:對解析:[判斷題]190.CNN中卷積核的尺寸越小越好A)正確B)錯誤答案:錯解析:[判斷題]191.首先gbdt是通過采用加法模型(即基函數(shù)的線性組合),以及不斷減小訓練過程產(chǎn)生的殘差來達到將數(shù)據(jù)分類或者回歸的算法。A)正確B)錯誤答案:對解析:[判斷題]192.機器翻譯不屬于自然語言處理技術。A)正確B)錯誤答案:錯解析:[判斷題]193.詞法分析中,通常用正確率、召回率、F值來評價系統(tǒng)的性能A)正確B)錯誤答案:對解析:[判斷題]194.構造一個句法分析器需要考慮兩部分工作。首先,是句法的形式化表示;其次,有了這些規(guī)則,還需要有使用這些規(guī)則來達成分析的算法A)正確B)錯誤答案:對解析:[判斷題]195.ELMO相比較Word2Vec解決了一詞多義問題A)正確B)錯誤答案:對解析:[判斷題]196.redwine是搭配詞A)正確B)錯誤答案:對解析:[判斷題]197.森林中任意兩棵樹的相關性:相關性越大,錯誤率越低。A)正確B)錯誤答案:錯解析:[判斷題]198.EM中的M步,結合E步求出的隱含變量條件概率,求出似然函數(shù)下界函數(shù)的最大值A)正確B)錯誤答案:對解析:[判斷題]199.TextCNN是用于機器翻譯的算法A)正確B)錯誤答案:錯解析:[判斷題]200.文本離散表示的特點是忽略文本信息中的語序信息和語境信息,僅將其反映為若干維度的獨立概念。對A)正確B)錯誤答案:對解析:[判斷題]201.Seq2Seq并不是編解碼結構A)正確B)錯誤答案:對解析:[判斷題]202.深度學習相比較于人工神經(jīng)網(wǎng)絡,前者的隱藏層數(shù)更多A)正確B)錯誤答案:對解析:[判斷題]203.CYK分析法首先需要對文法進行Chomsky范式化處理A)正確B)錯誤答案:對解析:[判斷題]204.EM算法是一種監(jiān)督學習算法A)正確B)錯誤答案:錯解析:[判斷題]205.隱馬爾科夫模型適宜用于系統(tǒng)中長期預測A)正確B)錯誤答案:錯解析:[判斷題]206.發(fā)生了過擬合之后,可以從數(shù)據(jù)入手,獲取更多的數(shù)據(jù)集A)正確B)錯誤答案:對解析:[判斷題]207.神經(jīng)網(wǎng)絡中的輸出層可以是一層,也可以是多層A)正確B)錯誤答案:錯解析:[判斷題]208.正則表達式的組成部分只能是可打印字符。錯A)正確B)錯誤答案:錯解析:[判斷題]209.可以把數(shù)據(jù)集分割為子集訓練,這些子集被取名為mini-batchA)正確B)錯誤答案:對解析:[判斷題]210.情感詞典可以根據(jù)要求自行構建也可以從網(wǎng)上下載專門的情感詞典。對A)正確B)錯誤答案:對解析:[判斷題]211.CBOW屬于基于神經(jīng)網(wǎng)絡的文本表示方法,是word2vec中重要的一種實現(xiàn)方式A)正確B)錯誤答案:對解析:[判斷題]212.EM算法中求和的項數(shù)會隨著隱變量的數(shù)目指數(shù)上升,會給梯度計算帶來麻煩。EM算法是一種非梯度優(yōu)化算法A)正確B)錯誤答案:對解析:[判斷題]213.gensim包中當word2vce的參數(shù)sg=1時,代表選擇CBOW算法A)正確B)錯誤答案:錯解析:[判斷題]214.判別模型直接估計分類的最終優(yōu)化目標條件概率()A)正確B)錯誤答案:對解析:[判斷題]215.keras是TensorFlow的高級集成API,它更加的簡介方便A)正確B)錯誤答案:對解析:[判斷題]216.關于網(wǎng)絡中的學習問題,在一次學習問題中,只能通過一個樣本進行學習,以能夠認出同一個人。A)正確B)錯誤答案:對解析:[判斷題]217.基于規(guī)則的標注方法是較早的一種詞性標注方法,這種方法需要獲取能表達一定的上下文關系及其相關語境的規(guī)則庫。對A)正確B)錯誤答案:對解析:[判斷題]218.ELMO和Word2Vec都屬于預訓練模型,ELMO相比較Word2Vec解決了一詞多義問題A)正確B)錯誤答案:錯解析:[判斷題]219.深度學習可以同時應用在圖像和自然語言領域A)正確B)錯誤答案:對解析:[判斷題]220.逆文檔頻率是統(tǒng)計一個詞在一篇文檔中出現(xiàn)頻次的統(tǒng)計量。錯A)正確B)錯誤答案:錯解析:[判斷題]221.編解碼模型由非常廣泛的應用A)正確B)錯誤答案:對解析:[判斷題]222.理性主義與經(jīng)驗主義的基本出發(fā)點是一致的。()A)正確B)錯誤答案:錯解析:[判斷題]223.特征工程可有可無A)正確B)錯誤答案:錯解析:[判斷題]224.淺層句法分析的方法基本上可以分成兩類:基于統(tǒng)計的方法和基于規(guī)則的方法A)正確B)錯誤答案:對解析:[判斷題]225.ID3可以做聚類A)正確B)錯誤答案:錯解析:[判斷題]226.不可撤回方式是利用問題給出的局部知識來決定如何選取規(guī)則,接著再根據(jù)新狀態(tài)繼續(xù)選取規(guī)則,搜索過程一直進行下去,不必考慮撒回用過的規(guī)則。A)正確B)錯誤答案:對解析:[判斷題]227.LR的可解釋性強,可控度高A)正確B)錯誤答案:對解析:[判斷題]228.關鍵詞提取技術的主要應用有新聞閱讀、廣告推薦、歷史文化研究、論文索引等領域。對A)正確B)錯誤答案:對解析:[判斷題]229.word2vce中計算相似度用的是余弦值,距離范為0-1之間,值越大代表兩個詞關聯(lián)度越高A)正確B)錯誤答案:對解析:[判斷題]230.采用回溯算法將導致大量的冗余操作,效率非常低A)正確B)錯誤答案:對解析:[判斷題]231.支持向量機是基于Vapnik提出的統(tǒng)計學習原理構建的一種線型分類器()A)正確B)錯誤答案:對解析:[判斷題]232.概率圖模型構建了這樣一幅圖,用觀測結點表示觀測到的數(shù)據(jù),用隱含結點表示潛在的知識,用邊來描述知識與數(shù)據(jù)的相互關系A)正確B)錯誤答案:對解析:[判斷題]233.語料庫必須以電子文本形式存在。錯A)正確B)錯誤答案:錯解析:[判斷題]234.SVM中當訓練數(shù)據(jù)近似線性可分時,引入松弛變量,通過軟間隔最大化,學習一個線性分類器,即線
溫馨提示
- 1. 本站所有資源如無特殊說明,都需要本地電腦安裝OFFICE2007和PDF閱讀器。圖紙軟件為CAD,CAXA,PROE,UG,SolidWorks等.壓縮文件請下載最新的WinRAR軟件解壓。
- 2. 本站的文檔不包含任何第三方提供的附件圖紙等,如果需要附件,請聯(lián)系上傳者。文件的所有權益歸上傳用戶所有。
- 3. 本站RAR壓縮包中若帶圖紙,網(wǎng)頁內容里面會有圖紙預覽,若沒有圖紙預覽就沒有圖紙。
- 4. 未經(jīng)權益所有人同意不得將文件中的內容挪作商業(yè)或盈利用途。
- 5. 人人文庫網(wǎng)僅提供信息存儲空間,僅對用戶上傳內容的表現(xiàn)方式做保護處理,對用戶上傳分享的文檔內容本身不做任何修改或編輯,并不能對任何下載內容負責。
- 6. 下載文件中如有侵權或不適當內容,請與我們聯(lián)系,我們立即糾正。
- 7. 本站不保證下載資源的準確性、安全性和完整性, 同時也不承擔用戶因使用這些下載資源對自己和他人造成任何形式的傷害或損失。
最新文檔
- 2024年高端裝備制造研發(fā)合同
- 2025年度二零二五木坑果場承包經(jīng)營與農(nóng)產(chǎn)品出口合同3篇
- 2024建材銷售合作協(xié)議書范本
- 2024虛擬現(xiàn)實游戲內容制作及授權合同
- 2024年電廠煤炭供應與支付條款標準協(xié)議版B版
- 2024年跨境電商倉儲物流合同
- 2024年項目投資與合作合同
- 2025年度智能家居系統(tǒng)設計與裝修合同范本3篇
- 2025便利店品牌授權與區(qū)域管理合同范本3篇
- 2024年環(huán)保項目投資合同投資金額與環(huán)保效果
- 團隊風采展示快閃ppt
- 工廠5S檢查評分評價基準表(全)
- 安吉游戲培訓課件(全)
- (第六版)江蘇省建設工程施工單位申報現(xiàn)場用表
- (完整)Tribon m3培訓資料
- 復旦大學本科留學生入學考試語文樣題
- 食管裂孔疝手術同意書
- 工地試驗室平面布置圖
- (完整版)復變函數(shù)與積分變換公式
- 國有資產(chǎn)清查工作方案國有資產(chǎn)清查報告
- 行政處罰普通程序流程圖
評論
0/150
提交評論