遼寧省第二屆職業(yè)技能大賽(人工智能訓(xùn)練賽項)理論參考試題庫-上(單選題)_第1頁
遼寧省第二屆職業(yè)技能大賽(人工智能訓(xùn)練賽項)理論參考試題庫-上(單選題)_第2頁
遼寧省第二屆職業(yè)技能大賽(人工智能訓(xùn)練賽項)理論參考試題庫-上(單選題)_第3頁
遼寧省第二屆職業(yè)技能大賽(人工智能訓(xùn)練賽項)理論參考試題庫-上(單選題)_第4頁
遼寧省第二屆職業(yè)技能大賽(人工智能訓(xùn)練賽項)理論參考試題庫-上(單選題)_第5頁
已閱讀5頁,還剩168頁未讀, 繼續(xù)免費(fèi)閱讀

下載本文檔

版權(quán)說明:本文檔由用戶提供并上傳,收益歸屬內(nèi)容提供方,若內(nèi)容存在侵權(quán),請進(jìn)行舉報或認(rèn)領(lǐng)

文檔簡介

PAGEPAGE1遼寧省第二屆職業(yè)技能大賽(人工智能訓(xùn)練賽項)理論參考試題庫-上(單選題匯總)一、單選題1.下列選項中,哪項是由谷歌開發(fā)的人工能箅法框架?A、KafkaB、TensorflowC、affeD、Torch答案:B2.在人工智能的三次浪潮中,第三次浪潮是以()為代表。A、lphaGoB、專家系統(tǒng)C、人工神經(jīng)網(wǎng)絡(luò)D、聊天機(jī)器人答案:A3.華為EI智能體驗(yàn)館中,適用于模糊圖像重建高清圖像,并保持圖像內(nèi)容真實(shí)可信,顏色不失真的人工智能應(yīng)用是()。A、圖像標(biāo)簽B、低光照增強(qiáng)C、圖像去霧D、視頻標(biāo)簽答案:B4.語音識別屬于人工智能中的()。A、指紋識別研究范疇B、數(shù)字識別研究范疇C、模式識別研究范疇D、字符識別研究范疇答案:C5.下列屬于特征降維的方法為()。A、主成分分析PCAB、數(shù)據(jù)采樣C、正則化D、最小二乘法答案:A6.字符函數(shù)Rtrim(字符表達(dá)式)返回去掉字符表達(dá)式什么的字符串()。A、前導(dǎo)空格B、中間空格C、兩端空格D、尾部空格答案:D7.以下選項中,Python代碼的注釋使用的符號是()。A、//B、/?……?/C、%D、#答案:D8.以下哪個不是強(qiáng)化學(xué)習(xí)的基本元素?A、狀態(tài)B、動作C、獎勵D、標(biāo)簽答案:D9.以下哪項技術(shù)不是AI的分支?A、機(jī)器學(xué)習(xí)B、深度學(xué)習(xí)C、虛擬現(xiàn)實(shí)D、自然語言處理答案:C10.代碼print(1if'a'in'ABC'else2)執(zhí)行結(jié)果是()。A、2B、TRUEC、FALSED、1答案:A11.假定學(xué)生關(guān)系是S(S#,SNAME,SEX,AGE),課程關(guān)系是C(C#,CNAME,TEACHER),學(xué)生選課關(guān)系是SC(S#,C#,GRADE),要查找選修“COMPUTER”課程的女學(xué)生的姓名,將涉及到關(guān)系()A、SCB、SC,CC、S,SCD、S,C,SC答案:D12.使用白盒測試方法時,確定測試數(shù)據(jù)應(yīng)根據(jù)()和指定的覆蓋標(biāo)準(zhǔn)。A、程序的內(nèi)部結(jié)構(gòu)B、程序的復(fù)雜性C、使用說明書D、程序的功能答案:A13.人工智能模擬的是西方實(shí)證科學(xué),處理的是()。A、數(shù)據(jù)B、本質(zhì)C、表征D、現(xiàn)象答案:D14.在Access數(shù)據(jù)庫中,對數(shù)據(jù)表求列平均值的是().A、匯總查詢B、操作查詢C、選擇查詢D、追加查詢答案:C15.神經(jīng)網(wǎng)絡(luò)中的哪個層通常用于學(xué)習(xí)輸入數(shù)據(jù)的表示?A、輸入層B、隱藏層C、輸出層D、激活函數(shù)層答案:B16.在強(qiáng)化學(xué)習(xí)中,Q-learning和SARSA算法的主要區(qū)別是什么?A、Q-learning使用最大值函數(shù)進(jìn)行更新,而SARSA使用實(shí)際動作的值進(jìn)行更新。B、Q-learning使用實(shí)際動作的值進(jìn)行更新,而SARSA使用最大值函數(shù)進(jìn)行更新。C、Q-learning需要模型知識,而SARSA不需要。D、Q-learning不需要模型知識,而SARSA需要。答案:A17.人工智能誕生于哪一年?()A、1955B、1957C、1956D、1965答案:C18.在支持向量機(jī)中,核函數(shù)的主要作用是什么?A、將數(shù)據(jù)映射到高維空間B、降低數(shù)據(jù)的維度C、提高模型的訓(xùn)練速度D、減少模型的復(fù)雜度答案:A19.在自然語言處理中,詞袋模型(BagofWords,BoW)的一個限制是什么?A、它考慮了單詞的順序。B、它捕捉了句子的語義。C、它忽略了單詞之間的上下文關(guān)系。D、它適用于任何語言。答案:C20.AI的英文是()。A、utomaticIntelligenceB、ArtificialIntelligenceC、AutomaticInformationD、ArtificialInformation答案:B21.傳統(tǒng)的機(jī)器學(xué)習(xí)包括符號學(xué)習(xí)和()。A、建模學(xué)習(xí)B、連接學(xué)習(xí)C、分類學(xué)習(xí)D、數(shù)據(jù)挖掘答案:B22.如果使用向?qū)?chuàng)建交叉表查詢的數(shù)據(jù)源必須來自多個表,可以先建立一個什么表,然后將其作為數(shù)據(jù)源()。A、表B、虛表C、查詢D、動態(tài)集答案:C23.()指的是模型在訓(xùn)練數(shù)據(jù)上表現(xiàn)很好,但在未見過的測試數(shù)據(jù)上表現(xiàn)較差的情況。A、欠擬合B、過擬合C、不擬合D、分類答案:B24.下面屬于強(qiáng)化學(xué)習(xí)的是()A、兩個變量之間的關(guān)系,一個變量的數(shù)量變化由另一個變量的數(shù)量變化所惟一確定,則這兩個變量之間的關(guān)系稱為強(qiáng)化學(xué)習(xí)。B、用戶每讀一篇文章,就給這篇新聞貼上分類標(biāo)簽,例如這篇新聞是軍事新聞,下一篇新聞是經(jīng)濟(jì)新聞等;算法通過這些分類標(biāo)簽進(jìn)行學(xué)習(xí),獲得分類模型;再有新的文章過來的時候,算法通過分類模型就可以給新的文章自動貼上標(biāo)簽了。C、算法先少量給用戶推薦各類文章,用戶會選擇其感興趣的文章閱讀,這就是對這類文章的一種獎勵,算法會根據(jù)獎勵情況構(gòu)建用戶可能會喜歡的文章的“知識圖”。D、用戶經(jīng)常閱讀軍事類和經(jīng)濟(jì)類的文章,算法就把和用戶讀過的文章相類似的文章推薦給你。答案:C25.在機(jī)器學(xué)習(xí)中,批量歸一化(BatchNormalization)主要用于解決什么問題?A、加速梯度下降的收斂速度B、減少模型的輸入大小C、增強(qiáng)模型的非線性能力D、提供更好的初始化權(quán)重答案:A26.標(biāo)注出一句話中的動詞屬于()。A、分詞標(biāo)注B、意圖標(biāo)注C、詞性標(biāo)注D、實(shí)體標(biāo)注答案:C27.下列不屬于卷積操作的為:()。A、一維B、二維C、三維D、四維答案:D28.半監(jiān)督學(xué)習(xí)主要結(jié)合了哪兩種學(xué)習(xí)方法?A、監(jiān)督學(xué)習(xí)和無監(jiān)督學(xué)習(xí)B、監(jiān)督學(xué)習(xí)和強(qiáng)化學(xué)習(xí)C、無監(jiān)督學(xué)習(xí)和遷移學(xué)習(xí)D、遷移學(xué)習(xí)和主動學(xué)習(xí)答案:A29.在深度學(xué)習(xí)中,循環(huán)神經(jīng)網(wǎng)絡(luò)(RNN)的變體LSTM和GRU的主要區(qū)別在于什么?A、門控機(jī)制的不同。B、遺忘機(jī)制的不同。C、輸入和輸出單元的不同。D、層疊方式的不同。答案:A30.在課堂上,教師講課的聲音成為知覺的對象,而環(huán)境中的其他聲音成為背景音。這體現(xiàn)了知覺的()。A、理解性B、恒常性C、選擇性D、整體性答案:C31.操作系統(tǒng)的主要功能是A、實(shí)現(xiàn)軟、硬件轉(zhuǎn)換B、管理系統(tǒng)所有的軟、硬件資源C、把源程序轉(zhuǎn)換為目標(biāo)程序D、進(jìn)行數(shù)據(jù)處理答案:B32.人們把以()為硬件基本部件的計算機(jī)稱為第四代計算機(jī)。A、大規(guī)模和超大規(guī)模集成電路B、ROM和RAMC、小規(guī)模集成電路D、磁帶與磁盤答案:A33.以下哪個不屬于大數(shù)據(jù)在電信行業(yè)的數(shù)據(jù)商業(yè)化方面的應(yīng)用A、精準(zhǔn)廣告B、網(wǎng)絡(luò)管理C、營銷洞察D、大數(shù)據(jù)檢測和決策答案:B34.在機(jī)器學(xué)習(xí)中,過擬合通常指的是什么?A、模型在訓(xùn)練集上表現(xiàn)很好,但在測試集上表現(xiàn)較差B、模型在訓(xùn)練集和測試集上表現(xiàn)都很好C、模型在訓(xùn)練集上表現(xiàn)很差,但在測試集上表現(xiàn)很好D、模型無法處理任何數(shù)據(jù)答案:A35.針對“南京市長江大橋”這句話分詞正確的是A、南京/市長/江大橋B、南京市/長江大橋C、南京/市/長江/大橋D、南京/市/長江/大/橋答案:B36.如果a=1,b=2,c=3,則表達(dá)式(a==b<c)==(a==bandb<c)的值為()。A、FALSEB、0C、TRUED、-1答案:C37.在深度學(xué)習(xí)模型中,Dropout技術(shù)的效果是:A、增加模型的參數(shù)量B、減少模型的訓(xùn)練時間C、減輕過擬合現(xiàn)象D、加速模型的收斂速度答案:C38.以下哪個不是解決探索-利用困境的常用方法?A、ε-greedy策略B、softmax策略C、UCB(UpperConfidenceBound)算法D、梯度下降算法答案:D39.以下技術(shù),BERT使用的包括哪些?A、TransformerB、SeHAttention模塊C、RNN循環(huán)連接D、文本卷積答案:B40.目標(biāo)檢測中的感興趣區(qū)域(RegionofInterest,ROI)池化是指:A、將不同尺寸的目標(biāo)框映射到固定大小的特征圖上B、對目標(biāo)框中的像素進(jìn)行加權(quán)平均C、利用卷積操作提取目標(biāo)框的特征D、選擇具有最高置信度的目標(biāo)框答案:A41.在人工智能中,什么是“過擬合”?A、模型在訓(xùn)練數(shù)據(jù)上表現(xiàn)良好,但在測試數(shù)據(jù)上表現(xiàn)不佳B、模型在訓(xùn)練數(shù)據(jù)上表現(xiàn)不佳,但在測試數(shù)據(jù)上表現(xiàn)良好C、模型復(fù)雜度過高,導(dǎo)致訓(xùn)練時間過長D、模型復(fù)雜度不足,無法學(xué)習(xí)數(shù)據(jù)的特征答案:A42.我國大模型運(yùn)營的法律監(jiān)管框架主要側(cè)重于哪些方面?A、算法技術(shù)合規(guī)B、用戶數(shù)據(jù)隱私保護(hù)C、國際聯(lián)網(wǎng)合規(guī)D、全部上述內(nèi)容答案:D43.在深度學(xué)習(xí)中,條件隨機(jī)場(CRF)主要用于解決什么問題?A、圖像分割B、序列標(biāo)注C、無監(jiān)督學(xué)習(xí)D、特征選擇答案:B44.不屬于機(jī)器視覺應(yīng)用分類的是()。A、測量B、檢測C、定位D、監(jiān)控答案:D45.下面()是NLP用例。A、從圖像中檢測物體B、面部識別C、語音生物識別D、文本摘要答案:D46.使用交互式訓(xùn)練的目的是什么?()A、增加自定義動作B、連接界面C、搭建服務(wù)器D、增加樣本數(shù)據(jù)答案:D47.數(shù)據(jù)庫系統(tǒng)的特點(diǎn)是(),數(shù)據(jù)獨(dú)立,減少數(shù)據(jù)冗余,避免數(shù)據(jù)不一致和加強(qiáng)了數(shù)據(jù)保護(hù).A、數(shù)據(jù)共享B、數(shù)據(jù)存儲C、數(shù)據(jù)應(yīng)用D、數(shù)據(jù)保密答案:A48.在目標(biāo)檢測中,非極大值抑制(Non-MaximumSuppression,NMS)主要用于解決什么問題?A、目標(biāo)定位不準(zhǔn)確B、目標(biāo)識別錯誤C、重疊檢測框的冗余D、目標(biāo)特征提取不足答案:C49.在機(jī)器學(xué)習(xí)中,決策樹算法的主要優(yōu)點(diǎn)是什么?A、它能夠很好地處理非線性問題。B、它不需要任何形式的參數(shù)調(diào)整。C、它總是能找到全局最優(yōu)解。D、它適用于大規(guī)模數(shù)據(jù)集。答案:B50.當(dāng)希望機(jī)器人進(jìn)行快速運(yùn)動而選定電動機(jī)時,選擇()的電動機(jī)比較好。A、轉(zhuǎn)動慣量大且轉(zhuǎn)矩系數(shù)大B、轉(zhuǎn)動慣量大且轉(zhuǎn)矩系數(shù)小C、轉(zhuǎn)動慣量小且轉(zhuǎn)矩系數(shù)大D、轉(zhuǎn)動慣量小且轉(zhuǎn)矩系數(shù)小答案:C51.下列不屬于深度學(xué)習(xí)框架的是()。A、PytorchB、tensorflowC、jiebaD、MXnet答案:C52.張量是矩陣向任意維度的推廣,其不包括()。A、標(biāo)量B、向量C、多維數(shù)組D、字符串答案:D53.有一個網(wǎng)絡(luò)數(shù)據(jù)庫應(yīng)用系統(tǒng),其中一臺計算機(jī)A存有DBMS(數(shù)據(jù)庫管理系統(tǒng))軟件、所有用戶數(shù)據(jù)和應(yīng)用程序,其余各節(jié)點(diǎn)作為終端通過通信線路向A發(fā)出數(shù)據(jù)庫應(yīng)用請求,這種方式屬于()A、集中式數(shù)據(jù)庫系統(tǒng)B、并行數(shù)據(jù)庫系統(tǒng)C、客戶機(jī)/服務(wù)器數(shù)據(jù)庫系統(tǒng)D、分布式數(shù)據(jù)庫系統(tǒng)答案:A54.機(jī)器視覺成像系統(tǒng),采用鏡頭、()與圖像采集卡等相關(guān)設(shè)備獲取被觀測目標(biāo)的高質(zhì)量圖像,并傳送到專用圖像處理系統(tǒng)進(jìn)行處理。A、照明B、工業(yè)相機(jī)C、激光雷達(dá)D、紅外傳感器答案:B55.一個完整的計算機(jī)系統(tǒng)包括()A、計算機(jī)及其外部設(shè)備B、主機(jī)、鍵盤、顯示器C、系統(tǒng)軟件與應(yīng)用軟件D、硬件系統(tǒng)與軟件系統(tǒng)答案:D56.在自然語言處理中,Chunking是什么?A、一種語義分析技術(shù)。B、一種詞性標(biāo)注技術(shù)。C、一種構(gòu)建單詞之間語法樹的技術(shù)。D、一種命名實(shí)體識別技術(shù)。答案:A57.在大規(guī)模的語料中,挖掘詞的相關(guān)性是一個重要的問題。以下哪一個信息不能用于確定兩個詞的相關(guān)性()A、互信息B、最大熵C、卡方檢驗(yàn)D、最大似然比答案:B58.以下哪種方法可以用來緩解深度學(xué)習(xí)模型的梯度消失問題?A、使用較小的網(wǎng)絡(luò)權(quán)重初始化B、增加網(wǎng)絡(luò)層數(shù)C、使用ReLU激活函數(shù)D、增加訓(xùn)練迭代次數(shù)答案:C59.以下哪項屬于人工智能訓(xùn)練師的主要職責(zé)?A、招聘員工B、財務(wù)管理C、數(shù)據(jù)采集D、銷售業(yè)績答案:C60.深度學(xué)習(xí)中的哪個技術(shù)常用于防止過擬合?A、梯度下降B、反向傳播C、丟棄法(Dropout)D、批量歸一化(BatchNormalization)答案:C61.貝葉斯網(wǎng)結(jié)構(gòu)有效地表達(dá)了屬性的(_)。A、相互制約性B、條件獨(dú)立性C、取值D、含義答案:B62.Python不支持的數(shù)據(jù)類型有()。A、charB、intC、floatD、list答案:A63.剪枝是決策樹學(xué)習(xí)算法對付()的主要手段。A、欠擬合B、過擬合C、樣本數(shù)過多D、特征數(shù)過多答案:B64.使用百度AI的SDK,新建圖像識別客戶端,需要導(dǎo)入哪個模塊()。A、PILB、aidu-aipC、aipD、AipImageClassify答案:D65.以下關(guān)于函數(shù)說法正確的是()。A、函數(shù)的實(shí)際參數(shù)和形式參數(shù)必須同名B、函數(shù)的形式參數(shù)既可以是變量也可以是常量C、函數(shù)的實(shí)際參數(shù)不可以是表達(dá)式D、函數(shù)的實(shí)際參數(shù)可以是其他函數(shù)的調(diào)用答案:D66.人工智能的主要學(xué)派有:符號主義、連接主義和()A、語義網(wǎng)絡(luò)B、行為主義C、邏輯主義D、以上沒有正確答案答案:B67.下列不屬于人工智能學(xué)派的是()。A、行為主義B、連接主義C、機(jī)會主義D、符號主義答案:C68.數(shù)字音頻采樣和量化過程所用的主要硬件是()。A、數(shù)字編碼器B、數(shù)字解碼器C、模擬到數(shù)字的轉(zhuǎn)換器(A/D轉(zhuǎn)換器)D、數(shù)字到模擬的轉(zhuǎn)換器(D/A轉(zhuǎn)換器)答案:C69.政治人物檢測是基于()的圖像智能審核方案,可快速判斷是否有政治人物、事件等敏感信息,將違規(guī)信息扼殺在萌芽狀態(tài),幫助降低人力審核成本。A、深度學(xué)習(xí)B、自然語言處理C、專家系統(tǒng)D、智能控制答案:A70.InCeptionv2-v3模型中把1個3?3的卷積拆分為1?3和3?1的卷積好處是什么?()A、抵抗過擬合B、加快模型收斂速度C、增加網(wǎng)絡(luò)特征提取能力D、抵抗梯度消失答案:C71.下列四項中,不屬于數(shù)據(jù)庫系統(tǒng)特點(diǎn)的是()。A、數(shù)據(jù)共享B、數(shù)據(jù)完整性C、數(shù)據(jù)冗余度高D、數(shù)據(jù)獨(dú)立性高答案:C72.在大語言模型中,Transformer結(jié)構(gòu)的主要作用是什么?A、提取文本特征B、生成文本數(shù)據(jù)C、對文本進(jìn)行分類D、降低模型的復(fù)雜度答案:A73.關(guān)于物聯(lián)網(wǎng)以下表述錯誤的是()。A、物聯(lián)網(wǎng)可以實(shí)現(xiàn)物理空間與信息空間的融合B、物聯(lián)網(wǎng)被認(rèn)為是繼蒸汽機(jī)電力之后的第三次工業(yè)革命C、物聯(lián)網(wǎng)是可以把各種物品與計算機(jī)網(wǎng)絡(luò)互聯(lián)起來以實(shí)現(xiàn)智能化識別定位跟蹤監(jiān)控和管理的一種網(wǎng)絡(luò)D、物聯(lián)網(wǎng)必須通過各類信息感知設(shè)備進(jìn)行數(shù)據(jù)采集答案:B74.世界上第一次正式的AI會議于()年召開,JohnMcCarthy正式提出“ArtificialIntelligence”這一術(shù)語A、1957B、1954C、1955D、1956答案:D75.不屬于Access的窗體視圖的是()。A、"設(shè)計"視圖B、"查詢"視圖C、"窗體"視圖D、"數(shù)據(jù)表"視圖答案:B76.以下數(shù)據(jù)單位換算錯誤的是?A、1KB=1024BB、1GB=1024MBC、1TB=1000GBD、1MB=1024KB答案:C77.用兩個3x3的卷積核對一副三通道的彩色圖像進(jìn)卷積,得到的特征圖有()個通道。A、1B、2C、3D、4答案:B78.采用單元?dú)w結(jié)策略的歸結(jié)方法是()。A、不完備的B、完備的C、不一定答案:A79.什么時期開始出現(xiàn)了基于統(tǒng)計學(xué)習(xí)方法的人工智能技術(shù)?A、1950年代B、1960年代C、1980年代D、1990年代答案:D80.在自然語言處理中,用于改善模型對同義詞理解的技術(shù)是:A、詞嵌入B、詞頻統(tǒng)計C、one-hot編碼D、詞袋模型答案:A81.如果以特征向量的相關(guān)系數(shù)作為模式相似性測度,則影響聚類算法結(jié)果的因素有()。A、已知類別樣本質(zhì)量B、量綱C、特征選取D、已知樣本的類別答案:A82.機(jī)器學(xué)習(xí)中,哪種方法通常用于數(shù)據(jù)降維?A、主成分分析(PCA)B、決策樹C、邏輯回歸D、K-近鄰算法答案:A83.分布式文件系統(tǒng)支持動態(tài)新增或刪除一個或多個存儲節(jié)點(diǎn),這表現(xiàn)了系統(tǒng)的()。A、可靠性B、可擴(kuò)展性C、易用性D、高效性答案:B84.在深度學(xué)習(xí)中,Dropout技術(shù)的主要目的是什么?A、加速網(wǎng)絡(luò)訓(xùn)練。B、增加網(wǎng)絡(luò)層之間的連接。C、防止網(wǎng)絡(luò)過擬合。D、提高網(wǎng)絡(luò)的泛化能力。答案:C85.在AI領(lǐng)域,過擬合指的是什么?A、模型在訓(xùn)練集上表現(xiàn)不佳B、模型在測試集上表現(xiàn)不佳C、模型在訓(xùn)練集和測試集上都表現(xiàn)良好D、模型只學(xué)習(xí)到了訓(xùn)練集的噪聲答案:D86.為了建立數(shù)據(jù)庫中表之間的關(guān)聯(lián)關(guān)系,可以選擇().A、"文件"菜單中的"關(guān)系"命令B、"插入"菜單中的"關(guān)系"命令C、"工具"菜單中的"關(guān)系"命令D、"視圖"菜單中的"關(guān)系"命令答案:C87.在機(jī)器學(xué)習(xí)中,交叉驗(yàn)證的主要目的是什么?A、提高模型的泛化能力B、減少訓(xùn)練數(shù)據(jù)量C、加速訓(xùn)練過程D、增加模型的復(fù)雜度答案:A88.目前,數(shù)據(jù)庫管理系統(tǒng)最常用的邏輯數(shù)據(jù)模型是()。A、網(wǎng)狀模型B、層次模型C、關(guān)系模型D、面向?qū)ο竽P痛鸢福篊89.人工智能中的“過擬合”是指什么?A、模型過于簡單,不能很好地擬合數(shù)據(jù)B、模型在訓(xùn)練集上表現(xiàn)很好,但在測試集上表現(xiàn)較差C、模型在訓(xùn)練過程中學(xué)習(xí)到了數(shù)據(jù)中的噪音D、模型復(fù)雜度不足,無法捕捉數(shù)據(jù)中的關(guān)鍵特征答案:C90.在深度學(xué)習(xí)中,生成對抗網(wǎng)絡(luò)(GAN)的生成器和判別器分別起什么作用?A、生成器和判別器都用于生成數(shù)據(jù)B、生成器用于生成數(shù)據(jù),判別器用于判斷數(shù)據(jù)的真實(shí)性C、生成器用于判斷數(shù)據(jù)的真實(shí)性,判別器用于生成數(shù)據(jù)D、生成器和判別器都用于分類任務(wù)答案:B91.常見的數(shù)據(jù)標(biāo)注結(jié)果文件后綴名包括()。A、movB、xmlC、aviD、jpg答案:B92.在生成對抗網(wǎng)絡(luò)(GAN)中,哪個網(wǎng)絡(luò)負(fù)責(zé)生成數(shù)據(jù)?A、生成器(Generator)B、判別器(Discriminator)C、編碼器(Encoder)D、解碼器(Decoder)答案:A93.我國在語音語義識別領(lǐng)域的領(lǐng)軍企業(yè)是()。A、科大訊飛B、圖譜科技C、阿里巴巴D、華為答案:A94.下面是常用數(shù)據(jù)處理工具的是()A、編譯語言B、動畫制作工具C、圖片編輯工具D、python語言答案:D95.什么是交叉熵?A、一種用于評估分類模型的性能的指標(biāo)B、一種用于特征選擇的技術(shù)C、一種用于評估模型預(yù)測的準(zhǔn)確性的函數(shù)D、一種用于調(diào)整模型參數(shù)的函數(shù)答案:C96.以下哪項是數(shù)據(jù)標(biāo)注的常用工具?A、labelImgB、labelmeC、VATD、所有以上答案:D97.關(guān)于矩陣的廣義逆,下列表述不正確的是?A、若矩陣A的廣義逆為B,則A?B?A=A,B?A?B=BB、若矩陣A的廣義逆為B,則A?B和B?A都是對稱陣。C、矩陣A一定存在確定唯一的廣義逆。D、矩陣A可能不存在廣義逆。答案:D98.下列關(guān)于人工智能的說法中,哪一項是錯誤的()。A、人工智能是一門使機(jī)器做那些人需要通過智能來做的事情的學(xué)科B、人工智能是研究機(jī)器如何像人一樣合理思考、像人一樣合理行動的學(xué)科C、人工智能是研究機(jī)器如何思維的一門學(xué)科D、人工智能主要研究知識的表示、知識的獲取和知識的運(yùn)用答案:C99.下列哪一項不屬于卷積神經(jīng)網(wǎng)絡(luò)的優(yōu)點(diǎn)?A、權(quán)重共享B、局部連接C、可并行計算D、需要大量標(biāo)注數(shù)據(jù)答案:D100.在層次聚類中,凝聚法和分裂法的主要區(qū)別是什么?A、凝聚法從單個數(shù)據(jù)點(diǎn)開始,分裂法從整個數(shù)據(jù)集開始B、分裂法從單個數(shù)據(jù)點(diǎn)開始,凝聚法從整個數(shù)據(jù)集開始C、兩者沒有本質(zhì)區(qū)別D、凝聚法基于距離,分裂法基于密度答案:A101.?機(jī)器人底盤使用履帶式有哪些好處()。A、成本較低移動靈活B、抓地力強(qiáng)越障性能好C、運(yùn)動速度高運(yùn)動噪聲小D、負(fù)重性能好相比于輪式底盤與腿足式底盤耗能小答案:B102.以下哪項是深度學(xué)習(xí)在計算機(jī)視覺領(lǐng)域的一個重要突破?A、支持向量機(jī)B、決策樹C、深度卷積神經(jīng)網(wǎng)絡(luò)(CNN)D、隨機(jī)森林答案:C103.就本質(zhì)而言,遺傳算法可以提高算法的效率,算法類型是()。A、分布式B、智能C、迭代D、并行答案:D104.在機(jī)器學(xué)習(xí)中,正則化項主要用于控制什么?A、模型的偏差B、模型的方差C、模型的計算成本D、模型的數(shù)據(jù)預(yù)處理步驟答案:B105.人工智能中的“模型泛化能力”是指什么?A、模型在訓(xùn)練集上的表現(xiàn)B、模型在測試集上的表現(xiàn)C、模型在新數(shù)據(jù)上的表現(xiàn)D、模型在訓(xùn)練過程中的學(xué)習(xí)能力答案:C106.下列不在人工智能系統(tǒng)的知識包含的4個要素中()。A、事實(shí)B、規(guī)則C、控制D、關(guān)系答案:D107.以下哪個應(yīng)用不適合使用循環(huán)神經(jīng)網(wǎng)絡(luò)完成?()A、看圖說話B、機(jī)器翻譯C、社交網(wǎng)絡(luò)用戶情感分類D、從一張合影照片找到特定的人答案:D108.在自然語言處理任務(wù)中,哪種模型結(jié)構(gòu)最適合處理文本分類問題:A、CNNB、GANC、BERTD、RNN答案:C109.在深度學(xué)習(xí)中,Dropout技術(shù)主要用于什么?A、防止過擬合B、增加模型復(fù)雜度C、加速模型訓(xùn)練D、提高模型準(zhǔn)確率答案:A110.下列不屬于Keras的核心模塊的是():A、有激活函數(shù)B、損失函數(shù)C、濾波器D、正則化器答案:C111.模型選擇部分包含的模型分為()與回歸兩類。A、均值B、分類C、眾數(shù)D、方差答案:B112.在計算機(jī)視覺中,邊緣檢測通常用于檢測什么?A、圖像的顏色B、圖像的紋理C、圖像中的對象邊界D、圖像的亮度答案:C113.在Transformer模型中,自注意力機(jī)制的主要作用是什么?A、捕獲序列中任意位置間的依賴關(guān)系B、提高模型的泛化能力C、加快模型的訓(xùn)練速度D、減少模型的參數(shù)量答案:A114.下列選項中,不是人工智能的基礎(chǔ)設(shè)施的是?A、CPU服務(wù)器B、GPU服務(wù)器C、專用芯片D、游戲顯卡答案:D115.以下哪個是計算機(jī)視覺中用于圖像分割的常用技術(shù)?A、卷積神經(jīng)網(wǎng)絡(luò)B、循環(huán)神經(jīng)網(wǎng)絡(luò)C、U-NetD、長短期記憶網(wǎng)絡(luò)答案:C116.以下哪個不是處理缺失值常用的方法?A、刪除含有缺失值的行或列B、使用均值、中位數(shù)或眾數(shù)填充C、使用機(jī)器學(xué)習(xí)模型預(yù)測填充D、將缺失值替換為0答案:D117.在數(shù)據(jù)預(yù)處理階段,為什么要進(jìn)行特征縮放?A、為了提高模型的精度B、為了減少數(shù)據(jù)的存儲需求C、為了使不同特征的取值范圍相近,便于模型處理D、為了增加數(shù)據(jù)的維度答案:C118.COCO數(shù)據(jù)集是由()出資建設(shè)的。A、百度B、微軟C、谷歌D、阿里巴巴答案:B119.喚醒功能作為麥克風(fēng)陣列技術(shù)中重要的一環(huán),誤喚醒率指標(biāo)是低于()次/天?A、1次B、2次C、3次D、0.5次答案:A120.對“我愛北京天安門”進(jìn)行詞性標(biāo)注的結(jié)果是()。A、我/r愛/v北京/n天安門/nB、我/n愛/v北京/n天安門/nC、我/r愛/v北京天安門/nD、我/n愛/v北京天安門/n答案:C121.半導(dǎo)體只讀存儲器(ROM)與半導(dǎo)體隨機(jī)存儲器(RAM)的主要區(qū)別在于A、ROM可以永久保存信息,RAM在掉電后信息會丟失B、ROM掉電后,信息會丟失,RAM則不會C、ROM是內(nèi)存儲器,RAM是外存儲器D、RAM是內(nèi)存儲器,ROM是外存儲器答案:A122.()是指對于數(shù)據(jù)采集、數(shù)據(jù)清洗、數(shù)據(jù)標(biāo)注到數(shù)據(jù)交付整個項目生命周期每個階段進(jìn)行識別、度量、監(jiān)控、預(yù)警等一系列管理措施。A、數(shù)據(jù)治理B、數(shù)據(jù)分割C、數(shù)據(jù)監(jiān)控D、數(shù)據(jù)清洗答案:A123.下列關(guān)于TTS說法正確的是()。A、是語音合成的專門術(shù)語B、是加密貨幣的專業(yè)術(shù)語C、是圖片識別的專業(yè)術(shù)語D、是醫(yī)學(xué)領(lǐng)域?qū)I(yè)術(shù)語答案:A124.()適用于較長距離和較大物體的探測。A、電磁式傳感器B、超聲波傳感器C、光反射式傳感器D、靜電容式傳感器答案:B125.由C++源程序文件編譯而成的目標(biāo)文件的默認(rèn)擴(kuò)展名為A、cppB、exeC、objD、Iik答案:C126.專家系統(tǒng)中用于回答用戶提出的問題,解釋系統(tǒng)的推理過程的是()。A、知識庫B、數(shù)據(jù)庫C、推理機(jī)D、解釋機(jī)構(gòu)答案:D127.以下哪些方法可以用來提高模型的訓(xùn)練效率?A、使用GPU加速計算B、批量歸一化(BatchNormalization)C、減少模型層數(shù)D、使用Adam優(yōu)化器代替SGD答案:A128.專家系統(tǒng)的推理機(jī)的最基本的方式是()。A、直接推理和間接推理B、正向推理和反向推理C、邏輯推理和非邏輯推理D、準(zhǔn)確推理和模糊推理答案:B129.自然語言處理難點(diǎn)目前有四大類,下列選項中不是其中之一的是A、機(jī)器性能B、語言歧義性C、知識依賴D、語境答案:A130.下面關(guān)于機(jī)器人目前發(fā)展進(jìn)化說法錯誤的是()。A、無法做到“頓悟”B、無法實(shí)現(xiàn)從“量變”到“質(zhì)變”C、仍舊標(biāo)準(zhǔn)化程序的學(xué)習(xí)D、具有自我意識答案:C131.以下哪些是循環(huán)神經(jīng)網(wǎng)絡(luò)(RNN)的變種,旨在改進(jìn)長期依賴問題?A、LSTM(LongShort-TermMemory)B、GRU(GatedRecurrentUnit)C、VanillaRNND、Transformer答案:A132.需求公司是數(shù)據(jù)標(biāo)注規(guī)則的()。A、橋梁B、起始者C、定制者D、終結(jié)者答案:C133.在訓(xùn)練大模型時,批量歸一化(BatchNormalization)有什么作用?A、加速學(xué)習(xí)過程B、增加模型容量C、減小梯度爆炸D、提高模型魯棒性答案:A134.在自然語言處理中,對話系統(tǒng)的評估指標(biāo)不包括:A、BLEU分?jǐn)?shù)B、對話輪次C、用戶滿意度D、參數(shù)數(shù)量答案:D135.深度學(xué)習(xí)中的自編碼器主要用于解決什么問題?A、圖像去噪B、文本生成C、語音識別D、無監(jiān)督學(xué)習(xí)答案:D136.在自然語言處理中,處理多義詞和同義詞問題的技術(shù)是:A、詞袋模型B、詞嵌入模型C、one-hot編碼D、TF-IDF答案:B137.命名實(shí)體識別常用技術(shù)有那些()。①基于規(guī)則和詞典的方法②基于統(tǒng)計的方法③基于深度學(xué)習(xí)的方法A、①③B、①②C、②③D、①②③答案:D138.什么是LSTM(長短期記憶網(wǎng)絡(luò))?A、一種用于特征選擇的算法B、一種卷積神經(jīng)網(wǎng)絡(luò)C、一種RNN的變體,用于處理序列數(shù)據(jù)D、一種集成學(xué)習(xí)算法答案:C139.在深度學(xué)習(xí)領(lǐng)域,Dropout層的主要作用是為了:A、減少過擬合現(xiàn)象B、提高模型的運(yùn)行速度C、增加模型的復(fù)雜度以便抓取更多細(xì)節(jié)D、平衡數(shù)據(jù)集類別分布不均的問題答案:A140.在監(jiān)督學(xué)習(xí)中,損失函數(shù)的作用是什么?A、衡量模型的準(zhǔn)確性B、衡量模型預(yù)測與真實(shí)值之間的差異C、控制模型的復(fù)雜度D、優(yōu)化模型參數(shù)答案:B141.由一些已編寫好的可編輯電腦游戲系統(tǒng)或者一些交互式實(shí)時圖像應(yīng)用程序的核心組件構(gòu)成,其目的在于讓游戲設(shè)計者能容易和快速地做出游戲程式的部件是()。A、游戲搜索B、游戲框架C、游戲引擎D、游戲構(gòu)架答案:C142.在機(jī)器學(xué)習(xí)中,梯度提升機(jī)(GradientBoostingMachine,GBM)主要被設(shè)計來解決什么問題?A、大規(guī)模數(shù)據(jù)下的分類問題B、小規(guī)模數(shù)據(jù)下的回歸問題C、特征選擇D、異常值檢測答案:B143.以下哪個不是文本表示學(xué)習(xí)的常見方法?A、詞袋模型B、TF-IDFC、Word2VecD、K-means聚類答案:D144.在命名實(shí)體識別(NamedEntityRecognition,NER)任務(wù)中,通常要識別哪些類型的實(shí)體?A、動詞和形容詞B、人名、地名和機(jī)構(gòu)名C、句子和段落D、文本中的主題和觀點(diǎn)答案:B145.深度學(xué)習(xí)的起源可以追溯到哪個世紀(jì)?A、20世紀(jì)40年代B、20世紀(jì)50年代C、20世紀(jì)60年代D、20世紀(jì)70年代答案:A146.哪個查詢可以直接將命令發(fā)送到ODBC數(shù)據(jù)庫,利用它可以檢索或更改記錄()。A、聯(lián)合出現(xiàn)B、傳遞查詢C、數(shù)據(jù)定義查詢D、子查詢答案:B147.在機(jī)器學(xué)習(xí)中,樸素貝葉斯分類器基于什么假設(shè)?A、特征之間相互獨(dú)立B、特征之間存在復(fù)雜的交互作用C、模型是線性的D、所有以上答案:A148.NLG實(shí)現(xiàn)步驟中的文本結(jié)構(gòu)采用的是什么結(jié)構(gòu)?()A、圖形B、樹形層次化C、線性D、以上都不是答案:B149.圖像與灰度直方圖間的對應(yīng)關(guān)系是()。A、一一對應(yīng)B、多對一C、一對多D、多對多答案:B150.模型微調(diào)中的提示學(xué)習(xí)是指:A、提供少量樣本進(jìn)行學(xué)習(xí)B、使用提示引導(dǎo)模型學(xué)習(xí)特定任務(wù)C、通過重復(fù)提示加強(qiáng)記憶D、提示模型忽略無關(guān)信息答案:B151.在深度學(xué)習(xí)中,Dropout是一種常用的技術(shù),它主要用于:A、加速訓(xùn)練過程B、防止過擬合C、增加模型的復(fù)雜度D、提供非線性建模能力答案:B152.()可能是最廣泛、最普遍的一種數(shù)據(jù)標(biāo)注類型。A、圖像標(biāo)注B、數(shù)字標(biāo)注C、問號標(biāo)注D、逗號標(biāo)注答案:A153.將成績在90分以上的記錄找出后放在一個新表中,比較合適的查詢是()。A、刪除查詢B、生成表查詢C、追加查詢D、更新查詢答案:B154.以下不屬于移動通信范疇的是()。A、以太網(wǎng)B、Wi-FiC、藍(lán)牙D、NB-IOT答案:A155.以下哪一項是生成式對抗網(wǎng)絡(luò)(GAN)的主要應(yīng)用之一?A、數(shù)據(jù)分類B、文本生成C、圖像生成D、語音識別答案:C156.在自然語言處理任務(wù)中,BERT模型的主要優(yōu)勢是:A、低資源消耗B、快速訓(xùn)練速度C、強(qiáng)大的上下文理解能力D、高度的模型壓縮能力答案:C157.MIT教授TomasoPoggio明確指出,過去15年人工智能取得的成功,主要是因?yàn)椋ǎ、機(jī)器學(xué)習(xí)B、計算機(jī)視覺C、語音識別D、博弈論答案:A158.在機(jī)器學(xué)習(xí)中,交叉驗(yàn)證主要用于什么?A、提高模型復(fù)雜度B、評估模型性能C、增加數(shù)據(jù)多樣性D、優(yōu)化模型參數(shù)答案:B159.在查詢設(shè)計視圖中().A、只能添加數(shù)據(jù)庫表B、可以添加數(shù)據(jù)庫表,也可以添加查詢C、只能添加查詢D、以上說法都不對答案:B160.支持向量機(jī)SVM是一種()算法。A、只有有限個間斷點(diǎn)的連續(xù)函數(shù)B、大樣本下的統(tǒng)計機(jī)器學(xué)習(xí)C、大樣本下的實(shí)例機(jī)器學(xué)習(xí)答案:A161.以下哪項不是自然語言處理進(jìn)入二十一世紀(jì)獲得的成果?()A、隱馬爾可夫模型B、序列到序列模型C、注意力機(jī)制D、預(yù)訓(xùn)練語言模型答案:A162.向數(shù)據(jù)表中插入一條記錄用以下哪一項()A、CREATEB、INSERTC、SAVED、UPDATE答案:B163.以下哪個不是數(shù)據(jù)預(yù)處理中的離散化方法?A、等寬分箱B、等頻分箱C、聚類分箱D、標(biāo)準(zhǔn)化答案:D164.以下哪個不是深度學(xué)習(xí)中常用的序列模型?A、LSTMB、GRUC、NND、Transformer答案:C165.視覺slam中,()不是特征點(diǎn)法的優(yōu)點(diǎn)。A、對光照、運(yùn)動不敏感,比較穩(wěn)定B、魯棒性好C、能構(gòu)建稠密地圖D、方案成熟答案:C166.以下哪項用來排序()A、ORDEREDBYB、ORDERBYC、GROUPBYD、GROUPEDBY答案:B167.什么是AdaBoost?A、一種降維技術(shù)B、一種集成學(xué)習(xí)算法C、一種優(yōu)化算法D、一種特征選擇算法答案:B168.Al的英文縮寫是A、utomaticInteIIigenceB、ArtificialInteIIigenceC、AutomaticInformationD、ArtificiaIInformation答案:B169.在機(jī)器學(xué)習(xí)中,集成學(xué)習(xí)的主要思想是什么?A、使用單個模型進(jìn)行預(yù)測B、結(jié)合多個模型的預(yù)測結(jié)果以提高性能C、通過增加數(shù)據(jù)來提高模型性能D、通過減少特征數(shù)量來提高模型性能答案:B170.智能機(jī)器人可以根據(jù)()得到信息。A、思維能力B、行為能力C、感知能力D、學(xué)習(xí)能力答案:C171.在圖像識別任務(wù)中,通常使用哪種類型的神經(jīng)網(wǎng)絡(luò)?A、CNN(卷積神經(jīng)網(wǎng)絡(luò))B、RNN(循環(huán)神經(jīng)網(wǎng)絡(luò))C、LSTM(長短時記憶網(wǎng)絡(luò))D、決策樹答案:A172.大數(shù)據(jù)所搜集到的用戶群體都是()。A、具有線上行為的用戶B、具有線下行為的用戶C、參與調(diào)研的用戶D、不參與調(diào)研的用戶答案:A173.數(shù)據(jù)標(biāo)注的最終目的是什么?A、提供訓(xùn)練數(shù)據(jù)B、提高數(shù)據(jù)質(zhì)量C、減少人工干預(yù)D、所有以上答案:D174.不同的計算機(jī),其指令系統(tǒng)也不相同,這主要取決于()A、所用的CPUB、所用的操作系統(tǒng)C、所用的程序設(shè)計語言D、系統(tǒng)的總體結(jié)構(gòu)答案:A175.在自然語言處理中,句法分析(SyntacticAnalysis)的目的是什么?A、確定句子的語義。B、分析句子的結(jié)構(gòu)。C、生成句子的摘要。D、判斷句子的情感。答案:B176.以下關(guān)于人工智能概念的描述中,錯誤的是()。A、人工智能英文翻譯是ArtificialintelligenceB、人工智能使計算機(jī)能實(shí)現(xiàn)更高層次應(yīng)用C、人工智能就是機(jī)器學(xué)習(xí)D、人工智能是對人的意識、思維過程進(jìn)行模擬答案:C177.文本蘊(yùn)含(TextualEntailment)任務(wù)主要用于判斷什么?A、兩段文本是否相關(guān)B、一段文本是否蘊(yùn)含另一段文本的信息C、文本的情感傾向D、文本的主題分類答案:B178.在自然語言處理中,用于生成文本的深度學(xué)習(xí)模型是:A、SVMB、GANC、NND、KNN答案:B179.下列哪個不是檢測模型的評價指標(biāo)?A、mAPB、APC、IoUD、KL散度答案:D180.安裝jieba分詞工具的命令是哪個()。A、pipinstalljiebaB、importjiebaC、jieba.versionD、jieba.cut答案:A181.C++語言編譯系統(tǒng)是()。A、系統(tǒng)軟件B、操作系統(tǒng)C、應(yīng)用軟件D、用戶文件答案:A182.多媒體計算機(jī)系統(tǒng)是將多媒體信息和()交互式控制相結(jié)合。A、計算機(jī)B、程序C、軟件D、硬件系統(tǒng)答案:A183.市場上某商品來自兩個工廠,它們市場占有率分別為60%和40%,有兩人各自買一件,則買到的來自不同工廠之概率為()。A、0.5B、0.24C、0.48D、0.3答案:C184.在自然語言處理中,用于優(yōu)化搜索引擎查詢結(jié)果相關(guān)性的技術(shù)是:A、序列標(biāo)注B、文本摘要C、語義搜索D、實(shí)體識別答案:C185.屬于“人造智能”,具有意識,達(dá)到或超越人類智慧水平的人工看能稱為()A、高人工智能B、低人工智能C、強(qiáng)人工智能D、弱人工智能答案:C186.光源的作用,就是獲得對比鮮明的圖像,具體不包括()。A、將感興趣部分和其他部分的灰度值差異加大B、盡量消隱不感興趣部分C、降低信噪比,利于圖像處理D、減少因材質(zhì)照射角度對成像的影響答案:C187.專家系統(tǒng)是以()為基礎(chǔ),推理為核心的系統(tǒng)。A、專家B、軟件C、問題D、知識答案:D188.什么是機(jī)器學(xué)習(xí)的定義?A、計算機(jī)模擬人類思維過程B、計算機(jī)從數(shù)據(jù)中學(xué)習(xí)并改進(jìn)性能C、計算機(jī)執(zhí)行預(yù)先編程的任務(wù)D、計算機(jī)執(zhí)行重復(fù)性任務(wù)答案:B189.在人工智能項目中,數(shù)據(jù)預(yù)處理的主要目的是什么?A、減少數(shù)據(jù)存儲空間B、提高數(shù)據(jù)質(zhì)量,減少噪聲和異常值C、增加數(shù)據(jù)維度D、改變數(shù)據(jù)的分布答案:B190.對于時間序列數(shù)據(jù),以下哪種方法不是常見的預(yù)處理步驟?A、平滑處理B、缺失值填充C、標(biāo)準(zhǔn)化D、周期性分析答案:D191.在自然語言處理中,文本向量化的一個主要技術(shù)是:A、卷積B、循環(huán)網(wǎng)絡(luò)C、Word2VecD、Transformer答案:C192.以下哪個是監(jiān)督學(xué)習(xí)中的典型任務(wù)?A、聚類B、回歸C、關(guān)聯(lián)規(guī)則學(xué)習(xí)D、異常檢測答案:B193.數(shù)據(jù)和程序存儲在磁盤上的形式是()A、集合B、文件C、目錄D、記錄答案:B194.在機(jī)器學(xué)習(xí)中,支持向量機(jī)(SVM)的核技巧(KernelTrick)主要用于解決什么問題?A、加快算法的運(yùn)行速度B、使線性算法能夠處理非線性問題C、減少模型的內(nèi)存使用D、簡化模型的結(jié)構(gòu)答案:B195.Fume采用了三層架構(gòu),分別為agent,collector和()A、MapB、storageC、ShuffleD、Hash答案:B196.下列哪一種技術(shù)可以使深度神經(jīng)網(wǎng)絡(luò)對于對抗樣本具有一定魯棒性?A、數(shù)據(jù)增廣B、對抗訓(xùn)練C、dropoutD、以上都是答案:B197.LSTM的遺忘門使用的是什么激活函數(shù)()A、SigmoidB、tanhC、ReLUD、ropOut答案:A198.在深度學(xué)習(xí)模型訓(xùn)練中,動態(tài)學(xué)習(xí)率調(diào)整的效果是:A、加快模型訓(xùn)練速度B、提高模型穩(wěn)定性C、減少計算資源消耗D、防止梯度爆炸答案:A199.在AI發(fā)展歷史中,哪個概念是由塞繆爾·阿瑟·阿西莫夫提出的?A、機(jī)器人三定律B、圖靈測試C、感知機(jī)D、神經(jīng)網(wǎng)絡(luò)答案:A200.深度學(xué)習(xí)模型在訓(xùn)練過程中,驗(yàn)證集的主要作用是什么?A、調(diào)整模型參數(shù)B、評估模型性能C、增加數(shù)據(jù)多樣性D、優(yōu)化模型結(jié)構(gòu)答案:B201.以下哪項是Rasa-NLU的功能?()A、識別對話行為B、識別對話狀態(tài)C、識別用戶意圖D、對話策略學(xué)習(xí)答案:C202.在生成對抗網(wǎng)絡(luò)(GAN)中,生成器和判別器通常分別是什么類型的神經(jīng)網(wǎng)絡(luò)?A、生成器是卷積神經(jīng)網(wǎng)絡(luò),判別器是全連接神經(jīng)網(wǎng)絡(luò)B、生成器和判別器都是卷積神經(jīng)網(wǎng)絡(luò)C、生成器是全連接神經(jīng)網(wǎng)絡(luò),判別器是卷積神經(jīng)網(wǎng)絡(luò)D、生成器和判別器的類型沒有固定要求答案:D203.弱人工智能是指僅僅模擬人類大腦的(),強(qiáng)人工智能是指其本身就是一個()。A、心智;智能B、運(yùn)作;大腦C、智能;程序D、智能;心智答案:D204.在自然語言處理中,語言模型的主要作用是:A、生成文本B、識別語音C、翻譯語言D、預(yù)測下一個詞答案:D205.關(guān)于python函數(shù)以下說法正確的是()A、函數(shù)形參不需要聲明其類型B、如果函數(shù)不需要接受任何參數(shù),則函數(shù)名后?的括號也?需保留C、函數(shù)必須指明其返回值類型D、函數(shù)體必須和def關(guān)鍵字對齊答案:A206.在神經(jīng)網(wǎng)絡(luò)中,激活函數(shù)的作用是:A、限制輸出值的范圍B、加速收斂過程C、引入非線性特性D、控制權(quán)重更新規(guī)則答案:C207.關(guān)于實(shí)例學(xué)習(xí),下述哪種說法是正確的是()。A、生成知識的正確性有保證B、需要很多先驗(yàn)知識C、歸納推理D、生成的知識的正確具有不確定性答案:C208.將聲音轉(zhuǎn)變?yōu)閿?shù)字化信息,又將數(shù)字化信息變換為聲音的設(shè)備是()。A、聲卡B、音響C、音箱D、PCI卡答案:A209.Image模塊中,打開圖片的函數(shù)是()。A、open()B、read()C、save()D、show答案:A210.什么是精確度(Precision)?A、正確預(yù)測為正例的樣本數(shù)與所有預(yù)測為正例的樣本數(shù)的比率B、正確預(yù)測為正例的樣本數(shù)與所有真正為正例的樣本數(shù)的比率C、正確預(yù)測為正例的樣本數(shù)與所有樣本數(shù)的比率D、正確預(yù)測為正例的樣本數(shù)與所有真實(shí)為負(fù)例的樣本數(shù)的比率答案:A211.人工智能中的“模型部署”是指什么?A、模型訓(xùn)練B、模型評估C、將模型應(yīng)用到實(shí)際環(huán)境中D、模型解釋答案:C212.信息從輸入層到輸出層單向傳輸,學(xué)習(xí)訓(xùn)練時將學(xué)習(xí)信號按連接通路返回以修改各層神經(jīng)元連接權(quán)重的神經(jīng)網(wǎng)絡(luò)是()。A、Kohonen神經(jīng)網(wǎng)絡(luò)B、P神經(jīng)網(wǎng)絡(luò)C、單層感知器D、多層感知器答案:B213.DETR中的Transformer編碼器主要用于編碼什么?A、關(guān)鍵點(diǎn)B、圖像特征C、對象查詢D、前景和背景答案:B214.我國第一臺電子計算機(jī)于那一年試制成功()A、1953B、1958C、1964D、1978答案:B215.人工智能的本質(zhì)是()。A、取代人類智能B、電腦萬能C、人類智慧的倒退D、對人類智能的模擬答案:D216.要得到最后一句SELECT查詢到的總行數(shù),可以使用的函數(shù)是()A、FOUND_ROWSB、LAST_ROWSC、ROW_COUNTD、LAST_INSERT_ID答案:A217.在強(qiáng)化學(xué)習(xí)中,什么是值迭代?A、依次更新價值函數(shù)和策略B、只更新策略而不更新價值函數(shù)C、只更新價值函數(shù)而不更新策略D、通過迭代計算狀態(tài)值函數(shù)或動作值函數(shù)來優(yōu)化策略答案:D218.對于大模型而言,以下哪個因素對模型的訓(xùn)練速度影響最大?A、模型的深度B、批量大小C、優(yōu)化器的選擇D、數(shù)據(jù)集的下載速度答案:B219.在計算機(jī)視覺中,目標(biāo)檢測(ObjectDetection)與目標(biāo)識別(ObjectRecognition)的主要區(qū)別是什么?A、目標(biāo)檢測需要確定目標(biāo)的位置和類別,而目標(biāo)識別只需要確定目標(biāo)的類別。B、目標(biāo)檢測需要處理圖像中的多個目標(biāo),而目標(biāo)識別只需要處理單個目標(biāo)。C、目標(biāo)檢測需要使用特定的特征提取器,而目標(biāo)識別不需要。D、所有以上答案。答案:D220.下列哪個系統(tǒng)屬于新型專家系統(tǒng)()。A、多媒體專家系統(tǒng)B、實(shí)時專家系統(tǒng)C、軍事專家系統(tǒng)D、分布式專家系統(tǒng)答案:D221.語言的基本單位是()。A、句子B、詞匯C、詞組D、語法答案:B222.在自然語言處理中,高效模型微調(diào)的一個方法是:A、增加訓(xùn)練數(shù)據(jù)B、增加模型深度C、自適應(yīng)微調(diào)D、增加模型寬度答案:C223.目前,基本的游戲人工智能技術(shù)有()A、搜索技術(shù)和遺傳算法B、專家系統(tǒng)和CUSUM算法C、USUM算法和神經(jīng)網(wǎng)絡(luò)D、多智能體和多媒體技術(shù)答案:A224.在自然語言處理中,依存關(guān)系(DependencyRelations)描述的是什么?A、單詞之間的語法關(guān)系。B、句子中名詞短語的結(jié)構(gòu)。C、動詞和賓語之間的關(guān)系。D、文本中的段落結(jié)構(gòu)。答案:A225.數(shù)據(jù)可視化技術(shù)可以將所有數(shù)據(jù)的特性通過()的方式展現(xiàn)出來A、文字B、圖C、表格D、樹答案:B226.使用LaBelSmoothing好處是什么?()A、抵抗過擬合B、增加網(wǎng)絡(luò)特征提取能力C、加快模型收斂速度D、抵抗梯度消失答案:A227.在自然語言處理中,用于改善模型對上下文理解能力的方法是:A、增加數(shù)據(jù)集的大小B、使用雙向編碼器C、采用更復(fù)雜的模型結(jié)構(gòu)D、增加模型的訓(xùn)練輪數(shù)答案:B228.AI在運(yùn)維實(shí)踐中的主要作用是什么?A、提升效率B、減少故障時間C、優(yōu)化用戶體驗(yàn)D、所有以上答案:D229.在自然語言處理中,注意力機(jī)制(AttentionMechanism)主要用于解決什么問題?A、文本分類的準(zhǔn)確性B、模型訓(xùn)練的速度C、序列到序列模型中的信息對齊問題D、命名實(shí)體識別的邊界確定答案:C230.哪個是計算機(jī)視覺中用于評估圖像分割模型性能的常用指標(biāo)?A、準(zhǔn)確率B、IoU(交并比)C、BLEU分?jǐn)?shù)D、ROC曲線答案:B231.tensorflow中的tf.nn.conv2d()的函數(shù),其作用是()A、圖像輸入B、進(jìn)行卷積C、進(jìn)行池化D、圖像輸出答案:B232.機(jī)器翻譯屬于()領(lǐng)域的應(yīng)用。A、自然語言處理B、搜索技術(shù)C、專家系統(tǒng)D、數(shù)據(jù)挖掘答案:A233.以下哪個不是數(shù)據(jù)預(yù)處理的主要任務(wù)?A、特征選擇B、數(shù)據(jù)編碼C、數(shù)據(jù)存儲D、數(shù)據(jù)降維答案:C234.Anaconda集成的()是一個基于網(wǎng)頁的交互式代碼編輯軟件,可被應(yīng)用于代碼開發(fā)、文檔編寫、代碼運(yùn)行和結(jié)果展示的全過程計算。()A、IDLEB、SpyderC、PromptD、JupyterNotebook答案:D235.機(jī)器人的運(yùn)動學(xué)方程只涉及()的討論。A、靜態(tài)位置B、速度C、加速度D、受力答案:A236.()是圖像處理中的一項關(guān)鍵技術(shù),一直都受到人們的高度重視。A、圖像聚合B、數(shù)據(jù)離散C、圖像分割D、圖像解析答案:C237.在圖像識別與處理中,面部識別通常使用的是哪種技術(shù)?A、卷積神經(jīng)網(wǎng)絡(luò)(CNN)B、邏輯回歸C、支持向量機(jī)(SVM)D、K均值聚類答案:A238.神經(jīng)網(wǎng)絡(luò)模型訓(xùn)練過程的主要目的是讓損失函數(shù)取得如下()結(jié)果。A、損失函數(shù)值盡可能大B、損失函數(shù)方差值盡可能小C、損失函數(shù)值盡可能小D、損失函數(shù)方差值盡可能大答案:C239.在程序中需要使用math庫中的gcd()函數(shù)計算兩數(shù)的最大公約數(shù),已知調(diào)用語句為:x=gcd(a,b),那么導(dǎo)入的語句是()。A、importmathB、importgcdC、frommathimportgcdD、fromgcdimportmath答案:C240.下列不屬于激活函數(shù)的性質(zhì)的是:()。A、單調(diào)性B、可微性C、線性D、非線性答案:C241.根據(jù)新數(shù)據(jù)集的大小和數(shù)據(jù)集的相似程度,下列選項不屬于遷移學(xué)習(xí)方法情況的是的是()。A、小數(shù)據(jù)集、相似數(shù)據(jù)B、小數(shù)據(jù)集、不相似數(shù)據(jù)C、大數(shù)據(jù)集、相似數(shù)據(jù)D、數(shù)據(jù)集、相似數(shù)據(jù)答案:D242.下面是數(shù)據(jù)變換的策略是()。A、數(shù)據(jù)分析B、特征構(gòu)造C、模式識別D、數(shù)據(jù)記錄答案:B243.張量并行在深度學(xué)習(xí)中主要用于解決:A、模型訓(xùn)練速度慢的問題B、數(shù)據(jù)預(yù)處理的問題C、模型過大無法放入單個GPU的問題D、數(shù)據(jù)集過小的問題答案:C244.以下哪種優(yōu)化算法通常用于深度學(xué)習(xí)模型的訓(xùn)練?A、線性回歸B、K-means聚類C、梯度下降法及其變種D、PageRank算法答案:C245.下列選項中,不屬于計算機(jī)病毒特征的是A、破壞性B、潛伏性C、傳染性D、免疫性答案:D246.深度學(xué)習(xí)中,什么是梯度爆炸問題?A、模型梯度在訓(xùn)練過程中逐漸增大B、模型梯度在訓(xùn)練過程中逐漸減小C、模型梯度在訓(xùn)練過程中保持不變D、模型梯度與損失函數(shù)無關(guān)答案:A247.在Access數(shù)據(jù)庫系統(tǒng)中,不是數(shù)據(jù)庫對象的是().A、報表B、宏C、數(shù)據(jù)庫D、窗體答案:C248.人工智能誕生于()。A、達(dá)特茅斯(Dartmouth)B、倫敦(London)C、紐約(NewYork)D、拉斯維加斯(LasVegas)答案:A249.量子計算的理論模型是()。A、希爾伯特機(jī)B、哥德爾機(jī)C、通用圖靈機(jī)D、通用羅素機(jī)答案:C250.群體智能的優(yōu)點(diǎn)體現(xiàn)為()。A、更少的感知限制B、更大的作業(yè)范圍C、更強(qiáng)的完成任務(wù)能力D、以上都是答案:D251.以下哪項是強(qiáng)化學(xué)習(xí)的主要特征?A、從大量數(shù)據(jù)中學(xué)習(xí)B、在有限的環(huán)境中進(jìn)行試錯C、通過人類指導(dǎo)進(jìn)行學(xué)習(xí)D、使用預(yù)定義規(guī)則執(zhí)行任務(wù)答案:B252.數(shù)據(jù)清洗通常不包括以下哪個步驟?A、處理缺失值B、標(biāo)準(zhǔn)化數(shù)據(jù)C、去除重復(fù)值D、糾正錯誤數(shù)據(jù)答案:B253.在自然語言處理任務(wù)中,哪種模型最適合實(shí)現(xiàn)情感分析:A、TransformerB、CNNC、RNND、GAN答案:A254.在生成式人工智能模型中,用于改進(jìn)文本生成質(zhì)量的技術(shù)是:A、數(shù)據(jù)增強(qiáng)B、模型壓縮C、注意力機(jī)制D、權(quán)重初始化答案:C255.依存句法分析(DependencyParsing)主要用于分析什么?A、句子的詞頻分布B、句子的語義角色C、句子中單詞之間的依存關(guān)系D、句子的情感傾向答案:C256.機(jī)器學(xué)習(xí)算法中,以下不屬于集成學(xué)習(xí)策略的是?A、BoostingB、StackingC、BaggingD、Marking答案:D257.數(shù)據(jù)表窗體同一時刻能顯示()。A、1條記錄B、2條記錄C、3條記錄D、多條記錄答案:D258.在生成式任務(wù)中,模型生成的文本冗余通常是因?yàn)椋篈、模型過于簡單B、訓(xùn)練數(shù)據(jù)不足C、模型過擬合D、訓(xùn)練數(shù)據(jù)過度清洗答案:C259.視頻數(shù)據(jù)是指連續(xù)的()。A、圖像序列B、圖形序列C、文字序列D、語音序列答案:A260.不確定性分為兩類,一是證據(jù)的不確定性,二是()A、推理的不確定性B、信息的不確定性C、計算的不確定性D、知識的不確定性答案:D261.查找條件為:姓名為NULL的記錄()A、WHERENAMENULLB、\WHERENAMEISNULLC、WHERENAME=NULLD、\WHERENAME==NULL答案:B262.人工智能“兩庫一平臺”邊緣側(cè)采集數(shù)據(jù)和業(yè)務(wù)系統(tǒng)數(shù)據(jù)經(jīng)過預(yù)處理和標(biāo)注后,形成可用于訓(xùn)練的樣本數(shù)據(jù),歸集至()。A、省級樣本庫B、公司樣本庫C、共享樣本庫D、云樣本庫答案:A263.在機(jī)器學(xué)習(xí)中,裝袋(Bagging)和提升(Boosting)都是集成學(xué)習(xí)方法,但它們有何不同?A、"裝袋"關(guān)注于減少方差,而"提升"關(guān)注于減少偏差B、"裝袋"和"提升"使用相同的基學(xué)習(xí)器C、"裝袋"適用于分類問題,而"提升"適用于回歸問題D、"裝袋"和"提升"都沒有使用投票機(jī)制來組合預(yù)測結(jié)果答案:A264.人臉3D標(biāo)注對于()想象能力要求更高。A、三位空間B、二維空間C、平面D、圖形答案:A265.自然語言處理的英文簡寫是()。A、PLNB、NLPC、LPND、PNL答案:B266.改變文件所有者的命令為()。A、chmodB、touchC、hownD、cat答案:C267.不屬于機(jī)器視覺系統(tǒng)基本構(gòu)成的是()。A、景深B、相機(jī)C、光源D、電腦系統(tǒng)答案:A268.在深度學(xué)習(xí)中,哪種類型的神經(jīng)網(wǎng)絡(luò)最適合處理序列數(shù)據(jù),例如文本或音頻?A、卷積神經(jīng)網(wǎng)絡(luò)(CNN)B、循環(huán)神經(jīng)網(wǎng)絡(luò)(RNN)C、支持向量機(jī)(SVM)D、多層感知機(jī)(MLP)答案:B269.橡皮筋算法中氣泡表示()。A、位形空間子集B、機(jī)器人所占位形空間子集C、可行位形空間子集D、不可行位形空間子集答案:C270.與卷積神經(jīng)網(wǎng)絡(luò)相比,循環(huán)神經(jīng)網(wǎng)絡(luò)可以學(xué)習(xí)()。A、細(xì)節(jié)信息B、文章長度C、單詞之間的長距離依賴關(guān)系D、歧義答案:C271.下列不適合于進(jìn)行定位的地圖表示方法是()。A、柵格地圖B、點(diǎn)云地圖C、特征地圖D、拓?fù)涞貓D答案:D272.強(qiáng)化學(xué)習(xí)的基本組成元素不包括以下哪一項?A、環(huán)境(Environment)B、智能體(Agent)C、狀態(tài)(State)D、目標(biāo)函數(shù)(ObjectiveFunction)答案:D273.在深度學(xué)習(xí)中,什么是過參數(shù)化(Overparameterization)?A、模型參數(shù)過多導(dǎo)致訓(xùn)練困難B、模型參數(shù)過少導(dǎo)致欠擬合C、模型參數(shù)數(shù)量適當(dāng),能夠很好地擬合數(shù)據(jù)D、模型參數(shù)數(shù)量與任務(wù)復(fù)雜度不匹配答案:A274.AlphaGo是用來()。A、下國際象棋B、下圍棋C、下?lián)淇伺艱、下象棋答案:B275.在大語言模型中,什么是tokenizer?A、用于將文本轉(zhuǎn)換為模型可處理的數(shù)值向量的工具B、用于評估模型性能的指標(biāo)C、模型訓(xùn)練時的優(yōu)化算法D、模型輸出的文本格式答案:A276.在機(jī)器學(xué)習(xí)領(lǐng)域中,交叉驗(yàn)證主要用來做什么?A、評估模型在未見過的數(shù)據(jù)上的泛化能力B、調(diào)整模型的學(xué)習(xí)率C、選擇合適的特征子集D、優(yōu)化模型的正則化參數(shù)答案:A277.在生成式人工智能模型訓(xùn)練方法中,Adam優(yōu)化器的特點(diǎn)是:A、適用于大規(guī)模數(shù)據(jù)集B、需要較少的內(nèi)存資源C、訓(xùn)練速度比隨機(jī)梯度下降快D、只適用于小規(guī)模模型答案:C278.強(qiáng)化學(xué)習(xí)與監(jiān)督學(xué)習(xí)的最大區(qū)別在于下列的()。A、如何產(chǎn)生動作B、對產(chǎn)生動作的好壞作一評價C、外部信息較豐富D、有無教師存在答案:B279.在深度學(xué)習(xí)中,生成對抗網(wǎng)絡(luò)(GAN)的訓(xùn)練過程中,哪個部分負(fù)責(zé)生成逼真的數(shù)據(jù)?A、判別器(Discriminator)B、生成器(Generator)C、編碼器(Encoder)D、解碼器(Decoder)答案:B280.機(jī)器視覺系統(tǒng)的優(yōu)點(diǎn)包括()①非接觸測量②較寬的光譜響應(yīng)范圍③長時間穩(wěn)定工作④無任何外界影響A、①③④B、①②④C、①②③D、①②③④答案:C281.以下哪個不是神經(jīng)網(wǎng)絡(luò)中的正則化方法?A、L1正則化B、L2正則化C、DropoutD、梯度下降答案:D282.在Linux系統(tǒng)中,以()方式訪問設(shè)備。A、文件B、文檔C、符號D、表格答案:A283.yield生成器隨著語料數(shù)量的增加,讀取速度()。A、越快B、越慢C、不變D、停止答案:B284.在強(qiáng)化學(xué)習(xí)中,策略梯度方法主要用于解決什么類型的問題?A、離散動作空間的問題。B、連續(xù)動作空間的問題。C、只有兩個動作可選的問題。D、無需動作選擇的問題。答案:B285.數(shù)據(jù)表中有一個地址字段,查找地址最后兩個字為2樓的記錄條件是().A、Right([地址],2)="2樓"B、Right([地址],3)="2樓"C、Right("地址",2)="2樓"D、Right("地址",3)="2樓"答案:A286.在深度學(xué)習(xí)中,生成對抗網(wǎng)絡(luò)(GANs)的訓(xùn)練過程中,哪個部分負(fù)責(zé)生成逼真的數(shù)據(jù)?A、判別器(Discriminator)B、生成器(Generator)C、編碼器(Encoder)D、解碼器(Decoder)答案:B287.下列哪個不屬于常用的文本分類的特征選擇算法()A、卡方檢驗(yàn)值B、互信息C、信息增益D、主成分分析答案:D288.關(guān)于預(yù)訓(xùn)練(Pre-training)和微調(diào)(Fine-tuning),下面哪些說法是正確的?A、預(yù)訓(xùn)練通常在大規(guī)模無標(biāo)簽數(shù)據(jù)上進(jìn)行B、微調(diào)是在特定任務(wù)的數(shù)據(jù)集上對預(yù)訓(xùn)練模型進(jìn)行調(diào)整C、這種方法可以顯著提升模型在小數(shù)據(jù)集上的性能D、主要應(yīng)用于自然語言處理領(lǐng)域,如BERT模型答案:B289.在自然語言處理中,詞嵌入(WordEmbedding)的主要目的是什么?A、加速訓(xùn)練過程B、提供上下文信息C、降低模型復(fù)雜度D、增加詞匯量答案:B290.微型計算機(jī)的性能主要由微處理器的()決定。A、質(zhì)量B、控制器C、PUD、價格性能比答案:C291.在CNN網(wǎng)絡(luò)中,圖A經(jīng)過核為3x3,步長為2的卷積層,ReLU激活函數(shù)層,BN層,以及一個步長為2,核為2?2的池化層后,再經(jīng)過一個3?3的的卷積層,步長為1,此時的感受野是()A、10B、11C、12D、13答案:D292.視頻屬性標(biāo)注內(nèi)容不包括()。A、標(biāo)注物位置B、狀態(tài)變化C、屬性判斷D、視頻長度答案:D293.在機(jī)器學(xué)習(xí)中,如果模型在訓(xùn)練集上表現(xiàn)很好,但在測試集上表現(xiàn)較差,這通常意味著什么?A、模型欠擬合B、模型過擬合C、數(shù)據(jù)集太小D、模型復(fù)雜度太高答案:B294.在自然語言處理任務(wù)中,最適合解決文本相似度計算問題的模型是:A、BERTB、CNNC、LSTMD、GAN答案:A295.以下哪個不是模型選擇時常用的驗(yàn)證方法?A、留出驗(yàn)證法B、交叉驗(yàn)證法C、自驗(yàn)證法D、自助法答案:C296.在深度學(xué)習(xí)中,什么是殘差連接(ResidualConnection)?A、一種損失函數(shù)的計算方法B、一種正則化技術(shù),用于防止過擬合C、一種優(yōu)化算法,用于更新模型參數(shù)D、一種模型結(jié)構(gòu)設(shè)計方法,有助于解決梯度消失和梯度爆炸問題答案:D297.在主觀Bayes方法中,證據(jù)E支持結(jié)論H時有()。A、LS<1B、LS=1C、LS>1D、LS<0答案:C298.智能運(yùn)維AIOps的核心技術(shù)是什么?A、大數(shù)據(jù)分析B、機(jī)器學(xué)習(xí)C、人工智能D、所有以上答案:D299.在窗體中,標(biāo)簽的標(biāo)題是標(biāo)簽控件的().A、自身寬度B、名字C、大小D、顯示內(nèi)容答案:D300.以下哪個不是深度學(xué)習(xí)模型訓(xùn)練中的常見超參數(shù)?A、學(xué)習(xí)率B、批量大小C、模型深度D、損失函數(shù)答案:D301.在強(qiáng)化學(xué)習(xí)中,智能體(Agent)通過什么來學(xué)習(xí)?A、監(jiān)督學(xué)習(xí)B、無監(jiān)督學(xué)習(xí)C、與環(huán)境的交互D、規(guī)則或?qū)<蚁到y(tǒng)答案:C302.BERT模型中的MLM(MaskedLanguageModeling)任務(wù)主要用于解決什么問題?A、文本生成B、文本分類C、文本中的詞預(yù)測D、語義相似度計算答案:C303.移動機(jī)器人軌跡規(guī)劃中所用參數(shù)優(yōu)化法是對()進(jìn)行控制A、位置B、時間C、速度D、加速度答案:C304.以下哪個是深度學(xué)習(xí)的關(guān)鍵技術(shù)?A、支持向量機(jī)(SVM)B、邏輯回歸C、卷積神經(jīng)網(wǎng)絡(luò)(CNN)D、決策樹答案:C305.在深度學(xué)習(xí)中,批量歸一化的效果不包括:A、減輕梯度消失問題B、加速模型收斂C、增加模型的泛化能力D、減少模型參數(shù)答案:D306.遷移學(xué)習(xí)通常用于解決什么問題?A、數(shù)據(jù)不平衡B、模型過擬合C、新任務(wù)的數(shù)據(jù)稀缺D、算法選擇困難答案:C307.在自然語言處理中,對長文本進(jìn)行處理時,哪種模型結(jié)構(gòu)更加有效:A、循環(huán)神經(jīng)網(wǎng)絡(luò)B、卷積神經(jīng)網(wǎng)絡(luò)C、TransformerD、全連接網(wǎng)絡(luò)答案:C308.深度學(xué)習(xí)中的注意力機(jī)制(AttentionMechanism)主要用于什么目的?A、讓模型更加關(guān)注數(shù)據(jù)中的重要部分B、減少模型參數(shù)數(shù)量C、加速模型訓(xùn)練D、提高模型復(fù)雜度答案:A309.數(shù)據(jù)采集和標(biāo)注在AI技術(shù)發(fā)展中扮演什么角色?A、提高模型性能B、增加訓(xùn)練數(shù)據(jù)的多樣性C、減少人工干預(yù)D、所有以上答案:D310.關(guān)于刪除查詢,下面敘述正確的是()。A、每次操作只能刪除一條記錄B、每次只能刪除單個表中的記錄C、刪除過的記錄只能用"撤消"命令恢復(fù)D、每次刪除整個記錄,并非是指定字段中的記錄答案:D311.在神經(jīng)網(wǎng)絡(luò)訓(xùn)練過程中,前向傳播是指什么?A、從輸入層到輸出層計算網(wǎng)絡(luò)每層的結(jié)果B、更新網(wǎng)絡(luò)的權(quán)重和偏差C、計算損失函數(shù)D、所有以上答案:A312.以下哪個不是計算機(jī)視覺中常用的數(shù)據(jù)增強(qiáng)方法?A、旋轉(zhuǎn)圖像B、翻轉(zhuǎn)圖像C、調(diào)整圖像亮度D、增加文本標(biāo)簽答案:D313.關(guān)于Attention-basedModel,下列說法正確的是()A、相似度度量模型B、是一種新的深度學(xué)習(xí)網(wǎng)絡(luò)C、是一種輸入對輸出的比例模型D、都不對答案:A314.在大模型的訓(xùn)練過程中,為什么要采用混合精度訓(xùn)練(MixedPrecisionTraining)?A、減少計算資源的消耗B、提高模型的性能C、加快模型的訓(xùn)練速度D、防止模型過擬合答案:A315.移動機(jī)器人自主導(dǎo)航的基本問題不包括下列的()。A、我在哪里B、我要去哪里C、我怎樣到達(dá)那里D、我前方是什么答案:D316.BP神經(jīng)網(wǎng)絡(luò)的學(xué)習(xí)規(guī)則是?A、梯度上升法B、梯度下降法C、梯度提升法D、梯度曲線法答案:B317.當(dāng)在卷積神經(jīng)網(wǎng)絡(luò)中加入池化層(poolinglayer)時,變換的不變性會被保留嗎?()A、不知道B、看情況C、會D、不會答案:C318.輸入32?32的圖像,用大小5?5的卷積核做步長為1的卷積計算,輸出圖像的大小是A、28?23B、28?28C、29?29D、23?23答案:B319.在Spak的軟件棧中,用于交互式查詢的是A、SparkSQLB、MllibC、GraphXD、SparkStreaming答案:A320.下面哪一項對于閉環(huán)系統(tǒng)描述是正確的()。A、閉環(huán)控制系統(tǒng)比開環(huán)控制系統(tǒng)更加復(fù)雜,成本高B、閉環(huán)控制系統(tǒng)控制鏈路較為簡單C、閉環(huán)控制一般不需要調(diào)節(jié)參數(shù)即可穩(wěn)定D、閉環(huán)控制系統(tǒng)效果總是優(yōu)于開環(huán)控制答案:A321.在myqr模塊中,使用什么函數(shù)生成二維碼()。A、write()B、run()C、read()D、words答案:B322.在查詢中對一個字段指定的多個條件的取值之間滿足()關(guān)系.A、ndB、OrC、NotD、Like答案:B323.什么是稀疏矩陣?A、大多數(shù)元素為零的矩陣B、所有元素都為零的矩陣C、所有元素都為非零的矩陣D、元素數(shù)量超過矩陣尺寸的矩陣答案:A324.自動識別系統(tǒng)屬于人工智能哪個應(yīng)用領(lǐng)域?A、自然語言系統(tǒng)B、機(jī)器學(xué)習(xí)C、專家系統(tǒng)D、人類感官模擬答案:D325.以下哪個是AI發(fā)展歷史中的關(guān)鍵里程碑?A、1950年,艾倫·圖靈提出圖靈測試B、1970年,個人計算機(jī)的普及C、1990年,互聯(lián)網(wǎng)的發(fā)明D、2010年,社交媒體的興起答案:A326.哪一個是終止一個前臺進(jìn)程可能用到的命令和操作().A、<Ctrl>+CB、killC、shutdownD、halt答案:A327.下列哪個不是std_msgs下的消息()。A、std_msgs/HeaderB、std_msgs/TimeC、std_msgs/Float32D、std_msgs/LaserScan答案:D328.基于句子規(guī)劃的方法將NLG拆分成了什么模塊?()A、內(nèi)容規(guī)劃B、句子規(guī)劃C、表層生成D、以上全是答案:D329.自注意力機(jī)制在處理長文本時的主要優(yōu)勢是:A、減少計算復(fù)雜度B、增強(qiáng)模型對長距離依賴的捕捉能力C、減少模型參數(shù)D、加速模型訓(xùn)練答案:B330.大模型在處理長文本時常常面臨什么問題?A、計算資源不足B、梯度消失或爆炸C、上下文信息丟失D、過擬合答案:C331.在樸素貝葉斯分類器中,“樸素”一詞指的是什么?A、模型簡單,易于理解B、特征之間相互獨(dú)立C、適用于小數(shù)據(jù)集D、只能處理二分類問題答案:B332.人工智能通過輸入的圖片,解析出圖片的內(nèi)容,這種技術(shù)叫什么?A、圖片識別B、語音識別C、自動駕駛D、消費(fèi)金融答案:A333.在微機(jī)中,存儲容量為1MB,指的是A、1024×1024個字B、1024×1024個字節(jié)C、1000×1000個字D、1000×1000個字節(jié)答案:B334.以下哪個是聚類分析的主要目標(biāo)?A、對數(shù)據(jù)進(jìn)行分類并標(biāo)記B、找出數(shù)據(jù)中的相似性和差異性C、預(yù)測數(shù)據(jù)的未來趨勢D、優(yōu)化模型的參數(shù)答案:B335.數(shù)據(jù)采集的主要目的是什么?A、收集高質(zhì)量數(shù)據(jù)B、減少人工干預(yù)C、提供訓(xùn)練數(shù)據(jù)D、所有以上答案:D336.在自然語言處理中,BERT模型主要用于解決什么問題?A、文本分類B、情感分析C、機(jī)器翻譯D、所有以上答案:D337.在生成式模型中,Diffusion模型架構(gòu)主要用于:A、文本生成B、語音識別C、圖像生成D、數(shù)據(jù)分類答案:C338.數(shù)據(jù)采集和標(biāo)注對AI模型的訓(xùn)練有何影響?A、提高模型的準(zhǔn)確性B、減少訓(xùn)練時間C、增加訓(xùn)練數(shù)據(jù)的多樣性D、所有以上答案:D339.動力學(xué)主要是研究機(jī)器人的()。A、動力源是什么B、運(yùn)動和時間的關(guān)系C、動力的傳遞與轉(zhuǎn)換D、動力的應(yīng)用答案:C340.下述人機(jī)交互技術(shù)中,不屬于圖形人機(jī)交互技術(shù)的是()。A、幾何約束B、引力場C、語音識別D、橡皮筋技術(shù)答案:C341.第三方庫matplotlib的作用是。A、制作圖表B、進(jìn)行科學(xué)計算C、人工智慧預(yù)測D、數(shù)據(jù)可視化答案:A342.機(jī)器的翻譯屬于下列()領(lǐng)域的應(yīng)用。A、機(jī)器學(xué)習(xí)B、自然語言系統(tǒng)C、人類感官模擬D、專家系統(tǒng)答案:B343.以下語句錯誤的是()A、ltertableempdeletecolumnaddcolumn;B、altertableempmodifycolumnaddcolumnchar(10);C、altertableempchangeaddcolumnaddcolumnint;D、altertableempaddcolumnaddcolumnint;答案:A344.縱欄式窗體同一時刻能顯示()。A、1條記錄B、2條記錄C、3條記錄D、多條記錄答案:A345.下列數(shù)據(jù)類型中,()屬于無序數(shù)據(jù)類型。A、set、tupleB、str、listC、list、tupleD、set、dict答案:D346.傳統(tǒng)機(jī)器學(xué)習(xí)和深度學(xué)習(xí)是人工智能核心技術(shù),在工程流程上略有差別,以下步驟在深度學(xué)習(xí)中不需要做的是A、模型評估B、特征工程C、數(shù)據(jù)清洗D、模型構(gòu)建答案:B347.以下哪個不是處理不平衡數(shù)據(jù)集時常用的方法?A、過采樣少數(shù)類B、欠采樣多數(shù)類C、使用合成樣本D、增加特征維度答案:D348.人工智能的近期目標(biāo)在于研究機(jī)器來()A、模仿和執(zhí)行人腦的某些智力功能B、完全代替人類C、制造智能機(jī)器D、代替人腦答案:A349.決策樹算法在機(jī)器學(xué)習(xí)中通常用于解決什么問題?A、聚類問題B、分類問題C、時間序列預(yù)測D、關(guān)聯(lián)規(guī)則挖掘答案:B350.下列哪個屬于循環(huán)神經(jīng)網(wǎng)絡(luò)()。A、CNNB、LSTMC、BERTD、RNN答案:D351.協(xié)同過濾是推薦系統(tǒng)中的一種常見方法,它主要基于什么進(jìn)行推薦?A、用戶的歷史行為B、物品的屬性C、用戶之間的相似性D、物品的流行度答案:C352.在神經(jīng)網(wǎng)絡(luò)中,權(quán)重初始化為什么很重要?A、保證每次訓(xùn)練的起點(diǎn)一致B、加快模型收斂過程C、避免梯度消失或爆炸D、使模型更易于訓(xùn)練,防止某些神經(jīng)元不活躍答案:D353.在文本分類任務(wù)中,通常使用哪種類型的特征表示?A、詞袋模型B、決策樹C、PCAD、KNN答案:A354.在推薦系統(tǒng)中,什么是召回率?A、推薦系統(tǒng)中推薦的物品數(shù)量B、推薦系統(tǒng)中推薦的正確物品數(shù)量占實(shí)際正確物品數(shù)量的比例C、推薦系統(tǒng)中推薦的正確物品數(shù)量占推薦物品數(shù)量的比例D、推薦系統(tǒng)中推薦的物品占所有物品的比例答案:B355.數(shù)據(jù)清洗工作不包括()。A、刪除多余重復(fù)的數(shù)據(jù)B、糾正或刪除錯誤的數(shù)據(jù)C、采用適當(dāng)方法補(bǔ)充缺失的數(shù)據(jù)D、更改過大的過小的異常數(shù)據(jù)答案:D356.應(yīng)用在圖像變形等,這是圖像的()運(yùn)算。A、點(diǎn)運(yùn)算B、代數(shù)運(yùn)算C、幾何運(yùn)算D、灰度運(yùn)算答案:C357.下列不是弱人工智能應(yīng)用的是()。A、語音識別B、圖像識別C、文本審核D、遷移學(xué)習(xí)答案:D358.計算機(jī)主機(jī)是由CPU與下列哪種設(shè)備共同構(gòu)成的()A、控制器B、運(yùn)算器C、輸入、輸出設(shè)備D、內(nèi)存儲器答案:D359.以下不屬于常見采集工具的是()。A、手機(jī)B、紅外相機(jī)C、3D激光雷達(dá)D、機(jī)械硬盤答案:D360.Transformer模型中的自注意力機(jī)制用于:A、減少模型的參數(shù)數(shù)量B、加速模型的訓(xùn)練過程C、提高模型的并行能力D、增強(qiáng)模型對輸入序列每個位置的理解答案:D361.下列算式正確的是()。A、lnt(2.5)=3B、lnt(2.5)=2C、lnt(2.5)=2.5D、lnt(2.5)=0.5答案:B362.在神經(jīng)網(wǎng)絡(luò)中,激活函數(shù)ReLU的主要優(yōu)勢是什么?A、平滑連續(xù)性B、保證輸出位于固定區(qū)間C、解決梯度消失問題D、簡化模型復(fù)雜度答案:C363.機(jī)器學(xué)習(xí)中的“過擬合”通常是由什么引起的?A、訓(xùn)練數(shù)據(jù)不足B、訓(xùn)練數(shù)據(jù)中的噪聲C、模型復(fù)雜度過高D、使用了不適當(dāng)?shù)膿p失函數(shù)答案:C364.中的“策略網(wǎng)絡(luò)”主要用于解決什么問題?A、圖像分類B、強(qiáng)化學(xué)習(xí)C、文本生成D、數(shù)據(jù)清洗答案:B365.反向傳播算法的主要目的是什么?A、計算損失函數(shù)對模型參數(shù)的梯度B、更新模型的權(quán)重和偏差C、提高模型的準(zhǔn)確率D、所有以上答案:D366.以下不是DataFrame對象的組成部分的是()。A、值B、行索引C、標(biāo)題D、列索引答案:C367.以下哪個深度學(xué)習(xí)框架是中國本土企業(yè)開發(fā)的?A、TensorFlowB、MindSporeC、PyTorchD、Keras答案:B368.在推薦系統(tǒng)中,什么是“矩陣分解”?A、將高維矩陣轉(zhuǎn)換為低維矩陣的技術(shù)B、將稀疏矩陣轉(zhuǎn)換為稠密矩陣的技術(shù)C、將推薦問題轉(zhuǎn)換為優(yōu)化問題的技術(shù)D、將物品推薦問題轉(zhuǎn)換為分類問題的技術(shù)答案:A369.命題是一個非真及假的()。A、否定句B、陳述句C、反問句D、疑問句答案:B370.關(guān)于.launch文件的描述,以下哪一項是錯的()。A、可以一次性啟動多個節(jié)點(diǎn),減少操作。B、可以加載配置好的參數(shù),方便快捷。C、通過roslaunch命令來啟動launch文件D、在roslaunch前必須先roscore答案:D371.下列不屬于深度相機(jī)原理的是()。A、結(jié)構(gòu)光B、光飛行時間法(TOF)C、紅外測距D、雙目立體視覺答案:C372.以下哪項不是數(shù)據(jù)采集和標(biāo)注的挑戰(zhàn)?A、數(shù)據(jù)隱私B、數(shù)據(jù)質(zhì)量C、數(shù)據(jù)安全D、數(shù)據(jù)標(biāo)注速度答案:D373.已知列表對象ls,哪個選項對ls.append(x)的描述是正確的()。A、向ls中增加元素,如果x是一個列表,則可以同時增加多個元素B、只能向列表ls最后增加一個元素xC、向列表ls最前面增加一個元素xD、替換列表ls最后一個元素為x答案:B374.傳統(tǒng)的醫(yī)療機(jī)構(gòu)由于互聯(lián)網(wǎng)平臺的接入,使得人們實(shí)現(xiàn)在線求醫(yī)問藥成為可能,屬于互聯(lián)網(wǎng)+()。A、電子商務(wù)B、普惠金融C、益民服務(wù)D、以上均屬于答案:C375.序列到序列(Seq2Seq)模型通常用于什么類型的任務(wù)?A、文本分類B、機(jī)器翻譯C、情感分析D、命名實(shí)體識別答案:B376.以下哪個不是決策樹

溫馨提示

  • 1. 本站所有資源如無特殊說明,都需要本地電腦安裝OFFICE2007和PDF閱讀器。圖紙軟件為CAD,CAXA,PROE,UG,SolidWorks等.壓縮文件請下載最新的WinRAR軟件解壓。
  • 2. 本站的文檔不包含任何第三方提供的附件圖紙等,如果需要附件,請聯(lián)系上傳者。文件的所有權(quán)益歸上傳用戶所有。
  • 3. 本站RAR壓縮包中若帶圖紙,網(wǎng)頁內(nèi)容里面會有圖紙預(yù)覽,若沒有圖紙預(yù)覽就沒有圖紙。
  • 4. 未經(jīng)權(quán)益所有人同意不得將文件中的內(nèi)容挪作商業(yè)或盈利用途。
  • 5. 人人文庫網(wǎng)僅提供信息存儲空間,僅對用戶上傳內(nèi)容的表現(xiàn)方式做保護(hù)處理,對用戶上傳分享的文檔內(nèi)容本身不做任何修改或編輯,并不能對任何下載內(nèi)容負(fù)責(zé)。
  • 6. 下載文件中如有侵權(quán)或不適當(dāng)內(nèi)容,請與我們聯(lián)系,我們立即糾正。
  • 7. 本站不保證下載資源的準(zhǔn)確性、安全性和完整性, 同時也不承擔(dān)用戶因使用這些下載資源對自己和他人造成任何形式的傷害或損失。

評論

0/150

提交評論