人工智能基礎(chǔ)(習(xí)題卷18)_第1頁
人工智能基礎(chǔ)(習(xí)題卷18)_第2頁
人工智能基礎(chǔ)(習(xí)題卷18)_第3頁
人工智能基礎(chǔ)(習(xí)題卷18)_第4頁
人工智能基礎(chǔ)(習(xí)題卷18)_第5頁
已閱讀5頁,還剩54頁未讀, 繼續(xù)免費(fèi)閱讀

下載本文檔

版權(quán)說明:本文檔由用戶提供并上傳,收益歸屬內(nèi)容提供方,若內(nèi)容存在侵權(quán),請(qǐng)進(jìn)行舉報(bào)或認(rèn)領(lǐng)

文檔簡(jiǎn)介

試卷科目:人工智能基礎(chǔ)人工智能基礎(chǔ)(習(xí)題卷18)PAGE"pagenumber"pagenumber/SECTIONPAGES"numberofpages"numberofpages人工智能基礎(chǔ)第1部分:?jiǎn)雾?xiàng)選擇題,共131題,每題只有一個(gè)正確答案,多選或少選均不得分。[單選題]1.()聚類算法采用概率模型來表達(dá)聚類原型。A)K均值算法B)學(xué)習(xí)向量量化C)高斯混合聚類答案:C解析:[單選題]2.當(dāng)構(gòu)建一個(gè)神經(jīng)網(wǎng)絡(luò)進(jìn)行圖片的語義分割時(shí),通常采用的順序是()。A)先用卷積神經(jīng)網(wǎng)絡(luò)處理輸入,再用反卷積神經(jīng)網(wǎng)絡(luò)得到輸出B)先用反卷積神經(jīng)網(wǎng)絡(luò)處理輸入,再用卷積神經(jīng)網(wǎng)絡(luò)得到輸出C)不能確定答案:A解析:處理圖片需要先使用卷積神經(jīng)網(wǎng)絡(luò)對(duì)圖像局部特征進(jìn)行提取和分割,然后反卷積還原圖像信息,卷積類似于編碼,反卷積類似于解碼。[單選題]3.卷積神經(jīng)網(wǎng)絡(luò)的英文縮寫是:A)DNNB)CNNC)RNND)Tanh答案:B解析:卷積神經(jīng)網(wǎng)絡(luò)的英文縮寫是CNN[單選題]4.在《數(shù)字經(jīng)濟(jì)分類》中,()和產(chǎn)業(yè)數(shù)字化形成了互補(bǔ)關(guān)系A(chǔ))智能產(chǎn)業(yè)化B)產(chǎn)業(yè)智能化C)數(shù)字產(chǎn)業(yè)化D)數(shù)字智能化答案:C解析:[單選題]5.下列選項(xiàng)中,能作為Python變量名的是()A)AbB)ifC)4AbD)s+1答案:A解析:變量名規(guī)則:1、字母漢字開頭2、不能有特殊符號(hào)(下劃線除外)3、不能有保留字[單選題]6.智能優(yōu)化方法中受動(dòng)物群體智能啟發(fā)的算法稱為()。A)組合算法B)群算法C)遺傳算法D)進(jìn)化算法答案:B解析:[單選題]7.剪枝方法和程度對(duì)決策樹泛化性能的影響相當(dāng)顯著,有實(shí)驗(yàn)研究表明,在數(shù)據(jù)帶有噪聲時(shí)通過剪枝甚至可將決策樹的泛化性能提高()。A)0.2B)0.25C)30%D)0.35答案:B解析:[單選題]8.()是從(多條)信息中發(fā)現(xiàn)的共性規(guī)律、模式、模型、理論、方法。A)信息B)數(shù)據(jù)C)知識(shí)D)智慧答案:C解析:知識(shí)是人們從數(shù)據(jù)、信息中發(fā)現(xiàn)的,在數(shù)據(jù)/信息中存在的共性規(guī)律、認(rèn)識(shí)、經(jīng)驗(yàn)與常識(shí)。通常根據(jù)能否清晰地表述和有效地轉(zhuǎn)移,將知識(shí)分為顯性知識(shí)(ExplicitKn。wledge)和隱性知識(shí)(TacitKn。wledge)兩種。[單選題]9.圖像的形態(tài)學(xué)處理方法包括()A)圖像增強(qiáng)B)圖像銳化C)圖像分割D)腐蝕答案:D解析:圖像的形態(tài)學(xué)處理方法最常用的幾種操作:腐蝕、膨脹、開操作、閉操作、形態(tài)[單選題]10.在輸電線路參數(shù)中屬于耗能參數(shù)的是()。A)電抗、電阻B)電納、電阻C)電導(dǎo)、電抗D)電阻、電導(dǎo)答案:D解析:[單選題]11.()技術(shù)可以將所有數(shù)據(jù)的特性通過圖的方式展現(xiàn)出來。A)支持向量機(jī)B)神經(jīng)網(wǎng)絡(luò)C)數(shù)據(jù)可視化D)數(shù)據(jù)挖掘答案:C解析:[單選題]12.3*3的卷積核對(duì)3通道的圖像處理,需要多少個(gè)參數(shù)?()A)27B)9C)108D)6答案:A解析:[單選題]13.MapReduce中,Shuffle操作的作用是()。A)合并B)排序C)降維D)分區(qū)答案:B解析:Shuffle-確保每個(gè)reduce()函數(shù)的輸入都按鍵排序。[單選題]14.對(duì)于數(shù)據(jù)3,3,2,3,6,3,10,3,6,3,2,得岀以下結(jié)論:①這組數(shù)據(jù)的眾數(shù)是3;②這組數(shù)據(jù)的眾數(shù)與中位數(shù)的數(shù)值不相等;③這組數(shù)據(jù)的中位數(shù)與平均數(shù)的數(shù)值不相等;④這組數(shù)據(jù)的平均數(shù)與眾數(shù)的數(shù)值相等。其中正確結(jié)論的個(gè)數(shù)為()。A)1B)2C)3D)4答案:B解析:眾數(shù)是指一組數(shù)據(jù)中出現(xiàn)最多的變量值;中位數(shù)是指一組數(shù)據(jù)排序后處于中間位置的變量值,均值是各數(shù)值加總求和再除以總的個(gè)數(shù)。此題中眾數(shù)為3,中位數(shù)為3,平均值為4,故①和③正確。[單選題]15.下列關(guān)于線性模型的描述錯(cuò)誤的是()0A)支持向量機(jī)的判別函數(shù)一定屬于線性函數(shù)B)在樣本為某些分布情況時(shí),線性判別函數(shù)可以成為最小錯(cuò)誤率或最小風(fēng)險(xiǎn)意義C)在一般情況下,線性分類器只能是次優(yōu)分類器D)線性分類器簡(jiǎn)單而且在很多期情況下效果接近最優(yōu),所以應(yīng)用比較廣泛答案:A解析:支持向量機(jī)的判別函數(shù)不一定是線性函數(shù)。[單選題]16.4目前,多數(shù)NoSQL數(shù)據(jù)庫是針對(duì)特定應(yīng)用場(chǎng)景研發(fā)出來的,其設(shè)計(jì)遵循()原則,更加強(qiáng)調(diào)讀寫效率、數(shù)據(jù)容量以及系統(tǒng)可擴(kuò)展性。A)EASY原則B)READ原則C)BASE原則D)BASIC原則答案:C解析:[單選題]17.服務(wù)機(jī)器人應(yīng)用于消殺場(chǎng)景中時(shí),如何選擇消殺區(qū)域()。A)隨機(jī)在場(chǎng)地中進(jìn)行消殺B)根據(jù)專業(yè)指導(dǎo),在指定區(qū)域消殺C)在消殺區(qū)域有人的情況下,繼續(xù)執(zhí)行消殺任務(wù)D)可以接收任何人的指令進(jìn)行消殺答案:B解析:[單選題]18.和無人機(jī)飛行關(guān)系非常密切的空氣特性有()。A)壓強(qiáng)B)密度C)黏性D)以上都是答案:D解析:[單選題]19.以下描述中不屬于?規(guī)整數(shù)據(jù)(TidyData)?三個(gè)基本原則的是()。A)每一類觀察單元構(gòu)成一個(gè)關(guān)系(表)B)每個(gè)觀察占且僅占一行C)每個(gè)變量占且僅占一列D)每個(gè)觀察占且僅占一個(gè)關(guān)系(表)答案:D解析:tidyData原則為每列代表一個(gè)單獨(dú)變量、每行代表單個(gè)觀察值、每種觀察形成一個(gè)表格。[單選題]20.概率模型的訓(xùn)練過程就是()過程。A)分類B)聚類C)參數(shù)估計(jì)D)參數(shù)選擇答案:C解析:[單選題]21.作用在無人機(jī)上的力有()A)重力B)拉力C)空氣動(dòng)力D)以上都是答案:D解析:[單選題]22.()是將比較復(fù)雜的問題劃分為若干階段,通過逐段求解,最終求得全局最優(yōu)解A)線性規(guī)劃B)整數(shù)規(guī)劃C)多目標(biāo)規(guī)劃D)動(dòng)態(tài)規(guī)劃答案:D解析:[單選題]23.不屬于Mayer-Sch。nbergerV和CukierK,在其著名論著《BigData:ARev。luti。nThatWillTransf。rmH。wWeLive,W。rk,andThink)中提出了大數(shù)據(jù)時(shí)代統(tǒng)計(jì)的思維變革的是()A)不是隨機(jī)樣本,而是全體數(shù)據(jù)B)不是精確性,而是混雜性C)不是描述性分析,而是預(yù)測(cè)性分析D)不是因果關(guān)系,而是相關(guān)關(guān)系答案:C解析:Mayer-Sch。nbergerV和CukierK.在其著名論著《BigData:ARev。luti。nThatWillTransf。rmH。wWeLive,W。rk,andThink)中提出了大數(shù)據(jù)時(shí)代統(tǒng)計(jì)的思維變革:①不是隨機(jī)樣本,而是全體數(shù)據(jù):大數(shù)據(jù)時(shí)代應(yīng)遵循?樣本=總體?的理念,需要分析與某事物相關(guān)的所有數(shù)據(jù),而不是依靠分析少量的數(shù)據(jù)樣本。②不是精確性,而是混雜性:大數(shù)據(jù)時(shí)代應(yīng)承認(rèn)數(shù)據(jù)的復(fù)雜性,數(shù)據(jù)分析目的不應(yīng)追求精確性,數(shù)據(jù)分析的主要瓶頸是如何提升效率而不是保證分析結(jié)果的精確度。③不是因果關(guān)系,而是相關(guān)關(guān)系:大數(shù)據(jù)時(shí)代的思想方式應(yīng)轉(zhuǎn)變--不再探求難以捉摸的因果關(guān)系,轉(zhuǎn)而關(guān)注事物的相關(guān)關(guān)系。[單選題]24.一監(jiān)獄人臉識(shí)別準(zhǔn)入系統(tǒng)用來識(shí)別待進(jìn)入人員的身份,此系統(tǒng)識(shí)別獄警、小偷、送餐員、其他人員4種不同人員。下列學(xué)習(xí)方法最適合此種應(yīng)用需求的是().A)二分類問題B)層次聚類問題C)多分類問題D)回歸問題答案:C解析:涉及4種人員類別屬于多分類問題。[單選題]25.一旦RPA機(jī)器人出現(xiàn)錯(cuò)誤操作,以下正確的是()。A)錯(cuò)誤會(huì)被跳過B)錯(cuò)誤會(huì)被100%執(zhí)行C)錯(cuò)誤會(huì)被修正D)錯(cuò)誤會(huì)被刪除答案:B解析:[單選題]26.若一架無人機(jī)在飛行中可以進(jìn)行舵面遙控,但無實(shí)時(shí)圖像信號(hào),地面站有各類儀表信息,但無法編輯航點(diǎn)航線,以此判斷該無人機(jī)的遙控器()正常,圖傳()故障,數(shù)傳電臺(tái)()正常,()故障。()A)下行鏈路、上行鏈路、下行鏈路、上行鏈路B)上行鏈路、下行鏈路、下行鏈路、上行鏈路C)上行鏈路、上行鏈路、下行鏈路、下行鏈路D)上行鏈路、上行鏈路、上行鏈路、上行鏈路答案:B解析:[單選題]27.人工神經(jīng)網(wǎng)絡(luò)的相關(guān)研究最早可以追溯到上世紀(jì)40年代,由心理學(xué)家麥卡洛克和數(shù)學(xué)邏輯學(xué)家皮茨提出的()。A)M-P神經(jīng)元模型B)B-P神經(jīng)元模型C)M-N神經(jīng)元模型D)N-P神經(jīng)元模型答案:A解析:[單選題]28.()模型是一種生成式有向圖模型,主要用于處理離散型的數(shù)據(jù),在信息檢索、自然語言處理等領(lǐng)域有廣泛應(yīng)用。A)信息模型B)語言模型C)話題模型D)數(shù)據(jù)模型答案:C解析:[單選題]29.剛體在三維空間的姿態(tài)描述方式不包括()。A)歐拉角B)四元數(shù)C)奇異矩陣D)軸角答案:A解析:[單選題]30.知識(shí)圖譜中的實(shí)體統(tǒng)一主要的目的是?A)從文本中提取實(shí)體B)從實(shí)體間提取關(guān)系C)不同寫法的實(shí)體統(tǒng)一為一個(gè)實(shí)體D)明確代詞指向哪個(gè)實(shí)體答案:C解析:實(shí)體統(tǒng)一是指判斷多個(gè)實(shí)體是不是屬于一個(gè)實(shí)體。[單選題]31.在訓(xùn)練集上每學(xué)到一條規(guī)則,就將該規(guī)則覆蓋的訓(xùn)練樣例去除,然后以剩下的訓(xùn)練樣例組成訓(xùn)練集重復(fù)上述過程的方法稱為(___)A)缺省規(guī)則B)序貫覆蓋C)不放回學(xué)習(xí)D)一階規(guī)則答案:B解析:[單選題]32.下列關(guān)于聚類挖掘技術(shù)的說法中,錯(cuò)誤的是()。A)不預(yù)先設(shè)定數(shù)據(jù)歸類類目,完全根據(jù)數(shù)據(jù)本身性質(zhì)將數(shù)據(jù)聚合成不同類別B)要求同類數(shù)據(jù)的內(nèi)容相似度盡可能小C)要求不同類數(shù)據(jù)的內(nèi)容相似度盡可能小D)與分類挖掘技術(shù)相似的是,都是要對(duì)數(shù)據(jù)進(jìn)行分類處理答案:B解析:聚類挖掘技術(shù)中要求不同類數(shù)據(jù)的內(nèi)容相似度盡可能小。[單選題]33.Python中heapq是一種()數(shù)據(jù)結(jié)構(gòu)A)樹型數(shù)據(jù)結(jié)構(gòu)B)列表數(shù)據(jù)結(jié)構(gòu)C)隊(duì)列數(shù)據(jù)結(jié)構(gòu)D)鏈表數(shù)據(jù)結(jié)構(gòu)答案:A解析:[單選題]34.LSTM單元中引入了哪些門來更新當(dāng)前時(shí)刻的單元狀態(tài)向量?A)輸入門、遺忘門B)任意門、輸入門C)輸出門、任意門D)遺忘門、任意門答案:A解析:LSTM單元中引入了哪些門來更新當(dāng)前時(shí)刻的單元狀態(tài)向量?[單選題]35.除()以外,都是串行通信的一種。A)單工B)半雙工C)3/4雙工D)全雙工答案:C解析:[單選題]36.自動(dòng)發(fā)電控制的英文縮寫是()。A)AVCB)SVCC)AGCD)EDC答案:C解析:[單選題]37.常用的數(shù)據(jù)歸約方法可以分為()0A)維歸約、數(shù)據(jù)壓縮B)維歸約、參數(shù)歸約C)維歸約、值歸約D)數(shù)據(jù)壓縮、值歸約答案:C解析:常用的數(shù)據(jù)歸約方法有維歸約和值歸約兩種。[單選題]38.numpy中向量轉(zhuǎn)成矩陣使用A)reshapeB)revalC)arangeD)random答案:A解析:[單選題]39.()是使知識(shí)具有不確定性的一個(gè)重要原因。A)不完全性B)不準(zhǔn)確性C)隨機(jī)性D)專業(yè)性答案:A解析:[單選題]40.關(guān)于反向傳播,以下說法錯(cuò)誤的是?A)反向傳播只能在前饋神經(jīng)網(wǎng)絡(luò)中運(yùn)用B)反向傳播可以結(jié)合梯度下降算法更新網(wǎng)絡(luò)權(quán)重C)反向傳播會(huì)經(jīng)過激活函數(shù)D)反向傳播指的是誤差通過網(wǎng)絡(luò)反向傳播答案:A解析:[單選題]41.聚類分析屬于典型的()。A)監(jiān)督學(xué)習(xí)B)無監(jiān)督學(xué)習(xí)C)半監(jiān)督學(xué)習(xí)D)強(qiáng)化學(xué)習(xí)答案:B解析:聚類分析(Clusteranalysis)或聚類是把相似的對(duì)象通過靜態(tài)分類的方法分成不同的組別或者更多的子集,這樣讓在同一個(gè)子集中的成員對(duì)象都有相似的一些屬性,屬于無監(jiān)督學(xué)習(xí)。[單選題]42.?如果頭痛且流涕,則有可能患了感冒?是()A)隨機(jī)性引起的不確定性B)模糊性引起的不確定性C)經(jīng)驗(yàn)引起的不確定性D)不完全性引起的不確定性答案:A解析:[單選題]43.以下不屬于對(duì)抗生成網(wǎng)絡(luò)的應(yīng)用是?A)文字生成B)圖像生成C)圖像識(shí)別D)數(shù)據(jù)增強(qiáng)答案:C解析:[單選題]44.下列關(guān)于隨機(jī)變量的分布函數(shù),分布律,密度函數(shù)的理解描述不正確的是?A)離散型隨機(jī)變量沒有分布函數(shù)B)密度函數(shù)只能描述連續(xù)型隨機(jī)變量的取值規(guī)律。C)分布函數(shù)描述隨機(jī)變量的取值規(guī)律D)分布律只能描述離散型隨機(jī)變量的取值規(guī)律答案:A解析:[單選題]45.一般來講,下列語言屬于人工智能語言的是()A)VBB)PascalC)LogoD)Prolog答案:D解析:典型的人工智能語言主要有LISP、Prolog、Smalltalk、C++等。[單選題]46.以下關(guān)于RF算法說法不正確的是A)不可以并行計(jì)算B)不可以處理高維情況C)噪聲大時(shí)容易過擬合D)適合大數(shù)據(jù)量的場(chǎng)合答案:A解析:[單選題]47.關(guān)于Python的分支結(jié)構(gòu),以下選項(xiàng)中描述錯(cuò)誤的是A)Python中if-elif-else語句描述多分支結(jié)構(gòu)B)分支結(jié)構(gòu)使用if保留字C)Python中if-else語句用來形成二分支結(jié)構(gòu)D)分支結(jié)構(gòu)可以向已經(jīng)執(zhí)行過的語句部分跳轉(zhuǎn)答案:D解析:[單選題]48.卷積神經(jīng)網(wǎng)絡(luò)做圖像分類任務(wù)通常不包含:A)卷積操作B)池化操作C)全連接層D)均方誤差損失函數(shù)答案:D解析:均方誤差損失函數(shù)多用于回歸任務(wù)。[單選題]49.()將觀測(cè)值分為相同數(shù)目的兩部分,當(dāng)統(tǒng)計(jì)結(jié)果為非對(duì)稱分布時(shí),常常使用。A)眾數(shù)B)標(biāo)準(zhǔn)差C)中位數(shù)D)均值答案:C解析:[單選題]50.無人駕駛的人工智能技術(shù)包括語音識(shí)別、圖像識(shí)別、():A)天氣識(shí)別B)5G網(wǎng)聯(lián)C)健康監(jiān)控D)車聯(lián)網(wǎng)答案:D解析:[單選題]51.下列哪個(gè)表達(dá)式的值是TrueA)9>9B)3/2==3//2C)3%10>=3D)2>=3and2<=4答案:C解析:[單選題]52.cf=3ifcf<4print(cf)請(qǐng)問運(yùn)行的結(jié)果是?A)無顯示B)3C)'3'D)出錯(cuò)答案:D解析:[單選題]53.以下屬于PythonHTML和XML解析的第三方庫的是:A)DjangoB)NetworkxC)RequestsD)BeautifulSoup答案:D解析:[單選題]54.下列那種模型可以被用于文本相似度(documentsimilarity)問題A)在語料中訓(xùn)練一個(gè)由詞到向量(word2vector)的模型來對(duì)文本中呈現(xiàn)的上下文語境進(jìn)行學(xué)習(xí);B)訓(xùn)練一個(gè)詞包模型(abagofwordsmodel)來對(duì)文本中的詞的發(fā)生率(occurrence)進(jìn)行學(xué)習(xí);C)創(chuàng)建一個(gè)文獻(xiàn)檢索詞矩陣(document-termmatrix)并且對(duì)每一個(gè)文本應(yīng)用余弦相似性;D)以上所有方法均可答案:D解析:[單選題]55.文字檢測(cè)網(wǎng)絡(luò)TextBoxes基于下列哪個(gè)網(wǎng)絡(luò)A)Fastr-cnnB)Fasterr-cnnC)SSDD)YOLO答案:C解析:[單選題]56.平滑圖像處理可以釆用RGB彩色()模型。A)直方圖均衡化B)直方圖均衡化C)加權(quán)均值濾波D)中值濾波答案:C解析:平滑圖像處理可以采用RGB彩色加權(quán)均值濾波模型。[單選題]57.某直線光柵每毫米刻線為50線,采用四細(xì)分技術(shù),則該光柵的分辨率為()。A)5umB)50umC)4umD)20um答案:B解析:[單選題]58.下列應(yīng)用場(chǎng)景中沒有用到圖像技術(shù)的是?A)無人駕駛B)文本在線合成C)廣告檢測(cè)D)地標(biāo)識(shí)別答案:B解析:[單選題]59.形成以新一代人工智能重大科技項(xiàng)目為核心、現(xiàn)有研發(fā)布局為支撐的()人工智能項(xiàng)目群。A)?1+N?B)?1+5?C)?1+3?D)?1+6?答案:A解析:形成以新一代人工智能重大科技項(xiàng)目為核心、現(xiàn)有研發(fā)布局為支撐的?1+N?人工智能項(xiàng)目群。[單選題]60.(A->B)∧A=>B是A)附加律B)拒收律C)假言推理D)US答案:C解析:[單選題]61.下列哪項(xiàng)不屬于集成學(xué)習(xí)范疇A)隨機(jī)森林B)AdaboostC)kNND)XGBoost答案:C解析:集成方法分類為:Bagging(并行訓(xùn)練):隨機(jī)森林,Boosting(串行訓(xùn)練):Adaboost,GBDT:XgBoost,Stacking,Blending[單選題]62.批量梯度下降,小批量梯度下降,隨機(jī)梯度下降最重要的區(qū)別在哪里?A)梯度大小B)梯度方向C)學(xué)習(xí)率D)使用樣本數(shù)答案:D解析:[單選題]63.機(jī)器學(xué)習(xí)的算法中,以下哪個(gè)不是無監(jiān)督學(xué)習(xí)?A)GMMB)XgboostC)聚類D)關(guān)聯(lián)規(guī)則答案:B解析:Xgboost屬于集成學(xué)習(xí)算法中的Boosting算法類別,[單選題]64.關(guān)于RBF神經(jīng)網(wǎng)絡(luò)描述錯(cuò)誤的是(___)A)單隱層前饋神經(jīng)網(wǎng)絡(luò);B)隱層神經(jīng)元激活函數(shù)為徑向基函數(shù);C)輸出層是對(duì)隱層神經(jīng)元輸出的非線性組合;D)可利用BP算法來進(jìn)行參數(shù)優(yōu)化;答案:C解析:[單選題]65.神經(jīng)網(wǎng)絡(luò)優(yōu)化計(jì)算目前存在的問題()A)解的不穩(wěn)定性B)能量函數(shù)存在大量局部極小值,難以保證最優(yōu)解C)參數(shù)難以確定D)層數(shù)難以確定答案:D解析:[單選題]66.關(guān)于身份感知技術(shù),以下表述錯(cuò)誤的是()。A)QRCode是矩陣式二維碼B)條形碼、二維碼和RFID都可以用于標(biāo)識(shí)物品C)RFID讀寫器和標(biāo)簽都需要配備電源才能工作D)RFID是一種非接觸式自動(dòng)識(shí)別技術(shù)答案:B解析:[單選題]67.在深度優(yōu)先搜索策略中,open表是()的數(shù)據(jù)結(jié)構(gòu)。A)先進(jìn)后出B)先進(jìn)先出C)根據(jù)價(jià)值函數(shù)重排D)隨機(jī)出答案:A解析:[單選題]68.RPA主要的發(fā)展方向是()。A)輔助性RPAB)非輔助性RPAC)自主性RPAD)智能化RPA答案:D解析:[單選題]69.假設(shè)我們要解決一個(gè)二類分類問題,我們已經(jīng)建立好了模型,輸出是0或1,初始時(shí)設(shè)閾值為05,超過05概率估計(jì),就判別為1,否則就判別0;如果我們現(xiàn)在用另一個(gè)大于05的閾值,那么現(xiàn)在關(guān)于模型說法,正確的是?1模型分類的召回率會(huì)降低或不變2模型分類的召回率會(huì)升高3模型分類準(zhǔn)確率會(huì)升高或不變4模型分類準(zhǔn)確率會(huì)降低A)1B)2C)1和3D)2和4答案:C解析:[單選題]70.在智能電網(wǎng)調(diào)度控制系統(tǒng)中,域信息表中下列哪個(gè)域?qū)傩缘脑O(shè)置和分鐘級(jí)采樣有關(guān):()。A)域特殊屬性B)檢索器所用域特性C)統(tǒng)計(jì)所用域特性D)自動(dòng)生成量測(cè)類型答案:D解析:[單選題]71.()是知識(shí)表示的基本方法。A)狀態(tài)空間表示法B)圖表示法C)函數(shù)表示法D)集合表示法答案:A解析:[單選題]72.表示傳感器或傳感檢測(cè)系統(tǒng)對(duì)被測(cè)物理量變化的反應(yīng)能力的量為()。A)線性度B)靈敏度C)重復(fù)性D)穩(wěn)定性答案:B解析:[單選題]73.下列調(diào)節(jié)規(guī)律中能夠消除余差的是()。A)比例調(diào)節(jié)規(guī)律B)微分調(diào)節(jié)規(guī)律C)積分調(diào)節(jié)規(guī)律D)比例調(diào)節(jié)、微分調(diào)節(jié)和積分調(diào)節(jié)答案:C解析:[單選題]74.在數(shù)據(jù)科學(xué)中,通??梢圆捎茫ǎ┯行П苊鈹?shù)據(jù)加工和數(shù)據(jù)備份的偏見。A)A/B測(cè)試B)訓(xùn)練集和測(cè)試集的劃分C)測(cè)試集和驗(yàn)證集的劃分D)圖靈測(cè)試答案:A解析:A/B測(cè)試是一種對(duì)比試驗(yàn),準(zhǔn)確說是一種分離式組間試驗(yàn),在試驗(yàn)過程中,我們從總體中隨機(jī)抽取一些樣本進(jìn)行數(shù)據(jù)統(tǒng)計(jì),進(jìn)而得出對(duì)總體參數(shù)的多個(gè)評(píng)估。A/B測(cè)試有效避免數(shù)據(jù)加工和數(shù)據(jù)備份的偏見,對(duì)算法/模型選擇偏見具有重要借鑒意義。[單選題]75.AlphaGo是第一個(gè)擊敗人類職業(yè)選手的人工智能程序。A)國(guó)際象棋B)圍棋C)中國(guó)象棋D)五子棋答案:B解析:[單選題]76.確定性知識(shí)是指()知識(shí)。A)可以精確表示的B)正確的C)在大學(xué)中學(xué)到的知識(shí)D)能夠解決問題的答案:A解析:[單選題]77.服務(wù)機(jī)器人在全局地圖中的準(zhǔn)確定位主要依賴于()。A)激光雷達(dá)B)激光雷達(dá)+慣性測(cè)量單元C)慣性測(cè)量單元D)超聲波雷達(dá)答案:B解析:[單選題]78.Softmax算法中溫度趨近于0時(shí)Softmax將趨于(___)A)僅探索B)僅利用C)全探索D)全利用答案:B解析:[單選題]79.人工智能的算法中學(xué)習(xí)方法有幾種?A)1B)2C)3D)4答案:D解析:[單選題]80.第一數(shù)字定律中使用概率最大的數(shù)字是()A)0B)1C)2D)3答案:B解析:第一數(shù)字定律表示,數(shù)字?1?的使用最多接近三分之一,?2?%17.6%,?3?為12.5%,依次遞減,?9?的頻率是4.6%。[單選題]81.下面屬于分類任務(wù)研究的基本內(nèi)容是()A)定量輸出B)定性輸出C)連續(xù)變量輸出D)以上都不是答案:B解析:[單選題]82.用戶在求解問題時(shí)提供的初始證據(jù),以及在推理中用前面推出的結(jié)論作為當(dāng)前推理的證據(jù)。稱為()。A)知識(shí)不確定性的表示B)證據(jù)不確定性的表示C)結(jié)論不確定性的表示D)過程不確定性的表示答案:B解析:[單選題]83.運(yùn)行代碼:print(str(int(6.18))),運(yùn)行的結(jié)果是?A)6.18B)6C)?6?D)出錯(cuò)答案:B解析:[單選題]84.多分類學(xué)習(xí)中,最經(jīng)典的三種拆分策略不包括()A)一對(duì)一B)一對(duì)其余C)一對(duì)多D)多對(duì)多答案:C解析:[單選題]85.深度神經(jīng)網(wǎng)絡(luò)中,隱藏層無法學(xué)習(xí)的情況被稱為()問題A)梯度下降B)梯度消失C)梯度爆炸D)以上都不對(duì)答案:B解析:[單選題]86.下列關(guān)于支持向量機(jī)優(yōu)化性問題的形式,說法正確的是()。A)它是一個(gè)凸二次規(guī)劃問題B)它是一個(gè)凸一次規(guī)劃問題C)它是一個(gè)凹二次規(guī)劃問題D)它是一個(gè)凹一次規(guī)劃問題答案:A解析:支持向量機(jī)優(yōu)化性問題的一個(gè)凸二次規(guī)劃問題。[單選題]87.多層神經(jīng)網(wǎng)絡(luò)至少包含()個(gè)隱層A)0B)1C)3D)5答案:B解析:只需包含一個(gè)隱層便可以稱為多層神經(jīng)網(wǎng)絡(luò)[單選題]88.欠擬合通常是由于()而造成的A)權(quán)值學(xué)習(xí)迭代次數(shù)足夠多B)學(xué)習(xí)能力低下C)訓(xùn)練集過多模型復(fù)雜D)數(shù)據(jù)有噪聲答案:B解析:欠擬合指對(duì)訓(xùn)練樣本的一般性質(zhì)尚未學(xué)好,通常是由于學(xué)習(xí)能力低下而造成[單選題]89.AI的英文縮寫是A)AutomaticIntelligenceB)ArtificalIntelligenceC)AutomaticeInformationD)ArtificalInformation答案:B解析:[單選題]90.在執(zhí)行了以下的文本清理步驟之后,可從下面的語句中生成多少三元組短語(trigram)操作:[1].停用詞移除[2].使用單一空格替換標(biāo)點(diǎn)符號(hào)語句:#Analytics-vidhyaisagreatsourcetolearn@data_science.A)3B)4C)5D)6答案:C解析:[單選題]91.數(shù)字經(jīng)濟(jì)具體包括數(shù)字產(chǎn)業(yè)化.().數(shù)字化治理.數(shù)據(jù)價(jià)值化。A)產(chǎn)業(yè)數(shù)字化B)數(shù)字智能化C)智能產(chǎn)業(yè)化D)產(chǎn)業(yè)智能化答案:A解析:[單選題]92.康內(nèi)爾大學(xué)發(fā)表了公平無偏的排序?qū)W習(xí)模型FairCO,可緩解檢索排序()的問題A)抖動(dòng)效應(yīng)B)馬太效應(yīng)C)數(shù)據(jù)溢出D)內(nèi)存不足答案:B解析:康內(nèi)爾大學(xué)發(fā)表了公平無偏的排序?qū)W習(xí)模型FairCO,可緩解檢索排序馬太效應(yīng)的問題[單選題]93.()控制當(dāng)前時(shí)刻的輸入信息需要向狀態(tài)向量中注入哪些信息。A)輸出門B)輸入門C)遺忘門D)以上都不對(duì)答案:B解析:輸入門控制當(dāng)前時(shí)刻的輸入信息需要向狀態(tài)向量中注入哪些信息。[單選題]94.以下關(guān)于回歸算法描述中不正確的是A)最小二乘法可以求解線性回歸問題B)梯度下降法可以求解線性回歸問題C)利用最小二乘法求解線性回歸問題可能會(huì)出現(xiàn)局部最優(yōu)解D)學(xué)習(xí)率是梯度下降法的重要參數(shù)答案:C解析:[單選題]95.下列哪種學(xué)習(xí)方法的學(xué)習(xí)目標(biāo)是學(xué)習(xí)同一類數(shù)據(jù)的分布模式?A)監(jiān)督學(xué)習(xí)B)無監(jiān)督學(xué)習(xí)C)強(qiáng)化學(xué)習(xí)D)博弈對(duì)抗答案:B解析:[單選題]96.將N條長(zhǎng)度均為M的有序鏈表進(jìn)行合并,合并以后的鏈表也保持有序,時(shí)間復(fù)雜度為()A)O(N*M*logN)B)O(N*M)C)O(N*M*logM)D)O(logN*logM)答案:A解析:[單選題]97.在物體檢測(cè)中,若采用業(yè)界通用的矩形框標(biāo)注規(guī)則,對(duì)圖片中的待檢測(cè)物體進(jìn)行標(biāo)注,則標(biāo)注框中的[a,b,c,d]分別代表?A)矩形框左上角橫坐標(biāo)、左上角縱坐標(biāo)、框?qū)挾?、框高度B)矩形框左下角橫坐標(biāo)、左下角縱坐標(biāo)、框?qū)挾?、框高度C)矩形框左上角橫坐標(biāo)、左上角縱坐標(biāo)、右下角橫坐標(biāo)、右下角縱坐標(biāo)D)矩形框左下角橫坐標(biāo)、左下角縱坐標(biāo)、右上角橫坐標(biāo)、右上角縱坐標(biāo)答案:A解析:[單選題]98.正如數(shù)據(jù)集增強(qiáng)是正切傳播非無限小的版本,對(duì)抗訓(xùn)練是雙反向()傳播的版本。A)非無限大B)非無限小C)無限大D)無限小答案:B解析:[單選題]99.混淆矩陣中TP=16,FP=12,FN=8,TN=4,F1-SCORE是()。A)1212122022年8月13日B)1212122022年1月2日C)1212122022年4月7日D)1212122022年2月3日答案:A解析:根據(jù)F1計(jì)算公式可得。[單選題]100.以下不屬于聚類算法的是()。A)K均值B)SANC)AprioriD)Jarvis-Patrik(JP)答案:C解析:[單選題]101.以下程序不可能的輸出結(jié)果是:fromrandomimport*x=[30,45,50,90]print(choice(x))A)30B)45C)55D)90答案:C解析:[單選題]102.測(cè)試集應(yīng)盡可能與訓(xùn)練集(___)。A)相容B)相等C)互斥D)包含答案:C解析:[單選題]103.位置檢測(cè)元件是位置控制閉環(huán)系統(tǒng)的重要組成部分,是保證數(shù)控機(jī)床()的關(guān)鍵。A)速度B)穩(wěn)定性C)效率D)精度答案:D解析:[單選題]104.神經(jīng)網(wǎng)絡(luò)模型訓(xùn)練時(shí),依賴于以下哪一種法則進(jìn)行參數(shù)計(jì)算?A)最大值法則B)最小值法則C)鏈?zhǔn)角髮?dǎo)法則D)平均求導(dǎo)法則答案:C解析:[單選題]105.普通的工業(yè)數(shù)字?jǐn)z像機(jī)和智能攝像機(jī)之間最根本的區(qū)別在于()。A)接口方式不同B)傳感器類型不同C)智能攝像機(jī)包含智能處理芯片,可以脫離PC進(jìn)行圖像處理D)模擬到數(shù)字變換集成在相機(jī)內(nèi)部答案:C解析:[單選題]106.查準(zhǔn)率和查全率是一對(duì)()的度量A)相容B)相等C)矛盾D)包含答案:C解析:查準(zhǔn)率和查全率是一對(duì)矛盾的度量.一般來說,查準(zhǔn)率高時(shí),查全率往往偏低;而查全率高時(shí),查準(zhǔn)率往往偏低[單選題]107.有監(jiān)督學(xué)習(xí)中,?近朱者赤近墨者黑?是用來形容下列哪個(gè)模型?A)KMeansB)SVMC)KNND)神經(jīng)網(wǎng)絡(luò)答案:C解析:[單選題]108.()的語音識(shí)別是目前語音識(shí)別的主流技術(shù)和研究熱點(diǎn)。A)基于規(guī)則B)基于深度學(xué)習(xí)C)基于統(tǒng)計(jì)D)基于分類答案:B解析:[單選題]109.為數(shù)據(jù)的總體分布建模;把多維空間劃分成組等問題屬于數(shù)據(jù)挖掘的哪一類任務(wù)?()A)探索性數(shù)據(jù)分析B)建模描述C)預(yù)測(cè)建模D)尋找模式和規(guī)則答案:B解析:[單選題]110.()的系數(shù)沒有封閉形式(closed-form)的解。A)RidgeB)Lass。C)Ridge回歸和Lass。D)以上答案都不正確答案:B解析:Ridge回歸是一般的線性回歸再加上L2正則項(xiàng),它具有封閉形式的解,可以基于最小二乘法求解。[單選題]111.不屬于循環(huán)神經(jīng)網(wǎng)絡(luò)的輸出模式是()。A)單輸出B)多輸出C)同步多輸出D)異步多輸出答案:C解析:[單選題]112.1997年5月12日,轟動(dòng)全球的人機(jī)大戰(zhàn)中,?更深的藍(lán)?戰(zhàn)勝了國(guó)際象棋之子卡斯帕羅夫,這是()。A)人工思維B)機(jī)器思維C)人工智能D)機(jī)器智能答案:C解析:[單選題]113.概率模型的訓(xùn)練過程就是()過程。A)參數(shù)估計(jì)B)概率估計(jì)C)極大似然估計(jì)D)分布估計(jì)答案:A解析:[單選題]114.極大極小分析法中,用于極大極小分析法中計(jì)算各節(jié)點(diǎn)分?jǐn)?shù)的是()A)估價(jià)函數(shù)B)代價(jià)函數(shù)C)啟發(fā)式函數(shù)D)價(jià)值函數(shù)答案:A解析:[單選題]115.以下哪個(gè)選項(xiàng)不是在自然語言處理發(fā)展過程中的方法?A)基于深度學(xué)習(xí)的方法B)基于統(tǒng)計(jì)的方法C)基于遞歸的方法D)基于規(guī)則的方法答案:B解析:[單選題]116.在針對(duì)性開發(fā)具體應(yīng)用場(chǎng)景的RPA流程時(shí),第一步應(yīng)該是()。A)需求分析B)流程設(shè)計(jì)C)流程編寫D)測(cè)試調(diào)試答案:A解析:[單選題]117.早期圖像識(shí)別技術(shù)中存在的主要問題是()。A)全局特征丟掉了圖像細(xì)節(jié)B)提取不到主要特征C)存儲(chǔ)效率低下D)太多的錯(cuò)誤匹配答案:A解析:早期圖像識(shí)別技術(shù)中存在的主要問題是全局特征丟掉了圖像細(xì)節(jié)。[單選題]118.關(guān)于Python中的復(fù)數(shù),下列說法錯(cuò)誤的是()A)表示復(fù)數(shù)的語法是real+imagejB)實(shí)部和虛部都是浮點(diǎn)數(shù)C)虛部必須后綴j,且必須是小寫D)方法conjugate返回復(fù)數(shù)的共軛復(fù)數(shù)答案:C解析:[單選題]119.一個(gè)MapReduce程序中的MapTask的個(gè)數(shù)由()決定°A)輸入的總文件數(shù)B)客戶端程序設(shè)置的mapTask的個(gè)數(shù)C)FilelnputFormat.getSplitsD)輸入的總文件大小/數(shù)據(jù)塊大小答案:C解析:MapReduce編程模型中的MapTask的并行度決定機(jī)制是由FilelnputFormat.getSplits(J。bC。ntextj。b)決定的。該方法的返回值是List<InputSplit>splits,這個(gè)結(jié)果集合中的每個(gè)InputSplit就是一個(gè)邏輯輸入切片,每個(gè)邏輯輸入切片在默認(rèn)情況下是會(huì)要啟動(dòng)一個(gè)MapTask任務(wù)進(jìn)行計(jì)算的,因此C對(duì)。[單選題]120.一個(gè)不能再分解的命題,是()A)原子謂詞公式B)子句C)空子句D)子句集答案:A解析:[單選題]121.列哪些屬于循環(huán)神經(jīng)網(wǎng)絡(luò)A)CNNB)LSTMC)BERTD)RNN答案:D解析:[單選題]122.一般來說,下列哪種方法常用來預(yù)測(cè)連續(xù)獨(dú)立變量?A)線性回歸B)邏輯回歸C)線性回歸和邏輯回歸都行D)以上說法都不對(duì)答案:A解析:[單選題]123.()計(jì)算框架源自一種分布式計(jì)算模型,其輸入和輸出值均為?鍵值對(duì)?結(jié)構(gòu)。A)Mah。utB)MapReduceC)SparkD)Sqoop答案:B解析:MapReduce定義。[單選題]124.Hadoop中,Reducer的三個(gè)階段是()。A)Shuffle-Sort-ReduceB)Shuffle-Reduce-SortC)Reduce-Shuffle-SortD)Sort-Shuffie-Reduce答案:A解析:Reducer主要分為Shuffle洗牌、sort排序和Reduce三個(gè)步驟。[單選題]125.ROS中關(guān)于rosrun與roslaunch的說法正確的是()。①rosrun只能運(yùn)行一個(gè)nodes②roslaunch可以同時(shí)運(yùn)行多個(gè)nodes③rosrun可以運(yùn)行多個(gè)nodes④roslaunch只能運(yùn)行一個(gè)nodesA)①③④B)①②C)①②③D)③④答案:C解析:[單選題]126.語料庫規(guī)模依賴最大的語音合成技術(shù)路線是(),因?yàn)樾枰獙?duì)目標(biāo)發(fā)音人建立全面的錄音音庫,需要覆蓋所有發(fā)音和眾多常見的詞句等覆蓋,但其具有最為優(yōu)秀的聽感,但成本極高。A)小尺度拼接B)HMM參數(shù)合成C)RNN神經(jīng)網(wǎng)絡(luò)合成D)大語料庫拼接答案:B解析:[單選題]127.工業(yè)級(jí)無人機(jī)的第一位特性要求是()A)可靠性B)適應(yīng)性C)精密性D)安全性答案:D解析:[單選題]128.關(guān)于K-means說法不正確的是A)算法可能終止于局部最優(yōu)解B)簇的數(shù)目k必須事先給定C)對(duì)噪聲和離群點(diǎn)數(shù)據(jù)敏感D)適合發(fā)現(xiàn)非凸形狀的簇答案:D解析:[單選題]129.關(guān)于MNIST,下列說法錯(cuò)誤的是()。A)是著名的手寫體數(shù)字識(shí)別數(shù)據(jù)集B)有訓(xùn)練集和測(cè)試集兩部分C)訓(xùn)練集類似人學(xué)習(xí)中使用的各種考試試卷D)測(cè)試集大約包含10000個(gè)樣本和標(biāo)簽答案:C解析:[單選題]130.以下()屬于DL/T860遙信數(shù)據(jù)集控制塊。A)brcbDinB)brcbRelayEnaC)brcbTripInfoD)urcbAin答案:A解析:[單選題]131.Hadoop生態(tài)系統(tǒng)中,()主要解決的是日志類數(shù)據(jù)的收集和處理問題。A)Mah。utB)FlumeC)SqoopD)HBaseE)HDFSF)FlumeG)HiveH)Sqoop答案:D解析:Flume主要用于日志采集。Hadoop生態(tài)系統(tǒng)中,()的主要設(shè)計(jì)目的是在Hadoop與傳統(tǒng)數(shù)據(jù)庫之間進(jìn)行數(shù)據(jù)的ETL操作。Sqoop主要用于在Hadoop與傳統(tǒng)的數(shù)據(jù)庫間進(jìn)行數(shù)據(jù)的傳遞,可以將一個(gè)關(guān)系型數(shù)據(jù)庫中的數(shù)據(jù)導(dǎo)進(jìn)到Hadoop的HDFS中,也可以將HDFS的數(shù)據(jù)導(dǎo)進(jìn)到關(guān)系型數(shù)據(jù)庫中。第2部分:多項(xiàng)選擇題,共54題,每題至少兩個(gè)正確答案,多選或少選均不得分。[多選題]132.word2vec可以理解為一種對(duì)單詞one-hot向量的一種降維處理,采用這種空間壓縮降維的處理方式對(duì)語料庫中的詞進(jìn)行訓(xùn)練,主要有兩種方式()。A)skip-gramB)CBOWC)GRUD)BERT答案:AB解析:[多選題]133.?數(shù)據(jù)一個(gè)源?目標(biāo)中的?一個(gè)?是指每一項(xiàng)數(shù)據(jù)均有()。A)唯一的來源B)唯一的標(biāo)識(shí)C)唯一的責(zé)任主體D)唯一的數(shù)值答案:ABC解析:[多選題]134.機(jī)器學(xué)習(xí)包括()A)監(jiān)督學(xué)習(xí)B)強(qiáng)化學(xué)習(xí)C)非監(jiān)督學(xué)習(xí)D)群體學(xué)習(xí)答案:ABC解析:[多選題]135.圖像邊緣檢測(cè)中常用的邊緣檢測(cè)算子有哪些?A)Roberts算子B)Prewitt算子C)Sobel算子D)Canny算子答案:ABCD解析:[多選題]136.如下哪些是最近鄰分類器的特點(diǎn)()A)它使用具體的訓(xùn)練實(shí)例進(jìn)行預(yù)測(cè),不必維護(hù)源自數(shù)據(jù)的模型B)分類一個(gè)測(cè)試樣例開銷很大C)最近鄰分類器基于全局信息進(jìn)行預(yù)測(cè)D)可以生產(chǎn)任意形狀的決策邊界答案:ABD解析:[多選題]137.人工智能研究范疇廣泛而又異常復(fù)雜,其發(fā)展需要與()和社會(huì)科學(xué)等學(xué)科深度融合。A)計(jì)算機(jī)科學(xué)B)數(shù)學(xué)C)認(rèn)知科學(xué)D)神經(jīng)科學(xué)答案:ABCD解析:人工智能是一門綜合性行交叉學(xué)科,包含計(jì)算機(jī)科學(xué)、數(shù)學(xué)、認(rèn)知科學(xué)、神經(jīng)科學(xué)等多種技術(shù)。答案ABCD[多選題]138.新建數(shù)據(jù)庫至少包括()A)主要數(shù)據(jù)文件B)次要數(shù)據(jù)文件C)日志文件D)系統(tǒng)文件答案:AC解析:[多選題]139.Relu激活函數(shù)的優(yōu)點(diǎn)?A)解決了梯度消失、爆炸的問題B)輸出不是以0為中心C)計(jì)算方便,計(jì)算速度快,求導(dǎo)方便D)加速網(wǎng)絡(luò)訓(xùn)練答案:ACD解析:[多選題]140.下列哪些是卷積操作的優(yōu)點(diǎn)?()A)具有局部感受野B)對(duì)事物不同部分的觀察之間能實(shí)現(xiàn)參數(shù)共享C)可有效捕捉序列化數(shù)據(jù)的特征D)操作復(fù)雜度與輸入尺寸無關(guān)答案:AB解析:[多選題]141.知識(shí)圖譜構(gòu)建從最原始的數(shù)據(jù)(包括結(jié)構(gòu)化、半結(jié)構(gòu)化、非結(jié)構(gòu)化數(shù)據(jù))出發(fā),采用一系列自動(dòng)或者半自動(dòng)的技術(shù)手段,從原始數(shù)據(jù)庫和第三方數(shù)據(jù)庫中提取知識(shí)事實(shí),并將其存入知識(shí)庫的數(shù)據(jù)層和模式層,這一過程包含()A)信息抽取B)知識(shí)表示C)知識(shí)融合D)知識(shí)推理答案:ABCD解析:[多選題]142.BP神經(jīng)網(wǎng)絡(luò)的流程:A)對(duì)某個(gè)輸入從輸入層沿網(wǎng)絡(luò)傳播到輸出層B)從輸出層開始從后向前計(jì)算每個(gè)單元的deltaC)計(jì)算該輸入對(duì)每個(gè)權(quán)值梯度的貢獻(xiàn)D)所有輸入對(duì)梯度的貢獻(xiàn)求和得到總梯度,根據(jù)學(xué)習(xí)率來改變?cè)瓉淼臋?quán)值,完成了權(quán)值的一次修改答案:ABCD解析:[多選題]143.語音識(shí)別的方法()。A)聲道模型方法B)模板匹配的方法C)利用仍神經(jīng)網(wǎng)絡(luò)的方法D)語音知識(shí)方法答案:ABCD解析:[多選題]144.以下哪些機(jī)器學(xué)習(xí)算法可以不對(duì)特征做歸一化處理:()A)隨機(jī)森林B)邏輯回歸C)SVMD)GBDT答案:AD解析:[多選題]145.智能變電站,防誤閉鎖分為三個(gè)層次具體包括()。A)站控層閉鎖B)間隔層聯(lián)閉鎖C)機(jī)構(gòu)電氣閉鎖D)過程層閉鎖答案:ABC解析:[多選題]146.動(dòng)量梯度下降算法是通過()和()控制梯度下降的A)平均值B)指數(shù)加權(quán)平均值C)學(xué)習(xí)率D)方差答案:BC解析:[多選題]147.關(guān)于邏輯回歸,說法正確的是()A)垃圾郵件分類問題可以使用邏輯回歸模型B)一條商品評(píng)論分為正面,負(fù)面和中性,不可以使用邏輯回歸模型C)邏輯回歸不能直接用于多分類問題D)以上都不對(duì)答案:AC解析:[多選題]148.機(jī)器學(xué)習(xí)中評(píng)價(jià)指標(biāo)有哪些()A)AccuracyB)PrecisionC)RecallD)Iou答案:ABC解析:[多選題]149.下列關(guān)于列表說法正確的有哪些?A)列表可包含任何類型的值:數(shù)字、字符串甚至序列。B)列表在不復(fù)制的情況下可以添加、刪除或修改列表元素。C)列表支持分片以及多元列表等特性,但不支持負(fù)數(shù)索引。D)列表用方括號(hào)[]括起,其中元素用逗號(hào),分隔。答案:ABD解析:[多選題]150.下列哪種說法是錯(cuò)誤的A)除字典類型外,所有標(biāo)準(zhǔn)對(duì)象均可以用于布爾測(cè)試B)空字符串的布爾值是FalseC)空列表對(duì)象的布爾值是FalseD)值為0的任何數(shù)字對(duì)象的布爾值是False答案:AD解析:[多選題]151.下列關(guān)于PCA說法正確的是()?A)在使用PCA之前,我們必須標(biāo)準(zhǔn)化數(shù)據(jù)B)應(yīng)該選擇具有最大方差的主成分C)應(yīng)該選擇具有最小方差的主成分D)可以使用PCA在低維空間中可視化數(shù)據(jù)答案:ABD解析:[多選題]152.在深度學(xué)習(xí)模型訓(xùn)練的過程中,常見的優(yōu)化器有哪些?A)AdamB)AdagradC)SGDD)Momentum答案:ABCD解析:[多選題]153.以下產(chǎn)生式系統(tǒng)的推理包括()A)正向推理B)逆向推理C)雙向推理D)簡(jiǎn)單推理答案:ABC解析:[多選題]154.關(guān)聯(lián)規(guī)則可以有哪些應(yīng)用A)購(gòu)買分析B)疾病分析C)制造分析D)入侵檢測(cè)答案:ABCD解析:關(guān)聯(lián)規(guī)則是形如X→Y的蘊(yùn)涵式,其中,X和Y分別稱為關(guān)聯(lián)規(guī)則的先導(dǎo)(antecedent或left-hand-side,LHS)和后繼(consequent或right-hand-side,RHS)。其中,關(guān)聯(lián)規(guī)則XY,存在支持度和信任度[多選題]155.數(shù)據(jù)質(zhì)量基本屬性是()A)一致性B)完整性C)可讀性D)正確性答案:ABD解析:[多選題]156.如何解決不平衡數(shù)據(jù)集的分類問題()。A)擴(kuò)充數(shù)據(jù)集B)數(shù)據(jù)重采樣C)設(shè)計(jì)對(duì)數(shù)據(jù)分布不敏感的損失函數(shù)D)使用復(fù)雜的網(wǎng)絡(luò)答案:ABC解析:[多選題]157.機(jī)器學(xué)習(xí)的各種方法有哪三個(gè)?A)假設(shè)與推理學(xué)習(xí)B)概念與分類學(xué)習(xí)C)符號(hào)與統(tǒng)計(jì)學(xué)習(xí)D)歸納與答案學(xué)習(xí)答案:BCD解析:[多選題]158.與淺層神經(jīng)網(wǎng)絡(luò)相比,深度學(xué)習(xí)的不同在于()和()。A)強(qiáng)調(diào)了模型結(jié)構(gòu)的深度B)明確了特征學(xué)習(xí)的重要性C)所需訓(xùn)練集數(shù)據(jù)較少D)數(shù)據(jù)集沒有局部相關(guān)性答案:AB解析:[多選題]159.變量選擇是用來選擇最好的判別器子集,如果要考慮模型效率,我們應(yīng)該做哪些變量選擇的考慮?()A)多個(gè)變量是否有相同的功能B)模型是否具有解釋性C)特征是否攜帶有效信息D)交叉驗(yàn)證答案:ACD解析:[多選題]160.卷積神經(jīng)網(wǎng)絡(luò)結(jié)構(gòu)上的三大特性包括()A)局部連接B)權(quán)重共享C)下采樣D)歸一化答案:ABC解析:[多選題]161.當(dāng)發(fā)現(xiàn)機(jī)器學(xué)習(xí)模型過擬合時(shí),以下操作正確的是:()A)降低特征維度B)增加樣本數(shù)量C)添加正則項(xiàng)D)增加特征維度答案:ABC解析:[多選題]162.關(guān)于CAP理論說法正確的是()。A)一個(gè)分布式系統(tǒng)不能同時(shí)滿足一致性、可用性和分區(qū)容錯(cuò)性等需求B)一致性主要指強(qiáng)一致性C)一致性、可用性和分區(qū)容錯(cuò)性中的任何兩個(gè)特征的保證(爭(zhēng)取)可能導(dǎo)致另一個(gè)D)可用性指每個(gè)操作總是在?給定時(shí)間?之內(nèi)得到返回?所需要的結(jié)果?答案:ABCD解析:CAP理論認(rèn)為,一個(gè)分布式系統(tǒng)不能同時(shí)滿足一致性(C。nsistency)、可用性(Availability)和分區(qū)容錯(cuò)性(partitionT。lerance)等需求,而最多只能同時(shí)滿足其中的兩個(gè)特征。CAP理論告訴我們,數(shù)據(jù)管理不一定是理想的致性、可用性和分區(qū)容錯(cuò)性中的任何兩個(gè)特征的保證(爭(zhēng)取)可能導(dǎo)致另一個(gè)特征的損失(放棄)。[多選題]163.著a,b.c,d都是int型變童且初值為0,以下選項(xiàng)中正確的賦值語句是()A)a=b=c=d=100,B)d++C)c+bD)d=(C=22)-(b++);答案:ABD解析:[多選題]164.基于內(nèi)容的推薦生成推薦的過程主要依靠()A)內(nèi)容分析器B)推薦系統(tǒng)C)文件學(xué)習(xí)器D)過濾部件答案:ABCD解析:[多選題]165.人工神經(jīng)網(wǎng)絡(luò)包括多個(gè)神經(jīng)網(wǎng)絡(luò)層,如()等A)卷積層B)全連接層C)LSTMD)其他選項(xiàng)都正確答案:ABCD解析:[多選題]166.非頻繁模式()。A)其支持度小于閾值B)都是不讓人感興趣的C)包含負(fù)模式和負(fù)相關(guān)模式D)對(duì)異常數(shù)據(jù)項(xiàng)敏感答案:AD解析:非頻繁模式是一個(gè)項(xiàng)集或規(guī)則,其支持度小于閾值。絕大部分的頻繁模式不是令人感興趣的,但其中有些分析是有用的,特別是涉及數(shù)據(jù)中的負(fù)相關(guān)時(shí)。它對(duì)異常數(shù)據(jù)項(xiàng)敏感。[多選題]167.循環(huán)神經(jīng)網(wǎng)絡(luò)RNN是()和()兩種人工神經(jīng)網(wǎng)絡(luò)的總稱。A)長(zhǎng)度遞歸神經(jīng)網(wǎng)絡(luò)B)時(shí)間遞歸神經(jīng)網(wǎng)絡(luò)C)偏差遞歸神經(jīng)網(wǎng)絡(luò)D)結(jié)構(gòu)遞歸神經(jīng)網(wǎng)絡(luò)答案:BD解析:[多選題]168.下面屬于范數(shù)規(guī)則化的作用的是()。A)保證模型盡可能的簡(jiǎn)單,避免過擬合B)約束模型特征C)最小化問題D)最大化問題答案:AB解析:[多選題]169.矩陣范數(shù)滿足哪些特性?A)正定型B)齊次性C)三角不等式D)相容性答案:ABCD解析:[多選題]170.大規(guī)模自監(jiān)督預(yù)訓(xùn)練方法目前存在()等局限性。A)需要大規(guī)模算力和海量數(shù)據(jù)資源支持B)需要研究人員對(duì)相關(guān)研究領(lǐng)域的數(shù)據(jù)有深刻理解C)大規(guī)模預(yù)訓(xùn)練模型存在隱私數(shù)據(jù)的提取問題D)大規(guī)模預(yù)訓(xùn)練語言模型在深層次的語言理解方面存在差距答案:ABCD解析:主要應(yīng)用[多選題]171.如果深度學(xué)習(xí)神經(jīng)網(wǎng)絡(luò)出現(xiàn)了梯度消失或梯度爆炸問題我們常用的解決方法為.A)梯度剪切B)隨機(jī)欠采樣C)使用Relu激活函數(shù)D)正則化答案:ACD解析:[多選題]172.如何運(yùn)行一個(gè)shell腳本。A)/test.shB)/bin/shtest.shC)test.shD)chmod+x./test.sh答案:AB解析:[多選題]173.常見的原型聚類算法包括()。A)K均值算法B)學(xué)習(xí)向量量化C)高斯混合聚類D)密度聚類答案:ABC解析:[多選題]174.目標(biāo)檢測(cè)存在的挑戰(zhàn)有()A)光照B)遮擋C)重疊D)多尺度答案:ABCD解析:[多選題]175.以下屬于全面實(shí)現(xiàn)?電網(wǎng)一張圖?需實(shí)現(xiàn)的核心目標(biāo)的有()。A)圖數(shù)模一致率達(dá)B)設(shè)備聯(lián)網(wǎng)率達(dá)C)站線變戶一致率達(dá)D)故障研判正確率達(dá)答案:ABCD解析:[多選題]176.數(shù)據(jù)使用環(huán)節(jié)的安全技術(shù)措施除防火墻、()、防病毒、防DD。S、漏洞檢測(cè)等網(wǎng)絡(luò)安全防護(hù)技術(shù)措施外,還需實(shí)現(xiàn)以下安全技術(shù)能力:賬號(hào)權(quán)限管理、數(shù)據(jù)安全域、數(shù)據(jù)脫敏、日志管理和審計(jì)、異常行為實(shí)時(shí)監(jiān)控和終端數(shù)據(jù)防泄漏。A)入侵檢測(cè)B)病毒檢測(cè)C)程序檢測(cè)D)進(jìn)程檢測(cè)答案:AD解析:[多選題]177.啟發(fā)是關(guān)于()操作算子及搜索方法的研究。A)計(jì)算B)預(yù)測(cè)C)發(fā)現(xiàn)D)驗(yàn)證E)發(fā)明答案:CE解析:五、遺傳算法[多選題]178.不確定性事實(shí)的四元組表示包括()。A)對(duì)象B)屬性C)置信度D)方法E)值答案:ABCE解析:[多選題]179.推理機(jī)包括()兩部分。A)推理方法B)學(xué)習(xí)方法C)思維方法D)控制策略E)數(shù)據(jù)結(jié)構(gòu)答案:AD解析:[多選題]180.模式識(shí)別對(duì)()等進(jìn)行識(shí)別和分類。A)圖像B)文字C)語音D)網(wǎng)絡(luò)E)存儲(chǔ)答案:ABC解析:第3部分:判斷題,共68題,請(qǐng)判斷題目是否正確。[判斷題]181.機(jī)器學(xué)習(xí)是實(shí)現(xiàn)人工智能的一種途徑,是一門多領(lǐng)域交叉學(xué)科,涉及概率論、統(tǒng)計(jì)學(xué)、逼近論、凸分析、計(jì)算復(fù)雜性理論等多門學(xué)科。A)正確B)錯(cuò)誤答案:對(duì)解析:0[判斷題]182.已知A和B是兩個(gè)集合,并且表達(dá)式AB的值為True。A)正確B)錯(cuò)誤答案:錯(cuò)解析:見函數(shù)庫[判斷題]183.數(shù)據(jù)和特征決定了機(jī)器學(xué)習(xí)算法的上線,而模型和算法只是不斷逼近這個(gè)上限而已。A)正確B)錯(cuò)誤答案:對(duì)解析:[判斷題]184.GOOSE變位時(shí),為實(shí)現(xiàn)可靠傳輸,采用連續(xù)多次傳送的方式。A)正確B)錯(cuò)誤答案:對(duì)解析:[判斷題]185.在開發(fā)和配置RPA應(yīng)用的過程中,對(duì)于需要多次復(fù)用的組件,盡量封裝成通用組件工作流文件,便于統(tǒng)一調(diào)用。A)正確B)錯(cuò)誤答案:對(duì)解析:[判斷題]186.卷積神經(jīng)網(wǎng)絡(luò)中的池化層主要用來A數(shù)據(jù)進(jìn)行降維,減少數(shù)據(jù)特征。A)正確B)錯(cuò)誤答案:對(duì)解析:卷積神經(jīng)網(wǎng)絡(luò)之池化層池化層:降低了各個(gè)特征圖的維度,但可以保持大分重要的信息。[判斷題]187.編碼矩陣的三元碼將每個(gè)類別分別制定為正類、反類、停用類。__A)正確B)錯(cuò)誤答案:對(duì)解析:正確[判斷題]188.借助百科類網(wǎng)站等結(jié)構(gòu)化數(shù)據(jù)源,從高質(zhì)量數(shù)據(jù)中提取本體和模式信息,加入到知識(shí)庫中,這屬自底向上構(gòu)建。A)正確B)錯(cuò)誤答案:錯(cuò)解析:[判斷題]189.人工智能與數(shù)據(jù)相輔相成、互促發(fā)展。一方面,海量?jī)?yōu)質(zhì)數(shù)據(jù)助力人工智能發(fā)展。另一方面,人工智能顯著提升數(shù)據(jù)收集管理能力和數(shù)據(jù)挖掘利用水平。A)正確B)錯(cuò)誤答案:對(duì)解析:正確[判斷題]190.電力調(diào)度數(shù)字證書系統(tǒng)采用分級(jí)部署,國(guó)調(diào)是1級(jí)CA,省調(diào)是2級(jí)CA,地調(diào)是3級(jí)CA。A)正確B)錯(cuò)誤C)正確D)錯(cuò)誤答案:對(duì)解析:[判斷題]191.若神經(jīng)元的激活函數(shù)不是處處可導(dǎo)的,將無法進(jìn)行反向傳播。A)正確B)錯(cuò)誤答案:錯(cuò)解析:[判斷題]192.D5000安全認(rèn)證模塊的認(rèn)證過程采用的是雙向加密算法。A)正確B)錯(cuò)誤答案:錯(cuò)解析:[判斷題]193.過擬合是指由于訓(xùn)練樣本不足,導(dǎo)致測(cè)試結(jié)果不堪用。A)正確B)錯(cuò)誤答案:錯(cuò)解析:[判斷題]194.1、人工智能學(xué)習(xí)玩FlappyBird過程中,只需要人類告訴AI不能碰到水管即可,不需要提供其他信息。()A)正確B)錯(cuò)誤答案:錯(cuò)解析:[判斷題]195.由于RPA的處理過程更加貼近真實(shí)的業(yè)務(wù)處理,因此有必要將業(yè)務(wù)規(guī)則引擎獨(dú)立出來進(jìn)行單獨(dú)表達(dá)和維護(hù)。A)正確B)錯(cuò)誤答案:對(duì)解析:[判斷題]196.人工智能的遠(yuǎn)期目標(biāo)是制造智能機(jī)器,近期目標(biāo)是實(shí)現(xiàn)機(jī)器智能A)正確B)錯(cuò)誤答案:對(duì)解析:人工智能的遠(yuǎn)期目標(biāo)是制造智能機(jī)器,近期目標(biāo)是實(shí)現(xiàn)機(jī)器智能[判斷題]197.國(guó)家A電信終端設(shè)備、無線電通信設(shè)備和涉及網(wǎng)間互聯(lián)的設(shè)備實(shí)行進(jìn)網(wǎng)許可制度。A)正確B)錯(cuò)誤答案:對(duì)解析:[判斷題]198.Mapreduce適用于可以串行處理的應(yīng)用程序A)正確B)錯(cuò)誤答案:錯(cuò)解析:[判斷題]199.在基本K均值算法里,當(dāng)鄰近度函數(shù)采用曼哈頓距離的時(shí)候,合適的質(zhì)心是簇中各點(diǎn)的中位數(shù)A)正確B)錯(cuò)誤答案:對(duì)解析:[判斷題]200.車牌自動(dòng)識(shí)別是一項(xiàng)利用車輛的動(dòng)態(tài)視頻或靜態(tài)圖像進(jìn)行牌照號(hào)碼、牌照顏色自動(dòng)識(shí)別的模式識(shí)別技術(shù)。()A)正確B)錯(cuò)誤答案:對(duì)解析:[判斷題]201.2017年,國(guó)務(wù)院正式印發(fā)了《新一代人工智能發(fā)展規(guī)劃》,這是我們國(guó)家針對(duì)人工智能領(lǐng)域的第一個(gè)系統(tǒng)部署的文件。A)正確B)錯(cuò)誤答案:對(duì)解析:[判斷題]202.無監(jiān)督學(xué)習(xí)指的是只要輸入變量,沒有相關(guān)的輸出變量,目標(biāo)是對(duì)數(shù)據(jù)中潛在的結(jié)構(gòu)和分布建模,以便對(duì)數(shù)據(jù)做進(jìn)一步的學(xué)習(xí)。()A)正確B)錯(cuò)誤答案:對(duì)解析:[判斷題]203.人工智能的發(fā)展歷程可以劃分為形成期和發(fā)展期A)正確B)錯(cuò)誤答案:對(duì)解析:人工智能的發(fā)展歷程可以劃分為形成期和發(fā)展期[判斷題]204.數(shù)據(jù)科學(xué)家應(yīng)該學(xué)會(huì)數(shù)據(jù)科學(xué)的基礎(chǔ)理論,尤其是其主要理念、原則、理論和方法。()A)正確B)錯(cuò)誤答案:對(duì)解析:略[判斷題]205.TrueNegatives代表的是真負(fù)例。A)正確B)錯(cuò)誤答案:對(duì)解析:[判斷題]206.如果在一個(gè)高度非線性并且復(fù)雜的一些變量中,一個(gè)樹模型可能比一般的回歸模型效果更好。A)正確B)錯(cuò)誤答案:對(duì)解析:0[判斷題]207.網(wǎng)絡(luò)完整性是指網(wǎng)絡(luò)發(fā)生故障并恢復(fù)后,系統(tǒng)和任務(wù)、服務(wù)均應(yīng)自動(dòng)繼續(xù)運(yùn)行。()A)正確B)錯(cuò)誤答案:對(duì)解析:正確[判斷題]208.強(qiáng)化學(xué)習(xí)的目標(biāo)是希望個(gè)體從環(huán)境中獲得的總獎(jiǎng)勵(lì)最小A)正確B)錯(cuò)誤答案:錯(cuò)解析:最大[判斷題]209.在Spark中引人RDD概念的目的是實(shí)現(xiàn)Spark的串行操作和靈活的容錯(cuò)能力。()A)正確B)錯(cuò)誤答案:錯(cuò)解析:目的是實(shí)現(xiàn)Spark的并行操作和靈活的容錯(cuò)能力,而非串行。[判斷題]210.語義網(wǎng)絡(luò)表達(dá)知識(shí)時(shí),有向弧AKO鏈、ISA鏈?zhǔn)怯脕肀磉_(dá)節(jié)點(diǎn)知識(shí)的繼承性。A)正確B)錯(cuò)誤答案:對(duì)解析:語義網(wǎng)絡(luò)指SemanticNetwork,語義網(wǎng)指SemanticWeb。語義網(wǎng)絡(luò)是由Quillian于上世紀(jì)60年代提出的知識(shí)表達(dá)模式,其用相互連接的節(jié)點(diǎn)和邊來表示知識(shí)。[判斷題]211.GAN是一種深度學(xué)習(xí)模型,是近年來復(fù)雜分布上無監(jiān)督學(xué)習(xí)最具前景的方法之一。A)正確B)錯(cuò)誤答案:對(duì)解析:0[判斷題]212.深度學(xué)習(xí)在不同的領(lǐng)域超參數(shù)的設(shè)定不能通用。A)正確B)錯(cuò)誤答案:錯(cuò)解析:0[判斷題]213.對(duì)于超參數(shù)的設(shè)置可采用網(wǎng)格搜索法確定其最優(yōu)值A(chǔ))正確B)錯(cuò)誤答案:對(duì)解析:0[判斷題]214.假設(shè)列表對(duì)象alist為[1,3,5,15],那么切片alist[1:3]得到的值是[3,5]A)正確B)錯(cuò)誤答案:對(duì)解析:正確[判斷題]215.神經(jīng)網(wǎng)絡(luò)訓(xùn)練時(shí)可以將全部參數(shù)初始化為0。A)正確B)錯(cuò)誤答案:錯(cuò)解析:[判斷題]216.為提高機(jī)器人的利用率,需要讓機(jī)器人在一天或某個(gè)時(shí)段內(nèi),有序地執(zhí)行多個(gè)任務(wù)。A)正確B)錯(cuò)誤答案:對(duì)解析:[判斷題]217.MobileNet是一個(gè)圖像分類的算法A)正確B)錯(cuò)誤答案:錯(cuò)解析:[判斷題]218.()總的來說,一階謂詞邏輯的知識(shí)表達(dá)能力比命題邏輯弱。A)正確B)錯(cuò)誤答案:錯(cuò)解析:0[判斷題]219.人工智能(AI)概念最早1956年在達(dá)特茅斯會(huì)議上提出。()A)正確B)錯(cuò)誤答案:對(duì)解析:[判斷題]220.現(xiàn)在語音輸入法和中英文翻譯機(jī)已在快速普及,語音識(shí)另技術(shù)可以把人說的話實(shí)時(shí)轉(zhuǎn)寫成文字,準(zhǔn)確率超過98%A)正確B)錯(cuò)誤答案:對(duì)解析:[判斷題]221.儒家的德性名目有?四維?、?五德?、?八德?等()A)正確B)錯(cuò)誤答案:對(duì)解析:正確[判斷題]222.利用粒子群算法設(shè)計(jì)神經(jīng)網(wǎng)絡(luò)是一種快速、高效并具有很大潛力的方法。()A)正確B)錯(cuò)誤答案:對(duì)解析:[判斷題]223.Hopfield神經(jīng)網(wǎng)絡(luò)(HNN)是全互聯(lián)反饋神經(jīng)網(wǎng)絡(luò)。A)正確B)錯(cuò)誤答案:對(duì)解析:[判斷題]224.Bagging是一個(gè)低效的集成學(xué)習(xí)算法A)正確B)錯(cuò)誤C)nanD)nan答案:錯(cuò)解析:[判斷題]225.Dropout對(duì)一個(gè)神經(jīng)元隨機(jī)屏蔽輸入權(quán)重A)正確B)錯(cuò)誤答案:錯(cuò)解析:[判斷題]

溫馨提示

  • 1. 本站所有資源如無特殊說明,都需要本地電腦安裝OFFICE2007和PDF閱讀器。圖紙軟件為CAD,CAXA,PROE,UG,SolidWorks等.壓縮文件請(qǐng)下載最新的WinRAR軟件解壓。
  • 2. 本站的文檔不包含任何第三方提供的附件圖紙等,如果需要附件,請(qǐng)聯(lián)系上傳者。文件的所有權(quán)益歸上傳用戶所有。
  • 3. 本站RAR壓縮包中若帶圖紙,網(wǎng)頁內(nèi)容里面會(huì)有圖紙預(yù)覽,若沒有圖紙預(yù)覽就沒有圖紙。
  • 4. 未經(jīng)權(quán)益所有人同意不得將文件中的內(nèi)容挪作商業(yè)或盈利用途。
  • 5. 人人文庫網(wǎng)僅提供信息存儲(chǔ)空間,僅對(duì)用戶上傳內(nèi)容的表現(xiàn)方式做保護(hù)處理,對(duì)用戶上傳分享的文檔內(nèi)容本身不做任何修改或編輯,并不能對(duì)任何下載內(nèi)容負(fù)責(zé)。
  • 6. 下載文件中如有侵權(quán)或不適當(dāng)內(nèi)容,請(qǐng)與我們聯(lián)系,我們立即糾正。
  • 7. 本站不保證下載資源的準(zhǔn)確性、安全性和完整性, 同時(shí)也不承擔(dān)用戶因使用這些下載資源對(duì)自己和他人造成任何形式的傷害或損失。

評(píng)論

0/150

提交評(píng)論