華為認(rèn)證HCIA AI(H13-311)練習(xí)題_第1頁
華為認(rèn)證HCIA AI(H13-311)練習(xí)題_第2頁
華為認(rèn)證HCIA AI(H13-311)練習(xí)題_第3頁
華為認(rèn)證HCIA AI(H13-311)練習(xí)題_第4頁
華為認(rèn)證HCIA AI(H13-311)練習(xí)題_第5頁
已閱讀5頁,還剩51頁未讀, 繼續(xù)免費(fèi)閱讀

下載本文檔

版權(quán)說明:本文檔由用戶提供并上傳,收益歸屬內(nèi)容提供方,若內(nèi)容存在侵權(quán),請(qǐng)進(jìn)行舉報(bào)或認(rèn)領(lǐng)

文檔簡(jiǎn)介

一、人工智能概覽(多選)1.下列哪些屬于AI的子領(lǐng)域?-----------------------------------ABCDA.機(jī)器學(xué)習(xí)B.計(jì)算機(jī)視覺C.語音識(shí)別D.自然語言處理(判斷)2.語音識(shí)別指的是將音頻數(shù)據(jù)識(shí)別為文本數(shù)據(jù)。-------------------------AA.TRUEB.FALSE(單選)3.人工智能的三個(gè)階段包含了計(jì)算智能、()、認(rèn)知智能。-----------------BA.弱人工智能B.感知智能C.行為智能D.強(qiáng)人工智能(單選)4.下列選項(xiàng)中不屬于華為全棧解決方案范疇的是?------------------------BA.應(yīng)用使能B.邊緣計(jì)算C.開源框架D.芯片使能(多選)5.人工智能包括哪些要素?----------------------------------------ABCDA.算法B.場(chǎng)景C.算力D.數(shù)據(jù)(判斷)6.在以連接主義為基礎(chǔ)的神經(jīng)網(wǎng)絡(luò)中,每個(gè)節(jié)點(diǎn)都能表達(dá)特定的意義。---------BA.TRUEB.FALSE(單選)7.根據(jù)美國汽車工程師協(xié)會(huì)(SAE)將自動(dòng)駕駛按照車輛行駛對(duì)于系統(tǒng)依賴程度分為哪些級(jí)別?------------------------------------------------------DA.L1~L4B.L1~L5C.L0~L4D.L0~L5(判斷)8.計(jì)算機(jī)視覺是研究如何讓計(jì)算機(jī)“看”的科學(xué)。-------------------------AA.TRUEB.FALSE(多選)9.以下哪幾個(gè)方面屬于華為的全棧AI解決方案?-----------------------ABCDA.AscendB.CANNC.ModelArtsD.MindSpore(判斷)10.重復(fù)性強(qiáng)、要求弱社交能力的工作是最容易被AI取代的工作。------------AA.TRUEB.FALSE(判斷)11.華為的AI全場(chǎng)景包括公有云、私有云、各種邊緣計(jì)算、物聯(lián)網(wǎng)行業(yè)終端以及消費(fèi)類終端等端、邊、云的部署環(huán)境。---------------------------------AA.TRUEB.FALSE(單選)12.人工智能處在感知智能階段的表現(xiàn)是什么?---------------------------CA.機(jī)器開始像人類一樣能理解、思考與決策B.機(jī)器開始像人類一樣會(huì)計(jì)算,傳遞信息C.機(jī)器開始看懂和聽懂,做出判斷,采取一些簡(jiǎn)單行動(dòng)(判斷)13.聯(lián)邦學(xué)習(xí)在保證數(shù)據(jù)隱私安全的前提下,利用不同數(shù)據(jù)源合作訓(xùn)練模型,進(jìn)步突破數(shù)據(jù)的瓶頸。------------------------------------------------------------AA.TRUEB.FALSE(單選)14.符號(hào)主義的落腳點(diǎn)主要體現(xiàn)在哪里?--------------------------------BA.落腳點(diǎn)在神經(jīng)元網(wǎng)絡(luò)與深度學(xué)習(xí)。B.落腳點(diǎn)在推理,符號(hào)推理與機(jī)器推理。C.落腳點(diǎn)在感知和行動(dòng)。D.落腳點(diǎn)在行為控制、自適應(yīng)與進(jìn)化計(jì)算。(判斷)15.現(xiàn)階段的人工智能仍處于弱人工智能階段。---------------------------AA.TRUEB.FALSE(多選)16.下面哪些屬于AI的應(yīng)用領(lǐng)域?-------------------------------ABCDA.智慧教育B.智慧城市C.智慧家居D.智慧醫(yī)療(判斷)17.人工智能是研究、開發(fā)用于模擬、延伸和擴(kuò)展人的智能的理論、方法及應(yīng)用系統(tǒng)的一門新的技術(shù)科學(xué)。---------------------------------------------AA.TRUEB.FALSE(單選)18、神經(jīng)網(wǎng)絡(luò)研究屬于下列哪個(gè)學(xué)派?------------------------------------------------------------BA.符號(hào)主義B.連接主義C.行為主義D.以上都不是(多選)19、人工智能現(xiàn)在的技術(shù)應(yīng)用方向主要有?----------------------------------------------------------ACDA.自然語言處理B.控制系統(tǒng)C.計(jì)算機(jī)視覺D.語音識(shí)別(判斷)20、華為的AI全場(chǎng)景包括公有云、私有云、各種邊緣計(jì)算、物聯(lián)網(wǎng)行業(yè)終端以及消費(fèi)類終端等端、邊、云的部署環(huán)境。------------------------------------------------------------AA.TRUEB.FALSE二、機(jī)器學(xué)習(xí)概覽(單選)1.特征是描述樣本的特性的維度,關(guān)于其在傳統(tǒng)機(jī)器學(xué)習(xí)和深度學(xué)習(xí)的可解釋性,以下說法正確的是:----------------------------------------------AA.特征在傳統(tǒng)機(jī)器學(xué)習(xí)可解釋性強(qiáng),而在深度學(xué)習(xí)可解釋性弱B.特征在傳統(tǒng)機(jī)器學(xué)習(xí)可解釋性弱,而在深度學(xué)習(xí)可解釋性強(qiáng)C.特征在傳統(tǒng)機(jī)器學(xué)習(xí)和深度學(xué)習(xí)可解釋性均弱D.特征在傳統(tǒng)機(jī)器學(xué)習(xí)和深度學(xué)習(xí)可解釋性均強(qiáng)(判斷)2.由機(jī)器學(xué)習(xí)算法構(gòu)成的模型,在理論層面上,它并不能表征真正的數(shù)據(jù)分布函數(shù),只是逼近它而已。------------------------------------------------AA.TRUEB.FALSE(單選)3.機(jī)器學(xué)習(xí)算法中,以下不屬于集成學(xué)習(xí)策略的是?---------------------DA.BoostingB.StackingC.BaggingD.Marking(判斷)4.邏輯回歸的損失函數(shù)是交叉熵?fù)p失函數(shù)。------------------------------AA.TRUEB.FALSE(判斷)5.邏輯回歸當(dāng)中也可以加入正則項(xiàng)用于避免過擬合。----------------------AA.TRUEB.FALSE(多選)6.線性回歸在3維以上的維度中擬合面是?-----------------------------CA.曲面B.平面C.超平面D.超曲面(判斷)7.K折交叉驗(yàn)證是指將測(cè)試數(shù)據(jù)集劃分成K個(gè)子數(shù)據(jù)集。--------------------BA.TRUEB.FALSE(判斷)8.網(wǎng)格搜索是一種參數(shù)調(diào)節(jié)的方法。----------------------------------BA.TRUEB.FALSE(單選)9.以下哪個(gè)關(guān)于監(jiān)督式學(xué)習(xí)的說法是正確的?----------------------------AA.決策樹是一種監(jiān)督式學(xué)習(xí)B.監(jiān)督式學(xué)習(xí)不可以使用交叉驗(yàn)證進(jìn)行訓(xùn)練C.監(jiān)督式學(xué)習(xí)是一種基于規(guī)則的算法D.監(jiān)督式學(xué)習(xí)不需要標(biāo)簽就可以訓(xùn)練(多選)10.處理實(shí)際問題時(shí),以下什么情況下該使用機(jī)器學(xué)習(xí)?----------------------------------------------------------ACDA.數(shù)據(jù)分布本身隨時(shí)間變化,需要程序不停的重新適應(yīng),比如預(yù)測(cè)商品銷售的趨勢(shì)B.規(guī)則復(fù)雜程度低,且問題的規(guī)模較小的問題C.任務(wù)的規(guī)則會(huì)隨時(shí)間改變,比如生產(chǎn)線上的瑕疵檢測(cè)D.規(guī)則十分復(fù)雜或者無法描述,比如人臉識(shí)別和語音識(shí)別(多選)11.正則化是傳統(tǒng)機(jī)器學(xué)習(xí)中重要且有效的減少泛化誤差的技術(shù),以下技術(shù)屬于正則化技術(shù)的是:------------------------------------------------ABCA.L1正則化B.L2正則化C.DropoutD.動(dòng)量?jī)?yōu)化器(多選)12.以下關(guān)于機(jī)器學(xué)習(xí)算法與傳統(tǒng)基于規(guī)則方法的區(qū)別中正確的是?--------ABCA.傳統(tǒng)的基于規(guī)則的方法,其中的規(guī)律可以人工顯性的明確出來B.傳統(tǒng)基于規(guī)則的方法使用顯性編程來解決問題C.機(jī)器學(xué)習(xí)中模型的映射關(guān)系是自動(dòng)學(xué)習(xí)的D.機(jī)器學(xué)習(xí)所中模型的映射關(guān)系必須是隱性的(單選)13.Bagging集成學(xué)習(xí)中,每個(gè)基學(xué)習(xí)器之間的關(guān)系是?--------------------BA.相加關(guān)系B.相關(guān)關(guān)系C.后面的模型必須建立在前面的模型之上D.相互獨(dú)立(單選)14.數(shù)據(jù)在完成特征工程的操作后,在構(gòu)建模型的過程中,以下哪個(gè)選項(xiàng)不屬于決策樹構(gòu)建過程當(dāng)中的步驟?-----------------------------------------------------------CA.剪枝B.特征選取C.數(shù)據(jù)清理D.決策樹生成(多選)15.SVM中常用的核函數(shù)包括哪些?---------------------------------ABCDA.高斯核函數(shù)B.多項(xiàng)式核函數(shù)C.Sigmiod核函數(shù)D.線性核函數(shù)(單選)16.梯度下降算法中,損失函數(shù)曲面上軌跡最混亂的算法是以下哪種算法?-----AA.SGDB.BGDC.MGDD.MBGD(判斷)17.二分類過程中,我們可將任意類別設(shè)為正例。-------------------------AA.TRUEB.FALSE(判斷)18.我們描述住房的時(shí)候,常用住宅面積,戶型,裝修類型等屬性,如果使用樸素貝葉斯作為模型的話,則我們假設(shè)屬性之間不存在關(guān)系。------------------AA.TRUEB.FALSE(判斷)19.損失函數(shù)與模型函數(shù)是一回事。------------------------------------BA.TRUEB.FALSE(單選)20.“從有標(biāo)簽的歷史數(shù)據(jù)中來預(yù)測(cè)下季度的商鋪營(yíng)收會(huì)在20-30萬還是30-40萬”,這是一個(gè)什么問題?--------------------------------------------CA.回歸問題B.規(guī)則問題C.分類問題D.聚類問題(單選)21.GBDT算法相比于隨機(jī)森林算法,以下哪種表述是錯(cuò)誤的?------------------------------------------------------------CA.GBDT算法比隨機(jī)森林容易欠擬合B.隨機(jī)森林是并行計(jì)算的,而GBDT不能C.GBDT算法比隨機(jī)森林容易過擬合D.GBDT與隨機(jī)森林都是建立在CART樹的基礎(chǔ)之上的(單選)22.機(jī)器學(xué)習(xí)的算法中,以下哪個(gè)不是無監(jiān)督學(xué)習(xí)?-----------------------BA.GMMB.XgboostC.聚類D.關(guān)聯(lián)規(guī)則(判斷)23.訓(xùn)練誤差會(huì)隨著模型復(fù)雜度的上升不斷減小。-----------------------------------------------------------AA.TRUEB.FALSE(單選)24.如果一個(gè)模型在測(cè)試集上偏差很大,方差很小,則說明該模型?-----------------------------------------------------------DA.過擬合B.可能過擬合可能欠擬合C.剛好擬合D.欠擬合(多選)25.有大量銷售數(shù)據(jù),但沒有標(biāo)簽的情況下,企業(yè)想甄別出VIP客戶,以下模型中合適的有?----------------------------------------------------CDA.邏輯回歸B.SVMC.K-MeansD.層次聚類(單選)26.機(jī)器學(xué)習(xí)中,模型需要輸入什么來訓(xùn)練自身,預(yù)測(cè)未知?----------------DA.人工程序B.神經(jīng)網(wǎng)絡(luò)C.訓(xùn)練算法D.歷史數(shù)據(jù)(判斷)27.多項(xiàng)式回歸當(dāng)中,模型的公式中存在平方項(xiàng),因此其不是線性的。-----------BA.TRUEB.FALSE(多選)28.常見的臟數(shù)據(jù)的類型有哪些?----------------------------------ABCDA.格式錯(cuò)誤的值B.重復(fù)值C.邏輯錯(cuò)誤的值D.缺失值(單選)29.批量梯度下降,小批量梯度下降,隨機(jī)梯度下降最重要的區(qū)別在哪里?------DA.梯度大小B.梯度方向C.學(xué)習(xí)率D.使用樣本數(shù)(單選)30.以下屬于回歸算法的評(píng)價(jià)指標(biāo)是?----------------------------------CA.召回率B.混淆矩陣C.均方誤差D.準(zhǔn)確率(單選)31.以下關(guān)于機(jī)器學(xué)習(xí)描述正確的是?---------------------------------AA.深度學(xué)習(xí)是機(jī)器學(xué)習(xí)的一個(gè)分支B.深度學(xué)習(xí)與機(jī)器學(xué)習(xí)是互相包含的關(guān)系C.深度學(xué)習(xí)與機(jī)器學(xué)習(xí)同屬于人工智能但相互之間沒有關(guān)系D.以上都不對(duì)(多選)32.以下關(guān)于KNN算法當(dāng)中k值描述正確的是?---------------------------BCA.K值越大,模型越容易過擬合B.K值越大,分類的分割面越平滑C.K值是超參數(shù)D.可以將k值設(shè)為0(判斷)33.多項(xiàng)式回歸當(dāng)中,模型的公式中存在平方項(xiàng),因此其不是線性的。------------------------------------------------------------BA.TRUEB.FALSE(判斷)34.線性回歸的損失函數(shù)中加入L1正則項(xiàng),此時(shí)該回歸叫做Lasso回歸。-------------------------------------------------------------AA.TRUEB.FALSE(單選)35.回歸算法預(yù)測(cè)的標(biāo)簽是?-------------------------------------------DA.自變型B.離散型C.應(yīng)變型D.連續(xù)型(單選)36.全局梯度下降算法、隨機(jī)梯度下降算法和批量梯度下降算法均屬于梯度下降算法,以下關(guān)于其有優(yōu)缺點(diǎn)說法錯(cuò)誤的是:-------------------------------------------------------------CA.全局梯度算法可以找到損失函數(shù)的最小值B.批量梯度算法可以解決局部最小值問題C.隨機(jī)梯度算法可以找到損失函數(shù)的最小值D.全局梯度算法收斂過程比較耗時(shí)(多選)37.在隨機(jī)森林中,最終的集成模型是通過什么策略決定模型結(jié)果的?------------------------------------------------------------BCA.累加制B.求平均數(shù)C.投票制D.累乘制(判斷)38.測(cè)試誤差會(huì)隨著模型復(fù)雜度的上升不斷誠小。-----------------------------------------------------------BA.TRUEB.FALSE(多選)39.常見的聚類算法有哪些?---------------------------------------ABCDA.密度聚類B.層次聚類C.譜聚類D.Kmeans(單選)40.有監(jiān)督學(xué)習(xí)中,“近朱者赤近墨者黑”是用來形容下列哪個(gè)模型?--------------------------------------------------------------CA.K-MeansB.SVMC.KNND.神經(jīng)網(wǎng)絡(luò)(判斷)41.樸素貝葉斯算法不需要樣本特征之間的獨(dú)立同分布。-------------------BA.TRUEB.FALSE三、深度學(xué)習(xí)概覽(多選)1.在卷積神經(jīng)網(wǎng)絡(luò)中,不同層具有不同的功能,可以起到降維作用的是以下哪一層?-------------------------------------------------------------------BCDA.輸入層B.全連接層C.卷積層D.池化層(多選)2.以下哪些激活函數(shù)容易產(chǎn)生梯度消失問題?-------------------------CDA.ReLUB.SoftplusC.TanhD.Sigmoid(單選)3.以下關(guān)于標(biāo)準(zhǔn)RNN模型,說法正確的是?-----------------------------DA.不存在一對(duì)一的模型結(jié)構(gòu)B.反向傳播時(shí)不考慮時(shí)間方向C.不存在多對(duì)多的模型結(jié)構(gòu)D.會(huì)出現(xiàn)長(zhǎng)時(shí)間傳輸記憶的信息衰減的問題(單選)4.我們?cè)谟?xùn)練神經(jīng)網(wǎng)絡(luò)過程中,使用梯度下降法不斷更新哪種數(shù)值,進(jìn)而使得損失函數(shù)最小化?---------------------------------------------------DA.樣本數(shù)目B.特征值C.超參數(shù)D.參數(shù)(單選)5.前饋神經(jīng)網(wǎng)絡(luò)是一種簡(jiǎn)單的神經(jīng)網(wǎng)絡(luò),各神經(jīng)元分層排列,是目前應(yīng)用最廣泛,發(fā)展最迅速的人工神經(jīng)網(wǎng)絡(luò)之一。以下關(guān)于前饋神經(jīng)網(wǎng)絡(luò)說法正確的是:--------------------------------------------------------------DA.具備計(jì)算能力的神經(jīng)元與上下兩層相連B.其輸入節(jié)點(diǎn)具備計(jì)算能力C.同一層神經(jīng)元相互連接D.層間信息只沿-個(gè)方向傳遞(單選)6.在神經(jīng)網(wǎng)絡(luò)中,我們是通過以下哪個(gè)方法在訓(xùn)練網(wǎng)絡(luò)的時(shí)候更新參數(shù),從而最小化損失函數(shù)的?---------------------------------------------------DA.正向傳播算法B.池化計(jì)算C.卷積計(jì)算D.反向傳播算法(單選)7.優(yōu)化器是訓(xùn)練神經(jīng)網(wǎng)絡(luò)的重要組成部分,使用優(yōu)化器的目的不包含以下哪項(xiàng):----------------------------------------------------------------------CA.加快算法收斂速度B.減少手工參數(shù)的設(shè)置難度C.避過過擬合問題D.避過局部極值(單選)8.感知器在空間中可以展現(xiàn)為?---------------------------------------CA.線B.平面C.超平面D.點(diǎn)(單選)9.損失函數(shù)反映了神經(jīng)網(wǎng)絡(luò)的目標(biāo)輸出和實(shí)際輸出的誤差,在深度學(xué)習(xí)中常用的損失函數(shù)是:-----------------------------------------------------BA.指數(shù)損失函數(shù)B.均方損失函數(shù)C.對(duì)數(shù)損失函數(shù)D.Hinge損失函數(shù)(單選)10.深度學(xué)習(xí)中神經(jīng)網(wǎng)絡(luò)類型很多,以下神經(jīng)網(wǎng)絡(luò)信息是單向傳播的是:---------BA.LSTMB.卷積神經(jīng)網(wǎng)絡(luò)C.循環(huán)神經(jīng)網(wǎng)絡(luò)D.GRU(單選)11.在深度學(xué)習(xí)神經(jīng)網(wǎng)絡(luò)中,感知器是最簡(jiǎn)單的神經(jīng)網(wǎng)絡(luò),關(guān)于其結(jié)構(gòu)說法正確的是:----------------------------------------------------------------------BA.其隱含層只有兩層B.其隱含層只有一層C.其網(wǎng)絡(luò)中使用的是Sigmoid激活函數(shù)D.其網(wǎng)絡(luò)中使用的是Relu激活函數(shù)(多選)12.生成對(duì)抗網(wǎng)絡(luò)目前應(yīng)用非常廣泛,以下場(chǎng)景中可以使用此網(wǎng)絡(luò)的是?-------------------------------------------------------------------ABCDA.數(shù)據(jù)增強(qiáng)B.語義分割C.信息檢索D.圖像生成(單選)13.循環(huán)神經(jīng)網(wǎng)絡(luò)不同于卷積神經(jīng)網(wǎng)絡(luò),它比較擅長(zhǎng)解決以下哪些問題?-----------------------------------------------------------AA.序列相關(guān)問題B.圖像分類C.圖像檢測(cè)D.推薦問題(多選)14.在神經(jīng)網(wǎng)絡(luò)中常有權(quán)重共享現(xiàn)象,以下哪些神經(jīng)網(wǎng)絡(luò)會(huì)發(fā)生權(quán)重共享?-----------------------------------------------------------BDA.感知器B.卷積神經(jīng)網(wǎng)絡(luò)C.全連接神經(jīng)網(wǎng)絡(luò)D.循環(huán)神經(jīng)網(wǎng)絡(luò)(多選)15.在深度學(xué)習(xí)任務(wù)中,遇到數(shù)據(jù)不平衡問題時(shí),我們可以用以下哪些方法進(jìn)行解訣?-----------------------------------------------------------BCDA.批量刪除B.隨機(jī)過采樣C.合成采樣D.隨機(jī)欠采樣(單選)16.關(guān)于反向傳播,以下說法錯(cuò)誤的是?---------------------------------AA.反向傳播只能在前饋神經(jīng)網(wǎng)絡(luò)中運(yùn)用B.反向傳播可以結(jié)合梯度下降算法更新網(wǎng)絡(luò)權(quán)重C.反向傳播會(huì)經(jīng)過激活函數(shù)D.反向傳播指的是誤差通過網(wǎng)絡(luò)反向傳播(多選)17.深度學(xué)習(xí)中常用的損失函數(shù)有?------------------------------------BCA.L1損失函數(shù)B.均方誤差損失函數(shù)C.交叉熵誤差損失函數(shù)D.自下降損失函數(shù)(單選)18.以下不屬于對(duì)抗生成網(wǎng)絡(luò)的應(yīng)用是?--------------------------------CA.文字生成B.圖像生成C.圖像識(shí)別D.數(shù)據(jù)增強(qiáng)(判斷)19.卷積神經(jīng)網(wǎng)絡(luò)中同一卷積層的所有卷積核是權(quán)重共享的。---------------ATRUEFALSE(多選)20.已知全連接神經(jīng)網(wǎng)絡(luò)的某一層的參數(shù)總量為330,則上一層和本層的神經(jīng)元數(shù)量可能為?----------------------------------------------------BCA.32和10B.10和33C.33和10D.9和33(單選)21.神將網(wǎng)絡(luò)訓(xùn)練時(shí),常會(huì)遇到很多問題,對(duì)于梯度消失問題,我們可以通過選擇使用以下哪種函數(shù)減輕該問題?---------------------------------------AA.Relu函數(shù)B.Sigmoid函數(shù)C.tanh函數(shù)D.Softsign函數(shù)(單選)22.深度學(xué)習(xí)神經(jīng)網(wǎng)絡(luò)的隱藏層數(shù)對(duì)網(wǎng)絡(luò)的性能有一定的影響,以下關(guān)于其影響說法正確的是:------------------------------------------------------BA.隱藏層數(shù)適當(dāng)減少,神經(jīng)網(wǎng)絡(luò)的分辨能力不變B.隱藏層數(shù)適當(dāng)增加,神經(jīng)網(wǎng)絡(luò)的分辨能力越強(qiáng)C.隱藏層數(shù)適當(dāng)減少,神經(jīng)網(wǎng)絡(luò)的分辨能力越強(qiáng)D.隱藏層數(shù)適當(dāng)增加,神經(jīng)網(wǎng)絡(luò)的分辨能力越弱(多選)23.在深度學(xué)習(xí)模型訓(xùn)練的過程中,常見的優(yōu)化器有哪些?---------------------------------------------------------ABCDA.AdamB.AdagradC.SGDD.Momentum(單選)24.在經(jīng)典的卷積神經(jīng)網(wǎng)絡(luò)模型中,Softmax函數(shù)是跟在什么隱藏層后面的?------------------------------------------------------------CA.卷積層B.池化層C.全連接層D.以上都可以(單選)25.關(guān)于循環(huán)神經(jīng)網(wǎng)絡(luò)以下說法錯(cuò)誤的是?------------------------------BA.循環(huán)神經(jīng)網(wǎng)絡(luò)可以根據(jù)時(shí)間軸展開B.LSTM無法解決梯度消失的問題C.LSTM也是一種循環(huán)神經(jīng)網(wǎng)絡(luò)D.循環(huán)神經(jīng)網(wǎng)絡(luò)可以簡(jiǎn)寫為RNN(單選)26.對(duì)于圖像分類問題,以下哪個(gè)神經(jīng)網(wǎng)絡(luò)更適合解決這個(gè)問題?------------CA.感知器B.循環(huán)神經(jīng)網(wǎng)絡(luò)C.卷積神經(jīng)網(wǎng)絡(luò)D.全連接神經(jīng)網(wǎng)絡(luò)(單選)27.激活函數(shù)對(duì)于神經(jīng)網(wǎng)絡(luò)模型學(xué)習(xí)、理解非常復(fù)雜的問題有著重要的作用,以下關(guān)于激活函數(shù)說法正確的是------------------------------------------------------------BA.激活函數(shù)都是線性函數(shù)B.激活函數(shù)都是非線性函數(shù)C.激活函數(shù)部分是非線性函數(shù),部分是線性函數(shù)D.激活函數(shù)大多數(shù)是非線性函數(shù),少數(shù)是線性函數(shù)(單選)28.生成對(duì)抗網(wǎng)絡(luò)像是一個(gè)博弈系統(tǒng),生成器生成偽造的樣本,判別器進(jìn)行判斷是真是假,我們理想的結(jié)果是?--------------------------------------CA.生成器產(chǎn)生樣本的大致相同B.判別器高效的分辨生成器產(chǎn)生樣本的真假C.判別器無法分辨生成器產(chǎn)生樣本的真假D.生成器產(chǎn)生樣本的不盡相同(單選)29.深度學(xué)習(xí)神經(jīng)網(wǎng)絡(luò)訓(xùn)練時(shí)需要大量的矩陣計(jì)算,一般我們需要配用硬件讓計(jì)算機(jī)具備并行計(jì)算的能力,以下硬件設(shè)備可提供并行計(jì)算能力的是:-------------------------------------------------------------CA.主板B.內(nèi)存條C.GPUD.CPU(多選)30.深度學(xué)習(xí)中以下哪些步驟是由模型自動(dòng)完成的?--------------------------------------------------------BDA.模型訓(xùn)練B.特征選擇C.分析定位任務(wù)D.特征提取(多選)31.關(guān)于卷積神經(jīng)網(wǎng)絡(luò)池化層以下描述正確的是?--------------------------------------------------------ABCDA.池化操作采用掃描窗口實(shí)現(xiàn)B.池化層可以起到降維的作用C.常用的池化方法有最大池化和平均池化D.經(jīng)過池化的特征圖像變小了(單選)32.在深度學(xué)習(xí)網(wǎng)絡(luò)中,反向傳播算法用于尋求最優(yōu)參數(shù),在反向傳播算法中使用的什么法則進(jìn)行逐層求導(dǎo)的?-----------------------------------------------------------AA.鏈?zhǔn)椒▌tB.累加法則C.對(duì)等法則D.歸一法則(單選)33.L1和L2正則化是傳統(tǒng)機(jī)器學(xué)習(xí)常用來減少泛化誤差的方法,以下關(guān)于兩者的說法正確的是:-----------------------------------------------------AA.L1正則化可以做特征選擇B.L1和L2正則化均可做特征選擇C.L2正則化可以做特征選擇D.L1和L2正則化均不可做特征選擇(單選)34.傳統(tǒng)機(jī)器學(xué)習(xí)和深度學(xué)習(xí)是人工智能核心技術(shù),在工程流程上略有差別,以下步驟在深度學(xué)習(xí)中不需要做的是-----------------------------------BA.模型評(píng)估B.特征工程C.數(shù)據(jù)清洗D.模型構(gòu)建(多選)35.卷積神經(jīng)網(wǎng)絡(luò)中的池化層可以減小下層輸入的尺寸。常見的池化有:------------------------------------------------------------CDA.最小地化層B.乘積池化層C.最大池化層D.平均池化層(單選)36.深度學(xué)習(xí)中如果神經(jīng)網(wǎng)絡(luò)的層數(shù)較多比較容易出現(xiàn)梯度消失問題。嚴(yán)格意義上來講是在以下哪個(gè)環(huán)節(jié)出現(xiàn)樣度消失間題?--------------------------------------------------------------AA.反向傳播更新參數(shù)B.正向傳播更新夢(mèng)故C.反向傳播計(jì)算結(jié)果D.正向傳播計(jì)算結(jié)果(判斷)37.循環(huán)神經(jīng)網(wǎng)絡(luò)可以捕捉序列化數(shù)據(jù)中的動(dòng)態(tài)信息。-------------------------------------------------------------AA.TRUEB.FALSE(單選)38.在對(duì)抗生成網(wǎng)絡(luò)當(dāng)中,帶有標(biāo)簽的數(shù)據(jù)應(yīng)該被放在哪里?------------------------------------------------------------BA.作為生成模型的輸出值B.作為判別模型的輸入值C.作為判別模型的輸出值D.作為生成模型的輸入值(多選)39.如果深度學(xué)習(xí)神經(jīng)網(wǎng)絡(luò)出現(xiàn)了梯度消失或梯度爆炸問題我們常用的解決方法為.----------------------------------------------------------ACDA.梯度剪切B.隨機(jī)欠采樣C.使用Relu激活函數(shù)D.正則化(單選)40.輸入32*32的圖像,用大小5*5的卷積核做步長(zhǎng)為1的卷積計(jì)算,輸出圖像的大小是------------------------------------------------------BA.28*23B.28*28C.29*29D.23*23(單選)41.神將網(wǎng)絡(luò)訓(xùn)練時(shí),常會(huì)遇到很多問題,對(duì)于梯度消失問題,我們可以通過選擇使用以下哪種函數(shù)減輕該問題?-------------------------------------------------------------BA.Softsign函數(shù)B.Relu函數(shù)C.tanh函數(shù)D.Sigmoid函數(shù)(多選)42.以下哪些是屬于深度學(xué)習(xí)算法的激活函數(shù)?----------------------------------------------------------ABCA.SigmoidB.ReLUC.TanhD.Sin(單選)43.在訓(xùn)練神經(jīng)網(wǎng)絡(luò)過程中我們目的是讓損失函數(shù)不斷減少,我們常用以下哪種方法最小化損失函數(shù)?------------------------------------------------------------AA.梯度下降B.DropoutC.交叉驗(yàn)證D.正則化(單選)44.人下關(guān)于神經(jīng)網(wǎng)絡(luò)的說法錯(cuò)誤的是?----------------------------------AA.隨著神經(jīng)網(wǎng)絡(luò)隱藏層數(shù)的增加,模型的分類能力逐步減弱B.單層感知器的局限在于不能解決異或問題C.前饋神經(jīng)網(wǎng)絡(luò)可用有向無環(huán)圖表示D.前饋神經(jīng)網(wǎng)絡(luò)同一層的神經(jīng)元之間不存在聯(lián)系四、業(yè)界主流開發(fā)框架(單選)1.TensorFlow2.0中可用于張量合并的方法有?-------------------------BA.joinB.concatC.splitD.unstack(判斷)2.TensorFlow2.0中的Keras接口的三個(gè)主要優(yōu)勢(shì)是方便用戶使用,模塊化和可組合,易于擴(kuò)展。--------------------------------------------------AA.TRUEB.FALSE(判斷)3.tf.keras.datasets可以查看keras中內(nèi)置的數(shù)據(jù)集。------------------AA.TRUEB.FALSE(多選)4.截止2019年底,TensorFlow發(fā)布過的版本有?----------------------ACDA.1B.3C.2D.0.1(判斷)5.TensorFlow是一個(gè)用于機(jī)器學(xué)習(xí)和深度學(xué)習(xí)的端到端開源平臺(tái)。----------AA.TRUEB.FALSE(判斷)6.TensorFlow是當(dāng)下最流行的深度學(xué)習(xí)框架之一。-----------------------AA.TRUEB.FALSE(多選)7.當(dāng)編譯模型時(shí)用了以下代碼:pile(optimizer='Adam,loss='categorical.crossentropy',metrics=[tf.keras.metrics.accuracy]),在使用evaluate方法評(píng)估模型時(shí),會(huì)輸出以下哪些指標(biāo)?-------------------------------------------------------------ACA.accuracyB.categorical_1ossC.lossD.categoricalaccuracy(單選)8.TensorFlow2.0的keras.metrics的內(nèi)置指標(biāo)不包括的方法有?----------CA.AccuracyB.RecallC.SumD.Mean(判斷)9.TensorFlow2.0中取消了圖和會(huì)話的機(jī)制。---------------------------BA.TRUEB.FALSE(單選)10.當(dāng)使用TensorFlow2.0的keras接口搭建神經(jīng)網(wǎng)絡(luò)時(shí),需要進(jìn)行網(wǎng)絡(luò)的編譯工作,需要用到以下哪種方法?---------------------------------------AA.compileB.writeC.joinD.fit(單選)11.下列選項(xiàng)中不是TensorFlow2.0支持的運(yùn)算符是----------------------CA.powB.@C.^D.//(單選)12.TensorFlow使用的數(shù)據(jù)類型是?------------------------------------CA.ScalarB.VectorC.TensorD.Matrix(判斷)13.TensorFlow2.0支持GPU加速主要表現(xiàn)在對(duì)矩陣的加減乘除有一個(gè)并行運(yùn)算的加速。---------------------------------------------------------AA.TRUEB.FALSE(多選)14.以下屬于TensorFlow2.0的特性的是?----------------------------ACDA.引入Keras接口B.支持靜態(tài)圖機(jī)制C.支持更多平臺(tái)和更多語言D.繼續(xù)兼容Tensorflowl.x的相關(guān)模塊(判斷)15.PyTorch現(xiàn)有版本均支持Python2和Python3?----------------------BA.TRUEB.FALSE(判斷)16.TensorFlow2.0不支持tensor在GPU和CPU之間相互轉(zhuǎn)移。------------BA.TRUEB.FALSE(單選)17.以下不屬于TensorFlow2.0的特點(diǎn)是?-----------------------------AA.多核CPU加速B.分布式C.多語言D.多平臺(tái)(單選)18.TensorFlow2.0中查看張量維度的方法是?-------------------------CA.dimensB.dtypeC.ndimD.device(單選)19.代碼model.fit(mnist.train.inmage,mnist.train.labels.epochs=5)中的epochs參數(shù)代表?--------------------------------------------AA.全體訓(xùn)練集將被訓(xùn)練5次B.全體測(cè)試集將被測(cè)試5次C.全體訓(xùn)練集將被分為6份D.全體訓(xùn)練集將被分為5份(多選)20.下列選項(xiàng)中屬于keras下estimator封裝的方法有?-----------------ABCA.評(píng)估B.訓(xùn)練C.預(yù)測(cè)D.輸出模型(單選)21.下列屬性中TensorFlow2.0不支持創(chuàng)建tensor的方法是?---------------CA.zerosB.fillC.createD.constant(單選)22.PyTorch不具備以下哪種功能?----------------------------------AA.內(nèi)嵌kerasB.支持動(dòng)態(tài)圖C.自動(dòng)求導(dǎo)D.GPU加速(多選)23.TensorFlow中keras模塊的內(nèi)置優(yōu)化器有?----------------------ABCDA.AdamB.SGDC.AdaboostD.Adadelta(多選)24.TensorF1ow2.0中可以用來查看是否是tensor的方法有?-----------------------------------------------------------BCA.dtypeB.isinstanceC.is_tensorD.device(單選)25.TensorF1ow是下列哪個(gè)公司首先開發(fā)的?------------------------------------------------------------DA.甲骨文B.FacebookC.英偉達(dá)D.Google(單選)26.Pytorch是有哪一個(gè)公司首先推出的?------------------------------------------------------------CA.百度B.GoogleC.FacebookD.Huawei(單選)27.TensorFlow2.0的keras.preprocessing的作用是?-----------------------------------------------------------AA.keras數(shù)據(jù)處理工具B.keras內(nèi)置優(yōu)化器C.keras模型部署工具D.Keras生成模型工具(判斷)28.在TensorFlow2.0中tf.contrib方法可以繼續(xù)使用。-----------------------------------------------------------BA.TRUEB.FALSE(單選)29.下列選項(xiàng)中不支持TensorFLow2.0進(jìn)行維度變換的屬性是。-----------------------------------------------------------CA.squeezeB.reshapeC.gatherD.transpose五、華為AI開發(fā)框架MindSpore(判斷)1.Tensor是MindSpore中數(shù)據(jù)的存儲(chǔ)組件。----------------------------AA.TRUEB.FALSE(單選)2.以下哪個(gè)不是MindSpore常用的Operation?--------------------------AA.signalB.mathD.nnC.array(單選)3.On-Device執(zhí)行,即整圖卸載執(zhí)行,充分發(fā)揮異騰芯片的算力,可以大大降低交互的開銷,從而提升加速器占用率,關(guān)于0n-Device執(zhí)行以下描述錯(cuò)誤的是?---------------------------------------------------------------CA.MindSpore通過梯度數(shù)據(jù)驅(qū)動(dòng)的自適應(yīng)圖優(yōu)化,實(shí)現(xiàn)去中心化的自主A11Reduce,梯度聚合步調(diào)一致,計(jì)算與通信充分流水B.超強(qiáng)芯片算力下模型執(zhí)行的挑戰(zhàn):內(nèi)存墻問題、交互開銷大、數(shù)據(jù)供給難。部分在Host執(zhí)行,部分在Device執(zhí)行,交互開銷甚至遠(yuǎn)大于執(zhí)行開銷,導(dǎo)致加速器占用率低C.MindSpore通過面向芯片的深度圖優(yōu)化技術(shù),同步等待少,最大化“數(shù)據(jù)計(jì)算通信”的并行度,訓(xùn)練性能相比Host側(cè)圖調(diào)度方式持平D.超強(qiáng)芯片算力下分布式梯度聚合的挑戰(zhàn):ReslNet50單迭代20ms時(shí)間時(shí)會(huì)產(chǎn)生中心控制的同步開銷和頻繁同步的通信開銷。傳統(tǒng)方法需要3次同步完成A11Reduce,數(shù)據(jù)驅(qū)動(dòng)方法自主A11Reduce,無控制開銷(單選)4.以下哪個(gè)不是MindSpore核心架構(gòu)的特點(diǎn)?---------------------------------------------------------------CA.自動(dòng)微分B.自動(dòng)調(diào)優(yōu)C.自動(dòng)編碼D.自動(dòng)并行(多選)5.MSIR是一種簡(jiǎn)潔高效靈活的基于圖的函數(shù)式IR,可以表示的函數(shù)式語義類型有?--------------------------------------------------------ABDA.自由變量B.高階函數(shù)C.中斷D.遞歸(單選)6.面對(duì)超大規(guī)模模型需要實(shí)現(xiàn)高效分布式訓(xùn)練的挑戰(zhàn),MindSpore的處理方式為?---------------------------------------------------------------AA.自動(dòng)并行B.串行C.手動(dòng)并行(單選)7.Ce11提供了定義執(zhí)行計(jì)算的基本模塊,Ce11的對(duì)象可以直接執(zhí)行,以下說法有誤的是?-----------------------------------------------------ACDA.__init__,初始化參數(shù)(Parameter),子模塊(Ce11),算子(Primitive)等組件,進(jìn)行初始化的校驗(yàn)B.Construct,定義執(zhí)行的過程。圖模式時(shí),會(huì)被編譯成圖來執(zhí)行,沒有語法限制C.還有一些optim常用優(yōu)化器、wrap常用網(wǎng)絡(luò)包裝函數(shù)等預(yù)定義Cel1D.bprop(可選),自定義模塊的反向(單選)8.面對(duì)行業(yè)研究與全場(chǎng)景AI應(yīng)用之間的巨大鴻溝,MindSpore跨越應(yīng)用鴻溝助力普惠AI的技術(shù)創(chuàng)新不包括以下哪項(xiàng)?--------------------------------------------------------------BA.新協(xié)作方式B.新編程語言C.新編程范式D.新執(zhí)行模式(單選)9.在應(yīng)用開發(fā)時(shí),以下哪種操作不屬于典型網(wǎng)絡(luò)定義?---------------------------------------------------------------CA.網(wǎng)絡(luò)定義B.網(wǎng)絡(luò)執(zhí)行C.知識(shí)蒸餾D.權(quán)值初始化六、Atlas人工智能計(jì)算平臺(tái)(多選)1.使用裝有Atlas300(3000)加速卡的服務(wù)器編譯運(yùn)行程序時(shí)需要檢查哪些條件?-------------------------------------------------------------------ACDA.完成Atlas驅(qū)動(dòng)安裝B.已安裝CUDA軟件包C.已安裝Cmake編譯工具D.完成環(huán)境配置(多選)2.從技術(shù)架構(gòu)來看AI芯片的分類包括?-----------------------------ABCDA.FPGAB.CPUC.GPUD.ASIC(判斷)3.Root用戶無法在裝有Atlas300(3000)加速卡的服務(wù)器上安裝DDK(DeviceDevelopmentKit),只能使用普通用戶進(jìn)行安裝。------------------------AA.TRUEB.FALSE(單選)4.Atlas200DK所基于的異騰310芯片主要的應(yīng)用是?--------------------AA.模型推理B.構(gòu)建模型C.訓(xùn)練模型(多選)5.達(dá)芬奇架構(gòu)計(jì)算單元主要包含的計(jì)算資源有?------------------------ABDA.向量計(jì)算單元B.標(biāo)量計(jì)算單元C.張量計(jì)算單元D.矩陣計(jì)算單元(判斷)6.AI芯片也被稱為AI加速器,是專門用于處理人工智能應(yīng)用中的大量計(jì)算任務(wù)的功能模塊。-----------------------------------------------------AA.TRUEB.FALSE(單選)7.昪騰AI處理器的邏輯架構(gòu)不包括以下哪個(gè)選項(xiàng)?----------------------BA.DVPPB.GPUC.AI計(jì)算引擎D.芯片系統(tǒng)控制CPU(單選)8.查看Atlas300(3000)加速卡驅(qū)動(dòng)是否安裝成功應(yīng)該使用哪條命令?-------AA.npu-siminfoB.npuinfoC.atlas-driverinfoD.atlasinfo(判斷)9.在裝有Atlas300(3000)加速卡的服務(wù)器中安裝DDK(DeviceDevelopmentKit)依賴環(huán)境時(shí)只需要安裝Python3。------------------------------------AA.TRUEB.FALSE(多選)10.AI芯片從業(yè)務(wù)應(yīng)用上來分,可以分為?-----------------------------ADA.訓(xùn)練B.GPUC.模型構(gòu)建D.推理(單選)11.哪條命令可以檢查Atlas300(3000)加速卡是否在位?----------------BA.1spci|grep'npu'B.1spci|grep'd100'C.1spcigrep'atlas'D.atlasinfo(判斷)12.GPU擅長(zhǎng)計(jì)算密集和易于并行的程序。------------------------------AA.TRUEB.FALSE(多選)13.Atlas800AI服務(wù)器有多個(gè)型號(hào),其中基于鯤鵬處理器平臺(tái)的是?-------BA.Atlas800型號(hào):9000B.Atlas800型號(hào):3000C.Atlas800型號(hào):3010(單選)14.下列選項(xiàng)中昇騰310和昇騰910屬性相同的是?-----------------------BA.最大功率B.架構(gòu)C.整數(shù)精度D.7nm制程(判斷)15.華為昇騰AI芯片是NPU(神經(jīng)網(wǎng)絡(luò)處理器)的典型代表之一。------------AA.TRUEB.FALSE(單選)16.Atlas加速AI推理使用的是什么處理器?-------------------------------------------------------------BA.異騰910處理器B.異騰310處理器C.GPUD.FPGA(多選)17.以下哪些庫是在裝有Atlas300(3000)加速卡的服務(wù)器中安裝DDK(DeviceDevelopmentKit)之前需要安裝的?---------------------------------------------------------ABCA.decoratorB.setuptoolsC.numpyD.tensorflow(判斷)18.CPU主要通過增加指令,增加核數(shù)等方式來提升AI性能。--------------------------------------------------------------AA.TRUEB.FALSE七、華為智能終端AI開放平臺(tái)(單選)1.HUAWEIHiAI平臺(tái)中的人臉檢測(cè)是屬于哪個(gè)模塊?-----------------------AA.HiAIEngineB.HiAIFrameworkC.HiAIFoundationD.HiAIService(判斷)2.HUAWEIHiAIEngine能夠輕松將多種AI能力與App集成。-------------AA.TRUEB.FALSE(判斷)3.HiAI移動(dòng)計(jì)算平臺(tái)提供豐富的上層功能業(yè)務(wù)API,可在移動(dòng)設(shè)備高效運(yùn)行。----------------------------------------------------------------------AA.TRUEB.FALSE(多選)4.HUAWEIHiAI支持的機(jī)型有哪些?--------------------------------ABCA.P30B.Mate20C.榮耀V20D.iPhone10(單選)5.HUAWEIHiAI平臺(tái)支持與哪一個(gè)工具集成?-----------------------------CA.JupyterNotebookB.MyEclipseC.AndroidStudioD.Spider(單選)6.華為的芯片支持HUAWEIHiAI的哪一個(gè)模塊?-------------------------BA.HiAIEngineB.HiAIFoundationC.HiAIFrameworkD.HiAIService(多選)7.HUAWEIHiAI賦能APP哪些價(jià)值?-------------------------------ABCDA.安全B.穩(wěn)定C.實(shí)時(shí)D.隨時(shí)(多選)8.HiAI移動(dòng)計(jì)算平臺(tái)有哪些優(yōu)點(diǎn)?---------------------------------ABCDA.快速上手的源碼B.多樣的工具鏈C.完善的文檔D.豐富的API(單選)9.以下哪一項(xiàng)是HUAWEIHiAIFoundation模塊的功能?--------------------------------------------------------------CA.App集成B.讓服務(wù)主動(dòng)找到用戶C.快速轉(zhuǎn)化和遷移已有模型D.根據(jù)用戶所需,適時(shí)適地推送服務(wù)八、華為云企業(yè)智能應(yīng)用平臺(tái)(多選)1.下列關(guān)于通用表格識(shí)別服務(wù)的說法正確的是?------------------------ABCDA.rows代表文字塊占用的行信息,編號(hào)從0開始,列表形式B.colums代表文字塊占用的列信息,編號(hào)從0開始,列表形式C.傳入的圖像數(shù)據(jù)需要經(jīng)過base64編碼D.words代表文字塊識(shí)別結(jié)果(判斷)2.圖像標(biāo)簽服務(wù)返回的tag可以有多個(gè)。-------------------------------AA.TRUEB.FALSE(單選)3.語音識(shí)別服務(wù)調(diào)用成功時(shí),識(shí)別的結(jié)果保存在下面哪個(gè)字段中?-----------------------------------------------------------AA.resultB.contentC.dataD.text(單選)4.通用文字識(shí)別服務(wù)調(diào)用成功時(shí),返回的文字識(shí)別結(jié)果保存在下列哪個(gè)字段中?-----------------------------------------------------------BA.textB.resultC.contentD.words(多選)5.華為云EI智能體根據(jù)行業(yè)和應(yīng)用場(chǎng)景的不同也有很多種,目前可以實(shí)現(xiàn)的華為云EI智能體有?------------------------------------------------------------ABCDA.工業(yè)智能體B.交通智能體C.園區(qū)智能體D.汽車智能體(多選)6.人臉?biāo)阉鞣?wù)調(diào)用成功時(shí)返回的結(jié)果中包含下列哪些項(xiàng)?-----------------------------------------------------------ABCA.搜索出的人臉相似度B.搜索出的人臉idC.搜索出的人臉位置D.搜索出的人臉序號(hào)(單選)7.ModelArts服務(wù)與()服務(wù)相結(jié)合可以輕松將模型部署到“端”?--------------------------------------------------------------DA.OBSB.OCRC.ECSD.HiLens(單選)8.以下哪個(gè)不是圖像識(shí)別服務(wù)的應(yīng)用?-----------------------------DA.目標(biāo)檢測(cè)B.智能相冊(cè)C.場(chǎng)景分析D.語音合成(多選)9.華為云ModelArts是面向AI開發(fā)的一戰(zhàn)式開發(fā)平臺(tái),以下哪些功能在Mode1Arts上可以具備?---------------------------------------ABCDA.數(shù)據(jù)治理B.AI市場(chǎng)C.可視化工作流D.自動(dòng)學(xué)習(xí)(多選)10.下列關(guān)于通用表格識(shí)別服務(wù)返回的type字段說法正確的是?----------------------------------------------------------BDA.type代表文字識(shí)別區(qū)域類型B.type為text時(shí)代表文本識(shí)別區(qū)域C.type代表表格類型D.type為table時(shí)代表表格識(shí)別區(qū)域(判斷)11.人臉比對(duì)服務(wù)調(diào)用時(shí)只傳入一張圖像也可以。-------------------------BA.TRUEB.FALSE(多選)12.華為云EI讓更多的企業(yè)邊界的使用AI和大數(shù)據(jù)服務(wù),加速業(yè)務(wù)發(fā)展,造福社會(huì)。華為云EI服務(wù)可以在以下哪些方面服務(wù)企業(yè)?------------------------ABCDA.行業(yè)數(shù)據(jù)B.行業(yè)智慧C.算法D.算力(多選)13.以下哪些服務(wù)屬于華為EI服務(wù)家族?----------------------------ABCDA.對(duì)話機(jī)器人B.EI基礎(chǔ)服務(wù)C.自然語言處理D.EI大數(shù)據(jù)服務(wù)(多選)14.基因知識(shí)圖譜具備以下哪幾種能力?------------------------------ACDA.輔助病例診斷B.疾病預(yù)測(cè)及診斷C.基因檢測(cè)報(bào)告生成D.實(shí)體查詢(多選)15.下列關(guān)于護(hù)照識(shí)別服務(wù)的說法正確的是?--------------------------ABCD

溫馨提示

  • 1. 本站所有資源如無特殊說明,都需要本地電腦安裝OFFICE2007和PDF閱讀器。圖紙軟件為CAD,CAXA,PROE,UG,SolidWorks等.壓縮文件請(qǐng)下載最新的WinRAR軟件解壓。
  • 2. 本站的文檔不包含任何第三方提供的附件圖紙等,如果需要附件,請(qǐng)聯(lián)系上傳者。文件的所有權(quán)益歸上傳用戶所有。
  • 3. 本站RAR壓縮包中若帶圖紙,網(wǎng)頁內(nèi)容里面會(huì)有圖紙預(yù)覽,若沒有圖紙預(yù)覽就沒有圖紙。
  • 4. 未經(jīng)權(quán)益所有人同意不得將文件中的內(nèi)容挪作商業(yè)或盈利用途。
  • 5. 人人文庫網(wǎng)僅提供信息存儲(chǔ)空間,僅對(duì)用戶上傳內(nèi)容的表現(xiàn)方式做保護(hù)處理,對(duì)用戶上傳分享的文檔內(nèi)容本身不做任何修改或編輯,并不能對(duì)任何下載內(nèi)容負(fù)責(zé)。
  • 6. 下載文件中如有侵權(quán)或不適當(dāng)內(nèi)容,請(qǐng)與我們聯(lián)系,我們立即糾正。
  • 7. 本站不保證下載資源的準(zhǔn)確性、安全性和完整性, 同時(shí)也不承擔(dān)用戶因使用這些下載資源對(duì)自己和他人造成任何形式的傷害或損失。

評(píng)論

0/150

提交評(píng)論