HCIA-AI復(fù)習(xí)測試有答案(一)_第1頁
HCIA-AI復(fù)習(xí)測試有答案(一)_第2頁
HCIA-AI復(fù)習(xí)測試有答案(一)_第3頁
HCIA-AI復(fù)習(xí)測試有答案(一)_第4頁
HCIA-AI復(fù)習(xí)測試有答案(一)_第5頁
已閱讀5頁,還剩26頁未讀 繼續(xù)免費(fèi)閱讀

下載本文檔

版權(quán)說明:本文檔由用戶提供并上傳,收益歸屬內(nèi)容提供方,若內(nèi)容存在侵權(quán),請進(jìn)行舉報或認(rèn)領(lǐng)

文檔簡介

第頁HCIA-AI復(fù)習(xí)測試有答案1.有監(jiān)督學(xué)習(xí)中,“近朱者赤近墨者黑”是用來形容下列哪個模型?A、K-MeansB、SVMC、KNND、神經(jīng)網(wǎng)絡(luò)【正確答案】:C2.傳統(tǒng)機(jī)器學(xué)習(xí)和深度學(xué)習(xí)是人工智能核心技術(shù),在工程流程上略有差別,以下步驟在深度學(xué)習(xí)中不需要做的是A、模型評估B、特征工程C、數(shù)據(jù)清洗D、模型構(gòu)建【正確答案】:B3.HUAWEIHiAI平臺中的人臉檢測是屬于哪個模塊?A、HiAIEngineB、HiAIFrameworkC、HiAIFoundationD、HiAIService【正確答案】:A4.TensorFlow2.0中可用于張量合并的方法有?A、joinB、concatC、splitD、unstack【正確答案】:B5.下列選項中不是TensorFlow2.0支持的運(yùn)算符是A、powB、@C、^D、//【正確答案】:C6.K折交叉驗證是指將測試數(shù)據(jù)集劃分成K個子數(shù)據(jù)集。A、TRUEB、FALSE【正確答案】:B7.下列選項中不支持TensorFLow2.0進(jìn)行維度變換的屬性是。A、squeezeB、reshapeC、gatherD、transpose【正確答案】:C8.下列哪一個是圖像標(biāo)簽服務(wù)的URI?A、/v1.0/image/recognitionB、/v1.0/image/celebrity-recognitionC、/v1.0/image/recapture-detectD、/v1.0/image/tagging【正確答案】:D9.我們在訓(xùn)練神經(jīng)網(wǎng)絡(luò)過程中,使用梯度下降法不斷更新哪種數(shù)值,進(jìn)而使得損失函數(shù)最小化?A、樣本數(shù)目B、特征值C、超參數(shù)D、參數(shù)【正確答案】:D10.符號主義的落腳點(diǎn)主要體現(xiàn)在哪里?A、落腳點(diǎn)在神經(jīng)元網(wǎng)絡(luò)與深度學(xué)習(xí)。B、落腳點(diǎn)在推理,符號推理與機(jī)器推理。C、落腳點(diǎn)在感知和行動。D、落腳點(diǎn)在行為控制、自適應(yīng)與進(jìn)化計算?!菊_答案】:B11.根據(jù)美國汽車工程師協(xié)會(SAE)將自動駕駛按照車輛行駛對于系統(tǒng)依賴程度分為哪些級別?A、L1~L4B、L1~L5C、L0~L4D、L0~L5【正確答案】:D12.線性回歸的損失函數(shù)中加入L1正則項,此時該回歸叫做Lasso回歸。A、TRUEB、FALSE【正確答案】:A13.輸入3232的圖像,用大小55的卷積核做步長為1的卷積計算,輸出圖像的大小是A、2823B、2828C、2929D、2323【正確答案】:B14.在深度學(xué)習(xí)神經(jīng)網(wǎng)絡(luò)中,感知器是最簡單的神經(jīng)網(wǎng)絡(luò),關(guān)于其結(jié)構(gòu)說法正確的是:A、其隱含層只有兩層B、其隱含層只有一層C、其網(wǎng)絡(luò)中使用的是Sigmoid激活函數(shù)D、其網(wǎng)絡(luò)中使用的是Relu激活函數(shù)【正確答案】:B15.TensorF1ow是下列哪個公司首先開發(fā)的?A、甲骨文B、FacebookC、英偉達(dá)D、Google【正確答案】:D16.循環(huán)神經(jīng)網(wǎng)絡(luò)可以捕捉序列化數(shù)據(jù)中的動態(tài)信息。A、TRUEB、FALSE【正確答案】:A17.哪條命令可以檢查Atlas300(3000)加速卡是否在位?A、1spci|grep‘npu’B、1spci|grep‘d100’C、1spcigrep‘a(chǎn)tlas’D、atlasinfo【正確答案】:B18.圖像標(biāo)簽服務(wù)返回的tag可以有多個。A、TRUEB、FALSE【正確答案】:A19.深度學(xué)習(xí)神經(jīng)網(wǎng)絡(luò)的隱藏層數(shù)對網(wǎng)絡(luò)的性能有一定的影響,以下關(guān)于其影響說法正確的是:A、隱藏層數(shù)適當(dāng)減少,神經(jīng)網(wǎng)絡(luò)的分辨能力不變B、隱藏層數(shù)適當(dāng)增加,神經(jīng)網(wǎng)絡(luò)的分辨能力越強(qiáng)C、隱藏層數(shù)適當(dāng)減少,神經(jīng)網(wǎng)絡(luò)的分辨能力越強(qiáng)D、隱藏層數(shù)適當(dāng)增加,神經(jīng)網(wǎng)絡(luò)的分辨能力越弱【正確答案】:B20.線性回歸在3維以上的維度中擬合面是?A、曲面B、平面C、超平面D、超曲面【正確答案】:C21.Tensor是MindSpore中數(shù)據(jù)的存儲組件。A、TRUEB、FALSE【正確答案】:A22.TensorFlow2.0支持GPU加速主要表現(xiàn)在對矩陣的加減乘除有一個并行運(yùn)算的加速。A、TRUEB、FALSE【正確答案】:A23.Atlas加速AI推理使用的是什么處理器?A、異騰910處理器B、異騰310處理器C、GPUD、FPGA【正確答案】:B24.樸素貝葉斯算法不需要樣本特征之間的獨(dú)立同分布。A、TRUEB、FALSE【正確答案】:B25.AI芯片也被稱為AI加速器,是專門用于處理人工智能應(yīng)用中的大量計算任務(wù)的功能模塊。A、TRUEB、FALSE【正確答案】:A26.面對超大規(guī)模模型需要實(shí)現(xiàn)高效分布式訓(xùn)練的挑戰(zhàn),MindSpore的處理方式為?A、自動并行B、串行C、手動并行【正確答案】:A27.人工智能處在感知智能階段的表現(xiàn)是什么?A、機(jī)器開始像人類一樣能理解、思考與決策B、機(jī)器開始像人類一樣會計算,傳遞信息C、機(jī)器開始看懂和聽懂,做出判斷,采取一些簡單行動【正確答案】:C28.CPU主要通過增加指令,增加核數(shù)等方式來提升AI性能。A、TRUEB、FALSE【正確答案】:A29.損失函數(shù)反映了神經(jīng)網(wǎng)絡(luò)的目標(biāo)輸出和實(shí)際輸出的誤差,在深度學(xué)習(xí)中常用的損失函數(shù)是:A、指數(shù)損失函數(shù)B、均方損失函數(shù)C、對數(shù)損失函數(shù)D、Hinge損失函數(shù)【正確答案】:B30.面對行業(yè)研究與全場景AI應(yīng)用之間的巨大鴻溝,MindSpore跨越應(yīng)用鴻溝助力普惠AI的技術(shù)創(chuàng)新不包括以下哪項?A、新協(xié)作方式B、新編程語言C、新編程范式D、新執(zhí)行模式【正確答案】:B31.在TensorFlow2.0中tf.contrib方法可以繼續(xù)使用。A、TRUEB、FALSE【正確答案】:B32.網(wǎng)格搜索是一種參數(shù)調(diào)節(jié)的方法。A、TRUEB、FALSE【正確答案】:B33.語音識別服務(wù)調(diào)用成功時,識別的結(jié)果保存在下面哪個字段中?A、resultB、contentC、dataD、text【正確答案】:A34.“從有標(biāo)簽的歷史數(shù)據(jù)中來預(yù)測下季度的商鋪營收會在20-30萬還是30-40萬”,這是一個什么問題?A、回歸問題B、規(guī)則問題C、分類問題D、聚類問題【正確答案】:C35.查看Atlas300(3000)加速卡驅(qū)動是否安裝成功應(yīng)該使用哪條命令?A、npu-siminfoB、npuinfoC、atlas-driverinfoD、atlasinfo【正確答案】:A36.HiAI移動計算平臺提供豐富的上層功能業(yè)務(wù)API,可在移動設(shè)備高效運(yùn)行。A、TRUEB、FALSE【正確答案】:A37.卷積神經(jīng)網(wǎng)絡(luò)中同一卷積層的所有卷積核是權(quán)重共享的。A、TRUEB、FALSE【正確答案】:A38.TensorFlow是當(dāng)下最流行的深度學(xué)習(xí)框架之一。A、TRUEB、FALSE【正確答案】:A39.PyTorch現(xiàn)有版本均支持Python2和Python3?A、TRUEB、FALSE【正確答案】:B40.機(jī)器學(xué)習(xí)算法中,以下不屬于集成學(xué)習(xí)策略的是?A、BoostingB、StackingC、BaggingD、Marking【正確答案】:D41.機(jī)器學(xué)習(xí)中,模型需要輸入什么來訓(xùn)練自身,預(yù)測未知?A、人工程序B、神經(jīng)網(wǎng)絡(luò)C、訓(xùn)練算法D、歷史數(shù)據(jù)【正確答案】:D42.ModelArts服務(wù)與()服務(wù)相結(jié)合可以輕松將模型部署到“端”?A、OBSB、OCRC、ECSD、HiLens【正確答案】:D43.通用文字識別服務(wù)調(diào)用成功時,返回的文字識別結(jié)果保存在下列哪個字段中?A、textB、resultC、contentD、words【正確答案】:B44.優(yōu)化器是訓(xùn)練神經(jīng)網(wǎng)絡(luò)的重要組成部分,使用優(yōu)化器的目的不包含以下哪項:A、加快算法收斂速度B、減少手工參數(shù)的設(shè)置難度C、避過過擬合問題D、避過局部極值【正確答案】:C45.以下哪個不是圖像識別服務(wù)的應(yīng)用?A、目標(biāo)檢測B、智能相冊C、場景分析D、語音合成【正確答案】:D46.機(jī)器學(xué)習(xí)的算法中,以下哪個不是無監(jiān)督學(xué)習(xí)?A、GMMB、XgboostC、聚類D、關(guān)聯(lián)規(guī)則【正確答案】:B47.以下關(guān)于機(jī)器學(xué)習(xí)描述正確的是?A、深度學(xué)習(xí)是機(jī)器學(xué)習(xí)的一個分支B、深度學(xué)習(xí)與機(jī)器學(xué)習(xí)是互相包含的關(guān)系C、深度學(xué)習(xí)與機(jī)器學(xué)習(xí)同屬于人工智能但相互之間沒有關(guān)系D、以上都不對【正確答案】:A48.交通智能體可以實(shí)現(xiàn)()小時全時段/全域交通感知?A、7×24B、5×24C、5×12D、7×12【正確答案】:A49.當(dāng)使用TensorFlow2.0的keras接口搭建神經(jīng)網(wǎng)絡(luò)時,需要進(jìn)行網(wǎng)絡(luò)的編譯工作,需要用到以下哪種方法?A、compileB、writeC、joinD、fit【正確答案】:A50.邏輯回歸的損失函數(shù)是交叉熵?fù)p失函數(shù)。A、TRUEB、FALSE【正確答案】:A51.Root用戶無法在裝有Atlas300(3000)加速卡的服務(wù)器上安裝DDK(DeviceDevelopmentKit),只能使用普通用戶進(jìn)行安裝。A、TRUEB、FALSE【正確答案】:A52.以下關(guān)于標(biāo)準(zhǔn)RNN模型,說法正確的是?A、不存在一對一的模型結(jié)構(gòu)B、反向傳播時不考慮時間方向C、不存在多對多的模型結(jié)構(gòu)D、會出現(xiàn)長時間傳輸記憶的信息衰減的問題【正確答案】:D53.人工智能的三個階段包含了計算智能、()、認(rèn)知智能。A、弱人工智能B、感知智能C、行為智能D、強(qiáng)人工智能【正確答案】:B54.某電商公司一直存在官網(wǎng)卡頓,網(wǎng)絡(luò)資源利用率不佳,運(yùn)維困難的問題,那么該公司可以使用以下哪一種EI服務(wù)?A、園區(qū)智能體B、交通智能體C、網(wǎng)絡(luò)智能體D、工業(yè)智能體【正確答案】:C55.在神經(jīng)網(wǎng)絡(luò)中,我們是通過以下哪個方法在訓(xùn)練網(wǎng)絡(luò)的時候更新參數(shù),從而最小化損失函數(shù)的?A、正向傳播算法B、池化計算C、卷積計算D、反向傳播算法【正確答案】:D56.感知器在空間中可以展現(xiàn)為?A、線B、平面C、超平面D、點(diǎn)【正確答案】:C57.深度學(xué)習(xí)神經(jīng)網(wǎng)絡(luò)訓(xùn)練時需要大量的矩陣計算,一般我們需要配用硬件讓計算機(jī)具備并行計算的能力,以下硬件設(shè)備可提供并行計算能力的是:A、主板B、內(nèi)存條C、GPUD、CPU【正確答案】:C58.如果一個模型在測試集上偏差很大,方差很小,則說明該模型?A、過擬合B、可能過擬合可能欠擬合C、剛好擬合D、欠擬合【正確答案】:D59.TensorFlow使用的數(shù)據(jù)類型是?A、ScalarB、VectorC、TensorD、Matrix【正確答案】:C60.人臉比對服務(wù)調(diào)用時只傳入一張圖像也可以。A、TRUEB、FALSE【正確答案】:B61.損失函數(shù)與模型函數(shù)是一回事。A、TRUEB、FALSE【正確答案】:B62.計算機(jī)視覺是研究如何讓計算機(jī)“看”的科學(xué)。A、TRUEB、FALSE【正確答案】:A63.多項式回歸當(dāng)中,模型的公式中存在平方項,因此其不是線性的。A、TRUEB、FALSE【正確答案】:B64.聯(lián)邦學(xué)習(xí)在保證數(shù)據(jù)隱私安全的前提下,利用不同數(shù)據(jù)源合作訓(xùn)練模型,進(jìn)步突破數(shù)據(jù)的瓶頸。A、TRUEB、FALSE【正確答案】:A65.GBDT算法相比于隨機(jī)森林算法,以下哪種表述是錯誤的?A、GBDT算法比隨機(jī)森林容易欠擬合B、隨機(jī)森林是并行計算的,而GBDT不能C、GBDT算法比隨機(jī)森林容易過擬合D、GBDT與隨機(jī)森林都是建立在CART樹的基礎(chǔ)之上的【正確答案】:C66.PyTorch不具備以下哪種功能?A、內(nèi)嵌kerasB、支持動態(tài)圖C、自動求導(dǎo)D、GPU加速【正確答案】:A67.華為昇騰AI芯片是NPU(神經(jīng)網(wǎng)絡(luò)處理器)的典型代表之一。A、TRUEB、FALSE【正確答案】:A68.循環(huán)神經(jīng)網(wǎng)絡(luò)不同于卷積神經(jīng)網(wǎng)絡(luò),它比較擅長解決以下哪些問題?A、序列相關(guān)問題B、圖像分類C、圖像檢測D、推薦問題【正確答案】:A69.對于圖像分類問題,以下哪個神經(jīng)網(wǎng)絡(luò)更適合解決這個問題?A、感知器B、循環(huán)神經(jīng)網(wǎng)絡(luò)C、卷積神經(jīng)網(wǎng)絡(luò)D、全連接神經(jīng)網(wǎng)絡(luò)【正確答案】:C70.在裝有Atlas300(3000)加速卡的服務(wù)器中安裝DDK(DeviceDevelopmentKit)依賴環(huán)境時只需要安裝Python3。A、TRUEB、FALSE【正確答案】:A71.以下哪個不是MindSpore核心架構(gòu)的特點(diǎn)?A、自動微分B、自動調(diào)優(yōu)C、自動編碼D、自動并行【正確答案】:C72.回歸算法預(yù)測的標(biāo)簽是?A、自變型B、離散型C、應(yīng)變型D、連續(xù)型【正確答案】:D73.重復(fù)性強(qiáng)、要求弱社交能力的工作是最容易被AI取代的工作。A、TRUEB、FALSE【正確答案】:A74.TensorFlow2.0的keras.metrics的內(nèi)置指標(biāo)不包括的方法有?AccuracyB、RecallC、SumD、Mean【正確答案】:C75.測試誤差會隨著模型復(fù)雜度的上升不斷誠小。A、TRUEB、FALSE【正確答案】:B76.下列選項中不屬于華為全棧解決方案范疇的是?A、應(yīng)用使能B、邊緣計算C、開源框架D、芯片使能【正確答案】:B77.On-Device執(zhí)行,即整圖卸載執(zhí)行,充分發(fā)揮異騰芯片的算力,可以大大降低交互的開銷,從而提升加速器占用率,關(guān)于0n-Device執(zhí)行以下描述錯誤的是?A、MindSpore通過梯度數(shù)據(jù)驅(qū)動的自適應(yīng)圖優(yōu)化,實(shí)現(xiàn)去中心化的自主A11Reduce,

梯度聚合步調(diào)一致,計算與通信充分流水B、超強(qiáng)芯片算力下模型執(zhí)行的挑戰(zhàn):內(nèi)存墻問題、交互開銷大、數(shù)據(jù)供給難。部分在Host執(zhí)行,部分在Device執(zhí)行,交互開銷甚至遠(yuǎn)大于執(zhí)行開銷,導(dǎo)致加速器占用率低C、MindSpore通過面向芯片的深度圖優(yōu)化技術(shù),同步等待少,最大化“數(shù)據(jù)計算通信”的并行度,訓(xùn)練性能相比Host側(cè)圖調(diào)度方式持平D、超強(qiáng)芯片算力下分布式梯度聚合的挑戰(zhàn):ReslNet50單迭代20ms時間時會產(chǎn)生中心控制的同步開銷和頻繁同步的通信開銷。傳統(tǒng)方法需要3次同步完成A11Reduce,數(shù)據(jù)驅(qū)動方法自主A11Reduce,無控制開銷【正確答案】:C78.下列屬性中TensorFlow2.0不支持創(chuàng)建tensor的方法是?A、zerosB、fillC、createD、constant【正確答案】:C79.TensorFlow2.0中的Keras接口的三個主要優(yōu)勢是方便用戶使用,模塊化和可組合,易于擴(kuò)展。A、TRUEB、FALSE【正確答案】:A80.在深度學(xué)習(xí)網(wǎng)絡(luò)中,反向傳播算法用于尋求最優(yōu)參數(shù),在反向傳播算法中使用的什么法則進(jìn)行逐層求導(dǎo)的?A、鏈?zhǔn)椒▌tB、累加法則C、對等法則D、歸一法則【正確答案】:A81.人臉?biāo)阉鞣?wù)中,如果想刪除某個人臉集,我們可以使用這樣的代碼:firs_cliet.get_v2().get_face_set_service().delete_face_set(""),其中""是填入實(shí)際的人臉集名稱。A、TRUEB、FALSE【正確答案】:A82.深度學(xué)習(xí)中如果神經(jīng)網(wǎng)絡(luò)的層數(shù)較多比較容易出現(xiàn)梯度消失問題。嚴(yán)格意義上來講是在以下哪個環(huán)節(jié)出現(xiàn)樣度消失間題?A、反向傳播更新參數(shù)B、正向傳播更新夢故C、反向傳播計算結(jié)果D、正向傳播計算結(jié)果【正確答案】:A83.全局梯度下降算法、隨機(jī)梯度下降算法和批量梯度下降算法均屬于梯度下降算法,以下關(guān)于其有優(yōu)缺點(diǎn)說法錯誤的是:A、全局梯度算法可以找到損失函數(shù)的最小值B、批量梯度算法可以解決局部最小值問題C、隨機(jī)梯度算法可以找到損失函數(shù)的最小值D、全局梯度算法收斂過程比較耗時【正確答案】:C84.生成對抗網(wǎng)絡(luò)像是一個博弈系統(tǒng),生成器生成偽造的樣本,判別器進(jìn)行判斷是真是假,我們理想的結(jié)果是?A、生成器產(chǎn)生樣本的大致相同B、判別器高效的分辨生成器產(chǎn)生樣本的真假C、判別器無法分辨生成器產(chǎn)生樣本的真假D、生成器產(chǎn)生樣本的不盡相同【正確答案】:C85.TensorFlow2.0不支持tensor在GPU和CPU之間相互轉(zhuǎn)移。A、TRUEB、FALSE【正確答案】:B86.以下哪一個不屬于人臉識別技術(shù)?A、人臉?biāo)阉鰾、人臉比對C、人臉檢測D、翻拍識別【正確答案】:D87.訓(xùn)練誤差會隨著模型復(fù)雜度的上升不斷減小。A、TRUEB、FALSE【正確答案】:A88.華為的芯片支持HUAWEIHiAI的哪一個模塊?A、HiAIEngineB、HiAIFoundationC、HiAIFrameworkD、HiAIService【正確答案】:B89.Bagging集成學(xué)習(xí)中,每個基學(xué)習(xí)器之間的關(guān)系是?A、相加關(guān)系B、相關(guān)關(guān)系C、后面的模型必須建立在前面的模型之上D、相互獨(dú)立【正確答案】:B90.昪騰AI處理器的邏輯架構(gòu)不包括以下哪個選項?A、DVPPB、GPUC、AI計算引擎D、芯片系統(tǒng)控制CPU【正確答案】:B91.批量梯度下降,小批量梯度下降,隨機(jī)梯度下降最重要的區(qū)別在哪里?A、梯度大小B、梯度方向C、學(xué)習(xí)率D、使用樣本數(shù)【正確答案】:D92.在訓(xùn)練神經(jīng)網(wǎng)絡(luò)過程中我們目的是讓損失函數(shù)不斷減少,我們常用以下哪種方法最小化損失函數(shù)?A、梯度下降B、DropoutC、交叉驗證D、正則化【正確答案】:A93.TensorFlow2.0的keras.preprocessing的作用是?A、keras數(shù)據(jù)處理工具B、keras內(nèi)置優(yōu)化器C、keras模型部署工具D、Keras生成模型工具【正確答案】:A94.以下哪個關(guān)于監(jiān)督式學(xué)習(xí)的說法是正確的?A、決策樹是一種監(jiān)督式學(xué)習(xí)B、監(jiān)督式學(xué)習(xí)不可以使用交叉驗證進(jìn)行訓(xùn)練C、監(jiān)督式學(xué)習(xí)是一種基于規(guī)則的算法D、監(jiān)督式學(xué)習(xí)不需要標(biāo)簽就可以訓(xùn)練【正確答案】:A95.下列選項中昇騰310和昇騰910屬性相同的是?A、最大功率B、架構(gòu)C、整數(shù)精度D、7nm制程【正確答案】:B96.深度學(xué)習(xí)中神經(jīng)網(wǎng)絡(luò)類型很多,以下神經(jīng)網(wǎng)絡(luò)信息是單向傳播的是A、LSTMB、卷積神經(jīng)網(wǎng)絡(luò)C、循環(huán)神經(jīng)網(wǎng)絡(luò)D、GRU【正確答案】:B97.在對抗生成網(wǎng)絡(luò)當(dāng)中,帶有標(biāo)簽的數(shù)據(jù)應(yīng)該被放在哪里?A、作為生成模型的輸出值B、作為判別模型的輸入值C、作為判別模型的輸出值D、作為生成模型的輸入值【正確答案】:B98.神將網(wǎng)絡(luò)訓(xùn)練時,常會遇到很多問題,對于梯度消失問題,我們可以通過選擇使用以下哪種函數(shù)減輕該問題?A、Softsign函數(shù)B、Relu函數(shù)C、tanh函數(shù)D、Sigmoid函數(shù)【正確答案】:B99.人臉檢測服務(wù)在測試圖像中沒有人臉時會報錯。A、TRUEB、FALSE【正確答案】:B100.以下哪一項是HUAWEIHiAIFoundation模塊的功能?App集成B、讓服務(wù)主動找到用戶C、快速轉(zhuǎn)化和遷移已有模型D、根據(jù)用戶所需,適時適地推送服務(wù)【正確答案】:C1.在隨機(jī)森林中,最終的集成模型是通過什么策略決定模型結(jié)果的?A、累加制B、求平均數(shù)C、投票制D、累乘制【正確答案】:BC2.以下哪些是語音處理研究的主題?A、語音處理B、聲紋識別C、語音識別D、語音喚醒【正確答案】:BCD3.當(dāng)編譯模型時用了以下代碼:pile(optimizer='Adam,loss=‘categorical.crossentropy’,metrics=[tf.keras.metrics.accuracy]),在使用evaluate方法評估模型時,會輸出以下哪些指標(biāo)?A、accuracyB、categorical_1ossC、lossD、categoricalaccuracy【正確答案】:AC4.以下哪些服務(wù)屬于華為EI服務(wù)家族?A、對話機(jī)器人B、EI基礎(chǔ)服務(wù)C、自然語言處理D、EI大數(shù)據(jù)服務(wù)【正確答案】:ABCD5.根據(jù)華為云EI智能平臺,可以提供以下哪些解決方案?A、人流統(tǒng)計方案B、基于知識圖譜的政策查詢方案C、車輛識別方案D、入侵識別方案【正確答案】:ABCD6.以下關(guān)于KNN算法當(dāng)中k值描述正確的是?A、K值越大,模型越容易過擬合B、K值越大,分類的分割面越平滑C、K值是超參數(shù)D、可以將k值設(shè)為0【正確答案】:BC7.以下哪些激活函數(shù)容易產(chǎn)生梯度消失問題?A、ReLUB、SoftplusC、TanhD、Sigmoid【正確答案】:CD8.以下關(guān)于機(jī)器學(xué)習(xí)算法與傳統(tǒng)基于規(guī)則方法的區(qū)別中正確的是?A、傳統(tǒng)的基于規(guī)則的方法,其中的規(guī)律可以人工顯性的明確出來B、傳統(tǒng)基于規(guī)則的方法使用顯性編程來解決問題C、機(jī)器學(xué)習(xí)中模型的映射關(guān)系是自動學(xué)習(xí)的D、機(jī)器學(xué)習(xí)所中模型的映射關(guān)系必須是隱性的【正確答案】:ABC9.關(guān)于圖像內(nèi)容審核服務(wù)調(diào)用成功時返回的suggestion字段,說法正確的是?A、pass代表不包含敏感信息,通過B、review代表需要人工復(fù)檢C、suggestion字段代表檢測是否通過D、block代表包含敏感信息,不通過【正確答案】:ABCD10.在神經(jīng)網(wǎng)絡(luò)中常有權(quán)重共享現(xiàn)象,以下哪些神經(jīng)網(wǎng)絡(luò)會發(fā)生權(quán)重共享?A、感知器B、卷積神經(jīng)網(wǎng)絡(luò)C、全連接神經(jīng)網(wǎng)絡(luò)D、循環(huán)神經(jīng)網(wǎng)絡(luò)【正確答案】:BD11.下列哪些選項是<人工智能綜合實(shí)驗>調(diào)用華為云服務(wù)中可能會用到的?A、akB、regionC、project_idD、sk【正確答案】:ABCD12.圖像翻拍檢測服務(wù)調(diào)用成功時標(biāo)簽sugestion有哪些情況?A、certaintyB、FALSEC、uncertaintyD、TRUE【正確答案】:BCD13.SVM中常用的核函數(shù)包括哪些?A、高斯核函數(shù)B、多項式核函數(shù)C、Sigmiod核函數(shù)D、線性核函數(shù)【正確答案】:ABCD14.使用裝有Atlas300(3000)加速卡的服務(wù)器編譯運(yùn)行程序時需要檢查哪些條件?A、完成Atlas驅(qū)動安裝B、已安裝CUDA軟件包C、已安裝Cmake編譯工具D、完成環(huán)境配置【正確答案】:ACD15.TensorFlow中keras模塊的內(nèi)置優(yōu)化器有?AdamB、SGDC、AdaboostD、Adadelta【正確答案】:ABCD16.下列關(guān)于通用表格識別服務(wù)返回的type字段說法正確的是?A、type代表文字識別區(qū)域類型B、type為text時代表文本識別區(qū)域C、type代表表格類型D、type為table時代表表格識別區(qū)域【正確答案】:BD17.下列選項中屬于keras下estimator封裝的方法有?A、評估B、訓(xùn)練C、預(yù)測D、輸出模型【正確答案】:ABC18.正則化是傳統(tǒng)機(jī)器學(xué)習(xí)中重要且有效的減少泛化誤差的技術(shù),以下技術(shù)屬于正則化技術(shù)的是:A、L1正則化B、L2正則化C、DropoutD、動量優(yōu)化器【正確答案】:ABC19.人工智能現(xiàn)在的技術(shù)應(yīng)用方向主要有?A、自然語言處理B、控制系統(tǒng)C、計算機(jī)視覺D、語音識別【正確答案】:ACD20.以下哪幾個方面屬于華為的全棧AI解決方案?AscendB、CANNC、ModelArtsD、MindSpore【正確答案】:ABCD21.下列關(guān)于護(hù)照識別服務(wù)的說法正確的是?ABCDA、country_code代表護(hù)照簽發(fā)國家的國家碼B、nationality代表持有人國籍C、passport_number代表護(hù)照號碼D、confidence相關(guān)字段的置信度信息,置信度越大,表示本次識別的對應(yīng)字段的可靠性越高,在統(tǒng)計意義上,置信度越大,準(zhǔn)確率越高【正確答案】:ABCD22.Ce11提供了定義執(zhí)行計算的基本模塊,Ce11的對象可以直接執(zhí)行,以下說法有誤的是?A、init,初始化參數(shù)(Parameter),子模塊(Ce11),算子(Primitive)等組件,進(jìn)行初始化的校驗B、Construct,定義執(zhí)行的過程。圖模式時,會被編譯成圖來執(zhí)行,沒有語法限制C、還有一些optim常用優(yōu)化器、wrap常用網(wǎng)絡(luò)包裝函數(shù)等預(yù)定義Cel1D、bprop(可選),自定義模塊的反向【正確答案】:ACD23.處理實(shí)際問題時,以下什么情況下該使用機(jī)器學(xué)習(xí)?A、數(shù)據(jù)分布本身隨時間變化,需要程序不停的重新適應(yīng),比如預(yù)測商品銷售的趨勢B、規(guī)則復(fù)雜程度低,且問題的規(guī)模較小的問題C、任務(wù)的規(guī)則會隨時間改變,比如生產(chǎn)線上的瑕疵檢測D、規(guī)則十分復(fù)雜或者無法描述,比如人臉識別和語音識別【正確答案】:ACD24.TensorF1ow2.0中可以用來查看是否是tensor的方法有?A、dtypeB、isinstanceC、is_tensorD、device【正確答案】:BC25.HUAWEIHiAI支持的機(jī)型有哪些?A、P30B、Mate20C、榮耀V20D、iPhone10【正確答案】:ABC26.華為云ModelArts是面向AI開發(fā)的一戰(zhàn)式開發(fā)平臺,以下哪些功能在Mode1Arts上可以具備?A、數(shù)據(jù)治理B、AI市場C、可視化工作流D、自動學(xué)習(xí)【正確答案】:ABCD27.在深度學(xué)習(xí)任務(wù)中,遇到數(shù)據(jù)不平衡問題時,我們可以用以下哪些方法進(jìn)行解訣?A、批量刪除B、隨機(jī)過采樣C、合成采樣D、隨機(jī)欠采【正確答案】:BCD28.截止2019年底,TensorFlow發(fā)布過的版本有?A、1B、3C、2D、0.1【正確答案】:ACD29.已知全連接神經(jīng)網(wǎng)絡(luò)的某一層的參數(shù)總量為330,則上一層和本層的神經(jīng)元數(shù)量可能為?A、32和10B、10和33C、33和10D、9和33【正確答案】:BC30.關(guān)于卷積神經(jīng)網(wǎng)絡(luò)池化層以下描述正確的是?A、池化操作采用掃描窗口實(shí)現(xiàn)B、池化層可以起到降維的作用C、常用的池化方法有最大池化和平均池化D、經(jīng)過池化的特征圖像變小了【正確答案】:ABCD31.下列哪些屬于AI的子領(lǐng)域?A、機(jī)器學(xué)習(xí)B、計算機(jī)視覺C、語音識別D、自然語言處理【正確答案】:ABCD32.華為云EI讓更多的企業(yè)邊界的使用AI和大數(shù)據(jù)服務(wù),加速業(yè)務(wù)發(fā)展,造福社會。華為云EI服務(wù)可以在以下哪些方面服務(wù)企業(yè)?A、行業(yè)數(shù)據(jù)B、行業(yè)智慧C、算法D、算力【正確答案】:ABCD33.常見的聚類算法有哪些?A、密度聚類B、層次聚類C、譜聚類D、Kmeans【正確答案】:ABCD34.以下不屬于對抗生成網(wǎng)絡(luò)的應(yīng)用是?A、文字生成B、圖像生成C、圖像識別D、數(shù)據(jù)增強(qiáng)【正確答案】:BC35.HiAI移動計算平臺有哪些優(yōu)點(diǎn)?A、快速上手的源碼B、多樣的工具鏈C、完善的文檔D、豐富的API【正確答案】:ABCD36.下面哪些屬于AI的應(yīng)用領(lǐng)域?A、智慧教育B、智慧城市C、智慧家居D、智慧醫(yī)療【正確答案】:ABCD37.基因知識圖譜具備以下哪幾種能力?A、輔助病例診斷B、疾病預(yù)測及診斷C、基因檢測報告生成D、實(shí)體查詢【正確答案】:ACD38.MSIR是一種簡潔高效靈活的基于圖的函數(shù)式IR,可以表示的函數(shù)式語義類型有?A、自由變量B、高階函數(shù)C、中斷D、遞歸【正確答案】:ABD39.卷積神經(jīng)網(wǎng)絡(luò)中的池化層可以減小下層輸入的尺寸。常見的池化有:A、最小地化層B、乘積池化層C、最大池化層D、平均池化層【正確答案】:CD40.生成對抗網(wǎng)絡(luò)目前應(yīng)用非常廣泛,以下場景中可以使用此網(wǎng)絡(luò)的是?A、數(shù)據(jù)增強(qiáng)B、語義分割C、信息檢索D、圖像生成【正確答案】:ABCD41.HUAWEIHiAI賦能APP哪些價值?A、安全B、穩(wěn)定C、實(shí)時D、隨時【正確答案】:ABCD42.以下哪些是屬于深度學(xué)習(xí)算法的激活函數(shù)?A、SigmoidB、ReLUC、TanhD、Sin【正確答案】:ABC43.華為云EI智能體根據(jù)行業(yè)和應(yīng)用場景的不同也有很多種,目前可以實(shí)現(xiàn)的華為云EI智能體有?A、工業(yè)智能體B、交通智能體C、園區(qū)智能體D、汽車智能體

溫馨提示

  • 1. 本站所有資源如無特殊說明,都需要本地電腦安裝OFFICE2007和PDF閱讀器。圖紙軟件為CAD,CAXA,PROE,UG,SolidWorks等.壓縮文件請下載最新的WinRAR軟件解壓。
  • 2. 本站的文檔不包含任何第三方提供的附件圖紙等,如果需要附件,請聯(lián)系上傳者。文件的所有權(quán)益歸上傳用戶所有。
  • 3. 本站RAR壓縮包中若帶圖紙,網(wǎng)頁內(nèi)容里面會有圖紙預(yù)覽,若沒有圖紙預(yù)覽就沒有圖紙。
  • 4. 未經(jīng)權(quán)益所有人同意不得將文件中的內(nèi)容挪作商業(yè)或盈利用途。
  • 5. 人人文庫網(wǎng)僅提供信息存儲空間,僅對用戶上傳內(nèi)容的表現(xiàn)方式做保護(hù)處理,對用戶上傳分享的文檔內(nèi)容本身不做任何修改或編輯,并不能對任何下載內(nèi)容負(fù)責(zé)。
  • 6. 下載文件中如有侵權(quán)或不適當(dāng)內(nèi)容,請與我們聯(lián)系,我們立即糾正。
  • 7. 本站不保證下載資源的準(zhǔn)確性、安全性和完整性, 同時也不承擔(dān)用戶因使用這些下載資源對自己和他人造成任何形式的傷害或損失。

評論

0/150

提交評論