版權(quán)說明:本文檔由用戶提供并上傳,收益歸屬內(nèi)容提供方,若內(nèi)容存在侵權(quán),請(qǐng)進(jìn)行舉報(bào)或認(rèn)領(lǐng)
文檔簡(jiǎn)介
PAGE2025華為ICT大賽(實(shí)踐賽)-昇騰Al賽道理論考試題庫大全-上(單選題匯總)一、單選題1.使用ModelArts自動(dòng)學(xué)習(xí)構(gòu)建預(yù)測(cè)分析項(xiàng)目時(shí),若標(biāo)簽列為枚舉型數(shù)據(jù),以下哪一項(xiàng)是標(biāo)簽列數(shù)據(jù)類型和訓(xùn)練的模型類型?A、連續(xù)數(shù)值和回歸模型B、離散值和回歸模型C、連續(xù)數(shù)值和分類模型D、離散值和分類模型答案:D解析:在使用ModelArts自動(dòng)學(xué)習(xí)構(gòu)建預(yù)測(cè)分析項(xiàng)目時(shí),標(biāo)簽列的數(shù)據(jù)類型是一個(gè)重要的考慮因素,因?yàn)樗鼪Q定了可以選擇的模型類型。枚舉型數(shù)據(jù)本質(zhì)上是離散的,意味著標(biāo)簽是由一組有限的、可數(shù)的值組成的。對(duì)于這類數(shù)據(jù),通常會(huì)使用分類模型來進(jìn)行訓(xùn)練和預(yù)測(cè)。因此,標(biāo)簽列數(shù)據(jù)類型為離散值,訓(xùn)練的模型類型為分類模型,選項(xiàng)D是正確的。2.在處理圖像領(lǐng)域中,卷積神經(jīng)網(wǎng)絡(luò)應(yīng)用比較廣泛,以下哪項(xiàng)不是卷積神經(jīng)網(wǎng)絡(luò)的組成部分?A、卷積層B、雙向隱藏層C、全連接層D、池化層答案:B解析:這道題考察的是對(duì)卷積神經(jīng)網(wǎng)絡(luò)結(jié)構(gòu)的理解。卷積神經(jīng)網(wǎng)絡(luò)主要由卷積層、激活層、池化層和全連接層等組成,用于圖像處理和識(shí)別任務(wù)。其中,卷積層用于提取圖像特征,池化層用于降低特征維度,全連接層用于分類或回歸。而雙向隱藏層并不是卷積神經(jīng)網(wǎng)絡(luò)的組成部分,它通常出現(xiàn)在循環(huán)神經(jīng)網(wǎng)絡(luò)中,用于處理序列數(shù)據(jù)。3.圖像識(shí)別實(shí)驗(yàn)中,在4251個(gè)訓(xùn)練圖片中,有超過2000個(gè)類別只有一張圖片。還有一些類中有2-5個(gè)圖片。這一描述反映了以下哪一種數(shù)據(jù)問題?A、數(shù)據(jù)不平衡問題B、臟數(shù)據(jù)和數(shù)據(jù)異常值問題C、數(shù)據(jù)缺失問題D、數(shù)據(jù)過擬合問題答案:A解析:這道題考察的是對(duì)數(shù)據(jù)問題的識(shí)別能力。在圖像識(shí)別實(shí)驗(yàn)中,訓(xùn)練數(shù)據(jù)集包含4251張圖片,但超過2000個(gè)類別只有一張圖片,這表明數(shù)據(jù)分布極不均勻,即某些類別的樣本數(shù)量遠(yuǎn)少于其他類別,這是典型的數(shù)據(jù)不平衡問題。因此,選項(xiàng)A“數(shù)據(jù)不平衡問題”是正確答案。4.以下關(guān)于機(jī)器學(xué)習(xí)中分類模型與回歸模型的說法,哪一項(xiàng)說法是正確的?A、對(duì)回歸問題和分類問題的評(píng)價(jià),最常用的指標(biāo)都是準(zhǔn)確率和召回率B、輸出變量為有限個(gè)離散變量的預(yù)測(cè)問題是回歸問題,輸出變量為連續(xù)變量的預(yù)測(cè)問題是分類問題C、回歸問題知分類問題都有可能發(fā)生過擬合D、邏輯回歸是一種典型的回歸模型答案:C解析:這道題考察的是對(duì)機(jī)器學(xué)習(xí)中分類模型與回歸模型的理解。A選項(xiàng)錯(cuò)誤,因?yàn)闇?zhǔn)確率和召回率主要用于分類問題的評(píng)價(jià),而不是回歸問題。B選項(xiàng)錯(cuò)誤,描述顛倒了,輸出變量為有限個(gè)離散變量的預(yù)測(cè)問題是分類問題,輸出變量為連續(xù)變量的預(yù)測(cè)問題是回歸問題。C選項(xiàng)正確,無論是回歸問題還是分類問題,都有可能發(fā)生過擬合,即模型在訓(xùn)練數(shù)據(jù)上表現(xiàn)很好,但在新數(shù)據(jù)上表現(xiàn)差。D選項(xiàng)錯(cuò)誤,邏輯回歸雖然名字中有“回歸”,但實(shí)際上是一種分類模型,用于處理二分類問題。因此,正確答案是C。5.以下對(duì)于深度學(xué)習(xí)與人工神經(jīng)網(wǎng)絡(luò)的關(guān)系的描述,正確的是哪一項(xiàng)?A、深度學(xué)習(xí)是人工神經(jīng)網(wǎng)絡(luò)的前身B、深度學(xué)習(xí)與人工神經(jīng)網(wǎng)絡(luò)無關(guān)C、人工神經(jīng)網(wǎng)絡(luò)是深度學(xué)習(xí)的主要模型D、深度學(xué)習(xí)的模型只有人工神經(jīng)網(wǎng)絡(luò)答案:C解析:深度學(xué)習(xí)是機(jī)器學(xué)習(xí)的一個(gè)子領(lǐng)域,主要利用深度神經(jīng)網(wǎng)絡(luò)模型從數(shù)據(jù)中學(xué)習(xí)。人工神經(jīng)網(wǎng)絡(luò)(ANN)是深度學(xué)習(xí)的核心組成部分,其中深度神經(jīng)網(wǎng)絡(luò)是包含多個(gè)隱藏層的ANN。因此,深度學(xué)習(xí)依賴于人工神經(jīng)網(wǎng)絡(luò)作為其主要的模型結(jié)構(gòu)。A項(xiàng)錯(cuò)誤,因?yàn)樯疃葘W(xué)習(xí)是ANN的進(jìn)一步發(fā)展和應(yīng)用;B項(xiàng)錯(cuò)誤,因?yàn)樯疃葘W(xué)習(xí)與ANN密切相關(guān);D項(xiàng)錯(cuò)誤,因?yàn)樯疃葘W(xué)習(xí)的模型除了ANN還包括其他模型,如卷積神經(jīng)網(wǎng)絡(luò)等。所以C項(xiàng)“人工神經(jīng)網(wǎng)絡(luò)是深度學(xué)習(xí)的主要模型”是正確的。6.ModelArts數(shù)據(jù)管理功能對(duì)應(yīng)深度學(xué)習(xí)開發(fā)流程中的哪個(gè)部分()A、數(shù)據(jù)準(zhǔn)備B、代碼調(diào)試C、推理D、訓(xùn)練答案:A解析:數(shù)據(jù)預(yù)處理數(shù)據(jù)準(zhǔn)備階段7.MindCompiler子系統(tǒng)提供圖級(jí)即時(shí)編譯能力,以下哪一項(xiàng)不屬于其面向硬件所進(jìn)行的優(yōu)化操作?A、算子融合B、layout優(yōu)化C、冗余消除D、自動(dòng)并行答案:C解析:MindCompiler子系統(tǒng)提供圖級(jí)即時(shí)編譯能力,其面向硬件所進(jìn)行的優(yōu)化操作包括算子融合、layout優(yōu)化、冗余消除和自動(dòng)并行。其中,算子融合是為了減少計(jì)算量,layout優(yōu)化是為了提高內(nèi)存訪問效率,冗余消除是為了減少無效指令,而自動(dòng)并行是為了提高并行度。因此,“冗余消除”不屬于其面向硬件所進(jìn)行的優(yōu)化操作。8.以下哪一項(xiàng)屬于循環(huán)神經(jīng)網(wǎng)絡(luò)中一對(duì)多的類型?A、機(jī)器翻譯B、情感分析C、動(dòng)作識(shí)別D、音樂生成答案:D解析:這道題考察的是對(duì)循環(huán)神經(jīng)網(wǎng)絡(luò)(RNN)應(yīng)用類型的理解。RNN有多種類型,其中“一對(duì)多”指的是輸入是一個(gè)序列,但輸出是多個(gè)序列或序列的一部分。分析各選項(xiàng):-A項(xiàng)(機(jī)器翻譯):通常屬于“多對(duì)多”類型,輸入和輸出都是序列。-B項(xiàng)(情感分析):屬于“多對(duì)一”類型,輸入是序列,輸出是一個(gè)分類標(biāo)簽。-C項(xiàng)(動(dòng)作識(shí)別):同樣可能是“多對(duì)一”或“多對(duì)多”,輸入視頻幀序列,輸出動(dòng)作類別或序列。-D項(xiàng)(音樂生成):屬于“一對(duì)多”類型,輸入可以是單個(gè)音符或和弦,輸出是一系列音符組成的音樂。因此,D項(xiàng)(音樂生成)是符合“一對(duì)多”類型的RNN應(yīng)用。9.循環(huán)神經(jīng)網(wǎng)絡(luò)可以保存一種上下文的狀態(tài),循環(huán)神經(jīng)網(wǎng)絡(luò)也有不同的類型,其中類型有幾種A、2B、3C、4D、5答案:D解析:這道題考察的是對(duì)循環(huán)神經(jīng)網(wǎng)絡(luò)類型的了解。循環(huán)神經(jīng)網(wǎng)絡(luò)(RNN)確實(shí)能夠保存上下文的狀態(tài),這是它處理序列數(shù)據(jù)時(shí)的關(guān)鍵特性。RNN的不同類型主要包括基本RNN、長短時(shí)記憶網(wǎng)絡(luò)(LSTM)、門控循環(huán)單元(GRU)等。實(shí)際上,如果詳細(xì)分類,RNN的類型確實(shí)不止三種,而是更多,包括各種變種和優(yōu)化。因此,根據(jù)廣泛的認(rèn)識(shí)和實(shí)際應(yīng)用,RNN的類型可以認(rèn)為是五種或更多,所以答案是D。10.一副8位的RGB彩色圖像中,其中(255,255,255)代表什么顏色?A、黑色B、白色C、紅色D、藍(lán)色答案:B解析:這道題考察的是對(duì)RGB顏色模型的理解。在RGB顏色模型中,每種顏色由紅(R)、綠(G)、藍(lán)(B)三個(gè)顏色通道的值組合而成,每個(gè)通道的值范圍是0-255。當(dāng)三個(gè)通道的值都是255時(shí),代表的顏色是白色。因此,(255,255,255)代表的是白色。11.面對(duì)行業(yè)研究與全場(chǎng)景AI應(yīng)用之間的巨大鴻溝,MindSpore跨越應(yīng)用鴻溝助力普惠AI的技術(shù)創(chuàng)新不包括以下哪項(xiàng)?A、新協(xié)作方式B、新編程語言C、新編程范式D、新執(zhí)行模式答案:B解析:這道題考察的是對(duì)MindSpore在普惠AI技術(shù)創(chuàng)新方面的理解。MindSpore作為一個(gè)全場(chǎng)景深度學(xué)習(xí)框架,旨在跨越行業(yè)研究與AI應(yīng)用之間的鴻溝。它主要通過提供新的協(xié)作方式、編程范式和執(zhí)行模式來實(shí)現(xiàn)這一目標(biāo),從而助力普惠AI的技術(shù)創(chuàng)新。而新編程語言并非其主要?jiǎng)?chuàng)新點(diǎn)。12.OTSU算法遍歷可能的閾值,并且選取前景區(qū)域和背景區(qū)域()最大的分割閾值為最佳閾值。()A、絕對(duì)差B、面積差C、像素值累積差值D、類間方差答案:D解析:OTSU算法是一種自適應(yīng)的閾值算法,它通過遍歷可能的閾值,并選擇前景區(qū)域和背景區(qū)域類間方差最大的分割閾值為最佳閾值。因此,選項(xiàng)D是正確的。13.以下關(guān)于交叉驗(yàn)證的描述中,哪一項(xiàng)是錯(cuò)誤的A、k-折交叉驗(yàn)證是常用的交叉驗(yàn)證方法B、交叉驗(yàn)證首先用訓(xùn)練集對(duì)分類器進(jìn)行訓(xùn)練再利用驗(yàn)證集來測(cè)試訓(xùn)練得到的模型以此來做為評(píng)價(jià)分類器的性能指標(biāo)C、交叉驗(yàn)證是用來驗(yàn)證分類器的性能一種統(tǒng)計(jì)分析方法D、k-折交叉驗(yàn)證方法中的k不是超參數(shù)是由模型訓(xùn)練得來的答案:D解析:這道題考察的是對(duì)交叉驗(yàn)證的理解。交叉驗(yàn)證是一種評(píng)估模型性能的方法,其中k-折交叉驗(yàn)證是常用的一種。在這個(gè)過程中,數(shù)據(jù)集被分成k份,每次用其中k-1份作為訓(xùn)練集,剩余的一份作為驗(yàn)證集,重復(fù)k次,每次選擇不同的驗(yàn)證集。選項(xiàng)A正確描述了k-折交叉驗(yàn)證是常用的方法。選項(xiàng)B正確描述了交叉驗(yàn)證的基本過程。選項(xiàng)C正確指出交叉驗(yàn)證是一種統(tǒng)計(jì)分析方法。而選項(xiàng)D錯(cuò)誤,因?yàn)閗-折交叉驗(yàn)證中的k是人為設(shè)定的,不是由模型訓(xùn)練得來的,它是一個(gè)超參數(shù)。14.下面哪種卷積神經(jīng)網(wǎng)絡(luò)的層數(shù)最多.()A、ResNetB、AlexNetC、VGG16D、LeNet答案:A解析:卷積神經(jīng)網(wǎng)絡(luò)(ConvolutionalNeuralNetworks,CNN)的層數(shù)因網(wǎng)絡(luò)架構(gòu)的不同而異。AlexNet、VGG16和LeNet通常具有較少的層數(shù),通常為幾層到十幾層。而ResNet是一種特殊的CNN,其設(shè)計(jì)思想是通過引入殘差連接和塊(ResidualBlocks)來克服深度CNN中的梯度消失和退化問題,因此其層數(shù)較多,可以達(dá)到幾十層甚至上百層。因此,是A.ResNet。15.機(jī)器學(xué)習(xí)中,從獲得數(shù)據(jù)到模型正式放入模型之前,以下哪個(gè)選項(xiàng)不是這個(gè)過程的一部分?A、數(shù)據(jù)可視化B、數(shù)據(jù)降維C、數(shù)據(jù)標(biāo)準(zhǔn)化D、數(shù)據(jù)清理答案:A解析:這道題考察的是機(jī)器學(xué)習(xí)數(shù)據(jù)處理流程的理解。在機(jī)器學(xué)習(xí)中,從獲取數(shù)據(jù)到模型部署之前,通常會(huì)經(jīng)歷一系列的數(shù)據(jù)預(yù)處理步驟。數(shù)據(jù)降維(B選項(xiàng))是為了減少數(shù)據(jù)集的維度,提高計(jì)算效率;數(shù)據(jù)標(biāo)準(zhǔn)化(C選項(xiàng))是為了將數(shù)據(jù)縮放到一個(gè)統(tǒng)一的范圍,便于模型處理;數(shù)據(jù)清理(D選項(xiàng))是為了去除數(shù)據(jù)中的噪聲和異常值,提高數(shù)據(jù)質(zhì)量。而數(shù)據(jù)可視化(A選項(xiàng))通常是在數(shù)據(jù)處理和分析之后進(jìn)行的,用于直觀地展示數(shù)據(jù)特征和模型結(jié)果,不屬于從獲得數(shù)據(jù)到模型正式放入之前的流程。因此,A選項(xiàng)不是這個(gè)過程的一部分。16.John想要通過神經(jīng)網(wǎng)絡(luò),將一段視頻中的眾多個(gè)動(dòng)物檢測(cè)出來,并確定它們的大概位置,則John可以選擇以下哪個(gè)網(wǎng)絡(luò)?A、VGG-19B、FasterRCNNC、BERTD、GoogLeNet答案:B解析:這道題考察的是對(duì)神經(jīng)網(wǎng)絡(luò)模型應(yīng)用場(chǎng)景的理解。John的任務(wù)是檢測(cè)視頻中的動(dòng)物并確定它們的位置,這屬于目標(biāo)檢測(cè)任務(wù)。在選項(xiàng)中,F(xiàn)asterRCNN是專門用于目標(biāo)檢測(cè)的模型,能夠同時(shí)進(jìn)行分類和定位。因此,B選項(xiàng)是合適的選擇。17.OTSU算法遍歷可能的閾值,并且選取前景區(qū)域和背景區(qū)域()最大的分割閾值為最佳閾值。A、絕對(duì)差B、面積差C、像素值累積差值D、類間方差答案:D解析:OTSU算法是一種自適應(yīng)的閾值算法,它通過遍歷可能的閾值,并選擇前景區(qū)域和背景區(qū)域類間方差最大的分割閾值為最佳閾值。因此,選項(xiàng)D是正確的。18.關(guān)于高斯分布曲線描述正確的是?A、高斯曲線呈鐘型,兩頭高,中間低B、標(biāo)準(zhǔn)差越小,曲線越扁平C、標(biāo)準(zhǔn)差越大,曲線越瘦高D、高斯曲線呈鐘型,兩頭低,中間高答案:D解析:這道題考察的是對(duì)高斯分布曲線特征的理解。高斯分布曲線,也稱為正態(tài)分布曲線,其形狀是兩頭低、中間高的鐘型曲線。對(duì)于選項(xiàng)A,描述與高斯曲線的實(shí)際形狀相反,因此不正確。對(duì)于選項(xiàng)B,標(biāo)準(zhǔn)差越小,實(shí)際上曲線會(huì)越瘦高,而非扁平,所以B錯(cuò)誤。選項(xiàng)C正確描述了高斯曲線的形狀。選項(xiàng)D,標(biāo)準(zhǔn)差越大,曲線會(huì)越扁平,而非瘦高,因此D錯(cuò)誤。所以,正確答案是C。19.Atlas加速AI推理使用的是什么處理器?A、異騰310處理器B、GPUC、昇騰910處理器D、FPG答案:A解析:Atlas是華為推出的一款A(yù)I加速計(jì)算平臺(tái),其核心在于為AI推理提供高效的硬件支持??紤]到Atlas平臺(tái)的定位和應(yīng)用場(chǎng)景,其選擇的處理器需要滿足高性能、低功耗等要求。在選項(xiàng)中,昇騰910和昇騰310都是華為自家研發(fā)的AI處理器,而GPU和FPGA也是常見的AI加速硬件。但根據(jù)Atlas的具體配置和應(yīng)用,它使用的是昇騰310處理器,這款處理器專為AI推理設(shè)計(jì),能夠提供高效的計(jì)算性能。因此,選項(xiàng)B是正確的。20.以下對(duì)超參數(shù)學(xué)習(xí)率的作用的描述,正確的是哪一項(xiàng)?A、減少過擬合B、控制參數(shù)更新速度C、減少偏差D、都不対答案:B解析:正確答案是B.控制參數(shù)更新速度。學(xué)習(xí)率是一個(gè)超參數(shù),它控制了每次更新參數(shù)時(shí)更新的步長。如果學(xué)習(xí)率過大,參數(shù)可能會(huì)在最小值附近“震蕩”,無法收斂;如果學(xué)習(xí)率過小,參數(shù)可能需要很長時(shí)間才能收斂,甚至可能無法收斂。因此,學(xué)習(xí)率決定了參數(shù)更新的速度,從而影響了模型的訓(xùn)練效果。21.以下常見的回歸方法中,既可以防止過擬合又可以進(jìn)行特征選擇的是哪一項(xiàng)?A、LASSO回歸B、多項(xiàng)式回歸C、多元線性回歸D、Ridge回歸答案:A解析:在常見的回歸方法中,過擬合是一個(gè)需要避免的問題,它指的是模型在訓(xùn)練數(shù)據(jù)上表現(xiàn)很好,但在新數(shù)據(jù)上表現(xiàn)差。特征選擇則是選擇對(duì)模型預(yù)測(cè)最有用的特征。A選項(xiàng),Ridge回歸,可以防止過擬合,因?yàn)樗ㄟ^對(duì)系數(shù)的大小施加懲罰來實(shí)現(xiàn),但它并不直接進(jìn)行特征選擇。B選項(xiàng),LASSO回歸,既可以防止過擬合,因?yàn)樗矊?duì)系數(shù)大小施加懲罰,又可以進(jìn)行特征選擇,因?yàn)樗鼉A向于將不重要的特征的系數(shù)減小到0。C選項(xiàng),多項(xiàng)式回歸,主要用于擬合非線性關(guān)系,并不直接防止過擬合或進(jìn)行特征選擇。D選項(xiàng),多元線性回歸,是基本的線性回歸模型,同樣不直接防止過擬合或進(jìn)行特征選擇。因此,答案是B,LASSO回歸。22.在Mindspore數(shù)據(jù)處理過程中,需要對(duì)全數(shù)據(jù)集執(zhí)行歸一化、通道變換等操作,需要借助以下哪一個(gè)方法?A、BatchB、MapC、Shuffle。D、Repeat答案:B解析:在MindSpore數(shù)據(jù)處理中,Map方法常用于對(duì)數(shù)據(jù)集中的每個(gè)元素進(jìn)行特定的操作,比如歸一化、通道變換等數(shù)據(jù)預(yù)處理操作。Batch方法主要用于將數(shù)據(jù)按照指定的批量大小進(jìn)行分組。Shuffle方法用于打亂數(shù)據(jù)集的順序。Repeat方法用于對(duì)數(shù)據(jù)集進(jìn)行重復(fù)。綜上所述,對(duì)全數(shù)據(jù)集執(zhí)行歸一化、通道變換等操作應(yīng)借助Map方法,所以答案選B。23.以下關(guān)于決策樹的描述中,哪—項(xiàng)是錯(cuò)誤的?A、構(gòu)建決策樹的關(guān)鍵步騾就是按照所有的特征屬性進(jìn)行劃分操作B、決策樹中除了根節(jié)點(diǎn)之外的其它節(jié)點(diǎn)統(tǒng)稱為葉子節(jié)點(diǎn)C、GNI系數(shù)可以被看作是一種純度的量化指標(biāo)D、ID3算法德用信息增益率進(jìn)行屬性選擇答案:B解析:這道題考察的是對(duì)決策樹相關(guān)概念的理解。A選項(xiàng),構(gòu)建決策樹時(shí),確實(shí)需要按照特征屬性進(jìn)行劃分,這是構(gòu)建決策樹的基本步驟,所以A選項(xiàng)描述正確。B選項(xiàng),決策樹中,除了根節(jié)點(diǎn)和葉子節(jié)點(diǎn),還有內(nèi)部節(jié)點(diǎn),這些節(jié)點(diǎn)表示特征屬性的測(cè)試,并根據(jù)測(cè)試結(jié)果將數(shù)據(jù)集劃分到子節(jié)點(diǎn)中。因此,B選項(xiàng)描述錯(cuò)誤。C選項(xiàng),GNI(基尼不純度)是衡量數(shù)據(jù)集純度的一種指標(biāo),在決策樹的構(gòu)建過程中,通常會(huì)選擇使得劃分后數(shù)據(jù)集基尼不純度最小的屬性作為劃分屬性,所以C選項(xiàng)描述正確。D選項(xiàng),ID3算法確實(shí)使用信息增益率進(jìn)行屬性選擇,這是ID3算法的一個(gè)基本特點(diǎn),所以D選項(xiàng)描述正確。綜上所述,錯(cuò)誤的選項(xiàng)是B。24.如果有100個(gè)卷積核,每個(gè)卷積核的大小是10x10,在不考慮偏置的情況下,以下哪一項(xiàng)是正確的參數(shù)量A、100B、100KC、10KD、1K答案:C解析:卷積核的參數(shù)量計(jì)算通常基于其尺寸。每個(gè)卷積核的大小是10x10,所以每個(gè)卷積核有100個(gè)參數(shù)。如果有100個(gè)這樣的卷積核,那么總參數(shù)量就是100個(gè)卷積核乘以每個(gè)卷積核的100個(gè)參數(shù),即10K。因此,選項(xiàng)C是正確的答案。25.1ohn最近正在學(xué)習(xí)搭建卷積神經(jīng)網(wǎng)絡(luò),假設(shè)輸入圖像大小是15?15?3(w?ht),經(jīng)過一個(gè)含4個(gè)卷積核的卷積層,其中卷積核大小均為5?5,步長為2,無填充,在不計(jì)算ias的情況下,該卷積層共有多少權(quán)重參數(shù)?A、75B、100C、300D、600答案:C解析:每個(gè)卷積核的大小為5×5×3(因?yàn)檩斎雸D像有3個(gè)通道),所以每個(gè)卷積核的參數(shù)數(shù)量為5×5×3=75個(gè)。卷積層共有4個(gè)卷積核,所以總的權(quán)重參數(shù)數(shù)量為75×4=300個(gè)。因此,答案選C。26.某廠家想要生產(chǎn)一批虛擬助理以供醫(yī)院使用,而對(duì)于虛擬助理來說,聲紋識(shí)別主要涉及到以下哪一項(xiàng)技術(shù)?A、語音識(shí)別和處理技術(shù)B、圖像識(shí)別與處理技術(shù)C、圖像生成與增強(qiáng)技術(shù)D、專家系統(tǒng)與知識(shí)圖譜技術(shù)答案:A解析:這道題考察的是對(duì)虛擬助理技術(shù)領(lǐng)域的了解。聲紋識(shí)別是虛擬助理在交互過程中識(shí)別用戶聲音特征的技術(shù),它主要依賴于語音識(shí)別和處理技術(shù)。通過這項(xiàng)技術(shù),虛擬助理能夠解析和處理用戶的語音輸入,進(jìn)而實(shí)現(xiàn)與用戶的自然交互。因此,對(duì)于虛擬助理來說,聲紋識(shí)別主要涉及到的是語音識(shí)別和處理技術(shù)。27.TensorFlow中使用什么來描述計(jì)算過程?A、參數(shù)B、會(huì)話C、數(shù)據(jù)流圖D、張量答案:C解析:這道題考察的是對(duì)TensorFlow框架基礎(chǔ)知識(shí)的理解。在TensorFlow中,計(jì)算過程是通過構(gòu)建數(shù)據(jù)流圖(DataFlowGraphs)來描述的,這是一種高效的計(jì)算表示方式。數(shù)據(jù)流圖由節(jié)點(diǎn)(nodes)和邊(edges)組成,節(jié)點(diǎn)代表數(shù)學(xué)操作,邊則表示節(jié)點(diǎn)之間的數(shù)據(jù)流動(dòng)。因此,正確答案是C,數(shù)據(jù)流圖。28.以下哪個(gè)不是文本向量化的常用方法?A、EMB、CBOWC、DBOWD、M答案:A解析:這道題考查對(duì)文本向量化常用方法的了解。在自然語言處理中,CBOW、DBOW和DM是常見的文本向量化方法。而EM一般用于概率模型的參數(shù)估計(jì),并非文本向量化的常用方法,所以答案選A。29.在交通執(zhí)法的車輛檢測(cè)場(chǎng)景中,對(duì)違章車輛的判罰寧可漏報(bào),不要誤報(bào),以免產(chǎn)生錯(cuò)誤的罰款,這需要系統(tǒng)的哪個(gè)指標(biāo)很高()A、召回率B、精度(precision)C、正確率(Accuracy)D、置信度答案:B解析:正確率,判斷正確的樣本數(shù)占所有樣本數(shù)的比例。備注:如果該題有precision(查準(zhǔn)率),首選該指標(biāo)。PPT117,將precision翻譯做精度30.機(jī)器學(xué)習(xí)中,SVM算法的支撐向量可能有多少個(gè)?()A、1B、2C、3D、若干答案:D解析:SVM算法的支撐向量是指離分類邊界最近的樣本,可以是一個(gè)或多個(gè)31.考慮以下場(chǎng)景。使用機(jī)器學(xué)習(xí)算法進(jìn)行垃圾郵件的過濾。根據(jù)機(jī)器學(xué)習(xí)的簡(jiǎn)單定義,以下哪選項(xiàng)屬于性能衡量標(biāo)準(zhǔn)P?A、過去三年所有帶標(biāo)簽的垃圾郵件和正常郵件數(shù)據(jù)郵箱地址B、郵箱地址C、過濾垃圾郵件D、垃圾件過濾正確率答案:D解析:在機(jī)器學(xué)習(xí)中,性能衡量標(biāo)準(zhǔn)是用來評(píng)估模型好壞的指標(biāo)。對(duì)于垃圾郵件過濾這一應(yīng)用場(chǎng)景,我們需要一個(gè)指標(biāo)來衡量模型過濾垃圾郵件的效果。選項(xiàng)A提供了過去三年所有帶標(biāo)簽的垃圾郵件和正常郵件數(shù)據(jù),這是訓(xùn)練數(shù)據(jù),而非性能衡量標(biāo)準(zhǔn)。選項(xiàng)B的郵箱地址同樣只是數(shù)據(jù)的一部分,并不能作為衡量模型性能的指標(biāo)。選項(xiàng)C的“過濾垃圾郵件”是模型的功能描述,并非性能衡量標(biāo)準(zhǔn)。選項(xiàng)D的“垃圾郵件過濾正確率”則是一個(gè)明確的性能衡量標(biāo)準(zhǔn),它能告訴我們模型過濾垃圾郵件的準(zhǔn)確性如何。因此,答案是D。32.如果想要對(duì)圖像翻拍情況進(jìn)行檢測(cè),可以調(diào)用華為云圖像標(biāo)簽服務(wù)提供的功能,主要由以下哪個(gè)函數(shù)實(shí)現(xiàn)?A、image_tagging_aksk()B、init_global_envoC、recapture_detect_aksk()答案:A解析:華為云圖像標(biāo)簽服務(wù)提供的功能可以通過調(diào)用`image_tagging_aksk()`函數(shù)來實(shí)現(xiàn)對(duì)圖像翻拍情況的檢測(cè)。這個(gè)函數(shù)是華為云圖像標(biāo)簽服務(wù)提供的API之一,它允許用戶上傳圖像并獲取圖像的標(biāo)簽信息,包括翻拍情況等。因此,正確答案是A。需要注意的是,使用這個(gè)函數(shù)需要用戶先開通華為云圖像識(shí)別服務(wù),并獲取相應(yīng)的AK/SK(訪問密鑰)和project_id。同時(shí),用戶還需要將圖像內(nèi)容轉(zhuǎn)換為Base64編碼,并構(gòu)建API請(qǐng)求參數(shù),然后發(fā)送POST請(qǐng)求到華為云圖像識(shí)別服務(wù)的圖像搜索API端點(diǎn),并解析API響應(yīng)。最終,用戶可以處理搜索結(jié)果,例如打印相似圖像的URL或進(jìn)行其他操作??傊?,`image_tagging_aksk()`函數(shù)是華為云圖像標(biāo)簽服務(wù)中用于檢測(cè)圖像翻拍情況的重要函數(shù)之一。33.我們可以利用以下哪種方法實(shí)現(xiàn)反向傳播?()A、計(jì)算圖B、鏈?zhǔn)椒▌tC、代價(jià)函數(shù)D、高階微分答案:B解析:反向傳播算法的實(shí)現(xiàn)方法是基于鏈?zhǔn)椒▌t的。在神經(jīng)網(wǎng)絡(luò)中,輸入輸出和權(quán)重值之間的關(guān)系需要通過一系列的神經(jīng)元和節(jié)點(diǎn)進(jìn)行傳遞,而鏈?zhǔn)椒▌t能夠逐層計(jì)算每對(duì)節(jié)點(diǎn)之間的輸出誤差,從而實(shí)現(xiàn)反向傳播。因此,選項(xiàng)B是正確的。34.在應(yīng)用開發(fā)時(shí),以下哪種操作不屬于典型網(wǎng)絡(luò)定義?A、網(wǎng)絡(luò)定義B、網(wǎng)絡(luò)執(zhí)行C、知識(shí)蒸餾D、權(quán)值初始化答案:C解析:在應(yīng)用開發(fā)中,網(wǎng)絡(luò)定義是典型網(wǎng)絡(luò)操作之一,它包括網(wǎng)絡(luò)架構(gòu)的設(shè)計(jì)、參數(shù)的配置等。選項(xiàng)A是正確的。而知識(shí)蒸餾、權(quán)值初始化都是與網(wǎng)絡(luò)訓(xùn)練和優(yōu)化相關(guān)的操作,但不是網(wǎng)絡(luò)定義。因此,選項(xiàng)C不屬于典型網(wǎng)絡(luò)定義。35.最近網(wǎng)絡(luò)上爆紅的一款軟件可以通過拍照后,將真實(shí)場(chǎng)景轉(zhuǎn)變?yōu)槁嬶L(fēng)格,John想自己搭建一個(gè)網(wǎng)絡(luò)實(shí)現(xiàn)其功能,以下選項(xiàng)可供參考?A、CartoonGAN(GenerativeAdversarialNetworksforPhotoCartoonization)B、GRU(GateRecurrentUnit)C、RNN(RecurrentNeuralNetwork)D、LSTM(LongShort-TermMemory)答案:A解析:本題考察的是對(duì)深度學(xué)習(xí)模型應(yīng)用的理解。CartoonGAN是專門用于將照片轉(zhuǎn)換為漫畫風(fēng)格的生成對(duì)抗網(wǎng)絡(luò)。而GRU、RNN和LSTM主要用于序列數(shù)據(jù)處理,不適合直接用于圖像風(fēng)格轉(zhuǎn)換。因此,John應(yīng)選擇CartoonGAN來實(shí)現(xiàn)其功能。36.TensorFlow2.0的keras.preprocessing的作用是?A、keras數(shù)據(jù)處理工具B、keras內(nèi)置優(yōu)化器C、keras模型部署工具D、Keras生成模型工具答案:A解析:這道題考察的是對(duì)tf.keras.preprocessing模塊的理解。在TensorFlow框架中,tf.keras.preprocessing模塊主要用于數(shù)據(jù)的預(yù)處理,包括數(shù)據(jù)的歸一化、標(biāo)準(zhǔn)化、編碼轉(zhuǎn)換等,以便于模型更好地進(jìn)行訓(xùn)練和預(yù)測(cè)。因此,根據(jù)這個(gè)知識(shí)點(diǎn),我們可以確定答案是B,即keras數(shù)據(jù)處理工具。37.在Mindspore中,能夠提供訓(xùn)練過程可視化的是以下哪個(gè)子系統(tǒng)?A、MindDataB、MindCompilerC、MindinsightD、MindExpressd答案:C解析:MindInsight是MindSpore中的一個(gè)子系統(tǒng),其主要功能就是為訓(xùn)練過程提供可視化支持。它能夠幫助用戶直觀地了解模型訓(xùn)練的情況,包括參數(shù)變化、性能指標(biāo)等。而MindData主要負(fù)責(zé)數(shù)據(jù)處理,MindCompiler側(cè)重于模型編譯優(yōu)化,MindExpressd并非MindSpore中的常見子系統(tǒng)。所以,正確答案是C。38.用一個(gè)3x3的卷積核對(duì)一副三通道彩色圖像進(jìn)行卷積,要學(xué)習(xí)的參數(shù)的個(gè)數(shù)為?A、27B、9C、28D、10答案:A解析:這道題考查對(duì)卷積運(yùn)算中參數(shù)個(gè)數(shù)的計(jì)算。在卷積操作中,對(duì)于3x3的卷積核,每個(gè)位置都有對(duì)應(yīng)三個(gè)通道的參數(shù)。所以每個(gè)位置的參數(shù)有3x3x3=27個(gè)。因此,用一個(gè)3x3的卷積核對(duì)一副三通道彩色圖像進(jìn)行卷積,要學(xué)習(xí)的參數(shù)個(gè)數(shù)為27個(gè)。39.以下關(guān)于機(jī)器學(xué)習(xí)整體流程正確的是A、數(shù)據(jù)收集->數(shù)據(jù)清洗->特征提取與選擇->模型訓(xùn)練->模型部署與整合->模型評(píng)估測(cè)試B、數(shù)據(jù)收集->特征提取與選擇->數(shù)據(jù)清洗->模型訓(xùn)練->模型評(píng)估測(cè)試->模型部署與整合C、數(shù)據(jù)收集->數(shù)據(jù)清洗->特征提取與選擇->模型訓(xùn)練->模型評(píng)估測(cè)試->模型部署與整合D、數(shù)據(jù)收集->數(shù)據(jù)清洗->模型訓(xùn)練->特征提取與選擇->模型部署與整合->模型評(píng)估測(cè)試答案:C解析:這道題考察的是對(duì)機(jī)器學(xué)習(xí)整體流程的理解。在機(jī)器學(xué)習(xí)中,流程通常遵循一定的順序:首先進(jìn)行數(shù)據(jù)收集,隨后進(jìn)行數(shù)據(jù)清洗以處理缺失值、異常值等,接著進(jìn)行特征提取與選擇,為模型訓(xùn)練做準(zhǔn)備。模型訓(xùn)練完成后,需要進(jìn)行模型評(píng)估測(cè)試,驗(yàn)證模型的性能,最后進(jìn)行模型部署與整合,將模型應(yīng)用到實(shí)際場(chǎng)景中。根據(jù)這個(gè)流程,選項(xiàng)C正確描述了機(jī)器學(xué)習(xí)的整體流程。40.以下哪一項(xiàng)是語音識(shí)別的簡(jiǎn)稱?()A、TTSB、ASRC、STTD、AST答案:B解析:SSP(SpeechSignalProcessing,語音信號(hào)處理,簡(jiǎn)稱語音處理)ASR(Automaticspeechrecognition,自動(dòng)語音識(shí)別)41.在達(dá)芬奇架構(gòu)中,向量計(jì)算單元不支持的計(jì)算類型是以下哪一個(gè)選項(xiàng)?A、Int8B、FP32C、FP16D、Int16答案:D解析:在達(dá)芬奇架構(gòu)中,向量計(jì)算單元通常支持FP32、FP16、和Int8等計(jì)算類型。由于Int16是一種整數(shù)類型,無法被向量計(jì)算單元直接支持,因此,為A。42.以下哪個(gè)不是Mindspore常用的Operation?A、SignalB、MathC、NnD、Array答案:A解析:MindSpore是一個(gè)面向全場(chǎng)景(手機(jī)、邊緣計(jì)算、云等)的AI計(jì)算框架,旨在提供易于使用、高性能和靈活的AI開發(fā)平臺(tái)。MindSpore中常用的Operation主要包括用于處理數(shù)據(jù)、執(zhí)行數(shù)學(xué)運(yùn)算、進(jìn)行神經(jīng)網(wǎng)絡(luò)搭建和訓(xùn)練等功能。根據(jù)提供的選項(xiàng),"signal"不是MindSpore常用的Operation,因?yàn)镸indSpore內(nèi)核主要提供math庫、array庫和nn(神經(jīng)網(wǎng)絡(luò))庫來完成AI相關(guān)的計(jì)算和操作。因此,正確答案是A。43.一副照片在存放過程中出現(xiàn)了很多小的噪點(diǎn),對(duì)其掃描件進(jìn)行()操作去噪效果最好。()A、中值濾波B、高斯濾波C、均值濾波D、拉普拉斯濾波答案:A解析:小噪點(diǎn)中值濾波效果較好44.當(dāng)使用TensorFlow2.0的keras接口搭建神經(jīng)網(wǎng)絡(luò)時(shí),需要進(jìn)行網(wǎng)絡(luò)的編譯工作,需要用到以下哪種方法?A、compileB、writeC、joinD、fit答案:A解析:在使用TensorFlow2.0中Keras接口來構(gòu)建神經(jīng)網(wǎng)絡(luò)時(shí),需要進(jìn)行網(wǎng)絡(luò)的編譯工作。對(duì)于這一步驟,通常需要使用`.compile`方法來對(duì)模型進(jìn)行配置,包括選擇優(yōu)化器、損失函數(shù)以及評(píng)估指標(biāo)等。因此,正確答案是選項(xiàng)A:compile。45.對(duì)于常用梯度下降算法的描述,以下選項(xiàng)中哪一項(xiàng)是錯(cuò)誤的?A、小批量梯度下降(MBGD),每次使用一定數(shù)量的的訓(xùn)練樣本進(jìn)行訓(xùn)練B、批量梯度下降(BGD)是收斂速度最快,消耗計(jì)算資源最少的一種方法。C、隨機(jī)梯度下降(SGD),每次使用一個(gè)訓(xùn)練樣本進(jìn)行訓(xùn)練。D、批量梯度下降(BGD),每次使用所有的訓(xùn)練樣本進(jìn)行訓(xùn)練。答案:B46.不屬于DNN結(jié)構(gòu)組成部分的是?()A、隱藏層B、權(quán)重C、激活函數(shù)D、ropout答案:D解析:這道題考察的是對(duì)深度神經(jīng)網(wǎng)絡(luò)(DNN)結(jié)構(gòu)的理解。DNN主要由輸入層、隱藏層、輸出層以及激活函數(shù)等構(gòu)成。其中,隱藏層是DNN的重要組成部分,用于提取特征;激活函數(shù)用于增加網(wǎng)絡(luò)的非線性,幫助網(wǎng)絡(luò)學(xué)習(xí)復(fù)雜的模式;Dropout是一種正則化技術(shù),用于防止過擬合。而權(quán)重是神經(jīng)網(wǎng)絡(luò)中的參數(shù),不屬于DNN的結(jié)構(gòu)組成部分,而是其訓(xùn)練過程中需要學(xué)習(xí)和調(diào)整的對(duì)象。因此,正確答案是B。47.核函數(shù)允許算法在變換后的高維特征空間中擬合最大的超平面,以下選項(xiàng)中不是常見核函數(shù)的是哪一項(xiàng)?A、線性核函數(shù)B、多項(xiàng)式核函數(shù)C、高斯核函數(shù)D、泊松核函數(shù)答案:D解析:這道題考察的是對(duì)核函數(shù)的理解。在機(jī)器學(xué)習(xí)中,核函數(shù)用于支持向量機(jī)(SVM)等算法,可以將數(shù)據(jù)映射到高維空間,以便更好地進(jìn)行分類或回歸。常見的核函數(shù)包括線性核、多項(xiàng)式核和高斯核(也稱為RBF核)。泊松核函數(shù)并不是常見的核函數(shù),因此選項(xiàng)D是不正確的。48.以下關(guān)于輸入緩沖區(qū)的描述,正確的是哪一個(gè)選項(xiàng)?A、用來存放神經(jīng)網(wǎng)絡(luò)中的初始量。B、可永久保留需要重復(fù)使用的數(shù)據(jù)。C、降低總線上產(chǎn)生擁堵的風(fēng)險(xiǎn)。D、需要每次都通過總線接口到AICore的外部進(jìn)行讀取答案:C解析:輸入緩沖區(qū)的主要作用是降低總線上產(chǎn)生擁堵的風(fēng)險(xiǎn)。當(dāng)一個(gè)系統(tǒng)或設(shè)備需要從另一個(gè)系統(tǒng)或設(shè)備獲取輸入數(shù)據(jù)時(shí),如果直接通過總線進(jìn)行傳輸,可能會(huì)引起總線擁堵。輸入緩沖區(qū)可以暫時(shí)存儲(chǔ)這些數(shù)據(jù),等待總線空閑時(shí)再一次性傳輸。49.“人工智能對(duì)于所有的數(shù)據(jù)都可以處理?!标P(guān)干上述描述,以下哪一個(gè)說法是正確的?A、該說法錯(cuò)誤是深度學(xué)習(xí)能對(duì)所有的數(shù)據(jù)都可以處理B、該說法正確,AI可以處理任何數(shù)據(jù),C、該說法正確AI對(duì)于數(shù)據(jù)有很的學(xué)習(xí)能力D、該說法措誤,需要對(duì)致?lián)M(jìn)行預(yù)處理等操作才可以輸入模型答案:D解析:人工智能并不能處理所有數(shù)據(jù),它需要經(jīng)過數(shù)據(jù)預(yù)處理等操作才能輸入模型,因此選項(xiàng)D是正確的。AI對(duì)于數(shù)據(jù)有很強(qiáng)的學(xué)習(xí)能力,但并不是可以處理任何數(shù)據(jù)。50.下列哪一項(xiàng)是張量[[0,1],[2,3]]的正確階數(shù)?A、2B、3C、6D、4答案:A解析:這道題考察的是對(duì)張量階數(shù)的理解。張量的階數(shù),也稱為維度,是指張量中索引的數(shù)量。在張量[0,1]:[2,3]中,有兩個(gè)索引范圍,即[0,1]和[2,3],因此它是一個(gè)二階張量。所以正確答案是C。51.以下關(guān)于剪枝的描述中,哪一項(xiàng)是錯(cuò)誤的?A、決策樹容易過擬合需要剪枝來縮小樹的結(jié)構(gòu)和規(guī)模。B、預(yù)剪枝中設(shè)置的層數(shù)是一個(gè)超參數(shù)。C、ID3算法中都會(huì)進(jìn)行剪枝。D、剪枝可以分為預(yù)剪枝和后剪枝。答案:B解析:這道題考察的是對(duì)剪枝技術(shù)的理解。剪枝是決策樹算法中用來防止過擬合的一種技術(shù)。選項(xiàng)A描述了剪枝的目的,是正確的。選項(xiàng)D說明了剪枝的兩種類型,也是正確的。ID3算法確實(shí)包含了剪枝的步驟,所以選項(xiàng)C也是正確的。而選項(xiàng)B提到的“預(yù)剪枝中設(shè)置的層數(shù)是一個(gè)超參數(shù)”是不準(zhǔn)確的,因?yàn)轭A(yù)剪枝通?;谝恍┩V箺l件如節(jié)點(diǎn)中的樣本數(shù)或信息增益等,而不是簡(jiǎn)單地設(shè)置層數(shù)作為超參數(shù)。因此,選項(xiàng)B是錯(cuò)誤的。52.以下關(guān)于邏輯回歸的描述中,哪一項(xiàng)是錯(cuò)誤的?A、邏輯回歸模型是一種分類模型,用來解決分類問題B、邏輯回歸與線性回歸都是廣義線性模型。C、邏輯回歸在線性回歸的基礎(chǔ)上引入了非線性因素(sigmoid函數(shù))。D、邏輯回歸和線性回歸的損失函數(shù)都是最小二乘損失函數(shù)。答案:D解析:邏輯回歸和線性回歸的損失函數(shù)并不是最小二乘損失函數(shù),而是對(duì)數(shù)損失函數(shù)。因此,選項(xiàng)D是錯(cuò)誤的。邏輯回歸是一種廣義線性模型,它在線性回歸的基礎(chǔ)上引入了非線性因素(sigmoid函數(shù)),用于解決二分類問題。邏輯回歸是一種分類模型,主要用于預(yù)測(cè)一個(gè)樣本屬于某個(gè)類別(通常是二分類)的概率。53.以下哪一項(xiàng)不是異騰AI芯片AICore中的基礎(chǔ)計(jì)算資源?A、矩陣計(jì)算單元B、向量計(jì)算單元C、標(biāo)量計(jì)算單元D、張量計(jì)算單元答案:D解析:達(dá)芬奇架構(gòu)(AICore)計(jì)算單元提供了三種基礎(chǔ)計(jì)算資源,矩陣計(jì)算單元(CubeUnit)、向量計(jì)算單元(VectorUnit)、標(biāo)量計(jì)算單元(ScalarUnit),不包含張量計(jì)算單元54.在綜合實(shí)驗(yàn)的語音合成實(shí)驗(yàn)中.,如果想要設(shè)置音量,可以使用下面哪一個(gè)方法?A、ttsc_request—ItsCustomRequest(textETtsC_request.setpitch(O)B、ttsc_request=TtsC.ustomRequest(test):ttscRequest.setspeed(O)C、ttsc_requestTtsCustomRequest(textY:ttsc_request.set_sleD、ttsc_request=TtsCustomRequest(text;ttsc_request.set_volume答案:D解析:在語音合成實(shí)驗(yàn)中,通常需要設(shè)置音量來控制合成語音的音量大小。根據(jù)提供的選項(xiàng),只有選項(xiàng)D中的`ttsc_request.set_volume`方法可以用于設(shè)置音量。選項(xiàng)A中的`ttsc_request.set_pitch`方法用于設(shè)置音調(diào),而不是音量。選項(xiàng)B中的`ttsc_request.set_speed`方法用于設(shè)置語速,也不是音量。選項(xiàng)C中的`ttsc_request.set_sle`方法用于設(shè)置采樣率,同樣不是音量。因此,正確答案是選項(xiàng)D。55.以下哪個(gè)選項(xiàng)是分類任務(wù)標(biāo)簽的類型?()A、離散型B、連續(xù)型C、自變型D、應(yīng)變型答案:A解析:分類任務(wù)標(biāo)簽是離散型,回歸任務(wù)標(biāo)簽是連續(xù)型56.Mindspore深度學(xué)習(xí)框架專門用于圖像增強(qiáng)的是以下哪一個(gè)模塊?A、mindspore.numpyB、mindspore.nnC、mindspore.opsD、mindspore.dataset.vision答案:D解析:MindSpore是一款全場(chǎng)景深度學(xué)習(xí)框架,其中集成了多種用于深度學(xué)習(xí)和數(shù)據(jù)處理的功能模塊。其中,`mindspore.dataset.vision`是用于圖像和視頻數(shù)據(jù)增強(qiáng)的模塊。因此,當(dāng)用戶問到“MindSpore深度學(xué)習(xí)框架專門用于圖像增強(qiáng)的是以下哪一個(gè)模塊”時(shí),正確是D.mindspore.dataset.vision。57.使用ModelArts自動(dòng)學(xué)習(xí)構(gòu)建預(yù)測(cè)分析項(xiàng)目時(shí),若標(biāo)簽列為數(shù)值型連續(xù)數(shù)據(jù),以下哪一項(xiàng)是標(biāo)簽列數(shù)據(jù)類型和訓(xùn)練的模型類型?A、離散值和回歸模型B、連續(xù)數(shù)值和分類模型C、離散值和分類模型D、連續(xù)數(shù)值和回歸模型答案:D解析:根據(jù)題目中的描述,標(biāo)簽列為數(shù)值型連續(xù)數(shù)據(jù),這通常意味著數(shù)據(jù)是連續(xù)的,而非離散的。因此,標(biāo)簽列數(shù)據(jù)類型更適合用回歸模型進(jìn)行處理。而預(yù)測(cè)分析項(xiàng)目通常涉及的是數(shù)值型數(shù)據(jù)的預(yù)測(cè),因此訓(xùn)練的模型類型應(yīng)該是回歸模型。因此,選項(xiàng)D是正確的。58.用手機(jī)對(duì)一份文檔拍照時(shí),因?yàn)榕臄z角度的原因,圖像中的文檔有畸變,可以求出個(gè)對(duì)應(yīng)關(guān)鍵點(diǎn)坐標(biāo),對(duì)圖像進(jìn)行變換,將文檔圖像修正。()A、4,仿射B、4,透視C、3,透視D、3,仿射答案:B解析:這道題考察的是圖像變換和修正的知識(shí)點(diǎn)。在圖像處理中,透視變換是一種常用的技術(shù),用于校正由于拍攝角度導(dǎo)致的圖像畸變。透視變換需要4個(gè)對(duì)應(yīng)的關(guān)鍵點(diǎn)坐標(biāo)來確定變換矩陣,從而實(shí)現(xiàn)對(duì)圖像的修正。因此,根據(jù)題目描述,選擇“4,透視”是正確的。59.卷積神經(jīng)網(wǎng)絡(luò)在以下哪個(gè)領(lǐng)域表現(xiàn)突出?()A、知識(shí)圖譜B、語音識(shí)別C、計(jì)算機(jī)視覺D、機(jī)器翻譯答案:C解析:這道題考察的是對(duì)卷積神經(jīng)網(wǎng)絡(luò)(CNN)應(yīng)用領(lǐng)域的了解。卷積神經(jīng)網(wǎng)絡(luò)特別適合于處理具有明顯空間層次結(jié)構(gòu)的數(shù)據(jù),如圖像。在計(jì)算機(jī)視覺領(lǐng)域,CNN因其強(qiáng)大的圖像特征提取能力而表現(xiàn)突出。相比之下,語音識(shí)別、機(jī)器翻譯和知識(shí)圖譜等領(lǐng)域雖然也可能用到神經(jīng)網(wǎng)絡(luò),但并非卷積神經(jīng)網(wǎng)絡(luò)的專長。因此,正確答案是A,即計(jì)算機(jī)視覺。60.假設(shè)你有5個(gè)大小為7x7、邊界值為0的卷積核,同時(shí)卷積神經(jīng)網(wǎng)絡(luò)第一層的深度為1。此時(shí)如果你向這一層傳入一個(gè)維度為224x224x3的數(shù)據(jù),那么神經(jīng)網(wǎng)絡(luò)下一層所接收到的數(shù)據(jù)維度是多少?A、218x218x5B、217x217x8C、217x217x3D、220x220x5答案:A解析:(224-7)/1+1=218,因?yàn)槭?個(gè)卷積核,所以輸出通道肯定是5,選A。61.Atlas200DK所基于的昇騰310芯片主要的應(yīng)用是?A、訓(xùn)練模型B、構(gòu)建模型C、模型推理答案:C解析:Atlas200DK是基于華為昇騰310芯片的開發(fā)套件,它主要針對(duì)的是AI模型的推理應(yīng)用。推理是指使用已經(jīng)訓(xùn)練好的模型對(duì)數(shù)據(jù)進(jìn)行預(yù)測(cè)或分類的過程。與訓(xùn)練模型不同,推理過程不需要大量的計(jì)算資源,而是更注重低延遲和高效率。因此,昇騰310芯片的設(shè)計(jì)重點(diǎn)是優(yōu)化推理性能,使得Atlas200DK在模型推理應(yīng)用中表現(xiàn)出色。所以,選項(xiàng)A“模型推理”是正確的答案。62.關(guān)于AscendCL使用說法正確的是?()A、初始化資源時(shí)需要顯式的創(chuàng)建Context和Stream。B、AscendCL開發(fā)流程中所需資源(如內(nèi)存)是自動(dòng)進(jìn)行調(diào)配的。C、Host側(cè)和Device側(cè)數(shù)據(jù)是共享的。D、獲取模型信息、構(gòu)造推理數(shù)據(jù)時(shí),需要聲明對(duì)應(yīng)的數(shù)據(jù)類型。答案:D解析:在AscendCL的開發(fā)中,模型的推理數(shù)據(jù)和對(duì)應(yīng)的數(shù)據(jù)類型需要被明確聲明,以便Host側(cè)和Device側(cè)能正確地傳遞和處理數(shù)據(jù)。這是AscendCL開發(fā)流程中的重要步驟之一。因此,選項(xiàng)D是正確的。63.Mindspore.ops.GradOperation(get_all-False,get_by_lisparam=False)。以下關(guān)于上述代碼的描述中,正確的是哪一項(xiàng)?A、get_all為False時(shí),會(huì)對(duì)所有揄入求導(dǎo)B、sens_param對(duì)網(wǎng)絡(luò)的輸出值做縮放以改變最終梯度C、get_by_Iist為False時(shí)會(huì)對(duì)權(quán)重求導(dǎo)。D、GradOperation方法在梯度下降和反向傳播中沒有任何用處答案:B解析:`mindspore.ops.GradOperation`是MindSpore框架中用于計(jì)算梯度的操作。分析各選項(xiàng)`get_all=False`時(shí),不會(huì)對(duì)所有輸入求導(dǎo),而是根據(jù)其他參數(shù)的設(shè)置選擇性地求導(dǎo)。`sens_param`用于指定對(duì)哪些輸入的梯度進(jìn)行縮放,但它并不直接對(duì)網(wǎng)絡(luò)的輸出值做縮放。`get_by_list=False`時(shí),不會(huì)根據(jù)列表中的指定參數(shù)求導(dǎo),而是根據(jù)其他參數(shù)的設(shè)置進(jìn)行。`GradOperation`方法是梯度下降和反向傳播中的核心,用于計(jì)算梯度,說它“沒有任何用處”是不正確的。但此處的表述可能是個(gè)設(shè)問,實(shí)際上是在測(cè)試對(duì)`GradOperation`作用的理解64.用兩個(gè)3x3的卷積核對(duì)一副三通道的彩色圖像進(jìn)卷積,得到的特征圖有幾個(gè)通道?()A、1B、2C、3D、4答案:B解析:對(duì)一副三通道的彩色圖像進(jìn)行卷積時(shí),每個(gè)卷積核會(huì)生成一個(gè)特征圖,因此使用兩個(gè)3x3的卷積核會(huì)生成兩個(gè)特征圖。由于每個(gè)特征圖都是單通道的,所以最終得到的特征圖有2個(gè)通道。65.以下關(guān)于機(jī)器學(xué)習(xí)描述正確的是?A、深度學(xué)習(xí)是機(jī)器學(xué)習(xí)的一個(gè)分支B、深度學(xué)習(xí)與機(jī)器學(xué)習(xí)是互相包含的關(guān)系C、深度學(xué)習(xí)與機(jī)器學(xué)習(xí)同屬于人工智能但相互之間沒有關(guān)系D、以上都不對(duì)答案:A解析:機(jī)器學(xué)習(xí)是一個(gè)廣泛的概念,涵蓋了多種使計(jì)算機(jī)能夠從數(shù)據(jù)中學(xué)習(xí)的算法和技術(shù)。深度學(xué)習(xí)是機(jī)器學(xué)習(xí)的一個(gè)子集,它利用深度神經(jīng)網(wǎng)絡(luò)模型來模擬人腦的學(xué)習(xí)過程,特別擅長處理復(fù)雜的數(shù)據(jù)和任務(wù),如圖像和語音識(shí)別。因此,深度學(xué)習(xí)可以被視為機(jī)器學(xué)習(xí)的一個(gè)分支。選項(xiàng)A正確描述了深度學(xué)習(xí)與機(jī)器學(xué)習(xí)之間的關(guān)系,而選項(xiàng)B、C、D則沒有正確描述這種關(guān)系。66.在語音識(shí)別實(shí)驗(yàn)中,如果想要設(shè)置輸出結(jié)果添加標(biāo)點(diǎn),需要使用以下哪一個(gè)選項(xiàng)?A、sr_request.set_addpunc('yes)B、asr_request.set_add_punc('no)C、onfig.set_read_timeout('yes')D、config.set_read_timeout(no)答案:A解析:在語音識(shí)別實(shí)驗(yàn)中,如果想要設(shè)置輸出結(jié)果添加標(biāo)點(diǎn),需要使用設(shè)置輸出參數(shù)的方法。選項(xiàng)A中的asr_request.set_add_punc('yes')是一種常用的設(shè)置方式,表示輸出結(jié)果中將添加標(biāo)點(diǎn)符號(hào)。因此,正確是A。67.關(guān)子機(jī)器學(xué)習(xí)的數(shù)據(jù)集,以下說法哪一項(xiàng)是正確的?A、數(shù)據(jù)集可分為訓(xùn)練集和測(cè)試集,其中測(cè)試集用于模型訓(xùn)練,即尋找特征與目標(biāo)之間的關(guān)系。B、數(shù)據(jù)集中的樣本指的是每條記錄的不同屬性,比如姓名,年齡,性別等信息。C、數(shù)據(jù)集的特征指的是每條記錄的不同屬性、比如姓名,年齡,性別等信息。D、有監(jiān)督學(xué)習(xí)任務(wù)中,數(shù)據(jù)集的目標(biāo)列一般不包含標(biāo)簽答案:C解析:這道題考察的是對(duì)機(jī)器學(xué)習(xí)數(shù)據(jù)集相關(guān)概念的理解。A選項(xiàng)錯(cuò)誤,因?yàn)闇y(cè)試集是用于評(píng)估模型性能的,而不是用于模型訓(xùn)練。B選項(xiàng)錯(cuò)誤,樣本指的是數(shù)據(jù)集中的每一條記錄,而不是記錄的不同屬性。C選項(xiàng)正確,數(shù)據(jù)集的特征確實(shí)指的是每條記錄的不同屬性,如姓名、年齡、性別等。D選項(xiàng)錯(cuò)誤,有監(jiān)督學(xué)習(xí)任務(wù)中,數(shù)據(jù)集的目標(biāo)列是包含標(biāo)簽的,用于指導(dǎo)模型的訓(xùn)練。因此,正確答案是C。68.274.下圖中,像素點(diǎn)p和s之間的棋盤距離是()(&符號(hào)表示空格)P&q&r&t&&&sA、5B、8C、3D、2答案:C解析:棋盤距離定義為:D=MAX{|x1-x2|,|y1-y2|}69.以下哪個(gè)不是文本向量化的常用方法?A、CBOWB、DBOWC、DMD、EM答案:D解析:文本向量化是自然語言處理中的一種技術(shù),用于將文本轉(zhuǎn)換為數(shù)值向量表示。常用的方法包括CBOW、DBOW、DM等。而EM算法是一種常用于聚類和分類的方法,不是文本向量化的常用方法。因此,選項(xiàng)A是正確的。70.感知器在空間中可以展現(xiàn)為A、線B、平面C、超平面D、點(diǎn)答案:C解析:在AI和機(jī)器學(xué)習(xí)領(lǐng)域,特別是在討論感知器(Perceptron)時(shí),我們通常將其在空間中的表現(xiàn)形式考慮為一個(gè)分界面,這個(gè)分界面用于區(qū)分不同的類別或進(jìn)行決策。對(duì)于線性感知器,這個(gè)分界面就是一個(gè)超平面(Hyperplane)。超平面是一個(gè)數(shù)學(xué)概念,在多維空間中,它可以是一個(gè)平面(二維空間),也可以是一個(gè)更高維度的類似結(jié)構(gòu)。因此,感知器在空間中可以展現(xiàn)為超平面,選項(xiàng)C是正確的。71.以下哪個(gè)不是圖像識(shí)別服務(wù)的應(yīng)用?A、目標(biāo)檢測(cè)B、智能相冊(cè)C、場(chǎng)景分析D、語音合成答案:D解析:圖像識(shí)別服務(wù)主要處理和分析圖像數(shù)據(jù),用于識(shí)別圖像中的目標(biāo)、場(chǎng)景等內(nèi)容。選項(xiàng)A“目標(biāo)檢測(cè)”是圖像識(shí)別的一個(gè)應(yīng)用,用于檢測(cè)圖像中的特定目標(biāo);選項(xiàng)B“智能相冊(cè)”通常利用圖像識(shí)別技術(shù)來自動(dòng)分類和整理照片;選項(xiàng)C“場(chǎng)景分析”也是圖像識(shí)別的一個(gè)應(yīng)用,用于理解和分析圖像中的場(chǎng)景。而選項(xiàng)D“語音合成”是語音處理領(lǐng)域的技術(shù),與圖像識(shí)別無關(guān),它涉及將文本轉(zhuǎn)換為語音輸出。因此,D選項(xiàng)不是圖像識(shí)別服務(wù)的應(yīng)用。72.ModelArts自動(dòng)學(xué)習(xí)的使用流程是什么?A、部署上線->模型訓(xùn)練->數(shù)據(jù)標(biāo)注B、模型訓(xùn)練->數(shù)據(jù)標(biāo)注->部署上線C、數(shù)據(jù)標(biāo)注->模型訓(xùn)練->部署上線D、數(shù)據(jù)標(biāo)注->部署上線->模型訓(xùn)練答案:C解析:這道題考察的是對(duì)ModelArts自動(dòng)學(xué)習(xí)使用流程的理解。在機(jī)器學(xué)習(xí)項(xiàng)目中,通常的流程是先進(jìn)行數(shù)據(jù)標(biāo)注,以便為模型訓(xùn)練提供準(zhǔn)確的輸入;接著進(jìn)行模型訓(xùn)練,使用標(biāo)注好的數(shù)據(jù)來訓(xùn)練模型;最后進(jìn)行部署上線,將訓(xùn)練好的模型部署到實(shí)際的應(yīng)用場(chǎng)景中。因此,正確的使用流程應(yīng)該是數(shù)據(jù)標(biāo)注->模型訓(xùn)練->部署上線,選項(xiàng)D正確。73.以下哪個(gè)選項(xiàng)不是在自然語言處理發(fā)展過程中的方法?A、基于統(tǒng)計(jì)的方法B、基于規(guī)則的方法C、基于深度學(xué)習(xí)的方法D、基于遞歸的方法答案:D解析:在自然語言處理的發(fā)展過程中,出現(xiàn)了多種方法,其中基于深度學(xué)習(xí)的方法是目前最主流的方法之一?;诮y(tǒng)計(jì)的方法和基于規(guī)則的方法也是自然語言處理中常用的方法,但它們不是基于遞歸的方法74.以下關(guān)于支持向量機(jī)的描述中,哪一項(xiàng)是錯(cuò)誤的?A、支持向量機(jī)是一種分類模型,它的基本模型是定義在特征空間上的間隔最大的線性分類器。B、支持向量機(jī)還包括核技巧,這使它成為實(shí)質(zhì)上的非線性分類器。C、對(duì)于線性不可分的情況,通過使用非線性映射算法將低維輸入空間線性不可分的樣本轉(zhuǎn)化到高維特征空間使其線性可分。D、支持向量機(jī)只能解決線性分類問題。答案:D解析:這道題考察的是對(duì)支持向量機(jī)(SVM)的理解。支持向量機(jī)確實(shí)是一種分類模型,它的基本模型是定義在特征空間上的間隔最大的線性分類器,所以A選項(xiàng)描述正確。同時(shí),支持向量機(jī)通過引入核技巧,可以處理非線性問題,成為實(shí)質(zhì)上的非線性分類器,因此B選項(xiàng)也是正確的。對(duì)于線性不可分的情況,SVM可以通過使用核函數(shù)將低維輸入空間線性不可分的樣本映射到高維特征空間,使其線性可分,所以C選項(xiàng)描述也是準(zhǔn)確的。而D選項(xiàng),“支持向量機(jī)只能解決線性分類問題”,這一說法是錯(cuò)誤的,因?yàn)橥ㄟ^核技巧,支持向量機(jī)同樣可以解決非線性分類問題。75.在達(dá)芬奇架構(gòu)中關(guān)于矩陣計(jì)算,以下哪個(gè)選項(xiàng)和矩陣計(jì)算單元主要完成矩陣相關(guān)運(yùn)算?A、寄存器B、累加器C、運(yùn)算器D、控制器答案:B解析:這道題考察的是對(duì)達(dá)芬奇架構(gòu)中矩陣計(jì)算單元的理解。在達(dá)芬奇架構(gòu)中,矩陣計(jì)算單元是專門用于處理矩陣相關(guān)運(yùn)算的。根據(jù)架構(gòu)的設(shè)計(jì),矩陣計(jì)算單元主要依賴?yán)奂悠鱽硗瓿删仃嚨倪\(yùn)算任務(wù)。運(yùn)算器雖然也參與計(jì)算,但不是特指矩陣運(yùn)算;寄存器用于存儲(chǔ)數(shù)據(jù);控制器則負(fù)責(zé)指令的控制,不直接參與矩陣運(yùn)算。因此,正確答案是C,累加器。76.以下方法中屬于特征選擇嵌入法(Embedded)的是哪一項(xiàng)?A、方差B、特征遞歸消除法C、LI正則D、互信息法答案:C解析:特征選擇嵌入法(Embedded)是一種通過引入某種約束條件來選擇特征的方法。其中,L1正則是一種常見的約束條件,它通過懲罰具有較大系數(shù)的特征來抑制過擬合,從而選擇出重要的特征。因此,選項(xiàng)A“L1正則”是正確的。77.NNLM模型中,網(wǎng)絡(luò)輸出層采用的激活函數(shù)是什么?()A、TanhB、SoftmaxC、ReLUD、Sigmoid答案:B解析:NNLM指神經(jīng)網(wǎng)絡(luò)語言模型。通常,卷積神經(jīng)網(wǎng)絡(luò)會(huì)將末端得到的特征圖平攤成一個(gè)長的列向量,經(jīng)過全連接層的計(jì)算得到最終的輸出層,一般使用softmax激活函數(shù)將最終的輸出量化。78.卷積神經(jīng)網(wǎng)絡(luò)在以下哪個(gè)領(lǐng)域表現(xiàn)突出?A、知識(shí)圖譜B、語音識(shí)別C、計(jì)算機(jī)視覺D、機(jī)器翻譯答案:C解析:這道題考察的是對(duì)卷積神經(jīng)網(wǎng)絡(luò)(CNN)應(yīng)用領(lǐng)域的了解。卷積神經(jīng)網(wǎng)絡(luò)特別適合于處理具有明顯空間層次結(jié)構(gòu)的數(shù)據(jù),如圖像。在計(jì)算機(jī)視覺領(lǐng)域,CNN因其強(qiáng)大的圖像特征提取能力而表現(xiàn)突出。相比之下,語音識(shí)別、機(jī)器翻譯和知識(shí)圖譜等領(lǐng)域雖然也可能用到神經(jīng)網(wǎng)絡(luò),但并非卷積神經(jīng)網(wǎng)絡(luò)的專長。因此,正確答案是A,即計(jì)算機(jī)視覺。79.關(guān)于通用的圖像識(shí)別流程,以下說法中哪一項(xiàng)是正確的?A、特征提取→圖像采集一→圖像預(yù)處理→圖像識(shí)別B、圖像采集→>圖像預(yù)改處理→>特征提取—>圖像識(shí)別C、圖像預(yù)改處理→特征提取→圖像采集一→圖像識(shí)別D、圖像預(yù)政處理→圖像采集一→特征提取圖像識(shí)別答案:B解析:這道題考察的是對(duì)圖像識(shí)別流程的理解。在通用的圖像識(shí)別流程中,首先進(jìn)行圖像采集,獲取到原始的圖像數(shù)據(jù);接著進(jìn)行圖像預(yù)處理,對(duì)圖像進(jìn)行去噪、增強(qiáng)等操作,以改善圖像質(zhì)量;然后進(jìn)行特征提取,從預(yù)處理后的圖像中提取出有用的特征信息;最后進(jìn)行圖像識(shí)別,根據(jù)提取的特征進(jìn)行分類和識(shí)別。因此,正確的流程是圖像采集→圖像預(yù)處理→特征提取→圖像識(shí)別,對(duì)應(yīng)選項(xiàng)B。80.以下選項(xiàng)中不屬于超參數(shù)搜索方法的是哪一項(xiàng)?A、網(wǎng)格搜索B、聚類算法C、貝葉斯搜索D、隨機(jī)搜索答案:B解析:在機(jī)器學(xué)習(xí)和深度學(xué)習(xí)中,超參數(shù)搜索是優(yōu)化模型性能的重要步驟。超參數(shù)搜索方法主要分為以下幾類:網(wǎng)格搜索、隨機(jī)搜索、貝葉斯搜索等。A選項(xiàng)網(wǎng)格搜索是通過在預(yù)定義的參數(shù)空間中窮舉搜索最優(yōu)的參數(shù)組合。C選項(xiàng)貝葉斯搜索是一種基于貝葉斯優(yōu)化理論的搜索方法,它能夠根據(jù)歷史搜索結(jié)果動(dòng)態(tài)調(diào)整搜索范圍。D選項(xiàng)隨機(jī)搜索是隨機(jī)選取不同的參數(shù)組合來探索整個(gè)參數(shù)空間,尋求可能的最優(yōu)解。而B選項(xiàng)聚類算法,是一種無監(jiān)督學(xué)習(xí)方法,主要目的是將數(shù)據(jù)點(diǎn)進(jìn)行分類,使其同組內(nèi)的相似度盡可能高,與其他組的差異盡可能大。因此,它不是超參數(shù)搜索方法的一種。所以,答案為B、聚類算法。81.以下哪個(gè)激活函數(shù)可以很好的緩解梯度消失問題?A、SigmoidB、TanhC、SoftsignD、Relu答案:D解析:這道題考察的是對(duì)激活函數(shù)特性的理解。在深度學(xué)習(xí)中,激活函數(shù)的選擇對(duì)模型的訓(xùn)練效果有很大影響。梯度消失是一個(gè)常見問題,它會(huì)導(dǎo)致網(wǎng)絡(luò)在訓(xùn)練過程中權(quán)重更新緩慢或停止。ReLU(RectifiedLinearUnit)激活函數(shù)在正數(shù)部分保持梯度為1,這有助于緩解梯度消失問題,因?yàn)樗试S梯度在反向傳播時(shí)保持不變,從而有助于保持網(wǎng)絡(luò)的學(xué)習(xí)能力。因此,ReLU是一個(gè)很好的選擇來緩解梯度消失問題。82.測(cè)試誤差會(huì)隨著模型復(fù)雜度的上升不斷誠小。——A、TRUEB、FALSE答案:B解析:當(dāng)一個(gè)模型的復(fù)雜度增加時(shí),通常測(cè)試誤差會(huì)逐漸增大而不是減小,即測(cè)試誤差不會(huì)隨著模型復(fù)雜度的上升而持續(xù)減小。因?yàn)檫@種情況下,模型可能過度擬合訓(xùn)練數(shù)據(jù),導(dǎo)致泛化能力變?nèi)?,從而?dǎo)致在新數(shù)據(jù)上出現(xiàn)更大的誤差。所以,選項(xiàng)B是正確的答案。83.詞袋模型是最早的以詞語為基本處理單元的文本向量化方法。以下哪個(gè)選項(xiàng)不是詞袋模型的缺陷?()A、無法保留次序信息B、基于分布假說C、維度災(zāi)難D、存在語義鴻溝答案:B解析:基于分布假說不能認(rèn)為是缺陷。詞袋模型損失了詞語順序、上下文信息,所以存在語義鴻溝。如果一篇文章詞語太多,就會(huì)形成一個(gè)長向量,造成維度災(zāi)難84.華為云API符合RESTful的設(shè)計(jì)規(guī)范,以下哪個(gè)選項(xiàng)不是發(fā)起請(qǐng)求的方式?A、KerberorsB、CurlC、REST客戶端D、編碼答案:A解析:RESTfulAPI的設(shè)計(jì)規(guī)范要求發(fā)起請(qǐng)求的方式主要包括Curl、REST客戶端和編碼等,而Kerberos不是發(fā)起請(qǐng)求的方式,而是一種認(rèn)證協(xié)議。因此,是A。85.修改HSV彩色空間的H分量,會(huì)改變圖像的什么?A、亮度B、飽和度C、色相D、對(duì)比度答案:C解析:另一種常用的顏色空間是HSV,該顏色空間可以用一個(gè)圓錐來表示。HSV表示色相(hue)、飽和度(saturation)和亮度(value)。H表示顏色的相位角(hue),取值范圍是0-360;S表示顏色的飽和度(saturation),范圍從0到1,它表示成所選顏色的純度和該顏色最大的純度之間的比率;V表示色彩的明亮程度(value),范圍從0到1。Apple的Mac操作系統(tǒng)以及photoshop都是采用HSV顏色空間。86.對(duì)于坐標(biāo)(x,y)的像素P,P有四個(gè)水平垂直的相鄰像素,稱為4鄰域,以下哪一項(xiàng)能夠正確表示該4鄰域的坐標(biāo)?A、(x-1,y),(x-1,y),(x,y-1),(x,y+1)B、(x-1,y),(x+1,y),(x,y+1),(x,y+1)C、(x-1,y),(x+1,y),(x,y-1),(x,y-1)D、(x-1,y),(x+1,y),(x,y-1),(x,y+1)答案:D解析:4鄰域指上下左右四個(gè)像素87.正則化在深度學(xué)習(xí)中經(jīng)常使用到,我們?cè)谏疃葘W(xué)習(xí)使用正則化解決什么問題A、梯度消失問題B、數(shù)據(jù)不平衡問題C、XOR問題D、過擬合問題答案:D解析:這道題考察的是正則化在深度學(xué)習(xí)中的應(yīng)用。正則化技術(shù),如L1、L2正則化,主要用于控制模型的復(fù)雜度,防止模型在訓(xùn)練數(shù)據(jù)上學(xué)習(xí)得過于復(fù)雜,從而在新的、未見過的數(shù)據(jù)上表現(xiàn)不佳,即過擬合。梯度消失、數(shù)據(jù)不平衡、XOR問題并不是正則化主要解決的目標(biāo)。因此,正確答案是D,即正則化在深度學(xué)習(xí)中主要用于解決過擬合問題。88.利用gensim實(shí)現(xiàn)Doc2vce時(shí),哪個(gè)參數(shù)代表選擇的具體模型?A、dm_meanB、dm_tag_countC、dm_concatD、m答案:D解析:在Gensim庫中,dm參數(shù)代表文檔到向量模型(Doc2Vec)的選擇的具體模型。在Doc2Vec模型中,不同的參數(shù)設(shè)置會(huì)產(chǎn)生不同的模型效果。其中,dm參數(shù)表示采用的是Skip-gram模型還是Doc2Vec模型,即是否利用文檔中的詞向量表示文檔的內(nèi)容或利用文檔的內(nèi)容來預(yù)測(cè)詞向量。因此,選項(xiàng)D是正確的。89.以下關(guān)于計(jì)算機(jī)視覺的說法,哪一個(gè)選項(xiàng)是正確的?A、計(jì)算機(jī)視覺需要用到圖像處理技術(shù)B、計(jì)算機(jī)視覺是利用計(jì)算機(jī)技術(shù)來理解并運(yùn)用自然語言的學(xué)科C、計(jì)算機(jī)視覺就是讓計(jì)算機(jī)去分析語言數(shù)據(jù)D、計(jì)算機(jī)視覺就是通過專家經(jīng)驗(yàn)提供排障指導(dǎo)的學(xué)科答案:A解析:這道題考察的是對(duì)計(jì)算機(jī)視覺概念的理解。計(jì)算機(jī)視覺,作為一個(gè)學(xué)科領(lǐng)域,主要關(guān)注如何使計(jì)算機(jī)能夠“看見”并理解圖像和視頻內(nèi)容。這自然涉及到圖像處理技術(shù),用于分析、解釋圖像數(shù)據(jù)。A選項(xiàng)指出“計(jì)算機(jī)視覺需要用到圖像處理技術(shù)”,這與計(jì)算機(jī)視覺的定義和應(yīng)用相符合,是正確的。B選項(xiàng)描述的是自然語言處理,與計(jì)算機(jī)視覺不同,它關(guān)注的是理解和生成人類語言。C選項(xiàng)同樣混淆了計(jì)算機(jī)視覺與自然語言處理的領(lǐng)域,計(jì)算機(jī)視覺處理的是圖像和視頻數(shù)據(jù),而不是語言數(shù)據(jù)。D選項(xiàng)描述的是專家系統(tǒng)或基于知識(shí)的系統(tǒng),它們利用專家經(jīng)驗(yàn)來提供指導(dǎo)或解決問題,與計(jì)算機(jī)視覺不直接相關(guān)。綜上所述,A選項(xiàng)正確描述了計(jì)算機(jī)視覺的一個(gè)核心方面,即需要使用圖像處理技術(shù)。90.不屬于語音聲學(xué)特征的是?()A、時(shí)長B、語義C、頻率D、振幅答案:B解析:聲學(xué)語音學(xué):研究怎樣對(duì)語言的聲音進(jìn)行聲學(xué)分析,比如聲波的頻率、時(shí)長、振幅等。重點(diǎn)是聲學(xué)兩個(gè)字91.遷移學(xué)習(xí)是將某個(gè)領(lǐng)域或任務(wù)上學(xué)習(xí)到的知識(shí)或模式應(yīng)用到不同但相關(guān)的領(lǐng)域或問題中。以下哪一種是實(shí)現(xiàn)遷移學(xué)習(xí)常用的技術(shù)手段?A、重新訓(xùn)練B、模型微週(Fine-tuning)C、暫退法(Drput)D、標(biāo)簽平滑答案:B解析:遷移學(xué)習(xí)旨在將一個(gè)領(lǐng)域或任務(wù)中學(xué)到的知識(shí)應(yīng)用于另一個(gè)相關(guān)但不同的領(lǐng)域或任務(wù)。在給出的選項(xiàng)中,A項(xiàng)“重新訓(xùn)練”通常意味著從頭開始訓(xùn)練一個(gè)新模型,不涉及遷移學(xué)習(xí)的概念。C項(xiàng)“暫退法(Dropout)”和D項(xiàng)“標(biāo)簽平滑”是訓(xùn)練神經(jīng)網(wǎng)絡(luò)時(shí)用于防止過擬合的技術(shù),而非遷移學(xué)習(xí)的技術(shù)手段。B項(xiàng)“模型微調(diào)(Fine-tuning)”是遷移學(xué)習(xí)中常用的技術(shù)手段,它利用在源任務(wù)上預(yù)訓(xùn)練的模型,在新的目標(biāo)任務(wù)上進(jìn)行調(diào)整和優(yōu)化,以實(shí)現(xiàn)知識(shí)的遷移和應(yīng)用。因此,正確答案是B。92.以下關(guān)于樸素貝葉斯的說法中,哪一項(xiàng)是錯(cuò)誤的?A、貝葉斯分類器應(yīng)用于大型數(shù)據(jù)庫具有較高的準(zhǔn)確性和快速的速度B、樸素貝葉斯的“樸素",指的是該方法需要假設(shè)各個(gè)特征之間是獨(dú)立的C、樸素貝葉斯是一種簡(jiǎn)單的多分類算法D、樸素貝葉斯算法依賴于人工神經(jīng)網(wǎng)格,因此使用起來非常復(fù)雜答案:D解析:樸素貝葉斯算法是一種基于貝葉斯定理的簡(jiǎn)單概率分類器,它假設(shè)特征之間相互獨(dú)立。針對(duì)選項(xiàng)進(jìn)行逐一分析:A項(xiàng)正確,樸素貝葉斯分類器因其簡(jiǎn)單高效,在處理大型數(shù)據(jù)庫時(shí)通常表現(xiàn)出較高的準(zhǔn)確性和速度。B項(xiàng)正確,“樸素”一詞確實(shí)指的是樸素貝葉斯算法中特征之間相互獨(dú)立的假設(shè)。C項(xiàng)正確,樸素貝葉斯是一種可以用于多分類問題的算法。D項(xiàng)錯(cuò)誤,樸素貝葉斯算法并不依賴于人工神經(jīng)網(wǎng)絡(luò),它是一種基于概率的簡(jiǎn)單模型,使用起來并不復(fù)雜。因此,D項(xiàng)是錯(cuò)誤的。93.機(jī)器學(xué)習(xí)算法中,以下不屬于集成學(xué)習(xí)策略的是?A、BoostingB、StackingC、BaggingD、Marking答案:D94.Softmax函數(shù)主要用于什么層?()A、輸入層B、隱藏層C、輸出層答案:C解析:神經(jīng)網(wǎng)絡(luò)最后一層,輸出層一般會(huì)使用sotfmax。多分類函數(shù)95.在以下哪一個(gè)年份,Rosenblatt發(fā)明感知器(perceptron)算法?A、1969年B、1986年C、1950年D、1958年答案:D解析:這道題考察的是對(duì)人工智能領(lǐng)域歷史發(fā)展的了解。感知器(perceptron)算法是人工智能領(lǐng)域的一個(gè)重要里程碑,由Rosenblatt發(fā)明。根據(jù)歷史記錄,這一發(fā)明發(fā)生在1958年,因此正確答案是D。這個(gè)算法對(duì)后來的神經(jīng)網(wǎng)絡(luò)和機(jī)器學(xué)習(xí)發(fā)展產(chǎn)生了深遠(yuǎn)影響。96.面對(duì)行業(yè)研究與全場(chǎng)景AI應(yīng)用之間的巨大鴻溝,Mindspore跨越應(yīng)用鴻溝助力普惠AI的技術(shù)創(chuàng)新不包括以下哪項(xiàng)?A、新協(xié)作方式B、新編程語言C、新編程范式D、新執(zhí)行模式答案:B解析:這道題考察的是對(duì)MindSpore在普惠AI技術(shù)創(chuàng)新方面的理解。MindSpore作為一個(gè)全場(chǎng)景深度學(xué)習(xí)框架,旨在跨越行業(yè)研究與AI應(yīng)用之間的鴻溝。它主要通過提供新的協(xié)作方式、編程范式和執(zhí)行模式來實(shí)現(xiàn)這一目標(biāo),從而助力普惠AI的技術(shù)創(chuàng)新。而新編程語言并非其主要?jiǎng)?chuàng)新點(diǎn)。97.我們目前所實(shí)現(xiàn)的人工智能技術(shù)處于以下哪一個(gè)階段?A、強(qiáng)人工智能B、單人工智能C、多維多元人工智能D、弱人工智能答案:D解析:這道題考察的是對(duì)人工智能技術(shù)發(fā)展階段的理解。根據(jù)人工智能領(lǐng)域的知識(shí),我們知道人工智能的發(fā)展通常被劃分為弱人工智能和強(qiáng)人工智能兩個(gè)階段。弱人工智能指的是專注于并擅長于特定任務(wù)的人工智能,而強(qiáng)人工智能則能在各種任務(wù)上表現(xiàn)出與人類智能相當(dāng)?shù)哪芰?。目前,我們所?shí)現(xiàn)的人工智能技術(shù)主要集中在弱人工智能階段,專注于特定任務(wù)的處理,尚未達(dá)到強(qiáng)人工智能的全面智能水平。因此,正確答案是D,即弱人工智能。98.以下算法中不屬于有監(jiān)督學(xué)習(xí)的是?()A、線性回歸B、決策樹C、KNND、K-means答案:D解析:有監(jiān)督學(xué)習(xí)是指在訓(xùn)練過程中,使用有標(biāo)簽的數(shù)據(jù)來訓(xùn)練模型,以便模型能夠?qū)ξ粗獢?shù)據(jù)進(jìn)行預(yù)測(cè)或分類。常見的有監(jiān)督學(xué)習(xí)算法包括線性回歸、決策樹、KNN(k近鄰算法)等。而K-means是一種無監(jiān)督學(xué)習(xí)算法,它用于將數(shù)據(jù)集分成k個(gè)簇,使得每個(gè)簇內(nèi)的數(shù)據(jù)點(diǎn)相似度較高,而不同簇之間的數(shù)據(jù)點(diǎn)相似度較低。因此,K-means不屬于有監(jiān)督學(xué)習(xí)算法。所以,正確答案是D。99.以下關(guān)于達(dá)芬奇架構(gòu)的描述,錯(cuò)誤的是哪一選項(xiàng)?A、通過總線接口單元將數(shù)據(jù)搬到輸入緩中區(qū)B、控制單元負(fù)責(zé)整個(gè)AICore的運(yùn)行C、計(jì)算單元包含四種基礎(chǔ)計(jì)算資源D、AICore的片上存儲(chǔ)單元和相應(yīng)的數(shù)據(jù)通路構(gòu)成了存儲(chǔ)系統(tǒng)答案:C解析:這道題考察的是對(duì)達(dá)芬奇架構(gòu)的理解。達(dá)芬奇架構(gòu)是一種AI計(jì)算架構(gòu),其中包含了總線接口單元、控制單元、計(jì)算單元以及存儲(chǔ)系統(tǒng)等關(guān)鍵部分。A選項(xiàng)描述的是總線接口單元的功能,即將數(shù)據(jù)搬到輸入緩沖區(qū),這是正確的。B選項(xiàng)提到控制單元負(fù)責(zé)整個(gè)AICore的運(yùn)行,這也符合達(dá)芬奇架構(gòu)的設(shè)計(jì)。D選項(xiàng)描述的是AICore的片上存儲(chǔ)單元和相應(yīng)的數(shù)據(jù)通路構(gòu)成了存儲(chǔ)系統(tǒng),這也是準(zhǔn)確的。而C選項(xiàng),計(jì)算單元在達(dá)芬奇架構(gòu)中實(shí)際上包含了多種計(jì)算資源,但并非僅限于四種基礎(chǔ)計(jì)算資源,因此C選項(xiàng)的描述是錯(cuò)誤的。所以答案是C。100.以下哪一項(xiàng)對(duì)于每一個(gè)參數(shù)都用相同的學(xué)習(xí)率進(jìn)行更新?A、dagradB、AdadeltaC、MomentumD、Adam答案:C解析:在優(yōu)化算法中,Momentum算法通常會(huì)使用相同的更新率來更新每一個(gè)參數(shù)。101.以下關(guān)于輸入緩沖區(qū)的描述,正確的是哪一個(gè)選項(xiàng)?A、降低總線上產(chǎn)生擁堵的風(fēng)險(xiǎn)。B、需要每次都通過總線接口到AICore的外部進(jìn)行讀取。C、可永久保留需要重復(fù)使用的數(shù)據(jù)D、用來存放神經(jīng)網(wǎng)絡(luò)中的初始量。答案:A解析:輸入緩沖區(qū)的主要作用是降低總線上產(chǎn)生擁堵的風(fēng)險(xiǎn)。當(dāng)一個(gè)系統(tǒng)或設(shè)備需要從另一個(gè)系統(tǒng)或設(shè)備獲取輸入數(shù)據(jù)時(shí),如果直接通過總線進(jìn)行傳輸,可能會(huì)引起總線擁堵。輸入緩沖區(qū)可以暫時(shí)存儲(chǔ)這些數(shù)據(jù),等待總線空閑時(shí)再一次性傳輸。102.下列選項(xiàng)中不支持TensorFLow2.0進(jìn)行維度變換的屬性是。A、squeezeB、reshapeC、gatherD、transpose答案:C解析:在TensorFlow2.0中,維度變換通常指的是改變張量(Tensor)的形狀或維度。我們來分析一下各個(gè)選項(xiàng)的功能:A.`squeeze`:這個(gè)操作用于移除張量中所有為1的維度。例如,如果一個(gè)張量的形狀是[1,2,1,3],使用`squeeze`后,其形狀可能會(huì)變成[2,3]。這明顯是一種維度變換。B.`reshape`:這個(gè)操作允許你改變張量的形狀,但總的元素?cái)?shù)量必須保持不變。103.以下哪一個(gè)選項(xiàng)不是HiQ量子計(jì)算云平臺(tái)的亮點(diǎn)?A、無需編程即可完成計(jì)算任務(wù)B、簡(jiǎn)單易用C、功能豐富D、提供豐富的教程文檔E、追求簡(jiǎn)單易用的用戶體驗(yàn)(選項(xiàng)F、以及擁有多樣化的功能以滿足不同用戶的需求(選項(xiàng)G、。而“無需編程即可完成計(jì)算任務(wù)”(選項(xiàng)H、雖然是一個(gè)理想化的特點(diǎn),但在當(dāng)前的量子計(jì)算云平臺(tái)中,由于量子計(jì)算的復(fù)雜性和專業(yè)性,通常還是需要一定的編程知識(shí)來完成計(jì)算任務(wù)。因此,選項(xiàng)C不是HiQ量子計(jì)算云平臺(tái)的亮點(diǎn),是正確答案。答案:A104.L1和L2正則化是傳統(tǒng)機(jī)器學(xué)習(xí)常用來減少泛化誤差的方法,以下關(guān)于兩者的說法正確的是:A、L1正則化可以做特征選擇B、L1和L2正則化均可做特征選擇C、L2正則化可以做特征選擇D、L1和L2正則化均不可做特征選擇答案:A解析:這道題考察的是對(duì)L1和L2正則化在機(jī)器學(xué)習(xí)中的作用的理解。L1正則化傾向于產(chǎn)生稀疏權(quán)重矩陣,即生成一個(gè)很多元素為0的權(quán)重矩陣,因此它可以用于特征選擇。而L2正則化則是傾向于分散權(quán)重向量,使其元素值較為平均,不具備特征選擇的能力。所以,選項(xiàng)A“L1正則化可以做特征選擇”是正確的。105.圖像預(yù)處理的濾波實(shí)驗(yàn)中,以下哪一個(gè)函數(shù)是調(diào)用OpenCV的中值模糊API?A、cv2.GaussianBlur(im,(5,5),0)B、cv2.blur(im,(3,3))C、v2.medianBlur(im,5)D、cv2.filter2D(im,-1,sharpen_1)答案:C解析:GaussianBlur()為高斯模糊,blur()為均值模糊,medianBlur()為中值模糊,filter2D()為卷積106.深度學(xué)習(xí)中的“深度"是指以下哪一方面?A、汁算機(jī)理解的深度B、中間網(wǎng)絡(luò)層的層數(shù)多C、計(jì)算機(jī)對(duì)問題的處理更加靈活D、汁算機(jī)的求解更加精準(zhǔn)答案:B解析:在深度學(xué)習(xí)中,“深度”主要指的是神經(jīng)網(wǎng)絡(luò)模型中中間網(wǎng)絡(luò)層的數(shù)量眾多。通過增加網(wǎng)絡(luò)層的層數(shù),可以提取更復(fù)雜和抽象的特征,從而提高模型的學(xué)習(xí)能力和表現(xiàn)效果。A選項(xiàng)計(jì)算機(jī)理解的深度并非準(zhǔn)確的定義;C選項(xiàng)計(jì)算機(jī)處理更加靈活并非“深度”的本質(zhì)含義;D選項(xiàng)計(jì)算機(jī)求解更加精準(zhǔn)也不是“深度”所指的內(nèi)容。所以,正確答案是B選項(xiàng)。107.以下哪一選項(xiàng)不是序列標(biāo)注方法?A、CRFB、MEMMC、N-GramD、HMM答案:C解析:傳統(tǒng)序列標(biāo)注方法有HMM、MEMM、CRF;基于深度學(xué)習(xí)序列標(biāo)注方法有RNN/LSTM、BiLSTM+CRF、BERT(見PPT第456頁)108.ModelArts自動(dòng)學(xué)習(xí)的使用流程是什么?A、數(shù)據(jù)標(biāo)注->模型訓(xùn)練->部署上線B、部署上線->模型訓(xùn)練->數(shù)據(jù)標(biāo)注C、數(shù)據(jù)標(biāo)注->部署上線->模型訓(xùn)練D、模型訓(xùn)練->數(shù)據(jù)標(biāo)注->部署上線答案:A解析:這道題考察的是對(duì)ModelArts自動(dòng)學(xué)習(xí)使用流程的理解。在機(jī)器學(xué)習(xí)項(xiàng)目中,通常的流程是先進(jìn)行數(shù)據(jù)標(biāo)注,以便為模型訓(xùn)練提供準(zhǔn)確的輸入;接著進(jìn)行模型訓(xùn)練,使用標(biāo)注好的數(shù)據(jù)來訓(xùn)練模型;最后進(jìn)行部署上線,將訓(xùn)練好的模型部署到實(shí)際的應(yīng)用場(chǎng)景中。因此,正確的使用流程應(yīng)該是數(shù)據(jù)標(biāo)注->模型訓(xùn)練->部署上線,選項(xiàng)D正確。109.某廠家想要生產(chǎn)一批虛擬助理以供醫(yī)院使用,而對(duì)于虛擬助理來說,聲紋識(shí)別主要涉及到以下哪一項(xiàng)技術(shù)?A、語音識(shí)別和處理技術(shù)B、圖像識(shí)別與處理技術(shù)C、專家系統(tǒng)與知識(shí)圖譜技術(shù)D、圖像生成與增強(qiáng)技術(shù)答案:A解析:這道題考察的是對(duì)虛擬助理技術(shù)領(lǐng)域的了解。聲紋識(shí)別是虛擬助理在交互過程中識(shí)別用戶聲音特征的技術(shù),它主要依賴于語音識(shí)別和處理技術(shù)。通過這項(xiàng)技術(shù),虛擬助理能夠解析和處理用戶的語音輸入,進(jìn)而實(shí)現(xiàn)與用戶的自然交互。因此,對(duì)于虛擬助理來說,聲紋識(shí)別主要涉及到的是語音識(shí)別和處理技術(shù)。110.ModelArts支持的圖片標(biāo)注類型有哪些?A、圖像分類B、物體檢測(cè)C、圖像分割D、以上都對(duì)答案:D解析:ModelArts支持圖像任務(wù)標(biāo)注包括:圖像分類、物體檢測(cè)、圖像分割111.MoXing的自動(dòng)超參搜索功能的作用是什么()A、提供手動(dòng)調(diào)參的指導(dǎo)B、在參數(shù)空間中,自動(dòng)搜索初最優(yōu)的超參C、自動(dòng)搜索初最優(yōu)的學(xué)習(xí)率D、自動(dòng)搜索初最優(yōu)的Batch_size答案:B解析:在參數(shù)空間中,自動(dòng)搜索初最優(yōu)的超參112.查看Atlas300(3000)加速卡驅(qū)動(dòng)是否安裝成功應(yīng)該使用哪條命令?-A、npusiminfoB、npuinfoC、Atlas-driverinfoD、Atlasinfo答案:A解析:為了檢查Atlas300(3000)加速卡驅(qū)動(dòng)是否安裝成功,應(yīng)該使用npusiminfo命令。這個(gè)命令可以提供有關(guān)加速卡及其驅(qū)動(dòng)程序的信息,包括驅(qū)動(dòng)程序的版本、狀態(tài)等。其他選項(xiàng)B、C、D并不適用于檢查加速卡驅(qū)動(dòng)是否安裝成功的情況。113.以下哪個(gè)選項(xiàng)不屬于自然語言處理技術(shù)的三個(gè)層面()A、語音分析B、詞法分析C、句法分析D、語義分析答案:A解析:語音分析是語音識(shí)別中的文本分析的工作114.在模型訓(xùn)練中,在哪一個(gè)階段會(huì)對(duì)損失函數(shù)進(jìn)行求導(dǎo),獲取梯度?A、正向計(jì)算B、反向傳播C、模型優(yōu)化D、網(wǎng)絡(luò)構(gòu)建答案:B解析:在模型訓(xùn)練過程中,對(duì)損失函數(shù)進(jìn)行求導(dǎo)以獲取梯度是模型優(yōu)化和參數(shù)更新的關(guān)鍵步驟。這一步驟發(fā)生在??反向傳播??階段,而不是正向計(jì)算、模型優(yōu)化或網(wǎng)絡(luò)構(gòu)建階段。具體來說,在模型訓(xùn)練過程中,首先通過網(wǎng)絡(luò)前向傳播得到模型的輸出,并使用損失函數(shù)計(jì)算預(yù)測(cè)值與真實(shí)值之間的差異(即損失)。隨后,進(jìn)入反向傳播階段,該階段通過鏈?zhǔn)椒▌t對(duì)損失函數(shù)進(jìn)行求導(dǎo),計(jì)算出損失函數(shù)相對(duì)于模型參數(shù)的梯度。這些梯度信息將用于指導(dǎo)模型參數(shù)的更新,以逐步降低損失函數(shù)的值,優(yōu)化模型的性能。因此,正確答案是B,即反向傳播階段。115.以下哪個(gè)選項(xiàng)是華為Atlas系列芯片采用的架構(gòu)?()A、馮·諾依曼B、高斯C、昇騰D、達(dá)芬奇答案:D解析:達(dá)芬奇架構(gòu),官方名字116.下列哪一項(xiàng)屬于Mindspore的網(wǎng)絡(luò)結(jié)構(gòu)算子?A、mindspore.nn.DenseB、mindspore.layer.DenseC、mindspore.nn.FCD、mindspore.layer.FC答案:A解析:MindSpore是一種深度學(xué)習(xí)框架,其網(wǎng)絡(luò)結(jié)構(gòu)算子主要指的是用于構(gòu)建神經(jīng)網(wǎng)絡(luò)的各種層和操作。在給定的選項(xiàng)中,我們需要找到屬于MindSpore框架的網(wǎng)絡(luò)結(jié)構(gòu)算子。A選項(xiàng)`mindspore.nn.Dense`通常指的是全連接層(DenseLayer),這是神經(jīng)網(wǎng)絡(luò)中常用的一種層結(jié)構(gòu),屬于MindSpore的網(wǎng)絡(luò)結(jié)構(gòu)算子。B選項(xiàng)`mindspore.layer.Dense`并不是MindSpore的標(biāo)準(zhǔn)API,可能是用戶自定義的層或者與其他庫相關(guān)的層。C和D選項(xiàng)涉及到的`FC`(FullyConnected)層,雖然也是神經(jīng)網(wǎng)絡(luò)中的常見層,但它們并不是MindSpore的直接API。因此,根據(jù)MindSpore的標(biāo)準(zhǔn)API和命名規(guī)范,正確答案是A、`mindspore.nn.Dense`。117.在ModelArts提供的功能中,在線服務(wù)屬于以下哪一項(xiàng)服務(wù)?()A、模型管理B、部署C、模型訓(xùn)練D、數(shù)據(jù)處理答案:B解析:模型準(zhǔn)備完成后,您可以將模型部署為在線服務(wù),對(duì)在線服務(wù)進(jìn)行預(yù)測(cè)和調(diào)用118.在訓(xùn)練神經(jīng)網(wǎng)絡(luò)過程中我們目的是讓損失函數(shù)不斷減少,我們常用以下哪種方法最小化損失函數(shù)?A、梯度下降B、DropoutC、交叉驗(yàn)證D、正則化答案:A解析:在訓(xùn)練神經(jīng)網(wǎng)絡(luò)時(shí),我們的主要目標(biāo)是讓損失
溫馨提示
- 1. 本站所有資源如無特殊說明,都需要本地電腦安裝OFFICE2007和PDF閱讀器。圖紙軟件為CAD,CAXA,PROE,UG,SolidWorks等.壓縮文件請(qǐng)下載最新的WinRAR軟件解壓。
- 2. 本站的文檔不包含任何第三方提供的附件圖紙等,如果需要附件,請(qǐng)聯(lián)系上傳者。文件的所有權(quán)益歸上傳用戶所有。
- 3. 本站RAR壓縮包中若帶圖紙,網(wǎng)頁內(nèi)容里面會(huì)有圖紙預(yù)覽,若沒有圖紙預(yù)覽就沒有圖紙。
- 4. 未經(jīng)權(quán)益所有人同意不得將文件中的內(nèi)容挪作商業(yè)或盈利用途。
- 5. 人人文庫網(wǎng)僅提供信息存儲(chǔ)空間,僅對(duì)用戶上傳內(nèi)容的表現(xiàn)方式做保護(hù)處理,對(duì)用戶上傳分享的文檔內(nèi)容本身不做任何修改或編輯,并不能對(duì)任何下載內(nèi)容負(fù)責(zé)。
- 6. 下載文件中如有侵權(quán)或不適當(dāng)內(nèi)容,請(qǐng)與我們聯(lián)系,我們立即糾正。
- 7. 本站不保證下載資源的準(zhǔn)確性、安全性和完整性, 同時(shí)也不承擔(dān)用戶因使用這些下載資源對(duì)自己和他人造成任何形式的傷害或損失。
最新文檔
- 家庭健康教育的中醫(yī)智慧傳承
- 高一語文教師教學(xué)工作計(jì)劃
- 超市財(cái)務(wù)個(gè)人年度工作計(jì)劃
- 家園共育現(xiàn)代家庭教育與社區(qū)資源的整合
- 印花稅與稅收公平性-洞察分析
- 醫(yī)療設(shè)備與家庭電器漏電保護(hù)的共同點(diǎn)
- 2024年小學(xué)班主任個(gè)人工作年終總結(jié)
- 助產(chǎn)士年終工作總結(jié)1
- 學(xué)校管理模式創(chuàng)新與實(shí)踐-洞察分析
- 家庭教育中的親子溝通技巧與策略報(bào)告
- 兒童社區(qū)獲得性肺炎的診斷和治療
- 中職班主任德育培訓(xùn)
- 山東省濟(jì)南市2023-2024學(xué)年高一上學(xué)期1月期末英語試題
- 物業(yè)設(shè)施設(shè)備巡查與維護(hù)
- 中科院簡(jiǎn)介介紹
- 2024年中電投內(nèi)蒙古西部新能源有限公司招聘筆試參考題庫含答案解析
- 【高中語文】《錦瑟》《書憤》課件+++統(tǒng)編版+高中語文選擇性必修中冊(cè)+
- 醫(yī)療機(jī)構(gòu)(醫(yī)院)停電和突然停電應(yīng)急預(yù)案試題及答案
- 2024年上海市高考英語模擬試卷試題答案詳解(含聽力MP3+作文范文)
- 24年海南生物會(huì)考試卷
- 國家戰(zhàn)略思維課件
評(píng)論
0/150
提交評(píng)論