2024-2025華為ICT大賽(昇騰Al賽道)高頻備考試題庫500題(含詳解)_第1頁
2024-2025華為ICT大賽(昇騰Al賽道)高頻備考試題庫500題(含詳解)_第2頁
2024-2025華為ICT大賽(昇騰Al賽道)高頻備考試題庫500題(含詳解)_第3頁
2024-2025華為ICT大賽(昇騰Al賽道)高頻備考試題庫500題(含詳解)_第4頁
2024-2025華為ICT大賽(昇騰Al賽道)高頻備考試題庫500題(含詳解)_第5頁
已閱讀5頁,還剩229頁未讀, 繼續(xù)免費(fèi)閱讀

下載本文檔

版權(quán)說明:本文檔由用戶提供并上傳,收益歸屬內(nèi)容提供方,若內(nèi)容存在侵權(quán),請進(jìn)行舉報(bào)或認(rèn)領(lǐng)

文檔簡介

PAGE2025華為ICT大賽(昇騰Al賽道)高頻備考試題庫500題(含詳解)一、單選題1.CD-DNN-HMM模型的最主要改變以下哪一點(diǎn)?()A、引入更多隱藏層B、引入DropoutC、引入全連接層D、引入上下文信息答案:D解析:DNN模型為了獲得更好的性能提升,引入了上下文信息(也就是前后特征幀信息),所以被稱為CD-DNN-HMM模型2.以下選項(xiàng)中,哪個(gè)選項(xiàng)的模型無法分割線性不可分?jǐn)?shù)據(jù)集?A、神經(jīng)網(wǎng)絡(luò)B、線性回歸C、SVMD、KNN答案:B解析:線性回歸只能對線性可分的數(shù)據(jù)集進(jìn)行建模,而無法分割線性不可分的數(shù)據(jù)集。因此,選項(xiàng)B(線性回歸)是正確。其他選項(xiàng),如神經(jīng)網(wǎng)絡(luò)、SVM和KNN,都可以用于分割線性不可分的數(shù)據(jù)集。3.HIAIEngine-ASR前置靜音檢測的默認(rèn)時(shí)間是?A、500msB、1000msC、2000msD、4000ms答案:C解析:HIAIEngine-ASR前置靜音檢測的默認(rèn)時(shí)間通常設(shè)置為2000ms,即大約2秒的時(shí)間。這個(gè)時(shí)間是為了確保在語音輸入之前有足夠的時(shí)間進(jìn)行靜音檢測,以避免誤報(bào)和漏報(bào)。因此,選項(xiàng)C是正確的。4.生成對抗網(wǎng)絡(luò)(GAN)是一種深度學(xué)習(xí)模型,以下哪一個(gè)選項(xiàng)屬于它的基本結(jié)構(gòu)?A、判別器B、感知器C、驗(yàn)證器D、對抗器答案:A解析:這道題考察的是對生成對抗網(wǎng)絡(luò)(GAN)基本結(jié)構(gòu)的理解。GAN由兩部分組成:一部分是生成模型(Generator),負(fù)責(zé)生成盡可能接近真實(shí)數(shù)據(jù)的樣本;另一部分是??判別模型(Discriminator)??,負(fù)責(zé)判斷輸入的樣本是真實(shí)的還是由生成模型生成的。因此,屬于GAN基本結(jié)構(gòu)的是??判別器??,對應(yīng)選項(xiàng)D。5.關(guān)于深度學(xué)習(xí)的描述中,以下哪一項(xiàng)是錯(cuò)誤的?A、在大部分情況下,網(wǎng)絡(luò)在高維的權(quán)重海量的訓(xùn)練數(shù)據(jù)下可以獲得高性能B、利用算法自動(dòng)提取特征C、特征可解釋性強(qiáng)D、“端到端”的學(xué)習(xí)答案:C解析:這道題考察對深度學(xué)習(xí)特性的理解。深度學(xué)習(xí)模型確實(shí)能在高維權(quán)重和海量訓(xùn)練數(shù)據(jù)下獲得高性能,這是其一大優(yōu)勢,所以A選項(xiàng)正確。深度學(xué)習(xí)通過算法自動(dòng)提取特征,無需人工干預(yù),B選項(xiàng)也正確。深度學(xué)習(xí)模型通常是“端到端”的學(xué)習(xí),即從原始數(shù)據(jù)直接學(xué)習(xí)到最終任務(wù)目標(biāo),D選項(xiàng)描述準(zhǔn)確。然而,深度學(xué)習(xí)模型的特征可解釋性通常較弱,因?yàn)樗鼈兪峭ㄟ^復(fù)雜的非線性變換自動(dòng)學(xué)習(xí)到的,所以C選項(xiàng)是錯(cuò)誤的。6.在華為云EI中,以下哪項(xiàng)可以將AI技術(shù)融入各行各業(yè)的應(yīng)用場景中,發(fā)揮AI技術(shù)的優(yōu)勢,從而提高效率,提升體驗(yàn)。A、EI智能體B、OBS對象存儲(chǔ)服務(wù)C、云數(shù)據(jù)庫D、EI大數(shù)據(jù)服務(wù)答案:A解析:華為云E中的EI智能體可以將AI技術(shù)融入各行各業(yè)的應(yīng)用場景中,通過提供智能化的解決方案,發(fā)揮AI技術(shù)的優(yōu)勢,從而提高效率,提升用戶體驗(yàn)。其他選項(xiàng)如OBS對象存儲(chǔ)服務(wù)、云數(shù)據(jù)庫和EI大數(shù)據(jù)服務(wù)雖然也是華為云E中的重要服務(wù),但它們主要是提供數(shù)據(jù)存儲(chǔ)、管理和分析的工具,與AI技術(shù)的融合應(yīng)用相比,其作用和影響力相對較小。因此,答案是A。7.下列駕一項(xiàng)是張量[[(0,1)(2,3)],[(4,5)(6,7)]]的正確形狀?A、[2,3,4]B、[2,2,2]C、[3,2,2]D、[3,2,4]答案:B解析:這道題考察的是對張量形狀的理解。張量的形狀描述了其各個(gè)維度上的大小。給定的張量[[(0,1)(2,3)],[(4,5)(6,7)]]是一個(gè)二維數(shù)組,其中每個(gè)元素又是一個(gè)包含兩個(gè)元素的一維數(shù)組。因此,它的形狀應(yīng)該是[2,2,2],即2個(gè)2x2的矩陣。所以正確答案是B。8.逆光拍照時(shí),人臉比較暗,使用伽馬矯正對圖像進(jìn)行增強(qiáng)達(dá)到逆光也清晰的效果,γ的取值可以選擇哪個(gè)?A、0B、0.5C、1D、2答案:B解析:在逆光拍照時(shí),為了增強(qiáng)人臉的亮度,可以使用伽馬矯正來調(diào)整圖像的亮度。伽馬矯正是一種圖像處理技術(shù),用于調(diào)整圖像的伽馬值,以改變圖像的亮度。在題目所給的選項(xiàng)中,伽馬值可以選擇為0.5。這是因?yàn)?,伽馬值的大小直接影響圖像的亮度和對比度,適當(dāng)?shù)馁ゑR值可以使圖像更加清晰和自然。因此,答案是C,即伽馬值為0.5。9.以下哪個(gè)選項(xiàng)不屬于異騰AI處理器中AICore的基礎(chǔ)計(jì)算資源?A、向量計(jì)算單元B、張量計(jì)算單元C、矩陣計(jì)算單元D、標(biāo)量計(jì)算單元答案:B解析:這道題考察的是對昇騰AI處理器中AICore基礎(chǔ)計(jì)算資源的了解。在昇騰AI處理器架構(gòu)中,AICore包含了多種計(jì)算單元以支持不同的計(jì)算需求。其中,向量計(jì)算單元、矩陣計(jì)算單元和標(biāo)量計(jì)算單元都是其基礎(chǔ)計(jì)算資源,它們分別用于處理向量、矩陣和標(biāo)量數(shù)據(jù)。而張量計(jì)算雖然在AI領(lǐng)域廣泛應(yīng)用,但在昇騰AI處理器的AICore架構(gòu)中,并不直接作為基礎(chǔ)計(jì)算單元出現(xiàn),而是通過其他計(jì)算單元的組合和優(yōu)化來實(shí)現(xiàn)張量計(jì)算的功能。因此,選項(xiàng)B“張量計(jì)算單元”是不屬于昇騰AI處理器中AICore的基礎(chǔ)計(jì)算資源的。10.關(guān)于人工智能和機(jī)器學(xué)習(xí)的關(guān)系,以下說法正確的是哪一項(xiàng)?A、機(jī)器學(xué)習(xí)可以應(yīng)用統(tǒng)計(jì)學(xué)的知識(shí)進(jìn)行分析、B、所有機(jī)器學(xué)習(xí)算法都涉及到非常多的人工神經(jīng)網(wǎng)絡(luò)C、所有的機(jī)器學(xué)習(xí)都是在模仿人腦的機(jī)制來解釋數(shù)據(jù),例如圖像,聲音和文本、D、深度學(xué)習(xí)包含機(jī)器學(xué)習(xí)、機(jī)器學(xué)習(xí)是深度學(xué)習(xí)的一個(gè)特例。答案:A解析:人工智能和機(jī)器學(xué)習(xí)是兩個(gè)密切相關(guān)的領(lǐng)域,它們都是通過計(jì)算機(jī)程序和算法來模擬人類的智能行為。機(jī)器學(xué)習(xí)是人工智能的一個(gè)子領(lǐng)域,它主要關(guān)注如何通過算法和數(shù)據(jù)來訓(xùn)練計(jì)算機(jī)程序,使其能夠自主地學(xué)習(xí)和改進(jìn),從而更好地完成特定任務(wù)。機(jī)器學(xué)習(xí)算法中,有些涉及到人工神經(jīng)網(wǎng)絡(luò),但并不是所有機(jī)器學(xué)習(xí)算法都涉及到人工神經(jīng)網(wǎng)絡(luò)。機(jī)器學(xué)習(xí)并不一定是在模仿人腦的機(jī)制來解釋數(shù)據(jù),它可以使用各種不同的算法和技術(shù)來處理不同類型的數(shù)據(jù)。深度學(xué)習(xí)是機(jī)器學(xué)習(xí)的一個(gè)分支,它使用更深層次的神經(jīng)網(wǎng)絡(luò)來進(jìn)行學(xué)習(xí)和預(yù)測,但機(jī)器學(xué)習(xí)并不是深度學(xué)習(xí)的一個(gè)特例。因此,選項(xiàng)B和C都不完全正確。而選項(xiàng)D雖然正確,但這不是問題的重點(diǎn)。因此,答案是A,機(jī)器學(xué)習(xí)可以應(yīng)用統(tǒng)計(jì)學(xué)的知識(shí)進(jìn)行分析。11.華為深度學(xué)習(xí)框架MindSpore的亮點(diǎn)有()A、通過實(shí)現(xiàn)Al算法即代碼,使開發(fā)態(tài)變得更加友好,顯著減少模型開發(fā)時(shí)間,降低了模型開發(fā)門檻。B、通過MindSpore自身的技術(shù)創(chuàng)新及MindSpore與Ascend處理器協(xié)同優(yōu)化,實(shí)現(xiàn)了運(yùn)行態(tài)的高效,大大提高了計(jì)算性能。C、原生適應(yīng)每個(gè)場景包括端,邊緣和云,并能夠按需協(xié)同,部署態(tài)靈活。D、以上皆是答案:D解析:這道題考察的是對華為深度學(xué)習(xí)框架MindSpore亮點(diǎn)的理解。根據(jù)MindSpore的官方介紹和特性,我們可以知道:?MindSpore通過實(shí)現(xiàn)AI算法即代碼,確實(shí)使開發(fā)態(tài)變得更加友好,顯著減少了模型開發(fā)時(shí)間,降低了模型開發(fā)門檻。?MindSpore通過自身的技術(shù)創(chuàng)新以及與Ascend處理器的協(xié)同優(yōu)化,實(shí)現(xiàn)了運(yùn)行態(tài)的高效,大大提高了計(jì)算性能。?MindSpore原生適應(yīng)每個(gè)場景,包括端、邊緣和云,并能夠按需協(xié)同,部署態(tài)靈活。綜上所述,選項(xiàng)A、B、C都是MindSpore的亮點(diǎn),所以答案是D,“以上皆是”。12.在調(diào)用語音合成服務(wù)時(shí),需要提前設(shè)置一些參數(shù)值,下列哪個(gè)范圍的值可以作為音量值?A、[-1000,1000]B、[0,100]C、[0,1000]D、[-100,100]答案:B解析:這道題考察的是對語音合成服務(wù)中音量值設(shè)置的理解。在調(diào)用語音合成服務(wù)時(shí),音量是一個(gè)重要的參數(shù),它決定了輸出音頻的響度。音量值通常被設(shè)定在一個(gè)合理的范圍內(nèi),以確保音頻的輸出效果。根據(jù)常見的編程實(shí)踐和API文檔,音量值往往被設(shè)定在0到100之間,其中0表示靜音,100表示最大音量。因此,選項(xiàng)A[0,100]是正確的音量值范圍。13.人工智能是指下列哪一項(xiàng)的智能?A、自然智能B、通用智能C、機(jī)器智能D、人的智能答案:C解析:這道題考察的是對“人工智能”定義的理解。人工智能,簡稱AI,其核心在于模仿、延伸和擴(kuò)展人的智能。它并非指通用智能、自然智能或機(jī)器本身固有的智能,而是特指對人的智能進(jìn)行模擬和擴(kuò)展的技術(shù)和應(yīng)用。因此,正確答案是B,即人工智能是指“人的智能”。14.取20度為一個(gè)區(qū)間統(tǒng)計(jì)一個(gè)call的HOG特征,對稱的角度歸為一類,這個(gè)cell特征長度為?A、10B、7C、8D、9答案:D解析:這道題考察的是對HOG(HistogramofOrientedGradients,方向梯度直方圖)特征的理解。HOG特征通常用于圖像處理和計(jì)算機(jī)視覺領(lǐng)域,特別是在對象檢測中。題目中提到“取20度為一個(gè)區(qū)間統(tǒng)計(jì)”,意味著360度被分成了18個(gè)區(qū)間(360/20=18)。但題目又指出“對稱的角度歸為一類”,即對稱的區(qū)間合并,那么18個(gè)區(qū)間將合并成9個(gè)(因?yàn)閷ΨQ的區(qū)間會(huì)合并成一個(gè))。所以,這個(gè)cell的特征長度是9。15.通過圖像算法,對一副普通手機(jī)拍攝照片的人物前景和背景進(jìn)行分割,再對()部分做()操作,可實(shí)現(xiàn)如同單反相機(jī)的虛化效果()A、背景,中值濾波B、背景,均值濾波C、前景,均值濾波D、前景,中值濾波答案:B解析:虛化背景,所以只能在AB中選擇。均值濾波模糊的圖像更均勻,中指濾波主要用于小噪點(diǎn)處理16.在深度學(xué)習(xí)神經(jīng)網(wǎng)絡(luò)中,感知器是最簡單的神經(jīng)網(wǎng)絡(luò),關(guān)于其結(jié)構(gòu)說法正確的是:A、其隱含層只有兩層B、其隱含層只有一層C、其網(wǎng)絡(luò)中使用的是Sigmoid激活函數(shù)D、其網(wǎng)絡(luò)中使用的是Relu激活函數(shù)答案:B解析:這道題考察的是深度學(xué)習(xí)神經(jīng)網(wǎng)絡(luò)中感知器的結(jié)構(gòu)特點(diǎn)。感知器作為最簡單的神經(jīng)網(wǎng)絡(luò),其結(jié)構(gòu)特點(diǎn)包括沒有隱含層或僅含有一層隱含層。根據(jù)這一點(diǎn),我們可以判斷選項(xiàng)A錯(cuò)誤,因?yàn)樗岬诫[含層有兩層。選項(xiàng)B正確,因?yàn)樗细兄骺赡苤挥幸粚与[含層或沒有隱含層的特點(diǎn)。至于選項(xiàng)C和D,它們涉及到激活函數(shù)的使用。然而,感知器并不特定于使用Sigmoid或ReLU激活函數(shù),這兩種激活函數(shù)是現(xiàn)代神經(jīng)網(wǎng)絡(luò)中常用的,但不是感知器的定義特征。因此,C和D選項(xiàng)都不能作為正確答案。17.以下哪個(gè)選項(xiàng)是自動(dòng)計(jì)算梯度的方法。A、自動(dòng)微分B、多元函數(shù)微分C、數(shù)值微分D、符號(hào)微分答案:A解析:在機(jī)器學(xué)習(xí)和深度學(xué)習(xí)中,自動(dòng)微分是一種自動(dòng)計(jì)算梯度的方法。當(dāng)需要計(jì)算一個(gè)函數(shù)的梯度時(shí),自動(dòng)微分能夠自動(dòng)地根據(jù)輸入的變化來計(jì)算梯度,從而避免了手動(dòng)計(jì)算梯度的繁瑣過程。因此,選項(xiàng)A是正確的。18.以下關(guān)于昇騰AI軟件棧中任務(wù)調(diào)度器的描述,正確的是哪一個(gè)選項(xiàng)?A、負(fù)責(zé)完成神經(jīng)網(wǎng)絡(luò)在昇騰AI芯片上的落地與實(shí)現(xiàn),統(tǒng)籌了整個(gè)神經(jīng)網(wǎng)絡(luò)生效的過程,控制離線模型的加載和執(zhí)行過程.B、為神經(jīng)網(wǎng)絡(luò)的任務(wù)下發(fā)和分配提供了各種資源管理通道。C、可對輸入的數(shù)據(jù)進(jìn)行處理與修飾。D、為異騰AI芯片提供具體的目標(biāo)任務(wù)。答案:D解析:在昇騰AI軟件棧中,任務(wù)調(diào)度器的主要職責(zé)是為昇騰AI芯片提供具體的目標(biāo)任務(wù),以確保芯片能夠正確、高效地執(zhí)行預(yù)期的計(jì)算任務(wù)。它并不直接負(fù)責(zé)神經(jīng)網(wǎng)絡(luò)的實(shí)現(xiàn)、加載和執(zhí)行過程(這是模型加載器和執(zhí)行器的工作),也不專注于資源管理的通道提供(這是資源管理器的職責(zé)),更不是對數(shù)據(jù)進(jìn)行處理與修飾的模塊。因此,選項(xiàng)D正確描述了任務(wù)調(diào)度器的作用。19.以下關(guān)于分詞說法不正確的是?()A、基于規(guī)則的分詞簡單高效,但是詞典維護(hù)困難。B、統(tǒng)計(jì)分詞的目的就是對分詞結(jié)果進(jìn)行概率計(jì)算,獲得概率最大的分詞方式。C、中文不同于英文自然分詞,中文分詞是文本處理的一個(gè)基礎(chǔ)步驟。分詞性能的好壞直接影響比如詞性、句法樹等其他模塊的性能。D、在實(shí)際工程應(yīng)用中,分詞一般只采用一種分詞方法。答案:D解析:規(guī)則分詞:是一種機(jī)械分詞方法,主要是通過維護(hù)字典,在切分語句時(shí),將語句中的每個(gè)字符串與詞表中的詞進(jìn)行逐一匹配,找到則切分,否則不予切分,按照匹配切分的方式主要有正向最大匹配法、逆向最大匹配法、雙向最大匹配法。特點(diǎn):簡單高效,詞典維護(hù)困難。統(tǒng)計(jì)分詞:概率,如果相連的字在不同的文本中出現(xiàn)的次數(shù)越多,就證明這相連的字很可能就是一個(gè)詞。深度學(xué)習(xí)分詞:使用word2vec對語料的詞進(jìn)行嵌入,得到詞嵌入后,用詞嵌入特征輸入給雙向LSTM,對輸出的隱層加一個(gè)線性層,然后加一個(gè)CRF得到最終實(shí)現(xiàn)的模型。混合分詞:在實(shí)際工程應(yīng)用中,多是基于一種分詞算法,然后用其他分詞算法加以輔助20.以下哪個(gè)激活函數(shù)可以很好的解決梯度消失問題?A、TanhB、softsignC、ReluD、Sigmoid答案:C解析:這道題考察的是對激活函數(shù)特性的理解。梯度消失是深度學(xué)習(xí)中常見的問題,特別是在使用Sigmoid或Tanh這類飽和激活函數(shù)時(shí)。Relu函數(shù)(RectifiedLinearUnit)由于其非飽和性,在正數(shù)部分梯度恒為1,因此可以有效緩解梯度消失問題。而Sigmoid和Tanh函數(shù)在輸入值較大或較小時(shí),梯度接近于0,容易導(dǎo)致梯度消失。softsign函數(shù)雖然形狀與Tanh相似,但其梯度消失問題并未得到很好的解決。因此,選擇C(Relu)作為答案。21.Softmax函數(shù)主要用于什么層?()A、輸入層B、隱藏層C、輸出層答案:C解析:神經(jīng)網(wǎng)絡(luò)最后一層,輸出層一般會(huì)使用sotfmax。多分類函數(shù)22.坐標(biāo)為(21,13)和坐標(biāo)為(22,12)的兩個(gè)像素在空間上存在什么鄰接關(guān)系?A、不存在鄰接關(guān)系B、對角鄰接C、8-鄰接D、4-鄰接答案:B解析:對角鄰接,對角鄰接和4連接共同構(gòu)成8連接23.Cell提供了定義執(zhí)行計(jì)算的基本模塊,Cell的對象可以直接執(zhí)行,以下說法有誤的是?A、還有一些optim常用優(yōu)化器、wrap常用網(wǎng)絡(luò)包裝函數(shù)等預(yù)定CellB、coststruct,定義執(zhí)行的過程。圖模式時(shí),會(huì)被編譯成圖來執(zhí)行,沒有語法限制C、bprop(可選),自定義模塊的反向_init_.初始化參數(shù)(Parameter),子模塊D、(Cell),算子(Primitive)等組件,進(jìn)行初始化的校驗(yàn)答案:B解析:這道題考察的是對深度學(xué)習(xí)框架中Cell對象的理解。Cell是深度學(xué)習(xí)框架中定義執(zhí)行計(jì)算的基本模塊,它包含了多種組件和功能。A選項(xiàng)提到的optim常用優(yōu)化器、wrap常用網(wǎng)絡(luò)包裝函數(shù)等預(yù)定Cell,這是正確的,因?yàn)檫@些是Cell中常用的組件。B選項(xiàng)說“coststruct,定義執(zhí)行的過程。圖模式時(shí),會(huì)被編譯成圖來執(zhí)行,沒有語法限制”,這是有誤的。實(shí)際上,coststruct并不是定義執(zhí)行過程的,而是用于定義損失函數(shù)的結(jié)構(gòu)。而且,在圖模式下執(zhí)行時(shí),是有語法限制的,需要遵循框架的語法規(guī)則。C選項(xiàng)提到的bprop是自定義模塊的反向傳播函數(shù),用于初始化參數(shù)和子模塊,這是正確的。D選項(xiàng)提到的(Cell),算子(Primitive)等組件,進(jìn)行初始化的校驗(yàn),這也是正確的,因?yàn)檫@些是Cell對象在初始化時(shí)需要進(jìn)行校驗(yàn)的組件。綜上所述,B選項(xiàng)的說法有誤。24.以下常見分布中,哪一項(xiàng)是一般認(rèn)為的線性回歸中的誤差服從的分布A、指數(shù)分布B、伯努利分布C、正態(tài)分布D、泊松分布答案:C解析:線性回歸模型的一個(gè)基本假設(shè)是誤差項(xiàng)服從正態(tài)分布。這是因?yàn)檎龖B(tài)分布具有許多便于數(shù)學(xué)處理的性質(zhì),如對稱性、可加性等,使得線性回歸模型的參數(shù)估計(jì)和假設(shè)檢驗(yàn)變得簡單可行。指數(shù)分布常用于描述等待時(shí)間或生存時(shí)間等數(shù)據(jù),伯努利分布用于描述只有兩種可能結(jié)果的隨機(jī)試驗(yàn),泊松分布則常用于描述單位時(shí)間內(nèi)發(fā)生某事件的次數(shù)。因此,對于這道題目,正確答案是C,即正態(tài)分布。25.自拍時(shí),手機(jī)前置鏡頭顯示的畫面需要通過哪個(gè)變換后才能是真實(shí)的場景圖像?A、垂直鏡像B、水平鏡像C、旋轉(zhuǎn)D、平移答案:B解析:手機(jī)的前置攝像頭就好像是一面鏡子,自拍時(shí)顯示的圖像就好像是你在照鏡子一樣,方向跟前置攝像頭的拍攝方向是相反的,所以自拍時(shí)會(huì)顯示左右反過來的圖像。26.以下哪一項(xiàng)是語音識(shí)別的簡稱?()A、TTSB、ASRC、STTD、AST答案:B解析:SSP(SpeechSignalProcessing,語音信號(hào)處理,簡稱語音處理)ASR(Automaticspeechrecognition,自動(dòng)語音識(shí)別)27.John在開發(fā)一個(gè)昇騰推理應(yīng)用,需要在一個(gè)Stream中代碼執(zhí)行完成之后另一個(gè)Stream才能開始執(zhí)行代碼關(guān)于整體代碼編寫,以下哪種說法是正確的?A、可以使用Event模塊同步不同Stream之間的任務(wù)。B、AscendCL不支持不同Stream中的信息同步。C、可以使用Context模塊同步不同Stream之間的任務(wù)。D、可以在一個(gè)Stream中創(chuàng)建一個(gè)子Stream來完成這種操作。答案:A解析:Context作為一個(gè)容器,管理了所有對象(包括Stream、Event、設(shè)備內(nèi)存等)的生命周期。不同Context的Stream、不同Context的Event是完全隔離的,無法建立同步等待關(guān)系。Stream用于維護(hù)一些異步操作的執(zhí)行順序,確保按照應(yīng)用程序中的代碼調(diào)用順序在Device上執(zhí)行。Event支持調(diào)用AscendCL接口同步Stream之間的任務(wù),包括同步Host與Device之間的任務(wù)、Device與Device[間的任務(wù)。28.以下哪一項(xiàng)是代碼mox.file.exists('obs://bucket_name/test01')執(zhí)行的操作?A、創(chuàng)建一個(gè)文件夾B、讀取一個(gè)OBS上的文件C、列舉—個(gè)OBS路徑D、檢查文件夾是否存在答案:D解析:mox.file.exists是檢查文件或目錄是否存在更多文件操作詳見:/moxing-devg-modelarts/modelarts_11_0005.html更多文件操作詳見:/moxing-devg-modelarts/modelarts_11_0004.html29.我們可以利用以下哪種方法實(shí)現(xiàn)反向傳播?()A、計(jì)算圖B、鏈?zhǔn)椒▌tC、代價(jià)函數(shù)D、高階微分答案:B解析:反向傳播算法的實(shí)現(xiàn)方法是基于鏈?zhǔn)椒▌t的。在神經(jīng)網(wǎng)絡(luò)中,輸入輸出和權(quán)重值之間的關(guān)系需要通過一系列的神經(jīng)元和節(jié)點(diǎn)進(jìn)行傳遞,而鏈?zhǔn)椒▌t能夠逐層計(jì)算每對節(jié)點(diǎn)之間的輸出誤差,從而實(shí)現(xiàn)反向傳播。因此,選項(xiàng)B是正確的。30.以下哪個(gè)激活函數(shù)可以很好的緩解梯度消失問題?A、SigmoidB、TanhC、SoftsignD、Relu答案:D解析:這道題考察的是對激活函數(shù)特性的理解。在深度學(xué)習(xí)中,激活函數(shù)的選擇對模型的訓(xùn)練效果有很大影響。梯度消失是一個(gè)常見問題,它會(huì)導(dǎo)致網(wǎng)絡(luò)在訓(xùn)練過程中權(quán)重更新緩慢或停止。ReLU(RectifiedLinearUnit)激活函數(shù)在正數(shù)部分保持梯度為1,這有助于緩解梯度消失問題,因?yàn)樗试S梯度在反向傳播時(shí)保持不變,從而有助于保持網(wǎng)絡(luò)的學(xué)習(xí)能力。因此,ReLU是一個(gè)很好的選擇來緩解梯度消失問題。31.MindSpore中的nn.cell提供了定義執(zhí)行計(jì)算的基本模塊,cell的對象可以直接執(zhí)行以下說法有誤的是?A、還有一些optim常用優(yōu)化器,wrap常用網(wǎng)絡(luò)包裝函數(shù)等與定義cellB、Coststruct,定義執(zhí)行的過程,圖模式時(shí),會(huì)被編譯成圖來執(zhí)行,沒有語法限制,C、Bprop(可選)自定義模塊的方向D、__init__,初始化參數(shù)(parameter),子模塊(cell),算子(Primitive)等組件,進(jìn)行初始化的校驗(yàn)。答案:B解析:在MindSpore中,nn.cell提供了定義執(zhí)行計(jì)算的基本模塊,它可以與一些優(yōu)化器、網(wǎng)絡(luò)包裝函數(shù)等一起使用。在圖模式中,cell會(huì)被編譯成圖來執(zhí)行,沒有語法限制。而選項(xiàng)B中提到的Coststruct并不是cell對象執(zhí)行過程中的一部分,因此選項(xiàng)B的說法是錯(cuò)誤的。其他選項(xiàng)中的內(nèi)容都是cell對象執(zhí)行過程中的一部分,因此選項(xiàng)A、C、D都是正確的。32.以下關(guān)于分析說法不正確的是?A、基于規(guī)則的分詞簡單高效,,但是詞典維護(hù)困難B、在實(shí)際工程應(yīng)用中,分詞一般只采用一種分詞方法福C、中文不同于英文自然分詞,中文分詞是文本處理的一個(gè)基礎(chǔ)步驟。分詞性能的好壞直接影響比如詞性、句法等其他模塊的性能D、統(tǒng)計(jì)分詞的目的就是對分詞結(jié)果進(jìn)行概率計(jì)算,獲得概率最大的分詞方式答案:B解析:在實(shí)際工程應(yīng)用中,分詞通常采用多種分詞方法,以適應(yīng)不同的文本和場景。然而,B選項(xiàng)中的“分詞一般只采用一種分詞方法”是不正確的。其他選項(xiàng)如A、C、D都與分詞的特點(diǎn)和重要性相關(guān),是正確的。33.以下哪一項(xiàng)不屬于華為云EI自然語言處理服務(wù)提供的意圖理解API所支持的領(lǐng)域?A、音樂類B、鬧鐘類C、笑話類D、娛樂類答案:D解析:華為云EI自然語言處理服務(wù)提供的意圖理解API支持的領(lǐng)域包括音樂類、鬧鐘類和笑話類等。因此,不屬于該API支持的領(lǐng)域的選項(xiàng)是D,即娛樂類。34.梯度下降算法中,損失函數(shù)曲面上軌跡最混亂的算法是以下哪種算法?A、SGDB、GDC、MGDD、MBGD答案:A解析:在梯度下降算法中,不同的算法對應(yīng)著損失函數(shù)曲面上不同的軌跡特性。SGD(隨機(jī)梯度下降)由于其每次更新只隨機(jī)選取一個(gè)樣本來計(jì)算梯度,導(dǎo)致梯度方向的變化較大,因此軌跡相對較為混亂。相比之下,BGD(批量梯度下降)使用全部數(shù)據(jù)來計(jì)算梯度,每次更新的方向更加穩(wěn)定。MGD并不是一個(gè)標(biāo)準(zhǔn)的梯度下降算法名稱,可能是對某種特定變體或誤解的表述。MBGD(小批量梯度下降)則是每次更新使用一小批數(shù)據(jù),其軌跡介于SGD和BGD之間。因此,軌跡最混亂的算法是SGD,即選項(xiàng)A。35.在坐標(biāo)變化時(shí),我們可以使用以下哪種方法得到像素點(diǎn)的整數(shù)值?()A、采樣B、均值C、量化D、插值答案:C解析:采樣:將空間上連續(xù)的圖像變換成離散點(diǎn)的操作稱為采樣。量化:經(jīng)采樣圖像被分割成空間上離散的像素,但其灰度是連續(xù)的,還不能用計(jì)算機(jī)進(jìn)行處理,所以需要量化操作將灰度轉(zhuǎn)換成離散的整數(shù)值。插值:坐標(biāo)變化后得到的坐標(biāo)不一定是整數(shù),非整數(shù)坐標(biāo)處的像素值需要用周圍的整數(shù)坐標(biāo)的像素值來進(jìn)行計(jì)算。36.反向傳播算法是神經(jīng)網(wǎng)絡(luò)更新參數(shù)的重要方法,反向傳播算法借助于以下哪個(gè)計(jì)算方法得以實(shí)現(xiàn)。()A、計(jì)算圖B、高階微分C、代價(jià)函數(shù)D、鏈?zhǔn)椒▌t答案:D解析:鏈?zhǔn)角髮?dǎo)方法37.以下哪個(gè)不是LSTM中cell的門?A、輸入門B、遺忘門C、記憶門D、輸出門答案:C解析:LSTM(長短期記憶網(wǎng)絡(luò))是一種特殊的RNN(遞歸神經(jīng)網(wǎng)絡(luò))結(jié)構(gòu),用于解決傳統(tǒng)RNN在處理長序列數(shù)據(jù)時(shí)出現(xiàn)的梯度消失或梯度爆炸問題。LSTM的核心是其cell結(jié)構(gòu),它包含三個(gè)主要的“門”來控制信息的流動(dòng):輸入門、遺忘門和輸出門。?輸入門控制新信息流入cell的程度。?遺忘門決定哪些信息應(yīng)該被遺忘,即從cell狀態(tài)中去除。?輸出門控制cell狀態(tài)中有多少信息應(yīng)該被輸出。“記憶門”不是LSTMcell中的一個(gè)標(biāo)準(zhǔn)組成部分。因此,根據(jù)LSTM的定義和結(jié)構(gòu),選項(xiàng)C“記憶門”是不正確的,答案是C。38.Mindspore深度學(xué)習(xí)框架專門用于圖像增強(qiáng)的是以下哪一個(gè)模塊?A、mindspore.numpyB、mindspore.nnC、mindspore.opsD、mindspore.dataset.vision答案:D解析:MindSpore是一款全場景深度學(xué)習(xí)框架,其中集成了多種用于深度學(xué)習(xí)和數(shù)據(jù)處理的功能模塊。其中,`mindspore.dataset.vision`是用于圖像和視頻數(shù)據(jù)增強(qiáng)的模塊。因此,當(dāng)用戶問到“MindSpore深度學(xué)習(xí)框架專門用于圖像增強(qiáng)的是以下哪一個(gè)模塊”時(shí),正確是D.mindspore.dataset.vision。39.語音識(shí)別的難度有?()A、個(gè)人特征因素B、場景因素C、地域因素D、以上都是答案:D解析:全選40.神經(jīng)網(wǎng)絡(luò)語言模型中,網(wǎng)絡(luò)輸出層采用的激活函數(shù)是什么?A、TanhB、ReLUC、SigmoidD、Softmax答案:D解析:在神經(jīng)網(wǎng)絡(luò)語言模型中,特別是在處理文本生成或分類任務(wù)時(shí),網(wǎng)絡(luò)輸出層通常采用Softmax激活函數(shù)。Softmax函數(shù)能夠?qū)⒛P偷妮敵鲛D(zhuǎn)化為概率分布,這對于生成離散的文本序列(如單詞)或選擇分類標(biāo)簽特別有用。?Tanh和Sigmoid函數(shù)通常用于隱藏層,因?yàn)樗鼈兛梢詫⑤斎胫祲嚎s到[-1,1]或[0,1]的范圍內(nèi),但不適合用于輸出層,因?yàn)樗鼈儾荒墚a(chǎn)生真正的概率分布。?ReLU(RectifiedLinearUnit)函數(shù)也常用于隱藏層,因?yàn)樗谳斎霝檎龝r(shí)保持輸入值不變,而在輸入為負(fù)時(shí)輸出零,有助于引入稀疏性。因此,在神經(jīng)網(wǎng)絡(luò)語言模型中,網(wǎng)絡(luò)輸出層采用的激活函數(shù)是Softmax,所以正確答案是D。41.以下哪個(gè)不是MindSpore核心架構(gòu)的特點(diǎn)?A、自動(dòng)并行B、自動(dòng)調(diào)優(yōu)C、自動(dòng)編碼D、自動(dòng)微分答案:C解析:MindSpore是一款面向全場景深度學(xué)習(xí)框架,其核心架構(gòu)特點(diǎn)主要圍繞自動(dòng)化和高效性展開。具體來說,自動(dòng)并行(A)能夠提升模型訓(xùn)練速度,通過并行計(jì)算減少時(shí)間成本;自動(dòng)調(diào)優(yōu)(B)則是優(yōu)化模型性能,減少人為調(diào)試的時(shí)間和精力;自動(dòng)微分(D)是深度學(xué)習(xí)中的關(guān)鍵技術(shù),用于自動(dòng)計(jì)算梯度,支持高效的模型訓(xùn)練。而自動(dòng)編碼(C)并不屬于MindSpore核心架構(gòu)的特點(diǎn),它更多是指代碼自動(dòng)生成或編寫,與MindSpore的核心功能和優(yōu)化目標(biāo)不直接相關(guān)。因此,答案是C。42.以下哪一項(xiàng)是在標(biāo)準(zhǔn)RNN結(jié)構(gòu)中的隱藏層中使用的激活函數(shù)?A、RaLUB、tanhC、SoftmaxD、Sigmoid答案:B解析:在標(biāo)準(zhǔn)的循環(huán)神經(jīng)網(wǎng)絡(luò)(RNN)結(jié)構(gòu)中,隱藏層通常使用激活函數(shù)來增加模型的非線性性質(zhì)和表示能力。其中,tanh函數(shù)是一個(gè)常用的激活函數(shù),用于處理二值輸入的輸出層或者隱藏層,使模型在某些特定任務(wù)中表現(xiàn)出色。因此,選項(xiàng)B“tanh”是正確的。43.FrommindsporeimportopsOnespke=ops.OnesLikeX=Tensor(np.array(123.[123.[0,1].123.[2.1]]).astype(32))Oneput=onespke(x)A、創(chuàng)建一個(gè)2?2的張量output,其中每一個(gè)元素值都為1B、創(chuàng)建一個(gè)2?2的張量output,其中元素的值為0,1,2,1C、創(chuàng)建一個(gè)2?2的張量output,其中每個(gè)元素的值隨機(jī)確定D、創(chuàng)建一個(gè)2?1的張量值從123.[0,1]和123.[2,1]中隨機(jī)挑選答案:A解析:老師給的答案是B。有大神驗(yàn)證完是A。如果不會(huì)已A答案為主。44.John自己編寫了一個(gè)人工智能計(jì)算框架,其中部分算子不適配昇騰芯片,則John需要如何操作來解決這個(gè)問題?A、通過CANN(ComputeArchitectureforneuralnetwork)中的已有算子進(jìn)行適配。B、通過適配層,完成不同框架的圖到FE(FusionEngine)lRGraph的轉(zhuǎn)換。C、通過TBE(TensorBoostEngine),完成不同框架的算子到昇騰算子的映射。D、通過ATC(AscendTensorCompiler)完成算子轉(zhuǎn)換。答案:C解析:John需要通過TBE(TensorBoostEngine)完成不同框架的算子到昇騰算子的映射,以解決算子不適配昇騰芯片的問題。這是因?yàn)門BE是華為Ascend(昇騰)系列芯片的配套工具,能夠?qū)⒉煌蚣艿乃阕舆m配到昇騰芯片上,從而實(shí)現(xiàn)高效的計(jì)算和推理。其他選項(xiàng)如CANN、適配層、ATC等,雖然在某些情況下可能有用,但它們并不是針對昇騰芯片的專門工具。45.在達(dá)芬奇架構(gòu)中關(guān)于矩陣計(jì)算,以下哪個(gè)選項(xiàng)和矩陣計(jì)算單元主要完成矩陣相關(guān)運(yùn)算?A、寄存器B、累加器C、運(yùn)算器D、控制器答案:B解析:這道題考察的是對達(dá)芬奇架構(gòu)中矩陣計(jì)算單元的理解。在達(dá)芬奇架構(gòu)中,矩陣計(jì)算單元是專門用于處理矩陣相關(guān)運(yùn)算的。根據(jù)架構(gòu)的設(shè)計(jì),矩陣計(jì)算單元主要依賴?yán)奂悠鱽硗瓿删仃嚨倪\(yùn)算任務(wù)。運(yùn)算器雖然也參與計(jì)算,但不是特指矩陣運(yùn)算;寄存器用于存儲(chǔ)數(shù)據(jù);控制器則負(fù)責(zé)指令的控制,不直接參與矩陣運(yùn)算。因此,正確答案是C,累加器。46.高斯濾波可以克服均值濾波的什么問題?()A、去噪(高斯濾波主要作用就是降噪)B、模糊化C、計(jì)算慢(計(jì)算原理一樣,所以計(jì)算速度取決于數(shù)據(jù)大小)D、計(jì)算量大(同答案:B解析:均值濾波會(huì)產(chǎn)生模糊化高斯則避免這個(gè)問題產(chǎn)生。47.使用ModelArts自動(dòng)學(xué)習(xí)構(gòu)建預(yù)測分析項(xiàng)目時(shí),若標(biāo)簽列為枚舉型數(shù)據(jù),以下哪一項(xiàng)是標(biāo)簽列數(shù)據(jù)類型和訓(xùn)練的模型類型?A、連續(xù)數(shù)值和回歸模型B、離散值和回歸模型C、連續(xù)數(shù)值和分類模型D、離散值和分類模型答案:D解析:在使用ModelArts自動(dòng)學(xué)習(xí)構(gòu)建預(yù)測分析項(xiàng)目時(shí),標(biāo)簽列的數(shù)據(jù)類型是一個(gè)重要的考慮因素,因?yàn)樗鼪Q定了可以選擇的模型類型。枚舉型數(shù)據(jù)本質(zhì)上是離散的,意味著標(biāo)簽是由一組有限的、可數(shù)的值組成的。對于這類數(shù)據(jù),通常會(huì)使用分類模型來進(jìn)行訓(xùn)練和預(yù)測。因此,標(biāo)簽列數(shù)據(jù)類型為離散值,訓(xùn)練的模型類型為分類模型,選項(xiàng)D是正確的。48.以下關(guān)于詞向量說法錯(cuò)誤的是哪一項(xiàng)?A、BERT與ELMo都可以生成動(dòng)態(tài)詞向量。B、Word2Vec有兩種類型,Skip-gram與CBOW。C、原始的Glove方法可以很好的處理未登錄詞問題。D、用fastText獲取詞向量能夠考慮子詞級(jí)別信息。答案:C解析:對于題目中關(guān)于詞向量的各個(gè)說法,我們可以根據(jù)各模型與方法的特性和使用情況來進(jìn)行分析:A項(xiàng)正確。BERT和ELMo都是目前主流的動(dòng)態(tài)詞向量生成模型。B項(xiàng)也正確。Word2Vec是一個(gè)可以用于生成詞向量的算法,它主要分為Skip-gram和CBOW兩種訓(xùn)練模式。D項(xiàng)同樣正確。fastText除了能獲取詞向量之外,它的算法特點(diǎn)是可以考慮子詞級(jí)別信息。然而,對于C項(xiàng),原始的Glove方法雖然可以生成詞向量,但并不特別擅長處理未登錄詞問題。因此,這個(gè)說法是錯(cuò)誤的。綜上所述,正確答案是C項(xiàng)。49.某機(jī)器學(xué)習(xí)模型對訓(xùn)練集的準(zhǔn)確率很高,但對測試集則效果不佳,其原因可能是以下哪一項(xiàng)?A、欠擬合B、過擬合C、參數(shù)辻少D、機(jī)器性能問題答案:B解析:答案選B。過擬合是指模型在訓(xùn)練集上表現(xiàn)很好,但在新的測試集上表現(xiàn)不佳。當(dāng)模型過度學(xué)習(xí)訓(xùn)練集的細(xì)節(jié)和噪聲,導(dǎo)致其泛化能力變差,無法很好地適應(yīng)新的數(shù)據(jù)。而欠擬合是模型在訓(xùn)練集和測試集上表現(xiàn)都不好;參數(shù)過少通常導(dǎo)致模型無法充分學(xué)習(xí)數(shù)據(jù)特征;機(jī)器性能問題一般不會(huì)導(dǎo)致這種訓(xùn)練集和測試集表現(xiàn)差異的情況。所以該題答案為B過擬合。50.在一個(gè)任務(wù)中,試圖讓學(xué)習(xí)器利用大量未標(biāo)記數(shù)據(jù)以及少量有標(biāo)記數(shù)據(jù)進(jìn)行訓(xùn)練,這樣的算法屬于以下哪一類學(xué)習(xí)?A、半監(jiān)督學(xué)習(xí)B、無監(jiān)督學(xué)習(xí)C、監(jiān)督學(xué)習(xí)D、強(qiáng)化學(xué)習(xí)答案:A解析:這道題考察的是對機(jī)器學(xué)習(xí)算法類型的理解。半監(jiān)督學(xué)習(xí)是指同時(shí)使用有標(biāo)記數(shù)據(jù)和無標(biāo)記數(shù)據(jù)進(jìn)行訓(xùn)練的學(xué)習(xí)方法。根據(jù)題目描述,學(xué)習(xí)器利用大量未標(biāo)記數(shù)據(jù)以及少量有標(biāo)記數(shù)據(jù)進(jìn)行訓(xùn)練,這正是半監(jiān)督學(xué)習(xí)的特點(diǎn)。因此,正確答案是A。51.在坐標(biāo)變化時(shí),計(jì)算得到的坐標(biāo)數(shù)值不是整數(shù),需要使用什么方法獲取像素的值?A、插值B、采樣C、量化D、均值答案:A解析:坐標(biāo)數(shù)值不是整數(shù)的情況下,需要進(jìn)行插值計(jì)算,以獲得該像素的真實(shí)數(shù)值。選項(xiàng)A“插值”方法正是用于這一目的。因此,正確是A。52.一副8位RGB的彩色圖像中,(255,255,255)代表著什么著色A、紅色B、白色C、黑色D、藍(lán)色答案:B解析:在8位RGB色彩空間中,(255,255,255)代表白色,因?yàn)檫@三種顏色的強(qiáng)度值都達(dá)到了最大值,表示了明亮的白色。所以,選項(xiàng)B是正確的。53.以下算法中不屬于有監(jiān)督學(xué)習(xí)的是?()A、線性回歸B、決策樹C、KNND、K-means答案:D解析:有監(jiān)督學(xué)習(xí)是指在訓(xùn)練過程中,使用有標(biāo)簽的數(shù)據(jù)來訓(xùn)練模型,以便模型能夠?qū)ξ粗獢?shù)據(jù)進(jìn)行預(yù)測或分類。常見的有監(jiān)督學(xué)習(xí)算法包括線性回歸、決策樹、KNN(k近鄰算法)等。而K-means是一種無監(jiān)督學(xué)習(xí)算法,它用于將數(shù)據(jù)集分成k個(gè)簇,使得每個(gè)簇內(nèi)的數(shù)據(jù)點(diǎn)相似度較高,而不同簇之間的數(shù)據(jù)點(diǎn)相似度較低。因此,K-means不屬于有監(jiān)督學(xué)習(xí)算法。所以,正確答案是D。54.GMM在傳統(tǒng)語音識(shí)別任務(wù)中主要的功能是?A、輸出特征對應(yīng)幀的概率B、輸出特征對應(yīng)語音的概率C、輸出特征對應(yīng)狀態(tài)的概率D、輸出特征對應(yīng)因素的概率答案:D解析:GMM(高斯混合模型)在傳統(tǒng)語音識(shí)別任務(wù)中,主要用于對語音信號(hào)的特征進(jìn)行建模。具體到功能,它輸出的是特征對應(yīng)因素的概率,這里的“因素”指的是影響語音信號(hào)的各種變量或?qū)傩?。因此,選項(xiàng)D“輸出特征對應(yīng)因素的概率”是正確的。這一功能使得GMM能夠有效地用于語音信號(hào)的建模和識(shí)別任務(wù)中。55.John在使用AscendCL開發(fā)一個(gè)實(shí)時(shí)推理的應(yīng)用,在編寫代碼時(shí),應(yīng)該選擇同步還是異步的接口?A、選擇同步B、選擇異步C、選擇同步和異步都可以D、代碼中必須同時(shí)使用同步和異步答案:A解析:在AscendCL開發(fā)實(shí)時(shí)推理的應(yīng)用時(shí),由于需要確保程序的實(shí)時(shí)性和性能,通常建議選擇同步的接口。這是因?yàn)橥浇涌诳梢员WC代碼的執(zhí)行順序和時(shí)間,避免出現(xiàn)延遲或錯(cuò)誤。異步接口雖然可以提高程序的性能,但在實(shí)時(shí)應(yīng)用中可能會(huì)引入不確定性和風(fēng)險(xiǎn)。因此,為A,即選擇同步接口。56.圖像處理任務(wù)中,數(shù)據(jù)集的真實(shí)標(biāo)簽被稱為?A、GreatTrurhB、GreatTargetC、GroundTruthD、GroundTarget答案:C解析:在圖像處理任務(wù)中,數(shù)據(jù)集的真實(shí)標(biāo)簽通常被稱為GroundTruth,因?yàn)樗砹苏鎸?shí)的數(shù)據(jù)和信息,是進(jìn)行算法訓(xùn)練和評估的重要參考。因此,選項(xiàng)C是正確的。57.下面哪種卷積神經(jīng)網(wǎng)絡(luò)的層數(shù)最多.()A、ResNetB、AlexNetC、VGG16D、LeNet答案:A解析:卷積神經(jīng)網(wǎng)絡(luò)(ConvolutionalNeuralNetworks,CNN)的層數(shù)因網(wǎng)絡(luò)架構(gòu)的不同而異。AlexNet、VGG16和LeNet通常具有較少的層數(shù),通常為幾層到十幾層。而ResNet是一種特殊的CNN,其設(shè)計(jì)思想是通過引入殘差連接和塊(ResidualBlocks)來克服深度CNN中的梯度消失和退化問題,因此其層數(shù)較多,可以達(dá)到幾十層甚至上百層。因此,是A.ResNet。58.CANN(ComputeArchitectureforNeuralNetwork)中包含多個(gè)子系統(tǒng),其中哪個(gè)子系統(tǒng)負(fù)責(zé)對子圖進(jìn)行優(yōu)化?A、TBE(TensorBoostEngine)B、FE(FusionEngine)C、算子適配插件D、GE(GraphEngine)答案:B解析:FE定位于AlCore的數(shù)據(jù)引擎,它提供圖的優(yōu)化分析、管理算子融合規(guī)則、算子融合功能、算子信息庫管理、使能自定義算子等功能。59.以下哪一項(xiàng)是異騰310芯片的功耗?A、8WB、7WC、9wD、6w答案:A解析:昇騰310為推理芯片,最大功耗8W;昇騰910為訓(xùn)練芯片,最大功耗310W60.以下哪個(gè)選項(xiàng)是AI芯片業(yè)務(wù)從應(yīng)用上的分類?()A、推理和加速B、加速和訓(xùn)練C、訓(xùn)練和推理D、編譯和訓(xùn)練答案:C解析:這道題考察的是對AI芯片業(yè)務(wù)應(yīng)用分類的理解。在AI領(lǐng)域,芯片業(yè)務(wù)主要圍繞兩大核心應(yīng)用:訓(xùn)練和推理。訓(xùn)練是指使用大量數(shù)據(jù)來優(yōu)化AI模型的過程,而推理則是使用訓(xùn)練好的模型進(jìn)行實(shí)際預(yù)測或分類的過程。根據(jù)這個(gè)知識(shí)點(diǎn),我們可以分析每個(gè)選項(xiàng):?A選項(xiàng)“推理和加速”中,加速并不是AI芯片業(yè)務(wù)的一個(gè)核心應(yīng)用分類。?B選項(xiàng)“加速和訓(xùn)練”同樣包含了非核心應(yīng)用“加速”。?C選項(xiàng)“訓(xùn)練和推理”準(zhǔn)確地列出了AI芯片業(yè)務(wù)的兩大核心應(yīng)用。?D選項(xiàng)“編譯和訓(xùn)練”中,編譯并不是AI芯片業(yè)務(wù)的一個(gè)核心應(yīng)用分類。因此,正確答案是C,即AI芯片業(yè)務(wù)從應(yīng)用上分為訓(xùn)練和推理。61.N-gram被定義為N個(gè)關(guān)鍵詞組合在一起。從給定的句子可以產(chǎn)生多少三元組短語?[AnalyticsVidhyaisagreatsourcetolearndatascience]。()A、6B、7C、8D、9答案:C解析:AnalyticsVidhyais;Vidhyaisa;isagreat;agreatsource;greatsourceto;sourcetolearn;tolearndata;learndatascience。N-gram基于馬爾科夫假設(shè)只考慮前n個(gè)詞語62.在ModelArts提供的功能中,在線服務(wù)屬于以下哪一項(xiàng)服務(wù)?()A、模型管理B、部署C、模型訓(xùn)練D、數(shù)據(jù)處理答案:B解析:模型準(zhǔn)備完成后,您可以將模型部署為在線服務(wù),對在線服務(wù)進(jìn)行預(yù)測和調(diào)用63.使用ModelArts自動(dòng)學(xué)習(xí)構(gòu)建預(yù)測分析項(xiàng)目時(shí),若標(biāo)簽列為數(shù)值型連續(xù)數(shù)據(jù),以下哪一項(xiàng)是標(biāo)簽列數(shù)據(jù)類型和訓(xùn)練的模型類型?A、離散值和回歸模型B、連續(xù)數(shù)值和分類模型C、離散值和分類模型D、連續(xù)數(shù)值和回歸模型答案:C64.spectrogram函數(shù)中的nperseg參數(shù)可以設(shè)置以下哪一項(xiàng)參數(shù)?A、采樣頻率B、幀移C、窗函數(shù)D、幀長答案:D解析:這道題考察的是對spectrogram函數(shù)中參數(shù)的理解。在spectrogram函數(shù)中,noverlap參數(shù)是用來設(shè)置幀移的,也就是連續(xù)幀之間的重疊樣本數(shù)。通過調(diào)整這個(gè)參數(shù),可以控制幀之間的重疊程度,進(jìn)而影響頻譜分析的結(jié)果。因此,正確答案是C,表示noverlap參數(shù)設(shè)置的是幀移。65.以下選項(xiàng)中,哪個(gè)選項(xiàng)的模型無法分割非線性數(shù)據(jù)集?A、一元線性回歸B、神經(jīng)網(wǎng)絡(luò)C、svmD、KNN答案:A解析:這道題考察的是對機(jī)器學(xué)習(xí)模型的理解,特別是它們處理非線性數(shù)據(jù)集的能力。一元線性回歸模型是基于線性方程的,因此它無法捕捉數(shù)據(jù)中的非線性關(guān)系。相比之下,神經(jīng)網(wǎng)絡(luò)、SVM(支持向量機(jī))和KNN(K-最近鄰)都是能夠處理非線性數(shù)據(jù)集的模型,因?yàn)樗鼈兡軌驅(qū)W習(xí)數(shù)據(jù)中的復(fù)雜模式和關(guān)系。所以,正確答案是A,一元線性回歸模型無法分割非線性數(shù)據(jù)集。66.John在使用模型生成文本時(shí),發(fā)現(xiàn)模型會(huì)產(chǎn)生不準(zhǔn)確、無關(guān)或虛構(gòu)的信息,這是模型的什么特性?A、涌現(xiàn)B、真實(shí)性C、幻覺D、可解釋性答案:C解析:在自然語言處理中,當(dāng)模型生成不準(zhǔn)確、無關(guān)或虛構(gòu)的信息時(shí),這種現(xiàn)象被稱為“幻覺”?!坝楷F(xiàn)”通常指復(fù)雜系統(tǒng)中突然出現(xiàn)的新特性或行為?!罢鎸?shí)性”明顯與產(chǎn)生錯(cuò)誤信息不符。“可解釋性”是指模型決策和輸出的可理解和可追溯程度,并非指生成錯(cuò)誤信息。所以,正確答案是選項(xiàng)C。67.不屬于LSTM的cell當(dāng)中的門的選項(xiàng)是?A、輸入門B、遺忘門C、記憶門D、輸出門答案:C解析:這道題考察的是對LSTM(長短期記憶網(wǎng)絡(luò))結(jié)構(gòu)的理解。LSTM是一種特殊的RNN(循環(huán)神經(jīng)網(wǎng)絡(luò)),它通過引入三個(gè)“門”結(jié)構(gòu)來控制信息的流動(dòng),分別是遺忘門、輸入門和輸出門。這三個(gè)門分別負(fù)責(zé)決定哪些信息應(yīng)該被遺忘、哪些新信息應(yīng)該被存儲(chǔ)以及哪些信息應(yīng)該被輸出。而“記憶門”并不是LSTM結(jié)構(gòu)中的一部分,因此選項(xiàng)C是不屬于LSTM的。68.伽馬變化是()處理,直方圖均衡化是()處理,均值濾波是()處理。A、點(diǎn)處理,局部處理,大局處理B、局部處理,點(diǎn)處理,大局處理C、點(diǎn)處理,大局處理,局部處理D、大局處理,點(diǎn)處理,局部處理答案:C解析:伽馬變化是對圖像的每個(gè)像素點(diǎn)進(jìn)行獨(dú)立的調(diào)整,不涉及其周圍的像素,因此屬于點(diǎn)處理。直方圖均衡化是通過調(diào)整圖像的直方圖來改變圖像的對比度,這是一個(gè)全局性的調(diào)整,影響圖像的所有像素,因此屬于大局處理。均值濾波是通過計(jì)算像素點(diǎn)周圍鄰域內(nèi)像素的平均值來替換該像素值,這是一個(gè)局部性的處理,因此屬于局部處理。綜上所述,正確答案是C。69.根據(jù)已標(biāo)注的數(shù)據(jù)訓(xùn)練得到模型,使用該模型預(yù)測輸出的是一個(gè)連續(xù)的數(shù)值,這類任務(wù)的應(yīng)用示例:預(yù)測投保人的索賠金額(用于設(shè)置保險(xiǎn)費(fèi))。那么該機(jī)器學(xué)習(xí)屬于哪—種類型的任務(wù)?()A、回歸B、聚類C、生成D、分類答案:A解析:根據(jù)題目的描述,使用已標(biāo)注的數(shù)據(jù)訓(xùn)練得到的模型用于預(yù)測輸出連續(xù)數(shù)值,例如預(yù)測投保人的索賠金額以設(shè)置保險(xiǎn)費(fèi)。這種任務(wù)屬于回歸任務(wù),因?yàn)榛貧w任務(wù)是預(yù)測一個(gè)連續(xù)變量的任務(wù)。因此,為A,即回歸任務(wù)。70.以下關(guān)于前饋神經(jīng)網(wǎng)絡(luò)的描述中,錯(cuò)誤的是哪一項(xiàng)?A、各層節(jié)點(diǎn)中具有計(jì)算功能的神經(jīng)元,稱為計(jì)算單元,每個(gè)神經(jīng)元只與前一層的神經(jīng)元相連。B、輸入節(jié)點(diǎn)具有計(jì)算功能,不只是為了表征輸入矢量各元素值C、前饋神經(jīng)網(wǎng)絡(luò)是一種最簡單的神經(jīng)網(wǎng)絡(luò),各神經(jīng)元分層排列。D、多層的感知器屬于前饋神經(jīng)網(wǎng)絡(luò)。答案:B解析:輸入層節(jié)點(diǎn)的功能不只是為了表征輸入矢量各元素值,而是起到了收集輸入信息、并決定進(jìn)入隱含層的節(jié)點(diǎn)的數(shù)據(jù)成分的功能。選項(xiàng)B表述錯(cuò)誤,所以為B。71.在訓(xùn)練神經(jīng)網(wǎng)絡(luò)過程中我們目的是讓損失函數(shù)不斷減少,我們常用以下哪種方法最小化損失函數(shù)?A、梯度下降B、DropoutC、交叉驗(yàn)證D、正則化答案:A解析:在訓(xùn)練神經(jīng)網(wǎng)絡(luò)時(shí),我們的主要目標(biāo)是讓損失函數(shù)不斷減少,以達(dá)到模型性能的優(yōu)化。梯度下降法是一種常用的優(yōu)化算法,它通過計(jì)算損失函數(shù)關(guān)于模型參數(shù)的梯度,并更新這些參數(shù)以使損失函數(shù)減小。Dropout主要用于防止模型過擬合,正則化也是減少過擬合的一種技術(shù),而交叉驗(yàn)證主要用于模型評估。因此,對于最小化損失函數(shù),梯度下降是最直接且常用的方法。所以,選項(xiàng)C是正確的。72.從技術(shù)架構(gòu)角度,關(guān)于AI芯片的描述,錯(cuò)誤的是哪一項(xiàng)?A、CPU的功能主要是解釋計(jì)算機(jī)指令以及處理計(jì)算機(jī)硬件中的數(shù)據(jù)。B、FPGA實(shí)現(xiàn)了半定制芯片的功能C、ASIC屬于專用集成電路D、GPU是一種專門在個(gè)人電腦、工作站,游戲和一些移動(dòng)設(shè)備上進(jìn)行圖像運(yùn)算工作的微處理器。答案:A解析:這道題考察的是對AI芯片相關(guān)技術(shù)架構(gòu)的理解。A選項(xiàng)提到CPU的功能,但實(shí)際上在AI芯片領(lǐng)域,CPU雖然可以解釋計(jì)算機(jī)指令和處理數(shù)據(jù),但其并不是AI芯片的主要組成部分,AI芯片更多關(guān)注于如GPU、FPGA、SIC等針對特定計(jì)算任務(wù)優(yōu)化的硬件。B選項(xiàng)描述FPGA(現(xiàn)場可編程門陣列)實(shí)現(xiàn)了半定制芯片的功能,這是正確的,F(xiàn)PGA可以根據(jù)需要進(jìn)行編程,實(shí)現(xiàn)特定的硬件邏輯功能。C選項(xiàng)中的ASIC(專用集成電路)屬于專用集成電路,這也是正確的,ASIC是為了執(zhí)行特定任務(wù)而設(shè)計(jì)的集成電路。D選項(xiàng)描述GPU(圖形處理單元)是一種專門在個(gè)人電腦、工作站、游戲和一些移動(dòng)設(shè)備上進(jìn)行圖像運(yùn)算工作的微處理器,這是準(zhǔn)確的,GPU在圖像處理和并行計(jì)算方面表現(xiàn)出色,也是AI計(jì)算中常用的硬件。綜上所述,A選項(xiàng)的描述與AI芯片的技術(shù)架構(gòu)不符,是錯(cuò)誤的。73.以下哪一選項(xiàng)不屬于馬爾科夫模型的三要素?()A、狀態(tài)集合B、觀測概率C、轉(zhuǎn)移概率D、初始概率答案:A解析:馬爾科夫模型三要素:狀態(tài)轉(zhuǎn)移矩陣,觀測概率,初始狀態(tài)概率向量74.如果想要對圖像翻拍情況進(jìn)行檢測,可以調(diào)用華為云圖像標(biāo)簽服務(wù)提供的功能,主要由以下哪個(gè)函數(shù)實(shí)現(xiàn)?A、image_tagging_aksk()B、init_global_envoC、recapture_detect_aksk()答案:A解析:華為云圖像標(biāo)簽服務(wù)提供的功能可以通過調(diào)用`image_tagging_aksk()`函數(shù)來實(shí)現(xiàn)對圖像翻拍情況的檢測。這個(gè)函數(shù)是華為云圖像標(biāo)簽服務(wù)提供的API之一,它允許用戶上傳圖像并獲取圖像的標(biāo)簽信息,包括翻拍情況等。因此,正確答案是A。需要注意的是,使用這個(gè)函數(shù)需要用戶先開通華為云圖像識(shí)別服務(wù),并獲取相應(yīng)的AK/SK(訪問密鑰)和project_id。同時(shí),用戶還需要將圖像內(nèi)容轉(zhuǎn)換為Base64編碼,并構(gòu)建API請求參數(shù),然后發(fā)送POST請求到華為云圖像識(shí)別服務(wù)的圖像搜索API端點(diǎn),并解析API響應(yīng)。最終,用戶可以處理搜索結(jié)果,例如打印相似圖像的URL或進(jìn)行其他操作??傊?,`image_tagging_aksk()`函數(shù)是華為云圖像標(biāo)簽服務(wù)中用于檢測圖像翻拍情況的重要函數(shù)之一。75.以下關(guān)于深度學(xué)習(xí)中常用的損失函數(shù)的描述,哪一項(xiàng)是正確的?A、二次代價(jià)函數(shù)更多得用于分類問題問題,而交叉熵代價(jià)函數(shù)一般用于聚類問題。B、二次代價(jià)函數(shù)關(guān)心目標(biāo)輸出和實(shí)際輸出之間的類別差異。C、二次代價(jià)函數(shù)刻畫了兩個(gè)概率分布之間的距離。D、訓(xùn)練的目的是使得損失函數(shù)逐漸減小,直至達(dá)到0。答案:B解析:二次代價(jià)函數(shù)更多用于回歸問題,交叉熵代價(jià)函數(shù)更多用于分類問題,所以A錯(cuò)誤。二次代價(jià)函數(shù)刻畫的是目標(biāo)值與輸出值之間的距離,而不是概率分布的距離,所以C錯(cuò)誤。訓(xùn)練的目的是使得損失函數(shù)減小,然后趨于穩(wěn)定,不一定會(huì)降至0,所以D錯(cuò)誤。76.知識(shí)圖譜構(gòu)建過程中需要進(jìn)行信息抽取,以下哪一項(xiàng)不屬于信息抽取的關(guān)鍵技術(shù)?A、屬性抽取B、參數(shù)抽取C、實(shí)體抽取D、關(guān)系抽取答案:B解析:在知識(shí)圖譜構(gòu)建過程中,信息抽取是一個(gè)關(guān)鍵步驟,其主要任務(wù)是從原始數(shù)據(jù)中提取出結(jié)構(gòu)化的信息,如實(shí)體、屬性和關(guān)系。其中,實(shí)體抽取用于識(shí)別文本中的實(shí)體(如人名、地名、事物名稱等);屬性抽取用于識(shí)別實(shí)體的屬性(如年齡、性別、顏色等);關(guān)系抽取用于識(shí)別實(shí)體之間的關(guān)聯(lián)和交互。而參數(shù)抽取一般是指從數(shù)學(xué)、統(tǒng)計(jì)學(xué)等領(lǐng)域的特定數(shù)據(jù)中提取參數(shù)信息,與信息抽取的關(guān)鍵技術(shù)不直接相關(guān)。因此,選項(xiàng)B是正確答案。77.MindSpore中用于保存模型權(quán)重的接口是以下哪個(gè)選項(xiàng)?A、mindspore.save_checkpoint(model,"model.ckpt")B、mindspore.load_checkpoint("model.ckpt")C、mindspore.load_param_into_net(model,param_dict)D、mindspore.ops.no_gradient答案:A解析:這道題考察的是對MindSpore框架中模型保存接口的了解。在MindSpore中,`save_checkpoint`是用于保存模型權(quán)重和參數(shù)的接口,而`load_checkpoint`是用于加載模型權(quán)重和參數(shù)的接口,`load_param_into_net`用于將參數(shù)加載到網(wǎng)絡(luò)中,`ops.no_gradient`用于指定某個(gè)操作不計(jì)算梯度。因此,正確答案是A。78.John在開發(fā)昇騰應(yīng)用,現(xiàn)在他在筆記本電腦上創(chuàng)建了開發(fā)環(huán)境,遠(yuǎn)程連接了一個(gè)搭載了Atlas300l推理卡的服務(wù)器,在這種場景下,Device指的是以下那一個(gè)選項(xiàng)?A、筆記本B、服務(wù)器C、推理卡D、Ascend910芯片答案:C解析:在這個(gè)場景下,John在筆記本電腦上創(chuàng)建了開發(fā)環(huán)境,并遠(yuǎn)程連接了一個(gè)搭載了Atlas300l推理卡的服務(wù)器。這里的“Device”通常指的是執(zhí)行計(jì)算任務(wù)的具體硬件設(shè)備。在這個(gè)上下文中,Atlas300l推理卡是負(fù)責(zé)執(zhí)行推理任務(wù)的硬件設(shè)備,因此“Device”指的是推理卡。所以,正確答案是C。79.以下關(guān)于非線性支持向量機(jī)的描述中,哪一項(xiàng)是錯(cuò)誤的?A、高斯核函數(shù)是使用較為頻繁的核函數(shù)。B、使用線性支持向量機(jī)可以很好的作用在線性可分?jǐn)?shù)據(jù)集上,因此非線性支持向量機(jī)效果比較差C、可以使用核函數(shù)來構(gòu)建非線性支持向量機(jī)。D、核函數(shù)允許算法在變換后的高維特征空間中擬合最大的超平面答案:B解析:這道題考察的是非線性支持向量機(jī)的理解。高斯核函數(shù)確實(shí)是常用的核函數(shù)之一,所以A選項(xiàng)描述正確。核函數(shù)的作用是在高維空間中找到最佳的超平面進(jìn)行分類,這是支持向量機(jī)的基本原理,B選項(xiàng)正確。通過使用核技巧,支持向量機(jī)可以實(shí)現(xiàn)非線性分類,C選項(xiàng)描述也是準(zhǔn)確的。至于D選項(xiàng),線性支持向量機(jī)適用于線性可分?jǐn)?shù)據(jù)集,但這并不意味著非線性支持向量機(jī)效果就差,它的優(yōu)勢在于處理非線性問題,因此D選項(xiàng)描述錯(cuò)誤。80.計(jì)算機(jī)通過具有標(biāo)簽的圖片數(shù)據(jù)學(xué)習(xí)分辨哪些圖片是蘋果,哪些圖片是梨,這一場景最符合以下哪一類型的學(xué)習(xí)?A、監(jiān)督學(xué)習(xí)B、無監(jiān)督學(xué)習(xí)C、半監(jiān)督學(xué)習(xí)D、強(qiáng)化學(xué)習(xí)答案:A解析:這道題考察的是對機(jī)器學(xué)習(xí)類型的理解。在計(jì)算機(jī)視覺任務(wù)中,如果計(jì)算機(jī)通過已標(biāo)記的圖片數(shù)據(jù)學(xué)習(xí)分類,這屬于監(jiān)督學(xué)習(xí)。因?yàn)楸O(jiān)督學(xué)習(xí)是指使用一組已知類別的樣本來訓(xùn)練模型,使其學(xué)會(huì)將輸入數(shù)據(jù)映射到相應(yīng)的類別標(biāo)簽。在這個(gè)場景中,圖片數(shù)據(jù)已經(jīng)具有了“蘋果”或“梨”的標(biāo)簽,因此最符合監(jiān)督學(xué)習(xí)的定義。81.以下關(guān)于交叉驗(yàn)證的描述中,哪一項(xiàng)是錯(cuò)誤的A、k-折交叉驗(yàn)證是常用的交叉驗(yàn)證方法B、交叉驗(yàn)證首先用訓(xùn)練集對分類器進(jìn)行訓(xùn)練再利用驗(yàn)證集來測試訓(xùn)練得到的模型以此來做為評價(jià)分類器的性能指標(biāo)C、交叉驗(yàn)證是用來驗(yàn)證分類器的性能一種統(tǒng)計(jì)分析方法D、k-折交叉驗(yàn)證方法中的k不是超參數(shù)是由模型訓(xùn)練得來的答案:D解析:這道題考察的是對交叉驗(yàn)證的理解。交叉驗(yàn)證是一種評估模型性能的方法,其中k-折交叉驗(yàn)證是常用的一種。在這個(gè)過程中,數(shù)據(jù)集被分成k份,每次用其中k-1份作為訓(xùn)練集,剩余的一份作為驗(yàn)證集,重復(fù)k次,每次選擇不同的驗(yàn)證集。選項(xiàng)A正確描述了k-折交叉驗(yàn)證是常用的方法。選項(xiàng)B正確描述了交叉驗(yàn)證的基本過程。選項(xiàng)C正確指出交叉驗(yàn)證是一種統(tǒng)計(jì)分析方法。而選項(xiàng)D錯(cuò)誤,因?yàn)閗-折交叉驗(yàn)證中的k是人為設(shè)定的,不是由模型訓(xùn)練得來的,它是一個(gè)超參數(shù)。82.以下屬于語言模型的是?()A、daboostB、N-gramC、GTD、T答案:B解析:Adaboost屬于集成學(xué)習(xí)思想;DT即決策樹,通用機(jī)器學(xué)習(xí)模型;N-gram是專門用于NLP的模型83.在深度學(xué)習(xí)領(lǐng)域中,以下哪些激活函數(shù)的值域位于0到正無窮的區(qū)間內(nèi)?()A、SeLUB、sigmoidC、tanhD、ReLU答案:D解析:SeLU的值可能小于0,tanh位于-1~1,Sigmoid位于0~184.有監(jiān)督學(xué)習(xí)中,“近朱者赤近墨者黑”是用來形容下列哪個(gè)模型?A、K-MeansB、SVMC、KNND、神經(jīng)網(wǎng)絡(luò)答案:C解析:“近朱者赤近墨者黑”這一說法形象地表達(dá)了相似樣本之間的相互影響。在有監(jiān)督學(xué)習(xí)中,KNN(K-最近鄰)算法正是基于這種思想,即一個(gè)樣本的標(biāo)簽受其最近的K個(gè)鄰居樣本的標(biāo)簽影響。因此,這個(gè)說法用來形容KNN模型是最貼切的。選項(xiàng)A的K-Means是聚類算法,屬于無監(jiān)督學(xué)習(xí);選項(xiàng)B的SVM(支持向量機(jī))和選項(xiàng)D的神經(jīng)網(wǎng)絡(luò),雖然都是有監(jiān)督學(xué)習(xí)模型,但它們的決策機(jī)制并不直接基于樣本之間的相似性。因此,正確答案是C。85.FusionDirector為服務(wù)器和華為邊緣設(shè)備統(tǒng)一運(yùn)維管理軟件,以下哪一項(xiàng)不是它的特性?A、為數(shù)據(jù)中心提供硬件精細(xì)化管理能力B、為智算中心提供一站式軟件部署服務(wù)C、為公有云提供大規(guī)模服務(wù)器自動(dòng)化運(yùn)維能力D、為私有云提供一站式硬件管理能力答案:B解析:FusionDirector是華為提供的一款服務(wù)器和邊緣設(shè)備統(tǒng)一運(yùn)維管理軟件。根據(jù)軟件的功能描述:A項(xiàng),F(xiàn)usionDirector確實(shí)為數(shù)據(jù)中心提供了硬件的精細(xì)化管理能力,這是其基礎(chǔ)功能之一。C項(xiàng),F(xiàn)usionDirector支持公有云的大規(guī)模服務(wù)器自動(dòng)化運(yùn)維,這也是其重要特性。D項(xiàng),F(xiàn)usionDirector同樣為私有云提供了一站式硬件管理能力,這也是它作為運(yùn)維管理軟件的核心功能。然而,B項(xiàng)提到“為智算中心提供一站式軟件部署服務(wù)”并非FusionDirector的核心特性或主要功能。FusionDirector主要關(guān)注硬件的管理和運(yùn)維,而非軟件部署服務(wù)。因此,B項(xiàng)不是FusionDirector的特性,答案選B。86.遷移學(xué)習(xí)是將某個(gè)領(lǐng)域或任務(wù)上學(xué)習(xí)到的知識(shí)或模式應(yīng)用到不同但相關(guān)的領(lǐng)域或問題中。以下哪一種是實(shí)現(xiàn)遷移學(xué)習(xí)常用的技術(shù)手段?A、重新訓(xùn)練B、模型微週(Fine-tuning)C、暫退法(Drput)D、標(biāo)簽平滑答案:B解析:遷移學(xué)習(xí)旨在將一個(gè)領(lǐng)域或任務(wù)中學(xué)到的知識(shí)應(yīng)用于另一個(gè)相關(guān)但不同的領(lǐng)域或任務(wù)。在給出的選項(xiàng)中,A項(xiàng)“重新訓(xùn)練”通常意味著從頭開始訓(xùn)練一個(gè)新模型,不涉及遷移學(xué)習(xí)的概念。C項(xiàng)“暫退法(Dropout)”和D項(xiàng)“標(biāo)簽平滑”是訓(xùn)練神經(jīng)網(wǎng)絡(luò)時(shí)用于防止過擬合的技術(shù),而非遷移學(xué)習(xí)的技術(shù)手段。B項(xiàng)“模型微調(diào)(Fine-tuning)”是遷移學(xué)習(xí)中常用的技術(shù)手段,它利用在源任務(wù)上預(yù)訓(xùn)練的模型,在新的目標(biāo)任務(wù)上進(jìn)行調(diào)整和優(yōu)化,以實(shí)現(xiàn)知識(shí)的遷移和應(yīng)用。因此,正確答案是B。87.全連接層的主要作用是?()A、分類B、提取特征(卷積層)C、降低維度(池化層)D、改變圖像大小(圖像縮放、降采樣、升采樣)答案:A解析:全連接層作用:把所有局部特征結(jié)合變成全局特征,用來計(jì)算最后每一類得分88.以下說法錯(cuò)誤的是?A、tlas200DK基于昇騰310芯片B、Atlas900系列主要為AI集群C、Atlas500智能小站主要用于推理D、昇騰310處理器常用于進(jìn)行模型訓(xùn)練答案:D解析:昇騰310處理器主要用于推理,而不用于模型訓(xùn)練。推理和訓(xùn)練是人工智能中的兩個(gè)不同階段,推理主要用于執(zhí)行已訓(xùn)練好的模型,而訓(xùn)練則是為了生成可推理的模型。因此,選項(xiàng)D是錯(cuò)誤的說法。89.以下哪個(gè)不是MindSpore常用的Operation?A、signalB、mathC、arrayD、nn答案:A解析:這道題考察的是對MindSpore框架中常用Operation的了解。MindSpore是一個(gè)全場景深度學(xué)習(xí)框架,它提供了豐富的API供開發(fā)者使用。在這些API中,"math"、"array"和"nn"都是常用的Operation,它們分別提供了數(shù)學(xué)運(yùn)算、數(shù)組操作和神經(jīng)網(wǎng)絡(luò)相關(guān)的功能。而"signal"并不是MindSpore中常用的Operation,它更多與信號(hào)處理相關(guān),不是MindSpore框架的核心部分。因此,正確答案是A。90.John在使用MindSpore練續(xù)里的時(shí)候保存了一個(gè)ckpt格式的檢查點(diǎn),然后他發(fā)現(xiàn)這種格式無法直接在昇騰310芯片上進(jìn)行推理使用,為了可以利用當(dāng)前模型在昇騰310處理器完成推理,以下選項(xiàng)中哪種做法是正確的?A、使用MindSpore加載當(dāng)前檢查點(diǎn)文件,然后導(dǎo)出為OM格式,即可在昇騰310處理器上進(jìn)行推理。B、使用Mindspore加載當(dāng)前檢查點(diǎn)文件,然后導(dǎo)出為AIR格式,隨后使用ATC(AscendTensorCompiler)工具轉(zhuǎn)換為OM格式,即可在昇騰310處理器上進(jìn)行推理。C、將ckpt格式文件的后綴名修改為AlR,隨后使用ATC(AscendTensorCompiler)工具轉(zhuǎn)換為OM格式,即可在昇騰310處理器上進(jìn)行推理。D、多查閱官方文檔,ckpt格式文件可以直接在昇騰310處理器上進(jìn)行推理。答案:B解析:這道題考察的是對MindSpore框架和昇騰310芯片兼容性的理解。在MindSpore框架中,ckpt格式的檢查點(diǎn)文件是模型訓(xùn)練過程中的快照,但它并不直接適用于昇騰310芯片的推理。為了能在昇騰310上進(jìn)行推理,通常需要將模型轉(zhuǎn)換為OM格式。正確的步驟是首先使用MindSpore加載ckpt文件,然后導(dǎo)出為AIR格式,接著使用ATC工具將AIR格式轉(zhuǎn)換為OM格式,這樣就可以在昇騰310處理器上進(jìn)行推理了。因此,選項(xiàng)B是正確的。91.以下哪個(gè)選項(xiàng)不屬于LSTM?A、遺忘門B、輸入門C、記憶門D、輸出門答案:C解析:這道題考察的是對LSTM(長短期記憶網(wǎng)絡(luò))結(jié)構(gòu)的理解。LSTM是一種特殊的RNN(循環(huán)神經(jīng)網(wǎng)絡(luò)),它通過引入三個(gè)“門”結(jié)構(gòu)來控制信息的流動(dòng),分別是遺忘門、輸入門和輸出門。這三個(gè)門分別負(fù)責(zé)決定哪些信息應(yīng)該被遺忘、哪些新信息應(yīng)該被存儲(chǔ)以及哪些信息應(yīng)該被輸出。而“記憶門”并不是LSTM結(jié)構(gòu)中的一部分,因此選項(xiàng)C是不屬于LSTM的。92.Atlas加速AI推理使用的是什么處理器?A、異騰310處理器B、GPUC、異騰910處理器D、FPGA答案:A解析:華為公司在2019年發(fā)布的Atlas200AI加速模塊(型號(hào):3000)集成了昇騰310AI處理器,可以在端側(cè)實(shí)現(xiàn)人臉識(shí)別、圖像分類等,廣泛用于智能攝像機(jī)、機(jī)器人、無人機(jī)等端側(cè)AI場景93.下列選項(xiàng)中,哪個(gè)不是關(guān)鍵詞提取常用的算法?()A、TextRankB、SSAC、LDAD、TF-IDF答案:B解析:TF-IDF,TextRank,主題模型算法(LSA、LSI、LDA)94.1ohn最近正在學(xué)習(xí)搭建卷積神經(jīng)網(wǎng)絡(luò),假設(shè)輸入圖像大小是15?15?3(w?ht),經(jīng)過一個(gè)含4個(gè)卷積核的卷積層,其中卷積核大小均為5?5,步長為2,無填充,在不計(jì)算ias的情況下,該卷積層共有多少權(quán)重參數(shù)?A、75B、100C、300D、600答案:C解析:每個(gè)卷積核的大小為5×5×3(因?yàn)檩斎雸D像有3個(gè)通道),所以每個(gè)卷積核的參數(shù)數(shù)量為5×5×3=75個(gè)。卷積層共有4個(gè)卷積核,所以總的權(quán)重參數(shù)數(shù)量為75×4=300個(gè)。因此,答案選C。95.以下哪項(xiàng)技術(shù)的研究與發(fā)展能夠提升模型訓(xùn)練的精度?A、自動(dòng)并行B、二階優(yōu)化C、數(shù)據(jù)加速D、內(nèi)存復(fù)用答案:B解析:這道題考察的是對模型訓(xùn)練精度提升技術(shù)的理解。在機(jī)器學(xué)習(xí)和深度學(xué)習(xí)領(lǐng)域,優(yōu)化算法的選擇對模型訓(xùn)練的精度有著至關(guān)重要的影響。二階優(yōu)化算法相較于一階優(yōu)化算法,使用了二階導(dǎo)數(shù)信息,能夠更準(zhǔn)確地逼近全局最優(yōu)解,從而提升模型訓(xùn)練的精度。因此,選項(xiàng)B“二階優(yōu)化”是正確答案。96.以下關(guān)于邏輯回歸的描述中,哪一項(xiàng)是錯(cuò)誤的?A、邏輯回歸模型是一種分類模型,用來解決分類問題。B、邏輯回歸在線性回歸的基礎(chǔ)上引入了非線性因素(sigmoid函數(shù))。C、邏輯回歸與線性回歸都是廣義線性模型。D、邏輯回歸和線性回歸的損失函數(shù)都是最小二乘損失函數(shù)。答案:D解析:邏輯回歸和線性回歸的損失函數(shù)并不是最小二乘損失函數(shù),而是對數(shù)損失函數(shù)。因此,選項(xiàng)D是錯(cuò)誤的。邏輯回歸是一種廣義線性模型,它在線性回歸的基礎(chǔ)上引入了非線性因素(sigmoid函數(shù)),用于解決二分類問題。邏輯回歸是一種分類模型,主要用于預(yù)測一個(gè)樣本屬于某個(gè)類別(通常是二分類)的概率。97.如果采樣頻率為f,幀數(shù)為a,則以下哪一項(xiàng)是聲音信號(hào)的長度?()A、/2fB、2a/fC、a/fD、a?f答案:C解析:采樣頻率又稱采樣率,表示單位時(shí)間內(nèi)從連續(xù)信號(hào)中提取并組成離散信號(hào)的采樣個(gè)數(shù),幀數(shù)/采樣率為信號(hào)長度98.關(guān)于反向傳播,以下哪種說法是錯(cuò)誤的?A、反向傳播會(huì)經(jīng)過激活函數(shù)B、反向傳播可以結(jié)合梯度下降算法更新網(wǎng)絡(luò)權(quán)重C、反向傳播只能在前饋神經(jīng)網(wǎng)絡(luò)中運(yùn)用D、反向傳播指的是誤差通過網(wǎng)絡(luò)反向傳播答案:C解析:這道題考察的是對反向傳播算法的理解。反向傳播算法是神經(jīng)網(wǎng)絡(luò)中用于計(jì)算梯度的一種技術(shù),它確實(shí)會(huì)經(jīng)過激活函數(shù),可以結(jié)合梯度下降算法來更新網(wǎng)絡(luò)權(quán)重,也確實(shí)是誤差通過網(wǎng)絡(luò)反向傳播的過程。而反向傳播不僅適用于前饋神經(jīng)網(wǎng)絡(luò),也適用于其他類型的神經(jīng)網(wǎng)絡(luò),如卷積神經(jīng)網(wǎng)絡(luò)、循環(huán)神經(jīng)網(wǎng)絡(luò)等。因此,選項(xiàng)B的說法是錯(cuò)誤的。99.一副圖像的亮部太亮,暗部太暗,為了改善圖像的視覺效果可以使用哪個(gè)技術(shù)?A、反轉(zhuǎn)B、伽馬矯正C、灰度拉伸D、灰度壓縮答案:B解析:在圖像處理中,伽馬矯正是一種常用的技術(shù),用于改善圖像的視覺效果。當(dāng)一副圖像的亮部太亮,暗部太暗時(shí),使用伽馬矯正可以調(diào)整圖像的亮度對比度,使得圖像整體看起來更加自然和清晰。因此,選項(xiàng)B是正確的答案。100.核函數(shù)允許算法在變換后的高維特征空間中擬合最大的超平面,以下選項(xiàng)中不是常見核函數(shù)的是哪一項(xiàng)?A、線性核函數(shù)B、多項(xiàng)式核函數(shù)C、高斯核函數(shù)D、泊松核函數(shù)答案:D解析:這道題考察的是對核函數(shù)的理解。在機(jī)器學(xué)習(xí)中,核函數(shù)用于支持向量機(jī)(SVM)等算法,可以將數(shù)據(jù)映射到高維空間,以便更好地進(jìn)行分類或回歸。常見的核函數(shù)包括線性核、多項(xiàng)式核和高斯核(也稱為RBF核)。泊松核函數(shù)并不是常見的核函數(shù),因此選項(xiàng)D是不正確的。101.在MindSpore中Tensor可以和NumP數(shù)據(jù)類型進(jìn)行互相轉(zhuǎn)換。以下哪個(gè)函數(shù)可以將Tesor轉(zhuǎn)換為NumPy的數(shù)據(jù)類型?A、benumpy()B、numpy()C、tonumpy0D、asnumpy()答案:D解析:這道題考察的是對MindSpore框架中Tensor與NumPy數(shù)據(jù)類型轉(zhuǎn)換函數(shù)的理解。在MindSpore中,Tensor對象可以通過特定的函數(shù)轉(zhuǎn)換為NumPy數(shù)組,以便進(jìn)行進(jìn)一步的數(shù)據(jù)處理或分析。根據(jù)MindSpore的官方文檔和API,正確的函數(shù)是`asnumpy()`,它用于將Tensor對象轉(zhuǎn)換為NumPy數(shù)組。因此,選項(xiàng)D是正確的。102.以下哪個(gè)選項(xiàng)使得GPU適用于神經(jīng)網(wǎng)絡(luò)的加速運(yùn)算?()A、控制調(diào)度能力B、并行計(jì)算能力C、串行計(jì)算能力D、從內(nèi)存調(diào)用數(shù)據(jù)的能力答案:B解析:并行計(jì)算是對矩陣計(jì)算加速的一種有效方法,GPU在對圖像進(jìn)行訓(xùn)練是,采用了并行計(jì)算進(jìn)行加速103.一個(gè)汽車公司的產(chǎn)品,A廠占60%,B廠占40%,A的次品率是1%,B的次品率是3%,現(xiàn)在抽出一輛汽車是次品,問是A廠生產(chǎn)的可能性是多少?()A、1/2B、1/3C、2/3D、1/6答案:B解析:帶入貝葉斯公式,p(甲|廢品)=p(廢品|甲)/p(廢品)=(0.6×0.01)/(0.6×0.01+0.4×0.03)=0.33(核實(shí))104.ReLU激活函數(shù)相比Sigmoid函數(shù)主要解決了什么問題?()A、坐標(biāo)0位置沒有導(dǎo)數(shù)B、分割不平滑C、單調(diào)遞增D、梯度消失答案:D解析:這道題考察的是對ReLU激活函數(shù)和Sigmoid函數(shù)特性的理解。ReLU函數(shù)相比Sigmoid函數(shù),主要優(yōu)勢在于其梯度特性。Sigmoid函數(shù)在輸入值非常大或非常小時(shí),梯度接近于0,這會(huì)導(dǎo)致在深度神經(jīng)網(wǎng)絡(luò)中訓(xùn)練時(shí)出現(xiàn)梯度消失問題。而ReLU函數(shù)在正數(shù)部分梯度恒為1,有效解決了梯度消失問題。因此,ReLU激活函數(shù)相比Sigmoid函數(shù)主要解決了梯度消失問題,選項(xiàng)D正確。105.某公司辦公樓準(zhǔn)入系統(tǒng)用來識(shí)別待進(jìn)人員的所屬部門,該公司共有六個(gè)不同的部門,適合此種應(yīng)用需求的學(xué)習(xí)方法是以下哪一種?A、二分類問題B、多分類問題C、聚類問題D、回歸問題答案:B解析:此問題是一個(gè)典型的分類問題,因?yàn)橄到y(tǒng)需要根據(jù)待進(jìn)人員的特征(如身份卡、面部識(shí)別等)將其劃分到六個(gè)不同的部門之一。二分類問題只涉及兩個(gè)類別,而此問題涉及六個(gè)部門,因此是多分類問題。聚類問題涉及無監(jiān)督學(xué)習(xí),即沒有預(yù)定義的類別;回歸問題則用于預(yù)測連續(xù)數(shù)值。因此,適合此種應(yīng)用需求的學(xué)習(xí)方法是多分類問題,選項(xiàng)B正確。106.神將網(wǎng)絡(luò)訓(xùn)練時(shí),常會(huì)遇到很多問題,對于梯度消失問題,我們可以通過選擇使用以下哪種函數(shù)減輕該問題?A、Softsign函數(shù)B、Relu函數(shù)C、tanh函數(shù)D、Sigmoid函數(shù)答案:B解析:這道題考察的是對神經(jīng)網(wǎng)絡(luò)中激活函數(shù)特性的理解。梯度消失是深度神經(jīng)網(wǎng)絡(luò)訓(xùn)練中的一個(gè)常見問題,特別是在使用Sigmoid或tanh這類飽和激活函數(shù)時(shí)更為顯著。Relu函數(shù)由于其非飽和的特性,在正數(shù)區(qū)域內(nèi)梯度恒為1,這有助于緩解梯度消失問題。因此,選擇A選項(xiàng),即Relu函數(shù),是減輕梯度消失問題的一個(gè)有效方法。107.下列選項(xiàng)中不是TensorFlow2.0支持的運(yùn)算符是A、powB、C、^D、//答案:C解析:TensorFlow2.0是一個(gè)廣泛使用的深度學(xué)習(xí)框架,它支持多種運(yùn)算符用于構(gòu)建和訓(xùn)練模型。在TensorFlow中,`pow`是冪運(yùn)算符,``表示矩陣乘法,`//`表示整除。而`^`在Python中通常用作異或運(yùn)算符,并不是TensorFlow支持的運(yùn)算符,特別是在進(jìn)行深度學(xué)習(xí)模型計(jì)算時(shí)。因此,選項(xiàng)C是正確的答案。108.在對抗生成網(wǎng)絡(luò)當(dāng)中,帶有標(biāo)簽的數(shù)據(jù)應(yīng)該被放在哪里?A、作為生成模型的輸出值B、作為判別模型的輸入值C、作為判別模型的輸出值D、作為生成模型的輸入值答案:B解析:在對抗生成網(wǎng)絡(luò)(GAN)中,判別模型的任務(wù)是區(qū)分輸入數(shù)據(jù)是真實(shí)的還是由生成模型生成的。為了實(shí)現(xiàn)這一點(diǎn),判別模型需要接收帶有標(biāo)簽的數(shù)據(jù),以便學(xué)習(xí)如何區(qū)分真實(shí)數(shù)據(jù)和生成數(shù)據(jù)。因此,帶有標(biāo)簽的數(shù)據(jù)應(yīng)該作為判別模型的輸入值,選項(xiàng)B正確。109.HSV每個(gè)字母代表什么A、色相(H),飽和度(S),亮度(V)B、飽和度(H),色調(diào)(S),亮度(V)C、明度(H),飽和度(S),色調(diào)(V)D、明度(H),色調(diào)(S),飽和度(V)答案:A解析:根據(jù)顏色理論,顏色通常被劃分為三個(gè)基本屬性色相(Hue)、飽和度(Saturation)和亮度(Value)。其中,HSV中的字母分別代表色相、飽和度和亮度。因此,正確是A。110.在MindSpore中,運(yùn)行圖片中的這段代碼可以得到以下哪一項(xiàng)結(jié)果?FrommindsporeimportopsOneslike=ops.OnesLike()X=Tensor(np.array([[0,1].[2.1]]).astype(32))Oneput=oneslike(x)A、創(chuàng)建一個(gè)2?2的張量output,其中每一個(gè)元素值都為1B、創(chuàng)建一個(gè)2?2的張量output,其中元素的值為0,1,2,1C、創(chuàng)建一個(gè)2?2的張量output,其中每個(gè)元素的值隨機(jī)確定D、創(chuàng)建一個(gè)2?1的張量值從[0,1]和[2,1]中隨機(jī)挑選答案:A解析:這道題考察的是對MindSpore框架中OnesLike操作的理解。OnesLike操作會(huì)創(chuàng)建一個(gè)與輸入張量形狀相同的張量,且所有元素值都為1。根據(jù)題目中的代碼,輸入張量X是一個(gè)2?2的張量,因此OnesLike操作會(huì)創(chuàng)建一個(gè)同樣形狀的張量,且所有元素值都為1。所以答案是A。111.以下哪個(gè)不是文本向量化的常用方法?A、EMB、CBOWC、BDOWD、M答案:A解析:文本向量化是自然語言處理中的一種技術(shù),用于將文本轉(zhuǎn)換為數(shù)值向量表示。常用的方法包括CBOW、BDOW和DM等。而EM算法是一種聚類方法,與文本向量化無關(guān)。因此,選項(xiàng)A是正確的。112.一副照片在存放過程中出現(xiàn)了很多小的噪點(diǎn),對其掃描件進(jìn)行()操作去噪效果最好。()A、中值濾波B、高斯濾波C、均值濾波D、拉普拉斯濾波答案:A解析:小噪點(diǎn)中值濾波效果較好113.使用MindSpore執(zhí)行圖片中的代碼時(shí),以下哪一項(xiàng)是這段代碼的正確輸出結(jié)果?圖片代碼:P=tensor([4,0,5,0,0,0],的type.float64)Print(p)A、Tensor(shape=[3],dtype=Float64,value=[4,5,6])B、Array({4,0,5,06,0})C、Tensor(shape=[3],dtype=Float64,value=[4,00000000e+000,5,00000000e+000,6,00000000e+000])

溫馨提示

  • 1. 本站所有資源如無特殊說明,都需要本地電腦安裝OFFICE2007和PDF閱讀器。圖紙軟件為CAD,CAXA,PROE,UG,SolidWorks等.壓縮文件請下載最新的WinRAR軟件解壓。
  • 2. 本站的文檔不包含任何第三方提供的附件圖紙等,如果需要附件,請聯(lián)系上傳者。文件的所有權(quán)益歸上傳用戶所有。
  • 3. 本站RAR壓縮包中若帶圖紙,網(wǎng)頁內(nèi)容里面會(huì)有圖紙預(yù)覽,若沒有圖紙預(yù)覽就沒有圖紙。
  • 4. 未經(jīng)權(quán)益所有人同意不得將文件中的內(nèi)容挪作商業(yè)或盈利用途。
  • 5. 人人文庫網(wǎng)僅提供信息存儲(chǔ)空間,僅對用戶上傳內(nèi)容的表現(xiàn)方式做保護(hù)處理,對用戶上傳分享的文檔內(nèi)容本身不做任何修改或編輯,并不能對任何下載內(nèi)容負(fù)責(zé)。
  • 6. 下載文件中如有侵權(quán)或不適當(dāng)內(nèi)容,請與我們聯(lián)系,我們立即糾正。
  • 7. 本站不保證下載資源的準(zhǔn)確性、安全性和完整性, 同時(shí)也不承擔(dān)用戶因使用這些下載資源對自己和他人造成任何形式的傷害或損失。

評論

0/150

提交評論