




版權(quán)說(shuō)明:本文檔由用戶(hù)提供并上傳,收益歸屬內(nèi)容提供方,若內(nèi)容存在侵權(quán),請(qǐng)進(jìn)行舉報(bào)或認(rèn)領(lǐng)
文檔簡(jiǎn)介
人工智能單選試題庫(kù)含參考答案一、單選題(共100題,每題1分,共100分)1、python安裝拓展庫(kù)常用的工具是A、prmB、pipC、installD、yum正確答案:B2、下列哪部分不是專(zhuān)家系統(tǒng)的組成部分()A、知識(shí)庫(kù)B、用戶(hù)C、綜合數(shù)據(jù)庫(kù)D、推理機(jī)正確答案:B3、循環(huán)神經(jīng)網(wǎng)絡(luò)之所以有作用是因?yàn)椋篈、序列中的元素都來(lái)自同一個(gè)數(shù)據(jù)源B、序列中的元素都是隨機(jī)出現(xiàn)的C、序列中的元素蘊(yùn)含著順序的規(guī)律D、序列中的元素是無(wú)關(guān)的正確答案:C4、隨著集成中個(gè)體分類(lèi)器(相互獨(dú)立)數(shù)目T的增大,集成的錯(cuò)誤率將呈(___)_下降,最終趨向于零A、指數(shù)級(jí)B、對(duì)數(shù)級(jí)C、線(xiàn)性級(jí)D、平方級(jí)正確答案:A5、VGG-19中卷積核的大小為A、3x3B、3x3,5x5C、5x5D、不確定正確答案:A6、下面算法中哪個(gè)不是分類(lèi)算法A、決策樹(shù)B、高斯混合模型GMMC、XgboostD、隨機(jī)森林正確答案:B7、下面的數(shù)據(jù)中哪個(gè)不屬于噪聲數(shù)據(jù)()A、重復(fù)數(shù)據(jù)B、異常數(shù)據(jù)C、錯(cuò)誤數(shù)據(jù)D、虛假數(shù)據(jù)正確答案:A8、如果問(wèn)題存于最優(yōu)解,則下面幾種搜索算法中,()必然能夠得到該最優(yōu)解。A、廣度優(yōu)先搜索B、有界深度優(yōu)先搜索C、深度優(yōu)先搜索D、啟發(fā)式搜索正確答案:A9、云計(jì)算通過(guò)共享()的方法將巨大的系統(tǒng)池連接在一起。A、處理能力B、CPUC、軟件D、基礎(chǔ)資源正確答案:D10、在自動(dòng)定理證明研究方面在國(guó)際上有影響的我國(guó)知名科學(xué)家是:A、錢(qián)學(xué)森B、宋健C、華羅庚D、吳文俊正確答案:D11、()和()是監(jiān)督學(xué)習(xí)的代表,()是無(wú)監(jiān)督學(xué)習(xí)的代表。A、回歸;分類(lèi);聚類(lèi)B、聚類(lèi);回歸;分類(lèi)C、分類(lèi);聚類(lèi);回歸正確答案:A12、以下關(guān)于隨機(jī)森林算法的描述中錯(cuò)誤的是A、也擅長(zhǎng)處理小數(shù)據(jù)集和低維數(shù)據(jù)集的分類(lèi)問(wèn)題B、可以處理高維度的屬性,并且不用做特征選擇C、能應(yīng)對(duì)正負(fù)樣本不平衡問(wèn)題D、隨機(jī)森林的預(yù)測(cè)能力不受多重共線(xiàn)性影響正確答案:A13、主成分分析法是通過(guò)變量變換的方法把相關(guān)的變量變?yōu)槿舾桑ǎ┑淖兞?。A、相等B、相互矛盾C、不相關(guān)D、相聯(lián)系正確答案:C14、下列屬于特征降維的方法有A、最小二乘法B、數(shù)據(jù)采樣C、正則化D、主成分分析PCA正確答案:D15、1955年,麥卡錫、明斯基、香農(nóng)和諾切斯特四位學(xué)者首次提出“artificialintelligence(人工智能)”這個(gè)概念時(shí),希望人工智能研究的主題是A、人工智能倫理B、全力研究人類(lèi)大腦C、避免計(jì)算機(jī)控制人類(lèi)D、用計(jì)算機(jī)來(lái)模擬人類(lèi)智能正確答案:D16、決策樹(shù)中,同一路徑上的所有屬性之間是()關(guān)系A(chǔ)、因果B、邏輯或C、相關(guān)D、邏輯與正確答案:D17、選擇正確的()是最近鄰方法中最重要的一步。A、訓(xùn)練集B、預(yù)測(cè)集C、測(cè)試集D、驗(yàn)證集正確答案:A18、下列哪個(gè)函數(shù)不可以做激活函數(shù)?A、y=sin(x)B、y=max(x,0)C、y=2xD、y=tanh(x)正確答案:C19、從全稱(chēng)判斷推導(dǎo)出特稱(chēng)判斷或單稱(chēng)判斷的過(guò)程,即由一般性知識(shí)推出適合于某一具體情況的結(jié)論的推理是A、默認(rèn)推理B、演繹推理C、歸結(jié)推理D、單調(diào)推理正確答案:B20、下列哪項(xiàng)不屬于知識(shí)圖譜的分布式表示方法()A、TransDB、TransHC、word2vecD、TransE正確答案:C21、中國(guó)在哪年首次舉辦機(jī)器人世界杯?()A、2004B、2006C、1999D、$2,008正確答案:D22、下面關(guān)于RandomForest和GradientBoostingTrees說(shuō)法正確的是?()A、無(wú)論任何數(shù)據(jù),GraientBoostingTrees總是優(yōu)于RanomForesB、在GradientBoostingTrees中可以生成并行樹(shù),因?yàn)樗鼈兪窍嗷オ?dú)立的C、RndomForest的中間樹(shù)不是相互獨(dú)立的,而GrdientBoostingTrees的中間樹(shù)是相互獨(dú)立的D、兩者都使用隨機(jī)特征子集來(lái)創(chuàng)建中間樹(shù)正確答案:D23、ResNet-50有多少個(gè)卷積層?()A、48B、49C、50D、$51正確答案:B24、1x1卷積的主要作用是A、通道降維B、擴(kuò)大感受野C、加快卷積運(yùn)算D、增大卷積核正確答案:A25、變量的不確定性越大,相對(duì)應(yīng)信息熵有什么變化()A、熵變小B、不變C、以上都不對(duì)D、熵變大正確答案:D26、某二叉樹(shù)共有399個(gè)結(jié)點(diǎn),其中有199個(gè)度為2的結(jié)點(diǎn),則該二叉樹(shù)中的葉子結(jié)點(diǎn)數(shù)為A、$199B、不存在這樣的二叉樹(shù)C、200D、198正確答案:C27、人工智能的目的是讓機(jī)器能夠(),以實(shí)現(xiàn)某些腦力勞動(dòng)的機(jī)械化A、完全代替人的大腦B、模擬、延伸和擴(kuò)展人的智能C、徹底的替代人類(lèi)D、和人一樣工作正確答案:B28、將輸出標(biāo)記的對(duì)數(shù)作為線(xiàn)性模型逼近的目標(biāo)是(___)。A、對(duì)數(shù)線(xiàn)性回歸B、正則化C、極大似然法D、對(duì)數(shù)幾率回歸正確答案:A29、在神經(jīng)網(wǎng)絡(luò)學(xué)習(xí)中,每個(gè)神經(jīng)元會(huì)完成若干功能,下面哪個(gè)功能不是神經(jīng)元所能夠完成的功能A、將加權(quán)累加信息向后續(xù)相鄰神經(jīng)元傳遞B、對(duì)前序相鄰神經(jīng)元所傳遞信息進(jìn)行加權(quán)累加C、對(duì)加權(quán)累加信息進(jìn)行非線(xiàn)性變化(通過(guò)激活函數(shù))D、向前序相鄰神經(jīng)元反饋加權(quán)累加信息正確答案:D30、下列關(guān)于特征選擇的說(shuō)法錯(cuò)誤的是(___)A、特征選擇和降維具有相似的動(dòng)機(jī)B、可以提高特征關(guān)聯(lián)性C、可以減輕維數(shù)災(zāi)難問(wèn)題D、可以降低學(xué)習(xí)任務(wù)的難度正確答案:B31、梯度下降算法的正確步驟是什么?1.計(jì)算預(yù)測(cè)值和真實(shí)值之間的誤差2.重復(fù)迭代,直至得到網(wǎng)絡(luò)權(quán)重的最佳值3.把輸入傳入網(wǎng)絡(luò),得到輸出值4.用隨機(jī)值初始化權(quán)重和偏差5.對(duì)每一個(gè)產(chǎn)生誤差的神經(jīng)元,調(diào)整相應(yīng)的(權(quán)重)值以減小誤差A(yù)、4,3,1,5,2B、5,4,3,2,1C、3,2,1,5,4D、1,2,3,4,5正確答案:A32、后剪枝是先從訓(xùn)練集生成一顆完整的決策樹(shù),然后(___)對(duì)非葉結(jié)點(diǎn)進(jìn)行考察。A、自上而下B、禁止分支展開(kāi)C、在劃分前D、自底向上正確答案:D33、對(duì)于一個(gè)圖像識(shí)別問(wèn)題(在一張照片里找出一只貓),下面哪種神經(jīng)網(wǎng)絡(luò)可以更好地解決這個(gè)問(wèn)題?A、循環(huán)神經(jīng)網(wǎng)絡(luò)B、感知機(jī)C、卷積神經(jīng)網(wǎng)絡(luò)D、多層感知機(jī)正確答案:C34、下面關(guān)于Jarvis-Patrik(JP)聚類(lèi)算法的說(shuō)法不正確的是()。A、JP聚類(lèi)的基本時(shí)間復(fù)雜度為O(m)。B、JP算法對(duì)高維數(shù)據(jù)效果良好,尤其擅長(zhǎng)發(fā)現(xiàn)強(qiáng)相關(guān)對(duì)象的緊致簇。C、JP聚類(lèi)是基于SNN相似度的概念。D、JP聚類(lèi)擅長(zhǎng)處理噪聲和離群點(diǎn),并且能夠處理不同大小、形狀和密度的簇。正確答案:A35、Python內(nèi)置函數(shù)______用來(lái)返回序列中的最小元素。A、min()B、mini()C、least()D、max()正確答案:A36、基于()的搜索是使用最為廣泛的參數(shù)尋優(yōu)方法A、縱向B、橫向C、梯度D、維度正確答案:C37、AI芯片也被稱(chēng)為AI加速器,是專(zhuān)門(mén)用于處理人工智能應(yīng)用中的大量計(jì)算任務(wù)的功能模塊。A、FALSEB、TRUE正確答案:B38、從加工程度看,以下()屬于數(shù)據(jù)產(chǎn)品中的決策類(lèi)產(chǎn)品。A、咨詢(xún)報(bào)告B、AppsC、戰(zhàn)略規(guī)劃D、數(shù)據(jù)庫(kù)正確答案:C39、下面哪個(gè)敘述是對(duì)的?Dropout對(duì)一個(gè)神經(jīng)元隨機(jī)屏蔽輸入權(quán)重Dropconnect對(duì)一個(gè)神經(jīng)元隨機(jī)屏蔽輸入和輸出權(quán)重A、1是錯(cuò)的,2是對(duì)的B、1是對(duì)的,2是錯(cuò)的C、都是錯(cuò)的D、都是對(duì)的正確答案:C40、下列哪項(xiàng)不是噪聲數(shù)據(jù)的主要表現(xiàn)形式A、異常數(shù)據(jù)B、虛假數(shù)據(jù)C、重復(fù)數(shù)據(jù)D、錯(cuò)誤數(shù)據(jù)正確答案:C41、下列對(duì)《國(guó)務(wù)院關(guān)于印發(fā)新一代人工智能發(fā)展規(guī)劃的通知》中關(guān)于到2030年人工智能發(fā)展戰(zhàn)略目標(biāo),表述錯(cuò)誤的是()。A、成為世界主要人工智能創(chuàng)新中心B、人工智能產(chǎn)業(yè)成為新的重要經(jīng)濟(jì)增長(zhǎng)點(diǎn)C、智能經(jīng)濟(jì)、智能社會(huì)取得明顯成效D、人工智能理論、技術(shù)與應(yīng)用達(dá)到世界領(lǐng)先水平正確答案:B42、faster-rcnn回歸分支采用()lossA、SmoothL1B、L1C、L2D、nan正確答案:A43、如果問(wèn)題存在最優(yōu)解,則下面幾種搜索算法中,()必然可以得到該最優(yōu)解。A、啟發(fā)式搜索B、深度優(yōu)先搜索C、廣度優(yōu)先搜索D、有界深度優(yōu)先搜索正確答案:C44、()模型是一種生成式有向圖模型,主要用于處理離散型的數(shù)據(jù),在信息檢索、自然語(yǔ)言處理等領(lǐng)域有廣泛應(yīng)用。A、信息模型B、語(yǔ)言模型C、話(huà)題模型D、數(shù)據(jù)模型正確答案:C45、以下哪一個(gè)不屬于分類(lèi)算法A、RandomForestB、Fp-GrowthC、XGBoostD、SVM正確答案:B46、對(duì)于DBSCAN,參數(shù)Eps固定,當(dāng)MinPts取值較大時(shí),會(huì)導(dǎo)致A、低密度的點(diǎn)的聚集區(qū)劃為簇,其余的劃為噪聲B、只有高密度的點(diǎn)的聚集區(qū)劃為簇,其余劃為噪聲C、能很好的區(qū)分各類(lèi)簇D、無(wú)影響正確答案:B47、從一個(gè)初始策略出發(fā),不斷迭代進(jìn)行策略評(píng)估和改進(jìn),直到策略收斂、不再改變?yōu)橹?,這樣的作法稱(chēng)為(___)A、策略迭代B、策略改進(jìn)C、最優(yōu)值函數(shù)D、值迭代正確答案:A48、()曲線(xiàn)以precision、recall為橫縱坐標(biāo)A、AP曲線(xiàn)B、RoI曲線(xiàn)C、PR曲線(xiàn)D、mAP曲線(xiàn)正確答案:C49、在抽樣估計(jì)中,隨著樣本容量的增大,樣本統(tǒng)計(jì)量接近總體參數(shù)的概率就越大,這一性質(zhì)稱(chēng)為()A、有效性B、無(wú)偏性C、一致性D、及時(shí)性正確答案:C50、numpy數(shù)組的ndim屬性是()?A、列數(shù)B、各維度大小的元組C、行數(shù)D、數(shù)組的維度正確答案:D51、在ε-greedy策略當(dāng)中,ε的值越大,表示采用隨機(jī)的一個(gè)動(dòng)作的概率越(),采用當(dāng)前Q函數(shù)值最大的動(dòng)作的概率越()。A、小B、小C、大D、大E、小F、大正確答案:C52、TensorFlow程序開(kāi)發(fā)時(shí)經(jīng)常會(huì)使用到placeholder,placeholder是指A、張量B、變量C、占位符D、常量正確答案:C53、下列核函數(shù)特性描述錯(cuò)誤的是(___)A、核函數(shù)選擇作為支持向量機(jī)的最大變數(shù);B、核函數(shù)是一種降維模型;C、只要一個(gè)對(duì)稱(chēng)函數(shù)所對(duì)應(yīng)的核矩陣半正定,就能稱(chēng)為核函數(shù);D、核函數(shù)將影響支持向量機(jī)的性能;正確答案:B54、智能機(jī)器人可以根據(jù)()得到信息。A、學(xué)習(xí)能力B、思維能力C、行為能力D、感知能力正確答案:D55、下面哪一項(xiàng)不屬于卷積神經(jīng)網(wǎng)絡(luò)結(jié)構(gòu)A、RNNB、VGGNetC、ResNetD、LeNet正確答案:A56、EM算法通過(guò)迭代求L(theta)=logP(Y|theta)的(),每次迭代交替進(jìn)行求期望和求極大化。A、無(wú)偏估計(jì)B、區(qū)間估計(jì)C、有偏估計(jì)D、極大似然估計(jì)正確答案:D57、哪個(gè)范數(shù)指向量中各個(gè)元素平方和的1/2次方A、1范數(shù)B、0范數(shù)C、p范數(shù)D、2范數(shù)正確答案:D58、下列數(shù)據(jù)類(lèi)型中,不支持分片操作的是()。A、字典B、元組C、列表D、字符串正確答案:A59、以下不屬于TensorFlow2.0的特點(diǎn)是?A、分布式B、多核CPU加速C、多平臺(tái)D、多語(yǔ)言正確答案:B60、DBSCAN算法將“簇”定義為:由()導(dǎo)出的最大的密度相連樣本集合。A、密度直達(dá)關(guān)系B、密度可達(dá)關(guān)系C、密度相連關(guān)系正確答案:B61、讀取文件時(shí)并指定文件以空格分隔,則應(yīng)該添加A、sep="\r”B、sep="\t”C、sep="”D、sep=""正確答案:D62、Matplotlib庫(kù)中,用來(lái)繪制功率譜密度圖的pyplot的基礎(chǔ)圖標(biāo)函數(shù)是()。A、plt.cohere(x,y,NFFT=256,Fs)B、plt.bar(left,height,width,bottom)C、plt.barh(width,bottom,left,height)D、plt.psd(x,NFFT=256,pad_to,Fs)正確答案:D63、用于終止某一進(jìn)程執(zhí)行的命令是()A、freeB、killC、endD、stop正確答案:B64、在使用scikit-learn里面的交叉驗(yàn)證對(duì)回歸模型進(jìn)行評(píng)估時(shí),根據(jù)平均絕對(duì)誤差給模型打分,則下面代碼的劃線(xiàn)處應(yīng)填上(),scores的分?jǐn)?shù)越(),說(shuō)明回歸模型的性能越好。代碼:scores=cross_val_score(lm,X,y,cv=5,scoring='_______________')A、mean_absolute_error,高B、mean_absolute_error,低C、neg_mean_absolute_error,低D、neg_mean_absolute_error,高正確答案:D65、Boosting是一可將弱學(xué)習(xí)器提升為強(qiáng)學(xué)習(xí)器的算法,最著名的代表是A、BaggingB、決策樹(shù)C、隨機(jī)森林D、AdaBoost正確答案:D66、下列哪個(gè)應(yīng)用領(lǐng)域不屬于人工智能應(yīng)用?()A、自動(dòng)控制B、專(zhuān)家系統(tǒng)C、人工神經(jīng)網(wǎng)絡(luò)D、自然語(yǔ)言學(xué)習(xí)正確答案:A67、均方誤差有非常好的幾何意義,它對(duì)應(yīng)了常用的()A、馬氏距離B、歐氏距離C、切比雪夫距離D、曼哈頓距離正確答案:B68、下列關(guān)于冗余特征的說(shuō)法錯(cuò)誤的是(___)A、冗余特征有時(shí)候可以降低學(xué)習(xí)任務(wù)的難度B、冗余特征是無(wú)用的特征C、去除冗余特征可以減輕學(xué)習(xí)過(guò)程的負(fù)擔(dān)D、冗余特征是可以通過(guò)其他特征推演出來(lái)的特征正確答案:B69、對(duì)于圖像數(shù)據(jù),通常使用的模型是()A、word2vecB、卷積神經(jīng)網(wǎng)絡(luò)C、循環(huán)神經(jīng)網(wǎng)絡(luò)D、bert正確答案:B70、下列哪種機(jī)器學(xué)習(xí)算法不需要?dú)w一化處理?()A、B.SVMB、LogisticRegressionC、KmeansD、DecisionTree正確答案:D71、以下()不屬于廣義上的數(shù)據(jù)可視化技術(shù)。A、信息可視化B、科學(xué)可視化C、類(lèi)別可視化D、可視分析學(xué)正確答案:C72、關(guān)于學(xué)習(xí)率的描述正確的是:A、學(xué)習(xí)率越大系統(tǒng)運(yùn)行速度越快B、學(xué)習(xí)率的大小是根據(jù)不同場(chǎng)景程序員自己設(shè)定的,不宜太大或者太小C、學(xué)習(xí)率越小系統(tǒng)一定精度越高D、學(xué)習(xí)率和w、b一樣是參數(shù),是系統(tǒng)自己學(xué)習(xí)得到的正確答案:B73、以下不屬于數(shù)據(jù)變換的方法有()A、標(biāo)準(zhǔn)化B、特征構(gòu)造C、平滑處理D、去除虛假數(shù)據(jù)正確答案:D74、設(shè)f(x)為可導(dǎo)函數(shù),且f'(x)嚴(yán)格單調(diào)遞增,則F(x)=[f(x)-f(a)]/(x-a)在(a,b]內(nèi)()。A、無(wú)極大值B、有極小值C、單調(diào)遞增D、單調(diào)減少正確答案:C75、下列哪一項(xiàng)屬于特征學(xué)習(xí)算法(representationlearningalgorithm)?A、隨機(jī)森林B、神經(jīng)網(wǎng)絡(luò)C、都不屬于D、K近鄰算法正確答案:B76、數(shù)據(jù)科學(xué)家經(jīng)常使用多個(gè)算法進(jìn)行預(yù)測(cè),并將多個(gè)機(jī)器學(xué)習(xí)算法的輸出(稱(chēng)為“集成學(xué)習(xí)”)結(jié)合起來(lái),以獲得比所有個(gè)體模型都更好的更健壯的輸出。則下列說(shuō)法正確的是?()A、基本模型之間相關(guān)性低。B、基本模型之間相關(guān)性高。C、基本模型都來(lái)自于同一算法。D、集成方法均使用加權(quán)平均代替投票方法。正確答案:A77、在Skip-gram實(shí)際實(shí)現(xiàn)的過(guò)程中,通常會(huì)讓模型接收()個(gè)tensor輸入。A、$4B、2C、1D、3正確答案:D78、Scikit-learn中數(shù)據(jù)和標(biāo)簽用什么數(shù)據(jù)結(jié)構(gòu)來(lái)存儲(chǔ)?A、數(shù)組B、列表C、字典正確答案:A79、一般來(lái)說(shuō),下列哪種方法常用來(lái)預(yù)測(cè)連續(xù)獨(dú)立變量?A、邏輯回歸B、以上說(shuō)法都不對(duì)C、線(xiàn)性回歸D、線(xiàn)性回歸和邏輯回歸都行正確答案:C80、緩解過(guò)擬合的一個(gè)辦法是允許支持向量機(jī)在一些樣本上出錯(cuò),以下哪種形式適合這種方法。()A、硬間隔支持向量機(jī)B、線(xiàn)性核函數(shù)支持向量機(jī)C、軟間隔支持向量機(jī)D、多項(xiàng)式核函數(shù)支持向量機(jī)正確答案:C81、下列樸素貝葉斯估計(jì)描述錯(cuò)誤的是A、采用屬性條件獨(dú)立性假設(shè)B、假設(shè)屬性之間相互獨(dú)立C、為了避免條件概率是所以屬性上的聯(lián)合概率D、假設(shè)屬性之間是相關(guān)的正確答案:D82、PyTorch框架算法模型配置文件應(yīng)為()格式。A、paramsB、pyC、configD、prototxt正確答案:B83、擲2n+1次硬幣,正面向上次數(shù)多于反面向上次數(shù)的概率是()。A、0.5B、n/(2n+1)C、(n+1)/(2n+1)D、(n-1)/(2n+1)正確答案:A84、()中往往存在缺失值、噪聲、錯(cuò)誤或虛假數(shù)據(jù)等質(zhì)量問(wèn)題。A、二次數(shù)據(jù)B、零次數(shù)據(jù)C、一次數(shù)據(jù)D、三次數(shù)據(jù)正確答案:B85、下面哪條命令可以把f1.txt復(fù)制為f2.txt?()A、catf1.txt>f2.txtB、cpf1.txt|f2.txtC、copyf1.txt|f2.txtD、catf1.txt|f2.txt正確答案:A86、關(guān)于SMO神經(jīng)網(wǎng)絡(luò)描述錯(cuò)誤的是(___)A、一種競(jìng)爭(zhēng)學(xué)習(xí)型的無(wú)監(jiān)督神經(jīng)網(wǎng)絡(luò);B、SMO尋優(yōu)目標(biāo)為每個(gè)輸出神經(jīng)元找到合適的權(quán)重;C、將高維輸入數(shù)據(jù)映射到低維空間,保持輸入數(shù)據(jù)在高維空間的拓?fù)浣Y(jié)構(gòu);D、輸出層神經(jīng)元以矩陣方式排列在二維空間;正確答案:B87、Python中,以下哪個(gè)變量的賦值是正確的?A、a=2B、variablea=2C、inta=2D、vara=2正確答案:A88、在Python編程中,字符轉(zhuǎn)換成字節(jié)的方法是A、rstrip()B、upper()C、decode()D、encode()正確答案:D89、損失函數(shù)反映了神經(jīng)網(wǎng)絡(luò)的目標(biāo)輸出和實(shí)際輸出的誤差,在深度學(xué)習(xí)中常用的損失函數(shù)是:A、指數(shù)損失函數(shù)B、對(duì)數(shù)損失函數(shù)C、Hinge損失函數(shù)D、均方損失函數(shù)正確答案:D90、人工智能的目的是讓機(jī)器能夠()A、具有智能B、完全代替人的大腦C、和人一樣工作D、模擬、延伸和擴(kuò)展人的智能正確答案:D
溫馨提示
- 1. 本站所有資源如無(wú)特殊說(shuō)明,都需要本地電腦安裝OFFICE2007和PDF閱讀器。圖紙軟件為CAD,CAXA,PROE,UG,SolidWorks等.壓縮文件請(qǐng)下載最新的WinRAR軟件解壓。
- 2. 本站的文檔不包含任何第三方提供的附件圖紙等,如果需要附件,請(qǐng)聯(lián)系上傳者。文件的所有權(quán)益歸上傳用戶(hù)所有。
- 3. 本站RAR壓縮包中若帶圖紙,網(wǎng)頁(yè)內(nèi)容里面會(huì)有圖紙預(yù)覽,若沒(méi)有圖紙預(yù)覽就沒(méi)有圖紙。
- 4. 未經(jīng)權(quán)益所有人同意不得將文件中的內(nèi)容挪作商業(yè)或盈利用途。
- 5. 人人文庫(kù)網(wǎng)僅提供信息存儲(chǔ)空間,僅對(duì)用戶(hù)上傳內(nèi)容的表現(xiàn)方式做保護(hù)處理,對(duì)用戶(hù)上傳分享的文檔內(nèi)容本身不做任何修改或編輯,并不能對(duì)任何下載內(nèi)容負(fù)責(zé)。
- 6. 下載文件中如有侵權(quán)或不適當(dāng)內(nèi)容,請(qǐng)與我們聯(lián)系,我們立即糾正。
- 7. 本站不保證下載資源的準(zhǔn)確性、安全性和完整性, 同時(shí)也不承擔(dān)用戶(hù)因使用這些下載資源對(duì)自己和他人造成任何形式的傷害或損失。
最新文檔
- 備考2024年審計(jì)師試題及答案建議
- 中級(jí)審計(jì)師考試策略試題及答案
- 火災(zāi)安全評(píng)估方案試題及答案
- 2025年建造師考試研討會(huì)試題及答案
- 深入分析2024高級(jí)會(huì)計(jì)試題及答案
- 2025年入團(tuán)考試試題及答案探索指南
- 2025年一級(jí)建造師考試預(yù)算管理試題及答案
- 消防信息化管理探索試題及答案
- 一年級(jí)數(shù)學(xué)計(jì)算題專(zhuān)項(xiàng)練習(xí)匯編
- 消防器材管理與維護(hù)試題及答案
- 提高護(hù)士的創(chuàng)新能力和研究素養(yǎng)培養(yǎng)培訓(xùn)課件
- 外國(guó)文學(xué)史簡(jiǎn)答論述題
- 央國(guó)企信創(chuàng)化與數(shù)字化轉(zhuǎn)型規(guī)劃實(shí)施
- 江蘇開(kāi)放大學(xué)2021春商務(wù)談判實(shí)務(wù)作業(yè)4-273095
- 23S519 小型排水構(gòu)筑物(帶書(shū)簽)
- 人工智能原理與技術(shù)智慧樹(shù)知到課后章節(jié)答案2023年下同濟(jì)大學(xué)
- SL631-637-2012-水利水電工程單元工程施工質(zhì)量驗(yàn)收評(píng)定標(biāo)準(zhǔn)
- 鐵路建設(shè)項(xiàng)目安全管理
- 項(xiàng)目管理課件
- 裝配式建筑施工技術(shù)PPT(高職)完整全套教學(xué)課件
- 涉詐風(fēng)險(xiǎn)賬戶(hù)審查表
評(píng)論
0/150
提交評(píng)論