版權(quán)說明:本文檔由用戶提供并上傳,收益歸屬內(nèi)容提供方,若內(nèi)容存在侵權(quán),請(qǐng)進(jìn)行舉報(bào)或認(rèn)領(lǐng)
文檔簡(jiǎn)介
第頁(yè)nnxy深度學(xué)習(xí)復(fù)習(xí)試題有答案1.【單選】
對(duì)于一個(gè)分類任務(wù),如果開始時(shí)神經(jīng)網(wǎng)絡(luò)的權(quán)重不是隨機(jī)賦值的,而是都設(shè)成0,下面哪個(gè)敘述是正確的?A、沒啥問題,神經(jīng)網(wǎng)絡(luò)會(huì)正常開始訓(xùn)練B、神經(jīng)網(wǎng)絡(luò)不會(huì)開始訓(xùn)練,因?yàn)闆]有梯度改變C、其他選項(xiàng)都不對(duì)D、神經(jīng)網(wǎng)絡(luò)可以訓(xùn)練,但是所有的神經(jīng)元最后都會(huì)變成識(shí)別同樣的東西【正確答案】:D2.【單選】
閾值分割中,閾值的選取方式有()1、固定閾值分割;2、直方圖雙峰法;3、迭代閾值分割;4、自適應(yīng)閾值分割A(yù)、2,3,4B、1,2,3C、1,2,3,4D、1,2,4【正確答案】:C3.【單選】
GAN只能用于深度神經(jīng)網(wǎng)絡(luò)A、否B、是C、不確定【正確答案】:B4.【單選】
理論上神經(jīng)網(wǎng)絡(luò)可以解決任何問題,因?yàn)樯窠?jīng)網(wǎng)絡(luò)可以逼近任何函數(shù)A、是B、否C、不確定【正確答案】:A5.【單選】
梯度為0的點(diǎn)不一定是局部極值A(chǔ)、否B、是C、不確定【正確答案】:B6.【單選】
線性低通濾波器通過使用鄰域內(nèi)的像素均值進(jìn)行圖像平滑處理,從而消除圖像中的噪音,但是這種方法沒有考慮鄰域像素的位置信息,高斯濾波是使用加權(quán)平均的思想,即較近像素比較遠(yuǎn)像素具有更大權(quán)重,從而獲得更好的平滑效果,請(qǐng)完成以下利用5*5的高斯核,標(biāo)準(zhǔn)差為1.5的高斯低通濾波器的代碼importcv2if__name__=="__main__":images=cv2.imread("./images/lena30.jpg",cv2.IMREAD_COLOR)gaussian_filter=_________________________________dWindow("ImageRead",cv2.WINDOW_AUTOSIZE)cv2.imshow("ImageRead",images)cv2.imshow("Gaussian",gaussian_filter)cv2.waitKey(5*1000)A、:A、B均不可以B、cv2.blur(images,(5,5))C、:A、B任意一種都可以D、cv2.GaussianBlur(images,(5,5),sigmaX=1.5,sigmaY=1.5)【正確答案】:D7.【單選】
計(jì)算機(jī)視覺應(yīng)用場(chǎng)景不包括()A、圖像識(shí)別B、實(shí)例分割C、目標(biāo)檢測(cè)D、自動(dòng)程序設(shè)計(jì)【正確答案】:D8.【單選】
視知覺是一種較高層次的功能,它將外部刺激轉(zhuǎn)化為有意義的外在世界空間的表象,關(guān)于視知覺說法錯(cuò)誤的是()?A、視知覺對(duì)接收的刺激進(jìn)行組織加工,構(gòu)成具有一定形狀整體,借此認(rèn)識(shí)外在世界中的物體目標(biāo)B、視知覺的定義最早是由阿基米德提出C、視知覺主要論述接收外部刺激之后如何反應(yīng)以及所采用的方式D、視知覺的任務(wù)是確定“什么東西在什么地方”【正確答案】:B9.【單選】
在深度學(xué)習(xí)中往往會(huì)遇到模型過擬合問題,解決過擬合問題的重要途經(jīng)是增加有效樣本的數(shù)量,而數(shù)據(jù)增強(qiáng)則是利用各種數(shù)據(jù)處理技術(shù)增加樣本的多樣性,其中調(diào)節(jié)樣本的對(duì)比度通常較為有效的手段之一,請(qǐng)補(bǔ)充完整下面的代碼利用線性變換進(jìn)行對(duì)比度增強(qiáng)importcv2importnumpyasnpnp.set_printoptions(threshold=np.inf)if__name__=="__main__":images=cv2.imread("./images/tree.png",cv2.IMREAD_COLOR)alpha=2beta=40contract_result=___________________________________________dWindow("ImageRead",cv2.WINDOW_AUTOSIZE)cv2.imshow("ImageRead",images)cv2.imshow("Result",contract_result)cv2.waitKey(5*1000)A、cv2.convertScaleAbs(images,alpha=alpha,beta=beta)B、:A、C都可以C、np.clip(images.astype(32)*alpha+beta,0,255)D、np.clip(images.astype(32)*alpha+beta,0,255).astype(np.uint8)【正確答案】:B10.【單選】
從本地圖片庫(kù)中讀取一張圖像,并以BGR圖像加載進(jìn)來,請(qǐng)?zhí)顚慽mread參數(shù)importcv2if__name__=="__main__":images=cv2.imread("./images/lena.jpg",__________)dWindow("ImageRead",cv2.WINDOW_AUTOSIZE)cv2.imshow("ImageRead",images)cv2.waitKey(5*1000)A、cv2.IMREAD_GRAYSCALEB、cv2.IMREAD_COLORC、cv2.IMREAD_UNCHANGEDD、以上均正確【正確答案】:B11.【單選】
對(duì)于采集到幾何失真的圖像可以采用坐標(biāo)變換進(jìn)行矯正,下列哪個(gè)不是坐標(biāo)變換()A、尺度變換B、灰度插值C、旋轉(zhuǎn)變換D、平移變換【正確答案】:B12.【單選】
下列關(guān)于YOLOV4創(chuàng)新性的描述正確的是A、在新網(wǎng)絡(luò)結(jié)構(gòu)中加入CBM模塊、CSPX、SPP等新型模塊,并加入Dropblock機(jī)制B、以上均正確C、FPN+PAN進(jìn)行過多尺度目標(biāo)檢測(cè)D、損失函數(shù)使用CIOU_Loss,預(yù)測(cè)框篩選的NMS變?yōu)镈IOU_NMS【正確答案】:B13.【單選】
計(jì)算機(jī)視覺領(lǐng)域常用的數(shù)據(jù)集中,_________數(shù)據(jù)集是不可以應(yīng)用于目標(biāo)檢測(cè)。A、CifarB、PASCALVOCCOCOD、ImageNetCifar【正確答案】:C14.【單選】
2015年,Google提出了GoogLeNetInceptionV2中除了利用兩個(gè)3*3得卷積替換5*5得卷積之外,還加入例如BatchNormalization,該機(jī)制主要得有用有()A和BB、能夠緩解梯度爆炸得威脅C、每一層的輸入的分布都在變化,導(dǎo)致訓(xùn)練變得困難,引入BatchNormalization,使輸出規(guī)范化到N(0,1)的正態(tài)分布,減少了內(nèi)部神經(jīng)元分布的改變D、能夠增加模型得訓(xùn)練速度【正確答案】:A15.【單選】
2014年,Google提出了GoogLeNet卷積神經(jīng)網(wǎng)絡(luò)模型,該模型使用多尺度卷積提取不同尺度的特征,該模型提出是為了應(yīng)對(duì)什么問題A、以上都是B、網(wǎng)絡(luò)越深,容易出現(xiàn)梯度彌散問題(梯度越往后穿越容易消失),難以優(yōu)化模型C、參數(shù)太多,如果訓(xùn)練數(shù)據(jù)集有限,很容易產(chǎn)生過擬合D、網(wǎng)絡(luò)越大、參數(shù)越多,計(jì)算復(fù)雜度越大,難以應(yīng)用【正確答案】:A16.【單選】
圖像與灰度直方圖間的對(duì)應(yīng)關(guān)系是()A、一對(duì)多B、都不對(duì)C、一一對(duì)應(yīng)D、多對(duì)一【正確答案】:D17.【單選】
下列說法正確的是()A、基于像素的圖像增強(qiáng)方法是一種線性灰度變換B、基于像素的圖像增強(qiáng)方法是基于空間域的圖像增強(qiáng)方法的一種C、基于空域的圖像增強(qiáng)主要有高通濾波、低通濾波、同態(tài)濾波D、基于頻域的圖像增強(qiáng)方法由于常用到傅里葉變換和傅里葉反變換所以總比基于空間域的方法計(jì)算復(fù)雜性高【正確答案】:B18.【單選】
以下檢測(cè)算法,屬于兩階段目標(biāo)檢測(cè)算法是哪個(gè)()?A、RCNNB、以上都是C、FasterRCNND、FastRCNN【正確答案】:B19.【單選】
灰度變換屬于()A、代數(shù)運(yùn)算B、鄰域運(yùn)算C、局部運(yùn)算D、點(diǎn)運(yùn)算【正確答案】:D20.【單選】
兩階段目標(biāo)檢測(cè)相對(duì)于但階段目標(biāo)檢測(cè)來說有什么區(qū)別()A、速度慢B、RegionproposalC、以上都是D、精度高【正確答案】:C21.【單選】
卷積神經(jīng)網(wǎng)絡(luò)的特性是什么()A、池化操作B、局部連接C、以上全部D、共享參數(shù)【正確答案】:C22.【單選】
YOLO系列卷積神經(jīng)網(wǎng)絡(luò)模型是單階段目標(biāo)檢測(cè)的經(jīng)典模型,其下列關(guān)于YOLOV1的敘述正確的是1.核心思想是核心思想就是利用整張圖作為網(wǎng)絡(luò)的輸入,直接在輸出層回歸boundingbox的位置和boundingbox所屬的類別2.將一幅圖像分成SxS個(gè)網(wǎng)格(gridcell),如果某個(gè)object的中心落在這個(gè)網(wǎng)格中,則這個(gè)網(wǎng)格就負(fù)責(zé)預(yù)測(cè)這個(gè)object3.模型的backbone是Darknet4.YOLO對(duì)相互靠的很近的物體,還有很小的群體檢測(cè)效果不好,這是因?yàn)橐粋€(gè)網(wǎng)格中只預(yù)測(cè)了兩個(gè)框,并且只屬于一類A、1,2,4B、1,2,3,4C、2,3,4D、1,2,3【正確答案】:B23.【單選】
Sobel算子是在Prewitt算子的基礎(chǔ)上改進(jìn)的,在中心系數(shù)上使用一個(gè)權(quán)值2,請(qǐng)?jiān)诶?*3的核,分別對(duì)圖像進(jìn)行x、y、x和y方向一階倒數(shù)的Sobel算子檢測(cè)圖像邊緣importcv2if__name__=="__main__":images=cv2.imread("./images/lena.jpg",cv2.IMREAD_GRAYSCALE)x=___________________________________________y=___________________________________________absX=cv2.convertScaleAbs(x)absY=cv2.convertScaleAbs(y)sobel_result=___________________________________________cv2.imshow("ImageRead",images)cv2.imshow("absX",absX)cv2.imshow("absY",absY)cv2.imshow("Result",sobel_result)cv2.waitKey(0)A、cv2.Sobel(images,cv2.CV_16S,1,0,ksize=3)cv2.Sobel(images,cv2.CV_16S,0,1,ksize=3)cv2.addWeighted(sobel_x,0.5,sobel_y,0.5,0)B、:A、B都不可以C、:A、B都可以D、cv2.Sobel(images,cv2.CV_16S,1,0,ksize=3)cv2.Sobel(images,cv2.CV_16S,0,1,ksize=3)cv2.add(sobel_x,sobel_y)【正確答案】:C24.【單選】
用什么范圍可以表示顏色的明暗程度,RGB分別代表什么顏色()?A、范圍:0-255;RGB:紅,綠,藍(lán)B、范圍:-255-255;RGB:紅,綠,藍(lán)C、范圍:0-255;RGB:藍(lán),綠,紅D、范圍:1-256;RGB:黃,綠,藍(lán)【正確答案】:A25.【單選】
所有深度學(xué)習(xí)模型都是神經(jīng)網(wǎng)絡(luò)?A、不確定B、否C、是【正確答案】:C26.【單選】
如果增加多層感知機(jī)(MultilayerPerceptron)的隱藏層層數(shù),分類誤差便會(huì)減小。A、否B、不確定C、是【正確答案】:C27.【單選】
前饋神經(jīng)網(wǎng)絡(luò)的隱藏單元必須在所有的輸入點(diǎn)都可微A、不確定B、是C、否【正確答案】:C28.【單選】
深度可分離卷積相對(duì)于傳統(tǒng)的卷積運(yùn)算具有一定的優(yōu)勢(shì),其主要集中在那些方面?A、計(jì)算量相對(duì)更少B、參數(shù)量減少了C、對(duì)計(jì)算資源要求更低D、以上所有【正確答案】:D29.【單選】
最大類間方差法OTSU的闡述錯(cuò)誤的是A、對(duì)圖像噪聲敏感,只能針對(duì)單一目標(biāo)分割,當(dāng)目標(biāo)和背景大小比例(面積)懸殊、類間方差函數(shù)可能呈現(xiàn)雙峰或者多峰,這個(gè)時(shí)候效果不好B、目標(biāo)與背景的灰度有較大的重疊時(shí)也能準(zhǔn)確的將目標(biāo)與背景分開C、算法假設(shè)圖像像素能夠根據(jù)全局閾值,被分成背景(background)和目標(biāo)(objects)兩部分D、是求圖像全局閾值的最佳方法,計(jì)算簡(jiǎn)單快速,不受圖像亮度和對(duì)比度的影響【正確答案】:B30.【單選】
1980年,日本科學(xué)家福島彥明建立了一個(gè)自組織的簡(jiǎn)單細(xì)胞核復(fù)雜細(xì)胞的人工神經(jīng)網(wǎng)絡(luò)________。A、LeNetB、SVMC、MLPD、Neocognitron【正確答案】:D31.【單選】
2014年,RossB。Girshick提出了RCNN兩階段目標(biāo)檢測(cè)模型,該模型利用深度卷積神經(jīng)網(wǎng)絡(luò)提取特征,并非端到端得卷積神經(jīng)網(wǎng)絡(luò)模型,請(qǐng)描述該模型得檢測(cè)流程1.利用selectivesearch方法在輸入圖像中提取2000個(gè)regionproposals,并歸一化到227*2272.候選圖像輸入到卷積神經(jīng)網(wǎng)絡(luò)中提取特征3.利用SVM進(jìn)行分類4.使用NMS非極大值抑制去除IOU值較大冗余regionproposals,并做目標(biāo)框bbox回歸A、1,2,3,4B、2,1,3,4C、1,4,2,4D、2,1,4,3【正確答案】:A32.【單選】
當(dāng)構(gòu)建一個(gè)神經(jīng)網(wǎng)絡(luò)進(jìn)行圖片的語(yǔ)義分割時(shí),通常采用下面哪種順序?A、先用反卷積神經(jīng)網(wǎng)絡(luò)處理輸入,再用卷積神經(jīng)網(wǎng)絡(luò)得到輸出B、:A、B都可以C、先用卷積神經(jīng)網(wǎng)絡(luò)處理輸入,再用反卷積神經(jīng)網(wǎng)絡(luò)得到輸出D、不能確定【正確答案】:C33.【單選】
下列的哪種方法可以用來降低深度學(xué)習(xí)模型的過擬合問題?1增加更多的數(shù)據(jù)2使用數(shù)據(jù)擴(kuò)增技術(shù)(dataaugmentation)3使用歸納性更好的架構(gòu)4正規(guī)化數(shù)據(jù)5降低架構(gòu)的復(fù)雜度A、1,3,4,5B、1,2,3C、1,4,5D、所有項(xiàng)目都有用【正確答案】:D34.【單選】
閉運(yùn)算與開運(yùn)算相反,其操作順序與開運(yùn)算剛好相反,即對(duì)圖像先進(jìn)行膨脹再進(jìn)行腐蝕操作。這種高級(jí)操作常被用來填充前景物體中的小洞,或者填充前景上的小黑點(diǎn)。以下是利用3*3的核對(duì)圖像連續(xù)三次閉運(yùn)算,請(qǐng)完成以下代碼importcv2importnumpyasnpif__name__=="__main__":#形態(tài)學(xué)閉運(yùn)算images=cv2.imread("./images/j_inner.png",cv2.IMREAD_GRAYSCALE)##創(chuàng)建腐蝕和膨脹的核kernel=___________________________closing_result=______________________________cv2.imshow("ImageRead",images)cv2.imshow("Closingresult",closing_result)cv2.waitKey(0)A、np.ones((3,3),np.uint8)cv2.morphologyEx(images,op=cv2.MORPH_CLOSE,kernel=kernel,iterations=3)B、np.ones((3,3),np.uint8)cv2.morphologyEx(images,op=cv2.MORPH_OPEN,kernel=kernel,iterations=3)【正確答案】:A35.【單選】
下面關(guān)于FasterRCNN的改進(jìn)描述正確的是()A、:A,CB、輸入數(shù)據(jù)是固定尺寸的C、利用RegionProposalNetwork進(jìn)行候選區(qū)域生成D、產(chǎn)生RegionProposal的CNN和目標(biāo)檢測(cè)的CNN是共享參數(shù)的【正確答案】:A36.【單選】
基于Python的OpenCV讀取RGB圖像,我們可以獲取圖像的那些信息()A、以上所有B、圖像像素的數(shù)據(jù)類型C、像素的最大值、最小值D、圖像的尺寸【正確答案】:A37.【單選】
批規(guī)范化(BatchNormalization)的好處都有啥?A、它是一種非常有效的反向傳播(BP)方法B、讓每一層的輸入的范圍都大致固定C、這些均不是D、它將權(quán)重的歸一化平均值和標(biāo)準(zhǔn)差【正確答案】:B38.【單選】
一般而言,L2正則化可產(chǎn)生比L1正則化更稀疏的解A、是B、不確定C、否【正確答案】:C39.【單選】
2017年,LaurentSifr提出一種全新的卷積方式-深度可分離卷積(DepthwiseSeparableConvolution),這種卷積方式將傳統(tǒng)的卷積運(yùn)算分為兩步,分別包含()和()?1.Depthwiseconvolution2.Pointwiseconvolution3.Groupconvolution4.TransposeConvolutionA、1,2B、3,4C、2,3D、1,4【正確答案】:A40.【單選】
計(jì)算機(jī)視覺經(jīng)歷了4個(gè)主要?dú)v程。即:_________、_________、_________和_________。A、主動(dòng)和目的視覺、馬爾計(jì)算視覺、基于學(xué)習(xí)的視覺、多視幾何與分層三維重建B、多視幾何與分層三維重建、基于學(xué)習(xí)的視覺、主動(dòng)和目的視覺、馬爾計(jì)算視覺C、馬爾計(jì)算視覺、基于學(xué)習(xí)的視覺、主動(dòng)和目的視覺、多視幾何與分層三維重建D、馬爾計(jì)算視覺、主動(dòng)和目的視覺、多視幾何與分層三維重建和基于學(xué)習(xí)的視覺【正確答案】:D41.【單選】
神經(jīng)網(wǎng)絡(luò)進(jìn)行圖片語(yǔ)義分割時(shí),先用CNN處理輸入,再用反CNN得到輸出A、否B、是C、不確定【正確答案】:B42.【單選】
下列哪一項(xiàng)不是常用的優(yōu)化函數(shù)()?AdamB、以上所有C、AdaGradD、MBGD【正確答案】:B43.【單選】
中值濾波是計(jì)算當(dāng)前像素與其鄰域內(nèi)像素所組成的集合中的中間值,并利用該中間值替換當(dāng)前像素位置上的像素值,因此中值濾波是一種非線性的濾波器,他對(duì)鹽噪聲具有較好的效果(如下圖所示),請(qǐng)完善以下利用5*5的鄰域進(jìn)行中值濾波的相關(guān)代碼importcv2importnumpyasnpdefsp_noise(image,prob):'''''添加椒鹽噪聲prob:噪聲比例'''output=np.zeros(image.shape,np.uint8)thres=1-probforiinrange(image.shape[0]):forjinrange(image.shape[1]):rdn=np.random.random()ifrdn<prob:output[i][j]=0elifrdn>thres:output[i][j]=255else:output[i][j]=image[i][j]returnoutputif__name__=="__main__":images=cv2.imread("./images/lena30.jpg")sp_noise=sp_noise(images,prob=0.02)___________________________dWindow("ImageRead",cv2.WINDOW_AUTOSIZE)cv2.imshow("ImageRead",images)cv2.imshow("Saltandpeppernoise",sp_noise)cv2.imshow("Media",media_filter)cv2.waitKey(0)A、media_filter=cv2.medianBlur(sp_noise,ksize=(5,5))B、media_filter=cv2.medianBlur(sp_noise,ksize=5)C、cv2.medianBlur(sp_noise,ksize=5,media_filter)D、:A、B任意一種都可以【正確答案】:B44.【單選】
在CNN中使用1×1卷積時(shí),下列哪一項(xiàng)是正確的?A、它可以幫助降低維數(shù)B、可以用于特征池C、所有上述D、由于小的內(nèi)核大小,它會(huì)減少過擬合【正確答案】:C45.【單選】
輪廓是由一系列具有相同或類似的BGR值或灰度值的點(diǎn)構(gòu)成的,輪廓提取則是將整個(gè)輪廓上的所有像素點(diǎn)的數(shù)值保留下來,輪廓檢測(cè)具有非常廣泛的使用場(chǎng)景,例如二維碼識(shí)別、實(shí)例分割等領(lǐng)域。OpenCV提供了輪廓檢測(cè)的接口,現(xiàn)在我們需要檢測(cè)下圖的等級(jí)樹結(jié)構(gòu)的輪廓信息,請(qǐng)完善以下代碼importcv2if__name__=="__main__":#圖像讀取,并轉(zhuǎn)為灰度圖images=cv2.imread("./images/hands.png",cv2.IMREAD_UNCHANGED)gray_images=cv2.cvtColor(images,cv2.COLOR_BGR2GRAY)gauss=cv2.GaussianBlur(gray_images,(3,3),0)#高斯模糊edges=cv2.Canny(gauss,50,150)#Canny邊緣檢測(cè)kernel=cv2.getStructuringElement(cv2.MORPH_RECT,(5,5))closed=cv2.morphologyEx(edges,cv2.MORPH_CLOSE,kernel)#利用先膨脹后腐蝕的的方式去除噪聲#尋找輪廓retval,contours,hierarchy=_____________________________________________#畫出輪廓contours_result=__________________________________________________#圖像顯示dWindow('Contours',cv2.WINDOW_NORMAL)cv2.imshow('Contours',contours_result)cv2.waitKey(0)cv2.destroyAllWindows()A、cv2.findContours(closed,cv2.RETR_EXTERNAL,cv2.CHAIN_APPROX_SIMPLE)cv2.drawContours(images,contours,-1,(255,0,0),3)B、cv2.findContours(closed,cv2.RETR_TREE,cv2.CHAIN_APPROX_SIMPLE)cv2.drawContours(images,contours,-1,(255,0,0),3)C、cv2.findContours(closed,cv2.RETR_CCOMP,cv2.CHAIN_APPROX_SIMPLE)cv2.drawContours(images,contours,-1,(255,0,0),3)D、cv2.findContours(closed,cv2.RETR_LIST,cv2.CHAIN_APPROX_SIMPLE)cv2.drawContours(images,contours,-1,(255,0,0),3)【正確答案】:B46.【單選】
在基于深度學(xué)習(xí)的模型中,池化層的作用是什么()?A、以上所有B、保留不變性C、擴(kuò)大感受野D、降低特征圖的分辨率【正確答案】:A47.【單選】
仿射變換公式如下所示由公式可知放射變換由一線性變換加上一平移量構(gòu)成,當(dāng)前需要希望對(duì)原始圖像以中心點(diǎn)為原點(diǎn),旋轉(zhuǎn)45度得到新的圖片,然后再向右下平移20個(gè)像素,請(qǐng)完成以下代碼importcv2importnumpyasnpif__name__=="__main__":#仿射變換images=cv2.imread("./images/lena.jpg",cv2.IMREAD_GRAYSCALE)rows=images.shape[0]cols=images.shape[1]##定義仿射變換的矩陣affine_transformation_mat=_____________________________________##對(duì)圖像仿射變換affine_transformation_result=____________________________________cv2.imshow("ImageRead",images)cv2.imshow("Cropresult",affine_transformation_result)cv2.waitKey(0)A、np.float32([[0.5,-0.5,20],[0.5,0.5,20]])cv2.warpAffine(images,affine_transformation_mat,(cols,rows))B、np.float32([[20,-0.5,0.5],[20,0.5,0.5]])cv2.warpAffine(images,affine_transformation_mat,(cols,rows))C、np.float32([[0.5,0.5,20],[0.5,-0.5,20]])cv2.warpAffine(images,affine_transformation_mat,(cols,rows))D、np.float32([[20,0.5,0.5],[20,0.5,-0.5]])cv2.warpAffine(images,affine_transformation_mat,(cols,rows))【正確答案】:A48.【單選】
Canny邊緣檢測(cè)算法可以分為以下5個(gè)步驟:1)、使用高斯濾波器,以平滑圖像,濾除噪聲。2)、計(jì)算圖像中每個(gè)像素點(diǎn)的梯度強(qiáng)度和方向。3)、應(yīng)用非極大值(Non-MaximumSuppression)抑制,以消除邊緣檢測(cè)帶來的雜散響應(yīng)。4)、應(yīng)用雙閾值(Double-Threshold)檢測(cè)來確定真實(shí)的和潛在的邊緣。5)、通過抑制孤立的弱邊緣最終完成邊緣檢測(cè)。請(qǐng)完成以下利用最大、最小閾值分別是60,180且基于L1范式的canny算子進(jìn)行邊緣檢測(cè)的代碼importcv2importnumpyasnpif__name__=="__main__":#Canny算法images=cv2.imread("./images/lena30.jpg",cv2.IMREAD_GRAYSCALE)canny_result=___________________________________#繪制結(jié)果cv2.imshow("img",images)cv2.imshow("Cannyresult",canny_result)cv2.waitKey(0)A、cv2.Canny(images,60,180)B、cv2.Canny(images,180,60)C、cv2.Canny(images,60,180,L2gradient=True)D、:A、C均可【正確答案】:A49.【單選】
下列圖像平滑算法中既能有效地平滑噪聲又可以避免邊緣模糊效應(yīng)的是:()。A、灰度變換法B、領(lǐng)域平均法C、中值濾波法D、低通濾波法【正確答案】:C50.【單選】
梯度為0的點(diǎn)只能是局部極小點(diǎn)或局部極大點(diǎn)A、不確定B、是C、否【正確答案】:C51.【單選】
已知:大腦是有很多個(gè)叫做神經(jīng)元的東西構(gòu)成,神經(jīng)網(wǎng)絡(luò)是對(duì)大腦的簡(jiǎn)單的數(shù)學(xué)表達(dá)。每一個(gè)神經(jīng)元都有輸入、處理函數(shù)和輸出。神經(jīng)元組合起來形成了網(wǎng)絡(luò),可以擬合任何函數(shù)。為了得到最佳的神經(jīng)網(wǎng)絡(luò),我們用梯度下降方法不斷更新模型給定上述關(guān)于神經(jīng)網(wǎng)絡(luò)的描述,什么情況下神經(jīng)網(wǎng)絡(luò)模型被稱為深度學(xué)習(xí)模型?A、以上都不正確B、當(dāng)這是一個(gè)圖形識(shí)別的問題時(shí)C、有維度更高的數(shù)據(jù)D、加入更多層,使神經(jīng)網(wǎng)絡(luò)的深度增加【正確答案】:D52.【單選】
神經(jīng)網(wǎng)絡(luò)被稱為通用函數(shù)擬合器,所以它理論上可以表示任何決策邊界。A、不確定B、是C、否【正確答案】:B53.【單選】
1989年,法國(guó)的YannLeCun將_______算法應(yīng)用于Fukushima的卷積神經(jīng)網(wǎng)絡(luò)結(jié)構(gòu)。之后LeCun發(fā)布了_______,該網(wǎng)絡(luò)是卷積神經(jīng)網(wǎng)絡(luò)早期最經(jīng)典的卷積神經(jīng)網(wǎng)絡(luò)之一。A、反向傳播(Backpropagation)、AlexNetB、隨機(jī)梯度下降(StochasticGradientDescent)、LeNet-5C、反向傳播(Backpropagation)、LeNet-5D、隨機(jī)梯度下降(StochasticGradientDescent)、MLP【正確答案】:C54.【單選】
圖像旋轉(zhuǎn)而產(chǎn)生的圖像空穴問題通過哪些方式可以解決()A、插值法B、平移法C、尺度變換法D、以上都不是【正確答案】:A55.【單選】
訓(xùn)練好的模型在測(cè)試集準(zhǔn)確率100%,則在新的數(shù)據(jù)集上也會(huì)達(dá)到100%A、不確定B、否C、是【正確答案】:B56.【單選】
600萬(wàn)像素的手機(jī)攝像頭拍攝的一-幅彩色圖像(在無(wú)壓縮情況下)所需存儲(chǔ)空間為()。A、1800KBB、2400萬(wàn)字節(jié)C、600MBD、1800萬(wàn)字節(jié)【正確答案】:D57.【單選】
深度學(xué)習(xí)是一種特殊的表示學(xué)習(xí)方法A、是B、不確定C、否【正確答案】:A58.【單選】
對(duì)于分類任務(wù),我們不是將神經(jīng)網(wǎng)絡(luò)中的隨機(jī)權(quán)重初始化,而是將所有權(quán)重設(shè)為零。下列哪項(xiàng)正確?A、沒有任何問題,神經(jīng)網(wǎng)絡(luò)模型將正常訓(xùn)練B、這些均不會(huì)發(fā)生C、神經(jīng)網(wǎng)絡(luò)模型不會(huì)進(jìn)行訓(xùn)練,因?yàn)闆]有凈梯度變化D、神經(jīng)網(wǎng)絡(luò)模型可以訓(xùn)練,但所有的神經(jīng)元最終將識(shí)別同樣的事情【正確答案】:D59.【單選】
目標(biāo)檢測(cè)中IOU(IntersectionoverUnion)計(jì)算公式()A、IOU=(預(yù)測(cè)目標(biāo)邊框-真實(shí)目標(biāo)邊框)/(預(yù)測(cè)目標(biāo)邊框∩真實(shí)目標(biāo)邊框)B、IOU=(預(yù)測(cè)目標(biāo)邊框∩真實(shí)目標(biāo)邊框)/(預(yù)測(cè)目標(biāo)邊框∪真實(shí)目標(biāo)邊框)C、IOU=(預(yù)測(cè)目標(biāo)邊框-真實(shí)目標(biāo)邊框)/(預(yù)測(cè)目標(biāo)邊框∪真實(shí)目標(biāo)邊框)D、IOU=(預(yù)測(cè)目標(biāo)邊框∪真實(shí)目標(biāo)邊框)/(預(yù)測(cè)目標(biāo)邊框∩真實(shí)目標(biāo)邊框)【正確答案】:B60.【單選】
一般來說,L1正則化可產(chǎn)生比L2正則化更稀疏的解A、是B、不確定C、否【正確答案】:A61.【單選】
基于深度學(xué)習(xí)的目標(biāo)檢測(cè)術(shù)語(yǔ)描述正確的是()1、backbone:主干網(wǎng)絡(luò),主要指用來做特征提取作用的網(wǎng)絡(luò),早期分類網(wǎng)絡(luò)VGG、ResNet等去掉用于分類的全連接層的部分。2、neck:指放在backbone和head之間的網(wǎng)絡(luò),作用是更好的融合或利用backbone提取的feature,可以理解為特征增強(qiáng)模塊,典型的neck是如FPN結(jié)構(gòu)。3、head:檢測(cè)頭,輸出想要結(jié)果(分類+定位)的網(wǎng)絡(luò),放在模型最后。如YOLO使用特定維度的conv獲取目標(biāo)的類別和bbox信息A、1,3B、2,3C、1,2D、1,2,3【正確答案】:D62.【單選】
在輸出層不能使用以下哪種激活函數(shù)來分類圖像?A、TanhB、SigmoidC、ReLUD、If(x>5,1,0)【正確答案】:C63.【單選】
如果我們用了一個(gè)過大的學(xué)習(xí)速率會(huì)發(fā)生什么?A、神經(jīng)網(wǎng)絡(luò)不會(huì)收斂B、不好說C、神經(jīng)網(wǎng)絡(luò)會(huì)收斂D、都不對(duì)【正確答案】:A64.【單選】
與普通反向傳播不同的是,隨時(shí)間的反向傳播算法會(huì)在每個(gè)時(shí)間步長(zhǎng)內(nèi)疊加所有對(duì)應(yīng)權(quán)重的梯度A、不確定B、否C、是【正確答案】:C65.【單選】
如果我們希望預(yù)測(cè)n個(gè)類(p1,p2,...,pk)的概率使得所有n的p的和等于1,那么下列哪個(gè)函數(shù)可以用作輸出層中的激活函數(shù)?A、SigmoidB、ReLuC、TanhD、Softmax【正確答案】:D66.【單選】
BP算法僅適用于多層前饋神經(jīng)網(wǎng)絡(luò)A、不確定B、否C、是【正確答案】:B67.【單選】
Xavier初始化是最為常用的神經(jīng)網(wǎng)絡(luò)權(quán)重初始化方法Xavier初始化是用來幫助信號(hào)能夠在神經(jīng)網(wǎng)絡(luò)中傳遞得更深,下面哪些敘述是對(duì)的?1、如果權(quán)重一開始很小,信號(hào)到達(dá)最后也會(huì)很小2、如果權(quán)重一開始很大,信號(hào)到達(dá)最后也會(huì)很大3、Xavier初始化是由高斯發(fā)布引出的4、Xavier初始化可以幫助減少梯度彌散問題A、1,2,3,4B、2,3,4C、1,3,4D、1,2,4【正確答案】:A68.【單選】
梯度下降算法的正確步驟是什么()?1.計(jì)算預(yù)測(cè)值和真實(shí)值之間的誤差2.重復(fù)迭代,直至得到網(wǎng)絡(luò)權(quán)重的最佳值3.把輸入傳入網(wǎng)絡(luò),得到輸出值4.用隨機(jī)值初始化權(quán)重和偏差5.對(duì)每一個(gè)產(chǎn)生誤差的神經(jīng)元,調(diào)整相應(yīng)的(權(quán)重)值以減小誤差A(yù)、5,4,3,2,1B、1,2,3,4,5C、3,2,1,5,4D、4,3,1,5,2【正確答案】:D69.【單選】
2014年,Google提出了GoogLeNet卷積神經(jīng)網(wǎng)絡(luò)模型中引入了Inecption模塊,在該模塊中頻繁使用1*1的卷積,引入1*1的卷積作用主要有()1.降低特征圖維度,減少后續(xù)計(jì)算量2.對(duì)上一層特征進(jìn)行線性整合,之后再利用激活函數(shù)進(jìn)行非線性映射3.降低梯度消失的風(fēng)險(xiǎn)A、1,2,3B、2C、1,2D、以上都是【正確答案】:C70.【單選】
假設(shè)下方是傳入最大池化層的一個(gè)輸入,該層中神經(jīng)元的池化大小為(3,3)。那么,該池化層的輸出是多少?A、5B、7C、5.5D、3【正確答案】:B71.【單選】
2015年KaimingHe提出ResNet卷積神經(jīng)網(wǎng)絡(luò),創(chuàng)新性的提出殘差模塊,該模型主要是應(yīng)對(duì)什么問題A、深度卷積神經(jīng)網(wǎng)絡(luò)模型過擬合問題B、深度卷積神經(jīng)網(wǎng)絡(luò)模型退化問題C、深度卷積神經(jīng)網(wǎng)絡(luò)梯度消失問題D、A和B【正確答案】:B72.【單選】
透視變換是將一幅圖像從一個(gè)平面投影到另一個(gè)平面,相較于仿射變換來說,透視變換的輸出圖像中,盡管其依舊可保持原圖像中的直線不產(chǎn)生變形,但是輸入圖像中的平行線可能不再平行,不平行的線也可能會(huì)變平行。利用透視變換將像素[[50,0],[0,50],[50,100],[200,210]]映射到[[0,0],[50,0],[0,50],[100,100]]。請(qǐng)完成透視變換到代碼importcv2importnumpyasnpif__name__=="__main__":#圖像透視變換images=cv2.imread("./images/lena.jpg",cv2.IMREAD_GRAYSCALE)rows=images.shape[0]cols=images.shape[1]#定義透視變換矩陣ori_position=_________________________________________target_position=_______________________________________perspective_transform_mat=_____________________________#透視變換perspective_transform_result=______________________________________cv2.imshow("ImageRead",images)cv2.imshow("Perspectivetransformresult",perspective_transform_result)cv2.waitKey(0)A、np.float32([[0,0],[50,0],[0,50],[100,100]])np.float32([[50,0],[0,50],[50,100],[200,210]])cv2.getPerspectiveTransform(ori_position,target_position)cv2.warpPerspective(images,perspective_transform_mat,(cols,rows))B、np.float32([[50,0],[0,50],[50,100],[200,210]])np.float32([[0,0],[50,0],[0,50],[100,100]])cv2.getPerspectiveTransform(target_position,ori_position)cv2.warpPerspective(images,perspective_transform_mat,(cols,rows))C、np.float32([[50,0],[0,50],[50,100],[200,210]])np.float32([[0,0],[50,0],[0,50],[100,100]])cv2.getPerspectiveTransform(ori_position,target_position)cv2.warpPerspective(images,perspective_transform_mat,(cols,rows))D、np.float32([[0,0],[50,0],[0,50],[100,100]])np.float32([[50,0],[0,50],[50,100],[200,210]])cv2.getPerspectiveTransform(target_position,ori_position)cv2.warpPerspective(images,perspective_transform_mat,(cols,rows))【正確答案】:C73.【單選】
2016年,YaniIoannou在DeepRoots:ImprovingCNNEfficiencywithHierarchicalFilterGroups這篇論文中提出了分組卷積(GroupConvolution)的卷積運(yùn)算方式,該卷積運(yùn)算改變了傳統(tǒng)卷積與每一個(gè)通道中特征圖進(jìn)行卷積運(yùn)算發(fā)方式,其卷積計(jì)算方式如下所示,請(qǐng)計(jì)算該卷積運(yùn)算中卷積核參數(shù)量計(jì)算方式A、kernel_size*kernel_size*c1*c2B、kernel_size*kernel_size*(c1/g)*(c2/g)*gC、kernel_size*kernel_size*c1/g1*1*c1*c2D、kernel_size*kernel_size*c1【正確答案】:B74.【單選】
Sigmoid是神經(jīng)網(wǎng)絡(luò)中最常用到的一種激活函數(shù),除非當(dāng)梯度太大導(dǎo)致激活函數(shù)被彌散,這叫作神經(jīng)元飽和。這就是為什么ReLU會(huì)被提出來,因?yàn)镽eLU可以使得梯度在正向時(shí)輸出值與原始值一樣。這是否意味著在神經(jīng)網(wǎng)絡(luò)中ReLU單元永遠(yuǎn)不會(huì)飽和?A、否B、是C、不確定【正確答案】:A75.【單選】
當(dāng)在卷積神經(jīng)網(wǎng)絡(luò)中加入池化層(poolinglayer)時(shí),變換的不變性會(huì)被保留嗎()A、否B、是C、不知道D、看情況【正確答案】:B76.【單選】
增加卷積核的大小對(duì)于改進(jìn)卷積神經(jīng)網(wǎng)絡(luò)的效果是必要的嗎?A、否B、沒聽說過C、不知道D、是【正確答案】:A77.【單選】
訓(xùn)練CNN時(shí),可以對(duì)輸入進(jìn)行旋轉(zhuǎn)、平移、縮放等預(yù)處理提高模型泛化能力。A、不確定B、否C、是【正確答案】:B78.【單選】
反向傳播算法一開始計(jì)算什么內(nèi)容的梯度,之后將其反向傳播?A、預(yù)測(cè)結(jié)果與樣本標(biāo)簽之間的誤差B、各個(gè)網(wǎng)絡(luò)權(quán)重的平方差之和C、各個(gè)輸入樣本的平方差之和D、都不對(duì)【正確答案】:A79.【單選】
圖像中目標(biāo)的邊緣強(qiáng)度值往往具有較為劇烈的變化,所以往往這些地方處于高頻部分。邊緣檢測(cè)測(cè)試將這些高頻區(qū)域檢測(cè)出來,而高通濾波的特點(diǎn)就是保留高頻信息,過濾低頻信息,所以可以契合邊緣檢測(cè)的需求。Prewitt邊緣檢測(cè)算子利用3*3的卷積核實(shí)現(xiàn)在其鄰域內(nèi)進(jìn)行水平和垂直方向上求梯度,進(jìn)而獲取邊緣信息,其水平卷積核(左)和垂直卷積核(右)如下圖所示,現(xiàn)在利用Prewitt邊緣檢測(cè)算子進(jìn)行圖像目標(biāo)邊緣檢測(cè),請(qǐng)補(bǔ)充以下代碼:importcv2importnumpyasnpif__name__=="__main__":#Prewitt算子-邊緣檢測(cè)images=cv2.imread("./images/lena.jpg",cv2.IMREAD_GRAYSCALE)#Prewitt算子定義kernelx=______________________________kernely=______________________________prewitt_x=______________________________prewitt_y=______________________________#轉(zhuǎn)uint8prewitt_x=cv2.convertScaleAbs(prewitt_x)prewitt_y=cv2.convertScaleAbs(prewitt_y)prewitt_result=cv2.addWeighted(prewitt_x,0.5,prewitt_y,0.5,0)#繪制結(jié)果cv2.imshow("ImageRead",images)cv2.imshow("absX",prewitt_x)cv2.imshow("absY",prewitt_y)cv2.imshow("Result",prewitt_result)cv2.waitKey(0)A、np.array([[1,1,1],[0,0,0],[-1,-1,-1]],dtype=int)np.array([[-1,0,1],[-1,0,1],[-1,0,1]],dtype=int)cv2.filter2D(images,cv2.CV_16S,kernelx)cv2.filter2D(images,cv2.CV_16S,kernely)B、np.array([[-1,0,1],[-1,0,1],[-1,0,1]],dtype=int)np.array([[1,1,1],[0,0,0],[-1,-1,-1]],dtype=int)cv2.filter2D(images,cv2.CV_16S,kernelx)cv2.filter2D(images,cv2.CV_16S,kernely)C、np.array([[1,1,1],[0,0,0],[-1,-1,-1]],dtype=int)np.array([[-1,0,1],[-1,0,1],[-1,0,1]],dtype=int)cv2.boxFilter(images,cv2.CV_16S,kernelx)cv2.boxFilter(images,cv2.CV_16S,kernely)D、np.array([[-1,0,1],[-1,0,1],[-1,0,1]],dtype=int)np.array([[1,1,1],[0,0,0],[-1,-1,-1]],dtype=int)cv2.boxFilter(images,cv2.CV_16S,kernelx)cv2.boxFilter(images,cv2.CV_16S,kernely)【正確答案】:A80.【單選】
在神經(jīng)網(wǎng)絡(luò)中,每個(gè)參數(shù)可以有不同的學(xué)習(xí)率A、否B、是C、不確定【正確答案】:B81.【單選】
對(duì)于一個(gè)圖像識(shí)別問題(在一張照片里找出一只貓),下面哪種神經(jīng)網(wǎng)絡(luò)可以更好地解決這個(gè)問題?A、循環(huán)神經(jīng)網(wǎng)絡(luò)B、多層感知機(jī)C、感知機(jī)D、卷積神經(jīng)網(wǎng)絡(luò)【正確答案】:D82.【單選】
()算子具有高通濾波的作用。A、方向平滑B、中值濾波C、PrewittD、高斯濾波器【正確答案】:C83.【單選】
深度卷積神經(jīng)網(wǎng)絡(luò)中激活函數(shù)的作用是()?A、引入非線性映射B、降低特征圖的分辨率C、防止過擬合D、提升模型訓(xùn)練速度【正確答案】:A84.【單選】
將Sigmoid激活函數(shù)改為ReLU,將有助于克服梯度消失的問題A、不確定B、是C、否【正確答案】:B85.【單選】
通過增加模型復(fù)雜度,那么模型的測(cè)試錯(cuò)誤率總是會(huì)降低A、是B、不確定C、否【正確答案】:C86.【單選】
下列哪些項(xiàng)目是在圖像識(shí)別任務(wù)中使用的數(shù)據(jù)擴(kuò)增技術(shù)(dataaugmentationtechnique)?1水平翻轉(zhuǎn)(Horizontalflipping)2隨機(jī)裁剪(Randomcropping)3隨機(jī)放縮(Randomscaling)4顏色抖動(dòng)(Colorjittering)5隨機(jī)平移(Randomtranslation)6隨機(jī)剪切(Randomshearing)A、所有項(xiàng)目B、1,2,4C、1,3,5,6D、2,3,4,5,6【正確答案】:A87.【單選】
傅里葉變換得到的頻譜中,低頻系數(shù)對(duì)應(yīng)于()。A、噪音B、變化平緩部分C、變化劇烈部分D、物體邊緣【正確答案】:B88.【單選】
邊緣檢測(cè)是將邊緣像素標(biāo)識(shí)出來的一種圖像分割技術(shù)。A、不確定B、是C、否【正確答案】:B89.【單選】
處理圖像噪點(diǎn)的另一中當(dāng)時(shí)是形態(tài)轉(zhuǎn)換,形態(tài)學(xué)轉(zhuǎn)換中主要有兩個(gè)基本操作:腐蝕與膨脹。腐蝕通俗理解就是求局部最小值的操作,而膨脹則與之相反(如下圖所示,腐蝕圖、原圖、膨脹圖)。以下代碼是以3*3的核對(duì)圖像連續(xù)三次腐蝕和膨脹操作,請(qǐng)完成以下代碼importcv2importnumpyasnpif__name__=="__main__":#腐蝕與膨脹images=cv2.imread("./images/j.png",cv2.IMREAD_GRAYSCALE)#創(chuàng)建腐蝕和膨脹的核kernel=_____________________________#膨脹dilation_result=_________________________________#腐蝕erosion_result=__________________________________cv2.imshow("ImageRead",images)cv2.imshow("Dilationresult",dilation_result)cv2.imshow("Erosionresult",erosion_result)cv2.waitKey(0)A、np.ones((3,3),np.uint8)cv2.erode(images,kernel,3)cv2.dilate(images,kernel,3)B、np.ones((3,3),np.uint8)cv2.erode(images,kernel,iterations=3)cv2.dilate(images,kernel,iterations=3)C、np.ones((3,3),np.uint8)cv2.dilate(images,kernel,iterations=3)cv2.erode(images,kernel,iterations=3)D、np.ones((3,3),np.uint8)cv2.dilate(images,kernel,3)cv2.erode(images,kernel,3)【正確答案】:C90.【單選】
訓(xùn)練CNN時(shí),可以對(duì)輸入進(jìn)行旋轉(zhuǎn)、平移、縮放(增強(qiáng)數(shù)據(jù))等預(yù)處理提高模型泛化能力。A、是B、否C、不確定【正確答案】:A91.【單選】
當(dāng)數(shù)據(jù)過大以至于無(wú)法在RAM中同時(shí)處理時(shí),哪種梯度下降方法更加有效()?A、隨機(jī)梯度下降法(StochasticGradientDescent)B、整批梯度下降法(FullBatchGradientDescent)C、都不是D、不知道【正確答案】:A92.【單選】
在對(duì)視頻幀處理完之后可以利用VideoWriter對(duì)視頻處理的結(jié)果進(jìn)行保存,現(xiàn)在要求視頻以MP4格式保存,幀率為20每秒幀,并且視頻幀的尺寸要求是640*480,請(qǐng)完成以下代碼importcv2importnumpyasnpif__name__=="__main__":#視頻存儲(chǔ)cap=cv2.VideoCapture(0)#打開攝像頭cap.set(cv2.CAP_PROP_FRAME_WIDTH,640)#設(shè)置讀出視頻幀的寬度cap.set(cv2.CAP_PROP_FRAME_HEIGHT,480)#設(shè)置讀出視頻幀的高度_________________________________#定義視頻保存的格式視頻保存的尺寸、幀率whilecap.isOpened():#當(dāng)攝像頭打開的時(shí)候ret,frame=cap.read()#讀取當(dāng)前攝像頭的畫面frame=cv2.flip(frame,1)#對(duì)視頻幀進(jìn)行處理:左右反轉(zhuǎn)writer.write(frame)#將視頻幀的處理結(jié)果保存到MP4文件中cv2.imshow('img',frame)#將畫面顯示在名為img的窗口畫布上ifcv2.waitKey(1)==ord('q'):#等待1毫秒,如果在等待的時(shí)候接收到按q鍵操作break#退出循環(huán)cv2.destroyAllWindows()#關(guān)閉所有窗口cap.release()#釋放攝像頭writer.release()#釋放視頻寫入實(shí)例A、fourcc=cv2.VideoWriter_fourcc('m','p','4','v')writer=cv2.VideoWriter('./images/video.mp4',fourcc,20.0,(480,640))B、fourcc=cv2.VideoWriter_fourcc('m','p','4','v')writer=cv2.VideoWriter('./images/video.mp4',20.0,fourcc,(640,480))C、fourcc=cv2.VideoWriter_fourcc('m','p','4','v')writer=cv2.VideoWriter('./images/video.mp4',fourcc,20.0,(640,480))D、fourcc=cv2.VideoWriter_fourcc('m','p','4','v')writer=cv2.VideoWriter('./images/video.mp4',20.0,fourcc,(480,640))【正確答案】:C93.【單選】
下列圖像邊緣檢測(cè)算子中抗噪性能最好的是:()。A、Roberts算子B、Prewitt算子C、梯度算子D、Laplacian算子【正確答案】:B94.【單選】
平移變換通俗的講就是將圖像中的所有像素點(diǎn)按照給定的平移量進(jìn)行水平(x方向)或垂直(y方向)移動(dòng),現(xiàn)在需要將原始圖像向右下角平移20個(gè)像素,請(qǐng)完成以下代碼importcv2importnumpyasnpif__name__=="__main__":#平移變換images=cv2.imread("./images/lena.jpg",cv2.IMREAD_GRAYSCALE)#定義平移矩陣translation_mat=___________________________________#translation_result=________________________________cv2.imshow("ImageRead",images)cv2.imshow("Translationresult",translation_result)cv2.waitKey(0)A、np.array([[0,0,20],[1,1,20]],dtype=np.float32)cv2.warpAffine(images,translation_mat,(images.shape[1],images.shape[0]))B、np.array([[1,1,20],[0,0,20]],dtype=np.float32)cv2.warpAffine(images,translation_mat,(images.shape[1],images.shape[0]))C、np.array([[1,0,20],[0,1,20]],dtype=np.float32)cv2.warpAffine(images,translation_mat,(images.shape[1],images.shape[0]))D、np.array([[0,1,20],[1,0,20]],dtype=np.float32)cv2.warpAffine(images,translation_mat,(images.shape[1],images.shape[0]))【正確答案】:C95.【單選】
以下對(duì)基于圖像數(shù)據(jù)的卷積神經(jīng)網(wǎng)絡(luò)的訓(xùn)練過程描述正確的是()1.計(jì)算預(yù)測(cè)值和真實(shí)值之間的誤差2.重復(fù)迭代,直至得到網(wǎng)絡(luò)權(quán)重的最佳值3.把輸入傳入網(wǎng)絡(luò),得到輸出值4.用隨機(jī)值初始化權(quán)重和偏差5.對(duì)每一個(gè)產(chǎn)生誤差的神經(jīng)元,調(diào)整相應(yīng)的(權(quán)重)值以減小誤差A(yù)、1,2,3,4,5B、5,4,3,2,1C、3,2,1,5,4D、4,3,1,5,2【正確答案】:D96.【單選】
AlexNet模型主要包含()個(gè)卷積層,()個(gè)全連接層,有()個(gè)卷積層采用了最大重疊池化A、5,3,3B、8,3,3C、10,2,3D、8,2,3【正確答案】:A97.【單選】
輸入圖像已被轉(zhuǎn)換為大小為28×28的矩陣和大小為7×7的步幅為1的核心/濾波器。卷積矩陣的大小是多少?A、22*22B、21*21C、7*7D、28*28【正確答案】:A98.【單選】
迭代閾值分割是一種常見的基于全局的閾值分割方法,其步驟為()1.根據(jù)閾值TK將圖象分割為前景和背景,計(jì)算小于T0所有灰度的均值Mean(O),和大于T0的所有灰度的均值Mean(B)2.若TK==TK+1,則所得即為閾值;否則轉(zhuǎn)2,迭代計(jì)算3.求出新閾值TK+1=(Mean(O)+Mean(B))/24.統(tǒng)計(jì)圖像灰度直方圖,求出圖象的最大灰度值和最小灰度值,分別記為Zmax和Zmin,令初始閾值T0=(Zmax+Zmin)/2A、1,2,3,4B、4,1,3,2C、1,3,2,4D、4,3,2,1【正確答案】:B99.【單選】
下面哪種語(yǔ)言對(duì)于處理計(jì)算機(jī)視覺相對(duì)具有優(yōu)勢(shì)()?A、C/C++B、JavaC、PythonD、C#【正確答案】:A100.【單選】
將Sigmoid激活函數(shù)改為ReLu,將有助于克服梯度消失問題A、是B、否C、不確定【正確答案】:A101.【單選】
假設(shè)你有5個(gè)大小為7x7、邊界值為0的卷積核,同時(shí)卷積神經(jīng)網(wǎng)絡(luò)第一層的深度為1。此時(shí)如果你向這一層傳入一個(gè)維度為224*224*3的數(shù)據(jù),那么神經(jīng)網(wǎng)絡(luò)下一層所接收到的數(shù)據(jù)維度是多少?A、217*217*8B、220*220*5C、218*218*5D、217*217*3【正確答案】:C102.【單選】
Mnist是計(jì)算機(jī)視覺領(lǐng)域最常用的數(shù)據(jù)集,該數(shù)據(jù)包含圖像尺寸是_________,該數(shù)據(jù)共有_________張圖片,訓(xùn)練集_________張,測(cè)試集_________張。A、28*28、120多萬(wàn)、50000、100000B、28*28、60000、50000、10000C、32*32、120多萬(wàn)、50000、100000D、32*32、60000、50000、10000【正確答案】:B103.【單選】
Dropout率(神經(jīng)元的激活率)越高,正則化程度越高A、否B、不確定C、是【正確答案】:A104.【單選】
多層神經(jīng)網(wǎng)絡(luò)本質(zhì)是是一個(gè)復(fù)合函數(shù)A、是B、否C、不確定【正確答案】:A105.【單選】
基于深度學(xué)習(xí)的圖像識(shí)別過程中,進(jìn)行特征提取需要進(jìn)行什么計(jì)算()?A、高斯核函數(shù)B、卷積計(jì)算C、梯度D、概率計(jì)算【正確答案】:B106.【單選】
卷積神經(jīng)網(wǎng)絡(luò)中,引入BatchNormal機(jī)制的好處是()?A、以上所有B、防止過擬合C、防止梯度爆炸D、提升模型訓(xùn)練速度【正確答案】:A107.【單選】
負(fù)對(duì)數(shù)似然度損失函數(shù)和歐式距離損失函數(shù)都是用于計(jì)算像素區(qū)域的修復(fù)A、不確定B、是C、否【正確答案】:B108.【單選】
1:可以通過將所有權(quán)重初始化為0來訓(xùn)練網(wǎng)絡(luò)。2:可以通過將偏差初始化為0來很好地訓(xùn)練網(wǎng)絡(luò)。以上哪些陳述是真實(shí)的?A、1對(duì)2錯(cuò)B、1和2都對(duì)C、1錯(cuò)2對(duì)D、1和2都錯(cuò)【正確答案】:C109.【單選】
對(duì)一幅圖像進(jìn)行傅里葉變換后,包含頻譜(也叫幅度譜)和相位譜兩部分,請(qǐng)問那一部分更重要?()A、幅度譜B、都不重要C、同樣重要D、相位譜【正確答案】:D110.【單選】
輸入圖片大小為200×200,依次經(jīng)過一層卷積(kernelsize5×5,padding1,stride2),pooling(kernelsize3×3,padding0,stride1),又一層卷積(kernelsize3×3,padding1,stride1)之后,輸出特征圖大小為()A、8B、96C、95D、97【正確答案】:D111.【單選】
下列關(guān)于YOLOV3創(chuàng)新性的描述正確的是1.由原來的DarkNet19改為DarkNet53,沒有池化、全連接2.損失函數(shù)中的目標(biāo)的判斷由原來的均方差函數(shù)變?yōu)榻徊骒睾瘮?shù)3.AnchorBoxes中K-Means聚類的參數(shù)變?yōu)閗=94.多尺度預(yù)測(cè)A、1,2,3B、1,2,4C、1,2,3,4D、2,3,4【正確答案】:C112.【單選】
多層網(wǎng)絡(luò)全部初始化為0,會(huì)使梯度為0或各層相同,相當(dāng)于淺層網(wǎng)絡(luò)A、不確定B、是C、否【正確答案】:B113.【單選】
對(duì)于MLP,輸入層中的節(jié)點(diǎn)數(shù)為10,隱藏層為5.從輸入層到隱藏層的最大連接數(shù)是A、超過50B、小于50C、這是一個(gè)任意值D、50【正確答案】:D114.【單選】
構(gòu)建一個(gè)神經(jīng)網(wǎng)絡(luò),將前一層的輸出和它自身作為輸入。下列哪一種架構(gòu)有反饋連接?A、循環(huán)神經(jīng)網(wǎng)絡(luò)B、都不是C、卷積神經(jīng)網(wǎng)絡(luò)D、限制玻爾茲曼機(jī)【正確答案】:A115.【單選】
2015年,RossB。Girshick在之前的基礎(chǔ)之上對(duì)模型的進(jìn)行了優(yōu)化,提出了FastRCNN,該模型提出了一種ROIPooling的方法,降低了模型對(duì)輸入圖像尺寸的依賴,并企鵝實(shí)現(xiàn)了端到端的目標(biāo)檢測(cè)ROIPooling的運(yùn)行方式是1.利用selectivesearch方法在輸入圖像中提取2000個(gè)regionproposals2.原始圖像輸入到卷積神經(jīng)網(wǎng)絡(luò)中提取特征3.將原始圖像中的regionproposal映射到卷積特征圖上4.利用ROIPooling將regionproposal特征子區(qū)域下采樣到統(tǒng)一尺寸,之后提取特征5.利用CNN模型進(jìn)行目標(biāo)識(shí)別和Bbox回歸,使用NMS非極大值抑制去除IOU值較大冗余regionproposalsA、2,1,3,4,5B、1,3,2,4,5C、1,2,3,4,5D、2,1,4,3,5【正確答案】:C116.【單選】
_______在《三維固體的機(jī)器感知》描述了從二維圖片中推導(dǎo)三維信息的過程,成為計(jì)算機(jī)視覺的前導(dǎo)之一,開創(chuàng)了理解三維場(chǎng)景為目的的計(jì)算機(jī)視覺研究。這個(gè)研究給世界帶來了很大啟發(fā),并且對(duì)邊緣、線條、明暗等各種特征建立了各種數(shù)據(jù)結(jié)構(gòu)和推理規(guī)則。A、TorstenWieselB、DavidMarrC、LawrenceRobertsDavidHubel【正確答案】:C117.【單選】
如何使用配置python中使用opencv的環(huán)境()1、利用Anaconda中的conda命令condainstallopencv安裝,2、利用pythonpip命令pipinstallopencv-python安裝,3、下載opencv安裝包,離線編譯安裝、A、以上都可以B、1C、2D、1、2【正確答案】:A118.【單選】
在CNN,擁有最大池化總是減少參數(shù)A、是B、不確定C、否【正確答案】:C119.【單選】
下列關(guān)于轉(zhuǎn)置卷積的介紹正確的有()?A、轉(zhuǎn)置卷積(transposedconvolution)又被稱為逆卷積,其目的是對(duì)圖像進(jìn)行上采樣B、轉(zhuǎn)置卷積(transposedconvolution)首次出現(xiàn)在2018年,VincentDumoulin的Aguidetoconvolutionarithmeticfordeeplearning論文中C、以上都正確D、轉(zhuǎn)置卷積可以應(yīng)用于圖像分割和生成式對(duì)抗模型中【正確答案】:C120.【單選】
關(guān)于深度學(xué)習(xí)模型過擬合的描述錯(cuò)誤的是()?A、模型復(fù)雜度高或者數(shù)據(jù)集規(guī)模小是模型過擬合的兩個(gè)因素B、模型在訓(xùn)練集上、測(cè)試集上的表現(xiàn)都不好C、模型過擬合可以增加訓(xùn)練集、降低模型復(fù)雜度、添加正則化約束、添加BatchNormal層、使用dropout機(jī)制等來解決D、模型在訓(xùn)練集上的表現(xiàn)非常好,但是在測(cè)試集、驗(yàn)證集以及新數(shù)據(jù)上的表現(xiàn)很差【正確答案】:B121.【單選】
一般我們建議將卷積生成對(duì)抗網(wǎng)絡(luò)(convolutionalgenerativeadversarialnets)中生成部分的池化層替換成什么?A、局部跨距卷積層(Fractionalstridedconvolutionallayer)B、跨距卷積層(Stridedconvolutionallayer)C、仿射層(Affinelayer)D、ReLU層【正確答案】:A122.【單選】
在神經(jīng)網(wǎng)絡(luò)中ReLU永遠(yuǎn)不會(huì)飽和A、不確定B、是C、否【正確答案】:C123.【單選】
激活函數(shù)為有限值時(shí),基于梯度的優(yōu)化方法更加穩(wěn)定A、不確定B、否C、是【正確答案】:C124.【單選】
神經(jīng)網(wǎng)絡(luò)中的死神經(jīng)元(deadunit)是什么?A、在訓(xùn)練任何其它相鄰單元時(shí),不會(huì)更新的單元B、沒有完全響應(yīng)任何訓(xùn)練模式的單元C、以上均不符合D、產(chǎn)生最大平方誤差的單元【正確答案】:A125.【單選】
傳統(tǒng)目標(biāo)檢測(cè)流程()1、分類器分類(主要有SVM、Adaboost等)2、區(qū)域選擇(窮舉策略:采用滑動(dòng)窗口,且設(shè)置不同的大小,不同的長(zhǎng)寬比對(duì)圖像進(jìn)行遍歷,時(shí)間復(fù)雜度高))3、特征提?。⊿IFT、HOG等;形態(tài)多樣性、光照變化多樣性、背景多樣性使得特征魯棒性差分類器分類(主要有SVM、Adaboost等)A、123B、213C、321D、231【正確答案】:D126.【單選】
濾波是信號(hào)和圖像處理中的一種基本操作,濾波可去除圖像中的噪聲,提取有用的視覺特征,對(duì)圖像重新采樣等等,低通濾波能夠使圖像更加模糊或更加平滑,可以利用低通濾波消除噪聲,請(qǐng)補(bǔ)全下面使用尺寸為5*5且anchor為核中心的低通濾波器的相關(guān)代碼importcv2if__name__=="__main__":images=cv2.imread("./images/lena30.jpg",cv2.IMREAD_COLOR)Low_pass_filter=____________________________dWindow("ImageRead",cv2.WINDOW_AUTOSIZE)cv2.imshow("ImageRead",images)cv2.imshow("Result",Low_pass_filter)cv2.waitKey(5*1000)A、cv2.GaussianBlur(images,(5,5),sigmaX
溫馨提示
- 1. 本站所有資源如無(wú)特殊說明,都需要本地電腦安裝OFFICE2007和PDF閱讀器。圖紙軟件為CAD,CAXA,PROE,UG,SolidWorks等.壓縮文件請(qǐng)下載最新的WinRAR軟件解壓。
- 2. 本站的文檔不包含任何第三方提供的附件圖紙等,如果需要附件,請(qǐng)聯(lián)系上傳者。文件的所有權(quán)益歸上傳用戶所有。
- 3. 本站RAR壓縮包中若帶圖紙,網(wǎng)頁(yè)內(nèi)容里面會(huì)有圖紙預(yù)覽,若沒有圖紙預(yù)覽就沒有圖紙。
- 4. 未經(jīng)權(quán)益所有人同意不得將文件中的內(nèi)容挪作商業(yè)或盈利用途。
- 5. 人人文庫(kù)網(wǎng)僅提供信息存儲(chǔ)空間,僅對(duì)用戶上傳內(nèi)容的表現(xiàn)方式做保護(hù)處理,對(duì)用戶上傳分享的文檔內(nèi)容本身不做任何修改或編輯,并不能對(duì)任何下載內(nèi)容負(fù)責(zé)。
- 6. 下載文件中如有侵權(quán)或不適當(dāng)內(nèi)容,請(qǐng)與我們聯(lián)系,我們立即糾正。
- 7. 本站不保證下載資源的準(zhǔn)確性、安全性和完整性, 同時(shí)也不承擔(dān)用戶因使用這些下載資源對(duì)自己和他人造成任何形式的傷害或損失。
最新文檔
- 2024鋁合金材料研發(fā)與應(yīng)用項(xiàng)目合同范本3篇
- 二零二五年度網(wǎng)絡(luò)安全事件應(yīng)急處理與響應(yīng)計(jì)劃合同2篇
- 二零二五版辦公場(chǎng)地租賃信息咨詢服務(wù)合同2篇
- 2024年高端設(shè)備采購(gòu)與技術(shù)轉(zhuǎn)讓合同
- 2024水磨石新型裝飾材料研發(fā)與應(yīng)用承包合同3篇
- 二零二五年度5人合伙人工智能教育培訓(xùn)合同3篇
- 二零二五年度遺產(chǎn)分配與境外遺產(chǎn)繼承協(xié)議3篇
- 二零二五年度出租車承包合同標(biāo)準(zhǔn)條款3篇
- 二零二五年度建筑安全責(zé)任協(xié)議范本解析3篇
- 2024版勞務(wù)分包合同(保潔類)2篇
- LED燈箱安裝制作及施工方案
- 混凝土澆筑申請(qǐng)表
- 山丹丹開花紅艷艷教案
- 中風(fēng)后認(rèn)知障礙中醫(yī)臨床路徑
- 罌粟湯_朱氏集驗(yàn)方卷十_方劑加減變化匯總
- 《我相信---楊培安》歌詞-勵(lì)志歌曲
- 做一個(gè)幸福班主任
- 初中班主任案例分析4篇
- 公司7s管理組織實(shí)施方案
- Q∕GDW 12147-2021 電網(wǎng)智能業(yè)務(wù)終端接入規(guī)范
- 仁愛英語(yǔ)單詞默寫本(全六冊(cè))英譯漢
評(píng)論
0/150
提交評(píng)論