人工智能基礎(chǔ)智慧樹知到期末考試答案2024年_第1頁
人工智能基礎(chǔ)智慧樹知到期末考試答案2024年_第2頁
人工智能基礎(chǔ)智慧樹知到期末考試答案2024年_第3頁
人工智能基礎(chǔ)智慧樹知到期末考試答案2024年_第4頁
人工智能基礎(chǔ)智慧樹知到期末考試答案2024年_第5頁
免費預(yù)覽已結(jié)束,剩余6頁可下載查看

下載本文檔

版權(quán)說明:本文檔由用戶提供并上傳,收益歸屬內(nèi)容提供方,若內(nèi)容存在侵權(quán),請進行舉報或認領(lǐng)

文檔簡介

人工智能基礎(chǔ)智慧樹知到期末考試答案2024年人工智能基礎(chǔ)大數(shù)據(jù)的5V不包括:()

A:容量(Volume):數(shù)據(jù)之大B:可變性(Variability):變化之大C:速度(Velocity):速度之快D:價值(Value):價值之高E:真實性(Veracity):數(shù)據(jù)之實答案:可變性(Variability):變化之大關(guān)于聚類與分類的不正確描述是:()

A:聚類與分類算法一樣并不需要迭代計算B:分類是是有指導(dǎo)型算法C:聚類與分類的聯(lián)系是它們同屬分類學(xué)習(xí)算法D:聚類算法是一個非指導(dǎo)型答案:聚類與分類算法一樣并不需要迭代計算下列哪個例子屬于監(jiān)督學(xué)習(xí)()

A:算法先少量給用戶推薦各類文章,用戶選擇性閱讀后,算法會根據(jù)這一情況構(gòu)建用戶的喜好B:用戶每讀一篇文章,就給這篇新聞貼上分類標簽C:其余選項都對D:用戶經(jīng)商閱讀軍事類和經(jīng)濟類的文章,算法就把和用戶讀過的文章類似的文章推薦給你答案:用戶每讀一篇文章,就給這篇新聞貼上分類標簽對于圖像識別問題(比如識別照片中的貓),哪種神經(jīng)網(wǎng)絡(luò)模型結(jié)構(gòu)更適合?()

A:感知器B:多層感知器C:卷積神經(jīng)網(wǎng)絡(luò)D:循環(huán)神經(jīng)網(wǎng)絡(luò)答案:卷積神經(jīng)網(wǎng)絡(luò)那種不屬于圖像處理的內(nèi)容

A:計算機視覺B:網(wǎng)絡(luò)爬蟲C:圖像分析D:圖像處理答案:網(wǎng)絡(luò)爬蟲統(tǒng)計機器學(xué)習(xí)模型的是自然語言處理中的重要文本表示模型,以下不屬于它的()。

A:Word2Vec模型B:詞袋模型C:N-Gram模型D:循環(huán)神經(jīng)網(wǎng)絡(luò)答案:循環(huán)神經(jīng)網(wǎng)絡(luò)以下關(guān)于測試樣本集和訓(xùn)練樣本集描述正確的是()

A:訓(xùn)練樣本集可以用來訓(xùn)練分類模型B:測試樣本集和訓(xùn)練樣本集都可以用來評估分類模型的性能C:訓(xùn)練樣本集可以用來評估分類模型的性能D:測試樣本集可以用來訓(xùn)練分類模型答案:訓(xùn)練樣本集可以用來訓(xùn)練分類模型人工智能的最終目標是()。

A:探討智能形成的機理,研究利用自動機模擬人的語言過程B:探討智能形成的機理,研究利用自動機模擬人的行為過程C:探討智能形成的機理,研究利用自動機模擬人的思維過程D:探討智能形成的機理,研究利用自動機模擬人的運算過程答案:探討智能形成的機理,研究利用自動機模擬人的思維過程確定性關(guān)系可以使用()表現(xiàn)出來

A:過程B:函數(shù)C:程序D:關(guān)系答案:函數(shù)分類器不包括的()

A:樸素貝葉斯B:決策樹C:圖靈測試D:邏輯回歸答案:圖靈測試應(yīng)用梯度算法,學(xué)習(xí)率過大可能會造成()不良結(jié)果

A:快速收斂B:震蕩收斂C:慢速收斂D:跨越最低點答案:跨越最低點分類器是數(shù)據(jù)挖掘中對樣本進行分類的方法的統(tǒng)稱,常用的分類算法有()

A:樸素貝葉斯B:其余選項都對C:邏輯回歸D:神經(jīng)網(wǎng)絡(luò)算法答案:其余選項都對分類準確率是指分類正確的樣本數(shù)占總樣本數(shù)的比例。這里的樣本指的是:()

A:正樣本B:負樣本C:訓(xùn)練樣本D:測試樣本答案:測試樣本下列神經(jīng)網(wǎng)絡(luò)不屬于前饋神經(jīng)網(wǎng)絡(luò)的是()

A:循環(huán)神經(jīng)網(wǎng)絡(luò)RNNB:BP神經(jīng)網(wǎng)絡(luò)C:卷積神經(jīng)網(wǎng)絡(luò)CNND:感知機答案:循環(huán)神經(jīng)網(wǎng)絡(luò)RNN圖像基本運算可以分為點運算、()、邏輯運算和幾何運算四類。

A:代數(shù)運算B:加法運算C:數(shù)組運算D:向量運算答案:代數(shù)運算常見的統(tǒng)計機器學(xué)習(xí)模型不包括()

A:RNNB:Word2Vec模型C:詞袋模型D:N-Gram模型答案:RNN不可以作為圖像特征的是

A:邊緣B:紋理C:圖像名D:顏色答案:圖像名圖像處理中的幾何運算不包括下面哪一項()

A:代數(shù)變換B:形狀變換C:仿射變換D:位置變換答案:代數(shù)變換激活函數(shù)應(yīng)當(dāng)具有以下()特征:

A:非單調(diào)性B:非輸出有限C:非線性D:非處處可導(dǎo)答案:非線性人工智能分類不包括下列哪一類?()

A:弱人工智能B:類人工智能C:強人工智能D:超人工智能答案:類人工智能可以檢測運動目標的運算是

A:圖像加法B:圖像減法C:圖像除法D:圖像乘法答案:圖像減法函數(shù)z=ax+by中,變量z與變量x的關(guān)系為()。

A:完全相關(guān)B:其余選項都不正確C:不完全相關(guān)D:不相關(guān)答案:不完全相關(guān)數(shù)字圖像與灰度直方圖間的對應(yīng)關(guān)系是()

A:多對多B:多對一C:一對多D:一一對應(yīng)答案:多對一語義分析的目的是

A:獲得網(wǎng)上的資源B:通過語法樹或其他算法,分析主語、謂語、賓語、定語、狀語、補語等句子元素。C:獲得所處理的語言表達的正確的含義。D:設(shè)計相應(yīng)的算法在語料庫的基礎(chǔ)上,生成新詞候選詞表,并補充到字典中答案:獲得所處理的語言表達的正確的含義。小孔成像驗證了

A:光的折射B:光的反射C:光的衍射D:光的直線傳播答案:光的直線傳播模擬圖像轉(zhuǎn)化為數(shù)字圖像需要經(jīng)過()

A:圖像灰度級設(shè)定B:確定圖像的存儲空間C:圖像分辨率設(shè)定D:采樣和量化答案:采樣和量化使用一對多方法將N個分類任務(wù)進行求解的策略方法描述正確的是()

A:如果測試結(jié)果有多個正例相近的分類器,則判斷結(jié)果的置信度,置信度小的分類別作為最終分類器B:指將N個分類任務(wù)進行M次劃分,每次將一部分類劃分為正類,另一部分類劃分為反類。C:使用N個分類器分別進行測試,測試結(jié)果正例最小的一個為所求解的分類器。D:訓(xùn)練時依次把某個類別的樣本歸為一類,其他剩余的樣本歸為另一類,可以概括為自己一類為正例,其余類為負例,N個分類任務(wù)將產(chǎn)生N個分類器。答案:訓(xùn)練時依次把某個類別的樣本歸為一類,其他剩余的樣本歸為另一類,可以概括為自己一類為正例,其余類為負例,N個分類任務(wù)將產(chǎn)生N個分類器。關(guān)于感知機說法不正確的是()

A:從訓(xùn)練集中選取一個訓(xùn)練數(shù)據(jù),如果這個訓(xùn)練數(shù)據(jù)被誤分類,不需要做任何操作B:感知機是一種分類器獲取算法C:最開始時會先隨機確定分類直線D:感知機在工作中是不斷調(diào)整的答案:從訓(xùn)練集中選取一個訓(xùn)練數(shù)據(jù),如果這個訓(xùn)練數(shù)據(jù)被誤分類,不需要做任何操作數(shù)據(jù)挖掘的目前已有的挖掘任務(wù)包括:()

A:序列分析B:分類和聚類C:關(guān)聯(lián)規(guī)則挖掘D:心理行為分析答案:關(guān)聯(lián)規(guī)則挖掘;分類和聚類;序列分析下面對信息的定義描述不太恰當(dāng)?shù)氖牵ǎ?/p>

A:信息與物質(zhì)及能量構(gòu)成整個宇宙B:信息是物質(zhì)和能量運動的形式C:信息就是數(shù)據(jù)D:信息就是知識答案:信息就是數(shù)據(jù);信息就是知識TensorFlow具有以下特點:()

A:多語言支持B:自動完成邏輯推理C:可移植性D:自動完成科學(xué)計算答案:可移植性###多語言支持###自動完成科學(xué)計算有命題公式集S={p,p∧q→r,t→q,t},該公式集可以推出:()

A:非pB:p∧qC:qD:r答案:q;r;p∧q在以或圖對應(yīng)的背景進行搜索擴展時,可在若干分支中選擇其一。下面哪幾項屬于或圖搜索背景。()

A:求解一個數(shù)學(xué)應(yīng)用題時,多種解法之間的選擇B:求解一個數(shù)學(xué)積分問題時,利用了一個積分規(guī)則后的繼續(xù)求解C:一個下棋程序,落子時在若干下棋規(guī)則的選擇D:搜索一條最短路徑時,在若干路徑中的選擇答案:一個下棋程序,落子時在若干下棋規(guī)則的選擇###搜索一條最短路徑時,在若干路徑中的選擇###求解一個數(shù)學(xué)應(yīng)用題時,多種解法之間的選擇博弈搜索算法的靜態(tài)估計函數(shù)f,對于一個棋局P,下面描述正確的是:()

A:對于勝局,取1B:對于敗局,取0C:有利于程序方,f(P)取正值D:有利于程序的對方,f(P)取負值答案:有利于程序方,f(P)取正值;有利于程序的對方,f(P)取負值神經(jīng)網(wǎng)絡(luò)模型的一般分類方法有:()

A:按網(wǎng)絡(luò)的輸出方式B:按網(wǎng)絡(luò)的活動方式C:按神經(jīng)網(wǎng)絡(luò)的建立原理D:按學(xué)習(xí)方式答案:按學(xué)習(xí)方式###按神經(jīng)網(wǎng)絡(luò)的建立原理###按網(wǎng)絡(luò)的活動方式通用或圖搜索算法是在一個隱式圖上進行搜索,這個圖由以下幾個表構(gòu)成()

A:反向邊表TreeB:路徑節(jié)點表C:Open表D:Closed表答案:Closed表###Open表###反向邊表Tree神經(jīng)網(wǎng)絡(luò)的主要特征包括:()

A:一個人工神經(jīng)元的輸出可以任意分支,且大小不變B:并行、分布處理結(jié)構(gòu)C:計算規(guī)模小,復(fù)雜度低D:輸出信號可以是任意的數(shù)學(xué)模型答案:并行、分布處理結(jié)構(gòu);一個人工神經(jīng)元的輸出可以任意分支,且大小不變;輸出信號可以是任意的數(shù)學(xué)模型一般簡單的專家系統(tǒng)包括如下哪幾項?()

A:人機界面B:知識庫C:開發(fā)工具D:推理機答案:知識庫;推理機;人機界面或圖搜索A算法中,f(n)=g(n)+h(n),對于f函數(shù)不同的選取,下面正確的描述是()

A:h、g都不為0,為廣度優(yōu)先搜索B:h=0,為深度優(yōu)先搜索C:h=g=0,為隨機搜索D:g=0,為啟發(fā)式搜索答案:g=0,為啟發(fā)式搜索;h=g=0,為隨機搜索傳教士和野人過河問題用三元組S=(ML,CL,BL)表示過河某一時刻的狀態(tài),ML表示傳教士在左岸的實際人數(shù),CL表示野人在左岸的實際人數(shù),BL用來指示船是否在左岸。以下哪些是合法狀態(tài)?()

A:(5,5,1)B:(2,3,1)C:(0,0,0)D:(5,5,0)答案:——有一個農(nóng)夫帶一只狐貍、一只小羊和一籃菜過河。假設(shè)農(nóng)夫每次只能帶一樣?xùn)|西過河,考慮安全,無農(nóng)夫看管時,狐貍和小羊不能在一起,小羊和菜籃不能在一起。問題狀態(tài)空間可以四元組(m,f,s,v)描述,如果農(nóng)夫、狐貍、小羊、菜在左岸,則用1表示;否則用0表示。下述狀態(tài)中,不合法的狀態(tài)有:()

A:(1,1,1,0)B:(1,0,0,0)C:(1,1,0,1)D:(0,1,1,1)答案:(0,1,1,1)###(1,0,0,0)使用與/或圖搜索求解問題所需要的要素有:()

A:將問題變換成子問題的變換規(guī)則。B:與/或圖的描述。C:要求解的初始問題的描述。D:本原問題的描述。答案:與按分類來說,人工神經(jīng)網(wǎng)絡(luò)包括()。

A:生物神經(jīng)網(wǎng)絡(luò)B:循環(huán)神經(jīng)網(wǎng)絡(luò)C:反饋神經(jīng)網(wǎng)絡(luò)D:前饋神經(jīng)網(wǎng)絡(luò)答案:前饋神經(jīng)網(wǎng)絡(luò)###反饋神經(jīng)網(wǎng)絡(luò)###循環(huán)神經(jīng)網(wǎng)絡(luò)神經(jīng)網(wǎng)絡(luò)由許多神經(jīng)元組成,每個神經(jīng)元只能接受一個輸入,處理它并給出一個輸出。

A:對B:錯答案:錯前饋網(wǎng)絡(luò)又稱記憶聯(lián)想網(wǎng)絡(luò)

A:錯B:對答案:錯α-β剪枝法,采用的是有界深度優(yōu)先策略進行搜索。()

A:正確B:錯誤答案:正確D-S理論認為:相信某個事實A,其余的部分就是表示不信任A。()

A:對B:錯答案:對螞蟻會按照一定的概率不往信息素高的地方走而另辟蹊徑,這可以理解為一種創(chuàng)新。()

A:對B:錯答案:對象棋所規(guī)定的下棋規(guī)則就是下象棋程序的擴展規(guī)則。()

A:對B:錯答案:錯雖然螞蟻個體之間不發(fā)生聯(lián)系,但是它們通過信息素影響環(huán)境,同時也受到環(huán)境中的信息素的影響。()

A:對B:錯答案:錯β剪枝:是極大層在下層的β值大于在上層的極小層的α值時,產(chǎn)生剪枝。()

A:對B:錯答案:對變異是在個體中遺傳物質(zhì)被改變,它可以使運算過程中丟棄的個體的某些重要特性得以恢復(fù)。()

A:錯誤B:正確答案:正確MINMAX搜索算法的基本思想是一種換位思考的思想。()

A:錯誤B:正確答案:正確默認邏輯是在信息不完全和前提缺省的情況下默認一些先決條件而進行的推理。()

A:錯誤B:正確答案:正確啟發(fā)式函數(shù)是一種映射函數(shù),它可以把對問題的當(dāng)前狀態(tài)的描述映射成一種接近目標的程度。()

A:正確B:錯誤答案:正確錦標賽選擇、(μ,λ)和μ+λ選擇是一種基于局部競爭機制的選擇。()

A:錯誤B:正確答案:正確轉(zhuǎn)盤賭選擇(roulettewheelselection)是一種隨機的選擇方式,因此個體選擇的概率是均等的。()

A:正確B:錯誤答案:錯誤爬山法是一種貪婪算法,也能保證找到最優(yōu)解。()

A:對B:錯答案:錯若每個理發(fā)師都為不能給自己理發(fā)的人理發(fā),且每個理發(fā)師都不為能給自己理發(fā)的人理發(fā),則不存在任何理發(fā)師。這是一個悖論嗎?()

A:錯B:對答案:對深度學(xué)習(xí)框架Coffee的取名來源于它的開發(fā)者喜歡喝咖啡。()

A:錯誤B:正確答案:錯誤SystemML是由Google創(chuàng)建的,利用大數(shù)據(jù)進行機器學(xué)習(xí)的最佳開源工具之一。()

A:錯誤B:正確答案:錯誤遺傳算法中的選擇操作是從當(dāng)前群體中選出個體以生成交配池的過程。()

A:錯誤B:正確答案:正確或圖對應(yīng)的背景為搜索擴展時,可在若干分支選擇其中之一。()

A:對B:錯答案:對遺傳算法中的個體是用一個數(shù)據(jù)結(jié)構(gòu)表示的,用來描述基本的遺傳結(jié)構(gòu)。()

A:錯B:對答案:對極小層的倒推值β永不上升,極大層的α倒推值永不下降。()

A:對B:錯答案:錯基于適應(yīng)值比例的選擇和基于排名的選擇都是根據(jù)個體的適應(yīng)值在種群中所占的比例或排名位置來確定選擇概率,然后進行選擇。()

A:對B:錯答案:對若A1,A2均是A*算法,其中h1(x),h2(x)為兩個算法的評價函數(shù)的h部分,如果h1(x)<h2(x),則稱A2比A1更具有信息,則A2比A1搜索的節(jié)點更多。()

A:錯B:對答案:錯一臺機器要通過圖靈測試并不需要具有大量的人的基本常識。()

A:對B:錯答案:錯專家系統(tǒng)的元知識和目標知識的形式可以完全相同,所以對元知識的推理和目標知識的推理可以采用同一個推理機制。()

A:錯B:對答案:對Tensorflow有一個簡單易用的python使用界面來構(gòu)建數(shù)據(jù)流圖。()

A:錯B:對答案:對TensorFlow提供了多種API,單個API就可以將計算部署到移動設(shè)備中的一個或多個CPU或GPU。()

A:對B:錯答案:對遺傳算法中的遺傳操作就是一種搜索算法中擴展規(guī)則。()

A:對B:錯答案:對使用Tensorflow,用戶無需要定義預(yù)測模型的結(jié)構(gòu),就能一直清楚地看到計算過程。()

A:錯誤B:正確答案:錯誤極小極大過程是一種深度優(yōu)先搜索過程。()

A:錯B:對答案:錯蟻群算法中的信息正反饋指的是,一旦一只螞蟻發(fā)現(xiàn)食物,通過信息素會引來更多的螞蟻,進而更多的螞蟻也將留下更多的信息素。()

A:錯誤B:正確答案:正確對“張量”(tensor)不正確的描述包括:()

A:張量是“大小可動態(tài)調(diào)整”的多維數(shù)組B:張量是TensorFlow中數(shù)據(jù)的單位C:一個張量由任意維數(shù)的原始值數(shù)組組成D:張量沒有階數(shù)或維數(shù)的度量答案:AI參考:對“張量”(tensor)不正確的描述包括:(D:張量沒有階數(shù)或維數(shù)的度量)。\n\n張量是大小可動態(tài)調(diào)整的多維數(shù)組,由任意維數(shù)的原始值數(shù)組組成,這是張量的基本定義。在數(shù)學(xué)和物理學(xué)中,張量是一個重要的概念,它可以表示不同數(shù)量和形狀的變量。因此,選項A和C描述正確。而選項B雖然不是描述的錯誤,但在某些情況下,人們可能會將張量與TensorFlow中的數(shù)據(jù)單位混淆。因此,選項B雖然不直接描述張量的錯誤,但也不完全準確。所以,D選項是唯一不正確的描述。'A*算法就是對A算法的評估函數(shù)加上一些限制后得到的一種啟發(fā)式搜索算法。下述哪一項不是A*算法的要求。()

A:h(n)<=h*(n)B:g(n)>0C:h(n)>0D:h(n)具有單調(diào)性答案:AI參考:答案是C:h(n)>0。\n\nA*算法是一種啟發(fā)式搜索算法,它要求評估函數(shù)h(n)小于等于最優(yōu)評估函數(shù)h*(n),即A選項正確。同時,g(n)必須大于零,即B選項正確,因為只有當(dāng)目標狀態(tài)和當(dāng)前狀態(tài)之間的代價大于零時,才能進行有效的搜索。對于D選項,h(n)具有單調(diào)性也是A*算法的要求之一,因為它有助于算法找到最優(yōu)解。而C選項中說h(n)大于零是不正確的,因為啟發(fā)式函數(shù)通常是一個非負的函數(shù),用于指導(dǎo)搜索方向,而不是限制搜索范圍。因此,正確答案是C選項。'集智規(guī)則中不包括:()

A:覓食規(guī)則B:螞蟻之間關(guān)聯(lián)規(guī)則C:移動規(guī)則D:避障規(guī)則答案:AI參考:正確答案是D:避障規(guī)則。\n\n集智規(guī)則是指在群體決策中,通過個體之間相互啟發(fā)、相互激勵,激發(fā)新的思想,產(chǎn)生新的組合,達到集思廣益的效果。其中,螞蟻之間關(guān)聯(lián)規(guī)則、覓食規(guī)則和移動規(guī)則都屬于集智規(guī)則中的一種,而避障規(guī)則與集智規(guī)則無關(guān)。因此,選項D是不包括的選項。'以下關(guān)于分類的說法,錯誤的是()

A:分類的目標是指將具有相似特征的對象聚集B:對象的特征通常被描述為特征值C:分類只能實現(xiàn)二分類D:特征在向量中則描述為特征向量答案:AI參考:關(guān)于分類的說法,錯誤的是分類只能實現(xiàn)二分類。其他選項的含義如下:\n\nA:分類的目標是指將具有相似特征的對象聚集:這個說法是正確的。分類的目的就是將數(shù)據(jù)或?qū)ο筮M行分組,使得具有相似特征的對象被分到一起。\n\nB:對象的特征通常被描述為特征值:這個說法也是正確的。特征值是用來描述對象特征的數(shù)值,比如顏色、形狀、大小、位置等。\n\nC:分類只能實現(xiàn)二分類:這個說法是錯誤的。分類可以處理多類問題,不僅僅是二分類。在機器學(xué)習(xí)中,常見的分類算法如支持向量機、邏輯回歸、決策樹、隨機森林、神經(jīng)網(wǎng)絡(luò)等都可以處理多類問題。\n\nD:特征在向量中則描述為特征向量:這個說法也是正確的。特征向量是用來描述特征的向量化數(shù)值,比如在圖像識別中,顏色、形狀、大小等特征就可以用特征向量來表示。\n\n因此,答案為C:分類只能實現(xiàn)二分類。'判斷下列子句集中哪些是可推出矛盾的:()

A:{P(y)∨Q(y),?P(f(x))∨R(a)}B:{?P∨Q,?Q,P}C:{?P

溫馨提示

  • 1. 本站所有資源如無特殊說明,都需要本地電腦安裝OFFICE2007和PDF閱讀器。圖紙軟件為CAD,CAXA,PROE,UG,SolidWorks等.壓縮文件請下載最新的WinRAR軟件解壓。
  • 2. 本站的文檔不包含任何第三方提供的附件圖紙等,如果需要附件,請聯(lián)系上傳者。文件的所有權(quán)益歸上傳用戶所有。
  • 3. 本站RAR壓縮包中若帶圖紙,網(wǎng)頁內(nèi)容里面會有圖紙預(yù)覽,若沒有圖紙預(yù)覽就沒有圖紙。
  • 4. 未經(jīng)權(quán)益所有人同意不得將文件中的內(nèi)容挪作商業(yè)或盈利用途。
  • 5. 人人文庫網(wǎng)僅提供信息存儲空間,僅對用戶上傳內(nèi)容的表現(xiàn)方式做保護處理,對用戶上傳分享的文檔內(nèi)容本身不做任何修改或編輯,并不能對任何下載內(nèi)容負責(zé)。
  • 6. 下載文件中如有侵權(quán)或不適當(dāng)內(nèi)容,請與我們聯(lián)系,我們立即糾正。
  • 7. 本站不保證下載資源的準確性、安全性和完整性, 同時也不承擔(dān)用戶因使用這些下載資源對自己和他人造成任何形式的傷害或損失。

評論

0/150

提交評論