MOOC 系統(tǒng)-北京大學 中國大學慕課答案_第1頁
MOOC 系統(tǒng)-北京大學 中國大學慕課答案_第2頁
MOOC 系統(tǒng)-北京大學 中國大學慕課答案_第3頁
MOOC 系統(tǒng)-北京大學 中國大學慕課答案_第4頁
MOOC 系統(tǒng)-北京大學 中國大學慕課答案_第5頁
已閱讀5頁,還剩7頁未讀 繼續(xù)免費閱讀

下載本文檔

版權(quán)說明:本文檔由用戶提供并上傳,收益歸屬內(nèi)容提供方,若內(nèi)容存在侵權(quán),請進行舉報或認領(lǐng)

文檔簡介

MOOC推薦系統(tǒng)-北京大學中國大學慕課答案測驗11、問題:推薦系統(tǒng)主要用于解決________問題.選項:A、信息安全B、信息超載C、信息不足D、信息冗余正確答案:【信息超載】2、問題:長尾物品的特點為_______.選項:A、需求量大,數(shù)量多B、需求量小,數(shù)量多C、需求量大,數(shù)量少D、需求量小,數(shù)量少正確答案:【需求量小,數(shù)量多】3、問題:最早公開使用協(xié)同過濾系統(tǒng)來解決信息過載問題的公司是______。選項:A、谷歌B、雅虎C、施樂D、微軟正確答案:【施樂】4、問題:___公司舉辦的推薦系統(tǒng)大獎賽對推薦系統(tǒng)的發(fā)展起到了極大的促進作用選項:A、日本電氣B、網(wǎng)易C、網(wǎng)飛D、亞馬遜正確答案:【網(wǎng)飛】5、問題:推薦系統(tǒng)關(guān)于用戶U,物品I,相關(guān)度R之間的關(guān)系可用映射_____表示選項:A、f:UxI→RB、f:UxR→IC、f:IxR→UD、f:UxI→I正確答案:【f:UxI→R】6、問題:推薦系統(tǒng)根據(jù)用戶A的相似用戶的購買歷史為A生成了推薦結(jié)果,這屬于_______推薦選項:A、混合推薦B、協(xié)同過濾C、基于內(nèi)容D、基于知識正確答案:【協(xié)同過濾】7、問題:新聞推薦于電商推薦相比,其特點在于_____.選項:A、新聞項目數(shù)量更多B、用戶群體更多樣化C、項目的時效性更高D、項目的生命周期更長正確答案:【項目的時效性更高】8、問題:按照應用問題,推薦系統(tǒng)可大致分為_____和_____兩類.選項:A、基于內(nèi)容的推薦、基于協(xié)同過濾的推薦B、機器學習、深度學習C、評分預測、top-N推薦D、單一推薦、混合推薦正確答案:【評分預測、top-N推薦】9、問題:推薦系統(tǒng)能夠讓_______受益.選項:A、平臺B、用戶C、供應商D、行業(yè)正確答案:【平臺#用戶#供應商#行業(yè)】10、問題:用戶畫像主要包含哪幾部分特征?選項:A、用戶興趣偏好B、用戶行為C、消費特征D、人口統(tǒng)計學屬性正確答案:【用戶興趣偏好#用戶行為#消費特征#人口統(tǒng)計學屬性】11、問題:推薦系統(tǒng)的常見應用場景有____.選項:A、電商B、新聞C、音樂D、電影正確答案:【電商#新聞#音樂#電影】測驗21、問題:協(xié)同過濾算法分類正確的是()選項:A、基于評分預測的協(xié)同過濾和基于鄰域(記憶)的協(xié)同過濾B、基于偏好的協(xié)同過濾和基于可解釋性的協(xié)同過濾C、基于鄰域(記憶)的協(xié)同過濾和基于模型的協(xié)同過濾D、基于用戶的協(xié)同過濾和基于鄰域的協(xié)同過濾正確答案:【基于鄰域(記憶)的協(xié)同過濾和基于模型的協(xié)同過濾】2、問題:以下屬于顯式反饋行為的是()選項:A、收藏B、點擊C、評分D、瀏覽正確答案:【評分】3、問題:基于鄰域的協(xié)同過濾算法的關(guān)鍵是()選項:A、收集數(shù)據(jù)B、訓練模型C、計算相似度D、根據(jù)鄰域信息計算推薦結(jié)果正確答案:【計算相似度】4、問題:基于二部圖的協(xié)同過濾能夠緩解傳統(tǒng)的基于鄰域的推薦算法存在的數(shù)據(jù)稀疏問題和()選項:A、冷啟動B、推薦范圍受限C、可解釋性差D、長尾效應正確答案:【推薦范圍受限】5、問題:基于鄰域的協(xié)同過濾的一般步驟包括()選項:A、尋找鄰域B、收集數(shù)據(jù)C、訓練模型D、計算推薦結(jié)果正確答案:【尋找鄰域#收集數(shù)據(jù)#計算推薦結(jié)果】6、問題:以下屬于協(xié)同過濾算法假設的是()選項:A、過去興趣相似的用戶在未來的興趣也相似B、基本屬性相似的用戶在未來的興趣相似C、相似的用戶會產(chǎn)生相似的歷史行為數(shù)據(jù)D、用戶會喜歡相似用戶有過正反饋的項目正確答案:【過去興趣相似的用戶在未來的興趣也相似#相似的用戶會產(chǎn)生相似的歷史行為數(shù)據(jù)#用戶會喜歡相似用戶有過正反饋的項目】7、問題:基于用戶的協(xié)同過濾的特點有哪些()選項:A、思想簡單、容易實現(xiàn)B、不存在數(shù)據(jù)稀疏問題C、不需要領(lǐng)域知識D、個性化程度低正確答案:【思想簡單、容易實現(xiàn)#不需要領(lǐng)域知識】8、問題:帶權(quán)重的網(wǎng)絡擴散模型有哪些選項:A、激活擴散模型B、基于物質(zhì)擴散的模型C、基于熱傳導的模型D、以上都是正確答案:【基于物質(zhì)擴散的模型#基于熱傳導的模型】9、問題:協(xié)同過濾算法中相似度的計算可以采用下列哪些方法()選項:A、杰卡德相似度B、余弦相似度C、皮爾遜相似度D、基于距離的相似度正確答案:【杰卡德相似度#余弦相似度#皮爾遜相似度#基于距離的相似度】10、填空題:逆用戶頻率的基本思想是懲罰______項目正確答案:【熱門】11、填空題:______相似度是通過計算兩個向量的夾角余弦值來評估它們的相似度。正確答案:【余弦】測驗31、問題:下列不是常用的關(guān)聯(lián)規(guī)則度量指標的是()選項:A、置信度B、支持度C、覆蓋率D、改善度正確答案:【覆蓋率】2、問題:隱語義模型LFM的基本思想為()選項:A、計算用戶之間相似度,基于用戶關(guān)聯(lián)性為用戶進行推薦B、找出一些有效的關(guān)聯(lián)規(guī)則,利用關(guān)聯(lián)規(guī)則進行推薦C、將用戶和項目映射到同一個隱藏的因子空間中,直接計算用戶和項目的相關(guān)度D、計算項目之間相似度,基于項目關(guān)聯(lián)性為用戶進行推薦正確答案:【將用戶和項目映射到同一個隱藏的因子空間中,直接計算用戶和項目的相關(guān)度】3、問題:下列關(guān)于概率矩陣分解PMF的說法錯誤的是()選項:A、PMF將用戶評分、用戶特征、項目特征都看作是隨機變量B、PMF假設用戶特征、項目特征都服從均值為0的高斯分布C、PMF假設觀測噪聲服從均值為0的高斯分布D、PMF是從優(yōu)化目標出發(fā)確定用戶和項目的隱語義表示,使預測誤差最小化正確答案:【PMF是從優(yōu)化目標出發(fā)確定用戶和項目的隱語義表示,使預測誤差最小化】4、問題:矩陣分解模型的理論依據(jù)是()選項:A、機器學習B、奇異值分解SVDC、嵌入學習D、人工神經(jīng)網(wǎng)絡正確答案:【奇異值分解SVD】5、問題:下列關(guān)于Apriori算法的說法錯誤的是()選項:A、初始化的目的是找到所有的頻繁1-項集B、Apriori算法主要包含初始化和迭代搜索兩部分C、迭代的目的是通過上一次迭代得到的頻繁(k-1)-項集得到頻繁k-項集D、Apriori算法通過最小置信度進行剪枝正確答案:【Apriori算法通過最小置信度進行剪枝】6、問題:下列關(guān)于隱語義模型LFM的說法錯誤的是()選項:A、LFM訓練時需要知道完整的待分解矩陣B、LFM常用的模型參數(shù)學習方法是隨機梯度下降法和交替最小二乘法C、LFM能夠預測用戶對項目的評分值D、LFM可以通過最小化均方誤差來學習正確答案:【LFM訓練時需要知道完整的待分解矩陣】7、問題:關(guān)于Apriori算法先驗原理正確的是()選項:A、若A是頻繁項集,則A的每一個子集都是頻繁項集.B、若A是頻繁項集,則A的每一個超集都是頻繁項集.C、若A是非頻繁項集,則A的每一個子集都是非頻繁項集.D、若A是非頻繁項集,則A的每一個超集都是非頻繁項集.正確答案:【若A是頻繁項集,則A的每一個子集都是頻繁項集.#若A是非頻繁項集,則A的每一個超集都是非頻繁項集.】8、問題:針對隱式反饋的常用負采樣方法有()選項:A、假設每個未觀測到反饋的樣本都是負樣本且影響相同B、用戶沒有反饋行為時,用戶購買的項目越多越有可能是負樣本C、用戶沒有反饋行為時,項目越熱門越有可能是負樣本D、用戶沒有反饋行為時,項目越冷門越有可能是負樣本正確答案:【假設每個未觀測到反饋的樣本都是負樣本且影響相同#用戶沒有反饋行為時,用戶購買的項目越多越有可能是負樣本#用戶沒有反饋行為時,項目越熱門越有可能是負樣本】9、問題:隱式反饋數(shù)據(jù)特征的包括()選項:A、缺少負反饋B、包含較多噪聲C、代表用戶真實的喜好程度D、收集困難正確答案:【缺少負反饋#包含較多噪聲】10、填空題:概率矩陣分解模型主要利用統(tǒng)計推理理論中的______公式進行推理分析正確答案:【貝葉斯】11、填空題:概率矩陣分解模型假設用戶特征U和項目特征V都服從均值為______的高斯分布正確答案:【0】測驗41、問題:以下關(guān)于詞袋模型(BagofWords)正確的有()選項:A、詞袋模型常應用于文本分類,如垃圾郵件過濾B、詞袋模型忽略文本中的詞序、語法、句法C、詞袋模型將文本看作若干詞構(gòu)成的一個集合,且每個詞獨立出現(xiàn)D、詞袋模型考慮詞與詞之間的上下文關(guān)系正確答案:【詞袋模型常應用于文本分類,如垃圾郵件過濾#詞袋模型忽略文本中的詞序、語法、句法#詞袋模型將文本看作若干詞構(gòu)成的一個集合,且每個詞獨立出現(xiàn)】2、問題:以下關(guān)于TF-IDF模型,正確的有()選項:A、假設詞的重要性隨著它在文檔中出現(xiàn)的次數(shù)成正比B、假設詞的重要性隨著它在語料庫中出現(xiàn)的頻率成反比下降C、假設詞的重要性和它所在文檔的長度成反比D、逆文檔頻率的基本思想是如果一個詞在語料庫中出現(xiàn)的頻率越高,則該詞越普遍,對應的重要性(區(qū)分度)越低正確答案:【假設詞的重要性隨著它在文檔中出現(xiàn)的次數(shù)成正比#假設詞的重要性隨著它在語料庫中出現(xiàn)的頻率成反比下降#假設詞的重要性和它所在文檔的長度成反比#逆文檔頻率的基本思想是如果一個詞在語料庫中出現(xiàn)的頻率越高,則該詞越普遍,對應的重要性(區(qū)分度)越低】3、問題:對詞袋模型常用改進方法有()選項:A、去停用詞B、詞干還原C、使用詞組D、特征選擇正確答案:【去停用詞#詞干還原#使用詞組#特征選擇】4、問題:以下關(guān)于顯示語義分析(ExplicitSemanticAnalysis,ESA)算法的描述正確的有()選項:A、ESA算法是一種基于本體庫計算文本之間相似度的方法B、ESA算法是一種基于網(wǎng)絡知識直接計算文本之間相似度的方法C、本質(zhì)上也是一種基于向量空間模型的文本相似度計算方法D、ESA主要包括兩個部分,基于網(wǎng)絡知識建立語義解釋器和利用語義解釋器計算文本相似度正確答案:【ESA算法是一種基于網(wǎng)絡知識直接計算文本之間相似度的方法#本質(zhì)上也是一種基于向量空間模型的文本相似度計算方法#ESA主要包括兩個部分,基于網(wǎng)絡知識建立語義解釋器和利用語義解釋器計算文本相似度】5、問題:以下關(guān)于基于效用的推薦的描述,正確的有()選項:A、基于效用的推薦可以看作是將絕對的約束(是否滿足)轉(zhuǎn)換成定量的效用(滿意度)B、基本思想是利用多屬性效用理論,基于預先定義的用戶效用函數(shù)評估候選項目的效用值,并據(jù)此做出推薦C、每個項目都將根據(jù)預定義的維度集進行評估D、存在約束沖突問題正確答案:【基于效用的推薦可以看作是將絕對的約束(是否滿足)轉(zhuǎn)換成定量的效用(滿意度)#基本思想是利用多屬性效用理論,基于預先定義的用戶效用函數(shù)評估候選項目的效用值,并據(jù)此做出推薦#每個項目都將根據(jù)預定義的維度集進行評估】6、問題:以下關(guān)于基于實例的推薦的描述,正確的有()選項:A、目標是尋找和這個實例值完全一樣或相近的項目子集B、根據(jù)項目屬性值計算項目之間的相似度C、本質(zhì)上是使用相似度度量對候選項目進行檢索和排序D、針對具體應用中的屬性,采用的相似度度量方法,需要根據(jù)領(lǐng)域知識來決定正確答案:【目標是尋找和這個實例值完全一樣或相近的項目子集#根據(jù)項目屬性值計算項目之間的相似度#本質(zhì)上是使用相似度度量對候選項目進行檢索和排序#針對具體應用中的屬性,采用的相似度度量方法,需要根據(jù)領(lǐng)域知識來決定】7、填空題:基于約束的推薦的難點在于處理約束之間的______.正確答案:【沖突】8、填空題:基于內(nèi)容的推薦能夠解決協(xié)同過濾所面臨的______冷啟動問題。正確答案:【項目】9、填空題:基于知識的推薦常用于低頻、______成本的項目推薦正確答案:【高】測驗51、問題:關(guān)于混合/組合方法的說法,錯誤的是()選項:A、Boosting和Stacking集成方法都屬于有監(jiān)督組合模型B、串行混合各基模型可以獨立構(gòu)造,并不依賴于前面的基模型C、整體式混合模型只包含一個混合單元,通過預處理和組合多個知識源將多種模型整合在一起D、無監(jiān)督組合模型不需要訓練額外模型,一般直接使用多數(shù)表決或者加權(quán)平均來集成基模型的輸出正確答案:【串行混合各基模型可以獨立構(gòu)造,并不依賴于前面的基模型】2、問題:下面關(guān)于級聯(lián)過濾模型的說法,錯誤的是()選項:A、級聯(lián)過濾就是對基推薦模型排序之后,使用后面的基推薦模型對前面模型的推薦結(jié)果進行優(yōu)化的過程B、級聯(lián)過濾的不同基推薦模型具有一定的依賴關(guān)系C、被第k個基推薦模型刪除的項目,在第k+1個基推薦模型中依然可能會被推薦D、級聯(lián)過濾的關(guān)鍵在于基模型的選擇和排序正確答案:【被第k個基推薦模型刪除的項目,在第k+1個基推薦模型中依然可能會被推薦】3、問題:下面哪些方法可用來確定加權(quán)式混合的權(quán)值()選項:A、根據(jù)基推薦模型在驗證集上的性能來確定權(quán)值B、通過學習的方式來確定權(quán)值C、根據(jù)用戶偏好,設定個性化的權(quán)值D、采用無監(jiān)督組合的方式來確定權(quán)值正確答案:【根據(jù)基推薦模型在驗證集上的性能來確定權(quán)值#通過學習的方式來確定權(quán)值#根據(jù)用戶偏好,設定個性化的權(quán)值#采用無監(jiān)督組合的方式來確定權(quán)值】4、問題:整體式混合方法包括()選項:A、特征組合B、特征擴充C、基于圖模型的混合D、切換式混合正確答案:【特征組合#特征擴充#基于圖模型的混合】5、問題:串行式混合方法包括()選項:A、排序混合B、級聯(lián)過濾C、級聯(lián)學習D、加權(quán)式混合正確答案:【級聯(lián)過濾#級聯(lián)學習】6、問題:排序混合可以采用哪些方法()選項:A、波達計數(shù)法B、凱梅尼優(yōu)化C、成對投票表決D、多數(shù)表決法正確答案:【波達計數(shù)法#凱梅尼優(yōu)化#成對投票表決】7、問題:下面關(guān)于基于雙層圖模型進行混合推薦的說法,正確的是()選項:A、用戶層中的邊代表的是用戶的行為信息B、項目層中的邊代表的是項目之間的相似度C、將推薦問題轉(zhuǎn)化為一個圖搜索的問題D、用戶層中的邊代表的是用戶之間的相似度正確答案:【項目層中的邊代表的是項目之間的相似度#將推薦問題轉(zhuǎn)化為一個圖搜索的問題#用戶層中的邊代表的是用戶之間的相似度】8、填空題:混合推薦的基本思想是通過不同模型的混合,取長補短,以提升系統(tǒng)整體的準確度和______性。正確答案:【穩(wěn)定】9、填空題:混合推薦的理論依據(jù)是通過模型組合能夠降低______錯誤正確答案:【不相關(guān)】10、填空題:根據(jù)基模型之間的依賴關(guān)系,混合推薦方法可以分為:______混合、串行式混合和整體式混合。正確答案:【并行式】測驗61、問題:B測試的關(guān)鍵在于()選項:A、算法之間的差異B、用戶流量的分配C、算法所處環(huán)境的一致性D、評價指標正確答案:【用戶流量的分配】2、問題:在進行數(shù)據(jù)集劃分時,如果無法獲取到用戶行為時間戳,則可以采用()選項:A、時間劃分B、順序劃分C、隨機劃分D、分段劃分正確答案:【隨機劃分】3、問題:針對分為模型評價的混淆矩陣中TN指的是()選項:A、預測值為正,真實值為負B、

溫馨提示

  • 1. 本站所有資源如無特殊說明,都需要本地電腦安裝OFFICE2007和PDF閱讀器。圖紙軟件為CAD,CAXA,PROE,UG,SolidWorks等.壓縮文件請下載最新的WinRAR軟件解壓。
  • 2. 本站的文檔不包含任何第三方提供的附件圖紙等,如果需要附件,請聯(lián)系上傳者。文件的所有權(quán)益歸上傳用戶所有。
  • 3. 本站RAR壓縮包中若帶圖紙,網(wǎng)頁內(nèi)容里面會有圖紙預覽,若沒有圖紙預覽就沒有圖紙。
  • 4. 未經(jīng)權(quán)益所有人同意不得將文件中的內(nèi)容挪作商業(yè)或盈利用途。
  • 5. 人人文庫網(wǎng)僅提供信息存儲空間,僅對用戶上傳內(nèi)容的表現(xiàn)方式做保護處理,對用戶上傳分享的文檔內(nèi)容本身不做任何修改或編輯,并不能對任何下載內(nèi)容負責。
  • 6. 下載文件中如有侵權(quán)或不適當內(nèi)容,請與我們聯(lián)系,我們立即糾正。
  • 7. 本站不保證下載資源的準確性、安全性和完整性, 同時也不承擔用戶因使用這些下載資源對自己和他人造成任何形式的傷害或損失。

評論

0/150

提交評論