版權(quán)說(shuō)明:本文檔由用戶提供并上傳,收益歸屬內(nèi)容提供方,若內(nèi)容存在侵權(quán),請(qǐng)進(jìn)行舉報(bào)或認(rèn)領(lǐng)
文檔簡(jiǎn)介
錄2000年左 2010年左
2015年左 今
45TB570GB清洗后語(yǔ)料(93%175GB模型(在GPU顯存
830GB代碼數(shù)
表征建模能力:推薦系統(tǒng)缺乏語(yǔ)義信息;而大模型推薦能提取高質(zhì)量的文本表示,并利用編碼的世界知識(shí)完善物品理解和用戶建模個(gè)性化內(nèi)容生成:推薦系統(tǒng)僅能回答用戶對(duì)給定候選集中物品的偏好;而大模型推薦具備生成能力生成不受限的個(gè)性化內(nèi)容,且具備較好的可解釋性 傳統(tǒng)大模型推薦1傳統(tǒng)大模型推薦1C的傳統(tǒng)語(yǔ)言模型(GloveC的傳統(tǒng)語(yǔ)言模型(BERTA與BC無(wú)關(guān)CAB大模型嵌入替代或添加進(jìn)推薦模型嵌入(大模型嵌入替代或添加進(jìn)推薦模型嵌入(如BIGRec):利用大模型獲取物品的嵌入,將嵌入替代或添加薦嵌入進(jìn)行后續(xù)推薦
訓(xùn)練與推理時(shí)延:LLM模型生成嵌入的速度較慢訓(xùn)練與推理時(shí)延:LLM模型生成嵌入的速度較慢,導(dǎo)致了額外的傳統(tǒng)大模型推薦2傳統(tǒng)大模型推薦2無(wú)法對(duì)輔助信息推理:推薦模型通常只基于序列或特征建模,而LLM可以結(jié)合上下文和輔助信息進(jìn)行
提煉和聯(lián)想新信息(如KAR):提煉和聯(lián)想新信息(如KAR):利用LLM從輸入中提煉關(guān)鍵信息,并聯(lián)想開放域知識(shí)引入(如CTRL通過(guò)嵌入對(duì)齊,將開放域知識(shí)
通過(guò)預(yù)訓(xùn)練后的LLM提示工程(如TALLRec、KP4SR):通過(guò)設(shè)計(jì)專門的prompt,輸入用戶信息、上下文以及候選物品列表作為輔助信息,使M生成推薦結(jié)果推薦模型嵌入融入(如LLaRa):將來(lái)自推薦模型(如協(xié)同過(guò)濾模型或圖神經(jīng)網(wǎng)絡(luò))的embedding融入到模型中,結(jié)合M的語(yǔ)義理解能力和推薦模型提取協(xié)同信息的能力設(shè)計(jì)prompt,處理推薦信
ChatGPT對(duì)“是”回答 基于語(yǔ)義embedding獲取語(yǔ)義ID,用來(lái)代替無(wú)意義的物品ID層次化碼本:基于殘差量化的方式獲得重要程度逐級(jí)遞減的碼本(粗粒度->細(xì)粒度),
每層碼本表達(dá)意義的“模長(zhǎng)”生成式推薦大模型2:生成式推薦大模型2:生成式推薦大模型2:生成式推薦大模型2:推薦任務(wù)->序列生成任務(wù):將輸入的各項(xiàng)異構(gòu)特征整合和編碼成一個(gè)統(tǒng)一的時(shí)間序列,并將召回、排序等推薦任務(wù)重構(gòu)為統(tǒng)一的Seq2Seq序列生成任務(wù),設(shè)計(jì)基于trsforr的架構(gòu)生成下一個(gè)to。生成式推薦大模型2:生成式推薦大模型2:時(shí)間復(fù)雜度:不涉及對(duì)時(shí)間復(fù)雜度的在模型架構(gòu)層面的優(yōu)化,未來(lái)工作可以考慮設(shè)計(jì)類似于線性注意力機(jī)制或最新提出的mamba等一次復(fù)雜度的架構(gòu)代替或部分代替二次復(fù)雜度的自注意力機(jī)制。但對(duì)于新架構(gòu),如何保持sligl是一個(gè)挑戰(zhàn)
GPT成功的數(shù)據(jù)基石:GPTGPT成功的數(shù)據(jù)基石:GPT進(jìn)化中,模型結(jié)構(gòu)保持相似,訓(xùn)練數(shù)據(jù)的規(guī)模、質(zhì)量亟待解決的問(wèn)題:,Model-centric同原始數(shù)據(jù)中學(xué)習(xí)到的→映射關(guān)系具有不同側(cè)重,而Data-centric范式先從原始數(shù)據(jù)集針對(duì)不同模型重生成易于學(xué)習(xí)模式的數(shù)據(jù)集′,使學(xué)習(xí)映射′→更加簡(jiǎn)單直觀Model-centric:Onedataset,AllData-centric:Onedataset,One推薦系統(tǒng)中存在的數(shù)據(jù)問(wèn) odlcentric和data-centric范式對(duì)DR4SR預(yù)訓(xùn)練階段(A)學(xué)習(xí)重生成器:提出滑動(dòng)窗口策略提取“(序列,模式)”對(duì),構(gòu)建預(yù)訓(xùn)練任務(wù),解決監(jiān)督信號(hào)缺失;提出方法優(yōu)越性:DR4SR在不同數(shù)據(jù)集和各類模型上的性能均顯著提升,展現(xiàn)了跨模型結(jié)構(gòu)泛化能力以Data-centric和Modlcentric范式互補(bǔ)性,體現(xiàn)了Data-centric進(jìn)一步分析:雖然DR4SR可以提供模型感知的序列訓(xùn)練數(shù)據(jù)集,但仍需要基于原始的數(shù)據(jù)集構(gòu)建高階數(shù)據(jù)模式和用于增廣訓(xùn)練的數(shù)據(jù),針對(duì)不同數(shù)據(jù)類型擴(kuò)展D4S數(shù)據(jù)重生成方法仍需探索基于benchmark數(shù)據(jù)集在5大類
Entropylaw數(shù)據(jù)壓縮率R:度量了數(shù)據(jù)中所蘊(yùn)含的信息密度。可通過(guò)現(xiàn)有的各類數(shù)據(jù)壓縮算法對(duì)文本數(shù)據(jù)進(jìn)行壓縮,訓(xùn)練損失L:度量了數(shù)據(jù)被模型記憶的難易程度??赏ㄟ^(guò)觀察LLM訓(xùn)練的第一個(gè)epoch的少數(shù)訓(xùn)練步數(shù)便數(shù)據(jù)一致性C:度量了數(shù)據(jù)之間的組合效應(yīng)。反映給定上下文時(shí),預(yù)測(cè)下一個(gè)token平均數(shù)據(jù)質(zhì)量Q:度量了數(shù)據(jù)的樣本級(jí)別質(zhì)量基于EntropylawZIP根據(jù)信息冗余度向量,選擇K1Entropylaw的實(shí)驗(yàn)驗(yàn)證模型效果vs壓縮率:壓縮率越低,代表了更大的Entropylaw的實(shí)驗(yàn)驗(yàn)證模型效果vs壓縮率:壓縮率越低,代表了更大的信息總量而壓縮率接近的do,Clstr,rlity具有接近的損失及模型效果,符合entropylaw模型效果vs訓(xùn)練損失:更低的壓縮率通常伴隨著更大的訓(xùn)練損失,這是因?yàn)閿?shù)據(jù)中信息總量更大,增大了模型的理解難度 Scalinglaw的擬合分析:對(duì)于模型的loss與模型維度作scalinglaw擬合,初步驗(yàn)證loss與模型層數(shù),嵌入scaling
L=
(1+
引入近似熵ApEn衡量數(shù)據(jù)質(zhì)量,熵值越低,數(shù)據(jù)質(zhì)量越高。驗(yàn)證擬合數(shù)據(jù)參數(shù)與數(shù)據(jù)規(guī)模/近似熵成8.38633E-2.58694E-8.12462E-
(R2=ScalingLaw只揭示了loss模型規(guī)模影響因素分析:給定數(shù)據(jù)集規(guī)模,推薦模型scalinglaw中最優(yōu)模型參數(shù)正比于模型層數(shù)L與嵌入維
溫馨提示
- 1. 本站所有資源如無(wú)特殊說(shuō)明,都需要本地電腦安裝OFFICE2007和PDF閱讀器。圖紙軟件為CAD,CAXA,PROE,UG,SolidWorks等.壓縮文件請(qǐng)下載最新的WinRAR軟件解壓。
- 2. 本站的文檔不包含任何第三方提供的附件圖紙等,如果需要附件,請(qǐng)聯(lián)系上傳者。文件的所有權(quán)益歸上傳用戶所有。
- 3. 本站RAR壓縮包中若帶圖紙,網(wǎng)頁(yè)內(nèi)容里面會(huì)有圖紙預(yù)覽,若沒(méi)有圖紙預(yù)覽就沒(méi)有圖紙。
- 4. 未經(jīng)權(quán)益所有人同意不得將文件中的內(nèi)容挪作商業(yè)或盈利用途。
- 5. 人人文庫(kù)網(wǎng)僅提供信息存儲(chǔ)空間,僅對(duì)用戶上傳內(nèi)容的表現(xiàn)方式做保護(hù)處理,對(duì)用戶上傳分享的文檔內(nèi)容本身不做任何修改或編輯,并不能對(duì)任何下載內(nèi)容負(fù)責(zé)。
- 6. 下載文件中如有侵權(quán)或不適當(dāng)內(nèi)容,請(qǐng)與我們聯(lián)系,我們立即糾正。
- 7. 本站不保證下載資源的準(zhǔn)確性、安全性和完整性, 同時(shí)也不承擔(dān)用戶因使用這些下載資源對(duì)自己和他人造成任何形式的傷害或損失。
最新文檔
- 二零二五年度網(wǎng)絡(luò)安全應(yīng)急響應(yīng)托管服務(wù)合同2篇
- 二零二五年度綠色建筑評(píng)價(jià)標(biāo)識(shí)工程聯(lián)營(yíng)協(xié)議3篇
- 二零二五年度大貨車司機(jī)職業(yè)風(fēng)險(xiǎn)防范合同范本3篇
- 網(wǎng)絡(luò)安全文化傳播與防范意識(shí)強(qiáng)化研究
- 2025版實(shí)訓(xùn)基地學(xué)生實(shí)習(xí)就業(yè)安全保障合同2篇
- 小學(xué)教育中的數(shù)學(xué)創(chuàng)新思維培養(yǎng)
- 清遠(yuǎn)廣東清遠(yuǎn)陽(yáng)山縣紀(jì)委監(jiān)委招聘政府購(gòu)買服務(wù)人員筆試歷年參考題庫(kù)附帶答案詳解
- 杭州浙江杭州市湖墅學(xué)校編外教師招聘筆試歷年參考題庫(kù)附帶答案詳解
- 二零二五年度智能家具制造承包合作協(xié)議3篇
- 2025年牛津譯林版選擇性必修1地理下冊(cè)月考試卷
- 肩袖損傷的護(hù)理查房課件
- 2023屆北京市順義區(qū)高三二模數(shù)學(xué)試卷
- 公司差旅費(fèi)報(bào)銷單
- 梁山伯與祝英臺(tái)小提琴譜樂(lè)譜
- 我國(guó)全科醫(yī)生培訓(xùn)模式
- 2021年上海市楊浦區(qū)初三一模語(yǔ)文試卷及參考答案(精校word打印版)
- 八年級(jí)上冊(cè)英語(yǔ)完形填空、閱讀理解100題含參考答案
- 八年級(jí)物理下冊(cè)功率課件
- DBJ51-T 188-2022 預(yù)拌流態(tài)固化土工程應(yīng)用技術(shù)標(biāo)準(zhǔn)
- 《長(zhǎng)津湖》電影賞析PPT
- 銷售禮儀培訓(xùn)PPT
評(píng)論
0/150
提交評(píng)論