《大語言模型基礎(chǔ)》教案全套 周蘇_第1頁
《大語言模型基礎(chǔ)》教案全套 周蘇_第2頁
《大語言模型基礎(chǔ)》教案全套 周蘇_第3頁
《大語言模型基礎(chǔ)》教案全套 周蘇_第4頁
《大語言模型基礎(chǔ)》教案全套 周蘇_第5頁
已閱讀5頁,還剩11頁未讀 繼續(xù)免費(fèi)閱讀

下載本文檔

版權(quán)說明:本文檔由用戶提供并上傳,收益歸屬內(nèi)容提供方,若內(nèi)容存在侵權(quán),請(qǐng)進(jìn)行舉報(bào)或認(rèn)領(lǐng)

文檔簡(jiǎn)介

《大語言模型基礎(chǔ)》教案課程名稱:大語言模型基礎(chǔ) Foundationoflargelanguagemodels課程編號(hào):CS-301學(xué)分:2學(xué)分課程負(fù)責(zé)人:教材與參考資料:?教材:《大語言模型基礎(chǔ)》,周蘇,清華大學(xué)出版社,2024?參考資料:預(yù)修課程:課程目標(biāo):1.知識(shí)目標(biāo):掌握大語言模型的基本概念、發(fā)展歷程和技術(shù)原理。2.技能目標(biāo):能夠使用開源大模型進(jìn)行微調(diào)和應(yīng)用開發(fā)。3.應(yīng)用目標(biāo):能夠在實(shí)際項(xiàng)目中設(shè)計(jì)和實(shí)現(xiàn)基于大語言模型的解決方案。4.倫理目標(biāo):了解大語言模型倫理和法律問題,具備負(fù)責(zé)任的技術(shù)應(yīng)用能力。教學(xué)方法:?課堂講授:通過多媒體課件和案例講解,系統(tǒng)介紹大語言模型的基礎(chǔ)知識(shí)和技術(shù)原理。?實(shí)驗(yàn)實(shí)訓(xùn):通過實(shí)驗(yàn)室實(shí)踐,讓學(xué)生動(dòng)手操作,掌握大語言模型的訓(xùn)練、微調(diào)和應(yīng)用方法。?小組討論:組織學(xué)生進(jìn)行小組討論,探討大語言模型的實(shí)際應(yīng)用和倫理問題。?項(xiàng)目作業(yè):布置實(shí)際項(xiàng)目作業(yè),要求學(xué)生獨(dú)立設(shè)計(jì)和實(shí)現(xiàn)基于大語言模型的應(yīng)用系統(tǒng)。考核方式:?平時(shí)成績(jī)(30%):包括課堂表現(xiàn)、實(shí)驗(yàn)報(bào)告和小組討論。?期中考試(30%):考察學(xué)生對(duì)大語言模型基礎(chǔ)知識(shí)的理解和掌握。?期末項(xiàng)目(40%):要求學(xué)生獨(dú)立完成一個(gè)基于大語言模型的應(yīng)用項(xiàng)目,并進(jìn)行展示和答辯。

課程內(nèi)容及教學(xué)安排:第1周:課程介紹與人工智能基礎(chǔ) 大模型定義與技術(shù)形成?1.1人工智能基礎(chǔ)?1.1.1人工智能的實(shí)現(xiàn)途徑?1.1.2機(jī)器學(xué)習(xí)和深度學(xué)習(xí)?1.1.3監(jiān)督與無監(jiān)督學(xué)習(xí)?1.2大模型定義?1.2.1模型預(yù)訓(xùn)練和微調(diào)?1.2.2大模型的特征?1.2.3大模型的優(yōu)勢(shì)?1.3大模型技術(shù)的形成?1.3.1Blockhead思維實(shí)驗(yàn)?1.3.2大模型的歷史基礎(chǔ)?1.3.3基于Transformer模型?1.3.4大模型的世界模型問題?1.3.5文化知識(shí)傳遞和語言支持?教學(xué)活動(dòng)?課堂講授?小組討論:大模型的發(fā)展歷程?課后閱讀:第2周:通用人工智能 語言模型與生成式AI?1.4通用人工智能?1.4.1什么是通用人工智能?1.4.2大模型與通用人工智能?1.4.3人工智能生成內(nèi)容?2.1什么是語言模型?2.1.1語言模型的定義?2.1.2注意力機(jī)制?2.1.3開源還是閉源?教學(xué)活動(dòng)?課堂講授?實(shí)驗(yàn)實(shí)訓(xùn):使用開源大模型執(zhí)行簡(jiǎn)單任務(wù)實(shí)現(xiàn)簡(jiǎn)單的語言模型?課后閱讀:第3周:大模型發(fā)展三階段 生成式人工智能?2.2大模型發(fā)展三階段?2.2.1基礎(chǔ)模型階段?2.2.2能力探索階段?2.2.3突破發(fā)展階段?2.3Transformer模型?2.3.1Transformer過程?2.3.2Transformer結(jié)構(gòu)?2.3.3Transformer模塊?2.4生成式人工智能?2.4.1生成式AI定義?2.4.2生成式AI層次?2.4.3生成式預(yù)訓(xùn)練語言模型GPT?教學(xué)活動(dòng)?課堂講授?小組討論:Transformer模型的特點(diǎn)?實(shí)驗(yàn)實(shí)訓(xùn):實(shí)現(xiàn)Transformer模型使用GPT模型生成文本?課后閱讀:第4周:大模型生成原理 多模態(tài)語言模型?3.1大模型生成原理?3.1.1上下文學(xué)習(xí)?3.1.2指令微調(diào)?3.1.3零樣本/少樣本?3.1.4深度學(xué)習(xí)架構(gòu)?3.1.5訓(xùn)練策略及優(yōu)化技術(shù)?3.1.6所謂世界模型?3.2多模態(tài)語言模型?3.2.1多模態(tài)指令微調(diào)?3.2.2多模態(tài)上下文學(xué)習(xí)?3.2.3多模態(tài)思維鏈?3.2.4大模型輔助視覺推理?教學(xué)活動(dòng)?課堂講授?實(shí)驗(yàn)實(shí)訓(xùn):實(shí)現(xiàn)上下文學(xué)習(xí)實(shí)現(xiàn)多模態(tài)語言模型?課后閱讀:第5周:大模型的結(jié)構(gòu) OpenAI的Sora大模型?3.3大模型的結(jié)構(gòu)?3.3.1LLaMA的模型結(jié)構(gòu)?3.3.2LLaMA的注意力機(jī)制?3.4應(yīng)用技術(shù)架構(gòu)?3.4.1指令工程?3.4.2函數(shù)調(diào)用?3.4.3檢索增強(qiáng)生成?3.4.4微調(diào)?3.5OpenAI的Sora大模型?3.5.1Sora技術(shù)報(bào)告分析?3.5.2Sora主要技術(shù)特點(diǎn)?3.5.3Sora的模型訓(xùn)練過程?教學(xué)活動(dòng)?課堂講授?小組討論:Sora模型的特點(diǎn)和應(yīng)用?實(shí)驗(yàn)實(shí)訓(xùn):使用LLaMA模型執(zhí)行任務(wù)?課后閱讀:OpenAI的Sora技術(shù)報(bào)告第6周:人工數(shù)據(jù)標(biāo)注 大模型預(yù)訓(xùn)練數(shù)據(jù)?4.1知識(shí)表示方法?4.1.1知識(shí)的概念?4.1.2知識(shí)表示的定義?4.1.3知識(shí)表示的過程?4.2什么是數(shù)據(jù)標(biāo)注?4.3數(shù)據(jù)標(biāo)注分類?4.3.1圖像標(biāo)注?4.3.2語音標(biāo)注?4.3.33D點(diǎn)云標(biāo)注?4.3.4文本標(biāo)注?5.1數(shù)據(jù)來源?5.1.1通用數(shù)據(jù)?5.1.2專業(yè)數(shù)據(jù)?5.2數(shù)據(jù)處理?5.2.1質(zhì)量過濾?5.2.2冗余去除?5.2.3隱私消除?5.2.4詞元切分?教學(xué)活動(dòng)?課堂講授?實(shí)驗(yàn)實(shí)訓(xùn):進(jìn)行數(shù)據(jù)標(biāo)注實(shí)踐數(shù)據(jù)預(yù)處理實(shí)踐?課后閱讀:第7周:數(shù)據(jù)影響分析與數(shù)據(jù)集 訓(xùn)練集、測(cè)試集、驗(yàn)證集的異同?5.3數(shù)據(jù)影響分析?5.3.1數(shù)據(jù)規(guī)模?5.3.2數(shù)據(jù)質(zhì)量?5.4典型的開源數(shù)據(jù)集?5.4.1Pile?5.4.2ROOTS?5.5訓(xùn)練集、測(cè)試集、驗(yàn)證集的異同?5.5.1訓(xùn)練、測(cè)試與驗(yàn)證數(shù)據(jù)集的不同之處?5.5.2訓(xùn)練、測(cè)試與驗(yàn)證數(shù)據(jù)集的相似之處?5.6數(shù)據(jù)集面臨的挑戰(zhàn)?5.6.1規(guī)模和質(zhì)量待提升?5.6.2大模型與數(shù)據(jù)集相輔相成?5.6.3標(biāo)準(zhǔn)規(guī)范需健全?5.6.4存儲(chǔ)性能待提高?教學(xué)活動(dòng)?課堂講授?小組討論:數(shù)據(jù)集面臨的問題和解決方案?實(shí)驗(yàn)實(shí)訓(xùn):使用開源數(shù)據(jù)集進(jìn)行訓(xùn)練?課后閱讀:第8周:大模型開發(fā)流程 分布式訓(xùn)練與策略?6.1大模型開發(fā)流程?6.2大模型的數(shù)據(jù)組織?6.2.1數(shù)據(jù)采集?6.2.2數(shù)據(jù)清洗和預(yù)處理?6.2.3數(shù)據(jù)標(biāo)注?6.2.4數(shù)據(jù)集劃分?6.2.5模型設(shè)計(jì)?6.2.6模型初始化?6.2.7模型訓(xùn)練?6.2.8模型驗(yàn)證?6.2.9模型保存?6.2.10模型測(cè)試?6.2.11模型部署?6.3分而治之的思想?6.3.1分布式計(jì)算?6.3.2消息傳遞接口MPI?6.3.3MapReduce模型?6.3.4批處理和流處理?6.4分布式訓(xùn)練與策略?6.4.1什么是分布式訓(xùn)練?6.4.2數(shù)據(jù)并行性?6.4.3模型并行性?6.4.4流水線并行性?6.4.5混合并行?6.4.6分布式訓(xùn)練集群架構(gòu)?教學(xué)活動(dòng)?課堂講授?實(shí)驗(yàn)實(shí)訓(xùn):完整的模型開發(fā)流程實(shí)踐分布式訓(xùn)練實(shí)踐?課后閱讀:第9周:提示工程與微調(diào) 上下文窗口擴(kuò)展與指令數(shù)據(jù)構(gòu)建?7.1什么是提示工程?7.1.1提示工程的原理?7.1.2提示工程應(yīng)用技術(shù)?7.1.3提示的通用技巧?7.2大模型為什么要微調(diào)?7.3提示學(xué)習(xí)和語境學(xué)習(xí)?7.3.1提示學(xué)習(xí)?7.3.2語境學(xué)習(xí)?7.4上下文窗口擴(kuò)展?7.5指令數(shù)據(jù)的構(gòu)建?7.5.1手動(dòng)構(gòu)建指令?7.5.2自動(dòng)構(gòu)建指令?7.5.3開源指令數(shù)據(jù)集?教學(xué)活動(dòng)?課堂講授?實(shí)驗(yàn)實(shí)訓(xùn):提示工程和微調(diào)實(shí)踐上下文窗口擴(kuò)展和指令數(shù)據(jù)構(gòu)建實(shí)踐?課后閱讀:第10周:微調(diào)及其PEFT流行方案 強(qiáng)化學(xué)習(xí)方法?7.6微調(diào)及其PEFT流行方案?7.6.1微調(diào)技術(shù)路線?7.6.2提示微調(diào)?7.6.3前綴微調(diào)?7.6.4LoRA?7.6.5QLoRA?8.1強(qiáng)化學(xué)習(xí)的概念?8.1.1強(qiáng)化學(xué)習(xí)的定義?8.1.2不同于監(jiān)督和無監(jiān)督學(xué)習(xí)?8.1.3不同于傳統(tǒng)機(jī)器學(xué)習(xí)?8.1.4大模型的強(qiáng)化學(xué)習(xí)?8.1.5先驗(yàn)知識(shí)與標(biāo)注數(shù)據(jù)?教學(xué)活動(dòng)?課堂講授?實(shí)驗(yàn)實(shí)訓(xùn):微調(diào)和PEFT實(shí)踐強(qiáng)化學(xué)習(xí)實(shí)踐?課后閱讀:第11周:強(qiáng)化學(xué)習(xí)基礎(chǔ)與分類 深度強(qiáng)化學(xué)習(xí)?8.2強(qiáng)化學(xué)習(xí)基礎(chǔ)?8.2.1基于模型與免模型環(huán)境?8.2.2探索與利用?8.2.3片段還是連續(xù)任務(wù)?8.2.4網(wǎng)絡(luò)模型設(shè)計(jì)?8.3強(qiáng)化學(xué)習(xí)分類?8.3.1從獎(jiǎng)勵(lì)中學(xué)習(xí)?8.3.2被動(dòng)與主動(dòng)強(qiáng)化學(xué)習(xí)?8.3.3學(xué)徒學(xué)習(xí)?8.4深度強(qiáng)化學(xué)習(xí)?教學(xué)活動(dòng)?課堂講授?實(shí)驗(yàn)實(shí)訓(xùn):強(qiáng)化學(xué)習(xí)的應(yīng)用場(chǎng)景深度強(qiáng)化學(xué)習(xí)實(shí)踐?課后閱讀:第12周:大模型智能體 智能體的結(jié)構(gòu)與構(gòu)建?9.1智能體和環(huán)境?9.2智能體的良好行為?9.2.1性能度量?9.2.2理性?9.3環(huán)境的本質(zhì)?9.3.1指定任務(wù)環(huán)境?9.3.2任務(wù)環(huán)境的屬性?9.4智能體的結(jié)構(gòu)?9.4.1智能體程序?9.4.2學(xué)習(xí)型智能體?9.4.3智能體組件的工作?9.5構(gòu)建大模型智能體?9.6人工智能內(nèi)容生成(AIGC)?9.6.1內(nèi)容孿生?9.6.2內(nèi)容編輯?教學(xué)活動(dòng)?課堂講授?實(shí)驗(yàn)實(shí)訓(xùn):智能體的設(shè)計(jì)和應(yīng)用構(gòu)建大模型智能體?課后閱讀:第13周:大模型應(yīng)用框架 大模型應(yīng)用場(chǎng)景?10.1大模型哲學(xué)問題?10.1.1組成性?10.1.2天賦論與語言習(xí)得?10.1.3語言理解與基礎(chǔ)?10.1.4世界模型?10.1.5知識(shí)傳遞和語言支持?10.2大模型應(yīng)用流程?10.2.1確定需求大小?10.2.2數(shù)據(jù)收集?10.2.3數(shù)據(jù)集預(yù)處理?10.2.4大模型預(yù)訓(xùn)練?10.2.5任務(wù)微調(diào)?10.2.6部署?10.3大模型應(yīng)用場(chǎng)景?10.3.1機(jī)器翻譯、文本理解與分析?10.3.2自然語言生成?10.3.3搜索與知識(shí)提取?10.3.4代碼開發(fā)?10.3.5檢測(cè)和預(yù)防網(wǎng)絡(luò)攻擊?10.3.6虛擬助理和客戶支持?10.3.7SEO關(guān)鍵詞優(yōu)化?10.4案例:Magic突破Q算法?教學(xué)活動(dòng)?課堂講授?實(shí)驗(yàn)實(shí)訓(xùn):大模型應(yīng)用框架實(shí)踐大模型的應(yīng)用案例?課后閱讀:第14周:技術(shù)倫理與限制 人工智能倫理原則與知識(shí)產(chǎn)權(quán)保護(hù)?11.1人工智能面臨的倫理挑戰(zhàn)?11.1.1人工智能與人類的關(guān)系?11.1.2人與智能機(jī)器的溝通?11.2數(shù)據(jù)隱私保護(hù)對(duì)策?11.2.1數(shù)據(jù)主權(quán)和數(shù)據(jù)權(quán)問題?11.2.2數(shù)據(jù)利用失衡問題?11.2.3構(gòu)建隱私保護(hù)倫理準(zhǔn)則?11.2.4健全道德倫理約束機(jī)制?11.3人工智能倫理原則?11.3.1職業(yè)倫理準(zhǔn)則的目標(biāo)?11.3.2創(chuàng)新發(fā)展道德倫理宣言?11.3.3歐盟可信賴的倫理準(zhǔn)則?11.4大模型的知識(shí)產(chǎn)權(quán)保護(hù)?11.4.1大模型的訴訟案例?11.4.2大模型生成內(nèi)容的知識(shí)產(chǎn)權(quán)保護(hù)?11.4.3尊重隱私,保障安全,促進(jìn)開放?11.4.4邊緣群體的數(shù)字平等?教學(xué)活動(dòng)?課堂講授?小組討論:數(shù)據(jù)隱私保護(hù)對(duì)策倫理和法律問題?課后閱讀:第15周:大模型產(chǎn)品評(píng)估 大模型產(chǎn)品對(duì)比與大趨勢(shì)?12.1模型評(píng)估概述?12.2大模型評(píng)估體系?12.

溫馨提示

  • 1. 本站所有資源如無特殊說明,都需要本地電腦安裝OFFICE2007和PDF閱讀器。圖紙軟件為CAD,CAXA,PROE,UG,SolidWorks等.壓縮文件請(qǐng)下載最新的WinRAR軟件解壓。
  • 2. 本站的文檔不包含任何第三方提供的附件圖紙等,如果需要附件,請(qǐng)聯(lián)系上傳者。文件的所有權(quán)益歸上傳用戶所有。
  • 3. 本站RAR壓縮包中若帶圖紙,網(wǎng)頁內(nèi)容里面會(huì)有圖紙預(yù)覽,若沒有圖紙預(yù)覽就沒有圖紙。
  • 4. 未經(jīng)權(quán)益所有人同意不得將文件中的內(nèi)容挪作商業(yè)或盈利用途。
  • 5. 人人文庫網(wǎng)僅提供信息存儲(chǔ)空間,僅對(duì)用戶上傳內(nèi)容的表現(xiàn)方式做保護(hù)處理,對(duì)用戶上傳分享的文檔內(nèi)容本身不做任何修改或編輯,并不能對(duì)任何下載內(nèi)容負(fù)責(zé)。
  • 6. 下載文件中如有侵權(quán)或不適當(dāng)內(nèi)容,請(qǐng)與我們聯(lián)系,我們立即糾正。
  • 7. 本站不保證下載資源的準(zhǔn)確性、安全性和完整性, 同時(shí)也不承擔(dān)用戶因使用這些下載資源對(duì)自己和他人造成任何形式的傷害或損失。

評(píng)論

0/150

提交評(píng)論