版權(quán)說(shuō)明:本文檔由用戶提供并上傳,收益歸屬內(nèi)容提供方,若內(nèi)容存在侵權(quán),請(qǐng)進(jìn)行舉報(bào)或認(rèn)領(lǐng)
文檔簡(jiǎn)介
#專利大模型的實(shí)踐與問(wèn)答探索專利大模型介紹訓(xùn)練過(guò)程專利檢索+專利大模型挑戰(zhàn)和展望目錄#01專利大模型智慧芽垂直領(lǐng)域大模型Leading
Algorithm
Capabilities…AI專家檢索AI-powered
ExpertRetrieval自動(dòng)生成檢索式
AutomaticallyGenerateSearch
ExpressionsAI技術(shù)問(wèn)答
Conversational
Answers
toTechnical
QuestionsPharm
GPT內(nèi)容生成
ContentGeneration算法能力Patent
GPT精準(zhǔn)檢索和專業(yè)推薦
Precision
Search
andProfessional
RecommendationMaterials
GPT對(duì)話問(wèn)答 多語(yǔ)言翻譯Dialogue
MultilingualQ&A
Translation總結(jié)分析
Summarizeand
Analyze基于領(lǐng)域?qū)<曳答伒膹?qiáng)化學(xué)習(xí)
Reinforcement
Learning
withExpert
Feedback監(jiān)督精調(diào)
SupervisedFine-tuningRAG檢索增強(qiáng)生成
Retrieval-AugmentedGenerationAI標(biāo)引
AutomaticIndexing藥物情報(bào)助手
Drug
SearchAssistant自研大模型Self-developedlarge-scale
modelAI助手AI
AssistantAI技術(shù)預(yù)研
AI專利對(duì)比AI-powered
Technical
AI-powered
TechnicalPre-research Pre-researchAI專利和論文解讀AI-powered
Interpretationof
Patent
and
Papers垂直數(shù)據(jù)基石
Patsnap
Data
sets專利
Patent生物序列
Bio
Sequences文獻(xiàn)
Literature新聞
News書籍
Books化學(xué)結(jié)構(gòu)
Chemical
Structures適應(yīng)癥
Indication藥物
Drug靶點(diǎn)
Target論文
Papers材料性質(zhì)
Material
PropertyAI繳費(fèi)
AssistedPaying實(shí)踐的一些經(jīng)驗(yàn):有差異化的海量數(shù)據(jù)有小模型+大模型大模型:CPT+SFT+Reward+PPO(DPO)應(yīng)用場(chǎng)景數(shù)據(jù)提取產(chǎn)品場(chǎng)景RAG在SAAS行業(yè)是必要的組合飛輪算法LLM
Algorithm數(shù)據(jù)基石Data數(shù)十個(gè)小模型Bert
Based
models芽仔專利申請(qǐng)書撰寫助手
Assisted
PatentDrafting#02專利大模型訓(xùn)練領(lǐng)域數(shù)據(jù)(專利論文等246B
tokens
)專利大模型:三個(gè)版本,不斷試錯(cuò)PatentGPT①
差異化數(shù)據(jù)集Patent
GPT:超246B訓(xùn)練數(shù)據(jù),包括全球170個(gè)受理局的超1.8億專利、超1.6億論文、超2100萬(wàn)新聞、超50萬(wàn)投融資、超1.1億企業(yè)、超78萬(wàn)市場(chǎng)報(bào)告以及40萬(wàn)本書籍?dāng)?shù)據(jù)。②
算法面向業(yè)務(wù)大小模型結(jié)合:結(jié)合智慧芽沉淀的幾十種小模型算法能力,數(shù)據(jù)處理+SFT數(shù)據(jù)挖掘+小模型的監(jiān)督數(shù)據(jù);數(shù)據(jù)配方:基于垂直大模型的應(yīng)用場(chǎng)景建立獨(dú)特的數(shù)據(jù)配方;基于領(lǐng)域?qū)<曳答伒膹?qiáng)化學(xué)習(xí):擁有超過(guò)50位知識(shí)產(chǎn)權(quán)和生物醫(yī)藥專家,反饋2萬(wàn)條訓(xùn)練效果數(shù)據(jù),與人類意圖保持一致;RAG檢索增強(qiáng)生成:RAG技術(shù)加強(qiáng)大模型理解能力,結(jié)合知識(shí)庫(kù),更好理解企業(yè)私有數(shù)據(jù),實(shí)現(xiàn)問(wèn)答能力的拓展。(專利搜索)③
只比垂直業(yè)務(wù)能力,不比通用能力垂直行業(yè)能力超越ChatGPT-3.5,部分超越
ChatGPT-4;專利撰寫、專利對(duì)比、專利搜索。PatentGPT通過(guò)中國(guó)專利代理師資格考試Model
Training
eGPT-3
Apr/2020TFLnd
Chip
type (V100OP/smax)
Chip
cou130
10,00Wall
clocknt (0
15time
Totaldays)
(ydays
405timeears)
Cost
($US)years
$9MLlama
1
Jan/2023A100312
2,048
21days
118years
$4MLlama
2
Jun/2023GPT-4
Aug/2022A100A100312
2,04312
25,008
350
95days
196days
6,507years
$7Myears
$224MGemini
Nov/2023TPUv4275
57,000
100days
15,616years
$440MBase
ModelParamsC
o
n
t
e
x
tLengthTokensLRPatentGPT-0.5LLAMA213
B16
k246
B2
10-5PatentGPT-1.0LLAMA270B4
k246
B2
10-5PatentGPT-1.5Mistral
8
7B45
B16
k246
B3
10-5CPT+SFT+Reward+DPO(PPO)專利大模型:數(shù)據(jù)Data
sizeData
recipeDatasets
for
LargeLanguageModels:
A
Comprehensive
SurveyPatentGPT的數(shù)據(jù)配比/guides/large-language-models#model-size-and-performance專利大模型:算法是一系列模型大小模型結(jié)合:結(jié)合智慧芽沉淀的 幾十種小模型算法能力,在精度, 性能,穩(wěn)定性,安全,長(zhǎng)文本上發(fā) 揮更大優(yōu)勢(shì);獨(dú)特?cái)?shù)據(jù)配方和策略:基于垂直大 模型的應(yīng)用場(chǎng)景建立獨(dú)特的數(shù)據(jù)配 方;基于領(lǐng)域?qū)<曳答伒膹?qiáng)化學(xué)習(xí):擁有超過(guò)50位知識(shí)產(chǎn)權(quán)專家,2w條專家撰寫的反饋數(shù)據(jù)。形成2w
SFT和10w條人類偏好數(shù)據(jù)。RAG檢索增強(qiáng)生成:R
for
G;Gfor
R;獨(dú)立的業(yè)務(wù)Embedding(非對(duì)稱,X關(guān)系對(duì)比學(xué)習(xí)等)b)a)c)d)b)SFT:InstructionTuning
unlock
pretrain
model三類數(shù)據(jù)數(shù)量:Double
descent
phenomenon融合到pretrain去預(yù)學(xué)習(xí)(
OPT-IML)Multi-stage
Instruction
Tuning/
weighted質(zhì)量(quality)Perplexity
score?正確性,gpt4-score?)多樣性(diversity)(前兩者的組合增加指標(biāo)和LOSS選擇參考:INSTRUCTION
MINING:INSTRUCTION
DATA
SELEC-TION
FOR
TUNING
LARGE
LANGUAGE
MODELS訓(xùn)練策略數(shù)據(jù)三核心專利大模型:評(píng)估MMLUC-EvalAveragePatentGPT-0.5514548PatentGPT-1.0614653.5PatentGPT-1.5595255.5ChatGPT-3.5-turbo664756.5通用能力是否正常:MMLU,C-EVAL專利領(lǐng)域公開測(cè)試集:Patent-Match@misc{ni2024mozip,title={MoZIP:
A
Multilingual
Benchmark
to
Evaluate
Large
Language
Models
in
Intellectual
Property},author={Shiwen
Ni
and
Minghuan
Tan
and
Yuelin
Bai
etc}year={2024},eprint={2402.16389},archivePrefix={arXiv},primaryClass={cs.CL}}*PatentGPT
1.5
SFT還有一些問(wèn)題。PatentMatch-ENPatentMatch-ZHAverageChatGPT-3.5
turbo34.64338.8PatentGPT
0.549.559.254.4PatentGPT
1.066.27269.1PatentGPT
1.570.665.865.7專利領(lǐng)域自建測(cè)試集(面向業(yè)務(wù)):Patent-Bench專利撰寫(Drafting)、專利總結(jié)(Summary)、專利問(wèn)答(QA)(PatentGPT
vs
GPT3.5-turbo,
GPT-4
evaluate)專利抽取:抗體輕重鏈提取+抗原配對(duì)信息抗原:BAFF配對(duì)抗體信息:輕鏈重鏈SEQ
IDNo.1SEQ
IDNo.2CN101851291B
一種抗人BAFF單克隆抗體的重鏈和輕鏈可變區(qū)[0017]所述的輕鏈可變區(qū)的氨基酸序列如SEQ
ID
NO.1所示,重鏈可變區(qū)的氨基酸序列如SEQ
ID
NO.2所示。[0018]所述的編碼輕鏈可變區(qū)的基因序列如SEQIDNO.3所示,編碼重鏈可變區(qū)的基因序列如SEQ
ID
NO.4所示。[0019]抗人BAFF單克隆抗體的重鏈和輕鏈的可變區(qū)應(yīng)用于以人BAFF分子為靶點(diǎn)的基因工程抗體或疫苗的制備。質(zhì)量+后處理圈定專利+標(biāo)注平臺(tái)搭建人工(400+人天)5個(gè)月“LLM加速”LLM+規(guī)則4人天完成,取代大量人工標(biāo)注“傳統(tǒng)方法”4人天提取2萬(wàn)組抗體,準(zhǔn)確率>99%,較人工效率提升100倍示例文本:輸出結(jié)果PatentBert+FineTuning圈定專利+標(biāo)注平臺(tái)搭建人工標(biāo)注(100+人天)2個(gè)月“小模型方法”技術(shù)方案對(duì)比:抗體抗原實(shí)驗(yàn)結(jié)果實(shí)驗(yàn)結(jié)論含有海量領(lǐng)域知識(shí),對(duì)解決問(wèn)題,更加符合“業(yè)務(wù)”Finetune之后可以取得可觀的下游任務(wù)性能提升,但多任務(wù)的“配方指令”數(shù)據(jù)是挑戰(zhàn)。在少監(jiān)督數(shù)據(jù)下,多元關(guān)系抽取,傳統(tǒng)模型很難取得好的結(jié)果,PatentGPT有明顯的優(yōu)勢(shì)目前階段,模型規(guī)模比模型架構(gòu)更加重要(scaling
law)PRF1PRF1PRF1抗體輕重鏈配對(duì)51.8%53.7%52.7%93.7%73.3%82.2%95.5%69.5%80.4%抗原名稱提取54.9%78.3%64.5%78.6%85%81.6%90.4%85%87.6%抗體-抗原關(guān)系提取53.4%52.5%53.1%79.8%62.5%70.1%90.2%65.7%76%Bert
BasedOpenAI
GPT3.5
zeroshot(1750億參數(shù))PatentGPT
v0.3(130億參數(shù))#03專利搜索與大模型結(jié)合為什么要RAG(Retrieval
Augmented
generation)模型層面減少幻覺解決更新信息的問(wèn)題少量高價(jià)值數(shù)據(jù)的利用問(wèn)題業(yè)務(wù)層面獲取更可信正確的結(jié)果有引用鏈接,提高可解釋性獲取新增領(lǐng)域信息解決產(chǎn)品迭代RAG架構(gòu):Retrieval-Augmented
Generation
for
Large
Language
Models以前的搜索積累是否可以用?要做哪些改變關(guān)鍵詞抽取算法的優(yōu)化,PositionRank、Copyrnn、NER、POS
Rules.(可以重新做)對(duì)比學(xué)習(xí),樣本量的突破(10w->1000w) IPC/CPC分類算法的優(yōu)化,TextCNN,BERT
classify;(標(biāo)量向量相結(jié)合的平臺(tái))Pretrain:
PatentBertModel
ParameterTotal
sizeH=768,
L=12,A=12110MH=768,
L=12,A=12Patent_BERT_CN
(our)Patent_BERT_EN_Uncased_v2.0
(our)Pa
溫馨提示
- 1. 本站所有資源如無(wú)特殊說(shuō)明,都需要本地電腦安裝OFFICE2007和PDF閱讀器。圖紙軟件為CAD,CAXA,PROE,UG,SolidWorks等.壓縮文件請(qǐng)下載最新的WinRAR軟件解壓。
- 2. 本站的文檔不包含任何第三方提供的附件圖紙等,如果需要附件,請(qǐng)聯(lián)系上傳者。文件的所有權(quán)益歸上傳用戶所有。
- 3. 本站RAR壓縮包中若帶圖紙,網(wǎng)頁(yè)內(nèi)容里面會(huì)有圖紙預(yù)覽,若沒有圖紙預(yù)覽就沒有圖紙。
- 4. 未經(jīng)權(quán)益所有人同意不得將文件中的內(nèi)容挪作商業(yè)或盈利用途。
- 5. 人人文庫(kù)網(wǎng)僅提供信息存儲(chǔ)空間,僅對(duì)用戶上傳內(nèi)容的表現(xiàn)方式做保護(hù)處理,對(duì)用戶上傳分享的文檔內(nèi)容本身不做任何修改或編輯,并不能對(duì)任何下載內(nèi)容負(fù)責(zé)。
- 6. 下載文件中如有侵權(quán)或不適當(dāng)內(nèi)容,請(qǐng)與我們聯(lián)系,我們立即糾正。
- 7. 本站不保證下載資源的準(zhǔn)確性、安全性和完整性, 同時(shí)也不承擔(dān)用戶因使用這些下載資源對(duì)自己和他人造成任何形式的傷害或損失。
最新文檔
- 2024年聯(lián)通云賽道試題庫(kù)及答案
- 2025年度共享出行個(gè)人司機(jī)雇傭管理協(xié)議4篇
- 委托居間合同范本模板
- 2025年度環(huán)保建筑材料ROHS檢測(cè)與質(zhì)量監(jiān)控協(xié)議3篇
- 二零二五年度車輛租賃合同(含司機(jī)培訓(xùn)及考核)4篇
- 綠色照明引領(lǐng)未來(lái)學(xué)校教室健康照明戰(zhàn)略
- 2025年度住宅小區(qū)地下車庫(kù)車位產(chǎn)權(quán)轉(zhuǎn)讓及維修保養(yǎng)合同3篇
- 2025年度人工智能應(yīng)用開發(fā)個(gè)人外包合同模板4篇
- 二零二五年度寵物送養(yǎng)與領(lǐng)養(yǎng)公益合作協(xié)議3篇
- 二零二五年度寵物領(lǐng)養(yǎng)中心項(xiàng)目合作協(xié)議3篇
- 整式的加減單元測(cè)試題6套
- 股權(quán)架構(gòu)完整
- 山東省泰安市2022年初中學(xué)業(yè)水平考試生物試題
- 注塑部質(zhì)量控制標(biāo)準(zhǔn)全套
- 人教A版高中數(shù)學(xué)選擇性必修第一冊(cè)第二章直線和圓的方程-經(jīng)典例題及配套練習(xí)題含答案解析
- 畢業(yè)設(shè)計(jì)(論文)-液體藥品灌裝機(jī)的設(shè)計(jì)與制造
- 銀行網(wǎng)點(diǎn)服務(wù)禮儀標(biāo)準(zhǔn)培訓(xùn)課件
- 二年級(jí)下冊(cè)數(shù)學(xué)教案 -《數(shù)一數(shù)(二)》 北師大版
- 晶體三極管資料
- 銀行內(nèi)部舉報(bào)管理規(guī)定
- 石群邱關(guān)源電路(第1至7單元)白底課件
評(píng)論
0/150
提交評(píng)論