




版權(quán)說明:本文檔由用戶提供并上傳,收益歸屬內(nèi)容提供方,若內(nèi)容存在侵權(quán),請進行舉報或認領(lǐng)
文檔簡介
#專利大模型的實踐與問答探索專利大模型介紹訓(xùn)練過程專利檢索+專利大模型挑戰(zhàn)和展望目錄#01專利大模型智慧芽垂直領(lǐng)域大模型Leading
Algorithm
Capabilities…AI專家檢索AI-powered
ExpertRetrieval自動生成檢索式
AutomaticallyGenerateSearch
ExpressionsAI技術(shù)問答
Conversational
Answers
toTechnical
QuestionsPharm
GPT內(nèi)容生成
ContentGeneration算法能力Patent
GPT精準(zhǔn)檢索和專業(yè)推薦
Precision
Search
andProfessional
RecommendationMaterials
GPT對話問答 多語言翻譯Dialogue
MultilingualQ&A
Translation總結(jié)分析
Summarizeand
Analyze基于領(lǐng)域?qū)<曳答伒膹娀瘜W(xué)習(xí)
Reinforcement
Learning
withExpert
Feedback監(jiān)督精調(diào)
SupervisedFine-tuningRAG檢索增強生成
Retrieval-AugmentedGenerationAI標(biāo)引
AutomaticIndexing藥物情報助手
Drug
SearchAssistant自研大模型Self-developedlarge-scale
modelAI助手AI
AssistantAI技術(shù)預(yù)研
AI專利對比AI-powered
Technical
AI-powered
TechnicalPre-research Pre-researchAI專利和論文解讀AI-powered
Interpretationof
Patent
and
Papers垂直數(shù)據(jù)基石
Patsnap
Data
sets專利
Patent生物序列
Bio
Sequences文獻
Literature新聞
News書籍
Books化學(xué)結(jié)構(gòu)
Chemical
Structures適應(yīng)癥
Indication藥物
Drug靶點
Target論文
Papers材料性質(zhì)
Material
PropertyAI繳費
AssistedPaying實踐的一些經(jīng)驗:有差異化的海量數(shù)據(jù)有小模型+大模型大模型:CPT+SFT+Reward+PPO(DPO)應(yīng)用場景數(shù)據(jù)提取產(chǎn)品場景RAG在SAAS行業(yè)是必要的組合飛輪算法LLM
Algorithm數(shù)據(jù)基石Data數(shù)十個小模型Bert
Based
models芽仔專利申請書撰寫助手
Assisted
PatentDrafting#02專利大模型訓(xùn)練領(lǐng)域數(shù)據(jù)(專利論文等246B
tokens
)專利大模型:三個版本,不斷試錯PatentGPT①
差異化數(shù)據(jù)集Patent
GPT:超246B訓(xùn)練數(shù)據(jù),包括全球170個受理局的超1.8億專利、超1.6億論文、超2100萬新聞、超50萬投融資、超1.1億企業(yè)、超78萬市場報告以及40萬本書籍?dāng)?shù)據(jù)。②
算法面向業(yè)務(wù)大小模型結(jié)合:結(jié)合智慧芽沉淀的幾十種小模型算法能力,數(shù)據(jù)處理+SFT數(shù)據(jù)挖掘+小模型的監(jiān)督數(shù)據(jù);數(shù)據(jù)配方:基于垂直大模型的應(yīng)用場景建立獨特的數(shù)據(jù)配方;基于領(lǐng)域?qū)<曳答伒膹娀瘜W(xué)習(xí):擁有超過50位知識產(chǎn)權(quán)和生物醫(yī)藥專家,反饋2萬條訓(xùn)練效果數(shù)據(jù),與人類意圖保持一致;RAG檢索增強生成:RAG技術(shù)加強大模型理解能力,結(jié)合知識庫,更好理解企業(yè)私有數(shù)據(jù),實現(xiàn)問答能力的拓展。(專利搜索)③
只比垂直業(yè)務(wù)能力,不比通用能力垂直行業(yè)能力超越ChatGPT-3.5,部分超越
ChatGPT-4;專利撰寫、專利對比、專利搜索。PatentGPT通過中國專利代理師資格考試Model
Training
eGPT-3
Apr/2020TFLnd
Chip
type (V100OP/smax)
Chip
cou130
10,00Wall
clocknt (0
15time
Totaldays)
(ydays
405timeears)
Cost
($US)years
$9MLlama
1
Jan/2023A100312
2,048
21days
118years
$4MLlama
2
Jun/2023GPT-4
Aug/2022A100A100312
2,04312
25,008
350
95days
196days
6,507years
$7Myears
$224MGemini
Nov/2023TPUv4275
57,000
100days
15,616years
$440MBase
ModelParamsC
o
n
t
e
x
tLengthTokensLRPatentGPT-0.5LLAMA213
B16
k246
B2
10-5PatentGPT-1.0LLAMA270B4
k246
B2
10-5PatentGPT-1.5Mistral
8
7B45
B16
k246
B3
10-5CPT+SFT+Reward+DPO(PPO)專利大模型:數(shù)據(jù)Data
sizeData
recipeDatasets
for
LargeLanguageModels:
A
Comprehensive
SurveyPatentGPT的數(shù)據(jù)配比/guides/large-language-models#model-size-and-performance專利大模型:算法是一系列模型大小模型結(jié)合:結(jié)合智慧芽沉淀的 幾十種小模型算法能力,在精度, 性能,穩(wěn)定性,安全,長文本上發(fā) 揮更大優(yōu)勢;獨特數(shù)據(jù)配方和策略:基于垂直大 模型的應(yīng)用場景建立獨特的數(shù)據(jù)配 方;基于領(lǐng)域?qū)<曳答伒膹娀瘜W(xué)習(xí):擁有超過50位知識產(chǎn)權(quán)專家,2w條專家撰寫的反饋數(shù)據(jù)。形成2w
SFT和10w條人類偏好數(shù)據(jù)。RAG檢索增強生成:R
for
G;Gfor
R;獨立的業(yè)務(wù)Embedding(非對稱,X關(guān)系對比學(xué)習(xí)等)b)a)c)d)b)SFT:InstructionTuning
unlock
pretrain
model三類數(shù)據(jù)數(shù)量:Double
descent
phenomenon融合到pretrain去預(yù)學(xué)習(xí)(
OPT-IML)Multi-stage
Instruction
Tuning/
weighted質(zhì)量(quality)Perplexity
score?正確性,gpt4-score?)多樣性(diversity)(前兩者的組合增加指標(biāo)和LOSS選擇參考:INSTRUCTION
MINING:INSTRUCTION
DATA
SELEC-TION
FOR
TUNING
LARGE
LANGUAGE
MODELS訓(xùn)練策略數(shù)據(jù)三核心專利大模型:評估MMLUC-EvalAveragePatentGPT-0.5514548PatentGPT-1.0614653.5PatentGPT-1.5595255.5ChatGPT-3.5-turbo664756.5通用能力是否正常:MMLU,C-EVAL專利領(lǐng)域公開測試集:Patent-Match@misc{ni2024mozip,title={MoZIP:
A
Multilingual
Benchmark
to
Evaluate
Large
Language
Models
in
Intellectual
Property},author={Shiwen
Ni
and
Minghuan
Tan
and
Yuelin
Bai
etc}year={2024},eprint={2402.16389},archivePrefix={arXiv},primaryClass={cs.CL}}*PatentGPT
1.5
SFT還有一些問題。PatentMatch-ENPatentMatch-ZHAverageChatGPT-3.5
turbo34.64338.8PatentGPT
0.549.559.254.4PatentGPT
1.066.27269.1PatentGPT
1.570.665.865.7專利領(lǐng)域自建測試集(面向業(yè)務(wù)):Patent-Bench專利撰寫(Drafting)、專利總結(jié)(Summary)、專利問答(QA)(PatentGPT
vs
GPT3.5-turbo,
GPT-4
evaluate)專利抽取:抗體輕重鏈提取+抗原配對信息抗原:BAFF配對抗體信息:輕鏈重鏈SEQ
IDNo.1SEQ
IDNo.2CN101851291B
一種抗人BAFF單克隆抗體的重鏈和輕鏈可變區(qū)[0017]所述的輕鏈可變區(qū)的氨基酸序列如SEQ
ID
NO.1所示,重鏈可變區(qū)的氨基酸序列如SEQ
ID
NO.2所示。[0018]所述的編碼輕鏈可變區(qū)的基因序列如SEQIDNO.3所示,編碼重鏈可變區(qū)的基因序列如SEQ
ID
NO.4所示。[0019]抗人BAFF單克隆抗體的重鏈和輕鏈的可變區(qū)應(yīng)用于以人BAFF分子為靶點的基因工程抗體或疫苗的制備。質(zhì)量+后處理圈定專利+標(biāo)注平臺搭建人工(400+人天)5個月“LLM加速”LLM+規(guī)則4人天完成,取代大量人工標(biāo)注“傳統(tǒng)方法”4人天提取2萬組抗體,準(zhǔn)確率>99%,較人工效率提升100倍示例文本:輸出結(jié)果PatentBert+FineTuning圈定專利+標(biāo)注平臺搭建人工標(biāo)注(100+人天)2個月“小模型方法”技術(shù)方案對比:抗體抗原實驗結(jié)果實驗結(jié)論含有海量領(lǐng)域知識,對解決問題,更加符合“業(yè)務(wù)”Finetune之后可以取得可觀的下游任務(wù)性能提升,但多任務(wù)的“配方指令”數(shù)據(jù)是挑戰(zhàn)。在少監(jiān)督數(shù)據(jù)下,多元關(guān)系抽取,傳統(tǒng)模型很難取得好的結(jié)果,PatentGPT有明顯的優(yōu)勢目前階段,模型規(guī)模比模型架構(gòu)更加重要(scaling
law)PRF1PRF1PRF1抗體輕重鏈配對51.8%53.7%52.7%93.7%73.3%82.2%95.5%69.5%80.4%抗原名稱提取54.9%78.3%64.5%78.6%85%81.6%90.4%85%87.6%抗體-抗原關(guān)系提取53.4%52.5%53.1%79.8%62.5%70.1%90.2%65.7%76%Bert
BasedOpenAI
GPT3.5
zeroshot(1750億參數(shù))PatentGPT
v0.3(130億參數(shù))#03專利搜索與大模型結(jié)合為什么要RAG(Retrieval
Augmented
generation)模型層面減少幻覺解決更新信息的問題少量高價值數(shù)據(jù)的利用問題業(yè)務(wù)層面獲取更可信正確的結(jié)果有引用鏈接,提高可解釋性獲取新增領(lǐng)域信息解決產(chǎn)品迭代RAG架構(gòu):Retrieval-Augmented
Generation
for
Large
Language
Models以前的搜索積累是否可以用?要做哪些改變關(guān)鍵詞抽取算法的優(yōu)化,PositionRank、Copyrnn、NER、POS
Rules.(可以重新做)對比學(xué)習(xí),樣本量的突破(10w->1000w) IPC/CPC分類算法的優(yōu)化,TextCNN,BERT
classify;(標(biāo)量向量相結(jié)合的平臺)Pretrain:
PatentBertModel
ParameterTotal
sizeH=768,
L=12,A=12110MH=768,
L=12,A=12Patent_BERT_CN
(our)Patent_BERT_EN_Uncased_v2.0
(our)Pa
溫馨提示
- 1. 本站所有資源如無特殊說明,都需要本地電腦安裝OFFICE2007和PDF閱讀器。圖紙軟件為CAD,CAXA,PROE,UG,SolidWorks等.壓縮文件請下載最新的WinRAR軟件解壓。
- 2. 本站的文檔不包含任何第三方提供的附件圖紙等,如果需要附件,請聯(lián)系上傳者。文件的所有權(quán)益歸上傳用戶所有。
- 3. 本站RAR壓縮包中若帶圖紙,網(wǎng)頁內(nèi)容里面會有圖紙預(yù)覽,若沒有圖紙預(yù)覽就沒有圖紙。
- 4. 未經(jīng)權(quán)益所有人同意不得將文件中的內(nèi)容挪作商業(yè)或盈利用途。
- 5. 人人文庫網(wǎng)僅提供信息存儲空間,僅對用戶上傳內(nèi)容的表現(xiàn)方式做保護處理,對用戶上傳分享的文檔內(nèi)容本身不做任何修改或編輯,并不能對任何下載內(nèi)容負責(zé)。
- 6. 下載文件中如有侵權(quán)或不適當(dāng)內(nèi)容,請與我們聯(lián)系,我們立即糾正。
- 7. 本站不保證下載資源的準(zhǔn)確性、安全性和完整性, 同時也不承擔(dān)用戶因使用這些下載資源對自己和他人造成任何形式的傷害或損失。
最新文檔
- 六一演出晚會活動方案
- 六一禮物征集活動方案
- 六一童心公司活動方案
- 六一美術(shù)活動方案
- 六一風(fēng)車活動方案
- 醫(yī)療編制考試試題及答案
- 藥劑師考試試題及答案
- 藥劑考試試題及答案大全
- 蘭州親子植樹活動方案
- 蘭州慢搖吧活動方案
- 《創(chuàng)新與創(chuàng)業(yè)基礎(chǔ)》課程思政優(yōu)秀教學(xué)案例(一等獎)
- 原子熒光分析(汞)原始記錄2
- 北師大版五下書法《第6課戈字旁》課件
- 鐵路TBT3089SNS柔性防護網(wǎng)技術(shù)手冊
- (高清正版)T_CAGHP 054—2019 地質(zhì)災(zāi)害治理工程質(zhì)量檢驗評定標(biāo)準(zhǔn)(試行)
- 物流招標(biāo)文件模板(完整版)
- 國家開放大學(xué)電大本科《設(shè)施園藝學(xué)》2023-2024期末試題及答案(試卷代號:1329)
- 關(guān)于地理高考四大能力要求解讀
- 空氣動力學(xué)PPT課件
- 廣西地方標(biāo)準(zhǔn)《閩楠栽培技術(shù)規(guī)程》(征求意見稿)
- 室內(nèi)燈具系列專業(yè)英語詞匯
評論
0/150
提交評論