版權(quán)說明:本文檔由用戶提供并上傳,收益歸屬內(nèi)容提供方,若內(nèi)容存在侵權(quán),請(qǐng)進(jìn)行舉報(bào)或認(rèn)領(lǐng)
文檔簡(jiǎn)介
RAG在辦公領(lǐng)域中的探索與實(shí)踐分享大綱4 總結(jié)2 RAG核心技術(shù)架構(gòu)3RAG構(gòu)建挑戰(zhàn)與實(shí)踐1 背景介紹RAG在辦公領(lǐng)域中的探索與創(chuàng)新背景介紹大語(yǔ)言模型的缺點(diǎn)背景介紹RAGRAG(Retrieval
Augmented
Generation),即檢索增強(qiáng)生成。它通過結(jié)合檢索系統(tǒng)和生成模型來提高語(yǔ)言生成的準(zhǔn)確性和相關(guān)性。RAG
系統(tǒng)的組成?
RAG的優(yōu)勢(shì)在于它能夠在生成響應(yīng)時(shí)引入外部知識(shí),提供更符合上下文語(yǔ)境的回答。?
與預(yù)訓(xùn)練模型不同,RAG的內(nèi)部知識(shí)可以很容易地修改甚至實(shí)時(shí)補(bǔ)充。?
相比于微調(diào)技術(shù),RAG具備可觀測(cè)性、可解釋性等優(yōu)勢(shì),還可以有效降低大模型的幻覺問題RAG不是單一的一個(gè)組件,是由多個(gè)組件組成的復(fù)雜系統(tǒng),LLM只是其中的一個(gè)組件。RAG系統(tǒng)的組件包括:數(shù)據(jù)源:存儲(chǔ)了要檢索的信息。數(shù)據(jù)處理模塊:負(fù)責(zé)將數(shù)據(jù)轉(zhuǎn)換為適合RAG系統(tǒng)使用的格式。檢索器(Retriever):負(fù)責(zé)根據(jù)用戶查詢從數(shù)據(jù)源中檢索相關(guān)信息。排序器(Ranker):將最相關(guān)的信息呈現(xiàn)給LLM用于內(nèi)容生成。?
生成器(Generator):結(jié)合用戶查詢和相關(guān)信息,通過LLM生成最終的相應(yīng)。RAG
的優(yōu)勢(shì)分享大綱4 總結(jié)2 RAG核心技術(shù)架構(gòu)3RAG構(gòu)建挑戰(zhàn)與實(shí)踐1 背景介紹RAG在辦公領(lǐng)域中的探索與創(chuàng)新RAG核心技術(shù)架構(gòu)《Modular
RAG:
Transforming
RAGSystems
into
LEGO-like
Reconfigurable
Frameworks》RAG核心技術(shù)架構(gòu)系統(tǒng)設(shè)計(jì)RAG核心技術(shù)架構(gòu)整體思路用戶提問
=>
檢索
=>
排序
=>
生成
=>
用戶檢索:通過文檔解析、Query改寫以及混合檢索的方式,快速檢索出一批可能相關(guān)的候選文檔,以保證檢索回來的相關(guān)文檔——“搜的更全”排序:通過粗排序、精排序和知識(shí)過濾的方式,在這些候選文檔中找出最相關(guān)的文檔,并將它們按相關(guān)性排序,以保證這些文檔的排序——“排的更好”生成:通過知識(shí)排版,再結(jié)合用戶提問+Prompt模板組成提示詞輸入到大模型中,進(jìn)而保證針對(duì)用戶提問的回答——“回答的更準(zhǔn)”RAG核心技術(shù)架構(gòu)問答流程文檔解析知識(shí)庫(kù)(行業(yè)規(guī)范、操作手冊(cè)、書)字符串文本塊chunk索引構(gòu)建劃分段落塊文本索引向量索引知識(shí)數(shù)據(jù)重排序匹配K段和問題相關(guān)的知識(shí)原文提示詞Prompt 大語(yǔ)言模型(包含原文和問題)(九天、通義千問、GLM)在線 用戶提問離線搜的更全排的更好回答的更準(zhǔn)分享大綱4 總結(jié)2 RAG核心技術(shù)架構(gòu)3RAG構(gòu)建挑戰(zhàn)與實(shí)踐1 背景介紹RAG在辦公領(lǐng)域中的探索與創(chuàng)新RAG構(gòu)建挑戰(zhàn)及實(shí)踐文檔解析知識(shí)庫(kù)(行業(yè)規(guī)范、操作手冊(cè)、書)字符串文本塊chunk索引構(gòu)建劃分段落塊文本索引向量索引知識(shí)數(shù)據(jù)重排序匹配K段和問題相關(guān)的知識(shí)原文提示詞Prompt 大語(yǔ)言模型(包含原文和問題)(九天、通義千問、GLM)在線 用戶提問離線搜的更全問答流程RAG構(gòu)建挑戰(zhàn)及實(shí)踐-“搜的更全”整體流程RAG構(gòu)建挑戰(zhàn)及實(shí)踐-“搜的更全”文檔解析RAG仍有兩點(diǎn)優(yōu)勢(shì)是短時(shí)間內(nèi)無法被替代:版式多樣的文檔數(shù)據(jù):針對(duì)版式各異的文檔數(shù)據(jù),解析出邏輯區(qū)塊并進(jìn)行問答;答案溯源:幫助用戶快速?gòu)脑闹序?yàn)證答案的可靠性,從而提升整個(gè)問答系統(tǒng)的可信度?;谶@兩點(diǎn)優(yōu)勢(shì)的發(fā)揮,都需要依賴一個(gè)強(qiáng)大的文檔解析流程。解析文檔內(nèi)容是RAG
系統(tǒng)最重要的前置工作之一。解決方案:基于RAGFlow的DeepDoc模塊進(jìn)行二次開發(fā)。
DeepDoc最大的特色是多樣化的文檔智能處理,對(duì)多種不同格式文檔的深度解析。在中國(guó)移動(dòng)內(nèi)部,文檔數(shù)據(jù)更多是PDF和Word文檔,所以我們也對(duì)這兩類文檔數(shù)據(jù)進(jìn)行重點(diǎn)優(yōu)化。具體流程:數(shù)據(jù)解析Word:天然的版面結(jié)構(gòu)Pdf:版面元素恢復(fù)(標(biāo)題/段落/圖片),表格結(jié)構(gòu)識(shí)別,閱讀順序還原數(shù)據(jù)切分結(jié)構(gòu)切分:通過版面結(jié)構(gòu)進(jìn)行區(qū)域切分長(zhǎng)度切分:結(jié)合切片長(zhǎng)度(chunk
size)進(jìn)行切分(用于檢索的文本塊)創(chuàng)建索引分別調(diào)用文本分詞和向量模型對(duì)文本塊進(jìn)行處理,寫入索引RAG構(gòu)建挑戰(zhàn)及實(shí)踐-“搜的更全”多輪Query改寫總部制度管理小組牽頭部門是哪個(gè)部門總部制度管理小組的牽頭部門是XXX。它的職責(zé)是什么總部制度管理小組的職責(zé)是什么指代人/物/組織識(shí)別 指代詞識(shí)別對(duì)于指代消岐類,先是識(shí)別指代詞“它”,同時(shí)識(shí)別出上下文中的關(guān)鍵信息“總部制度管理小組”,然后替換掉“它“。成都的出差住宿費(fèi)標(biāo)準(zhǔn)省公司領(lǐng)導(dǎo):xxx其他成員:xxx那重慶呢那重慶的出差住宿費(fèi)標(biāo)準(zhǔn)呢補(bǔ)全信息識(shí)別 插入位置預(yù)測(cè)對(duì)于信息補(bǔ)全類,先是識(shí)別出上下文中的關(guān)鍵信息“出差住宿費(fèi)標(biāo)準(zhǔn)”,然后識(shí)別出需要補(bǔ)全信息的位置在"呢"之前。技術(shù)方案將多輪Query改寫轉(zhuǎn)換為關(guān)系抽取任務(wù),指代消歧和信息補(bǔ)全看作關(guān)系,指代實(shí)體/指代詞/補(bǔ)全信息/插入位置看作實(shí)體,采用TPLinker模型構(gòu)建。無法檢索到相關(guān)信息用戶:總部制度管理小組牽頭部門是哪個(gè)?系統(tǒng):總部制度管理小組的牽頭部門是XXX。用戶:它的職責(zé)是什么改寫:總部制度管理小組的職責(zé)是什么指代消歧用戶:成都的出差住宿費(fèi)標(biāo)準(zhǔn)系統(tǒng):省公司領(lǐng)導(dǎo):XXX,其他成員:XXX用戶:那重慶呢改寫:那重慶的出差住宿費(fèi)標(biāo)準(zhǔn)呢信息補(bǔ)全RAG構(gòu)建挑戰(zhàn)及實(shí)踐-“搜的更全”混合檢索精確匹配短文本匹配傾向低頻詞匯的匹配可解釋強(qiáng)全文檢索優(yōu)勢(shì)更精準(zhǔn):混合檢索可以同時(shí)利用全文檢索和向量檢索對(duì)數(shù)據(jù)進(jìn)行查詢,提高檢索的準(zhǔn)確性和可行度。更多樣:混合檢索可以利用向量檢索的多樣性,返回多種不同的檢索結(jié)果,提供更多的選擇和信息,滿足不同的用戶查詢需求和偏好。更強(qiáng)大:混合檢索可以利用全文檢索的邏輯運(yùn)算、排序、過濾等功能,實(shí)現(xiàn)更復(fù)雜的查詢需求。更可解釋:混合檢索可以利用全文檢索的文本匹配和高亮顯示,實(shí)現(xiàn)更可解釋的檢索結(jié)果?;旌蠙z索優(yōu)勢(shì)相近語(yǔ)義理解多語(yǔ)言理解/跨語(yǔ)言理解多模態(tài)理解容錯(cuò)性強(qiáng)向量檢索優(yōu)勢(shì)RAG構(gòu)建挑戰(zhàn)及實(shí)踐-“搜的更全”混合檢索jieba和lac的分詞粒度太細(xì)texmsart分詞粒度太粗cutword分詞粒度適中模型支持語(yǔ)種維度最大token特點(diǎn)相關(guān)性bge-m3100+語(yǔ)言10248192支持超過100種語(yǔ)言的語(yǔ)義表示及檢索任務(wù)同時(shí)集成了稠密檢索、稀疏檢索、多向量檢索三大能力XX.Xbce-base-v1中英768512中英雙語(yǔ)和跨語(yǔ)種能力多領(lǐng)域覆蓋,收集了包括:教育、醫(yī)療、法律、金融、百科、科研論文、客服(faq)、通用QA等場(chǎng)景的語(yǔ)料XX.Xm3e-base中英768512使用場(chǎng)景主要是中文,少量英文的情況支持中英雙語(yǔ)的文本相似度計(jì)算和文本檢索等功能,未來還會(huì)支持代碼檢索XX.Xgte-base-zh中文768512從效果來說,多數(shù)任務(wù)上表現(xiàn)不錯(cuò)XX.X分詞工具分詞結(jié)果jieba關(guān)鍵時(shí)期/,/全面/建設(shè)/社會(huì)主義/現(xiàn)代化/國(guó)家/,/需要/一批/能夠/體現(xiàn)/國(guó)家/經(jīng)濟(jì)/實(shí)力/、/科技/實(shí)力/和/國(guó)際/競(jìng)爭(zhēng)力/的/世界/一流/企業(yè)/作為/關(guān)鍵/支撐/。lac關(guān)鍵/時(shí)期/,/全面/建設(shè)/社會(huì)主義/現(xiàn)代化/國(guó)家/,/需要/一批/能夠/體現(xiàn)/國(guó)家/經(jīng)濟(jì)/實(shí)力/、/科技/實(shí)力/和/國(guó)際/競(jìng)爭(zhēng)力/的/世界/一流/企業(yè)/作為/關(guān)鍵/支撐/。texsmart關(guān)鍵時(shí)期/,/全面建設(shè)社會(huì)主義現(xiàn)代化國(guó)家/,/需要/一批/能夠/體現(xiàn)/國(guó)家/經(jīng)濟(jì)實(shí)力/、/科技/實(shí)力/和/國(guó)際競(jìng)爭(zhēng)力/的/世界一流/企業(yè)/作為/關(guān)鍵/支撐/。cutword關(guān)鍵時(shí)期/,/全面/建設(shè)/社會(huì)主義/現(xiàn)代化/國(guó)家/,/需要/一批/能夠/體現(xiàn)/國(guó)家/經(jīng)濟(jì)實(shí)力/、/科技/實(shí)力/和/國(guó)際競(jìng)爭(zhēng)力/的/世界一流/企業(yè)/作為/關(guān)鍵支撐/。開源分詞模型對(duì)比開源向量模型對(duì)比采用bge-m3和bce-base-v1模型雙向量模型檢索,以達(dá)到檢索互補(bǔ)的目的。RAG構(gòu)建挑戰(zhàn)及實(shí)踐問答流程文檔解析知識(shí)庫(kù)(行業(yè)規(guī)范、操作手冊(cè)、書)字符串文本塊chunk索引構(gòu)建劃分段落塊文本索引向量索引知識(shí)數(shù)據(jù)重排序匹配K段和問題相關(guān)的知識(shí)原文提示詞Prompt 大語(yǔ)言模型(包含原文和問題)(九天、通義千問、GLM)在線 用戶提問離線排的更好RAG構(gòu)建挑戰(zhàn)及實(shí)踐-“排的更好”整體流程…………top20top5過濾LLM生成混合檢索粗排序精排序知識(shí)過濾Index…………top100RAG構(gòu)建挑戰(zhàn)及實(shí)踐-“排的更好”粗排序ReciprocalRank
Fusion(RRF)RRF(Reciprocal
Rank
Fusion),即倒數(shù)排序融合,是一種將具有不同相關(guān)性指標(biāo)的多個(gè)結(jié)果集組合成單個(gè)結(jié)果集的方法。它不依賴于搜索引擎分配的絕對(duì)分?jǐn)?shù),而是依賴于相對(duì)排名,因此結(jié)合具有不同分?jǐn)?shù)尺度或分布的結(jié)果變得實(shí)際。它用于兩個(gè)或多個(gè)查詢并行執(zhí)行的場(chǎng)景。排名BM25相關(guān)性向量相關(guān)性RRF排名結(jié)果(k=0)1ABB:1/2+1/1=
1.52BCA:1/1+1/3=
1.33CAC:1/3+1/2=
0.83RRF的優(yōu)勢(shì):不利用相關(guān)得分,而僅靠排名計(jì)算,簡(jiǎn)單有效;適合多路召回,通過RRF選取topn后再進(jìn)行重排序,這樣有助于提升重排序的效率;混合檢索的文檔進(jìn)行合并去重;《RAG-Fusion:
The
NextFrontier
of
Search
Technology》RAG構(gòu)建挑戰(zhàn)及實(shí)踐-“排的更好”《延遲交互模型,為什么是下一代RAG的標(biāo)配?》粗排序ColBERT:延遲交互模型(Late
Interaction
Model)ColBERT相比較雙編碼器和交叉編碼器(Cross
Encoder)的特點(diǎn):相比于Cross
Encoder,ColBERT仍采用雙編碼器策略,離線處理文檔編碼,在查詢時(shí)僅針對(duì)Query
編碼,因此處理的速度大大高于Cross
Encoder;相比于雙編碼器,ColBERT輸出的是多向量而非單向量,這是從Transformer的最后輸出層直接獲得的,而雙編碼器則通過一個(gè)Pooling層把多個(gè)向量轉(zhuǎn)成一個(gè)向量輸出,因此丟失了部分語(yǔ)義。排序計(jì)算時(shí),ColBERT
引入了延遲交互計(jì)算相似度函數(shù),并將其命名為最大相似性(MaxSim)計(jì)算方法如下:對(duì)于每個(gè)查詢Token的向量都要與所有文檔Token
對(duì)應(yīng)的向量進(jìn)行相似度計(jì)算,并跟蹤每個(gè)查詢Token的最大得分。RAG構(gòu)建挑戰(zhàn)及實(shí)踐-“排的更好”精排序?yàn)槭裁葱枰判蚰P湍??特性向量檢索Reranker交互層級(jí)文檔級(jí)Token級(jí)計(jì)算需求低高計(jì)算時(shí)機(jī)離線(索引時(shí))在線(查詢時(shí))結(jié)果廣泛但膚淺高度相關(guān)且精確優(yōu)勢(shì)快速高效實(shí)施簡(jiǎn)單深刻理解上下文高級(jí)語(yǔ)義分析局限性缺乏深度可能忽略用戶意圖計(jì)算密集模型復(fù)雜適合場(chǎng)景快速初步召回優(yōu)化召回結(jié)果質(zhì)量向量檢索和Reranker模型之間的差異《有道QAnything背后的故事---關(guān)于RAG的一點(diǎn)經(jīng)驗(yàn)分享》RAG構(gòu)建挑戰(zhàn)及實(shí)踐-“排的更好”排序模型對(duì)比排序模型特點(diǎn)效果性能RRF簡(jiǎn)單權(quán)重加權(quán)融合,完全按照各路召回的排名進(jìn)行打分,丟掉了原始召回中的相似度信息,算法魯棒,適合于性能要求高的場(chǎng)景。一般快Colbert延遲交互機(jī)制,既滿足了對(duì)排序過程中查詢和文檔之間復(fù)雜交互的捕獲,也能實(shí)現(xiàn)較快的排序性能,兼顧了性能與效果。適中適中Cross
Encoder強(qiáng)大的重排序算法,能夠?qū)γ恳粚?duì)查詢和文檔進(jìn)行詳細(xì)的相關(guān)性評(píng)估,適合于對(duì)準(zhǔn)確性要求高的場(chǎng)景。好慢RRF、Colbert和Cross
Encoder這三個(gè)模型的作用都是排序,可針對(duì)自己的業(yè)務(wù)場(chǎng)景進(jìn)行選型適配。RAG構(gòu)建挑戰(zhàn)及實(shí)踐-“排的更好”《Enhancing
Retrievaland
Managing
Retrieval:AFour-Module
Synergy
for
Improved
Quality
and
Efficiency
inRAG
Systems》不相關(guān)文檔過濾[指令]:你的任務(wù)是解決NLI問題:給定[知識(shí)]中的前提和假設(shè)"[知識(shí)]包含可靠的答案,有助于回答[問題]"。你應(yīng)該將回應(yīng)分類為蘊(yùn)含、矛盾或中性。[問題]:{問題在這里。}[知識(shí)]:{待判斷的知識(shí)在這里。}[格式]:{解釋。}**{NLI結(jié)果。}Prompt模板知識(shí)過濾對(duì)于LLM來說是Garbage
in
Garbage
out。為了解決檢索到的無關(guān)知識(shí)問題,引入知識(shí)過濾模塊,通過NLI任務(wù)來評(píng)估檢索到的知識(shí)與問題的相關(guān)性,排除不相關(guān)信息,提高回答的準(zhǔn)確性。RAG構(gòu)建挑戰(zhàn)及實(shí)踐問答流程文檔解析知識(shí)庫(kù)(行業(yè)規(guī)范、操作手冊(cè)、書)字符串文本塊chunk索引構(gòu)建劃分段落塊文本索引向量索引知識(shí)數(shù)據(jù)重排序匹配K段和問題相關(guān)的知識(shí)原文提示詞Prompt 大語(yǔ)言模型(包含原文和問題)(九天、通義千問、GLM)在線 用戶提問離線回答的更準(zhǔn)RAG構(gòu)建挑戰(zhàn)及實(shí)踐-“回答的更準(zhǔn)”整體流程排序的知識(shí)文本塊用戶提問請(qǐng)基于```內(nèi)的內(nèi)容回答問題,保證回答的正確性和簡(jiǎn)潔性。```{knowledge}```我的問題是:{question}Prompt模板LLM生成知識(shí)排版RAG構(gòu)建挑戰(zhàn)及實(shí)踐-“回答的更準(zhǔn)”知識(shí)排版第二章 個(gè)人信息處理規(guī)則第一節(jié) 一般規(guī)定第十三條 符合下列情形之一的,個(gè)人信息處理者方可處理個(gè)人信息:(一)取得個(gè)人的同意;(二)為訂立、履行個(gè)人作為一方當(dāng)事人的合同所必需,或者按照依法制定的勞動(dòng)規(guī)章制度和依法簽訂的集體合同實(shí)施人力資源管理所必需;(三)為履行法定職責(zé)或者法定義務(wù)所必需;(四)為應(yīng)對(duì)突發(fā)公共衛(wèi)生事件,或者緊急情況下為保護(hù)自然人的生命健康和財(cái)產(chǎn)安全所必需;(五)為公共利益實(shí)施新聞報(bào)道、輿論監(jiān)督等行為,在合理的范圍內(nèi)處理個(gè)人信息;(六)依照本法規(guī)定在合理的范圍內(nèi)處理個(gè)人自行公開或者其他已經(jīng)合法公開的個(gè)人信息;(七)法律、行政法規(guī)規(guī)定的其他情形。依照本法其他有關(guān)規(guī)定,處理個(gè)人信息應(yīng)當(dāng)取得個(gè)人同意,但是有前款第二項(xiàng)至第七項(xiàng)規(guī)定情形的,不需取得個(gè)人同意。第十四條 基于個(gè)人同意處理個(gè)人信息的,該同意應(yīng)當(dāng)由個(gè)人在充分知情的前提下自愿、明確作出。法律、行政法規(guī)規(guī)定處理個(gè)人信息應(yīng)當(dāng)取得個(gè)人單獨(dú)同意或者書面同意的,從其規(guī)定。個(gè)人信息的處理目的、處理方式和處理的個(gè)人信息種類發(fā)生變更的,應(yīng)當(dāng)重新取得個(gè)人同意。第十五條 基于個(gè)人同意處理個(gè)人信息的,個(gè)人有權(quán)撤回其同意。個(gè)人信息處理者應(yīng)當(dāng)提供便捷的撤回同意的方式。個(gè)人撤回同意,不影響撤回前基于個(gè)人同意已進(jìn)行的個(gè)人信息處理活動(dòng)的效力。問題:上下文支持有限分片粒度選擇chunk
size:128/256/512如何避免信息丟失如何召回上下文用戶提問:什么情況下,信息處理者可以處理個(gè)人信息?用戶提問:個(gè)人信息處理的一般規(guī)定有哪些?較小的chunk:更精準(zhǔn)的檢索能力 較大的chunk:更完整豐富的語(yǔ)義解決方案:?
分片粒度期望:既能提供足夠的文本嵌入以便有效精準(zhǔn)的執(zhí)行檢索,也能夠有足夠的上下文提供給LLM進(jìn)行推理。*
評(píng)估測(cè)試不同尺寸(chunksize)下的性能與質(zhì)量。?
召回上下文離線階段文檔解析:區(qū)分層級(jí)結(jié)構(gòu)數(shù)據(jù)入庫(kù):層級(jí)和分片信息在線階段同層及父層上下文補(bǔ)全(用于生成的文本塊)匯總?cè)ブ豍rompt組裝:防止“迷失在中間”(lost
in
themiddle)RAG構(gòu)建挑戰(zhàn)及實(shí)踐-“回答的更準(zhǔn)”《FoRAG:
Factuality-optimized
RetrievalAugmented
Generation
for
Web-enhanced
Long-form
Question
Answering》FoRAG存在問題事實(shí)性不足:現(xiàn)有系統(tǒng)生成的答案中只有大約一半的陳述能夠完全得到檢索到的參考資料的支持,這嚴(yán)重影響了這些系統(tǒng)的可信度。清晰邏輯的缺失:長(zhǎng)篇問答(Long-form
QuestionAnswering)任務(wù)中理想的答案往往需要多方面組織和整合信息,但現(xiàn)有的開源方法在生成答案時(shí)往往缺乏清晰的邏輯結(jié)構(gòu)。解決方案大綱增強(qiáng)生成器(Outline-Enhanced
Generator):提出了一種新的兩階段生成技術(shù),首先生成一個(gè)組織模式和大綱,以提高生成答案的邏輯清晰度。Outline
Stage(提綱階段):在此階段,生成器首先使用提綱模板,根據(jù)用戶查詢和上下文生成答案的提綱。提綱模板引導(dǎo)大型語(yǔ)言模型(LLM)考慮哪種組織模式最適合當(dāng)前問題,例如“因果關(guān)系”或“比較對(duì)比”。然后,LLM根據(jù)選定的組織模式輸出提綱,為后續(xù)的擴(kuò)展階段做準(zhǔn)備。Expansion
Stage(擴(kuò)展階段):基于前一階段生成的提綱,LLM擴(kuò)展每個(gè)要點(diǎn),構(gòu)建最終答案。模型被要求在包含查詢、上下文和提綱的輸入下,生成對(duì)問題的答案。RAG構(gòu)建挑戰(zhàn)及實(shí)踐-“回答的更準(zhǔn)”FoRAG《FoRAG:
Factuality-optimized
RetrievalAugmented
Generation
for
Web-enhanced
Long-form
Question
Answering》###任務(wù)###根據(jù)資料回答問題。###要求###第一步:根據(jù)問題和資料生成回答提綱。決定回答結(jié)構(gòu),從總分總、遞進(jìn)、對(duì)比、因果、并列、時(shí)序等結(jié)構(gòu)中選擇合適的來組織回答。根據(jù)回答結(jié)構(gòu),在提綱中要完整地列出答案中需要包括的要點(diǎn)。要點(diǎn)之間可以是并列、對(duì)照、遞進(jìn)等關(guān)系,不可以是重復(fù)或者包含關(guān)系。要點(diǎn)要保持精煉,至少有1點(diǎn),不能多于5點(diǎn),每個(gè)要點(diǎn)僅可參考1段資料,并在提綱中標(biāo)注資料編號(hào)。第二步:根據(jù)資料和提綱對(duì)問題進(jìn)行回答?;卮鹨蕴峋V為藍(lán)本,對(duì)問題進(jìn)行詳細(xì)的回答?;卮鹬锌梢圆捎镁幪?hào)或項(xiàng)目列表、小標(biāo)題、latex公式等格式?;卮鹬袦p少使用“首先”、“其次”、“再者”等簡(jiǎn)單的連接詞。回答中不要生成重復(fù)內(nèi)容?;卮鹬胁灰獦?biāo)注資料來源?;卮饝?yīng)當(dāng)嚴(yán)格依據(jù)資料,不采用不在資料中的內(nèi)容。###格式###【結(jié)構(gòu)】:<回答的組織結(jié)構(gòu)>【提綱】:<分點(diǎn)介紹回答思路>【回答】:<根據(jù)資料和提綱回答問題>下面是1個(gè)示例輸入和2個(gè)滿足要求的示例輸出:###示例輸入######問題###2023年西安房貸利率最新消息###資料###[1
]一、西安商業(yè)貸款固定利率1年以內(nèi)(含)——4.35%5年(含)以下——4.75%5年以上——4.9%貸款市場(chǎng)報(bào)價(jià)利率LPR:目前1年期LPR為3.45%,5年期LPR為4.2%首套住房商業(yè)性個(gè)人住房貸款利率下限為不低于相應(yīng)期限LPR減20個(gè)基點(diǎn)。二套住房商業(yè)性個(gè)人住房貸款利率下限為不低于相應(yīng)期限貸款市場(chǎng)報(bào)價(jià)LPR利率加20個(gè)基點(diǎn)。二、西安公積金貸款利率5年(含)以下——2.6%5年以上——3.1%[2
]目前西安主流銀行的首套房利率集中在4%左右,二套房利率差基本維持在4.9%。[3
]首先,雖然LPR在7月沒有變動(dòng),但西安首套房貸款利率已經(jīng)低至4%,并且低于2009年房貸利率打七折后的4.156%!這點(diǎn)也恰恰和樓市走訪到的信息不謀而合,據(jù)了解,西安目前多數(shù)銀行首套房貸利率主要集中于4%,二套房貸利率基本在4.9%左右。[4
]7月20日,中國(guó)人民銀行授權(quán)全國(guó)銀行間同業(yè)拆借中心公布了最新一期貸款市場(chǎng)報(bào)價(jià)利率(LPR):1年期LPR為3.55%,5年期以上LPR為4.20%,均與上個(gè)月持平。但西安房貸利率較上月小幅下行,西安多家銀行首套房貸利率從4.1%降至4%。今年6月,LPR時(shí)隔10個(gè)月迎來下調(diào),1年期和5年期以上LPR均跟隨政策利率下調(diào)10個(gè)基點(diǎn)。記者了解到,從6月下旬開始,西安各大銀行相繼落實(shí)首套房貸利率政策動(dòng)態(tài)調(diào)整機(jī)制,進(jìn)行利率調(diào)整。目前,西安地區(qū)六大行及招商銀行、寧夏銀行、北京銀行、西安銀行等十余家銀行首套房貸利率降至4%,較LPR下浮0.2%。二套房貸利率同步下行,跌破5%大關(guān),維持在4.9%。###示例輸出1###【結(jié)構(gòu)】:總分總【提綱】:首套房商業(yè)貸款利率(僅使用[2
]回答)二套房商業(yè)貸款利率(僅使用[2
]回答)公積金貸款利率(僅使用[1
]回答)【回答】:西安的房貸市場(chǎng)在2023年呈現(xiàn)了一定的調(diào)整趨勢(shì),特別是在商業(yè)貸款和公積金貸款利率方面。針對(duì)不同的貸款年限,首套和二套住房的貸款利率有所不同。下面是具體的利率情況和銀行對(duì)房貸利率的調(diào)整概述。###
首套房商業(yè)貸款利率首套住房商業(yè)貸款利率集中在4%左右,較LPR下浮0.2%。###
二套房商業(yè)貸款利率二套房商業(yè)貸款利率基本維持在4.9%左右。###
公積金貸款利率公積金貸款利率5年(含)
溫馨提示
- 1. 本站所有資源如無特殊說明,都需要本地電腦安裝OFFICE2007和PDF閱讀器。圖紙軟件為CAD,CAXA,PROE,UG,SolidWorks等.壓縮文件請(qǐng)下載最新的WinRAR軟件解壓。
- 2. 本站的文檔不包含任何第三方提供的附件圖紙等,如果需要附件,請(qǐng)聯(lián)系上傳者。文件的所有權(quán)益歸上傳用戶所有。
- 3. 本站RAR壓縮包中若帶圖紙,網(wǎng)頁(yè)內(nèi)容里面會(huì)有圖紙預(yù)覽,若沒有圖紙預(yù)覽就沒有圖紙。
- 4. 未經(jīng)權(quán)益所有人同意不得將文件中的內(nèi)容挪作商業(yè)或盈利用途。
- 5. 人人文庫(kù)網(wǎng)僅提供信息存儲(chǔ)空間,僅對(duì)用戶上傳內(nèi)容的表現(xiàn)方式做保護(hù)處理,對(duì)用戶上傳分享的文檔內(nèi)容本身不做任何修改或編輯,并不能對(duì)任何下載內(nèi)容負(fù)責(zé)。
- 6. 下載文件中如有侵權(quán)或不適當(dāng)內(nèi)容,請(qǐng)與我們聯(lián)系,我們立即糾正。
- 7. 本站不保證下載資源的準(zhǔn)確性、安全性和完整性, 同時(shí)也不承擔(dān)用戶因使用這些下載資源對(duì)自己和他人造成任何形式的傷害或損失。
最新文檔
- JJF(陜) 082-2022 積分球光色綜合測(cè)試系統(tǒng)校準(zhǔn)規(guī)范
- 跨界合作助力品牌發(fā)展計(jì)劃
- 社會(huì)治理背景下保安工作的創(chuàng)新實(shí)踐計(jì)劃
- 社交媒體的職業(yè)生涯路徑計(jì)劃
- 年度工作計(jì)劃的可視化呈現(xiàn)方式
- 社區(qū)服務(wù)與社會(huì)責(zé)任教育計(jì)劃
- 衛(wèi)浴柜類相關(guān)行業(yè)投資方案
- TFT-LCD用偏光片相關(guān)項(xiàng)目投資計(jì)劃書
- 雨水收集利用實(shí)施方案計(jì)劃
- 貨運(yùn)保險(xiǎn)合同三篇
- 列方程解應(yīng)用題.(課堂PPT)
- 表箱技術(shù)規(guī)范
- 二氧化碳充裝操作規(guī)程完整
- 【全冊(cè)】最新部編人教版三年級(jí)道德與法治上冊(cè)知識(shí)點(diǎn)總結(jié)
- 植草溝施工方案
- 苯-甲苯浮閥塔精餾課程設(shè)計(jì).doc
- 環(huán)保-TVOC監(jiān)測(cè)標(biāo)準(zhǔn)方案
- 專題04 《魚我所欲也》三年中考真題(解析版)-備戰(zhàn)2022年中考語(yǔ)文課內(nèi)文言文知識(shí)點(diǎn)梳理+三年真題訓(xùn)練(部編版)
- 港股通知識(shí)測(cè)試2016
- 煤礦井下集中大巷皮帶機(jī)安裝施工組織設(shè)計(jì)及措施
- (完整版)渠道混凝土施工方案
評(píng)論
0/150
提交評(píng)論