利用深度學(xué)習(xí)進(jìn)行醫(yī)療文獻(xiàn)自動(dòng)摘要生成_第1頁(yè)
利用深度學(xué)習(xí)進(jìn)行醫(yī)療文獻(xiàn)自動(dòng)摘要生成_第2頁(yè)
利用深度學(xué)習(xí)進(jìn)行醫(yī)療文獻(xiàn)自動(dòng)摘要生成_第3頁(yè)
利用深度學(xué)習(xí)進(jìn)行醫(yī)療文獻(xiàn)自動(dòng)摘要生成_第4頁(yè)
利用深度學(xué)習(xí)進(jìn)行醫(yī)療文獻(xiàn)自動(dòng)摘要生成_第5頁(yè)
已閱讀5頁(yè),還剩2頁(yè)未讀, 繼續(xù)免費(fèi)閱讀

下載本文檔

版權(quán)說(shuō)明:本文檔由用戶(hù)提供并上傳,收益歸屬內(nèi)容提供方,若內(nèi)容存在侵權(quán),請(qǐng)進(jìn)行舉報(bào)或認(rèn)領(lǐng)

文檔簡(jiǎn)介

利用深度學(xué)習(xí)進(jìn)行醫(yī)療文獻(xiàn)自動(dòng)摘要生成1.引言1.1概述醫(yī)療文獻(xiàn)自動(dòng)摘要的背景及意義在信息技術(shù)高速發(fā)展的今天,醫(yī)學(xué)領(lǐng)域的文獻(xiàn)資料呈現(xiàn)出爆炸式的增長(zhǎng)。這些文獻(xiàn)不僅數(shù)量龐大,而且內(nèi)容復(fù)雜多樣,為醫(yī)學(xué)研究者和臨床醫(yī)生帶來(lái)了極大的信息過(guò)載問(wèn)題。醫(yī)療文獻(xiàn)自動(dòng)摘要技術(shù)應(yīng)運(yùn)而生,它能夠從大量文獻(xiàn)中自動(dòng)提取關(guān)鍵信息,生成簡(jiǎn)潔明了的摘要,極大地提高了醫(yī)療工作者獲取和利用信息的效率。醫(yī)療文獻(xiàn)自動(dòng)摘要對(duì)于促進(jìn)醫(yī)學(xué)研究、提高臨床診療水平以及實(shí)現(xiàn)個(gè)性化醫(yī)療服務(wù)具有重要意義。1.2簡(jiǎn)要介紹深度學(xué)習(xí)在自然語(yǔ)言處理領(lǐng)域的發(fā)展及應(yīng)用深度學(xué)習(xí)作為近年來(lái)人工智能領(lǐng)域的熱點(diǎn)技術(shù),在圖像識(shí)別、語(yǔ)音識(shí)別、自然語(yǔ)言處理等多個(gè)領(lǐng)域取得了顯著的成果。在自然語(yǔ)言處理領(lǐng)域,深度學(xué)習(xí)技術(shù)通過(guò)對(duì)大量文本數(shù)據(jù)的學(xué)習(xí),能夠有效地提取文本特征,提高語(yǔ)言模型的性能。目前,深度學(xué)習(xí)已經(jīng)在文本分類(lèi)、情感分析、機(jī)器翻譯、自動(dòng)摘要等多個(gè)自然語(yǔ)言處理任務(wù)中取得了廣泛應(yīng)用。1.3闡述本文的研究目的、研究?jī)?nèi)容以及章節(jié)安排本文旨在利用深度學(xué)習(xí)技術(shù)實(shí)現(xiàn)醫(yī)療文獻(xiàn)自動(dòng)摘要生成,提高醫(yī)療工作者的信息獲取效率。主要研究?jī)?nèi)容包括:分析醫(yī)療文獻(xiàn)自動(dòng)摘要技術(shù)的研究現(xiàn)狀及挑戰(zhàn);探討深度學(xué)習(xí)技術(shù)在醫(yī)療文獻(xiàn)自動(dòng)摘要中的應(yīng)用;設(shè)計(jì)一種基于深度學(xué)習(xí)的醫(yī)療文獻(xiàn)自動(dòng)摘要生成算法;通過(guò)實(shí)驗(yàn)驗(yàn)證所提算法的有效性。本文共分為六個(gè)章節(jié),章節(jié)安排如下:第二章對(duì)醫(yī)療文獻(xiàn)自動(dòng)摘要技術(shù)進(jìn)行概述;第三章介紹深度學(xué)習(xí)技術(shù)在醫(yī)療文獻(xiàn)自動(dòng)摘要中的應(yīng)用;第四章詳細(xì)闡述醫(yī)療文獻(xiàn)自動(dòng)摘要生成算法的設(shè)計(jì)與實(shí)現(xiàn);第五章為實(shí)驗(yàn)與分析;第六章對(duì)全文進(jìn)行總結(jié)并展望未來(lái)的研究方向。2.醫(yī)療文獻(xiàn)自動(dòng)摘要技術(shù)概述2.1傳統(tǒng)自動(dòng)摘要方法介紹在深度學(xué)習(xí)技術(shù)被廣泛應(yīng)用之前,自動(dòng)摘要技術(shù)主要依賴(lài)于傳統(tǒng)的機(jī)器學(xué)習(xí)方法。這些傳統(tǒng)方法主要包括:提取式摘要(ExtractiveSummarization)和生成式摘要(AbstractiveSummarization)。提取式摘要通過(guò)從原始文本中選擇重要的句子或段落來(lái)形成摘要,而生成式摘要?jiǎng)t嘗試?yán)斫馕谋緝?nèi)容后生成新的摘要句子。傳統(tǒng)自動(dòng)摘要方法中,較為典型的是基于統(tǒng)計(jì)模型的方法,如TF-IDF、文本分類(lèi)和聚類(lèi)等。這些方法在處理小規(guī)?;蚪Y(jié)構(gòu)簡(jiǎn)單的文本時(shí)具有一定的效果,但在處理大規(guī)模、專(zhuān)業(yè)性強(qiáng)的醫(yī)療文獻(xiàn)時(shí),面臨諸如語(yǔ)義理解不足、關(guān)鍵詞提取不準(zhǔn)確等問(wèn)題。2.2深度學(xué)習(xí)在自動(dòng)摘要領(lǐng)域的優(yōu)勢(shì)深度學(xué)習(xí)技術(shù)的快速發(fā)展為自動(dòng)摘要領(lǐng)域帶來(lái)了新的機(jī)遇和挑戰(zhàn)。相較于傳統(tǒng)方法,深度學(xué)習(xí)在自動(dòng)摘要領(lǐng)域的優(yōu)勢(shì)主要體現(xiàn)在以下幾個(gè)方面:強(qiáng)大的特征提取能力:深度學(xué)習(xí)模型可以自動(dòng)從原始文本中學(xué)習(xí)到復(fù)雜的特征表示,有助于捕捉文本的深層語(yǔ)義信息。泛化能力:基于大數(shù)據(jù)訓(xùn)練的深度學(xué)習(xí)模型具有較強(qiáng)的泛化能力,可以適應(yīng)不同領(lǐng)域和風(fēng)格的文本摘要任務(wù)。端到端學(xué)習(xí):深度學(xué)習(xí)模型可以實(shí)現(xiàn)從原始文本到摘要的端到端學(xué)習(xí),簡(jiǎn)化了傳統(tǒng)自動(dòng)摘要方法的復(fù)雜流程。2.3醫(yī)療文獻(xiàn)自動(dòng)摘要的研究現(xiàn)狀及挑戰(zhàn)當(dāng)前,基于深度學(xué)習(xí)的醫(yī)療文獻(xiàn)自動(dòng)摘要技術(shù)已經(jīng)取得了一定的成果。研究人員嘗試運(yùn)用各種深度學(xué)習(xí)模型,如循環(huán)神經(jīng)網(wǎng)絡(luò)(RNN)、卷積神經(jīng)網(wǎng)絡(luò)(CNN)和Transformer等,來(lái)實(shí)現(xiàn)醫(yī)療文獻(xiàn)的自動(dòng)摘要。然而,醫(yī)療文獻(xiàn)自動(dòng)摘要仍面臨以下挑戰(zhàn):專(zhuān)業(yè)術(shù)語(yǔ)識(shí)別:醫(yī)療文獻(xiàn)中存在大量專(zhuān)業(yè)術(shù)語(yǔ)和縮寫(xiě),如何準(zhǔn)確識(shí)別和表示這些術(shù)語(yǔ)是自動(dòng)摘要的一大挑戰(zhàn)。長(zhǎng)文本處理:醫(yī)療文獻(xiàn)往往篇幅較長(zhǎng),如何從長(zhǎng)文本中提取關(guān)鍵信息并生成簡(jiǎn)潔、準(zhǔn)確的摘要仍需進(jìn)一步研究。數(shù)據(jù)集不足:醫(yī)療文獻(xiàn)自動(dòng)摘要領(lǐng)域的高質(zhì)量數(shù)據(jù)集相對(duì)較少,這限制了深度學(xué)習(xí)模型的訓(xùn)練和評(píng)估效果。在接下來(lái)的章節(jié)中,我們將詳細(xì)介紹深度學(xué)習(xí)技術(shù)在醫(yī)療文獻(xiàn)自動(dòng)摘要中的應(yīng)用,以及相關(guān)算法的設(shè)計(jì)和實(shí)驗(yàn)分析。3.深度學(xué)習(xí)技術(shù)在醫(yī)療文獻(xiàn)自動(dòng)摘要中的應(yīng)用3.1深度學(xué)習(xí)模型概述深度學(xué)習(xí)作為人工智能領(lǐng)域的一個(gè)重要分支,近年來(lái)在圖像識(shí)別、語(yǔ)音識(shí)別以及自然語(yǔ)言處理等領(lǐng)域取得了顯著成果。在醫(yī)療文獻(xiàn)自動(dòng)摘要領(lǐng)域,深度學(xué)習(xí)同樣顯示出強(qiáng)大的潛力和優(yōu)勢(shì)。深度學(xué)習(xí)模型主要包括神經(jīng)網(wǎng)絡(luò)、循環(huán)神經(jīng)網(wǎng)絡(luò)(RNN)、卷積神經(jīng)網(wǎng)絡(luò)(CNN)以及Transformer等。3.2基于深度學(xué)習(xí)的文本表示方法文本表示是自然語(yǔ)言處理中的關(guān)鍵環(huán)節(jié),它將原始文本數(shù)據(jù)轉(zhuǎn)換為計(jì)算機(jī)可以理解和處理的數(shù)值形式?;谏疃葘W(xué)習(xí)的文本表示方法主要有詞嵌入、句嵌入以及文檔嵌入等。詞嵌入:將詞匯映射為固定長(zhǎng)度的向量,能夠捕捉詞匯的語(yǔ)義和語(yǔ)法信息。常用的詞嵌入方法有Word2Vec和GloVe等。句嵌入:通過(guò)學(xué)習(xí)句子中詞匯的聯(lián)合表示,將整個(gè)句子映射為固定維度的向量。常用的句嵌入方法有Skip-ThoughtVectors和InferSent等。文檔嵌入:將整個(gè)文檔映射為向量表示,能夠反映文檔的主題和中心思想。常用的文檔嵌入方法有Doc2Vec和BERT等。3.3深度學(xué)習(xí)在醫(yī)療文獻(xiàn)自動(dòng)摘要中的典型應(yīng)用案例深度學(xué)習(xí)技術(shù)在醫(yī)療文獻(xiàn)自動(dòng)摘要中取得了許多成功應(yīng)用,以下是一些典型應(yīng)用案例:基于循環(huán)神經(jīng)網(wǎng)絡(luò)的摘要生成:利用RNN對(duì)醫(yī)療文獻(xiàn)進(jìn)行建模,自動(dòng)提取關(guān)鍵信息并生成摘要。例如,使用LSTM或GRU模型處理醫(yī)療文獻(xiàn)數(shù)據(jù),通過(guò)序列到序列(Seq2Seq)框架實(shí)現(xiàn)自動(dòng)摘要生成?;诰矸e神經(jīng)網(wǎng)絡(luò)的摘要生成:CNN在處理局部特征方面具有優(yōu)勢(shì),可以通過(guò)卷積操作提取文本中的關(guān)鍵信息。例如,使用CNN對(duì)醫(yī)療文獻(xiàn)進(jìn)行局部特征提取,并結(jié)合門(mén)控機(jī)制生成高質(zhì)量摘要。基于Transformer的摘要生成:Transformer模型采用自注意力機(jī)制,能夠捕捉文本中長(zhǎng)距離依賴(lài)關(guān)系。在醫(yī)療文獻(xiàn)自動(dòng)摘要任務(wù)中,可以使用Transformer模型對(duì)大量文獻(xiàn)進(jìn)行高效建模,生成更具代表性的摘要。預(yù)訓(xùn)練模型在醫(yī)療文獻(xiàn)摘要中的應(yīng)用:利用BERT、GPT等預(yù)訓(xùn)練模型在醫(yī)療文獻(xiàn)數(shù)據(jù)上進(jìn)行微調(diào),實(shí)現(xiàn)高質(zhì)量的自動(dòng)摘要生成。這些預(yù)訓(xùn)練模型具有較強(qiáng)的語(yǔ)言理解能力,能夠有效提高摘要生成效果。通過(guò)以上案例,可以看出深度學(xué)習(xí)技術(shù)在醫(yī)療文獻(xiàn)自動(dòng)摘要領(lǐng)域具有廣泛的應(yīng)用前景和潛力。隨著深度學(xué)習(xí)模型的不斷發(fā)展與優(yōu)化,未來(lái)在醫(yī)療文獻(xiàn)自動(dòng)摘要任務(wù)上的性能將進(jìn)一步提升。4.醫(yī)療文獻(xiàn)自動(dòng)摘要生成算法設(shè)計(jì)4.1算法框架及流程本研究提出的醫(yī)療文獻(xiàn)自動(dòng)摘要生成算法,主要分為三個(gè)階段:文本預(yù)處理、深度學(xué)習(xí)模型訓(xùn)練、摘要生成。首先對(duì)原始的醫(yī)療文獻(xiàn)進(jìn)行預(yù)處理,包括分詞、去停用詞、詞性標(biāo)注等操作,以?xún)艋谋緮?shù)據(jù)。隨后,將處理后的數(shù)據(jù)輸入到深度學(xué)習(xí)模型中,進(jìn)行特征提取和表示。最后,根據(jù)特定的摘要生成策略,輸出簡(jiǎn)潔且包含關(guān)鍵信息的摘要。4.2關(guān)鍵技術(shù)及實(shí)現(xiàn)4.2.1文本預(yù)處理文本預(yù)處理階段主要包括以下步驟:分詞:采用jieba分詞工具對(duì)原始文本進(jìn)行分詞處理,以獲得更準(zhǔn)確的詞匯單元。去停用詞:刪除常見(jiàn)的停用詞,如“的”、“和”、“是”等,以降低噪聲。詞性標(biāo)注:對(duì)分詞后的結(jié)果進(jìn)行詞性標(biāo)注,便于后續(xù)深度學(xué)習(xí)模型提取特征。4.2.2深度學(xué)習(xí)模型選擇與訓(xùn)練本研究選用具有良好文本處理能力的卷積神經(jīng)網(wǎng)絡(luò)(CNN)作為基礎(chǔ)模型,并對(duì)其進(jìn)行改進(jìn)以適應(yīng)醫(yī)療文獻(xiàn)自動(dòng)摘要任務(wù)。具體地,模型結(jié)構(gòu)包括以下幾個(gè)部分:Embedding層:將預(yù)處理后的詞匯映射為固定維度的向量表示。卷積層:采用多個(gè)卷積核提取局部特征。池化層:對(duì)卷積后的特征進(jìn)行池化操作,以獲得全局的特征表示。全連接層:將池化后的特征映射為摘要標(biāo)簽。使用已標(biāo)注的訓(xùn)練數(shù)據(jù)對(duì)模型進(jìn)行訓(xùn)練,通過(guò)優(yōu)化算法(如Adam)調(diào)整模型參數(shù),直至達(dá)到最佳性能。4.2.3摘要生成策略根據(jù)模型預(yù)測(cè)結(jié)果,采用以下策略生成摘要:選取預(yù)測(cè)為關(guān)鍵句子(摘要標(biāo)簽為1)的文本片段。對(duì)選取的文本片段進(jìn)行排序,以保留重要信息。通過(guò)連接排序后的文本片段,生成最終的摘要。4.3模型評(píng)估與優(yōu)化為了評(píng)估模型的性能,采用準(zhǔn)確率、召回率、F1值等指標(biāo)進(jìn)行評(píng)估。同時(shí),針對(duì)以下方面對(duì)模型進(jìn)行優(yōu)化:調(diào)整模型結(jié)構(gòu),如卷積核尺寸、步長(zhǎng)等,以提高特征提取能力。使用預(yù)訓(xùn)練的詞向量作為模型輸入,以增強(qiáng)模型的語(yǔ)義表示能力。采用數(shù)據(jù)增強(qiáng)方法,如數(shù)據(jù)旋轉(zhuǎn)、對(duì)抗訓(xùn)練等,提高模型泛化能力。經(jīng)過(guò)不斷的優(yōu)化和調(diào)整,最終獲得一個(gè)性能較好的醫(yī)療文獻(xiàn)自動(dòng)摘要生成模型。5實(shí)驗(yàn)與分析5.1數(shù)據(jù)集準(zhǔn)備與預(yù)處理為驗(yàn)證所設(shè)計(jì)算法的有效性和可行性,我們選取了來(lái)自PubMed數(shù)據(jù)庫(kù)的5000篇醫(yī)療文獻(xiàn)作為實(shí)驗(yàn)數(shù)據(jù)集。數(shù)據(jù)集涵蓋了多個(gè)醫(yī)療領(lǐng)域,如心血管疾病、糖尿病、腫瘤等,保證了實(shí)驗(yàn)的全面性和客觀性。在數(shù)據(jù)預(yù)處理階段,我們首先進(jìn)行了分詞、去除停用詞等基本操作,然后利用詞嵌入技術(shù)將文本轉(zhuǎn)換為向量表示。此外,為了提高摘要生成質(zhì)量,我們對(duì)原始文獻(xiàn)進(jìn)行了以下預(yù)處理:去除噪聲數(shù)據(jù):刪除文獻(xiàn)中的圖表、公式等非文本信息,確保實(shí)驗(yàn)數(shù)據(jù)干凈、整潔。數(shù)據(jù)清洗:修正文獻(xiàn)中的錯(cuò)誤和瑕疵,如錯(cuò)別字、語(yǔ)法錯(cuò)誤等。標(biāo)注數(shù)據(jù):從原始文獻(xiàn)中提取關(guān)鍵信息,為后續(xù)摘要生成提供參考。5.2實(shí)驗(yàn)方法與評(píng)價(jià)指標(biāo)本實(shí)驗(yàn)采用了以下深度學(xué)習(xí)模型進(jìn)行醫(yī)療文獻(xiàn)自動(dòng)摘要生成:Seq2Seq模型:一種基于循環(huán)神經(jīng)網(wǎng)絡(luò)(RNN)的自動(dòng)摘要模型,具有較強(qiáng)的文本生成能力。Transformer模型:一種基于自注意力機(jī)制的深度學(xué)習(xí)模型,能夠有效捕捉文本中的長(zhǎng)距離依賴(lài)關(guān)系。評(píng)價(jià)指標(biāo)主要包括:ROUGE分?jǐn)?shù):一種廣泛使用的自動(dòng)摘要評(píng)價(jià)指標(biāo),包括ROUGE-1、ROUGE-2和ROUGE-L。BLEU分?jǐn)?shù):一種常用于機(jī)器翻譯的評(píng)價(jià)指標(biāo),也適用于自動(dòng)摘要任務(wù)。人工評(píng)價(jià):邀請(qǐng)領(lǐng)域?qū)<覍?duì)生成的摘要進(jìn)行主觀評(píng)價(jià),以評(píng)估摘要的質(zhì)量。5.3實(shí)驗(yàn)結(jié)果分析通過(guò)對(duì)實(shí)驗(yàn)結(jié)果的分析,我們得出以下結(jié)論:模型性能:Transformer模型在醫(yī)療文獻(xiàn)自動(dòng)摘要任務(wù)中的表現(xiàn)優(yōu)于Seq2Seq模型,這得益于其自注意力機(jī)制,能夠更好地捕捉文本中的關(guān)鍵信息。評(píng)價(jià)指標(biāo):在ROUGE和BLEU兩個(gè)評(píng)價(jià)指標(biāo)上,Transformer模型均取得了較高的分?jǐn)?shù),表明生成的摘要具有較高的質(zhì)量和準(zhǔn)確性。人工評(píng)價(jià):專(zhuān)家對(duì)Transformer模型生成的摘要給予了較高的評(píng)價(jià),認(rèn)為摘要內(nèi)容準(zhǔn)確、全面,能夠滿(mǎn)足醫(yī)療專(zhuān)業(yè)人士的需求。摘要長(zhǎng)度:在實(shí)驗(yàn)過(guò)程中,我們發(fā)現(xiàn)摘要長(zhǎng)度對(duì)模型性能有一定影響。適當(dāng)增加摘要長(zhǎng)度可以提高摘要質(zhì)量,但過(guò)長(zhǎng)會(huì)導(dǎo)致信息冗余。綜合以上實(shí)驗(yàn)結(jié)果,我們認(rèn)為所設(shè)計(jì)的醫(yī)療文獻(xiàn)自動(dòng)摘要生成算法具有較高的實(shí)用價(jià)值和應(yīng)用前景。在未來(lái)的研究中,我們將進(jìn)一步優(yōu)化模型結(jié)構(gòu),提高摘要生成質(zhì)量,以滿(mǎn)足更多醫(yī)療專(zhuān)業(yè)人士的需求。6結(jié)論與展望6.1對(duì)本文研究工作進(jìn)行總結(jié)本文針對(duì)醫(yī)療文獻(xiàn)自動(dòng)摘要生成問(wèn)題,系統(tǒng)性地研究了深度學(xué)習(xí)技術(shù)的應(yīng)用及其效果。首先,我們概述了醫(yī)療文獻(xiàn)自動(dòng)摘要的背景和意義,并介紹了深度學(xué)習(xí)在自然語(yǔ)言處理領(lǐng)域的發(fā)展及其在自動(dòng)摘要任務(wù)中的優(yōu)勢(shì)。其次,我們探討了醫(yī)療文獻(xiàn)自動(dòng)摘要的研究現(xiàn)狀及面臨的挑戰(zhàn)。在深度學(xué)習(xí)技術(shù)的應(yīng)用方面,本文詳細(xì)介紹了深度學(xué)習(xí)模型、文本表示方法,并通過(guò)實(shí)際案例展現(xiàn)了深度學(xué)習(xí)在醫(yī)療文獻(xiàn)自動(dòng)摘要中的應(yīng)用效果。在此基礎(chǔ)上,我們?cè)O(shè)計(jì)了醫(yī)療文獻(xiàn)自動(dòng)摘要生成算法,包括算法框架、流程以及關(guān)鍵技術(shù)實(shí)現(xiàn)。同時(shí),我們還對(duì)所提出算法進(jìn)行了評(píng)估與優(yōu)化。通過(guò)實(shí)驗(yàn)與分析,本文驗(yàn)證了所設(shè)計(jì)算法在醫(yī)療文獻(xiàn)自動(dòng)摘要任務(wù)中的有效性。在數(shù)據(jù)集準(zhǔn)備與預(yù)處理、實(shí)驗(yàn)方法與評(píng)價(jià)指標(biāo)等方面,我們都進(jìn)行了詳細(xì)的闡述,為后續(xù)研究提供了可借鑒的經(jīng)驗(yàn)。6.2未來(lái)研究方向與挑戰(zhàn)盡管本文的研究取得了一定的成果,但仍存在一些問(wèn)題和挑戰(zhàn)需要在未來(lái)研究中進(jìn)一步探討:數(shù)據(jù)質(zhì)量與規(guī)模:醫(yī)療領(lǐng)域的數(shù)據(jù)質(zhì)量與規(guī)模對(duì)模型性能有著重要影響。未來(lái)研究可以關(guān)注更多高質(zhì)量的醫(yī)療文獻(xiàn)數(shù)據(jù)集,以提高摘要生成效果。多模態(tài)信息融合:醫(yī)療文獻(xiàn)中不僅包含文本信息,還可能涉及圖像、表格等多模態(tài)數(shù)據(jù)。如何有效融合這些多模態(tài)信息,提高摘要生成質(zhì)量,是未來(lái)

溫馨提示

  • 1. 本站所有資源如無(wú)特殊說(shuō)明,都需要本地電腦安裝OFFICE2007和PDF閱讀器。圖紙軟件為CAD,CAXA,PROE,UG,SolidWorks等.壓縮文件請(qǐng)下載最新的WinRAR軟件解壓。
  • 2. 本站的文檔不包含任何第三方提供的附件圖紙等,如果需要附件,請(qǐng)聯(lián)系上傳者。文件的所有權(quán)益歸上傳用戶(hù)所有。
  • 3. 本站RAR壓縮包中若帶圖紙,網(wǎng)頁(yè)內(nèi)容里面會(huì)有圖紙預(yù)覽,若沒(méi)有圖紙預(yù)覽就沒(méi)有圖紙。
  • 4. 未經(jīng)權(quán)益所有人同意不得將文件中的內(nèi)容挪作商業(yè)或盈利用途。
  • 5. 人人文庫(kù)網(wǎng)僅提供信息存儲(chǔ)空間,僅對(duì)用戶(hù)上傳內(nèi)容的表現(xiàn)方式做保護(hù)處理,對(duì)用戶(hù)上傳分享的文檔內(nèi)容本身不做任何修改或編輯,并不能對(duì)任何下載內(nèi)容負(fù)責(zé)。
  • 6. 下載文件中如有侵權(quán)或不適當(dāng)內(nèi)容,請(qǐng)與我們聯(lián)系,我們立即糾正。
  • 7. 本站不保證下載資源的準(zhǔn)確性、安全性和完整性, 同時(shí)也不承擔(dān)用戶(hù)因使用這些下載資源對(duì)自己和他人造成任何形式的傷害或損失。

最新文檔

評(píng)論

0/150

提交評(píng)論