




版權(quán)說明:本文檔由用戶提供并上傳,收益歸屬內(nèi)容提供方,若內(nèi)容存在侵權(quán),請(qǐng)進(jìn)行舉報(bào)或認(rèn)領(lǐng)
文檔簡(jiǎn)介
科技先鋒系列報(bào)告254生成式AI:內(nèi)容創(chuàng)造的新階段2022年12月2日核心觀點(diǎn)
生成式AI(Generative
AI)即利用人工智能技術(shù)來生成內(nèi)容,其生成的作品稱為AIGC(AI-Generated
Content),包括文字、圖片、音頻等形式。從內(nèi)容生成的歷史上看,當(dāng)前已經(jīng)完成了從專業(yè)創(chuàng)作(PGC)到用戶創(chuàng)作(UGC)轉(zhuǎn)變,正在向AI協(xié)助內(nèi)容生成與全AI內(nèi)容生成兩個(gè)階段過渡,將幫助內(nèi)容生產(chǎn)者在創(chuàng)作效率、創(chuàng)作成本、創(chuàng)作思路上實(shí)現(xiàn)顯著進(jìn)步。
過去人工智能的發(fā)展經(jīng)歷了從小模型到大模型的轉(zhuǎn)變,隨著經(jīng)濟(jì)性與可獲得性的明顯提高,殺手級(jí)應(yīng)用正在涌現(xiàn)。其中,隨著更新的技術(shù)、更優(yōu)的算法、更大的模型出現(xiàn),算力的成本越來越低,使得模型訓(xùn)練與運(yùn)行所需成本持續(xù)下降。算法從封閉測(cè)試到開放測(cè)試、開源的逐漸普及,使得使用門檻明顯降低。AIGC亦從小規(guī)模實(shí)驗(yàn),到算法革新,到能夠高質(zhì)量、穩(wěn)定地輸出內(nèi)容。在不久的將來,隨著平臺(tái)層變得更加穩(wěn)固,算力成本持續(xù)下探,模型逐漸趨于開源與免費(fèi),人類正逐步接近應(yīng)用層爆發(fā)式發(fā)展的節(jié)點(diǎn)。
底層技術(shù)方面,主要包括自然語言處理(NLP)與生成模型,其中生成模型主要包括生成對(duì)抗模型(GAN)與擴(kuò)散模型(Diffusion
Model)。
其中,2021年擴(kuò)散模型出現(xiàn),憑借著更高的輸出分辨率、輸出效率和輸出穩(wěn)定性,很快在AIGC場(chǎng)景下獲得了大范圍應(yīng)用,在2022年成功破圈并迎來了項(xiàng)目爆發(fā)期。
展望未來,Gartner預(yù)計(jì)2025年AIGC將占所有生成數(shù)據(jù)的10%。我們認(rèn)為,當(dāng)前行業(yè)尚處于早期發(fā)展階段,隨著基礎(chǔ)設(shè)施日益完善,應(yīng)用層亦將迎來爆發(fā),但語義理解(自然語言處理)、生成算法、數(shù)據(jù)集等底層技術(shù)依舊面臨挑戰(zhàn)。結(jié)合當(dāng)前行業(yè)發(fā)展規(guī)律考慮,我們預(yù)計(jì)未來將主要依托于高算力、大模型、大數(shù)據(jù)而進(jìn)一步發(fā)展。2生成式AI在新興技術(shù)中具備高影響力
事件:在美國(guó)新興數(shù)字藝術(shù)家競(jìng)賽中,參賽者提交AIGC(AI-Generated
Content)繪畫作品《太空歌劇院》,并取得此次比賽“數(shù)字藝術(shù)/數(shù)字修飾照片”類別一等獎(jiǎng),將AIGC帶入大眾的視野。
Gartner于2022年8月公布了《新興技術(shù)成熟度曲線》,并將生成式AI列為2022年五大影響力技術(shù)之一。AIGC作品《太空歌劇院》2022年新興技術(shù)成熟度曲線3資料:億歐智庫資料:Gartner,中信證券研究部?jī)?nèi)容生成的發(fā)展階段——正從UGC跨向AIGC
階段一:專業(yè)創(chuàng)作(PFC)。內(nèi)容的生產(chǎn)者與消費(fèi)者有明顯區(qū)分,消費(fèi)者只進(jìn)行內(nèi)容的消費(fèi),不進(jìn)行內(nèi)容的生產(chǎn)。
階段二:用戶創(chuàng)作(UGC)。隨著消費(fèi)者定制化需求越來越高,消費(fèi)者本身亦參與內(nèi)容的生產(chǎn),并伴隨著互聯(lián)網(wǎng)的興起,智能手機(jī)的普及,YouTube、Facebook等平臺(tái)涌現(xiàn),UGC成為了內(nèi)容生產(chǎn)的主流模式。
階段三&階段四:AI協(xié)助內(nèi)容生成(AIUGC)與AI創(chuàng)作(AIGC)。在這兩個(gè)階段中。內(nèi)容生產(chǎn)主體從人類本身開始向人工智能遷移,主要區(qū)別體現(xiàn)在內(nèi)容的生產(chǎn)效率、知識(shí)圖譜的多樣性以及提供更加動(dòng)態(tài)且可交互的內(nèi)容上。人腦只能基于自己的知識(shí)圖譜進(jìn)行少數(shù)方向的信息處理,而AI能從更龐大的知識(shí)體系中進(jìn)行多個(gè)方向的處理,進(jìn)而提供更多的創(chuàng)作思路。內(nèi)容生成的四個(gè)階段Web3.0“高效”Web2.0“交互”Web1.0“只讀”4資料:虎嗅,中信證券研究部AIGC發(fā)展階段——2022年以前
階段一:小模型(2015年前)?
AI發(fā)展階段:擅長(zhǎng)特定領(lǐng)域的分析任務(wù)(如語義理解等),但通用型任務(wù)的完成情況很差,成本高,表達(dá)能力與人類相差較遠(yuǎn)。?
同期AIGC所處階段:1995年以前僅限于小范圍實(shí)驗(yàn),技術(shù)積累階段;其后受限于算法,無法直接進(jìn)行內(nèi)容產(chǎn)出。
階段二:大模型(2015-2022年)?
AI發(fā)展階段:
Transformer模型的出現(xiàn),使得文字、語音、圖像識(shí)別、語言理解等領(lǐng)域達(dá)到了超越人類的水平。?
同期AIGC所處階段:深度學(xué)習(xí)算法不斷迭代,AIGC內(nèi)容質(zhì)量快速提升。深度學(xué)習(xí)初期模型越來越大AI圖像識(shí)別準(zhǔn)確性超越人類不含額外的訓(xùn)練數(shù)據(jù)含有額外的訓(xùn)練數(shù)據(jù)人類水平100%98%96%94%92%90%88%86%84%82%80%5資料:Purdue
University資料:斯坦?!?022年人工智能指數(shù)報(bào)告》,中信證券研究部AIGC發(fā)展階段——2022年及以后
階段三:兼顧經(jīng)濟(jì)性與可使用性(2022年)?
AI發(fā)展階段:在過去,人工智能的進(jìn)展更多體現(xiàn)在基于規(guī)模的技術(shù)突破,如2015-2020年,用于模型訓(xùn)練的計(jì)算量增長(zhǎng)了6個(gè)數(shù)量級(jí),同時(shí)隨著規(guī)模的增大,輸出結(jié)果的質(zhì)量亦迎來質(zhì)變,在語言文字、書寫、圖像識(shí)別等領(lǐng)域皆表現(xiàn)出超越人類的水平。但在實(shí)用層面,由于所需要的算力巨大,往往需要特殊的GPU配置,同時(shí)訓(xùn)練過程相對(duì)封閉,大多數(shù)人并無法使用,因此技術(shù)無法被多數(shù)人觸達(dá)。而人工智能的第三個(gè)階段,隨著更新的技術(shù)、更優(yōu)的算法、更大的模型出現(xiàn),算力的成本越來越低,使得模型訓(xùn)練與運(yùn)行所需成本持續(xù)下降,而算法從封閉測(cè)試到開放測(cè)試、開源的逐漸普及,亦降低了使用門檻。由此人工智能無論在經(jīng)濟(jì)性與可獲得性上都達(dá)到了支持普及的水平。?
同期AIGC所處階段:底層算法革新,語義理解與生成模型的性能明顯提升。
階段四:殺手級(jí)應(yīng)用出現(xiàn)(不久的將來)?
AIGC發(fā)展階段:得益于AIGC基礎(chǔ)設(shè)施可獲得性的逐步提高,平臺(tái)層變得更加穩(wěn)固,算力成本持續(xù)下探,模型逐漸趨于開源與免費(fèi),應(yīng)用層爆發(fā)式發(fā)展的節(jié)點(diǎn)正在靠近。?
正如GPS技術(shù)的普及打開了導(dǎo)航市場(chǎng),我們認(rèn)為,AIGC基礎(chǔ)層面的成熟正在催生新的殺手級(jí)應(yīng)用。6AIGC發(fā)展階段——?dú)⑹旨?jí)應(yīng)用正在涌現(xiàn)人工智能殺手級(jí)應(yīng)用及其對(duì)應(yīng)底層模型應(yīng)用層文本代碼圖像講稿視頻3D其它模型層7資料:紅衫官網(wǎng),中信證券研究部AIGC發(fā)展階段——?dú)⑹旨?jí)應(yīng)用正在涌現(xiàn)人工智能殺手級(jí)應(yīng)用及其對(duì)應(yīng)底層模型文本代碼圖像視頻/3D/游戲大模型進(jìn)展:初次嘗試接近完成準(zhǔn)備就緒8資料:紅衫官網(wǎng),中信證券研究部AIGC底層技術(shù)——自然語言處理(NLP)
AIGC的技術(shù)底層主要包括自然語言處理(NLP)與AIGC生成模型,其中:
自然語言處理(Natural
Language
Processing)是一門集語言學(xué),數(shù)學(xué)及計(jì)算機(jī)科學(xué)于一體的科學(xué),其核心目標(biāo)與功能是將人類生活中使用的自然語言,轉(zhuǎn)換為計(jì)算機(jī)可以理解的指令,使得計(jì)算機(jī)可以理解自然語言,提取信息并自動(dòng)翻譯、分析和處理,使人與計(jì)算機(jī)之間通過自然語言進(jìn)行交互。
其基本任務(wù)包括:關(guān)鍵詞提取、文本糾錯(cuò)、情感分析、文本分類、自動(dòng)摘要等。自然語言處理的作用自然語言處理基本任務(wù)9資料:騰訊云資料:騰訊云AIGC底層技術(shù)——自然語言處理(NLP)
自然語言處理的發(fā)展趨勢(shì)是從規(guī)則到統(tǒng)計(jì),再到深度學(xué)習(xí),期間包括了四個(gè)發(fā)展階段:?
1)萌芽期(1956年以前),1956年圖靈測(cè)試成為了NLP的開端,誕生了基于規(guī)則與概率的兩種不同的自然語言處理技術(shù);?
2)快速發(fā)展期(1957-1970),由于注重于研究推理和邏輯問題,因此使用基于規(guī)則的派系比基于概率的派系發(fā)展勢(shì)頭更迅猛;?
3)低速發(fā)展期(1971-1993),NLP下游應(yīng)用落地受阻,相應(yīng)的研發(fā)進(jìn)入低谷期;?
4)復(fù)蘇融合期(1994-至今),基于計(jì)算機(jī)的運(yùn)算速度和存儲(chǔ)取得的進(jìn)步,NLP具備發(fā)展基礎(chǔ),同時(shí)由于自然語言的信息檢索和信息抽取需求增加與深度學(xué)習(xí)的出現(xiàn),大大提高了NLP的落地可能性,研發(fā)人員重新入局。自然語言處理的發(fā)展歷程資料:騰訊云10AIGC底層技術(shù)——生成模型(GAN)
雖然AIGC的可追溯歷史很長(zhǎng),但近兩年才在內(nèi)容質(zhì)量方面實(shí)現(xiàn)質(zhì)的飛躍,這主要是由于模型方面的突破,并主要體現(xiàn)在AI繪畫方面。傳統(tǒng)AI繪畫使用生成對(duì)抗網(wǎng)絡(luò)(GAN),但該模型生成的輸出結(jié)果相對(duì)不穩(wěn)定,分辨率相對(duì)較低,對(duì)算力的要求高,而2021年Diffusion模型的出現(xiàn),在圖像輸出分辨率、輸出效率等方面都顛覆性提升。
生成對(duì)抗網(wǎng)絡(luò)(GAN)
于2014年由lan
Gooddellow發(fā)明,用于生成無法與真實(shí)圖像區(qū)分的人工樣本。GAN包括生成器(Generator)與判別器(Discriminator)兩部分,以圖像生成為例,生成器負(fù)責(zé)根據(jù)生成圖像,判別器負(fù)責(zé)分辨真實(shí)圖像與生成圖像,人類將通過訓(xùn)練賦予判別器判別真?zhèn)蔚哪芰?,生成器通過反饋進(jìn)行訓(xùn)練,使得生成圖像不斷接近真實(shí)圖像。GAN生成對(duì)抗網(wǎng)絡(luò)運(yùn)作原理GAN多次迭代的優(yōu)化速度x真實(shí)數(shù)據(jù)判別器D真/偽?G(z)隱隨機(jī)向量z生成器反饋11資料:騰訊云,中信證券研究部資料:CSDN@skycolAIGC底層技術(shù)——生成模型(GAN)
GAN的發(fā)展速度非常快,2014年GAN誕生之初,難以生成高質(zhì)量圖像;
2015年,CNN與GAN結(jié)合形成了深度卷積生成對(duì)抗網(wǎng)絡(luò)(DCGAN),極大提高GAN訓(xùn)練的穩(wěn)定性以及生成結(jié)果的質(zhì)量;
2016年,出現(xiàn)了可以變換圖像的CycleGAN和pix2pix,可以從兩個(gè)數(shù)據(jù)源轉(zhuǎn)換數(shù)據(jù);
2018年,人類通過proGAN和基于此的StyleGAN,完成了高質(zhì)量大圖像(如1024×1024)的生成;
GAN還可以進(jìn)行圖像數(shù)據(jù)集生成、人臉生成、視頻預(yù)測(cè)、圖文轉(zhuǎn)換、照片融合、超分辨率等。2015年DCGAN的圖像生成效果2018年proGAN的圖像生成效果12資料:CSDN@skycol資料:CSDN@skycolAIGC底層技術(shù)——生成模型(Diffusion)
Diffusion
Model即擴(kuò)散模型,在2021年才開始在小眾圈子中流行。2022年,谷歌基于CLIP-Guided
Diffusion創(chuàng)建了一個(gè)開源AI圖像生成程序(Disco
Diffusion),Diffusion因此大放異彩。
工作原理上,Diffusion通過向訓(xùn)練數(shù)據(jù)連續(xù)添加噪聲,使噪聲逐步破壞訓(xùn)練數(shù)據(jù),學(xué)習(xí)其變化過程。隨后通過反轉(zhuǎn)噪聲的過程,以及在提示語的引導(dǎo)下恢復(fù)數(shù)據(jù)。經(jīng)過訓(xùn)練的模型,可以將隨機(jī)采樣的噪聲進(jìn)行去噪處理,從而生成數(shù)據(jù)(如圖像)。Diffusion生成模型運(yùn)作過程Diffusion生成圖像效果參考圖枯萎的藤,老樹,烏鴉,水墨畫風(fēng)格帶噪聲的圖像生成網(wǎng)絡(luò)放大網(wǎng)絡(luò)生成結(jié)果噪聲提示語句子轉(zhuǎn)換網(wǎng)絡(luò)13資料:OpenDILab,中信證券研究部資料:CSDN,中信證券研究部
注:Stable
Diffusion是一個(gè)文圖生成模型AIGC底層技術(shù)——生成模型(Diffusion)
2015年,Jascha于第一次提出Diffusion,并于2020年由加州大學(xué)伯克利分校的幾位研究員進(jìn)行改進(jìn)。
2021年,OpenAI團(tuán)隊(duì)開源了其用于匹配文本和圖像的神經(jīng)網(wǎng)絡(luò)模型CLIP,通過對(duì)文字進(jìn)行語言分析、對(duì)圖形進(jìn)行視覺分析,達(dá)到文字和圖像高度匹配的效果,CLIP與Diffusion的結(jié)合使得AI繪畫獲得了質(zhì)的提升。
2022年,多個(gè)基于Diffusion模型的應(yīng)用出現(xiàn)。2月Disco
Diffusion(CLIP+Diffusion)開源推出,但能畫的內(nèi)容較少;4月OpenAI
團(tuán)隊(duì)發(fā)布DALL·E
2(CLIP+diffusion),語義理解方面改進(jìn)明顯,可畫內(nèi)容大大增加,可以拼湊出不存在的事物;5月MidJourney發(fā)布(CLIP+diffusion),用戶可以直接通過對(duì)話獲取圖片,目前不開源;7月Stable
Diffusion(CLIP+diffusion+VAE)開源推出,被認(rèn)為使迄今為止最先進(jìn)的AI繪畫算法模型,并于11月推出2.0版本。現(xiàn)已推出的Diffusion模型DALL·E2生成不存在事物的圖像名稱底層模型是否開源是優(yōu)/劣勢(shì)Disco
Diffusion
CLIP+Diffusion能夠繪畫的內(nèi)容較少語義理解與可畫內(nèi)容明顯提高DALL·E2CLIP+DiffusionCLIP+Diffusion否否是內(nèi)容質(zhì)量有所提高,可通過對(duì)話獲取圖片MidJourneyStableCLIP+Diffusion+VAE質(zhì)量與效率明顯提高Diffusion14資料:OpenDILab,中信證券研究部資料:OpenAIAIGC具體應(yīng)用——文字創(chuàng)作
Jasper是主打文字生成的AIGC公司,于2022年10月19日宣布完成1.25億美元的A輪融資,估值達(dá)到15億美元。該公司針對(duì)不同應(yīng)用場(chǎng)景提供不同類型的服務(wù),如社交媒體、廣告、文章、郵件等不同類型的文字生成。
定價(jià)方面,Jasper采用SaaS模式,共推出Starter、Boss
Mode和Business三種訂閱模式,其中:1)Starter定價(jià)每月49美元(非包年),可提供3.5萬字/月的文字輸出,適合編寫
廣告、社交媒體帖子等簡(jiǎn)短副本2)Boss
Mode定價(jià)每月99美元(非包年),可提供10萬字/月的文字輸出,適合谷歌文檔等編輯者Jasper文字生成產(chǎn)品介紹Jasper產(chǎn)品定價(jià)15資料:Jasper官網(wǎng)資料:Jasper官網(wǎng)AIGC具體應(yīng)用——AI繪畫
藝術(shù)和創(chuàng)意輔助平臺(tái)文心一格是百度依托飛槳平臺(tái)與文心大模型的技術(shù)創(chuàng)新推出的“AI作畫”首款產(chǎn)品。目前處于免費(fèi)階段,對(duì)于需要大量使用圖片的人群,例如公眾號(hào)制作者,使用AI繪畫平臺(tái)的整體成本大大降低。AI-3D亦著降低游戲、影視、VR/AR行業(yè)制作成本。高效、低成本的優(yōu)勢(shì)使其有望成為Web
3.0的主要內(nèi)容產(chǎn)生方式。
隨著繪畫門檻降低,AI繪畫平臺(tái)用戶大幅增長(zhǎng)。TIAMAT內(nèi)測(cè)用戶為2萬人,盜夢(mèng)師日增5萬,上線兩個(gè)月已積累50萬用戶。StabilityAI正在被Coatue、Lightspeed等知名VC考慮以5-10億美元的估值進(jìn)行投資。飛槳-文心大模型AI繪畫國(guó)內(nèi)主流AI繪畫工具產(chǎn)品名稱文心一格萬興AI繪畫6pen所屬公司百度集團(tuán)萬興科技毛線球科技映刻科技清墨社區(qū)無界版圖ZMO.AI超節(jié)點(diǎn)信息科技感知階躍數(shù)字科技退格數(shù)字科技TIAMAT盜夢(mèng)師西湖心辰科技16資料:飛槳-文心大模型官網(wǎng),中信證券研究部資料:量子位智庫,大眾新聞,中信證券研究部AIGC具體應(yīng)用——AI代碼生成
GitHub
Copilot是由微軟、OpenAI、GitHub
三家聯(lián)合打造的
AI
編程輔助(代碼補(bǔ)全)工具,可在
VS
Code
編輯器中自動(dòng)完成代碼片段。GitHub于今年6月份正式發(fā)布Copilot
,以每月10美元或每年
100
美元的價(jià)格出售,并提供60天的免費(fèi)試用期。通過身份驗(yàn)證的學(xué)生和熱門開源項(xiàng)目維護(hù)者可以免費(fèi)使用。
據(jù)GitHub官方統(tǒng)計(jì),2Q21-2Q22,Copilot開放測(cè)試一年來已有120萬用戶,在啟用GitHub
Copilot的文件中,GitHub表示用戶生成的代碼近40%是由Copilot編寫的,預(yù)計(jì)該比例將持續(xù)提升。
融資方面,CoPilot截至今年十月份已在五輪融資中籌集共2200萬美元。CoPilot
為開發(fā)者提供代碼建議CoPilot
訂閱支付界面17資料:GitHub
CoPilot資料:
開源頭條AIGC具體應(yīng)用——AI作曲
StarX
MusicX
Lab是隸屬于昆侖萬維旗下的海外社交娛樂平臺(tái)StarX的AI音樂生成機(jī)構(gòu)。作為國(guó)內(nèi)文娛出海TOP3,StarX旗下音頻社交app
Starmaker擁有龐大的伴奏庫,供MusicX
Lab學(xué)習(xí),目前MusicX
Lab已發(fā)布五首AI創(chuàng)作歌曲。
昆侖萬維CEO方漢表示,StarX
MusicX
Lab能夠降低昆侖萬維業(yè)務(wù)成本,原本每款游戲的音樂成本在50萬元至100萬元之間,而通過AIGC該成本有望降為0。
艾瑞咨詢數(shù)據(jù)顯示,全球音視頻社交娛樂市場(chǎng)規(guī)模正急劇增長(zhǎng),從2016年的2730億元增至2020年的1.17萬億元,到2026年預(yù)計(jì)將達(dá)到2.95萬億元。StarX
MusicX
Lab推出AIGC歌曲資料:QQ音樂網(wǎng)頁版18AIGC海外企業(yè)匯總AIGC海外企業(yè)匯總企業(yè)類型應(yīng)用名稱企業(yè)名稱備注Stable
DiffusionDiscoDiffusionDALL-E2StableAIAccompliceOpenAI免費(fèi);支持文本生成圖像、圖像生成圖像兩種模式;生成速度快免費(fèi);需要通過Google
Colab生成,用戶界面有使用門檻風(fēng)格特點(diǎn)明顯AI繪畫(diffusion底層算法)MidJourneyPhotosonic
AIDeepDreamArtbreederMidJourneyWritesonicDeepDreamArtbreederReddit易于使用;社區(qū)生態(tài)良好;文檔詳盡,對(duì)開發(fā)者友好基于Stable
Diffusion的開源版本可以探索不同的
AI算法旨在成為一種新型的創(chuàng)意工具NightCafe用戶可以獲得所生成藝術(shù)作品的所有權(quán),也可以購(gòu)買作品的打印版本AI繪畫(非diffusion底層算法)基于Python的AI藝術(shù)生成器,需要通過Python編程語言生成,處理圖像需要時(shí)間和大量?jī)?nèi)存,可能無法在計(jì)算機(jī)上運(yùn)行腳本BigSleepBigSleepStarryAIStarryAIWombo可在移動(dòng)端使用WOMBO
Dream動(dòng)畫處理靜止的肖像用HTML5、Google
Analytics和jQuery等12項(xiàng)技術(shù)產(chǎn)品和服務(wù);最初功能是將黑白照片自動(dòng)上色為彩色DeepAIDeepAI19資料:PANews,
36氪,PR
Newsire,美通社,中信證券研究部AIGC海外企業(yè)匯總AIGC海外企業(yè)匯總企業(yè)類型應(yīng)用名稱企業(yè)名稱微軟、OpenAI、GitHubJasper備注可獲得基于人工智能的編碼建議;可使用用戶喜歡的環(huán)境;支持在不熟悉
溫馨提示
- 1. 本站所有資源如無特殊說明,都需要本地電腦安裝OFFICE2007和PDF閱讀器。圖紙軟件為CAD,CAXA,PROE,UG,SolidWorks等.壓縮文件請(qǐng)下載最新的WinRAR軟件解壓。
- 2. 本站的文檔不包含任何第三方提供的附件圖紙等,如果需要附件,請(qǐng)聯(lián)系上傳者。文件的所有權(quán)益歸上傳用戶所有。
- 3. 本站RAR壓縮包中若帶圖紙,網(wǎng)頁內(nèi)容里面會(huì)有圖紙預(yù)覽,若沒有圖紙預(yù)覽就沒有圖紙。
- 4. 未經(jīng)權(quán)益所有人同意不得將文件中的內(nèi)容挪作商業(yè)或盈利用途。
- 5. 人人文庫網(wǎng)僅提供信息存儲(chǔ)空間,僅對(duì)用戶上傳內(nèi)容的表現(xiàn)方式做保護(hù)處理,對(duì)用戶上傳分享的文檔內(nèi)容本身不做任何修改或編輯,并不能對(duì)任何下載內(nèi)容負(fù)責(zé)。
- 6. 下載文件中如有侵權(quán)或不適當(dāng)內(nèi)容,請(qǐng)與我們聯(lián)系,我們立即糾正。
- 7. 本站不保證下載資源的準(zhǔn)確性、安全性和完整性, 同時(shí)也不承擔(dān)用戶因使用這些下載資源對(duì)自己和他人造成任何形式的傷害或損失。
最新文檔
- 個(gè)人木材出售合同范例
- 公會(huì)平臺(tái)合作合同范例
- ococ奶茶合同范例
- 買別人公司合同范例
- 交易合同范本
- 2024-2025學(xué)年江蘇省南通市海安市高一上學(xué)期1月期末英語試題 (解析版)
- 租賃冷凍倉(cāng)合同范本
- 網(wǎng)絡(luò)技術(shù)開發(fā)合同范本
- 北京市房屋出租合同房屋
- 外匯借款協(xié)議書范文
- 2025中國(guó)遠(yuǎn)洋海運(yùn)集團(tuán)校園招聘1484人筆試參考題庫附帶答案詳解
- 2025年安徽商貿(mào)職業(yè)技術(shù)學(xué)院?jiǎn)握新殬I(yè)技能考試題庫一套
- 2025年皖西衛(wèi)生職業(yè)學(xué)院?jiǎn)握新殬I(yè)技能測(cè)試題庫審定版
- 2025年河南經(jīng)貿(mào)職業(yè)學(xué)院?jiǎn)握新殬I(yè)適應(yīng)性測(cè)試題庫帶答案
- unctad -全球投資趨勢(shì)監(jiān)測(cè) 第 48 期 Global Investment Trends Monitor,No. 48
- 2025年浙江機(jī)電職業(yè)技術(shù)學(xué)院高職單招職業(yè)技能測(cè)試近5年常考版參考題庫含答案解析
- GA/T 2145-2024法庭科學(xué)涉火案件物證檢驗(yàn)實(shí)驗(yàn)室建設(shè)技術(shù)規(guī)范
- 2025年聚焦全國(guó)兩會(huì)知識(shí)競(jìng)賽題庫及答案(共100題)
- 2024智能網(wǎng)聯(lián)汽車零部件行業(yè)研究報(bào)告-2025-01-智能網(wǎng)聯(lián)
- 2025年中國(guó)融通資產(chǎn)管理集團(tuán)限公司春季招聘(511人)高頻重點(diǎn)提升(共500題)附帶答案詳解
- 急性心肌梗死的急救與護(hù)理
評(píng)論
0/150
提交評(píng)論