銀河證券:“AI+”系列報告(機械篇):DeepSeek沖擊波:大腦平權(quán)催化具身智能_第1頁
銀河證券:“AI+”系列報告(機械篇):DeepSeek沖擊波:大腦平權(quán)催化具身智能_第2頁
銀河證券:“AI+”系列報告(機械篇):DeepSeek沖擊波:大腦平權(quán)催化具身智能_第3頁
銀河證券:“AI+”系列報告(機械篇):DeepSeek沖擊波:大腦平權(quán)催化具身智能_第4頁
銀河證券:“AI+”系列報告(機械篇):DeepSeek沖擊波:大腦平權(quán)催化具身智能_第5頁
已閱讀5頁,還剩20頁未讀 繼續(xù)免費閱讀

下載本文檔

版權(quán)說明:本文檔由用戶提供并上傳,收益歸屬內(nèi)容提供方,若內(nèi)容存在侵權(quán),請進行舉報或認領(lǐng)

文檔簡介

中國銀河證券|CGS—“AI+”系列報告(機械篇)機械行業(yè)首席分析師:魯佩研究助理:彭星嘉證券研究報告請務(wù)必閱讀正文最后的中國銀河證券股份有限公司免責聲明行業(yè)點評報告·機械設(shè)備行業(yè)“AI+”系列報告(機械篇)2025年2月21日技能庫幾乎不可能,因此泛化能力對于通用具身機器人十分關(guān)鍵,而大模型是提升機器人泛化能力的重要工具。1)感知層面,具身智能可以幫助機器人主動映射、主動定位、物體識別、交互感知,其中大模型能更好地處理語言、2D圖片、3D數(shù)據(jù)等多模態(tài)數(shù)據(jù);2)推理層面,具身智能能夠幫助機器人進行任務(wù)規(guī)劃、導(dǎo)航等,其中大模型可一定程度取代人工建模,理解各種人類文本命令,適應(yīng)新環(huán)境新物體新任務(wù),提高泛化能力;3)執(zhí)行層面,具身智能可幫助機器人技能學(xué)習(xí),使用大模型在真實場景數(shù)據(jù)上有較之前更好的泛化性?!穹謱佣说蕉藶楫斚轮髁鳎路妒匠掷m(xù)涌現(xiàn):具身智能模型按照算法可分為兩類,分層端到端模型和端到端模型。1)分層端到端一般分為三層:基礎(chǔ)大模("MPC+WBC"向“RL+仿真”轉(zhuǎn)變),對數(shù)據(jù)需求相對更少,在新任務(wù)學(xué)習(xí)上更有優(yōu)勢。2)端到端大模型,同時訓(xùn)練決策和操作,對數(shù)據(jù)和算力要求高,以谷歌RT-2為代表。目前被大多數(shù)本體廠商使用的是分層端到端模型,外接VLM大模型+自研操作小模型,例如Figure02接入OpenAIVLM,Apollo接入谷歌機器人大模型,樂聚“夸父”接入華為盤古大模型等。同時,模型的創(chuàng)新也在不斷涌現(xiàn)。Figure2月20日發(fā)布的具身智能大模型Helix可完成從原始像素和文本命令映射到連續(xù)動作;無需任何任務(wù)特定的微調(diào);將VLM主干與機器人視覺運動策略結(jié)合達到高速連續(xù)控制;實現(xiàn)全身控制和多機器人協(xié)作;在本地GPU運行。Helix大幅提升了人形機器人家用可能性?!馜eepSeek沖擊波:大腦平權(quán)催化具身智能:DeepSeek能夠提供開源優(yōu)質(zhì)的LLM(DeepSeekV3/R1)和VLM(DeepSeekVL2),有利于實現(xiàn)大腦平權(quán),并催化具身智能。1)DeepSeek讓一些受制于大模型閉源限制而難以承受從頭開發(fā)“大腦”的機器人企業(yè),能夠接入開源“大腦”,從而將更多資源投入到機器人“小腦”(操作小模型)開發(fā)中,縮小初創(chuàng)企業(yè)參與具身智能機器人研發(fā)制造的門檻,并緩解行業(yè)中操作小模型發(fā)展遲滯現(xiàn)狀。例如,在具身模型分層端到端架構(gòu)中,基礎(chǔ)大模型一般為LLM/VLM,DeepSeek可以給本體廠商提供開源、高性能且“低價”的選擇。2)DeepSeek會促進一些人形機器人初創(chuàng)公司開始自研真正適配具身智能機器人的大模型,激發(fā)行業(yè)創(chuàng)新,實現(xiàn)效果優(yōu)化。FigureHelix在其系統(tǒng)2部分內(nèi)置了一個開源的、開放權(quán)重的VLM,DeepSeek可以極具性價比地提供此類功能?!裢顿Y建議:我們認為,DeepSeek促進大腦平權(quán),驅(qū)動具身智能機器人研發(fā)進展和商業(yè)落地,行業(yè)量產(chǎn)有望加速,建議關(guān)注執(zhí)行器-三花智控/拓普集團/匯川技術(shù)/恒立液壓,減速器-綠的諧波/豐立智能,絲杠-恒立液壓/貝斯特/北特科技/五洲新春/震??萍?,靈巧手-鳴志電器/兆威機電,六維力傳感器-柯力傳感,觸覺傳感器-漢威科技/福萊新材等。相對滬深300表現(xiàn)圖2025-2-2180%——人形機器人指數(shù)漲跌幅一滬深300漲跌幅W●風險提示:產(chǎn)業(yè)政策及產(chǎn)業(yè)化不及預(yù)期的風險;Optimus進展不及預(yù)期的風險;國內(nèi)供應(yīng)商在特斯拉供應(yīng)鏈進展不及預(yù)期的風險;技術(shù)迭代的風險。22行業(yè)點評報告·機械設(shè)備行業(yè)一、大模型如何賦能具身智能機器人 4二、分層端到端為當下主流,新范式持續(xù)涌現(xiàn) 5三、DeepSeek沖擊波:大腦平權(quán)催化具身智能 10四、投資建議 五、風險提示 33根據(jù)中國計算機協(xié)會,具身智能是指一種基于物理身體進行感知和行動的智能系統(tǒng),其通過智能體與環(huán)境的交互獲取信息、理解問題、做出決策并實現(xiàn)行動,從而產(chǎn)生智能行為和適應(yīng)性。其實質(zhì)是強調(diào)有物理身體的智能體通過與物理環(huán)境進行交互而獲得智能的人工智能研究范式。具身智能可以劃分為感知、推理和執(zhí)行。在這三個過程中,大模型幫助機器人更好地感知環(huán)境、決策與規(guī)劃運動路徑并輸出運動指令。1)感知層面,具身智能可以幫助機器人主動映射(自主選擇下一步更利于觀察的視點進行環(huán)境探索)、主動定位(自主規(guī)劃路徑,盡量減輕機器人空間方向的模糊性)、物體識別(自主運動獲得單個物體的多視圖數(shù)據(jù))、交互感知(更好地進行語音情感感知及多模態(tài)情感感知)。其中多模態(tài)大模型能更好地處理語言、2D圖片、3D數(shù)據(jù)等多模態(tài)數(shù)據(jù)。2)推理層面,具身智能能夠幫助機器人進行任務(wù)規(guī)劃(將抽象的非可執(zhí)行人類指令轉(zhuǎn)換為具體的可執(zhí)行技能)、導(dǎo)航(基于計算機視覺理解環(huán)境信息,結(jié)合知識圖譜和強化學(xué)習(xí)策略,推斷目標對象可能位置并生成導(dǎo)航策略),在此過程中,用大模型將狀態(tài)信息描述成PDDL(規(guī)劃領(lǐng)域定義)語言再進行規(guī)劃,可一定程度取代以往需要人工針對實際問題書寫PDDL語言對任務(wù)進行建模。同時,通用執(zhí)行大模型能夠理解各種人類文本命令,適應(yīng)不同場景配置、物體位置和形狀,以及不同機器人的動作空間和操作模式,可以持續(xù)適應(yīng)新技能,提供更好的泛化能力,提高學(xué)習(xí)速度。3)執(zhí)行層面,具身智能能幫助機器人進行技能學(xué)習(xí)(以技能描述、環(huán)境觀察為輸入,輸出完成技能所需的軌跡),使用大模型壓縮大量數(shù)據(jù),實現(xiàn)一個比較好的擬合效果,在真實場景數(shù)據(jù)上有較之前更好的泛化性?,F(xiàn)實世界場景過于復(fù)雜,人工構(gòu)建完整的技能庫幾乎不可能,因此泛化能力對于通用具身機器人十分關(guān)鍵,而大模型是提升機器人泛化能力的重要工具。對比擴散小模型目前位置泛化或無泛化水平,大模型已經(jīng)有能力實現(xiàn)物品泛化,正朝著場景泛化和技能泛化發(fā)展。目前關(guān)于大模型的研究主要集中在空間感知(導(dǎo)航等)、決策計劃和運動規(guī)劃。大模型在運動規(guī)劃上仍難以較好勝任,主要是欠缺大量真實世界中機器人與人交互的高質(zhì)量數(shù)據(jù)。根據(jù)北京大學(xué)助理教授董豪的演講,以人腦6個區(qū)域功能為例,大模型目前已經(jīng)具備“枕葉”、“顳葉”、“頂葉”、“額葉”對于視聽觸嗅溫度和空間的感知能力,也具備一定決策計劃能力,但是尚不具備運動規(guī)劃能力,主要是由于供大模型訓(xùn)練的數(shù)據(jù)多是文本數(shù)據(jù),缺乏諸如靈巧手操作等真實物理世界中的機器人數(shù)據(jù)。4455聽覺決策計劃策和規(guī)劃(具身推理)庫API、關(guān)節(jié)旋轉(zhuǎn)角度等(具身執(zhí)行)環(huán)境智能體表達規(guī)劃感知感知大腦大模型作用視點進行環(huán)境探索)人空間方向的模糊性)圖數(shù)據(jù))模態(tài)情感感知)換為具體的可執(zhí)行技能)用大模型將狀態(tài)信息描述成PDDL(規(guī)劃領(lǐng)象可能位置并生成導(dǎo)航策略)用,大模型基于構(gòu)建的地圖或圖片轉(zhuǎn)換的文本描述輸出規(guī)劃)問答(機器人具有主動行動能力)輸出完成技能所需的軌跡)圖2:多模態(tài)大模型和擴散小模型在泛化能力上的對比執(zhí)行流暢度泛化能力多模態(tài)大模型較低(約60%-70%)不夠流暢物品泛化較高(可能90+%);美;美當前大模型按是否用于機器人等物理實體,可以劃分為非具身大模型和具身大模型。1)非具身大模型以ChatGPT、GPT-4V、Sora、GPT-40為代表,這類模型的主要特點是,輸入從單模態(tài)文本擴展到多模態(tài)的語音、圖像、視頻,其輸出也包括了文本、音頻、圖像、視頻等,面向人類,并不直接針對機器人領(lǐng)域,更多還是集中在人機交互、內(nèi)容生成等方面。2)具身型和機器人大模型為代表,核心特點對物理世界的感知或接收人非具身大模型具身大模型多模態(tài)圖文大模型多模態(tài)視頻生成大模型多模態(tài)交互大模型自動駕駛大模型實時視覺輸出臂/手/底盤動作資料來源:智元機器人,中國銀河證券研究院1)分層端到端模型,對數(shù)據(jù)的需求相對更少,在新任務(wù)學(xué)習(xí)上更有優(yōu)勢。分層端到端模型一般分為三層:基礎(chǔ)大模型、決策模型、操作模型。其中基礎(chǔ)大模型為LLM/VLM,負責提策大模型的輸出執(zhí)行具體動作,需要數(shù)據(jù)采集+與機器人硬件深度集成,技術(shù)方向從"MPC+WBC"(更適合具有精確模型和短期優(yōu)化目標的場景)向“RL+仿真”(更適用于不確定性高、需長期學(xué)習(xí)和自適應(yīng)的環(huán)境)演進。法”向“基于學(xué)習(xí)(模仿/強化)的控制方法”演進Tetepee資料來源:Figure宮網(wǎng),中國銀河證券研究院對一個預(yù)訓(xùn)練的VLM模型在機器人和網(wǎng)絡(luò)數(shù)據(jù)上進行共同微調(diào),生成的模型直接預(yù)于PaLM-E和PaLI-X視覺語言模型在語言創(chuàng)作圖,到單個對象與其它對象之間關(guān)系問題的回答),然后在機器人任務(wù)上微調(diào)。66請務(wù)必閱讀正文最后的中國銀河證券股份有限公司免責聲明。Co-Fine-Tune圖4:谷歌端到端大模型RT-2結(jié)構(gòu)資料來源:論文鏈接https://robotics-transformer2.github.io/assets/rt2.pdf,中國銀河證券研究院目前被大多數(shù)本體廠商使用的是分層端到端模型,也即VLM大模型+自研操作小模型,除了Figure02,1XTechnologies旗下NEO也接入OpenAI端到端視覺-語言(VLM)模型,Apptronik旗下Apollo接入谷歌機器人大模型,樂聚機器人“夸父”接入華為盤古具身智能大模型,優(yōu)必選walkerS和開普勒“先行者”接入百度文心一言大模型,星動紀元“小星”接入阿里通義千問和智譜清言大模型等。總結(jié)當前多數(shù)具身智能機器人模型特點為:1)在大量、多樣的數(shù)據(jù)上進行預(yù)訓(xùn)練,獲得一定泛化能力,然后在目標任務(wù)的高質(zhì)量數(shù)據(jù)上做微調(diào)去改善模型性能。2)在數(shù)據(jù)不足的時候,跨具身形態(tài)的訓(xùn)練能夠帶來具身形態(tài)之間的正向轉(zhuǎn)換。3)使用網(wǎng)絡(luò)數(shù)據(jù)訓(xùn)練出來的文本編碼+視頻編碼,能夠給機器人訓(xùn)練帶來很好的指令跟隨能力、世界知識、泛化性、遷移能力、語義推理能力。但其局限仍在于目前距離通用化還很遠,在沒見過的任務(wù)、物體、環(huán)境、動作和具身形態(tài)上還有待改進,在應(yīng)對長程(連續(xù)復(fù)雜)任務(wù)還存在不足。表2:部分具身智能模型簡介(Toll,pitchgaw,gripperstatus)、基座的的性能下降,且會提高在新加入任務(wù)的表現(xiàn)基于預(yù)訓(xùn)練LLM/VLM方案。上的微調(diào);輸入語言/動作/圖RT-2分為兩步:首先對VLMs在大規(guī)?;ヂ?lián)網(wǎng)請務(wù)必閱讀正文最后的中國銀河證券股份有限公司免責聲明請務(wù)必閱讀正文最后的中國銀河證券股份有限公司免責聲明。7關(guān)系問題的回答),然后在機器人任務(wù)上微調(diào)在RT-1/2基礎(chǔ)上+OpenX數(shù)據(jù)集上訓(xùn)練得到的((匯編了來自22個不同機器人系物品)結(jié)構(gòu)在同一個VLA中在RT-X基礎(chǔ)上的變化是:有些動作看上去不像,但是如果轉(zhuǎn)化的。RT-H在RT-X中間添加了一個語言模型,也即先通過語言模型預(yù)測出圖文結(jié)其實也就是直接輸出動作)于RT-H,只需要比較少的“糾正”,就能夠進行很基于預(yù)訓(xùn)練LLM/VLM方案。訓(xùn)練數(shù)據(jù)集更大更多元化,模中OpenVLA僅在語義上落后·是否能快速在指定任務(wù)上微調(diào):OpenVLA在比·OpenVLA探索了參數(shù)優(yōu)化及微調(diào)策略的效果,發(fā)現(xiàn)LoRA是最佳的在輸入端基于VLM,在輸出模型能夠?qū)W習(xí)到一致的高效的執(zhí)行策略。好統(tǒng)一所有的輸出柄讓機器狗走直線)·微調(diào)階段不需要使用大量數(shù)據(jù),比較高效力,也能夠提高機器人動作預(yù)測的能力8899未來新的數(shù)據(jù)收集方法、更高質(zhì)量的預(yù)訓(xùn)練數(shù)據(jù)構(gòu)成、更高效的訓(xùn)練方法、仿真環(huán)境和世界模型將是促進具身智能機器人大模型性能提升的方向。例如:銀河通用GraspVLA具身基礎(chǔ)模型。GraspVLA在預(yù)訓(xùn)練階段完全基于合成大數(shù)據(jù),訓(xùn)練數(shù)據(jù)量達到十億幀“視覺-語言-動作”對,是有史以來最大的數(shù)據(jù)體量,其在高度泛化、平面位置泛化、物體類別泛化、光照泛化、干擾物泛化、背景泛化、閉環(huán)能力上均表現(xiàn)優(yōu)秀。通過仿真數(shù)據(jù)緩解真實數(shù)據(jù)不足問題,縮短了產(chǎn)品部署時間,節(jié)約了資金人力投入,提高了時間效率,增強了大規(guī)模商用的可能性。少量真機基礎(chǔ)抓取模型泛化金標準機器人模型物體資產(chǎn)材質(zhì)資產(chǎn)合成大數(shù)據(jù)快速對齊新需求預(yù)訓(xùn)練后訓(xùn)練天量合成大數(shù)據(jù)自己具身智能大模型Helix,創(chuàng)新點如下:1)Helix使用一組神經(jīng)網(wǎng)絡(luò)權(quán)重來學(xué)習(xí)所有行為,比如抓取放置物品、開關(guān)抽屜和冰箱,無需任何任務(wù)特定的微調(diào)。2)先前方法中,VLM主干通用而速度不快,機器人視覺運動策略快速但不夠通用,Helix將二者進行了互補設(shè)計。系統(tǒng)2是一個開源的、開放權(quán)重的VLM。在互聯(lián)網(wǎng)規(guī)模數(shù)據(jù)上進行了預(yù)訓(xùn)練,接受圖像和狀態(tài)輸入,將所有語義任務(wù)相關(guān)信息傳遞給系統(tǒng)1。系統(tǒng)1是簡單的基于Transformer的視覺運動策略,接收與S2相同的圖像和狀態(tài)輸入,但以更高的頻率處理這些輸入,輸出完整的上半身人形控制。因為S2推理速度慢于S1,S1會在機器人觀察上以更高的時間分辨率運行,從而為反應(yīng)控制創(chuàng)建更緊密的反饋回路,實現(xiàn)S1和S2的聯(lián)合優(yōu)化。3)此前πO、RT系列等具身智能模型針對單臂機械臂或者輪式雙臂機器人,且手部以夾爪為主,復(fù)雜性低于真正的人形機器人。而Helix真正運行在人形機器人上,實現(xiàn)全身控制,覆蓋手腕、軀干、頭部和單個手指。中國銀河證券|CGS行業(yè)點評報告·機械設(shè)備行業(yè)4)一組Helix神經(jīng)網(wǎng)絡(luò)權(quán)重同時在兩個機器人上運行,實現(xiàn)了多機器人協(xié)作。5)Helix是史上第一個在本地GPU運行的機器人VLA(視覺-語言-動作)模型。Helix在物體泛化能力上表現(xiàn)優(yōu)秀,能夠僅通過自然語言命令,實現(xiàn)抓取放置形狀、大小、顏色和材料特性各異、訓(xùn)練中未曾見過的家居用品,增強了機器人落地家庭場景的可能性。其本地處理單目機器人圖像和機器人狀態(tài)信息(包括手腕姿態(tài)和手指位置)給系統(tǒng)1為反應(yīng)控制創(chuàng)建更緊密的系統(tǒng)1(低級控制,單獨的實時進程執(zhí)行):簡單的基于Transformer的視覺運動策略。接收與S2相同的圖像和狀態(tài)輸入,但以更高的頻率處理這些輸入,輸出完整的上半身人形控制,包括期望的手腕姿態(tài)、手指屈曲和外展控制,以及反饋回路,實現(xiàn)S1和S2的聯(lián)合優(yōu)化。資料來源:Figure官網(wǎng),機器之心公眾號,中國銀河證券研究院1)DeepSeek讓一些受制于大模型閉源限制而難以承受夠接入開源“大腦”,從而將更多資源集中到機器人“小腦”(操作小模型)開發(fā)中,縮小例如,在具身模型分層端到端架構(gòu)中,基礎(chǔ)大模型一般為LLM/VLM,DeepSeek可以一一定程度破局模型效果不佳、機器人落地使用數(shù)量不足導(dǎo)致有效數(shù)據(jù)缺乏二者之間的互相制衡。FigureHelix在其系統(tǒng)2部分內(nèi)置了一個開源的、開放權(quán)重的VLM,DeepSeek可以極具性價比地提供此類功能,從而促進更多企業(yè)研究真正適配機器人的端到端具身大模請務(wù)必閱讀正文最后的中國銀河證券股份有限公司免責聲明。我們認為,DeepSeek促進大腦平權(quán),驅(qū)動具身智能機器人研發(fā)進展和商業(yè)落地,行業(yè)量產(chǎn)有望加速,建議關(guān)注執(zhí)行器-三花智控/拓普集團/匯川技術(shù)/恒立液壓,減速器-綠的諧波/豐立智能,絲杠-恒立液壓/貝斯特/北特科技/五洲新春/震??萍?,靈巧手-鳴志電器/兆威機電,六維力傳感器-柯力傳感,觸覺傳感器-漢威科技/福萊新材等。1.人形機器人產(chǎn)業(yè)政策及產(chǎn)業(yè)化進度不及預(yù)期的風險。在產(chǎn)業(yè)初期,政策是驅(qū)動發(fā)展的重要力量,若后續(xù)產(chǎn)業(yè)配套政策不及預(yù)期,人形機器人行業(yè)進程可能放緩。此外,若初期商業(yè)化探索結(jié)果不及預(yù)期,也可能打壓行業(yè)參與者和投資機構(gòu)深耕熱情。2.特斯拉Optimus進展不及預(yù)期的風險。特斯拉是推動人形機器人產(chǎn)業(yè)從0-1、且引領(lǐng)量產(chǎn)節(jié)奏的關(guān)鍵,若Optimus進展不及預(yù)期,可能放大人們對產(chǎn)業(yè)發(fā)展的悲觀預(yù)期。3.國內(nèi)供應(yīng)商在特斯拉供應(yīng)鏈進展不及預(yù)期的風險。是否被特斯拉定點、定點結(jié)果等將對產(chǎn)業(yè)鏈公司未來發(fā)展?jié)摿Ξa(chǎn)生重要影響,若國內(nèi)供應(yīng)商在特斯拉供應(yīng)鏈進展不及預(yù)期,可能改變市場對其估值中樞。4.軟硬件技術(shù)迭代的風險。目前人形機器人軟硬件方案還未成熟,若新技術(shù)新方案帶來某些零部件被替代,則其對應(yīng)的增量市場空間也將萎縮。中國銀河證券|CGS行業(yè)點評報告·機械設(shè)備行業(yè)圖表目錄圖1:具身智能在人形機器人上的表現(xiàn) 5圖2:多模態(tài)大模型和擴散小模型在泛化能力上的對比 5圖3:Figure與OpenAI合作期間分層端到端模型示意圖 6圖4:谷歌端到端大模型RT-2結(jié)構(gòu) 7圖5:銀河通用GraspVLA具身基礎(chǔ)模型結(jié)構(gòu) 9圖6:Figure最新端到端具身智能大模型Helix 表1:典型大模型分類 6表2:部分具身智能模型簡介 7分析師承諾及簡介本人承諾以勤勉的執(zhí)業(yè)態(tài)度,獨立、客觀地出具本報告,本報告清晰準確地反映本人的研究觀點。本人薪酬的任何部分過去不曾與、現(xiàn)在不與、未來也將不會與本報告的具體推薦或觀點直接或間接相關(guān)。魯佩,機械首席分析師。倫敦政治經(jīng)濟學(xué)院經(jīng)濟學(xué)碩士,證券從業(yè)10年,2021年加入中國銀河證券研究院,曾獲新財富最佳分析師、IAMAC最受歡迎賣方分析師、萬得金牌分析師、中證報最佳分析師、Choice最佳分析師、金翼獎等。本報告由中國銀河證券股份有限公司(以下簡稱銀河證券)向其客戶提供。銀河證券無需因接收人收到本報告而視其為客戶。若您并非銀河證券客戶中的專業(yè)投資者,為保證服務(wù)質(zhì)量、控制投資風險、應(yīng)首先聯(lián)系銀河證券機構(gòu)銷售部門或客戶經(jīng)理,完成投資者適當性匹配,并充分了解該項服務(wù)的性質(zhì)、特點、使用的注意事項以及

溫馨提示

  • 1. 本站所有資源如無特殊說明,都需要本地電腦安裝OFFICE2007和PDF閱讀器。圖紙軟件為CAD,CAXA,PROE,UG,SolidWorks等.壓縮文件請下載最新的WinRAR軟件解壓。
  • 2. 本站的文檔不包含任何第三方提供的附件圖紙等,如果需要附件,請聯(lián)系上傳者。文件的所有權(quán)益歸上傳用戶所有。
  • 3. 本站RAR壓縮包中若帶圖紙,網(wǎng)頁內(nèi)容里面會有圖紙預(yù)覽,若沒有圖紙預(yù)覽就沒有圖紙。
  • 4. 未經(jīng)權(quán)益所有人同意不得將文件中的內(nèi)容挪作商業(yè)或盈利用途。
  • 5. 人人文庫網(wǎng)僅提供信息存儲空間,僅對用戶上傳內(nèi)容的表現(xiàn)方式做保護處理,對用戶上傳分享的文檔內(nèi)容本身不做任何修改或編輯,并不能對任何下載內(nèi)容負責。
  • 6. 下載文件中如有侵權(quán)或不適當內(nèi)容,請與我們聯(lián)系,我們立即糾正。
  • 7. 本站不保證下載資源的準確性、安全性和完整性, 同時也不承擔用戶因使用這些下載資源對自己和他人造成任何形式的傷害或損失。

最新文檔

評論

0/150

提交評論