版權(quán)說明:本文檔由用戶提供并上傳,收益歸屬內(nèi)容提供方,若內(nèi)容存在侵權(quán),請(qǐng)進(jìn)行舉報(bào)或認(rèn)領(lǐng)
文檔簡介
基于深度學(xué)習(xí)的RGB―D物體識(shí)別算法【摘要】本文結(jié)合RGB圖像和深度圖像,提出了一種新的基于深度學(xué)習(xí)的無監(jiān)督物體識(shí)別算法KSAE-SPMP。采用標(biāo)準(zhǔn)的RGB-D數(shù)據(jù)庫2D3D來驗(yàn)證新提出的算法。實(shí)驗(yàn)結(jié)果表明,與之前提出的基于RGB-D的物體識(shí)別算法相比,KSAE-SPMP算法取得了最高的識(shí)別準(zhǔn)確率,此算法能夠很好地完成RGB-D物體的識(shí)別?!娟P(guān)鍵詞】物體識(shí)別RGB-D圖像k稀疏自編碼空間金字塔最大池化Softmax分類器doi:10.3969/j.issn.1006-1010.2015.10.000中圖分類號(hào):TP391.4文獻(xiàn)標(biāo)識(shí)碼:A文章編號(hào):1006-1010(2015)10-0000-00[Abstract]CombinedwithRGBanddepthimages,anovelunsupervisedobjectrecognitionalgorithmKSAE-SPMPbasedondeeplearningwasputforward.AstandardRGB-Ddatabase2D3Dwasadoptedtoverifytheproposedalgorithm.ExperimentalresultsdemonstratedthatcomparedwithRGB-Dalgorithmbasedonobjectrecognitionproposedpreviously,KSAE-SPMPalgorithmhasthehighestaccurateidentificationrate,whichisabletocompletetheRGB-Dobjectrecognitioncommendably.[KeyWords]objectrecognitionRGB-DimageKsparseautoencodingspatialpyramidmaxpoolingSoftmaxclassifier1引言基于RGB圖像的物體識(shí)別從RGB圖像中提取顏色特征、紋理特征和輪廓特征等來識(shí)別物體?;谏疃葓D像的物體識(shí)別從深度圖像中提取物體的三維空間形狀等特征來識(shí)別物體。這2種物體識(shí)別方法都未能完全利用物體的可用特征信息,存在一定的局限性。RGB-D相機(jī)能同時(shí)記錄物體的高分辨率的RGB圖像和深度圖像。物體的深度信息和顏色信息對(duì)彼此都是一種有效的補(bǔ)充,結(jié)合RGB圖像和深度圖像,能夠有效地提高物體的識(shí)別準(zhǔn)確率。深度學(xué)習(xí)[1]是一種新興的多層神經(jīng)網(wǎng)絡(luò)學(xué)習(xí)算法。它通過組合低層特征形成更加抽象的高層表示,以發(fā)現(xiàn)數(shù)據(jù)的分布式特征表示。本文結(jié)合RGB圖像和深度圖像,提出了一種新的深度學(xué)習(xí)算法KSAE-SPMP來完成物體的識(shí)別。實(shí)驗(yàn)結(jié)果表明,與之前提出的基于RGB-D的物體識(shí)別算法相比,KSAE-SPMP算法取得了最高的識(shí)別準(zhǔn)確率,此算法能夠很好地完成RGB-D物體的識(shí)別。2相關(guān)的研究工作本文主要研究如何利用深度學(xué)習(xí)算法完成RGB-D的物體識(shí)別。在過去的幾年中,一些研究小組對(duì)如何從物體中無監(jiān)督地提取具有代表性的特征做了深入的研究,取得了一些極具價(jià)值的研究成果。(1)無監(jiān)督特征學(xué)習(xí)算法近年來,許多無監(jiān)督的從原始視覺圖像中提取特征的算法被提出。例如深度信念網(wǎng)絡(luò)[4]、去噪自編碼[5]、卷積神經(jīng)網(wǎng)絡(luò)[6]、K均值算法[7-8]、分層稀疏編碼[9]和分層匹配追蹤算法[3]等。這些無監(jiān)督的特征學(xué)習(xí)算法在多種識(shí)別工作中取得了優(yōu)異的成果。如手寫字體的識(shí)別、面部識(shí)別、物體識(shí)別、場景識(shí)別、動(dòng)作識(shí)別[15]和物體識(shí)別[16]等。然而,這些算法大多被應(yīng)用在二維圖像的處理上,如灰度圖像。本文同時(shí)使用RGB和深度圖像,提取到了更多樣性的特征,有效地提高了物體的識(shí)別準(zhǔn)確率。(2)基于RGB-D的深度學(xué)習(xí)算法新一代傳感技術(shù)RGB-D相機(jī)的出現(xiàn),推動(dòng)了物體識(shí)別技術(shù)的進(jìn)一步發(fā)展。RGB-D相機(jī)能夠同時(shí)記錄RGB圖像和深度圖像,RGB圖像包含物體的表面顏色信息和紋理信息,深度圖像包含物體的空間形狀信息,結(jié)合RGB圖像和深度圖像能有效地提高物體的識(shí)別準(zhǔn)確率。在過去的幾年里,許多基于RGB-D的物體識(shí)別深度學(xué)習(xí)算法被提出。Blum等人提出了卷積K均值描述符[7],在興趣點(diǎn)附近自動(dòng)地學(xué)習(xí)特征并最終將這些特征進(jìn)行融合。LiefengBo等人提出了分層匹配追蹤算法(HMP)[10],此算法利用稀疏編碼和空間金字塔最大池化(SPMP)無監(jiān)督地從原始RGB-D圖像中學(xué)習(xí)分層的特征。Socher等人結(jié)合卷積神經(jīng)網(wǎng)絡(luò)和遞歸神經(jīng)網(wǎng)絡(luò)提出了CNN-RNN深度學(xué)習(xí)算法[11],卷積神經(jīng)網(wǎng)絡(luò)層學(xué)習(xí)低維的平移不變性特征并作為RNN輸入,遞歸神經(jīng)網(wǎng)絡(luò)層學(xué)習(xí)高維抽象特征。本文在LiefengBo等人工作[10]的基礎(chǔ)上,結(jié)合改進(jìn)的k稀疏自編碼算法(k-SAE)和空間金字塔最大池化算法(SPMP),提出了新的無監(jiān)督的深度學(xué)習(xí)算法KSAE-SPMP,與之前的算法相比,此算法取得了更高的識(shí)別準(zhǔn)確率。(3)RGB-D數(shù)據(jù)庫自2010年RGB-D(Kinect款)相機(jī)誕生以來,一些研究小組采集并公布了若干RGB-D數(shù)據(jù)庫,為以后的研究工作奠定了堅(jiān)實(shí)的基礎(chǔ)。其中,比較具有代表性的有美國華盛頓大學(xué)計(jì)算機(jī)與科學(xué)工程系的KevinLai、LiefengBo聯(lián)合因特爾西雅圖實(shí)驗(yàn)室的XiaofengRen等人公布的RGB-D數(shù)據(jù)庫[12],馬克思?普朗克學(xué)會(huì)Browatzki等人公布的2D3D數(shù)據(jù)庫[13]等。本文采用2D3D數(shù)據(jù)校驗(yàn)算法的準(zhǔn)確性,2D3D數(shù)據(jù)庫包含14個(gè)類別,共計(jì)156個(gè)室內(nèi)常見的物體,每個(gè)類別包括10個(gè)左右的物體。每個(gè)物體包含36對(duì)RGB圖像和深度圖像,這些圖像是由物體放置在托盤上每旋轉(zhuǎn)20度拍攝一張而成。圖1展示了這些物體的一些代表性圖片:3特征提取與分類本文提出了KSAE-SPMP深度學(xué)習(xí)算法,用于基于RGB-D的物體識(shí)別。KSAE-SPMP算法共分為3個(gè)階段,即整個(gè)深度學(xué)習(xí)網(wǎng)絡(luò)分為3層:(1)使用k稀疏自編碼算法(k-SAE)[2]分別提取低維的顏色特征和形狀特征。(2)以階段1提取的低維特征作為輸入,使用空間金字塔最大池化算法(SPMP)[3]提取高維平移不變性特征。(3)合并顏色特征和形狀特征作為物體最終的特征,送入Softmax分類器進(jìn)行分類。3.1k稀疏自編碼算法提取低維特征自編碼算法是一種無監(jiān)督的特征學(xué)習(xí)算法。現(xiàn)在假設(shè)有1個(gè)無類別標(biāo)簽的樣本集{x(1),x(2),…,x(m)},其中x(i)∈Rn。自編碼算法通過反向傳播算法,期望輸出的目標(biāo)值等于輸入值,即x?(i)=x(i),這樣可以說隱層節(jié)點(diǎn)值y(i)是x(i)的另一種表示,即可作為輸入x(i)的特征。如果在隱層節(jié)點(diǎn)上加入稀疏性限制,可以發(fā)現(xiàn)原始輸入的一些有價(jià)值的數(shù)據(jù)結(jié)構(gòu)。稀疏性可以簡單地解釋如下:假設(shè)使用sigmoid函數(shù)作為神經(jīng)元的激活函數(shù),當(dāng)神經(jīng)元的輸出接近1時(shí),認(rèn)為它是被激活的,而輸出接近0時(shí),認(rèn)為它是被抑制的。當(dāng)隱層節(jié)點(diǎn)數(shù)目較多時(shí),希望大多數(shù)隱層節(jié)點(diǎn)處于抑制狀態(tài),以期發(fā)現(xiàn)輸入數(shù)據(jù)中的結(jié)構(gòu)。圖2是一個(gè)簡單的三層稀疏自編碼網(wǎng)絡(luò),輸入層、隱層和輸出層節(jié)點(diǎn)數(shù)分別為4、2和4。近年來的研究表明,通過鼓勵(lì)稀疏的方式學(xué)習(xí)到的特征在分類任務(wù)中通常有著優(yōu)異的表現(xiàn)。在典型的稀疏自編碼算法[14]中,使用公式(1)作為總體的代價(jià)函數(shù)。其中第1項(xiàng)為均方差項(xiàng),第2項(xiàng)為權(quán)重衰減項(xiàng),第3項(xiàng)為稀疏懲罰項(xiàng),用來控制隱層節(jié)點(diǎn)的稀疏性。通過反向誤差傳播來優(yōu)化參數(shù){W,b},迭代過若干次后,期望輸出x?(i)=x(i)。Makhzani等人提出了一種改進(jìn)的稀疏自編碼算法k稀疏自編碼[2]。k稀疏自編碼算法使用線性的激活函數(shù),在隱層節(jié)點(diǎn)中,每次選取最大的k個(gè)激活值,并將其他的所有激活值設(shè)置為0。誤差反向傳播的每次迭代中均如此設(shè)置,直至迭代完成。得到優(yōu)化后的參數(shù){W,b}后,對(duì)于輸入x(i),計(jì)算特征f=Wx+b并選取其中最大的αk個(gè)最大的激活作為最終的特征,其中α≥1,其它所有的激活值全部設(shè)置為0。k稀疏自編碼在手寫數(shù)字識(shí)別等領(lǐng)域取得了優(yōu)異的表現(xiàn)。本文使用k稀疏自編碼算法作為KSAE-SPMP深度學(xué)習(xí)網(wǎng)絡(luò)的第1層,分別從RGB圖像和深度圖像中提取物體的低維顏色特征和低維形狀特征。首先,將所有的圖片大小縮放至r×r,并從RGB圖像和深度圖像中分別隨機(jī)提取h個(gè)圖像塊,每個(gè)圖像塊的長和寬均為s。分別使用RGB和深度圖像塊作為輸入,訓(xùn)練2個(gè)k稀疏自編碼,一個(gè)用于提取RGB圖像特征,另一個(gè)用于提取深度圖像特征。訓(xùn)練完成后,分別使用這2個(gè)k稀疏自編碼作為映射函數(shù),從每張RGB和深度圖像中以卷積的方式逐像素提取顏色特征和形狀特征。假設(shè)k稀疏自編碼的隱層節(jié)點(diǎn)個(gè)數(shù)為q,則卷積后得到的顏色特征和形狀特征均為一個(gè)大小為t×t×q的三維矩陣,t=r?Cs+1。為降低特征的維度,對(duì)三維矩陣進(jìn)行了簡單的平均池化,將池化后的三維矩陣送入空間金字塔最大池化層,從低維特征中提取空間平移不變性特征。3.2空間金字塔最大池化算法提取高維特征空間金字塔最大池化(SPMP)[3]是一種有效地從低維特征中提取抽象的空間平移不變特征的算法。對(duì)于每一張RGB圖像和深度圖像來說,k稀疏自編碼層輸出的低維特征均為一個(gè)三維矩陣。圖3為空間金字塔最大池化的簡單描述,其中圖中每個(gè)點(diǎn)代表1個(gè)q維的向量。空間金字塔最大池化算法將所有的點(diǎn)劃分為d2個(gè)塊,其中d取不同的值。圖3中的4個(gè)子圖d的取值分別為1、2、3和4。假設(shè)每個(gè)塊C共包含p個(gè)點(diǎn),即共有p個(gè)q維向量,將其組合成1個(gè)大小為p×q維的矩陣。如公式(2)所示,對(duì)于矩陣的每一行,取最大的值作為最終的特征值,所以對(duì)于每個(gè)塊C,最終結(jié)果為1個(gè)q維的向量。對(duì)于每一張圖片,選取不同的d值后,假設(shè)圖片共被分為了r個(gè)塊。如圖3中選取d=1、2、3、4,此圖片共被劃分為了r=12+22+32+42=30個(gè)塊。對(duì)于每一個(gè)塊C,最終特征結(jié)果均為1個(gè)q維矩陣,所以每張圖片的最終特征為1個(gè)r×q維的向量。3.3Softmax分類器完成分類對(duì)于物體的每個(gè)樣本而言,RGB圖像和深度圖像經(jīng)過空間金字塔最大池化提取后的特征均為1個(gè)r×q維的向量,將這2個(gè)r×q維的向量合并為1個(gè)2×r×q維的向量,此向量為每個(gè)樣本最終的特征向量。分別提取每個(gè)樣本的特征向量,并將樣本分為訓(xùn)練樣本集和測試樣本集2個(gè)部分。Softmax分類器是深度學(xué)習(xí)領(lǐng)域一個(gè)常用的快速分類器,在手寫數(shù)字識(shí)別和物體識(shí)別等領(lǐng)域都取得了優(yōu)秀的分類結(jié)果。本文選擇Softmax分類器來測試KSAE-SPMP算法的準(zhǔn)確性。首先使用訓(xùn)練集對(duì)Softmax分類器進(jìn)行訓(xùn)練,然后使用測試樣本集作為輸入,得到最終的物體識(shí)別準(zhǔn)確率。4實(shí)驗(yàn)結(jié)果及分析為驗(yàn)證KSAE-SPMP算法的有效性,本文采用了馬克思?普朗克學(xué)會(huì)Browatzki等人公布的2D3D數(shù)據(jù)庫。2D3D數(shù)據(jù)庫包含14個(gè)類別,共計(jì)156個(gè)室內(nèi)常見的物體,每個(gè)類別包括10個(gè)左右的物體。每個(gè)物體包含36對(duì)RGB圖像和深度圖像,這些圖像是由物體放置在托盤上每旋轉(zhuǎn)20度拍攝1張而成。4.1實(shí)驗(yàn)過程為與先前提出的以2D3D數(shù)據(jù)庫[13]為測試數(shù)據(jù)集的方法進(jìn)行實(shí)驗(yàn)結(jié)果的對(duì)比,采用了與之相同的實(shí)驗(yàn)過程。每次實(shí)驗(yàn)中,隨機(jī)地將數(shù)據(jù)庫分為2個(gè)部分,一部分作為訓(xùn)練樣本,一部分作為測試樣本。分割規(guī)則為隨機(jī)地從每個(gè)類別中挑選出6個(gè)物體用于訓(xùn)練,剩余的物體用于測試。對(duì)于類別中物體個(gè)數(shù)小于6的樣本,隨機(jī)選取1個(gè)物體用于測試,剩余的物體用于訓(xùn)練,保證每個(gè)類別中至少有1個(gè)物體用于測試。對(duì)于每個(gè)物體,選取其中角度均勻分布的18張圖片用于訓(xùn)練或者測試。最終的訓(xùn)練樣本包含82個(gè)物體,共計(jì)1476張圖片,測試樣本包含74個(gè)物體,1332張圖片。整個(gè)實(shí)驗(yàn)重復(fù)30次,每次隨機(jī)分割數(shù)據(jù)庫,最終的實(shí)驗(yàn)結(jié)果取30次實(shí)驗(yàn)結(jié)果的平均值。數(shù)據(jù)庫分割完成后,首先將所有的圖片大小重置為194×194,然后從訓(xùn)練樣本中的RGB圖像和深度圖像中分別隨機(jī)提取300000個(gè)大小為10×10的圖像塊,并用這些圖片塊作為k稀疏自編碼算法的輸入,完成k稀疏自編碼算法的訓(xùn)練。k稀疏自編碼算法的隱層節(jié)點(diǎn)個(gè)數(shù)為300,k的值選擇25。完成訓(xùn)練后,以卷積的方式逐像素地從每張圖片中提取特征。每張RGB圖片和深度圖片的特征均為1個(gè)300×185×185的三維矩陣。分別對(duì)這些三維矩陣進(jìn)行簡單的平均池化,池化滑動(dòng)窗口大小為10×10,步長為5。池化后的特征為300×36×36的三維矩陣。對(duì)每個(gè)三維矩陣進(jìn)行空間金字塔最大池化,選取d分別為1、2、3、4,每張RGB圖像和深度圖像的最終特征均為30×300=9000維的向量。將每個(gè)樣本從RGB圖像和深度圖像中提取的特征進(jìn)行合并,得到最終的特征,特征最終的維度為18000。提取完所有樣本的特征后,使用訓(xùn)練樣本集訓(xùn)練Softmax分類器,使用測試樣本集得到最終的物體識(shí)別準(zhǔn)確率。4.2實(shí)驗(yàn)結(jié)果對(duì)比在本文之前,已經(jīng)有學(xué)者提出了一些深度學(xué)習(xí)算法用于2D3D數(shù)據(jù)庫中物體的識(shí)別。表1列出了本文以及之前的一些算法所取得的物體識(shí)別的準(zhǔn)確率。2D3D數(shù)據(jù)庫的作者Browatzki等人采用手動(dòng)的特征提取算法[13],識(shí)別準(zhǔn)確率較低。LiefengBo等人采用分層匹配追蹤深度學(xué)習(xí)算法[10],識(shí)別結(jié)果得到明顯提高。新提出的算法KSAE-SPMP的識(shí)別準(zhǔn)確率與之前最好的結(jié)果相比[10]提高了1.4%,獲得了最高的識(shí)別準(zhǔn)確率。另外,RGB圖像和深度圖像特征結(jié)合時(shí)取得的識(shí)別準(zhǔn)確率明顯高于單獨(dú)使用RGB圖像或者深度圖像,這說明KSAE-SPMP算法能高效地完成多分類RGB-D物體的識(shí)別。5結(jié)束語本文采用RGB-D數(shù)據(jù)庫,結(jié)合物體的顏色信息和深度信息,提出了一種新的無監(jiān)督深度學(xué)習(xí)算法KSAE-SPMP來完成物體的識(shí)別。實(shí)驗(yàn)結(jié)果表明,與單獨(dú)使用RGB圖像和深度圖像相比,結(jié)合RGB圖像特征和深度圖像特征能有效提高物體識(shí)別的準(zhǔn)確率。KSAE-SPMP算法學(xué)習(xí)到了極具代表性的特征,在標(biāo)準(zhǔn)的RGB-D數(shù)據(jù)庫2D3D上,與之前的工作相比,KSAE-SPMP算法取得了更高的物體識(shí)別準(zhǔn)確率。KSAE-SPMP算法能高效地完成多分類物體的識(shí)別。參考文獻(xiàn):[1]孫志軍,薛磊,許陽明,等.深度學(xué)習(xí)研究綜述[J].計(jì)算機(jī)應(yīng)用研究,2012,29(8):2806-2810.[2]MakhzaniA,F(xiàn)reyB.k-SparseAutoencoders[J].arXivpreprintarXiv,2013:1312-5663.[3]BoL,RenX,F(xiàn)oxD.HierarchicalMatchingPursuitforImageClassification:ArchitectureandFastAlgorithms[J].NIPS,2011,1(2):6-6.[4]HintonGE,OsinderoS,TehYW.Afastlearningalgorithmfordeepbeliefnets[J].Neuralcomputation,2006,18(7):1527-1554.[5]VincentP,LarochelleH,BengioY,etal.Extractingandcomposingrobustfeatureswithdenoisingautoencoders[C].Proceedingsofthe25thinternationalconferenceonmachinelearning,ACM,2008:1096-1103.[6]LeeH,GrosseR,RanganathR,etal.Convolutionaldeepbeliefnetworksforscalableunsupervisedlearningofhierarchicalrepresentations[C].Proceedingsofthe26thAnnualInternationalConferenceonMachineLearning,ACM,2009:609-616.[7]BlumM,SpringenbergJT,WulfingJ,etal.Alearnedfeaturedescriptorforobjectrecognitioninrgb-ddata[C].RoboticsandAutomation(ICRA),2012IEEEInternationalConferenceonIEEE,2012:1298-1303.[8]CoatesA,NgAY.Theimportanceofencodingversustrainingwithsparsecodingandvectorquantization[C].Proceedingsofthe28thInternationalConferenceonMachineLearning(ICML-11),2011:921-928.[9]YuK,LinY,LaffertyJ.Learningimagerepresentationsfromthepixellevelviahierarchicalsparsecoding[C].ComputerVisionandPatternRecognition(CVPR),2011IEEEConferenceonIEEE,2011:1713-1720.[10]BoL,RenX,F(xiàn)oxD.UnsupervisedfeaturelearningforRGB-Dbasedobjectrecognition[C].ExperimentalRobotics,SpringerInternationalPublishing,2013:387-402.[11]SocherR,HuvalB,BathBP,etal.Convolutional-RecursiveDeepLearningfor3DObjectClassification[C].NIPS,2012:665-673.[12]LaiK,BoL,RenX,etal.Al
溫馨提示
- 1. 本站所有資源如無特殊說明,都需要本地電腦安裝OFFICE2007和PDF閱讀器。圖紙軟件為CAD,CAXA,PROE,UG,SolidWorks等.壓縮文件請(qǐng)下載最新的WinRAR軟件解壓。
- 2. 本站的文檔不包含任何第三方提供的附件圖紙等,如果需要附件,請(qǐng)聯(lián)系上傳者。文件的所有權(quán)益歸上傳用戶所有。
- 3. 本站RAR壓縮包中若帶圖紙,網(wǎng)頁內(nèi)容里面會(huì)有圖紙預(yù)覽,若沒有圖紙預(yù)覽就沒有圖紙。
- 4. 未經(jīng)權(quán)益所有人同意不得將文件中的內(nèi)容挪作商業(yè)或盈利用途。
- 5. 人人文庫網(wǎng)僅提供信息存儲(chǔ)空間,僅對(duì)用戶上傳內(nèi)容的表現(xiàn)方式做保護(hù)處理,對(duì)用戶上傳分享的文檔內(nèi)容本身不做任何修改或編輯,并不能對(duì)任何下載內(nèi)容負(fù)責(zé)。
- 6. 下載文件中如有侵權(quán)或不適當(dāng)內(nèi)容,請(qǐng)與我們聯(lián)系,我們立即糾正。
- 7. 本站不保證下載資源的準(zhǔn)確性、安全性和完整性, 同時(shí)也不承擔(dān)用戶因使用這些下載資源對(duì)自己和他人造成任何形式的傷害或損失。
最新文檔
- 2025-2030全球手工巧克力行業(yè)調(diào)研及趨勢分析報(bào)告
- 2025年全球及中國天麻素制劑行業(yè)頭部企業(yè)市場占有率及排名調(diào)研報(bào)告
- 2025年全球及中國三氟化銪行業(yè)頭部企業(yè)市場占有率及排名調(diào)研報(bào)告
- 2025年全球及中國臺(tái)式化學(xué)發(fā)光免疫分析儀行業(yè)頭部企業(yè)市場占有率及排名調(diào)研報(bào)告
- 2025-2030全球棱鏡膠帶片行業(yè)調(diào)研及趨勢分析報(bào)告
- 2025年全球及中國十六硫醇行業(yè)頭部企業(yè)市場占有率及排名調(diào)研報(bào)告
- 2025-2030全球波紋型空氣彈簧行業(yè)調(diào)研及趨勢分析報(bào)告
- 2025年全球及中國高分辨率掃描電子顯微鏡(SEM)行業(yè)頭部企業(yè)市場占有率及排名調(diào)研報(bào)告
- 2025-2030全球紫外熔融石英平凸(PCX)透鏡行業(yè)調(diào)研及趨勢分析報(bào)告
- 2025-2030全球建筑垃圾分類設(shè)備行業(yè)調(diào)研及趨勢分析報(bào)告
- 課題申報(bào)參考:流視角下社區(qū)生活圈的適老化評(píng)價(jià)與空間優(yōu)化研究-以沈陽市為例
- 《openEuler操作系統(tǒng)》考試復(fù)習(xí)題庫(含答案)
- 項(xiàng)目重點(diǎn)難點(diǎn)分析及解決措施
- 挑戰(zhàn)杯-申報(bào)書范本
- 北師大版五年級(jí)上冊(cè)數(shù)學(xué)期末測試卷及答案共5套
- 2024-2025學(xué)年人教版生物八年級(jí)上冊(cè)期末綜合測試卷
- 2025年九省聯(lián)考新高考 語文試卷(含答案解析)
- 第1課《春》公開課一等獎(jiǎng)創(chuàng)新教案設(shè)計(jì) 統(tǒng)編版語文七年級(jí)上冊(cè)
- 全過程工程咨詢投標(biāo)方案(技術(shù)方案)
- 心理健康教育學(xué)情分析報(bào)告
- 安宮牛黃丸的培訓(xùn)
評(píng)論
0/150
提交評(píng)論