版權(quán)說明:本文檔由用戶提供并上傳,收益歸屬內(nèi)容提供方,若內(nèi)容存在侵權(quán),請(qǐng)進(jìn)行舉報(bào)或認(rèn)領(lǐng)
文檔簡(jiǎn)介
內(nèi)容為AI生成,可能不準(zhǔn)確,請(qǐng)謹(jǐn)慎參考深入探索:深度學(xué)習(xí)在時(shí)間序列預(yù)測(cè)中的強(qiáng)大應(yīng)用與實(shí)現(xiàn)回答深度學(xué)習(xí)在時(shí)間序列預(yù)測(cè)中的應(yīng)用已經(jīng)取得了顯著的進(jìn)展,并且在多個(gè)領(lǐng)域展現(xiàn)了其強(qiáng)大的能力。以下是對(duì)深度學(xué)習(xí)在時(shí)間序列預(yù)測(cè)中應(yīng)用的深入探索:1.多變量時(shí)間序列預(yù)測(cè)多變量時(shí)間序列預(yù)測(cè)是許多領(lǐng)域的重要問題,包括太陽能發(fā)電、電力消耗和交通擁堵情況等[1]。傳統(tǒng)的自回歸模型和高斯過程在處理這類問題時(shí)可能失敗,因?yàn)樗鼈儫o法捕捉到時(shí)間序列中的長期和短期模式。LSTNet(Long-andShort-termTime-seriesnetwork)通過結(jié)合卷積神經(jīng)網(wǎng)絡(luò)(CNN)和循環(huán)神經(jīng)網(wǎng)絡(luò)(RNN),能夠有效地提取短期局部依賴模式和長期趨勢(shì),從而顯著提高了預(yù)測(cè)性能。2.深度時(shí)間索引模型深度學(xué)習(xí)在時(shí)間序列預(yù)測(cè)中的應(yīng)用已經(jīng)非常廣泛,但傳統(tǒng)的深度時(shí)間索引模型由于缺乏歸納偏差,難以泛化到未見過的時(shí)間步。DeepTime提出了一種元優(yōu)化框架,用于學(xué)習(xí)深度時(shí)間索引模型,克服了這些限制,實(shí)現(xiàn)了高效且準(zhǔn)確的預(yù)測(cè)[2]。3.可解釋的深度神經(jīng)網(wǎng)絡(luò)CNN深度神經(jīng)網(wǎng)絡(luò)不僅可以用于多變量時(shí)間序列數(shù)據(jù)的預(yù)測(cè),還可以用于解釋這些預(yù)測(cè)結(jié)果[3]。通過設(shè)計(jì)特定的卷積核大小和梯度技術(shù),可以生成時(shí)間維度和特征的顯著性圖,從而解釋哪些特征在特定時(shí)間間隔內(nèi)對(duì)預(yù)測(cè)結(jié)果最為重要。4.多步預(yù)測(cè)與注意力機(jī)制多步時(shí)間序列預(yù)測(cè)是一個(gè)重要的研究方向,特別是在需要預(yù)測(cè)未來多個(gè)時(shí)間點(diǎn)的情況下。TemporalAttentionLearning提出了一種端到端的深度學(xué)習(xí)框架,通過時(shí)間注意力機(jī)制來捕捉歷史數(shù)據(jù)中的潛在模式,從而實(shí)現(xiàn)多步預(yù)測(cè)[5]。5.深度學(xué)習(xí)架構(gòu)的選擇盡管深度學(xué)習(xí)在時(shí)間序列預(yù)測(cè)中表現(xiàn)出色,但選擇合適的深度神經(jīng)網(wǎng)絡(luò)類型和參數(shù)配置仍然是一個(gè)復(fù)雜任務(wù)。實(shí)驗(yàn)研究表明,長短期記憶網(wǎng)絡(luò)(LSTM)和卷積網(wǎng)絡(luò)(CNN)是最佳選擇,其中LSTM在準(zhǔn)確性上表現(xiàn)更優(yōu)[6]。6.不確定性量化時(shí)間序列預(yù)測(cè)不僅需要準(zhǔn)確的點(diǎn)估計(jì),還需要對(duì)預(yù)測(cè)結(jié)果的不確定性進(jìn)行量化。MOrdReD提出了一種基于記憶的序回歸深度神經(jīng)網(wǎng)絡(luò),不僅提供了優(yōu)秀的預(yù)測(cè)性能,還能準(zhǔn)確量化預(yù)測(cè)不確定性[7]。7.稀疏深度學(xué)習(xí)稀疏深度學(xué)習(xí)在不確定性量化、變量選擇和大規(guī)模網(wǎng)絡(luò)壓縮方面表現(xiàn)出色。研究表明,稀疏RNN可以在適當(dāng)假設(shè)下一致估計(jì),并且其預(yù)測(cè)結(jié)果漸近正態(tài)分布,從而能夠正確量化預(yù)測(cè)不確定性[9]。8.自動(dòng)化深度學(xué)習(xí)自動(dòng)化深度學(xué)習(xí)(AutoDL)在時(shí)間序列預(yù)測(cè)中的應(yīng)用也取得了顯著進(jìn)展。通過聯(lián)合優(yōu)化神經(jīng)網(wǎng)絡(luò)架構(gòu)和超參數(shù),可以顯著提高預(yù)測(cè)性能[19]。9.實(shí)際應(yīng)用案例在金融時(shí)間序列預(yù)測(cè)中,SDAE-LSTM模型利用堆疊去噪自編碼器從基本行情數(shù)據(jù)和技術(shù)指標(biāo)中提取特征,并通過LSTM神經(jīng)網(wǎng)絡(luò)進(jìn)行長期依賴特性分析,顯著提高了預(yù)測(cè)精度[14]。10.未來展望深度學(xué)習(xí)在時(shí)間序列預(yù)測(cè)中的應(yīng)用前景廣闊,但仍面臨許多挑戰(zhàn),如模型復(fù)雜性、計(jì)算效率和可解釋性等。未來的研究應(yīng)繼續(xù)探索新的深度學(xué)習(xí)架構(gòu)和優(yōu)化方法,以進(jìn)一步提高預(yù)測(cè)性能和應(yīng)用范圍[4]。深度學(xué)習(xí)在時(shí)間序列預(yù)測(cè)中的應(yīng)用已經(jīng)取得了顯著的成果,并且在多個(gè)領(lǐng)域展現(xiàn)了其強(qiáng)大的能力。隨著研究的深入,深度學(xué)習(xí)在時(shí)間序列預(yù)測(cè)中的應(yīng)用將更加廣泛和深入。深度學(xué)習(xí)在多變量時(shí)間序列預(yù)測(cè)中的最新進(jìn)展是什么?深度學(xué)習(xí)在多變量時(shí)間序列預(yù)測(cè)中的最新進(jìn)展主要體現(xiàn)在以下幾個(gè)方面:多變量卷積神經(jīng)網(wǎng)絡(luò)(MVCNN):MVCNN是一種針對(duì)多變量時(shí)間序列分類的深度學(xué)習(xí)架構(gòu),它考慮了多變量和滯后特征特性,通過張量方案和新穎的深度學(xué)習(xí)架構(gòu)實(shí)現(xiàn)了對(duì)時(shí)間序列數(shù)據(jù)的有效分類[31]?;旌仙疃葘W(xué)習(xí)模型:這些模型結(jié)合了統(tǒng)計(jì)模型和神經(jīng)網(wǎng)絡(luò)組件,以提高單一類別方法的性能。這種混合方法在處理時(shí)間序列數(shù)據(jù)時(shí),能夠更好地整合不同時(shí)間尺度的信息,從而提高預(yù)測(cè)的準(zhǔn)確性[32]。多級(jí)構(gòu)念神經(jīng)網(wǎng)絡(luò)(MLCNN):MLCNN通過融合不同未來時(shí)間的預(yù)測(cè)信息來改善預(yù)測(cè)性能,這種方法利用卷積神經(jīng)網(wǎng)絡(luò)提取多層次的抽象表示,并通過修改的編碼器-解碼器架構(gòu)模擬多個(gè)預(yù)測(cè)任務(wù)之間的相互作用[33]。多變量時(shí)序卷積網(wǎng)絡(luò)(M-TCN):M-TCN模型通過構(gòu)建序列到序列的場(chǎng)景來處理非周期性數(shù)據(jù)集,使用多通道殘差塊和基于深度卷積神經(jīng)網(wǎng)絡(luò)的不對(duì)稱結(jié)構(gòu),顯著提高了預(yù)測(cè)精度和模型的魯棒性[34]。漸進(jìn)式神經(jīng)網(wǎng)絡(luò)(ProNet):ProNet是一種新穎的深度學(xué)習(xí)方法,它結(jié)合了自回歸(AR)和非自回歸(NAR)策略,通過變分推斷捕獲時(shí)間步的重要性,從而在預(yù)測(cè)速度和準(zhǔn)確性上都顯示出優(yōu)越性[35]。Transformer模型:雖然最初是為機(jī)器翻譯任務(wù)設(shè)計(jì)的,但Transformer模型因其高效的并行處理能力和較少的訓(xùn)練時(shí)間而被廣泛應(yīng)用于多種任務(wù)中,包括時(shí)間序列預(yù)測(cè)。它的成功表明,基于注意力機(jī)制的模型可以有效地處理序列數(shù)據(jù)[36]。分解-重構(gòu)-集成框架:這種方法首先使用變分模態(tài)分解(VMD)將原始時(shí)間序列分解為多個(gè)子信號(hào),然后使用卷積神經(jīng)網(wǎng)絡(luò)學(xué)習(xí)這些子信號(hào)的重構(gòu)模式,最后使用長短期記憶網(wǎng)絡(luò)進(jìn)行時(shí)間序列預(yù)測(cè)。這種方法在預(yù)測(cè)精度上表現(xiàn)出色[37]?;谧匝莼A(yù)訓(xùn)練的多變量時(shí)間序列預(yù)測(cè)算法(SEPNets):SEPNets通過預(yù)訓(xùn)練和模型融合再訓(xùn)練的方式,不僅提升了整體預(yù)測(cè)性能,還保證了局部變量的預(yù)測(cè)精度[38]。改進(jìn)型BP神經(jīng)網(wǎng)絡(luò):這種方法通過對(duì)多變量時(shí)序數(shù)據(jù)建模,有效減少了訓(xùn)練時(shí)間并提高了數(shù)據(jù)預(yù)測(cè)的精度[39]。DeepTime元優(yōu)化框架在深度時(shí)間索引模型中的具體應(yīng)用和效果如何?問題中提到的“DeepTime元優(yōu)化框架”在深度時(shí)間索引模型中的具體應(yīng)用和效果,根據(jù)我搜索到的資料,似乎沒有直接提及“DeepTime元優(yōu)化框架”。因此,無法直接從我搜索到的資料中得出關(guān)于“DeepTime元優(yōu)化框架”的具體應(yīng)用和效果的信息。然而,我們可以從相關(guān)的深度學(xué)習(xí)技術(shù)和模型中推測(cè)一些可能的應(yīng)用場(chǎng)景和效果。例如,從BERT模型的描述中可以看出,深度雙向Transformer模型能夠通過預(yù)訓(xùn)練深度雙向表示來處理自然語言處理任務(wù)[42]。這種模型的雙向特性可能與時(shí)間索引模型有關(guān),因?yàn)樗婕暗綄?duì)文本中左右上下文的聯(lián)合條件,這可能類似于時(shí)間序列數(shù)據(jù)中對(duì)過去和未來的依賴。此外,從殘差網(wǎng)絡(luò)(ResNet)的描述中可以看出,深度殘差網(wǎng)絡(luò)通過引入殘差學(xué)習(xí)框架來簡(jiǎn)化深層網(wǎng)絡(luò)的訓(xùn)練,并顯著提高了圖像識(shí)別任務(wù)的準(zhǔn)確性[40]。這種技術(shù)可能在時(shí)間索引模型中也有應(yīng)用,特別是在處理需要深層表示的任務(wù)時(shí)。如何通過CNN深度神經(jīng)網(wǎng)絡(luò)解釋時(shí)間序列預(yù)測(cè)結(jié)果的顯著性?通過CNN深度神經(jīng)網(wǎng)絡(luò)解釋時(shí)間序列預(yù)測(cè)結(jié)果的顯著性,首先需要理解CNN在時(shí)間序列預(yù)測(cè)中的應(yīng)用原理和優(yōu)勢(shì)。CNN通過其卷積層能夠自動(dòng)提取時(shí)間序列數(shù)據(jù)的特征,這些特征對(duì)于預(yù)測(cè)未來值至關(guān)重要。此外,結(jié)合RNN或LSTM等循環(huán)神經(jīng)網(wǎng)絡(luò),可以進(jìn)一步捕捉時(shí)間序列數(shù)據(jù)中的長期依賴關(guān)系[44]。為了提高模型的可解釋性,可以采用殘差網(wǎng)絡(luò)和基于梯度的方法,如Grad-CAM、IntegratedGradients等[45]。具體到如何解釋顯著性,可以通過以下步驟進(jìn)行:特征提取與融合:首先,利用CNN對(duì)每個(gè)時(shí)間序列進(jìn)行特征提取,然后將這些特征融合起來。這一步驟可以通過在CNN后接RNN或LSTM來實(shí)現(xiàn),以捕捉時(shí)間序列數(shù)據(jù)中的動(dòng)態(tài)變化和長期依賴性[44]。模型訓(xùn)練與優(yōu)化:在模型訓(xùn)練過程中,可以引入注意力機(jī)制,以增強(qiáng)模型對(duì)重要特征的關(guān)注能力。這種方法不僅可以提高預(yù)測(cè)精度,還可以通過注意力權(quán)重的可視化,幫助理解哪些特征對(duì)預(yù)測(cè)結(jié)果影響最大[50]。可解釋性技術(shù)的應(yīng)用:為了提高模型的可解釋性,可以采用Grad-CAM、IntegratedGradients等基于梯度的方法。這些方法可以幫助識(shí)別和可視化對(duì)預(yù)測(cè)結(jié)果影響最大的變量和時(shí)間滯后[45]。此外,通過可視化深層網(wǎng)絡(luò)中間層和輸出層,也可以提高模型的可解釋性[53]。模型集成與信息論學(xué)習(xí):為了進(jìn)一步提高預(yù)測(cè)精度和模型的魯棒性,可以考慮使用模型集成方法,并結(jié)合信息論學(xué)習(xí)方法。這不僅可以處理非高斯噪聲等復(fù)雜環(huán)境的影響,還可以改進(jìn)預(yù)測(cè)模型自身的不足[51]。雙通道框架的應(yīng)用:為了同時(shí)考慮時(shí)間序列數(shù)據(jù)的深層特征和長序列依賴特征,可以采用雙通道框架。這種框架結(jié)合了卷積神經(jīng)網(wǎng)絡(luò)和循環(huán)神經(jīng)網(wǎng)絡(luò),能夠提取出時(shí)間序列的深層特征和長序列依賴特征,從而提高整體測(cè)試集上的預(yù)測(cè)精度[49]。TemporalAttentionLearning在多步時(shí)間序列預(yù)測(cè)中的實(shí)現(xiàn)細(xì)節(jié)和性能表現(xiàn)如何?TemporalAttentionLearning在多步時(shí)間序列預(yù)測(cè)中的實(shí)現(xiàn)細(xì)節(jié)和性能表現(xiàn)可以從多個(gè)角度進(jìn)行分析。首先,TemporalAttentionLearning通過引入注意力機(jī)制來增強(qiáng)模型對(duì)時(shí)間序列數(shù)據(jù)中重要信息的捕捉能力,這對(duì)于提高預(yù)測(cè)的準(zhǔn)確性和效率至關(guān)重要。在實(shí)現(xiàn)細(xì)節(jié)方面,TemporalAttentionLearning通常結(jié)合了卷積神經(jīng)網(wǎng)絡(luò)(CNN)和循環(huán)神經(jīng)網(wǎng)絡(luò)(RNN)等深度學(xué)習(xí)技術(shù)。例如,多變量時(shí)間序列預(yù)測(cè)模型MTCAN采用了基于自注意力機(jī)制的卷積神經(jīng)網(wǎng)絡(luò),使用一維擴(kuò)張卷積作為基本單元構(gòu)建非對(duì)稱塊,通過自注意力機(jī)制進(jìn)行特征提取,以獲得預(yù)測(cè)結(jié)果[55]。此外,TemporalAttentionUnit(TAU)提出了將時(shí)間注意力分解為幀內(nèi)靜態(tài)注意力和幀間動(dòng)態(tài)注意力的方法,以實(shí)現(xiàn)高效的時(shí)空預(yù)測(cè)學(xué)習(xí)[59]。在性能表現(xiàn)方面,TemporalAttentionLearning在多個(gè)領(lǐng)域的時(shí)間序列預(yù)測(cè)任務(wù)中表現(xiàn)出色。例如,在金融時(shí)間序列數(shù)據(jù)分析中,結(jié)合雙線性投影和注意力機(jī)制的網(wǎng)絡(luò)架構(gòu)顯著提高了預(yù)測(cè)的準(zhǔn)確性和可解釋性[57]。在交通軌跡預(yù)測(cè)中,基于時(shí)間模式注意力的TP2Net模型在5秒預(yù)測(cè)范圍內(nèi)的預(yù)測(cè)性能比之前的最佳方法提高了15%[56]。此外,基于Encoder-Decoder框架及注意力機(jī)制的多變量多步時(shí)序預(yù)測(cè)研究顯示,所提出的DualMNet和STT模型在多個(gè)數(shù)據(jù)集上比對(duì)比方法具有更好的預(yù)測(cè)性能[58]。總結(jié)來說,TemporalAttentionLearning通過引入注意力機(jī)制,有效地提高了多步時(shí)間序列預(yù)測(cè)的準(zhǔn)確性和效率。自動(dòng)化深度學(xué)習(xí)(AutoDL)在時(shí)間序列預(yù)測(cè)中的最新研究成果有哪些?自動(dòng)化深度學(xué)習(xí)(AutoDL)在時(shí)間序列預(yù)測(cè)中的最新研究成果主要集中在以下幾個(gè)方面:自動(dòng)化的模型選擇和超參數(shù)優(yōu)化:研究者們利用自動(dòng)機(jī)器學(xué)習(xí)(AutoML)技術(shù)來自動(dòng)化深度神經(jīng)網(wǎng)絡(luò)(DNN)模型的選擇和超參數(shù)的優(yōu)化過程,以提高時(shí)間序列趨勢(shì)預(yù)測(cè)的性能和穩(wěn)定性。例如,HpBandSter框架被用于自動(dòng)化DNN模型開發(fā),通過AutoML實(shí)驗(yàn)找到了在四個(gè)數(shù)據(jù)集上與手動(dòng)實(shí)驗(yàn)中發(fā)現(xiàn)的配置相比具有競(jìng)爭(zhēng)力的最優(yōu)配置[64]。多目標(biāo)模型選擇:AutoXPCR方法提出了一種新的自動(dòng)化和可解釋的多目標(biāo)模型選擇方法,該方法利用元學(xué)習(xí)估計(jì)任何模型在預(yù)測(cè)誤差、復(fù)雜性和資源需求(PCR)標(biāo)準(zhǔn)上的性能。這種方法在超過1000種配置和114個(gè)數(shù)據(jù)集上部署,顯示出比其他模型選擇方法更優(yōu)越的性能,平均僅需20%的計(jì)算成本就能推薦出具有90%最佳可能質(zhì)量的模型[65]。AutoML工具的比較分析:對(duì)AutoGluon、Auto-Sklearn和PyCaret等三個(gè)主要AutoML工具進(jìn)行了評(píng)估,這些工具在不同的數(shù)據(jù)集上表現(xiàn)出了不同的性能,強(qiáng)調(diào)了數(shù)據(jù)集特定考慮在時(shí)間序列分析中的重要性。這項(xiàng)研究不僅展示了每個(gè)AutoML工具的優(yōu)勢(shì)和局限性,還突出了在時(shí)間序列預(yù)測(cè)和分析中應(yīng)用AutoML工具時(shí)需要持續(xù)研究和開發(fā)的重要性[67]?;谶z傳算法的優(yōu)化階段:提出了一種聚合時(shí)間序列預(yù)測(cè)模型的AutoML方法,并特別關(guān)注使用遺傳算法加速超參數(shù)搜索的優(yōu)化階段。結(jié)果表明,所提出的AutoML模型超過了最近的時(shí)間序列預(yù)測(cè)基準(zhǔn)[68]。小樣本時(shí)間序列預(yù)測(cè):為了解決時(shí)間序列預(yù)測(cè)中的小樣本問題,提出了一種基于注意力機(jī)制并融合時(shí)間卷積網(wǎng)絡(luò)與長短期記憶網(wǎng)絡(luò)的數(shù)據(jù)增強(qiáng)網(wǎng)絡(luò)(ATCLSTM-TimeGAN)。這種方法通過在TimeGAN中加入Soft-Attention機(jī)制來解決動(dòng)態(tài)信息丟失的問題,有效地降低了小樣本下的預(yù)測(cè)誤差[70]。多變量時(shí)間序列預(yù)測(cè)算法:研究了多變量時(shí)間序列預(yù)測(cè)算法的局部變量預(yù)測(cè)精度問題,并設(shè)計(jì)實(shí)現(xiàn)了一種基于自演化預(yù)訓(xùn)練的多變量時(shí)間序列預(yù)測(cè)算法SEPNets。該算法在獲得相對(duì)最高的預(yù)測(cè)精度的同時(shí)保障了局部變量的預(yù)測(cè)精度,在各性能指標(biāo)上優(yōu)于現(xiàn)有的多變量時(shí)間序列預(yù)測(cè)算法[71]。腦圖相關(guān)事件事件名稱事件時(shí)間事件概述類型深度學(xué)習(xí)與時(shí)間序列預(yù)測(cè)的融合發(fā)展2020-10-12深度學(xué)習(xí)技術(shù)與時(shí)間序列傳統(tǒng)模型結(jié)合,通過估計(jì)全局模型參數(shù)實(shí)現(xiàn)局部建模方法的實(shí)質(zhì)性改進(jìn)。技術(shù)進(jìn)步基于深度學(xué)習(xí)的時(shí)間序列預(yù)測(cè)方法提出不明確近年來提出了多種基于深度學(xué)習(xí)的時(shí)間序列預(yù)測(cè)方法,包括深度狀態(tài)空間模型(DSSM)、深度自回歸模型(DeepAR)和Transformer模型。技術(shù)創(chuàng)新GluonTS時(shí)間序列預(yù)測(cè)框架的應(yīng)用不明確使用GluonTS時(shí)間序列預(yù)測(cè)框架對(duì)上海市出口額數(shù)據(jù)進(jìn)行預(yù)測(cè),并評(píng)估了其效果。實(shí)際應(yīng)用案例基于深度學(xué)習(xí)的時(shí)間序列分析方法綜述2019-01-25綜述了基于深度學(xué)習(xí)的時(shí)間序列分析方法,包括最新的預(yù)測(cè)、分類以及異常檢測(cè)等任務(wù)的方法。技術(shù)總結(jié)與展望參考文獻(xiàn)1.GuokunLai,Wei-ChengChangetal.“ModelingLong-andShort-TermTemporalPatternswithDeepNeuralNetworks.”The41stInternationalACMSIGIRConferenceonResearch&DevelopmentinInformationRetrieval(2017).2.GeraldWoo,ChenghaoLiuetal.“LearningDeepTime-indexModelsforTimeSeriesForecasting.”InternationalConferenceonMachineLearning(2022).3.R.Assaf,AnikaSchumann.“ExplainableDeepNeuralNetworksforMultivariateTimeSeriesPredictions.”InternationalJointConferenceonArtificialIntelligence(2019).4.ZhongyangHan,JunZhaoetal.“AReviewofDeepLearningModelsforTimeSeriesPrediction.”IEEESensorsJournal(2019).5.ChenyouFan,YuzeZhangetal.“Multi-HorizonTimeSeriesForecastingwithTemporalAttentionLearning.”Proceedingsofthe25thACMSIGKDDInternationalConferenceonKnowledgeDiscovery&DataMining(2019).6.PedroLara-Benítez,ManuelCarranza-Garcíaetal.“AnExperimentalReviewonDeepLearningArchitecturesforTimeSeriesForecasting.”Internationaljournalofneuralsystems(2020).7.BernardoPérezOrozco,G.Abbatietal.“MOrdReD:Memory-basedOrdinalRegressionDeepNeuralNetworksforTimeSeriesForecasting.”ArXiv(2018).8.J.F.Torres,D.Hadjoutetal.“DeepLearningforTimeSeriesForecasting:ASurvey.”Bigdata(2020).9.MingxuanZhang,Y.Sunetal.“SparseDeepLearningforTimeSeriesData:TheoryandApplications.”ArXiv(2023).10.GisselVelarde.“ForecastingwithDeepLearning.”ArXiv(2023).11.鹿天柱,錢曉超,何舒等.一種基于深度學(xué)習(xí)的時(shí)間序列預(yù)測(cè)方法[J].控制與決策,2021.12.YunyaoCheng,ChenjuanGuoetal.“APatternDiscoveryApproachtoMultivariateTimeSeriesForecasting.”ArXiv(2022).13.李兆璽,劉紅巖.融合全局和序列特征的多變量時(shí)間序列預(yù)測(cè)方法[J].計(jì)算機(jī)學(xué)報(bào),2023.14.黃婷婷,余磊.SDAE-LSTM模型在金融時(shí)間序列預(yù)測(cè)中的應(yīng)用[J].計(jì)算機(jī)工程與應(yīng)用,2018.15.KonstantinosBenidis,SyamaSundarRangapurametal.“DeepLearningforTimeSeriesForecasting:TutorialandLiteratureSurvey.”ACMComputingSurveys(2020).16.GeraldWoo,ChenghaoLiuetal.“DeepTIMe:DeepTime-IndexMeta-LearningforNon-StationaryTime-SeriesForecasting.”ArXiv(2022).17.楊祎玥,伏潛,萬定生.基于深度循環(huán)神經(jīng)網(wǎng)絡(luò)的時(shí)間序列預(yù)測(cè)模型[J].計(jì)算機(jī)技術(shù)與發(fā)展,2017.18.閆洪舉.基于深度學(xué)習(xí)的金融時(shí)間序列數(shù)據(jù)集成預(yù)測(cè)[J].統(tǒng)計(jì)與信息論壇,2020.19.DifanDeng,FlorianKarletal.“EfficientAutomatedDeepLearningforTimeSeriesForecasting.”ECML/PKDD(2022).20.李文,鄧升,段妍等.時(shí)間序列預(yù)測(cè)與深度學(xué)習(xí):文獻(xiàn)綜述與應(yīng)用實(shí)例[J].計(jì)算機(jī)應(yīng)用與軟件,2020.21.劉博,王明爍,李永等.深度學(xué)習(xí)在時(shí)空序列預(yù)測(cè)中的應(yīng)用綜述[J].北京工業(yè)大學(xué)學(xué)報(bào),2021.22.嚴(yán)明明.基于深度學(xué)習(xí)的復(fù)雜時(shí)間序列預(yù)測(cè)模型研究[D].華中科技大學(xué),2020.23.王鑫,吳際,劉超等.基于LSTM循環(huán)神經(jīng)網(wǎng)絡(luò)的故障時(shí)間序列預(yù)測(cè)[J].北京航空航天大學(xué)學(xué)報(bào),2017.24.沈旭東.基于深度學(xué)習(xí)的時(shí)間序列算法綜述[J].信息技術(shù)與信息化,2019.25.AngeloCasolaro,VincenzoCaponeetal.“DeepLearningforTimeSeriesForecasting:AdvancesandOpenProblems.”Inf.(2023).26.A.Dingli,KarlSantFournier.“FinancialTimeSeriesForecasting–ADeepLearningApproach.”InternationalJournalofMachineLearningandComputing(2017).27.DozdarMahdiAhmed,M.Hassanetal.“AReviewonDeepSequentialModelsforForecastingTimeSeriesData.”Appl.Comput.Intell.SoftComput.(2022).28.何正義,曾憲華,曲省衛(wèi)等.基于集成深度學(xué)習(xí)的時(shí)間序列預(yù)測(cè)模型[J].山東大學(xué)學(xué)報(bào)(工學(xué)版),2016.29.潘志松,黎維.基于深度學(xué)習(xí)的時(shí)空序列預(yù)測(cè)方法綜述[J].數(shù)據(jù)采集與處理,2021.30.陳建婷.一種基于深度學(xué)習(xí)的數(shù)據(jù)預(yù)測(cè)方法[J].電子技術(shù)與軟件工程,2019.31.Chien-LiangLiu,W.Hsaioetal.“TimeSeriesClassificationWithMultivariateConvolutionalNeuralNetwork.”IEEETransactionsonIndustrialElectronics(2019).32.BryanLim,S.Zohren.“Time-seriesforecastingwithdeeplearning:asurvey.”PhilosophicalTransactionsoftheRoyalSocietyA(2020).33.JiezhuCheng,KaizhuHuangetal.“TowardsBetterForecastingbyFusingNearandDistantFutureVisions.”ArXiv(2019).34.RenzhuoWan,S.Meietal.“MultivariateTemporalConvolutionalNetwork:ADeepNeuralNetworksApproachforMultivariateTimeSeriesForecasting.”Electronics(2019).35.YangLin.“ProNet:ProgressiveNeuralNetworkforMulti-HorizonTimeSeriesForecasting.”ArXiv(2023).36.AshishVaswani,NoamM.Shazeeretal.“AttentionisAllyouNeed.”NeuralInformationProcessingSystems(2017).37.GuoweiZhang,TaoRenetal.“ANewUnifiedDeepLearningApproachwithDecomposition-Reconstruction-EnsembleFrameworkforTimeSeriesForecasting.”ArXiv(2020).38.萬晨,李文中,丁望祥等.一種基于自演化預(yù)訓(xùn)練的多變量時(shí)間序列預(yù)測(cè)算法[J].計(jì)算機(jī)學(xué)報(bào),2022.39.陳建婷.基于改進(jìn)型BP神經(jīng)網(wǎng)絡(luò)的多變量時(shí)序預(yù)測(cè)方法[J].電子技術(shù)與軟件工程,2019.40.KaimingHe,X.Zhangetal.“DeepResidualLearningforImageRecognition.”2016IEEEConferenceonComputerVisionandPatternRecognition(CVPR)(2015).41.SeppHochreiter,J.Schmidhuber.“LongShort-TermMemory.”NeuralComputation(1997).42.JacobDevlin,Ming-WeiChangetal.“BERT:Pre-trainingofDeepBidirectionalTransformersforLanguageUnderstanding.”NorthAmericanChapteroftheAssociationforComputationalLinguistics(2019).43.NitishSrivastava,GeoffreyE.Hintonetal.“Dropout:asimplewaytopreventneuralnetworksfromoverfitting.”J.Mach.Learn.Res.(2014).44.Razvan-GabrielCirstea,Darius-ValerMicuetal.“CorrelatedTimeSeriesForecastingusingDeepNeuralNetworks:ASummaryofResults.”ArXiv(2018).45.HyojungChoi,ChanhwiJungetal.“ExplainableTime-SeriesPredictionUsingaResidualNetworkandGradient-BasedMethods.”IEEEAccess(2022).46.AmaduFullahKamara.基于深度學(xué)習(xí)的時(shí)間序列分類和預(yù)測(cè)研究[D].中國科學(xué)技術(shù)大學(xué),2020.47.華南理工大學(xué).基于深度學(xué)習(xí)的時(shí)序預(yù)測(cè)和分類[D].華南理工大學(xué),2020.48.鹿天柱.基于深度學(xué)習(xí)的時(shí)間序列預(yù)測(cè)與分類方法[D].華南理工大學(xué),2019.49.吳雙雙.基于深度神經(jīng)網(wǎng)絡(luò)的時(shí)間序列預(yù)測(cè)技術(shù)研究[D].南京理工大學(xué),2017.50.李梅,寧德軍,郭佳程.基于注意力機(jī)制的CNN-LSTM模型及其應(yīng)用[J].計(jì)算機(jī)工程與應(yīng)用,2019.51.權(quán)鉦杰.基于深度神經(jīng)網(wǎng)絡(luò)集成和信息論學(xué)習(xí)的時(shí)間序列預(yù)測(cè)[D].浙江大學(xué),2019.52.ChristianSzegedy,WeiLiuetal.“Goingdeeperwithconvolutions.”2015IEEEConferenceonComputerVisionandPatternRecognition(CVPR)(2014).53.衣玉林.基于深度網(wǎng)絡(luò)的時(shí)間序列預(yù)測(cè)及其可解釋性研究[D].北京郵電大學(xué),2021.54.DzmitryBahdanau,KyunghyunChoetal.“NeuralMachineTranslationbyJointlyLearningtoAlignandTranslate.”CoRR(2014).55.RenzhuoWan,ChengdeTianetal.“AMultivariateTemporalConvolutionalAttentionNetworkforTime-SeriesForecasting.”Electronics(2022).56.HongyuHu,QiWangetal.“TrajectoryPredictionNeuralNetworkandModelInterpretationBasedonTemporalPatternAttention.”IEEETransactionsonIntelligentTransportationSystems(2023).57.D.Tran,AlexandrosIosifidisetal.“TemporalAttention-AugmentedBilinearNetworkforFinancialTime-SeriesDataAnalysis.”IEEETransactionsonNeuralNetworksandLearningSystems(2017).58.南京航空航天大學(xué).基于Encoder-Decoder框架及注意力機(jī)制的多變量多步時(shí)序預(yù)測(cè)研究[D].南京航空航天大學(xué),2022.59.ChengTan,ZhangyangGaoetal.“TemporalAttentionUnit:TowardsEfficientSpatiotemporalPredictiveLearning.”2023IEEE/CVFConferenceonComputerVisionandPatternR
溫馨提示
- 1. 本站所有資源如無特殊說明,都需要本地電腦安裝OFFICE2007和PDF閱讀器。圖紙軟件為CAD,CAXA,PROE,UG,SolidWorks等.壓縮文件請(qǐng)下載最新的WinRAR軟件解壓。
- 2. 本站的文檔不包含任何第三方提供的附件圖紙等,如果需要附件,請(qǐng)聯(lián)系上傳者。文件的所有權(quán)益歸上傳用戶所有。
- 3. 本站RAR壓縮包中若帶圖紙,網(wǎng)頁內(nèi)容里面會(huì)有圖紙預(yù)覽,若沒有圖紙預(yù)覽就沒有圖紙。
- 4. 未經(jīng)權(quán)益所有人同意不得將文件中的內(nèi)容挪作商業(yè)或盈利用途。
- 5. 人人文庫網(wǎng)僅提供信息存儲(chǔ)空間,僅對(duì)用戶上傳內(nèi)容的表現(xiàn)方式做保護(hù)處理,對(duì)用戶上傳分享的文檔內(nèi)容本身不做任何修改或編輯,并不能對(duì)任何下載內(nèi)容負(fù)責(zé)。
- 6. 下載文件中如有侵權(quán)或不適當(dāng)內(nèi)容,請(qǐng)與我們聯(lián)系,我們立即糾正。
- 7. 本站不保證下載資源的準(zhǔn)確性、安全性和完整性, 同時(shí)也不承擔(dān)用戶因使用這些下載資源對(duì)自己和他人造成任何形式的傷害或損失。
最新文檔
- 三叉神經(jīng)痛中醫(yī)診療方案
- 嬰兒浴盆便攜式相關(guān)項(xiàng)目實(shí)施方案
- 汽車票訂購系統(tǒng)課程設(shè)計(jì)
- 燒烤兒童畫課程設(shè)計(jì)
- 橢圓的簡(jiǎn)單幾何性質(zhì)微課設(shè)計(jì)方案
- 2024-2030年全球及中國醫(yī)護(hù)人員行業(yè)市場(chǎng)現(xiàn)狀供需分析及市場(chǎng)深度研究發(fā)展前景及規(guī)劃可行性分析研究報(bào)告
- 2024-2030年全球及中國創(chuàng)新計(jì)劃管理軟件行業(yè)市場(chǎng)現(xiàn)狀供需分析及市場(chǎng)深度研究發(fā)展前景及規(guī)劃可行性分析研究報(bào)告
- 2024-2030年全球及中國供應(yīng)鏈與物流中的人工智能行業(yè)市場(chǎng)現(xiàn)狀供需分析及市場(chǎng)深度研究發(fā)展前景及規(guī)劃可行性分析研究報(bào)告
- 2024-2030年全球及中國Web內(nèi)容管理行業(yè)市場(chǎng)現(xiàn)狀供需分析及市場(chǎng)深度研究發(fā)展前景及規(guī)劃可行性分析研究報(bào)告
- 2024-2030年全球與中國自動(dòng)薄餅機(jī)市場(chǎng)營銷策略及銷售前景預(yù)測(cè)研究報(bào)告
- 高考作文模擬寫作:名校畢業(yè)生賣豬肉賣米粉是否屬于人才浪費(fèi)
- 皮質(zhì)醇增多癥
- 通信的知識(shí)-家長進(jìn)課堂課件
- H3C交換機(jī)基本配置及網(wǎng)絡(luò)維護(hù)培訓(xùn)課件
- 4M變化點(diǎn)管理優(yōu)秀課件
- 學(xué)校安全工作匯報(bào)課件
- 測(cè)量管理體系-內(nèi)審員培訓(xùn)材料
- 少林十八羅漢掌
- Linux系統(tǒng)管理項(xiàng)目教程(RHEL8CentOS8)(楊云 微課版)- 隨堂練習(xí)及答案匯總 作業(yè)1-6
- DLT 1055-2021 火力發(fā)電廠汽輪機(jī)技術(shù)監(jiān)督導(dǎo)則
- 中國民族樂器之古琴-完整版課件
評(píng)論
0/150
提交評(píng)論