




版權(quán)說明:本文檔由用戶提供并上傳,收益歸屬內(nèi)容提供方,若內(nèi)容存在侵權(quán),請進(jìn)行舉報或認(rèn)領(lǐng)
文檔簡介
Transformer李宏毅
Hung-yiLeeBERTTransformerSeq2seqmodelwith“Self-attention”SequenceHardtoparallel!
PreviouslayerNextlayer
UsingCNNtoreplaceRNN………………SequenceHardtoparallel
PreviouslayerNextlayer
(CNNcanparallel)……
FiltersinhigherlayercanconsiderlongersequenceUsingCNNtoreplaceRNNSelf-Attention
Self-AttentionLayer
YoucantrytoreplaceanythingthathasbeendonebyRNNwithself-attention.
Self-attention
/abs/1706.03762Attentionisallyouneed.
ScaledDot-ProductAttention:Self-attention
dotproduct
拿每個queryq去對每個keyk
做attention
Self-attention
Soft-max
Self-attention
Consideringthewholesequence
Self-attention
拿每個queryq去對每個keyk
做attention
Self-attention
Self-AttentionLayer
Self-attention
=
=
=
Self-attention
Self-attention
Self-attention
=
Self-attention反正就是一堆矩陣乘法,用GPU可以加速=
=
=
=
=
Multi-headSelf-attention
(2headsasexample)
Multi-headSelf-attention
(2headsasexample)
Multi-headSelf-attention
(2headsasexample)
=
PositionalEncoding
+
100…………i-thdim
+=
sourceofimage:http://jalammar.github.io/illustrated-transformer/
+=
-11Seq2seqwithAttention
Encoder
Decoder
Review:/watch?v=ZjfjPzXw6og&feature=youtu.be
Self-AttentionLayerSelf-AttentionLayer/2017/08/transformer-novel-neural-network.htmlTransformerEncoderDecoderUsingChinesetoEnglishtranslationasexample機(jī)器學(xué)習(xí)<BOS>machinemachinelearning…Transformer
+
Masked:attendonthegeneratedsequenceattendontheinputsequence/abs/1607.06450BatchSize
/watch?v=BZh1ltr5RkgLayerNorm:BatchNorm:LayerNormLayerBatchAttentionVisualization/abs/1706.03762AttentionVisualizationTheencoderself-attentiondistributionfortheword“it”fromthe5thtothe6thlayerofaTransformertrainedonEnglishtoFrenchtranslation(oneofeightattentionheads)./2017/08/transformer-novel-neural-network.htmlMulti-headAttentionExampleApplicationIfyoucanuseseq2seq,youcan
溫馨提示
- 1. 本站所有資源如無特殊說明,都需要本地電腦安裝OFFICE2007和PDF閱讀器。圖紙軟件為CAD,CAXA,PROE,UG,SolidWorks等.壓縮文件請下載最新的WinRAR軟件解壓。
- 2. 本站的文檔不包含任何第三方提供的附件圖紙等,如果需要附件,請聯(lián)系上傳者。文件的所有權(quán)益歸上傳用戶所有。
- 3. 本站RAR壓縮包中若帶圖紙,網(wǎng)頁內(nèi)容里面會有圖紙預(yù)覽,若沒有圖紙預(yù)覽就沒有圖紙。
- 4. 未經(jīng)權(quán)益所有人同意不得將文件中的內(nèi)容挪作商業(yè)或盈利用途。
- 5. 人人文庫網(wǎng)僅提供信息存儲空間,僅對用戶上傳內(nèi)容的表現(xiàn)方式做保護(hù)處理,對用戶上傳分享的文檔內(nèi)容本身不做任何修改或編輯,并不能對任何下載內(nèi)容負(fù)責(zé)。
- 6. 下載文件中如有侵權(quán)或不適當(dāng)內(nèi)容,請與我們聯(lián)系,我們立即糾正。
- 7. 本站不保證下載資源的準(zhǔn)確性、安全性和完整性, 同時也不承擔(dān)用戶因使用這些下載資源對自己和他人造成任何形式的傷害或損失。
最新文檔
- 2025年車輛抵押貸款信保業(yè)務(wù)借款協(xié)議
- 三年級下冊數(shù)學(xué)教案-第五單元長方形的面積∣北師大版
- 2025年工作室網(wǎng)站合同
- 行業(yè)培訓(xùn)外包合同(2篇)
- (高清版)DB45∕T 227-2022 地理標(biāo)志產(chǎn)品 廣西肉桂
- 2011年全國各地高考生物試題分章匯編
- 任務(wù)二 高效地下載信息 教學(xué)設(shè)計(jì) -2023-2024學(xué)年桂科版初中信息技術(shù)七年級上冊
- 第十一課 智能家居教學(xué)設(shè)計(jì) -2023-2024學(xué)年青島版(2019)初中信息技術(shù)第四冊
- 第八單元(A卷基礎(chǔ)篇)三年級語文下冊單元分層訓(xùn)練AB卷(部編版)
- 第六單元-平移、旋轉(zhuǎn)和軸對稱(單元測試)-蘇教版數(shù)學(xué)三年級上冊(含解析)
- 2024義務(wù)教育道德與法治課程標(biāo)準(zhǔn)(2022版)
- 2024年新人教版化學(xué)九年級上冊全冊課件(新版教材)
- 智能體脂秤市場洞察報告
- 教科版 二年級科學(xué)上冊第一單元第6課《不同的季節(jié)》同步練習(xí)(附答案解析)
- 山東省東營市2024年中考英語真題【附真題答案】
- 2024義務(wù)教育英語新課標(biāo)課程標(biāo)準(zhǔn)2022年版考試真題附答案
- 粵港澳宜居城市建設(shè)協(xié)同發(fā)展策略
- 動物防疫服務(wù)投標(biāo)方案(技術(shù)方案)
- 2024年新課標(biāo)全國Ⅰ卷語文高考真題試卷(含答案)
- 2022-2023學(xué)年廣州市六年級下學(xué)期數(shù)學(xué)期末考試試卷及答案解析
- 設(shè)備維護(hù)服務(wù)方案(2篇)
評論
0/150
提交評論