Русские видео

Сейчас в тренде

Иностранные видео




Если кнопки скачивания не загрузились НАЖМИТЕ ЗДЕСЬ или обновите страницу
Если возникают проблемы со скачиванием, пожалуйста напишите в поддержку по адресу внизу страницы.
Спасибо за использование сервиса savevideohd.ru



RNN模型与NLP应用(9/9):Self-Attention (自注意力机制)

下节课 Transformer:    • Transformer模型(1/2): 剥离RNN,保留Attention   这节课介绍Self-Attention (自注意力机制)。Self-Attention也叫做intra-attention,与Attention非常类似。但是Self-Attention不局限于Seq2Seq模型,可以用在任何RNN上。实验证明Self-Attention对多种机器学习和自然语言处理的任务都有帮助。Transformer模型的主要原理就是Attention和Self-Attention。 课件:https://github.com/wangshusen/DeepLea... 相关视频: 1. 数据处理:    • RNN模型与NLP应用(1/9):数据处理基础   2. 词嵌入:   • RNN模型与NLP应用(2/9):文本处理与词嵌入   3. Simple RNN:   • RNN模型与NLP应用(3/9):Simple RNN模型   4. LSTM:    • RNN模型与NLP应用(4/9):LSTM模型   5.RNN的改进:    • RNN模型与NLP应用(5/9):多层RNN、双向RNN、预训练   6. 文本生成:   • RNN模型与NLP应用(6/9):Text Generation (自动文...   7. 机器翻译:   • RNN模型与NLP应用(7/9):机器翻译与Seq2Seq模型   8. Attention:    • RNN模型与NLP应用(8/9):Attention (注意力机制)   9. Self-Attention:    • RNN模型与NLP应用(9/9):Self-Attention (自注意力机制)  

Comments