У нас вы можете посмотреть бесплатно [Paper Review] Informer: Beyond Efficient Transformer for Long Sequence Time-Series Forecasting или скачать в максимальном доступном качестве, которое было загружено на ютуб. Для скачивания выберите вариант из формы ниже:
Если кнопки скачивания не
загрузились
НАЖМИТЕ ЗДЕСЬ или обновите страницу
Если возникают проблемы со скачиванием, пожалуйста напишите в поддержку по адресу внизу
страницы.
Спасибо за использование сервиса savevideohd.ru
발표자 : 고려대학교 DSBA 연구실 석사과정 김수빈 ([email protected]) 발표자료 다운 : http://dsba.korea.ac.kr/seminar/ 1. Topic : Informer 논문 리뷰 (https://arxiv.org/abs/2012.07436) 2. Keyword : Transformer, Long sequence time series, ProbSparse Self-attention, Distilling, Generative style decoder 3. Contents : 00:20 Overview 01:07 Introduction 06:45 Related Works 12:17 Paper Review 40:46 Conclusion 4. Reference source는 발표자료 내부에 표기