У нас вы можете посмотреть бесплатно Implementing GELU and Its Derivative from Scratch или скачать в максимальном доступном качестве, которое было загружено на ютуб. Для скачивания выберите вариант из формы ниже:
Если кнопки скачивания не
загрузились
НАЖМИТЕ ЗДЕСЬ или обновите страницу
Если возникают проблемы со скачиванием, пожалуйста напишите в поддержку по адресу внизу
страницы.
Спасибо за использование сервиса savevideohd.ru
In this video, we discuss and implement GELU activation function and its derivative using PyTorch. Codebase: https://github.com/oniani/ai GitHub: https://github.com/oniani Web: https://oniani.ai #ai #softwareengineering #programming #stylepoint #gelu Chapters 0:00 - Intro 0:39 - Discussing GELU 9:24 - Computing the derivative of GELU 11:19 - Implementing `forward` method 12:33 - Implementing `backward` method 13:42 - Using `gradcheck` for testing 14:12 - The alternative implementation 15:20 - Outro