У нас вы можете посмотреть бесплатно Neural Networks From Scratch - Lec 15 - GeLU Activation Function или скачать в максимальном доступном качестве, которое было загружено на ютуб. Для скачивания выберите вариант из формы ниже:
Если кнопки скачивания не
загрузились
НАЖМИТЕ ЗДЕСЬ или обновите страницу
Если возникают проблемы со скачиванием, пожалуйста напишите в поддержку по адресу внизу
страницы.
Спасибо за использование сервиса savevideohd.ru
Building Neural Networks from scratch in python. This is the fifteenth video of the course - "Neural Networks From Scratch". This video covers the GeLU activation function and its intuition in detail. We look at the derivative of GeLU and discuss the advantages and disadvantages of using the GeLU activation function. We looked at the performance comparisons of mish against relu and elu activation functions and finally, we saw the python implementation Neural Networks From Scratch Playlist: • Neural Networks From Scratch in Python Activation Functions Playlist: • Activation functions in Neural Networks GeLU Activation: https://arxiv.org/pdf/1606.08415.pdf Please like and subscribe to the channel for more videos. This will help me in assessing your interests and creating more content. Thank you! Chapter: 0:00 Introduction 0:14 Motivation 1:18 Intuition & Deriving GeLU 5:35 Definition of GeLU 6:30 Derivative of GeLU 7:04 Performance comparison 7:38 Python Implementation #geluactivationfunction, #geluactivationfunction, #geluactivationfunctioninneuralnetwork, #reluactivationfunction, #activationfunctioninneuralnetwork, #vanishinggradient, #selfgatedactivationfunction, #dropout