DNN/SNN | Лекция 4: Улучшение сходимости алгоритма обучения нейронных сетей HD
01:23:38
Обнаружено блокирование рекламы на сайте
Для существования нашего сайта необходим показ рекламы. Просим отнестись с пониманием и добавить сайт в список исключений вашей программы для блокировки рекламы (AdBlock и другие).
Лаборатория Касперского 371 ролик
111 просмотров на сайте 12n.ru
Улучшение сходимости алгоритма обучения нейронных сетей.
Автор: Максим КретовДоклад Максима Кретова «Улучшение сходимости алгоритма обучения нейронных сетей» был озвучен в 2016 году в рамках курса «Cовременные подходы в машинном обучении: применение нейронных сетей, введение в обучение с подкреплением и глубокое обучение». Основной акцент в курсе сделан на применение нейронных сетей в машинном обучении в задачах как обучения “с учителем”, так и “без учителя”. Разбираются основные понятия глубокого обучения. Также в курсе предусмотрены лекции по обучению с подкреплением, в том числе с использованием нейронных сетей в качестве аппроксиматоров функций.В данной лекции Максим подробно разобрал методы улучшения сходимости алгоритма обучения нейронных сетей: инициализация весов, выбор функции потерь, регуляризация, продвинутые методы градиентного спуска, подбор гиперпараметров, а также дополнительные этапы работы, например, предобработка данных.Официальный сайт «Лаборатории Касперского» Читайте нас в социальных сетях:Facebook: Vkontakte: Odnoklassniki: Мой Мир: Google+: Twitter: Instagram: Ищите нас на форумах:Фан-клуб «Лаборатории Касперского»: Форум пользователей:?Читайте наши блоги:Блог Евгения Касперского Блог Kaspersky Daily Блог Securelist Блог Threat post Блог на Хабрахабре
развернуть свернуть