DNN/SNN | Лекция 4: Улучшение сходимости алгоритма обучения нейронных сетей HD

DNN/SNN | Лекция 4: Улучшение сходимости алгоритма обучения нейронных сетей
01:23:38
Обнаружено блокирование рекламы на сайте

Для существования нашего сайта необходим показ рекламы. Просим отнестись с пониманием и добавить сайт в список исключений вашей программы для блокировки рекламы (AdBlock и другие).

«Лаборатория Касперского» — одна из наиболее динамично развивающихся компаний в сфере информационной безопасности. Мы уверенно входим в четверку ведущих мировых производителей программных решений для защиты конечных пользователей.

Улучшение сходимости алгоритма обучения нейронных сетей.

Автор: Максим КретовДоклад Максима Кретова «Улучшение сходимости алгоритма обучения нейронных сетей» был озвучен в 2016 году в рамках курса «Cовременные подходы в машинном обучении: применение нейронных сетей, введение в обучение с подкреплением и глубокое обучение». Основной акцент в курсе сделан на применение нейронных сетей в машинном обучении в задачах как обучения “с учителем”, так и “без учителя”. Разбираются основные понятия глубокого обучения. Также в курсе предусмотрены лекции по обучению с подкреплением, в том числе с использованием нейронных сетей в качестве аппроксиматоров функций.В данной лекции Максим подробно разобрал методы улучшения сходимости алгоритма обучения нейронных сетей: инициализация весов, выбор функции потерь, регуляризация, продвинутые методы градиентного спуска, подбор гиперпараметров, а также дополнительные этапы работы, например, предобработка данных.Официальный сайт «Лаборатории Касперского» Читайте нас в социальных сетях:Facebook: Vkontakte: Odnoklassniki: Мой Мир: Google+: Twitter: Instagram: Ищите нас на форумах:Фан-клуб «Лаборатории Касперского»: Форум пользователей:?Читайте наши блоги:Блог Евгения Касперского Блог Kaspersky Daily Блог Securelist Блог Threat post Блог на Хабрахабре
RSS
Нет комментариев. Ваш будет первым!