Загрузка страницы

#5. Строим градиентные алгоритмы оптимизации Adam, RMSProp, Adagrad, Adadelta | Tensorflow 2 уроки

Применяем Tensorflow для задачи поиска оптимальных параметров, минимизируя функцию потерь различным алгоритмами градиентного спуска с оптимизаторами: Метод моментов (моменты Нестерова), Adam, RMSProp, Adagrad, Adadelta. Рассматривается принцип реализации стохастического градиентного спуска SGD (Stochastic Gradient Descent).

Телеграм-канал: https://t.me/machine_learning_selfedu
Инфо-сайт: https://proproprogs.ru/tensorflow

Tensorflow: https://www.tensorflow.org
Градиентный спуск: https://www.youtube.com/watch?v=OKeZEbJgQKc&list=PLA0M1Bcd0w8yZNgl5J814WQykTZnzj771&index=3&t=245s

Курс по нейронным сетям: https://www.youtube.com/watch?v=nV7cI5zgOpk&list=PLA0M1Bcd0w8yv0XGiF1wjerjSZVSrYbjh

Видео #5. Строим градиентные алгоритмы оптимизации Adam, RMSProp, Adagrad, Adadelta | Tensorflow 2 уроки канала selfedu
Показать
Комментарии отсутствуют
Введите заголовок:

Введите адрес ссылки:

Введите адрес видео с YouTube:

Зарегистрируйтесь или войдите с
Информация о видео
9 июня 2021 г. 11:00:05
00:23:26
Яндекс.Метрика