Загрузка страницы

4. Stochastic Gradient Descent

A recurring theme in machine learning is to formulate a learning problem as an optimization problem. Empirical risk minimization was our first example of this. Thus to do learning, we need to do optimization. In this lecture we present stochastic gradient descent, which is today's standard optimization method for large-scale machine learning problems.

Access the full course at https://bloom.bg/2ui2T4q

Видео 4. Stochastic Gradient Descent канала Inside Bloomberg
Показать
Комментарии отсутствуют
Введите заголовок:

Введите адрес ссылки:

Введите адрес видео с YouTube:

Зарегистрируйтесь или войдите с
Информация о видео
11 июля 2018 г. 17:54:49
00:51:42
Яндекс.Метрика