Загрузка страницы

Евгений Разинков. Лекция 2. Линейные модели регрессии (курс "Машинное обучение", весна 2019)

На этой лекции по машинному обучению рассмотрены следующие темы:
- Постановка задачи регрессии.
- Целевая функция линейной регрессии и ее вывод на основе принципа максимального правдоподобия.
- Normal Equation: вывод формулы для вычисления оптимальных параметров линейной регрессии.

Евгений Разинков -- к.ф.-м.н., директор по науке компании Pr3vision Technologies, основатель парфюмерного AI-проекта http://scented.ai, руководитель отдела машинного обучения и компьютерного зрения Группы компаний FIX.

Tailor-made AI solutions for unique challenges:
https://pr3vision.com

Информация о лекциях:
https://razinkov.ai

Телеграм-канал с анонсами лекций и материалами по машинному обучению:
https://t.me/razinkov_ai

Видео Евгений Разинков. Лекция 2. Линейные модели регрессии (курс "Машинное обучение", весна 2019) канала Евгений Разинков
Показать
Комментарии отсутствуют
Введите заголовок:

Введите адрес ссылки:

Введите адрес видео с YouTube:

Зарегистрируйтесь или войдите с
Информация о видео
5 апреля 2019 г. 13:23:51
01:14:23
Другие видео канала
LLM. Лекция 28.LLM. Лекция 28.Введение в языковые модели. Лекция 27.Введение в языковые модели. Лекция 27.ViT: повышаем точность. Лекция 26.ViT: повышаем точность. Лекция 26.Быстрое обнаружение аномалий на изображениях. Лекция 6 по обнаружению аномалийБыстрое обнаружение аномалий на изображениях. Лекция 6 по обнаружению аномалийТрансформер: training best practicesТрансформер: training best practicesTransformer: интерпретация моделей и функции слоев. Лекция 23.Transformer: интерпретация моделей и функции слоев. Лекция 23.Transformer: декодер. Лекция 22.Transformer: декодер. Лекция 22.Архитектура Transformer. Лекция 21.Архитектура Transformer. Лекция 21.Свойства Multi-head Attention. Лекция 20.Свойства Multi-head Attention. Лекция 20.Multi-head Attention. Лекция 19.Multi-head Attention. Лекция 19.Механизмы внимания в TransformerМеханизмы внимания в TransformerОбнаружение аномалий на изображениях. Лекция 5 по обнаружению аномалий (2021)Обнаружение аномалий на изображениях. Лекция 5 по обнаружению аномалий (2021)Обнаружение аномалий во временных рядах. Лекция 4 по обнаружению аномалий (2021)Обнаружение аномалий во временных рядах. Лекция 4 по обнаружению аномалий (2021)Обучение сверточных нейронных сетей. Нюансы. Лекция 17.Обучение сверточных нейронных сетей. Нюансы. Лекция 17.Resnet. Лекция 16.Resnet. Лекция 16.Temporal Difference, Q-Learning. Лекция 7 по обучению с подкреплениемTemporal Difference, Q-Learning. Лекция 7 по обучению с подкреплениемПринципы построения сверточных архитектур. Лекция 15.Принципы построения сверточных архитектур. Лекция 15.Сверточные нейронные сети. Лекция 14.Сверточные нейронные сети. Лекция 14.Как мыслить о глубоких архитектурах. Лекция 13.Как мыслить о глубоких архитектурах. Лекция 13.Нейрон, слой, многослойный персептрон. Лекция 11.Нейрон, слой, многослойный персептрон. Лекция 11.Переход к глубокому обучению. Лекция 10.Переход к глубокому обучению. Лекция 10.
Яндекс.Метрика