Евгений Разинков. Лекция 2. Линейные модели регрессии (курс "Машинное обучение", весна 2019)
На этой лекции по машинному обучению рассмотрены следующие темы:
- Постановка задачи регрессии.
- Целевая функция линейной регрессии и ее вывод на основе принципа максимального правдоподобия.
- Normal Equation: вывод формулы для вычисления оптимальных параметров линейной регрессии.
Евгений Разинков -- к.ф.-м.н., директор по науке компании Pr3vision Technologies, основатель парфюмерного AI-проекта http://scented.ai, руководитель отдела машинного обучения и компьютерного зрения Группы компаний FIX.
Tailor-made AI solutions for unique challenges:
https://pr3vision.com
Информация о лекциях:
https://razinkov.ai
Телеграм-канал с анонсами лекций и материалами по машинному обучению:
https://t.me/razinkov_ai
Видео Евгений Разинков. Лекция 2. Линейные модели регрессии (курс "Машинное обучение", весна 2019) канала Евгений Разинков
- Постановка задачи регрессии.
- Целевая функция линейной регрессии и ее вывод на основе принципа максимального правдоподобия.
- Normal Equation: вывод формулы для вычисления оптимальных параметров линейной регрессии.
Евгений Разинков -- к.ф.-м.н., директор по науке компании Pr3vision Technologies, основатель парфюмерного AI-проекта http://scented.ai, руководитель отдела машинного обучения и компьютерного зрения Группы компаний FIX.
Tailor-made AI solutions for unique challenges:
https://pr3vision.com
Информация о лекциях:
https://razinkov.ai
Телеграм-канал с анонсами лекций и материалами по машинному обучению:
https://t.me/razinkov_ai
Видео Евгений Разинков. Лекция 2. Линейные модели регрессии (курс "Машинное обучение", весна 2019) канала Евгений Разинков
Показать
Комментарии отсутствуют
Информация о видео
Другие видео канала
LLM. Лекция 28.Введение в языковые модели. Лекция 27.ViT: повышаем точность. Лекция 26.Быстрое обнаружение аномалий на изображениях. Лекция 6 по обнаружению аномалийТрансформер: training best practicesTransformer: интерпретация моделей и функции слоев. Лекция 23.Transformer: декодер. Лекция 22.Архитектура Transformer. Лекция 21.Свойства Multi-head Attention. Лекция 20.Multi-head Attention. Лекция 19.Механизмы внимания в TransformerОбнаружение аномалий на изображениях. Лекция 5 по обнаружению аномалий (2021)Обнаружение аномалий во временных рядах. Лекция 4 по обнаружению аномалий (2021)Обучение сверточных нейронных сетей. Нюансы. Лекция 17.Resnet. Лекция 16.Temporal Difference, Q-Learning. Лекция 7 по обучению с подкреплениемПринципы построения сверточных архитектур. Лекция 15.Сверточные нейронные сети. Лекция 14.Как мыслить о глубоких архитектурах. Лекция 13.Нейрон, слой, многослойный персептрон. Лекция 11.Переход к глубокому обучению. Лекция 10.