Лекция 11. Случайные леса. Gradient boosting machine
Приемы объединения классификаторов: Stacking, bagging и boosting.
Случайные леса. Bagging. Библиотека RandomForest. Ключевые параметры модели. Out-of-bag error. Информативность переменных (Importance). Анализ несбалансированных выборок. Определение числа деревьев.
Gradient boosting machine. Boosting. Библиотека gbm. gbm и TreeNet. Ключевые параметры модели.
Лекция №11 в курсе "Анализ данных на R в примерах и задачах" (весна 2016).
Преподаватель курса: Вадим Леонардович Аббакумов
Страница лекции на сайте CS центра: https://goo.gl/C2cuCp
Ссылка на все лекции курса: https://goo.gl/1VmEdf
Видео Лекция 11. Случайные леса. Gradient boosting machine канала Computer Science Center
Случайные леса. Bagging. Библиотека RandomForest. Ключевые параметры модели. Out-of-bag error. Информативность переменных (Importance). Анализ несбалансированных выборок. Определение числа деревьев.
Gradient boosting machine. Boosting. Библиотека gbm. gbm и TreeNet. Ключевые параметры модели.
Лекция №11 в курсе "Анализ данных на R в примерах и задачах" (весна 2016).
Преподаватель курса: Вадим Леонардович Аббакумов
Страница лекции на сайте CS центра: https://goo.gl/C2cuCp
Ссылка на все лекции курса: https://goo.gl/1VmEdf
Видео Лекция 11. Случайные леса. Gradient boosting machine канала Computer Science Center
Показать
Комментарии отсутствуют
Информация о видео
Другие видео канала
![Gradient Boost Machine Learning|How Gradient boost work in Machine Learning](https://i.ytimg.com/vi/j034-r3O2Cg/default.jpg)
![Machine Learning Lecture 31 "Random Forests / Bagging" -Cornell CS4780 SP17](https://i.ytimg.com/vi/4EOCQJgqAOY/default.jpg)
![089. Мастер класс Решение задач классификации при помощи CatBoost – Никита Дмитриев](https://i.ytimg.com/vi/xl1fwCza9C8/default.jpg)
![Random Forest Algorithm - Random Forest Explained | Random Forest in Machine Learning | Simplilearn](https://i.ytimg.com/vi/eM4uJ6XGnSM/default.jpg)
![Лекция 3. Кластерный анализ](https://i.ytimg.com/vi/VRAn1f6cUJ8/default.jpg)
![Боль и страдания. Первый месяц | ШАД ЯНДЕКСА](https://i.ytimg.com/vi/tuG5bzAPBJI/default.jpg)
![Градиентный бустинг и XGBoost](https://i.ytimg.com/vi/IvN8VOHj0_4/default.jpg)
![Лекция заслуженного тренера ФИДЕ Владимира Грабинского "Использование слабых полей"](https://i.ytimg.com/vi/1rh2Z7y83rQ/default.jpg)
![Ensembles (3): Gradient Boosting](https://i.ytimg.com/vi/sRktKszFmSk/default.jpg)
![Can one do better than XGBoost? - Mateusz Susik](https://i.ytimg.com/vi/5CWwwtEM2TA/default.jpg)
![Data Science по-взрослому: сравниваем ШАД, MADE Mail.ru и Ozon Masters](https://i.ytimg.com/vi/orygeynBakI/default.jpg)
![Машинное обучение. Лекция 5. Решающие деревья и ансамбли. Градиентный бустинг](https://i.ytimg.com/vi/aAP1SMcN4Ag/default.jpg)
![174. Ограниченная машина Больцмана как основа глубоких нейронных сетей](https://i.ytimg.com/vi/eSPgqo4XzrI/default.jpg)
![Gradient Boosting Decision Tree Algorithm Explained](https://i.ytimg.com/vi/3zEqUSf5duw/default.jpg)
![Linux во встраиваемых системах](https://i.ytimg.com/vi/E6XH8BYUJdY/default.jpg)
![Лекция. Решающие деревья](https://i.ytimg.com/vi/MJwAoWFTMWw/default.jpg)
![Градиентный Бустинг: самый частый вопрос на собеседовании на дата саентиста](https://i.ytimg.com/vi/ZNJ3lKyI-EY/default.jpg)
![23. Gradient Boosting](https://i.ytimg.com/vi/fz1H03ZKvLM/default.jpg)
![Kaggle Allstate Claims Severity: предсказание тяжести страхового случая — Алексей Носков](https://i.ytimg.com/vi/p7ArDjMImiI/default.jpg)
![Лекция 3. Иерархический кластерный анализ](https://i.ytimg.com/vi/gXBs4_3aKrs/default.jpg)