#37. Критерии качества для построения решающих деревьев | Машинное обучение
Принципы построения решающих деревьев. Понятие impurity (информативности) и информационного выигрыша (information gain) для выбора наилучших признаков и порогов для предикатов.
Инфо-сайт: https://proproprogs.ru/ml
Телеграм-канал: https://t.me/machine_learning_selfedu
Видео #37. Критерии качества для построения решающих деревьев | Машинное обучение канала selfedu
Инфо-сайт: https://proproprogs.ru/ml
Телеграм-канал: https://t.me/machine_learning_selfedu
Видео #37. Критерии качества для построения решающих деревьев | Машинное обучение канала selfedu
Показать
Комментарии отсутствуют
Информация о видео
Другие видео канала
#38. Построение решающих деревьев жадным алгоритмом ID3 | Машинное обучение#19. Введение в метод опорных векторов (SVM) | Машинное обучение#39. Усечение (prunning) дерева, обработка пропусков и категориальных признаков | Машинное обучение#36. Логические методы классификации | Машинное обучение#40. Решающие деревья в задачах регрессии. Алгоритм CART | Машинное обучениеКак работают сверточные нейронные сети | #13 нейросети на Python#3. Алгоритм Дейкстры (Dijkstra’s algorithm) | Алгоритмы на Python#41. Случайные деревья и случайный лес. Бутстрэп и бэггинг | Машинное обучениеОсновы Программирования - #1 - Логика. Алгоритмы#45. Нейронные сети. Краткое введение в теорию | Машинное обучениеМашинное обучение и искусственный интеллектПять принципов SOLID с примерами на Java#44. Градиентный бустинг и стохастический градиентный бустинг | Машинное обучениеАлгоритмы на Python 3. Лекция №1Переобучение - что это и как этого избежать, критерии останова обучения | #5 нейросети на PythonЦОС Python #10: Байесовский классификатор, отношение правдоподобия#35. Агломеративная иерархическая кластеризация. Дендограмма | Машинное обучение#42. Введение в бустинг (boosting). Алгоритм AdaBoost при классификации | Машинное обучение