Загрузка страницы

Лекция 7. Локальная лемма Ловаса

https://compscicenter.ru/

Лекция №7 курса «Рандомизированные алгоритмы», весна 2021 (Новосибирск).

В контексте вероятностного метода локальная лемма Ловаса позволяет нам доказать, что конкретное множество нежелательных событий можно избежать, если каждое из них достаточно невероятно и каждое из них зависит от немногих других событий.

Мы с помощью локальной леммы Ловаса покажем, что маленькие формулы в конъюнктивной нормальной форме всегда выполнимы и как подобрать коммуникационные пути между парами узлов в коммуникационной сети.

Преподаватель курса: Рене Андреасович ван Беверн, заведующий лабораторией алгоритмики ММФ НГУ, старший преподаватель ММФ НГУ.

Подробное описание занятия: https://nsk.compsciclub.ru/courses/rand-algorithms/2021-spring/classes/7177/

Видео Лекция 7. Локальная лемма Ловаса канала Computer Science Center
Показать
Комментарии отсутствуют
Введите заголовок:

Введите адрес ссылки:

Введите адрес видео с YouTube:

Зарегистрируйтесь или войдите с
Информация о видео
14 декабря 2021 г. 11:26:17
01:28:26
Другие видео канала
Лекция 7. Цифровой фото и видео монтажЛекция 7. Цифровой фото и видео монтажСеминар 7. Хеширование, итераторы (Алгоритмы и структуры данных, часть 1)Семинар 7. Хеширование, итераторы (Алгоритмы и структуры данных, часть 1)Лекция 11. Растеризация: OpenGL, Larrabee, cudarasterЛекция 11. Растеризация: OpenGL, Larrabee, cudarasterЛекция 4. Деревья. Унициклические графы (Дискретный анализ и теория вероятностей)Лекция 4. Деревья. Унициклические графы (Дискретный анализ и теория вероятностей)Лекция 6. Генеративные сети, часть 2Лекция 6. Генеративные сети, часть 2Batch обработка с Apache SparkBatch обработка с Apache SparkЛекция 13. Встроенные функции, массивы, строки, S-выражения в машинном кодеЛекция 13. Встроенные функции, массивы, строки, S-выражения в машинном кодеСеминар 5. Тестирование (Алгоритмы и структуры данных, часть 1)Семинар 5. Тестирование (Алгоритмы и структуры данных, часть 1)Лекция 5. Введение в вероятностный язык построения моделей машинного обученияЛекция 5. Введение в вероятностный язык построения моделей машинного обученияЛекция 8. С-ядро и значение ШеплиЛекция 8. С-ядро и значение ШеплиЛекция 5. ПотокиЛекция 5. ПотокиЛекция 11. Калибровка классификаторов. (Анализ данных на Python в примерах и задачах. Ч2)Лекция 11. Калибровка классификаторов. (Анализ данных на Python в примерах и задачах. Ч2)Лекция 5. Задача о потоке минимальной стоимостиЛекция 5. Задача о потоке минимальной стоимостиЛекция 7. Классические методы классификации изображенийЛекция 7. Классические методы классификации изображенийЛекция 9. Ориентированные графыЛекция 9. Ориентированные графыСеминар 4. Динамическое программирование (Алгоритмы и структуры данных, часть 1)Семинар 4. Динамическое программирование (Алгоритмы и структуры данных, часть 1)Лекция 7. Merge sort и PatchMatchЛекция 7. Merge sort и PatchMatchЛекция 3. Частично упорядоченные множестваЛекция 3. Частично упорядоченные множестваСеминар 11. NP-задачи и игры на графах (Алгоритмы и структуры данных, часть 2)Семинар 11. NP-задачи и игры на графах (Алгоритмы и структуры данных, часть 2)HaystackHaystackДостижение согласованности. Алгоритмы консенсусаДостижение согласованности. Алгоритмы консенсуса
Яндекс.Метрика