On Power Laws in Deep Ensembles [in Russian]
Slides: https://bayesgroup.github.io/bmml_sem/2020/Lobacheva_Power%20Laws.pdf
Chat: https://drive.google.com/file/d/157G8h0vltoqz9wuHydg-HD9uErDpqxZm/view?usp=sharing
Ансамбли нейронных сетей широко применяются на практике, особенно для задач, в которых важна устойчивая оценка неопределенности модели. В докладе мы посмотрим как ведет себя качество ансамбля в терминах NLL/CNLL как функция от количества сетей в ансамбле, размера этих сетей и общего числа параметров в модели. Мы увидим, что во многих случаях качество ведет себя как степенной закон, что само по себе любопытно, плюс позволяет предсказывать возможную прибавку в качестве при увеличении моделей. Также мы рассмотрим случай фиксированного бюджета по памяти и поймем как лучше его распределять - брать мало больших сетей или много маленьких - и как это распределение предсказывать для конкретных задач с помощью обнаруженных степенных законов.
Видео On Power Laws in Deep Ensembles [in Russian] канала BayesGroup.ru
Chat: https://drive.google.com/file/d/157G8h0vltoqz9wuHydg-HD9uErDpqxZm/view?usp=sharing
Ансамбли нейронных сетей широко применяются на практике, особенно для задач, в которых важна устойчивая оценка неопределенности модели. В докладе мы посмотрим как ведет себя качество ансамбля в терминах NLL/CNLL как функция от количества сетей в ансамбле, размера этих сетей и общего числа параметров в модели. Мы увидим, что во многих случаях качество ведет себя как степенной закон, что само по себе любопытно, плюс позволяет предсказывать возможную прибавку в качестве при увеличении моделей. Также мы рассмотрим случай фиксированного бюджета по памяти и поймем как лучше его распределять - брать мало больших сетей или много маленьких - и как это распределение предсказывать для конкретных задач с помощью обнаруженных степенных законов.
Видео On Power Laws in Deep Ensembles [in Russian] канала BayesGroup.ru
Показать
Комментарии отсутствуют
Информация о видео
18 ноября 2020 г. 3:36:44
01:42:59
Другие видео канала

![Autoformer and Autoregressive Denoising Diffusion Models for Time Series Forecasting [in Russian]](https://i.ytimg.com/vi/8ASpS53J-PQ/default.jpg)

![[DeepBayes2018]: Day 2, lecture 4. Discrete latent variables](https://i.ytimg.com/vi/-KzvHc16HlM/default.jpg)



![Neural Program Synthesis, part 2 [in Russian]](https://i.ytimg.com/vi/3T49dB6dG4g/default.jpg)
![Hyperbolic Deep Learning [in Russian]](https://i.ytimg.com/vi/AoD_DUlMlAQ/default.jpg)
![Tensor Programs, part 2 [in Russian]](https://i.ytimg.com/vi/AQ-JCTxWU9M/default.jpg)
![Discovering Faster Matrix Multiplication Algorithms with Reinforcement Learning [in Russian]](https://i.ytimg.com/vi/znLybIpcaLQ/default.jpg)
![Learning Differential Equations that are easy to solve [in Russian]](https://i.ytimg.com/vi/2W-wrXBc7oo/default.jpg)

![[DeepBayes2018]: Day 3, Practical session 5. Distributional reinforcement learning](https://i.ytimg.com/vi/_Ve8Wd3Uyos/default.jpg)
![[DeepBayes2019]: Day 5, Sponsor talk](https://i.ytimg.com/vi/X8vYS0oLgL4/default.jpg)

![Controlling GANs Latent Space [in Russian]](https://i.ytimg.com/vi/5lEJw4VagcA/default.jpg)
![[DeepBayes2019]: Day 2, practical session 2. Variational autoencoders](https://i.ytimg.com/vi/3MhSNduBwMw/default.jpg)

![Domain Adaptation of GANs [in Russian]](https://i.ytimg.com/vi/2GfaUtp_8R8/default.jpg)