Загрузка страницы

Reformer: The Efficient Transformer

This video explores the changes made in the Reformer to reduce memory bottlenecks and attend over long sequences. The following video and textbook chapter is extremely useful for getting a sense of Locality-Sensitive Hashing!

Mining Massive Datasets:
Video Lecture: https://www.youtube.com/watch?v=c6xK9WgRFhI
Book: http://infolab.stanford.edu/~ullman/mmds/ch3a.pdf

Reformer Paper Link: https://arxiv.org/pdf/2001.04451.pdf

Adaptive Attention Span: https://ai.facebook.com/blog/making-transformer-networks-simpler-and-more-efficient/
Sparse Transformers: https://openai.com/blog/sparse-transformer/

Видео Reformer: The Efficient Transformer канала Henry AI Labs
Показать
Комментарии отсутствуют
Введите заголовок:

Введите адрес ссылки:

Введите адрес видео с YouTube:

Зарегистрируйтесь или войдите с
Информация о видео
22 января 2020 г. 2:17:46
00:14:04
Яндекс.Метрика