Загрузка страницы

Week 12 – Practicum: Attention and the Transformer

Course website: http://bit.ly/pDL-home
Playlist: http://bit.ly/pDL-YouTube
Speaker: Alfredo Canziani
Week 12: http://bit.ly/pDL-en-12

0:00:00 – Week 12 – Practicum

PRACTICUM: http://bit.ly/pDL-en-12-3
We introduce attention, focusing on self-attention and its hidden layer representations of the inputs. Then, we introduce the key-value store paradigm and discuss how to represent queries, keys, and values as rotations of an input. Finally, we use attention to interpret the transformer architecture, taking a forward pass through a basic transformer, and comparing the encoder-decoder paradigm to sequential architectures.
0:01:09 – Attention
0:17:36 – Key-value store
0:35:14 – Transformer and PyTorch implementation
0:54:00 – Q&A

Видео Week 12 – Practicum: Attention and the Transformer канала Alfredo Canziani
Показать
Комментарии отсутствуют
Введите заголовок:

Введите адрес ссылки:

Введите адрес видео с YouTube:

Зарегистрируйтесь или войдите с
Информация о видео
12 июля 2020 г. 11:19:56
01:18:02
Яндекс.Метрика