Загрузка страницы

BERT Explained!

This video explains the BERT Transformer model! BERT restructures the self-supervised language modeling task on massive datasets like Wikipedia. Bi-directional prediction describes masking intermediate tokens and using tokens on the left and right of the mask for predicting what was masked. This video also explores the input and output representations and how this facilitates fine-tuning the BERT transformer!

Links Mentioned in Video:
The Illustrated Transformer: http://jalammar.github.io/illustrated-transformer/
Tokenizers: How Machines Read: https://blog.floydhub.com/tokenization-nlp/
SQuAD: https://rajpurkar.github.io/SQuAD-explorer/explore/v2.0/dev/
BERT: https://arxiv.org/abs/1810.04805

Thanks for watching! Please Subscribe!

Видео BERT Explained! канала Connor Shorten
Показать
Комментарии отсутствуют
Введите заголовок:

Введите адрес ссылки:

Введите адрес видео с YouTube:

Зарегистрируйтесь или войдите с
Информация о видео
7 февраля 2020 г. 1:35:08
00:13:22
Яндекс.Метрика