Загрузка страницы

BERT Research - Ep. 2 - WordPiece Embeddings

Update: The BERT eBook is out! You can buy it from my site here: https://bit.ly/33KSZeZ

In Episode 2 we’ll look at:
- What a word embedding is.
- How BERT’s WordPiece model tokenizes text.
- The contents of BERT’s vocabulary.

The Colab Notebook from the second half of the video (`Inspect BERT Vocabulary.ipynb`) can be found here: https://colab.research.google.com/drive/1fCKIBJ6fgWQ-f6UKs7wDTpNTL9N-Cq9X

I've also uploaded the `vocabulary.txt` file here if you want to peruse it without running the above notebook: https://drive.google.com/open?id=12jxEvIxAmLXsskVzVhsC49sLAgZi-h8Q

==== Updates ====
Sign up to hear about new content across my blog and channel: https://www.chrismccormick.ai/subscribe

Видео BERT Research - Ep. 2 - WordPiece Embeddings канала ChrisMcCormickAI
Показать
Комментарии отсутствуют
Введите заголовок:

Введите адрес ссылки:

Введите адрес видео с YouTube:

Зарегистрируйтесь или войдите с
Информация о видео
18 ноября 2019 г. 23:46:28
00:28:04
Яндекс.Метрика