Загрузка страницы

BERT for pretraining Transformers

Next Video: https://youtu.be/HZ4j_U3FC94

Bidirectional Encoder Representations from Transformers (BERT) is for pretraining the Transformer models. BERT does not need manually labeled data. BERT can use any books and web documents to automatically generate training data.

Slides: https://github.com/wangshusen/DeepLearning

Reference:
Devlin, Chang, Lee, and Toutanova. BERT: Pre-training of deep bidirectional transformers for language understanding. In ACL, 2019.

Видео BERT for pretraining Transformers канала Shusen Wang
Показать
Комментарии отсутствуют
Введите заголовок:

Введите адрес ссылки:

Введите адрес видео с YouTube:

Зарегистрируйтесь или войдите с
Информация о видео
17 апреля 2021 г. 8:16:41
00:15:53
Яндекс.Метрика