Загрузка...

Предварительно обученные word embeddings | Обработка естественного языка

Word2Vec, fastText и Navec на Python: используем предварительно обученные плотные векторные представления слов.

00:00 – Word2Vec в библиотеке Gensim
06:00 – Библиотека fastText
09:53 – Библиотека Navec

Colab ноутбук из видео – https://colab.research.google.com/drive/1en84yf4BWn2DW-ihTA5q3DLobqdNPDSl?usp=sharing

Библиотека Gensim – https://radimrehurek.com/gensim/index.html
Библиотека fastText – https://fasttext.cc/
Предварительно обученные векторные представления для 157 языков – https://fasttext.cc/docs/en/crawl-vectors.html
Библиотека navec – https://natasha.github.io/navec/

Проект реализуется победителем Конкурса на предоставление грантов преподавателям магистратуры благотворительной программы "Стипендиальная программа Владимира Потанина" Благотворительного фонда Владимира Потанина"

вКонтакте - https://vk.com/avsozykin
telegram - https://t.me/a_sozykin
Мой сайт - https://www.asozykin.ru

Мой канал с краткими и понятными объяснениями сложных тем в ИТ и компьютерных науках - http://www.youtube.com/c/AndreySozykinCS

Видео Предварительно обученные word embeddings | Обработка естественного языка канала Andrey Sozykin
Страницу в закладки Мои закладки
Все заметки Новая заметка Страницу в заметки