Загрузка страницы

The math behind Attention: Keys, Queries, and Values matrices

This is the second of a series of 3 videos where we demystify Transformer models and explain them with visuals and friendly examples.

Video 1: The attention mechanism in high level https://youtu.be/OxCpWwDCDFQ
Video 2: The attention mechanism with math (this one)
Video 3 (upcoming): Transformer models

If you like this material, check out LLM University from Cohere!
https://llm.university

00:00 Introduction
01:18 Recap: Embeddings and Context
04:46 Similarity
11:09 Attention
20:46 The Keys and Queries Matrices
25:02 The Values Matrix
28:41 Self and Multi-head attention
33:54: Conclusion

Видео The math behind Attention: Keys, Queries, and Values matrices канала Serrano.Academy
Показать
Комментарии отсутствуют
Введите заголовок:

Введите адрес ссылки:

Введите адрес видео с YouTube:

Зарегистрируйтесь или войдите с
Информация о видео
31 августа 2023 г. 21:43:50
00:36:16
Яндекс.Метрика