Multi-head Attention. Лекция 19.

  Рет қаралды 1,328

Евгений Разинков

Евгений Разинков

Күн бұрын

Пікірлер: 9
@AndreiChegurovRobotics
@AndreiChegurovRobotics 4 ай бұрын
отличная лекция
@ДмитрийЯковлев-у6ц
@ДмитрийЯковлев-у6ц 11 ай бұрын
Евгений, изучал Ваш ликбез по CNN в GeekBrains. Очень обрадовался, что увидел Вас на ютубе и не прогадал. Это лучшее объяснение MHA что я видел. Тоже жду анонс по курсам. Буду думать где взять свободное время).
@razinkov
@razinkov 11 ай бұрын
Спасибо за лестный отзыв!
@АринаШупенко
@АринаШупенко 9 ай бұрын
Тяжко идет! Видимо придется пересмотреть курс заново :)
@razinkov
@razinkov 9 ай бұрын
Еще один вариант: посмотреть объяснение этих тем с прошлого года :) Вдруг окажется полезно) SDPA: kzbin.infoEmGoypCSNoI MHA: kzbin.infoDhfwjcskV3o
@stasyara81
@stasyara81 10 ай бұрын
Хотел бы добавить 5 копеек: объяснять через конкатенацию вообще странно, тем более что так обозначают прямую сумму, а прямая сумма матриц - это не конкатенация Проще сократить так: R^k = R^kj_i (3d тензор), W^k=W^m_jk (3d тензор), то есть стопки матриц. И результат это просто свертка по j,k: O^m_i=R^kj_i*W^m_jk
@stasyara81
@stasyara81 10 ай бұрын
Добрый вечер! Получается, внутри sdpa размерность понижается в h раз, как при сравнении ключей, так и у значений, а потом восстанавливается последним тензором W^0. В предельном случае считается не близость векторов а по сути близость норм векторов (если h=dmodel). Таким образом теряется много информации о векторе запроса и ключа, принимается решение, которое потом уже восстанавливается не исходя из входной информации, а исходя из параметров модели. Можно ли эту часть механизма внимания считать автоэнкодером? или все совпадения случайны?)
@lesshishkin371
@lesshishkin371 11 ай бұрын
Спасибо, Евгений, за ваш педагогический труд! Три месяца назад я был гуманитарием, который не умел умножать матрицы, но черт возьми, настолько любопытно как работает эта магия нейросетей, что освоил и линейную алгебру, и вспомнил, что такое производная, и научился на питоне программировать. Пересмотрел кучу ваших роликов, выражаю глубокую, как самая глубокая нейросеть признательность. Вы говорили, что хотите сделать курсы? Не изменились планы?
@razinkov
@razinkov 11 ай бұрын
Спасибо за отзыв, очень приятно) Планы не изменились, делаем! В декабре будет анонс с подробностями
Свойства Multi-head Attention. Лекция 20.
51:25
Евгений Разинков
Рет қаралды 2 М.
ViT: повышаем точность. Лекция 26.
1:16:48
Евгений Разинков
Рет қаралды 787
У вас там какие таланты ?😂
00:19
Карина Хафизова
Рет қаралды 18 МЛН
😜 #aminkavitaminka #aminokka #аминкавитаминка
00:14
Аминка Витаминка
Рет қаралды 2,6 МЛН
How Strong is Tin Foil? 💪
00:25
Brianna
Рет қаралды 60 МЛН
Всё, что нужно знать о НЕЙРОСЕТЯХ
41:49
Artur Sharifov
Рет қаралды 70 М.
Трансформер для изображений: vision transformer
1:05:54
Евгений Разинков
Рет қаралды 1,4 М.
Лекция. Внимание (Attention)
38:51
Deep Learning School
Рет қаралды 15 М.
LLM. Лекция 28.
1:25:32
Евгений Разинков
Рет қаралды 1,1 М.
Оптимистичное послание AI-специалистам
11:40
Евгений Разинков
Рет қаралды 2,7 М.