Лекция. Внимание (Attention)

  Рет қаралды 16,133

Deep Learning School

Deep Learning School

Күн бұрын

Пікірлер: 34
@aleksandrakhmatdianov8840
@aleksandrakhmatdianov8840 3 жыл бұрын
Ввожу новую лемму: если лекцию ведёт Татьяна, то лекция будет отличная!
@tatianagaintseva8701
@tatianagaintseva8701 3 жыл бұрын
А все, лавочка закрылась)
@dimka11ggg
@dimka11ggg 3 жыл бұрын
@@tatianagaintseva8701 Больше не будет лекций?
@DeepLearningSchool
@DeepLearningSchool 3 жыл бұрын
@@dimka11ggg в смысле?
@картонобзоры
@картонобзоры Жыл бұрын
​@@DeepLearningSchoolну Татьяна же сказала что лавочка закрылась
@RomanBudkeev
@RomanBudkeev 6 ай бұрын
Татьяна, спасибо, что своим качественным аттеншеном вы декодировали эмбеддинги этой темы в русский язык в форме, в которой я могу с низким уровнем потерь закодировать эту тему в свои эмбеддинги
@high_fly_bird
@high_fly_bird Жыл бұрын
3:24 В чём неполноценность RNN-экнодера и RNN-декодера 5:30 Общими словами: Как attention решает проблему "забывчивости" обычных rnn декодера и энкодера 8:10 Математика и архитектура, как attention помогает декодеру смотреть на всё предложение целиком и учитывать контекст 13:43 Что лежит внутри функции attention? 18:50 отступление, доказательства того, что attention действительно state-of-the-art... 20:49 Self-attention как надстройка над attention. Идея 23:46 Архитектура, self-attention в декодере. 27:06 Архитектура, self-attention в энкодере. 28:26 multi-head attention 30:00 некоторые выводы по лекции 31:00 пару слов о транформерах 33:24 Визуализация работы трансформера (гифка) 34:16 ещё один пример внимания на предложении постоянно возвращаюсь к этой лекции! Прекрасная лекторка, спасибо Татьяне!
@frontal.perevody
@frontal.perevody 2 жыл бұрын
Лучшее объяснение для attention во всём интернете на русском и английском. Спасибо большое❤‍🔥
@arik9586
@arik9586 Жыл бұрын
Первая лекция в ЖИЗНИ, ни одно слово которой не прошло мимо ушей
@VladislavKasperchuk
@VladislavKasperchuk 9 ай бұрын
Очень понятное обьяснение, спасибо!
@MattML
@MattML 2 жыл бұрын
Attention is all you need ❤️
@kiryllshynharow9058
@kiryllshynharow9058 2 жыл бұрын
36:06 it/il/elle это местоимение а не артикль но в целом изложение просто супер, в плане доходчивости focus Attention on the most tricky stuff is all you need
@hopelesssuprem1867
@hopelesssuprem1867 3 ай бұрын
спасибо за хорошее объяснение
@bondarchukb
@bondarchukb 3 жыл бұрын
Топовая лекция, топовый лектор
@funtastt
@funtastt 2 жыл бұрын
Пожалуй, лучшее объяснение идеи Self-Attention, которое я нашел на русском и английском языке. Все понятно, спасибо.
@ОльгаНикифорова-щ8я
@ОльгаНикифорова-щ8я 2 ай бұрын
"Мы как люди понимаем это из здравого смысла"😂😂😂 Ахахахаха Все-таки мы-люди- неисправимые нарциссы😂😂😂
@ppronchenko
@ppronchenko 3 жыл бұрын
В примере про трансформер - это не артикль. Это местоимение - il, elle (он, она). Выбирается исходя из рода существительного: un animal, une rue. Но концептуально - понятно )
@georgebatchkala556
@georgebatchkala556 3 жыл бұрын
На последнем слайде можно слово "животное" заменить на слово "кошка", тогда "она" будет и про дорогу, и про кошку :) Очень классная лекция, спасибо!
@immortalqq8243
@immortalqq8243 Жыл бұрын
@DeepLearningSchool Добавьте, пожалуйста, данную лекцию в плейлист "Вторая часть курса Deep Learning School" :)
@_eleldar_
@_eleldar_ Жыл бұрын
Татьяна, а можно попросить записать видео по Transformer?
@alexanderskusnov5119
@alexanderskusnov5119 2 жыл бұрын
Почему не было связей от tired и wide?
@Dron008
@Dron008 2 жыл бұрын
Я б перевёл "человек с попугаем на плече зашли в бар". Попугай - живое существо, а не вещь, над о уважать его индивидуальность ). Давно хотел разобраться с вниманием и вот после этого (и ещё кучки других) видео, чуть-чуть понятнее стало. Вот по поводу self-attentions не понял. Их специализация распознавать род, падежи и прочее как-то явно задаётся при обучении (скажем, score за это) или "оно само так выходит" и как они вообще обучаются? Можно ли говорить, что attention это такой более навороченный embedding для предложений с сохранением вклада каждого слова? Или он не имеет смысла сам по себе, только для конкретной языковой пары и конкретной пары предложений? Вообще вот как хорошие переводчики переводят, они воспринимают смысл сказанного, а потом подбирают аналогичный по смыслу перевод. По словам точно нельзя переводить, даже по сочетаниям слов далеко не всегда можно. Но attention это всё-таки не совсем смысл предложения. Интересно, не будет ли более эффективным именно что-то с учётом смысла, разного рода ассоциаций между базовыми понятиями с генерацией более сложных, абстрактных. Интересно это даже не для перевода, который и так улучшился многократно, а в плане создания моделей, именно понимающих явления, способных логически рассуждать и оперировать понятиями так, как это делает человек, который научился этому, не читая все тексты интернета.
@pavelbozin9268
@pavelbozin9268 Жыл бұрын
Нет, "Человек с попугаем" здесь одно подлежащее, поэтому "зашел". Если бы было "Человек и попугай на его плече", то тогда два подлежащих и будет "зашли"
@oplesser
@oplesser 3 жыл бұрын
А качество только такое будет?
@TV-gf9vu
@TV-gf9vu 3 жыл бұрын
ютуб раскодирует в очереди уже есть 1080@60
@ЯрославЕрмаков-о4щ
@ЯрославЕрмаков-о4щ 3 жыл бұрын
Малаца, всё понятно, я доволен
@alexanderskusnov5119
@alexanderskusnov5119 2 жыл бұрын
Вес вообще-то не омега, а дубль-вэ.
@alexanderskusnov5119
@alexanderskusnov5119 2 жыл бұрын
"скор" по-русски оценка
@bluxer4225
@bluxer4225 3 жыл бұрын
гуглА - это чтобы подчеркнуть свою причастность к узким кругам.
@tatianagaintseva8701
@tatianagaintseva8701 3 жыл бұрын
Не поняла :)
@bluxer4225
@bluxer4225 3 жыл бұрын
я простой человек и не могу панибратски говорить гуглА :)
@tatianagaintseva8701
@tatianagaintseva8701 3 жыл бұрын
@@bluxer4225 что-то я никогда об этом не задумывалась и всегда говорила "у гуглА"
@bluxer4225
@bluxer4225 3 жыл бұрын
@@tatianagaintseva8701 такому редкому сочетанию ума и красоты позволено всё!
@tatianagaintseva8701
@tatianagaintseva8701 3 жыл бұрын
@@bluxer4225 ну тагдя ладня ~(˘▾˘~)
Лекция. Трансформеры. Self-Attention
54:35
Deep Learning School
Рет қаралды 10 М.
Лекция. Seq2Seq, машинный перевод.
49:27
Deep Learning School
Рет қаралды 9 М.
СИНИЙ ИНЕЙ УЖЕ ВЫШЕЛ!❄️
01:01
DO$HIK
Рет қаралды 3,3 МЛН
REAL or FAKE? #beatbox #tiktok
01:03
BeatboxJCOP
Рет қаралды 18 МЛН
Tuna 🍣 ​⁠@patrickzeinali ​⁠@ChefRush
00:48
albert_cancook
Рет қаралды 148 МЛН
Cat mode and a glass of water #family #humor #fun
00:22
Kotiki_Z
Рет қаралды 42 МЛН
Лекция. Механизм внимания (Attention)
30:04
Deep Learning School
Рет қаралды 5 М.
But what is a neural network? | Deep learning chapter 1
18:40
3Blue1Brown
Рет қаралды 18 МЛН
Attention in transformers, visually explained | DL6
26:10
3Blue1Brown
Рет қаралды 2 МЛН
Лекция. Рекуррентная нейронная сеть
16:54
Deep Learning School
Рет қаралды 20 М.
Transformers (how LLMs work) explained visually | DL5
27:14
3Blue1Brown
Рет қаралды 4,2 МЛН
Visual Guide to Transformer Neural Networks - (Episode 2) Multi-Head & Self-Attention
15:25
Attention for Neural Networks, Clearly Explained!!!
15:51
StatQuest with Josh Starmer
Рет қаралды 295 М.
СИНИЙ ИНЕЙ УЖЕ ВЫШЕЛ!❄️
01:01
DO$HIK
Рет қаралды 3,3 МЛН