Лекция. Трансформеры. Self-Attention

  Рет қаралды 10,563

Deep Learning School

Deep Learning School

Күн бұрын

Пікірлер: 16
@Dronzord
@Dronzord Жыл бұрын
Спасибо большое за разъяснение механизма самовнимания в подробностях! Не знаю, что другим не понравилось, но мне показалось очень полезным и понятным объяснение.
@shandi1241
@shandi1241 Жыл бұрын
накнец у Антона получилось хорошо рассказать, держу пари ему нравится эта тема
@user---------
@user--------- Жыл бұрын
Я нихрена не понял.
@shandi1241
@shandi1241 Жыл бұрын
​@@user--------- ничем не могу помочь, как говорится "виноваты обои"
@user---------
@user--------- Жыл бұрын
@@shandi1241 да не обои виноваты, они то причём здесь? Обои и обои, висят себе, глаз радуют. А вот мальчик, который зачем-то решил преподавать, не умеет этого делать.
@im_buddha
@im_buddha Жыл бұрын
Антон, не надо заниматься тем, что не нравиться. Берегите уважение к себе. Вам не нравится учить людей, но вероятно нравятся нейронные сети. надо найти своем место в этой области
@user---------
@user--------- Жыл бұрын
Тип того, зачем учить если не можешь? Если хочешь, научись это делать, а самое главное - разберись сам в предмете.
@DmitryMikutsky
@DmitryMikutsky 11 ай бұрын
❤❤❤❤❤ Дивлюсь тебе! Пиши відоси й надалі! Дякую!
@uolkopalko
@uolkopalko 3 жыл бұрын
Побудем душными типами) Позабавило
@Dronzord
@Dronzord Жыл бұрын
На моменте 43:20 у А с крышкой размерность (3, L), а не (L, L)
@serjmollecule
@serjmollecule 2 жыл бұрын
Вай баля хорошо сделал
@Martin-tu4er
@Martin-tu4er 3 жыл бұрын
а ссылку на презентацию можно?
@МихаилБулкин-е7т
@МихаилБулкин-е7т 3 жыл бұрын
прикольно блин
@dimitriifromomsk
@dimitriifromomsk 2 жыл бұрын
Угм? - Слово паразит
@vladislavstankov1796
@vladislavstankov1796 3 жыл бұрын
душный
@IExSet
@IExSet Жыл бұрын
Чё блин за А итое, откуда оно взялось ???? Ещё и А-итое с крышкой !!! Всё через задницу 🙂 Совершенно не понятно как это работает целиком, и смысл этих вычислений в плане абстракции, что делает Трансформер ???? Даже размерность не уменьшается, а если несколько энкодеров, то как они работают? Куча лекторов, но таланта к объяснениям нет ни у одного, друг у друга списывают одни и те же тупые слайды показывающие мелкие части пазла максимально бессвязно между собой :-(
Лекция. Elmo, GPT, BERT
49:05
Deep Learning School
Рет қаралды 6 М.
Motorbike Smashes Into Porsche! 😱
00:15
Caters Clips
Рет қаралды 23 МЛН
ЛУЧШИЙ ФОКУС + секрет! #shorts
00:12
Роман Magic
Рет қаралды 30 МЛН
小路飞还不知道他把路飞给擦没有了 #路飞#海贼王
00:32
路飞与唐舞桐
Рет қаралды 76 МЛН
Attention in transformers, visually explained | Chapter 6, Deep Learning
26:10
Обзор архитектуры Detection Transformer (DETR)
22:02
Лекция. Трансформеры в компьютерном зрении
1:21:14
Игра жизни и как в нее играть | Руководство
1:58:50
АЛХИМИЯ СОЗНАНИЯ
Рет қаралды 261 М.
Семинар. Трансформеры
46:02
Deep Learning School
Рет қаралды 4,2 М.
Attention Is All You Need - Paper Explained
36:44
Halfling Wizard
Рет қаралды 109 М.
Motorbike Smashes Into Porsche! 😱
00:15
Caters Clips
Рет қаралды 23 МЛН