Прикладное машинное обучение 4. Self-Attention. Transformer overview

  Рет қаралды 30,071

Лекторий ФПМИ

Лекторий ФПМИ

Күн бұрын

Пікірлер: 36
@wadwad6571
@wadwad6571 2 жыл бұрын
Лучшее объяснение трансформеров которое я когда либо видел - четко внятно и все по делу. Автор большой молодец!!
@sharepix
@sharepix 3 жыл бұрын
Отличная лекция! Много дополнительных объяснений о неинтуитивных моментах, которых не увидишь в статьях. И правильная визуализация positional embeddings, которую почему-то часто изображают отдельно для четных и нечетных позиций, что вводит в заблуждение. Преподаю сам. Спасибо!
@geomirgo1849
@geomirgo1849 10 күн бұрын
Отсылка на Оптимуса Прайма. Божественно
@ДенисРогачиков
@ДенисРогачиков 2 жыл бұрын
лекция топовая, Радослав очень круто объясняет - благодарю!
@IExSet
@IExSet Жыл бұрын
Только русский скоро совсем забросит 🤣🤣🤣
@КонстантинИсаев-л6э
@КонстантинИсаев-л6э 11 ай бұрын
@Red_Paper6495 лол, 10 строчек на торче. что тут реальзовать-то?
@ISandrucho
@ISandrucho 2 жыл бұрын
Каждый раз слышу, будто Радослав хочет парализовать вычисления )
@PavelLomov
@PavelLomov Жыл бұрын
да... напомнило из Сп**дили сцену у циган про песиков...
@dmmd5329
@dmmd5329 4 жыл бұрын
Очень хорошо объясняет, спасибо большое
@аавыф-б4о
@аавыф-б4о Жыл бұрын
ухты! трансформеры - это красиво 😄 хорошая статья
@endless-miracle
@endless-miracle 4 жыл бұрын
Мне кажется, звук какой-то зашумленный, его качество хуже, чем обычно (
@Enerdzizer
@Enerdzizer 4 жыл бұрын
Александра Кондратенко Чтобы не переобучиться:)
@t561355
@t561355 2 жыл бұрын
Спасибо! Лектор - супер!
@Dusha9119
@Dusha9119 3 жыл бұрын
Отличный курс!
@drVatman
@drVatman 3 жыл бұрын
Спасибо за видео. Остался вопрос, как все эти вектора тренируются, особенно в энкодере, если у него выход завязан сразу на много декодеров и ошибку надо считать для каждого из них.
@ferb9990
@ferb9990 11 ай бұрын
Не могу найти материалы данной лекции и семенара на github. Может кто-нибудь подскажет, где искать?
@IlnurFaizrakhmanov
@IlnurFaizrakhmanov Жыл бұрын
можете подсказать в каком видео про batch normalization говорится? искал , не нашел к сожалению
@AcCeHu3aToP
@AcCeHu3aToP 3 жыл бұрын
Хи*уя не понял. Но очень интересно!
@kol-di
@kol-di Жыл бұрын
годнота, жаль вы на ФКНе не преподаете
@IExSet
@IExSet Жыл бұрын
Перевожу с гиковского: "dot product" - "скалярное произведение", "bottleneck" - "узкое место/бутылочное горлышко", "attention score" - "уровни/рейтинги внимания"
@andreyreznikov5999
@andreyreznikov5999 Жыл бұрын
Добрый день, ссылка неактуальна( Есть ли актуальная ссылка ?
@data_borodata
@data_borodata 2 жыл бұрын
Сколькож у него рубашек
@KpaHTV
@KpaHTV 4 жыл бұрын
Оптимус гэнг уже не тот
@torcher5023
@torcher5023 Жыл бұрын
Как раз-таки тот, друг. Или ты ставишь клоунаду выше этого божественного знания? Надеюсь, ты поумнел за 2 года.
@vanderhuuy
@vanderhuuy Жыл бұрын
​@@torcher5023 дядь иди проветрись
@torcher5023
@torcher5023 Жыл бұрын
@@vanderhuuy Сам проветрись, нормис
@romanbolgar
@romanbolgar 3 жыл бұрын
Разве можно задать вопрос если практически ничего непонятно. Для того чтобы понять взаимосвязь слов в этом видео наверное надо быть самим трансформерам. Половина слов на английском, половина логических цепей скачут, упуская смысл. В общем яркий пример самообучения... Но я всё равно лайк поставлю Просто потому что Тема Очень актуальная. Хотелось бы узнать поподробнее. Чтобы кто-то рассказал более разжеванно на конкретных примерах. Где эти технологии уже применяются? Где непосредственно обыватели могут их использовать? Вот я сейчас надиктую эти слова, Можно ли задействовать здесь трансформер и почему до сих пор так много ошибок? Почему не комбинирует разные методики для улучшения распознания речи. Например чтение по губам плюс анализ произнесенного. Уже молчу О всём остальном. Где перевод на лету англоязычных видео на Ютюбе? Где нормальные синтезаторы речи? Искусственный интеллект это наше будущее это наше всё. Почему мы до сих пор топчемся на месте и никто не может реализовать массу идей которые уже от счастья реализованный но разрозненны? Когда появится язык программирования нового поколения, в виде голосовых помощников которые составляют программы непосредственно из сказанного делают то что их просят? Где в конце концов таргетированный доход о котором я написал целую статью. Люди боятся Что за ними следят в сети, но я очень сожалею что за мной следят недостаточно. У меня, Как возможно и у других, масса полезных идей которые могли бы принести миллионы и могли бы быть полезны и всему обществу, Но кто их заметит? Люди до сих пор остаются в рабстве. Огромные и людской потенциал не используется. Искусственный интеллект мог бы проводить профориентацию и автоматически Как зарабатывать самостоятельно так и давать зарабатывать другим, по принципу игры с ненулевой суммой. Но мне некогда про это рассказывать, потому что повторюсь нахожусь в социальном рабстве.
@roll8253
@roll8253 3 жыл бұрын
ИИ уже помог в Великобритании распределить школьников по вузам ))
@romanbolgar
@romanbolgar 3 жыл бұрын
@Сергей Михалев В смысле?
@miremax0
@miremax0 3 жыл бұрын
часть из перечисленного Вами есть, но платно. Я думаю, значительная часть упирается в ресурсы. Методы, о которых лектор говорит, требуют одну или более видеокарту для вычислений. Яндекс в яндекс-браузере месяц назад запустил перевод видео с генерацией речи, например. Всё развивается, но это дело нескольких лет, а не дней или месяцев)
@romanbolgar
@romanbolgar 3 жыл бұрын
@@miremax0, Удивительно но именно сегодня тоже узнал о том что на Яндексе можно переводить видео. Правда К сожалению надо ставить Яндекс Браузер ну хоть так. Буду пробовать Жаль только нету времени...
@АлександрПетровский-я7б
@АлександрПетровский-я7б Жыл бұрын
Нихрена не понятно. Формулы (типа R^...) - вообще ни к чему не привязаны!
@rizef2166
@rizef2166 2 ай бұрын
R^k это просто означает что мы имеет дело с вектором вещественных чисел размерности k. Если R^k×k то это уже матрица размерности k на k. Странно конечно изучать уже аж трансформеры и не знать таких вещей. Но возможно вы говорите про какой-то другой момент, я просто до конца не досмотрел еще
@rizef2166
@rizef2166 2 ай бұрын
То есть что h1, ..., hN ∈ R^k означает что каждый h это просто вектор вещественных чисел длины k
Лекция. Внимание (Attention)
38:51
Deep Learning School
Рет қаралды 15 М.
FOREVER BUNNY
00:14
Natan por Aí
Рет қаралды 33 МЛН
Кто круче, как думаешь?
00:44
МЯТНАЯ ФАНТА
Рет қаралды 6 МЛН
[DeepLearning | видео 1] Что же такое нейронная сеть?
19:00
3Blue1Brown translated by Sciberia
Рет қаралды 807 М.
Прикладное машинное обучение 1. Intro to NLP. Word embeddings
1:00:52
Transformers (how LLMs work) explained visually | DL5
27:14
3Blue1Brown
Рет қаралды 3,8 МЛН
ChatGPT: от новичка до PRO за полчаса
38:21
DiazBarnz
Рет қаралды 418 М.
Лекция 10 Прогнозирование временных рядов
1:27:26
Как развиваются современные нейронные сети
1:55:35
Истовый Инженер
Рет қаралды 1 М.
FOREVER BUNNY
00:14
Natan por Aí
Рет қаралды 33 МЛН