Игорь, спасибо за лекцию! Крайне полезный материал, с отличной подачей! Каждый раз обращаюсь к твоей лекции, перед собесами на секцию NLP) Было бы очень здорово, если бы появились таймкоды. Спасибо!
@BrainUniverse15 күн бұрын
Порекомендуйте видео где на пальцах объяснно как "обучают" матрицы q,k,v у трансформера
@azatnv24 күн бұрын
Классно! Такие лекции популяризируют ресерч и открывают путь для развития в этой области
@veirtichannelАй бұрын
ББПЕ база.
@nauseouscustody1440Ай бұрын
Если в общем, то Reward Model это продвинутая loss функция, а Hf (human feedback) это продвинутая функция активации? Или не так?
@user-ij9rm8wm6lАй бұрын
1:18:53
@user-ql7vi6mu3qАй бұрын
Большое спасибо!
@elenamartynova8068Ай бұрын
Человек - это животное, разве нет?)
@cosmonaut3802 ай бұрын
Спасибо за потрясающий цикл лекций, да еще и на русском, да еще и бесплатно.
@user-mc5uo2nw6h2 ай бұрын
Оооооочень ждем продолжение
@arrancartruecoding85412 ай бұрын
Если мы на LLM генерируем положительный отзыв, то нам нужно создать и использовать Embedding на положительный сентимен? Получается, что тренировка Embedding - это поиск нужного нейрона?
@arrancartruecoding85412 ай бұрын
Очень подробно и доступно! Когда начал работать с LLM я понял, что это самый эффективный способ хранения информации, но объяснить друзьям простыми словами почему я не мог. Спасибо!
@eskenderqrm80412 ай бұрын
Лекция 🔥
@alexanderbakhrakh2 ай бұрын
с дорогой и собакой проще пример чем те два на английском. Кто кого благодарит из двух девушек - тут уже нужна логика, а собака и дорога - разные сущности.
@user-mc5uo2nw6h2 ай бұрын
Это просто потрясающе! Очень интересно
@TheAltamontboy2 ай бұрын
Игорь, большое спасибо за такие подробные разборы статей, очень помогает посмотреть на работу с разных сторон
@kuliev.vitaly3 ай бұрын
Отличная лекция! Интересно узнать про актуальные нейросети.
@user---------3 ай бұрын
Спасибо за курс, в целом интересно, пару лекций даже было понятно на 60%...... Не планируется ли версия этого курса для тупых? Вы не поверите, но нас много, больше чем официально считается (все просто делают вид, что умные такие как вы)......
@stalkermustang3 ай бұрын
нет, у курса есть пререквизиты, в рамках которых он действует (см. описание первой лекции).
@user---------3 ай бұрын
@@stalkermustang ну статьи на Хабре у вас намного более понятны для широкой аудитории :)
@user---------3 ай бұрын
Кажется первый ролик из этого мини-курса который почти весь понятен.
@Bkloped3 ай бұрын
Спасибо огромное, очень круто
@high_fly_bird3 ай бұрын
Прекрасный курс, спасибо Игорю! Столько плюсов! Во-первых, курс на русском. Во-вторых, курс на прекрасном русском - слушать лектора приятно, все логические ударения, паузы, интонационные выделения соблюдены. А в-третьих, выжимка в 40 минутах очень полезная и прикладная. Спасибо ещё раз! Мы это ценим.
@user---------3 ай бұрын
А есть тоже самое, но для тупых? Я конечно понимаю, что тут все очень умные и с первого просмотра все поняли, но есть тупые вроде меня, которым требуется объяснить все детали, а не только упоминать их как факт. Подскажете плиз?
@user---------3 ай бұрын
Совсем не понятно что значит "появился нейрон, который понимает хороший отзыв или плохой". Как именно он появился? Как он "выглядит" и где он находится? Почему именно этот "нейрон" имеет значение? Почему он один? Там же может быть "100 нейронов" которые делают эти оценки. И тд. Очень туманно и не раскрыты все [ВАЖНЫЕ] детали. Может быть подскажете где почитать?
@dmitryp12573 ай бұрын
Исходная mLSTM выдаёт вектор некоторой размерности. В этом векторе всегда один и тот же элемент отвечает за тональность текста, и классификатор тональности можно строить только на значениях этого элемента. То есть, приходит в классификатор последовательность из N чисел, а мы берём из этих чисел одно, и по нему определяем, плохой отзыв или хороший.
@user---------3 ай бұрын
@@dmitryp1257 откуда эти данные? Можно первоисточник плз. Я впервые слышу что можно точно определить конкретный элемент вектора отвечающий за тональность.
@user---------3 ай бұрын
Если честно ниxpeна не понятно 😢 На Хабре вы понятнее пишете (для неопытных воробьев)
@tech_priestess_channel3 ай бұрын
НО РЕБЯТА ИЗ OPENAI ОШИБЛИСЬ!
@llyamels3 ай бұрын
21:50 Скример
@tech_priestess_channel3 ай бұрын
Было бы, конечно, неплохо сделать звук погромче
@tech_priestess_channel3 ай бұрын
Хороший видосян
@tech_priestess_channel3 ай бұрын
1. Будешь как-нибудь рассказывать про "BERT Rediscovers the Classical NLP Pipeline" и другие статьи в этом направлении? Раз уж ты затронул тему важности 1го слоя GPT. 2. Где юпитер ноутбук с фокусом по удалению последних слоев GPT?
@stalkermustang3 ай бұрын
Про берт не буду (мы же про гпт говорим), ноутбука нет - можно самим закодить за 5 минут.
@consilx29853 ай бұрын
прив, как думаешь 3д индустрии скоро пизда настанет ?
@user---------3 ай бұрын
Скоро всем индустриям 3.14зда настанет, очевидно. Кожаные мешки станут не нужны, но жрать то хотеть будут, тем более от безделья!
@artoemkozlov3 ай бұрын
Спасибо за видео! А есть какая-то интуиция почему на 7:20 zero-shot acc для обоих датасетов лучше чем one-shot? С дивана кажется, что один пример лучше чем ничего, но в результате выглядит что это только мешает модели, вне зависимости от ее размера.
@stalkermustang3 ай бұрын
Привет, неа, и в статье не видел объяснения. Если бы речь шла про более поздние модели, то начал бы рассуждать про трейдофф между in context learning abilities и instruction following (помню, где-то читал, что улучшая одно ухудшается второе), но тут же чисто LLMка без тюна.
@dstepan763 ай бұрын
Спасибо! Но перформанс не улучшается, он беттерится :)
@Solalexc3 ай бұрын
0:18 спасибо Семен большое за интродакшн 🤣 Не проще ли говорить «Биг секнкс Семион за интродакшн»
@stalkermustang3 ай бұрын
сори я он инглиш не шпрехаю(
@user-vk8zn1mq6i3 ай бұрын
Огромное спасибо автору! Вы делаете великую и полезную работу!
@user-vk8zn1mq6i3 ай бұрын
Огромное спасибо автору! Вы делаете великую и полезную работу!
@user-vk8zn1mq6i3 ай бұрын
Огромное спасибо автору! Вы делаете великую и полезную работу!
@cosmonaut3803 ай бұрын
Спасибо за невероятно полезный цикл лекций!
@chanel4548798763543 ай бұрын
Спасибо, очень насыщенно и понятно ❤ Теперь пойду в HF NLP
@user---------3 ай бұрын
Объясните мне если вам понятно, мне ничего не понятно кроме токенизатора
@chanel4548798763543 ай бұрын
@@user--------- рекомендую небольшую книгу создаем нейронную сеть, тарик рашид
Спасибо за материал и отличную подачу. С удовольствием повспоминал теорвер, с которым не сталкивался после окончания универа.
@MrAbelash3 ай бұрын
Хотелось бы услышать более подробно как происходит Unsuoervised Learning, как создаются входной и виходной датасет на которых обучается епоха
@stalkermustang3 ай бұрын
Привет. К сожалению, это курс не для начинающих, и он сам по себе является частью другого курса (dls.samcs.ru/, вторая часть). Поэтому такие темы тут не раскрыты. Можно изучить их по отдельности самостоятельно, но конкретно про "входной и выходной датасет на которых обучается эпоха" - это можно подчерпнуть в моей предыдущей лекции kzbin.info/www/bejne/n4DVf5WBZ7lsaK8 (однако она тоже не для новичков, и например про эмбеддинги я там не рассказываю, а сразу испольхую это понятие).
@user-gv5zh5jv9m3 ай бұрын
Самое классное в этом курсе то, что даже понимая не все, общая суть все равно улавливается. Еще раз спасибо, курс очень крутой
@user---------3 ай бұрын
Вся суть этого курса - что-то там как-будто понимаешь, но ничего не понимаешь, все верно )))))))
@Against613 ай бұрын
Кажись Тед Мосби на фото, Как я встретил вашу LLM )
@ekaterinaivanova38164 ай бұрын
кохИрент :)
@stalkermustang3 ай бұрын
до сих пор фейспалм ловлю, я не знаю как так вышло, я на монтаже слышал и думал "втф, как я мог прям так неправильно произносить", аххаа, потому что я знаю как правильно - но не смог вот озвучить ;/
@anikanovd4 ай бұрын
много кеков ++
@anikanovd4 ай бұрын
Что у тебя случилось в тот день???
@stalkermustang3 ай бұрын
а что там?
@user-gv5zh5jv9m4 ай бұрын
Я магистр в физике полупроводников и знаю только основы МО. Эта лекция просто отлично зашла, кажется что большая часть понятна и главное интересно. Спасибо большое!
@cosmonaut3804 ай бұрын
Лайк и комментарий в знак признания и благодарности за отличный цикл лекций.
@CbI44 ай бұрын
Насколько я понял, неравенство Хефдинга не может применяться именно для тренировочного сета. Потому что он не является случайно выбранным. Простейший контрпример - модель, которая тупо запоминает все ответы для тренировочного сета. Т.о. начилие хоть нулевой ошибки на тренировочном сете, хоть из миллиарда примеров не даёт никакой гарантии качества модели для произвольного сета. Неравенство Хёфдинга может быть полезно для оценки качества модели. Можно проверить модель на относительно небольшом проверочном сете, и сделать вывод о качестве её работы на произвольном сете. Но проверять модель на тренировочном сете нельзя. Ну вроде так...