Пікірлер
@user-ph2rb8oc7b
@user-ph2rb8oc7b 6 күн бұрын
Игорь, спасибо за лекцию! Крайне полезный материал, с отличной подачей! Каждый раз обращаюсь к твоей лекции, перед собесами на секцию NLP) Было бы очень здорово, если бы появились таймкоды. Спасибо!
@BrainUniverse
@BrainUniverse 15 күн бұрын
Порекомендуйте видео где на пальцах объяснно как "обучают" матрицы q,k,v у трансформера
@azatnv
@azatnv 24 күн бұрын
Классно! Такие лекции популяризируют ресерч и открывают путь для развития в этой области
@veirtichannel
@veirtichannel Ай бұрын
ББПЕ база.
@nauseouscustody1440
@nauseouscustody1440 Ай бұрын
Если в общем, то Reward Model это продвинутая loss функция, а Hf (human feedback) это продвинутая функция активации? Или не так?
@user-ij9rm8wm6l
@user-ij9rm8wm6l Ай бұрын
1:18:53
@user-ql7vi6mu3q
@user-ql7vi6mu3q Ай бұрын
Большое спасибо!
@elenamartynova8068
@elenamartynova8068 Ай бұрын
Человек - это животное, разве нет?)
@cosmonaut380
@cosmonaut380 2 ай бұрын
Спасибо за потрясающий цикл лекций, да еще и на русском, да еще и бесплатно.
@user-mc5uo2nw6h
@user-mc5uo2nw6h 2 ай бұрын
Оооооочень ждем продолжение
@arrancartruecoding8541
@arrancartruecoding8541 2 ай бұрын
Если мы на LLM генерируем положительный отзыв, то нам нужно создать и использовать Embedding на положительный сентимен? Получается, что тренировка Embedding - это поиск нужного нейрона?
@arrancartruecoding8541
@arrancartruecoding8541 2 ай бұрын
Очень подробно и доступно! Когда начал работать с LLM я понял, что это самый эффективный способ хранения информации, но объяснить друзьям простыми словами почему я не мог. Спасибо!
@eskenderqrm8041
@eskenderqrm8041 2 ай бұрын
Лекция 🔥
@alexanderbakhrakh
@alexanderbakhrakh 2 ай бұрын
с дорогой и собакой проще пример чем те два на английском. Кто кого благодарит из двух девушек - тут уже нужна логика, а собака и дорога - разные сущности.
@user-mc5uo2nw6h
@user-mc5uo2nw6h 2 ай бұрын
Это просто потрясающе! Очень интересно
@TheAltamontboy
@TheAltamontboy 2 ай бұрын
Игорь, большое спасибо за такие подробные разборы статей, очень помогает посмотреть на работу с разных сторон
@kuliev.vitaly
@kuliev.vitaly 3 ай бұрын
Отличная лекция! Интересно узнать про актуальные нейросети.
@user---------
@user--------- 3 ай бұрын
Спасибо за курс, в целом интересно, пару лекций даже было понятно на 60%...... Не планируется ли версия этого курса для тупых? Вы не поверите, но нас много, больше чем официально считается (все просто делают вид, что умные такие как вы)......
@stalkermustang
@stalkermustang 3 ай бұрын
нет, у курса есть пререквизиты, в рамках которых он действует (см. описание первой лекции).
@user---------
@user--------- 3 ай бұрын
@@stalkermustang ну статьи на Хабре у вас намного более понятны для широкой аудитории :)
@user---------
@user--------- 3 ай бұрын
Кажется первый ролик из этого мини-курса который почти весь понятен.
@Bkloped
@Bkloped 3 ай бұрын
Спасибо огромное, очень круто
@high_fly_bird
@high_fly_bird 3 ай бұрын
Прекрасный курс, спасибо Игорю! Столько плюсов! Во-первых, курс на русском. Во-вторых, курс на прекрасном русском - слушать лектора приятно, все логические ударения, паузы, интонационные выделения соблюдены. А в-третьих, выжимка в 40 минутах очень полезная и прикладная. Спасибо ещё раз! Мы это ценим.
@user---------
@user--------- 3 ай бұрын
А есть тоже самое, но для тупых? Я конечно понимаю, что тут все очень умные и с первого просмотра все поняли, но есть тупые вроде меня, которым требуется объяснить все детали, а не только упоминать их как факт. Подскажете плиз?
@user---------
@user--------- 3 ай бұрын
Совсем не понятно что значит "появился нейрон, который понимает хороший отзыв или плохой". Как именно он появился? Как он "выглядит" и где он находится? Почему именно этот "нейрон" имеет значение? Почему он один? Там же может быть "100 нейронов" которые делают эти оценки. И тд. Очень туманно и не раскрыты все [ВАЖНЫЕ] детали. Может быть подскажете где почитать?
@dmitryp1257
@dmitryp1257 3 ай бұрын
Исходная mLSTM выдаёт вектор некоторой размерности. В этом векторе всегда один и тот же элемент отвечает за тональность текста, и классификатор тональности можно строить только на значениях этого элемента. То есть, приходит в классификатор последовательность из N чисел, а мы берём из этих чисел одно, и по нему определяем, плохой отзыв или хороший.
@user---------
@user--------- 3 ай бұрын
@@dmitryp1257 откуда эти данные? Можно первоисточник плз. Я впервые слышу что можно точно определить конкретный элемент вектора отвечающий за тональность.
@user---------
@user--------- 3 ай бұрын
Если честно ниxpeна не понятно 😢 На Хабре вы понятнее пишете (для неопытных воробьев)
@tech_priestess_channel
@tech_priestess_channel 3 ай бұрын
НО РЕБЯТА ИЗ OPENAI ОШИБЛИСЬ!
@llyamels
@llyamels 3 ай бұрын
21:50 Скример
@tech_priestess_channel
@tech_priestess_channel 3 ай бұрын
Было бы, конечно, неплохо сделать звук погромче
@tech_priestess_channel
@tech_priestess_channel 3 ай бұрын
Хороший видосян
@tech_priestess_channel
@tech_priestess_channel 3 ай бұрын
1. Будешь как-нибудь рассказывать про "BERT Rediscovers the Classical NLP Pipeline" и другие статьи в этом направлении? Раз уж ты затронул тему важности 1го слоя GPT. 2. Где юпитер ноутбук с фокусом по удалению последних слоев GPT?
@stalkermustang
@stalkermustang 3 ай бұрын
Про берт не буду (мы же про гпт говорим), ноутбука нет - можно самим закодить за 5 минут.
@consilx2985
@consilx2985 3 ай бұрын
прив, как думаешь 3д индустрии скоро пизда настанет ?
@user---------
@user--------- 3 ай бұрын
Скоро всем индустриям 3.14зда настанет, очевидно. Кожаные мешки станут не нужны, но жрать то хотеть будут, тем более от безделья!
@artoemkozlov
@artoemkozlov 3 ай бұрын
Спасибо за видео! А есть какая-то интуиция почему на 7:20 zero-shot acc для обоих датасетов лучше чем one-shot? С дивана кажется, что один пример лучше чем ничего, но в результате выглядит что это только мешает модели, вне зависимости от ее размера.
@stalkermustang
@stalkermustang 3 ай бұрын
Привет, неа, и в статье не видел объяснения. Если бы речь шла про более поздние модели, то начал бы рассуждать про трейдофф между in context learning abilities и instruction following (помню, где-то читал, что улучшая одно ухудшается второе), но тут же чисто LLMка без тюна.
@dstepan76
@dstepan76 3 ай бұрын
Спасибо! Но перформанс не улучшается, он беттерится :)
@Solalexc
@Solalexc 3 ай бұрын
0:18 спасибо Семен большое за интродакшн 🤣 Не проще ли говорить «Биг секнкс Семион за интродакшн»
@stalkermustang
@stalkermustang 3 ай бұрын
сори я он инглиш не шпрехаю(
@user-vk8zn1mq6i
@user-vk8zn1mq6i 3 ай бұрын
Огромное спасибо автору! Вы делаете великую и полезную работу!
@user-vk8zn1mq6i
@user-vk8zn1mq6i 3 ай бұрын
Огромное спасибо автору! Вы делаете великую и полезную работу!
@user-vk8zn1mq6i
@user-vk8zn1mq6i 3 ай бұрын
Огромное спасибо автору! Вы делаете великую и полезную работу!
@cosmonaut380
@cosmonaut380 3 ай бұрын
Спасибо за невероятно полезный цикл лекций!
@chanel454879876354
@chanel454879876354 3 ай бұрын
Спасибо, очень насыщенно и понятно ❤ Теперь пойду в HF NLP
@user---------
@user--------- 3 ай бұрын
Объясните мне если вам понятно, мне ничего не понятно кроме токенизатора
@chanel454879876354
@chanel454879876354 3 ай бұрын
@@user--------- рекомендую небольшую книгу создаем нейронную сеть, тарик рашид
@blackbigdeath
@blackbigdeath 3 ай бұрын
Спасибо, отлично!
@user-wo5ie9hk1o
@user-wo5ie9hk1o 3 ай бұрын
Примерно на 38:00 говорится, что можно посмотреть разборы, но не приводятся ссылки. Я погуглил за вас © Reformer: kzbin.info/www/bejne/n2WrYZ6grdecl9U Longformer: kzbin.info/www/bejne/lWmuf5VrntaVoqc Linformer: kzbin.info/www/bejne/Y5CVcnlvgc2qm9E Performer: kzbin.info/www/bejne/rnvVfHyGrLuqfa8
@IgorKolyshkin
@IgorKolyshkin 3 ай бұрын
Спасибо за материал и отличную подачу. С удовольствием повспоминал теорвер, с которым не сталкивался после окончания универа.
@MrAbelash
@MrAbelash 3 ай бұрын
Хотелось бы услышать более подробно как происходит Unsuoervised Learning, как создаются входной и виходной датасет на которых обучается епоха
@stalkermustang
@stalkermustang 3 ай бұрын
Привет. К сожалению, это курс не для начинающих, и он сам по себе является частью другого курса (dls.samcs.ru/, вторая часть). Поэтому такие темы тут не раскрыты. Можно изучить их по отдельности самостоятельно, но конкретно про "входной и выходной датасет на которых обучается эпоха" - это можно подчерпнуть в моей предыдущей лекции kzbin.info/www/bejne/n4DVf5WBZ7lsaK8 (однако она тоже не для новичков, и например про эмбеддинги я там не рассказываю, а сразу испольхую это понятие).
@user-gv5zh5jv9m
@user-gv5zh5jv9m 3 ай бұрын
Самое классное в этом курсе то, что даже понимая не все, общая суть все равно улавливается. Еще раз спасибо, курс очень крутой
@user---------
@user--------- 3 ай бұрын
Вся суть этого курса - что-то там как-будто понимаешь, но ничего не понимаешь, все верно )))))))
@Against61
@Against61 3 ай бұрын
Кажись Тед Мосби на фото, Как я встретил вашу LLM )
@ekaterinaivanova3816
@ekaterinaivanova3816 4 ай бұрын
кохИрент :)
@stalkermustang
@stalkermustang 3 ай бұрын
до сих пор фейспалм ловлю, я не знаю как так вышло, я на монтаже слышал и думал "втф, как я мог прям так неправильно произносить", аххаа, потому что я знаю как правильно - но не смог вот озвучить ;/
@anikanovd
@anikanovd 4 ай бұрын
много кеков ++
@anikanovd
@anikanovd 4 ай бұрын
Что у тебя случилось в тот день???
@stalkermustang
@stalkermustang 3 ай бұрын
а что там?
@user-gv5zh5jv9m
@user-gv5zh5jv9m 4 ай бұрын
Я магистр в физике полупроводников и знаю только основы МО. Эта лекция просто отлично зашла, кажется что большая часть понятна и главное интересно. Спасибо большое!
@cosmonaut380
@cosmonaut380 4 ай бұрын
Лайк и комментарий в знак признания и благодарности за отличный цикл лекций.
@CbI4
@CbI4 4 ай бұрын
Насколько я понял, неравенство Хефдинга не может применяться именно для тренировочного сета. Потому что он не является случайно выбранным. Простейший контрпример - модель, которая тупо запоминает все ответы для тренировочного сета. Т.о. начилие хоть нулевой ошибки на тренировочном сете, хоть из миллиарда примеров не даёт никакой гарантии качества модели для произвольного сета. Неравенство Хёфдинга может быть полезно для оценки качества модели. Можно проверить модель на относительно небольшом проверочном сете, и сделать вывод о качестве её работы на произвольном сете. Но проверять модель на тренировочном сете нельзя. Ну вроде так...