Лекция. Контестные эмбеддинги. Word2Vec.

  Рет қаралды 17,783

Deep Learning School

Deep Learning School

Күн бұрын

Пікірлер
@ilona7051
@ilona7051 Жыл бұрын
Какое мастерство!! Кристально ясная подача материала. Столько роликов просмотрела, но только после Вашего объяснения все стало на свои места. Спасибо!
@РоманПеликан-щ6ч
@РоманПеликан-щ6ч Жыл бұрын
Прекрасный лектор, прекрасное объяснение и прекрасная презентация. Спасибо!
@AskoLd1ee
@AskoLd1ee Жыл бұрын
Татьяна - вы прекрасны! Спасибо!
@Enerdzizer
@Enerdzizer 6 ай бұрын
Отличное объяснение, структурированно и лаконично🎉 ну и естественно приятный лектор) пс в 16:01 все таки не вектор столбец умножается а вектор строка..
@АндрейХохлов-ц8ж
@АндрейХохлов-ц8ж 10 ай бұрын
лекция огонь! на одном дыхании!😃
@EsinaViwn9
@EsinaViwn9 10 ай бұрын
Очень хорошо объяснили
@astma6140
@astma6140 Ай бұрын
15:46 как вектор размера nx1 умножается на матрицу nxk? Ведь для перемножения кол-во столбцов первого должно быть равно количеству строк второго. Не понял этот момент
@乇乇尺卂乇几尺乇尺
@乇乇尺卂乇几尺乇尺 11 ай бұрын
Очень хороший материал, но лектор слишком красивый.
@jewgenijmoldawski3306
@jewgenijmoldawski3306 Жыл бұрын
Почему-то в playlist "Deep Learning: часть 2. Обработка естественного языка. 2023 год" этот ролик на 4-й позиции, хотя должен быть на второй.
@DeepLearningSchool
@DeepLearningSchool 11 ай бұрын
поправим, спасибо
@sergeysosnovski162
@sergeysosnovski162 6 ай бұрын
@@DeepLearningSchool Когда ?
@mihailnikolaev1561
@mihailnikolaev1561 3 ай бұрын
Спасибо за лекцию! А при обучении word2vec 15:15 мы может использовать сразу сравнивать вектор из НС с вектором с несколькими единицами (несколькими словами), а не по одной единице и соответственно слову?
@danil-old-web
@danil-old-web 4 ай бұрын
Почему так мало видео на русском про данную тему. Вообще-то это единственное видео которое я нашел об этом.
@damirtenishev6874
@damirtenishev6874 Жыл бұрын
Не совсем верно (21:50), что чем больше embedding, тем больше смысла он может содержать. До какой-то степени - да, потом - скорее всего, полезность будет расти медленно с ростом k. Интуиция подсказывает, что - логарифмически ассимптотически приближаясь к какому-то пределу. Либо при k равном размеру словаря, либо, при более сложной обработке при исчерпании информации в тексте. Интересно, есть ли исследования, показывающие на реальных текстах зависимость результативности и правильности обучения от величины k? Было бы интересно изучить. Всё-таки k сильно влияет на ресурсы на больших текстах.
@user-danche
@user-danche Жыл бұрын
А что из себя представляют матрицы A и B, как определяются значения в строках, столбцах?
@ЛазаревАлександр-ф7ь
@ЛазаревАлександр-ф7ь Жыл бұрын
они выучиваются с помощью градиентного спуска
@artem5753
@artem5753 10 ай бұрын
Было сказано, что i-тая строка матрицы А является эмбеддингом входного слова, а j-тый столбец матрицы B эмбеддингом контекстоного слова, но как получаются то сами эти эмбеддинги? Как они расчитывается?
@me_andrei
@me_andrei 3 ай бұрын
в процессе обучения сетки
@Arseny150
@Arseny150 Жыл бұрын
У машины бывает рама, только она мало кому видна и уж тем более мало кто красит ее в красивый белый цвет :)
@sergeyivzhenko4299
@sergeyivzhenko4299 Ай бұрын
У рамного авто есть рама. А у автомобиля с несущим кузовом рамы нет
@АндрейКениг-б6д
@АндрейКениг-б6д 6 ай бұрын
Поясните, пожалуйста, почему на эмбеддингах работает векторная арифметика (например, королева = король - мужчина + женщина)? Из того, как мы их получили, следует, что в них закодирован их контекст, поэтому эмбединги похожих слов будут похожи, т.е. их косинусное расстояние будет большим. А вот то что на данных эмбеддингах будет работать векторная арифметика, мне не совсем понятно.
@АндрейКениг-б6д
@АндрейКениг-б6д 6 ай бұрын
Нашел объяснение: Alex Gittens, Dimitris Achlioptas, and Michael W. Mahoney. 2017. Skip-Gram − Zipf + Uniform = Vector Additivity. In Proceedings of the 55th Annual Meeting of the Association for Computational Linguistics (Volume 1: Long Papers), pages 69-76, Vancouver, Canada. Association for Computational Linguistics.
@damirtenishev6874
@damirtenishev6874 Жыл бұрын
Спасибо. Толковое и последовательное изложение. Хорошо бы добавить к этой лекции объяснение, какую именно практическую задачу мы решаем в данном случае, как это сделано у Вас в целом в kzbin.info/www/bejne/iaW9knt4g7ychdU. Там - перечислено множество задач, но в этом уроке хотелось бы знать, какую задачу мы решаем в данном случае. Инструмент описан очень хорошо, но без описания цели сложно понять, зачем выбирать именно его при наличии более простых, хорошо отлаживаемых и пресказуемых механизмов. Вопрос не праздный. К примеру, если речь идёт о предсказании текста, то возникает вопрос, чем метод цепей Маркова хуже или чем не подходит та же таблица с 3:13 ? Вы показываете сложные алгоритмы, подключаете использование нейронных сетей, которые достаточно сложно отлаживать - это должно оправдываться задачей. Если они работают лучше, чем цепи Маркова - было бы здорово показать задачу, на которой это так. Я не спорю, что Вы правы - у этого подхода много преимуществ, в том числе - в возможности расширения и гибкости, но это - абстрактные слова. Сильно поможет, если будет показана задача и объяснено, чем такой подход лучше детерминированного подхода цепей Маркова и таблицы, которую Вы предложили.
@Enerdzizer
@Enerdzizer 6 ай бұрын
А кто может пояснить почему работает арифметика сложения и вычитания с эмбедингами и при этом смысл слов соответствует ? Король женщина королева
@Perfffffffect
@Perfffffffect 8 ай бұрын
Обыскал весь интернет в поисках нормального объяснения word2vec. Ничего не нашел кроме статьей шарлатанов, которые сами не понимают, как оно работает (аля «ну я кнопку нажал и получил эмбединг»). А здесь ультрасуперское объяснение с понятной логикой и смыслом того, как это устроено!!!
@Pcheetos
@Pcheetos Жыл бұрын
привет красивая женщина
@danil-old-web
@danil-old-web 4 ай бұрын
Мля, разрабы языков программирования и всяких других технологий продались дядям. Спасибо 2000х годам хатя бы дали нам PHP, Dreamweaver, Photoshop. И книги по ним печатались тоннами для любого уровня. Зажали ска рекомендации для сайтов, иначе ютубы всякие не стали бы монополистами. Сейчас мне на сайт эти все машинные куски дерьма дайте и я ваш ютуб обгоню по посещаемости. Ленивые люди привыкли что им все нейросеть подбирает и за ними мысль заканчивает.
Лекция. Рекуррентная нейронная сеть
16:54
Deep Learning School
Рет қаралды 20 М.
Лекция. Законы масштабирования LLM
41:42
Deep Learning School
Рет қаралды 1 М.
Try this prank with your friends 😂 @karina-kola
00:18
Andrey Grechka
Рет қаралды 9 МЛН
BAYGUYSTAN | 1 СЕРИЯ | bayGUYS
36:55
bayGUYS
Рет қаралды 1,9 МЛН
It’s all not real
00:15
V.A. show / Магика
Рет қаралды 20 МЛН
How to treat Acne💉
00:31
ISSEI / いっせい
Рет қаралды 108 МЛН
Word Embedding and Word2Vec, Clearly Explained!!!
16:12
StatQuest with Josh Starmer
Рет қаралды 362 М.
What is Word2Vec?  How does it work? CBOW and Skip-gram
19:27
Kris Ghimire
Рет қаралды 35 М.
Рассчитываем контекстную близость слов с помощью библиотеки Word2vec
11:46
Transformers (how LLMs work) explained visually | DL5
27:14
3Blue1Brown
Рет қаралды 4,3 МЛН
Лекция. Функции активации в RNN
18:21
Deep Learning School
Рет қаралды 8 М.
Try this prank with your friends 😂 @karina-kola
00:18
Andrey Grechka
Рет қаралды 9 МЛН