Вариационные автоэнкодеры (VAE). Что это такое? | #28 нейросети на Python

  Рет қаралды 16,323

selfedu

selfedu

Күн бұрын

Пікірлер: 30
@ОльгаЧудинова-е4л
@ОльгаЧудинова-е4л Ай бұрын
Ваши видео-уроки - просто находка!!! Спасибо за понятное объяснение!!!
@KirillGalkin92
@KirillGalkin92 3 жыл бұрын
Я не нашёл лучше роликов с объяснением, чем у вас, а потратил я кучу времени. Вы отлично показываете причинно-следственные связи, за счёт чего материал воспринимается хорошо. Нет никакого тумана после просмотра
@argrigorov
@argrigorov 3 жыл бұрын
Очень чётко, ясно и по делу (без воды). И самое главное - что на конкретных примерах с кодом. Это одни из лучших видеоурокоа по теме нейросетей. Спасибо!
@stasdavydov2833
@stasdavydov2833 4 жыл бұрын
браво! Вы первый лектор из этой области знаний, чьи лекции не оставляют тягостного ощущения неясности. Искренне благодарю.
@sergeygetto7480
@sergeygetto7480 3 жыл бұрын
Всё-таки немного знание статистики помогло в изучении. А объяснили всё великолепно!
@evgzhu8558
@evgzhu8558 3 жыл бұрын
Качество материала на уровне научно-популярных фильмов канала ВВС! 5+
@Тима-щ2ю
@Тима-щ2ю 5 ай бұрын
Спасибо, наконец-то понял необходимость репараметризирования
@nikita_5578
@nikita_5578 7 ай бұрын
Спасибо большое за уроки!
@alexeysavostin
@alexeysavostin 4 жыл бұрын
Спасибо! Жду продолжения.
@qaLex455
@qaLex455 Жыл бұрын
Лучшее объяснение😊
@mrx8312
@mrx8312 2 ай бұрын
Как понимаю hidden_dim в данном случае - это количество нейронов в полносвязном слое, то есть размер для одномерного массива. А возможно задать hidden_dim для трехмерного массива, если до декодера это сверточный слой? Если да, то как будет выглядеть решение? Чтобы в автоэнкодере для изображений все слои были сверточными (без одного полносвязанного слоя).
@kanybekmomukeev4116
@kanybekmomukeev4116 3 жыл бұрын
Очень качественно
@shadermagic3075
@shadermagic3075 4 жыл бұрын
Волшебство в репараметризации. Нейросеть "понимает" что дисперсия это именно дисперсия, потому что мы репараметризуем сэмплирование N(X,Y) как билинейную функцию X+Y*N(0,I), и при обратном распространении ошибки получаем различные градиенты в "направлении" X и Y.
@velocity-hz8en
@velocity-hz8en 3 жыл бұрын
супер!!!
@dmitryantonov3577
@dmitryantonov3577 2 жыл бұрын
Спасибо!
@osvab000
@osvab000 2 жыл бұрын
3:00 - Крокодил
@selfedu_rus
@selfedu_rus 2 жыл бұрын
😄
@КоляВасильев-о5и
@КоляВасильев-о5и 3 жыл бұрын
Скажите пожалуйста, а что такое -k в формуле DKL? Подозреваю, что это размерность нормального распределения. Например, если это двумерное нормальное распределение, то k будет равно 2. Так ли это? Так же хочу спросить, правильно ли я понимаю, что бы минимизировать DKL в конечной функции потерь надо что бы векторы, генерируемые кодером, были такими: вектор дисперсий содержал только единички, а вектор матожиданий содержал только нули? В таком случае, если меня не подводят мои подсчеты, DKL будет равен 0 (при условии, что k = 2).
@linecodelinecode8261
@linecodelinecode8261 4 жыл бұрын
Приветствую вас!не подскажите какой параметр сохранит обученную сеть.(чтобы сеть не обуч лось заново)
@selfedu_rus
@selfedu_rus 4 жыл бұрын
там у модели есть методы для сохранения и загрузки обученных коэффициентов, по моему, save_weights() и load_weights(). Подробнее в документации по Keras можно посмотреть
@linecodelinecode8261
@linecodelinecode8261 4 жыл бұрын
@@selfedu_rus спасибо за ответ!
@картонобзоры
@картонобзоры Жыл бұрын
Стоило на облаке наверное лэйблы поставить
@darkwingduck3152
@darkwingduck3152 3 жыл бұрын
На отметке 7:50 график слева похож на летящего жука.
@КоляВасильев-о5и
@КоляВасильев-о5и 3 жыл бұрын
Цитата: "остается открытым вопрос, а где здесь брать какие точки, что бы точно получать изображение цифр". Почему? Обычный авторэнкодер разве не отвечает на этот вопрос? Мы ведь уже сгенерировали набор точек (сжатые векторы), почему бы нам не воспользоваться ими что бы получить осмысленный результат? Еще одна цитата: "он конечно сформировал внутри себя вот эту вот область распределения вот этих вот точек скрытого состояния, но мы уже не можем сами взять вот в этой области какую-то точку, что бы на выходе декодер нам смоделировал осмысленное изображение". Возникает вопрос, почему не можем? У нас же есть точки (область), по которым мы обучили декодер выдавать осмысленное изображение. Можем брать эти точки и подавать их декору и будет нам осмысленное изображение... Или тут речь о том что бы иметь возможность подавать на вход произвольные точки и все равно получать что-то осмысленное?
@selfedu_rus
@selfedu_rus 3 жыл бұрын
да, в конце вы сами и ответили на свой вопрос, именно, произвольную точку из некоторой области
@КоляВасильев-о5и
@КоляВасильев-о5и 3 жыл бұрын
@@selfedu_rus Спасибо! Стало понятнее)
@КоляВасильев-о5и
@КоляВасильев-о5и 3 жыл бұрын
@@selfedu_rus Возник такой вопрос, а что мешает использовать обычный автоэнкодер и применять к скрытому состоянию такую функцию активации, что бы значения векторов скрытого состояния были в диапазоне от -3 до 3? Ведь нам примерно это и нужно. Почему VAE должен быть лучше такой структуры?
@lifeisbeautifu1
@lifeisbeautifu1 8 ай бұрын
Спасибо!
When Cucumbers Meet PVC Pipe The Results Are Wild! 🤭
00:44
Crafty Buddy
Рет қаралды 62 МЛН
Чистка воды совком от денег
00:32
FD Vasya
Рет қаралды 4,8 МЛН
Lazy days…
00:24
Anwar Jibawi
Рет қаралды 8 МЛН
FOREVER BUNNY
00:14
Natan por Aí
Рет қаралды 36 МЛН
178 - An introduction to variational autoencoders (VAE)
17:39
DigitalSreeni
Рет қаралды 47 М.
Variational Autoencoders
15:05
Arxiv Insights
Рет қаралды 515 М.
Transformers (how LLMs work) explained visually | DL5
27:14
3Blue1Brown
Рет қаралды 3,8 МЛН
When Cucumbers Meet PVC Pipe The Results Are Wild! 🤭
00:44
Crafty Buddy
Рет қаралды 62 МЛН