Ваши видео-уроки - просто находка!!! Спасибо за понятное объяснение!!!
@KirillGalkin923 жыл бұрын
Я не нашёл лучше роликов с объяснением, чем у вас, а потратил я кучу времени. Вы отлично показываете причинно-следственные связи, за счёт чего материал воспринимается хорошо. Нет никакого тумана после просмотра
@argrigorov3 жыл бұрын
Очень чётко, ясно и по делу (без воды). И самое главное - что на конкретных примерах с кодом. Это одни из лучших видеоурокоа по теме нейросетей. Спасибо!
@stasdavydov28334 жыл бұрын
браво! Вы первый лектор из этой области знаний, чьи лекции не оставляют тягостного ощущения неясности. Искренне благодарю.
@sergeygetto74803 жыл бұрын
Всё-таки немного знание статистики помогло в изучении. А объяснили всё великолепно!
@evgzhu85583 жыл бұрын
Качество материала на уровне научно-популярных фильмов канала ВВС! 5+
@Тима-щ2ю5 ай бұрын
Спасибо, наконец-то понял необходимость репараметризирования
@nikita_55787 ай бұрын
Спасибо большое за уроки!
@alexeysavostin4 жыл бұрын
Спасибо! Жду продолжения.
@qaLex455 Жыл бұрын
Лучшее объяснение😊
@mrx83122 ай бұрын
Как понимаю hidden_dim в данном случае - это количество нейронов в полносвязном слое, то есть размер для одномерного массива. А возможно задать hidden_dim для трехмерного массива, если до декодера это сверточный слой? Если да, то как будет выглядеть решение? Чтобы в автоэнкодере для изображений все слои были сверточными (без одного полносвязанного слоя).
@kanybekmomukeev41163 жыл бұрын
Очень качественно
@shadermagic30754 жыл бұрын
Волшебство в репараметризации. Нейросеть "понимает" что дисперсия это именно дисперсия, потому что мы репараметризуем сэмплирование N(X,Y) как билинейную функцию X+Y*N(0,I), и при обратном распространении ошибки получаем различные градиенты в "направлении" X и Y.
@velocity-hz8en3 жыл бұрын
супер!!!
@dmitryantonov35772 жыл бұрын
Спасибо!
@osvab0002 жыл бұрын
3:00 - Крокодил
@selfedu_rus2 жыл бұрын
😄
@КоляВасильев-о5и3 жыл бұрын
Скажите пожалуйста, а что такое -k в формуле DKL? Подозреваю, что это размерность нормального распределения. Например, если это двумерное нормальное распределение, то k будет равно 2. Так ли это? Так же хочу спросить, правильно ли я понимаю, что бы минимизировать DKL в конечной функции потерь надо что бы векторы, генерируемые кодером, были такими: вектор дисперсий содержал только единички, а вектор матожиданий содержал только нули? В таком случае, если меня не подводят мои подсчеты, DKL будет равен 0 (при условии, что k = 2).
@linecodelinecode82614 жыл бұрын
Приветствую вас!не подскажите какой параметр сохранит обученную сеть.(чтобы сеть не обуч лось заново)
@selfedu_rus4 жыл бұрын
там у модели есть методы для сохранения и загрузки обученных коэффициентов, по моему, save_weights() и load_weights(). Подробнее в документации по Keras можно посмотреть
@linecodelinecode82614 жыл бұрын
@@selfedu_rus спасибо за ответ!
@картонобзоры Жыл бұрын
Стоило на облаке наверное лэйблы поставить
@darkwingduck31523 жыл бұрын
На отметке 7:50 график слева похож на летящего жука.
@КоляВасильев-о5и3 жыл бұрын
Цитата: "остается открытым вопрос, а где здесь брать какие точки, что бы точно получать изображение цифр". Почему? Обычный авторэнкодер разве не отвечает на этот вопрос? Мы ведь уже сгенерировали набор точек (сжатые векторы), почему бы нам не воспользоваться ими что бы получить осмысленный результат? Еще одна цитата: "он конечно сформировал внутри себя вот эту вот область распределения вот этих вот точек скрытого состояния, но мы уже не можем сами взять вот в этой области какую-то точку, что бы на выходе декодер нам смоделировал осмысленное изображение". Возникает вопрос, почему не можем? У нас же есть точки (область), по которым мы обучили декодер выдавать осмысленное изображение. Можем брать эти точки и подавать их декору и будет нам осмысленное изображение... Или тут речь о том что бы иметь возможность подавать на вход произвольные точки и все равно получать что-то осмысленное?
@selfedu_rus3 жыл бұрын
да, в конце вы сами и ответили на свой вопрос, именно, произвольную точку из некоторой области
@КоляВасильев-о5и3 жыл бұрын
@@selfedu_rus Спасибо! Стало понятнее)
@КоляВасильев-о5и3 жыл бұрын
@@selfedu_rus Возник такой вопрос, а что мешает использовать обычный автоэнкодер и применять к скрытому состоянию такую функцию активации, что бы значения векторов скрытого состояния были в диапазоне от -3 до 3? Ведь нам примерно это и нужно. Почему VAE должен быть лучше такой структуры?