Термины деконволюция и транспонированная свертка часто путают друг с другом. Многие источники используют эти два термина как взаимозаменяемые. Деконволюция не очень популярна в области машинного обучения в отличии от транспонированной свертки, поэтому и происходит путаница. Деконволюция - это математическая операция, которая обращает эффект свертки. Представьте, что вы пропускаете входной сигнал через сверточный слой и получаете выходной. Теперь пропустите выход через деконволюционный слой, и вы получите обратно точно такой же вход. Это обратная операция сверточной функции. Транспонированный конволюционный слой восстанавливает только пространственные размеры входного сигнала. Теоретически, это нормально для глубокого обучения, поскольку он может изучать свои собственные параметры посредством градиентного спуска, однако он не дает на выходе то же самое, что и на входе. Один человек ошибся в своей статье в терминах и с тех пор понеслась... Будьте бдительны! Бывает и на собесах поднимают эту тему.
@ALEXCAPITAL6663 жыл бұрын
Татьяна, большое спасибо Вам. Очень приятно вас слушать, хорошо объясняете. И прикольные фишки используете. Возьму на заметку себе!
@blackbigdeath Жыл бұрын
Спасибо, хорошая лекция, девушка умница. Dilated, скорее всего здесь будет переводиться как "разбавленный" нулями,
@lexsxebelphegore56774 жыл бұрын
Отличная подача, доступный и интересный материал
@chorny6632Күн бұрын
На слайде на 6:10 опечатка - правильный stride=1, при stride=2 у нас получится матрица нулей
@shandi12413 жыл бұрын
This algorithm is more famously known as "algorithme à trous" in French (word trous means holes in English) which refers to inserting zeros in the filters.
@СергейРоговой-у6я2 жыл бұрын
Не совсем понятно, как это все в итоге работает(первые слайды) . Почему после многих conv слоев и upsampling вообще получится что-то хотя бы очертаниями похожее на изначальную картинку? Conv слои ведь на выходе выдают просто набор feature map, со значениями для конкретного ядра свертки, это ведь не какие-то части изначальной картинки, просто набор матриц. Почему вообще хоть что-то получится при upsampling? Также непонятно почему можно убрать fully connected слои, которые как раз обеспечивают классификацию входов, ведь convolution часть это просто выделение признаков по сути. Как это может работать без f-c layers?
@mi-cher Жыл бұрын
Dilated - расширенный
@alexanderskusnov5119 Жыл бұрын
pyramid так и читается Пирамид, а не Пайромид
@ko-prometheus3 жыл бұрын
Татьяна привет, Какие магические операции свертывания изображения вы знаете??