Семантическая сегментация. Трюки: Deconvolution, Dilated Convolution

  Рет қаралды 18,920

Deep Learning School

Deep Learning School

Күн бұрын

Пікірлер: 9
@rinkornalb
@rinkornalb Жыл бұрын
Термины деконволюция и транспонированная свертка часто путают друг с другом. Многие источники используют эти два термина как взаимозаменяемые. Деконволюция не очень популярна в области машинного обучения в отличии от транспонированной свертки, поэтому и происходит путаница. Деконволюция - это математическая операция, которая обращает эффект свертки. Представьте, что вы пропускаете входной сигнал через сверточный слой и получаете выходной. Теперь пропустите выход через деконволюционный слой, и вы получите обратно точно такой же вход. Это обратная операция сверточной функции. Транспонированный конволюционный слой восстанавливает только пространственные размеры входного сигнала. Теоретически, это нормально для глубокого обучения, поскольку он может изучать свои собственные параметры посредством градиентного спуска, однако он не дает на выходе то же самое, что и на входе. Один человек ошибся в своей статье в терминах и с тех пор понеслась... Будьте бдительны! Бывает и на собесах поднимают эту тему.
@ALEXCAPITAL666
@ALEXCAPITAL666 3 жыл бұрын
Татьяна, большое спасибо Вам. Очень приятно вас слушать, хорошо объясняете. И прикольные фишки используете. Возьму на заметку себе!
@blackbigdeath
@blackbigdeath Жыл бұрын
Спасибо, хорошая лекция, девушка умница. Dilated, скорее всего здесь будет переводиться как "разбавленный" нулями,
@lexsxebelphegore5677
@lexsxebelphegore5677 3 жыл бұрын
Отличная подача, доступный и интересный материал
@shandi1241
@shandi1241 3 жыл бұрын
This algorithm is more famously known as "algorithme à trous" in French (word trous means holes in English) which refers to inserting zeros in the filters.
@СергейРоговой-у6я
@СергейРоговой-у6я 2 жыл бұрын
Не совсем понятно, как это все в итоге работает(первые слайды) . Почему после многих conv слоев и upsampling вообще получится что-то хотя бы очертаниями похожее на изначальную картинку? Conv слои ведь на выходе выдают просто набор feature map, со значениями для конкретного ядра свертки, это ведь не какие-то части изначальной картинки, просто набор матриц. Почему вообще хоть что-то получится при upsampling? Также непонятно почему можно убрать fully connected слои, которые как раз обеспечивают классификацию входов, ведь convolution часть это просто выделение признаков по сути. Как это может работать без f-c layers?
@ko-prometheus
@ko-prometheus 3 жыл бұрын
Татьяна привет, Какие магические операции свертывания изображения вы знаете??
@alexanderskusnov5119
@alexanderskusnov5119 Жыл бұрын
pyramid так и читается Пирамид, а не Пайромид
@mi-cher
@mi-cher 10 ай бұрын
Dilated - расширенный
Семантическая сегментация. Архитектура UNet
17:13
Семантическая сегментация. Введение
19:12
Deep Learning School
Рет қаралды 19 М.
小路飞嫁祸姐姐搞破坏 #路飞#海贼王
00:45
路飞与唐舞桐
Рет қаралды 25 МЛН
إخفاء الطعام سرًا تحت الطاولة للتناول لاحقًا 😏🍽️
00:28
حرف إبداعية للمنزل في 5 دقائق
Рет қаралды 52 МЛН
The U-Net (actually) explained in 10 minutes
10:31
rupert ai
Рет қаралды 108 М.
Введение в NLP
45:41
REU Data Science Club
Рет қаралды 381
Лекция. Регуляризация в Deep Learning
33:51
Deep Learning School
Рет қаралды 17 М.
Сегментация. Михаил Романов
2:05:40
Samsung Innovation Campus
Рет қаралды 3,5 М.
Обратное распространение ошибки
21:53
Дмитрий Коробченко
Рет қаралды 58 М.