Термины деконволюция и транспонированная свертка часто путают друг с другом. Многие источники используют эти два термина как взаимозаменяемые. Деконволюция не очень популярна в области машинного обучения в отличии от транспонированной свертки, поэтому и происходит путаница. Деконволюция - это математическая операция, которая обращает эффект свертки. Представьте, что вы пропускаете входной сигнал через сверточный слой и получаете выходной. Теперь пропустите выход через деконволюционный слой, и вы получите обратно точно такой же вход. Это обратная операция сверточной функции. Транспонированный конволюционный слой восстанавливает только пространственные размеры входного сигнала. Теоретически, это нормально для глубокого обучения, поскольку он может изучать свои собственные параметры посредством градиентного спуска, однако он не дает на выходе то же самое, что и на входе. Один человек ошибся в своей статье в терминах и с тех пор понеслась... Будьте бдительны! Бывает и на собесах поднимают эту тему.
This algorithm is more famously known as "algorithme à trous" in French (word trous means holes in English) which refers to inserting zeros in the filters.
Не совсем понятно, как это все в итоге работает(первые слайды) . Почему после многих conv слоев и upsampling вообще получится что-то хотя бы очертаниями похожее на изначальную картинку? Conv слои ведь на выходе выдают просто набор feature map, со значениями для конкретного ядра свертки, это ведь не какие-то части изначальной картинки, просто набор матриц. Почему вообще хоть что-то получится при upsampling? Также непонятно почему можно убрать fully connected слои, которые как раз обеспечивают классификацию входов, ведь convolution часть это просто выделение признаков по сути. Как это может работать без f-c layers?
Термины деконволюция и транспонированная свертка часто путают друг с другом. Многие источники используют эти два термина как взаимозаменяемые. Деконволюция не очень популярна в области машинного обучения в отличии от транспонированной свертки, поэтому и происходит путаница.
Деконволюция - это математическая операция, которая обращает эффект свертки. Представьте, что вы пропускаете входной сигнал через сверточный слой и получаете выходной. Теперь пропустите выход через деконволюционный слой, и вы получите обратно точно такой же вход. Это обратная операция сверточной функции.
Транспонированный конволюционный слой восстанавливает только пространственные размеры входного сигнала. Теоретически, это нормально для глубокого обучения, поскольку он может изучать свои собственные параметры посредством градиентного спуска, однако он не дает на выходе то же самое, что и на входе.
Один человек ошибся в своей статье в терминах и с тех пор понеслась... Будьте бдительны! Бывает и на собесах поднимают эту тему.
Татьяна, большое спасибо Вам. Очень приятно вас слушать, хорошо объясняете. И прикольные фишки используете. Возьму на заметку себе!
Отличная подача, доступный и интересный материал
Спасибо, хорошая лекция, девушка умница. Dilated, скорее всего здесь будет переводиться как "разбавленный" нулями,
На слайде на 6:10 опечатка - правильный stride=1, при stride=2 у нас получится матрица нулей
This algorithm is more famously known as "algorithme à trous" in French (word trous means holes in English) which refers to inserting zeros in the filters.
Не совсем понятно, как это все в итоге работает(первые слайды) . Почему после многих conv слоев и upsampling вообще получится что-то хотя бы очертаниями похожее на изначальную картинку? Conv слои ведь на выходе выдают просто набор feature map, со значениями для конкретного ядра свертки, это ведь не какие-то части изначальной картинки, просто набор матриц. Почему вообще хоть что-то получится при upsampling? Также непонятно почему можно убрать fully connected слои, которые как раз обеспечивают классификацию входов, ведь convolution часть это просто выделение признаков по сути. Как это может работать без f-c layers?
Dilated - расширенный
Татьяна привет,
Какие магические операции свертывания изображения вы знаете??
pyramid так и читается Пирамид, а не Пайромид