Лекция. Сверточные нейронные сети

แชร์
ฝัง
  • เผยแพร่เมื่อ 16 ก.ย. 2024
  • Занятие ведёт Татьяна Гайнцева.
    Серия "Введение в CNN"
    Видео 1: • Лекция. История развит...
    Видео 2: • Лекция. Сверточные ней...
    Видео 3: • Лекция. Пулинг. Операц...
    Видео 4: • Лекция. Задачи компьют...
    ---
    Deep Learning School при ФПМИ МФТИ
    Каждые полгода мы запускаем новую итерацию нашего двухсеместрового практического онлайн-курса по глубокому обучению. Наборы проводятся в августе-сентябре и январе-феврале.
    За нашими новостями можно следить здесь:
    Наш канал в TG: t.me/deep_lear...
    Официальный сайт: dls.samcs.ru/ru/
    Официальная группа ВК: dlschoo...
    Github-репозиторий: github.com/DLS...
    Поддержать канал можно на Boosty: boosty.to/deep...
    ФПМИ МФТИ
    Официальный сайт: mipt.ru/educat...
    Магистратура: mipt.ru/educat...
    Онлайн-магистратура "Современная комбинаторика": omscmipt.ru/
    Онлайн-магистратура "Цифровая экономика": digec.online/
    Лаборатории ФПМИ: mipt.ru/educat...

ความคิดเห็น • 122

  • @n.e.bayushkov6601
    @n.e.bayushkov6601 3 ปีที่แล้ว +97

    50 минут связной лекции без склеек - одно это уже потрясающе.
    А ещё понятно и интересно :)

  • @ehrlich6795
    @ehrlich6795 3 ปีที่แล้ว +64

    Лучшее объяснения что я когда-либо встречал.

  • @taygind
    @taygind 3 ปีที่แล้ว +49

    Все и правда понятно, спасибо, Татьяна!

  • @ЕвгенийУсанов-ш5к
    @ЕвгенийУсанов-ш5к 3 ปีที่แล้ว +61

    Хорошо бы чтоб эта прекрасная девушка еще и семинары вела. Очень хорошо объясняет и слушать приятно. И смотреть тоже)

    • @tatianagaintseva8701
      @tatianagaintseva8701 3 ปีที่แล้ว +8

      ~(˘▾˘~)

    • @ziegimondvishneuski3317
      @ziegimondvishneuski3317 2 ปีที่แล้ว +2

      Прекрасная девушка, немного мешкается..
      Паттернов.. млин, не засоряйте русский язык. Есть понятие, признаки присущие обьекту

    • @romandeveloper7720
      @romandeveloper7720 6 หลายเดือนก่อน

      @@ziegimondvishneuski3317 успокоился?!

    • @textreanimator
      @textreanimator 4 หลายเดือนก่อน

      Да. Реально крутая

  • @denfnc3025
    @denfnc3025 2 หลายเดือนก่อน +1

    Это действительно одно из лучших объяснений что я видел, преподавательница просто прелесть! Она сфоомировала интуитивное понимание того, как работает эта архитектура! Большое спасибо ❤

  • @eleonorabaimbetova3241
    @eleonorabaimbetova3241 3 ปีที่แล้ว +18

    Очень классно! Спасибо большое за такое понятное объяснение 🙏🏻

  • @МихаилВитко-ч6у
    @МихаилВитко-ч6у 5 หลายเดือนก่อน +2

    Обучаюсь в одном из топовых ИИ университетов страны, раз за разом обращаюсь к вашим лекциям за более ёмким и понятным объяснениям. Спасибо за весь цикл видео!

  • @MrUstritsa
    @MrUstritsa ปีที่แล้ว +2

    Вы просто предугадывали все мои вопросы и тут же подобно отвечали на них! Спасибо за лекцию!

  • @user-ke5gv1jh5l
    @user-ke5gv1jh5l 11 หลายเดือนก่อน

    Более понятного объяснения свёрточных сетей не встречала! Спасибо!

  • @tedwinkler9861
    @tedwinkler9861 ปีที่แล้ว +1

    Замечательная лекция. Замечательный лектор. Замечательная подача. Браво!

  • @ISandrucho
    @ISandrucho 3 ปีที่แล้ว +22

    Хорошая лекция. Местами даже слишком разжёвано (особенно, по сравнению с остальными лекциями курса), я немного скучал. Как бы то ни было - однозначно лайк: структурно, по полочкам всё разложила. Спасибо

    • @sergeyivzhenko4299
      @sergeyivzhenko4299 8 หลายเดือนก่อน

      Разжевано, но зато нет ощущения, что чего-то упущено. У слушателя, по идее, должно остаться чувство контроля за своими мозгами.

  • @Im_like_Merphy
    @Im_like_Merphy 2 หลายเดือนก่อน

    Она такая милая, когда волнуется ^^

  • @CrossTheUniverseNOW
    @CrossTheUniverseNOW 2 ปีที่แล้ว +4

    Нифига себе. А можно эта чудесная преподавательница будет мне все все так объяснять? Понимаю, что это видимо базовая лекция, но как-то теперь и понятно на стартовом уровне «что, к чему и почему». Я в восторге!

    • @sergeyivzhenko4299
      @sergeyivzhenko4299 8 หลายเดือนก่อน

      Что, и по фильтрам у вас вопросов не осталось? Это нехорошо.

  • @ravenalbatros
    @ravenalbatros 2 ปีที่แล้ว +5

    22:53 перепутаны местами фильтры активации горизонтальных и вертикальных линий

  • @user-ob1jz8yl6x
    @user-ob1jz8yl6x 3 หลายเดือนก่อน

    ОЧень подробно и точно! Особенно понравилось про связь 3 слоя - 5 слоев, тоесть получается как и перцептроне все последующие слои связаны со всеми предыдущими.

  • @aleksandrs1773
    @aleksandrs1773 ปีที่แล้ว

    Очень хорошее объяснение. Просто на редкость

  • @AnnYoll
    @AnnYoll 6 หลายเดือนก่อน

    Если бы можно было миллион лайков поставить я бы это сделала! Очень понятное объяснение. Наконец то я знаю что такое сверточные нейронные сети!

  • @oanovitskij
    @oanovitskij 2 ปีที่แล้ว +3

    смутило, что Хэтуэй цветная и не указана третья размерность. Видимо, предполагалось, что чб

  • @mishalavik4595
    @mishalavik4595 2 ปีที่แล้ว +4

    Отличная лекция, только осталось непонятно, как обучать ядра. Хотелось бы узнать более подробную информацию о том, как проходит этот процесс

  • @vittaphoto
    @vittaphoto ปีที่แล้ว

    Очень подробно и понятно. Спасибо за вашу работу! Впервые хоть что-то поняла, а то уже дурочкой себя чувствовать начала

  • @Sorsha_go
    @Sorsha_go ปีที่แล้ว

    Очень годный урок ! Благодарю! В целом достаточно исчерпывающий как мне кажется. Еще раз огромное спасибо!

  • @sergeyivzhenko4299
    @sergeyivzhenko4299 8 หลายเดือนก่อน

    Есть маленькие придирки к терминам- а так здОрово! Есть чему поучиться нам, стареньким преподавателям :)

  • @JOKER-c3o
    @JOKER-c3o 4 หลายเดือนก่อน

    блин как здорово и интересно, если б так нам в вузе объясняли на парах...все были бы отличниками))

  • @andrejv____5051
    @andrejv____5051 3 ปีที่แล้ว +1

    Благодарю за объяснение 👍

  • @dimvasilevich4789
    @dimvasilevich4789 ปีที่แล้ว

    Какая Красавица и умница!

  • @CantPickTheNameIwant
    @CantPickTheNameIwant 2 ปีที่แล้ว +9

    Извините, но разве на 22:07 результаты работы горизонтального и вертикального фильтров на картинке не перепутаны местами?

  • @АнтонБаклыков-у4э
    @АнтонБаклыков-у4э 2 ปีที่แล้ว +5

    Вы сначала сказали, что недостаток обычной нейронной сети, большое размер входного вектора полученного из изображения, а потом вы прогоняете изображение через фильтр и точно так же подаете результат в обычную сеть не уменьшив размерность, наоборот увеличив ее в разы если фильтров несколько.

    • @weird_steve
      @weird_steve 2 ปีที่แล้ว

      то же самое хотел написать )

    • @user-mh4ke8lu5q
      @user-mh4ke8lu5q 5 หลายเดือนก่อน

      сразу об этом задумался когда было сказано карты в вектор сложить

  • @vladimirbarkovskii2127
    @vladimirbarkovskii2127 3 ปีที่แล้ว

    Вы действительно очень хорошо объясняете

  • @user-bj2yn8mp4r
    @user-bj2yn8mp4r 5 หลายเดือนก่อน

    Прекрасное объяснение материала

  • @vadimgor999
    @vadimgor999 2 ปีที่แล้ว +3

    31-33 минута. Картинка 3 канала у нас 5 ядер 3*3, получаем 5 плоских карт активации. как так выходит? Когда уже в следующем слое мы для 5-и каналов используем ядра 3*3*5 и получаем 3 плоских карты.

  • @shavkateshmuratov612
    @shavkateshmuratov612 ปีที่แล้ว

    Спасибо большое за подробное объяснение

  • @jeankasymov3908
    @jeankasymov3908 10 หลายเดือนก่อน

    Отличная лекция!

  • @oskardomnin3123
    @oskardomnin3123 3 ปีที่แล้ว +1

    Лучше и не раскажешь. Молодец!!!

  • @AntonBuketov
    @AntonBuketov 9 หลายเดือนก่อน

    Все подробно, класс!

  • @fr.k197
    @fr.k197 2 ปีที่แล้ว

    Спасибо за лекцию.☺

  • @paul_dark
    @paul_dark 2 ปีที่แล้ว

    Хорошо объясняете. Спасибо

  • @user-qb5bo3jv3e
    @user-qb5bo3jv3e 3 ปีที่แล้ว +2

    Большое спасибо за урок! Только одно осталось неясным: В видео вы говорите, что можно сделать фильтр, который будет реагировать на вертикальные линии и если этим фильтром
    свернуть картинку на которой много вертикальных линий, то карта активации будет иметь высокие значения. Допустим у нас есть одноканальная картинка на которой изображено 4. Предположим, что картинка (линии четверки) изображена полностью черным цветом. Это означает, что все значения, где расположены вертикальные линии, будут равны нулю. А это как раз таки приведет к тому, что фильтр при умножении на вертикальные линии (которые забиты нулями) примет значение 0 и не будет "активен" тогда как по логике вещей должно быть наоборот... Может такие изображения следует как-то предварительно обрабатывать,?

    • @vladsn.2119
      @vladsn.2119 ปีที่แล้ว

      Думаю вам не пригодится, но для остальных всё же напишу. В начале было сказано, что на видео были спутаны черные и белые цвета местами. То есть черный априори имеет высокие числа, а белые низкие. При этом обычно это проблема касается черно-белых картинок. В цветных картинках нет нулей как таковых, поэтому при умножение всё равно что-то получается. В любом случае, фильтры сами себя будут настраивать при реализации алгоритма обратного распространения.

  • @КириллВасильев-с6к
    @КириллВасильев-с6к 2 ปีที่แล้ว

    Вы супер!

  • @911Pasha911
    @911Pasha911 2 ปีที่แล้ว +3

    В начале видео было сказано, что минусом использования полносвязной нейросети является большое количество фич. Но в сверточной нейросети фич либо чуть меньше, либо столько же. Мы все равно так же конкатенируем строки в 1д массив. Этот момент я не понял.

    • @pointofview654
      @pointofview654 2 ปีที่แล้ว +1

      да, это как-то непонятно, я ожидал ,что входной вектор сильно сократится в длину

  • @boloyeung3568
    @boloyeung3568 ปีที่แล้ว +5

    А как подбирать параметры фильтров в свертках? Прогонять все возможные наклоны линий, чтобы сеть сама выбирала нужные? Сколько вариантов фильтров нужно подавать? Или есть какие-нибудь четкие рекомендации по настройке фильтров?

  • @ziegimondvishneuski3317
    @ziegimondvishneuski3317 2 ปีที่แล้ว

    Берем фильтер собеля или градиентный XY и пропускаем в рельтате получает свертки по Х и по Y. Обычно добавляют к изображению с каждой стороны величина фильтра разделить на 2 и округлив в меньшую сторону.

  • @yaroslavkarabin1084
    @yaroslavkarabin1084 2 ปีที่แล้ว

    Лекция очень понравилась :)

  • @ziegimondvishneuski3317
    @ziegimondvishneuski3317 2 ปีที่แล้ว +1

    Как показывает практика, лучшие результаты получаеются с нормализированными картинками в сером формате, не бинаризированном

  • @Violetta124246
    @Violetta124246 3 ปีที่แล้ว +3

    Супер ! Спасибо большое за курс! А есть ссылка на презентацию?

  • @sacramentofwilderness6656
    @sacramentofwilderness6656 3 ปีที่แล้ว +1

    Спасибо за отличную лекцию. У меня возникла пара вопросов - 1) пробовали ли в литературе комбинировать обучаемые фильтры с фиксированными, имеющими понятную интерпретацию? Обучаемые фильтры изначально, как я понимаю, в зависимости от инициализации какой-то шум, который в процессе градиентного спуска превращается в что-то, способное реагировать на желаемые свойства или части картинки. Но тем не менее, для человека это будут скорее всего не более чем какой-то случайный набор чисел в матрице. А фильтры типа выделения горизонтальных и вертикальных линий на первых слоях вычленяют тоже полезную информацию и скомбинировавшись уже в средних слоях или нижних слоях с обучаемыми фильтрами могут потенциально улучшить качество. 2) сверточные слои в каком то смысле осуществляют преобразование изначальных данных на основе карт активаций к какому-то формату более ёмко хранящему в себе высокоуровневые понятия, вроде наличия носа или ушей на фотографии и перед входом классификатора (полносвязной сети), картинки, отвечающие разным классам, будут отображаться в какие-то хорошо разделяемые кластеры, которые оставшийся полносвязный кусок легко классифицирует, при условии, если сверточные слои хорошо обучены. Имеет ли смысл пробовать вместо полносвязной сети ставить другой классификатор вроде градиентного бустинга или SVM? 3) По поводу того, что активации сверхточной сети не имеют ничего от исходной картинки - вообще, как подчёркивалось неоднократно, фильтры реагируют на какое-то свойство картинки, а не преобразуют ее. Но для некоторых фильтров выход будет очень похож на исходную картинку, простейший пример - свертка,где в центре единица, а остальные элементы нули по сути будет действовать как тождественное преобразование. Свертка с оператором Лапласа будет выглядеть как исходная картинка, но более резкая.

    • @tatianagaintseva8701
      @tatianagaintseva8701 3 ปีที่แล้ว +1

      1. Это довольно бесполезно, потому что если сети действительно было бы удобно использовать свёртки для выделения горизонтальных линий, она бы им сама обучилась. Вообще, как показывает многолетняя практика deep learning во всех областях, end-to-end решения, когда вы даёте сети самой решать, что ей нужно, а что нет, работают лучше, чем попытки долепить сетке какие-то "полезные" на взгляд человека фичи.
      2. Можно и svm, так даже раньше делали, но опять же: end-to-end + Нейронка работает лучше. Там получаются не такие хорошо отличимые кластеры, чтобы svm хорошо работала. Ну камон, нейронка сложнее и более сложные фичи умеет выделять.
      3. Ну да, это возможно. Но в случае с CNN это если и происходит, то редко. То, что я говорю в лекции - это общий случай. То есть, в общем случае не надо думать, что на карте активации будут уши или глаза.

    • @andreymozgovoy8705
      @andreymozgovoy8705 3 ปีที่แล้ว +1

      @@tatianagaintseva8701 Большое спасибо за лекцию. Посмотрел лекцию полностью и всё-таки не до конца понятны утверждения: если первый слой свёртки определяет низкоуровневые паттерны горизонтально/вертикальных линий и "на карте активации не будут видны уши/глаза", то как дальше следующий слой определит "вырисовывающиеся уши/глаза"? Если так подходить к вопросу, то, получается, второй слой, выделяющий уши/глаза, должен проходить по первоначальному рисунку. Или, уши/глаза выделяются из первой карты активации не так явно, как показано на схеме (например, 47:18, средний фильтр, где практически чётко видны части лица нос/глаза/рот)

    • @tatianagaintseva8701
      @tatianagaintseva8701 3 ปีที่แล้ว +3

      @@andreymozgovoy8705 первый слой сети "выделяет" низкоуровеневую информацию. Только эта информация не обязательно представлена в виде картинок линий. И информация о наличии ушей не обязательно представлена в виде картинок ушей. Воспринимайте карты активации как некотрый "код" картинки, ее "сжатие". Если вы посмотрите на начинку zip-архива, вы же не увидите там реальные слова, которые были в документе до сжатия? Но информация о них там присутствовать будет. Вот также и карты активации хранят и передают друг другу информацию.

  • @anton1evdokimov
    @anton1evdokimov 2 ปีที่แล้ว +3

    Благодарю за отличную лекцию!!!🔥
    Возник только вопрос по примеру с 31 минуты : как получается свернуть цветную картинку(32*32*3) двумерным фильтром и получить только двумерную карту активации 30 на 30?

    • @Zhenddos_
      @Zhenddos_ 2 ปีที่แล้ว +1

      Разбить на 3 двумерные матрицы и получить в итоге 3 карты активации

  • @kalinin_sanja
    @kalinin_sanja ปีที่แล้ว +1

    Спасибо за лекцию! Вы упорно объясняли, что в картах активации не может быть никаких рисунков. Но откуда взялись рисунки с ваших примеров (на которых видно силуэты человеческих лиц)?

    • @nikita9311
      @nikita9311 ปีที่แล้ว

      Привет, это не карты, а примеры входных картинок, которые можно подать на вход, когда сеть уже обучилась

  • @vladislavleonov2682
    @vladislavleonov2682 3 ปีที่แล้ว +3

    На слайде про несколько сверточных слоев входная картинка цветная, а ядра как для одного канала- плоские 3x3x1. И количество карт активации 5, то есть, каждый канал по отдельности не обрабатывается. Видимо имелось в виду, что картинка черно-белая?

    • @tatianagaintseva8701
      @tatianagaintseva8701 3 ปีที่แล้ว +1

      Да, ядра первого сверточного слоя будут иметь столько каналов, сколько входное изображение. 3, если цветное, и 1, если чёрно-белое

  • @jashdkj4902
    @jashdkj4902 2 ปีที่แล้ว

    Лучшая!!!

  • @vadimosipov2147
    @vadimosipov2147 3 ปีที่แล้ว +2

    Татьяна, если слой свертки подсвечивает паттерн в виде больших по модулю чисел на карте активации, а после карт активации стоят ReLU, то не потушит ли эта функция сам паттерн?
    Например, на карте активации у нас по итогам -300, далее ReLU и на выходе 0. Такой же 0, как и после -1. Что делают в таких случаях?

    • @tatianagaintseva8701
      @tatianagaintseva8701 3 ปีที่แล้ว +4

      Вспомните, что сетл учится целиком: это значит, что слои, обучаясь вместе в виде conv-relu-conv-... подстроятся друг под друга и свёртка будет выдавать такие карты активации, чтобы после relu они имели смысл

  • @vadimosipov2147
    @vadimosipov2147 3 ปีที่แล้ว +2

    22:30. А пример точно правилен?
    Карта активации получается размера 7x7, а не 6x6. А еще, она представляет совсем другой вид. У меня получилось, что только 6 ячеек с нулями, в отличии с карты на слайдах, где почти все нули.

    • @tatianagaintseva8701
      @tatianagaintseva8701 3 ปีที่แล้ว +1

      Мм возможно, да, есть ошибка в размерности. Вы правы, получится 6*6, не уследила. Но идею, надеюсь, вы поняли :)

    • @vadimosipov2147
      @vadimosipov2147 3 ปีที่แล้ว

      @@tatianagaintseva8701 , да, сейчас точно понял

  • @gienek_mscislawski
    @gienek_mscislawski 3 ปีที่แล้ว +2

    Танюха классная, дзякуй!

  • @pointofview654
    @pointofview654 2 ปีที่แล้ว

    А эти фильтры в свёрточных слоях, они как появляются? Откуда берутся? Они готовые или сеть формирует?

  • @Сеня-ж8б
    @Сеня-ж8б 10 หลายเดือนก่อน

    33:37 разве во втором свёрточном слое не 3 ядра 3x3x3?

  • @eminemin7527
    @eminemin7527 3 ปีที่แล้ว +2

    Татьяна в базе mnist изображения цифр имеет размерность 28 на 28 а не 32 на 32...

    • @tatianagaintseva8701
      @tatianagaintseva8701 3 ปีที่แล้ว +2

      Ну, во-первых, это не суть для лекции) во-вторых, бывает и так, и так. Я встречала как-то вариант с 32

    • @eminemin7527
      @eminemin7527 3 ปีที่แล้ว +1

      @@tatianagaintseva8701 тот который собрали в америке оригинал, он 28 на 28 пикселей... а 32 на 32 это видимо переделанный кем то... оригинал MNIST кстати у автора сверточных сетей Ян Лекуна лежит на его личной странице..

  • @АлексЛогинов-ъ8у
    @АлексЛогинов-ъ8у 3 ปีที่แล้ว +1

    Хммм.... Как именно складываются карты признаков цветовых каналов в одну карту признаков? (18:17) Просто суммировать?

    • @user-rz4nv7zf1x
      @user-rz4nv7zf1x 2 ปีที่แล้ว

      Да, суммируешь, а потом ответ в функцию активации пихаешь

  • @АлександрСавельев-ь9н
    @АлександрСавельев-ь9н 2 ปีที่แล้ว

    22:00 Почему этот фильтр реагирует на горизонтальные, а не на вертикальные линии?

  • @whatisagoodusernamehere
    @whatisagoodusernamehere ปีที่แล้ว

    Если фильтр активируется, то в нем числа "очень большие" по модулю или по значению?

  • @vaaaaaaaaaanjkeeeeeeeeee
    @vaaaaaaaaaanjkeeeeeeeeee 2 ปีที่แล้ว

    6:33 Я на секунду подумал, что я под чем-что и у меня горизонт поплыл)

  • @stanislavserov8622
    @stanislavserov8622 ปีที่แล้ว

    Очень сложно, но всё понятно!

  • @ngshares490
    @ngshares490 ปีที่แล้ว

    Меня терзают смутные сомнения, что докладчик неполностью понимает то, о чем рассказывает, глядя на слайд 22:05 с картинкой фильтра вертикальных линий, но наблюдая подпись про реакцию фильтра на горизонтальные линии + карту активации по фильтру горизонтальных линий. Читает слайд и нисколько не смутившись повторяет голосом ошибку. Поэтому она так настойчиво утверждает, что карта активации не содержит фрагментов исходных изображений?

  • @ziegimondvishneuski3317
    @ziegimondvishneuski3317 2 ปีที่แล้ว

    Сложности возникают в случае глубокого обучения, в этом случае есть проблема переобучения.

  • @sgt.archdornan8199
    @sgt.archdornan8199 2 ปีที่แล้ว

    А как получился такой фильтр как на 7:30?
    UPD: все ядра - параметры, поддающиеся обучению (43:54)
    И тем не менее, вопрос: как выглядят фильтры на самой первой эпохе? Они нулевые?

    • @ТемаЕршов
      @ТемаЕршов 2 ปีที่แล้ว +1

      Они случайные, как и веса в нейронной сети

    • @sgt.archdornan8199
      @sgt.archdornan8199 2 ปีที่แล้ว

      @@ТемаЕршов И все же, можно ли залезть внутрь модели и прочитать, какие веса задаются на старте?

  • @user-fr7ef3zm3p
    @user-fr7ef3zm3p 2 ปีที่แล้ว

    Не очень поняла логику положительных и отрицательных значений в фильтре. В остальном идеальная лекция

  • @Vladimir0x29A
    @Vladimir0x29A 2 ปีที่แล้ว

    Спасибо за лекцию. У меня вопрос по поводу момента, когда последний слой свёрток попадает на вход полносвязной сети-классификатора. Я так понимаю, что при разном размере картинок на вход классификатора тоже будет подаваться разное кол-во нейронов. Как тогда сеть, у которой связи обучены под определенное кол-во входных нейронов, может работать с другим кол-вом, если мы хотим скормить нейронке картинку другого размера?

    • @spaceshine909
      @spaceshine909 2 ปีที่แล้ว

      возможно картинка просто трансформируется под нужный размер

    • @user-rz4nv7zf1x
      @user-rz4nv7zf1x 2 ปีที่แล้ว

      Все картинки нужно предварительно стандартизировать, то есть приводить к одному размеру

  • @artyommukhometzianov5896
    @artyommukhometzianov5896 3 ปีที่แล้ว

    10:13 а по какому принципу меняется матрица фильтра? Разве она не должна быть константной в рамках операции свертки?

    • @tatianagaintseva8701
      @tatianagaintseva8701 3 ปีที่แล้ว +1

      она меняется только при обучении. Одна картинка в процессе forward прогона сворачивается вся одним и тем же фильтром. Единственное -- в слое может быть >1 фильтра и карт активаций получится из одной картинки несколько: столько же, сколько и фильтров.

  • @Teacification
    @Teacification ปีที่แล้ว

    Ведущая - сестра Милли Боби Браун ?

  • @dimvasilevich4789
    @dimvasilevich4789 ปีที่แล้ว

    у чайника тоже есть носик!

  • @МихаилФедосеев-ь7с
    @МихаилФедосеев-ь7с 2 ปีที่แล้ว

    Я влюбился :)

  • @mishalavik4595
    @mishalavik4595 2 ปีที่แล้ว

    Эта методика очень похожа на то, как работают каскады Хаара

    • @alexanderskusnov5119
      @alexanderskusnov5119 ปีที่แล้ว

      Можно вейвлеты применить (Хаар там тоже есть).

  • @alexanderskusnov5119
    @alexanderskusnov5119 ปีที่แล้ว

    4 на 4 (чётная сторона фильтра) - такие никто не использует

  • @Ridick-Furian
    @Ridick-Furian 2 ปีที่แล้ว

    Привет, а ты знаешь Тимофея Фёдоровича Хирьянова?

  • @Anelya298
    @Anelya298 3 ปีที่แล้ว

    а что такое бэк пропогейшн

    • @gerda-morozova
      @gerda-morozova 3 ปีที่แล้ว

      Метод обучения. По-другому называется "Метод обратного распространения". Благодаря этому методу корректируются веса нейронной сети и происходит её обучение.

  • @Apaximatic_Play
    @Apaximatic_Play 4 หลายเดือนก่อน

    понятно, я думал эти сети работают хитрее, а это оказывается тупо фильтры

  • @sibputnik2
    @sibputnik2 ปีที่แล้ว

    Осталось непонятым, как обучать фильтры

  • @АнтонБаклыков-у4э
    @АнтонБаклыков-у4э 2 ปีที่แล้ว +5

    50 минут размусоливают одни и те же достаточно простые поверхностные вещи, а когда дело доходит до обучения сети сказала 2 слова - "градиентный спуск". Не слова о обучающей выборке, о том как обучаются ядра в комплексе со всей сетью или отдельно. Какая функция ошибки.

  • @SuperWolchara
    @SuperWolchara 3 ปีที่แล้ว +3

    какая красивая умная девушка!, я даже забыл зачем я сюда пришел)

  • @alexkor8896
    @alexkor8896 2 ปีที่แล้ว +2

    Ну что там за мерзавец в конце пакетом шуршит, подождать нельзя было

  • @user-lr5jt3oc9k
    @user-lr5jt3oc9k 3 ปีที่แล้ว

    еее

  • @hammerhead83
    @hammerhead83 2 ปีที่แล้ว

    Что-то девушка или автор лекции напутал. 12:07 не выйдет так. Исходная картинка 16х16, матрица 18х18, фильтр 3х3. Фишка в том, что в результирующей матрице мы устанавливаем число, находящееся под значением [0, 0] фильтра матрицы на прогоняемой матрице. Итак путем простого подсчета элементов на результирующей матрице, может кто-то пояснить, откуда взялись 19 значений в первой строке, если даже расширенная матрица состоит из 18 строк. Только я считать не умею, или в комментариях одно тупье?

  • @alexanderskusnov5119
    @alexanderskusnov5119 ปีที่แล้ว

    Так и не рассказала, как ядра обучать.

  • @1stface
    @1stface 4 หลายเดือนก่อน

    Очередная хрень на 50 минут про свертку, которой уже пруд пруди ; и ничего про детальное обучение сети - особенно фильтров, в которых сами рассказчики ни черта ничего не понимают.

  • @Игорь-п1з4х
    @Игорь-п1з4х ปีที่แล้ว

    Плагиат

  • @userbill3236
    @userbill3236 ปีที่แล้ว

    ужасно много неправды.

  • @artemykrylov
    @artemykrylov 2 ปีที่แล้ว +3

    Спасибо лектору, но извините, я бы лично не рекомендовал это видео как материал для обучения.
    Есть оговорки и неточности в повествовании и терминологии, ошибки в примерах. Много повторений о простых вещах и недосказанность о более сложных. Т.е. можно было уложиться в меньшее время, либо рассказать гораздо больше за тоже самое. По-честному, одна единственная англоязычная статья в Википедии о свёрточных сетях en.wikipedia.org/wiki/Convolutional_neural_network кажется равносильной, а то и лучше, чем полноценный учебный курс в подобных data science школах.