Лекция. Архитектуры CNN

แชร์
ฝัง
  • เผยแพร่เมื่อ 16 ธ.ค. 2024

ความคิดเห็น •

  • @olgasnowowl6771
    @olgasnowowl6771 3 ปีที่แล้ว +15

    Спасибо за лекцию, вы отличный лектор!

  • @unlimitedpower8796
    @unlimitedpower8796 3 ปีที่แล้ว +16

    @Tatiana Gaintseva, вы восхитительная! Лучше, чем у вас обьяснение cnn я не нашел)
    Здоровья вам и вкусных печенек!

  • @nc5731
    @nc5731 3 ปีที่แล้ว +11

    🤯 как же все это круто

  • @АлександрЛисенков-ч7т
    @АлександрЛисенков-ч7т ปีที่แล้ว

    Татьяна, моё почтение👍

  • @maxantropov4016
    @maxantropov4016 2 ปีที่แล้ว

    О, и ссылка на презентацию! Благодарю

  • @andreus9118
    @andreus9118 4 ปีที่แล้ว +4

    спасибо!

  • @banjiboom4405
    @banjiboom4405 4 ปีที่แล้ว +3

    просто прекрасно!!

  • @Neuronauticus
    @Neuronauticus 2 ปีที่แล้ว +1

    Вопрос по skip connection. Интуитивно кажется что такой трюк должен свести на нет всю работу скрытых слоев при условии что значения весов небольшие. Для обучения нам нужна нелинейность которую мы достигаем активацией. Активация зажимает значения в небольшой диапазон. Используют ли активацию на скрытых слоях вместе со skip connection? Почему skip connection не сводит на нет работу скрытых слоев?

  • @uolkopalko
    @uolkopalko 3 ปีที่แล้ว +3

    @Tatiana Gaintseva, спасибо за хорошее объяснение. Очень интересно. Вот вы говорили, что можете почитать на "медиуме?" не очень понятно, не могли бы вы написать где. Большое спасибо)

  • @gbrs72
    @gbrs72 2 ปีที่แล้ว +4

    А точно ядра 1*1? Вроде чаще схема встречается с ядром 3*3 и паддингом 1.

  • @gbrs72
    @gbrs72 2 ปีที่แล้ว +2

    Если сеть долго обучать, то у ядер одного слоя нет тенденции к тому, чтобы становиться похожими?

  • @therealsova3268
    @therealsova3268 2 ปีที่แล้ว +1

    Точно ли правильная архитектура AlexNet? Даже простой расчет последней свертки 13x13x256 никак не равен 4096

    • @АлександрГоготов-д7ь
      @АлександрГоготов-д7ь หลายเดือนก่อน

      4096 - это количество нейронов в первом полносвязном слое, т.е. выходных нейронов. Число нейронов на выходе последней свёртки, т.е. на входе в первый полносвязный слой, будет другим.

  • @vadimosipov2147
    @vadimosipov2147 4 ปีที่แล้ว +2

    У меня есть предположение, что skip connection применяют прям в очень больших сетях, условно больше 18 слоев, как в ResNet.
    Применение техники Skip connection - это обычная практика при работе с задачами DNN ? (наряду с baseline техниками - ReLU, Adam, нормализацией)

    • @tatianagaintseva8701
      @tatianagaintseva8701 4 ปีที่แล้ว +3

      Когда я говорила о скип коннекшенах, я как раз сказала, что они нужны для того чтобы обучаться глубокие сети :) так что да, они имеют смысл в глубоких сетях. В маленьких их не применяют

  • @АлександрПетровский-я7б
    @АлександрПетровский-я7б 2 ปีที่แล้ว

    А что же про самую эффективную нейросеть (EfficientNet_v2) не рассказали???

  • @alexanderskusnov5119
    @alexanderskusnov5119 2 ปีที่แล้ว

    Вообще-то веса это дубль-вэ (дабл-ю), а не омега (от слова вес - weight).

  • @alexanderskusnov5119
    @alexanderskusnov5119 2 ปีที่แล้ว

    "скип коннекшен называется скип коннекшен, потому что он скипает" - ох уж эти жертвы гугл-переводчиков. Когда вы научитесь учить английский и не забывать русский?

    • @nick-ituk
      @nick-ituk 10 หลายเดือนก่อน +3

      Д - значит душнила.

  • @поселокОпытныйСтаростат
    @поселокОпытныйСтаростат 3 ปีที่แล้ว

    Это точно програмирование, что имеет прямую жесткую связь с математико?
    ...
    Или конкурс лингвистической эквилибристики? На 19:35 у вас там "мат.пушка" на экране. Бог с ним как вы в скобках единицу присвоили. Но как вы за скобки общий множитель выносите - это ТРЭШ.
    ...
    Формулы сокращенного умножения? Не, видать не слышали?

    • @поселокОпытныйСтаростат
      @поселокОпытныйСтаростат 3 ปีที่แล้ว

      Более того если свернуть вашу "пушку" по законам математики, то х1 в расчетах не участвует и либо L/W равно нулю либо х3/х2 равно нулю, а L/W через Х-ы не выражается и от них не зависит.
      ....
      Дайте Вашу формулу любому школьнику, попрасите ее сократить и сами увидете, что выйдет.

    • @tatianagaintseva8701
      @tatianagaintseva8701 3 ปีที่แล้ว

      здравствуйте. Поясните подробнее, пожалуйста, что вам кажется неверным на слайде. Про "свернуть" формулу - смысл в том, что я наоборот разворачивала формулу производной в производную сложной функции, чтобы показать, как она считается. Или я неверно понимаю вашу претензию?

    • @tatianagaintseva8701
      @tatianagaintseva8701 3 ปีที่แล้ว +3

      @@поселокОпытныйСтаростат свернуть "пушку" по законам математики нельзя. То, что вы считаете "дробями" - это градиенты. Не дроби. Если вы аппелируете к математике, то сначала подтяните сами знания о производных и градиентах сложной функции.

    • @поселокОпытныйСтаростат
      @поселокОпытныйСтаростат 3 ปีที่แล้ว

      @@tatianagaintseva8701 градиен, вектор, да хоть атамайзер... если это нечто меняющиеся в зависимости от чего-то, то общий вид записи F(x). A F(x)/F(x)=1 ..... хоть в африке, хоть на луне.

    • @поселокОпытныйСтаростат
      @поселокОпытныйСтаростат 3 ปีที่แล้ว

      @P4ElOVEk не разбираюсь? С клавы мобилы регистры и значки ваших "векторов" корректно указать сложно. Но о чем я кто в теме понял. Вы там по ходу с новыми законами матеиатики случайно новую символьную таблицу для древнейшей из наук не изобрели?
      ....
      Так надо тогда уж и "легенду" этих символов выкладывать, что вы там имели в виду.
      ...
      А уровень вашей мат. подготовке четко определяется, когда при отображение суммы, вы одно из слогаемых (которое является произведение) в скобки берете.
      ...
      А с "присвоением ЕДИНИЦЫ" -то это вообще за гранью.

  • @victorsheverdin3935
    @victorsheverdin3935 ปีที่แล้ว

    Ппц, столько бреда в одной лекции я еще не слышал...(

  • @dmioz3955
    @dmioz3955 ปีที่แล้ว +1

    Полезно и доступно. Спасибо, красавица.