Deep Learning на пальцах 4 - PyTorch и подробности

แชร์
ฝัง
  • เผยแพร่เมื่อ 4 พ.ย. 2024

ความคิดเห็น • 24

  • @alexkazimir3835
    @alexkazimir3835 3 ปีที่แล้ว

    Хорошая визуализация, прибавило понимания. Благодарю

  • @daredeviii6865
    @daredeviii6865 5 ปีที่แล้ว +5

    you know - it's really cool :D

  • @lougvar
    @lougvar 5 ปีที่แล้ว +4

    После того как день потратил на backpropagation с матрицами, картинка с Гарольдом, скрывающим боль, очень доставила хD. А про really cool вообще под стол упал xDxD

  • @awsahmad4837
    @awsahmad4837 2 ปีที่แล้ว

    Интересно, спасибо

  • @VasArkady
    @VasArkady 2 ปีที่แล้ว

    Стоит пояснить, что за функция random в инициализации весов методом Xavier. Веса должны быть нормально распределены с мат ожиданием 0 и дисперсией 2/(in_num+out_num)

  • @leowhynot
    @leowhynot 2 ปีที่แล้ว +1

    А есть где-нибудь задания, которые выполняли студенты курса? Хотелось бы пощелкать

  • @nbovenko
    @nbovenko 4 ปีที่แล้ว +1

    Мнемоника - класс :)

  • @iraira9564
    @iraira9564 3 ปีที่แล้ว

    лектор такой милашка ! : З

  • @n_bazarov
    @n_bazarov 3 ปีที่แล้ว

    37 минута
    задача про носы и глаза
    то есть на выходе мы не применяем ни сигмоиду ни софтмакс, а функция активации такая же ReLU?

  • @romansvirid
    @romansvirid 2 ปีที่แล้ว

    в Adam velocity преобразуется на основе предыдущего значения. а какое у него значение изначально?

    • @romansvirid
      @romansvirid 2 ปีที่แล้ว +1

      разобрался, изначально это 0

  • @marijuanimation4250
    @marijuanimation4250 4 ปีที่แล้ว

    1:10:58 - Обновление параметров

  • @dfweqwqd
    @dfweqwqd 4 ปีที่แล้ว

    Вот бы лекцию про distribute training !

  • @nikitajz6560
    @nikitajz6560 5 ปีที่แล้ว +1

    reg_loss это regularization loss, а не regression.
    А вообще спасибо за лекции, реально "на пальцах" :)

  • @WcorpSeraphim
    @WcorpSeraphim 3 ปีที่แล้ว

    Где почитать про то, что df/dw = X.T * df/da ? Мне в тензорное исчисление? В матричном максимум что нашел, так это производная вектора по матрице, но не производную матрицы по матрице. Это на 20:11 показывается на пальцах, а источников не дают.

    • @vladimirkulyashov1417
      @vladimirkulyashov1417 3 ปีที่แล้ว

      Первая ссылка в гугле по запросу "backpropagation for a linear layer justin johnson"

  • @gpelya1981
    @gpelya1981 3 ปีที่แล้ว

    А если я хочу найти неизвестное количество носиков ?

  • @kraamis
    @kraamis 5 ปีที่แล้ว +5

    Ну звучит вроде попроще чем прошлый раз. Но это я еще домашку не глядел.

    • @mephistotel87
      @mephistotel87 5 ปีที่แล้ว +9

      Думаешь, что всё понятно и отлично "заходит"... до тех пор пока домашку не открываешь =)))

  • @aligatorpe
    @aligatorpe 5 ปีที่แล้ว

    Вроде Керас популярнее)
    Что в продакшене используется?

  • @jurgenschwarzkopf697
    @jurgenschwarzkopf697 5 ปีที่แล้ว

    На 21:40 минуте W транспонировать надо, а не градиент, чтобы в результате матрицу размером 2x1 получить.
    ... А, сорри, 8 секунд позже преподаватель исправил.

  • @iAlexTube
    @iAlexTube 5 ปีที่แล้ว +2

    как запомнить строку и столбец. Мы пишем \и читаем\ построчно а когда не хватает места переходим на новую строку формируя столбцы. Строка первична а столбец вторичен.