Градиентный спуск на пальцах

แชร์
ฝัง
  • เผยแพร่เมื่อ 5 พ.ย. 2024

ความคิดเห็น • 12

  • @frontend_lessons
    @frontend_lessons 10 หลายเดือนก่อน +3

    Большое спасибо! Одно из самых понятных объяснений!

  • @Kerico-o9b
    @Kerico-o9b ปีที่แล้ว +1

    Очень понятно объяснил, спасибо большое!!!

  • @pavel6180
    @pavel6180 ปีที่แล้ว +1

    очень доходчиво. спасибо за видео, разобрался наконец)

  • @McKiDo-ly9qb
    @McKiDo-ly9qb หลายเดือนก่อน

    Жаль что вы забросили канал( Как бы я хотел у вас спросить несколько вещей

  • @youtubespectator
    @youtubespectator 5 หลายเดือนก่อน

    Я не очень понял пакетный градиентный спуск. Допустим есть две переменные, то есть два признака. Получаются веса w1 и w2. (А свободный коэффициент участвует или нет?)
    Всего пусть будет 4 объекта. И вот как мы находим новую точку? Новый вес w1 будет равен сумме весов w1 по каждому объекту / 4 - производная по этому новому усредненному весу или как? Или нужно отдельно рассчитать производные по w1 по каждому объекту, а потом усреднить?

  • @ФеняУшкина
    @ФеняУшкина 3 ปีที่แล้ว

    Живо. Полезно!

  • @artyomgolovin6293
    @artyomgolovin6293 2 ปีที่แล้ว

    ниче не слышно, но очень интересно

  • @vsev010d
    @vsev010d 10 หลายเดือนก่อน +3

    Абсолютно бесполезно с точки зрения практики. Просто показал известную всем формулу, а как ей пользоваться, похоже, сам не знает

    • @HappyMAN-lv5xu
      @HappyMAN-lv5xu 4 หลายเดือนก่อน

      @user53242 вообще нет, стоит рассмотреть генеративный ИИ, можно понять, что Ии уже хорошо развит

  • @reservoirchannel5576
    @reservoirchannel5576 21 วันที่ผ่านมา

    да уж, прирожденный препод

  • @nouaksomtac6782
    @nouaksomtac6782 หลายเดือนก่อน

    ешо етот видео хорошо обяснает ету тему th-cam.com/video/RJCIYBAAiEI/w-d-xo.html

  • @ЕвгенийСитников-ц4з
    @ЕвгенийСитников-ц4з 3 หลายเดือนก่อน

    Понял что ничего не понял.