Регуляризация простыми словами | L1, L2, Elastic Net | Lasso, Ridge | Машинное обучение

แชร์
ฝัง
  • เผยแพร่เมื่อ 7 ม.ค. 2025

ความคิดเห็น • 43

  • @cosmonaut380
    @cosmonaut380 2 ปีที่แล้ว +11

    Спасибо! Лучшее объяснение регуляризации, что я слышал.

    • @machine_learrrning
      @machine_learrrning  2 ปีที่แล้ว +1

      Безумно рада, что объяснение понятно :)

  • @dmitrec999
    @dmitrec999 9 หลายเดือนก่อน +3

    как я рад что тебя нашел!)

  • @АйгульСамедова-ъ9о
    @АйгульСамедова-ъ9о ปีที่แล้ว +4

    В одной домашке вы-знаете-где хотела поменять регуляризацию в логистической регрессии с l2 на другие методы. И получила Nan в результате. Спасибо за это видео, теперь я поняла, где была ошибка)

    • @machine_learrrning
      @machine_learrrning  ปีที่แล้ว

      Очень рада, что получилось разобраться с ошибкой благодаря моему видео :)

  • @SerNik-w7p
    @SerNik-w7p 8 หลายเดือนก่อน +2

    Потрясающие объяснения, спасибо!
    Очень помогает осознать в самообучении )

  • @ВиталийКенарь
    @ВиталийКенарь ปีที่แล้ว

    Материал изложен просто и наглядно, что очень понравилось!

  • @ИльвирХасанов-и9ц
    @ИльвирХасанов-и9ц ปีที่แล้ว +2

    Огромное спасибо. Суперские объяснения!

  • @TheGnezdoOfZevs
    @TheGnezdoOfZevs ปีที่แล้ว +2

    Спасибо огромное, скоро сдавать буду лабу, Ваше видео очень сильно помогло!

    • @machine_learrrning
      @machine_learrrning  ปีที่แล้ว

      Здорово, что мои видео помогают готовиться к лабораторным 😊

  • @bysedova
    @bysedova 10 หลายเดือนก่อน

    Супер! Все понятно! Хотелось бы еще иногда видеть разбор формул, потому что забывается что-то со временем (я тут освежаю в памяти базу) и хотелось бы про нейронки увидеть контент

  • @d14400
    @d14400 ปีที่แล้ว

    Чудесное объяснение и подача материала, спасибо

  • @АлексейСамойленко-ю1н
    @АлексейСамойленко-ю1н 2 ปีที่แล้ว +2

    Отличное видео, спасибо, Юлия! Не останавливайтесь!

    • @machine_learrrning
      @machine_learrrning  2 ปีที่แล้ว

      Большое спасибо за приятные слова! 😊

  • @some_name12847
    @some_name12847 ปีที่แล้ว +1

    Спасибо большое, за старание, пришёл с Udemy с курса по ML, хотя бы картина в голове сложилась!

  • @mind.flow777
    @mind.flow777 2 ปีที่แล้ว +2

    Спасибо Вам большое☺🙏

  • @АРТЕМИЙДАДЫКОВ
    @АРТЕМИЙДАДЫКОВ 3 หลายเดือนก่อน

    Хороший видос, очень смешный мемесы! Лайк + подписка :))))

  • @glavnyi_heyter
    @glavnyi_heyter 2 ปีที่แล้ว +1

    Как же вовремя, спасибо) у меня в проекте линейка то переобучается то низкая метрика

    • @machine_learrrning
      @machine_learrrning  2 ปีที่แล้ว

      Пожалуйста! Рада, что видео вышло в нужный момент 😊

  • @max-burd
    @max-burd ปีที่แล้ว

    супер, спасибо за инфу

  • @КатяБутина-р9я
    @КатяБутина-р9я 11 หลายเดือนก่อน

    Благодарю!

  • @plained78
    @plained78 ปีที่แล้ว

    Смотрите тогда такой вопрос, исходя из вашего примера. В обычной задачи линейной регрессии, без регуляризации мы минимизируем функционал качества Q(w,X), то есть MSE. Мы подбираем такие B, чтобы MSE была минимальной. После добавление регуляризации Q(w,X) + a||w||^2 мы минимизируем уже эту функцию, но на основе чего? Получается чем меньше коэффициенты B, тем лучше ведь?

    • @machine_learrrning
      @machine_learrrning  ปีที่แล้ว

      В целом, да.
      Но если коэффициенты будут крайне маленькими, то они вряд ли будут подходить для оптимального решения, то есть сама MSE будет большой, поэтому нужно и MSE уменьшать и веса (в рамках разумного)

  • @semensamoilov5175
    @semensamoilov5175 2 ปีที่แล้ว +4

    фига! какой я клевый канал случайно нашел

  • @ЕкатеринаА-л6ц
    @ЕкатеринаА-л6ц ปีที่แล้ว

    Спасибо большое за видео! Очень хотелось бы понять, что за solver-ы такие) часто встречаю, но не очень понимаю разницу.

  • @Дмитрий-с2э2в
    @Дмитрий-с2э2в 2 ปีที่แล้ว +1

    😀 огонь

  • @sergeyvolkov2273
    @sergeyvolkov2273 ปีที่แล้ว

    великолепно!

  • @КаналКанал-о2щ
    @КаналКанал-о2щ ปีที่แล้ว

    про весы , конечно, забавно)

  • @giblyfgiblyf
    @giblyfgiblyf ปีที่แล้ว

    Почему при Лассо регуляризации веса становятся нулевыми, а при гребневой нет?

  • @КаналСупермастерА
    @КаналСупермастерА ปีที่แล้ว +3

    Почему L1 зануляет веса, а L2 нет?

    • @stillyoungabdpretty
      @stillyoungabdpretty 11 หลายเดือนก่อน +1

      Модуль является недифференцируемой функцией, что означает, что он не имеет производной в точке ноль. Поэтому при оптимизации модели с использованием L1-регуляризации возникает ситуация, когда оптимальным решением для некоторых коэффициентов будет установка их в ноль, чтобы минимизировать общий штраф.

  • @СакинаБайрамова-ц1в
    @СакинаБайрамова-ц1в 3 หลายเดือนก่อน

    👍🏻👍🏻👍🏻

  • @ВениаминПак-е8э
    @ВениаминПак-е8э 10 หลายเดือนก่อน

    А может кто-то объяснить, почему в L2 регуляризации веса не могут занулиться, а в L1 могут?

    • @LolaL7088
      @LolaL7088 9 หลายเดือนก่อน

      Выше ответ есть. Что уж модуля нет производной => оптимальный вариант уменьшить вес, это прировнять его 0

  • @ДаниилГородецкий-э8д
    @ДаниилГородецкий-э8д ปีที่แล้ว +2

    Не останавливайся ))

    • @machine_learrrning
      @machine_learrrning  ปีที่แล้ว

      Стараюсь, но основная работа порой останавливает 😸

  • @arti5946
    @arti5946 8 หลายเดือนก่อน +1

    Вы чудесно объясняете, но неужели у вы никогда не находили в себе мотивацию исправить речевой дефект ? Это же не так сложно

    • @Dodenius
      @Dodenius 7 หลายเดือนก่อน

      Неужели Вы никогда не находили в себе мотивацию не токсичить людей за их особенности, с которыми им жить, а не Вам?

  • @Roc19961
    @Roc19961 2 ปีที่แล้ว

    Всегда проблемы были с этой темой

    • @machine_learrrning
      @machine_learrrning  2 ปีที่แล้ว +1

      Сейчас самое время эти проблемы решить :)