В одной домашке вы-знаете-где хотела поменять регуляризацию в логистической регрессии с l2 на другие методы. И получила Nan в результате. Спасибо за это видео, теперь я поняла, где была ошибка)
Супер! Все понятно! Хотелось бы еще иногда видеть разбор формул, потому что забывается что-то со временем (я тут освежаю в памяти базу) и хотелось бы про нейронки увидеть контент
Смотрите тогда такой вопрос, исходя из вашего примера. В обычной задачи линейной регрессии, без регуляризации мы минимизируем функционал качества Q(w,X), то есть MSE. Мы подбираем такие B, чтобы MSE была минимальной. После добавление регуляризации Q(w,X) + a||w||^2 мы минимизируем уже эту функцию, но на основе чего? Получается чем меньше коэффициенты B, тем лучше ведь?
В целом, да. Но если коэффициенты будут крайне маленькими, то они вряд ли будут подходить для оптимального решения, то есть сама MSE будет большой, поэтому нужно и MSE уменьшать и веса (в рамках разумного)
Модуль является недифференцируемой функцией, что означает, что он не имеет производной в точке ноль. Поэтому при оптимизации модели с использованием L1-регуляризации возникает ситуация, когда оптимальным решением для некоторых коэффициентов будет установка их в ноль, чтобы минимизировать общий штраф.
Спасибо! Лучшее объяснение регуляризации, что я слышал.
Безумно рада, что объяснение понятно :)
как я рад что тебя нашел!)
В одной домашке вы-знаете-где хотела поменять регуляризацию в логистической регрессии с l2 на другие методы. И получила Nan в результате. Спасибо за это видео, теперь я поняла, где была ошибка)
Очень рада, что получилось разобраться с ошибкой благодаря моему видео :)
Потрясающие объяснения, спасибо!
Очень помогает осознать в самообучении )
Материал изложен просто и наглядно, что очень понравилось!
Огромное спасибо. Суперские объяснения!
Спасибо огромное, скоро сдавать буду лабу, Ваше видео очень сильно помогло!
Здорово, что мои видео помогают готовиться к лабораторным 😊
Супер! Все понятно! Хотелось бы еще иногда видеть разбор формул, потому что забывается что-то со временем (я тут освежаю в памяти базу) и хотелось бы про нейронки увидеть контент
Чудесное объяснение и подача материала, спасибо
Отличное видео, спасибо, Юлия! Не останавливайтесь!
Большое спасибо за приятные слова! 😊
Спасибо большое, за старание, пришёл с Udemy с курса по ML, хотя бы картина в голове сложилась!
Спасибо Вам большое☺🙏
Хороший видос, очень смешный мемесы! Лайк + подписка :))))
Как же вовремя, спасибо) у меня в проекте линейка то переобучается то низкая метрика
Пожалуйста! Рада, что видео вышло в нужный момент 😊
супер, спасибо за инфу
Благодарю!
Смотрите тогда такой вопрос, исходя из вашего примера. В обычной задачи линейной регрессии, без регуляризации мы минимизируем функционал качества Q(w,X), то есть MSE. Мы подбираем такие B, чтобы MSE была минимальной. После добавление регуляризации Q(w,X) + a||w||^2 мы минимизируем уже эту функцию, но на основе чего? Получается чем меньше коэффициенты B, тем лучше ведь?
В целом, да.
Но если коэффициенты будут крайне маленькими, то они вряд ли будут подходить для оптимального решения, то есть сама MSE будет большой, поэтому нужно и MSE уменьшать и веса (в рамках разумного)
фига! какой я клевый канал случайно нашел
Очень рада этой находке 😊
Согласен! Канал- ТОР!
Спасибо большое за видео! Очень хотелось бы понять, что за solver-ы такие) часто встречаю, но не очень понимаю разницу.
😀 огонь
великолепно!
про весы , конечно, забавно)
Почему при Лассо регуляризации веса становятся нулевыми, а при гребневой нет?
Почему L1 зануляет веса, а L2 нет?
Модуль является недифференцируемой функцией, что означает, что он не имеет производной в точке ноль. Поэтому при оптимизации модели с использованием L1-регуляризации возникает ситуация, когда оптимальным решением для некоторых коэффициентов будет установка их в ноль, чтобы минимизировать общий штраф.
👍🏻👍🏻👍🏻
А может кто-то объяснить, почему в L2 регуляризации веса не могут занулиться, а в L1 могут?
Выше ответ есть. Что уж модуля нет производной => оптимальный вариант уменьшить вес, это прировнять его 0
Не останавливайся ))
Стараюсь, но основная работа порой останавливает 😸
Вы чудесно объясняете, но неужели у вы никогда не находили в себе мотивацию исправить речевой дефект ? Это же не так сложно
Неужели Вы никогда не находили в себе мотивацию не токсичить людей за их особенности, с которыми им жить, а не Вам?
Всегда проблемы были с этой темой
Сейчас самое время эти проблемы решить :)