Здравствуйте! Не подскажете, почему у вас на 4:26 в функции потерь для logitboost стоит двоичный логарифм? Если ничего не путаю, используется натуральный
Добрый день! Это то же самое с точностью до мультипликативной константы, так что не очень принципиально. Мне в таком виде больше нравится, так как значение в нуле равно 1, как у прочих представленных функций потерь.
я не слежу прям за всеми обновлениями, и лучше всего - вписаться в следующее соревнование на каггле и посмотреть, что люди реально используют. По такой метрике кажется, что гонку выиграл LightGBM
вот прям так обобщать - опасно. Но в случае, когда признаков не очень много (до нескольких тысяч примерно), и признаки разнородные (колич, катег, бинарные) - то действительно чаще всего на практике возьмутся за бустинг. Я лично скорее всего случайный лес проверю, т.к. он менее чувствителен к гиперпараметрам (не надо тратить время на их настройку), но уже в боевых приложениях предпочтение - бустингу из-за времени и памяти.
@@СтепанЦыбин-ю9д чаще это, конечно, lightgm или xgboost, реже - catboost или собственные реализации. В Mail.Ru я работал с боевым бустингом, который в поиске используется
Спасибо за видео, спасибо за курс! Достаточно простым языком объяснены многие основные темы, даны хорошие практические задания. Спасибо!
Спасибо за комментарий! И.. не стесняйтесь советовать курс друзьям :)
Спасибо Юрий за курс!
Спасибо за этот замечательный курс.
Огромное спасибо за этот замечательный курс 👏
Спасибо!
Здравствуйте!
Не подскажете, почему у вас на 4:26 в функции потерь для logitboost стоит двоичный логарифм? Если ничего не путаю, используется натуральный
Добрый день! Это то же самое с точностью до мультипликативной константы, так что не очень принципиально. Мне в таком виде больше нравится, так как значение в нуле равно 1, как у прочих представленных функций потерь.
а сейчас вы бы что посоветовали изучать?? XGBoost, LightGBM или CatBoost? Судя по отчетам Яндекса, их бустинг быстрее и точнее на большинстве задач)
я не слежу прям за всеми обновлениями, и лучше всего - вписаться в следующее соревнование на каггле и посмотреть, что люди реально используют. По такой метрике кажется, что гонку выиграл LightGBM
вот хорошее сравнение бустингов th-cam.com/video/2Va5jMMBC0M/w-d-xo.html
Здравствуйте, скажите пожалуйста где можно найти notebook с реализацией градиентного бустинга
добрый день! Сейчас это задание - в списке бонусных, доступно на Patreon или Boosty mlcourse.ai/book/topic10/bonus_assignment10.html
А что за темка стоит для подобного отображения графиков matplotlib? Подскажите, пожалуйста, очень понравилось!
вопрос, видимо, про xkcd тему matplotlib.org/xkcd/examples/showcase/xkcd.html
где можно взять все материалы(данные, теория), используемое за все 10 лекций?
github.com/Yorko/mlcourse.ai
thx
А до сих пор он остался основным в задачах машинного обучения ?
вот прям так обобщать - опасно. Но в случае, когда признаков не очень много (до нескольких тысяч примерно), и признаки разнородные (колич, катег, бинарные) - то действительно чаще всего на практике возьмутся за бустинг. Я лично скорее всего случайный лес проверю, т.к. он менее чувствителен к гиперпараметрам (не надо тратить время на их настройку), но уже в боевых приложениях предпочтение - бустингу из-за времени и памяти.
@@festline а бустинг в боевых задачах реализуется либами или каким то другим образом ?
@@СтепанЦыбин-ю9д чаще это, конечно, lightgm или xgboost, реже - catboost или собственные реализации. В Mail.Ru я работал с боевым бустингом, который в поиске используется