Лекция 10. Градиентный бустинг. Открытый курс OpenDataScience по машинному обучению mlcourse.ai

แชร์
ฝัง
  • เผยแพร่เมื่อ 23 ม.ค. 2025

ความคิดเห็น • 22

  • @trojanske_hesten
    @trojanske_hesten 3 ปีที่แล้ว +8

    Спасибо за видео, спасибо за курс! Достаточно простым языком объяснены многие основные темы, даны хорошие практические задания. Спасибо!

    • @festline
      @festline  3 ปีที่แล้ว +3

      Спасибо за комментарий! И.. не стесняйтесь советовать курс друзьям :)

  • @mwave3388
    @mwave3388 2 ปีที่แล้ว +4

    Спасибо Юрий за курс!

  • @igorkomorkin8671
    @igorkomorkin8671 5 ปีที่แล้ว +7

    Спасибо за этот замечательный курс.

  • @bronislavkonnikov
    @bronislavkonnikov 5 ปีที่แล้ว +1

    Огромное спасибо за этот замечательный курс 👏

  • @salivona
    @salivona 3 ปีที่แล้ว +1

    Спасибо!

  • @НикитаБояркин-р1з
    @НикитаБояркин-р1з 3 ปีที่แล้ว

    Здравствуйте!
    Не подскажете, почему у вас на 4:26 в функции потерь для logitboost стоит двоичный логарифм? Если ничего не путаю, используется натуральный

    • @festline
      @festline  3 ปีที่แล้ว

      Добрый день! Это то же самое с точностью до мультипликативной константы, так что не очень принципиально. Мне в таком виде больше нравится, так как значение в нуле равно 1, как у прочих представленных функций потерь.

  • @94SERP
    @94SERP 4 ปีที่แล้ว +1

    а сейчас вы бы что посоветовали изучать?? XGBoost, LightGBM или CatBoost? Судя по отчетам Яндекса, их бустинг быстрее и точнее на большинстве задач)

    • @festline
      @festline  4 ปีที่แล้ว +2

      я не слежу прям за всеми обновлениями, и лучше всего - вписаться в следующее соревнование на каггле и посмотреть, что люди реально используют. По такой метрике кажется, что гонку выиграл LightGBM

    • @jjj78ean
      @jjj78ean 3 ปีที่แล้ว +1

      вот хорошее сравнение бустингов th-cam.com/video/2Va5jMMBC0M/w-d-xo.html

  • @данилурод
    @данилурод 2 ปีที่แล้ว

    Здравствуйте, скажите пожалуйста где можно найти notebook с реализацией градиентного бустинга

    • @festline
      @festline  2 ปีที่แล้ว

      добрый день! Сейчас это задание - в списке бонусных, доступно на Patreon или Boosty mlcourse.ai/book/topic10/bonus_assignment10.html

  • @nmobmaster
    @nmobmaster 5 ปีที่แล้ว

    А что за темка стоит для подобного отображения графиков matplotlib? Подскажите, пожалуйста, очень понравилось!

    • @festline
      @festline  5 ปีที่แล้ว

      вопрос, видимо, про xkcd тему matplotlib.org/xkcd/examples/showcase/xkcd.html

  • @ИльяАлексеев-т3т
    @ИльяАлексеев-т3т 5 ปีที่แล้ว +2

    где можно взять все материалы(данные, теория), используемое за все 10 лекций?

    • @festline
      @festline  5 ปีที่แล้ว +5

      github.com/Yorko/mlcourse.ai

  • @nikolaysheregeda7856
    @nikolaysheregeda7856 5 ปีที่แล้ว

    thx

  • @СтепанЦыбин-ю9д
    @СтепанЦыбин-ю9д 4 ปีที่แล้ว +2

    А до сих пор он остался основным в задачах машинного обучения ?

    • @festline
      @festline  4 ปีที่แล้ว +6

      вот прям так обобщать - опасно. Но в случае, когда признаков не очень много (до нескольких тысяч примерно), и признаки разнородные (колич, катег, бинарные) - то действительно чаще всего на практике возьмутся за бустинг. Я лично скорее всего случайный лес проверю, т.к. он менее чувствителен к гиперпараметрам (не надо тратить время на их настройку), но уже в боевых приложениях предпочтение - бустингу из-за времени и памяти.

    • @СтепанЦыбин-ю9д
      @СтепанЦыбин-ю9д 4 ปีที่แล้ว

      @@festline а бустинг в боевых задачах реализуется либами или каким то другим образом ?

    • @festline
      @festline  4 ปีที่แล้ว +2

      @@СтепанЦыбин-ю9д чаще это, конечно, lightgm или xgboost, реже - catboost или собственные реализации. В Mail.Ru я работал с боевым бустингом, который в поиске используется