Лекция. Регуляризация в линейной регрессии

แชร์
ฝัง
  • เผยแพร่เมื่อ 2 ก.พ. 2025

ความคิดเห็น • 6

  • @Duke_Nukem-42
    @Duke_Nukem-42 ปีที่แล้ว +1

    А во второй части обновленных функций потерь отчего омеги суммируются лишь от 1 до n? Разве не должно быть от 0 до n?

  • @leowhynot
    @leowhynot 2 ปีที่แล้ว +4

    через 5 пересмотров - i get it!

  • @СолодушкинСвятослав
    @СолодушкинСвятослав 7 หลายเดือนก่อน

    Ошибка в определении линейной зависимости. Забыл сказать, что \beta_i, = 1,...,n, не все равны нулю.
    4:45 такую ерунду наговорил, каша в математических терминах. Совсем не факт, что веса будут уменьшаться, они и увеличиваться могут. Это что такое "применяться градиентный шаг"?

  • @AskoLd1ee
    @AskoLd1ee ปีที่แล้ว

    плохое и неправильное объяснение, сами подумайте, где в формуле X*b получается линейная комбинация столбцов? правильно, нигде
    еще и картинка закрыла формулу, пора бы обновить эту лекцию, да и всю серию про регрессию, не хватает логической связи между отдельными частями

    • @ivankosolapov430
      @ivankosolapov430 ปีที่แล้ว +1

      Можете посоветовать какой-то другой ресурс для изучения ml? Я только вникаю, знаю математику буквально немного - производные, матрицы, но порой в видео приводится такое. что мой мозг взрывается и идёт искать ответы в интернете ;(

    • @vadimosipov8982
      @vadimosipov8982 ปีที่แล้ว +4

      Линейная зависимость из условия. На слайде есть слово "Если". А комбинация из линейно зависимых, линейно-независимых векторов и коэффициентов записывается одинаково ))