Ошибка в определении линейной зависимости. Забыл сказать, что \beta_i, = 1,...,n, не все равны нулю. 4:45 такую ерунду наговорил, каша в математических терминах. Совсем не факт, что веса будут уменьшаться, они и увеличиваться могут. Это что такое "применяться градиентный шаг"?
плохое и неправильное объяснение, сами подумайте, где в формуле X*b получается линейная комбинация столбцов? правильно, нигде еще и картинка закрыла формулу, пора бы обновить эту лекцию, да и всю серию про регрессию, не хватает логической связи между отдельными частями
Можете посоветовать какой-то другой ресурс для изучения ml? Я только вникаю, знаю математику буквально немного - производные, матрицы, но порой в видео приводится такое. что мой мозг взрывается и идёт искать ответы в интернете ;(
Линейная зависимость из условия. На слайде есть слово "Если". А комбинация из линейно зависимых, линейно-независимых векторов и коэффициентов записывается одинаково ))
А во второй части обновленных функций потерь отчего омеги суммируются лишь от 1 до n? Разве не должно быть от 0 до n?
через 5 пересмотров - i get it!
Ошибка в определении линейной зависимости. Забыл сказать, что \beta_i, = 1,...,n, не все равны нулю.
4:45 такую ерунду наговорил, каша в математических терминах. Совсем не факт, что веса будут уменьшаться, они и увеличиваться могут. Это что такое "применяться градиентный шаг"?
плохое и неправильное объяснение, сами подумайте, где в формуле X*b получается линейная комбинация столбцов? правильно, нигде
еще и картинка закрыла формулу, пора бы обновить эту лекцию, да и всю серию про регрессию, не хватает логической связи между отдельными частями
Можете посоветовать какой-то другой ресурс для изучения ml? Я только вникаю, знаю математику буквально немного - производные, матрицы, но порой в видео приводится такое. что мой мозг взрывается и идёт искать ответы в интернете ;(
Линейная зависимость из условия. На слайде есть слово "Если". А комбинация из линейно зависимых, линейно-независимых векторов и коэффициентов записывается одинаково ))