Знаете, я увидел Ваше видео кас обратного распространения ошибки и подумал: "Что? Юная девушка с ушками мне будет рассказывать про нейро-сети?" Я учусь на курсе по нейро-сетям у профи, но ничего не могу понять. И тут Вы разбираете обратное прохождение через вычисление производных в точках сети и все совершенно понятно.Как так.... Визуализация функции потерь в данном видео - гениально. В общем, это лучшее обучающее видео, что я видел! Не знаю, кто написал эту лекцию и обучающий код, но это преподаватель высшего класса. Спасибо, что вы есть! Сейчас слушаю все видео на Вашем канале с самого начала - балдеж!
Очень рада, что видео Вам понравилось! Я самостоятельно во всех этих вещах разбиралась и тоже не всегда всё понимала, т.к. информация дается либо очень заумно, либо поверхностно и разрозненно, в процессе осознала, что если разобрать всё на мельчайшие базовые и легкие детали, то знания будут запоминаться и пониматься без проблем. Вот этот механизм и стараюсь использовать в своих роликах :)
@@machine_learrrning Юлия, я 3 месяца пытался детально разобраться, т.к. идея градиентного спуска и ф. ошибки она же везде в ML. Прослушал курс дист. пересмотрел десятки видео на ю туб и статьи -все туман. А вы разложили все так подробно, что на самом низком уровне понимаешь, как это работает. Единственно, я не понял, почему, когда вы отрисовываете градиент(производную) к параболе в точке Х=5 она не является фактически производной (т.е. касательной к функции). У вас в коде: "Можем отрисовать направление градиента, он показывает наискорейший рост функции и действительно видим, зеленый вектор идет вверх." next_point_1 = start_point + grad plt.plot([start_point, next_point_1], func(np.array([start_point, next_point_1])), '--g', label='grad') Можете пояснить? Или это просто для иллюстрации направления гралиента?
Пока что для меня ваш канал и подача материала это наиболее полезная форма. Между мамкиными датамашинлернерами и ядерными курсами по ML. Спасибо за вашу отличную работу
Видал я разные обучающие видео по разным темам машин лернинга, от всяких именитых блогеров и известных курсов. Но это определенно лучшее. Браво! Нетерпится посмотреть остальные видео на канале, это первое для меня.
У вас огромный талант, как у специалиста ML и преподавателя. Вы печатаете, рассказывая происходящее, и это всё понятными словами, с минимумом отпечаток в коде! Вау! Ваши видео ни раз выручали меня при выполнении учебных проектов, суть которых "научи от А до Г, от Д до Я пусть сами ищут. Поэтому я зарегистрировался на ваш курс и не пожалел. Курс у вас просто отменный. Можно вам предложить идею видео: основы ООП для создания пайплайна.
хочу отметить, что предсказание модели нельзя делать на обученных данных (блок подсчет метрики MSE). для тех , кто только начал изучать это может вызвать затруднение и в дальнейшем неправильное понятие модели предсказания
У меня есть вопрос: в случае, когда вы берете в пример функцию x**2 и используете градиентный спуск, вы используете его только для наглядности? - я имею в виду, можно ли было использовать просто метод нахождения локального минимума приравниванием производной к нулю для нахождения минимального (оптимального значения )?
Юлия, вопрос про многофакторную регрессию. Может быть ситуация, что два фактора взятые по-отдельности это просто шум и по одному они как бы не влияющие. Но если их рассмотреть в паре, как-то их связать, то они дают четкое влияние на искомый результат. Как модель обучения учитывает эту ситуацию? Заранее спасибо! И ушки клёвые)
Спасибо большое за информативное детальное видео! Накопились , скорее всего, глупые вопросы: Получается, что во время стадии "обучение модели" с помощью sklearn градиентный бустинг уже имплементирован внутрь sklearn.LinearRegression, раз на выходе мы получаем сразу готовые коэффициенты?
Поясните, пожалуйста, как из градиента=10 мы пришли к вектору, который изображен на графике? Как с помощью этого одного этого числа получилось построить направление роста функции? Просто тут градиент выглядит как точка..
наверное лучшее объяснение на СНГ и англоязычном ютубе
Знаете, я увидел Ваше видео кас обратного распространения ошибки и подумал: "Что? Юная девушка с ушками мне будет рассказывать про нейро-сети?" Я учусь на курсе по нейро-сетям у профи, но ничего не могу понять. И тут Вы разбираете обратное прохождение через вычисление производных в точках сети и все совершенно понятно.Как так.... Визуализация функции потерь в данном видео - гениально. В общем, это лучшее обучающее видео, что я видел! Не знаю, кто написал эту лекцию и обучающий код, но это преподаватель высшего класса. Спасибо, что вы есть! Сейчас слушаю все видео на Вашем канале с самого начала - балдеж!
Очень рада, что видео Вам понравилось!
Я самостоятельно во всех этих вещах разбиралась и тоже не всегда всё понимала, т.к. информация дается либо очень заумно, либо поверхностно и разрозненно, в процессе осознала, что если разобрать всё на мельчайшие базовые и легкие детали, то знания будут запоминаться и пониматься без проблем. Вот этот механизм и стараюсь использовать в своих роликах :)
@@machine_learrrning Юлия, я 3 месяца пытался детально разобраться, т.к. идея градиентного спуска и ф. ошибки она же везде в ML. Прослушал курс дист. пересмотрел десятки видео на ю туб и статьи -все туман. А вы разложили все так подробно, что на самом низком уровне понимаешь, как это работает. Единственно, я не понял, почему, когда вы отрисовываете градиент(производную) к параболе в точке Х=5 она не является фактически производной (т.е. касательной к функции). У вас в коде: "Можем отрисовать направление градиента, он показывает наискорейший рост функции и действительно видим, зеленый вектор идет вверх." next_point_1 = start_point + grad
plt.plot([start_point, next_point_1], func(np.array([start_point, next_point_1])), '--g', label='grad')
Можете пояснить? Или это просто для иллюстрации направления гралиента?
@@alexeykolesnik9038 Да, это для иллюстрации градиента. Куда нужно двигаться при шаге градиентного спуска
Как всегда огромные слова благодарности за Ваш труд!!! Сколько всего интересного!
18:38 про скорость не очень понял,что это такое?
Это потрясающе, я наконец то понял где применяется градиентный спуск, СПАСИБО!
Еще бы линейную классификацию))))
Очень рада, что с помощью моего видео получилось понять градиентный спуск 😊
Записала в пожелания линейную классификацию
Спасибо, мало кто в состоянии объяснить так лаконично и доходчиво
Спасибо за очень доходчивое объяснение!
Тудым-сюдым... человеческими шагами ))) Шикарно!
Дякую, неймовірно класні відео, в 100 разів цікавіше ніж лекції в університеті
Спасибо! Действительно, очень классное объяснение для тех кто пытается в этом разобраться!!!
Отличное объяснение! Все системно и последовательно. Спасибо!
Эта булочка все так классно объясняет😄, одни из немногих видео по DS которые я реально понимаю, пересматриваю по много раз, чтобы запомнилось лучше.
Спасибо вам огромное!! Ваше видео помогло при сдаче лабораторной! Счастья вам и успехов!
Пока что для меня ваш канал и подача материала это наиболее полезная форма. Между мамкиными датамашинлернерами и ядерными курсами по ML. Спасибо за вашу отличную работу
Отличное видео, спасибо!!! Наконец то кто-то объяснил линейку человеческим языком 😅❤
Видал я разные обучающие видео по разным темам машин лернинга, от всяких именитых блогеров и известных курсов. Но это определенно лучшее. Браво! Нетерпится посмотреть остальные видео на канале, это первое для меня.
Это прекрасно
Спасибо! Все очень круто, жду следующих обучающих видеоуроков!
Спасибо большое за замечательное объяснение )
Огромное спасибо за отличные гайды. Стало гораздо понятнее. Подписался)
Было бы интересно посмотреть про реализацию полиномиальной регресии
Умничка , материал топ !😊
Отлично!
огромнейшее спасибо за видео, всегда круто объясняете
У вас огромный талант, как у специалиста ML и преподавателя. Вы печатаете, рассказывая происходящее, и это всё понятными словами, с минимумом отпечаток в коде! Вау! Ваши видео ни раз выручали меня при выполнении учебных проектов, суть которых "научи от А до Г, от Д до Я пусть сами ищут. Поэтому я зарегистрировался на ваш курс и не пожалел. Курс у вас просто отменный. Можно вам предложить идею видео: основы ООП для создания пайплайна.
Спасибо огромное за такие приятные слова!
Идею записала, спасибо :)
@@machine_learrrning а что за курс, где можно найти?
хочу отметить, что предсказание модели нельзя делать на обученных данных (блок подсчет метрики MSE). для тех , кто только начал изучать это может вызвать затруднение и в дальнейшем неправильное понятие модели предсказания
круто. спасибо. у меня заняло два!(два месяца карл) чтоб это понять наконец на low level ) но я и другое учил параллельно. умный... че сказать
Не важно, сколько заняло, важно, что получилось понять :)
У меня есть вопрос: в случае, когда вы берете в пример функцию x**2 и используете градиентный спуск, вы используете его только для наглядности? - я имею в виду, можно ли было использовать просто метод нахождения локального минимума приравниванием производной к нулю для нахождения минимального (оптимального значения )?
наконец то нашел видос где обьяснение это действительно обьяснение, а не 1.5 часа понтов лектора какие он знает приемчики из линейной алгебры
Лучшее что есть на русском по ML
Мне, конечно, интересно, что может быть в платных курсах на степике, если и в бесплатном доступе я получил совершенный урок
Чудесные уши)
Спасибо :)
Ставь класс если твоя жизнь - это социальный градиентный спуск
привет, большое спасибо, будет ли туториал по логистической регрессии?
Привет, пожалуйста, очень рада помочь!
Да, планирую такое видео с разбором устройства линейной модели для классификации.
Юлия, вопрос про многофакторную регрессию. Может быть ситуация, что два фактора взятые по-отдельности это просто шум и по одному они как бы не влияющие. Но если их рассмотреть в паре, как-то их связать, то они дают четкое влияние на искомый результат. Как модель обучения учитывает эту ситуацию?
Заранее спасибо! И ушки клёвые)
Спасибо большое за информативное детальное видео! Накопились , скорее всего, глупые вопросы:
Получается, что во время стадии "обучение модели" с помощью sklearn градиентный бустинг уже имплементирован внутрь sklearn.LinearRegression, раз на выходе мы получаем сразу готовые коэффициенты?
да, в целом так и происходит, градиентный спуск имплементирован внутри sklearn модели.
В sklearn.LinearRegression нахождение весов реализовано через qr разложение, а вот LogisticRegression и SGDRegressor уже через градиентный спуск
Поясните, пожалуйста, как из градиента=10 мы пришли к вектору, который изображен на графике? Как с помощью этого одного этого числа получилось построить направление роста функции? Просто тут градиент выглядит как точка..
Можно ли ссылку на ноутбук?
Ссылка на ноутбук есть в описании
ох уже эта бархатная эр, паровозик тыр тыр))))
Отличный канал!
18:43 - не понятно , если нам нужно найти функцию , мы уже ее используем для поиска минимума ? Нам же функция за ранее не известна !