РЕАЛИЗАЦИЯ ЛИНЕЙНОЙ РЕГРЕССИИ | Линейная регрессия | LinearRegression | МАШИННОЕ ОБУЧЕНИЕ

แชร์
ฝัง
  • เผยแพร่เมื่อ 17 ธ.ค. 2024

ความคิดเห็น •

  • @настоящиймужик-х2д
    @настоящиймужик-х2д ปีที่แล้ว +8

    наверное лучшее объяснение на СНГ и англоязычном ютубе

  • @alexeykolesnik9038
    @alexeykolesnik9038 2 ปีที่แล้ว +21

    Знаете, я увидел Ваше видео кас обратного распространения ошибки и подумал: "Что? Юная девушка с ушками мне будет рассказывать про нейро-сети?" Я учусь на курсе по нейро-сетям у профи, но ничего не могу понять. И тут Вы разбираете обратное прохождение через вычисление производных в точках сети и все совершенно понятно.Как так.... Визуализация функции потерь в данном видео - гениально. В общем, это лучшее обучающее видео, что я видел! Не знаю, кто написал эту лекцию и обучающий код, но это преподаватель высшего класса. Спасибо, что вы есть! Сейчас слушаю все видео на Вашем канале с самого начала - балдеж!

    • @machine_learrrning
      @machine_learrrning  2 ปีที่แล้ว +17

      Очень рада, что видео Вам понравилось!
      Я самостоятельно во всех этих вещах разбиралась и тоже не всегда всё понимала, т.к. информация дается либо очень заумно, либо поверхностно и разрозненно, в процессе осознала, что если разобрать всё на мельчайшие базовые и легкие детали, то знания будут запоминаться и пониматься без проблем. Вот этот механизм и стараюсь использовать в своих роликах :)

    • @alexeykolesnik9038
      @alexeykolesnik9038 2 ปีที่แล้ว +3

      @@machine_learrrning Юлия, я 3 месяца пытался детально разобраться, т.к. идея градиентного спуска и ф. ошибки она же везде в ML. Прослушал курс дист. пересмотрел десятки видео на ю туб и статьи -все туман. А вы разложили все так подробно, что на самом низком уровне понимаешь, как это работает. Единственно, я не понял, почему, когда вы отрисовываете градиент(производную) к параболе в точке Х=5 она не является фактически производной (т.е. касательной к функции). У вас в коде: "Можем отрисовать направление градиента, он показывает наискорейший рост функции и действительно видим, зеленый вектор идет вверх." next_point_1 = start_point + grad
      plt.plot([start_point, next_point_1], func(np.array([start_point, next_point_1])), '--g', label='grad')
      Можете пояснить? Или это просто для иллюстрации направления гралиента?

    • @machine_learrrning
      @machine_learrrning  2 ปีที่แล้ว +2

      @@alexeykolesnik9038 Да, это для иллюстрации градиента. Куда нужно двигаться при шаге градиентного спуска

  • @АртёмКомарницкий-я9ь
    @АртёмКомарницкий-я9ь 2 ปีที่แล้ว +18

    Как всегда огромные слова благодарности за Ваш труд!!! Сколько всего интересного!

    • @TV-jg4qm
      @TV-jg4qm 4 หลายเดือนก่อน +1

      18:38 про скорость не очень понял,что это такое?

  • @LoSb_Krakov
    @LoSb_Krakov 2 ปีที่แล้ว +12

    Это потрясающе, я наконец то понял где применяется градиентный спуск, СПАСИБО!
    Еще бы линейную классификацию))))

    • @machine_learrrning
      @machine_learrrning  2 ปีที่แล้ว +5

      Очень рада, что с помощью моего видео получилось понять градиентный спуск 😊
      Записала в пожелания линейную классификацию

  • @СергейЯкушев-ъ3д
    @СергейЯкушев-ъ3д ปีที่แล้ว +4

    Спасибо, мало кто в состоянии объяснить так лаконично и доходчиво

  • @aziris9145
    @aziris9145 หลายเดือนก่อน

    Спасибо за очень доходчивое объяснение!

  • @АлександрИваненко-н9ф
    @АлександрИваненко-н9ф 8 หลายเดือนก่อน +1

    Тудым-сюдым... человеческими шагами ))) Шикарно!

  • @shiawaseyume9675
    @shiawaseyume9675 9 หลายเดือนก่อน +6

    Дякую, неймовірно класні відео, в 100 разів цікавіше ніж лекції в університеті

  • @delkaaaa
    @delkaaaa ปีที่แล้ว +5

    Спасибо! Действительно, очень классное объяснение для тех кто пытается в этом разобраться!!!

  • @АртемЕрохин-б7с
    @АртемЕрохин-б7с ปีที่แล้ว +2

    Отличное объяснение! Все системно и последовательно. Спасибо!

  • @МихаилХованский-й7ы
    @МихаилХованский-й7ы 8 หลายเดือนก่อน +3

    Эта булочка все так классно объясняет😄, одни из немногих видео по DS которые я реально понимаю, пересматриваю по много раз, чтобы запомнилось лучше.

  • @vladzakharov968
    @vladzakharov968 11 หลายเดือนก่อน +1

    Спасибо вам огромное!! Ваше видео помогло при сдаче лабораторной! Счастья вам и успехов!

  • @VsevolodT
    @VsevolodT ปีที่แล้ว +1

    Пока что для меня ваш канал и подача материала это наиболее полезная форма. Между мамкиными датамашинлернерами и ядерными курсами по ML. Спасибо за вашу отличную работу

  • @Йиилийлилль
    @Йиилийлилль หลายเดือนก่อน

    Отличное видео, спасибо!!! Наконец то кто-то объяснил линейку человеческим языком 😅❤

  • @АлексейКрюков-ж2ч
    @АлексейКрюков-ж2ч 5 หลายเดือนก่อน

    Видал я разные обучающие видео по разным темам машин лернинга, от всяких именитых блогеров и известных курсов. Но это определенно лучшее. Браво! Нетерпится посмотреть остальные видео на канале, это первое для меня.

  • @benrise4775
    @benrise4775 ปีที่แล้ว +1

    Это прекрасно

  • @СтаниславКапралин
    @СтаниславКапралин 2 ปีที่แล้ว +3

    Спасибо! Все очень круто, жду следующих обучающих видеоуроков!

  • @wordofworld6874
    @wordofworld6874 2 ปีที่แล้ว +3

    Спасибо большое за замечательное объяснение )

  • @АндрейГуминский-л8т
    @АндрейГуминский-л8т 2 ปีที่แล้ว +5

    Огромное спасибо за отличные гайды. Стало гораздо понятнее. Подписался)

  • @commisreal9008
    @commisreal9008 หลายเดือนก่อน

    Было бы интересно посмотреть про реализацию полиномиальной регресии

  • @kosby5963
    @kosby5963 ปีที่แล้ว +1

    Умничка , материал топ !😊

  • @Tolyeschebudet
    @Tolyeschebudet 2 ปีที่แล้ว +2

    Отлично!

  • @zarinaiztay3954
    @zarinaiztay3954 8 หลายเดือนก่อน

    огромнейшее спасибо за видео, всегда круто объясняете

  • @paveltimofeev5686
    @paveltimofeev5686 ปีที่แล้ว +3

    У вас огромный талант, как у специалиста ML и преподавателя. Вы печатаете, рассказывая происходящее, и это всё понятными словами, с минимумом отпечаток в коде! Вау! Ваши видео ни раз выручали меня при выполнении учебных проектов, суть которых "научи от А до Г, от Д до Я пусть сами ищут. Поэтому я зарегистрировался на ваш курс и не пожалел. Курс у вас просто отменный. Можно вам предложить идею видео: основы ООП для создания пайплайна.

    • @machine_learrrning
      @machine_learrrning  ปีที่แล้ว +1

      Спасибо огромное за такие приятные слова!
      Идею записала, спасибо :)

    • @KD_dev_19
      @KD_dev_19 หลายเดือนก่อน

      @@machine_learrrning а что за курс, где можно найти?

  • @luizzagrand2683
    @luizzagrand2683 ปีที่แล้ว +2

    хочу отметить, что предсказание модели нельзя делать на обученных данных (блок подсчет метрики MSE). для тех , кто только начал изучать это может вызвать затруднение и в дальнейшем неправильное понятие модели предсказания

  • @helloworld-fv8kx
    @helloworld-fv8kx 2 ปีที่แล้ว +1

    круто. спасибо. у меня заняло два!(два месяца карл) чтоб это понять наконец на low level ) но я и другое учил параллельно. умный... че сказать

    • @machine_learrrning
      @machine_learrrning  2 ปีที่แล้ว +1

      Не важно, сколько заняло, важно, что получилось понять :)

  • @Brometey
    @Brometey 7 หลายเดือนก่อน

    У меня есть вопрос: в случае, когда вы берете в пример функцию x**2 и используете градиентный спуск, вы используете его только для наглядности? - я имею в виду, можно ли было использовать просто метод нахождения локального минимума приравниванием производной к нулю для нахождения минимального (оптимального значения )?

  • @EgorOparin-o6k
    @EgorOparin-o6k 8 หลายเดือนก่อน

    наконец то нашел видос где обьяснение это действительно обьяснение, а не 1.5 часа понтов лектора какие он знает приемчики из линейной алгебры

  • @alosheralisher958
    @alosheralisher958 11 หลายเดือนก่อน +1

    Лучшее что есть на русском по ML

  • @Меняемпривычки
    @Меняемпривычки ปีที่แล้ว +2

    Мне, конечно, интересно, что может быть в платных курсах на степике, если и в бесплатном доступе я получил совершенный урок

  • @elenagolovach384
    @elenagolovach384 ปีที่แล้ว +2

    Чудесные уши)

  • @elenagolovach384
    @elenagolovach384 ปีที่แล้ว +4

    Ставь класс если твоя жизнь - это социальный градиентный спуск

  • @farkhatd77
    @farkhatd77 2 ปีที่แล้ว +3

    привет, большое спасибо, будет ли туториал по логистической регрессии?

    • @machine_learrrning
      @machine_learrrning  2 ปีที่แล้ว +2

      Привет, пожалуйста, очень рада помочь!
      Да, планирую такое видео с разбором устройства линейной модели для классификации.

  • @VsevolodT
    @VsevolodT ปีที่แล้ว +1

    Юлия, вопрос про многофакторную регрессию. Может быть ситуация, что два фактора взятые по-отдельности это просто шум и по одному они как бы не влияющие. Но если их рассмотреть в паре, как-то их связать, то они дают четкое влияние на искомый результат. Как модель обучения учитывает эту ситуацию?
    Заранее спасибо! И ушки клёвые)

  • @kochkindi
    @kochkindi 2 ปีที่แล้ว +2

    Спасибо большое за информативное детальное видео! Накопились , скорее всего, глупые вопросы:
    Получается, что во время стадии "обучение модели" с помощью sklearn градиентный бустинг уже имплементирован внутрь sklearn.LinearRegression, раз на выходе мы получаем сразу готовые коэффициенты?

    • @machine_learrrning
      @machine_learrrning  2 ปีที่แล้ว +1

      да, в целом так и происходит, градиентный спуск имплементирован внутри sklearn модели.

    • @Andrey-iu3lh
      @Andrey-iu3lh 2 ปีที่แล้ว +2

      В sklearn.LinearRegression нахождение весов реализовано через qr разложение, а вот LogisticRegression и SGDRegressor уже через градиентный спуск

  • @MsGleaming
    @MsGleaming 2 ปีที่แล้ว +2

    Поясните, пожалуйста, как из градиента=10 мы пришли к вектору, который изображен на графике? Как с помощью этого одного этого числа получилось построить направление роста функции? Просто тут градиент выглядит как точка..

  • @andrewu.2163
    @andrewu.2163 2 ปีที่แล้ว +1

    Можно ли ссылку на ноутбук?

    • @machine_learrrning
      @machine_learrrning  2 ปีที่แล้ว +1

      Ссылка на ноутбук есть в описании

  • @alexvgv2901
    @alexvgv2901 6 หลายเดือนก่อน

    ох уже эта бархатная эр, паровозик тыр тыр))))

  • @petrlifshits2574
    @petrlifshits2574 ปีที่แล้ว +1

    Отличный канал!

  • @xandrviking1113
    @xandrviking1113 6 หลายเดือนก่อน +1

    18:43 - не понятно , если нам нужно найти функцию , мы уже ее используем для поиска минимума ? Нам же функция за ранее не известна !