Машинное обучение: градиентный спуск для новичков с практикой в Python

แชร์
ฝัง
  • เผยแพร่เมื่อ 4 ม.ค. 2025

ความคิดเห็น • 69

  • @SneakView_russia
    @SneakView_russia 2 ปีที่แล้ว +38

    мужик, возвращайся скорее! классный контент делаешь, не бросай канал

    • @FreemanFromSteppe
      @FreemanFromSteppe ปีที่แล้ว +2

      возможно в данное время он херачит орков. будь проклята эта война и те русские, которые от нее тащатся.

    • @EZloy
      @EZloy ปีที่แล้ว

      @@FreemanFromSteppe орк твоя мама

    • @Rhf-y5i
      @Rhf-y5i 4 หลายเดือนก่อน

      @@FreemanFromSteppeон переквалифицировался на застройщика

    • @igorpro4566
      @igorpro4566 3 หลายเดือนก่อน

      @@Rhf-y5i Рили?

  • @JuliaKalashnikova
    @JuliaKalashnikova 2 ปีที่แล้ว +21

    Крутой канал, жалко, что последнее видео так давно выложено. Возвращайся, не бросай! Полезное дело делаешь 👏

  • @Tunec_s_hlebom
    @Tunec_s_hlebom ปีที่แล้ว

    думаю что это лучшее объяснение темы производных. Этот видос нужно показывать детям в школе чтобы они понимали для чего это нужно и как это можно применить

  • @АнатолийРоман-с2у
    @АнатолийРоман-с2у 2 ปีที่แล้ว +1

    ну вот как только находишь что то понятное человек бросает канал
    здоровья тебе надеюсь все хорошо у тебя)) спасибо за те ролики что сделал

  • @ТатьянаТабульдина-ю6л
    @ТатьянаТабульдина-ю6л ปีที่แล้ว +1

    Классно! Здорово, что наглядно показываешь подробно)

  • @ЛиповыйЦвет
    @ЛиповыйЦвет ปีที่แล้ว +2

    Спасибо тебе! Я как раз тот человек, который начинает изучать Data Science и ищет понятные ролики для новичков. Похоже, я поселюсь у тебя на канале. Жаль только что роликов мало

  • @ГульшатА-ц2с
    @ГульшатА-ц2с 2 ปีที่แล้ว +6

    Удивительно, что так мало лайков. Очень рада, что попала на твой канал ❤

  • @РоманБатыркаев
    @РоманБатыркаев 3 ปีที่แล้ว +4

    Очень круто получается, главное не останавливайся!!!

  • @oleggreen1244
    @oleggreen1244 3 ปีที่แล้ว +23

    Молодец, но думаю непонятно пояснил. Линейную регрессию тут зря преплел. Наша цель найти минимум ф-ции, в общем случае многих, очень многих переменных. Но тут для примера берём 1параметр, т.е. у(х). Как это сделать? Например такой алгоритм(не градиентный спуск): мы тыкаем в любую точку графика, и смотрим соседние точки, они меньше нашей или нет. Если меньше, то переходим в них и там повторяем все сначала. И так пока не окажемся в точке меньше своих соседе, т.е. минимуме. В чем проблема этого алгоритма? Он привязан к точкам, т.е. встать между точками мы не можем. Ещё если точек оч много, то заходить в каждую точку это будет долго. Хотелось бы например, если мы далеко от минимума, то двигаться через точку или две, а ближе к минимуму уменьшать шаг.
    Вот тут нам и приходит алгоритм градиентный спуск из этого ролика, он решает эти проблемы. Мы тыкаем в точку графика и смотрим там производную. Ее модуль показывает как сильно наклонена кривая в этой точке. Если модуль производной большой, то наклон сильный, это значит мы далеко до минимума и шаг можно брать побольше, если слабо наклонена, то около минимума и шаг нужно брать поменьше. Т.е. размер шага зависит от модуля производной. А знак производной показывает в какую сторону двигаться. Т.е. если производная >0, то нужно отнять от х шажочек,

    • @morowenka9718
      @morowenka9718 3 ปีที่แล้ว +1

      гений

    • @saitaro
      @saitaro 2 ปีที่แล้ว +2

      > Если модуль производной большой, то наклон сильный, это значит мы далеко до минимума
      Нет, в общем случае значение производной в точке ничего не говорит нам о том, насколько они далека от минимума. Рассматривать отдельно модуль производной и её знак смысла тоже нет, - можно просто отнимать от аргумента антипроизводную (антиградиент). В случае отрицательных её значений минус превратится в плюс "автоматически".

    • @oleggreen1244
      @oleggreen1244 2 ปีที่แล้ว +2

      @@saitaro Речь идёт не об общем случае, а именно об этом методе. Антипроизводная, антиградиент, говорите проще, не нужно придумывать ненужные тут термины.

    • @saitaro
      @saitaro 2 ปีที่แล้ว +1

      @@oleggreen1244 Так речь и в видео, и в комментарии - о градиентном спуске. Антиградиент - это градиент с противоположным знаком, указывающий направление наибольшего убывания функции. Стандартный математический термин при обсуждении этого алгоритма. Его не я придумал :)

  • @DezzGen
    @DezzGen 8 หลายเดือนก่อน +1

    Мен, офигенное видео, спасибо большое.
    Делай ещё !!!

  • @aq_bulat
    @aq_bulat 3 ปีที่แล้ว +3

    Блин, очень классно. Начал изучать Python, ранее работал в RGui, занимаюсь анализом экологических данных. Думаю сейчас расширять знания языка python, чтобы в дальнейшем пользоваться именно им, так как написание кода гораздо проще и графики красочнее. Рад, что наткнулся на твой канал, доступно объясняешь и без воды. Спасибо)

  • @noobygo
    @noobygo 2 ปีที่แล้ว +2

    Ты классно объясняешь! Спасибо!

  • @qsr6840
    @qsr6840 3 ปีที่แล้ว +8

    Ты красавчик, быстро и доступно всё объясняешь. Самое главное, что не боишься того, что ты и сам не эксперт в области, тем не менее реально всё очень круто доносишь. Респектуха и успехов тебе!

  • @КатеринаКлименко-и1в
    @КатеринаКлименко-и1в 3 ปีที่แล้ว +11

    Как я рада, что наткнулась на твой канал! Спасибо, очень доступно все объясняешь, за одно видео закрыл кучу вопросов, которые пытаюсь уже неделю разобрать :)

  • @irinastrel3796
    @irinastrel3796 ปีที่แล้ว

    Спасибо тебе, человек!!!

  • @alizhuban6227
    @alizhuban6227 2 ปีที่แล้ว +1

    Отлично объясняешь!👍

  • @bellelli-one
    @bellelli-one 5 หลายเดือนก่อน

    Чел, ты гений !!!

  • @Alexey_Pe
    @Alexey_Pe 2 ปีที่แล้ว +1

    14:32, вместо размера шага надо было изменить количество циклов, у него там 20 повторений ( range 20 ), если бы было больше повторений, то оно дошло бы c шагом 0.01

  • @anastasiak7875
    @anastasiak7875 2 ปีที่แล้ว

    Спасибо, благодаря тебе получила автомат по ии))

  • @ds_sss_rank
    @ds_sss_rank ปีที่แล้ว

    спасибо за труды

  • @yrom6335
    @yrom6335 3 ปีที่แล้ว +2

    Просто и понятно, класс

  • @KentBrockman4
    @KentBrockman4 3 ปีที่แล้ว +3

    Крутой видос, молодец! Только закрывай окно при записи, самолёты очень шумные :)

  • @DonzelOhio
    @DonzelOhio ปีที่แล้ว

    Пожалуйста ответьте на мой вопрос . Вы снимаете на макбуке видео???Какпя модель вашего мака и диагональ экрана

  • @ДаниилКедров
    @ДаниилКедров 19 วันที่ผ่านมา

    Ну тут подписка однозначно

  • @datascience5487
    @datascience5487 3 ปีที่แล้ว +1

    Не могу понять в чем математически смысл изменения аргумента функции (-8) на величину производной при таком аргументе (-16) или его части (0,1 * (-16)). Почему надо делать именно такое изменение? Понятно, что это сдвигает аргумент в нужную сторону, постепенно уменьшая или увеличивая его, но почему именно так, в чем его смысл? Это как из расстояния вычесть скорость. Правильно ли я понимаю, что 0,01 можно рассматривать как время?

    • @eugenedukatta9355
      @eugenedukatta9355 ปีที่แล้ว

      1) Потому-что математический смысл градиента это "вектор (в пространстве аргументов х) направленный в направлении наибольшего изменения функции и по величине равный этому изменению". В одномерном случае, как в этом видео, градиент равен просто производной. В многомерном случае (как в реальном ML) компоненты градиента (компоненты вектора) равны частным производным по каждому аргументу х. Так как надо найти минимум, а не максимум, надо двигаться в противоположном направлении, поэтому градиент (умноженный на 0,1) вычитаем. Если бы надо было найти максимум, тогда прибавляли бы.
      2) 0,01 скорее это не время, а скорость. Часто в ML называют lr = learning rate (скорость обучения ~нейросети~).

  • @DuAlexy
    @DuAlexy ปีที่แล้ว

    Привет, расскажи как выстроить линейную регрессию ,используя только numpy , с градиентным спуском , с нуля. без sklearn.

  • @rolandsto
    @rolandsto 3 ปีที่แล้ว

    Красавчик, спасибо реально

  • @Forward1
    @Forward1 2 ปีที่แล้ว

    когда новое видео?

  • @aygun1139
    @aygun1139 5 หลายเดือนก่อน

    возвращайся, ты нужен миру 🥲🥲

  • @timbrazh8512
    @timbrazh8512 6 หลายเดือนก่อน

    "логоритм"? Это что-то новое😆

  • @silvanaaramyan5255
    @silvanaaramyan5255 2 ปีที่แล้ว

    А есть теория для градиентного спуска и стохастического градиентного спуска?

  • @ДмитрийБогданович-ж1р
    @ДмитрийБогданович-ж1р 3 ปีที่แล้ว

    Привет, можешь подсказать, где ты брал данные для видео про линейную регрессию

  • @Chumohola
    @Chumohola ปีที่แล้ว

    Спасибо ❤

  • @ВикторЧепкасов-л5и
    @ВикторЧепкасов-л5и 2 ปีที่แล้ว

    Где видосы, Сеня?
    P.s. очень полезные ролики для начинающих ml- инженеров, всем советую смотреть и пересматривать

  • @vector5605
    @vector5605 2 ปีที่แล้ว

    Доброе, будет видео про случайный лес и про обучение с подкреплением?

  • @magomeda.4576
    @magomeda.4576 3 ปีที่แล้ว +1

    молодец,но казалось бы причём тут линейная регрессия, можно было объяснить на примере весов и ошибки(функции потерь), в названии ролика ведь Машинное обученение

  • @ivanl7786
    @ivanl7786 ปีที่แล้ว

    То что знаю - понял. То что не знаю - не понял.

  • @eugenedukatta9355
    @eugenedukatta9355 ปีที่แล้ว

    Не понял при чем тут линейная регрессия для чего вообще было затронуто это понятие?

  • @FireFoxOnEarth
    @FireFoxOnEarth ปีที่แล้ว

    Лучший

  • @technoskateboarding6501
    @technoskateboarding6501 3 ปีที่แล้ว

    СПАСИБО ТЕБЕ!!

  • @sturmann1488
    @sturmann1488 3 ปีที่แล้ว

    Ну ты и молодец!!!!

  • @falcon_wings_
    @falcon_wings_ 3 ปีที่แล้ว

    Продолжай !!!

  • @pl7771
    @pl7771 3 ปีที่แล้ว +1

    Братишь откуда ты такой умный:) мне 34 года, толькотпогружаюсь в машинное обучение, так круто объясняешь, конечно опущено много математических подробностей, но это не мешает доступности и понятности видоса, красава

  • @musup7194
    @musup7194 3 ปีที่แล้ว

    Выпусти разбор уже математический переделы производные интегралы формулы с суммой среднее квадратичное дисперсия и тд

  • @ДанилаГеннадьевич-к3н
    @ДанилаГеннадьевич-к3н 3 ปีที่แล้ว

    Жаль канал не обновляется, но спасибо!

  • @kaiservonwien4826
    @kaiservonwien4826 ปีที่แล้ว

    Пацан красава , где ты ??? Появись мы тебе канал поднимем , задонатим

  • @Глупыйдурачок
    @Глупыйдурачок 3 ปีที่แล้ว

    А разве условия остановки кроме количества эпох у градиентного спуска нет?

  • @НиколайМануилов-и1д
    @НиколайМануилов-и1д 3 ปีที่แล้ว

    возьми меня в ученики)))

  • @grbak
    @grbak 3 ปีที่แล้ว

    ЛАЙК

  • @ЗнатныйНегр
    @ЗнатныйНегр 6 หลายเดือนก่อน

    Так и не увидел градиент

  • @wardog5260
    @wardog5260 ปีที่แล้ว

    для чего корчить лицо на обложке к видео? как по мне это лишнее

  • @romandevelopment568
    @romandevelopment568 2 ปีที่แล้ว

    КУДА ПРОПАЛ?!!!!!!

  • @MsKhch
    @MsKhch 2 ปีที่แล้ว

    Люди, которые пишут, что все поняли, вы что вообще поняли????
    Вы точно что-то поняли??? Что он обьяснил, кроме постоянного мычания???
    Для того, чтоб понять, что он говорит, надо понимать предмет разговора лучше, чем он сам.

  • @АдьосЕпрст
    @АдьосЕпрст 3 ปีที่แล้ว

    зашёл на канал,посмотрел название, и нихуя не понял про что ты расказываешь,лишь одно видео смог посмотреть который про 3 приложения и заработок на них.