Тренировки по ML. Лекция 1: Вводная по ML + knn

แชร์
ฝัง
  • เผยแพร่เมื่อ 24 พ.ย. 2024
  • Ссылка на материалы лекции: github.com/gir...
    Задачи машинного обучения в очевидных и неочевидных местах. Формальная постановка задачи обучения с учителем. Основные понятия в машинном обучении.
    Скалярное произведение, метрика, линейные пространства. Метод ближайших соседей.
    Подробнее о тренировках по ссылке (yandex.ru/yain....
    Подписывайтесь на наши соц.сети: VK ( young_a..., Telegram (t.me/Young_and....

ความคิดเห็น • 25

  • @vbolt6065
    @vbolt6065 ปีที่แล้ว +2

    Непривычно радостно что лектор говорит присказками, а не школьник)))

  • @looksonkarl
    @looksonkarl ปีที่แล้ว +18

    Очень интересно. От себя добавлю что мне нехватило того как эта теория используется на простых практических примерах. В первый части с этим отлично во второй не хватает.

  • @elizabethmerkalova9455
    @elizabethmerkalova9455 ปีที่แล้ว +38

    Какой он лапочка.

    • @TheABCdiary
      @TheABCdiary ปีที่แล้ว +2

      100 %

    • @iriska12351
      @iriska12351 ปีที่แล้ว +2

      Поддерживаю 😅

    • @АйратКаримов-м3п
      @АйратКаримов-м3п ปีที่แล้ว

      Сочувствую, если из лекции запомнилось только это

    • @elizabethmerkalova9455
      @elizabethmerkalova9455 ปีที่แล้ว +8

      @@АйратКаримов-м3пох, врунишка) вы не сочувствуете, вы ему завидуете😁

    • @АйратКаримов-м3п
      @АйратКаримов-м3п ปีที่แล้ว +1

      @@elizabethmerkalova9455 ну да, только завидую его знаниям, а не внешности

  • @fedormaximoff6587
    @fedormaximoff6587 ปีที่แล้ว +12

    Люди, которые пишут "очень интересно". Я отношусь к тем, кому подобное нужно, как минимум, просмотреть пару раз, поэтому очень прошу ответить на пару вопросов.
    Это видео для вас и правда легкое чтиво? Какой у вас опыт в МЛ и вообще в программировании? Вы понимаете, как будете использовать информацию из этого видео в будущем? Вам достаточно один раз увидеть это, чтобы воплотить эту идею на практике?
    Спасибо за ответы, и, конечно, огромное спасибо яндексу за этот курс. Не знаю, что я забыл в этой профессии с таким дефицитом внимания, что не могу даже сосредоточиться на лекции, но, надеюсь, когда-нибудь я все это пойму.

    • @ruslankhabibulin1534
      @ruslankhabibulin1534 ปีที่แล้ว +4

      Отвечаю. Все что по таймингу до 70 минуты объяснили на пальцах, так что даже я понял. Все что было дальше и связанно с вероятностями и линейной алгеброй для меня темный лес. Но тут не к лектору вопросы. Он как раз вперёд началом спец части и сказал - всем деревянным поставить на паузу, найти выпуски Гранд Андерсона и сидеть смотреть. Потом придете. Вот я и сижу. Смотрю. Потом вернусь на пересмотр. Везде есть порог входа и ему надо стараться соответствовать. А с лету можно и х… сломать. ИМХО

    • @Andrey_Grishin_primera7790
      @Andrey_Grishin_primera7790 ปีที่แล้ว +6

      Тут главное не обманывать себя. Можно просмотреть с умным видом и с мыслями, мол, ну, в общем всё ясно.. а можно, по ходу дела разбирать все моменты, каждый незнакомый символ, каждую не сильно понятную функцию, до тех пор, пока сам свободно не сможешь повторить каждую мысль автора и восстановить представленные формулы..
      Я уже с годик изучаю статистику, мл, линейную алгебру и матанализ.. но при просмотре, для большего понимания просмотрел пару видео и статей в параллель..
      Раскрою ряд моментов, о которые споткнулся:
      - некоторые англоязычные термины, добавил в свой словарик;
      - векторное пространство, операции с векторами, скаляр, скалярное произведение векторов, немножко структурировал для себя информацию;
      - нормы, ранее не встречал для себя записи метрик в таком виде;
      - распределение Бернулли, не сумел уверенно вспомнить что это;
      - метод максимального правдоподобия, отсмотрел сторонний ролик, когда понял, что формула немного пугает, потом вернулся и закрепил, уже реально с комфортом и пониманием прослушав;
      - немного пришлось отвлечься, выясняя почему мы максимум функции ищем так же, как и минимум, приравнивания градиент к нулю;
      - факторизация и маргинализация, новые словечки в словарик;
      - с Наивным Байесом пришлось решить в уме импровизированную задачку в отношение классов с нормальным распределением, поскольку до этого решал только по отношению к классам с бинарным распределением.. ну эт так, для структурирования информации в голове.
      Ну и, само собой, веду конспектик.
      В сравнении с курсами, подразумевающими обучение с нуля, автор очень плотненько наваливает и, что ценно, делает это языком специалиста в области, что способно приблизить к пониманию реальной работы, для нас, стремящихся к ней.
      По поводу применяемости в будущем, насколько я сумел сформировать понимание, это всё азы, на которых строится логика сложных алгоритмов, и то, какие из них мы применим в той или иной ситуации, что станем делать для улучшения результата, преобразовывая и оптимизируя и пр., во многом зависит от уверенного владения базой.. другими словами, запустить алгоритм и получить результат можно парой строк кода, а вот подбор верного алгоритма и подготовка данных под него требует более глубоких знаний.

    • @charajay8827
      @charajay8827 10 หลายเดือนก่อน +1

      Я учу 6 месяцев, KNN у меня хорошо объясняли в универе, так что даже все хорошо запомнилось 4 месяца спустя, с Bayes сталкивалась, но давно и часть забыла. + Тут мат нотация другая и надо было привыкать что так пишут вероятности. Я бы посоветовала глянуть на нее статейку или спросить чат ГПТ, он кстати хорошо отвечает на вопросы на понимание типа "А что здесь делает эта переменная, и с чем ее едят". В основном на этом и едет понимание, не понимаешь зачем какие то переменные и что они значат. В проге 2 года, и у меня матеша свежая(1 год матана и линала в тех вузе), только что это все заканчивала + школьный профессор разбирал универские темы типа Bayes и т.д потому что было свободное время перед экзами. Это делает понимание легче но только в интуиции. Тут советую не сдаваться, спрашивать пока не поймешь и искать другие ресурсы, где объясняют по другому. Например KNN мне объяснили как болельщика на стадионе - если ты еще не знаешь, за кого болеть, то можешь посмотреть на какое то количество ближайщих соседей и за кого болеют они. Чьих болельщиков-соседей больше, за того и надо болеть:) ~Что бы если болельщики другой команды полезли драться было бы проще защищаться~. Обычно аналогии заходят лучше чем мат нотация для интуиции и понимания.
      Удачи! Тебе понравится:)

  • @ВасилийХудяков-з6л
    @ВасилийХудяков-з6л 8 หลายเดือนก่อน

    спасибо

  • @Irades
    @Irades ปีที่แล้ว

    Обалденно, спасибо ❤

  • @sticktogether2326
    @sticktogether2326 ปีที่แล้ว +11

    А где миллион обещанных ссылок на ресурсы, которые будут полезны для изучения? По матстату, теорверу и прочее

  • @khazovaalexandra6670
    @khazovaalexandra6670 ปีที่แล้ว

    Было супер)

  • @gisu8536
    @gisu8536 ปีที่แล้ว +1

    Здравствуйте! Можно ссылки на материалы по линейной алгебре и теорверу?

  • @kupamonke
    @kupamonke 5 หลายเดือนก่อน +2

    Начало 2:26

  • @АлександрКаптуров-с8и
    @АлександрКаптуров-с8и ปีที่แล้ว +2

    Утка на столе - это отсылка к Kaggle?

    • @rustik_tak
      @rustik_tak ปีที่แล้ว +3

      Это гусь! И отсылка к «запускаем гуся в чат»

  • @evkimadas6139
    @evkimadas6139 ปีที่แล้ว

    1:23:00