Тренировки по ML. Лекция 1: Вводная по ML + knn
ฝัง
- เผยแพร่เมื่อ 24 พ.ย. 2024
- Ссылка на материалы лекции: github.com/gir...
Задачи машинного обучения в очевидных и неочевидных местах. Формальная постановка задачи обучения с учителем. Основные понятия в машинном обучении.
Скалярное произведение, метрика, линейные пространства. Метод ближайших соседей.
Подробнее о тренировках по ссылке (yandex.ru/yain....
Подписывайтесь на наши соц.сети: VK ( young_a..., Telegram (t.me/Young_and....
Непривычно радостно что лектор говорит присказками, а не школьник)))
Очень интересно. От себя добавлю что мне нехватило того как эта теория используется на простых практических примерах. В первый части с этим отлично во второй не хватает.
Какой он лапочка.
100 %
Поддерживаю 😅
Сочувствую, если из лекции запомнилось только это
@@АйратКаримов-м3пох, врунишка) вы не сочувствуете, вы ему завидуете😁
@@elizabethmerkalova9455 ну да, только завидую его знаниям, а не внешности
Люди, которые пишут "очень интересно". Я отношусь к тем, кому подобное нужно, как минимум, просмотреть пару раз, поэтому очень прошу ответить на пару вопросов.
Это видео для вас и правда легкое чтиво? Какой у вас опыт в МЛ и вообще в программировании? Вы понимаете, как будете использовать информацию из этого видео в будущем? Вам достаточно один раз увидеть это, чтобы воплотить эту идею на практике?
Спасибо за ответы, и, конечно, огромное спасибо яндексу за этот курс. Не знаю, что я забыл в этой профессии с таким дефицитом внимания, что не могу даже сосредоточиться на лекции, но, надеюсь, когда-нибудь я все это пойму.
Отвечаю. Все что по таймингу до 70 минуты объяснили на пальцах, так что даже я понял. Все что было дальше и связанно с вероятностями и линейной алгеброй для меня темный лес. Но тут не к лектору вопросы. Он как раз вперёд началом спец части и сказал - всем деревянным поставить на паузу, найти выпуски Гранд Андерсона и сидеть смотреть. Потом придете. Вот я и сижу. Смотрю. Потом вернусь на пересмотр. Везде есть порог входа и ему надо стараться соответствовать. А с лету можно и х… сломать. ИМХО
Тут главное не обманывать себя. Можно просмотреть с умным видом и с мыслями, мол, ну, в общем всё ясно.. а можно, по ходу дела разбирать все моменты, каждый незнакомый символ, каждую не сильно понятную функцию, до тех пор, пока сам свободно не сможешь повторить каждую мысль автора и восстановить представленные формулы..
Я уже с годик изучаю статистику, мл, линейную алгебру и матанализ.. но при просмотре, для большего понимания просмотрел пару видео и статей в параллель..
Раскрою ряд моментов, о которые споткнулся:
- некоторые англоязычные термины, добавил в свой словарик;
- векторное пространство, операции с векторами, скаляр, скалярное произведение векторов, немножко структурировал для себя информацию;
- нормы, ранее не встречал для себя записи метрик в таком виде;
- распределение Бернулли, не сумел уверенно вспомнить что это;
- метод максимального правдоподобия, отсмотрел сторонний ролик, когда понял, что формула немного пугает, потом вернулся и закрепил, уже реально с комфортом и пониманием прослушав;
- немного пришлось отвлечься, выясняя почему мы максимум функции ищем так же, как и минимум, приравнивания градиент к нулю;
- факторизация и маргинализация, новые словечки в словарик;
- с Наивным Байесом пришлось решить в уме импровизированную задачку в отношение классов с нормальным распределением, поскольку до этого решал только по отношению к классам с бинарным распределением.. ну эт так, для структурирования информации в голове.
Ну и, само собой, веду конспектик.
В сравнении с курсами, подразумевающими обучение с нуля, автор очень плотненько наваливает и, что ценно, делает это языком специалиста в области, что способно приблизить к пониманию реальной работы, для нас, стремящихся к ней.
По поводу применяемости в будущем, насколько я сумел сформировать понимание, это всё азы, на которых строится логика сложных алгоритмов, и то, какие из них мы применим в той или иной ситуации, что станем делать для улучшения результата, преобразовывая и оптимизируя и пр., во многом зависит от уверенного владения базой.. другими словами, запустить алгоритм и получить результат можно парой строк кода, а вот подбор верного алгоритма и подготовка данных под него требует более глубоких знаний.
Я учу 6 месяцев, KNN у меня хорошо объясняли в универе, так что даже все хорошо запомнилось 4 месяца спустя, с Bayes сталкивалась, но давно и часть забыла. + Тут мат нотация другая и надо было привыкать что так пишут вероятности. Я бы посоветовала глянуть на нее статейку или спросить чат ГПТ, он кстати хорошо отвечает на вопросы на понимание типа "А что здесь делает эта переменная, и с чем ее едят". В основном на этом и едет понимание, не понимаешь зачем какие то переменные и что они значат. В проге 2 года, и у меня матеша свежая(1 год матана и линала в тех вузе), только что это все заканчивала + школьный профессор разбирал универские темы типа Bayes и т.д потому что было свободное время перед экзами. Это делает понимание легче но только в интуиции. Тут советую не сдаваться, спрашивать пока не поймешь и искать другие ресурсы, где объясняют по другому. Например KNN мне объяснили как болельщика на стадионе - если ты еще не знаешь, за кого болеть, то можешь посмотреть на какое то количество ближайщих соседей и за кого болеют они. Чьих болельщиков-соседей больше, за того и надо болеть:) ~Что бы если болельщики другой команды полезли драться было бы проще защищаться~. Обычно аналогии заходят лучше чем мат нотация для интуиции и понимания.
Удачи! Тебе понравится:)
спасибо
Обалденно, спасибо ❤
А где миллион обещанных ссылок на ресурсы, которые будут полезны для изучения? По матстату, теорверу и прочее
На гитхабе, ссылка в описании
Было супер)
Здравствуйте! Можно ссылки на материалы по линейной алгебре и теорверу?
Начало 2:26
Утка на столе - это отсылка к Kaggle?
Это гусь! И отсылка к «запускаем гуся в чат»
1:23:00