Как прекрасно все объясняете, огромное спасибо! Из множества роликов на ютубе и различных прикладных книжек впервые вижу так грамотно скомпонованный, иллюстративный и качественный материал! Спасибо вам!!!
Замечательная лекция, большое спасибо! Смотрел от начала до конца, не отрываясь! Жду с нетерпением следующие лекции! Кому было непонятно - советую прочитать книжки "Грокаем машинное обучение" и "Грокаем глубокое обучение". В них простым языком объясняются основы, я сам с них начал.
01:05:20 - небольшая ошибка (но важная). Переобучение модели, это когда на тренировочной выборке модель демонстрирует высокое качество, а на тестовой - низкое. В целом лекция понравилась. Не хватило немного конкретики на KNN, раз уж мы всю дорогу его обсуждаем, поэтому догуглила. А так целью лекции является создать поверхностную целостную картинку о МО. Не знаю, чего ждали расстроенные комментаторы за один час первой по сути лекции по МО.
Я не совсем понял, множество тета большое является эквивалентным множеству вещественных чисел в степени 2? R - означает множество вещественных чисел в данном контексте?
Отвечаю на свой вопрос, может кому-нибудь пригодится: Это означает, что каждый параметр θ представляет собой пару вещественных чисел, где a и b могут принимать любое значение из множества вещественных чисел R. Таким образом, множество всех возможных параметров Θ представляет собой всю двумерную вещественную плоскость. P.S - θ в данном случае является парой чисел (a,b), и указывает, что множество возможных значений параметра Θ равно R^2
"Если вы не до конца поймёте что я сейчас говорю, то не расстраивайтесь потом вы поймёте..." - ремарочка от лектора! Сложно воспринимается информация. Если бы не проходил до этого какие-либо курсы - вообще ничего не понял бы по части нейронок. Периодически меня посещала мысль-вопрос - "Почему он так объясняет? Почему так непонятно..." Просто например, на той же специализации от МФТИ на coursera всё по полочкам в голове разложили, а тут "мои полочки" немного поёжились. Примеры скомканные. Всё написанное - сугубо личное мнение, обсуждения не требует.
Подходит для того чтобы закрепить то что уже знаешь. На введение не тянет. Если кто действительно хочет понятное введение - читайте книгу от автора Тарик Рашид. Создаем нейронную сеть. Там все на пальцах и предельно понятно.
Ужасная лекция, ни одна мысль не доведена до логического завершения. Все понятия лекции приходится самостоятельно гуглить и изучать в доп материалах. Лекция пригодна лишь для тех кто уже знает тему ML
X-train возит X-man'ов ГЫ. Жалко что научный термин множество уходит из умов академической молодёжи. Ну впринципе "сет" - конечно короче и есть такое слово (просто с другим смыслом), но "data" - по мне всех только путает. Ну скажи "сет весов", "сет метрик"; а вот "куча данных" или "набор метрик" кстати по-моему будет правильнее, т.к. "set" во разрезе программирования это упорядоченное множество без дубликатов, а тут у нас неупорядоченное множество. Более того это вообще де-ассоциативная информация, если можно так сказать. Вы даёте новый материал, да ещё и вводите новые слова - для мозга это перебор, да и просто это не полная информация. Перебор потомучто И новые слова И модель (ну или тема) -- что-то да ускользнёт. Не полная информация - потомучто нет четких определений слов новых. Для человека который английского не знает, слово "fold" вообще ничего не значит, а в вашем видео определение (ЧЕТКОЕ ОПРЕДЕЛЕНИЕ) этого термина отсутствует, вы вскользь упоминаете его. А без четких определений не будет понимания материала. Ну можно же сказать конкретно и понятно. У нас есть два множества наборов метрик: тестовое и обучающее; разделили множества наборов на срезы. Каждый срез содержит по одному уникальному тестовому набору и уникальное множество обучающих наборов. И тут картинку покажите - только если на ней будут не "фольды" и "сплиты" а "наборы" и "срезы", это будет сразу понятно, а у вас какая-то китайская грамота.
Что за не уважение к аудитории? Заголовки на английском, произносит на английском, при этом не может перевести признак из датасета по ирису. Видео лектора перекрывает картинки. Презентация не вычитана: "Ой, у меня квадрат потерялся". Позор!
Да не. Всё прекрасно. Надо посмотреть всю лекцию, тогда отпадёт начальный негатив. Сначала было перекрытие, вроде больше и не было. Фича = атрибут, тоже сказали. А английский - ну если вся передовая литература на английском, то тут уж никуда не денешься... Парень молодцом целый час говорил.
@@sstartsev говорил да, только толку от этого 0. Узнать можно только про что нужно почитать / посмотреть другие лекции. Хвалебные отзывы так понимаю пишут сокурсники )
Большое спасибо за лекцию. Не понимаю людей, которые недовольны подачей. Мне кажется, очень интересно
Отличная лекция, все по полочкам, спасибо!
Как прекрасно все объясняете, огромное спасибо! Из множества роликов на ютубе и различных прикладных книжек впервые вижу так грамотно скомпонованный, иллюстративный и качественный материал! Спасибо вам!!!
Лектор супер! Объясняет отлично, всё чётко и понятно!)
Григорий, большое спасибо за лекцию! Очень интересно и полезно! Смотрела на одном дыхании, узнала много нового.
Замечательная лекция, большое спасибо!
Смотрел от начала до конца, не отрываясь! Жду с нетерпением следующие лекции!
Кому было непонятно - советую прочитать книжки "Грокаем машинное обучение" и "Грокаем глубокое обучение". В них простым языком объясняются основы, я сам с них начал.
01:05:20 - небольшая ошибка (но важная). Переобучение модели, это когда на тренировочной выборке модель демонстрирует высокое качество, а на тестовой - низкое.
В целом лекция понравилась. Не хватило немного конкретики на KNN, раз уж мы всю дорогу его обсуждаем, поэтому догуглила.
А так целью лекции является создать поверхностную целостную картинку о МО. Не знаю, чего ждали расстроенные комментаторы за один час первой по сути лекции по МО.
Отличный урок! Спасибо!
Разделяй и Властвуй !,
Именно это и модульность отличает машинное обучение от ИИ !
На х1.5 вообще отлично
Обалденный лектор и лекция, спасибо ❤
хорошее введение с наглядным объяснением основных понятий
Спасибо, это было хорошее повторение основ и введение!
Очень интересно! Браво!
Спасибо большое . было интересно и хорошая манера подачи и объяснения
Отличная лекция. Спасибо.
sepal это чашелистик (листочек под бутоном, цветком)
Оценка состояния дома на 18:15 - я так понимаю, лектор имел ввиду, что это порядковый признак. Раз сказал, что есть "отношение порядка".
А я правильно понимаю, что после того как мы сделали кросс-валидацию и узнали точность на каждом фолде, мы обучаем модель на всем датасете?
Удачи лектору, есть куда стремиться в подаче материала))
о на час 06 картиночка из сайкетлерна ) ждал все когда ж она будет)
Я не совсем понял, множество тета большое является эквивалентным множеству вещественных чисел в степени 2? R - означает множество вещественных чисел в данном контексте?
Отвечаю на свой вопрос, может кому-нибудь пригодится:
Это означает, что каждый параметр θ представляет собой пару вещественных чисел, где a и b могут принимать любое значение из множества вещественных чисел R. Таким образом, множество всех возможных параметров Θ представляет собой всю двумерную вещественную плоскость.
P.S - θ в данном случае является парой чисел (a,b), и указывает, что множество возможных значений параметра Θ равно R^2
Хорошая лекция и звуковая дорожка! Спасибо. А что у вас за микрофон Григорий?
"Если вы не до конца поймёте что я сейчас говорю, то не расстраивайтесь потом вы поймёте..." - ремарочка от лектора!
Сложно воспринимается информация. Если бы не проходил до этого какие-либо курсы - вообще ничего не понял бы по части нейронок. Периодически меня посещала мысль-вопрос - "Почему он так объясняет? Почему так непонятно..." Просто например, на той же специализации от МФТИ на coursera всё по полочкам в голове разложили, а тут "мои полочки" немного поёжились. Примеры скомканные.
Всё написанное - сугубо личное мнение, обсуждения не требует.
Супер
44:30 Эмпирический риск(лосс)
Не бывает домов в 5 метрах от метро (ни одной точки). От силы один в 50.
Подходит для того чтобы закрепить то что уже знаешь. На введение не тянет.
Если кто действительно хочет понятное введение - читайте книгу от автора Тарик Рашид. Создаем нейронную сеть. Там все на пальцах и предельно понятно.
1:03:37 модели, конечно
мне кажется, постоянно висящая бошка лектора, частично перекрывающая картинку презентации - лишнее
мы же сюда не на лектора пофапать пришли
ага понятно почему рекомендации такие хреновые ))) потому что там КНН ))))
Что такое фича?
Функция, прикольная примочка
@@AliceDruzh спасибо, это значение знаю, но оно как-то не очень подходит в данном случае. 9:35 Определение обучающего датасета.
Характеристика, признак.
feature - признак, банально название столбика, характеризующего что-то, типа в датасете cars например horse_powers :)
на 10:30
Ужасная лекция, ни одна мысль не доведена до логического завершения. Все понятия лекции приходится самостоятельно гуглить и изучать в доп материалах. Лекция пригодна лишь для тех кто уже знает тему ML
X-train возит X-man'ов ГЫ.
Жалко что научный термин множество уходит из умов академической молодёжи. Ну впринципе "сет" - конечно короче и есть такое слово (просто с другим смыслом), но "data" - по мне всех только путает. Ну скажи "сет весов", "сет метрик"; а вот "куча данных" или "набор метрик" кстати по-моему будет правильнее, т.к. "set" во разрезе программирования это упорядоченное множество без дубликатов, а тут у нас неупорядоченное множество.
Более того это вообще де-ассоциативная информация, если можно так сказать. Вы даёте новый материал, да ещё и вводите новые слова - для мозга это перебор, да и просто это не полная информация. Перебор потомучто И новые слова И модель (ну или тема) -- что-то да ускользнёт. Не полная информация - потомучто нет четких определений слов новых. Для человека который английского не знает, слово "fold" вообще ничего не значит, а в вашем видео определение (ЧЕТКОЕ ОПРЕДЕЛЕНИЕ) этого термина отсутствует, вы вскользь упоминаете его. А без четких определений не будет понимания материала.
Ну можно же сказать конкретно и понятно. У нас есть два множества наборов метрик: тестовое и обучающее; разделили множества наборов на срезы. Каждый срез содержит по одному уникальному тестовому набору и уникальное множество обучающих наборов. И тут картинку покажите - только если на ней будут не "фольды" и "сплиты" а "наборы" и "срезы", это будет сразу понятно, а у вас какая-то китайская грамота.
Что за не уважение к аудитории? Заголовки на английском, произносит на английском, при этом не может перевести признак из датасета по ирису. Видео лектора перекрывает картинки. Презентация не вычитана: "Ой, у меня квадрат потерялся". Позор!
че
что такое датасет? это что-то по-английски?
@@vladislavleonov2682 данные в виде таблицы, как в exel
Да не. Всё прекрасно. Надо посмотреть всю лекцию, тогда отпадёт начальный негатив.
Сначала было перекрытие, вроде больше и не было. Фича = атрибут, тоже сказали. А английский - ну если вся передовая литература на английском, то тут уж никуда не денешься...
Парень молодцом целый час говорил.
@@sstartsev говорил да, только толку от этого 0. Узнать можно только про что нужно почитать / посмотреть другие лекции. Хвалебные отзывы так понимаю пишут сокурсники )
Отличная лекция! Спасибо