Случайный лес - это частный случай бэггинга, когда n деревьев обучаются параллельно на бутстрапированных выборках, а в кач-ве ф-ции агрегирования используется мода для классификации и среднее для регресси. Всё, нечего тут объяснять, а лектор так сложно объясняет такие простые вещи.
а вот я ещё пока ничего не понял. Ну например, а как выбрать порог разделения? а с какого столбца начать? а как понять что именно этот порог лучший? и т.д.
@@dronnet порог выбирается на минимизации загрязненности в узле, например с помощью взвешенной неопределенности Джини. Лучше почитайте книгу hands-on machine learning и посмотрите statquest. Такие челы, как этот лектор, вас ничему не научат ибо сами ниче не знают.
Спасибо, попробую посмотреть. Пока я понял следующее что ВСЕ алгоритмы надо уметь написать с нуля самому, используя только numpy, только тогда достигается полное понимание что и куда. Пока научился писать и понял лин регрессию, градиентный бустинг, кНН и нейросетку полносвязанную одно и двух слойную. Продолжаю изучение@@hopelesssuprem1867
Все более менее понятно, только забыли сказать как рассчитывается rss
Это генетический алгоритм. Только надо выбирать треть лучших
дихотомия для поиска) напомнили слово из универа)
Подскажите пожалуйста, где можно найти информацию для алгоритма для качественной y.
th-cam.com/video/QV6hE-MY4CQ/w-d-xo.html
Ошибка наверно в 3 кластере? Д б x
Отбираем n наблюдений из n наблюдений?
с повторами
Случайный лес - это частный случай бэггинга, когда n деревьев обучаются параллельно на бутстрапированных выборках, а в кач-ве ф-ции агрегирования используется мода для классификации и среднее для регресси. Всё, нечего тут объяснять, а лектор так сложно объясняет такие простые вещи.
а вот я ещё пока ничего не понял. Ну например, а как выбрать порог разделения? а с какого столбца начать? а как понять что именно этот порог лучший? и т.д.
@@dronnet порог выбирается на минимизации загрязненности в узле, например с помощью взвешенной неопределенности Джини. Лучше почитайте книгу hands-on machine learning и посмотрите statquest. Такие челы, как этот лектор, вас ничему не научат ибо сами ниче не знают.
Спасибо, попробую посмотреть. Пока я понял следующее что ВСЕ алгоритмы надо уметь написать с нуля самому, используя только numpy, только тогда достигается полное понимание что и куда. Пока научился писать и понял лин регрессию, градиентный бустинг, кНН и нейросетку полносвязанную одно и двух слойную. Продолжаю изучение@@hopelesssuprem1867
А что означает x
10 и 20 это переменные по у. 0.5 - про х. смотри на столбцы
А понял, спасибо
у нас 1 1 2 10 20 40 50 ... и что ими обозначили???
ыаыаы
первое деление происходит по переменной y. Написано z