ДЕРЕВО РЕШЕНИЙ (DecisionTreeClassifier) | МАШИННОЕ ОБУЧЕНИЕ

แชร์
ฝัง
  • เผยแพร่เมื่อ 26 ธ.ค. 2024

ความคิดเห็น • 34

  • @newglory6789
    @newglory6789 2 หลายเดือนก่อน +1

    Милая девушка, спасибо тебе огромное человеческое!❤ Пересмотрела кучу видео про деревья решений и заблудилась в этом случайном лесу😂😂😂 так толком и не поняв, что куда отсеивается) хотя применяю на стажировке эти алгоритмы, но хочу докапаться до сути, чтобы разобраться, как можно улучшить качество классификации).

  • @pavelkoloyan7187
    @pavelkoloyan7187 2 ปีที่แล้ว +17

    Спасибо одно из лучших объяснений.👍

    • @machine_learrrning
      @machine_learrrning  2 ปีที่แล้ว

      Спасибо за приятные слова 😊

  • @Alulisa
    @Alulisa 2 ปีที่แล้ว +7

    Очень понятное объяснение, спасибо большое

  • @hsqlk
    @hsqlk 14 วันที่ผ่านมา +1

    Лучшая!

  • @alexanderluzhetskii4144
    @alexanderluzhetskii4144 2 ปีที่แล้ว +13

    Здравствуйте. Я немного не догоняю, почему в формуле прироста информации энтропия правой подвыбоки =1, если мы посчитали ее =0, ведь там все единицы, абсолютный порядок. Почему тогда в формулу мы вводим ее как 1 и еще нормируем 2/5*1 ? (это на 12 й мнуте) При этом итог получается правильным 0.419 .....опечатака однако )))

    • @machine_learrrning
      @machine_learrrning  2 ปีที่แล้ว +9

      Действительно, очепятка, там не 1, а 0
      Главное, что прирост информации сам подсчитан правильно :)

  • @АртёмКомарницкий-я9ь
    @АртёмКомарницкий-я9ь 2 ปีที่แล้ว +4

    Спасибо большое, всегда с нетерпением жду видео. Планируете серию разборов алгоритмов, например SVM(SVC, SVR), KNN?

    • @machine_learrrning
      @machine_learrrning  2 ปีที่แล้ว +2

      Да, конечно, планирую и эти алгоритмы разобрать :)

    • @machine_learrrning
      @machine_learrrning  2 ปีที่แล้ว +2

      Вот и видео по KNN можете изучать: th-cam.com/video/m_bWhOLr_XM/w-d-xo.html

  • @achmedzhanov_nail
    @achmedzhanov_nail 10 หลายเดือนก่อน +2

    На 12:03 энтропия правой выборки 0, в формулу вычисления Q подставляется 1. ошибка?

    • @samSosiska
      @samSosiska 6 หลายเดือนก่อน +1

      По сути, да

    • @eightuponatime
      @eightuponatime 3 หลายเดือนก่อน

      уф чуть не умер от панички, что что-то пропустил

  • @mb19127
    @mb19127 4 หลายเดือนก่อน

    17:16 Почему разбиение было на [0, 3] и [1, 1], разве не лучше было бы на [0, 4] и [1, 0]? Может ли не быть такого вопроса, который отделял бы только эту единственную запись?

    • @mb19127
      @mb19127 4 หลายเดือนก่อน

      Ладно, действительно может. Ведь значение может быть не крайнем. Чтобы точно отделить одно значение нужно два разбиения

  • @ИринаРадкевич-у6ц
    @ИринаРадкевич-у6ц ปีที่แล้ว

    Спасибо!
    Крутое объяснение!

  • @Борисыч-в9м
    @Борисыч-в9м ปีที่แล้ว

    Я только не понял на 12:23 почему энтропия правой выборки внезапно стала равна 1 в формуле прироста информации?

    • @machine_learrrning
      @machine_learrrning  ปีที่แล้ว +2

      Это опечатка, должен быть, конечно же, 0.
      Главное что значение прироста посчитано верно

  • @beast0608dihdbdn
    @beast0608dihdbdn 2 ปีที่แล้ว +2

    Вы очень крутая, спасибо!

    • @machine_learrrning
      @machine_learrrning  2 ปีที่แล้ว +1

      Рада помочь в изучении МЛ! 😸

  • @gobals8925
    @gobals8925 2 ปีที่แล้ว +1

    Большое спасибо за видео. Я правильно понял, что алгоритм считает IG по всем значениям фичей, кроме тех, которые не позволяют разбить на две подвыборки?

    • @machine_learrrning
      @machine_learrrning  2 ปีที่แล้ว +1

      Пожалуйста!
      Да, всё правильно поняли, перебираются все возможные варианты разбиения на две подвыборки

  • @LS-oh6po
    @LS-oh6po ปีที่แล้ว

    Очень интересно по технике, но есть вопрос по сути. Для чего в принципе составляется это дерево решений? Ищется какое-то оптимальное значение? То есть какая изначально задача? Спасибо.

  • @danyadetunm7609
    @danyadetunm7609 ปีที่แล้ว +1

    А если не задавать random_state, то чем обусловлено различие точности обученной модели, если обучать ее на одних и тех же данных, и проверять результат тоже на одинаковых данных?

    • @machine_learrrning
      @machine_learrrning  ปีที่แล้ว

      Различия обусловлены случайностью, может повезти так, что выборка на тесте будет легче, поэтому метрика будет лучше, а может наоборот. И чтобы сравнивать именно модель, а не удачу, то и стоит фиксировать random_state

  • @kochkindi
    @kochkindi 2 ปีที่แล้ว +1

    Спасибо!!

  • @trollface4783
    @trollface4783 ปีที่แล้ว

    Спасибо

  • @goharavagova6845
    @goharavagova6845 2 ปีที่แล้ว +1

    огромное спасибо

  • @ДмитрийСвидовый
    @ДмитрийСвидовый ปีที่แล้ว

    Подскажите, как работает алгоритм с категориальными данными?

    • @bobkr4725
      @bobkr4725 ปีที่แล้ว

      Полагаю, что через get_dummies - как и многие другие алгорииы

  • @mrhiesenberg5385
    @mrhiesenberg5385 2 ปีที่แล้ว

    Допустим у нас есть задача идентификации человека по его фотографии. С точки зрения машинного обучения - это задача многоклассовой классификации изображений. При этом, в тестовой выборке могут содержаться изображения людей, которых не было в обучающем наборе и такие фотографии нужно как-то браковать. В случае с логистической/softmax регрессией - можно задать порог по принадлежности объекта тестовой выборки к классам обучающей. В случае с ближайшими соседями, этим порогом будет являться расстояние между объектами. А что будет является порогом для дерева?)

    • @machine_learrrning
      @machine_learrrning  2 ปีที่แล้ว

      Для деревьев такой же порог можно задать, как и с логистической регрессией - порог по предсказанным вероятностям.
      Но хочу еще добавить, что задачи, связанные с классификацией людей лучше решаются через сверточные нейронные сети, в частности через подход metric learning.

    • @mrhiesenberg5385
      @mrhiesenberg5385 2 ปีที่แล้ว

      @@machine_learrrning, я пробовал решить эту задачу с помощью: метода главных компонент + метод ближайшего соседа/softmax регрессия, гистограмма направленных градиентов + метод ближайшего соседа/softmax регрессия, классификация карт признаков сверточной нейронной сети facenet + метод ближайшего соседа/softmax регрессия)
      Хотел опробовать деревянные алгоритмы)