[핵심 머신러닝 ] 의사결정나무모델 2 (분류나무, Information Gain)

แชร์
ฝัง
  • เผยแพร่เมื่อ 9 พ.ย. 2024

ความคิดเห็น • 15

  • @쿠마부인
    @쿠마부인 3 ปีที่แล้ว

    교수님도 역시 사람이었어요. ㅎㅎㅎㅎ 코뿔소 아니고 하마~~~^^ 오늘도 재밌게 잘듣고 있습니다.

  • @강나루-r2q
    @강나루-r2q 4 ปีที่แล้ว +1

    오늘도 강의 잘들었습니다. 감사합니다.

  • @MZ-pj4eq
    @MZ-pj4eq 2 ปีที่แล้ว

    교수님, 감사합니다!!

  • @부자아빠-h5n
    @부자아빠-h5n 4 ปีที่แล้ว

    교수님 감사합니다.

  • @DaeHwanKimHello
    @DaeHwanKimHello 3 ปีที่แล้ว

    양질의 강의 감사드립니다.

  • @minjungkim3144
    @minjungkim3144 3 ปีที่แล้ว

    의사결정나무 불순도를 측정할때 어떤이유로 카이제곱 통계량을 사용할 수 있는지 궁금합니다.

  • @ananthshankar8353
    @ananthshankar8353 ปีที่แล้ว

    Hi. Can you please provide English subtitles ? Excellent content for me to learn from

  • @한규민-z8o
    @한규민-z8o 3 ปีที่แล้ว

    ppt맨 마지막에 bias는 margin(y-y^) 을 표현하신건가요??

  • @albertlee5312
    @albertlee5312 5 ปีที่แล้ว +1

    감사합니다 교수님!
    Natural Log가 사용된 Slide도 있었고 Log Base 2 가 사용된 Slide도 있었는데 어떻게 구분이 되는 것인지 질문 드립니다. 감사합니다.

  • @야돈보내줘
    @야돈보내줘 2 ปีที่แล้ว

    교수님, 좋은 자료 감사합니다.
    10분대에 한가지 질문이 있는데요, K개의 클래스로 가정하고 p hat을 정의하는 식에서 I(y_i=k) 로 표시된 부분이 이해가 잘 가지 않는 듯 합니다. 1부터 k까지의 class를 다른 iteration에 해당하는 변수로 표현해야 하지 않나 하는 생각이 듭니다 그냥 k 로 표현하면 클래스의 개수인 k가 대응되고, 그것은 식에 따라 달라지지 않을 상수가 아닌가 하는 의문이 듭니다. 시간이 되실 떄 답변 부탁드립니다.