[핵심 머신러닝] SVM 모델 2 (Soft Margin SVM, Nonlinear SVM, Kernel)

แชร์
ฝัง
  • เผยแพร่เมื่อ 20 ก.ย. 2024

ความคิดเห็น • 60

  • @jungseoblee8478
    @jungseoblee8478 4 ปีที่แล้ว +5

    교수님. 직접 뵌적은 없지만, 최고의 교수님이라고 생각합니다. 연구쪽에서도 신경을 굉장히 많이 쓰시고 교육도 많은 시간 투자하시는 것 같습니다. 항상 감사합니다.

  • @beom01638
    @beom01638 4 ปีที่แล้ว +4

    감사합니다... 하루만에 SVM에 대해 깨우치게 되네요. 큰 도움이 되었습니다.

  • @이경용-h6s
    @이경용-h6s 4 ปีที่แล้ว +3

    두목님으로 모시겠습니다... 정말 강의의 신 그 자체입니다.. 감사합니다ㅠㅠㅠㅠ

  • @ernestkimm1958
    @ernestkimm1958 5 ปีที่แล้ว +1

    MIT Patric Winston 강의를 듣다 예까지 왔습니다. 좋은 강의 감사드립니다.

  • @jeonghoonheo6469
    @jeonghoonheo6469 3 ปีที่แล้ว

    교수님, 안녕하세요. 직장인으로 머신러닝에 관심이 많아 관련 영상 보는 중 교수님 강의를 알게되었습니다. 다른 영상보다 자세한 강의로 많은 도움이 되고 있습니다. 교수님 사랑합니다.

  • @건설로봇-t6f
    @건설로봇-t6f ปีที่แล้ว

    한국어로 이 정도로 디테일한 강의가 있었네요ㄷㄷ

  • @jeffchoi6179
    @jeffchoi6179 4 ปีที่แล้ว +1

    명강의 감사합니다. 이해에 매우 큰 도움이 되었습니다.

  • @kwangminkim1735
    @kwangminkim1735 5 ปีที่แล้ว

    ESL 책 혼자 공부하면서 애매한것들이 말끔히 풀리네요. 많은 도움이 됩니다. 감사합니다! 다른 것들도 올려주시면 좋겠어요.ㅠ

  • @nbumkim
    @nbumkim 3 ปีที่แล้ว

    정말 좋은 강의 감사합니다. 잘 듣고 갑니다!!

  • @saga8648
    @saga8648 ปีที่แล้ว

    한 회 한 회 깨면서 올라갈수록 무슨 game 하는거 같습니다~ 빨리 끝판왕 깨고 다른 게임으로 넘어 가고 싶네요

  • @MZ-pj4eq
    @MZ-pj4eq 2 ปีที่แล้ว

    교수님, 감사합니다!!

  • @두두리-g5e
    @두두리-g5e 3 ปีที่แล้ว +1

    서포트 벡터머신에 대해 잘알게 되었습니다 감사합니다
    7:38초에 orginal problem 에서 Lagrangian primal 로 넘어가실때 라그랑주 승수법이랑 KKT에 의해 식이 변형된것으로 알고 있는데 시그마 감마i크사이ㅑ값이 왜 나오게 된것인지 이해가 되지 않습니다 혹시 답변을 받을수 있을까요?

  • @장문석2
    @장문석2 4 ปีที่แล้ว +1

    교수님, 안녕하십니까. 좋은 강의 제공 해주셔서 감사드립니다. 33:10초 부근에서 w를 구했다고 말씀하셨습니다. 하지만 kernel trick을 사용하여 문제를 풀기 때문에 discriminant function을 구할 순 있지만 w를 직접 구할 순 없는 것이 아닌지 여쭤보고 싶습니다. 감사드립니다.

    • @김성범교수산업경영공
      @김성범교수산업경영공  4 ปีที่แล้ว

      네. 보라님 말씀이 맞습니다. 제가 다시 들어 보니 w라고 잘못 예기했네요...

  • @yiyigao5791
    @yiyigao5791 ปีที่แล้ว

    쌤, 33분쯤에 목표함수식(xixj+1)^2, 전에 kernel function이 (xy+1)^2라서 (xiyj+1)^2 아닐까 의문 합니다.

  • @dogaem
    @dogaem 3 ปีที่แล้ว

    정말 유익한 강의 감사합니다 :)

  • @고영민-d5m
    @고영민-d5m 4 ปีที่แล้ว +2

    11 분 때 라그랑지 듀얼 풀이과정에서 3번 째줄 마지막항 알파 i - 크사이 i 를 알파 i + 크사이 i 로 수정해야 계산이 맞는 것 같습니다

    • @김성범교수산업경영공
      @김성범교수산업경영공  4 ปีที่แล้ว

      네. 그렇네요... 자세히 봐 주셔 감사합니다!

    • @고영민-d5m
      @고영민-d5m 4 ปีที่แล้ว +1

      ‍김성범[ 교수 / 산업경영공학부 ]
      혼자 공부하면서 이해도 잘 안되고 어려운 머신러닝 과제들을 하나씩 쉽게 잘알려주셔서 정말 감사합니다.
      하나씩 꼼꼼히 보면서 공부하고 있습니다. 항상 많은 도움이 되고있습니다 존경합니다

    • @김성범교수산업경영공
      @김성범교수산업경영공  4 ปีที่แล้ว

      @@고영민-d5m 감사합니다!

  • @hojinius
    @hojinius 2 ปีที่แล้ว

    정말 감사합니다!

  • @고구마먹고싶다-b3l
    @고구마먹고싶다-b3l 4 ปีที่แล้ว +1

    안녕하세요 교수님!
    항상 강의 열심히 듣고 있습니다!
    test error에 대해 이해가 안되는 점이 있어 질문드립니다!
    17:15 쯤에 train error와 testing error가 모두 작은 C=100000가 좋은게 아닌가요? 왜 Test Error가 큰 게 더 좋다고 하시는지 의문이 듭니다!
    그리고 강의의 마지막 부분인 35:35 에서는 test error가 작은게 더 좋다고 하셔서 헷갈립니다!
    + error는 Bayes Error와 가까울수록 좋은건가요?

    • @김성범교수산업경영공
      @김성범교수산업경영공  4 ปีที่แล้ว +2

      제가 다시 들어 보니 17:15 끝에 흘리 듯이 한 말 (이 경우가 좋은 것~)은 잘못 예기한 것이 맞습니다. Testing error가 작은 것인 좋은 경우입니다. 결국, Testing error가 Bayes Error와 가까울수록 좋은 것 입니다. 자세히 들어 주셔 감사합니다~

    • @고구마먹고싶다-b3l
      @고구마먹고싶다-b3l 4 ปีที่แล้ว

      이해가 완벽히 되었습니다 감사합니다 교수님!

  • @gawonlee3724
    @gawonlee3724 4 ปีที่แล้ว +2

    교수님 8:22 초에 lagrangian Primal 식에서는 없었다가 8:39초에식에서는 왜 1/2llwll +C시그마크사이 가 갑자기 왜 나오는 지 궁금합니다!

    • @jpark7636
      @jpark7636 4 ปีที่แล้ว +1

      아마 ppt 를 만들때 그 부분을 까먹고 넣지 않으신 것 같습니다.
      www.gatsby.ucl.ac.uk/~gretton/coursefiles/Slides5A.pdf 를 참고해 보세요

  • @제임스딘딘-m4p
    @제임스딘딘-m4p 2 ปีที่แล้ว

    명 강의십니다. 10년 동안의 SVM 궁금증이 풀렸네요 ~
    원초적인 질문입니다. Back Propagation 업는 SVM이 100% 수학적인 모델인데, 왜 인공지능 학습모델로 구분되나요 ?

    • @김성범교수산업경영공
      @김성범교수산업경영공  2 ปีที่แล้ว

      감사합니다. Backpropagation 사용 유무가 인공지능 여부를 결정하는 기준은 아닙니다. Decision tree, KNN, SVM, Neural networks, CNN, RNN, Transformer,... 모두 머신러닝 모델이자 인공지능 모델입니다.

  • @user-cz9vx3ig8h
    @user-cz9vx3ig8h 2 ปีที่แล้ว +1

    감사합니다. 16분25초에 알파=C일 때, 감마가 에러를 허용하는것이라고 하셨는데, 크사이가 에러를 허용하는 것이 아닌지 궁긍합니다.

  • @YoungKim-ic2xk
    @YoungKim-ic2xk 4 ปีที่แล้ว

    강의 감사 합니다. 시간 되시면 알파값 구하는 부분도 부탁 드립니다 . smo 많이 쓴다고 하는데 잘 들어오지 않네요...

    • @beom01638
      @beom01638 4 ปีที่แล้ว

      quadratic programming을 사용하여 구현 가능합니다!

  • @cocohand781
    @cocohand781 3 ปีที่แล้ว +1

    31:01 알파값을 어떻게 나요는건가요??

  • @daehanhan3302
    @daehanhan3302 5 ปีที่แล้ว +1

    그런데 complementary slackness 에서 왜 감마와 프시의 곱이 0인가요?

    • @김성범교수산업경영공
      @김성범교수산업경영공  4 ปีที่แล้ว

      답변이 늦어 죄송합니다. Complementary slackness 조건은 비선형계획 (Nonlinear Programming) 문제에서 primal과 dual solutions 관계에서 도출된 조건입니다. 수학적으로 자세한 내용은 관련 참고문헌 (Nonlinear Programming에서 KKT 조건)을 살펴 보시기 바랍니다.

  • @cylanokim
    @cylanokim 3 ปีที่แล้ว

    회사 다니면서 강의 듣는데, 정말 귀한 강의 감사합니다 ㅠ 혹시 강의 PPT를 구할 수 있을까요?

    • @김성범교수산업경영공
      @김성범교수산업경영공  3 ปีที่แล้ว

      현재 몇 가지 이슈로 인해 강의자료 공개를 고민하고 있습니다. 바로 제공해 드리지 못하는 점 양해 바랍니다.

    • @ftcooky7118
      @ftcooky7118 3 ปีที่แล้ว

      @@김성범교수산업경영공 ㅜㅜ 강의자료가 너무 좋아요

  • @user-my3rc6fd9m
    @user-my3rc6fd9m 4 ปีที่แล้ว

    SVM 모델 1 강의에서는 Wx+b > 0 이면 y_new를 1로 predict한다 라고 결론 줬었는데 여기서는 아니네요.. 혹시 W,b가 Support vector로만 구한 W*,b*로 계산해서 그런건가요?

    • @user-my3rc6fd9m
      @user-my3rc6fd9m 4 ปีที่แล้ว

      그리구 Testing Error 가 C=0.01일때 더 큰데 왜 그게 더 좋다는 지 잘모르겠습니다

    • @김성범교수산업경영공
      @김성범교수산업경영공  4 ปีที่แล้ว

      어느 부분을 질문하시는지요?

  • @홍건교
    @홍건교 5 ปีที่แล้ว

    혹시 svm에서 비선형일때 커널을 적용한 라그랑지안 코드좀 알려주실수있나요.

  • @jeffchoi6179
    @jeffchoi6179 4 ปีที่แล้ว

    교수님, 선형분리가 가능한 데이터에도 커널 트릭을 적용하면 성능 개선이 가능한가요? 큰 차이가 없을 것 같기는 한데 궁금해서 찾아봐도 관련 내용을 못 찾겠네요ㅜ

    • @김성범교수산업경영공
      @김성범교수산업경영공  4 ปีที่แล้ว +1

      성능면에서 큰 차이가 없는 것으로 알려져 있습니다.

    • @jeffchoi6179
      @jeffchoi6179 4 ปีที่แล้ว

      @@김성범교수산업경영공 아하! 그렇군요. 답변 달아주셔서 감사합니다^^

  • @yunjeonlee2427
    @yunjeonlee2427 3 ปีที่แล้ว

    안녕하세요! 강의 정말 잘 들었습니다. 혹시 강의 교안을 볼 수 있는 곳이 있을까요??

    • @김성범교수산업경영공
      @김성범교수산업경영공  3 ปีที่แล้ว

      감사합니다! 강의 교안은 몇가지 이유로 아직 공개 못하고 있는 점 양해 바랍니다.