[핵심 머신러닝] SVM 모델 1 (Margin, Hard Margin Linear SVM)

แชร์
ฝัง
  • เผยแพร่เมื่อ 9 พ.ย. 2024

ความคิดเห็น • 48

  • @아방-f5r
    @아방-f5r 2 ปีที่แล้ว +8

    안녕하세요. 전 타교에서 박사과정하고 있는 학생입니다. 제가 하는 분야에 머신러닝을 적용하려고 하던 차에 교수님의 강의를 알게되었습니다. 아무리 다른 분들의 자료들을 찾아보고 공부해도 어려웠는데, 교수님 강의만으로 이해가 됩니다. 정말정말 감사합니다. 이 채널이 없어지지 않았으면 합니다. 정말 감사합니다.

    • @kanadara0839
      @kanadara0839 ปีที่แล้ว

      박사과정정도면...ㄷㄷ

  • @yoonhohwang1808
    @yoonhohwang1808 3 ปีที่แล้ว +6

    대학원 수업해서 이해 안가는 부분은 여기 와서 다 이해 하였습니다. 감사합니다. ㅋㅋ 인공지능 부분 전체 강의가 너무 설명을 잘해주시는것 같아요

  • @Nn-hg4oc
    @Nn-hg4oc ปีที่แล้ว

    그저 빛.. 감사합니다 설명도 쏙쏙 이해가 되네요 감사합니다

  • @여자이새봄
    @여자이새봄 4 ปีที่แล้ว +5

    혼자 책으로 공부하려니 어려웠는데 교수님덕분에 많이 배우고 갑니다. 너무 감사합니다!!

  • @footballlobbing5359
    @footballlobbing5359 5 ปีที่แล้ว +5

    유학생인데 학교 강의 잘 못알아 들었었는데 한방에 이해 는 아니고 ㅋㅋ 영상 2번보고 깔끔하게 이해 했습니다 ! 감사합니당!

  • @초코찰떡파이-y6l
    @초코찰떡파이-y6l 4 ปีที่แล้ว +2

    감사합니다 ㅠㅠ 독학중에 빛같은 영상이에요 !

  • @heriun7268
    @heriun7268 3 ปีที่แล้ว +5

    잘들었습니다. 듣고 나서 의아한점 2가지를 남겨봅니다. 1. Complementary slackness로 부터 27:00 부분을 설명하시는데, (2)부분이 부연설명이 필요해 보입니다. 알파가 0이라면, 뒤의식은 0이던 0이 아니던, 상관없어 보입니다. 2. xi가 support vector인 경우는 알파가 0보다 크다고 하셨고, 그 외에는 알파가 0이다 라고 말씀하셨는데, 27:22 부분에서 말실수가 있으신거 같습니다. xi가 support vector인 경우에만 알파가 0보다 크거나 같다라고 적혀있고, 말씀하시기로는 support vector인 경우에만 알파가 0이라고 반대로 말씀하시는거 같습니다. 바로 전 슬라이드에서는 xi가 support vector일때 알파는 0이 아닌 양수라고 하셨으므로, 크거나 같다가 아닌 크다로 정정하셔야 할것 같습니다.

  • @ernestkimm1958
    @ernestkimm1958 5 ปีที่แล้ว +2

    자세한 강의와 설명에 감사드립니다.

  • @Coral_Fish
    @Coral_Fish 5 ปีที่แล้ว +1

    유튜브에 감사하고 교수님한테 감사합니다. 간결하고 핵심적인 강의에 많은 걸 얻고 갑니다!

  • @네네넹24
    @네네넹24 5 ปีที่แล้ว +1

    SVM에 대해 좀더 알게된거 같습니다. 설명 감사드립니다.

  • @JGP2L8CY
    @JGP2L8CY 2 ปีที่แล้ว

    어려운 부분이었는데 이해가 너무 잘 됐습니다 감사합니다

  • @박준현-e8s
    @박준현-e8s 4 ปีที่แล้ว +6

    강의 고맙습니다 ㅎㅎ
    마지막 부분 (30:00 쯤) 에 나오는 식 오타
    w*_T + b* = y_sv
    w*_T 뒤에 x_sv 붙어야 합니다 :)

  • @user-ik5jv3pi4y
    @user-ik5jv3pi4y 3 ปีที่แล้ว

    학교 과제 설명을 안 해주셔서 구글링으로 이해가 힘들었는데 덕분에 많이 배웠습니다 감사합니다!

  • @MZ-pj4eq
    @MZ-pj4eq 2 ปีที่แล้ว

    교수님, 감사합니다!!

  • @김진혁-k8e
    @김진혁-k8e 4 ปีที่แล้ว +1

    깔끔한 설명 감사합니다.

  • @dogaem
    @dogaem 3 ปีที่แล้ว

    명강의입니다!! 정말 감사합니다 :)

  • @beom01638
    @beom01638 4 ปีที่แล้ว +1

    강의 감사합니다 많은 도움 되었네요

  • @제임스딘딘-m4p
    @제임스딘딘-m4p 2 ปีที่แล้ว

    좋은 강의 감사합니다. 질문 있습니다.
    29분 설명에 α 값을 일부 데이터(i ∈ SV)를 넣어서 알 수 있다고 하셨는데
    무수히 많은 +x 값 중 어떤 값을 넣어야 하는지요? 그걸 어떻게 알 수 있는지요? 벡터의 크기가 가장 작은 값을 넣어야 하는 건지 ?? 궁금합니다

  • @HSLee-ho1ld
    @HSLee-ho1ld 4 ปีที่แล้ว +1

    교수님 강의 항상 감사드립니다. 다른 모델 이야기이지만, Convex Optimization의 개념이 요즘 캐글에서 많이 쓰이는 Gradient Descend의 출발개념이라고 생각하여도 될까요?

  • @skavud1
    @skavud1 2 ปีที่แล้ว +1

    13:40 이해를 못 했습니다. 왜 margin을 최소 1보다 크게 하는 제약식이 y_i*(wTx_i+b)>1 이 되나요?

  • @이율-p3b
    @이율-p3b ปีที่แล้ว

    안녕하세요! 고등학생이라 혼자서 관련 공부를 하는데 많은 어려움을 겪고 있었는데, 교수님 강의를 들으면서 훨씬 쉽게 이해할 수 있게 되었습니다. 정말 감사드립니다. 강의 내용 중에 한가지 여쭤보고 싶은 내용이 있어서 질문드립니다. L함수를 α에 관한 식으로 변환하는 부분은 이해가 가는데, dual 문제로 변환되면서 min문제가 max문제로 변환된 이유가 잘 이해가 가지 않습니다. 이유가 뭔지 알 수 있을까요??

    • @lineherz
      @lineherz 6 หลายเดือนก่อน

      lagrange multiplier 개념에 대해 좀 아셔야 이해가 쉬우실 거예요. min문제에서 max문제로 변환하는건 minimax에서 오는 개념으로 알고 있어요.

  • @JGP2L8CY
    @JGP2L8CY ปีที่แล้ว

    안녕하세요, SVM 공부 중 이해가 안되는 부분이 있어서 질문 드립니다. Wtx + b = 1 과 Wtx + b = -1 두 직선을 지나는 Support vectors는 어떻게 알 수 있나요? 어떤 x 데이터가 해당 직선을 지나는 데이터인지에 대해 알 수 있는지가 궁금합니다.

  • @정준호-k8p
    @정준호-k8p 4 ปีที่แล้ว +1

    교수님 강의 정말 잘 들었습니다. 혹시 참고할만한 원서는 어떤게 있는 지 추천 해 주실 수 있나요?

    • @김성범교수산업경영공
      @김성범교수산업경영공  4 ปีที่แล้ว +2

      최근 머신러닝/인공지능은 책 보다는 각종 유튜브나 블로그 자료가 유용할 때가 많습니다. 제가 학창시절 공부한 책은 The element of statistical learning이었습니다.

    • @정준호-k8p
      @정준호-k8p 4 ปีที่แล้ว

      답변감사합니다..!

  • @최정훈-t2t
    @최정훈-t2t 4 ปีที่แล้ว +2

    교수님 강의 잘 들었습니다.궁금한게 있습니다.라그랑주 승수에서 프라이멀과 듀얼 솔루션을 구하셨다고 하셨는데요(영상 23분 지점) 1. 정확히 어떤 값이 솔루션인지 한번 더 짚어주셨으면 합니다.(값 또는 수식)2. 알파가 포함된 듀얼 솔루션(?)을 KKT를 사용해서 구하는 것 같은데요 맞는지요?3. 알파값을 듀얼 포뮬레이션으로 구한다고 하셨는데요, 듀얼포뮬레이션으로 어떻게 구해집니까?4. 프라이멀 솔루션과 듀얼 솔루션의 물리적 의미는 어떻게 되는지요?감사합니다.whvlfwo@hyundai.com

  • @KwangrokRyoo
    @KwangrokRyoo 3 ปีที่แล้ว

    강의 감사합니다 ! 25:25 부근에 x^T x^_i 로 적어주셨는데 w^T x_i 를 말씀하신 것 맞나요!? 감사합니다 !

  • @이윤성-f1e
    @이윤성-f1e 3 ปีที่แล้ว

    안녕하세요, 좋은 강의 제공해주셔서 감사합니다. 관련 질문 하나 댓글로 남깁니다.
    13:40초쯤의 설명에서 제약식을 1보다는 크거나 같게 설정한 이유에 대해서 정확하게 이해를 하지 못했습니다. support vector 기준으로 margin이 1이라서 그렇게 설정한건가요? 만약 그렇다면 이건 margin을 1이라고 미리 정의하고 수식을 이어나가는건가요?

    • @JCatharsis
      @JCatharsis 3 ปีที่แล้ว +2

      1은 그냥 arbitrary 한 값으로 알고있습니다. 어차피 모든 시스템이 linear 하기때문에 아무 constant C 보다 크거나 같게 설정한다면 사실상 w도 C*w 로 scaling이 되기때문에 direction이 바뀌지 않아 상관없습니다. 만약 0이면 decision boundary 위에 classify가 될수있기때문에 0만아니면 됩니다.

  • @hyeonseokseong2431
    @hyeonseokseong2431 3 ปีที่แล้ว +1

    그저 빛

  • @jungwonkim356
    @jungwonkim356 4 ปีที่แล้ว

    SVM 정도를 학부생들이 듣나요? 대단하네요.

  • @cocohand781
    @cocohand781 3 ปีที่แล้ว

    알파는 0이아닌 서포트 백터인것만 아는것이지 값은 구할수 없는건가요?