안녕하세요. 전 타교에서 박사과정하고 있는 학생입니다. 제가 하는 분야에 머신러닝을 적용하려고 하던 차에 교수님의 강의를 알게되었습니다. 아무리 다른 분들의 자료들을 찾아보고 공부해도 어려웠는데, 교수님 강의만으로 이해가 됩니다. 정말정말 감사합니다. 이 채널이 없어지지 않았으면 합니다. 정말 감사합니다.
잘들었습니다. 듣고 나서 의아한점 2가지를 남겨봅니다. 1. Complementary slackness로 부터 27:00 부분을 설명하시는데, (2)부분이 부연설명이 필요해 보입니다. 알파가 0이라면, 뒤의식은 0이던 0이 아니던, 상관없어 보입니다. 2. xi가 support vector인 경우는 알파가 0보다 크다고 하셨고, 그 외에는 알파가 0이다 라고 말씀하셨는데, 27:22 부분에서 말실수가 있으신거 같습니다. xi가 support vector인 경우에만 알파가 0보다 크거나 같다라고 적혀있고, 말씀하시기로는 support vector인 경우에만 알파가 0이라고 반대로 말씀하시는거 같습니다. 바로 전 슬라이드에서는 xi가 support vector일때 알파는 0이 아닌 양수라고 하셨으므로, 크거나 같다가 아닌 크다로 정정하셔야 할것 같습니다.
안녕하세요! 고등학생이라 혼자서 관련 공부를 하는데 많은 어려움을 겪고 있었는데, 교수님 강의를 들으면서 훨씬 쉽게 이해할 수 있게 되었습니다. 정말 감사드립니다. 강의 내용 중에 한가지 여쭤보고 싶은 내용이 있어서 질문드립니다. L함수를 α에 관한 식으로 변환하는 부분은 이해가 가는데, dual 문제로 변환되면서 min문제가 max문제로 변환된 이유가 잘 이해가 가지 않습니다. 이유가 뭔지 알 수 있을까요??
안녕하세요, SVM 공부 중 이해가 안되는 부분이 있어서 질문 드립니다. Wtx + b = 1 과 Wtx + b = -1 두 직선을 지나는 Support vectors는 어떻게 알 수 있나요? 어떤 x 데이터가 해당 직선을 지나는 데이터인지에 대해 알 수 있는지가 궁금합니다.
교수님 강의 잘 들었습니다.궁금한게 있습니다.라그랑주 승수에서 프라이멀과 듀얼 솔루션을 구하셨다고 하셨는데요(영상 23분 지점) 1. 정확히 어떤 값이 솔루션인지 한번 더 짚어주셨으면 합니다.(값 또는 수식)2. 알파가 포함된 듀얼 솔루션(?)을 KKT를 사용해서 구하는 것 같은데요 맞는지요?3. 알파값을 듀얼 포뮬레이션으로 구한다고 하셨는데요, 듀얼포뮬레이션으로 어떻게 구해집니까?4. 프라이멀 솔루션과 듀얼 솔루션의 물리적 의미는 어떻게 되는지요?감사합니다.whvlfwo@hyundai.com
안녕하세요, 좋은 강의 제공해주셔서 감사합니다. 관련 질문 하나 댓글로 남깁니다. 13:40초쯤의 설명에서 제약식을 1보다는 크거나 같게 설정한 이유에 대해서 정확하게 이해를 하지 못했습니다. support vector 기준으로 margin이 1이라서 그렇게 설정한건가요? 만약 그렇다면 이건 margin을 1이라고 미리 정의하고 수식을 이어나가는건가요?
1은 그냥 arbitrary 한 값으로 알고있습니다. 어차피 모든 시스템이 linear 하기때문에 아무 constant C 보다 크거나 같게 설정한다면 사실상 w도 C*w 로 scaling이 되기때문에 direction이 바뀌지 않아 상관없습니다. 만약 0이면 decision boundary 위에 classify가 될수있기때문에 0만아니면 됩니다.
안녕하세요. 전 타교에서 박사과정하고 있는 학생입니다. 제가 하는 분야에 머신러닝을 적용하려고 하던 차에 교수님의 강의를 알게되었습니다. 아무리 다른 분들의 자료들을 찾아보고 공부해도 어려웠는데, 교수님 강의만으로 이해가 됩니다. 정말정말 감사합니다. 이 채널이 없어지지 않았으면 합니다. 정말 감사합니다.
박사과정정도면...ㄷㄷ
대학원 수업해서 이해 안가는 부분은 여기 와서 다 이해 하였습니다. 감사합니다. ㅋㅋ 인공지능 부분 전체 강의가 너무 설명을 잘해주시는것 같아요
감사합니다!
그저 빛.. 감사합니다 설명도 쏙쏙 이해가 되네요 감사합니다
혼자 책으로 공부하려니 어려웠는데 교수님덕분에 많이 배우고 갑니다. 너무 감사합니다!!
감사합니다!
유학생인데 학교 강의 잘 못알아 들었었는데 한방에 이해 는 아니고 ㅋㅋ 영상 2번보고 깔끔하게 이해 했습니다 ! 감사합니당!
감사합니다!
감사합니다 ㅠㅠ 독학중에 빛같은 영상이에요 !
감사합니다!
잘들었습니다. 듣고 나서 의아한점 2가지를 남겨봅니다. 1. Complementary slackness로 부터 27:00 부분을 설명하시는데, (2)부분이 부연설명이 필요해 보입니다. 알파가 0이라면, 뒤의식은 0이던 0이 아니던, 상관없어 보입니다. 2. xi가 support vector인 경우는 알파가 0보다 크다고 하셨고, 그 외에는 알파가 0이다 라고 말씀하셨는데, 27:22 부분에서 말실수가 있으신거 같습니다. xi가 support vector인 경우에만 알파가 0보다 크거나 같다라고 적혀있고, 말씀하시기로는 support vector인 경우에만 알파가 0이라고 반대로 말씀하시는거 같습니다. 바로 전 슬라이드에서는 xi가 support vector일때 알파는 0이 아닌 양수라고 하셨으므로, 크거나 같다가 아닌 크다로 정정하셔야 할것 같습니다.
자세한 강의와 설명에 감사드립니다.
감사합니다!
유튜브에 감사하고 교수님한테 감사합니다. 간결하고 핵심적인 강의에 많은 걸 얻고 갑니다!
감사합니다!
SVM에 대해 좀더 알게된거 같습니다. 설명 감사드립니다.
감사합니다!
어려운 부분이었는데 이해가 너무 잘 됐습니다 감사합니다
감사합니다~
강의 고맙습니다 ㅎㅎ
마지막 부분 (30:00 쯤) 에 나오는 식 오타
w*_T + b* = y_sv
w*_T 뒤에 x_sv 붙어야 합니다 :)
학교 과제 설명을 안 해주셔서 구글링으로 이해가 힘들었는데 덕분에 많이 배웠습니다 감사합니다!
감사합니다~
교수님, 감사합니다!!
깔끔한 설명 감사합니다.
감사합니다!
명강의입니다!! 정말 감사합니다 :)
감사합니다!
강의 감사합니다 많은 도움 되었네요
감사합니다!
좋은 강의 감사합니다. 질문 있습니다.
29분 설명에 α 값을 일부 데이터(i ∈ SV)를 넣어서 알 수 있다고 하셨는데
무수히 많은 +x 값 중 어떤 값을 넣어야 하는지요? 그걸 어떻게 알 수 있는지요? 벡터의 크기가 가장 작은 값을 넣어야 하는 건지 ?? 궁금합니다
교수님 강의 항상 감사드립니다. 다른 모델 이야기이지만, Convex Optimization의 개념이 요즘 캐글에서 많이 쓰이는 Gradient Descend의 출발개념이라고 생각하여도 될까요?
맞습니다~
13:40 이해를 못 했습니다. 왜 margin을 최소 1보다 크게 하는 제약식이 y_i*(wTx_i+b)>1 이 되나요?
안녕하세요! 고등학생이라 혼자서 관련 공부를 하는데 많은 어려움을 겪고 있었는데, 교수님 강의를 들으면서 훨씬 쉽게 이해할 수 있게 되었습니다. 정말 감사드립니다. 강의 내용 중에 한가지 여쭤보고 싶은 내용이 있어서 질문드립니다. L함수를 α에 관한 식으로 변환하는 부분은 이해가 가는데, dual 문제로 변환되면서 min문제가 max문제로 변환된 이유가 잘 이해가 가지 않습니다. 이유가 뭔지 알 수 있을까요??
lagrange multiplier 개념에 대해 좀 아셔야 이해가 쉬우실 거예요. min문제에서 max문제로 변환하는건 minimax에서 오는 개념으로 알고 있어요.
안녕하세요, SVM 공부 중 이해가 안되는 부분이 있어서 질문 드립니다. Wtx + b = 1 과 Wtx + b = -1 두 직선을 지나는 Support vectors는 어떻게 알 수 있나요? 어떤 x 데이터가 해당 직선을 지나는 데이터인지에 대해 알 수 있는지가 궁금합니다.
교수님 강의 정말 잘 들었습니다. 혹시 참고할만한 원서는 어떤게 있는 지 추천 해 주실 수 있나요?
최근 머신러닝/인공지능은 책 보다는 각종 유튜브나 블로그 자료가 유용할 때가 많습니다. 제가 학창시절 공부한 책은 The element of statistical learning이었습니다.
답변감사합니다..!
교수님 강의 잘 들었습니다.궁금한게 있습니다.라그랑주 승수에서 프라이멀과 듀얼 솔루션을 구하셨다고 하셨는데요(영상 23분 지점) 1. 정확히 어떤 값이 솔루션인지 한번 더 짚어주셨으면 합니다.(값 또는 수식)2. 알파가 포함된 듀얼 솔루션(?)을 KKT를 사용해서 구하는 것 같은데요 맞는지요?3. 알파값을 듀얼 포뮬레이션으로 구한다고 하셨는데요, 듀얼포뮬레이션으로 어떻게 구해집니까?4. 프라이멀 솔루션과 듀얼 솔루션의 물리적 의미는 어떻게 되는지요?감사합니다.whvlfwo@hyundai.com
강의 감사합니다 ! 25:25 부근에 x^T x^_i 로 적어주셨는데 w^T x_i 를 말씀하신 것 맞나요!? 감사합니다 !
안녕하세요, 좋은 강의 제공해주셔서 감사합니다. 관련 질문 하나 댓글로 남깁니다.
13:40초쯤의 설명에서 제약식을 1보다는 크거나 같게 설정한 이유에 대해서 정확하게 이해를 하지 못했습니다. support vector 기준으로 margin이 1이라서 그렇게 설정한건가요? 만약 그렇다면 이건 margin을 1이라고 미리 정의하고 수식을 이어나가는건가요?
1은 그냥 arbitrary 한 값으로 알고있습니다. 어차피 모든 시스템이 linear 하기때문에 아무 constant C 보다 크거나 같게 설정한다면 사실상 w도 C*w 로 scaling이 되기때문에 direction이 바뀌지 않아 상관없습니다. 만약 0이면 decision boundary 위에 classify가 될수있기때문에 0만아니면 됩니다.
그저 빛
감사합니다!!
SVM 정도를 학부생들이 듣나요? 대단하네요.
알파는 0이아닌 서포트 백터인것만 아는것이지 값은 구할수 없는건가요?