정말 훌륭한 강의입니다. 정말 수요자 측면에서 이해하기 쉽게 전달되고 있습니다. 통계학을 전공하지 않았지만 직업특성상 실험통게를 바탕으로 다양한 연구결과를 해석하고 있습니다. 저 나름대로 통계학에 대해 자신있다고 생각했는데 , 우리나라에만 통계전문가가 만명이 되는 듯합니다. 항상 겸손한 마음으로로 살아야 할듯합니다.
처음에 4:24에서 오차항이 0이라는 가정은 선형회귀가 binary data에는 적합하지 않는다는 설명하고 관련이 있는걸까요? 아니면 로지스틱 회귀에서의 가정일까요? 로지스틱 회귀에서는 반응 변수들이 베르누이 분포를 따르기 때문에 오차항에 대한 가정이 필요 없다고 알고있었어가지고 여쭤봐요.. 강의랑은 관련이 없지만.. 혹시 GLM들의 모집단 분포를 표현할 때는 항상 오차항을 넣어서 표현하는걸까요? 예를 들어 아래처럼요.. Y_i = \beta_0 + \beta_1 x_1 + .... + error g( E(Y_i) ) = \beta_0 + \beta_1 x_1 + .... \beta_k x_k 정말 죄송하지만 한가지만 더 여쭤볼게요... 로지스틱 회귀를 할 때는 그러면 로지스틱 함수에 관측된 설명변수들(X)을 통해 확률을 계산하고(회귀 계수는 뭐.. 여러가지 방법으로 초기화한다음에), 이를 통해 MLE를 통해서 회귀계수들을 조정하고, 이렇게 모델링된 확률( P(Y=1|X) ), 로지스틱 함수)을 Logit 변환을 통해 선형식으로 표현하는 이유가 단순하게, 선형회귀처럼 각 회귀계수들의 의미를 해석하기 편하도록 하기 위한건가요? (GLM 모두 포함해서.. ) 쓰다보니.. GLM 모두가 회귀계수 해석을 위해 만들어진건가보군요... 어렵네요 ㅠ.ㅠ.ㅠ.ㅠ.ㅠ... 항상 공부하면서 다른 영상들도 많은 도움을 받고 있습니다. 감사합니다.
정말 훌륭한 강의입니다. 정말 수요자 측면에서 이해하기 쉽게 전달되고 있습니다. 통계학을 전공하지 않았지만 직업특성상 실험통게를 바탕으로 다양한 연구결과를 해석하고 있습니다. 저 나름대로 통계학에 대해 자신있다고 생각했는데 , 우리나라에만 통계전문가가 만명이 되는 듯합니다. 항상 겸손한 마음으로로 살아야 할듯합니다.
처음에 4:24에서 오차항이 0이라는 가정은 선형회귀가 binary data에는 적합하지 않는다는 설명하고 관련이 있는걸까요? 아니면 로지스틱 회귀에서의 가정일까요? 로지스틱 회귀에서는 반응 변수들이 베르누이 분포를 따르기 때문에 오차항에 대한 가정이 필요 없다고 알고있었어가지고 여쭤봐요..
강의랑은 관련이 없지만.. 혹시 GLM들의 모집단 분포를 표현할 때는 항상 오차항을 넣어서 표현하는걸까요?
예를 들어 아래처럼요..
Y_i = \beta_0 + \beta_1 x_1 + .... + error
g( E(Y_i) ) = \beta_0 + \beta_1 x_1 + .... \beta_k x_k
정말 죄송하지만 한가지만 더 여쭤볼게요...
로지스틱 회귀를 할 때는 그러면 로지스틱 함수에 관측된 설명변수들(X)을 통해 확률을 계산하고(회귀 계수는 뭐.. 여러가지 방법으로 초기화한다음에), 이를 통해 MLE를 통해서 회귀계수들을 조정하고, 이렇게 모델링된 확률( P(Y=1|X) ), 로지스틱 함수)을 Logit 변환을 통해 선형식으로 표현하는 이유가 단순하게, 선형회귀처럼 각 회귀계수들의 의미를 해석하기 편하도록 하기 위한건가요? (GLM 모두 포함해서.. )
쓰다보니.. GLM 모두가 회귀계수 해석을 위해 만들어진건가보군요...
어렵네요 ㅠ.ㅠ.ㅠ.ㅠ.ㅠ...
항상 공부하면서 다른 영상들도 많은 도움을 받고 있습니다.
감사합니다.
정말 양질의 강의 감사드립니다. 제 머리에 흩어져있던 모든 개념들이 퍼즐 맞춰지듯이 정리가 되네요. 좋은 강의력에 깔끔한 시각화까지 더해져 군더더기가 없었던 것 같습니다 감사합니다~!~!
하루만에 1강부터 랜덤포레스트까지 전부 시청해버렸습니다. 이번 학기에 딥러닝 수강하고 있는데 큰 그림 잡는 데에 정말정말 좋은 강의인 것 같네요 다시 한 번 감사드립니다
감사합니다!
이렇게 완벽한 강의를 ㅠㅠ 정말 돈주고도 못듣는 강의를 해주셔서 감사드려요!
감사합니다!
Thank you so much for this lecture~~ Great Lecture~ Loved it~
Thank you so much for your support!
10:45에서 로지스틱 함수 b0와b1은 무엇을 의미하는건가요??
교수님, 강의 감사합니다!!
감사합니다!
이런 영상은 이과생들이 꼭 알아야 할 지식이다..
승산 개념이 잘 이해가 되지않았었는데 영상이 도움되었습니다. 감사합니다!
도움이 되었다니 저도 기쁩니다!
좋은 강의 감사합니다
감사합니다 ~
좋은 강의 감사합니다!
감사합니다!
늦깍이로 경제학 석사과정에서 공부중입니다. 매우 도움이 되어 감사합니다
감사합니다!
교수님 강의감사합니다 강의를 듣다가 궁금한게있습니다. 혹시 odd취하고 log취한다고하셨었는데 log가아니라 ln을취해야하는거 맞는지 여쭙고싶습니다!
네. 맞습니다. 자연로그 ln이 보다 정확한 표현입니다~
통계에서는 log가 ln입니다
페르미디락 분포함수에 나오는 sigmoid함수네요~!
페르미-디랙 분포(Fermi-Dirac distribution) 처음 들었는데 흥미로운 내용인 것 같습니다.
교수님 죄송하지만 영상에 쓰인 PPT는 따로 구할 수는 없는지요?
죄송하지만 아직 공개는 하고 있지 않습니다. 추후 고려해 보겠습니다. 감사합니다.
절단값을 추정하는 '요덴의 인덱스(youden index) 기법' 이 무엇인지 아시는지요? ㅠㅠ
저도 처음 듣는 index 인데 검색을 해 보니 몇 가지 자료가 있네요...
m.blog.naver.com/PostView.naver?isHttpsRedirect=true&blogId=sharp_kiss&logNo=221794149640
선생님 저 고려대 붙여주세요
Aiing robots IingO2 bioingH2 nanoH6 robots O2OK