[Statistics by hand] 2. Degree of freedom(D.O.F) and unbiased estimator (why divide by n-1?)

แชร์
ฝัง
  • เผยแพร่เมื่อ 15 ต.ค. 2024

ความคิดเห็น • 128

  • @eostatistics
    @eostatistics  4 ปีที่แล้ว +3

    글이 더 편하신 분
    hsm-edu.tistory.com/13

  • @passi3810
    @passi3810 6 ปีที่แล้ว +16

    와..... 정말 최고입니다!! 많은 교재들, 유튜브 동영상들, 블로그들을 봐도 이해가 안되었는데 정말 단번에 이해가 되네요. 정말 감사드립니다!

  • @AngeloYeo
    @AngeloYeo 6 ปีที่แล้ว +20

    정말 깔끔하게 잘 설명하시네요 :) 잘 듣고갑니다!

    • @eostatistics
      @eostatistics  4 ปีที่แล้ว

      감사합니다~!

    • @jlee3680
      @jlee3680 4 ปีที่แล้ว +1

      @@eostatistics 으아악 ㅋㅋ 요즘 재밌게 보기 시작한 두채널 사이가 좋네요 : ] 모두 계속 흥하시길!

  • @보노보노-h2c
    @보노보노-h2c ปีที่แล้ว

    이걸 이렇게 정리하는 사람은 어디에도 없다... 감동추!!!

  • @pur4selife
    @pur4selife 5 ปีที่แล้ว +2

    몇년간 묵혀있던 것들이 싹 내려가는 느낌입니다. 계속 좋은 강의 부탁드릴께요!!

  • @하민박사
    @하민박사 5 ปีที่แล้ว +2

    정말 감사합니다. 이 개념을 이해하기 위해서 구글 유튭 다 뒤져봤는데 드디어 제대로된 설명을 들었네요~. 통계비전공자이신데 정말 대단하신것 같습니다. 앞으로도 좋은 강의 부탁드립니다~.

  • @kimtaewoo5947
    @kimtaewoo5947 2 ปีที่แล้ว

    대박 채널을 발견한것 같아요. 감사합니다. 머신러닝 쪽 하는데 매번 통계는 대충 보고 넘겼는데 이제야 이해를 하고 넘어가네요.

  • @wonjic
    @wonjic 2 ปีที่แล้ว

    세상에 저같은 멍청이를 한번에 이해시키시다니 존경스럽습니다

  • @미드탈리야장인
    @미드탈리야장인 6 หลายเดือนก่อน

    찝찝함을 못참는성격인데 드디어 명쾌하게 알게됐네요

  • @won-heehan934
    @won-heehan934 6 ปีที่แล้ว +2

    왜 n-1로 나누는지 책에서 봤을 때 이해하기 힘들었는데, 머리에 쏙쏙 들어오게 알려 주셔서 고맙습니다~

  • @hydropascal
    @hydropascal 4 ปีที่แล้ว

    상식같지만 상식같지 않은 n-1로 나누는 이유를 시원하게 설명해 주고 있네요.

  • @minholee1351
    @minholee1351 4 ปีที่แล้ว

    아주 직관적으로 설명해주시는군요. 감탄 스럽습니다.

  • @Mephlonix
    @Mephlonix 3 ปีที่แล้ว

    도움이 되었습니다. 사후적 베타를 구할 때 자유도를 고려해서 표본수에서 1을 뺀 값을 사용한다는 얘기가 있었는데 무슨 소리인지 몰랐지만 덕분에 이해가 되었습니다. 통계도 재미있네요.

  • @HaeranKim
    @HaeranKim 6 ปีที่แล้ว +2

    이 개념에 대해 정말 이해가 안갔는데 이 강의 듣고 이해가 좀 되었어요~^^ 감사합니다.

  • @imgrooun3189
    @imgrooun3189 4 ปีที่แล้ว +5

    진짜 수학 싫어하는데 수학을 취미로 공부하고 싶게 만드시네요,,
    명강의 잘 듣고 갑니당ㅎ

  • @myunghee7231
    @myunghee7231 4 ปีที่แล้ว

    안녕하세요 항상 잘보고잇있습니다! 궁금한게 생겨서그러는데 variance와 MSE 이런건 혹시 강의가 있나요 ?그 둘의 차이가 헷갈려서ㅠMSE 는 불편추정량과 전혀상관없는건가요 ?ㅠㅠ v MSE 가 SSE 와 같은개념인가요ㅠㅠ 할수록 더 헷갈리네여ㅠㅜ ㅠㅠㅠ

  • @pskdn-u5p
    @pskdn-u5p 4 ปีที่แล้ว

    몇 시간동안 이해가 안 되서 끙끙대고 있었는데 이 영상보고 단번에 이해했어요ㅠㅠ 감사합니다ㅠㅠㅠㅠ

  • @김마리-x5e
    @김마리-x5e 2 ปีที่แล้ว

    그동안 들었던 설명중에 제일 쉽게 이해되네요. 감사합니다!

  • @느스-m6p
    @느스-m6p 3 ปีที่แล้ว

    n-1 로 나누는 이유를 단박에 이해했네요. 감사합니다.

  • @kbj8203
    @kbj8203 4 ปีที่แล้ว

    정말 이제까지 이해안 되었던 것 한번에 되었어요 ^^ 최고입니다.

  • @이가은-x5l
    @이가은-x5l 2 ปีที่แล้ว

    확률과 통계 배우다가 중요하게 다루어지는 부분은 아니지만 왜 n-1로 나누는 건지 궁금해져서 찾아봤는데 설명도 너무 잘하시고 재미있어요 감사합니당!!

  • @yluc4408
    @yluc4408 ปีที่แล้ว

    영상 너무 잘 보고 있습니다! 대학 수업 때 이해가 너무 안 돼서 유튜브 영상 찾았는데 선생님께서 제 한 줄기 빛이세요 감사합니다 혹시 표본 평균이 모평균 뮤의 불편추정량임을 어떻게 증명할 수 있을까요..?ㅠㅠ

    • @eostatistics
      @eostatistics  ปีที่แล้ว

      감사합니다
      3강에 나옵니다

  • @ilikeapple269
    @ilikeapple269 2 ปีที่แล้ว

    대학원 수업듣는데 진심 교수님보다 낫다

  • @이은별-i5m
    @이은별-i5m 4 ปีที่แล้ว +4

    선생니 초면에 죄송한데 사랑합니다ㅜㅜㅜㅜ흑흑 과제 할때 참고 많이 되었어요

  • @준-r4i
    @준-r4i 3 ปีที่แล้ว

    와 이원분산분석에서 MSAB의 자유도가 왜 (J-1)(K-1)인지 궁금했는데 영상보고 이해됐네요 고맙습니다

  • @skyearthjae
    @skyearthjae ปีที่แล้ว

    이 강의를 듣고 암이 나았습니다.

  • @박기묵-i7v
    @박기묵-i7v 3 ปีที่แล้ว

    배우신분.... 정말 궁금했던건데 고맙습니다.!

  • @crystallee8764
    @crystallee8764 5 ปีที่แล้ว +2

    정말 감사합니다 선생님... 덕분에 과제를 해결했습니다...

  • @MathXS
    @MathXS 5 ปีที่แล้ว +2

    "변수-표본평균"의 총합이 0이라서 자유도가 n-1이라고 하셨는데
    모집단도 "변수-모집단"의 총합도 역시 0입니다.
    자유도가 n-1인 이유는 다른 곳에서 찾아야 할 듯 합니다.
    저도 통계학 전공은 아니라서 어디서 찾아야 할지는 모른다는 게 함정이구요...

    • @olclocr
      @olclocr 5 ปีที่แล้ว

      변수의 입장 말고 편차의 입장에서 보시면 될 것 같습니다.
      다른 댓글로 길게 설명 달았습니다.

    • @mgenome
      @mgenome 5 ปีที่แล้ว

      이미 평균을 알고 있어서 마지막 Xn의 값이 정해져서 자유도가 n-1인 것 아닌가요?

  • @wr925
    @wr925 4 ปีที่แล้ว

    영상 정말 잘 보다가 궁금한 점이 생겨서 댓글을 남깁니다.
    표본 분산의 마지막이 종속변수가 됨으로서 독립변수가 n-1이 된다고 하신 부분에서 의문이 생기는데
    그러면 애초에 분산을 배울 때에도 편차제곱의 평균인데 그 때에도 똑같이 편차들의 합은 0으로 생각하고 풀면
    거기서도 종속 변수가 생기게 되는 게 아닌가요?

    • @eostatistics
      @eostatistics  4 ปีที่แล้ว +2

      편차들의 합은 항상 0입니다.
      뭘 헷갈리시는지 알 것 같네요.
      분산은 자유도와 별개로 정의된 개념입니다. 편차의 제곱의 평균입니다. 자유도가 등장하기전에 이 개념이 먼저 있었습니다.
      1,2,3,4,5 로 분산을 구할 때 독립변수 종속변수 개념은 없습니다. 편차의 제곱의 합을 N으로 나눠서 구하면 됩니다.
      모집단에서 표본을 뽑는 상황에서 등장한 개념이 불편추정량이고, 이때 독립 종속변수 개념을 적용하여 자유도가 등장합니다. 추출할 표본은 정해진 값이 아닌 확률'변수'이기 때문입니다. 표본평균이라는 확률변수는 표본을 뽑기도 전에 그 평균을 알 수가 있습니다. 표본평균의 평균이 모집단이라는 것이 표본을 뽑기도 전에 이미 결정되는 것입니다. 변수가 결정되기 전에 그 평균을 아는 것이죠. 따라서 독립변수 종속변수 개념을 적용할 수 있는 것입니다.
      위에서 예로든 1,2,3,4,5 는 변수가 아닙니다. 정해진 값입니다. 여기서는 독립변수 종속변수를 따질 수가 없습니다. 중학교때 배우는 기본적인 분산의 정의가 먼저입니다.

    • @wr925
      @wr925 4 ปีที่แล้ว

      @@eostatistics 오래된 영상임에도 친절한 답변 감사합니다.
      변수가 아닙니다라는 답글에 이해가 확 됐습니다. 순간적으로 어떤 착각을 했던 것인지 알게 되고 반성하게 되네요.
      영상 늘 잘보고 있습니다.
      코로나 조심하시고, 늘 좋은 영상들 기대하고 응원하겠습니다.

    • @eostatistics
      @eostatistics  4 ปีที่แล้ว

      @@wr925 감사합니다^^

  • @user-jy7fe5is8k
    @user-jy7fe5is8k 4 ปีที่แล้ว

    좋은 강의 감사합니다.! 통알못이라 그런지 헷깔리는 부분이 있습니다.., 표본의 편차의 자유도에서 마지막 Xn-Xbar가 종속변수가 되어서 n-1이 되는 것이라 하셨는데 그렇다면 모집단에서도 똑같은 방식으로 한다면 자유도가 표본처럼 n-1이 될 수 있는 것 아닌가요?

    • @eostatistics
      @eostatistics  4 ปีที่แล้ว +2

      통계학에서 자유도는 표본에서만 사용됩니다만. 한번 모집단에서 생각을 해보겠습니다.
      모집단의 평균을 구하는 상황이라면 모집단의 평균을 모르는 상태일 것입니다. 모집단의 크기가 n이라고 한다면, n개의 독립변수와 모집단의 평균이라는 1개의 종속변수로 생각할 수 있고 자유도는 n이 됩니다.
      표본평균의 평균을 구할때 자유도가 n-1인 이유는 표본평균의 평균을 이미 알고 있기 때문입니다. 반면 모집단의 평균을 구할때는 그 값을 모르는 상황이므로 모집단의 평균이 종속변수가 됩니다.

  • @유성룡-t5i
    @유성룡-t5i 3 ปีที่แล้ว

    교수놈이 자유도 설명 잘 안 해줘서 왔는데 와 바로 이해했어요. 감사합니다 ㅠㅠ

  • @zhkim73
    @zhkim73 4 ปีที่แล้ว

    27강을 없애셨나요? 그 강의에 올린 제 질문에 아직 답을 안해주신 것 같아서 다시 올려봅니다. 모집단의 분산을 모르면 t검정을 사용한다고 했는데. 우리가 앞서 unbiased 표본분산을 구할때 n-1로 나누면 모집단의 분산과 가까워짐을 증명했기에 s^2대신 n-1로 나눈 unbiased 표본분산을 구해주면 모집단의 분산(시그마^2)을 추정할 수 있고 이로인해 z검정을 그대로 사용할 수 있지 않나요?

    • @eostatistics
      @eostatistics  4 ปีที่แล้ว +1

      답글을 달았었는데 못보신 상태로 지웠나봅니다~
      불편추정량은 표본통계량의 평균이 모집단의 통계량과 같아지는 것입니다.
      예를들어 표본평균이 불편추정량인 이유는 표본평균의 평균이 모집단의 평균과 같기 때문입니다.
      E(표본평균) = 모집단의 평균
      표본분산을 구할 때는 n-1로 나눠야 불편추정량이 됩니다.
      표본분산의 평균이 모분산입니다. 우리가 뽑은 하나의 표본에서 얻은 표본분산이 모분산이 되는 것이 아닙니다.
      표본을 무한번 추출하여 얻은 표본들의 분산을 구하고. 다시 그 분산들의 평균을 구한 것이 모분산과 같아집니다.
      표본분산을 구할 때 n-1 로 나누면, 그게 바로 모분산이 되는 것이 아닙니다. n-1로 나눠서 구한 표본분산'들'의 '평균'이 모분산이 됩니다

  • @Korean_Million_Youtuber
    @Korean_Million_Youtuber 2 ปีที่แล้ว

    안녕하세요 통계의 ㅌ 자도 모르는 학생인데요 ㅜㅜ "s²을 n-1로 나눈다"에서 표본분산은 한 표본 내 분산인가요 표본들 간 분산인가요? 도와주세요ㅜㅜ

    • @eostatistics
      @eostatistics  2 ปีที่แล้ว +1

      한 표본의 분산입니다.

  • @JP-us8ym
    @JP-us8ym 4 ปีที่แล้ว

    안녕하세요, 강의 너무 잘 듣고 있다가 궁금점이 생겨서 댓글남겨봅니다.
    표본분산을 구할때 불편추정량을 만들기 위해 n-1로 나눈다고 하셨는데 왜 불편추정량으로 만드는것이 중요한지요?
    편의가 있으면 안되는 이유를 알고 싶습니다.

    • @eostatistics
      @eostatistics  4 ปีที่แล้ว +1

      편의가 있는게 잘못은 아닙니다. 다만 불편추정량을 정의하면 사용이 편리하고, 수학적으로 확장하기가 쉬워집니다^^

    • @JP-us8ym
      @JP-us8ym 4 ปีที่แล้ว

      @@eostatistics 감사합니다ㅎㅎ

  • @ssrho
    @ssrho 6 ปีที่แล้ว +1

    강의 잘 보고 있습니다^^ 감사합니다.

    • @eostatistics
      @eostatistics  4 ปีที่แล้ว

      네 시청해주셔서 감사해요~

  • @김지원-q8p
    @김지원-q8p 6 หลายเดือนก่อน

    t 때문에 고생하고 있었는데 정말 감사합니다

  • @zhkim73
    @zhkim73 4 ปีที่แล้ว

    제가 선택하게 되는 샘플 하나에 집중해서 이해를 잘 못했네요. 그럼 “각각의 샘플들의 표본평균 X1bar, X2bar, ... Xnbar 이들의 평균이 모집단의 평균과 같아질때 (같아지므로 n이 무한대라면) 이때 X1bar, X2bar, ... Xnbar 각각을 불편추정량이라고 하며 그리고
    각각의 샘플들의 n-1 로 나눈 표본분산 시그마1^2, 시그마2^2, ... 시그마n^2 들의 평균이 모집단의 분산과 같아질때 (같아지므로 n이 무한대라면) 이때 시그마1^2, 시그마2^2, ... 시그마n^2 각각을 불편추정량이라고 한다”고 생각하면 맞나요?

  • @이승민-v9l5w
    @이승민-v9l5w 4 ปีที่แล้ว

    대학원와서 통계때문에 헤매고 있는데 너무 도움이 되어요! 감사합니다^^
    그런데 궁금한 점이 E( ) 기댓값이 잘 이해가 안가는데ㅜ E(S제곱)이면 표본 분산들의 기댓값이면 곧 표본 분산들의 평균을 구해준다는 의미인가요?

  • @김영범-i1i
    @김영범-i1i 6 หลายเดือนก่อน

    6:47 ~ 편차의 총합=0이 성립하기 때문에 자유도가 n-1이라면, 모분산에 대해서도 자유도가 동일하게 n-1이 성립해야하는 것 아닌가요?

    • @김영범-i1i
      @김영범-i1i 6 หลายเดือนก่อน

      아!! 모분산에 대해서도 자유도는 n-1이군요!
      단지 모분산을 계산할 때 자유도를 사용하지 않고 n으로 계산해서 마지막에 논리의 순서가
      '표준분산을 구할때 자유도(n-1)로 나누는 것이 아니라, 표준분산을 구할때 불편추정량을 반영하기 위해 n-1로 나누고 보니, 그 값이 자유도와 같더라~'라는 결론이 되는 거군요!!

  • @mrjwlee0807
    @mrjwlee0807 3 ปีที่แล้ว

    사회과학 전공이고 통계 배우기 시작한지 얼마 안됬습니다. 만약 이 강의가 없었다면 제가 얼마나 힘들어했을지 생각했을때, 너무 크게 감사할 따름입니다. 좋은 강의 만들어주신 선생님께 감사의 말씀은 꼭 나기고 싶습니다.
    한가지 궁금한 점이 있는데, 혹시 바쁘시지 않으실 때 확인해주시면 너무 감사할 것 같습니다. 7:05 에서 말씀하신 "n-1개가 정해지면" 이라는 의미는
    (1) n-2, 혹은 n-3인 경우도 있다는 말씀인지, 아니면
    (2) 자유도는 항상 n-1개가 된다는 말씀인지 구분을 부탁드립니다.
    만약 (2)라면 어떤 경우에서든 '종속'적으로 정해지는 경우는 n-1개의
    경우를 제외한 단 한 건이다 라고 이해를 하면 될지 궁금합니다.
    거듭, 좋은 강의 감사합니다.
    통계 배우면서 꾸준히 정주행 하겠습니다.

    • @eostatistics
      @eostatistics  3 ปีที่แล้ว

      2로 이해하시면 됩니다^^

  • @박세진-j5l
    @박세진-j5l 4 ปีที่แล้ว

    감사합니다. 강의 잘 보고 있습니다. 한가지 궁금한 점이 있어서 댓글 남기게 되었습니다.
    s^2=E((X(i)-X(X bar))^2)로 표현 할 수 있는 건가요??

    • @eostatistics
      @eostatistics  4 ปีที่แล้ว

      i는 아래 첨자인가요?
      i가 1부터 n까지 바뀌는 첨자라면 시그마기호와 함께 사용해주셔야합니다~

    • @박세진-j5l
      @박세진-j5l 4 ปีที่แล้ว

      @@eostatistics 답변 감사합니다. 한가지 더 궁금한 것이 1강에서 v(x)를 구하셨을때 E((x(i 아래 첨자)-m)^2)이라 하셨는데 여기는 왜 시그마가 안들어 가는 것인가요??

    • @eostatistics
      @eostatistics  4 ปีที่แล้ว

      실수인거같아요~1강 더보기에 블로그글 링크게 있는데 글에는 시그마가 있습니다~

  • @jaykang6199
    @jaykang6199 5 ปีที่แล้ว

    안녕하세요. 우선 너무 잘 봤습니다. 그런데 다른 통계량을 보다보면 ㄹ자유도가 무리수로 나오는 경우도 있습니다. 이는 어떤 경우일까요?

    • @eostatistics
      @eostatistics  5 ปีที่แล้ว

      무리수 자유도를 어디서 보셨는지 알려주실 수 있을까요?

    • @jaykang6199
      @jaykang6199 5 ปีที่แล้ว

      @@eostatistics 예전에 어떤 검정통계량에서 자유도가 무리수로 나오는 걸 본 기억이 있고, 또 어떤 통계강사가 언급한 거를 들은 적이 있어서요. 검색해보다가 이런 걸 찾았습니다. stats.stackexchange.com/questions/280851/can-degrees-of-freedom-be-a-non-integer-number
      genearlised 된 정의가 필요하다고 하는데, 정확히 어떤 상황인지는 모르겠네요

  • @하늘보링-c6i
    @하늘보링-c6i 6 ปีที่แล้ว

    감사합니다. 이해가 잘되네요! 훌륭한설명 감사합니다@@

  • @wendy-wk4hx
    @wendy-wk4hx 4 ปีที่แล้ว

    ㅠㅠ 바로 이해됐어요 역시 유튜브에 검색해보길 잘했네요.... 감사합니다ㅠㅜ!!!!!!

  • @jingyu_park
    @jingyu_park 3 ปีที่แล้ว

    자유도 설명하면 맨날 n-1만 이야기 하면 x+y+c = 10 이런 예제만 나오는데,
    표본 분산에서 편차의 합이 0이기 때문에 독립변수의 수가 n-1이 된다는걸로 연결 된다는 점이 정말 놀랍네요.

  • @LimIt-Edu
    @LimIt-Edu 5 หลายเดือนก่อน

    진짜 감사해요....😢

  • @불의보면졸도
    @불의보면졸도 5 ปีที่แล้ว +1

    이제 막 강의를 보기 시작했습니다. 강의가 1분만 나오고 이후엔 진행이 되지 않는데 왜그럴까요? 참고로 휴대폰으로 보고 있습니다.

    • @eostatistics
      @eostatistics  5 ปีที่แล้ว

      유튜브 오류같습니다. 저는 잘 재생됩니다~

  • @TV-ls9ku
    @TV-ls9ku 6 ปีที่แล้ว

    좋은 강의 잘 보고 갑니다~~^^
    그런데요 이거 갤노트8 로 설명하신거 같은데 맞나요? 저도 이기능을 쓰고 싶었는데 어느 버튼을 조작해야할지 모르겠네요 ㅜㅜ 알려주심 감솨요~~^^

    • @eostatistics
      @eostatistics  6 ปีที่แล้ว

      안건희 갤럭시텝 s3로 했습니다~기본으로 깔려있는 삼성노트 썼어요

  • @iuoom-o3k
    @iuoom-o3k 5 ปีที่แล้ว

    고등학교때도 통계수업을 들을때 암기위주라 이해없이 받아들여서 납득이 잘 안간상태로 대학에 왔고.. ㅠㅠ전공수업중에도 R통계가 있었는데 이해도 못하고 남는거 없이 날려버려서 아쉬웠는데다가, 그럼에도 불구하고 앞으로 사용할일이 많을 것같아 차례대로 들으면서 이론먼저 이해해보려합니다! 그리고 방학때 R을 포함한 다른 프로그램도 천천히 공부해보려는데 많은 도움 될것같아요 감사합니다!

  • @Hongdangpongdang
    @Hongdangpongdang 6 ปีที่แล้ว

    불편추정량이 표본 평균의 기댓값이 모수와 같아질때의 추정량(표본평균)이라고 하셨는데
    그럼 그 모수와 같은 특정표본집단의 추정량을 불편추정량이라고 부른다는 건가요?

    • @eostatistics
      @eostatistics  6 ปีที่แล้ว

      표본평균의 기댓값은 항상 모평균과 같습니다. 이후강의에서 증명합니다.

  • @강연수-r2r
    @강연수-r2r 5 ปีที่แล้ว

    대단한 이해도네요

  • @life7die4
    @life7die4 6 ปีที่แล้ว +2

    감사합니다.

  • @용천지-c1g
    @용천지-c1g 9 หลายเดือนก่อน

    설명 폼 미첫다 굳굳

  • @doordoharmm6791
    @doordoharmm6791 ปีที่แล้ว

    모수는 분모인가영

  • @연제호-k1d
    @연제호-k1d 5 ปีที่แล้ว

    좋은 강의 감사합니다 :)

    • @eostatistics
      @eostatistics  4 ปีที่แล้ว

      시청해주셔서 감사합니다ㅎㅎ

  • @나는나-u1g
    @나는나-u1g 3 ปีที่แล้ว

    강의 잘 들었습니다. 그런데 궁금한 것이 있는데 제가 다른 책에서 보기로는 표본분산은 필연적으로 모분산에 비해 분산이 작을 수 밖에 없다는 bias가 있기 때문에 n-1로 나눠준다고 이야기를 하였습니다. 그리고 바로 이어서 설명해 주신 것과 같이 표본분산을 구할 때에는 n-1이라는 자유도로 나누게 되는 것이 표본분산을 구할 때에는 이미 평균이 정해져 있기 때문에 vary할 수 있는 숫자가 1개 적을 수 밖에 없다고 하였습니다.
    제가 궁금한 점은 이 두가지 사실이 무슨 관련이 있는지 잘 모르겠다는 것 입니다. 즉, 왜 자유도로 나누어야 불편 추정량이 되는 것인가요? 변인들이 vary가능 여부가 bias에 중요한 역할을 하는것 인가요? 아니면 그냥 수학적으로 n-1을 넣었을 때 bias가 없었기 때문에 n-1로 정한 것인가요?(이렇게 되면 맨 앞에서 설명하신 변인들의 vary 여부는 왜 언급이 된 것인지.. 잘 모르겠습니다. 그냥 수학적으로 편향이 없어져서 n-1로 정한 것이라면요)

    • @eostatistics
      @eostatistics  3 ปีที่แล้ว +1

      표본은 모집단이 궁금하기 때문에 뽑습니다. 모집단을 전부 조사할 수 없어 표본을 뽑는 것이고, 모집단의 통계량을 추측하기 위해 표본통계량을 구합니다.
      표본평균은 모평균의 좋은 추정량입니다. 표본평균들의 평균이 모평균이기 때문입니다. 이를 불편추정량이라고 합니다.
      표본분산은 모분산의 추정에 사용됩니다. 하지만 표본분산의 평균은 모분산이 아닙니다. 그렇게 만들어주기 위해 n대신 n-1로 나눠주었습니다. 불편추정량으로 만든 것입니다.
      나눠놓고 보니 n-1은 자유도와 같았습니다.
      n-1로 나누게된 이유는 표본분산을 모분산을 추정하기 좋은 불편추정량으로 만들기 위함이라고 알고 있습니다.
      모분산에 비해 분산이 작을 수 밖에 없다는 편의가 있다는것도 같은 맥락으로 이해할 수 있을 것 같습니다. 만약 n으로 나눈 값을 사용한다면 표본분산의 분포의 평균은 모분산보다 작을 것입니다. n-1로 나눠줌으로써 표본분산의 평균을 크게 만들어주어 모집단의분산과 같게 해준 것이라 볼 수도 있습니다

  • @김관동-g2b
    @김관동-g2b 5 ปีที่แล้ว +1

    감사합니다!

    • @eostatistics
      @eostatistics  4 ปีที่แล้ว

      시청해주셔서 감사합니다~

  • @Quantrader-n4r
    @Quantrader-n4r 2 ปีที่แล้ว

    이분을 왜 이제 알았지

  • @김동혁-x8f1h
    @김동혁-x8f1h 5 ปีที่แล้ว

    모수를 기댓값 또는 분산으로 아무거나 설정해도 상관없나요?

    • @eostatistics
      @eostatistics  5 ปีที่แล้ว

      표본분산일 경우에 n-1 로 나눕니다

    • @김동혁-x8f1h
      @김동혁-x8f1h 5 ปีที่แล้ว

      추정량의 기댓값=모수(불편추정량이 된다)
      표본평균의 기댓값= 모평균 으로하시고
      표본분산의 기댓값= 모분산 으로 하셨는데
      여기서 모평균으로 하든 모분산으로 하든 상관없나요? (모평균과 모분산은 모수이니까)

    • @eostatistics
      @eostatistics  5 ปีที่แล้ว +1

      네 모수가 더 큰 개념입니다. 평균,분산은 못 에 속합니다. 모수를 뭘로 정하든 무관해요

  • @Hongdangpongdang
    @Hongdangpongdang 6 ปีที่แล้ว +2

    이거지 👍

  • @taeckha2500
    @taeckha2500 4 ปีที่แล้ว

    강의에서 언급하신 E(x̅)는 표본평균이 아닌 표본평균의 평균아닌가요?

    • @eostatistics
      @eostatistics  4 ปีที่แล้ว

      4:02 표본평균들의 기댓값이라고 했습니다. 혹시 다른부분에서 표본평균이라고 했다면 실수한거에요~말씀하신 표본평균의 평균이 맞습니다~

    • @taeckha2500
      @taeckha2500 4 ปีที่แล้ว

      @@eostatistics 답변 감사합니다.

  • @나래-f8o
    @나래-f8o 4 ปีที่แล้ว

    기댓값이 평균이라는 뜻인가요??

    • @eostatistics
      @eostatistics  4 ปีที่แล้ว +1

      네 그렇습니다

    • @나래-f8o
      @나래-f8o 4 ปีที่แล้ว

      @@eostatistics 감사합니다!!

  • @염지호-p5r
    @염지호-p5r 2 ปีที่แล้ว

    설명 개지린다

  • @user-dustlrlaWkd
    @user-dustlrlaWkd 4 หลายเดือนก่อน

    7:28