If you're seeing this message, it means we're having trouble loading external resources on our website.

웹 필터가 올바르게 작동하지 않으면 도메인 *. kastatic.org*.kasandbox.org이 차단되어 있는지 확인하세요.

주요 내용

(n-1)이 불편추정량을 내놓는다는 것을 보여주는 시뮬레이션

칸아카데미 사용자 테테프의 시뮬레이션은 (n-1)로 나누는 과정이 모분산에 대해 불편추정량을 가져다 줌을 보여줍니다. 시뮬레이션: http://www.khanacademy.org/cs/will-it-converge-towards-1/1167579097. 만든 이: 살만 칸 선생님

동영상 대본

여기 TETF라는 사용자가 만든 시뮬레이션이 있습니다 아마 tet f라고 발음할 듯 합니다 그리고 이 시뮬레이션은 왜 표본 분산을 구할 때 도수 n-1로 나누는지 이유를 직관하고 모수 분산의 공정한 추정을 하게 합니다 모수 분산의 공정한 추정을 주게 합니다 여러분이 처음부터 스스로 하여서 분포를 구할 수 있도록 바라면서 시작해 보겠습니다 먼저 파란색 영역을 클릭하여 모수를 만들라고 합니다 즉 모수를 생성하는 단계일 것입니다 제가 클릭할 때 마다 모수는 증가합니다 모수는 무작위로 증가하는 것이고, 여러분도 한번 들어가 보셔서 해보길 바라겠습니다 Khan Academy Computer Science 항목에 있습니다 직접 해보시길 바랍니다 그래서 어느 한 지점에 멈처 섰을 수 있고 저는 모수를 생성했습니다 많은 랜덤 지점 중에서 이 지점이 모수이고 제가 모수를 생성하는 동안 이 프로그램은 모수에 대한 변수를 계산하고 있었습니다 모평균은 204.09이고 모수 분산에서 계산된 표준 편차도 계산했습니다 모수 분산에서 계산된 표준 편차도 계산했습니다 모수 분산에서 계산된 표준 편차도 계산했습니다 표준편차는 분산의 제곱근이니까 63.8이 됩니다 여기 분산도 계산하고 있었습니다 표준편차인 63.8을, 보기 좀 더 어렵지만 제곱하였다고 설명되어 있습니다 이 숫자는 저 숫자들을 제곱한 것입니다 따라서 63.8²은 모수 분산이 됩니다 많이 신기하지만, 실제로 이건 왜 n-1로 나누는지에 대한 이유를 제시하지 않았습니다 이제부터가 궁금할 주제입니다 우린 이제 표본을 가져오기 시작했고 우리가 원하는 표본 크기를 조절할 수 있습니다 저는 가능한 가장 작은 크기의 표본으로 시작하겠습니다 아주 작은 표본으로 시작하겠습니다 이제 할것은 --시뮬레이션이 할 것은 제가 표본을 가져올 때마다 분산을 계산할 것입니다 그러면 분자의 값은 각 변량 지점을 모두 더해서 편차를 구한 뒤 제곱한 값일 것입니다 그리고 n+a의 값으로 나눌 것입니다 a는 때에 따라 달라질 것입니다 언급한 식을 나누는 범위는 n-3부터 n+a의 범위 내의 임의의 수일 것입니다 우리는 이 과정을 아주 많이 거칠 것이고 임의의 a에 대해서 분산의 평균을 구할 것입니다 그리고 어떤 추정이 가장 좋은지 알아볼 것입니다 만약 여기 있는 표본을 이용하면 다음과 같은 곡선이 생기고, a의 값보다 추정이 더 작습니다 a에 대한 값이 낮으면 우리는 모수의 분산을 크게 추정했다고 하지만, 이건 단지 하나에 표본에 불과하므로 별 의미는 없어 보입니다 크기가 2인 하나의 샘플입니다 이번에는 여러개의 표본들을 구해서 평균을 계산해 봅시다 그러면 매우 신기한 일들을 여러분들은 보실 수 있을 것입니다 이 표본들의 평균을 보면 이 표본들의 평균을 곡선으로 그리게 된다면 가장 좋은 추정이 a가 -1에 상당히 가까울 때이고, 이는 즉 n-1일 때를 의미합니다 만약 n이 -1.05나 -1.5로 매겨졌다면 분산을 우리는 더 크게 매기게 됩니다 -1보다 좁은 범위의 숫자들, 즉 n+0이거나 0.05로 계산하게 되면 n+0이거나 0.05로 계산하게 되면 모수 분산을 적게 매기게 됩니다 그리고 크기가 다른 표본에서도 가능합니다 크기가 6인 표본을 생각해 봅시다 그리고 저는 한 번 더 표본 만드는 버튼을 누르게 되고 더 많은 표본들을 만들게 됩니다 그리고 a에 대해서 우리는 이 분산들의 평균을 구해서 계산하는 방법에 따라 다른 분산이 나옵니다 여기 보시면 가장 좋은 추정이 -1에 가까운 것으로 보입니다 그리고 표본을 수 만개를 만든다면 가장 좋은 추정이 a가-1이거나 n-1일 때입니다 그래서 한번 더 TETF에게 감사드리며 n-1로 나누는 이유를 신기한 방법으로 구하게 되었습니다