ブログ

統計検定1級 統計応用 問題解説 ~2019年11月実施 理工学 問3~

統計検定1級の2019年11月の「統計応用、理工学」の問3の解答例と解説について取り扱いました。他の問題の解答に関しては下記よりご確認ください。
https://www.hello-statisticians.com/stat_certifi_1_app

問題

詳しくは統計検定公式よりご確認ください。

解答

$[1]$
因子が割り当てられない第$[3], [5], [6]$列による変動が誤差であると考えられるので、誤差平方和は$2+1+3=6$と計算できる。ここで自由度$3$より誤差分散は$6/3=2$であり、因子$A$の$F$値は$5/2=2.5$、因子$B$の$F$値は$4/2=2$のようにそれぞれ計算できる。

また、実験順序は実験全体の順序を無作為に決めた例を選べば良いので、順序$2$が適切であると考えることができる。

$[2]$
交互作用$A \times B$の変動は第$[3]$列に現れると考えることができる。よって、誤差平方和は$1+3=4$、自由度が$2$であるので、誤差分散は$4/2=2$のように計算できる。これより交互作用$A \times B$の$F$値は$2/2=1$であると考えることができる。

$[3]$
因子$A$を$1$次因子、因子$B,C,D$を$2$次因子とする場合には第$[2]$列に基づいて$1$次因子の順序を無作為化し、その後に$2$次因子の順序を無作為化すれば良い。したがって順序$4$が適切であると考えることができる。

$[4]$
$[1]$の完全無作為化実験の場合は$8$回の焼成である一方で、$[3]$の分割実験の場合は$4$回の焼成となる。

$[5]$
$1$次誤差は第$[1],[3]$列に現れ、その誤差分散は$2+2/2=2$と推定できる。これより、$A$の$F$値は$5/2=2.5$のように計算できる。一方で$2$次誤差は第$[6]$列に現れ、その誤差分散は$1/1=1$と推定できる。これより、因子$B,C,D$の$F$値はそれぞれ$4,1,1$のように計算できる。

解説

直交表を用いた実験計画法を考えるにあたって、ここで用いられた$L_8(2^7)$型直交表はよく出てくるので抑えておくと良いと思います。

4章 「確率モデル」の演習問題解答例 〜入門統計解析〜

当記事は「倉田+, 入門統計解析 (新世社)」の読解サポートにあたって4章「確率モデル」の演習問題を解説します。
基本的には書籍の購入者向けの解説なので、まだ入手されていない方は下記より入手をご検討ください。また、解説はあくまでサイト運営者が独自に作成したものであり、書籍の公式ページではないことにご注意ください。(そのため著者の意図とは異なる解説となる可能性はあります)

執筆:@masumasumath1

演習問題解答例

問題4.1

問題4.2

問題4.3

問題4.4

問題4.5

4.5.1

まず期待値$E(X)$を求める。

$$
\begin{align}
E(X) &= \int_{-\infty} ^ {\infty} x f(x) dx \\
&= \int_{\alpha} ^{\beta} x f(x) dx \\
&= \int_{\alpha} ^{\beta} x \frac{1}{\beta – \alpha} dx \\
&= \frac{1}{\beta – \alpha} \left[ \frac{1}{2}x^2 \right] _ {\alpha} ^{\beta} \\
&= \frac{1}{\beta- \alpha} \frac{(\beta ^2 – \alpha^2)}{2} \\
&= \frac{\beta + \alpha}{2}
\end{align}
$$

$V(X) = E(X^2) – E(X)^2$を用いて分散を計算する。

$$
\begin{align}
E(X^2) &= \int_{-\infty} ^ {\infty} x^2 f(x) dx \\
&= \int_{\alpha} ^{\beta} x^2 f(x) dx \\
&= \int_{\alpha} ^{\beta} x^2 \frac{1}{\beta – \alpha} dx \\
&= \frac{1}{\beta – \alpha} \left[ \frac{1}{3}x^3 \right] _ {\alpha} ^{\beta} \\
&= \frac{1}{\beta- \alpha} \frac{(\beta ^3 – \alpha^3)}{3} \\
&= \frac{1}{\beta- \alpha} \frac{(\beta – \alpha)({\beta}^2 + \beta \alpha + {\alpha}^2)}{3} \\
&= \frac{{\beta}^2 + \beta \alpha + {\alpha}^2}{3}
\end{align}
$$

従って,分散$V(X)$は

$$
\begin{align}
V(X) &= E(X^2) – E(X)^2 \\
&= \frac{{\beta}^2 + \beta \alpha + {\alpha}^2}{3} – \left(\frac{\beta + \alpha}{2}\right)^2\\
&= \frac{{\beta}^2 – 2\beta \alpha + {\alpha}^2}{12} \\
&= \frac{(\beta – \alpha)^2}{12}
\end{align}
$$

4.5.2

4.5.1と同様に計算すればよい。
まず期待値$E(X)$を求める。

$$
\begin{align}
E(X) &= \int_{-\infty} ^ {\infty} x f(x) dx \\
&= \int_{-1} ^{1} x f(x) dx \\
&= \int_{-1} ^{1} x(1-|x|) dx \\
&= \int_{-1}^{0} x(1+x) dx + \int_{0}^{1}x(1-x)dx \\
&= \left[ \frac{1}{2} x^2 + \frac{1}{3} x^3 \right]_{-1}^{0} + \left[ \frac{1}{2} x^2 – \frac{1}{3} x^3 \right]_{0}^{1} \\
&= -\frac{1}{2} + \frac{1}{3} + \frac{1}{2} – \frac{1}{3} \\
&= 0
\end{align}
$$

期待値の線形性から $E(2X+5) = 2E(X)+5$ であるから$$E(2X+5) = 2E(X)+5 = 2\cdot 0 + 5 = 5$$である。

$$
\begin{align}
E(X^2) &= \int_{-\infty} ^ {\infty} x^2 f(x) dx \\
&= \int_{-1} ^{1} x^2 f(x) dx \\
&= \int_{-1}^{0} x^2(1+x) dx + \int_{0}^{1}x^2(1-x)dx \\
&= \left[ \frac{1}{3}x^3 + \frac{1}{4}x^4\right]_{-1}^{0} + \left[ \frac{1}{3}x^3 – \frac{1}{4}x^4\right]_{0}^{1} \\
&= \frac{1}{3} -\frac{1}{4} + \frac{1}{3} – \frac{1}{4} \\
&= \frac{1}{6}
\end{align}
$$

分散$V(X)$は

$$
\begin{align}
V(X) &= E(X^2) – E(X)^2 \\
&= \frac{1}{6}
\end{align}
$$

4.5.3

$P(-\infty \leq X \leq \infty) = P(0 \leq X \leq 1) = 1$であるから,${\displaystyle \int_{0}^{1} ax^2 dx = 1}$が成り立つ。従って,

$$
\begin{align}
\int_{0}^{1} ax^2 dx &= 1 \\
\left[ \frac{1}{3}ax^3\right]_{0}^{1} &= 1 \\
\frac{1}{3}a &= 1 \\
\end{align}
$$

となる。よって $a = 3$ である。

$$
\begin{align}
P\left(X > \frac{1}{2} \right) &= P\left(\frac{1}{2} < X < 1 \right) \\
&= \int_{\frac{1}{2}}^{1} 3x^2 dx \\
&= \left[x^3 \right]_{\frac{1}{2}}^{1} \\
&= 1-\frac{1}{8} \\
&= \frac{7}{8}
\end{align}
$$

4.5.4

ここまでと同様に,

$$
\begin{eqnarray*}
    E(X) &=&  \int_{-\infty} ^ {\infty} x f(x) dx \\
     &=& \int_{0} ^{1} x f(x) dx \\
    &=& \int_{0} ^{1} x \{ 6x(1-x) \} dx \\
    &=& 6\int_{0}^{1}(x^2 – x^3)  dx \\
    &=& 6\left[ \frac{1}{3}x^3 -\frac{1}{4}x^4 \right]_{0}^{1} \\
    &=& \frac{1}{2}
\end{eqnarray*}
$$

$$
\begin{eqnarray*}
    E(X^2) &=&  \int_{-\infty} ^ {\infty} x^2 f(x) dx \\
     &=& \int_{0} ^{1} x^2 f(x) dx \\
    &=& 6\int_{0}^{1}(x^3-x^4)  dx \\
    &=& 6\left[ -\frac{1}{5}x^5 + \frac{1}{4}x^4\right]_{0}^{1} \\
    &=& \frac{3}{10}
\end{eqnarray*}
$$

$$
\begin{eqnarray*}
V(X) &=& E(X^2) – E(X)^2 \\
    &=&  \frac{1}{20}
\end{eqnarray*}
$$

4.5.5

$X$ の基準化変量を $Z$ とすると,${\displaystyle Z = \frac{X-50}{10}}$ であり,$Z \sim N(0,1)$ である.これと正規分布表を利用して値を計算する.

(1)

\begin{eqnarray*}
    P(70 \leq X) &=& P\left(\frac{70-50}{10}  \leq \frac{X-50}{10} \right)\\
                        &=& P(2  \leq Z ) \\
                        &=& 1- P(Z < 2) \\
                        &=& 1- 0.977 \\
                        &=& 0.023
\end{eqnarray*}

(2)

\begin{eqnarray*}
    P(40 \leq X \leq 60) &=& P\left(\frac{40-50}{10}  \leq \frac{X-50}{10}  \leq \frac{60-50}{10}\right)\\
                        &=& P(-1  \leq Z  \leq 1) \\
                        &=& 2\times (0.841-0.5) \\
                        &=& 0.6826
\end{eqnarray*}

※本誌では,正規分布表として,$\Phi(a) = P(X\leq a )$の値が与えられている.それを用いると,

$P(-1 \leq Z \leq 1) = 2\times (P(Z \leq 1)-P(Z \leq 0) )  =2\times (0.841-0.5) $である.正規分布表に応じて計算する.

(3)

$(1)$,$(2)$ と同様に計算すればよい.

$P(X \leq 55) = P(Z  \leq 0.5) = 0.691$

4.5.6

ビスの直径を$X$とすると,$X \sim N(2.7998, 0.0005^2)$ である.
不合格となる割合は$1-(合格する割合)$であるから,
$$ 1 – P(2.8000-0.0007 \leq X \leq 2.8000 + 0.7) $$を求めれば良い.

ここで$X$ の基準化変量を $Z$ とすると,${\displaystyle Z=\frac{X-2.7998}{0.0005}}$である.
よって,合格する割合は

\begin{eqnarray*}
P(2.8000-0.0007 \leq X \leq 2.8000 + 0.0007) &=& P \left( \frac{-0.0005}{0.0005} \leq Z \leq \frac{0.0009}{0.0005} \right) \\
                                                                 &=& P(-1 \leq Z \leq 1.8) \\
                                                                 &=& \Phi(1.8) – (1-\Phi(1)) \\
                                                                 &=& 0.964 – (1-0.842) \\
                                                                 &=& 0.805
\end{eqnarray*}

となる.従って,不合格となる割合は$1-0.805 = 0.195$である.

4.5.7

品切れになるのは,(需量要)$\geq$ (在庫量)となるときなので,$P(需要量\geq 在庫量)\leq 0.05$となる条件を求める.つまり,在庫量を$a$とおいて,$P(X\geq a) \leq 0.05$を満たす$a$を求めればよい.
ここで,$P(X\geq a) \leq 0.05$は$P(X\leq a) \geq 0.95 $と変形できる.
これと$X\sim N(200,25^2)$であるから${\displaystyle Z=\frac{X-200}{25} }$とおくことで

\begin{eqnarray*}
P(X\geq a) &\geq& 0.95 \\
P \left( Z\leq \frac{a-200}{25} \right) &\geq& 0.95 
\end{eqnarray*}

となる.

正規分布表から$P(Z \leq 1.64) \leq 0.95$であるから,これを満たす$a$は ${\displaystyle 1.64 \leq \frac{a-200}{25} }$ を解いて,$241 \leq a$を得る.従って,241(t) 以上あればよい.

4.5.8

$Y=\mu + X = 10 + X$と表される.$X\sim N(0,\sigma^2) = N(0, 0.001^2)$であるから,$Y \sim N(\mu, \sigma^2) = N(10,0.001^2)$である.
つまり,平均$10$,分散$0.001^2$の正規分布に従う(テキストの定理4.21を用いた).

4.5.9

国語の成績を$X$(点)とすると,$X \sim N(64,13^2)$である.$ \displaystyle{ Z = \frac{X-64}{13}}$とすると,$Z \sim N(0,1)$である.

(1) $P(64-20 \leq X \leq 64+20 )$を求める.

$$
\begin{eqnarray*}
   P(64-20 \leq X \leq 64+20 ) &=& P (44 \leq X \leq 84) \\
                               &=& P \left(\frac{44-64}{13} \leq Z \leq \frac{84-64}{13} \right) \\
                               &=& P (-1.54 \leq Z \leq 1.54) \\
                               &=& 2\times ( \Phi(1.54) – 0.5 ) \\
                               &=& 2\times (0.938 – 0.5) \\
                               &=& 0.876
\end{eqnarray*}
$$

(2) 上位$5\%$である成績を$a$(点)とすると,$P(X \geq a) = 0.05$が成り立つ.また,$P(X \geq a) = 0.05 \iff P(X \leq a) = 0.95$ である.
正規分布表から  $P(Z \leq 1.64) = 0.95$であり,$\displaystyle{Z = \frac{X-64}{13}}$であったから,
$P(X \leq 85.3) = 0.95$である.したがって,$86$ 点以上取れば上位$5\%$に入る.

(3) $P(X \leq 40)$を求める.

$$
\begin{eqnarray*}
   P(X \leq 40) &=& P\left(Z \leq \frac{40-64}{13}\right) \\
                &=& P(Z \leq -1.85) \\
                &=& 1-P(Z \leq 1.85) \\
                &=& 1-0.968 \\
                &=& 0.032
\end{eqnarray*}
$$

従って,$40$点は下位$3.2\%$である.

4.5.10

次の客が到着するまでの時間間隔が$X$(分)であるから,$X$は指数分布に従う.$1$時間あたり$20$人の客が来るので,$1$分あたり$20/60 = 1/3$(人)が到着する.
従って,$X$は$\lambda = 1/3$の指数分布に従う($X \sim Ex(1/3)$である).
よって,期待値 $ E(X) = 3$である.また,確率密度関数$f(x)$は

$$
\begin{eqnarray*}
f(x) =
\left\{
    \begin{array}{ll}
       \displaystyle \frac{1}{3}e^{-\frac{1}{3}x} & (x > 0) \\
                                                  &            \\ %空白行%           
       \displaystyle 0                            & (x \leq 0) \\
    \end{array}
\right\} .
\end{eqnarray*}
$$

であるから,$P(X \geq 5) = 1 – P(X \leq 5) = 1 – (1-e^{-\frac{5}{3}}) = e^{-\frac{5}{3}} \approx 0.189$.
(ここで,テキストp.155の$P(X \leq a) = 1-e^{-\lambda a}$を利用した.)

4.5.11

客が到着する時間間隔を$X$(分)とする.$1$時間あたり平均$5$人の客が訪れるので$5/60 = 1/12$(人/分)である.従って,$X \sim  Ex(1/12)$である.通常時の開店時刻から$5$分以内に到着していれば,$5$分以上待つことになる.つまり,$P(X \leq 5)$が求める確率であり,その値は

$$
P(X \leq 5) = 1-e^{-\frac{5}{12}} = 0.341
$$

4.5.12

定理4.23(前半)

$X\sim Ex(\lambda)$ のとき,任意の正の実数 $a$,$b$に対して,次が成り立つことを示す.

$$
   P(X > a+b | X > b) = P(X > a)
$$

証明

$X\sim Ex(\lambda)$とする.すると,密度関数$f(x)$は,

$$
\begin{eqnarray*}
f(x) =
\left\{
   \begin{array}{ll}
      \displaystyle \lambda e^{-\lambda x} & (x > 0) \\
      \displaystyle 0                      & (x \leq 0) \\
   \end{array}
\right\} .
\end{eqnarray*}
$$

である.また,

$$
\begin{eqnarray*}
   P(X>b) &=& \int_b ^\infty f(x) dx \\
          &=& \left[ – e^{-\lambda x}\right]_b^\infty \\
          &=& e^{-\lambda b}
\end{eqnarray*}
$$

さらに,$P(X>a+b \land X > b) = P(X>a+b)$であるから,$P(X>b)$と同様にして

$$
\begin{eqnarray*}
   P(X>a+b \land X > b) &=& P(X>a+b) \\
                        &=& \int_{a+b} ^\infty f(x) dx \\
                        &=& e^{-\lambda (a+b)}
\end{eqnarray*}
$$

がわかる.$P(X>a) = e^{-\lambda a}$も同様.
以上から

$$
\begin{eqnarray*}
   P(X>a+b | X>b) &=& \frac{P(X>a+b \land X > b)}{P(X>b)} \\
                  &=& \frac{e^{-\lambda (a+b)}}{e^{-\lambda b}} \\
                  &=& e^{-\lambda a} \\
                  &=& P(X>a)
\end{eqnarray*}
$$

となり示された.(終)

定理4.24

定義に従ってそれぞれ計算する.

$$
\begin{eqnarray*}
E(X) &=& \int_{-\infty}^\infty xf(x) dx \\
    &=& \int_{-\infty}^0 xf(x) dx + \int_0^\infty xf(x) dx \\
    &=& 0 + \int_0^\infty x\lambda e^{-\lambda x} dx \\
\end{eqnarray*}
$$

ここで,$y=\lambda x$とおくと,$x=0$とき,$y=0$であり,$\lambda > 0$であるから,$x\rightarrow \infty$のとき,$y \rightarrow \infty$である.また,$dy = \lambda dx$なので

$$
   \int_0^\infty x\lambda e^{-\lambda x} dx = \frac{1}{\lambda}\int_0^\infty ye^{-y} dy
$$

となる.さらに,この右辺の${ \displaystyle\int_0^\infty ye^{-y}dy}$に部分積分を行うことで,

$$
\begin{eqnarray*}
   \frac{1}{\lambda}\int_0^\infty ye^{-y} dy &=& \frac{1}{\lambda}\left \{ [ -ye^{-y} ]_0 ^\infty – \int_0^{\infty} -e^{-y}dy \right \}\\
                                          &=& \frac{1}{\lambda}\left \{ [-ye^{-y}]_0^\infty -[e^{-y}]_0^\infty \right \} \\
                                          &=& \frac{1}{\lambda}(0-(-1)) \\
                                          &=& \frac{1}{\lambda}
\end{eqnarray*}
$$

となる.したがって,${\displaystyle E(X) = \frac{1}{\lambda} }$が示された.
次に分散$V(X)$を求める.$V(X) = E(X^2)-E(X)^2$であるから,まず$E(X^2)$を計算する.

$$
\begin{eqnarray*}
   E(X^2) &=& \int_0 ^\infty x^2 f(x) dx \\
          &=& [x^2 (-e^{-\lambda x})]_0 ^\infty – \int _0 ^\infty 2x(-e^{-\lambda x}) dx \\
          &=& 0 + 2\int_0^\infty xe^{-\lambda x} dx \\
          &=& 2\times \frac{1}{\lambda}E(X) \\
          &=& \frac{2}{\lambda^2}
\end{eqnarray*}
$$

である.よって,分散$V(X)$は

$$
\displaystyle V(X) = E(X^2)-E(X)^2 = \frac{2}{\lambda ^2} – \left(\frac{1}{\lambda}\right)^2=\frac{1}{\lambda ^2}
$$

となる.
また,標準偏差$D(X)$は${\displaystyle D(X) = \sqrt{V(X)} = \frac{1}{\lambda}}$とわかる.

参考

・抑えておきたい公式とその簡易的な導出に関して(期待値と分散・共分散)
https://www.hello-statisticians.com/explain-terms-cat/expectation-variance-covariance.html

Webサイト運営に応援お願いします!

統計の森の運営をこれからも続けていくために、応援いただけたら助かります。

Amazonで買い物される方、以下のリンクからご自分のアカウントにAmazonギフト券をチャージしていただければ我々への支援になります!

また、Amazon等でのお買い物の際に、以下のリンクからECサイトのページに飛んでいただければ、それだけでも支援になります!

Amazon 本ベストセラー

また、以下のページで本サイトで利用している参考書籍一覧を提示しています。書籍購入の際にこちらから購入いただけると我々への支援になります!

よろしくお願いします!

主な参考書籍一覧 〜統計学、基礎的な数学、機械学習 etc〜

本Webサイトで参考書籍として利用している書籍の一覧です。書籍購入の際は是非こちらのリンクからお願いします。

統計学関連

基礎統計学Ⅰ 統計学入門(東京大学出版会)

当Web参考リンク

基礎統計学Ⅱ 人文・社会科学の統計学(東京大学出版会)

当Web参考リンク

基礎統計学Ⅲ 自然科学の統計学(東京大学出版会)

当Web参考リンク

現代数理統計学(学術図書出版社)

当Web参考リンク

入門統計解析(新世社)

当Web参考リンク

例題で学ぶ 初歩からの統計学[第2版]

当Web参考リンク

統計のための行列代数

統計検定関連

統計学実践ワークブック(学術図書出版)

当Web参考リンク

日本統計学会公式認定 統計検定 準1級 公式問題集[2015〜2021年]

日本統計学会公式認定 統計検定 2級 公式問題集[2018〜2021年]

日本統計学会公式認定 統計検定 3級・4級 公式問題集[2018〜2021年]

日本統計学会公式認定 統計検定 1級・準1級 公式問題集[2018~2019]

機械学習関連

深層学習

パターン認識と機械学習

当Web参考リンク

深層学習による自然言語処理

強化学習

時系列関連

計量時系列分析(朝倉書店)

当Web参考リンク

数学関連

数研出版 大学教養 微分積分

チャート式シリーズ 大学教養 微分積分

チャート式シリーズ 大学教養 線形代数

標本平均の分散に対して有限修正(finite correction)を行う際の修正項の導出

有限母集団を取り扱うにあたって、標本平均の分散に対して有限母集団修正(finite population correction)を行う問題は統計検定の準1級などで取り扱われますが、導出が省略されることが多いので、当記事では修正項の導出を行います。
「人文・社会科学の統計学」の第$3$章の「標本調査法」の$3.2.2$節「母平均と母分散の推定」の内容を参考に作成を行いました。

前提の確認

分散・共分散に関する公式の確認

分散・共分散に関する公式の確認を行う。詳しい導出は下記などで取り扱ったのでここでは省略する。
https://www.hello-statisticians.com/explain-terms-cat/expectation-variance-covariance.html

・$V[X] = E[X^2] – E[X]^2$
上記の両辺に$n$をかけることで下記を導出することもできる。
$$
\large
\begin{align}
V[X] &= E[X^2] – E[X]^2 \\
\frac{1}{n} \sum_{i=1}^{n} (X_i-E[X])^2 &= \frac{1}{n} \sum_{i=1}^{n} X_i^2 – \left( \frac{1}{n} \sum_{i=1}^{n} X_i \right) \\
\sum_{i=1}^{n} (X_i-E[X])^2 &= \sum_{i=1}^{n} X_i^2 – \frac{1}{n} \left( \sum_{i=1}^{n} X_i \right) \quad (1)
\end{align}
$$
$(1)$式は途中計算で出てくるので先に抑えておくとよい。

・$V[aX] = a^2 V[X] \quad (2)$

・$Cov[X,Y] = E[XY] – E[X]E[Y] \quad (3)$

・$\displaystyle V[X+Y] = V[X^2] + V[Y^2] + 2Cov[X,Y] \quad (4)$

・$\displaystyle V \left[ \sum_{i=1}^{n} X_i \right] = \sum_{i=1}^{n} V[X_i] + \sum_{i \neq j} Cov[X_i,X_j]$
上記は下記のように変形することができる。
$$
\large
\begin{align}
V \left[ \sum_{i=1}^{n} X_i \right] &= \sum_{i=1}^{n} V[X_i] + \sum_{i \neq j} Cov[X_i,X_j] \\
&= n V[X_1] + n(n-1) Cov[X_1,X_2] \quad (5)
\end{align}
$$

有限修正項の導出

$E[X_i]=\mu, V[X_i]=\sigma^2$の有限母集団よりサンプリングを行なった結果の標本平均$\displaystyle \bar{X} = \frac{1}{n} \sum_{i=1}^{n} X_i$の分散$V[\bar{X}]$は下記のように考えることができる。
$$
\large
\begin{align}
V[\bar{X}] &= V \left[ \frac{1}{n} \sum_{i=1}^{n} X_i \right] \\
&= \frac{1}{n^2} V \left[ \sum_{i=1}^{n} X_i \right] \\
&= \frac{1}{n^2} (n V[X_1] + n(n-1) Cov[X_1,X_2]) \quad (6)
\end{align}
$$
上記の計算にあたっては$(2)$式と$(5)$式を用いた。

ここで$V[X_1]=\sigma^2$なので、以下では$Cov[X_1,X_2]$に関して計算を行う。
$$
\large
\begin{align}
Cov[X_1,X_2] &= E[X_1X_2] – E[X_1]E[X_2] \\
&= \frac{1}{N(N-1)} \sum_{i \neq j} X_iX_j – \left( \frac{\sum X_i}{N} \right)^2 \\
&= \frac{(\sum X_i)^2-\sum X_i^2}{N(N-1)} – \frac{(\sum X_i)^2}{N^2} \\
&= \frac{N (\sum X_i)^2 – N \sum X_i^2}{N^2(N-1)} – \frac{(N-1)(\sum X_i)^2}{N^2(N-1)} \\
&= \frac{(\sum X_i)^2 – N \sum X_i^2}{N^2(N-1)} \\
&= – \frac{1}{N-1} \left( \frac{1}{N} \sum X_i^2 – \left( \frac{1}{N} \sum X_i \right)^2 \right) \\
&= – \frac{1}{N-1} (E[X_i^2]-E[X_i]^2) \\
&= – \frac{1}{N-1} (V[X_i]) \\
&= – \frac{\sigma^2}{N-1} \quad (7)
\end{align}
$$
上記の計算にあたっては$(1)$式と$(3)$式を用いた。

$(7)$式を$(6)$式に代入することで、$V[\bar{X}]$に関して下記を得ることができる。
$$
\large
\begin{align}
V[\bar{X}] &= \frac{1}{n^2} (n V[X_1] + n(n-1) Cov[X_1,X_2]) \\
&= \frac{1}{n^2} \left( n \sigma^2 – n(n-1) \frac{\sigma^2}{N-1} \right) \\
&= \frac{\sigma^2}{n} \left( 1 – \frac{n-1}{N-1} \right) \\
&= \frac{\sigma^2}{n} \frac{N-1-(n-1)}{N-1} \\
&= \frac{N-n}{N-1} \cdot \frac{\sigma^2}{n}
\end{align}
$$

統計検定準1級で非復元無作為抽出に関してここで用いた計算と同様の計算を行う出題がなされているので、合わせて抑えておくとよい。

参考

・準1級ワークブック 第21章
https://www.hello-statisticians.com/explain-books-cat/stat_workbook/stat_workbook_ch21.html

・人文・社会科学の統計学 第3章
https://www.hello-statisticians.com/explain-books-cat/stat_green/stat_green_ch3.html

Ch.3 「標本調査法」の章末問題の解答例 〜基礎統計学Ⅱ 人文・社会科学の統計学〜

当記事は「基礎統計学Ⅱ 人文・社会科学の統計学(東京大学出版会)」の読解サポートにあたってChapter.3の「標本調査法」の章末問題の解説について行います。
基本的には書籍の購入者向けの解説なので、まだ入手されていない方は下記より入手をご検討ください。また、解説はあくまでサイト運営者が独自に作成したものであり、書籍の公式ページではないことにご注意ください。(そのため著者の意図とは異なる解説となる可能性はあります)

・解答まとめ
https://www.hello-statisticians.com/answer_textbook_stat_basic_1-3#green

章末の演習問題について

問題3.1の解答例

・復元抽出
下記を実行することで$E[X], V[X]$を計算することができる。

import numpy as np

X = np.array([2., 3., 4., 5., 6., 7., 8., 9., 10., 11., 12.])
p = np.array([1., 2., 3., 4., 5., 6., 5., 4., 3., 2., 1.])/36

E_X = np.sum(X*p)
V_X = np.sum((X-np.mean(X))**2*p)

print("E[X]: {:.1f}".format(E_X))
print("V[X]: {:.2f}".format(V_X))

・実行結果

> print("E[X]: {:.1f}".format(E_X))
E[X]: 7.0
> print("V[X]: {:.2f}".format(V_X))
V[X]: 5.83

・非復元抽出
下記を実行することで$E[X], V[X]$を計算することができる。

import numpy as np

X = np.array([2., 3., 4., 5., 6., 7., 8., 9., 10., 11., 12.])
p = np.array([1., 2., 3., 4., 5., 6., 5., 4., 3., 2., 1.])/36

E_X = np.sum(X*p)
V_X = np.sum((X-np.mean(X))**2*p)*(6.-2.)/(6.-1.)

print("E[X]: {:.1f}".format(E_X))
print("V[X]: {:.2f}".format(V_X))

・実行結果

> print("E[X]: {:.1f}".format(E_X))
E[X]: 7.0
> print("V[X]: {:.2f}".format(V_X))
V[X]: 4.67

問題3.2の解答例

問題3.3の解答例

問題3.4の解答例

まとめ

参考

・有限非復元抽出における有限修正項の導出
https://www.hello-statisticians.com/explain-terms-cat/finte_correction1.html

Ch.8 「社会調査」の章末問題の解答例 〜基礎統計学Ⅱ 人文・社会科学の統計学〜

当記事は「基礎統計学Ⅱ 人文・社会科学の統計学(東京大学出版会)」の読解サポートにあたってChapter.8の「社会調査」の章末問題の解説について行います。
基本的には書籍の購入者向けの解説なので、まだ入手されていない方は下記より入手をご検討ください。また、解説はあくまでサイト運営者が独自に作成したものであり、書籍の公式ページではないことにご注意ください。(そのため著者の意図とは異なる解説となる可能性はあります)

・解答まとめ
https://www.hello-statisticians.com/answer_textbook_stat_basic_1-3#green

章末の演習問題について

問題8.1の解答例

(i)
建前で答えるかどうかも調査の目的の一部であるので、調査自体に意義がないわけではない。

(ⅱ)
精度を考えるにあたっては母集団の大きさではなくて標本の大きさを考えるべきである。

(ⅲ)
回答者の負担が大きくなることで、回答の質が下がる懸念がある。

(iv)
回答を集める段階で意図しないことが起こる場合もあるので、ある程度は現地などでチェックも行うと良い。

問題8.2の解答例

問題8.3の解答例

問題8.4の解答例

まとめ

統計検定1級 統計応用 問題解説 ~2018年11月実施 人文科学 問2~

統計検定1級の2018年11月の「統計応用、人文科学」の問2の解答例と解説について取り扱いました。他の問題の解答に関しては下記よりご確認ください。
https://www.hello-statisticians.com/stat_certifi_1_app

問題

詳しくは統計検定公式よりご確認ください。

解答

$[1]$
分散がそれぞれ$20$、共分散が$14$であるので、相関係数は$14/\sqrt{20}^2=0.7$のように計算できる。

$[2]$
$U_A^2=U_B^2$より、判別境界線$U$の方程式は下記のように得られる。
$$
\large
\begin{align}
U_A^2 &= U_B^2 \\
(x_1-30)^2 + (x_2-50)^2 &= (x_1-40)^2 + (x_2-50)^2 \\
(x_1-30)^2 &= (x_1-40)^2 \\
x_1^2 – 60x_1 + 900 &= x_1^2 – 80x_2 + 1600 \\
20x_1 &= 700 \\
x_1 &= 35
\end{align}
$$

これにより、$a$はA、$b, c$はBに分類されることがわかる。

$[3]$
下記を実行することで境界線$U$と境界線$M$に関してそれぞれ描画を行うことができる。

import numpy as np
import matplotlib.pyplot as plt
from scipy import linalg

r1, r2 = np.array([1., 3., 5.]), np.array([1., 4., 7.])
theta = np.linspace(0,2*np.pi,50)
x1, x2, y1, y2 = np.zeros([50,3]), np.zeros([50,3]), np.zeros([50,3]), np.zeros([50,3])

for i in range(x1.shape[1]):
    x1[:,i], y1[:,i] = r1[i]*np.cos(theta), r1[i]*np.sin(theta)
    x2[:,i], y2[:,i] = r2[i]*np.cos(theta), r2[i]*np.sin(theta)

plt.subplot(2,1,1)
for i in range(x1.shape[1]):
    plt.plot(x1[:,i]+30,y1[:,i]+50,"g--")
    plt.plot(x1[:,i]+40,y1[:,i]+50,"b--")

plt.plot(np.zeros(100)+35,np.linspace(42,58,100),"k--")

plt.subplot(2,1,2)
Sigma = np.array([[1.,0.7],[0.7,1.]])
lamb, U_T = linalg.eig(Sigma,right=True)

for i in range(x2.shape[1]):
    vec = np.array([np.sqrt(lamb[0])*x2[:,i],np.sqrt(lamb[1])*y2[:,i]])
    vec_transformed = np.dot(U_T,vec)
    plt.plot(vec_transformed[0,:]+30,vec_transformed[1,:]+50,"g--")
    plt.plot(vec_transformed[0,:]+40,vec_transformed[1,:]+50,"b--")

plt.plot(np.linspace(25,42,100),10.*np.linspace(25,42,100)/7.,"k--")

plt.show()

・実行結果

2つあるうちのの下の方の図が境界線$M$に対応するが、これに基づいて$a,b,c$は$a,b$が$A$、$c$が$B
$にそれぞれ分類されることがわかる。

$[4]$
省略

解説

線形判別に関しては下記でも取り扱いましたので、下記も参考にしてみてください。

統計検定1級 統計応用 問題解説 ~2018年11月実施 人文科学 問1~

統計検定1級の2018年11月の「統計応用、人文科学」の問1の解答例と解説について取り扱いました。他の問題の解答に関しては下記よりご確認ください。
https://www.hello-statisticians.com/stat_certifi_1_app

問題

詳しくは統計検定公式よりご確認ください。

解答

$[1]$
$x$の取りうる範囲は$\max(0,n-4) \leq x \leq \min(6,n)$、確率$f_n(x)$の式は下記のように表すことができる。
$$
\large
\begin{align}
f_n(x) = \frac{ {}_{6} C_{x} \times {}_{4} C_{n-x} }{ {}_{10} C_{n} }
\end{align}
$$

また、$f_5(1), f_5(2)$はそれぞれ下記のように計算できる。
$$
\large
\begin{align}
f_5(1) &= \frac{ {}_{6} C_{1} \times {}_{4} C_{5-1} }{ {}_{10} C_{5} } \\
&= \frac{ 6 \cdot 5 \cdot 4 \cdot 3 \cdot 2 }{ 10 \cdot 9 \cdot 8 \cdot 7 \cdot 6 } \\
&= \frac{1}{42} = 0.023809… \\
f_5(2) &= \frac{ {}_{6} C_{2} \times {}_{4} C_{5-2} }{ {}_{10} C_{5} } \\
&= \frac{ 6 \cdot 5 \cdot 4 \cdot 5 \cdot 4 \cdot 3 \cdot 2 }{ 2 \cdot 10 \cdot 9 \cdot 8 \cdot 7 \cdot 6 } \\
&= \frac{5}{21} = 0.23809…
\end{align}
$$

$[2]$
$(1)$
・オッズ比
$$
\large
\begin{align}
\Omega &= \frac{ad}{bc} \\
&= \frac{2 \cdot 1}{4 \cdot 3} = \frac{1}{6}
\end{align}
$$

・ファイ係数
$$
\large
\begin{align}
\phi &= \frac{ad-bc}{\sqrt{(a+d)(a+c)(b+d)(c+d)}} \\
&= \frac{2 \cdot 1 – 4 \cdot 3}{\sqrt{(2+1)(2+3)(4+1)(3+1)}} \\
&= \frac{-10}{\sqrt{6 \cdot 5 \cdot 5 \cdot 4}} = -0.408…
\end{align}
$$

分割表から得られた上記の値を元に、群Aと群Bの間には差があるのではないかと考えることができる。

$(2)$
左上、右上、左下、右下の順に$a$〜$d$を割り振ったとき、群Aのサンプルが$6$、群Bのサンプルが$4$であることを元に、一様性の過程に基づく期待度数は$a=3, b=3, c=2, d=2$を考えることができる。

$(3)$
$\chi^2$統計量$Y$と、$Y$にイェーツの補正を施した$Y’$はそれぞれ下記のように計算することができる。
・$Y$
$$
\large
\begin{align}
Y &= \frac{(2-3)^2}{3} + \frac{(4-3)^2}{3} + \frac{(3-2)^2}{2} + \frac{(1-2)^2}{2} \\
&= \frac{(-1)^2}{3} + \frac{1^2}{3} + \frac{1^2}{2} + \frac{(-1)^2}{2} \\
&= 1.666…
\end{align}
$$

・$Y’$
$$
\large
\begin{align}
Y &= \frac{(|2-3|-0.5)^2}{3} + \frac{(|4-3|-0.5)^2}{3} + \frac{(|3-2|-0.5)^2}{2} + \frac{(|1-2|-0.5)^2}{2} \\
&= \frac{0.5^2}{3} + \frac{0.5^2}{3} + \frac{0.5^2}{2} + \frac{0.5^2}{2} \\
&= 0.4166…
\end{align}
$$

ここで$\chi^2_{\alpha=0.1}(1)=2.70…$より、帰無仮説は棄却できない。

$(4)$
$[1]$の結果から片側$P$値を$0.023809…+0.23809…=0.2619…$のように計算できる。よって帰無仮説は棄却できない。

解説

分割表の取り扱いに関しては「統計学実践ワークブック」の「第28章」や、「人文・社会科学の統計学」の「第2章」、「統計検定1級テキストの7.2節」などが詳しいので、詳しくはそちらを参照すると良いと思います。

中心極限定理(Central Limit Theory)の概要、活用、導出

中心極限定理(Central Limit Theory)は推測統計の基盤となる大定理ですが、一方で数式が難しそうに見えるかもしれません。そこで当記事では中心極限定理に関して概要や活用、導出を取り扱いました。特に利用にあたっての工夫に関して可能な限りわかりやすく取りまとめを行いました。

中心極限定理の概要

直感的な理解

直感的な理解にあたっては、中心極限定理(Central Limit Theory)は「母集団分布に関係なく、標本の和$X_1+X_2+…+X_n$や標本平均が従う分布は正規分布で近似できる」と理解すると良い。中心極限定理は特性関数などを考えることで示すことができるが、少々難しいので応用上の観点からは「多くのサンプルを観測すれば、その和やその平均は正規分布から観測されたと考えられる」のように、直感的に理解しておくでも十分であると思われる。

上図のように「二項分布の極限」の「中心極限定理」でPythonを用いていくつか図示化を行なったが、二項分布の観測値は$n$が大きいとき正規分布で近似できる。

数式を用いた中心極限定理の表現

中心極限定理は$E[X_i]=\mu, V[X_i]=\sigma^2$に基づく標本列$X_1, X_2, …, X_n$に対して下記のように定義できる。
$$
\large
\begin{align}
S_n &= \sum_{i=1}^{n} X_n \sim \mathcal{N}(n \mu, n \sigma^2) \\
\overline{X} &= \frac{1}{n} \sum_{i=1}^{n} X_n \sim \mathcal{N} \left( \mu, \frac{\sigma^2}{n} \right)
\end{align}
$$

式の表記に関しては下記の演習でも取り扱ったので、演習を行う際は合わせて確認しておくと良い。

ここで$\displaystyle \overline{X} \sim \mathcal{N} \left( \mu, \frac{\sigma^2}{n} \right)$は$n \to \infty$のとき$\displaystyle \frac{\sigma^2}{n} \to 0$より、中心極限定理は大数の法則も同時に表すことに関しても抑えておくとよい。

中心極限定理は下記のような形式で標本和$S_n=X_1+X_2+…+X_n$に関して表すこともできる。
$$
\large
\begin{align}
\lim_{n \to \infty} P \left( a \leq \frac{S_n – n \mu}{\sqrt{n}\sigma} \leq b \right) &= \int_{a}^{b} \frac{1}{\sqrt{2 \pi}} e^{-\frac{x^2}{2}} dx \\
&= \Phi(b) – \Phi(a) \\
\Phi(x) &= \int_{-\infty}^{x} \frac{1}{\sqrt{2 \pi}} e^{-\frac{z^2}{2}} dz
\end{align}
$$

また、上記の左辺の分母と分子をそれぞれ$n$で割ることで、標本平均$\displaystyle \overline{X} = \frac{1}{n}(X_1+X_2+…+X_n)$に関しても下記のように表すことができる。
$$
\large
\begin{align}
\lim_{n \to \infty} P \left( a \leq \frac{(\overline{X} – \mu)}{\sigma/\sqrt{n}} \leq b \right) &= \int_{a}^{b} \frac{1}{\sqrt{2 \pi}} e^{-\frac{x^2}{2}} dx \\
&= \Phi(b) – \Phi(a) \\
\Phi(x) &= \int_{-\infty}^{x} \frac{1}{\sqrt{2 \pi}} e^{-\frac{z^2}{2}} dz
\end{align}
$$

中心極限定理の数式展開のコツと活用例

中心極限定理を用いる際のコツ

$E[S_n], V[S_n], E[\overline{X}], V[\overline{X}]$などの表記を用いる

前節で取り扱ったように、中心極限定理を用いるにあたって、考える確率変数が標本和$S_n$なのか標本平均$\overline{X}$なのかによって式の形が異なることは注意が必要である。母集団分布の母平均が$\mu$、母分散が$\sigma^2$の際に、標本和$S_n$が$\mathcal{N}(n \mu, n \sigma^2)$に従い、標本平均$\overline{X}$が$\displaystyle \mathcal{N} \left( \mu, \frac{\sigma^2}{n} \right)$に従うわけだが、二項分布では$X=S_n$で考えるなど、状況に応じて確率変数の定義の仕方が異なるのでなかなか難しい。

これに対して、標本和$S_n$は$\mathcal{N}(E[S_n], V[S_n])$に従い、標本平均$\overline{X}$が$\mathcal{N}(E[\overline{X}], V[\overline{X}])$に従うと考える方が抑えておく式の形が一つに集約できるので間違えにくいと思われる。また、母集団のパラメータは$\mu$と$\sigma^2$で定義する場合もあれば、二項分布の際のように確率を用いたり、ポアソン分布のように平均と分散のどちらも$\lambda$で表す場合など、わからなくなりやすいので、$\mathcal{N}(E[S_n], V[S_n])$のように取り扱う確率変数に対応する期待値と分散で考える方がわかりやすい。

特に母集団のパラメータは$1$つの標本に対応するパラメータであることが多い一方で、取り扱う確率変数が標本和や標本平均のように複数の標本に対応することから間違えやすいので、ここで確認したような表記の仕方の方がわかりやすいと思われる。

$\displaystyle P \left( \frac{S_n-E[S_n]}{\sqrt{V[S_n]}} \leq c \right) = P(Z \leq c) \simeq \Phi(c)$を基本形に考える

中心極限定理の適用にあたっては、式変形が複雑なこともあり、基本的な数式の形がわかりにくい場合も多いような印象を受ける。そこで、$\displaystyle P \left( \frac{S_n-E[S_n]}{\sqrt{V[S_n]}} \leq c \right) = P(Z \leq c) \simeq \Phi(c)$を基本形に考えると良いように思われる。

ここで$\Phi(z)$は標準正規分布の累積分布関数を表し、詳しくは下記のように定義できる。
$$
\large
\begin{align}
\Phi(z) = \int_{-\infty}^{z} \frac{1}{\sqrt{2 \pi}} e^{-\frac{x^2}{2}} dx
\end{align}
$$

ここで確率変数$Z$は$S_n$に対して平均$E[S_n]$を引き、分散の平方根の$\sqrt{V[S_n]}$で割った値であることから、$Z$は$S_n$の標準化を行なった変数であると考えることができ、$Z$の平均は$0$、分散は$1$であると考えられる。よって中心極限定理に基づき、$P(Z \leq c)$が$\Phi(c)$を用いて近似を行うことができる。また、$P(Z \geq c)$には$P(Z \geq c) \simeq 1 – \Phi(c)$が対応し、$P(a \leq Z \leq b)$には$\Phi(b)-\Phi(a)$が対応することもあわせて抑えておくと良い。

・+ α
中心極限定理は極限を考える定理だが、$P(Z \leq c) \simeq \Phi(c)$では$\to$ではなくて$\simeq$を用いた。

というのは中心極限定理はものによっては$n=20$や$n=50$の場合でも用いられることがあり、$n \to \infty$を用いて極限で考えるより$\simeq$を用いた近似で考える方が妥当であると考えられたからである。

中心極限定理の活用例

二項分布と中心極限定理

「統計学実践ワークブック」の「問$7.1$の解答例」で取り扱った。二項分布が離散型の確率分布であるので、連続型の確率分布の正規分布を用いて近似を行うにあたっては、連続修正(continuity correction)を用いて$P(X \geq 10)$を$P(X \geq 9.5)$に修正したことに着目しておくとよい。

ポアソン分布と中心極限定理

「統計学実践ワークブック」の「問$1.10$の解答例」で取り扱った。

中心極限定理の導出

中心極限定理の導出の主要な流れ

確率変数$Y_i$に関して標準化を行った確率変数を、$\displaystyle X_i = \frac{Y_i-E[Y_i]}{\sqrt{V[Y_i]}}$のように定義すると、$X_i$の平均に関して$E[X_i]=0$、分散に関して$V[X_i]=E[X_i^2]-E[X_i]^2=E[X_i^2]=1$が成立すると考えることができる。

ここで$\displaystyle \overline{X}_{n} = \frac{1}{n} \sum_{i=1}^{n} X_i$を元に下記のように$Z_n$を定める。
$$
\large
\begin{align}
Z_n &= \frac{\overline{X}_{n}-E[\overline{X}_{n}]}{\sqrt{V[\overline{X}_{n}]}} \\
&= \sqrt{n}\overline{X}_{n}
\end{align}
$$

このとき確率変数$Z_n$に関する特性関数を$\varphi_{Z_n}(t)$、確率変数$X_i$に関する特性関数を$\phi_{X_i}(t)$のように定めると、$\phi_{Z_n}(t)$は下記のように$\phi_{X_i}(t)$を用いて表すことができる。
$$
\large
\begin{align}
\phi_{Z_n}(t) &= E[e^{i t Z_n}] \\
&= E[\exp(i t \sqrt{n}\overline{X_{n}})] \\
&= E \left[ \exp \left( i t \frac{\sqrt{n}}{n} \sum_{i=1}^{n} X_i \right) \right] \\
&= E \left[ \prod_{i=1}^{n} \exp \left( i t \frac{1}{\sqrt{n}} X_i \right) \right] \\
&= E \left[ \prod_{i=1}^{n} \exp \left( i \frac{t}{\sqrt{n}} X_i \right) \right] = \left[ \phi_{X_i} \left( \frac{t}{\sqrt{n}} \right) \right]^{n} \quad (1)
\end{align}
$$

ここで$\phi_{X_i}(0), \phi_{X_i}'(0), \phi_{X_i}^{”}(0)$に関して下記が成立する。
$$
\large
\begin{align}
\phi_{X_i}(0) &= E[e^{i \cdot 0 \cdot X_i}] = E[e^{0}] = 1 \\
\phi_{X_i}'(0) &= iE[X_i] = 0 \\
\phi_{X_i}^{”}(0) &= i^2 E[X_i^2] = -1
\end{align}
$$

よって、$\varphi_{X_i}(t)$は下記のようにマクローリン展開を行うことができる。
$$
\large
\begin{align}
\phi_{X_i}(t) &= \frac{\phi_{X_i}(0)}{0!}t^{0} + \frac{\phi_{X_i}'(0)}{0!}t^{1} + \frac{\phi_{X_i}^{”}(0)}{2!}t^{2} + \cdots \\
&= 1 – \frac{t^{2}}{2} + t^{4} R(t) \quad (2)
\end{align}
$$

上記の$R(t)$は$t$の関数である。ここで$(2)$式を$(1)$式に代入することで$\phi_{Z_n}(t)$は下記のように考えることができる。
$$
\large
\begin{align}
\phi_{Z_n}(t) &= \left( 1 – \frac{t^{2}}{2n} + \frac{t^{4}}{n^2} R \left( \frac{t}{\sqrt{n}} \right) \right)^{n} \\
&= \left[ \left( 1 – \frac{t^{2}}{2n} + \frac{t^{4}}{n^2} R \left( \frac{t}{\sqrt{n}} \right) \right)^{-\frac{2n}{t^{2}}} \right]^{-\frac{t^2}{2}}
\end{align}
$$

上記に関して$t$を定数と見て$n \to \infty$を考えると、下記が成立する。
$$
\large
\begin{align}
\lim_{n \to \infty} \phi_{Z_n}(t) &= \lim_{n \to \infty} \left[ \left( 1 – \frac{t^{2}}{2n} + \frac{t^{4}}{n^2} R \left( \frac{t}{\sqrt{n}} \right) \right)^{-\frac{2n}{t^{2}}} \right]^{-\frac{t^2}{2}} \\
& \leq \lim_{n \to \infty} \left[ \left( 1 – \frac{t^{2}}{2n} + \frac{t^{4}}{n^2} c \right)^{-\frac{2n}{t^{2}}} \right]^{-\frac{t^2}{2}} \\
&= e^{-\frac{t^2}{2}} \quad (3)
\end{align}
$$

上記の導出にあたっては$t$を定数と見て$n \to \infty$を考える際に定数$c$に関して$\displaystyle R \left( \frac{t}{\sqrt{n}} \right) \leq c$が成立すると考えた。ここで定数$c$は、特性関数の導関数に関して$\phi_{X_i}^{(n)}(0)=i^{n}E[X_i^{n}]$が成立するので、実数のみを考える際は$E[X_i^{n}]$が定数であれば上限の$c$を用いて表せると考え導入を行った。$\displaystyle \frac{t^{4}}{n^2}c$の項の取り扱いでは次項で二項定理に基づいて詳しく示す。

$(3)$式が標準正規分布の特性関数に一致するので、「確率分布と特性関数の$1$対$1$対応」より、確率変数$Z_n$に関して中心極限定理が成立する。

当項の内容は「現代数理統計学」の$4.5$節を主に参考に作成を行った。

二項定理とネイピア数の定義の適用

前項の$(3)$の導出にあたっての$\displaystyle \frac{t^{4}}{n^2}c$の項の取り扱いに関して以下詳しく確認を行う。式の簡易化によって考えるにあたって、まずは$\displaystyle \lim_{n \to \infty} \left( 1 + \frac{1}{n} + \frac{1}{n^2} \right)^{n}$に関して考える。
$$
\large
\begin{align}
& \left( 1 + \frac{1}{n} + \frac{1}{n^2} \right)^{n} = \sum_{x=0}^{n} {}_{n} C_{x} \left( 1 + \frac{1}{n} \right)^{n-x} \left( \frac{1}{n^2} \right)^{x} \\
&= \left( 1 + \frac{1}{n} \right)^{n} + n \cdot \left( 1 + \frac{1}{n} \right)^{n} \cdot \frac{1}{n^2} + \frac{n(n-1)}{2} \cdot \left( 1 + \frac{1}{n} \right)^{n-2} \cdot \left( \frac{1}{n^2} \right)^{2} + \cdots
\end{align}
$$

ここで第$1$項に関して$\displaystyle \lim_{n \to \infty} \left( 1 + \frac{1}{n} \right)^{n} = e$が成立するが、第$2$項以降に関しては下記のように考えることができる。

・第$2$項
$$
\large
\begin{align}
\lim_{n \to \infty} n \cdot \left( 1 + \frac{1}{n} \right)^{n} \cdot \frac{1}{n^2} &= \lim_{n \to \infty} \frac{1}{n}\left( 1 + \frac{1}{n} \right)^{n}\left( 1 + \frac{1}{n} \right)^{-1} \\
&= 0 \cdot e \cdot (1+0) \\
&= 0
\end{align}
$$

・第$3$項
$$
\large
\begin{align}
& \lim_{n \to \infty} \frac{n(n-1)}{2} \cdot \left( 1 + \frac{1}{n} \right)^{n-2} \cdot \left( \frac{1}{n^2} \right)^{2} \\
&= \lim_{n \to \infty} \frac{1 \cdot (1-1/n)}{2} \cdot \left( 1 + \frac{1}{n} \right)^{n} \left( 1 + \frac{1}{n} \right)^{-2} \cdot \frac{1}{n^2} \\
&= \frac{1}{2} \cdot e \cdot (1+0) \cdot 0 = 0
\end{align}
$$

以降の項に関しても${}_{n} C_{x}$と$\displaystyle \left( \frac{1}{n^2} \right)^{x}$の$n$の次数に着目することで$n \to \infty$を考えると$0$に収束すると考えることができる。よって下記が成立する。
$$
\large
\begin{align}
\lim_{n \to \infty} \left( 1 + \frac{1}{n} + \frac{1}{n^2} \right)^{n} = e
\end{align}
$$

同様に考えることで前項の下記の$(3)$式も導出できる。
$$
\large
\begin{align}
\lim_{n \to \infty} \left[ \left( 1 – \frac{t^{2}}{2n} + \frac{t^{4}}{n^2} c \right)^{-\frac{2n}{t^{2}}} \right]^{-\frac{t^2}{2}} = e^{-\frac{t^2}{2}} \quad (3)
\end{align}
$$

標準正規分布のモーメント母関数・特性関数

標準正規分布の確率密度関数が$\displaystyle f(x)=\frac{1}{\sqrt{2 \pi}} e^{-\frac{x^2}{2}}$であるので、モーメント母関数$m_{X}(t)=E[e^{tX}]$は下記のように考えることができる。
$$
\large
\begin{align}
E[e^{tX}] &= \int_{-\infty}^{\infty} e^{tx} \times \frac{1}{\sqrt{2 \pi}} e^{-\frac{x^2}{2}} dx \\
&= \int_{-\infty}^{\infty} \frac{1}{\sqrt{2 \pi}} e^{-\frac{(x-t)^2}{2}} \times e^{\frac{t^2}{2}} dx \\
&= e^{\frac{t^2}{2}}
\end{align}
$$

特性関数$\phi_{X}(t)$はモーメント母関数$m_{X}(t)$を用いて$\phi_{X}(t)=m_{X}(it)$のように表せるので、標準正規分布の特性関数は下記のように考えることができる。
$$
\large
\begin{align}
\phi_{X}(t) &= m_{X}(it) \\
&= e^{\frac{(it)^2}{2}} = e^{\frac{i^2t^2}{2}} \\
&= e^{-\frac{t^2}{2}}
\end{align}
$$

確率分布と特性関数の$1$対$1$対応

反転公式(inversion formula)を元に「確率分布と特性関数の$1$対$1$対応」を考えることができる。「数理統計学(共立出版)」などが詳しい。