Ch.1 「確率の基礎」の章末問題の解答例 〜基礎統計学Ⅲ 自然科学の統計学(東京大学出版会)〜

当記事は「基礎統計学Ⅲ 自然科学の統計学(東京大学出版会)」の読解サポートにあたってChapter.$1$の「確率の基礎」の章末問題の解説について行います。
基本的には書籍の購入者向けの解答例・解説なので、まだ入手されていない方は下記より入手をご検討ください。また、解説はあくまでサイト運営者が独自に作成したものであり、書籍の公式ページではないことにご注意ください。

章末の演習問題について

問題1.1の解答例

二項分布$\mathrm{Binom}(n,p)$の確率変数を$X$としたとき、$X=k$となる確率$P(X=k|n,p)$は下記を用いて表すことができる。
$$
\begin{align}
P(X=k|n,p) = {}_n C_k p^k (1-p)^k
\end{align}
$$
上記に基づいて、下記のように期待値$E[X]$を計算することができる。
$$
\begin{align}
E[X] &= \sum_{k=0}^{n} k {}_n C_k p^k (1-p)^k \\
&= \sum_{k=1}^{n} k {}_n C_k p^k (1-p)^k \\
&= \sum_{k=1}^{n} k \frac{n(n-1)…(n-k+1)}{k!} p^k (1-p)^{n-k} \\
&= \sum_{k=1}^{n} np \frac{(n-1)…(n-k+1)}{(k-1)!} p^{k-1} (1-p)^{n-k} \\
&= np \sum_{k=1}^{n} {}_{n-1} C_{k-1} p^{k-1} (1-p)^{n-k} \\
&= np \sum_{k=0}^{n-1} {}_{n-1} C_{k} p^{k} (1-p)^{n-(k+1)} \\
&= np \sum_{k=0}^{n-1} {}_{n-1} C_{k} p^{k} (1-p)^{(n-1)-k)} \\
&= np (1+(1-p))^{n-1} \\
&= np
\end{align}
$$
また、$V[X]$は下記のように考えることができる。(確率母関数を用いた計算と同様な計算式となることは押さえておく方が良い)
$$
\begin{align}
V[X] &= E[X^2] – (E[X])^2 \\
&= E[X(X-1)+X] – (E[X])^2 \\
&= E[X(X-1)] + E[X] – (E[X])^2
\end{align}
$$
$E[X]$はすでに求めたので、以下では$E[X(X-1)]$について求めることを考える。
$$
\begin{align}
E[X] &= \sum_{k=0}^{n} k(k-1) {}_n C_k p^k (1-p)^k \\
&= \sum_{k=2}^{n} k(k-1) {}_n C_k p^k (1-p)^k \\
&= \sum_{k=2}^{n} k(k-1) \frac{n(n-1)…(n-k+1)}{k!} p^k (1-p)^{n-k} \\
&= \sum_{k=2}^{n} n(n-1)p^2 \frac{(n-2)…(n-k+1)}{(k-2)!} p^{k-2} (1-p)^{n-k} \\
&= n(n-1)p^2 \sum_{k=2}^{n} {}_{n-2} C_{k-2} p^{k-2} (1-p)^{n-k} \\
&= n(n-1)p^2 \sum_{k=0}^{n-2} {}_{n-2} C_{k} p^{k} (1-p)^{n-(k+2)} \\
&= n(n-1)p^2 \sum_{k=0}^{n-2} {}_{n-2} C_{k} p^{k} (1-p)^{(n-2)-k)} \\
&= n(n-1)p^2 (1+(1-p))^{n-2} \\
&= n(n-1)p^2
\end{align}
$$
よって、$V[X]$は下記のように求めることができる。
$$
\begin{align}
V[X] &= E[X(X-1)] + E[X] – (E[X])^2 \\
&= n(n-1)p^2 + np – n^2p^2 \\
&= np((n-1)p+1-np) \\
&= np(np-p+1-np) \\
&= np(1-p)
\end{align}
$$
ここまでの議論より、期待値$E[X]=np$、分散$V[X]=np(1-p)$が導出できる。

問題1.2の解答例

確率$p$で事象$A$が観測されるベルヌーイ試行を考えた際に、事象$A$が最初に観測されるまでに要した試行回数を確率変数$X$で定めると、確率$P(X=r|p)$は下記のように表すことができる。
$$
\begin{align}
P(X=r|p) = p(1-p)^{r-1}
\end{align}
$$
このとき上記は幾何分布(geometric distribution)と呼ばれる。ここで幾何分布の期待値を$E[X]$とおくと、$E[X]$は下記のように求めることができる。
$$
\begin{align}
E[X] &= \sum_{r=1}^{\infty} rP(X=r|p) \\
&= \sum_{r=1}^{\infty} rp(1-p)^{r-1} \\
&= p\sum_{r=1}^{\infty} r(1-p)^{r-1}
\end{align}
$$
このとき$\displaystyle \sum_{r=1}^{\infty} r(1-p)^{r-1}$を考えるにあたって、以下のようにマクローリン展開を考える。
$$
\begin{align}
\frac{1}{1-x} &= \sum_{n=0}^{\infty} x^n
\end{align}
$$
上記の両辺を微分すると下記が得られる。
$$
\begin{align}
\frac{1}{(1-x)^2} &= \sum_{n=1}^{\infty} nx^{n-1}…(1)
\end{align}
$$
(1)式の右辺を、$n=r$、$x=(1-p)$で置き換えると$\displaystyle \sum_{r=1}^{\infty} r(1-p)^{r-1}$が得られる。よって、下記が成立する。
$$
\begin{align}
\sum_{r=1}^{\infty} r(1-p)^{r-1} &= \frac{1}{(1-(1-p))^2} \\
&= \frac{1}{p^2}
\end{align}
$$
したがって、$E[X]$は下記のように求められる。
$$
\begin{align}
E[X] &= p\sum_{r=1}^{\infty} r(1-p)^{r-1} \\
&= p \frac{1}{p^2} \\
&= \frac{1}{p}
\end{align}
$$

問題1.3の解答例

事象が$k$回起こるまでの回数を確率変数$X$としたとき、$X$は負の二項分布に従う。ここで$P(X=n|p)$は下記のように表すことができる。
$$
\begin{align}
P(X=n|p) &= {}_{n-1} C_{k-1} p^{k-1} (1-p)^{n-k} p \\
&= {}_{n-1} C_{k-1} p^k (1-p)^{n-k}
\end{align}
$$
これを期待値の定義に基づいて計算するのは大変なので、このときの確率変数$X$は同じくパラメータ$p$の幾何分布の確率変数を$Y_i$とした際に、$X=Y_1+Y_2+…++Y_k$と表すことができる。
ここで問題1.2の解答より、$\displaystyle E[Y_i] = \frac{1}{p}$なので、負の二項分布の期待値$E[X]$は下記のように求めることができる。
$$
\begin{align}
E[X] &= E[Y_1+Y_2+…++Y_k] \\
&= \frac{1}{p} + \frac{1}{p} + … + \frac{1}{p} \\
&= \frac{k}{p}
\end{align}
$$
よって求める期待値は$\displaystyle E[X] = \frac{k}{p}$となる。

問題1.4の解答例

i)
$(a+b)^N=(a+b)^{R}(a+b)^{N-R}$の$a^{n}b^{N-n}$の係数を左辺と右辺に関して考える。
・左辺の$a^{n}b^{N-n}$の係数
$$
\begin{align}
{}_N C_{n}
\end{align}
$$

・右辺の$a^{n}b^{N-n}$の係数
$$
\begin{align}
\sum_{r=0}^{\min(n,R)} {}_{R} C_{r} \times {}_{N-R} C_{n-r}
\end{align}
$$

ここで「左辺の$a^{n}b^{N-n}$の係数=右辺の$a^{n}b^{N-n}$の係数」より、下記が成立する。
$$
\begin{align}
{}_N C_{n} &= \sum_{r=0}^{\min(n,R)} {}_{R} C_{r} \times {}_{N-R} C_{n-r} \\
1 &= \frac{\sum_{r=0}^{\min(n,R)} {}_{R} C_{r} \times {}_{N-R} C_{n-r}}{{}_N C_{n}} = p_r \\
p_r &= 1
\end{align}
$$
ⅱ)
$p_r$は下記のように変形できる。
$$
\large
\begin{align}
p_r &= \frac{{}_R C_r {}_{N-R} C_{n-r}}{{}_N C_n} \\
&= \frac{R(R-1)…(R-r+1)}{r!} \times \frac{(N-R)(N-R-1)…(N-R-(n-r)+1)}{(n-r)!} \times \frac{n!}{N(N-1)…(N-n+1)} \\
&= \frac{n!}{r!(n-r)!} \times \frac{R(R-1)…(R-r+1) \times (N-R)(N-R-1)…(N-R-(n-r)+1)}{N(N-1)…(N-n+1)} \\
&= {}_n C_r \times \frac{R/N(R/N-1/N)…(R/N-(r-1)/N) \times (1-R/N)(1-R/N-1/N)…(1-R/N-(n-r)/N+1/N)}{(1-1/N)…(1-n/N+1/N)} \\
&= {}_n C_r \times \frac{p(p-1/N)…(p-(r-1)/N) \times (1-p)(1-p-1/N)…(1-p-(n-r)/N+1/N)}{(1-1/N)…(1-n/N+1/N)}
\end{align}
$$

上記に対して$N \to \infty$を考えると、下記のように二項分布$Bin(n,p)$の確率関数の式が導出できる。
$$
\large
\begin{align}
\lim_{N \to \infty} p_r &= {}_n C_r \times \lim_{N \to \infty} \frac{p(p-1/N)…(p-(r-1)/N) \times (1-p)(1-p-1/N)…(1-p-(n-r)/N+1/N)}{(1-1/N)…(1-n/N+1/N)} \\
&= {}_n C_r p^{r} (1-p)^{n-r}
\end{align}
$$

問題1.5の解答例

確率変数$X$がポアソン分布の$Po(\lambda)$に従うとき$X=k$となる確率を$P(X=k|\lambda)$とすると、$P(X=k|\lambda)$は下記のように表すことができる。
$$
\large
\begin{align}
P(X=k|\lambda) = \frac{\lambda^k e^{-\lambda}}{k!}
\end{align}
$$
よって、ポアソン分布の期待値を$E[X]$とすると、$E[X]$は下記のように計算することができる。
$$
\large
\begin{align}
E[X] &= \sum_{k=0}^{\infty} kP(X=k|\lambda) \\
&= \sum_{k=1}^{\infty} k \times \frac{\lambda^k e^{-\lambda}}{k!} \\
&= e^{-\lambda} \sum_{k=1}^{\infty} \frac{\lambda^k}{(k-1)!} \\
&= e^{-\lambda} \sum_{k=0}^{\infty} \frac{\lambda^{k+1}}{k!} \\
&= \lambda e^{-\lambda} \sum_{k=0}^{\infty} \frac{\lambda^k}{k!}
\end{align}
$$
上記の計算にあたっては$f(x)=e^x$のマクローリン展開の式を考える。
$$
\large
\begin{align}
e^x = \sum_{n=0}^{\infty} \frac{x^n}{n!}
\end{align}
$$
上記の式を$n=k$、$x=\lambda$で置き換えると、$\displaystyle e^{\lambda} = \sum_{k=0}{\infty} \frac{\lambda^k}{k!}$とすることができる。よって、ポアソン分布の期待値$E[X]$は下記のように計算できる。
$$
\large
\begin{align}
E[X] &= \lambda e^{-\lambda} \sum_{k=0}^{\infty} \frac{\lambda^k}{k!} \\
&= \lambda e^{-\lambda} e^{\lambda} \\
&= \lambda
\end{align}
$$
次にポアソン分布の分散を$V[X]$とする。定義より下記のように計算できる。(ここでの計算は確率母関数を用いた計算と同様な流れになる。)
$$
\large
\begin{align}
V[X] &= E[X^2]-E[X]^2 \\
&= E[X(X-1)]+E[X]-E[X]^2
\end{align}
$$
$E[X]$はすでに求めているので、ここでは$E[X(X-1)]$を求めることを考える。
$$
\large
\begin{align}
E[X(X-1)] &= \sum_{k=0}^{\infty} k(k-1)P(X=k|\lambda) \\
&= \sum_{k=2}^{\infty} k(k-1) \times \frac{\lambda^k e^{-\lambda}}{k!} \\
&= e^{-\lambda} \sum_{k=2}^{\infty} \frac{\lambda^k}{(k-2)!} \\
&= e^{-\lambda} \sum_{k=0}^{\infty} \frac{\lambda^{k+2}}{k!} \\
&= \lambda^2 e^{-\lambda} \sum_{k=0}^{\infty} \frac{\lambda^k}{k!} \\
&= \lambda^2 e^{-\lambda} e^{\lambda} \\
&= \lambda^2
\end{align}
$$
よって、$V[X]=E[X(X-1)]+E[X]-E[X]^2$は下記のように計算できる。
$$
\large
\begin{align}
V[X] &= E[X(X-1)]+E[X]-E[X]^2 \\
&= \lambda^2 + \lambda – (\lambda)^2 \\
&= \lambda
\end{align}
$$
ここまでの導出によって、ポアソン分布の期待値は$E[X]=\lambda$、分散は$V[X]=\lambda$となる。

問題1.6の解答例

i)
下記を実行することで当てはまり具合を調べる。

import numpy as np

x = np.array([0., 1., 2., 3., 4.])
observed = np.array([109., 65., 22., 3., 1.])
lamb = np.sum(x*observed)/np.sum(observed)

fact_x = np.array([1., 1., 2., 2.*3., 2.*3.*4.])
poisson_p = lamb**x * np.e**(-lamb)/fact_x

print(lamb)
print(poisson_p*np.sum(observed))
print(poisson_p*np.sum(observed)-observed)

・実行結果

> print(lamb)
0.61
> print(poisson_p*np.sum(observed))
[ 108.67017381   66.28880603   20.21808584    4.11101079    0.62692915]
> print(poisson_p*np.sum(observed)-observed)
[-0.32982619  1.28880603 -1.78191416  1.11101079 -0.37307085]

実行結果を確認すると、誤差が$2$以内であることが確認できる。

ⅱ)
下記を実行することで当てはまり具合を調べる。

import numpy as np

x = np.array([0., 1., 2., 3., 4., 5., 6., 7.])
observed = np.array([74., 98., 90., 61., 21., 13., 7., 1.])
lamb = np.sum(x*observed)/np.sum(observed)

fact_x = np.array([1., 1., 2., 2.*3., 2.*3.*4., 2.*3.*4.*5., 2.*3.*4.*5.*6., 2.*3.*4.*5.*6.*7.])
poisson_p = lamb**x * np.e**(-lamb)/fact_x

print(lamb)
print(poisson_p*np.sum(observed))
print(poisson_p*np.sum(observed)-observed)

・実行結果

> print(lamb)
1.8054794520547945
> print(poisson_p*np.sum(observed))
[60.00440052  108.33671217   97.79985386   58.85854219   26.56697212
    9.59322445    2.88672827    0.74456123]
> print(poisson_p*np.sum(observed)-observed)
[-13.99559948  10.33671217   7.79985386  -2.14145781   5.56697212
  -3.40677555  -4.11327173  -0.25543877]

実行結果を確認すると、i)に比べて当てはまりが良くないことがわかる。これは交通事故が天候などによることからポアソン分布の前提のベルヌーイ試行が成立しないことに起因すると考えることができる。

問題1.7の解答例

期待値を$E[X]$、分散を$V[X]$とおく。それぞれ下記のように計算できる。
$$
\begin{align}
E[X] &= \int_{-\infty}^{\infty} xf(x) dx \\
&= \int_{a}^{b} \frac{1}{b-a}x dx \\
&= \left[ \frac{1}{2(b-a)} x^2 \right]_{a}^{b} \\
&= \left( \frac{1}{2(b-a)}b^2 – \frac{1}{2(b-a)}a^2 \right) \\
&= \frac{b^2-a^2}{2(b-a)} \\
&= \frac{(b-a)(b+a)}{2(b-a)} \\
&= \frac{a+b}{2} \\
V[X] &= \int_{-\infty}^{\infty} (x-E[X])^2f(x) dx \\
&= \int_{a}^{b} \frac{1}{b-a}(x-E[X])^2 dx \\
&= \int_{a}^{b} \frac{1}{b-a} \left( x-\frac{a+b}{2} \right)^2 dx \\
&= \left[ \frac{1}{3(b-a)} \left( x-\frac{a+b}{2} \right)^3 \right]_{a}^{b} \\
&= \frac{1}{3(b-a)} \left( \left( b-\frac{a+b}{2} \right)^3 – \left( b-\frac{a+b}{2} \right)^3 \right) \\
&= \frac{1}{3(b-a)} \left( \left(b-\frac{a+b}{2}\right)-\left(a-\frac{a+b}{2}\right) \right) \left( \left(b-\frac{a+b}{2}\right)^2 + \left(b-\frac{a+b}{2}\right)\left(a-\frac{a+b}{2}\right) + \left(a-\frac{a+b}{2}\right)^2 \right) \\
&= \frac{1}{3(b-a)}(b-a)\left( \frac{(a-b)^2}{4} + \frac{(a-b)(b-a)}{4} + \frac{(b-a)^2}{4} \right) \\
&= \frac{1}{3}\frac{(b-a)^2}{4} \\
&= \frac{(b-a)^2}{12}
\end{align}
$$
上記では$V[X]$の計算にあたって、$a^3-b^3=(a-b)(a^2+ab+b^2)$が成立することを用いた。

問題1.8の解答例

$X \sim Po(\lambda)$のモーメント母関数を$m_{X}(t)$とおくと、確率密度関数が$\displaystyle f(x|\lambda) = \frac{\lambda^{x}e^{-\lambda}}{x!}$であることより、$m_{X}(t)$は下記のように求めることができる。
$$
\large
\begin{align}
m_{X}(t) &= E[e^{tX}] = \sum_{k=0}^{\infty} e^{tk} f(x|\lambda) \\
&= \sum_{k=0}^{\infty} e^{tk} \times \frac{\lambda^{k}e^{-\lambda}}{k!} \\
&= e^{-\lambda} \sum_{k=0}^{\infty} \frac{(\lambda e^{t})^{k}}{k!} \\
&= e^{-\lambda} \times e^{\lambda e^{t}} \\
&= e^{\lambda(e^{t}-1)}
\end{align}
$$

上記の結果を活用することで、$X_1+X_2$のモーメント母関数$m_{X_1+X_2}(t)$は下記のように導出できる。
$$
\large
\begin{align}
m_{X_1+X_2}(t) &= E[e^{t(X_1+X_2)}] = E[e^{tX_1}]E[e^{tX_2}] \\
&= e^{\lambda_1(e^{t}-1)} \times e^{\lambda_2(e^{t}-1)} \\
&= e^{(\lambda_1+\lambda_2)(e^{t}-1)}
\end{align}
$$

上記が$Po(\lambda_1+\lambda_2)$に一致するので、モーメント母関数と確率分布の1対1対応より、$X_1+X_2 \sim Po(\lambda_1+\lambda_2)$であることを示すことができる。

問題1.9の解答例

i)
確率変数$X$が$X \sim Ex(\lambda)$のときのモーメント母関数を$m_{X}(t)$とおくと、$Ex(\lambda)$の確率密度関数が$f(x|\lambda) = \lambda e^{-\lambda x}, x \geq 0$であることから$m_{X}(t)$は下記のように計算できる。
$$
\large
\begin{align}
m_{X}(t) &= E[e^{tX}] = \int_{0}^{\infty} e^{tx} f(x|\lambda) dx \\
&= \int_{0}^{\infty} e^{tx} \times \lambda e^{-\lambda x} dx \\
&= \lambda \int_{0}^{\infty} e^{-(\lambda-t) x} dx \\
&= \frac{-\lambda}{\lambda-t} \left[ e^{-(\lambda-t) x} \right]_{0}^{\infty} \\
&= \frac{\lambda}{\lambda-t}
\end{align}
$$

上記の計算は$\lambda-t>0$の前提の元に行なったが、前提が成立しない時はモーメント母関数は存在しない。よって、$\lambda>t$の場合のみを以下では考える。

ここまでの結果を活用することで、$S_n$のモーメント母関数$m_{S_n}(t)$は下記のように導出できる。
$$
\large
\begin{align}
m_{S_n}(t) &= E[e^{t(X_1+X_2+…+X_n)}] = E[e^{tX_1}]…E[e^{tX_n}] \\
&= \prod_{i=1}^{n} \frac{\lambda}{\lambda-t} \\
&= \left( \frac{\lambda}{\lambda-t} \right)^n
\end{align}
$$

ⅱ)
「自然科学の統計学」の表記ではガンマ分布$Ga(\alpha,\lambda)$の確率密度関数$f(x|\alpha,\lambda)$は下記のように表される。
$$
\large
\begin{align}
f(x|\alpha,\lambda) = \frac{\lambda^{\alpha}}{\Gamma(\alpha)} x^{\alpha-1} e^{-\lambda x} \quad x \geq 0
\end{align}
$$
「現代数理統計学」では二つ目のパラメータが逆数で表されるなど、表記が異なる場合もあるので注意が必要である。

ここで確率変数$X \sim Ga(\alpha,\lambda)$を考えた時のモーメント母関数を$m_{X}(t)$とおくと、$m_{X}(t)$は下記のように計算できる。
$$
\large
\begin{align}
m_{X}(t) &= E[e^{tX}] = e^{tx} f(x|\alpha,\lambda) dx \\
&= \int_{0}^{\infty} e^{tx} \times \frac{\lambda^{\alpha}}{\Gamma(\alpha)} x^{\alpha-1} e^{-\lambda x} dx \\
&= \frac{\lambda^{\alpha}}{\Gamma(\alpha)} \int_{0}^{\infty} x^{\alpha-1} e^{-(\lambda-t) x} dx \\
&= \frac{\lambda^{\alpha}}{\Gamma(\alpha)} \times \left( \left[ \frac{-1}{\lambda-t} x^{\alpha-1} e^{-(\lambda-t) x} \right]_{0}^{\infty} + \frac{\alpha-1}{\lambda-t} \int_{0}^{\infty} x^{\alpha-2} e^{-(\lambda-t) x} dx \right) \\
&= \frac{\lambda^{\alpha}}{\Gamma(\alpha)} \times \frac{\alpha-1}{\lambda-t} \times \int_{0}^{\infty} x^{\alpha-2} e^{-(\lambda-t) x} dx \\
&= \frac{\lambda^{\alpha}}{\Gamma(\alpha)} \times \frac{\alpha-1}{\lambda-t} \times \frac{\alpha-2}{\lambda-t} \times \int_{0}^{\infty} x^{\alpha-3} e^{-(\lambda-t) x} dx \\
&= … \\
&= \frac{\lambda^{\alpha}}{\Gamma(\alpha)} \times \frac{\alpha-1}{\lambda-t} \times … \times \frac{1}{\lambda-t} \times \int_{0}^{\infty} x^{0} e^{-(\lambda-t) x} dx \\
&= \frac{\lambda^{\alpha}}{(\lambda-t)^{\alpha-1}} \times \int_{0}^{\infty} e^{-(\lambda-t) x} dx \\
&= \frac{\lambda^{\alpha}}{(\lambda-t)^{\alpha-1}} \times \left[ \frac{-1}{\lambda-t} e^{-(\lambda-t) x} \right]_{0}^{\infty} \\
&= \frac{\lambda^{\alpha}}{(\lambda-t)^{\alpha}} = \left( \frac{\lambda}{\lambda-t} \right)^{\alpha}
\end{align}
$$

上記の計算にあたっては$\Gamma(\alpha) = (\alpha-1)!$が成立することを用いた。

ⅲ)
ⅱ)で$\alpha=n$のようにおくと、i)の結果に一致する。モーメント母関数が一致することより、$S_n$の分布はガンマ分布$Ga(n,\lambda)$に等しいことが確認できる。

問題1.10の解答例

$X_1, X_2, …, X_n \sim Po(\lambda), i.i.d., \quad \lambda=1$であり、ポアソン分布の再生性より$S_n = X_1+X_2+…+X_n \sim Po(n)$が成立する。よって、下記のように考えることができる。
$$
\large
\begin{align}
e^{-n} \sum_{k=0}^{n} \frac{n^{k}}{k!} &= \sum_{k=0}^{n} \frac{n^{k} e^{-n}}{k!} \\
&= \sum_{k=0}^{n} P(S_n=k) \\
&= P(S_n \leq n) \\
&= P(S_n-n \leq 0) \\
&= P \left( \frac{S_n-n}{\sqrt{n \lambda}} \leq 0 \right) \\
\lambda &= 1
\end{align}
$$

上記に対して中心極限定理を適用すると、下記のように導出できる。
$$
\large
\begin{align}
\lim_{n \to \infty} P \left( \frac{S_n-n}{\sqrt{n \lambda}} \leq 0 \right) &= \Phi(0) = \frac{1}{2} \\
\Phi(x) &= \int_{-\infty}^{x} \frac{1}{\sqrt{2 \pi}} e^{-\frac{z^2}{2}} dz
\end{align}
$$

まとめ

Chapter.$1$では確率分布を中心に確率の基本について確認する内容でした。基本的に入門書でも記載のある内容ですが、重要事項のためなるべく問題演習を行なって慣れておくと良い内容だと思われました。

https://www.amazon.co.jp/dp/4130420674

「Ch.1 「確率の基礎」の章末問題の解答例 〜基礎統計学Ⅲ 自然科学の統計学(東京大学出版会)〜」への2件のフィードバック

コメントは受け付けていません。