ブログ

統計検定1級 統計応用 問題解説 ~2018年11月実施 社会科学 問4、理工学 問3~

統計検定1級の2018年11月の「統計応用」の「社会科学 問4」、「理工学 問3」の解答例と解説について取り扱いました。他の問題の解答に関しては下記よりご確認ください。
https://www.hello-statisticians.com/stat_certifi_1_app

問題

詳しくは統計検定公式よりご確認ください。

解答

[1]
・期待値$E[X]$の導出
$y = \log{x}$とおき、置換積分の考え方を用いて期待値$E[X]$の計算を行うことを考える。
$$
\large
\begin{align}
E[X] &= \int_{0}^{\infty} x \times \frac{1}{\sqrt{2 \pi}\sigma x} \exp \left[ -\frac{(\log{x}-\mu)^2}{2 \sigma^2} \right] dx \\
&= \int_{0}^{\infty} \frac{1}{\sqrt{2 \pi}\sigma} \exp \left[ -\frac{(\log{x}-\mu)^2}{2 \sigma^2} \right] dx \\
&= \int_{-\infty}^{\infty} e^{y} \frac{1}{\sqrt{2 \pi}\sigma} \exp \left[ -\frac{(y-\mu)^2}{2 \sigma^2} \right] dy \\
&= \int_{-\infty}^{\infty} \frac{1}{\sqrt{2 \pi}\sigma} \exp \left[ y – \frac{(y-\mu)^2}{2 \sigma^2} \right] dy \\
&= \int_{-\infty}^{\infty} \frac{1}{\sqrt{2 \pi}\sigma} \exp \left[ – \frac{y^2 – 2 (\mu+\sigma^2)y + \mu^2}{2 \sigma^2} \right] dy \\
&= \int_{-\infty}^{\infty} \frac{1}{\sqrt{2 \pi}\sigma} \exp \left[ – \frac{(y – (\mu+\sigma^2))^2 – 2 \sigma^2(\mu + \sigma^2/2)}{2 \sigma^2} \right] dy \\
&= \exp \left( \mu + \frac{\sigma^2}{2} \right) \int_{-\infty}^{\infty} \frac{1}{\sqrt{2 \pi}\sigma} \exp \left[ – \frac{(y – (\mu+\sigma^2))^2}{2 \sigma^2} \right] dy \\
&= \exp \left( \mu + \frac{\sigma^2}{2} \right)
\end{align}
$$

・中央値$x_{median}$の導出
$Y = \log{X} \sim N(\mu,\sigma^2)$とおくと$Y$の中央値が$\mu$であることから下記が成立する。
$$
\large
\begin{align}
P(Y < \mu) &= P(\log{X} < \mu) = P(X < e^{\mu}) \\
&= 0.5
\end{align}
$$
よって、$x_{median}=\exp(\mu)$が成立する。

・最頻値$x_{mode}$の導出
下記のように確率密度関数$f(x)$を$x$で微分する。
$$
\large
\begin{align}
& f'(x) = \frac{d}{dx} \left( \frac{1}{\sqrt{2 \pi}\sigma x} \exp \left[ -\frac{(\log{x}-\mu)^2}{2 \sigma^2} \right] \right) \\
&= -\frac{1}{\sqrt{2 \pi}\sigma x^2} \exp \left[ -\frac{(\log{x}-\mu)^2}{2 \sigma^2} \right] + \frac{1}{\sqrt{2 \pi}\sigma x} \exp \left[ -\frac{(\log{x}-\mu)^2}{2 \sigma^2} \right] \times -\frac{(\log{x}-\mu)}{\sigma^2 x} \\
&= -\frac{1}{\sqrt{2 \pi}\sigma x^2} \exp \left[ -\frac{(\log{x}-\mu)^2}{2 \sigma^2} \right] \left( 1+\frac{\log{x}-\mu}{\sigma^2} \right)
\end{align}
$$

上記は$x>0$で単調減少であることから、$f'(x_{mode})=0$が成立する。
$$
\large
\begin{align}
f'(x) &= 0 \\
-\frac{1}{\sqrt{2 \pi}\sigma x_{mode}^2} \exp \left[ -\frac{(\log{x_{mode}}-\mu)^2}{2 \sigma^2} \right] \left( 1+\frac{\log{x}-\mu}{\sigma^2} \right) &= 0 \\
1+\frac{\log{x_{mode}}-\mu}{\sigma^2} &= 0 \\
\log{x_{mode}}-\mu &= -\sigma^2 \\
\log{x_{mode}} &= \mu – \sigma^2 \\
x_{mode} &= \exp(\mu – \sigma^2)
\end{align}
$$

ここまでの議論により、$x_{mode} < x_{median} < E[X]$であることがわかる。

[2]
観測値$x_1,x_2,…,x_n$が得られたときの$\mu$の尤度関数を$L(\mu)$とおくと、下記のように表すことができる。
$$
\large
\begin{align}
L(\mu) &= \prod_{i=1}^{n} f(x_i) \\
&= \prod_{i=1}^{n} \frac{1}{\sqrt{2 \pi}\sigma x_i} \exp \left[ -\frac{(\log{x_i}-\mu)^2}{2 \sigma^2} \right]
\end{align}
$$

ここで対数尤度を$l(\mu) = \log{L(\mu)}$のようにおくと、下記のように計算できる。
$$
\large
\begin{align}
l(\mu) &= \log{L(\mu)} \\
&= \log \prod_{i=1}^{n} \frac{1}{\sqrt{2 \pi}\sigma x_i} \exp \left[ -\frac{(\log{x_i}-\mu)^2}{2 \sigma^2} \right] \\
&= \sum_{i=1}^{n} \log \left( \frac{1}{\sqrt{2 \pi}\sigma x_i} \exp \left[ -\frac{(\log{x_i}-\mu)^2}{2 \sigma^2} \right] \right) \\
&= \sum_{i=1}^{n} \left( -\frac{(\log{x_i}-\mu)^2}{2 \sigma^2} + Const. \right) \\
&= -\sum_{i=1}^{n} \frac{(\log{x_i}-\mu)^2}{2 \sigma^2} + Const.
\end{align}
$$
上記では$\displaystyle \frac{\partial}{\partial \mu} l(\mu)$を計算するにあたって$\mu$に関係ない項は$Const.$のように表記した。

次に$\displaystyle \frac{\partial}{\partial \mu} l(\mu)$を計算する。
$$
\large
\begin{align}
\frac{\partial}{\partial \mu} l(\mu) &= \frac{\partial}{\partial \mu} \left( -\sum_{i=1}^{n} \frac{(\log{x_i}-\mu)^2}{2 \sigma^2} \right) \\
&= -\sum_{i=1}^{n} \frac{-2(\log{x_i}-\mu)}{2 \sigma^2} \\
&= \sum_{i=1}^{n} \frac{(\log{x_i}-\mu)}{\sigma^2}
\end{align}
$$

上記は$\mu$に関して単調増加であるので、$\displaystyle \frac{\partial}{\partial \mu} l(\mu) \Bigr|_{\mu=\hat{\mu}}=0$が成立する。
$$
\large
\begin{align}
\frac{\partial}{\partial \mu} l(\mu) \Bigr|_{\mu=\hat{\mu}} &= 0 \\
\sum_{i=1}^{n} \frac{(\log{x_i}-\hat{\mu})}{\sigma^2} &= 0 \\
\sum_{i=1}^{n} \log{x_i} &= \sum_{i=1}^{n} \hat{\mu} \\
\sum_{i=1}^{n} \log{x_i} &= n \hat{\mu} \\
\hat{\mu} &= \frac{1}{n} \sum_{i=1}^{n} \log{x_i}
\end{align}
$$

[3]
事前分布の確率密度関数を$p(\mu)$とおくと、$p(\mu)$は下記のように表すことができる。
$$
\large
\begin{align}
p(\mu) = \frac{1}{\sqrt{2 \pi}\tau} \exp \left[ -\frac{(\mu – \nu)^2}{2 \tau^2} \right]
\end{align}
$$

また、事後分布を$p(\mu|x_1,x_2,…,x_n)$とおくと、下記のように計算できる。
$$
\large
\begin{align}
p(\mu|x_1,x_2,…,x_n) & \propto f(x_1,…,x_n)p(\mu) \\
&= f(x_1)…f(x_n)p(\mu) \\
& \propto \exp \left[ -\frac{1}{2 \sigma^2} \sum_{i=1}^{n} (\log{x_i}-\mu)^2 \right] \times \frac{1}{\sqrt{2 \pi}\tau} \exp \left[ -\frac{(\mu – \nu)^2}{2 \tau^2} \right] \\
&= … \\
& \propto \exp \left[ – \frac{n \tau^2 + \sigma^2}{2 \sigma^2 \tau^2} \left( \mu – \frac{n \tau^2 \bar{y} + \sigma^2 \nu}{n \tau^2 + \sigma^2} \right)^2 \right]
\end{align}
$$
〜詳しい計算は平方完成によって得られますがやや複雑なのでここでは省略を行ないました。公式の解答に詳しい導出があるのでそちらを参照ください〜

上記より、$\mu$の事後分布は$\displaystyle N \left( \frac{n \tau^2 \bar{y} + \sigma^2 \nu}{n \tau^2 + \sigma^2},\frac{\sigma^2 \tau^2}{n \tau^2 + \sigma^2} \right)$であることがわかる。

[4]
表より$\hat{\mu}=7.72$である。これより各推定値は下記のように得られる。
$$
\large
\begin{align}
E[X] &= \exp \left( 7.72 + \frac{(0.25)^2}{2} \right) \\
&= 2324.47619… \simeq 2324.5 \\
x_{median} &= \exp \left( 7.72 \right) \\
&= 2252.9595… \simeq 2253.0 \\
x_{mode} &= \left( 7.72 – (0.25)^2 \right) \\
&= 2116.4596… \simeq 2116.5
\end{align}
$$

[5]
事前分布が$N(8,(0.5)^2)$のとき、[3]の結果を用いて事後分布の期待値は下記のように計算できる。
$$
\large
\begin{align}
\frac{n \tau^2 \bar{y} + \sigma^2 \nu}{n \tau^2 + \sigma^2} &= \frac{10 \times (0.5)^2 \times 7.72 + (0.25)^2 \times 8}{10 \times (0.25)^2 + (0.25)^2} \\
&= 7.72682… \simeq 7.73
\end{align}
$$

[6]
公式の解答が詳しいので省略。

解説

[1]と[3]の計算が複雑な一方で[4]と[5]は数式の導出結果を元に数値計算を行うだけなので簡単な印象でした。平方完成が関連する計算はなかなか複雑になるので、ある程度慣れが必要だと思います。特に[3]の計算は複雑だと思います。
20点配分なら[1]が5点、[2]が3点、[3]が7点、[4]が3点、[5]が2点、[6]が3点ほどが妥当な印象でした。

統計検定1級 統計応用 問題解説 ~2018年11月実施 理工学 問2~

統計検定1級の2018年11月の「統計応用、理工学」の問2の解答例と解説について取り扱いました。他の問題の解答に関しては下記よりご確認ください。
https://www.hello-statisticians.com/stat_certifi_1_app

問題

詳しくは統計検定公式よりご確認ください。

解答

[1]
・確率密度関数$f(x)$の導出
ワイブル分布$W(m,\eta)$の確率密度関数$f(x)$は$x \geq 0$で下記のように得ることができる。
$$
\large
\begin{align}
f(x) &= F'(x) = \frac{d}{dx} \left( 1 – \exp \left[ -\left( \frac{x}{\eta} \right)^m \right] \right) \\
&= -\exp \left[ -\left( \frac{x}{\eta} \right)^m \right] \times -m \frac{x^{m-1}}{\eta^{m}} \\
&= \left( \frac{m}{\eta} \right) \left( \frac{x}{\eta} \right)^{m-1} \exp \left[ -\left( \frac{x}{\eta} \right)^m \right]
\end{align}
$$

・最頻値$x_{mode}$の導出
確率密度関数$f(x)$を$x$に関して微分を行う。
$$
\large
\begin{align}
& f'(x) = \frac{d}{dx} \left( \left( \frac{m}{\eta} \right) \left( \frac{x}{\eta} \right)^{m-1} \exp \left[ -\left( \frac{x}{\eta} \right)^m \right] \right) \\
&= \frac{m(m-1)}{\eta^m} x^{m-2} \exp \left[ -\left(\frac{x}{\eta}\right)^{m} \right] + \frac{m}{\eta^m} x^{m-1} \exp \left[ -\left(\frac{x}{\eta}\right)^{m} \right] \times \frac{d}{dx} \left( -\left(\frac{x}{\eta}\right)^{m} \right) \\
&= \frac{m}{\eta^m} x^{m-2} \exp \left[ -\left(\frac{x}{\eta}\right)^{m} \right] \left( (m-1) – \frac{m}{\eta^{m}}x^{m} \right)
\end{align}
$$

ここで$x > 0$のとき、$\displaystyle \frac{m}{\eta^m} x^{m-2} \exp \left[ -\left(\frac{x}{\eta}\right)^{m} \right] > 0$が成立する。よって、$f'(x)$は$x > 0$で単調減少関数であり、$f'(x)=0$のとき最大値を取る。

よって$f'(x_{mode})=0$が成立することより、$x_{mode}$を下記のように導出することができる。
$$
\large
\begin{align}
f'(x_{mode}) &= 0 \\
(m-1) – \frac{m}{\eta^{m}}x_{mode}^{m} &= 0 \\
\frac{m}{\eta^{m}}x_{mode}^{m} &= m – 1 \\
x_{mode}^{m} &= \frac{(m – 1)\eta^{m}}{m} \\
x_{mode} &= \left( \frac{m – 1}{m} \right)^{\frac{1}{m}} \eta
\end{align}
$$

・$W(2,10), W(2,5)$のグラフの描画
ここでは省略するが、$m=2$を代入し、確率密度関数と$x_{mode}$を計算し、$\eta=5,10$を代入し、概形を作成すればよい。

[2]
ハザード関数$h(x)$は下記のように計算を行うことができる。
$$
\large
\begin{align}
h(x) &= \frac{f(x)}{1-F(x)} \\
&= \frac{\left( \frac{m}{\eta} \right) \left( \frac{x}{\eta} \right)^{m-1} \exp \left[ -\left( \frac{x}{\eta} \right)^m \right]}{\exp \left[ -\left( \frac{x}{\eta} \right)^m \right]} \\
&= \left( \frac{m}{\eta} \right) \left( \frac{x}{\eta} \right)^{m-1}
\end{align}
$$

上記よりハザード関数$h(x)$は、$m<1$では単調減少の関数、$m=1$では定数、$m>1$では単調増加の関数であることが分かる。

[3]
各部品の寿命を$X_1,X_2,…,X_k$、直列システムの寿命を$Y = \min(X_1,X_2,…,X_k)$のように定義する。このとき$Y$の分布関数を$F(y)$のように考えると、$F(y)$は下記のように計算できる。
$$
\large
\begin{align}
F(y) &= P(Y \leq y) = 1 – P(Y > y) \\
&= 1 – P(\min(X_1,X_2,…,X_k) > y) \\
&= 1 – P(X_1 > y, X_2 > y, …, X_k > y) \\
&= 1 – \prod_{i=1}^{k} P(X_i > y) \\
&= 1 – \prod_{i=1}^{k} \exp \left[ -\left( \frac{y}{\eta} \right)^m \right] \\
&= 1 – \left[ \exp \left[ -\left( \frac{y}{\eta} \right)^m \right] \right]^{k} \\
&= 1 – \exp \left[ -k \left( \frac{y}{\eta} \right)^m \right] \\
&= 1 – \exp \left[ -\left( \frac{y}{\eta / k^{\frac{1}{m}}} \right)^m \right]
\end{align}
$$

上記より$\displaystyle Y \sim W \left( m,\frac{\eta}{k^{\frac{1}{m}}} \right)$のように$Y$がワイブル分布$\displaystyle W \left( m,\frac{\eta}{k^{\frac{1}{m}}} \right)$に従うことが分かる。

[4]
$X$と$Y$の確率密度関数を
$f_1(x), f_2(y)$、$X$の累積分布関数を$F_1(x)$のようにそれぞれ定義する。このとき確率変数$X \sim W(2,10), Y \sim W(2,5)$に対して確率$P(X<Y)$は下記のように計算できる。
$$
\large
\begin{align}
P(X < Y) &= \int_{0}^{\infty} \int_{0}^{y} f_1(x)f_2(y) dx dy = \int_{0}^{\infty} F_1(y)f_2(y) dy \\
&= \int_{0}^{\infty} \left[ 1 – \exp \left[ -\left( \frac{y}{10} \right)^2 \right] \right] \left( \frac{2}{5} \right) \left( \frac{y}{5} \right)^{2-1} \exp \left[ -\left( \frac{y}{5} \right)^2 \right] dy \\
&= … = 0.2
\end{align}
$$

公式の解答を参考にしたが途中計算にわからない点があったので省略を行なった。

[5]
観測値$x_1,x_2,…,x_n$が得られた時の対数尤度関数$l(m,\eta)$は下記のように表すことができる。
$$
\large
\begin{align}
l(m,\eta) &= \log \prod_{i=1}^{n} \left( \frac{m}{\eta^{m}} x_i^{m-1} \exp \left[ \left( -\frac{x_i}{\eta} \right)^{m} \right] \right) \\
&= \sum_{i=1}^{n} \log \left( \frac{m}{\eta^{m}} x_i^{m-1} \exp \left[ \left( -\frac{x_i}{\eta} \right)^{m} \right] \right) \\
&= \sum_{i=1}^{n} \left( \log{m} – m \log{\eta} + (m-1) \log{x_i} – \left( \frac{x_i}{\eta} \right)^{m} \right)
\end{align}
$$

また、$\displaystyle \log \log{\frac{1}{1-F(x)}}$は下記のように計算できる。
$$
\large
\begin{align}
\log \log{\frac{1}{1-F(x)}} &= \log \log{\frac{1}{\exp \left[ -\left( \frac{x}{\eta} \right)^m \right]}} \\
&= \log{\left( \frac{x}{\eta} \right)^m} \\
&= m\log{x} – m\log{\eta}
\end{align}
$$
上記は$\log{x}$の1次式であると考えることができるので、$\displaystyle \left( \log{x_i},\log \log{\frac{1}{1-F(x_i)}} \right)$に関して回帰式を求めることでパラメータ$m,\eta$を算出することができる。

解説

[4]の導出過程がよくわからなかったので飛ばしましたが、全体的にオーソドックスな問題である印象でした。[5]に関しては対数尤度とワイブル確率紙の二つの手法を比較しているというのは問題文から読み取りやすいようにする方が良いのではという印象でした。
20点配分なら[1]が6点、[2]が3点、[3]が3点、[4]が3点、[5]が5点ほどが妥当である印象でした。ワイブル分布の計算は少々複雑なので、計算ミスなく解くのはなかなか大変そうでした。

統計検定1級 統計数理 問題解説 ~2018年11月実施 問1~

統計検定1級の2018年11月の「統計数理」の問1の解答例と解説について取り扱いました。他の問題の解答に関しては下記よりご確認ください。
https://www.hello-statisticians.com/stat_certifi_1_math

問題

詳しくは統計検定公式よりご確認ください。

解答

[1]
$$
\large
\begin{align}
s^2 = \frac{1}{n-1} \sum_{i=1}^{n} (X_i – \bar{X})^2
\end{align}
$$
上記で定義した$s^2$が母分散$\sigma^2$の不偏推定量であることを示す。

まず母平均を$\mu$と考え、$\displaystyle \sum_{i=1}^{n} (X_i – \mu)^2$に関して下記のような変形を考える。
$$
\large
\begin{align}
\sum_{i=1}^{n} (X_i – \mu)^2 &= \sum_{i=1}^{n} (X_i – \bar{X} + \bar{X} – \mu)^2 \\
&= \sum_{i=1}^{n} ((X_i – \bar{X}) + (\bar{X} – \mu))^2 \\
&= \sum_{i=1}^{n} ((X_i – \bar{X})^2 + (\bar{X} – \mu)^2 + 2(X_i – \bar{X})(\bar{X} – \mu)) \\
&= \sum_{i=1}^{n} (X_i – \bar{X})^2 + \sum_{i=1}^{n} (\bar{X} – \mu)^2 + 2 (\bar{X} – \mu) \sum_{i=1}^{n} (X_i – \bar{X}) \\
&= \sum_{i=1}^{n} (X_i – \bar{X})^2 + n(\bar{X} – \mu)^2 \quad (1)
\end{align}
$$

$(1)$式の両辺の期待値を取ると、$\displaystyle \bar{X} \sim N \left( \mu,\frac{\sigma^2}{n} \right)$より下記が成立する。
$$
\large
\begin{align}
E \left[ \sum_{i=1}^{n} (X_i – \mu)^2 \right] &= E \left[ \sum_{i=1}^{n} (X_i – \bar{X})^2 + n(\bar{X} – \mu)^2 \right] \\
E \left[ \sum_{i=1}^{n} (X_i – \bar{X})^2 \right] &= E \left[ \sum_{i=1}^{n} (X_i – \mu)^2 \right] – E \left[ n(\bar{X} – \mu)^2 \right] \\
&= \sum_{i=1}^{n} E \left[ (X_i – \mu)^2 \right] – n E \left[ (\bar{X} – \mu)^2 \right] \\
&= \sum_{i=1}^{n} \sigma^2 – n \times \frac{\sigma^2}{n} \\
&= n \sigma^2 – \sigma^2 \\
&= (n-1) \sigma^2
\end{align}
$$

よって、$s^2$に関して下記が成立する。
$$
\large
\begin{align}
E[s^2] &= E \left[ \frac{1}{n-1} \sum_{i=1}^{n} (X_i – \bar{X})^2 \right] \\
&= \frac{1}{n-1} E \left[ \sum_{i=1}^{n} (X_i – \bar{X})^2 \right] \\
&= \frac{1}{n-1} \times (n-1) \sigma^2 \\
&= \sigma^2
\end{align}
$$
上記は$s^2$が母分散$\sigma^2$の不偏推定量であることを意味する。

[2]
・期待値$E[Y]$の計算
期待値$E[Y]$は下記のように計算を行うことができる。
$$
\large
\begin{align}
E[Y] &= \int_{0}^{\infty} y g(y) dy \\
&= \int_{0}^{\infty} y \times \frac{\left( \frac{1}{2} \right)^{\frac{n-1}{2}}}{\Gamma \left( \frac{n-1}{2} \right)} y^{\frac{n-1}{2}-1} e^{-\frac{y}{2}} dy \\
&= \frac{\left( \frac{1}{2} \right)^{\frac{n-1}{2}}}{\Gamma \left( \frac{n-1}{2} \right)} \int_{0}^{\infty} y^{\frac{n+1}{2}-1} e^{-\frac{y}{2}} dy \\
&= \frac{\left( \frac{1}{2} \right)^{\frac{n-1}{2}}}{\Gamma \left( \frac{n-1}{2} \right)} \times \frac{\Gamma \left( \frac{n+1}{2} \right)}{\left( \frac{1}{2} \right)^{\frac{n+1}{2}}} \\
&= 2 \times \frac{\frac{n-1}{2} \cdot \Gamma \left( \frac{n-1}{2} \right)}{\Gamma \left( \frac{n-1}{2} \right)} \\
&= n – 1
\end{align}
$$

・分散$V[Y]$の計算
$V[Y]=E[Y^2]-E[Y]^2$のように導出できるので、$E[Y^2]$の計算を先に行う。
$$
\large
\begin{align}
E[Y^2] &= \int_{0}^{\infty} y^2 g(y) dy \\
&= \int_{0}^{\infty} y^2 \times \frac{\left( \frac{1}{2} \right)^{\frac{n-1}{2}}}{\Gamma \left( \frac{n-1}{2} \right)} y^{\frac{n-1}{2}-1} e^{-\frac{y}{2}} dy \\
&= \frac{\left( \frac{1}{2} \right)^{\frac{n-1}{2}}}{\Gamma \left( \frac{n-1}{2} \right)} \int_{0}^{\infty} y^{\left( \frac{n-1}{2}+2 \right)-1} e^{-\frac{y}{2}} dy \\
&= \frac{\left( \frac{1}{2} \right)^{\frac{n-1}{2}}}{\Gamma \left( \frac{n-1}{2} \right)} \times \frac{\Gamma \left( \frac{n-1}{2}+2 \right)}{\left( \frac{1}{2} \right)^{\frac{n-1}{2}+2}} \\
&= 2^2 \times \frac{\frac{n+1}{2} \cdot \frac{n-1}{2} \cdot \Gamma \left( \frac{n-1}{2} \right)}{\Gamma \left( \frac{n-1}{2} \right)} \\
&= n^2 – 1
\end{align}
$$

よって、$V[Y]$は下記のように示すことができる。
$$
\large
\begin{align}
V[Y] &= E[Y^2]-E[Y]^2 \\
&= n^2 – 1 – (n – 1)^2 \\
&= n^2 – 1 – (n^2 – 2n +1) \\
&= 2n – 2 \\
&= 2(n-1)
\end{align}
$$

・$s^2$の分散$V[s^2]$の計算
$\displaystyle \frac{(n-1)s^2}{\sigma^2} = Y \sim Ga \left( \frac{n-1}{2},2 \right)$のように考えることができるので、これに対して$V[Y]$の導出結果を活用する。
$$
\large
\begin{align}
V \left[ \frac{(n-1)s^2}{\sigma^2} \right] &= V[Y] \\
&= 2(n-1) \\
\left( \frac{(n-1)}{\sigma^2} \right)^2 V[s^2] &= 2(n-1) \\
V[s^2] &= 2(n-1) \times \frac{\sigma^4}{(n-1)^2} \\
&= \frac{2 \sigma^4}{n-1}
\end{align}
$$

下記でも同様の議論を行なった。
https://www.hello-statisticians.com/explain-books-cat/math_stat_practice_ch7.html#71

[3]
$E[\sqrt{Y}]$に関しては、[2]の$E[Y],E[Y^2]$と同様に導出することができる。
$$
\large
\begin{align}
E[\sqrt{Y}] &= \int_{0}^{\infty} \sqrt{y} g(y) dy \\
&= \int_{0}^{\infty} y^{\frac{1}{2}} \times \frac{\left( \frac{1}{2} \right)^{\frac{n-1}{2}}}{\Gamma \left( \frac{n-1}{2} \right)} y^{\frac{n-1}{2}-1} e^{-\frac{y}{2}} dy \\
&= \frac{\left( \frac{1}{2} \right)^{\frac{n-1}{2}}}{\Gamma \left( \frac{n-1}{2} \right)} \int_{0}^{\infty} y^{\frac{n}{2}-1} e^{-\frac{y}{2}} dy \\
&= \frac{\left( \frac{1}{2} \right)^{\frac{n-1}{2}}}{\Gamma \left( \frac{n-1}{2} \right)} \times \frac{\Gamma \left( \frac{n}{2} \right)}{\left( \frac{1}{2} \right)^{\frac{n}{2}}} \\
&= \frac{\sqrt{2} \Gamma \left( \frac{n}{2} \right)}{\Gamma \left( \frac{n-1}{2} \right)}
\end{align}
$$

また、$E[s]$の導出にあたっては、$V[s^2]$の議論における$\displaystyle \frac{(n-1)s^2}{\sigma^2} = Y$より、$\displaystyle s = \sigma \sqrt{\frac{Y}{n-1}}$と変形できることを利用することができる。
$$
\large
\begin{align}
E[s] &= E \left[ \sigma \sqrt{\frac{Y}{n-1}} \right] \\
&= \frac{\sigma}{\sqrt{n-1}} E[\sqrt{Y}] \\
&= \frac{\sigma}{\sqrt{n-1}} \times \frac{\sqrt{2} \Gamma \left( \frac{n}{2} \right)}{\Gamma \left( \frac{n-1}{2} \right)} \\
\end{align}
$$

[4]
偏り$E[s]-\sigma$をデルタ法を用いて求める。
$$
\large
\begin{align}
g(x) \simeq g(\theta) + g'(\theta)(x-\theta) + \frac{1}{2}g^{”}(\theta)(x-\theta)^2
\end{align}
$$

上記の両辺の$x$を確率変数$X$に置き換えて期待値を取る。
$$
\large
\begin{align}
E[g(X)] & \simeq E \left[ g(\theta) + g'(\theta)(X-\theta) + \frac{1}{2}g^{”}(\theta)(X-\theta)^2 \right] \\
&= g(\theta) + g'(\theta)(E[X]-\theta) + \frac{1}{2} g^{”}(\theta) E\left[ (X-\theta)^2 \right] \\
&= g(\theta) + \frac{1}{2} g^{”}(\theta)V[X] \quad (1)
\end{align}
$$

ここで$g(x)=\sqrt{x}$とおくと、$x$に関する$1$階微分、$2$階は下記のように計算できる。
$$
\large
\begin{align}
g'(x) &= \frac{1}{2} x^{-\frac{1}{2}} \\
g^{”}(x) &= \frac{1}{2} \times – \frac{1}{2} x^{-\frac{3}{2}} \\
&= – \frac{1}{4} x^{-\frac{3}{2}}
\end{align}
$$

上記の$g^{”}(x)$に$x=\theta=\sigma^2$を代入することで下記が得られる。
$$
\large
\begin{align}
g^{”}(\theta) &= – \frac{1}{4} x^{-\frac{3}{2}} \\
&= – \frac{1}{4} (\sigma^2)^{-\frac{3}{2}} \\
&= – \frac{1}{4 \sigma^3} \quad (2)
\end{align}
$$

$(2)$式を$(1)$式に代入を行うことで$E[s]$は下記のように近似できる。
$$
\large
\begin{align}
E[s] & \simeq g(\theta) + \frac{1}{2} g^{”}(\theta)V[X] \\
&= \sqrt{\sigma^2} + \frac{1}{2} \times – \frac{1}{4 \sigma^3} \times \frac{2 \sigma^4}{n-1} \\
& \simeq \sigma – \frac{\sigma}{4n}
\end{align}
$$

上記より偏りが$\displaystyle – \frac{\sigma}{4n}$であることが導出できる。

解説

不偏標本分散の推定に関連するオーソドックスな題材の出題と考えて良いと思われるので、推定論に関する演習に用いてもなかなか有意義な内容だと思われました。$E[s^2], V[s^2], E[s]$の導出がメインの流れであると抑えておくと良いと思います。
20点配分なら[1]が5点、[2]が5点、[3]が3点、[4]が7点くらいが妥当な印象でした。全体的に抑えておきたいトピックが多い印象だったので、統計検定に関係なく何度か復習しておくと良さそうでした。

統計検定1級 統計応用 理工学 問題解説 ~2018年11月実施 問1~

統計検定1級の2018年11月の「統計応用、理工学」の問1の解答例と解説について取り扱いました。他の問題の解答に関しては下記よりご確認ください。
https://www.hello-statisticians.com/stat_certifi_1_app

問題

詳しくは統計検定公式よりご確認ください。

解答

[1]
・累積分布関数$F(x)$の導出
指数分布の累積分布関数$F(x)$は$x>0$のとき、下記のように導出することができる。
$$
\large
\begin{align}
F(x) &= \int_{0}^{x} f(t) dt \\
&= \int_{0}^{x} \lambda e^{-\lambda t} dt \\
&= \lambda \left[ -\frac{1}{\lambda} e^{-\lambda t} \right]_{0}^{x} \\
&= -(e^{-\lambda x} – e^{0}) \\
&= 1 – e^{-\lambda x}
\end{align}
$$

また、$x \leq 0$のときは$F(x)=0$が成り立つ。

・モーメント母関数$m_{X}(t) = E[e^{tX}]$の導出
$t < \lambda$のとき、モーメント母関数$m_{X}(t)$は下記のように導出することができる。
$$
\large
\begin{align}
m_{X}(t) &= E[e^{tX}] \\
&= \int_{0}^{\infty} e^{tx} \times \lambda e^{-\lambda x} dx \\
&= \lambda \int_{0}^{\infty} e^{tx – \lambda x} dx \\
&= \lambda \int_{0}^{\infty} e^{-(\lambda-t)x} dx \\
&= -\frac{\lambda}{\lambda – t} \left[ e^{-(\lambda-t)x} \right]_{0}^{\infty} \\
&= -\frac{\lambda}{\lambda – t} (0-1) \\
&= \frac{\lambda}{\lambda – t}
\end{align}
$$

[2]
$$
\large
\begin{align}
g_{n}(w) &= \frac{\lambda^{n} w^{n-1} e^{-\lambda w}} \quad (w \geq 0) \\
&= 0 \quad (w < 0)
\end{align}
$$
上記の導出に関しては省略する。公式の解答ではたたみこみの公式と数学的帰納法を用いることで示される。

$t < \lambda$が成立するとき、モーメント母関数$m_{W}(t)$は$W=X_1+…+X_n$と[1]の結果を活用することで下記のように得られる。
$$
\large
\begin{align}
m_{W}(t) &= E[e^{tW}] \\
&= E[e^{t(X_1+…+X_n)}] \\
&= \prod_{i=1}^{n} E[e^{tX_i}] \\
&= \prod_{i=1}^{n} \frac{\lambda}{\lambda – t} \\
&= \left( \frac{\lambda}{\lambda – t} \right)^{n}
\end{align}
$$

[3]
$U \sim Uniform(0,1)$より、$U$の確率密度関数を$g(u)$のようにおくと、$g(u)$は下記のように表される。
$$
\large
\begin{align}
g(u) &= 1, \quad (0 \leq u \leq 1) \\
&= 0, \quad otherwise
\end{align}
$$

また、$X = -\lambda^{-1} \log U$を$U$に関して解くと下記のようになる。
$$
\large
\begin{align}
X &= -\lambda^{-1} \log U \\
-\lambda X &= \log U \\
U &= e^{-\lambda X}
\end{align}
$$
このとき、$0 \leq u \leq 1$に対応する$x$の区間は$0 \leq x$であることが元の式より分かる。

ここで確率変数$X$の確率密度関数を$f(x)$とおくと、$0 \leq u \leq 1, 0 \leq x$の区間における変数変換の式より$f(x)$は下記のように得られる。
$$
\large
\begin{align}
f(x) &= g(u) \left| \frac{du}{dx} \right| \\
&= 1 \times \left| – \lambda e^{-\lambda x} \right| \\
&= \lambda e^{-\lambda x}
\end{align}
$$
上記が指数分布の確率密度関数に一致するので、$X \sim Exp(\lambda)$が成立する。

・別解
累積分布関数$F(x)$を考えることで示すこともできる。公式の解答例が詳しいのでここでは省略する。

[4]
[1]の結果より、$P(X \geq x)$に関して下記が成立する。
$$
\large
\begin{align}
P(X \geq x) &= 1 – P(X \leq x) \\
&= 1 – F(x) \\
&= e^{-\lambda x}
\end{align}
$$

ここで$Y$を$X$の整数部分とすると、$y=0,1,2,…$に関して下記のように考えることができる。
$$
\large
\begin{align}
P(Y = y) &= P(y \leq X < y+1) \\
&= P(X \geq y) – P(X \geq y+1) \\
&= e^{-\lambda y} – e^{-\lambda (y+1)} \\
&= e^{-\lambda y} – e^{-\lambda y} e^{-\lambda} \\
&= \left( 1 – e^{-\lambda} \right) e^{-\lambda y} \\
&= \left( 1 – e^{-\lambda} \right) \left( e^{-\lambda} \right)^{y}
\end{align}
$$

上記に対して$\lambda = – \log(1-p)$を元に$1-e^{-\lambda}=p, e^{-\lambda}=1-p$を適用すると下記のように変形できる。
$$
\large
\begin{align}
P(Y = y) &= \left( 1 – e^{-\lambda} \right) \left( e^{-\lambda} \right)^{y} \\
&= p (1-p)^{y}
\end{align}
$$
上記が幾何分布の確率関数に一致するので所与の結果が得られる。

[5]

解説

統計検定1級 統計数理 問題解説 ~2018年11月実施 問4~

統計検定1級の2018年11月の「統計数理」の問4の解答例と解説について取り扱いました。他の問題の解答に関しては下記よりご確認ください。
https://www.hello-statisticians.com/stat_certifi_1_math

問題

詳しくは統計検定公式よりご確認ください。

解答

[1]
$X \sim N(0,1)$の確率密度関数を$f(x)$、$Y|X \sim N(\rho x,1-\rho^2)$の条件付き確率密度関数を$g(y|x)$のようにおくとき、$X,Y$の同時分布は$g(y|x)f(x)$のように表すことができる。よって、$Y$に関する周辺確率密度関数$g(y)$は下記のように求めることができる。
$$
\large
\begin{align}
g(y) &= \int_{-\infty}^{\infty} g(y|x)f(x) dx \\
&= \int_{-\infty}^{\infty} \frac{1}{\sqrt{2 \pi (1-\rho^2)}} \exp \left\{ -\frac{(y – \rho x)^2}{2(1-\rho^2)} \right\} \times \frac{1}{\sqrt{2 \pi}} \exp \left\{ -\frac{x^2}{2} \right\} dx \\
&= \int_{-\infty}^{\infty} \frac{1}{\sqrt{2 \pi (1-\rho^2)}} \frac{1}{\sqrt{2 \pi}} \exp \left\{ -\frac{(y – \rho x)^2}{2(1-\rho^2)} – \frac{x^2}{2} \right\} dx \quad (1)
\end{align}
$$

ここで上記の$\displaystyle -\frac{(y – \rho x)^2}{2(1-\rho^2)} – \frac{x^2}{2}$を展開し、$x$に関して平方完成を行うことを考える。
$$
\large
\begin{align}
-\frac{(y – \rho x)^2}{2(1-\rho^2)} – \frac{x^2}{2} &= -\frac{y^2 – 2\rho xy + \rho^2 x^2}{2(1-\rho^2)} – \frac{x^2(1-\rho^2)}{2(1-\rho^2)} \\
&= -\frac{y^2 – 2\rho xy + \rho^2 x^2 + x^2 – x^2\rho^2}{2(1-\rho^2)} \\
&= -\frac{x^2 – 2\rho xy + y^2}{2(1-\rho^2)} \\
&= -\frac{(x – \rho y)^2 + y^2 – \rho^2 y^2}{2(1-\rho^2)} \\
&= -\frac{(x – \rho y)^2 + y^2(1 – \rho^2)}{2(1-\rho^2)} \\
&= -\frac{(x – \rho y)^2}{2(1-\rho^2)} – \frac{y^2}{2} \quad (2)
\end{align}
$$

$(2)$式より、$(1)$式は下記のように変形を行うことができる。
$$
\large
\begin{align}
g(y) &= \int_{-\infty}^{\infty} \frac{1}{\sqrt{2 \pi (1-\rho^2)}} \frac{1}{\sqrt{2 \pi}} \exp \left\{ -\frac{(y – \rho x)^2}{2(1-\rho^2)} – \frac{x^2}{2} \right\} dx \\
&= \int_{-\infty}^{\infty} \frac{1}{\sqrt{2 \pi (1-\rho^2)}} \frac{1}{\sqrt{2 \pi}} \exp \left\{ -\frac{(x – \rho y)^2}{2(1-\rho^2)} – \frac{y^2}{2} \right\} dx \\
&= \frac{1}{\sqrt{2 \pi}} \exp \left\{ – \frac{y^2}{2} \right\} \int_{-\infty}^{\infty} \frac{1}{\sqrt{2 \pi (1-\rho^2)}} \exp \left\{ -\frac{(x – \rho y)^2}{2(1-\rho^2)} \right\} dx \\
&= \frac{1}{\sqrt{2 \pi}} \exp \left\{ – \frac{y^2}{2} \right\} \times 1 \\
&= \frac{1}{\sqrt{2 \pi}} \exp \left\{ – \frac{y^2}{2} \right\} \quad (3)
\end{align}
$$

上記の$\displaystyle \int_{-\infty}^{\infty} \frac{1}{\sqrt{2 \pi (1-\rho^2)}} \exp \left\{ -\frac{(x – \rho y)^2}{2(1-\rho^2)} \right\} dx = 1$は、$N(\rho y, 1-\rho^2)$の全区間の積分が$1$であることを用いた。

$(3)$式より、$Y \sim N(0,1)$であることも確認できる。

[2]
マルコフ性より、[1]の議論を$2$度行うことで$X_{t}=x_{t}$が与えられた際の$X_{t+1}$の従う分布が正規分布であることがわかる。よって、以下ではその期待値と分散を求める。

条件付き期待値$E[X_{t+1}|X_{t}=x_{t}]$は下記のように計算できる。
$$
\large
\begin{align}
E[X_{t+1}|X_{t}=x_{t}] &= E[E[X_{t+1}|Y_t,X_t,Y_{t-1},…,Y_0,X_0]|X_t=x_t] \\
&= E[E[X_{t+1}|Y_t]|X_t=x_t] \\
&= E[\rho Y_t|X_t=x_t] \\
&= \rho \times (\rho x_t) \\
&= \rho^2 x_t
\end{align}
$$

条件付き分散$V[X_{t+1}|X_{t}=x_{t}]$は下記のように計算できる。
$$
\large
\begin{align}
V[X_{t+1}|X_{t}=x_{t}] &= E[V[X_{t+1}|Y_t]|X_t=x_t] + V[E[X_{t+1}|Y_{t}]|X_t=x_t] \\
&= E[1-\rho^2|X_t=x_t] + V[\rho Y_t|X_t=x_t] \\
&= 1 – \rho^2 + \rho^2(1-\rho^2) \\
&= 1 – \rho^4
\end{align}
$$

よって$X_t=x_t$が与えられた際の$X_{t+1}$は$N(\rho^2 x_t,1 – \rho^4)$に従う。

[3]
公式の解答が詳しいのでここでは省略する。

解説

条件付き確率とマルコフ性について取り扱われた問題でした。20点配分なら[1]が6点、[2]が9点、[3]が6点ほどが妥当な印象でした。

統計検定1級 統計数理 問題解説 ~2018年11月実施 問2~

統計検定1級の2018年11月の「統計数理」の問2の解答例と解説について取り扱いました。他の問題の解答に関しては下記よりご確認ください。
https://www.hello-statisticians.com/stat_certifi_1_math

問題

詳しくは統計検定公式よりご確認ください。

解答

[1]
$P(X_i=1)$と$P(X_i=1,X_j=1), \quad i \neq j$はそれぞれ下記のように計算できる。
$$
\large
\begin{align}
P(X_i=1) &= \frac{{}_M P_1}{{}_N P_1} \\
&= \frac{M}{N} \\
P(X_i=1,X_j=1) &= \frac{{}_M P_2}{{}_N P_2} \\
&= \frac{M \times (M-1)}{N \times (N-1)} \\
&= \frac{M(M-1)}{N (N-1)}
\end{align}
$$

[2]
・期待値$E[X_i]$の導出
$$
\large
\begin{align}
E[X_i] &= 0 \times P(X_i=0) + 1 \times P(X_i=1) \\
&= \frac{M}{N}
\end{align}
$$

・分散$V[X_i]$の導出
$$
\large
\begin{align}
V[X_i] &= E[X_i^2] – E[X_i]^2 \\
&= 0^2 \times P(X_i=0) + 1^2 \times P(X_i=1) – \left( \frac{M}{N} \right)^2 \\
&= \frac{M}{N} – \left( \frac{M}{N} \right)^2 \\
&= \frac{MN – M^2}{N^2} \\
&= \frac{M(N – M)}{N^2}
\end{align}
$$

・共分散$Cov[X_i,X_j]$の導出
$$
\large
\begin{align}
Cov[X_i,X_j] &= E[X_iX_j] – E[X_i]E[X_j] \\
&= 1 \times P(X_i=1, X_j=1) – \left( \frac{M}{N} \right)^2 \\
&= \frac{M(M-1)}{N (N-1)} – \frac{M^2}{N^2} \\
&= \frac{MN(M-1) – M^2(N-1)}{N^2(N-1)} \\
&= \frac{M^2N – MN – M^2N + M^2}{N^2(N-1)} \\
&= \frac{M^2 – MN}{N^2(N-1)} \\
&= \frac{M(M – N)}{N^2(N-1)} \\
&= -\frac{M(N – M)}{N^2(N-1)}
\end{align}
$$

[3]
$P(X=x)$を考えるにあたっては$n$回の抽出のうち、赤球を$x$個、青球を$n-x$個引く確率だと考えれば良いので、下記のように求めることができる。
$$
\large
\begin{align}
P(X=x) &= \frac{{}_M C_x \times {}{N-M} C_{n-x}}{{}_N C_n} \\
&= \frac{{}_M C_x {}_{N-M} C_{n-x}}{{}_N C_n}
\end{align}
$$

[4]
・期待値$E[X]$の導出
$E[X]=E[X_1+…+X_n]=E[X_1]+…+E[X_n]$を元に下記のように導出することができる。
$$
\large
\begin{align}
E[X] &= E[X_1+…+X_n] \\
&= E[X_1] + … + E[X_n] \\
&= \frac{nM}{N}
\end{align}
$$

・分散$V[X]$の導出
$$
\large
\begin{align}
V[X] &= V[X_1+…+X_n] \\
&= \sum_{i=1}^{n} V[X_i] + \sum_{i \neq j} Cov[X_i,X_j] \\
&= n \times \frac{M(N – M)}{N^2} + n(n-1) \times -\frac{M(N – M)}{N^2(N-1)} \\
&= \frac{nM(N – M)(N-1) – n(n-1)M(N – M)}{N^2(N-1)} \\
&= \frac{nM(N – M)((N-1)-(n-1))}{N^2(N-1)} \\
&= \frac{nM(N – M)(N-n)}{N^2(N-1)}
\end{align}
$$

[5]
公式の解答が詳しいのでここでは省略する。

解説

$[3]$までは確率や期待値の定義に沿って計算を行えばそれほど難しくないと思います。また$[3]$の式が超幾何分布を表すことも抑えておくと良いです。また、$[4]$の導出にあたって$E[X]=E[X_1+…+X_n]=E[X_1]+…+E[X_n]$が成立する一方で、$V[X]=V[X_1+…+X_n]=V[X_1]+…+V[X_n]$が成立しないことは確認しておくと良いです。$X_1,…,X_n$が非復元抽出であることから類題の多くで成立する$i.i.d.,$がここでは成立していないことに注意が必要です。
20点配分なら[1]が3点、[2]が5点、[3]が2点、[4]が5点、[5]が5点が妥当な印象でした。[5]の議論に関しては複雑なように思われるので、飛ばして良いかもしれません。

統計検定1級 統計数理 問題解説 ~2018年11月実施 問5~

統計検定1級の2018年11月の「統計数理」の問5の解答例と解説について取り扱いました。他の問題の解答に関しては下記よりご確認ください。
https://www.hello-statisticians.com/stat_certifi_1_math

問題

詳しくは統計検定公式よりご確認ください。

解答

[1]
・$f_1(y)$の導出
$Y_1$の累積分布関数は$0 < y \leq 1$の範囲で下記のように考えることができる。
$$
\large
\begin{align}
F_{1}(y) &= P(Y_1 \leq y) \\
&= 1 – P(Y_1 > y)
\end{align}
$$

ここで$Y_1 \leq Y_2 \leq Y_3$より、「$Y_1 > y \iff Y_1 > y, Y_2 > y, Y_3 >y$」が成立する。よって、$F_{1}(y)$は下記のように表すことができる。
$$
\large
\begin{align}
F_{1}(y) &= 1 – P(Y_1 > y) \\
&= 1 – P(Y_1 > y, Y_2 > y, Y_3 >y) \\
&= 1 – P(Y_1 > y)P(Y_2 > y)P(Y_3 > y) \\
&= 1 – (1-y)^3
\end{align}
$$

確率密度関数$f_1(y)$は、上記の$F_1(y)$に対して微分を行うことで下記のように得られる。
$$
\large
\begin{align}
f_1(y) &= \frac{d}{dy} F_1(y) \\
&= \frac{d}{dy} (1 – (1-y)^3) \\
&= 3(1-y)^2
\end{align}
$$

・期待値$E[Y_1]$の導出
$E[Y_1]$は下記のように計算できる。
$$
\large
\begin{align}
E[Y_1] &= \int_{0}^{1} y f_1(y) dy \\
&= \int_{0}^{1} y \times 3(1-y)^2 dy \\
&= 3 \int_{0}^{1} (y^3-2y^2+y) dy \\
&= 3 \left[ \frac{y^4}{4} – \frac{2y^3}{3} + \frac{y^2}{2} \right]_{0}^{1} \\
&= 3 \left( \frac{1}{4} – \frac{2}{3} + \frac{1}{2} \right) \\
&= 3 \times \frac{1}{12} \\
&= \frac{1}{4}
\end{align}
$$

・$f_3(y)$の導出
$Y_3$の累積分布関数は$0 < y \leq 1$の範囲で下記のように考えることができる。
$$
\large
\begin{align}
F_{3}(y) = P(Y_3 \leq y)
\end{align}
$$

ここで$Y_1 \leq Y_2 \leq Y_3$より、「$Y_3 \leq y \iff Y_1 \leq y, Y_2 \leq y, Y_3 \leq y$」が成立する。よって、$F_{3}(y)$は下記のように表すことができる。
$$
\large
\begin{align}
F_{3}(y) &= P(Y_3 \leq y) \\
&= P(Y_1 \leq y, Y_2 \leq y, Y_3 \leq y) \\
&= P(Y_1 \leq y)P(Y_2 \leq y)P(Y_3 \leq y) \\
&= y^3
\end{align}
$$

確率密度関数$f_3(y)$は、上記の$F_3(y)$に対して微分を行うことで下記のように得られる。
$$
\large
\begin{align}
f_3(y) &= \frac{d}{dy} F_3(y) \\
&= \frac{d}{dy} (y^3) \\
&= 3y^2
\end{align}
$$

・期待値$E[Y_3]$の導出
$E[Y_3]$は下記のように計算できる。
$$
\large
\begin{align}
E[Y_3] &= \int_{0}^{1} y f_3(y) dy \\
&= \int_{0}^{1} y \times 3y^2 dy \\
&= 3 \int_{0}^{1} 3y^3 dy \\
&= 3 \left[ \frac{3 y^4}{4} \right]_{0}^{1} \\
&= \frac{3}{4}
\end{align}
$$

[2]
$0 < y \leq 1$の範囲で$Y_2 \leq y$が成立する場合は、「$Y_1,Y_2,Y_3 \leq y$」の場合か「$Y_1,Y_2 \leq y, Y_3 > y$」の場合のどちらかである。$y$を上回る$X_1,X_2,X_3$の選び方は$3$通りあるので、$Y_2$の累積分布関数$F_{2}(y)$は下記のように考えることができる。
$$
\large
\begin{align}
F_{2}(y) &= P(Y_1 \leq y, Y_2 \leq y, Y_3 \leq y) + {}_3 C_1 P(Y_1 \leq y, Y_2 \leq y, Y_3 > y) \\
&= P(Y_1 \leq y)P(Y_2 \leq y)P(Y_3 \leq y) + 3P(Y_1 \leq y)P(Y_2 \leq y)P(Y_3 > y) \\
&= y^3 + 3 y^2(1-y) \\
&= y^3 + 3y^2 – 3y^3 \\
&= 3y^2 – 2y^3
\end{align}
$$

よって確率密度関数$f_2(y)$は、上記の$F_2(y)$に対して微分を行うことで下記のように得られる。
$$
\large
\begin{align}
f_2(y) &= \frac{d}{dy} F_2(y) \\
&= \frac{d}{dy} (3y^2 – 2y^3) \\
&= 6y – 6y^2 \\
&= 6y(1-y)
\end{align}
$$

また、$P(Y_2 \leq 0.5)$は下記のように計算できる。
$$
\large
\begin{align}
P(Y_2 \leq 0.5) &= \int_{0}^{0.5} f_2(y) dy \\
&= \int_{0}^{0.5} (6y – 6y^2) dy \\
&= \left[ 3y^2 – 2y^3 \right]_{0}^{0.5} \\
&= 3 \times (0.5)^2 – 2 \times (0.5)^3 \\
&= 0.5
\end{align}
$$

[3]
確率変数$Z$の期待値を$E[Z]$とおくと、$E[Z]=E[Y_3-Y_1]=E[Y_3]-E[Y_1]$より、$E[Z]$は下記のように導出できる。
$$
\large
\begin{align}
E[Z] &= E[Y_3] – E[Y_1] \\
&= \frac{3}{4} – \frac{1}{4} \\
&= \frac{1}{2}
\end{align}
$$

分散の計算は公式の解答が詳しいのでここでは省略を行なった。

解説

順序統計量からの確率密度関数の導出にあたっては累積分布関数の微分から計算することでシンプルに導出することが可能です。一連の導出の流れは抑えておくと良いと思います。
20点配分なら[1]が7点、[2]が5点、[3]が8点ほどが妥当な印象でした。

統計検定1級 統計数理 問題解説 ~2018年11月実施 問3~

統計検定1級の2019年11月の「統計数理」の問3の解答例と解説について取り扱いました。他の問題の解答に関しては下記よりご確認ください。
https://www.hello-statisticians.com/stat_certifi_1_math

問題

詳しくは統計検定公式よりご確認ください。

解答

[1]
二項分布$Bin(n,p)$は$n$回のベルヌーイ試行に基づく分布であるので、$i$回目の試行を表す確率変数を$X_i \in \{0,1\}$のようにおくと、二項分布の確率変数$X$は$\displaystyle X = \sum_{i=1}^{n} X_i$のように表すことができる。

ここで確率変数$X_i$に対して期待値$E[X_i]$と分散$V[X_i]$は下記のように表すことができる。
$$
\large
\begin{align}
E[X_i] &= 0 \times (1-p) + 1 \times p \\
&= p \\
V[X_i] &= E[(X_i-E[X_i])^2] \\
&= E[X_i^2] – E[X_i]^2 \\
&= 0^2 \times (1-p) + 1^2 \times p – p^2 \\
&= p – p^2 \\
&= p(1-p)
\end{align}
$$

$X_1,X_2,…,X_n \sim Bin(1,p) \quad i.i.d.,$かつ上記より二項分布$Bin(n,p)$の期待値$E[X]$と分散$V[X]$は下記のように計算できる。
$$
\large
\begin{align}
E[X] &= E[X_1+X_2+…+X_n] \\
&= E[X_1]+E[X_2]+…+E[X_n] \\
&= np \\
V[X] &= V[X_1+X_2+…+X_n] \\
&= V[X_1]+V[X_2]+…+V[X_n] \\
&= np(1-p)
\end{align}
$$

$V[X_1+X_2+…+X_n]=V[X_1]+V[X_2]+…+V[X_n]$は一般的には成立しないが、$X_1,X_2,…,X_n$が$i.i.d.,$のときは成立するので上記の計算を行うことができた。
https://www.hello-statisticians.com/explain-terms-cat/expectation-variance-covariance.html

[2]
条件付き確率に関する公式より、$h(x) = P(X = x|X \geq 1)$は下記のように表すことができる。
$$
\large
\begin{align}
h(x) &= P(X = x|X \geq 1) \\
&= \frac{P(X = x, X \geq 1)}{P(X \geq 1)}
\end{align}
$$

ここで$P(X \geq 1) = 1 – P(X = 0)$より、$P(X \geq 1)$は下記のように求められる。
$$
\large
\begin{align}
P(X \geq 1) &= 1 – P(X = 0) \\
&= 1 – (1 – \theta)^n
\end{align}
$$

よって、条件付き確率$h(x)$は、下記のように導出できる。
$$
\large
\begin{align}
h(x) &= \frac{P(X = x, X \geq 1)}{P(X \geq 1)} \\
&= \frac{{}_n C_x \theta^x (1-\theta)^{n-x}}{1 – (1 – \theta)^n} \quad (x=1,2,…,n)
\end{align}
$$

[3]
・期待値$\eta(\theta)=E[X|X \geq 1]$の導出
$$
\large
\begin{align}
\eta(\theta) &= E[X|X \geq 1] \\
&= \sum_{x=1}^{n} x \times h(x) \\
&= \frac{1}{1 – (1 – \theta)^n} \sum_{x=1}^{n} x {}_n C_x \theta^x (1-\theta)^{n-x} \quad (1)
\end{align}
$$

期待値の定義に基づいて、$E[X|X \geq 1]$は上記のように変形できる。ここで$x {}_n C_x = n {}_{n-1} C_{x-1}$であることは下記のように示すことができる。
$$
\large
\begin{align}
x {}_n C_x &= x \times \frac{n!}{x!(n-x)!} \\
&= n \times \frac{(n-1)!}{(x-1)!(n-x)!} \\
&= n {}_{n-1} C_{x-1} \quad (2)
\end{align}
$$

$(2)$式より$(1)$式は下記のように変形できる。
$$
\large
\begin{align}
\eta(\theta) &= \frac{1}{1 – (1 – \theta)^n} \sum_{x=1}^{n} x {}_n C_x \theta^x (1-\theta)^{n-x} \\
&= \frac{1}{1 – (1 – \theta)^n} \sum_{x=1}^{n} n {}_{n-1} C_{x-1} \theta^x (1-\theta)^{n-x} \\
&= \frac{n}{1 – (1 – \theta)^n} \sum_{y=0}^{n-1} {}_{n-1} C_{y} \theta^{y+1} (1-\theta)^{n-y-1} \quad (3)
\end{align}
$$
上記の変形にあたっては$y=x-1, x=y+1$を用いて文字を置き換えた。

ここで$(3)$式の$\displaystyle \sum_{y=0}^{n-1} {}_{n-1} C_{y} \theta^{y+1} (1-\theta)^{n-x-1}$に対して二項定理より下記が成立する。
$$
\large
\begin{align}
\eta(\theta) &= \frac{n}{1 – (1 – \theta)^n} \sum_{y=0}^{n-1} {}_{n-1} C_{y} \theta^{y+1} (1-\theta)^{n-y-1} \\
&= \frac{n \theta}{1 – (1 – \theta)^n} \sum_{y=0}^{n-1} {}_{n-1} C_{y} \theta^{y} (1-\theta)^{n-y-1} \\
&= \frac{n \theta}{1 – (1 – \theta)^n} (\theta + 1 – \theta)^{n-1} \\
&= \frac{n \theta}{1 – (1 – \theta)^n}
\end{align}
$$

・分散$\xi(\theta)=V[X|X \geq 1]$の導出
$$
\large
\begin{align}
\xi(\theta) &= V[X|X \geq 1] \\
&= E[X(X-1)|X \geq 1] + E[X|X \geq 1] – E[X|X \geq 1]^2 \quad (4)
\end{align}
$$
期待値の定義に基づいて、$V[X|X \geq 1]$は上記のように変形できる。$E[X|X \geq 1]$はすでに求めたので、以下、$E[X(X-1)|X \geq 1]$の導出を行う。

$$
\large
\begin{align}
E[X(X-1)|X \geq 1] &= \sum_{x=1}^{n} x(x-1) \times h(x) \\
&= \frac{1}{1 – (1 – \theta)^n} \sum_{x=1}^{n} x(x-1) {}_n C_x \theta^x (1-\theta)^{n-x} \quad (5) \end{align}
$$ ここで$x(x-1) {}_n C_x$は$x=1$のとき$0$、$x \geq 2$のとき$x(x-1) {}_n C_x = n(n-1) {}_{n-2} C_{x-2}$であることは下記のように示すことができる。
$$
\large
\begin{align}
x(x-1) {}_n C_x &= x(x-1) \times \frac{n!}{x!(n-x)!} \\
&= n(n-1) \times \frac{(n-2)!}{(x-2)!(n-x)!} \\
&= n(n-1) {}_{n-2} C_{x-2} \quad (6)
\end{align}
$$

$(6)$式に基づいて$(5)$式は下記のように変形できる。
$$
\large
\begin{align}
E[X(X-1)|X \geq 1] &= \frac{1}{1 – (1 – \theta)^n} \sum_{x=1}^{n} x(x-1) {}_n C_x \theta^x (1-\theta)^{n-x} \\
&= \frac{1}{1 – (1 – \theta)^n} \sum_{x=2}^{n} x(x-1) {}_n C_x \theta^x (1-\theta)^{n-x} \\
&= \frac{1}{1 – (1 – \theta)^n} \sum_{x=2}^{n} n(n-1) {}_{n-2} C_{x-2} \theta^x (1-\theta)^{n-x} \\
&= \frac{n(n-1)}{1 – (1 – \theta)^n} \sum_{x=2}^{n} {}_{n-2} C_{x-2} \theta^x (1-\theta)^{n-x} \\
&= \frac{n(n-1)}{1 – (1 – \theta)^n} \sum_{y=0}^{n-2} {}_{n-2} C_{y} \theta^{y+2} (1-\theta)^{n-y-2} \\
&= \frac{n(n-1) \theta^2}{1 – (1 – \theta)^n} \sum_{y=0}^{n-2} {}_{n-2} C_{y} \theta^{y} (1-\theta)^{n-y-2} \\
&= \frac{n(n-1) \theta^2}{1 – (1 – \theta)^n} (\theta + 1 – \theta)^{n-2} \\
&= \frac{n(n-1) \theta^2}{1 – (1 – \theta)^n} \quad (7)
\end{align}
$$

$(4)$式は$(7)$式と$\eta(\theta)$の導出結果を用いることで、下記のように導出できる。
$$
\large
\begin{align}
\xi(\theta) &= E[X(X-1)|X \geq 1] + E[X|X \geq 1] – E[X|X \geq 1]^2 \\
&= \frac{n(n-1) \theta^2}{1 – (1 – \theta)^n} + \frac{n \theta}{1 – (1 – \theta)^n} – \left( \frac{n \theta}{1 – (1 – \theta)^n} \right)^2 \\
&= \frac{n^2 \theta – n \theta^2 + n \theta}{1 – (1 – \theta)^n} – \frac{n^2 \theta^2}{\left\{ 1 – (1 – \theta)^n \right\}^2} \\
&= \frac{n \theta(1 – \theta)}{1 – (1 – \theta)^n} + \frac{n^2 \theta^2(1 – (1 – \theta)^n) – n^2 \theta^2}{\left\{ 1 – (1 – \theta)^n \right\}^2} \\
&= \frac{n \theta(1 – \theta)}{1 – (1 – \theta)^n} + \frac{- n^2 \theta^2(1 – \theta)^n}{\left\{ 1 – (1 – \theta)^n \right\}^2} \\
&= \frac{n \theta(1 – \theta)}{1 – (1 – \theta)^n} – \frac{n^2 \theta^2(1 – \theta)^n}{\left\{ 1 – (1 – \theta)^n \right\}^2}
\end{align}
$$

[4]
$E[X] = n \theta$であるので、$\eta(\theta) = 2n \theta$が成立する$\theta$を求めればよい。
$$
\large
\begin{align}
\eta(\theta) &= 2n \theta \\
\frac{n \theta}{1 – (1 – \theta)^n} &= 2n \theta \\
\frac{1}{1 – (1 – \theta)^n} &= 2 \\
1 &= 2(1 – (1 – \theta)^n) \\
1 &= 2 – 2(1 – \theta)^n) \\
2(1 – \theta)^n) &= 1 \\
(1 – \theta)^n &= 0.5 \\
1 – \theta &= (0.5)^{\frac{1}{n}} \\
\theta &= 1 – (0.5)^{\frac{1}{n}}
\end{align}
$$
上記に対して$n=8$のときの$\theta$を計算すると、$\theta \simeq 1 – 0.917 = 0.083$が得られる。

[5]
観測値$y_1,…,y_m$に関する尤度を$L(\theta|\theta|y_1,…,y_m)$のようにおくと、$L(\theta|y_1,…,y_m)$は同時確率に一致することから下記のように表すことができる。
$$
\large
\begin{align}
L(\theta|y_1,…,y_m) = \prod_{i=1}^{n} \frac{{}_n C_{y_i} \theta^{y_i} (1-\theta)^{n-y_i}}{1-(1-\theta)^n}
\end{align}
$$

このとき対数尤度を$l(\theta) = \log L(\theta|y_1,…,y_m)$のようにおくと、$l(\theta)$は下記のように変形できる。
$$
\large
\begin{align}
l(\theta) &= \log L(\theta|y_1,…,y_m) \\
&= \log \prod_{i=1}^{n} \frac{{}_n C_{y_i} \theta^{y_i} (1-\theta)^{n-y_i}}{1-(1-\theta)^n} \\
&= \sum_{i=1}^{n} \log \left\{ \frac{{}_n C_{y_i} \theta^{y_i} (1-\theta)^{n-y_i}}{1-(1-\theta)^n} \right\} \\
&= \sum_{i=1}^{n} \left\{ \log {}_n C_{y_i} + y_i \log \theta (n-y_i) \log (1-\theta) – \log(1-(1-\theta)^n) \right\} \\
&= \sum_{i=1}^{n} \left\{y_i \log \theta + (n-y_i) \log (1-\theta) – \log(1-(1-\theta)^n) + Const. \right\}
\end{align}
$$
上記では$\theta$に関係ない項を$Const.$のようにおいた。

ここで$l(\theta)$を$\theta$で偏微分することを考える。
$$
\large
\begin{align}
\frac{\partial l(\theta)}{\partial \theta} &= \sum_{i=1}^{n} \left\{ \frac{y_i}{\theta} – \frac{n-y_i}{1-\theta} – \frac{-n(1-\theta)^{n-1} \times (-1)}{1-(1-\theta)^n} \right\} \\
&= \sum_{i=1}^{n} \left\{ \frac{y_i}{\theta} – \frac{n-y_i}{1-\theta} – \frac{n(1-\theta)^{n-1}}{1-(1-\theta)^n} \right\} \\
&= \frac{m \bar{y}}{\theta} – \frac{mn – m \bar{y}}{1-\theta} – \frac{mn(1-\theta)^{n-1}}{1-(1-\theta)^n}
\end{align}
$$

上記が$0$になる$\theta$の値を以下導出を行う。
$$
\large
\begin{align}
\frac{\partial l(\theta)}{\partial \theta} &= 0 \\
\frac{m \bar{y}}{\theta} – \frac{mn – m \bar{y}}{1-\theta} – \frac{mn(1-\theta)^{n-1}}{1-(1-\theta)^n} &= 0 \\
\frac{\bar{y}}{\theta} – \frac{n – \bar{y}}{1-\theta} &= \frac{n(1-\theta)^{n-1}}{1-(1-\theta)^n} \\
(\bar{y}(1-\theta) – (n – \bar{y})\theta) \left\{ 1-(1-\theta)^n \right\} &= n(1-\theta)^{n-1} \theta(1-\theta) \\
(\bar{y} – \bar{y}\theta – n \theta + \bar{y} \theta) \left\{ 1-(1-\theta)^n \right\} &= n \theta (1-\theta)^{n} \\
(\bar{y} – n \theta) \left\{ 1-(1-\theta)^n \right\} &= n \theta (1-\theta)^{n} \\
\bar{y} – \bar{y}(1-\theta)^n – n \theta + n \theta (1-\theta)^n &= n \theta (1-\theta)^{n} \\
n \theta &= \bar{y} \left\{ 1-(1-\theta)^n) \right\}
\end{align}
$$
パラメータ$\theta$の最尤推定値$\hat{\theta}$は上記に基づいて、何らかの数値計算の手法などを用いて計算することができる。

また、$(8)$式より、$\bar{y}$に関して下記が成立する。
$$
\large
\begin{align}
\bar{y} = \frac{n \theta}{1-(1-\theta)^n)} = \eta(\theta)
\end{align}
$$
よって、$\hat{\theta}$はモーメント法に基づく推定値でもあることが確認できる。

解説

[2]の分子の$P(X = x, X \geq 1)$の取り扱いがいきなり出てくるのでやや難しいかもしれません。[3]も期待値の定義に基づく変形に気づかなければ解くのが難しい印象でした。上記の解答では$x {}_n C_x = n {}_{n-1} C_{x-1}$と二項定理を用いましたが、計算ミスが多くなりやすいかもしれません。また、[3]の分散の計算にあたっては$V[X]=E[X(X-1)]+E[X]-E[X]^2$を用いましたが、これは確率母関数による$E[X], V[X]$の導出の際の式と同様なので、抑えておくと良いと思います。
20点配分なら[1]が3点、[2]が3点、[3]が5点、[4]が3点、[5]が6点ほどが全体の難易度から見ると妥当な印象ですが、解答状況を鑑みて序盤の問題に多めに点が配分されるかもしれません。

統計検定1級 統計数理 問題解説 ~2019年11月実施 問5~

統計検定1級の2019年11月の「統計数理」の問5の解答例と解説について取り扱いました。他の問題の解答に関しては下記よりご確認ください。
https://www.hello-statisticians.com/stat_certifi_1_math

問題

詳しくは統計検定公式よりご確認ください。

解答

[1]
・$E[\mu]$の導出
事前分布の期待値$E[\mu]$は下記のように考えることができる。
$$
\large
\begin{align}
E[\mu] &= \int_{-\infty}^{\infty} \mu \times g(\mu) d \mu \\
&= \int_{-\infty}^{\infty} \mu \times \frac{\lambda}{2} \exp \left\{ -\lambda|\mu-\xi| \right\} d \mu \\
&= \int_{-\infty}^{\xi} \mu \times \frac{\lambda}{2} \exp \left\{ \lambda(\mu-\xi) \right\} d \mu + \int_{\xi}^{\infty} \mu \times \frac{\lambda}{2} \exp \left\{ – \lambda(\mu-\xi) \right\} d \mu
\end{align}
$$

上記を詳しく導出するにあたって、$\displaystyle \int_{-\infty}^{\xi} \mu \times \frac{\lambda}{2} \exp \left\{ \lambda(\mu-\xi) \right\} d \mu$と$\displaystyle \int_{\xi}^{\infty} \mu \times \frac{\lambda}{2} \exp \left\{ -\lambda(\mu-\xi) \right\} d \mu$の計算を以下で行う。
$$
\large
\begin{align}
& \int_{-\infty}^{\xi} \mu \times \frac{\lambda}{2} \exp \left\{ \lambda(\mu-\xi) \right\} d \mu \\
&= \left[ \mu \times \frac{\lambda}{2} \times \frac{1}{\lambda} \exp \left\{ \lambda(\mu-\xi) \right\} \right]_{-\infty}^{\xi} – \int_{-\infty}^{\xi} (\mu)’ \times \frac{\lambda}{2} \times \frac{1}{\lambda} \exp \left\{ \lambda(\mu-\xi) \right\} d \mu \\
&= \frac{1}{2}(\xi \cdot 1 – 0) – \frac{1}{2} \int_{-\infty}^{\xi} \exp \left\{ \lambda(\mu-\xi) \right\} d \mu \\
&= \frac{\xi}{2} – \frac{1}{2} \left[ \frac{1}{\lambda} \exp \left\{ \lambda(\mu-\xi) \right\} \right]_{-\infty}^{\xi} \\
&= \frac{\xi}{2} – \frac{1}{2 \lambda} (1-0) \\
&= \frac{\xi}{2} – \frac{1}{2 \lambda}
\end{align}
$$

$$
\large
\begin{align}
& \int_{\xi}^{\infty} \mu \times \frac{\lambda}{2} \exp \left\{ -\lambda(\mu-\xi) \right\} d \mu \\
&= \left[ \mu \times \frac{\lambda}{2} \times \frac{-1}{\lambda} \exp \left\{ -\lambda(\mu-\xi) \right\} \right]_{\xi}^{\infty} – \int_{\xi}^{\infty} (\mu)’ \times \frac{\lambda}{2} \times \frac{-1}{\lambda} \exp \left\{ -\lambda(\mu-\xi) \right\} d \mu \\
&= -\frac{1}{2}(0 – \xi \cdot 1) + \frac{1}{2} \int_{\xi}^{\infty} \exp \left\{ -\lambda(\mu-\xi) \right\} d \mu \\
&= \frac{\xi}{2} + \frac{1}{2} \left[ \frac{-1}{\lambda} \exp \left\{ -\lambda(\mu-\xi) \right\} \right]_{\xi}^{\infty} \\
&= \frac{\xi}{2} – \frac{1}{2 \lambda} (0-1) \\
&= \frac{\xi}{2} + \frac{1}{2 \lambda}
\end{align}
$$

ここまでの議論より$E[\mu]$の計算を行うと下記が得られる。
$$
\large
\begin{align}
E[\mu] &= \int_{-\infty}^{\xi} \mu \times \frac{\lambda}{2} \exp \left\{ \lambda(\mu-\xi) \right\} d \mu + \int_{\xi}^{\infty} \mu \times \frac{\lambda}{2} \exp \left\{ \lambda(\mu-\xi) \right\} d \mu \\
&= \frac{\xi}{2} – \frac{1}{2 \lambda} + \frac{\xi}{2} + \frac{1}{2 \lambda} \\
&= \xi
\end{align}
$$

・$V[\mu]$の導出
事前分布の分散$V[\mu]$は下記のように考えることができる。
$$
\large
\begin{align}
V[\mu] &= E[(\mu-E[\mu])^2] \\
&= E[(\mu-\xi)^2] \\
&= \int_{-\infty}^{\infty} (\mu-\xi)^2 \times g(\mu) d \mu \\
&= \int_{-\infty}^{\infty} (\mu-\xi)^2 \times \frac{\lambda}{2} \exp \left\{ -\lambda|\mu-\xi| \right\} d \mu \\
&= \int_{-\infty}^{\xi} (\mu-\xi)^2 \times \frac{\lambda}{2} \exp \left\{ \lambda(\mu-\xi) \right\} d \mu + \int_{\xi}^{\infty} (\mu-\xi)^2 \times \frac{\lambda}{2} \exp \left\{ -\lambda(\mu-\xi) \right\} d \mu
\end{align}
$$

上記を詳しく導出するにあたって、$\displaystyle \int_{-\infty}^{\xi} (\mu-\xi)^2 \times \frac{\lambda}{2} \exp \left\{ \lambda(\mu-\xi) \right\} d \mu$と$\displaystyle \int_{\xi}^{\infty} (\mu-\xi)^2 \times \frac{\lambda}{2} \exp \left\{ -\lambda(\mu-\xi) \right\} d \mu$の計算を以下で行う。そのまま計算を行うと複雑なので、変数を$x = \lambda(\mu-\xi)$のように置き換えて積分を行う。
$$
\large
\begin{align}
\int_{-\infty}^{\xi} (\mu-\xi)^2 \times \frac{\lambda}{2} \exp \left\{ \lambda(\mu-\xi) \right\} d \mu &= \int_{-\infty}^{0} \left( \frac{x}{\lambda} \right)^2 \times \frac{\lambda}{2} \exp \left\{ x \right\} \times \frac{1}{\lambda} dx \\
&= \frac{1}{2 \lambda^2} \int_{-\infty}^{0} x^2 e^x dx \\
&= \frac{1}{2 \lambda^2} \left( \left[ x^2 e^x \right]_{-\infty}^{0} – \int_{-\infty}^{0} 2x e^x dx \right) \\
&= \frac{1}{2 \lambda^2} \left( (0-0) – 2 \left[ x e^x \right]_{-\infty}^{0} + \int_{-\infty}^{0} e^x dx \right) \\
&= \frac{1}{2 \lambda^2} \left( – 2(0-0) + 2 \left[ e^x \right]_{-\infty}^{0} \right) \\
&= \frac{1}{2 \lambda^2} \times 2(1-0) \\
&= \frac{1}{\lambda^2}
\end{align}
$$

$$
\large
\begin{align}
\int_{\xi}^{\infty} (\mu-\xi)^2 \times \frac{\lambda}{2} \exp \left\{ -\lambda(\mu-\xi) \right\} d \mu &= \int_{0}^{\infty} \left( \frac{x}{\lambda} \right)^2 \times \frac{\lambda}{2} \exp \left\{ -x \right\} \times \frac{1}{\lambda} dx \\
&= \frac{1}{2 \lambda^2} \int_{0}^{\infty} x^2 e^{-x} dx \\
&= \frac{1}{2 \lambda^2} \left( \left[ -x^2 e^x \right]_{0}^{\infty} + \int_{0}^{\infty} 2x e^{-x} dx \right) \\
&= \frac{1}{2 \lambda^2} \left( -(0-0) + 2 \left[ – x e^{-x} \right]_{0}^{\infty} + 2 \int_{0}^{\infty} e^x dx \right) \\
&= \frac{1}{2 \lambda^2} \left( – 2(0-0) + 2 \left[ -e^x \right]_{0}^{\infty} \right) \\
&= \frac{1}{2 \lambda^2} \times -2(0-1) \\
&= \frac{1}{\lambda^2}
\end{align}
$$

ここまでの議論より$V[\mu]$の計算を行うと下記が得られる。
$$
\large
\begin{align}
V[\mu] &= \int_{-\infty}^{\xi} (\mu-\xi)^2 \times \frac{\lambda}{2} \exp \left\{ \lambda(\mu-\xi) \right\} d \mu + \int_{\xi}^{\infty} (\mu-\xi)^2 \times \frac{\lambda}{2} \exp \left\{ -\lambda(\mu-\xi) \right\} d \mu \\
&= \frac{1}{\lambda^2} + \frac{1}{\lambda^2} \\
&= \frac{2}{\lambda^2}
\end{align}
$$

[2]
$\mathbf{y}=(y_1,y_2,…,y_n)$に関する同時確率密度関数を$f(y_1,y_2,…,y_n)$とおくと、$f(y_1,y_2,…,y_n)$に関して下記が成立する。
$$
\large
\begin{align}
f(y_1,y_2,…,y_n) &= \prod_{i=1}^{n} f(y_i) \\
&= \prod_{i=1}^{n} \frac{1}{\sqrt{2 \pi}} \exp \left[ -\frac{(y_i-\mu)^2}{2} \right] \\
&= (2 \pi)^{-\frac{n}{2}} \exp \left[ – \frac{1}{2} \sum_{i=1}^{n} (y_i-\mu)^2 \right]
\end{align}
$$

よって、$\mu$の事後確率$g(\mu|y_1,y_2,…,y_n)$は正規化定数を無視すると下記のように得ることができる。
$$
\large
\begin{align}
g(\mu|y_1,y_2,…,y_n) & \propto f(y_1,y_2,…,y_n) g(\mu) \\
&= (2 \pi)^{-\frac{n}{2}} \exp \left[ – \frac{1}{2} \sum_{i=1}^{n} (y_i-\mu)^2 \right] \times \frac{\lambda}{2} \exp \left[ – \lambda|\mu-\xi| \right] \\
&= \frac{\lambda}{2(2 \pi)^{\frac{n}{2}}} \exp \left[ – \frac{1}{2} \sum_{i=1}^{n} (y_i-\mu)^2 – \lambda|\mu-\xi| \right]
\end{align}
$$

[3]、[4]
難問だと思われるので、ここでは省略します。詳しくは公式の書籍をご確認ください。

解説

確率密度関数$g(\mu)$に絶対値が出てくることで全体的に計算が複雑な印象でした。[1]は積分区間を考えることで絶対値を通常の関数に変形し、その後に部分積分を行うことで計算を行えます。[2]に関してはベイズの定理を元に事前分布と事後分布を理解していればそれほど難しくないと思います。
[3]と[4]に関してはベイズ法の基本的な流れを理解しているだけでは試験中に解答できるとは思えなかったので、ここでは省略しました。
配点に関しては[1]が7点、[2]が3点、[3]が7点、[4]が3点ほどが妥当な印象で、[3]と[4]は部分点狙いで十分だと思われました。

統計検定1級 統計数理 問題解説 ~2019年11月実施 問4~

統計検定1級の2019年11月の「統計数理」の問4の解答例と解説について取り扱いました。他の問題の解答に関しては下記よりご確認ください。
https://www.hello-statisticians.com/stat_certifi_1_math

問題

詳しくは統計検定公式よりご確認ください。

解答

[1]
検定における第一種の過誤の確率$\alpha$は棄却域が$R=\{x:1<x<3\}$であることより、下記のように計算できる。
$$
\large
\begin{align}
\alpha &= P(1<X<3|\theta=0) \\
&= \int_{1}^{3} \frac{1}{\pi \{ 1+x^2 \}} \\
&= \frac{1}{\pi} \left[ \tan^{-1}(x) \right]_{1}^{3} \\
&= \frac{1}{\pi} (\tan^{-1}(3) – \tan^{-1}(1)) \\
&= \frac{1}{\pi} \left( 1.249 – \frac{\pi}{4} \right) \\
&= \frac{1.249}{3.1416} – \frac{1}{4} \\
&= 0.147568… \\
& \fallingdotseq 0.148
\end{align}
$$

[2]
検出力$1-\beta$は棄却域が$R=\{x:1<x<3\}$であることより、下記のように計算できる。
$$
\large
\begin{align}
1-\beta &= 1 – P(X<1, 3<X|\theta=1) \\
&= P(1<X<3|\theta=1) \\
&= \int_{1}^{3} \frac{1}{\pi \{ 1+(x-1)^2 \}} dx \\
&= \frac{1}{\pi} \left[ \tan^{-1}(x-1) \right]_{1}^{3} \\
&= \frac{1}{\pi} (\tan^{-1}(3-1) – \tan^{-1}(1-1)) \\
&= \frac{1}{\pi} (\tan^{-1}(2) – \tan^{-1}(0)) \\
&= \frac{1}{3.1416} (1.107 – 0) \\
&= 0.3523682… \\
& \fallingdotseq 0.352
\end{align}
$$

[3]
尤度比$\lambda(x)$を考えるにあたって、$f_{0}(x), f_{1}(x)$はそれぞれ下記のように表すことができる。
$$
\large
\begin{align}
f_{0}(x) &= \frac{1}{\pi ( 1+x^2 )} \\
f_{1}(x) &= \frac{1}{\pi \{ 1+(x-1)^2 \}}
\end{align}
$$

上記より、尤度比$\displaystyle \lambda(x) = \frac{f_{1}(x)}{f_{0}(x)}$は下記のように導出できる。
$$
\large
\begin{align}
\lambda(x) &= \frac{f_{1}(x)}{f_{0}(x)} \\
&= \frac{1}{\pi \{ 1+(x-1)^2 \}} \times \pi ( 1+x^2 ) \\
&= \frac{1+x^2}{1+(x-1)^2} \\
\end{align}
$$

上記で導出した$\lambda(x)$に$x=1, x=3$を代入することで下記を求めることができる。
$$
\large
\begin{align}
\lambda(1) &= \frac{1+1^2}{1+(1-1)^2} \\
&= \frac{1+1^2}{1+0^2} \\
&= 2 \\
\lambda(3) &= \frac{1+3^2}{1+(3-1)^2} \\
&= \frac{1+3^2}{1+2^2} \\
&= 2
\end{align}
$$

グラフの概形に関しては、$\lambda'(x)=0$より極値を持つ$x$の値を求め、$x \to \pm \infty$の極限を計算することで描くことができる。公式の書籍の解答がわかりやすいのでここでは省略を行う。

[4]
ネイマン・ピアソンの基本定理により、$\alpha$が与えられた条件下における最強力検定は、尤度比がある値以上の領域を棄却域に定める。[1]〜[3]の解答より、棄却域を$R={x:1<x<3}$にする検定が最強力検定となる。

解説

[1]〜[3]に関しては他の大問に比べて比較的計算しやすい問いが並んでいるので、大問5題中3題の選択にあたってはなるべくこういった問題を選ぶと良いと思われました。
[4]を理解するにあたっては、$H_{0}:\theta=0, H_{1}:\theta=1$の単純仮説検定に対して、尤度比$\lambda(x)$に対して$\lambda(x) > 2$を棄却域に定めたと考えれば[3]で作成を行うグラフより棄却域の$R=\{x:1<x<3\}$が対応するので、ネイマン・ピアソンの定理に対応付けて理解することができると思います。
20点配分なら[1]が5点、[2]が5点、[3]が7点、[4]が3点が妥当なのではないかと思います。[3]のグラフを正確に描くことができ、そこから[4]を考察できれば試験時であっても完答が狙えるのではないかと思います。