Ch.5 「統計的決定理論の枠組み」の章末問題の解答例 〜現代数理統計学(学術図書出版社)〜

当記事は「現代数理統計学(学術図書出版社)」の読解サポートにあたってChapter.5の「統計的決定理論の枠組み」の章末問題の解説について行います。
基本的には書籍の購入者向けの解説なので、まだ入手されていない方は購入の上ご確認ください。また、解説はあくまでサイト運営者が独自に作成したものであり、書籍の公式ページではないことにご注意ください。(そのため著者の意図とは異なる解説となる可能性はあります)

↓下記が公式の解答なので、正確にはこちらを参照ください。
https://www.gakujutsu.co.jp/text/isbn978-4-7806-0860-1/

章末の演習問題について

問題5.1の解答例

$$
\large
\begin{align}
R(\theta, \tilde{\delta}) \leq R(\theta, \delta), {}^{\forall} \theta \implies R(\theta, \tilde{\delta}) = R(\theta, \delta), {}^{\forall} \theta
\end{align}
$$
(1)式が「$\delta$が許容的であるための必要十分条件である」ことを示す。必要条件と十分条件に分けて考える方がわかりやすいので、以下では必要条件と十分条件に分けて確認する。

・必要条件
「$\delta$が許容的 $\implies$ (1)が成立する」を示す。(1)において、ある$\theta_0$が存在し、$R(\theta, \tilde{\delta}) < R(\theta, \delta)$が成立する場合、$R(\theta, \tilde{\delta}) \leq R(\theta, \delta), {}^{\forall} \theta$より、$\tilde{\delta}$が$\delta$に優越する。
この場合、「$\delta$が許容的」ではなくなるため、「$\delta$が許容的」であるには$R(\theta, \tilde{\delta}) = R(\theta, \delta), {}^{\forall} \theta$である必要がある。

・十分条件
「(1)が成立する $\implies$ $\delta$が許容的」を示す。(1)が成立する場合、$\delta$に優越する$\tilde{\delta}$は存在しない。よって、(1)が十分条件であることも示すことができる。

問題5.2の解答例

$\delta$が許容的であるので、$\tilde{\delta}$は$\delta$に優越しない。よって$R(\theta_0, \delta) > R(\theta_0, \tilde{\delta})$となる$\theta_0$が存在するなら、$R(\theta_1, \delta) < R(\theta_1, \tilde{\delta})$となる$\theta_1$も存在する。

・直感的な解釈
上記は、「$\delta$が許容的」であるので$\delta$の上位互換は存在しないと考えるとわかりやすい。$\tilde{\delta}$が$\delta$の上位互換とならないことから、どこかしらで$\tilde{\delta}$が$\delta$を上回る際はどこかしらで$\delta$が$\tilde{\delta}$を上回る必要がある。

問題5.3の解答例

成功確率$\alpha$のベルヌーイ試行を表す確率変数を$U$とおき、$d_{\alpha}$の損失$L(\theta,d_{\alpha})$は指示関数$\mathit{I}$を用いて下記のように表すことができる。
$$
\large
\begin{align}
L(\theta,d_{\alpha}) = \mathit{I}_{U=1} L(\theta,d_0(X)) + \mathit{I}_{U=0} L(\theta,d_{*}(X))
\end{align}
$$
上記の両辺の期待値を取ると下記のようになる。
$$
\large \begin{align}
E[L(\theta,d_{\alpha})] &= E[ \mathit{I}_{U=1} L(\theta,d_0(X)) + \mathit{I}_{U=0} L(\theta,d_{*}(X)) ] \\
R(\theta,d_{\alpha}) &= \alpha R(\theta,d_0(X)) + (1 – \alpha) R(\theta,d_{*}(X))
\end{align}
$$

問題5.4の解答例

$$
\large
\begin{align}
\alpha \left(\begin{array}{c} 0 \\ 1 \end{array} \right) + (1-\alpha)\left(\begin{array}{c} 1/2 \\ 1/3 \end{array} \right) = \left(\begin{array}{c} c \\ c \end{array} \right)
\end{align}
$$
図(5.6)より、上記の連立方程式を解いて$\alpha$と$c$の値を求めればよい。

連立方程式を解くと、$\displaystyle \alpha=\frac{1}{7}, c=\frac{3}{7}$が得られる。よって点$M$は$\displaystyle (c,c) = \left( \frac{3}{7},\frac{3}{7} \right)$である。またこのときのミニマックス方式は、$d_0$を$\displaystyle \alpha=\frac{1}{7}$、$d^{*}$を$\displaystyle 1-\alpha=1-\frac{1}{7}=\frac{6}{7}$で用いる確率化決定方式であることも同時にわかる。

問題5.5の解答例

2つの決定方式$\delta_1, \delta_2$を考える。このとき問題5.3と同様に確率$\alpha$で$\delta_1$を適用する確率化決定方式の$\delta_{\alpha}$考える。$\delta_{\alpha}$の損失関数は問題5.3と同様に考えることで、下記のように表すことができる。
$$
\large
\begin{align}
L(\theta,\delta_{\alpha}(X)) = \mathit{I}_{U=1} L(\theta,\delta_1(X)) + \mathit{I}_{U=0} L(\theta,\delta_{2}(X))
\end{align}
$$

上記の期待値を考えることで下記が導出できる。
$$
\large
\begin{align}
E[L(\theta,\delta_{\alpha}(X))] &= E[\mathit{I}_{U=1} L(\theta,\delta_1(X)) + \mathit{I}_{U=0} L(\theta,\delta_{2}(X))] \\
&= E[\mathit{I}_{U=1}] E[L(\theta,\delta_1(X))] + E[\mathit{I}_{U=0}] E[L(\theta,\delta_{2}(X))] \\
&= \alpha E[L(\theta,\delta_1(X))] + (1 – \alpha) E[L(\theta,\delta_{2}(X))] \\
&= \alpha R(\theta,\delta_1(X)) + (1 – \alpha) R(\theta,\delta_2(X)) \\
R(\theta,\delta_{\alpha}(X)) &= \alpha R(\theta,\delta_1(X)) + (1 – \alpha) R(\theta,\delta_2(X))
\end{align}
$$

ここで$R(\theta,\delta_{\alpha}(X))$をリスクセットに含めると、$(1)$式は凸集合の定義に用いられる式であることから、リスクセットが凸集合であることがわかる。

問題5.6の解答例

問題5.7の解答例

「Ch.5 「統計的決定理論の枠組み」の章末問題の解答例 〜現代数理統計学(学術図書出版社)〜」への1件の返信

コメントは受け付けていません。