ブログ

ガウス過程の流れとPythonプログラムを用いたガウス過程の作成

カーネル法(Kernel methods)の応用例の一つにガウス過程(Gaussian Process)やガウス過程回帰(Gaussian Process Regression)があるので、当記事ではガウス過程の導出の流れとPythonプログラムを用いたガウス過程の作成に関して取り扱います。

作成にあたっては「ガウス過程と機械学習」の$3$章の「ガウス過程」と「パターン認識と機械学習」の$6.4$節の「Gaussian Processes」を参考にしました。

また、$(\mathrm{o.xx})$の形式の式番号は「パターン認識と機械学習」の式番号に対応させました。

・参考
カーネル関数の計算とPythonを用いたグラフの作成

ガウス過程回帰の仕組み

線形回帰とカーネル法

$N$個のサンプルの$D$次元特徴量ベクトル$\mathbf{x}_{1}, …, \mathbf{x}_{N}$を考える。このとき$\mathbf{x}_{n}$は下記のように表せる。
$$
\large
\begin{align}
\mathbf{x}_{n} = \left( \begin{array}{c} x_{n1} \\ \vdots \\ x_{nD} \end{array} \right)
\end{align}
$$

ここで、$D$次元ベクトル$\mathbf{x}_{n}$に対して$M$次元の基底$\phi_{0}(\mathbf{x}_n),…,\phi_{M-1}(\mathbf{x}_n)$を考える。このときデザイン行列$\boldsymbol{\Phi}$を下記のように定める。
$$
\large
\begin{align}
\boldsymbol{\Phi} = \left( \begin{array}{ccc} \phi_{0}(\mathbf{x}_{1}) & \cdots & \phi_{M-1}(\mathbf{x}_{1}) \\ \vdots & \ddots & \vdots \\ \phi_{0}(\mathbf{x}_{N}) & \cdots & \phi_{M-1}(\mathbf{x}_{N}) \end{array} \right)
\end{align}
$$

このとき、$D$次元ベクトル$\mathbf{x}_{n}$に対して、予測値の$y_{n}$を計算することを考える。$N$個のサンプルの予測値のベクトルを$\mathbf{y}$で定め、$M$次元の重みパラメータ$w_{0},…,w_{M-1}$を用いて下記のように表す。
$$
\large
\begin{align}
\mathbf{y} &= \boldsymbol{\Phi} \mathbf{w} \\
\left( \begin{array}{c} y_{1} \\ \vdots \\ y_{n} \end{array} \right) &= \left( \begin{array}{ccc} \phi_{0}(\mathbf{x}_{1}) & \cdots & \phi_{M-1}(\mathbf{x}_{1}) \\ \vdots & \ddots & \vdots \\ \phi_{0}(\mathbf{x}_{N}) & \cdots & \phi_{M-1}(\mathbf{x}_{N}) \end{array} \right) \left( \begin{array}{c} w_{0} \\ \vdots \\ w_{M-1} \end{array} \right)
\end{align}
$$

以下、$\mathbf{w} \sim \mathcal{N}(0,\lambda^2 I_{M})$であると仮定し、$\mathbf{y}$の分布について考える。$\mathbf{y}$の期待値ベクトル$\mathbb{E}[\mathbf{y}]$と共分散行列$\mathrm{Cov}[\mathbf{y}]$はそれぞれ下記のように計算できる。
$$
\large
\begin{align}
\mathbb{E}[\mathbf{y}] &= \mathbb{E}[\boldsymbol{\Phi} \mathbf{w}] \\
&= \boldsymbol{\Phi} \mathbb{E}[\mathbf{w}] = \mathbf{0} \quad (6.52) \\
\mathrm{Cov}[\mathbf{y}] &= \mathbb{E}[\mathbf{y}\mathbf{y}^{\mathrm{T}}] \\
&= \mathbb{E}[\boldsymbol{\Phi} \mathbf{w}(\boldsymbol{\Phi} \mathbf{w})^{\mathrm{T}}] \\
&= \boldsymbol{\Phi} \mathbb{E}[\mathbf{w}\mathbf{w}^{\mathrm{T}}] \boldsymbol{\Phi}^{\mathrm{T}} \\
&= \boldsymbol{\Phi} \lambda^2 I_{M} \boldsymbol{\Phi}^{\mathrm{T}} \\
&= \lambda^2 \boldsymbol{\Phi} \boldsymbol{\Phi}^{\mathrm{T}} \quad (6.53)’
\end{align}
$$

よって$\mathbf{y} \sim \mathcal{N}(\mathbf{0},\lambda^2 \boldsymbol{\Phi} \boldsymbol{\Phi}^{\mathrm{T}})$が成立する。

カーネル関数の定義

前項の導出結果の$\mathbf{y} \sim \mathcal{N}(\mathbf{0},\lambda^2 \boldsymbol{\Phi} \boldsymbol{\Phi}^{\mathrm{T}})$は下記のように表すこともできる。
$$
\large
\begin{align}
p(\mathbf{y}) = \mathcal{N}(\mathbf{0},\lambda^2 \boldsymbol{\Phi} \boldsymbol{\Phi}^{\mathrm{T}})
\end{align}
$$

ここで上記の$\lambda^2 \boldsymbol{\Phi} \boldsymbol{\Phi}^{\mathrm{T}}$に関して下記のように$K$を定義することを考える。
$$
\large
\begin{align}
K = \lambda^2 \boldsymbol{\Phi} \boldsymbol{\Phi}^{\mathrm{T}}
\end{align}
$$

ここで行列$K$の$i$行$j$列の要素$K_{ij}$はデザイン行列$\boldsymbol{\Phi}$の定義より下記のように表せる。
$$
\large
\begin{align}
K_{ij} &= \lambda^2 \sum_{m=0}^{M-1} \phi_{m}(\mathbf{x}_{i}) \phi_{m}(\mathbf{x}_{j}) \\
&= \lambda^2 \boldsymbol{\phi}(\mathbf{x}_{i})^{\mathrm{T}} \boldsymbol{\phi}(\mathbf{x}_{j}) = k(\mathbf{x}_{i},\mathbf{x}_{j}) \quad (6.54)’ \\
\boldsymbol{\phi}(\mathbf{x}_{i}) &= \left( \begin{array}{c} \phi_{0}(\mathbf{x}_{i}) \\ \vdots \\ \phi_{M-1}(\mathbf{x}_{i}) \end{array} \right)
\end{align}
$$

ここで上記の$k(\mathbf{x}_{i},\mathbf{x}_{j})$はカーネル関数であるが、以下では下記のようにカーネル関数を定めることを考える。
$$
\large
\begin{align}
k(\mathbf{x}_{i},\mathbf{x}_{j}) = \theta_{0} \exp \left[ -\frac{\theta_1}{2}||\mathbf{x}_{i}-\mathbf{x}_{j}||^2 \right] + \theta_2 + \theta_3 \mathbf{x}_{i}^{\mathrm{T}}\mathbf{x}_{j} \quad (6.63)’
\end{align}
$$

ここで上記の第$1$項の$\displaystyle \theta_{0} \exp \left[ -\frac{\theta_1}{2}||\mathbf{x}_{i}-\mathbf{x}_{j}||^2 \right]$は「パターン認識と機械学習」の$(6.23)$式のガウシアンカーネルに基づく。このガウシアンカーネルは無限次元の特徴量ベクトルに基づくカーネル関数であることを「パターン認識と機械学習」の演習$6.11$の解答で示した。また、$(6.13), (6.15), (6.17)$式などを用いて$(6.63)’$式が有効なカーネル関数であることも示せる。よって、$(6.63)’$式は無限次元の特徴量ベクトルに基づくカーネル関数であると考えられる。

このとき、$p(\mathbf{y}) = \mathcal{N}(\mathbf{0},\lambda^2 \boldsymbol{\Phi} \boldsymbol{\Phi}^{\mathrm{T}}) = \mathcal{N}(\mathbf{0},K)$に基づいてガウス過程$\mathbf{y}$の生成を行うことができる。

ガウス過程の生成

前項の流れで計算した$K$を用いて$p(\mathbf{y}) = \mathcal{N}(\mathbf{0},K)$に基づいて$\mathbf{y}$を生成することを以下考える。

上記を考える際に多次元正規分布のサンプルの生成に関して考えれば良いが、共分散行列$K$を行列分解することでサンプルの生成を行うことができる。まず、「ガウス過程と機械学習」で取り扱うcholesky分解を参考に$K = LL^{\mathrm{T}}$のように行列分解できると考える。

この際に$\mathbf{x} \sim \mathcal{N}(\mathbf{0},I_M)$からサンプリングを行なった$\mathbf{x}$に対して$L\mathbf{x}$を計算することで$p(\mathbf{y}) = \mathcal{N}(\mathbf{0},K)$に基づいて$\mathbf{y}$を生成できる。$\mathbf{y}=L\mathbf{x}$に基づいて生成を行なった$\mathbf{y}$に関して$\mathbf{y} \sim \mathcal{N}(\mathbf{0},\mathbf{\Sigma})$が成立することに関する詳しい導出は「パターン認識と機械学習」の演習$11.5$の解答で取り扱った。

Pythonプログラムを用いたガウス過程の作成

カーネル関数の計算

まずはカーネル関数の計算に関して取り扱う。下記を実行することでカーネル関数の計算と可視化を行うことができる。

import numpy as np
import matplotlib.pyplot as plt

theta = np.array([1., 4., 0., 0.])

x = np.arange(-1.,1.01,0.01)
n = x.shape[0]
K = np.zeros([n,n])

for i in range(n):
    for j in range(n):
        K[i,j] = theta[0]*np.exp(-theta[1]*(x[i]-x[j])**2/2) + theta[2] + theta[3]*x[i]*x[j]

plt.imshow(K)
plt.show()

・実行結果

上記より、$x$の値が近い所のカーネル関数が大きい値を持つことが確認できる。

行列分解

cholesky分解

共分散行列のcholesky分解と可視化は下記を実行することで計算できる。

np.random.seed(0)

theta = np.array([1., 10., 0., 0.])

x = np.arange(0.,5.1,0.1)
n = x.shape[0]
K = np.zeros([n,n])

for i in range(n):
    for j in range(n):
        K[i,j] = theta[0]*np.exp(-theta[1]*(x[i]-x[j])**2/2) + theta[2] + theta[3]*x[i]*x[j]

L = np.linalg.cholesky(K)

plt.subplot(121)
plt.imshow(K)

plt.subplot(122)
plt.imshow(L)

plt.show()

・実行結果

(左)共分散行列$K$、(右)分解後の行列$L$

cholesky分解は対称行列を下三角行列に分解する手法であるので、可視化の結果は妥当であると考えることができる。

Eckart-Young分解

cholesky分解は下三角行列への分解であるが、固有値分解の考え方を元に下記のようにEckart-Young分解を行うこともできる。

np.random.seed(0)

theta = np.array([1., 10., 0., 0.])

x = np.arange(0.,10.1,0.1)
n = x.shape[0]
K = np.zeros([n,n])

for i in range(n):
    for j in range(n):
        K[i,j] = theta[0]*np.exp(-theta[1]*(x[i]-x[j])**2/2) + theta[2] + theta[3]*x[i]*x[j]

Lamb, U_T = np.linalg.eig(K)
Lamb, U_T = Lamb.real, U_T.real
U = U_T.T

A = np.dot(U_T,np.diag(np.sqrt(Lamb)))

plt.subplot(121)
plt.imshow(K)

plt.subplot(122)
plt.imshow(A)

plt.show()

・実行結果

(左)共分散行列$K$、(右)分解後の行列

分解後の行列の左側の要素が値を持ち、右側が値を持たないのは固有値の大きいものからベクトルを並べたことに起因する。

ガウス過程の生成

import numpy as np
import matplotlib.pyplot as plt
from scipy import stats

np.random.seed(0)

theta = np.array([1., 10., 0., 0.])

x = np.arange(0.,2.02,0.02)
n = x.shape[0]
K = np.zeros([n,n])

for i in range(n):
    for j in range(n):
        K[i,j] = theta[0]*np.exp(-theta[1]*(x[i]-x[j])**2/2) + theta[2] + theta[3]*x[i]*x[j]

Lamb, U_T = np.linalg.eig(K)
Lamb, U_T = Lamb.real, U_T.real
U = U_T.T

A = np.dot(U_T,np.diag(np.sqrt(Lamb+10**(-12.))))

for i in range(5):
    y = np.dot(A,stats.norm.rvs(loc=0,scale=1,size=n))
    plt.plot(x,y)

plt.show()

・実行結果

$(6.63)$式に対し、$\theta_0=1,\theta_1=10,\theta_2=0,\theta_3=0$で実行
np.random.seed(0)

theta = np.array([1., 100., 0., 0.])

x = np.arange(0.,2.02,0.02)
n = x.shape[0]
K = np.zeros([n,n])

for i in range(n):
    for j in range(n):
        K[i,j] = theta[0]*np.exp(-theta[1]*(x[i]-x[j])**2/2) + theta[2] + theta[3]*x[i]*x[j]

Lamb, U_T = np.linalg.eig(K)
Lamb, U_T = Lamb.real, U_T.real
U = U_T.T

A = np.dot(U_T,np.diag(np.sqrt(Lamb+10**(-12.))))

for i in range(5):
    y = np.dot(A,stats.norm.rvs(loc=0,scale=1,size=n))
    plt.plot(x,y)

plt.show()

・実行結果

$(6.63)$式に対し、$\theta_0=1,\theta_1=100,\theta_2=0,\theta_3=0$で実行

統計検定準1級 問題解説 ~2017年6月実施 選択問題及び部分記述問題 問4~

過去問題

過去問題は統計検定公式が問題と解答例を公開しています。こちらを参照してください。

解答

[1] 解答

$\boxed{ \ \mathsf{1}\ }$ : ②

方法$1$では$2$枚のパンを大量のパンの中から$2$回選ぶので、$1$回目に選んだパンの厚さを$X_1$、$2$回目に選んだパンの厚さを$X_2$とすると、サンドイッチの厚さ$Z_1$は$Z_1=X_1+X_2+Y$と表すことができる。また$X_1$、$X_2$、$Y$は独立であるから、

\[V(Z_1)= V(X_1)+V(X_2)+V(Y) = 2.25\]

となる.

方法2におけるサンドイッチの厚さ$Z_2$は、パンを$1$度しか選ばないので、$Z_2 = 2X + Y$と表すことができ、$X$と$Y$は独立であるから、

\[V(Z_2) = 4V(X)+Y = 4.25\]

となる。

参考

・準$1$級関連まとめ
https://www.hello-statisticians.com/toukeikentei-semi1

統計検定準1級 問題解説 ~2017年6月実施 選択問題及び部分記述問題 問3~

過去問題

過去問題は統計検定公式が問題と解答例を公開しています。こちらを参照してください。

解答

[1] 解答

$\boxed{ \ \mathsf{記述6}\ }$ : クロスバリデーション,交差検証法

問題文の、『このように』が指している記述は「データの一部を用いて回帰パラメータの推定を行い、推定されたモデルで残りのデータに対する予測誤差を評価する」のことであるから、この手法の名称を答えれば良い。

[2] 解答

$\boxed{ \ \mathsf{記述7}\ }$ : $L_1$正則化にはスパース性があるが、$L_2$正則化にはスパース性がない。

正則化項$\displaystyle \lambda \sum_{j=1}^{227}|\beta_j|^q $において、$q=1$としたものが$L_1$正則化項、$q=2$としたものが$L_2$正則化項である。$L_2$ノルムと比べて$L_1$ノルムの方が値が小さい($0$に近い)パラメータに対する罰則が大きくなるため(正則化項が大きくなるため採用されにくい。$L_2$ノルムでは小さい値は$2$乗されるため影響が小さくなる。)、$L_1$正則化を行った場合に採用されたパラメータには$0$が多くなる傾向がある。このようにして得られたモデルをスパースモデルという。

参考

・準$1$級関連まとめ
https://www.hello-statisticians.com/toukeikentei-semi1

統計検定準1級 問題解説 ~2017年6月実施 選択問題及び部分記述問題 問2~

過去問題

過去問題は統計検定公式が問題と解答例を公開しています。こちらを参照してください。

解答

[1] 解答

$\boxed{ \ \mathsf{記述4}\ }$ : $\beta = 1-(1-p)^n$

ウイルスが発見されない確率は、それぞれの株において$1-p$であるから、$n$株すべてにおいてウイルスが発見されない確率は$(1-p)^n$である。

したがって、少なくとも$1$ 株はウイルスが見つかる確率$\beta$は$\beta = 1-(1-p)^n$である。

[2] 解答

$\boxed{ \ \mathsf{記述5}\ }$ : $n = 46000$

$(1-p)^n = 1-\beta$の両辺は正なので、両辺の自然対数をとると$n\log(1-p) = \log(1-\beta)$となる。$\log(1-p)$を$-p$で置き換えて、$p = 1/10000$,$\beta = 0.99 $を代入すると、$\dfrac{-n}{10000} = \log(0.01)$となり、さらに、$\log(0.01)\approx -4.6$であるから$\dfrac{-n}{10000} = -4.6$。したがって、$n = 46000$ である。

参考

・準$1$級関連まとめ
https://www.hello-statisticians.com/toukeikentei-semi1

$1/(ax^2+b)$を含む積分などの公式とそれぞれの導出の流れ|積分の公式一覧とその導出③

積分は微分の逆の演算ですが、関数形によっては積分の計算が行えない場合や、部分積分や置換積分のようになんらかの処理が必要な場合があるので詳しくまとめます。当記事では「Wikipedia:原始関数の一覧」より$1/(ax^2+b)$を含む積分などに関して、導出を追記する形式で取り扱いました。

基本的には不定積分のみを取り扱いますが、定積分は$\displaystyle \left[ F(x)+C \right]_{a}^{b}=(F(a)+C)-(F(b)+C)=F(a)-F(b)$のようにそれぞれ同様に計算ができることから定積分の取り扱いに関しては省略します。

数式一覧

$$
\large
\begin{align}
\int \frac{1}{x^2+\alpha^2} dx &= \frac{1}{\alpha} \tan^{-1} \left( \frac{x}{\alpha} \right) + C \\
\int \frac{1}{ax^2+b} dx &= \frac{1}{\sqrt{ab}} \tan^{-1} \left( \sqrt{\frac{a}{b}}x \right) + C
\end{align}
$$

導出の詳細

・$\displaystyle \int \frac{1}{x^2+\alpha^2} dx = \frac{1}{\alpha} \tan^{-1} \left( \frac{x}{\alpha} \right) + C$

$x = \alpha \tan{\theta}$のように置き換えることを考える。このとき$\displaystyle \frac{1}{x^2+\alpha^2}$は下記のように変形できる。
$$
\large
\begin{align}
\frac{1}{x^2+\alpha^2} &= \frac{1}{(\alpha \tan{\theta})^2+\alpha^2} \\
&= \frac{1}{\displaystyle \alpha^2 \frac{\sin^{2}{\theta}}{\cos^{2}{\theta}} + \alpha^2} \\
&= \frac{\cos^{2}{\theta}}{\alpha^2 \sin^{2}{\theta} + \alpha^2 \cos^{2}{\theta}} \\
&= \frac{\cos^{2}{\theta}}{\alpha^2(\sin^{2}{\theta} + \cos^{2}{\theta})} \\
&= \frac{\cos^{2}{\theta}}{\alpha^2}
\end{align}
$$

また、$\displaystyle \frac{dx}{d \theta}$は下記のように計算できる。
$$
\large
\begin{align}
\frac{dx}{d \theta} &= \alpha \frac{d}{d \theta} (\tan{\theta}) \\
&= \alpha \left( \frac{\sin{\theta}}{\cos{\theta}} \right)’ \\
&= \alpha \times \frac{\cos^2{\theta}-(-\sin^2{\theta})}{\cos^2{\theta}} \\
&= \alpha \times \frac{\cos^2{\theta}+\sin^2{\theta}}{\cos^2{\theta}} \\
&= \frac{\alpha}{\cos^2{\theta}}
\end{align}
$$

よって$\displaystyle \int \frac{1}{x^2+\alpha^2} dx$は下記のように計算を行える。
$$
\large
\begin{align}
\int \frac{1}{x^2+\alpha^2} dx &= \int \frac{\cos^{2}{\theta}}{\alpha^2} \frac{dx}{d \theta} d \theta \\
&= \int \frac{\cos^{2}{\theta}}{\alpha^2} \frac{\alpha}{\cos^2{\theta}} d \theta \\
\end{align}
$$

ここで$x = \alpha \tan{\theta}$より$\displaystyle \theta = \tan^{-1}\left( \frac{x}{\alpha} \right)$が成立するので上記は下記のように表せる。
$$
\large
\begin{align}
\int \frac{1}{x^2+\alpha^2} dx &= \frac{1}{\alpha} \theta + C \\
&= \frac{1}{\alpha} \tan^{-1}\left( \frac{x}{\alpha} \right) + C
\end{align}
$$

・$\displaystyle \int \frac{1}{ax^2+b} dx = \frac{1}{\sqrt{ab}} \tan^{-1} \left( \sqrt{\frac{a}{b}}x \right) + C$

$\displaystyle x = \sqrt{\frac{b}{a}} \tan{\theta}$のように置き換えることを考える。このとき$\displaystyle \frac{1}{ax^2+b}$は下記のように変形できる。
$$
\large
\begin{align}
\frac{1}{ax^2+b} &= \frac{1}{\displaystyle a \sqrt{\frac{b}{a}}^2 \tan^2{\theta}+b} \\
&= \frac{1}{\displaystyle \frac{\cancel{a}b}{\cancel{a}} \tan^2{\theta} + b} \\
&= \frac{1}{\displaystyle b \frac{\sin^2{\theta}}{\cos^{2}{\theta}} + b} \\
&= \frac{\cos^{2}{\theta}}{\displaystyle b \sin^2{\theta} + b \cos^{2}{\theta}} \\
&= \frac{\cos^{2}{\theta}}{b(\sin^2{\theta} + \cos^{2}{\theta})} \\
&= \frac{\cos^{2}{\theta}}{b}
\end{align}
$$

また、$\displaystyle \frac{dx}{d \theta}$は前項の$\displaystyle \int \frac{1}{x^2+\alpha^2} dx = \frac{1}{\alpha} \tan^{-1} \left( \frac{x}{\alpha} \right) + C$の導出を参考にすることで下記のように計算できる。
$$
\large
\begin{align}
\frac{dx}{d \theta} &= \sqrt{\frac{b}{a}} \frac{d}{d \theta} (\tan{\theta}) \\
&= \sqrt{\frac{b}{a}} \cdot \frac{1}{\cos^2{\theta}}
\end{align}
$$

よって$\displaystyle \int \frac{1}{ax^2+b} dx$は下記のように計算を行える。
$$
\large
\begin{align}
\int \frac{1}{ax^2+b} dx &= \int \frac{\cos^{2}{\theta}}{b} \frac{dx}{d \theta} d \theta \\
&= \int \frac{\cos^{2}{\theta}}{b} \sqrt{\frac{b}{a}} \cdot \frac{1}{\cos^2{\theta}} d \theta \\
&= \frac{1}{\sqrt{ab}} \theta + C
\end{align}
$$

ここで$\displaystyle x = \sqrt{\frac{b}{a}} \tan{\theta}$より$\displaystyle \theta = \tan^{-1} \left( \sqrt{\frac{a}{b}}x \right)$が成立するので、上記は下記のように表せる。
$$
\large
\begin{align}
\int \frac{1}{ax^2+b} dx &= \frac{1}{\sqrt{ab}} \theta + C \\
&= \frac{1}{\sqrt{ab}} \tan^{-1} \left( \sqrt{\frac{a}{b}}x \right) + C
\end{align}
$$

統計検定準1級 問題解説 ~2017年6月実施 選択問題及び部分記述問題 問1~

過去問題

過去問題は統計検定公式が問題と解答例を公開しています。こちらを参照してください。

解答

[1] 解答

$\boxed{ \ \mathsf{記述1}\ }$ : 時速$12km$

往復の平均時速を$v$とすると、$v$は往復の道のり$200km$をかかった時間$(100/10+100/15)$時間で割れば良いので、

       \[ v = \frac{2\times 100}{\displaystyle \frac{100}{10}+ \frac{100}{15}} = 12\]

より、平均の時速は$12$ kmである。

これは行きの時速$10$kmと帰りの時速$15$kmの調和平均$\dfrac{1}{\displaystyle \frac{1}{2} \left( \frac{1}{10} + \frac{1}{15}  \right) } = 12$と等しい。

[2] 解答

$\boxed{ \ \mathsf{記述2}\ }$ : $490$円

定食1食に使われた平均金額を求めるには、売上金額全体を売上で割ればよく、

\[ \frac{550\times 450 + 500 \times 700 + 450\times 850}{450 + 700 + 850} = 490 \]

となる。これは加重平均である。

[3] 解答

$\boxed{ \ \mathsf{記述3}\ }$ : $1.01$

この4年間の平均伸び率を$r$とする。また、1〜5年目のそれぞれの消費者物価指数を $a_1,a_2,a_3,a_4,a_5$ とする。すると、$a_2 = 1.044a_1$,$a_3 = 0.982a_2$,$a_4 = 1.025a_3$,$a_5 = 0.991a_4$ である。また、$a_5 = r^4 a_1$であるから、$r^4 a_1 =  0.991\times 1.025\times 0.982 \times 1.044 a_1$となり、$r = \sqrt[4]{0.991\times 1.025\times 0.982 \times 1.044} \approx 1.01$となる。これは幾何平均である。

参考

・準1級関連まとめ
https://www.hello-statisticians.com/toukeikentei-semi1

$\sqrt{a+bx}$を含む積分の公式とそれぞれの導出の流れ|積分の公式一覧とその導出②

積分は微分の逆の演算ですが、関数形によっては積分の計算が行えない場合や、部分積分や置換積分のようになんらかの処理が必要な場合があるので詳しくまとめます。当記事では「Wikipedia:原始関数の一覧」より$\sqrt{a+bx}$を含む積分に関して、導出を追記する形式で取り扱いました。

基本的には不定積分のみを取り扱いますが、定積分は$\displaystyle \left[ F(x)+C \right]_{a}^{b}=(F(a)+C)-(F(b)+C)=F(a)-F(b)$のようにそれぞれ同様に計算ができることから定積分の取り扱いに関しては省略します。

数式一覧

$$
\large
\begin{align}
\int x\sqrt{a+bx} dx &= \frac{2}{15b^2}(3bx-2a)(a+bx)^{\frac{3}{2}} + C \\
\int x^2 \sqrt{a+bx} dx &= \frac{2}{105b^3}(15b^2x^2-12abx+8a^2)(a+bx)^{\frac{3}{2}} + C \\
\int \frac{\sqrt{a+bx}}{x} dx &= 2 \sqrt{a+bx} + a \int \frac{1}{x\sqrt{a+bx}} dx
\end{align}
$$

導出の詳細

・$\displaystyle \int x\sqrt{a+bx} dx = \frac{2}{15b^2}(3bx-2a)(a+bx)^{\frac{3}{2}} + C$

部分積分の考え方を用いて積分の計算を行う。
$$
\large
\begin{align}
\int x\sqrt{a+bx} dx &= \int x(a+bx)^{\frac{1}{2}} dx \\
&= \frac{2}{3b}x(a+bx)^{\frac{3}{2}} – \frac{2}{3b}\int (a+bx)^{\frac{3}{2}} dx \\
&= \frac{2}{3b}x(a+bx)^{\frac{3}{2}} – \frac{2 \cdot 2}{3b \cdot 5b} (a+bx)^{\frac{5}{2}} + C \\
&= \frac{2}{15b^2} (a+bx)^{\frac{3}{2}} (5bx – 2(a+bx)) + C \\
&= \frac{2}{15b^2} (a+bx)^{\frac{3}{2}} (3bx – 2a) + C \\
&= \frac{2}{15b^2} (3bx – 2a) (a+bx)^{\frac{3}{2}} + C
\end{align}
$$

・$\displaystyle \int x^2 \sqrt{a+bx} dx = \frac{2}{105b^3}(15b^2x^2-12abx+8a^2)(a+bx)^{\frac{3}{2}} + C$

部分積分の考え方を用いて積分の計算を行う。
$$
\large
\begin{align}
\int x^2 \sqrt{a+bx} dx &= \int x^{2}(a+bx)^{\frac{1}{2}} dx \\
&= \frac{2}{3b}x^2(a+bx)^{\frac{3}{2}} – \frac{2}{3b}\int 2x (a+bx)^{\frac{3}{2}} dx \\
&= \frac{2}{3b}x^2(a+bx)^{\frac{3}{2}} – \frac{4}{3b}\int x (a+bx)^{\frac{3}{2}} dx
\end{align}
$$

ここで$\displaystyle \int x (a+bx)^{\frac{3}{2}} dx$は下記のように計算を行える。
$$
\large
\begin{align}
\int x (a+bx)^{\frac{3}{2}} dx &= \frac{2}{5b}x(a+bx)^{\frac{5}{2}} – \frac{2}{5b}\int (a+bx)^{\frac{5}{2}} dx \\
&= \frac{2}{5b}x(a+bx)^{\frac{5}{2}} – \frac{2 \cdot 2}{5b \cdot 7b}(a+bx)^{\frac{7}{2}} + C’ \\
&= \frac{2}{5b}x(a+bx)^{\frac{5}{2}} – \frac{4}{35b^2}(a+bx)^{\frac{7}{2}} + C’
\end{align}
$$

よって$\displaystyle \int x^2 \sqrt{a+bx} dx$は下記のように計算できる。
$$
\large
\begin{align}
& \int x^2 \sqrt{a+bx} dx = \frac{2}{3b}x^2(a+bx)^{\frac{3}{2}} – \frac{4}{3b}\int x (a+bx)^{\frac{3}{2}} dx \\
&= \frac{2}{3b}x^2(a+bx)^{\frac{3}{2}} – \frac{4}{3b} \left[ \frac{2}{5b}x(a+bx)^{\frac{5}{2}} – \frac{4}{35b^2}(a+bx)^{\frac{7}{2}} \right] + C \\
&= \frac{2}{3b}x^2(a+bx)^{\frac{3}{2}} – \frac{8}{15b^2}x(a+bx)^{\frac{5}{2}} – \frac{16}{105b^3}(a+bx)^{\frac{7}{2}} + C \\
&= \frac{2}{105b^3} (a+bx)^{\frac{3}{2}} \left[ 35b^2x^2 – 28bx(a+bx) + 8(a+bx)^2 \right] + C \\
&= \frac{2}{105b^3} (a+bx)^{\frac{3}{2}} \left[ 35b^2x^2 – 28abx – 28b^2x^2 + 8a^2 + 16abx +8b^2x^2 \right] + C \\
&= \frac{2}{105b^3} (a+bx)^{\frac{3}{2}} (15b^2x^2-12abx+8a^2) + C \\
&= \frac{2}{105b^3} (15b^2x^2-12abx+8a^2)(a+bx)^{\frac{3}{2}} + C
\end{align}
$$

ロジスティック分布とコーシー分布の確率密度関数の$2$階微分と変曲点の導出

定義域が実数全体かつ左右対称の確率分布の確率密度関数には基本的には変曲点が存在します。「正規分布のパラメータと確率密度関数の形状の変化」では正規分布の変曲点が分散を表す$\sigma^2$を用いて表しましたが、当記事ではロジスティック分布とコーシー分布の変曲点に関して確認を行います。

ロジスティック分布の変曲点

ロジスティック分布の確率密度関数

ロジスティック分布の確率密度関数を$f(x)$とおくと、$f(x)$は下記のように表される。
$$
\large
\begin{align}
f(x) = \frac{\exp(-x)}{(1+\exp(-x))^{2}} \quad (1)
\end{align}
$$

上記は「統計検定$1$級対応テキスト」の$2.2.9$節などで式の記載がある。

$2$階微分の計算と変曲点

以下、$(1)$式の$2$階微分の計算を行う。
$$
\large
\begin{align}
f'(x) &= \left( \frac{\exp(-x)}{(1+\exp(-x))^{2}} \right)’ \\
&= \frac{-\exp(-x)(1+\exp(-x))^{2} – 2\exp(-x)(1+\exp(-x))(-\exp(-x))}{(1+\exp(-x))^{4}} \\
&= \frac{-\exp(-x)(1+\exp(-x))^{2} + 2\exp(-2x)(1+\exp(-x))}{(1+\exp(-x))^{4}} \\
&= \frac{-\exp(-x)(1+\exp(-x)) + 2\exp(-2x)}{(1+\exp(-x))^{3}} \\
&= \frac{\exp(-2x)-\exp(-x)}{(1+\exp(-x))^{3}}
\end{align}
$$

$$
\begin{align}
& f^{”}(x) = \left( \frac{\exp(-2x)-\exp(-x)}{(1+\exp(-x))^{3}} \right)’ \\
&= \frac{(-2\exp(-2x)+\exp(-x))(1+\exp(-x))^{3} – 3(\exp(-2x)-\exp(-x))(1+\exp(-x))^{2}(-\exp(-x))}{(1+\exp(-x))^{6}} \\
&= \frac{(-2\exp(-2x)+\exp(-x))(1+\exp(-x)) + 3\exp(-x)(\exp(-2x)-\exp(-x))}{(1+\exp(-x))^{4}}
\end{align}
$$

上記に対し、$t = \exp(-x) > 0$で置き換えることを考える。
$$
\large
\begin{align}
& f^{”}(x) = \left( \frac{\exp(-2x)-\exp(-x)}{(1+\exp(-x))^{3}} \right)’ \\
&= \frac{(-2\exp(-2x)+\exp(-x))(1+\exp(-x)) + 3\exp(-x)(\exp(-2x)-\exp(-x))}{(1+\exp(-x))^{4}} \\
&= \frac{(-2t^2+t)(1+t) + 3t(t^2-t)}{(1+t)^{4}} \\
&= \frac{t(3t^2-3t) – t(2t-1)(t+1)}{(1+t)^{4}} \\
&= \frac{t(3t^2-3t) – t(2t^2+t-1)}{(1+t)^{4}} \\
&= \frac{t(3t^2-3t) – t(2t^2+t-1)}{(1+t)^{4}} \\
&= \frac{t(t^2-4t+1)}{(1+t)^{4}}
\end{align}
$$

上記では$t = \exp(-x) > 0$が成立するので、$f^{”}(x)$の符号変化は$t^2-4t+1$の符号変化だけを確認すれば良いことがわかる。ここで$t^2-4t+1=0$の解は二次方程式の解の公式より下記のように得られる。
$$
\large
\begin{align}
t^2-4t+1 &= 0 \\
t &= 2 \pm \sqrt{2^2-1} \\
&= 2 \pm \sqrt{3}
\end{align}
$$

上記に対し$t = \exp(-x)$を解くと下記が得られる。
$$
\large
\begin{align}
t &= \exp(-x) \\
-x &= \ln{t} \\
x &= -\ln{(2 \pm \sqrt{3})}
\end{align}
$$

上記よりロジスティック分布の確率密度関数の変曲点は$x = -\ln{(2 \pm \sqrt{3})}$であることが確認できる。ここで$x = -\ln{(2 \pm \sqrt{3})}$が$x=0$に対し左右対称であることを示す。
$$
\large
\begin{align}
-\ln{(2 + \sqrt{3})} &= \ln{\frac{1}{2 + \sqrt{3}}} \\
&= \ln{\frac{2-\sqrt{3}}{(2 + \sqrt{3})(2 – \sqrt{3})}} \\
&= \ln{\frac{2-\sqrt{3}}{4-3}} \\
&= \ln{(2-\sqrt{3})} \\
&= -(-\ln{(2-\sqrt{3})})
\end{align}
$$

コーシー分布の変曲点

コーシー分布の確率密度関数

コーシー分布の確率密度関数を$f(x)$とおくと、$f(x)$は下記のように表される。
$$
\large
\begin{align}
f(x) = \frac{1}{\pi} \cdot \frac{1}{1+x^2} \quad (2)
\end{align}
$$

$2$階微分の計算と変曲点

以下、$(2)$式の$2$階微分の計算を行う。
$$
\large
\begin{align}
f'(x) &= \frac{1}{\pi} \left( \frac{1}{1+x^2} \right)’ \\
&= \frac{1}{\pi} \cdot \frac{-2x}{(1+x^2)^2}
\end{align}
$$

$$
\large
\begin{align}
f^{”}(x) &= \frac{1}{\pi} \left( \frac{-2x}{(1+x^2)^2} \right)’ \\
&= \frac{1}{\pi} \cdot \frac{-2(1+x^2)^2 + 2x \cdot 2(1+x^2)(2x)}{(1+x^2)^4} \\
&= \frac{1}{\pi} \cdot \frac{-2(1+x^2) + 8x^2}{(1+x^2)^3} \\
&= \frac{1}{\pi} \cdot \frac{6x^2-2}{(1+x^2)^3} \\
&= \frac{1}{\pi} \cdot \frac{6(x+1/\sqrt{3})(x-1/\sqrt{3})}{(1+x^2)^3}
\end{align}
$$

上記より変曲点は$\displaystyle x= \pm \frac{1}{\sqrt{3}}$であることが確認できる。

ax+bを含む積分の公式とそれぞれの導出の流れ|積分の公式一覧とその導出①

積分は微分の逆の演算ですが、関数形によっては積分の計算が行えない場合や、部分積分や置換積分のようになんらかの処理が必要な場合があるので詳しくまとめます。当記事では「Wikipedia:原始関数の一覧」より$ax+b$を含む積分に関して、導出を追記する形式で取り扱いました。

基本的には不定積分のみを取り扱いますが、定積分は$\displaystyle \left[ F(x)+C \right]_{a}^{b}=(F(a)+C)-(F(b)+C)=F(a)-F(b)$のようにそれぞれ同様に計算ができることから定積分の取り扱いに関しては省略します。

数式一覧

$$
\large
\begin{align}
\int \frac{1}{ax+b} dx &= \frac{1}{a} \ln{|ax+b|} + C \quad (1) \\
\int \frac{x}{ax+b} dx &= \frac{x}{a} – \frac{b}{a^2} \ln{|ax+b|} + C \quad (2) \\
\int \frac{x^2}{ax+b} dx &= \frac{1}{2a^3} (a^2x^2 – 2abx + 2b^2\ln{|ax+b|}) + C \quad (3) \\
\int \frac{1}{x(ax+b)} dx &= -\frac{1}{b} \ln{ \left| \frac{ax+b}{x} \right|} + C \quad (4) \\
\int \frac{1}{x^2(ax+b)} dx &= \frac{a}{b^2} \ln{ \left| \frac{ax+b}{x} \right|} – \frac{1}{bx} + C \quad (5)
\end{align}
$$

導出の詳細

・$\displaystyle \int \frac{1}{ax+b} dx = \frac{1}{a} \ln{|ax+b|} + C$

$$
\large
\begin{align}
\frac{d}{dx} (\log{|ax+b|}) &= \frac{(ax+b)’}{ax+b} \\
&= \frac{a}{ax+b} \\
\frac{1}{ax+b} &= \frac{d}{dx} \left( \frac{1}{a}\log{|ax+b|} + C \right)
\end{align}
$$

上記より、下記が成立する。
$$
\large
\begin{align}
\int \frac{1}{ax+b} dx = \frac{1}{a}\ln{|ax+b|} + C \quad (1)
\end{align}
$$

・$\displaystyle \int \frac{x}{ax+b} dx = \frac{x}{a} – \frac{b}{a^2} \ln{|ax+b|} + C$

$\displaystyle \frac{x}{ax+b}$は下記のように変形を行える。
$$
\large
\begin{align}
\frac{x}{ax+b} &= \frac{ax}{a(ax+b)} \\
&= \frac{(ax+b)-b}{a(ax+b)} \\
&= \frac{1}{a} – \frac{b}{a}\frac{1}{ax+b}
\end{align}
$$

上記と式$(1)$を用いることで下記のように導出できる。
$$
\large
\begin{align}
\int \frac{x}{ax+b} dx &= \int \left( \frac{1}{a} – \frac{b}{a}\frac{1}{ax+b} \right) dx \\
&= \int \frac{1}{a} dx – \frac{b}{a} \int \frac{1}{ax+b} dx \\
&= \frac{x}{a} – \frac{b}{a^2}\ln{|ax+b|} + C \quad (2)
\end{align}
$$

・$\displaystyle \int \frac{x^2}{ax+b} dx = \frac{1}{2a^3} (a^2x^2 – 2abx + 2b^2\ln{|ax+b|}) + C$

$(ax+b)^2=a^2x^2+2abx+b^2$であることを用いて、$\displaystyle \frac{x^2}{ax+b}$に関して下記のような変形を行うことができる。
$$
\large
\begin{align}
\frac{x^2}{ax+b} &= \frac{a^2x^2}{a^2(ax+b)} \\
&= \frac{(a^2x^2+2abx+b^2)-(2abx+b^2)}{a^2(ax+b)} \\
&= \frac{(a^2x^2+2abx+b^2)}{a^2(ax+b)} – \frac{2abx+b^2}{a^2(ax+b)} \\
&= \frac{(ax+b)^2}{a^2(ax+b)} – \frac{2b}{a} \cdot \frac{x}{ax+b} – \frac{b^2}{a^2} \cdot \frac{1}{ax+b} \\
&= \frac{(ax+b)}{a^2} – \frac{2b}{a} \cdot \frac{x}{ax+b} – \frac{b^2}{a^2} \cdot \frac{1}{ax+b}
\end{align}
$$

上記と$(1)$式、$(2)$式を用いることで下記のような導出を行える。
$$
\large
\begin{align}
\int \frac{x^2}{ax+b} dx &= \int \frac{(ax+b)}{a^2} dx – \frac{2b}{a} \int \frac{x}{ax+b} dx – \frac{b^2}{a^2} \int \frac{1}{ax+b} dx \\
&= \frac{1}{2a^2}(ax^2+2bx) – \frac{2b}{a} \left( \frac{x}{a} – \frac{b}{a^2}\ln{|ax+b|} \right) – \frac{b^2}{a^2} \cdot \frac{1}{a}\ln{|ax+b|} + C \\
&= \frac{1}{2a^3} \left[ a(ax^2+2bx) -4a^2b \left( \frac{x}{a} – \frac{b}{a^2}\ln{|ax+b|} \right) – 2b^2 \ln{|ax+b|} \right] + C \\
&= \frac{1}{2a^3} \left[ a^2x^2 + 2abx – 4abx +4b^2 \ln{|ax+b|} – 2b^2 \ln{|ax+b|} \right] + C \\
&= \frac{1}{2a^3} (a^2x^2 – 2abx + 2b^2\ln{|ax+b|}) + C \quad (3)
\end{align}
$$

・$\displaystyle \int \frac{1}{x(ax+b)} dx = -\frac{1}{b} \ln{ \left| \frac{ax+b}{x} \right|} + C$

$$
\large
\begin{align}
\frac{1}{x} – \frac{a}{ax+b} &= \frac{ax+b}{x(ax+b)} – \frac{ax}{x(ax+b)} \\
&= \frac{b}{x(ax+b)}
\end{align}
$$

上記の式が成立することより、$\displaystyle \frac{1}{x(ax+b)}$に関して下記が成立する。
$$
\large
\begin{align}
\frac{1}{x(ax+b)} = \frac{1}{b} \left( \frac{1}{x} – \frac{a}{ax+b} \right)
\end{align}
$$

よって$\displaystyle \int \frac{1}{x(ax+b)} dx$は下記のように計算できる。
$$
\large
\begin{align}
\int \frac{1}{x(ax+b)} dx &= \frac{1}{b} \int \left( \frac{1}{x} – \frac{a}{ax+b} \right) dx \\
&= \frac{1}{b} ( \ln{|x|} – \ln{|ax+b|} ) + C \\
&= -\frac{1}{b} \ln{ \left| \frac{ax+b}{x} \right|} + C
\end{align}
$$

・$\displaystyle \int \frac{1}{x^2(ax+b)} dx = \frac{a}{b^2} \ln{ \left| \frac{ax+b}{x} \right|} – \frac{1}{bx} + C$

$$
\large
\begin{align}
\frac{1}{x^2} – \frac{a}{x(ax+b)} &= \frac{ax+b}{x^2(ax+b)} – \frac{ax}{x^2(ax+b)} \\
&= \frac{b}{x^2(ax+b)}
\end{align}
$$

上記の式が成立することより、$\displaystyle \frac{1}{x^2(ax+b)}$に関して下記が成立する。
$$
\large
\begin{align}
\frac{1}{x^2(ax+b)} = \frac{1}{b} \left( \frac{1}{x^2} – \frac{a}{x(ax+b)} \right)
\end{align}
$$

よって$\displaystyle \int \frac{1}{x^2(ax+b)} dx$は下記のように計算できる。
$$
\large
\begin{align}
\int \frac{1}{x^2(ax+b)} dx &= \frac{1}{b} \int \left( \frac{1}{x^2} – \frac{a}{x(ax+b)} \right) dx \\
&= \frac{1}{b} \left( -\frac{1}{x} + \frac{a}{b} \ln{ \left| \frac{ax+b}{x} \right|} \right) + C \\
&= \frac{a}{b^2} \ln{ \left| \frac{ax+b}{x} \right|} – \frac{1}{bx} + C
\end{align}
$$

t分布の確率密度関数の導出とt分布の自由度$\nu$と正規分布・コーシー分布の対応

$t$分布は分散未知の場合の母平均の区間推定や検定などで主に用いられる分布ですが、数理統計学では$t$確率密度関数の導出や$t$分布の自由度$\nu$と正規分布、コーシー分布の対応について学びます。当記事ではこれらの導出に関して複数の書籍の表記を元に取りまとめを行いました。

作成にあたっては主に「現代数理統計学」の$4$章と、「パターン認識と機械学習」の$2.3.7$節などを参照しました。

$t$分布の確率密度関数の導出

変数変換を用いた導出

「統計量と標本分布」の「$t$分布」で取り扱った結果に対し、$x=t,\nu=m$で置き換えることで下記のような確率密度関数$p(x|\nu)$が得られる。
$$
\large
\begin{align}
p(x|\nu) = \frac{\displaystyle \Gamma \left( \frac{\nu+1}{2} \right)}{\displaystyle \sqrt{\pi \nu} \Gamma \left( \frac{\nu}{2} \right)} \left( 1 + \frac{x^2}{\nu} \right)^{-\frac{\nu+1}{2}} \quad (1)
\end{align}
$$

精度$\tau=1/\sigma^{2}$の事前分布を用いた導出

平均を表すパラメータを$\mu$、精度を表すパラメータを$\tau=1/\sigma^{2}$とおいたとき、正規分布$\mathcal{N}(\mu,\tau^{-1})$の確率密度関数$\mathcal{N}(x|\mu,\tau^{-1})$は下記のように表すことができる。
$$
\large
\begin{align}
\mathcal{N}(x|\mu,\tau^{-1}) = \left( \frac{\tau}{2 \pi} \right)^{\frac{1}{2}} \exp \left[ -\frac{\tau}{2}(x-\mu)^2 \right]
\end{align}
$$

上記の数式を$\tau=1/\sigma^{2}$とおくと、一般的な正規分布の確率密度関数が導出できるが、ここでは$\tau$に関して事前分布をガンマ分布$\mathrm{Ga}(\tau|a,b)$を定義し、同時確率密度関数を考えるにあたって$\sigma^2$ではなく$\tau$を用いる。

$x$と$\tau$に関する同時確率密度関数は$p(x,\tau)=p(x|\tau)p(\tau)$で得られることから、$p(x,\tau|\mu,a,b)$は下記のように表せる。
$$
\large
\begin{align}
p(x,\tau|\mu,a,b) &= \mathcal{N}(x|\mu,\tau^{-1}) \mathrm{Ga}(\tau|a,b) \\
&= \left( \frac{\tau}{2 \pi} \right)^{\frac{1}{2}} \exp \left[ -\frac{\tau}{2}(x-\mu)^2 \right] \times \frac{b^{a}}{\Gamma(a)} \tau^{a-1} \exp(- b \tau) \\
&= \frac{b^{a}}{\sqrt{2 \pi} \Gamma(a)} \tau^{a+\frac{1}{2}-1} \exp \left[ -\tau \left( b + \frac{1}{2}(x-\mu)^2 \right) \right]
\end{align}
$$

以下、上記を$\tau$に関して$0 \leq \tau \leq \infty$で積分を行い、積分消去し$p(x|\mu,a,b)$を得ることを考える。
$$
\large
\begin{align}
p(x,\tau|\mu,a,b) &= \int_{0}^{\infty} \mathcal{N}(x|\mu,\tau^{-1}) \mathrm{Ga}(\tau|a,b) d \tau \\
&= \frac{b^{a}}{\sqrt{2 \pi}} \int_{0}^{\infty} \tau^{a+\frac{1}{2}-1} \exp \left[ -\tau \left( b + \frac{1}{2}(x-\mu)^2 \right) \right] d \tau \\
&= \frac{b^{a}}{\sqrt{2 \pi} \Gamma(a)} \Gamma \left( a+\frac{1}{2} \right) \left(b + \frac{(x-\mu)^2}{2} \right)^{-a-\frac{1}{2}} \quad (2)
\end{align}
$$

ここで上記に対し、$\displaystyle \nu=2a,\lambda=\frac{a}{b}$のようにパラメータを定義する。$\displaystyle a=\frac{\nu}{2},b=\frac{\nu}{2 \lambda}$のように解けるので、この$a,b$を$(2)$式に代入を行う。
$$
\large
\begin{align}
p(x|\mu,a,b) &= \frac{b^{a}}{\Gamma(a) \sqrt{2 \pi}} \times \Gamma \left( a+\frac{1}{2} \right) \left[ b + \frac{(x-\mu)^2}{2} \right]^{-a-\frac{1}{2}} \quad (2) \\
&= \frac{\displaystyle \left( \frac{\nu}{2 \lambda} \right)^{\frac{\nu}{2}}}{\displaystyle \Gamma \left( \frac{\nu}{2} \right) \sqrt{2 \pi}} \times \Gamma \left( \frac{\nu+1}{2} \right) \left[ \frac{\nu}{2 \lambda} + \frac{(x-\mu)^2}{2} \right]^{-\frac{\nu+1}{2}} \\
&= \frac{\displaystyle \Gamma \left( \frac{\nu+1}{2} \right)}{\displaystyle \Gamma \left( \frac{\nu}{2} \right) \sqrt{2 \pi}} \times \left( \frac{\nu}{2 \lambda} \right)^{-\frac{1}{2}} \left( \frac{\nu}{2 \lambda} \right)^{\frac{\nu+1}{2}} \times \left[ \frac{\nu}{2 \lambda} + \frac{(x-\mu)^2}{2} \right]^{-\frac{\nu+1}{2}} \\
&= \frac{\displaystyle \Gamma \left( \frac{\nu+1}{2} \right)}{\displaystyle \Gamma \left( \frac{\nu}{2} \right) \sqrt{2 \pi}} \times \sqrt{ \frac{2 \lambda}{\nu} } \times \left[ \frac{2 \lambda}{\nu} \left( \frac{\nu}{2 \lambda} + \frac{(x-\mu)^2}{2} \right) \right]^{-\frac{\nu+1}{2}} \\
&= \frac{\displaystyle \Gamma \left( \frac{\nu+1}{2} \right)}{\displaystyle \Gamma \left( \frac{\nu}{2} \right)} \sqrt{ \frac{\lambda}{\pi \nu} } \times \left[ 1 + \frac{\lambda(x-\mu)^2}{\nu} \right]^{-\frac{\nu+1}{2}} \\
&= \mathrm{St}(x|\mu,\lambda,\nu)
\end{align}
$$

上記に対し、$\mu=0,\lambda=1$を代入すると下記が得られる。
$$
\large
\begin{align}
\mathrm{St}(x|\mu=0,\lambda=1,\nu) &= \frac{\displaystyle \Gamma \left( \frac{\nu+1}{2} \right)}{\displaystyle \Gamma \left( \frac{\nu}{2} \right)} \sqrt{ \frac{1}{\pi \nu} } \times \left[ 1 + \frac{1 \cdot (x-0)^2}{\nu} \right]^{-\frac{\nu+1}{2}} \\
&= \frac{\displaystyle \Gamma \left( \frac{\nu+1}{2} \right)}{\displaystyle \sqrt{\pi \nu} \Gamma \left( \frac{\nu}{2} \right)} \left( 1 + \frac{x^2}{\nu} \right)^{-\frac{\nu+1}{2}} \quad (1)
\end{align}
$$

上記の結果は前項の「変数変換を用いた導出」の$(1)$式に一致する。

・参考
パターン認識と機械学習 演習$2.46$

$t$分布の自由度の解釈

$\nu \to \infty$では正規分布に対応

現代数理統計学 演習$4.5$」で詳しく取り扱った。

$\nu=1$ではコーシー分布に対応

$$
\large
\begin{align}
p(x|\nu) = \frac{\displaystyle \Gamma \left( \frac{\nu+1}{2} \right)}{\displaystyle \sqrt{\pi \nu} \Gamma \left( \frac{\nu}{2} \right)} \left( 1 + \frac{x^2}{\nu} \right)^{-\frac{\nu+1}{2}} \quad (1)
\end{align}
$$

上記に$\nu=1$を代入すると、$\displaystyle \Gamma(1)=1, \Gamma \left( \frac{1}{2} \right)=\sqrt{\pi}$より、下記が得られる。
$$
\large
\begin{align}
p(x|\nu=1) &= \frac{\displaystyle \Gamma \left( \frac{1+1}{2} \right)}{\displaystyle \sqrt{\pi \cdot 1} \Gamma \left( \frac{1}{2} \right)} \left( 1 + \frac{x^2}{1} \right)^{-\frac{1+1}{2}} \\
&= \frac{1}{\pi} (1+x^2)^{-1} = \frac{1}{\pi} \cdot \frac{1}{1+x^2}
\end{align}
$$

上記はコーシー分布の確率密度関数に一致する。