ブログ

統計検定準1級攻略のためのお勧めテキスト

統計検定準1級は非常に出題範囲が広いです。統計学の基礎から機械学習にまで範囲が及びます。
ここでは、準1級を攻略するにあたってお勧めするテキストを列挙します。本サイトでは、ここに挙げたテキストについて演習問題を中心に解説も行っていきます
なお、本サイト運営者たちはここで挙げるテキストの著者、出版社とはなんの関わりもありません。

準1級出題範囲

準1級の出題範囲は統計検定の公式ページに公開されています。

https://www.toukei-kentei.jp/wp-content/uploads/grade1semi_hani_170727.pdf

この出題範囲についてここでは、以下のように分割して考えたいと思います。

ID大分類統計検定出題範囲(大項目)
1数理統計の基礎確率と確率変数、種々の確率分布、統計的推測、マルコフ連鎖と確率過程、
分散分析と実験計画法、標本調査法、多変量解析、分割表
2機械学習の基礎回帰分析、欠測値、モデル選択、ベイズ法、シミュレーション
3時系列分析の基礎時系列解析

お勧めテキスト

準1級全体

  • 日本統計学会編, 「統計学実践ワークブック」, 2020, 学術図書出版社
    • 全体をカバーするテキストとして、公式認定されている
    • しかし、準1級は前述の通り範囲が広いので、本テキストだけではその内容を把握するのは難しい
    • 習得済みの知識の確認や全体の把握に向いている

数理統計の基礎

  • 東京大学教養学部統計学教室編, 「統計学入門」, 1991(初版), 東京大学出版会
    • 色々なところで紹介される有名書籍
    • 統計学の基礎がかっちりと書かれている
    • 古い書籍ではあるので、記載内容が古い部分もある
  • 東京大学教養学部統計学教室編, 「自然科学の統計学」, 1992(初版), 東京大学出版会
    • 上記「統計学入門」の続編(3部構成の3冊目)
    • 回帰モデル、実験データの分析など応用的な内容が豊富
  • 久保川, 「現代数理統計学の基礎」, 2017, 共立出版
    • 「統計学入門」と範囲は重なる部分が多いが、証明が豊富でわかりやすい
  • 永田, 「サンプルサイズの決め方」, 2003, 朝倉書店
    • 統計的仮説検定は、考え方として背理法をベースにしている
    • そのため直感的に理解しにくい面があるが、本書では仮説検定の基礎的な考え方、また、検定における誤り(第1種の過誤、第2種の過誤)について丁寧に解説されており、仮説検定の基礎的な考え方を理解するのに役立つ

機械学習の基礎

  • C.M.ビショップ(著), 元田ら(訳), 「パターン認識と機械学習 上」
    • 確率モデルを基礎として、回帰やパターン認識を包括的に扱った名著
    • 内容的には難解な面もあるので、難しいと感じたらこの下の書籍が良い
  • 久保, 「データ解析のための統計モデリング入門」, 2012(第1刷), 岩波書店
    • 確率モデルの基礎的な考え方を理解するのに役立つ
    • ただし、本書は統計検定の範囲に直接関わる部分は多くはない。確率モデルやベイズ法の基礎的な考え方を理解する上で役に立つ

時系列分析の基礎

  • 沖本, 「計量時系列分析」, 2010, 朝倉書店
    • 時系列分析について、定常過程からかっちりと書かれている
    • ただし、状態空間モデルについてはあまり書かれていない(統計検定では状態空間モデルに関する問題はほとんど出てきた実績がない)

確率分布の様々な表現(確率密度関数・累積分布関数・確率母関数・モーメント母関数・特性関数)

基礎的な統計学から一つ進んだ高度な統計学を考える上で重要なトピックである確率分布だが、基礎的な統計学で取り扱う確率密度関数(Probability Density Function)や累積分布関数(Cummulative Distribution Function)の他に、確率母関数(Probability Generating Function)を用いた表現も抑えておくと良い。この記事では確率密度関数、累積分布関数、確率母関数、モーメント母関数、特性関数の定義について確認する。

基本事項

前提確認

確率変数(Random Variable)を$X$、$X$が$x$を取る確率を$p(x)=P(X=x)$と表し、これを確率関数(Probability Function)と呼ぶ。

また、$X$が離散的な値を取る場合、期待値と分散を下記のように定義する。

  • 期待値($X$が離散)
    $$
    \begin{align}
    E[X] = \sum_{x} xp(x)
    \end{align}
    $$
  • 分散($X$が離散)
    $$
    \begin{align}
    V[X] = \sum_{x} (x-E[X])^2 p(x)
    \end{align}
    $$

確率密度関数(Probability Density Function)

離散的な確率変数を考える際は$p(x)=P(X=x)$にそれぞれ値が割り振られるため、$p(x)=P(X=x)$をそのまま考えるだけで良いが、連続的な確率変数を考える際は区間も考慮しないとそれぞれの確率は計算できない。
そこで確率変数が連続値を取るとき、確率密度関数を下記のように定義する。
$$
\begin{align}
f(x) = \lim_{\epsilon \to 0} \frac{P(x < X \leq x+\epsilon)}{\epsilon}
\end{align}
$$

また、Xが連続値を取る場合は期待値と分散は下記のように定義する。

  • 期待値($X$が連続)
    $$
    \begin{align}
    E[X] = \int_{-\infty}^{-\infty} xf(x) dx
    \end{align}
    $$
  • 分散($X$が連続)
    $$
    \begin{align}
    V[X] = \int_{-\infty}^{-\infty} (x-E[X])^2f(x) dx
    \end{align}
    $$

累積分布関数(Cummulative Distribution Function)

確率変数$X$の累積分布関数の$F(x)$は$F(x)=P(X \leq x)$のように定義する。確率変数が離散値を取る場合も連続値を取る場合のどちらでも$F(x)=P(X \leq x)$のように定義できるが、詳しい式の表し方が少々違うので以下確認する。

  • 離散確率変数
    $$
    \begin{align}
    F(x) = \sum_{x’ \leq x} p(x’)
    \end{align}
    $$
  • 連続確率変数
    $$
    \begin{align}
    F(x) = \int_{-\infty}^{x} f(x’) dx’
    \end{align}
    $$

ここで$p(x’)$は確率関数(probability function)、$f(x’)$は確率密度関数である。

確率母関数・モーメント母関数

確率母関数(Probability Generating Function)

確率母関数、モーメント母関数、特性関数は確率関数や確率密度関数の性質を調べるために有用な関数である。確率変数が整数値を取る場合、確率母関数(Probability Generating Function)を下記のように定義する。

$$
\begin{align}
G(t) = E[t^X] = \sum_{x} t^xp(x)
\end{align}
$$

また、確率変数が連続的な値を取る場合、確率母関数は下記のように定義する。
$$
\begin{align}
G(t) = E[X] = \int_{-\infty}^{-\infty} t^xf(x) dx
\end{align}
$$

確率母関数と以下で取り扱うモーメント母関数、特性関数は以下の性質を持つ。

(1) 確率分布との1対1対応
(2) 独立な変数の和が母関数の積に対応

この性質に基づいて中心極限定理などを示すことができる。

モーメント母関数(Moment Generating Function)

確率変数が整数値を取る場合、モーメント母関数(Moment Generating Function)を下記のように定義する。
$$
\begin{align}
m(t) = E[e^{tX}] = \sum_{x} e^{x}p(x) = G(e^t)
\end{align}
$$
また、モーメント母関数は下記のように指数関数のマクローリン展開から導出できることを知っておくと良い。
$$
\begin{align}
e^x &= 1 + \frac{x}{1!} + \frac{x^2}{2!} + \frac{x^3}{3!} + … \\
e^{tX} &= 1 + \frac{tX}{1!} + \frac{(tX)^2}{2!} + \frac{(tX)^3}{3!} + … \\
E[e^{tX}] &= 1 + \frac{tE[X]}{1!} + \frac{t^2E[X^2]}{2!} + \frac{t^3E[X^3]}{3!} + … \\
m(t) &= 1 + \frac{tE[X]}{1!} + \frac{t^2E[X^2]}{2!} + \frac{t^3E[X^3]}{3!} + …
\end{align}
$$
上記を用いることで$m'(0)=E[X]$、$m^{”}(0)=E[X^2]$、…のように、モーメント母関数と確率分布の期待値$E[X]$や分散$V[X]=E[X^2]-E[X]^2$などの導出を行うことができる。

特性関数(Characteristic Function)

特性関数は下記のように定義する。
$$
\begin{align}
\phi(t) = E[e^{itX}] = m(it)
\end{align}
$$

■ 参考

・日本統計学会公式認定 統計検定準1級対応 統計学実践ワークブック

https://www.gakujutsu.co.jp/product/978-4-7806-0852-6/

「基礎統計学Ⅰ 統計学入門(東京大学出版会)」の章立て&読み方について

www.hello-statisticians.com
上記の記事でも取り扱った統計学の基礎を学ぶ上でのバイブルとされる「基礎統計学Ⅰ 統計学入門(東京大学出版会)」ですが、独学で取り組むにあたっては目安がなくて大変かもしれません。ということで当記事では独学前提の方向けにこの本の読み方について簡単に取り扱います。

レベル感に関して

まずはこの本のレベル感について確認します。こちらは主に大学1〜2年向けに基本的な統計学をまとめた書籍で、主に統計検定2級相当と考えておくと良いと思います。とはいえ、モーメント母関数や中心極限定理の導出など、トピックによっては1級に出るような内容の導入なども取り扱われています。
なので単に統計検定2級に対応すると考えるより、2級の学習と並行でより詳しく把握したいトピックの確認を目的として確認するのが良いかと思います。もしくは2級は取得できたが、なんとなく抑えていた内容について改めて理解したいという方にも向いていると思います。

統計Webなど統計検定2級レベルの解説サイトは多いですが、統計Webよりは少々記載が難しい一方でより本質的な理解が可能な書籍です。そのため、2級合格を目的にするには少し難しい書籍ですが、2級の合格からさらに理解を進めたい方に適した教材であると言えるのかもしれません。

2級相当はなんとなくわかった一方で、準1級・1級の合格にあたってこれまで流してきた内容をさらに理解したいという方が最初に選ぶと良い書籍というのが当サイトの見解です。もちろんこの書籍だけで準1級・1級に十分な訳ではありませんが、大枠の構成を把握しているかどうかで全体の見通しが変わるのでそういう意味で非常に役に立つのではないかと思います。

章立て、構成に関して

この書籍の構成は主に全体で3つと考えると良いと思います。

1〜3章  記述統計に関して
4〜8章  推測統計の準備(統計における確率の取り扱い)
9〜12章  推測統計に関して

統計検定2級相当のトピックでは記述統計と推測統計が中心になりますが、1〜3章が記述統計、9〜12章が推測統計の話題です。また、13章の回帰分析については、学習が進むにつれて最尤法やベイズなど確率分布などを考慮した取り扱いになるのですが、この書籍を読み進める段階では一旦他と独立したトピックとみなして取り組む方が難しくなり過ぎないので良いと思います。

読み進め方に関して

書籍の読み進め方については章立てと対比で考えると良いと思います。以下、簡単に利用目的毎の読み進め方についてまとめます。

・2級の学習と並行で読み進める場合
-> 統計Webなどの簡易的に書かれた記載で全体像を掴みつつ、詳しく知りたい箇所を随時参照するのが良いと思います。

・2級は合格したけれど推測統計のイメージがまだ掴みきれない
-> 9〜12章を読み進めつつ、必要に応じて4〜8章の内容を確認すると良いと思います。4〜8章は全て理解しようとして進めるとなかなか大変なので、辞書的に都度確認が良いと思います。

・推測統計の大枠は把握できたが、準1級〜1級に取り組むにあたってもう少し高度なトピックを把握したい
-> 9〜12章を流しながら4〜8章を確認すると良いと思います。モーメント母関数などの確率分布の話題や中心極限定理の導出などは1級の統計数理などでも出てくるのですが、大枠の理解についてはこの書籍で掴めると思います。(「基礎統計学Ⅲ 自然科学の統計学(東京大学出版会)」や「現代数理統計学の基礎(共立出版)」に取り組む前の基礎固めにも使えると思います。)

難しいと感じた際に行うと良いこと

独学で学習を進めるにあたって難しいと感じる場合は多いと思います。

・書籍の解説が難しい
-> 部分的なトピックの記載については解説サイトの方がわかりやすいこともあるので、いくつか調べて見ると良いかと思います。また、導出過程だけを追っているとイメージがつかない時もあるので、具体的な問題も解きつつ取り組むと良いと思います。統計検定2級の問題を解いたり、章末問題を解いたりしながら進めると良いと思います。

・演習をしているがなかなか問題が解けない
-> 基本的には解答の記載を覚えて何度か繰り返すのが良いと思います。自力で解法を導出しようとするとなかなか大変だったりするので、最初は解答を見て覚えるで良いと思います。また、解答についてはなるべく解説が詳しいものが望ましいです。一方で、統計検定の問題や書籍では解答が略記されていることが多いので、当サイトでは統計検定や有名な書籍については解説付きの解答をカバーしていく予定です。リクエストについては随時受け付けますので、「この問題の解説が欲しい」などありましたら気軽にお問い合わせいただけたらと思います。

・そもそも数学が難しいので学習が進まない
-> 「数学がどのくらい必要か」の議論がよく行われますが、数学検定2級レベル(高校2年生レベル)の数学に自信がなければ先に抑えておく方が良いと思います。本来的には数Ⅲ〜大学教養レベルの数学も抑えておくと望ましいですが、なかなか分量も多いので数Ⅱまでを先に抑えた上で数Ⅲ以降は都度学習するで十分だと思います。

・なかなか効率よく学習が進まない
-> 覚えるだけでなく理解が必要なトピックに取り組む際は、まとめて3〜5時間学習するよりも毎日15分〜1時間学習する方が学習効率が高いです。そのため、なるべく毎日(毎日でなくとも週4〜5でも良い)少しずつ取り組むようにすると良いと思います。また、1日毎の目標の設定はあまり高く設定し過ぎずに、15分程度で達成できる事項ができればOKとしておく方が学習を続けやすくて良いと思います。

・数学がどうしても苦手なのでメンタリングを希望したい
-> 当サイト運営の関係者で簡単なメンタリングの対応が可能です。オンライン対応が中心であれば大体1時間あたり3,000円〜5,000円での対応が可能です。基本的には中学数学〜数Ⅱと、数Ⅲ〜大学教養数学の2つを用意する形で、数Ⅲ以降は1,000円ほど高めの設定となります。

まとめ

当記事では「基礎統計学Ⅰ 統計学入門(東京大学出版会)」の読み方についてまとめました。
読み進めていて難しい箇所などありましたら関連の解説記事を作成することを検討したいので、気軽にお問い合わせいただけたらと思います。

統計検定準1級問題解説 ~2019年6月実施 問2 幾何分布~

過去問題

過去問題は統計検定公式問題集が問題と解答例を公開しています。こちらを参照してください。


解答

[1] 解答

$\boxed{ \ \mathsf{記述5}\ }$ : $5.5$

$3$種類のカードのうち、$k (k=0,1,2)$種類揃っている状態で $k+1$種類目のカードが出る確率 $p_k$ は、$p_k=(3-k)/3$ である。
$k$種類のカードが揃った後、$k+1$種類目のカードが出るまでに必要な購入回数は、成功確率 $p_k$ の幾何分布に従うので、その期待値は $1/p_k$である。このことから、すべてのカードを揃えるまでに必要な購入回数の期待値は、
$$
\sum_{k=0}^2\frac{1}{p_k}=\sum_{k=0}^2\frac{3}{3-k}=\frac{3}{3}+\frac{3}{2}+\frac{3}{1}=1+1.5+3=5.5
$$

[2] 解答

$\boxed{ \ \mathsf{記述6}\ }$ : $\displaystyle \frac{7}{6}$

$x$ は[1]で求めた期待値 $5.5$ に、残り1枚のカードが出るまでの購入回数の期待値 $4/(4-3)=4$ を足した $9.5$ となる。
一方、$y$ は[1]と同様に考えて、
$$
y=\sum_{k=0}^3\frac{4}{4-k}=\frac{4}{4}+\frac{4}{3}+\frac{4}{2}+\frac{4}{1}=1+\frac{4}{3}+2+4=\frac{25}{3}
$$
よって、
$$
x-y=9.5-\frac{25}{3}=\frac{7}{6}
$$


解説

幾何分布

成功確率 $p$ の独立なベルヌーイ試行を繰り返したとき、はじめて成功するまでの試行回数 $X$ の分布を幾何分布 $Ge(p)$ という。(初めて成功するまでの失敗の回数の分布とする定義もあるので注意)
初めて成功するのが $x$ 回目とすると、$x-1$回失敗している(成功していない)ので、その確率は、$P(X=x)=p(1-p)^{x-1}$ となる。この分布の期待値は、
$$
E[X]=\sum_{k=0}^\infty kP(X=k)=\sum_{k=0}^\infty kp(1-p)^{k-1}
$$
ここで、
$$
\sum_{k=0}^\infty x^k=\frac{1}{1-x} \quad (|x| \lt 1)
$$
の両辺を $x$ で微分して得られる
$$
\sum_{k=0}^\infty kx^{k-1}=\frac{1}{(1-x)^2} \quad (|x| \lt 1)
$$
を用いて
$$
E[X]=p\sum_{k=0}^\infty k(1-p)^{k-1}=\frac{p}{(1-(1-p))^2}=\frac{1}{p}
$$
となる。また分散は、
$$
V[X]=E[X(X-1)]+E[X]-(E[X])^2=\sum_{k=0}^\infty k(k-1)p(1-p)^{k-1}+\frac{1}{p}-\frac{1}{p^2}
$$
ここで、先の微分式をさらに $x$ で微分して得られる
$$
\sum_{k=0}^\infty k(k-1)x^{k-2}=\frac{2}{(1-x)^3} \quad (|x| \lt 1)
$$
を用いて
$$
\begin{align*}
V[X]&=p(1-p)\sum_{k=0}^\infty k(k-1)(1-p)^{k-2}+\frac{1}{p}-\frac{1}{p^2}\\
&=\frac{2p(1-p)}{(1-(1-p))^3}+\frac{1}{p}-\frac{1}{p^2}\\
&=\frac{2(1-p)}{p^2}+\frac{p}{p^2}-\frac{1}{p^2}=\frac{1-p}{p^2}\\
\end{align*}
$$

幾何分布の無記憶性

$X$ が幾何分布に従う($X\sim Ge(p)$)とき、
$$
P(X \geqq t_1+t_2|X \geqq t_1)=P(X \geqq t_2)
$$
が成り立つ。これを無記憶性という。
「$t_1$ 回失敗したうえでさらに $t_2$ 回失敗する確率が、最初から$t_2$ 回失敗する確率に等しい」

統計検定準1級問題解説 ~2019年6月実施 問1 ポアソン分布~

過去問題

過去問題は統計検定公式問題集が問題と解答例を公開しています。こちらを参照してください。


解答

[1] 解答

$\boxed{ \ \mathsf{記述1}\ }$ : $5$
$\boxed{ \ \mathsf{記述2}\ }$ : $5$

$X\sim Po(3)$, $Y\sim Po(2)$ で互いに独立なので、ポアソン分布の再生性より $X+Y\sim Po(3+2)=Po(5)$
よって、平均、分散ともに$5$となる。

(別解)期待値の性質から、$E[X+Y]=E[X]+E[Y]=3+2=5$
またポアソン分布の分散は平均に等しいため、$V[X]=3, Y[Y]=2$
T1の得点$X$とT2の得点$Y$は独立なので$\textrm{cov}[X,Y]=0$
よって、$V[X+Y]=V[X]+2\textrm{cov}[X,Y]+V[Y]=2+2\times0+3=5$

[2] 解答

$\boxed{ \ \mathsf{記述3}\ }$ : $2.4$
$\boxed{ \ \mathsf{記述4}\ }$ : 二項

$X+Y\sim Po(3+2)$ より $x=0,1,….4$ に対して、
$$
\begin{align*}
P(X=x, Y=y | X+Y=4)&=\frac{P(X=x, Y=4-x)}{P(X+Y=4)}\\
&=\frac{P(X=x)\cdot P(Y=4-x)}{P(X+Y=4)}\\
&=\frac{e^{-3}\frac{3^x}{x!}\cdot e^{-2}\frac{2^{4-x}}{(4-x)!}}{e^{-5}\frac{5^4}{4!}}\\
&=\frac{4!}{x!(4-x)!}\frac{3^x2^{4-x}}{5^4}\\
&=\binom{4}{x}\left(\frac{3}{5}\right)^x\left(\frac{2}{5}\right)^{4-x}\\
\end{align*}
$$
これは、$X+Y=4$ という条件の下で、$X$ は試行回数 $4$, 成功確率 $3/5$ の二項分布$B\left( 4, \frac{3}{5}\right)$に従う。このとき、$B\left( 4, \frac{3}{5}\right)$ の平均は $4 \times \frac{3}{5} = 2.4$ 。


解説

ポアソン分布

二項分布 $B(n, p)$ において、期待値 $np=\lambda$ を固定し、試行回数と成功確率について $n\to\infty, p\to 0$ のような極限をとったときに得られる確率分布として定義される。(「統計検定2級対応 統計学基礎」 p.74 参照)

ポアソン分布の再生性

$X\sim Po(\lambda_1)$, $Y\sim Po(\lambda_2)$ が独立のとき、$X+Y\sim Po(\lambda_1+\lambda_2)$ である。

証明 $k \geqq 0$ として、
$$
\begin{align*}
P(X+Y=k)&=\sum_{l=0}^{k}P(X+Y=k\cap Y=l)=\sum_{l=0}^{k}P(X=k-l)P(Y=l)\\
&=\sum_{l=0}^{k}e^{-\lambda_1}\frac{\lambda_1^{k-l}}{(k-l)!}\cdot e^{-\lambda_2}\frac{\lambda_2^{l}}{l!}\\
&=e^{-(\lambda_1+\lambda_2)}\sum_{l=0}^{k}\frac{\lambda_1^{k-l}}{(k-l)!}\frac{\lambda_2^{l}}{l!}\\
&=e^{-(\lambda_1+\lambda_2)}\frac{1}{k!}\sum_{l=0}^{k}\frac{k!}{(k-l)!l!}\lambda_1^{k-l}\lambda_2^{l}
\end{align*}
$$
ここで、二項定理より
$$
\sum_{l=0}^{k}\frac{k!}{(k-l)!l!}\lambda_1^{k-l}\lambda_2^{l}=\sum_{l=0}^{k}{}_k \mathrm{ C }_l\lambda_1^{k-l}\lambda_2^{l}=(\lambda_1+\lambda_2)^k
$$
よって、
$$
P(X+Y=k)=e^{-(\lambda_1+\lambda_2)}\frac{(\lambda_1+\lambda_2)^k}{k!}
$$

ポアソン分布の確率母関数

ポアソン分布 $Po(\lambda)$ の確率母関数は、
$$
\begin{align*}
G(s)=E[s^X]&=\sum_{x=0}^\infty s^x\cdot e^{-\lambda}\frac{\lambda^x}{x!}\\
&=e^{-\lambda}\sum_{x=0}^\infty \frac{s\lambda^x}{x!}\\
&=e^{-\lambda}e^{s\lambda}=e^{\lambda (s-1)}
\end{align*}
$$
これから、$G'(s)=\lambda e^{\lambda (s-1)}$, $G^{\prime\prime}(s)=\lambda^2 e^{\lambda (s-1)}$ より確率母関数を用いて期待値、分散を求めると、
$$
\begin{align*}
E[X]&=G'(1)=\lambda e^{\lambda (1-1)}=\lambda\\
V[X]&=E[X(X-1)]+E[X]-(E[X])^2\\
&=G^{\prime\prime}(1)+\lambda-\lambda^2\\
&=\lambda^2 e^{\lambda (1-1)}+\lambda-\lambda^2=\lambda
\end{align*}
$$
また、$X\sim Po(\lambda_1)$, $Y\sim Po(\lambda_2)$ が独立のとき、
$$
E[s^{X+Y}]=E[s^X s^Y]=E[s^X]E[s^Y]=e^{\lambda_1 (s-1)}e^{\lambda_2 (s-1)}=e^{(\lambda_1+\lambda_2) (s-1)}
$$
で、$Po(\lambda_1+\lambda_2)$の確率母関数に一致する(再生性)。

確率分布に関連する計算において抑えておきたい公式とその証明(マクローリン展開)

確率分布の確率母関数や期待値の計算などの計算にあたって、マクローリン展開の級数から関数への変形を用いることが多い。関数から級数へのマクローリン展開は微分の値に基づいて計算すれば良いが、級数から関数への変換はある程度知っていないと難しい。そのため、確率分布関連の計算にあたって知っておくと良いマクローリン展開について下記にまとめる。

基本式

マクローリン展開の式

$$
\large
\begin{align}
f(x) &= \sum_{n=0}^{\infty} a_{n} x^n \\
a_{n} &= \frac{f^{(n)}(0)}{n!}
\end{align}
$$

導出にあたっては$\displaystyle f(x)=\sum_{n=0}^{\infty} a_n x^n$とおいた際に、$f^{(n)}(x)$($f^{(n)}$は$f(x)$の$n$階微分を表すとする)を計算し、$f^{n}(0)$と$a_n$の関係式を変形することで$\displaystyle a_{n}=\frac{f^{(n)}(0)}{n!}$を導出できる。
(多項式$\displaystyle \sum_{n=0}^{\infty} a_n x^n$において$x=0$を代入すると$0$次以外の項は全て消えることを利用する。)

参考:テイラー展開の式

テイラー展開の式も合わせて抑えておくと良いので、テイラー展開の式についても確認する。
$$
\large
\begin{align}
f(x) &=\sum_{n=0}^{\infty} a_{n} (x-a)^n \\
a_{n} &=\frac{f^{(n)}(a)}{n!}
\end{align}
$$

テイラー展開は$x=a$を中心とする関数の級数展開である。マクローリン展開はこのテイラー展開を考える際の$a=0$の場合であると解釈すると良い。

公式リスト

$$
\begin{align}
&e^{x} = \sum_{n=0}^{\infty} \frac{x^n}{n!} &(1) \\
&\sin{x} = \sum_{n=0}^{\infty} \frac{(-1)^n x^(2n+1)}{(2n+1)!} &(2) \\
&\cos{x} = \sum_{n=0}^{\infty} \frac{(-1)^n x^{2n}}{(2n)!} &(3) \\
&\frac{1}{1-x} = \sum_{n=0}^{\infty} x^n &(4) \\
&\frac{1}{(1-x)^2} = \sum_{n=1}^{\infty} nx^{n-1} &(5) \\
&\log{(1+x)} = \sum_{n=1}^{\infty} \frac{(-1)^{n+1}}{n}x^n &(6) \\
&\log{(1-x)} = -\sum_{n=1}^{\infty} \frac{x^n}{n} &(7) \\
\end{align}
$$

導出

(1) $\displaystyle e^{x} = \sum_{n=0}^{\infty} \frac{x^n}{n!}$

$(e^{x})’=e^x$、$(e^{x})^{”}=e^x$、$f^{(3)}(x)=e^x$…より、$f(x)=e^x$とした際に$f^{(n)}(x)=e^x$が成立する。このことより、$f^{(n)}(0)=e^0=1$が成立するため、これより下記が導出できる。
$$
\large
\begin{align}
e^{x} = \sum_{n=0}^\infty \frac{x^n}{n!}
\end{align}
$$

活用例

ポアソン分布の定義域での積分の計算、ポアソン分布の確率母関数の計算

(2) $\displaystyle \sin{x} = \sum_{n=0}^{\infty} \frac{(-1)^n x^{(2n+1)}}{(2n+1)!}$

$f(x)=\sin{x}$とすると、$f'(x)=\cos{x}$、$f^{”}(x)=-\sin{x}$、$f^{(3)}(x)=-\cos{x}$、$f^{(4)}(x)=\sin{x}$、..(以下繰り返し)…のようになる。この時、$\sin{0}=0$と$\cos{0}=1$が成立するため、下記が導出できる。
$$
\large
\begin{align}
\sin{x} = \sum_{n=0}^{\infty} \frac{(-1)^n x^{(2n+1)}}{(2n+1)!}
\end{align}
$$

(3) $\displaystyle \cos{x} = \sum_{n=0}^{\infty} \frac{(-1)^n x^{2n}}{(2n)!}$

$f(x)=\cos{x}$とすると、$f'(x)=-\sin{x}$、$f^{”}(x)=-\cos{x}$、$f^{(3)}(x)=\sin{x}$、$f^{(4)}(x)=\cos{x}$、..(以下繰り返し)…のようになる。この時、$\sin{0}=0$と$\cos{0}=1$が成立するため、下記が導出できる。
$$
\large
\begin{align}
\cos{x} = \sum_{n=0}^{\infty} \frac{(-1)^n x^{2n}}{(2n)!}
\end{align}
$$

(4) $\displaystyle \frac{1}{1-x} = \sum_{n=0}^{\infty} x^n$

$\displaystyle f(x)=\frac{1}{1-x}$とすると、$\displaystyle f'(x)=\frac{1!}{(1-x)^2}$、$\displaystyle f^{”}(x)=\frac{2!}{(1-x)^2}$、$\displaystyle f^{(3)}(x)=\frac{3!}{(1-x)^3}$…のようになる。この時、$\displaystyle f^{(n)}(0)=n!$が成立するため、下記が導出できる。
$$
\large
\begin{align}
\frac{1}{1-x} = \sum_{n=0}^{\infty} x^n
\end{align}
$$

(5) $\displaystyle \frac{1}{(1-x)^2} = \sum_{n=1}^{\infty} nx^{n-1}$

$\displaystyle \frac{1}{1-x} = \sum_{n=0}^{\infty} x^n$の両辺を微分することによって導出できる。

活用例

指数分布の期待値の計算

(6) $\displaystyle \log{(1+x)} = \sum_{n=1}^{\infty} \frac{(-1)^{n+1}}{n}x^n$

$f(x)=\log{(1+x)}$とすると、$\displaystyle f'(x)=\frac{(1-1)!}{(1+x)}$、$\displaystyle f^{”}(x)=-\frac{(2-1)!}{(1+x)}$、$\displaystyle f^{(3)}(x)=\frac{(3-1)!}{(1+x)^2}$…のようになる。この時、$n \geq 1$で$f^{(n)}(0)=(-1)^{n+1}(n-1)!$が成立するため、下記が導出できる。
$$
\large
\begin{align}
\log{(1+x)} = \sum_{n=1}^{\infty} \frac{(-1)^{n+1}}{n}x^n
\end{align}
$$

(7) $\displaystyle \log{(1-x)} = -\sum_{n=1}^{\infty} \frac{x^n}{n}$

$f(x)=\log{(1-x)}$とすると、$\displaystyle f'(x)=-\frac{(1-0)!}{(1-x)}$、$\displaystyle f^{”}(x)=-\frac{(2-1)!}{(1-x)}$、$\displaystyle f^{(3)}(x)=-\frac{(3-1)!}{(1-x)^2}$…のようになる。この時、$n \geq 1$で$f^{(n)}(0)=-(n-1)!$が成立するため、下記が導出できる。
$$
\large
\begin{align}
\log{(1-x)} = -\sum_{n=1}^{\infty} \frac{x^n}{n}
\end{align}
$$

抑えておきたい公式とその簡易的な導出に関して(期待値と分散・共分散)

期待値と分散・共分散の定義

確率変数\(X\)に関する期待値を \(E[X]\)、分散を\(V[X]\)とする。サンプル数を\(n\)、サンプルの集合を\(\{x_1, x_2, …, x_i, …, x_n\}\)と表現するものとする。
$\displaystyle E[X] = \sum_{k=1}^{n} x_i p(X=x_i)$   (期待値)
$\displaystyle V[X] = \sum_{k=1}^{n} (x_i-E[X])^2 p(X=x_i)$   (分散)
$\displaystyle \mathrm{Cov}(X,Y) = \sum_{k=1}^{n} (x_i-E[X])(y_i-E[Y]) p(X=x_i, Y=y_i)$  (共分散)

全てのサンプルが観測される確率を「同様に確からしい」とすることで、期待値と分散は下記のようにも表すことができる。(下記ではこちらを用いることとする)
$\displaystyle E[X] = \frac{1}{n} \sum_{k=1}^{n} x_i$ (期待値)
$\displaystyle V[X] = \frac{1}{n} \sum_{k=1}^{n} (x_i-E[X])^2$ (分散)
$\displaystyle \mathrm{Cov}(X,Y) = \frac{1}{n} \sum_{k=1}^{n} (x_i-E[X])(y_i-E[Y])$ (共分散)

期待値、分散・共分散に関する公式

$$
\begin{align}
&E[X+Y] = E[X]+E[Y] &(1)\\
&E[aX] = aE[X] &(2)\\
&V[X] = E[(X-E[X])^2] = E[X^2] – (E[X])^2 &(3) \\
&V[aX] = a^2 V[X] &(4) \\
&V[X+Y] = V[X]+V[Y] (XとYが独立な場合) &(5) \\
&\mathrm{Cov}(X,Y) = E[XY] – E[X]E[Y] &(6)
\end{align}
$$

公式の導出

(1) \(E[X+Y] = E[X]+E[Y]\)

$$
\begin{align}
E[X+Y] &= \frac{1}{n} \sum_{k=1}^{n} (x_i+y_i) \\
&= \frac{1}{n} \sum_{k=1}^{n} x_i + \frac{1}{n} \sum_{k=1}^{n} y_i \\
&= E[X]+E[Y]
\end{align}
$$

(2) \(E[aX] = aE[X]\)

$$
\begin{align}
E[aX] &= \frac{1}{n} \sum_{k=1}^{n} a \times x_i \\
  &= \frac{a}{n} \sum_{k=1}^{n} x_i \\
  &= aE[X]
\end{align}
$$

(3) \(V[X] = E[(X-E[X])^2] = E[X^2] – (E[X])^2\)

$$
\begin{align}
V[X] &= E[(X-E[X])^2] \\
  &= E[X^2 – 2XE[X] + E[X]^2)] \\
  &= E[X^2] – 2E[X]^2 + E[X]^2 (2E[XE[X]]=2E[X]^2が成立) \\
  &= E[X^2] – E[X]^2 \\
\end{align}
$$

(4) \(V[aX] = a^2 V[X]\)

$$
\begin{align}
V[X] &= E[(aX)^2] – E[aX]^2 \\
  &= a^2 E[(X)^2] – a^2 E[X]^2 \\
  &= a^2(E[(X)^2] – E[X]^2) \\
  &= a^2 V[X]
\end{align}
$$

(5) \(V[X+Y] = V[X]+V[Y]\)

$$
\begin{align}
V[X+Y] &= E[(X+Y)^2] – E[(X+Y)]^2 \\
&= E[(X^2+2XY+Y^2] – (E[X]+E[Y])^2 \\
&= E[X^2] + E[2XY] + E[Y^2] – (E[X]^2 + 2E[X]E[Y] + E[Y]^2) \\
&= (E[X^2]-E[X]^2) + (E[Y^2]-E[Y]^2) + 2(E[XY]-E[X]E[Y]) \\
&= (E[X^2]-E[X]^2) + (E[Y^2]-E[Y]^2) (XとYが独立なら E[XY]=E[X]E[Y]) \\
&= V[X] + V[Y]
\end{align}
$$

(6) \(\mathrm{Cov}(X,Y) = E[XY] – E[X]E[Y]\)

$$
\begin{align}
\mathrm{Cov}(X,Y) &= \frac{1}{n} \sum_{k=1}^{n} (x_i-E[X])(y_i-E[Y]) \\
&=E[(X-E[X])(Y-E[Y])] \\
&=E[XY – XE[Y] – YE[X] + E[X]E[Y]] \\
&=E[XY] – E[X]E[Y]
\end{align}
$$

上記では、\(X=Y\)であれば\(V[X]\)に一致し、\(\mathrm{Cov}(X,Y)=V[X]\)も成立する。

・参考

https://www.amazon.co.jp/dp/4130420658