記事・メモ一覧

default eye-catch image.

正規分布に従う確率変数の二乗和はカイ二乗分布に従うことの証明

[mathjax] 母平均(mu)、標準偏差(sigma)の正規分布から(n)個の標本を無作為抽出したとき、 (n)個の標本について二乗和(V)を計算した場合(V)はどのような分布をするか。 begin{eqnarray} V = x_1^2 + x_2^2 + cdots + x_n^2 end{eqnarray} (V)の分布は自由度nのカイ二乗分布になる。 なお、実際にデータを表示してみた記事は以下。 [clink url=\"https://ikuty.com/2019/08/12/chi-square-distribution_handson/\"] 証明の式変形が気持ち良いことで有名?なので1度やってみる。 証明が奇跡的だったのでまとめてみる 自由度(n)のカイ二乗分布の確率密度関数。 これでもかっ、というくらいにいろいろ乗っかってる。 begin{eqnarray} f_n(x) = frac{1}{2^{frac{n}{2}}Gamma({frac{n}{2}})}x^{frac{n}{2}-1}e^{-frac{x}{2}} end{eqnarray} 標準正規分布と同じ扱いで、 (x)に関する積分が1になるようにガンマ関数による定数項がついてる。 勢い以下のような見方になる。 begin{eqnarray} f_n(x) = left( frac{1}{2^{frac{n}{2}}Gamma({frac{n}{2}})} right) x^{frac{n}{2}-1} e^{-frac{x}{2}} end{eqnarray} [arst_adsense slotnumber=\"1\"] だから何なのか、と思うけども、一度は証明を見ておくと良し、という意見がある。 ド直球に、標準正規分布の確率密度関数から2乗和の分布を求めようとして、 奇跡的に上記の確率密度関数になってかなり面白かったのでまとめてみた。 (n=1)のときの証明 (X)が標準正規分布に従うときの確率密度関数は以下。 begin{eqnarray} f(x) = frac{1}{sqrt{2pi}}e^{-frac{x^2}{2}} end{eqnarray} このとき(X)の2乗の分布(Y=X^2)の分布を考えようとするとき、 (Yle y)となる確率(P(Yle y))は、 begin{eqnarray} P(Yle y) = P(-sqrt{y} le X le sqrt{y}) end{eqnarray} となるので、(Y)の確率分布関数(F(y))は、 begin{eqnarray} F(y) &=& int_{-sqrt{y}}^{sqrt{y}}f(x)dx \\ &=& 2 int_{0}^{sqrt{y}}f(x)dx end{eqnarray} (y=x^2)という変数変換をして微分すると、(frac{dy}{dx}=2x)から、(dy=2xdx=2sqrt{y}dx)。 これを使って書き直すと、(コレ考えたやつ頭おかしい...) begin{eqnarray} F(y) &=& 2int_{0}^{sqrt{y}}frac{1}{sqrt{2pi}}e^{-frac{x^2}{2}}dx \\ &=& 2 frac{1}{2} int_{0}^{sqrt{y}}frac{1}{sqrt{2pi}y}e^{-frac{x^2}{2}}dy \\ &=& int_{0}^{sqrt{y}}frac{1}{sqrt{2pi}y}e^{-frac{y}{2}}dy \\ &=& int_{0}^{sqrt{y}}frac{1}{2^{frac{1}{2}}sqrt{pi}}y^{-frac{1}{2}}e^{-frac{y}{2}}dy \\ end{eqnarray} ガンマ関数(Gamma(n))って何だっけ...、というところで力尽きた。 (Gamma(frac{1}{2}))だけ複素数にならず(sqrt{pi})になる。 (F(y))をガンマ関数を入れて書き直すと、 begin{eqnarray} F(y) = int_{0}^{sqrt{y}}frac{1}{2^{frac{1}{2}}Gamma(frac{1}{2})}y^{-frac{1}{2}}e^{-frac{y}{2}}dy \\ end{eqnarray} この式は奇跡的に(n=1)のとき、カイ二乗分布の確率密度関数になってる。 begin{eqnarray} f_1(x) &=& frac{1}{2^{frac{1}{2}}Gamma({frac{1}{2}})}x^{frac{1}{2}-1}e^{-frac{x}{2}} end{eqnarray} [arst_adsense slotnumber=\"1\"] (n ge 2)のときの証明 数学的帰納法で証明する。このワード、何年振りだろうか...。 Wikipediaによると、 数学的帰納法(すうがくてききのうほう、英: mathematical induction)は自然数に関する命題 P(n) が全ての自然数 n に対して成り立っている事を証明するための、次のような証明手法である。 P(1) が成り立つ事を示す。 任意の自然数 k に対して、「P(k) ⇒ P(k + 1)」が成り立つ事を示す。 以上の議論から任意の自然数 n について P(n) が成り立つ事を結論づける。 準備として、確率密度関数の畳み込みについて。 2つの確率変数(X_1)、(X_2)が互いに独立に標準正規分布に従い、 (Y_1=X_1^2)、(Y_2=X_2^2)とおいたとき、(Z=Y_1+Y_2)が従う確率密度関数を求める。 確率変数(Y_1)、(Y_2)双方とも、確率密度関数(h_1(x))に従うときは、 (x=y_1+y_2, y_1,y_2 ge 0, z ge 0)に注意して、 以下を計算することで確率変数(Z=Y_1+Y_2=X_1^2+X_2^2)が従う確率密度関数が求まる。 begin{eqnarray} h_2(x) = int_0^{z}h_1(y)h_1(z-y)dy end{eqnarray} (P(1))は既に示されている。任意の自然数 (n) に対して、「(P(n) ⇒ P(n + 1))」が成り立つ事を示す。 (Y=X_1^2+X_2^2+cdots+X_{n-1}^2)が自由度(n-1)のカイ二乗分布に従い、 (X_n^2)が自由度(1)のカイ二乗分布に従うとき、(Y+X_n)が自由度(n)のカイ二乗分布に従うことを示す。 示すのは以下。 begin{eqnarray} f_n(x) = int_{0}^{x}f_{n-1}(t)f_1(x-t)dt end{eqnarray} 右辺を展開していく。 begin{eqnarray} int_{0}^{x} frac{1}{2^{frac{n-1}{2}}Gamma(frac{n-1}{2})}t^{frac{n-3}{2}} e^{-frac{x}{2}} cdot frac{1}{2^{frac{1}{2}}Gamma({frac{1}{2})}}t^{-frac{1}{2}}e^{-frac{x}{2}} end{eqnarray} (t)に対する定数項を積分の外に出せる。 begin{eqnarray} frac{e^{-frac{x}{2}}}{2^{frac{n}{2}}Gamma(frac{n-1}{2})sqrt{pi}} int_{0}^{x}t^{frac{n-3}{2}}(x-t)^{-frac{1}{2}}dt end{eqnarray} ここで(u=frac{t}{x})とおくと、(frac{du}{dt}=frac{1}{x})だから、(dt=xdu)。 変数を置き換える。奇跡的に(x)が積分の外に出る。 begin{eqnarray} frac{e^{-frac{x}{2}}}{2^{frac{n}{2}}Gamma(frac{n-1}{2})sqrt{pi}} int_{0}^{1}(ux)^{frac{n-3}{2}}(x-ux)^{frac{1}{2}}xdu \\ = frac{e^{-frac{x}{2}}}{2^{frac{n}{2}}Gamma(frac{n-1}{2})sqrt{pi}} int_{0}^{1}x^{frac{n-3}{2}} u^{frac{n-3}{2}} x^{frac{1}{2}}(1-u)^{frac{1}{2}}xdu \\ = frac{e^{-frac{x}{2}}x^{frac{n-3}{2}-frac{1}{2}+1}}{2^{frac{n}{2}}Gamma(frac{n-1}{2})Gamma(frac{1}{2})} int_{0}^{1} u^{frac{n-3}{2}}(1-u)^{-frac{1}{2}}du end{eqnarray} 積分の部分は、昔みた覚えがあるけど、もう力尽きたので結論だけ... 以下の関係式があって、 begin{eqnarray} B(p,q) &=& int_{0}^{1} x^{p-1}(1-x)^{q-1}dx \\ &=& frac{Gamma(p)Gamma(q)}{Gamma(p+q)} end{eqnarray} (p,q)を以下のように選ぶと、 begin{eqnarray} B(frac{n-1}{2},frac{1}{2}) = frac{Gamma(frac{n-1}{2})Gamma(frac{1}{2})}{Gamma(frac{n}{2})} end{eqnarray} これを使って式を書き直すと、一気に約分されて自由度(n)のカイ二乗分布の式が現れる。 begin{eqnarray} frac{e^{-frac{x}{2}}x^{frac{n-3}{2}-frac{1}{2}+1}}{2^{frac{n}{2}}Gamma(frac{n-1}{2})Gamma(frac{1}{2})} int_{0}^{1} u^{frac{n-3}{2}}(1-u)^{-frac{1}{2}}du \\ = frac{e^{-frac{x}{2}}x^{frac{n-3}{2}-frac{1}{2}+1}}{2^{frac{n}{2}}Gamma(frac{n-1}{2})Gamma(frac{1}{2})} frac{Gamma(frac{n-1}{2})Gamma(frac{1}{2})}{Gamma(frac{n}{2})} \\ = frac{1}{2^{frac{n}{2}}Gamma({frac{n}{2}})}x^{frac{n}{2}-1}e^{-frac{x}{2}} \\ = f_n(x) end{eqnarray} Q.E.D.!! あぁ、これは気持ち良い。 [arst_adsense slotnumber=\"1\"]

default eye-catch image.

既知の標準偏差をもとに母平均を推定する

[mathjax] 機械が出力した結果を観測すると、観測結果がある平均値を中心として誤差内に含まれ、 その分布が正規分布を成すことがわかる。 既に存在する機械の誤差(標準偏差)は既知であり、 既知の標準偏差を使って、母平均を予測することができる。 予測の仕方は、95%信頼区間を使う。 母平均を推定する例 ドリンク製造装置があったとする。 このドリンク製造装置は標準偏差=12の誤差でドリンクを製造できる。 ドリンクを36個製造したとき、ドリンクの量の標本平均が370mlであった。 母集団が、母平均(mu)、標準偏差(sigma)の正規分布である場合、 母平均の95%信頼区間は、 begin{eqnarray} -1.96 leq frac{x-mu}{sigma} leq 1.96 end{eqnarray} この母手段から、(N)個の標本を観測したなら、 標本の分布は、標本平均(mu)、標準偏差(frac{sigma}{sqrt{N}})の正規分布となる。 標本平均の95%信頼区間は、 begin{eqnarray} -1.96 leq frac{bar{x}-mu}{frac{sigma}{sqrt{N}}} leq 1.96 end{eqnarray} 今、(N=36)、(bar{x}=370)、(sigma=12)なので、 それを入れてみる。 begin{eqnarray} -1.96 leq frac{370-mu}{frac{12}{sqrt{36}}} leq 1.96 \\ -1.96 leq frac{370-mu}{2} leq 1.96 \\ -3.92-370 leq -mu leq 3.92-370 \\ 366.08 leq mu leq 373.92 end{eqnarray} 母平均が棄却されない区間は、(366.08 leq mu leq 373.92)となる。 標本の数(N)が増えれば増えるほど95%信頼区間が狭くなっていき、 母平均をドンピシャで当てる確度が上がっていく。

default eye-catch image.

標本の標準偏差とルートnの法則

[mathjax] 平均(mu)、標準偏差(sigma)からなる母集団から標本を取り出したとき、 標本の平均は母集団の平均(mu)に収束する。 では、もう一つの統計量である標準偏差はどうか。 意外と簡単にわかるようなのでまとめてみる。 誤差伝播法則 まず、下準備として、加法の誤差の見積もりについて。 今、(M_1)というサンプルが誤差(epsilon_1)、(M_2)というサンプルが誤差(epsilon_2)を持つとする。 つまり、それぞれ(M_1pmepsilon_1)、(M_2pmepsilon_2)。 その上で、((M_1pmepsilon_1) pm (M_2pmepsilon_2) ) について誤差の項をどう見積れるか、という話。 例えば以下の関係があったとき、 begin{eqnarray} z &=& f(x,y) end{eqnarray} 以下とすると、 begin{eqnarray} x &=& x_0 pm e_x \\ y &=& y_0 pm e_y end{eqnarray} (z)は、以下のようになる。 begin{eqnarray} z &=& z_0 pm e_z end{eqnarray} ここで(e_z)は以下となる(公式)。 偏微分とか何年振りだよ..と、思うがなんとなく確率の式より把握しやすい。 begin{eqnarray} e_z = sqrt{left( frac{partial f}{partial x} right)^2 e_x^2 + left( frac{partial f}{partial y} right)^2 e_y^2} end{eqnarray} 最初のサンプルと誤差を上記に入れてみると、 begin{eqnarray} sigma &=& sqrt{left( frac{partial (M_1+M_2)}{partial M_1} epsilon_1 right)^2 + left( frac{partial (M_1+M_2)}{partial M_2} epsilon_2 right)^2} = sqrt{ epsilon_1^2 + epsilon_2^2 } end{eqnarray} 両辺2乗して、 begin{eqnarray} sigma^2 &=& left( frac{partial (M_1+M_2)}{partial M_1} epsilon_1 right)^2 + left( frac{partial (M_1+M_2)}{partial M_2} epsilon_2 right)^2 = epsilon_1^2 + epsilon_2^2 end{eqnarray} ここから一番最初に戻ると、 begin{eqnarray} (M_1 pm epsilon_1) pm (M_2 pm epsilon_2) end{eqnarray} 上の誤差伝播式から以下が導かれる。 誤差項は以下の通りとなる様子。 begin{eqnarray} (M_1 pm M_2 ) pm sqrt{( epsilon_1^2 + epsilon_2^2 )} end{eqnarray} [arst_adsense slotnumber=\"1\"] ルートnの法則 母集団から(N)個のサンプルを取り出したときの平均は以下の通り。 begin{eqnarray} bar{x} = frac{x_1+x_2+cdots+x_N}{N} end{eqnarray} どの(x_i)も同じ母集団から取り出したサンプルなので、 それぞれの標準偏差は以下の通り全て同じ。 begin{eqnarray} sigma_1 = sigma_2 = cdots = sigma_N = sigma end{eqnarray} (bar{x})は真の値に誤差を加算した値であるが、誤差項は誤差伝播法則から以下の通りとなる。 begin{eqnarray} sqrt{sigma_1^2 + sigma_2^2 + cdots + sigma_N^2} = sqrt{sigma^2 + sigma^2 + cdots + sigma^2} = sqrt{N}sigma end{eqnarray} サンプル1個あたりの誤差、つまり標準偏差は、 begin{eqnarray} frac{sqrt{N}sigma}{N} = frac{sigma}{sqrt{N}} end{eqnarray} まとめ 平均(mu)、標準偏差(sigma)からなる母集団から標本を取り出したとき、 標本の平均は母集団の平均(mu)と等しい。 標本の標準偏差は( frac{sigma}{sqrt{N}} )である。 特に、標準偏差が(1/sqrt{N})倍となり、母集団と比較してより狭い範囲に値が集中する。 [arst_adsense slotnumber=\"1\"]

default eye-catch image.

大数の法則(弱法則)の証明

[mathjax] 統計の基本中の基本らしい もう、統計の基本中の基本らしい大数の法則。 ランダムサンプリングした標本から母集団を推測できる話の根幹。 ビッグデータを全量検査しなくても同じかもしれない。 不明な母集団から観測値(x)を記録していくと、 観測値(x)の平均(標本平均)は母集団の平均(母平均)に収束する 母集団がよくわかってなくても、 母集団が十分に混ざり合っていれば、 いくつか標本を取るだけで母集団の平均がだいたいわかる。 コイン投げで出る表の数の母平均は0.5だろうけども、 10回投げて4回出た -> 0.4、 100回投げて53回出た -> 0.53。 1000回投げて490回出た -> 0.49、 ... のようにしていくと0.5に近づいていく。 単に収束する、というのと別に、統計の分野では「確率収束」という言葉がある。 範囲をもった確率値が振れながら一定の確率に近づいていくことを言うんだろう。(ざっくり) 大数の法則の弱法則の証明を見てなるほどと思ったので複写してみる。 無理やりだが結構すぐに証明できる とってつけたようにマルコフの不等式とチェビシェフの不等式があれば、 無理やりだけども簡単に証明できる。 マルコフの不等式、チェビシェフの不等式の証明と意味はこちら。 https://ikuty.com/2018/07/06/rare_observation/ 大数の法則の弱法則は以下の通り定式化される。 平均(mu)、標準偏差(sigma)という分布があるとする。 互いに独立な事象が起こる確率の確率変数(X_1,X_2,cdots,)と任意の(epsilon ge 0)について、 begin{eqnarray} lim_{ntoinfty}Pleft(left|frac{X_1+X_2+cdots+X_n}{n}-muright|ge epsilonright)=0 end{eqnarray} 標本平均と母平均の差が(epsilon)より大きくなる確率が0に収束する。 これを証明する。 まず(Y_n)を以下とする。 begin{eqnarray} Y_n = frac{X_1+X_2+cdots+X_n}{n} end{eqnarray} 期待値の定義から、 begin{eqnarray} E(Y_n) &=& frac{nmu}{n} \\ &=& mu end{eqnarray} 分散の定義から、 begin{eqnarray} V(Y_n) &=& frac{nsigma^2}{n^2} \\ &=& frac{sigma^2}{n} end{eqnarray} チェブシェフの不等式として以下が成りたつ。 begin{eqnarray} P(|Y_n-mu|ge a) le frac{E(|Y_n-mu|^2)}{a^2} end{eqnarray} 右辺の分子を分散で書き換えると、 begin{eqnarray} P(|Y_n-mu|ge a) le frac{sigma^2}{na^2} end{eqnarray} 両辺のnの極限をとると、 begin{eqnarray} lim_{n to infty} P(|Y_n-mu|ge a) &le& lim_{n to infty } frac{sigma^2}{na^2} \\ lim_{n to infty} P(|Y_n-mu|ge a) &le& 0 end{eqnarray} なので示された。 都合よくチェビシェフの不等式がある感じだけど、あれば簡単。 さて、ではどういうことか 式をこねくり回しても意味がないので、 少し考えてみる。

default eye-catch image.

レアな観測がレアであることの定式化

[mathjax] レアな観測がレアであることの定式化 マルコフの不等式。 任意の確率変数(X)と(agt 0)に対して以下が成りなってしまう。 begin{eqnarray} P(|X|ge a) le frac{E[|X|]}{a} end{eqnarray} ( k=a/E(X) )とおくと以下となり、 平均の(k)倍を超える確率が(frac{1}{k})以下であることを意味する。 begin{eqnarray} P(|X| ge k E[|X|]) le frac{1}{k} end{eqnarray} 証明は以下の通りにする模様。 結構簡単に導かれる。 begin{eqnarray} E(|X|) &=& sum_{x}|x|P(X=a) \\ &ge& sum_{x:|x|ge a}|x|P(x=a) \\ &ge& sum_{x:|x|ge a}aP(x=a) = a P(|x|ge a) \\ end{eqnarray} 大数の法則の弱法則の証明のためにマルコフの不等式をいじる。 (a = a^2)、(X = (X-mu)^2)とおく。 マルコフの不等式は以下のようになる。 begin{eqnarray} P(|x-mu|ge a) le frac{E(|X-mu|^2)}{a^2} end{eqnarray} チェビシェフの不等式という名前が付いているらしい。 ちなみに、 チェビシェフの不等式について、 begin{eqnarray} P(|X-mu|ge a) &le& frac{sigma^2}{na^2} \\ end{eqnarray} (a)を(ksigma)とする。 begin{eqnarray} P(|X-mu|ge ksigma) &le& frac{sigma^2}{nk^2sigma^2} \\ &=& frac{1}{nk^2} \\ &le& frac{1}{k^2} end{eqnarray} これはどういうことか。 平均から(ksigma)離れたデータはたかだか全体の(frac{1}{k^2})しか存在しない。 凄まじい。 母集団が平均(mu)、標準偏差(sigma)をもつ正規分布である場合、 全体の97.5%が(2sigma)の区間に存在することを利用して、仮説検定、信頼区間を決めたりしてたが、 正規分布でない一般の分布においても(k)を上手く決めることで、同様に仮説検定、信頼区間を決めたりできる。 なんで持ち出したのか それは、この2つの不等式を使うことで大事な大数の法則を証明できるから。

default eye-catch image.

95%信頼区間

[mathjax] 95%信頼区間に関する本を読んだのでまとめてみる。 仮説検定振り返り まず、仮説検定について振り返る。 母集団が正規分布(平均(mu)、標準偏差(sigma))に従うとき、母集団の数をNと仮定した場合、 観測された標本値がxであったとすると、 Nとする仮定は棄却できるかどうかを確かめることを仮説検定としていた。 棄却可否の根拠は以下の式で考えた。 (z = frac{x-mu}{sigma})と変換すると、zは標準正規分布をなす。 標準正規分布の95%予言的中区間は(-1.96 leq z leq 1.96)であるから、 begin{eqnarray} -1.96 leq frac{x-mu}{sigma} leq 1.96 end{eqnarray} つまり、標本値が仮定する正規分布の95%予言的中区間に含まれているか否かを根拠とした。 zが範囲からはずれる場合、Nという仮定を棄却する。 95%信頼区間 今、母集団のN数から平均、標準偏差を求められるものとする。 例えば、コインをN回振ったときに表が出る回数の平均(mu )は( frac{N}{2} )、標準偏差(sigma)は(frac{sqrt{N}}{2})。 このとき、未知の変数(x)について、仮定Nを棄却できない範囲は以下の通りである。 begin{eqnarray} -1.96 leq frac{x-mu}{sigma} leq 1.96 \\ -1.96 leq frac{x-frac{N}{2}}{frac{sqrt{N}}{2}} leq 1.96 end{eqnarray} Nを小さい方から大きい方に動かしていくと、上記の不等式が成立する/しないの境界がわかる。 N=12のときは成立しないが、N=13のときは成立する。 N=30のときは成立するが、N=31のときは成立しない。 つまり、(13 leq N leq 30)のときに不等式は成立する。 これがNの95%信頼区間。 95%信頼区間の意味 95%信頼区間とはNが95%の確率でその区間に入るという意味ではない。 統計あるあるの一つ。 Nは実在する真の値であるがわからない値。 (x)はNという仮定の上で確率的に発生する値なことに注意。 Nの区間推定は以下の不等式を満たす範囲。 begin{eqnarray} -1.96 leq frac{x-frac{N}{2}}{frac{sqrt{N}}{2}} leq 1.96 end{eqnarray} (13 leq N leq 30)のときに、( x )は平均(mu=frac{N}{2})、標準偏差(sigma=frac{sqrt{N}}{2})の正規分布の 95%予言的中区間に含まれる、ということを言っている。 それぞれのNに対してそれぞれの(x)の分布が存在していて、 その(x)においてNを棄却できない、というそんな区間。 平均(mu)、標準偏差(sigma)ともに母集団の数Nから自動的に定る正規分布なんで、 フェイクといえばフェイクだけども、 母集団の数Nを決めるだけで、そこから発生する値を95%の確率で予言できるなんてすごいな。

default eye-catch image.

母集団の推測と仮説検定

[mathjax] 母集団の推定 背後に正規分布に従う母集団があるとして、そこからあるデータ(x)が観測されたとする。 観測されたデータ(x)から、母集団を推測しようとする試みについてまとめてみる。 仮説検定 標本が平均(mu)、標準偏差(sigma)の正規分布に従うとき、 標本から観測されたデータ(x)が母集団(母数=N)の95%予言的中区間の範囲外であるならば、 母数=Nであるという仮説を棄却する。 このとき、以下の2つの考え方があるが、 1) 観測されたデータxが、仮定した母集団の95%予言的中区間の外である 2) 仮定した母集団が誤っている 1)の肯定的言及は言うことができず、2)の消極的言及のみ言うことができる。 今は母集団を推測しようとしているのだから、2)をもって母集団を予測していく。 コインの裏表から考える仮説検定 今、コインをN回投げたとする。 表が出る回数の平均は(mu=frac{N}{2})、標準偏差は(sigma=frac{sqrt{N}}{2})である。 N=16と仮定すると(mu=frac{16}{2}=8)、(sigma=frac{sqrt{16}}{2}=2)である。 95%予言的中区間の不等式を変形していく。 begin{eqnarray} -1.96 leq frac{x-mu}{sigma} leq 1.96 \\ -1.96 leq frac{x-8}{2} leq 1.96 \\ 4.08 leq x leq 11.92 end{eqnarray} もし仮定したN=16の半分である8回表が出た場合、上記の不等式は満たされる。 従って、N=16であるという仮説は棄却できない。 またN=16としたとき、表が2回した出なかったのであれば、上記の不等式は満たされない。 従って、N=16であるという仮説は棄却できる。

default eye-catch image.

予言的中区間

[mathjax] 正規分布の特性から、逆に95%の確率で出現を言い当てられる区間を決められることを読んだ。 標準正規分布、一般正規分布の95%予言的中区間についてまとめてみる。 標準正規分布の95%予言的中区間 平均(mu=0)、標準偏差(sigma=1)の標準正規分布において、 1(sigma)区間の相対度数の和は約0.68、2(sigma)区間の相対度数の和は約0.95。 逆にいうと、 標準正規分布から出現する値を\"-1から+1の範囲の値\"とすると約68%の確率で予言することになる。 また、\"-2から+2の範囲の値\"とすると、約95%の確率で予言することになる。 (確率を可能性の意味で使っていない) 確率の方を95%ぴったりとすると、範囲は\"-1.96から+1.96\"となる。 これを95%予言的中区間と言う。 次回に観測する値が95%の確率で-1.96から+1.96の範囲に入ることを予測している。 もともと定義域が無い((-inftyから+infty))中で、いきなり-1.96から+1.96という範囲を 持ち出して、そこに入る確率が95%であるというのは強烈。 一般正規分布の95%予言的中区間 標準正規分布(x)に対して、以下の変換により一般正規分布を得る。 begin{eqnarray} z = sigma x + mu end{eqnarray} 対象線が(x=0)から(x=mu)にシフトし、(sigma)区間が1から(sigma)に遷移する。 95%予言的中区間は(-(1.96sigma+mu)) から(+(1.96sigma+mu))となる。 平均(mu)、標準偏差(sigma)を満たす正規分布であれば、 次回観測するデータは95%の確率で(-(1.96sigma+mu)) から(+(1.96sigma+mu))の範囲である、 という強烈さ。 95%予言的中区間の不等式表現 標準偏差を軸にすると正規分布がかなりわかりやすくなる。 「標準偏差何個分のずれの範囲」を不等式にすると、さらに直接的になる。 xが平均(mu)、標準偏差(sigma)を満たす正規分布である場合、 以下のように変換することで標準正規分布(z)を得られる。 ((z)の変換の意味は、データが平均値(mu)から標準偏差(sigma)いくつ分ずれているか、を表す) begin{eqnarray} z = frac{(x-mu)}{sigma} end{eqnarray} xが平均(mu)、標準偏差(sigma)を満たす正規分布である場合、 95%予言的中区間は以下の不等式で得られる範囲である。 begin{eqnarray} -1.96 leq frac{(x-mu)}{sigma} leq +1.96 end{eqnarray}

default eye-catch image.

標準正規分布と一般正規分布の\(\sigma\)区間

[mathjax] 確率密度関数を扱わないで正規分布をうまく説明する本を読んだので、 理解のためにまとめてみる。 標準正規分布 平均が0、標準偏差が1である分布をもつデータセットについて度数分布表を書くとする。 データセット内のデータは(-infty)から(+infty)まで出現するが、 その出現頻度の相対度数は0を挟んで正負対象であり、 バラツキの縮約値は標準偏差=1で決まる。 出現頻度の相対度数は平均=0のときが一番大きく、 絶対値が大きくなるに従って小さくなっていく。 -1から+1までの出現頻度の相対度数の和は約0.68となる。 つまり、全体の68%が-1から+1までの値である。 -2から+2までの出現頻度の相対度数の和は約0.95となる。 つまり、全体の95%が-2から+2までの値である。 そんな分布を標準正規分布といっている。 一般正規分布 標準正規分布を満たすデータセットの全てのデータに対して、 (sigma)倍して、(mu)を足したデータセットを考える。 begin{eqnarray} z = sigma x + mu end{eqnarray} ここで、平均(mu)、標準偏差(sigma)を満たすデータセットについて一律(+a)という操作を行う場合、 その結果のデータセットの平均は(mu+a)となるが、分散は(sigma^2)、標準偏差は(sigma)のまま変わらない。 また、平均(mu)、標準偏差(sigma)を満たすデータセットについて一律(b)を掛ける操作を行う場合、 その結果のデータセットの平均は(bmu)、分散は((sigma b)^2)、標準偏差は(sigma b)。 このことから、 zの平均はxの平均(=0)+(mu) = (mu)。 zの標準偏差はzの標準偏差(=1)*(sigma) = (sigma)。 平均(mu)、標準偏差(sigma)を持つデータセットについても、 (mu-sigma)から(mu+sigma)の相対出現頻度の和は全体の約68%を満たす。 また、(mu-2sigma)から(mu+2sigma)の相対出現頻度の和は全体の95%を満たす。 zを一般正規分布と呼んでいる。 (sigma)区間 (-sigma)から(+sigma)までの区間で全体の約68%を占める。この区間を(1sigma)区間と呼んだりする。 また(-2sigma)から(+2sigma)までの区間で全体の約95%を占める。この区間を(2sigma)区間と呼ぶ。 無限の範囲を取りうるデータセットが正規分布であるとわかっているのであれば、 (2sigma)区間を予言することで、95%の確率で正解となる。 偏差値 一般正規分布において平均値(mu)の得点を偏差値50、 (mu-sigma)を偏差値40、(mu+sigma)を偏差値60と割りあてる。 偏差値60というのは(+1sigma)区間だから、上位32%でしかないんだな。 偏差値50から60というのが、いかに普通なのかがよくわかる。 対して、偏差値70というのは(+2sigma)区間だから、上位5%ということ。 標準偏差(sigma)が大きい場合、(1sigma)区間が広いので、 平均から大分良さげな点をとっても偏差値が高くない、ということになる。

default eye-catch image.

S.D.(Standard Deviation)の定義の導出

[mathjax] データセットのバラツキを縮約する統計量である分散と標準偏差について、 単なる概念ではなくて、直感的な理解の助けになる読み物を読んだのでまとめてみる。 偏差( sigma^2 ) とは平均 ( bar{x} ) との距離 ( x_i - bar{x} )のことを言う。 以下のように偏差の平均を式変形するとゼロになる。 $$ begin{eqnarray} frac{1}{N} sum_{i}^{N} sigma^2 &=& frac{1}{N}sum_{i}^{N}( x_i - bar{x} ) \\ &=& frac{1}{N} left( sum_{i}^{N}x_i - N bar{x} right) \\ &=& frac{1}{N} sum_{i}^{N}x_i - frac{N}{N} bar{x} \\ &=& bar{x} - bar{x} \\ &=& 0 end{eqnarray} $$ 距離 ( x_i - bar{x} ) の平均がゼロになるところに平均( bar{x} ) があるイメージ。 データセットのバラツキを調べるために偏差の平均を使うと、 平均を挟んでプラスとマイナスが打ち消しあってしまうから、 プラスとマイナスを打ち消し合わないように2乗の平均を使おう というのが基本的なアイデア。 $$ begin{eqnarray} v &=& sigma^2 \\ &=& frac{1}{N} sum_{i}^{N}(x_i-bar{x})^2 end{eqnarray} $$ 2乗の平均だとデータセットのデータの単位が2乗されていて大きすぎるから、 データセットのデータの単位に合わせるためにルートをとる。それが標準偏差。 $$ begin{eqnarray} sigma &=& sqrt{ frac{1}{N} sum_{i}^{N}(x_i-bar{x})^2} end{eqnarray} $$ 標準偏差によりデータセットのバラツキをデータの同じ次数で表現できる。 文部科学省 用語解説より引用 データの値の離れ具合(散らばりの度合い)を表す数値。分散(「データの平均と個々のデータの差」の2乗の平均)の平方根で求められ,標準偏差が0とは,ばらつきがない(データの値がすべて同じ)ことを意味する。