離散型確率変数
確率変数Nの確率が以下で定められている。
P(N=n) = (n-1)p2(1-p)n-2 (n=2,3,,,,)
例題1「E(N)を求めよ」
P(N=n)の理解のイメージ P(N=n) = (n-1)p2(1-p)n-2 (n=1,2,3,,,,) は確率変数Nの値が整数nになる確率が右辺だということ。 厳密な書き方は、P({w; N(w)=n}) 例えると、人間Nにおやつwをあげると、満足度nになる。人間Nが満足度nになる確率がP(N=n)
E(N)の理解のイメージ 確率変数Nの取る値の期待値(平均値)を表す。 ・N=nになる確率はP(N=n) ・N=nになったときのNの値はそのままn 具体的に例を考えてみる。 6面サイコロの1面が出る確率は1/6とする。 出た目の数がポイントとする。 一回サイコロを振った時のポイントの期待値(平均値)を求めてみる。 1・(1/6)+ 2・(1/6)+・・・+ 6・(1/6) = 3.5 平均値って聞くと母数で割り算したくなるけど、確率を掛け算している部分が割り算に相当するので、する必要がありません。
解答:
E(N) = ΣnP(N=n) = Σn(n-1)p2(1-p)n-2 =(計算省略)= 2/p
*****************************************
例題2:
「確率変数Nが以下で定められている。
N = N1 + N2
確率変数N1, N2の確率は以下で定められている。また、N1, N2は独立。
P(N1=n) = p(1-p)n-1 (n=1,2,3,,,,)
P(N2=n) = (n-1)p2(1-p)n-2 (n=2,3,4,,,,)
Nの確率P(N=n) (n=3,4,5,,,,)を答えよ。」
P(N=n)のイメージ N = N1 + N2なので、代入してみる。 P(N1 + N2 = n) 例えばN1 = 5 なら、N2 = n-5 なので、 N1 = k なら、N2 = n-kなので、kに関してΣを使う。
解答:
\(\begin{aligned}
E(N)
&=\sum_{k=2}^{n-1} P\left(N_{1}=n-k_{1}, N_{2}=p_{1}\right)\\
&=\sum_{k=1}^{k-1} P\left(N_{1}=n-k\right) P\left(N_{2}=k\right) (∵ 独立)\\
&=\sum_{k=2}^{n-1} p(1-P)^{n+k-1} \cdot(n-1) p^{2}\left(1-P)^{k-2}\right.\\
&=(n-1) p^{3}(1-P)^{n-3} \sum_{k=2}^{n-1} 1\\
&=(n-1) p^{3}\left(1-p)^{n-3}(n-2)\right.\\
&=(n-1)(n-2) p^{3}(1-p)^{n-3} .
\end{aligned}\)
例題3:
「不偏推定量 c/(N-1)
がpの不偏推定量となるような、p,Nに依存しないcの値を求めよ」
一般論(不偏推定量) 統計量Tの確率分布の平均がθの時、 E[T] = θ となるとき、Tは母数θに対する不偏推定量と呼ぶ。
今回 E(c/(N-1)) = p となれば良い。 E(1/N)は確率変数Nが値1/nを取る確率がP(N=n)
解答:
E(c/(N-1)) = cE(1/(N-1)) = cΣ1/(n-1)P =(計算)= p
示せた。
*****************************************
例題4:
N1, N2の定義はさっきまでとおなじ。
N1 = n1, N2 = n2 を観測した時のpの最尤推定量を求めよ。
一般論(最尤推定量) 最尤法は母集団の分布の形がわかっている時に使える方法。(ちなみに、母集団の分布の形がわかっているがその母数が未知であるときに、標本値からその母数を決めようとする方法の1つ) 母数θとして、母集団の確率密度関数をf(x;θ)とする。 X1, X2,,,Xnを母集団からの標本とすると、尤度関数はこれによって定まるn次元確率分布の確率密度関数L(X1, X2,,,Xn;θ)となる。 尤度関数Lに標本調査で得られた値(サンプル)を代入したL(x1, x2,,,xn;θ)をθの関数L(θ)だと考えて、そのLの値を最大にするθを考える。最大にするθを最尤推定量という。 X1, X2,,,Xnが無作為標本ならば、 L(θ) (=L(x1, x2,,,xn;θ)) = f(x1;θ)f(x2;θ)・・・f(xn;θ) となる。 L,fはどっちも正なので、 log L(X1, X2,,,Xn;θ) = Σlog f(Xn;θ) を最大にするθを求めたらいい。
今回 尤度関数は L(p) (=L(n1, n2;p)) = f(n1;p)f(n2;p) = P(N1 = n1)P(N2 = n2) = p(1-p)n1-1 (n2-1)p2(1-p)n2-2 = (n2-1)p3(1-p)n1+n2-3 log L(p) = log(n2-1) + log p3 + log (1-p)n1+n2-3 log L(p)を最大にするpを求めるので、pで微分する log L'(p) = 0 を計算する。 3/p - (n1+n2-3)/(1-p) =0 ・・・・・ p=3/(n1+n2)
連続型確率変数
分布関数 F(x) = P(X ≦ x) が
\(\begin{aligned}F\left( x\right) =\int ^{x}_{-\infty }f\left( t\right) dt\
\end{aligned}\)
と、ある非負値関数fの積分で書ける場合、Xは連続型確率変数。
確率なので、\(\begin{aligned} \int ^{\infty}_{-\infty }f\left( t\right) dt = 1
\end{aligned}\)
例題1:
確率変数X1, X2を以下の確率分布関数を持つ分布からの大きさ2のランダム標本とする。
\(\begin{equation}
f(x)= \begin{cases}e^{-x} & x>0 \\ 0 & \text { その他 }\end{cases}
\end{equation}\)
Y1= min{X1, X2}, Y2= max{X1, X2}とする。
Y2の確率密度関数を求めよ。
方針など Y2の確率密度関数なので、f(y2)を求めればいい。 いきなりf(y2)は分からないので、その分布であるF(y2)を考える。 Fの定義より、F(y2)をy2で微分すればf(y2)が出る。
解答:
F(y2) = P( Y2 ≦ y2 )
= P( max(X1, X2) ≦ y2 )
= P(X1 ≦ y2)P(X2 ≦ y2) (ランダム標本のX1, X2が両方ともy2より小さい確率を求めている)
= {P(X1 ≦ y2)}2
(計算)
= (1 – e-y2)2
f(y2) = F'(y2) = 2e-y2(1 – e-y2)
コメント