Processing math: 19%
본문 바로가기
Math/확률과 통계 Probability and Statistics

[2-1/2-2] Discrete Distribution, pmf, moment, mgf

by ju_nope 2023. 3. 12.

Discrete Random Variable and Probability Distribution 이산확률변수와 확률 분포 

현실 세계의 사건에 대해 확률을 계산하기 위해서는, 언어적이고 추상적인 사건을 구체적인 숫자에 대응시킬 무언가가 꼭 필요하다. 다시말해 사건 A가 일어날 확률을 계산하려면, 모든 사건은 일정한 규칙에 따라 각각 하나의 실수에 대응되어야 한다. 확률변수 X Randomvariable, 사건 A 에 대하여 임의의 실수 하나를 대응시켜주는 real-valued function을 의미한다. 

사건 A가 일어날 확률은, 사건A에 대응되는 실수 XA가 집합 B에 포함될 확률로 구한다. P(XB)=P[{ sS:X(s)B}]

Discrete random variable 이산확률변수 

X의 range가 countable 일때. 확률변수가 대응시킨 실수들이 셀수 있을때 finiteorinfinitelycountable 

Indicator function 

I(xA)=IA(x)={1for xA0otherwise 

? Maclaurin Series 

매클로린 시리즈는 0에서 정의된 테일러 시리즈이다. 

Taylor Series : \g(y = \sum_{i=0}^{\infty}\frac{g^na}{n!}ya^n\)

Maclaurin Series : \g(y = \sum_{i=0}^{\infty}\frac{g^n0}{n!}y^n\)

매클로린 시리즈의 수렴구간은 비판정법에 의해 결정된다.\( |y| < \frac{1}{K} K = \lim_{x \to \infty}\frac{a_{n+1}}{a_n}\)  이다. 

첫번째로, 지수함수 Expx의 매클로린 급수는 아래와 같다. 

ey=i=0gn(0)n!yn=i=0ynn!

\gn(0 = 1 \)이기 때문이다. 수렴구간은 실수 전 집합이다. 

다음은 Geometric Series 이다.

1(1y)=i=0gn(0)n!yn=i=0yn

\gn(0 = n! \) 이기때문에 아래 n!과 약분이 된다. 이 경우에 수렴구간은 \(|y| <1\)이다. 

마지막으로, Negative Binomial Series이다.  

\frac{1}{(1-y)^r} =  \sum_{i=0}^{\infty}\frac{g^n(0)}{n!}y^n =  \sum_{i=0}^{\infty}\binom{n+r-1}{n}y^n

이 경우엔 \g^n(0 = \frac{n+r-1!}{r-1!}\) 인데, 아래에 있는 n! 과 합쳐지면 \(\frac{n+r-1!}{r-1!n!} = \binom{n+r-1}{n}\)이 된다. 수렴구간은 \(|y| <1\)이다. 

PMF Probability Mass Function 확률 질량 함수 

확률 질량 함수란, 이산 확률 변수 X에 확률을 할당해주는 함수를 의미한다. f(x) = P(X = x)

어떤 함수 f 가 확률변수 X의 pmf가 되기 위해선 다음 세조건을 만족시켜야한다. 앞 두조건은 pmf의 기본 정의, 세번째는 X의  pmf이기 위한 조건

1. \f(x \geq 0\)

2.\\sum f(x = 1\)

3.\P(X \in  A = \sum_{x \in A} fx \) : 직관적으로 잘 이해가 안되는 문장... 질문하기 

Support set

pmf fx가 항상 0보다 크거나 같게하는 x의 집합을 Support of X라고 한다. pmf의 도메인과 같은 개념 

Cumulative Distribution Function

F(x) = P(X \leq x)

구간별로 누적되는 함수이므로, pmf가 점차 쌓여가는 함수이다. Step function with jumps of size fx for \x \in S(x\)

 Expectations and Momentums 기댓값과 모멘텀

Expectation =Mean

기댓값 expectation  value 와 평균Mean은 같은 의미로, 표기법만 다르다. Expectation 은 Ex로 표기하고, Mean은 \(\mu\)로 표기한다. 

E(x) = \mu  = \sum x f(x)

Expectation 은 비단 x에 대해서만 구할 수 있는 것이 아니고, 일반적인 함수 gx에 대해서도 계산할 수 있다. 예를 들어 물리학에서 위치의 기댓값 뿐만아니라, 운동량이나 헤밀토니안등의 물리량의 Expectation value를 계산하는 경우를 아주 자주 볼 수 있다.

Expectation of gX  E[g(X)] = \sum g(x)f(x)

기댓값이 만족시키는 성질 

1. Ec  = c 상수의 평균은 상수

2. E[ c gX ]  = c E[gX] 상수 곱은 그대로 적용

3.선형성 : \E[c_1 g_1(X + c_2g_2X] = c_1E[g_1X] + c_2E[g_2X]\)  이고, 이는 N개에 대해서도 당연히 성립한다. 

Moment

rth Moment of X :  \(\mu_{r}^{'} = E[X^r]$ : X의 r번째 모멘텀은 확률변수 X의 r제곱의 평균으로 정의한다. 이 제곱의 평균이 뒤에서 자주 쓰이기 때문에 정의해둔다. 

rth central moment of X  : \\mu_{r} = E[(X-\mu^r]\) 

rth factorial moment of X : \\mu_{r} = E[X(X-1X-2 ... X-r +1]$ : discrete에서 많이 쓴다. 

Variance 분산

Var(X) = E[(X-\mu)^2] = \sigma^2

로 정의한다. 이때 시그마는 Standard deviation 표준편차를 의미한다. \(\sigma = \sqrt{VarX}\) 또한

Var(x) = E[X^2] - \mu^2 으로 정의한다. 

Proof : E[(X-\mu)^2] = E[X^2 - 2\mu X + \mu^2] = E[X^2] - 2 E(X)\mu + \mu^2 = E[X^2] - \mu^2

또 다음이 성립한다. 
EaX+b =\aE(X+b\)

VaraX+b = \a^2 Var(X\)

\\sigma (aX+b = a \sigma\)

 Moment generating function MGF

Mt 로 보통 적는다. Mt = E(e^{tX}) 이고, 0을 포함하는 구간 \(-h<t<h$에서 정의된다. 

우리는 0 근방에서 Mt가 t에 대해 무한정으로 미분이 가능함을 알 수 있다. Mt를 r번 t에 대해 미분하면 그 값은 \E(X^r e^{tX}\) 일 것이다. 여기서 t에 0을 대입하면, 값은 E(X^r)이 된다. 바로 위에서 봤던 rth moment of X 이다.

  M^r(0) = E[X^r e^{tX}]_{t=0} = E[X^r] = \mu_{r}^{'}

이래서 mgf라는 이름이 붙었구나싶다. 

또한 Mt의 정의에 따라 M(t) = E[e^{tX}] = \sum_{k=1}^{\infty}e^{tx_k}f(x_k) =\sum_{k=1}^{\infty}{p_k} e^{tX}

이고, 우리는 mgf로부터 역으로 pmf를 구할 수 있다. 대박

예를 들어 mgf 가 아래와 같은 함수가 있다고 하자. 

M(t) = \frac{e^t}{2-e^t} where t<ln2

모든 mgf 가 pmf와 exp항의 곱으로 전개될 수 있는 것은 아니지만, 이 mgf는 아래와 같이 geometric series로 전개가 가능하다. 

\(\frac{e^t}{2}$에 대해 매클로린 급수 전개를 진행하면 

\frac{\frac{e^t}{2}}{1-\frac{e^t}{2}} = \frac{e^t}{2}(1+\frac{e^t}{2} + (\frac{e^t}{2})^2+(\frac{e^t}{2})^3+ ...)

이를 다음과 같이 정리할 수 있다. 

= \frac{1}{2}e^t +(\frac{1}{2})^2e^{2t} + ... = \sum_{k=1}^{\infty} (\frac{1}{2})^k e^{tk} 

따라서 우리가 찾는 pmf는 

\sum_{k=1}^{\infty} p_k e^{tk}= \sum_{k=1}^{\infty} (\frac{1}{2})^k e^{tk}

f(x) = (\frac{1}{2})^k

 

위에 예시에서, 확률변수 X는 동전을 4번 던졌을때 나오는 앞면의 횟수이므로,  fk는 앞면이  k 번 나올때의 확률을 의미한다. Mt를 구해주면 \e^{tX}\) 의 평균을 구해주면 되는 것이고, 그렇게 얻은 mgf는 우리가 E(X가 필요할때는 한번 미분해서 t=0 넣고, VarX가 필요할 때는 두번미분해서 얻은 모멘트와 평균의 제곱을 빼서 구한다. 

댓글