Funkcją charakterystyczną rozkładu prawdopodobieństwa
μ
{\displaystyle \mu }
nazywa się funkcję
φ
:
R
→
C
{\displaystyle \varphi \colon \mathbb {R} \to \mathbb {C} }
zadaną wzorem
φ
(
t
)
=
∫
R
e
i
t
s
μ
(
d
s
)
.
{\displaystyle \varphi (t)=\int \limits _{\mathbb {R} }e^{its}\mu (\mathrm {d} s).}
Jeżeli
X
:
Ω
→
R
{\displaystyle X\colon \Omega \to \mathbb {R} }
jest zmienną losową , a
μ
X
{\displaystyle \mu _{X}}
jest jej rozkładem, to jej funkcja charakterystyczna może być zapisana jako
φ
X
(
t
)
=
∫
R
e
i
t
s
μ
X
(
d
s
)
=
E
e
i
t
X
,
{\displaystyle \varphi _{X}(t)=\int \limits _{\mathbb {R} }e^{its}\mu _{X}(\mathrm {d} s)=\mathbb {E} e^{itX},}
gdzie
E
{\displaystyle \mathbb {E} }
to wartość oczekiwana .
Funkcja charakterystyczna, podobnie jak dystrybuanta , koduje pełną informację o rozkładzie. Jest ona dobrze określona (istnieje dla każdego rozkładu). Dla rozkładów ciągłych jest to transformata Fouriera funkcji gęstości prawdopodobieństwa :
φ
X
(
t
)
=
∫
−
∞
∞
e
i
t
x
f
(
x
)
d
x
,
{\displaystyle \varphi _{X}(t)=\int \limits _{-\infty }^{\infty }e^{itx}f(x)dx,}
stąd można ją uznać za uogólnienie transformaty Fouriera na dowolne rozkłady.
Dla rozkładów dyskretnych o masie prawdopodobieństwa skupionej w punktach
x
1
,
x
2
,
…
,
x
n
:
{\displaystyle x_{1},x_{2},\dots ,x_{n}{:}}
φ
X
(
t
)
=
∑
j
=
1
n
pmf
(
x
j
)
e
i
t
x
j
.
{\displaystyle \varphi _{X}(t)=\sum \limits _{j=1}^{n}\operatorname {pmf} (x_{j})e^{itx_{j}}.}
φ
X
(
0
)
=
1
,
{\displaystyle \varphi _{X}(0)=1,}
|
φ
X
(
t
)
|
⩽
1
,
{\displaystyle |\varphi _{X}(t)|\leqslant 1,}
φ
X
(
t
)
=
φ
X
(
−
t
)
¯
,
{\displaystyle \varphi _{X}(t)={\overline {\varphi _{X}(-t)}},}
φ
X
{\displaystyle \varphi _{X}}
jest dodatnio określona ,
φ
X
(
t
)
{\displaystyle \varphi _{X}(t)}
jest jednostajnie ciągła ,
φ
X
{\displaystyle \varphi _{X}}
jest funkcją rzeczywistą wtedy i tylko wtedy, gdy rozkład jest symetryczny ,
lim
|
t
|
→
∞
φ
X
(
t
)
→
0
{\displaystyle \lim \limits _{|t|\to \infty }\varphi _{X}(t)\to 0}
dla rozkładów ciągłych (twierdzenie Riemanna-Lebesgue’a ).
Funkcja charakterystyczna funkcji liniowej
a
X
+
b
{\displaystyle aX+b}
zmiennej losowej
X
{\displaystyle X}
wyraża się za pomocą funkcji charakterystycznej zmiennej losowej
X
{\displaystyle X}
według następującego wzoru:
φ
a
X
+
b
(
t
)
=
φ
X
(
a
t
)
e
i
t
b
.
{\displaystyle \varphi _{aX+b}(t)=\varphi _{X}(at)e^{itb}.}
Niżej podano funkcje charakterystyczne
φ
X
(
t
)
{\displaystyle \varphi _{X}(t)}
znanych rozkładów
μ
X
.
{\displaystyle \mu _{X}.}
Zawsze
n
,
k
∈
N
,
{\displaystyle n,k\in \mathbb {N} ,}
a
,
b
,
m
,
p
,
t
,
x
,
λ
,
σ
∈
R
,
{\displaystyle a,b,m,p,t,x,\lambda ,\sigma \in \mathbb {R} ,}
przy czym
p
,
λ
>
0
{\displaystyle p,\lambda >0}
oraz
A
⊆
R
.
{\displaystyle A\subseteq \mathbb {R} .}
Symbol
1
A
(
x
)
{\displaystyle \mathbf {1} _{A}(x)}
oznacza indykator zbioru
A
.
{\displaystyle A.}
Nazwa
Oznaczenie
Rozkład
Funkcja charakterystyczna
jednopunktowy
δ
a
{\displaystyle \delta _{a}}
pmf
(
a
)
=
1
{\displaystyle \operatorname {pmf} (a)=1}
e
a
i
t
{\displaystyle e^{ait}}
dwupunktowy
pmf
(
a
)
=
p
=
1
−
pmf
(
b
)
{\displaystyle \operatorname {pmf} (a)=p=1-\operatorname {pmf} (b)}
p
e
a
i
t
+
(
1
−
p
)
e
b
i
t
{\displaystyle pe^{ait}+(1-p)e^{bit}}
Poissona
P
o
i
s
(
λ
)
{\displaystyle \mathrm {Pois} (\lambda )}
pmf
(
k
)
=
λ
k
k
!
e
−
λ
{\displaystyle \operatorname {pmf} (k)={\tfrac {\lambda ^{k}}{k!}}e^{-\lambda }}
e
λ
(
e
i
t
−
1
)
{\displaystyle e^{\lambda (e^{it}-1)}}
dwumianowy
B
i
n
o
m
(
n
,
p
)
{\displaystyle \mathrm {Binom} (n,p)}
pmf
(
k
)
=
(
n
k
)
p
k
(
1
−
p
)
n
−
k
{\displaystyle \operatorname {pmf} (k)={\tbinom {n}{k}}p^{k}(1-p)^{n-k}}
(
1
−
p
+
p
e
i
t
)
n
{\displaystyle (1-p+pe^{it})^{n}}
geometryczny
G
e
o
m
(
p
)
{\displaystyle \mathrm {Geom} (p)}
pmf
(
k
)
=
p
(
1
−
p
)
k
−
1
{\displaystyle \operatorname {pmf} (k)=p(1-p)^{k-1}}
p
e
i
t
1
−
(
1
−
p
)
e
i
t
{\displaystyle {\tfrac {pe^{it}}{1-(1-p)e^{it}}}}
jednostajny (na odcinku)
U
(
a
,
b
)
{\displaystyle \mathrm {U} (a,b)}
f
(
x
)
=
1
b
−
a
1
[
a
,
b
]
(
x
)
{\displaystyle f(x)={\tfrac {1}{b-a}}\mathbf {1} _{[a,b]}(x)}
e
i
t
b
−
e
i
t
a
i
t
(
b
−
a
)
{\displaystyle {\tfrac {e^{itb}-e^{ita}}{it(b-a)}}}
wykładniczy
E
x
p
(
λ
)
{\displaystyle \mathrm {Exp} (\lambda )}
f
(
x
)
=
λ
e
−
λ
x
{\displaystyle f(x)=\lambda e^{-\lambda x}}
λ
λ
−
i
t
{\displaystyle {\tfrac {\lambda }{\lambda -it}}}
normalny
N
(
m
,
σ
2
)
{\displaystyle \mathrm {N} (m,\sigma ^{2})}
f
X
(
x
)
=
1
σ
2
π
e
−
(
x
−
m
)
2
2
σ
2
{\displaystyle f_{X}(x)={\tfrac {1}{\sigma {\sqrt {2\pi }}}}e^{-{\tfrac {(x-m)^{2}}{2\sigma ^{2}}}}}
e
m
i
t
−
(
σ
t
)
2
2
{\displaystyle e^{mit-{\tfrac {(\sigma t)^{2}}{2}}}}
normalny standardowy
N
(
0
,
1
)
{\displaystyle \mathrm {N} (0,1)}
f
(
x
)
=
1
2
π
e
−
x
2
2
{\displaystyle f(x)={\tfrac {1}{\sqrt {2\pi }}}e^{-{\tfrac {x^{2}}{2}}}}
e
−
t
2
2
{\displaystyle e^{-{\tfrac {t^{2}}{2}}}}
Z funkcji charakterystycznej
φ
X
{\displaystyle \varphi _{X}}
da się wyznaczyć momenty zmiennej losowej
X
.
{\displaystyle X.}
Istnieje też częściowe odwrócenie tego twierdzenia dla momentów parzystych.
Twierdzenie
Jeżeli istnieje
n
{\displaystyle n}
-ty moment zmiennej losowej
X
,
{\displaystyle X,}
tzn.
E
|
X
|
n
<
∞
,
{\displaystyle \mathbb {E} |X|^{n}<\infty ,}
to istnieje również
n
{\displaystyle n}
-ta pochodna funkcji charakterystycznej
φ
X
,
{\displaystyle \varphi _{X},}
co więcej jest ona jednostajnie ciągła, oraz zachodzi
i
n
E
X
n
=
φ
X
(
n
)
(
0
)
.
{\displaystyle i^{n}\mathbb {E} X^{n}=\varphi _{X}^{(n)}(0).}
Dzięki temu wzór Taylora funkcji charakterystycznej wygląda następująco: jeżeli
E
|
X
|
n
<
∞
,
{\displaystyle \mathbb {E} |X|^{n}<\infty ,}
to
φ
X
(
t
)
=
∑
k
=
0
n
(
i
t
)
k
k
!
E
X
k
+
o
(
t
n
)
.
{\displaystyle \varphi _{X}(t)=\sum _{k=0}^{n}{\tfrac {(it)^{k}}{k!}}\mathbb {E} X^{k}+\mathrm {o} (t^{n}).}
Twierdzenie
Jeżeli istnieje
n
{\displaystyle n}
-ta pochodna funkcji charakterystycznej zmiennej losowej, gdzie
n
=
2
k
{\displaystyle n=2k}
oraz
k
∈
Z
,
{\displaystyle k\in \mathbb {Z} ,}
to istnieje
n
{\displaystyle n}
-ty moment tej zmiennej losowej.
Kryterium określającego kiedy funkcja
φ
:
R
→
C
{\displaystyle \varphi \colon \mathbb {R} \to \mathbb {C} }
jest funkcją charakterystyczną pewnego rozkładu prawdopodobieństwa dostarcza twierdzenie Bochnera . Innym jest kryterium Pólya .
Funkcja charakterystyczna determinuje rozkład, tzn. jeśli
μ
,
ν
{\displaystyle \mu ,\nu }
są rozkładami prawdopodobieństwa na
R
,
{\displaystyle \mathbb {R} ,}
to jeśli mają one równe funkcje charakterystyczne, czyli
φ
μ
(
t
)
=
φ
ν
(
t
)
∀
t
∈
R
,
{\displaystyle \varphi _{\mu }(t)=\varphi _{\nu }(t)\quad \forall _{t\in \mathbb {R} },}
to
μ
=
ν
.
{\displaystyle \mu =\nu .}
Ponieważ ciąg
(
X
n
)
n
∈
N
{\displaystyle (X_{n})_{n\in \mathbb {N} }}
jest zbieżny według rozkładu , jeżeli
E
f
(
X
n
)
→
E
f
(
X
)
,
{\displaystyle \mathbb {E} f(X_{n})\to \mathbb {E} f(X),}
dla dowolnej funkcji
f
{\displaystyle f}
ciągłej i ograniczonej ,
w szczególności dla
f
(
x
)
=
e
i
t
x
{\displaystyle f(x)=e^{itx}}
(ciągłej i ograniczonej co do modułu przez 1), to
E
e
i
t
X
n
→
E
e
i
t
X
⟺
φ
X
n
(
t
)
→
φ
X
(
t
)
∀
t
∈
R
,
{\displaystyle \mathbb {E} e^{itX_{n}}\to \mathbb {E} e^{itX}\iff \varphi _{X_{n}}(t)\to \varphi _{X}(t)\quad \forall _{t\in \mathbb {R} },}
a więc zbieżność według rozkładu zmiennych losowych pociąga zbieżność punktową ich funkcji charakterystycznych. Twierdzenie Lévy’ego-Craméra jest nietrywialnym odwróceniem tego wyniku.
Niezależne zmienne losowe
edytuj
Funkcje charakterystyczne są szczególnie użyteczne do badania zmiennych będących funkcjami niezależnych zmiennych losowych . Jeżeli
X
1
,
…
,
X
n
{\displaystyle X_{1},\dots ,X_{n}}
jest ciągiem niezależnych zmiennych losowych, a
S
n
=
a
1
X
1
+
⋯
+
a
n
X
n
,
{\displaystyle S_{n}=a_{1}X_{1}+\dots +a_{n}X_{n},}
gdzie
a
i
∈
C
,
{\displaystyle a_{i}\in \mathbb {C} ,}
to funkcja charakterystyczna
S
n
{\displaystyle S_{n}}
dana jest wzorem
φ
S
n
(
t
)
=
φ
X
1
(
a
1
t
)
…
φ
X
n
(
a
n
t
)
.
{\displaystyle \varphi _{S_{n}}(t)=\varphi _{X_{1}}(a_{1}t)\dots \varphi _{X_{n}}(a_{n}t).}
W szczególności
φ
X
+
Y
(
t
)
=
φ
X
(
t
)
φ
Y
(
t
)
,
{\displaystyle \varphi _{X+Y}(t)=\varphi _{X}(t)\varphi _{Y}(t),}
co wynika wprost z definicji funkcji charakterystycznych (pierwsza i czwarta równość), własności funkcji wykładniczej (druga równość) i niezależności zmiennych losowych (trzecia równość):
φ
X
+
Y
(
t
)
=
E
e
i
t
(
X
+
Y
)
=
E
(
e
i
t
X
e
i
t
Y
)
=
E
e
i
t
X
E
e
i
t
Y
=
φ
X
(
t
)
φ
Y
(
t
)
.
{\displaystyle \varphi _{X+Y}(t)=\mathbb {E} e^{it(X+Y)}=\mathbb {E} \left(e^{itX}e^{itY}\right)=\mathbb {E} e^{itX}\mathbb {E} e^{itY}=\varphi _{X}(t)\varphi _{Y}(t).}
Rozkłady wielowymiarowe
edytuj
Jeżeli
t
=
(
t
1
,
t
2
,
…
,
t
n
)
⊤
∈
R
n
,
{\displaystyle \mathbf {t} =(t_{1},t_{2},\dots ,t_{n})^{\top }\in \mathbb {R} ^{n},}
zaś
X
=
(
X
1
,
X
2
,
…
,
X
n
)
⊤
∈
R
n
{\displaystyle \mathbf {X} =(X_{1},X_{2},\dots ,X_{n})^{\top }\in \mathbb {R} ^{n}}
jest wektorem losowym , a przez
t
X
{\displaystyle \mathbf {tX} }
rozumie się ich iloczyn skalarny , to funkcję charakterystyczną wektora
X
{\displaystyle \mathbf {X} }
definiuje się analogicznie wzorem
φ
X
(
t
)
=
E
e
i
t
X
.
{\displaystyle \varphi _{\mathbf {X} }(\mathbf {t} )=\mathbb {E} e^{i\mathbf {tX} }.}
lub w zapisie macierzowym
φ
X
(
t
)
=
E
e
i
t
⊤
X
,
{\displaystyle \varphi _{\mathbf {X} }(\mathbf {t} )=\mathbb {E} e^{i\mathbf {t} ^{\top }\mathbf {X} },}
gdzie
⊤
{\displaystyle {}^{\top }}
oznacza transpozycję (oba wektory są kolumnowe ).
Funkcja charakterystyczna przekształcenia afinicznego
A
X
+
b
{\displaystyle \mathbf {AX} +\mathbf {b} }
wyraża się przez
φ
X
{\displaystyle \varphi _{\mathbf {X} }}
wzorem postaci:
φ
A
X
+
b
(
t
)
=
φ
X
(
A
⊤
t
)
e
i
t
⊤
b
,
{\displaystyle \varphi _{\mathbf {AX} +\mathbf {b} }(\mathbf {t} )=\varphi _{X}(\mathbf {A^{\top }t} )e^{i\mathbf {t^{\top }b} },}
gdzie
A
{\displaystyle \mathbf {A} }
jest przekształceniem liniowym (macierzą ), zaś
b
∈
R
n
.
{\displaystyle \mathbf {b} \in \mathbb {R} ^{n}.}
Zmienne losowe
X
1
,
…
,
X
n
{\displaystyle X_{1},\dots ,X_{n}}
są niezależne wtedy i tylko wtedy, gdy
φ
X
(
t
)
=
φ
X
1
(
t
1
)
…
φ
X
n
(
t
n
)
.
{\displaystyle \varphi _{\mathbf {X} }(\mathbf {t} )=\varphi _{X_{1}}(t_{1})\dots \varphi _{X_{n}}(t_{n}).}
Zgodnie z twierdzeniem Craméra-Wolda ciąg wektorów losowych
X
1
,
X
2
,
…
{\displaystyle \mathbf {X} _{1},\mathbf {X} _{2},\dots }
zbiega według rozkładu do wektora
X
{\displaystyle \mathbf {X} }
wtedy i tylko wtedy, gdy
t
X
n
{\displaystyle \mathbf {tX} _{n}}
zbiega według rozkładu do
t
X
{\displaystyle \mathbf {tX} }
dla każdego
t
∈
R
n
.
{\displaystyle \mathbf {t} \in \mathbb {R} ^{n}.}