Grenzwertsätze < Wahrscheinlichkeitstheorie < Stochastik < Hochschule < Mathe < Vorhilfe
|
Aufgabe | Seien [mm] \{X_n\}, \{Y_n\}, [/mm] X und Y reelle Zufallsvariablen auf [mm] (\Omega, [/mm] F, [mm] \IP) [/mm] und [mm] a\in\IR. [/mm] Weiter seien [mm] h:\IR [/mm] x [mm] \IR \to \IR [/mm] und [mm] \phi: \IR \to \IR [/mm] stetige Funktionen. Zeigen Sie:
a) Wenn [mm] X_n\to^{\IP}X [/mm] und [mm] Y_n\to^{\IP}Y, [/mm] dann folgt [mm] h(X_n,Y_n)\to^{\IP}h(X,Y).
[/mm]
b) Wenn [mm] X_n\to^{d}X [/mm] dann folgt [mm] \phi(X_n)\to^{d}\phi(X).
[/mm]
c) Wenn [mm] X_n\to^{P}a [/mm] und [mm] Y_n\to^{d}Y, [/mm] dann folgt [mm] X_n [/mm] + [mm] Y_n \to^{d}a+Y. [/mm] |
Hallo Matheraum,
ich befürchte, dass ich die Aufgaben falsch angehe, aber dennoch stelle ich hier mal meine Lösungsvorschläge vor:
a) [mm] X_n\to^{\IP}X [/mm] := [mm] lim_{n\to\infty}\IP[|X_n-X|\ge\varepsilon]=0
[/mm]
Damit ist doch nur z.Zg.: [mm] lim_{n\to\infty}\IP[|h(X_n,Y_n)-h(X,Y)|\ge \varepsilon]=0
[/mm]
Nach Analysis 2 gilt doch:
[mm] \IP[|lim_{n\to\infty}h(X_n,Y_n)-h(X,Y)|\ge \varespilon] [/mm] = [mm] \IP[|h(lim_{n\to\infty}X_n,lim_{n\to\infty}Y_n)-h(X,Y)|\ge \varespilon]=\IP[0\ge \varepsilon]=0
[/mm]
stimmt das so, oder muss ich die Aufgabe anders angehen?
b) Hier habe ich ähnliches vorgehabt.
Es gilt: [mm] X_n\to^{d}X [/mm] := [mm] lim_{n\to\infty}\IP[X_n\le x]=\IP[X\le [/mm] x]
Dann ist doch z.Zg.: [mm] lim_{n\to\infty}\IP[\phi(X_n)\le x]=\IP[\phi(X)\le [/mm] x]
Man kann den Limes hier dann doch auch wieder reinziehen, oder? Mir fällt es schwer das mit der Definition zu zeigen ...
c) Bei diesem Aufgabenteil ist bei mir großes Rätselraten, wie ich die beiden Definitionen unter einen Hut bringen soll ...
theoretisch ist z.Zg.: [mm] \lim_{n\to\infty}\IP[X_n+Y_n\le x]=\IP[a+Y\le [/mm] x]
Hab mir da irgendwie gedacht, dass ich die Aufgabe dahingehend reduziere, dass ich nur zeige, dass aus [mm] X_n\to^{\IP}a [/mm] folgt [mm] X_n\to^{d}a, [/mm] was ich nicht schaffe ...
Für eure Hilfe bin ich sehr dankbar!
Viele Grüße,
Alex
|
|
|
|
Hallo Alex,
> Seien [mm]\{X_n\}, \{Y_n\},[/mm] X und Y reelle Zufallsvariablen auf
> [mm](\Omega,[/mm] F, [mm]\IP)[/mm] und [mm]a\in\IR.[/mm] Weiter seien [mm]h:\IR[/mm] x [mm]\IR \to \IR[/mm]
> und [mm]\phi: \IR \to \IR[/mm] stetige Funktionen. Zeigen Sie:
>
> a) Wenn [mm]X_n\to^{\IP}X[/mm] und [mm]Y_n\to^{\IP}Y,[/mm] dann folgt [mm]h(X_n,Y_n)\to^{\IP}h(X,Y).[/mm]
>
> a) [mm]X_n\to^{\IP}X[/mm] :=
> [mm]lim_{n\to\infty}\IP[|X_n-X|\ge\varepsilon]=0[/mm]
>
> Damit ist doch nur z.Zg.:
> [mm]lim_{n\to\infty}\IP[|h(X_n,Y_n)-h(X,Y)|\ge \varepsilon]=0[/mm]
>
> Nach Analysis 2 gilt doch:
>
> [mm]\IP[|lim_{n\to\infty}h(X_n,Y_n)-h(X,Y)|\ge \varepsilon][/mm] =
> [mm]\IP[|h(lim_{n\to\infty}X_n,lim_{n\to\infty}Y_n)-h(X,Y)|\ge \varepsilon]=\IP[0\ge \varepsilon]=0[/mm]
Du kannst nicht einfach den Limes in das Maß P hineinziehen.
Stochastische Konvergenz ist viel schwächer als die Konvergenz, die du aus Analysis 2 kennst.
Ich würde folgende Charakterisierung von stochastischer Konvergenz nutzen.
Es gilt [mm] X_n\stackrel{\IP}{\to}X [/mm] genau dann, wenn zu jeder Teilfolge [mm] (X_{n_k}) [/mm] von [mm] (X_n) [/mm] eine Teilfolge [mm] (X_{n_{k_l}}) [/mm] existiert mit
[mm] X_{n_{k_l}}\stackrel{f.s.}{\to}X.
[/mm]
LG
|
|
|
|
|
Hallo Kamaleonti,
vielen Dank schonmal für deine Hilfe. Deinen Einwand:
> Du kannst nicht einfach den Limes in das Maß P
> hineinziehen.
> Stochastische Konvergenz ist viel schwächer als die
> Konvergenz, die du aus Analysis 2 kennst.
kann ich nachvollziehen, allerdings kriege ich die Folgerung mit deinem Satz
> Es gilt [mm]X_n\stackrel{\IP}{\to}X[/mm] genau dann, wenn zu jeder
> Teilfolge [mm](X_{n_k})[/mm] von [mm](X_n)[/mm] eine Teilfolge [mm](X_{n_{k_l}})[/mm]
> existiert mit
>
> [mm]X_{n_{k_l}}\stackrel{f.s.}{\to}X.[/mm]
nicht wirklich hin. Ich weiß nicht genau, wie ich diesen in die Behauptung
[mm] \limes_{n\rightarrow\infty}\IP[|h(X_n,Y_n)-h(X,Y)|\ge\varepsilon]=0
[/mm]
einbinden soll. Es ist mir relativ klar, dass ich aus der fast sicheren Konvergenz der Teilfolgen schließen kann, dass gilt:
[mm] \limes_{n\rightarrow\infty}\IP[|h(X_{n_k_l},Y_{n_k_l})-h(X,Y)|\ge\varepsilon]=0
[/mm]
Da dies quasi aus der Definition der fast sicheren Konvergenz folgt. Mein Problem besteht dann aber darin, wie ich den Schluss von den einzelnen Teilfolgen zur Gesamtfolge ziehe ...
Lieben Gruß,
Alex
|
|
|
|
|
Hallo Quadratur,
hier ist ein Beweisplan, es ist aber noch ein bisschen zu tun.
Mit der stochastischen Konvergenz [mm] X_n\stackrel{\IP}{\to}X, Y_n\stackrel{\IP}{\to}Y [/mm] kannst Du dir überlegen
[mm] Z_n:=(X_n,Y_n)\stackrel{\IP}{\to}(X,Y)=:Z.
[/mm]
Deswegen trifft die Charakterisierung von stochastischer Konvergenz (verallgemeinert auf vektorwertige Zufallsvariablen) für die Folge [mm] Z_n [/mm] zu.
Sei nun [mm] (h(Z_{n_k})) [/mm] eine Teilfolge von [mm] h(Z_n).
[/mm]
Wegen [mm] Z_n\stackrel{\IP}{\to}Z [/mm] gibt es eine Teilfolge [mm] (Z_{n_{k_l}}) [/mm] mit [mm] Z_{n_{k_l}}\stackrel{f.s}{\to}Z.
[/mm]
Mit der Stetigkeit von h folgt
[mm] h(Z_{n_{k_l}})\stackrel{f.s}{\to}h(Z).
[/mm]
Aus der Beliebigkeit von [mm] (Z_{n_k}) [/mm] folgt wieder mittels der Charakterisierung der stochastischen Konvergenz
[mm] h(Z_{n})\stackrel{\IP}{\to}h(Z).
[/mm]
LG
|
|
|
|
|
Status: |
(Mitteilung) Reaktion unnötig | Datum: | 19:20 Fr 23.12.2011 | Autor: | matux |
$MATUXTEXT(ueberfaellige_frage)
|
|
|
|