Skript zur Vorlesung ,,Stochastische Analysis” Version vom 04.05.2004 J. Creutzig
i
Inhaltsverzeichnis I
Stochastisc...
22 downloads
624 Views
437KB Size
Report
This content was uploaded by our users and we assume good faith they have the permission to share this book. If you own the copyright to this book and it is wrongfully on our website, we offer a simple DMCA procedure to remove your content from our site. Start by pressing the button below!
Report copyright / DMCA form
Skript zur Vorlesung ,,Stochastische Analysis” Version vom 04.05.2004 J. Creutzig
i
Inhaltsverzeichnis I
Stochastische Prozesse
1
1
Grundlegende Definitionen . . . . . . . . . . . . . . . . . . . . . . . . .
1
1.1
Stochastische Prozesse und Filtrationen . . . . . . . . . . . . . .
1
1.2
Stopzeiten . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
4
1.3
Bedingte Erwartungen . . . . . . . . . . . . . . . . . . . . . . .
7
2
Der Poisson-Prozeß . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 12
3
Martingale . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 15
4
3.1
Martingale in diskreter Zeit . . . . . . . . . . . . . . . . . . . . 15
3.2
Martingale in stetiger Zeit . . . . . . . . . . . . . . . . . . . . . 19
Der Kolmogorovsche Konsistenzsatz . . . . . . . . . . . . . . . . . . . . 29
II Brownsche Bewegung
34
1
Eine Konstruktion der Brownschen Bewegung . . . . . . . . . . . . . . 36
2
Das Wiener Maß und das Donskersche Invarianzprinzip . . . . . . . . . 38
3
4
2.1
Das Wiener-Maß . . . . . . . . . . . . . . . . . . . . . . . . . . 38
2.2
Schwache Konvergenz . . . . . . . . . . . . . . . . . . . . . . . . 39
2.3
Das Donskersche Invarianzprinzip . . . . . . . . . . . . . . . . . 41
Markov-Eigenschaft der Brownschen Bewegung 3.1
Mehrdimensionale Brownsche Bewegung . . . . . . . . . . . . . 43
3.2
Markov-Prozesse . . . . . . . . . . . . . . . . . . . . . . . . . . 44
3.3
Starke Markov-Eigenschaft und Spiegelungsprinzip . . . . . . . 45
3.4
Brownsche Filtrationen . . . . . . . . . . . . . . . . . . . . . . . 47
Pfadeigenschaften der Brownschen Bewegung . . . . . . . . . . . . . . . 48
III Stochastische Integration 1
. . . . . . . . . . . . . 42
50
Konstruktion des stochastischen Integrals . . . . . . . . . . . . . . . . . 50 1.1
Integral f¨ ur einfache Prozesse . . . . . . . . . . . . . . . . . . . 50
1.2
Fortsetzung des Integrals . . . . . . . . . . . . . . . . . . . . . . 52
2
Die Ito-Formel . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 61
3
Die geometrische Brownsche Bewegung . . . . . . . . . . . . . . . . . . 64 ii
Kapitel I Stochastische Prozesse Literatur: Karatzas, Shreve (1999, Chap. 1).
1
Grundlegende Definitionen
1.1
Stochastische Prozesse und Filtrationen
Wir wollen eine klassische Art von stochastischen Prozessen untersuchen, n¨amlich solche, die als zeitliche Evolutionen eines zuf¨alligen Systemes angesehen werden k¨onnen. Hierzu wird der Begriff der Filtration und eines adaptierten Prozesses eingef¨ uhrt.
Definition 1. Gegeben: Wahrscheinlichkeitsraum (Ω, A, P ), Meßraum (S, S) sowie Menge I. (i) Stochastischer Prozeß mit Zustandsraum (S, S) und Parametermenge I: Familie X = (Xt )t∈I von A-S-meßbaren Abbildungen1 Xt : Ω → S. (ii) Trajektorie (Pfad, Realisierung) von X: Abbildung I → S, t 7→ Xt (ω) mit festem ω ∈ Ω. Beispiel 1. (i) I = N: Grenzwerts¨atze der Stochastik. (ii) I = {1, . . . , n}2 : Bildverarbeitung, siehe Winkler (1995). (iii) I = Zd : statistische Physik, siehe Georgii (1988). (iv) I = Rd : Geostatistik, siehe Cressie (1993). 1
Alternative Schreibweisen: X(t), X(t, ·).
1
Fortan,2 falls nicht anders erw¨ahnt, nehmen wir an, daß I ⊂ R,
S = Rd ,
S = B(Rd ) Borelsche σ-Algebra.
Wichtigster Fall ist hierbei I = [0, t0 ] bzw. I = [0, ∞[ . Ab jetzt seien stets gegeben: Prozesse X = (Xt )t∈I und Y = (Yt )t∈I auf (Ω, A, P ). Definition 2. (i) X und Y ununterscheidbar, falls P -f.s.3 ∀t∈I:
Xt = Yt .
(ii) Y Modifikation (Version) von X, falls ∀t∈I:
P ({Xt = Yt }) = 1.
(iii) X und Y besitzen dieselben endlich-dimensionalen Randverteilungen, falls4 ∀ B ∈ B(Rnd ) :
∀ n ∈ N ∀ t1 , . . . , tn ∈ I
P ({(Xt1 , . . . , Xtn ) ∈ B}) = P ({(Yt1 , . . . , Ytn ) ∈ B}). Bemerkung 1. Offenbar gilt (i) ⇒ (ii) ⇒ (iii). Umkehrungen sind i.A. falsch. Jedoch gilt: (i) ⇔ (ii), falls X und Y P -f.s. rechtsseitig (linksseitig) stetige Pfade besitzen. ˙ Eigenschaft (iii) ist auch sinnvoll, falls X und Y auf verschiedenen Siehe ¨ UbungDie Wahrscheinlichkeitsr¨aumen definiert sind. Definition 3. (i) Filtration: Familie F = (Ft )t∈I von σ-Algebren Ft ⊂ A mit ∀ s, t ∈ I :
s < t ⇒ Fs ⊂ Ft .
(ii) X adaptiert zu Filtration F, falls Xt Ft -S-meßbar f¨ ur alle t ∈ I. (iii) Kanonische Filtration zu X: FX t = σ ({Xs : s ≤ t}) ,
t ∈ I.
Bemerkung 2. Offenbar ist FX die kleinste Filtration, zu der X adaptiert ist. Proposition 1. Gegeben: Menge Ω1 und Meßraum (Ω2 , A2 ). F¨ ur Abbildungen U : Ω1 → Ω2 , V : Ω1 → R sind a¨quivalent 2
Notation: Inklusion ⊂ nicht notwendig strikt. Eigenschaft a gilt P -f.s.: ∃ A ∈ A : P (A) = 1 ∧ A ⊂ {ω ∈ Ω : ω erf¨ ullt a}. 4 Analog f¨ ur Prozesse auf verschiedenen Wahrscheinlichkeitsr¨aumen. 3
2
(i) V ist σ({U })-B(R)-meßbar. (ii) Es existiert eine Abbildung g : Ω2 → R, die A2 –B(R)-meßbar ist mit V = g ◦ U . Beweis. (ii) ⇒ (i): klar. (i) ⇒ (ii): ,,Maßtheoretischer Dreisatz”: Die Behauptung ist offenbar richtig f¨ ur einfache Funktionen V (Summen von gewichteten Indikatorfunktionen); mittels monotoner Limiten erhaelt man dann die Behauptung f¨ ur positive Funktionen V , und durch Zerlegung in Positiv– und Negativteil folgt die Behauptung f¨ ur allgemeines V . Bemerkung 3. Setze5 Ω2 = S [0,t] , A2 = S[0,t] , definiere U : Ω → Ω2 durch (U (ω))(s) = Xs (ω). ¨ Dann σ({U }) = FX ur jede σ-Algebra A0 in Ω gilt (siehe Ubung): t , denn f¨ U A0 -A2 -meßbar
∀ s ∈ [0, t] : Xs A0 -S-meßbar
⇔
⇔
0 FX t ⊂ A.
Somit f¨ ur A ⊂ Ω A ∈ FX t
⇔
∃ B ∈ A2 : A = U −1 (B).
F¨ ur V : Ω → R zeigt Proposition 1, daß V genau dann FX t -B(R)-meßbar ist, wenn ∀ ω ∈ Ω : V (ω) = g X· (ω)|[0,t] mit einer A2 -B(R)-meßbaren Abbildung g : S [0,t] → R. Im folgenden sei I = [0, ∞[. Gegeben: Filtration F = (Ft )t∈I in A. Definition 4. F rechtsseitig stetig, falls ∀t∈I:
Ft =
\
Ft+ε .
ε>0
Bemerkung 4. Offenbar ist f¨ ur jede Filtration F durch \ F∗t := Ft+ε ε>0
eine rechtsstetige Filtration F∗ definiert, die F verfeinert. Definition 5. (i) X meßbar, falls I × Ω → S,
(t, ω) 7→ Xt (ω)
(B(I) ⊗ A)-S-meßbar ist. (ii) X progressiv meßbar (bzgl. F), falls f¨ ur jedes t ≥ 0 die Abbildung [0, t] × Ω → S, (B([0, t]) ⊗ Ft )-S-meßbar ist. 5
Notation S[0,t] =
N
s∈[0,t]
S.
3
(s, ω) 7→ Xs (ω)
Bemerkung 5. Ist X progressiv meßbar, so ist nach dem Satz von Fubini auch f¨ ur jedes feste t die Abbildung Xt (·) : Ω → S auch Ft –S–meßbar; folglich ist X adaptiert. Ferner ist f¨ ur jedes A ∈ S [ {(s, ω) ∈ [0, t] × Ω : Xs (ω) ∈ A} ∈ B([0, t])⊗A , {(t, ω) ∈ I ×Ω : Xt (ω) ∈ A} = | {z } t∈N
und also ist X auch meßbar.
∈B([0,t])⊗Ft
6
Definition 6. Ein stochastischer Prozeß X = (Xt )t≥0 heißt stetig/rechtsseitig stetig/linksseitig stetig, falls f¨ ur jedes ω ∈ Ω der Pfad (Xt (ω))t≥0 stetig/rechtsseitig stetig/linksseitig stetig ist. X heißt cadlag 7 –Prozeß, falls alle Pfade von X jeder Stelle stetig von rechts sind, und einen linksseitigen Grenzwert an jeder Stelle haben. Proposition 2. ⇒
X adaptiert und rechtsseitig (linksseitig) stetig
X progressiv meßbar. (n)
Beweis. Im Falle rechtsseitiger Stetigkeit. Fixiere t > 0, setze I0 ](k − 1)/2n · t, k/2n · t] f¨ ur n ∈ N und k = 1, . . . , 2n . Definiere Xs(n) (ω) = Xk/2n ·t (ω),
(n)
= {0} und Ik
=
(n)
falls s ∈ Ik .
Dann folgt f¨ ur alle ω ∈ Ω und s ∈ [0, t] lim Xs(n) (ω) = Xs (ω).
n→∞
Ferner gilt f¨ ur B ∈ S n
{(s, ω) ∈ [0, t] × Ω :
Xs(n) (ω)
∈ B} =
=
2 [
(n)
{(s, ω) ∈ Ik × Ω : Xk/2n ·t (ω) ∈ B}
k=0 2n [
(n) Ik × {Xk/2n ·t ∈ B} ∈ B([0, t]) ⊗ Ft .
k=0
1.2
Stopzeiten
Oft wird bei Beobachtung eines zuf¨alligen Prozesses auf das Eintreten eines vom Prozeßverlauf abh¨angigen Ereignisses gewartet. Zur Modellierung solcher Ereignisse werden Stopzeiten erkl¨art und untersucht.
Gegeben: Prozeß X = (Xt )t∈I auf Wahrscheinlichkeitsraum (Ω, A, P ) mit Filtration F = (Ft )t∈I . Betrachte Abbildungen T : Ω → I ∪ {∞}. 6
Es gilt eine schwache Umkehrung: meßbar und adaptiert ⇒ Existenz einer progressiv meßbaren Modifikation, siehe Karatzas, Shreve (1999, p. 5). 7 Continu ` a droite, limites ` a gauche.
4
Definition 7. (i) T Stopzeit (bzgl. F), falls ∀t∈I:
{T ≤ t} ∈ Ft .
(ii) T optionale Zeit (bzgl. F), falls ∀t∈I:
{T < t} ∈ Ft .
Im folgenden sei I = [0, ∞[. Bemerkung 6. Betrachte die kanonische Filtration FX . Genau dann ist T Stopzeit bzgl. FX , wenn f¨ ur jedes t ∈ I eine Menge B ∈ S[0,t] mit {T ≤ t} = {ω ∈ Ω : X· (ω)|[0,t] ∈ B} existiert, siehe Bemerkung 3. Proposition 3. ⇒
T Stopzeit
T optionale Zeit.
Es gilt ⇔“ im Falle einer rechtsseitig stetigen Filtration. ” Beweis. ⇒“: ” {T < t} =
∞ [ n=1
{T ≤ t − 1/n} ∈ Ft . | {z } ∈Ft−1/n
⇐“: F¨ ur jedes m ∈ N ” {T ≤ t} =
∞ \ n=m
{T < t + 1/n} ∈ Ft+1/m . | {z } ∈Ft+1/n
Mit der Stetigkeitsannahme folgt {T ≤ t} ∈ Ft . Proposition 4. Mit S, T , T1 , . . . sind auch S + T und supn∈N Tn Stopzeiten bzgl. F. Im Falle einer rechtsseitig stetigen Filtration gilt dies auch f¨ ur inf n∈N Tn . Beweis. F¨ ur die Summe. Es gilt {S + T > t} = {S = 0, T > t} ∪{0 < S < t, S + T > t} ∪ {S = t, T > 0} ∪ {S > t} {z } | {z } | {z } | ∈Ft
∈Ft
sowie {0 < S < t, S + T > t} =
[ r∈Q∩]0,t[
5
{r < S < t, T > t − r} ∈ Ft . | {z } ∈Ft
∈Ft
Definition 8. Eintrittszeit in Γ ∈ B(Rd ):8 HΓ (ω) = inf{t ∈ I : Xt (ω) ∈ Γ}. HΓ heißt Deb´ ut– oder Eintrittszeit von X in Γ. Proposition 5. Sei X zu F adaptiert. Dann (i) X rechtsseitig stetig ∧ Γ offen (ii) X stetig ∧ Γ abgeschlossen
⇒ ⇒
HΓ optionale Zeit. HΓ Stopzeit.
Beweis. ad (i): Es gilt {HΓ < t} =
[
[
{Xs ∈ Γ} =
s∈[0,t[
s∈Q∩[0,t[
{Xs ∈ Γ} ∈ Ft . | {z } ∈Fs
ad (ii): Wir f¨ uhren den ε–Saum einer Menge ein: F¨ ur ε > 0 sei Γε := x ∈ Rd : inf |x − y| < ε , y∈Γ
T hierbei sei | · | der euklidische Abstand. Offenbar ist Γε offen, und Γ = n∈N Γ1/n (Γ ist abgeschlossen). Ferner gilt wegen der Stetigkeit von X f¨ ur alle t > 0 und alle ω ∈ Ω: Es existiert ein s ≤ t, sodaß Xs (ω) ∈ Γ ⇔ F¨ ur alle n ∈ N existiert eine Zahl s < t, sodaß Xs (ω) ∈ H1/n . Also ist {HΓ ≤ t} =
\
{HΓ1/n < t} ∈ Ft . | {z } n∈N ∈Ft nach (i)
Bemerkung 7. Der vorige Satz kann viel allgemeiner formuliert und bewiesen werden: Ist die Filtration F rechtsstetig und vollst¨andig (d.h. jede Teilmenge A einer Nullmenge B ∈ Ft geh¨ort auch zu Ft ), und ist X progressiv meßbar, so ist f¨ ur jedes Γ ∈ S die Gr¨oße HΓ eine Stopzeit, vergleiche hierzu [D-M 78], Kapitel IV, Theorem ¨ 50. Umgekehrt kann jede Stopzeit als Deb´ utzeit geschrieben werden, siehe Ubung. Gegeben: Stopzeit T . Definition 9. σ-Algebra der T -Vergangenheit: FT = {A ∈ A : ∀ t ∈ I : A ∩ {T ≤ t} ∈ Ft }. Bemerkung 8. Man rechnet leicht nach, daß FT eine σ-Algebra und T FT -B(I ∪ {∞})-meßbar ist. 8
Wie u ¨blich: inf ∅ = ∞.
6
Betrachte den Prozeß X zur Stopzeit T , XT : {T < ∞} → S,
XT (ω) := XT (ω) (ω),
und den gestoppten Prozeß9 (XT ∧t )t∈I . Proposition 6. Sei X progressiv meßbar. Dann (i) XT ist FT -S-meßbar. (ii) (XT ∧t )t∈I ist progressiv meßbar. Beweis. ad (ii): Fixiere t > 0, setze B = B([0, t]). Die Abbildung [0, t] × Ω → [0, t] × Ω,
(s, ω) 7→ (T (ω) ∧ s, ω)
ist B ⊗ Ft -B ⊗ Ft -meßbar10 . Die Abbildung [0, t] × Ω → S,
(z, ω) 7→ Xz (ω)
ist n.V. B ⊗ Ft -S-meßbar. Betrachte die Komposition. ad (i): Es gilt {XT ∈ B} ∩ {T ≤ t} = {XT ∧t ∈ B} ∩ {T ≤ t} ∈ Ft | {z } | {z } ∈Ft wg. (ii)
∈Ft
f¨ ur B ∈ S.
1.3
Bedingte Erwartungen
Dies ist eine kurze Wiederholung von Stoff aus der Wahrscheinlichkeitstheorie. F¨ ur Beweise verweisen wir auf die angegebene Literatur:
G¨anssler, Stute (1977, Kap. V), Yeh (1995, App. B, C). Gegeben: Zufallsvariable X auf Wahrscheinlichkeitsraum (Ω, A, P ) mit E(|X|) < ∞ sowie σ-Algebra B ⊂ A. Stets Borelsche σ-Algebra auf R. Definition 10. Jede Zufallsvariable Z auf (Ω, A, P ) mit (i) Z ist B-meßbar, R R (ii) ∀ B ∈ B : B Z dP = B X dP heißt (Version der) bedingte(n) Erwartung von X gegeben B. Bez.: Z = E(X | B). Im Falle X = 1A mit A ∈ A heißt Z (Version der) bedingte(n) Wahrscheinlichkeit von A gegeben A. Bez.: Z = P (A | B). 9 10
Notation ∧ f¨ ur min. {T ∧ s ≤ u} = [0, t] × {T ≤ u} ∪ [0, u] × Ω.
7
Proposition 7. Die bedingte Erwartung existiert und ist P -f.s. eindeutig bestimmt11 . Beweis. Spezialfall: X ≥ 0. Durch Z Q(B) =
X dP,
B ∈ B,
B
wird ein endliches Maß auf (Ω, B) definiert. Es gilt Q P |B . Nach dem Satz von Radon-Nikodym existiert eine B-meßbare Abbildung Z : Ω → [0, ∞[ mit Z ∀ B ∈ B : Q(B) = Z dP. B
Der allgemeine Fall wird durch Zerlegung in Positiv- und Negativteil erledigt. R R Zur Eindeutigkeit: Aus B Z1 dP |B = B Z2 dP |B f¨ ur alle B ∈ B folgt Z1 = Z2 P |B f.s. Beispiel 2. Betrachte meßbare Partititon B1 , . . . , Bn von Ω mit P (Bj ) > 0 f¨ ur j = 1, . . . , n. Die erzeugte σ-Algebra B = σ({B1 , . . . , Bn }) ist ( ) [ B= Bj : J ⊂ {1, . . . , n} . j∈J
Es gilt n X
E(X | B)(ω) =
E(X | Bi ) · 1Bi (ω),
ω ∈ Ω,
i=1
wobei E(X | B) =
E(1B · X) P (B)
die elementare bedingte Erwartung von X gegeben B bezeichnet. Extremf¨alle: n = 1, also Ω = B1 und B = {∅, Ω} sowie E(X | B) = E(X). |Ω| = n,
also |Bi | = 1 und A = B = P(Ω) sowie E(X | B) = X.
Die explizite“ Bestimmung von bedingten Erwartungen ist i.a. nicht-trivial. ” Bemerkung 9. Klar: Z E(X | B) dP = E(E(X | B)).
E(X) = Ω
Ferner: E(X | B) = X, falls X B-meßbar. Proposition 8. Die bedingte Erwartung ist positiv und linear. Beweis. Folgt aus den entsprechenden Eigenschaften des Integrals und den Abschlußeigenschaften von Mengen meßbarer Abbildungen. 11
Im folgenden oft kurz X = Y oder X ≥ Y , falls diese Eigenschaften f.s. gelten. Ebenso identifizieren wir Abbildungen, die f.s. u ¨bereinstimmen.
8
Proposition 9. Sei Y B-meßbar mit E(|X · Y |) < ∞. Dann E(X · Y | B) = Y · E(X | B). Beweis. Klar: Y · E(X | B) ist B-meßbar. Spezialfall: Y = 1C mit C ∈ B. Dann gilt f¨ ur B ∈ B: Z Z Z Y · E(X | B) dP = E(X | B) dP = B
B∩C
Z X · Y dP.
X dP =
B∩C
B
Jetzt algebraische Induktion. Proposition 10. F¨ ur σ-Algebren B1 ⊂ B2 ⊂ A gilt E(E(X | B1 ) | B2 ) = E(X | B1 ) = E(E(X | B2 ) | B1 ). Beweis. Die erste Identit¨at folgt mit Bemerkung 9. Zur zweiten Identit¨at beachte man f¨ ur B ∈ B1 ⊂ B2 Z Z Z E(E(X | B2 ) | B1 ) dP = E(X | B2 ) dP = X dP. B
B
B
Proposition 11. Seien X und B unabh¨angig. Dann E(X | B) = E(X). Beweis. Klar: E(X) B-meßbar. Sei B ∈ B. Nach Voraussetzung sind X und 1B unabh¨angig. Also Z Z E(X) dP = E(X) · E(1B ) = E(X · 1B ) = X dP. B
B
Proposition 12 (Jensensche Ungleichung). Sei J ⊂ R ein Intervall, und gelte X(ω) ∈ J f¨ ur alle ω ∈ Ω. Sei φ : J → R konvex mit E(|φ ◦ X|) < ∞. Dann: φ(E(X | B)) ≤ E(φ ◦ X | B). Beweis. G¨anssler, Stute (1977, Kap. V.4). Bemerkung 10. Spezialfall: J = R und φ(u) = |u|p mit p ≥ 1. Dann: E(|X| | B) ≤ (E(|X|p | B))1/p . Hiermit (E(|X|q | B))1/q ≤ (E(|X|p | B))1/p f¨ ur 1 ≤ q ≤ p sowie Z
p
1/p
|E(X | B)| dP
Z ≤
Ω
p
|X| dP
1/p .
Ω
Also ist E(· | B) ein idempotenter beschr¨ankter linearer Operator auf Lp (Ω, A, P ). Speziell f¨ ur p = 2: orthogonale Projektion auf den Unterraum L2 (Ω, B, P ). 9
Oft liegt folgende Situation vor. Gegeben: Meßraum (Ω0 , A0 ) und A-A0 -meßbare Abbildung Y : Ω → Ω0 . Betrachte die von Y erzeugte σ-Algebra B = σ({Y }). Definition 11. Bedingte Erwartung von X gegeben Y : E(X | Y ) = E(X | σ({Y })). Anwendung von Proposition 1 auf obige Situation: Faktorisierung der bedingten Erwartung: Es existiert eine A0 -meßbare Abbildung g : Ω0 → R mit E(X | Y ) = g ◦ Y. Je zwei solche Abbildungen stimmen PY -f.s. u ¨berein. Definition 12. Bedingte Erwartung von X gegeben Y = y: E(X | Y = y) = g(y), wobei g wie oben gew¨ahlt. Analoge Begriffsbildung f¨ ur bedingte Wahrscheinlichkeiten, wobei X = 1A mit A ∈ A. Beispiel 3. Gelte (Ω, A, P ) = ([0, 1], B([0, 1], λ) und (Ω0 , A0 ) = (R, B(R)). Ferner ( 1, falls ω ∈ [0, 1/2], 2 X(ω) = ω , Y (ω) = ω − 1/2, falls ω ∈ ]1/2, 1]. Dann σ({Y }) = {A ∪ B : A ∈ {∅, [0, 1/2]}, B ⊂ ]1/2, 1] , B ∈ A} sowie E(X | Y )(ω) = und E(X | Y = y) =
( 1/12, falls ω ∈ [0, 1/2], ω2,
falls ω ∈ ]1/2, 1]
( 1/12,
falls y = 1, 2
(y + 1/2) , falls y ∈ ]0, 1/2].
Beachte, daß P ({Y = y}) = 0 f¨ ur alle y ∈ ]0, 1/2]. Bemerkung 11. Klar: f¨ ur A0 ∈ A0 gilt Z Z X dP = E(X | Y = y) dPY (y) {Y ∈A0 }
A0
und insbesondere 0
Z
P (A ∩ {Y ∈ A }) =
P (A | Y = y) dPY (y) A0
f¨ ur A ∈ A. 10
Wie der folgende Satz zeigt, ist die bedingte Erwartung der beste Sch¨atzer im Quadratmittel. Proposition 13. Gelte E(X 2 ) < ∞. Dann gilt f¨ ur jede A0 -meßbare Abbildung φ : Ω0 → R Z Z 2 (X − E(X | Y )) dP ≤ (X − φ ◦ Y )2 dP Ω
Ω
mit Gleichheit gdw. φ = E(X | Y = ·) PY -f.s. Beweis. Setze Z ∗ = E(X | Y ) und Z = φ ◦ Y . Die Jensensche Ungleichung liefert E((Z ∗ )2 ) = E(E(X | Y )2 ) ≤ E(E(X 2 | Y )) = E(X 2 ) < ∞. OBdA: E(Z 2 ) < ∞. Dann E(X − Z)2 = E(X − Z ∗ )2 + E(Z ∗ − Z)2 +2 · E((X − Z ∗ )(Z ∗ − Z)). | {z } ≥0
Mit den Propositionen 1, 8 und 9 folgt Z ∗ ∗ E((X − Z )(Z − Z)) = E((X − Z ∗ )(Z ∗ − Z) | Y ) dP ZΩ = (Z ∗ − Z) · E((X − Z ∗ ) | Y ) dP ZΩ = (Z ∗ − Z) · (E(X | Y ) − Z ∗ ) dP. | {z } Ω =0
Frage: Sind durch A 7→ P (A | Y = y) Wahrscheinlichkeitsmaße auf (Ω, A) gegeben? Sind ggf. die bedingten Erwartungen E(X | Y = y) die Erwartungswerte von X bzgl. dieser Wahrscheinlichkeitsmaße? Definition 13. Regul¨are bedingte Wahrscheinlichkeit gegeben Y : Abbildung P A | Y : A × Ω0 → R mit (i) P A | Y (·, y) Wahrscheinlichkeitsmaß f¨ ur jedes y ∈ Ω0 , (ii) P A | Y (A, ·) A0 -meßbar f¨ ur jedes A ∈ A, Z 0 (iii) P (A ∩ {Y ∈ A }) = P A | Y (A, y) dPY (y) f¨ ur alle A ∈ A und A0 ∈ A0 . A0
Bemerkung 12. Klar wg. (ii), (iii): P A | Y (A, y) = P (A | Y = y). Proposition 14. Es sei Ω0 ein polnischer Raum und A0 = B(Ω0 ) die Borelsche σ– Algebra auf Ω0 . Dann existiert eine regul¨are bedingte Wahrscheinlichkeit gegeben Y . A|Y F¨ ur je zwei solche Wahrscheinlichkeiten Pi existiert A0 ∈ A0 mit PY (A0 ) = 1 und ∀ y ∈ A0 ∀ A ∈ A :
A|Y
P1
11
A|Y
(A, y) = P2
(A, y).
Beweis. Siehe G¨anssler, Stute (1977, Kap. V.3) oder Yeh (1995, App. C). Proposition 15. In der Situation von Definition 13 gilt Z (i) X(ω) dP A | Y (ω, ·) A0 -meßbar, Ω
Z Z (ii)
X(ω) dP A0
A|Y
Z
X dP f¨ ur A0 ∈ A0 .
(ω, y) dPY (y) = {Y
Ω
∈A0 }
Also f¨ ur PY -f.a. y ∈ Ω0 Z
X(ω) dP A | Y (ω, y).
E(X | Y = y) = Ω
Beweis. Algebraische Induktion. Proposition 16. In der Situation von Proposition 14 gilt f¨ ur PY -f.a. y ∈ Ω0 ∀ A0 ∈ A0 :
P A | Y (Y −1 (A0 )), y) = 1A0 (y).
Beweis. Siehe Yeh (1995, p. 486).
2
Der Poisson-Prozeß
Der Poisson–Prozeß ist ein wichtiger und leicht zu konstruierender Prozeß, der der Prototyp eines ’Z¨ahlprozesses’ ist. Intuitiv kann man sich vorstellen, daß z.B. die Anzahl von ’Ausf¨allen’ von Ger¨aten im Verlaufe der Zeit gez¨ahlt werden soll.
Betrachte Folge (Ti )i∈N von iid. Zufallsvariablen auf (Ω, A, P ), jeweils exponentialverP teilt12 mit Parameter λ > 0. Setze S0 = 0 und Sn = ni=1 Ti f¨ ur n ∈ N. Definiere Nt = max{n ∈ N0 : Sn ≤ t}. S 13 Klar: P ( ∞ P ({supn∈N Sn < ∞}) = 0. OBdA: die komplei=1 {Ti ≤ 0}) = 0 und ment¨aren Eigenschaften gelten auf ganz Ω. Sn ist also stets streng monoton steigend, Ns endlich und Ns = n ⇔ Sn ≤ s < Sn+1 . Im folgenden I = [0, ∞[. Definition 14. X = (Xt )t∈I Poisson-Prozeß mit Intensit¨at λ > 0 bzgl. Filtration F = (Ft )t∈I , falls (i) X cadlag Prozeß mit Werten in N0 , (ii) X adaptiert an F, 12
F¨ ur t ≥ 0: P ({Ti ≤ t}) = 1 − exp(−λt); charakterisierende Eigenschaft (Ged¨achtnislosigkeit): P ({Ti ≥ t} | {Ti ≥ s}) = P ({Ti ≥ t − s}) f¨ ur 0 ≤ s < t. 13 Starkes Gesetz der großen Zahlen: Sn /n → 1/λ P -f.s.
12
(iii) X0 = 0, (iv) f¨ ur 0 ≤ s < t ist Xt − Xs (a) unabh¨angig von Fs , (b) Poisson-verteilt14 mit Parameter λ(t − s). Satz 1. (Nt )t∈I ist Poisson-Prozeß mit Intensit¨at λ bzgl. (FN t )t∈I . Klar: es gilt (i)–(iii). Der Beweis von (iv) ergibt sich mit dem folgenden Lemma 2. Lemma 1. Sei 0 ≤ s < t, n ∈ N und A ∈ FN s . (i) Es existiert ein B ∈ σ({T1 , . . . , Tn }), sodaß A ∩ {Ns = n} = B ∩ {Ns = n} . (ii) Es gilt P ({Sn+1 > t} ∩ A ∩ {Ns = n}) = e−λ(t−s) P (A ∩ {Ns = n}) . (iii) Die Abbildung ω 7→ SNs (ω)+1 (ω) ist eine Zufallsgr¨oße. (iv) Wir haben P ({SNs +1 > t} ∩ A) = e−λ(t−s) P (A) . Beweis. ad (i): Die Behauptung ist ¨aquivalent zu N FN s ∩ {Ns = n} := {A ∩ {Ns = n} : A ∈ Fs } ⊆ σ({T1 , . . . , Tn }) ∩ {Ns = n} .
Daher gen¨ ugt es, die Behauptung nur f¨ ur ein Erzeugendensystem von FN s zu zeigen; sei also oBdA A = {ω : Nr (ω) ∈ C} f¨ ur ein C ∈ B(R) und ein r ≤ s. Dann folgt A ∩ {Ns = n} = {ω : Sn (ω) ≤ n < Sn+1 (ω), max{k : Sk (ω) ≤ r}}
= {ω : Sn (ω) ≤ n < Sn+1 (ω), max{k ≤ n : Sk (ω) ≤ r}} ∈ σ({T1 , . . . , Tn }) ∩ {Ns = | {z } ∈σ({T1 ,...,Tn })
ad (ii): Klar: Tn+1 und (Sn , 1B ) unabh¨angig. Es sei oBdA Ω = Ω1 × Ω2 ein Produktraum, und B = Ω1 × B1 , sowie Sn = Sn (ω2 ), Tn+1 = Tn+1 (ω1 ). Dann folgt P ({Sn+1 > t} ∩ A ∩ {Ns = n}) = P ({Tn+1 + Sn > t} ∩ B ∩ {Sn ≤ s})
=
= Eω1 Eω2 1{Tn+1 (ω1 )+Sn (ω2 )>t}∩B∩{Sn (ω2 )≤s} Z ∞ Eω2 1{u+Sn (ω2 )>t}∩B∩{Sn (ω2 )≤s} λe−λu , du = Z ∞0 = P ({Sn > t − u} ∩ B ∩ {Sn ≤ s}) · λ exp(−λu) du t−s Z ∞ = exp(−λ(t − s)) · P ({Sn > s − u} ∩ B ∩ {Sn ≤ s}) · λ exp(−λu) du 0
= exp(−λ(t − s)) · P ({Sn+1 > s} ∩ {Sn ≤ s} ∩ B) = exp(−λ(t − s)) · P (A ∩ {Ns = n}). 14
F¨ ur k ∈ N0 : P ({Xt − Xs = k}) = (λ(t − s))k /k! · exp(−λ(t − s)).
13
S
ad (iii) et (iv): {SNs ∈ B} = SNs p; weiter ist
n {Sn
P ({SNs > t} ∩ A) =
∈ B} ∩ {Ns = n} impliziert die Meßbarkeit von
X
P ({Ns = n} ∩ {Sn > t} ∩ A) ;
n∈N0
aus Teil (ii) folgt die Behauptung. Lemma 2. F¨ ur 0 ≤ s < t, A ∈ FN s und k ∈ N0 gilt (λ(t − s))k exp(−λ(t − s)). k! Beweis. Sei k ∈ N und n ∈ N0 . Bezeichne mit φk die Dichte von P (A ∩ {Nt − Ns = k}) = P (A) ·
Yk =
n+k+1 X
T` .
`=n+2
Wie oben ergibt sich z := P (A ∩ {Nt − Ns ≤ k} ∩ {Ns = n}) = P (B ∩ {Sn+k+1 > t} ∩ {Ns = n}) = P (B ∩ {Ns = n} ∩ {Sn+1 + Yk > t}) Z ∞ = P (B ∩ {Ns = n} ∩ {Sn+1 + u > t}) ·φk (u) du. {z } | 0 =:h(u)
Weiter gilt f¨ ur u > t − s, daß {Ns = n} ∩ {Sn+1 + u > t} = {Ns = n} , und daher folgt Z ∞ h(u) · φk (u) du = P (B ∩ {Ns = n}) · P ({Yk ≥ t − s}) . t−s
Lemma 1, Teil (ii) zeigt Z t−s Z h(u) · φk (u) du = 0
t−s
P (B ∩ {Ns = n}) · exp(−λ(t − u − s)) · φk (u) du.
0
Yk ist Gamma–verteilt mit Parameter (λ, k), also φk (u) =
λk uk−1 · exp(−λu) (k − 1)!
und P ({Yk > u}) =
k−1 X (λu)j j=0
j!
· exp(−λu) ,
damit rechnet man nun leicht nach, daß z = P (A ∩ {Ns = n}) ·
k X (λ(t − s))j j=0
Jetzt Summation u ¨ber n ∈ N etc. 14
j!
exp(−λ(t − s)).
Proposition 17. Die kanonische Filtration (FN t )t∈I ist rechtsseitig stetig. Beweis. Wesentlich: Die Pfade sind rechtsseitig konstant. Siehe Protter (1990, p. 16) f¨ ur allgemeines Ergebnis f¨ ur Z¨ahlprozesse. Obige Konstruktion des Poisson-Prozesses ist universell. Es gibt verteilungsfreie Charakterisierungen des Poisson-Prozesses. Siehe G¨anssler, Stute (1977, Kap. VII.5). Anwendungen des Poisson-Prozesses: z. Bsp. Warteschlangentheorie, Finanzmathematik. Ausblick: Punktprozesse in Rd .
3
Martingale
Gegeben: Filtration F = (Ft )t∈I und adaptierter reellwertiger Prozeß X = (Xt )t∈I auf (Ω, A, P ) mit ∀ t ∈ I : E(|Xt |) < ∞. Kurzschreibweise: (Xt , Ft )t∈I , falls X an F adaptiert. Definition 15. (Xt , Ft )t∈I Submartingal, falls ∀ s, t ∈ I :
s < t ⇒ Xs ≤ E(Xt | Fs ).
Supermartingal : ≥“, Martingal =“. ” ” Beispiel 4. F¨ ur einen Poisson-Prozeß (Xt , Ft )t∈I mit Intensit¨at λ > 0 und 0 ≤ s < t gilt E(Xt | Fs ) = E(Xt − Xs | Fs ) + E(Xs | Fs ) = E(Xt − Xs ) + Xs = λ(t − s) + Xs . Also liegt ein Submartingal vor. Definiere einen kompensierten Poisson-Prozeß durch Mt = Xt − λt. Dann ist (Mt , Ft )t∈I ein Martingal. Die Martingaltheorie im kontinuierlichen Fall I = [0, ∞[ wird oft unter R¨ uckgriff auf den vorab betrachteten diskreten Fall entwickelt. Wir diskutieren einige Elemente dieser Theorie.
3.1
Martingale in diskreter Zeit
Zun¨achst sei I = N0 . Beispiel 5. Cox-Ross-Rubinstein Modell: einfaches Modell f¨ ur Aktienkurs zu Zeiten t ∈ N0 . W¨ahle A0 > 0, 0 < p < 1, 0 < d < u, 15
und betrachte (Yt )t∈N iid. mit P ({Yt = u}) = p = 1 − P ({Yt = d}). Definiere F0 = {∅, Ω} und At = A0 ·
t Y
Ft = σ({Y1 , . . . , Yt })
Ys ,
s=1
f¨ ur t ∈ N. Klar: F = FA . F¨ ur ganzzahlige 0 ≤ s < t ! t Y E(At | Fs ) = As · E Yk = As · E(Y1 )t−s = (pu + (1 − p)d)t−s · As . k=s+1
Also ⇔
(At , Ft )t∈N0 Submartingal
E(Y1 ) ≥ 1
und ⇔
(At , Ft )t∈N0 Martingal
d<1
1−d . u−d
Wir sehen sp¨ater: ein geeigneter Grenz¨ ubergang liefert die geometrische Brownsche Bewegung; auf diesem stochastischen Modell basiert die Black-Scholes-Formel. Frage: Gibt es im Martingal-Fall eine Stopzeit (Verkaufsstrategie) T mit E(AT ) > A0 ? Die folgenden S¨atze 2, 3 und 5 sind Varianten des optional sampling theorems. Satz 2. ∀ T beschr¨ankte Stopzeit : E(XT ) = E(X0 ). P Beweis. ⇒“ Gelte T (ω) ≤ N f¨ ur alle ω ∈ Ω. Dann: E(|XT |) ≤ N t=0 E(|Xt |) < ∞. ” Weiter: (Xt , Ft )t∈N0 Martingal
E(XT ) = =
N X t=0 N X
⇔
E(1{T =t} · Xt ) =
N X
E(1{T =t} · E(XN | Ft ))
t=0
E(E(1{T =t} · XN | Ft )) =
t=0
N X
E(1{T =t} · XN ) = E(XN ) = E(X0 ).
t=0
⇐“ F¨ ur s < t und A ∈ Fs ist zu zeigen: ” Z Z Xt dP = Xs dP. A
A
Definiere T = s · 1A + t · 1Ω\A . Klar: T ist beschr¨ankte Stopzeit. Also: E(X0 ) = E(XT ) = E(1A · Xs + 1Ω\A · Xt ) = E(Xt ) − E(1A · Xt ) + E(1A · Xs ). Beachte schließlich, daß n.V. insbesondere E(X0 ) = E(Xt ) gilt. 16
Satz 3. Sei (Xt , Ft )t∈N0 Martingal und T Stopzeit mit Z P ({T < ∞}) = 1 ∧ E(|XT |) < ∞ ∧ lim
|Xt | dP = 0.
t→∞
{T >t}
Dann E(XT ) = E(X0 ). Beweis. F¨ ur Tn = min{T, n} gilt Z
Z
|E(XT ) − E(XTn )| ≤
|XT | dP +
|Xn | dP
{T >n}
{T >n}
und somit limn→∞ E(XTn ) = E(XT ). Satz 2 liefert E(X0 ) = E(XTn ). Satz 4 (Doobsche Zerlegung). F¨ ur Mt =
t X
Xs − E(Xs | Fs−1 ) + X0 ,
At =
s=1
t X
E(Xs | Fs−1 ) − Xs−1
s=1
gilt (i) Xt = Mt + At , (ii) (Mt , Ft )t∈N0 ist Martingal, (iii) (Xt , Ft )t∈N0 Submartingal
⇔
(At )t∈N0 P -f.s monoton wachsend.
Beweis. ¨ Ubung. Satz 5. Sei (Xt , Ft )t∈N0 Submartingal. F¨ ur beschr¨ankte Stopzeiten S ≤ T gilt15 XS ≤ E(XT | FS ) und somit E(XS ) ≤ E(XT ). Im Martingal-Fall gilt jeweils =“. ” Beweis. Weil das Ereignis {XS ≥ E(XT | FS ) + 1/n} eine FS –meßbare Menge ist, gen¨ ugt es zu zeigen, daß Z Z XS dP ≤ E(XT | FS ) dP ∀A ∈ FS . A
A
Wir verwenden die Doob–Meyer–Zerlegung X = M + A. Offenbar ist AS ≤ AT , also AS = E(AS | FS ) ≤ E(AT | FS ), und es bleibt zu zeigen, daß Z Z Z MS dP = E(MT | FS ) dP = MT dP . A 15
A
A
Beachte, daß XS FS -meßbar ist. Vgl. Proposition 6 im kontinuierlichen Fall.
17
Sei R = S · 1A + T · 1Ac 16 . Dann gilt {R ≤ t} = ({S ≤ t} ∩ A) ∪ ({T ≤ t} ∩ Ac ) ∈ Ft . Also ist R eine beschr¨ankte Stopzeit, und nach Satz 2 haben wir E(MT ) = E(M0 ) = E(MR ) = E(MS · 1A ) + E(MT · 1Ac ) ; durch Subtraktion von E(MT · 1Ac ) folgt die Behauptung. Ist X Martingal, so sind X und −X Submartingale; aus dem schon bewiesenen folgt dann E(XS ) ≤ E(XT | FS ) und E(−XS ) ≤ E(−XT | FS ) , und also die Gleichheit. Gegeben: (Xt , Ft )t∈I mit I = {t0 , . . . , tn } f¨ ur t0 < · · · < tn sowie a < b. Definiere Stopzeiten T1 = inf{t ∈ I : Xt ≤ a}, T2 = inf{t ∈ I : Xt ≥ b, t > T1 }, .. . T2k+1 = inf{t ∈ I : Xt ≤ a, t > T2k }, T2k+2 = inf{t ∈ I : Xt ≥ b, t > T2k+1 }, .. . ¨ sowie die Anzahl der Uberquerungen (Upcrossings) des Intervalls [a, b] von unten nach oben ( 0, falls T2 = ∞, UIX (a, b) = max{k ∈ N : T2k ≤ tn }, sonst. Satz 6 (Upcrossing-Inequality). F¨ ur jedes Submartingal (Xt , Ft )t∈I gilt E(UIX (a, b)) ≤
E((Xtn − a)+ ) − E((Xt0 − a)+ ) . b−a
Beweis. Sei OBdA a = 0; Da wegen der Jensenschen Ungleichung auch X + ein Sub+ martingal ist und E(UIX (0, b)) = E(UIX (0, b)), k¨onnen wir weiter oBdA X ≥ 0 annehmen. Definiere Stopzeiten S0 = t0 und Si = Ti ∧ tn f¨ ur i ∈ N. Dann Xtn − Xt0 =
∞ X
(XS2j − XS2j−1 ) +
j=1
sowie
∞ X
(XS2j+1 − XS2j )
j=0
(XS2j − XS2j−1 ) ≥ b · UIX (0, b).
j=1 16
∞ X
Ac = Ω\A ∈ FS ⊆ FT
18
Satz 5 sichert E(XS2j+1 ) ≥ E(XS2j ). Fazit E(Xtn ) − E(Xt0 ) ≥ b · E(UIX (0, b)).
Satz 7 (Submartingal-Ungleichungen). F¨ ur jedes Submartingal (Xt , Ft )t∈I und µ > 0 gilt P ({ max Xti ≥ µ}) ≤ 1/µ · E(Xt+n ), i=0,...,n
P ({ min Xti ≤ −µ}) ≤ 1/µ · E(Xt+n ) − E(Xt0 ) . i=0,...,n
Beweis. Siehe Chung (1974, Theorem 9.4.1). Schließlich noch zwei Martingalkonvergenzs¨atze mit I = −N bzw. I = Z. Proposition 18. Gegeben: Submartingal17 (Xt , Ft )t∈−N mit inf E(Xt ) > −∞.
(1)
t∈−N
Dann existiert X−∞ ∈ L1 (Ω, A, P ), so daß lim Xt = X−∞
t→−∞
P -f.s. und in L1 .
Beweis. Siehe Chung (1974, Theorem 9.4.7) oder G¨anssler/Stute (1977, Satz 6.5.10). Proposition 19. Gegeben: Filtration (Ft )t∈Z und Zufallsvariable Y auf (Ω, A, P ) mit E(|Y |) < ∞. In L1 (Ω, A, P ) und P -f.s. gilt [ \ lim E(Y | Ft ) = E Y | σ Ft , lim E(Y | Ft ) = E Y | Ft . t→∞
t→−∞
t∈Z
t∈Z
Beweis. Siehe Chung (1974, Thm. 9.4.8).
3.2
Martingale in stetiger Zeit
Im folgenden sei I = [0, ∞[. Satz 8 (Optional Sampling Theorem). F¨ ur jedes rechtsseitig stetige Martingal (Xt , Ft )t∈I gilt ∀ T beschr¨ankte Stopzeit : E(XT ) = E(X0 ). 17
Sogenanntes inverses Submartingal.
19
Beweis. Gelte T (ω) ≤ N f¨ ur alle ω ∈ Ω. F¨ ur n ∈ N sei Tn definiert durch Tn (ω) = k/2n
⇔
T (ω) ∈ [(k − 1)/2n , k/2n [ .
F¨ ur t ∈ [(k − 1)/2n , k/2n [ zeigt Proposition 3 {Tn ≤ t} = {Tn ≤ (k − 1)/2n } = {T < (k − 1)/2n } ∈ F(k−1)/2n ⊂ Ft , d.h. Tn ist Stopzeit. F¨ ur alle ω ∈ Ω: Tn (ω) ≤ N + 1
∧
lim Tn (ω) & T (ω).
n→∞
Somit wegen der rechtsseitigen Stetigkeit: lim XTn (ω) = XT (ω).
n→∞
(2)
Satz 5 zeigt E(XN +1 | FTn ) = XTn . Ubung 2.5. Mit (2) folgt Also ist {XTn : n ∈ N} gleichgradig integrierbar, siehe ¨ lim E(XTn ) = E(XT ).
n→∞
Schließlich ist (Xk/2n )k≤2n ein Martingal, und deshalb zeigt Satz 2 ∀ n ∈ N : E(XTn ) = E(X0 ).
Die folgenden Begriffe und Ergebnisse sind grundlegend bei der Einf¨ uhrung des stochastischen Integrals. Definition 16. F erf¨ ullt die u ¨blichen Voraussetzungen, falls (i) F rechtsseitig stetig, (ii) {A ⊂ Ω : ∃ B ∈ A : A ⊂ B ∧ P (B) = 0} ⊂ F0 .
20
Satz 9. Erf¨ ullt seien (i) (Xt , Ft )t∈I Submartingal, (ii) t 7→ E(Xt ) rechtsseitig stetig, (iii) die u ¨blichen Voraussetzungen. Dann existiert eine cadlag Modifikation Y von X, so daß (Yt , Ft )t∈I ein Submartingal ist. Beweis. Sei n ∈ N fest; wir setzen Qn := [0, n] ∩ Q und w¨ahlen eine aufsteigende Folge S Qk ⊆ Qn von endlichen Teilmengen mit Qn = k Qk . Aus Satz 7 erhalten wir P (max |Xt | ≥ µ) ≤ t∈Qk
2 E(Xn+ ) . µ
(3)
Weiterhin: Falss das Ereignis supt∈Qn |Xt | = ∞ eintritt, so folgt, daß f¨ ur jedes m ∈ N m ein k ∈ N existiert mit supt∈Qk |Xt | ≥ 2 ; folglich hat man f¨ ur jedes m ∈ N mit (3): P (sup |Xt | = ∞) ≤ sup P (sup |Xt | ≥ 2m ) ≤ 2−m+1 E(Xn+ ) . t∈Qn
k∈N
t∈Qk
Also existiert B ∈ A mit P (B) = 1 und ∀ω∈B ∀n∈N:
sup |Xt (ω)| < ∞. t∈[0,n]∩Q
F¨ ur a < b beliebig sei UnX (a, b) = sup UQXk (a, b) k∈N
sowie Cn (a, b) = {UnX (a, b) < ∞},
C=
\ \
Cn (a, b).
n∈N a
Aus Satz 6 und der monotonen Konvergenz folgt P (Cn (a, b)) = 1, also P (C) = 1. F¨ ur ω ∈ B ∩ C existieren die Grenzwerte Xtr (ω) =
lim Xs (ω),
s&t,s∈Q
f¨ ur jedes t ≥ 0: W¨aren n¨amlich α < β zwei H¨aufungspunkte von Xs (ω) f¨ ur s & t, s ∈ X Q, so w¨ urde f¨ ur ein Intervall [a, b] ⊆ (αβ) folgen, daß Un (a, b) = ∞ f¨ ur n ≥ t. Setze r Yt (ω) = X (t)(ω) f¨ ur ω ∈ B ∩ C und andernfalls Yt (ω) = 0. Man verifiziert, daß Y ein cadlag Prozeß ist. Die u ¨blichen Voraussetzungen sichern, daß Y zu F adaptiert ist. Sei s ∈ I. W¨ahle sn ∈ Q mit sn & s. F¨ ur A ∈ F s Z Z Z Xsn dP. Xs dP ≤ E(Xsn | Fs ) dP = A
A
A
Die L1 -Konvergenz gem. Proposition 18 liefert E(|Ys |) < ∞ und Z Z lim Xsn dP = Ys dP, n→∞
A
A
21
(4)
so daß P (Xs ≤ Ys ) = 1
∀s ≥ 0 .
(5)
Die rechtsseitige Stetigkeit von s 7→ E(Xs ) und (4) liefern E(Xs ) = E(Ys ), Mit (5) ergibt sich P (Ys = Xs ) = 1 f¨ ur alle s ≥ 0, d.h. Y ist Modifikation von X. Hieraus folgt sofort, daß Y ein Submartingal ist. Definition 17. (At , Ft )t∈I wachsend, falls (i) A0 = 0, (ii) A besitzt rechtsseitig stetige, monoton wachsende18 Pfade, (iii) ∀ t ∈ I : E(At ) < ∞. Bemerkung 13. Wir integrieren erstmals bez¨ uglich eines stochastischen Prozesses. Sei (At , Ft )t∈I wachsend und (Xt )t∈I meßbar. Dann sind die Lebesgue-Stieltjes Integrale Z t
It± (ω) =
Xs± (ω) dAs (ω),
ω ∈ Ω,
0
f¨ ur t ∈ I wohldefiniert. Sei (Xt , Ft )t∈I progressiv meßbar und gelte ∀ ω ∈ Ω : It± (ω) < ∞. Dann ist It (ω) = It+ (ω) − It− (ω),
ω ∈ Ω,
f¨ ur t ∈ I wohldefiniert, rechtsseitig stetig und progressiv meßbar. Beispiel 6. Der Poisson-Prozeß (Nt , FN t )t∈I ist wachsend. Setze Jt (ω) = {Sn (ω) : n ∈ N} ∩ [0, t]. Dann gilt #Jt (ω) = Nt (ω) < ∞ und f¨ ur X meßbar ist X It (ω) = Xs (ω). s∈Jt (ω)
Wir formulieren nun ein kontinuierliches Analogon der Doobschen Zerlegung. Die Summe eines Martingals M und eines wachsenden Prozesses A (bzgl. derselben Filtration) ist ein Submartingal. Ist jedes Submartingal so darstellbar? Ist diese Darstellung eindeutig? Beispiel 7. Sei (Xt , Ft )t∈I Poisson-Prozeß mit Intensit¨at λ > 0. Dann Xt = Xt − λt + |{z} λt . | {z } =Mt
=At
Wir wissen: (Mt , Ft )t∈I ist ein Martingal. Klar: (At , Ft )t∈I ist wachsend. 18
As (ω) ≤ At (ω), falls s ≤ t.
22
Satz 10 (Doob-Meyer-Zerlegung). Erf¨ ullt seien19 (i) (Xt , Ft )t∈I stetiges Submartingal, (ii) ∀ t ∈ I :
Xt ≥ 0,
(iii) die u ¨blichen Voraussetzungen. Dann existiert ein stetiges Martingal (Mt , Ft )t∈I und ein stetiger wachsender Prozeß (At , Ft )t∈I mit ∀ t ∈ I ∀ ω ∈ Ω : Xt (ω) = Mt (ω) + At (ω). Diese Zerlegung ist eindeutig bis auf Ununterscheidbarkeit. Beweisskizze. Details bei Karatzas Shreve (1999, Chap. 1.4). Wir diskutieren die Existenz f¨ ur t ∈ [0, a] mit a > 0. Betrachte eine rechtsseitig stetige Modifikation (Yt )t∈[0,a] des Submartingals Xt − E(Xa | Ft ),
t ∈ [0, a],
gem. Satz20 9. F¨ ur n ∈ N und I (n) = {j/2n · a : j = 0, . . . , 2n } hat man die Doobsche Zerlegung (n) (n) Y t = M t + At , t ∈ I (n) . Ein Kompaktheitsschluß, f¨ ur den (ii) verwendet wird,21 zeigt: es ex. eine Teilfolge (nk ) (n) (Aa )k∈N von (Aa )n∈N sowie Z ∈ L1 (Ω, A, P ), so daß ∀ ξ ∈ L∞ (Ω, A, P ) :
lim E(ξ · Aa(nk ) ) = E(ξ · Z).
k→∞
Betrachte rechtsseitig stetige Modifikationen (Mt )t∈[0,a] des Martingals E(Xa − Z | Ft ),
t ∈ [0, a],
Yt + E(Z | Ft ),
t ∈ [0, a],
sowie (At )t∈[0,a] des Submartingals
gem. Satz 9. Klar: Xt = Mt + At und M ist ein Martingal. Zu zeigen bleibt die linksseitige Stetigkeit von A und M sowie die Monotonie von A; hier geht die Stetigkeit von X ein. Im folgenden: F erf¨ ulle die u ¨blichen Voraussetzungen. Kurz: Martingal statt Martingal bzgl. F. Gleichheit von Prozessen im Sinne der Ununterscheidbarkeit. 19
Allgemeinere Fassung bei Karatzas, Shreve (1999). Anwendbar wg. (i) und Proposition 18. (n) 21 Man zeigt die gleichgradige Integrierbarkeit von Aa und nutzt dann den Satz von Dunford– Pettis: Eine gleichgradig integrierbare Folge in L1 besitzt eine in L1 schwach konvergente Teilfolge. 20
23
Definition 18. X quadratisch integrierbar, falls ∀ t ∈ I : E(Xt2 ) < ∞. Bez.: Mc2 = Mc2 (F) sei der Vektorraum aller stetigen, quadratisch integrierbaren Martingale mit X0 = 0. Bemerkung 14. Klar: f¨ ur X ∈ Mc2 ist X 2 = (Xt2 )t∈I stetiges Submartingal. Definition 19. Quadratische Variation von X ∈ Mc2 ist der22 stetige, wachsende Prozeß (At )t∈I in der Doob-Meyer-Zerlegung Xt2 = Mt + At von X 2 . Bez.: hXit = At . Vgl. ¨ Ubung 3.3.b f¨ ur den kompensierten Poisson-Prozeß. Definition 20. F¨ ur X, Y ∈ Mc2 heißt23 hX, Y it = 41 (hX + Y it − hX − Y it ),
t ∈ I,
der Kreuz-Variationsprozeß. X und Y heißen orthogonal, falls hX, Y i = 0. Lemma 3. Seien A(1) , A(2) F–adaptierte stetige, wachsende, integrierbare Prozesse auf [0, a], sodaß M := A(1) − A(2) ein F–Martingal ist mit M0 = 0. Dann sind A(1) und A(2) ununterscheidbar. Beweis. Es sei zun¨achst (ξt , Ft ) ein beschr¨anktes24 , rechtsstetiges Martingal. Dann folgt Z mn X ξt Mt = ξs− dMs = lim ξt(n) [Mt(n) − Mt(n) ] . (6) n→∞
(0,t]
j=1
j−1
j
j−1
(n)
(n)
Hierbei sei (tj )j≤mn eine beliebige, verfeinernde Zerlegung von [0, t] mit maxj |tj − (n) tj−1 | → 0. Weiter haben wir P –f.s., daß mn mn X X ξt(n) [Mt(n) − Mt(n) ] ≤ N |Mt(n) − Mt(n) | j=1
j−1
j
j−1
j
j=1
j−1
(1)
(1)
(2)
(2)
≤ N Vt0 M ≤ N (At − A0 + At − A0 ) ; damit haben wir eine integrable Majorante f¨ ur die Summen gefunden und schließen aus (6), daß mn X Eξt Mt = lim E ξt(n) [Mt(n) − Mt(n) ] . (7) n→∞
j=1
22
j−1
j
Eindeutig bestimmt bis auf Ununterscheidbarkeit. Polarisation. 24 d.h. es existiert N > 0, sodaß P –f.s. ξt ≤ N f¨ ur alle t ≤ a 23
24
j−1
Nun rechnet man aber leicht nach, daß E(ξt(n) Mt(n) ) = E(ξt(n) Mt(n) ), und daher folgt j−1
j
j−1
j−1
aus (7), daß E(ξt Mt ) = 0. Sei nun ξ eine beschr¨ankte Zufallsvariable; und sei ξt eine rechtsstetige Modifikation von E(ξ|Ft ) nach Satz 925 , dann folgt 0 = E(ξt Mt ) = E(E(ξMt | Ft )) = E(ξMt ) . Dies impliziert aber P (Mt = 0) = 1 f¨ ur alle t > 0; aus der Stetigkeit von A(1) und A(2) folgt die Ununterscheidbarkeit. Proposition 20. F¨ ur X, Y ∈ Mc2 gilt (i) hX, Xi = hXi, (ii) a¨quivalent sind (a) XY − Z ist Martingal ∧ Z = A0 − A00 mit A0 , A00 stetig, wachsend, (b) Z = hX, Y i, (iii) ¨aquivalent sind (a) X, Y orthogonal, (b) XY Martingal, (c) E((Xt − Xs ) · (Yt − Ys ) | Fs ) = 0 f¨ ur alle 0 ≤ s < t,
26
(iv) h·, ·i ist symmetrisch und bilinear, (v) hX, Y i2 ≤ hXi · hY i. Beweis. ad (i): hX, Xit = 14 h2Xit = hXit . ad (ii): (b) ⇒ (a)“: (X + Y )2 − hX + Y i und (X − Y )2 − hX − Y i sind Martingale, ” somit auch ihre Differenz (X + Y )2 − (X − Y )2 − hX + Y i + hX − Y i = 4XY − 4hX, Y i. (a) ⇒ (b)“: Folgt aus Lemma 3. ” ad (iii): (a) ⇔ (b)“ folgt aus (ii). ” (b) ⇔ (c)“. ” E((Xt − Xs ) · (Yt − Ys ) | Fs ) = E(Xt Yt + Xs Ys − Xt Ys − Xs Yt | Fs ) = E(Xt Yt | Fs ) − Xs Ys . ad (iv): Symmetrie klar. F¨ ur α ∈ R sind (αX) · Y − hαX, Y i und α · (XY ) − α · hX, Y i gem. (ii) Martingale. Mit (ii) folgt ebenfalls αhX, Y i = hαX, Y i. Beweis der Additivit¨at analog. ad (v): Folgt wie u ¨blich aus (iv) und hXit ≥ 0. 25 26
ξt ist automatisch beschr¨ ankt, da E(ξ|Ft ) ≤ supω |ξ(ω)| P –f.s. Inkremente sind bedingt unkorreliert“. ”
25
Definition 21. Sei π = {t0 , . . . , tm } mit 0 = t0 < · · · < tm = t Zerlegung von [0, t]. Ferner sei p ∈ ]0, ∞[. Dann heißt (p) Vt (X; π)
m X Xt − Xt p = k k−1 k=1
p-te Variation von X auf [0, t] bzgl. π. Ferner heißt kπk = max (tk − tk−1 ) k=1,...,m
die Feinheit von π. Die durch mt (X; δ)(ω) = sup{|Xr (ω) − Xs (ω)| : r, s ∈ [0, t], |r − s| ≤ δ} definierte Abbildung mt (X; ·)(·) : [0, t] × Ω → [0, ∞] heißt Stetigkeitsmodul von X auf [0, t]. Bemerkung 15. Sei X stetig. Dann ist mt (X; ·)(·) endlich und mt (X; δ) ist Ft -B(I)meßbar. Ferner ∀ ω ∈ Ω : lim mt (X; δ)(ω) = 0. δ→0
Satz 11. Gelte limn→∞ kπn k = 0 f¨ ur Folge von Zerlegungen πn von [0, t] und sei c X ∈ M2 . Dann P -stoch. (2) Vt (X; πn ) → hXit . Beweis. 1. Fall: X und hXi beschr¨ankt auf [0, t]. Genauer \ P {max{|Xs |, hXis } ≤ K} = 1. s∈[0,t]
Wir zeigen hier sogar L2 -Konvergenz. Mit obigen Bezeichnungen gilt 2 m 2 X (2) E Vt (X; π) − hXit = E (Xtk − Xtk−1 )2 − (hXitk − hXitk−1 ) {z } | k=1 =Yk
=
m X
E(Yk · Y` ).
k,`=1
Wir zeigen ∀ k 6= ` : E(Yk · Y` ) = 0. F¨ ur 0 ≤ s < t ≤ u < v gilt27 E((Xv − Xu )2 | Ft ) = E(Xv2 − Xu2 | Ft ) = E(Xv2 − hXiv − (Xu2 − hXiu ) | Ft ) + E(hXiv − hXiu | Ft ) = E(hXiv − hXiu | Ft ). 27
E(Xu Xv | Ft ) = E(E(Xu Xv | Fu ) | Ft ) = E(Xu E(Xv | Fu ) | Ft ) = E(Xu2 | Ft ).
26
(8)
Somit f¨ ur k < ` (und analog f¨ ur ` < k) E(Yk · Y` | Ftk ) = Yk · E(Y` | Ftk ) = 0, so daß (8) folgt. Also E
(2) Vt (X; π)
=
m X
− hXit
2
2 E (Xtk − Xtk−1 )2 − (hXitk − hXitk−1 )
k=1 m X
≤2
E (Xtk − Xtk−1 )4 + (hXitk − hXitk−1 )2
k=1
(4) ≤ 2 · E Vt (X; π) + 2 · E (mt (hXi; kπk) · hXit ) . Es gilt E
2
(2) Vt (X; π)
≤ 6 · K 4,
siehe Karatzas, Shreve (1999, Lemma 1.5.9). Ferner (4)
(2)
Vt (X; π) ≤ mt (X; kπk)2 · Vt (X; π) und hiermit (4) E(Vt (X; π))
2 1/2 1/2 (2) ≤ E Vt (X; π) · E mt (X; kπk)4 ≤ 3K 2 · E mt (X; kπk)4
1/2
.
Klar mt (X; δ) ≤ 2K,
mt (hXi; δ) ≤ K.
Der Lebesguesche Grenzwertsatz und die Stetigkeit der Pfade sichern 2 (2) lim E Vt (X; πn ) − hXit = 0. n→∞
2. Fall: keine Beschr¨anktheitsvoraussetzungen. R¨ uckf¨ uhrung auf 1. Fall (Lokalisation). Definiere TK = inf{t ∈ I : |Xt | ≥ K ∨ hXit ≥ K}, K ∈ N. Proposition 5 zeigt, daß TK Stopzeit ist. Die gestoppten Prozesse (K)
Xt
= XTK ∧t ,
t ∈ I,
und XT2K ∧t − hXiTK ∧t ,
t ∈ I,
sind beschr¨ankte Martingale, siehe ¨ Ubung 4.1. Die Eindeutigkeit der Doob-MeyerZerlegung liefert hXiTK ∧t = hX (K) it . 27
Gem¨aß Fall 1.) gilt f¨ ur festes K ∈ N 2 (2) lim E Vt (X (K) ; πn ) − hX (K) it = 0.
n→∞
Setze (2)
Bnε = {|Vt (X; πn ) − hXit | ≥ ε},
AK = {TK < t}.
Es gilt limK→∞ TK (ω) = ∞ f¨ ur alle ω ∈ Ω wegen der Stetigkeit der Pfade von X und hXi, also lim P (AK ) = 0. K→∞
Weiter P (Bnε ) = P (Bnε ∩ AK ) + P (Bnε \ AK ) (2)
≤ P (AK ) + P ({|Vt (X (K) ; πn ) − hX (K) it | ≥ ε}), und somit lim sup P (Bnε ) ≤ P (AK ). n→∞
Abschließend: Die Wahl von p = 2 bei der Variation ist angemessen f¨ ur stetige, quadratisch integrierbare Martingale. Satz 12. Sei (Xt , Ft )t∈I Prozeß mit stetigen Pfaden, p > 0 und Lt Zufallsvariable, so daß P -stoch. (p) Vt (X; πn ) → Lt falls kπn k → 0. Dann gilt f¨ ur q > p (q)
Vt (X; πn )
P -stoch.
→
0
und28 f¨ ur 0 < q < p (q)
Vt (X; πn ) · 1{Lt >0}
P -stoch.
→
∞ · 1{Lt >0} ,
falls kπn k → 0. Beweis. ¨ Ubung 5.1. Eine wichtige Konsequenz der S¨atze 11 und 12: die Definition von stochastischen Integralen bzgl. stetiger quadratisch-integrierbarer Martingale X, etwa mit hXit > 0 f¨ ur alle t > 0, kann nicht pfadweise unter R¨ uckgriff auf die deterministische LebesgueStieltjes-Theorie erfolgen. 28
∞ · 0 = 0.
28
4
Der Kolmogorovsche Konsistenzsatz
Wir diskutieren die Existenz von stochastischen Prozessen mit vorgegebenen endlichdimensionalen Verteilungen.
Es sei (S, S) ein Meßraum, I 6= ∅, und X = (Xt )t∈I stochastischer Prozeß auf (Ω, A, P ) mit Zustandsraum (S, S). F¨ ur eine Teilmenge J ⊆ I, J 6= ∅ setzen wir XJ : Ω → S J ,
(XJ (ω))(t) := Xt (ω),
t∈J .
¨ Bemerkung 16. XJ ist A–SJ –meßbar (s. Ubung 1.4). Nun assoziieren wir zum Prozeß X ein Wahrscheinlichkeitsmaß: Definition 22. In obiger Situation heißt das Bildmaß XI P auf (S I , SI ), gegeben durch (XI P )(A) := P ({ω ∈ Ω : X· (ω) ∈ A}) , A ∈ SI , die Verteilung von X. Zwei Prozesse, die die gleiche Verteilung haben, haben offenbar die gleichen endlichdimensionalen Verteilungen. Bemerkung 17. Ist µ ein Wahrscheinlichkeitsmaß auf (S I , SI ), so ist der kanonische Prozeß Xt (ω) := ω(t), ω ∈ S I , t ∈ I offenbar ein Prozeß mit XI µ = µ. Also: Konstruktion von stochastischen Prozessen ↔ Konstruktion von Wahrscheinlichkeitsmaßen auf (S I , SI ). Beispiel 8. blen.
(i) Produktmaß: I, (S, S) beliebig → Prozeß aus unabh¨angigen Varia-
(ii) Markov–Kerne: I = N, (S, S) beliebig (Ionesa–Tulcea) Sei nun I beliebig, P0 (I) := {J ⊆ I : |J| ∈ N}. F¨ ur ∅ = 6 J1 ⊆ J2 ⊆ I sei π(J2 , J1 ) : S J2 → S J1
(zj )j∈J2 7→ (zj )j∈J1 .
Definition 23. F¨ ur den stochastischen Prozeß X auf I nennen wir die Familie (XJ P ) J∈P0 (I) die Familie der endlichdimensionalen Randverteilungen von X. Bemerkung 18.
(i) Offenbar ist f¨ ur J = {t1 , . . . , tn }, A1 , . . . , An ∈ S:
XJ P (A1 × · · · × An ) = P ({Xt1 ∈ A1 ∧ · · · ∧ Xtn ∈ An }) . (ii) Da die Menge SI0 :=
[
σ(π(I, J))
J∈P0 (I)
ein schnittstabiler Erzeuger von SI ist (Zylindermengen), ist XI P durch die endlichdimensionalen Randverteilungen XJ P schon eindeutig bestimmt. 29
¨ Nun also Frage: Wann existiert ein Prozeß mit vorgegebenen Randverteilungen? Aquivalent: Wann existiert ein Wahrscheinlichkeitsmaß mit vorgegebenen Randverteilungen? Definition 24. Eine Familie (µJ )J∈P0 (I) von Wahrscheinlichkeitsmaßen µJ auf (S J , SJ ) heißt projektiv, falls ∀∅ 6= J1 ⊆ J2 ∈ P0 (I)
µJ1 = π(J2 , J1 )µJ2 .
Klar: X stochastischer Prozeß ⇒ (XJ P )J∈P0 projektiv. Definition 25. Ein topologischer Raum (M, O) heißt polnisch genau dann, wenn eine Metrik d auf M existiert, sodaß (i) (M, d) die Topologie O erzeugt, (ii) (M, d) ist vollst¨andig und separabel. Beispiel 9. M = Rd , jeder separable Banachraum, M = C([0, ∞[) mit der durch gleichm¨aßige Konvergenz erzeugten Topologie. F¨ ur topologischen Raum (M, O) sei B(M ) = σ(O) (Borel–σ–Algebra). Maße auf (M, B(M )) heißen Borelmaße. ¨ Satz 13. (Außere Regularit¨at von Borelmaßen) Es sei (M, d) ein metrischer Raum und ν ein Wahrscheinlichkeitsmaß auf (M, B(M )). Dann gilt ν(A) = inf{ν(O) : O ⊇ A, O offen} = sup{ν(C) : C ⊆ A, A abgeschlossen} . ¨ Beweis. Ubung 5.4. Satz 14. (Innere Regulatrit¨at von Borelmaßen) Es sei (M, O) ein polnischer Raum und ν ein Wahrscheinlichkeitsmaß auf (M, B(M )). Dann gilt ν(A) = sup{ν(C) : C ⊆ A, C kompakt} . Beweis. Wir zeigen zun¨achst, daß ν Radonsch ist, also sup{ν(C) : C ⊆ M, C kompakt} .
(9)
Ohne Einschr¨ankung sei (M, d) ein vollst¨andiger separabler metrischer Raum, und (mi )i∈N dicht in M . Bilde Bn,i := {m ∈ M : d(m, mi ) < 1/n} , i, n ∈ N . Sei nun ε > 0 beliebig und n ∈ N fest. W¨ahle in = in (ε) ∈ N mit ν(M \
in [
Bn,i ) ≤ ε · 2−n .
i=1
30
Sei B :=
T∞ Sin n=1
i=1
Bn,i . Dann
¯ ≤ ν(M \N ) ≤ ν(M \B)
∞ X
ν(M \
n=1
in [
Bn,i ) ≤ ε .
i=1
¯ kompakt ist. Dazu zeigen wir, Um (9) zu folgern, m¨ ussen wir noch zeigen, daß B daß jede Folge in B eine Cauchy–Teilfolge enth¨alt. Sei also (zi )i∈N ∈ B. Dann ex. i∗1 ∈ {1, . . . , in }, sodaß |{i ∈ N : zi ∈ Bn,i∗1 }| = ∞. Man kann also eine Teilfolge ausw¨ahlen, die stets in Bn,i∗1 liegt. Durch Iteration und das klassische Diagonalisierungsargument bekommt man so eine Folge von Indices i∗n und eine Teilfolge (yn ) von (zi ), welche f¨ ur alle m ≤ n erf¨ ullt: yn ∈ Bm,i∗m . Hieraus folgt wegen diam (Bm,i ) ≤ 1/m sofort, daß yn ¯ Also eine Cauchyfolge ist. Weil M vollst¨andig ist, existiert ein Grenzwert f¨ ur yn in B. ¯ kompakt, und (9) folgt. Nun sei A ∈ B(M ) beliebig; nach Satz 13 existiert f¨ ist B ur ε > 0 eine abgeschlossene Menge C ⊆ A mit ν(A\C) ≤ ε. Wegen (9) gibt es auch eine kompakte Menge K ⊆ M mit ν(M \K) ≤ ε. D := C ∩ K ⊆ A ist kompakt, und ν(A\D) ≤ 2ε .
Satz 15. [Daniell 1918, Kolmogorov 1933] Sei (S, O) ein polnischer Raum, S = B(S), und (µJ )J∈P0 (I) eine projektive Familie von Wahrscheinlichkeitsmaßen. Dann existiert genau ein Wahrscheinlichkeitsmaß µ auf (S I , SI ) mit µJ = π(I, J)µ f¨ ur alle J ∈ P0 (I). F¨ ur den Beweis ben¨otigen wir zwei Lemmata. Lemma 4. Ist (S, O) ein polnischer Raum und J eine endliche Menge, so ist (S J , OJ ) ein polnischer Raum, und B(S J ) = (B(S))J . Beweis. G¨anssler/Stute, Satz 1.3.12. Lemma 5. Es sei I 6= ∅ und Jn ∈ P0 (I). Weiter seien Kn ⊆ S Jn kompakt, und wir setzen n \ Yn = π −1 (I, Jl )(Kl ) . l=1
Falls f¨ ur jedes n ∈ N gilt, daß Yn 6= ∅ ist, so ist
T
n
Yn 6= ∅.
Dies verallgemeinert den Cantorschen Durchschnittssatz im Falle I = {t}. Beweis. Es sei (yn )n∈N eine beliebige Folge mit yn ∈ Yn . F¨ ur t ∈ Jn und m ≥ n ist ym ∈ Yn , also folgt ym (t) = π(Jn , {t})[π(I, Jn )
)] ∈ π(Jn , {t})(Kn ) . | {z } ∈π −1 (I,Jn (Kn )) kompakt (ym ) |{z}
S Setze J = ∞ onnen nun wieder durch iterative Teilfolgenbildung und n=1 Jn . Wir k¨ Diagonalisierung eine Teilfolge ynl bilden, sodaß f¨ ur jedes t ∈ J die Folge ynl (t) konvergiert; wir definieren z˜ ∈ S J durch z˜(t) := lim ynl (t) , l→∞
31
t∈J .
Nun w¨ahlen wir ein beliebiges z ∈ S I mit π(I, J)(z) = z˜; nun folgt leicht (zt )t∈Jn ∈ Kn T aufgrund der Abgeschlossenheit von Kn , und damit z ∈ n Yn . Beweis von Satz 15. Eindeutigkeit siehe Bemerkung 18. Existenz: Wir betrachten wieder [ SI0 := σ(π(I, J)) . J∈P0 (I)
F¨ ur A ∈ SI0 , A = π −1 (I, J)(B), B ∈ SJ , J ∈ P0 (I), setzen wir µ ˆ(A) := µJ (B) . Dies ist wohldefiniert, weil µJ eine projektive Familie ist. Weiter rechnet man sofort nach, daß µ ˆ ein Inhalt auf SI0 ist. Nach den Maßfortsetzungss¨atzen gen¨ ugt es nun zu I zeigen, daß µ ˆ stetig in der leeren Menge und damit ein Pr¨amaß auf S0 ist. Seien also Zn ∈ SI0 mit Zn & ∅. Annahme: inf n µ ˆ(Zn ) = α > 0. Es sei Zn = π −1 (I, Jn )(Bn ) mit Bn ∈ SJn . OBdA k¨onnen wir J1 ⊆ J2 ⊆ · · · voraussetzen. Nach Lemma 4 und Satz 14 existieren nun kompakte Mengen Kn mit µJn (Bn \Kn ) ≤ 2−n α. Setze Zn0 = π −1 (I, Jn )(Kn ), dann folgt µ ˆ(Zn \Zn0 ) ≤ 2−n α. Damit hat man µ ˆ(Zn ) − µ ˆ(Yn ) = µ ˆ(
n [
(Zn \Zi0 )) ≤
X
µ ˆ(Zi \zi0 ) < α.
i=1
Da µ ˆ(Zn ) ≥ α, folgt hieraus µ ˆ(Yn ) > 0, und damit Yn 6= ∅. Aus Lemma 5 folgt nun T Y = 6 ∅, ein Widerspruch. n n Definition 26. In der Situation von Satz 15 nennen wir µ den projektiven Limes der Familie (µJ ), µ = limJ µJ . Anwendung: Prozesse mit unabh¨angigen Zuw¨achsen. Definition 27. Sei I = [0, ∞[, X = (Xt )t∈I ein stochastischer Prozeß auf (Ω, A, P ) mit Zustandsraum (Rd , B(Rd )). (i) X hat unabh¨angige Zuw¨achse (Inkremente), falls f¨ ur alle n ∈ N und 0 ≤ t0 < · · · < tn die Folge Xt1 − Xt0 , . . . , Xtn − Xtn−1 unabh¨angig ist. d
(ii) X hat station¨are Zuw¨achse, falls f¨ ur alle 0 ≤ s < t gilt: Xt − Xs = Xt−s − X0 . Sei X ein Prozeß mit unabh¨angigen Inkrementen; setze νs,t := PXt −Xs , 0 ≤ s ≤ t. Beispiel 10. Der Poisson–Prozeß mit Intensit¨at λ hat unabh¨angige Inkremente mit νs,t als Poisson–Verteilung zum Parameter λ(t − s). Bemerkung 19.
(i) Offenbar gilt νs,t = νs,r ∗ νr,t , 0 ≤ s < r < t . 32
(ii) Falls X0 = 0 f.s. , so ist die Verteilung von X schon durch (νs,t ) eindeutig bestimmt, denn f¨ ur 0 = t0 < . . . < tn ist (Xt1 , . . . , Xtn ) = Σ(Xt1 − Xt0 , . . . , Xtn − Xtn−1 ) , wenn man Σ((xi )) := ((
P
j≤i
xi )) setzt. Also PXt1 ,...,Xtn = Σ(νt1 ,t0 ∗ · · · ∗ νtn ,tn−1 ).
Satz 16. Sei (νt,s )0≤s
33
Kapitel II Brownsche Bewegung Die Brownsche Bewegung ist das Grundmodell eines Diffusionsprozesses; wir geben zwei Konstruktionen an und debattieren Pfadeigenschaften.
Gegeben: Wahrscheinlichkeitsraum (Ω, A, P ) mit Filtration F = (Ft )t∈I , wobei I = [0, ∞[. Definition 1. Ein reellwertiger Prozeß W = (Wt )t∈I heißt Brownsche Bewegung (Wiener-Prozeß) bzgl. F, falls (i) W F–adaptiert, (ii) W0 = 0, (iii) W hat unabh¨angige Zuw¨achse, (iv) F¨ ur 0 ≤ s < t ist Wt − Ws N (0, t − s)-verteilt. 1 . Bemerkung 1. Es ist nicht a priori klar, daß es Brownsche Bewegungen gibt (Stetigkeit). Dies werden wir sp¨ater beweisen. Beispiel 1. Prozesse mit station¨aren, unabh¨angigen Inkrementen: Poisson-Prozeß, ur an F Brownsche Bewegung. Stationarit¨at: klar. Unabh¨angigkeit: beachte FX s ⊂ Fs f¨ adaptierte Prozesse X, und wende Lemma 1 an. Lemma 1. F¨ ur X = (Xt )t∈I mit X0 P –f.s. konstant gilt: X besitzt unabh¨angige Inkremente ⇔ ∀0 ≤ s < t : Xt − Xs unabh¨angig von FX s . Beweis. ⇐: Induktion. ⇒: Setze D = {A ∈ FX angig} , s : 1A , Xt − Xs unabh¨ [ C= σ({Xs0 ,...,Xsn }) . n∈N 0=s0 <···<sn =s 1
N (m, K) ist die Normalverteilung auf (Rn , B(Rn )) mit Mittelwert m ∈ Rn und Kovarianzmatrix K ∈ Rn×n (n = 1: Varianz K). Siehe G¨ anssler, Stute (1977, Kap. 1.19)
34
Klar: D ist Dynkinsystem, C ⊆ FX s , C ist ∩–stabil. Wir zeigen nun C ⊆ D und schließen dann X FX s = σ(C) = δ(C) ⊆ D ⊆ Fs . Nach Voraussetzung gilt f¨ ur 0 = s0 < · · · < sn = s < t X0 , Xs1 − Xs0 , . . . , Xsn − Xsn−1 , Xt − Xs
unabh¨angig .
Ferner σ({X0 , Xs0 − Xs1 , . . . , Xsn − Xsn−1 }) = σ({X0 , Xs1 , . . . , Xsn }) .
Lemma 2. Sei W Brownsche Bewegung und K = (min(ti , tj ))1≤i,j≤n
(1)
mit paarweise verschiedenen t1 , . . . , tn ∈ I. Dann: Wt1 , . . . , Wtn sind gemeinsam N (0, K)-verteilt. Beweis. Gelte 0 ≤ t1 < · · · < tn . Setze Z = (Wt1 , . . . , Wtn )0 , sowie
Y = (Wt1 − W0 , Wt2 − Wt1 , . . . , Wtn − Wtn−1 )0 1 0 A = ... . . . . 1 ... 1
Mit Beispiel 1 und (iv.b) folgt: Y ist N (0, D)-verteilt mit t1 − 0 0 ... D= . 0 tn − tn−1 Wg. (iii) gilt Z = A · Y . Somit ist Z t1 t1 K = A · D · A0 = .. .
N (m, K)-verteilt mit m = A · 0 = 0 und t1 . . . t1 t2 . . . t2 .. . . .. = (min(ti , tj ))1≤i,j≤n . . . .
t1 t2 . . . tn
Somit: alle Brownschen Bewegungen besitzen dieselben endlich-dimensionalen Randverteilungen. Proposition 1. W ∈ Mc2 und hW it = t. Beweis. 2 Vgl. Beweise f¨ ur den kompensierten Poisson-Prozeß (mit λ = 1), siehe Bsp. I.4 und ¨ Ubung 3.3.b. Zum Nachweis der Martingaleigenschaft ben¨otigt: (iv.a) und E(Wt − Ws ) = 0. Zur Bestimmung der quadratischen Variation ben¨otigt: (iv.a) und E(Wt − Ws )2 = |t − s|. 2
Siehe auch Karatzas, Shreve (1999, Exercise I.5.20)
35
1
Eine Konstruktion der Brownschen Bewegung
Hier: mit Hilfe des Konsistenzsatzes von Kolmogorov. Bemerkung 2. Nach Satz 16 existiert ein Wahrscheinlichkeitsmaß Q auf RI , B(R)I , ft (ω) := ω(t) gilt: sodaß f¨ ur die Koordinatenabbildung W f0 = 0 Q-f.s., (i) W f besitzt unabh¨angige Inkremente, (ii) W ft − W fs ist N (0, t − s)-verteilt f¨ (iii) W ur 0 ≤ s < t. f ist viel zu groß. Die anderen Eigenschaften der BrownProblem: Der Pfadraum von W schen Bewegung (bzgl. der kanonischen Filtration) sind hingegen erreicht. Frage: Gilt C(I) ∈ B(R)I und P (C(I)) = 1? Antwort: Nein, es ist im Gegenteil ∀ A ∈ B(R)I :
A ⊂ C(I)
⇒
A = ∅.
f zu einer ’besseren’ Modifikation3 . ¨ L¨osung: Ubergang von W et )t∈[0,T ] erf¨ Satz 1 (Kolmogorov-Chentsov). Der Prozeß (X ulle4 es − X et |α E|X < ∞. 1+β s,t∈[0,T ] |s − t|
∃ α, β > 0 : sup
e sodaß Dann existiert f¨ ur jedes γ < β/α eine Modifikation (Xt )t∈[0,T ] von X, |Xs − Xt | α <∞. E sup γ t6=s |s − t|
(2)
Insbesondere sind alle Pfade von X H¨older-stetig mit Exponent γ. Beweis. Der Einfachheit halber sei T = 1. F¨ ur m ∈ N betrachten wir die Menge Dm := { und D :=
S
m
i : i = 0, . . . , 2m − 1} 2m
Dm . Weiter sei ∆m := {(s, t) : s, t ∈ Dm , |s − t| ≤ 2−m } .
Offenbar gilt |∆m | ≤ 3 · 2m . Wir definieren nun die zuf¨alligen Gr¨oßen es − X et | . Sj := sup |X (s,t)∈∆j
Die Voraussetzung garantiert, daß X es − X et |α ≤ C · 3 · 2j−j(1+β) ≤ (3C)2−βj . E Sjα ≤ E |X (s,t)∈∆j 3 4
Erinnerung: X ist Modifikation von Y gdw. ¶(Xt = Yt ) = 1 f¨ ur alle t. Versch¨ arfung f¨ ur Gauß-Prozesse, siehe Adler (1981).
36
(3)
F¨ ur s ∈ D und m ∈ N setze sm = 2−m (b2m ·sc) ∈ Dm , wobei bxc die Gaußklammer sei. Dann gilt sm ≤ s und |s − sm | ≤ 2−m sowie (sm , sm+1 ) ∈ ∆m+1 f¨ ur alle m, und sm = s −m f¨ ur m ≥ m0 (s). Seien nun t, s ∈ D mit |t − s| ≤ 2 . Dann folgt (sm , tm ) ∈ ∆m−1 , und wegen X X es − X et = es − X es ) + X e sm − X etm + et − X et ) , (X X (X j+1 j j j+1 m≤j≤m0 (t)
m≤j≤m0 (s)
erhalten wir es − X et | ≤ Sm−1 + 2 |X
X
Sj ≤ 2
j>m
X
Sj .
j≥m−1
et − X es |/|t − s|γ : s, t ∈ D, s 6= t}; dann folgt Nun sei Mγ := sup{|X et − X es | : s, t ∈ D, s 6= t}} Mγ ≤ sup {2(m+1)γ sup{|X m∈N (m+1)γ
≤ sup {2 · 2
∞ X
m∈N 1+γ
≤ 2
Sj }
j=m−1 ∞ X
2jγ Sj .
j=0
Wir unterscheiden nun zwei F¨alle. Ist α < 1, so ist (x + y)α ≤ xα + y α , und damit folgt ∞ ∞ X X α α+αγ jαγ α e E Mγ ≤ 2 2 E Sj ≤ C 2j(αγ−β) < ∞ . j=0
j=0
ur fast Ist α ≥ 1, so argumentiert man analog, daß (E Mγα )1/α < ∞. Insbesondere gilt f¨ e· gleichm¨assig stetig ist auf D; sei also Ω0 ∈ A, P(Ω0 ) = 1, sodaß alle ω ∈ Ω, daß X et (ω) stetig ist. Wir definieren f¨ ur ω ∈ Ω0 der Pfad X n es (ω) . / Ω0 , lim s→t X Xt (ω) := 0 ω ∈ s∈D
Offenbar hat X gleichm¨aßig stetige Pfaden auf [0, 1) und ist stetig nach [0, 1] fortsetzbar. Weiter ist sicher |Xt − Xs | α |Xt − Xs | α E sup = E sup <∞, γ |t − s|γ t6=s t6=s |t − s| t,s∈D
et ) = 1. Sei sm eine Folge in und es bleibt zu zeigen, daß f¨ ur jedes feste t gilt: P(Xt = X e sm → X et in Lα , und nach Fatous D mit sm → t. Aus der Voraussetzung folgt, daß X es et fast sicher; andererseits gilt Lemma existiert eine Teilfolge sπ(m) , sodaß X →X π(m) es mit Wahrscheinlichkeit 1, daß X = Xsπm f¨ ur alle m, also folgt π(m) esπ → Xt ) = 1 , P(X m et ) = 1. und damit P(Xt = X 37
et )t∈[0,∞[ ein stochastischer Prozeß mit Korollar 1. Ist (X es − X et |α E|X <∞, 1+β s,t∈[0,T ] |s − t|
∃ α, β > 0 : sup
e die lokal γ–H¨olderstetig so existiert f¨ ur jedes γ < β/α eine Modifikation X von X, ist. Satz 2. Es existiert eine Brownsche Bewegung; diese kann als B = (Bt ) mit Bt : (RI , B(R)I , Q) → (R, BR) und Filtration F = FB gew¨ahlt werden. F¨ ur jedes γ < 12 sind die Pfade einer Brownschen Bewegung f.s. lokal H¨older-stetig mit ¨ Exponent γ, siehe Ubung 8.1. Wir sehen sp¨ater, daß diese Glattheitsaussage scharf – bis auf logarithmische Terme – ist.
2
Das Wiener Maß und das Donskersche Invarianzprinzip
2.1
Das Wiener-Maß
Zun¨achst: das kanonische Modell f¨ ur die Brownsche Bewegung. Setze
∞ X 1 max min(|f1 (t) − f2 (t)|, 1), ρ(f1 , f2 ) = 2n t∈[0,n] n=1
fi ∈ C(I).
Proposition 2. (C(I), ρ) ist ein vollst¨andiger separabler metrischer Raum5 . Beweis. Unter Verwendung der entsprechenden Eigenschaften im kompakten Fall. Wir betrachten im folgenden stets obige Metrik auf C(I) und die zugeh¨orige Topologie samt Borelscher σ-Algebra B(C(I)).6 Proposition 3. B(C(I)) = σ({f 7→ f (t) : t ∈ I}). Beweis. Sei G = σ({f 7→ f (t) : t ∈ I}). F¨ ur jedes t ∈ I ist f 7→ f (t) stetig und somit Borel-meßbar. Also folgt: G ⊂ B(C(I)). Wir zeigen: G enth¨alt alle offenen Kugeln.
(4)
Ersetze in ρ(·, f0 ) die Maxima u ¨ber [0, n] durch die Suprema u ¨ber [0, n] ∩ Q. Man erh¨alt so eine G-meßbare Abbildung ρe(·, f0 ), und es gilt ρ(·, f0 ) = ρe(·, f0 ). Hiermit folgt (4). 5
Konvergenz: gleichm¨ aßige Konvergenz auf beliebigen Kompakta. Also: C(I) polnischer Raum. Erinnerung: Regularit¨at von endlichen Borel-Maßen auf polnischen R¨aumen, regul¨ are bedingte Wahrscheinlichkeiten. 6
38
In jedem separablen metrischen Raum gilt: jede offene Menge ist abz¨ahlbare Vereinigung von offenen Kugeln. Mit (4) folgt: G enth¨alt alle offenen Teilmengen von C(I). Also: B(C(I)) ⊂ G. Obige Ergebnisse gelten analog7 im Falle einer Indexmenge [0, T ]. F¨ ur A ⊂ C(I) A ∈ σ({f 7→ f (t) : t ∈ [0, T ]})
⇔
∃ B ∈ B(C([0, T ])) : A = {f |[0,T ] ∈ B}. (5)
Betrachte Prozeß (Xt )t∈I mit stetigen Pfaden auf einem Wahrscheinlichkeitsraum (Ω, A, P ). Dann ist Ψ : Ω → C(I) : ω 7→ X· (ω) wohldefiniert und Proposition 3 sichert die A-B(C(I))-Meßbarkeit von Ψ. Definition 2. In obiger Situation heißt ΨP die Verteilung 8 von X (auf dem Raum (C(I), B(C(I)))). Lemma 3. Gegeben Prozesse X (i) auf (Ω(i) , A(i) , P (i) ) mit stetigen Pfaden, i = 1, 2. Dann sind ¨aquivalent (i) X (1) , X (2) besitzen dieselben endlich-dimensionalen Randverteilungen, (ii) die Verteilungen von X (1) und X (2) stimmen u ¨berein. Beweis. (ii) ⇒ (i)“ klar. ” (i) ⇒ (ii)“: Die Zylindermengen ” {f ∈ C(I) : (f (t1 ), . . . , f (tn )) ∈ A} mit n ∈ N, ti ∈ I und A ∈ B(Rn ) bilden gem¨aß Proposition 3 einen ∩-stabilen Erzeuger von B(C(I)). Nach Voraussetzung stimmen hierauf die Verteilungen von X (1) und X (2) u ur Wahrscheinlichkeitsmaße, ¨berein. Verwende den Eindeutigkeitssatz f¨ siehe G¨anssler, Stute (1977, Satz 1.4.10). Definition 3. Das Wiener-Maß P∗ ist die Verteilung einer Brownschen Bewegung. Wir halten fest: der durch Wt (f ) = f (t) auf (C(I), B(C(I)), P∗ ) definierte Prozeß ist eine Brownsche Bewegung bez¨ uglich seiner kanonischen Filtration; genannt: das kanonische Modell der Brownschen Bewegung. Der Beweis von (iv.a) beruht auf Lemma 1; der Rest ist klar. Siehe (5) zur kanonischen Filtration.
2.2
Schwache Konvergenz
Im folgenden: (M, ρ) metrischer Raum mit Borelscher σ-Algebra B(M ). Bez.: M(M ) Menge aller Wahrscheinlichkeitsmaße auf (M, B(M )). 7 8
Normierter Raum (C([0, T ]), k · k∞ ). ΨP (A) = P (Ψ−1 A) = P ({ω ∈ Ω : X· (ω) ∈ A}) f¨ ur A ∈ B(C(I)).
39
Definition 4. Folge (Pn )n∈N in M(M ) konvergiert schwach gegen P ∈ M(M ), falls Z Z lim φ dPn = φ dP (6) n→∞
M
M
f¨ ur alle stetigen beschr¨ankten Abbildungen φ : M → R. Bez.: Pn → P . Erinnerung Zentraler Grenzwertsatz: schwache Konvergenz der Verteilungen von standardisierten Partialsummen gegen die Standard-Normalverteilung. ¨ Proposition 4. Aquivalent sind9 (i) Pn → P , (ii) (6) gilt f¨ ur alle gleichm¨aßig stetigen beschr¨ankten Abbildungen φ : M → R. (iii) ∀ A ⊂ M offen : (iv) ∀ A ∈ B(M ) :
lim inf Pn (A) ≥ P (A), n→∞
P (∂A) = 0 ⇒ lim Pn (A) = P (A). n→∞
Beweis. Siehe G¨anssler, Stute (1977, p. 342–344). Bemerkung 3. Der schwache Grenzwert bestimmt; gilt n¨amlich f¨ ur zwei R ist eindeutig R Wahrscheinlichkeitsmaße P1 , P2 , daß f dP1 = f dP2 f¨ ur alle stetigen bechr¨ankten f , und ist A ⊆ M eine abgeschlossene Menge, so sei d(x, A) := inf a∈A d(x, a). Dann sind die Funktionen fn (x) := 1 − ((n · d(x, A)) R ∧ 1) stetig Rund durch 1 bechr¨ankt und konvergieren punktweise gegen 1A , sodaß 1A f dP1 = 1A dP2 folgt, mit anderen Worten P1 (A) = P2 (A). Fortan sei (M, ρ) vollst¨andig und separabel. Proposition 5. Es existiert eine Metrik ∆ auf M(M ), so daß (M(M ), ∆) vollst¨andig und separabel ist und Pn → P
⇔
lim ∆(Pn , P ) = 0
n→∞
f¨ ur alle P, P1 , . . . ∈ M(M ) gilt. Beweis. Siehe Parthasarathy (1967, Sec. II.6). Im folgenden stets obige Metrik auf M(M ). Definition 5. Π ⊂ M(M ) heißt straff, falls ∀ ε > 0 ∃ K ⊂ M kompakt ∀ P ∈ Π : P (K) ≥ 1 − ε. Klar: einelementige Teilmengen sind straff. Satz 3 (Prohorov). F¨ ur Π ⊂ M(M ) Π relativ kompakt
⇔
Beweis. Siehe Parthasarathy (1967, p. 48–49). 9
Notation: ∂A Rand von A.
40
Π straff.
2.3
Das Donskersche Invarianzprinzip
Funktionale Version des Zentralen Grenzwertsatzes. Gegeben (ξj )j∈N reellwertig, iid. auf Wahrscheinlichkeitsraum (Ω, A, P ) mit E(ξj2 ) = σ 2 ∈ ]0, ∞[ .
E(ξj ) = 0, Definiere X : Ω → C(I) durch10 k X
X(ω)(k) =
k ∈ N0 ,
ξj (ω),
j=1
und X(ω)(t) = (t − k) · X(ω)(k + 1) + (k + 1 − t) · X(ω)(k) = X(ω)(k) + (t − k) · ξk+1 ,
t ∈ [k, k + 1].
Skaliere wie folgt 1 X (n) (ω)(t) = √ · X(ω)(n · t), σ n
t ∈ I, n ∈ N.
Proposition 3 sichert die A-B(C(I))-Meßbarkeit von X und X (n) , und diese Abbildungen definieren Prozesse mit stetigen Pfaden11 . F¨ ur s = k/n und t = `/n mit k, ` ∈ N0 und k < ` gilt (n)
Xt
1 − Xs(n) = √ · (ξk+1 + · · · + ξ` ). σ n
Also (n)
E(Xt (n)
und Xt
(n)
− Xs
− Xs(n) ) = 0,
(n)
E(Xt
− Xs(n) )2 = t − s,
ist unabh¨angig von FX s
(n)
= σ({ξ1 , . . . , ξk }).
Beachte (n) X1
=
n X k=1
1 √ · ξk . σ n
Der Zentrale Grenzwertsatz zeigt (n)
X1 P → N (0, 1). Satz 4 (Donsker). Sei Pn = X (n) P die Verteilung von X (n) , und sei P∗ das WienerMaß. Dann P n → P∗ . 10 11
St¨ uckweise lineare Interpolation der zugeh¨origen Irrfahrt. Schreibe Xt (ω) = X(ω)(t). Analog f¨ ur X (n)
41
Beweisskizze. Details bei Karatzas, Shreve (1999, Sec. 2.4). Wg. Proposition 5 ist zu zeigen: jede Teilfolge von (Pn )n∈N besitzt eine Teilfolge, die gegen P∗ konvergiert. Betrachte den Stetigkeitsmodul mt (f ; δ) = sup{|f (r) − f (s)| : r, s ∈ [0, t], |r − s| ≤ δ}) von f ∈ C(I) auf [0, t]. Satz 3 und der Satz von Arzela-Ascoli f¨ uhren auf folgendes ¨ Kompaktheitskriterium f¨ ur beliebige Folgen (Qn )n∈N in M(C(I)). Aquivalent sind 1. {Qn : n ∈ N} straff, 2. lim sup Qn ({|f (0)| > λ}) = 0
λ→∞ n∈N
und lim sup Qn ({mt (f ; δ) > ε}) = 0
δ→0 n∈N
f¨ ur alle ε > 0 und t ∈ I. Man verifiziert 2.) f¨ ur Pn = Qn , und somit gilt: jede Teilfolge von (Pn )n∈N besitzt eine konvergente Teilfolge. Betrachte nun die endlich-dimensionalen Randverteilungen“ der Maße Pn . Dazu sei ” πt1 ,...,tk : C(I) → Rk : f 7→ (f (t1 ), . . . , f (tk )) f¨ ur k ∈ N und t1 , . . . , tk ∈ I paarweise verschieden. F¨ ur alle k und ti zeigt man πt1 ,...,tk Pn → N (0, K), wobei K durch (1) gegeben ist12 . Damit folgt die Unabh¨angigkeit des Grenzwertes von den betrachteten Teilfolgen, vgl. Bemerkung 18 (ii). Ebenso folgt, daß dieser Grenzwert das Wiener-Maß ist. Beachte: Obiger Beweis beinhaltet eine weitere Konstruktion der Brownschen Bewegung (und des Wiener-Maßes). Satz 4 erm¨oglicht die n¨aherungsweise Berechnung von Funktionalen der Brownschen Bewegung z. Bsp. mittels Monte-Carlo-Methoden (Simulation von Irrfahrten).
3
Markov-Eigenschaft der Brownschen Bewegung
Gegeben: Wahrscheinlichkeitsraum (Ω, A, P ) mit Filtration F = (Ft )t∈I sowie d ∈ N und Wahrscheinlichkeitsmaß µ auf (Rd , B(Rd )). 12
F¨ ur k = t1 = 1 ist dies der Zentrale Grenzwertsatz.
42
3.1
Mehrdimensionale Brownsche Bewegung
Definition 6. W = (Wt )t∈I d-dimensionale Brownsche Bewegung bzgl. F mit Startverteilung µ, falls (i) W Rd -wertig mit stetigen Pfaden, (ii) W adaptiert an F, (iii) W0 P = µ, (iv) f¨ ur 0 ≤ s < t ist Wt − Ws (a) unabh¨angig von Fs , (b) N (0, (t − s) Idd )-verteilt. Speziell falls µ({x}) = 1: d-dimensionale Brownsche Bewegung mit Startpunkt x ∈ Rd . (1) (d) mit StartF¨ ur jede d-dimensionale Brownsche Bewegung W = Wt , . . . , Wt t∈I (1) (d) (1) (d) punkt x = (x , . . . , x ) gilt: W , . . . , W sind unabh¨angige Brownsche Bewegungen der Dimension eins mit Startpunkten x(1) , . . . , x(d) . Konstruktion13 : Ω = (C(I))d , A = (B(C(I)))d , Wt ((f1 , . . . , fd )) = (f1 (t), . . . , fd (t)) mit kanonischer Filtration, P 0 d-faches Produkt des Wiener-Maßes, Wahrscheinlichkeitsmaß P = P µ auf (Ω, A) definiert durch14 Z µ P (A) = P 0 (A − x) dµ(x), A ∈ A. (7) {z } Rd | =P x (A)
Siehe Karatzas, Shreve (1999, p. 72) zur B(Rd )-B([0, 1])-Meßbarkeit von x 7→ P x (A). Im Sinne der schwachen Konvergenz kann eine d-dimensionale Brownsche Bewegung durch eine d-dimensionale Irrfahrt approximiert werden. µ
Definition 7. Sei M metrischer Raum und µ ∈ M(M ). Bezeichne mit B(M ) die µ-Vervollst¨andigung von B(M ). Dann heißt \ µ B(M ) U(M ) = µ∈M(M )
die σ-Algebra der universell meßbaren Mengen. Kurz: universelle Meßbarkeit f¨ ur k U(M )-B(R )-Meßbarkeit. Definition 8. d-dimensionale Brownsche Familie ist eine Familie (Wt )t∈I von Abbildungen Wt : Ω → Rd und eine Familie (P x )x∈Rd von Wahrscheinlichkeitsmaßen auf (Ω, A), so daß gilt 13 14
Es gilt (B(C(I)))d = B(C(I)d ), siehe G¨anssler, Stute (1977, Satz 1.3.13). Vgl. Faltung.
43
(i) f¨ ur alle A ∈ A: x 7→ P x (A) universell meßbar, (ii) f¨ ur alle x ∈ Rd : (Wt )t∈I ist Brownsche Bewegung mit Startwert x auf (Ω, A, P x ). Konstruktion: siehe oben; hier wird sogar die Borel-Meßbarkeit in (i) erreicht. Eine Brownsche Familie liefert Brownsche Bewegungen mit beliebigen Startverteilungen gem¨aß (7).
3.2
Markov-Prozesse
Motivation: Ged¨achtnislosigkeit“ von Irrfahrten. ” Definition 9. Rd -wertiger adaptierter Prozeß X = (Xt )t∈I heißt Markov-Prozeß mit Startverteilung µ, falls (i) X0 P = µ, (ii) f¨ ur s, t ≥ 0 und Γ ∈ B(Rd ) P ({Xs+t ∈ Γ} | Fs ) = P ({Xs+t ∈ Γ} | Xs ). Speziell falls µ({x}) = 1: Markov-Prozeß mit Startpunkt x ∈ Rd . Analog f¨ ur Teilmengen von [0, ∞[ als Indexmengen, insbesondere f¨ ur die diskrete Indexmenge N0 . Proposition 6. Sei X Markov-Prozeß. Setze Bs = σ({Xu : u ≥ s}). Dann (i) f¨ ur s ∈ I und A ∈ Bs P (A | Fs ) = P (A | Xs ), (ii) f¨ ur s ∈ I und Y Bs -meßbar mit E(|Y |) < ∞ E(Y | Fs ) = E(Y | Xs ). Beweis. ad (i): siehe Karatzas, Shreve (1999, p. 76, 77). ad (ii): algebraische Induktion unter Verwendung von (i). Definition 10. d-dimensionale Markov-Familie ist eine Familie (Xt )t∈I von Abbildungen Xt : Ω → Rd und eine Familie (P x )x∈Rd von Wahrscheinlichkeitsmaßen auf (Ω, A), so daß gilt (i) f¨ ur alle A ∈ A: x 7→ P x (A) universell meßbar, (ii) f¨ ur alle x ∈ Rd : (Xt )t∈I ist Markov-Prozeß mit Startwert x auf (Ω, A, P x ), (iii) f¨ ur x ∈ Rd , s, t ≥ 0 und Γ ∈ B(Rd ) gilt P x ({Xs+t ∈ Γ} | Xs = y) = P y ({Xt ∈ Γ}) f¨ ur Xs P x f.a. y ∈ Rd . 44
Proposition 7. Jede d-dimensionale Brownsche Bewegung ist ein Markov-Prozeß. Jede d-dimensionale Brownsche Familie ist eine Markov-Familie. Beweis. Betrachte d-dimensionale Zufallsvektoren X, Y auf (Ω, A, P ) und eine σAlgebra G ⊂ A. Gelte: X und G unabh¨angig, Y G-B(Rd )-meßbar. Dann folgt f¨ ur d Γ ∈ B(R ) P ({X + Y ∈ Γ} | G) = P ({X + Y ∈ Γ} | Y ) (8) und f¨ ur Y P -f.a. y ∈ Rd P ({X + Y ∈ Γ} | Y = y) = P ({X + y ∈ Γ}),
(9)
siehe Karatzas, Shreve (1999, p. 121). Anwendung: G = Fs , X = Ws+t − Ws , Y = Ws . Mit (8) folgt: W ist Markov-Prozeß. Ferner liefert (9) P x ({Ws+t ∈ Γ} | Ws = y) = P x ({Ws+t − Ws + y ∈ Γ}). Die Verteilung von Ws+t − Ws + y bzgl. P x ist N (y, t Idd ) und stimmt folglich mit der Verteilung von Wt bzgl. P y u ¨berein. Bemerkung 4. Es gilt weder Markov-Prozeß ⇒ Martingal“ noch Martingal ⇒ ” ” Markov-Prozeß“. Gegenbeispiel zur ersten Implikation: Poisson-Prozeß; Beweis siehe oben. Gegenbeispiel zur zweiten Implikation: ¨ Ubung 7.4.
3.3
Starke Markov-Eigenschaft und Spiegelungsprinzip
Betrachte eine eindimensionale Brownsche Bewegung W bzgl. F und ihre Niveauzeiten Tb (ω) = inf{t ∈ I : Wt (ω) = b},
b ∈ R.
Diese sind Stoppzeiten, siehe Proposition I.5.(ii). Fragen: Wie lautet die Verteilung von Tb ? Gilt insbesondere Tb < ∞ P -f.s.? Im Falle einer positiven Antwort: ist (WTb +t −WTb )t∈I eine Brownsche Bewegung und unabh¨angig von FTb ? Setze Ft+ =
\
Ft+ε
ε>0
sowie FT + = {A ∈ A : ∀ t ∈ I : A ∩ {T ≤ t} ∈ Ft+ } f¨ ur optionale Zeiten T : Ω → I ∪ {∞}. Bemerkung 5. (i) (Ft+ )t∈I ist rechtsseitig stetige Filtration mit Ft ⊂ Ft+ , (ii) T optionale Zeit bzgl. F ⇔ T Stoppzeit bzgl. F+ 45
(iii) FT + ist σ-Algebra. Ferner FT ⊂ FT + f¨ ur Stoppzeiten T . Definition 11. Optionale Zeit T heißt P -endlich, falls P ({T < ∞}) = 1. Definition 12. Rd -wertiger progressiv meßbarer Prozeß X = (Xt )t∈I heißt starker Markov-Prozeß mit Startverteilung µ, falls (i) X0 P = µ, (ii) f¨ ur t ≥ 0, Γ ∈ B(Rd ) und jede P -endliche optionale Zeit S gilt P ({XS+t ∈ Γ} | FS+ ) = P ({XS+t ∈ Γ} | XS ). Speziell falls µ({x}) = 1: starker Markov-Prozeß mit Startpunkt x ∈ Rd . Definition 13. d-dimensionale starke Markov-Familie ist eine Familie (Xt )t∈I von Abbildungen Xt : Ω → Rd und eine Familie (P x )x∈Rd von Wahrscheinlichkeitsmaßen auf (Ω, A), so daß gilt (i) f¨ ur alle A ∈ A: x 7→ P x (A) universell meßbar, (ii) f¨ ur alle x ∈ Rd : (Xt )t∈I ist starker Markov-Prozeß mit Startwert x auf (Ω, A, P x ), (iii) f¨ ur x ∈ Rd , t ≥ 0, Γ ∈ B(Rd ) und jede P x -endliche optionale Zeit S gilt P x ({XS+t ∈ Γ} | XS = y) = P y ({Xt ∈ Γ}) f¨ ur XS P x f.a. y ∈ Rd . Satz 5. Jede d-dimensionale Brownsche Bewegung ist ein starker Markov-Prozeß. Jede d-dimensionale Brownsche Familie ist eine starke Markov-Familie. Beweis. Siehe Karatzas, Shreve (1999, Sections 2.6 B, C). Im folgenden sei W eine d-dimensionale Brownsche Bewegung und S eine P -endliche optionale Zeit. Satz 6. Durch Bt = WS+t − WS ,
t ∈ I,
wird eine Brownsche Bewegung bez¨ uglich (FB t ) mit Startwert 0 definiert, die unabh¨angig von FS+ ist. Beweis. Siehe Karatzas, Shreve (1999, p. 86, 87). Satz 7 (Spiegelungsprinzip). Sei S Stoppzeit und d = 1. Durch ( Wt falls 0 ≤ t < S Bt = 2WS − Wt falls t ≥ S wird eine Brownsche Bewegung bez¨ uglich (FB t ) mit Startwert 0 definiert. 46
Beweis. Siehe Partzsch (1984, p. 47). Anwendung: Die Verteilungen der Niveauzeiten Tb und damit der Maxima auf kompakten Intervallen [0, u] f¨ ur eine eindimensionale Brownsche Bewegung mit Startwert 0. 15 OBdA b > 0. F¨ ur u > 0 P ({Tb ≤ u}) = P ({ max Wt ≥ b}) t∈[0,u]
= P ({Tb ≤ u} ∩ {Wu ≤ b}) + P ({Tb ≤ u} ∩ {Wu > b}) = P ({Tb ≤ u} ∩ {Wu ≤ b}) + P ({Wu > b}). Mit Satz 7 folgt P ({Tb ≤ u} ∩ {Wu ≤ b}) = P ({Wu ≥ b}). Fazit r
2 Z ∞ 2 y P ({Tb ≤ u}) = 2 · P ({Wu ≥ b}) = · exp − dy πu b 2u r 2 Z ∞ 2 y = · √ exp − dy. π b/ u 2
3.4
Brownsche Filtrationen
Die Filtration im kanonischen Modell der Brownschen Bewegung ist nicht rechtsseitig stetig. Ferner existieren in diesem Modell Mengen A ∈ B(C(I)) mit P∗ (A) = 0 und A 6∈ Ft f¨ ur alle t ∈ I, vgl. ¨ Ubung 8.2. F¨ ur beliebige Filtrationen F = (Ft )t∈I setzen wir ! F∞ = σ
[
Ft .
t∈I
Betrachte einen d-dimensionalen Prozeß X auf (Ω, A, P ) mit seiner kanonischen Filtration FX . Setze NP = {A ⊂ Ω : ∃ B ∈ FX ∞ : A ⊂ B ∧ P (B) = 0}. Nach Einschr¨ankung von P auf FX andigung erh¨alt man ∞ und anschließender Vervollst¨ X P ein Wahrscheinlichkeitsmaß auf σ(F∞ ∪ N ), welches wieder mit P bezeichnet wird. Durch P FPt = σ(FX t ∈ I, t ∪ N ), erh¨alt man eine von X und P abh¨angige Filtration FP , genannt die augmentierte Filtration. Proposition 8. F¨ ur jeden starken Markov-Prozeß erf¨ ullt FP die u ¨blichen Voraussetzungen. 15
Mit W ist auch −W Brownsche Bewegung bzgl. derselben Filtration, siehe Proposition 10.
47
Beweis. Siehe Karatzas, Shreve (1999, p. 90) zum Beweis der rechtsseitigen Stetigkeit. Klar: NP ⊂ FP0 . Proposition 9. F¨ ur jede d-dimensionale Brownsche Bewegung W gilt: W ist auch P bzgl. F eine Brownsche Bewegung. Beweis. Klar. Somit insbesondere konstruiert: eine Brownsche Bewegung unter den u ¨blichen Voraussetzungen u ¨ber die Filtration. Betrachte nun eine Brownsche Familie (Wt )t∈I , (P x )x∈Rd . Definiere P µ gem¨aß (7) sowie \ µ et = F FPt , t ∈ I. µ∈M(Rd )
e ist rechtsseitig stetig und es gilt Klar: die Filtration F µ
P e FW t ⊂ Ft ⊂ Ft .
Satz 8. Jede d-dimensionale Brownsche Familie (Wt )t∈I , (P x )x∈Rd ist auch bzgl. der et )t∈I auf (Ω, F e∞ ) eine d-dimensionale Brownsche Familie. Filtration (F Beweis. Siehe Karatzas, Shreve (1999, p. 93). Im Beweis l¨aßt sich nur die universelle e∞ zeigen. Meßbarkeit der Abbildungen x 7→ P x (F ) f¨ ur alle F ∈ F e heißt auch die universelle Filtration der Brownschen Familie. Obige Filtration F
4
Pfadeigenschaften der Brownschen Bewegung
Im folgenden sei W = (Wt )t∈I eine eindimensionale Brownsche Bewegung mit Startwert 0 auf (Ω, A, P ) bzgl. der Filtration (Ft )t∈I . Proposition 10 (Symmetrie). (−Wt )t∈I ist Brownsche Bewegung bzgl. (Ft )t∈I mit Startwert 0. Proposition 11 (Skalierungsinvarianz). F¨ ur jedes c > 0 definiert 1 Xt = √ · Wc·t , c
t ∈ I,
eine Brownsche Bewegung bzgl. (Fc·t )t∈I mit Startwert 0. Beweise der nachstehenden Fakten finden sich bei Karatzas, Shreve (1999, Chap. 2.9). Proposition 12 (Projektive Spiegelung bei t = ∞). Durch ( t · W (1/t) falls t > 0 Xt = 0 falls t = 0 wird eine Brownsche Bewegung bzgl. FX mit Startwert 0 definiert. 48
Proposition 13 (Zeitumkehr). F¨ ur jedes T > 0 wird durch Xt = WT − WT −t ,
t ∈ [0, T ],
eine Brownsche Bewegung auf [0, T ] bzgl. (FX t )t∈[0,T ] mit Startwert 0 definiert. Proposition 14 (Starkes Gesetz der großen Zahlen). Wt =0 t→∞ t lim
P -f.s.
Proposition 15 (Gesetz vom iterierten Logarithmus). lim sup √ t→∞
Wt =1 2t · ln ln t
P -f.s.
Proposition 16 (H¨ older-Stetigkeit und Nichtdifferenzierbarkeit). P -f.s. gilt: W in keinem Punkt H¨older-stetig mit Exponent γ > 1/2. Vgl. Abschnitt 1. Proposition 17 (L´ evyscher Stetigkeitsmodul). m1 (W ; δ) lim sup √ =1 δ→0 2δ · ln δ −1
P -f.s.
Betrachte die Niveaumengen Zb (ω) = {t ∈ I : Wt (ω) = b}. Proposition 18. P -f.s. gilt: Zb ist abgeschlossen und unbeschr¨ankt, hat LebesgueMaß null besitzt den H¨aufungspunkt null f¨ ur b = 0 und keine isolierten Punkte in ]0, ∞[.
49
Kapitel III Stochastische Integration Literatur: Karatzas, Shreve (1999, Chap. 3). Gegeben: Wahrscheinlichkeitsraum (Ω, A, P ) mit Filtration1 F = (Ft )t∈I f¨ ur I = [0, ∞[, die den u blichen Voraussetzungen gen¨ u gt, sowie Prozesse X = (X ) ¨ t t∈I und c M = (Mt )t∈I ∈ M2 . Speziell: M = W eindimensionale Brownsche Bewegung mit Startwert 0.
1
Konstruktion des stochastischen Integrals
Die S¨atze I.11 und I.12 zeigen in nichttrivialen F¨allen2 f¨ ur alle t > 0: P -f.s. ist M von unbeschr¨ankter Variation auf [0, t]. Somit ist eine pfadweise Definition von stochastischen Integralen Z t Xu (ω) dMu (ω), t ∈ I, ω ∈ Ω, It (X)(ω) = 0
i.a. nicht m¨oglich.
1.1
Integral fu ¨ r einfache Prozesse
Definition 1.
(i) X = (Xt )t∈I heißt einfach, falls es 0 = t0 < t1 < . . . ,
lim ti = ∞
i→∞
und Zufallsvariablen ξi auf (Ω, A, P ) gibt, so daß sup sup |ξi (ω)| < ∞ ω∈Ω i∈N0 1 2
Im folgenden Adaptiertheit und Martingaleigenschaft stets bzgl. dieser Filtration. Insbesondere f¨ ur M = W .
50
und ∀ i ∈ N0 :
ξi Fti -meßbar,
und
∞ X
Xt (ω) = ξ0 (ω) · 1{0} (t) +
ξi (ω) · 1]ti ,ti+1 ] (t) .
(1)
i=0
Bez.: L0 Vektorraum der einfachen Prozesse. (ii) F¨ ur X einfach mit Darstellung (1) setze das stochastische Integral von X bzgl. M auf [0, t]: It (X)(ω) :=
n−1 X
ξi (ω) · (Mti+1 (ω) − Mti (ω)) + ξn (ω) · (Mt (ω) − Mtn (ω)),
i=0
=
X
ξi · (Mt∧ti+1 − Mt∧ti ).
i∈N0
Lemma 1. Sei A = (At )t∈I stetig und wachsend. Dann sind a¨quivalent (i) ∀ 0 ≤ s < t :
E((Mt − Ms )2 | Fs ) = E(At − As | Fs ),
(ii) A = hM i. Beweis. (ii) ⇒ (i)“ siehe Beweis von Satz I.11. ” (i) ⇒ (ii)“: folgt aus ” E(Mt2 | Fs ) − Ms2 = E((Mt − Ms )2 | Fs ) = E(At | Fs ) − As und der Eindeutigkeitsaussage f¨ ur die Doob-Meyer-Zerlegung von M 2 . Proposition 1. (i) It (·) ist wohldefiniert und linear auf L0 , (ii) f¨ ur X ∈ L0 gilt (It (X))t∈I ∈ Mc2 und3 Z hI(X)it =
t
Xu2 dhM iu ,
0
(iii) f¨ ur X ∈ L0 gilt Z
2
E(It (X) ) = E
t
Xu2
dhM iu .
0
Beweis. ad (i): klar. ad (ii): F¨ ur 0 ≤ s < t und i ∈ N0 gilt4 E(ξi · (Mt∧ti+1 − Mt∧ti ) | Fs ) = ξi · (Ms∧ti+1 − Ms∧ti ). 3 4
Das rechts stehende Integral ist pfadweise als klassisches Riemann–Stieltjes–Integral definiert Fallunterscheidung; siehe auch ¨ Ubung 4.2.
51
t ∈ [tn , tn+1 ]
Hiermit folgt die Martingaleigenschaft von I(X), und jetzt ist klar: I(X) ∈ Mc2 . Durch
Z At =
t
Xu2 dhM iu
0
wird offenbar ein wachsender stetiger Prozeß definiert. Zu zeigen bleibt die Martingaleigenschaft von I(X)2 − A. Gelte s ∈ [tm−1 , tm [ und t ∈ [tn , tn+1 [, also m − 1 ≤ n. 1. Fall: m − 1 < n. Dann It (X) − Is (X) = ξm−1 · (Mtm − Ms ) +
n−1 X
ξi · (Mti+1 − Mti ) + ξn · (Mt − Mtn ).
i=m
Gelte 0 ≤ s < t ≤ u < v und sei Y beschr¨ankt und Fu -meßbar. Dann E(Y · (Mv − Mu ) · (Mt − Ms ) | Fu ) = 0. Mit Lemma 1 folgt E((It (X) − Is (X))2 | Fs ) n−1 X 2 2 2 2 2 2 = E ξm−1 · (Mtm − Ms ) + ξi · (Mti+1 − Mti ) + ξn · (Mt − Mtn ) | Fs =E
2 ξm−1
i=m n−1 X
· (hM itm − hM is ) +
ξi2
· (hM iti+1 − hM iti ) +
ξn2
· (hM it − hM itn ) | Fs
i=m
Z =E
t
Xu2
dhM iu | Fs
= E(At − As | Fs ).
(2)
s
Wende nochmals Lemma 1 an. 2. Fall: m − 1 = n. Einfacher. ad (iii): W¨ahle s = 0 und integriere (2).
1.2
Fortsetzung des Integrals
Wir definieren zun¨achst I f¨ ur eine Klasse von Prozessen, die L0 umfaßt, wobei insbesondere die Eigenschaften aus Proposition 1 erhalten bleiben. Betrachte das durch Z Z
∞
1A (u, ω) dhM iu (ω) dP (ω)
µM (A) = Ω 0
definierte5 MaßµM auf (I × Ω, B(I) ⊗ A). Im Spezialfall M = W erh¨alt man µW = λ ⊗ P, wobei λ das Lebesgue-Maß bezeichnet. 5
µM ist wohldefiniert, siehe G¨ anssler, Stute (1977, Kap. 1.8) oder ¨ Ubung 9.4.
52
Definition 2. Sei X meßbar und adaptiert. Setze6 Z t Z 2 2 [X]t = E Xu dhM iu = 1[0,t] · Xu2 (ω) dµM (t, ω) 0
I×Ω
sowie [X] =
∞ X
2−t · (1 ∧ [X]t ).
t=1 ∗
∗
Sei L = L (M ) der Vektoraum der meßbaren progressiv meßbaren Prozesse X mit [X]t < ∞ f¨ ur alle t ∈ I (also [X] < ∞). Offenbar ist L0 ⊂ L∗ . Wir betrachten fortan stets die durch [X − Y ] definierte Metrik auf L∗ . Wir erinnern an den Lebesgueschen Differentiationssatz: Satz 1 (Lebesgue). Es sei f eine Lebesgue-integrable Funktion auf (0, ∞). Dann gilt f¨ ur Lebesgue–fast alle Punkte t > 0, daß Z t lim f (y) dy = f (t) . h→0
t−h
Lemma 2. Sei X meßbar, adaptiert und beschr¨ankt durch c ≥ 0. Dann existiert eine Folge (X (n) )n∈N von durch c beschr¨ankten Prozessen in L0 mit Z t (n) 2 (Xu − Xu ) du = 0. ∀t∈I: lim E n→∞
0
Beweis. 1. Fall: X stetig. Interpolation durch Treppenfunktionen, Lebesguescher Grenzwertsatz. 2. Fall: X progressiv meßbar. Setze7 Z s∧t Ys (ω) = Xu (ω) du, Zs(m) (ω) = m · Ys (ω) − Y(s−1/m)∨0 (ω) 0
f¨ ur m ∈ N. Es gilt: Y , Z (m) sind stetig, adaptiert, und damit progressiv meßbar, und Z (m) ist beschr¨ankt durch c. Der Lebesguesche Differentiationssatz sichert (m) ∀ ω ∈ Ω : lim Z· (ω) = X· (ω) λ-f.s. , m→∞
und deshalb lim Z (m) = X
m→∞
λ ⊗ P -f.s.
Mit dem Lebesgueschen Grenzwertsatz folgt Z t (m) 2 lim E (Xu − Zu ) du = 0. m→∞
6 7
0
[X]t ist L2 -Norm von 1[0,t] · X bzgl. µM . Notation: ∨ f¨ ur max.
53
Approximiere Z (m) geeignet gem¨aß Fall 1.). 3. Fall: X meßbar, adaptiert. Wir zeigen, daß Y wiederum adaptiert ist. Jeder Prozeß e siehe Karatzas, Shreve X wie oben besitzt eine progressiv meßbare Modifikation X, (1999, Prop. I.1.12). Wir zeigen, daß durch Z s∧t e eu (ω) du, Ys (ω) = X s ∈ I, 0
eine Modifikation des oben definierten Prozesses Y gegeben ist. Betrachte den adaptierten meßbaren Prozeß s ∈ I.
ηs (ω) = 1{Xs 6=Xes } (ω), Es gilt Z E
t
ηu du
Z =
0
t
Z
0
und somit
t
eu }) du = 0 P ({Xu 6= X
E(ηu ) du = 0
Z
t
P
ηu du = 0 = 1.
0
Weiterhin
Z
t
{Ys 6= Yes } ⊂
ηu du > 0 .
0
Also ist Ye eine Modifikation von Y , und unter den u ¨blichen Voraussetzungen ist mit e Y auch Y adaptiert. Fahre fort wie im 2. Fall. Proposition 2. L0 liegt dicht in L∗ . ¨ Beweis. Analog zu der Uberlegung im Beweis von Lemma 2 m¨ ussen wir nur zu festem [m] [m] T > 0 eine Folge von Elementen X ∈ L0 finden mit [X −X ]T → 0. Weiter k¨onnen (K) wir ohne Einschr¨ankung annehmen, daß X beschr¨ankt ist, denn Xt := Xt · 1|Xt |>K ist auch progressiv meßbar, und nach dem Satz von der monotonen Konvergenz folgt [X − X (K) ]T → 0. Sei also |Xt (ω)| ≤ C f¨ ur t ∈ [0, T ], ω ∈ Ω, und sei ObdA Xt (ω) = 0, t > T . Weiter ist Vt := hM it + t stetig und f¨ ur P –fast alle ω ∈ Ω streng wachsend; obdA sei f¨ ur alle ω ∈ Ω hM i nichtfallend und ≥ 0, also Vt (ω) streng wachsend. Dann existiert f¨ ur jedes ω ∈ Ω eine stetige, streng wachsende Funktion Ts (ω), sodaß VTs (ω) (ω) = hM iTs (ω) + Ts (ω) = s f¨ ur alle s. Insbesondere gilt • Ts (ω) ≤ s, • {Ts ≤ t} = {hM it + t ≥ s} ∈ Ft , also ist Ts Stopzeit f¨ ur jedes s. Setze Gs := FTs und Ys (ω) := XTs (ω) (ω). Nach Proposition I.68 ist Y ein G–adaptierter Prozeß; weiter l¨aßt sich Ts schreiben als Ts (ω) = sup t · 1{hM it +t≤s} (ω) , t≤s t∈Q
8
Hier geht die progressive Meßbarkeit von X ein.
54
und hieraus erh¨alt man leicht, daß Y meßbar ist. Folglich d¨ urfen wir Lemma 2 anwenden und erhalten, daß f¨ ur ε > 0 und R ∈ R stets ein Y ε ∈ L0 existiert, sodaß Z R E |Ys − Ysε | ds < ε/2 . 0
Weil aber wegen Xt (ω) ≤ C, Xt = 0, t > T leicht folgt, daß Z ∞ Z ∞ 2 E |Ys | ds = E 1{Ts ≤T } |XTs |2 ds 0 0 Z hM iT +T = E |XTs |2 ds 0
≤ C(E hM iT + T ) < ∞ , kann man f¨ ur hinreichend großes R ein Y ε ∈ L0 finden mit Z ∞ E |Ys − Ysε |2 ds < ε ,
Ysε = 0, s ≥ s0 .
0
Wir k¨onnen Ysε als endliche Summe schreiben, Ysε
= ξ0 · 1{0} (s) +
n X
ξsj−1 · 1]sj−1 ,sj ] (s) ,
j=1
mit ξsj meßbar bzgl. Gsj = FTsj und beschr¨ankt. Nun machen wir den Zeitwechsel r¨ uckg¨angig; ε Xtε := YhM it +t = ξ0 · 1{0} (t) +
n X
ξsj−1 · 1]Tsj−1 ,Tsj ] (t) .
j=1
Man verifiziert leicht, daß X ε meßbar und adaptiert ist. Weiter k¨onnen wir absch¨atzen: Z ∞ Z T Z T ε 2 ε 2 |Ysε − Ys |2 ds < ε . E |Xt − Xt | dhM it ≤ E |Xt − Xt | d(hM it + t) ≤ E 0
0
0
Dummerweise ist Xtε kein einfacher Prozeß; daher m¨ ussen wir noch zu guter Letzt zeigen, daß sich ein Prozeß der Gestalt ηt := ξsj−1 · 1]Tsj−1 ,Tsj ] (t) durch einfache Prozesse approximieren lassen. Dies geschieht durch Zeitdiskretisierung. Der Einfachheit halber sei sj−1 = 1, sj = 2. Setze Tim
:=
2m+1 X+1 k=1
k 1](k−1)/2m ,k/2m ] (Ti ), 2m
und definiere ηtm
:= ξ1 · 1]T1m ,T2m ] (t) =
2m+1 X+1
ξ1 · 1T1 <(k−1)/2m ≤T2 1]k−1)/2m ,k/2m ] (t) .
k=1
55
i = 1, 2 ,
Nun ist ξ1 FT1 –meßbar; damit ist ξ1 · 1{T1 <(k−1)/2m } ∈ F(k−1)/2m , und hieraus folgt sofort, daß η m ∈ L0 . Weiter ist t ηt − η m = ξ1 · (1]T1 ,T1m ] − 1]T2 ,T2m ] )(t) ,
und damit ist Z ∞ 0
|ηt − ηtm |2 dhM it ≤ K 2 (hM iT1m − hM iT1 + hM iT2m − hM iT2 ) .
Die rechte Seite geht fast sicher gegen 0 f¨ ur m → ∞ und ist durch 2K 2 hM i3 beschr¨ankt; folglich geht sie im Erwartungswert gegen 0, und also Z ∞ E |ηt − ηtm |2 dt → 0 , 0
wie gew¨ unscht. Falls das Martingal eine glatte quadratische Variation hat, so l¨aßt sich noch eine gr¨oßere Klasse von Prozessen durch einfache approximieren. Es sei L die Menge der meßbaren Prozesse X mit [X] < ∞. Proposition 3. F¨ ur P -f.a. ω sei hM i· (ω) absolutstetig bzgl. λ. Dann liegt L0 dicht in L. Beweis. Sei X ∈ L. 1. Fall: X beschr¨ankt. Sei (X (n) )n∈N gem¨aß Lemma 2 gew¨ahlt. Dann ex. eine Teilfolge (X (nk ) )k∈N und eine Menge A ∈ B(I) ⊗ A mit (nk )
∀ (t, ω) ∈ (I × Ω) \ A :
lim Xt
k→∞
(ω) = Xt (ω)
und (λ ⊗ P )(A) = 0. Es folgt µM (A) = 0, und der Lebesguesche Grenzwertsatz zeigt lim [X − X (nk ) ]t = 0
k→∞
f¨ ur alle t ∈ I. 2. Fall: X beliebig. Lokalisation. Setze (k)
Xt
= Xt · 1{|Xt |≤k} ,
t ∈ I, k ∈ N.
Es gilt lim [X − X (k) ]t = 0.
k→∞
Approximiere die beschr¨ankten Prozesse X (k) gem. Fall 1. Proposition 3 ist insbesondere im Falle M = W anwendbar.
56
Definition 3. F¨ ur Y ∈ Mc2 sei kY k2t = E(Yt2 ), sowie kY k =
∞ X
t ∈ I.
2−t · (1 ∧ kY kt ).
t=1
Beachte: f¨ ur Y ∈ Mc2 ist t 7→ E(Yt2 ) monoton wachsend. Wir identifizieren im folgenden ununterscheidbare Elemente aus Mc2 . Proposition 4. Mc2 ist ein vollst¨andiger metrischer Raum bzgl. der durch (Y, Z) 7→ kY − Zk definierten Metrik. Beweis. Siehe Karatzas, Shreve (1999, p. 37–38). Wir betrachten fortan stets obige Metrik auf Mc2 . Satz 2. Die in Definition 1 eingef¨ uhrte lineare Abbildung I : L0 → Mc2 l¨aßt sich eindeutig zu einer linearen Abbildung I : L∗ → Mc2 mit ∀t∈I:
kI(X)kt = [X]t
(3)
fortsetzen. Es gilt wiederum Z
t
hI(X)it =
Xu2 dhM iu .
0
Beweis. Zu X ∈ L∗ w¨ahle man gem¨aß Proposition 2 eine Folge (X (n) )n∈N in L0 mit limn→∞ [X − X (n) ] = 0. Proposition 1 zeigt kI(X (n) ) − I(X (m) )k = kI(X (n) − X (m) )k = [X (m) − X (n) ], so daß Proposition 4 die Existenz des Grenzwertes limn→∞ I(X (n) ) in Mc2 sichert. Wir definieren I(X) = lim I(X (n) ) n→∞
und halten fest, daß I(X) nicht von der Wahl der approximierenden Folge (X (n) )n∈N abh¨angt. Die Linearit¨at von I sowie (3) sind klar. Ebenso die Eindeutigkeit der Fortsetzung.
57
Gelte 0 ≤ s < t und sei A ∈ Fs . Man erh¨alt9 unter Verwendung von (2) Z Z 2 2 It (X) − Is (X) dP = lim It (X (n) ) − Is (X (n) ) dP n→∞ A A Z Z t 2 = lim Xu(n) dhM iu dP n→∞ A s Z Z t = (Xu )2 dhM iu dP. A s
Also gilt auch f¨ ur X ∈ L∗ Z
2
E((It (X) − Is (X)) | Fs ) = E
t
Xu2
dhM iu | Fs .
s
Wende Lemma 1 an, um hI(X)it =
Rt 0
Xu2 dhM iu zu erhalten.
Definition 4. F¨ ur X ∈ L∗ heißt (It (X))t∈I das stochastische Integral (Ito-Integral) von X bzgl. M . Bez: Z t M It (X) = It (X) = Xu dMu . 0
Bemerkung 1. Unter den Voraussetzungen von Proposition 3 gilt Satz 2 mit L statt L∗ , so daß das stochastische Integral auf L erkl¨art ist. Die in beiden F¨allen g¨ ultige Beziehung (3) heißt Ito-Isometrie. Bezeichne mit P∗ = P∗ (M ) den Vektorraum der progressiv meßbaren Prozesse X mit Z t ∀t∈I: Xu2 dhM iu < ∞ P -f.s. 0
Klar L0 ⊂ L∗ ⊂ P∗ und X stetig, adaptiert
⇒
X ∈ P∗ .
Es gilt L∗ (W ) 6= P∗ (W ). Ziel: Fortsetzung des stochastischen Integrals auf P∗ . Methode: Lokalisation. Im folgenden: X ∈ P∗ . F¨ ur Stoppzeiten T sei ( Xt , falls t ≤ T (T ) Xt = 0, sonst. Lemma 3. F¨ ur Stoppzeiten S, T gelte X (S) , X (T ) ∈ L∗ . Dann folgt f¨ ur t ∈ I It∧S∧T (X (T ) ) = It∧S∧T (X (S) ). 9
Aus Zn → Z in Lp folgt E(1B · Znp ) → E(1B · Z p ).
58
Beweis. F¨ ur Z = I(X (T ) ) − I(X (S) ) = I(X (T ) − X (S) ) ∈ Mc2 gilt t
Z
Xu(T ) − Xu(S)
hZit =
2
dhM iu
0
und somit hZiS∧T = 0. Mit ¨ Ubung 5.2 folgt Zt∧S∧T = 0.
Betrachte10 Stoppzeitenfolge (Tn )n∈N mit (i) ∀ n ∈ N :
Tn ≤ Tn+1 ,
(ii) P -f.s. limn→∞ Tn = ∞, (iii) ∀ n ∈ N :
X (Tn ) ∈ L∗ .
Zu t ∈ I und ω ∈ {limn→∞ Tn = ∞} w¨ahle man n ∈ N mit Tn (ω) ≥ t und setze It (X)(ω) = It (X (Tn ) )(ω). Lemma 3 sichert die Unabh¨angigkeit von der Wahl von n und der Stoppzeitenfolge. Definition 5. F¨ ur X ∈ P∗ heißt (It (X))t∈I das stochastische Integral (Ito-Integral) von X bzgl. M . Bez. wie oben. Bemerkung 2. Auf diese Weise: Fortsetzung des stochastischen Integrals auf P∗ ; I(X) ist stetig und adaptiert mit I0 (X) = 0. Ferner It∧Tn (X) = It∧Tn (X (Tn ) ), also I·∧Tn (X) ∈ Mc2 . Es gilt jedoch i.a. nicht I(X) ∈ Mc2 , siehe ¨ Ubung 10.1.b. Siehe auch Karatzas, Shreve (1999, p. 36). Definition 6. Adaptierter Prozeß (Xt )t∈I lokales Martingal, falls Stoppzeitenfolge (Tn )n∈N mit (i) und (ii) existiert, so daß X·∧Tn Martingal f¨ ur n ∈ N. Also ist I(X) f¨ ur X ∈ P∗ ein lokales Martingal. Siehe Karatzas, Shreve (1999, Sec. 3.2.D) zur Integration bzgl. stetiger lokaler Martingale. Beispiel 1. Wir bestimmen Z
t
Wu dWu , 0 10
Existenz: ¨ Ubung 10.1.a.
59
also X = M = W . Vorab: W ist progressiv meßbar, und es gilt Z t Z t 2 2 [W ]t = E Wu du = u du = 21 t2 . 0
0
Dies zeigt: W ∈ L∗ . (n)
F¨ ur n ∈ N und i ∈ N0 sei ti = ti
= i/2n · t. Setze
Wu(n) = Wti ,
falls u ∈ ]ti , ti+1 ],
(n)
sowie W0 = W0 . Offenbar gilt W (n) ∈ L∗ , und W (n) ist von der Form (1) aber nicht einfach, da nicht beschr¨ankt. Aus i−1 X (n) 2 W −W = ti
tj+1
Z
j=0
E(Wu − Wu(n) )2 du = i · 21 (t/2n )2 =
tj
i · t2 22n+1
folgt lim W − W (n) = 0
n→∞
und weiter gem. Satz 2
lim I(W ) − I(W (n) ) t = 0.
n→∞
Mittels Lokalisation zeigt man11 It (W (n) ) =
n −1 2X
Wti · (Wti+1 − Wti ) =
1 2
·
Wt2 −
n −1 2X
! (Wti+1 − Wti )2
i=0
i=0
Schließlich zeigt ¨ Ubung 7.1 n −1 2X
lim E
n→∞
Fazit
!2 2
(Wti+1 − Wti ) − t
= 0.
i=0
Z
t
Wu dWu = 12 Wt2 − 12 t.
0
(m)
(m)
Bemerkung 3. Betrachte Zerlegungen πm = {t0 , . . . , tm } mit (m)
0 = t0
< · · · < t(m) m = t,
lim kπm k = 0.
m→∞
(m)
Kurz: ti = ti . W¨ahle λ ∈ [0, 1], setze (m)
τ i = τi
= (1 − λ) · ti + λ · ti+1 .
Dann12 lim E
m→∞ 11 12
m−1 X
!2 Wτi · (Wti+1
− Wti ) − 21 Wt2 + (λ − 12 )t
i=0
Beachte a(b − a) = 21 ((b2 − a2 ) − (b − a)2 ). Karatzas, Shreve (1999, p. 148)
60
= 0.
.
(4)
Bei obiger Approximation des Ito-Integrals gem. (4): λ = 0; genau diese Wahl f¨ uhrt auf ein Martingal. Beim Stratonovich Integral w¨ahlt man λ = 12 ; dann ergibt sich die Analogie zu Z t f (s) df (s) = 12 f 2 (t), f ∈ C 1 ([0, t]). 0
und X ∈ L∗ (M ) sowie Y ∈ L∗ (N ). Dann folgt Z t M N hI (X), I (Y )it = Xu · Yu dhM, N iu , t ∈ I.
Satz 3. Gelte M, N ∈
Mc2
0
Beweis. Siehe Karatzas, Shreve (1999, p. 144). Im Spezialfall M = N : Ito-Isometrie. Satz 4. Sei M ∈ Mc2 , X ∈ L∗ (M ) und Z t Nt = Xu dMu ,
t ∈ I.
0
Ferner sei Y ∈ L∗ (N ). Dann: XY ∈ L∗ (M ) und Z t Z t Yu dNu = Xu Yu dMu , 0
t ∈ I.
0
Beweis. Siehe Karatzas, Shreve (1999, p. 145). ab hier ist das Skript nur vorl¨ aufig und wird ggfs. noch gr¨ oßere ¨ Anderungen erfahren.
2
Die Ito-Formel
Wir betrachten Prozesse X der Form Xt = X0 + Mt + Bt ,
t ∈ I,
(5)
wobei (i) X0 F0 -meßbar, (ii) M = (Mt )t∈I ∈ Mc2 , (iii) B = (Bt )t∈I adaptiert, stetig mit B0 = 0 und von beschr¨ankter Variation auf jedem kompakten Intervall. Bemerkung 4. Prozesse der Form (5) sind spezielle stetige Semimartingale.13 Obige Zerlegung ist eindeutig bis auf Ununterscheidbarkeit, siehe ¨ Ubung 10.2. In zeitkontinuierlichen Finanzm¨arkten werden Preisprozesse in der Regel als Semimartingale modelliert. 13
Allgemeiner: stetige lokale Martingale M . Bzgl. Semimartingalen kann man sinnvoll das stochastische Integral erkl¨ aren.
61
Beispiel 2. Mit N ∈ Mc2 , Y ∈ L∗ (N ), Z progressiv meßbar und lokal Lebesgueintegrierbar: Z t Z t Xt = X0 + Yu dNu + Zu du. 0
0
Bez.: Ito-Prozeß. Satz 5. Sei f : R → R zweimal stetig differenzierbar und sei X von der Form (5). Dann folgt Z t Z t Z t 0 0 1 f (Xt ) = f (X0 ) + f (Xu ) dMu + f (Xu ) dBu + 2 f 00 (Xu ) dhM iu , t ∈ I. 0
0
0
(k)
Beweisskizze. Vorab: F¨ ur k = 1, 2 sind die Prozesse f ◦ X stetig und progressiv meßbar. Die Lebesgue-Stieltjes Integrale bzgl. dBu und dhM iu sind pfadweise wohldefiniert. Betrachte Zerlegung 0 = t0 < · · · < tm = t von [0, t]. Taylor-Entwicklung f (Xt ) − f (X0 ) =
m X
f (Xtk ) − f (Xtk−1 )
k=1
=
m X
0
f (Xtk−1 ) · (Xtk − Xtk−1 ) +
1 2
m X
f 00 (ηk ) · (Xtk − Xtk−1 )2 ,
k=1
k=1
wobei ηk (ω) zwischen Xtk−1 (ω) und Xtk (ω). Unter geeigneten Beschr¨anktheitsvoraussetzungen konvergiert die erste Summe im Quadratmittel gegen Z t Z t 0 f (Xu ) dMu + f 0 (Xu ) dBu 0
0
und die zweite Summe gegen t
Z
f 00 (Xu ) dhM iu .
0
Letzteres ist plausibel, da B glatter als M ist. Etwas genauer: f¨ ur jede Zerlegung π wie oben gilt 2 (2) (1) (1) Vt (B; π) ≤ sup |Btk − Btk−1 | · Vt (B; π) ≤ Vt (B; π) . k=1,...,m
Nach Voraussetzung gilt (1)
∀ω∈Ω ∃K>0:
sup Vt (B; π)(ω) ≤ K. π
Wir nehmen an, daß ∃K>0:
(1)
sup sup Vt (B; π)(ω) ≤ K. ω∈Ω
π
Dann sichert der Lebesguesche Grenzwertsatz 2 (2) lim E Vt (B; πn ) = 0 n→∞
f¨ ur alle Folgen von Partitionen mit limn→∞ kπn k = 0. Im allgemeinen Fall: Lokalisation. Details bei Karatzas, Shreve (1999, p. 149–153). 62
Beispiel 3. W¨ahle f (x) = x2 , X = M = W und B = 0. Dann14 Z t 2 Wt = 2 Wu dWu + t. 0
Bemerkung 5. Man verwendet oft die symbolische Kurzschreibweise df (Xt ) = f 0 (Xt ) dMt + f 0 (Xt ) dBt + 21 f 00 (Xt ) dhM it = f 0 (Xt ) dXt + 12 f 00 (Xt ) dhM it f¨ ur die Formel aus Satz 5. Zum Vergleich die Kettenregel der klassischen Differentialrechnung: df (Xt ) = f 0 (Xt ) dXt . R R R Man schreibt kurz Y dX f¨ ur Y dB + Y dM . Satz 5 enth¨alt die Grundversion der Ito-Formel. Allgemeinere Varianten, deren Beweise ¨ahnlich wie der oben skizzierte verlaufen, lauten wie folgt. Satz 6. Sei f : I × R → R mit stetigen partiellen Ableitungen ft = f (1,0) ,
fx = f (0,1) ,
fxx = f (0,2)
und sei X von der Form (5). Dann folgt Z t Z t Z t f (t, Xt ) =f (0, X0 ) + ft (u, Xu ) du + fx (u, Xu ) dMu + fx (u, Xu ) dBu 0 0 0 Z t 1 +2 fxx (u, Xu ) dhM iu , t ∈ I. 0
Nun zur Ito-Formel f¨ ur Rd -wertige Prozesse X, die komponentenweise von der Form (5) sind. Betrachte Abbildungen f : I × Rd → R mit stetigen partiellen Ableitungen f (1,0) mit 0 ∈ Nd0 ,
f (0,α) mit α ∈ Nd0 und |α| ≤ 2.
Die Bezeichnungen ft , fxi und fxi xj sind kanonisch. Gelte (i)
(i)
(i)
(i)
Xt = X0 + Mt + Bt ,
t ∈ I, i ∈ {1, . . . , d},
(i)
so daß X0 F0 -meßbar, M (i) ∈ Mc2 , B (i) stetig, adaptiert mit beschr¨ankter Variation (i) auf beliebigen kompakten Intervallen und B0 = 0. Satz 7. Unter obigen Voraussetzung gilt Z t f (t, Xt ) =f (0, X0 ) + ft (u, Xu ) du 0
+
d Z t X
1 2
d X i,j=1
14
Die Berechnung von
+
0
i=1
+
fxi (u, Xu ) dMu(i)
Rt 0
d Z X i=1
Z
t
fxi (u, Xu ) dBu(i)
0
t
fxi xj (u, Xu ) dhM (i) , M (j) iu ,
0
Wu dWu ist jetzt ein Einzeiler, vgl. Bsp. 1
63
t ∈ I.
Satz 8 (partielle Integration). Z t Z t (1) (2) (1) (2) (1) (2) Xt · Xt = X0 · X0 + Xs dXs + Xs(2) dXs(1) + hM (1) , M (2) it , 0
t ∈ I.
0
Beweis. Ito-Formel mit f (t, x1 , x2 ) = x1 · x2 .
3
Die geometrische Brownsche Bewegung
Literatur: Irle (1999, Kap. 8), Bingham, Kiesl (1998, Chap. 4.6). F¨ ur α ∈ R und σ, s0 > 0 definieren wir f : I × R → R durch f (t, x) = s0 · exp(α t + σ x). Sei W eine eindimensionale Brownsche Bewegung mit Startwert 0. Setze St = f (t, Wt ), also St = s0 · exp(α t + σ Wt ), t ∈ I. ¨ Ubung 7.2 behandelt den Spezialfall α = 0 und σ = 1. Definition 7. Der oben definierte Prozeß S = (St )t∈I heißt geometrische Brownsche Bewegung mit Startwert s0 und Volatilit¨at σ. Fortan: S geometrische Brownsche Bewegung. Anwendung der Ito-Formel f¨ ur X = M = W und B = 0: Z t Z t Z t 1 2 Su dWu + 2 σ · St = S0 + α · Su du + σ · Su du 0 0 0 Z t Z t 1 2 = S0 + α + 2 σ · Su du + σ · Su dWu . 0
(6)
0
Also l¨ost S die stochastische Integralgleichung (6). Definition 8. Drift der geometrischen Brownschen Bewegung S: µ = α + 21 σ 2 . Lemma 4. F¨ ur t ∈ I gilt E(St ) = s0 · exp(µ t),
Var(St ) = s20 · exp(2µ t) · exp(σ 2 t) − 1 .
Beweis. Mit Satz 2 oder elementar. Lemma 5. Die relativen Inkremente (St − Ss )/Ss , 0 ≤ s < t, sind unabh¨angig von Fs und station¨ar. Die returns St /Ss sind lognormalverteilt. 64
Beweis. Verwende (St − Ss )/Ss = exp(α (t − s) + σ (Wt − Ws )) − 1. Das Donskersche Invarianzprinzip l¨aßt sich auf die geometrische Brownsche Bewegung u ¨bertragen. Wir verwenden die Bezeichnungen und Annahmen aus Abschnitt II.2.3. Hier nur der Martingal-Fall mit s0 = 1. Definiere H : C(I) → C(I) durch (Hf )(t) = exp(− 21 σ 2 t + σ f (t)). ¨bung 11.4. Klar: HP∗ ist die Dann konvergiert HPn schwach gegen HP∗ ; Beweis U Verteilung der geometrischen Brownschen Bewegung mit Startwert 1, Drift 0 und Volatilit¨at σ, und HPn ist die Verteilung von S (n) = HX (n) . Es gilt (n)
(n)
St (ω) = exp(− 21 σ 2 t + σ Xt (ω)) und f¨ ur t ∈ [k/n, (k + 1)/n] mit k ∈ N0 − 12
2
σ t+σ
(n) Xt
k X √ √ √ √ 1 √ (ξj − 12 σ 2 / n) + (t n − k/ n) · (ξk+1 − 12 σ 2 / n). = n j=1
Somit (n) St
=
k Y
exp j=1 |
√ (n) t n−k 1 1 2 √ ξj − 2 σ / n · Yk+1 . n {z } (n)
Yj (n)
(n)
Klar: f¨ ur jedes n ∈ N sind Y1 , Y2 , . . . iid. (n)
Spezialfall: ξj zweipunktverteilt. Dann ist Sk/n , k ∈ N0 , der Aktienpreisprozeß in einem Cox-Ross-Rubinstein-Modell, siehe Beispiel I.5. Im Falle P ({ξj = ±σ}) = 12 (n) nimmt Yj jeweils mit Wahrscheinlichkeit 21 die Werte √ exp(±σ/ n) · exp(− 12 σ 2 /n) an.
65
Literatur R. J. Adler, The Geometry of Random Fields, Wiley, Chichester, 1981. L. Arnold, Stochastische Differentialgleichungen, Oldenbourg, M¨ unchen, 1973. K. L. Chung, A Course in Probability Theory, Academinc Press, New York, 1974. K. L. Chung, R. J. Williams, Introduction to Stochastic Integration, Birkh¨auser, Boston, 1990. R. J. Elliott, Stochastic Calculus and Applications, Springer, New York, 1982. A. Friedman, Partial Differential Equations of Parabolic Type, Prentice-Hall, Englewood Cliffs, 1964. A. Friedman, Stochastic Differential Equations and Applications, Vol. 1, Academic Press, New York, 1975. P. G¨anssler, W. Stute, Wahrscheinlichkeitstheorie, Springer-Verlag, Berlin, 1977. I. I. Gihman, A. V. Skorohod, The Theory of Stochastic Processes III, Springer, Berlin, 1979. I. Karatzas, S. E. Shreve, Brownian Motion and Stochastic Calculus, Springer-Verlag, New York, 1999. K. R. Parthasarathy, Probability Measures on Metric Spaces, Academic Press, New York, 1967. L. Partzsch, Vorlesungen zum eindimensionalen Wienerschen Prozeß, Teubner, Leipzig, 1984. P. Protter, Stochastic Integration and Differential Equations, Springer-Verlag, 1990. L. C. G. Rogers, D. Williams, Diffusions, Markov Processes and Martingales, Vol. 2, Cambridge Univ. Press, 2000. J. Yeh, Martingales and Stochastic Analysis, World Scientific, Singapore, 1995. sowie N. H. Bingham, R. Kiesel, Risk-Neutral Valuation, Springer-Verlag, London, 1998. N. A. C. Cressie, Statistics for Spatial Data, Wiley, New York, 1993.
E. Eberlein, Grundideen moderner Finanzmathematik, DMV-Mitteilungen 3/98, 10–20, 1998. H. F¨ollmer, Ein Nobelpreis f¨ ur Mathematik?, DMV-Mitteilungen 1/98, 4–7, 1998. H.-O. Georgii, Gibbs Measures and Phase Transitions, de Gruyter, Berlin, 1988. P. E. Kloeden, E. Platen, Numerical Solution of Stochastic Differential Equations, Springer, Berlin, 1995. A. Irle, Finanzmathematik, Teubner, Stuttgart, 1998. G. Winkler, Image Analysis, Random Fields and Dynamic Monte Carlo Methods, SpringerVerlag, Berlin, 1995.
67