Skript zur Risikotheorie Manfred Riedel
2
Inhaltsverzeichnis
1 Einführung
5
2 Schadensverteilung im individuellen Modell
13
2.1
Die Faltung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
13
2.2
Charakteristische Funktionen
13
2.3
Momenterzeugende Funktionen
. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
3 Schadensverteilung im kollektiven Modell
15
19
3.1
Momente der Gesamtschadensverteilung . . . . . . . . . . . . . .
21
3.2
Bedingte Erwartung und Verteilung
22
3.3
Zusammengesetzte Poissonverteilung . . . . . . . . . . . . . . . .
27
3.4
Schadensanzahlverteilungen . . . . . . . . . . . . . . . . . . . . .
32
3.5
Rekursionsverfahren
. . . . . . . . . . . . . . . . . . . . . . . . .
35
3.6
Approximationen . . . . . . . . . . . . . . . . . . . . . . . . . . .
40
. . . . . . . . . . . . . . . .
4 Ruintheorie
41
4.1
Diskrete Ruinwahrscheinlichkeiten
. . . . . . . . . . . . . . . . .
41
4.2
Elemente der Irrfahrttheorie . . . . . . . . . . . . . . . . . . . . .
45
4.3
Ruin bei ausgeglichenen resultieren Schäden . . . . . . . . . . . .
52
4.4
Abschätzungen der Ruinwahrscheinlichkeit . . . . . . . . . . . . .
53
4.5
Roulette-Aufgabe . . . . . . . . . . . . . . . . . . . . . . . . . . .
60
5 Theorie der Prämienkalkulation
65
5.1
Elementare Prämien
. . . . . . . . . . . . . . . . . . . . . . . . .
5.2
Elementare Prinzipien
. . . . . . . . . . . . . . . . . . . . . . . .
67
5.3
Das Schweizer-Prinzip
. . . . . . . . . . . . . . . . . . . . . . . .
72
5.4
Eigenschaften von Prämienprinzipien . . . . . . . . . . . . . . . .
76
5.5
Ergänzung zu den bedingte Erwartungen . . . . . . . . . . . . . .
78
5.6
Iterative Prämienprinzipien
79
. . . . . . . . . . . . . . . . . . . . .
6 Credibility-Theorie
65
83
6.1
Einführung
. . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
6.2
Projektionen im Hilbertraum
6.3
Credibility-Schätzer
6.4
Das Modell von Bühlmann-Straub
6.5
Exakte und lineare Credibility-Schätzer
. . . . . . . . . . . . . .
90
6.6
Schätztheorie im Modell von Bühlmann
. . . . . . . . . . . . . .
93
6.7
Das Regressionsmodell . . . . . . . . . . . . . . . . . . . . . . . .
96
6.8
Schätztheorie der Credibility im Regressionsmodell . . . . . . . .
98
. . . . . . . . . . . . . . . . . . . .
. . . . . . . . . . . . . . . . . . . . . . . . .
3
. . . . . . . . . . . . . . . . .
83 84 85 88
4
INHALTSVERZEICHNIS
6.9
Verfahren von Wengner
. . . . . . . . . . . . . . . . . . . . . . . 102
Kapitel 1 Einführung Grundlagen:
•
1762: englisches Versicherung kalkuliert erstmalig Prämien.
•
Bis zum 20. Jahrhundert: deterministische Modelle
•
letzten 60-70 Jahre sind neue Gebiete mit Methoden der Stochastik und der Entscheidungstheorie entstanden.
neue Gebiete:
•
Krankenversicherungsmathematik,
•
Unfallversicherungsmathematik,
•
Pensionsversicherungsmathematik,
•
Kraftfahrzeugversicherungsmathematik,
•
Feuerversicherungsmathematik,
•
Rückversicherungsmathematik.
Beginn: Lundberg 1903 kollektive Risikotheorie 1930-1950, vor allem von Cramér entwickelt 1957: Gründung von Astin = Acturial Studies in Nonlife Insurance andere Gliederung der Versicherungsmathematik:
•
Personenversicherung: Leben, Unfall, Kranken,
•
Sachversicherung: See, Hagel, Feuer, Kasko, Sturm
•
Haftpichtversicherung,
•
Sonderfälle: Luftfahrt, Kredit,
•
Rückversicherung.
Grobe Einteilung:
•
Leben-Versicherungsmathematik, 5
6
KAPITEL 1.
•
EINFÜHRUNG
Nichtleben-Versicherungsmathematik oder Sachversicherungsmathematik.
Spezik der Sachversicherungen:
•
zufällige Anzahl der Schäden
•
zufällige Höhe der Schäden
•
zufällige Zeitpunkte
tj
N,
X,
des j-ten Schäden.
Risikotheorie ist die Versicherungsmathematik für Sachversicherungen. Um den Unterschied zwischen Lebens- und Sachversicherungen herauszustellen, betrachten wir einige Beispiele
Beispiel 1.0.1
Temporäre Todesfallversicherung. Ein x-Jähriger schlieÿt fol-
gende Versicherung (Versicherungsnehmer genannt) ab: Sie zahlt dem Versicherer einen Betrag
b
monatlich und erhält die Zusicherung, dass ihre Erben am
Ende ihres Todesjahres, das
≤x+n
ist, den Betrag
Versicherungsregel: Wird sie älter als Versicherung ist auch als
x+n
c
erhalten.
Jahre, so erhält sie nichts. Diese
Risikolebensversicherung bekannt. In diesem Fall
gilt:
N ∈ {0, 1}
und
X ∈ {0, c}.
Zufällig ist nur der Zeitpunkt des Todes. Es ist eine 1-Jahresversicherung: Der Schaden für die Versicherung beträgt
X = cN c - Beitrag der Versicherung N - Indikator für die Fälligkeit der Versicherung X - Schadenshöhe 1 wenn Versicherungsnehmer N= 0 wenn Versicherungsnehmer
nicht überlebt überlebt
Es gelte
P (N = 1) = q. Somit ist
q
die Wahrscheinlichkeit, dass der Versicherungsnehmer das Versiche-
rungsjahr nicht überlebt.
X
besitzt eine Zweipunktverteilung mit Wert Wahrscheinlichkeit Momente von
X
0 1−q
c q
kann leicht berechnen.
EX = cq
und
V arX = c2 q(1 − q)
Wie hoch sollte die Prämie für dies Versicherung sein? Ein erster Vorschlag besteht darin, für die Prämie
Beispiel 1.0.2 Es sei
U
EX
zu nehmen.
Spezielle Todesfallversicherung.
das Ereignis für Unfalltod. Dann ist
P (N = 1, U ) = 0, 005
2
7
die Wahrscheinlichkeit für Unfalltod und
P (N = 1, U ) = 0, 020 die Wahrscheinlichkeit für Normaltod. Folglich erhalten wir für Wahrscheinlichkeit, das Tod eintritt, ist
P (N = 1) = 0, 025. Wir vereinbaren eine Versicherungssumme von und eine Versicherungssumme von
20000,
50000,
falls Unfalltod eintritt
falls Normaltod eintritt. Somit gilt
P (X = 50000|N = 1) = 0, 2 und
P (X = 20000|N = 1) = 0, 8. Auÿerdem setzen wir
P (X = 1|N = 1) = 0 Wir erhalten also
X ∈ {0, 20 000, 50 000}
Somit ergibt sich
E(X|N = 1) = 20000 P (X = 20000|N = 1) = 50000 P (X = 50000|N = 1) = 26000 Auÿerdem gilt
E(X|N = 0) = 0 Wir berechnen nun den erwarteten Schaden:
EX = E(X|N = 1)P (N = 1) + E(X|N = 0)P (N = 0) = 26000 Wir bestimmen die Verteilungsfunktion Es bezeichne
δx
F
des Schadens
die ausgeartete Verteilung im Punkt
x.
X. Es gilt dann
FX (x) = P (X ≤ x|N = 0)P (N = 0) + P (X ≤ x|N = 1)P (N = 1) = δ0 (x)0, 975 + (0, 2δ50000 + 0, 8δ20000 ) 0, 025 = 0, 975δ0 + 0, 005δ20000 + 0, 020δ50000 2
Beispiel 1.0.3
Autoversicherung die folgende Tabelle enthält die Bedingungen
einer Autoversicherung.
k 1 2
nk 500 2000
P (Nk = 1) λ 0, 1 1 0, 05 2
L 2, 5 5, 0
Die Verteilungsfunktion der Schadenhöhe wird modelliert durch
Fλ,L (x) =
0 1 − e−λ x 1
x≤0 0≤x≤L . x ≥ L.
8
KAPITEL 1.
EINFÜHRUNG
k die Anzahl der Klassen. Die Anzahl der Versicherungsnehmer in der nk . Die Schadenhöhe in Klasse k sei Xk . Die Schadensanzahl Versicherungsnehmers j in der k ten Klasse sei Nj,k . Laut Voraussetzung
Es sei also
k-ten Klasse sei des
gelte
P (Xk ≤ x|Nj,k = 1) = Fλk ,Lk (x) Wir analysieren den Gesamtschaden X der Versicherung. Es sei des
j -ten
Versicherungsnehmer der
k -ten
Xk,j
der Schaden
Klasse. Oenbar gilt
Xk,j = Xk Nj,k X=
n1 X
X1,j +
j=1
n2 X
X2,j =: Y1,500 + Y2,2000
j=1
Wir stellen folgende Voraussetzung: Das System
{Nj,k : k = 1, ; j = 1, 2, ...nk , k = 1, 2} sei unabhängig. Dann ist auch das System
{Xk,j : k = 1, ; j = 1, 2, ...nk } unabhängig. Charakteristika des Gesamtschadens:
( E(Xk,j |Nj,k = 1) = EFλk ,Lk Y =
1−e−λk Lk λk
,
0,
n=1 n=0
Hieraus ergibt sich
EXk,j =
0, 09981, k = 1 . 0, 02500, k = 2
Folglich erhalten wir
EX = n1 EX1,j + n2 EX2,j = 95, 89 Ansatz für die Gesamtprämie:
(1 + θ)ES
Problem: Die Wahrscheinlichkeit dafür, dass kein Ruin eintritt, sei 0,95. Wie bestimmt man daraus
θ? A := P (X ≤ (1 + θ)ES) = 0, 95
Approximative Lösung mit Hilfe des zentralen Grenzwertsatzes. Wir setzen
Yk,nk =
nk X
Xk,j
j=1 Es gilt danach
lim P
n→∞ Wir setzen
! Yk,nk − EYk,nk p ≤ x = Φ (x) , V ar(Yk,nk ) Yk,n − EYk,nk Zk,nk := p k V ar(Yk,nk )
j = 1, 2
9
und erhalten
A := P (Z1,n1 α1 + Z2,n2 α2 ≤ θ) , wobei
p
p
n1 V ar(X1,1 ) , α1 = n1 EX1,1 + n2 X2,1
α2 =
n2 V ar(X2,1 ) . n1 EX1,1 + n2 X2,1
Aus dem zentralen Grenzwertsatz folgt dann
A≈Φ
!
θ p
.
α12 + α22
Hieraus folgt
θ = 1, 645 θ
Zur Bestimmung von
sind
αk
q
α12 + α22
zu bestimmen. Es gilt nun bekanntlich
2 V ar(Xk,j ) = EXk,j − (EXk,j )2 Folglich bestimmen wir das zweite Moment:
( 2 E(Xk,j |Nj
= 1) =
2(1−e−λk Lk ) λ2k
− 0,
2Lk e−λk Lk λk
,
k=1 k=2
Daraus ergibt sich
V ar(Xk,j ) =
0, 14794 0, 02436
und somit
α1 = 0, 087,
α2 = 0, 728,
q
, k=1 , k=2 α12 + α12 = 0, 112.
Wir erhalten also
θ = 0, 184 Die Gesamtprämie beträgt also
113, 58. Die Einmalprämie für die Klassen ergibt
sich nach
nk EXj,k = (1 + θ)EXj,k = (1 + θ)EX EX nk
0, 08777 0, 02961
, ,
k=1 k=2 2
Probleme der Risikotheorie 1. Einschätzung der zukünftigen Schäden. 2. Entwicklung der Schadensforderungen, Ruintheorie. 3. Festlegung der Prämienhöhe. Wichtige Charakteristika: Schadensprozess Prämienprozess
Denition: Ein Risiko ist eine nicht negative Zufallsgröÿe X . Gliederung der Vorlesung: 1. Gesamtschadensverteilung und Approximation der Gesamtschadensverteilung
10
KAPITEL 1.
•
EINFÜHRUNG
Analyse der Schadensverteilungsfunktion eines einzelnen Versicherungsvertrages innerhalb einer Zeitperiode.
•
Analyse der Schadensverteilungsfunktion von
n Versicherungsverträgen in-
nerhalb einer Zeitperiode. 2. Ruintheorie 3. Prämienkalkulation 4. Credibility-Theorie 5. Rückversicherung Modelle der Risikotheorie Schadensverlauf:
Tn n-ter Zeitpunkt eines Xn n-te Schadenshöhe
Schadens
{(Tn , Xn ) : n = 0, 1, 2, ..},
T0 = 0,
X0 = 0,
Tn < Tn+1 ,
Xn > 0
Zählprozess:
{N (t) : t ≥ 0}, N (t) = max(n : Tn ≤ t) Schadensprozess:
{(X(t) : t ≥ 0}, PN
j=1 (t)Xj
X(t) = Die Zeitperiode
(0, t)
0
, N (t) > 0 , N (t) = 0
sei fest gewählt. Dann unterscheiden man zwei Modelle:
individuelles Modell: Schadensanzahl ist bekannt =n
Xj
j-te Schadenshöhen,
Gesamtschaden:
Sn =
Pn
j=1
Xj
kollektives Modell: Schadensanzahl N P Gesamtschaden:
Beispiel 1.0.4 mit
Ni
SN =
N j=1
ist zufällig
Xj
In 5 aufeinander folgenden Jahren treten in einem Portefeuille
Verträgen
ni
Schäden mit durchschnittlicher Schadenhöhe
i Ni ni Xi
1 1000 8 1000
2 1500 10 800
3 2000 12 900
4 1500 13 750
Xi
ein:
5 3000 15 1000
Es wird ein parametrisches Modell gesucht, für das die Daten passen. Da die Verteilungen nicht identisch sind, wählen wir für die Jahresschäden
Yi
Modelle.
• Yi ∼ P oi(λNi ), i = 1, 2, ...k (= 5), • Yi ∼ N (µ, σ 2 ), i = 1, 2, ...k (= 5). Die Maximum-Likelihood-Methode ergibt folgende Schätzer: Es seien
N :=
k X i=1
Ni ,
n :=
k X i=1
ni .
folgende
11
Es gilt dann
ˆ= n, λ N
k
µ ˆ=
1X ni xi n i=1
k 1X σˆ2 = ni (xi − µ ˆ)2 . k i=1 Es folgt
ˆ = 0, 006444, λ µ ˆ = 888, 7931, σˆ2 = 123043, 1. 2
12
KAPITEL 1.
EINFÜHRUNG
Kapitel 2 Schadensverteilung im individuellen Modell 2.1
Die Faltung
(Ω, A, P ) Wahrscheinlichkeitsraum X, Y unabhängige Zufallsvariablen FX sei die Verteilungsfunktion von X ,
d. h. es gilt
FX := P {X ≤ x}. X ∼ F, Y ∼ G, Z = X + Y ∼ FZ Z ∞ Z FZ (z) = F (z − y)G(dy) = −∞
Denition 2.1.1 funktionen
F
und
Lemma 2.1.2
G(z − x)F (dy)
−∞
FZ FZ = F ∗ G
Die Verteilungsfunktion
G;
∞
symbolisch
heiÿt Faltung der Verteilungs-
(1) Die Faltung ist kommutativ und assoziativ.
(2) Existiert die Dichte
pF
von
F,
so existiert die Dichte der Faltung
F ∗G
und
es gilt
Z
∞
pF (z − y)G(dy)
pF ∗G (z) = −∞
Problem: Wie kann man die Faltung aus den Verteilungsfunktionen F
und
G
bestimmen?
2.2
Charakteristische Funktionen
Es werden drei Transformationen benutzt, um diese Aufgabe zu lösen: die charakteristische Funktion, die momenterzeugende Funktion und im Falle diskreter Zufallsgröÿen die momenterzeugende Funktion. 13
14KAPITEL 2. SCHADENSVERTEILUNG IM INDIVIDUELLEN MODELL
Denition 2.2.1
Die charakteristische Funktion von
deniert
Z
f (t) = EeitX =
F
bzw.
X
ist wie folgt
∞
eitX F (dx).
−∞
Satz 2.2.2
(1) Die Verteilungsfunktion ist eindeutig durch ihre charakteristi-
sche Funktion bestimmt.
h(t)
(2) Für die charakteristische Funktion
der Faltung
F ∗G
gilt
h(t) = f (t)g(t). (3) Existiert das
n-te
mn,F
absolute Moment
Z
von
F,
so gilt
∞
xn F (dx) = i−n f (n) (0)
mn,F = −∞
Beweis: (2) Eeit(X+Y ) = EeitX EeitY (3) a) Es sei zunächst
n = 1.
Dann gilt
f (t + h) − f (t) = h
∞
Z
eitX
−∞
eihx − 1 x dF (x). hx
Es gilt aber
ihx
|e
Z
hx
− 1| = |i
eiu du| ≤ hx
0 Wenden wir nun den Satz von der majorisierten Konvergenz an, so folgt die Behauptung. b) Fall
n > 0:
Es sei
X ∼ F.
Zerlege
F (x) = P (X ≤ x|X > 0)P (X > 0) + P (X ≤ x|X ≤ 0)P (X ≤ 0) = aF1 (x) + bF2 (x), wobei
a, b ≥ 0
und
Fj
Verteilungsfunktionen mit
F1 (0) = 0
und
F2 (0) = 1.
Hieraus folgt für die entsprechenden charakteristischen Funktionen
f (t) = af1 (t) + bf2 (t). Existiert die n-te Ableitung von
fj ,
so folgt
(n)
(n)
f (n) (t) = af1 (t) + bf2 (t). Auÿerdem gilt
mn,F = amn,F1 + bmn,F2 . Es genügt somit
in mn,F = f (n) (0)
(2.2.1)
für nichtnegative bzw. nichtpositive Zufallsgröÿen zu zeigen. Es sei
X ≥0
lungsfunktion
und existiere das
Gn−1
n-te
(absolute) Moment. Deniere die Vertei-
gemäÿ
Rx Gn−1 (x) =
0
un−1 dF (u) . mn−1,F
2.3.
MOMENTERZEUGENDE FUNKTIONEN
15
Dann gilt
mn,F = mn−1,F m1,Gn−1
(2.2.2)
und für die charakteristischen Funktion
f (n−1) (t) . in−1 mn−1,F
fGn−1 (t) = Da
m1,Gn−1
existiert, existiert auch die erste Ableitung der charakteristischen
Funktion von
Gn−1 ,
d. h.
f (n) (t)
0 fG (t) = n−1
in−1 m
Gn−1
Wenden wir die Formel (2.2.1) für
.
n−1,F
an, so folgt
f (n) (0) . in−1 mn−1,F
0 i m1,Gn−1 = fG (0) = n−1
Wegen (2.2.2) erhalten wir (2.2.1) für beliebiges
n.
(1) Diese Behauptung ergibt sich aus folgenden Umkehrformeln für Dichten bzw. Verteilungsfunktion. Da sie in der Regel im Grundkurs enthalten sind gehen wir
2
nicht auf die Beweise ein, jedoch führen wir sie an.
Fouriersche Umkehrformel: Es gilt für f 1 2π
pF (x) =
∈ L1
∞
Z
e−itx f (t) dt
−∞
Formel von Gil-Pelaez: Für alle Stetigkeitspunkte x von F F (x) = Ist
F
auf
[0, ∞)
Z
1 1 − 2 π
0+
konzentriert (F (0−)
F (x) =
2 π
und
F (x) − F (0) =
∞
Z 0
2 π
∞
Z 0
gilt
(Im f (t)e−itx ) dt. t
= 0),
so gelten die Darstellungen
sin(xu) Re f (u) dt. u
∞
1 − cos(xu) Im f (u) dt. u
Umkehrformel für Verteilungsfunktionen : Für alle Stetigkeitspunkte a + h, a − h
von
F
gilt
Z
1 F (a + h) − F (a − h) = lim T →∞ π
2.3
T
−T
sin(ht) −ita e f (t) dt. t
Momenterzeugende Funktionen
Denition 2.3.1
Die momenterzeugende Funktion
wie folgt deniert
MF (s) := EesX =
Z
MF (t)
∞
−∞
esx F (dx),
von
F
bzw.
X
ist
16KAPITEL 2. SCHADENSVERTEILUNG IM INDIVIDUELLEN MODELL
falls das Integral auf der rechten Seite existiert. Die Menge aller derjenigen
s, für KF .
die die momenterzeugende Funktion existiert heiÿt
Für eine momenterzeugende Funktion
MF (t)
Konvergenzmenge
wird der linke und rechte Konver-
genzradius eingeführt:
r− := inf{s ≤ 0 : MF (s) existiert} bzw.
r+ := sup{s ≥ 0 : MF (s) existiert}. Es gilt oenbar
r− ≤ 0 ≤ r+ ).
Deswegen gilt stets
Die momenterzeugende Funktion
MF (t)
0 ∈ KF
existiert im Intervall
(r− , r+ ) ⊆ KF ,
mitunter auch auf dem Rand des Intervalls. Die momenterzeugende Funktion lässt sich auf eine Teilgebiet der komplexen Ebene fortsetzen, und zwar gilt
Z
∞
esx F (dx),
MF (s) =
Re s ∈ KF
−∞ Zwischen charakteristischen Funktionen und momenterzeugenden Funktionen existiert ein einfacher Zusammenhang:
MF (−it) = f (t). Für die Momente erhalten wir die Beziehung
(n)
MF,n = MF (0)
Beispiel 2.3.2 λ.
Wir betrachten die Exponentialverteilung mit dem Parameter
Dann gilt
1 − e−λx , x ≥ 0 0, x<0
Eλ (x) = F (x) =
Es gilt folgende Eigenschaft (Reduktion auf den Fall Ist
X ∼ E1 ,
so ist
X/λ ∼ Eλ .
Die charakteristische Funktion von
X
lautet
f (t) =
λ . λ − it
Folglich gilt
f 0 (t) = d. h.
λi , (λ − it)2
1 , λ 1 m2 = 2 . λ m1 =
Folglich
σ2 =
1 . λ2
λ = 1):
2.3.
MOMENTERZEUGENDE FUNKTIONEN
17
Analog erhält man daraus alle Momente, da
f (n) (t) =
λ n!in . (λ − it)n+1
Es gilt also
1 . λn
mn = Die momenterzeugende Funktion von
Z
Eλ
lautet
∞
esu λ e−λu du =
MF (s) = 0 Folglich ist
r− = ∞
Denition 2.3.3 ten aus
und
s<λ 2
r+ = λ .
Erzeugende Funktion
{0, 1, 2, ...}
λ , λ−s
eF
einer Zufallsgröÿe
X≥0
mit Wer-
ist deniert als
eF (z) =
∞ X
P (X = j) z j ,
j=0
wobei z aus dem Einheitskreis
|z| ≤ 1
stammt.
Es gilt folgender Zusammenhang mit der c F.
fX .
eF (eit ) = fX (t)
Folgerung 2.3.4 besitze das
n-te
Eine diskrete Zufallsgröÿe
X≥0
mit Werten aus
absolute Moment. Dann existiert die
zeugenden Funktion
eF (z)
n-fache
{0, 1, 2, ...}
Ableitung der er-
in 1, und es gilt
(n)
eF (1) = EX(X − 1)(X − 2)...(X − (n − 1)).
Denition 2.3.5 X≥0
Das faktorielle Moment der Ordnung
mit Werten aus
{0, 1, 2, ...}
n
einer Zufallsgröÿe
ist gleich
EX(X − 1)(X − 2)...(X − (n − 1))
Beispiel 2.3.6
Faltung diskreter Verteilung mit Hilfe der erzeugenden Funkti-
on
X und Y endlich und unabhängig, so kann man X + Y durch Multiplikation zweier Polynome (z.
Sind
die erzeugende Funktion
von
B. auf dem Rechner) er-
halten. Die Koezienten bestimmen die Verteilung von
X +Y.
Gegeben sei der Bestand von Lebensversicherungen mit unterschiedlichen Versicherungssummen
s1
und
s2 .
Das Ausscheiden aus der Versicherung kann aus
zwei Ursachen geschehen. Die entsprechenden Ausscheidewahrscheinlichkeiten seien
q1
bzw.
q2 .
Folgende Tabelle gibt die Anzahl der Versicherungsfälle an.
qi \ si 0, 0007 0, 0012
2000 3 2
4000 2 5
18KAPITEL 2. SCHADENSVERTEILUNG IM INDIVIDUELLEN MODELL
Es sei
Ni,j
die Schadensanzahl der
i-ten
Ursache und der
j -ten
Versicherungss-
umme. Dann gilt
X = 2000N1,1 + 2000N2,1 + 4000N1,2 + 4000N2,2 = 2000(N1,1 + N2,1 + 2N1,2 + 2N1,2 ) =: 2000Y, wobei
N1,1 ∼ Bin(q1 , 3) N2,1 ∼ Bin(q2 , 2) N1,2 ∼ Bin(q1 , 2) N2,2 ∼ Bin(q1 , 5) Die Verteilung von
Y
erhält man mit Hilfe der erzeugenden Funktionen. Es gilt
nämlich
eN1,1 (x) = (1 − q1 + q1 x)3 eN2,1 (x) = (1 − q2 + q2 x)2 e2N1,2 (x) = (1 − q1 + q1 x)2 e2N2,2 (x) = (1 − q2 + q2 x2 )5 Die erzeugende Funktion des Produktes ergibt somit die Verteilung von
y P {Y = y}
0 0, 988888
1 0, 00440
2 0, 00664
Y.
... ...
Einfache Rechnung ergeben:
EX = 38, 6
und Var(X) = 136251,7,
p
V ar(X) = 369, 12.
2
Kapitel 3 Schadensverteilung im kollektiven Modell Zeitraum sei fest, z. B. 1 Jahr Voraussetzungen:
• N ≥0
sei eine Zufallsgröÿe mit
P (N = k) = pk , •
Die Folge der Schadenshöhe tisch verteilt.
•
Die Folge
k≥0
{Yj : j = 1, 2, ...}
sei unabhängig und iden-
Yi ∼ G.
{N, Yj : j = 1, 2, ...}
Gesamtschaden:
X=
sei unabhängig.
Y1 + Y2 + ... + YN 0
N >0 N =0
Problem: Wie kann man die Verteilungsfunktion von X Lemma 3.0.1 P (X ∈ A) =
∞ X
berechnen?
Gk∗ (A) pk
k=0
oder
F (x) =
∞ X
Gk∗ (x) pk ,
k=0
wobei
G
k∗
die k-fache Faltung von
Beispiel 3.0.2
G
mit sich selbst ist.
Gesamtschadensverteilung.
Es seien die Teilrisiken exponential verteilt, d. h.
G = Eλ und
N
sei geometrisch verteilt, d. h.
pk = (1 − p)pk , k = 0, 1, ...; 19
0
20 KAPITEL 3.
SCHADENSVERTEILUNG IM KOLLEKTIVEN MODELL
Dann ist die Gesamtschadensverteilung eine Mischung, und zwar gilt
F = pEλ(1−p) + (1 − p)δ0 . 2
Problem: Wie kann man die Verteilungsfunktion des Gesamtschadens bestimmen?
Lemma 3.0.3
Für die charakteristische Funktion des Gesamtschadens gilt
f (t) =
∞ X
g k (t) pk .
k=0
Beispiel 3.0.4
Es gelte für die Verteilungsfunktion
1 0, 25
y P {Yj = y}
2 0, 375
G
des Teilrisiko
3 0, 375.
Weiter gelte
0, 8n −0,8 e . n! Wir wollen P {X = x}, x = 0, 1, 2, 3, 4, 5, 6, bestimmen. ∗n die Faltung G , n = 1, 2, ..., 6. Wegen P {N = n} =
G∗(n+1) (x) =
3 X
Zunächst ermitteln wir
G∗n {x − y}G{y}
y=1 erhalten wir die Faltung aus folgender Tabelle
x \ G∗n {x} 0 1 2 3 4 5 6 n P {N = n}
G∗0 1
G∗1 0, 250 0, 375 0, 375
0 1 0, 4493 0, 3594
G∗2
0, 0625 0, 1875 0, 3281 0, 2812 0, 1406 2 0, 1438
G∗3
G∗4
G∗5
G∗6
0, 0156 0, 0703 0, 0039 0, 1757 0, 0234 0, 0009 0, 2637 0, 0762 0, 0073 0, 0002 3 4 5 6 0, 0389 0, 0077 0, 0012 0, 0002
Hieraus erhalten wir wegen
F {x} =
∞ X
G∗n {x}P {N = n}
n=0 die Verteilung
x F {x}
0 1 0, 4493 0, 0898
2 3 0, 1437 0, 1624
4 5 0, 0499 0, 0473
6 0, 0309 2
3.1.
MOMENTE DER GESAMTSCHADENSVERTEILUNG
3.1
21
Momente der Gesamtschadensverteilung
Wir bestimmen nun das erste Moment, die Varianz und das dritte zentrale Moment der Gesamtschadensverteilung.
Satz 3.1.1 Y.
a) Es existiere das erste Moment von der Anzahl
N
und des Risikos
Dann gilt
EX = EN EY. N
b) Existieren die zweiten Momente von
und
Y,
so folgt
V ar(X) = EN V ar(Y ) + V ar(N ) (EY )2 c) Existieren die dritten Momente von
N
und
Y,
so folgt
E[X − EX]3 = EN E[Y − EY ]3 + E[N − EN ]3 (EY )3 + 3V ar(N )V ar(Y )EY
Beweis: a) 1. Methode der Indikatorfunktionen.
EX = EXI{N =0} + EXI{N >0} =E
∞ X
(Y1 + ... + Yj )I{N =j} = EN EY1 .
j=1 2. Methode der charakteristischen Funktionen. Es sei
m(z) =
∞ X
pj z j
j=0 die erzeugende Funktion zu und
g
N.
Es sei
die charakteristische Funktion zu
f 0 (t) =
∞ X
f die charakteristische Yj . Dann gilt
Funktion zu
j g(t)j−1 g 0 (t)pj .
j=0 Setze
t = 0,
so folgt die Behauptung.
b) 1. Methode der Indikatorfunktionen.
EX 2 = EX 2 I{N =0} + EX 2 I{N >0} = E
∞ X
(Y1 + ... + Yj )2 I{N =j}
j=1
=E
j ∞ X ∞ X X ( Yk Yl I{N =j} ) = pj [(EY1 )2 (j 2 − j) + EY12 j] j=0
j=1 k,l=1 2
2
= (EY1 ) [EN − EN ] +
EY12
EN = EN V ar(Y1 ) + (EY1 )2 EN 2 .
Folglich
V ar(X) = EX 2 − (EX)2 = EN V ar(Y1 ) + (EY1 )2 EN 2 − (EN )2 (EY1 )2
X
22 KAPITEL 3.
SCHADENSVERTEILUNG IM KOLLEKTIVEN MODELL
= EN V ar(Y1 ) + (EY1 )2 V ar(N ) 2. Die Methode der charakteristischen Funktionen ist auch anwendbar. c) 1. Methode der Indikatorfunktionen.
∞ X
EX 3 = EX 3 I{N =0} + EX 3 I{N >0} = E
(Y1 + ... + Yj )3 I{N =j}
j=1
=E
∞ X
(
j X
Yk Yl Yn I{N =j} )
j=1 k,l,n=1
=
∞ X
pj (EY1 )3 (j 3 − 3(j − 1)j − j) + EY12 EY1 3(j − 1)j + EY13 j
j=0
= (EY1 )3 [EN 3 − 3EN 2 − 2EN ] + EY12 EY1 3EN 2 − 3EN + EY13 EN Analog erhalten wir Ausdrücke für
EX 2
und
EX .
Wegen
E[X − EX]3 = EX 3 − 3EX 2 EX + 2(EX)3 2
erhalten wir nach längerer Rechnung die Behauptung.
3.2
Bedingte Erwartung und Verteilung
Diskreter Fall X ,Y
seien diskrete Zufallsgröÿen.
Denition 3.2.1
Bedingte Verteilung von
X
bezüglich
Y =y
und der bedingte
Erwartungswert
E(X|Y = y).
Beispiel 3.2.2
Bedingte Verteilung und bedingte Erwartungen an einem zwei-
dimensionalen Zufallsvektor: Urnenmodell ohne Zurücklegen
Xj :
Anzahl der weiÿen Kugeln beim j-ten Zug
Urne enthält
m
weiÿe,
r
schwarze Kugeln; insgesamt
bedingte Wahrscheinlichkeit
P2 (X2 = i|X1 = 0) P2 (X2 = i|X1 = 1)
Denition 3.2.3
0
1
r−1 n−1 r n−1
m n−1 m−1 n−1
Die bedingte Erwartung von
n=r+m
Kugeln
2
X
bezüglich
Y
ist
E(X|Y )(ω) = E(X|Y (ω) = y), falls
Y (ω) = y .
Wir haben somit eine neue Zufallsgröÿe
E(X|Y )
eingeführt, für die gilt
P {E(X|Y ) = E(X|Y = yi } = P {Y = yi }.
3.2.
BEDINGTE ERWARTUNG UND VERTEILUNG
Beispiel 3.2.4
23
Bedingte Erwartung als Zufallsgröÿe:
E(X|Y ) P {Y = yi }
E(X|Y = y1 ) E(X|Y = y2 ) E(X|Y = y3 ) P (Y = y1 ) P (Y = y2 ) P (Y = y3 ) 2
Satz 3.2.5
(Satz der totalen Erwartung) Seien die Zufallsgröÿen
kret und besitze
X
X
und
Y
dis-
die Erwartung. Dann gilt
EX = E[E(X|Y )].
Beispiel 3.2.6
Urnenmodell
E(X2 |X1 = 0) =
m , n−1
, E(X2 |X1 = 1) =
Folglich
EX2 =
m−1 . n−1
m . n 2
Beispiel 3.2.7
Waldsche Identität.
Es seien die Zufallsgröÿen en
Xi
N, X1 , X2 , ... diskret und unabhängig. Weiterhin seiN besitze ebenfalls eine Erwartung.
identisch verteilt mit Erwartung und
Dann gilt
N X E( Xi ) = EX1 EN i=1
2 Eigenschaften der bedingten Erwartung: 1) Linearität 2) Monotonie, Positivität 3) Einsetzregel:
E(g(X, Y )|Y = y) = E(g(X, y)|Y = y) E(Y |Y ) = Y E(m(X, Y ) h(Y )|Y = y) = h(y)E(m(X, y))|Y = y) 3 ') Seien X und Y unabhängig, so gilt
3')
3)
E(g(X, Y )|Y = y) = E(g(X, y)) 4) Approximationseigenschaft:
min{E(X − g(Y ))2 : g : R → R Borel-messbar} = E(X − E(X|Y ))2
Satz 3.2.8
Es gilt
V ar(X) = E(V ar(X|Y )) + V ar(E(X|Y ))
24 KAPITEL 3.
SCHADENSVERTEILUNG IM KOLLEKTIVEN MODELL
Folglich erhalten wir
min{E(X − g(Y ))2 : g : R → R Borel-messbar} = E(X − E(X|Y ))2 = E(V ar(X|Y )) = V ar(X) − V ar(E(X|Y )).
Beweis: Es gilt V ar(X) = E([X − E(X|Y )] + [E(X|Y ) − EX])2 2
2
= E (X − E(X|Y )) + E (E(X|Y ) − EX]) + C, wobei
C = 2E[X − E(X|Y )][E(X|Y ) − EX] = E[E((X − E(X|Y ))2 |Y )] + E(E(X|Y ) − EX])2 + C = EV ar(X|Y ) + V ar(EX|Y ) + C Es genügt zu zeigen, dass
C = 0.
Nach dem Satz von der totalen Erwartung
und der Einsetzregel ergibt sich dies aus
C = 2E(E([X − E(X|Y )][E(X|Y ) − EX]|Y ) = 2E([E(X|Y ) − EX][E(X|Y ) − EX]|Y )) = 2E([E(X|Y ) − EX][E(X|Y ) − E(X|Y )] = 0 2
Beispiel 3.2.9
Besitze
(X, Y )
die folgende Verteilung:
P (X = n, Y = k) = e−λ
n
λ n!
n k
pk (1 − p)n−k ,
k = 0, 1, ..., n; n = 0, 1, ...
Dann gilt für die Randverteilungen:
X ∼ P oi(λ), Y ∼ P oi(λp). Die bedingte Verteilung von
Y
unter
X
ist
B(n, p).
Folglich
E(Y |X) = Xp E(Y − E(Y |X))2 = V ar(Y ) − V ar(E(Y |X)) = λp − p2 λ = λpq Überprüfung des Satzes der totalen Erwartung:
EX = EE(X|Y ); EY = EE(Y |X). 2
3.2.
BEDINGTE ERWARTUNG UND VERTEILUNG
25
Stetiger Fall Wir erinnern an die gemeinsame Verteilungsfunktion des Zufallsvektors
(X, Y )
F (x, y) = P (X ≤ x, Y ≤ y). Die Marginalverteilungen oder Randverteilungen von
FX (x) = F (x, ∞); Die Dichte
f (x, y)
von
(X, Y ),
Y
erhalten wir aus
erfüllt die Bedingung
Z
x
y
Z
f (u, v) du dv. −∞
X
bzw
FY (y) = F (∞, y)
f (x, y) = Die Randdichte von
X
−∞
erhält man dann aus
∞
Z fX (x) =
f (x, v) dv. −∞
Denition 3.2.10 teilung von
X
(X, Y )T stetig mit stetiger Y = y ist deniert als
Seien
bezüglich
Dichte. Die bedingte Ver-
P (X ≤ x|Y = y) = lim P (X ≤ x|y ≤ Y < y + h). h→0
E(X|Y = y) P (X ≤ x|Y = y).
und der bedingte Erwartungswert teilungsfunktion
Satz 3.2.11
als erstes Moment von der Ver-
(X, Y )T stetig mit stetiger Dichte, Y = y die Dichte: ( f (x,y) f allsfY (y) > 0 fY (y) . fX|Y =y (x, y) = 0 sonst
Ist der Zufallsvektor
die bedingte Verteilung von
X
so besitzt
bezüglich
Auÿerdem gilt
Z
∞
E(X|Y = y) =
x fX|Y =y (x) dx. −∞
Eigenschaften der bedingten Erwartung übertragen sich auf den stetigen Fall: 1) Linearität 2) Monotonie, Positivität 3) Einsetzregel 4) Approximationseigenschaft
Zweidimensionale Normalverteilung des Zufallsvektors (X , X ) 1
2
Parameter:
µ1 ; µ2 ; σ1 > 0; σ2 > 0; −1 < ρ < 1 1 p f (x, y) = 2π 1 − ρ2 σ1 σ2 (x − µ1 )2 1 2ρ(x − µ1 )(y − µ2 ) (y − µ2 )2 + exp − − 2(1 − ρ2 ) σ12 σ1 σ2 σ22
26 KAPITEL 3.
Lemma 3.2.12 Z2 ∼ N (0, 1),
SCHADENSVERTEILUNG IM KOLLEKTIVEN MODELL
Z1 ∼ N (0, 1−ρ2 ) und (X1 , X2 ) gilt:
Es existieren unabhängige Zufallsgröÿen
so dass folgende Strukturzerlegung von
X1 = σ1 Z1 + µ1 + σ1 ρ Z2 , X2 = σ2 Z2 + µ2 .
Beweis: Wir führen neue Zufallsgröÿen ein: Xj − µj , σj
Yj = Die gemeinsame Dichte von
fY1 ,Y2 (t, u) =
(Y1 , Y2 )
1 2π
p
1 − ρ2
j = 1, 2
berechnet sich als:
exp −
1 2 2 (t − 2ρ t u + u ) . 2(1 − ρ2 )
Erneut führen wir neue Zufallsgröÿen ein.
Z1 = Y1 − ρ Y2 und
Z2 = Y2 Folglich ergibt sich für die gemeinsame Dichte von
fZ1 ,Z2 (v, w) =
(Z1 , Z2 ).
1 u2 v2 p − exp − . 2(1 − ρ2 ) 2 2π 1 − ρ2 2
Hieraus lesen wir die Behauptung ab. Die Unabhängigkeit von
Satz 3.2.13
Sei
X1
(X1 , X2 )
und
X2
lässt sich durch
ρ
beantworten.
zweidimensional normalverteilt mit den Parameter
µ1 ; µ2 ; σ1 > 0; σ2 > 0; −1 < ρ < 1. Dann gelten folgende Aussagen: 2 2 a) X1 ∼ N (µ1 , σ1 ) und X2 ∼ N (µ2 , σ2 )
ρ = ρ(X1 , X2 ) c) Eine beliebige Linearkombination
b)
d)
ρ=0
genau dann, wenn
X1
und
aX1 + bX2 ist normalverteilt. X2 unabhängig sind.
Beweis: Die Aussagen ergeben sich als Übung aus Lemma 3.2.12. Folgerung 3.2.14
Die bedingte Verteilung von
N
X1
unter
X2 = y
2 lautet:
σ1 2 2 µ1 + ρ (y − µ2 ); σ1 (1 − ρ ) σ2
Beweis: Die Aussagen ergeben sich als Übung aus Lemma 3.2.12.
2
Mit Hilfe des Begries der bedingten Erwartung lässt sich die Formel für das dritte Moment in Satz 3.1.1 herleiten.
Rückkehr zum Beweis von Satz 3.1.1: E[X − EX]3 = E{[X − E(X|N )] + [E(X|N ] − EX])}3
3.3.
ZUSAMMENGESETZTE POISSONVERTEILUNG
27
= E[X − E(X|N )]3 + 3E[X − E(X|N )]2 [E(X|N ] − EX] +3E[X − E(X|N )][E(X|N ] − EX]2 + [E(X|N ] − EX]3 = E[X − E(X|N )]3 + 3E[X − E(X|N )]2 [E(X|N ] − EX] + [E(X|N ] − EX]3 =: A + B + C. Weiter erhalten wir
A = E{E[X − E(X|N )]3 |N } == E{E[Y1 + ...YN − (EY1 + ...EYN )])3 |N } = E{E[Y1 − EY1 ]3 N } = E[Y1 − EY1 ]3 EN. Analog folgt
C = E{E(X|N ) − EX]3 |N } = E[N − EN ]3 (EY1 )3 . Schlieÿlich gilt
B = E{E(X|N ) − EX]2 |N }E[(X|N ) − EX] = EY1 V ar(Y1 )V ar(N ) 2
3.3
Zusammengesetzte Poissonverteilung
Denition 3.3.1
Der Gesamtschaden
X=
Y1 + Y2 + ... + YN 0
N Poisson-verteilt F = ZP (λ, G).
heiÿt zusammengesetzte Poisson-Verteilung, falls meter
λ
ist. Ist
X ∼ F,
so schreiben wir
N >0 N =0 mit Para-
Charakteristische Funktion der zusammengesetzten Poisson-Verteilung:
f (t) = eλ(g(t)−1)
(3.3.1)
Bei Anwendungen in der Feuerversicherungen haben sich für das Teilrisiko folgende Verteilungen als günstig erwiesen:
•
die lognormale Normalverteilung,
•
die Pareto-Verteilung,
•
Mischungen von Exponentialverteilungen.
Bei der Autoversicherung verwendet man häug die Gammaverteilung.
Problem: (1) Kann man den zusammengesetzten Poisson-Verteilung reduzieren? (2) Kann man andere Gesamtschadensverteilungen als zusammengesetzten Poisson-Verteilung auassen? (3) Was kann man über die Summe unabhängiger zusammengesetzter PoissonVerteilungen aussagen?
28 KAPITEL 3.
Beispiel 3.3.2
SCHADENSVERTEILUNG IM KOLLEKTIVEN MODELL
Reduktion.
Zusammengesetzte Poisson-Verteilung bei einer speziellen Teilrisikoverteilung:
pG (x) = Für
1 (e−x/β − e−x/α ), x log(β/α)
λ = m log(β/α) F (x) =
x > 0,
0 < α < β.
gilt folgende Identität:
∞ X
Gk∗ (x) pk =
k=1
m X α α m (1 − )j ( )m−j E ∗j 1 , j β β β j=0
Eaj?
die Erlang-Verteilung mit dem Parameter a bezeichnet; das ist die j -fache Faltung der Exponentialverteilung mit dem Parameter a mit sich selbst. wobei
Somit ist diese zusammengesetzte Poisson-Verteilung eine endliche Mischung von Erlang-Verteilungen.
Beweis Setze c := ln(β/α). Dann gilt für die charakteristische Funktion fG von G fG (t) =
1 c
∞
Z
eitX
0
e−x/α (1−α/β)x/α e − 1 dx x
Taylorentwicklung für die Exponentialfunktion liefert
fG (t) =
1 c
Z
∞
eitX e−x/α
0
∞ X
(1 −
j=1
α j xj−1 ) dx β j!αj
Wenden wir den Satz von Fubini an, so folgt
∞
1X α 1 fG (t) = (1 − )j c j=1 β j
1 (j − 1)!αj
Z
∞ itx −x/α
e
e
0
α xj−1 (1 − )j dx β j!
Der Ausdruck in eckigen Klammern ist aber gerade das j-fache Produkt der charakteristischen Funktion von
E α1 ,
wobei
h(t) =
1 . 1 − itα
Folglich erhalten wir wegen der Identität
∞
ln(
X 1 )= xj , 1−x j=1
|x| < 1
1c α fG (t) = − ln 1 − (1 − )h(t) . β Setze
λ = mc. Nun gilt für die charakteristische Funktion f von F −m α f (t) = eλ(g(t)−1) = e−λ 1 − (1 − )h(t) . β
Setzen wir
t = 0,
so ergibt sich
−λ
1=e
−m −m α α −λ =e . 1 − (1 − ) β β
wegen (3.3.1)
3.3.
ZUSAMMENGESETZTE POISSONVERTEILUNG
29
Folglich ergibt sich
m −m α α 1 − (1 − )h(t) β β m α 1 α + (1 − ) . = β β 1 − itβ
f (t) =
2
Hieraus lesen wir die Behauptung ab.
Lemma 3.3.3 tet, d. h.
Es sei die zusammengesetzte Poisson-Verteilung nicht ausgear-
F = ZP (λ, G) 6= δ0 .
Dann gilt
F = ZP (λ0 , G0 ). für alle
λ0 > λ
und
G0 =
λ λ G + (1 − )δ0 . λ0 λ0
Insbesondere gibt es zu jeder zusammengesetzten Poisson-Verteilung eine Verteilungsfunktion G mit kleinstem Atom in 0. Bevor wir zum Beweis kommen erinnern wir an die momenterzeugende Funktion:
Z
∞
MF (t) =
etx dF (x).
−∞
Lemma 3.3.4
Es sei
F
eine Verteilungsfunktion
F
(1) Dann existiert die momenterzeugende Funktion
mit
MF
F (0−) = 0. t ≥ 0.
für
(2) Es gilt
lim MF (t) = F (0)
t→−∞
(3) Existiert die n-te Ableitung von
MF ,
so existiert das n-te Moment, und es
gilt (n) MF (0)
(4)
MF
n
Z
∞
= EX =
xn dF (x).
0
ist eine konvexe Funktion mit Werten aus
Beweis:
[F (0+), 1].
(1) ist trivial. (2) folgt aus dem Satz der monotonen Konvergenz. (3)
ergibt sich ähnlich wie für charakteristische Funktionen. (4) folgt aus (3).
2
Beweis von Lemma 3.3.3: Oenbar folgt aus eλ(fG (t)−1) = eλ0 (fG0 (t)−1) mit
λ0 > λ
die erste Behauptung.
Bilde
t := inf {λ : ∃ G, F = ZP (λ, G)}
λ > 0 mit F = ZP (λ, G) und alle λ0 > λ eine Verteilungsfunktion F = ZP (λ0 , G0 ) existiert, ist die Menge auf der rechten Seite von (3.3.2)
Da für alle
G0
mit
(3.3.2)
eine Halbachse. Wegen Lemma 3.3.4 (2) folgt
eλ(G(0)−1) = F (0) < 1,
30 KAPITEL 3.
SCHADENSVERTEILUNG IM KOLLEKTIVEN MODELL
d. h.
λ= Folglich ist
t > 0.
− ln(F (0)) ≥ − ln(F (0)) > 0. 1 − G(0) λ ↓ t.
Wähle nun eine Folge
Dann gilt
fF (t) = eλn (fGn (t)−1) , d. h.
fGn (t) =
ln(fF (t)) +1 λn
Der Stetigkeitssatz von charakteristischen Funktionen sagt, dass
f (t) = lim fGn (t) = n→∞
ln(fF (t)) +1 t
eine charakteristische Funktion einer Verteilungsfunktion wir ab:
F = ZP (t, G∗ ).
Denition 3.3.5
G∗ ist. Daraus lesen G∗ minimal ist. 2
Auÿerdem folgt, dass das Atom von
Die Darstellung
F = ZP (λ, G)}
mit minimalem
λ>0
heiÿt
kanonische Darstellung der zusammengesetzten Poisson-Verteilung. Wir wenden uns nun dem zweiten Problem zu.
Denition 3.3.6 pk = Wir schreiben
Die negative Binomialverteilung ist deniert durch
r+k−1 k
N B(r, p)
(1 − p)r pk ,
k = 0, 1, 2, ..., 0 < p < 1
für die Verteilungsfunktion der negativen Biniomialver-
teilung
Satz 3.3.7
(Ammeter-Transformation) Wir betrachten eine Gesamtschadens-
F mit der N B(r, p). Setze
verteilung sei
Teilrisikoverteilung
G
und die Schadensanzahlverteilung
∞
¯= G
X pk 1 Gk∗ . − ln(1 − p) k k=0
Dann gilt
F =
∞ X λk k=0
mit
k!
¯ k∗ G
λ = −r ln(1 − p).
Beweis: Bekanntlich gilt für die erzeugende Funktion m der negativen Binomialverteilung
m(z) =
1−p 1 − pz
f von F r 1−p , 1 − pg(t)
Folglich gilt für die charakteristische Funktion
f (t) =
r
3.3.
ZUSAMMENGESETZTE POISSONVERTEILUNG
g
wobei
an, dass
die charakteristische Funktion von
f
31
G ist. Setzen wir nun die Bedingung
eine zusammengesetzte Poisson-Verteilung ist, so folgt für eine gewisse
g0 . r 1−p f (t) = = eλ(g0 (t)−1) 1 − pg(t)
charakteristische Funktion
Hieraus folgt
g0 (t) = Wählen wir
G0
mit
1−
r (− ln(1 − p)) λ
G0 (0) = 0,
∞
+
r X pj g j (t) λ j=1 j
so folgt
λ = r (− ln(1 − p)), so ist
2
¯ G0 = G
Wir wenden uns nun dem dritten Problem zu:
Satz 3.3.8
Für
i = 1, 2, ..., n
sei
Fi (A) =
∞ X λk i
k!
k=0
Dann besitzt F1 ∗ F2 ∗ ... ∗ Fn λ = λ1 + ... + λn und
Gk∗ i (A)
eine zusammengesetzte Poisson-Verteilung mit n
X ¯= 1 G λ i Gi . λ i=1
Beweis
Man bildet die charakteristischen Funktionen beider Verteilungsfunk-
2
tionen
Wir geben nun eine Fehlerabschätzung, falls die zusammengesetzte PoissonVerteilung durch Abschneiden approximiert wird.
Satz 3.3.9 0,
Die Schadensanzahl
N
sei Poisson-verteilt mit dem Parameter
λ>
d. h. es gilt
pk = P (N = k) = Dann gilt für alle
r>λ
λk −λ e , k!
k = 0, 1, 2, ...
folgende Abschätzung
0 ≤ P (X ∈ A) − e−λ
r−1 X
Gk∗ (A)
k=1
r λk λr ≤ e−λ k! r−λ r!
Beweis Der Rest wird durch eine Potenzreihe abgeschätzt.
2
Folgendes Gegenstück zu Satz 3.3.8 scheint bemerkenswert.
Satz 3.3.10
Für
i = 1, 2, ..., n
seien
sei
Fi =
Di
∞ X k=0
Schadensanzahlverteilungen. Weiterhin
Di {k}Gk∗
32 KAPITEL 3.
Dann besitzt
SCHADENSVERTEILUNG IM KOLLEKTIVEN MODELL
F1 ∗ F2 ∗ ... ∗ Fn
folgende Verteilung:
F =
∞ X
D{k}Gk∗ ,
k=0
wobei
D = D1 ∗ ... ∗ Dn .
Beweis. Wir bilden die charakteristischen Funktionen beider Verteilungsfunk2
tionen
Schlieÿlich geben wir eine Konstruktionsmethode zur Berechnung von zusammengesetzten Poisson-Verteilungen an, wenn das Teilrisiko nur endlich viele Werte annimmt.
Satz 3.3.11
Die Verteilung des Teilrisikos G sei auf {s1 , ..., sn } konzentriert. X habe eine zusammengesetzte Poisson-Verteilung. Dann existieren unabhängige Zufallsgröÿen
N1 , ..., Nn , die Poisson-verteilt sind, so dass
s1 N1 + ... + sn Nn ∼ X.
Beweis: Oenbar folgt die Behauptung aus f (t) = eλ(g(t)−1) = eλ(
Pn
j=1
eitsj G{sj }−1)
=
n Y
eλG{sj }(e
itsj
−1)
.
j=1
2
3.4
Schadensanzahlverteilungen
Wir führen nun eine Klasse von Schadensanzahlverteilungen an, die die PoissonVerteilung verallgemeinern. Betrachte einen Vektor Verteilung von
N
bezüglich
Λ=λ
Poisson-verteilt ist. Dann gilt
Z
∞
P (N = k) = E(EN |Λ) = 0 In diesem Fall heiÿt
Satz 3.4.1
N
ein
(N, Λ)T , wobei die bedingte
e−λ λk dFΛ (λ) k!
Mischung von Poisson-Verteilungen.
a) Es existiere die Erwartung von
N
und
Λ.
Dann gilt
EN = EΛ b) Es existiere das zweite absolute Moment von
N
und
Λ.
Dann gilt
V ar(N ) = E(Λ) + V ar(Λ) N
c) Für die charakteristische Funktion von
fN (t) = MΛ (eit − 1) =
Z
gilt
∞
eλ(e
it
−1)
0
wobei
MΛ
die momenterzeugende Funktion von
Λ
ist.
FΛ (dλ)
3.4.
SCHADENSANZAHLVERTEILUNGEN
Beispiel 3.4.2
33
Negative Binomialverteilung als Mischung
von Poisson-Verteilungen.
G(a, b) besitzt die Dichte: ba a−1 −bλ e λ>0 Γ(a) λ p(λ) = , 0 λ≤0
Die Gammaverteilung
Für die charakteristische Funktion von
Λ
fΛ (t) =
a > 0, b > 0.
gilt
b b − it
a .
Dann ist leicht zu zeigen, dass
EΛ =
a b
und
V ar(Λ) =
und
p=
Setze
r=a
a . b2
b , 1+b
so gilt
fN (t) = MΛ (eit − 1) =
b b − (eit − 1)
a
=
p 1 − (1 − p)eit
a .
Es gilt nun
EN =
r(1 − p) a = b p
und
V ar(N ) =
a a r(1 − p) + 2 = . b b p2 2
Wir untersuchen die Klasse der Wahrscheinlichkeitsverteilungen für die Schadensanzahl, für die folgende Rekursion gilt:
pk = (a +
b ) pk−1 , k
k = 1, 2, ...;
p0
beliebig
(3.4.3)
Folgende Verteilungen erfüllen diese Rekursion: - Binomialverteilung - Poisson-Verteilung - negative Binomialverteilung.
Satz 3.4.3
Gelte (3.4.3), so treten in Abhängigkeit von
auf: a)
a < 0, b > 0:
Dann
mit den Parametern
m
a b
ganz und
und
a=− a = 0, b > 0. Dann a > 0, b > 0. Dann metern p, r , so dass b)
c)
N ∼ B(m, p),
a
d. h.
und
N
b
folgende Fälle
ist binomialverteilt
p: p 1−p
und
b = −a(m + 1)
ist N Poisson-verteilt mit dem Parameter λ = b. a b ganz und N ist negativ binomialverteilt mit den Para-
a=1−p
und
b = a(r − 1)
34 KAPITEL 3.
SCHADENSVERTEILUNG IM KOLLEKTIVEN MODELL
In diesem Fall gilt also
r+k−1 k
pk = d)
a+b=0
Dann ist
N
pr (1 − p)k ;
ausgeartet in
k = 0, 1, 2, ...
0.
Beweis. Es ist leicht zu zeigen, dass die Binomialverteilung, die Poisson-Verteilung, die negative Binomialverteilung und die ausgeartete Verteilung (3.4.3) erfüllen. Wir setzen voraus, dass (3.4.3) erfüllt ist und unterscheiden verschieden Fälle in Abhängigkeit von 1)
a + b < 0.
a
b. pn = 0
und
Dann folgt
n = 0, 1, 2, ....
für
Dies ist also keine Wahr-
scheinlichkeitsverteilung. 2)
a+b=0
3.1)
Dann folgt
a + b > 0,
a = 0.
pn = 0
Dies ist also
δ0 .
Dann folgt aus (3.4.3)
pn = p0 Summation über
n = 1, 2, ....
für
n = 0, 1, 2, ..
bn n!
für
n = 1, 2, ...
ergibt sogar
p0 = e−b Dies ist also 3.2)
P oi(b).
a + b > 0,
a < 0.
Dann existiert eine natürliche Zahl
−
m,
dass
b = m + 1, a
d. h.
m=−
a+b . a
Folglich ergibt sich aus (3.4.3) nach einigen Rechnungen
pn = (−a)n und
pn = 0,
n > m.
3.3)
a + b > 0,
m p0 , n
n = 0, 1, 2, ..., m
Folglich ergibt sich eine Binomialverteilung.
a > 0.
Nun lässt sich mit
λ=
a+b a
die Schlussweise von 3.2) nachvollziehen und wir erhalten
n
pn = (−a) woraus sich
a<1
−λ p0 , n
n = 0, 1, 2, ...,
und
p0 = (1 − a)λ
3.5.
REKURSIONSVERFAHREN
35
ergibt. Wegen
n
(−1)
−λ n
=
λ+n−1 n
erhalten wir die negative Binomialverteilung.
pn =
−λ (−a)n (1 − a)λ , n
n = 0, 1, 2, ... 2
3.5
Rekursionsverfahren
Die Zufallsgröÿen
Yj
seien auf
{0, 1, 2...}
konzentriert. Bezeichne
P (Yj = y) =: g(y) Wir beginnen mit einem Resultat über die Summe
Satz 3.5.1
Gilt
g (n+1)? (j) > 0,
Y1 + Y2 + . . . + Yn+1
.
so folgt j
g (n+1)? (j)
Beweis.
X j = i g(i) g n? (j − i) n+1 i=1
(3.5.4)
Wir berechnen auf zwei verschiedene Weisen den bedingten Erwar-
tungswert
E(Yi |
n+1 X
Yk = j).
k=1 Aufgrund der Denition der bedingten Wahrscheinlichkeiten folgt
E(Yi |
n+1 X
Yk = j) =
j X
m
m=1
k=1
g(m) g n? (j − m) . g (n+1)? (j)
Andererseits folgt aus der Additivität der bedingten Erwartung
n+1 X
E(
Yl |
l=1
n+1 X
Yk = j) = j = (n + 1)E(Yi |
k=1
n+1 X
Yk = j).
k=1
2 Das Resultat über die rekursive Darstellung der Schadenanzahl ergibt folgende Rekursion: Es gilt dann die so genannte
Panjer-Rekursion. Setze für die Ge-
samtschadenverteilung mit den Teilrisiken sind, und der Schadensanzahl
Yk ,
die auf
{0, 1, 2, . . .}
konzentriert
N
P (X =
N X
Yk = x) =: f (x)
k=1 Wie bisher setzen wir voraus, dass
{N, Y1 , Y2 , ...}
Dann gilt bekanntlich
f (x) :=
∞ X n=0
pn g n? (x)
ein unabhängiges System ist.
36 KAPITEL 3.
Satz 3.5.2
SCHADENSVERTEILUNG IM KOLLEKTIVEN MODELL
Gelte (3.4.3) für die Verteilung der Schadensanzahl. Dann erhalten
wir:
f (k) =
k X j=0
bj a+ k
g(j)j(k − j),
k = 1, 2, ...
(3.5.5)
Beweis. Wir beginnen mit der rechten Seite von (3.5.5) k X
a+
j=0
=
k X
a+
j=0
bj k
g(j)
bj k
∞ X
g(j)f (k − j)
pn g n? (k − j).
n=0
Nun setzen wir (3.5.4) ein und erhalten
k X b jg(j)g n? (k − j) = pn ag (n+1)? (k) + k n=0 j=1 ∞ X
=
∞ X
n=0
=
b g (n+1)? (k) n+1 g (n+1)? (k).
pn ag (n+1)? (k) +
∞ X
pn a +
n=0
b n+1
Wir nutzen erneut (3.4.3) und berücksichtigen, dass
g (0)? (k) = 0
für
k 6= 0.
Somit folgt aus der Denition der Gesamtverteilung
=
∞ X
pn+1 g (n+1)? (k) = f (k)
n=0
2 Erste Rekursionsformel für die zusammengesetzte Poisson-Verteilung
ZP (λ, G):
x X i f (x) = P (X = x) = λ G({i})P (X = x − i). x i=1
Wir zeigen nun, dass ebenfalls die Momente der Gesamtverteilung rekursiv bestimmt werden können, wenn (3.4.3) gilt.
Satz 3.5.3
Es gilt für alle
c
(1 − a)E(X − c)k+1 k X k k+1 = ( a + b)EY j+1 + acEY j E(X − c)k−j j j+1 j=0 −cE(X − c)k , k = 0, 1, 2, ...
(3.5.6)
3.5.
REKURSIONSVERFAHREN
37
Beweis: Es sei m die erzeugende Funktion von N , MF zeugende Funktion von
F
bzw.
G.
und
MG
die momenter-
Dann gilt bekanntlich
MF (t) = m(MG (t)) Für die Verteilungsfunktion
Fc (x) = P (X − C)
folgt weiter
MFc (t) = e−ct MF (t) Dierenzieren wir bezüglich
t,
so folgt
MF0 c (t) = e−ct MF0 (t) − ce−ct MF (t) −ct
=e
m
0
0 (MG (t))MG (t)
−ct
− ce
(3.5.7)
MF (t)
Wegen (3.4.3) ergibt sich nun
m(z) = p0 +
∞ X
∞ X
pn z n = p0 +
n=1
pn−1 (a +
n=1
b n )z n
Dierentation liefert
m0 (z) =
∞ X
pn−1 (a n + b)z n−1
n=1 ∞ X
= az
pn−1 a (n − 1)z n−2 + (a + b)
∞ X
pn−1 z n−1
n=1
n=1
= az m0 (z) + (a + b)m(z) Folglich ergibt sich daraus die Dierentialgleichung
m0 (z) = m0
Wir ersetzen nun
a+b m(z) 1 − az
in (3.5.7) und erhalten
MF0 c (t) = e−ct
a+b 0 m(MG (t))MG (t) − ce−ct MF (t) 1 − az
(3.5.8)
Also
0 (1 − aMG (t))MF0 c (t) = MFc (t) [(a + b)MG (t) + acMG (t) − c]
(3.5.9)
Wir dierenzieren nun diese Identität k-mal und erhalten
(1 −
(k+1) aMG (t))MFc (t)
−
k X k j=1
=
k h X k j=0
Für
t=0
j
j
(j)
(k−j+1)
MG (t)MFc
(t)
i (k) (j) (j) (k−j) (a + b)MG (t) + scMG (t) MFc (t) − cMFc (t)
ergibt sich die Behauptung.
2
Wir erhalten für die gewöhnlichen und zentralen Momente folgende Rekursionen.
38 KAPITEL 3.
SCHADENSVERTEILUNG IM KOLLEKTIVEN MODELL
Folgerung 3.5.4
(1)
(1 − a)EX k+1 = k X k k+1 j+1 + ( a + b)EY EX k−j , j j + 1 j=0 k = 0, 1, 2, ... (2)
(1 − a)E(X − EX)k+1 = a k EY E(X − EX)k k X k k+1 a + b)EY j+1 + aEX EY j E(X − EX)k−j , + ( j j+1 j=1 k = 0, 1, 2, ...
Beweis: (1) ergibt sich durch Einsetzen c = 0. (2) Setze zunächst in (3.5.6)
k = 0, c = EX :
0 = (1 − a)(EX − c) = [(a + b)EY + ac] − c, d. h.
(a + b)EY = c(1 − a). Wir betrachten nun den 0-ten Summanden auf der rechten Seite von (3.5.6) und erhalten somit:
((k + 1)a + b)EY + ac E(X − c)k = kaEY E(X − c)k + cE(X − c)k 2
Hieraus folgt (2).
Abschlieÿend besprechen wir eine allgemeine Methode zur Bestimmung rekursiver Beziehungen.
G
die momenterzeugenden den Funktionen von
{1, 2, ...} konzenMF , M G sei m die erzeugen-
sei eine arithmetische Verteilung, die auf
{0, 1, 2, ...} konzentriert. Funktionen von F bzw. G. Weiter
triert ist. Dann ist oenbar
N.
F
auf
Bezeichne
Es gilt dann
MF (t) = m(MG (t)) Folglich ergibt sich
0 MF0 (t) = m0 (MG (t))MG (t) = Die Potenzreihe
h
m0 (MG (t)) 0 M (t)MF (t) =: h(t) MF (t) m(MG (t)) G
hängt nur von den Funktionen
Potenzreihe
h(t) =
∞ X
G
und
aj tj ,
j=0 so folgt die verallgemeinerte Panjerrekursion:
k
F {(k + 1)} =
1 X ak−j F {j} k + 1 j=0
N
(3.5.10)
ab. Kennt man die
3.5.
REKURSIONSVERFAHREN
39
Anwendungen 1) Sei
N
Poisson-verteilt mit dem Parameter
λ(z−1)
m(z) = e
und
λ.
Dann gilt
0
m (z) = λeλ(z−1)
Folglich erhalten wir
0 h(t) = λMG (z) =
∞ X
λ(j + 1)G{(j + 1)}tj
j=0 Somit ergibt sich die uns schon bekannte Beziehung
k+1
F {(k + 1)} = 2) Bekanntlich gilt für
a
und
λ X G{j}F {(k + 1 − j)} k + 1 j=1
|x| < 1
(1 + x)a =
∞ X a(a − 1)...(a − (j − 1))
j!
j=0
xj
0 < A < 1 und B > 0 B B(B + A)...(B + (k − 1)A) pk = (1 − A) A k = 0, 1, 2... k! Verteilung auf {0, 1, 2...} und ihre erzeugende Funktion lautet B 1−A A . m(z) = 1 − Az
Somit ist für
eine
Wir zeigen, dass dann die Rekursion
k
1 X F {(k + 1)} = [(k − j)A + (j + 1)B] G{(j + 1)}F {(k − j)} k + 1 j=0 gilt.
Beweis:
In diesem Fall gilt
h(t) =
B M 0 (t) 1 − AMG (t) G
Dann ist ( 3.5.10) äquivalent zu
0 BMG (t)MF (t) = (1 − AMG (t))MF0 (t) Folglich
∞ X k X B(j + 1)G{j + 1}F {k − j}]tk [
(3.5.11)
k=0 j=0
=
∞ X k X [ (−AG{j})(k + 1 − j)F {k + 1 − j} + (k + 1)F {k + 1}]tk k=0 j=1
Wir ändern nun den Summationsindex in der inneren Summe (l=j-1), so folgt
=
∞ X k X [ (−AG{l + 1})(k − l)F {k − l} + (k + 1)F {k + 1}]tk
(3.5.12)
k=0 l=0 Vergleich der Koezienten von (3.5.11) und (3.5.12) liefert die Behauptung.
2
40 KAPITEL 3.
3.6
SCHADENSVERTEILUNG IM KOLLEKTIVEN MODELL
Approximationen
Zunächst erläutern wir die Es sei
X∼F
Edgeworth-Approximation.
eine Verteilungsfunktion mit
terzeugende Funktion
MF (t)
für
t ∈ (r0 , r1 ),
MF (t) = 2
MF (t)et
/2
Existiert die momen-
so gilt dort
∞ X µj j=1
Da
EX n = µF,n .
j!
tj .
ebenfalls eine Potenzreihe ist, gilt
MF (t) =
∞ X
2
aj tj et
/2
.
(3.6.13)
j=1 Wir bezeichnen mit
Lemma 3.6.1
Φ
die standardisierte Normalverteilung.
Es sei (3.6.13) erfüllt. Dann erhalten wir folgende Darstellung
für die Verteilungsfunktion
F:
F (x) =
∞ X
(−1)j aj Φ(j) (x).
(3.6.14)
j=1 Wir betrachten nun den standardisierten Schaden
Z=
X −µ , σ
µ = EX,
σ 2 = E(X − µ)2 .
Dann erhalten wir durch einfache Rechnung folgende Koezienten für die Entwicklung von
FZ : a0 a1 a2
= = =
a3
=
a4
=
a5
=
1 0 0 E(X − µ)3 6 E(X − µ)4 − 3 24 E(X − µ)5 − 10 E(X − µ)3 120
Kapitel 4 Ruintheorie 4.1 Xj
Diskrete Ruinwahrscheinlichkeiten j = 1, 2, ... {Xj : j = 1, 2, ...} sei
j-tes Risiko im j-ten Zeitraum,
Voraussetzung
Xj ∼ F
und
unabhängig.
c Prämie s freie Reserve Wahrscheinlichkeit dafür, dass im ersten Zeitraum kein Ruin eintritt:
U1 (s) = P (X1 ≤ c + s) Wahrscheinlichkeit dafür, dass in den m ersten Zeiträumen kein Ruin eintritt:
Um (s) = P (X1 ≤ c + s, X1 + X2 ≤ 2c + s, ..., Xm ≤ mc + s) m-jährige Ruinwahrscheinlichkeit ist die Wahrscheinlichkeit, dass in den m ersten Zeiträumen Ruin eintritt:
ψm (s) := 1 − Um (s) Monotonieeigenschaft:
Für
s1 ≤ s2
Um (s) ≤ Um−1 (s)
bzw.
ψm (s) ≥ ψm−1 (s)
Um (s1 ) ≤ Um (s2 )
bzw.
ψm (s1 ) ≥ ψm (s2 )
gilt
Wahrscheinlichkeit dafür, dass in den allen Zeiträumen kein Ruin eintritt:
m X U (s) = lim Um (s) = P ( Xj ≤ mc + s, m = 1, 2, ...) m→∞
j=1
Analog
ψ(s) := 1 − U (s) heiÿt
Ruinwahrscheinlichkeit. 41
(4.1.1)
42
KAPITEL 4.
Lemma 4.1.1
RUINTHEORIE
(1) Es gilt folgende rekursive Beziehung: c+s
Z
Um (c + s − u)dF (u), m = 1, 2, ...
Um+1 (s) = 0
(2) Auÿerdem gilt c+s
Z
U (c + s − u)dF (u).
U (s) = 0
Beweis: (1) Nach dem Satz der totalen Erwartung ergibt sich Z
c+s
Um+1 (s) =
k X P( Xj ≤ kc + s, k = 1, 2, .., m + 1|X1 = u) dF (u)
0
j=1
c+s
Z =
P (u + 0
Z =
P( 0
Xj ≤ kc + s, k = 1, 2, .., m + 1|X1 = u) dF (u)
j=2 k−1 X
c+s
k X
Xl+1 ≤ (k − 1)c + c + s − u, k − 1 = 1, 2, .., m|X1 = u) dF (u)
l=1
Wegen der Unabhängigkeit folgt weiter
Z Um+1 (s) =
c+s
n X Xl+1 ≤ (k − 1)c + (c + s − u), n = 1, 2, .., m) dF (u) P(
0
l=1
Z
c+s
Um (c + s − u) dF (u)
= 0
2
(2) ergibt sich durch Grenzübergang.
Beispiel 4.1.2
Wir betrachten den Spezialfall, dass
P (Xi = x0 ) = 1 und setzen
d := x0 − c.
Dann gilt
U1 (s) = δd (s). Induktiv erhält man
Um (s) = δmd (s) und somit
U (s) =
1 , wenn δ0 (s) , wenn 0 , wenn
d<0 d=0 d>0 2
Der Fall
d > 0
ist besonders dramatisch. Wir verallgemeinern diesen Fall für
nicht deterministische Schäden. Wir führen zunächst die Zufallsgröÿen
Yi = Xi − c,
i = 1, 2, ...
4.1.
DISKRETE RUINWAHRSCHEINLICHKEITEN
43
Yi kann man als den eektiven Schaden, den der Versicherer Yi mit H bezeichnet. Der eektive Schaden in den ersten m
ein. Die Zufallsgröÿe im
i−ten
Intervall zu tragen hat, interpretieren. Die Verteilungsfunktion von
werde im weiteren Intervallen ist dann
Zm :=
m X
Yi .
i=1 Oenbar gelten die Beziehungen
Um (s) = P (max(Zi : i = 1, 2, · · · , m} ≤ s) und
U (s) = P (sup(Zi : i = 1, 2, · · · ) ≤ s).
Satz 4.1.3
Es sei {Yi }i=1,2,... eine Folge unabhängiger und identisch verteilter Zufallsgröÿen mit der Verteilungsfunktion H mit erstem Moment und es gelte
EYi =: d > 0 Dann gilt
U (s) = 0,
s ≥ 0.
(4.1.2)
Beweis: Es sei A := {Zi ≤ s Für
ω∈A
i = 1, 2, · · · }
folgt somit
limn→∞
Zn ≤ 0. n
Nach dem starken Gesetz der groÿen Zahlen folgt
n
1 1X Yj = lim Zn = d) = 1 n→∞ n n→∞ n j=1
P ( lim
Wegen
d>0
folgt somit, dass
P (A) = 0
gelten muss, also ist (4.1.3) erfüllt.
2
Satz 4.1.4
Es sei {Yi }i=1,2,... eine Folge unabhängiger und identisch verteilter Zufallsgröÿen mit der Verteilungsfunktion H mit erstem Moment und es gelte
EYi =: d < 0 Dann gilt
lim U (s) = 1.
s→∞
(4.1.3)
Zum Beweis benötigen wir folgenden Hilfsatz.
Lemma 4.1.5
Es sei {Yi }i=1,2,... ein unabhängiges System von Zufallsvariablen. Unter der Voraussetzung EYi =: d < 0 gilt
P ω : lim Zn (ω) = −∞ = 1. n→∞
(4.1.4)
44
KAPITEL 4.
RUINTHEORIE
Beweis: Wir führen den Beweis indirekt und nehmen an, dass gilt P ω : lim Zn (ω) > −∞ = P (A) > 0. n→∞
Nach der Denition des oberen Grenzwertes gilt also
lim sup (Zk , Zk+1 , . . .) > −∞.
k→∞ Wir setzen
dk (ω) := sup (Zk , Zk+1 , . . .) . Dann konvergiert
d (ω).
dk (ω),
da es monoton fallend ist, für alle
Somit existiert zu jedem
n>0
ein
kn ∈ N,
dk (ω) > d (ω) − Somit existiert für alle
kn + n ≥ kn
ein
1 . n
hn ≥ kn + n
Zhn (ω) > d (ω) − und die Folge
{hn }n=1,...
ω ∈ A gegen ein k ≥ kn gilt,
so dass für alle
mit der Eigenschaft.
1 n
ist unbeschränkt. Weiter ergibt sich
d (ω) − 1 Zhn (ω) > − . hn hn hn n Bilden wir den oberen Grenzwert für
lim
k→∞
n → ∞,
so folgt
Zk (ω) ≥ 0. k
Nach dem starken Gesetz der groÿen Zahlen gilt aber
P
Zk (ω) =d<0 ω : lim k→∞ k
= P (B) = 1.
(4.1.5)
Daraus folgt, dass der Grenzwert existiert und dass
lim
k→∞ für
Zk (ω) ≥0 k
ω ∈ A gilt. Dies steht im Widerspruch zu (4.1.5). Damit war obige Annahme (4.1.4) ist bewiesen. 2
falsch und
Beweis von Satz 4.1.4: Es ist EYi = d < 0. Nach Lemma 4.1.5 gilt dann P ω : lim Zn (ω) = −∞ = P (A) = 1. n→∞
Daraus folgt trivialerweise sofort, dass auch
lim Zn (ω) = lim sup (Zk (ω) , Zk+1 (ω) , . . .)
n→∞
k→∞
= lim dk (ω) k→∞
= −∞
4.2.
ELEMENTE DER IRRFAHRTTHEORIE
gilt. Es ist alle
η
dk (ω) aber monoton k0 derart, dass
45
fallend und damit existiert für alle
ω∈A
und
eine Zahl
dn (ω) < η,
n ≥ k0 .
Daraus folgt
Zn (ω) < η Es gilt also für alle
∀n ≥ k0 .
ω∈A
Z := sup(Zn (ω) : n ≥ 1) = max (max (Z1 , . . . , Zk0 −1 ) , sup (Zk0 , Zk0 +1 , . . .)) ≤ max (max (Z1 (ω) , . . . , Zk0 −1 (ω)) , η) < ∞. Es ist
Z
somit endlich für alle
(4.1.6)
ω ∈ A.
Wegen
P (A) = 1
ist
Z
eine eigentliche
Zufallsgröÿe. Daher erhalten wir
U (s) = P (Z ≤ s) . Lassen wir
s
gegen unendlich konvergieren, erhalten wir (4.1.3).
EYi = d = 0
Der Fall
2
ist etwas schwieriger zu behandeln. Wir benötigen dazu
einige Resultate aus der Irrfahrttheorie, die wir im nächsten Abschnitt zusammenstellen.
4.2
Elemente der Irrfahrttheorie
Die Folge
{Yi }i=1,2,...
von Zufallsgröÿen sei unabhängig und identisch verteilt.
Wir denieren
n X
Zn :=
Yi ,
n = 1, 2, ...
i=1 und setzen
Z0 := 0 Die Folge
{Zn }n=1,2,...
Denition 4.2.1 falls
m=0
oder
heiÿt dann
Der Index
m≥1
m
Irrfahrt.
heiÿt aufsteigender Leiterindex der Irrfahrt,
und
Zm > Zj ,
j = 0, 1, 2, ..., m − 1
erfüllt ist.
Denition 4.2.2 falls
−
m =0
Der Index m − oder m ≥ 1 und
−
Zm− ≤ Zj , erfüllt ist.
heiÿt absteigender Leiterindex der Irrfahrt,
j = 0, 1, 2, ..., m− − 1
46
KAPITEL 4.
RUINTHEORIE
Wir betrachten folgende Ereignisse
Ak = {es
gibt genau k aufsteigende Leiterindizes}
und
Bk = {es
gibt mindestens k aufsteigende Leiterindizes}
und setzen
p := P (A1 ) = P (Zi ≤ 0, i = 1, 2, ...}.
Lemma 4.2.3
Es gelten die Beziehungen
P (Ak ) = p(1 − p)k−1 ,
k = 1, 2, ...
P (Bk ) = (1 − p)k−1 ,
k = 1, 2, ...
(4.2.7)
und (4.2.8)
Beweis: Es sei Cn,k := {n
ist der k-te aufsteigende Leiterindex}
Cn,k hängt von den Zufallsgröÿen Y1 , ..., Yn ab, d. h. Cn,k liegt σ−Algebra σ(Y1 , ..., Yn ); dies ist in die kleinste σ -Algebra, die aus den Zufallsgröÿen Y1 , ..., Yn erzeugt wird. Es gilt oenbar
Das Ereignis der
Bk =
∞ [
Cn,k .
n=0 Weiter haben wir
Ak ∩ Cn,k = {es
gibt genau k aufsteigende Leiterindizes und der k-te ist n}
= P (Cn,k ∩ {Zm ≤ Zn ,
m = n + 1, ...}.
Wir setzen
Dn := {Zm ≤ Zn ,
m = n + 1, ...}
und erhalten
Ak ∩ Cn,k = Cn,k ∩ Dn . Es gilt oenbar
m X
Dn = {Zm − Zn =
Yj ≤ 0,
m = n + 1, ...}
j=n+1
Dn von den Zufallsgröÿen Yn+1 , Yn+2 , ... ab, d. h. Dn liegt in σ−Algebra σ(Ym : m = n, n + 1, ..). Folglich sind nach Voraussetzung die Ereignisse Cn,k und Dn unabhängig. Wegen und somit hängt
der
P (Ak ) =
∞ X n=1
P (Ak ∩ Cn,k )
4.2.
ELEMENTE DER IRRFAHRTTHEORIE
erhalten wir
P (Ak ) =
∞ X
47
P (Cn,k )P (Dn ).
n=1 Nach Voraussetzung gilt sogar
P (Dn ) = P (D0 ) = p und es folgt
P (Ak ) = p
∞ X
P (Cn,k ) = pP (Bk ).
(4.2.9)
n=1 Weiter bemerken wir die Beziehungen
Bk+1 ⊆ Bk und
Bk \ Bk+1 = Ak . Es folgt somit
P (Bk ) − P (Bk+1 ) = P (Ak ). Wenden wir (4.2.9) für
k=j
und
k =j+1
an, so ergibt sich
P (Ak ) − P (Ak+1 ) = p (P (Bk ) − P (Bk+1 )) = pP (Ak ) und somit
P (Ak+1 ) = (1 − p)P (Ak ) Hieraus folgt (4.2.7). Wegen
P (B k ) =
k−1 [
Aj
j=1
2
folgt (4.2.8). Unter der Voraussetzung
p=0
erhalten wir also
P(
∞ \
P (Bk ) = 1
und folglich
Bk ) = 1
j=1 Es existieren somit unendlich viele aufsteigende Leiterindizes. Der terindex sei
Tj .
Dann gilt
T0 = 0 < T1 < T2 < . . . Wir führen die Zufallsgröÿen
Hk := ZTk − ZTk−1 . Es gilt oensichtlich
max(Zj : j = 1, 2, ..., n) =
n X
Hj .
j=1 Deswegen untersuchen wir die Eigenschaften der Folge
{Hk }k=1,2,... .
j−te
Lei-
48
KAPITEL 4.
Satz 4.2.4
Es sei p = 0 und FY1 6= hängig, identisch verteilt und es gilt
δ0 .
Dann ist die Folge
RUINTHEORIE
{Hk }k=1,2,...
EH1 > 0, wenn
EY1 = d = 0
unab-
(4.2.10)
ist.
Beweis: 1. Wir zeigen zunächst, dass {Hk }k=1,2,... identisch verteilt ist. Es gilt nach Denition
{Tk−1 = m, Tk = n} =
{Tk−1 = m, Zm+1 > Zm }, {Tk−1 = m, Zm+1 ≤ Zm , . . . , Zn−1 ≤ Zm , Zn > Zm },
wenn wenn
n=m+1 n>m+1
=: {Tk−1 = m} ∩ Em,n . Em,n hängt von den Zufallsgröÿen Ym+1 , · · · , Yn ab. Also ist es σ−Algebra σ(Ym+1 , · · · , Yn ). Dagegen liegt {Tk−1 = m} in σ(Y1 , · · · , Ym ). Somit sind die Ereignisse Em,n und {Tk−1 = m}
Das Ereignisse
Element von der
σ−Algebra
unabhängig. Es gilt weiter
X
P (Hk ≤ x) =
P (Zn − Zm ≤ x, Tk−1 = m, Tk = n}
m
X
=
P (Tk−1 = m)P (Zn − Zm ≤ x} ∩ Em,n )
m
=
∞ X
∞ X
P (Tk−1 = m)
P (Zn−m ≤ x} ∩ E0,n−m )
n=m+1
m=0
=
∞ X
P (Tk−1 = m)
m=0
∞ X
P (Zj ≤ x} ∩ E0,j ).
j=1
Daraus folgt wegen
∞ X
P (Tk−1 = m) = 1
m=0 die Beziehung
P (Hk ≤ x) =
∞ X
P ({Zj ≤ x} ∩ E0,j )
j=1 und damit ist
{Hk }k=1,2,...
2. Wir zeigen, dass
H1 , H2
identisch verteilt. unabhängig sind. Es gilt oenbar
P (H1 ≤ x1 , H2 ≤ x2 ) =
X
P (H1 ≤ x1 , H2 ≤ x2 , T1 = m, T2 = n)
m
=
X
P ({H1 ≤ x1 , Zn − Zm ≤ x2 , T1 = m} ∩ Em,n )
m
=
X m
P ({H1 ≤ x1 , T1 = m} ∩ {Zn − Zm ≤ x2 } ∩ Em,n ).
4.2.
ELEMENTE DER IRRFAHRTTHEORIE
49
Die Ereignisse {H1 ≤ x1 , T1 = m} ∈ σ(Y1 , · · · , Ym ) und {Zn − Zm ≤ x2 } ∩ Em,n ∈ σ(Ym +1, · · · , Yn ) sind unabhängig. Somit folgt
P (H1 ≤ x1 , H2 ≤ x2 ) = ∞ X
∞ X
P ({H1 ≤ x1 , T1 = m}
m=0
P ({Zn − Zm ≤ x2 } ∩ Em,n )
n=m+1 ∞ X
=
P ({H1 ≤ x1 , T1 = m}
∞ X
m=0
P ({Zj ≤ x2 } ∩ E0,j )
j=1
Wie in ersten Teil erhalten wir
P (H1 ≤ x1 , H2 ≤ x2 ) = P (H1 ≤ x1 )P (H1 ≤ x1 ) und somit sind
H1
und
H2
unabhängig. Mit einem einfachen Induktionsbeweis
schlieÿen wir, dass die Folge 3. Es gilt nach Denition
{Hk }k=1,2,...
EH1 ≥ 0.
unabhängig ist.
Wir nehmen an, dass
EH1 = 0
ist und
erhalten dann
0 = EH1 =
∞ X
EZn I{T1 =n} ≤ EZ1 I{T1 =1} = EY1 I{Y1 >0} ≥ 0.
n=1 Also folgt
EY1 I{Y1 >0} = 0. Wegen
EY1 = d = 0
folgt
0 = EY1 I{Y1 >0} + EY1 I{Y1 =0} + EY1 I{Y1 <0} und somit
EY1 I{Y1 <0} = 0. Somit ist wegen
|Y1 | = Y1 I{Y1 >0} − Y1 I{Y1 <0} E|Y1 | = 0, d. h.
FY1 = δ0
im Widerspruch zur Voraussetzung. Wir erhalten also (4.2.10) 2
Wir zeigen nun, dass die Zusatzvoraussetzung im vorherigen Satz, dass ist, stets erfüllt ist.
Lemma 4.2.5
Wenn
EY1 = d = 0,
so ist
p = 0.
Beweis: 1. Wir betrachten die Ereignisse A˜k = {es
gibt genau k absteigende Leiterindizes}
und
˜k = {es B
gibt mindestens k absteigende Leiterindizes}
und setzen
p˜ := P (A˜1 ) = P (Zi > 0, i = 1, 2, ...}.
p=0
50
KAPITEL 4.
RUINTHEORIE
Analog zu Lemma 4.2.3 folgt
P (A˜k ) = p˜(1 − p˜)k−1 ,
k = 1, 2, ...
˜k ) = (1 − p˜)k−1 , P (B
k = 1, 2, ...
und
p˜ > 0
2. Wir zeigen, dass im Fall dass
p>0
die Behauptung
p=0
gilt. Wir nehmen an,
ist.
Wir bemerken, dass
P (n
ist aufsteigender Leiterindex)
= P (Zn > Zj , j = 0, . . . , n − 1)
= P (Zn − Zj > 0, j = 0, . . . , n − 1) = P (Zn−j > 0, j = 0, . . . , n − 1) = P (Zj > 0, j = 1, . . . , n). Oenbar gilt
P (n
ist aufsteigender Leiterindex)
Weiter gilt für
= P (Z1 > 0, . . . , Zn > 0) > p˜ > 0.
(4.2.11)
k = 2, . . .
P (Bk ) =
∞ X
P (n
ist k-ter aufsteigender Leiterindex)
n=1 und es folgt wegen Lemma 4.2.3
∞ X
P (Bk ) =
k=2
∞ X
(1 − p)k−1 =
k=2
1−p < ∞. p
(4.2.12)
Andererseits folgt wegen (4.2.11)
∞ X ∞ X
P (n
ist k-ter aufsteigender Leiterindex)
k=2 n=1
=
∞ X ∞ X
P (n
ist k-ter aufsteigender Leiterindex)
n=1 k=2
=
∞ X
P (n
ist aufsteigender Leiterindex)
= ∞.
n=1 Somit ergibt zu (4.2.12) ein Widerspruch und es folgt somit 3. Es gelte
p˜ = 0.
Wir zeigen, dass dann
p = 0.
Im Fall
p = 0.
p˜ = 0
folgt, dass
˜k ) = 1 P (B und somit existiert eine unendliche Folge absteigender Leiterindizes
T0− < T1− < T2− < . . . Wir setzen
Hk− := ZT − − ZT − < 0 k
k−1
4.2.
ELEMENTE DER IRRFAHRTTHEORIE
51
und
− Dk := Tk− − Tk−1 . Analog zum Beweis von Satz 4.2.4 zeigt man, dass die Folge
{Hk− }k=1,2,...
un-
abhängig, identisch verteilt ist und es gilt
EH1− < 0, wenn
EY1 = d = 0
(4.2.13)
ist. Weiter folgt mit ähnlichen Mitteln wie im Beweis von
Satz 4.2.4, dass die Folge
{Dk }k=1,2,...
unabhängig, identisch verteilt ist. Wir
zeigen darüber hinaus, dass
ED1 = ∞
(4.2.14)
Wir beweisen dies indirekt und nehmen an, dass
ED1 < ∞
(4.2.15)
gilt. Dann erhalten wir
ED1 =
∞ X
∞ X X
P (T1− > n) = 1 +
n=0
=1+
∞ X X
P (T1− = m)
n=1 m=n+1
P (Zm ≤ 0, Zj > 0, j = 1, 2, . . . , m − 1).
n=1 m=n+1 Auÿerdem folgt
P (Zm ≤ 0, Zj > 0, j = 1, 2, . . . , m − 1) = P (Zj > 0, j = 1, 2, . . . , m − 1) − P (Zj > 0, j = 1, 2, . . . , m). Wegen
p˜ = 0
folgt somit
ED1 = 1 +
∞ X
P (Zj > 0, j = 1, 2, . . . , n).
(4.2.16)
n=1 Nach dem starken Gesetz der groÿen Zahlen gilt
Zn =0 n
lim
n→∞
mit Wahrscheinlichkeit 1. Dies gilt insbesondere für alle unendlichen Teilfolgen, also insbesondere haben wir
lim
k→∞
ZT − k
=0
Tk−
mit Wahrscheinlichkeit 1. Weiter gilt
ZT − =
k X
k
Hi−
i=1 und
Tk− =
k X i=1
Di .
(4.2.17)
52
Da
KAPITEL 4.
{Hk− }k=1,2,...
und
Erwartungen von
H1
RUINTHEORIE
{Dk }k=1,2,... unabhängig, identisch verteilt sind und die D1 existieren, gilt für beide Folgen das starken Gesetz
und
der groÿen Zahlen, d. h. es sind
ZT − k
lim
k→∞
k
k 1X − Hi = EH1 < 0 k→∞ k i=1
= lim
und
k Tk− 1X = lim Di = ED1 > 0 k→∞ k k→∞ k i=1
lim
mit Wahrscheinlichkeit 1 erfüllt. Folglich gilt auch
lim
ZT − k
Tk−
k→∞
=
EH1 <0 ED1
mit Wahrscheinlichkeit 1. Diese steht im Widerspruch zu (4.2.17). Somit ist die Annahme (4.2.15) falsch und es gilt (4.2.14). Damit ergibt sich aus (4.2.16) auÿerdem
∞ X
P (Zj > 0, j = 1, 2, . . . , m) = ∞.
n=1 Wie im Beweisteil 2 erhalten wir Fällen
p˜ > 0
4.3
und
p˜ = 0
p = 0. Wir haben p = 0 folgt.
also gezeigt, dass in den
2
die Behauptung
Ruin bei ausgeglichenen resultieren Schäden
Wir formulieren den Hauptergebnis der Ruintheorie.
Satz 4.3.1 H 6= δ0 .
Die Zufallsgröÿen
Yj
seien unabhängig und identisch verteilt nach
Es gelte
EYj = 0. Dann gilt
U (s) = 0,
Beweis:
Aus Lemma 4.2.5 folgt
−∞ < s < ∞
p = 0.
Wir haben also eine unendliche Folge
aufsteigender Leiterindizes und es gilt
max(Zj : j = 1, 2, . . . , n) =
n X
Hj
j=1 Wegen
EH1 > 0
folgt aus dem starken Gesetz der groÿen Zahlen
P (Z := sup(Zj : j = 1, 2, . . .) = ∞) = 1 Folglich erhalten wir
U (s) = P (Z ≤ s) = 0 und die Behauptung ist gezeigt.
2
4.4.
ABSCHÄTZUNGEN DER RUINWAHRSCHEINLICHKEIT
4.4
53
Abschätzungen der Ruinwahrscheinlichkeit
Wir beginnen mit der Denition des teilungsfunktion
H
Denition 4.4.1
bezeichne
MH
Anpassungskoezienten. Für eine Ver-
die momenterzeugende Funktion.
Eine Verteilungsfunktion
R∞
(1)
∞ < mH,1 :=
(2)
r := sup{t ≥ 0 : MH (t) < ∞} > 0
(3)
limt→r− MH (t) ≥ 1
Dann heiÿt
R>0
−∞
H
erfülle folgende Bedingungen:
udH(u) < 0
mit
MH (R) = 1 Anpassungskoezient von
Lemma 4.4.2
H. H R.
Erfüllt eine Verteilungsfunktion
(3), dann existiert eine Anpassungskoezient
die Bedingungen (1), (2) und
Beweis: Wegen (2) existiert eine Umgebung (0, t1 ) mit t1 > 0, wo MH (t) < 1. Wir unterscheiden zwei Fälle bezüglich
r = ∞. In diesem Fall H(0) = 1 folgen würde
a) Zunächst sei sein. Da für
r kann
H
nicht auf
(−∞, 0]
konzentriert
lim MH (t) = H({0}).
r→∞ Wegen (3) ergibt sich dann
H = δ0 . Dies ist aber wegen t2 > 0 und wir haben
(1) unmöglich. Folglich
existiert ein Wachstumspunkt
lim MH (t) = ∞.
t→∞
Damit erhalten wir aus der Stetigkeit von von
MH
MH ,dass
eine kleinste 1-Stelle
R>0
existiert.
r < ∞, so gilt wegen der Stetigkeit von MH entweder MH (r) = 1 MH (r) > 1. Im beiden Fällen schlieÿen wir wie unter a).
b) Ist
Beispiel 4.4.3 wenn
µ < 0.
Es sei
H = N (µ, σ 2 ).
oder
2
Dann sind die Voraussetzungen erfüllt,
Wir erhalten
MN (µ,σ2 ) (t) = eµt+
σ2 2 2 t
Nach einfacher Rechnung erhalten wir
R=
−2µ σ2 2
Beispiel 4.4.4
Es sei
H1
die Verteilungsfunktion der Dichte
( h1 (x) =
1 R∞ 1
e−u u2
0,
wenn
e−x 2 , du x
wenn
x<1 x≥1
54
KAPITEL 4.
Wir setzen
c := R ∞ 1 und bilden
H = aδ−1 + (1 − a)H1 .
RUINTHEORIE
1 e−u u2
du
Dann gilt
∞
Z
e−u du. u
mH,1 = −a + (1 − a)c 1 Setze wir
∞
Z S := 1
e−u du, u
so haben wir
mH,1 = −a + (1 − a)cS. Die Voraussetzung (1) gilt, falls
a>
cS 1 + cS
(4.4.18)
Auÿerdem gilt
MH (t) = ae−t + (1 − a)c
∞
Z 1
Folglich erhalten wir
r=1 −1
MH (1) = ae
e−(1−t)u du. u2
und
Z
∞
+ (1 − a)c 1
1 du = ae−1 + (1 − a)c < ∞. u2
Dann ist die Voraussetzungen (3) erfüllt, wenn
a≤
MH (1) ≥ 1,
c−1 . c − e−1
d. h.
(4.4.19)
Die Ungleichungen (4.4.18) und (4.4.19) sind erfüllt, falls
cS c−1 ≤ , 1 + cs c − e−1 Die letzte Ungleichung ist gleichwertig mit
c≥ Wegen
1 < c
Z
∞
1
1 1 − S(1 − e−1 )
e−u du < u2
Z
∞
e−u du = e−1
1
genügt es
1 <e 1 − S(1 − e−1 ) S < 1. Wegen Z ∞ du < e−u du < e−1
nachzuweisen. Dies ist gleichwertig mit
Z S= 1
∞
e−u u
1
(4.4.20)
4.4.
ABSCHÄTZUNGEN DER RUINWAHRSCHEINLICHKEIT
55
ist die letzte Ungleichung erfüllt und es gilt somit (4.4.20). Somit sind im Fall
cS c−1 ≤a≤ 1 + cS c − e−1
die Voraussetzungen (1), (2) und (3) erfüllt. Es ist leicht zu sehen, dass im Fall
cS . 1 + cS
a<
die Voraussetzung (1) nicht erfüllt ist, aber die Voraussetzungen (2) und (3). Schlieÿlich ist im Fall
a≥
c−1 c − e−1 2
die Voraussetzung (3) nicht erfüllt, aber es gilt (1) und (2).
Satz 4.4.5
Es sei die Folge {Yi }i=1,... unabhängig und identisch nach und es existiere der Anpassungskoezient zu H . Dann haben wir
H
verteilt
m X ψ(s) := P (sup{ Yj : m ≥ 1} ≥ s) ≤ e−Rs j=1
Beweis: Wir denieren für s ≥ 0 m X ψn (s) := P (sup{ Yj : n ≥ m ≥ 1} ≥ s). j=1 und setzen für
s<0 ψn (s) = 1
Mit dem Satz von der totalen Erwartung erhalten wir
Z
∞
ψn (s − u) dH(u).
ψn+1 (s) = −∞ Oenbar gilt
lim ψn (s) = ψ(s)
n→∞ Demnach genügt es zu zeigen, dass
ψn (s) ≤ e−Rs erfüllt ist. Wir beweisen die Ungleichung mit Hilfe vollständiger Induktion. Für
n=1
ergibt sich
ψ1 (s) = P (Y1 ≥ s) = P (eY1 ≥ eRs ) ≤ EeRY1 e−Rs ≤ MH (R)e−Rs ≤ e−Rs . n + 1 erhalten wir auf Grund der Induktionsvoraussetzung Z ∞ Z ∞ ψn+1 (s) = ψn (s − u) dH(u) ≤ e−R(s−u) dH(u) ≤ e−Rs
Für beliebiges
−∞
−∞
2
56
KAPITEL 4.
RUINTHEORIE
Anwendung auf den zusammengesetzte Poisson-Verteilungen In diesem Fall gilt
Yj = Xj − c, wobei
c
die Prämie ist und
Xj ∼ Z(λ, G).
Dann gilt bekanntlich
MF (t) = e−λ(MG (t)−1) und somit
MH (t) = e−λ−ct+λ MG (t) Oenbar gilt
0 0 MH (t) = (−c + λ MG (t))e−λ−ct+λ MG (t) und somit für
t=0 mH,1 = −c + λ mG,1 .
Auÿerdem folgt aus der Gestalt der momenterzeugenden Funktion
MH ,
dass
r = sup{t > 0 : MG (t) < ∞} Schlieÿlich ist (3) aus der Denition des Anpassungskoezienten von für
r<∞
äquivalent zu
lim MH (t) = e−λ−cr+λ MG (r) ≥ 1,
t→r− d. h.
λ MG (r) ≥ λ + cr Andererseits ist für
r=∞
(3) trivial erfüllt, falls
lim
t→∞
G 6= δ0 ,
da in diesem Fall
MG (t) = ∞. t
Wir erhalten somit folgendes Resultat
Satz 4.4.6
Für die Zufallsgröÿe
Yj ∼ H
gelte
Yj = Xj − c wobei
c>0
Xj ∼ ZP (λ, G). Dann existiert genau H , wenn folgende Bedingungen gelten:
die Prämie ist und
Anpassungskoezient
R
von
(1)
mG,1 <
dann ein
c λ
(2)
r = sup{t > 0 : MG (t) < ∞} > 0 (3) Wenn
r < ∞,
dann gilt
λ MG (r) ≥ λ + cr. Zur besseren Unterscheidung denieren wir den Anpassungskoezienten eines zusammengesetzten Poissonverteilung
4.4.
ABSCHÄTZUNGEN DER RUINWAHRSCHEINLICHKEIT
Denition 4.4.7 Lösung
57
Gelten (1) (2) und (3) aus Satz 4.4.6, dann heiÿt die kleinste
t =: R∗ > 0
von
λ + ct = λ MG (t). Anpassungskoezient zu
(λ, c, G).
Beispiel 4.4.8
G = (1 − α)δ0 + αδM
Es gelte
mit
0 < α < 1.
Weiter sei
c , λ
αM < so dass (1) erfüllt ist. Dann erhalten wir
MG (t) = (1 − α) + αetM Folglich ist
r = ∞. Setze a := c/(λ α M ), dann gilt a > 1. Auÿerdem ist t =: R∗
Lösung der Gleichung
1 + aM t = etM Folglich erhalten wir
1 1 + aM t > 1 + tM + t2 M 2 , 2 d. h.
R∗ = t <
1 (a − 1) 2 2
Wir suchen nun obere und untere Abschätzungen für den Anpassungskoezienten
R∗ .
Lemma 4.4.9
Es existiere
R∗
zu
(λ, c, G)
und gelte
c . λ
mG,1 < Dann folgt
R ∗ ≤ R0 , wobei
R0 = t
(4.4.21)
der folgenden Gleichung genügt:
λ + ct = λemG,1 t , R0 ist der Anpassungskoezient zu (λ, c, δmG,1 ). Insbesondere gilt nur dann Gleichheit, falls G = δw für ein gewisses d. h.
Beweis: Die Taylorentwicklung von eR eR wobei
∗
t
0 ≤ b ≤ a.
= eR
∗
a
∗
t
+ (t − a) R∗ eR
∗
an der Stelle
a
a = mG,1
eR
∗
t
≥ eR
∗
a
+ (t − a) R∗ eR
lautet
∗ 1 + (t − a)2 (R∗ )2 eR b , 2
Folglich ergibt sich die Abschätzung ∗
a
1 + (t − a)2 (R∗ )2 . 2
w.
58
KAPITEL 4.
Wir integrieren nun (bezüglich
dG(t))
MG (R∗ ) ≥ eR wobei mit
2 σG
und erhalten ∗
a
+
1 ∗ 2 2 (R ) σG , 2
G ist. Weiter folgt nach Multiplikation
das zweite zentrale Moment zu
λ
λ ∗ 2 2 (R ) σG , 2
λ + cR∗ ≥ λeat + d. h.
RUINTHEORIE
∗ λ ∗ 2 2 (R ) σG ≤ λ + cR∗ − λeaR . 2
Setzen wir
f (t) := λ + ct − λeat , so folgt
f (R∗ ) > 0.
Die Funktion
f
ist konkav und erfüllt
f (0) = λ > 0
und
lim f (t) = −∞.
t→∞ Somit existiert eine Stelle
R0 > 0
mit
f (R0 ) = 0
und für
t > R0
gilt
f (t) > 0.
Folglich muss (4.4.21) gelten. Gleichheit gilt in (4.4.21) genau dann, wenn gewisses
2 σG = 0,
d. h.
G = δw
w.
Sind die Teilrisiken
Yj
für ein
2
mit Wahrscheinlichkeit 1 von oben beschränkt, so ergibt
sich ganz analog eine obere Schranke für den Anpassungskoezienten.
Lemma 4.4.10
Es existiere
R∗
zu
(λ, c, G) c . λ
mG,1 < M >0
und für eine Konstante
und gelte
gelte
G(M ) = 1 Dann folgt
R ∗ ≥ R1 , wobei
R1 = t
folgender Gleichung genügt:
λ + ct = λemG,1 t +
λ 2 2 Mt σ t e . 2 G
Bemerkung. Man kann zeigen, dass R1 nicht ein Anpassungskoezienten einer zusammengesetzten Poissonverteilung mit nichtnegativen Teilrisiko sein kann.
Beweis: Die Taylorentwicklung von eR eR wobei
∗
t
0 ≤ b ≤ a. eR
∗
t
= eR
∗
a
∗
t
+ (t − a) R∗ eR
∗
an der Stelle
a
a = mG,1
lautet
∗ 1 + (t − a)2 (R∗ )2 eR b , 2
Folglich ergibt sich die Abschätzung
≤ eR
∗
a
+ (t − a) R∗ eR
∗
a
∗ 1 + (t − a)2 (R∗ )2 eR M . 2
4.4.
ABSCHÄTZUNGEN DER RUINWAHRSCHEINLICHKEIT
Wir integrieren nun (bezüglich
dG(t))
MG (R∗ ) ≤ eR wobei mit
2 σG
∗
a
59
und erhalten
1 ∗ 2 2 R∗ M (R ) σG e , 2
+
das zweite zentrale Moment zu
G ist. Weiter folgt nach Multiplikation
λ λ + cR∗ ≤ λeat +
d. h.
h(t) := λeat + Für die Hilfsfunktion
h
λ ∗ 2 2 (R ) σG , 2
λ ∗ 2 2 (R ) σG − λ − cR∗ ≥ 0 2
folgt, dass
h(0) = 0, h0 (0) < 0
und
h00 (t) > 0
Hieraus folgt wie im Beweis von Lemma 4.4.9 die Behauptung.
gelten.
2
Approximationen des Anpassungskoezienten Es seien die Momente der nicht ausgearteten Verteilung
G bekannt und der MG (t) sei positiv.
rechte Konvergenzradius der momenterzeugenden Funktion Dann gilt
MG (t) =
∞ X mG,k k=0
Wir führen nun die Funktion
f (t) =
∞ X k=1
k!
tk ,
0 < t < r.
f ∞
2mG,k+1 k X t = αk tk , mG,2 (k + 1)!
0
k=1
Eine einfache Rechnung zeigt, dass die Gleichung
λ + ct = λ MG (t). äquivalent ist zu
f (t) = z :=
2(c − λmG,1 ) . λmG,2
Wir denieren nun die Stutzungen von
fn (t) =
n X
f
αk tk ,
n ≥ 1.
k=1 wegen
αk > 0
gilt folgende Monotonieeigenschaft
fn (t) < fn+1 (t) < f (t) Bezeichne nun
Rn∗
die z-Stelle von
fn ,
d. h.
fn (t) = z. Sie ist eindeutig bestimmt. Wir fassen die Eigenschaften der Approximationen zusammen.
60
KAPITEL 4.
Satz 4.4.11
RUINTHEORIE
Es gelten folgende Beziehungen ∗ Rn∗ < Rn+1 < R∗
(4.4.22)
und
lim Rn∗ = R∗ .
(4.4.23)
n→∞
Auÿerdem gilt
Rn∗
∞ X
1−
! αk (Rn∗ )k−1
< R∗ .
(4.4.24)
k=n+1
Beweis: 1. Wegen fn (Rn∗ ) = z erhalten wir f( Rn∗ ) > fn+1 (Rn∗ ) > z Also folgt
∗ R∗ > Rn+1 > Rn∗ und die Folge
{Rn∗ }n=1,2,..
ist streng monoton wachsend und nach oben be-
schränkt. Es gilt weiter
Rn∗ − R∗ ≤
n X
αk [(Rn∗ )k − (R∗ )k ]
k=1
= fn (Rn∗ ) − fn (R∗ ) = f (R∗ ) − fn (R∗ ) ∞ ∞ X X αk (R∗ )k < αk (Rn∗ )k . < k=n+1
k=n+1 Hieraus folgt(4.4.24). Weiter folgt
lim Rn∗ =: b ≤ R∗
n→∞ und aus (4.4.22) ergibt sich
b ≤ R∗ 2
also folgt (4.4.23).
Beispiel 4.4.12
Wir wenden die Approximation aus Satz 4.4.11 für
n=1
an.
Dann folgt
R∗ < R1∗ = z =
4.5
2(c − λ mG,1 ) λ mG,2
Roulette-Aufgabe
Wir betrachten als Schäden die Zwei-Punkt-Verteilung
F = (1 − p)δ0 + pδM mit
m≥2
und
M p < 1.
Weiter gelte für die Prämie
Erwartungswert
EXj = M p < c = 1
c = 1.
Es gilt also für den
4.5.
ROULETTE-AUFGABE
61
Wir werden die Überlebenswahrscheinlichkeit
U (s) herleiten. Es bezeichne U{ t} {1, 2, ..., t}, d. h. es gelte
die diskrete gleichmäÿige Verteilung im Intervall
Ut {j} = Die erzeugende Funktion von
Satz 4.5.1 alle
s≥0
Ut
1 , t
j = 1, 2, ..., t.
mU t .
sei
Unter den Voraussetzungen
c = 1, M p < 1
und
M ≥ 2
folgt für
die Darstellung
U (s) = U (0)
∞ X
j? [1 − U (0)]j UM −1 (s),
(4.5.25)
j=0
wobei
U (0) = 1 −
Beweis:
a) Die Summe
triert. Deswegen ist
0, 1, 2, ...
Pn
U (s)
j=1
auf
p(M − 1) 1−p
Xj ist oenbar auf {0, M, 2M, ..., nM } konzen[k, k + 1) konstant und es genügt, U (k), k =
zu bestimmen. Wir setzen
ak := U (k) b) Nach der Rekursionsformel aus Lemma 4.1.1 ergibt sich
U (s) = Für
s=k
(1 − p)U (s + 1) + pU (s + 1 − M ), (1 − p)U (s + 1),
wenn wenn
s≥M −1 . s<M −1
lässt sich dies schreiben als
ak = (1 − p)ak+1 + pak+1−M I[M −1,∞) . Die Folge
{ak }k=1,2,...
(4.5.26)
ist monoton wachsend und beschränkt. Es gilt sogar nach
Satz
lim ak = 1
(4.5.27)
k→∞ und somit ist
a0 +
∞ X
(ak − ak−1 ) = 1
(4.5.28)
k=1 Wir bilden die erzeugende Funktion
g(z) :=
∞ X
ak z k ,
k=0 die für
|z| < 1
deniert ist. Wir summieren (4.5.26) bezüglich
g(z) = (1 − p)
∞ X k=0
ak+1 z k + p
∞ X
ak+1−M z k
k=M −1
Dies kann man schreiben als
g(z) =
k
1−p (g(z) − a0 ) + pz M −1 g(z) z
und erhalten
62
KAPITEL 4.
Stellen wir nach
g
RUINTHEORIE
um, so folgt
(1 − p)a0 1 − p − z + pz M (1 − p)a0 (1 − p)a0 = = M −1 M −1 1 − z + p(z − 1) (1 − z)(1 − p zz−1 g(z) =
(1 − p)a0 PM −1 (1 − z)(1 − p j=0 z j a0 . = p PM −1 j (1 − z)(1 − 1−p j=1 z =
Hieraus folgt
(1 − z)g(z) =
=
1− =
1−
p 1−p
a0 p(1−r) 1 1−p r−1
1−
a0 PM −1 j=1
PM −1 j=1
zj
zj
a0 p(1−M ) 1−p mUM −1 (z)
Folglich existiert
lim (1 − z)g(z) =
z→1−0
1−
a0 p(M −1) 1−p
.
Es gilt aber
(1 − z)g(z) = a0 +
∞ X
(ak − ak−1 )z k
(4.5.29)
k=1 Wegen (4.5.28) existiert die Summe der Potenzreihe auf der rechten Seite für
z=1
und der Satz von Abel über Poztenzreihen liefert
lim (1 − z)g(z) = lim ak = 1.
z→1−0
k→∞
Somit folgt
a0 = 1 −
p(M − 1) 1−p
Wir erhalten somit Also folgt
(1 − z)g(z) =
∞ X n a0 n = a0 (1 − a0 ) mUM −1 (z) 1 − (1 − a0 ) mUM −1 (z) n=0
Wegen (4.5.29) ergibt sich
ak − ak−1 = a0
∞ X n=0
n
n?
(1 − a0 ) [UM −1 ({k})]
(4.5.30)
4.5.
ROULETTE-AUFGABE
und also für
k = 1, 2, . . . ∞ X
ak − ak−1 = a0
63
folgt
n
n?
(1 − a0 ) [UM −1 (k)]
− a0
n=0
∞ X
n
(1 − a0 ) UM −1 (k − 1)n?
n=0
Hieraus lesen wir
a1 = a0
∞ X
n
(1 − a0 ) UM −1 (1)n?
n=0
2
ab. Ein leichter Induktionsbeweis zeigt dann die Behauptung (4.5.25).
Wir wollen nun den Einuss von groÿen und kleinen Schäden auf den Versichere analysieren. Wir gegen davon aus, dass die Schäden Zweipunktverteilungen besitzen. Dann ist das das Eintreten eines Schadens vergleichbar mit einem Roulettspiel: Setzen wir auf Farbe einfache Chance, so ist die Wahrscheinlichkeit
p2
des Gewinns klein, nämlich
nämlich
r1 = 2.
p1 = 18/37
und der Schaden des Kasino klein,
Setzen wir auf eine Zahl, so ist die Wahrscheinlichkeit
p2 = 1/37
Gewinns klein, nämlich
p2
des
und der Schaden des Kasino groÿ, nämlich
r2 = 36.
Satz 4.5.2
Es ist für ein Kasino gefährlicher, wenn jemand mit genügend Ka-
pital dauernd auf Zahl setzt statt dauernd auf einfache Chance (z.B Rot oder Schwarz ) setzt.
Bemerkung.
Übertragen auf eine Versicherungsgesellschaft bedeutet das, dass
groÿe Schäden mit kleiner Wahrscheinlichkeit für ihr Auftreten für die Versicherungsgesellschaft gefährlicher ist als viele kleine Schäden mit relativ groÿer Wahrscheinlichkeit für ihr Auftreten. Somit ist die Einrichtung von Rückversicherung eine Konsequenz aus diesem Sachverhalt.
Beweis: Es gelte c = 1. Die Wahrscheinlichkeit dafür, dass kein Ruin bei einfacher Chance für das Kasino eintritt sei
U (1) (s). Die Wahrscheinlichkeit dafür, dass kein Ruin bei Zahl für das Kasino eintritt sei
U (2) (s). Wir denieren
V (k) (s) := 1 − U (k) (s). Dann gilt nach Satz 4.5.1
V (k) (s) = (1 − αk )
∞ X
αkj (1 − Hkj? (s)),
j=0 wobei
αk = 1 − U (k) (0) =
pk (Mk − 1) 1 − pk
und
H1 = U1
H2 = D35 .
64
KAPITEL 4.
Wir erhalten aus der Denition von
αk
wegen
p1 = α1 =
RUINTHEORIE
18 37
18 = 0, 95 19
und wegen
p2 = α2 =
1 37
35 = 0, 97. 36
Natürlich gilt
α1 < α2 . Wir haben zu zeigen, dass für
s>0
V (1) (s) < V (2) (s)
(4.5.31)
gilt. Es ist oenbar
H1k? (t) = δk (t) und folglich gilt
H1j? (s) Es gilt für ganzzahlige
=
0, 1,
wenn wenn
s<j s≥j
s ∞ X
V (1) (s) = (1 − α1 )
α1j = α1s+1 .
j=s+1 Wir bemerken, dass
H2j? (s) = 0,
s<j
erfüllt ist. Somit folgt
s ∞ X X V (2) (s) = (1 − α2 ) α2j (1 − H2j? (s)) + α2j ) . j=0
j=s+1
Wir erhalten also
h(s) := V (2) (s) − V (1) (s) = (1 − α2 )
s X
α2j (1 − H2j? (s)) + α2s+1 − α1s+1 .
j=0 Die Funktion
xs+1
ist streng monoton wachsend also folgt
h(s) > 0.
2
Kapitel 5 Theorie der Prämienkalkulation 5.1
Elementare Prämien
(Ω, A) Grundraum, Xi : (Ω, A) → [0, ∞) Zufallsvariablen i. n Periode der Analyse
Denition 5.1.1 K = {1, 2, ..., k}
als Schaden unter einer Police im Jahr
R = {Xi : i = 1, 2, . . . , n}
heiÿt Risiko in
n-Perioden.
bezeichne die Menge der Versicherungsnehmer oder die Menge
aller Versicherungspolicen einer Sparte. Dann heiÿt
Rj := {Xi,j : i = 1, 2, . . . , n},
j = 1, 2, ...k
ist das Risiko der j-ten Police.
Denition 5.1.2
{Rj : j = 1, 2, ..., k}
Voraussetzung: Es sei
heiÿt Kollektiv oder auch Portefeuille.
{Xi,j : i = 1, 2, . . . , n, j = 1, 2, ..., k}
ein unabhängiges
System und es gelte
n
1X EXi,j n→∞ n i=1
µj := lim
und
n 1X EXi,j . k→∞ k j=1
νi = lim
Stabilität in der Zeit Nach dem Gesetz der groÿen Zahlen gilt dann, falls
n→∞
n
1X Xi,j → µj n i=1 für jedes
j . Somit ist für jeden Vertrag etwa µj 65
als mittlerer Schaden zu erwarten.
66
KAPITEL 5.
THEORIE DER PRÄMIENKALKULATION
Stabilität in der Gröÿe Es sei
K = N.
Nach dem Gesetz der groÿen Zahlen gilt, falls
1 k
k X
EXi,j
Xi,j → νi
j=1
Somit ist zu jedem Zeitpunkt etwa
Denition 5.1.3
k→∞
νi
als mittlerer Schaden zu erwarten.
heiÿt in diesem Fall
Nettorisikoprämie.
Gründe für veränderte Prämien:
•
Vertragsdauer ist begrenzt
•
Kollektiv ist begrenzt
•
Verwaltungskosten sollten gedeckt werden
•
Ruintheorie
Bruttoprämie für das Risiko
Rj
i-ten
in der
Periode
Pi (Rj ) = EXi,j + L(Xi,j ) + Gi,j = RPi (Rj ) + Gi,j mit
L(Xi,j ) Sicherheitszuschlag, Gi,j - Kostenzuschlag und
RPi (Rj )
Risikoprämie.
Wir führen nun die allgemeine Prämie als Funktionale über die Schäden ein. Es sei
M := {F −
Denition 5.1.4
Verteilungsfunktion
: F (0) = 0}
Ein Funktional
H : DH ⊆ M → [0, ∞) heiÿt Prämienprinzip. Der Wert
F.
Ist
X ∼ F,
H(F )
heiÿt Risikoprämie zur Risikoverteilung
so schreibt man auch
H(X) := H(F ).
Beispiele 5.1.5
Beispiele für Funktionale:
1)
Z µ(F ) :=
x dF (x)
heiÿt (Erwartung oder) Nettorisikoprämie;
Dµ = {F : ∃ erstes 2)
σ 2 (F ) :=
Z
Moment von
F }.
∞
(x − µ(F ))2 dF (x)
0
heiÿt Varianz;
Dσ = {F : ∃ zweites
Moment von
F}
5.2.
ELEMENTARE PRINZIPIEN
5.2
67
Elementare Prinzipien
Das Erwartungswertprinzip
λ (F ) = µ(F )(1 + λ) λ > 0; Dλ = {F : ∃erste δa
bezeichne die ausgeartete Verteilungsfunktion in
Satz 5.2.1
Moment von
F}
a.
(Charakterisierung des Erwartungswertprinzips)
DH und der Eigenschaft, auch die Stutzung auf jedes Intervall enthalte, ist genau dann
Ein Prämienprinzip mit konvexem Denitionsbereich dass sie mit
F
eine Einschränkung des Erwartungswertprinzip mit Parameter
λ, wenn folgende
Bedingungen gelten: (1)
H(δa ) = (1 + λ)a,
(2)
H(tF + (1 − t)G) = tH(F ) + (1 − t)H(G), 0 ≤ t ≤ 1, F, G ∈ DH
(3)
H
sei stetig in
DH
Beweis: Betrachte die Verteilungsfunktion n
F =
1X δx . n j=1 j
Wegen (1) und (2) folgt
H(F ) = (1 + λ)µ(F )
(5.2.1)
Es sei F ∈ DH auf [0, a] konzentriert. Dann existiert bekanntlich eine eine Folge {Fn } endlich-diskreter Verteilungsfunktionen, die schwach gegen F konvergiert. Wegen (5.2.1) und der Stetigkeit von µ(·) auf der Menge A der Verteilungsfunktionen, die auf [0, a] konzentriert sind, folgt (5.2.1) für alle Verteilungsfunktionen aus A. Betrachte für F ∈ DH nun die Stutzung Fa auf [0, a]. Dann gilt Z a µ(Fa ) = x dF (x) + a(1 − F (a)).
0 Wegen (4) folgt dann die Existenz des ersten Moments von
F
und (5.2.1) für
2
F.
Maximales Verlustprinzip und seine Verallgemeinerung Zunächst sei der Maximalschaden endlich, d. h. es existiert ein mit
F (M ) = 1.
H(F ) := pµ(F ) + qM, Da
M
M, 0 ≤ x ≤ M
Wir denieren dann das Maximales Verlustprinzip als
das 1-Quantil von
F
0 ≤ p ≤ 1.
ist, kann diese Prinzip wie folgt verallgemeinert
werden. Wir denieren das
(1 − )-Quantil
von
F:
Q(1 − , F ) = min(u : F (u) ≥ 1 − )
68
KAPITEL 5.
THEORIE DER PRÄMIENKALKULATION
Dann denieren wir
H (F ) := pµ(F ) + qQ(1 − , F ),
0 ≤ p ≤ 1, q := 1 − p.
Dieses Prinzip kann durch den Erwartungswert und die Varianz nach oben und unten abgeschätzt werden.
Satz 5.2.2 gilt für
Es existiere
µ = µ(F ) = EX
und
σ 2 := σ 2 (F ) = V ar(X).
Dann
0<<1 µ − qσ
1−
1/2
≤ H (F ) ≤ µ + qσ
1−
1/2
Zum Beweis benötigen wir folgendes
Lemma 5.2.3 0.
µ = EX , σ 2 = V ar(X)
Es existiere
Dann gilt 2
[E(X|A) − µ] ≤ σ 2 Insbesondere gilt = genau dann, wenn
und gelte
P (X ∈ A) = p >
1−p . p
p = 1
oder
F
nur zwei Wachstums-
punkte besitzt.
Beweis: Es sei µ = 0 und IA bezeichne die Indikatorfunktion von A. Dann gilt EIA = p
und wir erhalten aus der Ungleichung von Cauchy
|EX(IA − p)| = |p (E(X|A) − µ)| ≤ EX 2 E(IA − p)2 = d. h.
r |E(X|A) − µ| ≤ σ
p
σ 2 p(1 − p)
1−p p 2
Beweis des Satzes: Nach Denition gilt mit r := Q(1 − , F ) F (r−) = P (X < r) < 1 − ≤ P (X ≤ r) =: F (r) Wähle nun in dem Lemma
A = {X < r}.
Wir haben dann
P (A) =: p ≥ 1 − > 0. Nach dem Lemma folgt
r µ−σ Da
(1 − p)/p
1−p ≤ |E(X|A) − µ| ≤ r. p
eine fallende Funktion in
r µ−σ Wähle nun in dem Lemma
p
ist, folgt sogar
≤r 1−
A = {X ≥ r}.
Es gilt
P (A) =: p ≥ > 0.
(5.2.2)
5.2.
ELEMENTARE PRINZIPIEN
69
Nach dem Lemma folgt
r r ≤ |E(X|A) − µ| ≤ µ + σ
1−p . p
Analog ergibt sich
r r ≤µ+σ
1− .
(5.2.3)
2
Aus den Ungleichungen (5.2.2) und (5.2.3) folgt die Behauptung.
Standardabweichungsprinzip Sλ (F ) = µ(F ) + λσ(F ) λ > 0, DSλ = {F : ∃ zweite
Moment von
F}
Motivation durch obere Kondenzschranken Gilt etwa
X − EX P(p ≤ x) ≈ Φ(x) = 1 − , V ar(X)
so folgt
p P (X ≤ EX + x V ar(X)) ≈ Φ(x) = 1 − , und
p EX + x V ar(X)
kann als Kondenz- Prämie aufgefasst werden.
Varianzprinzip Vλ (F ) = µ(F ) + λσ 2 (F ), DVλ = {F : ∃ zweite
Beispiel 5.2.4
X ∼ Γ(γ, c), pX (x) =
λ > 0,
Moment von
d. h.
cγ −cx γ−1 e x , Γ(γ)
γ > 0, c > 0
Dann gilt
Vλ (F ) =
Beispiel 5.2.5
F}
γ γ +λ 2 c c
und
Sλ (F ) =
√ γ γ +λ c c
Das Varianzprinzip und das Standardprinzip für die logarithLN (a, b2 ). Für die Dichte gilt
mische Normalverteilung
p(x) = √
1 e−(ln 2π b
x−a)2 /2b2
,
x > 0.
Nach der Denition der logarithmischen Normalverteilung X ∼ N (a, b2 ), dann ist eX ∼ LN (a, b2 ). Es folgt somit
EX = ea+b
2
/2
LN (a, b2 )
gilt: Ist
70
KAPITEL 5.
THEORIE DER PRÄMIENKALKULATION
und
2
2
V ar(X) = e2a+b (eb − 1) Folglich ergibt sich
S(LN (a, b2 )) = ea+b
2
/2
und
Vλ (LN (a, b2 )) = ea+b
2
+ λea+b
/2
2
/2
p
eb2 − 1
2
2
+ λe2a+b (eb − 1)
Das Semi-Varianz-Prinzip Für praktische Erwägungen ist es fragwürdig, Werte mit
X − EX < 0
zu be-
rücksichtigen. Das Semi-Varianzprinzip lautet:
∞
Z
(x − EX)2 dF (x).
SV (F ) := EX + λσ+ (F ) = EX + λ EX
M
Wir betrachten den Fall, dass das Risiko durch
beschränkt ist. Dann gilt der
folgende
Satz 5.2.6
Es gelte
F (M ) = 1, F 6= δM SV (F ) ≤ EX + λ
mit
M > 0.
Dann folgt
EX 2 (M − EX)2 M2
Bevor wir zum Beweis kommen machen wir folgende Vorbetrachtung. Nach partieller Integration ergibt sich
Z
∞
(u − EX)2 dF (u)
(5.2.4)
(u − EX)2 (1 − F (u)) dx
(5.2.5)
(u − EX)(1 − F (u)) dx.
(5.2.6)
σ+ (F ) = EX
= −(u − EX)2 (1 − F (u) M EX + 2
Z
M
EX Z M
=2 EX Setzen wir
W (x) =
1 EX
x
Z
(1 − F (u) du, 0
so folgt weiter
Z
M
(u − EX)W 0 (u) dx
σ(F ) = 2EX EX
= −(u − EX)(1 − h(u) M 0 +
Z
M
(1 − W (u)) du EX Z M
(1 − W (u)) du
= EX Oenbar ist
W
eine Verteilungsfunktion. Es sei
EX ∗ =
EX 2 . 2EX
X∗ ∼ W .
Dann erhalten wir
5.2.
ELEMENTARE PRINZIPIEN
Setzen wir
EX ∗ EX 2 = , M 2M EX
p := so folgt
0 < p < 1/2.
71
Wir führen nun die Verteilungsfunktion
G = (1 − 2p)δ0 + 2 pU (0, M ) ein. Es sei
Y
eine Zufallsgröÿe mit
Y ∼ G.
Es gilt dann
EY = pM = EX ∗ . Wir zeigen nun folgendes Hilfsresultat.
Lemma 5.2.7
Es gibt genau ein
s ∈ (0, M )
mit
P (X ∗ ≥ s) = P (Y ≥ s), und es gilt
P (X ∗ ≥ u) ≥ P (Y ≥ u),
0≤u≤s
P (X ∗ ≥ u) ≤ P (Y ≥ u),
s≤u≤M
sowie
Beweis: Wir bilden h(u) := P (X ∗ ≥ u) − P (Y ≥ u). Es gilt
h(0) = 1 − (1 − 2p) > 0 h0 (u) = −
und für
u>0
haben wir
1 − F (u) 2p 1 − F (u) EX 2 + =− + 2 EX M EX M EX =
1 EX 2 (F (u) − (1 − )). EX M2
Wegen
1− (Die linke Seite kann wegen
F 6= δM
EX 2 >0 M2 nicht gleich Null sein.) lesen wir ab, dass
im Intervall(0, M ) das Vorzeichen wechselt, d. h.
(s1 , M ) 2
für
0 < s1 < M .
Wegen
h(M ) = 0
h
fällt in
(0, s1 )
Z M
P (X ∗ ≥ u) du −
0
Z
EX
P (X ∗ ≥ u) du
0
= 2EX EX ∗ − 2EX
Z 0
Wir betrachten zwei Fälle: a)
EX ≤ s (s
M
P (X ∗ ≥ u) du EX !
σ+ (F ) = 2EX Z
stammt aus Lemma 5.2.7)
und wächst in
existiert also genau eine Nullstelle.
Beweis von Satz 5.2.6: Es gilt wegen (5.2.4)
= 2EX
h0
EX
P (X ∗ ≥ u) du
72
KAPITEL 5.
THEORIE DER PRÄMIENKALKULATION
und b)
EX > s. EX ∗ = EY Z EX Z M σ+ (F ) ≤ 2EX EY − 2EX P (Y ≥ u) du ≤ 2EX (1 − G(u)) du.
Zu a) In diesem Fall folgt aus Lemma 5.2.7 und wegen
0
EX
zu b) In diesem Fall folgt aus Lemma 5.2.7
Z
M
P (X ∗ ≥ u) du
σ+ (F ) = 2EX Z
EX Z M
M
≤ 2EX
P (Y ≥ u) du = 2EX
(1 − G(u)) du
EX
EX
Somit gilt in beiden Fällen
M
Z σ+ (F ) ≤ 2EX
(1 − G(u)) du EX
M
Z
(u − EX)0 (1 − G(u)) du
= 2EX EX
= 2EX ((u − EX)(1 − G(u))|M EX +
2p M
Z
M
(u − EX)du) EX
p (u − EX)2 M EX M 2 EX p (M − EX)2 = (M − EX)2 2 = 2EX M M2 = 2EX
5.3
Das Schweizer-Prinzip
Es sei
v : R → R
;
v
heiÿt Gewichtsfunktion. Es sei
Svz (F ) =: s
nichtnegative Lösungen
z ∈ [0, 1].
Die kleinste
von
∞
Z
v(x − zs) dF (x) = v((1 − z)s) 0 deniert ein Funktional; es heiÿt dass
Schweizer-Prinzip. Es sei stets vorausgesetzt,
v(0) = 0.
Interpretation:
•
Bilanzierung,
•
Wichtung,
•
Äquivalenz.
existiert keine Lösung, so deniert man das Funktional als
Svz (F )
Z = inf s ≥ 0 :
∞
0
Spezialfälle: a)
z = 0.
v(x − zs) dF (x) − v((1 − z)s)
Dann heiÿt das Funktional
bijektiv, so gilt
Sv0 (F )
=v
−1
Z 0
∞
Mittelwertprinzip.
v(x) dF (x)
Ist
v
5.3.
b)
DAS SCHWEIZER-PRINZIP
z = 1.
73
Dann heiÿt das Funktional
Nullnutzenprinzip. In diesem Fall wird
die Funktion
u(x) := −v(−x) als
Nutzenfunktion bezeichnet. Bezeichne Nu (F ) := Sv1 (F ). Es gilt dann ∞
Z
u(Nu (F ) − x) dF (x) = u(0). 0
Beispiel 5.3.1
Es existiere
u00
und gelte
u00 < 0. Nach der Taylorentwicklung gilt
u(t) = u(0) +
u0 (0) u00 (θ) 2 t+ t , 2 2
Somit ergibt sich
u(t) ≤ u(0) + Folglich erhalten wir für
Z
0 ≤ θ ≤ t.
u0 (0) t. 2
s := Nu (F )
∞
Z
0
u(s − x) dF (x) ≤ u(0) + u (0)
u(0) = 0
∞
(s − t) dF (t), 0
d. h.
µ(F ) ≤ s = Nu (F ).
Beispiele 5.3.2
a) Für
Nu (F )
mit
u(x) = x
erhalten wir die Erwartung oder
auch Nettorisikoprämie. b) Setze
u(x) = dann erhalten wir das
1 − e−ax , a
a > 0,
Exponentialprinzip EXPa (F ) =
1 ln MF (a), a
wobei MF (a) die momenterzeugende Funktion von F ist. ax Wähle nun v(x) = e im Mittelwertprinzip, so folgt dass das Exponentialprinzip sowohl ein Mittelwertprinzip als auch ein Nullnutzenprinzip ist. Mehr noch es gilt sogar
Svz (F ) = EXPa (F ), für c) Für
2
u(x) = x − 2bx
z ∈ [0, 1].
s = Nu (F ) Z ∞ 0= u(s − x) dF (x) 0 Z ∞ Z ∞ = (s − x)2 dF (x) − 2b (s − x) dF (x) erhalten wir mit
0
Z
alle
0
∞ 2
2
(x − µ(F )) dF (x) + (µ(F ) − s) − 2b(s − µ(F ))
= 0
= σ(F )2 + (µ(F ) − s)2 − 2b(s − µ(F ))
74
KAPITEL 5.
THEORIE DER PRÄMIENKALKULATION
Hieraus ergibt sich für alle Verteilungsfunktionen
s
s = µ(F ) + b 1 −
1−
F
für die ein Lösung existiert:
σ(F ) b
2
.
s = µ(F ) + b. Dann ergibt sich ! r 2 σ(F ) µ(F ) + b 1 − 1 − σ(F ) ≥ b b Nu (F ) = µ(F ) + b σ(F ) < b
Andernfalls haben wir
Wegen
1−
√
1 − x ≤ x,
0≤x≤1
erhalten wir die Abschätzung
1 Nu (F ) ≤ µ(F ) + σ(F )2 , b d. h. das Varianzprinzip ist eine obere Schranke.
Lemma 5.3.3
Sei
v
stetig und auf dem Träger von
F
beschränkt. Auÿerdem
gelte
limx→∞ v(x) := v(∞) > v(−∞) := limx→∞ v(x) und
∞
Z
v(x) dF (x) > 0. 0
Dann existiert mindestens ein
Z
s
derart, dass
∞
v(x − zs) dF (x) = v((1 − z)s) 0
Beweis: Betrachte die Funktionen Z
∞
v(x − zu) dF (x)
g(u) := 0 und
h(u) := v((1 − z)u). Oenbar ist
g
h
stetig und nach dem Satz von der majorisierten Konvergenz ist
v(0) = 0 Z h(0) = 0 < g(0) =
stetig. Auÿerdem gilt wegen
∞
v(x) dF (x) > 0.
0 Wegen der Beschränktheit von
v
können wir das Lemma von Fatou anwenden
und schlieÿen
Z
∞
v(x − zu) dF (x) = g(∞).
h(∞) = v(∞) > v(−∞) ≥ limu→∞ 0
5.3.
DAS SCHWEIZER-PRINZIP
Lemma 5.3.4 ferenzierbar mit
75
F auf einem endlichen Intervall konzentriert, v > 0, so existiert genau eine Lösung s von Z ∞ v(x − zs dF (x) = v((1 − z)s).
Ist 0
und ist
v
dif-
0
v1 (x) = av(x) + b mit a 6= 0, Svz1 = Svz . Deswegen legen wir fest
Äquivalenzrelation: Gilt zipien gleich, d. h.
v(0) = 0
Beispiel 5.3.5
so sind die Prämienprin-
v(1) = 1.
und
Es gilt
1 EXPa (N (µ, σ 2 )) = ln MN (µ,σ2 ) (a) a 1 σ 2 a2 σ2 a = aµ + == µ + = Va2 /2 (N (µ, σ 2 )) a 2 2
Beispiel 5.3.6
Es gilt
lim EXPa (F ) = µ(F ).
a→0
Verlustfunktionenprinzip: L(x, s)-
Verlustfunktion bei einem Schaden
erwarteter Verlust:
x
s
und Prämie
∞
Z
L(x, s) dF (x). 0 Deniere
Z SL (F ) = inf{s ≥ 0 :
∞
L(x, s) dF (x)}. 0
diese Prämie heiÿt
Beispiele 5.3.7
Verlustfunktionenprinzip.
a) Wir betrachten
L(x, s) = (x − s)2 . Es folgt
SL (F ) = µ(F ). b) Wir betrachten
L(x, s) = (eax − eas )2 . Es folgt
SL (F ) = Expa (F ). c) Wir betrachten
L(x, s) = A(x − s)+ (1 − A(x − s)− ,
0 < A < 1.
Es folgt
Z
∞
Z
0
∞
Z
s
(1 − F (x)) du + A
L(x, s) dF (x) == A s
F (x) du. −∞
76
KAPITEL 5.
THEORIE DER PRÄMIENKALKULATION
Es folgt daraus, dass
SL (F ) = F −1 (1 − A). d) Wir betrachten
L(x, s) = ecx (x − s)2 . Es folgt daraus, dass
R ∞ cx xe dF (x) SL (F ) = R0 ∞ cx , e dF (x) 0 das so genannte Escher-Prinzip.
Lemma 5.3.8
Die Verlustfunktion
Lz (x, s) =
V (x−zs)−V (x) z
mit der Funktion
V
V (s) − v(x)s z=0 (0) + V ((1−z)s)−V 0 < z<1 1−z V (x − s) − V (x) z=1
mit den Eigenschaften
V0 = v
und
V (0) = 0
reduziert sich
auf das Schweitzer Prinzip, falls
(ELz (X, s))0 = ELz (X, s)0 ) gilt.
5.4
Eigenschaften von Prämienprinzipien
Es werden verschiedene Forderungen für ein Prämienprinzip gestellt. E1: Prämienprinzip
H
ist
erwartungswertübersteigend, falls H(F ) ≥ µ(F )
E2: Prämienprinzip
H
übersteigt nicht den Maximalschaden, falls
H(F ) ≤ F −1 (1) := inf{x : F (x) = 1} E3: Prämienprinzip
H
ist
translationsäquivariant, falls für Fc (x) = F (x − c)
gilt
H(Fc ) = H(F ) + c Es genügt
≤
oder
≥
E4: Prämienprinzip
Bemerkung.
H(X + c) = H(X) + c.
zu fordern.
H
ist
additiv (subadditiv), falls
H(F ∗ G) = (≤)H(F ) + H(G)
variant, falls
oder
oder
Ist das Prämienprinzip
H(δa ) = a.
H
H(X + Y ) = (≤)H(X) + H(Y ) additiv, so ist auch translationsäqui-
5.4.
EIGENSCHAFTEN VON PRÄMIENPRINZIPIEN
77
Eigenschaften der elementaren Prämienprinzipien und des Schweizer Prinzips Satz 5.4.1
. (1) λ ist erwartungswertübersteigend und additiv. (2)Sλ ist erwartungswertübersteigend, translationsäquivariant und subadditiv c)
Vλ
ist erwartungswertübersteigend, translationsäquivariant und additiv
Beweis: (2) Aus der Ungleichung p folgt die Subadditivität.
Satz 5.4.2
(1)
Svz
a2 + b2 ≤ a + b,
a, b ≥ 0,
2
ist erwartungswertübersteigend und übersteigt nicht den Ma-
v konvex und streng monoton wachsend. 0 00 Es sei zusätzlich v zweifach dierenzierbar und gelte v > 0 und v > 0. 1 0 Dann folgt (2) Sv ist translationsäquivariant (3) Sv ist genau dann translationsax äquivariant, falls v(x) = x oder v(x) = e − 1 für ein gewisses a, d. h. nur das ximalschaden, falls
Nullprämienprinzip und das Exponentialprinzip sind translationsäquivariant. Beweis:(1) a) Nach der Jensenschen Ungleichung folgt
Z v(µ(F ) − zs) ≤
v(x − zs) dF (x) = v((1 − z)s).
Wegen der strengen Monotonie von
v
ergibt sich
µ(F ) − zs ≤ (1 − z)s, Svz
erfüllt also
d. h.
s ≥ µ(F ).
E1.
b) Wegen der strengen Monotonie von
Z v((1 − z)s) =
v
folgt
v(x − zs) dF (x) ≤ v(F −1 (1) − zs)
und somit
(1 − z)s ≤ F −1 (1) − zs Svz
erfüllt
s ≤ F −1 (1),
E2.
(2) Es gilt
Z = a) Für
v((1 − z)(H(F ) + c) = v((1 − z)H(Fc )) Z v(x − zH(Fc )) dFc (x) = v(y + c(1 − z) − zH(F )) dF (y)
z=1
gilt
Z
Z v(0) =
v(x − H(Fc )) dFc (x) =
(v(y − H(F )) dF (y).
und E3 ist stets erfüllt. b) Sei nun
z < 1.
Dann folgt aus (5.4.1) für
c = zH(F )/(1 − z)
Z v(H(F ) =
v(y) dF (y),
(5.4.1)
78
KAPITEL 5.
THEORIE DER PRÄMIENKALKULATION
d. h. das Schweizer Prinzip ist äquivalent zu einem Mittelwertprinzip, also gilt
z = 0. c) Sei nun
z=0
und wähle nun für
F = (1 − q)δ0 + qδ1 , so ergibt sich mit
0 ≤ q ≤ 1,
f (q) := H(F ) v((f (q) + c)) = v(c)(1 − q) + v(1 + c)q.
Insbesondere gilt für
q=0
und
(5.4.2)
c = 0.
v(f (0)) = v(0),
d. h.
Dierenziere nun (5.4.2) zweifach bezüglich
q,
f (0) = 0. so folgt
v 0 ((f (q) + c))f 0 (q) = −v(c) + v(1 + c)
(5.4.3)
bzw.
v 00 (f (q) + c)f 02 (q) + v 0 (f (q) + c)f 00 (q) = 0 Setze nun
q = 0,
so ergibt sich
v 00 (c)f 02 (0) + v 0 (c)f 00 (0) = 0 f 0 (0) 6= 0 ist. Anderenfalls ergibt sich aus (5.4.3) für c = 0 und q = 0, die Aussage v(1) = 0 im Widerspruch zur Voraussetzung. ax Es ist leicht zu sehen, dass v1 (x) = ax + b und v2 (x) = e alle Lösungen beschreiben. Wegen v(0) = 0 und der Skalierungsinvarianz von allen Lösungen (Die Gewichtsfunktion v und cv ergeben die gleichen Prämien.) folgt einmal Wir zeigen nun, dass
v1 (x) = x,
bzw
v2 (x) =
1 − e−ax , a
a>0
d. h. das Nettoprämienprinzip bzw. das Exponentialprinzip. Schlieÿlich folgt aus der Multiplikativität der Exponentialfunktion die Translationsäquivarianz des Exponentialprinzip.
5.5
2
Ergänzung zu den bedingte Erwartungen
Folgende Lemmata benötigen wir im weiteren mehrmals
Lemma 5.5.1
Es seien
X
und
Y
Zufallsgröÿen mit zweitem Moment. Dann
gilt
V ar(X) = E[V AR(X|Y )] + V ar[E(X|Y )] und
V ar[(E(X|Y )] = cov(E(X|Y ), X)
Beweis: Es gilt cov[E(X|Y ), X) = E[E(X|Y ) − EX)[X − EX] = E{[E(X|Y ) − EX][E(X|Y ) − EX]|Y } = E{[E(X|Y ) − EX]2 |Y } = V ar[E(X|Y )]
5.6.
ITERATIVE PRÄMIENPRINZIPIEN
Denition 5.5.2 Y,
Die Zufallsgröÿen
U
79
V
und
heiÿen bedingt unabhängig von
falls
P(U,V )|Y =y = PU |Y =y × PV |Y =y
Lemma 5.5.3 Zufallsgröÿe
Die Zufallsgröÿen
Y.
U
und
V
seien bedingt unabhängig von der
Dann gilt
cov(U, V ) = cov(E(U |Y ), E(V |Y ))
Beweis: Oenbar gilt nach Voraussetzung cov(U, V ) = E[(U − EU )(V − EV )] = E{E[(U − EU )(V − EV )|Y } und wegen der bedingten Unabhängigkeit von
U
und
V
von
Y
folgt
cov(U, V ) = E[E((U − EU )|Y ) E((V − EV )|Y )] = cov(E(U |Y ), E(V |Y )) 2
5.6
Iterative Prämienprinzipien
E5: Das Prämienprinzip zeichne
G
FX|Y =y
H
ist
iterativ. Seien X
die bedingte Verteilung von
die Verteilung
y → H(FX|Y =y .
X
Y
und
Zufallsgröÿen und be-
bezüglich
Y =y
und bezeichne
Dann gelte
H(G) = H(H(FX|Y )) = H(F ) oder mit den Bezeichnungen
H(X) := H(F )
und
H(X|Y = y) = H(FX|Y =y )
bzw.
H(X|Y ) := H(FX|Y ) kann man schreiben
H(F ) = H(X) = H[H(X|Y ).
Satz 5.6.1
Sei
v
streng monoton wachsend. Ein Schweizer Prinzip ist genau
dann iterativ, falls es ein Mittelwertprinzip ist (z
= 0).
Andernfalls (z
6= 0)
ist
es ein Nettoprämienprinzip oder ein Exponentialprinzip.
Beweis: a) Wir zeigen, dass das Mittelwertprinzip iterativ ist. Es seien X ∼ F und
Y
zwei Zufallsgröÿen. Dann gilt
H(F ) = v −1 Ev(X) = v −1 E[Ev(X)|Y ] = v −1 E{vv −1 [Ev(X)|Y ]} = v −1 E{vH(X|Y )} = H[H(X|Y )] b) Sei nun
Svz
z ∈ (0, 1].Wir
iterativ. Wir haben zu zeigen, dass
betrachten zwei Zufallsgröÿen
X, Y ,
z = 0
dass
FX|Y =y = yδa + (1 − y)δb
folgt. Es sei also
80
KAPITEL 5.
THEORIE DER PRÄMIENKALKULATION
Y
und die Verteilungsfunktion von
X
lungsfunktion von
ist auf
[0, 1]
konzentriert. Für die Vertei-
gilt dann
FX = EY δa + (1 − EY )δb . Folglich erhalten wir für die Schweizer Prämie von
F := FX
v((1 − z)H(F )) = v(a − zH(F ))EY + v(b − zH(F ))(1 − EY ). Bezeichne
h(y)
die Schweizer Prämie von
FX|Y =y .
(5.6.1)
Dann gilt
v((1 − z)h(y)) = v(a − zh(y))y + v(b − zh(y))(1 − y). Es gilt oenbar
h(0) = b
und
h(1) = a.
(5.6.2)
Schlieÿlich ergibt die Iterativität
1
Z
v(h(y) − zH(F )) dFY (y) = v((1 − z)H(F )) 0 bzw.
Z
1
[v(h(y) − zH(F )) − v((1 − z)H(F ))] dFY (y) = 0. 0 Setze
g(y) := v(h(y) − zH(F )) − v((1 − z)H(F )) dann gilt also
1
Z
g(y) dFY (y) = 0, 0 wobei
Z m :=
1
u dFY (u) = EY
(5.6.3)
0 konstant ist. Insbesondere folgt für die Zwei-Punkt-Verteilung
a)δB
mit
0
und
0
und somit erhalten wir
g(B) =
a g(A). 1−a
Wegen (5.6.3) ergibt sich
a A + (1 − a) B = m und deswegen ist
A 6= m
und
a= Dies führt für
g
m−B . A−B
zu
g(B) =
m−B g(A). A−m
FY = aδA + (1 −
5.6.
ITERATIVE PRÄMIENPRINZIPIEN
Deshalb ist
g
auf
(A, 1]
81
linear. Wegen der Beliebigkeit von
A
ist
g
auf
[0, 1]
linear, d. h.
g(y) = yc + (1 − y)d. Daraus ergibt sich (g(0)
(5.6.4)
= d)
d = v(b − zH(F )) − v((1 − z)H(F )) und (g(1)
=c c = v(a − zH(F )) − v((1 − z)H(F ))
Es lässt sich nun (5.6.4) wie folgt schreiben
v(h(y) − zH(F )) − v((1 − z)H(F )) = yv(a − zH(F )) − v((1 − z)H(F )) + (1 − y)v(b − zH(F )). Hieraus ergibt sich mit
x := zH(F )
v(h(y) − x) = yv(a − x) + (1 − y)v(b − x). Dierenzieren wir nun (5.6.5) bezüglich
y
und
x,
(5.6.5)
so folgen
h0 (y)v 0 (h(y) − x) = v(a − x) − v(b − x) bzw.
v 0 (h(y) − x) = yv 0 (a − x) + (1 − y)v 0 (b − x) und schlieÿlich folgt
v(a − x) − v(b − x) yv 0 (a − x) + (1 − y)v 0 (b − x)
h0 (y) = Ist nun Ist
v
0
v 0 = const,
so ist
v
linear und es ergibt sich die Nettorisikoprämie.
nicht konstant, so existiert ein
liefert mit einer Konstanten
h(y) =
x mit v 0 (a − x) 6= v 0 (b − x)
und Integration
c>0
v(a − x) − v(b − x) ln{[y(v 0 (a − x) − v 0 (b − x)) + v 0 (b − x)]c}. v 0 (a − x) − v 0 (b − x)
Wir nutzen nun den Randwert
b = h(0) =
h(0) = b
aus, so folgt
v(a − x) − v(b − x) ln {v 0 (b − x)c} . v 0 (a − x) − v 0 (b − x)
und eingesetzt ergibt sich
h(y) =b+
v(a − x) − v(b − x) y(v 0 (a − x) − v 0 (b − x)) + v 0 (b − x) ln{ } v 0 (a − x) − v 0 (b − x) v 0 (b − x)
Benutze nun
h(1) = a,
so folgt
a = h(1) = b +
v(a − x) − v(b − x) v 0 (a − x) ln{ }. v 0 (a − x) − v 0 (b − x) v 0 (b − x)
82
Wähle nun
KAPITEL 5.
a := 2x
und
b := x, x=
THEORIE DER PRÄMIENKALKULATION
so folgt
v 0 (x) v(x) ln{ } v 0 (x) − v 0 (0) v 0 (0)
bzw.
v 0 (x) = v 0 (0)ex
v 0 (x)−v 0 (0) v(x)
Es ist leicht zu sehen, dass
v(x) = cexd/c − c die Dierentialgleichung erster Ordnung mit
v(0) = 0
Somit haben wir das Exponentialprinzip erhalten.
und
v 0 (0) = d
erfüllt.
Kapitel 6 Credibility-Theorie 6.1
Einführung
Bestimmung fairer Prämien für heterogene Versicherungskollektive: Whitney 1918, Perryman 1932, Bailey 1945 Prämiendierenzierung, Erfahrungstarierung Kollektiv von Risiken:
ϑi Risikoqualität der i-ten Periode, Xi Risikoerfahrung, beobachtbar Θ Kollektiv
Problemstellung:
nicht beobachtbar
Xi (i = 1, 2, · · · , n) seien die Schäden eines Risikos, deϑi , i = 1, 2, . . . , n, charakterisiert sind. Wir
ren Verteilung durch die Parameter
setzen voraus, dass die Risikoqualität sich nicht während der Beobachtungsperioden verändert. Es wird die Prämie für das Risiko Schäden
xi , i = 1, 2, . . . , n,
Xn+1
unter den beobachteten
gesucht.
Das Bayessche Modell Die Risikoqualität
ϑi
des i-ten Vertrages ist eine Realisierung einer Zufallsgröÿe
Θi : (Ω, A) → (Θ, T ), d. h.
Θi = ϑi .
Es werden zwei Voraussetzungen getroen:
(1) Die Zufallsgröÿen
Θ1 , Θ2 , Θ3 ,
...,
Θn
sind insgesamt unabhängig.
(2) Die Zufallsgröÿen
Θ1 , Θ2 , Θ3 ,
...,
Θn
sind identisch verteilt.
FΘi heiÿt a-priori-Verteilung des Parameters i-ten Periode; sie wird auch als Strukturverteilung bezeichnet. Fϑ1 ,ϑ2 ,...,ϑn+1 sei die bedingte Verteilung von
Die Verteilungsfunktion
(X1 , X2 , ..., Xn ) unter
(Θ1 = ϑ1 , Θ2 = ϑ2 , ..., Θn = ϑn )
83
in der
84
KAPITEL 6.
CREDIBILITY-THEORIE
Voraussetzung: Einschränkung auf die Nettorisikoprämie
µi (ϑi ) := E(Xi |Θi = ϑi ) = µ(Fϑi )
Problem: Bestimmung der Vorhersage µ∗n+1 := f (X1 , . . . , Xn ) derart, dass E[µn+1 (Θn+1 ) − f (X1 , . . . Xn )]2 = min{E[µn+1 (Θn+1 ) − g(X1 , . . . Xn )]2 : Eg(X1 , . . . Xn )2 < ∞}. Die Vorhersage
6.2 Es sei
µ∗n+1
heiÿt dann
exakter Credibility-Schätzer.
Projektionen im Hilbertraum H
ein Hilbertraum mit dem Skalarprodukt
< ·, · > . Die Norm von x ∈ H
wird durch
||x|| :=< x, x > deniert. Weiterhin sei
L
ein abgeschlossener Teilraum von
H.
Wir zitieren
folgendes Resultat aus der Theorie der Hilberträume.
Satz 6.2.1
Es existiert genau ein
z∈L
derart, dass
||x − z|| = min{||x − y|| : y ∈ L}.
Denition 6.2.2 Projektion von
x
Das Element
auf
PL (x) := z
aus Satz 6.2.1 heiÿt orthogonale
L.
Bemerkung. Die orthogonale Projektion ist idempotent und selbstadjungiert, d. h.
PL (x)(PL (x)) = PL (x)
Satz 6.2.3
bzw.
< PL (x), PL (y) >=< x, y >
Die orthogonale Projektion von
x
L
auf
ist eindeutig durch die fol-
genden Bedingungen charakterisiert:
< x − PL (x), y >= 0
Beispiel 6.2.4
Deniere für
Hn :=
( n X
∀
y ∈ L.
x ∈ H , i = l, 2, ..., n ) ai xi : ai ∈ R, i = 0, 1, 2 . . . , n .
i=1
L := Hn der von xi , i = 0, 1, 2 . . . , n aufgespannte lineare Teilraum H . Dieser Teilraum ist sogar abgeschlossen. Für die lineare Projektion von x auf Hn gelten dann folgende Charakterisierungsbedingungen: Dann ist
von
< x − PHn (x), xi >= 0
∀
i = 1, 2, ..., n.
(6.2.1)
2
6.3.
CREDIBILITY-SCHÄTZER
85
Für einen vorgegeben Wahrscheinlichkeitsraum
(Ω, A, P ) denieren wir die Men-
ge
L2 := {X : (Ω, A) → REX 2 < ∞}. In dieser Menge deniere wir folgende Äquivalenzrelation
X∼Y Weiterhin bezeichne
∼:
E(X − Y )2 = 0.
genau dann, wenn
x := [X] die Äquivalenzklasse, die aus X
erzeugt wird. Der
Faktorraum
L2 := L2 / ∼ ist dann ein Hilbertraum mit dem Skalarprodukt
< x, y >:= EXY, wobei
6.3
x = [X]
und
y = [Y ].
Exakte und lineare Credibility-Schätzer
Satz 6.3.1
Der exakter Credibility-Schätzer existiert und ist eindeutig. Es gilt
µ∗n+1 = Eµ(Θn+1 |X1 , ..., Xn )
Beweis: Oenbar ist Mn := {f (x1 , ..., xn ) : Ef (X1 , ..., Xn )2 < ∞, xi = [Xi ], i = 1.2, ..., n} ein abgeschlossener linearer Teilraum von
L2 .
Da
[µ∗n+1 ] ∈ Mn
erhalten wir für
Y := f (X1 , ..., Xn ) ∈ Mn < [µn+1 (Θn+1 − µn+1 ] , [Y ] >= E(µn+1 (Θn+1 − µ∗n+1 )Y,
Y ∈ Mn .
A(X1 , ..., Xn ) die Menge der Urbilder von (X1 , ..., Xn ) Für alle IndikaY = IA , wobei A eine beliebige Teilmenge von A(X1 , ..., Xn ) ist, dann Z Z µn+1 (Θn+1 )(ω)P (dω) = µ∗n+1 )(ω)P (dω),
Es sei
torfunktionen gilt
A
A
woraus aus der Denition der bedingten Erwartung die Behauptung folgt.
2 Wie
kann man nun den Credibility-Schätzer ermitteln ? Besitzt der Zufallsvektor
(X1 , ..., Xn , Θn+1 ) eine Dichte f bezüglich des Maÿes ν = λ ⊗ η , Verteilung von (X1 , ..., Xn ) die Dichte Z fX1 ,...,Xn (x1 , ..., xn ) = f (x1 , ..., = xn , θ)η(dθ) bezüglich des Maÿes
x1 , ..., Xn = xn
λ.
Die bedingte Verteilung von
Θn+1
so hat die
bezüglich
X1 =
hat somit die Dichte
g(θ; x1 , ..., xn ) =
f (x1 , ..., xn , θ) , fX1 ,...,Xn (x1 , ..., xn ) 0 ,
wenn
fX1 ,...,Xn (x1 , ..., xn ) 6= 0
wenn
fX1 ,...,Xn (x1 , ..., xn ) = 0
86
KAPITEL 6.
CREDIBILITY-THEORIE
Deshalb gilt
µ∗n+1 =
Beispiel 6.3.2
Z µn+1 (θ)g(θ; x1 , ..., = xn )η(dθ).
Γ(x; α, β) die Verteilungsfunktion der Gammaverα und β , d. h. es gelte Z x β α Γ(x; α, β) := uβ−1 e−αu du. Γ(β) 0
Es bezeichne
teilung mit den Parametern
Die Verteilung von
(X1 , ..., Xn+1 , Θn+1 )
führen wir durch
P (X1 = x1 , ..., Xn+1 = xn+1 , Θn+1 < θ) α Γ(x1 + β)Γ(x2 + β) · · · Γ(xn+1 + β) Γ(θ; (n + 1) + α, (n + 1)¯ x + β) = Γ(β)x1 !x2 ! · · · xn+1 !(1 + α)(n+1)(¯x+β) Pn+1 Z θ αβ β−1 −αu u i=1 xi = e−(n+1)u u e du, xi = 0, 1, 2, ...(6.3.1) Γ(β) 0 x1 !x2 ! · · · xn+1 ! β
ein. Zunächst leiten wir die Verteilung von ren (6.3.1) bezüglich
xn+1
(X1 , ..., Xn , Θn+1 ) her. Wir summie-
und erhalten
P (X1 = x1 , ..., Xn = xn , Θn+1 < θ) α Γ(x1 + β)Γ(x2 + β) · · · Γ(xn + β) = Γ(θ; n + α, n¯ x + β) Γ(β)x1 !x2 ! · · · xn !(1 + α)n¯x+β n X xi Z θ i=1 αβ β−1 −αu u e−nu u e du, xi = 0, 1, 2, ... = Γ(β) 0 x1 !x2 ! · · · xn ! β
(6.3.2)
Analog erhalten wir
P (Xn+1 = xn+1 , Θn+1 < θ) α Γ(xn+1 + β) = Γ(θ; 1 + α, xn+1 + β) Γ(β)xn+1 !(1 + α)xn+1 +β β
Z = 0
θ
uxn+1 −u αβ β−1 −αu e u e du, xn+1 ! Γ(β)
xn+1 = 0, 1, 2, ...
(6.3.3)
Aus (6.3.3) folgt weiter
P (Θn+1 < θ) = Γ(θ; α, β). Deshalb ergibt sich
P (Xn+1 = xn+1 |Θn+1 = θ) = e−θ d. h. die bedingte Verteilung von
Xn+1
unter
ergibt sich für die Nettoeinmalprämie
µn+1 (θ) = θ
uxn+1 , xn+1 !
Θn+1 = θ
ist
P oi(θ).
Folglich
6.3.
CREDIBILITY-SCHÄTZER
87
Aus (6.3.2) folgt
P (X1 = x1 , ..., Xn = xn ) =
αβ Γ(x1 + β)Γ(x2 + β) · · · Γ(xn + β) . Γ(β)x1 !x2 ! · · · xn !(1 + α)n¯x+β
Wir erhalten also für die bedingte Verteilung von
Θn+1
unter
X1 = x1 , ..., Xn =
xn P (Θn+1 < θ|X1 = x1 , ..., Xn = xn ) = Γ(θ; n + α, n¯ x + β) = Nun können wir den Credibility-Schätzer leicht ermitteln, da bekanntlich
β/α
für
X ∼ Γ(α, β) µ∗n+1 =
gilt. Wir erhalten mit
EX =
EX = µ = β/α
n¯ x+β n α β = x ¯+ =: κ¯ x + (1 − κ)µ n+α n+α n+αα 2.
Beschränkung auf die Teilklasse der linearen Schätzer:
( An :=
a0 +
n X
) ai Xi : ai ∈ R, i = 0, 1, 2, ..., n
i=1
Denition 6.3.3
Der lineare Credibility-Schätzer
µ ˆn+1 ∈ An
erfüllt die folgen-
de Bedingung:
E[µn+1 (Θn+1 ) − µ ˆn+1 ]2 = min{E[µn+1 (Θn+1 ) − g(X1 , . . . Xn )]2 : g(X1 , . . . Xn ) ∈ An }. Dann gilt für den linearen Credibility-Schätzer:
µ ˆn+1 = a ˆ0 +
n X
a ˆ i Xi .
i=1 Wir führen folgende Vektoren ein:
an :=
a1 a2 · · · an
X n :=
und
X1 X2 · · · Xn
X ist deniert EX1 EX2 · EX := · . · EXn
Der Erwartungswert des Zufallsvektor
Die Kovarianzmatrix zweier Zufallsvektoren (mit
m
Komponenten) ist die
n×m
Xn
(mit
.
als
n
Komponenten) und
Matrix
cov(X n , Y m ) = (cov(Xi , Xj ))i=1,2,...,n;j=1,2,...,m
Ym
88
KAPITEL 6.
CREDIBILITY-THEORIE
Satz 6.3.4 (Charakterisierung linearer Credibility-Schätzer) Der lineare Credibility-Schätzer
µ ˆn+1
ist eindeutig durch folgende Bedingungen bestimmt:
cov(X n , µ ˆn+1 ) = cov(X n , X n )an = cov(X n , µn+1 (Θn+1 )
(6.3.4)
und
Eµ ˆn+1 (= a ˆ0 +
n X
a ˆi EXi ) = EXn+1
(6.3.5)
i=1
Beweis: Wir wenden (6.2.1) an und sehen zunächst (x1 = 1) cov(ˆ µn+1 , 1) = 0, Also ergibt sich nach dem Satz der totalen Erwartung
Eµ ˆn+1 = a ˆ0 +
n X
a ˆi EXi == Eµn+1 (Θn+1 ) = E [E(Xn+1 |Θn+1 )] = EXn+1
i=1 Also ist (6.3.4) gezeigt. Wir wenden (6.2.1) erneut an und erhalten für
j =
1, 2, ..., n Eµn+1 (Θn+1 − µ ˆn+1 Xj = 0. Wegen (6.3.4) folgt weiter
E(µn+1 (Θn+1 ) − Eµn+1 (Θn+1 )Xj = E(ˆ µn+1 − E µ ˆn+1 ) Xj = 0 und schlieÿlich
E(µn+1 (Θn+1 ) − Eµn+1 (Θn+1 )(Xj − EXj ) = E(ˆ µn+1 − E µ ˆn+1 )(Xj − EXj ). Die letzte Identität ist mit (6.3.4) äquivalent.
6.4
2
Das Modell von Bühlmann-Straub
Wir stellen folgende Voraussetzungen: (A1)
Θ1 = Θ2 = .. = Θn+1 =: Θ·
(A2)
FX1 |Θ· =θ = FX2 |Θ· =θ = ... = FXn+1 |Θ· =θ =: Fθ (A3)
F(X1 ,X2 ,...,Xn+1 )|Θ· =θ = FX1 |Θ· =θ ⊗ FX2 |Θ· =θ ⊗ ...FXn+1 |Θ· =θ = Fθ ⊗ Fθ ⊗ ...Fθ | {z } n−mal
Die Voraussetzung (A1) besagt, dass die Risikoqualität sich nicht in der Zeit verändert. Die Voraussetzung (A2) besagt, dass die Schäden bei gegebener Risikoqualität zu allen Zeitpunkten identisch verteilt sind. Die Voraussetzung (A3)
6.4.
DAS MODELL VON BÜHLMANN-STRAUB
89
besagt, dass alle Schäden bei gegebener Risikoqualität unabhängig sind. Oenbar gilt unter (1) und (2)
µ(θ) := µi (θ) = EXi |Θi = θ), Wir bezeichnen wie üblich
i = 1, 2, ..., n + l.
n
X ¯n = 1 X Xi n i=0 Wir setzen auÿerdem
µ := Eµ(Θi ) = EXi ,
Satz 6.4.1
a := V ar(µ(Θi )),
und
ϕ := EV ar(Xi |Θi )
Im Bühlmannsche Modell gilt für den linearen Credibility-Schätzer
¯ n + (1 − κn )µ, µ ˆn+1 = κn X wobei
κn :=
(6.4.1)
na na + ϕ
bezeichnet.
Beweis: Nach Lemma 2.4.4 gilt V ar(Xi ) = EV ar(Xi |Θ· ) + V ar(E(Xi |Θ· )) = ϕ + a. Wegen der Voraussetzung (A3) folgt weiter
cov(Xi , Xj ) = E [E((Xi − EXi )(Xj − EXj )|Θ· )] = E [E((Xi − EXi )|Θ· )E(Xj − EXj )|Θ· )] = E [E((Xi |Θ· ) − EXi ))E(Xj |Θ· ) − EXj )] = V arµ(Θ· )),
i 6= j.
Da die Bedingungen aus Satz 6.3.4) eindeutig den linearen Credibility-Schätzer bestimmt, genügt es zu zeigen, dass (6.4.1) diese Bedingungen erfüllt. Es gilt nach (6.4.1) für
j = 1, 2, ..., n
¯ n + (1 − κn )µ, Xj ) = κn cov(X ¯ n , Xj ) cov(ˆ µn+1 , Xj ) = cov(κn X n n κn X κn κn X cov(Xi , Xj ) = a+ϕ= (na + ϕ) = a. = n i=1 n i=1 n Auÿerdem haben wir
cov(µ(Θ· ), Xj ) = V ar(µ(Θ· )) = a. Somit ist (6.3.4) aus Satz erfüllt. Die Bedingung (6.3.4) folgt unmittelbar aus
¯ n + (1 − κn )µ) = µ = EXi . Eµ ˆn+1 = E(κn X 2
Interpretation:
90
KAPITEL 6.
• µ
CREDIBILITY-THEORIE
mittlere Prämie im Kollektiv, genannt Kollektiv- oder Marktprämie
¯n • X
individuelle Schadenserfahrung
• κn Glaubwürdigkeit = Credibility) der individuellen Schadenserfahrung
Folgerung 6.4.2
Es gelten die folgenden Beziehungen:
Eµ ˆn+1 = µ = EXi und
lim κn = 1,
6.5
a>0
falls
n→∞n
Gleichheit von exakten und linearen Credibility-Schätzer
Nun zeigen wir, dass für eine Klasse von Verteilungen die linearen und exakte Credibility-Schätzer übereinstimmen. Wir stellen folgende Voraussetzungen: (B1)
{Fθ : θ ∈ (c, d)} bildet existiert ein σ -endliches
eine einparametrige Exponentialfamilie, d. h. es Maÿ
η
derart, dass
ist. Es existiert also eine Dichte
fθ
Fθ
von
Fθ
fθ (x) = C(θ)e−θx h(x), h
wobei die Funktion
absolut stetig bezüglich
η
mit der Darstellung
x > 0,
nicht negativ ist. Auÿerdem besitze
Fθ
das zweite
absolute Moment. (B2) Die Verteilung
G
von
Θ·
besitzt eine Dichte bezüglich des Lebesgueschen
Maÿes:
g(θ) = g(θ; m, x0 ) =
C(θ)m −θx0 e , D(m, x0 )
θ ∈ (c, d),
m = 1, 2, ...,
x0 > 0.
Weiterhin sei
g(c) = g(d) = 0. Wir benötigen die ersten beiden Momente von der der Verteilungsfunktion der einparametrigen Exponentialfamilie. Es sei Dann gilt
∞
Z E1 =
X ∼ Fθ
∞
Z
e−θu h(u) η(du)
fθ (u) η(du) = C(θ) 0
0
Also
1 = C(θ)
Z
∞
e−θu h(u) du.
0
Auÿerdem existiert
∞
Z EX =
Z ufθ (u) η(du) = C(θ)
0
∞
ue−θu h(u) η(du)
0
und somit auch das Integral auf der rechten Seite. Hieraus ergibt sich
1 C(θ)
0
C 0 (θ) = = C(θ)2
Z 0
Fθ
mit erstem Moment.
∞
ue−θu h(u) du.
6.5.
EXAKTE UND LINEARE CREDIBILITY-SCHÄTZER
C 0 (θ).
und die Existenz von
Wir erhalten also
EX =
C 0 (θ) 0 = (ln(C(θ))) C(θ)
Analog folgt aus der Existenz von
EX 2 =
Z
91
EX 2
∞
u2 fθ (u) η(du) = C(θ)
0
Z
∞
u2 e−θu h(u) η(du)
0
Folglich gilt
1 C(θ)
00
Z
∞
=
u2 e−θu h(u) η(du).
0
Wir erhalten also
00 1 = C(θ) − C(θ)
Satz 6.5.1 (Jewell (1974)
V ar(X) = EX 2 − (EX)2 0 !2 1 = (ln(C(θ)))00 C(θ)
Unter den Voraussetzungen des Bühlmannschen
Modells und den Annahmen (B1) und (B2) gilt
µ∗n+1 = µ ˆn+1
(6.5.2)
Beweis: a) Wir starten mit der Bestimmung von µ(θ). Aus den Vorbetrachtungen erhalten wir
µ(θ) = Auÿerdem ist dann die Dichte
C 0 (θ) 0 = (ln(C(θ))) . C(θ)
g(θ)
im Intervall
(c, d)
dierenzierbar. Demnach
gilt
g 0 (θ) =
mC(θ)m−1 C 0 (θ) −θx0 e − f racC(θ)m D(m, x0 )e−θx0 x0 D(m, x0 ) = g(θ)(mµ(θ) − x0 )
Daraus ergibt sich für
Z
c < c0 < d0 < d
d0
g 0 (θ) dθ = g(d0 ) − g(c0 ) = m
c0 Wenn nun
Z
d0
Z
und
d0 → d, Z
d0
g(θ)µ(θ) dθ − x0 c0
c0 → c
(6.5.3)
g(θ) dθ. c0
so folgt
d
g(θ)µ(θ) dθ = c
x0 =µ m
(6.5.4)
erhalten wir nach Dierentation b) Wir bestimmen nun den exakten Credibility-Schätzer. Die Dichte von
(X1 , ..., Xn , Θ· ))0
92
KAPITEL 6.
CREDIBILITY-THEORIE
ergibt zu
fX1 ,...,Xn ,Θ· (x1 , , x2 , ..., xn , θ) =
n Y
fθ (xi )g(θ)
i=1
= e−θ(n¯xn +x0 Hieraus folgt für die Dichte von
n C(θ)m+n Y h(xi ) D(m, x0 ) i=1
(X1 , ..., Xn )0 n
fX1 ,...,Xn (x1 , , x2 , ..., xn ) =
D(m + n, n¯ xn + x0 ) Y h(xi ). D(m, x0 ) i=1
Somit ergibt sich für die bedingte Dichte
fΘ· |X1 =x1 ,...,Xn =xn (θ) =
C(θ)m+n e−θ(n¯xn +x0 ) D(m + n, n¯ xn + x0 ) = g(θ; m + n, n¯ xn + x0 ).
Wegen (6.5.4) erhalten wir
µ∗n+1 =
d
Z
µ(θ)fΘ· |X1 =x1 ,...,Xn =xn (θ) dθ c
Z =
d
µ(θ)g(θ; m + n, n¯ xn + x0 ) dθ c
= Somit liegt überein.
2
µ∗n+1 ∈ An
n m n¯ xn + x0 = x ¯n + µ. n+m m+n m+n und linearer und exakter Credibility-Schätzer stimmen
Bemerkung. Es gilt nun oenbar κn =
na n = na + ϕ m+n
und somit
ϕ = m. a
Daraus folgt
V ar(X) = (m + 1)V arµ(Θ· ) = (m + 1)a Dies kann man auch direkt aus dem Beweis ablesen. Dierenziere
(6.5.5)
g,
so folgt
g 00 (θ) = g(θ)m2 (µ(θ) − µ)2 + g(θ)mµ0 (θ). Wir integrieren nun bezüglich
θ
über
(c0 , d0 )
und erhalten.
g 0 (d) − g 0 (c) = m2 a + m − mϕ. Wegen (6.5.3) gilt
g 0 (d) = g 0 (c) =
verschwindet, d. h. es gilt (6.5.5).
und die rechte Seite der letzten Gleichung
6.6.
SCHÄTZTHEORIE IM MODELL VON BÜHLMANN
6.6
93
Schätztheorie im Modell von Bühlmann
Die Credibility
κn
ist unbekannt und muss auf Grund der Schadenserfahrung
geschätzt werden, d. h. es müssen die Charakteristika
a,ϕ,
und
µ
geschätzt
werden. Wir gehen aus von einem Kollektiv von Risiken
Rj := {Xi,j : i = 1, 2, ..., n} , Auÿerdem sei
∆j
die Risikoqualitäten der
j = 1, 2, ..., k.
k -Policen.
Wir gehen also von der
Stichprobe
{(Rj , ∆j ) : j = 1, 2, ..., k} aus. Wir hatten gesehen, dass ein Risiko nicht aus unabhängigen Zufallsvariablen besteht, so besteht die Stichprobe im allgemeinen nicht aus unabhängigen Zufallsgröÿen.
Bestimmung der Schätzer aus dem Substitutionsverfahren Die empirische Verteilung von der gesamten Stichprobe ist dann
Fk,n
n k X X 1 = δX δ∆j k i=1 j=1 i,j
und die empirische Verteilung von
{Rj : j = 1, 2, ..., k} n
Gk,n = Wegen
µ = µ(FXi
k
1 XX δX . kn i=1 j=1 i,j
ergibt sich aus der Substitutionsmethode die Schätzung
n
µ ˆ = µ(Gk,n ) = Die Parameter
a
und
ϕ
k
1 XX Xi,j . kn i=1 j=1
haben die Darstellung
a = V ar(µ(Θ· ), Die Schätzung von
ergibt sich zu
ϕ = V ar(Xi ) − a.
a ermitteln wir in zwei Stufen. Ist die Funktion µ(θ) bekannt, a:
so ergibt sich aus der Substitutionsmethode die Schätzung für
k 1X (µ(θj ) − µ ˆ)2 . a ˜= k j=1 Im zweiten Schritt schätzen wir die bedingte Erwartung
µ(θj ) = E(Xi |Θ· = θj ). als beste Approximation des Risiko
( min
Rj ,
d. h. wir lösen das Problem
) n 1X (Xi,j − g)2 : g ∈ R n i=1
94
KAPITEL 6.
CREDIBILITY-THEORIE
Es ist wohl bekannt, dass
n
1X [ ¯ µ(θ Xi,j j ) = Xjn = n i=1 ist. Schlieÿlich ergibt sich für
a
der Schätzer
a ˆ= ein Schätzung für
k 1X (Xjn − µ ˆ)2 . k j=1
ϕ = V ar(Xi ) − a
erhalten dann sofort
ϕˆ = σ ˆ2 − a ˆ. Wegen
(Xi,j − µ ˆ)2 = (Xi,j − Xjn )2 + (Xjn − µ ˆ)2 + 2(Xi,j − Xjn )(Xjn − µ ˆ) ergibt sich die Beziehung
k
ϕˆ =
n
1 XX (Xi,j − Xjn )2 . kn j=1 i=1
Wir untersuchen nun die Eigenschaften der Schätzungen
Satz 6.6.1
Die folgenden Schätzfunktionen für k
µ ˆ=
und
ϕˆ.
µ, a und ϕ sind erwartungstreu:
n
1 XX Xi,j , kn j=1 i=1 k
ϕ˜ =
µ ˆ, a ˆ
n
XX 1 (Xi,j − Xjn )2 k(n − 1) j=1 i=1
und
k
a ˜=
1 X 1 ˜ (Xjn − µ ˆ)2 − ϕ. k − 1 j=1 n
Beweis: a) Oenbar gilt
k X n X 1 E ϕ˜ = E (Xi,j − Xjn )2 k(n − 1) j=1 i=1 k
=
n
XX 1 E(Xi,j − Xjn )2 k(n − 1) j=1 i=1
k X n X 1 1 1 = E (1 − (Xi,j − µ) − k(n − 1) j=1 i=1 n n
n X u=1,u6=i
2 (Xu,j − µ) .
6.6.
SCHÄTZTHEORIE IM MODELL VON BÜHLMANN
Wir betrachten nun das
(i, j)−
95
Glied der letzten Summe und vereinfachen sie
wie folgt:
E (1 − = (1 −
1 1 )(Xi,j − µ) − n n
1 2 1 ) E(Xi,j − µ)2 + 2 n n 1 1 ) n n
−2(1 − 1 + 2 n
n X
n X
2 (Xu,j − µ)
u=1,u6=i n X
E(Xu,j − µ)2
u=1,u6=i
E(Xu,j − µ)(Xi,j − µ)
u=1,u6=i
n X
E(Xu,j − µ)(Xv,j − µ)
u=1,v=1,u6=v,u6=i,v6=i
1 1 1 2 2 1 ) σ + 2 (n − 1)σ 2 − 2(1 − ) (n − 1)a n n n n n−1 1 2 1 2 + 2 ((n − 1) − (n − 1))a = (1 − ) σ − a = ϕ. n n n = (1 −
Somit gilt
E ϕ˜ = d. h.
ϕ
n−1 1 kn ϕ = ϕ, k(n − 1) n
ist erwartungstreu.
b) Der Beweis von
E˜ a=a
ist analog.
Als Schätzung für die Varianz
σ
2
2
der Schäden benutzen wir die Schätzung aus
der Substitutionsmethode:
k
n
1 XX σ ˆ := (Xi,j − µ ˆ)2 kn j=1 i=1 2
Diese Schätzung ist nicht erwartungstreu, aber es gilt
Folgerung 6.6.2
Es gilt für die Schätzung
1 σ ˜ := σ ˆ + n 2
2
1 a ˜ − ϕ˜ n
ist erwartungstreu.
Beweis: Wir haben die Darstellung σ ˆ2 =
a ˜+
1 n−1 ϕ˜ + ϕ˜ n n
und erhalten daraus
Eσ ˆ 2 = σ2 −
1 1 (a − ϕ. k n 2
96
6.7
KAPITEL 6.
CREDIBILITY-THEORIE
Das Regressionsmodell
Wir wollen das Modell von Bühlmann verallgemeinern. Die Risikoqualität soll sich weiterhin in den
n
Zeitpunkten nicht verändern; jedoch kann sich die Net-
toeinmalprämie verändern: Wir stellen folgende Voraussetzungen: (C1)
Θ1 = Θ2 = .. = Θn+1 =: Θ·
(C2) Es existieren
1 × q−
Parametervektoren
Y(i) = (Yi,1 , Yi,2 , · · · , Yi,q ) und ein
q×1
Parametervektor
bq (θ) :=
b1 (θ) b2 (θ) · · · bq (θ)
derart, dass
µi (θ) := E(Xi |Θ· = θ) = Y(i) bq (θ),
i = 1, 2, ..., n + 1.
(6.7.1)
Die Gleichungen (6.7.1) lassen sich mit den Bezeichnungen
Yn
:=
Y(1) Y(2) · · · Y(n)
X n :=
und
X1 X2 · · · Xn
wie folgt schreiben:
E(X n |Θ· = θ) = Y n bq (θ).
(6.7.2)
Bezeichne auÿerdem
Λ = cov(bq (Θ· )),
Φ = ECov(X n |Θ· = θ)
undβ
= Ebq (Θ· ))
Wir verallgemeinern nun Satz 6.4.1.
Satz 6.7.1
Für den linearen Credibility-Schätzer gilt
h i µ ˆn+1 = Y(n+1) Z ˆb + (Iq − Z)β , wobei der Schätzer sind:
und
ˆb
von
b(Θ· )
und die Credibility-Matrix
ˆb = (Y 0 Φ−1 Y )−1 Y 0 Φ−1 X n Z = ΛY 0 Φ−1 Y (Iq + ΛY 0 Φ−1 Y )−1
Z
wie folgt deniert
6.7.
DAS REGRESSIONSMODELL
97
Beweis: a) Oenbar gilt Eˆb = (Y 0 Φ−1 Y )−1 Y 0 Φ−1 EX n = (Y 0 Φ−1 Y )−1 Y 0 Φ−1 Y Eb(Θ· ) = β, d. h.
ˆb ist
erwartungstreu. Weiter gilt nach Denition
h i Eµ ˆn+1 = Y(n+1) ZEˆb + (Iq − Z)β = Y(n+1) [Zβ + (Iq − Z)β] = Y (n+1) β = Eµn+1 (Θ· ). Dies ist gerade die Bedingung (6.3.5) aus Satz 6.3.4. b) Weiterhin ist nach Satz 6.3.4
cov(X n µ ˆn+1 ) = cov(X n , µn+1 (Θ· ).
(6.7.3)
Nun gilt
cov(ˆ µn+1 , X n ) == Y(n+1) Zcov(ˆb, X n ) = Y(n+1) Z(Y 0 Φ−1 Y )−1 Y 0 )−1 Y Φ−1 cov(X n , X n ). Aber es gilt nach Denition der Kovarianzmatrix
cov(X n , X n ) = E(X n − Y β)(X n − Y β)0 = E{E[(X n − E(X n |Θ· ) +E(X n |Θ· ) − Y β)][(X n − E(X n |Θ· ) + E(X n |Θ· ) − Y β)]0 |Θ· } = E {E(X n − E(X n |Θ· )(X n − E(X n |Θ· )0 |Θ· )]} +E{E(X n |Θ· ) − Y β)(X n |Θ· − Y β)0 } = ECov(X n |Θ· ) + E[(Y b(Θ· − Y β)(Y b(Θ· − Y β)0 ] = Φ + Y ∆Y 0 . Somit folgt
ˆn+1 = Y(n+1) Z(Y 0 Φ−1 Y )−1 Y Φ−1 (Φ + (Y Λ−1 Y 0 ). cov(X n , µ Andererseits gilt
cov(µn+1 (Θn+1 ), X n ) = ECov(µn+1 (Θ· ), E(X n |Θ· ) = Y(n+1) ECov(b(Θ· , b(Θ· )Y 0 = Y(n+1) ΛY 0 . Deshalb ist (6.7.3) nachgewiesen, falls
Z(Y 0 Φ−1 Y )−1 Y Φ−1 (Φ + Y Λ−1 Y ) = ΛY 0
(6.7.4)
Nach Denition gilt
C(I + C)−1 = I − (I + C)−1 = (I + C)−1 C, so folgt für
(6.7.5)
C := ΛY 0 Φ−1 Y Q := (Iq + [ΛY 0 Φ−1 Y ])−1 [ΛY 0 Φ−1 Y ](Y 0 Φ−1 Y )−1 Y 0 Φ−1 = (Iq + [ΛY 0 Φ−1 Y ])−1 ΛY 0 Φ−1 .
Somit folgt unter erneuter Benutzung von (6.7.3)
Q(Φ + Y ΛY 0 ) = (Iq + [ΛY 0 Φ−1 Y ])−1 ΛY 0 Φ−1 (Φ + Y ΛY 0 ) = (Iq + [ΛY 0 Φ−1 Y ])−1 ΛY 0 + (Iq + [ΛY 0 Φ−1 Y ])−1 [ΛY 0 Φ−1 Y ]ΛY 0 = (Iq + [ΛY 0 Φ−1 Y ])−1 ΛY 0 + ΛY 0 − (Iq + [ΛY 0 Φ−1 Y ])−1 ΛY 0 = ΛY 0 . 2
98
KAPITEL 6.
6.8
CREDIBILITY-THEORIE
Schätztheorie der Credibility im Regressionsmodell
Die Credibility-Matrix
Z
und der Schätzer
ˆb
von
bq (ϑ)
sind unbekannt und
müssen auf Grund der Schadenserfahrung geschätzt werden, d. h. es müssen die Charakteristika
Λ = cov(bq (Θ· )),
Φ = ECov(X n |Θ· = θ)
und
β = Ebq (Θ· ))
geschätzt werden. Wir gehen aus von einem Kollektiv von Risiken (aufgefasst als
1xn−
Vektoren)
X n,j = (Xi,j : i = 1, 2, . . . , n)),
j = 1, 2, . . . , k.
Wir hatten gesehen, dass ein Risiko nicht aus unabhängigen Zufallsvariablen besteht, so kann man im allgemeinen nur aus einem Kollektiv die Parameter gut schätzen. Die Risiken seien stochastisch unabhängig mit den gleichen Parametern
Λ und β .
Jedoch lassen wir zu, dass die bedingte Kovarianzmatrix vom Risiko abhängen kann. Es gelte nämlich
cov(X n,j |Θ· = ϑ) = σ 2 (ϑ) · Qj , n × n−
mit einer vorgegebenen positiv deniten
j − te
i = 1, 2, . . . , k Matrix
Qj .
Somit gilt für das
Risiko
Φ = Eσ 2 (Θ· ) · Qj Wir zerlegen diese
n × n−
(6.8.1)
Matrix entsprechend so, dass
Qj = Aj A0j mit einer
n × n−
Matrix. Oenbar ist
A
regulär.
Auÿerdem hänge die Nettorisikoprämie von dem
j -ten Risiko ab, und zwar gelte:
E(X j |Θ· = ϑj ) = X j bq (ϑ) i = 1, 2, . . . , k.
Bestimmung der Schätzer für Λ, Φ und β aus dem Substitutionsverfahren Es gilt oensichtlich unter
A−1 j Xj
=
Θ· = ϑj
A−1 j Y j b(ϑj )
+ σ 2 )(ϑj )j ,
i = 1, 2, . . . , k,
wobei
E(j |Θ· = ϑj ) = 0 und
−1
cov(j , j |Θ· = ϑj ) = Aj−1 σ 2 (ϑj )Qj A0 j Der Kleinst-Quadrat-Schätzer für
b(ϑ)
0 −1 2 = σ 2 (ϑj )A−1 j Aj Aj Aj = σ (ϑj )In .
für das
j − te
Risiko ergibt sich dann
bekanntlich als
ˆbj =
n
A−1 j Yj
0
A−1 j Yj
o−1
0 −1 A−1 j Y j Aj X j
6.8. SCHÄTZTHEORIE DER CREDIBILITY IM REGRESSIONSMODELL99
n o−1 = Y j )0 Q−1 Y ) Y j )0 Q−1 Xj j j j und für die Schätzung von
σ 2 (ϑ) für das j − te Risiko ergibt sich aus der Theorie
der linearen Modelle
0 1 −1 −1 ˆ ˆ Aj X j − A−1 A−1 j Y j bj j X j − Aj Y j bj n−q 0 1 X j − Y j ˆbj . = X j − Y j ˆbj Q−1 j n−q Es ist wohl bekannt, dass die Schätzungen ˆ bj und ϕˆj erwartungstreu sind. Wir wollen überlegen, wie wir die k Schätzungen für die Parameter bq (ϑ) und σ 2 (ϑ) zu je einer Schätzung für die Parameter β und Eσ 2 (Θ· zusammengefasst werden können. Ist {πi : i = 1, . . . , k} eine beliebige Verteilung, so ist ϕˆj =
βˆ =
k X
πj ˆbj
j=1 eine erwartungstreue Schätzung von
β.
Analog ist
ϕˆ =
k X
πj ϕˆj
j=1 erwartungstreu. Analog erhalten wir wegen
0
Λ = E [b(Θ· ) − β] [b(Θ· ) − β] Schätzungen der Bauart
k 0 X ˆbj − ˆbi ˆbj − ˆbi ˆi = 1 Λ k j=1 Deswegen betrachten wir die Klasse der Schätzungen:
ˆ= Λ
k X k X
0 ki,j ˆbj − ˆbi ˆbj − ˆbi .
i=1 j=1 Da das
(i, j)−te
(j, i)−te Glied bei 0 ˆbj − ˆbi ˆbj − ˆbi
Glied und das
gleich sind, fordern wir
ki,j = kj,i ≥ 0. Auÿerdem gelte die Normierungsbedingung
k X k X
ki,j = 1.
i=1 j=1 Es zeigt sich nun, dass der Schätzer
ˆ Λ
im allgemeinen nicht erwartungstreu ist,
jedoch durch eine Korrektur erwartungstreu gemacht werden kann.
100
KAPITEL 6.
Satz 6.8.1
Es sei
{πi : i = 1, . . . , k}
CREDIBILITY-THEORIE
eine beliebige Verteilung. Weiter sei
o−1 n ˆbj = Y )0 Q−1 Y ) Y j )0 Q−1 Xj j j j j und
ϕˆj =
0 1 ˆbj . X j − Y j ˆbj Q−1 X − Y j j j n−q
Die Schätzer
βˆ =
k X
πj ˆbj ,
j=1
ϕˆ =
k X
πj ϕˆj
j=1
und
˜ := [2(1 − k·· )] Λ
k X k X
kij (ˆbj − ˆbi )(ˆbj − ˆbi )0
i=1 j=1
−2ϕˆ
k X
i−1 h Y ) (kj· − kii ) Y j )0 Q−1 j j
j=1
sind erwartungstreu für die entsprechenden Parameter
Beweis:
Es genügt oenbar zu beweisen, dass
˜ Λ
β
,
ϕ = Eσ 2 (Θ· )
und
Λ.
erwartungstreu ist. Zur Ver-
einfachung setzen wir
n o−1 B j := Y j )0 Q−1 Y j) j Es gilt oenbar
Y j Bj . E(ˆbj ˆb0j |Θ· = ϕ) = B j Y 0j Qj−1 E(X j X 0j |Θ· = ϕ)Q−1 j Wegen
E(X j X 0j |Θ· = ϕ) = cov(X j |Θ· = ϕ) + Y j b(ϑj )b(ϑj )0 Y j ) = σ 2 (ϑj )Qj + Y j b(ϑj )b(ϑj )0 Y j ) erhalten wir dann
E(ˆbj ˆb0j |Θ· = ϕ) = σ 2 (ϑj )B j + bq (ϑ)bq (ϑ)0 . Auÿerdem gilt
h i E (ˆbj − β)(ˆbj − −β)0 |Θ· = ϕ = E(ˆbj ˆb0j |Θ· = ϕ − −(bq (ϑ) − β)(bq (ϑ) − β)0 − bq (ϑ)bq (ϑ)0 . Bilden wir nun den Erwartungswert, so folgt
h i cov(ˆbj ) = E (ˆbj − β)(ˆbj − −β)0 = ϕB j + Λ.
(6.8.2)
6.8. SCHÄTZTHEORIE DER CREDIBILITY IM REGRESSIONSMODELL101
Unter Verwendung von (6.8.2) folgt
0 E(ˆbj − ˆbi )(ˆbj − ˆbi )0 = E [ˆbj − β] − [ˆbi − β] [ˆbj − β] − [ˆbi − β] h ih i0 h ih i0 = cov(ˆbi ) + cov(ˆbj ) − E ˆbj − β ˆbi − β − E ˆbi − β ˆbj − β = ϕ B i + B j + 2Λ [1 − δij ] . Daher ergibt sich
C := E
k X k X
kij (ˆbj − ˆbi )(ˆbj − ˆbi )0 =
i=1 j=1
k X k X
kij E(ˆbj − ˆbi )(ˆbj − ˆbi )0
i=1 j=1
= 2Λ(1 −
k X
kii ) + 2ϕ
i=1
k X
(ki· − kii )B j .
(6.8.3)
i=1
Es sei bemerkt, dass
k·· = 1 −
k X
kii
i=1 gilt. Schlieÿlich ergibt sich aus (6.8.3) und aus
˜ = C − 2E ϕˆ (1 − k·· )E Λ
k X
E ϕˆ = ϕ
(kj· − kjj )B j = 2Λ(1 −
k X
kii ).
i=1
j=1
2
Bemerkung. Wie in der Herleitung schon ersichtlich war, kann man die empirische Verteilung der Risikoqualität für
πi =
1 , k
πi
und
kij
wähle zu den Gewichten:
i = 1, 2, . . . , k
und
kij =
Beispiel 6.8.2
1 , k2
i, j = 1, 2, . . . , k.
Häug werden polynomiale Trends verwendet, d. h. es wird ge-
fordert:
EX j |Θ· = ϑ) =
n X
bi (ϑ)ij−1 .
i=1
In diesem Fall haben wir also
Y(j) = (1, 2j−1 , 3j−1 , · · · , nj−1 ). 2
102
6.9
KAPITEL 6.
CREDIBILITY-THEORIE
Das Credibility-Verfahren von Wengner in der Feuerversicherung
Es werden die Modellvoraussetzungen vom Regressionsmodel vorausgesetzt. Insbesondere die Annahme, dass
E(Xi |Θ· = ϑ) = µ(ϑ), d. h.
q = 1, b1 (ϑ) := µ(ϑ)
und
Y(j) = (1).
Deshalb haben wir
E(X n |Θ· = ϑ) = Y n bq (ϑ) = (1, ..., 1)0 µ(ϑ). Somit sind
Λ
und
β 1 × 1−
Matrizen und wir setzen
Λ := λ = V ar(µ(Θ· ))
und
β = Eµ(Θ· )
Weiter gelte
cov(X n |Θ· = ϑ) = σ 2 (ϑ)diag(
1 : i = 1, 2, ..., n). Vi
Wir setzen weiter
a := Eσ 2 (Θ· ) Deshalb ist die
n × n−
Matrix
( Φi,j =
Φ = {Φi,j }
0 a Vi
durch
i 6= j i = j = 1, 2, ..., n
, wenn , wenn
deniert. Zur Bestimmung des Credibility-Schätzers ermitteln wir zunächst die die Schätzung
ˆb von µ(Θ· )
und die
1 × 1−
Z =: κn .
Matrix
Es gilt oenbar
n
Y 0 Φ−1 Y =
1 1X Vi := V a i=1 a
Daraus ergibt sich
ˆb = (Y 0 Φ−1 Y )−1 Y 0 Φ−1 X = n
n X Vi i=1
und
Z = ΛY 0 Φ−1 Y (Iq + ΛY 0 Φ−1 Y )−1 =
V
Xi
aV = κn . ϕ + aV
Für den linearen Credibility-Schätzer gilt dann
n h i X Vi µ ˆn+1 = Y(n+1) Z ˆb + (Iq − Z)β = κn Xi + (1 − κn )β V i=1
(6.9.1)
Wir sehen, dass wir die Credibility-Formel (6.4.1) etwas verallgemeinert haben. Gilt nämlich
Vi = c für i = 1, 2, ..., n, so folgt aus (6.9.1) die Darstellung (6.4.1).
Bemerkung. Für κn = 1 folgt der Credibility-Schätzer von Strauÿ und Flach.
6.9.
VERFAHREN VON WENGNER
103
Wir betrachten nun die Schätztheorie zu dem Modell von Wengner. Es sind die Parameter
β ,ϕ und λ auf k Risiken
Grund einer Stichprobe zu schätzen.
Wir gehen von
Rj = (Xij : i = 1, 2, . . . , n) j = 1, 2, . . . , k aus. Die Versicherungssummen des
Vij ,
j−ten
Risikos seien gegeben:
i = 1, 2, ..., n.
Zur Bestimmung der Schätzer wenden wir die Resultate aus Abschnitt 9.8 an. Die Darstellung (6.8.1) gilt wegen
Φ = Eσ 2 (Θ· ) · Qj = a diag mit
Qj = diag
Weiter gilt
1 ; Vi,j
i = 1, 2, , , ..., n
1 ; Vi,j
i = 1, 2, , , ..., n
n o−1 1 B j := Y 0j Q−1 Y = ) j j V·,j
und
Y 0j Q−1 Xj = j
n X
Vi,j Xi,j .
i=1 Wir erhalten für
ˆbj
aus Satz 6.8.1
n o−1 n X Vi,j 0 −1 ˆbj = Y )0 Q−1 Y ) Xi,j Y Q X = j j j j j j V i=1 ·,j Weiter ergibt sich für
ϕˆj =
ϕˆj
aus Satz 6.8.1
n 0 2 X 1 1 ˆbj = ˆbj Vi,j . X j − Y j ˆbj Q−1 X − Y X − i,j j j j n−q (n − 1) i=1
Mit diesen Vorbereitungen erhalten wir für eine Verteilung und Gewichten
ki,j ,
{πi : i = 1, . . . , k}
die die Bedingungen
ki,j = kj,i ≥ 0,
k X k X
ki,j = 1
i=1 j=1 erfüllen, die Schätzer
βˆ =
k X n X j=1 i=1 k
ϕˆ =
πj
Vi,j Xi,j , V·,j
n
2 XX 1 πj Xi,j − ˆbj Vi,j (n − 1) j=1 i=1
und
k k X k X X k − k 1 j· ii ˜= kij (ˆbj − ˆbi )2 − 2ϕˆ . λ 2(1 − k·· ) i=1 j=1 V ·,j j=1
104
KAPITEL 6.
CREDIBILITY-THEORIE
Literaturverzeichnis [1] I. N. Bronstein, K. A. Semendjajew. Taschenbuch der Mathematik. Teubner Verlagsgesellschaft, Leipzig, 1987. [2] W. Feller. An Introduction to Probability and its Applications. Volume 2, Wiley, New York,
2nd
Edition, 1971.
[3] W. R. Heilmann. Grundbegrie der Risikotheorie. Verlag Versicherungswirtschaft, Karlsruhe, 1987. [4] Ch. Hipp.
Risikotheorie:stochastische Modelle und statistische Methoden.
Verlag Versicherungswirtschaft, Karlsruhe, 1990. [5] R. Kaas, M. Goovaerts, J. Dhaene , M. Denuit. Modern Acturial Risk Theory. Kluwer Academic Publishers, Boston, Dordrecht, London, 2001. [6] Th. Mack.
Schadensversicherungsmathematik.
Verlag Versicherungswirt-
schaft, Karlsruhe, 1997. [7] T. Rolski, H. Schmidli, V. Schmidt , J. Teugels.
Insurance and Finance. Wiley, New York, 1999.
105
Stochastic Processes for
Index a-priori-Verteilung, 83
Panjer-Rekursion, 35
Ammeter-Transformation, 30
Pareto-Verteilung, 27
Anpassungskoezienten, 53
Poisson-Verteilung zusammengesetzte, 27
Bayessches Modell, 83 Biniomialverteilung
kanonische Darstellung, 30 Poisson-Verteilungen
negative, 30 Bruttorisikoprämie, 66 Credibility-Schätzer
Mischung von, 32 Portefeuille, 65 Prämienprinzip, 66 additiv, 76
exakter, 84
erwartungswert
linearer, 87
übersteigend, 76 iterativ, 79
Edgeworth-Approximation, 40
subadditiv, 76
Erwartungswertprinzip, 67
translationsäquivariant, 76
Escher-Prinzip, 76 Exponentialprinzip, 73 Exponentialverteilung Mischungen, 27
Risiko, 9, 65 Risikoprämie, 66 Ruinwahrscheinlichkeit, 41 m-jährige, 41
Faltung, 13 Formel von Gil-Pelaez, 15 Fouriersche Umkehrformel, 15 freie Reserve, 41 Gammaverteilung, 27, 86 individuelles Modell, 10 Jewell, 91
Schweizer-Prinzip, 72 Semi-Varianzprinzip, 70 Standardabweichungsprinzip, 69 Strukturverteilung, 83 Varianzprinzip, 69 Verlustfunktionenprinzip, 75 Verteilungsfunktion, 13 Umkehrformel, 15
kollektives Modell, 10 Konvergenzmenge, 16
Zufallsgröÿen bedingt unabhängig, 79
Maximales Verlustprinzip, 67 Mittelwertprinzip, 72 Nettorisikoprämie, 66 Normalverteilung lognormale, 27 Nullnutzenprinzip, 73 Nullprämienprinzip, 77 Nutzenfunktion, 73 106