Springer-Lehrbuch
Klaus D. Schmidt
Maß und Wahrscheinlichkeit
123
Prof. Dr. Klaus D. Schmidt Technische Universität Dresden Lehrstuhl für Versicherungsmathematik Fachrichtung Mathematik Zellescher Weg 12-14 01062 Dresden Deutschland
ISBN 978-3-540-89729-3
e-ISBN 978-3-540-89730-9
DOI 10.1007/978-3-540-89730-9 Springer-Lehrbuch ISSN 0937-7433 Bibliografische Information der Deutschen Nationalbibliothek Die Deutsche Nationalbibliothek verzeichnet diese Publikation in der Deutschen Nationalbibliografie; detaillierte bibliografische Daten sind im Internet über http://dnb.d-nb.de abrufbar. Mathematics Subject Classification (2000): 28-01, 60-01 c 2009 Springer-Verlag Berlin Heidelberg Dieses Werk ist urheberrechtlich geschützt. Die dadurch begründeten Rechte, insbesondere die der Übersetzung, des Nachdrucks, des Vortrags, der Entnahme von Abbildungen und Tabellen, der Funksendung, der Mikroverfilmung oder der Vervielfältigung auf anderen Wegen und der Speicherung in Datenverarbeitungsanlagen, bleiben, auch bei nur auszugsweiser Verwertung, vorbehalten. Eine Vervielfältigung dieses Werkes oder von Teilen dieses Werkes ist auch im Einzelfall nur in den Grenzen der gesetzlichen Bestimmungen des Urheberrechtsgesetzes der Bundesrepublik Deutschland vom 9. September 1965 in der jeweils geltenden Fassung zulässig. Sie ist grundsätzlich vergütungspflichtig. Zuwiderhandlungen unterliegen den Strafbestimmungen des Urheberrechtsgesetzes. Die Wiedergabe von Gebrauchsnamen, Handelsnamen, Warenbezeichnungen usw. in diesem Werk berechtigt auch ohne besondere Kennzeichnung nicht zu der Annahme, dass solche Namen im Sinne der Warenzeichen- und Markenschutz-Gesetzgebung als frei zu betrachten wären und daher von jedermann benutzt werden dürften. Einbandgestaltung: WMX Design GmbH, Heidelberg Gedruckt auf säurefreiem Papier 987654321 springer.de
Vorwort
Jede Zeit erfordert ihre eigene Sicht der Dinge. Das Anliegen dieses Buches ist ¨ es, in einer Zeit des Ubergangs von einer Vielfalt von Diplomstudieng¨angen zu einer noch gr¨ oßeren Vielfalt von Bachelor– und Master–Studieng¨angen und der damit verbundenen Tendenz zur Verlagerung der Studieninhalte von der Theorie zur Anwendung, die Grundlagen der Wahrscheinlichkeitstheorie im Spannungsfeld zwischen Theorie und Anwendung darzustellen. Als theoretische Grundlage der Wahrscheinlichkeitstheorie ist die Maß– und Integrationstheorie unverzichtbar, und zu einem gewissen Grad gilt dies auch f¨ ur die Topologie, auf der unter anderem der Begriff der Borelschen σ–Algebra, die Konstruktion des Lebesgue–Maßes und die Konstruktion stochastischer Prozesse beruht. Auf der anderen Seite erfordern Anwendungen der Wahrscheinlichkeitstheorie ein umfangreiches Repertoire an Methoden zur Konstruktion wahrscheinlichkeitstheoretischer Modelle. Grundlegend sind hier zum einen der Begriff der Unabh¨ angigkeit und zum anderen der Begriff der bedingten Erwartung und der davon abgeleitete Begriff der bedingten Verteilung. In Anwendungen der Wahrscheinlichkeitstheorie ist schließlich auch die Kenntnis der Eigenschaften spezieller univariater und multivariater Verteilungen erforderlich. Neben der Darstellung der Grundlagen der Wahrscheinlichkeitstheorie liefert dieses Buch mit zahlreichen Aufgaben auch Ansatzpunkte f¨ ur das Studium spezieller Fragestellungen, von denen einige theoretisch orientiert sind und andere sich aus Anwendungen insbesondere im Bereich der Statistik und der Versicherungsmathematik ergeben. Ein Autor, der st¨ arker der angewandten reinen Mathematik als der reinen angewandten Mathematik verhaftet ist, ist geneigt, mathematische Aussagen unter m¨ oglichst allgemeinen Voraussetzungen zu beweisen. Die Aufgabe, ein Lehrbuch zu schreiben, setzt dieser Versuchung nat¨ urliche Grenzen, und so
vi
Vorwort
habe ich mich bem¨ uht, zwischen dem Streben nach Allgemeinheit und der Beschr¨ ankung auf das Wesentliche ein Gleichgewicht zu finden. Bei der Arbeit an diesem Buch habe ich vielf¨ altige Unterst¨ utzung erhalten: – Klaus Th. Hess und Mathias Zocher haben die Entstehung des Buches begleitet und mir als anregende Gespr¨ achspartner zur Seite gestanden. – Lothar Partzsch und Wilfried Schenk haben Teile des Manuskriptes durchgesehen und wertvolle Hinweise gegeben. – Elisabeth L¨ oser, Alexander Ludwig, Andreas Ringel und viele andere Studenten haben zu wesentlichen Verbesserungen beigetragen. – Mandy Karzig hat fast alle Beispiele und Aufgaben zu univariaten und multivariaten Verteilungen u uft. ¨ berpr¨ – Christiane Weber hat Teile des Manuskriptes mit der ihr eigenen un¨ ubertrefflichen Sorgfalt korrekturgelesen und zusammen mit Elisabeth L¨oser bei der Erstellung des Symbolverzeichnisses und des Sachverzeichnisses mitgewirkt. Ihnen allen sei herzlich gedankt. Schließlich danke ich dem Springer–Verlag und insbesondere Clemens Heine f¨ ur die angenehme Zusammenarbeit.
Dresden, im November 2008
Klaus D. Schmidt
Inhaltsverzeichnis
Einleitung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
1
Teil I Mengensysteme und Abbildungen 1
Mengensysteme . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1.1 Topologien . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1.2 σ–Algebren . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1.3 Dynkin–Systeme . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1.4 ∩–stabile Mengensysteme . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1.5 Halbringe und Ringe . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
7 8 14 16 17 20
2
Topologische R¨ aume und messbare R¨ aume . . . . . . . . . . . . . . . . 2.1 Urbilder von Mengensystemen . . . . . . . . . . . . . . . . . . . . . . . . . . . . 2.2 Topologische R¨ aume und stetige Abbildungen . . . . . . . . . . . . . . . 2.3 Messbare R¨ aume und messbare Abbildungen . . . . . . . . . . . . . . . .
25 25 27 29
3
Produktr¨ aume . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 3.1 Produkte und Projektionen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 3.2 Produkte von topologischen R¨ aumen . . . . . . . . . . . . . . . . . . . . . . . 3.3 Produkte von messbaren R¨ aumen . . . . . . . . . . . . . . . . . . . . . . . . .
33 33 36 39
Teil II Maßtheorie 4
Mengenfunktionen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 4.1 Inhalte . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 4.2 Maße . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 4.3 Signierte Maße . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
43 43 49 56
viii
Inhaltsverzeichnis
5
Fortsetzung von Maßen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 5.1 Eindeutigkeitssatz . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . ¨ 5.2 Außere Maße . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 5.3 Existenzsatz . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 5.4 Approximationssatz . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 5.5 Lebesgue–Maß . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
63 63 65 67 70 72
6
Transformation von Maßen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 6.1 Bildmaße . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 6.2 Translationsinvariante Maße auf B(Rn ) . . . . . . . . . . . . . . . . . . . . . 6.3 Lineare Abbildungen des Lebesgue–Maßes . . . . . . . . . . . . . . . . . .
79 79 80 85
Teil III Integrationstheorie 7
Messbare Funktionen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 91 7.1 Messbare Funktionen auf einem Messraum . . . . . . . . . . . . . . . . . . 92 7.2 Messbare Funktionen auf einem Maßraum . . . . . . . . . . . . . . . . . . 101
8
Lebesgue–Integral . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 109 8.1 Positive einfache Funktionen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 110 8.2 Positive messbare Funktionen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 115 8.3 Integrierbare Funktionen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 123 aume . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 135 8.4 Lp –R¨
9
Berechnung des Lebesgue–Integrals . . . . . . . . . . . . . . . . . . . . . . . . 147 9.1 Integralinduzierte Maße und signierte Maße . . . . . . . . . . . . . . . . . 148 9.2 Integration nach einem Maß mit Dichte . . . . . . . . . . . . . . . . . . . . 149 9.3 Absolutstetige und singul¨ are Maße . . . . . . . . . . . . . . . . . . . . . . . . . 155 9.4 Integration nach einem Bildmaß . . . . . . . . . . . . . . . . . . . . . . . . . . . 163 9.5 Integration nach einem eingeschr¨ ankten Maß . . . . . . . . . . . . . . . . 165 9.6 Produktmaße . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 168 9.7 Integration nach einem Produktmaß . . . . . . . . . . . . . . . . . . . . . . . 175 9.8 Lebesgue–Integral und Riemann–Integral . . . . . . . . . . . . . . . . . . . 180
Teil IV Wahrscheinlichkeitstheorie 10 Wahrscheinlichkeitsr¨ aume . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 193 10.1 Wahrscheinlichkeitsr¨ aume und Zufallsgr¨oßen . . . . . . . . . . . . . . . . 194 10.2 Diskrete Wahrscheinlichkeitsr¨ aume . . . . . . . . . . . . . . . . . . . . . . . . 196 10.3 Symmetrische Wahrscheinlichkeitsr¨ aume . . . . . . . . . . . . . . . . . . . . 198 10.4 Endliche Produkte von Wahrscheinlichkeitsr¨aumen . . . . . . . . . . . 202 10.5 Projektive Familien von Wahrscheinlichkeitsr¨aumen . . . . . . . . . . 204 10.6 Satz von Andersen/Jessen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 209
Inhaltsverzeichnis
ix
11 Unabh¨ angigkeit . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 219 11.1 Unabh¨ angige Familien von Ereignissen . . . . . . . . . . . . . . . . . . . . . 219 11.2 Unabh¨ angige Familien von Ereignissystemen . . . . . . . . . . . . . . . . 229 11.3 Unabh¨ angige Familien von Zufallsgr¨ oßen . . . . . . . . . . . . . . . . . . . 236 11.4 Produkte von Wahrscheinlichkeitsr¨ aumen . . . . . . . . . . . . . . . . . . . 241 12 Univariate Verteilungen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 245 12.1 Verteilungen und Verteilungsfunktionen . . . . . . . . . . . . . . . . . . . . 245 12.2 Transformationen von Verteilungen . . . . . . . . . . . . . . . . . . . . . . . . 267 12.3 Momente . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 274 12.4 Zentrale Momente . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 285 13 Multivariate Verteilungen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 293 13.1 Verteilungen und Verteilungsfunktionen . . . . . . . . . . . . . . . . . . . . 293 13.2 Transformationen von Verteilungen . . . . . . . . . . . . . . . . . . . . . . . . 301 13.3 Randverteilungen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 302 13.4 Unabh¨ angigkeit . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 309 13.5 Verteilungen von Summen von Zufallsvariablen . . . . . . . . . . . . . . 314 13.6 Momente . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 319 13.7 Zentrale Momente . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 323 14 Konvergenz von Folgen von Zufallsvariablen . . . . . . . . . . . . . . . 331 14.1 Fast sichere Konvergenz . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 331 14.2 Stochastische Konvergenz . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 333 14.3 Konvergenz im p–ten Mittel . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 335 15 Gesetze der Großen Zahlen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 337 15.1 Schwache Gesetze der Großen Zahlen . . . . . . . . . . . . . . . . . . . . . . 337 15.2 Starke Gesetze der Großen Zahlen . . . . . . . . . . . . . . . . . . . . . . . . . 341 15.3 Satz von Glivenko/Cantelli . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 353 15.4 Irrfahrten . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 357 Teil V Vertiefung der Wahrscheinlichkeitstheorie 16 Erzeugende Funktionen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 369 16.1 Wahrscheinlichkeitserzeugende Funktion . . . . . . . . . . . . . . . . . . . . 370 16.2 Momenterzeugende Funktion . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 378 16.3 Kumulantenerzeugende Funktion . . . . . . . . . . . . . . . . . . . . . . . . . . 381 16.4 Charakteristische Funktion . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 383 17 Schwache Konvergenz und Zentraler Grenzwertsatz . . . . . . . . 391 17.1 Schwache Konvergenz . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 392 17.2 Straffheit . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 400 17.3 Zentraler Grenzwertsatz . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 405
x
Inhaltsverzeichnis
18 Bedingte Erwartung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 409 18.1 Bedingte Erwartung einer positiven Zufallsvariablen . . . . . . . . . 410 18.2 Bedingte Erwartung und bedingte Integrierbarkeit . . . . . . . . . . . 416 18.3 Bedingte Erwartung als Projektion . . . . . . . . . . . . . . . . . . . . . . . . 426 18.4 Martingale . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 428 19 Bedingte Wahrscheinlichkeit und bedingte Verteilung . . . . . . 435 19.1 Bedingte Wahrscheinlichkeit . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 435 19.2 Bedingte Unabh¨ angigkeit . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 438 19.3 Bedingte Verteilung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 442 19.4 Bedingte Dichte . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 446 19.5 Bedingte Gesetze der Großen Zahlen . . . . . . . . . . . . . . . . . . . . . . . 451 20 Regularit¨ at und Satz von Kolmogorov . . . . . . . . . . . . . . . . . . . . . 455 20.1 Regularit¨ at . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 456 20.2 Satz von Kolmogorov . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 458
Anhang A
Fakult¨ at und Gamma–Funktion . . . . . . . . . . . . . . . . . . . . . . . . . . . . 465 A.1 Fakult¨ at und Binomial–Koeffizient . . . . . . . . . . . . . . . . . . . . . . . . . 465 A.2 Gamma–Funktion und Beta–Funktion . . . . . . . . . . . . . . . . . . . . . . 466
B
Vektorr¨ aume, Ordnung und Topologie . . . . . . . . . . . . . . . . . . . . . 467 B.1 Vektorr¨ aume . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 467 B.2 Ordnung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 468 B.3 Topologie . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 469 B.4 Ordnung und Topologie . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 470
C
Der C.1 C.2 C.3 C.4
Euklidische Raum . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 471 Vektoren und Matrizen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 471 Ordnung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 473 Topologie . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 474 Ordnung und Topologie . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 474
Literaturverzeichnis . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 475 Symbolverzeichnis . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 477 Sachverzeichnis . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 481
Teil I
Mengensysteme und Abbildungen
1 Mengensysteme
Ein Mengensystem ist eine Familie von Teilmengen einer Grundmenge und damit eine Teilmenge der Potenzmenge der Grundmenge. In diesem Kapitel untersuchen wir Mengensysteme, die unter bestimmten mengentheoretischen Operationen stabil sind. Die wichtigsten Mengensysteme sind die Topologien und die σ–Algebren, wobei in der Maßtheorie vor allem die σ–Algebren von Bedeutung sind. Zwischen Topologien und σ–Algebren bestehen Analogien, die es als sinnvoll erscheinen lassen, diese Mengensysteme parallel zu untersuchen. So lassen sich zum Beispiel die Mengen, die einer Topologie oder σ–Algebra angeh¨oren, nur in seltenen F¨ allen explizit beschreiben. Topologien und σ–Algebren werden daher oft indirekt definiert, indem man ein kleineres Mengensystem angibt, das die Topologie oder die σ–Algebra in einer noch zu pr¨azisierenden Weise erzeugt. Da bestimmte σ–Algebren durch eine Topologie erzeugt werden, beginnen wir die Untersuchung von Mengensystemen mit Topologien (Abschnitt 1.1) und f¨ uhren erst dann σ–Algebren ein (Abschnitt 1.2). Die n¨achsten Abschnitte betreffen Mengensysteme, die f¨ ur die Erzeugung von σ–Algebren von Bedeutung sind. Dies sind vor allem Dynkin–Systeme (Abschnitt 1.3) und ∩–stabile Mengensysteme (Abschnitt 1.4) sowie Halbringe und Ringe (Abschnitt 1.5). Im gesamten Kapitel sei Ω eine nichtleere Menge. Wir bezeichnen die Potenzmenge von Ω mit 2Ω F¨ ur A ∈ 2Ω bezeichnen wir die M¨ achtigkeit von A mit |A| und das Komplement von A mit A
8
Kapitel 1. Mengensysteme
F¨ ur disjunkte Mengen A, B ∈ 2Ω setzen wir A + B := A ∪ B ur alle i, j ∈ I Eine Familie {Ai }i∈I ⊆ 2Ω heißt disjunkt, wenn Ai ∩ Aj = ∅ f¨ mit i = j gilt, und in diesem Fall setzen wir Ai := Ai i∈I
i∈I
Ω
F¨ ur eine Folge {An }n∈N ⊆ 2 heißt die Menge lim inf An := n→∞
∞ ∞
Ak
n=1 k=n
der Limes inferior der Folge {An }n∈N und die Menge lim sup An := n→∞
∞ ∞
Ak
n=1 k=n
heißt der Limes superior der Folge {An }n∈N . Es gilt lim inf An = ω ∈ Ω ω ∈ An f¨ ur alle außer endlich vielen n ∈ N n→∞
und
ur unendlich viele n ∈ N lim sup An = ω ∈ Ω ω ∈ An f¨ n→∞
und damit lim inf n→∞ An ⊆ lim supn→∞ An . Eine Menge heißt abz¨ahlbar , wenn sie endlich oder abz¨ahlbar unendlich ist. Jede Teilmenge von 2Ω heißt Mengensystem auf Ω.
1.1 Topologien Ein Mengensystem T ⊆ 2Ω heißt Topologie auf Ω, wenn es die folgenden Eigenschaften besitzt: (i) Es gilt Ω ∈ T und ∅ ∈ T . (ii) F¨ ur jede Familie {Qi }i∈I ⊆ T gilt i∈I Qi ∈ T . (iii) F¨ ur jede endliche Familie {Qi }i∈I ⊆ T gilt i∈I Qi ∈ T . Ist T ⊆ 2Ω eine Topologie, so heißt eine Menge A ∈ 2Ω – offen bez¨ uglich T , wenn A ∈ T gilt. – abgeschlossen bez¨ uglich T , wenn A ∈ T gilt. – kompakt bez¨ u glich T , wenn es zu jeder Familie {Qi }i∈I ⊆ T mit A ⊆ Q eine endliche Indexmenge H ⊆ I gibt mit A ⊆ i i∈I i∈H Qi . 1.1.1 Beispiele. (1) Die Potenzmenge 2Ω ist eine Topologie auf Ω. (2) Das Mengensystem {∅, Ω} ist eine Topologie auf Ω.
1.1 Topologien
9
1.1.2 Beispiel (Topologie eines normierten Raumes). Sei (E , . ) ein normierter Raum. F¨ ur x ∈ E und ε ∈ (0, ∞) sei ˛ n o ˛ B . (x, ε) := y ∈ E ˛ y − x < ε uglich der Norm Die Menge B . (x, ε) heißt offene Kugel um x mit Radius ε bez¨ . . Sei ˛ n o ˛ ur alle x ∈ Q gibt es ein ε ∈ (0, ∞) mit B . (x, ε) ⊆ Q T . := Q ∈ 2E ˛ f¨ Dann ist T . eine Topologie auf E und jede offene Kugel bez¨ uglich der Norm . ist offen bez¨ uglich der Topologie T . . In der Tat: Wir zeigen zun¨ achst, dass T . eine Topologie auf E ist: (i) Offenbar gilt Ω ∈ T . und ∅ ∈ T . . (ii) Sei {Qi }i∈I eine beliebige Familie von Mengen in T . und sei [ Qi Q := i∈I
Sei x ∈ Q. Dann gibt es ein i ∈ I mit x ∈ Qi . Wegen Qi ∈ T . gibt es ein ε ∈ (0, ∞) mit B . (x, ε) ⊆ Qi und wegen Qi ⊆ Q folgt daraus B . (x, ε) ⊆ Q. Daher gilt Q ∈ T . . (iii) Sei {Qi }i∈I eine endliche Familie von Mengen in T . und sei \ Qi Q := i∈I
Sei x ∈ Q. F¨ ur alle i ∈ I gilt x ∈ Qi und wegen Qi ∈ T . gibt es f¨ ur alle i ∈ I ein εi ∈ (0, ∞) mit B . (x, εi ) ⊆ Qi . Sei ε := mini∈I εi . Da I endlich ist, gilt ε ∈ (0, ∞) und f¨ ur T alle i ∈ I ergibt sich B . (x, ε) ⊆ B . (x, εi ) ⊆ Qi . Daraus folgt B . (x, ε) ⊆ i∈I Qi = Q. Daher gilt Q ∈ T . . Daher ist T . eine Topologie auf E. Wir zeigen nun, dass jede offene Kugel bez¨ uglich der Norm . offen bez¨ uglich der ur y ∈ B . (x, ε) sei ηy := y − x Topologie T . ist: Sei x ∈ E und ε ∈ (0, ∞). F¨ ur alle z ∈ B . (y, εy ) gilt daher und εy := ε − ηy . Wegen ηy < ε gilt εy ∈ (0, ∞). F¨ z−x ≤ z−y + y−x < εy + ηy = (ε−ηy ) + ηy = ε und damit z ∈ B . (x, ε). Da z ∈ B . (y, εy ) beliebig war, ergibt sich B . (y, εy ) ⊆ B . (x, ε) Da y ∈ B . (x, ε) beliebig war, ergibt sich B . (x, ε) ∈ T . Daher ist jede offene Kugel bez¨ uglich der Norm . offen bez¨ uglich der Topologie T . .
F¨ ur einen normierten Raum (E, . ) wird die in Beispiel 1.1.2 definierte Topologie T . als die von der Norm . erzeugte Topologie oder als die Normtopologie bez¨ uglich der Norm . bezeichnet.
10
Kapitel 1. Mengensysteme
Wir betrachten nun Durchschnitte von Topologien: 1.1.3 Satz. Sei H eine nichtleere Indexmenge und sei {Th }h∈H eine Familie von Topologien auf Ω. Dann ist das Mengensystem Th T := h∈H
eine Topologie auf Ω. Beweis. Wir zeigen, dass T die Axiome einer Topologie erf¨ ullt: (i) F¨ ur alle h ∈ H gilt Ω, ∅ ∈ Th . Daher gilt Ω, ∅ ∈ h∈H T h =T. (ii) Sei {Qi }i∈I eine beliebige Familie von Mengen in T = h∈H Th . F¨ ur alle ∈ T . F¨ u r alle h ∈ H folgt daraus h ∈ H und f¨ u r alle i ∈ I gilt dann Q h i i∈I Qi ∈ Th . Daher gilt i∈I Qi ∈ h∈H Th = T . ur alle (iii) Sei {Qi }i∈I eine endliche Familie von Mengen in T = h∈H Th . F¨ h ∈ H und f¨ u r alle i ∈ I gilt dann Q ∈ T . F¨ u r alle h ∈ H folgt daraus h i i∈I Qi ∈ Th . Daher gilt i∈I Qi ∈ h∈H Th = T . Daher ist T eine Topologie auf Ω. 2 Aus Satz 1.1.3 ergibt sich eine wichtige Folgerung: 1.1.4 Folgerung. Zu jedem Mengensystem E ⊆ 2Ω gibt es eine kleinste Topologie auf Ω, die E enth¨alt. Beweis. Wir betrachten die Familie aller Topologien auf Ω, die E enthalten. Diese Familie ist nichtleer, denn die Potenzmenge 2Ω ist eine Topologie mit E ⊆ 2Ω . Nach Satz 1.1.3 ist der Durchschnitt aller Topologien, die E enthalten, ebenfalls eine Topologie. Diese Topologie enth¨ alt E und ist offenbar die kleinste Topologie, die E enth¨ alt. 2 F¨ ur ein Mengensystem E ⊆ 2Ω bezeichnen wir die kleinste Topologie auf Ω, die E enth¨ alt, mit τ (E) Diese Topologie wird als die von E erzeugte Topologie bezeichnet und das Mengensystem E wird als Erzeuger der Topologie τ (E) bezeichnet. 1.1.5 Beispiel (Topologie eines normierten Raumes). Sei (E, . ) ein normierter Raum. Sei ferner ˛ n o ˛ E . := B . (x, ε) ˛ x ∈ E, ε ∈ (0, ∞) Dann gilt T . = τ (E . ) In der Tat: Nach Beispiel 1.1.2 gilt
1.1 Topologien
11 E . ⊆ T .
und aus der Definition von τ (E . ) folgt nun τ (E . ) ⊆ T . Sei nun T eine beliebige Topologie auf E mit E . ⊆ T . Sei Q ∈ T . . F¨ ur alle x ∈ Q gibt es ein εx ∈ (0, ∞) mit B . (x, εx ) ⊆ Q. Daraus folgt [ [ Q= {x} ⊆ B . (x, εx ) ⊆ Q x∈Q
x∈Q
S
und damit Q = x∈Q B . (x, εx ). Wegen B . (x, εx ) ∈ E . ⊆ T gilt daher Q ∈ T . Daraus folgt zun¨ achst T . ⊆ T und aus der Definition von τ (E . ) folgt nun T . ⊆ τ (E . ) Daher gilt τ (E . ) = T . .
Auf einem Vektorraum k¨ onnen mehrere Normen definiert werden; insbesondere ist jedes positive Vielfache einer Norm wieder eine Norm. Interessanter ist das folgende Beispiel: 1.1.6 Beispiel (Normen auf Rn ). F¨ ur jedes p ∈ [1, ∞] ist die Abbildung . p : Rn → R+ mit 8 !1/p X > > p > |xk | falls p ∈ [1, ∞) < xp := k∈{1,...,n} > > > : max |xk | falls p = ∞ k∈{1,...,n}
eine Norm auf R . n
Damit stellt sich die Frage, unter welchen Umst¨anden die von verschiedenen Normen erzeugten Topologien u ¨bereinstimmen. 1.1.7 Beispiel (Topologien ¨ aquivalenter Normen). Sei E ein Vektorraum und seien . : E → R+ und . : E → R+ Normen. Die Normen . und aquivalent, wenn es reelle Zahlen c , c ∈ (0, ∞) gibt derart, dass f¨ ur . heißen ¨ alle x ∈ E x ≤ c · x x ≤ c · x gilt. Sind . : E → R+ und . : E → R+ ¨ aquivalente Normen, so gilt T . = T .
12
Kapitel 1. Mengensysteme
In der Tat: Zum Nachweis der behaupteten Identit¨ at gen¨ ugt es, eine der Inklusionen T . ⊆ T . und T . ⊆ T . zu zeigen. ur alle x ∈ Q gibt es ein εx ∈ (0, ∞) mit B . (x, εx ) ⊆ Q. Daher Sei Q ∈ T . . F¨ gilt [ [ [ {x} ⊆ B . (x, εx /c ) ⊆ B . (x, εx ) ⊆ Q Q= x∈Q
und damit Q =
S x∈Q
x∈Q
x∈Q
B . (x, c εx ) ∈ T . .
Ist E ein endlichdimensionaler Vektorraum, so sind alle Normen auf E aquivalent. In diesem Fall stimmen nach Beispiel 1.1.7 alle von einer Norm ¨ erzeugten Topologien auf E u ¨ berein und die von einer beliebigen Norm auf E erzeugte Topologie T (E) wird als nat¨ urliche Topologie auf E bezeichnet. Ist T eine Topologie und E ⊆ T ein Mengensystem mit der Eigenschaft, dass jede Menge in T als Vereinigung von Mengen in E dargestellt werden kann, so heißt E Basis der Topologie T ; in diesem Fall gilt insbesondere T = τ (E). Das folgende Beispiel zeigt, dass die nat¨ urliche Topologie auf Rn eine abz¨ahlbare Basis besitzt: 1.1.8 Beispiel (Nat¨ urliche Topologie auf Rn ). Sei . : Rn → R eine beliebige Norm und sei ˛ n o ˛ E . ,Q := B . (x, ε) ˛ x ∈ Qn , ε ∈ Q ∩ (0, ∞) ahlbar und eine Basis der nat¨ urlichen Topologie T (Rn ). Dann ist E . ,Q abz¨ ahlbar und nach Beispiel 1.1.2 gilt In der Tat: Offenbar ist E . ,Q abz¨ E . ,Q ⊆ T . Sei nun Q ∈ T . . F¨ ur x ∈ Rn gibt es ein εx ∈ (0, ∞) mit B . (x, εx ) ⊆ Q, und damit gibt es auch ein ηx ∈ Q ∩ (0, ∞) mit B . (x, ηx ) ⊆ Q Außerdem gibt es ein zx ∈ Q mit zx −x < ηx /2 und damit n
x ∈ B . (zx , ηx /2) F¨ ur alle y ∈ B . (zx , ηx /2) gilt y−x ≤ y−zx + zx −x ≤ ηx /2 + ηx /2 = ηx und damit y ∈ B . (x, ηx ). Daraus folgt B . (zx , ηx /2) ⊆ B . (x, ηx ) Daher gilt
1.1 Topologien Q=
13 [
{x} ⊆
x∈Q
[
B . (zx , ηx /2) ⊆
x∈Q
und damit Q=
[
B . (x, ηx ) ⊆ Q
x∈Q
[
B . (zx , ηx /2)
x∈Q
Daher ist E . ,Q eine Basis von T . .
Ausgehend von der nat¨ urlichen Topologie auf R l¨asst sich eine Topologie auf ¯ := R ∪ {−∞, ∞} definieren: der Menge R ¯ 1.1.9 Beispiel (Nat¨ urliche Topologie auf R). Das Mengensystem ˛ n o ¯ ¯ := Q ∈ 2R ˛˛ Q \ {−∞, ∞} ∈ T (R) T (R) ¯ und wird als nat¨ ¯ bezeichnet. Die ist eine Topologie auf R urliche Topologie auf R ¯ besteht offenbar genau aus den Mengen der Form Q, nat¨ urliche Topologie auf R Q ∪ {−∞}, Q ∪ {∞}, Q ∪ {−∞, ∞} mit Q ∈ T (R).
Aufgaben 1.1.A
Sei T eine Topologie auf Ω. Zu jeder Menge A ∈ 2Ω gibt es eine gr¨ oßte offene Menge A◦ mit A◦ ⊆ A und eine kleinste abgeschlossene Menge A• mit A ⊆ A• . Die Menge A◦ heißt das Innere von A, die Menge A• heißt der Abschluss von A, und die Menge ∂A := A• \ A◦ heißt der Rand von A. Der Rand von A ist abgeschlossen.
1.1.B
Sei T eine Topologie auf Ω. Ist K ∈ 2Ω kompakt und A ∈ 2Ω abgeschlossen, so ist K ∩ A kompakt.
1.1.C
Mindestens eine der Topologien 2R und {∅, R} kann nicht durch eine Norm auf R erzeugt werden. Welche?
1.1.D
Topologie eines metrischen Raumes: Sei (E, d) ein metrischer Raum. F¨ ur x ∈ E und ε ∈ (0, ∞) sei ˛ o n ˛ Bd (x, ε) := y ∈ E ˛ d(y, x) < ε Die Menge Bd (x, ε) heißt offene Kugel um x mit Radius ε bez¨ uglich der Metrik d. Sei ˛ n o ˛ ur alle x ∈ Q gibt es ein ε ∈ (0, ∞) mit Bd (x, ε) ⊆ Q Td := Q ∈ 2E ˛ f¨ Dann ist Td eine Topologie auf E. Die Topologie Td wird als die von der Metrik d erzeugte Topologie bezeichnet. Sei ferner ˛ n o ˛ Ed := Bd (x, ε) ˛ x ∈ E, ε ∈ (0, ∞) Dann gilt Td = τ (Ed ).
1.1.E
Hausdorff–R¨ aume: Ein topologischer Raum (E, T ) heißt Hausdorff– Raum, wenn es f¨ ur alle x, y ∈ E offene Mengen U, V ∈ T gibt mit x ∈ U und y ∈ V sowie U ∩ V = ∅. (1) F¨ ur jeden metrischen Raum (E, d) ist (E, Td ) ein Hausdorff–Raum. (2) In einem Hausdorff–Raum ist jede kompakte Menge abgeschlossen.
14
Kapitel 1. Mengensysteme
1.2 σ–Algebren Ein Mengensystem F ⊆ 2Ω heißt σ–Algebra auf Ω, wenn es die folgenden Eigenschaften besitzt: (i) Es gilt Ω ∈ F. (ii) F¨ ur jede Menge A ∈ F gilt A ∈ F. (iii) F¨ ur jede Folge {An }n∈N ⊆ F gilt n∈N An ∈ F. uglich F , Ist F ⊆ 2Ω eine σ–Algebra, so heißt eine Menge A ∈ 2Ω messbar bez¨ wenn A ∈ F gilt. 1.2.1 Beispiele. (1) Die Potenzmenge 2Ω ist eine σ–Algebra auf Ω. (2) Das Mengensystem ˛ o n ˛ ahlbar F := A ∈ 2Ω ˛ A oder A ist abz¨ ist eine σ–Algebra auf Ω. / {∅, Ω} ist das Mengensystem (3) F¨ ur jede Menge A ∈ 2Ω mit A ∈ F := {∅, A, A, Ω} eine σ–Algebra auf Ω. (4) Das Mengensystem {∅, Ω} ist eine σ–Algebra auf Ω.
1.2.2 Lemma. Sei F eine σ–Algebra auf Ω. Dann gilt : (1) ∅ ∈ F. ∈ F. (2) F¨ ur jede Folge {An }n∈N ⊆ F gilt n∈N An (3) F¨ ur jede endliche Familie {Ai }i∈I ⊆ F gilt i∈I Ai ∈ F und i∈I Ai ∈ F. Beweis. Es gilt ∅ = Ω ∈ F und i∈I Ai = i∈I Ai ∈ F. Damit sind (1) und (2) gezeigt. Schließlich folgt (3) aus (1) und (2), da man aus jeder endlichen Familie von Mengen in F mit Hilfe der Mengen ∅ bzw. Ω eine Folge in F bilden kann. 2 Den n¨ achsten Satz und die anschließende Folgerung beweist man genau wie im Fall von Topologien: 1.2.3 Satz. Sei H eine nichtleere Indexmenge und sei {Fh }h∈H eine Familie von σ–Algebren auf Ω. Dann ist das Mengensystem Fh F := h∈H
eine σ–Algebra auf Ω. 1.2.4 Folgerung. Zu jedem Mengensystem E ⊆ 2Ω gibt es eine kleinste σ–Algebra auf Ω, die E enth¨alt.
1.2 σ–Algebren
15
F¨ ur ein Mengensystem E ⊆ 2Ω bezeichnen wir die kleinste σ–Algebra auf Ω, die E enth¨ alt, mit σ(E) Diese σ–Algebra wird als die von E erzeugte σ–Algebra bezeichnet und das Mengensystem E wird als Erzeuger der σ–Algebra σ(E) bezeichnet. F¨ ur eine Menge A ∈ 2Ω schreiben wir auch σ(A) anstelle von σ({A}) und bezeichnen σ(A) als die von A erzeugte σ–Algebra. Von Interesse sind unter anderem σ–Algebren auf Ω, die von einer Topologie auf Ω erzeugt werden. Ist T eine Topologie auf Ω, so wird die σ–Algebra B(Ω, T ) := σ(T ) als Borelsche σ–Algebra bez¨ uglich T bezeichnet. Jede Menge B ∈ B(Ω, T ) heißt Borel–Menge von Ω bez¨ uglich T . 1.2.5 Beispiel (Borelsche σ–Algebra auf Rn ). Die σ–Algebra B(Rn ) := σ(T (Rn )) wird als Borelsche σ–Algebra (bez¨ uglich der nat¨ urlichen Topologie) auf Rn bezeichnet; vgl. Aufgabe 1.2.A.
¯ Von Interesse ist auch die Borelsche σ–Algebra auf R: ¯ 1.2.6 Beispiel (Borelsche σ–Algebra auf R). Die σ–Algebra ¯ := σ(T (R)) ¯ B(R) ¯ bezeichnet. Es gilt wird als Borelsche σ–Algebra auf R ˛ n o ¯ = B ∈ 2R¯ ˛˛ B \ {−∞, ∞} ∈ B(R) B(R) ¯ besteht offenbar genau aus den Mengen der Form B, Die Borelsche σ–Algebra B(R) B ∪ {−∞}, B ∪ {∞}, B ∪ {−∞, ∞} mit B ∈ B(R).
Aufgaben 1.2.A
Borelsche σ–Algebra auf Rn : F¨ ur jede Norm . : Rn → R+ gilt B(Rn ) = σ(E . ,Q ) Insbesondere besitzt die Borelsche σ–Algebra auf dem Euklidischen Raum einen abz¨ ahlbaren Erzeuger.
1.2.B
Erzeugte σ–Algebra: Bestimmen Sie f¨ ur A ∈ 2Ω die σ–Algebra σ(A).
16
Kapitel 1. Mengensysteme
1.3 Dynkin–Systeme Ein Mengensystem D ⊆ 2Ω heißt Dynkin–System auf Ω, wenn es die folgenden Eigenschaften besitzt: (i) Es gilt Ω ∈ D. (ii) F¨ ur jede Menge A ∈ D gilt A ∈ D.
(iii) F¨ ur jede disjunkte Folge {An }n∈N ⊆ D gilt n∈N An ∈ D. 1.3.1 Lemma. Jede σ–Algebra ist ein Dynkin–System. Die Umkehrung der Implikation von Lemma 1.3.1 ist jedoch falsch; vgl. Beispiel 1.3.6. 1.3.2 Lemma. Sei D ein Dynkin–System. Dann gilt f¨ ur alle A, B ∈ D mit B⊆A A\B ∈D Beweis. Wegen B ⊆ A gilt A ∩ B = ∅ und damit A \ B = A ∩ B = A ∪ B = A + B ∈ D. 2 Den n¨ achsten Satz und die anschließende Folgerung beweist man genau wie im Fall von Topologien: 1.3.3 Satz. Sei H eine nichtleere Indexmenge und sei {Dh }h∈H eine Familie von Dynkin–Systemen auf Ω. Dann ist das Mengensystem D := Dh h∈H
ein Dynkin–System auf Ω. 1.3.4 Folgerung. Zu jedem Mengensystem E ⊆ 2Ω gibt es ein kleinstes Dynkin–System auf Ω, das E enth¨alt. F¨ ur ein Mengensystem E ⊆ 2Ω bezeichnen wir das kleinste Dynkin–System auf Ω, das E enth¨ alt, mit δ(E) Dieses Dynkin–System wird als das von E erzeugte Dynkin–System bezeichnet und das Mengensystem E wird als Erzeuger des Dynkin–Systems δ(E) bezeichnet. 1.3.5 Folgerung. Sei E ⊆ 2Ω ein Mengensystem. Dann gilt δ(E) ⊆ σ(E)
1.4 ∩–stabile Mengensysteme
17
Beweis. Die Behauptung folgt aus Lemma 1.3.1.
2
Das folgende Beispiel zeigt, dass das von einem Mengensystem erzeugte Dynkin–System keine σ–Algebra zu sein braucht: 1.3.6 Beispiel. Sei Ω := {1, 2, 3, 4} und sei A := {1, 2} und B := {1, 3}. F¨ ur das Mengensystem E := {A, B} gilt dann δ(E ) = σ(E ) = 2Ω .
Unter einer zus¨ atzlichen Bedingung an das Mengensystem E, die wir im n¨ achsten Abschnitt behandeln, gilt jedoch δ(E) = σ(E).
1.4 ∩–stabile Mengensysteme Ein nichtleeres Mengensystem C ⊆ 2Ω heißt ∩–stabil , wenn f¨ ur alle A, B ∈ C A∩B ∈ C gilt. Offenbar ist jede Topologie und jede σ–Algebra ∩–stabil. Andererseits muss ein Dynkin–System nicht ∩–stabil sein; vgl. Beispiel 1.3.6. Der folgende Satz kl¨ art die Beziehung zwischen σ–Algebren und Dynkin–Systemen: 1.4.1 Satz. F¨ ur ein Mengensystem F ⊆ 2Ω sind folgende Aussagen ¨aquivalent : (a) F ist eine σ–Algebra. (b) F ist ein ∩–stabiles Dynkin–System. Beweis. Wegen Lemma 1.2.2 und Lemma 1.3.1 ist jede σ–Algebra ein ∩– stabiles Dynkin–System. Sei nun F ein ∩–stabiles Dynkin–System. (i) Es gilt Ω ∈ F. (ii) F¨ ur jede Menge A ∈ F gilt A ∈ F. (iii) Sei {An }n∈N ⊆ F und sei A :=
∞
An
n=1
Die Folge {An }n∈N ⊆ F ist nicht notwendigerweise disjunkt. Um zu zeigen, dass dennoch A ∈ F gilt, konstruieren wir eine disjunkte Folge {Bn }n∈N ⊆ F mit A=
∞ n=1
F¨ ur alle n ∈ N0 sei
Bn
18
Kapitel 1. Mengensysteme
Cn :=
n
Ak
k=1
(und damit C0 = ∅). Dann ist die Folge {Cn }n∈N0 monoton wachsend. F¨ ur alle n ∈ N sei Bn := Cn \ Cn−1 Dann ist die Folge {Bn }n∈N disjunkt und es gilt A= = = = =
∞
Ak
k=1 ∞
n
Ak
n=1 k=1 ∞
Cn
n=1 ∞ n=1 ∞
Cn \ Cn−1 Bn
n=1
F¨ ur alle n ∈ N gilt Bn = Cn \ Cn−1 n n−1 = Ak \ Ak k=1 n−1
= An \
k=1
Ak
k=1
= An ∩ = An ∩
n−1 k=1 n−1
Ak
Ak
k=1
und damit Bn ∈ da F ein ∩–stabiles Dynkin–System ist. Daher gilt
F, ∞ aber auch A = n=1 Bn ∈ F. Damit ist gezeigt, dass F eine σ–Algebra ist. 2 Der folgende Satz zeigt, dass f¨ ur einen ∩–stabilen Erzeuger die erzeugte σ– Algebra mit dem erzeugten Dynkin–System u ¨ bereinstimmt:
1.4 ∩–stabile Mengensysteme
19
1.4.2 Satz. Sei E ⊆ 2Ω ein ∩–stabiles Mengensystem. Dann gilt δ(E) = σ(E) Beweis. Nach Folgerung 1.3.5 gilt δ(E) ⊆ σ(E) Zum Beweis der Inklusion σ(E) ⊆ δ(E) gen¨ ugt es zu zeigen, dass das Dynkin–System δ(E) ∩–stabil ist, denn dann ist δ(E) nach Satz 1.4.1 eine σ–Algebra, die E und damit auch σ(E) enth¨alt. F¨ ur B ∈ δ(E) sei DB := C ∈ 2Ω C ∩ B ∈ δ(E) Dann ist DB ein Dynkin–System: (i) Es gilt Ω ∩ B = B ∈ δ(E). Daher gilt Ω ∈ DB . (ii) Sei C ∈ DB . Dann gilt C ∩ B ∈ δ(E) und C ∩ B ⊆ B ∈ δ(E). Aus Lemma 1.3.2 folgt C ∩ B = B \ (C ∩ B) ∈ δ(E). Daher gilt C ∈ DB . Dann ist auch (iii) Sei {Cn }n∈N ⊆ DB disjunkt.
die Folge {Cn ∩B}n∈N ⊆ δ(E) disjunkt und es gilt ( C ) ∩ B = n n∈N n∈N (Cn ∩ B) ∈ δ(E). Daher gilt
C ∈ D . n B n∈N Sei E ∈ E. F¨ ur alle F ∈ E gilt, da E ∩–stabil ist, F ∩ E ∈ E ⊆ δ(E) und damit achst E ⊆ DE und sodann F ∈ DE . Daraus folgt zun¨ δ(E) ⊆ DE Sei D ∈ δ(E). F¨ ur alle E ∈ E ergibt sich aus der letzten Inklusion D ∈ DE und damit E ∈ DD . Daraus folgt zun¨ achst E ⊆ DD und sodann δ(E) ⊆ DD F¨ ur alle C, D ∈ δ(E) ergibt sich aus der letzten Inklusion C ∈ DD und damit C ∩ D ∈ δ(E). Daher ist das Dynkin–System δ(E) ∩–stabil. 2 Aufgaben 1.4.A
Der Durchschnitt einer nichtleeren Familie von ∩–stabilen Mengensystemen auf Ω ist ein ∩–stabiles Mengensystem.
1.4.B
ur alle A, B ∈ C Ein nichtleeres Mengensystem C ⊆ 2Ω heißt ∪–stabil , wenn f¨ A∪B ∈ C gilt. Jede Topologie und jede σ–Algebra ist ein ∪–stabiles Mengensystem.
1.4.C
Ein nichtleeres Mengensystem C ⊆ 2Ω heißt Verband , wenn es ∪–stabil und ∩–stabil ist. Jede Topologie und jede σ–Algebra ist ein Verband.
20
Kapitel 1. Mengensysteme
1.5 Halbringe und Ringe Ein Mengensystem H ⊆ 2Ω heißt Halbring auf Ω, wenn es die folgenden Eigenschaften besitzt: (i) Es gilt ∅ ∈ H. (ii) F¨ ur alle A, B ∈ H gilt A ∩ B ∈ H. (iii) F¨ ur alle A, B
∈ H gibt es eine endliche disjunkte Familie {Cj }j∈J ⊆ H mit A \ B = j∈J Cj . Der Begriff des Halbringes ist durch das folgende Beispiel motiviert: 1.5.1 Beispiel (Halbring der halboffenen Intervalle auf Rn ). F¨ ur a, c ∈ Rn schreiben wir a≤c wenn alle Koordinaten von a und c die Ungleichung ai ≤ ci erf¨ ullen, und wir schreiben a
bezeichnen (a, c) als offenes Intervall , (a, c] als halboffenes Intervall und [a, c] als abgeschlossenes Intervall . Mengensystem ˛ n o ˛ J (Rn ) := (a, c] ˛ a, c ∈ Rn mit a ≤ c
ist ein Halbring und wird als Halbring der halboffenen Intervalle auf Rn bezeichnet.
Das folgende Beispiel zeigt, dass die Borelsche σ–Algebra auf Rn auch durch den Halbring der halboffenen Intervalle des Rn erzeugt wird: 1.5.2 Beispiel (Borelsche σ–Algebra auf Rn ). Es gilt B(Rn ) = σ(J (Rn )) Außerdem enth¨ alt die Borelsche σ–Algebra auf dem Euklidischen Raum alle offenen und alle abgeschlossenen Intervalle und jede abz¨ ahlbare Teilmenge des Rn . In der Tat: Sei x ∈ Rn und ε ∈ (0, ∞). Dann gibt es a, c ∈ Rn mit – [„ 1 B . ∞ (x, ε) = (a, c) = a, c − 1 n n∈N
1.5 Halbringe und Ringe
21
und daraus folgt B . ∞ (x, ε) ∈ σ(J (Rn )). Daher gilt E . ∞ ⊆ σ(J (Rn )) und insbesondere E . ∞ ,Q ⊆ σ(J (Rn )) Nach Beispiel 1.1.8 ist das Mengensystem E . ∞ ,Q eine abz¨ ahlbare Basis der Topologie T . ∞ . Daraus ergibt sich nun T . ∞ ⊆ σ(J (Rn )) und damit σ(T . ∞ ) ⊆ σ(J (Rn )) Sei nun J ∈ J (Rn ). Dann gibt es a, c ∈ Rn mit a ≤ c und « \„ 1 J = (a, c] = a, c + 1 n n∈N
Da jedes offene Intervall in R eine Menge in E . ∞ ist, folgt daraus J ∈ σ(T . ∞ ). Daher gilt J (Rn ) ⊆ σ(T . ∞ ) und damit n
σ(J (Rn )) ⊆ σ(T . ∞ ) Daher gilt σ(J (Rn )) = σ(T . ∞ ). Zum Beweis der abschließenden Behauptung gen¨ ugt es zu zeigen, dass die Borelsche alt. Sei also x ∈ Rn . σ–Algebra B(Rn ) jede einelementige Teilmenge des Rn enth¨ n Dann gilt f¨ ur alle a ∈ R mit a ≤ x {x} = (a, x] \
– n [„ [ 1 a, x − ei k i=1 k∈N
und damit {x} ∈ B(Rn ).
¯ Wir betrachten nun Intervalle auf R: ¯ ¯ 1.5.3 Beispiel (Halbring der halboffenen Intervalle auf R). F¨ ur a, c ∈ R setzen wir ˛ n o ¯ ˛˛ a < b < c (a, c) := b ∈ R ˛ n o ¯ ˛˛ a < b ≤ c (a, c] := b ∈ R ˛ n o ¯ ˛˛ a ≤ b ≤ c [a, c] := b ∈ R und – – – Das
bezeichnen (a, c) als offenes Intervall , (a, c] als halboffenes Intervall und [a, c] als abgeschlossenes Intervall . Mengensystem ˛ n o ¯ := (a, c] ˛˛ a, c ∈ R ¯ mit a ≤ c J (R)
¯ bezeichnet. ist ein Halbring und wird als Halbring der halboffenen Intervalle auf R
22
Kapitel 1. Mengensysteme
¯ Es gilt 1.5.4 Beispiel (Borelsche σ–Algebra auf R). ¯ = σ(J (R)) ¯ B(R) ¯ In der Tat: Sei (a, c] ∈ J (R). ¯ – Im Fall −∞ < a < c < ∞ gilt (a, c] ∈ J (R) ⊆ B(R) ⊆ B(R). ¯ – Im Fall −∞ < a < c = ∞ gilt (a, c] = (a, ∞] = (a, ∞) ∪ {∞} ∈ B(R). ¯ ¯ – Im Fall −∞ = a < c ≤ ∞ gilt (a, c] = [−∞, c] = R \ (c, ∞] ∈ B(R). ¯ – Im Fall a < c gilt (a, c] = ∅ ∈ B(R). ¯ ⊆ B(R) ¯ und sodann achst J (R) Daraus folgt zun¨ ¯ ⊆ B(R) ¯ σ(J (R)) ¯ Sei nun Q ∈ B(R). ¯ – Im Fall Q ∈ B(R) gilt Q ∈ σ(J (R)) ⊆ σ(J (R)). ¯ – Im Fall Q = {∞} gilt Q = (−∞, ∞] \ R ∈ σ(J (R)). ¯ ¯ – Im Fall Q = {−∞} gilt Q = R \ (−∞, ∞] ∈ σ(J (R)). ¯ und sodann Daraus folgt zun¨ achst B(R) ∪ {∞} ∪ {−∞} ⊆ σ(J (R)) ¯ ⊆ σ(J (R)) ¯ B(R) Damit ist die Behauptung gezeigt.
Wir betrachten abschließend eine weitere Klasse von Mengensystemen, die mit Halbringen verwandt sind: Ein Mengensystem R ⊆ 2Ω heißt Ring auf Ω, wenn es die folgenden Eigenschaften besitzt: (i) Es gilt ∅ ∈ R. (ii) F¨ ur alle A, B ∈ R gilt A \ B ∈ R. (iii) F¨ ur alle A, B ∈ R gilt A ∪ B ∈ R. 1.5.5 Lemma. Jeder Ring ist ein Halbring. Beweis. Wegen A ∩ B = (A ∪ B) \ ((A\B) ∪ (B\A)) ist jeder Ring ∩–stabil. Daraus folgt die Behauptung. 2 Das folgende Beispiel zeigt, dass die Umkehrung der Implikation von Lemma 1.5.5 im allgemeinen falsch ist: 1.5.6 Beispiel. Sei Ω := {1, 2, 3} und H := {∅, {1}, {2}, {3}, Ω}. Dann ist H ein Halbring, aber kein Ring.
Der Durchschnitt einer nichtleeren Familie von Ringen auf Ω ist ein Ring; vgl. Aufgabe 1.5.F. Daher gibt es zu jedem Mengensystem E ⊆ 2Ω einen kleinsten Ring (E) auf Ω, der E enth¨ alt. Dieser Ring wird als der von E erzeugte Ring bezeichnet und das Mengensystem E wird als Erzeuger des Ringes (E) bezeichnet. Der folgende Satz gibt eine explizite Darstellung des von einem Halbring erzeugten Ringes:
1.5 Halbringe und Ringe
23
1.5.7 Satz (Der von einem Halbring erzeugte Ring). Sei H ⊆ 2Ω ein Halbring und sei
R := A ∈ 2Ω A = Hi mit {Hi }i∈I ⊆ H endlich und disjunkt i∈I
Dann gilt R = (H). Beweis. Es gilt H ⊆ R ⊆ (H). Daher gen¨ ugt es zu zeigen, dass R ein Ring ist. (i) Wegen ∅ ∈ H und H ⊆ R gilt ∅ ∈ R. (ii) Sei A, B ∈ R. Dann gibt es endliche disjunkte
Familien {Gi }i∈I ⊆ H und {Hj }j∈J ⊆ H mit A = i∈I Gi und B = j∈J Hj , und es gilt A\B = Gi \ Hj i∈I
=
Gi ∩
i∈I
=
j∈J
Hj
j∈J
Gi ∩ Hj
i∈I j∈J
=
Gi \ Hj
i∈I j∈J
Da H ein Halbring ist, gilt Gi \ Hj ∈ R. Da H ∩–stabil ist, ist auch R ∩–stabil und es gilt j∈J
Gi \ Hj ∈ R. Da die Familie {Gi }i∈I disjunkt ist, gilt sogar A \ B = i∈I j∈J Gi \ Hj ∈ R. (iii) Sei A, B ∈ R. Da R ∩–stabil ist, gilt A ∩ B ∈ R, und aus (ii) folgt A \ B ∈ R und B \ A ∈ R. Wegen A ∪ B = (A \ B) + (A ∩ B) + (B \ A) gilt dann auch A ∪ B ∈ R. Daher ist R ein Ring. 2 Aufgaben 1.5.A
Sei H ⊆ 2Ω ein Halbring und sei {Ai }i∈I ⊆ H eine endliche Familie. Dann gibt es eine endliche S disjunkte Familie {Cj }j∈J ⊆ H und eine Familie {Ji }i∈I ⊆ 2J mit i∈I Ji = J derart, dass [ X Ai = Cj i∈I
und f¨ ur alle i ∈ I Ai =
j∈J
X
Cj
j∈Ji
gilt. 1.5.B
Ist der Durchschnitt einer nichtleeren Familie von Halbringen auf Ω ein Halbring?
24
Kapitel 1. Mengensysteme
1.5.C
Jedes offene Intervall des Rn ist eine offene Menge bez¨ uglich der nat¨ urlichen Topologie, und jedes abgeschlossene Intervall des Rn ist eine abgeschlossene Menge bez¨ uglich der nat¨ urlichen Topologie.
1.5.D
Borelsche σ–Algebra auf Rn : Sei ˛ o n ˛ J (Qn ) := (a, c] ˛ a, c ∈ Qn Dann gilt B(Rn ) = σ(J (Qn )).
1.5.E
Jeder Ring ist ein Verband.
1.5.F
Der Durchschnitt einer nichtleeren Familie von Ringen auf Ω ist ein Ring.
1.5.G
aquivalent: F¨ ur ein Mengensystem R ⊆ 2Ω sind folgende Aussagen ¨ (a) R ist ein Ring. (b) R ist ein ∪–stabiler Halbring.
1.5.H
Ideale: Sei R ⊆ 2Ω ein Ring. Ein Mengensystem I ⊆ R heißt Ideal in R, wenn es die folgenden Eigenschaften besitzt: (i) Es gilt ∅ ∈ I. (ii) F¨ ur alle A ∈ I und alle B ∈ R mit B ⊆ A gilt B ∈ I. (iii) F¨ ur alle A, B ∈ I gilt A ∪ B ∈ I. Jedes Ideal in einem Ring ist ein Ring.
1.5.I
Algebren: Ein Mengensystem R ⊆ 2Ω heißt Algebra auf Ω, wenn es die folgenden Eigenschaften besitzt: (i) Es gilt Ω ∈ R. (ii) F¨ ur alle A, B ∈ R gilt A ∈ R. (iii) F¨ ur alle A, B ∈ R gilt A ∪ B ∈ R. Jede σ–Algebra ist eine Algebra, und jede Algebra ist ein Ring.
1.5.J
σ–Ringe: Ein Mengensystem R ⊆ 2Ω heißt σ–Ring auf Ω, wenn es die folgenden Eigenschaften besitzt: (i) Es gilt ∅ ∈ R. (ii) F¨ ur alle A, B ∈ R gilt A \ B ∈ R.S (iii) F¨ ur jede Folge {An }n∈N ⊆ R gilt n∈N An ∈ R. Jede σ–Algebra ist ein σ–Ring, und jeder σ–Ring ist ein Ring.
1.5.K
σ–Ideale: Sei R ⊆ 2Ω ein σ–Ring. Ein Mengensystem I ⊆ R heißt σ–Ideal in R, wenn es die folgenden Eigenschaften besitzt: (i) Es gilt ∅ ∈ I. (ii) F¨ ur alle A ∈ I und f¨ ur alle B ∈ RSmit B ⊆ A gilt B ∈ I. (iii) F¨ ur jede Folge {An }n∈N ⊆ I gilt n∈N An ∈ I. Jedes σ–Ideal in einem σ–Ring ist ein σ–Ring.
1.5.L
Borelsche σ–Algebra auf R: Sei ˛ n o ˛ E := (−∞, a] ˛ a ∈ R Dann gilt B(R) = σ(E ).
1.5.M
¯ Sei Borelsche σ–Algebra auf R: ˛ n o ˛ ¯ E¯ := (−∞, a] ˛ a ∈ R ¯ = σ(E). ¯ Dann gilt B(R)
2 Topologische R¨ aume und messbare R¨ aume
In diesem Kapitel betrachten wir Abbildungen zwischen Mengen, die beide mit einer Topologie oder beide mit einer σ–Algebra ausgestattet sind. In beiden F¨ allen sind die wichtigsten Abbildungen durch Eigenschaften ihres Urbildes definiert. Wir erinnern zun¨achst an die Eigenschaften des Urbildes einer Abbildung und definieren das Urbild eines Mengensystems (Abschnitt 2.1). Wir betrachten sodann topologische R¨ aume und stetige Abbildungen zwischen topologischen R¨ aumen (Abschnitt 2.2) sowie messbare R¨ aume und messbare Abbildungen zwischen messbaren R¨ aumen (Abschnitt 2.3). Die Beweise der allgemeinen Ergebnisse u ¨ ber topologische oder messbare R¨aume und u ¨ber stetige oder messbare Abbildungen verlaufen analog und werden daher nur f¨ ur topologische R¨ aume und stetige Abbildungen ausgef¨ uhrt. F¨ ur Abbildungen zwischen topologischen R¨ aumen ergibt sich ein interessanter Zusammenhang zwischen der Stetigkeit bez¨ uglich den gegebenen Topologien und der Messbarkeit bez¨ uglich den zugeh¨ origen Borelschen σ–Algebren.
2.1 Urbilder von Mengensystemen Im gesamten Abschnitt seien Ω und Ω nichtleere Mengen und sei f : Ω → Ω eine Abbildung. F¨ ur A ∈ 2Ω heißt die Menge f (A) := ω ∈ Ω ω = f (ω) f¨ ur ein ω ∈ A das Bild von A unter f .
26
Kapitel 2. Topologische R¨ aume und messbare R¨ aume
Die Abbildung f −1 : 2Ω → 2Ω mit f −1 (A ) := ω ∈ Ω f (ω) ∈ A
heißt Urbild von f und f¨ ur A ∈ 2Ω heißt die Menge f −1 (A ) das Urbild von A unter f . Das Urbild einer Abbildung kommutiert mit den grundlegenden Operationen der Mengenlehre: 2.1.1 Lemma. (1) Es gilt f −1 (Ω ) = Ω und f −1 (∅) = ∅. (2) F¨ ur alle A ∈ 2Ω gilt f −1 (A ) = f −1 (A )
(3) F¨ ur jede Familie {Ai }i∈I ⊆ 2Ω gilt f
−1
Ai
=
i∈I
und
f
−1
i∈I
f −1 (Ai )
i∈I
Ai
=
f −1 (Ai )
i∈I
Insbesondere sind die Urbilder disjunkter Mengen disjunkt.
F¨ ur ein Mengensystem E ⊆ 2Ω heißt das Mengensystem f −1 (E ) := A ∈ 2Ω A = f −1 (A ) mit A ∈ E das Urbild von E unter f . 2.1.2 Lemma. (1) Das Urbild (2) Das Urbild (3) Das Urbild (4) Das Urbild system.
einer Topologie ist eine Topologie. einer σ–Algebra ist eine σ–Algebra. eines Dynkin–Systems ist ein Dynkin–System. eines ∩–stabilen Mengensystems ist ein ∩–stabiles Mengen-
Aufgabe 2.1.A
F¨ ur welche der in Kapitel 1 eingef¨ uhrten Klassen von Mengensystemen besitzt das Urbild f −1 (E ) eines Mengensystems E ⊆ 2Ω dieselben Eigen schaften wie E ?
2.2 Topologische R¨ aume und stetige Abbildungen
27
2.2 Topologische R¨ aume und stetige Abbildungen Ist Ω eine nichtleere Menge und T eine Topologie auf Ω, so wird das Paar (Ω, T ) als topologischer Raum bezeichnet. aume, so heißt eine Abbildung f : Sind (Ω, T ) und (Ω , T ) topologische R¨ ur T oder kurz stetig, wenn Ω → Ω T –T –stetig oder T –stetig oder stetig f¨ f −1 (T ) ⊆ T gilt. Ist Ω eine nichtleere Menge und (Ω , T ) ein topologischer Raum, so ist jede Abbildung f : Ω → Ω stetig f¨ ur die Topologie 2Ω und aus Folgerung 1.1.4 ergibt sich nun, dass es eine kleinste Topologie τ (f ) auf Ω gibt, f¨ ur die f stetig ist; diese Topologie wird als die von f erzeugte Topologie bezeichnet. Nach Lemma 2.1.2 ist auch das Mengensystem f −1 (T ) eine Topologie auf Ω, f¨ ur die f offenbar stetig ist. Wir erhalten damit den folgenden Satz: 2.2.1 Satz. Sei Ω eine nichtleere Menge und sei (Ω , T ) ein topologischer Raum. Dann gilt f¨ ur jede Abbildung f : Ω → Ω τ (f ) = f −1 (T ) Sind also (Ω, T ) und (Ω , T ) topologische R¨ aume, so ist eine Abbildung f : Ω → Ω genau dann stetig, wenn die von f erzeugte Topologie τ (f ) in der Topologie T enthalten ist.
2.2.2 Lemma. Sei E ⊆ 2Ω ein Mengensystem und sei f : Ω → Ω eine Abbildung. Dann gilt τ (f −1 (E )) = f −1 (τ (E )) Beweis. Wegen E ⊆ τ (E ) gilt f −1 (E ) ⊆ f −1 (τ (E )) und aus Lemma 2.1.2 folgt, dass f −1 (τ (E )) eine Topologie ist. Daher gilt τ (f −1 (E )) ⊆ f −1 (τ (E )) Zum Nachweis der umgekehrten system T0 := A ∈ 2Ω
Implikation betrachten wir das Mengen −1 f (A ) ∈ τ (f −1 (E ))
28
Kapitel 2. Topologische R¨ aume und messbare R¨ aume
Dann gilt E ⊆ T0 und aus Lemma 2.1.1 folgt, dass T0 eine Topologie ist. Daher gilt τ (E ) ⊆ T0 und damit f −1 (τ (E )) ⊆ f −1 (T0 ) ⊆ τ (f −1 (E )) Damit ist das Lemma bewiesen.
2
Der folgende Satz erleichtert den Nachweis der Stetigkeit einer Abbildung zwischen topologischen R¨ aumen: 2.2.3 Satz (Stetige Abbildungen). Seien (Ω, T ) und (Ω , T ) topologische R¨aume und sei E ein Erzeuger von T und f : Ω → Ω eine Abbildung. Dann sind folgende Aussagen ¨aquivalent : (a) f ist stetig. (b) Es gilt f −1 (E ) ⊆ T . Beweis. Wir nehmen zun¨ achst an, dass f stetig ist. Dann gilt f −1 (T ) ⊆ T und wegen E ⊆ τ (E ) = T ergibt sich daraus f −1 (E ) ⊆ T . Daher folgt (b) aus (a). Wir nehmen nun an, dass f −1 (E ) ⊆ T gilt. Da T eine Topologie ist, gilt dann auch τ (f −1 (E )) ⊆ T , und mit Lemma 2.2.2 erhalten wir f −1 (T ) = f −1 (τ (E )) = τ (f −1 (E )) ⊆ T . Daher folgt (a) aus (b). 2 2.2.4 Lemma (Komposition). Seien (Ω, T ), (Ω , T ) und (Ω , T ) topologische R¨aume und seien f : Ω → Ω und g : Ω → Ω stetig. Dann ist auch die Komposition g ◦ f stetig. Beweis. Es gilt (g ◦ f )−1 (T ) = f −1 (g −1 (T )) ⊆ f −1 (T ) ⊆ T .
2
Wir betrachten nun stetige Abbildungen zwischen normierten R¨aumen: 2.2.5 Beispiel (Stetige Abbildungen zwischen normierten R¨ aumen). Seien aume. Eine Abbildung f : E → E heißt stetig (E, . ) und (E , . ) normierte R¨ in x ∈ E, wenn es f¨ ur alle ε ∈ (0, ∞) ein δ ∈ (0, ∞) gibt derart, dass f¨ ur alle y ∈ E ur eine Abbildung f : E → E sind mit y −x < δ auch f (y)−f (x) < ε gilt. F¨ folgende Aussagen ¨ aquivalent: (a) f ist stetig. (b) F¨ ur alle x ∈ E ist f stetig in x. In der Tat: Sei zun¨ achst f stetig und sei x ∈ E. F¨ ur alle ε ∈ (0, ∞) gilt B . (f (x), ε) ∈ T . . Aus der Stetigkeit von f folgt x ∈ f −1 (B . (f (x), ε)) ∈ T . . Daher gibt es ein ur alle y ∈ E mit y − x < δ gilt δ ∈ (0, ∞) mit B . (x, δ) ⊆ f −1 (B . (f (x), ε)). F¨ daher y ∈ B . (x, δ) ⊆ f −1 (B . (f (x), ε)) und damit f (y) ∈ B . (f (x), ε), also ur alle x ∈ E stetig in x. f (y)−f (x) < ε. Daher ist f f¨ ur alle x ∈ f −1 (Q ) gilt Sei nun f f¨ ur alle x ∈ E stetig in x und sei Q ∈ T . . F¨ f (x) ∈ Q . Daher gibt es ein ε ∈ (0, ∞) mit B . (f (x), ε) ⊆ Q . Da f stetig in x ist, gibt es ein δ ∈ (0, ∞) mit f (B . (x, δ)) ⊆ B . (f (x), ε) ⊆ Q und damit B . (x, δ) ⊆ f −1 (Q ). Daraus folgt f −1 (Q ) ∈ T . . Daher ist f stetig. Damit ist die Behauptung bewiesen.
2.3 Messbare R¨ aume und messbare Abbildungen
29
Aufgaben 2.2.A
Spurtopologie: Sei (Ω, T ) ein topologischer Raum. Dann ist f¨ ur jede nichtleere Menge C ∈ 2Ω das Mengensystem ˛ n o ˛ T (C) := D ∈ 2Ω ˛ D = A ∩ C f¨ ur eine Menge A ∈ T eine Topologie auf C. Die Topologie T (C) heißt Spurtopologie oder kurz Spur von T auf C.
2.2.B
aume und sei f : Restriktion: Seien (Ω, T ) und (Ω , T ) topologische R¨ ur jede nichtleere Menge C ∈ 2Ω die Abbildung Ω → Ω stetig. Dann ist f¨ f |C : C → Ω mit f |C (c) := f (c) T (C)–T –stetig. Die Abbildung f |C heißt Restriktion von f auf C.
2.2.C
aume und sei f : Ω → Ω stetig. Seien (Ω, T ) und (Ω , T ) topologische R¨ Ist K ∈ 2Ω kompakt, so ist auch f (K) kompakt.
2.2.D
Bildtopologie: Sei (Ω, T ) ein topologischer Raum, sei Ω eine nichtleere Menge und sei f : Ω → Ω eine Abbildung. Dann ist das Mengensystem ˛ n o ˛ Tf := A ∈ 2Ω ˛ f −1 (A ) ∈ T ur die f stetig ist. Die Topologie Tf ist die gr¨ oßte eine Topologie auf Ω , f¨ ur die f stetig ist. Die Topologie Tf heißt Bildtopologie Topologie auf Ω , f¨ von T unter f .
2.2.E
Stetige Abbildungen zwischen metrischen R¨ aumen: Seien (E, d) aume. Eine Abbildung f : E → E heißt stetig in und (E , d ) metrische R¨ x ∈ E , wenn es f¨ ur alle ε ∈ (0, ∞) ein δ ∈ (0, ∞) gibt derart, dass f¨ ur ur eine Abbildung alle y ∈ E mit d(y, x) < δ auch d (f (y), f (x)) < ε gilt. F¨ aquivalent: f : E → E sind folgende Aussagen ¨ (a) f ist stetig. (b) F¨ ur alle x ∈ E ist f stetig in x.
2.3 Messbare R¨ aume und messbare Abbildungen Ist Ω eine nichtleere Menge und F eine σ–Algebra auf Ω, so wird das Paar (Ω, F ) als messbarer Raum oder als Messraum bezeichnet. aume, so heißt eine Abbildung f : Ω → Ω Sind (Ω, F ) und (Ω , F ) messbare R¨ F –F –messbar oder F –messbar oder messbar f¨ ur F oder kurz messbar , wenn f −1 (F ) ⊆ F gilt.
30
Kapitel 2. Topologische R¨ aume und messbare R¨ aume
Ist Ω eine nichtleere Menge und (Ω , F ) ein messbarer Raum, so ist jede Abbildung f : Ω → Ω messbar f¨ ur die σ–Algebra 2Ω und aus Folgerung 1.2.4 ergibt sich nun, dass es eine kleinste σ–Algebra σ(f ) auf Ω gibt, f¨ ur die f messbar ist; diese σ–Algebra wird als die von f erzeugte σ–Algebra bezeichnet. Nach Lemma 2.1.2 ist auch das Mengensystem f −1 (F ) eine σ–Algebra auf Ω, f¨ ur die f offenbar messbar ist. Wir erhalten damit den folgenden Satz: 2.3.1 Satz. Sei Ω eine nichtleere Menge und sei (Ω , F ) ein messbarer Raum. Dann gilt f¨ ur jede Abbildung f : Ω → Ω σ(f ) = f −1 (F ) aume, so ist eine Abbildung f : Sind also (Ω, F ) und (Ω , F ) messbare R¨ Ω → Ω genau dann messbar, wenn die von f erzeugte σ–Algebra σ(f ) in der σ–Algebra F enthalten ist.
2.3.2 Lemma. Sei E ⊆ 2Ω ein Mengensystem und sei f : Ω → Ω eine Abbildung. Dann gilt σ(f −1 (E )) = f −1 (σ(E )) Der folgende Satz erleichtert den Nachweis der Messbarkeit einer Abbildung zwischen messbaren R¨ aumen: 2.3.3 Satz (Messbare Abbildungen). Seien (Ω, F ) und (Ω , F ) messbare R¨aume und sei E ein Erzeuger von F und f : Ω → Ω eine Abbildung. Dann sind folgende Aussagen ¨aquivalent : (a) f ist messbar. (b) Es gilt f −1 (E ) ⊆ F. 2.3.4 Lemma (Komposition). Seien (Ω, F ), (Ω , F ) und (Ω , F ) messbare R¨aume und seien f : Ω → Ω und g : Ω → Ω messbar. Dann ist auch die Komposition g ◦ f messbar. Wir zeigen nun, dass stetige Abbildungen zwischen topologischen R¨aumen bez¨ uglich den zugeh¨ origen Borelschen σ–Algebren messbar sind: 2.3.5 Satz (Stetigkeit und Messbarkeit). Sei T eine Topologie auf Ω und sei T eine Topologie auf Ω . Dann ist jede T –T –stetige Abbildung Ω → Ω B(Ω, T )–B(Ω , T )–messbar.
2.3 Messbare R¨ aume und messbare Abbildungen
31
Beweis. Sei f : Ω → Ω T –T –stetig. Dann gilt f −1 (T ) ⊆ T ⊆ σ(T ) und damit σ(f −1 (T )) ⊆ σ(T ) Aus Lemma 2.3.2 folgt nun f −1 (B(Ω , T )) = f −1 (σ(T )) = σ(f −1 (T )) ⊆ σ(T ) = B(Ω, T ) Daher ist f B(Ω, T )–B(Ω , T )–messbar.
2
2.3.6 Beispiel. Jede (bez¨ uglich der nat¨ urlichen Topologien auf Rm und Rn ) stetige m n uglich der Borelschen σ–Algebren auf Rm und Rn ) Abbildung f : R → R ist (bez¨ messbar.
Andererseits zeigen die folgenden Beispiele, dass eine messbare Abbildung zwischen topologischen R¨ aumen nicht notwendigerweise stetig ist: 2.3.7 Beispiele. (1) Dirichlet–Funktion: Die Dirichlet–Funktion f : R → R mit j 1 falls x ∈ Q f (x) := 0 sonst ist messbar, aber nicht stetig. In der Tat: Da Q abz¨ ahlbar ist, gilt Q ∈ B(R). Wegen f −1 ({1}) = Q und −1 ur alle B ∈ B(R) f ({0}) = R \ Q gilt f¨ 8 R falls 0 ∈ B und 1 ∈ B > > < R \ Q falls 0 ∈ B und 1 ∈ /B −1 f (B) = Q falls 0 ∈ / B und 1 ∈ B > > : ∅ falls 0 ∈ / B und 1 ∈ /B und damit f −1 (B) ∈ B(R). Daher ist f messbar. (2) Monotone Funktionen: Jede monotone Funktion f : R → R ist messbar. In der Tat: Wir nehmen zun¨ achst an, dass f monoton wachsend ist, und betrachten das Mengensystem ˛ n o ˛ E := (−∞, c] ˛ c ∈ R Dann gilt B(R) = σ(E ). Da f monoton wachsend ist, gilt f¨ ur alle B ∈ E entweder f −1 (B) ∈ {∅, Ω} oder es gibt ein a ∈ R mit f −1 (B) ∈ {(−∞, a), (−∞, a]}; in beiden F¨ allen gilt daher f −1 (B) ∈ B(R). Daher gilt f −1 (E ) ⊆ B(R), und aus Satz 2.3.3 folgt nun, dass f messbar ist. Wir nehmen nun an, dass f monoton fallend ist, und betrachten die Funktionen g, h : R → R mit g(x) := −f (x) und h(x) := −x. Dann ist g monoton wachsend und damit messbar, h ist stetig und damit messbar, und es gilt f = h ◦ g. Aus Lemma 2.3.4 folgt nun, dass f messbar ist.
32
Kapitel 2. Topologische R¨ aume und messbare R¨ aume
Aufgaben 2.3.A
Spur–σ–Algebra: Sei (Ω, F) ein messbarer Raum. Dann ist f¨ ur jede nichtleere Menge C ∈ 2Ω das Mengensystem ˛ n o ˛ F(C) := D ∈ 2Ω ˛ D = A ∩ C f¨ ur eine Menge A ∈ F eine σ–Algebra auf C. Die σ–Algebra F(C) heißt Spur–σ–Algebra oder kurz Spur von F auf C.
2.3.B
aume und sei f : Ω → Restriktion: Seien (Ω, F) und (Ω , F ) messbare R¨ ur jede nichtleere Menge C ∈ 2Ω die Abbildung Ω messbar. Dann ist f¨ f |C : C → Ω mit f |C (c) := f (c) F(C)–F –messbar. Die Abbildung f |C heißt Restriktion von f auf C.
2.3.C
Bild–σ–Algebra: Sei (Ω, F) ein messbarer Raum, sei Ω eine nichtleere Menge und sei f : Ω → Ω eine Abbildung. Dann ist das Mengensystem ˛ n o ˛ Ff := A ∈ 2Ω ˛ f −1 (A ) ∈ F ur die f messbar ist. Die σ–Algebra Ff ist die eine σ–Algebra auf Ω , f¨ ur die f messbar ist. Die σ–Algebra Ff heißt gr¨ oßte σ–Algebra auf Ω , f¨ Bild–σ–Algebra von F unter f .
3 Produktr¨ aume
In diesem Kapitel f¨ uhren wir ein allgemeines Prinzip zur Konstruktion von topologischen oder messbaren R¨ aumen auf dem Produkt der Grundmengen einer Familie von topologischen oder messbaren R¨aumen ein. Wir definieren zun¨ achst das Produkt einer Familie von Mengen und das Produkt einer Familie von Mengensystemen (Abschnitt 3.1). Die Forderung der Stetigkeit bzw. der Messbarkeit aller Projektionen des Produktes der Familie der Grundmengen auf seine Koordinaten f¨ uhrt dann in nat¨ urlicher Weise auf die Definition des Produktes einer Familie topologischer R¨aume (Abschnitt 3.2) und auf die Definition des Produktes einer Familie messbarer R¨aume (Abschnitt 3.3). Die Beweise der allgemeinen Ergebnisse u ¨ber Produkte topologischer oder messbarer R¨ aume verlaufen analog und werden daher nur f¨ ur Produkte topologischer R¨ aume ausgef¨ uhrt. Sei I eine nichtleere Indexmenge und sei H(I) die Familie der endlichen nichtleeren Teilmengen von I.
3.1 Produkte und Projektionen Sei {Ωi }i∈I eine Familie von nichtleeren Mengen. Die Menge aller Abbildungen ω : I → i∈I Ωi mit ω(i) ∈ Ωi f¨ ur alle i ∈ I heißt das Produkt der Familie {Ωi }i∈I und wird mit Ωi
i∈I
bezeichnet. F¨ ur ω ∈ i∈I Ωi und i ∈ I setzen wir ωi := ω(i) und nennen i–te Koordinate von ω. Außerdem identifizieren wir jede Abbildung ωi die ω ∈ i∈I Ωi mit der Familie {ωi }i∈I ihrer Koordinaten. Dann l¨asst sich das Produkt der Familie {Ωi }i∈I in der Form
34
Kapitel 3. Produktr¨ aume
Ωi = {ωi }i∈I
ur alle i ∈ I ωi ∈ Ωi f¨
i∈I
ur alle i ∈ I setzen wir ΩI := darstellen. Im Fall Ωi = Ω f¨ F¨ ur j ∈ I heißt die Abbildung πj :
i∈I
i∈I
Ω.
Ωi → Ωj mit
πj (ω) := ωj die Projektion auf die j–te Koordinate. F¨ ur j ∈ I und Aj ∈ 2Ω erh¨alt man f¨ ur das Urbild von Aj unter πj die Darstellung Bi πj−1 (Aj ) = i∈I
mit
Bi :=
Ai Ωi
falls i = j sonst
und damit eine Darstellung als Produkt von Mengen. ur alle i ∈ I. Sei nun {Ei }i∈I eine Familie von Mengensystemen mit Ei ⊆ 2Ωi f¨ Dann heißt das Mengensystem
Ei = Ai Ai ∈ Ei f¨ ur alle i ∈ I i∈I
i∈I
das Produkt der Familie {Ei }i∈I . Es gilt Q Ei ∈ 2 i∈I Ωi i∈I
Erf¨ ullen die Mengensysteme f¨ ur alle i ∈ I die Bedingung Ωi ∈ Ei , so gilt f¨ ur alle j ∈ I Ei πj−1 (Ej ) ∈ i∈I
Diese Bedingung ist f¨ ur jede Familie von Topologien oder σ–Algebren erf¨ ullt. Wir betrachten abschließend den Fall einer abz¨ahlbaren Indexmenge I. In diesem Fall existiert eine Menge N ⊆ N mit |I| = |N | sowie eine Bijektion I → N und die nat¨ urliche Ordnungsrelation auf N induziert eine vollst¨andige Ordnungsrelation auf I, sodass das Produkt der Familie {Ωi }i∈I durch ein kartesisches Produkt dargestellt werden kann, in dem die Koordinaten von andig geordnet sind; entsprechend kann auch das Produkt ω ∈ i∈I Ωi vollst¨ der Familie {Ei }i∈I durch ein kartesisches Produkt dargestellt werden.
3.1 Produkte und Projektionen
35
Q 3.1.1 Beispiel. Sei I = {◦, •}. Dann kann das Produkt i∈I Ωi der Familie {Ωi }i∈I durch die kartesischen Produkte ˛ o n ˛ Ω◦ × Ω• := (ω◦ , ω• ) ˛ ω◦ ∈ Ω◦ , ω• ∈ Ω• und Ω• × Ω◦ :=
n
˛ o ˛ (ω• , ω◦ ) ˛ ω• ∈ Ω• , ω◦ ∈ Ω◦
Q dargestellt werden, und das Produkt i∈I Ei der Familie {Ei }i∈I kann durch die entsprechenden kartesischen Produkte ˛ o n ˛ E◦ × E• := A◦ ×A• ˛ A◦ ∈ E◦ , A• ∈ E• bzw. E• × E◦ :=
˛ o n ˛ A• ×A◦ ˛ A• ∈ E• , A◦ ∈ E◦
dargestellt werden.
Das Beispiel zeigt, dass das Produkt einer abz¨ahlbaren Familie von Mengen oder Mengensystemen im allgemeinen auf mehrere Weisen durch ein kartesisches Produkt dargestellt werden kann. Dessen ungeachtet werden wir im Fall zweier Faktoren im allgemeinen Ω1 × Ω2 anstelle von i∈{1,2} Ωi und E1 × E2 anstelle von i∈{1,2} Ei schreiben. Sind K, L ⊆ I nichtleer und disjunkt mit K + L = I, so ist die Abbildung Ωi × Ωi → Ωi i∈K
mit
i∈L
i∈I
{ωi }i∈K , {ωi }i∈L → {ωi }i∈I
eine Bijektion, die es gestattet, diese Produkte miteinander zu identifizieren. Dadurch wird die Bildung von Produkten von Mengen oder Mengensystemen zu einer assoziativen Operation. Sind Ω und Ω nichtleere Mengen und ist f : Ω → Ω eine Abbildung, so heißt die Abbildung F : Ω → Ω × Ω mit F (ω) := (ω, f (ω)) Graph von f . Aufgabe 3.1.A
Halbringe: Das Produkt einer endlichen Familie von Halbringen ist ein Halbring.
36
Kapitel 3. Produktr¨ aume
3.2 Produkte von topologischen R¨ aumen Sei {(Ωi , Ti )}i∈I eine Familie topologischer R¨ aume. Dann gibt es eine kleinste Topologie Ti i∈I
auf i∈I Ωi , f¨ ur die alle Projektionen stetig sind. Diese Topologie wird als Produkttopologie der Familie {Ti }i∈I bezeichnet und der topologische Raum (Ωi , Ti ) := Ωi , Ti i∈I
i∈I
i∈I
wird als topologisches Produkt der Familie {(Ωi , Ti )}i∈I bezeichnet. Das folgende Beispiel zeigt, dass die nat¨ urliche Topologie auf dem Euklidischen Raum als Produkttopologie dargestellt werden kann: 3.2.1 Beispiel (Nat¨ urliche Topologie auf Rn ). F¨ ur alle n ∈ N gilt O T (R) T (Rn ) = i∈{1,...,n}
In der Tat: Da alle Projektionen bez¨ uglich der Produkttopologie stetig sind, gilt Y \ O E| . | = πj−1 (E| . | ) ⊆ T (R) E . ∞ ⊆ j∈{1,...,n}
j∈{1,...,n}
und damit T . ∞ ⊆
O
i∈{1,...,n}
T (R)
i∈{1,...,n}
Sei nun j ∈ {1, . . . , n}. F¨ ur alle x ∈ Rn und f¨ ur alle ε ∈ (0, ∞) gilt πj (B . ∞ (x, ε)) = B| . | (πj (x), ε) ur alle x ∈ Rn stetig in x und damit stetig bez¨ uglich der Topologie Daher ist πj f¨ uglich der Topologie T . ∞ T . ∞ . Damit ist gezeigt, dass alle Projektionen bez¨ stetig sind, und daraus folgt O T (R) ⊆ T . ∞ k∈{1,...,n}
Die Behauptung folgt nun aus T (Rn ) = T . ∞ .
Die Darstellung einer Topologie als Produkttopologie kann den Nachweis der Stetigkeit einer Abbildung erleichtern: 3.2.2 Satz (Stetige Abbildungen in ein topologisches Produkt). Sei (Ω0 , T0 ) ein topologischer Raum und sei f : Ω0 → i∈I Ωi eine Abbildung. Dann sind folgende Aussagen ¨aquivalent : (a) f ist stetig bez¨ uglich der Produkttopologie auf i∈I Ωi . (b) F¨ ur alle i ∈ I ist πi ◦ f stetig.
3.2 Produkte von topologischen R¨ aumen
37
Beweis. Wir nehmen zun¨ achst an, dass f bez¨ uglich der Produkttopologie auf Ω stetig ist. Da alle Projektionen bez¨ u glich der Produkttopologie stetig i i∈I sind, ist dann auch f¨ ur alle i ∈ I die Komposition πi ◦ f stetig. Daher folgt (b) aus (a). Wir nehmen nun an, dass f¨ ur alle i ∈ I die Komposition πi ◦ f stetig ist. Dann gilt −1 −1 πi (Ti ) = f −1 πi−1 (Ti ) = (πi ◦ f )−1 (Ti ) ⊆ T0 f i∈I
und damit
i∈I
f
−1
τ
i∈I
πi−1 (Ti )
=τ f
−1
i∈I
πi−1 (Ti )
⊆ T0
i∈I
2
Daher folgt (a) aus (b).
3.2.3 Satz. F¨ ur alle i ∈ I sei Ei ein Mengensystem mit Ti = τ (Ei ). Dann gilt −1 Ti = τ πi (Ei ) i∈I
i∈I
Beweis. F¨ ur alle j ∈ I gilt πj−1 (Tj )
=
πj−1 (τ (Ej ))
=
τ (πj−1 (Ej ))
⊆τ
πi−1 (Ei )
i∈I
Daraus folgt, dass alle Projektionen bez¨ uglich der Topologie τ stetig sind. Daher gilt (Ωi , Ti ) ⊆ τ πi−1 (Ei ) i∈I
i∈I
πi−1 (Ei )
i∈I
2
Die umgekehrte Inklusion ist klar.
Wir betrachten abschließend das Produkt einer endlichen Familie von Topologien: 3.2.4 Satz. Sei I endlich. Dann gilt i∈I
Ti = τ
i∈I
Ti
38
Kapitel 3. Produktr¨ aume
Beweis. F¨ ur alle i ∈ I gilt Ωi ∈ Ti . Daher gilt f¨ ur alle j ∈ I −1 πj (Tj ) ⊆ Ti ⊆ τ Ti i∈I
i∈I
Daraus folgt, dass alle Projektionen bez¨ uglich der Topologie τ sind. Daher gilt Ti ⊆ τ Ti i∈I
i∈I
Ti stetig
i∈I
ur alle i ∈ I. Da alle Sei nun {Ai }i∈I eine Familie von Mengen mit Ai ∈ Ti f¨ Projektionen bez¨ uglich der Produkttopologie stetig sind, gilt f¨ ur alle i ∈ I πi−1 (Ai ) ∈ Ti i∈I
Da I endlich und jede Topologie ∩–stabil ist, folgt daraus Ai = πi−1 (Ai ) ∈ Ti i∈I
i∈I
Daraus ergibt sich zun¨ achst
i∈I
Ti ⊆
i∈I
und sodann
τ
Ti
i∈I
Ti
⊆
i∈I
Ti
i∈I
2
Daraus folgt die Behauptung. Aufgaben 3.2.A
Produkttopologie: Sei {(Ωi , Ti )}i∈I eine Familie topologischer R¨ aume. Dann gilt ! O [ \ −1 Ti = τ πj (Tj ) i∈I
3.2.B
J ∈H(I) j∈J
Sei {(Ωi , Ti )}i∈I eine Familie topologischer R¨ aume. Sind K, L ⊆ I nichtleer mit K + L = I, so gilt ! ! O O O Ti = Ti ⊗ Ti i∈I
i∈K
i∈L
Hinweis: Verwenden Sie Satz 3.2.2. 3.2.C
aume und sei f : Ω → Ω Graph: Seien (Ω, T ) und (Ω , T ) topologische R¨ stetig. Dann ist der Graph von f T –(T ⊗T )–stetig.
3.3 Produkte von messbaren R¨ aumen
39
3.3 Produkte von messbaren R¨ aumen Sei {(Ωi , Fi )}i∈I eine Familie messbarer R¨ aume. Dann gibt es eine kleinste σ–Algebra Fi i∈I
auf i∈I Ωi , f¨ ur die alle Projektionen messbar sind. Diese σ–Algebra wird als Produkt–σ–Algebra oder als Kolmogorovsche σ–Algebra der Familie {Fi }i∈I bezeichnet und der messbare Raum (Ωi , Fi ) := Ωi , Fi i∈I
i∈I
i∈I
wird als messbares Produkt der Familie {(Ωi , Fi )}i∈I bezeichnet. Das folgende Beispiel zeigt, dass die Borelsche σ–Algebra auf dem Euklidischen Raum als Produkt–σ–Algebra dargestellt werden kann: 3.3.1 Beispiel (Borelsche σ–Algebra auf Rn ). F¨ ur alle n ∈ N gilt O B(R) B(Rn ) = i∈{1,...,n}
In der Tat: Da alle Projektionen bez¨ uglich der Produkt–σ–Algebra messbar sind, gilt Y \ O J (Rn ) = J (R) = πj−1 (J (R)) ⊆ B(R) j∈{1,...,n}
j∈{1,...,n}
und damit
O
B(Rn ) ⊆
i∈{1,...,n}
B(R)
i∈{1,...,n}
Sei nun j ∈ {1, . . . , n} und (a, b] ∈ J (R). F¨ ur alle i ∈ {1, . . . , n} und k ∈ N sei j (a, b] falls i = j Hi,k := (−k, k] sonst Dann gilt πj−1 ((a, b]) =
[
Y
Hi,k ∈ σ(J (Rn )) = B(Rn )
k∈N i∈{1,...,n}
Damit ist gezeigt, dass alle Projektionen bez¨ uglich der σ–Algebra B(Rn ) messbar sind, und daraus folgt O B(R) ⊆ B(Rn ) k∈{1,...,n}
Damit ist die Behauptung gezeigt.
40
Kapitel 3. Produktr¨ aume
Die Darstellung einer σ–Algebra als Produkt–σ–Algebra kann den Nachweis der Messbarkeit einer Abbildung erleichtern: 3.3.2 Satz (Messbare Abbildungen in einmessbares Produkt). Sei (Ω0 , F0 ) ein messbarer Raum und sei f : Ω0 → i∈I Ωi eine Abbildung. Dann sind folgende Aussagen ¨aquivalent : (a) f ist messbar bez¨ uglich der Produkt–σ–Algebra auf i∈I Ωi . (b) F¨ ur alle i ∈ I ist πi ◦ f messbar. 3.3.3 Satz. F¨ ur alle i ∈ I sei Ei ein Mengensystem mit Fi = σ(Ei ). Dann gilt −1 Fi = σ πi (Ei ) i∈I
i∈I
Wir betrachten abschließend das Produkt einer abz¨ahlbaren Familie von σ– Algebren: 3.3.4 Satz. Sei I abz¨ahlbar. Dann gilt Fi = σ Fi i∈I
i∈I
Die unterschiedlichen Voraussetzungen an die M¨achtigkeit der Indexmenge in den S¨ atzen 3.2.4 und 3.3.4 haben ihre Ursache darin, dass Topologien unter der Bildung von endlichen Durchschnitten stabil sind, w¨ahrend σ–Algebren unter der Bildung von abz¨ ahlbaren Durchschnitten stabil sind. Aufgaben 3.3.A
Produkt–σ–Algebra: Sei {(Ωi , Fi )}i∈I eine Familie messbarer R¨ aume. Dann gilt ! O [ \ −1 Fi = σ πj (Fj ) i∈I
3.3.B
aume. Sind K, L ⊆ I nichtleer Sei {(Ωi , Fi )}i∈I eine Familie messbarer R¨ mit K + L = I, so gilt ! ! O O O Fi = Fi ⊗ Fi i∈I
3.3.C
J ∈H(I) j∈J
i∈K
i∈L
Graph: Sei (Ω , F ) ein Messraum und sei f : Ω → Ω messbar. Dann ist der Graph von f F–(F ⊗F )–messbar.
Teil II
Maßtheorie
4 Mengenfunktionen
In diesem Kapitel betrachten wir Abbildungen von einem Mengensystem nach [0, ∞] oder [−∞, ∞]. Derartige Abbildungen werden als Mengenfunktionen bezeichnet. Die wichtigsten dieser Mengenfunktionen sind Inhalte (Abschnitt 4.1) und Maße (Abschnitt 4.2). Die Bildung der Differenz zwischen zwei Maßen, von denen mindestens eines endlich ist, f¨ uhrt auf den Begriff des signierten Maßes (Abschnitt 4.3). Im gesamten Kapitel sei Ω eine nichtleere Menge und C ⊆ 2Ω ein Mengensystem mit ∅ ∈ C.
4.1 Inhalte Eine Mengenfunktion μ : C → [0, ∞] heißt – additiv , wenn f¨ ur je zwei Mengen A, B ∈ C mit A ∩ B = ∅ und A + B ∈ C μ[A + B] = μ[A] + μ[B]
–
gilt. endlich additiv , wenn f¨ ur jede endliche disjunkte Familie {Ai }i∈I ⊆ C mit
A ∈ C i i∈I μ
i∈I
Ai =
μ[Ai ]
i∈I
gilt. – Inhalt , wenn μ[∅] = 0 gilt und μ endlich additiv ist. Jede endlich additive Mengenfunktion ist additiv.
44
Kapitel 4. Mengenfunktionen
4.1.1 Beispiele. Sei Ω := N und ˛ o n ˛ C := A ∈ 2N ˛ A oder Ω \ A ist endlich (1) Die Mengenfunktion μ : C → [0, ∞] mit μ[A] := ∞ ist endlich additiv, aber kein Inhalt. (2) Die Mengenfunktion μ : C → [0, ∞] mit j μ[A] :=
0 ∞
falls A endlich ist sonst
ist ein Inhalt. (3) Die Mengenfunktion μ : C → [0, ∞] mit μ[A] := |A| ist ein Inhalt.
Das folgende Lemma erleichtert den Nachweis der Additivit¨at einer Mengenfunktion auf einem Ring; vgl. Aufgabe 4.1.A: 4.1.2 Lemma. Sei C ⊆ 2Ω ein Ring und sei μ : C → [0, ∞] eine Mengenfunktion. Dann sind ¨aquivalent: (a) μ ist additiv. (b) μ ist endlich additiv. Beweis. Wir nehmen an, dass μ additiv ist, und zeigen durch vollst¨andige Induktion, dass f¨ ur alle n ∈ N und jede disjunkte Familie {Ai }i∈{1,...,n} ⊆ C μ
n i=1
Ai =
n
μ[Ai ]
i=1
gilt. • n = 1: In diesem Fall ist nichts zu zeigen. • n → n + 1: Wir nehmen an, die Behauptung sei f¨ ur n bereits bewiesen, und betrachten eine disjunkte Familie {A } i i∈{1,...,n+1} ⊆ C. Da C ein
n Ring ist, gilt i=1 Ai ∈ C und aus der Additivit¨at von μ folgt nun n n+1 Ai = μ Ai + An+1 μ i=1
i=1
n =μ Ai + μ[An+1 ] i=1
4.1 Inhalte
45
=
n
μ[Ai ] + μ[An+1 ]
i=1
=
n+1
μ[Ai ]
i=1
Daher folgt (b) aus (a). Die umgekehrte Implikation ist klar.
2
¨ Das folgende Beispiel zeigt, dass die Aquivalenz aus Lemma 4.1.2 f¨ ur Mengenfunktionen auf einem Halbring im allgemeinen nicht gilt: 4.1.3 Beispiel. Sei Ω := {1, 2, 3} und C := {∅, {1}, {2}, {3}, Ω}. Dann ist C ein Halbring, aber kein Ring, und die Mengenfunktion μ : C → [0, ∞] mit 8 < 0 falls A = ∅ ur ein ω ∈ Ω μ[A] := 1 falls A = {ω} f¨ : 4 falls A = Ω ist additiv, aber nicht endlich additiv.
Die Untersuchung von Inhalten auf einem Halbring wird dadurch erschwert, dass Halbringe im allgemeinen nicht stabil unter der Bildung von Vereinigungen und relativen Komplementen sind; vgl. Beispiel 4.1.3. Hier hilft der folgende Fortsetzungssatz: 4.1.4 Satz. Sei C ein Halbring. Dann besitzt jeder Inhalt C → [0, ∞] eine eindeutige Fortsetzung zu einem Inhalt (C) → [0, ∞]. Beweis. Nach Satz 1.5.7 gilt
Hi mit I endlich und {Hi }i∈I ⊆ H disjunkt (C) = A ∈ 2Ω A = i∈I
Sei μ : C → [0, ∞] ein Inhalt. Ist μ ˜ : (C) → [0, ∞] ein Inhalt mit μ ˜[H] = μ[H] f¨ ur alle H ∈ C, so gilt
f¨ ur alle A ∈ (C) und jede endliche disjunkte Familie {Hi }i∈I ⊆ C mit A = i∈I Hi μ ˜ [A] =
μ ˜[Hi ] =
i∈I
μ[Hi ]
i∈I
Andererseits gilt f¨ ur endliche disjunkte Familien {Gi }i∈I ⊆ C und {Hj }j∈J ⊆ C
mit i∈I Gi = j∈J Hj i∈I
μ[Gi ] =
i∈I
μ Gi ∩
j∈J
Hj =
i∈I j∈J
μ[Gi ∩ Hj ]
46
Kapitel 4. Mengenfunktionen
sowie
μ[Hj ] =
j∈J
und damit
μ[Gi ∩ Hj ]
j∈J i∈I
μ[Gi ] =
i∈I
μ[Hj ]
j∈J
Daher ist die Abbildung μ ¯ : (C) → [0, ∞] mit μ ¯[A] := μ[Hi ] i∈I
und einer endlichen disjunkten Familie {Hi }i∈I ⊆ C mit A = i∈I Hi wohldefiniert und f¨ ur alle H ∈ C gilt μ ¯[H] = μ[H]. Daher ist μ ¯ eine Fortsetzung von μ und es ist klar, dass μ ¯ ein Inhalt ist. 2 Eine Mengenfunktion μ : C → [0, ∞] heißt – monoton, wenn f¨ ur alle A, B ∈ C mit B ⊆ A μ[B] ≤ μ[A] –
gilt. subadditiv , wenn f¨ ur alle A, B ∈ C mit A ∪ B ∈ C μ[A ∪ B] ≤ μ[A] + μ[B]
–
gilt. endlich subadditiv , wenn f¨ ur jede endliche Familie {Ai }i∈I ⊆ C mit A ∈ C i∈I i Ai ≤ μ[Ai ] μ i∈I
i∈I
gilt. Jede endlich subadditive Mengenfunktion ist subadditiv, und jede subadditive Mengenfunktion auf einem Ring ist endlich subadditiv. 4.1.5 Lemma. Sei C ein Halbring und sei μ : C → [0, ∞] ein Inhalt. Dann ist μ monoton und endlich subadditiv. Beweis. Aufgrund von Satz 4.1.4 k¨ onnen wir annehmen, dass C ein Ring ist. F¨ ur alle A, B ∈ C mit B ⊆ A gilt μ[B] ≤ μ[B] + μ[A \ B] = μ[B + (A \ B)] = μ[A] Daher ist μ monoton.
4.1 Inhalte
47
Sei nun {Ak }k∈{1,...,n} ⊆ C eine endliche Familie mit k ∈ {1, . . . , n} sei Bk := Ak \
k−1
n k=1
Ak ∈ C. F¨ ur alle
Aj
j=1
n Dann
n ist {Bk }k∈{1,...,n} eine endliche disjunkte Familie in C mit k=1 Ak = at und der Monotonie von μ ergibt k=1 Bk und aus der endlichen Additivit¨ sich nun n n n n Ak = μ Bk = μ[Bk ] ≤ μ[Ak ] μ k=1
k=1
k=1
k=1
2
Daher ist μ endlich subadditiv. Eine Mengenfunktion μ : C → [0, ∞] heißt endlich, wenn f¨ ur alle A ∈ C μ[A] < ∞
gilt. Eine endliche Mengenfunktion ist genau dann ein Inhalt, wenn sie endlich additiv ist. Aufgaben 4.1.A
Sei C ∪–stabil und sei μ : C → [0, ∞] eine Mengenfunktion. Dann sind aquivalent: ¨ (a) μ ist additiv. (b) μ ist endlich additiv.
4.1.B
Sei C ∪–stabil und sei μ : C → [0, ∞] eine Mengenfunktion. Dann sind aquivalent: ¨ (a) μ ist subadditiv. (b) μ ist endlich subadditiv.
4.1.C
Eine Mengenfunktion μ : C → [0, ∞] heißt subtraktiv , wenn f¨ ur alle A, B ∈ C mit B ⊆ A und A \ B ∈ C sowie μ[B] < ∞ μ[A \ B] = μ[A] − μ[B] gilt. Jede additive Mengenfunktion ist subtraktiv.
4.1.D
Eine Mengenfunktion μ : C → [0, ∞] heißt modular , wenn f¨ ur alle A, B ∈ C mit A ∪ B ∈ C und A ∩ B ∈ C μ[A ∪ B] + μ[A ∩ B] = μ[A] + μ[B] gilt. Jede additive Mengenfunktion auf einem Halbring ist modular, und jede modulare Mengenfunktion auf einem Ring ist additiv.
48 4.1.E
Kapitel 4. Mengenfunktionen Einschluss–Ausschluss–Formel (Poincar´ e): Sei C ein Ring und sei μ : C → [0, ∞] additiv und endlich. Dann gilt f¨ ur jede endliche Familie {Ak }k∈{1,...,n} ⊆ C " " # # n [ X X \ i−1 μ Ak = (−1) μ Ak k∈{1,...,n}
4.1.F
I⊆{1,...,n}, |I|=i
i=1
Nullmengen: Sei C ein Ring und sei das Mengensystem n Nμ := N ∈ C
k∈I
μ : C → [0, ∞] ein Inhalt. Dann ist ˛ o ˛ ˛ μ[N ] = 0
ein Ideal in C. Jede Menge N ∈ Nμ heißt μ–Nullmenge. 4.1.G
Eine Mengenfunktion μ : C → [0, ∞] heißt vollst¨ andig, wenn f¨ ur alle A ∈ C mit μ[A] = 0 und alle B ⊆ A B∈C gilt. Ist C eine Ring und μ : C → [0, ∞] ein vollst¨ andiger Inhalt, so ist jede Teilmenge einer μ–Nullmenge selbst eine μ–Nullmenge.
4.1.H
Vervollst¨ andigung: Sei C ein Ring und sei μ : C → [0, ∞] ein Inhalt. Sei ferner ˛ o n ˛ Mμ := A ∈ 2Ω ˛ A ⊆ N f¨ ur ein N ∈ Nμ und Ceμ :=
˛ o n ˛ A ∈ 2Ω ˛ A = C + D mit C ∈ C und D ∈ Mμ
und sei μ e : Ceμ → [0, ∞] gegeben durch μ e[A] := μ[C] mit C ∈ C sodass A = C + D f¨ ur ein D ∈ Mμ gilt. Dann gilt (1) Ceμ = (C ∪ Mμ ) sowie ˛ o n ˛ Ceμ = A ∈ 2Ω ˛ A = C ∪ D mit C ∈ C und D ∈ Mμ ˛ o n ˛ = A ∈ 2Ω ˛ A = C D mit C ∈ C und D ∈ Mμ (2) μ e ist wohldefiniert und ein vollst¨ andiger Inhalt mit μ e|C = μ. (3) μ e ist der einzige Inhalt auf Ceμ , der μ fortsetzt. (4) Ist C0 ein Ring auf Ω mit C ⊆ C0 und ist μ0 : C0 → [0, ∞] ein vollst¨ andiger Inhalt mit μ0 |C = μ, so gilt Ceμ ⊆ C0 und μ0 |Ceμ = μ e. Der Inhalt μ e heißt Vervollst¨ andigung von μ. 4.1.I
Sei C ein Ring und sei μ : C → [0, ∞] ein Inhalt. Zwei Mengen A, B ∈ C heißen μ–¨ aquivalent, wenn μ[AB] = 0 gilt, und in diesem Fall schreiben wir A =μ B ¨ auf C und C/=μ ist ein Ring. Dann ist =μ eine Aquivalenzrelation
4.2 Maße 4.1.J
49 Sei C ein Ring und sei μ : C → [0, ∞] ein endlicher Inhalt. Dann ist die Abbildung dμ : C/=μ × C/=μ → R+ mit dμ (A, B) := μ[AB] (wohldefiniert und) eine Metrik.
4.1.K
Sei C ein Halbring, sei μ : C → [0, ∞] endlich additiv und sei μ ¯ die eindeutig bestimmte (endlich) additive Mengenfunktion (C) → [0, ∞] mit μ ¯ [H] = μ[H] f¨ ur alle H ∈ C. Ist μ endlich, so ist auch μ ¯ endlich.
4.2 Maße Eine Mengenfunktion μ : C → [0, ∞] heißt
∞ – σ–additiv , wenn f¨ ur jede disjunkte Folge {Ak }k∈N ⊆ C mit k=1 Ak ∈ C ∞ ∞ μ Ak = μ[Ak ] k=1
k=1
gilt. – Maß , wenn μ[∅] = 0 gilt und μ σ–additiv ist. Die folgende Charakterisierung von Maßen ist offensichtlich: 4.2.1 Lemma. Sei μ : C → [0, ∞] eine Mengenfunktion. Dann sind ¨aquivalent : (a) μ ist ein Maß. (b) μ ist ein σ–additiver Inhalt. 4.2.2 Beispiele. (1) Sei Ω := N und C := {A ∈ 2N | A oder Ω \ A ist endlich}. Dann ist die Mengenfunktion μ : C → [0, ∞] mit j 0 falls A endlich ist μ[A] := ∞ sonst ein Inhalt, aber kein Maß. (2) Sei Ω := R und C := {A ∈ 2R | A oder Ω \ A ist abz¨ ahlbar}. Dann ist die Mengenfunktion μ : C → [0, ∞] mit j 0 falls A abz¨ ahlbar ist μ[A] := ∞ sonst ein Maß. (3) Dirac–Maß: F¨ ur jedes ω ∈ Ω ist die Mengenfunktion δ ω : C → [0, ∞] mit j 1 falls ω ∈ A δ ω [A] := 0 sonst uglich ω ∈ Ω. ein endliches Maß. Das Maß δ ω heißt Dirac–Maß bez¨
50
Kapitel 4. Mengenfunktionen
(4) Z¨ ahlmaß: Die Mengenfunktion ζ : 2Ω → [0, ∞] mit ζ[A] := |A| ist ein Maß. Das Maß ζ heißt Z¨ ahlmaß . ahlbar. Dann ist die Mengenfunktion ζ C : (5) Lokales Z¨ ahlmaß: Sei C ∈ 2Ω abz¨ 2Ω → [0, ∞] mit ζ C [A] := |A ∩ C| ein Maß mit ζ C [A] =
X
δ ω [A]
ω∈C
Das Maß ζ C heißt lokales Z¨ ahlmaß bez¨ uglich C.
Der folgende Fortsetzungssatz ist ein Analogon zu Satz 4.1.4: 4.2.3 Satz. Sei C ein Halbring. Dann besitzt jedes Maß C → [0, ∞] eine eindeutige Fortsetzung zu einem Maß (C) → [0, ∞]. Beweis. Sei μ : C → [0, ∞] ein Maß. Dann ist μ ein Inhalt und nach Satz 4.1.4 gibt es einen eindeutig bestimmten Inhalt μ ¯ : (C) → [0, ∞] mit μ ¯[H] = μ[H] f¨ ur alle H ∈ C. Wir zeigen nun, dass μ ¯ σ–additiv ist. Sei
{Ak }k∈N ⊆ (C) eine disjunkte Folge mit A ∈ (C) und sei A := k k∈N
k∈N Ak . Dann gibt es endliche } ⊆ C mit A = disjunkte Familien {B i i∈I i∈I Bi sowie {Bk,j }j∈J(k) ⊆ C mit
Ak = j∈J(k) Bk,j f¨ ur alle k ∈ N und es gilt Bi = Bi ∩ A =
∞
Bi ∩ Ak =
k=1
∞
Bi ∩ Bk,j
k=1 j∈J(k)
sowie Bk,j = A ∩ Bk,j =
Bi ∩ Bk,j
i∈I
Aus der Definition von μ ¯ und der σ–Additivit¨ at von μ ergibt sich nun μ ¯ [A] =
μ[Bi ] =
i∈I
∞
μ[Bi ∩ Bk,j ]
i∈I k=1 j∈J(k)
sowie ∞ k=1
μ ¯[Ak ] =
∞
μ[Bk,j ] =
∞
μ[Bi ∩ Bk,j ]
k=1 j∈J(k) i∈I
k=1 j∈J(k)
und damit μ ¯ [A] =
∞
μ ¯ [Ak ]
k=1
Daher ist μ ¯ σ–additiv.
2
4.2 Maße
51
Eine Mengenfunktion μ : C → [0, ∞] heißt – stetigvon unten, wenn f¨ ur jede monoton wachsende Folge {Ak }k∈N ⊆ C mit k∈N Ak ∈ C Ak = sup μ[Ak ] μ k∈N
k∈N
–
gilt. stetig von oben, wenn f¨ ur jede monoton fallende Folge {Ak }k∈N ⊆ C mit A ∈ C und μ[A ] 1 < ∞ k∈N k μ Ak = inf μ[Ak ] k∈N
k∈N
–
gilt. ∅–stetig, wenn f¨ ur jede monoton fallende Folge {Ak }k∈N ⊆ C mit k∈N Ak = ∅ und μ[A1 ] < ∞ inf μ[Ak ] = 0
k∈N
gilt. 4.2.4 Lemma. Sei C ein Ring und sei μ : C → [0, ∞] ein Inhalt. Dann sind ¨aquivalent : (a) μ ist σ–additiv. (b) μ ist stetig von unten. Beweis. Sei zun¨ achst μ σ–additiv und sei {Ak }k∈N ⊆ C eine monoton wach sende Folge mit k∈N Ak ∈ C. Sei A0 := ∅ und f¨ ur alle k ∈ N sei Bk := Ak \ Ak−1
∞ Dann ist {Bk }k∈N
eine disjunkte Folge in C mit k=1 Bk = k∈N Ak ∈ C und n f¨ ur alle n ∈ N gilt k=1 Bk = An . Daraus folgt ∞ μ Ak = μ Bk k∈N
k=1
=
∞
μ[Bk ]
k=1
= sup
n
μ[Bk ]
n∈N k=1
= sup μ n∈N
n
k=1
= sup μ[An ] n∈N
Daher ist μ stetig von unten.
Bk
52
Kapitel 4. Mengenfunktionen
Sei
∞nun μ stetig von unten und sei {Ak }k∈N ⊆ C eine disjunkte Folge mit ur alle n ∈ N sei k=1 Ak ∈ C. F¨ Bn :=
n
Ak
k=1
Dann
∞ ist {Bn }n∈N eine monoton wachsende Folge in C mit k=1 Ak ∈ C. Daraus folgt ∞ Ak = μ Bn μ k=1
n∈N
Bn =
n∈N
= sup μ[Bn ] n∈N n = sup μ Ak n∈N
= sup n∈N
=
∞
k=1 n
μ[Ak ]
k=1
μ[Ak ]
k=1
2
Daher ist μ σ–additiv.
4.2.5 Lemma. Sei C ein Ring und sei μ : C → [0, ∞] ein Inhalt. Ist μ stetig von unten, so ist μ stetig von oben. Beweis. Sei {Ak }k∈N ⊆ C eine monoton fallende Folge mit k∈N Ak ∈ C und μ[A 1 ] < ∞. Dann ist {A 1 \ Ak }k∈N eine monoton wachsende Folge in C mit (A \ A ) = A \ 1 k 1 k∈N k∈N Ak ∈ C. Daraus folgt μ[A1 ] − inf μ[Ak ] = μ[A1 ] + sup − μ[Ak ] k∈N k∈N = sup μ[A1 ] − μ[Ak ] k∈N
= sup μ[A1 \ Ak ] k∈N A1 \ Ak =μ k∈N
= μ A1 \
Ak
k∈N
= μ[A1 ] − μ
k∈N
Ak
4.2 Maße
53
und aus μ[A1 ] < ∞ folgt nun μ
Ak = inf μ[Ak ] k∈N
k∈N
2
Daher ist μ stetig von oben.
Wir notieren eine offensichtliche Folgerung aus Lemma 4.2.4 und Lemma 4.2.5: 4.2.6 Folgerung. Sei C ein Ring und sei μ : C → [0, ∞] ein Maß. Dann ist μ stetig von oben. F¨ ur endliche Inhalte auf einem Ring gilt auch die Umkehrung der Implikation von Lemma 4.2.5: 4.2.7 Lemma. Sei C ein Ring und sei μ : C → [0, ∞] ein endlicher Inhalt. Ist μ stetig von oben, so ist μ stetig von unten. Beweis. Sei A ∈ C und sei {Ak }k∈N ⊆ C eine monoton wachsende Folge mit A = k∈N Ak . Dann ist die Folge {A \ Ak }k∈N monoton fallend mit A \ A k = ∅. Nach Voraussetzung gilt supk∈N μ[Ak ] ≤ μ[A] < ∞ und k∈N damit μ[A] − sup μ[Ak ] = μ[A] + inf −μ[Ak ] k∈N k∈N = inf μ[A] − μ[Ak ] k∈N
= inf μ[A \ Ak ] k∈N
= μ[∅] =0 Daher ist μ stetig von unten.
2
Das folgende Beispiel zeigt, dass im vorangehenden Lemma die Forderung der Endlichkeit des Inhaltes wesentlich ist: 4.2.8 Beispiel. Sei Ω := N und C := {A ∈ 2N | A oder Ω \ A ist endlich}. Dann ist die Mengenfunktion μ : C → [0, ∞] mit j 0 falls A endlich ist μ[A] := ∞ sonst ein Inhalt und stetig von oben, aber sie ist nicht stetig von unten.
Wir kl¨ aren nun noch den Zusammenhang zwischen der Stetigkeit von oben und der ∅–Stetigkeit:
54
Kapitel 4. Mengenfunktionen
4.2.9 Lemma. Sei C ein Ring und sei μ : F → [0, ∞] ein Inhalt. Dann sind ¨aquivalent : (a) μ ist stetig von oben. (b) μ ist ∅–stetig. Beweis. Es ist klar, dass (b) aus (a) folgt. Wir nehmen nun an, dass (b) gilt. Sei {Ak }k∈N ⊆ C eine monoton fallende Folge mit A := k∈N Ak ∈ C und μ[A1 ] < ∞. Dann ist {Ak \ A}k∈N eine monoton fallende Folge in C mit k∈N (Ak \ A) = ∅ und μ[A1 \ A] < ∞. Daraus folgt Ak = μ[A] μ k∈N (Ak \ A) = μ[A] + μ k∈N
= μ[A] + inf μ[Ak \ A] k∈N = inf μ[A] + μ[Ak \ A] k∈N
= inf μ[Ak ] k∈N
2
Daher folgt (a) aus (b).
F¨ ur endliche Inhalte auf einem Ring k¨ onnen wir die letzten Ergebnisse wie folgt zusammenfassen: 4.2.10 Folgerung. Sei C ein Ring und sei μ : C → [0, ∞] ein endlicher Inhalt. Dann sind ¨aquivalent : (a) μ ist σ–additiv. (b) μ ist stetig von unten. (c) μ ist stetig von oben. (d) μ ist ∅–stetig. Eine Mengenfunktion ur jede Folge μ : C → [0, ∞] heißt σ–subadditiv , wenn f¨ {Ak }k∈N ⊆ C mit k∈N Ak ∈ C ∞ μ Ak ≤ μ[Ak ] k∈N
k=1
gilt. Wegen ∅ ∈ C ist jede σ–subadditive Mengenfunktion C → [0, ∞] subadditiv. 4.2.11 Lemma. Sei C ein Halbring und sei μ : C → [0, ∞] ein Maß. Dann ist μ monoton und σ–subadditiv.
4.2 Maße
55
Beweis. Aufgrund von Satz 4.2.3 k¨ onnen wir annehmen, dass C ein Ring ist. Da μ ein Maß ist, ist μ auch ein Inhalt, und aus Lemma 4.1.5 folgt nun, dass μ monoton und subadditiv ist. Nach Lemma 4.2.4 ist μ außerdem stetig von unten. n ∈ C. Dann ist { k=1 Ak }n∈N Sei nun {Ak }k∈N ⊆ C eine Folge mit k∈N Ak eine monoton wachsende Folge in C mit n∈N nk=1 Ak = k∈N Ak ∈ C und es gilt n ∞ n Ak = sup μ Ak ≤ sup μ[Ak ] = μ[Ak ] μ n∈N
k∈N
n∈N
k=1
k=1
k=1
2
Daher ist μ σ–subadditiv.
F¨ ur Mengenfunktionen auf einem Halbring erhalten wir die folgende Variante von Lemma 4.2.1: 4.2.12 Lemma. Sei C ⊆ 2Ω ein Halbring und sei μ : C → [0, ∞] eine Mengenfunktion. Dann sind ¨aquivalent : (a) μ ist ein Maß. (b) μ ist ein σ–subadditiver Inhalt. Beweis. Jedes Maß ist ein Inhalt und nach Lemma 4.2.11 auch σ–subadditiv. Daher folgt (b) aus (a). Sei nun
μ ein σ–subadditiver Inhalt und sei {Ak }k∈N ⊆ C eine disjunkte Folge ur alle n ∈ N mit ∞ k=1 Ak ∈ C. Da μ ein Inhalt und damit monoton ist, gilt f¨ ∞ n n μ[Ak ] = μ Ak ≤ μ Ak k=1
k=1
k=1
und damit ∞
μ[Ak ] ≤ μ
k=1
∞
Ak
k=1
Da μ σ–subadditiv ist, gilt außerdem ∞ ∞ μ Ak ≤ μ[Ak ] k=1
k=1
Aus den letzten beiden Ungleichungen folgt nun, dass μ σ–additiv ist. Daher folgt (a) aus (b). 2 Eine Mengenfunktion μ : C → [0, ∞] heißt σ–endlich, wenn es eine Folge ur alle k ∈ N. {Ak }k∈N ⊆ C gibt mit k∈N Ak = Ω und μ[Ak ] < ∞ f¨
56
Kapitel 4. Mengenfunktionen
Aufgaben 4.2.A
Ist jede σ–additive Mengenfunktion additiv?
4.2.B
Sei C ein σ–Ring und sei μ : C → [0, ∞] ein Maß. Dann ist das Mengensystem ˛ o n ˛ Nμ := N ∈ C ˛ μ[N ] = 0 ein σ–Ideal in C.
4.2.C
Vervollst¨ andigung: Sei C eine σ–Algebra und sei μ : C → [0, ∞] ein Maß. Sei ferner ˛ o n ˛ Mμ := A ∈ 2Ω ˛ A ⊆ N f¨ ur ein N ∈ Nμ und Ceμ :=
˛ o n ˛ A ∈ 2Ω ˛ A = C + D mit C ∈ C und D ∈ Mμ
und sei μ e : Ceμ → [0, ∞] gegeben durch μ e[A] := μ[C] mit (1) (2) (3) (4)
C ∈ C sodass A = C + D f¨ ur ein D ∈ Mμ . Dann gilt Ceμ = σ(C ∪ Mμ ). μ e ist wohldefiniert und ein vollst¨ andiges Maß mit μ e|C = μ. μ e ist das einzige Maß auf Ceμ , das μ fortsetzt. Ist C0 eine σ–Algebra auf Ω mit C ⊆ C0 und ist μ0 : C0 → [0, ∞] ein e. vollst¨ andiges Maß mit μ0 |C = μ, so gilt Ceμ ⊆ C0 und μ0 |Ceμ = μ
4.2.D
Ist jede endliche Mengenfunktion σ–endlich?
4.2.E
Sei C ∩–stabil, sei μ : C → [0, ∞] ein Maß und sei C ∈ C. Dann ist die Mengenfunktion μC : C → [0, ∞] mit μC [A] := μ[A ∩ C] ein Maß.
4.2.F
Sei {μn }n∈N eine Folge von Maßen C → [0, ∞] und sei {an }n∈N ⊆ R+ . Dann ist die Mengenfunktion μ : C → [0, ∞] mit μ[A] :=
∞ X
an μn [A]
n=1
ein Maß.
4.3 Signierte Maße ¯ heißt signiertes Maß , wenn sie die folgenden Eine Mengenfunktion ν : C → R Eigenschaften besitzt:
4.3 Signierte Maße
57
(i) ν nimmt h¨ ochstens einen der Werte −∞ und +∞ an. (ii) Es gilt ν[∅] = 0.
∞ (iii) f¨ ur jede disjunkte Folge {Ak }k∈N ⊆ C mit k=1 Ak ∈ C gilt ∞ ∞ ν Ak = ν[Ak ] k=1
k=1
Die letzte Bedingung ist so zu verstehen, dass f¨ ur jede disjunkte Folge
∞ ¯ unbedingt konvergent ist und dass {Ak }k∈N ⊆ C die Reihe ν[A ] in R k k=1 ∞ ihr Grenzwert gleich ν k=1 Ak ist. Jedes Maß ist ein signiertes Maß, aber nicht jedes signierte Maß ist ein Maß. ¯ ist genau dann ein Maß, wenn ν(C) ⊆ [0, ∞] Ein signiertes Maß ν : C → R gilt. Das folgende Lemma liefert eine einfache M¨oglichkeit, signierte Maße zu erzeugen, die keine Maße sind: 4.3.1 Lemma. Seien ϕ, ψ : C → [0, ∞] Maße, von denen mindestens eines endlich ist. Dann ist ϕ − ψ ein signiertes Maß. Wir wollen nun zeigen, dass sich jedes signierte Maß auf einer σ–Algebra als Differenz zweier Maße, von denen mindestens eines endlich ist, darstellen l¨asst. Wir ben¨ otigen das folgende Analogon zu Folgerung 4.2.6: ¯ ein signiertes Maß. Dann 4.3.2 Lemma. Sei C ein Ring und sei ν : C → R gilt f¨ ur jede monoton fallende Folge {Ak }k∈N ⊆ C mit k∈N Ak ∈ C und ν[A1 ] < ∞ lim ν[Ak ] = ν Ak k→∞
k∈N
Der Beweis von Lemma 4.3.2 ergibt sich durch Wiederholung der in den Beweisen von Lemma 4.2.4 und Lemma 4.2.5 verwendeten Argumente, wobei alle auftretenden Suprema und Infima durch Limites zu ersetzen sind. F¨ ur A ∈ C setzen wir
C(A) := B ∈ C B ⊆ A
¯ definieren wir Mengenfunktionen und f¨ ur eine Mengenfunktion ν : C → R + − ν : C → [0, ∞] und ν : C → [0, ∞] durch ν + [A] := sup ν[B] B∈C(A)
ν − [A] := sup (−ν[B]) B∈C(A)
58
Kapitel 4. Mengenfunktionen
Die Mengenfunktionen ν + heißt die positive Variation oder der Positivteil von ν und die Mengenfunktionen ν − heißt die negative Variation oder der Negativteil von ν. F¨ ur signierte Maße auf einer σ–Algebra erhalten wir das folgende Ergebnis: ¯ 4.3.3 Satz (Jordan–Zerlegung). Sei C eine σ–Algebra und sei ν : C → R ein signiertes Maß. Dann sind ν + und ν − Maße, von denen mindestens eines endlich ist, und es gilt ν = ν+ − ν− Beweis. Wir f¨ uhren den Beweis in mehreren Schritten. (1) Wir zeigen zun¨ achst, dass die Mengenfunktionen ν + und ν − Maße sind: + (i) Es gilt ν [∅] = ν[∅] = 0.
∞ (ii) Sei nun A ∈ C und {Ak }k∈N ⊆ C eine disjunkte Folge mit k=1 Ak = A. F¨ ur jede Menge B ∈ C(A) gilt dann ν[B] =
∞
ν[B ∩ Ak ] ≤
k=1
∞
ν + [Ak ]
k=1
und damit ν + [A] ≤
∞
ν + [Ak ]
k=1
ur alle k ∈ N. Dann ist Sei nun {Bk }k∈N ⊆ C eine Folge mit Bk ∈ C(Ak ) f¨ ur alle n ∈ N gilt nk=1 Bk ∈ C(A) und die Folge {Bk }k∈N disjunkt und f¨ damit n n ν[Bk ] = ν Bk ≤ ν + [A] k=1
k=1
Durch Variation u ¨ ber alle derartigen Folgen erh¨alt man zun¨achst n
ν + [Ak ] ≤ ν + [A]
k=1
und sodann ∞
ν + [Ak ] ≤ ν + [A]
k=1
Daher gilt ∞
ν + [Ak ] = ν + [A]
k=1 +
Damit ist gezeigt, dass ν ein Maß ist. Da mit ν auch −ν ein signiertes Maß ist, ist auch ν − = (−ν)+ ein Maß.
4.3 Signierte Maße
59
(2) Wir zeigen nun, dass mindestens eines der Maße ν + und ν − endlich ist. Dazu k¨ onnen wir ohne Beschr¨ ankung der Allgemeinheit annehmen, dass f¨ ur alle A ∈ C ν[A] < ∞ gilt, und zeigen, dass in diesem Fall ν + endlich ist. Wir f¨ uhren den Beweis durch Widerspruch und nehmen an, dass ν + [Ω] = ∞ gilt. Wir konstruieren nun induktiv eine monoton fallende Folge {An }n∈N ⊆ C mit ν + [An ] = ∞ f¨ ur alle n ∈ N: • n = 1: Sei A1 := Ω +
•
Dann gilt A1 ∈ C und ν [A1 ] = ∞. n → n + 1: Sei An ∈ C mit ν + [An ] = ∞ gegeben. Dann gibt es eine Menge Bn ∈ C(An ) mit ν[Bn ] ≥ n und max{ν + [Bn ], ν + [An \ Bn ]} = ∞ und wir setzen Bn falls ν + [Bn ] = ∞ An+1 := An \ Bn sonst
Dann gilt An+1 ∈ C und ν + [An+1 ] = ∞ sowie An+1 ⊆ An . F¨ ur die Folgen {An }n∈N und {Bn }n∈N gilt eine der folgenden Alternativen: – Es gibt unendlich viele n ∈ N mit An+1 = An \ Bn – Es gibt ein m ∈ N mit An+1 = Bn f¨ ur alle n ∈ N(m). Wir untersuchen diese Alternativen getrennt: – Im ersten Fall besitzt die Folge {Bn }n∈N eine disjunkte Teilfolge {Bnk }k∈N und es gilt ∞ ∞ ∞ ν Bnk = ν[Bnk ] ≥ nk = ∞ k=1
–
k=1
k=1
Im zweiten Fall ist die Folge {Bn }n∈N(m) monoton fallend. In diesem Fall gibt es entweder ein n ∈ N(m) mit ν[Bn ] = ∞ oder es gilt ν[Bn ] < ∞ f¨ ur alle n ∈ N(m) und aus Lemma 4.3.2 folgt ν Bn = lim ν[Bn ] ≥ lim n = ∞ n→∞
n→∞
n∈N(m)
Daher gibt es in jedem Fall ein B ∈ C mit ν[B] = ∞. Dies widerspricht der Annahme an ν. Daher ist ν + endlich.
60
Kapitel 4. Mengenfunktionen
(3) Zum Beweis der letzten Behauptung k¨ onnen wir wieder ohne Beschr¨ankung der Allgemeinheit annehmen, dass f¨ ur alle A ∈ C ν[A] < ∞ gilt. Dann ist ν + endlich. Sei nun A ∈ C. – Im Fall ν[A] = −∞ gilt ν − [A] = ∞ und damit ν[A] = ν + [A] − ν − [A] –
Im Fall ν[A] ∈ R gilt ν + [A] − ν[A] = sup ν[B] − ν[A] B∈C(A)
= sup
ν[B] − ν[A]
B∈C(A)
= sup (−ν[A \ B]) B∈C(A)
= sup (−ν[C]) C∈C(A)
= ν − [A] und damit ebenfalls ν[A] = ν + [A] − ν − [A] Damit ist auch die letzte Behauptung des Satzes gezeigt.
2
Der folgende Satz pr¨ azisiert die Jordan–Zerlegung eines signierten Maßes: ¯ ein 4.3.4 Satz (Hahn–Zerlegung). Sei C eine σ–Algebra und sei ν : C → R + − + signiertes Maß. Dann gibt es disjunkte Mengen Ω , Ω ∈ C mit Ω = Ω + Ω− sowie ν + [A] = ν[A ∩ Ω+ ] und
ν − [A] = − ν[A ∩ Ω− ]
f¨ ur alle A ∈ C. Beweis. Wir k¨ onnen ohne Beschr¨ ankung der Allgemeinheit annehmen, dass ν + endlich ist. Dann gibt es eine Folge {An }n∈N ⊆ C mit ν + [Ω] ≤ ν[An ] + 1/2n und wir setzen Ω+ := Ω− :=
∞ n∈N k=n ∞ n∈N k=n
Dann gilt Ω+ , Ω− ∈ C und Ω = Ω+ + Ω− .
Ak Ω \ Ak
4.3 Signierte Maße
61
Aus der Jordan–Zerlegung erhalten wir ν − [An ] = ν + [An ] − ν[An ] ≤ ν + [Ω] − ν[An ] ≤ 1/2n und aus Lemma 4.2.12 folgt nun ν
−
∞
Ak ≤
k=n
∞
ν − [Ak ] ≤
k=n
∞ 1 1 ≤ n−1 k 2 2
k=n
∞ Insbesondere gilt ν − [ k=1 Ak ] ≤ 1 < ∞ und aus Folgerung 4.2.6 ergibt sich nun ∞ ∞ ∞ − + − − ν [Ω ] = ν Ak = lim ν Ak = 0 n=1 k=n
n→∞
k=n
Ferner gilt ν + [An ] + ν + [Ω \ An ] = ν + [Ω] ≤ ν[An ] + 1/2n ≤ ν + [An ] + 1/2n Da ν + endlich ist, folgt daraus zun¨ achst ν+
∞
Ω \ Ak ≤ ν + [Ω \ An ] ≤ 1/2n
k=n
und sodann mit Lemma 4.2.4 ∞ ∞ ν + [Ω− ] = ν + Ω \ Ak = lim ν + Ω \ Ak = 0 n∈N k=n
n→∞
k=n
Aus der Jordan–Zerlegung erhalten wir nun f¨ ur alle A ∈ C ν + [A] = ν + [A ∩ Ω+ ] + ν + [A ∩ Ω− ] = ν + [A ∩ Ω+ ] = ν + [A ∩ Ω+ ] − ν − [A ∩ Ω+ ] = ν[A ∩ Ω+ ] und analog zeigt man ν − [A] = −ν[A ∩ Ω− ]. ¯ heißt Eine Mengenfunktion ν : C → R – endlich, wenn ν(C) ⊆ R gilt. – beschr¨ankt , wenn supA∈C |ν[A]| < ∞ gilt. Jede beschr¨ ankte Mengenfunktion ist endlich.
2
62
Kapitel 4. Mengenfunktionen
Aufgaben 4.3.A
Sei C eine σ–Algebra und seien ϕ, ψ : C → [0, ∞] Maße. Dann ist jede der Mengenfunktionen ϕ ∨ ψ, ϕ ∧ ψ : C → [0, ∞] mit “ ” (ϕ ∨ ψ)[A] := sup ϕ[B] + ψ[A \ B] B∈C(A)
(ϕ ∧ ψ)[A] :=
inf
B∈C(A)
“
” ϕ[B] + ψ[A \ B]
ein Maß. 4.3.B
Formulieren und beweisen Sie f¨ ur Inhalte Analoga zu den Aussagen von Aufgabe 4.3.A.
4.3.C
Formulieren und beweisen Sie f¨ ur signierte Maße geeignete Analoga zu den Aussagen von Aufgabe 4.3.A. Was ist hier zu beachten? ¯ ein signiertes Jordan–Zerlegung: Sei C eine σ–Algebra und sei ν : C → R Maß. Dann ist die Mengenfunktion |ν| : C → [0, ∞] mit ˛ ) ( n ˛ X ˛ |ν[Ak ]| ˛ n ∈ N, {Ak }k∈{1,...,n} ⊆ C disjunkt |ν|[A] := sup ˛
4.3.D
k=1
4.3.E
4.3.F
ein Maß und es gilt |ν| = ν + + ν − sowie ν + ∨ ν − = |ν| und ν + ∧ ν − = 0. Das Maß |ν| heißt die totale Variation von ν. ¯ ein signiertes Jordan–Zerlegung: Sei C eine σ–Algebra und ν : C → R Maß. Sind ϕ, ψ : C → [0, ∞] Maße mit ν = ϕ − ψ, so gilt ν + ≤ ϕ und ν − ≤ ψ; im Fall ϕ ∧ ψ = 0 gilt sogar ν + = ϕ und ν − = ψ. ¯ ein signiertes Maß. Hahn–Zerlegung: Sei C eine σ–Algebra und ν : C → R F¨ ur i ∈ {1, 2} seien Pi , Ni ∈ C Mengen mit Pi ∩ Ni = ∅ und Pi + Ni = Ω sowie ν + [A] = ν[A ∩ Pi ] ν − [A] = −ν[A ∩ Ni ]
4.3.G
f¨ ur alle A ∈ C. Dann gilt |ν|(P1 P2 ) = 0 = |ν|(N1 N2 ). ¯ ein signiertes Maß. Dann sind folgende Sei C eine σ–Algebra und ν : C → R Aussagen ¨ aquivalent: (a) ν ist endlich. (b) ν ist beschr¨ ankt.
5 Fortsetzung von Maßen
In diesem Kapitel untersuchen wir f¨ ur ein Maß auf einem Mengensystem, das die leere Menge enth¨ alt, die Existenz und Eindeutigkeit einer Fortsetzung zu einem Maß auf einer σ–Algebra, die das gegebene Mengensystem enth¨alt. Wir beginnen mit einem Eindeutigkeitssatz (Abschnitt 5.1). Als Vorbereitung zum Beweis eines Fortsetzungssatzes f¨ uhren wir dann ¨außere Maße ein und zeigen, dass es zu jedem ¨ außeren Maß eine σ–Algebra gibt, f¨ ur die die Restriktion des ¨ außeren Maßes ein Maß ist (Abschnitt 5.2). Wir beweisen sodann den Satz von Caratheodory u ¨ ber die Existenz und Eindeutigkeit einer Fortsetzung eines σ–endlichen Maßes von einem Halbring auf die von ihm erzeugte σ–Algebra (Abschnitt 5.3). Aus dem Fortsetzungssatz erhalten wir einen n¨ utzlichen Approximationssatz (Abschnitt 5.4) und das Lebesgue–Maß auf der Borelschen σ–Algebra des Euklidischen Raumes (Abschnitt 5.5). Im gesamten Kapitel sei Ω eine nichtleere Menge.
5.1 Eindeutigkeitssatz In diesem Abschnitt zeigen wir, dass ein σ–endliches Maß auf einem nichtleeren ∩–stabilen Mengensystem h¨ ochstens eine Fortsetzung auf die erzeugte σ–Algebra besitzt: 5.1.1 Satz (Eindeutigkeitssatz). Sei F ⊆ 2Ω eine σ–Algebra und sei E ⊆ 2Ω ein ∩–stabiles Mengensystem mit ∅ ∈ E und σ(E) = F . Sind μ, ν : F → [0, ∞] Maße mit μ|E = ν|E und ist μ|E σ–endlich, so gilt μ = ν und μ ist σ–endlich.
64
Kapitel 5. Fortsetzung von Maßen
Beweis. Da μ|E σ–endlich ist, gibt es eine Folge {En }n∈N ⊆ E mit En = Ω n∈N
und μ[En ] < ∞ f¨ ur alle n ∈ N. (1) F¨ ur E ∈ E mit μ[E] = ν[E] < ∞ sei DE := A ∈ F μ[E ∩ A] = ν[E ∩ A] Dann ist das Mengensystem DE ein Dynkin–System: (i) Es gilt Ω ∈ DE . (ii) Sei A ∈ DE . Wegen E ∩ A = E \ (E ∩ A) gilt μ[E ∩ A] = μ[E] − μ[E ∩ A] = ν[E] − ν[E ∩ A] = ν[E ∩ A] und damit A ∈ DE . (iii) Sei {An }n∈N ⊆ DE disjunkt. Dann gilt μ E∩ An = μ[E ∩ An ] = ν[E ∩ An ] = ν E ∩ An n∈N
n∈N
n∈N
n∈N
und damit n∈N An ∈ DE . Da E ∩–stabil ist, gilt E ⊆ DE und damit δ(E) ⊆ DE Da E ∩–stabil ist, gilt außerdem σ(E) = δ(E), und damit F = σ(E) = δ(E) ⊆ DE Damit ist gezeigt, dass f¨ ur alle E ∈ E mit μ[E] < ∞ und f¨ ur alle A ∈ F μ[E ∩ A] = ν[E ∩ A] gilt. (2) Wir betrachten nun die Folge {En }n∈N ⊆ E. F¨ ur alle n ∈ N0 sei Cn :=
n
Ek
k=1
und f¨ ur alle n ∈ N sei Bn := Cn \ Cn−1 Dann ist {Bn }n∈N eine disjunkte Folge in F mit n ∈ N gilt Bn ⊆ En .
n∈N
Bn = Ω, und f¨ ur alle
¨ 5.2 Außere Maße
65
(3) F¨ ur alle A ∈ F gilt wegen (2) A= Bn ∩ A = En ∩ Bn ∩ A n∈N
n∈N
und aus (1) folgt nun wegen μ[En ] < ∞ und Bn ∩ A ∈ F μ[A] =
∞
μ[En ∩ (Bn ∩ A)] =
n=1
∞
ν[En ∩ (Bn ∩ A)] = ν[A]
n=1
2
Damit ist gezeigt, dass μ = ν gilt. Aufgabe 5.1.A
Sei A ⊆ 2Ω eine Algebra mit σ(A) = F und seien μ, ν : F → [0, ∞] Maße mit μ[Ω] = ν[Ω] < ∞ und μ[A] ≤ ν[A] f¨ ur alle A ∈ A. Dann gilt μ = ν.
¨ 5.2 Außere Maße Eine Mengenfunktion : 2Ω → [0, ∞] heißt ¨außeres Maß , wenn sie folgende Eigenschaften besitzt: (i) Es gilt [∅] = 0. (ii) ist monoton. (iii) ist σ–subadditiv. Jedes Maß 2Ω → [0, ∞] ist ein ¨ außeres Maß, und jedes ¨außere Maß ist subadditiv. F¨ ur ein ¨ außeres Maß : 2Ω → [0, ∞] bestimmen wir nun eine σ–Algebra F () derart, dass die Restriktion von auf F () ein Maß ist. Da σ–subadditiv ist, gen¨ ugt es nach Lemma 4.2.12 zu zeigen, dass die Restriktion von auf F () ein Inhalt ist, und wegen [∅] = 0 gen¨ ugt es nach Lemma 4.1.2 zu zeigen, dass ¨ die Restriktion von auf F () additiv ist. Diese Uberlegung legt die folgende Definition nahe: F¨ ur ein ¨ außeres Maß : 2Ω → [0, ∞] sei F () := A ∈ 2Ω f¨ ur alle E ∈ 2Ω gilt [E] = [E ∩ A] + [E \ A] Wir bezeichnen das Mengensystem F () als System der additiven Zerleger bez¨ uglich . Da jedes ¨ außere Maß subadditiv ist, gilt ur alle E ∈ 2Ω gilt [E] ≥ [E ∩ A] + [E \ A] F () = A ∈ 2Ω f¨
66
Kapitel 5. Fortsetzung von Maßen
Der folgende Satz zeigt, dass das Mengensystem F () eine σ–Algebra ist und dass die Restriktion von auf F () ein Maß ist: 5.2.1 Satz. Sei : 2Ω → [0, ∞] ein ¨außeres Maß. Dann ist F () eine σ– Algebra und |F () ist ein Maß. Beweis. Wir untersuchen zun¨ achst das Mengensystem F (). Als erstes zeigen wir, dass F () ∩–stabil ist. Sei A, B ∈ F(). Dann gilt f¨ ur alle E ∈ 2Ω wegen E \ (A ∩ B) = (E ∩ A) \ B + (E \ A) ∩ B + (E \ A) \ B [E] ≤ [E ∩ (A ∩ B)] + [E \ (A ∩ B)] ≤ [(E ∩ A) ∩ B] + [(E ∩ A) \ B] + [(E \ A) ∩ B] + [(E \ A) \ B] = [E ∩ A] + [E \ A] = [E] und damit [E] = [E ∩ A ∩ B] + [E \ (A ∩ B)] Daher gilt A ∩ B ∈ F(). Damit ist gezeigt, dass F () ∩–stabil ist. Als n¨ achstes zeigen wir, dass F () ein Dynkin–System ist: (i) Es gilt Ω ∈ F(). (ii) F¨ ur alle A ∈ F() gilt A ∈ F(). (iii) Sei {Ak }k∈N ⊆ F() disjunkt. • Wir betrachten zun¨ achst die Menge A1 + A2 . Da F () ∩–stabil ist, ergibt sich aus (ii) und den Gesetzen von DeMorgan A1 +A2 ∈ F(); außerdem gilt f¨ ur alle E ∈ 2Ω [E ∩ (A1 +A2 )] = [E ∩ (A1 +A2 ) ∩ A1 ] + [E ∩ (A1 +A2 ) \ A1 ] = [E ∩ A1 ] + [E ∩ A2 ] •
Durch vollst¨ andige Induktion ergibt sich sodann und n n E∩ Ak = [E ∩ Ak ] k=1
n k=1
Ak ∈ F()
k=1
n f¨ ur alle n ∈ N. Aus der Monotonie von und k=1 Ak ∈ F() folgt nun n ∞ n ∞ [E ∩ Ak ] + E \ Ak = E ∩ Ak + E \ Ak k=1
k=1
≤ E∩
k=1 n k=1
= [E]
Ak + E \
k=1 n k=1
Ak
5.3 Existenzsatz
67
f¨ ur alle n ∈ N und E ∈ 2Ω , und damit ∞ ∞ [E ∩ Ak ] + E \ Ak ≤ [E] k=1
k=1
Ω
f¨ ur alle E ∈ 2 . Aus der σ–Subadditivit¨at von folgt sodann ∞ ∞ ∞ ∞ Ak + E \ Ak = E ∩ Ak + E \ Ak E∩ k=1
k=1
≤
k=1 ∞
[E ∩ Ak ] + E \
k=1
∞
k=1 ∞
Ak
k=1
≤ [E]
f¨ ur alle E ∈ 2Ω , und damit k=1 Ak ∈ F(). Damit ist gezeigt, dass F () ein Dynkin–System ist. Da F () ein ∩–stabiles Dynkin–System ist, ist F () eine σ–Algebra. Wir zeigen nun, dass die Mengenfunktion |F () : F () → [0, ∞] ein Inhalt ist: (i) Es gilt |F () [∅] = [∅] = 0. (ii) F¨ ur alle A, B ∈ F() mit A ∩ B = ∅ gilt A + B ∈ F() und damit |F () [A + B] = [A + B] = [(A+B) ∩ A] + [(A+B) \ A] = [A] + [B] = |F () [A] + |F () [B] Daher ist |F () ein Inhalt. Da |F () ein Inhalt ist und mit auch |F () σ–subadditiv ist, ist |F () nach Lemma 4.2.12 ein Maß. 2 Aufgabe 5.2.A
F¨ ur jedes ¨ außere Maß : 2Ω → [0, ∞] ist das Maß |F () : F( ) → [0, ∞] vollst¨ andig.
5.3 Existenzsatz Sei E ⊆ 2Ω ein Mengensystem mit ∅ ∈ E und sei μ : E → [0, ∞] eine Mengenfunktion mit μ[∅] = 0. Dann ist die Abbildung μ∗ : 2Ω → [0, ∞] mit μ∗ [A] :=
inf
{Ek }k∈N ⊆E, A⊆
∞ S k∈N
Ek
μ[Ek ]
k=1
eine Mengenfunktion. Der folgende Satz zeigt, dass μ∗ ein ¨außeres Maß ist:
68
Kapitel 5. Fortsetzung von Maßen
5.3.1 Lemma (Konstruktion eines ¨ außeren Maßes). Sei E ⊆ 2Ω ein Mengensystem mit ∅ ∈ E und sei μ : E → [0, ∞] eine Mengenfunktion mit μ[∅] = 0. Dann ist μ∗ ein ¨außeres Maß. ullt: Beweis. Wir zeigen, dass μ∗ die Axiome eines a¨ußeren Maßes erf¨ (i) Es gilt μ∗ [∅] = 0. (ii) F¨ ur alle A, B ∈ 2Ω mit B ⊆ A gilt μ∗ [B] ≤ μ∗ [A]. (iii) Sei {An }n∈N ⊆ 2Ω . Wir nehmen zun¨ achst an, dass f¨ ur alle n ∈ N μ∗ [An ] < ∞ gilt. Sei ε ∈ ur alle n ∈ N eine Folge {En,k }k∈N ⊆ E (0, ∞). Dann gibt es f¨ mit An ⊆ k∈N En,k und ∞
μ[En,k ] ≤ μ∗ [An ] + ε/2n
k=1
Daher gilt
∗
μ
∗
An ≤ μ
n∈N
≤ ≤ =
En,k
n∈N k∈N ∞ ∞
μ[En,k ]
n=1 k=1 ∞ ∗
μ [An ] + ε/2n
n=1 ∞
μ∗ [An ] + ε
n=1
Da ε ∈ (0, ∞) beliebig war, gilt ∞ ∗ μ An ≤ μ∗ [An ] n∈N
n=1
Diese Ungleichung gilt auch dann, wenn die Bedingung μ∗ [An ] < ∞ f¨ ur ein n ∈ N verletzt ist. Daher ist μ∗ σ–subadditiv. außeres Maß ist. 2 Damit ist gezeigt, dass μ∗ ein ¨ Lemma 5.3.1 enth¨ alt keine Aussage u ¨ ber die Beziehung zwischen der Mengenfunktion μ : E → [0, ∞] und der Restriktion μ∗ |E : E → [0, ∞] des von ihr erzeugten ¨ außeren Maßes enth¨ alt. Unter einer zus¨atzlichen Bedingung an das ¨ Mengensystem E erh¨ alt man jedoch die Ubereinstimmung von μ und μ∗ |E : 5.3.2 Satz (Existenzsatz). Sei E ⊆ 2Ω ein Halbring und sei μ : E → [0, ∞] ein Maß. Dann gilt E ⊆ F(μ∗ ) und μ∗ |E = μ. Insbesondere ist μ∗ |F (μ∗ ) ein Maß und eine Fortsetzung von μ.
5.3 Existenzsatz
69
Beweis. Aufgrund von Satz 4.2.3 k¨ onnen wir annehmen, dass E ein Ring ist. (1) Wir zeigen zun¨ achst, dass E ⊆ F(μ∗ ) gilt. Sei A ∈ E und E ∈ 2Ω . ∗ – Im Fall μ [E] < ∞ gibt es zu jedem ε ∈ (0, ∞) eine Folge {An }n∈N ⊆ E mit E ⊆ n∈N An und ∞
μ[An ] ≤ μ∗ [E] + ε
n=1
Es gilt E ∩ A ⊆ n∈N An ∩ A und E \ A ⊆ und μ ein Maß ist, ergibt sich daraus
n∈N
An \ A. Da μ∗ subadditiv
μ∗ [E] ≤ μ∗ [E ∩ A] + μ∗ [E \ A] ≤ = =
∞
μ[An ∩ A] +
n=1 ∞ n=1 ∞
∞
μ[An \ A]
n=1
μ[An ∩ A] + μ[An \ A]
μ[An ]
n=1 ∗
≤ μ [E] + ε Da ε beliebig war, erhalten wir μ∗ [E] = μ∗ [E ∩ A] + μ∗ [E \ A] –
Im Fall μ∗ [E] = ∞ gilt μ∗ [E] ≤ μ∗ [E ∩ A] + μ∗ [E \ A] und damit μ∗ [E] = μ∗ [E ∩ A] + μ∗ [E \ A]
Daher gilt f¨ ur alle E ∈ 2Ω μ∗ [E] = μ∗ [E ∩ A] + μ∗ [E \ A] und damit A ∈ F(μ∗ ). Damit ist gezeigt, dass E ⊆ F(μ∗ ) gilt. (2) Wir zeigen nun, dass μ∗ |E = μ gilt. Sei A ∈ E. Dann gilt μ∗ [A] ≤ μ[A] F¨ ur jede Folge {Ak }k∈N ⊆ E mit A ⊆ k∈N Ak gilt A = k∈N A ∩ Ak . Da E ∩–stabil ist, gilt A ∩ A
ur alle k ∈ N. Da μ σ–subadditiv und monoton k ∈ E f¨
∞ μ[A ∩ A ] ≤ ist, ergibt sich μ[A] ≤ ∞ k k=1 k=1 μ[Ak ] Daraus folgt
70
Kapitel 5. Fortsetzung von Maßen
μ[A] ≤ μ∗ [A] Daher gilt μ[A] = μ∗ [A] Damit ist gezeigt, dass μ∗ |E = μ gilt.
2
Aus dem Existenzsatz und dem Eindeutigkeitssatz ergibt sich nun der wichtige Existenz– und Eindeutigkeitssatz von Caratheodory: 5.3.3 Satz (Caratheodory). Sei E ⊆ 2Ω ein Halbring und sei μ : E → [0, ∞] ein σ–endliches Maß. Dann gibt es genau ein Maß μ : σ(E) → [0, ∞] mit ist σ–endlich und es gilt μ = μ∗ |σ(E) . μ |E = μ. Das Maß μ Beweis. Aus dem Existenzsatz folgt, dass E ⊆ F(μ∗ ) und damit auch σ(E) ⊆ F (μ∗ ) gilt und dass μ∗ |F (μ∗ ) ein Maß und eine Fortsetzung von μ auf F (μ∗ ) ist. Wegen σ(E) ⊆ F(μ∗ ) ist das Maß μ∗ |σ(E) eine Fortsetzung von μ auf σ(E). Da μ σ–endlich ist, folgt nun aus dem Eindeutigkeitssatz, dass μ∗ |σ(E) die einzige Fortsetzung von μ auf σ(E) ist und dass μ∗ |σ(E) σ–endlich ist. 2 Aufgaben 5.3.A
Caratheodory: Sei E ⊆ 2Ω ein Halbring und sei μ : E → [0, ∞] ein σ–endliches Maß. Dann gibt es genau ein Maß μ e : F(μ∗ ) → [0, ∞] mit e ist σ–endlich und es gilt μ e = μ∗ |F (μ∗ ) . μ e|E = μ. Das Maß μ
5.3.B
Vervollst¨ andigung: Sei E ⊆ 2Ω ein Halbring und sei μ : E → [0, ∞] ein andig. Maß. Dann ist das Maß μ∗ |F (μ∗ ) : F(μ∗ ) → [0, ∞] vollst¨
5.3.C
Vervollst¨ andigung: Sei E ⊆ 2Ω ein Halbring und sei μ : E → [0, ∞] ein σ–endliches Maß. Ist F0 ⊆ 2Ω eine σ–Algebra mit E ⊆ F0 und ist andiges Maß mit μ0 |E = μ, so gilt F(μ∗ ) ⊆ F0 μ0 : F0 → [0, ∞] ein vollst¨ und μ0 |F (μ∗ ) = μ∗ |F (μ∗ ) .
5.4 Approximationssatz Aus dem Satz von Caratheodory erh¨ alt man den folgenden Approximationssatz: 5.4.1 Satz (Approximationssatz). Sei F ⊆ 2Ω eine σ–Algebra und sei μ : F → [0, ∞] ein endliches Maß. Ist A ⊆ 2Ω eine Algebra mit σ(A) = F , so gibt es f¨ ur jede Menge A ∈ F eine Folge {Cn }n∈N ⊆ A mit lim μ[ACn ] = 0
n→∞
5.4 Approximationssatz
71
Beweis. Da A eine Algebra und μ endlich ist, ist insbesondere A ein Halbring und μ|A σ–endlich. Nach dem Satz von Caratheodory gilt daher μ = (μ|A )∗ |F Sei ε ∈ (0, ∞). Nach Konstruktion des ¨ außeren Maßes (μ|A )∗ gibt es eine Folge {Ek }k∈N ⊆ A mit A ⊆ k∈N Ek und μ|A [Ek ] ≤ (μ|A )∗ [A] + ε/2 k∈N
Daher gilt
Sei nun E :=
μ[Ek ] ≤ μ[A] + ε/2
k∈N
Ek . Da μ σ–subadditiv ist, ergibt sich nun μ[A] + μ[E \ A] = μ[E] ≤ μ[Ek ] ≤ μ[A] + ε/2 k∈N
k∈N
und aus der Endlichkeit von μ folgt dann μ[E \ A] ≤ ε/2
n
F¨ ur alle n ∈ N sei Cn := k=1 Ek . Dann ist {Cn }n∈N eine monoton wachsende Folge in A mit n∈N Cn = E, und {E \Cn }n∈N ist eine monoton fallende Folge in A mit n∈N E\Cn = ∅. Da μ ein endliches Maß ist, gilt inf n∈N μ[E\Cn ] = 0. Daher gibt es ein n ∈ N mit μ[E \ Cn ] ≤ ε/2 Wegen A ∪ Cn ⊆ E gilt μ[ACn ] = μ[A \ Cn ] + μ[Cn \ A] ≤ μ[E \ Cn ] + μ[E \ A] ≤ ε/2 + ε/2 = ε 2
Daraus folgt die Behauptung.
5.4.2 Folgerung. Sei F ⊆ 2Ω eine σ–Algebra und sei μ : F → [0, ∞] ein ur jede endliches Maß. Ist A ⊆ 2Ω eine Algebra mit σ(A) = F , so gibt es f¨ Menge A ∈ F eine Folge {Cn }n∈N ⊆ A mit lim μ[Cn ] = μ[A]
n→∞
Beweis. F¨ ur alle A, C ∈ 2Ω gilt μ[A] − μ[C] = μ[A \ C] − μ[C \ A] ≤ μ[A \ C] + μ[C \ A] = μ[AC] und damit |μ[A] − μ[C]| = μ[AC] Die Behauptung folgt nun aus dem Approximationssatz.
2
72
Kapitel 5. Fortsetzung von Maßen
Aufgabe 5.4.A
Sei F ⊆ 2Ω eine σ–Algebra und sei μ : F → [0, ∞] ein endliches Maß. Ist ur jede Menge A ∈ F eine A ⊆ 2Ω eine Algebra mit σ(A) = F, so gibt es f¨ Folge {Cn }n∈N ⊆ A mit lim dμ (A, Cn ) = 0
n→∞
5.5 Lebesgue–Maß Auf dem Halbring J (Rn ) der halboffenen Intervalle des Rn wird in nat¨ urlicher Weise durch ⎧ n ⎪ ⎨ (bi − ai ) falls a < b n λ [(a, b]] := i=1 ⎪ ⎩ 0 sonst eine Mengenfunktion λn : J (Rn ) → [0, ∞] definiert. Ziel dieses Abschnitts ist es zu zeigen, dass diese Mengenfunktion ein Maß ist und eine eindeutige Fortsetzung zu einem Maß auf der Borelschen σ–Algebra B(Rn ) besitzt. Wir ben¨ otigen die folgende Definition: Eine Menge H ⊆ Rn heißt Halbraum, wenn es ein j ∈ {1, . . . , n} und ein z ∈ R gibt derart, dass H = x ∈ Rn xj ≤ z gilt. Das folgende Lemma zeigt, dass je zwei disjunkte halboffene Intervalle durch einen Halbraum getrennt werden: 5.5.1 Lemma. F¨ ur alle J1 , J2 ∈ J (Rn ) mit J1 ∩ J2 = ∅ gibt es einen Halbn raum H ⊆ R derart , dass entweder J1 ∩ H = J1 und J2 ∩ H = ∅ oder J2 ∩ H = J2 und J1 ∩ H = ∅ gilt. Beweis. Im Fall J1 = ∅ oder J2 = ∅ ist nichts zu zeigen. Sei nun J1 = ∅ und J2 = ∅. Dann gibt es a, b, c, d ∈ Rn mit a < b und c < d sowie J1 = (a, b] J2 = (c, d] und wegen J1 ∩ J2 = ∅ gibt es ein j ∈ {1, . . . , n} mit bj ≤ cj oder dj ≤ aj . Wir k¨ onnen ohne Beschr¨ ankung der Allgemeinheit annehmen, dass bj ≤ cj und damit [bj , cj ] =
∅ gilt. Wir w¨ ahlen nun ein z ∈ [bj , cj ] und setzen H := x ∈ Rn xj ≤ z Dann ist H ein Halbraum und es gilt J1 ∩ H = J1 und J2 ∩ H = ∅.
2
5.5 Lebesgue–Maß
73
5.5.2 Lemma. F¨ ur jedes Intervall J ∈ J (Rn ) und jeden Halbraum H ⊆ Rn n gilt J ∩ H ∈ J (R ) und J \ H ∈ J (Rn ) sowie λn [J] = λn [J ∩ H] + λn [J \ H] Beweis. Im Fall J ∩ H = ∅ oder J \ H = ∅ ist nichts zu zeigen. Sei nun J ∩ H = ∅ und J \ H = ∅. Dann gibt es a, d ∈ Rn mit a < d und J = (a, d] sowie ein j ∈ {1, . . . , n} und ein z ∈ R mit H = x ∈ Rn xj ≤ z Wegen J ∩H = ∅ und J \H = ∅ gilt aj durch z bi := di z ci := ai
< z < dj . Wir definieren nun b, c ∈ Rn falls i = j sonst falls i = j sonst
Dann gilt J ∩ H = (a, b] ∈ J (Rn ) und J \ H = (c, d] ∈ J (Rn ) und damit λn [J] = λn [(a, d]] =
n
(di −ai )
i=1
= (dj −aj )
(di −ai )
i∈{1,...,n}\{j}
= (z −aj )
i∈{1,...,n}\{j}
= (bj −aj ) n i=1
(bi −ai ) +
n
(di −ai )
i∈{1,...,n}\{j}
(bi −ai ) + (dj −cj )
i∈{1,...,n}\{j}
=
(di −ai ) + (dj −z)
(di −ci )
i∈{1,...,n}\{j}
(di −ci )
i=1
= λn [(a, b]] + λn [(c, d]] = λn [J ∩ H] + λn [J \ H] Damit ist die Behauptung gezeigt. 5.5.3 Lemma. Die Mengenfunktion λn ist ein σ–endliches Maß.
2
74
Kapitel 5. Fortsetzung von Maßen
Beweis. Wir zeigen zun¨ achst, dass λn ein Inhalt ist. n (i) Es gilt λ [∅] = 0. (ii) F¨ ur
alle m ∈ N und f¨ ur jede disjunkte Familie {Jk }k∈{1,...,m} ⊆ J (Rn ) m n mit k=1 Jk ∈ J (R ) gilt m m n λ Jk = λn [Jk ] k=1
k=1
Wir f¨ uhren den Beweis dieser Behauptung durch vollst¨andige Induktion: • m = 1: In diesem Fall ist nichts zu zeigen. • m → m + 1: Wir nehmen an, die Behauptung sei f¨ ur m bereits bewiesen, und betrachten eine disjunkte Familie {Jk }k∈{1,...,m+1} ⊆
m+1 n J (Rn ) mit k=1 Jk ∈ J (R ). Nach Lemma 5.5.1 gibt es einen n Halbraum H ⊆ R mit Jm ∩ H = Jm und Jm+1 ∩ H = ∅ oder Jm+1 ∩ H = Jm+1 und Jm ∩ H = ∅. Wir k¨onnen ohne Beschr¨ankung der Allgemeinheit annehmen, dass Jm ∩ H = Jm und Jm+1 ∩ H = ∅ gilt. Dann gilt m+1
m−1
Jk ∩ H =
k=1 m+1
(Jk ∩ H) + Jm
k=1 m−1
Jk \ H =
(Jk \ H) + Jm+1
k=1
k=1
Aus der Voraussetzung folgt nun mit Lemma 5.5.2 m+1 n Jk λ k=1 m+1 n
=λ
=λ
n
k=1 m−1
Jk ∩ H + λ
n
m+1
=
m−1
Jk ∩ H + Jm + λ
n
λn [Jk ∩ H] + λn [Jm ] +
k=1 m−1
m−1
Jk \ H + Jm+1
k=1 m−1
λn [Jk \ H] + λn [Jm+1 ]
k=1
λn [Jk ∩ H] + λn [Jk \ H] + λn [Jm ] + λn [Jm+1 ]
k=1
=
Jk \ H
k=1
k=1
=
m+1
λn [Jk ]
k=1
Damit ist gezeigt, dass λn ein Inhalt ist.
5.5 Lebesgue–Maß
75
Wir zeigen nun, dass λn sogar ein Maß ist. Da J (Rn ) ein Halbring ist und λn ein Inhalt ist, gen¨ ugt es nach Lemma 4.2.12 zu zeigen, dass λn σ–subadditiv n ist. Sei J ∈ J (R ) und sei {Jk }k∈N ⊆ J (Rn ) eine Folge mit J⊆ Jk k∈N
Wegen λn [∅] = 0 gen¨ ugt es, den Fall zu betrachten, in dem J = ∅ und Jk = ∅ f¨ ur alle k ∈ N gilt. Dann gibt es a, b ∈ Rn mit a < b und J = (a, b] und f¨ ur alle k ∈ N gibt es ak , bk ∈ Rn mit ak < bk und Jk = (ak , bk ] Sei ε ∈ (0, ∞). Dann gibt es ein aε ∈ (a, b) mit λn [(a, b]] ≤ λn [(aε , b]] +
ε 2
und f¨ ur jedes k ∈ N gibt es ein bεk ∈ (bk , ∞) mit λn [(ak , bεk ]] ≤ λn [(ak , bk ]] +
ε 2k+1
Es gilt [aε , b] ⊆ (a, b] = J ⊆
Jk =
k∈N
(ak , bk ] ⊆
k∈N
(ak , bεk )
k∈N
Da einerseits das Intervall [aε , b] abgeschlossen und beschr¨ankt und damit nach dem Satz von Heine/Borel kompakt ist und andererseits jedes der Intervalle (ak , bεk ) offen ist, gibt es eine endliche Menge K ⊆ N mit
[aε , b] ⊆
(ak , bεk )
k∈K
Daher gilt (aε , b] ⊆ [aε , b] ⊆
(ak , bεk ) ⊆
k∈K
(ak , bεk ]
k∈K
Da λ ein Inhalt und damit subadditiv ist, ergibt sich nun λn [(aε , b]] ≤ λn [(ak , bεk ]] n
≤
k∈K ∞
λn [(ak , bεk ]]
k=1
76
Kapitel 5. Fortsetzung von Maßen
≤ =
∞ k=1 ∞
λ [(ak , bk ]] +
ε
n
λn [Jk ] +
k=1
!
2k+1
ε 2
und damit λn [J] = λn [(a, b]] ε 2 ∞ ε ε λn [Jk ] + + ≤ 2 2 ≤ λn [(aε , b]] +
=
k=1 ∞
λn [Jk ] + ε
k=1
Da ε beliebig war, folgt daraus λn [J] ≤
∞
λn [Jk ]
k=1
Damit ist gezeigt, dass λ σ–subadditiv und damit ein Maß ist. Wir zeigen abschließend, dass λn σ–endlich ist. Es gilt (−k1, k1] = Rn n
k∈N
und f¨ ur alle k ∈ N gilt (−k1, k1] ∈ J (Rn ) und λn [(−k1, k1]] = (2k)n < ∞. 2 Damit ist gezeigt, dass λn σ–endlich ist. 5.5.4 Satz. Die Mengenfunktion λn besitzt eine eindeutige Fortsetzung zu einem Maß auf B(Rn ) und die Fortsetzung ist σ–endlich. Beweis. Nach Lemma 5.5.3 ist die Mengenfunktion λn : J (Rn ) → [0, ∞] ein σ–endliches Maß. Da das Mengensystem J (Rn ) ein Halbring ist, folgt die Behauptung aus dem Satz von Caratheodory. 2 Das nach dem letzten Satz eindeutig bestimmte Maß B(Rn ) → [0, ∞], das die Mengenfunktion λn : J (Rn ) → [0, ∞] fortsetzt, heißt (n–dimensionales) Lebesgue–Maß und wird wieder mit λn bezeichnet. Im Fall n = 1 schreiben wir λ anstelle von λ1 . Das Lebesgue–Maß ist σ–endlich, aber es ist nicht endlich, denn es gilt λn (Rn ) = ∞.
5.5 Lebesgue–Maß
77
5.5.5 Folgerung. F¨ ur alle a, b ∈ Rn gilt (a, b) ∈ B(Rn ) und [a, b] ∈ B(Rn ), und f¨ ur jede Menge B ∈ B(Rn ) mit (a, b) ⊆ B ⊆ [a, b] gilt λn [B] = λn [(a, b]]. Beweis. Sei zun¨ achst {bk }k∈N ⊆ (a, b) eine monoton wachsende Folge mit b = sup bk k∈N
Dann ist {(a, bk ]}k∈N eine monoton wachsende Folge in B(Rn ) mit (a, b) = (a, bk ] k∈N
Daher gilt (a, b) ∈ B(Rn ) und λn [(a, b)] = sup λn [(a, bk ]] k∈N
= sup
n (bki − ai )
k∈N i=1
=
n
(bi − ai )
i=1
= λn [(a, b]] Sei nun {ak }k∈N ⊆ R eine monoton wachsende Folge mit a = sup ak k∈N
Dann ist {(ak , b]}k∈N eine monoton fallende Folge in B(Rn ) mit [a, b] = (ak , b] k∈N
Daher gilt [a, b] ∈ B(Rn ) und λn [[a, b]] = inf λn [(ak , b]] k∈N
= inf
n
k∈N
=
n
(bi −aki )
i=1
(bi −ai )
i=1
= λn [(a, b]] Die Behauptung f¨ ur B ∈ B(Rn ) folgt nun aus der Gleichung λn [(a, b)] = n n 2 λ [(a, b]] = λ [[a, b]] und der Monotonie von λn .
78
Kapitel 5. Fortsetzung von Maßen
5.5.6 Folgerung. F¨ ur alle x ∈ Rn gilt {x} ∈ B(Rn ) und λn [{x}] = 0. 5.5.7 Folgerung. F¨ ur jede abz¨ahlbare Menge A ∈ 2R gilt A ∈ B(Rn ) und n λ [A] = 0. n
Wir geben abschließend ein Beispiel f¨ ur eine λ–Nullmenge, die nicht abz¨ahlbar ist: 5.5.8 Beispiel (Cantor–Menge). Sei Z das System aller Teilmengen von [0, 1], die als Vereinigung von endlich vielen disjunkten abgeschlossenen (und nichtleeren) Intervallen dargestellt werden k¨ onnen, und sei Ψ : Z → Z gegeben durch ! » – » –! m m X X 2ai + bi ai + 2bi , bi [ai , bi ] := ai , + Ψ 3 3 i=1 i=1 Dann gilt Z ⊆ B(R) und die Abbildung Ψ ist wohldefiniert. F¨ ur alle A ∈ Z gilt Ψ(A) ⊆ A und λ[Ψ(A)] =
2 λ[A] 3
F¨ ur alle n ∈ N sei Cn := Ψn ([0, 1]) Dann ist {Cn }n∈N eine monoton fallende Folge in B(Rn ) und es gilt „ «n 2 λ[Cn ] = 3 Sei C :=
\
Cn
n∈N
Dann gilt C ∈ B(R) sowie C = ∅ und λ[C] = 0 Die Menge C heißt Cantor–Menge. Wir zeigen in Beispiel 12.1.13, dass die Cantor– Menge nicht abz¨ ahlbar ist.
Aufgaben 5.5.A
Vervollst¨ andigung: Das n–dimensionale Lebesgue–Maß besitzt eine eindeutige Fortsetzung zu einem vollst¨ andigen Maß auf F((λn )∗ ). Die Fortsetzung ist σ–endlich.
5.5.B
Cantor–Menge:. Die Cantor–Menge ist kompakt.
6 Transformation von Maßen
In diesem Kapitel behandeln wir die Transformation von Maßen unter messbaren Abbildungen und insbesondere die Transformation des Lebesgue–Maßes unter einer affinen Abbildung im Euklidischen Raum. Als erstes zeigen wir, dass eine messbare Abbildung jedem Maß auf ihrem Definitionsbereich ein Maß auf ihrem Bildbereich zuordnet; dies ist ein grundlegendes Ergebnis, das gleichzeitig die Bedeutung der Messbarkeit beleuchtet (Abschnitt 6.1). Als n¨ achstes betrachten wir die Translationsinvarianz von Maßen auf der Borelschen σ–Algebra des Euklidischen Raumes und erhalten einerseits eine Charakterisierung des Lebesgue–Maßes unter den translationsinvarianten Maßen und andererseits die Aussage, dass das Lebesgue–Maß nicht zu einem translationsinvarianten Maß auf der Potenzmenge des Euklidischen Raumes fortgesetzt werden kann (Abschnitt 6.2). Abschließend bestimmen wir das Bild des Lebesgue–Maßes unter einer linearen oder affinen Abbildung des Euklidischen Raumes (Abschnitt 6.3).
6.1 Bildmaße Sind (Ω, F ) und (Ω , F ) Messr¨ aume und ist f : Ω → Ω messbar, so ist wegen −1 f (F ) ⊆ F f¨ ur jede Mengenfunktion μ : F → [0, ∞] die Mengenfunktion μf : F → [0, ∞] mit μf [A ] := μ[f −1 (A )] wohldefiniert. Ist μ ein Maß, so heißt μf Bildmaß von μ unter f ; diese Bezeichnung wird durch das folgende Lemma gerechtfertigt: 6.1.1 Lemma. Seien (Ω, F ) und (Ω , F ) Messr¨aume und sei f : Ω → Ω messbar. Dann ist f¨ ur jedes Maß μ : F → [0, ∞] auch μf ein Maß.
80
Kapitel 6. Transformation von Maßen
Beweis. Es gilt μf [∅] = μ[f −1 (∅)] = μ[∅] = 0 und f¨ ur jede disjunkte Folge {Ak }k∈N ⊆ F gilt ∞ ∞ −1 μf Ak = μ f Ak k=1
=μ
k=1 ∞
f
−1
(Ak )
k=1
= =
∞ k=1 ∞
μ[f −1 (Ak )] μf [Ak ]
k=1
2
Daher ist μf ein Maß.
Lemma 6.1.1 zeigt, dass die Messbarkeit einer Abbildung zwischen zwei Messr¨ aumen es der Abbildung erm¨ oglicht, ein Maß von ihrem Definitionsbereich in ihren Bildbereich zu transportieren. Das folgende Lemma zeigt, dass das Bildmaß unter einer Komposition von messbaren Abbildungen iterativ bestimmt werden kann: 6.1.2 Lemma. Seien (Ω, F ), (Ω , F ) und (Ω , F ) Messr¨aume und seien ur jedes Maß μ : F → [0, ∞] f : Ω → Ω und g : Ω → Ω messbar. Dann gilt f¨ μ(g◦f ) = (μf )g Beweis. Mit f und g ist auch g ◦ f messbar und f¨ ur alle A ∈ F gilt μ(g◦f ) [A ] = μ[(g ◦ f )−1 (A )] = μ[f −1 (g −1 (A ))] = μf [g −1 (A )] = (μf )g [A ] Damit ist die Behauptung gezeigt.
2
6.2 Translationsinvariante Maße auf B(Rn) F¨ ur c ∈ Rn heißt die Abbildung Tc : Rn → Rn mit Tc (x) := c + x Translation bez¨ uglich c. Jede Translation ist bijektiv und stetig und damit −1 (B) ∈ B(Rn ). messbar. F¨ ur alle c ∈ Rn und B ∈ B(Rn ) gilt daher c+ B = T−c
6.2 Translationsinvariante Maße auf B(Rn )
81
Ein Maß μ : B(Rn ) → [0, ∞] heißt translationsinvariant , wenn f¨ ur alle c ∈ Rn μTc = μ gilt. 6.2.1 Lemma. F¨ ur ein Maß μ : B(Rn ) → [0, ∞] sind folgende Aussagen ¨aquivalent : (a) μ ist translationsinvariant. (b) F¨ ur alle c ∈ Rn und B ∈ B(Rn ) gilt μ[c+B] = μ[B]. Beweis. Sei μ translationsinvariant. Dann gilt f¨ ur alle c ∈ Rn und B ∈ B(Rn ) −1 μ[c+B] = μ[Tc (B)] = μ[T−c (B)] = μT−c [B] = μ[B]
Gilt andererseits f¨ ur alle c ∈ Rn und B ∈ B(Rn ) die Gleichung μ[c+B] = μ[B], so erh¨ alt man μTc [B] = μ[Tc−1 (B)] = μ[T−c (B)] = μ[(−c)+B] = μ[B] und damit μTc = μ f¨ ur alle c ∈ Rn .
2
Wir wenden uns nun dem Lebesgue–Maß zu: 6.2.2 Satz. Das Lebesgue–Maß ist translationsinvariant. Beweis. Das Mengensystem J (Rn ) ist ein ∩–stabiler Erzeuger der Borelschen σ–Algebra B(Rn ) und die Restriktion λn |J (Rn ) des Lebesgue–Maßes ur alle c ∈ Rn auf J (Rn ) ist σ–endlich. Wir zeigen nun, dass f¨ λnTc |J (Rn ) = λn |J (Rn ) gilt. Aus dem Eindeutigkeitssatz folgt dann λnTc = λn . Sei also c ∈ Rn . Dann gilt λnTc [∅] = λn [∅], und f¨ ur alle a, b ∈ Rn mit a < b gilt λnTc [(a, b]] = λn [Tc−1 ((a, b])] = λn [(a−c, b−c]] n (bi −ci ) − (ai −ci ) = =
i=1 n
(bi −ai )
i=1 n
= λ [(a, b]] Damit ist die Behauptung gezeigt.
2
82
Kapitel 6. Transformation von Maßen
Wir zeigen nun, dass das Lebesgue–Maß unter allen translationsinvarianten Maßen auf B(Rn ) durch eine einfache Normierungsbedingung ausgezeichnet ist. 6.2.3 Lemma. Sei μ : B(Rn ) → [0, ∞] ein translationsinvariantes Maß mit μ[(0, 1]] < ∞. Dann gilt μ = μ[(0, 1]] · λn Beweis. F¨ ur m ∈ N betrachten wir die Familie
n ki − 1 ki " , Wm := k1 , . . . , kn ∈ {1, . . . , m} m m i=1 Da μ translationsinvariant ist und jeder der mn W¨ urfel der Familie Wm durch Translation aus jedem anderen W¨ urfel der Familie Wm gewonnen werden kann, gibt es ein cm ∈ [0, ∞] derart, dass f¨ ur alle W ∈ Wm μ[W ] = cm gilt. Andererseits gilt f¨ ur alle W ∈ Wm λn [W ] =
1 mn
Da μ additiv ist und die disjunkte Vereinigung aller W¨ urfel aus Wm mit dem Intervall (0, 1] u alt man ¨bereinstimmt, erh¨ n μ[W ] = μ W = μ[(0, 1]] = c1 m cm = W ∈W
W ∈W
Daher gilt f¨ ur alle W ∈ Wm μ[W ] = cm = c1
1 = c1 λn [W ] mn
F¨ ur m ∈ N betrachten wir nun die Familie # 1 n Vm := (a, b] ∈ J (R ) bi −ai = f¨ ur alle i ∈ {1, . . . , n} m Unter nochmaliger Verwendung der Translationsinvarianz von μ erhalten wir f¨ ur alle V ∈ Vm μ[V ] = c1 λn [V ] Da sich jede Menge aus J (Qn ) als Vereinigung einer endlichen disjunkten Familie von Mengen aus Vm mit hinreichend großem m ∈ N darstellen, gilt auch f¨ ur alle J ∈ J (Qn )
6.2 Translationsinvariante Maße auf B(Rn )
83
μ[J] = c1 λn [J] Es gilt also μ|J (Qn ) = c1 λn |J (Qn ) Außerdem ist λn |J (Qn ) σ–endlich und das Mengensystem J (Qn ) ist ein Halbring mit σ(J (Qn )) = B(Rn ); vgl. Aufgabe 1.5.D. Aus dem Eindeutigkeitssatz folgt nun μ|B(Rn ) = c1 λn |B(Rn ) Damit ist das Lemma bewiesen.
2
Ein analoges Ergebnis erh¨ alt man, wenn man den halboffenen W¨ urfel (0, 1] durch den abgeschlossenen W¨ urfel [0, 1] ersetzt: 6.2.4 Folgerung. Sei μ : B(Rn ) → [0, ∞] ein translationsinvariantes Maß mit μ[[0, 1]] < ∞. Dann gilt μ = μ[[0, 1]] λn Beweis. Wegen μ[(0, 1]] ≤ μ[[0, 1]] < ∞ folgt aus Lemma 6.2.3 μ = μ[(0, 1]] λn Aus Folgerung 5.5.5 ergibt sich ferner λn [[0, 1]] = λn [(0, 1]] = 1. Dann gilt aber μ[[0, 1]] = μ[(0, 1]] · λn [[0, 1]] = μ[(0, 1]] und damit μ = μ[[0, 1]] λn Damit ist die Folgerung bewiesen.
2
Damit gelangen wir zu der angek¨ undigten Charakterisierung des Lebesgue– Maßes: 6.2.5 Satz. Das Lebesgue–Maß ist das einzige translationsinvariante Maß μ : B(Rn ) → [0, ∞] mit μ[[0, 1]] = 1. Wir zeigen abschließend, dass das Lebesgue–Maß keine translationsinvariante Fortsetzung auf der Potenzmenge des Rn besitzt: 6.2.6 Satz. Das Lebesgue–Maß besitzt keine Fortsetzung zu einem transn lationsinvarianten Maß auf 2R . ¨ Beweis. F¨ ur x, y ∈ Rn sei x ∼ y falls x−y ∈ Qn . Dann ist ∼ eine Aquivalenz¨ von Rn relation auf Rn und wir bezeichnen die Menge aller Aquivalenzklassen
84
Kapitel 6. Transformation von Maßen
¨ bez¨ uglich ∼ mit Rn /∼ . Da jede Aquivalenzklasse in Rn /∼ ein Element in (0, 1] ¨ enth¨ alt, bilden die Durchschnitte der Aquivalenzklassen in Rn /∼ mit (0, 1] eine disjunkte Familie von nichtleeren Teilmengen von (0, 1], deren Vereinigung gleich (0, 1] ist. Nach dem Auswahlaxiom gibt es eine Menge Z ⊆ (0, 1] derart, dass Z aus ¨ jeder Aquivalenzklasse von Rn /∼ (bzw. aus ihrem Durchschnitt mit (0, 1]) genau ein Element enth¨ alt. Dann gilt Rn = (z + Qn ) = {z + q} = (q + Z) z∈Z
z∈Z q∈Qn
und wegen Z ⊆ (0, 1] gilt
q∈Qn
(q+Z) ⊆ (0, 2]n
T q∈Qn (0,1]
Wir nehmen nun an, dass es ein translationsinvariantes Maß μ : 2R → [0, ∞] ur alle q ∈ Qn mit μ|B(Rn ) = λn gibt. Dann gilt f¨ n
μ[q+Z] = μ[Z] Aus
T q∈Qn (0,1]
μ[Z] =
T q∈Qn (0,1]
folgt μ[Z] = 0 und damit λn [Rn ] = μ[Rn ] =
μ[q+Z] ≤ μ[(0, 2]n ] = λn [(0, 2]n ] < ∞
μ[q+Z] =
q∈Qn
μ[Z] = 0
q∈Qn
2
Dies ist ein Widerspruch.
Da das Lebesgue–Maß nach Satz 6.2.2 ein translationsinvariantes Maß auf der Borelschen σ–Algebra B(Rn ) ist, ergibt sich aus dem letzten Satz die folgende offensichtliche Folgerung: 6.2.7 Folgerung. Es gilt B(Rn ) = 2R . n
Die letzten Ergebnisse zeigen, dass es nicht immer m¨oglich ist, ein Maß mit gewissen zus¨ atzlichen Eigenschaften auf der Potenzmenge der Grundmenge zu definieren. Dies ist einer der Gr¨ unde daf¨ ur, Maße zu betrachten, die auf einer σ–Algebra oder einem allgemeineren Mengensystem definiert sind. Aufgaben 6.2.A
Sei (Ω, F) ein Messraum und sei μ : F → [0, ∞] ein σ–endliches Maß. Sei ur alle i ∈ I. Dann ist I abz¨ ahlbar. {Ai }i∈I ⊆ F disjunkt mit μ[Ai ] > 0 f¨
6.2.B
Hyperebenen: Eine Menge H ⊆ Rn heißt Hyperebene des Rn , wenn es einen Unterraum E ⊆ Rn und einen Vektor d ∈ Rn gibt mit dim(E) ≤ n−1 und H = d + E. F¨ ur jede Hyperebene H ⊆ Rn gilt λn [H] = 0.
6.3 Lineare Abbildungen des Lebesgue–Maßes
85
6.3 Lineare Abbildungen des Lebesgue–Maßes Das folgende Ergebnis zeigt, dass das Bildmaß des Lebesgue–Maßes λn unter einer invertierbaren linearen Abbildung Rn → Rn sich nur um einen strikt positiven Faktor vom Lebesgue–Maß λn unterscheidet. 6.3.1 Satz. Sei T : Rn → Rn gegeben durch T (x) := Dx mit einer invertierbaren Matrix D ∈ Rn×n . Dann gilt λnT =
1 λn | det(D)|
Beweis. Wir zeigen, dass das Maß λnT translationsinvariant ist mit λnT [(0, 1]] =
1 | det(D)|
Aus Lemma 6.2.3 folgt dann die Behauptung des Satzes. (1) Das Maß λnT ist translationsinvariant: Sei c ∈ Rn und B ∈ B(Rn ). Da λn translationsinvariant ist, gilt nach Lemma 6.2.1 λnT [c+B] = λn [T −1 (c+B)] = λn [T −1 (c)+T −1 (B)] = λn [T −1 (B)] = λnT [B] und aus demselben Lemma folgt nun, dass λnT translationsinvariant ist. (2) Es gilt λnT [(0, 1]n ] = (det(D))−1 : F¨ ur k ∈ {n−2, n−1, n} sei W k := (0, 1]k Wir zeigen, dass f¨ ur jede invertierbare Matrix D ∈ Rn×n λn [D−1 (W n )] =
1 | det(D)|
gilt. Wir betrachten zun¨ achst drei Spezialf¨ alle, wobei im Fall n = 1 nur der zweite Spezialfall auftreten kann. – Sei D eine Permutationsmatrix. Dann gilt einerseits | det(D)| = 1 und andererseits D−1 (W n ) = W n und damit λn [D−1 (W n )] = λn [W n ] = 1. Daher gilt λn [D−1 (W n )] =
1 | det(D)|
86
–
Kapitel 6. Transformation von Maßen
Sei D eine Elementarmatrix der Form ! ⎞ ⎛ c 0 O ⎠ D=⎝ 0 1 O I mit c ∈ R \ {0}. Dann gilt | det(D)| = |c| = 0 und wegen ⎛ −1 ! ⎞ c 0 O ⎠ D−1 = ⎝ 0 1 O I gilt
−1
D
n
(W ) =
(0, c−1 ] × W n−1 [c
−1
, 0) × W
n−1
falls c > 0 falls c < 0
und damit λn [D−1 (W n )] = |c−1 |. Daher gilt λn [D−1 (W n )] = –
1 | det(D)|
Wir betrachten abschließend die Elementarmatrix ! ⎞ ⎛ 1 1 O ⎠ D=⎝ 0 1 O I Dann gilt | det(D)| = 1 und ⎛ D−1 = ⎝
1 −1 0 1 O
!
⎞ O
⎠
I
und damit 1 −1 0 1
D−1 (W n ) := D−1 (W 2 × W n−2 ) = Wir betrachten daher die Matrix 1 1
!
D2 :=
1 0
D−1 2
1 −1 0 1
und ihre Inverse =
!
!
! (W 2 ) × W n−2
6.3 Lineare Abbildungen des Lebesgue–Maßes
87
2 Zur Bestimmung von D−1 2 (W ) setzen wir ! −1 a1 := 1 ! 0 a2 := 1 ! 1 a3 := 1 ! 0 a4 := 0 ! 1 a5 := 0
sowie
A1 := cx{a1 , a2 , a4 } \ cx{a1 , a4 } A2 := cx{a2 , a4 , a5 } \ cx{a2 , a4 } ∪ cx{a4 , a5 } A3 := cx{a2 , a3 , a5 } \ cx{a2 , a5 } A4 := cx{a2 , a3 , a4 } \ cx{a2 , a4 } A5 := cx{a3 , a4 , a5 } \ cx{a3 , a4 } ∪ cx{a4 , a5 }
wobei cx(A) die konvexe H¨ ulle einer Menge A bezeichnet. Dann gilt A1 , A2 , A3 , A4 , A5 ∈ B(Rn ) sowie A2 + A3 = W 2 = A4 + A5 Des weiteren gilt D−1 2 a2 = a1 D−1 2 a3 = a2 D−1 2 a4 = a4 D−1 2 a5 = a5 und damit D−1 2 (A4 ) = A1 D−1 2 (A5 ) = A2 Aufgrund der Translationsinvarianz Lebesgue–Maßes gilt λ2 [A1 ] = λ2 [A3 ] und damit 2 −1 2 λ2 [D−1 2 (W )] = λ [D2 (A4 +A5 )]
88
Kapitel 6. Transformation von Maßen −1 = λ2 [D−1 2 (A4 ) + D2 (A5 )]
= λ2 [A1 +A2 ] = λ2 [A1 ] + λn [A2 ] = λ2 [A3 ] + λn [A2 ] = λ2 [A3 +A2 ] = λ2 [W 2 ] =1 Daher gilt auch in diesem Fall λn [D−1 (W n )] =
1 | det(D)|
Nach Proposition C.1.1 ist jede invertierbare Matrix ein Produkt von Permutationsmatrizen und Elementarmatrizen der vorher betrachteten Art. Aus dem Gezeigten folgt daher, dass f¨ ur jede invertierbare Matrix D ∈ Rn×n λn [D−1 (W n )] =
1 | det(D)| 2
gilt. Damit ist (2) gezeigt. Die S¨ atze 6.2.2 und 6.3.1 lassen sich nun wie folgt zusammenfassen: 6.3.2 Folgerung. Sei T : Rn → Rn gegeben durch T (x) := c + Dx mit c ∈ Rn und einer invertierbaren Matrix D ∈ Rn×n . Dann gilt λnT =
1 λn | det(D)|
Ist D eine Orthogonalmatrix, so gilt λnT = λn . Beweis. Sei S : Rn → Rn gegeben durch S(x) := Dx und sei Tc die Translation bez¨ uglich c. Dann gilt T = Tc ◦ S und aus Satz 6.3.1 und der Translationsinvarianz des Lebesgue–Maßes folgt ! n 1 1 1 n n n λ λnTc = λn = λT = λTc ◦S = λS Tc = | det(D)| | det(D)| | det(D)| Tc Damit ist die Folgerung bewiesen.
2
Die letzte Aussage der Folgerung wird als Bewegungsinvarianz des Lebesgue– Maßes bezeichnet.
Teil III
Integrationstheorie
7 Messbare Funktionen
Sei Ω eine nichtleere Menge. Eine Abbildung f : Ω → R heißt reelle Funk¯ heißt numerische Funktion. Jede reelle tion und eine Abbildung f : Ω → R Funktion ist eine numerische Funktion. Das eigentliche Interesse gilt reellen Funktionen. Da aber das Infimum und das Supremum einer Folge von reellen Funktionen im allgemeinen keine reelle Funktion sondern nur eine numerische Funktion ist, ist es erforderlich, auch numerische Funktionen zu betrachten. ¯ der erweiterten reellen Neben den u ¨blichen Rechenregeln auf der Menge R Zahlen verwenden wir die in der Integrationstheorie u ¨ blichen Konventionen (±∞) · 0 := 0 und 0 · (±∞) := 0. F¨ ur numerische Funktionen betrachten wir im folgenden stets die punktweise definierte Addition, die punktweise definierte Multiplikation und die punktweise definierte Ordnungsrelation. F¨ ur numerische Funktionen f und g setzen wir f ∨ g := max{f, g} f ∧ g := min{f, g} und f + := f ∨ 0 f − := (−f ) ∨ 0 |f | := f ∨ (−f ) Dann gilt f = f + − f − und |f | = f + + f − . Eine Folge {fn }n∈N von numerischen Funktionen heißt konvergent , wenn lim inf fn = lim sup fn n→∞
gilt.
n→∞
92
Kapitel 7. Messbare Funktionen
In diesem Kapitel betrachten wir zun¨ achst verschiedene Klassen messbarer Funktionen auf einem Messraum und untersuchen ihre Struktureigenschaften (Abschnitt 7.1). Wir gehen dann zu einem Maßraum u ¨ ber, der durch die Festlegung eines Maßes auf dem Messraum entsteht, und betrachten fast u ¨ berall bestehende Eigenschaften messbarer Funktionen und die Bildung von ¨ Aquivalenzklassen bez¨ uglich des Maßes (Abschnitt 7.2).
7.1 Messbare Funktionen auf einem Messraum Im gesamten Abschnitt ein (Ω, F ) ein Messraum. Wir betrachten zun¨ achst numerische Funktionen. Eine numerische Funktion ¯ heißt F –messbar oder kurz messbar , wenn sie F –B(R)–messbar ist. 7.1.1 Beispiele. ¯ ist die konstante Funktion f : Ω → R ¯ mit (1) Konstante Funktion: F¨ ur c ∈ R f (ω) := c messbar. ¯ gilt In der Tat: F¨ ur alle B ∈ B(R) f
−1
j (B) =
Ω ∅
falls c ∈ B sonst
und damit f −1 (B) ∈ F. ¯ mit (2) Indikatorfunktion: F¨ ur A ∈ 2Ω heißt die Funktion χA : Ω → R j 1 falls ω ∈ A χA (ω) := 0 sonst Indikatorfunktion von A. Die Indikatorfunktion χA ist genau dann messbar, wenn A ∈ F gilt. ¯ gilt In der Tat: F¨ ur alle B ∈ B(R) 8 Ω falls 0 ∈ B und 1 ∈ B > > < A falls 0 ∈ / B und 1 ∈ B −1 χA (B) = Ω \ A falls 0 ∈ B und 1 ∈ /B > > : ∅ falls 0 ∈ / B und 1 ∈ /B Daraus folgt die Behauptung.
¯ und a, b, c ∈ R ¯ setzen wir F¨ ur eine numerische Funktion f und f¨ ur B ∈ B(R) {f ∈ B} := {ω ∈ Ω | f (ω) ∈ B} {f ∈ / B} := {ω ∈ Ω | f (ω) ∈ / B} und
7.1 Messbare Funktionen auf einem Messraum
93
{a < f < b} := {ω ∈ Ω | a < f (ω) < b} {a < f ≤ b} := {ω ∈ Ω | a < f (ω) ≤ b} {a ≤ f < b} := {ω ∈ Ω | a ≤ f (ω) < b} {a ≤ f ≤ b} := {ω ∈ Ω | a ≤ f (ω) ≤ b} sowie {f < c} := {ω ∈ Ω | f (ω) < c} {f ≤ c} := {ω ∈ Ω | f (ω) ≤ c} {f = c} := {ω ∈ Ω | f (ω) = c} {f = c} := {ω ∈ Ω | f (ω) = c} {f ≥ c} := {ω ∈ Ω | f (ω) ≥ c} {f > c} := {ω ∈ Ω | f (ω) > c} Die Messbarkeit einer numerischen Funktion l¨ asst sich wie folgt charakterisieren: 7.1.2 Satz. F¨ ur eine numerische Funktion f sind folgende Aussagen ¨aquivalent : (a) f ist messbar. (b) F¨ ur alle c ∈ R gilt {f ≤ c} ∈ F. (c) F¨ ur alle c ∈ R gilt {f < c} ∈ F. (d) F¨ ur alle c ∈ R gilt {f ≥ c} ∈ F. (e) F¨ ur alle c ∈ R gilt {f > c} ∈ F. In diesem Fall gilt {f = c} ∈ F und {f = c} ∈ F f¨ ur alle c ∈ R. Beweis. Wir nehmen zun¨ achst an, dass (a) gilt. F¨ ur alle c ∈ R gilt dann ¯ ⊆F {f ≤ c} = f −1 ([−∞, c]) ∈ f −1 (B(R)) Daher folgt (b) aus (a). Wir nehmen nun an, dass (b) gilt. F¨ ur das Mengensystem E¯ = [−∞, c] c ∈ R ¯ vgl. Aufgabe 1.5.M. F¨ ¯ = B(R); gilt σ(E) ur alle c ∈ R gilt nach Voraussetzung −1 ¯ ⊆ F und sodann f ([−∞, c]) = {f ≤ c} ∈ F. Daraus folgt zun¨achst f −1 (E) ¯ = f −1 (σ(E)) ¯ = σ(f −1 (E)) ¯ ⊆F f −1 (B(R)) Daher folgt (a) aus (b). ¨ Die Aquivalenz von (b), (c), (d), (e) ergibt sich nun aus den Gleichungen # 1 {f < c} = f ≤c− n n∈N
94
Kapitel 7. Messbare Funktionen
{f ≥ c} = Ω \ {f < c} # 1 {f > c} = f ≥c+ n n∈N
{f ≤ c} = Ω \ {f > c} und die abschließende Behauptung ergibt sich aus den Gleichungen {f = c} = {f ≤ c} \ {f < c} {f = c} = Ω \ {f = c} Damit ist der Satz gezeigt.
2
Wir ziehen nun erste Folgerungen aus Satz 7.1.2: 7.1.3 Folgerung. Seien f und g messbare numerische Funktionen und sei ¯ Dann sind die Funktionen af sowie f ∨ g und f ∧ g messbar. Insbea ∈ R. sondere sind die Funktionen f + , f − , |f | messbar. Beweis. Im Fall a = 0 gilt af = 0 und die Messbarkeit von af ist klar; analog argumentiert man in den F¨ allen a = ∞ und a = −∞. Im Fall a ∈ (0, ∞) erh¨ alt man f¨ ur alle c ∈ R aus der Messbarkeit von f und Satz 7.1.2 zun¨achst {af ≤ c} = {f ≤ c/a} ∈ F und durch nochmalige Anwendung von Satz 7.1.2 die Messbarkeit von af ; analog argumentiert man im Fall a ∈ (−∞, 0). F¨ ur alle c ∈ R gilt ferner {f ∨ g ≤ c} = {f ≤ c} ∩ {g ≤ c} {f ∧ g ≥ c} = {f ≥ c} ∩ {g ≥ c} und wie vorher folgt aus Satz 7.1.2 die Messbarkeit von f ∨ g und f ∧ g. Aus 2 dem bereits gezeigten folgt nun die Messbarkeit von f + , f − , |f |. Die Summe von zwei numerischen Funktionen ist unter Umst¨anden nicht auf der gesamten Grundmenge Ω definiert. Sind jedoch f, g, h numerische Funktionen mit h = f + g, so l¨ asst sich zeigen, dass aus der Messbarkeit von f und g die Messbarkeit von h folgt; vgl. Folgerung 7.1.15. Wir betrachten nun Folgen von messbaren numerischen Funktionen: 7.1.4 Folgerung. Sei {fn }n∈N eine Folge von messbaren numerischen Funktionen. Dann gilt : (1) Die Funktionen supn∈N fn und inf n∈N fn sind messbar. (2) Die Funktionen lim supn→∞ fn und lim inf n→∞ fn sind messbar. (3) Ist f eine numerische Funktion und ist die Folge {fn }n∈N konvergent mit f = limn→∞ fn , so ist f messbar.
7.1 Messbare Funktionen auf einem Messraum
95
Beweis. Die Messbarkeit von supn∈N fn und inf n∈N fn zeigt man genau wie im Beweis von Folgerung 7.1.3. Wegen lim sup fn = inf sup fk n→∞
n∈N k∈N(n)
lim inf fn = sup inf fk n→∞
n∈N k∈N(n)
ergibt sich nun aus (1) die Messbarkeit von lim supn→∞ fn und lim inf n→∞ fn . Ist schließlich f eine numerische Funktion und die Folge {fn }n∈N konvergent mit f = limn→∞ fn , so gilt f = lim sup fn = lim inf fn n→∞
n→∞
und die Messbarkeit von f folgt aus (2).
2
F¨ ur numerische Funktionen f und g setzen wir {f < g} := {ω ∈ Ω | f (ω) < g(ω)} {f ≤ g} := {ω ∈ Ω | f (ω) ≤ g(ω)} {f = g} := {ω ∈ Ω | f (ω) = g(ω)} {f =
g} := {ω ∈ Ω | f (ω) = g(ω)} {f ≥ g} := {ω ∈ Ω | f (ω) ≥ g(ω)} {f > g} := {ω ∈ Ω | f (ω) > g(ω)} Auch diese Mengen sind messbar, wenn f und g messbar sind: 7.1.5 Folgerung. Seien f und g messbare numerische Funktionen. Dann gilt {f < g}, {f ≤ g}, {f = g}, {f = g}, {f ≥ g}, {f > g} ∈ F. Beweis. Nach Satz 7.1.2 gilt {f < g} = q∈Q {f < q} ∩ {q < g} ∈ F und damit {f ≥ g} = Ω \ {f < g} ∈ F, und aus Symmetriegr¨ unden gilt dann auch {f > g} ∈ F und {f ≤ g} ∈ F, und damit {f = g} = {f ≤ g} ∩ {f ≥ g} ∈ F und {f = g} = Ω \ {f = g} ∈ F. 2 Wir betrachten nun reelle Funktionen. Eine reelle Funktion heißt F –messbar oder kurz messbar , wenn sie F –B(R)–messbar ist. Aus der in Beispiel 1.2.6 ¯ angegebenen Beziehung zwischen den Borelschen σ–Algebren B(R) und B(R) erkennt man, dass eine reelle Funktion genau dann F –B(R)–messbar ist, wenn sie, aufgefasst als eine numerische Funktion, die die Werte +∞ und −∞ nicht ¯ ist. annimmt, F –B(R)–messbar 7.1.6 Lemma. Seien f und g messbare reelle Funktionen. Dann sind auch die Funktionen f + g und f g messbar.
96
Kapitel 7. Messbare Funktionen
Beweis. Nach Beispiel 3.3.1 gilt B(R2 ) = B(R) ⊗ B(R). Daher folgt aus der Messbarkeit von f und g die Messbarkeit der Funktion H : Ω → R2 mit ! f (ω) H(ω) := g(ω) Da sowohl die Addition + : R2 → R als auch die Multiplikation · : R2 → R stetig und damit messbar ist und da nach Lemma 2.3.4 die Komposition von messbaren Abbildungen messbar ist, sind auch die Funktionen f + g und f g messbar. 2 Sei nun
L0 (F ) := f : Ω → R f ist F –messbar
Dann lassen sich die wichtigsten Stabilit¨ atseigenschaften der Familie der messbaren reellen Funktionen wie folgt zusammenfassen: 7.1.7 Satz. L0 (F ) ist ein Vektorverband. Beweis. Aus Lemma 7.1.6 und Folgerung 7.1.3 ergibt sich zun¨achst, dass die messbaren reellen Funktionen einen Vektorraum bilden. F¨ ur alle messbaren reellen Funktionen f, g, h mit f ≤ g und f¨ ur alle a ∈ R+ gilt f +h ≤ g +h und af ≤ ag. Daher bilden die messbaren reellen Funktionen einen geordneten Vektorraum. F¨ ur alle messbaren reellen Funktionen f, g sind nach Folgerung 7.1.3 auch f ∨ g und f ∧ g messbare reelle Funktionen. F¨ ur jede messbare reelle Funktion h mit f ≤ h und g ≤ h gilt offenbar f ∨ g ≤ h; damit ist f ∨ g das Supremum von f und g in der Familie aller messbaren reellen Funktionen, und analog zeigt man, dass f ∧ g das Infimum von f und g in der Familie aller messbaren reellen Funktionen ist. Daher bilden die messbaren reellen Funktionen einen Vektorverband. 2 Sei ferner ∞
L (F ) :=
# f ∈ L (F ) sup |f (ω)| ≤ c f¨ ur ein c ∈ R ω∈Ω 0
die Familie der beschr¨ ankten messbaren reellen Funktionen. 7.1.8 Satz. L∞ (F ) ist ein Vektorverband und ein Ideal in L0 (F ). Wir kommen auf den Raum L∞ (F ) erst im n¨ achsten Abschnitt zur¨ uck. Wir betrachten abschließend eine Familie messbarer reeller Funktionen, die f¨ ur die Integrationstheorie von zentraler Bedeutung ist. Eine reelle Funktion heißt einfach, wenn sie messbar ist und nur endlich viele Werte annimmt. Die wichtigsten Stabilit¨ atseigenschaften der Familie der einfachen Funktionen lassen sich wie folgt zusammenfassen:
7.1 Messbare Funktionen auf einem Messraum
97
7.1.9 Satz. Die einfachen Funktionen bilden einen Vektorverband. Beweis. Die Behauptung ergibt sich unmittelbar aus Satz 7.1.7, da sowohl Linearkombinationen als auch das Maximum und das Minimum von zwei einfachen Funktionen nur endlich viele Werte annehmen. 2 Sei f eine einfache Funktion. Dann ist das Bild f (Ω) von f eine endliche Menge und f besitzt die Darstellung aχ{f =a} f = a∈f (Ω)
Diese Darstellung heißt Standarddarstellung von f . Da f messbar ist, gilt f¨ ur alle a ∈ f (Ω) nach Folgerung 7.1.5 {f = a} ∈ F. Daher ist jede einfache Funktion eine Linearkombination von Indikatorfunktionen von messbaren Mengen; andererseits ist nach Beispiel 7.1.1 und Satz 7.1.9 jede Linearkombination von Indikatorfunktionen von messbaren Mengen eine einfache Funktion. Damit erhalten wir das folgenden Lemma: 7.1.10 Lemma. F¨ ur eine reelle Funktion f sind folgende Aussagen ¨aquivalent : (a) f ist einfach. (b) Es gibt ein n ∈ N sowie eine Familie {Ci }i∈{1,...,n} ⊆ F und eine Familie n {ci }i∈{1,...,n} ⊆ R mit f = i=1 ci χCi . Dieses Lemma besitzt ein Analogon f¨ ur positive reelle Funktionen: 7.1.11 Lemma. F¨ ur eine positive reelle Funktion f sind folgende Aussagen ¨aquivalent : (a) f ist einfach. (b) Es gibt ein n ∈ N sowie eine
Familie {Ci }i∈{1,...,n} ⊆ F und eine Familie n {ci }i∈{1,...,n} ⊆ R+ mit f = i=1 ci χCi . Die Darstellung einer einfachen Funktion durch eine Linearkombination von Indikatorfunktionen von messbaren Mengen ist im allgemeinen nicht eindeutig; dies gilt auch f¨ ur positive einfache Funktionen: 7.1.12 Beispiel. Seien A, B ∈ F und a, b ∈ R+ . Dann gilt f¨ ur alle ω ∈ Ω a χA (ω) + b χB (ω) = a χA\B (ω) + (a+b) χA∩B (ω) + b χB\A (ω) = (−b) χA\B (ω) + (a+b) χA∪B (ω) + (−a) χB\A (ω) Damit liegen mehrere Darstellungen derselben positiven einfachen Funktion vor; in der letzten dieser Darstellungen treten sogar negative Koeffizienten von Indikatorfunktionen von messbaren Mengen auf.
98
Kapitel 7. Messbare Funktionen
Nach Folgerung 7.1.4 ist das Supremum einer monoton wachsenden Folge von positiven einfachen Funktionen eine positive messbare numerische Funktion. Der folgende Satz zeigt, dass andererseits jede positive messbare numerische Funktion als Supremum einer monoton wachsenden Folge von positiven einfachen Funktionen dargestellt werden kann: 7.1.13 Satz (Approximationssatz; positiver Fall). F¨ ur eine positive numerische Funktion f sind folgende Aussagen ¨aquivalent : (a) f ist messbar. (b) Es gibt eine monoton wachsende Folge {fn }n∈N von positiven einfachen Funktionen mit f = supn∈N fn . Beweis. Es gen¨ ugt zu zeigen, dass (b) aus (a) folgt, denn die umgekehrte Implikation ist wegen Folgerung 7.1.4 klar. Sei also f messbar. F¨ ur n ∈ N und alle k ∈ {0, 1, . . . , 4n } setzen wir
{k2−n ≤ f < (k+1)2−n } falls k ∈ {0, 1, . . . , 4n − 1} Cn,k := falls k = 4n {2n ≤ f } und f¨ ur n ∈ N definieren wir 4 n
fn :=
k2−n χCn,k
k=0
Aus der Messbarkeit von f folgt zun¨ achst {Cn,k }k∈{0,1,...,4n } ⊆ F und sodann die Messbarkeit von fn . Daher ist fn eine einfache Funktion mit 0 ≤ fn ≤ f , und aus der Gleichung
Cn+1,2k + Cn+1,2k+1 falls k ∈ {0, 1, . . . , 4n −1} Cn,k = 4n+1 falls k = 4n j=22n+1 Cn+1,j ergibt sich ferner fn ≤ fn+1 . Daher ist {fn }n∈N monoton wachsende Folge von positiven einfachen Funktionen mit sup fn ≤ f n∈N
Sei nun ω ∈ Ω. – Im Fall f (ω) < ∞ gilt f¨ ur alle n ∈ N, die hinreichend groß sind, f (ω) < 2n und damit f (ω) < fn (ω) + 2−n , also f (ω) ≤ supm∈N fm (ω) + 2−n , und damit f (ω) ≤ supm∈N fm (ω). ur alle n ∈ N, und damit f (ω) = ∞ = – Im Fall f (ω) = ∞ gilt fn (ω) = 2n f¨ supn∈N fn (ω). Daher gilt auch f ≤ sup fn n∈N
und damit f = supn∈N fn . Daher folgt (b) aus (a).
2
7.1 Messbare Funktionen auf einem Messraum
99
Aus dem letzten Satz erh¨ alt man mit Hilfe der Zerlegung f = f + − f − ein Analogon f¨ ur beliebige numerische Funktionen: 7.1.14 Satz (Approximationssatz; allgemeiner Fall). F¨ ur eine numerische Funktion f sind folgende Aussagen ¨aquivalent : (a) f ist messbar. (b) Es gibt eine Folge {fn }n∈N von einfachen Funktionen mit f = limn→∞ fn . (c) Es gibt eine Folge {fn }n∈N von einfachen Funktionen mit f = limn→∞ fn und |f | = supn∈N |fn |. Aus dem Approximationssatz folgt, dass die Familie der messbaren numerischen Funktionen unter der Bildung von Summen und Produkten stabil ist: 7.1.15 Folgerung. Seien f, g, h numerische Funktionen mit h = f + g oder h = f g. Sind f und g messbar , so ist auch h messbar. Als eine weitere Anwendung des Approximationssatzes ergibt sich der folgende Faktorisierungssatz, den wir in Kapitel 18 ben¨otigen: 7.1.16 Satz (Faktorisierungssatz). Sei (Ω , F ) ein Messraum und sei g : Ω → Ω eine Abbildung und G := σ(g). F¨ ur eine numerische Funktion f sind dann folgende Aussagen ¨aquivalent : (a) f ist G–messbar. ¯ mit f = h ◦ g. (b) Es gibt eine messbare numerische Funktion h : Ω → R Ist f G–messbar und positiv bzw. reell , so kann auch h positiv bzw. reell gew¨ahlt werden. Beweis. Wir nehmen zun¨ achst an, dass f eine positive G–messbare einfache Funktion ist. Dann gibt es eine disjunkte Familie {Gi }i∈{1,...,m} ⊆ G und eine Familie {ai }i∈{1,...,m} ⊆ R+ mit f =
m
a i χG i
i=1
Nach Definition von G gibt es f¨ ur alle i ∈ {1, . . . , m} eine Menge Hi ∈ F mit −1 Gi = g (Hi ). Sei h :=
m
ai χHi
i=1
Dann ist h eine positive F –messbare einfache Funktion und f¨ ur alle ω ∈ Ω gilt f (ω) =
m
ai χGi (ω) =
i=1
und damit f = h ◦ g.
m i=1
ai χg−1 (Hi ) (ω) =
m i=1
ai χHi (g(ω)) = h(g(ω))
100
Kapitel 7. Messbare Funktionen
Wir nehmen nun an, dass f eine positive G–messbare numerische Funktion ist. Nach dem Approximationssatz 7.1.13 gibt es eine monoton wachsende Folge von positiven G–messbaren einfachen Funktionen {fn }n∈N mit f = supn∈N fn und nach dem bereits gezeigten gibt es f¨ ur alle n ∈ N eine positive F –messbare einfache Funktion hn mit fn = hn ◦ g. Sei h := supn∈N hn . Dann ist h eine positive F –messbare numerische Funktion und es gilt ! f = sup fn = sup(hn ◦ g) = sup hn ◦ g = h ◦ g n∈N
n∈N
n∈N
Wir nehmen schließlich an, dass f eine G–messbare beliebige numerische Funktion ist. Dann besitzt f die Zerlegung f = f + − f − und es gibt positive F – messbare numerische Funktionen h1 und h2 mit f + = h1 ◦ g und f − = h2 ◦ g. F¨ ur die Menge H := {h1 < ∞} ∪ {h2 < ∞} gilt f (Ω) ⊆ H und damit f + = (h1 χH ) ◦ g und f − = (h2 χH ) ◦ g. Wegen H ∈ F sind die Funktionen h1 χH und h2 χH F –messbar Damit ist auch die Funktion h := h1 χH − h2 χH F –messbar und es gilt f = f + − f − = (h1 χH ) ◦ g − (h2 χH ) ◦ g = (h1 χH − h2 χH ) ◦ g = h ◦ g Ist f reell, so kann man in der Definition der Funktion h die Menge H durch die Menge H0 := {h1 < ∞} ∩ {h2 < ∞} ersetzen und erh¨alt eine F –messbare reelle Funktion h0 mit f = h0 ◦ g. 2 Aufgaben 7.1.A
F¨ ur eine numerische Funktion f sind folgende Aussagen ¨ aquivalent: (a) f ist messbar. (b) f + und f − sind messbar. (c) Es gibt messbare numerische Funktionen g und h mit f = g − h. In diesem Fall ist auch |f | messbar. Folgt umgekehrt aus der Messbarkeit von |f | die Messbarkeit von f ?
7.1.B
Sei {An }n∈N ⊆ F disjunkt und sei {fn }n∈NPeine Folge von messbaren numerischen Funktionen. Dann ist auch f := ∞ n=1 fn χAn messbar.
7.1.C
Approximationssatz: Vergleichen Sie die Approximationss¨ atze 7.1.13 und 7.1.14 mit dem Approximationssatz 5.4.1.
7.1.D
Zu jeder σ–Algebra G auf Ω mit G ⊆ F gibt es einen Messraum (Ω , F ) und eine G–messbare Abbildung g : Ω → Ω mit G = σ(g).
7.1.E
Komplexe Funktionen: F¨ ur eine komplexe Funktion f : Ω → C ist – der Realteil Ref : Ω → R mit (Ref )(ω) := Ref (ω), – der Imagin¨ arteil Imf : Ω → R mit (Imf )(ω) := Imf (ω), und – der Betrag |f | : Ω → R mit |f |(ω) := |f (ω)| eine reelle Funktion. Eine komplexe Funktion heißt messbar , wenn sie F– B(R2 )–messbar ist. (1) F¨ ur eine komplexe Funktion f sind folgende Aussagen ¨ aquivalent: (a) f ist messbar. (b) Ref und Imf sind messbar. (2) Die messbaren komplexen Funktionen bilden einen Vektorraum.
7.2 Messbare Funktionen auf einem Maßraum
101
7.2 Messbare Funktionen auf einem Maßraum Ist (Ω, F ) ein Messraum und μ : F → [0, ∞] ein Maß, so heißt das Tripel (Ω, F , μ) Maßraum. Ein Maßraum (Ω, F , μ) heißt endlich, wenn μ endlich ist, und er heißt σ–endlich, wenn μ σ–endlich ist. Im gesamten Abschnitt sei ein (Ω, F , μ) ein Maßraum. Eine Menge N ∈ F heißt μ–Nullmenge oder kurz Nullmenge, wenn μ[N ] = 0 gilt. Das folgende Lemma fasst die wichtigsten Stabilit¨atseigenschaften der Familie der Nullmengen zusammen; vgl. Aufgabe 4.1.F. 7.2.1 Lemma. (1) Sei N ∈ F eine μ–Nullmenge. Dann ist jede Menge M ∈ F mit M ⊆ N eine μ–Nullmenge. (2) Sei I abz¨ahlbar und sei {Ni }i∈I eine Familie von μ–Nullmengen. Dann ist i∈I Ni eine μ–Nullmenge. Beweis. Jedes Maß ist monoton und σ–subadditiv.
2
Nullmengen sind vor allem in der Integrationstheorie von Bedeutung, denn es wird sich zeigen, dass die Eigenschaften einer Funktion auf einer Nullmenge die Eigenschaften ihres Integrals nicht beeinflussen. Von einer Eigenschaft, die f¨ ur jedes ω ∈ Ω entweder gilt oder nicht gilt, sagt man, sie gelte μ–fast ¨ uberall oder kurz fast ¨ uberall , wenn es eine μ–Nullmenge N gibt derart, dass die Eigenschaft f¨ ur alle ω ∈ Ω \ N gilt. Dies bedeutet im allgemeinen jedoch nicht, dass die Menge aller ω ∈ Ω, f¨ ur die die Eigenschaft nicht gilt, selbst eine μ–Nullmenge ist. Insbesondere ergeben sich f¨ ur Funktionen, die auf einer Teilmenge von Ω definiert sind, die folgenden Definitionen: ¯ heißt μ–fast ¨ uberall definiert , wenn es eine – Eine Funktion h : Ωh → R μ–Nullmenge N gibt mit Ω \ Ωh ⊆ N . ¯ heißt μ–fast ¨ – Eine Funktion h : Ωh → R uberall konstant , wenn es eine ¯ gibt mit Ω \ Ωh ⊆ N und h(ω) = c f¨ μ–Nullmenge N und ein c ∈ R ur alle ω ∈ Ω \ N . ¯ heißt μ–fast u uberall – Eine Funktion h : Ωh → R ¨berall reell oder μ–fast ¨ endlich, wenn es eine μ–Nullmenge N gibt mit Ω \ Ωh ⊆ N und h(ω) ∈ R f¨ ur alle ω ∈ Ω \ N . ¯ und h : Ωh → R ¯ heißen μ–fast ¨ – Zwei Funktionen g : Ωg → R uberall gleich, wenn es eine μ–Nullmenge N gibt mit (Ω \ Ωg ) ∪ (Ω \ Ωh ) ⊆ N und g(ω) = h(ω) f¨ ur alle ω ∈ Ω \ N . ¯ heißt μ–fast ¨ – Eine Folge {hn }n∈N von Funktionen hn : Ωhn → R uberall ¯ → R und eine μ–Nullmenge N konvergent , wenn es eine Funktion h : Ω h gibt mit (Ω \ Ωh ) ∪ n∈N (Ω \ Ωhn ) ⊆ N und f¨ ur jedes ω ∈ Ω \ N die Folge ¯ gegen h(ω) konvergiert. {hn (ω)}n∈N in R
102
Kapitel 7. Messbare Funktionen
¯ Eine Folge {hn }n∈N von Funktionen hn : Ωhn → uberall R heißt μ–fast ¨ Cauchy, wenn es eine μ–Nullmenge N gibt mit n∈N (Ω \ Ωhn ) ⊆ N und f¨ ur jedes ω ∈ Ω \ N die Folge {hn (ω)}n∈N eine Cauchy–Folge in R ist. Die Konvergenz μ–fast u ¨ berall wird im folgenden ein wichtige Rolle spielen. Das folgende Ergebnis ist offensichtlich und gilt auch dann, wenn alle Funktionen nur μ–fast u ¨ berall definiert sind:
–
7.2.2 Lemma. Sei {fn }n∈N eine Folge von Funktionen. (1) Ist {fn }n∈N μ–fast ¨ uberall konvergent und sind f und g Funktionen mit uberall und limn→∞ fn (ω) = g(ω) μ–fast limn→∞ fn (ω) = f (ω) μ–fast ¨ uberall, so gilt f (ω) = g(ω) μ–fast ¨ uberall. ¨ (2) Sind alle fn μ–fast ¨ uberall reell , so ist die Folge {fn }n∈N genau dann μ–fast ¨ uberall konvergent gegen eine μ–fast ¨ uberall reelle Funktion, wenn sie μ–fast ¨ uberall Cauchy ist. Das folgende Beispiel zeigt, dass beim Umgang mit μ–fast u ¨berall bestehenden Eigenschaften Vorsicht geboten ist: 7.2.3 Beispiel (Fast u ¨ berall stetige Funktionen). Sei (Ω, F, μ) := (R, B(R), λ). Eine Funktion h : Ωh → R mit Ωh ⊆ Ω heißt μ–fast u ¨berall stetig, wenn es eine μ– ur alle ω ∈ Ω \ N stetig in ω ist. Nullmenge N gibt mit Ω \ Ωh ⊆ N und h f¨ (1) Die Funktion h : Ω → R mit h(ω) := χQ (ω) ist messbar und es gibt eine stetige ¯ mit μ[{h = f }] = 0. Dennoch ist h nicht μ–fast u Funktion f : Ω → R ¨ berall stetig. (2) Die Funktion h : Ω → R mit h(ω) := χR+ (ω) ist messbar und μ–fast u ¨ berall ¯ mit μ[{h = f }] = 0. stetig. Dennoch gibt es keine stetige Funktion f : Ω → R
¯ und h : Ωh → R ¯ mit Ωg , Ωh ⊆ Ω schreiben wir F¨ ur g : Ωg → R g =μ h wenn es eine Funktion f ∈ L0 (F ) und eine μ–Nullmenge N gibt mit (Ω \ Ωg ) ∪ {ω ∈ Ωg | g(ω) = f (ω)} ⊆ N (Ω \ Ωh ) ∪ {ω ∈ Ωh | h(ω) = f (ω)} ⊆ N Dann gilt g =μ f und h =μ f . 7.2.4 Beispiele. Sei (Ω, F, μ) := (R, B(R), λ). (1) F¨ ur die Funktionen h : Ωh → R mit Ωh := Ω \ {0} und h(ω) := 1/ω und f : Ω → R mit
j f (ω) :=
0 1/ω
falls ω = 0 sonst
gilt h =μ f . Die Funktion f ist reell und messbar.
7.2 Messbare Funktionen auf einem Maßraum
103
(2) Dirichlet–Funktion: F¨ ur die Dirichlet–Funktion h : Ω → R mit j ∞ falls ω ∈ Q h(ω) := 0 sonst und die Funktion f : Ω → R mit f (ω) := 0 gilt h =μ f . Die Funktion f ist reell und messbar.
Wir betrachten nun die Familie ¯ Ωh ⊆ Ω und es gibt ein f ∈ L0 (F ) mit h =μ f L0 (F , μ) := h : Ωh → R Nach Lemma 7.2.1 ist die Vereinigung von zwei μ–Nullmengen eine μ–Null¨ menge. Daher ist =μ eine Aquivalenzrelation auf L0 (F , μ). ¨ F¨ ur h ∈ L0 (F , μ) bezeichnen wir die Aquivalenzklasse, die die Funktion h ent0 h¨ alt, mit [h]μ ; es gilt also [h]μ ⊆ L (F , μ). Nach Definition von =μ enth¨alt jede ¨ Aquivalenzklasse [h]μ ⊆ L0 (F , μ) einen Repr¨ asentanten f ∈ L0 (F ), also eine messbare Funktion f : Ω → R mit [h]μ = [f ]μ . Da nach Lemma 7.2.1 sogar die Vereinigung einer abz¨ ahlbaren Familie von μ–Nullmengen eine μ–Nullmenge ¯ ist, gibt es zu jeder abz¨ ahlbaren Familie {hi }i∈I ⊆ L0 (F , μ) mit hi : Ωhi → R 0 eine gemeinsame μ–Nullmenge N ∈ F und eine Familie {fi }i∈I ⊆ L (F ) derart, dass f¨ ur alle i ∈ I sowohl Ω \ Ωhi ⊆ N als auch hi (ω) = fi (ω) f¨ ur alle ω ∈ Ω \ N gilt. Bei der Betrachtung einer abz¨ ahlbaren Familie {[fi ]μ }i∈I von ¨ Aquivalenzklassen in L0 (F , μ) k¨ onnen und werden wir daher annehmen, dass 0 {fi }i∈I ⊆ L (F ) gilt. Sei nun L0 (F , μ) := L0 (F , μ)/=μ ¨ Dann ist L0 (F , μ) die Familie aller Aquivalenzklassen von L0 (F , μ) unter =μ . Die Addition, die Skalarmultiplikation und die Ordnungsrelation auf L0 (F ) induzieren in kanonischer Weise eine Addition, eine Skalarmultiplikation und eine Ordnungsrelation auf L0 (F , μ). Mit Satz 7.1.7 erhalten wir daher das folgende Ergebnis: 7.2.5 Satz. L0 (F , μ) ist ein Vektorverband. Sofern keine Missverst¨ andnisse zu bef¨ urchten sind, verzichten wir darauf, die ¨ Elemente von L0 (F , μ) als Aquivalenzklassen von L0 (F , μ) zu kennzeichnen. 0 Wir schreiben also f ∈ L (F , μ) anstelle von [f ] ∈ L0 (F , μ) und nehmen dabei ¨ an, dass der Repr¨asentant f der Aquivalenzklasse [f ] auf ganz Ω definiert und reell ist.
104
Kapitel 7. Messbare Funktionen
Da der Limes einer μ–fast u ¨berall konvergenten Folge reeller Funktionen μ– fast u asst sich diese Art der Konvergenz auch ¨berall eindeutig bestimmt ist, l¨ als Konvergenzbegriff in L0 (F , μ) verstehen. Wir betrachten nun eine weitere Art der Konvergenz: Eine Folge {fn }n∈N messbarer reeller Funktionen konvergiert im Maß μ gegen eine messbare reelle Funktion f , wenn f¨ ur alle ε ∈ (0, ∞) lim μ[{|fn −f | ≥ ε}] = 0
n→∞
gilt. Das folgende Ergebnis zeigt, dass auch der Limes einer im Maß μ konvergenten Folge μ–fast u ¨berall eindeutig bestimmt ist: 7.2.6 Lemma. Sei {fn }n∈N eine Folge messbarer reeller Funktionen, die im Maß μ gegen eine messbare reelle Funktion f und gegen eine messbare reelle Funktion g konvergiert. Dann gilt f (ω) = g(ω) μ–fast u ¨berall. Beweis. Wegen |f −g| ≤ |f −fn| + |fn −g| gilt f¨ ur alle ε ∈ (0, ∞) {|f −g| ≥ ε} ⊆ {|f −fn| ≥ ε/2} ∪ {|fn −g| ≥ ε/2} und damit μ[{|f −g| ≥ ε}] ≤ μ[{|f −fn| ≥ ε/2}] + μ[{|fn −g| ≥ ε/2}] Daher gilt μ[{f = g}] = μ[{|f − g| > 0}] ≤ μ[{|f − g| ≥ ε}] = 0 und damit f (ω) = g(ω) fast u 2 ¨ berall. Aufgrund des letzten Lemmas l¨ asst sich auch die Konvergenz im Maß μ als Konvergenzbegriff in L0 (F , μ) verstehen. Das folgende Lemma zeigt, dass die Konvergenz im Maß μ mit der linearen Struktur von L0 (F , μ) vertr¨aglich ist: 7.2.7 Lemma. Sei {fn }n∈N eine Folge von messbaren reellen Funktionen, die im Maß μ gegen eine messbare reelle Funktion f konvergiert , und sei {gn }n∈N eine Folge von messbaren reellen Funktionen, die im Maß μ gegen eine messbare reelle Funktion g konvergiert. Dann konvergiert f¨ ur jede Wahl von a, b ∈ R die Folge {afn +bgn}n∈N im Maß μ gegen af +bg. Beweis. Im Fall a = 0 oder b = 0 ist nichts zu zeigen. Sei nun a = 0 und ur alle b = 0. Wegen |(afn + bgn ) − (af + bg)| ≤ |a||fn − f | + |b||gn − g| gilt f¨ ε ∈ (0, ∞) {|(afn +bgn ) − (af +bg)| ≥ ε} ⊆ {|a||f −fn| ≥ ε/2} ∪ {|b||fn −g| ≥ ε/2} und damit μ[{|(afn +bgn) − (af +bg)| ≥ ε}] ≤ μ[{|f −fn| ≥ ε/|2a|}] + μ[{|fn −g| ≥ ε/|2b|}] Daraus folgt die Behauptung.
2
7.2 Messbare Funktionen auf einem Maßraum
105
Wir vergleichen nun die Konvergenz im Maß mit der Konvergenz fast u ¨ berall: 7.2.8 Satz. Sei μ endlich. Dann konvergiert jede Folge von messbaren reellen Funktionen, die μ–fast ¨ uberall gegen eine messbare reelle Funktion f konvergiert , auch im Maß μ gegen f . Beweis. Sei {fn }n∈N eine Folge von messbaren reellen Funktionen, die fast u ur ¨ berall gegen eine messbare reelle Funktion f konvergiert. Sei ε ∈ (0, ∞). F¨ alle m ∈ N setzen wir Am := n∈N(m) {|fn − f | < ε}. Dann ist {Am }m∈N eine monoton wachsende Folge in F und nach Voraussetzung gibt es eine Nullmenge N ∈ F mit Ω = N ∪ m∈N Am = m∈N (N ∪ Am ). Daher gilt sup μ[Am ] = sup μ[N ∪ Am ] = μ[Ω] m∈N
m∈N
Da μ endlich ist, folgt daraus inf μ[Ω \ Am ] = 0
m∈N
Wegen {|fm −f | ≤ ε} ⊆ Ω \ Am erhalten wir nun lim μ[{|fm −f | ≥ ε}] = 0
m→∞
2
und damit die Behauptung.
Die folgenden Beispiele zeigen, dass man im letzten Satz auf die Forderung der Endlichkeit des Maßes nicht verzichten kann und dass auch im Fall eines endlichen Maßes aus der Konvergenz im Maß nicht die Konvergenz fast u ¨ berall folgt: 7.2.9 Beispiele. (1) Sei (Ω, F, μ) := (R, B(R), λ). Dann ist μ σ–endlich, aber nicht endlich. F¨ ur n ∈ N sei fn : Ω → R gegeben durch fn (ω) :=
1 ω e n
Dann konvergiert die Folge {fn }n∈N fast u ur ¨berall gegen 0. Andererseits gilt f¨ alle ε ∈ (0, ∞) h i μ[{fn ≥ ε}] = μ [log(nε), ∞) = ∞ Daher konvergiert die Folge {fn }n∈N nicht im Maß gegen 0. (2) Sei Ω := (0, 1], sei F die kleinste σ–Algebra auf (0, 1], die alle Intervalle der alt, und sei Form ((k − 1)2−m , k2−m ] mit m ∈ N0 und k ∈ {1, . . . , 2m } enth¨ μ : F → [0, ∞] gegeben durch μ[A] := λ[A ∩ (0, 1]]. Dann ist μ endlich. F¨ ur m ∈ N0 und k ∈ {1, . . . , 2m } sei f2m +k−1 gegeben durch f2m +k−1 (ω) := χ((k−1)2−m ,k2−m ] (ω)
106
Kapitel 7. Messbare Funktionen Dann gilt f¨ ur alle ε ∈ (0, ∞)
h i μ[{f2m +k−1 ≥ ε}] ≤ μ ((k−1)2−m , k2−m ] = 2−m
Daher konvergiert die Folge {fn }n∈N im Maß gegen 0, aber sie ist nicht fast u ¨ berall konvergent.
Sei nun
L∞ (F , μ) := [h]μ ∈ L0 (F , μ) es gibt ein f ∈ [h]μ ∩ L∞ (F )
Da L∞ (F ) ein Vektorverband und ein Ideal in L0 (F ) ist, ist auch L∞ (F , μ) ein Vektorverband und ein Ideal in L0 (F , μ). Des weiteren gilt f¨ ur alle f, g ∈ L∞ (F ) mit f =μ g inf{c ∈ R+ | |f | ≤μ c} = inf{c ∈ R+ | |g| ≤μ c} Daher ist die Abbildung . ∞ : L∞ (F , μ) → R+ mit [f ]μ ∞ := inf{c ∈ R+ | |f | ≤μ c} wohldefiniert; im folgenden schreiben wir f ∞ anstelle von [f ]μ ∞ . Es ist klar, dass . ∞ eine Norm ist. Das folgende Lemma zeigt, dass der normierte Raum (L∞ (F , μ), . ∞ ) vollst¨ andig ist: 7.2.10 Lemma (Riesz/Fischer). (L∞ (F , μ), . ∞ ) ist vollst¨andig. Beweis. Sei {[fn ]μ }n∈N eine Cauchy–Folge in (L∞ (F , μ), . ∞ ). Wir k¨onnen annehmen, dass {fn }n∈N ⊆ L∞ (F ) gilt. Da die Folge {fn }n∈N eine Cauchy–Folge in (L∞ (F , μ), . ∞ ) ist, ist f¨ ur jedes ω ∈ Ω die Folge {fn (ω)}n∈N eine Cauchy–Folge und damit in R konvergent. Da die Funktion f : Ω → R mit f (ω) := lim fn (ω) n→∞
messbar ist, erhalten wir zun¨ achst f ∈ L0 (F ). Außerdem gilt f¨ ur alle ω ∈ Ω |f (ω)| ≤ |f (ω)−fn(ω)| + |fn (ω)−fm (ω)| + |fm (ω)| ≤ |f (ω)−fn(ω)| + fn −fm ∞ + fm ∞ F¨ ur m ∈ N hinreichend groß gilt fn −fm ∞ ≤ 1 f¨ ur alle n ∈ N(m), und f¨ ur n ∈ N(m) hinreichend groß gilt |f (ω) − fn (ω)| ≤ 1. Daher gilt f ∈ L∞ (F ). ur alle Sei nun ε ∈ (0, ∞). Dann gibt es ein m ∈ N mit fn − fm ∞ ≤ ε f¨ n ∈ N(m), und f¨ ur alle ω ∈ Ω gilt |f (ω) − fm (ω)| = lim |fn (ω)−fm (ω)| ≤ lim fn −fm ∞ ≤ ε n→∞
n→∞
Daraus ergibt sich f −fm∞ ≤ sup |f (ω) − fm (ω)| ≤ ε ω∈Ω
Da ε ∈ (0, ∞) beliebig war, erhalten wir limn→∞ f −fm∞ = 0.
2
7.2 Messbare Funktionen auf einem Maßraum
107
Nach Lemma 7.2.10 ist (L∞ (F , μ), . ∞ ) ein Banach–Raum. Schließlich ist die Norm . ∞ mit der Verbandsstruktur von L∞ (F , μ) in dem Sinne vertr¨ aglich, dass f¨ ur alle f, g ∈ L∞ (F , μ) mit |f | ≤μ |g| |f | ∞ ≤ |g| ∞ gilt. Daher ist (L∞ (F , μ), . ∞ ) ein normierter Vektorverband und aufgrund der Vollst¨ andigkeit sogar ein Banach–Verband. Der folgende Satz fasst die Eigenschaften von (L∞ (F , μ), . ∞ ) zusammen: 7.2.11 Satz. L0 (F , μ).
(L∞ (F , μ), . ∞ ) ist ein Banach–Verband und ein Ideal in
Im folgenden werden wir bei den in diesem Abschnitt eingef¨ uhrten Begriffen und Bezeichnungen oft auf die Angabe der σ–Algebra F oder des Maßes μ verzichten. 5die bisher gezeigten Ergebnisse u ¨ ber die Konvergenz im Maß gelten auch f¨ ur diese Verallgemeinerung. Aufgaben 7.2.A
F¨ ur A, B ∈ F sind ¨ aquivalent: (a) Es gilt A =μ B. (b) Es gilt χA =μ χB .
7.2.B
Sei μ endlich. (1) Die Abbildung dμ : L0 (F, μ) × L0 (F, μ) → R+ mit dμ (f, g) := μ[{f = g}] ist (wohldefiniert und) eine Metrik und diese Metrik ist translationsinvariant, aber nicht absolut homogen. (2) F¨ ur alle A, B ∈ F gilt dμ (χA , χB ) = μ[AB].
7.2.C
Konvergenz im Maß: Sei {fn }n∈N eine Folge von messbaren reellen Funktionen, die im Maß μ gegen eine messbare reelle Funktion f konvergiert, und sei {gn }n∈N eine Folge von messbaren reellen Funktionen, die im Maß μ gegen eine messbare reelle Funktion g konvergiert. Dann konvergiert die Folge {fn ∨ gn }n∈N im Maß μ gegen f ∨ g.
7.2.D
Lokale Konvergenz im Maß: Eine Folge {fn }n∈N von messbaren reellen Funktionen konvergiert lokal im Maß μ gegen eine messbare reelle Funktion f , wenn f¨ ur jede Menge C ∈ F mit μ[C] < ∞ und f¨ ur alle ε ∈ (0, ∞) lim μ[C ∩ {|fn −f | ≥ ε}] = 0
n→∞
gilt. (1) Sei μ σ–endlich. Dann ist der Limes einer lokal im Maß μ konvergenten Folge von messbaren reellen Funktionen μ–fast u ¨ berall eindeutig bestimmt. Kann man auf die Forderung der σ–Endlichkeit von μ verzichten?
108
Kapitel 7. Messbare Funktionen (2) Jede Folge von messbaren reellen Funktionen, die μ–fast u ¨ berall gegen eine messbare reelle Funktion f konvergiert, konvergiert auch lokal im Maß μ gegen f . (3) Jede Folge von messbaren reellen Funktionen, die im Maß μ gegen eine messbare reelle Funktion f konvergiert, konvergiert auch lokal im Maß μ gegen f . Ist μ endlich, so gilt auch die Umkehrung dieser Implikation.
7.2.E
Sei {fn }n∈N ⊆ L∞ (F, μ) eine Folge, die in L∞ (F, μ) gegen eine Funktion f ∈ L∞ (F, μ) konvergiert. Dann konvergiert die Folge {fn }n∈N auch im Maß gegen f .
8 Lebesgue–Integral
In diesem Kapitel konstruieren wir ein Integral f¨ ur messbare (numerische) Funktionen, die auf einem Maßraum (Ω, F , μ) definiert sind. Dieses Integral wird als Lebesgue–Integral bezeichnet. Ausgangspunkt f¨ ur die Konstruktion des Integrals ist die Interpretation des Maßes μ[A] einer Menge A ∈ F als Integral ihrer Indikatorfunktion χA ; wegen A ∈ F ist χA messbar und wir setzen ( χA dμ := μ[A] Ω
Die Grundidee ist nun, dieses Integral zun¨ achst auf Linearkombinationen von messbaren Indikatorfunktionen und sodann auf deren Limites unter der punktweisen Konvergenz fortzusetzen. Die Ausf¨ uhrung dieser Grundidee wird allerdings dadurch erschwert, dass das Maß μ im allgemeinen nicht endlich ist; man betrachte etwa den Maßraum (R, B(R), λ). Es zeigt sich jedoch, dass das Integral f¨ ur messbare Indikatorfunktionen in nat¨ urlicher Weise zun¨achst zu einem Integral f¨ ur alle positiven einfachen Funktionen (Abschnitt 8.1) und sodann zu einem Integral f¨ ur alle positiven messbaren Funktionen (Abschnitt 8.2) fortgesetzt werden kann; da jede messbare Funktion als Differenz von zwei positiven messbaren Funktionen dargestellt werden kann, l¨asst sich das Integral schließlich auch f¨ ur bestimmte messbare Funktionen definieren, die nicht positiv sein m¨ ussen (Abschnitt 8.3). Diese drei Schritte der Konstruktion des Integrals werden als algebraische Induktion bezeichnet; wir haben sie bereits im Beweis des Faktorisierungssatzes verwendet, und es wird sich zeigen, dass die algebraische Induktion auch eine grundlegende Technik zum Beweis von Aussagen u ¨ ber Integrale ist. Abschließend betrachten wir R¨ aume integrierbarer Funktionen (Abschnitt 8.4) und damit erste funktionalanalytische Aspekte der Integrationstheorie. Im gesamten Kapitel sei (Ω, F , μ) ein Maßraum. Im folgenden bezeichnen wir eine numerische Funktion kurz als Funktion.
110
Kapitel 8. Lebesgue–Integral
8.1 Positive einfache Funktionen In diesem Abschnitt definieren wir das Lebesgue–Integral f¨ ur positive einfache Funktionen. Ausgangspunkt f¨ ur die Konstruktion des Integrals ist die Interpretation des Maßes μ[A] einer Menge A ∈ F als Integral ihrer Indikatorfunktion χA : F¨ ur eine messbare Menge A setzen wir ( χA dμ := μ[A] Ω
)
und nennen Ω χA dμ das Lebesgue–Integral oder das μ–Integral oder kurz das Integral von χA . Die Indikatorfunktion einer messbaren Menge ist eine positive einfache Funktion. Wir erweitern die Definition des Integrals nun auf beliebige positive einfache Funktionen: F¨ ur eine positive einfache Funktion f mit der Standarddarstellung a χ{f =a} f = a∈f (Ω)
setzen wir
(
f dμ := Ω
a μ[{f = a}]
a∈f (Ω)
) und nennen Ω f dμ das Lebesgue–Integral oder das μ–Integral oder kurz das Integral von f ; vgl. Aufgabe 8.1.B. Die Definition des μ–Integrals f¨ ur positive einfache Funktionen ist offensichtlich mit der Definition des μ–Integrals f¨ ur Indikatorfunktionen von messbaren Mengen vertr¨aglich. Das folgende Lemma liefert eine allgemeine Darstellung des Integrals einer positiven einfachen Funktion, die sich bei der Herleitung der Eigenschaften des Integrals als n¨ utzlich erweist und auch seine Berechnung erleichtern kann: 8.1.1 Lemma. Sei f eine positive einfache Funktion und sei f=
n
c i χC i
i=1
eine Darstellung von f mit {Ci }i∈{1,...,n} ⊆ F und {ci }i∈{1,...,n} ⊆ R+ . Dann gilt ( n f dμ = ci μ[Ci ] Ω
i=1
8.1 Positive einfache Funktionen
111
Beweis. Wir betrachten die Standarddarstellung a χ{f =a} f = a∈f (Ω)
von f . Dann gilt
a χ{f =a} =
a∈f (Ω)
n
c i χC i
i=1
und daraus ergibt sich f¨ ur alle a ∈ f (Ω) a χ{f =a} =
n
ci χCi ∩{f =a}
i=1
Es gen¨ ugt zu zeigen, dass f¨ ur alle a ∈ f (Ω) die Gleichung a μ[{f = a}] =
n
ci μ[Ci ∩ {f = a}]
(∗)
i=1
gilt, denn dann ergibt sich aus μ sofort
a∈f (Ω) {f
a μ[{f = a}] =
a∈f (Ω)
= a} = Ω und der Additivit¨at von
n
ci μ[Ci ∩ {f = a}]
a∈f (Ω) i=1
=
n
=
ci μ
n
Ci ∩ {f = a}
a∈f (Ω)
i=1
=
μ[Ci ∩ {f = a}]
a∈f (Ω)
i=1 n
ci
ci μ[Ci ]
i=1
und damit die Behauptung des Lemmas. Zum Beweis der Gleichung (*) zeigen wir, dass f¨ ur alle n ∈ N und f¨ ur jede Wahl von B, D1 , . . . , Dn ∈ F und b, d1 , . . . , dn ∈ R+ mit b χB =
n
di χDi
i=1
die Gleichung b μ[B] =
n
di μ[Di ]
i=1
gilt. Wir f¨ uhren den Beweis durch vollst¨ andige Induktion:
112
•
Kapitel 8. Lebesgue–Integral
n = 1: Wir betrachten B, D1 ∈ F und b, d1 ∈ R+ mit b χB = d1 χD1 Im Fall d1 = 0 oder D1 = ∅ gilt b = 0 oder B = ∅, und damit b μ[B] = d1 μ[D1 ] Im Fall d1 = 0 und D1 = ∅ gilt b = d1 und B = D1 , und damit b μ[B] = d1 μ[D1 ]
•
Damit ist die Behauptung f¨ ur n = 1 gezeigt. n → n + 1: Wir nehmen an, die Behauptung sei f¨ ur n bereits bewiesen, und betrachten B, D1 , . . . , Dn , Dn+1 ∈ F und b, d1 , . . . , dn , dn+1 ∈ R+ mit b χB =
n+1
di χDi
i=1
Im Fall dn+1 = 0 oder Dn+1 = ∅ gilt b χB = folgt b μ[B] =
=
n i=1 n+1
n i=1
di χDi , und daraus
di μ[Di ]
di μ[Di ]
i=1
Im Fall dn+1 = 0 und Dn+1 = ∅ gilt Dn+1 ⊆ B und 0 < dn+1 ≤ b. Aus n achst b
χDn+1 = i=1 di χDi ∩Dn+1 + dn+1 χDn+1 und Dn+1 ⊆ B folgt zun¨ n damit (b − dn+1 ) χDn+1 = i=1 di χDi ∩Dn+1 , und aus b − dn+1 ∈ R+ folgt nun (b − dn+1 ) μ[Dn+1 ] =
n
di μ[Di ∩ Dn+1 ]
i=1
Im Fall μ[Dn+1 ] < ∞ erhalten wir aus der letzten Gleichung b μ[Dn+1 ] =
n
di μ[Di ∩ Dn+1 ] + dn+1 μ[Dn+1 ]
i=1
und wegen 0 < dn+1 ≤ b gilt
diese Gleichung auch im Fall μ[Dn+1 ] = ∞. n Außerdem gilt b χB\Dn+1 = i=1 di χDi \Dn+1 , und daraus folgt b μ[B \ Dn+1 ] =
n i=1
di μ[Di \ Dn+1 ]
8.1 Positive einfache Funktionen
113
Durch Summation ergibt sich nun b μ[B] = b μ[Dn+1 ] + b μ[B \ Dn+1 ] =
=
n i=1 n+1
di μ[Di ∩ Dn+1 ] + dn+1 μ[Dn+1 ] +
n
di μ[Di \ Dn+1 ]
i=1
di μ[Di ]
i=1
2
Damit ist die Behauptung bewiesen.
Mit Hilfe des letzten Lemmas k¨ onnen wir nun leicht die elementaren Eigenschaften des Integrals f¨ ur positive einfache Funktionen beweisen: 8.1.2 Lemma. Seien f und g positive einfache Funktionen und sei a ∈ R+ . Dann gilt ( ( ( (f + g) dμ = f dμ + g dμ Ω
Ω
Ω
(
und
( af dμ = a
f dμ
Ω
Im Fall f ≤ g gilt
Insbesondere gilt
Ω
(
) Ω
(
Ω
f dμ ≤
g dμ Ω
f dμ ≥ 0.
Beweis. Mit f und g sind auch f + g und af positiv und einfach. Ausgehend von den Standarddarstellungen von f und g gewinnen wir Darstellungen der Form f = g=
n i=1 n
ci χBi di χBi
i=1
mit einer disjunkten Familie {Bi }i∈{1,...,n} ⊆ F sowie {ci }i∈{1,...,n} ⊆ R+ und {di }i∈{1,...,n} ⊆ R+ . Dann besitzen f + g und af die Darstellungen f +g = af =
n i=1 n i=1
(ci +di ) χBi a ci χBi
114
Kapitel 8. Lebesgue–Integral
und aus Lemma 8.1.1 ergibt sich nun ( n (f + g) dμ = (ci +di ) μ[Bi ] Ω
i=1
=
n
ci μ[Bi ] +
i=1
( =
(
f dμ +
n
di μ[Bi ]
i=1
g dμ
Ω
Ω
und ( af dμ = Ω
n
a ci μ[Bi ]
i=1 n
=a
ci μ[Bi ]
i=1
(
f dμ
=a Ω
ur alle i ∈ {1, . . . , n} mit Bi = ∅, und daraus folgt Im Fall f ≤ g gilt ci ≤ di f¨ ( n f dμ = ci μ[Bi ] Ω
i=1
≤
n
di μ[Bi ]
i=1
( =
g dμ Ω
Die letzte Behauptung des Lemmas ist ohnehin klar.
2
Lemma 8.1.2 besagt, dass das Integral als Abbildung von der Familie der positiven einfachen Funktionen in die Menge der erweiterten reellen Zahlen positiv linear und monoton ist. Aufgaben 8.1.A
Sei f eine positive einfache Funktion. Dann gilt Z X Z f dμ = a χ{f =a} dμ Ω
a∈f (Ω)
Ω
8.1.B
Ist μ endlich, so l¨ asst sich die hier f¨ ur positive einfache Funktionen gegebene Definition des Integrals auf beliebige einfache Funktionen erweitern.
8.1.C
Was ergibt sich aus Lemma 8.1.2 f¨ ur f := χA und g := χB mit A, B ∈ F, wenn A ∩ B = ∅ bzw. A ⊆ B gilt?
8.2 Positive messbare Funktionen
115
8.2 Positive messbare Funktionen In diesem Abschnitt erweitern wir das Lebesgue–Integral auf beliebige positive messbare Funktionen. F¨ ur eine positive messbare Funktion f setzen wir # ( ( f dμ := sup h dμ h ist einfach mit 0 ≤ h ≤ f Ω
Ω
)
und nennen Ω f dμ das Lebesgue–Integral oder das μ–Integral oder kurz das Integral von f . Die Definition des μ–Integrals f¨ ur positive messbare Funktionen ist mit der Definition des μ–Integrals f¨ ur positive einfache Funktionen vertr¨ aglich; dies ergibt sich sofort aus Lemma 8.1.2. Der folgende Satz u ¨ber die monotone Konvergenz ist das zentrale Ergebnis der Integrationstheorie: 8.2.1 Satz (Monotone Konvergenz; Levi). Sei {fn }n∈N eine monoton wachsende Folge von positiven messbaren Funktionen. Dann gilt ( ( sup fn dμ = sup fn dμ Ω n∈N
n∈N
Ω
Beweis. Wir bemerken zun¨ achst, dass die Funktion supn∈N fn messbar ist. F¨ ur alle k ∈ N gilt fk ≤ supn∈N fn und aus der Definition des Integrals f¨ ur positive messbare Funktionen ergibt sich sofort ( ( fk dμ ≤ sup fn dμ Ω
Ω n∈N
Daher gilt (
(
sup k∈N
Ω
fk dμ ≤
sup fn dμ
Ω n∈N
Zum Beweis der umgekehrten Ungleichung betrachten wir eine einfache Funktion h mit 0 ≤ h ≤ supn∈N fn sowie ein α ∈ (0, 1). F¨ ur k ∈ N sei Dk := {αh ≤ fk } Dann gilt Dk ∈ F und mit h sind auch die Funktionen hχDk und αhχDk positiv und einfach. Insbesondere ergibt sich aus der Darstellung h=
m i=1
c i χC i
116
Kapitel 8. Lebesgue–Integral
von h mit {Ci }i∈{1,...,n} ⊆ F und {ci }i∈{1,...,n} ⊆ R+ die Darstellung hχDk =
m
ci χCi ∩Dk
i=1
von hχDk . Da die Folge {Dk }k∈N monoton wachsend ist mit und da jedes Maß stetig von unten ist, erhalten wir zun¨achst ( h dμ = Ω
=
m i=1 m
k∈N
Dk = Ω
ci μ[Ci ] ci sup μ[Ci ∩ Dk ] k∈N
i=1
= sup
m
ci μ[Ci ∩ Dk ]
k∈N i=1
(
= sup k∈N
Ω
hχDk dμ
Wegen 0 ≤ αhχDk ≤ fk erhalten wir außerdem aufgrund der Definition des Integrals von fk ( ( αhχDk dμ ≤ fk dμ Ω
Ω
Unter Verwendung von Lemma 8.1.2 erhalten wir daher ( ( α h dμ = α sup hχDk dμ k∈N Ω Ω ( = sup αhχDk dμ k∈N Ω ( ≤ sup fk dμ k∈N
Ω
Durch Bildung des Supremums u ¨ ber α ∈ (0, 1) ergibt sich nun ( ( h dμ ≤ sup fk dμ Ω
k∈N
Ω
und durch Bildung des Supremums u ¨ ber alle einfachen Funktionen h mit 0 ≤ h ≤ supn∈N fn ergibt sich sodann aufgrund des Definition des Integrals von supn∈N fn ( ( sup fn dμ ≤ sup fk dμ Ω n∈N
Damit ist der Satz bewiesen.
k∈N
Ω
2
8.2 Positive messbare Funktionen
117
Nach dem Approximationssatz ist eine positive Funktion f genau dann messbar, wenn es eine monoton wachsende Folge {fn }n∈N von positiven einfachen Funktionen gibt mit f = supn∈N fn ; das folgende Ergebnis zeigt, dass f¨ ur jede Wahl der approximierenden Folge das Integral von f mit dem Supremum der Integrale der approximierenden Funktionen fn u ¨ bereinstimmt. Dies ist eine unmittelbare Folgerung aus dem Satz u ¨ber die monotone Konvergenz. 8.2.2 Folgerung. Sei f eine positive messbare Funktion und sei {fn }n∈N eine monoton wachsende Folge von positiven einfachen Funktionen mit f = supn∈N fn . Dann gilt ( ( f dμ = sup fn dμ Ω
Ω
n∈N
Das letzte Ergebnis erweist sich bei der Herleitung weiterer Eigenschaften des Integrals als n¨ utzlich und kann auch seine Berechnung erleichtern. Insbesondere k¨ onnen wir nun zeigen, dass das Integral einer positiven messbaren Funktion dieselben elementaren Eigenschaften besitzt wie das Integral einer positiven einfachen Funktion: 8.2.3 Lemma. Seien f und g positive messbare Funktionen und sei a ∈ R+ . Dann gilt ( ( ( (f + g) dμ = f dμ + g dμ Ω
Ω
Ω
(
und
( af dμ = a
f dμ
Ω
Im Fall f ≤ g gilt
Insbesondere gilt
Ω
(
(
) Ω
Ω
f dμ ≤
g dμ Ω
f dμ ≥ 0.
Beweis. Seien {fn }n∈N und {gn }n∈N monoton wachsende Folgen von positiven einfachen Funktionen mit f = sup fn n∈N
g = sup gn n∈N
Dann sind auch {fn + gn }n∈N und {afn }n∈N monoton wachsende Folgen von positiven einfachen Funktionen und es gilt f + g = sup(fn +gn ) n∈N
af = sup afn n∈N
118
Kapitel 8. Lebesgue–Integral
Aus Folgerung 8.2.2 und Lemma 8.1.2 folgt nun ( ( (f +g) dμ = sup (fn +gn ) dμ n∈N Ω Ω ! ( ( = sup fn dμ + gn dμ n∈N Ω ( Ω ( = sup fn dμ + sup gn dμ n∈N Ω n∈N Ω ( ( = f dμ + g dμ Ω
und
Ω
(
( af dμ = sup
Ω
afn dμ ( = a sup fn dμ n∈N Ω ( =a f dμ Ω
n∈N
Ω
2
Die u ¨ brigen Behauptungen sind klar.
Lemma 8.2.3 besagt, dass das Integral als Abbildung von der Familie der positiven messbaren Funktionen in die Menge der erweiterten reellen Zahlen positiv linear und monoton ist. Der Satz u asst sich nun auch als Aussage u ¨ ber die monotone Konvergenz l¨ ¨ ber das Integral einer Reihe von positiven messbaren Funktionen formulieren: 8.2.4 Folgerung (Monotone Konvergenz; Levi). Sei {fn }n∈N eine Folge von positiven messbaren Funktionen. Dann gilt ( ∞ ∞ ( fn dμ = fn dμ Ω
n=1
n=1
Ω
Beweis. Die Folge der Partialsummen nk=1 fk ist eine monoton wachsende Folge von positiven messbaren Funktionen. Aus dem Satz u ¨ ber die monotone Konvergenz und der Additivit¨ at des Integrals folgt nun ( ( ∞ n sup fk dμ = fk dμ Ω
k=1
Ω
= sup n∈N
n∈N
k=1
( n Ω
k=1
fk dμ
8.2 Positive messbare Funktionen
119
= sup n∈N
=
n ( k=1
∞ ( k=1
Ω
Ω
fk dμ
fk dμ 2
Damit ist die Folgerung bewiesen.
Wir beweisen nun einige weitere Ergebnisse u ¨ber das Integral einer positiven messbaren Funktion. Ein gleichzeitig elementares und zentrales Ergebnis, das vielf¨ altige Anwendungen besitzt, ist die folgende Ungleichung von Markov, die wir im Hinblick auf ihre Anwendungen f¨ ur den Betrag einer beliebigen messbaren Funktion formulieren: 8.2.5 Lemma (Ungleichung von Markov). Sei f eine messbare Funktion. Dann gilt f¨ ur alle c ∈ (0, ∞) ( 1 |f | dμ μ[{|f | ≥ c}] ≤ c Ω Beweis. Unter Verwendung von Lemma 8.2.3 ergibt sich ( ( ( 1 1 |f | χ{|f |≥c} dμ ≤ χ{|f |≥c} dμ ≤ |f | dμ μ[{|f | ≥ c}] = c Ω Ω Ω c 2
Damit ist das Lemma bewiesen.
Lemma 8.2.5 ist die Basisversion der Ungleichung von Markov. Aus ihr l¨asst sich eine ganze Schar von Ungleichungen ableiten: 8.2.6 Folgerung (Ungleichung von Markov). Sei f eine messbare Funkur tion. Dann gilt f¨ ur jede monoton wachsende Funktion h : R+ → R+ und f¨ alle c ∈ R+ mit h(c) > 0 ( 1 μ[{|f | ≥ c}] ≤ h ◦ |f | dμ h(c) Ω Beweis. Aus Lemma 8.2.5 ergibt sich * + μ[{|f | ≥ c}] ≤ μ h ◦ |f | ≥ h(c) ≤ Damit ist die Folgerung bewiesen.
1 h(c)
( Ω
h ◦ |f | dμ 2
Aus der Ungleichung von Markov folgt zun¨ achst, dass jede messbare Funktion, f¨ ur die das Integral ihres Betrages endlich ist, fast u ¨ berall endlich ist:
120
Kapitel 8. Lebesgue–Integral
8.2.7 Lemma. Sei f eine messbare Funktion mit ( |f | dμ < ∞ Ω
Dann ist f μ–fast ¨ uberall endlich. Beweis. Aus der Ungleichung von Markov folgt f¨ ur alle n ∈ N ( 1 μ[{|f | = ∞}] ≤ μ[{|f | ≥ n}] ≤ |f | dμ n Ω ) und aus der Voraussetzung Ω |f | dμ < ∞ folgt nun μ[{|f | = ∞}] = 0.
2
Aus der Ungleichung von Markov folgt ferner, dass eine messbare Funktion genau dann fast u ¨ berall verschwindet, wenn das Integral ihres Betrages verschwindet; dieses Ergebnis ist gleichzeitig eine Anwendung des Satzes u ¨ ber die monotone Konvergenz: 8.2.8 Lemma. Sei f eine messbare Funktion. Dann sind folgende Aussagen ¨aquivalent : (a) Es gilt f) (ω) = 0 μ–fast ¨ uberall. (b) Es gilt Ω |f | dμ = 0. Beweis. Wir nehmen zun¨ achst an, dass (a) gilt. F¨ ur n ∈ N sei gn : Ω → R gegeben durch gn (ω) := n χ{f =0} (ω) Dann ist {gn }n∈N eine monoton wachsende Folge von positiven messbaren ur alle n ∈ N gilt Funktionen mit |f | ≤ supn∈N gn und f¨ ( gn dμ = n μ[{f = 0}] = 0 Ω
Aus dem Satz u ¨ber die monotone Konvergenz folgt nun ( ( ( |f | dμ ≤ sup gn dμ = sup gn dμ = 0 )
Ω
Ω n∈N
n∈N
Ω
und damit Ω |f | dμ = 0. Daher folgt (b) aus (a). Wir nehmen nun an, dass (b) gilt. Aus der Ungleichung von Markov folgt f¨ ur alle n ∈ N ( |f | dμ = 0 μ[{|f | ≥ 1/n}] ≤ n Ω
Daraus ergibt sich μ[{|f | > 0}] = sup μ[{|f | ≥ 1/n}] = 0 n∈N
und damit μ[{|f | = 0}] = 0. Daher folgt (a) aus (b).
2
8.2 Positive messbare Funktionen
121
Die letzten beiden Ergebnisse sind typische Beispiele daf¨ ur, wie sich eine fast u ¨ berall bestehende Eigenschaft einer positiven messbaren Funktion aus einer Eigenschaft ihres Integrals ergibt. Außerdem zeigt das folgende Beispiel, dass die Ausnahmemenge nicht leer sein muss. Dies ist letztlich der Grund daf¨ ur, u ¨ berhaupt fast u ¨berall bestehende Eigenschaften zu betrachten. 8.2.9 Beispiel (Dirichlet–Funktion). ¯ mit Dirichlet–Funktion f : Ω → R j ∞ f (ω) := 0
Sei (Ω, F, μ) := (R, B(R), λ). F¨ ur die falls ω ∈ Q sonst
gilt μ[{f damit f (ω) = 0 μ–fast u ¨ berall. Aus Lemma 8.2.8 R = 0}] = μ[Q] = 0 und R folgt Ω f dμ = 0 und damit Ω f dμ < ∞, aber es gilt weder f = 0 noch f < ∞.
Andererseits zeigen die folgenden Ergebnisse, dass bei der Integration positiver messbaren Funktionen Nullmengen vernachl¨ assigt werden k¨onnen: 8.2.10 Lemma. Seien f und g positive messbare Funktionen mit f (ω) ≤ g(ω) μ–fast ¨ uberall. Dann gilt ( ( f dμ ≤ g dμ Ω
Ω
Beweis. Nach Voraussetzung gilt (f χ{f >g} )(ω) = 0 fast u ¨ berall und aus ) Lemma 8.2.8 folgt Ω f χ{f >g} dμ = 0. Außerdem gilt f χ{f ≤g} ≤ g. Unter Verwendung von Lemma 8.2.3 erhalten wir ( ( ( ( ( f dμ = f χ{f ≤g} dμ + f χ{f >g} dμ = f χ{f ≤g} dμ ≤ g dμ Ω
Ω
Ω
Ω
Ω
2
Damit ist das Lemma bewiesen.
Insbesondere sind die Integrale von positiven messbaren Funktionen, die sich nur auf einer Nullmenge unterscheiden, identisch: 8.2.11 Folgerung. Seien f und g positive messbare Funktionen mit f (ω) = g(ω) μ–fast u ¨ berall. Dann gilt ( ( f dμ = g dμ Ω
Ω
Dieses Ergebnis legt es nahe, die Definition des Integrals wie folgt zu erweitern: F¨ ur eine Funktion h, die μ–fast u ¨berall definiert ist und μ–fast u ¨berall mit einer positiven messbaren Funktion f u ¨bereinstimmt, setzen wir ( ( h dμ := f dμ Ω
Ω
122
Kapitel 8. Lebesgue–Integral
) und nennen Ω h dμ das Lebesgue–Integral oder das μ–Integral oder kurz das Integral von h. Nach Folgerung 8.2.11 ist das μ–Integral von h unabh¨angig von der Wahl der positiven messbaren Funktion f mit h =μ f . Alle Ergebnisse dieses Abschnitts gelten auch f¨ ur diese Verallgemeinerung des μ–Integrals. Insbesondere bleibt der Satz u ultig, ¨ber die monotone Konvergenz auch dann g¨ wenn man annimmt, dass die Folge {fn }n∈N nur μ–fast u ¨berall monoton wachsend ist. Wir beschließen diesen Abschnitt mit einer Ungleichung, die auf dem Satz u ur einen weiteren ¨ ber die monotone Konvergenz beruht und die Grundlage f¨ Konvergenzsatz bildet, den wir im n¨ achsten Abschnitt beweisen: 8.2.12 Lemma (Fatou). Sei {fn }n∈N eine Folge von positiven messbaren Funktionen. Dann gilt ( ( lim inf fn dμ ≤ lim inf fn dμ Ω n→∞
n→∞
Ω
Beweis. F¨ ur n ∈ N sei gn := inf fk k∈N(n)
Dann ist {gn }n∈N eine monoton wachsende Folge von positiven messbaren Funktionen mit gn ≤ fn f¨ ur alle n ∈ N und aus dem Satz u ¨ ber die monotone Konvergenz ergibt sich ( ( lim inf fn dμ = sup inf fk dμ n∈N k∈N(n) Ω n→∞ (Ω = sup gn dμ Ω n∈N ( = sup gn dμ n∈N Ω ( = lim gn dμ n→∞ Ω ( = lim inf gn dμ n→∞ (Ω fn dμ ≤ lim inf n→∞
Damit ist das Lemma bewiesen.
Ω
2
Das folgende Beispiel zeigt, dass man im Lemma von Fatou die Ungleichung im allgemeinen nicht durch eine Gleichung ersetzen kann:
8.3 Integrierbare Funktionen
123
8.2.13 Beispiel. Sei (Ω, F, μ) := (R, B(R), λ). F¨ ur alle n ∈ N sei fn gegeben durch fn (ω) := n χ(0,1/n] (ω) R Dann gilt lim R n→∞ fn = 0 und damit Ω lim inf n→∞ fn dμ = 0. Andererseits gilt lim inf n→∞ Ω fn dμ = 1.
Aufgaben 8.2.A
Sei (Ω, F) ein Messraum und {μn }n∈N eine Folge von Maßen F → [0, ∞]. Sei ferner μ : F → [0, ∞] gegeben durch μ[A] :=
∞ X
μn [A]
n=1
Dann ist μ ein Maß und f¨ ur jede positive messbare Funktion f gilt Z f dμ = Ω
∞ Z X n=1
Ω
f dμn
8.2.B
Monotone Konvergenz: Was ergibt sich aus Folgerung 8.2.4 im Fall fn := χAn mit einer disjunkten Folge {An }n∈N ⊆ F?
8.2.C
Ungleichung von Markov: Zu jedem c ∈ (0, ∞) gibt es eine messbare Funktion f mit Z 1 μ[{|f | ≥ c}] = |f | dμ c Ω
8.2.D
Lemma von Fatou: Sei {fn }n∈N eine Folge von positiven messbaren R Funktionen mit Ω supn∈N fn dμ < ∞. Dann gilt Z Z lim sup fn dμ ≤ lim sup fn dμ Ω
n→∞
8.2.E
Ω
n→∞
Sei {An }n∈N ⊆ F. Dann gilt – » μ lim inf An ≤ lim inf μ[An ] n→∞
n→∞
S Im Fall μ[ n∈N An ] < ∞ gilt auch » – lim sup μ[An ] ≤ μ lim sup An n→∞
n→∞
8.3 Integrierbare Funktionen In diesem Abschnitt erweitern wir die Definition des Lebesgue–Integrals auf bestimmte messbare Funktionen, die nicht positiv sein m¨ ussen.
124
Kapitel 8. Lebesgue–Integral
Eine messbare Funktion f heißt μ–quasiintegrierbar oder kurz quasiintegrierbar , wenn # ( ( + − f dμ, f dμ < ∞ min Ω
Ω
gilt; in diesem Fall setzen wir ( ( ( + f dμ := f dμ − f − dμ )
Ω
Ω
Ω
und nennen Ω f dμ das Lebesgue–Integral oder das μ–Integral oder kurz das Integral von f . Die Definition des μ–Integrals f¨ ur μ–quasiintegrierbare Funktionen ist mit der Definition des μ–Integrals f¨ ur positive messbare Funktionen vertr¨ aglich, denn f¨ ur jede positive messbare Funktion f gilt f + = f und − f = 0. Ist f μ–quasiintegrierbar, so ist nach Lemma 8.2.7 f + oder f − μ–fast u ¨ berall endlich. Eine messbare Funktion f heißt Lebesgue–integrierbar oder μ–integrierbar oder kurz integrierbar , wenn ( # ( + − max f dμ, f dμ < ∞ Ω
Ω
gilt. Das folgende Lemma charakterisiert die μ–Integrierbarkeit einer messbaren Funktion: 8.3.1 Lemma. Sei f eine messbare Funktion. Dann sind folgende Aussagen ¨aquivalent : (a) f ist μ–integrierbar. (b) Es gilt ( |f | dμ < ∞ Ω
(c) Es gibt positive messbare Funktionen g und h mit f = g − h und ( # ( max g dμ, h dμ < ∞ Ω
Ω
In diesem Fall ist f μ–fast u ¨berall endlich. Beweis. Es gilt |f | = f + + f − und aus Lemma 8.2.3 folgt ( ( ( |f | dμ = f + dμ + f − dμ Ω
Ω
Ω
Daher sind (a) und (b) ¨ aquivalent, und es ist klar, dass (c) aus (b) folgt. Wir nehmen nun an, dass (c) gilt, und betrachten positive messbare Funktionen g und h mit f = g − h und
8.3 Integrierbare Funktionen
125
(
(
max
g dμ, Ω
Ω
# h dμ < ∞
Wegen f = g − h ≤ g gilt f + ≤ g und wegen −f = h − g ≤ h gilt f − ≤ h. Aus Lemma 8.2.3 folgt nun ( ( f + dμ ≤ g dμ Ω Ω ( ( f − dμ ≤ h dμ Ω
Ω
und damit (
+
(
f dμ,
max Ω
Ω
# f dμ < ∞ −
Damit ist gezeigt, dass (b) aus (c) folgt. Die letzte Aussage folgt aus Lemma 8.2.7. 2 Aus dem letzten Lemma folgt, dass eine positive messbare Funktion nicht notwendigerweise integrierbar ist; dies gilt sogar f¨ ur reelle positive messbare Funktionen: 8.3.2 Beispiel. Sei f gegeben durch f (ω) := 1 Dann ist f messbar und positiv, und folgende Aussagen sind ¨ aquivalent: (a) μ ist endlich. (b) f ist μ–integrierbar.
Offenbar ist eine positive messbare Funktion genau dann integrierbar, wenn ihr Integral endlich ist. Daher l¨ asst sich das letzte Lemma auch wie folgt formulieren: 8.3.3 Folgerung. Sei f eine messbare Funktion. Dann sind folgende Aussagen ¨aquivalent : (a) f ist μ–integrierbar. (b) |f | ist μ–integrierbar. (c) f + und f − sind μ–integrierbar. (d) Es gibt positive μ–integrierbare Funktionen g und h mit f = g − h. Das folgende Lemma liefert eine allgemeine Darstellung des Integrals einer integrierbaren Funktion, die sich bei der Herleitung der Eigenschaften des Integrals als n¨ utzlich erweist und auch seine Berechnung erleichtern kann:
126
Kapitel 8. Lebesgue–Integral
8.3.4 Lemma. Sei f eine μ–integrierbare Funktion. Dann gilt f¨ ur jede Wahl von positiven μ–integrierbaren Funktionen g und h mit f = g − h ( ( ( f dμ = g dμ − h dμ Ω
Ω
Ω
Beweis. Seien g und h positive integrierbare Funktionen mit f = g − h. Dann gilt f + − f − = f = g − h und damit f + + h = g + f − , und aus Lemma 8.2.3 folgt nun ( ( ( ( + f dμ + h dμ = g dμ + f − dμ Ω
Ω
Ω
Ω
Da alle Integrale endlich sind, folgt daraus ( ( ( ( f + dμ − f − dμ = g dμ − h dμ Ω
Ω
Ω
Ω
2
Damit ist das Lemma bewiesen.
Das n¨ achste Lemma liefert eine hinreichende Bedingung f¨ ur die Integrierbarkeit einer messbaren Funktion: 8.3.5 Lemma. Seien f und g messbare Funktionen mit |f (ω)| ≤ |g(ω)| μ–fast uberall. Ist g μ–integrierbar , so ist auch f μ–integrierbar. ¨ Beweis. Nach Lemma 8.2.10 gilt
) Ω
|f | dμ ≤
) Ω
|g| dμ.
2
Wie im Fall positiver messbarer Funktionen sind auch die Integrale integrierbarer Funktionen, die sich nur auf einer Nullmenge unterscheiden, identisch: 8.3.6 Lemma. Seien f und g messbare Funktionen mit f (ω) = g(ω) μ–fast uberall. Dann sind folgende Aussagen ¨aquivalent : ¨ (a) f ist μ–integrierbar. (b) g ist μ–integrierbar. In diesem Fall gilt ( ( f dμ = Ω
g dμ Ω
f − (ω) g − (ω) fast Beweis. Es gilt f + (ω) = g + (ω) fast u ¨ berall ¨ berall, ) und ) = ) u + + − und aus Folgerung 8.2.11 ergibt sich nun f dμ = g dμ und f dμ = Ω Ω Ω ) − g dμ. 2 Ω Wir beweisen nun ein Analogon zu Lemma 8.2.3:
8.3 Integrierbare Funktionen
127
8.3.7 Lemma. Seien f und g μ–integrierbare reelle Funktionen und sei a ∈ R. (1) Die Funktion f + g ist μ–integrierbar und es gilt ( ( ( (f +g) dμ = f dμ + g dμ Ω
Ω
Ω
(2) Die Funktion af ist μ–integrierbar und es gilt ( ( af dμ = a f dμ Ω
(3) Im Fall f ≤ g gilt
Ω
( Ω
( f dμ ≤
g dμ Ω
(4) Die Funktionen f ∨ g und f ∧ g sind μ–integrierbar. Beweis. Wegen |f + g| ≤ |f | + |g| ist f + g nach Lemma 8.3.5 integrierbar und wegen f = f + − f − und g = g + − g − gilt f + g = (f + + g + ) − (f − + g − ). Aus Lemma 8.3.4 folgt nun ( ( ( (f +g) dμ = (f + +g + ) dμ − (f − +g − ) dμ Ω Ω Ω ! ! ( ( ( ( = f + dμ + g + dμ − f − dμ + g − dμ Ω Ω Ω Ω ! ! ( ( ( ( + − + − f dμ − f dμ + g dμ − g dμ = Ω Ω ( Ω ( Ω = f dμ + g dμ Ω
Ω
Damit ist (1) gezeigt. Nach Lemma 8.2.3 gilt ( ( |af | dμ = |a||f | dμ Ω Ω ( = |a| |f | dμ Ω
Daher ist af integrierbar. Wegen f = f + − f − gilt −f = f − − f + und damit ( ( ( − (−f ) dμ = f dμ − f + dμ Ω Ω Ω ! ( ( + − =− f dμ − f dμ Ω ( Ω =− f dμ Ω
+
Im Fall a ∈ R+ gilt af = (af ) − (af )− = af + − af − und aus Lemma 8.2.3 folgt nun
128
Kapitel 8. Lebesgue–Integral
(
(
af + dμ −
(
af − dμ ( ( + =a f dμ − a f − dμ Ω Ω ! ( ( =a f + dμ − f − dμ Ω ( Ω =a f dμ
af dμ = Ω
Ω
Ω
Ω
Im Fall a ∈ (−∞, 0) gilt a = −|a| und aus dem bisher gezeigten folgt ( ( af dμ = (−|a|)f dμ Ω Ω ( |a|f dμ =− Ω ( = −|a| f dμ ( Ω =a f dμ Ω
Damit ist (2) gezeigt. Im Fall f ≤ g gilt f + ≤ g + und g − ≤ f − , und damit ( ( f + dμ ≤ g + dμ Ω Ω ( ( − g dμ ≤ f − dμ Ω
Daraus folgt
Ω
(
( f dμ = Ω
Ω
f + dμ −
( ≤
Ω
(
+
g dμ −
( =
(
f − dμ
Ω
g − dμ
Ω
g dμ Ω
Damit ist (3) gezeigt. Wegen |f ∨ g| ≤ |f | + |g| und |f ∧ g| ≤ |f | + |g| sind |f ∨ g| und |f ∧ g| nach Lemma 8.3.5 integrierbar. Damit ist (4) gezeigt. 2 Aus Lemma 8.3.7 ergibt sich ein Spezialfall der Ungleichung von Jensen: 8.3.8 Folgerung (Ungleichung von Jensen). Sei f μ–integrierbar. Dann gilt ( ( f dμ ≤ |f | dμ Ω
Ω
)
) ) Beweis. Nach ) Lemma 8.3.7 gilt Ω f dμ ≤ Ω |f | dμ und − Ω f dμ = ) (−f ) dμ ≤ Ω |f | dμ. Daraus folgt die Behauptung. 2 Ω
8.3 Integrierbare Funktionen
129
Wir beweisen nun einen Konvergenzsatz f¨ ur integrierbare Funktionen: 8.3.9 Satz (Majorisierte Konvergenz; Lebesgue). Sei {fn }n∈N eine Folge von messbaren reellen Funktionen, die gegen eine reelle Funktion f konvergiert. Wenn supn∈N |fn | μ–integrierbar ist , dann ist auch f μ–integrierbar und es gilt ( |fn −f | dμ = 0 lim n→∞
Ω
Insbesondere ist jede der Funktionen fn μ–integrierbar und es gilt ( ( lim fn dμ = lim fn dμ Ω n→∞
n→∞
Ω
Beweis. Als Limes einer konvergenten Folge von messbaren Funktionen ist f messbar. Sei nun g := sup |fn | n∈N
Nach Voraussetzung ist g integrierbar. Damit ist auch jede der Funktionen fn integrierbar, und wegen |f | ≤ g ist auch f integrierbar. Aus der Dreiecksungleichung ergibt sich nun |fn −f | ≤ |fn | + |f | ≤ g + |f | und damit g + |f | − |fn −f | ≥ 0 Nach Voraussetzung gilt
lim g + |f | − |fn −f | = g + |f |
n→∞
und aus dem Lemma von Fatou folgt nun ( ( g + |f | dμ = lim g + |f | − |fn −f | dμ n→∞ Ω (Ω = lim inf g + |f | − |fn −f | dμ Ω n→∞ ( g + |f | − |fn −f | dμ ≤ lim inf n→∞ Ω ( ( g + |f | dμ + lim inf −|fn −f | dμ = n→∞ (Ω (Ω g + |f | dμ − lim sup |fn −f | dμ = Ω
n→∞
Ω
Da g + |f | integrierbar ist, erhalten wir daraus ( lim sup |fn −f | dμ ≤ 0 )
n→∞
Ω
und damit limn→∞ Ω |fn−f | dμ = 0. Die abschließende Behauptung folgt nun aus der Ungleichung von Jensen. 2
130
Kapitel 8. Lebesgue–Integral
Die Voraussetzungen des Satzes u ¨ ber die majorisierte Konvergenz sind insbesondere dann erf¨ ullt, wenn eine monoton wachsende Folge von positiven messbaren reellen Funktionen vorliegt, deren Supremum integrierbar ist. Das folgende Beispiel zeigt, dass man im Satz u ¨ ber die majorisierte Konvergenz auf die Forderung der Integrierbarkeit von supn∈N |fn | nicht verzichten kann: 8.3.10 Beispiel. Sei (Ω, F, μ) := (R, B(R), λ). F¨ ur n ∈ N sei fn gegeben durch fn (ω) := n χ(0,1/n] (ω) R ur alle n ∈ N, und damit Dann gilt limn→∞ fn = 0. Andererseits gilt Ω fn dμ = 1 f¨ Z Z fn dμ = lim fn dμ lim n→∞
Ω n→∞
Ω
Daraus folgt, dass supn∈N fn nicht μ–integrierbar ist.
Wie der Satz u ¨ ber die monotone Konvergenz liefert auch der Satz u ¨ ber die majorisierte Konvergenz einen Konvergenzsatz f¨ ur unendliche Reihen: 8.3.11 Folgerung (Majorisierte Konvergenz; Lebesgue). Sei
{fn }n∈N ∞ eine Folge von messbaren reellen Funktionen derart , dass die Reihe n=1 fn
n gegen eine reelle Funktion konvergiert. Wenn sup | f | μ–integrierbar n∈N k=1 k
ist , dann ist auch die Reihe ∞ n=1 fn sowie jede der Funktionen fn μ–integrierbar und es gilt ( ∞ ∞ ( fn dμ = fn dμ Ω
n=1
n=1
Ω
Beweis. Aus dem Satz u ¨ ber
die majorisierte Konvergenz folgt zun¨achst die Integrierbarkeit der Reihe ∞ n=1 fn und ihrer Partialsummen sowie ( ( ∞ n fn dμ = lim fk dμ Ω
n=1
n
n→∞
Ω
k=1
n−1
Wegen fn = k=1 fk − k=1 fk sind dann auch alle fn integrierbar und aus der Linearit¨ at des Integrals folgt nun ( ∞ n ( fn dμ = lim fk dμ Ω
n→∞
n=1
=
∞ ( k=1
Damit ist die Folgerung bewiesen.
k=1
Ω
Ω
fk dμ 2
8.3 Integrierbare Funktionen
131
Wir untersuchen die im Satz u ¨ ber die majorisierte Konvergenz auftretende Art der Konvergenz etwas n¨ aher. Eine Folge {fn }n∈N von μ–integrierbaren reellen Funktionen konvergiert im Mittel (bez¨ uglich μ) gegen eine messbare reelle Funktion f , wenn ( lim |fn −f | dμ = 0 n→∞
Ω
gilt; wegen (
( Ω
|f | dμ ≤
Ω
( |f −fn| dμ +
Ω
|fn | dμ
ist dann auch f μ–integrierbar. Der Satz u ¨ ber die majorisierte Konvergenz liefert also eine hinreichende Bedingung daf¨ ur, dass eine Folge von integrierbaren reellen Funktionen, die gegen eine reelle Funktion f konvergiert, auch im Mittel gegen f konvergiert. Wir vergleichen nun die Konvergenz im Mittel mit der Konvergenz im Maß: 8.3.12 Satz. Jede Folge von μ–integrierbaren reellen Funktionen, die im Mittel gegen eine μ–integrierbare reelle Funktion f konvergiert , konvergiert auch im Maß μ gegen f . Beweis. Sei {fn }n∈N eine Folge von integrierbaren reellen Funktionen, die im Mittel gegen eine reelle Funktion f konvergiert. F¨ ur alle ε ∈ (0, ∞) folgt aus der Ungleichung von Markov ( 1 μ[{|fn −f | ≥ ε}] ≤ |fn −f | dμ ε Ω 2
und daraus folgt die Behauptung.
Lemma 8.3.6 legt es nahe, den Begriff der μ–Integrierbarkeit und damit auch die Definition des μ–Integrals wie folgt zu erweitern: Eine Funktion h, die μ– fast u ¨ berall definiert ist und μ–fast u ¨ berall mit einer μ–integrierbaren Funktion f u ¨ bereinstimmt, heißt Lebesgue–integrierbar oder μ–integrierbar oder kurz integrierbar , und in diesem Fall setzen wir ( ( h dμ := f dμ )
Ω
Ω
und nennen Ω h dμ das Lebesgue–Integral oder das μ–Integral oder kurz das Integral von h. Nach Lemma 8.3.6 ist das μ–Integral von h unabh¨angig von der Wahl der μ–integrierbaren Funktion f mit h =μ f , und nach Lemma 8.3.1 kann f reell gew¨ ahlt werden. Mit dieser Erweiterung wird die ¨ μ–Integrierbarkeit zu einer Eigenschaft bestimmter Aquivalenzklassen von ¨ =μ . L0 (F , μ) unter der Aquivalenzrelation
132
Kapitel 8. Lebesgue–Integral
Alle Ergebnisse dieses Abschnitts gelten auch f¨ ur diese Verallgemeinerung der μ–Integrierbarkeit und des μ–Integrals. Insbesondere kann die an einigen Stellen getroffene Annahme, dass bestimmte μ–integrierbare Funktionen reell sind, entfallen, und der Satz u ¨ber die majorisierte Konvergenz auch dann g¨ ultig, wenn man nur Konvergenz μ–fast u ¨ berall voraussetzt. Wir k¨onnen daher bei der Betrachtung einer abz¨ ahlbaren Familie von μ–integrierbaren Funktionen stets annehmen, dass alle Funktionen reell sind. Im Hinblick auf die verschiedenen Arten der Konvergenz l¨asst sich zusammenfassend sagen, dass – aus der Konvergenz fast u ¨berall unter Zusatzbedingungen die Konvergenz im Mittel und – aus der Konvergenz im Mittel ohne Zusatzbedingungen die Konvergenz im Maß folgt; andererseits zeigen die folgenden Beispiele, dass weder aus der Konvergenz im Maß die Konvergenz im Mittel noch aus der Konvergenz im Mittel die Konvergenz fast u ¨berall folgt: 8.3.13 Beispiele. Sei (Ω, F, μ) := (R, B(R), λ). (1) F¨ ur n ∈ N sei fn gegeben durch fn (ω) := n2 χ(0,1/n] (ω) Dann gilt f¨ ur alle ε ∈ (0, ∞) μ[{fn > ε}] ≤ 1/n Daher konvergiert die Folge {fn }n∈N im Maß gegen 0. Andererseits gilt Z fn dμ = n Ω
Daher konvergiert die Folge {fn }n∈N nicht im Mittel. (2) F¨ ur m ∈ N0 und k ∈ {1, . . . , 2m } sei f2m +k−1 gegeben durch f2m +k−1 (ω) := χ((k−1)2−m ,k2−m ] (ω) Dann gilt
Z Ω
h i f2m +k−1 dμ = μ ((k−1)2−m , k2−m ] = 2−m
Daher konvergiert die Folge {fn }n∈N im Mittel gegen 0, aber sie ist nicht fast u ¨ berall konvergent.
F¨ ur eine μ–quasiintegrierbare Funktion f setzen wir ( ( f (ω) dμ(ω) := f dμ Ω
Ω
Die Angabe der Integrationsvariablen ist in vielen F¨allen hilfreich. Dies gilt insbesondere f¨ ur die folgenden Anwendungen des Satzes u ¨ ber die majorisierte Konvergenz:
8.3 Integrierbare Funktionen
133
8.3.14 Lemma (Stetigkeitslemma). Sei (a, b) ⊆ R ein nichtleeres Intervall , sei x0 ∈ (a, b) und sei f : (a, b)× Ω → R eine Funktion mit den folgenden Eigenschaften: – F¨ ur alle x ∈ (a, b) ist die Funktion ω → f (x, ω) messbar. – F¨ ur alle ω ∈ Ω ist die Funktion x → f (x, ω) stetig in x0 . – Es gibt eine μ–integrierbare Funktion h : Ω → R mit sup |f (x, ω)| ≤ h(ω) x∈(a,b)
f¨ ur alle ω ∈ Ω. Dann ist die Funktion F : (a, b) → R mit ( f (x, ω) dμ(ω) F (x) := Ω
stetig in x0 . ur Beweis. Sei {xn }n∈N ⊆ (a, b) eine Folge mit limn→∞ xn = x0 . Dann ist f¨ ur alle ω ∈ Ω gilt alle n ∈ N0 die Funktion ω → f (xn , ω) messbar und f¨ limn→∞ f (xn , ω) = f (x0 , ω) und supn∈N |f (xn ; ω)| ≤ h(ω). Aus dem Satz u ¨ ber die majorisierte Konvergenz folgt nun ( ( f (xn , ω) dμ(ω) = f (x0 , ω) dμ(ω) = F (x0 ) lim F (xn ) = lim n→∞
n→∞
Ω
Ω
2
Damit ist das Lemma bewiesen.
Ein vergleichbares Ergebnis erh¨ alt man f¨ ur die Vertauschung von Differentiation und Integration: 8.3.15 Lemma (Differentiationslemma). Sei (a, b) ⊆ R ein nichtleeres Intervall und sei f : (a, b) × Ω → R eine Funktion mit den folgenden Eigenschaften: – F¨ ur alle x ∈ (a, b) ist die Funktion ω → f (x, ω) messbar. – F¨ ur alle ω ∈ Ω ist die Funktion x → f (x, ω) differenzierbar. – Es gibt eine μ–integrierbare Funktion h : Ω → R mit df sup (x, ω) ≤ h(ω) dx x∈(a,b) f¨ ur alle ω ∈ Ω. Dann ist die Funktion F : (a, b) → R mit ( F (x) := f (x, ω) dμ(ω) Ω
differenzierbar und es gilt dF (x) = dx
( Ω
df (x, ω) dμ(ω) dx
134
Kapitel 8. Lebesgue–Integral
Beweis. Sei x0 ∈ (a, b) und sei {xn }n∈N ⊆ (a, b) eine Folge mit xn = x0 f¨ ur alle n ∈ N. Dann ist f¨ ur alle n ∈ N die Funktion gn : Ω → R mit gn (ω) :=
f (xn , ω) − f (x0 , ω) xn − x0
messbar und f¨ ur alle ω ∈ Ω gilt lim gn (ω) =
n→∞
df (x0 , ω) dx
Nach dem Mittelwertsatz gibt es f¨ ur alle n ∈ N und ω ∈ Ω ein zn (ω) ∈ (a, b) mit gn (ω) =
df (zn (ω), ω) dx
Daher gilt sup |gn (ω)| ≤ h(ω) n∈N
Aus dem Satz u ¨ber die majorisierte Konvergenz folgt nun ( ( df (x0 , ω) dμ(ω) = lim gn (ω) dμ(ω) Ω dx Ω n→∞ ( = lim gn (ω) dμ(ω) n→∞ Ω ( f (xn , ω) − f (x0 , ω) = lim dμ(ω) n→∞ Ω xn − x0 F (xn ) − F (x0 ) = lim n→∞ xn − x0 dF = (x0 ) dx 2
Damit ist das Lemma bewiesen. Aufgaben 8.3.A
Quasiintegrierbare Funktionen: (1) Sei f eine messbare Funktion. Dann sind folgende Aussagen ¨ aquivalent: (a) f ist μ–quasiintegrierbar. (b) f + oder f − ist μ–integrierbar. (c) Es gibt positive messbare Funktionen g und h mit f = g − h derart, dass g oder h μ–integrierbar ist. (2) Sei f eine μ–quasiintegrierbare Funktion. Dann gilt f¨ ur jede Wahl von positiven R messbaren Funktionen g und h mit f = g − h und R min{ Ω g dμ, Ω h dμ} < ∞ Z Z Z Z g dμ − h dμ = f + dμ − f − dμ Ω
Ω
Ω
Ω
8.4 Lp –R¨ aume
135
(3) Seien f und g μ–quasiintegrierbare Funktionen, von denen mindestens eine μ–integrierbar ist. Dann ist f +g μ–quasiintegrierbar und es gilt Z Z Z (f +g) dμ = f dμ + g dμ Ω
8.3.B
Ω
Ω
Satz von Pratt: Sei {fn }n∈N eine Folge von messbaren Funktionen, die μ–fast u ¨ berall gegen eine Funktion f konvergiert, und seien {gn }n∈N und ur {hn }n∈N Folgen von μ–integrierbaren Funktionen mit gn ≤ fn ≤ hn f¨ alle n ∈ N, die μ–fast u Funktion g bzw. ¨ berall Rgegen eine μ–integrierbare R R Rh konvergieren. Gilt limn→∞ Ω gn dμ = Ω g dμ und limn→∞ Ω hn dμ = h dμ, so ist f μ–integrierbar und es gilt Ω Z Z lim fn dμ = f dμ Ω n→∞
Ω
Gilt außerdem gn ≤ 0 ≤ hn f¨ ur alle n ∈ N, so gilt auch Z lim |fn −f | dμ = 0 n→∞
8.3.C
Ω
Integrierbare komplexe Funktionen: Eine Funktion f : Ω → C heißt μ–integrierbar oder kurz integrierbar , wenn die reellen Funktionen Ref und Imf μ–integrierbar sind; in diesem Fall setzen wir Z Z Z f dμ := Ref dμ + i Imf dμ R
Ω
Ω
Ω
und nennen Ω f dμ das Lebesgue–Integral oder das μ–Integral oder kurz das Integral von f . Die Definition des μ–Integrals f¨ ur μ–integrierbare komplexe Funktionen ist mit der Definition des μ–Integrals f¨ ur μ–integrierbare numerische Funktionen vertr¨ aglich. (1) Jede μ–integrierbare komplexe Funktion ist messbar. (2) Sei f eine messbare komplexe Funktion. Dann sind folgende Aussagen a ¨quivalent: (a) f ist μ–integrierbar. (b) |f | ist μ–integrierbar. (3) Die μ–integrierbaren komplexen Funktionen bilden einen Vektorraum. (4) Sei f eine μ–integrierbare komplexe Funktion. Dann gilt ˛ Z ˛Z ˛ ˛ ˛ f dμ˛ ≤ |f | dμ ˛ ˛ Ω
Ω
Hinweis: Beweisen Sie die Ungleichung zun¨ achst f¨ ur den Fall, dass der Realteil und der Imagin¨ arteil von f einfach ist, und sodann f¨ ur den allgemeinen Fall unter Verwendung des Approximationssatzes.
8.4 Lp–R¨ aume Im gesamten Abschnitt sei p ∈ [1, ∞). Eine messbare Funktion f heißt p–fach μ–integrierbar oder kurz p–fach integrierbar , wenn |f |p μ–integrierbar ist.
136
Kapitel 8. Lebesgue–Integral
Wir betrachten die Familie Lpμ (F )
:=
( # f ∈ L (F ) |f |p dμ < ∞ 0
Ω
aller p–fach μ–integrierbaren reellen Funktionen und untersuchen zun¨achst die Eigenschaften von Lpμ (F ) als Teilmenge des Vektorverbandes L0 (F ). Wir ben¨ otigen das folgende Lemma: 8.4.1 Lemma. F¨ ur alle a, b ∈ R gilt p |a ∨ b|p ≤ |a| + |b| ≤ 2p−1 |a|p + |b|p Beweis. Die erste Ungleichung ist klar. Da die Funktion ϕ : R+ → R+ mit ϕ(x) := xp konvex ist, gilt f¨ ur alle a, b ∈ R+ !p ap + b p a+b ≤ 2 2 und daraus folgt f¨ ur alle a, b ∈ R p |a| + |b| ≤ 2p−1 |a|p + |b|p Damit ist auch die zweite Ungleichung gezeigt.
2
Aus dem Lemma folgt zun¨ achst, dass Lpμ (F ) ein Vektorverband ist, und es ist dann klar, dass Lpμ (F ) sogar ein Ideal in L0 (F ) ist. Sei nun
Lp (F , μ) := [h]μ ∈ L0 (F , μ) es gibt ein f ∈ [h]μ ∩ Lpμ (F )
Da Lpμ (F ) ein Vektorverband und ein Ideal in L0 (F ) ist, ist auch Lp (F , μ) ein Vektorverband und ein Ideal in L0 (F , μ). Nach Lemma 8.3.6 gilt f¨ ur alle f, g ∈ Lpμ (F ) mit f =μ g ( ( f p dμ = g p dμ Ω
Ω
Daher ist die Abbildung . p : Lp (F , μ) → R+ mit ( [f ]μ p :=
Ω
!1/p |f |p dμ
wohldefiniert; im folgenden schreiben wir f p anstelle von [f ]μ p . Unser erstes Ziel ist es zu zeigen, dass die Abbildung . p eine Norm ist. Offenbar
8.4 Lp –R¨ aume
137
gilt f p = 0 genau dann, wenn f = 0 gilt, und f¨ ur alle f ∈ Lp (F , μ) und c ∈ R gilt cf p = |c| f p ; zu zeigen bleibt also noch, dass f¨ ur alle f, g ∈ Lp (F , μ) die Dreiecksungleichung f +gp ≤ f p + gp gilt. Dies ist die Ungleichung von Minkowski, die wir in Lemma 8.4.3 beweisen. F¨ ur p = 1 ist die Ungleichung von Minkowski trivial, und f¨ ur p = 2 geben wir einen einfachen Beweis am Ende dieses Abschnitts. F¨ ur beliebige p ∈ (1, ∞) ergibt sich die Ungleichung von Minkowski aus der folgenden Ungleichung von H¨ older: 8.4.2 Lemma (Ungleichung von H¨ older). Sei p ∈ (1, ∞) und q ∈ (1, ∞) derart , dass 1/p + 1/q = 1. F¨ ur alle f ∈ Lp (F , μ) und g ∈ Lq (F , μ) gilt dann f g ∈ L1 (F , μ) und f g1 ≤ f p gq Beweis. Wir betrachten zun¨ achst f¨ ur α ∈ (0, 1) die Funktion ϕα : (0, ∞) → R mit ϕα (x) := α x + (1−α) − xα F¨ ur alle x ∈ (0, ∞) gilt ϕα (x) ≥ ϕα (1) = 0. F¨ ur alle a, b ∈ (0, ∞) folgt daraus 0 ≤ ϕα (a/b) = α (a/b) + (1−α) − (a/b)α und damit aα b1−α ≤ α a + (1−α) b F¨ ur α := 1/p gilt 1 − α = 1/q. Daher gilt f¨ ur alle a, b ∈ (0, ∞) a1/p b1/q ≤
1 1 a+ b p q
und diese Ungleichung gilt sogar f¨ ur alle a, b ∈ R+ . Im Fall f p = 1 = gp folgt aus der letzten Ungleichung |f g| = (|f |p )1/p (|g|p )1/q ≤
1 p 1 q |f | + |g| p q
und damit ( ( ( 1 1 1 1 1 1 |f g| dμ ≤ |f |p dμ + |g|q dμ = f pp + gqq = + = 1 p Ω q Ω p q p q Ω Im Fall f p > 0 und gp > 0 gilt f /f pp = 1 = g/gq q , also ( f g dμ ≤ 1 f g p q Ω und damit
138
Kapitel 8. Lebesgue–Integral
f g1 ≤ f p gq Im Fall f p = 0 oder gp = 0 gilt f =μ 0 oder g =μ 0, also f g =μ 0, und damit f g1 = 0; daher gilt die Ungleichung auch in diesem Fall. 2 Wir k¨ onnen nun die Ungleichung von Minkowski beweisen: 8.4.3 Lemma (Ungleichung von Minkowski). F¨ ur alle f, g ∈ Lp (F , μ) gilt f +gp ≤ f p + gp Insbesondere ist die Abbildung . p eine Norm auf Lp (F , μ). Beweis. Im Fall p = 1 ist die Ungleichung klar. Sei nun p ∈ (1, ∞) und sei q ∈ (1, ∞) derart, dass 1/p + 1/q = 1. Im Fall f +gp = 0 ist nichts zu beweisen. Sei nun f + gp > 0. Wegen 1/p + 1/q = 1 gilt q + p = p q und damit p = (p−1) q. Daraus folgt zun¨ achst ( ( |f +g|p = f +gpp |f +g|p−1 qq = (|f +g|p−1 )q dμ = Ω
Ω
und aus der Ungleichung von H¨ older erhalten wir nun f +gpp = |f +g|p 1 ≤ (|f | + |g|) |f +g|p−1 1 ≤ |f | |f +g|p−1 1 + |g| |f +g|p−1 1 ≤ f p |f +g|p−1 q + gp |f +g|p−1 q = f p + gp |f +g|p−1 q = f p + gp f +gp/q p = f p + gp f +gp−1 p und damit f + gp ≤ f p + gp Damit ist das Lemma bewiesen.
2
Nach Lemma 8.4.3 ist (Lp (F , μ), . p ) ein normierter Raum. Unser n¨achstes Ziel ist es zu zeigen, dass der normierte Raum (Lp (F , μ), . p ) vollst¨andig ist. Dazu ben¨ otigen wir eine Variante des Satzes u ¨ ber die majorisierte Konvergenz und die folgende Eigenschaft der Norm . p :
8.4 Lp –R¨ aume
139
8.4.4 Folgerung. F¨ ur jede Folge {fn }n∈N ⊆ Lp (F , μ) gilt ( Ω
∞
p |fn |
1/p ≤
dμ
n=1
∞
fn p
n=1
Beweis. Nach dem Satz u ¨ ber die monotone Konvergenz gilt p p ( ( ∞ n |fk | dμ = |fk | dμ sup Ω
Ω
k=1
n∈N
( =
sup
k=1 n
Ω n∈N
k=1 n
( = sup n∈N
Ω
p |fk |
dμ
p |fk |
dμ
k=1
und aus der Ungleichung von Minkowski folgt nun ( Ω
∞
p |fk |
(
1/p dμ
= sup n∈N
k=1
Ω
n
p |fk |
1/p dμ
k=1
, , n , , , , = sup , |fk |, , n∈N , k=1
≤ sup n∈N
=
∞
n
p
fk p
k=1
fk p
k=1
Damit ist die Behauptung bewiesen.
2
Wir beweisen nun eine Variante des Satzes u ¨ ber die majorisierte Konvergenz: 8.4.5 Satz (Majorisierte Konvergenz; Lebesgue). Sei {fn }n∈N eine Folge von messbaren Funktionen, die μ–fast ¨ uberall gegen eine Funktion f konvergiert. Gilt supn∈N |fn | ∈ Lp (F , μ), so gilt auch f ∈ Lp (F , μ) und lim fn −f p = 0
n→∞
ur alle n ∈ N und Insbesondere gilt fn ∈ Lp (F , μ) f¨ lim fn p = f p
n→∞
140
Kapitel 8. Lebesgue–Integral
Beweis. Nach Voraussetzung ist die Funktion g := sup |fn | n∈N
p–fach integrierbar. Damit ist auch jede der Funktionen fn p–fach integrierbar, und wegen |f | ≤ g ist auch f p–fach integrierbar. Aus Lemma 8.4.1 erhalten wir |fn −f |p ≤ (|fn |+|f |)p ≤ 2p−1 (|fn |p +|f |p ) ≤ 2p−1 (g p +|f |p ) und damit 2p−1 (g p +|f |p ) − |fn −f |p ≥ 0 Nach Voraussetzung gilt lim 2p−1 (g p +|f |p ) − |fn −f |p = 2p−1 (g p +|f |p ) n→∞
und aus dem Lemma von Fatou folgt nun ! ( ( p−1 p p p−1 p p p g + |f | dμ = lim 2 g +|f | − |fn −f | dμ 2 Ω Ω n→∞ ! ( p−1 p p p g +|f | − |fn −f | dμ = lim inf 2 Ω n→∞ ! ( p−1 p p p 2 g +|f | − |fn −f | dμ ≤ lim inf n→∞ ( Ω ( = 2p−1 g p +|f |p dμ + lim inf −|fn −f |p dμ n→∞ (Ω (Ω p−1 p p =2 g +|f | dμ − lim sup |fn −f |p dμ Ω
n→∞
Ω
Da g p + |f |p integrierbar ist, erhalten wir daraus ( |fn −f |p dμ ≤ 0 lim sup n→∞
und damit limn→∞
) Ω
Ω
|fn −f |p dμ = 0. Daraus folgt die Behauptung.
2
Wir k¨ onnen nun zeigen, dass der normierte Raum (Lp (F , μ), . p ) vollst¨andig ist. 8.4.6 Lemma (Riesz/Fischer). (Lp (F , μ), . p ) ist vollst¨andig. Beweis. Sei {fn }n∈N eine Cauchy–Folge in (Lp (F , μ), . p ). Dann gibt es eine streng monoton wachsende Folge {nk }k∈N ⊆ N mit fnk+1 −fnk p ≤ 2−k f¨ ur alle k ∈ N. Aus Folgerung 8.4.4 ergibt sich nun
8.4 Lp –R¨ aume
141
( |fn1 | +
Ω
∞
p |fnk+1 −fnk |
1/p ≤ fn1 p +
dμ
k=1
∞
fnk+1 − fnk p
k=1
≤ fn1 p + 1 Daher ist die Funktion g := |fn1 | +
∞
|fnk+1 −fnk |
k=1
p–fach integrierbar und wir k¨ onnen annehmen, dass g reell ist. Daher gibt es eine messbare reelle Funktion f mit f = fn1 + lim
r→∞
r fnk+1 −fnk k=1
Wir betrachten nun m ∈ N. Dann gilt f − fnm = lim
r→∞
r fnk+1 −fnk k=m
und f¨ ur alle r ∈ N(m) gilt r r ∞ fnk+1 −fnk ≤ |fnk+1 −fnk | ≤ |fn1 | + |fnk+1 −fnk | = g k=m
k=m
k=1
Da g p–fach integrierbar ist, ergibt sich nun aus dem Satz u ¨ber die majorisierte Konvergenz f − fnm ∈ Lp (F , μ) und , , , , r r , , , , , , , , fnk+1 −fnk , = lim , fnk+1 −fnk , f − fnm p = , lim r→∞, , , ,r→∞ k=m
k=m
p
p
Wegen f = (f −fnm ) + fnm gilt dann f ∈ Lp (F , μ) und aus der Absch¨atzung , r , r r , , , , fnk+1 −fnk , ≤ fnk+1 −fnk p = 2−k ≤ 2−m+1 , , , k=m
p
k=m
k=m
ergibt sich nun
, , r , , , , f −fnm p = lim , fnk+1 −fnk , ≤ 2−m+1 r→∞, , k=m
p
Daher gilt lim f −fnm p = 0
m→∞
Da {fn }n∈N eine Cauchy–Folge ist, folgt daraus limn→∞ f −fnp = 0.
2
142
Kapitel 8. Lebesgue–Integral
Nach Lemma 8.4.6 ist (Lp (F , μ), . p ) ein Banach–Raum. Der folgende Satz fasst die Eigenschaften von (Lp (F , μ), . p ) zusammen: 8.4.7 Satz. L0 (F , μ).
(Lp (F , μ), . p ) ist ein Banach–Verband und ein Ideal in
Eine Folge {fn }n∈N von p–fach μ–integrierbaren Funktionen konvergiert im p–ten Mittel (bez¨ uglich μ) gegen eine messbare Funktion f , wenn lim fn −f p = 0
n→∞
gilt; in diesem Fall ist auch f p–fach μ–integrierbar. Im Fall p = 1 ist die Konvergenz im p–ten Mittel gerade die Konvergenz im Mittel und im Fall p = 2 bezeichnet man die Konvergenz im p–ten Mittel auch als Konvergenz im quadratischen Mittel . Aus der Ungleichung von Markov ergibt sich der folgende Zusammenhang zwischen der Konvergenz im p–ten Mittel und der Konvergenz im Maß: 8.4.8 Satz. Jede Folge von p–fach μ–integrierbaren Funktionen, die im p–ten Mittel gegen eine Funktion f konvergiert , konvergiert auch im Maß μ gegen f . Beweis. Sei {fn }n∈N eine Folge von p–fach μ–integrierbaren Funktionen, die im p–ten Mittel gegen f konvergiert. Da die Funktion h : R+ → R+ mit h(x) := xp monoton wachsend ist, gilt nach der Ungleichung von Markov in der Form von Folgerung 8.2.6 f¨ ur alle ε ∈ (0, ∞) μ[{|fn −f | ≥ ε}] ≤
1 fn −f pp εp 2
Daraus folgt die Behauptung.
Wir beziehen nun den Banach–Verband L∞ (F , μ) in die Betrachtung mit ein. Unter zus¨ atzlichen Annahmen an das Maß μ lassen sich die R¨aume Lp (F , μ) mit p ∈ [1, ∞] untereinander vergleichen: 8.4.9 Beispiele. (1) Folgenr¨ aume: Sei (Ω, F, μ) := (N0 , 2N0 , ζ) mit ζ[A] := |A|. Dann ist jede ¯ messbar. F¨ Funktion Ω → R ur p ∈ [1, ∞) und jede positive oder p–fach integrierbare Funktion f gilt Z f p dμ = Ω
∞ X
(f (n))p
n=0
¯ mit einer Folge {an }n∈N ⊆ R. ¯ F¨ Wir identifizieren nun jede Funktion Ω → R ur 0 p ∈ {0} ∪ [1, ∞] sei p := Lp (F, μ)
8.4 Lp –R¨ aume
143
¯ und ∞ ist der Raum aller beschr¨ Dann ist 0 der Raum aller Folgen in R ankten p Folgen. F¨ ur p ∈ [1, ∞) ist der Raum aller Folgen {an }n∈N0 mit ∞ X
|an |p < ∞
n=0
Insbesondere ist jede Folge in p mit p ∈ [1, ∞) eine Nullfolge. Die Folgen in p heißen p–fach summierbar. Sei p, r ∈ [1, ∞) mit p < r. Dann gilt r/p > 1. F¨ ur jede Folge {an }n∈N0 ∈ p und alle hinreichend großen n ∈ N0 gilt daher |an |r = (|an |p )r/p ≤ |an |p und damit {an }n∈N0 ∈ r . Daher gilt p ⊆ r . Insbesondere gilt 1 ⊆ p . Da jede r–fach summierbare Folge eine Nullfolge und damit beschr¨ ankt ist, erh¨ alt man insgesamt f¨ ur p, r ∈ (1, ∞) mit p < r 1 ⊆ p ⊆ r ⊆ ∞ (2) Endliche Maßr¨ aume: Sei μ endlich. Dann ist jede Funktion in L∞ (F, μ), insbesondere also jede konstante Funktion, f¨ ur alle p ∈ [1, ∞) p–fach integrierbar. Sei p, r ∈ [1, ∞) mit p < r. Dann gilt r/p > 1. F¨ ur jede Funktion f ∈ Lr (F, μ) gilt aufgrund der Ungleichung von H¨ older Z |f |p dμ = |f |p 1 Ω
≤ |f |p r/p 1 r/(r−p) „Z “ ”r/p «p/r |f |p = dμ μ[Ω] Ω
= f pr μ[Ω] und aus der Endlichkeit des Maßes folgt nun f ∈ Lp (F, μ). Daher gilt Lr (F, μ) ⊆ Lp (F, μ) und insbesondere Lp (F, μ) ⊆ L1 (F, μ). Aus der Endlichkeit des Maßes alt man f¨ ur p, r ∈ (1, ∞) folgt des weiteren L∞ (F, μ) ⊆ Lr (F, μ). Insgesamt erh¨ mit p < r L∞ (F, μ) ⊆ Lr (F, μ) ⊆ Lp (F, μ) ⊆ L1 (F, μ)
Wir betrachten abschließend den Fall p = 2, der Besonderheiten aufweist und in dem der Beweis der Ungleichungen von H¨ older und Minkowski vereinfacht 0 werden ) 2 kann. Eine Funktion f ∈2L (F ) heißt quadratisch μ–integrierbar , wenn f dμ < ∞ und damit f ∈ Lμ (F ) gilt. Ω Sind f und g quadratisch μ–integrierbare Funktionen, so sind f 2 und g 2 μ– integrierbar und wegen |f g| ≤ f 2 χ{|g|≤|f |} + g 2 χ{|g|>|f |} ist auch das Produkt f g μ–integrierbar.
144
Kapitel 8. Lebesgue–Integral
Daher ist die Abbildung . , . 2 : L2 (F , μ)×L2 (F , μ) → R mit ( f g dμ f, g2 := Ω
wohldefiniert, und aus den Eigenschaften des Integrals erh¨alt man sofort das folgende Ergebnis: 8.4.10 Lemma. Die Abbildung . , . 2 ist ein Skalarprodukt auf L2 (F , μ). F¨ ur jedes Skalarprodukt gilt die Ungleichung von Cauchy/Schwarz: 8.4.11 Lemma (Ungleichung von Cauchy/Schwarz). f, g ∈ L2 (F , μ) gilt f, g22 ≤ f, f 2 g, g2
F¨ ur alle
Beweis. Im Fall g = 0 ist nichts zu zeigen. Im Fall g = 0 gilt f¨ ur alle c ∈ R 0 ≤ f +cg, f +cg2 = f, f 2 + 2c f, g2 + c2 g, g2 und mit c := − f, g2 /g, g2 ergibt sich daraus die Behauptung.
2
F¨ ur alle f ∈ L2 (F , μ) gilt 1/2
f 2 = f, f 2
Aus dieser Gleichung erh¨ alt man u ¨ber die Ungleichung von Cauchy/Schwarz sofort das folgende Ergebnis: 8.4.12 Lemma. Die Abbildung . 2 ist eine Norm auf L2 (F , μ). 1/2
Beweis. F¨ ur alle f ∈ L2 (F , μ) folgt wegen f 2 = f, f 2 aus den Eigenschaften des Skalarproduktes, dass f = 0 genau dann gilt, wenn f = 0 gilt, und dass f¨ ur alle c ∈ R die Gleichung cf = |c| f gilt. Aus der Ungleichung von Cauchy/ Schwarz ergibt sich ferner f¨ ur alle f, g ∈ L2 (F , μ) f +g22 = f +g, f +g2 = f, f 2 + 2 f, g2 + g, g2 1/2
1/2
≤ f, f 2 + 2 f, f 2 g, g2 2 1/2 1/2 = f, f 2 + g, g2 2 = f 2 + g2 und damit die Dreiecksungleichung.
+ g, g2
2
8.4 Lp –R¨ aume
145
Unter Verwendung der Normen . 2 und . 1 l¨asst sich die Ungleichung von Cauchy/Schwarz auch in der Form f g1 ≤ f 2 g2 schreiben. Sie ist damit ein Spezialfall der Ungleichung von H¨older, und es ist klar, dass die Dreiecksungleichung f¨ ur die Norm . 2 ein Spezialfall der Ungleichung von Minkowski ist. Nach Lemma 8.4.6 ist der normierte Raum (L2 (F , μ), . 2 ) vollst¨andig. Daher ist (L2 (F , μ), . , . 2 ) ein Hilbert–Raum. Der folgende Satz fasst die Eigenschaften von (L2 (F , μ), . , . 2 ) zusammen: 8.4.13 Satz. L0 (F , μ).
(L2 (F , μ), . , . 2 ) ist ein Hilbert–Verband und ein Ideal in
Aufgaben 8.4.A
Ungleichung von H¨ older: F¨ ur alle f ∈ L1 (F, μ) und g ∈ L∞ (F, μ) gilt 1 f g ∈ L (F, μ) und f g1 ≤ f 1 g∞
8.4.B
F¨ ur alle p ∈ [1, ∞) besitzt jede Folge von p–fach μ–integrierbaren Funktionen, die im p–ten Mittel gegen eine p–fach μ–integrierbare Funktion f konvergiert, eine Teilfolge, die μ–fast u ¨berall gegen f konvergiert. Hinweis: Beweis von Lemma 8.4.6.
8.4.C
F¨ ur p ∈ (0, 1) heißt eine messbare Funktion f p–fach μ–integrierbar , wenn |f |p μ–integrierbar ist. Wir setzen ˛Z j ff ˛ p 0 p ˛ |f | dμ < ∞ Lμ (F) := f ∈ L (F) ˛ Ω
und Lp (F, μ) :=
˛ n o ˛ [h]μ ∈ L0 (F, μ) ˛ es gibt ein f ∈ [h]μ ∩ Lpμ (F)
(1) Lp (F, μ) ist ein Vektorraum. (2) Die Abbildung dp : Lp (F, μ) × Lp (F, μ) mit Z |f −g|p dμ dp (f, g) := Ω
ist (wohldefiniert und) eine Metrik und diese Metrik ist translationsinvariant, aber nicht absolut homogen. andig. (3) Der metrische Raum (Lp (F, μ), dp ) ist vollst¨
9 Berechnung des Lebesgue–Integrals
Nachdem das Lebesgue–Integral auf der Grundlage eines Maßes konstruiert ist, betrachten wir nun auch Maße, die durch Integrale dargestellt werden k¨ onnen. Ausgangspunkt ist die Beobachtung, dass man zu jeder positiven messbaren Funktion durch Integration ein Maß erh¨alt, das als unbestimmtes Integral bezeichnet wird (Abschnitt 9.1) und auf den Begriff eines Maßes mit Dichte f¨ uhrt. Maße mit Dichte spielen in der Wahrscheinlichkeitstheorie eine zentrale Rolle. Sie sind aber auch in der allgemeinen Integrationstheorie von Interesse und die Berechnung von Integralen nach einem Maß mit Dichte wird durch die Kettenregel in vielen F¨ allen vereinfacht (Abschnitt 9.2). Schließlich liefert der Satz von Radon/Nikodym ein Kriterium daf¨ ur, dass ein Maß eine Dichte bez¨ uglich einem anderen Maß besitzt (Abschnitt 9.3). Mit der Anwendung der Kettenregel wird das integrierende Maß gewechselt. Dies ist auch das Wesen der Substitutionsregel, bei der ein gegebenes Integral durch ein Integral nach dem Bildmaß des integrierenden Maßes unter einer messbaren Transformation dargestellt wird (Abschnitt 9.4). Um die Vorteile der Substitutionsregel nutzen zu k¨ onnen, ist es gelegentlich erforderlich, die Integration nach einem eingeschr¨ ankten Maß zu betrachten (Abschnitt 9.5). Das enge Wechselspiel zwischen Maßen und Integralen zeigt sich auch bei der Konstruktion von Produktmaßen (Abschnitt 9.6). Das Hauptergebnis u ¨ ber die Integration nach einem Produktmaß ist der Satz von Fubini, der es erm¨oglicht, Integrale von Funktionen in mehreren Variablen durch sukzessive Integration nach einer einzigen Variablen zu berechnen (Abschnitt 9.7). F¨ ur die Berechnung des Integrals einer Funktion in einer reellen Variablen ist schließlich der Zusammenhang zwischen dem Lebesgue–Integral und dem Riemann–Integral von Nutzen (Abschnitt 9.8). Im gesamten Kapitel sei (Ω, F , μ) ein Maßraum.
148
Kapitel 9. Berechnung des Lebesgue–Integrals
9.1 Integralinduzierte Maße und signierte Maße Sei f eine messbare Funktion, die positiv oder μ–integrierbar ist. Ist f positiv, ur so ist f¨ ur alle A ∈ F auch f χA positiv, und ist f μ–integrierbar, so ist f¨ alle A ∈ F wegen |f χ)A | ≤ |f | auch f χA μ–integrierbar. Daher ist in beiden ¯ mit F¨ allen die Abbildung f dμ : F → R ! ( ( f dμ [A] := f χA dμ Ω
erkl¨ art; zur Vereinfachung der Notation setzen wir ( ( f dμ := f χA dμ Ω
A
)
Die Abbildung f dμ heißt das unbestimmte μ–Integral von f . Der folgende Satz kl¨ art die Eigenschaften des unbestimmten μ–Integrals: 9.1.1 Satz. Sei f messbar. (1) Ist f positiv , so ist das unbestimmte μ–Integral von f ein Maß. (2) Ist f μ–integrierbar , so ist das unbestimmte μ–Integral von f ein endliches signiertes Maß. Beweis. (1) Sei f positiv. Dann gilt ( ( f dμ = f χ∅ dμ = 0 ∅
Ω
Außerdem gilt f¨ ur jede disjunkte Folge {An }n∈N ⊆ F nach dem Satz u ¨ber die monotone Konvergenz ( ( f dμ = f χP∞ dμ P n=1 An ∞ n=1
An
Ω
( ∞ = χAn dμ f Ω
=
Ω
= =
n=1
( ∞
f χAn dμ
n=1
∞ (
n=1 Ω ∞ ( n=1
f χAn dμ f dμ
An
Daher ist das unbestimmte μ–Integral von f ein Maß.
9.2 Integration nach einem Maß mit Dichte
149
(2) Sei f μ–integrierbar. Dann sind auch f + und f − μ–integrierbar und nach (1) sind die unbestimmten μ–Integrale von f + und f − Maße, die aufgrund der μ–Integrierbarkeit von f + und f − sogar endlich sind. F¨ ur alle A ∈ F gilt f χA = f + χA − f − χA und damit ( ( ( ( ( ( f dμ = f χA dμ = f + χA dμ − f − χA dμ = f + dμ − f − dμ Ω
A
Ω
Ω
A
A
Daher ist das unbestimmte μ–Integral von f ein endliches signiertes Maß. 2 Aufgaben R
9.1.A
Unbestimmtes Integral: Es gilt
1 dμ = μ.
9.1.B
Unbestimmtes Integral: Erweitern Sie den Begriff des unbestimmten Integrals auf μ–quasiintegrierbare Funktionen und zeigen Sie, dass das unbestimmte Integral einer μ–quasiintegrierbaren Funktion ein signiertes Maß ist.
9.2 Integration nach einem Maß mit Dichte Ein Maß ν : F → [0, ∞] heißt Maß mit μ–Dichte oder kurz Maß mit Dichte, wenn es eine positive messbare Funktion f gibt mit ( ν = f dμ Ist ν ein Maß mit Dichte, so heißt jede positive messbare Funktion f mit ( ν = f dμ μ–Dichte von ν. Offenbar ist ein Maß genau dann ein Maß mit μ–Dichte, wenn es das unbestimmte μ–Integral einer positiven messbaren Funktion ist. 9.2.1 Lemma. Sei ν : F → [0, ∞] ein Maß mit μ–Dichte. Dann ist jede μ–Nullmenge eine ν–Nullmenge. Beweis. Sei f eine μ–Dichte von ν. F¨ ur jede Menge A ∈ F mit μ[A] = 0 gilt dann f χA = 0 μ–fast u ¨berall, und aus Lemma 8.3.6 folgt nun ( ( f dμ = f χA dμ = 0 ν[A] = A
Damit ist die Behauptung gezeigt.
Ω
2
Der folgende Satz zeigt, dass jedes Integral nach einem Maß mit μ–Dichte als Integral nach μ dargestellt werden kann:
150
Kapitel 9. Berechnung des Lebesgue–Integrals
9.2.2 Satz (Kettenregel). Sei ν : F → [0, ∞] ein Maß mit μ–Dichte und sei f eine μ–Dichte von ν. Sei ferner h eine messbare Funktion. (1) Ist h positiv , so gilt ( ( h dν = hf dμ (2) h ist genau dann ν–integrierbar , wenn hf μ–integrierbar ist, und in diesem Fall gilt ( ( h dν = hf dμ
Beweis. Sei A ∈ F beliebig. (1) F¨ ur alle C ∈ F gilt ( ( ( χC dν = χC∩A dν = ν[C ∩ A] = A
Ω
( f dμ =
C∩A
χC f dμ A
Damit ist die Behauptung f¨ ur h = χC mit C ∈ F gezeigt. Aus der positiven Linearit¨ at des Integrals folgt dann die Behauptung f¨ ur den Fall, dass h eine positive einfache Funktion ist, und aus dem Satz u ¨ ber die monotone Konvergenz folgt sodann die Behauptung f¨ ur den Fall, dass h eine beliebige positive messbare Funktion ist. (2) Wegen (1) gilt ( ( ( |h| dν = |h|f dμ = |hf | dμ Ω
Ω
Ω
Daraus folgt die Behauptung u ¨ ber die Integrierbarkeit von h und hf . Sei nun h ν–integrierbar und damit hf μ–integrierbar. Wegen h = h+ − h− gilt hf = h+ f − h− f = (hf )+ − (hf )− und aus (1) folgt ( ( ( + h dν = h dν − h− dν A A A ( ( = h+ f dμ − h− f dμ A A ( ( + = (hf ) dμ − (hf )− dμ A (A = hf dμ A
Damit ist die Behauptung bewiesen.
2
Es stellt sich die Frage, ob die μ–Dichte eines Maßes mit μ–Dichte eindeutig bestimmt ist. Das folgende Beispiel zeigt, dass dies im allgemeinen nicht der Fall ist:
9.2 Integration nach einem Maß mit Dichte
151
9.2.3 Beispiel. Sei F := {∅, Ω} und μ[Ω] = ∞. F¨ ur n ∈ {1, 2} sei fn : Ω → R gegeben durch fn (ω) := n und sei
Z νn :=
fn dμ
Dann gilt ν1 = ν2 , aber f1 = f2 .
Unser Ziel ist es nun zu zeigen, dass die μ–Dichte eines Maßes ν mit μ–Dichte eindeutig bestimmt ist, wenn mindestens eines der Maße μ oder ν σ–endlich ist. Wir betrachten zun¨ achst unbestimmte Integrale von μ–integrierbaren Funktionen: 9.2.4 Lemma. Seien f, g μ–integrierbare Funktionen mit ( ( f dμ ≤ g dμ Dann gilt f ≤ g μ–fast ¨ uberall. Beweis. F¨ ur alle n ∈ N sei An := {f > g + 1/n}. Dann ist die Folge {An }n∈N monoton wachsend mit {f > g} = An n∈N
F¨ ur alle n ∈ N gilt ! ( ( ( ( 1 1 1 f dμ + μ[An ] ≤ g dμ + μ[An ] = f dμ g+ dμ ≤ n n n An An An An und damit μ[An ] = 0, da f μ–integrierbar ist. Da die Vereinigung einer Folge von Nullmengen wieder eine Nullmenge ist, ergibt sich μ[{f > g}] = 0. 2 9.2.5 Folgerung. Seien f, g μ–integrierbare Funktionen mit ( ( f dμ = g dμ Dann gilt f = g μ–fast ¨ uberall. Der folgende Satz liefert eine Charakterisierung σ–endlicher Maße. Er zeigt insbesondere, dass jedes σ–endliche Maß als unbestimmtes Integral bez¨ uglich einem endlichen Maß dargestellt werden kann, und liefert damit in Verbindung mit der Kettenregel eine M¨ oglichkeit, Eigenschaften von unbestimmten Integralen bez¨ uglich einem endlichen Maß auf unbestimmte Integrale bez¨ uglich einem σ–endlichen Maß zu u ¨ bertragen:
152
Kapitel 9. Berechnung des Lebesgue–Integrals
9.2.6 Satz. Folgende Aussagen sind ¨ aquivalent : (a) μ ist σ–endlich. (b) Es gibt eine μ–integrierbare Funktion h mit 0 < h(ω) < ∞ f¨ ur alle ω ∈ Ω. (c) Es gibt eine messbare Funktion h mit 0 < h(ω) < ∞ f¨ ur alle ω ∈ Ω und ein endliches Maß ϕ mit ( ϕ = h dμ In diesem Fall gilt
( μ=
1 dϕ h
und μ und ϕ besitzen dieselben Nullmengen. Beweis. Wir nehmen zun¨ achst an, dass (a) gilt. Dann gibt es eine Folge {An }n∈N ⊆ F mit Ω = n∈N An und μ[An ] < ∞ f¨ ur alle n ∈ N. F¨ ur alle n ∈ N w¨ ahlen wir ein an ∈ (0, 2−n ) mit an μ[An ] ≤ 2−n . Sei h :=
∞
a n χA n
n=1
Dann ist h μ–integrierbar mit 0 < h(ω) < ∞ f¨ ur alle ω ∈ Ω. Daher folgt (b) aus (a). Wir nehmen nun an, dass (b) gilt. F¨ ur alle n ∈ N sei An := {h > 1/n}. Dann gilt {h > 1/n} = An Ω = {h > 0} = n∈N
und f¨ ur alle n ∈ N gilt ( ( μ[An ] = 1 dμ ≤ An
An
n∈N
(
( h dμ ≤ n
nh dμ = n An
h dμ Ω
und damit μ[An ] < ∞. Daher ist μ σ–endlich und (a) folgt aus (b). ¨ Die Aquivalenz von (b) und (c) ist klar. Wir nehmen schließlich an, dass (c) gilt, Aus der Kettenregel 9.2.2 ergibt sich dann ( ( ( 1 1 h dμ = dϕ μ = 1 dμ = h h Die letzte Behauptung ergibt sich aus Lemma 9.2.1.
2
9.2.7 Lemma. Sei μ σ–endlich und seien f, g positive messbare Funktionen mit ( ( f dμ ≤ g dμ Dann gilt f ≤ g μ–fast ¨ uberall.
9.2 Integration nach einem Maß mit Dichte
153
Beweis. Wir nehmen zun¨ ur alle n ∈ N sei achst an, dass μ endlich ist. F¨ Bn := {g ≤ n}. Dann gilt n∈N Bn = {g < ∞}. F¨ ur alle A ∈ F gilt ( ( ( ( f χBn dμ = f dμ ≤ g dμ = gχBn dμ A
A∩Bn
Insbesondere gilt ( Ω
A∩Bn
( f χBn dμ ≤
Ω
A
( gχBn dμ ≤
n dμ = n μ[Ω] Ω
Da μ endlich ist, folgt hieraus die Integrierbarkeit von f χBn und gχBn , und aus Lemma 9.2.4 erhalten wir nun f χBn ≤ gχBn μ–fast u ¨berall. Da die Vereinigung einer Folge von Nullmengen wieder eine Nullmenge ist, ergibt sich daraus f χ{g<∞} ≤ gχ{g<∞} μ–fast u ¨berall, und damit f ≤ g μ–fast u ¨ berall. Wir nehmen nun an, dass μ σ–endlich ist. Nach Satz 9.2.6 gibt es eine messbare Funktion h mit 0 < h(ω) < ∞ f¨ ur alle ω ∈ Ω und ein endliches Maß ϕ mit ( 1 dϕ μ= h Aus der Kettenregel 9.2.2 ergibt sich dann ( ( ( ( 1 1 f dϕ = f dμ ≤ g dμ = g dϕ h h Da ϕ ein endliches Maß ist, erhalten wir aus dem ersten Teil des Beweises f /h ≤ g/h ϕ–fast u ¨berall und damit f ≤ g ϕ–fast u ¨berall. Da jede ϕ–Nullmenge auch eine μ–Nullmenge ist, erhalten wir f ≤ g μ–fast u 2 ¨ berall. 9.2.8 Folgerung. Sei μ σ–endlich und seien f, g positive messbare Funktionen mit ( ( f dμ = g dμ Dann gilt f = g μ–fast ¨ uberall. Wir kommen nun zu dem angek¨ undigten Eindeutigkeitssatz f¨ ur Maße mit Dichten: 9.2.9 Satz. Sei ν ein Maß mit μ–Dichte. Ist μ oder ν σ–endlich, so ist die μ–Dichte von ν μ–fast ¨ uberall eindeutig bestimmt. Beweis. Seien f, g μ–Dichten von ν. Dann gilt ( ( f dμ = g dμ
154
Kapitel 9. Berechnung des Lebesgue–Integrals
(1) Ist μ σ–endlich, so ergibt sich aus Folgerung 9.2.8 f = g μ–fast u ¨berall. (2) Ist μ beliebig und ν endlich, so ergibt sich aus Folgerung 9.2.5 f = g μ–fast u ¨ berall. (3) Sei nun μ beliebig und ν σ–endlich. Nach Satz 9.2.6 gibt es eine messbare Funktion h mit 0 < h(ω) < ∞ f¨ ur alle ω ∈ Ω und ein endliches Maß ϕ mit ( ϕ = h dν Aus der Kettenregel 9.2.2 folgt nun ( ( ( ( hf dμ = h dν = ϕ = h dν = hg dμ Daher ist ϕ ein endliches Maß mit μ–Dichte und jede der Funktionen hf und hg ist eine μ–Dichte von ϕ. Aus (2) ergibt sich nun hf = hg μ–fast u ¨ berall und damit f = g μ–fast u 2 ¨ berall. Abschließend charakterisieren wir endliche und σ–endliche Maße mit μ–Dichte durch Eigenschaften ihrer μ–Dichten: 9.2.10 Satz. Sei μ σ–endlich und sei ν ein Maß mit μ–Dichte f . Dann gilt : (1) ν ist genau dann endlich, wenn f μ–integrierbar ist. (2) ν ist genau dann σ–endlich, wenn f μ–fast ¨ uberall endlich ist. Beweis. Aussage (1) ist klar. Wir nehmen nun an, dass ν σ–endlich ist. Nach Satz 9.2.6 gibt es eine messbare Funktion h mit 0 < h(ω) < ∞ f¨ ur alle ω ∈ Ω und ein endliches Maß ϕ mit ( ϕ = h dν und aus der Kettenregel 9.2.2 folgt nun ( ( ϕ = h dν = hf dμ Nach (1) ist die Funktion hf μ–integrierbar und aus Lemma 8.2.7 folgt nun, dass hf μ–fast u ¨ berall endlich ist. Dann ist aber auch f μ–fast u ¨berall endlich. Wir nehmen abschließend an, dass f μ–fast u ¨ berall endlich ist. – Sei zun¨ achst μ endlich. F¨ u r alle n ∈ N sei An := {f ≤ n} und Bn := ur alle n ∈ N gilt wegen An ∪ {f = ∞}. Dann gilt n∈N An = Ω und f¨ μ[{f = ∞}] = 0 ( ( ( ( ν[Bn ] = f dμ = f χBn dμ = f χAn dμ ≤ n dμ = n μ[Ω] Bn
Ω
Ω
und damit ν[Bn ] < ∞. Daher ist ν σ–endlich.
Ω
9.3 Absolutstetige und singul¨ are Maße
–
155
Sei nun μ σ–endlich. Nach Satz 9.2.6 gibt es eine messbare Funktion h mit 0 < h(ω) < ∞ f¨ ur alle ω ∈ Ω und ein endliches Maß ϕ mit ( ϕ = h dμ und
( μ=
1 dϕ h
Aus der Kettenregel 9.2.2 folgt nun ( ( 1 ν = f dμ = f dϕ h Da f μ–fast u ¨ berall endlich ist, ist auch f /h μ–fast u ¨berall endlich und damit ϕ–fast u ¨berall endlich. Da ϕ endlich ist, folgt aus dem bereits gezeigten, dass ν σ–endlich ist. Damit ist der Satz bewiesen. 2 Aufgaben 9.2.A
Lokales Z¨ ahlmaß: Sei C ∈ F abz¨ ahlbar. Dann besitzt das lokale Z¨ ahlmaß uglich C die ζ–Dichte χC . ζ C bez¨
9.2.B
Kettenregel: Sei ν : F → [0, ∞] ein Maß mit μ–Dichte und sei f eine μ– Dichte von ν. Sei ferner h eine messbare Funktion. Dann gilt: h ist genau dann ν–quasiintegrierbar, wenn hf μ–quasiintegrierbar ist, und in diesem Fall gilt Z Z h dν = hf dμ Hinweis: Es gilt h+ = hχ{h≥0} und h− = −hχ{h≤0} .
9.2.C
Sei (Ω, F, μ) := (R, B(R), λ). Geben Sie eine positive messbare Funktion ur alle ω ∈ Ω, f¨ ur die das unbestimmte Integral Rh an mit 0 < h(ω) < ∞ f¨ h dμ ein endliches Maß ist.
9.3 Absolutstetige und singul¨ are Maße Ein Maß ν : F → [0, ∞] heißt absolutstetig bez¨ uglich μ oder kurz μ–stetig, wenn f¨ ur alle A ∈ F mit μ[A] = 0 auch ν[A] = 0 gilt; in diesem Fall schreiben wir νμ
156
Kapitel 9. Berechnung des Lebesgue–Integrals
Nach Lemma 9.2.1 ist jedes Maß mit μ–Dichte μ–stetig. Wir zeigen nun, dass unter der Voraussetzung, dass μ σ-endlich ist, auch die Umkehrung dieser Implikation gilt: 9.3.1 Satz (Radon/Nikodym). Sei μ σ–endlich und sei ν ein Maß mit ν μ. Dann gibt es eine positive messbare Funktion f mit ( ν = f dμ Die Funktion f ist μ–fast ¨ uberall eindeutig bestimmt. Beweis. Die Aussage u ¨ber die Eindeutigkeit der Funktion f ergibt sich aus Satz 9.2.9. Wir f¨ uhren den Beweis ihrer Existenz in drei Schritten: (1) Wir nehmen zun¨ achst an, dass μ und ν endlich sind. Sei ( # H := h : Ω → [0, ∞] messbar h dμ ≤ ν[A] f¨ ur alle A ∈ F A
Die Menge H ist nichtleer und sie enth¨ alt mit je zwei Funktionen auch ihr Supremum, denn f¨ ur g, h ∈ H gilt f¨ ur alle A ∈ F ( ( ( (g ∨ h) dμ = g dμ + h dμ A
A∩{g≥h}
A∩{g
≤ ν[A ∩ {g ≥ h}] + ν[A ∩ {g < h}] = ν[A] und damit g ∨ h ∈ H. Des weiteren gibt es eine Folge {hn }n∈N ⊆ H mit ( ( hn dμ = sup h dμ sup n∈N
Ω
h∈H
Ω
Dann ist die Folge {fn }n∈N mit fn :=
sup
hk
k∈{1,...,n}
positiv und monoton wachsend mit hn ≤ fn ∈ H und aus der Monotonie des Integrals folgt ( ( sup fn dμ = sup h dμ n∈N
Ω
h∈H
Ω
Wir setzen f := sup fn n∈N
Aus dem Satz u ur alle A ∈ F ¨ber die monotone Konvergenz ergibt sich f¨
9.3 Absolutstetige und singul¨ are Maße
157
(
( f dμ =
(Ω
A
f χA dμ
=
sup fn χA dμ ( = sup fn χA dμ n∈N Ω ( = sup fn dμ Ω n∈N
n∈N
A
≤ ν[A] und damit f ∈ H. Sei nun ( ϕ :=
f dμ
Wegen f ∈ H gilt dann ϕ≤ν Unser Ziel ist es nun zu zeigen, dass ϕ = ν gilt. Sei ε ∈ (0, ∞). Mit ν ist auch ϕ endlich, und da auch μ endlich ist, ist die Mengenfunktion τε := ν − ϕ − εμ ein endliches signiertes Maß. Aus der Hahn–Zerlegung ergibt sich nun die Existenz von disjunkten Mengen P, N ∈ F mit Ω = P + N und τε+ [A] = τε [A ∩ P ] τε− [A] = − τε [A ∩ N ] f¨ ur alle A ∈ F. F¨ ur alle A ∈ F gilt dann ( ( f + εχP dμ = f dμ + ε μ[A ∩ P ] A
A
= ϕ[A] + ε μ[A ∩ P ] = ν[A] − (ν −ϕ)[A] + ε μ[A ∩ P ] ≤ ν[A] − (ν −ϕ)[A ∩ P ] + ε μ[A ∩ P ] = ν[A] − τε [A ∩ P ] ≤ ν[A] Daher gilt f + εχP ∈ H und damit ( ( ( ( f + εχP dμ ≤ sup f dμ + ε μ[P ] = h dμ = f dμ Ω
Ω
h∈H
Ω
Ω
158
Kapitel 9. Berechnung des Lebesgue–Integrals
) Da ν endlich ist, gilt Ω f dμ ≤ ν[Ω] < ∞ und wir erhalten μ[P ] = 0. Wegen ϕ ≤ ν μ ergibt sich sodann τε+ [P ] = τε [P ] = ν[P ] − ϕ[P ] − ε μ[P ] = 0. Daher gilt f¨ ur alle A ∈ F ν[A] = ϕ[A] + ε μ[A] + τε [A] = ϕ[A] + ε μ[A] + τε+ [A] − τε− [A] = ϕ[A] + ε μ[A] − τε− [A] ≤ ϕ[A] + ε μ[A] Da μ endlich ist und ε ∈ (0, ∞) beliebig war, erhalten wir ν≤ϕ Zusammen mit der Ungleichung ϕ ≤ ν ergibt sich daher ν=ϕ und aus der Definition von ϕ folgt nun ( ν = f dμ (2) Wir nehmen nun an, dass μ endlich und ν beliebig ist. Sei C := C ∈ F ν[C] < ∞ Dann ist das Mengensystem C nichtleer und ∪–stabil und es gibt eine monoton wachsende Folge {Cn }n∈N0 ⊆ C mit C0 := ∅ und sup μ[Cn ] = sup μ[C] C∈C
n∈N
F¨ ur alle n ∈ N sei Bn := Cn \ Cn−1 . Dann ist die Folge {Bn }n∈N disjunkt mit Bn ∈ C f¨ ur alle n ∈ N und ∞
Bn =
n=1
Cn
n∈N
∞ Sei ferner B0 := Ω \ n=1 Bn . F¨ ur alle n ∈ N0 seien μn , νn : F → [0, ∞] gegeben durch μn [A] := μ[A ∩ Bn ] νn [A] := ν[A ∩ Bn ] Dann ist μn ein endliches Maß mit μn =
( χBn dμ
9.3 Absolutstetige und singul¨ are Maße
159
und νn ist ein Maß mit νn μn F¨ ur alle n ∈ N ist auch νn endlich und nach (1) gibt es eine positive messbare Funktion fn mit ( νn = fn dμn Es bleibt zu zeigen, dass es außerdem eine positive messbare Funktion f0 gibt mit ( ν0 = f0 dμ0 denn dann ergibt sich f¨ ur alle A ∈ F aus der Kettenregel ν[A] = = = =
∞
νn [A] n=0 ∞ (
fn dμn
n=0 A ∞ ( n=0
=
ν[A ∩ Bn ]
n=0 ∞
fn χBn dμ
A
( ∞ A
fn χBn dμ
n=0
und f¨ ur die positive messbare Funktion f := ( ν = f dμ
∞ n=0
fn χBn erhalten wir
Wir zeigen nun, dass ν0 tats¨ achlich eine μ0 –Dichte besitzt. Sei A ∈ F. – Im Fall ν0 [A] < ∞ gilt ν[A ∩ B0 ] < ∞ und damit A ∩ B0 ∈ C. F¨ ur alle n ∈ N gilt daher Cn + (A ∩ B0 ) ∈ C und daraus folgt sup μ[C] + μ0 [A] = sup μ[Cn ] + μ[A ∩ B0 ] n∈N = sup μ[Cn ] + μ[A ∩ B0 ] n∈N * + = sup μ Cn + (A ∩ B0 )
C∈C
n∈N
≤ sup μ[C] C∈C
–
Da μ endlich ist, erhalten wir μ0 [A] = 0 und aus ν μ folgt ν0 [A] = 0. Im Fall ν0 [A] = ∞ gilt, wiederum wegen ν μ, μ0 [A] > 0.
160
Kapitel 9. Berechnung des Lebesgue–Integrals
Es gilt also entweder ν0 [A] = 0 = μ0 [A] oder ν0 [A] = ∞ und μ0 [A] > 0. Daher folgt in beiden F¨ allen aus dem Satz u ¨ber die monotone Konvergenz ( ( n dμ0 = sup n dμ0 ν0 [A] = sup n μ0 [A] = sup n∈N
n∈N
A
A n∈N
F¨ ur die positive messbare Funktion f0 mit f0 (ω) := ∞ erhalten wir daher ( ν0 = f0 dμ0 Daher ist f0 eine μ0 –Dichte von ν0 . (3) Wir nehmen schließlich an, dass μ σ–endlich und ν beliebig ist. Nach Satz 9.2.6 gibt es eine messbare Funktion h mit 0 < h(ω) < ∞ f¨ ur alle ω ∈ Ω und ein endliches Maß ϕ mit ( ϕ = h dμ und μ und ϕ besitzen dieselben Nullmengen. Wegen ν μ gilt daher ν ϕ. Da ϕ endlich ist, ergibt sich aus (2) die Existenz einer positiven messbaren Funktion g mit ( ν = g dϕ und aus der Kettenregel 9.2.2 folgt nun ( ( ν = g dϕ = gh dμ Daher ist f := gh eine μ–Dichte von ν.
2
Ein Maß ν : F → [0, ∞] heißt singul¨ar bez¨ uglich μ oder kurz μ–singul¨ar , wenn es eine Menge N ∈ F gibt mit ν[Ω \ N ] + μ[N ] = 0 in diesem Fall schreiben wir ν⊥μ Die Singularit¨ at von Maßen ist eine symmetrische Relation, denn ν ist genau dann μ–singul¨ ar, wenn μ ν–singul¨ ar ist. 9.3.2 Satz (Lebesgue–Zerlegung). Sei μ σ–endlich. Dann gibt es zu jedem σ–endlichen Maß ν zwei Maße ϕ, ψ mit ϕ μ und ψ ⊥ μ sowie ν =ϕ+ψ Die Zerlegung ist eindeutig und es gilt ϕ ⊥ ψ.
9.3 Absolutstetige und singul¨ are Maße
161
Beweis. Mit μ und ν ist auch das Maß τ := μ + ν σ–endlich. Wegen μ ≤ τ gilt μ τ , und aus dem Satz von Radon/Nikodym folgt nun die Existenz einer positiven messbaren Funktion g mit ( μ = g dτ ur alle ω ∈ Ω und aus der letzten Sei N := {g = 0}. Dann gilt g(ω)χN (ω) = 0 f¨ Gleichung folgt nun μ[N ] = 0 Wir definieren nun zwei Maße ϕ, ψ : F → [0, ∞] durch ϕ[A] := ν[A ∩ (Ω \ N )] ψ[A] := ν[A ∩ N ] Dann gilt ϕ[N ] = 0 = ψ[Ω \ N ] und damit ϕ⊥ψ ψ⊥μ Wir zeigen nun, dass auch ϕ μ gilt. Wir betrachten dazu eine Menge A ∈ F mit μ[A] = 0. Dann gilt ( g dτ = μ[A ∩ (Ω \ N )] = 0 A∩(Ω\N )
und damit g(ω)χA∩(Ω\N ) (ω) = 0 τ –fast u ¨berall. Wegen Ω \ N = {g > 0} folgt daraus χA∩(Ω\N ) (ω) = 0 τ –fast u ¨ berall, und wir erhalten ϕ[A] = ν[A ∩ (Ω \ N )] ≤ τ [A ∩ (Ω \ N )] = 0 und damit ϕ[A] = 0. Daher gilt ϕμ Damit ist die Existenz der Zerlegung gezeigt. Wir betrachten nun f¨ ur i ∈ {1, 2} Maße ϕi und ψi mit ϕi μ und ψi ⊥ μ sowie ν = ϕi + ψi Dann gibt es Mengen Ni ∈ F mit μ[Ni ] = 0 = ψi [Ω\Ni ] und damit ϕi [Ni ] = 0.
162
Kapitel 9. Berechnung des Lebesgue–Integrals
Daher gilt f¨ ur alle A ∈ F ϕi [A] = ϕi [A ∩ (Ω \ Ni )] ψi [A] = ψi [A ∩ Ni ] und damit ϕi [A] = ϕi [A ∩ (Ω \ Ni )] + ψi [A ∩ (Ω \ Ni )] = ν[A ∩ (Ω \ Ni )] und ψi [A] = ϕi [A ∩ Ni ] + ψi [A ∩ Ni ] = ν[A ∩ Ni ] ur alle A ∈ F erhalten wir wegen Sei N := N1 ∪ N2 . Dann gilt μ[N ] = 0. F¨ ϕi μ ϕi [A ∩ N ] = 0 und damit unter Verwendung von Ni ⊆ N ϕi [A] = ϕi [A ∩ N ] + ϕi [A ∩ (Ω \ N )] = ϕi [A ∩ (Ω \ N )] = ν[A ∩ (Ω \ N ) ∩ (Ω \ Ni )] = ν[A ∩ (Ω \ N )] sowie ψi [A] = ν[A ∩ Ni ] = ν[A ∩ N ∩ Ni ] = ψi [A ∩ N ] = ϕi [A ∩ N ] + ψi [A ∩ N ] = ν[A ∩ N ] 2
Daher gilt ϕ1 = ϕ2 und ψ1 = ψ2 . Aufgaben 9.3.A
¨ Aquivalente Maße: Zwei Maße ϕ, ψ : F → [0, ∞] heißen ¨ aquivalent, wenn ϕ ψ und ψ ϕ gilt; in diesem Fall schreiben wir ϕ≈ψ
9.3.B 9.3.C
¨ Dann ist ≈ eine Aquivalenzrelation. ¨ Aquivalente Maße: Zu jedem σ–endlichen Maß gibt es ein ¨ aquivalentes endliches Maß. ¯ ein signiertes Maß. Dann gilt ν + ⊥ ν − . Hahn–Zerlegung: Sei ν : F → R
9.4 Integration nach einem Bildmaß
163
9.4 Integration nach einem Bildmaß Wie f¨ ur das Riemann–Integral gibt es auch f¨ ur das Lebesgue–Integral eine Substitutionsregel, die die Berechnung eines Integrals in vielen F¨allen vereinfacht. Bei der Formulierung der Substitutionsregel f¨ ur das Lebesgue–Integral ist es wiederum hilfreich, die jeweiligen Integrationsvariablen anzugeben. Die folgende Substitutionsregel wird auch als Transformationssatz bezeichnet: 9.4.1 Satz (Substitutionsregel). Sei (Ω , F ) ein Messraum und sei T : ¯ eine messbare Funktion. Ω → Ω messbar. Sei ferner h : Ω → R (1) Ist h positiv , so gilt f¨ ur alle A ∈ F ( ( (h ◦ T )(ω) dμ(ω) = h(ω ) dμT (ω ) T −1 (A )
A
(2) h ◦ T ist genau dann μ–integrierbar , wenn h μT –integrierbar ist , und in diesem Fall gilt f¨ ur alle A ∈ F ( ( (h ◦ T )(ω) dμ(ω) = h(ω ) dμT (ω ) T −1 (A )
A
Im Fall A = Ω gilt T −1 (A ) = Ω. Beweis. (1) F¨ ur alle C ∈ F gilt (χC ◦ T )(ω) = χC (T (ω)) = χT −1 (C ) (ω) und damit ( ( (χC ◦ T )(ω) dμ(ω) = χT −1 (A ) (ω) χT −1 (C ) (ω) dμ(ω) T −1 (A ) Ω ( = χT −1 (A ∩C ) (ω) dμ(ω) Ω
= μ[T −1 (A ∩ C )] = μT [A ∩ C ] ( = χA ∩C (ω ) dμT (ω ) Ω ( = χC (ω ) dμT (ω ) A
Damit ist die Behauptung f¨ ur h = χC mit C ∈ F gezeigt. Aus der positiven Linearit¨ at des Integrals folgt dann die Behauptung f¨ ur den Fall, dass h eine positive einfache Funktion ist, und aus dem Satz u ¨ ber die monotone Konvergenz folgt sodann die Behauptung f¨ ur den Fall, dass h eine beliebige positive messbare Funktion ist. (2) Wegen (1) gilt ( ( ( |h ◦ T |(ω) dμ(ω) = (|h| ◦ T )(ω) dμ(ω) = |h|(ω ) dμT (ω ) Ω
Ω
Ω
164
Kapitel 9. Berechnung des Lebesgue–Integrals
Daraus folgt die Behauptung u ¨ ber die Integrierbarkeit von h und h◦T . Im Fall der Integrierbarkeit von h und h ◦ T folgt die Gleichung f¨ ur die Integrale mit Hilfe der Zerlegung h = h+ −h− wegen (h◦T )+ = h+ ◦T und (h◦T )− = h− ◦T aus (1). 2 Im Fall h = χΩ gilt h◦T = χΩ , und in diesem Fall reduziert sich die Gleichung ( ( h(T (ω)) dμ(ω) = h(ω ) dμT (ω ) T −1 (A )
A
aus Satz 9.4.1 auf die Gleichung μ[T −1 (A )] = μT [A ] Dies ist gerade die Definition des Bildmaßes μT von μ unter T . Die Substitutionsregel l¨ asst sich unter anderem verwenden, um f¨ ur ein Maß mit Dichte und bestimmte Transformationen das Bildmaß zu bestimmen: 9.4.2 Folgerung. Sei (Ω , F ) ein Messraum und sei T : Ω → Ω messbar. Sei ferner f : Ω → R+ messbar und ( ν := f (ω) dμ(ω) Ist T bijektiv und T −1 messbar , so gilt ( νT = (f ◦ T −1 )(ω ) dμT (ω ) Beweis. F¨ ur alle A ∈ F gilt νT [A ] = ν[T −1 (A )] ( = f (ω) dμ(ω) T −1 (A ) ( = (f ◦ T −1 ◦ T )(ω)) dμ(ω) T −1 (A ) ( = (f ◦ T −1 )(ω ) dμT (ω ) A
2
Damit ist die Folgerung bewiesen. Aufgabe 9.4.A
Substitutionsregel: Sei (Ω , F ) ein Messraum und sei T : Ω → Ω ¯ eine messbare Funktion. Dann ist h ◦ T messbar. Sei ferner h : Ω → R genau dann μ–quasiintegrierbar, wenn h μT –quasiintegrierbar ist, und in diesem Fall gilt f¨ ur alle A ∈ F Z Z (h ◦ T )(ω) dμ(ω) = h(ω ) dμT (ω ) T −1 (A )
A
9.5 Integration nach einem eingeschr¨ ankten Maß
165
9.5 Integration nach einem eingeschr¨ ankten Maß Das Lebesgue–Integral wurde bisher nur f¨ ur solche Funktionen definiert, die auf der gesamten Grundmenge Ω definiert sind. Oft treten allerdings auch Funktionen auf, die nur auf einer messbaren Menge C ∈ F definiert sind. Ein einfaches Beispiel ist die Summe von μ–integrierbaren Funktionen: Sind f und g μ–integrierbar, so sind f und g μ–fast u ¨berall endlich und es gibt eine ¯ μ–Nullmenge N ∈ F derart, dass die Summe f + g als Funktion Ω \ N → R definiert ist; dagegen ist die Summe (f+g)(ω) := f (ω) + g(ω) f¨ ur ω ∈ N unter Umst¨ anden nicht definiert. Im gesamten Abschnitt sei C ∈ F. Dann ist das Mengensystem ur eine Menge A ∈ F F (C) := D ∈ F D = A ∩ C f¨ eine σ–Algebra auf C und die Abbildung SC : C → Ω mit SC (c) := c −1 (A) = A ∩ C. Ist ν : F → [0, ∞] ein ist messbar, denn f¨ ur alle A ∈ F gilt SC Maß, so heißt die Mengenfunktion ν|F (C) : F (C) → [0, ∞] mit
ν|F (C) [D] := ν[D] die Restriktion von ν auf F (C), und ist (Ω , F ) ein Messraum und h : Ω → Ω eine messbare Abbildung, so heißt die Abbildung h|C : C → Ω mit (h|C )(c) := h(c) die Restriktion von h auf C; es ist unmittelbar klar, dass ν|F (C) ein Maß ist, und wegen h|C = h ◦ SC ist h|C messbar. Wir ben¨otigen die folgende Darstellung des Bildmaßes von μ|F (C) unter SC : 9.5.1 Lemma. Es gilt
( (μ|F (C) )SC =
χC dμ
Beweis. F¨ ur alle A ∈ F gilt −1 (A)] (μ|F (C) )SC [A] = (μ|F (C) )[SC = (μ|F (C) )[A ∩ C]
= μ[A ∩ C] ( = dμ A∩C ( = χC dμ A
Damit ist die Behauptung gezeigt.
2
166
Kapitel 9. Berechnung des Lebesgue–Integrals
Aus Lemma 9.5.1 ergibt sich eine Darstellung des Integrals der Restriktion einer messbaren Funktion bez¨ uglich der Restriktion des Maßes: ¯ eine messbare Funktion. 9.5.2 Lemma. Sei h : Ω → R (1) Ist h positiv , so gilt f¨ ur alle D ∈ F(C) ( ( (h|C )(c) dμ|F (C) (c) = h(ω) dμ(ω) D
D
(2) h|C ist genau dann μ|F (C) –integrierbar , wenn hχC μ–integrierbar ist , und in diesem Fall gilt f¨ ur alle D ∈ F(C) ( ( (h|C )(c) dμ|F (C) (c) = h(ω) dμ(ω) D
D
Beweis. Ist h positiv, so ist auch h|C positiv und aus der Substitutionsregel und der Kettenregel folgt f¨ ur alle A ∈ F ( ( (h|C )(c) d(μ|F (C) )(c) = (h ◦ SC )(c) d(μ|F (C) )(c) A∩C
(
−1 SC (A)
= (
A
=
h(ω) d(μ|F (C) )SC (ω) h(ω) χC (ω) dμ(ω)
(A =
h(ω) dμ(ω) A∩C
Ist h beliebig, so folgt aus der Substitutionsregel und der Kettenregel, dass h|C genau dann μ|F (C) –integrierbar ist, wenn hχC μ–integrierbar ist, und auch in diesem Fall gilt f¨ ur alle A ∈ F ( ( (h|C )(c) d(μ|F (C) )(c) = h(ω) dμ(ω) A∩C
A∩C
Die Behauptung folgt nun aus der Definition von F (C).
2
¯ Das Lemma legt es nahe, f¨ ur eine F (C)–B(R)–messbare positive oder μ|F (C) – ¯ integrierbare Funktion g : C → R und D ∈ F(C) die Notation zu vereinfachen und ( ( g dμ := g d(μ|F (C) ) D
D
zu setzen und die Funktion g als μ–integrierbar oder kurz als integrierbar zu bezeichnen, wenn sie μ|F (C) –integrierbar ist.
9.5 Integration nach einem eingeschr¨ ankten Maß
167
Mit Hilfe geeigneter Restriktion von Maßen und messbaren Funktionen ist es insbesondere m¨ oglich, Folgerung 9.4.2 auf Transformationen zu erweitern, die nur lokal injektiv sind: 9.5.3 Lemma. Sei h : Ω → R+ messbar und ( ν := h(ω) dμ(ω) Sei ferner (Ω , F ) ein Messraum und T : Ω → Ω messbar. Ist die Restriktion T |C injektiv und ihre Umkehrfunktion (T |C )−1 : T (C) → C messbar , so gilt f¨ ur alle B ∈ F ( (ν|F (C) )(T |C ) [B ] = h (T |C )−1 (ω ) d(μ|F (C) )(T |C ) (ω ) B
Beweis. Nach Lemma 9.5.2 gilt f¨ ur alle D ∈ F(C) ( ( (ν|F (C) )[D] = ν[D] = h(ω) dμ(ω) = (h|C )(c) d(μ|F (C) )(c) D
D
Es gilt also ( ν|F (C) =
(h|C )(c) d(μ|F (C) )(c)
Die Behauptung ergibt sich nun aus Folgerung 9.4.2.
2
Wir gelangen damit zu dem folgenden allgemeinen Ergebnis: 9.5.4 Satz. Sei h : Ω → R+ messbar und ( ν := h(ω) dμ(ω) Sei ferner (Ω , F ) ein Messraum und T : Ω → Ω messbar. Ist
{Ci }i∈I ⊆ F eine abz¨ahlbare disjunkte Familie nichtleerer Mengen mit ν[Ω \ i∈I Ci ] = 0 derart, dass f¨ ur alle i ∈ I die Restriktion T |Ci injektiv und ihre Umkehrfunktion (T |Ci )−1 : T (Ci ) → Ci messbar ist, so gilt f¨ ur alle B ∈ F ( νT [B ] = h (T |Ci )−1 (ω ) d(μ|F (Ci ) )(T |Ci ) (ω ) i∈I
B ∩T (Ci )
Beweis. Sei B ∈ F . Dann gilt f¨ ur alle i ∈ I T −1 (B ) ∩ Ci = (T |Ci )−1 (B ∩ T (Ci ))
168
Kapitel 9. Berechnung des Lebesgue–Integrals
und aus Lemma 9.5.3 ergibt sich nun νT [B ] = ν[T −1 (B )] = ν T −1 (B ) ∩ =
Ci
i∈I
ν[T −1 (B ) ∩ Ci ]
i∈I
=
(ν|F (Ci ) )[T −1 (B ) ∩ Ci ] i∈I
(ν|F (Ci ) )[(T |Ci )−1 (B ∩ T (Ci ))] = i∈I
= (ν|F (Ci ) )(T |Ci ) [B ∩ T (Ci )] i∈I
=
( i∈I
B ∩T (Ci )
h (T |Ci )−1 (ω ) d(μ|F (Ci ) )(T |Ci ) (ω ) 2
Damit ist die Behauptung gezeigt.
9.6 Produktmaße In diesem Abschnitt betrachten wir zwei Maßr¨ aume (M, M, μ) und (N, N , ν) sowie das Produkt (M, M) ⊗ (N, N ) = (M × N, M ⊗ N ) der Messr¨aume (M, M) und (N, N ). Nach Satz 3.3.4 gilt M ⊗ N = σ(M × N ), und nach Aufgabe 3.1.A ist M × N ein Halbring. Ein Maß : M ⊗ N → [0, ∞] heißt Produktmaß von μ und ν, wenn f¨ ur alle A×B ∈M×N [A × B] = μ[A] ν[B] gilt und es kein weiteres Maß mit dieser Eigenschaft gibt. Im Fall der Existenz bezeichnen wir das Produktmaß von μ und ν mit μ⊗ν und nennen den Maßraum (M, M, μ) ⊗ (N, N , ν) := (M × N, M ⊗ N , μ ⊗ ν) das Produkt der Maßr¨ aume (M, M, μ) und (N, N , ν). Wir betrachten daher die Abbildung : M × N → [0, ∞] mit [A × B] = μ[A] ν[B] und zeigen zun¨ achst, dass ein Maß ist. Dazu ben¨otigen wir eine Darstellung der Werte von durch Integrale.
9.6 Produktmaße
169
F¨ ur C ∈ 2M×N und x ∈ M heißt die Menge Cx := y ∈ N (x, y) ∈ C x–Schnitt von C. Das folgende Lemma liefert die angek¨ undigte Darstellung der Werte von durch Integrale: 9.6.1 Lemma. Sei A × B ∈ M × N . F¨ ur alle x ∈ M gilt dann (A × B)x ∈ N und ν[(A × B)x ] = ν[B] χA (x) ¯ : x → ν[(A×B)x ] messbar und positiv , Insbesondere ist die Abbildung M → R und es gilt ( ν[(A × B)x ] dμ(x) [A × B] = M
Beweis. F¨ ur alle x ∈ M gilt (A × B)x =
B ∅
falls x ∈ A sonst
und damit (A × B)x ∈ N und ν[(A × B)x ] = ν[B] χA (x) ¯ : x → ν[(A × B)x ] messbar und positiv, und Daher ist die Abbildung M → R es gilt A × B = μ[A] ν[B] ( ν[B] dμ(x) = (A ν[B] χA (x) dμ(x) = (M = ν[(A × B)x ] dμ(x) M
Damit ist das Lemma bewiesen.
2
Mit Hilfe von Lemma 9.6.1 k¨ onnen wir nun zeigen, dass ein Maß ist: 9.6.2 Lemma. Die Abbildung : M × N → [0, ∞] ist ein Maß. Beweis. Sei ∅ = A × B eine Darstellung der leeren Menge ∅ ∈ 2M×N . Dann gilt A = ∅ oder B = ∅, und damit μ[A] = 0 oder ν[B] = 0. Daher gilt [∅] = [A × B] = μ[A] ν[B] = 0
170
Kapitel 9. Berechnung des Lebesgue–Integrals
Sei nun {Ck }k∈N ⊆ M × eine disjunkte Folge mit ∞ ur k=1 Ck ∈ M × N . F¨
N
∞ ∞ alle x ∈ M gilt dann ( k=1 Ck )x = k=1 (Ck )x , und aus Lemma 9.6.1 und dem Satz u ¨ber die monotone Konvergenz folgt nun ∞ ∞ ( Ck = ν Ck dμ(x) M
k=1
( =
ν M
(
(Ck )x dμ(x)
k=1 ∞
M
=
x
ν[(Ck )x ] dμ(x)
= =
k=1 ∞
∞ ( k=1 ∞
k=1
ν[(Ck )x ] dμ(x)
M
[Ck ]
k=1
Daher ist σ–additiv. Damit ist gezeigt, dass ein Maß ist.
2
Da das Mengensystem M×N ein Halbring ist, folgt aus Lemma 9.6.2 und dem Existenzsatz die Existenz einer Fortsetzung von auf M⊗N . Da das Mengensystem M × N insbesondere ∩–stabil ist, erh¨ alt man unter der zus¨atzlichen Voraussetzung, dass σ–endlich ist, aus dem Eindeutigkeitssatz außerdem die Eindeutigkeit der Fortsetzung. Die σ–Endlichkeit von ist gew¨ahrleistet, wenn μ und ν σ–endlich sind. Aus dem Satz von Caratheodory erh¨alt man daher das folgende Ergebnis: 9.6.3 Satz (Existenzsatz). Seien μ und ν σ–endlich. Dann besitzen μ und ν ein Produktmaß , und das Produktmaß ist σ–endlich. Unser n¨ achstes Ziel ist es, die in Lemma 9.6.1 angegebene Darstellung der Werte von durch Integrale zu einer Darstellung der Werte des Produktmaßes μ ⊗ ν durch Integrale zu verallgemeinern. 9.6.4 Lemma. Sei C ∈ M ⊗ N . F¨ ur alle x ∈ M gilt dann Cx ∈ N . Beweis. Sei x ∈ M und
Dx := D ∈ 2M×N Dx ∈ N
Dann ist Dx ein Dynkin–System: (i) Es gilt (M × N )x = N ∈ N und damit M × N ∈ Dx . (ii) Sei D ∈ Dx . Dann gilt Dx ∈ N und Dx + (N \ D)x = (M × N )x = N ∈ N also (N \ D)x = N \ Dx ∈ N , und damit N \ D ∈Dx .
∞ ∞ (iii) Sei {Dk }k∈N ⊆ Dx disjunkt. Dann gilt k=1 Dk x = k=1 (Dk )x ∈ N
∞ und damit k=1 Dk ∈ Dx .
9.6 Produktmaße
171
Außerdem ist das Mengensystem M × N ∩–stabil und es gilt M × N ⊆ Dx . Daraus folgt M ⊗ N = σ(M × N ) = δ(M × N ) ⊆ x∈M Dx . 2 9.6.5 Lemma. Sei ν σ–endlich. Dann ist f¨ ur alle C ∈ M ⊗ N die Abbildung ¯ : x → ν[Cx ] messbar und positiv. M →R ¯ gegeben durch Beweis. F¨ ur C ∈ M ⊗ N sei die Funktion fC : M → R fC (x) := ν[Cx ] Dann ist fC positiv und es bleibt zu zeigen, dass fC messbar ist. (1) Wir nehmen zun¨ achst an, dass ν endlich ist. Sei D := D ∈ 2M×N fD ist messbar Dann ist D ein Dynkin–System: (i) F¨ ur alle x ∈ M gilt fM×N (x) = ν[(M × N )x ] = ν[N ] Daher ist fM×N messbar, und daraus folgt M × N ∈ D. (ii) Sei D ∈ D. F¨ ur alle x ∈ M gilt (N \ D)x = N \ Dx und damit f(M×N )\D (x) = ν[((M × N ) \ D)x ] = ν[N \ Dx ] = ν[N ] − ν[Dx ] = ν[N ] − fD (x) ∈ D. . Daher ist f(M×N )\D messbar, und daraus folgt (M × N ) \ D
∞ ∞ ur alle x ∈ M gilt ( k=1 Dk )x = k=1 (Dk )x (iii) Sei {Dk }k∈N ⊆ D disjunkt. F¨ und damit ∞ fP∞ (x) = ν Dk k=1 Dk =ν
k=1 ∞
x
(Dk )x
k=1
= =
∞ k=1 ∞ k=1
ν[(Dk )x ] fDk (x)
∞ (x) messbar, und daraus folgt k=1 Dk ∈ D. Daher ist fP∞ k=1 Dk Damit ist gezeigt, dass D ein Dynkin–System ist. Außerdem ist das Mengensystem M × N ∩–stabil und nach Lemma 9.6.1 gilt M × N ⊆ D. Daraus folgt ur alle M ⊗ N = σ(M × N ) = δ(M × N ) ⊆ D. Daher ist die Abbildung fC f¨ C ∈ M ⊗ N messbar.
172
Kapitel 9. Berechnung des Lebesgue–Integrals
(2) Wir nehmen nun an, dass ν σ–endlich ist. Dann gibt es eine monoton wachsende Folge {Bn }n∈N ⊆ N mit n∈N Bn = N und ν[Bn ] < ∞ f¨ ur alle n ∈ N, und f¨ ur alle n ∈ N ist die Mengenfunktion νn : N → [0, ∞] mit νn [B] := ν[B ∩ Bn ] ein endliches Maß. F¨ ur C ∈ M ⊗ N ist daher nach (1) f¨ ur alle n ∈ N die Abbildung fn,C : M → [0, ∞] mit fn,C (x) := νn [Cx ] messbar, und wegen fC (x) = ν[Cx ] = sup ν[Cx ∩ Bn ] = sup νn [Cx ] = sup fn,C (x) n∈N
n∈N
n∈N
2
ist auch fC messbar.
Mit diesen Vorbereitungen k¨ onnen wir die angek¨ undigte Verallgemeinerung von Lemma 9.6.1 beweisen: 9.6.6 Satz. Seien μ und ν σ–endlich. Dann gilt f¨ ur alle C ∈ M ⊗ N ( μ ⊗ ν [C] = ν[Cx ] dμ(x) M
¯ : x → ν[Cx ] messbar Beweis. Nach Lemma 9.6.5 ist die Funktion M → R und positiv. Wir betrachten die Mengenfunktion M : M ⊗ N → [0, ∞] mit ( M [C] := ν[Cx ] dμ(x) M
Dann ur jede disjunkte Folge {Ck }k∈N ⊆ M × N mit
∞ gilt M [∅] = 0 und f¨ C ∈ M × N gilt nach dem Satz u ¨ber die monotone Konvergenz k k=1 ∞ ( ∞ dμ(x) Ck = ν Ck M M
k=1
( ν
= M
( =
=
x
(Ck )x dμ(x)
k=1 ∞
ν[(Ck )x ] dμ(x)
M
=
k=1 ∞
∞ ( k=1 ∞ l=1
l=1
ν[(Ck )x ] dμ(x)
M
M [Ck ]
9.6 Produktmaße
173
Daher ist M ein Maß. Außerdem gilt f¨ ur alle A × B ∈ M × N ( ν[(A×B)x ] dμ(x) M [A × B] = M ( ν[B] χA (x) dμ(x) = M
= μ[A] ν[B] = [A × B] Daher gilt M |M×N = . Da μ und ν σ–endlich sind, ist auch σ–endlich, und aus dem Eindeutigkeitssatz folgt nun M = μ ⊗ ν. 2 Wir dehnen die Konstruktion des Produktmaßes nun auf endlich viele σ– endliche Maßr¨ aume aus: Sei {(Ωi , Fi , μi )}i∈{1,...,n} eine endliche Familie von Maßr¨aumen. Ein Maß n : i=1 Fi → [0, ∞] heißt Produktmaß der Familie {μi }i∈{1,...,n} , wenn f¨ ur n n alle i=1 Ai ∈ i=1 Fi n n Ai = μi [Ai ] i=1
i=1
gilt und es kein weiteres Maß mit dieser Eigenschaft gibt. Im Fall der Existenz bezeichnen wir das Produktmaß der Familie {μi }i∈{1,...,n} mit n
μi
i=1
und nennen den Maßraum n (Ωi , Fi , μi ) := i=1
n
Ωi ,
i=1
n i=1
Fi ,
n
μi
i=1
das Produkt der Familie der Maßr¨ aume {(Ωi , Fi , μi )}i∈{1,...,n} . 9.6.7 Satz. Sei {(Ωi , Fi , μi )}i∈{1,...,n} eine -n Familie von σ–endlichen Maßr¨aumen. Dann gibt es genau ein Maß : i=1 Fi → [0, ∞] mit n n Ai = μi [Ai ] i=1
f¨ ur alle
n i=1
Ai ∈
n i=1
i=1
Fi . Das Maß ist σ–endlich.
Beweis. Die Behauptung ergibt sich unter Verwendung von Aufgabe 3.3.B durch vollst¨ andige Induktion aus Satz 9.6.3. 2
174
Kapitel 9. Berechnung des Lebesgue–Integrals
Aus dem letzten Satz erhalten wir eine Darstellung des n–dimensionalen Lebesgue–Maßes als Produktmaß: 9.6.8 Folgerung (Lebesgue–Maß). Es gilt λn =
n
λ
i=1
Beweis. Da das Lebesgue–Maß λ σ–endlich ist, -nexistiert das Produktmaß n n i=1 λ, und nach Beispiel 3.3.1 gilt B(R ) = i=1 B(R). Daher ist das n– dimensionale Lebesgue–Maß λn auf der selben σ–Algebra definiert wie das n Produktmaß i=1 λ. F¨ ur alle (a, b] ∈ J (Rn ) mit a < b gilt n λn (a, b] = (bi − ai )
=
i=1 n
λ (ai , bi ]
i=1
=
=
n
i=1 n
n (ai , bi ]
i=1
λ λ
(a, b]
i=1
Daher stimmen die Maße λn und ni=1 λ auf dem Halbring J (Rn ) u ¨berein. Da J (Rn ) als Halbring ∩–stabil ist und die Restriktion von λn aufJ (Rn ) n σ–endlich ist, folgt aus dem Eindeutigkeitssatz, dass die Maße λn und i=1 λ 2 sogar auf B(Rn ) = σ(J (Rn )) u ¨ bereinstimmen. ur alle i ∈ {1, . . . , n} setzen wir, im Fall der Im Fall (Ωi , Fi , μi ) = (Ω, F , μ) f¨ Existenz des Produktmaßes, μn :=
n
μ
i=1
Dies steht im Einklang mit dem letzten Ergebnis. Aufgabe 9.6.A
F¨ ur i ∈ {1, 2, 3} sei (Ωi , Fi , μi ) ein σ–endlicher Maßraum. Dann gilt (μ1 ⊗ μ2 ) ⊗ μ3 = μ1 ⊗ (μ2 ⊗ μ3 )
9.7 Integration nach einem Produktmaß
175
9.7 Integration nach einem Produktmaß Im gesamten Abschnitt seien (M, M, μ) und (N, N , ν) Maßr¨aume. Nach Satz 9.6.3 existiert das Produktmaß μ⊗ ν, wenn μ und ν σ–endlich sind, und f¨ ur diesen Fall zeigen wir, dass das Integral ( h(x, y) d(μ ⊗ ν)(x, y) M×N
¯ die positiv oder integrierbar ist, einer messbaren Funktion h : M × N → R, iterativ berechnet werden kann. ¯ und x ∈ M heißt die Funktion hx : N → R ¯ F¨ ur eine Funktion h : M × N → R mit hx (y) := h(x, y) der x–Schnitt von h. 9.7.1 Lemma. Sei x ∈ M . ¯ eine Funktion, so gilt f¨ ¯ (1) Ist h : M × N → R ur alle D ∈ B(R) (hx )−1 (D) = (h−1 (D))x ¯ messbar , so ist auch hx messbar. (2) Ist h : M × N → R Beweis. Es gilt (hx )−1 (D) = y ∈ N hx (y) ∈ D = y ∈ N h(x, y) ∈ D = y ∈ N (x, y) ∈ h−1 (D) = (h−1 (D))x Ist h messbar, so folgt aus dieser Gleichung und Lemma 9.6.4, dass auch hx messbar ist. 2 ¯ Wir betrachten zun¨ achst positive messbare Funktionen. Ist h : M × N → R eine positive messbare Funktion, so ist f¨ ur jedes x ∈ M auch die Funktion hx ¯ positiv und nach Lemma 9.7.1 messbar. Daher ist die Funktion fh : M → R mit ( hx (y) dν(y) fh (x) := N
wohldefiniert und positiv.
176
Kapitel 9. Berechnung des Lebesgue–Integrals
9.7.2 Satz (Fubini; positiver Fall). Seien μ und ν σ–endlich und sei ¯ messbar und positiv. Dann ist fh μ–messbar und positiv , und h : M ×N → R es gilt ( ( h(x, y) d(μ ⊗ ν)(x, y) = M×N
fh (x) dμ(x) M
Insbesondere ist h genau dann μ⊗ ν–integrierbar , wenn fh μ–integrierbar ist. Beweis. Wir f¨ uhren den Beweis der μ–Messbarkeit von fh und der Gleichheit der Integrale durch algebraische Induktion: (1) Sei C ∈ M ⊗ N . F¨ ur alle x ∈ M gilt (χC )x = χCx , und aus Lemma 9.7.1 folgt dann ( ( (χC )x (y) dν(y) = χCx (y) dν(y) = ν[Cx ] fχC (x) = N
N
Nach Lemma 9.6.5 ist fχC μ–messbar und aus Satz 9.6.6 folgt nun ( ( fχC (x) dμ(x) = ν[Cx ] dμ(x) M
M
= (μ ⊗ ν)[C] ( = χC (x, y) d(μ ⊗ ν)(x, y) M×N
Damit ist die Behauptung f¨ ur h = χC mit C ∈ M ⊗ N gezeigt. (2) Sei h eine positive einfache Funktion mit n
h=
c i χC i
i=1
mit {C
⊗ N und {ci }i∈{1,...,n} ⊆ R+ . F¨ ur alle x ∈ M gilt i }i∈{1,...,n} ⊆ M
n n hx = ( i=1 ci χCi )x = i=1 ci (χCi )x , und aus der positiven Linearit¨at des Integrals folgt dann ( fh (x) = hx (y) dν(y) N ( n = ci (χCi )x (y) dν(y) N
= =
n i=1 n
i=1
(
ci
(χCi )x (y) dν(y) N
ci fχCi (x)
i=1
Aus (1) ergibt sich nun zun¨ achst die μ–Messbarkeit von fh , und aus der positiven Linearit¨ at des Integrals und (1) ergibt sich des weiteren
9.7 Integration nach einem Produktmaß
( fh (x) dμ(x) =
( n
M
M
= =
n i=1 n
177
ci fχCi (x) dμ(x)
i=1
(
ci (
fχCi (x) dμ(x)
M
χCi (x, y) d(μ ⊗ ν)(x, y)
ci M×N
i=1
( =
M×N
n
ci χCi (x, y) d(μ ⊗ ν)(x, y)
i=1
(
h(x, y) d(μ ⊗ ν)(x, y)
= M×N
Damit ist die Behauptung f¨ ur positive einfache Funktionen gezeigt. (3) Sei h eine positive messbare Funktion. Dann gibt es eine monoton wachsende Folge {hn }n∈N von positiven einfachen Funktionen mit h = supn∈N hn . F¨ ur alle x ∈ M gilt hx = (supn∈N hn )x = supn∈N (hn )x , und aus dem Satz u ¨ ber die monotone Konvergenz folgt dann ( fh (x) = hx (y) dν(y) N ( = sup(hn )x (y) dν(y) N n∈N ( = sup (hn )x (y) dν(y) n∈N
N
= sup fhn (x) n∈N
Aus (2) ergibt sich nun zun¨ achst die μ–Messbarkeit von fh , und aus dem Satz u ¨ ber die monotone Konvergenz und (2) ergibt sich des weiteren ( ( fh (x) dμ(x) = sup fhn (x) dμ(x) M M n∈N ( = sup fhn (x) dμ(x) n∈N M ( = sup hn (x, y) d(μ ⊗ ν)(x, y) n∈N M×N ( = sup hn (x, y) d(μ ⊗ ν)(x, y) M×N n∈N ( = h(x, y) d(μ ⊗ ν)(x, y) M×N
Damit ist der Satz bewiesen.
2
178
Kapitel 9. Berechnung des Lebesgue–Integrals
Wir betrachten nun integrierbare Funktionen. Hierf¨ ur ist eine Vor¨ uberlegung erforderlich: ¯ integrierbar. Dann sind Seien μ und ν σ–endlich und sei h : M × N → R auch die Funktionen h+ und h− integrierbar, und aus dem Satz von Fubini f¨ ur positive Funktionen folgt nun die μ–Integrierbarkeit von fh+ und fh− . Dann sind aber fh+ und fh− μ–fast u ¨ berall endlich, und damit gibt es eine μ–Nullmenge M0 derart, dass f¨ ur alle x ∈ M \ M0 die Funktionen (h+ )x und (h− )x ν–integrierbar sind; wegen hx = (hx )+ − (hx )− sowie (hx )+ = (h+ )x und (hx )− = (h− )x ist dann f¨ ur alle x ∈ M \ M0 auch die Funktion hx ν–integrierbar und es gilt ( ( ( + hx (y) dν(y) = (h )x (y) dν(y) − (h− )x (y) dν(y) N
N
N
= fh+ (x) − fh− (x) ¯ gegeben durch Sei nun fh : M → R ⎧( ⎪ ⎨ hx (y) dν(y) N fh (x) := ⎪ ⎩ 0
falls x ∈ M \ M0 sonst
Dann gilt fh =μ fh+ − fh− und damit ist auch fh μ–integrierbar. Der folgende Satz von Fubini f¨ ur integrierbare Funktionen ergibt sich nun unmittelbar aus dem Satz von Fubini f¨ ur positive messbare Funktionen: 9.7.3 Satz (Fubini; integrierbarer Fall). Seien μ und ν σ–endlich und ¯ integrierbar. Dann ist auch fh integrierbar und es gilt sei h : M × N → R ( ( h(x, y) d(μ ⊗ ν)(x, y) = fh (x) dμ(x) M×N
M
Im folgenden verzichten wir auf die Kennzeichnung der x–Schnitte und schreiben ( fh (x) = h(x, y) dν(y) N
Entsprechend schreiben wir die Gleichung des Satzes von Fubini in der Form ! ( ( ( h(x, y) d(μ ⊗ ν)(x, y) = h(x, y) dν(y) dμ(x) M×N
M
N
oder, unter Weglassung der Klammern, in der Form
9.7 Integration nach einem Produktmaß
179
(
(
(
h(x, y) d(μ ⊗ ν)(x, y) =
h(x, y) dν(y) dμ(x)
M×N
M
N
Vertauscht man schließlich die Rollen der Maße μ und ν, so erh¨alt man unter den Voraussetzungen des Satzes von Fubini die zus¨atzliche Gleichung ( ( ( h(x, y) d(μ ⊗ ν)(x, y) = h(x, y) dμ(x) dν(y) M×N
N
M
Beide Gleichungen lassen sich zu der Gleichung ( ( ( h(x, y) dν(y) dμ(x) = h(x, y) d(μ ⊗ ν)(x, y) M N M×N ( ( = h(x, y) dμ(x) dν(y) N
M
zusammenfassen. Unter der Voraussetzung des Satzes von Fubini kann das Integral von h also in beliebiger Reihenfolge iterativ ausgewertet werden. Neben der iterativen Berechnung des Integrals einer messbaren positiven oder integrierbaren Funktion auf dem Produkt zweier σ–endlicher Maßr¨aume kann der Satz von Fubini auch f¨ ur die Berechnung des Integrals einer messbaren positiven oder integrierbaren Funktion f auf einem σ–endlichen Maßraum (M, M, μ) von Nutzen sein; zu diesem Zweck muss ein σ–endlicher Maßraum (N, N , ν) und eine messbare )positive oder integrierbare Funktion h auf (M, M, μ) ⊗ (N, N , ν) mit f (x) = N h(x, y) dν(y) gefunden werden, um den Satz von Fubini anwenden zu k¨ onnen. 9.7.4 Beispiel. Sei (Ω, F, μ) ein σ–endlicher Maßraum und sei f positiv und messbar. Dann gilt Z Z f (ω) dμ(ω) = μ[{f ≥ x}] dλ(x) Ω
R+
In der Tat: Wir betrachten den σ–endlichen Maßraum (R, B(R), λ) und die Indikator¯ der Menge funktion χC : Ω × R → R ˛ n o ˛ C := (ω, x) ∈ Ω × R ˛ 0 ≤ x ≤ f (ω) Die Indikatorfunktion χC ist positiv; außerdem ist sie genau dann messbar, wenn C ∈ F ⊗ B(R) gilt. Wir zeigen daher zun¨ achst, dass C ∈ F ⊗ B(R) gilt. Dazu betrachten wir die Menge ˛ j„ « ff ˛ x D := ∈ R2 ˛˛ 0 ≤ x ≤ y y und die Funktion T : Ω × R → R2 mit T (ω, x) :=
„
x f (ω)
«
180
Kapitel 9. Berechnung des Lebesgue–Integrals
Dann gilt C = T −1 (D). Da die Menge D abgeschlossen ist, gilt außerdem D ∈ B(R2 ). Die Koordinaten T1 , T2 : Ω × R → R von T mit T1 (ω, x) := x T2 (ω, x) := f (ω) sind wegen T1−1 (B) := Ω × B T2−1 (B) := f −1 (B) × R messbar; daher ist auch T messbar und es folgt C = T −1 (D) ∈ F ⊗ B(R). Aus dem Satz von Fubini ergibt sich nun einerseits Z Z Z χC (ω, x) d(μ ⊗ λ)(ω, x) = χC (ω, x) dλ(x) dμ(ω) Ω×R Ω R Z Z χ[0,f (ω)] (x) dλ(x) dμ(ω) = ZΩ R = λ[[0, f (ω]] dμ(ω) ZΩ f (ω) dμ(ω) = Ω
und andererseits Z Z Z χC (ω, x) d(μ ⊗ λ)(ω, x) = χC (ω, x) dμ(ω) dλ(x) Ω×R R Ω Z Z χR+ (x) χ{f ≥x} (ω) dμ(ω) dλ(x) = ZR Ω Z = χR+ (x) χ{f ≥x} (ω) dμ(ω) dλ(x) Ω ZR μ[{f ≥ x}] dλ(x) = R+
Damit ist die Behauptung gezeigt.
Aufgabe 9.7.A
Sei (Ω, F, μ) ein σ–endlicher Maßraum und sei f positiv und messbar. Dann gilt Z Z f (ω) dμ(ω) = μ[{f > x}] dλ(x) Ω
R+
9.8 Lebesgue–Integral und Riemann–Integral In diesem Abschnitt stellen wir Beziehungen zwischen dem Lebesgue–Integral nach dem Lebesgue–Maß und dem Riemann–Integral bzw. dem uneigentlichen Riemann–Integral her.
9.8 Lebesgue–Integral und Riemann–Integral
181
Wir betrachten zun¨ achst ein abgeschlossenes Intervall [a, b] ⊆ R und bezeichnen mit B[a, b] die Spur–σ–Algebra von B(R) auf [a, b]. Eine Funktion f : [a, b] → R heißt Treppenfunktion, wenn es ein n ∈ N und eine streng monoton wachsende endliche Folge {xi }i∈{0,1,...,n} ⊆ R mit a = x0 und xn = b sowie eine Familie {ci }i∈{1,...,n} ⊆ R gibt mit f (x) = ci f¨ ur alle i ∈ {1, . . . , n} und x ∈ (xi−1 , xi ); in diesem Fall heißt die reelle Zahl (
b
f (x) dx := a
n
ci (xi − xi−1 )
i=1
das Riemann–Integral von f . 9.8.1 Lemma. Sei [a, b] ⊆ R ein Intervall und sei f : [a, b] → R eine Treppenfunktion. Dann ist f λ–integrierbar und es gilt (
(
b
f (x) dλ(x) =
f (x) dx
[a,b]
a
Beweis. Da f eine Treppenfunktion ist, gibt es eine streng monoton wachsende endliche Folge {xi }i∈{0,1,...,n} ⊆ R mit a = x0 und xn = b sowie eine Familie {ci }i∈{1,...,n} ⊆ R mit f (x) = ci f¨ ur alle i ∈ {1, . . . , n} und x ∈ (xi−1 , xi ). Da jedes offene Intervall und jede einelementige Teilmenge des Intervalls [a, b] messbar ist, ist f B[a, b]–messbar. Es gilt n
f =
ci χ(xi−1 ,xi )
i=1
λ–fast u ¨ berall und damit n
|f | =
|ci | χ(xi−1 ,xi )
i=1
λ–fast u ¨ berall. Wegen (
( [a,b]
|f |(x) dλ(x) =
[a,b]
n i=1
|ci | χ(xi−1 ,xi ) (x) dλ(x)
182
Kapitel 9. Berechnung des Lebesgue–Integrals
= =
n i=1 n
|ci | λ[(xi−1 , xi )] |ci | (xi −xi−1 )
i=1
ist |f | und damit auch f λ–integrierbar und es gilt n ( ( f (x) dλ(x) = ci χ(xi−1 ,xi ) (x) dλ(x) [a,b]
[a,b]
= =
n i=1 n
i=1
ci λ[(xi−1 , xi )] ci (xi −xi−1 )
i=1 ( b
=
f (x) dx a
2
Damit ist das Lemma bewiesen.
Eine Funktion f : [a, b] → R heißt Riemann–integrierbar , wenn sie beschr¨ankt ist und die reellen Zahlen # ( b ( b U − f (x) dx := sup g(x) dx g ist Treppenfunktion mit g ≤ f a a und ( O−
(
b
b
f (x) dx := inf
a
a
# h(x) dx h ist Treppenfunktion mit f ≤ h
u ¨ bereinstimmen; in diesem Fall heißt die reelle Zahl (
b
( b ( f (x) dx := U − f (x) dx = O−
a
a
b
f (x) dx
a
das Riemann–Integral von f . 9.8.2 Satz. Sei [a, b] ⊆ R ein Intervall und sei f : [a, b] → R Riemann– integrierbar. Dann gibt es eine λ–integrierbare Funktion g : [a, b] → R mit g = f λ–fast ¨ uberall und (
(
b
f (x) dx = a
g(x) dλ(x) [a,b]
9.8 Lebesgue–Integral und Riemann–Integral
183
Beweis. Da f Riemann–integrierbar ist, gibt es eine monoton wachsende Folge {gn }n∈N von Treppenfunktionen mit supn∈N gn ≤ f und (
(
b
sup
b
gn (x) dx =
n∈N
f (x) dx
a
a
sowie eine monoton fallende Folge {hn }n∈N von Treppenfunktionen mit f ≤ inf n∈N hn und ( b ( b f (x) dx = inf hn (x) dx n∈N
a
a
Aufgrund der Messbarkeit von Treppenfunktionen sind auch die Funktionen g := sup gn n∈N
h := inf hn n∈N
messbar und aus der Monotonie der Folgen {hn }n∈N und {gn }n∈N ergibt sich g = lim gn n→∞
h = lim hn n→∞
und ( lim
n→∞
(
b
gn (x) dx = a
(
b
f (x) dx = lim
n→∞
a
b
hn (x) dx a
Des weiteren gilt 0 ≤ h − g = lim hn − lim gn = lim (hn −gn ) n→∞
n→∞
n→∞
und f¨ ur alle n ∈ N ist hn − gn eine Treppenfunktion mit |hn −gn | ≤ hn − gn ≤ h1 − g1 Aus dem Satz u ¨ber die majorisierte Konvergenz folgt nun mit Lemma 9.8.1 ( (h − g)(x) dλ(x) 0≤ [a,b] ( lim (hn − gn )(x) dλ(x) = [a,b] n→∞ ( = lim (hn − gn )(x) dλ(x) n→∞
(
[a,b] b
(hn − gn )(x) dx
= lim
n→∞
a
184
Kapitel 9. Berechnung des Lebesgue–Integrals
(
hn (x) dx − lim
= lim
n→∞
(
(
b a
b
(
n→∞
a
gn (x) dx a
b
f (x) dx −
=
b
f (x) dx a
=0 Daher gilt h − g = 0 λ–fast u ¨berall, und damit g = f = h λ–fast u ¨berall. F¨ ur alle n ∈ N gilt g1 ≤ gn ≤ f ≤ h1 , und daraus folgt supn∈N |gn | ≤ (−g1 ) ∨ h1 . Nach Lemma 9.8.1 ist (−g1 ) ∨ h1 und damit auch supn∈N |gn | λ–integrierbar. Aus dem Satz u ¨ber die majorisierte Konvergenz folgt nun mit Lemma 9.8.1 ( b ( b f (x) dx = lim gn (x) dx n→∞ a a ( gn (x) dλ(x) = lim n→∞ [a,b] ( = lim gn (x) dλ(x) [a,b] n→∞ ( = g(x) dλ(x) [a,b]
2
Damit ist der Satz bewiesen.
F¨ ur messbare Riemann–integrierbare Funktionen erh¨alt man eine st¨arkere Aussage: 9.8.3 Folgerung. Sei [a, b] ⊆ R ein Intervall und sei f : [a, b] → R messbar und Riemann–integrierbar. Dann ist f λ–integrierbar und es gilt ( b ( f (x) dx = f (x) dλ(x) a
[a,b]
Beweis. Nach Satz 9.8.2 gibt es eine λ–integrierbare Funktion g : [a, b] → R mit g = f λ–fast u ¨ berall und ( b ( f (x) dx = g(x) dλ(x) a
[a,b]
Nach Lemma 8.3.5 ist auch f λ–integrierbar und es gilt ( ( f (x) dλ(x) = g(x) dλ(x) [a,b]
Daraus folgt die Behauptung.
[a,b]
2
9.8 Lebesgue–Integral und Riemann–Integral
185
Das folgende Beispiel zeigt, dass eine beschr¨ ankte λ–integrierbare Funktion nicht Riemann–integrierbar zu sein braucht: 9.8.4 Beispiel (Dirichlet–Funktion). Sei [a, b] ⊆ R ein Intervall. Die Dirichlet– Funktion f : [a, b] → R mit j 1 falls x ∈ Q f (x) := 0 sonst ist λ–integrierbar und beschr¨ ankt, aber sie ist nicht Riemann–integrierbar.
Eine Funktion f : (a, b) → R mit (a, b) ⊆ R heißt uneigentlich Riemann– integrierbar , wenn f¨ ur alle c, d ∈ R mit a < c < d < b die Funktion f |[c,d] Riemann–integrierbar ist und f¨ ur ein t ∈ (a, b) die Grenzwerte ( t ( u f (x) dx und lim f (x) dx lim s↓a
u↑b
s
t
in R existieren. In diesem Fall ist die Summe dieser Grenzwerte unabh¨angig von der Wahl von t und die reelle Zahl ( b ( t ( u f (x) dx := lim f (x) dx + lim f (x) dx s↓a
a
u↑b
s
t
heißt das uneigentliche Riemann–Integral von f . Wir untersuchen nun f¨ ur eine positive messbare Funktion die Beziehung zwischen dem Lebesgue–Integral nach dem Lebesgue–Maß und dem uneigentlichen Riemann–Integral: 9.8.5 Satz. Sei f : (a, b) → R eine positive messbare Funktion derart, dass f¨ ur alle c, d ∈ R mit a < c < d < b die Funktion f |[c,d] Riemann–integrierbar ist. Dann sind folgende Aussagen ¨aquivalent : (a) f ist uneigentlich Riemann–integrierbar. (b) f ist λ–integrierbar. In diesem Fall gilt ( b ( f (x) dλ(x) = f (x) dx (a,b)
a
Beweis. Wir nehmen zun¨ achst an, dass f uneigentlich Riemann–integrierbar ist, und betrachten t ∈ (a, b) sowie eine monoton fallende Folge {an }n∈N ⊆ (a, t] mit limn→∞ an = a und eine monoton wachsende Folge {bn }n∈N ⊆ [t, b) mit limn→∞ bn = b. Aus dem Satz u ¨ ber die monotone Konvergenz ergibt sich mit Folgerung 9.8.3 ( ( t ( f (x) dλ(x) = lim f (x) dλ(x) = lim f (x) dx (a,t]
n→∞
[an ,t]
n→∞
an
186
Kapitel 9. Berechnung des Lebesgue–Integrals
sowie (
(
(
f (x) dλ(x) = lim
n→∞
[t,b)
n→∞
[t,bn ]
und wegen λ[{t}] = 0 erh¨ alt man ( ( ( f (x) dλ(x) = f (x) dλ(x) + (a,b)
bn
f (x) dλ(x) = lim
(a,t]
(
n→∞
f (x) dλ(x)
[t,b) t
= lim
(
f (x) dx + lim
n→∞
an
f (x) dx t
bn
f (x) dx t
2
Daraus folgt die Behauptung.
Die folgenden Beispiele zeigen, dass die in der Definition der Gamma–Funktion und der Beta–Funktion auftretenden uneigentlichen Riemann–Integrale als Lebesgue–Integrale nach dem Lebesgue–Maß dargestellt werden k¨onnen: 9.8.6 Beispiele. (1) Gamma–Funktion: F¨ ur alle γ ∈ (0, ∞) gilt Z ∞ Z Γ(γ) = e−z z γ−1 dz = 0
e−z z γ−1 dλ(z)
(0,∞)
(2) Beta–Funktion: F¨ ur alle α, β ∈ (0, ∞) gilt Z Z 1 z α−1 (1−z)β−1 dz = B(α, β) =
z α−1 (1−z)β−1 dλ(z) (0,1)
0
Das folgende Beispiel zeigt, dass im letzten Satz die Forderung der Positivit¨at der Funktion wesentlich ist: 9.8.7 Beispiel. Die Funktion f : (0, ∞) → R mit f (x) :=
sin(x) x
ist bekanntlich uneigentlich Riemann–integrierbar mit Z ∞ π f (x) dx = 2 0 Wegen Z
Z (0,∞)
|f |(x) dλ(x) = ≥
(0,∞)
∞ Z X n=1
| sin(x)| dλ(x) x
[(n−1)π,nπ]
| sin(x)| dλ(x) nπ
9.8 Lebesgue–Integral und Riemann–Integral
187
Z ∞ 1X1 | sin(x)| dλ(x) π n=1 n [(n−1)π,nπ] Z ∞ 1 X 1 nπ = | sin(x)| dx π n=1 n (n−1)π
=
=
∞ 2X1 π n=1 n
ist f nicht λ–integrierbar.
Wir geben einige Beispiele, die in der Wahrscheinlichkeitstheorie von Interesse sind: 9.8.8 Beispiele. (1) F¨ ur alle a ∈ (0, ∞) gilt Z
2
x e−ax dλ(x) =
Z
(0,∞)
∞
2
x e−ax dx =
0
1 2a
(2) Es gilt Z (0,∞)
und
Z R
Z
1 dλ(x) = 1 + x2
1 dλ(x) = 1 + x2
∞ 0
Z
∞ −∞
π 1 dx = 1 + x2 2
1 dx = π 1 + x2
(3) Es gilt Z
2
e−x dλ(x) = (0,∞)
1√ π 2
In der Tat: Die Funktion h : R2 → R mit h(x, y) := y e−(1+x
2
)y 2
χ(0,∞)2 (x, y)
ist messbar und positiv. Aus dem Satz von Fubini folgt einerseits Z 2 2 y e−(1+x )y χ(0,∞)2 (x, y) dλ2 (x, y) 2 R Z Z 2 2 = y e−(1+x )y χ(0,∞)2 (x, y) dλ(y) dλ(x) ZR R Z 2 2 = y e−(1+x )y dλ(y) dλ(x) Z
(0,∞)
= (0,∞)
1 π = · 2 2 π = 4
(0,∞)
1 1 dλ(x) 2 1 + x2
188
Kapitel 9. Berechnung des Lebesgue–Integrals F¨ ur y ∈ (0, ∞) betrachten wir die lineare Abbildung Ty : R → R mit Ty (x) := xy. Dann ist Ty bijektiv mit Ty−1 (0, ∞) = (0, ∞) und | det(Ty )| = y, und aus Satz 6.3.1 ergibt sich λTy = y −1 λ. Aus dem Satz von Fubini und der Substitutionsregel erhalten wir nun Z 2 2 y e−(1+x )y χ(0,∞)2 (x, y) dλ2 (x, y) R2 Z Z 2 2 = y e−(1+x )y χ(0,∞)2 (x, y) dλ(x) dλ(y) ZR R Z 2 2 2 = y e−x y dλ(x) e−y dλ(y) Z
(0,∞)
(0,∞)
Z
2
Z
(0,∞)
(Ty )−1 (0,∞)
Z
2
= Z
(0,∞)
Z
(0,∞)
Z
(0,∞)
(0,∞)
Z
2
y e−z dλTy (z) e−y dλ(y) 2
2
y e−z y −1 dλ(z) e−y dλ(y)
= (0,∞)
Z
2
(0,∞)
e
2
e−z dλ(z) e−y dλ(y)
= =
2
y e−(Ty (x)) dλ(x) e−y dλ(y)
=
−z 2
Z
(0,∞)
„Z
(0,∞)
2
e−z dλ(z)
=
2
e−y dλ(y)
dλ(z) «2
(0,∞)
Zusammen mit der vorher gezeigten Gleichung folgt die Behauptung. (4) Es gilt Z √ 2 e−x dλ(x) = π R
In der Tat: Wir betrachten die lineare Abbildung T : R → R mit T (x) := − x. Dann ist T bijektiv mit T −1 (0, ∞) = (−∞, 0) und | det(T )| = 1, und aus Satz 6.3.1 ergibt sich λT = λ. Daher erhalten wir Z Z 2 2 e−x dλ(x) = e−(T (x)) dλ(x) (−∞,0)
Z
T −1 (0,∞)
2
= Z
(0,∞)
e−z dλT (z) 2
e−z dλ(z)
= (0,∞)
1√ π = 2 und damit Z
2
e−x dλ(x) = R
Z (−∞,0)
2
e−x dλ(x) +
Z
2
e−x dλ(x) (0,∞)
9.8 Lebesgue–Integral und Riemann–Integral
189
1√ 1√ π+ π 2 2 √ = π
=
Aus dem Zusammenhang zwischen dem Lebesgue–Integral und dem Riemann– Integral erhalten wir auch eine weitere Eigenschaft von Transformationen des Lebesgue–Maßes: 9.8.9 Lemma. Sei C ⊆ R ein nichtleeres offenes Intervall und sei T : C → R stetig differenzierbar mit T (x) = 0 f¨ ur alle x ∈ C. Dann gilt ( −1 dT (λ|B(C) )T |B(T (C)) = (z) dλ|B(T (C)) (z) dz Beweis. Nach Voraussetzung ist T stetig und entweder streng monoton wachsend oder streng monoton fallend. Daher ist T (C) ein offenes Intervall und T besitzt eine Umkehrfunktion T −1 : T (C) → C, die stetig differenzierbar ist und dieselben Monotonieeigenschaften besitzt wie T . Wir betrachten nun die Messr¨ aume (C, B(C)) und (T (C), B(T (C))) und die Restriktionen λ|B(C) und λ|B(T (C)) des Lebesgue–Maßes λ. Da die Abbildung S := T −1 stetig differenzierbar ist, ist ihre Ableitung S : T (C) → C messbar. Wir betrachten das Maß ν : B(T (C)) → [0, ∞] mit ( ν := |S (z)| dλ|B(T (C)) (z) und berechnen das Bildmaß νS : B(C) → [0, ∞]: – Ist T streng monoton wachsend, so ist auch S streng monoton wachsend und f¨ ur alle [a, b] ⊆ C gilt νS [[a, b]] = ν[S −1 ([a, b])] = ν[[S −1 (a), S −1 (b)]] ( = |S (z)| dλ|B(T (C)) (z) [S −1 (a),S −1 (b)] ( S (z) dλ|B(T (C)) (z) = [S −1 (a),S −1 (b)]
(
S −1 (b)
=
S (z) dz
S −1 (a)
= S(S −1 (b)) − S(S −1 (a)) = b−a = λ|B(C) [[a, b]]
190
–
Kapitel 9. Berechnung des Lebesgue–Integrals
Ist T streng monoton fallend, so ist auch S streng monoton fallend und man erh¨ alt wiederum f¨ ur alle [a, b] ⊆ C νS [[a, b]] = λ|B(C) [[a, b]]
Daher gilt in jedem Fall f¨ ur alle [a, b] ⊆ C νS [[a, b]] = λ|B(C) [[a, b]] Da das Mengensystem E := {[a, b] | [a, b] ⊆ C} ein ∩–stabiler Erzeuger von B(C) ist und (λ|B(C) )|E σ–endlich ist, folgt aus dem Eindeutigkeitssatz νS = λ|B(C) und damit (λ|B(c) )T |B(T (C)) = (νS )T |B(T (C)) = νT ◦S |B(T (C)) = ν Die Behauptung des Lemmas folgt nun aus der Definition von ν.
2
Teil IV
Wahrscheinlichkeitstheorie
10 Wahrscheinlichkeitsr¨ aume
Ist (Ω, F ) ein Messraum und ist P : F → [0, 1] ein Maß mit P [Ω] = 1, so heißt das Maß P Wahrscheinlichkeitsmaß und der Maßraum (Ω, F , P ) heißt Wahrscheinlichkeitsraum. Diese Definitionen gehen auf Kolmogorov [1933] zur¨ uck, der so die Wahrscheinlichkeitstheorie in die Maß– und Integrationstheorie eingebettet und die Grundlage f¨ ur die moderne Wahrscheinlichkeitstheorie gelegt hat. Der Wahrscheinlichkeitstheorie stehen damit alle Begriffe und Ergebnisse der Maß– und Integrationstheorie zur Verf¨ ugung; dar¨ uber hinaus gewinnt sie aus der Konzentration auf Wahrscheinlichkeitsmaße eine eigene Kraft, die neue Begriffe hervorbringt, die in der allgemeinen Maß– und Integrationstheorie ohne Bedeutung sind und die zu einer reichen Theorie f¨ uhren, die unz¨ahlige Anwendungen besitzt und die wir in diesem und den folgenden Kapiteln nur in ihren Grundz¨ ugen darstellen k¨ onnen. In diesem Kapitel betrachten wir zun¨ achst die elementaren Begriffe der Wahrscheinlichkeitstheorie (Abschnitt 10.1) und behandeln sodann die wesentlichen Prinzipien zur Konstruktion von Wahrscheinlichkeitsr¨aumen. Die einfachsten Wahrscheinlichkeitsr¨ aume sind die diskreten (Abschnitt 10.2) oder sogar symmetrischen Wahrscheinlichkeitsr¨ aume (Abschnitt 10.3), deren Konstruktion ¨ durch elementare Uberlegungen erfolgen kann. Theoretisch anspruchsvoller ist hingegen die Konstruktion des Produktes einer Familie von Wahrscheinlichkeitsr¨ aumen, die sich im Fall einer endlichen Familie aus der Maß– und Integrationstheorie ergibt (Abschnitt 10.4), im Fall einer unendlichen Familie aber spezifisch f¨ ur die Wahrscheinlichkeitstheorie ist (Abschnitt 10.6) und auf dem Begriff einer projektiven Familie von Wahrscheinlichkeitsmaßen beruht (Abschnitt 10.5). Ein weiteres Prinzip zur Konstruktion von Wahrscheinlichkeitsr¨aumen, das in der Theorie der stochastischen Prozesse von Bedeutung ist und ebenfalls auf dem Begriff einer projektiven Familie von Wahrscheinlichkeitsmaßen beruht, betrachten wir erst in Kapitel 20.
194
Kapitel 10. Wahrscheinlichkeitsr¨ aume
10.1 Wahrscheinlichkeitsr¨ aume und Zufallsgr¨ oßen Sei Ω eine nichtleere Menge und sei C ⊆ 2Ω ein Mengensystem mit ∅, Ω ∈ C. Eine Mengenfunktion P : C → [0, 1] heißt – Wahrscheinlichkeitsinhalt , wenn P ein Inhalt mit P [Ω] = 1 ist. – Wahrscheinlichkeitsmaß , wenn P ein Maß mit P [Ω] = 1 ist. Jedes Wahrscheinlichkeitsmaß ist ein Wahrscheinlichkeitsinhalt und jeder Wahrscheinlichkeitsinhalt ist endlich. Das folgende Ergebnis ist elementar, wird aber h¨ aufig verwendet: 10.1.1 Lemma. Sei C eine Algebra und P : C → [0, 1] ein Wahrscheinlichkeitsinhalt. Dann gilt f¨ ur alle A ∈ C P [Ω \ A] = 1 − P [A] Da jeder Wahrscheinlichkeitsinhalt endlich ist, l¨asst sich die Charakterisierung der σ–Additivit¨ at gegen¨ uber beliebigen Inhalten geringf¨ ugig vereinfachen. Das folgende Lemma ergibt sich unmittelbar aus Folgerung 4.2.10: 10.1.2 Lemma. Sei C eine Algebra und P : C → [0, 1] ein Wahrscheinlichkeitsinhalt. Dann sind ¨aquivalent : (a) P ist ein Wahrscheinlichkeitsmaß. (b) P ist σ–additiv. (c) P ist stetig von unten. (d) P ist stetig von oben. (e) P ist ∅–stetig. Ist (Ω, F ) ein Messraum und ist P : F → [0, 1] ein Wahrscheinlichkeitsmaß, so heißt (Ω, F , P ) Wahrscheinlichkeitsraum. Jeder Wahrscheinlichkeitsraum ist also ein endlicher Maßraum. Ist (Ω, F , P ) ein Wahrscheinlichkeitsraum und (Ω , F ) ein Messraum, so heißt jede messbare Abbildung X : Ω → Ω Zufallsgr¨oße und das Bildmaß PX von P unter X heißt Verteilung von X; insbesondere heißt X ¯ B(R)) ¯ gilt. – Zufallsvariable, wenn (Ω , F ) = (R, – reelle Zufallsvariable, wenn (Ω , F ) = (R, B(R)) gilt. – Zufallsvektor , wenn (Ω , F ) = (Rn , B(Rn )) gilt. Das folgende Lemma ergibt sich unmittelbar aus der Definition des Bildmaßes: 10.1.3 Lemma. Sei (Ω, F , P ) ein Wahrscheinlichkeitsraum und (Ω , F ) ein Messraum und sei X : Ω → Ω eine Zufallsgr¨oße. Dann ist PX ein Wahrscheinlichkeitsmaß. Ist (Ω, F , P ) ein Wahrscheinlichkeitsraum und (Ω , F ) ein Messraum und ist X : Ω → Ω eine Zufallsgr¨ oße, so ist insbesondere (Ω , F , PX ) ein Wahrscheinlichkeitsraum.
10.1 Wahrscheinlichkeitsr¨ aume und Zufallsgr¨ oßen
195
Die vorher gegebenen Definitionen zeigen bereits, dass f¨ ur bestimmte mathematische Objekte in der Wahrscheinlichkeitstheorie andere Begriffe verwendet werden als in der allgemeinen Maß– und Integrationstheorie. Wir geben einige weitere Definitionen, die f¨ ur die Wahrscheinlichkeitstheorie typisch sind: Sei (Ω, F , P ) ein Wahrscheinlichkeitsraum. Dann wird – jedes Element ω ∈ Ω als Ergebnis, – die Grundmenge Ω als Ergebnismenge, – jede Menge A ∈ F als Ereignis, – jede Menge A ∈ F mit A = {ω} f¨ ur ein ω ∈ Ω als Elementarereignis, und – jedes Mengensystem E ⊆ F als Ereignissystem bezeichnet. Neben dem Unterschied zwischen Ergebnissen und Elementarereignissen ist zu beachten, dass nicht jede Teilmenge der Ergebnismenge ein Ereignis ist und dass nicht jedes Mengensystem ein Ereignissystem ist. F¨ ur ein festes Ergebnis ω ∈ Ω sagt man auch, dass ein Ereignis A ∈ F eintritt, wenn ω ∈ A gilt; auf diese Sprechweise ist es zur¨ uckzuf¨ uhren, dass – die Grundmenge Ω als sicheres Ereignis, und – die leere Menge ∅ als unm¨ogliches Ereignis bezeichnet wird. Diesen Bezeichnungen liegt die Vorstellung zugrunde, dass die Ergebnismenge die m¨ oglichen Ergebnisse eines Zufallsexperimentes beschreibt und dass die Ereignisse diejenigen Teilmengen der Ergebnismenge sind, deren Wahrscheinlichkeit gemessen werden soll. 10.1.4 Beispiel (Wurf eine W¨ urfels). Als Zufallsexperiment betrachten wir den Wurf eines W¨ urfels. Sieht man davon ab, dass der W¨ urfel m¨ oglicherweise vom Tisch f¨ allt oder gegen einen Gegenstand rollt und auf einer seiner Kanten stehenbleibt, so ist die Menge Ω := {1, 2, 3, 4, 5, 6} eine geeignete Wahl der Ergebnismenge. Interessiert man sich nur daf¨ ur, ob beim Wurf des W¨ urfels eine gerade oder eine ungerade Augenzahl auftritt, so gen¨ ugt es, die σ–Algebra n o F := ∅, {1, 3, 5}, {2, 4, 6}, Ω zu betrachten. Ist schließlich der W¨ urfel unverf¨ alscht, so liegt es nahe, mittels 8 falls A = ∅ <0 P [A] := 1/2 falls A = {1, 3, 5} oder A = {2, 4, 6} : 1 falls A = Ω ein Wahrscheinlichkeitsmaß P : F → [0, 1] zu definieren.
In den folgenden Abschnitten betrachten wir weitere Zufallsexperimente und ihre Modellierung durch einen Wahrscheinlichkeitsraum; auch diese Zufallsexperimente sind wieder extrem einfach gew¨ ahlt, weil sie nur als Beispiele f¨ ur die Anwendung bestimmter Prinzipien zur Konstruktion von Wahrscheinlichkeitsr¨ aumen dienen sollen.
196
Kapitel 10. Wahrscheinlichkeitsr¨ aume
Aufgaben 10.1.A F¨ uhren Sie die fehlenden Beweise aus. 10.1.B Sei {Pn }n∈N eine Folge von Wahrscheinlichkeitsmaßen F → [0, 1] und sei P {an }n∈N ⊆ R+ eine Folge mit ∞ n=1 an = 1. Dann ist die Mengenfunktion P : F → [0, ∞] mit P [A] :=
∞ X
an Pn [A]
n=1
ein Wahrscheinlichkeitsmaß.
10.2 Diskrete Wahrscheinlichkeitsr¨ aume Ein Wahrscheinlichkeitsraum (Ω, F , P ) heißt diskret , wenn er die folgenden Eigenschaften besitzt: (i) Ω ist abz¨ ahlbar. (ii) Es gilt F = 2Ω . Wir zeigen, dass diskrete Wahrscheinlichkeitsr¨aume auf besonders einfache Weise konstruiert werden k¨ onnen. Sei Ω eine abz¨ ahlbare Menge. Dann heißt jede Funktion p : Ω → [0, 1] mit p(ω) = 1 ω∈Ω
Wahrscheinlichkeitsfunktion auf Ω. Jede Wahrscheinlichkeitsfunktion erzeugt ein eindeutig bestimmtes Wahrscheinlichkeitsmaß auf der Potenzmenge: 10.2.1 Lemma. Sei Ω abz¨ahlbar und p : Ω → [0, 1] eine Wahrscheinlichkeitsfunktion. Dann gibt es genau ein Wahrscheinlichkeitsmaß P : 2Ω → [0, 1] mit P [{ω}] = p(ω) f¨ ur alle ω ∈ Ω und es gilt
P [A] =
p(ω)
ω∈A
f¨ ur alle A ∈ 2Ω . Beweis. Sei zun¨ achst P : 2Ω → [0, 1] gegeben durch p(ω) P [A] := ω∈A
Dann gilt P [∅] = 0 und P [Ω] = {An }n∈N ⊆ F gilt
ω∈Ω
p(ω) = 1, und f¨ ur jede disjunkte Folge
10.2 Diskrete Wahrscheinlichkeitsr¨ aume
P
∞
An =
n=1
ω∈
197
p(ω) =
P∞
∞
p(ω) =
n=1 ω∈An
n=1 An
∞
P [An ]
n=1
Daher ist P ein Wahrscheinlichkeitsmaß mit P [{ω}] = p(ω) f¨ ur alle ω ∈ Ω. Sei nun Q : 2Ω → [0, 1] ein beliebiges Wahrscheinlichkeitsmaß mit Q[{ω}] = p(ω) f¨ ur alle ω ∈ Ω. Dann gilt f¨ ur alle A ∈ F p(ω) = P [A] Q[A] = ω∈A
2
Daher gilt Q = P .
Von besonderem Interesse ist der Fall Ω = N0 : Eine Folge {pn }n∈N0 ⊆ R+ mit ∞
pn = 1
n=0
heißt stochastische Folge. Ist {pn }n∈N0 eine stochastische Folge, so ist die Funktion p : N0 → [0, 1] mit p(n) := pn eine Wahrscheinlichkeitsfunktion. 10.2.2 Folgerung. Sei {pn }n∈N0 eine stochastische Folge. Dann gibt es genau ein Wahrscheinlichkeitsmaß P : 2N0 → [0, 1] mit P [{n}] = pn f¨ ur alle n ∈ N0 . Dieses Ergebnis ist bemerkenswert: Obwohl die Potenzmenge von N0 u ¨ berabz¨ ahlbar ist, ist jedes Wahrscheinlichkeitsmaß auf der Potenzmenge durch eine stochastische Folge und damit durch abz¨ ahlbar viele Werte bestimmt. Aufgaben 10.2.A Jede Abbildung von einem diskreten Wahrscheinlichkeitsraum in einen Messraum ist eine Zufallsgr¨ oße. 10.2.B Beweisen Sie Lemma 10.2.1 mit Hilfe des Satzes von Caratheodory.
198
Kapitel 10. Wahrscheinlichkeitsr¨ aume
10.3 Symmetrische Wahrscheinlichkeitsr¨ aume Ein Wahrscheinlichkeitsraum (Ω, F , P ) heißt symmetrisch, wenn er die folgenden Eigenschaften besitzt: (i) Ω ist endlich. (ii) Es gilt F = 2Ω . (iii) Es gibt ein p ∈ [0, 1] mit P [{ω}] = p f¨ ur alle ω ∈ Ω. Jeder symmetrische Wahrscheinlichkeitsraum ist ein diskreter Wahrscheinlichkeitsraum. In symmetrischen Wahrscheinlichkeitsr¨ aumen wird jedem Elementarereignis dieselbe Wahrscheinlichkeit zugeordnet. Die Wahl eines symmetrischen Wahrscheinlichkeitsraumes als Modell f¨ ur ein Zufallsexperiment kann mit dem Prinzip des unzureichenden Grundes begr¨ undet werden: Wenn ein Zufallsexperiment im wesentlichen nur endlich viele Ergebnisse hervorbringen kann und kein Grund daf¨ ur erkennbar ist, dass eines der Ergebnisse eine h¨ohere Chance der Realisierung besitzt als die anderen Ergebnisse, dann ist der zugeh¨orige symmetrische Wahrscheinlichkeitsraum ein geeignetes Modell. Symmetrische Wahrscheinlichkeitsr¨ aume werden auch als Laplace–Experimente bezeichnet, obwohl sie nat¨ urlich nur Modelle f¨ ur Zufallsexperimente sind. Im Prinzip ist die Berechnung der Wahrscheinlichkeiten der Ereignisse eines symmetrischen Wahrscheinlichkeitsraumes einfach: 10.3.1 Lemma. Sei (Ω, F , P ) ein symmetrischer Wahrscheinlichkeitsraum. Dann gilt f¨ ur alle A ∈ F |A| P [A] = |Ω| Beweis. Nach Voraussetzung gibt es ein p ∈ [0, 1] mit P [{ω}] = p f¨ ur alle ω ∈ Ω. Wegen P [Ω] = 1 folgt aus der Additivit¨at von P zun¨achst P [{ω}] = 1/|Ω| f¨ ur alle ω ∈ Ω und sodann P [A] = |A|/|Ω| f¨ ur alle A ∈ F.
2
In einem symmetrischen Wahrscheinlichkeitsraum (Ω, F , P ) ist daher die Wahrscheinlichkeit P [A] eines Ereignisses A ∈ F gerade das Verh¨altnis |A|/|Ω| zwischen der Anzahl |A| der Ergebnisse, f¨ ur die A eintritt, und der Anzahl |Ω| aller Ergebnisse. Dabei bezeichnet man – |A| als die Anzahl der (f¨ ur das Eintreten von A) g¨ unstigen F¨alle und – |Ω| als die Anzahl der m¨oglichen F¨alle.
10.3 Symmetrische Wahrscheinlichkeitsr¨ aume
199
Aufgrund des Lemmas ist es erstrebenswert, f¨ ur ein Zufallsexperiment, das im wesentlichen nur endlich viele Ergebnisse hervorbringen kann, die Ergebnismenge so zu w¨ ahlen, dass die Wahl des zugeh¨origen symmetrischen Wahrscheinlichkeitsraumes als Modell plausibel ist. 10.3.2 Beispiel (n–maliger Wurf einer M¨ unze). Wir betrachten den n–maligen Wurf einer M¨ unze. Wir nehmen an, dass – zwischen den verschiedenen W¨ urfen der M¨ unze keine gegenseitige Beeinflussung besteht, – bei jedem Wurf nur Kopf oder Zahl auftreten kann und – die Chance f¨ ur das Auftreten von Kopf beim einmaligen Wurf gleich 1/2 ist. Wir interessieren uns f¨ ur die Anzahl der W¨ urfe, bei denen Kopf auftritt. Als Ergebnismenge f¨ ur dieses Zufallsexperiment bietet sich nat¨ urlich die Menge Ω := {0, 1, . . . , n} an; da aber diese Ergebnismenge offenbar nicht dem Prinzip des unzureichenden Grundes gen¨ ugt, ist die Wahl des zugeh¨ origen symmetrischen Wahrscheinlichkeitsraumes als Modell nicht plausibel. Aufgrund der Annahme, dass bei jedem einzelnen Wurf Kopf und Zahl dieselbe Chance haben und dass zwischen den verschiedenen W¨ urfen keine gegenseitige Beeinflussung besteht, erscheint es jedoch plausibel, dass die 2n Folgen von Kopf und Zahl, die beim n–maligen Wurf auftreten k¨ onnen, ebenfalls alle dieselbe Chance ur alle A ∈ F setzen wir haben. Wir setzen daher Ω := {K, Z}n und F := 2Ω , und f¨ P [A] :=
|A| |Ω|
Dann ist (Ω, F, P ) ein symmetrischer Wahrscheinlichkeitsraum mit |Ω| = 2n F¨ ur k ∈ {0, 1, . . . , n} bezeichne Ek ∈ F das Ereignis, dass beim n–maligen Wurf der M¨ unze genau k–mal Kopf auftritt. Dann erh¨ alt man ! n 1 |Ek | = P [Ek ] = |Ω| k 2n Die Zufallsvariable X : Ω → R mit X(ω) := k f¨ ur alle k ∈ {0, 1, . . . , n} und ω ∈ Ek gibt die Anzahl der W¨ urfe an, bei denen Kopf auftritt, und f¨ ur alle k ∈ {0, 1, . . . , n} gilt ! n 1 P [{X = k}] = k 2n `n´ P n Plausibilit¨ atspr¨ ufung: Es gilt n k=0 k = 2 .
Das Beispiel zeigt: – W¨ ahlt man die Ergebnismenge nur so groß wie n¨otig, so ist Symmetrie oft nicht plausibel und ein Wahrscheinlichkeitsmaß nur schwer zu bestimmen. – W¨ unscht man Symmetrie, so muss man oft eine gr¨oßere Ergebnismenge w¨ ahlen mit der Konsequenz, dass Ereignisse sehr viele Ergebnisse enthalten k¨ onnen und ihre M¨ achtigkeit nicht leicht zu bestimmen ist. Hier hilft die Kombinatorik:
200
Kapitel 10. Wahrscheinlichkeitsr¨ aume
10.3.3 Beispiele (Urnenmodelle). Wir betrachten eine Urne mit N ≥ 2 Kugeln, von denen K ∈ {1, . . . , N−1} Kugeln rot sind und N−K Kugeln eine beliebige andere Farbe besitzen. Wir nehmen an, dass alle Kugeln bis auf die Farbe gleichartig sind. Wir interessieren uns f¨ ur die Anzahl der roten Kugeln bei der zuf¨ alligen Auswahl von n Kugeln aus der Urne. Zu diesem Zweck nehmen wir zus¨ atzlich an, die Kugeln seien numeriert derart, dass die Kugeln 1, . . . , K rot sind und die Kugeln K + 1, . . . , N eine andere Farbe besitzen. (1) Ziehen ohne Zur¨ ucklegen: Sei n ≤ N . Wir setzen Ω := Menge aller n–Tupel ohne Wiederholung aus {1, ..., N } und F := 2Ω . Aufgrund der Annahme der Gleichartigkeit der Kugeln setzen wir f¨ ur alle A ∈ F |A| P [A] := |Ω| Dann ist (Ω, F, P ) ein symmetrischer Wahrscheinlichkeitsraum mit ! N |Ω| = n! n F¨ ur k ∈ {0, 1, . . . , n} betrachten wir das Ereignis Ek := {ω ∈ Ω | genau k Kugeln sind rot} Dann ist die Anzahl der g¨ unstigen F¨ alle das Produkt – der Anzahl der M¨ oglichkeiten, aus den n Ziehungen k Ziehungen (mit einer roten Kugel als Ergebnis) auszuw¨ ahlen, – der Anzahl der M¨ oglichkeiten, aus den K numerierten roten Kugeln k Kugeln ohne Zur¨ ucklegen auszuw¨ ahlen, und – der Anzahl der M¨ oglichkeiten, aus den N−K numerierten Kugeln mit einer anderen Farbe n−k Kugeln ohne Zur¨ ucklegen auszuw¨ ahlen. Es gilt also ! ! ! ! ! n K N −K K N −K k! · (n−k)! · |Ek | = = n! k k n−k k n−k und damit
!
P [Ek ] =
|Ek | = |Ω|
N −K n−k ! N n! n
!
!
K n! k
K k =
N −K n−k ! N n
!
Die Zufallsvariable X : Ω → R mit X(ω) := k f¨ ur alle k ∈ {0, 1, . . . , n} und alligen Auswahl von n ω ∈ Ek gibt die Anzahl der roten Kugeln bei der zuf¨ Kugeln an und f¨ ur alle k ∈ {0, 1, . . . , n} gilt ! ! K N −K k n−k ! P [{X = k}] = N n Pn `K ´`N−K ´ `N ´ Plausibilit¨ atspr¨ ufung: Es gilt k=0 k n−k = n .
10.3 Symmetrische Wahrscheinlichkeitsr¨ aume
201
(2) Ziehen mit Zur¨ ucklegen: Wir setzen Ω := Menge aller n–Tupel mit m¨ oglicher Wiederholung aus {1, ..., N } und F := 2Ω . Aufgrund der Annahme der Gleichartigkeit der Kugeln setzen wir f¨ ur alle A ∈ F P [A] :=
|A| |Ω|
Dann ist (Ω, F, P ) ein symmetrischer Wahrscheinlichkeitsraum mit |Ω| = N n F¨ ur k ∈ {0, 1, . . . , n} betrachten wir das Ereignis Ek := {ω ∈ Ω | genau k Kugeln sind rot} Dann ist die Anzahl der g¨ unstigen F¨ alle das Produkt – der Anzahl der M¨ oglichkeiten, aus den n Ziehungen k Ziehungen (mit einer roten Kugel als Ergebnis) auszuw¨ ahlen, – der Anzahl der M¨ oglichkeiten, aus den K numerierten roten Kugeln k Kugeln mit Zur¨ ucklegen auszuw¨ ahlen, und – der Anzahl der M¨ oglichkeiten, aus den N−K numerierten Kugeln mit einer anderen Farbe n−k Kugeln mit Zur¨ ucklegen auszuw¨ ahlen. Es gilt also ! n · K k · (N −K)n−k |Ek | = k und damit
|Ek | = P [Ek ] = |Ω|
! n K k (N −K)n−k k =
Nn
n k
!„
K N
«k „
N −K N
«n−k
Mit ϑ := K/N gilt daher P [Ek ] =
! n ϑk (1−ϑ)n−k k
Die Zufallsvariable X : Ω → R mit X(ω) := k f¨ ur alle k ∈ {0, 1, . . . , n} und alligen Auswahl von n ω ∈ Ek gibt die Anzahl der roten Kugeln bei der zuf¨ Kugeln an und f¨ ur alle k ∈ {0, 1, . . . , n} gilt !„ « „ «n−k k K N −K n P [{X = k}] = k N N Plausibilit¨ atspr¨ ufung: Es gilt
Pn k=0
`n´ k
ϑk (1−ϑ)n−k = 1.
Urnenmodelle besitzen vielf¨ altige Anwendungen. Als Beispiel betrachten wir nochmals den n–maligen Wurf einer M¨ unze:
202
Kapitel 10. Wahrscheinlichkeitsr¨ aume
10.3.4 Beispiel (n–maliger Wurf einer M¨ unze). Wir betrachten den n–maligen Wurf einer M¨ unze. Wir nehmen an, dass – zwischen den verschiedenen W¨ urfen der M¨ unze keine gegenseitige Beeinflussung besteht, – bei jedem Wurf nur Kopf oder Zahl auftreten kann und – die Chance f¨ ur das Auftreten von Kopf beim einmaligen Wurf gleich einer rationalen Zahl ϑ ∈ Q ∩ (0, 1) ist. Aufgrund der Annahme ϑ ∈ Q ∩ (0, 1) gibt es N, K ∈ N mit K ∈ {1, . . . , N −1} und ϑ = K/N . Der n–malige Wurf einer M¨ unze entspricht daher dem n–maligen Ziehen mit Zur¨ ucklegen aus einer Urne mit N Kugeln, von denen K rot sind. Sei also (Ω, F, P ) der beim Ziehen mit Zur¨ ucklegen betrachtete Wahrscheinlichkeitsraum. F¨ ur k ∈ {0, 1, . . . , n} bezeichne Ek ∈ F das Ereignis, dass beim n–maligen Ziehen mit Zur¨ ucklegen, und damit beim n–maligen Wurf der M¨ unze, genau k–mal Kopf auftritt. Dann erh¨ alt man ! n k ϑ (1−ϑ)n−k P [Ek ] = k Im Fall ϑ = 1/2 ist dies das bekannte Ergebnis.
Aufgaben 10.3.A Problem der Doppelsechs: Eine Spielbank bietet zwei Gl¨ ucksspiele an: – Beim ersten Spiel wirft der Spieler vier Mal einen W¨ urfel und gewinnt, wenn keine Sechs auftritt. – Beim zweiten Spiel wirft der Spieler 24 Mal zwei W¨ urfel und gewinnt, wenn keine Doppelsechs auftritt. Welches Spiel ist f¨ ur den Spieler g¨ unstiger? 10.3.B Probl` eme des parties: Spieler C und Spieler W werfen abwechselnd eine M¨ unze. Vor jedem Wurf zahlen beide Spieler einen Taler in die Kasse; Spieler C erh¨ alt einen Punkt, wenn Kopf auftritt, und Spieler W erh¨ alt einen Punkt, wenn Zahl auftritt. Das Spiel endet, sobald einer der Spieler sieben Punkte erreicht hat; dieser Spieler gewinnt das Spiel und erh¨ alt die gesamte Kasse. Wie ist die Kasse aufzuteilen, wenn das Spiel abgebrochen wird und Spieler C vier und Spieler W drei Punkte erreicht hat? 10.3.C Verallgemeinern Sie Beispiel 10.3.3 auf Urnenmodelle mit mehr als zwei Sorten Kugeln.
10.4 Endliche Produkte von Wahrscheinlichkeitsr¨ aumen In Abschnitt 9.6 haben wir gezeigt, dass ausgehend von einer endlichen Familie von Maßr¨ aumen ein neuer Maßraum konstruiert werden kann, der als Produkt der urspr¨ unglichen Maßr¨ aume bezeichnet wird. Der folgende Satz ergibt sich unmittelbar aus der Definition des Produktmaßes: eine endliche Familie von Wahr10.4.1 Satz. Sei {(Ωi , Fi , Pi )}i∈{1,...,n} scheinlichkeitsr¨aumen. Dann ist i∈{1,...,n} (Ωi , Fi , Pi ) ein Wahrscheinlichkeitsraum.
10.4 Endliche Produkte von Wahrscheinlichkeitsr¨ aumen
203
F¨ ur das Produkt einer endlichen Familie von diskreten oder symmetrischen Wahrscheinlichkeitsr¨ aumen ergibt sich das folgende Ergebnis: 10.4.2 Folgerung. Sei {(Ωi , Fi , Pi )}i∈{1,...,n} eine endliche Familie von Wahrscheinlichkeitsr¨aumen. (1) Sind alle (Ωi , Fi , Pi ) diskret , so ist auch das Produkt diskret. (2) Sind alle (Ωi , Fi , Pi ) symmetrisch, so ist auch das Produkt symmetrisch. Als Beispiel betrachten wir wieder den n–maligen Wurf einer M¨ unze: 10.4.3 Beispiel (n–maliger Wurf einer M¨ unze). Wir betrachten den n–maligen Wurf einer M¨ unze. Wir nehmen an, dass – zwischen den verschiedenen W¨ urfen der M¨ unze keine gegenseitige Beeinflussung besteht, – bei jedem Wurf nur Kopf oder Zahl auftreten kann und – die Chance f¨ ur das Auftreten von Kopf beim einmaligen Wurf gleich einer reellen Zahl ϑ ∈ (0, 1) ist. Wir w¨ ahlen folgende Modelle: – Als Modell f¨ ur den i–ten Wurf w¨ ahlen wir den diskreten Wahrscheinlichkeitsraum (Ωi , Fi , Pi ) mit Ωi := {K, Z} sowie Fi = 2Ωi und dem durch Pi [{K}] := ϑ festgelegten Wahrscheinlichkeitsmaß. – Als Modell f¨ ur den n–fachen Wurf w¨ ahlen wir das Produkt O (Ωi , Fi , Pi ) (Ω, F, P ) := i∈{1,...,n}
Dann ist auch (Ω, F, P ) ein diskreter Wahrscheinlichkeitsraum. Es gilt Ω = {K, Z}n und F = 2Ω . Sei k ∈ {0, 1, . . . , n}. Bezeichnet ω = (ω1 , . . . , ωn ) das Ergebnis, dass bei den ersten k W¨ urfen Kopf und bei den letzten n − k W¨ urfen Zahl auftritt, so gilt aufgrund der Definition des Produktmaßes P [{ω}] =
n Y i=1
Pi [{ωi }] =
k Y i=1
Pi [{K}]
n Y
Pj [{Z}] = ϑk (1−ϑ)n−k
j=k+1
Allgemeiner gilt f¨ ur jedes Ergebnis ω ∈ Ω, bei dem genau k–mal Kopf (und n−k–mal Zahl ) auftritt, P [{ω}] = ϑk (1−ϑ)n−k Bezeichnet Ek ∈ F das Ereignis, dass genau k–mal Kopf auftritt, so ergibt sich aus der Additivit¨ at von P ! n k ϑ (1−ϑ)n−k P [Ek ] = k Im Fall ϑ ∈ Q ∩ (0, 1) ist dies das bekannte Ergebnis. Im Fall ϑ = 1/2 ist außerdem jeder der Wahrscheinlichkeitsr¨ aume (Ωi , Fi , Pi ) und damit auch das Produkt (Ω, F, P ) symmetrisch.
204
Kapitel 10. Wahrscheinlichkeitsr¨ aume
10.5 Projektive Familien von Wahrscheinlichkeitsr¨ aumen In diesem Abschnitt bereiten wir zwei weitere Prinzipien zur Konstruktion von Wahrscheinlichkeitsr¨ aumen vor. Sei I eine nichtleere Indexmenge und sei H(I) die Familie der endlichen nichtleeren Teilmengen von I. Wir betrachten eine Familie von Messr¨ aumen {(Ωi , Fi )}i∈I und ihr Produkt (Ωi , Fi ) (Ω, F ) := i∈I
F¨ ur j ∈ I sei πj : Ω → Ωj mit πj ({ωi }i∈I ) := ωj die Projektion von Ω auf Ωj . F¨ ur J ∈ H(I) sei (ΩJ , FJ ) := (Ωi , Fi ) i∈J
das Produkt der Familie {(Ωi , Fi )}i∈J und πJ : Ω → ΩJ mit πJ (ω) := {ωi }i∈J die Projektion von Ω auf ΩJ . F¨ ur J ∈ H(I) und j ∈ J sei πj,J : ΩJ → Ωj mit πj,J ({ωi }i∈J ) := ωj die Projektion von ΩJ auf Ωj . Es gilt πj = πj,J ◦ πJ . 10.5.1 Lemma. F¨ ur alle J ∈ H(I) ist die Projektion πJ messbar. Beweis. F¨ ur alle j ∈ J gilt πj,J ◦ πJ = πj und nach Definition von F ist πj messbar. Die Messbarkeit von πJ folgt nun aus Satz 3.3.2. 2 F¨ ur K, J ∈ H(I) mit K ⊆ J sei πK,J : ΩJ → ΩK mit πK,J ({ωi }i∈J ) := {ωi }i∈K die Projektion von ΩJ auf ΩK . Es gilt πK = πK,J ◦ πJ . 10.5.2 Lemma. F¨ ur alle K, J ∈ H(I) mit K ⊆ J ist die Projektion πK,J messbar. Beweis. F¨ ur alle i ∈ K gilt πi,K ◦ πK,J = πi,J und nach Definition von FJ ist 2 πi,J messbar. Die Messbarkeit von πK,J folgt nun aus Satz 3.3.2.
10.5 Projektive Familien von Wahrscheinlichkeitsr¨ aumen
205
Wir wenden uns nun der Frage zu, unter welchen Bedingungen es zu einer Familie {QJ }J∈H(I) von Wahrscheinlichkeitsmaßen mit QJ : FJ → [0, 1] f¨ ur alle J ∈ H(I) ein Wahrscheinlichkeitsmaß Q : F → [0, 1] gibt derart, dass f¨ ur alle J ∈ H(I) Q πJ = Q J gilt. Das folgende Lemma liefert eine notwendige Bedingung: 10.5.3 Lemma. Sei Q : F → [0, 1] ein Wahrscheinlichkeitsmaß. Dann gilt f¨ ur alle K, J ∈ H(I) mit K ⊆ J QπK = (QπJ )πK,J Beweis. Es gilt QπK = QπK,J ◦πJ = (QπJ )πK,J .
2
Lemma 10.5.3 legt die folgende Definition nahe: Eine Familie {QJ }J∈H(I) von Wahrscheinlichkeitsmaßen mit QJ : FJ → [0, 1] f¨ ur alle J ∈ H(I) heißt projektiv , wenn f¨ ur alle K, J ∈ H(I) mit K ⊆ J QK = (QJ )πK,J gilt; in diesem Fall heißt auch die Familie {(ΩJ , FJ , QJ )}J∈H(I) projektiv . Nach Lemma 10.5.3 ist f¨ ur jedes Wahrscheinlichkeitsmaß Q : F → [0, 1] die Familie {QπJ }J∈H(I) projektiv. Daher kann es nur f¨ ur eine projektive Familie ur {QJ }J∈H(I) ein Wahrscheinlichkeitsmaß Q : F → [0, 1] geben derart, dass f¨ alle J ∈ H(I) Q πJ = Q J gilt. Als erstes machen wir die σ–Algebren FJ , die auf unterschiedlichen Grundmengen definiert sind, miteinander vergleichbar, indem wir ihnen σ–Algebren auf Ω zuordnen: F¨ ur J ∈ H(I) sei ZJ := πJ−1 (FJ ) Nach Lemma 2.1.2 ist ZJ eine σ–Algebra auf Ω. Die σ–Algebra ZJ heißt System der J–Zylinder auf Ω. 10.5.4 Lemma. Die Familie {ZJ }J∈H(I) ist unter Inklusion gerichtet. Beweis. F¨ ur K, L ∈ H(I) sei J := K ∪ L. Dann gilt J ∈ H(I). Wegen −1 −1 πK = πK,J ◦ πJ gilt πK = πJ−1 ◦ πK,J und damit
206
Kapitel 10. Wahrscheinlichkeitsr¨ aume −1 ZK = πK (FK )
−1 = (πJ−1 ◦ πK,J )(FK )
−1 (FK )) = πJ−1 (πK,J
⊆ πJ−1 (FJ ) = ZJ Analog erh¨ alt man ZL ⊆ ZJ . Daher gilt ZK ∪ ZL ⊆ ZJ .
2
Sei nun Z :=
ZJ
J∈H(I)
Dann gilt Z ⊆ 2Ω . Jede Menge in Z heißt Zylindermenge auf Ω und das Mengensystem Z heißt System der Zylindermengen auf Ω. 10.5.5 Satz. Z ist eine Algebra und es gilt σ(Z) = F . Beweis. Wir zeigen zun¨ achst, dass Z eine Algebra ist: (i) F¨ ur alle J ∈ H(I) gilt Ω ∈ ZJ und aus der Definition von Z ergibt sich nun Ω ∈ Z. (ii) Sei A ∈ Z. Dann gibt es ein J ∈ H(I) mit A ∈ ZJ . Daraus folgt zun¨achst A ∈ ZJ und sodann A ∈ Z. (iii) Seien A, B ∈ Z. Dann gibt es ein K ∈ H(I) mit A ∈ ZK und ein L ∈ H(I) mit B ∈ ZL . Nach Lemma 10.5.4 gibt es ein J ∈ H(I) mit K, L ⊆ J und ZK ∪ ZL ⊆ ZJ . Dann gilt aber A, B ∈ ZJ . Daraus folgt zun¨ achst A ∪ B ∈ ZJ und sodann A ∪ B ∈ Z. Damit ist gezeigt, dass Z eine Algebra ist. F¨ ur alle i ∈ I ist die Abbildung πi,{i} : Ω{i} → Ωi bijektiv und es gilt −1 (F{i} ) = Z{i} ⊆ Z ⊆ σ(Z) πi−1 (Fi ) = π{i}
Daher gilt F ⊆ σ(Z) Andererseits gilt f¨ ur alle J ∈ H(I) nach Lemma 10.5.1 ZJ = πJ−1 (FJ ) ⊆ F Daher gilt auch σ(Z) ⊆ F Damit ist auch die Identit¨ at σ(Z) = F gezeigt.
2
10.5 Projektive Familien von Wahrscheinlichkeitsr¨ aumen
207
Wir zeigen nun, dass es zu jeder projektiven Familie {QJ }J∈H(I) einen eindeutig bestimmten Wahrscheinlichkeitsinhalt Q : Z → [0, 1] gibt derart, dass f¨ ur alle J ∈ H(I) und alle C ∈ FJ Q[πJ−1 (C)] = QJ [C] gilt: 10.5.6 Satz. Sei {QJ }J∈H(I) eine projektive Familie von Wahrscheinlichur alle J ∈ H(I). Dann gibt es genau einen keitsmaßen mit QJ : FJ → [0, 1] f¨ Wahrscheinlichkeitsinhalt Q : Z → [0, 1] derart, dass f¨ ur alle J ∈ H(I) und alle C ∈ FJ Q[πJ−1 (C)] = QJ [C] gilt. Beweis. Die Definition von Q erfordert eine Vor¨ uberlegung: Sei A ∈ Z. F¨ ur K, L ∈ H(I) mit A ∈ ZK ∩ ZL sei M := K ∪ L. Dann gilt K, L ⊆ M und damit A ∈ ZM . Daher gibt es CK ∈ FK , CL ∈ FL und CM ∈ FM mit −1 (CK ) A = πK
−1 A = πL (CL ) −1 A = πM (CM )
Wegen −1 −1 −1 −1 πM (πK,M (CK )) = (πK,M ◦ πM )−1 (CK ) = πK (CK ) = A = πM (CM ) −1 (CK ) = CM , und aus der Projektivit¨ at der Familie {QJ }J∈H(I) folgt gilt πK,M nun
QK [CK ] = (QM )πK,M [CK ] −1 (CK )] = QM [πK,M = QM [CM ]
Aus Symmetriegr¨ unden gilt auch QL [CL ] = QM [CM ] und damit QK [CK ] = QL [CL ] Aufgrund dieser Vor¨ uberlegung ist die Abbildung Q : Z → [0, 1] mit Q[A] := QJ [C] und beliebigen J ∈ H(I) und C ∈ FJ mit A ∈ ZJ und A = πJ−1 (C) wohldefiniert. Wir zeigen nun, dass Q ein Wahrscheinlichkeitsinhalt ist:
208
Kapitel 10. Wahrscheinlichkeitsr¨ aume
(i) F¨ ur alle A, B ∈ Z mit A ∩ B = ∅ gibt es ein J ∈ H(I) mit A, B ∈ ZJ . Daher gibt es C, D ∈ FJ mit C ∩ D = ∅ und A = πJ−1 (C)
B = πJ−1 (D) und es gilt Q[A+B] = Q[πJ−1 (C) + πJ−1 (D)] = Q[πJ−1 (C +D)] = QJ [C +D]
= QJ [C] + QJ [D] = Q[πJ−1 (C)] + Q[πJ−1 (D)] = Q[A] + Q[B] (ii) F¨ ur alle J ∈ H(I) gilt Ω = πJ−1 (ΩJ ) und damit Q[Ω] = Q[πJ−1 (ΩJ )] = QJ [ΩJ ] = 1. (iii) Aus (i) und (ii) folgt Q[∅] = 0. Daher ist Q ein Wahrscheinlichkeitsinhalt. Die Aussage u ¨ ber die Eindeutigkeit ist dann klar. 2 F¨ ur eine projektive Familie von Wahrscheinlichkeitsmaßen {QJ }J∈H(I) mit ur alle J ∈ H(I) stellt sich nun die Frage, unter welchen QJ : FJ → [0, 1] f¨ Bedingungen der nach Satz 10.5.6 eindeutig bestimmte Wahrscheinlichkeitsinhalt Q : Z → [0, 1] mit Q[πJ−1 (C)] = QJ [C] f¨ ur alle J ∈ H(I) und C ∈ FJ sogar ein Wahrscheinlichkeitsmaß ist; in diesem Fall besitzt Q nach dem Satz von Caratheodory eine eindeutige Fortsetzung zu einem Wahrscheinlichkeitsmaß Q : F → [0, 1], denn nach Satz 10.5.5 ist Z eine Algebra mit σ(Z) = F , und damit ein Halbring mit Ω ∈ Z und σ(Z) = F . F¨ ur das Wahrscheinlichkeitsmaß Q gilt dann f¨ ur alle J ∈ H(I) Q πJ = Q J Es gibt zwei Bedingungen, die die σ–Additivit¨ at von Q gew¨ahrleisten: – Die eine dieser Bedingungen betrifft die Wahrscheinlichkeitsmaße QJ und f¨ uhrt auf den Satz von Andersen/Jessen, den wir im n¨achsten Abschnitt beweisen. uhrt – Die andere dieser Bedingungen betrifft die Messr¨aume (Ωi , Fi ) und f¨ auf den Satz von Kolmogorov, den wir in Abschnitt 20.2 beweisen.
10.6 Satz von Andersen/Jessen
209
10.6 Satz von Andersen/Jessen Sei I eine nichtleere Indexmenge und sei H(I) die Familie der endlichen nichtleeren Teilmengen von I. Wir betrachten eine Familie von Wahrscheinlichkeitsr¨aumen {(Ωi , Fi , Qi )}i∈I und das Produkt (Ωi , Fi ) (Ω, F ) := i∈I
der Familie {(Ωi , Fi )}i∈I von Messr¨ aumen. Unser Ziel ist es zu zeigen, dass es genau ein Wahrscheinlichkeitsmaß Q : F → [0, 1] gibt derart, dass f¨ ur alle J ∈ H(I) Q πJ = Qi i∈J
gilt. Nach Satz 10.4.1 ist f¨ ur alle J ∈ H(I) das endliche Produkt (ΩJ , FJ , QJ ) := (Ωi , Fi , Qi ) i∈J
der Familie {(Ωi , Fi , Qi )}i∈J ein Wahrscheinlichkeitsraum mit QJ = Qi i∈J
Wir untersuchen zun¨ achst die Familie {QJ }J∈H(I) : 10.6.1 Lemma. Die Familie {QJ }J∈H(I) ist projektiv. Beweis. Sei K, J ∈ H(I) mit K ⊆ J. Wir betrachten eine Familie {Ai }i∈K mit Ai ∈ Fi f¨ ur alle i ∈ K. F¨ ur alle i ∈ J sei Ai falls i ∈ K Bi := Ωi falls i ∈ J \ K −1 Dann gilt Bi ∈ Fi f¨ ur alle i ∈ J sowie i∈J Bi = πK,J ( i∈K Ai ). Daher gilt QK Ai = Qi [Ai ] i∈K
i∈K
=
i∈J
= QJ
Qi [Bi ]
i∈J
Bi
210
Kapitel 10. Wahrscheinlichkeitsr¨ aume
= QJ
−1 πK,J
= (QJ )πK,J
Ai
i∈K
Ai
i∈K
Da
i∈K
Fi ein ∩–stabiler Erzeuger von FK ist, folgt hieraus QK = (QJ )πK,J
Daher ist die Familie {QJ }J∈H(I) projektiv.
2
Wir k¨ onnen nun den angek¨ undigten Satz von Andersen/Jessen beweisen: 10.6.2 Satz (Andersen/Jessen). Es gibt genau ein Wahrscheinlichkeitsmaß Q : F → [0, 1] derart, dass f¨ ur alle J ∈ H(I) Q πJ = Qi i∈J
gilt. Beweis. Im Fall einer endlichen Indexmenge I ist nichts zu zeigen. Sei daher ur I unendlich. Sei ferner Z die Algebra der Zylindermengen auf RI und f¨ J ∈ H(I) sei ZJ = πJ−1 (B(RJ )) die σ–Algebra der J–Zylinder. Nach Lemma 10.6.1 und Satz 10.5.6 existiert genau ein Wahrscheinlichkeitsinhalt Q : Z → [0, 1] mit Q[πJ−1 (C)] = QJ [C] f¨ ur alle J ∈ H(I) und alle C ∈ FJ . Wir zeigen im folgenden, dass Q ∅–stetig ist. Dann ist Q nach Lemma 10.1.2 σ–additiv und besitzt nach dem Satz von Caratheodory eine eindeutige Fortsetzung zu einem Wahrscheinlichkeitsmaß F → [0, 1], das wir wieder mit Q bezeichnen; außerdem gilt f¨ ur alle J ∈ H(I) und alle C ∈ FJ Q[πJ−1 (C)] = QJ [C] und damit f¨ ur alle J ∈ H(I) Q πJ = Q J (1) Wir betrachten zun¨ achst K, J ∈ H(I) mit K ⊆ J und K = J. Aufgrund der Definition der Wahrscheinlichkeitsmaße QK , QJ\K , QJ ist der Wahrscheinlichkeitsraum (ΩJ , FJ , QJ ) das Produkt der Wahrscheinlichkeitsr¨aume (ΩK , FK , QK ) und (ΩJ\K , FJ\K , QJ\K ); es gilt also (ΩJ , FJ , QJ ) = (ΩK , FK , QK ) ⊗ (ΩJ\K , FJ\K , QJ\K )
10.6 Satz von Andersen/Jessen
211
F¨ ur C ∈ FJ und ωK ∈ ΩK sei C(ωK ) := ω ∈ ΩJ\K
−1 −1 ({ω}) ⊆ C πK,J ({ωK }) ∩ πJ\K,J
Dann ist C(ωK ) der ωK –Schnitt von C in ΩJ\K . Aus Lemma 9.6.4 folgt nun C(ωK ) ∈ FJ\K , nach Lemma 9.6.5 ist die Abbildung ΩK → [0, 1] : ωK → QJ\K [C(ωK )] messbar, und aus Satz 9.6.6 folgt QJ [C] = (QK ⊗ QJ\K )[C] ( QJ\K [C(ωK )] dQK (ωK ) = ΩK
(2) Wir betrachten nun eine Zylindermenge A ∈ Z sowie K ∈ H(I). Dann gibt es ein J ∈ H(I) mit A ∈ ZJ und K ⊆ J sowie J \ K = ∅, und es gibt eine Menge C ∈ FJ mit A = πJ−1 (C). F¨ ur ωK ∈ ΩK sei −1 −1 A(ωK ) := ω ∈ Ω πK ({ωK }) ∩ πI\K ({πI\K (ω)}) ⊆ A Wegen A ∈ ZJ und C ∈ FJ gilt dann −1 −1 ({ωK }) ∩ πI\K ({πI\K (ω)}) ⊆ A A(ωK ) = ω ∈ Ω πK −1 −1 = ω ∈ Ω πK ({ωK }) ∩ πJ\K ({πJ\K (ω)}) ⊆ A −1 −1 ({ωK })) ∩ πJ−1 (πJ\K,J ({πJ\K (ω)})) ⊆ πJ−1 (C) = ω ∈ Ω πJ−1 (πK,J −1 −1 ({ωK }) ∩ πJ\K,J ({πJ\K (ω)}) ⊆ C = ω ∈ Ω πK,J = ω ∈ Ω πJ\K (ω) ∈ C(ωK ) −1 (C(ωK )) = πJ\K −1 −1 Aus (1) ergibt sich nun A(ωK ) = πJ\K (C(ωK )) ∈ πJ\K (FJ\K ) = ZJ\K und wegen −1 Q[A(ωK )] = Q[πJ\K (C(ωK ))]
= QJ\K [C(ωK )] die Messbarkeit der Abbildung ΩK → [0, 1] : ωK → Q[A(ωK )] sowie Q[A] = Q[πJ−1 (C)] = QJ [C] ( = QJ\K [C(ωK )] dQK (ωK ) Ω ( K = Q[A(ωK )] dQK (ωK ) ΩK
212
Kapitel 10. Wahrscheinlichkeitsr¨ aume
(3) Wir betrachten nun eine monoton fallende Folge {An }n∈N ⊆ Z mit inf Q[An ] > 0
n∈N
und zeigen, dass
An = ∅
n∈N
gilt. Sei {Kn }n∈N ⊆ H(I) eine streng monoton wachsende Folge mit An ∈ ZKn f¨ ur alle n ∈ N und sei α := inf Q[An ] n∈N
Wir konstruieren weiter unten eine Folge {ωKm }m∈N mit ω Km −1 πKm ({ωKm })
∈ ΩK m ⊆ Am
Q[An (ωKm )] ≥ α/2m
sowie πKm ,Km+1 (ωKm+1 ) = ωKm −1 f¨ ur alle m, n ∈ N. Dann gilt ωKm+1 ⊆ πK ({ωKm }) und damit m ,Km+1 −1 −1 −1 πK ({ωKm+1 }) ⊆ πK (πK ({ωKm })) m+1 m+1 m ,Km+1 −1 ({ωKm }) = πK m −1 ({ωKm })}m∈N monoton fallend mit Daher ist die Folge {πK m
−1 πK ({ωKm }) = ∅ m
m∈N
und f¨ ur alle n ∈ N gilt
−1 m∈N πKm ({ωKm })
−1 ⊆ πK ({ωKn }) ⊆ An . Daher gilt n
−1 πK ({ωKm }) ⊆ m
m∈N
n∈N
und damit n∈N
(4) Nach (3) ist Q ∅–stetig.
An = ∅
An
10.6 Satz von Andersen/Jessen
213
(5) Wir tragen nun die Konstruktion der Folge {ωKm }m∈N nach: – m = 1: Mit der Folge {An }n∈N ist f¨ ur jedes ω ∈ ΩK1 auch die Folge {An (ω )}n∈N monoton fallend; damit ist auch die Folge {Bn }n∈N mit Bn := ω ∈ ΩK1 Q[An (ω )] ≥ α/2 monoton fallend. F¨ ur alle n ∈ N gilt nach (2) Bn ∈ FK1 und α ≤ Q[An ] ( Q[An (ω )] dQK1 (ω ) = ΩK1
( =
Q[An (ω )] dQK1 (ω ) +
Bn
( ≤
1 dQK1 (ω ) +
Bn
α ≤ QK1 [Bn ] + 2 und damit
( ΩK1 \Bn
( ΩK1 \Bn
Q[An (ω )] dQK1 (ω )
α dQK1 (ω ) 2
α ≤ inf QK1 [Bn ] = QK1 Bn n∈N 2 n∈N
Da QK1 ein Wahrscheinlichkeitsmaß ist, gilt n∈N Bn = ∅. Daher gibt es ∞ ein ωK1 ∈ n=1 Bn . Aus der Definition der Folge {Bn }n∈N ergibt sich ω K 1 ∈ ΩK 1 sowie α ≤ Q[An (ωK1 )] 2 f¨ ur alle n ∈ N. Insbesondere ist die Menge −1 −1 ({ω }) ∩ π ({π (ω)}) ⊆ A A1 (ωK1 ) = ω ∈ Ω πK K 1 I\K 1 1 I\K1 1 nichtleer und wegen A1 ∈ ZK1 gilt −1 πK ({ωK1 }) ⊆ A1 1
–
m → m + 1: Sei ωKm ∈ ΩKm bereits konstruiert. Mit der Folge {An }n∈N ist auch die Folge {A(ωKm )}n∈N und damit f¨ ur jedes ω ∈ ΩKm+1 \Km auch die Folge {(An (ωKm ))(ω )}n∈N monoton fallend; damit ist auch die Folge {Bn }n∈N mit Bn := ω ∈ ΩKm+1 \Km Q[(An (ωKm ))(ω )] ≥ α/2m+1
214
Kapitel 10. Wahrscheinlichkeitsr¨ aume
monoton fallend. F¨ ur alle n ∈ N gilt nach (2) Bn ∈ FKm+1 \Km und α ≤ Q[(An (ωKm ))] 2m ( Q[(An (ωKm ))(ω )] dQKm+1 \Km (ω ) = ΩKm+1\Km
( =
Q[(An (ωKm ))(ω )] dQKm+1 \Km (ω ) ( Q[(An (ωKm ))(ω )] dQKm+1 \Km (ω ) +
Bn
(ΩKm+1\Km )\Bn
(
≤ Bn
1 dQKm+1 \Km (ω ) +
≤ QKm+1\Km [Bn ] +
( (ΩKm+1\Km )\Bn
α dQKm+1 \Km (ω ) 2m+1
α 2m+1
und damit α 2m+1
≤ inf QKm+1\Km [Bn ] = QKm+1 \Km n∈N
Bn
n∈N
Da QKm+1 \Km ein Wahrscheinlichkeitsmaß ist, gilt n∈N Bn = ∅. Daher gibt es ein ωKm+1 \Km ∈ n∈N Bn . Aus der Definition der Folge {Bn }n∈N ergibt sich ωKm+1 \Km ∈ ΩKm+1 \Km sowie α 2m+1
≤ Q[(An (ωKm ))(ωKm+1\Km )]
f¨ ur alle n ∈ N. Insbesondere ist die Menge (Am+1 (ωKm ))(ωKm+1 \Km ) nichtleer und wegen Am+1 (ωKm ) ∈ ZKm+1 \Km gilt −1 ({ωKm+1 \Km }) ⊆ Am+1 (ωKm ) πK m+1 \Km
Sei nun −1 −1 ({ωKm }) ∩ πK ({ωKm+1 \Km })) ωKm+1 := πKm+1 (πK m m+1 \Km
Dann gilt ωKm+1 ∈ ΩKm+1 und πKm ,Km+1 (ωKm+1 ) = ωKm
10.6 Satz von Andersen/Jessen
215
und −1 −1 −1 ({ωKm+1 }) = πK ({ωKm }) ∩ πK ({ωKm+1 \Km }) πK m+1 m m+1 \Km
Daher gilt f¨ ur alle ω ∈ Ω −1 −1 πK ({ωKm+1 }) ∩ πI\K ({πI\Km+1 (ω)}) m+1 m+1 −1 −1 −1 ({ωKm }) ∩ πK ({ωKm+1 \Km }) ∩ πI\K ({πI\Km+1 (ω)}) = πK m m+1 \Km m+1
Wegen −1 −1 ({ωKm+1 \Km }) ∩ πI\K ({πI\Km+1 (ω)}) πK m+1 \Km m+1 −1 −1 −1 ({πI\Km (πK ({ωKm+1 \Km }) ∩ πI\K ({πI\Km+1 (ω)}))}) = πI\K m m+1 \Km m+1
gilt daher ω ∈ An (ωKm+1 ) genau dann, wenn −1 −1 πK ({ωKm+1 \Km }) ∩ πI\K ({πI\Km+1 (ω)}) ∈ An (ωKm ) m+1 \Km m+1
gilt, und diese Bedingung ist genau dann erf¨ ullt, wenn ω ∈ (An (ωKm ))(ωKm+1 \Km ) gilt. Daher gilt f¨ ur alle n ∈ N An (ωKm+1 ) = (An (ωKm ))(ωKm+1 \Km ) und damit α 2m+1
≤ Q[An (ωKm+1 )]
Insbesondere gilt Am+1 (ωKm+1 ) = ∅. Daher gibt es ein ω ∈ Ω mit −1 −1 πK ({ωKm+1 }) ∩ πI\K ({πI\Km+1 )(ω)} ⊆ Am+1 m+1 m+1
Wegen Am+1 ∈ ZKm+1 gilt dann aber −1 πK ({ωKm+1 }) ⊆ Am+1 m+1
Damit ist die Folge {ωKm }m∈N konstruiert.
2
Der durch den Satz von Andersen/Jessen gegebene Wahrscheinlichkeitsraum (Ω, F , Q) heißt Produkt der Familie {(Ωi , Fi , Qi )}i∈I und das Wahrscheinlichkeitsmaß Q heißt Produkt der Familie {Qi }i∈I . Es gilt
216
Kapitel 10. Wahrscheinlichkeitsr¨ aume
Ω=
Ωi
i∈I
F =
Fi
i∈I
und wir setzen
Qi := Q
i∈I
und
(Ωi , Fi , Qi ) :=
i∈I
Ωi ,
i∈I
Fi ,
i∈I
Qi
i∈I
Die Notation ist damit analog zum Fall eines endlichen Produktes. Wir geben abschließend ein einfaches Beispiel f¨ ur die Anwendung des Satzes von Andersen/Jessen: 10.6.3 Beispiel (Wurf einer M¨ unze bis zum ersten Kopf ). Wir betrachten den wiederholten Wurf einer M¨ unze. Wir nehmen an, dass – zwischen den verschiedenen W¨ urfen der M¨ unze keine gegenseitige Beeinflussung besteht, – bei jedem Wurf nur Kopf oder Zahl auftreten kann, – die Chance f¨ ur das Auftreten von Kopf beim einmaligen Wurf gleich einer reellen Zahl ϑ ∈ (0, 1) ist, und – die M¨ unze solange geworfen wird, bis zum erstenmal Kopf auftritt. Wir interessieren uns f¨ ur die Anzahl der W¨ urfe, bis zum erstenmal Kopf auftritt. Wir w¨ ahlen folgende Modelle: – Als Modell f¨ ur den i–ten Wurf w¨ ahlen wir den diskreten Wahrscheinlichkeitsraum (Ωi , Fi , Pi ) mit Ωi := {K, Z} sowie Fi = 2Ωi und dem durch Pi [{K}] := ϑ festgelegten Wahrscheinlichkeitsmaß. – Als Modell f¨ ur den wiederholten Wurf w¨ ahlen wir den Wahrscheinlichkeitsraum O (Ωi , Fi , Pi ) (Ω, F, P ) := i∈N
ahlbar. Sei n ∈ N und sei Dann gilt Ω = {K, Z}N und damit ist Ω u ¨ berabz¨ An :=
n−1 Y
∞ Y
i=1
j=n+1
{Z} × {K} ×
Ωj
Dann gilt An ∈ Z ⊆ F und An ist gerade das Ereignis, dass Kopf zum erstenmal beim n–ten Wurf auftritt. Sei ferner O (Ωi , Fi , Pi ) (Ω{1,...,n} , F{1,...,n} , P{1,...,n} ) := i∈{1,...,n}
und
10.6 Satz von Andersen/Jessen
217
Cn :=
n−1 Y
{Z} × {K}
i=1 −1 (Cn ), und nach Konstruktion der WahrDann gilt Cn ∈ F{1,...,n} und An = π{1,...,n} scheinlichkeitsmaße P und P{1,...,n} gilt O Pi Pπ{1,...,n} = P{1,...,n} = i∈{1,...,n}
Wir erhalten daher −1 (Cn )] P [An ] = P [π{1,...,n} " !# n−1 Y −1 = P π{1,...,n} {Z} × {K} i=1
= Pπ{1,...,n}
"n−1 Y
#
{Z} × {K}
i=1
# "n−1 Y = P{1,...,n} {Z} × {K} i=1
=
n−1 Y
!
Pi [{Z}]
Pn [{K}]
i=1
Die Folge {An }n∈N mit
= (1−ϑ)n−1 ϑ P ¯ ist disjunkt mit P [ ∞ n=1 An ] = 1. Die Abbildung X : Ω → R j X(ω) :=
n ∞
falls ω ∈ An P falls ω ∈ Ω \ ∞ n=1 An
gibt die Anzahl der W¨ urfe bis zum ersten Auftreten von Kopf an. Dann ist X eine Zufallsvariable und f¨ ur alle n ∈ N gilt P [{X = n}] = (1−ϑ)n−1 ϑ Daher gilt P [{X ∈ N}] = 1 und die M¨ unze wird mit Wahrscheinlichkeit Eins nur endlich viele Male geworfen.
Die in diesem Beispiel und auch in den vorher betrachteten Beispielen zum wiederholten M¨ unzwurf getroffene Annahme, dass zwischen den verschiedenen W¨ urfen der M¨ unze keine gegenseitige Beeinflussung besteht, bildet den heuristischen Hintergrund f¨ ur einen zentralen wahrscheinlichkeitstheoretischen Begriff, den wir im n¨ achsten Kapitel einf¨ uhren und untersuchen. Aufgabe 10.6.A Versuchen Sie, alle Ereignisse der σ–Algebra F aus Beispiel 10.6.3 zu beschreiben.
11 Unabh¨ angigkeit
In diesem Kapitel und in den weiteren Kapiteln sei (Ω, F , P ) ein Wahrscheinlichkeitsraum, auf dem alle Zufallsgr¨ oßen definiert sind. In diesem Kapitel betrachten wir den f¨ ur die Wahrscheinlichkeitstheorie grundlegenden Begriff der Unabh¨ angigkeit, der in drei Formen auftreten kann: – Unabh¨ angigkeit einer Familie von Ereignissen (Abschnitt 11.1) – Unabh¨ angigkeit einer Familie von Ereignissystemen (Abschnitt 11.2) – Unabh¨ angigkeit einer Familie von Zufallsgr¨oßen (Abschnitt 11.3) Diese drei Formen der Unabh¨ angigkeit h¨ angen eng miteinander zusammen und treten in nat¨ urlicher Weise in Produkten von Wahrscheinlichkeitsr¨aumen auf (Abschnitt 11.4). Sei I eine nichtleere Indexmenge und sei H(I) die Familie der endlichen nichtleeren Teilmengen von I.
11.1 Unabh¨ angige Familien von Ereignissen Ziel dieses Abschnitts ist es, den Begriff der Unabh¨angigkeit f¨ ur eine Familie von Ereignissen zu definieren und zu untersuchen. Wir beginnen mit einer Vorbetrachtung. Sei C ∈ F ein Ereignis mit P [C] ∈ (0, 1). Dann ist das unbestimmte Integral ( χC P [ . |C] := dP P [C] ein Wahrscheinlichkeitsmaß mit ( ( χC 1 P [A ∩ C] P [A|C] = dP = χA∩C dP = P [C] Ω P [C] A P [C]
220
Kapitel 11. Unabh¨ angigkeit
Das Wahrscheinlichkeitsmaß P [ . |C] heißt bedingtes Wahrscheinlichkeitsmaß unter C, und f¨ ur A ∈ F heißt P [A|C] bedingte Wahrscheinlichkeit von A unter C. Wegen P [C|C] = 1 und P [C|C] = 0 lebt das Wahrscheinlichkeitsmaß P [ . |C] auf dem Ereignis C und verschwindet auf seinem Komplement. Der Wahrscheinlichkeitsraum (Ω, F , P [ . |C]) kann als Modell f¨ ur das nach dem Eintritt des Ereignisses C verbleibende Zufallsgeschehen interpretiert werden. Ist C ∈ F ein Ereignis mit P [C] ∈ (0, 1), so ist auch C ∈ F ein Ereignis mit P [C] ∈ (0, 1), und in diesem Fall heißt ein Ereignis A ∈ F unabh¨angig von C, wenn P [A|C] = P [A|C] gilt. 11.1.1 Lemma. Sei C ∈ F ein Ereignis mit P [C] ∈ (0, 1). Dann sind f¨ ur jedes Ereignis A ∈ F folgende Aussagen ¨aquivalent : (a) A ist unabh¨angig von C. (b) Es gilt P [A|C] = P [A]. (c) Es gilt P [A ∩ C] = P [A] P [C]. Beweis. Aus der Definition der bedingten Wahrscheinlichkeit ergibt sich P [A] = P [A ∩ C] + P [A ∩ C] = P [A|C] P [C] + P [A|C] P [C] ¨ von (a) und (b). Die und wegen P [C] + P [C] = 1 folgt daraus die Aquivalenz ¨ Aquivalenz von (b) und (c) ist klar. 2 ¨ Die Aquivalenz der Aussagen (a) und (c) von Lemma 11.1.1 deutet bereits eine gewisse Symmetrie zwischen den bei der Unabh¨angigkeit betrachteten Ereignissen an; diese Symmetrie l¨ asst sich wie folgt pr¨azisieren: 11.1.2 Folgerung. Seien A, C ∈ F Ereignisse mit P [A], P [C] ∈ (0, 1). Dann sind ¨aquivalent : (a) A ist unabh¨angig von C. (b) C ist unabh¨angig von A. Folgerung 11.1.2 legt es nahe, die Unabh¨ angigkeit von zwei Ereignissen in symmetrischer Weise und ohne Einschr¨ ankung an die Wahrscheinlichkeiten ¨ dieser Ereignisse wie folgt zu definieren. Aufgrund der Aquivalenz von (a) und (c) im Lemma 11.1.1 ist die folgende Definition der Unabh¨angigkeit mit der vorher gegebenen Definition vertr¨ aglich: Zwei Ereignisse A, B ∈ F heißen unabh¨angig (voneinander), wenn P [A ∩ B] = P [A] P [B] gilt. In diesem Fall sagen wir auch:
11.1 Unabh¨ angige Familien von Ereignissen
221
– A und B sind unabh¨angig. – A ist unabh¨angig von B. – B ist unabh¨angig von A. – {A, B} ist unabh¨angig. Im folgenden verstehen wir die Unabh¨ angigkeit von Ereignissen A, B ∈ F als eine Eigenschaft der Familie {A, B} dieser Ereignisse. Zwei Ereignisse heißen abh¨angig (voneinander), wenn sie nicht unabh¨angig sind. 11.1.3 Beispiele (Urnenmodelle). Wir betrachten eine Urne mit N ≥ 2 Kugeln, von denen K ∈ {1, . . . , N−1} Kugeln rot sind und N−K Kugeln eine beliebige andere Farbe besitzen. Wir nehmen an, dass alle Kugeln bis auf die Farbe gleichartig sind. Wir ziehen n = 2 Kugeln aus der Urne. (1) Ziehen ohne Zur¨ ucklegen: Wir w¨ ahlen den vorher eingef¨ uhrten symmetrischen Wahrscheinlichkeitsraum (Ω, F, P ) und betrachten die Ereignisse A= b bei der 1. Ziehung tritt eine rote Kugel auf B= b bei der 2. Ziehung tritt eine rote Kugel auf Dann gilt |Ω| = N (N −1) |A ∩ B| = K(K −1) |A ∩ B| = K(N −K) |A ∩ B| = (N −K)K und damit |A| = K(N −1) |B| = K(N −1) Es gilt also P [A ∩ B] = K(K −1)/(N (N −1)) P [A] = K/N P [B] = K/N und damit P [A ∩ B] = P [A] P [B]. Daher ist {A, B} nicht unabh¨ angig. (2) Ziehen mit Zur¨ ucklegen: Wir w¨ ahlen den vorher eingef¨ uhrten symmetrischen Wahrscheinlichkeitsraum (Ω, F, P ) und betrachten die Ereignisse A= b bei der 1. Ziehung tritt eine rote Kugel auf B= b bei der 2. Ziehung tritt eine rote Kugel auf Dann gilt |Ω| = N 2 |A ∩ B| = K 2 |A ∩ B| = K(N −K) |A ∩ B| = (N −K)K
222
Kapitel 11. Unabh¨ angigkeit und damit |A| = KN |B| = KN Es gilt also P [A ∩ B] = K 2 /N 2 P [A] = K/N P [B] = K/N und damit P [A ∩ B] = P [A] P [B]. Daher ist {A, B} unabh¨ angig.
Der Begriff der Unabh¨ angigkeit von Ereignissen ist ein wahrscheinlichkeitstheoretischer Begriff, der in der allgemeinen Maßtheorie keinen Sinn macht: Sei μ : F → [0, ∞] ein Maß und seien A, B ∈ F Ereignisse mit μ[A ∩ B] = μ[A] μ[B] so gilt wegen μ[A ∩ B] ≤ μ[A] und μ[A ∩ B] ≤ μ[B] (μ[A ∩ B])2 ≤ μ[A] μ[B] = μ[A ∩ B] und damit entweder μ[A ∩ B] = ∞ oder μ[A ∩ B] ≤ 1. Im Fall μ[A ∩ B] = ∞ ist die Gleichung μ[A ∩ B] = μ[A] μ[B] aber trivial, und im Fall μ[A ∩ B] ≤ 1 folgt aus ihr min{μ[A], μ[B]} ≤ 1. Wir untersuchen zun¨ achst die Frage, welche Ereignisse von einem gegebenen Ereignis unabh¨ angig sind. 11.1.4 Lemma. Sei A ∈ F ein Ereignis und sei B ∈ F ein Ereignis mit P [B] ∈ {0, 1}. Dann ist {A, B} unabh¨angig. Beweis. Im Fall P [B] = 0 gilt P [A∩B] = 0 und damit P [A∩B] = P [A] P [B]. Im Fall P [B] = 1 gilt P [A ∪ B] = 1 und aus der Gleichung P [A ∪ B] + P [A ∩ B] = P [A] + P [B] folgt P [A ∩ B] = P [A] = P [A] P [B].
2
Insbesondere ist das sichere Ereignis und das unm¨ogliche Ereignis von jedem Ereignis unabh¨ angig. Andererseits sind ein Ereignis und sein Komplement im allgemeinen abh¨ angig; vgl. Aufgabe 11.1.E. 11.1.5 Lemma. Sei A ∈ F ein Ereignis und sei B ∈ F ein Ereignis derart, dass {A, B} unabh¨angig ist. Dann ist {A, B} unabh¨angig.
11.1 Unabh¨ angige Familien von Ereignissen
223
Beweis. Es gilt P [A ∩ B] + P [A ∩ B] = P [A] = P [A] (P [B] + P [B]) = P [A] P [B] + P [A] P [B] 2
Daraus folgt die Behauptung.
11.1.6 Lemma. Sei A ∈ F ein Ereignis und sei {Bn }n∈N ⊆ F eine Folge von Ereignissen derart, dass {A, Bn } f¨ ur alle n ∈ N unabh¨angig ist. Dann gilt :
∞ unabh¨angig. (1) Ist {Bn }n∈N disjunkt, so ist {A, n=1 Bn } (2) Ist {Bn }n∈N monoton wachsend, so ist {A, n∈N Bn } unabh¨angig. (3) Ist {Bn }n∈N monoton fallend, so ist {A, n∈N Bn } unabh¨angig. Beweis. Ist die Folge {Bn }n∈N disjunkt, so folgt aus der σ–Additivit¨at ∞ ∞ P A∩ Bn = P A ∩ Bn n=1
n=1
= =
∞ n=1 ∞
P [A ∩ Bn ] P [A] P [Bn ]
n=1
= P [A]
∞
P [Bn ]
n=1
= P [A] P
∞
Bn
n=1
Daher gilt (1). Die Beweise von (2) und (3) verlaufen analog zu dem von (1) und verwenden anstelle der σ–Additivit¨ at die Stetigkeit von unten bzw. die Stetigkeit von oben. 2 Das folgende Beispiel zeigt, dass die Voraussetzung der Monotonie in den Aussagen (2) und (3) von Lemma 11.1.6 wesentlich ist: 11.1.7 Beispiel. Sei (Ω, F, P ) der symmetrische Wahrscheinlichkeitsraum mit Ω := {1, 2, 3, 4}. Sei ferner A := {1, 2} B := {2, 3} C := {1, 3} Dann ist sowohl {A, B} als auch {A, C} unabh¨ angig, aber es ist weder {A, B ∪ C} noch {A, B ∩ C} unabh¨ angig.
224
Kapitel 11. Unabh¨ angigkeit
Der folgende Satz fasst die wichtigsten Aussagen der letzten drei Lemmata zusammen: 11.1.8 Satz. Sei A ∈ F ein Ereignis und sei DA := B ∈ F {A, B} ist unabh¨angig Dann ist DA ein Dynkin–System. Beweis. Der Beweis ergibt sich aus den bereits bekannten Ergebnissen: (i) Wegen P [Ω] = 1 und Lemma 11.1.4 gilt Ω ∈ DA . (ii) Sei B ∈ DA . Nach Lemma 11.1.5 gilt dann B ∈ DA .
∞ (iii) Sei {Bn }n∈N ⊆ DA disjunkt. Nach Lemma 11.1.6 gilt dann n=1 Bn ∈ DA . Daher ist DA ein Dynkin–System. 2 Das Dynkin–System DA := {B ∈ F | {A, B} ist unabh¨angig} der von A ∈ F unabh¨ angigen Ereignisse ist im allgemeinen nicht ∩–stabil und damit im allgemeinen keine σ–Algebra; vgl. Beispiel 11.1.7. Wir verallgemeinern die Definition der Unabh¨angigkeit von Ereignissen nun auf beliebige Familien von Ereignissen: ur alle Eine Familie {Ai }i∈I von Ereignissen Ai ∈ F heißt unabh¨angig, wenn f¨ J ∈ H(I) P Ai = P [Ai ] i∈J
i∈J
gilt. Wir veranschaulichen diese Definition an zwei Beispielen: 11.1.9 Beispiele. (1) Sei (Ω, F, P ) der symmetrische Wahrscheinlichkeitsraum mit Ω := {0, 1}3 . Sei ferner A := {000, 001, 010, 011} B := {000, 001, 010, 100} C := {000, 011, 100, 111} Dann gilt P [A ∩ B ∩ C] = P [A] P [B] P [C] und P [A ∩ B] = P [A] P [B] P [A ∩ C] = P [A] P [C] P [B ∩ C] = P [B] P [C] Daher ist die Familie {A, B, C} nicht unabh¨ angig.
11.1 Unabh¨ angige Familien von Ereignissen
225
(2) Sei (Ω, F, P ) der symmetrische Wahrscheinlichkeitsraum mit Ω := {0, 1}2 . Sei ferner A := {00, 01} B := {00, 10} C := {00, 11} Dann gilt P [A ∩ B] = P [A] P [B] P [A ∩ C] = P [A] P [C] P [B ∩ C] = P [B] P [C] und P [A ∩ B ∩ C] = P [A] P [B] P [C] Daher ist die Familie {A, B, C} nicht unabh¨ angig.
Der folgende Satz zeigt, dass jede Teilfamilie einer unabh¨angigen Familie von Ereignissen wieder unabh¨ angig ist und dass umgekehrt die Unabh¨angigkeit jeder endlichen Teilfamilie einer Familie von Ereignissen die Unabh¨angigkeit der gesamten Familie impliziert: 11.1.10 Satz. Sei {Ai }i∈I eine Familie von Ereignissen. Dann sind ¨aquivalent : (a) Die Familie {Ai }i∈I ist unabh¨angig. (b) F¨ ur jede nichtleere Menge K ⊆ I ist {Ai }i∈K unabh¨angig. (c) F¨ ur jede endliche nichtleere Menge K ⊆ I ist {Ai }i∈K unabh¨angig. Beweis. Wir nehmen zun¨ achst an, dass (a) gilt. Sei K ⊆ I nichtleer. F¨ ur alle J ∈ H(K) gilt J ∈ H(I) und damit Ai = P [Ai ] P i∈J
i∈J
Daher folgt (b) aus (a). Offensichtlich folgt (c) aus (b). Wir nehmen nun an, dass (c) gilt. F¨ ur alle J ∈ H(I) gilt J ∈ H(J) und damit P Ai = P [Ai ] i∈J
Daher folgt (a) aus (b).
i∈J
2
Der folgende Satz verallgemeinert Lemma 11.1.5; er zeigt, dass f¨ ur eine Familie von Ereignissen die Unabh¨ angigkeit erhalten bleibt, wenn man beliebig viele der Ereignisse durch ihr Komplement ersetzt:
226
Kapitel 11. Unabh¨ angigkeit
11.1.11 Satz. Sei {Ai }i∈I eine Familie von Ereignissen und sei {Bi }i∈I eine Familie von Ereignissen mit Bi ∈ {Ai , Ai } f¨ ur alle i ∈ I. Dann sind ¨aquivalent : (a) Die Familie {Ai }i∈I ist unabh¨angig. (b) Die Familie {Bi }i∈I ist unabh¨angig. Beweis. Offenbar gen¨ ugt es, eine der beiden Implikationen zu beweisen, und wegen Satz 11.1.10 gen¨ ugt es ferner, den Beweis f¨ ur den Fall I = {1, . . . , n} zu f¨ uhren. angig. Wir zeigen durch vollst¨andige Sei also die Familie {Ai }i∈{1,...,n} unabh¨ Induktion, dass die Aussage (k)
F¨ ur alle J ⊆ {1, . . . , n} mit |{i ∈ J | Bi = Ai }| = k gilt P Bi = P [Bi ] i∈J
i∈J
f¨ ur alle k ∈ {0, 1, . . . , n} gilt: • k = 0: In diesem Fall ist nichts zu beweisen. • k → k+1: Wir nehmen an, die Aussage sei f¨ ur ein k ∈ {0, 1, . . . , n−1} bereits bewiesen, und betrachten J ⊆ {1, . . . , n} mit |{i ∈ J | Bi = Ai }| = k + 1. F¨ ur alle j ∈ J mit Bj = Aj gilt aufgrund der Induktionsannahme P Bi = P [Bi ] i∈J\{j}
und
P Aj ∩
i∈J\{j}
i∈J\{j}
und damit
P [Bi ]
i∈J\{j}
P Aj ∩
Bi = P [Aj ]
Bi = P [Aj ] P
i∈J\{j}
Bi
i∈J\{j}
Also ist {Aj , i∈J\{j} Bi } unabh¨ angig. Nach Lemma 11.1.5 ist dann auch {Aj , i∈J\{j} Bi } unabh¨ angig. Wegen Bj = Aj gilt also P
i∈J
Bi = P Bj ∩ = P Aj ∩
Bi
i∈J\{j}
i∈J\{j}
Bi
11.1 Unabh¨ angige Familien von Ereignissen
227
= P [Aj ] P
Bi
i∈J\{j}
= P [Bj ] P
Bi
i∈J\{j}
= P [Bj ] =
P [Bi ]
i∈J\{j}
P [Bi ]
i∈J
Daher gilt die Aussage (n) und damit ist die Familie {Bi }i∈{1,...,n} unabh¨ angig. 2 Wir untersuchen abschließend f¨ ur eine Folge von Ereignissen die Bedeutung der Unabh¨ angigkeit der Folge f¨ ur die Wahrscheinlichkeit ihres Limes superior: 11.1.12 Lemma (1. Lemma
∞ von Borel/Cantelli). Sei {An }n∈N eine Folge von Ereignissen mit n=1 P [An ] < ∞. Dann gilt " . P lim sup An = 0 n→∞
Beweis. Da P monoton und σ–subadditiv ist, gilt f¨ ur alle m ∈ N . " ∞ ∞ ∞ ∞ P lim sup An = P Ak ≤ P Ak ≤ P [Ak ] n→∞
Aus der Voraussetzung
n=1 k=n
∞ k=1
k=m
k=m
P [Ak ] < ∞ folgt nun die Behauptung.
2
∞ F¨ ur eine Folge von Ereignissen {An }n∈N ⊆ F mit n=1 P [An ] = ∞ erh¨alt man im Fall der Unabh¨ angigkeit der Folge {An }n∈N ein a¨hnliches Ergebnis: 11.1.13 Lemma (2. Lemma von Borel/Cantelli). Sei {An }n∈N eine
∞ unabh¨angige Folge von Ereignissen mit n=1 P [An ] = ∞. Dann gilt . " P lim sup An = 1 n→∞
Beweis. Es gilt ∞ ∞ ∞ . " ∞ ∞ ∞ 1 − P lim sup An = P Ω \ Ak = P Ak ≤ P Ak n→∞
n=1 k=n
n=1 k=n
n=1
k=n
228
Kapitel 11. Unabh¨ angigkeit
F¨ ur alle n ∈ N und f¨ ur alle m ∈ N(n) gilt aufgrund der Unabh¨angigkeit der Folge {An }n∈N ⊆ F und wegen Lemma 11.1.5 ∞ m P Ak ≤ P Ak k=n
k=n
= = ≤
m
P [Ak ]
k=n m
1 − P [Ak ]
k=n m
exp −P [Ak ]
k=n
= exp − Aus der Voraussetzung
∞ k=1
m
P [Ak ]
k=n
P [Ak ] = ∞ folgt nun die Behauptung.
2
Aus dem 1. und 2. Lemma von Borel/Cantelli ergibt sich f¨ ur unabh¨angige Folgen von Ereignissen das folgende Null–Eins–Gesetz von Borel : 11.1.14 Satz (Null–Eins–Gesetz; Borel). Sei {An }n∈N eine unabh¨angige Folge von Ereignissen. Dann gilt
. " 0 falls ∞ n=1 P [An ] < ∞ P lim sup An =
∞ n→∞ 1 falls n=1 P [An ] = ∞ Allgemein ist ein Null–Eins–Gesetz ein Satz, der besagt, dass unter gewissen Voraussetzungen f¨ ur bestimmte Ereignisse A ∈ F entweder P [A] = 0 oder P [A] = 1 gilt. Aufgaben 11.1.A Urnenmodelle: Betrachten Sie die Urnenmodelle aus Beispiel 11.1.3. – Bestimmen Sie f¨ ur jedes der Urnenmodelle die Wahrscheinlichkeiten P [A|B] und P [A|B] und vergleichen Sie die Ergebnisse. – Bestimmen Sie f¨ ur jedes der Urnenmodelle die Wahrscheinlichkeiten P [B|A] und P [B|A] und vergleichen Sie die Ergebnisse. Warum ist die Wahrscheinlichkeit P [B] nicht davon abh¨ angig, ob mit oder ohne Zur¨ ucklegen gezogen wird? 11.1.B Formel von der totalen Wahrscheinlichkeit: Sei C ∈ F ein Ereignis mit P [C] ∈ (0, 1). Dann gilt f¨ ur alle A ∈ F P [A] = P [A|C] P [C] + P [A|C] P [C] Interpretieren Sie diese Gleichung.
11.2 Unabh¨ angige Familien von Ereignissystemen
229
11.1.C Sei C ∈ F ein Ereignis mit P [C] ∈ (0, 1). Dann sind die Wahrscheinlichar zueinander. keitsmaße P [ . |C] und P [ . |C] P –stetig und singul¨ 11.1.D Lebensversicherungsmathematik: Die Lebensdauer einer Person wird ur durch eine Zufallsvariable T mit P [{T ∈ R+ }] = 1 und P [{T > x}] > 0 f¨ ur x, k ∈ N0 sei alle x ∈ N0 beschrieben. F¨ k px
:= P [{T > x + k}|{T > x}]
Dann gilt f¨ ur alle x, k, l ∈ N0 k+l px
= l px+k k px
und k px
=
k Y
1 px+j−1
j=1
Interpretieren Sie die bedingten Wahrscheinlichkeiten k px und die beiden Gleichungen. 11.1.E Geben Sie eine hinreichende und notwendige Bedingung daf¨ ur an, dass zwei disjunkte Ereignisse unabh¨ angig sind. 11.1.F Seien A, B ∈ F Ereignisse mit P [A ∩ B] = 1. Dann ist {A, B} unabh¨ angig. 11.1.G Sei {A, B} ⊆ F unabh¨ angig und sei C ∈ F ein Ereignis mit C ⊆ B. Dann sind ¨ aquivalent: (a) {A, C} ist unabh¨ angig. (b) {A, B \C} ist unabh¨ angig. 11.1.H F¨ uhren Sie die Beweise der Aussagen (2) und (3) von Lemma 11.1.6 aus. 11.1.I
angige Folge von Ereignissen mit P [An ] = c f¨ ur Sei {An }n∈N eine unabh¨ alle n ∈ N und ein c ∈ (0, 1]. Dann gilt P [lim supn→∞ An ] = 1.
11.1.J
Konstruieren Sie einen Wahrscheinlichkeitsraum (Ω, F, P ) und eine Folge P von Ereignissen {An }n∈N mit ∞ n=1 P [An ] = ∞ und P [lim supn→∞ An ] < 1.
11.1.K Paarweise unabh¨ angige Familien von Ereignissen: Eine Familie von angig, wenn f¨ ur alle i, j ∈ I mit Ereignissen {Ai }i∈I heißt paarweise unabh¨ angig ist. Jede unabh¨ angige Familie von i = j die Familie {Ai , Aj } unabh¨ Ereignissen ist paarweise unabh¨ angig, aber eine paarweise unabh¨ angige Familie von Ereignissen ist nicht notwendigerweise unabh¨ angig.
11.2 Unabh¨ angige Familien von Ereignissystemen Wir u angigkeit auf Familien von Ereig¨ bertragen nun den Begriff der Unabh¨ nissystemen. Wir beginnen wieder mit einer Vorbetrachtung: Sind A, B ∈ F Ereignisse (die beide von ∅ und Ω verschieden sind), so ist nach Lemma 11.1.4 und Lemma 11.1.5 die Familie {A, B} genau dann unabh¨ angig, wenn f¨ ur jede Wahl von C ∈ {∅, A, A, Ω} und D ∈ {∅, B, B, Ω} die Familie {C, D} unabh¨angig ist. Offensichtlich sind die Ereignissysteme {∅, A, A, Ω} und {∅, B, B, Ω} gerade die von den Ereignissen A bzw. B erzeugten σ–Algebren σ(A) bzw. σ(B).
230
Kapitel 11. Unabh¨ angigkeit
Diese Beobachtung legt es nahe, den Begriff der Unabh¨angigkeit auf Familien von Ereignissystemen zu u ¨bertragen. Eine Familie {Ei }i∈I von Ereignissystemen Ei ⊆ F heißt unabh¨angig, wenn jede Familie von Ereignissen {Ai }i∈I mit Ai ∈ Ei f¨ ur alle i ∈ I unabh¨angig ist. Der folgende Satz ergibt sich unmittelbar aus der Definition der Unabh¨angigkeit einer Familie von Ereignissystemen und Satz 11.1.10: 11.2.1 Satz. Sei {Ei }i∈I eine Familie von Ereignissystemen. Dann sind ¨aquivalent : (a) Die Familie {Ei }i∈I ist unabh¨angig. (b) F¨ ur jede nichtleere Menge K ⊆ I ist {Ei }i∈K unabh¨angig. (c) F¨ ur jede endliche nichtleere Menge K ⊆ I ist {Ei }i∈K unabh¨angig. Auch das folgende Lemma ergibt sich unmittelbar aus der Definition der Unabh¨ angigkeit einer Familie von Ereignissystemen: 11.2.2 Lemma. Sei {Ei }i∈I eine Familie von Ereignissystemen und sei {Ci }i∈I eine Familie von Ereignissystemen mit Ci ⊆ Ei f¨ ur alle i ∈ I. Ist {Ei }i∈I unabh¨angig, so ist auch {Ci }i∈I unabh¨angig. Es stellt sich nun die Frage, unter welchen Umst¨anden man umgekehrt von der Unabh¨ angigkeit einer Familie von Ereignissystemen auf die Unabh¨angigkeit einer Familie von gr¨ oßeren Ereignissystemen schließen kann; von besonderem Interesse ist nat¨ urlich die Familie der von den einzelnen Ereignissystemen erzeugten σ–Algebren. Wir ben¨ otigen die folgenden Lemmata: 11.2.3 Lemma. Seien E1 und E2 Ereignissysteme derart, dass E1 ∩–stabil und {E1 , E2 } unabh¨angig ist. Dann ist {σ(E1 ), E2 } unabh¨angig. Beweis. F¨ ur jedes Ereignis A ∈ E2 ist nach Satz 11.1.8 das Mengensystem DA := B ∈ F {A, B} ist unabh¨angig ein Dynkin–System mit E1 ⊆ DA . Dann ist auch D :=
DA
A∈E2
ein Dynkin–System mit E1 ⊆ D. Da E1 ∩–stabil ist, gilt σ(E1 ) = δ(E1 ) ⊆ D. Nach Definition von D ist {D, E2 } unabh¨ angig und aus Lemma 11.2.2 folgt angig ist. 2 nun, dass auch {σ(E1 ), E2 } unabh¨
11.2 Unabh¨ angige Familien von Ereignissystemen
231
11.2.4 Lemma. Sei {Ci }i∈I eine endliche Familie von Ereignissystemen. Sei ferner k ∈ I und
Dk := C ∈ F C = Ci mit J ∈ H(I \ {k}) und Ci ∈ Ci f¨ ur alle i ∈ J i∈J
Dann sind ¨ aquivalent : (a) {Ci }i∈I ist unabh¨angig. (b) {Ci }i∈I\{k} ist unabh¨angig und {Ck , Dk } ist unabh¨angig. Beweis. Wir nehmen zun¨ achst an, dass (a) gilt. Mit {Ci }i∈I ist nach Satz 11.2.1 auch {Ci }i∈I\{k} unabh¨ angig. F¨ ur alle D ∈ Dk gibt es eine Darstellung ur alle i ∈ J und es gilt D = i∈J Ci mit J ∈ H(I \ {k}) und Ci ∈ Ci f¨ P [Ck ∩ D] = P Ck ∩ Ci i∈J
=
P [Ci ]
i∈J∪{k}
= P [Ck ]
P [Ci ]
i∈J
= P [Ck ] P
Ci
i∈J
= P [Ck ] P [D] angig. Daher folgt (b) aus (a). Damit ist auch {Ck , Dk } unabh¨ Wir nehmen nun an, dass (b) gilt. Sei {Ci }i∈I eine Familie von Ereignissen ur alle i ∈ I und sei J ∈ H(I). Im Fall k ∈ J gilt mit Ci ∈ Ci f¨ P Ci = P Ck ∩ Ci i∈J
i∈J\{k}
= P [Ck ] P
Ci
i∈J\{k}
= P [Ck ] =
P [Ci ]
i∈J\{k}
P [Ci ]
i∈J
und im Fall k ∈ / J gilt
P
i∈J
Ci =
i∈J
P [Ci ]
232
Kapitel 11. Unabh¨ angigkeit
Damit gilt f¨ ur alle J ∈ H(I) P
i∈J
Ci =
P [Ci ]
i∈J
2
Daher folgt (a) aus (b).
Der folgende Satz kl¨ art den Zusammenhang zwischen der Unabh¨angigkeit von σ–Algebren und der Unabh¨ angigkeit ihrer Erzeuger: 11.2.5 Satz. Sei {Ei }i∈I eine Familie von ∩–stabilen Ereignissystemen. Dann sind ¨ aquivalent : (a) Die Familie {Ei }i∈I ist unabh¨angig. (b) Die Familie {σ(Ei )}i∈I ist unabh¨angig. Beweis. Wegen Lemma 11.2.2 folgt (a) aus (b), und wegen Satz 11.2.1 gen¨ ugt es, den Beweis der umgekehrten Implikation f¨ ur I = {1, . . . , n} zu f¨ uhren. Sei also die Familie {Ei }i∈{1,...,n} unabh¨ angig. F¨ ur k ∈ {1, . . . , n} sei
Ci ∈ σ(Ei ) f¨ ur i ≤ k−1 Dk := C ∈ F C = Ci , J ∈ H({1, . . . , n}), Ci ∈ Ei f¨ ur i ≥ k+1 i∈J\{k}
Wir zeigen durch vollst¨ andige Induktion, dass die Aussage (k)
{σ(E1 ), . . . , σ(Ek ), Ek+1 , . . . , En } ist unabh¨angig.
f¨ ur alle k ∈ {0, 1, . . . , n} gilt: • k = 0: In diesem Fall ist nichts zu zeigen. • k → k + 1: Wir nehmen an, die Aussage sei f¨ ur ein k ∈ {0, 1, . . . , n−1} bereits bewiesen. Dann ist die Familie {σ(E1 ), . . . , σ(Ek ), Ek+1 , Ek+2 , . . . , En } unabh¨ angig. Nach Lemma 11.2.4 ist jede der Familien {σ(E1 ), . . . , σ(Ek ), Ek+2 , . . . , En }
und {Ek+1 , Dk+1}
unabh¨ angig, nach Lemma 11.2.3 ist jede der Familien {σ(E1 ), . . . , σ(Ek ), Ek+2 , . . . , En } und
{σ(Ek+1), Dk+1 }
unabh¨ angig, und nach Lemma 11.2.4 ist die Familie {σ(E1 ), . . . , σ(Ek ), σ(Ek+1 ), Ek+2 , . . . , En } unabh¨ angig. Daher gilt die Aussage (n) und damit ist die Familie {σ(Ei )}i∈I unabh¨angig. 2
11.2 Unabh¨ angige Familien von Ereignissystemen
233
Insbesondere ist die Unabh¨ angigkeit einer Familie von Ereignissen ¨aquivalent mit der Unabh¨ angigkeit der Familie der von den einzelnen Ereignissen erzeugten σ–Algebren; dies ist im wesentlichen nur eine andere Formulierung von Satz 11.1.11 und schließt den Kreis zur Vorbetrachtung am Anfang dieses Abschnittes: 11.2.6 Folgerung. Sei {Ai }i∈I eine Familie von Ereignissen. Dann sind ¨aquivalent : (a) Die Familie {Ai }i∈I ist unabh¨angig. (b) Die Familie {σ(Ai )}i∈I ist unabh¨angig. Wir betrachten nun eine weitere Stabilit¨ atseigenschaft der Unabh¨angigkeit einer Familie von ∩–stabilen Ereignissystemen. Das folgende Blocklemma wird sich als ¨ außerst n¨ utzlich erweisen und l¨ asst sich auf eine beliebige disjunkte Familie von Teilmengen der Indexmenge verallgemeinern; vgl. Aufgabe 11.2.C. 11.2.7 Lemma (Blocklemma). Sei {Ei }i∈I eine unabh¨angige Familie von ∩–stabilen Ereignissystemen. Sind M, N ⊆ I disjunkt, so ist auch die Familie
Ei , σ Ei σ i∈M
i∈N
unabh¨angig. Beweis. F¨ ur L ⊆ I sei
EL := A ∈ F A = Ai mit J ⊆ H(L) und Ai ∈ Ei f¨ ur alle i ∈ J i∈J
Da jedes der Mengensysteme Ei ∩–stabil ist, ist auch EL ∩–stabil. Außerdem gilt Ei σ(EL ) = σ i∈L
Wir betrachten nun A ∈ EM und B ∈ EN sowie Darstellungen Ai A= i∈J
B=
Ai
i∈K
von A und B mit J ∈ H(M ) und K ∈ H(N ) sowie Ai ∈ Ei f¨ ur alle i ∈ M + N . Dann gilt J, K, J +K ∈ H(I) und damit
234
Kapitel 11. Unabh¨ angigkeit
P [A ∩ B] = P
=P
Ai
i∈K
∩
Ai
i∈J
Ai
i∈J+K
=
P [Ai ]
i∈J+K
=
i∈J
=P
P [Ai ] ·
P [Ai ]
i∈K
Ai P
i∈J
Ai
i∈K
= P [A] P [B] Daher ist {EM , EN } unabh¨ angig, und aus Satz 11.2.5 folgt nun, dass auch {σ(EM ), σ(EN )} unabh¨ angig ist. 2 Sei {En }n∈N eine Folge von Ereignissystemen. Dann heißt die σ–Algebra ∞ ∞ E∞ := σ En n=m
m=1
orige terminale σ–Algebra und jedes Ereignis die zu der Folge {En }n∈N geh¨ A ∈ E∞ heißt terminales Ereignis der Folge {En }n∈N . Es wird sich zeigen, dass die terminalen Ereignisse einer Folge von Ereignissystemen bei Konvergenzbetrachtungen von Interesse sind: 11.2.8 Beispiel. Sei {En }n∈N eine Folge von Ereignissystemen und sei E∞ die zuur alle n ∈ N geh¨ orige terminale σ–Algebra. F¨ ur jede Folge {An }n∈N mit An ∈ En f¨ gilt dann lim supn→∞ An ∈ E∞ . S S∞ ur alle In der Tat: F¨ ur alle k ∈ N sei Bk := ∞ n=k An und Dk := σ( n=k En ). F¨ m ∈ N und k ∈ N(m) gilt dann Bk ∈ Dk ⊆ Dm . Da die Folge {Bk }k∈N monoton fallend ist, erhalten wir f¨ ur alle m ∈ N lim sup An = n→∞
∞ [ ∞ \
An =
k=1 n=k
∞ \
∞ \
Bk =
k=1
und damit lim sup An ∈ n→∞
∞ \ m=1
Dm =
∞ \ m=1
σ
Bk ∈ Dm
k=m
∞ [
! En
= E∞
n=m
Damit ist die Behauptung gezeigt.
F¨ ur die terminalen Ereignisse einer unabh¨ angigen Folge von ∩–stabilen Ereignissystemen gilt das Null–Eins–Gesetz von Kolmogorov :
11.2 Unabh¨ angige Familien von Ereignissystemen
235
11.2.9 Satz (Null–Eins–Gesetz; Kolmogorov). Sei {En }n∈N eine unabh¨angige Folge von ∩–stabilen Ereignissystemen und sei E∞ die zugeh¨orige terminale σ–Algebra. Dann gilt f¨ ur alle A, B ∈ E∞ P [A ∩ B] = P [A] P [B] Insbesondere gilt f¨ ur alle A ∈ E∞ entweder P [A] = 0 oder P [A] = 1. Beweis. F¨ ur m ∈ N betrachten wir die σ–Algebren m Cm := σ En Dm := σ
n=1 ∞
En
n=m+1
Nach dem Blocklemma ist {Cm , Dm } unabh¨ angig, und wegen E∞ ⊆ Dm ist nach Lemma 11.2.2 auch {Cm , E∞ } unabh¨ angig. Daraus folgt zun¨ achst, dass sogar
∞ C m , E∞ m=1
unabh¨ angigist. Da die Folge {Cm }m∈N monoton wachsend ist, ist das Men∞ gensystem m=1 Cm eine Algebra und insbesondere ∩–stabil. Nach Lemma 11.2.3 ist dann auch
∞ σ C m , E∞ m=1
∞ unabh¨ angig. Wegen Em ⊆ Cm gilt E∞ ⊆ σ( m=1 Cm ) und nach Lemma 11.2.2 ist dann auch {E∞ , E∞ } unabh¨ angig. Daher gilt f¨ ur alle A, B ∈ E∞ P [A ∩ B] = P [A] P [B] und insbesondere P [A] ∈ {0, 1}.
2
Das Null–Eins–Gesetz von Kolmogorov ist allgemeiner als das Null–Eins– Gesetz von Borel, denn es stellt f¨ ur jedes terminale Ereignis A ∈ E∞ einer unabh¨ angigen Folge von ∩–stabilen Ereignissystemen {En }n∈N sicher, dass P [A] ∈ {0, 1} gilt; dagegen betrifft das Null–Eins–Gesetz von Borel nur das spezielle terminale Ereignis lim supn→∞ An ∈ E∞ einer unabh¨angigen Folge von Ereignissen {An }n∈N , gibt aber zus¨ atzlich hinreichende und notwendige Bedingungen f¨ ur P [lim supn→∞ An ] = 1 und P [lim supn→∞ An ] = 0 an.
236
Kapitel 11. Unabh¨ angigkeit
Aufgaben 11.2.A Sei {Ek }k∈N eine Folge von Ereignissystemen. Dann sind ¨ aquivalent: angig. (a) Die Folge {Fk }k∈N ist unabh¨ angig. (b) F¨ ur alle n ∈ N ist die Familie {Fk }k∈{1,...,n} unabh¨ 11.2.B Sei {Fk }k∈{1,...,n} eine endliche Familie von σ–Algebren mit Fk ⊆ F f¨ ur alle k ∈ {1, . . . , n}. Dann sind ¨ aquivalent: angig. (a) Die Familie {Fk }k∈{1,...,n} ist unabh¨ ur alle k ∈ {1, . . . , n} gilt (b) F¨ ur jede Familie {Ak }k∈{1,...,n} mit Ak ∈ Fk f¨ # " n n \ Y Ak = P [Ak ] P k=1
k=1
11.2.C Blocklemma: Verallgemeinern Sie das Blocklemma auf eine beliebige disjunkte Familie von Teilmengen der Indexmenge. 11.2.D Terminale σ–Algebra: Sei {En }n∈N eine Folge von Ereignissystemen und orige terminale σ–Algebra. Dann gilt sei E∞ die zugeh¨ ! ∞ ∞ \ [ E∞ = σ σ(En ) m=1
n=m
orige 11.2.E Sei {En }n∈N eine Folge von Ereignissystemen und sei E∞ die zugeh¨ ur alle terminale σ–Algebra. F¨ ur jede Folge {An }n∈N ⊆ F mit An ∈ En f¨ n ∈ N gilt dann lim inf n→∞ An ∈ E∞ . 11.2.F Null–Eins–Gesetz (Kolmogorov): Verallgemeinern Sie die Definition der terminalen σ–Algebra und das Null–Eins–Gesetz von Kolmogorov in geeigneter Weise auf beliebige unendliche Familien von Ereignissystemen. 11.2.G Seien D und E Ereignissysteme mit D ⊆ E . Dann sind ¨ aquivalent: (a) {D, E } ist unabh¨ angig. (b) F¨ ur alle D ∈ D gilt P [D] ∈ {0, 1}. 11.2.H Paarweise unabh¨ angige Familien von Ereignissystemen: Eine Faangig, wenn f¨ ur milie von Ereignissystemen {Ei }i∈I heißt paarweise unabh¨ angig ist. Jede unabh¨ angige alle i, j ∈ I mit i = j die Familie {Ei , Ej } unabh¨ Familie von Ereignissystemen ist paarweise unabh¨ angig, aber eine paarweise unabh¨ angige Familie von Ereignissystemen ist nicht notwendigerweise unabh¨ angig.
11.3 Unabh¨ angige Familien von Zufallsgr¨ oßen Schließlich u ¨ bertragen wir den Begriff der Unabh¨angigkeit auf Familien von Zufallsgr¨ oßen. Auch hier beginnen wir mit einer Vorbetrachtung: Ist (Ω , F ) ein Messraum und X : Ω → Ω eine Zufallsgr¨ oße, so stimmt die von X erzeugte σ–Algebra σ(X) mit dem Mengensystem X −1 (F ) u ¨ berein und aufgrund der Messbarkeit
11.3 Unabh¨ angige Familien von Zufallsgr¨ oßen
237
von X gilt X −1 (F ) ⊆ F. Insbesondere ist σ(X) ein Ereignissystem. Damit k¨ onnen die von Zufallsgr¨ oßen erzeugten σ–Algebren verwendet werden, um den Begriff der Unabh¨ angigkeit von Familien von Ereignissystemen auf Familien von Zufallsgr¨oßen zu u ¨ bertragen. Wir betrachten eine Familie {(Ωi , Fi )}i∈I von Messr¨aumen und eine Familie {Xi }i∈I von Zufallsgr¨ oßen Xi : Ω → Ωi . Die Familie {Xi }i∈I heißt unabh¨angig, wenn die Familie {σ(Xi )}i∈I unabh¨ angig ist. 11.3.1 Satz. Sei {Ei }i∈I eine Familie von ∩–stabilen Mengensystemen mit σ(Ei ) = Fi f¨ ur alle i ∈ I. Dann sind ¨aquivalent : (a) Die Familie {Xi }i∈I ist unabh¨angig. (b) Die Familie {Xi−1 (Fi )}i∈I ist unabh¨angig. (c) Die Familie {Xi−1 (Ei )}i∈I ist unabh¨angig. (d) F¨ ur jede Familie {Bi }i∈I mit Bi ∈ Ei f¨ ur alle i ∈ I ist die Familie {Xi−1 (Bi )}i∈I unabh¨angig. ¨ Beweis. Die Aquivalenz von (a) und (b) ist klar. Mit Ei ist auch Xi−1 (Ei ) ∩–stabil und nach Lemma 2.3.2 gilt Xi−1 (Fi ) = Xi−1 (σ(Ei )) = σ(Xi−1 (Ei )). ¨ ¨ Die Aquivalenz von (b) und (c) ergibt sich nun aus Satz 11.2.5. Die Aquivalenz von (c) und (d) ist klar. 2 Der folgende Satz ergibt sich unmittelbar aus der Definition der Unabh¨angigkeit einer Familie von Zufallsgr¨ oßen und Satz 11.2.1: 11.3.2 Satz. Folgende Aussagen sind ¨aquivalent : (a) Die Familie {Xi }i∈I ist unabh¨angig. (b) F¨ ur jede nichtleere Menge K ⊆ I ist {Xi }i∈K unabh¨angig. (c) F¨ ur jede endliche nichtleere Menge K ⊆ I ist {Xi }i∈K unabh¨angig. Der folgende wichtige Satz zeigt, dass f¨ ur eine Familie von Zufallsgr¨oßen die Unabh¨ angigkeit unter messbaren Transformationen erhalten bleibt: 11.3.3 Satz. Sei {Xi }i∈I unabh¨angig. Ist {(Ωi , Fi )}i∈I eine Familie von Messr¨aumen und ist {Ti }i∈I eine Familie von messbaren Abbildungen Ti : Ωi → Ωi , so ist auch die Familie {Ti ◦ Xi }i∈I unabh¨angig. Beweis. F¨ ur alle i ∈ I gilt σ(Ti ◦ Xi ) = (Ti ◦ Xi )−1 (Fi ) = Xi−1 (Ti−1 (Fi )) ⊆ Xi−1 (Fi ) = σ(Xi ) Aus Lemma 11.2.2 folgt nun, dass mit der Familie {Xi }i∈I auch die Familie angig ist. 2 {Ti ◦ Xi }i∈I unabh¨
238
Kapitel 11. Unabh¨ angigkeit
Wir betrachten nun das Produkt (Ω , F ) :=
(Ωi , Fi ) i∈I
der Familie {(Ωi , Fi )}i∈I und die Abbildung X : Ω → Ω mit πi ◦ X = Xi f¨ ur alle i ∈ I. Wir bezeichnen Xi als i–te Koordinate von X. Nach Satz 3.3.2 ist aufgrund der Messbarkeit aller Koordinaten auch X messbar und damit eine Zufallsgr¨ oße. Wir geben zun¨ achst eine Variante des Blocklemmas an, die sich nat¨ urlich ebenfalls auf eine beliebige disjunkte Familie von Teilmengen der Indexmenge verallgemeinern l¨ asst; vgl. Aufgabe 11.3.C. 11.3.4 Lemma (Blocklemma). Sei {Xi }i∈I unabh¨angig. Sind M, N ⊆ I disjunkt, so ist auch die Familie {πM ◦ X, πN ◦ X} unabh¨angig. Beweis. F¨ ur alle L ⊆ I gilt σ(πL ◦ X) = σ({πi ◦ X}i∈L) = σ({Xi }i∈L ) = σ({σ(Xi )}i∈L ) 2
Die Behauptung folgt nun aus Lemma 11.2.7.
Der folgende Satz liefert eine wichtige Charakterisierung der Unabh¨angigkeit der Familie {Xi }i∈I im Bildbereich: 11.3.5 Satz. Folgende Aussagen sind ¨aquivalent : (a) Die Familie {X -i }i∈I ist unabh¨angig. (b) Es gilt PX = i∈I PXi . Beweis. Sei zun¨ achst J ∈ H(I) und sei {Bi }i∈J eine Familie von Ereignissen mit Bi ∈ Fi f¨ ur alle i ∈ J. Dann gilt einerseits P {Xi ∈ Bi } = P {πi ◦ X ∈ Bi } i∈J
i∈J
=P
πJ ◦ X ∈
= PπJ ◦X
i∈J
Bi
i∈J
= (PX )πJ
i∈J
Bi
Bi
11.3 Unabh¨ angige Familien von Zufallsgr¨ oßen
239
und andererseits
P [{Xi ∈ Bi }] =
i∈J
PXi [Bi ]
i∈J
=
PXi
i∈J
Bi
i∈J
Die Familie {Xi }i∈I ist genau dann unabh¨ angig, wenn f¨ ur alle J ∈ H(I) und jede Familie {Bi }i∈J mit Bi ∈ Fi f¨ ur alle i ∈ J die Gleichung {Xi ∈ Bi } = P [{Xi ∈ Bi }] P i∈J
i∈I
gilt. Nach dem vorher gezeigten ist diese Bedingung genau dann erf¨ ullt, wenn ur alle i ∈ J die f¨ ur alle J ∈ H(I) und jede Familie {Bi }i∈J mit Bi ∈ Fi f¨ Gleichung (PX )πJ Bi = PXi Bi i∈J
i∈J
i∈J
gilt. Nach dem Eindeutigkeitssatz ist diese letzte Bedingung genau dann erf¨ ullt, wenn f¨ ur alle J ∈ H(I) (PX )πJ = PXi i∈J
gilt, und nach dem Satz von Andersen/Jessen ist dies genau dann der Fall, wenn PX = PXi i∈I
2
gilt. Wir illustrieren dieses Ergebnis an einem Beispiel:
11.3.6 Beispiele (Urnenmodelle). Wir betrachten eine Urne mit N ≥ 2 Kugeln, von denen K ∈ {1, . . . , N−1} Kugeln rot sind und N−K Kugeln eine beliebige andere Farbe besitzen. Wir nehmen an, dass alle Kugeln bis auf die Farbe gleichartig sind. Wir ziehen n = 2 Kugeln aus der Urne. (1) Ziehen ohne Zur¨ ucklegen: Wir bezeichnen f¨ ur i ∈ {1, 2} mit Xi die Anzahl der roten Kugeln bei der i–ten Ziehung und setzen « „ X1 X := X2 Dann gilt
240
Kapitel 11. Unabh¨ angigkeit »j
„ «ff– 0 0 »j „ «ff– 0 P X= 1 »j „ «ff– 1 P X= 0 »j „ «ff– 1 P X= 1 P
X=
=
(N −K) (N −K −1) N (N −1)
=
(N −K) K N (N −1)
=
K (N −K) N (N −1)
=
K (K −1) N (N −1)
F¨ ur die Koordinaten von X ergibt sich daraus P [{X1 = 0}] = (N −K)/N P [{X1 = 1}] = K/N und P [{X2 = 0}] = (N −K)/N P [{X2 = 1}] = K/N angig. Insbesondere gilt PX = PX1 ⊗ PX2 . Daher sind X1 und X2 nicht unabh¨ (2) Ziehen mit Zur¨ ucklegen: Wir bezeichnen f¨ ur i ∈ {1, 2} mit Yi die Anzahl der roten Kugeln bei der i–ten Ziehung und setzen „ « Y1 Y := Y2 Dann gilt »j Y »j P Y »j P Y »j P Y
P
„ «ff– 0 0 „ «ff– 0 = 1 „ «ff– 1 = 0 „ «ff– 1 = 1
=
=
(N −K)2 N2
=
(N −K) K N2
=
K (N −K) N2
=
K2 N2
F¨ ur die Koordinaten von Y folgt daraus P [{Y1 = 0}] = (N −K)/N P [{Y1 = 1}] = K/N und P [{Y2 = 0}] = (N −K)/N P [{Y2 = 1}] = K/N angig. Insbesondere gilt PY = PY1 ⊗ PY2 . Daher sind Y1 und Y2 unabh¨ Es gilt also PX1 = PY1 und PX2 = PY2 , aber PX = PY .
11.4 Produkte von Wahrscheinlichkeitsr¨ aumen
241
Aufgaben 11.3.A Sei {Xk }k∈N eine Folge von Zufallsgr¨ oßen. Dann sind ¨ aquivalent: angig. (a) Die Folge {Xk }k∈N ist unabh¨ angig. (b) F¨ ur alle n ∈ N ist die Familie {Xk }k∈{1,...,n} unabh¨ 11.3.B Sei {(Ωk , Fk )}k∈{1,...,n} eine endliche Familie von Messr¨ aumen und sei oßen Xk : Ω → Ωk . Dann sind {Xk }k∈{1,...,n} eine Familie von Zufallsgr¨ aquivalent: ¨ angig. (a) Die Familie {Xk }k∈{1,...,n} ist unabh¨ ur alle k ∈ {1, . . . , n} gilt (b) F¨ ur jede Familie {Bk }k∈{1,...,n} mit Bk ∈ Fk f¨ " # \ Y P {Xk ∈ Bk } = P [{Xk ∈ Bk }] k∈{1,...,n}
k∈{1,...,n}
11.3.C Blocklemma: Verallgemeinern Sie das Blocklemma auf eine beliebige disjunkte Familie von Teilmengen der Indexmenge. 11.3.D Paarweise unabh¨ angige Familien von Zufallsgr¨ oßen: Eine Familie angig, wenn f¨ ur alle i, j ∈ I von Zufallsgr¨ oßen {Xi }i∈I heißt paarweise unabh¨ angig ist. Jede unabh¨ angige Familie mit i = j die Familie {Xi , Xj } unabh¨ von Zufallsgr¨ oßen ist paarweise unabh¨ angig, aber eine paarweise unabh¨ angige Familie von Zufallsgr¨ oßen ist nicht notwendigerweise unabh¨ angig.
11.4 Produkte von Wahrscheinlichkeitsr¨ aumen Wir kl¨ aren abschließend das Problem der Existenz eines Wahrscheinlichkeitsraumes mit einer m¨ oglicherweise u ahlbaren Familie von unabh¨angigen ¨ berabz¨ Zufallsgr¨ oßen. Zu diesem Zweck betrachten wir eine Familie von Wahrscheinlichkeitsr¨aumen {(Ωi , Fi , Qi )}i∈I und ihr Produkt (Ωi , Fi , Qi ) (Ω, F , Q) := i∈I
Der folgende Satz zeigt, dass der Produktraum reich an unabh¨angigen Familien von Ereignissen ist: 11.4.1 Satz. Die Familie {πi−1 (Fi )}i∈I ist unabh¨angig in (Ω, F , Q). ur alle Beweis. Wir betrachten eine Familie {Ai }i∈I ⊆ F mit Ai ∈ πi−1 (Fi ) f¨ i ∈ I und zeigen, dass die Familie {Ai }i∈I unabh¨angig ist. Sei J ⊆ H(I). Dann gibt es eine Familie {Bi }i∈J mit Ai = πi−1 (Bi ) f¨ ur alle i ∈ J und es gilt −1 −1 −1 −1 Ai = πi (Bi ) = πJ πi,J (Bi ) = πJ Bi i∈J
i∈J
i∈J
i∈J
242
Kapitel 11. Unabh¨ angigkeit
und aus den Eigenschaften der Produktmaße Q und QJ folgt nun Ai = Q πJ−1 Bi Q i∈J
= Q πJ = QJ =
i∈J
Bi
i∈J
Bi
i∈J
Qi [Bi ]
i∈J
=
Qπi [Bi ]
i∈J
=
Q[πi−1 (Bi )]
i∈J
=
Q[Ai ]
i∈J
Daher ist die Familie {Ai }i∈I unabh¨ angig.
2
Aus dem Satz ergibt sich nun sofort die Existenz eines Wahrscheinlichkeitsraumes mit einer unabh¨ angigen Familie von reellen Zufallsvariablen, deren Verteilungen beliebig gew¨ ahlt werden k¨ onnen: 11.4.2 Folgerung. Sei {Qi }i∈I eine Familie von Wahrscheinlichkeitsmaßen auf B(R). Dann gibt es einen Wahrscheinlichkeitsraum (Ω, F , P ) und eine unabh¨angige Familie {Xi }i∈I von reellen Zufallsvariablen auf (Ω, F , P ) mit PXi = Qi f¨ ur alle i ∈ I. Beweis. Sei
(Ω, F , P ) :=
R , I
B(R),
i∈I
Qi
i∈I
und f¨ ur alle i ∈ I sei Xi := πi Dann ist (Ω, F , P ) ein Wahrscheinlichkeitsraum und {Xi }i∈I ist eine Familie von reellen Zufallsvariablen auf (Ω, F , P ). Nach Satz 11.4.1 ist die Familie {Xi }i∈I unabh¨ angig. 2 Im letzten Ergebnis ist die Annahme, dass alle Wahrscheinlichkeitsmaße auf der Borelschen σ–Algebra definiert sind, unwesentlich; vgl. Aufgabe 11.4.B.
11.4 Produkte von Wahrscheinlichkeitsr¨ aumen
243
Aufgaben 11.4.A Vereinfachen Sie den Beweis von Satz 11.4.1 f¨ ur den Fall von zwei Wahrscheinlichkeitsr¨ aumen. 11.4.B Sei {(Ωi , Fi , Qi )}i∈I eine Familie von Wahrscheinlichkeitsr¨ aumen. Dann gibt es einen Wahrscheinlichkeitsraum (Ω, F, P ) und eine unabh¨ angige Faoßen Xi : Ω → Ωi mit milie {Xi }i∈I von Zufallsgr¨ PXi = Qi f¨ ur alle i ∈ I.
12 Univariate Verteilungen
Univariate Verteilungen sind Wahrscheinlichkeitsmaße auf B(R). Sie sind von Interesse, weil f¨ ur jede reelle Zufallsvariable X : Ω → R das Bildmaß PX von P unter X eine univariate Verteilung ist. In diesem Kapitel untersuchen wir univariate Verteilungen. Wir beginnen mit der Charakterisierung univariater Verteilungen durch Verteilungsfunktionen und einer Reihe von Beispielen f¨ ur diskrete, absolutstetige oder stetigsingul¨are univariate Verteilungen (Abschnitt 12.1). Sodann untersuchen wir Transformationen univariater Verteilungen (Abschnitt 12.2) sowie die Eigenschaften ihres Erwartungswertes und ihrer h¨ oheren Momente (Abschnitt 12.3) und die ihrer Varianz und ihrer h¨ oheren zentralen Momente (Abschnitt 12.4). Dabei werden viele der im ersten Abschnitt eingef¨ uhrten univariaten Verteilungen auch im Hinblick auf die Berechnung von Transformationen oder Momenten oder zentralen Momenten diskutiert.
12.1 Verteilungen und Verteilungsfunktionen Ein Wahrscheinlichkeitsmaß Q : B(R) → [0, 1] heißt Verteilung auf B(R) oder univariate Verteilung. Wir haben bereits gesehen, dass univariate Verteilungen insbesondere als Bildmaße von reellen Zufallsvariablen auftreten: Ist X : Ω → R eine reelle Zufallsvariable, so ist das Bildmaß PX von P unter X eine univariate Verteilung. Andererseits kann jede univariate Verteilung als Verteilung einer reellen Zufallsvariablen auf einem geeigneten Wahrscheinlichkeitsraum dargestellt werden: Ist Q : B(R) → [0, 1] eine Verteilung auf, so ist (Ω, F , P ) := (R, B(R), Q) ein Wahrscheinlichkeitsraum und die Abbildung X : Ω → R mit X(ω) := ω ist eine reelle Zufallsvariable mit PX = P und damit Q = PX . In der Tat ist es sogar so, dass zahlreiche Eigenschaften von Zufallsvariablen, die in der Wahrscheinlichkeitstheorie studiert werden, in Wirklichkeit nicht
246
Kapitel 12. Univariate Verteilungen
Eigenschaften der Zufallsvariablen, sondern Eigenschaften ihrer Verteilungen sind. Vor der Begr¨ undung der Wahrscheinlichkeitstheorie durch die Maß– und Integrationstheorie stand der Begriff der Verteilung naturgem¨aß nicht zur Verf¨ ugung; statt dessen stand der von der Analysis gepr¨agte Begriff der Verteilungsfunktion im Vordergrund des Interesses: Eine Funktion F : R → [0, 1] heißt Verteilungsfunktion auf R oder univariate Verteilungsfunktion , wenn sie die folgenden Eigenschaften besitzt: (i) F ist monoton wachsend. (ii) F ist rechtsseitig stetig. (iii) Es gilt limx→−∞ F (x) = 0 und limx→∞ F (x) = 1. (In Teilen der Literatur wird in der Definition einer Verteilungsfunktion anstelle der rechtsseitigen Stetigkeit die linksseitige Stetigkeit verlangt.) Der folgende Satz beschreibt den Zusammenhang zwischen Verteilungen und Verteilungsfunktionen: 12.1.1 Satz (Korrespondenzsatz). (1) Zu jeder Verteilung Q : B(R) → [0, 1] gibt es genau eine Verteilungsfunkur alle x ∈ R. tion FQ : R → [0, 1] mit FQ (x) = Q[(−∞, x]] f¨ (2) Zu jeder Verteilungsfunktion F : R → [0, 1] gibt es genau eine Verteilung ur alle x ∈ R. QF : B(R) → [0, 1] mit QF [(−∞, x]] = F (x) f¨ (3) Es gilt Q(FQ ) = Q und F(QF ) = F . Beweis. Wir betrachten zun¨ achst eine Verteilung Q : B(R) → [0, 1] und zeigen, dass die Funktion FQ : R → R mit FQ (x) := Q[(−∞, x]] eine Verteilungsfunktion ist: (i) Da jede Verteilung monoton ist, gilt f¨ ur alle x, y ∈ R mit x ≤ y FQ (x) = Q[(−∞, x]] ≤ Q[(−∞, y]] = FQ (y) (ii) Da jede Verteilung stetig von oben ist, gilt f¨ ur alle x ∈ R inf FQ (x + n1 ) = inf Q[(−∞, x + n1 ]] n∈N 1 =Q (−∞, x + n ]
n∈N
n∈N
= Q[(−∞, x]] = FQ (x) und aus (i) folgt nun limn→∞ FQ (x+ n1 ) = FQ (x).
12.1 Verteilungen und Verteilungsfunktionen
247
(iii) Da jede Verteilung stetig von oben und stetig von unten ist, gilt inf FQ (−n) = inf Q[(−∞, −n]] = Q (−∞, −n] = Q[∅] = 0 n∈N
n∈N
n∈N
und
sup FQ (n) = sup Q[(−∞, n]] = Q n∈N
n∈N
(−∞, n] = Q[R] = 1
n∈N
und aus (i) folgt nun limn→∞ FQ (−n) = 0 und limn→∞ FQ (n) = 1. ur alle x ∈ R. Daher ist FQ eine Verteilungsfunktion mit FQ (x) = Q[(−∞, x]] f¨ Ist andererseits F eine beliebige Verteilungsfunktion mit F (x) = Q[(−∞, x]] f¨ ur alle x ∈ R, so gilt offenbar F = FQ . Damit ist (1) gezeigt. Wir betrachten nun eine Verteilungsfunktion F : R → [0, 1] und zeigen, dass die Mengenfunktion QF : J (R) → [0, 1] mit QF [(a, b]] = F (b) − F (a) ein σ–endliches Maß ist. Wir f¨ uhren den Beweis in mehreren Schritten: Wir zeigen zun¨ achst, dass QF ein Inhalt ist. (i) F¨ ur alle c ∈ R gilt (c, c] = ∅ und damit QF [∅] = QF [(c, c]] = F (c) − F (c) = 0 (ii) Sei {(ak , bk ]}k∈{1,...,n} ⊆ J (R) eine endliche Familie mit n
(ak , bk ] = (a, b]
k=1
Dabei k¨ onnen wir ohne Beschr¨ ankung der Allgemeinheit annehmen, dass a = a1 ≤ b1 = a2 ≤ · · · ≤ bn = b gilt, und wir erhalten n QF (ak , bk ] = QF [(a, b]] k=1
= F (b) − F (a) = F (bn ) − F (a1 ) n F (bk ) − F (ak ) = =
k=1 n k=1
Daher ist QF additiv. Damit ist gezeigt, dass QF ein Inhalt ist.
QF [(ak , bk ]]
248
Kapitel 12. Univariate Verteilungen
Wir zeigen nun, dass QF sogar ein Maß ist. Da J (R) ein Halbring und QF ein Inhalt ist, gen¨ ugt es nach Lemma 4.2.12 zu zeigen, dass QF σ–subadditiv ist. Sei (a, b] ∈ J (R) und sei {(ak , bk ]}k∈N ⊆ J (R) eine Folge mit ∞
(ak , bk ] = (a, b]
k=1
(Hier k¨ onnen wir nicht annehmen, dass die Folgen {ak }k∈N und {bk }k∈N monoton wachsend sind.) Da F rechtsseitig stetig ist, gibt es zu jedem ε > 0 ein δ > 0 und eine Folge {δk }k∈N mit δk > 0 derart, dass a + δ ≤ b und F (a + δ) ≤ F (a) + ε und f¨ ur alle k ∈ N F (bk + δk ) ≤ F (bk ) + ε/2k+1 gilt. Dann gilt aber [a + δ, b] ⊆ (a, b] =
∞
(ak , bk ] ⊆
k=1
(ak , bk + δk )
k∈N
Da einerseits das Intervall [a+δ, b] abgeschlossen und beschr¨ankt und damit nach dem Satz von Heine/Borel kompakt ist und andererseits jedes der Intervalle (ak , bk +δk ) offen ist, gibt es eine endliche Menge K ⊆ N mit [a + δ, b] ⊆ (ak , bk + δk ) k∈K
Daraus folgt (a + δ, b] ⊆ [a + δ, b] ⊆
(ak , bk + δk ) ⊆
k∈K
(ak , bk + δk ]
k∈K
Da QF ein Inhalt und damit subadditiv ist, ergibt sich nun QF [(a, b]] − ε = F (b) − F (a) − ε ≤ F (b) − F (a+δ) = QF [(a + δ, b]] (ak , bk +δk ] ≤ QF ≤
k∈K
=
k∈K
QF [(ak , bk +δk ]]
F (bk +δk ) − F (ak )
k∈K
12.1 Verteilungen und Verteilungsfunktionen
≤ ≤ =
249
F (bk ) + ε/2k+1 − F (ak ) k∈K ∞ k=1 ∞
F (bk ) − F (ak ) + ε
QF [(ak , bk ]] + ε
k=1
Da ε ∈ (0, ∞) beliebig war, erhalten wir QF [(a, b]] ≤
∞
QF [(ak , bk ]]
k=1
Daher ist der Inhalt QF σ–subadditiv und damit ein Maß. Wegen R = n∈N (−n, n] und QF [(−n, n]] = F (n) − F (−n) < ∞ ist das Maß QF σ–endlich. Daher besitzt QF nach dem Satz von Caratheodory eine eindeutige Fortsetzung zu einem Maß B(R) → [0, ∞], das wir wieder mit QF bezeichnen. Wegen QF [R] = lim QF [(−n, n]] n→∞
= lim (F (n)−F (−n)) n→∞
= lim F (n) − lim F (−n) n→∞
n→∞
=1 ist QF sogar ein Wahrscheinlichkeitsmaß. Daher ist QF eine Verteilung mit QF [(−∞, x]] = lim QF [(−n, x]] n→∞
= lim (F (x)−F (−n)) n→∞
= F (x) − lim F (−n) n→∞
= F (x) f¨ ur alle x ∈ R. Ist andererseits Q : B(R) → [0, 1] eine beliebige Verteilung mit Q[(−∞, x]] = F (x) f¨ ur alle x ∈ R, so erh¨ alt man f¨ ur alle a, b ∈ R mit a ≤ b Q[(a, b]] = Q[(−∞, b]] − Q[(−∞, a]] = F (b) − F (a) = QF [(−∞, b]] − QF [(−∞, a]] = QF [(a, b]] Aus dem Eindeutigkeitssatz folgt nun Q = QF . Damit ist (2) gezeigt, und (3) ist dann klar.
2
250
Kapitel 12. Univariate Verteilungen
Wir stellen nun einige Eigenschaften von Verteilungsfunktionen zusammen: 12.1.2 Lemma. Sei Q : B(R) → [0, 1] eine Verteilung und sei F : R → [0, 1] die zugeh¨orige Verteilungsfunktion. Dann gilt : (1) F besitzt h¨ochstens abz¨ahlbar viele Sprungstellen. (2) F¨ ur alle x ∈ R existiert der Grenzwert limε→0 F (x−ε) und es gilt lim F (x−ε) = Q[(−∞, x)]
ε→0
Beweis. Aus der Monotonie von F folgt (1). Da jede Verteilung stetig von unten ist, gilt sup F (x− n1 ) = sup Q[(−∞, x− n1 ]] = Q (−∞, x− n1 ] = Q[(−∞, x)] n∈N
n∈N
n∈N
und aus der Monotonie von F folgt lim F (x− n1 ) = Q[(−∞, x)]
n→∞
2
Daher gilt (2). Sei F : R → [0, 1] eine Verteilungsfunktion. Dann setzen wir f¨ ur alle x ∈ R F (x−) := lim F (x−ε) 0<ε→0
Wir erhalten das folgende Lemma: 12.1.3 Lemma. Sei Q : B(R) → [0, 1] eine Verteilung und sei F : R → [0, 1] die zugeh¨orige Verteilungsfunktion. Dann gilt f¨ ur alle x ∈ R F (x) − F (x−) = Q[{x}] Insbesondere ist F genau dann stetig, wenn f¨ ur alle x ∈ R Q[{x}] = 0 gilt. Beweis. Nach Lemma 12.1.2 gilt f¨ ur alle x ∈ R F (x) − F (x−) = Q[(−∞, x]] − Q[(−∞, x)] = Q[{x}] Damit ist die erste Behauptung gezeigt. Da F rechtsseitig stetig ist, ist F genau dann stetig, wenn f¨ ur alle x ∈ R F (x−) = F (x) gilt. Damit ist auch die zweite Behauptung gezeigt.
2
12.1 Verteilungen und Verteilungsfunktionen
251
Da Verteilungen Mengenfunktionen und Verteilungsfunktionen Punktfunktionen sind, k¨ onnte der Eindruck entstehen, dass Verteilungsfunktionen leichter zu handhaben sind als Verteilungen. Dieser Eindruck tr¨ ugt aus zwei Gr¨ unden: – Verteilungsfunktionen lassen sich nur in seltenen F¨allen explizit angeben. – Selbst dann, wenn eine Verteilungsfunktion explizit angegeben werden kann, ist es oft einfacher, sie durch Summen oder Integrale darzustellen. In diesem Fall l¨ asst sich aber aufgrund des Korrespondenzsatzes auch die Verteilung selbst durch Summen oder Integrale darstellen. In der maßtheoretischen Wahrscheinlichkeitstheorie sind Verteilungsfunktionen von untergeordneter Bedeutung. Wir werden sie erst wieder gegen Ende dieses Abschnitts zur Konstruktion der Cantor–Verteilung und als Hilfsmittel zur Klassifikation von Verteilungen benutzen. Von besonderem Interesse sind Verteilungen Q : B(R) → [0, 1], die absolutstetig bez¨ uglich einem σ–endlichen Maß μ : B(R) → [0, ∞] sind, denn f¨ ur jede Verteilung Q mit Q μ gibt es nach dem Satz von Radon/Nikodym eine μ–fast u ¨ berall eindeutig bestimmte messbare Funktion f : R → R+ mit ( Q = f dμ In diesem Fall ist die Berechnung von Q mit Hilfe von f und μ relativ einfach; dies gilt insbesondere dann, wenn μ ein lokales Z¨ahlmaß oder das Lebesgue– Maß ist. Diskrete Verteilungen Eine Verteilung Q : B(R) → [0, 1] heißt diskret , wenn es eine abz¨ahlbare Menge C ⊆ R gibt mit Q[C] = 1 In diesem Fall gilt f¨ ur alle B ∈ B(R) Q[B] = Q[B ∩ C] =
Q[{x}]
x∈B∩C
und insbesondere Q[R \ C] = 0; da die Menge C abz¨ahlbar ist, gilt außerdem λ[C] = 0 und damit Q ⊥ λ. Eine Funktion f : R → R+ heißt Z¨ahldichte, wenn es eine abz¨ahlbare Menge C ⊆ R gibt mit f (x) = 0 f¨ ur alle x ∈ R \ C und f (x) = 1 x∈C
Jede Z¨ ahldichte ist messbar, denn f¨ ur jede abz¨ahlbare Menge B ⊆ R gilt B ∈ B(R).
252
Kapitel 12. Univariate Verteilungen
Jede diskrete Verteilung l¨ asst sich durch eine Z¨ahldichte erzeugen, und jede Z¨ ahldichte erzeugt eine diskrete Verteilung: 12.1.4 Lemma. (1) Sei Q : B(R) → [0, 1] eine diskrete Verteilung. Dann ist die Funktion f : R → R+ mit f (x) := Q[{x}] eine Z¨ahldichte und f¨ ur alle B ∈ B(R) gilt f (x) Q[B] = x∈B
(2) Sei f : R → R+ eine Z¨ahldichte. Dann ist die Mengenfunktion Q : B(R) → [0, 1] mit Q[B] := f (x) x∈B
eine Verteilung und f¨ ur alle x ∈ R gilt Q[{x}] = f (x) Der Begriff der Z¨ ahldichte weckt Assoziationen im Zusammenhang mit dem Satz von Radon/Nikodym, die es zu kl¨ aren gilt. Sei C ⊆ R abz¨ahlbar. – Das lokale Z¨ ahlmaß ζ C bez¨ uglich C ist σ–endlich und es gilt ( ζ C = χC dζ –
Ist Q eine diskrete Verteilung mit Q[C] = 1 und ist f eine Z¨ahldichte mit Q[B] = f (x) x∈B
so gilt
( Q=
–
( f dζ C =
f χC dζ
und damit ist f eine ζ C –Dichte von Q und f χC ist eine ζ–Dichte von Q. Ist Q eine diskrete Verteilung mit Q[C] = 1 und ist f : R → R+ eine messbare Funktion mit ( Q = f dζ C
so ist f eine ζ C –Dichte von Q aber nicht notwendigerweise eine Z¨ahldichte. Der Grund liegt darin, dass die ζ C –Dichte von Q nur ζ C –fast u ¨ berall eindeutig bestimmt ist und die Menge R \ C eine ζ C –Nullmenge ist, sodass f auf der Menge R \ C beliebige Werte annehmen kann. Die Darstellung einer diskreten Verteilung als Integral einer Z¨ahldichte bez¨ uglich einem lokalen Z¨ ahlmaß wird sich gelegentlich als n¨ utzlich erweisen.
12.1 Verteilungen und Verteilungsfunktionen
253
Das folgende Lemma erweist sich als n¨ utzlich f¨ ur den Nachweis, dass eine Funktion eine Z¨ ahldichte ist: 12.1.5 Lemma. Sei g : R → R+ eine messbare Funktion und sei C ⊆ R eine abz¨ahlbare Menge mit g(z) < ∞ 0< z∈C
Dann ist die Funktion f : R → R+ mit f (x) :=
g(x) χC (x) z∈C g(z)
eine Z¨ahldichte. Die einfachste diskrete univariate Verteilung ist die Dirac–Verteilung: 12.1.6 Beispiel (Dirac–Verteilung). F¨ ur z ∈ R ist die Funktion f : R → R+ mit j 1 falls x = z f (x) := 0 sonst eine Z¨ ahldichte. Die zugeh¨ orige Verteilung heißt Dirac–Verteilung und wird mit δ z bezeichnet. F¨ ur die Verteilung Q := δ z gilt j 0 falls z ∈ /B Q[B] = 1 falls z ∈ B und f¨ ur die zugeh¨ orige Verteilungsfunktion F gilt j 0 falls x < z F (x) = 1 falls x ≥ z Die Funktion F wird auch als Heaviside–Funktion bezeichnet.
Wir betrachten nun einige parametrische Klassen von diskreten univariaten Verteilungen Q mit Q[N0 ] = 1: 12.1.7 Beispiele (Diskrete Verteilungen). (1) Hypergeometrische Verteilung: F¨ ur n, N, K ∈ N mit max{n, K +1} ≤ N ist die Funktion f : R → R+ mit ! ! 8 > K N − K > > > > n−x > x > < ! falls x ∈ {0, 1, . . . , n} f (x) := N > > > n > > > > : 0 sonst eine Z¨ ahldichte. Die zugeh¨ orige Verteilung heißt hypergeometrische Verteilung und wird mit H(n, N, K) bezeichnet.
254
Kapitel 12. Univariate Verteilungen
Modell : Eine Urne enthalte N Kugeln unterschiedlicher Farben, von denen eine Farbe ausgezeichnet ist und die anderen Farben nicht ausgezeichnet sind. Es bezeichne K die Anzahl der Kugeln der ausgezeichneten Farbe in der Urne und X die zuf¨ allige Anzahl der Kugeln dieser Farbe in einer Stichprobe vom Umfang n beim Ziehen ohne Zur¨ ucklegen. Dann gilt PX = H(n, N, K). (2) Binomial–Verteilung: F¨ ur n ∈ N und ϑ ∈ (0, 1) ist die Funktion f : R → R+ mit ! 8 > n x > < ϑ (1−ϑ)n−x falls x ∈ {0, 1, . . . , n} x f (x) := > > : 0 sonst eine Z¨ ahldichte. Die zugeh¨ orige Verteilung heißt Binomial–Verteilung und wird mit B(n, ϑ) bezeichnet. Modell : Eine Urne enthalte Kugeln unterschiedlicher Farben, von denen eine Farbe ausgezeichnet ist und die anderen Farben nicht ausgezeichnet sind. Es bezeichne ϑ den Anteil der Kugeln der ausgezeichneten Farbe in der Urne und X die zuf¨ allige Anzahl der Kugeln dieser Farbe in einer Stichprobe vom Umfang n beim Ziehen mit Zur¨ ucklegen. Dann gilt PX = B(n, ϑ). Spezialfall : Die Binomial–Verteilung B(1, ϑ) wird auch als Bernoulli–Verteilung oder als Boole–Verteilung und mit B(ϑ) bezeichnet. (3) Poisson–Verteilung: F¨ ur α ∈ (0, ∞) ist die Funktion f : R → R+ mit 8 x < e−α α falls x ∈ N0 x! f (x) := : 0 sonst eine Z¨ ahldichte. In der Tat: Es gilt ∞ X αk = eα k! k=0
und damit ∞ X
f (k) = 1
k=0
Die zugeh¨ orige Verteilung heißt Poisson–Verteilung und wird mit P(α) bezeichnet. (4) Negativbinomial–Verteilung: F¨ ur α ∈ (0, ∞) und ϑ ∈ (0, 1) ist die Funktion f : R → R+ mit ! 8 > α+x−1 > < (1−ϑ)α ϑx falls x ∈ N0 x f (x) := > > : 0 sonst eine Z¨ ahldichte. Die zugeh¨ orige Verteilung heißt Negativbinomial–Verteilung und wird mit NB(α, ϑ) bezeichnet. Spezialfall : Die Negativbinomial–Verteilung NB(n, ϑ) mit n ∈ N wird auch als Pascal–Verteilung bezeichnet.
12.1 Verteilungen und Verteilungsfunktionen
255
(5) Geometrische Verteilung: F¨ ur n ∈ N und ϑ ∈ (0, 1) ist die Funktion f : R → R+ mit ! 8 > x−1 > < (1−ϑ)x−n ϑn falls x ∈ N(n) n−1 f (x) := > > : 0 sonst eine Z¨ ahldichte. Die zugeh¨ orige Verteilung heißt geometrische Verteilung und wird mit Geo(n, ϑ) bezeichnet. Modell : Eine Urne enthalte Kugeln unterschiedlicher Farben, von denen eine Farbe ausgezeichnet ist und die anderen Farben nicht ausgezeichnet sind. Es bezeichne ϑ den Anteil der Kugeln der ausgezeichneten Farbe in der Urne und X die zuf¨ allige Anzahl der Ziehungen beim Ziehen mit Zur¨ ucklegen, bis genau n Kugeln der ausgezeichneten Farbe gezogen sind. Dann gilt PX = Geo(n, ϑ).
Absolutstetige Verteilungen Eine Verteilung Q : B(R) → [0, 1] heißt absolutstetig, wenn sie absolutstetig bez¨ uglich dem Lebesgue–Maß λ ist, also Q λ gilt. 12.1.8 Lemma. Sei Q : B(R) → [0, 1] eine absolutstetige Verteilung und sei F : R → [0, 1] die zugeh¨orige Verteilungsfunktion. Dann gilt Q[{x}] = 0 f¨ ur alle x ∈ R und F ist stetig. Beweis. F¨ ur alle x ∈ R gilt λ[{x}] = 0 und aus Q λ folgt nun Q[{x}] = 0. Damit ist die erste Behauptung gezeigt, und die zweite Behauptung folgt aus Lemma 12.1.3. 2 Nach dem Satz von Radon/Nikodym ist eine Verteilung Q : B(R) → [0, 1] genau dann absolutstetig, wenn es eine messbare Funktion f : R → R+ gibt mit ( Q = f dλ In diesem Fall ist f λ–fast u ¨ berall eindeutig bestimmt und jede solche Funktion f heißt Lebesgue–Dichte von Q. Das folgende Lemma charakterisiert die positiven messbaren Funktionen, die eine Lebesgue–Dichte einer absolutstetigen Verteilung sind: 12.1.9 Lemma. F¨ ur eine messbare Funktion f : R → R+ sind folgende Aussagen ¨aquivalent : (a) f ist Lebesgue–Dichte einer absolutstetigen Verteilung. ) (b) Es gilt R f (x) dλ(x) = 1.
256
Kapitel 12. Univariate Verteilungen
Aus Lemma 12.1.9 ergibt sich ein Analogon zu Lemma 12.1.5: 12.1.10 Folgerung. Sei g : R → R+ eine messbare Funktion mit ( 0< g(x) dλ(x) < ∞ R
Dann ist die Funktion f : R → R+ mit f (x) := )
g(x) g(z) dλ(z) R
eine Lebesgue–Dichte einer absolutstetigen Verteilung. Im Gegensatz zu Z¨ ahldichten gilt f¨ ur eine Lebesgue–Dichte f nicht notwendigerweise f (x) ≤ 1 f¨ ur alle x ∈ R: 12.1.11 Beispiel. Die Verteilung Q : B(R) → [0, 1] mit Q[B] := 2 λ[B ∩ (0, 1/2)] R ist absolutstetig und es gilt Q = f dλ mit f = 2χ(0,1/2) .
Das Beispiel zeigt, dass die Werte einer Lebesgue–Dichte einer absolutstetigen Verteilung nicht als Wahrscheinlichkeiten interpretiert werden k¨onnen. Wir betrachten nun einige parametrische Klassen von absolutstetigen univariaten Verteilungen: 12.1.12 Beispiele (Absolutstetige Verteilungen). (1) Uniforme Verteilung: F¨ ur a, b ∈ R mit a < b ist die Funktion f : R → R+ mit f (x) :=
1 χ(a,b) (x) b−a
eine Lebesgue–Dichte. Die zugeh¨ orige Verteilung heißt uniforme Verteilung auf (a, b) und wird mit U(a, b) bezeichnet. F¨ ur die zugeh¨ orige Verteilungsfunktion gilt 8 0 falls x
> > < x−a falls a ≤ x < b F (x) = b−a > > > : 1 falls b ≤ x (2) Beta–Verteilung: F¨ ur α, β ∈ (0, ∞) ist die Funktion f : R → R+ mit f (x) :=
1 xα−1 (1−x)β−1 χ(0,1) (x) B(α, β)
eine Lebesgue–Dichte. Die zugeh¨ orige Verteilung heißt Beta–Verteilung und wird mit Be(α, β) bezeichnet. Spezialfall : Es gilt Be(1, 1) = U(0, 1).
12.1 Verteilungen und Verteilungsfunktionen
257
(3) Gamma–Verteilung: F¨ ur α, γ ∈ (0, ∞) ist die Funktion f : R → R+ mit f (x) :=
αγ −αx γ−1 x χ(0,∞) (x) e Γ(γ)
eine Lebesgue–Dichte. Die zugeh¨ orige Verteilung heißt Gamma–Verteilung und wird mit Ga(α, γ) bezeichnet. Spezialf¨ alle: – Die Gamma–Verteilung Ga(α, m) mit m ∈ N wird auch als Erlang–Verteilung bezeichnet. F¨ ur die zugeh¨ orige Verteilungsfunktion gilt 8 falls x ≤ 0 > <0 m−1 X (αx)k F (x) = −αx falls x > 0 > :1 − e k! k=0
–
Die Gamma–Verteilung Ga(α, 1) wird auch als Exponential–Verteilung und mit Exp(α) bezeichnet. F¨ ur die zugeh¨ orige Verteilungsfunktion gilt j F (x) =
0 1 − e−αx
falls x ≤ 0 falls x > 0
Die Gamma–Verteilung Ga(1/2, n/2) mit n ∈ N wird auch als χ2 –Verteilung und mit χ2n bezeichnet. Der Parameter n heißt Anzahl der Freiheitsgrade. Zum Nachweis, dass f tats¨ achlich eine Lebesgue–Dichte ist, betrachten wir die lineare Abbildung T : R → R mit T (x) := αx. Nach Satz 6.3.1 gilt λT = α−1 λ und aus der Substitutionsregel und der Definition der Gamma–Funktion erhalten wir nun Z e−αx xγ−1 χ(0,∞) (x) dλ(x) R Z 1 = γ−1 e−αx (αx)γ−1 χ(0,∞) (αx) dλ(x) α R Z 1 = γ−1 e−T (x) (T (x))γ−1 χ(0,∞) (T (x)) dλ(x) α T −1 (R) Z 1 e−z z γ−1 χ(0,∞) (z) dλT (z) = γ−1 α R Z 1 1 e−z z γ−1 χ(0,∞) (z) dλ(z) = γ−1 α α Z R 1 = γ e−z z γ−1 dλ(z) α (0,∞) –
=
Γ(γ) αγ
(4) Normal–Verteilung: F¨ ur μ ∈ R und σ ∈ (0, ∞) ist die Funktion f : R → R+ mit ` ´ 1 x−μ 2 1 e− 2 σ f (x) := √ 2π σ
258
Kapitel 12. Univariate Verteilungen eine Lebesgue–Dichte. Die zugeh¨ orige Verteilung heißt Normal–Verteilung oder Gauß–Verteilung und wird mit N(μ, σ 2 ) bezeichnet. (Man beachte, dass hier σ 2 und nicht σ als Parameter verwendet wird; vgl. Beispiel 13.1.6(3).) Spezialfall : Die Normal–Verteilung N(0, 1) wird als Standardnormal–Verteilung bezeichnet. Zum Nachweis, dass f tats¨ achlich eine Lebesgue–Dichte ist, betrachten wir die affine Abbildung T : R → R mit T (x) :=
x−μ √ σ 2
√ Nach Satz 6.3.1 gilt λT = (σ 2)λ und aus der Substitutionsregel erhalten wir nun Z Z ` ´ 1 x−μ 2 2 e− 2 σ dλ(x) = e−(T (x)) dλ(x) T −1 (R)
R
Z =
ZR
2
e−z dλT (z)
2 √ e−z σ 2 dλ(z) R √ Z 2 = σ 2 e−z dλ(z)
=
R
√ √ =σ 2 π √ = 2π σ (5) t–Verteilung: F¨ ur n ∈ N ist die Funktion f : R → R+ mit f (x) :=
` ´ „ «− n+1 2 Γ n+1 x2 ` n ´2√ 1+ n Γ 2 πn
eine Lebesgue–Dichte. Die zugeh¨ orige Verteilung heißt t–Verteilung und wird mit tn bezeichnet. Der Parameter n heißt Anzahl der Freiheitsgrade. Dass f tats¨ achlich eine Lebesgue–Dichte ist, zeigen wir in Beispiel 12.2.5.
Stetigsingul¨ are Verteilungen Eine Verteilung Q : B(R) → [0, 1] heißt stetigsingul¨ar , wenn sie singul¨ar bez¨ uglich dem Lebesgue–Maß λ ist, also Q ⊥ λ gilt, und außerdem Q[{x}] = 0 f¨ ur alle x ∈ R gilt, also die zugeh¨ orige Verteilungsfunktion F stetig ist. Das folgende Beispiel zeigt, dass stetigsingul¨ are univariate Verteilungen existieren: 12.1.13 Beispiel (Cantor–Verteilung). Sei Z das System aller Teilmengen von [0, 1], die als Vereinigung von endlich vielen disjunkten abgeschlossenen (und nichtleeren) Intervallen dargestellt werden k¨ onnen, und sei Ψ : Z → Z gegeben durch ! » – » –! m m X X ai + 2bi 2ai + bi ai , + [ai , bi ] := Ψ , bi 3 3 i=1 i=1
12.1 Verteilungen und Verteilungsfunktionen
259
Dann gilt Z ⊆ B(R) und die Abbildung Ψ ist wohldefiniert. F¨ ur alle A ∈ Z gilt Ψ(A) ⊆ A und λ[Ψ(A)] =
2 λ[A] 3
F¨ ur alle n ∈ N sei Cn := Ψn ([0, 1]) Dann ist {Cn }n∈N eine monoton fallende Folge in B(Rn ) und f¨ ur alle n ∈ N gilt „ «n 2 λ[Cn ] = 3 F¨ ur die Cantor–Menge C :=
\
Cn
n∈N
gilt λ[C] = 0 (vgl. Beispiel 5.5.8). Wir konstruieren nun eine Verteilung Q : B(R) → [0, 1] mit Q[C] = 1 und Q[{x}] = 0 f¨ ur alle x ∈ R. Dann gilt Q[R \ C] + λ[C] = 0 und damit Q ⊥ λ, sowie Q[{x}] = 0 f¨ ur alle x ∈ R; daher ist Q stetigsingul¨ ar. (1) F¨ ur n ∈ N sei fn : R → R gegeben durch „ «n 3 χCn (x) fn (x) := 2 Dann ist fn messbar. Sei ferner Qn : B(R) → [0, 1] gegeben durch Z fn (z) dλ(z) Qn := Dann ist Qn ein Maß mit Qn λ und f¨ ur alle B ∈ B(R) gilt Z fn (z) dλ(z) Qn [B] = B «n „ Z 3 χCn (z)χB (z) dλ(z) = R 2 „ «n 3 λ[Cn ∩ B] = 2 Wegen λ[Cn ] = (2/3)n folgt daraus Qn [R] = 1. Daher ist Qn eine absolutstetige ur alle x ∈ R gilt Verteilung und die zugeh¨ orige Verteilungsfunktion Fn ist stetig. F¨ „ «n „ «n 3 3 Fn (x) = Qn [(−∞, x]] = λ[Cn ∩ (−∞, x]] = λ[Cn ∩ [0, x]] 2 2 und damit Fn (0) = 0 und Fn (1) = 1.
260
Kapitel 12. Univariate Verteilungen
(2) Nach Konstruktion besteht Cn aus 2n abgeschlossenen Intervallen gleicher L¨ ange. Ist I ⊆ Cn ein solches Intervall, so gilt aufgrund der Translationsinvarianz des Lebesgue–Maßes „ «n 1 1 2 1 λ[I] = n λ[Cn ] = n = n 2 2 3 3 und f¨ ur alle m ∈ N0 gilt wegen Cn+m ∩ I = Ψm (Cn ) ∩ I = Ψm (Cn ∩ I) = Ψm (I) Z fn+m (z) dλ(z) = Qn+m [I] I
= = = = =
„ «n+m 3 λ[Cn+m ∩ I] 2 „ «n+m 3 λ[Ψm (I)] 2 „ «n+m „ «m 2 3 λ[I] 2 3 „ «n+m „ «m 2 1 3 2 3 3n 1 2n
(3) F¨ ur n ∈ N sei Fn∗ := Fn |[0,1] Dann ist Fn∗ monoton wachsend und stetig mit Fn∗ (0) = 0 und Fn∗ (1) = 1, und f¨ ur alle x ∈ [0, 1] gilt Z Z ∗ (x) − Fn∗ (x) = fn+m (z) dλ(z) − fn (z) dλ(z) Fn+m Z
[0,x]
= [0,x]∩Cn
[0,x]
Z
fn+m (z) dλ(z) −
[0,x]∩Cn
fn (z) dλ(z)
–
ur alle m ∈ N F¨ ur x ∈ [0, 1] \ Cn folgt aus (2) f¨ ˛ ˛ ˛ ˛ ∗ ∗ ˛Fn+m (x) − Fn (x)˛ = 0
–
F¨ ur x ∈ Cn sei In,x das eindeutig bestimmte maximale abgeschlossene Intervall alt, und sei an,x seine Untergrenze. Wegen (2) gilt f¨ ur alle aus Cn , das x enth¨ m∈N ˛ ˛ Z ˛ ˛Z ˛ ˛ ˛ ˛ ˛ ∗ ˛ ∗ fn+m (z) dλ(z) − fn (z) dλ(z)˛ ˛Fn+m (x) − Fn (x)˛ = ˛ ˛ ˛ [0,x]∩Cn [0,x]∩Cn ˛ ˛Z Z ˛ ˛ ˛ ˛ fn+m (z) dλ(z) − fn (z) dλ(z)˛ =˛ ˛ ˛ [an,x ,x] [an,x ,x] Z Z fn+m (z) dλ(z) + fn (z) dλ(z) ≤ [an,x ,x]
[an,x ,x]
12.1 Verteilungen und Verteilungsfunktionen Z
261 Z
≤
fn+m (z) dλ(z) + In,x
=2
fn (z) dλ(z) In,x
1 2n
Daher gilt f¨ ur alle x ∈ [0, 1] und f¨ ur alle n, m ∈ N ∗ |Fn+m (x) − Fn∗ (x)| ≤ 21−n
Daher ist die Folge {Fn∗ }n∈N eine gleichm¨ aßige Cauchy–Folge und damit gleichm¨ aßig konvergent gegen die Funktion F ∗ : [0, 1] → [0, 1] mit F ∗ (x) := lim Fn∗ (x) n→∞
Fn∗
∗
stetig sind, ist auch F stetig. Außerdem gilt F ∗ (0) = 0 und F ∗ (1) = 1. Da alle aßig gegen F ∗ konvergiert, gibt es zu jedem ε ∈ (0, ∞) Da die Folge {Fn∗ }n∈N gleichm¨ ein n ∈ N mit |F ∗ (z) − Fn∗ (z)| ≤ ε f¨ ur alle z ∈ [0, 1], und f¨ ur x, y ∈ [0, 1] mit x ≤ y folgt daraus und aus der Monotonie von Fn∗ F ∗ (x) ≤ Fn∗ (x) + ε ≤ Fn∗ (y) + ε ≤ F ∗ (y) + ε + ε = F ∗ (y) + 2ε Da ε ∈ (0, ∞) beliebig war, erhalten wir f¨ ur alle x, y ∈ [0, 1] mit x ≤ y F ∗ (x) ≤ F ∗ (y) Daher ist F ∗ monoton wachsend. (4) Sei F : R → [0, 1] gegeben durch 8 <0 F (x) := F ∗ (x) : 1
falls x<0 falls 0 ≤ x < 1 falls 1 ≤ x
Dann ist F eine stetige Verteilungsfunktion. Die Funktion F heißt Cantor–Funktion und die zugeh¨ orige Verteilung Q heißt Cantor–Verteilung. Es gilt Q[[0, 1]] = F (1) − F (0−) = F (1) − F (0) = 1 Ist (a, b) eines der maximalen offenen Intervalle aus [0, 1] \ Cn , so gilt Q[(a, b)] = F (b−) − F (a) = F (b) − F (a) = lim (Fn (b) − Fn (a)) n→∞
= lim (Fn (b−) − Fn (a)) n→∞
= lim Qn [(a, b)] n→∞
=0 Daraus folgt Q[[0, 1] \ Cn ] = 0 und damit Q[Cn ] = 1. Dann gilt aber
262
Kapitel 12. Univariate Verteilungen " Q[C] = Q
\ n∈N
# Cn = lim Q[Cn ] = 1 n→∞
und damit Q[R \ C] = 0. Wegen λ[C] = 0 folgt daraus Q ⊥ λ. Daher ist Q stetigsingul¨ ar. Da die Cantor–Verteilung stetigsingul¨ ar ist, ist die Cantor–Menge nicht abz¨ ahlbar.
Ein Darstellungssatz Die Klassen der diskreten, absolutstetigen und stetigsingul¨aren Verteilungen sind offensichtlich disjunkt. Der folgende Satz zeigt, dass jede Verteilung als Konvexkombination einer diskreten, einer absolutstetigen und einer stetigsingul¨ aren Verteilung dargestellt werden kann: 12.1.14 Satz (Darstellungssatz). Zu jeder Verteilung Q : B(R) → [0, 1] gibt es α1 , α2 , α3 ∈ R+ mit α1 + α2 + α3 = 1 und Verteilungen Q1 , Q2 , Q3 mit Q = α1 Q1 + α2 Q2 + α3 Q3 derart , dass Q1 diskret, Q2 stetigsingul¨ar, und Q3 absolutstetig ist. Beweis. Nach der Lebesgue–Zerlegung gibt es Maße μ0 , μ3 : B(R) → R+ mit μ0 ⊥ λ und μ3 λ sowie Q = μ0 + μ3 Die Maße μ0 und μ3 sind endlich und es gilt max{μ0 [R], μ3 [R]} > 0. Wir nehmen zun¨ achst an, dass μ0 [R] = 0 und damit Q = μ3 λ gilt. In diesem Fall sei α1 := 0 und Q1 eine beliebige diskrete Verteilung, α2 := 0 und Q2 eine beliebige stetigsingul¨ are Verteilung, sowie α3 := 1 und Q3 := Q. Dann gilt Q = α1 Q1 + α2 Q2 + α3 Q3 Wir nehmen nun an, dass μ0 [R] ∈ (0, 1] gilt. In diesem Fall sind weitere Fallunterscheidungen erforderlich: – Im Fall μ0 [R] ∈ (0, 1) gilt μ3 [R] ∈ (0, 1); in diesem Fall sei α0 := μ0 [R] −1 und Q0 := α−1 0 μ0 sowie α3 := μ3 [R] und Q3 := α3 μ3 . Dann gilt Q0 ⊥ λ und Q3 λ sowie Q = α0 Q0 + α3 Q3 –
Im Fall μ0 [R] = 1 gilt Q = μ0 ⊥ λ; in diesem Fall sei α0 := 1 und Q0 := Q sowie α3 := 0 und Q3 eine beliebige absolutstetige Verteilung. Dann gilt Q0 ⊥ λ und Q3 λ sowie Q = α0 Q0 + α3 Q3
12.1 Verteilungen und Verteilungsfunktionen
263
Sei nun F0 die zu der Verteilung Q0 geh¨ orige Verteilungsfunktion und sei S := x ∈ R Q0 [{x}] = 0 die Menge der Unstetigkeitsstellen von F0 . – Im Fall Q0 [S] = 0 ist F0 stetig, und wegen Q0 ⊥ λ ist Q0 stetigsingul¨ar; in diesem Fall sei β1 := 0 und Q1 eine beliebige diskrete Verteilung sowie β2 := 1 und Q2 := Q0 . Dann gilt Q 0 = β1 Q 1 + β2 Q 2 –
Im Fall Q0 [S] ∈ (0, 1) seien μ1 , μ2 : B(R) → R+ gegeben durch μ1 [B] := Q0 [B ∩ S] μ2 [B] := Q0 [B ∩ S] Dann gilt μ1 [R], μ2 [R] ∈ (0, 1) und Q0 = μ1 + μ2 . In diesem Fall sei β1 := μ1 [R] und Q1 := β1−1 μ1 sowie β2 := μ2 [R] und Q2 := β2−1 μ2 . Dann ist Q1 diskret und Q2 ist stetigsingul¨ ar, und es gilt Q 0 = β1 Q 1 + β2 Q 2
–
Im Fall Q0 [S] = 1 ist Q0 diskret; in diesem Fall sei β1 := 1 und Q1 := Q0 sowie β2 := 0 und Q2 eine beliebige stetigsingul¨are Verteilung. Dann gilt Q 0 = β1 Q 1 + β2 Q 2
Mit α1 := α0 β1 und α2 := α0 β2 erhalten wir daher auch im Fall μ0 [R] ∈ (0, 1] eine Darstellung Q = α1 Q1 + α2 Q2 + α3 Q3 mit einer diskreten Verteilung Q1 , einer stetigsingul¨aren Verteilung Q2 und 2 einer absolutstetigen Verteilung Q3 . Damit ist der Satz bewiesen. Aufgaben 12.1.A Symmetrische Verteilungen: Eine Verteilung Q : B(R) → [0, 1] heißt symmetrisch, wenn f¨ ur die Abbildung S : R → R mit S(x) := −x QS = Q gilt. F¨ ur eine Verteilung Q und die zugeh¨ orige Verteilungsfunktion F sind aquivalent: ¨ (a) Q ist symmetrisch. (b) F¨ ur alle x ∈ R gilt F (−x) + F (x) = 1.
264
Kapitel 12. Univariate Verteilungen
¨ ¨ 12.1.B Uberlebensfunktion: Eine Funktion G : R → [0, 1] heißt Uberlebensfunktion, wenn sie die folgenden Eigenschaften besitzt: (i) G ist monoton fallend. (ii) G ist rechtsseitig stetig. (iii) Es gilt limx→−∞ G(x) = 1 und limx→∞ G(x) = 0. F¨ ur Funktionen F, G : R → [0, 1] mit F (x) + G(x) = 1 f¨ ur alle x ∈ R sind folgenden Aussagen a ¨quivalent: (a) F ist eine Verteilungsfunktion. ¨ (b) G ist eine Uberlebensfunktion. ¨ 12.1.C Bestimmen Sie die Verteilungsfunktion und die Uberlebensfunktion der Exponential–Verteilung. 12.1.D Stochastische Ordnung: Sei Q0 (R) die Familie aller Verteilungen Q : B(R) → [0, 1]. F¨ ur Q1 , Q2 ∈ Q0 (R) schreiben wir Q 1 ≤0 Q 2 wenn f¨ ur alle a ∈ R Q1 [(a, ∞)] ≤ Q2 [(a, ∞)] 0
gilt. Die Relation ≤ wird als stochastische Ordnung bezeichnet. (1) Die Relation ≤0 ist eine Ordnungsrelation auf Q0 (R). ¨ origen Uberlebensfunktionen G1 , G2 (2) F¨ ur Q1 , Q2 ∈ Q0 (R) und die zugeh¨ 0 gilt Q1 ≤ Q2 genau dann, wenn f¨ ur alle a ∈ R G1 (a) ≤ G2 (a) gilt. (3) Untersuchen Sie die Vergleichbarkeit der Verteilungen B(2, 12 ), B(3, 12 ), uglich der stochastischen Ordnung. B(3, 13 ) bez¨ 12.1.E Verteilungsfunktion auf einem abgeschlossenen Intervall: Sei ¯ ein Intervall. Eine Funktion F : [a, b] → [0, 1] heißt Verteilungs[a, b] ⊆ R funktion auf [a, b], wenn sie die folgenden Eigenschaften besitzt: (i) F ist monoton wachsend. (ii) F ist rechtsseitig stetig. (iii) Es gilt F (a) = 0 und limx→b F (x) = 1. Formulieren und beweisen Sie ein Analogon des Korrespondenzsatzes und zeigen Sie, dass eine Bijektion zwischen den Verteilungsfunktionen auf R und den Verteilungsfunktionen auf dem Intervall [−∞, ∞] besteht. 12.1.F Stochastische Folgen: Sei Q : B(R) → [0, 1] eine Verteilung. Dann gilt Q[N0 ] = 1 genau dann, wenn es eine stochastische Folge {qk }k∈N0 gibt mit Q=
∞ X
qk δ k
k=0
12.1.G Geometrische Verteilung: Sei Q : B(R) → [0, 1] eine Verteilung. Dann sind ¨ aquivalent: (a) Es gilt Q[N] = 1 und f¨ ur alle m, n ∈ N gilt Q[(m+n, ∞)] = Q[(m, ∞)] Q[(n, ∞)] (b) Es gilt Q = δ 1 oder es gibt ein ϑ ∈ (0, 1) mit Q = Geo(1, ϑ).
12.1 Verteilungen und Verteilungsfunktionen
265
12.1.H P´ olya–Verteilung: F¨ ur n ∈ N und α, β ∈ (0, ∞) ist die Funktion f : R → R+ mit ! ! 8 > α + x − 1 β + n − x − 1 > > > > x n−x > > < ! falls x ∈ {0, 1, . . . , n} f (x) := α+β+n−1 > > > n > > > > : 0 sonst eine Z¨ ahldichte. Die zugeh¨ orige Verteilung heißt P´ olya–Verteilung und wird mit P´ olya(n, α, β) bezeichnet. 12.1.I
Gemischte Binomial–Verteilung: F¨ ur n ∈ N und jede Verteilung Q : B(R) → [0, 1] mit Q[(0, 1)] = 1 ist die Funktion f : R → R+ mit ! 8Z > n x > < ϑ (1−ϑ)n−x dQ(ϑ) falls x ∈ {0, 1, . . . , n} x R f (x) := > > : 0 sonst eine Z¨ ahldichte. Die zugeh¨ orige Verteilung heißt gemischte Binomial–Verteilung bez¨ uglich Q und wird mit B(n, Q) bezeichnet. Es gilt B(n, Be(α, β)) = P´ olya(n, α, β) Andererseits kann jede P´ olya–Verteilung als gemischte Binomial–Verteilung bez¨ uglich einer Beta–Verteilung dargestellt werden.
12.1.J
Gemischte Poisson–Verteilung: F¨ ur jede Verteilung Q : B(R) → [0, 1] mit Q[(0, ∞)] = 1 ist die Funktion f : R → R+ mit 8Z αx > < e−α dQ(α) falls x ∈ N0 x! R f (x) := > : 0 sonst eine Z¨ ahldichte. Die zugeh¨ orige Verteilung heißt gemischte Poisson–Verteilung bez¨ uglich Q und wird mit P(Q) bezeichnet. Es gilt « „ 1 P(Ga(β, γ)) = NB γ, β+1 Andererseits kann jede Negativbinomial–Verteilung als gemischte Poisson– Verteilung bez¨ uglich einer Gamma–Verteilung dargestellt werden.
12.1.K Logarithmische Verteilung: F¨ ur ϑ ∈ (0, 1) ist die Funktion f : R → R+ mit 8 1 ϑx > < falls x ∈ N | log(1−ϑ)| x f (x) := > : 0 sonst eine Z¨ ahldichte. Die zugeh¨ orige Verteilung heißt logarithmische Verteilung und wird mit Log(ϑ) bezeichnet.
266
Kapitel 12. Univariate Verteilungen
12.1.L Exponential–Verteilung: Sei Q : B(R) → [0, 1] eine Verteilung. Dann sind ¨ aquivalent: (a) Es gilt Q[(0, ∞)] = 1 und f¨ ur alle x, y ∈ (0, ∞) gilt Q[(x+y, ∞)] = Q[(x, ∞)] Q[(y, ∞)] (b) Es gibt ein α ∈ (0, ∞) mit Q = Exp(α). 12.1.M Normal–Verteilung: Die Lebesgue–Dichte der Normal–Verteilung N(μ, σ 2 ) besitzt ein globales Maximum an der Stelle x = μ und Wendepunkte an den Stellen x = μ−σ und x = μ+σ. 12.1.N F –Verteilung: F¨ ur m, n ∈ N ist die Funktion f : R → R+ mit „ «− m+n 2 )m/2 m −1 (m m n 2 1+ χ(0,∞) (x) f (x) := x n x B( m , ) n 2 2 eine Lebesgue–Dichte. Die zugeh¨ orige Verteilung heißt F –Verteilung. 12.1.O Cauchy–Verteilung: F¨ ur α ∈ R und β ∈ (0, ∞) ist die Funktion f : R → R+ mit f (x) :=
β 1 π β 2 + (x−α)2
eine Lebesgue–Dichte. Die zugeh¨ orige Verteilung heißt Cauchy–Verteilung und wird mit Ca(α, β) bezeichnet. Spezialfall : Es gilt Ca(0, 1) = t1 . 12.1.P Pareto–Verteilung: F¨ ur α, β ∈ (0, ∞) ist die Funktion f : R → R+ mit „ «β+1 β α χ(α,∞) (x) f (x) := α x eine Lebesgue–Dichte. Die zugeh¨ orige Verteilung heißt Pareto–Verteilung europ¨ aischer Art und wird mit Pa(α, β) bezeichnet. Bestimmen Sie die ¨ Verteilungsfunktion und die Uberlebensfunktion. 12.1.Q Pareto–Verteilung: F¨ ur α, β ∈ (0, ∞) ist die Funktion f : R → R+ mit „ «β+1 α β χ(0,∞) (x) f (x) := α α+x eine Lebesgue–Dichte. Die zugeh¨ orige Verteilung heißt Pareto–Verteilung amerikanischer Art und wird mit Pa∗ (α, β) bezeichnet. Bestimmen Sie die ¨ Verteilungsfunktion und die Uberlebensfunktion. 12.1.R Ausfallrate: Sei f : R → R+ eine Lebesgue–Dichte mit Z f (z) dλ(z) < 1 (−∞,x]
f¨ ur alle x ∈ R. Sei Q die zugeh¨ orige Verteilung und sei G die zugeh¨ orige ¨ Uberlebensfunktion. Dann heißt die Funktion r : R → R+ mit r(x) := Ausfallrate von Q.
f (x) G(x)
12.2 Transformationen von Verteilungen
267
(1) Ist f stetig, so ist G differenzierbar und es gilt r(x) = −
d(log ◦ G) (x) dx
und „ Z G(x) = exp −
« r(z) dλ(z)
(−∞,x]
(2) F¨ ur α ∈ (0, ∞) gilt r = αχ(0,∞) genau dann, wenn Q = Exp(α) gilt. 12.1.S
Weibull–Verteilung: F¨ ur α, β ∈ (0, ∞) ist die Funktion f : R → R+ mit f (x) := αβxβ−1 exp(−αxβ ) χ(0,∞) (x) eine Lebesgue–Dichte. Die zugeh¨ orige Verteilung heißt Weibull–Verteilung. ¨ (1) Bestimmen Sie die Uberlebensfunktion und die Ausfallrate. (2) Welche Verteilung ergibt sich im Fall β = 1?
12.1.T Gompertz–Verteilung: F¨ ur α ∈ (0, ∞) und β ∈ (1, ∞) ist die Funktion f : R → R+ mit „ « α x x (1 − β ) χ(0,∞) (x) f (x) := αβ exp log(β) eine Lebesgue–Dichte. Die zugeh¨ orige Verteilung heißt Gompertz–Vertei¨ lung. Bestimmen Sie die Uberlebensfunktion und die Ausfallrate.
12.2 Transformationen von Verteilungen Ein grundlegendes Problem der Wahrscheinlichkeitstheorie besteht darin, f¨ ur eine reelle Zufallsvariable X und eine messbare Funktion T : R → R die Verteilung der reellen Zufallsvariablen T ◦ X und damit das Bildmaß PT ◦X = (PX )T von PX unter T zu bestimmen. 12.2.1 Beispiel. Sei X eine reelle Zufallsvariable. Dann besitzt die reelle Zufallsvariable X 2 die Darstellung X 2 = T ◦ X mit der messbaren Abbildung T : R → R mit T (x) := x2 .
Allgemeiner stellt sich das Problem, f¨ ur eine Verteilung Q : B(R) → [0, 1] und eine messbare Funktion T : R → R das Bildmaß QT zu bestimmen. Dies ist ein Spezialfall des Problems, f¨ ur ein Maß ν : B(R) → [0, ∞] und eine messbare Funktion T : R → R das Bildmaß νT zu bestimmen. F¨ ur ein Maß ν : B(R) → [0, ∞] mit ν ζ C f¨ ur eine abz¨ahlbare Menge C ⊆ R ist die Bestimmung des Bildmaßes von ν unter einer beliebigen messbaren Abbildung T : R → R elementar:
268
Kapitel 12. Univariate Verteilungen
12.2.2 Satz. Sei h : R → R+ messbar und C ⊆ R abz¨ahlbar und sei ( ν := h(x) dζ C (x) Sei ferner T : R → R messbar. Dann gilt f¨ ur alle B ∈ B(R) νT [B] = h(x) z∈B
x∈C∩T −1 ({z})
Insbesondere gilt νT [R] = ν[R]. Beweis. F¨ ur alle B ∈ B(R) gilt νT [B] = ν[T −1 (B)] ( = h(x) dζ C (x) T −1 (B)
=
h(x)
x∈C∩T −1 (B)
=
h(x)
z∈B x∈C∩T −1 ({z})
Außerdem gilt νT [R] = ν[T −1 (R)] = ν[R].
2
F¨ ur ein Maß ν : B(R) → [0, ∞] mit ν λ bestimmen wir das Bildmaß von ν zun¨ achst f¨ ur invertierbare affine Abbildungen T : R → R: 12.2.3 Satz. Sei h : R → R+ messbar und ( ν := h(x) dλ(x) Sei ferner T : R → R gegeben durch T (x) := c + dx mit c, d ∈ R und d = 0. Dann gilt ! ( z−c 1 νT = h dλ(z) d |d| Insbesondere gilt νT [R] = ν[R]. Beweis. Die Abbildung T ist invertierbar und T −1 ist messbar mit T −1 (z) = Nach Folgerung 9.4.2 gilt daher
z−c d
12.2 Transformationen von Verteilungen
( νT =
h
269
z−c d
! dλT (z)
und nach Folgerung 6.3.2 gilt λT =
1 λ |d|
Die Behauptung folgt nun aus der Kettenregel.
2
Invertierbare affine Abbildungen sind injektiv. Es treten jedoch auch Abbildungen auf, die nur lokal injektiv sind; vgl. Beispiel 12.2.1. F¨ ur lokal injektive Abbildungen erhalten wir den folgenden Satz: 12.2.4 Satz. Sei h : R → R+ messbar und ( ν := h(x) dλ(x) }i∈I eine abz¨ahlbare disjunkte Familie Sei ferner T : R → R messbar. Ist {Ci
ur alle i ∈ I nichtleerer offener Intervalle mit ν[R \ i∈I Ci ] = 0 derart, dass f¨ die Restriktion T |Ci : Ci → R stetig differenzierbar ist mit (T |Ci ) (x) = 0 f¨ ur alle x ∈ Ci , so gilt ( d(T | )−1 C i (z) χT (Ci ) (z) dλ(z) h (T |Ci )−1 (z) νT = dz i∈I
Beweis. Aus Satz 9.5.4 und Lemma 9.8.9 erh¨alt man unter Verwendung des Satzes u ur alle B ∈ B(R) ¨ ber die monotone Konvergenz f¨ ( h (T |Ci )−1 (z) d(λ|B(Ci ) )(T |Ci ) (z) νT [B ] = i∈I
B ∩T (Ai )
d(T | )−1 Ci −1 = h (T |Ci ) (z) (z) dλ|B(T (Ci )) (z) dz ∩T (A ) B i i∈I d(T | )−1 ( Ci −1 (z) χT (Ci ) (z) dλ(z) h (T |Ci ) (z) = dz B i∈I ( d(T | )−1 C i (z) χT (Ci ) (z) dλ(z) = h (T |Ci )−1 (z) dz B (
i∈I
Damit ist der Satz bewiesen.
2
Die Voraussetzungen von Satz 12.2.4 sind insbesondere f¨ ur jede Abbildung T : R → R mit T (x) = c + dx mit c, d ∈ R und d = 0 erf¨ ullt, denn in diesem Fall ist T stetig differenzierbar mit
270
Kapitel 12. Univariate Verteilungen
T −1 (z) = und
z−c d
−1 dT 1 dz (z) = |d|
Daher ist Satz 12.2.4 eine Verallgemeinerung von Satz 12.2.3. Als erste Anwendung von Satz 12.2.4 zeigen wir, dass die t–Verteilung wohldefiniert ist: 12.2.5 Beispiel (t–Verteilung). F¨ ur alle n ∈ N gilt Z R
„ «− n+1 2 Γ( n+1 ) x2 2 √ 1+ dλ(x) = 1 n Γ( n2 ) πn
In der Tat: Wegen Z
Γ( n+1 ) 2 √ Γ( n2 ) πn
„ «− n+1 Z 2 Γ( n+1 ) nn/2 x2 2 dλ(x) = dλ(x) 1+ n 1 n (n+x2 )(n+1)/2 Γ( 2 )Γ( 2 )
betrachten wir das Maß Z ν :=
nn/2 dλ(x) (n+x2 )(n+1)/2
und die lineare Abbildung S : R → R mit S(x) := n−1/2 x. Aus Satz 12.2.3 ergibt sich Z nn/2 n1/2 dλ(y) νS = (n + ny 2 )(n+1)/2 Z 1 dλ(y) = (1 + y 2 )(n+1)/2 Wir betrachten nun die Abbildung T : R → R mit T (y) := arctan y ∈ (− π2 , π2 ). Dann ist T invertierbar mit T −1 (z) = tan z, und aus Satz 12.2.4 ergibt sich nun mit 1 + (tan z)2 = (cos z)−2 Z “ ” 1 2 1 + (tan z) χ(− π2 , π2 ) (z) dλ(z) (νS )T = (1 + (tan z)2 )(n+1)/2 Z = (cos z)n−1 χ(− π2 , π2 ) (z) dλ(z) Wegen R = S −1 (R) und R = T −1 ((− π2 , π2 )) erhalten wir daher ν[R] = νS [R] = (νS )T [(− π2 , π2 )] Z (cos z)n−1 dλ(z) = (−π/2,π/2)
12.2 Transformationen von Verteilungen
271
Z (cos z)n−1 dλ(z)
= [−π/2,π/2]
Z
π/2
=
(cos z)n−1 dz
−π/2
und mit Fallunterscheidung danach, ob n gerade oder ungerade ist, ergibt sich daraus ν[R] =
Γ( n2 ) Γ( 21 ) Γ( n+1 ) 2
Daraus folgt die Behauptung.
Des weiteren eignet sich Satz 12.2.4 zur Berechnung der Verteilung einer messbaren Transformation einer Zufallsvariablen. Wir geben zun¨achst einen weiteren Spezialfall des Satzes an: 12.2.6 Folgerung. Sei h : R → R+ messbar und ( ν := h(x) dλ(x) Sei ferner T : R → R gegeben durch T (x) := x2 . Dann gilt √ √ ( h(− z) + h( z) √ χ(0,∞) (z) dλ(z) νT = 2 z Beweis. Die Abbildung T ist stetig differenzierbar mit T (x) = 2x. Wegen ur alle x = 0 betrachten wir die Mengen T (0) = 0 sowie T (x) = 0 f¨ C1 := (−∞, 0) C2 := (0, ∞) Dann gilt λ[R \ (C1 +C2 )] = λ[{0}] = 0 sowie T (C1 ) = (0, ∞) T (C2 ) = (0, ∞) Insbesondere ist jede der Restriktionen T |Ci : Ci → (0, ∞) invertierbar und es gilt √ (T |C1 )−1 (z) = − z √ (T |C2 )−1 (z) = z und damit
d(T |Ci )−1 1 (z) = √ dz 2 z
272
Kapitel 12. Univariate Verteilungen
Aus Satz 12.2.4 folgt nun ! ( √ √ 1 1 νT = h(− z) √ χ(0,∞) (z) + h( z) √ χ(0,∞) (z) dλ(z) 2 z 2 z √ √ ( h(− z) + h( z) √ χ(0,∞) (z) dλ(z) = 2 z 2
Damit ist die Behauptung gezeigt.
Bei Aussagen u ¨ ber eine reelle Zufallsvariable X : Ω → R mit einer gegebenen Verteilung Q : B(R) → [0, 1] schreiben wir anstelle der Formulierung Sei X ” eine reelle Zufallsvariable mit PX = Q“ oft nur Sei PX = Q“. ” 12.2.7 Beispiele (Absolutstetige Verteilungen). ur alle a, b ∈ R mit b = 0 (1) Normal–Verteilung: Sei PX = N(μ, σ 2 ). Dann gilt f¨ Pa+bX = N(a+bμ, (|b|σ)2 ) In der Tat: Es gilt Z PX =
√
„ «2 « „ 1 x−μ 1 dλ(x) exp − 2 σ 2π σ
Wir betrachten die affine Abbildung T : R → R mit T (x) := a + b x. Dann gilt Pa+bX = PT ◦X = (PX )T und aus Satz 12.2.3 ergibt sich Pa+bX = (PX )T „ «2 « „ Z 1 1 (z−a)b−1 − μ 1 √ exp − = dλ(z) 2 σ |b| 2π σ „ „ «2 « Z 1 z − (a + bμ) 1 √ exp − dλ(z) = 2 |b|σ 2π |b|σ = N(a+bμ, (|b|σ)2 ) (2) χ2 –Verteilung: Sei PX = N(0, 1). Dann gilt PX 2 = χ21 In der Tat: Es gilt Z PX =
2
z 1 √ e− 2 χ(0,∞) (z) dλ(z) 2π
Wir betrachten die Abbildung T : R → R mit T (x) := x2 . Dann gilt PX 2 = PT ◦X = (PX )T und aus Folgerung 12.2.6 ergibt sich PX 2 = (PX )T Z √1 e− z2 + √1 e− z2 2π √ 2π = χ(0,∞) (z) dλ(z) 2 z
12.2 Transformationen von Verteilungen
273
Z
1 1 1 √ e− 2 z z − 2 χ(0,∞) (z) dλ(z) 2π Z ` 1 ´1/2 1 1 2 e− 2 z z 2 −1 χ(0,∞) (z) dλ(z) = Γ( 12 ) ` ´ = Ga 12 , 12
=
und damit PX 2 = χ21 .
Da das Bildmaß einer Verteilung wieder eine Verteilung ist, kann man die Berechnung einer Verteilung oft vereinfachen: Ist Q : B(R) → [0, 1] eine Verteilung und ν : B(R) → [0, ∞] ein endliches Maß, so schreiben wir Q∼ν wenn es ein c ∈ (0, ∞) gibt derart, dass f¨ ur alle B ∈ B(R) Q[B] = c ν[B] gilt. Beispielsweise erh¨ alt man in Beispiel 12.2.7 (2) unter Vernachl¨assigung der multiplikativen Konstanten mit ( (PX )T = ( ∼
√1 2π
z z e− 2 + √12π e− 2 √ χ(0,∞) (z) dλ(z) 2 z
1
1
e− 2 z z 2 −1 χ(0,∞) (z) dλ(z)
∼ Ga
1
1 2, 2
dasselbe Ergebnis, da es nur eine M¨ oglichkeit gibt, den letzten Integranden zu einer Lebesgue–Dichte zu normieren. Aufgaben 12.2.A Geometrische Verteilung: Sei PX = Geo(n, ϑ). Dann gilt PX−n = NB(n, 1−ϑ). 12.2.B Uniforme Verteilung: Sei PX = U(0, 1) und sei n ∈ N. Dann gilt PX n = Be( n1 , 1). 12.2.C Uniforme Verteilung: Sei PX = U(− π2 , π2 ) und sei α ∈ R und β ∈ (0, ∞). Dann gilt Pα+β tan X = Ca(α, β). 12.2.D Cauchy–Verteilung: Sei PX = Ca(α, β). Dann gilt P(X−α)/β = t1 sowie PX−α = Ca(0, β) und Pα−X = Ca(0, β). 12.2.E Pareto–Verteilung: Sei PX = Pa∗ (α, β). Dann gilt PX+α = Pa(α, β). 12.2.F Symmetrische Verteilungen: Zeigen Sie, dass – die Standardnormal–Verteilung, – jede t–Verteilung, und – f¨ ur alle β ∈ (0, ∞) die Cauchy–Verteilung Ca(0, β) symmetrisch ist.
274
Kapitel 12. Univariate Verteilungen
12.2.G Sei h : R → R+ messbar und
Z
ν :=
h(x) dλ(x)
Sei ferner T : R → R gegeben durch T (x) := |x|. Dann gilt Z “ ” h(−z) + h(z) χ(0,∞) (z) dλ(z) νT =
12.3 Momente In diesem Abschnitt untersuchen wir die Existenz und die Endlichkeit des Erwartungswertes und der h¨ oheren Momente einer Zufallsvariablen. Wir f¨ uhren zun¨ achst die in der Wahrscheinlichkeitstheorie u ¨ bliche Sprechweise ¯ eine Zufallsvariable. ein. Sei X : Ω → R – Man sagt, X besitzt einen Erwartungswert , wenn X P –quasiintegrierbar ist. Dies ist genau dann der Fall, wenn ( # ( min X + (ω) dP (ω) , X − (ω) dP (ω) < ∞ Ω
Ω
gilt, und in diesem Fall heißt
(
E[X] :=
X(ω) dP (ω) Ω
der Erwartungswert von X. Da jede positive Zufallsvariable einen (m¨oglicherweise unendlichen) Erwartungswert besitzt, besitzt X genau dann einen Erwartungswert, wenn min E[X + ], E[X − ] < ∞ –
gilt. Man sagt, X besitzt einen endlichen Erwartungswert , wenn X P –integrierbar ist. Dies ist genau dann der Fall, wenn ( # ( max X + (ω) dP (ω) , X − (ω) dP (ω) < ∞ Ω
Ω
gilt. Daher besitzt X genau dann einen endlichen Erwartungswert, wenn max E[X + ], E[X − ] < ∞ gilt, und dies ist genau dann der Fall, wenn E[|X|] < ∞ gilt.
12.3 Momente
275
Das folgende Lemma liefert ein weiteres Kriterium f¨ ur die Existenz eines endlichen Erwartungswertes: 12.3.1 Lemma. F¨ ur jede Zufallsvariable X gilt ( P [{|X| ≥ x}] dλ(x) E[|X|] = R+
und
∞
P [{|X| ≥ n}] ≤ E[|X|] ≤ 1 +
n=1
∞
P [{|X| ≥ n}]
n=1
Insbesondere
∞ besitzt X genau dann einen endlichen Erwartungswert, wenn die Reihe n=1 P [{|X| ≥ n}] konvergent ist. Beweis. Die Gleichung ergibt sich unmittelbar aus Beispiel 9.7.4. Des weiteren gilt f¨ ur alle n ∈ N ( P [{|X| ≥ x}] dλ(x) P [{|X| ≥ n}] ≤ [n−1,n)
≤ P [{|X| ≥ n−1}] und Summation ergibt ∞
( P [{|X| ≥ n}] ≤
n=1
≤ =
R+ ∞ n=1 ∞
P [{|X| ≥ x}] dλ(x) P [{|X| ≥ n−1}] P [{|X| ≥ n}]
n=0
Die Behauptung folgt.
2
Die Eigenschaften des Erwartungswertes ergeben sich daher unmittelbar aus denen des Lebesgue–Integrals; gegen¨ uber der allgemeinen Integrationstheorie ergibt sich aber die Besonderheit, dass jede konstante Zufallsvariable integrierbar ist: 12.3.2 Lemma. Sei X eine Zufallsvariable und sei a, b, c ∈ R. (1) Im Fall P [{X ≥ 0}] = 1 gilt E[X] ≥ 0. (2) Im Fall P [{X = c}] = 1 gilt E[X] = c. (3) Besitzt X einen Erwartungswert , so besitzt auch a + bX einen Erwartungswert und es gilt E[a+bX] = a + b E[X].
276
Kapitel 12. Univariate Verteilungen
F¨ ur die Pr¨ ufung der Existenz des Erwartungswertes einer Zufallsvariablen, und dar¨ uber hinaus f¨ ur seine Berechnung im Falle der Existenz, ist die Substitutionsregel von gr¨ oßter Bedeutung. Wir formulieren daher als Spezialfall der allgemeinen Substitutionsregel 9.4.1 die folgende Substitutionsregel f¨ ur Erwartungswerte: 12.3.3 Satz (Substitutionsregel f¨ ur Erwartungswerte). Sei X eine reelle Zufallsvariable und sei h : R → R eine messbare Funktion. (1) Ist h positiv , so gilt ( h(x) dPX (x) E[h ◦ X] = R
(2) h ◦ X ist genau dann P –integrierbar, wenn h PX –integrierbar ist, und in diesem Fall gilt ( E[h ◦ X] =
R
h(x) dPX (x)
Aus der Substitutionsregel folgt, dass die Existenz des Erwartungswertes einer Zufallsvariablen und, im Falle der Existenz, auch der Erwartungswert selbst ausschließlich durch ihre Verteilung bestimmt ist: 12.3.4 Folgerung. Sei X eine Zufallsvariable. Dann gilt: (1) X besitzt genau dann einen Erwartungswert , wenn ( # ( + − min x dPX (x) , x dPX (x) < ∞ R
R
gilt. (2) X besitzt genau dann einen endlichen Erwartungswert , wenn ( # ( max x+ dPX (x) , x− dPX (x) < ∞ R
R
gilt , und diese Bedingung ist genau dann erf¨ ullt, wenn ( |x| PX (x) < ∞ R
gilt. (3) Besitzt X einen endlichen Erwartungswert, so gilt ( x dPX (x) E[X] = R
Die Substitutionsregel f¨ ur Erwartungswerte ist vor allem deshalb von Interesse, weil von einer Zufallsvariablen in den meisten F¨allen nur ihre Verteilung ¯ und sogar der bekannt ist, w¨ ahrend ihre Eigenschaften als Abbildung Ω → R Wahrscheinlichkeitsraum (Ω, F , P ) im allgemeinen unbekannt sind.
12.3 Momente
277
F¨ ur eine Zufallsvariable, die diskret oder absolutstetig ist und einen endlichen Erwartungswert besitzt, erfolgt die Berechnung des Erwartungswertes meist dadurch, dass man den Erwartungswert als Vielfaches des Integrals einer Z¨ahldichte oder einer Lebesgue–Dichte darstellt; dagegen erfordert der Nachweis daf¨ ur, dass eine Zufallsvariable keinen Erwartungswert oder keinen endlichen Erwartungswert besitzt, im allgemeinen eine Absch¨atzung der Erwartungswerte des Positiv– und/oder Negativteils der Zufallsvariablen. Der Erwartungswert einer reellen Zufallsvariablen mit einer diskreten Verteilung kann, im Fall seiner Existenz, durch Summation bestimmt werden: 12.3.5 Lemma. Sei X eine reelle Zufallsvariable mit einer diskreten Verteilung und sei f eine Z¨ahldichte von PX und C ⊆ R abz¨ahlbar mit PX [C] = 1. Besitzt X einen Erwartungswert , so gilt E[X] = x f (x) x∈C
Beweis. Es gilt ( ( ( E[X] = X(ω) dP (ω) = x dPX (x) = x f (x) dζ C (x) = x f (x) R
R
x∈C
2
Damit ist die Behauptung gezeigt. 12.3.6 Beispiele (Diskrete Verteilungen). (1) Hypergeometrische Verteilung: Im Fall PX = H(n, N, K) gilt E[X] = n
K N
(2) Binomial–Verteilung: Im Fall PX = B(n, ϑ) gilt E[X] = n ϑ (3) Poisson–Verteilung: Im Fall PX = P(α) gilt E[X] = α Damit ist die Bedeutung des Parameters der Poisson–Verteilung gekl¨ art. In der Tat: Es gilt E[X] =
∞ X k=0
k e−α
∞ ∞ X X αk αk−1 αl e−α l e−α =α =α =α k! (k−1)! l! k=1 l=0
(4) Negativbinomial–Verteilung: Im Fall PX = NB(α, ϑ) gilt E[X] = α
ϑ 1−ϑ
278
Kapitel 12. Univariate Verteilungen
(5) Geometrische Verteilung: Im Fall PX = Geo(n, ϑ) gilt E[X] = n
1 ϑ
In den Beispielen 12.3.6 stellt die Existenz des Erwartungswertes kein Problem dar, da die reellen Zufallsvariablen positiv sind; vgl. aber Aufgabe 12.3.B. Der Erwartungswert einer reellen Zufallsvariablen mit einer absolutstetigen Verteilung kann, im Fall seiner Existenz, durch Integration bestimmt werden: 12.3.7 Lemma. Sei X eine reelle Zufallsvariable mit einer absolutstetigen Verteilung und sei f eine Dichte von PX . Besitzt X einen Erwartungswert , so gilt ( x f (x) dλ(x)
E[X] = R
Beweis. Die Behauptung folgt unmittelbar aus der Kettenregel.
2
12.3.8 Beispiele (Absolutstetige Verteilungen). (1) Uniforme Verteilung: Im Fall PX = U(a, b) gilt E[X] =
a+b 2
(2) Beta–Verteilung: Im Fall PX = Be(α, β) gilt E[X] =
α α+β
(3) Gamma–Verteilung: Im Fall PX = Ga(α, γ) gilt E[X] =
γ α
Damit ist insbesondere die Bedeutung des Parameters der Exponential–Verteilung Exp(α) = Ga(1, α) gekl¨ art. In der Tat: Es gilt Z x dPX (x) E[X] = ZR αγ −αx γ−1 e = x x χ(0,∞) (x) dλ(x) Γ(γ) R Z αγ e−αx x(γ+1)−1 χ(0,∞) (x) dλ(x) = Γ(γ) R Z αγ Γ(γ +1) αγ+1 −αx (γ+1)−1 e x χ(0,∞) (x) dλ(x) = Γ(γ) αγ+1 R Γ(γ +1) αγ Γ(γ +1) = Γ(γ) αγ+1 γ = α
12.3 Momente
279
(4) Normal–Verteilung: Im Fall PX = N(μ, σ 2 ) gilt E[X] = μ Damit ist die Bedeutung des ersten Parameters der Normal–Verteilung gekl¨ art. In der Tat: Wir betrachten die Zufallsvariable Z :=
X −μ σ
Nach Beispiel 12.2.7 gilt PZ = N(0, 1) und damit Z E[Z + ] = z + dPZ (z) R Z 1 2 1 z + √ e− 2 z dλ(z) = 2π ZR 1 2 1 z √ e− 2 z dλ(z) = 2π R+ Z ∞ 1 2 1 z √ e− 2 z dz = 2π 0 1 = √ 2π Nach Aufgabe 12.2.F gilt P−Z = PZ und damit E[Z − ] = E[(−Z)+ ] = E[Z + ], und daraus folgt 1 E[Z − ] = √ 2π Daher besitzt Z einen endlichen Erwartungswert und es gilt E[Z] = 0. Die Behauptung folgt nun aus X = μ+σZ und der Linearit¨ at des Erwartungswertes. (5) t–Verteilung: Im Fall PX = t1 besitzt X keinen Erwartungswert. In der Tat: Es gilt Z x+ dPX (x) E[X + ] = R Z 1 1 = x+ dλ(x) π 1 + x2 R Z 1 1 ≥ x dλ(x) π 1 + x2 (1,∞) Z 1 1 ≥ dλ(x) 2π (1,∞) x ∞ Z 1 X 1 dλ(x) = 2π n=2 (n−1,n] x ≥
∞ 1 X1 2π n=2 n
=∞ Nach Aufgabe 12.2.F gilt P−X = PX und damit E[Z − ] = E[(−Z)+ ] = E[Z + ], und daraus folgt E[X − ] = ∞. Daher besitzt X keinen Erwartungswert.
280
Kapitel 12. Univariate Verteilungen
F¨ ur jede Zufallsvariable X gilt E[X + ] ≤ E[|X|] und E[X − ] ≤ E[|X|]; besitzt X einen Erwartungswert, so folgt daraus |E[X]| ≤ E[|X|] Diese Ungleichung l¨ asst sich wie folgt verallgemeinern: 12.3.9 Satz (Ungleichung von Jensen). Sei J ⊆ R ein Intervall und sei X eine Zufallsvariable mit P [{X ∈ J}] = 1 und einem endlichen Erwartungswert. Ist h : J → R konvex , so besitzt h ◦ X einen Erwartungswert und es gilt h(E[X]) ≤ E[h ◦ X] Beweis. Wir zeigen zun¨ achst, dass E[X] ∈ J gilt. Nach Voraussetzung gibt ¯ derart, dass J mit einem der Intervalle (a, b), (a, b], [a, b), [a, b] es a, b ∈ R u ¨ bereinstimmt, und aus der Monotonie des Erwartungswertes folgt zun¨achst E[X] ∈ [a, b]. – Im Fall a = −∞ erh¨ alt man wegen E[|X|] < ∞ sofort a < E[X]. – Im Fall a ∈ R\J nehmen wir an, es gelte E[X] = a. Dann gilt E[X−a] = 0 und wegen P [{X−a ≥ 0}] = 1 folgt aus Lemma 8.2.8 P [{X−a = 0}] = 1 und damit P [{X = a}] = 1. Dies ist ein Widerspruch zur Voraussetzung P [{X ∈ J}] = 1. Damit gilt auch in diesem Fall a < E[X]. Daher gilt in jedem Fall a < E[X], und analog zeigt man E[X] < b. Wir zeigen nun, dass h ◦ X einen Erwartungswert besitzt: Da h konvex ist, gibt es eine affine Funktion g : R → R mit g(E[X]) = h(E[X]) und g(x) ≤ h(x) f¨ ur alle x ∈ J. Da g affin ist, gibt es c, d ∈ R mit g(x) = c + dx Da X einen endlichen Erwartungswert besitzt, besitzt auch g ◦ X einen endlichen Erwartungswert, und daraus folgt wegen −h(x) ≤ −g(x) E[(h ◦ X)− ] ≤ E[(g ◦ X)− ] = E[(c+dX)− ] ≤ E[|c+dX|] Daher besitzt h ◦ X einen Erwartungswert, und aus der Linearit¨at und der Monotonie des Erwartungswertes erh¨ alt man nun h(E[X]) = g(E[X]) = c + d E[X] = E[c+dX] = E[g(X)] ≤ E[h(X)] Damit ist der Satz bewiesen.
2
12.3 Momente
281
Wir betrachten nun Momente h¨ oherer Ordnung. F¨ ur eine Zufallsvariable X und n ∈ N heißt E[|X|n ] das n–te absolute Moment oder das absolute Moment der Ordnung n von X und im Fall der Existenz heißt E[X n ] das n–te Moment oder das Moment der Ordnung n von X. Diese Momente h¨oherer Ordnung sind unter anderem f¨ ur die Absch¨ atzung von Wahrscheinlichkeiten durch die aus der Integrationstheorie bekannte Ungleichung von Markov von Interesse: 12.3.10 Lemma (Ungleichung von Markov). Sei X eine Zufallsvariable. Dann gilt f¨ ur alle c ∈ (0, ∞) und n ∈ N P [{|X| ≥ c}] ≤
E[|X|n ] cn
Des weiteren l¨ asst sich auch der Erwartungswert einer Zufallsvariablen mit einem endlichen Erwartungswert durch h¨ ohere Momente absch¨atzen: 12.3.11 Lemma. Sei X eine Zufallsvariable mit einem endlichen Erwartungswert und sei n ∈ N. Dann gilt |E[X]|n ≤ E[|X|n ]. Beweis. Die Funktion h : R → R mit h(x) := |x|n ist konvex. Daher folgt die Behauptung aus der Ungleichung von Jensen. 2 Da jedes Wahrscheinlichkeitsmaß endlich ist, besitzt jede konstante Zufallsvariable einen endlichen Erwartungswert. Daraus ergibt sich ein allgemeines Ergebnis u oherer Momente einer Zufallsvariablen: ¨ber die Endlichkeit h¨ 12.3.12 Lemma. Sei X eine Zufallsvariable und seien m, n ∈ N mit m ≤ n. Besitzt X ein endliches Moment der Ordnung n, so besitzt X auch ein endliches Moment der Ordnung m. Beweis. F¨ ur alle x ∈ R gilt |x|m ≤ 1 + |x|n . Daher gilt E[|X|m ] ≤ E[1+|X|n] = 1 + E[|X|n ] 2
und die Behauptung folgt.
Diese Ungleichungen bleiben g¨ ultig, wenn man m, n ∈ N durch p, q ∈ [1, ∞) ersetzt. 12.3.13 Beispiele (Absolutstetige Verteilungen). (1) Uniforme Verteilung: Im Fall PX = U(a, b) gilt f¨ ur alle n ∈ N E[X n ] =
1 bn+1 − an+1 n+1 b−a
282
Kapitel 12. Univariate Verteilungen
(2) Beta–Verteilung: Im Fall PX = Be(α, β) gilt f¨ ur alle n ∈ N E[X n ] =
n−1 Y k=0
α+k α+β+k
(3) Gamma–Verteilung: Im Fall PX = Ga(α, γ) gilt f¨ ur alle n ∈ N E[X n ] =
n−1 Y k=0
γ+k α
ur alle n ≥ 2. (4) t–Verteilung: Im Fall PX = t2 gilt E[X] = 0 und E[|X|n ] = ∞ f¨ In der Tat: Es gilt Z x+ dPX (x) E[X + ] = R Z 1 = x+ dλ(x) (2 + x2 )3/2 R Z x χ (x) dλ(x) = 2 3/2 (0,∞) R (2 + x ) Wir betrachten das Maß ν :=
Z
x χ(0,∞) (x) dλ(x) (2 + x2 )3/2
und die Abbildung T : R → R mit T (x) := 2 + x2 . Dann gilt ν[R \ (0, ∞)] = 0, T ist messbar, und die Restriktion T |(0,∞) : (0, ∞) → R ist stetig differenzierbar ur alle x ∈ (0, ∞). Aus Satz 12.2.4 erhalten wir mit (T |(0,∞) ) (x) = 2x = 0 f¨ nun Z (z−2)1/2 1 χ(0,∞) ((z−2)1/2 ) (z−2)−1/2 χ(2,∞) (z) dλ(z) νT = z 3/2 2 Z 1 −3/2 χ(2,∞) (z) dλ(z) = z 2 und damit E[X + ] = ν[R] = νT [R] Z 1 −3/2 = χ(2,∞) (z) dλ(z) z R 2 Z 1 −3/2 z dλ(z) = (2,∞) 2 Z ∞ 1 −3/2 dz = z 2 2 1 = √ 2
√ Wegen X − = (−X)+ und P−X = PX gilt außerdem E[X − ] = 1/ 2. Daher besitzt X einen endlichen Erwartungswert und es gilt E[X] = 0. Des weiteren gilt
12.3 Momente
283 E[2+X 2 ] =
Z Z
R
(2+x2 ) dPX (x) (2+x2 )
= ZR
1 dλ(x) (2+x2 )3/2
1 dλ(x) 2 )1/2 (2+x ZR 1 dλ(x) ≥ 2 2 1/2 (1,∞) (3x +x ) Z 1 dλ(x) = (1,∞) 2x
=
=∞ und damit E[X 2 ] = ∞. Die Behauptung u ¨ber E[|X|n ] folgt nun aus Lemma 12.3.12.
Aufgaben 12.3.A Geben Sie einen elementaren Beweis f¨ ur die Doppelungleichung aus Lemma 12.3.1. L¨ asst sich die Verwendung des Satzes von Fubini vermeiden? 12.3.B Betrachten Sie den Wahrscheinlichkeitsraum (Ω, F, P ) mit Ω := N und ur alle ω ∈ Ω. Konstruieren Sie eine ZufallsF := 2Ω sowie P [{ω}] := 2−ω f¨ variable X : Ω → R mit E[X + ] = ∞ = E[X − ]. 12.3.C Sei (Ω, F, P ) symmetrisch mit Ω := {1, 2, 3, 4, 5, 6}3 und sei X : Ω → R gegeben durch X((i, j, k)) := i + j + k. Dann besitzt X einen endlichen Erwartungswert, der sich gem¨ aß Z X(ω) dP (ω) E[X] = Ω
oder gem¨ aß Z E[X] = R
x dPX (x)
bestimmen l¨ asst. Vergleichen Sie beide Rechnungen. olya(n, α, β). Dann gilt 12.3.D P´ olya–Verteilung: Sei PX = P´ E[X] = n
α α+β
12.3.E Logarithmische Verteilung: Sei PX = Log(ϑ). Dann gilt E[X] =
ϑ 1 | log(1−ϑ)| 1 − ϑ
12.3.F Cauchy–Verteilung: Sei PX = Ca(α, β). Dann besitzt X keinen Erwartungswert.
284
Kapitel 12. Univariate Verteilungen
12.3.G Pareto–Verteilung: Sei PX = Pa(α, β). Dann gilt f¨ ur alle n ∈ N mit n<β E[X n ] =
β αn β−n
und f¨ ur alle n ∈ N mit n ≥ β gilt E[X n ] = ∞. 12.3.H Sei PX = U(a, b). Nach Beispiel 12.3.13 gilt f¨ ur alle n ∈ N E[X n ] =
1 bn+1 − an+1 n+1 b−a
Leiten Sie dieses Ergebnis – unter Verwendung von Aufgabe 12.2.B und alternativ – unter Verwendung der Substitutionsregel her. Welcher Weg ist einfacher? 12.3.I
12.3.J
Symmetrische Verteilungen: (1) Geben Sie ein Beispiel f¨ ur eine Zufallsvariable mit einer symmetrischen Verteilung, die keinen Erwartungswert besitzt. (2) Sei X eine Zufallsvariable mit einer symmetrischen Verteilung. Besitzt X ein endliches Moment der Ordnung 2k + 1 f¨ ur ein k ∈ N0 , so gilt E[X 2k+1 ] = 0. ¨ Integrierte Uberlebensfunktion: Sei Q : B(R) → [0, 1] eine Verteilung R ¨ mit R |x| dQ(x) < ∞ und sei G die zugeh¨ orige Uberlebensfunktion. Dann gilt f¨ ur alle a ∈ R Z Z (x−a)+ dQ(x) = G(x) dλ(x) R
Die Abbildung R → R : a → funktion zu Q.
(a,∞)
R (a,∞)
¨ G(x) dλ(x) heißt integrierte Uberlebens-
12.3.K Stop–Loss Ordnung: Sei Q1 (R) die Familie aller Verteilungen Q : R ur Q1 , Q2 ∈ Q1 (R) schreiben wir B(R) → [0, 1] mit R |x| dQ(x) < ∞. F¨ Q 1 ≤1 Q 2 wenn f¨ ur alle a ∈ R Z R
(x−a)+ dQ1 (x) ≤
Z R
(x−a)+ dQ2 (x)
1
gilt. Die Relation ≤ wird als stop–loss Ordnung bezeichnet. (1) Die Relation ≤1 ist eine Ordnungsrelation auf Q1 (R). ¨ origen Uberlebensfunktionen G1 , G2 (2) F¨ ur Q1 , Q2 ∈ Q1 (R) und die zugeh¨ gilt Q1 ≤1 Q2 genau dann, wenn f¨ ur alle a ∈ R Z Z G1 (x) dλ(x) ≤ G2 (x) dλ(x) (a,∞)
(a,∞)
gilt. (3) F¨ ur alle Q1 , Q2 ∈ Q1 (R) mit Q1 ≤0 Q2 gilt Q1 ≤1 Q2 .
12.4 Zentrale Momente
285
(4) Verteilungen Q1 , Q2 ∈ Q1 (R) mit Z Z x dQ1 (x) = x dQ2 (x) R
R
sind bez¨ uglich der stochastischen Ordnung nicht vergleichbar. (5) Untersuchen Sie die Vergleichbarkeit der Verteilungen B(2, 12 ) und uglich der stop–loss Ordnung. B(3, 13 ) bez¨ 12.3.L Bedingter Erwartungswert: Sei C ∈ F ein Ereignis mit P [C] ∈ (0, 1). F¨ ur eine Zufallsvariable X, die positiv oder P [ . |C]–integrierbar ist, setzen wir Z X(ω) dP [ . |C](ω) E[X|C] := Ω
und nennen E[X|C] den bedingten Erwartungswert von X unter C. Es gilt Z 1 X(ω) dP (ω) E[X|C] = P [C] C Ist X positiv oder P –integrierbar, so gilt E[X] = E[X|C] P [C] + E[X|C] P [C] Interpretieren Sie diese Gleichung. 12.3.M Jede Zufallsvariable in L∞ (F, P ) besitzt endliche Momente beliebiger Ordnung.
12.4 Zentrale Momente F¨ ur eine Zufallsvariable X mit einem endlichen Erwartungswert ist neben dem Erwartungswert vor allem die Abweichung X − E[X] der Zufallsvariablen von ihrem Erwartungswert von Interesse. Die Zufallsvariable X − E[X] heißt die zu X zentrierte Zufallsvariable und es gilt E[X −E[X]] = 0 Diese Gleichung wird auch als Schwerpunkteigenschaft des Erwartungswertes bezeichnet. F¨ ur eine Zufallsvariable X mit einem endlichen Erwartungswert setzen wir var [X] := E[(X −E[X])2 ] und nennen var [X] die Varianz von X. Die Varianz von X ist genau dann endlich, wenn X ein endliches zweites Moment besitzt. Sie dient als Maß der Abweichung der Zufallsvariablen von ihrem Erwartungswert und wird daher auch als ein Streuungsmaß bezeichnet.
286
Kapitel 12. Univariate Verteilungen
12.4.1 Lemma. Sei X eine Zufallsvariable mit einem endlichen Erwartungswert. (1) Es gilt var [X] = E[X 2 ] − (E[X])2 . (2) Es gilt var [X] = 0 genau dann, wenn P [{X = E[X]}] = 1 gilt. (3) Es gilt var [X] = inf c∈R E[(X −c)2 ]. (4) F¨ ur alle a, b ∈ R gilt var [a+bX] = b2 var [X]. Beweis. Im Fall E[X 2 ] < ∞ folgt aus der Linearit¨at des Integrals var [X] = E[(X −E[X])2 ] = E[X 2 − 2E[X] X + (E[X])2 ] = E[X 2 ] − 2E[X] E[X] + (E[X])2 = E[X 2 ] − (E[X])2 und diese Gleichung gilt auch im Fall E[X 2 ] = ∞. Damit ist (1) gezeigt. ur Wegen (X −E[X])2 ≥ 0 folgt (2) aus Lemma 8.2.8. Sei nun E[X 2 ] < ∞. F¨ die Funktion g : R → R mit g(c) := E[(X −c)2 ] gilt g(c) = E[X 2 ] − 2c E[X] + c2 g (c) = − 2 E[X] + 2c g (c) = 2 Daher ist c∗ := E[X] der eindeutig bestimmte Minimierer von g. Es gilt also E[(X −E[X])2 ] = inf E[(X −c)2 ] c∈R
und diese Gleichung gilt auch im Fall E[X 2 ] = ∞. Damit ist (3) gezeigt. Mit X besitzt auch a + bX einen endlichen Erwartungswert und es gilt * 2 + var [a+bX] = E (a+bX) − E[a+bX] * 2 + = E (a+bX) − (a+b E[X]) = E[b2 (X −E[X])2 ] = b2 E[(X −E[X])2 ] = b2 var [X] Damit ist (4) gezeigt.
2
F¨ ur eine Zufallsvariable X mit PX [N0 ] = 1 und einem endlichen Erwartungswert ist es oft vorteilhaft, die Varianz mit Hilfe der Gleichung var [X] = E[X(X −1)] + E[X] − (E[X])2 zu berechnen.
12.4 Zentrale Momente
287
12.4.2 Beispiele (Diskrete Verteilungen). (1) Hypergeometrische Verteilung: Im Fall PX = H(n, N, K) gilt „ « K K N −n var [X] = n 1− N N N −1 Der Faktor (N−n)/(N−1) heißt Korrekturfaktor (im Vergleich zur Varianz der Binomial–Verteilung B(n, K/N )). (2) Binomial–Verteilung: Im Fall PX = B(n, ϑ) gilt var [X] = n ϑ(1−ϑ) (3) Poisson–Verteilung: Im Fall PX = P(α) gilt var [X] = α (4) Negativbinomial–Verteilung: Im Fall PX = NB(α, ϑ) gilt var [X] = α
ϑ (1−ϑ)2
(5) Geometrische Verteilung: Im Fall PX = Geo(n, ϑ) gilt var [X] = n
1−ϑ ϑ2
12.4.3 Beispiele (Absolutstetige Verteilungen). (1) Uniforme Verteilung: Im Fall PX = U(a, b) gilt var [X] =
(b−a)2 12
(2) Beta–Verteilung: Im Fall PX = Be(α, β) gilt var [X] =
αβ (α+β)2 (α+β + 1)
(3) Gamma–Verteilung: Im Fall PX = Ga(α, γ) gilt var [X] =
γ α2
(4) Normal–Verteilung: Im Fall PX = N(μ, σ 2 ) gilt var [X] = σ 2 Damit ist die Bedeutung des zweiten Parameters der Normal–Verteilung gekl¨ art. In der Tat: Wir betrachten die Zufallsvariable Z :=
X −μ σ
Nach Beispiel 12.2.7 gilt PZ = N(0, 1) und PZ 2 = χ21 = Ga( 12 , 12 ), und aus Beispiel 12.3.8 folgt nun E[Z] = 0 und E[Z 2 ] = 1, und damit var [Z] = 1. Die Behauptung folgt nun aus X = μ + σZ und den Eigenschaften der Varianz.
288
Kapitel 12. Univariate Verteilungen
Mit Hilfe der Varianz lassen sich Wahrscheinlichkeiten f¨ ur Abweichungen einer Zufallsvariablen von ihrem Erwartungswert absch¨atzen: 12.4.4 Lemma (Ungleichung von Tschebyschev). Sei X eine Zufallsvariable mit einem endlichen zweiten Moment. Dann gilt f¨ ur alle c ∈ (0, ∞) * + var [X] P |X −E[X]| ≥ c ≤ c2 und
* P
|X −E[X]| ≤ c
+
≥1−
var [X] c2
Beweis. Die erste Ungleichung ergibt sich unmittelbar aus der Ungleichung von Markov, angewendet auf die zentrierte Zufallsvariable X − E[X]. Wegen * + * + * + P |X −E[X]| ≤ c ≥ P |X −E[X]| < c = 1 − P |X −E[X]| ≥ c folgt die zweite Ungleichung aus der ersten.
2
W¨ ahrend die Ungleichung von Tschebyschev eine zweiseitige Absch¨atzung f¨ ur Abweichungen vom Erwartungswert gibt, liefert die folgende Ungleichung von Cantelli eine einseitige Absch¨ atzung: 12.4.5 Lemma (Ungleichung von Cantelli). Sei X eine Zufallsvariable mit einem endlichen zweiten Moment. Dann gilt f¨ ur alle c ∈ (0, ∞) * + var [X] P X ≥ E[X] + c ≤ 2 c + var [X] Beweis. Sei Z := X − E[X]. Dann gilt E[Z] = 0 und var [Z] = var [X]. F¨ ur alle t ∈ (−c, ∞) gilt c + t > 0 und aus der Ungleichung von Markov folgt nun * + * + P X − E[X] ≥ c = P Z ≥ c * + = P Z +t≥c+t * + ≤ P |Z + t| ≥ c + t E[(Z + t)2 ] (c + t)2 E[Z 2 ] + t2 = (c + t)2 var [Z] + t2 = (c + t)2 var [X] + t2 = (c + t)2
≤
12.4 Zentrale Momente
289
Wir betrachten nun die Funktion g : (−c, ∞) → R mit g(t) :=
var [X] + t2 (c + t)2
Dann gilt ct − var [X] (c + t)3 2 t − 2ct + 3var [X] g (t) = 2 (c + t)4 g (t) = 2
Daher ist t∗ := var [X]/c der eindeutig bestimmte Minimierer von g. Es gilt g(t∗ ) =
var [X] c2 + var [X]
Daraus folgt die Behauptung.
2
Der Beweis der Ungleichung von Cantelli ist ein Beispiel daf¨ ur, wie man f¨ ur bestimmte Wahrscheinlichkeiten zun¨ achst aus der Ungleichung von Markov eine ganze Schar von oberen Schranken gewinnt und sodann das Infimum dieser oberen Schranken bestimmt. F¨ ur eine Zufallsvariable X mit einem endlichen zweiten Moment betrachtet man neben der Varianz auch die Standardabweichung 1/2 / var [X] = E[(X −E[X])2 ] / / F¨ ur alle c ∈ (0, ∞) gilt var [cX] = c var [X]. Daher ist die Standardabweichung ein Streuungsmaß , das dieselbe Dimension wie die Zufallsvariable besitzt. Die Varianz einer Zufallsvariablen X mit einem endlichen Erwartungswert wird auch als zweites zentrales Moment von X bezeichnet. Daneben betrachtet man auch zentrale Momente h¨ oherer Ordnung: F¨ ur eine Zufallsvariable X mit einem endlichen Erwartungswert und f¨ ur n ∈ N heißt das n–te Moment E[(X−E[X])n ] der zentrierten Zufallsvariablen X − E[X] im Fall der Existenz das n–te zentrale Moment oder das zentrale Moment der Ordnung n von X; vgl. Aufgaben 12.4.H und 12.4.I. Das n–te zentrale Moment von X existiert f¨ ur alle n ∈ 2N. Aufgaben 12.4.A Sei X eine Zufallsvariable mit einem endlichen Erwartungswert. Dann gilt f¨ ur alle c ∈ R E[(X −c)2 ] = (E[X]−c)2 + var [X]
290
Kapitel 12. Univariate Verteilungen
12.4.B P´ olya–Verteilung: Sei PX = P´ olya(n, α, β). Dann gilt var [X] = n
α+β+n αβ (α+β)2 α + β + 1
12.4.C Logarithmische Verteilung: Sei PX = Log(ϑ). Dann gilt var [X] =
ϑ | log(1−ϑ)| − ϑ | log(1−ϑ)|2 (1−ϑ)2
12.4.D k–σ–Bereich: Sei X eine Zufallsvariable mit einem endlichen zweiten Moment und mit Erwartungswert μ und Standardabweichung σ. F¨ ur k ∈ N wird das Intervall [μ − kσ, μ + kσ] als k–σ–Bereich (der Verteilung) von X bezeichnet. Bestimmen Sie eine nur von k abh¨ angige universelle untere Schranke f¨ ur die Wahrscheinlichkeit hn oi P X ∈ [μ−kσ, μ+kσ] und berechnen Sie die untere Schranke f¨ ur k ∈ {1, 2, 3}. 12.4.E Standardabweichung: Sei X eine Zufallsvariable mit einem endlichen zweiten Moment und E[X] = 0. Dann gilt p var [X] = X2 12.4.F Variationskoeffizient: Sei X eine positive Zufallsvariable mit einem endlichen zweiten Moment und E[X] > 0. Dann heißt p var [X] v[X] := E[X] Variationskoeffizient (der Verteilung) von X. F¨ ur alle c ∈ (0, ∞) gilt v[cX] = v[X]. Daher ist der Variationskoeffizient ein dimensionsloses Maß f¨ ur die Streuung von X. 12.4.G Standardisierung: Sei X eine Zufallsvariable mit einem endlichen zweiten Moment und mit Erwartungswert μ und Standardabweichung σ > 0. Dann heißt die Zufallsvariable Z =
X −μ σ
die zu X standardisierte Zufallsvariable. Die Zufallsvariable Z ist dimensionslos und es gilt E[Z] = 0 und var [Z] = 1. 12.4.H Schiefe: Sei X eine Zufallsvariable mit einem endlichen dritten Moment und mit Erwartungswert μ und Standardabweichung σ > 0. Dann heißt "„ «3 # X −μ E σ Schiefe (der Verteilung) von X. Berechnen Sie die Schiefe f¨ ur den Fall PX = N(μ, σ 2 ).
12.4 Zentrale Momente 12.4.I
291
Exzess: Sei X eine Zufallsvariable mit einem endlichen vierten Moment und mit Erwartungswert μ und Standardabweichung σ > 0. Dann heißt "„ «4 # X −μ −3 E σ Exzess (der Verteilung) von X. Berechnen Sie den Exzess f¨ ur den Fall PX = N(μ, σ 2 ).
12.4.J
Sei X eine Zufallsvariable mit einem endlichen Moment der Ordnung n. Dann gilt ! n X n n E[(X −E[X]) ] = E[X k ] (−E[X])n−k k k=1
und E[X n ] =
! n X n E[(X −E[X])k ] (E[X])n−k k k=1
12.4.K Uniforme Verteilung: Im Fall PX = U(a, b) gilt „ «n 8 b−a > < 1 falls n ∈ 2N n+1 2 E[(X −E[X])n ] = > : 0 sonst 12.4.L Normal–Verteilung: Im Fall PX = N(μ, σ 2 ) gilt 8 n/2 > Y > < σn (2j −1) falls n ∈ 2N n E[(X −E[X]) ] = j=1 > > : 0 sonst
13 Multivariate Verteilungen
Multivariate Verteilungen sind Wahrscheinlichkeitsmaße auf B(Rm ). Sie sind von Interesse, weil f¨ ur jeden Zufallsvektor X : Ω → Rm das Bildmaß PX von P unter X eine multivariate Verteilung ist. In diesem Kapitel untersuchen wir multivariate Verteilungen. Wir beginnen mit der Charakterisierung multivariater Verteilungen durch Verteilungsfunktionen und einer Reihe von Beispielen f¨ ur diskrete oder absolutstetige Verteilungen (Abschnitt 13.1) und untersuchen dann Transformationen multivariater Verteilungen (Abschnitt 13.2). F¨ ur multivariate Verteilungen ergeben sich nun Besonderheiten, f¨ ur die es im univariaten Fall kein Analogon gibt: Die Berechnung von Randverteilungen (Abschnitt 13.3), die besonderen Eigenschaften der Verteilung eines Zufallsvektors mit unabh¨angigen Koordinaten (Abschnitt 13.4) und die Berechnung der Verteilung der Summe der Koordinaten eines Zufallsvektors (Abschnitt 13.5). Die letzten Abschnitte sind wieder analog zum univariaten Fall und behandeln die Eigenschaften der Momente (Abschnitt 13.6) und der zentralen Momente (Abschnitt 13.7) einer multivariaten Verteilung. Auch in diesem Kapitel werden viele der im ersten Abschnitt eingef¨ uhrten Verteilungen auch im Hinblick auf die Berechnung von Transformationen oder Momenten oder zentralen Momenten diskutiert.
13.1 Verteilungen und Verteilungsfunktionen Ein Wahrscheinlichkeitsmaß Q : B(Rm ) → [0, 1] heißt Verteilung auf B(Rm ) (oder kurz Verteilung auf Rm ). Eine Verteilung auf B(Rm ) mit m ≥ 2 wird auch als multivariate Verteilung bezeichnet. Wie im univariaten Fall l¨ asst sich auch im multivariaten Fall jede Verteilung als Verteilung eines Zufallsvektors auf einem geeigneten Wahrscheinlichkeitsraum
294
Kapitel 13. Multivariate Verteilungen
interpretieren, und wie im univariaten Fall l¨ asst sich auch im multivariaten Fall jede Verteilung durch eine Verteilungsfunktion darstellen. F¨ ur die Definition einer multivariaten Verteilungsfunktion ben¨otigen wir das folgende Hilfsmittel: Sei F : Rm → R eine Funktion und sei (a, b] ∈ J (Rm ) ein nichtleeres Intervall. F¨ ur jede Menge K ⊆ {1, . . . , m} definieren wir einen Vektor c(a,b],K ∈ Rm mit den Koordinaten ai falls i ∈ K c(a,b],K,i := bi sonst und setzen F [a, b] :=
m
(−1)j
F (c(a,b],K )
K⊆{1,...,m}, |K|=j
j=0
Offenbar ist {c(a,b],K }K⊆{1,...,m} gerade die Menge der 2m Eckpunkte des Intervalls (a, b]. ur jedes nichtleere Eine Funktion F : Rm → R heißt rechtecksmonoton, wenn f¨ Intervall (a, b] ∈ J (Rm ) F [a, b] ≥ 0 gilt, und sie heißt stetig von oben, wenn f¨ ur alle x ∈ Rm und jede monoton m fallende Folge {xn }n∈N ⊆ R mit limn→∞ xn = x lim F (xn ) = F (x)
n→∞
gilt. Eine Funktion F : Rm → [0, 1] heißt Verteilungsfunktion, wenn sie folgende Eigenschaften besitzt: (i) F ist rechtecksmonoton. (ii) F ist stetig von oben. (iii) Es gilt limx→+∞ F (x) = 1 und f¨ ur alle x ∈ Rm und i ∈ {1, . . . , m} gilt limt→−∞ F(x + tei ) = 0. F¨ ur m = 1 stimmt diese Definition mit der fr¨ uher gegebenen u ur ¨ berein. F¨ m ≥ 2 ist sie gerade die richtige Verallgemeinerung, wie der folgende Satz zeigt; vgl. auch Aufgabe 13.1.B. 13.1.1 Satz (Korrespondenzsatz). (1) Zu jeder Verteilung Q : B(Rm ) → [0, 1] gibt es genau eine Verteilungsur alle x ∈ Rm . funktion FQ : Rm → [0, 1] mit FQ (x) = Q[(−∞, x]] f¨ m (2) Zu jeder Verteilungsfunktion F : R → [0, 1] gibt es genau eine Verteiur alle x ∈ Rm . lung QF : B(Rm ) → [0, 1] mit QF [(−∞, x]] = F (x) f¨ (3) Es gilt Q(FQ ) = Q und F(QF ) = F .
13.1 Verteilungen und Verteilungsfunktionen
295
Wir verzichten auf den Beweis des Korrespondenzsatzes; der Beweis von (1) ist einfach, der Beweis von (2) verl¨ auft ¨ ahnlich wie die Konstruktion des m– dimensionalen Lebesgue–Maßes, und (3) erh¨ alt man wie im univariaten Fall. Diskrete Verteilungen Eine Verteilung Q : B(Rm ) → [0, 1] heißt diskret , wenn es eine abz¨ahlbare Menge C ⊆ Rm gibt mit Q[C] = 1 In diesem Fall gilt f¨ ur alle B ∈ B(Rm ) Q[B] = Q[B ∩ C] =
Q[{x}]
x∈B∩C
und insbesondere Q[R \ C] = 0; da die Menge C abz¨ahlbar ist, gilt außerdem λm [C] = 0 und damit Q ⊥ λm . Eine Funktion f : Rm → R+ heißt Z¨ahldichte, wenn es eine abz¨ahlbare Menge C ⊆ Rm gibt mit f (x) = 0 f¨ ur alle x ∈ Rm \ C und f (x) = 1 x∈C
Jede Z¨ ahldichte ist messbar. Jede diskrete Verteilung l¨ asst sich durch eine Z¨ahldichte erzeugen, und jede Z¨ ahldichte erzeugt eine diskrete Verteilung: 13.1.2 Lemma. (1) Sei Q : B(Rm ) → [0, 1] eine diskrete Verteilung. Dann ist die Funktion f : Rm → R+ mit f (x) := Q[{x}] eine Z¨ahldichte und f¨ ur alle B ∈ B(Rm ) gilt f (x) Q[B] = x∈B
(2) Sei f : Rm → R+ eine Z¨ahldichte. Dann ist die Mengenfunktion Q : B(Rm ) → [0, 1] mit Q[B] := f (x) x∈B
eine Verteilung und f¨ ur alle x ∈ R
m
gilt
Q[{x}] = f (x)
296
Kapitel 13. Multivariate Verteilungen
Die in Abschnitt 12.1 f¨ ur den univariaten Fall gef¨ uhrte Diskussion u ¨ ber Z¨ahldichten und die absolute Stetigkeit einer diskreten Verteilung bez¨ uglich einem lokalen Z¨ ahlmaß l¨ asst sich unmittelbar auf den multivariaten Fall u ¨ bertragen. Die einfachste diskrete multivariate Verteilung ist die Dirac–Verteilung: 13.1.3 Beispiel (Dirac–Verteilung). F¨ ur z ∈ Rm ist die Funktion f : Rm → R+ mit j 1 falls x = z f (x) := 0 sonst eine Z¨ ahldichte. Die zugeh¨ orige Verteilung heißt Dirac–Verteilung und wird mit δ z bezeichnet. F¨ ur die Verteilung Q := δ z gilt j 0 falls z ∈ /B Q[B] = 1 falls z ∈ B und f¨ ur die zugeh¨ orige Verteilungsfunktion F gilt j 0 falls x ≥ z F (x) = 1 falls x ≥ z Die Funktion F wird als Heaviside–Funktion bezeichnet.
Wir betrachten nun einige parametrische Klassen von diskreten multivariaten Verteilungen Q : B(Rm ) → [0, 1] mit Q[Nm 0 ] = 1: 13.1.4 Beispiele (Diskrete Verteilungen). (1) Polyhypergeometrische Verteilung: F¨ ur n, N mit n ≤ N und 1 K ≤ N ist die Funktion f : Rm ! ! m 8 Y Ki > N − 1 K > > > > > n − 1 x i=1 xi > < ! f (x) := N > > > n > > > > : 0
∈ N und K ∈ {1, . . . , N−1}m → R+ mit
falls x ∈ Nm 0 und 1 x ≤ n
sonst
eine Z¨ ahldichte. Die zugeh¨ orige Verteilung heißt polyhypergeometrische Verteilung und wird mit PH(n, N, K) bezeichnet. Modell : Eine Urne enthalte N Kugeln unterschiedlicher Farben, von denen m Farben ausgezeichnet sind und die anderen Farben nicht ausgezeichnet sind. F¨ ur i ∈ {1, . . . , m} bezeichne Ki die Anzahl der Kugeln der ausgezeichneten allige Anzahl von Kugeln dieser Farbe in Farbe i in der Urne und Xi die zuf¨ einer Stichprobe vom Umfang n beim Ziehen ohne Zur¨ ucklegen. F¨ ur den Zufallsvektor X gilt dann PX = PH(n, N, K). Spezialfall : Im Fall m = 1 gilt PH(n, N, K1 ) = H(n, N, K1 ).
13.1 Verteilungen und Verteilungsfunktionen (2) Multinomial–Verteilung: F¨ ur n ∈ N und ϑ ∈ (0, 1) Funktion f : Rm → R+ mit 8 m Y n! > n−1 x < Q (1−1 ϑ) ϑxi i m (n−1 x)! i=1 xi ! f (x) := i=1 > : 0
297 mit 1 ϑ ≤ 1 ist die falls x ∈ Nm 0 und 1 x ≤ n sonst
eine Z¨ ahldichte. Die zugeh¨ orige Verteilung heißt Multinomial–Verteilung und wird mit M(n, ϑ) bezeichnet. Modell : Eine Urne enthalte Kugeln unterschiedlicher Farben, von denen m Farben ausgezeichnet sind und die anderen Farben nicht ausgezeichnet sind. F¨ ur i ∈ {1, . . . , m} bezeichne ϑi den Anteil der Kugeln der ausgezeichneten Farbe allige Anzahl von Kugeln dieser Farbe i in einer i in der Urne und Xi die zuf¨ Stichprobe vom Umfang n beim Ziehen mit Zur¨ ucklegen. F¨ ur den Zufallsvektor X gilt dann PX = M(n, ϑ). Spezialfall : Im Fall m = 1 gilt M(n, ϑ1 ) = B(n, ϑ1 ). (3) Poisson–Verteilung: F¨ ur α ∈ Rm mit 0 < α ist die Funktion f : Rm → R+ mit 8 m Y −α αxi > < falls x ∈ Nm e i i 0 xi ! f (x) := i=1 > : 0 sonst eine Z¨ ahldichte. Die zugeh¨ orige Verteilung heißt multivariate Poisson–Verteilung und wird mit P(α) bezeichnet. (4) Negativmultinomial–Verteilung: F¨ ur α ∈ (0, ∞) und ϑ ∈ (0, 1) mit 1 ϑ ≤ 1 m ist die Funktion f : R → R+ mit 8 m Y x) > < Γ(α+1 Qm (1−1 ϑ)α ϑxi i falls x ∈ Nm 0 Γ(α) i=1 xi ! f (x) := i=1 > : 0 sonst eine Z¨ ahldichte. Die zugeh¨ orige Verteilung heißt Negativmultinomial–Verteilung und wird mit NM(α, ϑ) bezeichnet. Spezialfall : Im Fall m = 1 gilt NM(α, ϑ1 ) = NB(α, ϑ1 ).
Absolutstetige Verteilungen Eine Verteilung Q : B(Rm ) → [0, 1] heißt absolutstetig, wenn sie absolutstetig bez¨ uglich dem m–dimensionalen Lebesgue–Maß λm ist, also Q λm gilt. Nach dem Satz von Radon/Nikodym ist eine Verteilung Q : B(Rm ) → [0, 1] genau dann absolutstetig, wenn es eine messbare Funktion f : Rm → R+ gibt mit ( Q = f dλm In diesem Fall ist f λm –fast u ¨ berall eindeutig bestimmt und jede solche Funktion f heißt Lebesgue–Dichte von Q.
298
Kapitel 13. Multivariate Verteilungen
13.1.5 Lemma. F¨ ur eine messbare Funktion f : Rm → R+ sind folgende Aussagen ¨aquivalent : (a) f ist Lebesgue–Dichte einer absolutstetigen Verteilung. ) (b) Es gilt Rm f (x) dλm (x) = 1. Wir betrachten nun einige parametrische Klassen von absolutstetigen multivariaten Verteilungen: 13.1.6 Beispiele (Absolutstetige Verteilungen). (1) Uniforme Verteilung: F¨ ur jede Menge C ∈ B(Rm ) mit λm [C] ∈ (0, ∞) ist m die Funktion f : R → R+ mit f (x) :=
1 χC (x) λm [C]
eine Lebesgue–Dichte. Die zugeh¨ orige Verteilung heißt uniforme Verteilung und wird mit U(C) bezeichnet. (2) Dirichlet–Verteilung: F¨ ur η ∈ (0, ∞) und η ∈ Rm mit 0 < η und 1 η < η m ist die Funktion f : R → R+ mit f (x) :=
Γ(η) Qm
Γ(η−1 η)
i=1 Γ(ηi )
und S m :=
n
(1−1 x)η−1 η−1
m Y
xηi i −1 χS m (x)
i=1
˛ o ˛ x ∈ (0, ∞)m ˛ 1 x < 1
eine Lebesgue–Dichte. Die zugeh¨ orige Verteilung heißt Dirichlet–Verteilung und wird mit Dir(η, η) bezeichnet. Spezialfall : Im Fall m = 1 gilt Dir(η, η1 ) = Be(η1 , η−η1 ). (3) Normal–Verteilung: F¨ ur jeden Vektor μ ∈ Rm und jede positiv definite symm×m ist die Funktion f : Rm → R+ mit metrische Matrix Σ ∈ R “ 1 ” 1 exp − (x−μ) Σ−1 (x−μ) f (x) := p 2 (2π)m det(Σ) eine Lebesgue–Dichte. Die zugeh¨ orige Verteilung heißt (multivariate) Normal– Verteilung und wird mit N(μ, Σ) bezeichnet. Spezialfall : Die Verteilung N(0, I) wird als (multivariate) Standardnormal–Verteilung bezeichnet. In der Tat: Nach Proposition C.1.3 gibt es eine invertierbare Matrix A ∈ Rm×m mit Σ = A A. Wir betrachten nun die affine Abbildung T : Rm → Rm mit T (x) := (A )−1 (x−μ) p Nach Folgerung 6.3.2 gilt λm det(Σ) λm , und aus der Substitutionsregel T = und dem Satz von Fubini erhalten wir nun Z “ 1 ” 1 p exp − (x−μ) Σ−1 (x−μ) dλm (x) m 2 (2π) det(Σ) Rm Z “ 1“ ” “ ”” 1 p (A )−1 (x−μ) = exp − (A )−1 (x−μ) dλm (x) 2 (2π)m det(Σ) Rm
13.1 Verteilungen und Verteilungsfunktionen Z
= = = = = = =
299
” “ 1 exp − (T (x)) (T (x)) dλm (x) 2 (2π)m det(Σ) T −1 (Rm ) Z ” “ 1 1 p exp − z z dλm T (z) 2 (2π)m det(Σ) Rm Z ”p “ 1 1 p det(Σ) dλm (z) exp − z z 2 (2π)m det(Σ) Rm Z “ 1 ” 1 p exp − z z dλm (z) 2 (2π)m Rm ! « Z Y m „ m O 1 2 1 − z i √ e 2 λ (z) d 2π Rm i=1 i=1 « Z Y Z m „ 1 2 1 √ e− 2 zi dλ(z1 ) . . . dλ(zm ) ... 2π R R i=1 Z m Y 1 2 1 √ e− 2 zi dλ(zi ) 2π i=1 R p
1
=1
Aufgaben 13.1.A Beweisen Sie den Korrespondenzsatz 13.1.1. 13.1.B Sei F : R2 → [0, 1] gegeben durch j 1 F (x) := 0
falls 1 x ≥ 1 sonst
Dann besitzt F die Eigenschaften (ii) und (iii) einer Verteilungsfunktion, aber F ist nicht rechtecksmonoton. Zeigen Sie ohne Verwendung des Korrespondenzsatzes, dass es keine Verteilung Q : B(R2 ) → [0, 1] gibt mit Q[(−∞, x]] = F (x) f¨ ur alle x ∈ R2 . 13.1.C Verteilungsfunktion auf einem abgeschlossenen Intervall: Eine Funktion F : [a, b] → [0, 1] heißt Verteilungsfunktion auf [a, b], wenn sie die folgenden Eigenschaften besitzt: (i) F ist rechtecksmonoton. (ii) F ist stetig von oben. (iii) F¨ ur alle x1 ∈ [a1 , b1 ] und x2 ∈ [a2 , b2 ] gilt F (a1 , x2 ) = 0 = F (x1 , a2 ) und es gilt limx→b F (x) = 1. Formulieren und beweisen Sie ein Analogon des Korrespondenzsatzes. 13.1.D Copulas: Eine Funktion C : [0, 1]2 → [0, 1] heißt Copula, wenn sie die folgenden Eigenschaften besitzt: (i) C ist rechtecksmonoton. (ii) F¨ ur alle u1 , u2 ∈ [0, 1] gilt C(u1 , 0) = 0 = C(0, u2 ) sowie C(u1 , 1) = u1 und C(1, u2 ) = u2 . Beweisen Sie die folgenden Aussagen: ur alle u, v ∈ [0, 1]2 (1) Ist C : [0, 1]2 → [0, 1] eine Copula, so gilt f¨ |C(v) − C(u)| ≤ |v1 −u1 | + |v2 −u2 |
300
Kapitel 13. Multivariate Verteilungen (2) Jede Copula ist eine Verteilungsfunktion. (3) Sind F1 , F2 : R → [0, 1] Verteilungsfunktionen und ist C : [0, 1]2 → [0, 1] eine Copula, so ist die Funktion F : R2 → [0, 1] mit F (x) := C(F1 (x1 ), F2 (x2 )) eine Verteilungsfunktion. (4) Fr´ echet–Schranken: Jede der Funktionen M, W : [0, 1]2 → [0, 1] mit W (u) := max{u1 +u2 −1, 0} M (u) := min{u1 , u2 } ist eine Copula und f¨ ur jede Copula C : [0, 1]2 → [0, 1] gilt W ≤ C ≤ M . Die Copulas W und M heißen Fr´echet–Schranken. (5) Die Funktion Π : [0, 1]2 → [0, 1] mit Π(u) := u1 u2 ist eine Copula. (6) Sei X : Ω → R2 ein Zufallsvektor, sei FX die Verteilungsfunktion zu PX und seien FX1 und FX2 die Verteilungsfunktionen zu PX1 und PX2 . Dann sind ¨ aquivalent: (a) X besitzt unabh¨ angige Koordinaten. (b) F¨ ur alle x ∈ R2 gilt FX (x) = Π((FX1 (x1 ), FX2 (x2 )) ).
13.1.E P´ olya/Eggenberger–Verteilung: F¨ ur n ∈ N sowie η ∈ (0, ∞) und η ∈ Rm mit 0 < η und 1 η ≤ η ist die Funktion f : Rm → R+ mit ! ! m η − 1 η + n − 1 x − 1 Y ηi + xi − 1 n − 1 x xi i=1 ! η+n−1 n
8 > > > > > > > < f (x) :=
> > > > > > > :
0
falls x ∈ Nm 0 und 1 x ≤ n
sonst
eine Z¨ ahldichte. Die zugeh¨ orige Verteilung heißt P´ olya/Eggenberger–Verteilung und wird mit PE(n, η, η) bezeichnet. olya(n, η1 , η−η1 ). Spezialfall : Im Fall m = 1 gilt PE(n, η, η1 ) = P´ 13.1.F Gemischte Multinomial–Verteilung: F¨ ur n ∈ N und jede Verteilung Q : B(Rm ) → [0, 1] mit Q[{ϑ ∈ (0, 1)m | 1 ϑ ≤ 1}] = 1 ist die Funktion f : Rm → R+ mit 8Z > < f (x) :=
> : 0
m Y n! falls x ∈ Nm n−1 x 0 Q ϑ) ϑxi i dQ(ϑ) (1−1 m x)! und 1 x ≤ n (n−1 x ! m R i=1 i i=1
sonst
eine Z¨ ahldichte. Die zugeh¨ orige Verteilung heißt gemischte Multinomial– Verteilung. Untersuchen Sie den Fall Q = Dir(η, η).
13.2 Transformationen von Verteilungen
301
13.2 Transformationen von Verteilungen Wie im univariaten Fall sind auch im multivariaten Fall Transformationen von absolutstetigen Maßen B(Rm ) → [0, ∞] von gr¨oßter Bedeutung, und zwar – f¨ ur den Nachweis, dass eine messbare Funktion f : Rm → R+ eine Lebesgue–Dichte einer Verteilung ist, – f¨ ur den Nachweis der Existenz und Endlichkeit von Momenten einer Verteilung, und – f¨ ur die Berechnung von Momenten einer Verteilung. ur eine abz¨ahlbare nichtleere Menge Der Fall eines Maßes ν mit ν ζ C f¨ C ∈ B(R)m ist elementar zu behandeln; vgl. Satz 12.2.2. F¨ ur ein Maß ν : B(Rm ) → [0, ∞] mit ν λm erh¨alt man die folgende Verallgemeinerung von Satz 12.2.3: 13.2.1 Satz. Sei f : Rm → R+ messbar und ( ν := f (x) dλm (x) Sei ferner T : Rm → Rm gegeben durch T (x) := c + Dx mit c ∈ Rm und D ∈ Rm×m invertierbar. Dann gilt ( 1 dλm (z) νT = f (D−1 (z−c)) | det(D)| Insbesondere gilt ν[Rm ] = νT [Rm ]. Bei Aussagen u ¨ ber einen Zufallsvektor X : Ω → Rm mit einer gegebenen Verteilung Q : B(Rm ) → [0, 1] schreiben wir anstelle der Formulierung Sei X ” ein Zufallsvektor mit PX = Q“ oft nur Sei PX = Q“. ” 13.2.2 Beispiel (Normal–Verteilung). Sei PX := N(μ, Σ). Dann gilt f¨ ur alle c ∈ Rm und jede invertierbare Matrix D ∈ Rm×m Pc+DX = N(c+Dμ, DΣD ) In der Tat: Es gilt Z p PX =
“ 1 ” exp − (x−μ) Σ−1 (x−μ) dλm (x) 2 (2π)m det(Σ) 1
Wir betrachten die affine Abbildung T : Rm → Rm mit T (x) := c + Dx. Dann gilt Pc+DX = PT ◦X = (PX )T und aus Satz 13.2.1 ergibt sich nun Pc+DX = (PX )T Z 1 p = m (2π) det(Σ) “ 1“ “ ” ”” 1 · exp − D−1 (z−c) − μ Σ−1 D−1 (z−c) − μ dλm (z) 2 | det(D)|
302
Kapitel 13. Multivariate Verteilungen Z
1 (2π)m det(DΣD ) ” “ ”” “ 1“ · exp − z − (c+Dμ) (D−1 ) Σ−1 D−1 z − (c+Dμ) dλm (z) 2 Z 1 p = (2π)m det(DΣD ) ” “ ”” “ 1“ · exp − z − (c+Dμ) (DΣD )−1 z − (c+Dμ) dλm (z) 2 =
p
= N(c+Dμ, DΣD )
Aufgabe 13.2.A Ordnungsstatistiken: F¨ ur k ∈ N(2) und x ∈ Rk bezeichne xk−1 den um die letzte Koordinate verk¨ urzten Vektor x. (1) F¨ ur alle k ∈ N(2) und j ∈ {1, . . . , k−1} ist die Abbildung hk,j : Rk → Rk mit hk,j (x) := (x1 , . . . , xj−1 , xj ∧xk , xj+1 , . . . , xk−1 , xj ∨xk ) stetig. (2) F¨ ur alle k ∈ N ist die Abbildung Tk : Rk → Rk mit 8 x > < 1 „ « Tk (x) := Tk−1 (xk−1 ) > : hk,1 ◦ · · · ◦ hk,k−1 xk
falls k = 1 sonst
stetig und f¨ ur jedes x ∈ Rk ist die Folge der Koordinaten von Tk (x) monoton wachsend. (3) F¨ ur alle n ∈ N und f¨ ur jeden Zufallsvektor X : Ω → Rn ist Tn ◦ X messbar. F¨ ur einen Zufallsvektor X : Ω → Rn werden die Koordinaten von Tn ◦ X als Ordnungsstatistiken und mit Xn:1 , . . . , Xn:n bezeichnet.
13.3 Randverteilungen Im gesamten Abschnitt sei m ≥ 2 und J ⊆ {1, . . . , m} eine Menge mit 1 ≤ |J| ≤ m − 1. Wir identifizieren wieder den Messraum (Rm , B(Rm )) mit dem Produkt (RJ , B(RJ )) ⊗ (R{1,...,m}\J , B(R{1,...,m}\J )) und jede Funktion Rm → R mit einer Funktion RJ × R{1,...,m}\J → R. Sei zun¨ achst X : Ω → Rm ein Zufallsvektor. Dann ist neben der Verteilung PX : B(Rm ) → [0, 1] von X auch die Verteilung (PX )πJ : B(RJ ) → [0, 1] des reduzierten Zufallsvektors πJ ◦X von Interesse; die Verteilung PπJ ◦X heißt die
13.3 Randverteilungen
303
Randverteilung von X bez¨ uglich J. F¨ ur i ∈ {1, . . . , m} ist die eindimensionale Randverteilung (PX )πi gerade die Verteilung PXi der i–ten Koordinate Xi von X. Die eindimensionalen Randverteilungen von X sind von besonderem Interesse, denn nach -mSatz 11.3.5 besitzt X genau dann unabh¨angige Koordinaten, wenn PX = i=1 PXi gilt. Allgemein ist f¨ ur eine Verteilung Q : B(Rm ) → [0, 1] das Bildmaß QπJ von Q unter der Projektion πJ : Rm → RJ eine Verteilung B(RJ ) → [0, 1]; die uglich J. Wir untersuchen Verteilung QπJ heißt die Randverteilung von Q bez¨ die Berechnung von Randverteilungen und zeigen, dass gewisse parametrische ¨ Klassen von Verteilungen unter dem Ubergang zu beliebigen Randverteilungen stabil sind. F¨ ur eine Verteilung Q : B(Rm ) → [0, 1], die absolutstetig bez¨ uglich einem Produktmaß auf B(RJ ) ⊗ B(R{1,...,m}\J ) ist, l¨asst sich die Randverteilung QπJ mit Hilfe des folgenden Satzes bestimmen: ur 13.3.1 Satz. Sei Q : B(Rm ) → [0, 1] eine Verteilung mit Q μ ⊗ ν f¨ σ–endliche Maße μ : B(RJ ) → [0, ∞] und ν : B(R{1,...,m}\J ) → [0, ∞] und sei f : RJ × R{1,...,m}\J → R+ eine messbare Funktion mit ( Q = f (y, z) d(μ ⊗ ν)(y, z) Dann gilt
(
! f (y, z) dν(z) dμ(y)
(
Q πJ =
R{1,...,m}\J
Insbesondere ist QπJ μ–stetig und f besitzt eine Darstellung der Form f (y, z) = g(y) hy (z) mit einer Familie {hy }y∈RJ von messbaren Funktionen R{1,...,m}\J → R+ mit ( hy (z) dν(z) = 1 R{1,...,m}\J
und einer messbaren Funktion g : RJ → R+ mit QπJ =
)
g(y) dμ(y).
Beweis. F¨ ur alle B ∈ B(RJ ) gilt nach dem Satz von Fubini QπJ [B] = Q[πJ−1 (B)] = Q[B × R{1,...,m}\J ] ( = f (y, z) d(μ ⊗ ν)(y, z) B×R{1,...,m}\J ! ( ( = f (y, z) dν(z) dμ(y) B
R{1,...,m}\J
304
Kapitel 13. Multivariate Verteilungen
Damit ist die erste Gleichung gezeigt und es ist dann klar, dass QπJ μ–stetig ist. Sei nun g : RJ → R+ gegeben durch ( f (y, z) dν(z) g(y) := R{1,...,m}\J
und f¨ ur alle y ∈ RJ sei hy : R{1,...,m}\J → R+ gegeben durch
f (y, z)/g(y) falls g(y) = 0 hy (z) := 0 sonst Nach dem Satz von Fubini ist g messbar und nach Lemma 9.7.1 ist auch jede der Funktionen hy messbar. Die letzten Gleichungen des Satzes sind dann klar. 2 Nach Konstruktion des Produktmaßes sind die Voraussetzungen des Satzes m insbesondere f¨ ur jede Verteilung Q mit Q ζ m erf¨ ullt, und N0 oder Q λ f¨ ur jede Verteilung, die den Voraussetzungen des Satzes gen¨ ugt, berechnet man eine Randverteilung am einfachsten dadurch, dass man zun¨achst die Faktorisierung der Dichte f (y, z) = g(y) hy (z) mit den im Satz geforderten Eigenschaften bestimmt. Eine weitere Vereinfachung bei der Berechnung von Randverteilungen ergibt sich f¨ ur alle Verteilungen, die einer permutationsinvarianten parametrischen Klasse von Verteilungen angeh¨ oren: Ist π : {1, . . . , m} → {1, . . . , m} eine Permutation, so ist die Abbildung Tπ : Rm → Rm mit Tπ (ei ) := eπ(i) eine Bijektion und damit messbar. Eine parametrische Klasse Q von Verteilungen B(Rm ) → [0, 1] heißt permutationsinvariant , wenn sie f¨ ur jede Verteilung Q ∈ Q und jede Permutation π : {1, . . . , m} → {1, . . . , m} auch die Verteilung alt. F¨ ur eine Verteilung Q : B(Rm ) → [0, 1] in einer permutationsQTπ enth¨ invarianten parametrischen Klasse von Verteilungen gen¨ ugt es daher, f¨ ur alle k ∈ {1, . . . , m−1} die Randverteilung Qπ{1,...,k} zu bestimmen. 13.3.2 Beispiele (Diskrete Verteilungen). (1) Polyhypergeometrische Verteilung: Die Klasse der m–dimensionalen polyhypergeometrischen Verteilungen ist permutationsinvariant. F¨ ur Q = PH(n, N, K) gilt f¨ ur alle J ∈ H({1, . . . , m}) QπJ = PH(n, N, πJ (K)) Insbesondere gilt f¨ ur alle i ∈ {1, . . . , m} Qπi = H(n, N, Ki )
13.3 Randverteilungen
305
(2) Multinomial–Verteilung: Die Klasse der m–dimensionalen Multinomial– Verteilungen ist permutationsinvariant. F¨ ur Q = M(n, ϑ) gilt f¨ ur alle J ∈ H({1, . . . , m}) QπJ = M(n, πJ (ϑ)) Insbesondere gilt f¨ ur alle i ∈ {1, . . . , m} Qπi = B(n, ϑi ) P In der Tat: F¨ ur alle x1 , . . . , xm−1 ∈ N0 mit m−1 i=1 xi ≤ n gilt Qπ{1,...,m−1} [{(x1 , . . . , xm−1 )}] n−
Pm−1 i=1 X
= n−
xm =0 Pm−1 i=1 X
=
xi
Q[{(x1 , . . . , xm−1 , xm )}] xi
n! P Qm (n− m x i=1 i )! i=1 xi !
xm =0
=
(n− n−
·
Pm−1 i=1
Pm−1 i=1 X
xm =0
xi
n! Q xi )! m−1 i=1 xi !
1−
1−
1−
!n−Pm i=1 xi ϑi
i=1
m−1 X
ϑi
!n−Pm−1 i=1 xi m−1 Y
i=1
P (n− m−1 xi )! i=1 P xm ! (n− m i=1 xi )!
n! = P Qm−1 (n− m−1 x i )! i=1 i=1 xi !
1−
m X
ϑm Pm−1
m−1 X
i=1
ϑi
!xm ϑi
m Y
ϑxi i
i=1
ϑxi i
i=1
!n− P 1− m i=1 ϑi P 1 − m−1 i=1 ϑi
!n−Pm−1 i=1 xi m−1 Y
i=1
Pm
i=1
xi
ϑxi i
i=1
Dabei ergibt sich die letzte Gleichung daraus, dass die Summation u ¨ ber die Einzelwahrscheinlichkeiten der Binomial–Verteilung ! m−1 X ϑm xi , B n− P 1− m−1 i=1 ϑi i=1 den Wert 1 ergibt. Damit ist die Behauptung f¨ ur den Fall k = m−1 bewiesen, und f¨ ur den allgemeinen Fall ergibt sie sich durch vollst¨ andige Induktion. (3) Negativmultinomial–Verteilung: Die Klasse der m–dimensionalen Negativmultinomial–Verteilungen ist permutationsinvariant. F¨ ur Q = NM(α, ϑ) gilt f¨ ur alle J ∈ H({1, . . . , m}) QπJ
!
1 = NM α, P πJ (ϑ) j∈J ϑj + 1 − 1 ϑ
Insbesondere gilt f¨ ur alle i ∈ {1, . . . , m} „ Qπi = NB α,
ϑi ϑi + 1 − 1 ϑ
«
306
Kapitel 13. Multivariate Verteilungen
Im Fall der polyhypergeometrischen Verteilung und im Fall der Multinomial– Verteilung l¨ asst sich das Ergebnis mit Hilfe der Urnenmodelle veranschaulichen: In ¨ beiden F¨ allen sind urspr¨ unglich m Farben ausgezeichnet und der Ubergang zu einer k–dimensionalen Randverteilung entspricht einer Vergr¨ oberung der Betrachtungsweise, die darin besteht, dass von den urspr¨ unglichen m ausgezeichneten Farben nur noch k Farben als ausgezeichnet angesehen werden. 13.3.3 Beispiele (Absolutstetige Verteilungen). (1) Uniforme Verteilung: Die Klasse der m–dimensionalen uniformen Verteilungen ist permutationsinvariant. F¨ ur Q = U(C) mit C :=
˛` o n ´2 ` ´2 ˛ x ∈ R2 ˛ x1 − 12 + x2 − 12 < 14
gilt f¨ ur alle i ∈ {1, 2} ` ´ Qπi = Be 32 , 32 In der Tat: Es gilt Z Q=
4 χC (x) dλ2 (x) π
und aus Satz 13.3.1 folgt Z „Z Qπ1 =
R
« 4 χC (x1 , x2 ) dλ(x2 ) dλ(x1 ) π
Um das innere Integral ausrechnen zu k¨ onnen, setzen wir f¨ ur alle x1 ∈ (0, 1) “ ” p p C(x1 ) := 12 − x1 (1−x1 ), 12 + x1 (1−x1 ) alt Dann gilt χC (x1 , x2 ) = χ(0,1) (x1 ) χC(x1 ) (x2 ) und man erh¨ « Z „Z Qπ1 ∼ χC (x1 , x2 ) dλ(x2 ) dλ(x1 ) R « Z „Z = χ(0,1) (x1 ) χC(x1 ) (x2 ) dλ(x2 ) dλ(x1 ) R « Z „Z χC(x1 ) (x2 ) dλ(x2 ) χ(0,1) (x1 ) dλ(x1 ) = R Z = λ[C(x1 )] χ(0,1) (x1 ) dλ(x1 ) Z “ p ” = 2 x1 (1−x1 ) χ(0,1) (x1 ) dλ(x1 ) Z 3 3 −1 ∼ x12 (1−x1 ) 2 −1 χ(0,1) (x1 ) dλ(x1 ) und damit Qπ1 = Be( 32 , 32 ).
13.3 Randverteilungen
307
(2) Dirichlet–Verteilung: Die Klasse der m–dimensionalen Dirichlet–Verteilungen ist permutationsinvariant. F¨ ur Q = Dir(η, η) gilt f¨ ur alle J ∈ H({1, . . . , m}) QπJ = Dir(η, πJ (η)) Insbesondere gilt f¨ ur alle i ∈ {1, . . . , m} Qπi = Be(ηi , η−ηi ) (3) Normal–Verteilung: Die Klasse der m–dimensionalen Normal–Verteilungen ist permutationsinvariant. F¨ ur Q = N(μ, Σ) gilt f¨ ur alle J ∈ H({1, . . . , m}) QπJ = N(μJ , ΣJ ) ur alle i ∈ {1, . . . , m} mit μJ := πJ (μ) und ΣJ := {σij }i,j∈J . Insbesondere gilt f¨ Qπi = N(μi , σii ) In der Tat: Es gilt Z p Q=
“ 1 ” exp − (x−μ) Σ−1 (x−μ) dλm (x) 2 (2π)m det(Σ) Z “ 1 ” ∼ exp − (x−μ) Σ−1 (x−μ) dλm (x) 2 1
Wir betrachten k ∈ {1, . . . , m} und schreiben μ als Blockvektor « „ μ1 μ= μ2 mit μ1 := {μi }i∈{1,...,k} und Σ als Blockmatrix « „ Σ11 Σ12 Σ= Σ21 Σ22 mit Σ11 := {σij }i,j∈{1,...,k} . Dann sind Σ11 und Σ22 symmetrisch und positiv definit, und damit ist auch die Matrix U := Σ22 − Σ21 Σ−1 11 Σ12 symmetrisch und positiv definit. Es gilt « „ −1 «„ « „ Ik O Ik O Σ11 O Σ−1 = −1 −1 −1 O U −Σ21 Σ11 In−k −Σ21 Σ11 In−k Wir schreiben nun auch jeden Vektor x ∈ Rm als Blockvektor „ « x1 x= x2
308
Kapitel 13. Multivariate Verteilungen mit x1 := {xi }i∈{1,...,k} und setzen ν(x1 ) := μ2 + Σ21 Σ−1 11 (x1 −μ 1 ). Dann gilt (x − μ) Σ−1 (x − μ) «„ «„ −1 «„ «„ « „ Ik O Ik O x1 −μ1 x1 −μ1 Σ11 O = x2 −μ2 −Σ21 Σ−1 x2 −μ2 O U−1 −Σ21 Σ−1 11 In−k 11 In−k «„ −1 « «„ „ Σ11 O x1 − μ 1 x1 − μ 1 = x2 − ν(x2 ) O U−1 x2 − ν(x2 ) −1 (x2 −ν(x1 )) = (x1 −μ1 ) Σ−1 11 (x1 −μ1 ) + (x2 −ν(x1 )) U
und damit ” “ 1 exp − (x−μ) Σ−1 (x−μ) 2 ” “ 1 ” “ 1 −1 (x2 −ν(x1 )) = exp − (x1 −μ1 ) Σ−1 11 (x1 −μ 1 ) · exp − (x2 −ν(x1 )) U 2 2 Aufgrund der Translationsinvarianz des Lebesgue–Maßes ist das Integral Z “ 1 ” exp − (x2 −ν(x1 )) U−1 (x2 −ν(x1 )) dλm−k (x2 ) 2 Rm−k angig von x1 , und wegen unabh¨ angig von ν(x1 ) und damit unabh¨ Z “ 1 ” exp − (x2 −ν(x1 )) U−1 (x2 −ν(x1 )) dλm−k (x2 ) N(ν(x1 ), U) ∼ 2 Rm−k ergibt sich nun aus Satz 13.3.1 Z “ 1 ” k Qπ{1,...,k} ∼ exp − (x1 −μ1 ) Σ−1 11 (x1 −μ1 ) dλ (x1 ) 2 und damit Qπ{1,...,k} = N(μ1 , Σ11 ).
Aufgaben 13.3.A Sei Q : B(Rm ) → [0, 1] eine Verteilung und sei F die zugeh¨ orige Verteilungsfunktion. Dann gilt f¨ ur die Verteilungsfunktion FπJ zu QπJ “ ” −1 FπJ (y) = lim F πJ−1 (y) ∩ π{1,...,m}\J (n1{1,...,m}\J ) n→∞
13.3.B Multinomial–Verteilung: Sei n ∈ N und sei {ϑi }i∈N ⊆ (0, ∞) eine Folge P mit ∞ i=1 ϑi = 1. Dann ist die Familie {M(n, {ϑi }i∈K )}K∈H(N) projektiv. 13.3.C P´ olya/Eggenberger–Verteilung:P Sei n ∈ N und η ∈ (0, ∞) und sei ∞ {ηi }i∈N ⊆ (0, ∞) eine Folge mit i=1 ηi = η. Dann ist die Familie {PE(n, η, {ηi }i∈K )}K∈H(N) projektiv. 13.3.D Dirichlet–Verteilung: Sei η ∈ (0, ∞) und sei {ηi }i∈N ⊆ (0, ∞) eine Folge P mit ∞ i=1 ηi = η. Dann ist die Familie {Dir(η, {ηi }i∈K )}K∈H(N) projektiv.
13.4 Unabh¨ angigkeit
309
13.4 Unabh¨ angigkeit Sei zun¨ achst X : Ω → Rm ein Zufallsvektor. Nach Satz 11.3.5 besitzt X genau dann unabh¨ angige Koordinaten X1 , . . . , Xm , wenn PX =
m
PXi
i=1
gilt. Wegen Xi = πi ◦ X l¨ asst sich diese Bedingung auch in der Form PX =
m
(PX )πi
i=1
schreiben. Daher besitzt ein Zufallsvektor genau dann unabh¨angige Koordinaten, wenn seine Verteilung gleich dem Produkt seiner eindimensionalen Randverteilungen ist. Wir untersuchen nun die Frage, unter welchen Bedingungen eine Verteilung Q : B(Rm ) → [0, 1] mit dem Produkt ihrer eindimensionalen Randverteilungen Qπi : B(R) → [0, 1] u ¨bereinstimmt. Als erstes charakterisieren wir die G¨ ultigkeit der Gleichung Q=
m
Q πi
i=1
durch eine analoge Gleichung f¨ ur die zugeh¨ origen Verteilungsfunktionen: 13.4.1 Satz. Sei Q : B(Rm ) → [0, 1] eine Verteilung. Sei ferner F die Verteilungsfunktion zu Q und f¨ ur i ∈ {1, . . . , m} sei Fπi die Verteilungsfunktion a quivalent : zu Qπi . Dann sind ¨ -m (a) Es gilt Q = i=1 Qπi . m (b) F¨ ur alle x ∈ Rm gilt F (x) = i=1 Fπi (xi ). Beweis. Wir nehmen zun¨ achst an, dass (a) gilt. Dann gilt f¨ ur alle x ∈ Rm F (x) = Q[(−∞, x]] m m Q πi (−∞, xi ] = i=1
= =
m i=1 m i=1
Daher folgt (b) aus (a).
i=1
Qπi [(−∞, xi ]] Fπi (xi )
310
Kapitel 13. Multivariate Verteilungen
Wir nehmen nun an, dass (b) gilt. Dann gilt f¨ ur alle x ∈ Rm Q[(−∞, x]] = F (x) = =
=
m
Fπi (xi )
i=1 m
Qπi [(−∞, xi ]] i=1 m m Q πi
(−∞, xi ]
i=1
i=1
und aus dem Eindeutigkeitssatz folgt nun Q = aus (b).
-m i=1
Qπi . Daher folgt (a) 2
Da Verteilungsfunktionen nur in seltenen F¨ allen explizit angegeben werden k¨ onnen, ist der letzte Satz nur von theoretischem Interesse. F¨ ur Anwendungen wichtig ist hingegen der folgende Satz u ¨ ber Verteilungen, die absolutstetig bez¨ uglich einem Produktmaß sind; vgl. Aufgabe 13.4.A: ur ein 13.4.2 Satz. Sei Q : B(Rm ) → [0, 1] eine Verteilung mit Q μm f¨ σ–endliches Maß μ : B(R) → [0, ∞]. Sei ferner f eine μm –Dichte von Q und f¨ ur i ∈ {1, . . . , m}-sei fπi eine μ–Dichte von Qπi . Dann sind ¨aquivalent : m (a) Es gilt Q = i=1 Q πi . m (b) Es gilt f (x) = m ¨ berall. i=1 fπi (xi ) μ –fast u Beweis. Wir nehmen zun¨ achst an, dass (a) gilt. Dann gilt nach dem Satz von Fubini f¨ ur alle B1 , . . . , Bm ∈ B(R) m ( f (x) dμm (x) = Q Bi Q m i=1
Bi
= = =
i=1 m
Q πi
i=1 m
Bi
i=1
Qπi [Bi ]
i=1 m (
fπi (xi ) dμ(xi )
Bi
i=1
(
=
m
Qm
i=1 Bi
Aus dem Eindeutigkeitssatz folgt nun
m i=1
fπi (xi ) dμm (x)
13.4 Unabh¨ angigkeit
311
( m
f (x) dμ (x) =
( m
fπi (xi ) dμm (x)
i=1
m und aus dem Satz von Radon/Nikodym folgt dann f (x) = i=1 fπi (xi ) fast u ¨ berall. Daher folgt (b) aus (a). Wir nehmen nun an, dass (b) gilt. Dann gilt nach dem Satz von Fubini f¨ ur alle B1 , . . . , Bm ∈ B(R) m ( Q Bi = Q f (x) dμm (x) i=1
m i=1
( =
Bi
m
Qm
i=1 Bi
= =
=
m (
fπi (xi ) dμm (x)
i=1
fπi (xi ) dμ(xi )
Bi
i=1 m
Qπi [Bi ] i=1 m m Q πi
i=1
Bi
i=1
und aus dem Eindeutigkeitssatz folgt nun Q = aus (b).
-m i=1
Qπi . Daher folgt (a) 2
13.4.3 Beispiele (Diskrete Verteilungen). (1) Polyhypergeometrische Verteilung: F¨ ur Q = PH(n, N, K) Nm
gilt Q = i=1 Qπi . (2) Multinomial–Verteilung: F¨ ur Q = M(n, ϑ) Nm
gilt Q = i=1 Qπi . (3) Negativmultinomial–Verteilung: F¨ ur Q = NM(α, ϑ) gilt Q =
Nm i=1
Qπi .
13.4.4 Beispiele (Absolutstetige Verteilungen). (1) Uniforme Verteilung: F¨ ur Q = U(C) gilt Q =
Nm i=1
Qπi genau dann, wenn es C1 , . . . , Cm ∈ B(R) gibt mit
312
Kapitel 13. Multivariate Verteilungen » – m Y λm C Ci = 0 i=1
In der Tat: Nm ur i ∈ {1, . . . , m} sei Wir nehmen zun¨ achst an, dass Q i=1 Qπi gilt. F¨ R = fπi : R → R+ messbar mit Qπi = fπi dλ und Ci := {fπi > 0}. Dann gilt nach Satz 13.4.2 m Y 1 χC (x) = fπi (xi ) λ [C] i=1 m
Qm λm –fast u ¨ berall, und daraus folgt λm [C i=1 Ci ] = 0. Q Wir nehmen nun an, dass es C1 , . . . , Cm ∈ B(R) gibt mit λm [C m i=1 Ci ] = 0. Dann gilt m Y 1 1 χC (x) = χCi (xi ) λ [C] λ[C i] i=1 m
λm –fast u ur alle B1 , . . . , Bm ∈ B(R) ¨ berall, und aus dem Satz von Fubini folgt f¨ # Z "m Y 1 Bi = Q Q χC (x) dλm (x) m m B λ [C] i=1 i=1 i ! Z m Y 1 = Q χCi (xi ) dλm (x) m B λ[C ] i i=1 i=1 i m Z Y 1 χCi (xi ) dλ(xi ) = λ[Ci ] i=1 Bi Daraus ergibt sich zun¨ achst Z Qπi [Bi ] = Bi
1 χCi (xi ) dλ(xi ) λ[Ci ]
f¨ ur alle i ∈ {1, . . . , m}, und sodann "m # m Z Y Y Bi = Q i=1
=
i=1 m Y
Bi
1 χCi (xi ) dλ(xi ) λ[Ci ]
Qπi [Bi ]
i=1
=
m O
!" Qπi
i=1
Aus dem Eindeutigkeitssatz folgt nun Q = (2) Dirichlet–Verteilung: F¨ ur
m Y i=1
Nm i=1
Q = Dir(η, η) gilt Q =
Nm i=1
Qπi .
# Bi Qπi .
13.4 Unabh¨ angigkeit
313
(3) Normal–Verteilung: F¨ ur Q = N(μ, Σ)
Nm
gilt Q = i=1 Qπi genau dann, wenn Σ eine Diagonalmatrix ist. In der Tat: N Wir nehmen zun¨ achst an, dass Q = m i=1 Qπi gilt. Nach Satz 13.4.2 gilt dann „ « « Y „ m 1 1 (xi −μi )2 1 1 p √ exp − (x−μ) Σ−1 (x−μ) = exp − 2 2 σii 2πσii (2π)m det(Σ) i=1 ur λm –fast u ¨ berall, und da beide Seiten stetig sind, gilt die Gleichung sogar f¨ achst alle x ∈ Rm . Mit x = μ erhalten wir zun¨ p
1 (2π)m det(Σ)
=
m Y i=1
√
1 2πσii
und sodann f¨ ur alle x ∈ Rm « „ « Y „ m 1 1 (xi − μi )2 exp − (x − μ) Σ−1 (x − μ) = exp − 2 2 σii i=1 ! m 1 X (xi − μi )2 = exp − 2 i=1 σii F¨ ur die Diagonalmatrix U mit uij :=
(
σij 0
falls i = j sonst
gilt daher
« „ « „ 1 1 exp − (x − μ) Σ−1 (x − μ) = exp − (x − μ) U−1 (x − μ) 2 2
und damit (x − μ) Σ−1 (x − μ) = (x − μ) U−1 (x − μ) Daraus folgt Σ−1 = U−1 und damit Σ = U. Die umgekehrte Implikation ist klar.
Aufgaben
Nm 13.4.A Sei Q : B(Rm ) → [0, 1] eine Verteilung mit Q N ur σ–endliche i=1 μi f¨ μ Maße μ1 , . . . , μm : B(R) → [0, ∞]. Sei ferner f eine ( m i=1 i )–Dichte von aquiQ und f¨ ur i ∈ {1, . . . , m} sei fπi eine μi –Dichte von Qπi . Dann sind ¨ valent: N (a) Es gilt Q = m i=1 Nm Q Qπi . (b) Es gilt f (x) = m ¨ berall. i=1 fπi (xi ) ( i=1 μi )–fast u 13.4.B Sind X und Y unabh¨ angige Zufallsvariable, so gilt f¨ ur alle z ∈ R P [{X ∨ Y ≤ z}] = P [{X ≤ z}] P [{Y ≤ z}] P [{X ∧ Y > z}] = P [{X > z}] P [{Y > z}] 13.4.C Bestimmen Sie f¨ ur unabh¨ angige exponential–verteilte Zufallsvariable X, Y die Verteilung von X ∧ Y .
314
Kapitel 13. Multivariate Verteilungen
13.5 Verteilungen von Summen von Zufallsvariablen In diesem Abschnitt untersuchen wir f¨ ur reelle Zufallsvariable X1 , . . . , Xm die
m Verteilung ihrer Summe i=1 Xi . Zu diesem Zweck fassen wir die reellen Zufallsvariablen X1 , . . . , Xm als Koordinaten eines Zufallsvektors X : Ω → Rm auf. Wegen m
Xi = 1 X
i=1
geht die Verteilung der Summe u ¨ ber die lineare Abbildung T : Rm → R mit T (x) := 1 x aus der Verteilung von X hervor, denn es gilt PPm = P1 X = PT ◦X = (PX )T i=1 Xi Wir untersuchen die Berechnung der Verteilung der Summe von m¨oglicherweise abh¨ angigen reellen Zufallsvariablen und zeigen, dass gewisse Klassen von univariaten Verteilungen unter der Summation von unabh¨angigen reellen Zufallsvariablen stabil sind. Wir betrachten zun¨ achst den Fall, in dem X eine diskrete Verteilung besitzt. In diesem Fall erh¨ alt man die Verteilung von 1 X sofort aus der multivariaten Version von Satz 12.2.2: 13.5.1 Satz. Sei X : Ω → Rm ein Zufallsvektor mit einer diskreten Verteilung und sei C ⊆ Rm abz¨ahlbar mit PX [C] = 1. Dann gilt f¨ ur alle B ∈ B(R) P [{X = x}] P1 X [B] = x∈B
x∈C, 1 x=x
Insbesondere ist P1 X diskret. Wir geben einige Beispiele f¨ ur die Anwendung des Satzes: 13.5.2 Beispiele (Diskrete Verteilungen). (1) Polyhypergeometrische Verteilung: Im Fall PX = PH(n, N, K) gilt P1 X = H(n, N, 1 K) (2) Multinomial–Verteilung: Im Fall PX = M(n, ϑ) gilt P1 X = B(n, 1 ϑ) (3) Negativmultinomial–Verteilung: Im Fall PX = NM(α, ϑ) gilt ` ´ P1 X = NB α, 1 ϑ
13.5 Verteilungen von Summen von Zufallsvariablen
315
Im Fall eines Zufallsvektors mit unabh¨ angigen Koordinaten vereinfacht sich die Darstellung der Verteilung der Summe wie folgt: 13.5.3 Folgerung. Sei X : Ω → Rm ein Zufallsvektor mit einer diskreten Verteilung und sei C ⊆ Rm abz¨ahlbar mit PX [C] = 1. Besitzt X unabh¨angige Koordinaten, so gilt f¨ ur alle B ∈ B(R) m P1 X [B] = P [{Xi = xi }] x∈C, 1 x=x i=1
x∈B
Als wichtigen Spezialfall des letzten Ergebnisses notieren wir die folgende Faltungsformel: 13.5.4 Folgerung (Faltungsformel). Seien X und Y unabh¨angige reelle Zufallsvariable mit einer diskreten Verteilung. Dann gilt P [{X = x}] P [{Y = z −x}] P [{X +Y = z}] = x∈R, P [{X=x}]>0
Die Faltungsformel bleibt nat¨ urlich richtig, wenn man auf der rechten Seite der Gleichung die Rollen von X und Y vertauscht. Wir geben einige Beispiele f¨ ur die Anwendung der Faltungsformel: 13.5.5 Beispiele (Diskrete Verteilungen). Seien X und Y unabh¨ angige reelle Zufallsvariable. (1) Binomial–Verteilung: Im Fall PX = B(m, ϑ) und PY = B(n, ϑ) gilt PX+Y = B(m+n, ϑ) (2) Poisson–Verteilung: Im Fall PX = P(α) und PY = P(β) gilt PX+Y = P(α+β) In der Tat: F¨ ur alle k ∈ N0 gilt PX+Y [{k}] =
k X
e−α
l=0
αl −β β k−l ·e l! (k−l)!
= e−(α+β)
!„ «l „ «k−l k β (α+β)k X k α k! α+β α+β l l=0
= e−(α+β)
(α+β)k k!
(3) Negativbinomial–Verteilung: Im Fall PX = NB(α, ϑ) und PY = NB(β, ϑ) gilt PX+Y = NB(α+β, ϑ)
316
Kapitel 13. Multivariate Verteilungen
Wir betrachten nun den Fall, in dem X eine absolutstetige Verteilung besitzt. In diesem Fall l¨ asst sich die Verteilung der Summe 1 X zwar nicht direkt, aber mit einem kleinen Umweg aus dem entsprechenden Satz 13.2.1 u ¨ber lineare Abbildungen gewinnen. 13.5.6 Satz. Sei X : Ω → Rm ein Zufallsvektor mit PX λm . Sei ferner f eine λm –Dichte von PX . Dann gilt ! ( ( m−1 P1 X = f (y −1 z, z) dλ (z) dλ(y) Rm−1
Insbesondere gilt P1 X λ. Beweis. Wir betrachten die lineare Abbildung T : Rm → Rm mit T (x) := Dx und der Matrix D mit den Koordinaten 1 falls i = 1 oder i = j dij := 0 sonst Dann gilt 1 X = π1 ◦ T ◦ X und damit P1 X = Pπ1 ◦T ◦X = ((PX )T )π1 Wegen det(D) = 1 folgt aus Satz 13.2.1 ( (PX )T = f (D−1 u) dλm (u) F¨ ur die Koordinaten cij der Matrix D−1 gilt ⎧ ⎨ 1 falls i = j cij = −1 falls i = 1 und i = j ⎩ 0 sonst Daher gilt ( (PX )T =
f (y −1 z, z) d(λ ⊗ λm−1 )(y, z)
und aus Satz 13.3.1 folgt nun (mit f˜(y, z) := f (y −1z, z)) ( ( ((PX )T )π1 =
Rm−1
f (y −1 z, z) dλm−1 (z) dλ(y)
Wegen P1 X = ((PX )T )π1 folgt daraus die Behauptung.
2
Satz 13.5.6 ist vor allem f¨ ur Zufallsvektoren mit unabh¨angigen Koordinaten von Interesse; vgl. Folgerung 13.5.8. In anderen F¨allen kann es g¨ unstiger sein,
13.5 Verteilungen von Summen von Zufallsvariablen
317
die im Beweis des Satzes verwendeten Argumente direkt auf die vorliegende Verteilung anzuwenden; dies gilt insbesondere dann, wenn die Eigenschaften von Verteilungen linearer Transformationen und von Randverteilungen bereits bekannt sind: 13.5.7 Beispiel (Normal–Verteilung). Sei PX = N(μ, Σ). Dann gilt P1 X = N(1 μ, 1 Σ1) In der Tat: Wir betrachten die Matrix D ∈ Rm×m mit den Koordinaten j 1 falls i = 1 oder i = j dij := 0 sonst Nach Beispiel 13.2.2 gilt PDX = N(Dμ, DΣD ). Wegen e1 D = 1 gilt e1 Dμ = 1 μ und e1 DΣD e1 = 1 Σ1, und aus Beispiel 13.3.3 ergibt sich nun P1 X = Pe1 DX = (PDX )π1 = N(1 μ, 1 Σ1)
Wir betrachten nun wieder den Fall eines Zufallsvektors mit unabh¨angigen Koordinaten: 13.5.8 Folgerung. Sei X : Ω → Rm ein Zufallsvektor mit PX λm und unabh¨angigen Koordinaten. F¨ ur i ∈ {1, . . . , m} sei fπi : R → R+ eine λ–Dichte von PXi . Dann gilt ( P
1 X
(
= Rm−1
fπ1 (y −1 z)
m
! ! m−1 fπi (zi−1 ) dλ (z) dλ(y)
i=2
Als wichtigen Spezialfall des letzten Ergebnisses notieren wir die folgende Faltungsformel; vgl. Aufgabe 13.5.E: 13.5.9 Folgerung )(Faltungsformel). Seien ) X und Y unabh¨angige Zufallsvariable mit PX = f (x) dλ(x) und PY = g(y) dλ(y). Dann gilt ! ( ( f (u−t) g(t) dλ(t) dλ(u) PX+Y = R
Die Faltungsformel bleibt nat¨ urlich richtig, wenn man auf der rechten Seite der Gleichung die Rollen von f und g vertauscht. Wir geben einige Beispiele f¨ ur die Anwendung der Faltungsformel: 13.5.10 Beispiele (Absolutstetige Verteilungen). Seien X und Y unabh¨ angige reelle Zufallsvariable.
318
Kapitel 13. Multivariate Verteilungen
(1) Gamma–Verteilung: Im Fall PX = Ga(α, γ) und PY = Ga(α, δ) gilt PX+Y = Ga(α, γ +δ) In der Tat: Es gilt PX+Y ! Z Z −αt γ−1 −α(u−t) δ−1 ∼ e t χ(0,∞) (t) · e (u−t) χ(0,∞) (u−t) dλ(t) dλ(u) R
! «δ−1 Z „ «γ−1 „ t 1 t u χ(0,∞) (u) = e χ(0,u) (t) dλ(t) dλ(u) 1− u u R u ! Z Z −αu γ+δ−1 γ−1 δ−1 = e u χ(0,∞) (u) v (1−v) χ(0,1) (v) dλ(v) dλ(u) Z
Z ∼
−αu γ+δ−1
R
e−αu uγ+δ−1 χ(0,∞) (u) dλ(u)
und damit PX+Y = Ga(α, γ +δ); dabei wurde beim letzten Gleichheitszeichen f¨ ur u ∈ (0, ∞) die lineare Abbildung Su : R → R mit Su (t) := t/u verwendet. (2) Normal–Verteilung: Im Fall PX = N(μ, σ 2 ) und PY = N(ν, τ 2 ) gilt PX+Y = N(μ+ν, σ 2 +τ 2 ) Dies ergibt sich unmittelbar aus Beispiel 13.5.7.
Aufgaben 13.5.A Normal–Verteilung: Sei PX = N(μ, Σ). Dann gilt f¨ ur alle c ∈ Rm \ {0} Pc X = N(c μ, c Σc) angige reelle Zufallsvaria13.5.B Binomial–Verteilung: Seien X1 , . . . , Xm unabh¨ ur alle i ∈ {1, . . . , m}. Dann gilt PPm = B(m, ϑ). ble mit PXi = B(ϑ) f¨ i=1 Xi 13.5.C Erlang–Verteilung: Seien X1 , . . . , Xm unabh¨ angige reelle Zufallsvariable ur alle i ∈ {1, . . . , m}. Dann gilt PPm = Ga(α, m). mit PXi = Exp(α) f¨ i=1 Xi 13.5.D χ2 –Verteilung: Seien X1 , . . . , Xm unabh¨ angige standardnormal–verteilte reelle Zufallsvariable. Dann gilt PPm X 2 = χ2m . i=1
i
13.5.E Faltung: Sei Q(R) die Familie aller Verteilungen B(R) → [0, 1] und sei T : R2 → R gegeben durch T (x) := 1 x. Die Abbildung ∗ : Q(R) × Q(R) → Q(R) mit Q ∗ R := (Q ⊗ R)T heißt Faltung. (1) (Q(R), ∗) ist eine kommutative Halbgruppe mit dem neutralen Element δ 0 . (2) Sind Q, R ∈ Q(R) absolutstetig, so ist auch Q ∗ R absolutstetig. (3) Sind X und Y unabh¨ angige Zufallsvariable, so gilt PX+Y = PX ∗ PY .
13.6 Momente
319
13.6 Momente Sei X : Ω → Rm ein Zufallsvektor und sei h : Rm → R eine messbare Funktion. Ist h ◦ X positiv oder integrierbar, so gilt nach der Substitutionsregel ( ( E[h ◦ X] = (h ◦ X)(ω) dP (ω) = h(x) dPX (x) Ω
Rm
Insbesondere gilt: – Besitzt Xi einen endlichen Erwartungswert, so gilt ( xi dPX (x) E[Xi ] = Rm
–
Besitzt Xi Xj einen endlichen Erwartungswert, so gilt ( xi xj dPX (x) E[Xi Xj ] = Rm
Eine hinreichende Bedingung f¨ ur die Existenz eines endlichen Erwartungswertes des Produktes Xi Xj ist die Endlichkeit der zweiten Momente seiner Faktoren, denn nach der Ungleichung von Cauchy/Schwarz gilt E[|Xi Xj |] ≤ (E[Xi2 ])1/2 (E[Xj2 ])1/2 –
Diese Bedingung ist aber nicht notwendig; vgl. Lemma 13.6.8. Besitzen alle Koordinaten von X einen endlichen Erwartungswert, so besitzt f¨ ur alle a ∈ Rm die Zufallsvariable a X einen endlichen Erwartungswert und es gilt E[a X] =
m
ai E[Xi ]
i=1
Dies folgt aus der Linearit¨ at des Erwartungswertes. Besitzt X integrierbare Koordinaten X1 , . . . , Xm , so setzen wir E[X] := (E[Xi ])i∈{1,...,m} und nennen E[X] die Erwartung von X. 13.6.1 Lemma. Sei X : Ω → Rm ein Zufallsvektor mit integrierbaren Koorur jede Matrix D ∈ Rk×m dinaten. Dann gilt f¨ ur alle c ∈ Rk und f¨ E[c+DX] = c + D E[X] Das Lemma ergibt sich unmittelbar aus der Linearit¨at des Erwartungswertes.
320
Kapitel 13. Multivariate Verteilungen
13.6.2 Beispiele (Diskrete Verteilungen). (1) Polyhypergeometrische Verteilung: Im Fall PX = PH(n, N, K) gilt n K E[X] = N (2) Multinomial–Verteilung: Im Fall PX = M(n, ϑ) gilt E[X] = n ϑ (3) Negativmultinomial–Verteilung: Im Fall PX = NM(α, ϑ) gilt E[X] = α
1 ϑ 1 − 1 ϑ
13.6.3 Beispiele (Absolutstetige Verteilungen). (1) Uniforme Verteilung: Im Fall PX = U(C) mit ˛` o n ´2 ` ´2 ˛ C := x ∈ R2 ˛ x1 − 12 + x2 − 12 < 14 gilt
„ E[X] =
1/2 1/2
«
(2) Dirichlet–Verteilung: Im Fall PX = Dir(η, η) gilt E[X] =
1 η η
(3) Normal–Verteilung: Im Fall PX = N(μ, Σ) gilt E[X] = μ Damit ist die Bedeutung des ersten Parameters der Normal–Verteilung gekl¨ art.
Ist {Uij }i∈{1,...,m}, j∈{1,...,n} eine Familie von reellen Zufallsvariablen, so heißt die messbare Abbildung U : Ω → Rm×n mit U := (Uij )i∈{1,...,m}, j∈{1,...,n} Zufallsmatrix mit den Koordinaten Uij . F¨ ur eine Zufallsmatrix U : Ω → Rm×n mit integrierbaren Koordinaten setzen wir E[U] := (E[Uij ])i∈{1,...,m}, j∈{1,...,n} und nennen E[U] die Erwartung von U. 13.6.4 Lemma. Sei U eine Zufallsmatrix mit integrierbaren Koordinaten. Dann gilt f¨ ur alle Matrizen A, B passender Dimension E[AUB] = A E[U] B F¨ ur einen Zufallsvektor X mit quadratisch integrierbaren Koordinaten nennen wir E[XX ] die Matrix der zweiten gemischten Momente von X. Offenbar ist die Zufallsmatrix XX und damit auch die Matrix E[XX ] symmetrisch.
13.6 Momente
321
13.6.5 Lemma. Sei X ein Zufallsvektor mit quadratisch integrierbaren Koordinaten. Dann gilt f¨ ur jede Matrix D passender Dimension E[(DX)(DX) ] = D E[XX ] D
13.6.6 Beispiele (Diskrete Verteilungen). ur (1) Polyhypergeometrische Verteilung: Im Fall PX = PH(n, N, K) gilt f¨ alle i, j ∈ {1, . . . , m} mit i = j E[Xi Xj ] =
n(n−1) Ki Kj N (N −1)
und damit E[Xi Xj ] = E[Xi ] E[Xj ]. ur alle i, j ∈ {1, . . . , m} (2) Multinomial–Verteilung: Im Fall PX = M(n, ϑ) gilt f¨ mit i = j E[Xi Xj ] = n(n−1) ϑi ϑj und damit E[Xi Xj ] = E[Xi ] E[Xj ]. In der Tat: Es gilt PXi ,Xj = M(n, ϑi , ϑj ) und aufgrund der Permutationsinvarianz der Klasse der zweidimensionalen Multinomial–Verteilungen gen¨ ugt es, die Gleichung f¨ ur i = 1 und j = 2 zu beweisen. Es gilt E[X1 X2 ] =
n n−k X X
kl
n! (1−ϑ1 −ϑ2 )n−k−l ϑk1 ϑl2 (n−k−l)! k! l!
kl
n! (1−ϑ1 −ϑ2 )n−k−l ϑk1 ϑl2 (n−k−l)! k! l!
kl
n! (1−ϑ1 −ϑ2 )n−k−l ϑk1 ϑl2 (n−k−l)! k! l!
k=0 l=0
=
n n−k X X k=1 l=1
=
n−1 X n−k X k=1 l=1
= n(n−1) ϑ1 ϑ2 n−1 X n−k X k=1 l=1
(n−2)! (1−ϑ1 −ϑ2 )n−k−l ϑk−1 ϑl−1 1 2 (n−k−l)! (k−1)! (l−1)!
= n(n−1) ϑ1 ϑ2 n−2 X (n−2)−p X p=0
q=0
(n−2)! (1−ϑ1 −ϑ2 )(n−2)−p−q ϑp1 ϑq2 ((n−2)−p−q)!p! q!
= n(n−1) ϑ1 ϑ2 (3) Negativmultinomial–Verteilung: Im Fall PX = NM(α, ϑ) gilt f¨ ur alle i, j ∈ {1, . . . , m} mit i = j E[Xi Xj ] = α(α+1) und damit E[Xi Xj ] = E[Xi ] E[Xj ].
ϑi ϑj 1 − 1 ϑ 1 − 1 ϑ
322
Kapitel 13. Multivariate Verteilungen
13.6.7 Beispiele (Absolutstetige Verteilungen). (1) Uniforme Verteilung: Im Fall PX = U(C) mit ˛` o n ´2 ` ´2 ˛ C := x ∈ R2 ˛ x1 − 12 + x2 − 12 < 14 gilt E[X1 X2 ] = 1/4 und damit E[X1 X2 ] = E[X1 ] E[X2 ]. p p ` ´ In der Tat: F¨ ur x1 ∈ (0, 1) sei C(x1 ) := 12 − x1 (1−x1 ), 12 + x1 (1−x1 ) . Dann gilt Z x1 x2 dPX (x) E[X1 X2 ] = 2 ZR 4 = x1 x2 χC (x) dλ2 (x) π R2 Z 4 = x1 x2 χ(0,1) (x1 ) χC(x1 ) (x2 ) dλ2 (x) π R2 „Z « Z 4 x1 χ(0,1) (x1 ) x2 χC(x1 ) (x2 ) dλ(x2 ) dλ(x1 ) = π R R Z p 4 x1 χ(0,1) (x1 ) x1 (1 − x1 ) dλ(x1 ) = π R Z 5 −1 3 4 1 = B( 52 , 32 ) x12 (1 − x1 ) 2 −1 χ(0,1) (x1 ) dλ(x1 ) 5 3 π R B( 2 , 2 ) 4 5 3 = B( 2 , 2 ) π 1 = 4 ur alle i, j ∈ {1, . . . , m} (2) Dirichlet–Verteilung: Im Fall PX = Dir(η, η) gilt f¨ mit i = j E[Xi Xj ] =
ηi ηj η(η+1)
und damit E[Xi Xj ] = E[Xi ] E[Xj ].
Wir betrachten abschließend Zufallsvektoren mit unabh¨angigen Koordinaten: 13.6.8 Lemma. Sei X : Ω → Rm ein Zufallsvektor mit unabh¨angigen Koordinaten. Wenn alle Koordinaten positiv sind oder alle Koordinaten integrierbar sind, dann ist auch ihr Produkt positiv bzw. integrierbar und es gilt m m Xi = E[Xi ] E i=1
i=1
13.7 Zentrale Momente
323
Beweis. Aus der Unabh¨ angigkeit der Koordinaten und dem Satz von Fubini erh¨ alt man zun¨ achst ( m m E Xi = xi dPX (x) m R i=1 i=1 m ( m = |xi | d PXi (x) Rm
= =
m ( i=1 m
R
i=1
i=1
|xi | dPXi (xi )
E[|Xi |]
i=1
Im Fall positiver Koordinaten folgt daraus bereits die Behauptung; im Fall integrierbarer Koordinaten folgt die Integrierbarkeit ihres Produktes, und die Wiederholung des Arguments liefert dann m m E Xi = E[Xi ] i=1
i=1
2
Damit ist das Lemma bewiesen.
F¨ ur integrierbare Zufallsvariable X und Y ist daher die Unabh¨angigkeit eine hinreichende Bedingung f¨ ur die G¨ ultigkeit der Gleichung E[XY ] = E[X] E[Y ]; andererseits zeigen die Beispiele 13.4.4(1) und 13.6.7(1), dass diese Bedingung nicht notwendig ist. Aufgabe 13.6.A t–Verteilung: Sei
Z
PX =
1 dλ2 (x) (2 + x21 )3/2 (2 + x22 )3/2
Dann besitzt X1 X2 einen endlichen Erwartungswert und es gilt E[X1 X2 ] = 0
13.7 Zentrale Momente F¨ ur integrierbare Zufallsvariable X und Y , deren Produkt ebenfalls integrierbar ist, setzen wir cov [X, Y ] := E[(X −E[X])(Y −E[Y ])] und nennen cov [X, Y ] die Kovarianz von X und Y . Die folgenden Lemmata fassen die Eigenschaften der Kovarianz zusammen:
324
Kapitel 13. Multivariate Verteilungen
13.7.1 Lemma. Seien X und Y integrierbare Zufallsvariable, deren Produkt ebenfalls integrierbar ist, und sei a, b, c, d ∈ R. Dann gilt : (1) cov [X, X] = var [X]. (2) cov [X, Y ] = cov [Y, X]. (3) cov [X, Y ] = E[XY ] − E[X] E[Y ]. (4) cov [a+bX, c+dY ] = bd cov [X, Y ]. Beweis. Die Aussagen (1) und (2) ergeben sich unmittelbar aus der Definition der Kovarianz und die Aussagen (3) und (4) folgen aus der Linearit¨at des Erwartungswertes. 2 13.7.2 Lemma. Seien X und Y integrierbare Zufallsvariable. Sind X und Y unabh¨angig, so ist auch XY integrierbar und es gilt cov [X, Y ] = 0. Beweis. Die Behauptung ergibt sich unmittelbar aus Lemma 13.6.8.
2
Die Kovarianz tritt in nat¨ urlicher Weise bei der Berechnung der Varianz einer Summe von zwei Zufallsvariablen auf: 13.7.3 Lemma. Seien X und Y quadratisch integrierbare Zufallsvariable. Dann gilt var [X +Y ] = var [X] + 2 cov [X, Y ] + var [Y ] Sind X und Y unabh¨angig, so gilt var [X +Y ] = var [X] + var [Y ]. Beweis. Die erste Aussage folgt aus der Linearit¨at des Erwartungswertes und die zweite Aussage folgt dann aus Lemma 13.7.2. 2 F¨ ur quadratisch integrierbare Zufallsvariable X und Y ist daher die Unabh¨ angigkeit eine hinreichende Bedingung f¨ ur die G¨ ultigkeit der Gleichungen cov [X, Y ] = 0 und var [X +Y ] = var [X] + var [Y ]; andererseits zeigt Beispiel 13.7.5 (1), dass diese Bedingung nicht notwendig ist. 13.7.4 Beispiele (Diskrete Verteilungen). ur (1) Polyhypergeometrische Verteilung: Im Fall PX = PH(n, N, K) gilt f¨ alle i, j ∈ {1, . . . , m} mit i = j cov [Xi , Xj ] = − n
Ki Kj N − n N N N −1
ur alle i, j ∈ {1, . . . , m} (2) Multinomial–Verteilung: Im Fall PX = M(n, ϑ) gilt f¨ mit i = j cov [Xi , Xj ] = − n ϑi ϑj In der Tat: Es gilt E[Xi ] = n ϑi E[Xj ] = n ϑj E[Xi Xj ] = n(n−1) ϑi ϑj Daraus folgt die Behauptung.
13.7 Zentrale Momente
325
(3) Negativmultinomial–Verteilung: Im Fall PX = NM(α, ϑ) gilt f¨ ur alle i, j ∈ {1, . . . , m} mit i = j cov [Xi , Xj ] = α
ϑj ϑi 1 − 1 ϑ 1 − 1 ϑ
13.7.5 Beispiele (Absolutstetige Verteilungen). (1) Uniforme Verteilung: Im Fall PX = U(C) mit ˛` o n ´2 ` ´2 ˛ C := x ∈ R2 ˛ x1 − 12 + x2 − 12 < 14 angig sind). gilt cov [X1 , X2 ] = 0 (obwohl X1 und X2 nicht unabh¨ ur alle i, j ∈ {1, . . . , m} (2) Dirichlet–Verteilung: Im Fall PX = Dir(η, η) gilt f¨ mit i = j cov [Xi , Xj ] = −
ηi ηj η 2 (η+1)
F¨ ur einen Zufallsvektor X : Ω → Rm mit quadratisch integrierbaren Koordinaten setzen wir var [X] := (cov [Xi , Xj ])i,j∈{1,...,m} und nennen var [X] die Varianz von X. 13.7.6 Lemma. Sei X : Ω → Rm ein Zufallsvektor mit quadratisch integrierbaren Koordinaten. (1) Es gilt var [X] = E[(X − E[X])(X − E[X]) ] = E[XX ] − E[X] (E[X]) . (2) F¨ ur jeden Vektor c ∈ Rk und jede Matrix D ∈ Rk×m gilt var [c+DX] = D var [X] D (3) Die Matrix var [X] ist symmetrisch und positiv semidefinit. (4) Die Matrix var [X] ist genau dann singul¨ar, wenn es ein d ∈ Rm \ {0} und ein c ∈ R gibt mit P [{d X = c}] = 1. (5) Besitzt X unabh¨angige Koordinaten, so ist var [X] eine Diagonalmatrix. Beweis. Aus den Eigenschaften der Kovarianz erh¨alt man zun¨achst var [X] = E[XX ] − E[X](E[X]) und sodann var [c+DX] = var [DX] = E[(DX)(DX) ] − E[DX](E[DX]) = DE[XX ]D − DE[X](E[X]) D = D var [X] D
326
Kapitel 13. Multivariate Verteilungen
Damit sind (1) und (2) gezeigt. Die Symmetrie von var [X] ist klar, und wegen (2) gilt f¨ ur alle d ∈ Rm d var [X] d = var [d X] ≥ 0 Daher ist var [X] positiv definit, und damit ist auch (3) gezeigt. Außerdem sind folgende Aussagen ¨ aquivalent: – var [X] ist singul¨ ar. – Es gibt ein d ∈ Rm \{0} mit d var [X] d = 0. – Es gibt ein d ∈ Rm \{0} mit var [d X] = 0. – Es gibt ein d ∈ Rm \{0} und ein c ∈ R mit P [{d X = c}] = 1. Damit ist (4) gezeigt. Schließlich folgt (5) aus Lemma 13.7.2. 2 13.7.7 Beispiele (Diskrete Verteilungen). (1) Polyhypergeometrische Verteilung: Im Fall PX = PH(n, N, K) gilt « „ N −n 1 1 var [X] = n diag(K) − 2 KK N −1 N N (2) Multinomial–Verteilung: Im Fall PX = M(n, ϑ) gilt ” “ var [X] = n diag(ϑ) − ϑϑ (3) Negativmultinomial–Verteilung: Im Fall PX = NM(α, ϑ) gilt « „ 1 1 diag(ϑ) + ϑϑ var [X] = α 1−1 ϑ (1−1 ϑ)2 13.7.8 Beispiele (Absolutstetige Verteilungen). (1) Uniforme Verteilung: Im Fall PX = U(C) mit ˛` n o ´2 ` ´2 ˛ C := x ∈ R2 ˛ x1 − 12 + x2 − 12 < 14 gilt „ var [X] =
1/16 0 0 1/16
«
(obwohl die Koordinaten von X nicht unabh¨ angig sind). (2) Dirichlet–Verteilung: Im Fall PX = Dir(η, η) gilt var [X] =
1 1 diag(η) − 2 ηη η(η+1) η (η+1)
(3) Normal–Verteilung: Im Fall PX = N(μ, Σ) gilt var [X] = Σ Damit ist die Bedeutung des zweiten Parameters der Normal–Verteilung gekl¨ art.
13.7 Zentrale Momente
327
In der Tat: Nach Proposition C.1.3 gibt es eine invertierbare Matrix A ∈ Rm×m mit Σ = A A. Sei Z := (A )−1 (X−μ) Dann gilt PZ = N(0, I) und damit var [Z] = I Wegen X = μ + A Z folgt daraus var [X] = var [μ+A Z] = A var [Z] A = A IA = Σ Insbesondere gilt: Σ ist genau dann eine Diagonalmatrix, wenn die Koordinaten von X unabh¨ angig sind (vgl. Beispiel 13.4.4).
Aus den Eigenschaften der Varianz eines Zufallsvektors ergibt sich eine wahrscheinlichkeitstheoretische Version der aus der Integrationstheorie bekannten Ungleichung von Cauchy/Schwarz: 13.7.9 Folgerung (Cauchy/Schwarz). Seien X und Y quadratisch integrierbare Zufallsvariable. Dann gilt (cov [X, Y ])2 ≤ var [X] var [Y ] Außerdem gilt (cov [X, Y ])2 = var [X] var [Y ] genau dann, wenn es a, b, c ∈ R gibt mit a = 0 oder b = 0 und P [{aX +bY = c}] = 1. Beweis. F¨ ur den Zufallsvektor X : Ω → R2 mit X1 := X und X2 := Y gilt det(var [X]) = var [X] var [Y ] − (cov [X, Y ])2 Nach Lemma 13.7.6 ist var [X] positiv semidefinit. Daher gilt det(var [X]) ≥ 0, und die Ungleichung folgt. Des weiteren ist die Bedingung (cov [X, Y ])2 = var [X] var [Y ] gleichwertig mit det(var [X]) = 0, also der Singularit¨ at von var [X]. Nach Lemma 13.7.6 ist aber var [X] genau dann singul¨ ar, wenn es a, b, c ∈ R gibt mit a = 0 oder b = 0 und P [{aX +bY = c}] = 1. 2 Wir kommen nochmals auf die Kovarianz zur¨ uck: Zwei integrierbare Zufallsvariable X und Y , deren Produkt ebenfalls integrierbar ist, heißen – strikt positiv korreliert, wenn cov [X, Y ] > 0 gilt. – positiv korreliert, wenn cov [X, Y ] ≥ 0 gilt. – unkorreliert, wenn cov [X, Y ] = 0 gilt. – negativ korreliert , wenn cov [X, Y ] ≤ 0 gilt. – strikt negativ korreliert, wenn cov [X, Y ] < 0 gilt. Nach Lemma 13.7.2 sind unabh¨ angige integrierbare Zufallsvariable unkorreliert; andererseits zeigt Beispiel 13.7.5(1), dass unkorrelierte Zufallsvariable nicht unabh¨ angig sein m¨ ussen.
328
Kapitel 13. Multivariate Verteilungen
Der in diesen Definitionen verwendete Begriff der Korrelation erkl¨art sich aus der folgenden Definition: F¨ ur quadratisch integrierbare Zufallsvariable X und Y mit var [X] = 0 und var [Y ] = 0 setzen wir cov [X, Y ] / X,Y := / var [X] var [Y ] und nennen X,Y den Korrelationskoeffizienten von X und Y . Im Gegensatz zur Kovarianz hat der Korrelationskoeffizient den Vorteil, dass sein Wert stets im Intervall [−1, 1] liegt und die beiden extremen Werte eine Interpretation besitzen: 13.7.10 Lemma. Seien X und Y quadratisch integrierbare Zufallsvariable mit var [X] = 0 = var [Y ]. Dann gilt X − E[X] Y − E[Y ] , / X,Y = cov / var [X] var [Y ] und |X,Y | ≤ 1 Außerdem gilt |X,Y | = 1 gilt genau dann, wenn es a, b, c ∈ R gibt mit a = 0 oder b = 0 und P [{aX +bY = c}] = 1. Beweis. Die erste Gleichung ergibt sich aus Lemma 13.7.1 und der Rest folgt aus der Ungleichung von Cauchy/Schwarz. 2 13.7.11 Beispiele (Diskrete Verteilungen). ur (1) Polyhypergeometrische Verteilung: Im Fall PX = PH(n, N, K) gilt f¨ alle i, j ∈ {1, . . . , m} mit i = j s Ki Kj
Xi ,Xj = − N − Ki N − Kj (2) Multinomial–Verteilung: Im Fall PX = M(n, ϑ) gilt f¨ ur alle i, j ∈ {1, . . . , m} mit i = j s ϑi ϑj
Xi ,Xj = − 1 − ϑi 1 − ϑj (3) Negativmultinomial–Verteilung: Im Fall PX = NM(α, ϑ) gilt f¨ ur alle i, j ∈ {1, . . . , m} mit i = j s ϑi ϑj
Xi ,Xj = ϑi + 1 − 1 ϑ ϑj + 1 − 1 ϑ
13.7 Zentrale Momente
329
13.7.12 Beispiele (Absolutstetige Verteilungen). (1) Uniforme Verteilung: Im Fall PX = U(C) mit ˛` o n ´2 ` ´2 ˛ C := x ∈ R2 ˛ x1 − 12 + x2 − 12 < 14 gilt X1 ,X2 = 0. (2) Dirichlet–Verteilung: Im Fall Q = Dir(η, η) gilt f¨ ur alle i, j ∈ {1, . . . , m} mit i = j r ηi ηj
Xi ,Xj = − η − ηi η − ηj
Der Korrelationskoeffizient ist ein Maß f¨ ur den Grad des affinen Zusammenhangs zwischen zwei Zufallsvariablen; andere funktionale Zusammenh¨ange zwischen zwei Zufallsvariablen k¨ onnen jedoch auch dann bestehen, wenn die Zufallsvariablen unkorreliert sind: 13.7.13 Beispiel. Sei X eine reelle Zufallsvariable mit PX = N(0, 1) und sei Y := X 2 . Dann gilt E[X] = 0 und E[XY ] = E[X 3 ] = 0, und damit cov [X, Y ] = 0 und damit
X,Y = 0 obwohl Y eine Funktion von X ist.
Aufgaben 13.7.A Kovarianz: Sei h : R → R eine monoton wachsende Funktion. Ist X eine reelle Zufallsvariable derart, dass X und h(X) ein endliches zweites Moment besitzen, so gilt cov [X, h(X)] ≥ 0. 13.7.B Kovarianz: F¨ ur Zufallsvektoren X : Ω → Rm und Y : Ω → Rn , deren Koordinaten alle ein endliches zweites Moment besitzen, heißt die Matrix cov [X, Y] := (cov [Xi , Yj ])i∈{1,...,m},j∈{1,...,n} die Kovarianz von X und Y. F¨ ur alle Vektoren a, c und Matrizen B, D passender Dimension gilt cov [a+BX, c+DY] = B cov [X, Y] D Im Fall X = Y gilt cov [X, Y] = var [X]. 13.7.C Korrelationskoeffizient: Seien X und Y quadratisch integrierbare Zufallsvariable mit var [X] = 0 = var [Y ]. (1) F¨ ur alle a, b, c, d ∈ R gilt
a+bX,c+dY = X,Y (2) Es gilt X,Y = 1 genau dann, wenn "( )# Y − E[Y ] X − E[X] p = p P =1 var [X] var [Y ]
330
Kapitel 13. Multivariate Verteilungen (3) Es gilt X,Y = −1 genau dann, wenn "( )# Y − E[Y ] X − E[X] p =−p P =1 var [X] var [Y ]
13.7.D Seien X und Y reelle Zufallsvariable mit PX,Y = M(n, ϑ, 1−ϑ). Dann gilt
X,Y = −1 Leiten Sie dieses Ergebnis ohne Verwendung von Beispiel 13.7.11 her. 13.7.E Zwei Bernoulli–verteilte reelle Zufallsvariable sind genau dann unkorreliert, wenn sie unabh¨ angig sind. 13.7.F Geben Sie ein Beispiel f¨ ur drei Bernoulli–verteilte reelle Zufallsvariable, die paarweise unkorreliert, aber in ihrer Gesamtheit nicht unabh¨ angig sind. 13.7.G Seien X und Y reelle Zufallsvariable mit PX = P(α) und PY = P(β). (1) Sind X und Y unabh¨ angig, so gilt PX+Y = P(α+β). (2) Gilt PX+Y = P(α+β), so sind X und Y unkorreliert.
14 Konvergenz von Folgen von Zufallsvariablen
Zur Vorbereitung auf die Gesetze der Großen Zahlen, die wir im n¨achsten Kapitel behandeln, vergleichen wir in diesem Kapitel die aus der Maß– und Integrationstheorie bekannten drei Arten der Konvergenz f¨ ur eine Folge von Zufallsvariablen: – die Konvergenz P –fast u ¨ berall, die hier als P –fast sichere Konvergenz bezeichnet wird (Abschnitt 14.1), – die Konvergenz im Maß P , die hier als stochastische Konvergenz bezeichnet wird (Abschnitt 14.2), und – die Konvergenz im p–ten Mittel bez¨ uglich P f¨ ur p ∈ [1, ∞) (Abschnitt 14.3). Gegen¨ uber der allgemeinen Theorie ergeben sich Besonderheiten daraus, dass P ein Wahrscheinlichkeitsmaß ist. Eine weitere Art der Konvergenz behandeln wir sp¨ ater in Kapitel 17.
14.1 Fast sichere Konvergenz Von einer Eigenschaft, die f¨ ur jedes ω ∈ Ω entweder gilt oder nicht gilt, sagt man, sie gelte P –fast sicher oder kurz fast sicher , wenn sie P –fast u ¨ berall gilt. Diese Ausdrucksweise entspricht der Bezeichnung der Ergebnismenge Ω als sicheres Ereignis. Insbesondere heißt eine Folge {Xn }n∈N von Zufallsvariablen P –fast sicher konvergent oder kurz fast sicher konvergent, wenn sie P –fast u ¨ berall konvergent ist. Da lim inf n→∞ Xn und lim supn→∞ Xn messbar sind, gilt # lim inf Xn = lim sup Xn ∈ F n→∞
n→∞
Daher ist die Folge {Xn }n∈N genau dann P –fast sicher konvergent, wenn
332
Kapitel 14. Konvergenz von Folgen von Zufallsvariablen
. P
#" lim inf Xn = lim sup Xn n→∞
n→∞
∈1
gilt, und in diesem Fall sagt man auch, dass die Folge {Xn }n∈N mit Wahrscheinlichkeit Eins konvergent ist. F¨ ur eine Folge von reellen Zufallsvariablen l¨ asst sich die fast sichere Konvergenz gegen eine ebenfalls reelle Zufallsvariable wie folgt charakterisieren: 14.1.1 Lemma. Sei {Xn }n∈N eine Folge von reellen Zufallsvariablen. Dann sind ¨aquivalent : (a) Es gilt P [{−∞ < lim inf n→∞ Xn = lim supn→∞ Xn < ∞}] = 1. (b) Die Folge {Xn }n∈N konvergiert fast sicher gegen eine reelle Zufallsvariable. (c) F¨ ur alle ε ∈ (0, ∞) gilt limm→∞ P [{supn∈N(m) |Xn −Xm | ≥ ε}] = 0. ¨ Beweis. Die Aquivalenz von (a) und (b) ist klar. Wir zeigen nun die ¨ Aquivalenz von (b) und (c). F¨ ur ω ∈ Ω konvergiert die Folge {Xn (ω)}n∈N genau dann gegen eine reelle Zahl, wenn sie eine Cauchy–Folge ist, und dies ist genau dann der Fall, wenn es zu jedem k ∈ N ein m ∈ N gibt mit supn∈N(m) |Xn (ω)−Xm (ω)| ≤ 1/k. Daher konvergiert die Folge {Xn }n∈N genau dann fast sicher gegen eine reelle Zufallsvariable, wenn # =1 sup |Xn −Xm | ≤ 1/k P k∈N m∈N
n∈N(m)
gilt. Da die Folge {Ak }k∈N mit Ak := m∈N {supn∈N(m) |Xn − Xm | ≤ 1/k} monoton fallend ist, gilt die letzte Gleichung genau dann, wenn f¨ ur alle k ∈ N # P =1 sup |Xn −Xm | ≤ 1/k m∈N
n∈N(m)
gilt, und dies ist, da f¨ ur jedes k ∈ N die Folge {Ck,m }m∈N mit Ck,m := {supn∈N(m) |Xn−Xm | ≤ 1/k} monoton wachsend ist, gleichwertig damit, dass f¨ ur alle k ∈ N . #" lim P sup |Xn −Xm | ≤ 1/k =1 m→∞
gilt.
n∈N(m)
2
In v¨ ollig analoger Weise l¨ asst sich die fast sichere Konvergenz einer Folge von reellen Zufallsvariablen gegen eine gegebene reelle Zufallsvariable charakterisieren:
14.2 Stochastische Konvergenz
333
14.1.2 Lemma. Sei {Xn }n∈N eine Folge von reellen Zufallsvariablen und sei X eine reelle Zufallsvariable. Dann sind ¨aquivalent : (a) Die Folge {Xn }n∈N konvergiert fast sicher gegen X. (b) F¨ ur alle ε ∈ (0, ∞) gilt limm→∞ P [{supn∈N(m) |Xn −X| ≥ ε}] = 0 . Aufgabe 14.1.A Sei {Xn }n∈N eine Folge von reellen Zufallsvariablen und sei X eine reelle Zufallsvariable. Dann sind ¨ aquivalent: (a) Die Folge {Xn }n∈N konvergiert fast sicher gegen X. (b) F¨ ur alle ε ∈ (0, ∞) gilt P [lim inf n→∞ {|Xn −X| ≤ ε}] = 1 .
14.2 Stochastische Konvergenz Eine Folge {Xn }n∈N von reellen Zufallsvariablen konvergiert stochastisch gegen eine reelle Zufallsvariable X, wenn sie im Maß P gegen X konvergiert. Nach Definition der Konvergenz im Maß bedeutet dies, dass f¨ ur alle ε ∈ (0, ∞) lim P [{|Xn −X| ≥ ε}] = 0
n→∞
gilt. Der Vergleich dieser Bedingung mit der in Lemma 14.1.2 angegebenen Charakterisierung der fast sicheren Konvergenz liefert erneut das folgende Ergebnis, das bereits aus Satz 7.2.8 bekannt ist: 14.2.1 Lemma. Sei {Xn }n∈N eine Folge von reellen Zufallsvariablen und sei X eine reelle Zufallsvariable. Wenn die Folge {Xn }n∈N fast sicher gegen X konvergiert, dann konvergiert sie auch stochastisch gegen X. Das folgende Beispiel zeigt, dass die stochastische Konvergenz schw¨acher ist als die fast sichere Konvergenz: 14.2.2 Beispiel (Wandernde T¨ urme). Sei (Ω, F, P ) := ((0, 1], B(0, 1], λ|B(0,1] ). F¨ ur m ∈ N und k ∈ {1, . . . , 2m } sei Bm,k := ((k−1) 2−m , k 2−m ] und X2m +k−2 := χBm,k Dann gilt f¨ ur alle ε ∈ (0, ∞) lim P [{Xn ≥ ε}] = 0
n→∞
ur alle Daher konvergiert die Folge {Xn }n∈N stochastisch gegen 0. Andererseits gilt f¨ ω∈Ω lim inf Xn (ω) = 0 < 1 = lim sup Xn (ω) n→∞
n→∞
Daher konvergiert die Folge {Xn }n∈N nicht fast sicher gegen 0.
334
Kapitel 14. Konvergenz von Folgen von Zufallsvariablen
Andererseits besitzt jede Folge von reellen Zufallsvariablen, die stochastisch gegen eine reelle Zufallsvariable konvergiert, immerhin eine Teilfolge, die fast sicher gegen dieselbe reelle Zufallsvariable konvergiert; dies ergibt sich aus dem folgenden Satz, der die stochastische Konvergenz durch die fast sichere Konvergenz von Teilfolgen charakterisiert: 14.2.3 Satz (Teilfolgenprinzip). Sei {Xn }n∈N eine Folge von reellen Zufallsvariablen und sei X eine reelle Zufallsvariable. Dann sind ¨aquivalent : (a) Die Folge {Xn }n∈N konvergiert stochastisch gegen X. (b) Jede Teilfolge von {Xn }n∈N besitzt eine Teilfolge, die fast sicher gegen X konvergiert. Beweis. Wir k¨ onnen ohne Beschr¨ ankung der Allgemeinheit annehmen, dass X = 0 gilt. Wir nehmen zun¨ achst an, dass (a) gilt. Da mit der Folge {Xn }n∈N auch jede Teilfolge stochastisch gegen 0 konvergiert, gen¨ ugt es zu zeigen, dass die Folge {Xn }n∈N eine Teilfolge besitzt, die fast sicher gegen 0 konvergiert. Dazu setzen wir n0 := 0 und w¨ ahlen induktiv zu jedem k ∈ N ein nk ∈ N mit nk−1 < nk und P [{|Xnk | > 1/k}] ≤ 2−(k+1) Sei nun ε ∈ (0, ∞). Dann gilt f¨ ur alle m ∈ N mit m ≥ 1/ε . #" P sup |Xnk | ≥ ε =P {|Xnk | ≥ ε} k∈N(m)
k∈N(m)
≤
P [{|Xnk | ≥ ε}]
k∈N(m)
≤
P [{|Xnk | ≥ 1/m}]
k∈N(m)
≤
P [{|Xnk | ≥ 1/k}]
k∈N(m)
≤
2−(k+1)
k∈N(m)
= 2−m und damit
. lim P
m→∞
#" sup |Xnk | ≥ ε
=0
k∈N(m)
Aus Lemma 14.1.2 folgt nun, dass die Teilfolge {Xnk }k∈N fast sicher gegen 0 konvergiert. Damit ist gezeigt, dass (b) aus (a) folgt.
14.3 Konvergenz im p–ten Mittel
335
Wir nehmen nun an, dass (b) gilt. Nach dem Teilfolgenprinzip der Analysis konvergiert eine Folge {an }n∈N ⊆ R genau dann gegen 0, wenn jede Teilfolge von {an }n∈N eine Teilfolge besitzt, die gegen 0 konvergiert. Sei nun ε ∈ (0, ∞). Nach Voraussetzung besitzt jede Teilfolge der Folge {Xn }n∈N eine Teilfolge, die fast sicher und nach Lemma 14.2.1 auch stochastisch gegen 0 konvergiert; daher besitzt jede Teilfolge der Folge {an }n∈N mit an := P [{|Xn | ≥ ε}] eine Teilfolge, die gegen 0 konvergiert, und daraus folgt die Konvergenz der gesamten Folge {an }n∈N , also lim P [{|Xn | ≥ ε}] = 0
n→∞
Da ε ∈ (0, ∞) beliebig war, ist damit gezeigt, dass (a) aus (b) folgt.
2
Aufgaben 14.2.A Eine Folge {Xn }n∈N von reellen Zufallsvariablen konvergiert genau dann stochastisch gegen eine reelle Zufallsvariable X, wenn f¨ ur alle ε ∈ (0, ∞) lim P [{|Xn −X| ≤ ε}] = 1
n→∞
gilt. angige Folge von reellen Zufallsvariablen mit 14.2.B Sei {Xn }n∈N eine unabh¨ ur alle n ∈ N. Dann konvergiert die Folge {Xn }n∈N stoPXn = B(1/n) f¨ chastisch gegen 0, aber sie ist nicht fast sicher konvergent. 14.2.C Sei {Xn }n∈N eine Folge von Zufallsvektoren Ω → Rm und sei X : Ω → Rm ein Zufallsvektor. Wenn f¨ ur alle i ∈ {1, . . . , m} die Folge {πi ◦ Xn }n∈N stochastisch gegen πi ◦ X konvergiert, dann konvergiert f¨ ur jede stetige Funktion h : Rm → R die Folge {h ◦ Xn }n∈N stochastisch gegen h ◦ X.
14.3 Konvergenz im p–ten Mittel F¨ ur p ∈ [1, ∞] setzen wir Lp := Lp (F , P ) ¨ Jede Zufallsvariable in einer Aquivalenzklasse von Lp ist fast sicher reell. Wir erinnern daran, dass f¨ ur p ∈ [1, ∞) eine Folge von Zufallsvariablen {Xn }n∈N ⊆ Lp im p–ten Mittel gegen eine Zufallsvariable X ∈ Lp konvergiert, wenn !1/p
( lim
n→∞
|Xn −X| dP p
Ω
=0
336
Kapitel 14. Konvergenz von Folgen von Zufallsvariablen
gilt; diese Bedingung ist offenbar gleichwertig mit lim E[|Xn −X|p ] = 0
n→∞
Das folgende Ergebnis ergibt sich unmittelbar aus Satz 8.4.8: 14.3.1 Satz. Sei p ∈ [1, ∞). Dann konvergiert jede Folge von reellen Zufallsvariablen in Lp , die im p–ten Mittel gegen eine reelle Zufallsvariable X ∈ Lp konvergiert, auch stochastisch gegen X. Das folgende Beispiel zeigt, dass die stochastische Konvergenz schw¨acher ist als die Konvergenz im p–ten Mittel: 14.3.2 Beispiel. Sei (Ω, F, P ) := ((0, 1], B(0, 1], λ|B(0,1] ) und sei p ∈ [1, ∞). F¨ ur n ∈ N sei Xn := n1/p χ(0,1/n] Dann gilt f¨ ur alle ε ∈ (0, ∞) lim P [{Xn ≥ ε}] = 0
n→∞
Daher konvergiert die Folge {Xn }n∈N stochastisch gegen 0. Andererseits gilt lim E[Xnp ] = 1
n→∞
Daher konvergiert die Folge {Xn }n∈N nicht im p–ten Mittel gegen 0.
Die in Beispiel 14.3.2 betrachtete Folge konvergiert sogar fast sicher gegen 0. Sie ist daher gleichzeitig ein Beispiel daf¨ ur, dass eine fast sicher konvergente Folge nicht notwendigerweise auch im p–ten Mittel konvergent ist, und sie verletzt offenbar die Bedingungen des Satzes u ¨ ber die monotone Konvergenz und des Satzes u ur ¨ ber die majorisierte Konvergenz, die beide hinreichend daf¨ sind, dass eine fast sicher konvergente Folge von reellen Zufallsvariablen auch im Mittel gegen denselben Limes konvergiert. Da P ein Wahrscheinlichkeitsmaß ist, gilt f¨ ur alle p, r ∈ [0, ∞) mit p ≤ r die uber hinaus gilt das folgende Inklusion Lr ⊆ Lp ; vgl. Beispiel 8.4.9(2). Dar¨ Ergebnis: 14.3.3 Satz. Sei p, r ∈ [1, ∞) mit p ≤ r. Dann konvergiert jede Folge von Zufallsvariablen in Lr , die im r–ten Mittel gegen eine Zufallsvariable X ∈ Lr konvergiert , auch im p–ten Mittel gegen X. Beweis. Sei {Xn }n∈N ⊆ Lr eine Folge von Zufallsvariablen, die im r–ten ur alle x ∈ R gilt Mittel gegen eine Zufallsvariable X ∈ Lr konvergiert. F¨ |x|p ≤ 1 + |x|r , und daraus ergibt sich E[|Xn −X|p ] ≤ E[1+|Xn −X|r ] = 1 + E[|Xn −X|r ] Die Behauptung folgt.
2
15 Gesetze der Großen Zahlen
F¨ ur eine Folge von Zufallsvariablen {Xk }k∈N in L1 mit E[Xk ] = μ f¨ ur alle k ∈ N gilt aufgrund der Linearit¨ at des Erwartungswertes n 1 Xk = μ E n k=1
Wir untersuchen in diesem Kapitel die Frage, unter welchen Bedingungen und f¨ ur welchen Konvergenzbegriff f¨ ur eine derartige Folge 1 Xk = μ n→∞ n n
lim
k=1
gilt. Wir geben zun¨ achst hinreichende Bedingungen daf¨ ur an, dass f¨ ur eine solche
n Folge die Folge {n−1 k=1 Xk } stochastisch (Abschnitt 15.1) oder fast sicher (Abschnitt 15.2) gegen μ konvergiert; die entsprechenden Konvergenzs¨atze werden als schwache bzw. starke Gesetze der Großen Zahlen bezeichnet. Die Gesetze der Großen Zahlen und der aus ihnen abgeleitete Satz von Glivenko/ Cantelli (Abschnitt 15.3) bilden eine wesentliche Grundlage der Statistik. Als eine weitere Anwendung des starken Gesetzes der Großen Zahlen behandeln wir Irrfahrten (Abschnitt 15.4).
15.1 Schwache Gesetze der Großen Zahlen Eine Folge von Zufallsvariablen {Xk }k∈N in L1 mit E[Xk ] = μ f¨ ur alle k ∈ N gen¨ ugt dem schwachen Gesetz der Großen Zahlen wenn 1 Xk = μ n→∞ n n
lim
k=1
bez¨ uglich der stochastischen Konvergenz gilt.
338
Kapitel 15. Gesetze der Großen Zahlen
Der folgende Satz enth¨ alt eine allgemeine Version des schwachen Gesetzes der Großen Zahlen: 15.1.1 Satz (Schwaches Gesetz der Großen Zahlen). Sei {Xk }k∈N eine ur alle k ∈ N und Folge in L2 mit E[Xk ] = μ f¨ n 1 lim var Xk = 0 n→∞ n k=1
Dann gilt
1 Xk = μ n→∞ n n
lim
k=1
im quadratischen Mittel und stochastisch. Beweis. Wegen
n 1 E Xk = μ n k=1
gilt
, ,2 n 2 n ,1 , 1 , , Xk − μ, = E Xk − μ , ,n , n k=1 k=1 2 n 1 Xk − μ = var n k=1 n 1 = var Xk n k=1
und aus der Voraussetzung folgt nun die Konvergenz im quadratischen Mittel. Aus Satz 14.3.1 ergibt sich dann die stochastische Konvergenz. 2 Eine Folge von Zufallsvariablen {Xk }k∈N in L2 heißt (paarweise) unkorreliert, wenn f¨ ur alle i, k ∈ N mit i = k cov [Xi , Xk ] = 0 gilt. F¨ ur unkorrelierte Folgen von Zufallsvariablen in L2 , die alle denselben Erwartungswert und außerdem dieselbe Varianz besitzen, ergibt sich eine besonders einpr¨ agsame Version des schwachen Gesetzes der Großen Zahlen: 15.1.2 Folgerung (Schwaches Gesetz der Großen Zahlen). Sei ur {Xk }k∈N eine unkorrelierte Folge in L2 mit E[Xk ] = μ und var [Xk ] = σ 2 f¨ alle k ∈ N. Dann gilt n 1 lim Xk = μ n→∞ n k=1
im quadratischen Mittel und stochastisch.
15.1 Schwache Gesetze der Großen Zahlen
339
Beweis. Nach Voraussetzung gilt n n 1 1 1 σ2 var Xk = 2 var [Xk ] = 2 nσ 2 = n n n n k=1
k=1
Die Behauptung folgt nun aus Satz 15.1.1.
2
Das folgende Beispiel zeigt, dass insbesondere die bei der wiederholten Durchf¨ uhrung eines Zufallsexperimentes auftretenden relativen H¨aufigkeiten f¨ ur das Eintreten eines bestimmten Ereignisses gegen die Wahrscheinlichkeit des Ereignisses konvergieren; die spezielle Form des Zufallsexperimentes ist dabei unwesentlich. 15.1.3 Beispiel (Wurf einer M¨ unze). Wir betrachten den wiederholten Wurf einer M¨ unze. Wir nehmen an, dass – zwischen den verschiedenen W¨ urfen der M¨ unze keine gegenseitige Beeinflussung besteht, – bei jedem Wurf nur Kopf oder Zahl auftreten kann, – die Chance f¨ ur das Auftreten von Kopf beim einmaligen Wurf gleich einer reellen Zahl ϑ ∈ (0, 1) ist, und – die M¨ unze solange geworfen wird, bis zum erstenmal Kopf auftritt. Wir interessieren uns f¨ ur die Konvergenz des Anteils derjenigen W¨ urfe, bei denen Kopf auftritt, wenn die Anzahl der W¨ urfe gegen Unendlich strebt. Wir w¨ ahlen folgende Modelle: – Als Modell f¨ ur den i–ten Wurf w¨ ahlen wir den diskreten Wahrscheinlichkeitsraum (Ωi , Fi , Pi ) mit Ωi := {K, Z} sowie Fi = 2Ωi und dem durch Pi [{K}] := ϑ festgelegten Wahrscheinlichkeitsmaß. – Als Modell f¨ ur den wiederholten Wurf w¨ ahlen wir den Wahrscheinlichkeitsraum O (Ωi , Fi , Pi ) (Ω, F, P ) := i∈N
F¨ ur alle i ∈ N sei Xi : Ω → R gegeben durch j Xi (ω) :=
1 0
falls ωi = K falls ωi = Z
1 0
falls ωi = K falls ωi = Z
und sei hi : Ωi → R gegeben durch j hi (ωi ) := Dann gilt Xi = h ◦ πi Nach Satz 11.4.1 ist die Folge {πi }i∈N unabh¨ angig und aus Satz 11.3.3 folgt nun, dass angig ist. F¨ ur alle i ∈ N gilt außerdem PXi = B(ϑ). auch die Folge {Xi }i∈N unabh¨
340
Kapitel 15. Gesetze der Großen Zahlen
F¨ ur n ∈ N gibt die Zufallsvariable n 1X Xi n i=1
f¨ ur n W¨ urfe den Anteil derjenigen W¨ urfe an, bei denen Kopf auftritt; dieser Anteil wird auch als relative H¨ aufigkeit f¨ ur das Eintreten des Ereignisses {K} bei einem einzelnen Wurf bezeichnet. Dann gilt # " n 1X Xi = ϑ E n i=1 und
" var
# n 1X ϑ(1−ϑ) Xi = n i=1 n
Aus dem schwachen Gesetz der Großen Zahlen folgt nun n 1X Xi = ϑ n→∞ n i=1
lim
im quadratischen Mittel und stochastisch, und damit die Konvergenz der relativen H¨ aufigkeiten f¨ ur das Auftreten von Kopf gegen die Wahrscheinlichkeit daf¨ ur, dass bei einem einzelnen Wurf das Ereignis {K} eintritt.
Aufgaben 15.1.A Schwaches Gesetz der Großen Zahlen: Sei {Xk }k∈N eine Folge in L2 mit " # n 1X Xk = 0 lim var n→∞ n k=1 Dann gilt lim
n→∞
n ” 1 X“ Xk −E[Xk ] = 0 n k=1
im quadratischen Mittel und stochastisch. 15.1.B Schwaches Gesetz der Großen Zahlen: Sei {Xk }k∈N eine unkorrelierte ur alle k ∈ N und Folge in L2 mit E[Xk ] = μ f¨ sup var [Xk ] < ∞ k∈N
Dann gilt lim
n→∞
n 1X Xk = μ n k=1
im quadratischen Mittel und stochastisch. Geben Sie eine geometrische Interpretation der Konvergenz im quadratischen Mittel.
15.2 Starke Gesetze der Großen Zahlen
341
15.2 Starke Gesetze der Großen Zahlen Eine Folge von Zufallsvariablen {Xk }k∈N in L1 mit E[Xk ] = μ f¨ ur alle k ∈ N gen¨ ugt dem starken Gesetz der Großen Zahlen, wenn 1 Xk = μ n→∞ n n
lim
k=1
fast sicher gilt. Das im letzten Abschnitt bewiesene schwache Gesetz der Großen gibt
Zahlen n f¨ ur eine solche Folge eine Bedingung an, unter der die Folge {n−1 k=1 Xk }n∈N stochastisch gegen μ konvergiert. Nach dem Teilfolgenprinzip 14.2.3 konvergiert dann eine Teilfolge dieser Folge fast sicher gegen μ, und wir geben nun Bedingungen an, unter denen sogar die ganze Folge fast sicher gegen μ konvergiert und damit dem starken Gesetz der Großen Zahlen gen¨ ugt. Als erstes zeigen
nwir, dass im Fall der Unabh¨angigkeit einer Folge {Xk }k∈N die Folge {n−1 k=1 Xk }n∈N entweder fast sicher konvergent oder fast sicher nicht konvergent ist und dass dar¨ uber hinaus im Falle der Konvergenz der Limes eine konstante Zufallsvariable ist: 15.2.1 Satz (Null–Eins–Gesetz). Sei {Xk }k∈N eine unabh¨angige Folge von Zufallsvariablen und sei
n n 1 1 Xk = lim sup Xk A := lim inf n→∞ n n→∞ n k=1
k=1
Dann gilt P [A] ∈ {0, 1} und im Fall P [A] = 1 gibt es ein c ∈ [−∞, ∞] mit 1 Xk = c n→∞ n n
lim
k=1
fast sicher. Beweis. Sei E∞ die terminale σ–Algebra der Folge {σ(Xk )}k∈N . F¨ ur alle l ∈ N und alle n ∈ N(l) gilt 1 1 1 Xk = Xk + Xk n n n und wegen limn→∞
1 n
A=
n
l−1
n
k=1
k=1
k=l
l−1 k=1
Xk = 0 folgt daraus
1 1 lim inf Xk = lim sup Xk n→∞ n n→∞ n n
n
k=l
k=l
342
Kapitel 15. Gesetze der Großen Zahlen
∞ und damit A ∈ σ( ∞ l∈N σ( k=l σ(Xk )) = E∞ k=l σ(Xk )). Daher gilt A ∈ und aus dem Null–Eins–Gesetz von
n Kolmogorov folgt nun P [A] ∈ {0, 1}. Im Fall P [A] = 1 ist die Folge {n−1 k=1 Xk }n∈N fast sicher konvergent und f¨ ur alle l ∈ N gilt 1 1 Xk = lim Xk n→∞ n n→∞ n n
n
k=1
k=l
lim
n fast sicher. Daher ist die Zufallsvariable limn→∞ n−1 k=1 Xk E∞ –messbar und damit fast sicher konstant; es gibt also eine Konstante c ∈ [−∞, ∞] mit 1 Xk = c n→∞ n n
lim
k=1
2
fast sicher.
Es gilt nun, in der Situation des letzten Satzes zus¨atzliche Bedingungen zu finden, unter denen der Fall der fast sicheren Konvergenz eintritt, und unter diesen Bedingungen auch den fast sicher konstanten Limes zu bestimmen. Wie im Fall des schwachen Gesetzes der Großen Zahlen in der Version von Folgerung 15.1.2 erweist sich auch hier eine Bedingung an die Varianzen als hinreichend. 15.2.2 Lemma (Ungleichung von Kolmogorov). Sei {Xk }k∈N eine unabh¨angige Folge in L2 . Dann gilt f¨ ur alle ε ∈ (0, ∞) und m ∈ N n ∞ 1 ≤ 2 Xk − E[Xk ] > ε P sup var [Xk ] ε n∈N(m) k=m
k=m
Beweis. Es gen¨ ugt, die Ungleichung f¨ ur m = 1 zu beweisen. F¨ ur n ∈ N sei Sn :=
n Xk − E[Xk ] k=1
und An := {|Sn | > ε} ∩
n−1
{|Sk | ≤ ε}
k=1
Dann gilt {supn∈N |Sn | > ε} =
∞ n=1
An und damit
. P
#" sup |Sn | > ε n∈N
=
∞ n=1
P [An ]
15.2 Starke Gesetze der Großen Zahlen
343
Zur Absch¨ atzung der rechten Seite dieser Gleichung betrachten wir zun¨achst r ∈ N und n ∈ {1, . . . , r}. Da die Familie {σ(Xk )}k∈N unabh¨angig ist, ist nach dem Blocklemma auch {σ(X1 , . . . , Xn ), σ(Xn+1 , . . . , Xr )} unabh¨angig. Daher angig, und daraus folgt mit E[Sr ] = 0 = E[Sn ] ist {Sn χAn , Sr −Sn } unabh¨ E[(Sr −Sn ) Sn χAn ] = E[Sr −Sn ] E[Sn χAn ] = 0 und damit ε2 P [An ] = E[ε2 χAn ] ≤ E[Sn2 χAn ] ≤ E[(Sr −Sn )2 χAn ] + E[2(Sr −Sn )Sn χAn ] + E[Sn2 χAn ] = E[Sr2 χAn ] Durch Summation ergibt sich nun aus der Definition der Ereignisse An und mit E[Sr ] = 0 und der Unabh¨ angigkeit der Folge {Xk }k∈N ε2
r
r
P [An ] ≤
n=1
E[Sr2 χAn ]
n=1
≤ E[Sr2 ] = var [Sr ] r Xn = var n=1 r
= ≤
n=1 ∞
var [Xn ] var [Xn ]
n=1
Daher gilt ∞
P [An ] ≤
n=1
∞ 1 var [Xn ] ε2 n=1
und damit #"
. P
sup |Sn | > ε n∈N
Damit ist das Lemma bewiesen.
=
∞ n=1
P [An ] ≤
∞ 1 var [Xn ] ε2 n=1
2
Aus der Ungleichung von Kolmogorov ergibt sich eine erste Konvergenzaussage:
344
Kapitel 15. Gesetze der Großen Zahlen
15.2.3 Lemma. Sei {Xk }k∈N eine unabh¨angige Folge von Zufallsvariablen in L2 mit ∞ var [Xk ] < ∞ k=1
Dann konvergiert die Reihe ∞
Xk − E[Xk ]
k=1
fast sicher und in L2 gegen eine reelle Zufallsvariable. Beweis. F¨ ur n ∈ N sei wieder Sn :=
n Xk − E[Xk ] k=1
Nach der Ungleichung von Kolmogorov gilt f¨ ur alle ε ∈ (0, ∞) und m ∈ N #" . #" . =P sup |Sn − Sm | > ε P sup |Sn − Sm | > ε n∈N(m)
n∈N(m+1)
=P
n sup Xk − E[Xk ] > ε n∈N(m+1) k=m+1
≤
1 ε2
∞
var [Xk ]
k=m+1
und aus der Voraussetzung folgt nun f¨ ur alle ε ∈ (0, ∞) . #" sup |Sn − Sm | > ε =0 lim P m→∞
n∈N(m)
Daher folgt aus Lemma 14.1.1, dass die Folge {Sn }n∈N fast sicher gegen eine reelle Zufallsvariable konvergiert. Des weiteren gilt f¨ ur alle m ∈ N und n ∈ N(m) , n , n n , ,2 , , X = − E[X ] = var X var [Xk ] , k k , k , , k=m
2
k=m
k=m
und aus der Varianzbedingung folgt nun, dass die Folge der Partialsummen der zentrierten Zufallsvariablen eine Cauchy–Folge in L2 und damit in L2 konvergent ist. Da jede im quadratischen Mittel konvergente Folge eine fast sicher konvergente Teilfolge besitzt, stimmen die Limites bez¨ uglich der fast sicheren Konvergenz und der Konvergenz im quadratischen Mittel u 2 ¨ berein.
15.2 Starke Gesetze der Großen Zahlen
345
Wir ben¨ otigen nun noch eine Eigenschaft unendlicher Reihen: 15.2.4 Lemma (Kronecker). Sei {ak }k∈N eine Folge reeller Zahlen mit ∞ ak
k
k=1
f¨ ur ein a ∈ R. Dann gilt
=a
1 ak = 0 n→∞ n n
lim
k=1
Beweis. F¨ ur n ∈ N sei bn :=
n ak k=1
k
(und damit b0 = 0). Dann gilt f¨ ur alle m ∈ N und n ∈ N(m) 1 1 ak = k (bk −bk−1 ) n n k=1 k=1 n n n 1 = kbk − (k−1)bk−1 − bk−1 n n
n
k=1
k=1
k=1
n 1 = (bn −bk−1 ) n k=1
m m n 1 1 = (bm −bk−1 ) + (bn −bm ) + (bn −bk−1 ) n n k=1
k=1
k=m+1
2
Daraus folgt die Behauptung.
Wir k¨ onnen nun eine allgemeine Version des ersten starken Gesetzes der Großen Zahlen beweisen: 15.2.5 Satz (1. Gesetz der Großen Zahlen; Kolmogorov). Sei {Xk }k∈N eine unabh¨angige Folge in L2 mit E[Xk ] = μ f¨ ur alle k ∈ N und ∞ var [Xk ] k=1
Dann gilt
k2
1 lim Xk = μ n→∞ n n
k=1
fast sicher.
<∞
346
Kapitel 15. Gesetze der Großen Zahlen
Beweis. Nach Voraussetzung gilt ∞ k=1
.
Xk var k
" <∞
und aus Lemma 15.2.3 folgt, dass die Reihe . "! ∞ ∞ Xk Xk 1 Xk − E[Xk ] = −E k k k k=1
k=1
fast sicher gegen eine reelle Zufallsvariable konvergiert. Aus Kroneckers Lemma folgt nun n 1 Xk − E[Xk ] = 0 n→∞ n
lim
k=1
2
fast sicher.
F¨ ur unabh¨ angige Folgen von Zufallsvariablen in L2 , die alle denselben Erwartungswert und außerdem dieselbe Varianz besitzen, ergibt sich eine besonders einpr¨ agsame Version des ersten starken Gesetzes der Großen Zahlen: 15.2.6 Folgerung (1. Gesetz der Großen Zahlen; Kolmogorov). Sei {Xk }k∈N eine unabh¨angige Folge in L2 mit E[Xk ] = μ und var [Xk ] = σ 2 f¨ ur alle k ∈ N. Dann gilt n 1 lim Xk = μ n→∞ n k=1
2
fast sicher und in L . Beweis. Die fast sichere Konvergenz ergibt sich aus Satz 15.2.5 und die Konvergenz in L2 ergibt sich aus Folgerung 15.1.2, da jede unabh¨angige Folge in 2 L2 unkorreliert ist. Der Vergleich von Folgerung 15.2.6 mit Folgerung 15.1.2 zeigt, dass eine Folge {Xk }k∈N in L2 mit E[Xk ] = μ und var [Xk ] = σ 2 f¨ ur alle k ∈ N – dem schwachen Gesetz der Großen Zahlen gen¨ ugt, wenn sie unkorreliert ist, und – dem starken Gesetz der Großen Zahlen gen¨ ugt, wenn sie unabh¨angig ist. Dies entspricht genau der Tatsache, dass – jede unabh¨ angige Folge unkorreliert ist und – jede fast sicher konvergente Folge stochastisch konvergent ist, w¨ ahrend die umgekehrten Implikationen im allgemeinen falsch sind. Nach Folgerung 15.2.6 konvergiert insbesondere die in Beispiel 15.1.3 betrachtete Folge der relativen H¨ aufigkeiten eines Ereignisses nicht nur stochastisch, sondern sogar fast sicher gegen die Wahrscheinlichkeit des Ereignisses.
15.2 Starke Gesetze der Großen Zahlen
347
Im 1. Gesetz der Großen Zahlen wird in der Voraussetzung die quadratische Integrierbarkeit der Zufallsvariablen gefordert, obwohl in der Formulierung der Konvergenzaussage nur die Integrierbarkeit ben¨otigt wird. Damit stellt sich die Frage, ob sich ein starkes Gesetz der Großen Zahlen auch unter Verzicht auf die Varianzbedingung beweisen l¨ asst. Eine Familie von Zufallsvariablen {Xi }i∈I heißt identisch verteilt , wenn alle Zufallsvariablen dieselbe Verteilung besitzen; in diesem Fall bezeichnen wir ur alle i ∈ I und nennen mit X eine beliebige Zufallsvariable mit PX = PXi f¨ X eine typische Zufallsvariable der Familie {Xi }i∈I . Wir zeigen nun, dass f¨ ur eine Folge von Zufallsvariablen, die nicht nur unabh¨ angig, sondern auch identisch verteilt sind, die im 1. Gesetz der Großen Zahlen auftretende Varianzbedingung entbehrlich ist; in diesem Fall stellt sich außerdem heraus, dass die Zufallsvariablen genau dann integrierbar sind, wenn die Folge dem starken Gesetz der Großen Zahlen gen¨ ugt. 15.2.7 Satz (2. Gesetz der Großen Zahlen; Kolmogorov). Sei {Xk }k∈N eine unabh¨angig und identisch verteilte Folge in L1 mit E[X] = μ. Dann gilt n 1 Xk = μ lim n→∞ n k=1
fast sicher. Beweis. F¨ ur alle k ∈ N sei Zk : Ω → R gegeben durch Zk (ω) := Xk (ω) χ(−k,k) (Xk (ω)) und sei Jk := (−k, −k+1] ∪ [k−1, k) Dann ist {Zk }k∈N eine unabh¨ angige Folge in L2 . Wir zeigen: (1) Es gilt n 1 Xk − Zk = 0 lim n→∞ n k=1
fast sicher. (2) Es gilt
n 1 Zk − E[Zk ] = 0 n→∞ n
lim
k=1
fast sicher. (3) Es gilt
n 1 E[Zk ] − μ = 0 n→∞ n
lim
k=1
348
Kapitel 15. Gesetze der Großen Zahlen
Dann gilt offenbar n 1 Xk − μ = 0 n→∞ n
lim
k=1
fast sicher, und daraus folgt die Behauptung. Wir beweisen nun die genannten Teilergebnisse: (1) Nach Lemma 12.3.1 gilt ∞
P [{Xk = Zk }] =
k=1
=
∞ k=1 ∞
P [{|Xk | ≥ k}] P [{|X| ≥ k}]
k=1
≤ E[|X|] Aus der Endlichkeit des Erwartungswertes von |X| und dem 1. Lemma von Borel/Cantelli folgt nun P [lim supn→∞ {Xk = Zk }] = 0 und damit * + P lim inf {Xk = Zk } = 1 n→∞
Daher gibt es eine Nullmenge N ∈ F derart, dass es zu jedem ω ∈ Ω \ N ein kω ∈ N gibt derart, dass Xk (ω) = Zk (ω) f¨ ur alle k ∈ N(kω ) gilt. Daraus folgt 1 Xk − Zk = 0 n→∞ n n
lim
k=1
fast sicher. Damit ist (1) gezeigt. (2) F¨ ur alle k ∈ N gilt var [Zk ] ≤ E[Zk2 ] = E[Xk2 χ(−k,k) (Xk )] ( = x2 dPX (x) (−k,k)
=
k ( j=1
≤
x2 dPX (x) Jj
( k j j=1
|x| dPX (x)
Jj
Ferner gilt ( ∞ ∞ ( 2 1 1 1 1 1 1 1 ≤ 2+ dλ(x) = 2 + dλ(x) = 2 + ≤ 2 2 k2 j x j x j j j (k,k+1] (j,∞) k=j
k=j
15.2 Starke Gesetze der Großen Zahlen
349
und damit ∞ j ≤2 k2 k=j
Daher gilt ∞ var [Zk ] k=1
k2
( k ∞ 1 j |x| dPX (x) k 2 j=1 Jj k=1 ( ∞ ∞ j |x| dPX (x) = k 2 Jj j=1 k=j ∞ ( ≤2 |x| dPX (x) ≤
j=1
( =2
R
Jj
|x| dPX (x)
= 2 E[|X|] Aus der Endlichkeit des Erwartungswertes von |X| und dem 1. Gesetz der Großen Zahlen folgt nun n 1 Zk − E[Zk ] = 0 lim n→∞ n k=1
fast sicher. Damit ist (2) gezeigt. (3) F¨ ur alle k ∈ N gilt E[Zk ] − μ = E[Zk ] − E[Xk ] * + ≤ E |Zk −Xk | ∞ ( |x| dPXk (x) = =
j=k+1 Jj ∞ ( j=k+1
|x| dPX (x)
Jj
Aus der Endlichkeit des Erwartungswertes von |X| folgt nun lim E[Zk ] − μ = 0 n→∞
und damit n 1 E[Zk ] − μ = 0 n→∞ n
lim
k=1
Damit ist auch (3) gezeigt.
2
350
Kapitel 15. Gesetze der Großen Zahlen
F¨ ur eine unabh¨ angig und identisch verteilte Folge von Zufallsvariablen in L2 ist die Varianzbedingung aus dem 1. Gesetz der Großen Zahlen offenbar erf¨ ullt. Der Vorteil des 2. Gesetzes der Großen Zahlen besteht darin, dass es sogar f¨ ur jede unabh¨ angig und identisch verteilte Folge von Zufallsvariablen in L1 gilt. F¨ ur eine unabh¨ angig und identisch verteilte Folge {Xk }k∈N von Zufallsvariablen bezeichnen wir die Zufallsvariablen n 1 Xk n k=1
auch als Stichprobenmittel zum Stichprobenumfang n ∈ N. Als n¨ achstes wenden wir uns der Frage zu, ob sich f¨ ur eine unabh¨angig und identisch verteilte Folge {Xk }k∈N von Zufallsvariablen die fast sichere Konvergenz der Folge der Stichprobenmittel gegen eine reelle Zahl auch dann einstellen kann, wenn E[|X|] = ∞ gilt: 15.2.8 Satz. Sei {Xk }k∈N eine unabh¨angig und identisch verteilte Folge von Zufallsvariablen. Dann sind ¨aquivalent : (a) Es gilt X ∈ L1 . (b) Die Folge der Stichprobenmittel konvergiert gegen eine reelle Zahl. (c) Die Folge der Stichprobenmittel konvergiert gegen eine reelle Zufallsvariable. Beweis. Nach dem 2. Gesetz der Großen Zahlen folgt (b) aus (a), und nach dem Null–Eins–Gesetz 15.2.1 sind (b) und (c) ¨aquivalent. Wir nehmen nun an, dass (b) gilt. Wegen n n−1 1 n−1 1 1 Xn = Xk − Xk n n n n−1 k=1
k=1
gilt dann lim
n→∞
1 Xn = 0 n
fast sicher, und damit " . . #" 1 P lim sup{|Xn | ≥ n} = P lim sup Xn ≥ 1 =0 n n→∞ n→∞ angig und identisch verteilt ist, folgt aus dem Da die Folge {Xn }n∈N unabh¨ Null–Eins–Gesetz von Borel ∞ ∞ P [{|X| ≥ n}] = P [{|Xn | ≥ n}] < ∞ n=1
n=1
Aus Lemma 12.3.1 folgt nun E[|X|] < ∞. Damit ist gezeigt, dass (a) aus (b) folgt. 2
15.2 Starke Gesetze der Großen Zahlen
351
Wir untersuchen nun die Konvergenz der Folge der Stichprobenmittel einer unabh¨ angig und identisch verteilten Folge von quasiintegrierbaren Zufallsvariablen: 15.2.9 Satz. Sei {Xk }k∈N eine unabh¨angig und identisch verteilte Folge von Zufallsvariablen.
n (1) Im Fall E[X − ] < ∞ = E[X + ] gilt limn→∞ n−1 k=1 Xk = +∞. n (2) Im Fall E[X + ] < ∞ = E[X − ] gilt limn→∞ n−1 k=1 Xk = −∞. Beweis. Sei E[X − ] < ∞ = E[X + ]. Mit {Xk }k∈N ist auch die Folge {Xk− }k∈N unabh¨ angig und identisch verteilt, und aus dem 2. Gesetz der Großen Zahlen folgt 1 − Xk = E[X − ] n→∞ n n
lim
k=1
Des weiteren ist f¨ ur m ∈ N die Folge {(Xk+ ∧m)}k∈N unabh¨angig und identisch verteilt, und aus dem 2. Gesetz der Großen Zahlen folgt 1 + Xk ∧ m = E[X + ∧ m] n→∞ n n
lim
k=1
und damit lim inf n→∞
1 + 1 + 1 + Xk ≥ lim inf Xk ∧ m = lim Xk ∧ m = E[X + ∧ m] n→∞ n n→∞ n n n
n
n
k=1
k=1
k=1
Aus dem Satz u ¨ber die monotone Konvergenz folgt nun 1 + Xk ≥ sup E[X + ∧ m] = E[X + ] n m∈N n
lim inf n→∞
k=1
und damit 1 + Xk = E[X + ] n→∞ n n
lim
k=1
Wegen E[X − ] < ∞ = E[X + ] erh¨ alt man nun wegen Xk = Xk+ − Xk− 1 Xk = ∞ n→∞ n n
lim
k=1
Damit ist (1) gezeigt, und (2) ist dann klar.
2
Unser letztes Ergebnis zeigt, dass f¨ ur eine unabh¨angig und identisch verteilte Folge {Xk }k∈N von Zufallsvariablen mit E[|X|] = ∞ die Folge der Stichprobenmittel fast sicher nicht gegen eine reelle Zahl konvergiert:
352
Kapitel 15. Gesetze der Großen Zahlen
15.2.10 Satz. Sei {Xk }k∈N eine unabh¨angig und identisch verteilte Folge von Zufallsvariablen mit E[|X|] = ∞. Dann gilt n #" . 1 =1 Xk = ∞ P lim sup n→∞ n k=1
Beweis. Wegen n n−1 Xn 1 n−1 1 = Xk − Xk n n n n−1 k=1
k=1
gilt n Xn ≤ 2 lim sup 1 lim sup X k n n n→∞ n→∞ k=1
und damit n . #" #" . Xn 1 P lim sup =∞ ≤ P lim sup Xk = ∞ n n n→∞ n→∞ k=1
Wir zeigen nun, dass
. #" Xn P lim sup =∞ =1 n n→∞
gilt. F¨ ur alle m ∈ N gilt nach Voraussetzung E[|X|/m] = ∞ und aus Lemma 12.3.1 folgt #" #" #" . . . ∞ ∞ ∞ Xn X X ≥m = = =∞ P P ≥m P ≥n n n m n=1 n=1 n=1 Da die Folge {Xn }n∈N unabh¨ angig ist, folgt aus dem Null–Eins–Gesetz von Borel #" . Xn ≥m =1 P lim sup n n→∞ und damit P
. #" Xn ≥m lim sup =1 n n→∞
Da diese Gleichung f¨ ur alle m ∈ N gilt, ergibt sich #" . Xn =∞ =1 P lim sup n n→∞ Damit ist der Satz bewiesen.
2
15.3 Satz von Glivenko/Cantelli
353
Aufgaben 15.2.A 1. Gesetz der Großen Zahlen: Sei {Xk }k∈N eine unabh¨ angige Folge ur alle k ∈ N und supk∈N var [Xk ] < ∞. Dann gilt in L2 mit E[Xk ] = μ f¨ lim
n→∞
n 1X Xk = μ n k=1
fast sicher und in L2 . angige Folge 15.2.B Poisson–Verteilung: Sei {Xk }k∈N eine unabh¨ P von reellen ur alle k ∈ N und α := ∞ Zufallsvariablen mit PXk = P(αk ) f¨ k=1 αk < ∞. Dann konvergiert die Reihe ∞ X Xk k=1
fast sicher und in L2 gegen eine reelle Zufallsvariable X mit E[X] = α.
15.3 Satz von Glivenko/Cantelli Im gesamten Abschnitt sei F : R → [0, 1] eine Verteilungsfunktion und sei {Xk }k∈N eine unabh¨ angig und identisch verteilte Folge von reellen Zufallsvariablen mit Verteilungsfunktion F . F¨ ur n ∈ N heißt die Abbildung Fn : R × Ω → [0, 1] mit 1 χ(−∞,x] (Xk (ω)) n n
Fn (x, ω) :=
k=1
die empirische Verteilungsfunktion zu F und zum Stichprobenumfang n. Diese Bezeichnung wird durch das folgende Lemma gerechtfertigt: 15.3.1 Lemma. F¨ ur alle n ∈ N und jedes ω ∈ Ω ist die Funktion Fn ( . , ω) : R → [0, 1] eine Verteilungsfunktion und f¨ ur alle x ∈ R gilt 1 χ(−∞,x) (Xk (ω)) n n
Fn (x−, ω) =
k=1
Beweis. Wir zeigen zun¨ achst, dass Fn ( . , ω) eine Verteilungsfunktion ist: (i) F¨ ur alle x, y ∈ R mit x ≤ y gilt Fn (x, ω) ≤ Fn (y, ω). (ii) Sei x ∈ R. F¨ ur alle ε ∈ (0, ∞) gilt 1 χ(−∞,x+ε] (Xk (ω)) n n
Fn (x+ε, ω) =
k=1
und damit limε→0 Fn (x+ε, ω) = Fn (x, ω). (iii) Es gilt limx→−∞ Fn (x, ω) = 0 und limx→∞ Fn (x, ω) = 1.
354
Kapitel 15. Gesetze der Großen Zahlen
Daher ist Fn ( . , ω) eine Verteilungsfunktion. Außerdem gilt f¨ ur alle x ∈ R Fn (x−, ω) = lim Fn (x−ε, ω) ε→0
1 χ(−∞,x−ε] (Xk (ω)) ε→0 n n
= lim
k=1
n 1 = χ(−∞,x) (Xk (ω)) n k=1
2
Damit ist das Lemma gezeigt.
Aus der Definition der empirischen Verteilungsfunktion ist unmittelbar klar, dass f¨ ur alle n ∈ N und x ∈ R die Abbildung Fn (x, . ) : Ω → [0, 1] messbar ist. Wir untersuchen nun die Konvergenz der Folge {Fn (x, . )}n∈N . 15.3.2 Lemma. F¨ ur jedes x ∈ R gilt limn→∞ Fn (x, ω) = F (x) fast sicher. Beweis. Mit {Xk }k∈N ist auch die Folge {χ(−∞,x] ◦ Xk }n∈N unabh¨angig und identisch verteilt. Außerdem gilt E[(χ(−∞,x] ◦ Xk )] = E[χ{Xk ≤x} ] = P [{Xk ≤ x}] = F (x) Aus dem starken Gesetz der Großen Zahlen folgt nun 1 (χ(−∞,x] ◦ Xk )(ω) = F (x) n n
lim Fn (x, ω) =
n→∞
k=1
Damit ist das Lemma bewiesen.
2
Nach Lemma 15.3.2 gibt es zu jedem x ∈ R eine Nullmenge N (x) ∈ F derart, dass f¨ ur alle ω ∈ Ω \ N (x) lim Fn (x, ω) − F (x) = 0 n→∞
gilt. Das Bemerkenswerte an der Aussage des folgenden Satzes ist, dass man die Nullmengen N (x) durch eine von x ∈ R unabh¨angige Nullmenge N ∈ F ersetzen kann und dass die Konvergenz f¨ ur alle ω ∈ Ω \ N gleichm¨aßig in x ∈ R ist: 15.3.3 Satz (Glivenko/Cantelli). Es gilt lim sup Fn (x, ω) − F (x) = 0 n→∞ x∈R
fast sicher.
15.3 Satz von Glivenko/Cantelli
355
Beweis. Sei ϕ : (0, 1) → R gegeben durch ϕ(z) := inf x ∈ R z ≤ F (x) Dann gilt f¨ ur alle z ∈ (0, 1) F (ϕ(z)−) ≤ z ≤ F (ϕ(z)) F¨ ur m ∈ N und k ∈ {1, . . . , m} sei xm,k := ϕ
k m+1
!
Dann gilt f¨ ur alle k ∈ {1, . . . , m} F (xm,k −) ≤
k ≤ F (xm,k ) m+1
und damit f¨ ur alle k ∈ {1, . . . , m−1} 1 m+1 1 F (xm,k+1 −) − F (xm,k ) ≤ m+1 1 1 − F (xm,m ) ≤ m+1 F¨ ur m, n ∈ N und ω ∈ Ω sei F (xm,1 −) ≤
Δm,n (ω)
:= max max Fn (xm,k , ω)−F (xm,k ), Fn (xm,k −, ω)−F (xm,k −) 1≤k≤m
Mit Hilfe dieser Gr¨ oßen erhalten wir f¨ ur alle ω ∈ Ω eine von x ∈ R unabh¨angige Absch¨ atzung der Differenz |Fn (x, ω) − F (x)|: – F¨ ur x ∈ (−∞, xm,1 ) gilt Fn (x, ω) ≤ Fn (xm,1 −, ω) ≤ F (xm,1 −) + Δm,n (ω) 1 + Δm,n (ω) m+1 1 ≤ F (x) + + Δm,n (ω) m+1
≤
und F (x) ≤ F (xm,1 −) ≤
1 m+1
≤ Fn (x, ω) +
1 + Δm,n (ω) m+1
356
–
Kapitel 15. Gesetze der Großen Zahlen
F¨ ur x ∈ [xm,k , xm,k+1 ) mit k ∈ {1, . . . , m−1} gilt Fn (x, ω) ≤ Fn (xm,k+1 −, ω) ≤ F (xm,k+1 −) + Δm,n (ω) 1 + Δm,n (ω) m+1 1 ≤ F (x) + + Δm,n (ω) m+1
≤ F (xm,k ) +
und F (x) ≤ F (xm,k+1 −) ≤ F (xm,k ) +
1 m+1
≤ Fn (xm,k , ω) + Δm,n (ω) + ≤ Fn (x, ω) + –
1 m+1
1 + Δm,n (ω) m+1
F¨ ur x ∈ [xm,m , +∞) gilt Fn (x, ω) ≤ 1 ≤ F (xm,m ) +
1 m+1
1 m+1 1 + Δm,n (ω) ≤ F (x) + m+1 ≤ F (x) +
und F (x) ≤ 1 ≤ F (xm,m ) +
1 m+1
≤ Fn (xm,m , ω) + Δm,n (ω) + ≤ Fn (x, ω) +
1 + Δm,n (ω) m+1
Daher gilt f¨ ur alle ω ∈ Ω sup Fn (x, ω) − F (x) ≤ x∈R
1 m+1
1 + Δm,n (ω) m+1
F¨ ur festes m ∈ N gilt nach Lemma 15.3.2 limn→∞ Δm,n (ω) = 0 fast sicher und damit
15.4 Irrfahrten
357
lim sup sup Fn (x, ω) − F (x) ≤ n→∞ x∈R
1 m+1
fast sicher. Da m ∈ N beliebig war und die Vereinigung einer Folge von Nullmengen wieder eine Nullmenge ist, erhalten wir nun lim sup sup Fn (x, ω) − F (x) = 0 n→∞ x∈R
fast sicher, und damit
lim sup Fn (x, ω) − F (x) = 0
n→∞ x∈R
2
fast sicher. Aufgabe
15.3.A Empirische Verteilung: Sei Q : B(R) → [0, 1] eine Verteilung und sei angig und identisch verteilte Folge von Zufallsvariablen {Xk }k∈N eine unabh¨ ur n ∈ N heißt die Abbildung Qn : B(R) × Ω → [0, 1] mit mit PX = Q. F¨ Qn (B, ω) :=
n 1X χB (Xk (ω)) n k=1
die empirische Verteilung zu Q und zum Stichprobenumfang n. Dann ist f¨ ur alle ω ∈ Ω die Abbildung Qn ( . , ω) : B(R) → [0, 1] eine Verteilung und f¨ ur alle B ∈ B(R) ist die Abbildung Qn (B, . ) : Ω → [0, 1] messbar.
15.4 Irrfahrten Im gesamten Abschnitt sei {Xk }k∈N eine unabh¨angig und identisch verteilte Folge von reellen Zufallsvariablen und sei X eine typische Zufallsvariable dieser Folge. Wir untersuchen die Konvergenz der Folge {Sn }n∈N0 mit Sn :=
n
Xk
k=1
und damit die Konvergenz der Reihe Irrfahrt mit Spr¨ ungen Xk .
∞ k=1
Xk . Die Folge {Sn }n∈N0 heißt
Es erweist sich als zweckm¨ aßig, das unendliche Produkt ∞ (R, B(R)) k=1
zu betrachten und die Folge {Xk }k∈N mit der Zufallsgr¨oße X : Ω → RN mit den Koordinaten πk ◦ X = Xk zu identifizieren.
358
Kapitel 15. Gesetze der Großen Zahlen
Eine bijektive Abbildung τ : N → N heißt endliche Permutation, wenn es ein m ∈ N gibt mit τ (n) = n f¨ ur alle n ∈ N(m). Jede endliche Permutation τ erzeugt eine messbare Bijektion RN → RN , die wir der Einfachheit halber wieder mit τ bezeichnen. Dann ist f¨ ur jede endliche Permutation τ auch die oße. Abbildung τ ◦ X : Ω → RN eine Zufallsgr¨ Eine messbare Funktion h : RN → [−∞, ∞] heißt X–permutierbar , wenn f¨ ur jede endliche Permutation τ h◦τ ◦X = h◦X gilt, und eine Menge A ∈ B(R)N heißt X–permutierbar , wenn ihre Indikatorfunktion X–permutierbar ist. 15.4.1 Lemma. Sei CX das Mengensystem aller X–permutierbaren Mengen. Dann ist CX eine σ–Algebra und jede X–permutierbare Funktion ist CX – messbar. Beweis. Aus der Definition ist unmittelbar klar, dass CX eine σ–Algebra ur c ∈ [−∞, ∞] sei ist. Sei nun h : RN → [−∞, ∞] X–permutierbar und f¨ Ac := {h ≤ c}. Dann gilt f¨ ur jede endliche Permutation τ : N → N {τ ◦ X ∈ Ac } = {h ◦ τ ◦ X ≤ c} = {h ◦ X ≤ c} = {X ∈ Ac } Daher ist Ac X–permutierbar. Da c ∈ [−∞, ∞] beliebig war, ist h messbar 2 bez¨ uglich CX . Aus dem letzten Lemma ergibt sich das Null–Eins–Gesetz von Hewitt/Savage: -∞ 15.4.2 Satz (Null–Eins–Gesetz; Hewitt/Savage). Sei A ∈ i=1 B(R) X–permutierbar. Dann gilt PX [A] ∈ {0, 1}. Beweis. F¨ ur alle n ∈ N sei
Gn := σ {πk }k∈{1,...,n}
Dann ist das Mengensystem G :=
Gn
n∈N
-∞ eine Algebra mit σ(G) = i=1 B(R) und nach dem Approximationssatz 5.4.1 gibt es eine Folge {Gk }k∈N ⊆ G mit lim PX [AGk ] = 0
k→∞
Da die Folge {Gk }k∈N monoton wachsend ist, k¨onnen wir annehmen, dass ur alle k ∈ N gilt. Gk ∈ Gk f¨
15.4 Irrfahrten
359
F¨ ur alle k ∈ N sei τk : N → N gegeben durch ⎧ ⎨ n + k falls n ∈ {1, . . . , k} τk (n) := n − k falls n ∈ {k + 1, . . . , 2k} ⎩ n sonst Nach Wahl von Gk gibt es eine Menge Bk ∈ B(Rk ) mit Gk = {(π1 , . . . , πnk ) ∈ Bk } und wir setzen Hk := {(πnk +1 , . . . , π2nk ) ∈ Bk } Dann gilt {τk ◦ X ∈ Gk } = {(Xτk (1) , . . . , Xτk (nk ) ) ∈ Bk } = {(Xnk +1 , . . . , X2nk ) ∈ Bk } = {X ∈ Hk }
Da A X–permutierbar ist, gilt {τk ◦ X ∈ A} = {X ∈ A} und damit auch {τk ◦ X ∈ AGk } = {X ∈ AHk } Da die Folge {Xk }k∈N unabh¨ angig und identisch verteilt ist, gilt PX = Pτk ◦X und damit PX [Gk ] = Pτk ◦X [Gk ] = P [{τk ◦ X ∈ Gk }] = P [{X ∈ Hk }] = PX [Hk ] sowie PX [AGk ] = PX [AHk ] Wegen A(Gk ∩ Hk ) ⊆ (AGk ) ∪ (AHk ) folgt daraus PX [A(Gk ∩ Hk )] ≤ PX [AGk ] + PX [AHk ] = 2 PX [AGk ] Nach Wahl der Folge {Gk }k∈N gilt limk→∞ PX [AGk ] = 0. Wir erhalten daher lim PX [A(Gk ∩ Hk )] = 0
k→∞
lim PX [AGk ] = 0
k→∞
lim PX [AHk ] = 0
k→∞
360
Kapitel 15. Gesetze der Großen Zahlen
und damit lim PX [Gk ∩ Hk ] = PX [A]
k→∞
lim PX [Gk ] = PX [A]
k→∞
lim PX [Hk ] = PX [A]
k→∞
Aus der Unabh¨ angigkeit der Folge {Xk }k∈N bez¨ uglich P folgt die Unabh¨angiguglich PX . Daher ist f¨ ur jedes k ∈ N das Paar keit der Folge {πk }k∈N bez¨ {Gk , Hk } unabh¨ angig bez¨ uglich PX und wir erhalten PX [A] = lim PX [Gk ∩ Hk ] k→∞
= lim (PX [Gk ] PX [Hk ]) k→∞
= lim PX [Gk ] · lim PX [Hk ] k→∞
k→∞
= PX [A] PX [A] und damit PX [A] ∈ {0, 1}.
2
Als unmittelbare Folgerung aus dem Null–Eins–Gesetz von Hewitt/Savage ergibt sich ein analoges Ergebnis f¨ ur X–permutierbare Funktionen: 15.4.3 Folgerung. Sei h : RN → R X–permutierbar. Dann ist h PX –fast sicher konstant und h ◦ X ist P –fast sicher konstant. Aus dem Null–Eins–Gesetz von Hewitt/Savage ergibt sich des weiteren die folgende bemerkenswerte Alternative f¨ ur die Konvergenz einer unendlichen Reihe von unabh¨ angig und identisch verteilten Zufallsvariablen: 15.4.4 Satz. Sei PX = δ 0 . Dann gilt eine der folgenden Alternativen: (1) limn→∞ Sn = ∞ fast sicher. (2) lim inf n→∞ Sn = −∞ und lim supn→∞ Sn = ∞ fast sicher. (3) limn→∞ Sn = −∞ fast sicher. Beweis. Sei g : RN → [−∞, ∞] gegeben durch g(x) := lim sup n→∞
n
xk
k=1
F¨ ur jede endliche Permutation τ : N → N und alle n ∈ N hinreichend groß gilt n k=1
xk =
n k=1
xτ (k)
15.4 Irrfahrten
361
Also ist g X–permutierbar und nach Folgerung 15.4.3 gibt es ein c ∈ [−∞, ∞] mit P [{g ◦ X = c}] = 1 fast sicher. Wir betrachten nun die Zufallsgr¨ oße Y : Ω → RN mit Yn := Xn+1 f¨ ur alle n ∈ N. Dann gilt PY = PX und damit P [{g ◦ X = c}] = PX [{g = c}] = PY [{g = c}] = P [{g ◦ Y = c}] Daher gilt lim sup n→∞
fast sicher und wegen
n+1 k=1
n
Xk = c = lim sup n→∞
k=1
Xk = X1 +
n k=1
n
Yk
k=1
Yk folgt nun
c = X1 + c Wegen PX = δ 0 gilt daher c ∈ {−∞, ∞}. Es gilt also n P lim sup Xk ∈ {−∞, ∞} =1 n→∞
k=1
und aus Symmetriegr¨ unden gilt auch n P lim inf Xk ∈ {−∞, ∞} =1 n→∞
k=1
2
Daraus folgt die Behauptung des Satzes.
Es bleibt die Aufgabe, die in Satz 15.4.4 angegebenen Alternativen geeignet zu charakterisieren. Dies gelingt in der Tat unter der zus¨atzlichen Bedingung, dass alle Zufallsvariablen der Folge einen endlichen Erwartungswert besitzen. Wir ben¨ otigen das folgende Lemma: 15.4.5 Lemma. Sei X ∈ L1 und PX = δ 0 . Dann gilt f¨ ur alle m ∈ N ∞ n=1
P [{|Sn | < m}] ≤ 2m
∞
P [{|Sn | < 1}]
n=1
Beweis. Sei J ∈ J (R) ein halboffenes Intervall der L¨ange 1 und f¨ ur n ∈ N sei An := {Sn ∈ J}
362
Kapitel 15. Gesetze der Großen Zahlen
und Bn := An ∩
n−1
Ak
k=1
Dann gilt ∞
∞
χA k =
k=1
n=1
χBn
∞
χA k =
∞ ∞
χBn χAk =
n=1 k=1
k=1
∞ ∞
χBn χAk
n=1 k=n
und damit ∞
P [{Sk ∈ J}] =
k=1
∞
P [Ak ]
k=1
=
( ∞ Ω
( =
χAk dP
k=1 ∞ ∞
Ω
=
χBn χAk dP
n=1 k=n ∞ ∞
P [Bn ∩ Ak ]
n=1 k=n
F¨ ur alle n ∈ N und k ∈ N(n) gilt Bn ∩ Ak ⊆ An ∩ Ak ⊆ {|Sk −Sn | < 1}, also Bn ∩ Ak ⊆ Bn ∩ {|Sk −Sn | < 1}, und damit P [Bn ∩ Ak ] ≤ P [Bn ∩ {|Sk −Sn | < 1}] = P [Bn ] P [{|Sk −Sn | < 1}] = P [Bn ] P [{|Sk−n | < 1}] Also gilt ∞
P [{Sk ∈ J}] =
k=1
≤ = ≤
∞ ∞ n=1 k=n ∞ ∞ n=1 k=n ∞ ∞
P [Bn ∩ Ak ] P [Bn ] P [{|Sk−n | < 1}] P [Bn ] P [{|Sk | < 1}]
n=1 k=0 ∞
P [{|Sk | < 1}]
k=0
F¨ ur alle n ∈ {1, . . . , m} sei Jn := (−n, −n+1] ∪ [n−1, n). Dann gilt
15.4 Irrfahrten
363 ∞
P [{Sk ∈ J1 }] =
k=0
∞
P [{|Sk | < 1}]
k=0
und f¨ ur n ∈ {2, . . . , m} gilt wegen P [{S0 ∈ Jn }] = 0 und der vorher gezeigten Ungleichung ∞
P [{Sk ∈ Jn }] =
k=0
∞
P [{Sk ∈ Jn }]
k=1 ∞
≤2
P [{|Sk | < 1}]
k=0
Also gilt ∞
P [{|Sk | < m}] =
k=0
= =
∞
Sk ∈
P
k=0 m ∞ k=0 n=1 m ∞ n=1 k=0 ∞
≤ 2m
m
Jn
n=1
P [{Sk ∈ Jn }] P [{Sk ∈ Jn }] P [{|Sk | < 1}]
k=0
2
Damit ist das Lemma bewiesen.
Der folgende Satz charakterisiert die in Satz 15.4.4 angegebenen Alternativen: 15.4.6 Satz (Chung/Fuchs). Sei X ∈ L1 mit PX = δ 0 . Dann gilt (1) Es gilt E[X] > 0 genau dann, wenn limn→∞ Sn = ∞ fast sicher gilt. (2) Es gilt E[X] = 0 genau dann, wenn sowohl lim inf n→∞ Sn = −∞ als auch lim supn→∞ Sn = ∞ fast sicher gilt. (3) Es gilt E[X] < 0 genau dann, wenn limn→∞ Sn = −∞ fast sicher gilt. Beweis. Wir nehmen zun¨ achst an, dass E[X] > 0 gilt. Nach dem 2. Gesetz der Großen Zahlen gilt dann lim
n→∞
1 Sn = E[X] n
fast sicher und damit lim inf Sn ≥ lim n n→∞
n→∞
fast sicher. Daher gilt in diesem Fall lim Sn = ∞
n→∞
fast sicher.
E[X] 2
364
Kapitel 15. Gesetze der Großen Zahlen
Wir nehmen nun an, dass E[X] < 0 gilt. Dann gilt aus Symmetriegr¨ unden lim Sn = − ∞
n→∞
fast sicher. Wir nehmen schließlich an, dass E[X] = 0 gilt. Nach dem 2. Gesetz der Großen Zahlen konvergiert die Folge { n1 Sn }n∈N fast sicher und damit auch stochastisch gegen 0. Sei ε ∈ (0, ∞). Dann gibt es ein n(ε) ∈ N mit 1 2
P [{|Sn | < nε}] ≥
f¨ ur alle n ∈ N(n(ε)). F¨ ur alle m ∈ N sei m(ε) := max{n ∈ N | nε ≤ m}. Dann gilt f¨ ur alle n ∈ {n(ε), . . . , m(ε)} 1 2
P [{|Sn | < m}] ≥
und aus Lemma 15.4.5 folgt nun f¨ ur alle m ∈ N mit n(ε) ≤ m(ε) 2m
∞
P [{|Sn | < 1}] ≥
n=0
∞
P [{|Sn | < m}]
n=0
m(ε)
≥
P [{|Sn | < m}]
n=n(ε)
1 m(ε) + 1 − n(ε) 2 ! 1 m − n(ε) ≥ 2 ε ! m εn(ε) = 1− 2ε m ≥
und damit ∞
P [{|Sn | < 1}] ≥
n=0
1 4ε
1−
εn(ε) m
Daher gilt f¨ ur alle ε ∈ (0, ∞) ∞ n=0
P [{|Sn | < 1}] ≥
1 4ε
und daraus folgt ∞ n=0
P [{|Sn | < 1}] = ∞
!
15.4 Irrfahrten
365
Sei nun k ∈ N. F¨ ur alle m ∈ N setzen wir ∞
Am := {|Sm | < 1} ∩
{|Sn | ≥ 1}
n=m+k
Dann ist f¨ ur jedes i ∈ {1, . . . , k} die Folge {Ai+jk }j∈N0 disjunkt, und es gilt ∞ ∞ k k ∞ P [Am ] = P [Ai+jk ] = P Ai+jk ≤ k m=1
i=1 j=0
i=1
j=0
Ferner gilt f¨ ur alle m ∈ N ∞ ∞ P [{|Sm | < 1}] P {|Sl | ≥ 2} = P [{|Sm | < 1}] P {|Sn −Sm | ≥ 2} l=k
n=m+k
∞
= P {|Sm | < 1} ∩
{|Sn −Sm | ≥ 2}
n=m+k
∞
≤ P {|Sm | < 1} ∩
{|Sn | ≥ 1}
n=m+k
= P [Am ] und damit ∞
P [{|Sm | < 1}] P
m=1
Wegen
∞ n=0
∞
{|Sl | ≥ 2} ≤
∞
P [Am ] ≤ k
m=1
l=k
P [{|Sn | < 1}] = ∞ gilt daher ∞ {|Sl | ≥ 2} = 0 P l=k
Daher gilt P
∞ ∞
{|Sl | ≥ 2} = 0
k=1 l=k
und damit
P
lim sup{|Sn | < 2} n→∞
=P
∞ ∞
{|Sl | < 2} = 1
k=1 l=k
Dann aber gilt weder limn→∞ Sn = ∞ noch limn→∞ Sn = −∞, und aus Satz 15.4.4 folgt nun
366
Kapitel 15. Gesetze der Großen Zahlen
lim sup Sn = ∞ n→∞
lim inf Sn = − ∞ n→∞
fast sicher. Die Behauptung folgt nun aus Satz 15.4.4.
2
Wir beenden diesen Abschnitt mit dem denkbar einfachsten Beispiel einer Irrfahrt: 15.4.7 Beispiel (Bernoulli–Irrfahrt). Sei P(X+1)/2 = B(ϑ). Dann gilt: (1) ϑ > 1/2 genau dann, wenn limn→∞ Sn = ∞ fast sicher. (2) ϑ = 1/2 genau dann, wenn lim inf n→∞ Sn = −∞ und lim supn→∞ Sn = ∞ fast sicher. (3) ϑ < 1/2 genau dann, wenn limn→∞ Sn = −∞ fast sicher.
Teil V
Vertiefung der Wahrscheinlichkeitstheorie
16 Erzeugende Funktionen
In diesem Kapitel untersuchen wir f¨ ur reelle Zufallsvariable Funktionen auf der Menge der reellen Zahlen, die durch die Erwartungswerte bestimmter Transformationen der Zufallsvariablen definiert sind und als erzeugende Funktionen bezeichnet werden. Offenbar sind die erzeugenden Funktionen einer reellen Zufallsvariablen durch deren Verteilung vollst¨andig bestimmt. Daher k¨onnte man erzeugende Funktionen auch durch die Integrale bestimmter reeller oder komplexer Funktionen bez¨ uglich einer univariaten Verteilung definieren; da aber jede univariate Verteilung als Verteilung einer reellen Zufallsvariablen auf einem geeigneten Wahrscheinlichkeitsraum dargestellt werden kann, f¨ uhrt dies zu keiner echten Verallgemeinerung. Das Interesse an erzeugenden Funktionen beruht darauf, dass sie in vielen F¨ allen die Bestimmung von Momenten einer Zufallsvariablen oder sogar die Bestimmung der Verteilung einer Zufallsvariablen erleichtern; diesen Eigenschaften verdanken die erzeugenden Funktionen ihren Namen. Wir betrachten – die wahrscheinlichkeitserzeugende Funktion einer Zufallsvariablen mit Werten in N0 (Abschnitt 16.1), – die momenterzeugende Funktion (Abschnitt 16.2), – die kumulantenerzeugende Funktion (Abschnitt 16.3), und – die charakteristische Funktion (Abschnitt 16.4). Dabei untersuchen wir vor allem die Eigenschaften der wahrscheinlichkeitserzeugenden Funktion und der charakteristischen Funktion. Grunds¨ atzlich k¨ onnen diese erzeugenden Funktionen auch f¨ ur Zufallsvektoren und damit f¨ ur multivariate Verteilungen definiert werden. Wir machen von dieser M¨ oglichkeit jedoch keinen Gebrauch und beschr¨anken uns auf die Darstellung der grundlegenden Eigenschaften der erzeugenden Funktionen von Zufallsvariablen.
370
Kapitel 16. Erzeugende Funktionen
16.1 Wahrscheinlichkeitserzeugende Funktion Sei X eine Zufallsvariable mit PX [N0 ] = 1. Dann besitzt f¨ ur alle t ∈ [0, 1] die Zufallsvariable tX einen endlichen Erwartungswert. Die Funktion mX : [0, 1] → R mit mX (t) := E[tX ] heißt die wahrscheinlichkeitserzeugende Funktion von X. Wegen mX (t) =
∞
P [{X = n}] tn =
n=0
∞
PX [{n}] tn
n=0
ist die wahrscheinlichkeitserzeugende Funktion von X durch die Verteilung von X bestimmt. 16.1.1 Beispiele (Diskrete Verteilungen). (1) Binomial–Verteilung: Im Fall PX = B(n, ϑ) gilt mX (t) = (1−ϑ+ϑt)n (2) Poisson–Verteilung: Im Fall PX = P(α) gilt mX (t) = e−α(1−t) In der Tat: Es gilt mX (t) =
∞ X
e−α
n=0
∞ X αn n (αt)n t = e−α = e−α eαt = e−α(1−t) n! n! k=0
(3) Negativbinomial–Verteilung: Im Fall PX = NB(α, ϑ) gilt „ «−α 1 − ϑt mX (t) = 1−ϑ
Wir untersuchen nun die Eigenschaften der wahrscheinlichkeitserzeugenden Funktion. 16.1.2 Satz. Sei X eine Zufallsvariable mit PX [N0 ] = 1. Dann gilt : (1) mX ist monoton wachsend und stetig, und f¨ ur alle t ∈ [0, 1] gilt 0 ≤ mX (t) ≤ mX (1) = 1 (2) mX ist auf dem Intervall [0, 1) unendlich oft differenzierbar. ur alle t ∈ [0, 1) gilt (3) F¨ ur alle k ∈ N0 und f¨ k−1 ∞ (k) mX (t) = P [{X = n}] (n−i) tn−k i=0
n=k
(4) F¨ ur alle k ∈ N0 ist und es gilt
(k) mX (t) (k)
auf dem Intervall [0, 1) monoton wachsend
sup mX (t) =
t∈[0,1)
∞ n=k
P [{X = n}]
k−1
(n−i)
i=0
16.1 Wahrscheinlichkeitserzeugende Funktion
371
n Beweis. Da die Potenzreihe ∞ n=1 P [{X = n}] t auf [−1, 1] konvergent ist, folgt aus den Eigenschaften von Potenzreihen, dass die wahrscheinlichkeitserzeugende Funktion auf [0, 1) unendlich oft stetig differenzierbar ist. Daraus folgt (2). Insbesondere ist die wahrscheinlichkeitserzeugende Funktion stetig auf [0, 1) und es ist klar, dass sie auch positiv und monoton wachsend ist mit mX (1) = 1. Am Ende des Beweises zeigen wir, dass die wahrscheinlichkeitserzeugende Funktion auch in t = 1 stetig ist. Damit ist dann (1) gezeigt. Der Nachweis von (3) ist elementar. Sei nun k ∈ N0 . Nach (3) ist die k–te Ableitung von mX auf [0, 1) monoton wachsend. Sei (k)
ck := sup mX (t) t∈[0,1)
Dann gilt f¨ ur alle t ∈ [0, 1) (k) mX (t)
=
∞
k−1 P [{X = n}] (n−i) tn−k i=0
n=k
≤
∞
P [{X = n}]
k−1
(n−i)
i=0
n=k
und damit ck ≤
∞
P [{X = n}]
k−1
(n−i)
i=0
n=k
Andererseits gilt f¨ ur alle m ∈ N und f¨ ur alle t ∈ [0, 1) k−1 m k−1 ∞ P [{X = n}] (n−i) tn−k ≤ P [{X = n}] (n−i) tn−k n=k
i=0
n=k
=
(k) mX (t)
≤ ck und aus der Stetigkeit von Polynomen folgt nun m
P [{X = n}]
k−1
(n−i) ≤ ck
i=0
n=k
Daraus folgt ∞ n=k
P [{X = n}]
k−1
(n−i) ≤ ck
i=0
i=0
372
Kapitel 16. Erzeugende Funktionen
Zusammen mit der vorher gezeigten Ungleichung erhalten wir ∞
P [{X = n}]
k−1
(n−i) = ck
i=0
n=k
Damit ist auch (4) bewiesen. F¨ ur k = 0 lautet die Gleichung aus (4) sup mX (t) = t∈[0,1)
∞
P [{X = n}] = 1 = mX (1)
n=0
Damit ist auch die Stetigkeit von mX an der Stelle t = 1 gezeigt.
2
Wir zeigen nun, dass die wahrscheinlichkeitserzeugende Funktion ihren Namen verdient. Dazu ben¨ otigen wir das folgende Lemma, das sich unmittelbar aus Satz 16.1.2(3) ergibt: 16.1.3 Lemma. Sei X eine Zufallsvariable mit PX [N0 ] = 1. Dann gilt f¨ ur alle k ∈ N0 1 (k) m (0) P [{X = k}] = k! X Der folgende Satz zeigt, dass die Verteilung einer Zufallsvariablen X mit PX [N0 ] = 1 durch ihre wahrscheinlichkeitserzeugende Funktion bestimmt ist: 16.1.4 Satz (Eindeutigkeitssatz). Seien X und Y Zufallsvariable mit PX [N0 ] = 1 = PY [N0 ]. Dann sind ¨aquivalent : (a) Es gilt PX = PY . (b) Es gilt mX = mY . Die Aussage des Satzes ergibt sich unmittelbar aus Lemma 16.1.3. F¨ ur eine Zufallsvariable X mit PX [N0 ] = 1 und f¨ ur k ∈ N0 heißt . !" X E k das Binomial–Moment der Ordnung k von X. Es gilt . E
X k
!"
! ∞ n = P [{X = n}] k n=k
und aus Satz 16.1.2 ergibt sich . !" 1 (k) X E = sup mX (t) k k! t∈[0,1)
16.1 Wahrscheinlichkeitserzeugende Funktion
373
Der folgende Satz gibt notwendige und hinreichende Bedingungen daf¨ ur an, dass das Binomial–Moment der Ordnung k endlich ist: ur k ∈ N sind 16.1.5 Satz. Sei X eine Zufallsvariable mit PX [N0 ] = 1. F¨ folgende Aussagen ¨aquivalent : (a) Es gilt . !" X E <∞ k (b) Es gilt E[X k ] < ∞ (c) mX ist an der Stelle t = 1 k–mal stetig differenzierbar. In diesem Fall gilt . !" X 1 (k) m (1) E = k k! X Beweis. Wir nehmen zun¨ achst an, dass (a) gilt. F¨ ur alle l ∈ N gilt . E
X l
!"
! ∞ n = P [{X = n}] l n=l ! ∞ n n−l+1 P [{X = n}] = l−1 l n=l ! ∞ n ≥ P [{X = n}] l−1 n=2l−1
Da es f¨ ur die Konvergenz einer Reihe auf ihre ersten Glieder nicht ankommt, folgt f¨ ur alle l ∈ {1, . . . , k} mit . !" X E <∞ l aus der vorigen Ungleichung . E
X l−1
!" <∞
Wegen Satz 16.1.2 und aufgrund der vorher gezeigten Implikation gilt f¨ ur alle l ∈ {0, 1, . . . , k} . !" X (l) <∞ sup mX (t) = l! E l t∈[0,1) Aus den Eigenschaften von Potenzreihen folgt nun, dass mX an der Stelle t = 1 k–mal stetig differenzierbar ist. Daher folgt (c) aus (a).
374
Kapitel 16. Erzeugende Funktionen
Wir nehmen nun an, dass (c) gilt. Dann gilt . !" X 1 (k) 1 (k) E = sup mX (t) = m (1) k k! X t∈[0,1) k! Daher folgt (a) aus (c). ¨ Wir nehmen nochmals an, dass (a) gilt. Aufgrund der bereits gezeigten Aquivalenz von (a) und (c) gilt f¨ ur alle l ∈ {0, 1, . . . , k} . !" X E <∞ l Durch vollst¨ andige Induktion zeigt man, dass sich alle Momente der Ordnung l ∈ {0, 1, . . . , k} von X in der Form l
E[X ] =
l
. al,j E
j=0
X j
!"
ur alle l ∈ {0, 1, . . . , k} mit al,0 , . . . , al,l ∈ R darstellen lassen und dass f¨ E[X l ] < ∞ gilt. Daher folgt (b) aus (a). Wir nehmen abschließend an, dass (b) gilt. Wegen . !" X 1 E[X k ] E ≤ k! k folgt aus E[X k ] < ∞ . E
X k
!" <∞ 2
Daher folgt (a) aus (b).
F¨ ur eine Zufallsvariable X mit PX [N0 ] = 1 lassen sich der Erwartungswert und die Varianz besonders leicht mit Hilfe der wahrscheinlichkeitserzeugenden Funktion bestimmen: 16.1.6 Folgerung. Sei X eine Zufallsvariable mit PX [N0 ] = 1. (1) Besitzt X einen endlichen Erwartungswert, so gilt E[X] = mX (1) (2) Besitzt X ein endliches zweites Moment , so gilt var [X] = mX (1) + mX (1) − (mX (1))2
16.1 Wahrscheinlichkeitserzeugende Funktion
375
Beweis. Die Formel f¨ ur den Erwartungswert ist unmittelbar klar aus Satz 16.1.5. Die Formel f¨ ur die Varianz ergibt sich ebenfalls aus Satz 16.1.5, denn es gilt var [X] = E[X 2 ] − (E[X])2 = E[X(X −1)] + E[X] − (E[X])2 = mX (1) + mX (1) − (mX (1))2 2
Damit ist die Folgerung gezeigt. 16.1.7 Beispiele (Diskrete Verteilungen). (1) Binomial–Verteilung: Im Fall PX = B(n, ϑ) gilt mX (t) = nϑ(1−ϑ+ϑt)n−1 mX (t) = n(n−1)ϑ(1−ϑ+ϑt)n−2 und damit E[X] = n ϑ und var [X] = n ϑ(1−ϑ). (2) Poisson–Verteilung: Im Fall PX = P(α) gilt mX (t) = α e−α(1−t) mX (t) = α2 e−α(1−t) und damit E[X] = α und var [X] = α. (3) Negativbinomial–Verteilung: Im Fall PX = NB(α, ϑ) gilt „ «−(α+1) ϑ 1 − ϑt mX (t) = α 1−ϑ 1−ϑ „ «2 „ «−(α+2) ϑ 1 − ϑt mX (t) = α(α+1) 1−ϑ 1−ϑ und damit E[X] = αϑ/(1−ϑ) und var [X] = αϑ/(1−ϑ)2 .
Mit Hilfe der wahrscheinlichkeitserzeugenden Funktion l¨asst sich auch die Verteilung einer Summe von unabh¨ angigen Zufallsvariablen bestimmen: 16.1.8 Satz. Sei X : Ω → Rd ein Zufallsvektor mit PX [Nd0 ] = 1 und unabh¨angigen Koordinaten. Dann gilt m1 X (t) =
d
mXi (t)
i=1
Beweis. Aus der Unabh¨ angigkeit der Familie {Xi }i∈{1,...,d} folgt die Unabh¨ angigkeit der Familie {tXi }i∈{1,...,d} . Daher gilt d d d + * Pd 1 X X X i i =E m1 X (t) = E t t E tXi = mXi (t) = = E t i=1 i=1
Damit ist der Satz gezeigt.
i=1
i=1
2
376
Kapitel 16. Erzeugende Funktionen
16.1.9 Beispiele (Diskrete Verteilungen). Seien X und Y unabh¨ angige reelle Zufallsvariable. (1) Binomial–Verteilung: Im Fall PX = B(m, ϑ) und PY = B(n, ϑ) gilt PX+Y = B(m+n, ϑ) (2) Poisson–Verteilung: Im Fall PX = P(α) und PY = P(β) gilt PX+Y = P(α+β) In der Tat: Es gilt mX+Y (t) = mX (t) mY (t) = e−α(1−t) e−β(1−t) = e−(α+β)(1−t) (3) Negativbinomial–Verteilung: Im Fall PX = NB(α, ϑ) und PY = NB(β, ϑ) gilt PX+Y = NB(α+β, ϑ)
Aus Satz 16.1.8 ergibt sich insbesondere ein Spezialfall der aus Folgerung 13.5.4 bekannten Faltungsformel: 16.1.10 Folgerung (Faltungsformel). Seien X und Y unabh¨angige Zufallsvariable mit PX [N0 ] = 1 = PY [N0 ]. Dann gilt f¨ ur alle n ∈ N0 P [{X + Y = n}] =
n
P [{X = k}] P [{Y = n−k}]
k=0
Beweis. Nach Satz 16.1.8 gilt mX+Y (t) = mX (t) mY (t). Aus der Produktregel der Differentialrechnung folgt ! n n (n) (k) (n−k) mX+Y (t) = (t) mX (t) mY k k=0
und damit (n)
m (t) P [{X +Y = n}] = X+Y n! n (k) (n−k) mX (t) mY (t) = k! (n−k)! =
k=0 n
P [{X = k}] P [{Y = n−k}]
k=0
Damit ist die Folgerung bewiesen.
2
Die Verwendung der wahrscheinlichkeitserzeugenden Funktion ist vor allem dann von Vorteil, wenn sie in geschlossener Form darstellbar ist.
16.1 Wahrscheinlichkeitserzeugende Funktion
377
Aufgaben 16.1.A Jede wahrscheinlichkeitserzeugende Funktion ist konvex. 16.1.B F¨ ur eine Zufallsvariable X mit PX [N0 ] = 1 sind folgende Aussagen ¨ aquivalent: (a) Es gilt PX = δ 0 . (b) Es gilt mX (0) = 1. (c) Es gibt ein t ∈ [0, 1) mit mX (t) = 1. (d) F¨ ur alle t ∈ [0, 1] gilt mX (t) = 1. (e) mX ist an der Stelle t = 1 differenzierbar und es gilt mX (1) = 0. ur alle t ∈ [0, 1] gilt (f) mX ist an der Stelle t = 1 differenzierbar und f¨ mX (t) = 0. 16.1.C Panjer–Verteilung: Eine reelle Zufallsvariable X mit PX [N0 ] = 1 besitzt eine Panjer–Verteilung, wenn es a, b ∈ R gibt mit a + b > 0 derart, dass f¨ ur alle n ∈ N « „ b P [{X = n−1}] P [{X = n}] = a + n gilt. (1) F¨ ur eine Zufallsvariable X mit PX [N0 ] = 1 und f¨ ur a, b ∈ R mit a + b > 0 sind folgende Aussagen ¨ aquivalent: (a) F¨ ur alle n ∈ N gilt « „ b P [{X = n−1}] P [{X = n}] = a + n (b) F¨ ur alle t ∈ [0, 1) gilt (1−at)mX (t) = (a+b)mX (t) (c) F¨ ur alle n ∈ N und t ∈ [0, 1) gilt (n)
(n−1)
(1−at)mX (t) = (na+b)mX
(t)
In diesem Fall gilt a < 1. (2) Ist X eine reelle Zufallsvariable, die eine Panjer–Verteilung besitzt, so gilt a+b 1−a a+b var [X] = (1−a)2 E[X] =
(3) Eine reelle Zufallsvariable besitzt genau dann eine Panjer–Verteilung, wenn sie eine Binomial–, Poisson– oder Negativbinomial–Verteilung besitzt. (4) Charakterisieren Sie die Binomial–, Poisson– und Negativbinomial– Verteilungen nach der Lage des Parameters a und nach dem Verh¨ altnis zwischen der Varianz und dem Erwartungswert. 16.1.D Geometrische Verteilung: Sei PX = Geo(n, ϑ). Dann gilt «n „ ϑt mX (t) = 1 − (1−ϑ)t Bestimmen Sie den Erwartungswert und die Varianz von X.
378
Kapitel 16. Erzeugende Funktionen
16.1.E Logarithmische Verteilung: Sei PX = Log(ϑ). Dann gilt mX (t) =
log(1 − ϑt) log(1 − ϑ)
Bestimmen Sie den Erwartungswert und die Varianz von X. 16.1.F Wahrscheinlichkeitserzeugende Funktion eines Zufallsvektors: Sei X : Ω → Rd ein Zufallsvektor mit PX [Nd0 ] = 1. Dann heißt die Funktion mX : [0, 1]d → [0, 1] mit " d # Y X i mX (t) := E ti i=1
die wahrscheinlichkeitserzeugende Funktion von X. Untersuchen Sie die Eigenschaften von mX .
16.2 Momenterzeugende Funktion Sei X eine Zufallsvariable. Dann besitzt f¨ ur alle t ∈ R die Zufallsvariable etX einen Erwartungswert. Die Funktion MX : R → [0, ∞] mit MX (t) := E[etX ] heißt die momenterzeugende Funktion von X. Wegen ( MX (t) = etx dPX (x) R
ist die momenterzeugende Funktion von X durch die Verteilung von X bestimmt. 16.2.1 Beispiele (Absolutstetige Verteilungen). (1) Gamma–Verteilung: Im Fall PX = Ga(α, γ) gilt «γ 8„ α > < falls t ∈ (−∞, α) α−t MX (t) = > : +∞ sonst In der Tat: F¨ ur alle t ∈ (−∞, α) gilt Z αγ −αx γ−1 e etx · x χ(0,∞) (x) dλ(x) MX (t) = Γ(γ) R Z (α−t)γ −(α−t)x γ−1 αγ e x χ(0,∞) (x) dλ(x) = γ (α−t) R Γ(γ) «γ „ α = α−t
16.2 Momenterzeugende Funktion
379
(2) Standardnormal–Verteilung: Im Fall PX = N(0, 1) gilt MX (t) = exp(t2 /2)
Das folgende Lemma ergibt sich unmittelbar aus der Definition der momenterzeugenden Funktion: 16.2.2 Lemma. Sei X eine Zufallsvariable. Dann gilt f¨ ur alle a, b ∈ R Ma+bX (t) = eat MX (bt)
Auch die folgenden Eigenschaften der momenterzeugenden Funktion einer Zufallsvariablen sind offensichtlich: ur 16.2.3 Lemma. Sei X eine Zufallsvariable. Dann gilt MX (0) = 1 und f¨ alle t ∈ R gilt MX (t) ∈ (0, ∞]. Die momenterzeugende Funktion einer Zufallsvariablen ist vor allem dann von Interesse, wenn sie in einer Umgebung von 0 endlich ist: 16.2.4 Satz. Sei X eine Zufallsvariable. Wenn es ein a ∈ (0, ∞) gibt mit MX (t) < ∞ f¨ ur alle t ∈ (−a, a), dann gilt: (1) X besitzt endliche Momente beliebiger Ordnung. (2) F¨ ur alle t ∈ (−a, a) gilt MX (t) =
∞ k t k=0
k!
E[X k ]
(3) MX ist auf dem Intervall (−a, a) unendlich oft differenzierbar und f¨ ur alle k ∈ N gilt (k) E[X k ] = MX (0) (4) Besitzt MX die Potenzreihendarstellung MX (t) =
∞
a k tk
k=0
so gilt f¨ ur alle k ∈ N E[X k ] = ak k! Beweis. Sei t ∈ (−a, a). Nach Voraussetzung sind etX und e−tX integrierbar, und wegen e|tX| ≤ etX + e−tX ist auch e|tX| integrierbar. Nach dem Satz u ¨ ber die monotone Konvergenz gilt
380
Kapitel 16. Erzeugende Funktionen
∞ . " ∞ |tX|k |tX|k E =E = E e|tX| k! k!
k=0
k=0
und aus der Integrierbarkeit von e|tX| folgt nun (mit t = 0), dass X endliche Momente beliebiger Ordnung besitzt. Des weiteren gilt ∞ k k t X
etX =
k!
k=0
und
n ∞ tk X k |tX|k sup ≤ k! k! n∈N0 k=0
k=0
und aus Folgerung 8.3.11 ergibt sich nun E[etX ] =
∞ k t k=0
k!
E[X k ]
Damit sind (1) und (2) bewiesen, und die u ¨ brigen Aussagen ergeben sich aus den Eigenschaften von Potenzreihen. 2 Wir geben abschließend ein Beispiel f¨ ur die Anwendung der letzten Aussage des Satzes: 16.2.5 Beispiel (Exponential–Verteilung). Sei PX = Exp(α). Dann gilt f¨ ur alle t ∈ (−∞, α) X 1 k α t = α−t αk k=0 ∞
MX (t) =
F¨ ur alle k ∈ N gilt daher E[X k ] = k!/αk .
Aufgaben 16.2.A Jede momenterzeugende Funktion ist konvex. 16.2.B Sei X eine Zufallsvariable mit PX [R+ ] = 1. Dann ist MX auf dem Intervall (−∞, 0] endlich. 16.2.C Normal–Verteilung: Sei PX = N(μ, σ 2 ). Dann gilt „ « σ2 2 MX (t) = exp μt + t 2 und E[(X −μ)n ] =
8 n/2 > Y > < σn (2j −1)
falls n ∈ 2N
> > :
sonst
j=1
0
16.3 Kumulantenerzeugende Funktion
381
16.2.D Sei X : Ω → Rd ein Zufallsvektor mit unabh¨ angigen Koordinaten. Dann gilt M1 X (t) =
d Y
MXi (t)
i=1
16.2.E Momenterzeugende Funktion eines Zufallsvektors: Sei X : Ω → Rd ein Zufallsvektor. Dann heißt die Funktion MX : Rd → [0, ∞] mit
MX (t) := E[et X ] die momenterzeugende Funktion von X. Untersuchen Sie die Eigenschaften von MX .
16.3 Kumulantenerzeugende Funktion ¯ mit Sei X eine Zufallsvariable. Die Funktion CX : R → R CX (t) := log(E[etX ]) (mit log(∞) := ∞) heißt die kumulantenerzeugende Funktion von X. Es gilt CX = log ◦ MX . Wegen ! ( CX (t) = log etx dPX (x) R
ist die kumulantenerzeugende Funktion von X durch die Verteilung von X bestimmt. 16.3.1 Beispiele (Absolutstetige Verteilungen). (1) Gamma–Verteilung: Im Fall PX = Ga(α, γ) gilt 8 “ ” < γ log(α) − log(α−t) falls t ∈ (−∞, α) CX (t) = : +∞ sonst (2) Standardnormal–Verteilung: Im Fall PX = N(0, 1) gilt CX (t) = t2 /2
Das folgende Lemma ergibt sich unmittelbar aus der Definition der kumulantenerzeugenden Funktion: 16.3.2 Lemma. Sei X eine Zufallsvariable. Dann gilt f¨ ur alle a, b ∈ R Ca+bX (t) = at + CX (bt) Die kumulantenerzeugende Funktion einer Zufallsvariablen ist vor allem dann von Interesse, wenn ihre momenterzeugende Funktion in einer Umgebung von 0 endlich ist:
382
Kapitel 16. Erzeugende Funktionen
16.3.3 Satz. Sei X eine Zufallsvariable. Wenn es ein a ∈ (0, ∞) gibt mit MX (t) < ∞ f¨ ur alle t ∈ (−a, a), dann ist CX auf dem Intervall (−a, a) unendlich oft differenzierbar und es gilt C (t) =
(t) MX MX (t)
und
(t)MX (t) − (MX (t))2 MX 2 (MX (t)) und damit C (0) = E[X] und C (0) = var [X].
C (t) =
Beweis. Die Aussage ergibt sich unmittelbar aus Satz 16.2.4.
2
16.3.4 Beispiele (Absolutstetige Verteilungen). ur alle t ∈ (−∞, α) (1) Gamma–Verteilung: Im Fall PX = Ga(α, γ) gilt f¨ γ CX (t) = α−t γ (t) = CX (α−t)2 und damit E[X] = γ/α und var [X] = γ/α2 . (2) Normal–Verteilung: Im Fall PX = N(μ, σ 2 ) gilt CX (t) = μ + σ 2 t (t) = σ 2 CX
und damit E[X] = μ und var [X] = σ 2 .
Aufgaben 16.3.A Sei X eine Zufallsvariable mit einem endlichen Erwartungswert. Dann gilt f¨ ur alle t ∈ (0, ∞) ” “ 1 E[X] ≤ log E[etX ] t 16.3.B Normal–Verteilung: Sei PX = N(μ, σ 2 ). Dann gilt CX (t) = μt +
σ2 2 t 2
16.3.C Sei X : Ω → Rd ein Zufallsvektor mit unabh¨ angigen Koordinaten. Dann gilt C1 X (t) =
d X
CXi (t)
i=1
16.3.D Kumulantenerzeugende Funktion eines Zufallsvektors: Sei X : Ω → Rd ein Zufallsvektor. Dann heißt die Funktion MX : Rd → [0, ∞] mit
CX (t) := log(E[et X ]) die kumulantenerzeugende Funktion von X. Untersuchen Sie die Eigenschaften von CX .
16.4 Charakteristische Funktion
383
16.4 Charakteristische Funktion Sei X eine Zufallsvariable. Die Funktion ψX : R → C mit ψX (t) := E[eitX ] heißt die charakteristische Funktion von X. Wegen ( ψX (t) = eitx dPX (x) R
ist die charakteristische Funktion von X durch die Verteilung von X bestimmt. 16.4.1 Beispiele (Diskrete Verteilungen). (1) Binomial–Verteilung: Im Fall PX = B(n, ϑ) gilt ”n “ ψX (t) = 1 − ϑ + ϑ eit (2) Poisson–Verteilung: Im Fall PX = P(α) gilt ψX (t) = exp(−α(1−eit )) (3) Negativbinomial–Verteilung: Im Fall PX = NB(α, ϑ) gilt „ mX (t) =
1 − ϑeit 1−ϑ
«−α
16.4.2 Beispiele (Absolutstetige Verteilungen). (1) Uniforme Verteilung: Im Fall PX = U(a, b) gilt ψX (t) =
eibt − eiat i(b−a)t
(2) Gamma–Verteilung: Im Fall PX = Ga(α, γ) gilt «γ „ α ψX (t) = α − it (3) Standardnormal–Verteilung: Im Fall PX = N(0, 1) gilt ψX (t) = exp(−t2 /2)
Das folgende Lemma ergibt sich unmittelbar aus der Definition der charakteristischen Funktion: 16.4.3 Lemma. Sei X eine Zufallsvariable. Dann gilt f¨ ur alle a, b ∈ R ψa+bX (t) = eiat ψX (bt)
384
Kapitel 16. Erzeugende Funktionen
F¨ ur den Nachweis vieler Eigenschaften der charakteristischen Funktion einer Zufallsvariablen ist das folgende Lemma wesentlich: 16.4.4 Lemma. F¨ ur alle x ∈ R und n ∈ N0 gilt
n |x|n+1 2|x|n ix (ix)k , e − ≤ min k! (n+1)! n! k=0
Insbesondere gilt f¨ ur jede Zufallsvariable X mit E[|X|n ] < ∞ und f¨ ur alle t∈R
n (it)k |tX|n+1 2|tX|n k E[X ] ≤ E min , ψX (t) − k! (n+1)! n! k=0
Beweis. Wir nehmen zun¨ achst an, dass x ≥ 0 gilt. Durch partielle Integration erh¨ alt man f¨ ur alle n ∈ N0 ( x ( x i xn+1 + (x−s)n eis ds = (x−s)n+1 eis ds n+1 n+1 0 0 Durch vollst¨ andige Induktion erh¨ alt man aus dieser Gleichung f¨ ur alle n ∈ N0 ( n in+1 x (ix)k + eix = (x−s)n eis ds k! n! 0 k=0
)x
und wegen | 0 (x−s)n eis ds| ≤ |x|n+1 /(n+1)! ergibt sich daraus ( x n |x|n+1 ix (ix)k in+1 n is (x−s) e ds ≤ e − = (n+1)! k! n! 0 k=0
und damit die erste Absch¨ atzung. F¨ ur n = 0 ist die zweite Absch¨atzung trivial, und f¨ ur n ∈ N ergibt sich aus den ersten beiden Gleichungen ( x n in (ix)k (ix)n ix + (x−s)n−1 eis ds − e = k! (n−1)! 0 n! k=0
und damit ( x n |x|n |x|n ix (ix)k in n−1 is ≤2 (x−s) e ds + e − ≤ k! (n−1)! 0 n! n! k=0
und damit die zweite Absch¨ atzung. Im Fall x ≤ 0 erh¨ alt man zun¨ achst ( 0 ( 0 i (−x)n+1 − (s−x)n eis ds = (s−x)n+1 eis ds n+1 n+1 x x
16.4 Charakteristische Funktion
385
und sodann eix =
( n (−i)n+1 0 (ix)k + (s−x)n eis ds k! n! x k=0
Der Beweis der Absch¨ atzungen verl¨ auft dann analog zum Fall x ≥ 0.
2
Aus dem Lemma ergibt sich insbesondere ein Zusammenhang zwischen der Endlichkeit bestimmter Momente einer Zufallsvariablen und dem Grad der Differenzierbarkeit ihrer charakteristischen Funktion: 16.4.5 Lemma. Sei X eine Zufallsvariable mit einem endlichen Moment der Ordnung n ∈ N0 . Dann ist ψX n–mal differenzierbar und f¨ ur alle k ∈ {0, 1, . . . , n} gilt + * (k) ψX (t) = E (iX)k eitx und insbesondere
(k)
ψX (0) = ik E[X k ] (k)
und ψX ist gleichm¨aßig stetig. Beweis. Wir beweisen zun¨ achst die Aussage u ¨ber die Differenzierbarkeit und f¨ uhren den Beweis durch vollst¨ andige Induktion. • k = 0: In diesem Fall ist nichts zu zeigen. • k → k + 1: Wir nehmen an, die Aussage u ¨ber die Differenzierbarkeit sei f¨ ur ein k ∈ {0, 1, . . . , n−1} bereits bewiesen. Dann gilt f¨ ur alle h ∈ R\{0} (k) (k) ψX (t+h) − ψX (t) k+1 itX e ] − E[(iX) h E[(iX)k ei(t+h)X ] − E[(iX)k eitX ] − E[h(iX)k+1 eitX ] = h . !" eihX − 1 − ihX = E (iX)k eitX h " ihX . e − 1 − ihX ≤ E |X|k h Nach Lemma 16.4.4 ist der letzte Integrand durch die integrierbare Zufallsvariable 2|X|k+1 beschr¨ ankt und er konvergiert f¨ ur h → 0 gegen 0. (k) Aus dem Satz u ¨ber die majorisierte Konvergenz folgt nun, dass ψX differenzierbar ist mit + * (k+1) (t) = E (iX)k+1 eitX ψX und damit (k+1)
ψX
(0) = ik+1 E[X k+1 ]
386
Kapitel 16. Erzeugende Funktionen
Wir beweisen nun die Aussage u ¨ ber die gleichm¨aßige Stetigkeit. Es gilt * + * + (k) (k) ψX (t+h) − ψX (t) = E (iX)k ei(t+h)X − E (iX)k eitX * + = E (iX)k eitX (eihX −1) + * ≤ E |X|k |eihX −1| Da der letzte Integrand f¨ ur alle h durch 2|X k | beschr¨ankt ist und f¨ ur h → 0 (k) gegen 0 konvergiert, folgt die gleichm¨ aßige Stetigkeit von ψX nun aus dem Satz u 2 ¨ ber die majorisierte Konvergenz. Wir zeigen nun, dass die charakteristische Funktion ihren Namen verdient. Dazu ben¨ otigen wir das folgende Lemma: 16.4.6 Lemma. Sei X eine Zufallsvariable und sei (a, b] ⊆ R ein nichtleeres Intervall mit PX [{a, b}] = 0. Dann ist die Funktion h : R → C mit ⎧ −ias − e−ibs ⎨e falls s = 0 is h(s) := ⎩ b−a falls s = 0 stetig und beschr¨ankt und es gilt PX [(a, b]] =
1 lim 2π n→∞
( [−n,n]
h(s) ψX (s) ds
Beweis. F¨ ur alle s = 0 gilt nach Lemma 16.4.4 −ias −ias e e − e−ibs − 1 + ias e−ibs − 1 + ibs a2 + b2 − (b−a) = − s ≤ is is is 2 und
−ias i(b−a)s e − e−ibs − 1 |(b−a)s| −ibs e |h(s)| = = |b−a| | = |e ≤ is is s
Aus der ersten Absch¨ atzung folgt, dass h an der Stelle s = 0 und damit auf R stetig ist, und aus der zweiten Absch¨ atzung folgt, dass h beschr¨ankt ist. Wir betrachten nun die Funktion f : R2 → C mit f (x, s) := h(s) eisx Dann ist f stetig und damit messbar, und wegen |f (x, s)| = |h(s)| ist f auch beschr¨ ankt. Daher ist f¨ ur alle n ∈ N die Funktion fn : R2 → C mit fn (x, s) := f (x, s) χ[−n,n] (s)
16.4 Charakteristische Funktion
387
(PX ⊗ λ)–integrierbar. Wir betrachten schließlich die Funktion g : R → C mit g(s) := h(s) ψX (s) F¨ ur alle n ∈ N und die Funktion gn : R → C mit gn (s) := g(s) χ[−n,n] (s) gilt dann gn (x, s) = h(s) ψX (s) χ[−n,n] (s) = h(s) E[eisX ] χ[−n,n] (s) ( = h(s) eisX(ω) χ[−n,n] (s) dP (ω) Ω ( h(s) eisx χ[−n,n] (s) dPX (x) = (R = fn (x, s) dPX (x) R
und aus dem Satz von Fubini folgt nun, dass gn λ–integrierbar ist mit ( ( ( gn (x, s) dλ(s) = fn (x, s) dPX (x) dλ(s) R (R (R = fn (x, s) dλ(s) dPX (x) R
R
F¨ ur alle x ∈ R gilt (
( R
fn (x, s) dλ(s) =
[−n,n]
e−ias − e−ibs isx e dλ(s) is
[−n,n]
eis(x−a) − eis(x−b) dλ(s) is
( =
Mit Hilfe der Gleichungen eiz = cos(z) + i sin(z) sowie cos(−z) = cos(z) ¨ und sin(−z) = − sin(z) und durch Ubergang zum uneigentlichen Riemann– Integral u ¨ber (0, n] ergibt sich aus der letzten Gleichung ( fn (x, s) dλ(s) R ( ( n n sin(s(x−a)) sin(s(x−b)) =2 ds − ds s s 0 0 ( n|x−a| ( n|x−b| sin(t) sin(t) = 2 sign(x−a) dt − sign(x−b) dt t t 0 0
388
Kapitel 16. Erzeugende Funktionen
) F¨ ur alle x ∈ R gilt daher | R fn (x, s))dλ(s)| ≤ 2π und aus der Voraussetzung PX [{a, b}] = 0 ergibt sich limn→∞ R fn (x, s) dλ(s) = 2πχ(a,b] (x) PX –fast sicher. Aus dem Satz u ¨ ber die majorisierte Konvergenz folgt nun ( ( h(s) ψX (s) ds = lim gn (x, s) dλ(s) lim n→∞ [−n,n] n→∞ R ( ( = lim fn (x, s) dλ(s) dPX (x) n→∞ R R ( ( = lim fn (x, s) dλ(s) dPX (x) n→∞ R (R = 2π χ(a,b] (x) dPX (x) R
= 2π PX [(a, b]] 2
Daraus folgt die Behauptung.
Der folgende Satz zeigt, dass die Verteilung einer Zufallsvariablen durch ihre charakteristische Funktion bestimmt ist: 16.4.7 Satz (Eindeutigkeitssatz). Seien X und Y Zufallsvariable. Dann sind ¨aquivalent : (a) Es gilt PX = PY . (b) Es gilt ψX = ψY . Beweis. Offensichtlich gen¨ ugt es zu zeigen, dass (a) aus (b) folgt. Wir nehmen daher an, dass (b) gilt. Sei JX,Y := (a, b] ∈ 2R a ≤ b und PX [{a, b}] = 0 = PY [{a, b}] Dann ist JX,Y ein ∩–stabiles Mengensystem mit JX,Y ⊆ J (R) und nach Lemma 16.4.6 gilt f¨ ur alle J ∈ JX,Y PX [J] = PY [J] Da die Menge {z ∈ R | max{PX [{z}], PY [{z}]} > 0} abz¨ahlbar ist, gibt es zu jedem Intervall (a, b] ⊆ R mit PX [{a}] = 0 = PY [{a}] eine monoton fallende Folge {bn }n∈N mit P X [{bn }] = 0 = PY [{bn }] f¨ ur alle n ∈ N und inf n∈N bn = b, und damit (a, b] = n∈N (a, bn ] ∈ σ(JX,Y ), und zu jedem Intervall (a, b] ⊆ R gibt es eine monoton fallende Folge {an }n∈N mit PX [{a n }] = 0 = PY [{an }] f¨ ur alle n ∈ N und inf n∈N an = a, und damit (a, b] = n∈N (an , b] ∈ σ(JX,Y ). Daher gilt J (R) ⊆ σ(JX,Y ) ⊆ σ(J (R)) = B(R), und damit B(R) = σ(JX,Y ). Aus dem Eindeutigkeitssatz f¨ ur Maße folgt nun, dass f¨ ur alle B ∈ B(R) PX [B] = PY [B] gilt. Daher folgt (a) aus (b).
2
16.4 Charakteristische Funktion
389
Mit Hilfe der charakteristischen Funktion l¨ asst sich auch die Verteilung einer Summe von unabh¨ angigen Zufallsvariablen bestimmen: 16.4.8 Satz. Sei X : Ω → Rd ein Zufallsvektor mit unabh¨angigen Koordinaten. Dann gilt d ψXi (t) ψ1 X (t) = i=1
Der Beweis von Satz 16.4.8 verl¨ auft analog zum Beweis von Satz 16.1.8. Aufgaben 16.4.A Symmetrische Verteilungen: Sei X eine reelle Zufallsvariable. Dann sind ¨ aquivalent: (a) PX ist symmetrisch. (b) Es gilt ψX = ψ−X (c) Es gilt ψX (t) = E[cos(tX)]. (d) ψX ist reell. Geben Sie Beispiele f¨ ur symmetrische Verteilungen. 16.4.B Normal–Verteilung: Sei PX = N(μ, σ 2 ). Dann gilt « „ σ2 2 t ψX (t) = exp iμt − 2 16.4.C Sei X eine reelle Zufallsvariable mit M|X| (t) < ∞ f¨ ur alle t ∈ R. Dann besitzt X endliche Momente beliebiger Ordnung und es gilt ψX (t) =
∞ X (it)k E[X k ] k! k=0
16.4.D Charakteristische Funktion eines Zufallsvektors: Sei X : Ω → Rd ein Zufallsvektor. Dann heißt die Funktion ψX : Rd → [0, ∞] mit
ψX (t) := E[eit X ] die charakteristische Funktion von X. (1) Verallgemeinern Sie den Eindeutigkeitssatz auf charakteristische Funktionen von Zufallsvektoren. angige Koor(2) Ein Zufallsvektor X : Ω → Rd besitzt genau dann unabh¨ dinaten, wenn f¨ ur alle t ∈ Rd ψX (t) =
d Y j=1
gilt.
ψXj (tj )
17 Schwache Konvergenz und Zentraler Grenzwertsatz
Gegenstand dieses Kapitels ist ein Konvergenzbegriff f¨ ur Verteilungen, der als schwache Konvergenz bezeichnet wird. Diese Begriffsbildung l¨asst sich auf zweifache Weise erkl¨ aren: Zum einen wird die schwache Konvergenz einer Folge von Verteilungen durch die Konvergenz einer Familie von Integralen und damit durch die Konvergenz einer Familie von Funktionalen definiert; zum anderen stellt sich heraus, dass die schwache Konvergenz der Verteilungen einer Folge von Zufallsvariablen in der Tat schw¨ acher als die stochastische Konvergenz und damit schw¨ acher als jeder der bisher behandelten Konvergenzbegriffe ist. F¨ ur eine Folge von Zufallsvariablen wird die schwache Konvergenz ihrer Verteilungen auch als Verteilungskonvergenz oder als Konvergenz in Verteilung bezeichnet. Aussagen u ¨ ber die Konvergenz in Verteilung bilden die Grundlage f¨ ur die n¨ aherungsweise Berechnung von Verteilungen, die entweder nicht vollst¨ andig bestimmt oder nur mit hohem Aufwand berechnet werden k¨onnen, durch Verteilungen, deren Eigenschaften wohlbekannt sind. Das bekannteste Ergebnis u ¨ ber die Konvergenz in Verteilung ist der Zentrale Grenzwertsatz, der besagt, dass bei hinreichend großem Stichprobenumfang das Stichprobenmittel einer unabh¨ angig und identisch verteilten Folge von Zufallsvariablen n¨ aherungsweise normal–verteilt ist. Dieses Ergebnis ist von zentraler Bedeutung in der Statistik. Wir untersuchen zun¨ achst die schwache Konvergenz einer Folge univariater Verteilungen, ihre Charakterisierung durch eine geeignete Art der Konvergenz ihrer Verteilungsfunktionen und durch die Konvergenz ihrer charakteristischen Funktionen, sowie den Zusammenhang zwischen der stochastischen Konvergenz einer Folge von Zufallsvariablen und der schwachen Konvergenz ihrer Verteilungen (Abschnitt 17.1). Wir wenden uns dann dem Begriff der Straffheit einer Familie von Verteilungen zu (Abschnitt 17.2) und beweisen schließlich die einfachste Form des Zentralen Grenzwertsatzes (Abschnitt 17.3).
392
Kapitel 17. Schwache Konvergenz und Zentraler Grenzwertsatz
17.1 Schwache Konvergenz Im gesamten Abschnitt sei (S, d) ein metrischer Raum und Td die von der Metrik d erzeugte Topologie. Wir bezeichnen mit Q(S) die Familie aller Wahrscheinlichkeitsmaße B(Td ) → [0, 1] und mit Cb (S) die Familie aller beschr¨ ankten stetigen Funktionen S → R. Dann ist jede uglich jedem Wahrscheinlichkeitsmaß Q ∈ Q(S) inteFunktion f ∈ Cb (S) bez¨ grierbar. 17.1.1 Lemma. F¨ ur Q1 , Q2 ∈ Q(S) sind ¨aquivalent : (a) Es gilt Q1 = Q2 . ) ) (b) F¨ ur alle f ∈ Cb (S) gilt S f dQ1 = S f dQ2 . Beweis. Wir nehmen an, dass (b) gilt. Da die Borelsche σ–Algebra von der Topologie Td erzeugt wird, gen¨ ugt es zu zeigen, dass die Gleichung Q1 [U ] = Q2 [U ] f¨ ur alle U ∈ Td gilt. Sei also U ∈ Td und G := S \ U . Sei ferner g : S → R gegeben durch g(x) := inf d(x, z) z ∈ G Aus der Dreiecksungleichung erh¨ alt man |g(x)−g(y)| ≤ d(x, y) und damit die Stetigkeit von g, und aus der Abgeschlossenheit von G ergibt sich g −1 ({0}) = G F¨ ur alle m ∈ N sei fm : S → R gegeben durch fm (x) := min{1, m g(x)} Dann ist {fm }m∈N eine monoton wachsende Folge in Cb (S) und wegen g −1 ({0}) = G gilt sup fm = χU m∈N
Aus dem Satz u ur i ∈ {1, 2} ¨ber die monotone Konvergenz folgt nun f¨ ! ( ( ( Qi [U ] = χU dQi = fm dQi sup fm dQi = sup S
S
m∈N
und damit Q1 [U ] = Q2 [U ]. Daher folgt (a) aus (b).
m∈N
S
2
17.1 Schwache Konvergenz
393
Eine Folge {Qn }n∈N ⊆ Q(S) heißt schwach konvergent , wenn es ein Q ∈ Q(S) gibt derart, dass f¨ ur alle f ∈ Cb (S) ( ( lim f dQn = f dQ n→∞
S
S
gilt. Nach Lemma 17.1.1 ist der Limes einer schwach konvergenten Folge von Wahrscheinlichkeitsmaßen eindeutig bestimmt. 17.1.2 Beispiel. Sei {xn }n∈N0 eine Folge reeller Zahlen. Dann sind ¨ aquivalent: (a) Die Folge {δ xn }n∈N konvergiert schwach gegen δ x0 . (b) Die Folge {xn }n∈N konvergiert gegen x0 . In der Tat: Wir nehmen zun¨ achst an, dass (a) gilt. F¨ ur ε ∈ (0, ∞) sei fε : R → R gegeben durch 8 |x − x0 | < falls |x−x0 | ≤ ε 1− fε (x) := ε :0 sonst Dann gilt fε ∈ Cb (R) und damit Z Z fε (x) dδ xn (x) = fε (x) dδ x0 (x) = fε (x0 ) = 1 lim fε (xn ) = lim n→∞
n→∞
R
R
Da ε ∈ (0, ∞) beliebig war, folgt daraus limn→∞ xn = x0 . Wir nehmen nun an, dass (b) gilt. Dann gilt f¨ ur alle f ∈ Cb (R) Z Z f (x) dδ xn (x) = lim f (xn ) = f (x0 ) = fε (x) dδ x0 (x) lim n→∞
R
n→∞
R
Daher konvergiert die Folge {δ xn }n∈N schwach gegen δ x0 .
F¨ ur Q ∈ Q(S) heißt eine Menge B ∈ B(S) Q–Stetigkeitsmenge, wenn Q[B ◦ ] = ¨ von B bezeichnet. Q[B • ] gilt, wobei B ◦ das Innere und B • das Außere 17.1.3 Satz (Portemanteau–Theorem). F¨ ur {Qn }n∈N ⊆ Q(S) und Q ∈ Q(S) sind folgende Aussagen ¨aquivalent : (a) Die Folge {Qn }n∈N konvergiert schwach gegen Q. (b) F¨ ur jede offene Menge U gilt lim inf n→∞ Qn [U ] ≥ Q[U ]. (c) F¨ ur jede abgeschlossene Menge G gilt lim supn→∞ Qn [G] ≤ Q[G]. (d) F¨ ur jede Q–Stetigkeitsmenge B gilt limn→∞ Qn [B] = Q[B]. Beweis. Wir nehmen zun¨ achst an, dass (a) gilt. Sei U offen und G := S \ U . Sei ferner g : S → R gegeben durch g(x) := inf d(x, z) z ∈ G und f¨ ur alle m ∈ N sei fm : S → R gegeben durch fm (x) := min{1, mg(x)}
394
Kapitel 17. Schwache Konvergenz und Zentraler Grenzwertsatz
Dann ist {fm }m∈N eine monoton wachsende Folge in Cb (S) und es gilt sup fm = χU m∈N
Nach Voraussetzung gilt f¨ ur alle m ∈ N ( ( ( lim inf Qn [U ] = lim inf χU dQn ≥ lim fm dQn = fm dQ n→∞
n→∞
n→∞
S
S
S
und aus dem Satz u ¨ ber die monotone Konvergenz ergibt sich nun ( ( lim inf Qn [U ] ≥ sup fm dQ = χU dQ = Q[U ] n→∞
m∈N
S
S
Daher folgt (b) aus (a). Sei nun U offen und G abgeschlossen mit U + G = S. Dann gilt Q[U ] + Q[G] = 1 und wegen Qn [U ] + Qn [G] = 1 gilt lim inf Qn [U ] + lim sup Qn [G] = 1 n→∞
n→∞
¨ Aus diesen Gleichungen ergibt sich sofort die Aquivalenz von (b) und (c). Wir nehmen nun an, dass (b) und (c) gelten. Dann gilt f¨ ur alle B ∈ B(S) Q[B ◦ ] ≤ lim inf Qn [B ◦ ] n→∞
≤ lim inf Qn [B] n→∞
≤ lim sup Qn [B] n→∞
≤ lim sup Qn [B • ] n→∞
≤ Q[B • ] sowie Q[B ◦ ] ≤ Q[B] ≤ Q[B • ] F¨ ur jede Q–Stetigkeitsmenge B ∈ B(S) folgt daraus lim Qn [B] = Q[B]
n→∞
Daher folgt (d) aus (b) und (c). Wir nehmen schließlich an, dass (d) gilt. Sei f ∈ Cb (S). Da Q ein Wahrscheinlichkeitsmaß ist, ist die Menge {c ∈ R | Q[{f = c}] > 0} abz¨ahlbar. Sei ε ∈ (0, ∞). F¨ ur alle k ∈ Z setzen wir
17.1 Schwache Konvergenz
395
Bε,k := {εk < f ≤ ε(k+1)} • ◦ Dann gilt Bε,k \ Bε,k ⊆ {f = εk} ∪ {f = ε(k + 1)}. Daher ist f¨ ur alle außer abz¨ ahlbar vielen ε ∈ (0, ∞) jede der Mengen Bε,k eine Q–Stetigkeitsmenge. ur Da f beschr¨ ankt ist, ist die Menge {k ∈ Z | Bε,k = ∅} endlich. Daher gilt f¨ alle außer abz¨ ahlbar vielen ε ∈ (0, ∞) ( ( f dQ − ε = (f −ε) dQ S S ( εkχBε,k dQ ≤ S
=
k∈Z
εk Q[Bε,k ]
k∈Z
=
εk lim Qn [Bε,k ]
k∈Z
= lim
n→∞
= lim
n→∞
εk Qn [Bε,k ]
k∈Z
(
n→∞
S
εkχBε,k dQn
k∈Z
(
≤ lim inf n→∞
f Qn S
und analog erh¨ alt man (
( f Qn ≤
lim sup n→∞
Daher gilt (
S
f dQ + ε S
( f dQ − ε ≤ lim inf
S
n→∞
(
( f Qn ≤ lim sup n→∞
S
f Qn ≤ S
f dQ + ε S
und daraus ergibt sich (
( lim
n→∞
Daher folgt (a) aus (d).
f dQn = S
f dQ S
2
Wir untersuchen nun die schwache Konvergenz einer Folge von Verteilungen auf B(R). Eine Folge {Fn }n∈N von Verteilungsfunktionen R → [0, 1] heißt schwach konvergent , wenn es eine Verteilungsfunktion F : R → [0, 1] gibt derart, dass f¨ ur jede Stetigkeitsstelle x ∈ R von F
396
Kapitel 17. Schwache Konvergenz und Zentraler Grenzwertsatz
lim Fn (x) = F (x)
n→∞
gilt. Der folgende Satz zeigt, dass die Definitionen der schwachen Konvergenz f¨ ur Verteilungen und Verteilungsfunktionen miteinander im Einklang stehen: 17.1.4 Satz (Helly/Bray). Sei {Qn }n∈N eine Folge von Verteilungen und {Fn }n∈N die Folge der zugeh¨origen Verteilungsfunktionen und sei Q eine Verteilung und F die zugeh¨orige Verteilungsfunktion. Dann sind ¨aquivalent : (a) Die Folge {Qn }n∈N konvergiert schwach gegen Q. (b) Die Folge {Fn }n∈N konvergiert schwach gegen F . Beweis. Wir nehmen zun¨ achst an, dass (a) gilt. Sei x ∈ R eine Stetigkeitsstelle von F . Dann gilt Q[{x}] = 0. Daher ist die Menge (−∞, x] eine Q–Stetigkeitsmenge und es gilt lim Fn (x) = lim Qn [(−∞, x]] = Q[(−∞, x]] = F (x)
n→∞
n→∞
Daher folgt (b) aus (a). Wir nehmen nun an, dass (b) gilt. Wir betrachten zun¨achst das Mengensystem JQ := (a, b] ∈ J (R) Q[{a}] = 0 = Q[{b}] F¨ ur (a, b] ∈ JQ gilt nach Voraussetzung Q[(a, b]] = F (b) − F (a) = lim Fn (b) − lim Fn (a) n→∞ n→∞ = lim Fn (b) − Fn (a) n→∞
= lim Qn [(a, b]] n→∞
Da JQ ∩–stabil ist, ergibt sich f¨ ur jede endliche Familie {Ji }i∈H ⊆ JQ aus der Einschluss–Ausschluss–Formel und der letzten Gleichung Q Ji = lim Qn Ji i∈H
n→∞
i∈H
Sei U offen. Nach Beispiel 1.1.8 ist U die Vereinigung einer abz¨ahlbaren Familie von offenen Intervallen, und jedes offene Intervall ist die Vereinigung einer abz¨ ahlbaren Familie von halboffenen Intervallen. Da F nur abz¨ahlbar viele Sprungstellen besitzt, ist jedes halboffene Intervall die Vereinigung einer abz¨ ahlbaren Familie von Intervallen in JQ , und damit ist auch U die Vereinigung einer abz¨ ahlbaren Familie von Intervallen in JQ . Daher gibt es zu jedem ε ∈ (0, ∞) eine endliche Familie {Ji }i∈H(ε) ⊆ JQ mit i∈H(ε) Ji ⊆ U und
17.1 Schwache Konvergenz
397
Q[U ] ≤ Q
Ji + ε
i∈H(ε)
und wir erhalten Q[U ] − ε ≤ Q
Ji = lim Qn
n→∞
i∈H(ε)
Ji ≤ lim inf Qn [U ] n→∞
i∈H(ε)
Daher gilt Q[U ] ≤ lim inf Qn [U ] n→∞
Aus dem Portemanteau–Theorem folgt nun, dass die Folge {Qn }n∈N schwach gegen Q konvergiert. Daher folgt (a) aus (b). 2 Eine Folge {Xn }n∈N von reellen Zufallsvariablen heißt verteilungskonvergent oder konvergent in Verteilung, wenn es eine reelle Zufallsvariable X gibt derart, dass die Folge der Verteilungen {PXn }n∈N schwach gegen die Verteilung PX konvergiert; nach dem Satz von Helly/Bray ist diese Bedingung gleichwertig damit, dass die Folge der Verteilungsfunktionen {FXn }n∈N schwach gegen die Verteilungsfunktion FX konvergiert. 17.1.5 Beispiel (Poisson–Approximation). Sei X eine Zufallsvariable mit PX = P(α) und sei {Xn }n∈N eine Folge von Zufallsvariablen mit PXn = B(n, α/n). Dann konvergiert die Folge {Xn }n∈N in Verteilung gegen X. In der Tat: F¨ ur alle k ∈ N0 gilt !„ « „ «n−k k α αk n α 1− lim P [{Xn = k}] = lim = e−α n→∞ n→∞ n n k! k Durch Summation erh¨ alt man daraus f¨ ur alle x ∈ R lim P [{Xn ≤ x}] = P [{X ≤ x}]
n→∞
Daraus folgt die Behauptung.
F¨ ur eine Folge von reellen Zufallsvariablen vergleichen wir nun die Konvergenz in Verteilung mit der stochastischen Konvergenz. Wir ben¨otigen das folgende Lemma: 17.1.6 Lemma. Seien Y und Z reelle Zufallsvariable. Dann gilt f¨ ur alle y, z ∈ R P [{Y ≤ y}] ≤ P [{Z ≤ z}] + P [{|Z −Y | > z −y}]
398
Kapitel 17. Schwache Konvergenz und Zentraler Grenzwertsatz
Beweis. Es gilt {Y ≤ y} ⊆ {Y ≤ y} ∩ {Z ≤ z} + ({Y ≤ y} ∩ {Z > z}) ⊆ {Z ≤ z} ∪ {Z −Y > z −y} ⊆ {Z ≤ z} ∪ {|Z −Y | > z −y} 2
Daraus folgt die Behauptung.
17.1.7 Satz. Sei {Xn }n∈N eine Folge von reellen Zufallsvariablen und sei X eine reelle Zufallsvariable. Wenn die Folge {Xn }n∈N stochastisch gegen X konvergiert, dann konvergiert sie auch in Verteilung gegen X. Beweis. Nach Lemma 17.1.6 gilt f¨ ur alle x ∈ R und ε ∈ (0, ∞) FX (x−ε) ≤ FXn (x) + P [{|Xn −X| > ε}] und FXn (x) ≤ FX (x+ε) + P [{|X −Xn | > ε}] und aus der stochastischen Konvergenz der Folge {Xn }n∈N gegen X folgt nun FX (x−ε) ≤ lim inf FXn (x) ≤ lim sup FXn (x) ≤ FX (x+ε) n→∞
n→∞
F¨ ur jede Stetigkeitsstelle x von FX gilt daher lim FXn (x) = FX (x)
n→∞
Daher konvergiert die Folge {Xn }n∈N in Verteilung gegen X.
2
Das folgende Beispiel zeigt, dass die Umkehrung der Implikation von Satz 17.1.7 falsch ist: 17.1.8 Beispiel. Sei P(X+1)/2 = B( 12 ) und f¨ ur alle n ∈ N sei Xn := (−1)n X. Dann gilt f¨ ur alle n ∈ N PXn = PX Daher konvergiert die Folge {Xn }n∈N in Verteilung gegen X. Andererseits ist die Folge {Xn }n∈N nicht stochastisch konvergent.
Im Fall der Konvergenz gegen eine konstante und damit Dirac–verteilte Zufallsvariable hingegen ist die Konvergenz in Verteilung mit der stochastischen Konvergenz ¨ aquivalent: 17.1.9 Satz. Sei {Xn }n∈N eine Folge von Zufallsvariablen und sei c ∈ R. Dann sind a ¨quivalent : (a) {Xn }n∈N konvergiert stochastisch gegen c. (b) {Xn }n∈N konvergiert in Verteilung gegen c.
17.1 Schwache Konvergenz
399
Beweis. Nach Satz 17.1.7 folgt (b) aus (a). Wir nehmen nun an, dass (b) gilt. Sei ε ∈ (0, ∞). Dann gilt P [{|Xn −c| ≤ ε}] = P [{c−ε ≤ Xn ≤ c+ε}] ≥ P [{c−ε < Xn ≤ c+ε}] = P [{Xn ≤ c+ε}] − P [{Xn ≤ c−ε}] Da c + ε und c − ε Stetigkeitsstellen der Verteilungsfunktion Fc sind, erhalten wir lim inf P [{|Xn −c| ≤ ε}] ≥ lim FXn (c+ε) − lim FXn (c−ε) n→∞
n→∞
n→∞
= Fc (c+ε) − Fc (c−ε) = 1−0 =1 und damit lim P [{|Xn −c| ≤ ε}] = 1
n→∞
2
Daher folgt (a) aus (b). Das folgende Beispiel illustriert die Aussage des letzten Satzes:
17.1.10 Beispiel (Wandernde T¨ urme). Sei (Ω, F, P ) := ((0, 1], B(0, 1], λ|B(0,1] ). F¨ ur m ∈ N und k ∈ {1, . . . , 2m } sei Bm,k := ((k−1) 2−m , k 2−m ] und X2m +k−2 := χBm,k Daher konvergiert die Folge {Xn }n∈N stochastisch gegen 0; vgl. Beispiel 14.2.2. Außerdem gilt f¨ ur alle f ∈ Cb (Ω) Z f (ω) dPX2m +k−2 (ω) = f (0) (1−2−m ) + f (1) 2−m Ω
und damit
Z lim
n→∞
Ω
Z f (ω) dPXn (ω) = f (0) =
Ω
f (ω) dδ 0 (ω)
Daher konvergiert die Folge {Xn }n∈N in Verteilung gegen 0.
Aufgabe 17.1.A Sei (S, d) ein metrischer Raum und sei Q ∈ Q(S). Dann ist das System der Q–Stetigkeitsmengen eine Algebra.
400
Kapitel 17. Schwache Konvergenz und Zentraler Grenzwertsatz
17.2 Straffheit In diesem Abschnitt zeigen wir, dass die schwache Konvergenz einer Folge von Verteilungen durch die Konvergenz der Folge ihrer charakteristischen Funktionen charakterisiert werden kann; dabei ist die charakteristische Funktion ¨ ψ : R → C einer Verteilung Q : B(R) → [0, 1] in Ubereinstimmung mit der Darstellung der charakteristischen Funktion einer Zufallsvariablen durch ( ψ(t) := eitx dQ(x) R
definiert. Eine Familie Q ⊆ Q(S) von Wahrscheinlichkeitsmaßen heißt straff , wenn es ur alle zu jedem ε ∈ (0, ∞) eine kompakte Menge K ∈ 2S gibt derart, dass f¨ Q∈Q Q[K] ≥ 1 − ε gilt. 17.2.1 Lemma. Sei Q eine Familie von Verteilungen. Dann sind ¨aquivalent : (a) Q ist straff. (b) Zu jedem ε ∈ (0, ∞) gibt es ein Intervall [a, b] derart , dass f¨ ur alle Q ∈ Q Q[[a, b]] ≥ 1 − ε gilt. Beweis. Nach dem Satz von Heine/Borel ist jede kompakte Menge beschr¨ankt und abgeschlossen, und damit eine Teilmenge eines abgeschlossenen Intervalls. Andererseits ist jedes abgeschlossene Intervall kompakt. 2 17.2.2 Beispiel. Sei {xn }n∈N eine Folge reeller Zahlen. Dann sind ¨ aquivalent: (a) Die Folge {δ xn }n∈N ist straff. ankt. (b) Die Folge {xn }n∈N ist beschr¨
Im Hinblick auf die Beispiele 17.1.2 und 17.2.2 ist das folgende Ergebnis nicht u ¨ berraschend: 17.2.3 Satz. Jede schwach konvergente Folge von Verteilungen ist straff. Beweis. Sei {Qn }n∈N eine Folge von Verteilungen, die schwach gegen eine Verteilung Q konvergiert. Sei ε ∈ (0, ∞). Dann gibt es ein c ∈ (0, ∞) mit Q[[−c, c]] ≥ 1 − ε
17.2 Straffheit
401
und die Funktion f : R → R mit ⎧ ⎪ falls |x| ≤ c ⎨1 f (x) := 2 − |x/c| falls c < |x| ≤ 2c ⎪ ⎩ 0 falls 2c < |x| ist stetig und beschr¨ ankt. Es gilt χ[−c,c] ≤ f ≤ χ[−2c,2c] und damit ( ( ( ( lim inf χ[−2c,2c] dQn ≥ lim f dQn = f dQ ≥ χ[−c,c] dQ ≥ 1 − ε n→∞
R
n→∞
R
R
R
Daher gilt Qn [[−2c, 2c]] ≥ 1 − ε f¨ ur alle außer endlich vielen n ∈ N, und durch Vergr¨oßerung von c kann man erreichen, dass diese Ungleichung sogar f¨ ur alle n ∈ N gilt. Daher ist die Folge {Qn }n∈N straff. 2 Der folgende Satz charakterisiert die Straffheit einer Folge von Verteilungen durch die Existenz schwach konvergenter Teilfolgen (mit m¨oglicherweise unterschiedlichen Limites): 17.2.4 Satz (Helly). Sei {Qn }n∈N ein Folge von Verteilungen. Dann sind ¨aquivalent: (a) Die Folge {Qn }n∈N ist straff. (b) Jede Teilfolge der Folge {Qn }n∈N besitzt eine schwach konvergente Teilfolge. Beweis. Wir nehmen zun¨ achst an, dass (a) gilt. Sei {Fn }n∈N die Folge der zugeh¨ origen Verteilungsfunktionen und sei {qi }i∈N ein Abz¨ahlung der Menge Q der rationalen Zahlen. F¨ ur alle i ∈ N ist die Folge {Fn (qi )}n∈N beschr¨ankt und enth¨ alt daher eine konvergente Teilfolge. Durch sukzessive Verd¨ unnung und Anwendung des Diagonalprinzips erh¨ alt man eine streng monoton wachsende ur alle i ∈ N die Folge {Fnk (qi )}k∈N konvergent Folge {nk }k∈N derart, dass f¨ ist. Sei nun G : Q → R gegeben durch G(q) := lim Fnk (q) k→∞
und sei F : R → R gegeben durch F (x) := inf G(q) q ∈ Q ∩ (x, ∞) Dann ist F monoton wachsend und f¨ ur alle x ∈ R gilt F (x) ∈ [0, 1]. Sei x ∈ R und ε ∈ (0, ∞). Dann gibt es ein q ∈ Q ∩(x, ∞) mit G(q) ≤ F (x)+ ε und f¨ ur alle y ∈ (x, q) gilt F (x) ≤ F (y) ≤ G(q) ≤ F (x) + ε. Daher ist F rechtsseitig stetig.
402
Kapitel 17. Schwache Konvergenz und Zentraler Grenzwertsatz
Sei nun x eine Stetigkeitsstelle von F und ε ∈ (0, ∞). Dann gibt es p, q ∈ Q mit p < x < q sowie F (x) ≤ G(p) + ε und G(q) ≤ F (x) + ε, und man erh¨alt F (x) − ε ≤ G(p) = lim Fnk (p) ≤ lim inf Fnk (x) k→∞
k→∞
und lim sup Fnk (x) ≤ lim Fnk (q) = G(q) ≤ F (x) + ε k→∞
k→∞
F¨ ur jede Stetigkeitsstelle x von F gilt daher lim Fnk (x) = F (x)
k→∞
Es bleibt zu zeigen, dass F eine Verteilungsfunktion ist. Sei ε ∈ (0, ∞). Da die Folge {Qn }n∈N straff ist, gibt es ein abgeschlossenes Intervall J derart, dass f¨ ur alle n ∈ N Qn [J] ≥ 1 − ε gilt. Dann gibt es aber auch ein halboffenes Intervall (a, b] mit Qn [(a, b]] ≥ 1−ε f¨ ur alle n ∈ N und man kann dieses Intervall so w¨ahlen, dass seine Endpunkte Stetigkeitsstellen von F sind. Nach dem bisher Gezeigten gilt dann F (b) − F (a) = lim Fnk (b) − lim Fnk (a) k→∞ k→∞ = lim Fnk (b) − Fnk (a) k→∞
= lim Qnk [(a, b]] k→∞
≥ 1−ε und damit F (a) ≤ ε und F (b) ≥ 1 − ε. Daher gibt es zu jedem ε ∈ (0, ∞) ein a ∈ R mit F (a) ≤ ε und ein b ∈ R mit F (b) ≥ 1−ε, und aus der Monotonie von F folgt nun, dass limx→−∞ F (x) = 0 und limx→∞ F (x) = 1 gilt. Daher ist F eine Verteilungsfunktion. Da die Folge {Fnk }k∈N schwach gegen F konvergiert, konvergiert nach dem Satz von Helly/Bray die Folge {Qnk }k∈N schwach gegen die zu F geh¨ orige Verteilung Q. Daher folgt (b) aus (a). Wir nehmen nun an, dass (b) gilt. Wir nehmen des weiteren an, dass die ur Folge {Qn }n∈N nicht straff ist. Dann gibt es ein ε ∈ (0, ∞) derart, dass f¨ alle a, b ∈ R und ein n ∈ N Qn [[a, b]] < 1 − ε und damit Qn [(a, b]] < 1 − ε gilt. Daher gibt es f¨ ur alle k ∈ N ein nk ∈ N mit
17.2 Straffheit
403
Qnk [(−k, k]] < 1 − ε ur alle k ∈ N, k¨onnen wir Da es kein n ∈ N gibt mit Qn [(−k, k]] < 1 − ε f¨ annehmen, dass die Folge {nk }k∈N streng monoton wachsend ist. Daher ist {Qnk }k∈N eine Teilfolge der Folge {Qn }n∈N und nach Voraussetzung gibt es eine Teilfolge {Qnkl }l∈N der Folge {Qnk }k∈N , die schwach gegen eine Verteilung Q konvergiert. Sei nun (a, b] ein Intervall mit Q[{a}] = 0 = Q[{b}] und Q[(a, b]] ≥ 1 − ε F¨ ur alle hinreichend großen l ∈ N gilt (a, b] ⊆ (−kl , kl ] und damit Q[(a, b]] = lim Qnkl [(a, b]] < 1 − ε l→∞
Dies ist ein Widerspruch. Daher folgt (a) aus (b).
2
F¨ ur die schwache Konvergenz gilt das Teilfolgenprinzip: 17.2.5 Lemma (Teilfolgenprinzip). Sei {Qn }n∈N eine Folge von Verteilungen und sei Q eine Verteilung. Dann sind a ¨quivalent : (a) Die Folge {Qn }n∈N konvergiert schwach gegen Q. (b) Jede Teilfolge der Folge {Qn }n∈N besitzt eine Teilfolge, die schwach gegen Q konvergiert. Beweis. Wir nehmen an, dass (b) gilt. Wir nehmen des weiteren an, dass die Folge {Qn }n∈N nicht schwach gegen Q konvergiert. Dann) gibt es eine beschr¨ ankte)stetige Funktion f : R → R derart, dass die Folge { R f dQn }n∈N nicht gegen R f dQ konvergiert, und ) daraus folgt, zu jedem ε ∈ (0, ∞) ) dass es ur alle k ∈ N. eine Teilfolge {Qnk }k∈N gibt mit R f dQnk − R f dQ > ε f¨ Dies ist ein Widerspruch zur Voraussetzung. Damit ist gezeigt, dass die Folge {Qn }n∈N schwach gegen Q konvergiert. Daher folgt (a) aus (b). Die umgekehrte Implikation ist klar. 2 17.2.6 Lemma. Sei {Qn }n∈N eine Folge von Verteilungen und {ψn }n∈N die Folge der zugeh¨origen charakteristischen Funktionen. Konvergiert die Folge {Qn }n∈N schwach gegen eine Verteilung Q mit charakteristischer Funktion ψ, so konvergiert die Folge {ψn }n∈N punktweise gegen ψ. Beweis. Sowohl der Realteil als auch der Imagin¨arteil einer charakteristischen Funktion ist stetig und beschr¨ ankt. 2 17.2.7 Satz. Sei {Qn }n∈N eine Folge von Verteilungen und {ψn }n∈N die Folge der zugeh¨origen charakteristischen Funktionen. Ist {Qn }n∈N straff und gibt es eine Funktion ψ : R → C derart , dass die Folge {ψn }n∈N punktweise gegen ψ konvergiert , so ist ψ die charakteristische Funktion einer Verteilung Q und die Folge {Qn }n∈N konvergiert schwach gegen Q.
404
Kapitel 17. Schwache Konvergenz und Zentraler Grenzwertsatz
Beweis. Nach dem Satz von Helly besitzt jede Teilfolge von {Qn }n∈N eine schwach konvergente Teilfolge. Wegen limn→∞ ψn (t) = ψ(t) folgt aus Lemma 17.2.6, dass ψ die charakteristische Funktion jeder der so entstehenden Grenzverteilungen ist, und aus dem Eindeutigkeitssatz 16.4.7 folgt nun, dass alle Grenzverteilungen identisch sind. Aus Lemma 17.2.5 folgt schließlich die schwache Konvergenz der Folge {Qn }n∈N gegen eine Verteilung mit der charakteristischen Funktion ψ. 2 Wir k¨ onnen nun die schwache Konvergenz einer Folge von Verteilungen durch die Konvergenz der Folge ihrer charakteristischen Funktionen charakterisieren: 17.2.8 Satz (Stetigkeitssatz). Sei {Qn }n∈N eine Folge von Verteilungen und {ψn }n∈N die Folge der zugeh¨origen charakteristischen Funktionen und sei Q eine Verteilung und ψ die zugeh¨orige charakteristische Funktion. Dann sind ¨aquivalent : (a) Die Folge {Qn }n∈N konvergiert schwach gegen Q. (b) Die Folge {ψn }n∈N konvergiert punktweise gegen ψ. Beweis. Nach Lemma 17.2.6 folgt (b) aus (a). Wir nehmen nun an, dass (a) gilt. Nach Satz 17.2.7 gen¨ ugt es zu zeigen, dass die Folge {Qn }n∈N straff ist. Sei ε ∈ (0, ∞). Da ψ stetig ist mit ψ(0) = 1 gibt es ein c ∈ (0, ∞) mit ( 1 (1 − ψ(t)) dλ(t) ≤ ε c [−c,c] Andererseits ergibt sich f¨ ur alle n ∈ N aus dem Satz von Fubini ( ( ( 1 1 (1 − eitx ) dQn (x) dλ(t) (1 − ψn (t)) dλ(t) = c [−c,c] [−c,c] R c ( ( 1 (1 − eitx ) dλ(t) dQn (x) = c R [−c,c] ! ( sin(cx) = 2 1− dQn (x) cx R ! ( 1 2 1− ≥ dQn (x) |cx| R\[−2/c,2/c] ≥ Qn [R \ [−2/c, 2/c]] Aus der Voraussetzung und dem Satz u ¨ber die majorisierte Konvergenz folgt nun lim sup Qn [R \ [−2/c, 2/c]] ≤ ε n→∞
und damit Qn [[−2/c, 2/c]] ≥ 1 − ε f¨ ur alle außer endlich vielen n ∈ N. Daher ist die Folge {Qn }n∈N straff.
2
17.3 Zentraler Grenzwertsatz
405
Aufgabe 17.2.A Poisson–Verteilung: Sei {Xk }k∈N eine unabh¨ angige Folge P von reellen ur alle k ∈ N sowie α := ∞ Zufallsvariablen mit PXk = P(αk ) f¨ k=1 αk < ∞. Dann konvergiert die Reihe ∞ X Xk k=1
in Verteilung gegen eine reelle Zufallsvariable X mit PX = P(α).
17.3 Zentraler Grenzwertsatz Ist {Xk }k∈N eine unkorrelierte Folge in L2 mit E[Xk ] = μ und var [Xk ] = σ 2 f¨ ur alle k ∈ N, so konvergiert die Folge der Stichprobenmittel 1 Xk n n
k=1
nach dem schwachen Gesetz der Großen Zahlen stochastisch gegen μ und nach Satz 17.1.7 konvergiert sie auch in Verteilung gegen μ. Die Verteilung von μ ist aber degeneriert und eignet sich daher im Fall σ 2 > 0 nicht zur Approximation der Verteilung der Stichprobenmittel. Unter der st¨ arkeren Voraussetzung, dass {Xk }k∈N eine unabh¨angig und identisch verteilte Folge in L2 mit E[X] = μ ist, konvergiert die Folge der Stichprobenmittel nach dem starken Gesetz der Großen Zahlen sogar fast sicher gegen μ und in diesem Fall l¨ asst sich unter der Annahme var [X] = σ 2 > 0 auch das Problem der Approximation der Stichprobenmittel l¨osen, indem man nicht die Folge der Stichprobenmittel selbst, sondern die Folge der standardisierten Stichprobenmittel 1 n
n 1 k=1 Xk − E n k=1 Xk n 0
var n1 nk=1 Xk betrachtet. Es gilt 1 n
1 n
n k=1 Xk − E n k=1 Xk 0 = n var n1 k=1 Xk
1 n
n n Xk − μ k=1 Xk − μ √ 0 = σ n σ2 n
k=1
Im folgenden sei Φ die Verteilungsfunktion der Standardnormal–Verteilung.
406
Kapitel 17. Schwache Konvergenz und Zentraler Grenzwertsatz
17.3.1 Satz (Zentraler Grenzwertsatz). Sei {Xn }n∈N eine unabh¨angig und identisch verteilte Folge von quadratisch integrierbaren reellen Zufallsvariablen mit E[X] = μ und var [X] = σ 2 > 0. F¨ ur alle n ∈ N sei Sn :=
n Xk − μ √ σ n k=1
Dann gilt f¨ ur alle x ∈ R lim P [{Sn ≤ x}] = Φ(x)
n→∞
Beweis. Sei ψS die charakteristische Funktion der Standardnormal–Verteilung. Es gen¨ ugt zu zeigen, dass f¨ ur alle t ∈ R lim |ψSn (t) − ψS (t)| = 0
n→∞
gilt, denn dann folgt die Behauptung des Satzes aus dem Stetigkeitssatz f¨ ur charakteristische Funktionen. F¨ ur alle k ∈ N sei Zk =
Xk − μ σ
Dann ist Zk die zu Xk geh¨ orige standardisierte Zufallsvariable und es gilt Sn =
n Zk √ n
k=1
angig und identisch verteilte Folge Mit {Xk }k∈N ist auch {Zk }k∈N eine unabh¨ in L2 . Nach Satz 16.4.8 und Lemma 16.4.3 gilt daher !!n n t ψSn (t) = ψZ/√n (t) = ψZ √ n und nach Beispiel 16.4.2 (3) gilt 2
ψS (t) = e−t
/2
Wir erhalten daher die Ungleichung !!n 2 t − e−t /2 ψSn (t) − ψS (t) = ψZ √ n !!n !n ! 2 n t2 t −t2 /2 + 1− t − 1− − e ≤ ψZ √ n 2n 2n Der zweite Summand konvergiert gegen 0, und es bleibt zu zeigen, dass auch der erste Summand gegen 0 konvergiert.
17.3 Zentraler Grenzwertsatz
407
F¨ ur alle v, w ∈ C mit |v|, |w| ≤ 1 gilt |v n − wn | ≤ n |v − w|. Daraus ergibt sich zun¨ achst die Ungleichung !!n !n ! ! t2 t2 ≤ n ψZ √t ψZ √t − 1 − − 1 − n 2n n 2n und aus Lemma 16.4.4 ergibt sich f¨ ur alle s ∈ R und η ∈ (0, ∞) ! ( 2 ψZ (s) − 1 − s ≤ min |sZ|3 , |sZ|2 dP 2 (Ω ( ≤ |sZ|3 dP + |sZ|2 dP {|Z|≤η} {|Z|>η} ( ( 3 2 ≤ η |s| Z dP + s2 Z 2 dP {|Z|≤η} {|Z|>η} ( 3 2 2 X dP ≤ η |s| + s {|Z|>η}
√ F¨ ur alle √ ε ∈ (0, ∞) ergibt sich aus diesen Ungleichungen mit s := t/ n und η := ε n !!n !n ! ! t t2 t2 ψZ √t ≤ n ψZ √ − 1− − 1− n 2n n 2n ! 3 2 ( |t| t 2 ≤n ε + Z dP n n {|Z|>ε√n} ( ≤ ε |t|3 + t2 Z 2 dP √ {|Z|>ε n}
und damit !!n !n t2 t ≤ ε |t|3 lim sup ψZ √ − 1− 2n n n→∞ Da ε beliebig war, ergibt sich nun !!n !n t t2 =0 √ lim ψZ − 1− n→∞ n 2n Damit ist gezeigt, dass auch der erste Summand gegen 0 konvergiert.
2
Der Zentrale Grenzwertsatz besagt, dass die standardisierten Stichprobenmittel einer unabh¨ angig und identisch verteilten Folge von quadratisch integrierbaren reellen Zufallsvariablen in Verteilung gegen eine standardnormal– verteilte Zufallsvariable konvergieren.
408
Kapitel 17. Schwache Konvergenz und Zentraler Grenzwertsatz
Ist {Xk }k∈N eine unabh¨ angig und identisch verteilte Folge in L2 mit E[X] = μ 2 und var [X] = σ > 0, so ergibt sich aus dem Zentralen Grenzwertsatz f¨ ur die Verteilung des Stichprobenmittels die Approximation n ! x−μ √ 1 P Xk ≤ x ≈Φ n n σ k=1
Diese Approximation ist in der Statistik von Interesse.
18 Bedingte Erwartung
Bei der Konstruktion wahrscheinlichkeitstheoretischer Modelle spielt neben dem Begriff der Unabh¨ angigkeit auch das Konzept des Konditionierens eine zentrale Rolle. Dies l¨ asst sich bereits am Beispiel der Urnenmodelle erkennen: – Beim Ziehen mit Zur¨ ucklegen wird die bei der ersten Ziehung gezogene Kugel zur¨ uckgelegt und damit die urspr¨ ungliche Zusammensetzung der Urne wiederhergestellt. Daher ist das Ergebnis der zweiten Ziehung unabh¨ angig vom Ergebnis der ersten Ziehung. – Beim Ziehen ohne Zur¨ ucklegen wird die bei der ersten Ziehung gezogene Kugel nicht zur¨ uckgelegt und damit die Anzahl der Kugeln reduziert und die Zusammensetzung der Urne ver¨ andert. Daher ist das Ergebnis der zweiten Ziehung abh¨ angig vom Ergebnis der ersten Ziehung. In diesem Fall ist es von Interesse, die bedingten Wahrscheinlichkeiten f¨ ur das Auftreten einer roten Kugel bei der zweiten Ziehung unter den Bedingungen, dass bei der ersten Ziehung eine rote Kugel bzw. eine andersfarbige Kugel auftritt, zu bestimmen; es liegt dann nahe, diese bedingten Wahrscheinlichkeiten zusammenfassend durch eine einzige bedingte Wahrscheinlichkeit darzustellen, die u allige Ergebnis der ersten Ziehung vom ¨ ber das zuf¨ Zufall abh¨ angt. Die allgemeine Konstruktion zuf¨ alliger bedingter Wahrscheinlichkeiten beruht auf der bedingten Erwartung einer Zufallsvariablen bez¨ uglich einer σ–Algebra; hier ist daran zu erinnern, dass auch die Unabh¨angigkeit von Zufallsvariablen durch eine Eigenschaft von σ–Algebren definiert ist. In diesem Kapitel f¨ uhren wir zun¨ achst die bedingte Erwartung einer positiven Zufallsvariablen ein (Abschnitt 18.1) und definieren die bedingte Erwartung dann, analog zur Konstruktion des Integrals, auch f¨ ur eine Klasse von Zufallsvariablen, die nicht positiv sein m¨ ussen (Abschnitt 18.2). Von besonderem Interesse ist die bedingte Erwartung f¨ ur quadratisch integrierbare Zufallsvariable (Abschnitt 18.3). Als erste Anwendung bedingter Erwartungen untersuchen wir schließlich die Konvergenz trivialer Martingale (Abschnitt 18.4).
410
Kapitel 18. Bedingte Erwartung
F¨ ur p ∈ {0} ∪ [1, ∞] setzen wir Lp (F ) := Lp (F , P ) Eine σ–Algebra G auf Ω heißt Unter–σ–Algebra von F , wenn G ⊆ F gilt. F¨ ur eine Unter–σ–Algebra G von F sei ur ein Y ∈ L0 (G) L0 (F , G) := [X]P ∈ L0 (F ) X =P Y f¨ ¨ von L0 (F ), die Dann ist L0 (F , G) die Menge derjenigen Aquivalenzklassen einen G–messbaren Repr¨ asentanten besitzen. Offenbar ist L0 (F , G) ein Vektorverband. Im gesamten Kapitel sei G eine Unter–σ–Algebra von F .
18.1 Bedingte Erwartung einer positiven Zufallsvariablen In diesem Abschnitt definieren wir die G–bedingte Erwartung einer positiven Zufallsvariablen und untersuchen ihre Eigenschaften. 18.1.1 Satz. Sei X eine positive Zufallsvariable. Dann gibt es eine positive G–messbare Zufallsvariable U mit ( ( U dP = X dP G
G
f¨ ur alle G ∈ G. Sind U und V positive G–messbare Zufallsvariable mit ( ( ( U dP = X dP = V dP G
G
G
f¨ ur alle G ∈ G, so gibt es eine Nullmenge N ∈ G mit U (ω) = V (ω) f¨ ur alle ω ∈ Ω \ N. Beweis. Wir betrachten das Maß ν : F → [0, ∞] mit ( X dP ν[A] := A
und seine Restriktion ν|G : G → [0, ∞] auf G. Da ν P –stetig ist, ist ν|G P |G – stetig. Da P |G σ–endlich ist, folgt aus dem Satz von Radon/Nikodym die Existenz einer positiven G–messbaren Zufallsvariablen U mit ( ν|G [G] = U dP |G G
und damit
(
(
( U dP |G = ν|G [G] = ν[G] =
U dP = G
G
X dP G
f¨ ur alle G ∈ G. Nach dem Satz von Radon/Nikodym ist U P |G –fast sicher eindeutig bestimmt. 2
18.1 Bedingte Erwartung einer positiven Zufallsvariablen
411
Ist X eine positive Zufallsvariable, so nennen wir jede positive G–messbare Zufallsvariable U mit ( ( U dP = X dP G
G
f¨ ur alle G ∈ G eine Version der G–bedingten Erwartung von X; wir bezeichnen mit E G (X) eine beliebige Version der G–bedingten Erwartung von X und nennen E G (X) die G–bedingte Erwartung von X. Da die σ–Algebra G außer der leeren Menge weitere Nullmengen enthalten kann, besitzt die G–bedingte Erwartung einer positiven Zufallsvariablen im allgemeinen mehrere Versionen, von denen aber je zwei auf dem Komplement einer Nullmenge in G u ur eine ¨ bereinstimmen. F¨ beliebige Zufallsvariable Y gilt daher U (ω) = Y (ω) fast sicher entweder f¨ ur jede oder f¨ ur keine Version U der G–bedingten Erwartung von X; gilt sie f¨ ur jede Version der G–bedingten Erwartung von X, so schreiben wir kurz E G (X) = Y Diese Konvention wenden wir auch auf Ungleichungen an. Aus der Definition der G–bedingten Erwartung einer positiven Zufallsvariablen X ergibt sich unmittelbar die Gleichung E[E G (X)] = E[X] Außerdem ist klar, dass jede positive G–messbare Zufallsvariable mit ihrer G– bedingten Erwartung u ¨ bereinstimmt. Aus diesen Bemerkungen ergeben sich sofort zwei Spezialf¨ alle bez¨ uglich der σ–Algebra G: – Im Fall G = {∅, Ω} ist jede positive G–messbare Zufallsvariable konstant und f¨ ur jede positive Zufallsvariable X gilt E G (X) = E[X]. – Im Fall G = F ist jede positive Zufallsvariable X G–messbar und es gilt E G (X) = X. Das folgende Ergebnis zeigt, dass die Definition der G–bedingten Erwartung einer positiven Zufallsvariablen mit der Definition ihres bedingten Erwartungswertes bez¨ uglich einem Ereignis im Einklang steht: 18.1.2 Lemma (Fourier–Entwicklung). Sei {Gi }i∈{1,...,m} ⊆ F eine dis m junkte Familie von Ereignissen mit G ur alle i=1 i = Ω und P [Gi ] > 0 f¨ i ∈ {1, . . . , m} und sei G die von der Familie {Gi }i∈{1,...,m} erzeugte σ–Algebra. Dann gilt f¨ ur jede positive Zufallsvariable X E G (X) =
m i=1
E[X|Gi ] χGi
412
Kapitel 18. Bedingte Erwartung
Beweis. Da die von der Familie {Gi }i∈{1,...,m} erzeugte σ–Algebra G außer der leeren Menge keine Nullmengen enth¨ alt, ist die G–bedingte Erwartung einer positiven Zufallsvariablen X eindeutig bestimmt und es gibt eine Familie {ai }i∈{1,...,m} ⊆ [0, ∞] mit E G (X) =
m
a i χG i
i=1
F¨ ur alle i ∈ {1, . . . , m} gilt daher (
( X dP =
Gi
G
E (X) dP = Gi
( m Gi
und damit ai =
1 P [Gi ]
a j χG j
( ai dP = ai P [Gi ]
dP =
j=1
Gi
( X dP = E[X|Gi ] Gi
2
Damit ist die Behauptung gezeigt.
¨ Das Lemma deutet darauf hin, dass der Ubergang von einer positiven Zufallsvariablen X zu ihrer G–bedingten Erwartung als ein lokales Mitteln verstanden werden kann: Wenn die σ–Algebra durch endlich viele Ereignisse erzeugt wird, dann nimmt die G–bedingte Erwartung E G (X) nur endlich viele Werte an, und im Extremfall G = {∅, Ω} ist die G–bedingte Erwartung von X sogar konstant. Ist Θ eine reelle Zufallsvariable mit PΘ [{ϑ1 , . . . , ϑm }] = 1 und P [{Θ = ϑi }] > 0 f¨ ur alle i ∈ {1, . . . , m}, so gilt nach Lemma 18.1.2 E σ(Θ) (X) =
m
E[X|{Θ = ϑi }] χ{Θ=ϑi }
i=1
In diesem Fall gibt es also eine messbare Funktion h : R → R mit E σ(Θ) (X) = h ◦ Θ Dieses Ergebnis l¨ asst sich wie folgt verallgemeinern: 18.1.3 Satz (Faktorisierungssatz). Sei (Ω , F ) ein Messraum und sei Θ : Ω → Ω eine Zufallsgr¨oße. Dann gibt es zu jeder positiven Zufallsvariablen X eine messbare Funktion h : Ω → R mit E σ(Θ) (X) = h ◦ Θ Der Satz folgt unmittelbar aus dem Faktorisierungssatz 7.1.16. Wir untersuchen nun die Eigenschaften der bedingten Erwartung einer positiven Zufallsvariablen:
18.1 Bedingte Erwartung einer positiven Zufallsvariablen
413
18.1.4 Lemma. Sei X eine positive Zufallsvariable und sei Y eine positive G–messbare Zufallsvariable. Dann sind ¨ aquivalent : (a) Es gilt Y = E G (X). (b) F¨ ur jede positive G–messbare Zufallsvariable U gilt ( ( U Y dP = U X dP Ω
Ω
uhren den Beweis. Wir nehmen zun¨ achst an, dass Y = E G (X) gilt, und f¨ Beweis durch algebraische Induktion. Nach dem Approximationssatz ist jede positive G–messbare Zufallsvariable das Supremum einer monoton wachsenden Folge von positiven einfachen G–messbaren Zufallsvariablen, und es ist klar, dass jede einfache G–messbare Zufallsvariable eine Linearkombination von G– messbaren Indikatorfunktionen ist. Aufgrund der Linearit¨at des Integrals und des Satzes u ugt es also zu zeigen, dass die ¨ber die monotone Konvergenz gen¨ Gleichung ( ( U Y dP = U X dP Ω
Ω
f¨ ur jede G–messbare Indikatorfunktion U gilt. Nach Voraussetzung gilt f¨ ur alle G∈G ( ( ( ( χG Y dP = Y dP = X dP = χG X dP Ω
und damit in der Tat
G
Ω
G
(
( U Y dP =
Ω
U X dP Ω
f¨ ur jede G–messbare Indikatorfunktion U . Damit ist gezeigt, dass (b) aus (a) folgt, und die umgekehrte Implikation ist klar. 2 Das folgende Lemma enth¨ alt die elementaren Eigenschaften der bedingten Erwartung einer positiven Zufallsvariablen: 18.1.5 Lemma. Seien X und Y positive Zufallsvariable. Dann gilt: (1) E G (E G (X)) = E G (X). (2) E G (X +Y ) = E G (X) + E G (Y ). (3) F¨ ur jede positive G–messbare Zufallsvariable U gilt E G (U X) = U E G (X). (4) Im Fall X ≤ Y gilt E G (X) ≤ E G (Y ). Beweis. Aussage (1) folgt aus der G–Messbarkeit von E G (X). Aus der Linearit¨ at des Integrals folgt f¨ ur alle G ∈ G ( ( ( (X +Y ) dP = X dP + Y dP G
G
G
414
Kapitel 18. Bedingte Erwartung
( =
E G (X) dP +
(
E G (Y ) dP
( E G (X) + E G (Y ) dP = G
G
G
und damit E G (X + Y ) = E G (X) + E G (Y ). Damit ist (2) gezeigt. Mit U ist ur alle f¨ ur alle G ∈ G auch χG U G–messbar. Nach Lemma 18.1.4 gilt daher f¨ G∈G ( ( ( ( U X dP = χG U X dP = χG U E G (X) dP = U E G (X) dP G
Ω
Ω
G
Da mit U auch U E G (X) G–messbar ist, folgt daraus E G (U X) = U E G (X). Damit ist (3) gezeigt. Zum Beweis von (4) betrachten wir eine monoton wachsende Folge {Xn }n∈N von positiven einfachen Zufallsvariablen mit X = supn∈N Xn . F¨ ur alle n ∈ N ist Xn endlich und f¨ ur jede Zufallsvariable Z mit Xn ≤ Z gilt (Z −Xn) + Xn = Z. Aus (2) folgt nun E G (Xn ) ≤ E G (Z −Xn) + E G (Xn ) = E G (Z) Daher ist die Folge {E G (Xn )}n∈N monoton wachsend mit sup E G (Xn ) ≤ E G (Y ) n∈N
Aus dem Satz u ur alle G ∈ G ¨ber die monotone Konvergenz folgt nun f¨ ( ( X dP = sup Xn dP G G n∈N ( = sup Xn dP n∈N G ( = sup E G (Xn ) dP n∈N G ( = sup E G (Xn ) dP G n∈N
und damit E G (X) = sup E G (Xn ) n∈N
Daher gilt E G (X) = supn∈N E G (Xn ) ≤ E G (Y ). Damit ist auch (4) gezeigt. 2 Bemerkenswert ist die Aussage (3) von Lemma 18.1.5, denn sie besagt, dass sich die positiven G–messbaren Zufallsvariablen bez¨ uglich der G–bedingten Erwartung wie Skalare verhalten.
18.1 Bedingte Erwartung einer positiven Zufallsvariablen
415
F¨ ur Folgen von positiven Zufallsvariablen gilt die folgende Verallgemeinerung des Satzes u ¨ ber die monotone Konvergenz: 18.1.6 Satz (Monotone Konvergenz; Levi). Sei {Xn }n∈N eine monoton wachsende Folge von positiven Zufallsvariablen. Dann gilt ! G E sup Xn = sup E G (Xn ) n∈N
n∈N
Beweis. Nach Lemma 18.1.5 ist auch die Folge {E G (Xn )}n∈N monoton wachsend. Aus dem Satz u ur alle G ∈ G ¨ ber die monotone Konvergenz folgt nun f¨ ( ( ( ( sup Xn dP = sup Xn dP = sup E G (Xn ) dP = sup E G (Xn ) dP G n∈N
n∈N
n∈N
G
G
Da supn∈N E G (Xn ) G–messbar ist, folgt die Behauptung.
G n∈N
2
Genau wie im unbedingten Fall erh¨ alt man nun die folgende Variante des bedingten Satzes u ¨ber die monotone Konvergenz: 18.1.7 Folgerung (Monotone Konvergenz; Levi). Folge von positiven Zufallsvariablen. Dann gilt ∞ ∞ G E Xn = E G (Xn ) n=1
Sei {Xn }n∈N eine
n=1
Aus dem bedingten Satz u ¨ber die monotone Konvergenz erh¨alt man außerdem, wieder genau wie im unbedingten Fall, das bedingte Lemma von Fatou: 18.1.8 Lemma (Fatou). Sei {Xn }n∈N eine Folge von positiven Zufallsvariablen. Dann gilt E G lim inf Xn ≤ lim inf E G (Xn ) n→∞
n→∞
Da die bedingte Erwartung einer positiven Zufallsvariablen nur fast sicher eindeutig bestimmt ist, liegt es nahe, den Begriff der bedingten Erwartung auf alle Funktionen zu erweitern, die nur fast sicher definiert sind und nur fast sicher mit einer positiven Zufallsvariablen u ¨ bereinstimmen. Wir ben¨otigen dazu das folgende Lemma, das sich unmittelbar aus Folgerung 8.2.11 ergibt: 18.1.9 Lemma. Seien X und Y positive Zufallsvariable mit X = Y fast sicher und sei U eine positive G–messbare Zufallsvariable. Dann sind ¨aquivalent : ) ) (a) F¨ ur alle G ∈ G gilt )G U dP = )G X dP . (b) F¨ ur alle G ∈ G gilt G U dP = G Y dP .
416
Kapitel 18. Bedingte Erwartung
Sei also Z eine Funktion, die fast sicher definiert ist und fast sicher mit einer positiven Zufallsvariablen X u ¨bereinstimmt, und sei W eine Funktion, die fast sicher definiert ist und fast sicher mit einer Version U der G–bedingten Erwartung von X u ¨ bereinstimmt. Mit der erweiterten Definition des Integrals erh¨ alt man dann f¨ ur alle G ∈ G ( ( ( ( W dP = U dP = X dP = Z dP G
G
G
G
Daher nennen wir W eine Version der G–bedingten Erwartung von Z und wir bezeichnen mit E G (Z) eine beliebige Version der G–bedingten Erwartung von Z und nennen E G (Z) die G–bedingte Erwartung von Z. Nach Lemma 18.1.9 ist diese Definition unabh¨ angig von der Wahl von X, und sie ist offenbar auch unabh¨angig von der Wahl von U .
18.2 Bedingte Erwartung und bedingte Integrierbarkeit In diesem Abschnitt erweitern wir den Begriff der bedingten Erwartung auf eine Klasse von Zufallsvariablen, die nicht notwendigerweise positiv sind. Eine reelle Zufallsvariable X besitzt eine G–bedingte Erwartung, wenn min E G (X + ), E G (X − ) < ∞ gilt. In diesem Fall gibt es eine Version U der G–bedingten Erwartung von ur X + und eine Version V der G–bedingten Erwartung von X − derart, dass f¨ alle ω ∈ Ω min U (ω), V (ω) < ∞ gilt und wir nennen eine G–messbare Zufallsvariable W eine Version der G– bedingten Erwartung von X, wenn es eine Version U der G–bedingten Erwartung von X + und eine Version V der G–bedingten Erwartung von X − gibt mit W = U −V Wir bezeichnen mit
E G (X)
eine beliebige Version der G–bedingten Erwartung von X und nennen E G (X) die G–bedingte Erwartung von X. Diese Definition ist mit der Definition der G– bedingten Erwartung einer positiven Zufallsvariablen vertr¨aglich. Eine reelle Zufallsvariable, die eine bedingte Erwartung besitzt, heißt G–bedingt quasiintegrierbar .
18.2 Bedingte Erwartung und bedingte Integrierbarkeit
417
Eine reelle Zufallsvariable X besitzt eine endliche G–bedingte Erwartung, wenn max E G (X + ), E G (X − ) < ∞ gilt. In diesem Fall besitzen X + und X − und damit auch X eine endliche Version ihrer G–bedingten Erwartung. Eine reelle Zufallsvariable, die eine endliche bedingte Erwartung besitzt, heißt G–bedingt integrierbar . Das folgende Lemma 18.2.1 legt es nahe, den Begriff der bedingten Integrierbarkeit auf Funktionen auszudehnen, die nur fast sicher definiert sind: 18.2.1 Lemma. Seien X und Y reelle Zufallsvariable mit X(ω) = Y (ω) fast sicher. Dann sind ¨aquivalent : (a) X ist G–bedingt integrierbar. (b) Y ist G–bedingt integrierbar. In diesem Fall gilt E G (X) = E G (Y ). Sei also Z eine Funktion, die fast sicher definiert ist und fast sicher mit einer G–bedingt integrierbaren Zufallsvariablen X u ¨ bereinstimmt, und sei W eine Funktion, die fast sicher definiert ist und fast sicher mit einer Version der G–bedingten Erwartung von X u ¨bereinstimmt. Dann heißt auch Z G–bedingt integrierbar und W heißt Version der G–bedingten Erwartung von Z und wir bezeichnen mit E G (Z) eine beliebige Version der G–bedingten Erwartung von Z und nennen E G (Z) die bedingte Erwartung von Z. Im Sinne dieser erweiterten Definition ist die G–bedingte Integrierbarkeit eine Eigenschaft von Elementen des Vektorverbandes L0 (F ) und damit eine Eigen¨ ur X ∈ L0 (F ) bildet auch schaft von Aquivalenzklassen der Menge L0 (F ). F¨ ¨ die Menge aller Versionen der G–bedingten Erwartung von X eine Aquivalenzklasse in L0 (F ). Dementsprechend sind im folgenden alle Gleichungen bzw. Ungleichungen f¨ ur G–bedingte Erwartungen als Gleichungen bzw. Ungleichun¨ gen f¨ ur Aquivalenzklassen und damit als Gleichungen bzw. Ungleichungen f¨ ur reelle Repr¨ asentanten zu lesen. Sei ur ein Y mit E G (|Y |) < ∞ L1,G (F ) := [X]P ∈ L0 (F ) X =P Y f¨ ¨ die (im Sinne der urDann ist L1,G (F ) die Menge aller Aquivalenzklassen, spr¨ unglichen Definition der G–bedingten Integrierbarkeit) einen G–bedingt integrierbaren Repr¨ asentanten besitzen, und die G–bedingte Erwartung l¨asst sich als Abbildung L1,G (F ) → L0 (F , G) : X → E G (X) verstehen.
418
Kapitel 18. Bedingte Erwartung
Das folgende Lemma charakterisiert die bedingte Integrierbarkeit einer Zufallsvariablen: 18.2.2 Lemma. Sei X eine Zufallsvariable. Dann sind ¨aquivalent : (a) X ist G–bedingt integrierbar. (b) Es gilt E G (|X|) < ∞. (c) Es gibt positive Zufallsvariable U und V mit X = U − V fast sicher und max E G (U ), E G (V ) < ∞ In diesem Fall gilt |E G (X)| < ∞. Offenbar ist eine positive Zufallsvariable genau dann G–bedingt integrierbar, wenn ihre G–bedingte Erwartung endlich ist. Daher l¨asst sich das letzte Lemma auch wie folgt formulieren: 18.2.3 Folgerung. Sei X eine Zufallsvariable. Dann sind ¨aquivalent : (a) X ist G–bedingt integrierbar. (b) |X| ist G–bedingt integrierbar. (c) X + und X − sind G–bedingt integrierbar. (d) Es gibt positive G–bedingt integrierbare Zufallsvariable U und V mit X(ω) = U (ω) − V (ω) fast sicher. Eine weitere Charakterisierung der bedingten Integrierbarkeit einer Zufallsvariablen geben wir in Lemma 19.1.4. Das folgende Lemma liefert eine allgemeine Darstellung der G–bedingten Erwartung einer G–bedingt integrierbaren Zufallsvariablen, die sich bei der Herleitung der Eigenschaften der G–bedingten Erwartung als n¨ utzlich erweist und auch ihre Berechnung erleichtern kann: 18.2.4 Lemma. Sei X eine G–bedingt integrierbare Zufallsvariable. Dann gilt f¨ ur jede Wahl von positiven G–bedingt integrierbaren Zufallsvariablen U und V mit X(ω) = U (ω) − V (ω) fast sicher E G (X) = E G (U ) − E G (V ) Das folgende Lemma ist ein Analogon zu Lemma 18.1.5: 18.2.5 Lemma. Seien X und Y G–bedingt integrierbare Zufallsvariable. Dann gilt : (1) E G (X) ist G–bedingt integrierbar und es gilt E G (E G (X)) = E G (X). (2) Die Zufallsvariable X + Y ist G–bedingt integrierbar und es gilt E G (X +Y ) = E G (X) + E G (Y )
18.2 Bedingte Erwartung und bedingte Integrierbarkeit
419
(3) F¨ ur jede reelle G–messbare Zufallsvariable U ist U X G–bedingt integrierbar und es gilt E G (U X) = U E G (X) (4) Im Fall X ≤ Y gilt
E G (X) ≤ E G (Y )
(5) Die Zufallsvariablen X ∨ Y und X ∧ Y sind G–bedingt integrierbar. (6) Jede Zufallsvariable Z mit |Z| ≤ |X| ist G–bedingt integrierbar. Der folgende Satz fasst die Struktureigenschaften von L1,G (F ) und die Eigenschaften der G–bedingten Erwartung zusammen: 18.2.6 Satz. L1,G (F ) ist ein Vektorverband und ein Ideal in L0 (F ) und die Abbildung L1,G (F ) → L0 (F , G) : X → E G (X) ist linear , positiv und idempotent. Bemerkenswert ist wieder die Eigenschaft (3) aus Lemma 18.2.5, denn sie besagt, dass sich die reellen G–messbaren Zufallsvariablen bez¨ uglich der G– bedingten Erwartung wie Skalare verhalten. F¨ ur Folgen von bedingt integrierbaren Zufallsvariablen gilt die folgende Verallgemeinerung des Satzes u ¨ ber die majorisierte Konvergenz: 18.2.7 Satz (Majorisierte Konvergenz; Lebesgue). Sei {Xn }n∈N eine Folge von Zufallsvariablen, die fast sicher gegen eine Zufallsvariable X konvergiert. Wenn supn∈N |Xn | G–bedingt integrierbar ist, dann ist auch X G–bedingt integrierbar und es gilt lim E G (Xn ) = E G lim Xn n→∞
n→∞
fast sicher. Wir betrachten nun bedingte Erwartungen bez¨ uglich geschachtelter Unter–σ– Algebren von F : 18.2.8 Satz (David schl¨ agt Goliath). Sei D eine Unter–σ–Algebra von F mit D ⊆ G. Dann gilt L1,D (F ) ⊆ L1,G (F ) und f¨ ur jede positive oder D–bedingt integrierbare Zufallsvariable X gilt E G (E D (X)) = E D (X) = E D (E G (X)) Beweis. Wir betrachten zun¨ achst eine positive Zufallsvariable X. Wegen D ⊆ G ist die Zufallsvariable E D (X) G–messbar, und daraus folgt
420
Kapitel 18. Bedingte Erwartung
E G (E D (X)) = E D (X) Wegen D ⊆ G gilt außerdem f¨ ur alle D ∈ D ( ( ( X dP = E G (X) dP = E D (E G (X)) dP D
D
D
und daraus folgt E D (X) = E D (E G (X)) Damit ist die Gleichung E G (E D (X)) = E D (X) = E D (E G (X)) f¨ ur positive Zufallsvariable gezeigt. Wir nehmen nun zus¨atzlich an, dass die positive Zufallsvariable X auch D–bedingt integrierbar ist, und betrachten das Maß ( ν := X dP sowie seine Restriktionen ν|G und ν|D auf G bzw. D. Da X D–bedingt integrierbar ist, ist E D (X) endlich, und aus Satz 9.2.10 folgt nun, dass ν|D σ–endlich ist. Wegen D ⊆ G ist dann auch ν|G σ–endlich, und aus Satz 9.2.10 folgt nun, dass E G (X) endlich ist. Daher ist X G–bedingt integrierbar. F¨ ur eine beliebige D–bedingt integrierbare Zufallsvariable X folgt die Behauptung des Satzes nun aus der Zerlegung X = X + − X − und der Linearit¨at des Erwartungswertes. 2 Mit D := {∅, Ω} ergibt sich aus dem letzten Satz, dass insbesondere jede integrierbare Zufallsvariable auch G–bedingt integrierbar ist: 18.2.9 Folgerung (David schl¨ agt Goliath). Es gilt L1 (F ) ⊆ L1,G (F ) und f¨ ur jede positive oder integrierbare Zufallsvariable X gilt E[X] = E[E G (X)] Da jede Zufallsvariable trivialerweise F –bedingt integrierbar ist, erkennt man andererseits am Beispiel G = F , dass eine G–bedingt integrierbare Zufallsvariable nicht notwendigerweise integrierbar ist. Wir untersuchen nun Eigenschaften der bedingten Erwartung unter Unabh¨ angigkeitsannahmen:
18.2 Bedingte Erwartung und bedingte Integrierbarkeit
421
18.2.10 Satz (Reduktionssatz). Sei H eine Unter–σ–Algebra von F und sei X eine positive oder G–bedingt integrierbare Zufallsvariable. Ist H unabh¨angig von σ(G, σ(X)), so gilt E σ(G∪H) (X) = E G (X) Beweis. Wir k¨ onnen ohne Beschr¨ ankung der Allgemeinheit annehmen, dass X positiv ist. Dann ist das Mengensystem ( # ( G D := D ∈ F E (X) dP = X dP D
D
ein Dynkin–System und das Mengensystem C := C ∈ F C = G ∩ H mit G ∈ G und H ∈ H ist ein ∩–stabiler Erzeuger von σ(G ∪ H). F¨ ur alle G ∈ G und H ∈ H gilt aufgrund der vorausgesetzten Unabh¨ angigkeit ( ( G E (X) dP = χH χG E G (X) dP G∩H Ω ( = P [H] E G (X) dP (G X dP = P [H] G ( = χH χG X dP (Ω = X dP G∩H
Daher gilt C ⊆ D und damit σ(G ∪ H) = σ(C) = δ(C) ⊆ D. Damit ist gezeigt, dass die Gleichung ( ( E G (X) dP = X dP D
D G
f¨ ur alle D ∈ σ(G ∪ H) gilt. Da E (X) G–messbar und damit auch σ(G ∪ H)– messbar ist, folgt daraus E G (X) = E σ(G∪H) (X). 2 Mit G := {∅, Ω} erh¨ alt man sofort einen wichtigen Spezialfall des Reduktionssatzes: 18.2.11 Folgerung. Sei H eine Unter–σ–Algebra von F und sei X eine positive oder integrierbare Zufallsvariable. Ist H unabh¨angig von σ(X), so gilt E H (X) = E[X]
422
Kapitel 18. Bedingte Erwartung
Allgemein l¨ asst sich die Unabh¨ angigkeit von Unter–σ–Algebren durch Eigenschaften ihrer bedingten Erwartungen charakterisieren: 18.2.12 Folgerung. Sei H eine Unter–σ–Algebra von F . Dann sind ¨aquivalent : (a) G und H sind unabh¨angig. (b) F¨ ur jede positive G–messbare Zufallsvariable X gilt E H (X) = E[X]. (c) F¨ ur jede positive H–messbare Zufallsvariable X gilt E G (X) = E[X]. (d) F¨ ur jede integrierbare G–messbare Zufallsvariable X gilt E H (X) = E[X]. (e) F¨ ur jede integrierbare H–messbare Zufallsvariable X gilt E G (X) = E[X]. ¨ Beweis. Offenbar gen¨ ugt es, die Aquivalenz von (a) und (b) zu beweisen. Wir nehmen zun¨ achst an, dass (a) gilt. F¨ ur jede positive G–messbare Zufallsvariable X ist dann H unabh¨ angig von σ(X) und aus Folgerung 18.2.11 ergibt sich E H (X) = E[X]. Daher folgt (b) aus (a). Wir nehmen nun an, dass (b) gilt. F¨ ur alle G ∈ G und H ∈ H gilt ( χG dP P [G ∩ H] = (H = E H (χG ) dP H ( = E[χG ] dP (H P [G] dP = H
= P [G] P [H] Daher folgt (a) aus (b).
2
F¨ ur eine G–bedingt integrierbare Zufallsvariable X heißt varG (X) := E G (X −E G (X))2 die G–bedingte Varianz von X. 18.2.13 Lemma. Sei X eine G–bedingt integrierbare Zufallsvariable und sei U eine reelle G–messbare Zufallsvariable. Dann gilt E G ((X +U )2 ) = E G (X 2 ) + 2U E G (X) + U 2 Insbesondere gilt E G ((X −E G (X))2 ) = E G (X 2 ) − (E G (X))2
18.2 Bedingte Erwartung und bedingte Integrierbarkeit
423
Beweis. Sei G := {E G (X 2 ) < ∞}. Dann sind alle Summanden auf der rechten Seite der Gleichung χG (X +U )2 = χG X 2 + 2χG U E G (X) + χG U 2 G–bedingt integrierbar und es gilt χG E G ((X +U )2 ) = E G (χG (X +U )2 ) = E G χG X 2 + 2χG U X + χG U 2 = χG E G (X 2 ) + 2χG U E G (X) + χG U 2 = χG E G (X 2 ) + 2U E G (X) + U 2 Wegen (a±b)2 ≤ 2 (a2 +b2 ) gilt einerseits
E G (X 2 ) = E G (((X +U ) − U )2 ) ≤ 2 E G ((X +U )2 ) + U 2
und andererseits
E G ((X +U )2 ) ≤ 2 E G (X 2 ) + U 2
Da U endlich ist, folgt aus diesen Ungleichungen G = {E G ((X +U )2 ) < ∞}, und damit χΩ\G E G ((X +U )2 ) = χΩ\G E G (X 2 ) + 2U E G (X) + U 2 Die Behauptung des Lemmas ergibt sich nun durch Summation.
2
Das folgende Lemma zeigt, dass die Eigenschaften der G–bedingten Varianz denen der unbedingten Varianz entsprechen, wobei wieder die reellen G–messbaren Zufallsvariablen an die Stelle der Konstanten treten: 18.2.14 Lemma. Sei X eine G–bedingt integrierbare Zufallsvariable. (1) Es gilt varG (X) = E G (X 2 ) − (E G (X))2 . (2) Es gilt varG (X) = 0 genau dann, wenn P [{X = E G (X)}] = 1 gilt. (3) Es gilt varG (X) = inf{E G ((X −U )2 ) | U ist G–messbar}. (4) F¨ ur jede Wahl von reellen G–messbaren Zufallsvariablen U und V ist U + V X G–bedingt integrierbar und es gilt varG (U +V X) = V 2 varG (X). Beweis. Da E G (X) G–messbar ist, ergibt sich (1) unmittelbar aus Lemma 18.2.13. Im Fall varG (X) = 0 gilt ( ( ( (X −E G (X))2 dP = E G ((X −E G (X))2 ) dP = varG (X) dP = 0 Ω
Ω
G
Ω
und damit P [{X = E (X)}] = 1, und die umgekehrte Implikation ist klar. Damit ist (2) gezeigt. F¨ ur jede G–messbare Zufallsvariable U folgt aus Lemma 18.2.13 wegen E G (X −E G (X)) = 0
424
Kapitel 18. Bedingte Erwartung
2 (X −E G (X)) − (U −E G (X)) = E G (X −E G (X))2 + (U −E G (X))2
E G ((X −U )2 ) = E G
≥ varG (X) Damit ist (3) gezeigt. Schließlich gilt f¨ ur reelle G–messbare Zufallsvariable U und V 2 varG (U + V X) = E G (U +V X) − E G (U +V X) = E G V 2 (X −E G (X))2 = V 2 E G (X − E G (X))2 = V 2 varG (X) Damit ist auch (4) gezeigt.
2
F¨ ur G–bedingt integrierbare Zufallsvariable X und Y , deren Produkt ebenfalls G–bedingt integrierbar ist, heißt covG (X, Y ) := E G (X −E G (X)) (Y −E G (Y )) die G–bedingte Kovarianz von X und Y , und die Zufallsvariablen heißen G– bedingt unkorreliert, wenn covG (X, Y ) = 0 gilt. 18.2.15 Lemma. Sei X und Y G–bedingt integrierbare Zufallsvariable, deren Produkt ebenfalls G–bedingt integrierbar ist. Dann gilt covG (X, Y ) = E G (XY ) − E G (X) E G (Y ) und varG (X +Y ) = varG (X) + 2 covG (X, Y ) + varG (Y )
Wir zeigen abschließend, dass die bedingte Erwartung einer integrierbaren Zufallsvariablen durch eine Familie von Gleichungen charakterisiert wird, die an die Definition der bedingten Erwartung einer positiven Zufallsvariablen erinnert: 18.2.16 Satz. Sei X ∈ L1 (F ) und sei Y G–messbar. Dann sind ¨aquivalent : (a) Es gilt Y = E G (X).) ) (b) F¨ ur alle G ∈ G gilt G Y dP = G X dP .
18.2 Bedingte Erwartung und bedingte Integrierbarkeit
425
Beweis. Wir nehmen zun¨ achst an, dass (a) gilt. Nach Lemma 18.2.5 gilt dann f¨ ur alle G ∈ G ( ( Y dP = E G (X) dP G G ( ( G + E (X ) dP − E G (X − ) dP = G G ( ( = X + dP − X − dP G (G = X dP G
Daher folgt (b) aus (a). Wir nehmen nun an, dass (b) gilt. Nach Lemma 18.2.5 gilt dann f¨ ur alle G ∈ G ( ( ( ( E G (X)χG dP = E G (XχG ) dP = XχG dP = Y χG dP Ω
und damit
Ω
( Ω
Ω
Ω
(E G (X)−Y )χG dP = 0
Sei G+ := {E G (X) ≥ Y }. Da Y G–messbar ist, gilt G+ ∈ G und aus der letzten Gleichung folgt (E G (X) − Y )+ = 0 Analog erh¨ alt man mit G− := {E G (X) ≤ Y } (E G (X) − Y )− = 0 Aus diesen Gleichungen folgt E G (X) = Y . Daher folgt (a) aus (b).
2
Aufgaben 18.2.A F¨ uhren Sie die fehlenden Beweise aus. 18.2.B Bedingt quasiintegrierbare Zufallsvariable: Erweitern Sie den Begriff der G–bedingten Erwartung auf Funktionen, die fast sicher definiert sind und fast sicher mit einer G–bedingt quasiintegrierbaren Zufallsvariablen u ¨ bereinstimmen. 18.2.C Fourier–Entwicklung: Sei {Gi }i∈{1,...,m} ⊆ F eine disjunkte Familie von Pm ur alle i ∈ {1, . . . , m} und Ereignissen mit i=1 Gi = Ω und P [Gi ] > 0 f¨ ur sei G die von der Familie {Gi }i∈{1,...,m} erzeugte σ–Algebra. Dann gilt f¨ jede G–bedingt integrierbare Zufallsvariable X E G (X) =
m X i=1
E[X|Gi ] χGi
426
Kapitel 18. Bedingte Erwartung
18.2.D Faktorisierungssatz: Sei (Ω , F ) ein Messraum und sei Θ : Ω → Ω eine Zufallsgr¨ oße. Dann gibt es zu jeder σ(Θ)–integrierbaren Zufallsvariablen X eine messbare Funktion h : Ω → R mit E σ(Θ) (X) = h ◦ Θ 18.2.E Ungleichung von Jensen: Sei X G–bedingt integrierbar. Dann gilt |E G (X)| ≤ E G (|X|) 18.2.F David schl¨ agt Goliath: Sei H eine Unter–σ–Algebra von F. Dann sind aquivalent: ¨ (a) L0 (F, H) ⊆ L0 (F, G). (b) F¨ ur alle H ∈ H gilt χH = E H (E G (χH )) (c) F¨ ur jede positive Zufallsvariable X gilt E H (X) = E H (E G (X)) (d) F¨ ur jede positive Zufallsvariable X gilt E G (E H (X)) = E H (X) = E H (E G (X)) 18.2.G Bedingte Kovarianz: Seien X und Y G–bedingt integrierbare Zufallsvariable, deren Produkt XY ebenfalls G–bedingt integrierbar ist. Dann sind a ¨quivalent: (a) X und Y sind G–bedingt unkorreliert. (b) Es gilt E G (XY ) = E G (X) E G (Y ). (c) Es gilt varG (X +Y ) = varG (X) + varG (Y ). F¨ ur jede G–messbare Zufallsvariable U gilt covG (X, U ) = 0.
18.3 Bedingte Erwartung als Projektion Wegen L2 (F ) ⊆ L1 (F ) ⊆ L1,G (F ) gelten alle Ergebnisse u ¨ ber Zufallsvariable in L1,G (F ) insbesondere f¨ ur Zufallsvariable in L2 (F ). Das folgende Lemma zeigt, dass f¨ ur eine quadratisch integrierbare Zufallsvariable auch ihre bedingte Erwartung quadratisch integrierbar ist: 18.3.1 Lemma. Sei X ∈ L2 (F ). Dann gilt E G (X) ∈ L2 (F ). Beweis. Nach Lemma 18.2.13 gilt (E G (X))2 ≤ E G (X 2 ), und Integration 2 ergibt E[(E G (X))2 ] ≤ E[E G (X 2 )] = E[X 2 ]. Der folgende Satz enth¨ alt eine fundamentale Eigenschaft der bedingten Erwartung einer quadratisch integrierbaren Zufallsvariablen:
18.3 Bedingte Erwartung als Projektion
427
18.3.2 Satz (Pythagoras). Sei X ∈ L2 (F ) und U ∈ L2 (F ) ∩ L0 (F , G). Dann gilt E[(X −U )2 ] = E[(X −E G (X))2 ] + E[(E G (X)−U )2 ] Insbesondere gilt E[X 2 ] = E[(X −E G (X))2 ] + E[(E G (X))2 ] Beweis. Es gilt E[(X −E G (X))(E G (X)−U )] = E[E G ((X −E G (X))(E G (X)−U ))] = 0 Daraus folgt die behauptete Gleichung.
2
Der folgende Satz charakterisiert die bedingte Erwartung einer quadratisch integrierbaren Zufallsvariablen: 18.3.3 Satz. Sei X ∈ L2 (F ). Dann sind f¨ ur Y ∈ L2 (F ) ∩ L0 (F , G) folgende Aussagen ¨aquivalent : (a) Es gilt Y = E G (X). (b) F¨ ur alle Z ∈ L2 (F ) ∩ L0 (F , G) gilt E[(X −Y )2 ] ≤ E[(X −Z)2 ]. (c) F¨ ur alle Z ∈ L2 (F ) ∩ L0 (F , G) gilt E[XZ] = E[Y Z]. Beweis. Wir nehmen zun¨ achst an, dass (a) gilt. Wegen Y = E G (X) ergibt sich aus dem Satz von Pythagoras f¨ ur alle Z ∈ L2 (F ) ∩ L0 (F , G) E[(X −Z)2 ] = E[(X −Y )2 ] + E[(Y −Z)2 ] Daher folgt (b) aus (a). Wir nehmen nun an, dass (b) gilt. F¨ ur Z ∈ L2 (F ) ∩ L0 (F , G) und c ∈ (0, ∞) 2 0 gilt dann Y ± cZ ∈ L (F ) ∩ L (F , G) und damit E[(X −Y )2 ] ≤ E[(X − (Y ±cZ))2 ] = E[((X −Y ) ∓ cZ)2 ] = E[(X −Y )2 ] ∓ 2c E[(X −Y )Z] + c2 E[Z 2 ] Daraus folgt zun¨achst |2 E[(X −Y )Z]| ≤ c E[Z 2 ] und da c ∈ (0, ∞) beliebig war ergibt sich sodann E[(X −Y )Z] = 0. Daher folgt (c) aus (b). Wir nehmen schließlich an, dass (c) gilt. F¨ ur G ∈ G gilt χG ∈ L2 (F )∩L0 (F , G) und damit E[XχG ] = E[Y χG ]. Aus Satz 18.2.16 folgt nun Y = E G (X). Daher folgt (a) aus (c). 2 Aufgrund der Eigenschaft (b) aus Satz 18.3.3 wird die G–bedingte Erwartung einer Zufallsvariablen X ∈ L2 (F ) auch als ihre Projektion auf L2 (F )∩L0 (F , G) bezeichnet. Der Satz von Pythagoras besitzt eine weitere wichtige Anwendung, die unter anderem zeigt, dass die Varianz der bedingten Erwartung einer Zufallsvariablen nie gr¨ oßer ist als die Varianz der Zufallsvariablen:
428
Kapitel 18. Bedingte Erwartung
18.3.4 Lemma (Varianz–Zerlegung). Sei X ∈ L2 (F ). Dann gilt var [X] = E[varG (X)] + var [E G (X)] Beweis. Nach dem Satz von Pythagoras gilt var [X] = E[(X −E[X])2 ] = E[(X −E G (X))2 ] + E[(E G (X)−E[X])2] = E[E G ((X −E G (X))2 )] + E[(E G (X)−E[E G (X)])2 ] = E[varG (X)] + var [E G (X)] Damit ist die Gleichung gezeigt.
2
F¨ ur eine Zufallsvariable X ∈ L2 (F ) bezeichnet man E[varG (X)] als Varianz in den Klassen und var [E G (X)] als Varianz zwischen den Klassen. Aufgabe 18.3.A Kovarianz–Zerlegung: F¨ ur alle X, Y ∈ L2 (F) gilt cov [X, Y ] = E[covG (X, Y )] + cov [E G (X), E G (Y )] und f¨ ur jede Zufallsvariable U ∈ L2 (F) ∩ L0 (F, G) gilt cov [X, U ] = cov [E G (X), U ]
18.4 Martingale Eine monoton wachsende Folge {Fn }n∈N von Unter–σ–Algebren von F heißt Filtration. Eine Filtration kann insbesondere durch eine Folge von Zufallsvariablen erzeugt werden: 18.4.1 Beispiel (Nat¨ urliche Filtration). Sei {Xk }k∈N eine Folge von Zufallsur alle n ∈ N variablen. Dann ist die Folge {Fn }n∈N mit Fn := σ({Xk }k∈{1,...,n} ) f¨ eine Filtration; diese Filtration wird als nat¨ urliche Filtration bez¨ uglich der Folge {Xk }k∈N bezeichnet.
Ist {Fn }n∈N eine Filtration, so ist das Mengensystem n∈N Fn eine Algebra, aber im allgemeinen keine σ–Algebra; vgl. Aufgabe 18.4.C. Eine Folge von Zufallsvariablen {Xn }n∈N heißt – adaptiert bez¨ uglich einer Filtration {Fn }n∈N , wenn f¨ ur alle n ∈ N die Zufallsvariable Xn Fn –messbar ist, und sie heißt – Martingal bez¨ uglich einer Filtration {Fn }n∈N , wenn sie adaptiert ist und f¨ ur alle n ∈ N die Zufallsvariable Xn+1 Fn –bedingt integrierbar ist mit E Fn (Xn+1 ) = Xn . Jede Folge von Zufallsvariablen ist bez¨ uglich ihrer nat¨ urlichen Filtration adaptiert. Das folgende Beispiel zeigt, dass viele Martingale durch eine einzige Zufallsvariable erzeugt werden k¨ onnen:
18.4 Martingale
429
18.4.2 Beispiel. Sei {Fn }n∈N eine Filtration und sei X eine positive oder integrierbare Zufallsvariable. Dann ist die Folge {E Fn (X)}n∈N ein Martingal.
Eine Folge von Zufallsvariablen {Xn }n∈N heißt – positiv , wenn jede der Zufallsvariablen Xn positiv ist, und sie heißt – integrierbar , wenn jede der Zufallsvariablen Xn integrierbar ist. Das folgende Lemma charakterisiert diejenigen positiven oder integrierbaren adaptierten Folgen von Zufallsvariablen, die ein Martingal sind: 18.4.3 Lemma. Sei {Fn }n∈N eine Filtration und sei {Xn }n∈N eine positive oder integrierbare adaptierte Folge von Zufallsvariablen. Dann sind folgende Aussagen ¨aquivalent : (a) {Xn }n∈N ist ein Martingal. (b) F¨ ur alle n ∈ N und r ∈ N(n) gilt E Fn (Xr ) = Xn . Beweis. Wir nehmen an, dass (a) gilt. Wir betrachten n ∈ N und zeigen durch vollst¨ andige Induktion, dass f¨ ur alle r ∈ N(n) die Gleichung E Fn (Xr ) = Xn gilt. • r = n: In diesem Fall ist nichts zu zeigen. • r → r + 1: Wir nehmen an, die Gleichung sei f¨ ur ein r ∈ N(n) bereits bewiesen. Dann ergibt sich aus Satz 18.2.8 und der Martingal–Eigenschaft E Fn (Xr+1 ) = E Fn (E Fr (Xr+1 )) = E Fn (Xr ) = Xn Daher folgt (b) aus (a). Die umgekehrte Implikation ist klar.
2
Im weiteren Verlauf dieses Abschnitts sei {Fn }n∈N eine Filtration und F∞ die von der Algebra n∈N Fn erzeugte σ–Algebra. Wir kl¨ aren zun¨ achst die Struktur der Familie aller integrierbaren F∞ –messbaren Zufallsvariablen: 18.4.4 Satz (Approximationssatz). Sei Y eine integrierbare Zufallsvariable mit Y ∈ L0 (F , F∞ ). Dann gibt es zu jedem η ∈ (0, ∞) eine integrierbare Zufallsvariable Z mit Z ∈ L0 (F , Fl ) f¨ ur ein l ∈ N und E[|Y −Z|] ≤ η. Beweis. Mit Y sind auch Y + und Y − integrierbar und F∞ –messbar. Wir k¨ onnen daher annehmen, dass Y positiv ist. Da Y F∞ –messbar und positiv ist, gibt es nach dem Approximationssatz 7.1.13 eine monoton wachsenden Folge {Yn }n∈N von einfachen F∞ –messbaren Zufallsvariablen mit Y = supn∈N Yn und damit E[Y ] = supn∈N E[Yn ]. Da Y integrierbar ist, gilt limn→∞ E[|Y − Yn |] = 0. Wir k¨onnen daher annehmen, dass Y einfach ist. Da Y F∞ –messbar und einfach ist und da F∞ die von der Algebra n∈N Fn erzeugte σ–Algebra ist, ergibt sich aus dem Approximationssatz 5.4.1 die Existenz einer einfachen Zufallsvariablen Z mit Z ∈ L0 (F , Fl ) f¨ ur ein l ∈ N und E[|Y −Z|] ≤ η. 2
430
Kapitel 18. Bedingte Erwartung
Martingale sind unter anderem im Hinblick auf Konvergenzs¨atze von Interesse. Unser Ziel ist es nun, einen Konvergenzsatz f¨ ur Martingale zu beweisen, die von einer quadratisch integrierbaren Zufallsvariablen erzeugt werden. Dazu ben¨ otigen wir das folgende Lemma, das, unter den gegebenen Bedingungen, als eine Versch¨ arfung der Ungleichung von Markov verstanden werden kann: 18.4.5 Lemma (Maximale Ungleichung). Sei {Xn }n∈N ein positives Martingal. Dann gilt f¨ ur alle m ∈ N und ε ∈ (0, ∞) . #" 1 P sup Xn > ε ≤ E[Xm ] ε n∈N(m) Beweis. Wir k¨ onnen ohne Beschr¨ ankung der Allgemeinheit annehmen, dass m = 1 gilt. F¨ ur alle n ∈ N sei An := {Xn > ε} ∩
n−1
{Xk ≤ ε}
k=1
Dann ist die Folge {An }n∈N disjunkt mit {supn∈N Xn > ε} = ∞ n=1 An sowie An ∈ Fn f¨ ur alle n ∈ N. F¨ ur r ∈ N ergibt sich aus Lemma 18.4.3 r r ( P [An ] = ε dP ε n=1
≤ =
n=1 An r ( n=1 An r (
Xn dP E Fn (Xr ) dP
An
=
n=1 r ( n=1
(
≤
(Ω
= Ω
Xr dP
An
Xr dP X1 dP
Daraus ergibt sich P
sup Xn > ε n∈N
=
∞
1 ≤ ε und damit die gew¨ unschte Ungleichung.
P [An ]
n=1
(
Ω
X1 dP 2
18.4 Martingale
431
Der folgende Satz von L´evy ist der einfachste Konvergenzsatz f¨ ur Martingale: 18.4.6 Satz (L´ evy). Sei X eine Zufallsvariable in L2 (F ). Dann gilt lim E Fn (X) = E F∞ (X)
n→∞
fast sicher und in L2 (F ). Beweis. Sei ε ∈ (0, ∞). Dann ist die Folge
sup |E
P
Fn
(X)−E
F∞
(X)| > ε
n∈N(m)
m∈N
monoton fallend und damit konvergent. F¨ ur den Beweis der fast sicheren Konugt es zu zeigen, vergenz des Martingals {E Fn (X)}n∈N gegen E F∞ (X) gen¨ dass die betrachtete Folge gegen 0 konvergiert. Sei Z ∈ L2 (F ) eine Zufallsvariable mit Z ∈ L0 (F , Fl ) f¨ ur ein l ∈ N. Dann ist ur alle n ∈ N(l) gilt die Folge {E Fn (|X−Z|)}n∈N ein positives Martingal und f¨ |E Fn (X)−E F∞ (X)| ≤ |E Fn (X)−Z)| + |E F∞ (X)−Z| ≤ |E Fn (E F∞ (X)−Z)| + |E F∞ (X)−Z| ≤ E Fn |E F∞ (X)−Z| + |E F∞ (X)−Z| ¨ F¨ ur alle m ∈ N(l) ergibt sich durch Ubergang zum Supremum u ¨ber n ∈ N(m) und unter Verwendung der maximalen Ungleichung und der Ungleichung von Markov . #" Fn F∞ P sup |E (X)−E (X)| > ε n∈N(m)
.
sup E Fn (|E F∞ (X)−Z|) > ε/2
≤P
#" +P
* + |E F∞ (X)−Z| > ε/2
n∈N(m)
2 2 E[E Fn (|E F∞ (X)−Z|)] + E[|E F∞ (X)−Z|] ε ε 4 F∞ = E[|E (X)−Z|] ε
≤
Daher gilt . lim P
m→∞
sup |E Fn (X)−E F∞ (X)| > ε
#" ≤
n∈N(m)
4 E[|E F∞ (X)−Z|] ε
Nach dem Approximationssatz 18.4.4 gibt es f¨ ur alle η ∈ (0, ∞) eine integrierbare Zufallsvariable Z mit Z ∈ L0 (F , Fl ) f¨ ur ein l ∈ N und E[|E F∞ (X)−Z|] ≤
ηε 4
432
Kapitel 18. Bedingte Erwartung
Daher gilt
. lim P
m→∞
sup |E Fn (X)−E F∞ (X)| > ε
#"
Da η beliebig war, gilt lim P
m→∞
≤η
n∈N(m)
sup |E
Fn
(X)−E
F∞
(X)| > ε
=0
n∈N(m)
Damit ist gezeigt, dass das Martingal {E Fn (X)}n∈N fast sicher gegen E F∞ (X) konvergiert. Sei m ∈ N. F¨ ur alle k ∈ N(m) erh¨ alt man aus dem Satz von Pythagoras wegen E Fk (E Fk+1 (X)) = E Fk (X) E[(E Fk+1 (X)−E Fm (X))2 ] = E[(E Fk+1 (X)−E Fk (X))2 ] + E[(E Fk (X)−E Fm (X))2 ] F¨ ur alle n ∈ N(m) ergibt sich nun durch vollst¨ andige Induktion E[(E Fn+1 (X)−E Fm (X))2 ] =
n
E[(E Fk+1 (X)−E Fk (X))2 ]
k=m
und aus Lemma 18.4.3 und dem Satz von Pythagoras folgt sodann n
E[(E Fk+1 (X)−E Fk (X))2 ] = E[(E Fn+1 (X)−E Fm (X))2 ]
k=m
= E[(E Fn+1 (X)−E Fm (E Fn+1 (X)))2 ] ≤ E[(E Fn+1 (X))2 ] ≤ E[X 2 ]
Daher gilt ∞
E[(E Fk+1 (X)−E Fk (X))2 ] ≤ E[X 2 ]
k=m
Aus der quadratischen Integrierbarkeit von X folgt nun wegen E[(E Fn+1 (X)−E Fm (X))2 ] = ≤
n k=m ∞
E[(E Fk+1 (X)−E Fk (X))2 ] E[(E Fk+1 (X)−E Fk (X))2 ]
k=m Fn
dass die Folge {E (X)}n∈N eine Cauchy–Folge in L2 (F ) ist. Da L2 (F ) vollst¨ andig ist, konvergiert die Folge {E Fn (X)}n∈N in L2 (F ) gegen eine Zufallsvariable Y ∈ L2 (F ). Insbesondere besitzt die Folge {E Fn (X)}n∈N eine
18.4 Martingale
433
Teilfolge, die fast sicher gegen Y konvergiert. Da vorher bereits gezeigt wurde, dass die Folge {E Fn (X)}n∈N fast sicher gegen E F∞ (X) konvergiert, gilt Y = E F∞ (X). Daher konvergiert die Folge {E Fn (X)}n∈N auch in L2 (F ) ge2 gen E F∞ (X). Der Satz von L´evy besitzt eine interessante Folgerung: 18.4.7 Folgerung. Sei {Xn }n∈N ein Martingal in L2 (F ). Wenn es eine Zufallsvariable X ∈ L2 (F ) gibt mit lim E[(Xn −X)2 ] = 0
n→∞
ur alle n ∈ N gilt Xn = E Fn (X), und es gilt dann ist X F∞ –messbar, f¨ lim Xn = X
n→∞
fast sicher. Beweis. Da {Xn }n∈N ein Martingal ist, gilt E[(Xn −E Fn (X))2 ] = E[(E Fn (Xn+1 )−E Fn (E Fn+1 (X)))2 ] = E[(E Fn Xn+1 −E Fn+1 (X)))2 ] ≤ E[E Fn (Xn+1 −E Fn+1 (X))2 ] = E[(Xn+1 −E Fn+1 (X))2 ] Daher ist die Folge {E[(Xn −E Fn (X))2 ]}n∈N monoton wachsend. Da die Folge {Xn }n∈N in L2 (F ) gegen X konvergiert, besitzt sie eine Teilfolge, die fast sicher gegen X konvergiert, und aus {Xn }n∈N ⊆ L0 (F , F∞ ) ergibt sich nun X ∈ L0 (F , F∞ ), also X = E F∞ (X), und damit E[(Xn −E Fn (X))2 ] ≤ E[(Xn −X)2 ] + E[(X −E Fn (X))2 ] = E[(Xn −X)2 ] + E[(E F∞ (X)−E Fn (X))2 ] Nach Voraussetzung konvergiert die Folge {Xn }n∈N in L2 (F ) gegen X, und nach dem Satz von L´evy konvergiert die Folge {E Fn (X)}n∈N in L2 (F ) gegen E F∞ (X). Daher konvergiert die Folge {E[(Xn −E Fn (X))2 ]}n∈N gegen 0. Aus diesen Eigenschaften der Folge {E[(Xn−E Fn (X))2 ]}n∈N ergibt sich daher f¨ ur alle n ∈ N Xn = E Fn (X) und aus dem Satz von L´evy folgt nun, dass die Folge {Xn }n∈N auch fast sicher gegen X konvergiert. 2
434
Kapitel 18. Bedingte Erwartung
Aufgaben 18.4.A Nat¨ urliche Filtration: Jede Folge von Zufallsvariablen ist bez¨ uglich ihrer nat¨ urlichen Filtration adaptiert. 18.4.B S Filtration: Sei {Fn }n∈N eine Filtration. Dann ist das Mengensystem n∈N Fn eine Algebra. ur die die Algebra 18.4.C S Filtration: Konstruieren Sie eine Filtration {Fn }n∈N , f¨ F keine σ–Algebra ist. n n∈N Hinweis: Betrachten Sie die nat¨ urliche Filtration einer geeigneten Folge {Xn }n∈N von Zufallsvariablen.
19 Bedingte Wahrscheinlichkeit und bedingte Verteilung
Mit der Verf¨ ugbarkeit des Begriffs der bedingten Erwartung l¨asst sich nun die bedingte Wahrscheinlichkeit eines Ereignisses durch die bedingte Erwartung seiner Indikatorfunktion definieren; man beschreitet damit den in der Integrationstheorie u ¨ blichen Weg vom Maß zum Integral in umgekehrter Richtung. Wir untersuchen zun¨ achst die elementaren Eigenschaften bedingter Wahrscheinlichkeiten bez¨ uglich einer Unter–σ–Algebra und stellen insbesondere den Zusammenhang mit den bereits bekannten bedingten Wahrscheinlichkeiten bez¨ uglich einem Ereignis dar (Abschnitt 19.1). Aus dem Begriff der bedingten Wahrscheinlichkeit ergibt sich zun¨ achst in nat¨ urlicher Weise der Begriff der bedingten Unabh¨ angigkeit, der sich in der Konstruktion wahrscheinlichkeitstheoretischer Modelle als u utzlich erweist (Abschnitt 19.2); dies ¨ beraus n¨ gilt auch f¨ ur die bedingte Verteilung einer Zufallsvariablen (Abschnitt 19.3) und f¨ ur bedingte Dichten einer bedingten Verteilung (Abschnitt 19.4). Den Abschluss dieses Kapitels bilden bedingte Versionen der Gesetze der Großen Zahlen. Im gesamten Kapitel sei G eine Unter–σ–Algebra von F .
19.1 Bedingte Wahrscheinlichkeit F¨ ur ein Ereignis A ∈ F heißt die Zufallsvariable P G (A) := E G (χA ) die G–bedingte Wahrscheinlichkeit von A. Aus dieser Definition ergeben sich sofort zwei Spezialf¨ alle bez¨ uglich der σ–Algebra G: – Im Fall G = {∅, Ω} gilt P G (A) = P [A]. – Im Fall G = F gilt P G (A) = χA . Das folgende Lemma fasst die elementaren Eigenschaften der bedingten Wahrscheinlichkeit zusammen:
436
Kapitel 19. Bedingte Wahrscheinlichkeit und bedingte Verteilung
19.1.1 Lemma. (1) Es gilt P G (Ω) = 1 und P G (∅) = 0. (2) F¨ ur alle A ∈ F gilt 0 ≤ P G (A) ≤ 1. (3) F¨ ur jede disjunkte Folge {An }n∈N ⊆ F gilt P
G
∞
=
An
n=1
∞
P G (An )
n=1
Beweis. Wegen Ω ∈ G und ∅ ∈ G gilt E G (χΩ ) = χΩ = 1 und E G (χ∅ ) = χ∅ = 0. F¨ ur A ∈ F gilt χ∅ ≤ χA ≤ χΩ und aus Lemma 18.1.5 folgt 0 ≤ E G (χA ) ≤ 1. Ist {An }n∈N ⊆ F eine disjunkte Folge, so folgt aus dem bedingten Satz u ¨ ber )= die monotone Konvergenz in der Form von Folgerung 18.1.7 E G (χP∞ A n n=1
∞
∞ E G ( n=1 χAn ) = n=1 E G (χAn ). 2 Da G–bedingte Wahrscheinlichkeiten G–bedingte Erwartungen von Indikatorfunktionen sind, gelten Gleichungen und Ungleichungen f¨ ur G–bedingte Wahrscheinlichkeiten im allgemeinen nur fast sicher. Insbesondere gilt die Gleichung P
G
∞
An (ω) =
n=1
∞
P G (An )(ω)
n=1
im allgemeinen nur auf dem Komplement einer Nullmenge, die von der disangt; vgl. Abschnitt 19.3. junkten Folge {An }n∈N ⊆ F abh¨ Das folgende Ergebnis ist eine unmittelbare Folgerung aus Lemma 18.1.2; es zeigt, dass die Definition der G–bedingten Wahrscheinlichkeit eines Ereignisses mit der Definition seiner bedingten Wahrscheinlichkeit bez¨ uglich einem Ereignis G ∈ G im Einklang steht: 19.1.2 Lemma (Fourier–Entwicklung). Sei {Gi }i∈{1,...,m} ⊆ F eine dis m junkte Familie von Ereignissen mit G ur alle i=1 i = Ω und P [Gi ] > 0 f¨ i ∈ {1, . . . , m} und sei G die von der Familie {Gi }i∈{1,...,m} erzeugte σ–Algebra. Dann gilt f¨ ur jedes Ereignis A ∈ F P G (A) =
m
P [A|Gi ] χGi
i=1
Wir untersuchen nun die Eigenschaften der bedingten Wahrscheinlichkeit. Genau wie im unbedingten Fall zeigt man, dass die bedingte Wahrscheinlichkeit monoton und σ–subadditiv ist:
19.1 Bedingte Wahrscheinlichkeit
437
19.1.3 Lemma. F¨ ur alle A, B ∈ F mit A ⊆ B gilt P G (A) ≤ P G (B) und f¨ ur jede Folge von Ereignissen {An }n∈N ⊆ F gilt ∞ ∞ G P An ≤ P G (An ) n=1
n=1
Auch das folgende Lemma l¨ asst sich genau wie im unbedingten Fall beweisen: 19.1.4 Lemma. Sei X eine Zufallsvariable. Dann gilt ∞
P G ({|X| ≥ n}) ≤ E G (|X|) ≤ 1 +
n=1
∞
P G ({|X| ≥ n})
n=1
Insbesondere ist X genau dann G–bedingt integrierbar , wenn die Reihe
∞ G n=1 P ({|X| ≥ n}) fast sicher gegen eine reelle Zufallsvariable konvergiert. Aus diesem Lemma erh¨ alt man sofort die bedingte Ungleichung von Markov: 19.1.5 Folgerung (Ungleichung von Markov). Sei X eine Zufallsvariable. Dann gilt f¨ ur alle ε ∈ (0, ∞) P G ({|X| ≥ ε}) ≤
1 G E (|X|) ε
Schließlich l¨ asst sich auch das bedingte 1. Lemma von Borel/Cantelli genau wie im unbedingten Fall beweisen: 19.1.6 Lemma (1. Lemma von Borel/Cantelli). Sei {An }n∈N ⊆ F eine
∞ Folge von Ereignissen und sei G := { n=1 P G (An ) < ∞}. Dann gilt ! G P lim sup An χG = 0 n→∞
¨ Wir betrachten abschließend den Ubergang von bedingten zu unbedingten Wahrscheinlichkeiten: 19.1.7 Lemma. (1) F¨ ur jedes Ereignis A ∈ F gilt P [A] = E[P G (A)] (2) Sei {An }n∈N ⊆ F eine Folge von Ereignissen mit lim P G (An ) = 0
n→∞
fast sicher. Dann gilt lim P [An ] = 0
n→∞
438
Kapitel 19. Bedingte Wahrscheinlichkeit und bedingte Verteilung
Beweis. F¨ ur jedes Ereignis A ∈ F gilt P [A] = E[χA ] = E[E G (χA )] = E[P G (A)] Damit ist (1) gezeigt, und (2) folgt nun aus (1) und dem bedingten Satz u ¨ ber die majorisierte Konvergenz. 2
19.2 Bedingte Unabh¨ angigkeit Sei I eine nichtleere Indexmenge und sei H(I) die Familie der endlichen nichtleeren Teilmengen von I. Eine Familie von Ereignissen {Ai }i∈I ⊆ F heißt G–bedingt unabh¨angig, wenn f¨ ur alle J ∈ H(I) G P Ai = P G (Ai ) i∈J
i∈J
gilt. Aus dieser Definition ergeben sich sofort zwei Spezialf¨alle bez¨ uglich der σ–Algebra G: – Im Fall G = {∅, Ω} ist eine Familie von Ereignissen genau dann G–bedingt unabh¨ angig, wenn sie unabh¨ angig ist. – Im Fall G = F ist jede Familie von Ereignissen G–bedingt unabh¨angig. Obwohl die bedingte Unabh¨ angigkeit analog zur Unabh¨angigkeit definiert ist, impliziert im allgemeinen keine dieser Eigenschaften die andere: 19.2.1 Beispiele. Sei Θ eine reelle Zufallsvariable mit PΘ = B(1/2). (1) Sind A, B ∈ F Ereignisse mit P σ(Θ) (A ∩ B) = (1+3Θ)/9 P σ(Θ) (A ∩ B) = 2/9 P σ(Θ) (A ∩ B) = 2/9 P σ(Θ) (A ∩ B) = (4−3Θ)/9 so gilt P σ(Θ) (A) = (1+Θ)/3 = P σ(Θ) (B) und wegen Θ2 = Θ folgt daraus P σ(Θ) (A ∩ B) = (1+3Θ)/9 = P σ(Θ) (A) P σ(Θ) (B) Daher ist {A, B} σ(Θ)–bedingt unabh¨ angig. Andererseits gilt P [A ∩ B] = E[P σ(Θ) (A ∩ B)] = E[(1+3Θ)/9] = 5/18 sowie P [A] = 1/2 = P [B] und damit P [A ∩ B] = 5/18 = 1/4 = P [A] P [B] Daher ist {A, B} nicht unabh¨ angig.
19.2 Bedingte Unabh¨ angigkeit
439
(2) Sind A, B ∈ F Ereignisse mit P σ(Θ) (A ∩ B) = (1−Θ)/2 P σ(Θ) (A ∩ B) = Θ/2 P σ(Θ) (A ∩ B) = Θ/2 P σ(Θ) (A ∩ B) = (1−Θ)/2 so gilt P σ(Θ) (A ∩ B) = (1−Θ)/2 = 1/4 = P σ(Θ) (A) P σ(Θ) (B) Daher ist {A, B} nicht σ(Θ)–bedingt unabh¨ angig. Andererseits gilt P [A ∩ B] = E[P σ(Θ) (A ∩ B)] = E[(1−Θ)/2] = 1/4 sowie P [A] = 1/2 = P [B] und damit P [A ∩ B] = P [A] P [B] Daher ist {A, B} unabh¨ angig.
Dennoch lassen sich die in Abschnitt 11.1 bewiesenen Ergebnisse u ¨ ber die Unabh¨ angigkeit einer Familie von Ereignissen im wesentlichen auf die bedingte Unabh¨ angigkeit u ¨ bertragen. Als Beispiel geben wir hier nur das bedingte Null– Eins–Gesetz von Borel an: 19.2.2 Satz (Null–Eins–Gesetz; Borel). Sei
{An }n∈N eine G–bedingt un∞ abh¨angige Folge von Ereignissen und sei G := { n=1 P G (An ) < ∞}. Dann gilt ! P G lim sup An n→∞
= χΩ\G
Das bedingte Null–Eins–Gesetz von Borel ist ein erstes Beispiel daf¨ ur, dass bei der Verallgemeinerung von Ergebnissen u ¨ ber die Unabh¨angigkeit einer Familie von Ereignissen auf die bedingte Unabh¨angigkeit unter Umst¨anden Anpassungen in der Formulierung und damit auch in der Beweisf¨ uhrung angebracht sind. Die wichtigsten Ergebnisse u ¨ber die bedingte Unabh¨angigkeit einer Familie von Ereignissen sind in den Ergebnissen u ¨ ber die bedingte Unabh¨angigkeit einer Familie von Ereignissystemen enthalten. Eine Familie von Ereignissystemen {Ei }i∈I ⊆ F heißt G–bedingt unabh¨angig, wenn jede Familie von Ereignissen {Ai }i∈I ⊆ F mit Ai ∈ Ei f¨ ur alle i ∈ I G–bedingt unabh¨angig ist. Wir geben nun die wichtigsten Ergebnisse u ¨ ber die G–bedingte Unabh¨ angigkeit einer Familie von Ereignissystemen an, wobei wir auf die Angabe von Lemmata, deren Beweis wie im Fall der Unabh¨angigkeit gef¨ uhrt werden kann, verzichten.
440
Kapitel 19. Bedingte Wahrscheinlichkeit und bedingte Verteilung
19.2.3 Satz. Sei {Ei }i∈I eine Familie von Ereignissystemen. Dann sind ¨aquivalent : (a) Die Familie {Ei }i∈I ist G–bedingt unabh¨angig. (b) F¨ ur jede nichtleere Menge K ⊆ I ist {Ei }i∈K G–bedingt unabh¨angig. (c) F¨ ur jede endliche nichtleere Menge K ⊆ I ist {Ei }i∈K G–bedingt unabh¨angig. Der Beweis des Satzes verl¨ auft analog zum Beweis von Satz 11.2.1. 19.2.4 Lemma. Sei {Ei }i∈I eine Familie von Ereignissystemen und sei {Ci }i∈I eine Familie von Ereignissystemen mit Ci ⊆ Ei f¨ ur alle i ∈ I. Ist {Ei }i∈I G–bedingt unabh¨angig, so ist auch {Ci }i∈I G–bedingt unabh¨angig. Der folgende Satz kl¨ art den Zusammenhang zwischen der bedingten Unabh¨ angigkeit von σ–Algebren und der bedingten Unabh¨angigkeit ihrer Erzeuger; ¨ er enth¨ alt unter anderem eine ¨ außerst n¨ utzliche Aquivalenz, die im Fall der Unabh¨ angigkeit trivial und daher nicht sichtbar ist: 19.2.5 Satz. Sei {Ei }i∈I eine Familie von ∩–stabilen Ereignissystemen. Dann sind a ¨quivalent : (a) Die Familie {Ei }i∈I ist G–bedingt unabh¨angig. (b) Die Familie {σ(Ei )}i∈I ist G–bedingt unabh¨angig. (c) Die Familie {σ(Ei ∪ G)}i∈I ist G–bedingt unabh¨angig. ¨ Beweis. Der Beweis der Aquivalenz von (a) und (b) verl¨auft analog zum Beweis von Satz 11.2.5. Aufgrund von Lemma 19.2.4 ist außerdem klar, dass (b) aus (c) folgt. Wir nehmen nun an, dass (b) gilt. F¨ ur alle i ∈ I ist das Ereignissystem Hi := A ∩ G A ∈ σ(Ei ) und G ∈ G ur J ⊆ H(I) und jede Wahl von {Ai }i∈J ∩–stabil mit σ(Hi ) = σ(Ei ∪ G). F¨ und {Gi }i∈J mit Ai ∈ σ(Ei ) und Gi ∈ G f¨ ur alle i ∈ J gilt PG (Ai ∩ Gi ) = P G Ai ∩ Gi i∈J
= PG =
i∈J
=
i∈J
Ai
i∈J
P G (Ai ) ·
i∈J
χG i
i∈J
χG i
i∈J
P G (Ai ∩ Gi )
i∈J
Daher ist die Familie {Hi }i∈I und damit auch die Familie {σ(Ei ∪ G)}i∈I G–bedingt unabh¨ angig. Daher folgt (c) aus (b). 2
19.2 Bedingte Unabh¨ angigkeit
441
Schließlich besitzt auch das Blocklemma eine bedingte Version: 19.2.6 Lemma (Blocklemma). Sei {Ei }i∈I eine G–bedingt unabh¨angige Familie von ∩–stabilen Ereignissystemen. Sind M, N ⊆ I disjunkt, so ist auch die Familie
σ Ei , σ Ei i∈M
i∈N
G–bedingt unabh¨angig. Der Beweis des Blocklemmas verl¨ auft analog zum Beweis von Lemma 11.2.7. Als letztes Ergebnis zur G–bedingten Unabh¨ angigkeit von Ereignissystemen beweisen wir eine G–bedingte Version des Null–Eins–Gesetzes von Kolmogorov: 19.2.7 Satz (Null–Eins–Gesetz; Kolmogorov). Sei {En }n∈N eine G– bedingt unabh¨angige Folge von ∩–stabilen Ereignissystemen und sei E∞ die zugeh¨orige terminale σ–Algebra. Dann gilt : (1) F¨ ur alle A, B ∈ E∞ gilt P G (A ∩ B) = P G (A) P G (B). (2) F¨ ur alle A ∈ E∞ gilt P G (A) = χA und es gibt ein Ereignis G ∈ G mit χA = χG . (3) Zu jeder E∞ –messbaren numerischen Funktion X gibt es eine G–messbare numerische Funktion Z mit X = Z. Beweis. Der Beweis von (1) verl¨ auft analog zum Beweis von Satz 11.2.9. Zum Beweis von (2) betrachten wir A ∈ E∞ . Nach (1) gilt P [{P G (A) ∈ {0, 1}}] = 1, und da P G (A) G–messbar ist folgt hieraus die Existenz eines Ereignisses G ∈ G mit P G (A) = χG Daher gilt P [A] = P [G] und wegen χG = χ2G = χG P G (A) = P G (G ∩ A) gilt auch P [G] = P [G ∩ A]. Aus diesen Gleichungen ergibt sich P [GA] = 0 und damit χ G = χA Damit ist (2) gezeigt, und (3) ergibt sich dann durch algebraische Induktion. 2 Schließlich u ¨ bertragen wir den Begriff der bedingten Unabh¨angigkeit auf Zufallsgr¨ oßen: aumen. Eine Familie {Xi }i∈I von Sei {(Ωi , Fi )}i∈I eine Familie von Messr¨ Zufallsgr¨ oßen Xi : Ω → Ωi heißt G–bedingt unabh¨angig, wenn die Familie angig ist. {σ(Xi )}i∈I G–bedingt unabh¨
442
Kapitel 19. Bedingte Wahrscheinlichkeit und bedingte Verteilung
Die in Abschnitt 11.3 bewiesenen Ergebnisse u ¨ ber die Unabh¨angigkeit einer Familie von Zufallsgr¨ oßen lassen sich weitgehend auf die bedingte Unabh¨angigkeit u ¨ bertragen. Eine Ausnahme bildet vorerst die in Satz 11.3.5 angegebene Charakterisierung der Unabh¨ angigkeit einer Familie von Zufallsgr¨oßen durch eine Eigenschaft ihrer gemeinsamen Verteilung; vgl. Abschnitt 19.3. Das folgende Ergebnis ist eine bedingte Version von Lemma 13.6.8: 19.2.8 Lemma. Sei {X, Y } G–bedingt unabh¨angig. Wenn X und Y G–bedingt integrierbar sind, dann ist auch XY G–bedingt integrierbar und es gilt covG (X, Y ) = 0. Beweis. F¨ ur G–bedingt unabh¨ angige Ereignisse A, B ∈ F gilt E G χA χB = E G χA∩B = PG A ∩ B = PG A PG B = E G χA E G χB Aus der Linearit¨ at der bedingten Erwartung und dem bedingten Satz u ¨ ber die monotone Konvergenz ergibt sich nun im Fall der Positivit¨at von X und Y die Gleichung E G (XY ) = E G (X) E G (Y ) und damit XY ∈ L1,G (F ) und covG (X, Y ) = 0. Im allgemeinen Fall folgt die Behauptung dann aus den Gleichungen (XY )+ = X + Y + + X − Y − und (XY )− = X + Y − + X − Y + . 2
19.3 Bedingte Verteilung Sei (Ω , F ) ein Messraum. Eine Abbildung K : F × Ω → [0, 1] heißt G– Markov–Kern, wenn (i) f¨ ur jedes ω ∈ Ω die Abbildung K( . , ω) : F → [0, 1] ein Wahrscheinlichkeitsmaß ist und (ii) f¨ ur jedes A ∈ F die Abbildung K(A , . ) : Ω → [0, 1] G–messbar ist. Im folgenden betrachten wir nur Markov–Kerne auf B(R) × Ω. Eine Abbildung F : R× Ω → [0, 1] heißt G–bedingte Verteilungsfunktion, wenn (i) f¨ ur jedes ω ∈ Ω die Abbildung F ( . , ω) : R → [0, 1] eine Verteilungsfunktion ist und (ii) f¨ ur jedes x ∈ R die Abbildung F (x, . ) : Ω → [0, 1] G–messbar ist. F¨ ur G–Markov–Kerne auf B(R) × Ω und G–bedingte Verteilungsfunktionen gilt der folgende bedingte Korrespondenzsatz:
19.3 Bedingte Verteilung
443
19.3.1 Satz (Korrespondenzsatz). (1) Zu jedem G–Markov–Kern K : B(R) × Ω → [0, 1] gibt es genau eine G–bedingte Verteilungsfunktion FK : R × Ω → [0, 1] mit FK (x, ω) = K((−∞, x], ω) f¨ ur alle x ∈ R und ω ∈ Ω. (2) Zu jeder G–bedingten Verteilungsfunktion FK : R × Ω → [0, 1] gibt es genau einen G–Markov–Kern KF : B(R)×Ω → [0, 1] mit KF ((−∞, x], ω) = F (x, ω) f¨ ur alle x ∈ R und ω ∈ Ω. (3) Es gilt K(FK ) = K und F(KF ) = F . Beweis. Sei zun¨achst K : B(R) × Ω → [0, 1] ein G–Markov–Kern und sei FK : R × Ω → [0, 1] gegeben durch FK (x, ω) := K((−∞, x], ω) Aus dem Korrespondenzsatz 12.1.1 folgt, dass f¨ ur jedes ω ∈ Ω die Abbildung F ( . , ω) eine Verteilungsfunktion ist, und aus der Definition ist unmittelbar klar, dass f¨ ur jedes x ∈ R die Abbildung F (x, . ) G–messbar ist. Daher ist FK eine G–bedingte Verteilungsfunktion. Sei nun FK : R × Ω → [0, 1]. Aus dem Korrespondenzsatz 12.1.1 folgt, dass es jedem ω ∈ Ω genau eine Verteilung Kω : B(R) → [0, 1] gibt mit Kω [(−∞, x]] = F (x, ω) f¨ ur alle x ∈ R. Sei nun K : B(R) × Ω → [0, 1] gegeben durch K(B, ω) := Kω [B] Dann ist f¨ ur jedes ω ∈ Ω die Abbildung K( . , ω) ein Wahrscheinlichkeitsmaß. Es bleibt zu zeigen, dass f¨ ur jedes B ∈ B(R) die Abbildung K(B, . ) G–messbar ist. Sei D := B ∈ B(R) K(B, . ) ist G–messbar und
E := (−∞, x] x ∈ R
Dann ist D ein Dynkin–System und E ∩–stabil mit E ⊆ D und σ(E) = B(R). Dann gilt aber B(R) = σ(E) = δ(E) ⊆ D. Daher ist in der Tat f¨ ur jedes B ∈ B(R) die Abbildung K(B, . ) G–messbar. Die u ¨ brigen Aussagen des Satzes ergeben sich wieder aus dem Korrespondenzsatz 12.1.1. 2 Ist X eine reelle Zufallsvariable, so heißt eine Abbildung K : B(R)×Ω → [0, 1] G–bedingte Verteilung von X, wenn (i) K ein G–Markov–Kern ist und (ii) f¨ ur alle B ∈ B(R) K(B, ω) = P G (X −1 (B))(ω) fast sicher gilt. Der folgende Satz zeigt, dass jede reelle Zufallsvariable eine im wesentlichen eindeutig bestimmte G–bedingte Verteilung besitzt:
444
Kapitel 19. Bedingte Wahrscheinlichkeit und bedingte Verteilung
19.3.2 Satz. Sei X eine reelle Zufallsvariable. Dann gilt: (1) X besitzt eine G–bedingte Verteilung (2) Sind K1 und K2 G–bedingte Verteilungen von X, so gilt K1 ( . , ω) = K2 ( . , ω) fast sicher. Beweis. F¨ ur alle r ∈ Q sei Hr eine Version der G–bedingten Wahrscheinlichur alle ω ∈ Ω sei Gω : Q → [0, 1] gegeben durch keit P G ({X ≤ r}) und f¨ Gω (r) := Hr (ω) Dann gibt es eine Nullmenge N derart, dass f¨ ur alle ω ∈ Ω \ N die Funktion Gω die folgenden Eigenschaften besitzt: (i) F¨ ur alle r, s ∈ Q gilt Gω (r) ≤ Gω (s). (ii) F¨ ur alle r ∈ Q und jede monoton fallende Folge {rn }n∈N ⊆ Q mit r = inf n∈N rn gilt Gω (r) = limn→∞ Gω (rn ). (iii) Es gilt inf r∈Q Gω (r) = 0 und supr∈Q Gω (r) = 1. Sei ferner FX : R → [0, 1] die Verteilungsfunktion von X und sei F : R × Ω → [0, 1] gegeben durch F (x, ω) :=
inf
r∈Q∩[x,∞)
Gω (r) χΩ\N (ω) + FX (x) χN (ω)
Dann ist f¨ ur alle ω ∈ Ω die Funktion F ( . , ω) eine Verteilungsfunktion, und an der Darstellung F (x, ω) =
inf
r∈Q∩[x,∞)
Hr (ω) χΩ\N (ω) + FX (x) χN (ω)
erkennt man, dass f¨ ur alle x ∈ R die Funktion F (x, . ) G–messbar ist. Daher ist F eine G–bedingte Verteilungsfunktion. Wir betrachten nun den zu F geh¨ origen G–Markov–Kern K. F¨ ur G ∈ G seien μG , νG : B(R) → [0, 1] gegeben durch ( μG [B] := χ{X∈B} (ω) dP (ω) G ( νG [B] := K(B, ω) dP (ω) G
F¨ ur alle x ∈ R erh¨ alt man unter Verwendung des bedingten Satzes u ¨ ber die monotone Konvergenz ( χ{X≤x} (ω) dP (ω) μG [(−∞, x]] = G ( = P G ({X ≤ x})(ω) dP (ω) G
19.3 Bedingte Verteilung
445
( =
inf G r∈Q∩[x,∞)
P G ({X ≤ r})(ω) dP (ω)
( =
inf
(G
r∈Q∩[x,∞)
Hr (ω) dP (ω)
F (x, ω) dP (ω)
= (G =
K((−∞, x], ω) dP (ω) G
= νG [(−∞, x]] ur alle B ∈ G gilt daher f¨ ur Aus dem Eindeutigkeitssatz folgt nun μG = νG . F¨ alle G ∈ G ( ( χ{X∈B} (ω) dP (ω) = K(B, ω) dP (ω) G
G
und aus der G–Messbarkeit von K(B, . ) folgt nun K(B, ω) = P G (B)(ω) fast sicher. Seien schließlich K1 und K2 G–bedingte Verteilungen von X. Dann gibt es eine Nullmenge N derart, dass f¨ ur alle ω ∈ Ω \ N und f¨ ur alle r ∈ Q K1 ((−∞, r], ω) = K2 ((−∞, r], ω) gilt. Sei ur alle ω ∈ Ω \ N D := B ∈ B(R) K1 (B, ω) = K2 (B, ω) f¨ und
E := (−∞, r] r ∈ Q
Dann ist D ein Dynkin–System, E ∩–stabil mit E ⊆ D und σ(E) = B(R), und es folgt B(R) = σ(E) = δ(E) ⊆ D. 2 Im folgenden bezeichnen wir die (fast sicher eindeutig bestimmte) G–bedingte G Verteilung einer reellen Zufallsvariablen X mit PX . Der folgende Satz vervollst¨ andigt die Eigenschaften der bedingten Erwartung: 19.3.3 Satz. Sei X eine positive oder G–bedingt integrierbare reelle Zufallsvariable und sei h : R → R messbar. Dann gilt ( G E G (h ◦ X) = h(x) dPX (x, . ) R
446
Kapitel 19. Bedingte Wahrscheinlichkeit und bedingte Verteilung
Beweis. F¨ ur alle B ∈ B(R) gilt E G (χB ◦ X) = E G (χ{X∈B} ) = P G ({X ∈ B}) G (B, . ) = PX ( G χB (x) dPX (x, . ) = R
Die Behauptung folgt nun durch algebraische Induktion.
2
Wir notieren abschließend zwei Folgerungen aus Satz 19.3.3; vgl. Aufgabe 19.3.D: 19.3.4 Folgerung. Sei X eine reelle Zufallsvariable und sei h : R → R messbar. Dann gilt f¨ ur alle B ∈ B(R) ( G G χB (h(x)) dPX (x, . ) P ({h ◦ X ∈ B}) = R
19.3.5 Folgerung. Sei X eine reelle Zufallsvariable und sei h : R → R messbar. Dann gilt f¨ ur alle B ∈ B(R) G G (B, ω) = PX (h−1 (B), ω) Ph◦X
Aufgaben 19.3.A Empirische Verteilung: Jede empirische Verteilung ist ein F–Markov– Kern. 19.3.B Empirische Verteilungsfunktion: Jede empirische Verteilungsfunktion ist eine F–bedingte Verteilungsfunktion. 19.3.C Bedingte Verteilung: Verallgemeinern Sie den Begriff der bedingten Verteilung auf den multivariaten Fall und verallgemeinern Sie Satz 19.3.2 auf Zufallsvektoren. Beweisen Sie außerdem eine bedingte Version von Satz 11.3.5. 19.3.D Beweisen Sie die Folgerungen 19.3.4 und 19.3.5.
19.4 Bedingte Dichte Ist K : B(R) × Ω → [0, 1] ein G–Markov–Kern und μ : B(R) → [0, ∞] ein σ– endliches Maß, so heißt eine Abbildung k : R × Ω → R+ G–bedingte μ–Dichte von K, wenn (i) f¨ ur jedes ω ∈ Ω die Abbildung k( . , ω) : R → [0, 1] eine μ–Dichte von K( . , ω) ist und (ii) f¨ ur jedes x ∈ R die Abbildung k(x, . ) : Ω → [0, 1] G–messbar ist. Wir zeigen die Existenz einer G–bedingten μ–Dichte von K in einem Spezialfall:
19.4 Bedingte Dichte
447
19.4.1 Satz. Sei (Ω , F ) ein Messraum und sei Θ : Ω → Ω eine Zufallsgr¨oße. Sei X eine reelle Zufallsvariable. Wenn es σ–endliche Maße μ : B(R) → [0, ∞] und ν : F → [0, ∞] sowie eine messbare Funktion h : R×Ω → R+ gibt derart, dass f¨ ur alle B ∈ B(R) und C ∈ F ( P [{X ∈ B} ∩ {Θ ∈ C}] = h(x, ϑ) d(μ ⊗ ν)(x, ϑ) B×C
gilt , dann besitzt die σ(Θ)–bedingte Verteilung von X eine σ(Θ)–bedingte μ–Dichte und es gilt ( h(x, Θ(ω)) σ(Θ) ) PX ( . , ω) = dμ(x) h(z, Θ(ω)) dμ(z) R fast sicher. Beweis. Nach Voraussetzung ist die Funktion f : R → [0, ∞] mit ( h(x, ϑ) dν(ϑ) f (x) := Ω
¯ + mit eine μ–Dichte von PX und die Funktion g : Θ → R ( g(ϑ) := h(x, ϑ) dμ(x) R
ist eine ν–Dichte von PΘ . Daher gilt g(ϑ) < ∞ ν–fast u ¨ berall. Die Abbildung ν : F → [0, ∞] mit ( ν[C] := χ{g>0} (ϑ) dν(ϑ) C
ist ein σ–endliches Maß mit ν[{g = 0}] = 0 und aus dem Satz von Fubini erh¨ alt man f¨ ur alle B ∈ B(R) und C ∈ F ( P [{X ∈ B} ∩ {Θ ∈ C}] = h(x, ϑ) d(μ ⊗ ν)(x, ϑ) B×C ( ( h(x, ϑ) dμ(x) dν(ϑ) = (C (B = h(x, ϑ) dμ(x) χ{g>0} (ϑ) dν(ϑ) (C (B = h(x, ϑ) dμ(x) d ν (ϑ) (C B = h(x, ϑ) d(μ ⊗ ν)(x, ϑ) B×C
und insbesondere
448
Kapitel 19. Bedingte Wahrscheinlichkeit und bedingte Verteilung
( f (x) dμ(x) = PX [B] B
= P [{X ∈ B} ∩ {Θ ∈ Ω }] ( = h(x, ϑ) d(μ ⊗ ν)(x, ϑ) (B×Ω ( = h(x, ϑ) d ν (ϑ) dμ(x) B
und damit
Ω
( f (x) =
h(x, ϑ) d ν (ϑ) Ω
μ–fast u onnen daher ohne Beschr¨ankung der Allgemeinheit an¨berall. Wir k¨ nehmen, dass auch g(ϑ) > 0 ν–fast u ¨berall gilt. Damit ist die Menge N := {g ∈ {0, ∞}} eine ν–Nullmenge und die Menge N := {g ◦ Θ ∈ {0, ∞}} ist wegen N := Θ−1 (N ) und ( −1 P [N ] = P [Θ (N )] = PΘ [N ] = g(ϑ) dν(ϑ) = 0 N
eine P –Nullmenge. Daher sind die Funktionen k : R × Ω → R+ mit h(x, ϑ) χΩ \N (ϑ) + f (x) χN (ϑ) h(z, ϑ) dμ(z) R
k (x, ϑ) := ) und k : R × Ω → R+ mit
h(x, Θ(ω)) χΩ\N (ω) + f (x) χN (ω) h(z, Θ(ω)) dμ(z) R
k(x, ω) := )
wohldefiniert. Die Funktionen k und k sind messbar und es gilt k(x, ω) = k (x, Θ(ω)) Sei nun K : B(R) × Ω → [0, 1] gegeben durch ( K(B, ω) = k(x, ω) dμ(x) B
Dann ist K ein Markov–Kern. Sei B ∈ B(R). Dann gilt f¨ ur alle C ∈ F ( ( ( K(B, ω) dP (ω) = k(x, ω) dμ(x) dP (ω) Θ−1 (C) Θ−1 (C) B ( ( = k (x, Θ(ω)) dP (ω) dμ(x) B Θ−1 (C) ( ( = k (x, ϑ) dPΘ (ϑ) dμ(x) B
C
19.4 Bedingte Dichte
449
( (
(
=
k (x, ϑ) B
h(z, ϑ) dμ(z) dν(ϑ) dμ(x) R
C
( ( =
h(x, ϑ) dν(ϑ) dμ(x) (
B
C
h(x, ϑ) d(μ ⊗ ν)(x, ϑ)
= B×C
= P [{X ∈ B} ∩ {Θ ∈ C}] ( = χ{X∈B} (ω) dP (ω) Θ−1 (C) ( = P σ(Θ) ({X ∈ B})(ω) dP (ω) Θ−1 (C)
und damit σ(Θ)
K(B, ω) = P σ(Θ) ({X ∈ B})(ω) = PX
(B, ω) σ(Θ)
fast sicher. Daher ist k eine σ(Θ)–bedingte μ–Dichte von PX
.
2
Der folgende Satz liefert eine Umkehrung der Aussage des letzten Satzes: 19.4.2 Satz. Sei (Ω , F ) ein Messraum und sei Θ : Ω → Ω eine Zufallsgr¨oße. Sei X eine reelle Zufallsvariable. Wenn es σ–endliche Maße μ : B(R) → [0, ∞] und ν : F → [0, ∞] sowie messbare Funktionen k : R+ × Ω → R+ und g : Ω → R+ gibt mit ( σ(Θ) PX ( . , ω) = k (x, Θ(ω)) dμ(x) fast sicher und
( PΘ =
g(ϑ) dν(ϑ)
dann gilt f¨ ur alle B ∈ B(R) und C ∈ F ( P [{X ∈ B} ∩ {Θ ∈ C}] = k (x, ϑ) g(ϑ) d(μ ⊗ ν)(x, ϑ) B×C
Beweis. Es gilt P σ(Θ) ({X ∈ B} ∩ {Θ ∈ C}) = χ{Θ∈C} P σ(Θ) ({X ∈ B}) ( = χ{Θ∈C} fX|Θ (x, Θ(ω)) dμ(x) B
und damit
450
Kapitel 19. Bedingte Wahrscheinlichkeit und bedingte Verteilung
P [{X ∈ B} ∩ {Θ ∈ C}] = E[P σ(Θ) ({X ∈ B} ∩ {Θ ∈ C})] ! ( ( = fX|Θ (x, Θ(ω)) dμ(x) dP (ω) χ{Θ∈C} B (Ω ( = k (x, Θ(ω)) dμ(x) dP (ω) Θ−1 (C) B ( ( k (x, Θ(ω)) dP (ω) dμ(x) = B Θ−1 (C) ( ( = k (x, ϑ) dPΘ (ϑ) dμ(x) (B (C = k (x, ϑ) g(ϑ) dν(ϑ) dμ(x) B C ( = k (x, ϑ) g(ϑ) d(μ ⊗ ν)(x, ϑ) B×C
2
Damit ist der Satz bewiesen.
Wir geben abschließend anhand eines Beispiels eine Anwendung der S¨atze u ¨ ber bedingte Dichten: 19.4.3 Beispiel. Sei Θ eine reelle Zufallsvariable mit PΘ = Ga(α, γ) und sei X σ(Θ) = P(Θ). Dann gilt f¨ ur alle B, C ∈ B(R) eine reelle Zufallsvariable mit PX Z X αγ e−(α+1)ϑ ϑγ+k−1 dλ(ϑ) P [{X ∈ B} ∩ {Θ ∈ C}] = Γ(γ) k! C∩(0,∞) k∈B∩N 0
Insbesondere gilt PX = NB(γ, 1/(α+1)) und σ(X)
PΘ
= Ga(α+1, γ +X)
In der Tat: Wegen Z PΘ [C] = C
αγ −αϑ γ−1 ϑ χ(0,∞) (ϑ) dλ(ϑ) e Γ(γ)
und
Z σ(Θ)
PX
e−Θ(ω)
(B, ω) = B
(Θ(ω))x χN0 (x) dζ(x) x!
gilt nach Satz 19.4.2 P [{X ∈ B} ∩ {Θ ∈ C}] Z αγ −αϑ γ−1 ϑx χN0 (x) e = e−ϑ ϑ χ(0,∞) (ϑ) d(ζ ⊗ λ)(x, ϑ) x! Γ(γ) B×C
19.5 Bedingte Gesetze der Großen Zahlen
451
Daraus folgt einerseits f¨ ur alle k ∈ N0 Z
αγ e−(α+1)ϑ ϑγ+k−1 χ(0,∞) (ϑ) dλ(ϑ) Γ(γ) k! R Z (α+1)γ+k −(α+1)ϑ γ+k−1 Γ(γ +k) αγ ϑ χ(0,∞) (ϑ) dλ(ϑ) = e γ+k Γ(γ) k! (α+1) R Γ(γ +k) Γ(γ +k) αγ = Γ(γ) k! (α+1)γ+k !„ «γ „ «k γ+k−1 1 α = α+1 α+1 k
P [{X = k}] =
und damit PX = NB(γ, 1/(α+1)), und andererseits ergibt sich aus Satz 19.4.1 αγ −αϑ γ−1 ϑX(ω) χN0 (X(ω)) e ϑ χ(0,∞) (ϑ) X(ω)! Γ(γ) σ(X) dλ(ϑ) PΘ (C, ω) = Z αγ −ατ γ−1 τ X(ω) C χN0 (X(ω)) e e−τ τ χ(0,∞) (τ ) dλ(τ ) X(ω)! Γ(γ) R γ (α+1) Z e−(α+1)ϑ ϑγ+X(ω)−1 χ(0,∞) (ϑ) Γ(γ +X(ω)) Z dλ(ϑ) = (α+1)γ C e−(α+1)τ τ γ+X(ω)−1 χ(0,∞) (τ ) dλ(τ ) R Γ(γ +X(ω)) Z (α+1)γ = e−(α+1)ϑ ϑγ+X(ω)−1 χ(0,∞) (ϑ) dλ(ϑ) C Γ(γ +X(ω)) Z
σ(X)
und damit PΘ
e−ϑ
= Ga(α+1, γ +X).
19.5 Bedingte Gesetze der Großen Zahlen Der folgende Satz ist eine bedingte Version des Null–Eins–Gesetzes 15.2.1: 19.5.1 Satz (Null–Eins–Gesetz). Sei {Xn }n∈N eine G–bedingt unabh¨angige Folge von Zufallsvariablen und sei
n n 1 1 Xk = lim sup Xk A := lim inf n→∞ n n→∞ n k=1
k=1
Dann gibt es eine G–messbare Zufallsvariable U mit 1 X k χA = U n→∞ n n
lim
k=1
fast sicher.
452
Kapitel 19. Bedingte Wahrscheinlichkeit und bedingte Verteilung
Beweis. Sei E∞ die terminale
nσ–Algebra der Folge {σ(Xk )}k∈N . Dann gilt A ∈ E∞ und die Folge {n−1 k=1 Xk χA } konvergiert fast sicher gegen eine E∞ –messbare Zufallsvariable. Aus dem bedingten Null–Eins–Gesetz von Kolmogorov folgt nun die Existenz eines Ereignisses G ∈ G mit χA = χG und die Existenz einer G–messbaren Zufallsvariablen U mit n 1 X k χA = U n→∞ n
lim
k=1
2
fast sicher. Sei
L2,G (F ) := [X]P ∈ L0 (F ) X =P Y f¨ ur ein Y mit E G (Y 2 ) < ∞
Dann gilt L2,G (F ) ⊆ L1,G (F ) Wir beweisen nun eine bedingte Version des 1. Gesetzes der Großen Zahlen. 19.5.2 Lemma (Ungleichung von Kolmogorov). Sei {Xk }k∈N eine G– bedingt unabh¨angige Folge in L2,G (F ). Dann gilt f¨ ur alle ε ∈ (0, ∞) und m ∈ N ∞ n 1 Xk − E G (Xk ) > ε varG (Xk ) sup PG ≤ 2 ε n∈N(m) k=m
k=m
Beweis. Der Beweis verl¨ auft mit einer kleinen Anpassung wie der Beweis von Lemma 15.2.2: Da im vorliegenden Fall die Zufallsvariablen nicht an ihrem Erwartungswert, sondern an ihrer G–bedingten Erwartung zentriert werden, ben¨ otigt man im Beweis die aus Satz 19.2.5 bekannte Tatsache, dass mit der Folge {Xk }k∈N auch die Folge {σ(σ(Xk )∪G)}k∈N G–bedingt unabh¨angig ist. 2 Das im Beweis von Lemma 19.5.2 verwendete Argument wird auch zum Beweis der folgenden bedingten Version von Lemma 15.2.3 ben¨otigt: angige Folge in L2,G (F ) 19.5.3 Lemma. k }k∈N eine G–bedingt unabh¨
∞Sei {X G und sei G := { k=1 var (Xk ) < ∞}. Dann konvergiert die Reihe ∞
Xk − E G (Xk ) χG
k=1
fast sicher gegen eine reelle Zufallsvariable. Aus dem Lemma ergibt sich sofort eine bedingte Version des 1. Gesetzes der Großen Zahlen:
19.5 Bedingte Gesetze der Großen Zahlen
453
19.5.4 Satz (1. Gesetz der Großen Zahlen; Kolmogorov). {Xk }k∈N eine G–bedingt unabh¨angige Folge in L2,G (F ) und sei
∞ 1 varG (Xk ) < ∞ G := k2
Sei
k=1
Dann gilt
n 1 Xk − E G (Xk ) χG = 0 n→∞ n
lim
k=1
fast sicher. Unter etwas st¨ arkeren Voraussetzungen erh¨ alt man neben der fast sicheren Konvergenz auch die Konvergenz in L2 (F ): 19.5.5 Folgerung (1. Gesetz der Großen Zahlen; Kolmogorov). Sei {Xk }k∈N eine G–bedingt unabh¨angige Folge in L2 (F ) mit sup E[varG (Xk )] < ∞ k∈N
Dann gilt
n 1 Xk − E G (Xk ) = 0 n→∞ n
lim
k=1
2
fast sicher und in L (F ). Eine Familie von Zufallsvariablen {Xi }i∈I heißt G–bedingt identisch verteilt , wenn alle Zufallsvariablen dieselbe G–bedingte Verteilung besitzen; in diesem G G = PX f¨ ur Fall bezeichnen wir mit X eine beliebige Zufallsvariable mit PX i alle i ∈ I und nennen X eine typische Zufallsvariable der Familie {Xi }i∈I . Mit geringf¨ ugigen Anpassungen des Beweises erh¨alt man auch eine bedingte Version des 2. Gesetzes der Großen Zahlen: 19.5.6 Satz (2. Gesetz der Großen Zahlen; Kolmogorov). Sei {Xk }k∈N eine G–bedingt unabh¨angige und G–bedingt identisch verteilte Folge in L1,G (F ). Dann gilt n 1 Xk − E G (Xk ) = 0 n→∞ n
lim
k=1
fast sicher. Schließlich erh¨ alt man aus dem 2. bedingten Gesetz der Großen Zahlen eine bedingte Version des Satzes von Glivenko/Cantelli:
454
Kapitel 19. Bedingte Wahrscheinlichkeit und bedingte Verteilung
19.5.7 Satz (Glivenko/Cantelli). Sei {Xk }k∈N eine G–bedingt unabh¨angige und G–bedingt identisch verteilte Folge von Zufallsvariablen und sei {Fn }n∈N die Folge der zugeh¨origen empirischen Verteilungsfunktionen. Dann gilt G lim sup Fn (x, ω) − FX (x, ω) = 0 n→∞ x∈R
fast sicher. Aufgaben 19.5.A F¨ uhren Sie die fehlenden Beweise aus. 19.5.B Formulieren und beweisen Sie geeignete bedingte Versionen der u ¨ brigen Ergebnisse aus Abschnitt 15.2. 19.5.C Jede G–bedingt identisch verteilte Familie von Zufallsvariablen ist identisch verteilt. 19.5.D Je zwei G–bedingt unabh¨ angige und G–bedingt identisch verteilte Zufallsvariablen sind positiv korreliert. 19.5.E Austauschbare Familien von Zufallsvariablen: Eine Familie von Zufallsvariablen {Xi }i∈I heißt austauschbar, wenn f¨ ur alle n ∈ N jede Familie {Xi }i∈J mit |J| = n dieselbe Verteilung besitzt. (1) Jede G–bedingt unabh¨ angige und G–bedingt identisch verteilte Familie von Zufallsvariablen ist austauschbar. (2) Jede austauschbare Familie von Zufallsvariablen ist identisch verteilt.
Anhang
A Fakult¨ at und Gamma–Funktion
¨ Wir geben hier einen Uberblick u ¨ ber die Eigenschaften von Fakult¨aten und der Gamma–Funktion und die daraus resultierenden Eigenschaften von Binomial– Koeffizienten und der Beta–Funktion.
A.1 Fakult¨ at und Binomial–Koeffizient F¨ ur n ∈ N0 sei n! :=
n−1
(n−j)
j=0
Die Zahl n! heißt n Fakult¨at . Damit gilt 0! = 1 und (n+1)! = (n+1) · n! Interpretation: n! ist die Anzahl der M¨ oglichkeiten, n unterscheidbare Objekte anzuordnen. F¨ ur α ∈ R und k ∈ N0 sei ! k−1 α−j α := k k−j j=0 Die Zahl αk heißt Binomial–Koeffizient α ¨ uber k. Damit gilt α0 = 1. F¨ ur n ∈ N0 und k ∈ N0 gilt ⎧ n! ! ⎨ falls k ≤ n n = k! (n−k)! ⎩ k 0 sonst und f¨ ur n ∈ N0 und k ∈ N0 mit k ≤ n gilt
466
Anhang A. Fakult¨ at und Gamma–Funktion
! n =1 0 ! ! n n = k n−k ! ! ! n+1 n n = + k+1 k k+1 n Durch vollst¨ andige Induktion ergibt sich k ∈ N0 und aus dem Binomischen Satz folgt ! n n = 2n k k=0 n oglichkeiten, k von n unterscheidbaren Interpretation: k ist die Anzahl der M¨ Objekten (ohne Ber¨ u cksichtigung der Reihenfolge) auszuw¨ahlen. Insbesondere ist nk die Anzahl der k–elementigen Teilmengen der Menge {1, . . . , n} und 2n ist die Anzahl aller Teilmengen der Menge {1, . . . , n}.
A.2 Gamma–Funktion und Beta–Funktion Die Funktion Γ : (0, ∞) → (0, ∞) mit ( ∞ e−z z γ−1 dz Γ(γ) := 0
heißt Gamma–Funktion. Es gilt √ Γ( 12 ) = π Γ(1) = 1 Γ(γ +1) = γ Γ(γ) Die letzte Gleichung heißt 5–Gamma–Formel. Insbesondere gilt f¨ ur n ∈ N0 Γ(n+1) = n! ! γ+n−1 Γ(γ +n) = Γ(γ) n! n Die Funktion B : (0, ∞) × (0, ∞) → (0, ∞) mit ( 1 B(α, β) := z α−1 (1−z)β−1 dz 0
heißt Beta–Funktion. Es gilt B(α, β) =
Γ(α) Γ(β) Γ(α + β)
B Vektorr¨ aume, Ordnung und Topologie
¨ Wir geben hier einen Uberblick u ¨ber die linearen, ordnungstheoretischen und topologischen Strukturen in einem Vektorraum. Alle Vektorr¨aume seien reell.
B.1 Vektorr¨ aume Im gesamten Abschnitt sei E ein Vektorraum. Eine Menge C ⊆ E heißt – konvex , wenn ax + by ∈ C f¨ ur alle x, y ∈ C und f¨ ur alle a, b ∈ R+ mit a+b = 1 gilt. – Kegel , wenn ax + by ∈ C f¨ ur alle x, y ∈ C und f¨ ur alle a, b ∈ R+ gilt. – affin, wenn ax+by ∈ C f¨ ur alle x, y ∈ C und f¨ ur alle a, b ∈ R mit a+b = 1 gilt. – linear , wenn ax + by ∈ C f¨ ur alle x, y ∈ C und f¨ ur alle a, b ∈ R gilt. Jede nichtleere lineare Teilmenge von E ist selbst ein Vektorraum und wird als Unterraum von E bezeichnet. Sei C ⊆ E. Eine Funktion h : C → R heißt – konvex , wenn f¨ ur alle x, y ∈ C und a, b ∈ R+ mit a+b = 1 und ax+by ∈ C h(ax+by) ≤ ah(x) + bh(y) –
gilt. konkav , wenn f¨ ur alle x, y ∈ C und a, b ∈ R+ mit a+b = 1 und ax+by ∈ C h(ax+by) ≥ ah(x) + bh(y)
gilt. Offenbar ist h genau dann konvex, wenn die Funktion −h : C → R mit (−h)(x) := −h(x) konkav ist.
468
Anhang B. Vektorr¨ aume, Ordnung und Topologie
Sei C ⊆ E und sei F ein Vektorraum. Eine Abbildung T : C → F heißt – linear , wenn f¨ ur alle x, y ∈ C und a, b ∈ R mit ax + by ∈ C T (ax+by) = aT (x) + bT (y) –
gilt. positiv linear , wenn f¨ ur alle x, y ∈ C und a, b ∈ R+ mit ax + by ∈ C T (ax+by) = aT (x) + bT (y)
–
gilt. affin, wenn es ein c ∈ F und eine lineare Abbildung S : C → F gibt mit T (x) = c + S(x)
f¨ ur alle x ∈ C. Eine lineare Abbildung h : C → R wird auch als Funktional bezeichnet.
B.2 Ordnung Sei E eine Menge. Eine Relation ≤ auf E heißt Ordnungsrelation (oder kurz Ordnung) auf E, wenn sie die folgenden Eigenschaften besitzt: (i) F¨ ur alle x ∈ E gilt x ≤ x (Reflexivit¨at ). (ii) F¨ ur alle x, y ∈ E mit x ≤ y und y ≤ x gilt x = x (Antisymmetrie). (iii) F¨ ur alle x, y, z ∈ E mit x ≤ y und y ≤ z gilt x ≤ z (Transitivit¨at ). In diesem Fall heißt (E, ≤) geordnete Menge. Sei (E, ≤) eine geordnete Menge. Die Ordnungsrelation ≤ heißt vollst¨andig, wenn f¨ ur alle x, y ∈ E mindestens eine der Eigenschaften x ≤ y und y ≤ x erf¨ ullt ist. In diesem Fall heißt (E, ≤) vollst¨andig geordnet . Sei (E, ≤) eine geordnete Menge. F¨ ur C ⊆ E heißt z ∈ E – Supremum von C, wenn einerseits x ≤ z f¨ ur alle x ∈ C gilt und andererseits z ≤ u f¨ ur jedes u ∈ E mit x ≤ u f¨ ur alle x ∈ C gilt; in diesem Fall schreiben wir z = sup C. – Infimum von C, wenn einerseits x ≥ z f¨ ur alle x ∈ C gilt und andererseits z ≥ u f¨ ur jedes u ∈ E mit x ≥ u f¨ ur alle x ∈ C gilt; in diesem Fall schreiben wir z = inf C. F¨ ur x, y ∈ E setzen wir im Fall der Existenz des Supremums bzw. des Infimums der Menge {x, y} x ∨ y := sup{x, y} x ∧ y := inf{x, y} Die geordnete Menge (E, ≤) heißt Verband , wenn f¨ ur alle x, y ∈ E das Supremum und das Infimum der Menge {x, y} existiert.
B.3 Topologie
469
Sei E ein Vektorraum und sei ≤ eine Ordnungsrelation auf E. Die geordnete Menge (E, ≤) heißt – geordneter Vektorraum, wenn f¨ ur alle x, y, z ∈ E und c ∈ R+ mit x ≤ y x+z ≤ y+z cx ≤ cy gilt. Vektorverband , wenn (E, ≤) ein geordneter Vektorraum und ein Verband ist. Ist (E, ≤) ein geordneter Vektorraum, so ist die Menge E+ := {x ∈ E | 0 ≤ x} ein Kegel, der als positiver Kegel von E (bez¨ uglich ≤) bezeichnet wird. Ist (E, ≤) ein Vektorverband, so existieren f¨ ur alle x ∈ E die Suprema –
x+ := x ∨ 0 x− := (−x) ∨ 0 |x| := x ∨ (−x) und man bezeichnet x+ als den Positivteil , x− als den Negativteil und |x| als den Betrag von x; es gilt x = x+ − x− und |x| = x+ + x− sowie x+ ∨ x− = |x| und x+ ∧ x− = 0. Ist (E, ≤) ein Vektorverband, so heißt ein Unterraum C ⊆ E – Unter–Vektorverband , wenn f¨ ur alle x, y ∈ C auch (f¨ ur das in E gebildete Supremum) x ∨ y ∈ C gilt. – Ideal , wenn f¨ ur alle x ∈ C und y ∈ E mit |x| ≤ |y| auch |x| ∈ C gilt. Jedes Ideal ist ein Unter–Vektorverband.
B.3 Topologie Sei E eine Menge. Eine Abbildung d : E × E → R+ heißt Metrik auf E, wenn sie die folgenden Eigenschaften besitzt: (i) F¨ ur alle x, y ∈ E gilt d(x, y) = 0 genau dann, wenn x = y gilt (Definitheit ). (ii) F¨ ur alle x, y ∈ E gilt d(x, y) = d(y, x) (Symmetrie). (iii) F¨ ur alle x, y, z ∈ E gilt d(x, z) ≤ d(x, y) + d(y, z) (Dreiecksungleichung). In diesem Fall heißt (E, d) metrischer Raum. Sei (E, d) ein metrischer Raum. Eine Folge {xn }n∈N ⊆ E heißt Cauchy–Folge, ur alle wenn es zu jedem ε ∈ (0, ∞) ein p ∈ N gibt mit d(xm , xn ) ≤ ε f¨ m, n ∈ N(p). Die Metrik d und damit auch der metrische Raum (E, d) heißt vollst¨andig, wenn es zu jeder Cauchy–Folge {xn }n∈N ⊆ E ein x ∈ E gibt mit limn→∞ d(xn , x) = 0. Sei E ein Vektorraum. Eine Abbildung . : E → R+ heißt Norm auf E, wenn sie die folgenden Eigenschaften besitzt:
470
Anhang B. Vektorr¨ aume, Ordnung und Topologie
(i) F¨ ur alle x ∈ E gilt x = 0 genau dann, wenn x = 0 gilt (Definitheit ). (ii) F¨ ur alle x ∈ E und c ∈ R gilt cx = |c| x (absolute Homogenit¨at ). (iii) F¨ ur alle x, y ∈ E gilt x+y ≤ x + y (Dreiecksungleichung). In diesem Fall heißt (E, . ) normierter Raum und eine Menge B ⊆ E heißt beschr¨ankt , wenn es ein c ∈ (0, ∞) gibt mit B ⊆ {x ∈ E | x ≤ c}. Sei (E, . ) ein normierter Raum. Dann ist die Abbildung d : E × E → R+ mit d(x, y) := x−y eine Metrik. Der normierte Raum (E, . ) heißt vollst¨andig, wenn der metrische Raum (E, d) vollst¨ andig ist. Ein vollst¨ andiger normierter Raum heißt Banach–Raum. Sei E ein Vektorraum. Eine Abbildung . , . : E × E → R heißt Skalarprodukt auf E, wenn sie die folgenden Eigenschaften besitzt: (i) F¨ ur alle x ∈ E gilt x, x ≥ 0. (ii) F¨ ur alle x ∈ E gilt x, x = 0 genau dann, wenn x = 0 gilt (Definitheit ). (iii) F¨ ur alle x, y ∈ E gilt x, y = y, x (Symmetrie). (iv) F¨ ur alle x, y ∈ E und c ∈ R gilt cx, y = c x, y (Homogenit¨at ). (v) F¨ ur alle x, y, z ∈ E gilt x+y, z = x, z + y, z (Additivit¨at ). In diesem Fall heißt (E, . , .) Raum mit Skalarprodukt . Sei (E, . , .) ein Raum mit Skalarprodukt. Dann gilt f¨ ur alle x, y ∈ E x, y2 ≤ x, xy, y (Ungleichung von Cauchy/Schwarz ). Aus dieser Ungleichung folgt, dass die Abbildung . : E → R+ mit x := x, x1/2 eine Norm ist. Der Raum mit Skalarprodukt (E, . , .) heißt vollst¨andig, wenn der normierte Raum (E, . ) vollst¨ andig ist. Ein vollst¨andiger Raum mit Skalarprodukt heißt Hilbert–Raum.
B.4 Ordnung und Topologie Sei E ein Vektorraum und sei ≤ eine Ordnungsrelation und . eine Norm auf E derart, dass – (E, ≤) ein Vektorverband ist, – (E, . ) ein Banach–Raum ist, und – x ≤ y f¨ ur alle x, y ∈ E mit |x| ≤ |y| gilt. Dann heißt (E, ≤, . ) Banach–Verband . Ein Banach–Verband, dessen Norm durch ein Skalarprodukt induziert wird, heißt Hilbert–Verband .
C Der Euklidische Raum
¨ Wir geben hier einen Uberblick u ¨ber die linearen, ordnungstheoretischen und topologischen Strukturen des Euklidischen Raumes.
C.1 Vektoren und Matrizen Wir bezeichnen mit Rm den reellen Vektorraum aller (Spalten–)Vektoren ⎞ ⎛ x1 ⎟ ⎜ x = ⎝ ... ⎠ xm (mit der koordinatenweise definierten Addition und Skalarmultiplikation). Wir bezeichnen das neutrale Element der Addition mit 0 und nennen 0 den Nullvektor . Mit Hilfe der Einheitsvektoren e1 , . . . , em ∈ Rm l¨asst sich jeder Vektor x ∈ Rm in der Form x=
m
xi ei
i=1
darstellen. Wir setzen 1 :=
m
ei
i=1
und nennen 1 den Einsvektor . Wir bezeichnen mit Rm×n den reellen Vektorraum aller Matrizen ⎞ ⎛ a11 · · · a1n ⎜ .. ⎟ A = ⎝ ... . ⎠ am1 · · · amn
472
Anhang C. Der Euklidische Raum
(mit der koordinatenweise definierten Addition und Skalarmultiplikation). Wir bezeichnen das neutrale Element der Addition mit O und nennen O die Nullmatrix . F¨ ur eine Matrix A ∈ Rm×n mit A = (aij )i=1,...,m, j=1,...,n heißt die Matrix A ∈ Rn×m mit A := (aji )j=1,...,n, i=1,...,m die zu A transponierte Matrix . Eine Abbildung T : Rn → Rm ist – genau dann linear, wenn es eine Matrix D ∈ Rm×n gibt mit T (x) = Dx. – genau dann affin, wenn es einen Vektor c ∈ Rm und eine Matrix D ∈ Rm×n gibt mit T (x) = c + Dx. Ist T : Rn → Rm eine lineare Abbildung und D ∈ Rm×n eine Matrix mit T (x) = Dx, so sind die Spaltenvektoren der Matrix D gerade die Bilder der Einheitsvektoren des Rn unter T . Wir betrachten nun den Fall m = n. Wir bezeichnen das neutrale Element der Matrizenmultiplikation in Rm×m mit I und nennen I die Einheitsmatrix . Eine Matrix A ∈ Rm×m heißt invertierbar , wenn es eine Matrix B ∈ Rm×m gibt mit AB = I oder BA = I; in diesem Fall gelten sogar beide Gleichungen und die Matrix B ist eindeutig bestimmt und wird als Inverse von A und mit A−1 bezeichnet. Eine Matrix A ∈ Rm×m heißt singul¨ar , wenn sie nicht invertierbar ist. Eine Matrix A ∈ Rm×m heißt – Permutationsmatrix , wenn sie in jeder Zeile und in jeder Spalte genau eine Eins und ansonsten nur Nullen enth¨ alt. – Orthogonalmatrix , wenn A A = I gilt. Jede Permutationsmatrix ist eine Orthogonalmatrix, und jede Orthogonalmatrix ist invertierbar. F¨ ur k, l ∈ {1, . . . , m} sei die Matrix F(kl) ∈ Rm×m definiert durch 1 falls (i, j) = (k, l) (kl) fij := 0 sonst Eine Matrix A ∈ Rm×m heißt Elementarmatrix , wenn es – eine Matrix F(kl) gibt mit k = l und A = I + F(kl) oder – eine Matrix F(kk) und ein c ∈ R \ {0} gibt mit A = I + (c−1)F(kk) . Jede Elementarmatrix ist invertierbar.
C.2 Ordnung
473
C.1.1 Proposition. F¨ ur eine Matrix A ∈ Rm×m sind ¨aquivalent : (a) A ist invertierbar. (b) A ist ein Produkt von Elementarmatrizen. (c) A ist ein Produkt von Permutationsmatrizen und Elementarmatrizen der Form I + F(12) oder I + (c−1)F(11) mit c ∈ R \ {0}. ¨ F¨ ur einen Beweis der Aquivalenz von (a) und (b) in Proposition C.1.1 vgl. ¨ Koecher [1997; Kapitel 2, §6, Satz A]; die Aquivalenz von (b) und (c) ist dann klar. Eine Matrix A ∈ Rm×m heißt – symmetrisch, wenn A = A gilt. – positiv semidefinit , wenn x Ax ≥ 0 f¨ ur alle x ∈ Rm gilt. ur alle x ∈ Rm \{0} gilt. – positiv definit , wenn x Ax > 0 f¨ Eine symmetrische Matrix ist genau dann positiv definit, wenn sie positiv semidefinit und invertierbar ist. C.1.2 Proposition. F¨ ur eine Matrix A ∈ Rm×m sind ¨aquivalent : (a) A ist symmetrisch und positiv semidefinit. (b) Es gibt eine Matrix B ∈ Rm×m mit A = B B. F¨ ur einen Beweis von Proposition C.1.2 vgl. Harville [1997; Corollary 14.3.10]. C.1.3 Proposition. F¨ ur eine Matrix A ∈ Rm×m sind ¨aquivalent : (a) A ist symmetrisch und positiv definit. (b) Es gibt eine invertierbare Matrix B ∈ Rm×m mit A = B B. F¨ ur einen Beweis von Proposition C.1.3 vgl. Harville [1997; Corollary 14.3.13]. Eine Abbildung T : Rm → Rm heißt Bewegung, wenn es einen Vektor c ∈ Rm und eine Orthogonalmatrix D ∈ Rm gibt mit T (x) = c + Dx.
C.2 Ordnung F¨ ur x, y ∈ Rm schreiben wir x≤y wenn f¨ ur alle i ∈ {1, . . . , m} xi ≤ yi gilt. Dann ist ≤ eine Ordnungsrelation und (Rm , ≤) ist ein Vektorverband. Die Ordnungsrelation ≤ heißt koordinatenweise Ordnung auf Rm .
474
Anhang C. Der Euklidische Raum
C.3 Topologie Die Abbildung . , . : Rm ×Rm → R mit x, y := x y =
m
xi yi
i=1
ist ein Skalarprodukt und heißt Euklidisches Skalarprodukt. Der Raum mit Skalarprodukt (Rm , . , .) heißt m–dimensionaler Euklidischer Raum. Die Abbildung . : Rm → R+ mit 1/2
x := x, x
=
m
1/2 x2i
i=1
ist eine Norm und heißt Euklidische Norm. Die Euklidische Norm ist zu jeder aquivalent. Norm auf Rm ¨ Die Abbildung d : Rm ×Rm → R+ mit d(x, y) := x−y ist eine Metrik und heißt Euklidische Metrik . Der metrische Raum (Rm , d) ist vollst¨ andig. Daher ist (Rm , . ) ein Banach– m Raum und (R , . , .) ist ein Hilbert–Raum. C.3.1 Proposition (Heine/Borel). F¨ ur K ⊆ Rm sind folgende Aussagen ¨aquivalent : (a) K ist beschr¨ankt und bez¨ uglich der Normtopologie abgeschlossen. (b) K ist bez¨ uglich der Normtopologie kompakt.
C.4 Ordnung und Topologie Der Euklidische Raum (Rm , ≤, . ) ist ein Banach–Verband (und sogar ein Hilbert–Verband).
Literaturverzeichnis
Aliprantis, C. D., and Burkinshaw, O. [1990]: Principles of Real Analysis. Boston: Academic Press. Bauer, H. [1990]: Maß– und Integrationstheorie. Berlin – New York: DeGruyter. Bauer, H. [1991]: Wahrscheinlichkeitstheorie. Berlin – New York: DeGruyter. Behrends, E. [1987]: Maß– und Integrationstheorie. Berlin – Heidelberg – New York: Springer. Billingsley, P. [1995]: Probability and Measure. Third Edition. New York – Chichester: Wiley. Dudley, R. M. [1989]: Real Analysis and Probability. Pacific Grove (California): Wadsworth & Brooks/Cole. Elstrodt, J. [1996]: Maß– und Integrationstheorie. Berlin – Heidelberg – New York: Springer. Forster, O. [1983]: Analysis 1. Braunschweig: Vieweg. Halmos, P. R. [1974]: Measure Theory. Berlin – Heidelberg – New York: Springer. Harville, D. A. [1997]: Matrix Algebra from a Statistician’s Perspective. Berlin – Heidelberg – New York: Springer. Johnson, N. L., Kotz, S., and Balakrishnan, N. [1994]: Continuous Univariate Distributions. Volume 1. New York: Wiley. Johnson, N. L., Kotz, S., and Balakrishnan, N. [1995]: Continuous Univariate Distributions. Volume 2. New York: Wiley. Johnson, N. L., Kotz, S., and Balakrishnan, N. [1997]: Discrete Multivariate Distributions. New York: Wiley. Johnson, N. L., Kotz, S., and Kemp, A.W. [1992]: Univariate Discrete Distributions. New York: Wiley. Koecher, M. [1997]: Lineare Algebra und Analytische Geometrie. Vierte Auflage. Berlin – Heidelberg – New York: Springer. Kolmogorov, A. N. [1933]: Grundbegriffe der Wahrscheinlichkeitsrechnung. Berlin – Heidelberg – New York: Springer. K¨ onig, H. [1997]: Measure and Integration. Berlin – Heidelberg – New York: Springer.
476
Literaturverzeichnis
Kotz, S., Balakrishnan, N., and Johnson, N. L. [2000]: Continuous Multivariate Distributions. Volume 1. New York: Wiley. Krengel, U. [2002]: Einf¨ uhrung in die Wahrscheinlichkeitstheorie und Statistik. Braunschweig – Wiesbaden: Vieweg. M¨ uller, P. H. (Hrsg.) [1991]: Wahrscheinlichkeitstheorie und Mathematische Statistik – Lexikon der Stochastik. Berlin: Akademie–Verlag. Neveu, J. [1972]: Martingales a ` Temps Discret. Paris: Masson. Schaefer, H. H. [1974]: Banach Lattices and Positive Operators. Berlin – Heidelberg – New York: Springer. Schmidt, K. D. [1996]: Lectures on Risk Theory. Stuttgart: Teubner. Schmidt, K. D. [2006]: Versicherungsmathematik. Berlin – Heidelberg – New York: Springer. Schmitz, N. [1996]: Vorlesungen ¨ uber Wahrscheinlichkeitstheorie. Stuttgart: Teubner. Schubert, H. [1971]: Topologie. Stuttgart: Teubner. Walter, W. [1990]: Analysis I. Berlin – Heidelberg – New York: Springer.
Symbolverzeichnis
Zahlenbereiche C N N0 N(n) Q R R+ ¯ R Rm Z
die Menge der komplexen Zahlen die Menge {1, 2, . . . } die Menge {0, 1, 2, . . . } die Menge {n, n+1, n+2, . . . } die Menge der rationalen Zahlen die Menge der reellen Zahlen die Menge [0, ∞) der positiven reellen Zahlen die Menge der erweiterten reellen Zahlen der m–dimensionale Euklidische Raum die Menge der ganzen Zahlen
Reelle Zahlen x∨y x∧y x+ x− |x|
:= max{x, y} (Maximum von x, y ∈ R) := min{x, y} (Minimum von x, y ∈ R) := x ∨ 0 (Positivteil von x ∈ R) := (−x) ∨ 0 (Negativteil von x ∈ R) := x ∨ (−x) (Betrag von x ∈ R)
Vektoren 0 1 ei x
Nullvektor des Euklidischen Raumes Einsvektor des Euklidischen Raumes Einheitsvektor des Euklidischen Raumes Vektor des Euklidischen Raumes
Matrizen O I A A−1
Nullmatrix Einheitsmatrix Transponierte der Matrix A Inverse einer invertierbaren Matrix A
478
Symbolverzeichnis
Mengen χA 2A A |A| {ai }i∈I ⊆ A Q Pi∈I Ai i∈I Ai k A AI A\B AB
Indikatorfunktion der Menge A Potenzmenge der Menge A Komplement der Menge A (wenn die Grundmenge klar ist) Anzahl der Elemente der Menge A Familie von Elementen aus der Menge A Produkt der Familie {Ai }i∈I Vereinigung einer disjunkten Familie {Ai }i∈I Q := Qki=1 A := i∈I A := A ∩ B (Differenz) := (A \ B) ∪ (B \ A) (symmetrische Differenz)
Mengensysteme δ(E )
(E ) σ(E ) τ (E ) B(R) ¯ B(R) B(Rm ) H(I)
das von E erzeugte Dynkin–System der von E erzeugte Ring die von E erzeugte σ–Algebra die von E erzeugte Topologie Borelsche σ–Algebra auf R ¯ Borelsche σ–Algebra auf R Borelsche σ–Algebra auf Rm Familie der endlichen Teilmengen von I
Maße δz ζ ζC λ μ+ μ− μf μν μ⊥ν
Dirac–Maß Z¨ ahlmaß lokales Z¨ ahlmaß Lebesgue–Maß Positivteil von μ Negativteil von μ Bildmaß von μ unter f μ ist ν–stetig μ und ν sind singul¨ ar
Messbare Funktionen L0 (F) L0 (F, μ) Lpμ (F) L∞ (F) =μ [f ]μ L0 (F, μ) Lp (F, μ) L∞ (F, μ)
F–messbare reelle Funktionen μ–fast u ¨ berall F–messbare numerische Funktionen p–fach μ–integrierbare F–messbare reelle Funktionen beschr¨ ankte F–messbare Funktionen ¨ Aquivalenzrelation auf L0 (F, μ) ¨ Aquivalenzklasse von L0 (F, μ) bez¨ uglich =μ , die f enth¨ alt 103 136 106
Symbolverzeichnis
479
Wahrscheinlichkeitstheorie P [A] E[X] var [X] cov [X, Y ] CX FX GX mX MX PX ψX
Wahrscheinlichkeit von A Erwartungswert von X Varianz von X Kovarianz von X und Y kumulantenerzeugende Funktion von X Verteilungsfunktion von X ¨ Uberlebensfunktion von X wahrscheinlichkeitserzeugende Funktion von X momenterzeugende Funktion von X Verteilung von X charakteristische Funktion von X
Bedingte Wahrscheinlichkeit nach einem Ereignis P [A|C] E[X|C]
bedingte Wahrscheinlichkeit von A unter C bedingter Erwartungswert von X unter C
Bedingte Wahrscheinlichkeit nach einer Unter–σ–Algebra P G (A) E G (X) varG (X) covG (X, Y ) G PX L0 (F, G) L1,G (F)
bedingte bedingte bedingte bedingte bedingte 410 417
Wahrscheinlichkeit von A unter G Erwartung von X unter G Varianz von X unter G Kovarianz von X und Y unter G Verteilung von X unter G
Verteilungen δz χ2n tn B(ϑ) B(n, ϑ) Be(α, β) Ca(α, β) Dir(η, η) Exp(α) Ga(α, γ) Geo(n, ϑ) H(n, N, K) Log(ϑ) M(n, ϑ) N(μ, σ 2 ) N(μ, Σ) NB(α, ϑ)
Dirac–Verteilung χ2 –Verteilung t–Verteilung Bernoulli–Verteilung Binomial–Verteilung Beta–Verteilung Cauchy–Verteilung Dirichlet–Verteilung Exponential–Verteilung Gamma–Verteilung geometrische Verteilung hypergeometrische Verteilung logarithmische Verteilung Multinomial–Verteilung Normal–Verteilung Normal–Verteilung Negativbinomial–Verteilung
480 NM(α, ϑ) P(α) Pa(α, β) Pa∗ (α, β) PE(n, η, η) PH(n, N, K) P´ olya(n, α, β) U(a, b) U(C)
Symbolverzeichnis Negativmultinomial–Verteilung Poisson–Verteilung Pareto–Verteilung europ¨ aischer Art Pareto–Verteilung amerikanischer Art P´ olya/Eggenberger–Verteilung polyhypergeometrische Verteilung P´ olya–Verteilung uniforme Verteilung uniforme Verteilung
Spezielle Funktionen B Γ Φ
Beta–Funktion Gamma–Funktion Verteilungsfunktion der Standardnormal–Verteilung
Sachverzeichnis
∩–stabiles Mengensystem, 17 ∪–stabiles Mengensystem, 19 ∅–stetig, 51 Abbildung affine, 468 lineare, 468 messbare, 29, 30, 40 positiv lineare, 468 stetige, 27–29, 36 abgeschlossene Menge, 8 abgeschlossenes Intervall, 20, 21 abh¨ angige Ereignisse, 221 Abschluss, 13 absolut homogen, 470 absolutes Moment, 281 absolutstetige Verteilung, 255, 297 absolutstetige Verteilungen (Beispiele), 256, 272, 278, 281, 287, 298, 306, 311, 317, 320, 322, 325, 326, 329, 378, 381–383 absolutstetiges Maß, 155 abz¨ ahlbare Menge, 8 adaptierte Folge, 428 additive Mengenfunktion, 43 affine Abbildung, 468 affine Menge, 467 Algebra, 24 algebraische Induktion, 109 Anzahl der g¨ unstigen F¨ alle, 198 Anzahl der m¨ oglichen F¨ alle, 198 Approximationssatz Filtration, 429 messbare Funktionen, 98–100
messbare Mengen, 70, 100 aquivalente Maße, 162 ¨ aquivalente Mengen, 48 ¨ aquivalente Normen, 11 ¨ Ausfallrate, 266 außeres Maß, 65 ¨ austauschbar, 454 Banach–Raum, 470 Banach–Verband, 470 Basis, 12 bedingt identisch verteilt, 453 bedingt integrierbar, 417 bedingt quasiintegrierbar, 416, 425 bedingt unabh¨ angige Ereignisse, 438 Ereignissysteme, 439 Zufallsgr¨ oßen, 441 bedingt unkorreliert, 424 bedingte Dichte, 446 bedingte Erwartung, 409–411, 416, 417 endliche, 417 Version, 411, 416, 417 bedingte Kovarianz, 424, 426 bedingte Unabh¨ angigkeit, 438 bedingte Varianz, 422 bedingte Verteilung, 435, 442, 443, 446 bedingte Verteilungsfunktion, 442 bedingte Wahrscheinlichkeit, 220, 435 bedingter Erwartungswert, 285 bedingtes Gesetz der Großen Zahlen, 451, 453 bedingtes Wahrscheinlichkeitsmaß, 220
482 Bernoulli–Irrfahrt, 366 Bernoulli–Verteilung, 254 beschr¨ ankte Menge, 470 beschr¨ ankte Mengenfunktion, 61 Beta–Funktion, 186, 466 Beta–Verteilung, 256, 278, 282, 287 Betrag, 100, 469 Bewegung, 473 Bewegungsinvarianz, 88 Bild, 25 Bild–σ–Algebra, 32 Bildmaß, 79 Bildtopologie, 29 Binomial–Koeffizient, 465 Binomial–Moment, 372 Binomial–Verteilung, 254, 277, 287, 315, 318, 370, 375, 376, 383 gemischte, 265 Blocklemma, 233, 236, 238, 241, 441 Boole–Verteilung, 254 Borel–Menge, 15 Borel/Cantelli Lemma, 227, 437 Borelsche σ–Algebra, 15 auf R, 24 ¯ 15, 22, 24 auf R, auf Rn , 15, 20, 24, 39 Borelsches Null–Eins–Gesetz, 228, 439 χ2 –Verteilung, 257, 272, 318 Cantor–Funktion, 261 Cantor–Menge, 78 Cantor–Verteilung, 258, 261 Cauchy–Folge, 469 Cauchy–Verteilung, 266, 273, 283 charakteristische Funktion, 383, 389 Copula, 299 Darstellungssatz, 262 David schl¨ agt Goliath, 419, 420, 426 Definitheit, 470 Dichte, 149 bedingte, 446 Differentiationslemma, 133 Dirac–Maß, 49 Dirac–Verteilung, 253, 296 Dirichlet–Funktion, 31, 103, 121, 185 Dirichlet–Verteilung, 298, 307, 308, 312, 320, 322, 325, 326, 329 disjunkte Familie, 8
Sachverzeichnis diskrete Verteilung, 251, 295 diskrete Verteilungen (Beispiele), 253, 277, 287, 296, 304, 311, 314, 315, 320, 321, 324, 326, 328, 370, 375, 376, 383 diskreter Wahrscheinlichkeitsraum, 196 Dynkin–System, 16 Eindeutigkeitssatz charakteristische Funktion, 388 Maßfortsetzung, 63 wahrscheinlichkeitserzeugende Funktion, 372 eindimensionale Randverteilung, 303 einfache Funktion, 96 Einheitsmatrix, 472 Einheitsvektor, 471 Einschluss–Ausschluss–Formel, 48 Einsvektor, 471 Elementarereignis, 195 Elementarmatrix, 472 empirische Verteilung, 357, 446 Verteilungsfunktion, 353, 446 endlich additive Mengenfunktion, 43 endlich subadditive Mengenfunktion, 46 endliche bedingte Erwartung, 417 endliche Mengenfunktion, 47, 61 endlicher Erwartungswert, 274 endlicher Maßraum, 101, 143 Ereignis, 195 sicheres, 195 terminales, 234 unm¨ ogliches, 195 Ereignisse abh¨ angige, 221 bedingt unabh¨ angige, 438 paarweise unabh¨ angige, 229 unabh¨ angige, 219, 220, 224 Ereignissystem, 195 Ereignissysteme bedingt unabh¨ angige, 439 paarweise unabh¨ angige, 236 unabh¨ angige, 229, 230 Ergebnis, 195 Ergebnismenge, 195 Erlang–Verteilung, 257, 318 erstes Gesetz der Großen Zahlen, 345, 346, 353, 453
Sachverzeichnis Erwartung bedingte, 409–411, 416, 417 einer Zufallsmatrix, 320 eines Zufallsvektors, 319 Erwartungswert, 274 bedingter, 285 endlicher, 274 erzeugende Funktion, 369 charakteristische, 383 kumulantenerzeugende, 381 momenterzeugende, 378 wahrscheinlichkeitserzeugende, 370 Erzeuger einer σ–Algebra, 15 Erzeuger einer Topologie, 10 Erzeuger eines Dynkin–Systems, 16 Erzeuger eines Ringes, 22 erzeugte σ–Algebra, 15, 30 erzeugte Topologie, 9, 10, 13, 27 erzeugter Ring, 22 erzeugtes Dynkin–System, 16 Euklidische Metrik, 474 Euklidische Norm, 474 Euklidischer Raum, 471, 474 Euklidisches Skalarprodukt, 474 Existenzsatz Maß, 67, 68 Produktmaß, 170 Exponential–Verteilung, 257, 266, 380 Exzess, 291 F –Verteilung, 266 Faktorisierungssatz, 99, 412, 426 Fakult¨ at, 465 Faltung, 318 Faltungsformel, 315, 317, 376 fast u ¨ berall, 101 fast u ¨ berall Cauchy, 102 fast u ¨ berall definiert, 101 fast u ¨ berall endlich, 101 fast u ¨ berall gleich, 101 fast u ¨ berall konstant, 101 fast u ¨ berall konvergent, 101 fast u ¨ berall reell, 101 fast u ¨ berall stetig, 102 fast sicher, 331 fast sicher konvergent, 331 Filtration, 428, 434 Folge adaptierte, 428
483 integrierbare, 429 p–fach summierbare, 143 positive, 429 stochastische, 197, 264 Folgenraum, 142 Formel von der totalen Wahrscheinlichkeit, 228 Poincar´e, 48 Fortsetzung eines Maßes, 63 Fourier–Entwicklung, 411, 425, 436 Fr´echet–Schranken, 300 Freiheitsgrad, 257, 258 Funktion, 109 Beta–, 186, 466 Cantor–, 261 charakteristische, 383, 389 Dirichlet–, 31, 103, 121, 185 einfache, 96 erzeugende, 369 fast u ¨ berall stetige, 102 Gamma–, 186, 466 Heaviside–, 253, 296 integrierbare, 123, 124, 131, 166 integrierbare komplexe, 135 komplexe, 100 konkave, 467 konstante, 92 konvexe, 467 kumulantenerzeugende, 381, 382 messbare, 92 messbare komplexe, 100 messbare numerische, 92 messbare reelle, 95 momenterzeugende, 378, 381 monotone, 31 numerische, 91 p–fach integrierbare, 135, 145 permutierbare, 358 positiv definite, 462 quadratisch integrierbare, 143 quasiintegrierbare, 124, 134 reelle, 91 Riemann–integrierbare, 182 uneigentlich, 185 symmetrische, 462 wahrscheinlichkeitserzeugende, 370, 378 Funktional, 468
484 Gamma–Funktion, 186, 466 Gamma–Verteilung, 257, 278, 282, 287, 318, 378, 381–383 Gauß–Prozess, 462 Gauß–Verteilung, 258 gemischte Binomial–Verteilung, 265 gemischte Multinomial–Verteilung, 300 gemischte Poisson–Verteilung, 265 geometrische Verteilung, 255, 264, 273, 278, 287, 377 geordnete Menge, 468 geordneter Vektorraum, 469 Gesetz der Großen Zahlen, 337 bedingtes, 451, 453 erstes, 345, 346, 353, 453 schwaches, 337, 338, 340 starkes, 341, 345–347, 353, 453 zweites, 347 Gompertz–Verteilung, 267 Graph, 35, 38, 40 Hahn–Zerlegung, 60, 62, 162 halboffenes Intervall, 20, 21 Halbraum, 72 Halbring, 20, 35 ¯ 21 der halboffenen Intervalle auf R, der halboffenen Intervalle auf Rn , 20 H¨ aufigkeit, 340 Hausdorff–Raum, 13 Heaviside–Funktion, 253, 296 Hilbert–Raum, 470 Hilbert–Verband, 470 Hyperebene, 84 hypergeometrische Verteilung, 253, 277, 287 Ideal, 24, 469 identisch verteilt, 347 Imagin¨ arteil, 100 Indikatorfunktion, 92 Infimum, 468 Inhalt, 43 Inneres, 13 Integral, 110, 115, 122, 124, 131, 135 unbestimmtes, 148, 149 integralinduziertes Maß, 148 integralinduziertes signiertes Maß, 148 integrierbar, 123, 124, 131, 135, 166 bedingt, 417
Sachverzeichnis integrierbare Folge, 429 integrierbare komplexe Funktion, 135 ¨ integrierte Uberlebensfunktion, 284 Intervall, 20, 21 Inverse einer Matrix, 472 invertierbare Matrix, 472 Irrfahrt, 357 Bernoulli–, 366 Jensensche Ungleichung, 128, 280, 426 Jordan–Zerlegung, 58, 62 k–σ–Bereich, 290 kartesisches Produkt, 34 Kegel, 467 positiver, 469 Kettenregel, 150, 155 Kolmogorovsche σ–Algebra, 39 Kolmogorovsches Null–Eins–Gesetz, 234–236, 441 kompakte Menge, 8 komplexe Funktion, 100 integrierbare, 135 Komposition, 28, 30 konkave Funktion, 467 konstante Funktion, 92 Konvergenz, 331 fast u ¨ berall, 101 fast sichere, 331 im Maß, 104 lokale, 107 im Mittel, 131 im p–ten Mittel, 142, 335 im quadratischen Mittel, 142 in Verteilung, 397 mit Wahrscheinlichkeit Eins, 332 punktweise, 91 schwache, 391–393, 395 stochastische, 333 konvexe Funktion, 467 konvexe Menge, 467 Koordinate, 33 einer Zufallsmatrix, 320 koordinatenweise Ordnung, 473 Korrekturfaktor, 287 Korrelationskoeffizient, 328, 329 Korrespondenzsatz bedingter, 443 multivariater, 294
Sachverzeichnis univariater, 246 Kovarianz, 323, 329 bedingte, 424, 426 von Zufallsvektoren, 329 Kovarianz–Zerlegung, 428 Kroneckers Lemma, 345 Kugel offene, 9, 13 kumulantenerzeugende Funktion, 381, 382 Lp –Raum, 135 Laplace–Experiment, 198 Lebensversicherungsmathematik, 229 Lebesgue–Dichte, 255, 297 Lebesgue–Integral, 109, 110, 115, 122, 124, 131, 135 Lebesgue–integrierbar, 124, 131 Lebesgue–Maß, 72, 76, 174 Lebesgue–Zerlegung, 160 Lemma von Borel/Cantelli, 227, 437 Fatou, 122, 123, 415 Kronecker, 345 Riesz/Fischer, 106, 140 limes inferior, 8 limes superior, 8 lineare Abbildung, 468 lineare Menge, 467 logarithmische Verteilung, 265, 283, 290, 378 lokale Konvergenz im Maß, 107 lokales Z¨ ahlmaß, 50, 155 μ–singul¨ ar, 160 μ–stetig, 155 Maß, 49 μ–singul¨ ares, 160 μ–stetiges, 155 absolutstetiges, 155 aquivalentes, 162 ¨ außeres, 65 ¨ Dirac–, 49 integralinduziertes, 148 Lebesgue–, 72, 76, 174 mit Dichte, 149 signiertes, 56 singul¨ ares, 155, 160 translationsinvariantes, 80, 81
485 Maßraum, 101 σ–endlicher, 101 endlicher, 101, 143 majorisierte Konvergenz, 129, 130, 139, 419 Markov–Kern, 442 Martingal, 428 Matrix der zweiten gemischten Momente, 320 invertierbare, 472 positiv definite, 473 positiv semidefinite, 473 singul¨ are, 472 symmetrische, 473 transponierte, 472 maximale Ungleichung, 430 Menge abgeschlossene, 8 abz¨ ahlbare, 8 affine, 467 aquivalente, 48 ¨ beschr¨ ankte, 470 geordnete, 468 kompakte, 8 konvexe, 467 lineare, 467 messbare, 14 offene, 8 permutierbare, 358 vollst¨ andig geordnete, 468 Mengenfunktion, 43 ∅–stetige, 51 σ–additive, 49 σ–endliche, 55 σ–subadditive, 54 additive, 43 beschr¨ ankte, 61 endlich additive, 43 endlich subadditive, 46 endliche, 47, 61 modulare, 47 monotone, 46 subadditive, 46 subtraktive, 47 vollst¨ andige, 48 von oben stetige, 51 von unten stetige, 51 Mengensystem, 7, 8 ∩–stabiles, 17
486 ∪–stabiles, 19 messbare Abbildung, 29, 30, 40 messbare Funktion, 92 komplexe, 100 numerische, 92 reelle, 95 messbare Menge, 14 messbarer Raum, 25, 29 messbares Produkt, 39 Messraum, 29 Metrik, 469 Euklidische, 474 metrischer Raum, 469 modulare Mengenfunktion, 47 Moment, 274, 319 absolutes, 281 Binomial–, 372 der Ordnung n, 281 h¨ oherer Ordnung, 281 zentrales, 285, 289, 323 momenterzeugende Funktion, 378, 381 monotone Funktion, 31 monotone Konvergenz, 115, 118, 415 monotone Mengenfunktion, 46 Multinomial–Verteilung, 297, 305, 308, 311, 314, 320, 321, 324, 326, 328 gemischte, 300 multivariate Verteilung, 293 Verteilungsfunktion, 293, 294, 299 nat¨ urliche Filtration, 428, 434 nat¨ urliche Topologie, 12 ¯ 13 auf R, auf Rn , 12, 36 negativ korreliert, 327 Negativbinomial–Verteilung, 254, 277, 287, 315, 370, 375, 376, 383 negative Variation, 58 Negativmultinomial–Verteilung, 297, 305, 311, 314, 320, 321, 325, 326, 328 Negativteil, 58, 469 Norm, 469 aquivalente, 11 ¨ auf Rn , 11 Euklidische, 474
Sachverzeichnis Normal–Verteilung, 257, 258, 266, 272, 279, 287, 291, 298, 301, 307, 313, 317, 318, 320, 326, 380, 382, 389 normierter Raum, 470 Normtopologie, 9–11 Null–Eins–Gesetz, 228 Borel, 228, 439 Hewitt/Savage, 358 Kolmogorov, 234–236, 441 Mittel, 341, 451 Nullmatrix, 472 Nullmenge, 48, 101 Nullvektor, 471 numerische Funktion, 91 messbare, 92 offene Kugel, 9, 13 offene Menge, 8 offenes Intervall, 20, 21 Ordnung, 468 koordinatenweise, 473 stochastische, 264 stop–loss, 284 Ordnungsrelation, 468 Ordnungsstatistik, 302 Orthogonalmatrix, 472 p–fach integrierbar, 135, 145 p–fach summierbar, 143 paarweise unabh¨ angige Ereignisse, 229 Ereignissysteme, 236 Zufallsgr¨ oßen, 241 Panjer–Verteilung, 377 Pareto–Verteilung, 266, 273, 284 amerikanischer Art, 266 europ¨ aischer Art, 266 Pascal–Verteilung, 254 Permutation, 358 permutationsinvariant, 304 Permutationsmatrix, 472 permutierbare Funktion, 358 permutierbare Menge, 358 Poincar´e, 48 Poisson–Approximation, 397 Poisson–Prozess, 462 Poisson–Verteilung, 254, 277, 287, 297, 315, 353, 370, 375, 376, 383, 405 gemischte, 265
Sachverzeichnis P´ olya–Verteilung, 265, 283, 290 P´ olya/Eggenberger–Verteilung, 300, 308 polyhypergeometrische Verteilung, 296, 304, 311, 314, 320, 321, 324, 326, 328 Portemanteau–Theorem, 393 positiv, 3 positiv definite Funktion, 462 positiv definite Matrix, 473 positiv korreliert, 327 positiv lineare Abbildung, 468 positiv semidefinite Matrix, 473 positive Folge, 429 positive Variation, 58 positiver Kegel, 469 Positivteil, 58, 469 Prinzip des unzureichenden Grundes, 198 Problem der Doppelsechs, 202 probl`eme des parties, 202 Produkt, 33 messbares, 39 topologisches, 36 Produkt von Maßr¨ aumen, 168, 173 Mengen, 33 Mengensystemen, 34 messbaren R¨ aumen, 39 topologischen R¨ aumen, 36 Wahrscheinlichkeitsmaßen, 215 Wahrscheinlichkeitsr¨ aumen, 202, 215, 241 Produkt–σ–Algebra, 39, 40 Produktmaß, 168, 170, 173 Produktraum, 33 Produkttopologie, 36, 38 Projektion, 33, 34, 426, 427 projektiv, 204, 205 punktweise konvergent, 91 quadratisch integrierbar, 143 quasiintegrierbar, 124, 134 bedingt, 416, 425 Rand, 13 Randverteilung, 302, 303 eines stochastischen Prozesses, 461 Raum
487 Euklidischer, 471, 474 messbarer, 25, 29 metrischer, 469 mit Skalarprodukt, 470 normierter, 470 topologischer, 25, 27 vollst¨ andiger, 469, 470 Realteil, 100 rechtecksmonoton, 294 Reduktionssatz, 421 reelle Funktion, 91 messbare, 95 reelle Zufallsvariable, 194 regul¨ ar, 455, 456 relative H¨ aufigkeit, 340 Restriktion einer Abbildung, 29, 32, 165 eines Maßes, 165 Riemann–Integral, 180–182 uneigentliches, 185 Riemann–integrierbar, 182 uneigentlich, 185 Ring, 20, 22 σ–additiv, 49 σ–Algebra, 14 Borelsche, 15, 24 erzeugte, 15, 30 Kolmogorovsche, 39 terminale, 234 σ–endliche Mengenfunktion, 55 σ–endlicher Maßraum, 101 σ–Ideal, 24 σ–Ring, 24 σ–subadditiv, 54 Satz u ¨ ber die majorisierte Konvergenz, 129, 130, 139, 419 monotone Konvergenz, 115, 118, 415 Satz von Andersen/Jessen, 209, 210 Caratheodory, 70 Chung/Fuchs, 363 Fubini, 176, 178 Glivenko/Cantelli, 353, 354, 454 Heine/Borel, 474 Helly, 401 Helly/Bray, 396 Kolmogorov, 455, 458
488 Lebesgue, 129, 130, 139, 419 Levi, 115, 118, 415 L´evy, 431 Pratt, 135 Pythagoras, 427 Radon/Nikodym, 156 Schiefe, 290 Schnitt, 169, 175 schwache Konvergenz, 391, 392 von Verteilungsfunktionen, 395 von Wahrscheinlichkeitsmaßen, 393 schwaches Gesetz der Großen Zahlen, 337, 338, 340 Schwerpunkteigenschaft, 285 sicheres Ereignis, 195 signiertes Maß, 56 integralinduziertes, 148 singul¨ are Matrix, 472 singul¨ ares Maß, 155, 160 Skalarprodukt, 470 Euklidisches, 474 Spur–σ–Algebra, 32 Spurtopologie, 29 Standardabweichung, 289, 290 Standarddarstellung, 97 standardisierte Zufallsvariable, 290 Standardnormal–Verteilung, 258, 298, 379, 381, 383 starkes Gesetz der Großen Zahlen, 341, 345–347, 353 stetig von oben, 51 Funktion, 294 stetig von unten, 51 stetige Abbildung, 27–29, 36 Stetigkeitslemma, 133 Stetigkeitsmenge, 393 Stetigkeitssatz, 404 stetigsingul¨ are Verteilung, 258 Stichprobenmittel, 350 Stichprobenumfang, 350 stochastische Folge, 197, 264 stochastische Konvergenz, 333 stochastische Ordnung, 264 stochastischer Prozess, 461 stop–loss Ordnung, 284 straff, 400 Streuungsmaß, 285, 289 strikt negativ korreliert, 327 strikt positiv korreliert, 327
Sachverzeichnis subadditive Mengenfunktion, 46 Substitutionsregel, 163, 164, 276 subtraktive Mengenfunktion, 47 Supremum, 468 symmetrische Funktion, 462 Matrix, 473 Verteilung, 263, 273, 284, 389 symmetrischer Wahrscheinlichkeitsraum, 198 System der additiven Zerleger, 65 System der J–Zylinder, 205 System der Zylindermengen, 206 t–Verteilung, 258, 270, 279, 282, 323 Teilfolgenprinzip, 334 schwache Konvergenz, 403 terminale σ–Algebra, 234 terminales Ereignis, 234 Topologie, 8 eines metrischen Raumes, 13 eines normierten Raumes, 9, 10 erzeugte, 10, 27 nat¨ urliche, 12, 13, 36 Topologien ¨ aquivalenter Normen, 11 topologischer Raum, 25, 27 topologisches Produkt, 36 totale Variation, 62 totale Wahrscheinlichkeit, 228 Transformationssatz, 163 Translation, 80 translationsinvariantes Maß, 80, 81 transponierte Matrix, 472 Treppenfunktion, 181 typische Zufallsvariable, 347, 453 ¨ Uberlebensfunktion, 264 integrierte, 284 unabh¨ angige Ereignisse, 219, 220, 224 Ereignissysteme, 229, 230 Zufallsgr¨ oßen, 236, 237 Unabh¨ angigkeit, 219 bedingte, 438 unbestimmtes Integral, 148, 149 uneigentlich Riemann–integrierbar, 185 uneigentliches Riemann–Integral, 185 Ungleichung maximale, 430
Sachverzeichnis Ungleichung von Cantelli, 288 Cauchy/Schwarz, 144, 327, 470 Fatou, 122, 123, 415 H¨ older, 137, 145 Jensen, 128, 280, 426 Kolmogorov, 342, 452 Markov, 119, 123, 281, 437 Minkowski, 138 Tschebyschev, 288 uniforme Verteilung, 256, 273, 278, 281, 287, 291, 298, 306, 311, 320, 322, 325, 326, 329, 383 univariate Verteilung, 245 Verteilungsfunktion, 245, 246, 264 unkorreliert, 327, 338 bedingt, 424 unm¨ ogliches Ereignis, 195 Unter–σ–Algebra, 410 Unter–Vektorverband, 469 Unterraum, 467 Urbild einer Abbildung, 26 einer Menge, 26 eines Mengensystems, 25, 26 Urnenmodelle, 200, 221, 228, 239 Ziehen mit Zur¨ ucklegen, 201, 221, 240 ohne Zur¨ ucklegen, 200, 221, 239 Varianz bedingte, 422 einer Zufallsvariablen, 285 eines Zufallsvektors, 325 in den Klassen, 428 zwischen den Klassen, 428 Varianz–Zerlegung, 428 Variation negative, 58 positive, 58 totale, 62 Variationskoeffizient, 290 Vektorraum geordneter, 469 Vektorverband, 469 Verband, 19, 468 Version der bedingten Erwartung, 411, 416, 417
489 Verteilung absolutstetige, 255, 297 bedingte, 435, 442, 443 diskrete, 251, 295 einer Zufallsgr¨ oße, 194 eines stochastischen Prozesses, 461 empirische, 357, 446 multivariate, 293 stetigsingul¨ are, 258 symmetrische, 263, 273, 284, 389 univariate, 245 Verteilungen χ2 –, 257, 272, 318 Bernoulli–, 254 Beta–, 256, 278, 282, 287 Binomial–, 254, 277, 287, 315, 318, 370, 375, 376, 383 Boole–, 254 Cantor–, 258, 261 Cauchy–, 266, 273, 283 Dirac–, 253, 296 Dirichlet–, 298, 307, 308, 312, 320, 322, 325, 326, 329 Erlang–, 257, 318 Exponential–, 257, 266, 380 F –, 266 Gamma–, 257, 278, 282, 287, 318, 378, 381–383 Gauß–, 258 gemischte Binomial–, 265 gemischte Multinomial–, 300 gemischte Poisson–, 265 geometrische, 255, 264, 273, 278, 287, 377 Gompertz–, 267 hypergeometrische, 253, 277, 287 logarithmische, 265, 283, 290, 378 Multinomial–, 297, 305, 308, 311, 314, 320, 321, 324, 326, 328 Negativbinomial–, 254, 277, 287, 315, 370, 375, 376, 383 Negativmultinomial–, 297, 305, 311, 314, 320, 321, 325, 326, 328 Normal–, 257, 258, 266, 272, 279, 287, 291, 298, 301, 307, 313, 317, 318, 320, 326, 380, 382, 389 Panjer–, 377 Pareto–, 266, 273, 284 Pascal–, 254
490 Poisson–, 254, 277, 287, 297, 315, 353, 370, 375, 376, 383, 405 P´ olya–, 265, 283, 290 P´ olya/Eggenberger–, 300, 308 polyhypergeometrische, 296, 304, 311, 314, 320, 321, 324, 326, 328 Standardnormal–, 258, 298, 379, 381, 383 t–, 258, 270, 279, 282, 323 uniforme, 256, 273, 278, 281, 287, 291, 298, 306, 311, 320, 322, 325, 326, 329, 383 Weibull–, 267 Verteilungsfunktion bedingte, 442 empirische, 353, 446 multivariate, 293, 294, 299 univariate, 245, 246, 264 Verteilungskonvergenz, 397 Vervollst¨ andigung, 48, 56, 70, 78 vollst¨ andig geordnete Menge, 468 vollst¨ andige Mengenfunktion, 48 vollst¨ andige Metrik, 469 vollst¨ andige Ordnungsrelation, 468 vollst¨ andiger Raum, 469, 470 Wahrscheinlichkeit bedingte, 220, 435 totale, 228 wahrscheinlichkeitserzeugende Funktion, 370, 378 Wahrscheinlichkeitsfunktion, 196 Wahrscheinlichkeitsinhalt, 194 Wahrscheinlichkeitsmaß, 194 bedingtes, 220 Wahrscheinlichkeitsraum, 193, 194 diskreter, 196 endliches Produkt, 202
Sachverzeichnis symmetrischer, 198 wandernde T¨ urme, 333, 399 Weibull–Verteilung, 267 Wurf einer M¨ unze, 199, 202, 203 bis zum ersten Kopf, 216 relative H¨ aufigkeiten, 339 Wurf eines W¨ urfels, 195 Z¨ ahldichte, 251, 295 Z¨ ahlmaß, 50 lokales, 50, 155 Zentraler Grenzwertsatz, 391, 405, 406 zentrales Moment, 285, 289, 323 zentrierte Zufallsvariable, 285 Zerlegung Hahn–, 60, 62, 162 Jordan–, 58, 62 Lebesgue–, 160 Ziehen mit Zur¨ ucklegen, 201, 221, 240 ohne Zur¨ ucklegen, 200, 221, 239 Zufallsexperiment, 195 Zufallsgr¨ oße, 194 Zufallsgr¨ oßen bedingt unabh¨ angige, 441 paarweise unabh¨ angige, 241 unabh¨ angige, 236, 237 Zufallsmatrix, 320 Zufallsvariable, 194 reelle, 194 standardisierte, 290 typische, 347, 453 zentrierte, 285 Zufallsvektor, 194 zweites Gesetz der Großen Zahlen, 347 zweites zentrales Moment, 289 Zylinder, 205 Zylindermenge, 206
Anhang
A Fakult¨ at und Gamma–Funktion
¨ Wir geben hier einen Uberblick u ¨ ber die Eigenschaften von Fakult¨aten und der Gamma–Funktion und die daraus resultierenden Eigenschaften von Binomial– Koeffizienten und der Beta–Funktion.
A.1 Fakult¨ at und Binomial–Koeffizient F¨ ur n ∈ N0 sei n! :=
n−1
(n−j)
j=0
Die Zahl n! heißt n Fakult¨at . Damit gilt 0! = 1 und (n+1)! = (n+1) · n! Interpretation: n! ist die Anzahl der M¨ oglichkeiten, n unterscheidbare Objekte anzuordnen. F¨ ur α ∈ R und k ∈ N0 sei ! k−1 α−j α := k k−j j=0 Die Zahl αk heißt Binomial–Koeffizient α ¨ uber k. Damit gilt α0 = 1. F¨ ur n ∈ N0 und k ∈ N0 gilt ⎧ n! ! ⎨ falls k ≤ n n = k! (n−k)! ⎩ k 0 sonst und f¨ ur n ∈ N0 und k ∈ N0 mit k ≤ n gilt
466
Anhang A. Fakult¨ at und Gamma–Funktion
! n =1 0 ! ! n n = k n−k ! ! ! n+1 n n = + k+1 k k+1 n Durch vollst¨ andige Induktion ergibt sich k ∈ N0 und aus dem Binomischen Satz folgt ! n n = 2n k k=0 n oglichkeiten, k von n unterscheidbaren Interpretation: k ist die Anzahl der M¨ Objekten (ohne Ber¨ u cksichtigung der Reihenfolge) auszuw¨ahlen. Insbesondere ist nk die Anzahl der k–elementigen Teilmengen der Menge {1, . . . , n} und 2n ist die Anzahl aller Teilmengen der Menge {1, . . . , n}.
A.2 Gamma–Funktion und Beta–Funktion Die Funktion Γ : (0, ∞) → (0, ∞) mit ( ∞ e−z z γ−1 dz Γ(γ) := 0
heißt Gamma–Funktion. Es gilt √ Γ( 12 ) = π Γ(1) = 1 Γ(γ +1) = γ Γ(γ) Die letzte Gleichung heißt 5–Gamma–Formel. Insbesondere gilt f¨ ur n ∈ N0 Γ(n+1) = n! ! γ+n−1 Γ(γ +n) = Γ(γ) n! n Die Funktion B : (0, ∞) × (0, ∞) → (0, ∞) mit ( 1 B(α, β) := z α−1 (1−z)β−1 dz 0
heißt Beta–Funktion. Es gilt B(α, β) =
Γ(α) Γ(β) Γ(α + β)
B Vektorr¨ aume, Ordnung und Topologie
¨ Wir geben hier einen Uberblick u ¨ber die linearen, ordnungstheoretischen und topologischen Strukturen in einem Vektorraum. Alle Vektorr¨aume seien reell.
B.1 Vektorr¨ aume Im gesamten Abschnitt sei E ein Vektorraum. Eine Menge C ⊆ E heißt – konvex , wenn ax + by ∈ C f¨ ur alle x, y ∈ C und f¨ ur alle a, b ∈ R+ mit a+b = 1 gilt. – Kegel , wenn ax + by ∈ C f¨ ur alle x, y ∈ C und f¨ ur alle a, b ∈ R+ gilt. – affin, wenn ax+by ∈ C f¨ ur alle x, y ∈ C und f¨ ur alle a, b ∈ R mit a+b = 1 gilt. – linear , wenn ax + by ∈ C f¨ ur alle x, y ∈ C und f¨ ur alle a, b ∈ R gilt. Jede nichtleere lineare Teilmenge von E ist selbst ein Vektorraum und wird als Unterraum von E bezeichnet. Sei C ⊆ E. Eine Funktion h : C → R heißt – konvex , wenn f¨ ur alle x, y ∈ C und a, b ∈ R+ mit a+b = 1 und ax+by ∈ C h(ax+by) ≤ ah(x) + bh(y) –
gilt. konkav , wenn f¨ ur alle x, y ∈ C und a, b ∈ R+ mit a+b = 1 und ax+by ∈ C h(ax+by) ≥ ah(x) + bh(y)
gilt. Offenbar ist h genau dann konvex, wenn die Funktion −h : C → R mit (−h)(x) := −h(x) konkav ist.
468
Anhang B. Vektorr¨ aume, Ordnung und Topologie
Sei C ⊆ E und sei F ein Vektorraum. Eine Abbildung T : C → F heißt – linear , wenn f¨ ur alle x, y ∈ C und a, b ∈ R mit ax + by ∈ C T (ax+by) = aT (x) + bT (y) –
gilt. positiv linear , wenn f¨ ur alle x, y ∈ C und a, b ∈ R+ mit ax + by ∈ C T (ax+by) = aT (x) + bT (y)
–
gilt. affin, wenn es ein c ∈ F und eine lineare Abbildung S : C → F gibt mit T (x) = c + S(x)
f¨ ur alle x ∈ C. Eine lineare Abbildung h : C → R wird auch als Funktional bezeichnet.
B.2 Ordnung Sei E eine Menge. Eine Relation ≤ auf E heißt Ordnungsrelation (oder kurz Ordnung) auf E, wenn sie die folgenden Eigenschaften besitzt: (i) F¨ ur alle x ∈ E gilt x ≤ x (Reflexivit¨at ). (ii) F¨ ur alle x, y ∈ E mit x ≤ y und y ≤ x gilt x = x (Antisymmetrie). (iii) F¨ ur alle x, y, z ∈ E mit x ≤ y und y ≤ z gilt x ≤ z (Transitivit¨at ). In diesem Fall heißt (E, ≤) geordnete Menge. Sei (E, ≤) eine geordnete Menge. Die Ordnungsrelation ≤ heißt vollst¨andig, wenn f¨ ur alle x, y ∈ E mindestens eine der Eigenschaften x ≤ y und y ≤ x erf¨ ullt ist. In diesem Fall heißt (E, ≤) vollst¨andig geordnet . Sei (E, ≤) eine geordnete Menge. F¨ ur C ⊆ E heißt z ∈ E – Supremum von C, wenn einerseits x ≤ z f¨ ur alle x ∈ C gilt und andererseits z ≤ u f¨ ur jedes u ∈ E mit x ≤ u f¨ ur alle x ∈ C gilt; in diesem Fall schreiben wir z = sup C. – Infimum von C, wenn einerseits x ≥ z f¨ ur alle x ∈ C gilt und andererseits z ≥ u f¨ ur jedes u ∈ E mit x ≥ u f¨ ur alle x ∈ C gilt; in diesem Fall schreiben wir z = inf C. F¨ ur x, y ∈ E setzen wir im Fall der Existenz des Supremums bzw. des Infimums der Menge {x, y} x ∨ y := sup{x, y} x ∧ y := inf{x, y} Die geordnete Menge (E, ≤) heißt Verband , wenn f¨ ur alle x, y ∈ E das Supremum und das Infimum der Menge {x, y} existiert.
B.3 Topologie
469
Sei E ein Vektorraum und sei ≤ eine Ordnungsrelation auf E. Die geordnete Menge (E, ≤) heißt – geordneter Vektorraum, wenn f¨ ur alle x, y, z ∈ E und c ∈ R+ mit x ≤ y x+z ≤ y+z cx ≤ cy gilt. Vektorverband , wenn (E, ≤) ein geordneter Vektorraum und ein Verband ist. Ist (E, ≤) ein geordneter Vektorraum, so ist die Menge E+ := {x ∈ E | 0 ≤ x} ein Kegel, der als positiver Kegel von E (bez¨ uglich ≤) bezeichnet wird. Ist (E, ≤) ein Vektorverband, so existieren f¨ ur alle x ∈ E die Suprema –
x+ := x ∨ 0 x− := (−x) ∨ 0 |x| := x ∨ (−x) und man bezeichnet x+ als den Positivteil , x− als den Negativteil und |x| als den Betrag von x; es gilt x = x+ − x− und |x| = x+ + x− sowie x+ ∨ x− = |x| und x+ ∧ x− = 0. Ist (E, ≤) ein Vektorverband, so heißt ein Unterraum C ⊆ E – Unter–Vektorverband , wenn f¨ ur alle x, y ∈ C auch (f¨ ur das in E gebildete Supremum) x ∨ y ∈ C gilt. – Ideal , wenn f¨ ur alle x ∈ C und y ∈ E mit |x| ≤ |y| auch |x| ∈ C gilt. Jedes Ideal ist ein Unter–Vektorverband.
B.3 Topologie Sei E eine Menge. Eine Abbildung d : E × E → R+ heißt Metrik auf E, wenn sie die folgenden Eigenschaften besitzt: (i) F¨ ur alle x, y ∈ E gilt d(x, y) = 0 genau dann, wenn x = y gilt (Definitheit ). (ii) F¨ ur alle x, y ∈ E gilt d(x, y) = d(y, x) (Symmetrie). (iii) F¨ ur alle x, y, z ∈ E gilt d(x, z) ≤ d(x, y) + d(y, z) (Dreiecksungleichung). In diesem Fall heißt (E, d) metrischer Raum. Sei (E, d) ein metrischer Raum. Eine Folge {xn }n∈N ⊆ E heißt Cauchy–Folge, ur alle wenn es zu jedem ε ∈ (0, ∞) ein p ∈ N gibt mit d(xm , xn ) ≤ ε f¨ m, n ∈ N(p). Die Metrik d und damit auch der metrische Raum (E, d) heißt vollst¨andig, wenn es zu jeder Cauchy–Folge {xn }n∈N ⊆ E ein x ∈ E gibt mit limn→∞ d(xn , x) = 0. Sei E ein Vektorraum. Eine Abbildung . : E → R+ heißt Norm auf E, wenn sie die folgenden Eigenschaften besitzt:
470
Anhang B. Vektorr¨ aume, Ordnung und Topologie
(i) F¨ ur alle x ∈ E gilt x = 0 genau dann, wenn x = 0 gilt (Definitheit ). (ii) F¨ ur alle x ∈ E und c ∈ R gilt cx = |c| x (absolute Homogenit¨at ). (iii) F¨ ur alle x, y ∈ E gilt x+y ≤ x + y (Dreiecksungleichung). In diesem Fall heißt (E, . ) normierter Raum und eine Menge B ⊆ E heißt beschr¨ankt , wenn es ein c ∈ (0, ∞) gibt mit B ⊆ {x ∈ E | x ≤ c}. Sei (E, . ) ein normierter Raum. Dann ist die Abbildung d : E × E → R+ mit d(x, y) := x−y eine Metrik. Der normierte Raum (E, . ) heißt vollst¨andig, wenn der metrische Raum (E, d) vollst¨ andig ist. Ein vollst¨ andiger normierter Raum heißt Banach–Raum. Sei E ein Vektorraum. Eine Abbildung . , . : E × E → R heißt Skalarprodukt auf E, wenn sie die folgenden Eigenschaften besitzt: (i) F¨ ur alle x ∈ E gilt x, x ≥ 0. (ii) F¨ ur alle x ∈ E gilt x, x = 0 genau dann, wenn x = 0 gilt (Definitheit ). (iii) F¨ ur alle x, y ∈ E gilt x, y = y, x (Symmetrie). (iv) F¨ ur alle x, y ∈ E und c ∈ R gilt cx, y = c x, y (Homogenit¨at ). (v) F¨ ur alle x, y, z ∈ E gilt x+y, z = x, z + y, z (Additivit¨at ). In diesem Fall heißt (E, . , .) Raum mit Skalarprodukt . Sei (E, . , .) ein Raum mit Skalarprodukt. Dann gilt f¨ ur alle x, y ∈ E x, y2 ≤ x, xy, y (Ungleichung von Cauchy/Schwarz ). Aus dieser Ungleichung folgt, dass die Abbildung . : E → R+ mit x := x, x1/2 eine Norm ist. Der Raum mit Skalarprodukt (E, . , .) heißt vollst¨andig, wenn der normierte Raum (E, . ) vollst¨ andig ist. Ein vollst¨andiger Raum mit Skalarprodukt heißt Hilbert–Raum.
B.4 Ordnung und Topologie Sei E ein Vektorraum und sei ≤ eine Ordnungsrelation und . eine Norm auf E derart, dass – (E, ≤) ein Vektorverband ist, – (E, . ) ein Banach–Raum ist, und – x ≤ y f¨ ur alle x, y ∈ E mit |x| ≤ |y| gilt. Dann heißt (E, ≤, . ) Banach–Verband . Ein Banach–Verband, dessen Norm durch ein Skalarprodukt induziert wird, heißt Hilbert–Verband .
C Der Euklidische Raum
¨ Wir geben hier einen Uberblick u ¨ber die linearen, ordnungstheoretischen und topologischen Strukturen des Euklidischen Raumes.
C.1 Vektoren und Matrizen Wir bezeichnen mit Rm den reellen Vektorraum aller (Spalten–)Vektoren ⎞ ⎛ x1 ⎟ ⎜ x = ⎝ ... ⎠ xm (mit der koordinatenweise definierten Addition und Skalarmultiplikation). Wir bezeichnen das neutrale Element der Addition mit 0 und nennen 0 den Nullvektor . Mit Hilfe der Einheitsvektoren e1 , . . . , em ∈ Rm l¨asst sich jeder Vektor x ∈ Rm in der Form x=
m
xi ei
i=1
darstellen. Wir setzen 1 :=
m
ei
i=1
und nennen 1 den Einsvektor . Wir bezeichnen mit Rm×n den reellen Vektorraum aller Matrizen ⎞ ⎛ a11 · · · a1n ⎜ .. ⎟ A = ⎝ ... . ⎠ am1 · · · amn
472
Anhang C. Der Euklidische Raum
(mit der koordinatenweise definierten Addition und Skalarmultiplikation). Wir bezeichnen das neutrale Element der Addition mit O und nennen O die Nullmatrix . F¨ ur eine Matrix A ∈ Rm×n mit A = (aij )i=1,...,m, j=1,...,n heißt die Matrix A ∈ Rn×m mit A := (aji )j=1,...,n, i=1,...,m die zu A transponierte Matrix . Eine Abbildung T : Rn → Rm ist – genau dann linear, wenn es eine Matrix D ∈ Rm×n gibt mit T (x) = Dx. – genau dann affin, wenn es einen Vektor c ∈ Rm und eine Matrix D ∈ Rm×n gibt mit T (x) = c + Dx. Ist T : Rn → Rm eine lineare Abbildung und D ∈ Rm×n eine Matrix mit T (x) = Dx, so sind die Spaltenvektoren der Matrix D gerade die Bilder der Einheitsvektoren des Rn unter T . Wir betrachten nun den Fall m = n. Wir bezeichnen das neutrale Element der Matrizenmultiplikation in Rm×m mit I und nennen I die Einheitsmatrix . Eine Matrix A ∈ Rm×m heißt invertierbar , wenn es eine Matrix B ∈ Rm×m gibt mit AB = I oder BA = I; in diesem Fall gelten sogar beide Gleichungen und die Matrix B ist eindeutig bestimmt und wird als Inverse von A und mit A−1 bezeichnet. Eine Matrix A ∈ Rm×m heißt singul¨ar , wenn sie nicht invertierbar ist. Eine Matrix A ∈ Rm×m heißt – Permutationsmatrix , wenn sie in jeder Zeile und in jeder Spalte genau eine Eins und ansonsten nur Nullen enth¨ alt. – Orthogonalmatrix , wenn A A = I gilt. Jede Permutationsmatrix ist eine Orthogonalmatrix, und jede Orthogonalmatrix ist invertierbar. F¨ ur k, l ∈ {1, . . . , m} sei die Matrix F(kl) ∈ Rm×m definiert durch 1 falls (i, j) = (k, l) (kl) fij := 0 sonst Eine Matrix A ∈ Rm×m heißt Elementarmatrix , wenn es – eine Matrix F(kl) gibt mit k = l und A = I + F(kl) oder – eine Matrix F(kk) und ein c ∈ R \ {0} gibt mit A = I + (c−1)F(kk) . Jede Elementarmatrix ist invertierbar.
C.2 Ordnung
473
C.1.1 Proposition. F¨ ur eine Matrix A ∈ Rm×m sind ¨aquivalent : (a) A ist invertierbar. (b) A ist ein Produkt von Elementarmatrizen. (c) A ist ein Produkt von Permutationsmatrizen und Elementarmatrizen der Form I + F(12) oder I + (c−1)F(11) mit c ∈ R \ {0}. ¨ F¨ ur einen Beweis der Aquivalenz von (a) und (b) in Proposition C.1.1 vgl. ¨ Koecher [1997; Kapitel 2, §6, Satz A]; die Aquivalenz von (b) und (c) ist dann klar. Eine Matrix A ∈ Rm×m heißt – symmetrisch, wenn A = A gilt. – positiv semidefinit , wenn x Ax ≥ 0 f¨ ur alle x ∈ Rm gilt. ur alle x ∈ Rm \{0} gilt. – positiv definit , wenn x Ax > 0 f¨ Eine symmetrische Matrix ist genau dann positiv definit, wenn sie positiv semidefinit und invertierbar ist. C.1.2 Proposition. F¨ ur eine Matrix A ∈ Rm×m sind ¨aquivalent : (a) A ist symmetrisch und positiv semidefinit. (b) Es gibt eine Matrix B ∈ Rm×m mit A = B B. F¨ ur einen Beweis von Proposition C.1.2 vgl. Harville [1997; Corollary 14.3.10]. C.1.3 Proposition. F¨ ur eine Matrix A ∈ Rm×m sind ¨aquivalent : (a) A ist symmetrisch und positiv definit. (b) Es gibt eine invertierbare Matrix B ∈ Rm×m mit A = B B. F¨ ur einen Beweis von Proposition C.1.3 vgl. Harville [1997; Corollary 14.3.13]. Eine Abbildung T : Rm → Rm heißt Bewegung, wenn es einen Vektor c ∈ Rm und eine Orthogonalmatrix D ∈ Rm gibt mit T (x) = c + Dx.
C.2 Ordnung F¨ ur x, y ∈ Rm schreiben wir x≤y wenn f¨ ur alle i ∈ {1, . . . , m} xi ≤ yi gilt. Dann ist ≤ eine Ordnungsrelation und (Rm , ≤) ist ein Vektorverband. Die Ordnungsrelation ≤ heißt koordinatenweise Ordnung auf Rm .
474
Anhang C. Der Euklidische Raum
C.3 Topologie Die Abbildung . , . : Rm ×Rm → R mit x, y := x y =
m
xi yi
i=1
ist ein Skalarprodukt und heißt Euklidisches Skalarprodukt. Der Raum mit Skalarprodukt (Rm , . , .) heißt m–dimensionaler Euklidischer Raum. Die Abbildung . : Rm → R+ mit 1/2
x := x, x
=
m
1/2 x2i
i=1
ist eine Norm und heißt Euklidische Norm. Die Euklidische Norm ist zu jeder aquivalent. Norm auf Rm ¨ Die Abbildung d : Rm ×Rm → R+ mit d(x, y) := x−y ist eine Metrik und heißt Euklidische Metrik . Der metrische Raum (Rm , d) ist vollst¨ andig. Daher ist (Rm , . ) ein Banach– m Raum und (R , . , .) ist ein Hilbert–Raum. C.3.1 Proposition (Heine/Borel). F¨ ur K ⊆ Rm sind folgende Aussagen ¨aquivalent : (a) K ist beschr¨ankt und bez¨ uglich der Normtopologie abgeschlossen. (b) K ist bez¨ uglich der Normtopologie kompakt.
C.4 Ordnung und Topologie Der Euklidische Raum (Rm , ≤, . ) ist ein Banach–Verband (und sogar ein Hilbert–Verband).
Literaturverzeichnis
Aliprantis, C. D., and Burkinshaw, O. [1990]: Principles of Real Analysis. Boston: Academic Press. Bauer, H. [1990]: Maß– und Integrationstheorie. Berlin – New York: DeGruyter. Bauer, H. [1991]: Wahrscheinlichkeitstheorie. Berlin – New York: DeGruyter. Behrends, E. [1987]: Maß– und Integrationstheorie. Berlin – Heidelberg – New York: Springer. Billingsley, P. [1995]: Probability and Measure. Third Edition. New York – Chichester: Wiley. Dudley, R. M. [1989]: Real Analysis and Probability. Pacific Grove (California): Wadsworth & Brooks/Cole. Elstrodt, J. [1996]: Maß– und Integrationstheorie. Berlin – Heidelberg – New York: Springer. Forster, O. [1983]: Analysis 1. Braunschweig: Vieweg. Halmos, P. R. [1974]: Measure Theory. Berlin – Heidelberg – New York: Springer. Harville, D. A. [1997]: Matrix Algebra from a Statistician’s Perspective. Berlin – Heidelberg – New York: Springer. Johnson, N. L., Kotz, S., and Balakrishnan, N. [1994]: Continuous Univariate Distributions. Volume 1. New York: Wiley. Johnson, N. L., Kotz, S., and Balakrishnan, N. [1995]: Continuous Univariate Distributions. Volume 2. New York: Wiley. Johnson, N. L., Kotz, S., and Balakrishnan, N. [1997]: Discrete Multivariate Distributions. New York: Wiley. Johnson, N. L., Kotz, S., and Kemp, A.W. [1992]: Univariate Discrete Distributions. New York: Wiley. Koecher, M. [1997]: Lineare Algebra und Analytische Geometrie. Vierte Auflage. Berlin – Heidelberg – New York: Springer. Kolmogorov, A. N. [1933]: Grundbegriffe der Wahrscheinlichkeitsrechnung. Berlin – Heidelberg – New York: Springer. K¨ onig, H. [1997]: Measure and Integration. Berlin – Heidelberg – New York: Springer.
476
Literaturverzeichnis
Kotz, S., Balakrishnan, N., and Johnson, N. L. [2000]: Continuous Multivariate Distributions. Volume 1. New York: Wiley. Krengel, U. [2002]: Einf¨ uhrung in die Wahrscheinlichkeitstheorie und Statistik. Braunschweig – Wiesbaden: Vieweg. M¨ uller, P. H. (Hrsg.) [1991]: Wahrscheinlichkeitstheorie und Mathematische Statistik – Lexikon der Stochastik. Berlin: Akademie–Verlag. Neveu, J. [1972]: Martingales a ` Temps Discret. Paris: Masson. Schaefer, H. H. [1974]: Banach Lattices and Positive Operators. Berlin – Heidelberg – New York: Springer. Schmidt, K. D. [1996]: Lectures on Risk Theory. Stuttgart: Teubner. Schmidt, K. D. [2006]: Versicherungsmathematik. Berlin – Heidelberg – New York: Springer. Schmitz, N. [1996]: Vorlesungen ¨ uber Wahrscheinlichkeitstheorie. Stuttgart: Teubner. Schubert, H. [1971]: Topologie. Stuttgart: Teubner. Walter, W. [1990]: Analysis I. Berlin – Heidelberg – New York: Springer.
Symbolverzeichnis
Zahlenbereiche C N N0 N(n) Q R R+ ¯ R Rm Z
die Menge der komplexen Zahlen die Menge {1, 2, . . . } die Menge {0, 1, 2, . . . } die Menge {n, n+1, n+2, . . . } die Menge der rationalen Zahlen die Menge der reellen Zahlen die Menge [0, ∞) der positiven reellen Zahlen die Menge der erweiterten reellen Zahlen der m–dimensionale Euklidische Raum die Menge der ganzen Zahlen
Reelle Zahlen x∨y x∧y x+ x− |x|
:= max{x, y} (Maximum von x, y ∈ R) := min{x, y} (Minimum von x, y ∈ R) := x ∨ 0 (Positivteil von x ∈ R) := (−x) ∨ 0 (Negativteil von x ∈ R) := x ∨ (−x) (Betrag von x ∈ R)
Vektoren 0 1 ei x
Nullvektor des Euklidischen Raumes Einsvektor des Euklidischen Raumes Einheitsvektor des Euklidischen Raumes Vektor des Euklidischen Raumes
Matrizen O I A A−1
Nullmatrix Einheitsmatrix Transponierte der Matrix A Inverse einer invertierbaren Matrix A
478
Symbolverzeichnis
Mengen χA 2A A |A| {ai }i∈I ⊆ A Q Pi∈I Ai i∈I Ai k A AI A\B AB
Indikatorfunktion der Menge A Potenzmenge der Menge A Komplement der Menge A (wenn die Grundmenge klar ist) Anzahl der Elemente der Menge A Familie von Elementen aus der Menge A Produkt der Familie {Ai }i∈I Vereinigung einer disjunkten Familie {Ai }i∈I Q := Qki=1 A := i∈I A := A ∩ B (Differenz) := (A \ B) ∪ (B \ A) (symmetrische Differenz)
Mengensysteme δ(E )
(E ) σ(E ) τ (E ) B(R) ¯ B(R) B(Rm ) H(I)
das von E erzeugte Dynkin–System der von E erzeugte Ring die von E erzeugte σ–Algebra die von E erzeugte Topologie Borelsche σ–Algebra auf R ¯ Borelsche σ–Algebra auf R Borelsche σ–Algebra auf Rm Familie der endlichen Teilmengen von I
Maße δz ζ ζC λ μ+ μ− μf μν μ⊥ν
Dirac–Maß Z¨ ahlmaß lokales Z¨ ahlmaß Lebesgue–Maß Positivteil von μ Negativteil von μ Bildmaß von μ unter f μ ist ν–stetig μ und ν sind singul¨ ar
Messbare Funktionen L0 (F) L0 (F, μ) Lpμ (F) L∞ (F) =μ [f ]μ L0 (F, μ) Lp (F, μ) L∞ (F, μ)
F–messbare reelle Funktionen μ–fast u ¨ berall F–messbare numerische Funktionen p–fach μ–integrierbare F–messbare reelle Funktionen beschr¨ ankte F–messbare Funktionen ¨ Aquivalenzrelation auf L0 (F, μ) ¨ Aquivalenzklasse von L0 (F, μ) bez¨ uglich =μ , die f enth¨ alt 103 136 106
Symbolverzeichnis
479
Wahrscheinlichkeitstheorie P [A] E[X] var [X] cov [X, Y ] CX FX GX mX MX PX ψX
Wahrscheinlichkeit von A Erwartungswert von X Varianz von X Kovarianz von X und Y kumulantenerzeugende Funktion von X Verteilungsfunktion von X ¨ Uberlebensfunktion von X wahrscheinlichkeitserzeugende Funktion von X momenterzeugende Funktion von X Verteilung von X charakteristische Funktion von X
Bedingte Wahrscheinlichkeit nach einem Ereignis P [A|C] E[X|C]
bedingte Wahrscheinlichkeit von A unter C bedingter Erwartungswert von X unter C
Bedingte Wahrscheinlichkeit nach einer Unter–σ–Algebra P G (A) E G (X) varG (X) covG (X, Y ) G PX L0 (F, G) L1,G (F)
bedingte bedingte bedingte bedingte bedingte 410 417
Wahrscheinlichkeit von A unter G Erwartung von X unter G Varianz von X unter G Kovarianz von X und Y unter G Verteilung von X unter G
Verteilungen δz χ2n tn B(ϑ) B(n, ϑ) Be(α, β) Ca(α, β) Dir(η, η) Exp(α) Ga(α, γ) Geo(n, ϑ) H(n, N, K) Log(ϑ) M(n, ϑ) N(μ, σ 2 ) N(μ, Σ) NB(α, ϑ)
Dirac–Verteilung χ2 –Verteilung t–Verteilung Bernoulli–Verteilung Binomial–Verteilung Beta–Verteilung Cauchy–Verteilung Dirichlet–Verteilung Exponential–Verteilung Gamma–Verteilung geometrische Verteilung hypergeometrische Verteilung logarithmische Verteilung Multinomial–Verteilung Normal–Verteilung Normal–Verteilung Negativbinomial–Verteilung
480 NM(α, ϑ) P(α) Pa(α, β) Pa∗ (α, β) PE(n, η, η) PH(n, N, K) P´ olya(n, α, β) U(a, b) U(C)
Symbolverzeichnis Negativmultinomial–Verteilung Poisson–Verteilung Pareto–Verteilung europ¨ aischer Art Pareto–Verteilung amerikanischer Art P´ olya/Eggenberger–Verteilung polyhypergeometrische Verteilung P´ olya–Verteilung uniforme Verteilung uniforme Verteilung
Spezielle Funktionen B Γ Φ
Beta–Funktion Gamma–Funktion Verteilungsfunktion der Standardnormal–Verteilung
Sachverzeichnis
∩–stabiles Mengensystem, 17 ∪–stabiles Mengensystem, 19 ∅–stetig, 51 Abbildung affine, 468 lineare, 468 messbare, 29, 30, 40 positiv lineare, 468 stetige, 27–29, 36 abgeschlossene Menge, 8 abgeschlossenes Intervall, 20, 21 abh¨ angige Ereignisse, 221 Abschluss, 13 absolut homogen, 470 absolutes Moment, 281 absolutstetige Verteilung, 255, 297 absolutstetige Verteilungen (Beispiele), 256, 272, 278, 281, 287, 298, 306, 311, 317, 320, 322, 325, 326, 329, 378, 381–383 absolutstetiges Maß, 155 abz¨ ahlbare Menge, 8 adaptierte Folge, 428 additive Mengenfunktion, 43 affine Abbildung, 468 affine Menge, 467 Algebra, 24 algebraische Induktion, 109 Anzahl der g¨ unstigen F¨ alle, 198 Anzahl der m¨ oglichen F¨ alle, 198 Approximationssatz Filtration, 429 messbare Funktionen, 98–100
messbare Mengen, 70, 100 aquivalente Maße, 162 ¨ aquivalente Mengen, 48 ¨ aquivalente Normen, 11 ¨ Ausfallrate, 266 außeres Maß, 65 ¨ austauschbar, 454 Banach–Raum, 470 Banach–Verband, 470 Basis, 12 bedingt identisch verteilt, 453 bedingt integrierbar, 417 bedingt quasiintegrierbar, 416, 425 bedingt unabh¨ angige Ereignisse, 438 Ereignissysteme, 439 Zufallsgr¨ oßen, 441 bedingt unkorreliert, 424 bedingte Dichte, 446 bedingte Erwartung, 409–411, 416, 417 endliche, 417 Version, 411, 416, 417 bedingte Kovarianz, 424, 426 bedingte Unabh¨ angigkeit, 438 bedingte Varianz, 422 bedingte Verteilung, 435, 442, 443, 446 bedingte Verteilungsfunktion, 442 bedingte Wahrscheinlichkeit, 220, 435 bedingter Erwartungswert, 285 bedingtes Gesetz der Großen Zahlen, 451, 453 bedingtes Wahrscheinlichkeitsmaß, 220
482 Bernoulli–Irrfahrt, 366 Bernoulli–Verteilung, 254 beschr¨ ankte Menge, 470 beschr¨ ankte Mengenfunktion, 61 Beta–Funktion, 186, 466 Beta–Verteilung, 256, 278, 282, 287 Betrag, 100, 469 Bewegung, 473 Bewegungsinvarianz, 88 Bild, 25 Bild–σ–Algebra, 32 Bildmaß, 79 Bildtopologie, 29 Binomial–Koeffizient, 465 Binomial–Moment, 372 Binomial–Verteilung, 254, 277, 287, 315, 318, 370, 375, 376, 383 gemischte, 265 Blocklemma, 233, 236, 238, 241, 441 Boole–Verteilung, 254 Borel–Menge, 15 Borel/Cantelli Lemma, 227, 437 Borelsche σ–Algebra, 15 auf R, 24 ¯ 15, 22, 24 auf R, auf Rn , 15, 20, 24, 39 Borelsches Null–Eins–Gesetz, 228, 439 χ2 –Verteilung, 257, 272, 318 Cantor–Funktion, 261 Cantor–Menge, 78 Cantor–Verteilung, 258, 261 Cauchy–Folge, 469 Cauchy–Verteilung, 266, 273, 283 charakteristische Funktion, 383, 389 Copula, 299 Darstellungssatz, 262 David schl¨ agt Goliath, 419, 420, 426 Definitheit, 470 Dichte, 149 bedingte, 446 Differentiationslemma, 133 Dirac–Maß, 49 Dirac–Verteilung, 253, 296 Dirichlet–Funktion, 31, 103, 121, 185 Dirichlet–Verteilung, 298, 307, 308, 312, 320, 322, 325, 326, 329 disjunkte Familie, 8
Sachverzeichnis diskrete Verteilung, 251, 295 diskrete Verteilungen (Beispiele), 253, 277, 287, 296, 304, 311, 314, 315, 320, 321, 324, 326, 328, 370, 375, 376, 383 diskreter Wahrscheinlichkeitsraum, 196 Dynkin–System, 16 Eindeutigkeitssatz charakteristische Funktion, 388 Maßfortsetzung, 63 wahrscheinlichkeitserzeugende Funktion, 372 eindimensionale Randverteilung, 303 einfache Funktion, 96 Einheitsmatrix, 472 Einheitsvektor, 471 Einschluss–Ausschluss–Formel, 48 Einsvektor, 471 Elementarereignis, 195 Elementarmatrix, 472 empirische Verteilung, 357, 446 Verteilungsfunktion, 353, 446 endlich additive Mengenfunktion, 43 endlich subadditive Mengenfunktion, 46 endliche bedingte Erwartung, 417 endliche Mengenfunktion, 47, 61 endlicher Erwartungswert, 274 endlicher Maßraum, 101, 143 Ereignis, 195 sicheres, 195 terminales, 234 unm¨ ogliches, 195 Ereignisse abh¨ angige, 221 bedingt unabh¨ angige, 438 paarweise unabh¨ angige, 229 unabh¨ angige, 219, 220, 224 Ereignissystem, 195 Ereignissysteme bedingt unabh¨ angige, 439 paarweise unabh¨ angige, 236 unabh¨ angige, 229, 230 Ergebnis, 195 Ergebnismenge, 195 Erlang–Verteilung, 257, 318 erstes Gesetz der Großen Zahlen, 345, 346, 353, 453
Sachverzeichnis Erwartung bedingte, 409–411, 416, 417 einer Zufallsmatrix, 320 eines Zufallsvektors, 319 Erwartungswert, 274 bedingter, 285 endlicher, 274 erzeugende Funktion, 369 charakteristische, 383 kumulantenerzeugende, 381 momenterzeugende, 378 wahrscheinlichkeitserzeugende, 370 Erzeuger einer σ–Algebra, 15 Erzeuger einer Topologie, 10 Erzeuger eines Dynkin–Systems, 16 Erzeuger eines Ringes, 22 erzeugte σ–Algebra, 15, 30 erzeugte Topologie, 9, 10, 13, 27 erzeugter Ring, 22 erzeugtes Dynkin–System, 16 Euklidische Metrik, 474 Euklidische Norm, 474 Euklidischer Raum, 471, 474 Euklidisches Skalarprodukt, 474 Existenzsatz Maß, 67, 68 Produktmaß, 170 Exponential–Verteilung, 257, 266, 380 Exzess, 291 F –Verteilung, 266 Faktorisierungssatz, 99, 412, 426 Fakult¨ at, 465 Faltung, 318 Faltungsformel, 315, 317, 376 fast u ¨ berall, 101 fast u ¨ berall Cauchy, 102 fast u ¨ berall definiert, 101 fast u ¨ berall endlich, 101 fast u ¨ berall gleich, 101 fast u ¨ berall konstant, 101 fast u ¨ berall konvergent, 101 fast u ¨ berall reell, 101 fast u ¨ berall stetig, 102 fast sicher, 331 fast sicher konvergent, 331 Filtration, 428, 434 Folge adaptierte, 428
483 integrierbare, 429 p–fach summierbare, 143 positive, 429 stochastische, 197, 264 Folgenraum, 142 Formel von der totalen Wahrscheinlichkeit, 228 Poincar´e, 48 Fortsetzung eines Maßes, 63 Fourier–Entwicklung, 411, 425, 436 Fr´echet–Schranken, 300 Freiheitsgrad, 257, 258 Funktion, 109 Beta–, 186, 466 Cantor–, 261 charakteristische, 383, 389 Dirichlet–, 31, 103, 121, 185 einfache, 96 erzeugende, 369 fast u ¨ berall stetige, 102 Gamma–, 186, 466 Heaviside–, 253, 296 integrierbare, 123, 124, 131, 166 integrierbare komplexe, 135 komplexe, 100 konkave, 467 konstante, 92 konvexe, 467 kumulantenerzeugende, 381, 382 messbare, 92 messbare komplexe, 100 messbare numerische, 92 messbare reelle, 95 momenterzeugende, 378, 381 monotone, 31 numerische, 91 p–fach integrierbare, 135, 145 permutierbare, 358 positiv definite, 462 quadratisch integrierbare, 143 quasiintegrierbare, 124, 134 reelle, 91 Riemann–integrierbare, 182 uneigentlich, 185 symmetrische, 462 wahrscheinlichkeitserzeugende, 370, 378 Funktional, 468
484 Gamma–Funktion, 186, 466 Gamma–Verteilung, 257, 278, 282, 287, 318, 378, 381–383 Gauß–Prozess, 462 Gauß–Verteilung, 258 gemischte Binomial–Verteilung, 265 gemischte Multinomial–Verteilung, 300 gemischte Poisson–Verteilung, 265 geometrische Verteilung, 255, 264, 273, 278, 287, 377 geordnete Menge, 468 geordneter Vektorraum, 469 Gesetz der Großen Zahlen, 337 bedingtes, 451, 453 erstes, 345, 346, 353, 453 schwaches, 337, 338, 340 starkes, 341, 345–347, 353, 453 zweites, 347 Gompertz–Verteilung, 267 Graph, 35, 38, 40 Hahn–Zerlegung, 60, 62, 162 halboffenes Intervall, 20, 21 Halbraum, 72 Halbring, 20, 35 ¯ 21 der halboffenen Intervalle auf R, der halboffenen Intervalle auf Rn , 20 H¨ aufigkeit, 340 Hausdorff–Raum, 13 Heaviside–Funktion, 253, 296 Hilbert–Raum, 470 Hilbert–Verband, 470 Hyperebene, 84 hypergeometrische Verteilung, 253, 277, 287 Ideal, 24, 469 identisch verteilt, 347 Imagin¨ arteil, 100 Indikatorfunktion, 92 Infimum, 468 Inhalt, 43 Inneres, 13 Integral, 110, 115, 122, 124, 131, 135 unbestimmtes, 148, 149 integralinduziertes Maß, 148 integralinduziertes signiertes Maß, 148 integrierbar, 123, 124, 131, 135, 166 bedingt, 417
Sachverzeichnis integrierbare Folge, 429 integrierbare komplexe Funktion, 135 ¨ integrierte Uberlebensfunktion, 284 Intervall, 20, 21 Inverse einer Matrix, 472 invertierbare Matrix, 472 Irrfahrt, 357 Bernoulli–, 366 Jensensche Ungleichung, 128, 280, 426 Jordan–Zerlegung, 58, 62 k–σ–Bereich, 290 kartesisches Produkt, 34 Kegel, 467 positiver, 469 Kettenregel, 150, 155 Kolmogorovsche σ–Algebra, 39 Kolmogorovsches Null–Eins–Gesetz, 234–236, 441 kompakte Menge, 8 komplexe Funktion, 100 integrierbare, 135 Komposition, 28, 30 konkave Funktion, 467 konstante Funktion, 92 Konvergenz, 331 fast u ¨ berall, 101 fast sichere, 331 im Maß, 104 lokale, 107 im Mittel, 131 im p–ten Mittel, 142, 335 im quadratischen Mittel, 142 in Verteilung, 397 mit Wahrscheinlichkeit Eins, 332 punktweise, 91 schwache, 391–393, 395 stochastische, 333 konvexe Funktion, 467 konvexe Menge, 467 Koordinate, 33 einer Zufallsmatrix, 320 koordinatenweise Ordnung, 473 Korrekturfaktor, 287 Korrelationskoeffizient, 328, 329 Korrespondenzsatz bedingter, 443 multivariater, 294
Sachverzeichnis univariater, 246 Kovarianz, 323, 329 bedingte, 424, 426 von Zufallsvektoren, 329 Kovarianz–Zerlegung, 428 Kroneckers Lemma, 345 Kugel offene, 9, 13 kumulantenerzeugende Funktion, 381, 382 Lp –Raum, 135 Laplace–Experiment, 198 Lebensversicherungsmathematik, 229 Lebesgue–Dichte, 255, 297 Lebesgue–Integral, 109, 110, 115, 122, 124, 131, 135 Lebesgue–integrierbar, 124, 131 Lebesgue–Maß, 72, 76, 174 Lebesgue–Zerlegung, 160 Lemma von Borel/Cantelli, 227, 437 Fatou, 122, 123, 415 Kronecker, 345 Riesz/Fischer, 106, 140 limes inferior, 8 limes superior, 8 lineare Abbildung, 468 lineare Menge, 467 logarithmische Verteilung, 265, 283, 290, 378 lokale Konvergenz im Maß, 107 lokales Z¨ ahlmaß, 50, 155 μ–singul¨ ar, 160 μ–stetig, 155 Maß, 49 μ–singul¨ ares, 160 μ–stetiges, 155 absolutstetiges, 155 aquivalentes, 162 ¨ außeres, 65 ¨ Dirac–, 49 integralinduziertes, 148 Lebesgue–, 72, 76, 174 mit Dichte, 149 signiertes, 56 singul¨ ares, 155, 160 translationsinvariantes, 80, 81
485 Maßraum, 101 σ–endlicher, 101 endlicher, 101, 143 majorisierte Konvergenz, 129, 130, 139, 419 Markov–Kern, 442 Martingal, 428 Matrix der zweiten gemischten Momente, 320 invertierbare, 472 positiv definite, 473 positiv semidefinite, 473 singul¨ are, 472 symmetrische, 473 transponierte, 472 maximale Ungleichung, 430 Menge abgeschlossene, 8 abz¨ ahlbare, 8 affine, 467 aquivalente, 48 ¨ beschr¨ ankte, 470 geordnete, 468 kompakte, 8 konvexe, 467 lineare, 467 messbare, 14 offene, 8 permutierbare, 358 vollst¨ andig geordnete, 468 Mengenfunktion, 43 ∅–stetige, 51 σ–additive, 49 σ–endliche, 55 σ–subadditive, 54 additive, 43 beschr¨ ankte, 61 endlich additive, 43 endlich subadditive, 46 endliche, 47, 61 modulare, 47 monotone, 46 subadditive, 46 subtraktive, 47 vollst¨ andige, 48 von oben stetige, 51 von unten stetige, 51 Mengensystem, 7, 8 ∩–stabiles, 17
486 ∪–stabiles, 19 messbare Abbildung, 29, 30, 40 messbare Funktion, 92 komplexe, 100 numerische, 92 reelle, 95 messbare Menge, 14 messbarer Raum, 25, 29 messbares Produkt, 39 Messraum, 29 Metrik, 469 Euklidische, 474 metrischer Raum, 469 modulare Mengenfunktion, 47 Moment, 274, 319 absolutes, 281 Binomial–, 372 der Ordnung n, 281 h¨ oherer Ordnung, 281 zentrales, 285, 289, 323 momenterzeugende Funktion, 378, 381 monotone Funktion, 31 monotone Konvergenz, 115, 118, 415 monotone Mengenfunktion, 46 Multinomial–Verteilung, 297, 305, 308, 311, 314, 320, 321, 324, 326, 328 gemischte, 300 multivariate Verteilung, 293 Verteilungsfunktion, 293, 294, 299 nat¨ urliche Filtration, 428, 434 nat¨ urliche Topologie, 12 ¯ 13 auf R, auf Rn , 12, 36 negativ korreliert, 327 Negativbinomial–Verteilung, 254, 277, 287, 315, 370, 375, 376, 383 negative Variation, 58 Negativmultinomial–Verteilung, 297, 305, 311, 314, 320, 321, 325, 326, 328 Negativteil, 58, 469 Norm, 469 aquivalente, 11 ¨ auf Rn , 11 Euklidische, 474
Sachverzeichnis Normal–Verteilung, 257, 258, 266, 272, 279, 287, 291, 298, 301, 307, 313, 317, 318, 320, 326, 380, 382, 389 normierter Raum, 470 Normtopologie, 9–11 Null–Eins–Gesetz, 228 Borel, 228, 439 Hewitt/Savage, 358 Kolmogorov, 234–236, 441 Mittel, 341, 451 Nullmatrix, 472 Nullmenge, 48, 101 Nullvektor, 471 numerische Funktion, 91 messbare, 92 offene Kugel, 9, 13 offene Menge, 8 offenes Intervall, 20, 21 Ordnung, 468 koordinatenweise, 473 stochastische, 264 stop–loss, 284 Ordnungsrelation, 468 Ordnungsstatistik, 302 Orthogonalmatrix, 472 p–fach integrierbar, 135, 145 p–fach summierbar, 143 paarweise unabh¨ angige Ereignisse, 229 Ereignissysteme, 236 Zufallsgr¨ oßen, 241 Panjer–Verteilung, 377 Pareto–Verteilung, 266, 273, 284 amerikanischer Art, 266 europ¨ aischer Art, 266 Pascal–Verteilung, 254 Permutation, 358 permutationsinvariant, 304 Permutationsmatrix, 472 permutierbare Funktion, 358 permutierbare Menge, 358 Poincar´e, 48 Poisson–Approximation, 397 Poisson–Prozess, 462 Poisson–Verteilung, 254, 277, 287, 297, 315, 353, 370, 375, 376, 383, 405 gemischte, 265
Sachverzeichnis P´ olya–Verteilung, 265, 283, 290 P´ olya/Eggenberger–Verteilung, 300, 308 polyhypergeometrische Verteilung, 296, 304, 311, 314, 320, 321, 324, 326, 328 Portemanteau–Theorem, 393 positiv, 3 positiv definite Funktion, 462 positiv definite Matrix, 473 positiv korreliert, 327 positiv lineare Abbildung, 468 positiv semidefinite Matrix, 473 positive Folge, 429 positive Variation, 58 positiver Kegel, 469 Positivteil, 58, 469 Prinzip des unzureichenden Grundes, 198 Problem der Doppelsechs, 202 probl`eme des parties, 202 Produkt, 33 messbares, 39 topologisches, 36 Produkt von Maßr¨ aumen, 168, 173 Mengen, 33 Mengensystemen, 34 messbaren R¨ aumen, 39 topologischen R¨ aumen, 36 Wahrscheinlichkeitsmaßen, 215 Wahrscheinlichkeitsr¨ aumen, 202, 215, 241 Produkt–σ–Algebra, 39, 40 Produktmaß, 168, 170, 173 Produktraum, 33 Produkttopologie, 36, 38 Projektion, 33, 34, 426, 427 projektiv, 204, 205 punktweise konvergent, 91 quadratisch integrierbar, 143 quasiintegrierbar, 124, 134 bedingt, 416, 425 Rand, 13 Randverteilung, 302, 303 eines stochastischen Prozesses, 461 Raum
487 Euklidischer, 471, 474 messbarer, 25, 29 metrischer, 469 mit Skalarprodukt, 470 normierter, 470 topologischer, 25, 27 vollst¨ andiger, 469, 470 Realteil, 100 rechtecksmonoton, 294 Reduktionssatz, 421 reelle Funktion, 91 messbare, 95 reelle Zufallsvariable, 194 regul¨ ar, 455, 456 relative H¨ aufigkeit, 340 Restriktion einer Abbildung, 29, 32, 165 eines Maßes, 165 Riemann–Integral, 180–182 uneigentliches, 185 Riemann–integrierbar, 182 uneigentlich, 185 Ring, 20, 22 σ–additiv, 49 σ–Algebra, 14 Borelsche, 15, 24 erzeugte, 15, 30 Kolmogorovsche, 39 terminale, 234 σ–endliche Mengenfunktion, 55 σ–endlicher Maßraum, 101 σ–Ideal, 24 σ–Ring, 24 σ–subadditiv, 54 Satz u ¨ ber die majorisierte Konvergenz, 129, 130, 139, 419 monotone Konvergenz, 115, 118, 415 Satz von Andersen/Jessen, 209, 210 Caratheodory, 70 Chung/Fuchs, 363 Fubini, 176, 178 Glivenko/Cantelli, 353, 354, 454 Heine/Borel, 474 Helly, 401 Helly/Bray, 396 Kolmogorov, 455, 458
488 Lebesgue, 129, 130, 139, 419 Levi, 115, 118, 415 L´evy, 431 Pratt, 135 Pythagoras, 427 Radon/Nikodym, 156 Schiefe, 290 Schnitt, 169, 175 schwache Konvergenz, 391, 392 von Verteilungsfunktionen, 395 von Wahrscheinlichkeitsmaßen, 393 schwaches Gesetz der Großen Zahlen, 337, 338, 340 Schwerpunkteigenschaft, 285 sicheres Ereignis, 195 signiertes Maß, 56 integralinduziertes, 148 singul¨ are Matrix, 472 singul¨ ares Maß, 155, 160 Skalarprodukt, 470 Euklidisches, 474 Spur–σ–Algebra, 32 Spurtopologie, 29 Standardabweichung, 289, 290 Standarddarstellung, 97 standardisierte Zufallsvariable, 290 Standardnormal–Verteilung, 258, 298, 379, 381, 383 starkes Gesetz der Großen Zahlen, 341, 345–347, 353 stetig von oben, 51 Funktion, 294 stetig von unten, 51 stetige Abbildung, 27–29, 36 Stetigkeitslemma, 133 Stetigkeitsmenge, 393 Stetigkeitssatz, 404 stetigsingul¨ are Verteilung, 258 Stichprobenmittel, 350 Stichprobenumfang, 350 stochastische Folge, 197, 264 stochastische Konvergenz, 333 stochastische Ordnung, 264 stochastischer Prozess, 461 stop–loss Ordnung, 284 straff, 400 Streuungsmaß, 285, 289 strikt negativ korreliert, 327 strikt positiv korreliert, 327
Sachverzeichnis subadditive Mengenfunktion, 46 Substitutionsregel, 163, 164, 276 subtraktive Mengenfunktion, 47 Supremum, 468 symmetrische Funktion, 462 Matrix, 473 Verteilung, 263, 273, 284, 389 symmetrischer Wahrscheinlichkeitsraum, 198 System der additiven Zerleger, 65 System der J–Zylinder, 205 System der Zylindermengen, 206 t–Verteilung, 258, 270, 279, 282, 323 Teilfolgenprinzip, 334 schwache Konvergenz, 403 terminale σ–Algebra, 234 terminales Ereignis, 234 Topologie, 8 eines metrischen Raumes, 13 eines normierten Raumes, 9, 10 erzeugte, 10, 27 nat¨ urliche, 12, 13, 36 Topologien ¨ aquivalenter Normen, 11 topologischer Raum, 25, 27 topologisches Produkt, 36 totale Variation, 62 totale Wahrscheinlichkeit, 228 Transformationssatz, 163 Translation, 80 translationsinvariantes Maß, 80, 81 transponierte Matrix, 472 Treppenfunktion, 181 typische Zufallsvariable, 347, 453 ¨ Uberlebensfunktion, 264 integrierte, 284 unabh¨ angige Ereignisse, 219, 220, 224 Ereignissysteme, 229, 230 Zufallsgr¨ oßen, 236, 237 Unabh¨ angigkeit, 219 bedingte, 438 unbestimmtes Integral, 148, 149 uneigentlich Riemann–integrierbar, 185 uneigentliches Riemann–Integral, 185 Ungleichung maximale, 430
Sachverzeichnis Ungleichung von Cantelli, 288 Cauchy/Schwarz, 144, 327, 470 Fatou, 122, 123, 415 H¨ older, 137, 145 Jensen, 128, 280, 426 Kolmogorov, 342, 452 Markov, 119, 123, 281, 437 Minkowski, 138 Tschebyschev, 288 uniforme Verteilung, 256, 273, 278, 281, 287, 291, 298, 306, 311, 320, 322, 325, 326, 329, 383 univariate Verteilung, 245 Verteilungsfunktion, 245, 246, 264 unkorreliert, 327, 338 bedingt, 424 unm¨ ogliches Ereignis, 195 Unter–σ–Algebra, 410 Unter–Vektorverband, 469 Unterraum, 467 Urbild einer Abbildung, 26 einer Menge, 26 eines Mengensystems, 25, 26 Urnenmodelle, 200, 221, 228, 239 Ziehen mit Zur¨ ucklegen, 201, 221, 240 ohne Zur¨ ucklegen, 200, 221, 239 Varianz bedingte, 422 einer Zufallsvariablen, 285 eines Zufallsvektors, 325 in den Klassen, 428 zwischen den Klassen, 428 Varianz–Zerlegung, 428 Variation negative, 58 positive, 58 totale, 62 Variationskoeffizient, 290 Vektorraum geordneter, 469 Vektorverband, 469 Verband, 19, 468 Version der bedingten Erwartung, 411, 416, 417
489 Verteilung absolutstetige, 255, 297 bedingte, 435, 442, 443 diskrete, 251, 295 einer Zufallsgr¨ oße, 194 eines stochastischen Prozesses, 461 empirische, 357, 446 multivariate, 293 stetigsingul¨ are, 258 symmetrische, 263, 273, 284, 389 univariate, 245 Verteilungen χ2 –, 257, 272, 318 Bernoulli–, 254 Beta–, 256, 278, 282, 287 Binomial–, 254, 277, 287, 315, 318, 370, 375, 376, 383 Boole–, 254 Cantor–, 258, 261 Cauchy–, 266, 273, 283 Dirac–, 253, 296 Dirichlet–, 298, 307, 308, 312, 320, 322, 325, 326, 329 Erlang–, 257, 318 Exponential–, 257, 266, 380 F –, 266 Gamma–, 257, 278, 282, 287, 318, 378, 381–383 Gauß–, 258 gemischte Binomial–, 265 gemischte Multinomial–, 300 gemischte Poisson–, 265 geometrische, 255, 264, 273, 278, 287, 377 Gompertz–, 267 hypergeometrische, 253, 277, 287 logarithmische, 265, 283, 290, 378 Multinomial–, 297, 305, 308, 311, 314, 320, 321, 324, 326, 328 Negativbinomial–, 254, 277, 287, 315, 370, 375, 376, 383 Negativmultinomial–, 297, 305, 311, 314, 320, 321, 325, 326, 328 Normal–, 257, 258, 266, 272, 279, 287, 291, 298, 301, 307, 313, 317, 318, 320, 326, 380, 382, 389 Panjer–, 377 Pareto–, 266, 273, 284 Pascal–, 254
490 Poisson–, 254, 277, 287, 297, 315, 353, 370, 375, 376, 383, 405 P´ olya–, 265, 283, 290 P´ olya/Eggenberger–, 300, 308 polyhypergeometrische, 296, 304, 311, 314, 320, 321, 324, 326, 328 Standardnormal–, 258, 298, 379, 381, 383 t–, 258, 270, 279, 282, 323 uniforme, 256, 273, 278, 281, 287, 291, 298, 306, 311, 320, 322, 325, 326, 329, 383 Weibull–, 267 Verteilungsfunktion bedingte, 442 empirische, 353, 446 multivariate, 293, 294, 299 univariate, 245, 246, 264 Verteilungskonvergenz, 397 Vervollst¨ andigung, 48, 56, 70, 78 vollst¨ andig geordnete Menge, 468 vollst¨ andige Mengenfunktion, 48 vollst¨ andige Metrik, 469 vollst¨ andige Ordnungsrelation, 468 vollst¨ andiger Raum, 469, 470 Wahrscheinlichkeit bedingte, 220, 435 totale, 228 wahrscheinlichkeitserzeugende Funktion, 370, 378 Wahrscheinlichkeitsfunktion, 196 Wahrscheinlichkeitsinhalt, 194 Wahrscheinlichkeitsmaß, 194 bedingtes, 220 Wahrscheinlichkeitsraum, 193, 194 diskreter, 196 endliches Produkt, 202
Sachverzeichnis symmetrischer, 198 wandernde T¨ urme, 333, 399 Weibull–Verteilung, 267 Wurf einer M¨ unze, 199, 202, 203 bis zum ersten Kopf, 216 relative H¨ aufigkeiten, 339 Wurf eines W¨ urfels, 195 Z¨ ahldichte, 251, 295 Z¨ ahlmaß, 50 lokales, 50, 155 Zentraler Grenzwertsatz, 391, 405, 406 zentrales Moment, 285, 289, 323 zentrierte Zufallsvariable, 285 Zerlegung Hahn–, 60, 62, 162 Jordan–, 58, 62 Lebesgue–, 160 Ziehen mit Zur¨ ucklegen, 201, 221, 240 ohne Zur¨ ucklegen, 200, 221, 239 Zufallsexperiment, 195 Zufallsgr¨ oße, 194 Zufallsgr¨ oßen bedingt unabh¨ angige, 441 paarweise unabh¨ angige, 241 unabh¨ angige, 236, 237 Zufallsmatrix, 320 Zufallsvariable, 194 reelle, 194 standardisierte, 290 typische, 347, 453 zentrierte, 285 Zufallsvektor, 194 zweites Gesetz der Großen Zahlen, 347 zweites zentrales Moment, 289 Zylinder, 205 Zylindermenge, 206
Springer-Lehrbuch
Klaus D. Schmidt
Maß und Wahrscheinlichkeit
123
Prof. Dr. Klaus D. Schmidt Technische Universität Dresden Lehrstuhl für Versicherungsmathematik Fachrichtung Mathematik Zellescher Weg 12-14 01062 Dresden Deutschland
ISBN 978-3-540-89729-3
e-ISBN 978-3-540-89730-9
DOI 10.1007/978-3-540-89730-9 Springer-Lehrbuch ISSN 0937-7433 Bibliografische Information der Deutschen Nationalbibliothek Die Deutsche Nationalbibliothek verzeichnet diese Publikation in der Deutschen Nationalbibliografie; detaillierte bibliografische Daten sind im Internet über http://dnb.d-nb.de abrufbar. Mathematics Subject Classification (2000): 28-01, 60-01 c 2009 Springer-Verlag Berlin Heidelberg Dieses Werk ist urheberrechtlich geschützt. Die dadurch begründeten Rechte, insbesondere die der Übersetzung, des Nachdrucks, des Vortrags, der Entnahme von Abbildungen und Tabellen, der Funksendung, der Mikroverfilmung oder der Vervielfältigung auf anderen Wegen und der Speicherung in Datenverarbeitungsanlagen, bleiben, auch bei nur auszugsweiser Verwertung, vorbehalten. Eine Vervielfältigung dieses Werkes oder von Teilen dieses Werkes ist auch im Einzelfall nur in den Grenzen der gesetzlichen Bestimmungen des Urheberrechtsgesetzes der Bundesrepublik Deutschland vom 9. September 1965 in der jeweils geltenden Fassung zulässig. Sie ist grundsätzlich vergütungspflichtig. Zuwiderhandlungen unterliegen den Strafbestimmungen des Urheberrechtsgesetzes. Die Wiedergabe von Gebrauchsnamen, Handelsnamen, Warenbezeichnungen usw. in diesem Werk berechtigt auch ohne besondere Kennzeichnung nicht zu der Annahme, dass solche Namen im Sinne der Warenzeichen- und Markenschutz-Gesetzgebung als frei zu betrachten wären und daher von jedermann benutzt werden dürften. Einbandgestaltung: WMX Design GmbH, Heidelberg Gedruckt auf säurefreiem Papier 987654321 springer.de
Vorwort
Jede Zeit erfordert ihre eigene Sicht der Dinge. Das Anliegen dieses Buches ist ¨ es, in einer Zeit des Ubergangs von einer Vielfalt von Diplomstudieng¨angen zu einer noch gr¨ oßeren Vielfalt von Bachelor– und Master–Studieng¨angen und der damit verbundenen Tendenz zur Verlagerung der Studieninhalte von der Theorie zur Anwendung, die Grundlagen der Wahrscheinlichkeitstheorie im Spannungsfeld zwischen Theorie und Anwendung darzustellen. Als theoretische Grundlage der Wahrscheinlichkeitstheorie ist die Maß– und Integrationstheorie unverzichtbar, und zu einem gewissen Grad gilt dies auch f¨ ur die Topologie, auf der unter anderem der Begriff der Borelschen σ–Algebra, die Konstruktion des Lebesgue–Maßes und die Konstruktion stochastischer Prozesse beruht. Auf der anderen Seite erfordern Anwendungen der Wahrscheinlichkeitstheorie ein umfangreiches Repertoire an Methoden zur Konstruktion wahrscheinlichkeitstheoretischer Modelle. Grundlegend sind hier zum einen der Begriff der Unabh¨ angigkeit und zum anderen der Begriff der bedingten Erwartung und der davon abgeleitete Begriff der bedingten Verteilung. In Anwendungen der Wahrscheinlichkeitstheorie ist schließlich auch die Kenntnis der Eigenschaften spezieller univariater und multivariater Verteilungen erforderlich. Neben der Darstellung der Grundlagen der Wahrscheinlichkeitstheorie liefert dieses Buch mit zahlreichen Aufgaben auch Ansatzpunkte f¨ ur das Studium spezieller Fragestellungen, von denen einige theoretisch orientiert sind und andere sich aus Anwendungen insbesondere im Bereich der Statistik und der Versicherungsmathematik ergeben. Ein Autor, der st¨ arker der angewandten reinen Mathematik als der reinen angewandten Mathematik verhaftet ist, ist geneigt, mathematische Aussagen unter m¨ oglichst allgemeinen Voraussetzungen zu beweisen. Die Aufgabe, ein Lehrbuch zu schreiben, setzt dieser Versuchung nat¨ urliche Grenzen, und so
vi
Vorwort
habe ich mich bem¨ uht, zwischen dem Streben nach Allgemeinheit und der Beschr¨ ankung auf das Wesentliche ein Gleichgewicht zu finden. Bei der Arbeit an diesem Buch habe ich vielf¨ altige Unterst¨ utzung erhalten: – Klaus Th. Hess und Mathias Zocher haben die Entstehung des Buches begleitet und mir als anregende Gespr¨ achspartner zur Seite gestanden. – Lothar Partzsch und Wilfried Schenk haben Teile des Manuskriptes durchgesehen und wertvolle Hinweise gegeben. – Elisabeth L¨ oser, Alexander Ludwig, Andreas Ringel und viele andere Studenten haben zu wesentlichen Verbesserungen beigetragen. – Mandy Karzig hat fast alle Beispiele und Aufgaben zu univariaten und multivariaten Verteilungen u uft. ¨ berpr¨ – Christiane Weber hat Teile des Manuskriptes mit der ihr eigenen un¨ ubertrefflichen Sorgfalt korrekturgelesen und zusammen mit Elisabeth L¨oser bei der Erstellung des Symbolverzeichnisses und des Sachverzeichnisses mitgewirkt. Ihnen allen sei herzlich gedankt. Schließlich danke ich dem Springer–Verlag und insbesondere Clemens Heine f¨ ur die angenehme Zusammenarbeit.
Dresden, im November 2008
Klaus D. Schmidt
Inhaltsverzeichnis
Einleitung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
1
Teil I Mengensysteme und Abbildungen 1
Mengensysteme . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1.1 Topologien . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1.2 σ–Algebren . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1.3 Dynkin–Systeme . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1.4 ∩–stabile Mengensysteme . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1.5 Halbringe und Ringe . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
7 8 14 16 17 20
2
Topologische R¨ aume und messbare R¨ aume . . . . . . . . . . . . . . . . 2.1 Urbilder von Mengensystemen . . . . . . . . . . . . . . . . . . . . . . . . . . . . 2.2 Topologische R¨ aume und stetige Abbildungen . . . . . . . . . . . . . . . 2.3 Messbare R¨ aume und messbare Abbildungen . . . . . . . . . . . . . . . .
25 25 27 29
3
Produktr¨ aume . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 3.1 Produkte und Projektionen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 3.2 Produkte von topologischen R¨ aumen . . . . . . . . . . . . . . . . . . . . . . . 3.3 Produkte von messbaren R¨ aumen . . . . . . . . . . . . . . . . . . . . . . . . .
33 33 36 39
Teil II Maßtheorie 4
Mengenfunktionen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 4.1 Inhalte . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 4.2 Maße . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 4.3 Signierte Maße . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
43 43 49 56
viii
Inhaltsverzeichnis
5
Fortsetzung von Maßen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 5.1 Eindeutigkeitssatz . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . ¨ 5.2 Außere Maße . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 5.3 Existenzsatz . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 5.4 Approximationssatz . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 5.5 Lebesgue–Maß . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
63 63 65 67 70 72
6
Transformation von Maßen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 6.1 Bildmaße . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 6.2 Translationsinvariante Maße auf B(Rn ) . . . . . . . . . . . . . . . . . . . . . 6.3 Lineare Abbildungen des Lebesgue–Maßes . . . . . . . . . . . . . . . . . .
79 79 80 85
Teil III Integrationstheorie 7
Messbare Funktionen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 91 7.1 Messbare Funktionen auf einem Messraum . . . . . . . . . . . . . . . . . . 92 7.2 Messbare Funktionen auf einem Maßraum . . . . . . . . . . . . . . . . . . 101
8
Lebesgue–Integral . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 109 8.1 Positive einfache Funktionen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 110 8.2 Positive messbare Funktionen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 115 8.3 Integrierbare Funktionen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 123 aume . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 135 8.4 Lp –R¨
9
Berechnung des Lebesgue–Integrals . . . . . . . . . . . . . . . . . . . . . . . . 147 9.1 Integralinduzierte Maße und signierte Maße . . . . . . . . . . . . . . . . . 148 9.2 Integration nach einem Maß mit Dichte . . . . . . . . . . . . . . . . . . . . 149 9.3 Absolutstetige und singul¨ are Maße . . . . . . . . . . . . . . . . . . . . . . . . . 155 9.4 Integration nach einem Bildmaß . . . . . . . . . . . . . . . . . . . . . . . . . . . 163 9.5 Integration nach einem eingeschr¨ ankten Maß . . . . . . . . . . . . . . . . 165 9.6 Produktmaße . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 168 9.7 Integration nach einem Produktmaß . . . . . . . . . . . . . . . . . . . . . . . 175 9.8 Lebesgue–Integral und Riemann–Integral . . . . . . . . . . . . . . . . . . . 180
Teil IV Wahrscheinlichkeitstheorie 10 Wahrscheinlichkeitsr¨ aume . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 193 10.1 Wahrscheinlichkeitsr¨ aume und Zufallsgr¨oßen . . . . . . . . . . . . . . . . 194 10.2 Diskrete Wahrscheinlichkeitsr¨ aume . . . . . . . . . . . . . . . . . . . . . . . . 196 10.3 Symmetrische Wahrscheinlichkeitsr¨ aume . . . . . . . . . . . . . . . . . . . . 198 10.4 Endliche Produkte von Wahrscheinlichkeitsr¨aumen . . . . . . . . . . . 202 10.5 Projektive Familien von Wahrscheinlichkeitsr¨aumen . . . . . . . . . . 204 10.6 Satz von Andersen/Jessen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 209
Inhaltsverzeichnis
ix
11 Unabh¨ angigkeit . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 219 11.1 Unabh¨ angige Familien von Ereignissen . . . . . . . . . . . . . . . . . . . . . 219 11.2 Unabh¨ angige Familien von Ereignissystemen . . . . . . . . . . . . . . . . 229 11.3 Unabh¨ angige Familien von Zufallsgr¨ oßen . . . . . . . . . . . . . . . . . . . 236 11.4 Produkte von Wahrscheinlichkeitsr¨ aumen . . . . . . . . . . . . . . . . . . . 241 12 Univariate Verteilungen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 245 12.1 Verteilungen und Verteilungsfunktionen . . . . . . . . . . . . . . . . . . . . 245 12.2 Transformationen von Verteilungen . . . . . . . . . . . . . . . . . . . . . . . . 267 12.3 Momente . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 274 12.4 Zentrale Momente . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 285 13 Multivariate Verteilungen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 293 13.1 Verteilungen und Verteilungsfunktionen . . . . . . . . . . . . . . . . . . . . 293 13.2 Transformationen von Verteilungen . . . . . . . . . . . . . . . . . . . . . . . . 301 13.3 Randverteilungen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 302 13.4 Unabh¨ angigkeit . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 309 13.5 Verteilungen von Summen von Zufallsvariablen . . . . . . . . . . . . . . 314 13.6 Momente . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 319 13.7 Zentrale Momente . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 323 14 Konvergenz von Folgen von Zufallsvariablen . . . . . . . . . . . . . . . 331 14.1 Fast sichere Konvergenz . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 331 14.2 Stochastische Konvergenz . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 333 14.3 Konvergenz im p–ten Mittel . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 335 15 Gesetze der Großen Zahlen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 337 15.1 Schwache Gesetze der Großen Zahlen . . . . . . . . . . . . . . . . . . . . . . 337 15.2 Starke Gesetze der Großen Zahlen . . . . . . . . . . . . . . . . . . . . . . . . . 341 15.3 Satz von Glivenko/Cantelli . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 353 15.4 Irrfahrten . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 357 Teil V Vertiefung der Wahrscheinlichkeitstheorie 16 Erzeugende Funktionen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 369 16.1 Wahrscheinlichkeitserzeugende Funktion . . . . . . . . . . . . . . . . . . . . 370 16.2 Momenterzeugende Funktion . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 378 16.3 Kumulantenerzeugende Funktion . . . . . . . . . . . . . . . . . . . . . . . . . . 381 16.4 Charakteristische Funktion . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 383 17 Schwache Konvergenz und Zentraler Grenzwertsatz . . . . . . . . 391 17.1 Schwache Konvergenz . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 392 17.2 Straffheit . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 400 17.3 Zentraler Grenzwertsatz . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 405
x
Inhaltsverzeichnis
18 Bedingte Erwartung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 409 18.1 Bedingte Erwartung einer positiven Zufallsvariablen . . . . . . . . . 410 18.2 Bedingte Erwartung und bedingte Integrierbarkeit . . . . . . . . . . . 416 18.3 Bedingte Erwartung als Projektion . . . . . . . . . . . . . . . . . . . . . . . . 426 18.4 Martingale . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 428 19 Bedingte Wahrscheinlichkeit und bedingte Verteilung . . . . . . 435 19.1 Bedingte Wahrscheinlichkeit . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 435 19.2 Bedingte Unabh¨ angigkeit . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 438 19.3 Bedingte Verteilung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 442 19.4 Bedingte Dichte . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 446 19.5 Bedingte Gesetze der Großen Zahlen . . . . . . . . . . . . . . . . . . . . . . . 451 20 Regularit¨ at und Satz von Kolmogorov . . . . . . . . . . . . . . . . . . . . . 455 20.1 Regularit¨ at . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 456 20.2 Satz von Kolmogorov . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 458
Anhang A
Fakult¨ at und Gamma–Funktion . . . . . . . . . . . . . . . . . . . . . . . . . . . . 465 A.1 Fakult¨ at und Binomial–Koeffizient . . . . . . . . . . . . . . . . . . . . . . . . . 465 A.2 Gamma–Funktion und Beta–Funktion . . . . . . . . . . . . . . . . . . . . . . 466
B
Vektorr¨ aume, Ordnung und Topologie . . . . . . . . . . . . . . . . . . . . . 467 B.1 Vektorr¨ aume . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 467 B.2 Ordnung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 468 B.3 Topologie . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 469 B.4 Ordnung und Topologie . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 470
C
Der C.1 C.2 C.3 C.4
Euklidische Raum . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 471 Vektoren und Matrizen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 471 Ordnung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 473 Topologie . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 474 Ordnung und Topologie . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 474
Literaturverzeichnis . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 475 Symbolverzeichnis . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 477 Sachverzeichnis . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 481
Teil V
Vertiefung der Wahrscheinlichkeitstheorie
20 Regularit¨ at und Satz von Kolmogorov
Sei I eine nichtleere Indexmenge und sei H(I) die Familie der endlichen nichtleeren Teilmengen von I. Wir betrachten den Messraum i∈I (R, B(R)) und eine projektive Familie ur alle J ∈ H(I) und von Verteilungen {QJ }J∈H(I) mit QJ : B(RJ ) → [0, 1] f¨ untersuchen die Existenz und Eindeutigkeit eines Wahrscheinlichkeitsmaßes Q : i∈I B(R) → [0, 1] mit Q πJ = Q J f¨ ur alle J ∈ H(I). Ist insbesondere {Qi }i∈I eine Familie von Verteilungen auf B(R), so ist die Familie {QJ }J∈H(I) mit QJ := Qi i∈J
projektiv, und in diesem Spezialfall - folgt die Existenz und Eindeutigkeit eines Wahrscheinlichkeitsmaßes Q : i∈I B(R) → [0, 1] mit Q πJ = Q J f¨ ur alle J ∈ H(I) aus dem Satz von Andersen/Jessen. Der Satz von Andersen/ Jessen liefert daher insbesondere zu jeder Familie von Verteilungen {Qi }i∈I auf B(R) die Existenz eines Wahrscheinlichkeitsraumes (Ω, F , P ) und einer unabh¨ angigen Familie von Zufallsvariablen {Xi }i∈I mit Xi : Ω → R und ur alle i ∈ I. PXi = Qi f¨ Wir zeigen zun¨ achst, dass jede multivariate Verteilung regul¨ar ist (Abschnitt 20.1), und beweisen dann den Satz von Kolmogorov (Abschnitt 20.2), der das eingangs genannte Problem f¨ ur jede projektive Familie {QJ }J∈H(I) von endlichdimensionalen Verteilungen QJ : B(RJ ) → [0, 1] l¨ost.
456
Kapitel 20. Regularit¨ at und Satz von Kolmogorov
20.1 Regularit¨ at Sei (S, d) ein metrischer Raum und sei Td die von der Metrik d erzeugte ur alle B ∈ B(Td ) Topologie. Ein Maß μ : B(Td ) → [0, ∞] heißt regul¨ar , wenn f¨ μ[B] = inf μ[U ] U ∈ B(Td ) ist offen mit B ⊆ U und
μ[B] = sup μ[K] K ∈ B(Td ) ist kompakt mit K ⊆ B
gilt. Das folgende Lemma liefert die Regularit¨ at aller Verteilungen auf B(Rm ): 20.1.1 Lemma. Jede Verteilung auf B(Rm ) ist regul¨ar. Beweis. Sei Q : B(Rm ) → [0, 1] eine Verteilung und sei ε ∈ (0, ∞). −1 Sei zun¨ achst (a, b] ∈ J (Rm ). Dann ist die Folge {(a, eine mo b+k 1)}k∈N noton fallende Folge offener Mengen mit (a, b] = k∈N (a, b + k −1 1) und es gilt Q[(a, b]] ≤ inf Q[U ] U ∈ 2Ω ist offen mit (a, b] ⊆ U ≤ inf Q[(a, b+k −1 1)] k ∈ N = Q[(a, b]] und damit
Q[(a, b]] = inf Q[U ] U ∈ 2Ω ist offen mit (a, b] ⊆ U
Sei nun B ∈ B(Rm ). Nach dem Satz von Caratheodory stimmt Q mit der Restriktion des von der Restriktion von Q auf J (Rm ) erzeugten ¨außeren Maßes (Q|J (Rm ) )∗ auf B(Rm ) u ¨ berein; es gilt also Q[B] = (Q|J (Rm ) )∗ [B] m Sei ε ∈ (0, ∞). Dann gibt es eine Folge {(an , bn ]}n∈N ⊆ J (R ) mit B ⊆ n∈N (an , bn ] und ∞
Q[(an , bn ]] ≤ Q[B] +
n=1
ε 2
und nach dem vorher Gezeigten gibt es f¨ ur alle n ∈ N eine offene Menge Un mit (an , bn ] ⊆ Un und Q[Un ] ≤ Q[(an , bn ]) +
ε 2n+1
20.1 Regularit¨ at
Sei U :=
n∈N
457
Un . Dann ist U offen mit B ⊆ U und es gilt Q[U ] ≤ ≤ =
∞ n=1 ∞ n=1 ∞
Q[Un ] Q[(an , bn ]) + Q[(an , bn ]) +
n=1
≤ Q[B] +
ε
!
2n+1
ε 2
ε ε + 2 2
= Q[B] + ε Daraus folgt Q[B] = inf Q[U ] U ∈ B(Rm ) ist offen mit B ⊆ U Sei nochmals ε ∈ (0, ∞). Nach dem bisher Gezeigten gibt es eine offene Menge V ∈ B(Rm ) mit B ⊆ V und Q[V ] ≤ Q[B] + ε/2 und damit Q[V ∩ B] + Q[B] = Q[V ∩ B] + Q[V \ B] = Q[V ] ≤ Q[B] +
ε 2
Da Q endlich ist, ergibt sich nun Q[B ∩ V ] ≤
ε 2
und wegen inf n∈N Q[B \ [−n, n]] = 0 gibt es eine kompakte Menge L ∈ B(Rm ) mit ε Q[B \ L] ≤ 2 Sei K := L\V . Dann ist K kompakt mit K ⊆ B und B \K ⊆ (B \L)∪(B ∩V ) und es gilt Q[B \ K] ≤ Q[B \ L] + Q[B ∩ V ] ≤
ε ε + =ε 2 2
und damit Q[B] = Q[B ∩ K] + Q[B \ K] ≤ Q[K] + ε Daraus folgt Q[B] = sup Q[K] K ∈ B(Rm ) ist kompakt mit K ⊆ B Daher ist Q regul¨ar.
2
458
Kapitel 20. Regularit¨ at und Satz von Kolmogorov
20.2 Satz von Kolmogorov Wir beweisen nun den angek¨ undigten Satz von Kolmogorov: 20.2.1 Satz (Kolmogorov). Sei {QJ }J∈H(I) eine projektive Familie von Wahrscheinlichkeitsmaßen mit QJ : B(RJ ) →[0, 1] f¨ ur alle J ∈ H(I). Dann gibt es genau ein Wahrscheinlichkeitsmaß Q : i∈I B(R) → [0, 1] derart, dass f¨ ur alle J ∈ H(I) Q πJ = Q J gilt. Beweis. Im Fall einer endlichen Indexmenge I ist nichts zu zeigen. Sei daher I unendlich. Sei ferner Z die Algebra der Zylindermengen auf RI und f¨ ur J ∈ H(I) sei ZJ = πJ−1 (B(RJ )) die σ–Algebra der J–Zylinder. Nach Satz 10.5.6 existiert genau ein Wahrscheinlichkeitsinhalt Q : Z → [0, 1] mit Q[πJ−1 (C)] = QJ [C] f¨ ur alle J ∈ H(I) und alle C ∈ FJ . Wir zeigen im folgenden, dass Q ∅–stetig ist. Dann ist Q nach Lemma 10.1.2 σ–additiv und besitzt nach dem Satz von Caratheodory eine eindeutige Fortsetzung zu einem Wahrscheinlichkeitsmaß F → [0, 1], das wir wieder mit Q bezeichnen. Der Wahrscheinlichkeitsinhalt Q ist nach Definition genau dann ∅–stetig, wenn f¨ ur jede monoton fallende Folge {An }n∈N ⊆ Z mit n∈N An = ∅ inf Q[An ] = 0
n∈N
gilt. Diese Bedingung ist gleichwertig damit, dass f¨ ur jede monoton fallende Folge {An }n∈N ⊆ Z mit inf n∈N Q[An ] > 0 An = ∅ n∈N
gilt. Sei also {An }n∈N ⊆ Z eine monoton fallende Folge mit inf n∈N Q[An ] > 0 und sei α := inf Q[An ] n∈N
Dann gibt es eine streng monoton wachsende Folge {Jn }n∈N ⊆ H(I) mit An ∈ ZJn f¨ ur alle n ∈ N.
20.2 Satz von Kolmogorov
459
(1) F¨ ur alle n ∈ N gibt es ein Cn ∈ FJn mit (Cn ) An = πJ−1 n und nach Lemma 20.1.1 gibt es eine kompakte Menge Kn ∈ FJn mit Kn ⊆ Cn und QJn [Cn \ Kn ] < (2) F¨ ur alle k ∈ N sei Bk := Bk =
k
k n=1
πJ−1 (Kn ). Dann gilt Bk ∈ ZJk sowie n
πJ−1 (Kn ) ⊆ n
n=1
α 2n
k
k
πJ−1 (Cn ) = n
n=1
An = Ak
n=1
und Ak \ Bk =
k
πJ−1 (Cn ) n
\
n=1
k
πJ−1 (Kn ) n
⊆
n=1
k
πJ−1 (Cn \ Kn ) n
n=1
und damit Q[Ak \ Bk ] ≤ Q
k
πJ−1 (Cn n
\ Kn )
n=1
≤
k
Q[πJ−1 (Cn \ Kn )] n
n=1
=
k
QJn [Cn \ Kn ]
n=1
<
k α n 2 n=1
=α ≤ Q[Ak ] Daher gilt Q[Bk ] = Q[Ak ] − Q[Ak \ Bk ] > 0 und damit Bk = ∅ (3) Es gibt daher eine Folge {xk }k∈N mit xk ∈ Bk = k ∈ N. Dann gilt f¨ ur alle n ∈ N und k ∈ N(n) xk ∈ πJ−1 (Kn ) n
k n=1
πJ−1 (Kn ) f¨ ur alle n
460
Kapitel 20. Regularit¨ at und Satz von Kolmogorov
und damit gilt f¨ ur alle n ∈ N, k ∈ N(n) und j ∈ Jn πj (xk ) = πj,Jn (πJn (xk )) ∈ πj,Jn (Kn ) (4) Sei nun
J :=
Jn
n∈N
und sei {jh | h ∈ N} eine Abz¨ ahlung von J. Dann gibt es zu jedem h ∈ N ein n ∈ N mit jh ∈ Jn und πjh (xk ) ∈ πjh ,Jn (Kn ) f¨ ur alle k ∈ N(n). Da Kn kompakt und die Projektion πjh ,Jn stetig ist, ist unnung erh¨alt man daher auch πjh ,Jn (Kn ) kompakt. Durch sukzessive Verd¨ f¨ ur jedes h ∈ N eine Teilfolge {yh,k }k∈N von {xk }k∈N derart, dass die Folge {πjh (yh,k )}k∈N konvergiert. F¨ ur alle h ∈ N sei yh := yh,h . Dann ist f¨ ur alle j ∈ J die Folge {πj (yh )}h∈N konvergent und wir setzen zj := lim πj (yh ) h→∞
(5) F¨ ur alle n ∈ N sei
zJn :=
−1 πj,J ({zj }) n
j∈Jn
(Kn ) und damit auch yk ∈ πJ−1 (Kn ). Wir F¨ ur alle k ∈ N(n) gilt xk ∈ πJ−1 n n erhalten daher −1 πj,J ({zj }) z Jn = n j∈Jn
=
−1 πj,J n
j∈Jn
= lim
k→∞
lim πj (yk )
k→∞
−1 πj,J ({πj (yk )}) n
j∈Jn
= lim πJn (yk ) k→∞
∈ Kn Wegen πJ−1 ({zJn }) = πJ−1 n n
j∈Jn
−1 πj,J ({zj }) n
=
j∈Jn
πj−1 ({zj })
20.2 Satz von Kolmogorov
461
ist die Folge {πJ−1 ({zJn })}n∈N monoton fallend und es gilt n πJ−1 ({zJn }) = ∅ n n∈N
und damit ∅ =
πJ−1 ({zJn }) ⊆ n
n∈N
πJ−1 (Kn ) ⊆ n
n∈N
n∈N
Daher ist Q ∅–stetig.
πJ−1 (Cn ) = n
An
n∈N
2
Sei (Ω, F , P ) ein Wahrscheinlichkeitsraum. Eine Familie von Zufallsvariablen {Xi }i∈I heißt stochastischer Prozess auf (Ω, F , P ). Sei {Xi }i∈I ein stochastischer Prozess auf einem Wahrscheinlichkeitsraum (Ω, F , P ). Dann ist die Abbildung X : Ω → RI mit den Koordinaten πi ◦ X = Xi messbar und f¨ ur alle J ∈ H(I) ist die Abbildung XJ : Ω → RJ mit - den Koordinaten πi,J ◦ XJ = Xi ebenfalls messbar; das Bildmaß PX : ur i∈I B(R) → [0, 1] heißt Verteilung des stochastischen Prozesses und f¨ J ∈ H(I) heißt das Bildmaß PXJ : B(RJ ) → [0, 1] endlichdimensionale Randverteilung des stochastischen Prozesses bez¨ uglich J. F¨ ur alle J ∈ H(I) gilt XJ = πJ ◦ X und damit (PXJ ) = (PX )πJ . Daher ist die Familie {PXJ }J∈H(I) projektiv. Aus dem Satz von Kolmogorov ergibt sich die Existenz eines stochastischen Prozesses mit einer gegebenen projektiven Familie von endlichdimensionalen Randverteilungen: 20.2.2 Folgerung. Sei {QJ }J∈H(I) eine projektive Familie von Wahrscheinlichkeitsmaßen mit QJ : B(RJ ) → [0, 1] f¨ ur alle J ∈ H(I). Dann gibt es einen Wahrscheinlichkeitsraum (Ω, F , P ) und einen stochastischen Prozess {Xi }i∈I auf (Ω, F , P ) mit PXJ = QJ f¨ ur alle J ∈ H(I). Beweis. Aus der Projektivit¨ at der Familie {QJ }J∈H(I) und dem Satz von Kolmogorov folgt die Existenz eines eindeutig bestimmten Wahrscheinlichur alle J ∈ H(I). Sei keitsmaßes Q : i∈I B(R) → [0, 1] mit QπJ = QJ f¨ I B(R), Q (Ω, F , P ) := R , i∈I
und f¨ ur alle i ∈ I sei Xi := πi Dann ist (Ω, F , P ) ein Wahrscheinlichkeitsraum und {Xi }i∈I ist ein stochaur alle J ∈ H(I). 2 stischer Prozess auf (Ω, F , P ) mit PXJ = QJ f¨
462
Kapitel 20. Regularit¨ at und Satz von Kolmogorov
Aufgaben 20.2.A Eine Funktion σ : I × I → R heißt – symmetrisch, wenn f¨ ur alle i, j ∈ I σ(i, j) = σ(j, i) gilt. positiv definit, wenn f¨ ur alle J ∈ H(I) die Matrix {σ(i, j)}i,j∈J positiv definit ist. Ist σ : I × I → R eine positiv definite symmetrische Funktion, so gilt f¨ ur alle i, j ∈ I mit i = j –
(σ(i, j))2 < σ(i, i) σ(j, j) 20.2.B Gauß–Prozess: Ein stochastischer Prozess {Xi }i∈I auf einem Wahrscheinlichkeitsraum (Ω, F, P ) heißt Gauß–Prozess, wenn f¨ ur alle J ∈ H(I) der Zufallsvektor XJ = {Xi }i∈J eine Normal–Verteilung besitzt. (1) Ist {Xi }i∈I ein Gauß–Prozess, so ist die Funktion σ : I × I → R mit σ(i, j) := cov [Xi , Xj ] symmetrisch und positiv definit. (2) Sei μ : I → R eine Funktion und sei σ : I × I → R eine positiv definite symmetrische Funktion. F¨ ur alle J ∈ H(I) sei μJ := (μ(i))i∈J und ΣJ := (σ(i, j))i,j∈J . Dann gibt es einen Wahrscheinlichkeitsraum (Ω, F, P ) und einen Gauß–Prozess {Xi }i∈I auf (Ω, F, P ) mit PXJ = ur alle J ∈ H(I). N(μJ , ΣJ ) f¨ 20.2.C Poisson–Prozess: Sei α ∈ (0, ∞). Ein stochastischer Prozess {Xt }t∈R+ auf einem Wahrscheinlichkeitsraum (Ω, F, P ) heißt Poisson–Prozess zum ur alle n ∈ N und f¨ ur alle t0 , t1 , . . . , tn ∈ R+ Parameter α, wenn X0 = 0 und f¨ mit 0 = t0 < t1 < · · · < tn und alle k1 , . . . , kn ∈ N0 " n # n \ Y ((tj −tj−1 )α)kj P {Xtj −Xtj−1 = kj } = e−(tj −tj−1 )α kj ! j=1 j=1 gilt. Beweisen Sie die Existenz eines Poisson–Prozesses zum Parameter α.
Anhang
A Fakult¨ at und Gamma–Funktion
¨ Wir geben hier einen Uberblick u ¨ ber die Eigenschaften von Fakult¨aten und der Gamma–Funktion und die daraus resultierenden Eigenschaften von Binomial– Koeffizienten und der Beta–Funktion.
A.1 Fakult¨ at und Binomial–Koeffizient F¨ ur n ∈ N0 sei n! :=
n−1
(n−j)
j=0
Die Zahl n! heißt n Fakult¨at . Damit gilt 0! = 1 und (n+1)! = (n+1) · n! Interpretation: n! ist die Anzahl der M¨ oglichkeiten, n unterscheidbare Objekte anzuordnen. F¨ ur α ∈ R und k ∈ N0 sei ! k−1 α−j α := k k−j j=0 Die Zahl αk heißt Binomial–Koeffizient α ¨ uber k. Damit gilt α0 = 1. F¨ ur n ∈ N0 und k ∈ N0 gilt ⎧ n! ! ⎨ falls k ≤ n n = k! (n−k)! ⎩ k 0 sonst und f¨ ur n ∈ N0 und k ∈ N0 mit k ≤ n gilt
466
Anhang A. Fakult¨ at und Gamma–Funktion
! n =1 0 ! ! n n = k n−k ! ! ! n+1 n n = + k+1 k k+1 n Durch vollst¨ andige Induktion ergibt sich k ∈ N0 und aus dem Binomischen Satz folgt ! n n = 2n k k=0 n oglichkeiten, k von n unterscheidbaren Interpretation: k ist die Anzahl der M¨ Objekten (ohne Ber¨ u cksichtigung der Reihenfolge) auszuw¨ahlen. Insbesondere ist nk die Anzahl der k–elementigen Teilmengen der Menge {1, . . . , n} und 2n ist die Anzahl aller Teilmengen der Menge {1, . . . , n}.
A.2 Gamma–Funktion und Beta–Funktion Die Funktion Γ : (0, ∞) → (0, ∞) mit ( ∞ e−z z γ−1 dz Γ(γ) := 0
heißt Gamma–Funktion. Es gilt √ Γ( 12 ) = π Γ(1) = 1 Γ(γ +1) = γ Γ(γ) Die letzte Gleichung heißt 5–Gamma–Formel. Insbesondere gilt f¨ ur n ∈ N0 Γ(n+1) = n! ! γ+n−1 Γ(γ +n) = Γ(γ) n! n Die Funktion B : (0, ∞) × (0, ∞) → (0, ∞) mit ( 1 B(α, β) := z α−1 (1−z)β−1 dz 0
heißt Beta–Funktion. Es gilt B(α, β) =
Γ(α) Γ(β) Γ(α + β)
B Vektorr¨ aume, Ordnung und Topologie
¨ Wir geben hier einen Uberblick u ¨ber die linearen, ordnungstheoretischen und topologischen Strukturen in einem Vektorraum. Alle Vektorr¨aume seien reell.
B.1 Vektorr¨ aume Im gesamten Abschnitt sei E ein Vektorraum. Eine Menge C ⊆ E heißt – konvex , wenn ax + by ∈ C f¨ ur alle x, y ∈ C und f¨ ur alle a, b ∈ R+ mit a+b = 1 gilt. – Kegel , wenn ax + by ∈ C f¨ ur alle x, y ∈ C und f¨ ur alle a, b ∈ R+ gilt. – affin, wenn ax+by ∈ C f¨ ur alle x, y ∈ C und f¨ ur alle a, b ∈ R mit a+b = 1 gilt. – linear , wenn ax + by ∈ C f¨ ur alle x, y ∈ C und f¨ ur alle a, b ∈ R gilt. Jede nichtleere lineare Teilmenge von E ist selbst ein Vektorraum und wird als Unterraum von E bezeichnet. Sei C ⊆ E. Eine Funktion h : C → R heißt – konvex , wenn f¨ ur alle x, y ∈ C und a, b ∈ R+ mit a+b = 1 und ax+by ∈ C h(ax+by) ≤ ah(x) + bh(y) –
gilt. konkav , wenn f¨ ur alle x, y ∈ C und a, b ∈ R+ mit a+b = 1 und ax+by ∈ C h(ax+by) ≥ ah(x) + bh(y)
gilt. Offenbar ist h genau dann konvex, wenn die Funktion −h : C → R mit (−h)(x) := −h(x) konkav ist.
468
Anhang B. Vektorr¨ aume, Ordnung und Topologie
Sei C ⊆ E und sei F ein Vektorraum. Eine Abbildung T : C → F heißt – linear , wenn f¨ ur alle x, y ∈ C und a, b ∈ R mit ax + by ∈ C T (ax+by) = aT (x) + bT (y) –
gilt. positiv linear , wenn f¨ ur alle x, y ∈ C und a, b ∈ R+ mit ax + by ∈ C T (ax+by) = aT (x) + bT (y)
–
gilt. affin, wenn es ein c ∈ F und eine lineare Abbildung S : C → F gibt mit T (x) = c + S(x)
f¨ ur alle x ∈ C. Eine lineare Abbildung h : C → R wird auch als Funktional bezeichnet.
B.2 Ordnung Sei E eine Menge. Eine Relation ≤ auf E heißt Ordnungsrelation (oder kurz Ordnung) auf E, wenn sie die folgenden Eigenschaften besitzt: (i) F¨ ur alle x ∈ E gilt x ≤ x (Reflexivit¨at ). (ii) F¨ ur alle x, y ∈ E mit x ≤ y und y ≤ x gilt x = x (Antisymmetrie). (iii) F¨ ur alle x, y, z ∈ E mit x ≤ y und y ≤ z gilt x ≤ z (Transitivit¨at ). In diesem Fall heißt (E, ≤) geordnete Menge. Sei (E, ≤) eine geordnete Menge. Die Ordnungsrelation ≤ heißt vollst¨andig, wenn f¨ ur alle x, y ∈ E mindestens eine der Eigenschaften x ≤ y und y ≤ x erf¨ ullt ist. In diesem Fall heißt (E, ≤) vollst¨andig geordnet . Sei (E, ≤) eine geordnete Menge. F¨ ur C ⊆ E heißt z ∈ E – Supremum von C, wenn einerseits x ≤ z f¨ ur alle x ∈ C gilt und andererseits z ≤ u f¨ ur jedes u ∈ E mit x ≤ u f¨ ur alle x ∈ C gilt; in diesem Fall schreiben wir z = sup C. – Infimum von C, wenn einerseits x ≥ z f¨ ur alle x ∈ C gilt und andererseits z ≥ u f¨ ur jedes u ∈ E mit x ≥ u f¨ ur alle x ∈ C gilt; in diesem Fall schreiben wir z = inf C. F¨ ur x, y ∈ E setzen wir im Fall der Existenz des Supremums bzw. des Infimums der Menge {x, y} x ∨ y := sup{x, y} x ∧ y := inf{x, y} Die geordnete Menge (E, ≤) heißt Verband , wenn f¨ ur alle x, y ∈ E das Supremum und das Infimum der Menge {x, y} existiert.
B.3 Topologie
469
Sei E ein Vektorraum und sei ≤ eine Ordnungsrelation auf E. Die geordnete Menge (E, ≤) heißt – geordneter Vektorraum, wenn f¨ ur alle x, y, z ∈ E und c ∈ R+ mit x ≤ y x+z ≤ y+z cx ≤ cy gilt. Vektorverband , wenn (E, ≤) ein geordneter Vektorraum und ein Verband ist. Ist (E, ≤) ein geordneter Vektorraum, so ist die Menge E+ := {x ∈ E | 0 ≤ x} ein Kegel, der als positiver Kegel von E (bez¨ uglich ≤) bezeichnet wird. Ist (E, ≤) ein Vektorverband, so existieren f¨ ur alle x ∈ E die Suprema –
x+ := x ∨ 0 x− := (−x) ∨ 0 |x| := x ∨ (−x) und man bezeichnet x+ als den Positivteil , x− als den Negativteil und |x| als den Betrag von x; es gilt x = x+ − x− und |x| = x+ + x− sowie x+ ∨ x− = |x| und x+ ∧ x− = 0. Ist (E, ≤) ein Vektorverband, so heißt ein Unterraum C ⊆ E – Unter–Vektorverband , wenn f¨ ur alle x, y ∈ C auch (f¨ ur das in E gebildete Supremum) x ∨ y ∈ C gilt. – Ideal , wenn f¨ ur alle x ∈ C und y ∈ E mit |x| ≤ |y| auch |x| ∈ C gilt. Jedes Ideal ist ein Unter–Vektorverband.
B.3 Topologie Sei E eine Menge. Eine Abbildung d : E × E → R+ heißt Metrik auf E, wenn sie die folgenden Eigenschaften besitzt: (i) F¨ ur alle x, y ∈ E gilt d(x, y) = 0 genau dann, wenn x = y gilt (Definitheit ). (ii) F¨ ur alle x, y ∈ E gilt d(x, y) = d(y, x) (Symmetrie). (iii) F¨ ur alle x, y, z ∈ E gilt d(x, z) ≤ d(x, y) + d(y, z) (Dreiecksungleichung). In diesem Fall heißt (E, d) metrischer Raum. Sei (E, d) ein metrischer Raum. Eine Folge {xn }n∈N ⊆ E heißt Cauchy–Folge, ur alle wenn es zu jedem ε ∈ (0, ∞) ein p ∈ N gibt mit d(xm , xn ) ≤ ε f¨ m, n ∈ N(p). Die Metrik d und damit auch der metrische Raum (E, d) heißt vollst¨andig, wenn es zu jeder Cauchy–Folge {xn }n∈N ⊆ E ein x ∈ E gibt mit limn→∞ d(xn , x) = 0. Sei E ein Vektorraum. Eine Abbildung . : E → R+ heißt Norm auf E, wenn sie die folgenden Eigenschaften besitzt:
470
Anhang B. Vektorr¨ aume, Ordnung und Topologie
(i) F¨ ur alle x ∈ E gilt x = 0 genau dann, wenn x = 0 gilt (Definitheit ). (ii) F¨ ur alle x ∈ E und c ∈ R gilt cx = |c| x (absolute Homogenit¨at ). (iii) F¨ ur alle x, y ∈ E gilt x+y ≤ x + y (Dreiecksungleichung). In diesem Fall heißt (E, . ) normierter Raum und eine Menge B ⊆ E heißt beschr¨ankt , wenn es ein c ∈ (0, ∞) gibt mit B ⊆ {x ∈ E | x ≤ c}. Sei (E, . ) ein normierter Raum. Dann ist die Abbildung d : E × E → R+ mit d(x, y) := x−y eine Metrik. Der normierte Raum (E, . ) heißt vollst¨andig, wenn der metrische Raum (E, d) vollst¨ andig ist. Ein vollst¨ andiger normierter Raum heißt Banach–Raum. Sei E ein Vektorraum. Eine Abbildung . , . : E × E → R heißt Skalarprodukt auf E, wenn sie die folgenden Eigenschaften besitzt: (i) F¨ ur alle x ∈ E gilt x, x ≥ 0. (ii) F¨ ur alle x ∈ E gilt x, x = 0 genau dann, wenn x = 0 gilt (Definitheit ). (iii) F¨ ur alle x, y ∈ E gilt x, y = y, x (Symmetrie). (iv) F¨ ur alle x, y ∈ E und c ∈ R gilt cx, y = c x, y (Homogenit¨at ). (v) F¨ ur alle x, y, z ∈ E gilt x+y, z = x, z + y, z (Additivit¨at ). In diesem Fall heißt (E, . , .) Raum mit Skalarprodukt . Sei (E, . , .) ein Raum mit Skalarprodukt. Dann gilt f¨ ur alle x, y ∈ E x, y2 ≤ x, xy, y (Ungleichung von Cauchy/Schwarz ). Aus dieser Ungleichung folgt, dass die Abbildung . : E → R+ mit x := x, x1/2 eine Norm ist. Der Raum mit Skalarprodukt (E, . , .) heißt vollst¨andig, wenn der normierte Raum (E, . ) vollst¨ andig ist. Ein vollst¨andiger Raum mit Skalarprodukt heißt Hilbert–Raum.
B.4 Ordnung und Topologie Sei E ein Vektorraum und sei ≤ eine Ordnungsrelation und . eine Norm auf E derart, dass – (E, ≤) ein Vektorverband ist, – (E, . ) ein Banach–Raum ist, und – x ≤ y f¨ ur alle x, y ∈ E mit |x| ≤ |y| gilt. Dann heißt (E, ≤, . ) Banach–Verband . Ein Banach–Verband, dessen Norm durch ein Skalarprodukt induziert wird, heißt Hilbert–Verband .
C Der Euklidische Raum
¨ Wir geben hier einen Uberblick u ¨ber die linearen, ordnungstheoretischen und topologischen Strukturen des Euklidischen Raumes.
C.1 Vektoren und Matrizen Wir bezeichnen mit Rm den reellen Vektorraum aller (Spalten–)Vektoren ⎞ ⎛ x1 ⎟ ⎜ x = ⎝ ... ⎠ xm (mit der koordinatenweise definierten Addition und Skalarmultiplikation). Wir bezeichnen das neutrale Element der Addition mit 0 und nennen 0 den Nullvektor . Mit Hilfe der Einheitsvektoren e1 , . . . , em ∈ Rm l¨asst sich jeder Vektor x ∈ Rm in der Form x=
m
xi ei
i=1
darstellen. Wir setzen 1 :=
m
ei
i=1
und nennen 1 den Einsvektor . Wir bezeichnen mit Rm×n den reellen Vektorraum aller Matrizen ⎞ ⎛ a11 · · · a1n ⎜ .. ⎟ A = ⎝ ... . ⎠ am1 · · · amn
472
Anhang C. Der Euklidische Raum
(mit der koordinatenweise definierten Addition und Skalarmultiplikation). Wir bezeichnen das neutrale Element der Addition mit O und nennen O die Nullmatrix . F¨ ur eine Matrix A ∈ Rm×n mit A = (aij )i=1,...,m, j=1,...,n heißt die Matrix A ∈ Rn×m mit A := (aji )j=1,...,n, i=1,...,m die zu A transponierte Matrix . Eine Abbildung T : Rn → Rm ist – genau dann linear, wenn es eine Matrix D ∈ Rm×n gibt mit T (x) = Dx. – genau dann affin, wenn es einen Vektor c ∈ Rm und eine Matrix D ∈ Rm×n gibt mit T (x) = c + Dx. Ist T : Rn → Rm eine lineare Abbildung und D ∈ Rm×n eine Matrix mit T (x) = Dx, so sind die Spaltenvektoren der Matrix D gerade die Bilder der Einheitsvektoren des Rn unter T . Wir betrachten nun den Fall m = n. Wir bezeichnen das neutrale Element der Matrizenmultiplikation in Rm×m mit I und nennen I die Einheitsmatrix . Eine Matrix A ∈ Rm×m heißt invertierbar , wenn es eine Matrix B ∈ Rm×m gibt mit AB = I oder BA = I; in diesem Fall gelten sogar beide Gleichungen und die Matrix B ist eindeutig bestimmt und wird als Inverse von A und mit A−1 bezeichnet. Eine Matrix A ∈ Rm×m heißt singul¨ar , wenn sie nicht invertierbar ist. Eine Matrix A ∈ Rm×m heißt – Permutationsmatrix , wenn sie in jeder Zeile und in jeder Spalte genau eine Eins und ansonsten nur Nullen enth¨ alt. – Orthogonalmatrix , wenn A A = I gilt. Jede Permutationsmatrix ist eine Orthogonalmatrix, und jede Orthogonalmatrix ist invertierbar. F¨ ur k, l ∈ {1, . . . , m} sei die Matrix F(kl) ∈ Rm×m definiert durch 1 falls (i, j) = (k, l) (kl) fij := 0 sonst Eine Matrix A ∈ Rm×m heißt Elementarmatrix , wenn es – eine Matrix F(kl) gibt mit k = l und A = I + F(kl) oder – eine Matrix F(kk) und ein c ∈ R \ {0} gibt mit A = I + (c−1)F(kk) . Jede Elementarmatrix ist invertierbar.
C.2 Ordnung
473
C.1.1 Proposition. F¨ ur eine Matrix A ∈ Rm×m sind ¨aquivalent : (a) A ist invertierbar. (b) A ist ein Produkt von Elementarmatrizen. (c) A ist ein Produkt von Permutationsmatrizen und Elementarmatrizen der Form I + F(12) oder I + (c−1)F(11) mit c ∈ R \ {0}. ¨ F¨ ur einen Beweis der Aquivalenz von (a) und (b) in Proposition C.1.1 vgl. ¨ Koecher [1997; Kapitel 2, §6, Satz A]; die Aquivalenz von (b) und (c) ist dann klar. Eine Matrix A ∈ Rm×m heißt – symmetrisch, wenn A = A gilt. – positiv semidefinit , wenn x Ax ≥ 0 f¨ ur alle x ∈ Rm gilt. ur alle x ∈ Rm \{0} gilt. – positiv definit , wenn x Ax > 0 f¨ Eine symmetrische Matrix ist genau dann positiv definit, wenn sie positiv semidefinit und invertierbar ist. C.1.2 Proposition. F¨ ur eine Matrix A ∈ Rm×m sind ¨aquivalent : (a) A ist symmetrisch und positiv semidefinit. (b) Es gibt eine Matrix B ∈ Rm×m mit A = B B. F¨ ur einen Beweis von Proposition C.1.2 vgl. Harville [1997; Corollary 14.3.10]. C.1.3 Proposition. F¨ ur eine Matrix A ∈ Rm×m sind ¨aquivalent : (a) A ist symmetrisch und positiv definit. (b) Es gibt eine invertierbare Matrix B ∈ Rm×m mit A = B B. F¨ ur einen Beweis von Proposition C.1.3 vgl. Harville [1997; Corollary 14.3.13]. Eine Abbildung T : Rm → Rm heißt Bewegung, wenn es einen Vektor c ∈ Rm und eine Orthogonalmatrix D ∈ Rm gibt mit T (x) = c + Dx.
C.2 Ordnung F¨ ur x, y ∈ Rm schreiben wir x≤y wenn f¨ ur alle i ∈ {1, . . . , m} xi ≤ yi gilt. Dann ist ≤ eine Ordnungsrelation und (Rm , ≤) ist ein Vektorverband. Die Ordnungsrelation ≤ heißt koordinatenweise Ordnung auf Rm .
474
Anhang C. Der Euklidische Raum
C.3 Topologie Die Abbildung . , . : Rm ×Rm → R mit x, y := x y =
m
xi yi
i=1
ist ein Skalarprodukt und heißt Euklidisches Skalarprodukt. Der Raum mit Skalarprodukt (Rm , . , .) heißt m–dimensionaler Euklidischer Raum. Die Abbildung . : Rm → R+ mit 1/2
x := x, x
=
m
1/2 x2i
i=1
ist eine Norm und heißt Euklidische Norm. Die Euklidische Norm ist zu jeder aquivalent. Norm auf Rm ¨ Die Abbildung d : Rm ×Rm → R+ mit d(x, y) := x−y ist eine Metrik und heißt Euklidische Metrik . Der metrische Raum (Rm , d) ist vollst¨ andig. Daher ist (Rm , . ) ein Banach– m Raum und (R , . , .) ist ein Hilbert–Raum. C.3.1 Proposition (Heine/Borel). F¨ ur K ⊆ Rm sind folgende Aussagen ¨aquivalent : (a) K ist beschr¨ankt und bez¨ uglich der Normtopologie abgeschlossen. (b) K ist bez¨ uglich der Normtopologie kompakt.
C.4 Ordnung und Topologie Der Euklidische Raum (Rm , ≤, . ) ist ein Banach–Verband (und sogar ein Hilbert–Verband).
Literaturverzeichnis
Aliprantis, C. D., and Burkinshaw, O. [1990]: Principles of Real Analysis. Boston: Academic Press. Bauer, H. [1990]: Maß– und Integrationstheorie. Berlin – New York: DeGruyter. Bauer, H. [1991]: Wahrscheinlichkeitstheorie. Berlin – New York: DeGruyter. Behrends, E. [1987]: Maß– und Integrationstheorie. Berlin – Heidelberg – New York: Springer. Billingsley, P. [1995]: Probability and Measure. Third Edition. New York – Chichester: Wiley. Dudley, R. M. [1989]: Real Analysis and Probability. Pacific Grove (California): Wadsworth & Brooks/Cole. Elstrodt, J. [1996]: Maß– und Integrationstheorie. Berlin – Heidelberg – New York: Springer. Forster, O. [1983]: Analysis 1. Braunschweig: Vieweg. Halmos, P. R. [1974]: Measure Theory. Berlin – Heidelberg – New York: Springer. Harville, D. A. [1997]: Matrix Algebra from a Statistician’s Perspective. Berlin – Heidelberg – New York: Springer. Johnson, N. L., Kotz, S., and Balakrishnan, N. [1994]: Continuous Univariate Distributions. Volume 1. New York: Wiley. Johnson, N. L., Kotz, S., and Balakrishnan, N. [1995]: Continuous Univariate Distributions. Volume 2. New York: Wiley. Johnson, N. L., Kotz, S., and Balakrishnan, N. [1997]: Discrete Multivariate Distributions. New York: Wiley. Johnson, N. L., Kotz, S., and Kemp, A.W. [1992]: Univariate Discrete Distributions. New York: Wiley. Koecher, M. [1997]: Lineare Algebra und Analytische Geometrie. Vierte Auflage. Berlin – Heidelberg – New York: Springer. Kolmogorov, A. N. [1933]: Grundbegriffe der Wahrscheinlichkeitsrechnung. Berlin – Heidelberg – New York: Springer. K¨ onig, H. [1997]: Measure and Integration. Berlin – Heidelberg – New York: Springer.
476
Literaturverzeichnis
Kotz, S., Balakrishnan, N., and Johnson, N. L. [2000]: Continuous Multivariate Distributions. Volume 1. New York: Wiley. Krengel, U. [2002]: Einf¨ uhrung in die Wahrscheinlichkeitstheorie und Statistik. Braunschweig – Wiesbaden: Vieweg. M¨ uller, P. H. (Hrsg.) [1991]: Wahrscheinlichkeitstheorie und Mathematische Statistik – Lexikon der Stochastik. Berlin: Akademie–Verlag. Neveu, J. [1972]: Martingales a ` Temps Discret. Paris: Masson. Schaefer, H. H. [1974]: Banach Lattices and Positive Operators. Berlin – Heidelberg – New York: Springer. Schmidt, K. D. [1996]: Lectures on Risk Theory. Stuttgart: Teubner. Schmidt, K. D. [2006]: Versicherungsmathematik. Berlin – Heidelberg – New York: Springer. Schmitz, N. [1996]: Vorlesungen ¨ uber Wahrscheinlichkeitstheorie. Stuttgart: Teubner. Schubert, H. [1971]: Topologie. Stuttgart: Teubner. Walter, W. [1990]: Analysis I. Berlin – Heidelberg – New York: Springer.
Symbolverzeichnis
Zahlenbereiche C N N0 N(n) Q R R+ ¯ R Rm Z
die Menge der komplexen Zahlen die Menge {1, 2, . . . } die Menge {0, 1, 2, . . . } die Menge {n, n+1, n+2, . . . } die Menge der rationalen Zahlen die Menge der reellen Zahlen die Menge [0, ∞) der positiven reellen Zahlen die Menge der erweiterten reellen Zahlen der m–dimensionale Euklidische Raum die Menge der ganzen Zahlen
Reelle Zahlen x∨y x∧y x+ x− |x|
:= max{x, y} (Maximum von x, y ∈ R) := min{x, y} (Minimum von x, y ∈ R) := x ∨ 0 (Positivteil von x ∈ R) := (−x) ∨ 0 (Negativteil von x ∈ R) := x ∨ (−x) (Betrag von x ∈ R)
Vektoren 0 1 ei x
Nullvektor des Euklidischen Raumes Einsvektor des Euklidischen Raumes Einheitsvektor des Euklidischen Raumes Vektor des Euklidischen Raumes
Matrizen O I A A−1
Nullmatrix Einheitsmatrix Transponierte der Matrix A Inverse einer invertierbaren Matrix A
478
Symbolverzeichnis
Mengen χA 2A A |A| {ai }i∈I ⊆ A Q Pi∈I Ai i∈I Ai k A AI A\B AB
Indikatorfunktion der Menge A Potenzmenge der Menge A Komplement der Menge A (wenn die Grundmenge klar ist) Anzahl der Elemente der Menge A Familie von Elementen aus der Menge A Produkt der Familie {Ai }i∈I Vereinigung einer disjunkten Familie {Ai }i∈I Q := Qki=1 A := i∈I A := A ∩ B (Differenz) := (A \ B) ∪ (B \ A) (symmetrische Differenz)
Mengensysteme δ(E )
(E ) σ(E ) τ (E ) B(R) ¯ B(R) B(Rm ) H(I)
das von E erzeugte Dynkin–System der von E erzeugte Ring die von E erzeugte σ–Algebra die von E erzeugte Topologie Borelsche σ–Algebra auf R ¯ Borelsche σ–Algebra auf R Borelsche σ–Algebra auf Rm Familie der endlichen Teilmengen von I
Maße δz ζ ζC λ μ+ μ− μf μν μ⊥ν
Dirac–Maß Z¨ ahlmaß lokales Z¨ ahlmaß Lebesgue–Maß Positivteil von μ Negativteil von μ Bildmaß von μ unter f μ ist ν–stetig μ und ν sind singul¨ ar
Messbare Funktionen L0 (F) L0 (F, μ) Lpμ (F) L∞ (F) =μ [f ]μ L0 (F, μ) Lp (F, μ) L∞ (F, μ)
F–messbare reelle Funktionen μ–fast u ¨ berall F–messbare numerische Funktionen p–fach μ–integrierbare F–messbare reelle Funktionen beschr¨ ankte F–messbare Funktionen ¨ Aquivalenzrelation auf L0 (F, μ) ¨ Aquivalenzklasse von L0 (F, μ) bez¨ uglich =μ , die f enth¨ alt 103 136 106
Symbolverzeichnis
479
Wahrscheinlichkeitstheorie P [A] E[X] var [X] cov [X, Y ] CX FX GX mX MX PX ψX
Wahrscheinlichkeit von A Erwartungswert von X Varianz von X Kovarianz von X und Y kumulantenerzeugende Funktion von X Verteilungsfunktion von X ¨ Uberlebensfunktion von X wahrscheinlichkeitserzeugende Funktion von X momenterzeugende Funktion von X Verteilung von X charakteristische Funktion von X
Bedingte Wahrscheinlichkeit nach einem Ereignis P [A|C] E[X|C]
bedingte Wahrscheinlichkeit von A unter C bedingter Erwartungswert von X unter C
Bedingte Wahrscheinlichkeit nach einer Unter–σ–Algebra P G (A) E G (X) varG (X) covG (X, Y ) G PX L0 (F, G) L1,G (F)
bedingte bedingte bedingte bedingte bedingte 410 417
Wahrscheinlichkeit von A unter G Erwartung von X unter G Varianz von X unter G Kovarianz von X und Y unter G Verteilung von X unter G
Verteilungen δz χ2n tn B(ϑ) B(n, ϑ) Be(α, β) Ca(α, β) Dir(η, η) Exp(α) Ga(α, γ) Geo(n, ϑ) H(n, N, K) Log(ϑ) M(n, ϑ) N(μ, σ 2 ) N(μ, Σ) NB(α, ϑ)
Dirac–Verteilung χ2 –Verteilung t–Verteilung Bernoulli–Verteilung Binomial–Verteilung Beta–Verteilung Cauchy–Verteilung Dirichlet–Verteilung Exponential–Verteilung Gamma–Verteilung geometrische Verteilung hypergeometrische Verteilung logarithmische Verteilung Multinomial–Verteilung Normal–Verteilung Normal–Verteilung Negativbinomial–Verteilung
480 NM(α, ϑ) P(α) Pa(α, β) Pa∗ (α, β) PE(n, η, η) PH(n, N, K) P´ olya(n, α, β) U(a, b) U(C)
Symbolverzeichnis Negativmultinomial–Verteilung Poisson–Verteilung Pareto–Verteilung europ¨ aischer Art Pareto–Verteilung amerikanischer Art P´ olya/Eggenberger–Verteilung polyhypergeometrische Verteilung P´ olya–Verteilung uniforme Verteilung uniforme Verteilung
Spezielle Funktionen B Γ Φ
Beta–Funktion Gamma–Funktion Verteilungsfunktion der Standardnormal–Verteilung
Sachverzeichnis
∩–stabiles Mengensystem, 17 ∪–stabiles Mengensystem, 19 ∅–stetig, 51 Abbildung affine, 468 lineare, 468 messbare, 29, 30, 40 positiv lineare, 468 stetige, 27–29, 36 abgeschlossene Menge, 8 abgeschlossenes Intervall, 20, 21 abh¨ angige Ereignisse, 221 Abschluss, 13 absolut homogen, 470 absolutes Moment, 281 absolutstetige Verteilung, 255, 297 absolutstetige Verteilungen (Beispiele), 256, 272, 278, 281, 287, 298, 306, 311, 317, 320, 322, 325, 326, 329, 378, 381–383 absolutstetiges Maß, 155 abz¨ ahlbare Menge, 8 adaptierte Folge, 428 additive Mengenfunktion, 43 affine Abbildung, 468 affine Menge, 467 Algebra, 24 algebraische Induktion, 109 Anzahl der g¨ unstigen F¨ alle, 198 Anzahl der m¨ oglichen F¨ alle, 198 Approximationssatz Filtration, 429 messbare Funktionen, 98–100
messbare Mengen, 70, 100 aquivalente Maße, 162 ¨ aquivalente Mengen, 48 ¨ aquivalente Normen, 11 ¨ Ausfallrate, 266 außeres Maß, 65 ¨ austauschbar, 454 Banach–Raum, 470 Banach–Verband, 470 Basis, 12 bedingt identisch verteilt, 453 bedingt integrierbar, 417 bedingt quasiintegrierbar, 416, 425 bedingt unabh¨ angige Ereignisse, 438 Ereignissysteme, 439 Zufallsgr¨ oßen, 441 bedingt unkorreliert, 424 bedingte Dichte, 446 bedingte Erwartung, 409–411, 416, 417 endliche, 417 Version, 411, 416, 417 bedingte Kovarianz, 424, 426 bedingte Unabh¨ angigkeit, 438 bedingte Varianz, 422 bedingte Verteilung, 435, 442, 443, 446 bedingte Verteilungsfunktion, 442 bedingte Wahrscheinlichkeit, 220, 435 bedingter Erwartungswert, 285 bedingtes Gesetz der Großen Zahlen, 451, 453 bedingtes Wahrscheinlichkeitsmaß, 220
482 Bernoulli–Irrfahrt, 366 Bernoulli–Verteilung, 254 beschr¨ ankte Menge, 470 beschr¨ ankte Mengenfunktion, 61 Beta–Funktion, 186, 466 Beta–Verteilung, 256, 278, 282, 287 Betrag, 100, 469 Bewegung, 473 Bewegungsinvarianz, 88 Bild, 25 Bild–σ–Algebra, 32 Bildmaß, 79 Bildtopologie, 29 Binomial–Koeffizient, 465 Binomial–Moment, 372 Binomial–Verteilung, 254, 277, 287, 315, 318, 370, 375, 376, 383 gemischte, 265 Blocklemma, 233, 236, 238, 241, 441 Boole–Verteilung, 254 Borel–Menge, 15 Borel/Cantelli Lemma, 227, 437 Borelsche σ–Algebra, 15 auf R, 24 ¯ 15, 22, 24 auf R, auf Rn , 15, 20, 24, 39 Borelsches Null–Eins–Gesetz, 228, 439 χ2 –Verteilung, 257, 272, 318 Cantor–Funktion, 261 Cantor–Menge, 78 Cantor–Verteilung, 258, 261 Cauchy–Folge, 469 Cauchy–Verteilung, 266, 273, 283 charakteristische Funktion, 383, 389 Copula, 299 Darstellungssatz, 262 David schl¨ agt Goliath, 419, 420, 426 Definitheit, 470 Dichte, 149 bedingte, 446 Differentiationslemma, 133 Dirac–Maß, 49 Dirac–Verteilung, 253, 296 Dirichlet–Funktion, 31, 103, 121, 185 Dirichlet–Verteilung, 298, 307, 308, 312, 320, 322, 325, 326, 329 disjunkte Familie, 8
Sachverzeichnis diskrete Verteilung, 251, 295 diskrete Verteilungen (Beispiele), 253, 277, 287, 296, 304, 311, 314, 315, 320, 321, 324, 326, 328, 370, 375, 376, 383 diskreter Wahrscheinlichkeitsraum, 196 Dynkin–System, 16 Eindeutigkeitssatz charakteristische Funktion, 388 Maßfortsetzung, 63 wahrscheinlichkeitserzeugende Funktion, 372 eindimensionale Randverteilung, 303 einfache Funktion, 96 Einheitsmatrix, 472 Einheitsvektor, 471 Einschluss–Ausschluss–Formel, 48 Einsvektor, 471 Elementarereignis, 195 Elementarmatrix, 472 empirische Verteilung, 357, 446 Verteilungsfunktion, 353, 446 endlich additive Mengenfunktion, 43 endlich subadditive Mengenfunktion, 46 endliche bedingte Erwartung, 417 endliche Mengenfunktion, 47, 61 endlicher Erwartungswert, 274 endlicher Maßraum, 101, 143 Ereignis, 195 sicheres, 195 terminales, 234 unm¨ ogliches, 195 Ereignisse abh¨ angige, 221 bedingt unabh¨ angige, 438 paarweise unabh¨ angige, 229 unabh¨ angige, 219, 220, 224 Ereignissystem, 195 Ereignissysteme bedingt unabh¨ angige, 439 paarweise unabh¨ angige, 236 unabh¨ angige, 229, 230 Ergebnis, 195 Ergebnismenge, 195 Erlang–Verteilung, 257, 318 erstes Gesetz der Großen Zahlen, 345, 346, 353, 453
Sachverzeichnis Erwartung bedingte, 409–411, 416, 417 einer Zufallsmatrix, 320 eines Zufallsvektors, 319 Erwartungswert, 274 bedingter, 285 endlicher, 274 erzeugende Funktion, 369 charakteristische, 383 kumulantenerzeugende, 381 momenterzeugende, 378 wahrscheinlichkeitserzeugende, 370 Erzeuger einer σ–Algebra, 15 Erzeuger einer Topologie, 10 Erzeuger eines Dynkin–Systems, 16 Erzeuger eines Ringes, 22 erzeugte σ–Algebra, 15, 30 erzeugte Topologie, 9, 10, 13, 27 erzeugter Ring, 22 erzeugtes Dynkin–System, 16 Euklidische Metrik, 474 Euklidische Norm, 474 Euklidischer Raum, 471, 474 Euklidisches Skalarprodukt, 474 Existenzsatz Maß, 67, 68 Produktmaß, 170 Exponential–Verteilung, 257, 266, 380 Exzess, 291 F –Verteilung, 266 Faktorisierungssatz, 99, 412, 426 Fakult¨ at, 465 Faltung, 318 Faltungsformel, 315, 317, 376 fast u ¨ berall, 101 fast u ¨ berall Cauchy, 102 fast u ¨ berall definiert, 101 fast u ¨ berall endlich, 101 fast u ¨ berall gleich, 101 fast u ¨ berall konstant, 101 fast u ¨ berall konvergent, 101 fast u ¨ berall reell, 101 fast u ¨ berall stetig, 102 fast sicher, 331 fast sicher konvergent, 331 Filtration, 428, 434 Folge adaptierte, 428
483 integrierbare, 429 p–fach summierbare, 143 positive, 429 stochastische, 197, 264 Folgenraum, 142 Formel von der totalen Wahrscheinlichkeit, 228 Poincar´e, 48 Fortsetzung eines Maßes, 63 Fourier–Entwicklung, 411, 425, 436 Fr´echet–Schranken, 300 Freiheitsgrad, 257, 258 Funktion, 109 Beta–, 186, 466 Cantor–, 261 charakteristische, 383, 389 Dirichlet–, 31, 103, 121, 185 einfache, 96 erzeugende, 369 fast u ¨ berall stetige, 102 Gamma–, 186, 466 Heaviside–, 253, 296 integrierbare, 123, 124, 131, 166 integrierbare komplexe, 135 komplexe, 100 konkave, 467 konstante, 92 konvexe, 467 kumulantenerzeugende, 381, 382 messbare, 92 messbare komplexe, 100 messbare numerische, 92 messbare reelle, 95 momenterzeugende, 378, 381 monotone, 31 numerische, 91 p–fach integrierbare, 135, 145 permutierbare, 358 positiv definite, 462 quadratisch integrierbare, 143 quasiintegrierbare, 124, 134 reelle, 91 Riemann–integrierbare, 182 uneigentlich, 185 symmetrische, 462 wahrscheinlichkeitserzeugende, 370, 378 Funktional, 468
484 Gamma–Funktion, 186, 466 Gamma–Verteilung, 257, 278, 282, 287, 318, 378, 381–383 Gauß–Prozess, 462 Gauß–Verteilung, 258 gemischte Binomial–Verteilung, 265 gemischte Multinomial–Verteilung, 300 gemischte Poisson–Verteilung, 265 geometrische Verteilung, 255, 264, 273, 278, 287, 377 geordnete Menge, 468 geordneter Vektorraum, 469 Gesetz der Großen Zahlen, 337 bedingtes, 451, 453 erstes, 345, 346, 353, 453 schwaches, 337, 338, 340 starkes, 341, 345–347, 353, 453 zweites, 347 Gompertz–Verteilung, 267 Graph, 35, 38, 40 Hahn–Zerlegung, 60, 62, 162 halboffenes Intervall, 20, 21 Halbraum, 72 Halbring, 20, 35 ¯ 21 der halboffenen Intervalle auf R, der halboffenen Intervalle auf Rn , 20 H¨ aufigkeit, 340 Hausdorff–Raum, 13 Heaviside–Funktion, 253, 296 Hilbert–Raum, 470 Hilbert–Verband, 470 Hyperebene, 84 hypergeometrische Verteilung, 253, 277, 287 Ideal, 24, 469 identisch verteilt, 347 Imagin¨ arteil, 100 Indikatorfunktion, 92 Infimum, 468 Inhalt, 43 Inneres, 13 Integral, 110, 115, 122, 124, 131, 135 unbestimmtes, 148, 149 integralinduziertes Maß, 148 integralinduziertes signiertes Maß, 148 integrierbar, 123, 124, 131, 135, 166 bedingt, 417
Sachverzeichnis integrierbare Folge, 429 integrierbare komplexe Funktion, 135 ¨ integrierte Uberlebensfunktion, 284 Intervall, 20, 21 Inverse einer Matrix, 472 invertierbare Matrix, 472 Irrfahrt, 357 Bernoulli–, 366 Jensensche Ungleichung, 128, 280, 426 Jordan–Zerlegung, 58, 62 k–σ–Bereich, 290 kartesisches Produkt, 34 Kegel, 467 positiver, 469 Kettenregel, 150, 155 Kolmogorovsche σ–Algebra, 39 Kolmogorovsches Null–Eins–Gesetz, 234–236, 441 kompakte Menge, 8 komplexe Funktion, 100 integrierbare, 135 Komposition, 28, 30 konkave Funktion, 467 konstante Funktion, 92 Konvergenz, 331 fast u ¨ berall, 101 fast sichere, 331 im Maß, 104 lokale, 107 im Mittel, 131 im p–ten Mittel, 142, 335 im quadratischen Mittel, 142 in Verteilung, 397 mit Wahrscheinlichkeit Eins, 332 punktweise, 91 schwache, 391–393, 395 stochastische, 333 konvexe Funktion, 467 konvexe Menge, 467 Koordinate, 33 einer Zufallsmatrix, 320 koordinatenweise Ordnung, 473 Korrekturfaktor, 287 Korrelationskoeffizient, 328, 329 Korrespondenzsatz bedingter, 443 multivariater, 294
Sachverzeichnis univariater, 246 Kovarianz, 323, 329 bedingte, 424, 426 von Zufallsvektoren, 329 Kovarianz–Zerlegung, 428 Kroneckers Lemma, 345 Kugel offene, 9, 13 kumulantenerzeugende Funktion, 381, 382 Lp –Raum, 135 Laplace–Experiment, 198 Lebensversicherungsmathematik, 229 Lebesgue–Dichte, 255, 297 Lebesgue–Integral, 109, 110, 115, 122, 124, 131, 135 Lebesgue–integrierbar, 124, 131 Lebesgue–Maß, 72, 76, 174 Lebesgue–Zerlegung, 160 Lemma von Borel/Cantelli, 227, 437 Fatou, 122, 123, 415 Kronecker, 345 Riesz/Fischer, 106, 140 limes inferior, 8 limes superior, 8 lineare Abbildung, 468 lineare Menge, 467 logarithmische Verteilung, 265, 283, 290, 378 lokale Konvergenz im Maß, 107 lokales Z¨ ahlmaß, 50, 155 μ–singul¨ ar, 160 μ–stetig, 155 Maß, 49 μ–singul¨ ares, 160 μ–stetiges, 155 absolutstetiges, 155 aquivalentes, 162 ¨ außeres, 65 ¨ Dirac–, 49 integralinduziertes, 148 Lebesgue–, 72, 76, 174 mit Dichte, 149 signiertes, 56 singul¨ ares, 155, 160 translationsinvariantes, 80, 81
485 Maßraum, 101 σ–endlicher, 101 endlicher, 101, 143 majorisierte Konvergenz, 129, 130, 139, 419 Markov–Kern, 442 Martingal, 428 Matrix der zweiten gemischten Momente, 320 invertierbare, 472 positiv definite, 473 positiv semidefinite, 473 singul¨ are, 472 symmetrische, 473 transponierte, 472 maximale Ungleichung, 430 Menge abgeschlossene, 8 abz¨ ahlbare, 8 affine, 467 aquivalente, 48 ¨ beschr¨ ankte, 470 geordnete, 468 kompakte, 8 konvexe, 467 lineare, 467 messbare, 14 offene, 8 permutierbare, 358 vollst¨ andig geordnete, 468 Mengenfunktion, 43 ∅–stetige, 51 σ–additive, 49 σ–endliche, 55 σ–subadditive, 54 additive, 43 beschr¨ ankte, 61 endlich additive, 43 endlich subadditive, 46 endliche, 47, 61 modulare, 47 monotone, 46 subadditive, 46 subtraktive, 47 vollst¨ andige, 48 von oben stetige, 51 von unten stetige, 51 Mengensystem, 7, 8 ∩–stabiles, 17
486 ∪–stabiles, 19 messbare Abbildung, 29, 30, 40 messbare Funktion, 92 komplexe, 100 numerische, 92 reelle, 95 messbare Menge, 14 messbarer Raum, 25, 29 messbares Produkt, 39 Messraum, 29 Metrik, 469 Euklidische, 474 metrischer Raum, 469 modulare Mengenfunktion, 47 Moment, 274, 319 absolutes, 281 Binomial–, 372 der Ordnung n, 281 h¨ oherer Ordnung, 281 zentrales, 285, 289, 323 momenterzeugende Funktion, 378, 381 monotone Funktion, 31 monotone Konvergenz, 115, 118, 415 monotone Mengenfunktion, 46 Multinomial–Verteilung, 297, 305, 308, 311, 314, 320, 321, 324, 326, 328 gemischte, 300 multivariate Verteilung, 293 Verteilungsfunktion, 293, 294, 299 nat¨ urliche Filtration, 428, 434 nat¨ urliche Topologie, 12 ¯ 13 auf R, auf Rn , 12, 36 negativ korreliert, 327 Negativbinomial–Verteilung, 254, 277, 287, 315, 370, 375, 376, 383 negative Variation, 58 Negativmultinomial–Verteilung, 297, 305, 311, 314, 320, 321, 325, 326, 328 Negativteil, 58, 469 Norm, 469 aquivalente, 11 ¨ auf Rn , 11 Euklidische, 474
Sachverzeichnis Normal–Verteilung, 257, 258, 266, 272, 279, 287, 291, 298, 301, 307, 313, 317, 318, 320, 326, 380, 382, 389 normierter Raum, 470 Normtopologie, 9–11 Null–Eins–Gesetz, 228 Borel, 228, 439 Hewitt/Savage, 358 Kolmogorov, 234–236, 441 Mittel, 341, 451 Nullmatrix, 472 Nullmenge, 48, 101 Nullvektor, 471 numerische Funktion, 91 messbare, 92 offene Kugel, 9, 13 offene Menge, 8 offenes Intervall, 20, 21 Ordnung, 468 koordinatenweise, 473 stochastische, 264 stop–loss, 284 Ordnungsrelation, 468 Ordnungsstatistik, 302 Orthogonalmatrix, 472 p–fach integrierbar, 135, 145 p–fach summierbar, 143 paarweise unabh¨ angige Ereignisse, 229 Ereignissysteme, 236 Zufallsgr¨ oßen, 241 Panjer–Verteilung, 377 Pareto–Verteilung, 266, 273, 284 amerikanischer Art, 266 europ¨ aischer Art, 266 Pascal–Verteilung, 254 Permutation, 358 permutationsinvariant, 304 Permutationsmatrix, 472 permutierbare Funktion, 358 permutierbare Menge, 358 Poincar´e, 48 Poisson–Approximation, 397 Poisson–Prozess, 462 Poisson–Verteilung, 254, 277, 287, 297, 315, 353, 370, 375, 376, 383, 405 gemischte, 265
Sachverzeichnis P´ olya–Verteilung, 265, 283, 290 P´ olya/Eggenberger–Verteilung, 300, 308 polyhypergeometrische Verteilung, 296, 304, 311, 314, 320, 321, 324, 326, 328 Portemanteau–Theorem, 393 positiv, 3 positiv definite Funktion, 462 positiv definite Matrix, 473 positiv korreliert, 327 positiv lineare Abbildung, 468 positiv semidefinite Matrix, 473 positive Folge, 429 positive Variation, 58 positiver Kegel, 469 Positivteil, 58, 469 Prinzip des unzureichenden Grundes, 198 Problem der Doppelsechs, 202 probl`eme des parties, 202 Produkt, 33 messbares, 39 topologisches, 36 Produkt von Maßr¨ aumen, 168, 173 Mengen, 33 Mengensystemen, 34 messbaren R¨ aumen, 39 topologischen R¨ aumen, 36 Wahrscheinlichkeitsmaßen, 215 Wahrscheinlichkeitsr¨ aumen, 202, 215, 241 Produkt–σ–Algebra, 39, 40 Produktmaß, 168, 170, 173 Produktraum, 33 Produkttopologie, 36, 38 Projektion, 33, 34, 426, 427 projektiv, 204, 205 punktweise konvergent, 91 quadratisch integrierbar, 143 quasiintegrierbar, 124, 134 bedingt, 416, 425 Rand, 13 Randverteilung, 302, 303 eines stochastischen Prozesses, 461 Raum
487 Euklidischer, 471, 474 messbarer, 25, 29 metrischer, 469 mit Skalarprodukt, 470 normierter, 470 topologischer, 25, 27 vollst¨ andiger, 469, 470 Realteil, 100 rechtecksmonoton, 294 Reduktionssatz, 421 reelle Funktion, 91 messbare, 95 reelle Zufallsvariable, 194 regul¨ ar, 455, 456 relative H¨ aufigkeit, 340 Restriktion einer Abbildung, 29, 32, 165 eines Maßes, 165 Riemann–Integral, 180–182 uneigentliches, 185 Riemann–integrierbar, 182 uneigentlich, 185 Ring, 20, 22 σ–additiv, 49 σ–Algebra, 14 Borelsche, 15, 24 erzeugte, 15, 30 Kolmogorovsche, 39 terminale, 234 σ–endliche Mengenfunktion, 55 σ–endlicher Maßraum, 101 σ–Ideal, 24 σ–Ring, 24 σ–subadditiv, 54 Satz u ¨ ber die majorisierte Konvergenz, 129, 130, 139, 419 monotone Konvergenz, 115, 118, 415 Satz von Andersen/Jessen, 209, 210 Caratheodory, 70 Chung/Fuchs, 363 Fubini, 176, 178 Glivenko/Cantelli, 353, 354, 454 Heine/Borel, 474 Helly, 401 Helly/Bray, 396 Kolmogorov, 455, 458
488 Lebesgue, 129, 130, 139, 419 Levi, 115, 118, 415 L´evy, 431 Pratt, 135 Pythagoras, 427 Radon/Nikodym, 156 Schiefe, 290 Schnitt, 169, 175 schwache Konvergenz, 391, 392 von Verteilungsfunktionen, 395 von Wahrscheinlichkeitsmaßen, 393 schwaches Gesetz der Großen Zahlen, 337, 338, 340 Schwerpunkteigenschaft, 285 sicheres Ereignis, 195 signiertes Maß, 56 integralinduziertes, 148 singul¨ are Matrix, 472 singul¨ ares Maß, 155, 160 Skalarprodukt, 470 Euklidisches, 474 Spur–σ–Algebra, 32 Spurtopologie, 29 Standardabweichung, 289, 290 Standarddarstellung, 97 standardisierte Zufallsvariable, 290 Standardnormal–Verteilung, 258, 298, 379, 381, 383 starkes Gesetz der Großen Zahlen, 341, 345–347, 353 stetig von oben, 51 Funktion, 294 stetig von unten, 51 stetige Abbildung, 27–29, 36 Stetigkeitslemma, 133 Stetigkeitsmenge, 393 Stetigkeitssatz, 404 stetigsingul¨ are Verteilung, 258 Stichprobenmittel, 350 Stichprobenumfang, 350 stochastische Folge, 197, 264 stochastische Konvergenz, 333 stochastische Ordnung, 264 stochastischer Prozess, 461 stop–loss Ordnung, 284 straff, 400 Streuungsmaß, 285, 289 strikt negativ korreliert, 327 strikt positiv korreliert, 327
Sachverzeichnis subadditive Mengenfunktion, 46 Substitutionsregel, 163, 164, 276 subtraktive Mengenfunktion, 47 Supremum, 468 symmetrische Funktion, 462 Matrix, 473 Verteilung, 263, 273, 284, 389 symmetrischer Wahrscheinlichkeitsraum, 198 System der additiven Zerleger, 65 System der J–Zylinder, 205 System der Zylindermengen, 206 t–Verteilung, 258, 270, 279, 282, 323 Teilfolgenprinzip, 334 schwache Konvergenz, 403 terminale σ–Algebra, 234 terminales Ereignis, 234 Topologie, 8 eines metrischen Raumes, 13 eines normierten Raumes, 9, 10 erzeugte, 10, 27 nat¨ urliche, 12, 13, 36 Topologien ¨ aquivalenter Normen, 11 topologischer Raum, 25, 27 topologisches Produkt, 36 totale Variation, 62 totale Wahrscheinlichkeit, 228 Transformationssatz, 163 Translation, 80 translationsinvariantes Maß, 80, 81 transponierte Matrix, 472 Treppenfunktion, 181 typische Zufallsvariable, 347, 453 ¨ Uberlebensfunktion, 264 integrierte, 284 unabh¨ angige Ereignisse, 219, 220, 224 Ereignissysteme, 229, 230 Zufallsgr¨ oßen, 236, 237 Unabh¨ angigkeit, 219 bedingte, 438 unbestimmtes Integral, 148, 149 uneigentlich Riemann–integrierbar, 185 uneigentliches Riemann–Integral, 185 Ungleichung maximale, 430
Sachverzeichnis Ungleichung von Cantelli, 288 Cauchy/Schwarz, 144, 327, 470 Fatou, 122, 123, 415 H¨ older, 137, 145 Jensen, 128, 280, 426 Kolmogorov, 342, 452 Markov, 119, 123, 281, 437 Minkowski, 138 Tschebyschev, 288 uniforme Verteilung, 256, 273, 278, 281, 287, 291, 298, 306, 311, 320, 322, 325, 326, 329, 383 univariate Verteilung, 245 Verteilungsfunktion, 245, 246, 264 unkorreliert, 327, 338 bedingt, 424 unm¨ ogliches Ereignis, 195 Unter–σ–Algebra, 410 Unter–Vektorverband, 469 Unterraum, 467 Urbild einer Abbildung, 26 einer Menge, 26 eines Mengensystems, 25, 26 Urnenmodelle, 200, 221, 228, 239 Ziehen mit Zur¨ ucklegen, 201, 221, 240 ohne Zur¨ ucklegen, 200, 221, 239 Varianz bedingte, 422 einer Zufallsvariablen, 285 eines Zufallsvektors, 325 in den Klassen, 428 zwischen den Klassen, 428 Varianz–Zerlegung, 428 Variation negative, 58 positive, 58 totale, 62 Variationskoeffizient, 290 Vektorraum geordneter, 469 Vektorverband, 469 Verband, 19, 468 Version der bedingten Erwartung, 411, 416, 417
489 Verteilung absolutstetige, 255, 297 bedingte, 435, 442, 443 diskrete, 251, 295 einer Zufallsgr¨ oße, 194 eines stochastischen Prozesses, 461 empirische, 357, 446 multivariate, 293 stetigsingul¨ are, 258 symmetrische, 263, 273, 284, 389 univariate, 245 Verteilungen χ2 –, 257, 272, 318 Bernoulli–, 254 Beta–, 256, 278, 282, 287 Binomial–, 254, 277, 287, 315, 318, 370, 375, 376, 383 Boole–, 254 Cantor–, 258, 261 Cauchy–, 266, 273, 283 Dirac–, 253, 296 Dirichlet–, 298, 307, 308, 312, 320, 322, 325, 326, 329 Erlang–, 257, 318 Exponential–, 257, 266, 380 F –, 266 Gamma–, 257, 278, 282, 287, 318, 378, 381–383 Gauß–, 258 gemischte Binomial–, 265 gemischte Multinomial–, 300 gemischte Poisson–, 265 geometrische, 255, 264, 273, 278, 287, 377 Gompertz–, 267 hypergeometrische, 253, 277, 287 logarithmische, 265, 283, 290, 378 Multinomial–, 297, 305, 308, 311, 314, 320, 321, 324, 326, 328 Negativbinomial–, 254, 277, 287, 315, 370, 375, 376, 383 Negativmultinomial–, 297, 305, 311, 314, 320, 321, 325, 326, 328 Normal–, 257, 258, 266, 272, 279, 287, 291, 298, 301, 307, 313, 317, 318, 320, 326, 380, 382, 389 Panjer–, 377 Pareto–, 266, 273, 284 Pascal–, 254
490 Poisson–, 254, 277, 287, 297, 315, 353, 370, 375, 376, 383, 405 P´ olya–, 265, 283, 290 P´ olya/Eggenberger–, 300, 308 polyhypergeometrische, 296, 304, 311, 314, 320, 321, 324, 326, 328 Standardnormal–, 258, 298, 379, 381, 383 t–, 258, 270, 279, 282, 323 uniforme, 256, 273, 278, 281, 287, 291, 298, 306, 311, 320, 322, 325, 326, 329, 383 Weibull–, 267 Verteilungsfunktion bedingte, 442 empirische, 353, 446 multivariate, 293, 294, 299 univariate, 245, 246, 264 Verteilungskonvergenz, 397 Vervollst¨ andigung, 48, 56, 70, 78 vollst¨ andig geordnete Menge, 468 vollst¨ andige Mengenfunktion, 48 vollst¨ andige Metrik, 469 vollst¨ andige Ordnungsrelation, 468 vollst¨ andiger Raum, 469, 470 Wahrscheinlichkeit bedingte, 220, 435 totale, 228 wahrscheinlichkeitserzeugende Funktion, 370, 378 Wahrscheinlichkeitsfunktion, 196 Wahrscheinlichkeitsinhalt, 194 Wahrscheinlichkeitsmaß, 194 bedingtes, 220 Wahrscheinlichkeitsraum, 193, 194 diskreter, 196 endliches Produkt, 202
Sachverzeichnis symmetrischer, 198 wandernde T¨ urme, 333, 399 Weibull–Verteilung, 267 Wurf einer M¨ unze, 199, 202, 203 bis zum ersten Kopf, 216 relative H¨ aufigkeiten, 339 Wurf eines W¨ urfels, 195 Z¨ ahldichte, 251, 295 Z¨ ahlmaß, 50 lokales, 50, 155 Zentraler Grenzwertsatz, 391, 405, 406 zentrales Moment, 285, 289, 323 zentrierte Zufallsvariable, 285 Zerlegung Hahn–, 60, 62, 162 Jordan–, 58, 62 Lebesgue–, 160 Ziehen mit Zur¨ ucklegen, 201, 221, 240 ohne Zur¨ ucklegen, 200, 221, 239 Zufallsexperiment, 195 Zufallsgr¨ oße, 194 Zufallsgr¨ oßen bedingt unabh¨ angige, 441 paarweise unabh¨ angige, 241 unabh¨ angige, 236, 237 Zufallsmatrix, 320 Zufallsvariable, 194 reelle, 194 standardisierte, 290 typische, 347, 453 zentrierte, 285 Zufallsvektor, 194 zweites Gesetz der Großen Zahlen, 347 zweites zentrales Moment, 289 Zylinder, 205 Zylindermenge, 206