Springer-Lehrbuch
Helge Toutenburg Christian Heumann
Induktive Statistik Eine Einführung mit R und SPSS
Vierte, überarbeitete und erweiterte Auflage Mit Beiträgen von Michael Schomaker und Malte Wißmann
123
Prof. Dr. Helge Toutenburg PD Dr. Christian Heumann Institut für Statistik der Universität München Akademiestraße 1 80799 München
[email protected] [email protected]
Die erste Auflage erschien bei Prentice Hall unter: H. Toutenburg, A. Fieger, C. Kastner: Induktive Statistik für Betriebs- und Volkswirte. Eine Einführung mit SPSS für Windows, ISBN 3-8272-9512-2
ISBN 978-3-540-77509-6
e-ISBN 978-3-540-77510-2
DOI 10.1007/978-3-540-77510-2 Springer-Lehrbuch ISSN 0937-7433 Bibliografische Information der Deutschen Nationalbibliothek Die Deutsche Nationalbibliothek verzeichnet diese Publikation in der Deutschen Nationalbibliografie; detaillierte bibliografische Daten sind im Internet über http://dnb.d-nb.de abrufbar. © 2000, 2005, 2008 Springer-Verlag Berlin Heidelberg Dieses Werk ist urheberrechtlich geschützt. Die dadurch begründeten Rechte, insbesondere die der Übersetzung, des Nachdrucks, des Vortrags, der Entnahme von Abbildungen und Tabellen, der Funksendung, der Mikroverfilmung oder der Vervielfältigung auf anderen Wegen und der Speicherung in Datenverarbeitungsanlagen, bleiben, auch bei nur auszugsweiser Verwertung, vorbehalten. Eine Vervielfältigung dieses Werkes oder von Teilen dieses Werkes ist auch im Einzelfall nur in den Grenzen der gesetzlichen Bestimmungen des Urheberrechtsgesetzes der Bundesrepublik Deutschland vom 9. September 1965 in der jeweils geltenden Fassung zulässig. Sie ist grundsätzlich vergütungspflichtig. Zuwiderhandlungen unterliegen den Strafbestimmungen des Urheberrechtsgesetzes. Die Wiedergabe von Gebrauchsnamen, Handelsnamen, Warenbezeichnungen usw. in diesem Werk berechtigt auch ohne besondere Kennzeichnung nicht zu der Annahme, dass solche Namen im Sinne der Warenzeichen- und Markenschutz-Gesetzgebung als frei zu betrachten wären und daher von jedermann benutzt werden dürften. Herstellung: LE-TEX Jelonek, Schmidt & Vöckler GbR, Leipzig Einbandgestaltung: WMX Design GmbH, Heidelberg Gedruckt auf s¨ aurefreiem Papier 987654321 springer.com
Vorwort der vierten Auflage
Auf Grund des Erfolges der ersten drei Auflagen wurde vom Springer-Verlag eine vierte Auflage angeregt, die insbesondere eine ausf¨ uhrlichere Darstellung von SPSS- Modulen und zus¨ atzlich eine Einf¨ uhrung in die Programmiersprache R beinhalten sollte. Die Autoren haben die dritte Auflage korrigiert und in einigen Kapiteln erweitert und zwei selbstst¨andige Kapitel zu SPSS und zu R aufgenommen. Analog zum Buch “Deskriptive Statistik” wurde ein einf¨ uhrendes Kapitel zum Thema “Fehlende Daten” eingef¨ ugt. Diese Erweiterung ist einmalig f¨ ur ein deutschsprachiges Lehrbuch der Statistik.
Helge Toutenburg Christian Heumann M¨ unchen, im November 2007
Vorwort der dritten Auflage
Unsere Zeit ist gepr¨ agt durch eine F¨ ulle von Informationen und Daten. Wir werden (an B¨orsentagen) u ¨ ber Dollarkurs, Dow Jones und Dax informiert, erhalten Kenntnis von der durchschnittlichen Zahl der Zuschauer und der Torquote in der Fußball-Bundesliga, der Aufschlaggeschwindigkeit von Boris Becker, erfahren die Schwankungen in den Arbeitslosenzahlen und wissen, dass die Durchschnittstemperatur im April 2004 um soundsoviel Grad unter dem langj¨ahrigen Mittel dieses Monats lag. Diese Angaben werden h¨ aufig grafisch aufbereitet in Form von Kurven oder Tabellen oder durch geeignete Maßzahlen wie Mittelwerte verdichtet. Darstellungen und Aufbereitungen dieser Art sind Gegenstand der deskriptiven Statistik, die auf die Beschreibung eines fest gegebenen Datenmaterials abzielt. Gegenstand der induktiven Statistik ist dagegen die Untersuchung von Daten, die als zuf¨ allige Stichprobe einer Grundgesamtheit entstammen. Die Stichprobenelemente k¨ onnen als Realisation eines Zufallsexperiments angesehen werden, d.h., die Werte der Stichprobenelemente sind nicht von vornherein bekannt. Ziel der induktiven Statistik ist es, durch geeignete Verfahren von der Stichprobe auf die Grundgesamtheit zu schließen und die Sicherheit der Schlussfolgerung abzusch¨ atzen, d.h., Wahrscheinlichkeiten f¨ ur die verschiedenen m¨ oglichen Folgerungen anzugeben. Dazu ben¨otigt man • • • •
Methoden und Gesetze der Wahrscheinlichkeitsrechnung, Regeln der Kombinatorik, geeignete Sch¨atzmethoden f¨ ur unbekannte Parameter und statistische Entscheidungsregeln.
Die Wahrscheinlichkeitsrechnung liefert die formalen Grundlagen f¨ ur die Untersuchung von Gesetzm¨ aßigkeiten bei zuf¨ alligen Ereignissen. Die Herausbildung der Wahrscheinlichkeitsrechnung – auch als Mathematik des Zufalls bekannt – ist eng mit der Entwicklung der Naturwissenschaften, speziell seit dem 19. Jahrhundert, verbunden. Ausgehend von einem Briefwechsel zwischen Blaise Pascal (1623–1662) und Pierre de Fermat (1601–1665) im Jahr 1654, der der Beantwortung einiger Fragen u ucksspiele diente, entwickelten Christian Huygens (1629– ¨ber Gl¨ 1695), Jacob Bernoulli (1654–1705), Abraham de Moivre (1667–1754), Thomas Bayes (1702–1761) und einige andere diese Erkenntnisse weiter. Pierre
VIII
Vorwort
Simon Laplace (1749–1827) legte schließlich durch die Zusammenfassung der zu seiner Zeit bekannten Begriffe und Gesetze einen wichtigen Grundstein f¨ ur die heutige Wahrscheinlichkeitsrechnung. Dabei spielten auf Grund des Laplaceschen Wahrscheinlichkeitsbegriffes kombinatorische Regeln, die bereits von Jacob Bernoulli diskutiert wurden, eine wichtige Rolle. W¨ahrend sich die Wahrscheinlichkeitsrechnung selbst auch nach Laplace stetig weiterentwickelte – verbunden mit Namen wie Carl Friedrich Gauss (1777–1855), Simeon Denis Poisson (1781–1840), Auguste Bravais (1811–1863), William Searly Gosset (1876–1937), Ronald Aylmer Fisher (1890–1962) u.a. – wurden die Grundlagen der Wahrscheinlichkeitsrechnung kaum weiterentwickelt. Erst Andrej Nikolajewitsch Kolmogorov (1908–1987) gelang es nach Vorarbeiten anderer Mathematiker, ein Axiomensystem der Wahrscheinlichkeitsrechnung (Kolmogorov, 1933) aufzustellen, das bis heute die formal widerspruchsfreie Grundlage der Wahrscheinlichkeitsrechnung darstellt. Eine ausf¨ uhrliche Darstellung der Entstehungsgeschichte der Wahrscheinlichkeitsrechnung findet man etwa bei Menges (1968) oder Stigler (1986). Die Mathematische Statistik entwickelte sich (unter Verwendung von Methoden der Wahrscheinlichkeitsrechnung) aus der deskriptiven Statistik zu einer selbstst¨andigen Disziplin, deren Anwendungsbereich zunehmend an Breite und Bedeutung gewinnt. Statistische Methoden werden heute in fast allen Gebieten von Medizin, Naturwissenschaften, Technik und Wirtschafts- und Sozialwissenschaften angewendet. Die Statistik ist zur charakteristischen ” Methode des modernen Wissenschaftsbetriebs geworden“ (Miethke, 1973). Trotz – oder gerade wegen – der Vielzahl der Anwendungsgebiete der Mathematischen Statistik sollte man jedoch stets darauf bedacht sein, dass man sich dessen, was man macht, noch bewußt ist, d.h., ... die mathematische ” Statistik ist kein Automat, in den man nur seinen Groschen hineinzustecken braucht, um sinnvolle Resultate zu erhalten. Vielmehr muß man sich in die Denkweise dieses Gebietes einleben, damit man die Anwendungsm¨oglichkeiten sehen lernt und in einem konkreten Fall das richtige Verfahren ausw¨ahlen kann.“ (Kreyszig, 1979). Statistische Methoden werden u ¨ berall dort eingesetzt, wo Versuchsergebnisse nicht beliebig oft und exakt reproduzierbar sind. Die Ursachen hierf¨ ur liegen in der nat¨ urlichen Variabilit¨ at der Versuchsobjekte oder in der Ver¨anderung der Versuchs- und Meßbedingungen. Dabei k¨onnen sowohl kontrollierbare als auch unkontrollierbare Faktoren das Versuchsergebnis beeinflusssen. Damit ist es notwendig, geeignete Methoden anzugeben, mit deren Hilfe man aus derartigen Stichproben die interessierenden Parameter der Grundgesamtheit sch¨ atzen kann. Will man dar¨ uber hinaus auf Grund einer vorliegenden Stichprobe Aussagen u ¨ber die Grundgesamtheit oder einige ihrer Parameter treffen, so sind hierf¨ ur statistische Entscheidungsregeln notwendig, mit deren Hilfe Aussagen als richtig oder falsch eingestuft werden k¨onnen, wobei dies nur mit einer gewissen Sicherheit m¨oglich ist.
Vorwort
IX
Auf Grund der Vielzahl der Problemstellungen, die aus den verschiedensten Anwendungsbereichen kommen, hat die Statistik eine Spezialisierung nach Anwendungsgebieten erfahren. Es gibt eine Reihe von relativ ¨ selbstst¨andigen Disziplinen wie Okonometrie, Biometrie, Psychometrie usw. Hinzu kommt in j¨ ungster Zeit die Disziplin Computational Statistics, die sich mit speziellen rechenintensiven Methoden wie Resampling, iterativen Verfahren, Computergrafik usw. besch¨ aftigt. Eine ausf¨ uhrliche Darstellung zur Entwicklung der Statistik und ihrer Bedeutung f¨ ur die moderne Gesellschaft findet man in Rao (1995). C.R. Rao f¨ uhrt insbesondere aus: Ist die Statistik, so wie sie heutzutage erforscht und praktiziert wird, eine Wissenschaft, Technologie oder Kunst? Vielleicht ist sie ja eine Kombination von allen dreien. Sie ist eine Wissenschaft in dem Sinne, dass sie ihre eigene Identit¨at hat, mit einem großen Repertoire an Techniken, hergeleitet aus einigen Grundprinzipien. Diese Techniken k¨ onnen nicht auf eine routinem¨aßige Art und Weise angewandt werden; der Anwender muß die n¨otige Expertise erwerben, die richtige Technik in einer gegebenen Situation zu w¨ ahlen und, falls n¨ otig, Modifikationen vorzunehmen. Statistik spielt eine wesentliche Rolle in der Einf¨ uhrung empirischer Gesetze in den Geistes- und Sozialwissenschaften. Weiterhin gibt es philosophische Themen, die in Zusammenhang mit den Grundlagen der Statistik – der Art der Quantifizierung und des Ausdrucks der Unsicherheit – stehen, die unabh¨ angig von jedem Inhalt diskutiert werden k¨onnen. Statistik ist also im weiteren Sinne eine separate Disziplin, wom¨ oglich eine Disziplin aller Disziplinen. Sie ist eine Technologie in dem Sinne, dass statistische Methodologie in jedes Betriebssystem eingebaut werden kann, um ein gew¨ unschtes Niveau und eine angestrebte Stabilit¨ at der Leistung zu erhalten, wie zum Beispiel in Qualit¨ atssicherungsprogrammen in der industriellen Produktion. Statistische Methoden k¨ onnen auch zum Kontrollieren, Reduzieren und Zulassen von Unsicherheit verwendet werden und dadurch die Effizienz individueller und institutioneller Bem¨ uhungen maximieren. Statistik ist auch eine Kunst, denn ihre Methodologie, die von induktiver Argumentation abh¨ angt, ist nicht v¨ ollig codifiziert oder frei von Kontroversen. Verschiedene Statistiker, die mit den gleichen Daten arbeiten, k¨onnen zu verschiedenen Schl¨ ussen kommen. In der Regel steckt in gegebenen Daten mehr Information, als mittels der zur Verf¨ ugung stehenden statistischen Verfahren extrahiert werden kann. Die Zahlen ihre eigene Geschichte erz¨ ahlen zu lassen h¨angt von der Kunst und Erfahrung eines Statistikers ab. Dies macht Statistik zur Kunst ...
X
Vorwort Tabelle 0.1. Statistische Datenanalyse, entnommen aus Rao (1995)
Formulierung der Fragestellung
Techniken der Datensammlung
Historisch ver¨ offentlichtes Material
Versuchsplanung
Wie wird gemessen?
Daten
Begleitende Variablen
Kreuzuntersuchuung der Daten
Modellierung
Inferenzielle Datenanalyse
Stichprobenerhebungen
Expertenwissen
Anf¨angliche explorative Aufdeckungsanalyse (Aufdecken von Ausreißern, Fehlern, Bias, interne Konsistenz, externe Validierung, spezielle Charakteristika)
Spezifizierung (Kreuzvalidierung, wie verwendet man Expertenwissen und fr¨ uhere Resultate, Bayesansatz)
Testen von Hypothesen
Sch¨atzen (Punkt, Intervall)
Entscheidungsfindung
Metaanalyse
Zusammenfassende Statistiken
Grafische Darstellung
Orientierungshilfe f¨ ur zuk¨ unftige Untersuchungen
Es gibt eine Vielzahl deutschsprachiger B¨ ucher zur Statistik, wobei die Autoren unterschiedliche Schwerpunkte gesetzt haben—von der Darstellung spezifischer Lehrinhalte in ausgew¨ ahlten Fachdisziplinen (Statistik f¨ ur Soziologen, Wirtschaftswissenschaftler, Zahnmediziner etc.) bis hin zu ausgefeilten Methodensammlungen (Explorative Datenanalyse, Regressionsmodelle etc.) oder erweiterten Handb¨ uchern zu Standardsoftware.
Vorwort
XI
Das vorliegende Buch soll insbesondere den Stoff von Vorlesungen Stati” stik II f¨ ur Nebenfachstudenten“ abdecken und eine Verbindung zwischen den Methoden der induktiven Statistik und ihrer Umsetzung mit Standardsoft¨ ware – hier: SPSS f¨ ur Windows – herstellen, sowie als Lehr- und Ubungsmaterial (durch Einschluss von Aufgaben und Musterl¨osungen) die Ausbildung der Studenten unterst¨ utzen. Das Manuskript dieser 3. Auflage ist ein Produkt der mehrj¨ahrigen Erfahrung der AG Toutenburg in der Ausbildung der Nebenfachstudenten. Der Autor und seine Mitarbeiter –insbesondere Herr Dr. Andreas Fieger und Herr Dr. Christian Kastner– haben sich bem¨ uht, ihre Erfahrungen aus ¨ ¨ dem Lehr- und Ubungsbetrieb und die Erfahrungen der Leiter der Ubungsgruppen so umzusetzen, dass der Text den Anforderungen eines begleitenden ¨ Lehr- und Ubungsmaterials gerecht wird. Die Einbeziehung von SPSS soll den Weg zur modernen Arbeitsweise bei der Datenanalyse mit dem Computer ebnen. Das vorliegende Manuskript entstand auf Einladung des Springer–Verlags, Heidelberg. Herrn Dr. Werner M¨ uller ist f¨ ur seine Unterst¨ utzung zu danken. Ich w¨ urden mich freuen, wenn das Buch sein Ziel erreicht und die Studenten anspricht.
Helge Toutenburg
Inhaltsverzeichnis
Teil I. Wahrscheinlichkeitstheorie 1.
2.
Kombinatorik . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1.1 Einleitung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1.2 Grundbegriffe der Kombinatorik . . . . . . . . . . . . . . . . . . . . . . . . . . 1.3 Permutationen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1.3.1 Permutationen ohne Wiederholung . . . . . . . . . . . . . . . . . 1.3.2 Permutationen mit Wiederholung . . . . . . . . . . . . . . . . . . 1.4 Kombinationen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1.4.1 Kombinationen ohne Wiederholung und ohne Ber¨ ucksichtigung der Reihenfolge . . . . . . . . . . . . . . . . . . . . . . . . . 1.4.2 Kombinationen ohne Wiederholung, aber mit Ber¨ ucksichtigung der Reihenfolge . . . . . . . . . . . . . . . . . . . . . . . . . 1.4.3 Kombinationen mit Wiederholung, aber ohne Ber¨ ucksichtigung der Reihenfolge . . . . . . . . . . . . . . . . . . . . . . . . . 1.4.4 Kombinationen mit Wiederholung und mit Ber¨ ucksichtigung der Reihenfolge . . . . . . . . . . . . . . . . . . . . . . . . . 1.5 Zusammenfassung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1.6 Aufgaben und Kontrollfragen . . . . . . . . . . . . . . . . . . . . . . . . . . . .
3 3 3 4 4 6 7
10 11 12
Elemente der Wahrscheinlichkeitsrechnung . . . . . . . . . . . . . . . 2.1 Einleitung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 2.2 Zuf¨allige Ereignisse . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 2.3 Relative H¨ aufigkeit und Laplacesche Wahrscheinlichkeit . . . . . 2.4 Axiome der Wahrscheinlichkeitsrechnung . . . . . . . . . . . . . . . . . . 2.4.1 Folgerungen aus den Axiomen . . . . . . . . . . . . . . . . . . . . . . 2.4.2 Rechenregeln f¨ ur Wahrscheinlichkeiten . . . . . . . . . . . . . . 2.5 Bedingte Wahrscheinlichkeit . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 2.5.1 Motivation und Definition . . . . . . . . . . . . . . . . . . . . . . . . . 2.5.2 Der Satz von Bayes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 2.6 Unabh¨ angigkeit . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 2.7 Aufgaben und Kontrollfragen . . . . . . . . . . . . . . . . . . . . . . . . . . . .
13 13 14 17 19 19 21 21 21 23 27 30
7 9 10
XIV
Inhaltsverzeichnis
3.
Zuf¨ allige Variablen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 3.1 Einleitung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 3.2 Verteilungsfunktion einer Zufallsvariablen . . . . . . . . . . . . . . . . . . 3.3 Diskrete Zufallsvariablen und ihre Verteilungsfunktion . . . . . . 3.4 Stetige Zufallsvariablen und ihre Verteilungsfunktion . . . . . . . . 3.5 Erwartungswert und Varianz einer Zufallsvariablen . . . . . . . . . 3.5.1 Erwartungswert . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 3.5.2 Rechenregeln f¨ ur den Erwartungswert . . . . . . . . . . . . . . . 3.5.3 Varianz . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 3.5.4 Rechenregeln f¨ ur die Varianz . . . . . . . . . . . . . . . . . . . . . . . 3.5.5 Standardisierte Zufallsvariablen . . . . . . . . . . . . . . . . . . . . 3.5.6 Erwartungswert und Varianz des arithmetischen Mittels 3.5.7 Ungleichung von Tschebyschev . . . . . . . . . . . . . . . . . . . . . 3.5.8 kσ-Bereiche . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 3.6 Die Quantile, der Median und der Modalwert einer Verteilung 3.7 Zweidimensionale Zufallsvariablen . . . . . . . . . . . . . . . . . . . . . . . . 3.7.1 Zweidimensionale diskrete Zufallsvariablen . . . . . . . . . . . 3.7.2 Zweidimensionale stetige Zufallsvariablen . . . . . . . . . . . . 3.7.3 Momente von zweidimensionalen Zufallsvariablen . . . . . 3.7.4 Korrelationskoeffizient . . . . . . . . . . . . . . . . . . . . . . . . . . . . 3.8 Aufgaben und Kontrollfragen . . . . . . . . . . . . . . . . . . . . . . . . . . . .
35 35 37 39 42 47 48 48 50 50 52 52 53 55 56 57 57 59 61 63 64
4.
Diskrete und stetige Standardverteilungen . . . . . . . . . . . . . . . . 4.1 Einleitung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 4.2 Spezielle diskrete Verteilungen . . . . . . . . . . . . . . . . . . . . . . . . . . . 4.2.1 Die diskrete Gleichverteilung . . . . . . . . . . . . . . . . . . . . . . . 4.2.2 Die Einpunktverteilung . . . . . . . . . . . . . . . . . . . . . . . . . . . 4.2.3 Die Null-Eins-Verteilung . . . . . . . . . . . . . . . . . . . . . . . . . . 4.2.4 Die hypergeometrische Verteilung . . . . . . . . . . . . . . . . . . 4.2.5 Die Binomialverteilung . . . . . . . . . . . . . . . . . . . . . . . . . . . . 4.2.6 Die geometrische Verteilung . . . . . . . . . . . . . . . . . . . . . . . 4.2.7 Die Poissonverteilung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 4.2.8 Die Multinomialverteilung . . . . . . . . . . . . . . . . . . . . . . . . . 4.3 Spezielle stetige Verteilungen . . . . . . . . . . . . . . . . . . . . . . . . . . . . 4.3.1 Die stetige Gleichverteilung . . . . . . . . . . . . . . . . . . . . . . . . 4.3.2 Die Exponentialverteilung . . . . . . . . . . . . . . . . . . . . . . . . . 4.3.3 Die Normalverteilung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 4.3.4 Die zweidimensionale Normalverteilung . . . . . . . . . . . . . 4.4 Pr¨ ufverteilungen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 4.4.1 Die χ2 -Verteilung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 4.4.2 Die t-Verteilung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 4.4.3 Die F -Verteilung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 4.5 Aufgaben und Kontrollfragen . . . . . . . . . . . . . . . . . . . . . . . . . . . .
69 69 69 69 70 70 72 74 77 79 80 82 82 83 85 89 91 91 92 93 94
Inhaltsverzeichnis
5.
XV
Grenzwerts¨ atze und Approximationen . . . . . . . . . . . . . . . . . . . . 97 5.1 Die stochastische Konvergenz . . . . . . . . . . . . . . . . . . . . . . . . . . . . 97 5.2 Das Gesetz der großen Zahlen . . . . . . . . . . . . . . . . . . . . . . . . . . . . 98 5.3 Der zentrale Grenzwertsatz . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 99 5.4 Approximationen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 100 5.4.1 Approximation der Binomialverteilung durch die Normalverteilung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 101 5.4.2 Approximation der Binomialverteilung durch die Poissonverteilung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 103 5.4.3 Approximation der Poissonverteilung durch die Normalverteilung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 103 5.4.4 Approximation der hypergeometrischen Verteilung durch die Binomialverteilung . . . . . . . . . . . . . . . . . . . . . . . . . . . . 103 5.5 Aufgaben und Kontrollfragen . . . . . . . . . . . . . . . . . . . . . . . . . . . . 105
Teil II. Induktive Statistik 6.
7.
Sch¨ atzung von Parametern . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 6.1 Einleitung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 6.2 Allgemeine Theorie der Punktsch¨ atzung . . . . . . . . . . . . . . . . . . . 6.3 Maximum-Likelihood-Sch¨ atzung . . . . . . . . . . . . . . . . . . . . . . . . . . 6.3.1 Das Maximum-Likelihood-Prinzip . . . . . . . . . . . . . . . . . . 6.3.2 Herleitung der ML-Sch¨ atzungen f¨ ur die Parameter der Normalverteilung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 6.4 Konfidenzsch¨ atzungen von Parametern . . . . . . . . . . . . . . . . . . . . 6.4.1 Grundlagen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 6.4.2 Konfidenzsch¨ atzung der Parameter einer Normalverteilung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 6.5 Sch¨atzen einer Binomialwahrscheinlichkeit . . . . . . . . . . . . . . . . . 6.6 Aufgaben und Kontrollfragen . . . . . . . . . . . . . . . . . . . . . . . . . . . .
109 109 110 112 112
Pr¨ ufen statistischer Hypothesen . . . . . . . . . . . . . . . . . . . . . . . . . . 7.1 Einleitung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 7.2 Testtheorie . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 7.3 Einstichprobenprobleme bei Normalverteilung . . . . . . . . . . . . . . 7.3.1 Pr¨ ufen des Mittelwertes bei bekannter Varianz (einfacher Gauss-Test) . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 7.3.2 Pr¨ ufung des Mittelwertes bei unbekannter Varianz (einfacher t-Test) . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . ur die Varianz . . . . . . . . . . 7.3.3 Pr¨ ufen der Varianz; χ2 -Test f¨ 7.4 Zweistichprobenprobleme bei Normalverteilung . . . . . . . . . . . . . 7.4.1 Pr¨ ufen der Gleichheit der Varianzen (F-Test) . . . . . . . . 7.4.2 Pr¨ ufen der Gleichheit der Mittelwerte zweier unabh¨angiger normalverteilter Zufallsvariablen . . . . . . . . . . . . . . . .
127 127 127 131
114 117 117 118 122 125
131 135 137 139 139 142
XVI
Inhaltsverzeichnis
7.5 7.6
7.7 7.8 8.
7.4.3 Pr¨ ufen der Gleichheit der Mittelwerte aus einer verbundenen Stichprobe (paired t-Test) . . . . . . . . . . . . . . . . Pr¨ ufen der Korrelation zweier Normalverteilungen . . . . . . . . . . Pr¨ ufen von Hypothesen u ¨ ber Binomialverteilungen . . . . . . . . . . 7.6.1 Pr¨ ufen der Wahrscheinlichkeit f¨ ur das Auftreten eines Ereignisses (Binomialtest f¨ ur p) . . . . . . . . . . . . . . . . . . . . 7.6.2 Pr¨ ufen der Gleichheit zweier Binomialwahrscheinlichkeiten . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 7.6.3 Exakter Test von Fisher . . . . . . . . . . . . . . . . . . . . . . . . . . . 7.6.4 McNemar-Test f¨ ur bin¨ aren Response . . . . . . . . . . . . . . . . Testentscheidung mit Statistik Software . . . . . . . . . . . . . . . . . . . Aufgaben und Kontrollfragen . . . . . . . . . . . . . . . . . . . . . . . . . . . .
Nichtparametrische Tests . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 8.1 Einleitung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 8.2 Anpassungstests . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 8.2.1 Chi-Quadrat-Anpassungstest . . . . . . . . . . . . . . . . . . . . . . . 8.2.2 Kolmogorov–Smirnov–Anpassungstest . . . . . . . . . . . . . . . 8.3 Homogenit¨ atstests f¨ ur zwei unabh¨ angige Stichproben . . . . . . . . 8.3.1 Kolmogorov-Smirnov-Test im Zweistichprobenproblem 8.3.2 Mann-Whitney-U -Test . . . . . . . . . . . . . . . . . . . . . . . . . . . . 8.4 Homogenit¨ atstests im matched-pair Design . . . . . . . . . . . . . . . . 8.4.1 Vorzeichen-Test . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 8.4.2 Wilcoxon-Test . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 8.5 Matched-Pair Design: Pr¨ ufung der Rangkorrelation . . . . . . . . . 8.6 Aufgaben und Kontrollfragen . . . . . . . . . . . . . . . . . . . . . . . . . . . .
145 147 149 149 152 153 155 157 161 165 165 165 166 168 172 172 174 179 179 182 184 187
Teil III. Modellierung von Ursache–Wirkungsbeziehungen 9.
Lineare Regression . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 9.1 Bivariate Ursache-Wirkungsbeziehungen . . . . . . . . . . . . . . . . . . . 9.2 Induktive univariate lineare Regression . . . . . . . . . . . . . . . . . . . . 9.2.1 Eigenschaften der Sch¨ atzfunktion b . . . . . . . . . . . . . . . . . 9.2.2 Hypothesentests f¨ ur den Parameter b . . . . . . . . . . . . . . . 9.3 Induktive multiple Regression . . . . . . . . . . . . . . . . . . . . . . . . . . . . 9.3.1 Beste lineare erwartungstreue Sch¨atzung von β . . . . . . 9.3.2 Sch¨ atzung von σ 2 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 9.3.3 Klassische Normalregression . . . . . . . . . . . . . . . . . . . . . . . 9.3.4 Maximum-Likelihood-Sch¨ atzung . . . . . . . . . . . . . . . . . . . . 9.3.5 Pr¨ ufen von linearen Hypothesen . . . . . . . . . . . . . . . . . . . . 9.3.6 Pr¨ ufen der univariaten Regression . . . . . . . . . . . . . . . . . . 9.3.7 Konfidenzbereiche . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 9.3.8 Vergleich von Modellen . . . . . . . . . . . . . . . . . . . . . . . . . . . . 9.3.9 Kriterien zur Modellwahl . . . . . . . . . . . . . . . . . . . . . . . . . .
193 193 194 195 197 197 198 199 200 200 201 206 208 212 213
Inhaltsverzeichnis
XVII
9.3.10 Die bedingte KQ-Sch¨ atzung . . . . . . . . . . . . . . . . . . . . . . . 9.4 Ein komplexes Beispiel . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 9.4.1 Normalverteilungsannahme . . . . . . . . . . . . . . . . . . . . . . . . 9.4.2 Schrittweise Einbeziehung von Variablen . . . . . . . . . . . . 9.4.3 Grafische Darstellung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 9.5 Kategoriale Einflussgr¨ oßen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 9.6 Aufgaben und Kontrollfragen . . . . . . . . . . . . . . . . . . . . . . . . . . . .
215 215 216 217 221 222 227
10. Varianzanalyse . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 10.1 Einleitung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 10.2 Einfaktorielle Varianzanalyse . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 10.2.1 Darstellung als restriktives Modell . . . . . . . . . . . . . . . . . . 10.2.2 Zerlegung der Fehlerquadratsumme . . . . . . . . . . . . . . . . . 10.2.3 Sch¨ atzung von σ 2 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 10.2.4 Pr¨ ufen des Modells . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 10.3 Multiple Vergleiche von einzelnen Mittelwerten . . . . . . . . . . . . . 10.4 Rangvarianzanalyse – Kruskal-Wallis-Test . . . . . . . . . . . . . . . . . 10.5 Zweifaktorielle Varianzanalyse mit Wechselwirkung . . . . . . . . . 10.5.1 Definitionen und Grundprinzipien . . . . . . . . . . . . . . . . . . 10.5.2 Modellannahmen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 10.6 Aufgaben und Kontrollfragen . . . . . . . . . . . . . . . . . . . . . . . . . . . .
231 231 232 235 237 239 240 243 246 250 250 254 262
11. Analyse von Kontingenztafeln . . . . . . . . . . . . . . . . . . . . . . . . . . . . 11.1 Zweidimensionale kategoriale Zufallsvariablen . . . . . . . . . . . . . . 11.2 Unabh¨ angigkeit . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 11.3 Inferenz in Kontingenztafeln . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 11.3.1 Stichprobenschemata f¨ ur Kontingenztafeln . . . . . . . . . . . 11.3.2 ML-Sch¨ atzung bei Multinomialschema . . . . . . . . . . . . . . 11.3.3 Exakter Test von Fisher f¨ ur 2 × 2-Tafeln . . . . . . . . . . . . 11.3.4 Maximum-Likelihood-Quotienten-Test auf Unabh¨angigkeit . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 11.4 Differenziertere Untersuchung von I × J-Tafeln . . . . . . . . . . . . . 11.5 Die Vierfeldertafel . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 11.6 Zweifache Klassifikation und loglineare Modelle . . . . . . . . . . . . . 11.7 Aufgaben und Kontrollfragen . . . . . . . . . . . . . . . . . . . . . . . . . . . .
265 265 267 268 268 270 273
12. Lebensdaueranalyse . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 12.1 Problemstellung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 12.2 Survivorfunktion und Hazardrate . . . . . . . . . . . . . . . . . . . . . . . . . 12.3 Kaplan-Meier-Sch¨ atzung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 12.4 Log-Rank-Test zum Vergleich von Survivorfunktionen . . . . . . . ¨ 12.5 Einbeziehung von Kovariablen in die Uberlebensanalyse ..... 12.5.1 Das Proportional–Hazard–Modell von Cox . . . . . . . . . . . ¨ 12.5.2 Uberpr¨ ufung der Proportionalit¨atsannahme . . . . . . . . . . 12.5.3 Sch¨ atzung des Cox–Modells . . . . . . . . . . . . . . . . . . . . . . . .
289 289 291 292 296 300 301 302 303
273 274 277 280 286
XVIII Inhaltsverzeichnis
¨ 12.5.4 Sch¨ atzung der Uberlebensfunktion unter dem Cox– Ansatz . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 12.5.5 Einige Wahrscheinlichkeitsverteilungen f¨ ur die Verweildauer . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 12.5.6 Modellierung der Hazardrate . . . . . . . . . . . . . . . . . . . . . . . 12.6 Aufgaben und Kontrollfragen . . . . . . . . . . . . . . . . . . . . . . . . . . . . 13. Fehlende Daten . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 13.1 Betrachtung eines einzelnen Merkmals . . . . . . . . . . . . . . . . . . . . 13.1.1 Behandlung fehlender Daten f¨ ur eine bin¨are Zufallsvariable . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 13.1.2 Fehlende Daten bei einer univariat normalverteilten Zufallsvariable . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 13.2 Betrachtung zweier Merkmale . . . . . . . . . . . . . . . . . . . . . . . . . . . . 13.2.1 Zwei kategoriale Merkmale . . . . . . . . . . . . . . . . . . . . . . . .
304 304 306 309 311 314 314 321 321 323
Teil IV. Einf¨ uhrung in statistische Software 14. Einf¨ uhrung in SPSS . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 14.1 Grundaufbau des Programms . . . . . . . . . . . . . . . . . . . . . . . . . . . . 14.1.1 Das Datenfenster . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 14.1.2 Das Ausgabefenster . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 14.1.3 Das Syntaxfenster . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 14.2 Einige praktische Beispiele . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 14.2.1 Wahrscheinlichkeitstheorie und die Erzeugung von Zufallszahlen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 14.2.2 Verwendung von statistischen Tests . . . . . . . . . . . . . . . . . 14.2.3 Modellierung von Ursache-Wirkungsbeziehungen . . . . .
329 329 330 331 332 333
15. Einf¨ uhrung in R . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 15.1 Installation und Grundaufbau des Programmpakets R . . . . . . . 15.1.1 R als u ¨berdimensionierter Taschenrechner . . . . . . . . . . . 15.1.2 Programmiersprache R . . . . . . . . . . . . . . . . . . . . . . . . . . . . 15.1.3 Grafische F¨ ahigkeiten von R . . . . . . . . . . . . . . . . . . . . . . . 15.2 Einige praktische Beispiele . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 15.2.1 Wahrscheinlichkeitstheorie und die Erzeugung von Zufallszahlen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 15.2.2 Verwendung von statistischen Tests . . . . . . . . . . . . . . . . . 15.2.3 Modellierung von Ursache–Wirkungsbeziehungen . . . . .
353 353 354 355 356 360
¨ A. L¨ osungen zu den Ubungsaufgaben ........................ A.1 Kombinatorik . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . A.2 Elemente der Wahrscheinlichkeitsrechnung . . . . . . . . . . . . . . . . . A.3 Zuf¨allige Variablen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
387 388 391 401
333 337 346
360 364 378
Inhaltsverzeichnis
A.4 Diskrete und stetige Standardverteilungen . . . . . . . . . . . . . . . . . A.5 Grenzwerts¨ atze und Approximationen . . . . . . . . . . . . . . . . . . . . . A.6 Sch¨atzung von Parametern . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . A.7 Pr¨ ufen statistischer Hypothesen . . . . . . . . . . . . . . . . . . . . . . . . . . A.8 Nichtparametrische Tests . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . A.9 Lineare Regression . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . A.10 Varianzanalyse . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . A.11 Analyse von Kontingenztafeln . . . . . . . . . . . . . . . . . . . . . . . . . . . . A.12 Lebensdaueranalyse . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
XIX
415 424 429 434 441 450 453 456 460
B. Tabellenanhang . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 463 Literatur . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 477 Sachverzeichnis . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 479
Teil I
Wahrscheinlichkeitstheorie
1. Kombinatorik
1.1 Einleitung Dieses Kapitel dient der Vorbereitung auf die Grundlagen der Wahrscheinlichkeitsrechnung in Kapitel 2. Klassische wahrscheinlichkeitstheoretische Probleme liefern beispielsweise die Gl¨ ucksspiele, die als Experiment mit zuf¨alligem Ergebnis aufgefaßt werden k¨ onnen. Hier ist man insbesondere daran interessiert, die Chancen f¨ ur gewisse Gewinnklassen auszurechnen. Chance wird dabei als das Verh¨ altnis der f¨ ur die spezielle Gewinnklasse g¨ unstigen Ergebnisse zu der Anzahl aller gleichm¨ oglichen Ergebnisse verstanden. Dieser Quotient ist die Grundlage der klassischen Definition der Wahrscheinlichkeit nach Laplace (vgl. Abschnitt 2.3). Wir haben somit die Menge aller m¨oglichen Ergebnisse und die darin enthaltene Menge der f¨ ur die spezielle Gewinnklasse g¨ unstigen Ergebnisse zu betrachten. Die Anzahl der Elemente einer Menge M wird als M¨ achtigkeit |M | der Menge M bezeichnet. Beispiel. Beim Roulette besteht die Menge der m¨oglichen Ergebnisse aus den Zahlen 0, . . . , 36 mit der M¨ achtigkeit 37. Die Gewinnklasse Rouge“ besteht ” aus den roten Zahlen, die M¨ achtigkeit dieser Menge ist 18. Da der M¨achtigkeit von Mengen eine zentrale Bedeutung in der Wahrscheinlichkeitsrechnung zukommt, betrachten wir in den folgenden Abschnitten die grundlegenden Modelle und Fragestellungen der Kombinatorik, die sich mit der Berechnung von M¨ achtigkeiten besch¨aftigt. Dabei stehen die folgenden beiden Fragestellungen im Vordergrund: • Gegeben seien n Elemente. Auf wieviele Arten kann man sie anordnen? (Permutationen) • Auf wieviele Arten kann man m Elemente aus n Elementen ausw¨ahlen? (Kombinationen)
1.2 Grundbegriffe der Kombinatorik Als theoretische Grundlage f¨ ur das Gl¨ ucksspiel kann das Urnenmodell betrachtet werden. Man nehme eine Urne, in der sich n Kugeln befinden. Diese k¨onnen – je nach Fragestellung – entweder alle verschieden sein, oder es
4
1. Kombinatorik
k¨onnen sich mehrere Gruppen von gleichartigen Kugeln in der Urne befinden. Als das Resultat des Ziehens von Kugeln aus der Urne erhalten wir eine Auswahl (Stichprobe) von Kugeln aus der Gesamtheit (Grundgesamtheit) aller in der Urne vorhandenen Kugeln. Wir unterscheiden dabei zwischen der ungeordneten und der geordneten Auswahl von Elementen. Definition 1.2.1. Eine Auswahl von Elementen heißt geordnet, wenn die Reihenfolge der Elemente von Bedeutung ist, anderenfalls heißt die Auswahl von Elementen ungeordnet. Beispiele. • geordnete Auswahl: – Einlauf der ersten drei Pferde beim Pferderennen mit Sieger, Zweitem, Drittem – Wahl eines Vorsitzenden und seines Stellvertreters in einem Sportverein • ungeordnete Auswahl – Ziehungsergebnis ‘6 aus 49’ (ohne Zusatzzahl) – qualifizierte Fußballmannschaften f¨ ur die Weltmeisterschaft 2006 ¨ Bei den obigen Beispielen will man sich eine Ubersicht u ¨ber die Zahl der verschiedenen Auswahlm¨ oglichkeiten verschaffen, d. h., man fragt nach der Zahl der m¨oglichen Einl¨ aufe der ersten drei Pferde bei z. B. acht Pferden im Wettbewerb, nach der Anzahl der m¨ oglichen Wahlausg¨ange in einem Sportverein, nach den verschiedenen Tippergebnissen beim Lotto, nach den verschiedenen Teilnehmerfeldern f¨ ur die Weltmeisterschaft 2006 usw.
1.3 Permutationen Definition 1.3.1. Gegeben sei eine Menge mit n Elementen. Jede Anordnung dieser Elemente in einer bestimmten Reihenfolge heißt Permutation dieser Elemente. Bei Permutationen k¨ onnen wir zwei F¨ alle unterscheiden: Sind alle n Elemente verschieden (also unterscheidbar), so spricht man von Permutationen ohne Wiederholung. Sind einige Elemente gleich, so handelt es sich um Permutationen mit Wiederholung. 1.3.1 Permutationen ohne Wiederholung Sind alle n Elemente verschieden, so gibt es n! verschiedene Anordnungen dieser Elemente.
(1.1)
1.3 Permutationen
5
Definition 1.3.2. Der Ausdruck n! heißt n Fakult¨ at und ist f¨ ur ganzzahliges n ≥ 0 wie folgt definiert: 1 f¨ ur n = 0 (1.2) n! = 1 · 2 · 3 · · · n f¨ ur n > 0 So ist beispielsweise
1! = 1 2! = 1 · 2 = 2
3! = 1 · 2 · 3 = 6 . Die Regel Es gibt n! Permutationen ohne Wiederholung“ u uft man ¨ berpr¨ ” ¨ leicht durch folgende Uberlegung. Bei n verschiedenen Elementen hat man n M¨oglichkeiten, das erste Element zu w¨ ahlen. Hat man das erste Element festgelegt, so verbleiben f¨ ur die Wahl des zweiten Elements n − 1 M¨oglichkeiten, . . . , f¨ ur die Wahl des letzten Elements bleibt eine M¨oglichkeit. Im Urnenmodell entspricht dies dem Ziehen aller n Kugeln der Reihe nach. Beispiel 1.3.1. 3 Kinder stellen sich an einem Eisstand an. F¨ ur die Reihenfolge des Anstehens von Ulrike, Angela und Sabina gibt es 3! = 6 M¨oglichkeiten: (U, A, S), (A, S, U), (S, A, U) (U, S, A), (A, U, S), (S, U, A) urzt durch die Ziffern Beispiel 1.3.2. 4 Filialen einer Gesch¨ aftskette (abgek¨ 1, 2, 3 und 4) werden nach ihrem Jahresumsatz angeordnet. Es gibt daf¨ ur 4! = 24 verschiedene M¨ oglichkeiten. F¨ ur die Filiale mit dem h¨ochsten Umsatz gibt es 4 M¨oglichkeiten. In der folgenden Auflistung sind die Gruppen mit gleich besetzter erster Position in Spalten nebeneinander angeordnet. Ist die erste Position festgelegt, verbleiben f¨ ur die zweite Position 3 M¨oglichkeiten. Ist diese bestimmt, verbleiben f¨ ur Position drei 2 M¨oglichkeiten. Mit der Festlegung der dritten (vorletzten) Position ist schließlich auch die letzte Position vier bestimmt. In der linken Spalte der folgenden Auflistung wird f¨ ur die erste Position Filiale 1 und f¨ ur die zweite Position zun¨ achst Filiale 2 gew¨ahlt. F¨ ur die dritte und vierte Position verbleiben damit die beiden Kombinationen 3, 4 und 4, 3. W¨ahlen wir dann f¨ ur die zweite Position Filiale 3, so verbleiben die beiden Kombinationen 2, 4 und 4, 2. Bei Filiale 4 an Position zwei gibt es schließlich die beiden Kombinationen 2, 3 und 3, 2. Die weiteren Spalten werden analog gebildet. Filiale 1 mit h¨ ochstem Umsatz (1, 2, 3, 4) (1, 2, 4, 3) (1, 3, 2, 4) (1, 3, 4, 2) (1, 4, 2, 3) (1, 4, 3, 2)
··· ··· ··· ··· ··· ··· ···
Filiale 4 mit h¨ochstem Umsatz (4, 1, 2, 3) (4, 1, 3, 2) (4, 2, 1, 3) (4, 2, 3, 1) (4, 3, 1, 2) (4, 3, 2, 1)
6
1. Kombinatorik
1.3.2 Permutationen mit Wiederholung Sind nicht alle Elemente verschieden, sondern gibt es n1 gleichartige Elemente E1 , n2 gleichartige – aber von E1 verschiedene – Elemente E2 , . . ., und schließlich ns gleichartige – aber von E1 , . . . , Es−1 verschiedene – Elemente s Es , so haben wir folgende Struktur von insgesamt n = i=1 Elementen: Gruppe 1: n1 Elemente E1 Gruppe 2: n2 Elemente E2 .. .. . . Gruppe s: ns Elemente Es
Die Anzahl der m¨ oglichen (unterscheidbaren) Permutationen mit Wiederholung ist n! . (1.3) n1 ! n2 ! n3 ! · · · ns !
Intuitiv l¨asst sich (1.3) wie folgt erl¨ autern: Es gibt n! verschiedene Anordnungen f¨ ur die n Elemente (vgl. (1.1)). Das Vertauschen von Elementen innerhalb einer Gruppe f¨ uhrt nicht zu unterschiedlichen Anordnungen. Daher d¨ urfen bei der Bestimmung der Gesamtzahl der Anordnungen die ni !, i = 1, . . . , s gleichen Anordnungen jeder Gruppe nicht gez¨ahlt werden. In der Urne liegen also nicht mehr n v¨ ollig verschiedene Kugeln, sondern es gibt nur noch s beispielsweise durch ihre Farbe unterscheidbare Kugelarten, wobei jede Kugelart mehrfach (ni -fach) in der Urne vorkommt. Es werden wieder alle Kugeln der Reihe nach aus der Urne gezogen.
Beispiel 1.3.3. In einer Kartei, in der n = 10 Mitarbeiter verzeichnet sind, sind n1 = 4 Mitarbeiter Frauen und n2 = 6 M¨anner. Nach (1.1) gibt es 10! verschiedene Permutationen der Karteikarten. Ist bei einer solchen Anordnung nur wichtig, ob eine Karteikarte zu einer Frau (w) oder zu einem Mann (m) geh¨ort, so sind dabei 4! Permutationen bez¨ uglich der Frauen und 6! Permutationen bez¨ uglich der M¨ anner nicht unterscheidbar. Also ist die Anzahl der (unterscheidbaren) Permutationen mit Wiederholung nach (1.3) gleich 10 · 9 · 8 · 7 · 6! 10 · 9 · 8 · 7 5040 10! = = = = 210 . 4! 6! 4! 6! 4! 24 Anmerkung. Der Quotient (1.3) wird uns in Abschnitt 4.2.8 im Zusammenhang mit der Multinomialverteilung wieder begegnen, er wird auch Multinomialkoeffizient genannt. Neben der eben beschriebenen Anordnung von n Elementen interessiert, insbesondere in der Stichprobenziehung, der Begriff der Kombination, den wir nun einf¨ uhren werden.
1.4 Kombinationen
7
1.4 Kombinationen Definition 1.4.1. Eine Auswahl von m Elementen aus einer Gesamtmenge von n (unterscheidbaren) Elementen (mit n ≥ m) heißt Kombination mter Ordnung aus n Elementen. F¨ ur Kombinationen gibt es vier Modelle, je nachdem, ob ein Element mehrfach ausgew¨ ahlt werden darf oder nicht (mit bzw. ohne Wiederholung) und ob die Reihenfolge der Anordnung der Elemente eine Rolle spielt oder nicht (mit bzw. ohne Ber¨ ucksichtigung der Reihenfolge). Eine wichtige Notationshilfe bei der Bestimmung der Anzahl von Kombinationen ist der Binomialkoeffizient. Definition 1.4.2. Der Binomialkoeffizient ist f¨ ur ganzzahlige n ≥ m ≥ 0 definiert als n n! . (1.4) = m! (n − m)! m (Der Binomialkoeffizient wird als
”
nu ¨ ber m“ oder
”
m aus n“ gelesen).
Es gilt n = 1 (als Definition) 0 n =n 1 n n = . m n−m 1.4.1 Kombinationen ohne Wiederholung und ohne Ber¨ ucksichtigung der Reihenfolge Die Anzahl der Kombinationen ohne Wiederholung und ohne Ber¨ ucksichtigung der Reihenfolge betr¨ agt n . (1.5) m Man stelle sich vor, die n Elemente werden in zwei Gruppen unterteilt: die Gruppe der ausgew¨ ahlten m = n1 Elemente und die Gruppe der nicht ausgew¨ahlten restlichen n − m = n2 Elemente. Die Reihenfolge innerhalb der beiden Gruppen interessiert dabei nicht. Damit kann (1.5) mit (1.3) gleichgesetzt werden: n n! n! . (1.6) = = m m! (n − m)! n1 ! n2 !
8
1. Kombinatorik
Beispiel 1.4.1. Aus n = 4 Buchstaben (a,b,c,d) lassen sich 4 4! =6 = 2! 2! 2 Paare (m = 2) von Buchstaben bilden, bei denen Wiederholungen (eines Buchstabens) nicht zugelassen sind und die Reihenfolge unber¨ ucksichtigt bleibt: (a,b)
(a,c) (b,c)
(a,d) (b,d) (c,d)
Beispiel 1.4.2. Aus n = 3 Mitgliedern (Christian, Thomas, Sandro) eines Vereins soll ein Vorstand aus m = 2 Mitgliedern ausgew¨ahlt werden. Die Reihenfolge spielt keine Rolle (ohne Ber¨ ucksichtigung der Reihenfolge), und es m¨ ussen zwei verschiedene Personen gew¨ ahlt werden (ohne Wiederholung). Die Anzahl der verschiedenen m¨ oglichen Vorst¨ande ist dann 3 3! = 3, = 2! · 1! 2 n¨amlich (Christian, Thomas), (Christian, Sandro), (Thomas, Sandro). Beispiel 1.4.3. Die Ziehung ‘6 aus 49’ (ohne Zusatzzahl) ist eine Kombination 6. Ordnung (m = 6) aus n = 49 Elementen. Dabei wird keine Zahl wiederholt gezogen, und f¨ ur die Gewinnklasse spielt die Reihenfolge der Ziehung der Zahlen keine Rolle. Also liegt eine Kombination ohne Wiederholung und ohne Ber¨ ucksichtigung der Reihenfolge vor. Es gibt somit 43! · 44 · 45 · 46 · 47 · 48 · 49 49 49! = = 13983816 = 6! 43! 1 · 2 · 3 · 4 · 5 · 6 · 43! 6 (d. h. rund 14 Millionen) m¨ ogliche Ziehungsergebnisse. Beispiel 1.4.4. Beim Pferderennen gibt es die Wettart Dreiereinlauf“, bei ” der die ersten drei Pferde (mit Festlegung des Platzes) getippt werden. Ber¨ ucksichtigt man zun¨ achst die Reihenfolge nicht, so gibt es bei n = 20 Pferden 20 20! 18 · 19 · 20 = = = 1140 3 3! 17! 1·2·3 verschiedene Ergebnisse f¨ ur die ersten drei Pferde (ohne Ber¨ ucksichtigung ihrer Reihenfolge).
1.4 Kombinationen
9
1.4.2 Kombinationen ohne Wiederholung, aber mit Ber¨ ucksichtigung der Reihenfolge Sollen zwei Kombinationen, die genau dieselben m Elemente enthalten, aber in verschiedener Anordnung, als verschieden gelten, so spricht man von Kombination mit Ber¨ ucksichtigung der Reihenfolge. Die Anzahl der Kombinationen ohne Wiederholung, aber unter Ber¨ ucksichtigung der Reihenfolge betr¨agt n n! = m! . (1.7) (n − m)! m Die Ber¨ ucksichtigung der Anordnung der m Elemente erh¨oht also die Anzahl der Kombinationen um den Faktor m! (vgl. (1.5)), d. h. um die Kombinationen, die vorher als gleich galten. Wir ziehen aus der Urne also m verschiedene Kugeln ohne Zur¨ ucklegen, halten aber die Reihenfolge fest, in der sie gezogen wurden. Beispiel 1.4.5. Ber¨ ucksichtigt man bei der Dreiereinlaufwette die Reihenfolge der ersten drei Pferde, so gibt es bei n = 20 gestarteten Pferden 20! = 18 · 19 · 20 = 6840 (20 − 3)! verschiedene Ergebnisse, also (vgl. Beispiel 1.4.4) 6 = 3! mal mehr m¨ogliche Ergebnisse als ohne Ber¨ ucksichtigung der Rangfolge der ersten drei Pferde. Beispiel 1.4.6. Wird die Reihenfolge (Vorsitzender, Stellvertreter) bei der Wahl eines Vorstandes aus m = 2 Personen bei n = 3 Mitgliedern ber¨ ucksichtigt, so gibt es 3! 3 = · 2! = 6 2 (3 − 2)! verschiedene Vorst¨ ande, n¨ amlich
(Christian, Thomas) (Thomas, Christian) (Sandro, Christian)
(Christian, Sandro) (Thomas, Sandro)
(Sandro, Thomas)
Beispiel 1.4.7. Man w¨ ahle aus n = 4 verschiedenen Buchstaben a, b, c, d genau m = 2 verschiedene Buchstaben aus, wobei die Reihenfolge zu ber¨ ucksichtigen ist. Wir erhalten als Anzahl 4 4! = · 2! = 12 . 2 2! Die Kombinationen lauten: (a,b) (b,a) (c,a) (d,a)
(c,b) (d,b)
(a,c) (b,c) (d,c)
(a,d) (b,d) (c,d)
10
1. Kombinatorik
1.4.3 Kombinationen mit Wiederholung, aber ohne Ber¨ ucksichtigung der Reihenfolge L¨ asst man zu, dass Elemente mehrfach in der Kombination auftreten, so spricht man von Kombination mit Wiederholung. Die Anzahl der Kombinationen mit Wiederholung, aber ohne Ber¨ ucksichtigung der Reihenfolge betr¨agt n+m−1 (n + m − 1)! . (1.8) = m! (n − 1)! m
Im Vergleich zum Fall der Kombinationen ohne Wiederholung (1.5) vergr¨oßert sich die Menge, aus der ausgew¨ ahlt wird, um m − 1 Elemente. Im Urnenmodell entspricht dies dem Ziehen mit Zur¨ ucklegen, aber ohne Ber¨ ucksichtigung der Reihenfolge. Beispiel 1.4.8. Aus n = 4 verschiedenen Buchstaben (a,b,c,d) lassen sich 3! · 4 · 5 4+2−1 5 5! = = 10 = = 2! 3! 1 · 2 · 3! 2 2 Paare (m = 2) von Buchstaben bilden, bei denen Wiederholungen (eines Buchstabens) zugelassen sind und die Reihenfolge unber¨ ucksichtigt bleibt: (a,a)
(a,b) (b,b)
(a,c) (b,c) (c,c)
(a,d) (b,d) (c,d) (d,d)
Beispiel 1.4.9. Wenn wir zulassen, dass ein Vereinsmitglied bei der Vorstandswahl zwei Posten besetzt, gibt es bei n = 3 Mitgliedern 3+2−1 4 4! = = =6 2 2 2! 2! m¨ogliche Zweiervorst¨ ande ohne Ber¨ ucksichtigung der Reihenfolge: (Christian, Christian)
(Christian, Thomas) (Thomas, Thomas )
(Christian, Sandro) (Thomas, Sandro) (Sandro, Sandro)
1.4.4 Kombinationen mit Wiederholung und mit Ber¨ ucksichtigung der Reihenfolge Die Anzahl der Kombinationen mit Wiederholung und mit Ber¨ ucksichtigung der Reihenfolge betr¨ agt nm . (1.9) In diesem Modell gibt es f¨ ur jede der m Auswahlstellen n m¨ogliche Elemente. ¨ Ubertragen auf das Urnenmodell heißt das, dass in jedem Zug eine Kugel ausgew¨ahlt und danach wieder zur¨ uckgelegt wird, und dass zus¨atzlich die Reihenfolge in der Ziehung von Interesse ist.
1.5 Zusammenfassung
11
Beispiel 1.4.10. Aus n = 4 Buchstaben lassen sich 42 = 16 Paare (m = 2) von Buchstaben bilden, bei denen Wiederholungen (eines Buchstabens) zugelassen sind und die Reihenfolge ber¨ ucksichtigt wird: (a,a) (b,a) (c,a) (d,a)
(a,b) (b,b) (c,b) (d,b)
(a,c) (b,c) (c,c) (d,c)
(a,d) (b,d) (c,d) (d,d)
Beispiel 1.4.11. In einem Verein mit m = 3 Mitgliedern gibt es 32 = 9 Zweier-Vorst¨ande, wenn Doppelbesetzung (Wiederholung) zugelassen ist und bei den unterscheidbaren Paaren die Reihenfolge ber¨ ucksichtigt wird. Durch die Ber¨ ucksichtigung der Reihenfolge erh¨ oht sich die Zahl der verschiedenen Vorst¨ande um 3 (vgl. Beispiel 1.4.9): (Christian, Christian) (Thomas, Christian) (Sandro, Christian)
(Christian, Thomas) (Thomas, Thomas) (Sandro, Thomas)
(Christian, Sandro) (Thomas, Sandro) (Sandro, Sandro)
Beispiel 1.4.12 (W¨ urfelwurf ). Beim viermaligen W¨ urfeln gibt es bei jedem Wurf 6 M¨oglichkeiten, also insgesamt 64 = 1296 verschiedene Wurfserien, von (1, 1, 1, 1) bis (6, 6, 6, 6).
1.5 Zusammenfassung Die in diesem Kapitel vorgestellten kombinatorischen Regeln zur Berechnung der M¨achtigkeit von Mengen sind nochmals in Tabelle 1.1 zusammengefaßt. Tabelle 1.1. Regeln der Kombinatorik ohne Wiederholung Permutationen Kombinationen ohne Reihenfolge Kombinationen mit Reihenfolge
n! ! n m ! n m! m
mit Wiederholung n! n1 ! · · · ns ! n+m−1 m nm
!
12
1. Kombinatorik
1.6 Aufgaben und Kontrollfragen Aufgabe 1.1: Welche kombinatorischen Regeln kennen Sie? Erkl¨aren Sie die Unterschiede zwischen diesen Regeln. Aufgabe 1.2: a) Wieviele 8-stellige Kontonummern gibt es, die nicht mit der Ziffer 0 beginnen? b) Wieviele 8-stellige Kontonummern gibt es, die nicht mit der Ziffer 0 beginnen und bei denen keine Ziffer mehrfach vorkommt? Aufgabe 1.3: Gegeben seien f¨ unf Buchstaben a,b,c,d und e. Wieviele der m¨oglichen Permutationen dieser f¨ unf Buchstaben beginnen mit einem e? Wieviele beginnen mit der Folge cb? Aufgabe 1.4: Wieviele verschiedene Motorradkennzeichen der Art ‘RA-153’ lassen sich aus 26 Buchstaben und neun Ziffern herstellen? Aufgabe 1.5: Eine Hockeybundesliga bestehe aus zw¨olf Mannschaften. In einer Saison spielt jede Mannschaft gegen jede andere ein Hin- und R¨ uckspiel. Wieviele Spiele finden insgesamt w¨ ahrend einer Saison statt? Aufgabe 1.6: Bei einer Party mit zehn G¨ asten k¨ ußt zur Begr¨ ußung jeder jeden. Wieviele K¨ usse gibt es dann? Aufgabe 1.7: Bei der Leichtathletik WM sind 22 Athleten mit den Startnummern 1 bis 22 f¨ ur den 100-Meter-Lauf der M¨anner gemeldet. Wieviele M¨oglichkeiten gibt es f¨ ur die Besetzung des Siegerpodestes, wenn die Pl¨atze 1,2 und 3 nicht unterschieden werden? Aufgabe 1.8: In einem Tischtennis-Verein mit zw¨olf Aktiven wird eine Rangliste f¨ ur die erste Mannschaft (Pl¨ atze 1 bis 6) festgelegt. Wieviele M¨oglichkeiten gibt es? Aufgabe 1.9: Vier W¨ urfel werden gleichzeitig geworfen. a) Wieviele Ergebnisse mit vier verschiedenen Augenzahlen gibt es? b) Wieviele Ergebnisse mit h¨ ochstens drei gleichen Augenzahlen gibt es? Aufgabe 1.10: Ein W¨ urfel wird dreimal hintereinander geworfen. a) In wievielen F¨ allen ist der erste Wurf eine 6“? ” b) In wievielen F¨ allen ist die Augenzahl im dritten Wurf gerade? c) In wievielen F¨ allen ist der erste und der dritte Wurf eine 3“? ” Aufgabe 1.11: Wieviele m¨ ogliche Partien gibt es, in denen ein Skatspieler onige und 2 Damen hat? unter seinen 10 Karten 3 K¨
2. Elemente der Wahrscheinlichkeitsrechnung
2.1 Einleitung Ziel jeder wissenschaftlichen Untersuchung ist es, bei beobachteten Zusammenh¨angen, Effekten oder Trends zu pr¨ ufen, ob diese beobachteten Effekte systematischer Art oder zuf¨ allig sind. Dazu werden statistische Verfahren und Schlussweisen eingesetzt. Ein Verst¨ andnis des Zufallsbegriffs ist dabei notwendige Voraussetzung. Aus dem t¨aglichen Leben kennen wir viele Beispiele, in denen der Begriff wahrscheinlich“ eine Rolle spielt, wobei wir dies oft mit der relativen ” H¨ aufigkeit des Auftretens eines Ereignisses gleichsetzen: • die Wahrscheinlichkeit f¨ ur das Auftreten einer 6“ beim einmaligen W¨ urfeln ” ist 1/6, • die Wahrscheinlichkeit f¨ ur das Ereignis Wappen“ beim einmaligen Werfen ” einer M¨ unze ist 1/2. Diese Aussagen lassen sich u ufen, sofern nur eine hinreichend große ¨ berpr¨ Beobachtungsreihe vorliegt. Beim W¨ urfeln erwartet man, dass bei h¨aufigen Wiederholungen die relative H¨ aufigkeit jeder Augenzahl gegen 1/6 strebt. Statistische Erhebungen sind mit einem Experiment vergleichbar, dessen Ergebnis vor seiner Durchf¨ uhrung nicht bekannt ist. Versuche oder Experimente, die bei Wiederholungen unter gleichen Bedingungen zu verschiedenen Ergebnissen f¨ uhren k¨ onnen, heißen zuf¨ allig. Beispiele. Zuf¨alliges Experiment Werfen eines W¨ urfels Befragen eines Studenten Einsatz von Werbung Auswahl eines Mitarbeiters
M¨ ogliche Ergebnisse Augenzahl z (z = 1, 2, . . . , 6) Semesteranzahl T (T = 1, 2, . . .) Umsatz¨ anderung x (in%) (x = 0, ±1, ±2, . . .) Verdienstgruppe i (i = I, II, III)
14
2. Elemente der Wahrscheinlichkeitsrechnung
2.2 Zuf¨ allige Ereignisse Ein zuf¨ alliges Ereignis ist eine Menge von Ergebnissen {ω1 , . . . , ωk } eines Zufallsexperiments. Man sagt, das zuf¨ allige Ereignis A = {ω1 , . . . , ωk } tritt ein, wenn mindestens eines der zuf¨ alligen Ereignisse {ωi } eingetreten ist. Ereignisse, die nur aus der einelementigen Menge {ωi } bestehen, heißen Elementarereignisse. Mit anderen Worten, ein Elementarereignis ist ein Ereignis, das sich nicht als Vereinigung mehrerer Ergebnisse ωi ausdr¨ ucken l¨ asst. Der Ereignisraum oder Grundraum Ω ist die Menge aller Elementarereignisse. Beispiel 2.2.1 (W¨ urfelwurf ). Beim einmaligen Werfen eines W¨ urfels sind die m¨oglichen Ergebnisse die Augenzahlen 1, . . . , 6. Damit besteht der Ereignisraum aus den Elementarereignissen ω1 = 1“, ω2 = 2“,. . ., ω6 = 6“: ” ” ” Ω = {1, . . . , 6}. Das Ereignis A = {ω2 , ω4 , ω6 } tritt ein, falls eines der Elementarereignisse ω2 , ω4 oder ω6 eingetreten ist. In diesem Fall ist A das zuf¨allige Ereignis gerade Augenzahl beim einmaligen W¨ urfeln“. ” Beim zweifachen W¨ urfelwurf sind die Elementarereignisse ω1 , . . . , ω36 die Paare (1, 1) bis (6, 6). Damit hat Ω die Gestalt {(1, 1), (1, 2), (1, 3), (1, 4), (1, 5), (1, 6) (2, 1), (2, 2), ... (2, 6) Ω= .. .. . . (6, 1), ... (6, 5), (6, 6)} Das unm¨ ogliche Ereignis ∅ ist das Ereignis, das kein Elementarereignis enth¨alt. Das sichere Ereignis ist die Menge Ω = {ω1 , . . . , ωn } aller Elementarereignisse. Das sichere Ereignis tritt in jeder Wiederholung des Zufallsexperiments ein. Beispiele. • f¨ ur das sichere Ereignis: – Die gezogene Zusatzzahl bei Lotto ‘6 aus 49’ ist eine Zahl von 1 bis 49. – Beim Einsatz von Werbung in einer Kaufhauskette ver¨andert sich der Umsatz positiv oder der Umsatz bleibt gleich oder der Umsatz ver¨andert sich negativ. • f¨ ur das unm¨ogliche Ereignis: – Die gezogene Zahl z = −1, z = 5.5 oder z = 51 bei der Ziehung im Lotto ‘6 aus 49’. – Gerade Augenzahl in beiden W¨ urfen und ungerade Augensumme“ beim ” zweifachen W¨ urfelwurf. Das Komplement¨ arereignis A¯ ist das Ereignis, das genau dann eintritt, wenn A nicht eintritt.
2.2 Zuf¨ allige Ereignisse
15
Beispiele. • F¨ ur das zuf¨allige Ereignis A: gerade Zahl gew¨ urfelt“ ist das komple” ¯ ungerade Zahl ment¨are Ereignis A: gew¨ urfelt“. ” • Beim M¨ unzwurf ist Wappen“ das zu Zahl“ komplement¨are Ereignis. ” ” Wie bereits erw¨ ahnt, kann man bei Zufallsexperimenten an einem Elementarereignis ωi interessiert sein oder auch an einem zusammengesetzten Ereignis A = {ω2 , ω5 , . . .}. Da zuf¨ allige Ereignisse Mengen von Elementarereignissen sind, sind folgende Mengenoperationen von Interesse, die in den Abbildungen 2.1 und 2.2 veranschaulicht werden. A∩B
A∪B
A¯
A\B
Das zuf¨ allige Ereignis A ∩ B ist die Durchschnittsmenge aller Elementarereignisse aus A und B. Das Ereignis A und B“ tritt ” genau dann ein, wenn sowohl A als auch B eintreten. Beispiel W¨ urfel: A = {ω2 , ω4 , ω6 } (gerade Zahl), B = {ω3 , ω6 } (durch 3 teilbar), A ∩ B = {ω6 } (gerade und durch 3 teilbar). Das zuf¨ allige Ereignis A ∪ B ist die Vereinigungsmenge aller Elementarereignisse aus A und B, wobei gemeinsame Elementarereignisse nur einmal aufgef¨ uhrt werden. Das Ereignis A oder ” B“ tritt genau dann ein, wenn mindestens eines der beiden Ereignisse A oder B eintritt. Beispiel W¨ urfel: A = {ω2 , ω4 , ω6 } (gerade Zahl), B = {ω3 , ω6 } (durch 3 teilbar), A ∪ B = {ω2 , ω3 , ω4 , ω6 } (gerade oder durch 3 teilbar). Das zuf¨ allige Ereignis A¯ enth¨ alt alle Elementarereignisse aus Ω, die nicht in A vorkommen. Das zu A komplement¨are Ereignis Nicht-A“ oder A quer“ tritt genau dann ein, wenn A nicht ein” ” tritt. Beispiel W¨ urfel: A = {ω2 , ω4 , ω6 } (gerade Zahl), A¯ = {ω1 , ω3 , ω5 } (ungerade Zahl). Das zuf¨ allige Ereignis A\B enth¨ alt alle Elementarereignisse aus A, die nicht gleichzeitig in B enthalten sind. Das Ereignis A aber ” nicht B“ oder A minus B“ tritt genau dann ein, wenn A aber ” ¯ nicht B eintritt. Es gilt A\B = A ∩ B Beispiel W¨ urfel: A = {ω2 , ω4 , ω6 } (gerade Zahl), B = {ω3 , ω6 } (durch 3 teilbar), A\B = {ω2 , ω4 } (gerade, aber nicht durch 3 teilbar).
Anmerkung. Folgende Schreibweisen sind ebenfalls u ¨ blich: A+B AB A−B
f¨ ur f¨ ur f¨ ur
A∪B A∩B A\B
Betrachten wir ein Ereignis A, so sind folgende Zusammenh¨ange von Interesse:
16
2. Elemente der Wahrscheinlichkeitsrechnung
A
B
A
B
Abb. 2.1. A ∪ B und A ∩ B
A
B
A
A¯
Abb. 2.2. A\B und A¯ = Ω\A
A∪A=A A∪Ω =Ω A∪∅=A A ∪ A¯ = Ω
A∩A=A A∩Ω =A A∩∅=∅ A ∩ A¯ = ∅
Definition 2.2.1. Zwei zuf¨allige Ereignisse A und B heißen unvereinbar oder disjunkt, falls ihr gleichzeitiges Eintreten unm¨oglich ist, d.h., falls A ∩ B = ∅ gilt. Damit gilt nat¨ urlich insbesondere, dass A und A¯ disjunkt sind.
Beispiel (Einfacher W¨ urfelwurf ). Die zuf¨ alligen Ereignisse ungerade Augen” zahl“ A = {ω1 , ω3 , ω5 } und gerade Augenzahl“ B = A¯ = {ω2 , ω4 , ω6 } sind ” disjunkt. Wir k¨onnen einen zuf¨ alligen Versuch durch die Menge der Elementarereignisse Ω = {ω1 , . . . , ωn } oder durch Mengen von zuf¨alligen Ereignissen A1 , . . . , Am (m ≤ n) beschreiben, die folgender Definition gen¨ ugen. Definition 2.2.2. Die zuf¨alligen Ereignisse A1 , . . . , Am bilden ein vollst¨andiges System bzw. eine vollst¨ andige Zerlegung von Ω genau dann, wenn A1 ∪ A2 ∪ · · · ∪ Am = Ω und Ai ∩ Aj = ∅
(f¨ ur alle i = j).
Beispiel (Einmaliger W¨ urfelwurf ). Die Elementarereignisse ω1 , . . . , ω6 bilden in jedem Fall ein vollst¨ andiges System. Weitere m¨ogliche vollst¨andige Systeme sind z.B.:
2.3 Relative H¨ aufigkeit und Laplacesche Wahrscheinlichkeit
17
• A1 = {ω1 , ω3 , ω5 } A2 = {ω2 , ω4 , ω6 } • A1 = {ω1 } A2 = {ω2 , . . . , ω6 } • A1 = {ω1 , ω2 , ω3 } A2 = {ω4 , ω5 , ω6 }. Anmerkung. Vollst¨ andige Systeme von Ereignissen spielen in der Maßtheorie, auf die hier nicht weiter eingegangen wird, eine wichtige Rolle. Dabei kann ein vollst¨andiges System beliebig definiert werden, solange Definition 2.2.2 eingehalten wird, es sollte jedoch stets der Grundsatz so grob wie m¨oglich ” und so fein wie n¨otig“ eingehalten werden. Beim Umgang mit Mengen von zuf¨ alligen Ereignissen A1 , . . . , Am sind die folgenden Rechenregeln hilfreich. Definition 2.2.3 (DeMorgansche Regeln). F¨ ur beliebige Ak ⊂ Ω gilt
und
Ak =
Ak
(2.1)
k∈K
k∈K
Ak =
Ak .
(2.2)
k∈K
k∈K
F¨ ur zwei Teilmengen Ai ⊂ Ω und Aj ⊂ Ω ergibt sich aus obigen Regeln Ai ∪ Aj = Ai ∩ Aj und Ai ∩ Aj = Ai ∪ Aj .
2.3 Relative H¨ aufigkeit und Laplacesche Wahrscheinlichkeit Ein zuf¨alliger Versuch wird durch die Angabe der m¨oglichen Versuchsausg¨ange beschrieben (Augenzahlen 1 bis 6 beim W¨ urfelwurf). Dar¨ uber hinaus ist eine Quantifizierung der Versuchsergebnisse von Interesse. Die Quantifizierung mit Hilfe der relativen H¨ aufigkeit zielt auf die Absch¨atzung der Realisierungschancen eines Versuchsergebnisses ab. Man betrachtet deshalb einen zuf¨alligen Versuch mit den m¨ oglichen Ergebnissen A1 , A2 , . . . , Am , der n-fach unabh¨angig wiederholt wird, und registriert die absoluten H¨aufigkeiten ni = n(Ai ) der Ereignisse Ai . Beispiel 2.3.1 (M¨ unzwurf ). Beim Werfen einer M¨ unze sind die zuf¨alligen (Elementar-) Ereignisse A1 : Wappen“ und A2 : Zahl“ m¨oglich. Die Anzahl ” ” der Wiederholungen sei n = 500. In 300 F¨ allen sei A1 und in 200 F¨allen A2 geworfen worden, d.h. es ist n1 = n(A1 ) = 300 und n2 = n(A2 ) = 200.
18
2. Elemente der Wahrscheinlichkeitsrechnung
Die relative H¨ aufigkeit fi = f (Ai ) eines zuf¨alligen Ereignisses Ai bei n Wiederholungen berechnet sich gem¨ aß fi = f (Ai ) =
ni , n
wobei • fi = f (Ai ) die relative H¨ aufigkeit eines Ereignisses Ai , • ni = n(Ai ) die absolute H¨ aufigkeit eines Ereignisses Ai und • n die Anzahl der Versuchswiederholungen ist. F¨ ur das obige Beispiel gilt also: f1 = f (A1 ) =
300 = 0.6 , 500
f2 = f (A2 ) =
200 = 0.4 . 500
Anmerkung. Es zeigt sich, dass die relative H¨ aufigkeit f (A) f¨ ur hinreichend großes n unter gewissen Voraussetzungen eine Stabilit¨at aufweist in dem Sinne, dass f (A) gegen einen f¨ ur das Ereignis A typischen Wert strebt (vgl. Kapitel 5). Diese Konstante werden wir als Wahrscheinlichkeit des Ereignisses A bezeichnen, die Schreibweise ist P (A). Beispiel. Man erwartet beim wiederholten M¨ unzwurf, dass die relative H¨aufigkeit f (Wappen) gegen 0.5 strebt, sofern der Wurf sehr oft wiederholt wird. Voraussetzung bleibt jedoch, dass die Versuchsbedingungen konstant gehalten werden. Einen der H¨ aufigkeitsinterpretation sehr ¨ ahnlichen Ansatz stellt der Laplacesche Wahrscheinlichkeitsbegriff dar. Ein Laplace-Experiment ist ein Zufallsexperiment mit einer endlichen Ergebnismenge, bei dem alle Ergebnisse gleichwahrscheinlich sind. Die Wahrscheinlichkeit eines beliebigen zuf¨alligen Ereignisses ist dann wie folgt definiert: Definition 2.3.1. Der Quotient P (A) =
Anzahl der f¨ ur A g¨ unstigen F¨alle |A| = |Ω| Anzahl der m¨oglichen F¨alle
(2.3)
wird als Laplace-Wahrscheinlichkeit bezeichnet (hierbei ist |A| die Anzahl der Elemente von A und |Ω| die Anzahl der Elemente von Ω). Die M¨achtigkeiten |A| und |Ω| in der Laplaceschen Wahrscheinlichkeitsdefinition k¨onnen mit Hilfe der in Kapitel 1 eingef¨ uhrten kombinatorischen Regeln bestimmt werden. Anmerkung. Die Laplacesche Wahrscheinlichkeitsdefinition verwendet den Begriff Wahrscheinlichkeit“ in den Annahmen, genauer in der Forderung ” der Gleichwahrscheinlichkeit der Ergebnisse“. Damit ist diese Definition aus ” logischen Gr¨ unden nicht haltbar, da sie den Begriff Wahrscheinlichkeit“ mit ” sich selbst erkl¨art.
2.4 Axiome der Wahrscheinlichkeitsrechnung
19
2.4 Axiome der Wahrscheinlichkeitsrechnung Die relative H¨aufigkeit, die Laplacesche Wahrscheinlichkeit und andere Ans¨atze (vgl. z. B. R¨ uger, 1996) zur Definition des Begriffs Wahrscheinlichkeit“ ” sind zwar anschaulich und nachvollziehbar, eine formale Grundlage bietet jedoch erst das Axiomensystem der Wahrscheinlichkeitsrechnung von A.N. Kolmogorov (1933): Axiom 1: Jedem zuf¨ alligen Ereignis A eines zuf¨alligen Versuchs ist eine Wahrscheinlichkeit P (A) zugeordnet, die Werte zwischen 0 und 1 annehmen kann: 0 ≤ P (A) ≤ 1. Axiom 2: Das sichere Ereignis hat die Wahrscheinlichkeit 1: P (Ω) = 1. Axiom 3: Sind A1 und A2 disjunkte Ereignisse, so ist P (A1 ∪ A2 ) = P (A1 ) + P (A2 ). Anmerkung. Axiom 3 gilt f¨ ur drei oder mehr disjunkte Ereignisse analog und wird als Additionssatz f¨ ur disjunkte Ereignisse bezeichnet. Beispiele. • Beim einmaligen M¨ unzwurf sind die Ereignisse A1 : Wappen“ und A2 : ” Zahl“ m¨oglich. A1 und A2 sind disjunkt. Das zuf¨allige Ereignis A1 ∪ A2 : ” Wappen oder Zahl“ hat dann die Wahrscheinlichkeit ” P (A1 ∪ A2 ) = P (A1 ) + P (A2 ) = 1/2 + 1/2 = 1. • Beim einmaligen W¨ urfeln hat jede Zahl die gleiche Wahrscheinlichkeit P (1) = P (2) = · · · = P (6) = 1/6. Die Wahrscheinlichkeit, eine gerade Zahl zu erhalten, ist also P ( gerade Zahl“) = P (2) + P (4) + P (6) = 1/6 + 1/6 + 1/6 = 1/2. ” 2.4.1 Folgerungen aus den Axiomen Wir wissen bereits, dass A ∪ A¯ = Ω (sicheres Ereignis) gilt. Da A und A¯ disjunkt sind, gilt nach Axiom 3 die grundlegende Beziehung ¯ = P (A) + P (A) ¯ = 1. P (A ∪ A) Damit erhalten wir
20
2. Elemente der Wahrscheinlichkeitsrechnung
Folgerung 1: Die Wahrscheinlichkeit f¨ ur das zu A komplement¨are Ereignis A¯ ist ¯ = 1 − P (A). P (A) (2.4)
Diese Regel wird h¨ aufig dann benutzt, wenn die Wahrscheinlichkeit von A ¯ bekannt ist oder leichter zu berechnen ist als die von A.
Beispiel. Sei A = {ω6 }. Die Wahrscheinlichkeit, mit einem W¨ urfel die Augenzahl 6 zu werfen, betr¨ agt P (ω6 ) = 1/6. Dann ist die Wahrscheinlichkeit ¯ keine 6“ f¨ ur das Ereignis A: ” P ( keine 6“) = 1 − P (ω6 ) = 5/6. ” ¯ = ∅. Wenn A speziell das sichere Ereignis Ω ist, so gilt P (Ω) = 1 und Ω Setzen wir dies in (2.4) ein, so erhalten wir sofort Folgerung 2: Die Wahrscheinlichkeit des unm¨oglichen Ereignisses ∅ ist gleich Null: ¯ = 1 − P (Ω) = 0 . P (∅) = P (Ω)
Wir wollen nun die Wahrscheinlichkeit P (A1 ∪ A2 ) f¨ ur beliebige, nicht notwendigerweise disjunkte Ereignisse A1 und A2 bestimmen. Wir verwenden dazu folgende Zerlegungen in disjunkte Ereignisse: A1 = (A1 ∩ A2 ) ∪ (A1 ∩ A¯2 ) A2 = (A1 ∩ A2 ) ∪ (A¯1 ∩ A2 ) A1 ∪ A2 = (A1 ∩ A¯2 ) ∪ (A1 ∩ A2 ) ∪ (A¯1 ∩ A2 )
Da die Ereignisse (A1 ∩ A¯2 ), (A1 ∩ A2 ), (A¯1 ∩ A2 ) disjunkt sind, kann Axiom 3 angewandt werden: P (A1 ∪ A2 ) = P (A1 ∩ A¯2 ) + P (A1 ∩ A2 ) + P (A¯1 ∩ A2 ). Dies ist gleich P (A1 ) + P (A2 ) − P (A1 ∩ A2 ). Die doppelt gez¨ahlte Wahrscheinlichkeit P (A1 ∩ A2 ) ist also einmal abzuziehen. Dies ergibt Folgerung 3: Die Wahrscheinlichkeit, dass von zwei Ereignissen A1 und A2 , die sich nicht notwendig gegenseitig ausschließen, mindestens eines eintritt, ist (2.5) P (A1 ∪ A2 ) = P (A1 ) + P (A2 ) − P (A1 ∩ A2 ).
Gleichung (2.5) wird als Additionssatz f¨ ur beliebige Ereignisse bezeichnet. Beispiel. In einem Skatblatt sind vier Farben mit je acht Karten enthalten. Die Wahrscheinlichkeit, zuf¨ allig gezogen zu werden, betr¨agt f¨ ur jede Karte 1/32. Es werde eine Karte zuf¨ allig gezogen. Damit gilt f¨ ur diese Karte z. B. P (Karo oder K¨ onig) = P (Karo) + P (K¨onig) − P (Karo-K¨onig) 4 1 11 8 + − = . = 32 32 32 32
2.5 Bedingte Wahrscheinlichkeit
21
Falls ein Ereignis A vollst¨ andig in einem Ereignis B enthalten ist (B hat also dieselben Elementarereignisse wie A plus m¨oglicherweise weitere), so ist die Wahrscheinlichkeit f¨ ur B mindestens so groß wie die von A: Folgerung 4: F¨ ur A ⊆ B gilt stets P (A) ≤ P (B). Der Beweis benutzt die Darstellung B = A ∪ (A¯ ∩ B) mit den disjunkten Mengen A und A¯ ∩ B. Damit gilt nach Axiom 3 und Axiom 1 P (B) = P (A) + P (A¯ ∩ B) ≥ P (A) . Folgerung 5: Sei A1 , . . . , An eine vollst¨ andige Zerlegung des Ereignisraums Ω in paarweise disjunkte Ereignisse Ai , i = 1, . . . , n (vgl. Definition 2.2.2). F¨ ur ein beliebiges Ereignis B gilt dann B = (B ∩ A1 ) ∪ (B ∩ A2 ) ∪ · · · ∪ (B ∩ An ), wobei die Ereignisse B ∩ Ai wiederum paarweise disjunkt sind. Die Anwendung von Axiom 3 ergibt P (B) =
n i=1
P (B ∩ Ai ).
(2.6)
2.4.2 Rechenregeln f¨ ur Wahrscheinlichkeiten ¨ Wir fassen die Axiome und die Folgerungen 1 bis 5 in der folgenden Ubersicht zusammen: (1)
0 ≤ P (A) ≤ 1
(2)
P (Ω) = 1
(3)
P (∅) = 0
(4)
¯ = 1 − P (A) P (A)
(5)
P (A1 ∪ A2 ) = P (A1 ) + P (A2 ) − P (A1 ∩ A2 )
(6)
P (A1 ∪ A2 ) = P (A1 ) + P (A2 ), falls A1 und A2 disjunkt sind P (B) = ni=1 P (B ∩ Ai ), falls Ai eine vollst¨andige Zerlegung bilden.
(7)
2.5 Bedingte Wahrscheinlichkeit 2.5.1 Motivation und Definition Wir betrachten nun die Situation, dass von zwei Ereignissen A und B z.B. das Ereignis A eine Vorinformation dahingehend liefert, dass sein Eintreten
22
2. Elemente der Wahrscheinlichkeitsrechnung
den m¨oglichen Ereignisraum von B reduziert. Formal gesehen betrachten wir einen zuf¨alligen Versuch mit n Elementarereignissen, d.h., es gelte Ω = {ω1 , . . . , ωn }, und zwei zuf¨ allige Ereignisse A (mit nA Elementarereignissen) und B (mit nB Elementarereignissen). Ferner enthalte das Ereignis A ∩ B nAB Elementarereignisse. Nach den bisherigen Regeln (vgl. z.B. (2.3)) gilt dann nB nAB nA , P (B) = , P (A ∩ B) = . P (A) = n n n Nach Realisierung des Versuchs sei bekannt, dass A eingetreten ist. Damit stellt sich die Frage, wie groß dann unter dieser Zusatzinformation die Wahrscheinlichkeit daf¨ ur ist, dass auch B eingetreten ist. Hierzu gehen wir von Ω zur reduzierten Menge A mit nA Elementen u ¨ ber. Nun gibt es unter den nA m¨oglichen Ereignissen nur noch m f¨ ur B g¨ unstige Ereignisse. Bei diesen m Ereignissen ist immer auch A eingetreten, so dass m = nAB gilt. Die Laplace-Wahrscheinlichkeit ist dann nAB /n P (A ∩ B) m = = . nA nA /n P (A)
(2.7)
Dies f¨ uhrt zur folgenden Definition Definition 2.5.1. Sei P (A) > 0, so ist P (B|A) =
P (A ∩ B) P (A)
(2.8)
die bedingte Wahrscheinlichkeit von B unter der Bedingung, dass A eingetreten ist. Vertauschen wir die Rollen von A und B und sei P (B) > 0, so ist die bedingte Wahrscheinlichkeit von A unter der Bedingung, dass B eingetreten ist, gleich P (A ∩ B) . (2.9) P (A|B) = P (B) L¨osen wir (2.8) und (2.9) jeweils nach P (A ∩ B) auf, so folgt Theorem 2.5.1 (Multiplikationssatz). F¨ ur zwei beliebige Ereignisse A und B gilt P (A ∩ B) = P (B|A)P (A) = P (A|B)P (B) . (2.10) Den Multiplikationssatz kann man auf mehr als zwei Ereignisse verallgemeinern: P (A1 ∩ A2 ∩ . . . ∩ Am ) = P (A1 )P (A2 |A1 )P (A3 |A1 ∩ A2 ) · · · P (Am |A1 ∩ · · · ∩ Am−1 ) . Durch Verwendung von (2.10) in (2.6) erh¨alt man
2.5 Bedingte Wahrscheinlichkeit
23
Theorem 2.5.2 (Satz von der totalen Wahrscheinlichkeit). Bilden die Ereignisse A1 , . . . , Am eine vollst¨andige Zerlegung von Ω = ∪m i=1 Ai in paarweise disjunkte Ereignisse, so gilt f¨ ur ein beliebiges Ereignis B P (B) =
m
P (B|Ai )P (Ai ) .
(2.11)
i=1
2.5.2 Der Satz von Bayes Der Satz von Bayes untersucht den Zusammenhang zwischen P (A|B) und P (B|A). F¨ ur beliebige Ereignisse A und B mit P (A) > 0 und P (B) > 0 gilt mit (2.8) und (2.9) P (A ∩ B) P (A) P (A ∩ B) = P (B) P (A) P (B) P (B|A)P (A) . = P (B)
P (A|B) =
(2.12)
Bilden die Ai eine vollst¨ andige Zerlegung von Ω und ist B irgendein Ereignis, so gilt mit (2.11) und (2.12) P (B|Aj )P (Aj ) . P (Aj |B) = i P (B|Ai )P (Ai )
(2.13)
Die P (Ai ) heißen a-priori Wahrscheinlichkeiten , die P (B|Ai ) Modellwahrscheinlichkeiten und die P (Aj |B) a-posteriori Wahrscheinlichkeiten. Beispiel 2.5.1. F¨ ur ein Fotogesch¨ aft arbeiten zwei Labors. Eine Fotoarbeit wird zuf¨allig ausgew¨ ahlt und auf ihre Qualit¨ at hin untersucht. Wir betrachten folgende zuf¨allige Ereignisse: Ai (i = 1, 2) sei das zuf¨allige Ereignis Fo” toarbeit stammt aus Labor i“, B sei das zuf¨allige Ereignis Fotoarbeit ist ” einwandfrei“. Dann gilt Ω = A1 ∪ A2 mit A1 ∩ A2 = ∅. Wir setzen voraus P (A1 ) = 0.7 und P (A2 ) = 0.3 sowie P (B|A1 ) = 0.8, P (B|A2 ) = 0.9. Mit diesen Werten erhalten wir P (B) = P (B|A1 )P (A1 ) + P (B|A2 )P (A2 ) = 0.8 · 0.7 + 0.9 · 0.3 = 0.83 , P (B ∩ A1 ) = P (B|A1 )P (A1 ) = 0.8 · 0.7 = 0.56 , P (B ∩ A2 ) = P (B|A2 )P (A2 ) = 0.9 · 0.3 = 0.27 .
[nach (2.10)]
[nach (2.11)]
24
2. Elemente der Wahrscheinlichkeitsrechnung
Sei eine zuf¨allig ausgew¨ ahlte Fotoarbeit einwandfrei. Wie groß ist die Wahrscheinlichkeit, dass diese Arbeit aus Labor 1 (bzw. aus Labor 2) stammt? 0.56 P (A1 ∩ B) = = 0.6747 P (B) 0.83 0.27 P (A2 ∩ B) P (A2 |B) = = = 0.3253 . P (B) 0.83 P (A1 |B) =
[nach (2.9)] ,
Sei eine zuf¨allig ausgew¨ ahlte Fotoarbeit fehlerhaft. Die Wahrscheinlich¯ tritt ein) aus Labor 1 (bzw. Labor keit, dass eine fehlerhafte Arbeit (d.h. B ¯ 1 ) = 0.2 und P (B|A ¯ 2 ) = 0.1 f¨ 2) stammt, ist mit P (B|A ur Labor 1 ¯ 1 )P (A1 ) P (B|A ¯ ¯ 2 )P (A2 ) P (B|A1 )P (A1 ) + P (B|A 0.2 · 0.7 = = 0.8235 , 0.2 · 0.7 + 0.1 · 0.3
¯ = P (A1 |B)
[nach (2.12)]
und f¨ ur Labor 2 ¯ = P (A2 |B)
0.1 · 0.3 = 0.1765 . 0.2 · 0.7 + 0.1 · 0.3
¯ + P (A2 |B) ¯ = 1. Da A1 ∪ A2 = Ω ist, gilt P (A1 |B)
Beispiel 2.5.2. In einer Klinik wurden n = 200 Patienten auf eine bestimmte Krankheit untersucht. Das Ergebnis jeder Untersuchung wird durch die ¯ Patient ist nicht krank“ zuf¨alligen Ereignisse B Patient ist krank“ bzw. B ” ” ausgedr¨ uckt. Gleichzeitig wurden die Patienten befragt, ob sie rauchen oder nicht. Dies ist durch die Ereignisse A1 Patient raucht“ und A2 Patient ” ” raucht nicht“ festgehalten. Die absoluten H¨ aufigkeiten f¨ ur die eintretenden Ereignisse findet man in folgender Tabelle: ¯ B B A1 40 60 100 A2 20 80 100 60 140 200 Mit Hilfe der H¨aufigkeitsinterpretation der Wahrscheinlichkeit berechnen wir P (A1 ) = P (B) = ¯ = P (B) P (B ∩ A1 ) = P (B ∩ A2 ) =
100 = P (A2 ) 200 60 200 140 = 1 − P (B) 200 40 200 20 200
2.5 Bedingte Wahrscheinlichkeit
25
40/200 40 P (B ∩ A1 ) = = P (A1 ) 100/200 100 20/200 20 P (B ∩ A2 ) = = P (B|A2 ) = P (A2 ) 100/200 100
P (B|A1 ) =
Mit diesen Ergebnissen l¨ asst sich P (B) auch mit Hilfe des Satzes von der totalen Wahrscheinlichkeit (2.11) berechnen: P (B) = P (B|A1 )P (A1 ) + P (B|A2 )P (A2 ) = 0.40 · 0.50 + 0.20 · 0.50 = 0.30 . Beispiel 2.5.3. In zwei Werken werden Gl¨ uhbirnen hergestellt. 70% der Produktion werden in Werk 1 gefertigt und 30% in Werk 2. Bezeichnet Ai (i = 1, 2) das zuf¨ allige Ereignis Gl¨ uhbirne stammt aus Werk i“, so gilt ” P (A1 ) = 0.7 und P (A2 ) = 0.3. Weiter bezeichnen wir mit B das Ereignis Die hergestellte Gl¨ uhbirne ” erf¨ ullt eine vorgegebene Norm f¨ ur die Brenndauer“. Als Zusatzinformation u ute der Produktion in den Werken 1 und 2 steht uns zur Verf¨ ugung ¨ber die G¨ P (B|A1 ) = 0.83 und P (B|A2 ) = 0.65 (Werk 1 produziert mit einer Wahrscheinlichkeit von 0.83 normgerechte Gl¨ uhbirnen, Werk 2 mit einer Wahrscheinlichkeit von 0.65). Damit gilt P (B) = P (B|A1 )P (A1 ) + P (B|A2 )P (A2 ) = 0.83 · 0.7 + 0.65 · 0.3 = 0.776, d.h., die Wahrscheinlichkeit, bei zuf¨ alliger Auswahl aus der Gesamtproduktion eine normgerechte Gl¨ uhbirne zu erhalten, ist 0.776. Beispiel 2.5.4. In einem B¨ uro arbeiten vier Sekret¨arinnen, zu deren Aufgabe auch die Ablage von Akten geh¨ ort. Sei Ai (i = 1, . . . , 4) das zuf¨allige Ereignis Akte von Sekret¨ arin i abgelegt“. Damit ist Ω = A1 ∪· · ·∪A4 mit Ai ∩Aj = ∅ ” f¨ ur i = j. Es gelte Sekret¨ arin i t¨atigt % der Ablagen Fehlerwahrscheinlichkeit
1 40 0.01
2 10 0.04
3 30 0.06
4 20 0.10
Gesucht sei nun die Wahrscheinlichkeit, dass eine falsch abgelegte Akte von der dritten Sekret¨ arin bearbeitet wurde. Definiere B das zuf¨allige Ereignis Akte wurde falsch abgelegt“, so gilt mit den Angaben aus obiger Tabelle: ” P (A1 ) = 0.40, P (A2 ) = 0.10,
P (B|A1 ) = 0.01, P (B|A2 ) = 0.04,
P (A3 ) = 0.30, P (A4 ) = 0.20,
P (B|A3 ) = 0.06, P (B|A4 ) = 0.10 .
26
2. Elemente der Wahrscheinlichkeitsrechnung
A1
0.4 A2 0.1
0.01 0.99
0.04 0.96
B
0.004
¯ B B
0.004
¯ B
Ω 0.3 A3 0.2
A4
0.06 0.94
0.10 0.90
B
0.018
¯ B B
0.020
¯ B
Abb. 2.3. Baumdiagramm f¨ ur Beispiel 2.5.4
Diese Wahrscheinlichkeiten lassen sich in einem Baumdiagramm (vgl. Abbildung 2.3) veranschaulichen. Damit erhalten wir nach dem Satz von der totalen Wahrscheinlichkeit zun¨achst P (B) =
4
P (B|Ai )P (Ai )
i=1
= 0.01 · 0.40 + 0.04 · 0.10 + 0.06 · 0.30 + 0.10 · 0.20
= 0.046 .
Die Wahrscheinlichkeit f¨ ur das zuf¨ allige Ereignis B Akte falsch abgelegt“ ” betr¨agt damit 0.046. F¨ ur die gesuchte Wahrscheinlichkeit P (A3 |B) gilt nach dem Satz von Bayes (vgl. (2.13)) P (B|A3 )P (A3 ) P (B) 0.06 · 0.30 = 0.046 = 0.391 .
P (A3 |B) =
2.6 Unabh¨ angigkeit
27
Die Wahrscheinlichkeit, dass eine falsch abgelegte Akte von Sekret¨arin 3 abgelegt wurde, ist 0.391. F¨ ur die Sekret¨ arinnen 1, 2 und 4 gilt analog 0.004 = 0.087 0.046 0.004 P (A2 |B) = = 0.087 0.046 0.020 = 0.435. P (A4 |B) = 0.046
P (A1 |B) =
2.6 Unabh¨ angigkeit Sind zwei zuf¨allige Ereignisse A und B unabh¨angig in dem Sinne, dass das Eintreten des Ereignisses B keinen Einfluss auf das Eintreten von A hat, so erwartet man, dass P (A|B) = P (A)
¯ = P (A) und P (A|B)
gilt. Mit (2.9) erhalten wir in dieser Situation P (A ∩ B) P (B) ¯ P (A ∩ B) ¯ . = = P (A|B) ¯ P (B)
P (A|B) =
(2.14)
Durch Umformen erhalten wir die zu (2.14) ¨ aquivalente Beziehung ¯ = P (A ∩ B)P ¯ (B) P (A ∩ B)P (B) ¯ (B) P (A ∩ B)(1 − P (B)) = P (A ∩ B)P ¯ + P (A ∩ B))P (B) P (A ∩ B) = (P (A ∩ B) P (A ∩ B) = P (A)P (B) .
(2.15)
Dies f¨ uhrt zur Definition der (stochastischen) Unabh¨angigkeit. Definition 2.6.1. Zwei zuf¨allige Ereignisse A und B heißen genau dann voneinander (stochastisch) unabh¨ angig, wenn P (A ∩ B) = P (A)P (B)
(2.16)
gilt, d.h., wenn die Wahrscheinlichkeit f¨ ur das gleichzeitige Eintreten von A und B gleich dem Produkt der beiden Einzelwahrscheinlichkeiten ist. Der Begriff der Unabh¨ angigkeit kann auf den Fall von mehr als zwei Ereignissen verallgemeinert werden.
28
2. Elemente der Wahrscheinlichkeitsrechnung
Definition 2.6.2. n Ereignisse A1 , . . . , An heißen (stochastisch) unabh¨angig, falls f¨ ur jede Auswahl Ai1 , . . . , Aim (m ≤ n) P (Ai1 ∩ · · · ∩ Aim ) = P (Ai1 ) · . . . · P (Aim )
(2.17)
gilt. Ein schw¨acherer Begriff ist der Begriff der paarweisen Unabh¨angigkeit. Wenn die Bedingung (2.17) nur f¨ ur jeweils zwei beliebige Ereignisse (m = 2) erf¨ ullt werden muß, so heißen die Ereignisse paarweise unabh¨ angig. Der Unterschied zwischen paarweiser Unabh¨ angigkeit und stochastischer Unabh¨angigkeit wird an folgendem Beispiel erl¨ autert. Beispiel 2.6.1. (aus Fisz, 1970) In einer Urne befinden sich vier Kugeln mit den aufgedruckten Zahlenkombinationen 110, 101, 011, 000. Es werde eine Kugel aus der Urne gezogen. Wir definieren dabei die folgenden Ereignisse: A1 : Die gezogene Kugel hat an der ersten Stelle eine Eins. A2 : Die gezogene Kugel hat an der zweiten Stelle eine Eins. A3 : Die gezogene Kugel hat an der dritten Stelle eine Eins. Da jedes dieser Ereignisse zwei g¨ unstige F¨ alle hat, gilt P (A1 ) = P (A2 ) = P (A3 ) =
1 2 = . 4 2
Das gemeinsame Auftreten aller drei Ereignisse ist jedoch unm¨oglich, da es keine Kugel mit der Kombination 111 gibt. Damit sind die drei Ereignisse nicht stochastisch unabh¨ angig, da gilt P (A1 )P (A2 )P (A3 ) =
1 = 0 = P (A1 ∩ A2 ∩ A3 ) . 8
Es gilt jedoch 1 = P (A1 )P (A2 ) , 4 1 P (A1 ∩ A3 ) = = P (A1 )P (A3 ) , 4 1 P (A2 ∩ A3 ) = = P (A2 )P (A3 ) , 4 P (A1 ∩ A2 ) =
so dass die drei Ereignisse paarweise unabh¨ angig sind. Beispiel 2.6.2 (Fortsetzung von Beispiel 2.5.2). Wir pr¨ ufen, ob die Ereignisse A1 : Patient raucht“ und B: Patient ist krank“ unabh¨angig sind. Wie wir ” ” bereits berechnet haben, ist P (A1 ∩ B) = 0.2 = 0.5 · 0.3 = P (A1 )P (B) . Damit sind die beiden Ereignisse nicht unabh¨angig.
2.6 Unabh¨ angigkeit
29
Beispiel 2.6.3. Drei Sch¨ utzen mit gleicher Treffsicherheit P ( Treffer“) = 0.4 ” schießen unabh¨angig voneinander je einmal auf ein Ziel. Damit ist die Wahrscheinlichkeit f¨ ur 3 Treffer gleich (vgl. (2.17)) P ( Treffer“ ∧ Treffer“ ∧ Treffer“) = 0.43 = 0.064 . ” ” ” Die Wahrscheinlichkeit, dass nur der erste Sch¨ utze trifft, ist wegen der Wahrscheinlichkeit P ( kein Treffer“) = 0.6 und mit (2.17) gleich ” P ( Treffer“ ∧ kein Treffer“ ∧ kein Treffer“) = 0.4 · 0.62 = 0.144 . ” ” ” Man beachte den Unterschied zwischen der Wahrscheinlichkeit, dass ein bestimmter Sch¨ utze trifft P ( Treffer genau eines bestimmten Sch¨ utzens“) ” also z.B. P ( Treffer“ ∧ kein Treffer“ ∧ kein Treffer“) = 0.144 , ” ” ” der Wahrscheinlichkeit, dass ein beliebiger Sch¨ utze trifft P ( Treffer genau eines (beliebigen) Sch¨ utzen“) ” = P ( Treffer“ ∧ kein Treffer“ ∧ kein Treffer“) ” ” ” + P ( kein Treffer“ ∧ Treffer“ ∧ kein Treffer“) ” ” ” + P ( kein Treffer“ ∧ kein Treffer“ ∧ Treffer“) ” ” ” = 3 · 0.144 = 0.432 und der Wahrscheinlichkeit, dass mindestens ein Sch¨ utze trifft (vgl. (2.4)) P ( Treffer mindestens eines Sch¨ utzen“) = 1 − P ( kein Treffer“) ” ” = 1 − 0.63 = 0.784 . Anmerkung. Die Wahrscheinlichkeit P ( Treffer mindestens eines Sch¨ utzen“) ” ist u ¨ber das Gegenereignis P ( kein Treffer“) wesentlich einfacher zu berech” nen.
30
2. Elemente der Wahrscheinlichkeitsrechnung
2.7 Aufgaben und Kontrollfragen Aufgabe 2.1: Eine M¨ unze wird zweimal geworfen. Geben Sie die Elementarereignisse, das sichere Ereignis, ein unm¨ ogliches Ereignis und das Komplement¨arereignis zum Ereignis A : Wappen im ersten Wurf“ an. ” Aufgabe 2.2: Sei Ω die Menge der ganzen Zahlen 0, 1, . . . , 25. Folgende Teilmengen von Ω seien gegeben: A = {1, 4, 8, 11} ,
B = {0, 1, 2, 5, 8, 9} ,
C = {5, 6, 7} .
Bestimmen Sie: a) b) c) d) e)
A ∩ B, A ∩ C, B ∩ C A ∪ B, A ∪ C A\B, B\A, A\C (A ∪ B) ∩ C (A ∩ B)\C .
Aufgabe 2.3: Ein W¨ urfel wird einmal geworfen. Wir definieren die zuf¨alligen Ereignisse A: B: C:
ungerade Zahl“ ” Zahl > 3“ ” Zahl 5 oder 6“ . ” Geben Sie an, bei welchen Wurfergebnissen a) B und C eintreten, aber nicht A, b) keines der genannten Ereignisse A, B, C eintritt, c) genau eines der drei Ereignisse A, B, C eintritt. Aufgabe 2.4: F¨ ur vier Mengen A, B, C, D, die eine vollst¨andige Zerlegung von Ω bilden, seien folgende Wahrscheinlichkeiten gegeben: P (A) =
7 1 1 1 1 , P (B) = , P (C) = , P (D) = , P (B ∪ C) = . 5 12 4 3 2
Warum w¨ urden diese Zahlenwerte gegen die Kolmogorovschen Axiome verstoßen? Aufgabe 2.5: Aus den Zahlen 1 bis 49 werden beim Zahlenlotto sechs verschiedene ausgew¨ ahlt. Wie groß ist die Wahrscheinlichkeit, dass ein Spieler a) b) c) d)
sechs Richtige genau f¨ unf Richtige keine Richtige h¨ochstens zwei Richtige hat?
2.7 Aufgaben und Kontrollfragen
31
Aufgabe 2.6: In der gyn¨ akologischen Abteilung eines kleinen Krankenhauses wurden in einem Monat zw¨ olf Kinder geboren. Wie groß ist die Wahrscheinlichkeit daf¨ ur, dass mindestens zwei Kinder am gleichen Tag geboren wurden? (Annahme: Die Geburtsh¨ aufigkeit ist u ¨ ber den Monat gleichm¨aßig verteilt und der Monat hat 31 Tage.) Aufgabe 2.7: An einer Party nehmen sieben Ehepaare teil. Um die Stimmung etwas aufzulockern, werden f¨ ur ein Ratespiel drei M¨anner und drei Frauen zuf¨allig ausgew¨ahlt (z.B. mit Los). Wie groß ist die Wahrscheinlichkeit, dass sich unter den so bestimmten Personen mindestens ein Ehepaar befindet? Aufgabe 2.8: In einer Urne befinden sich acht gelbe und vier blaue Kugeln. a) Es werden gleichzeitig (zuf¨ allig) drei Kugeln gezogen. Wie groß ist die Wahrscheinlichkeit, dass es sich um zwei gelbe und eine blaue Kugel handelt? b) Eine Kugel wird zuf¨ allig gezogen und durch eine Kugel der anderen Farbe ersetzt. Nun mischt man den Inhalt der Urne erneut und zieht wieder zuf¨allig eine Kugel. Wie groß ist die Wahrscheinlichkeit, dass dies eine blaue Kugel ist? Aufgabe 2.9: Aus drei Urnen U1 , U2 , U3 wird zuf¨allig eine Urne ausgew¨ahlt, wobei jede Urne dieselbe Wahrscheinlichkeit besitzt, in die Auswahl zu gelangen. Die drei Urnen enthalten weiße und schwarze Kugeln, wobei sich in Urne U1: zwei weiße und f¨ unf schwarze U2: vier weiße und vier schwarze U3: sieben weiße und vier schwarze Kugeln befinden. Aus der zuf¨ allig gew¨ ahlten Urne wird nun eine Kugel gezogen. a) Wie groß ist die Wahrscheinlichkeit, dass die gezogene Kugel weiß ist? b) Die gezogene Kugel ist schwarz. Wie groß ist die Wahrscheinlichkeit, dass sie aus Urne U2 stammt? Aufgabe 2.10: Ein B¨ acker ben¨ otigt f¨ ur die Herstellung seines Spezialbrotes vier verschiedene Mehlsorten, die er von vier Herstellern geliefert bekommt. Er kann sein Brot nur dann verkaufen, wenn alle vier Mehlsorten einwandfrei sind. F¨ ur die vier Mehlsorten gilt, dass sie mit einer Wahrscheinlichkeit von 0.1, 0.05, 0.2 bzw. 0.15 M¨ angel aufweisen. Wie groß ist die Wahrscheinlichkeit daf¨ ur, dass der B¨ acker sein Brot nicht verkaufen kann? Aufgabe 2.11: Ein W¨ urfel wird zweimal geworfen. Wir definieren die folgenden Ereignisse: A: Die Augenzahl im ersten Wurf ist gerade.“ ” B: Die Summe der Augenzahlen beider W¨ urfe ist ungerade.“ ” Sind die Ereignisse A und B stochastisch unabh¨angig?
32
2. Elemente der Wahrscheinlichkeitsrechnung
Aufgabe 2.12: Eine Großk¨ uche erh¨ alt von vier verschiedenen H¨andlern Gem¨ use. Dabei entfallen auf H¨ andler A und B jeweils 30%, auf H¨andler C 25% und auf H¨andler D 15% der gesamten gelieferten Gem¨ usemenge. Es ist bekannt, dass bei H¨andler C 7% der Lieferung verdorben sind. Bei den anderen drei H¨andlern bel¨auft sich der verdorbene Anteil des gelieferten Gem¨ uses jeweils auf nur 2%. a) Ein Koch w¨ahlt zuf¨ allig eine Gem¨ usekiste aus. Wie groß ist die Wahrscheinlichkeit, dass deren Inhalt verdorben ist? ¨ b) Beim Offnen einer Kiste wird festgestellt, dass deren Inhalt verdorben ist. Wie groß ist die Wahrscheinlichkeit, dass diese Kiste von H¨andler A geliefert wurde? c) Wie groß ist die Wahrscheinlichkeit, dass eine Kiste verdorbenes Gem¨ use enth¨alt, wenn bekannt ist, dass die Kiste von H¨andler B, C oder D geliefert wurde? Aufgabe 2.13: Ein Zufallsexperiment f¨ uhre zu den zwei m¨oglichen Ereignissen A und B. A und B seien stochastisch unabh¨angig. Es gilt P (B) = 0.5 und P (A ∩ B) = 0.2. Wie groß ist P (A ∪ B)? Aufgabe 2.14: In der Faschingszeit werden Autofahrer des Nachts h¨aufig zu Alkoholkontrollen gebeten. Erfahrungsgem¨ aß sind unter den kontrollierten Autofahrern 10% Alkohols¨ under“ (d.h. Autofahrer, deren Alkoholgehalt im ” Blut 0.5 Promille oder mehr betr¨ agt). Ein Schnelltest soll kl¨aren, ob der Alkoholgehalt im Blut des kontrollierten Autofahrers zu hoch ist. Dieser Test irrt sich bei Alkohols¨ undern mit einer Wahrscheinlichkeit von 30% (d.h. er zeigt negativ, obwohl der Alkoholgehalt im Blut zu hoch ist). Der Test irrt sich bei Autofahrern, die nicht zu den Alkohols¨ undern z¨ahlen, mit einer Wahrscheinlichkeit von 20% (d.h er zeigt positiv, obwohl der Alkoholgehalt im Blut nicht zu hoch ist). Ein Autofahrer wird kontrolliert. a) Wie groß ist die Wahrscheinlichkeit, dass der Alkoholtest positiv zeigt? b) Wie groß ist die Wahrscheinlichkeit, dass es sich um einen Alkohols¨ under handelt, obwohl der Alkoholtest negativ zeigt? Aufgabe 2.15: Ein Osterhase bemalt Ostereier, an einem Tag zwei Eier rot und jeweils ein Ei blau, gelb, gr¨ un und lila. Am Abend legt er in Fritzchens Osternest vier bemalte Eier. a) Der Osterhase legt lauter verschiedenfarbige Eier in das Nest. Wieviele M¨oglichkeiten f¨ ur die Zusammensetzung des Osternestes gibt es? b) Der Osterhase w¨ ahlt die vier Eier f¨ ur das Nest zuf¨allig aus. i) Wie groß ist die Wahrscheinlichkeit, dass das Nest zwei rote Eier, ein blaues und ein lila Ei enth¨ alt? ii) Wie groß ist die Wahrscheinlichkeit, dass das Nest vier verschiedenfarbige Eier enth¨ alt?
2.7 Aufgaben und Kontrollfragen
33
c) Fritzchen findet in seinem Osternest zwei rote Eier, ein blaues und ein gelbes Ei. Er nimmt sich vor, von seinen Ostereiern immer nur h¨ochstens eines pro Tag zu verspeisen, und u ¨berlegt sich, in welcher Farbreihenfolge er dies tun soll. Wieviele M¨ oglichkeiten hat er daf¨ ur? Aufgabe 2.16: Zwei Fußballspieler schießen je einmal auf eine Torwand. Von Spieler A ist bekannt, dass er mit Wahrscheinlichkeit 0.4 ein Tor schießt, w¨ahrend der Spieler B mit 0.5 trifft. Die Ergebnisse beider Spieler seien unabh¨angig voneinander. a) Wie groß ist die Wahrscheinlichkeit, dass mindestens einer von beiden trifft? b) Wie groß ist die Wahrscheinlichkeit, dass genau einer von beiden trifft? c) Wie groß ist die Wahrscheinlichkeit, dass nur B trifft?
3. Zuf¨ allige Variablen
3.1 Einleitung Die Deskriptive Statistik beschreibt ein fest vorgegebenes Datenmaterial. Grundlage sind Merkmale bzw. Variablen, die an Untersuchungseinheiten erhoben werden. Diese Merkmale k¨ onnen qualitativ oder quantitativ sein. Die quantitativen Variablen k¨ onnen weiter unterschieden werden in diskrete und stetige Variablen, wobei die Einteilung durchaus fließend sein kann (vgl. z. B. Toutenburg und Heumann, 2006). In der Induktiven Statistik geht man im Gegensatz zur Deskriptiven Statistik von einem Zufallsexperiment aus (vgl. Kapitel 2). Dabei erweist es sich als zweckm¨aßig, den m¨ oglichen Ergebnissen ωi eines Zufallsexperiments reelle Zahlen zuzuordnen. Diese Zuordnung kann als Abbildung X :Ω→R ωi → X(ωi ) = xi aufgefasst werden. Da das Ergebnis ωi des Zufallsexperiments innerhalb des Ereignisraumes ungewiss ist, u agt sich diese Ungewissheit auf das Er¨ bertr¨ gebnis xi dieser Abbildung. Deshalb nennt man diese Abbildung zuf¨allige Variable oder kurz Zufallsvariable. Der zuf¨alligen Variablen X wird bei der Durchf¨ uhrung eines zuf¨alligen Versuchs in Abh¨angigkeit von dessen Ergebnis ein bestimmter Wert zugeordnet – die Realisation xi von X. Zur Charakterisierung der Zufallsvariablen ben¨otigen wir die Kenntnis aller m¨ oglichen Werte, die X annehmen kann. Die Menge dieser Werte heißt Zustandsraum S. Mathematisch exakt (vgl. z. B. M¨ uller, 1983) versteht man unter einer zuf¨alligen Variablen X eine auf der Grundmenge Ω eines Wahrscheinlichkeitsraumes (Ω, A, P ) definierte Funktion, deren Werte in der Grundmenge S eines meßbaren Raumes (S,S) liegen. Dabei muß gelten (X muß eine meßbare Abbildung sein) X −1 (B) = {ω ∈ Ω : X(ω) ∈ B} ∈ A,
∀B ∈ S .
Durch die Zufallsvariable X wird dem meßbaren Raum (S,S) ein Wahrscheinlichkeitsmaß PX (Bildmaß) auf S mittels
36
3. Zuf¨ allige Variablen
PX (B) = P (X −1 (B)),
B∈S
zugeordnet. Wir definieren diese Begriffe nicht n¨aher (vgl. hierzu z. B. Bauer, 1991), sondern erl¨ autern den Hintergrund dieser mathematischen Definitionen wie folgt. Mit dem Konstrukt der Zufallsvariable k¨onnen Versuchsergebnisse, die zun¨achst in qualitativer Form vorliegen ( Wappen“ oder Zahl“ beim M¨ unz” ” wurf, Augenzahl“ beim einmaligen W¨ urfelwurf etc.), durch reelle Zahlen ” ¨ verschl¨ usselt werden. Dies ist dann das formale Aquivalent zu den tats¨achlich durchgef¨ uhrten Zufallsexperimenten. Der einmalige M¨ unzwurf mit den m¨oglichen Ergebnissen Wappen“ oder Zahl“ wird ersetzt durch eine Zufallsvaria” ” ble X, die ebenfalls nur zwei Werte (z. B. 0 oder 1) annehmen kann. Dieselbe Variable beschreibt auch alle anderen zuf¨ alligen Versuche mit zwei m¨oglichen Ergebnissen (Geschlecht eines Neugeborenen: m¨annlich/weiblich, Ergebnis ei¨ nes Studenten bei einer Klausur: bestanden/nicht bestanden). Der Ubergang vom zuf¨alligen Versuch zur Zufallsvariablen erm¨oglicht erst eine einheitliche mathematische Handhabung der statistischen Datenanalyse. Allgemein heißt eine Funktion X eine (reelle) Zufallsvariable, wenn ihre Werte reelle Zahlen sind und als Ergebnis eines zuf¨ alligen Versuchs interpretiert werden k¨onnen. ¨ Da die Werte der Zufallsvariablen das formale Aquivalent der zuf¨alligen Experimente darstellen, muß auch den Werten der Zufallsvariablen – den reellen Zahlen – eine Wahrscheinlichkeit zuzuordnen sein. Diese Wahrscheinlichkeit muß mit der Wahrscheinlichkeit der entsprechenden zuf¨alligen Ereignisse u ussen die Axiome der Wahrscheinlichkeitsrechnung ¨bereinstimmen, und es m¨ gelten. Beispiele. In Tabelle 3.1 sind Beispiele f¨ ur diskrete Zufallsvariablen angegeben. Es sind jeweils das zu Grunde liegende Zufallsexperiment und die dazugeh¨origen Ereignisse sowie die Realisationen der Zufallsvariablen X angegeben. Tabelle 3.1. Beispiele f¨ ur diskrete Zufallsvariablen zuf¨ alliger Versuch
zuf¨ alliges Ereignis
Realisation der Zufallsvariablen X x=1 x=0
Einmaliger M¨ unzwurf
A1 : Wappen liegt oben A2 : Zahl liegt oben
Einmaliges W¨ urfeln (mit einem W¨ urfel)
Ai : Zahl i gew¨ urfelt (i = 1, . . . , 6)
x=i
Lebensdauer von Gl¨ uhbirnen
Ai : Lebensdauer betr¨ agt i Monate (i = 1, 2, . . .)
x=i
Im Gegensatz zu diesen Beispielen w¨ are die nachfolgend definierte Zufallsgr¨ oße X f¨ ur das Zufallsexperiment W¨ urfelwurf zwar mathematisch m¨oglich,
3.2 Verteilungsfunktion einer Zufallsvariablen
37
aber wenig sinnvoll, da die Verwendung von Dezimalzahlen anstelle der ganzzahligen Werte nur Verwirrung ausl¨ ost: ⎧ 0.3 ω1 = 1 ⎪ ⎪ ⎪ ⎪ 0.6 ω2 = 2 ⎪ ⎪ ⎨ 0.9 ω3 = 3 xi = f¨ ur 1.2 ω4 = 4 ⎪ ⎪ ⎪ ⎪ 1.5 ω ⎪ 5 =5 ⎪ ⎩ 1.8 ω6 = 6
3.2 Verteilungsfunktion einer Zufallsvariablen Neben den m¨oglichen Werten der Zufallsvariablen X ben¨otigen wir zur statistischen Beschreibung von X die Angabe der Wahrscheinlichkeiten, mit denen die Werte x1 , x2 , . . . realisiert werden. Wir erinnern daran, dass bei einem zuf¨alligen Versuch jedem m¨ oglichen zuf¨ alligen Ereignis A eine Wahrscheinlichkeit P (A) zugeordnet wurde. Nimmt die Zufallsvariable X den Wert xi an, so ist die Wahrscheinlichkeit daf¨ ur gegeben durch PX (X = xi ) = P ({ωi : X(ωi ) = xi }) Wir unterscheiden im Folgenden die beiden Wahrscheinlichkeitsmaße P und PX nicht mehr und schreiben in beiden F¨ allen P . Beispiel. Beim einmaligen M¨ unzwurf mit den zuf¨alligen Elementarereignissen Wappen“ und Zahl“ war P (ω1 ) = P (ω2 ) = 1/2. Die zugeordne” ” te Zufallsvariable X sei definiert durch ihre Werte X(ω1 ) = x1 = 0 und ur i = 1, 2. X(ω2 ) = x2 = 1 mit den Wahrscheinlichkeiten P (X = xi ) = 1/2 f¨ Eine Zufallsvariable X wird also durch ihre Werte xi und die zugeh¨origen Wahrscheinlichkeiten P (X = xi ) eindeutig beschrieben. Alternativ k¨onnen wir anstelle der Wahrscheinlichkeiten P (X = xi ) auch die kumulierten Wahrscheinlichkeiten P (X ≤ xi ) verwenden. Diese Darstellung ist – wie wir im Abschnitt 3.4 sehen werden – f¨ ur stetige Zufallsvariablen die einzig sinnvolle Darstellung. Dies f¨ uhrt zu folgender Definition. Definition 3.2.1. Die Verteilungsfunktion einer Zufallsvariablen X ist definiert durch F (x) = P (X ≤ x) = P (−∞ < X ≤ x) .
(3.1)
Die Verteilungsfunktion F (x) beschreibt die Verteilung von X eindeutig und vollst¨andig. Sie ist schwach monoton wachsend, d.h., f¨ ur x1 ≤ x2 folgt
38
3. Zuf¨ allige Variablen
F (x1 ) ≤ F (x2 ). Die Werte einer Verteilungsfunktion F (x) liegen stets zwischen 0 und 1, was sich mit Hilfe der Rechenregeln f¨ ur Wahrscheinlichkeiten zeigen l¨asst. D.h., es gilt 0 ≤ F (x) ≤ 1 und lim F (x) = 0
x→−∞
und
lim F (x) = 1 .
x→∞
(3.2)
Dies erm¨oglicht einen alternativen Nachweis wann eine Funktion Verteilungsfunktion ist: Theorem 3.2.1. Eine reelle Funktion F (x) ist genau dann eine Verteilungsfunktion, wenn sie nicht fallend und mindestens rechtsstetig ist und wenn sie die Bedingungen (3.2) erf¨ ullt. Rechenregeln f¨ ur Verteilungsfunktionen Die Verteilungsfunktion F (x) = P (X ≤ x) erm¨oglicht es uns, die Wahrscheinlichkeit f¨ ur einzelne Werte oder Wertebereiche der Zufallsvariablen X zu berechnen. Wir geben im Folgenden die gebr¨auchlichen Rechenregeln an und erkl¨aren kurz typische Anwendungen. F¨ ur einen Wert a der Zufallsvariablen X gilt per Definition P (X ≤ a) = F (a). Hieraus ergibt sich f¨ ur die Wahrscheinlichkeit X < a P (X < a) = P (X ≤ a) − P (X = a) = F (a) − P (X = a)
(3.3)
F¨ ur stetige Zufallsvariablen ist P (X = a) gleich 0, wie in (3.11) gezeigt wird. Daher hat (3.3) nur eine praktische Bedeutung f¨ ur diskrete Zufallsvariablen, wie wir noch sehen werden. Wir haben bereits in Kapitel 2 bei den Folgerungen aus den Axiomen der Wahrscheinlichkeitsrechnung gesehen, dass es aus rechentechnischen Gr¨ unden manchmal einfacher ist, eine Wahrscheinlichkeit u ¨ ber die Wahrscheinlichkeit des Gegenereignisses zu bestimmen. Analog k¨onnen wir auch hier anstelle von P (X ≤ a) und P (X < a) die Wahrscheinlichkeiten P (X > a) und P (X ≥ a) der komplement¨aren Wertebereiche betrachten: P (X > a) = 1 − P (X ≤ a) = 1 − F (a) P (X ≥ a) = 1 − P (X < a) = 1 − F (a) + P (X = a)
(3.4) (3.5)
Weiterhin k¨onnen wir Rechenregeln f¨ ur allgemeine Intervalle der Form (a; b), (a; b], [a; b) und [a; b] angeben. Diese werden meist dann ben¨otigt, wenn der Bereich einer Zufallsvariablen ein Ereignis charakterisiert. Betrachten wir den W¨ urfelwurf. Die Zufallsvariable X mit den Auspr¨agungen 1 bis 6 gibt die Augenzahl an. Wir wollen nun die Wahrscheinlichkeit f¨ ur mindestens eine 3 und h¨ochstens eine 5 zu werfen bestimmen. Hierzu definieren wir uns zun¨achst folgende drei Ereignisse:
3.3 Diskrete Zufallsvariablen und ihre Verteilungsfunktion
39
A:X <3 mit P (A) = P (X < 3) = F (3) − P (X = 3), B:X≤5 mit P (B) = P (X ≤ 5) = F (5) C:3≤X ≤5 Diese Situation ist in Abbildung 3.1 dargestellt. Das Ereignis B tritt ein, wenn X < 3 (Ereignis A) oder 3 ≤ X ≤ 5 (Ereignis C) eintritt. Es gilt: B = A ∪ C. Da A und C disjunkt sind, gilt nach Axiom 3 P (B) = P (A ∪ C) = P (A) + P (C) . Stellen wir diese Formel um, so erhalten wir die gesuchte Wahrscheinlichkeit P (C) = P (B) − P (A) , d. h. P (3 ≤ X ≤ 5) = P (X ≤ 5) − P (X < 3) = F (5) − F (3) + P (X = 3) . bzw. allgemein P (a ≤ X ≤ b) = P (X ≤ b) − P (X < a) = F (b) − F (a) + P (X = a) .
(3.6)
Analog lassen sich die Rechenregeln f¨ ur die anderen Intervalle herleiten: P (a < X ≤ b) = F (b) − F (a)
(3.7)
P (a < X < b) = F (b) − F (a) − P (X = b) P (a ≤ X < b) = F (b) − F (a) − P (X = b) + P (X = a)
A:X<3
(3.8) (3.9)
B:X≤5 C:3≤X≤5 X
1
2
3
4
5
6
Abb. 3.1. Darstellung der Ereignisse A: X < 3, B: X ≤ 5 und C: 3 ≤ X ≤ 5 beim einfachen W¨ urfelwurf
3.3 Diskrete Zufallsvariablen und ihre Verteilungsfunktion Definition 3.3.1. Eine Zufallsvariable heißt diskret, wenn sie nur endlich viele (oder abz¨ahlbar unendlich viele) Werte x1 , . . . , xn mit den zugeh¨origen Wahrscheinlichkeiten p1 , . . . , pn annehmen kann.
40
3. Zuf¨ allige Variablen
Die Menge {x1 , . . . , xn } heißt Tr¨ ager von X. Es gilt n
pi = 1 .
(3.10)
i=1
Definition 3.3.2. Die Zuordnung P (X = xi ) = pi
i = 1, . . . , n
heißt Wahrscheinlichkeitsfunktion von X, sofern (3.10) erf¨ ullt ist. Damit hat die Verteilungsfunktion von X die Gestalt F (x) =
n i=1
1{xi ≤x} pi .
Dies ist die Summe der Wahrscheinlichkeiten pi derjenigen Indizes i, f¨ ur die xi ≤ x gilt. Die m¨ oglichen Werte xi einer diskreten Zufallsvariablen X heißen Sprungstellen und die Wahrscheinlichkeiten pi heißen Sprungh¨ ohen der Verteilungsfunktion F (x). Der Zusammenhang wird klar, wenn man sich das Bild der Verteilungsfunktion F (x) in Abbildung 3.2 ansieht. Nur an den Stellen xi erfolgt ein Sprung der Funktion und zwar um den Wert pi . Die Verteilungsfunktion einer diskreten Zufallsvariablen ist eine Treppenfunktion. Beispiel 3.3.1 (W¨ urfelwurf ). Die zuf¨ alligen Elementarereignisse beim einmaligen W¨ urfeln sind ωi : Zahl i gew¨ urfelt“ (i = 1, . . . , 6). Die Zufallsva” riable X kann die Werte x1 = 1, x2 = 2, . . . , x6 = 6 annehmen, wobei P (X = xi ) = 1/6 gilt. Dann hat die Verteilungsfunktion F (x) die Gestalt ⎧ 0 −∞ < x < 1 ⎪ ⎪ ⎪ ⎪ 1/6 1≤x<2 ⎪ ⎪ ⎪ ⎪ 2/6 2 ≤x<3 ⎨ ur 3≤x<4 F (x) = 3/6 f¨ ⎪ ⎪ 4/6 4≤x<5 ⎪ ⎪ ⎪ ⎪ 5/6 5 ≤x<6 ⎪ ⎪ ⎩ 1 6≤x<∞
Nehmen wir nun folgende Situation beim ‘Mensch ¨argere Dich nicht’ an: ein Spieler hat eine Figur mit noch einem freien Feld vor dem Ziel zu stehen. Da bereits eine Figur im vierten Feld im Zielbereich ist, darf er h¨ochstens eine 4 werfen um ziehen zu k¨ onnen. Die Wahrscheinlichkeit hierf¨ ur entspricht dem Wert der Verteilungsfunktion an der Stelle 4 F (4) = P (X ≤ 4) = P ({X = 1} ∪ {X = 2} ∪ {X = 3} ∪ {X = 4})
= P (X = 1) + P (X = 2) + P (X = 3) + P (X = 4) = 4/6 .
3.3 Diskrete Zufallsvariablen und ihre Verteilungsfunktion
41
F (x) 6/6 5/6 4/6 3/6 2/6 1/6
• ◦ 1
• ◦ 2
• ◦
• ◦
• ◦
• ◦
x 3
4
5
6
Abb. 3.2. Verteilungsfunktion beim einmaligen W¨ urfeln. ‘•’ charakterisiert einen eingeschlossenen Wert, ‘◦’ einen ausgeschlossenen Wert
Die Gegenwahrscheinlichkeit, d. h., dass er stehen bleiben muss, ist nach (3.4) P (X > 4) = 1 − P (X ≤ 4) = 1 − F (4) = 1 − 4/6 = 2/6 . Damit die Figur in den Zielbereich gelangt ben¨otigt der Spieler mindestens eine 2. Die Wahrscheinlichkeit daf¨ ur bestimmen wir mit (3.6) und erhalten P (2 ≤ X ≤ 4) = F (4) − F (2) + P (X = 2) = 4/6 − 2/6 + 1/6 = 3/6 .
Beispiel 3.3.2 (M¨ unzwurf ). Die diskrete Zufallsvariable X sei Anzahl der ” Ergebnisse Wappen beim dreimaligen Werfen einer M¨ unze“. Dann ist der Zustandsraum S von X gleich S = {0, 1, 2, 3}. Die Wurfergebnisse und ihre Wahrscheinlichkeiten sind Wurfergebnis (Z, Z, Z) (W, Z, Z) (Z, W, Z) (Z, Z, W ) (W, W, Z) (W, Z, W ) (Z, W, W ) (W, W, W )
xi 0
pi 1/8
1
3/8
2
3/8
3
1/8
Daraus erhalten wir die Verteilungsfunktion ⎧ 0 ⎪ ⎪ ⎪ ⎪ 1/8 ⎨ ur F (x) = 1/8 + 3/8 = 4/8 f¨ ⎪ ⎪ 4/8 + 3/8 = 7/8 ⎪ ⎪ ⎩ 1
x<0 0≤x<1 1≤x<2 2≤x<3 3 ≤ x.
42
3. Zuf¨ allige Variablen F (x)
pi
8/8 7/8
•
3/8 •
4/8
• ◦
◦
1/8 1/8 x 0
Abb. 3.3. M¨ unzwurf
1
2
3
• ◦ 0
◦ 1
x 2
3
Wahrscheinlichkeits- und Verteilungsfunktion beim dreimaligen
3.4 Stetige Zufallsvariablen und ihre Verteilungsfunktion Im Gegensatz zu den diskreten Zufallsvariablen, die nur endlich oder abz¨ahlbar viele Werte annehmen k¨ onnen, betrachten wir nun Zufallsvariablen mit u ¨berabz¨ahlbar vielen Werten. Definition 3.4.1. Wir nennen eine Zufallsvariable X stetig, wenn eine nichtnegative Funktion f (x) existiert, die f¨ ur jedes reelle x die Beziehung
x F (x) = f (t)dt −∞
erf¨ ullt, wobei F (x) die Verteilungsfunktion der Zufallsvariablen X ist. f (x) heißt die Dichtefunktion (kurz: Dichte) von X. Theorem 3.4.1. Eine reelle integrierbare Funktion f (x) ist Dichtefunktion einer stetigen Zufallsvariablen X genau dann, wenn (1)f (x) ≥ 0 (Nichtnegativit¨at) (2)
∞
−∞
f (x)dx = limx→∞ F (x) = 1 (Normiertheit)
erf¨ ullt ist. Bei einer stetigen Verteilungsfunktion tritt die Integration u ¨ ber die Dichtefunktion f (t), deren Werte keine Wahrscheinlichkeiten darstellen, an die Stelle der Summation im Fall einer diskreten Zufallsvariablen. Die Beziehung zwischen Verteilungsfunktion und Dichte in Definition 3.4.1 l¨asst sich bei der Berechnung der Dichte bei gegebener Verteilungsfunktion ausn¨ utzen: durch Ableiten der Verteilungsfunktion erhalten wir die Dichte f (x) = F ′ (x) = d dx F (x). Theorem 3.4.2. Die Wahrscheinlichkeit daf¨ ur, dass eine stetige Zufallsvariable einen beliebigen Wert x0 annimmt, ist gleich Null: P (X = x0 ) = 0 .
(3.11)
3.4 Stetige Zufallsvariablen und ihre Verteilungsfunktion
43
Beweis: Wir betrachten ein Intervall (x0 − δ, x0 ] mit δ ≥ 0. Nach (3.7) gilt dann P (x0 − δ < X ≤ x0 ) = F (x0 ) − F (x0 − δ) und damit P (X = x0 ) = lim P (x0 − δ < X ≤ x0 ) δ→0
= lim [F (x0 ) − F (x0 − δ)] δ→0
= F (x0 ) − F (x0 ) = 0 . Daraus erkl¨art sich die Tatsache, dass man in der praktischen Anwendung von stetigen Zufallsvariablen nur an Ereignissen der Gestalt X nimmt Werte ” zwischen a und b an“ und nicht an sogenannten Punktereignissen X = xi interessiert ist. Beispiele. • Bei der stetigen Zufallsvariablen X: Wartezeit eines Reisenden“ w¨are das ” Ereignis der Reisende wartet genau 17 Minuten und 35 Sekunden bis zum ” n¨achsten Zug“ ohne Interesse. Vielmehr fragt man danach, wie groß die Wahrscheinlichkeit daf¨ ur ist, dass die Wartezeit z.B. zwischen 15 und 30 Minuten liegt. • Auf handels¨ ublichen abgepackten Waren wird das Normgewicht angegeben. Der K¨aufer (und der Gesetzgeber) erwartet nat¨ urlich nicht, dass das angegebene Gewicht bis auf Milligramm genau eingehalten wird. Vielmehr geht man davon aus, dass gewisse Abweichungen (nach oben oder unten) vom Normgewicht innerhalb gewisser Grenzen mit vorgegebener Wahrscheinlichkeit m¨oglich sind. Dieses Problem werden wir in Kapitel 6 ausf¨ uhrlich behandeln. Die Wahrscheinlichkeit daf¨ ur, dass eine stetige Zufallsvariable X z.B. in asst sich nach (3.6) bestimmen: einem Intervall [x1 , x2 ] liegt, l¨ P (x1 ≤ X ≤ x2 ) = F (x2 ) − F (x1 ) .
(3.12)
Da nach (3.11) die Wahrscheinlichkeiten f¨ ur die Endpunkte des Intervalls Null sind, ist es unerheblich, ob sie zu dem Intervall geh¨oren: [x1 , x2 ] oder nicht: [x1 , x2 ), (x1 , x2 ) oder (x1 , x2 ]. Gem¨aß Abbildung 3.4 k¨ onnen wir die Wahrscheinlichkeit daf¨ ur, dass die Zufallsvariable Werte im Intervall [x1 , x2 ] annimmt, als Fl¨ache (Kurvenintegral) zwischen der Dichtefunktion f (x) und der x-Achse in den Grenzen x1 und x2 interpretieren. Gem¨ aß (3.2) ist der Fl¨acheninhalt zwischen der Dichtefunktion und der gesamten Abszissenachse gleich Eins, d.h., es gilt lim F (x) = 1. x→∞
Beispiel 3.4.1. Gegeben sei folgende Funktion ⎧ 0 x<0 ⎪ ⎪ ⎨ ax 0≤x≤1 f (x) = a(2 − x) 1<x≤2 ⎪ ⎪ ⎩ 0 x > 2.
44
3. Zuf¨ allige Variablen
F (x2 ) − F (x1 ) x1
x2
F (x2 )
F (x1 ) x x1
x2
Abb. 3.4. Grafische Darstellungen der Wahrscheinlichkeit P (x1 ≤ X ≤ x2 )
Wir suchen den Wert der Konstanten a, f¨ ur den die Funktion f (x) die Dichtefunktion der Zufallsvariablen X ist. Mit Hilfe der Normiertheitsbedingung aus Satz 3.4.1 bestimmen wir die Konstante a:
+∞ f (x)dx 1= −∞ 1
=
0
axdx + a
1
2
(2 − x)dx
2 2 1 x2 x + a 2x − = a 2 0 2 1 1 1 = a + a(4 − 2 − (2 − )) 2 2 = a.
Wir erhalten a = 1. Damit sind die Werte ax = x im Bereich 0 ≤ x ≤ 1 und a(2 − x) = (2 − x) im Bereich 1 < x ≤ 2 stets gr¨oßer oder gleich Null. f (x) ist also mit a = 1 eine Dichtefunktion. Beispiel 3.4.2. Eine S-Bahnlinie f¨ ahrt im 20-Minuten-Takt. Wir w¨ahlen als Zufallsvariable X Wartezeit in Minuten bis zur n¨achsten S-Bahn“. Der Wer” tebereich (Zustandsraum) von X ist also S = [0, 20]. Wir gehen davon aus, dass die Wartezeit auf dem Intervall [0, 20] gleichverteilt ist. Dann ergibt sich folgende Funktion
3.4 Stetige Zufallsvariablen und ihre Verteilungsfunktion
45
1
0
1
2
Abb. 3.5. f (x) aus Beispiel 3.4.1 mit a = 1
f (x) = Wir bestimmen k =
1 20
k 0
f¨ ur 0 ≤ x < 20 sonst .
mit Hilfe der Normiertheitsbedingung
1=
0
20
20
f (x)dx = [kx]0 = 20k .
1 stets gr¨oßer 0 ist, ist die Bedingung der Nichtnegativit¨at erf¨ ullt. Die Da 20 Dichte lautet damit 1 f¨ ur 0 < x ≤ 20 f (x) = 20 0 sonst.
Die Verteilungsfunktion (vgl. Abbildung 3.6) erhalten wir gem¨aß
x
x 1 x 1 1 dt = [t]0 = x. F (x) = f (t)dt = 20 20 20 0 0
1
1/20
0
5
10
15
20
0
5
10
15
20
Abb. 3.6. Dichte- und Verteilungsfunktion von X Wartezeit“ ”
Beispiel 3.4.3. Sei folgende Funktion gegeben
46
3. Zuf¨ allige Variablen
f (x) =
ax f¨ ur 0 ≤ x ≤ 1 0 sonst.
Wir bestimmen die Konstante a so, dass f (x) eine Dichte ist. Um die Forde¨ rung der Nichtnegativit¨ at zu erf¨ ullen, muß a ≥ 0 gelten. Uber die Forderung der Normiertheit ermitteln wir den Wert von a 2 1
1 1 x 1= = a· = 1, axdx = a 2 0 2 0 also ist a = 2. Die Verteilungsfunktion erhalten wir durch Integration:
x F (x) = P (X ≤ x) = f (t)dt ⎧−∞ x<0 ⎨ 0 ur 0 ≤ x < 1 = x2 f¨ ⎩ 1 x ≥ 1, x da 0 2tdt = [t2 ]x0 = x2 ist. In Abbildung 3.7 sind die Dichte und die Verteilungsfunktion dargestellt. 2
1
1
0.5
0
1
0
1
Abb. 3.7. Dichte- und Verteilungsfunktion zu Beispiel 3.4.3
Analog zum diskreten Fall k¨ onnen mit Hilfe der Rechenregeln f¨ ur Verteilungsfunktionen die Wahrscheinlichkeiten f¨ ur Intervalle angegeben werden. So gilt z. B. f¨ ur die Wahrscheinlichkeit, dass X Werte gr¨oßer als 0.5 annimmt, P (X > 0.5) = 1 − P (X ≤ 0.5) = 1 − F (0.5)
= 1 − (0.5)2 = 1 − 0.25 = 0.75 . In Satz 3.4.2 wurde gezeigt, dass jede Punktwahrscheinlichkeit einer stetigen Zufallsvariablen den Wert Null hat. Damit gilt f¨ ur die Wahrscheinlichkeit, dass X Werte zwischen 0.1 und 0.6 annimmt nach (3.6) bis (3.9)
3.5 Erwartungswert und Varianz einer Zufallsvariablen
47
P (0.1 < X < 0.6) = P (0.1 ≤ X < 0.6) = P (0.1 < X ≤ 0.6) = P (0.1 ≤ X ≤ 0.6)
= F (0.6) − F (0.1) = (0.6)2 − (0.1)2 = 0.35 .
Umgekehrt kann man nat¨ urlich auch die Wahrscheinlichkeit f¨ ur ein Intervall vorgeben und die Intervallgrenzen bestimmen. Sei z.B. c so gesucht, dass X mit einer Wahrscheinlichkeit von 0.5 Werte annimmt, die gr¨oßer als c sind: P (X > c) = 0.5 , 1 − P (X ≤ c) = 1 − F (c) = 0.5 , F (c) = 0.5 . √ Mit F (x) = x2 ergibt sich aus F (c) = c2 = 0.5 schließlich c = 0.5 = 0.707. Diese Problemstellung wird uns sp¨ ater in den Kapiteln 6 und 7 wieder begegnen. Unabh¨ angigkeit zweier Zufallsvariablen Analog zur Definition der Unabh¨ angigkeit von zuf¨alligen Ereignissen (vgl. (2.16)) geben wir nun folgende Definitionen f¨ ur die Unabh¨angigkeit von Zufallsvariablen. Definition 3.4.2. Zwei Zufallsvariablen X und Y sind genau dann unabh¨ angig, wenn f¨ ur alle (zugelassenen) Bereiche A und B gilt P (X ∈ A, Y ∈ B) = P (X ∈ A)P (Y ∈ B) . F¨ ur diskrete Zufallsvariablen bestehen die zul¨ assigen Bereiche aus den Werten aume von X bzw. Y, f¨ ur stetige Zufallsvariablen xi bzw. yi der Zustandsr¨ bestehen die zul¨assigen Bereiche aus Intervallen. Im Falle diskreter Zufallsvariablen k¨ onnen wir Definition 3.4.2 auch schreiben als: Zwei diskrete Zufallsvariablen X und Y sind genau dann unabh¨angig, wenn f¨ ur alle Paare (i, j) P (X = xi , Y = yj ) = P (X = xi )P (Y = yj )
(3.13)
gilt.
3.5 Erwartungswert und Varianz einer Zufallsvariablen Im vorangegangenen Abschnitt haben wir eine vollst¨andige Beschreibung einer Zufallsvariablen durch ihre Verteilungsfunktion F (x) oder durch ihre Dichtefunktion f (x) bzw. Wahrscheinlichkeitsfunktion P (X = xi ), i = 1, . . . , n im stetigen bzw. diskreten Fall kennengelernt. Weitere Informationen u ¨ ber eine Verteilung liefern sogenannte Maßzahlen oder Parameter einer Verteilung. Die beiden wichtigsten sind der Erwartungswert und die Varianz einer Zufallsvariablen.
48
3. Zuf¨ allige Variablen
3.5.1 Erwartungswert Der Erwartungswert E(X) ist ein Lageparameter. Er charakterisiert den Schwerpunkt einer Verteilung. Definition 3.5.1. Ist X eine diskrete Zufallsvariable mit den Werten x1 , . . ., xn und den zugeh¨origen Wahrscheinlichkeiten pi , so wird der Erwartungswert von X definiert als E(X) =
n
xi pi = x1 P (X = x1 ) + x2 P (X = x2 ) + . . . + xn P (X = xn ) .
i=1
(3.14) F¨ ur eine stetige Zufallsvariable X mit der Dichtefunktion f (x) wird der Erwartungswert von X definiert als
+∞ E(X) = xf (x)dx . (3.15) −∞
Anmerkung. Der Erwartungswert einer Zufallsvariablen wird h¨aufig mit μ = E(X) abgek¨ urzt. Er ist ein quantitativer Parameter der Verteilung von X. Umgangssprachlich heißt der Erwartungswert auch Mittelwert. Dieser Ausdruck darf jedoch nicht mit dem arithmetischen Mittel x¯ verwechselt werden. Beispiel 3.5.1. Wir wollen nun den Erwartungswert der stetigen Zufallsvariablen aus Beispiel 3.4.1 bestimmen. Gem¨ aß (3.15) m¨ ussen wir hierzu das Integral u ¨ ber xf (x) berechnen. Da die Dichte nur im Bereich [0; 2] Werte gr¨oßer als Null annimmt, reicht es aus, das Integral in diesem Bereich zu berechnen:
2
1
2 E(X) = xf (x)dx = x · xdx + x · (2 − x)dx 0
0
1
1 2 1 3 1 x + x2 − x3 = 3 3 0 1 1 1 1 = − 0 + (4 − 8) − (1 − ) = 1 . 3 3 3
3.5.2 Rechenregeln f¨ ur den Erwartungswert Sind a und b beliebige Konstanten und ist X eine beliebige Zufallsvariable, so gilt: E(a) = a , E(bX) = b E(X) .
(3.16) (3.17)
3.5 Erwartungswert und Varianz einer Zufallsvariablen
49
Additivit¨ at des Erwartungswerts Sind X und Y zwei beliebige (nicht notwendig voneinander unabh¨angige) Zufallsvariablen, so gilt stets E(X + Y ) = E(X) + E(Y ) .
(3.18)
Die Beziehung (3.18) gilt analog f¨ ur mehr als zwei Zufallsgr¨oßen. Durch Kombination der Regeln (3.16) – (3.18) erh¨ alt man E(aX + bY + c) = a E(X) + b E(Y ) + c .
(3.19)
Beispiel 3.5.2 (W¨ urfelwurf ). Sei X die Zufallsvariable Augenzahl beim ein” maligen W¨ urfelwurf“ mit den Auspr¨ agungen 1, . . . , 6 und der in Beispiel 3.3.1 angegebenen Verteilungsfunktion. Damit erh¨ alt man f¨ ur den Erwartungswert nach (3.14): E(X) =
6
xi pi
i=1
= 1 · P (X = 1) + 2 · P (X = 2) + 3 · P (X = 3) + 4 · P (X = 4)
+ 5 · P (X = 5) + 6 · P (X = 6) 1 = (1 + 2 + 3 + 4 + 5 + 6) 6 = 21/6 = 3.5 .
Ein neuer W¨ urfel habe statt der Augenzahlen 1 bis 6 die Augenzahlen 10, 20, 30, 40, 50 und 60. Die entsprechende Zufallsvariable Y = 10X hat dann die Auspr¨agungen 10, . . . , 60 und f¨ ur ihren Erwartungswert gilt: E(Y ) =
6
y i pi
i=1
= 10 · P (Y = 10) + 20 · P (Y = 20) + 30 · P (Y = 30) + 40 · P (Y = 40)
+ 50 · P (Y = 50) + 60 · P (Y = 60) 1 = (10 + 20 + 30 + 40 + 50 + 60) 6 = 10 · 21/6 = 10 E(X) .
Wirft man zwei W¨ urfel, so erh¨ alt man die beiden Zufallsvariablen X1 Au” genzahl beim ersten Wurf“ und X2 Augenzahl beim zweiten Wurf“. Damit ” erh¨alt man als Erwartungswert f¨ ur die Zufallsvariable X = X1 + X2 Augen” summe beim zweifachen W¨ urfelwurf“ nach (3.18) E(X) = E(X1 + X2 ) = E(X1 ) + E(X2 ) = 3.5 + 3.5 = 7 .
50
3. Zuf¨ allige Variablen
3.5.3 Varianz Wir ben¨otigen zur Charakterisierung einer Verteilung neben dem Erwartungswert noch eine Maßzahl, die etwas u ¨ ber die Konzentration der Verteilung aussagt. Eine solche Maßzahl ist die Varianz. Sie mißt die Konzentration der Verteilung um den Erwartungswert. Definition 3.5.2. Die Varianz einer Zufallsvariablen X ist definiert als Var(X) = E[X − E(X)]2 .
(3.20)
Anmerkung. Die Varianz heißt auch mittlere quadratische Abweichung der Variablen X von E(X) oder Dispersion oder zentrales Moment 2. Ordnung. urzt. Sie wird h¨aufig mit σ 2 abgek¨ Bei einer diskreten Zufallsvariablen erhalten wir unter Verwendung von (3.14) n Var(X) = (xi − E(X))2 pi , (3.21) i=1
f¨ ur eine stetige Zufallsvariable gilt unter Verwendung von (3.15)
+∞ Var(X) = (x − E(X))2 f (x)dx .
(3.22)
−∞
Definition 3.5.3. Die (positive) Wurzel der Varianz heißt Standardabweichung. Beispiel 3.5.3. Wir wollen nun auch die Varianz der stetigen Zufallsvariablen aus Beispiel 3.4.1 bestimmen. Gem¨ aß (3.22) m¨ ussen wir hierzu das Integral u ¨ber (x − E(X))2 f (x) berechnen. Analog zur Berechnung des Erwartungswertes m¨ ussen wir das Integral nur im Bereich [0; 2] berechnen:
2
1
2 Var(X) = (x − 1)2 f (x)dx = (x − 1)2 xdx + (x − 1)2 (2 − x)dx
0
1
0
1
2 1 4 2 3 1 2 1 4 5 + − x4 + x3 − x2 + 2x x − x + x 4 3 2 4 3 2 0 1 1 4 5 1 4 5 1 2 1 = ( − + ) − 0 + (− 16 + 8 − 4 + 4) − (− + − + 2) 4 3 2 4 3 2 4 3 2 = 1/6 . =
3.5.4 Rechenregeln f¨ ur die Varianz Sind a und b beliebige Konstanten, so gilt Var(aX) = a2 Var(X) ,
(3.23)
Var(b) = 0 , Var(aX + b) = a2 Var(X) .
(3.24) (3.25)
3.5 Erwartungswert und Varianz einer Zufallsvariablen
51
Theorem 3.5.1 (Verschiebungssatz der Varianz). Es gilt Var(X) = E(X 2 ) − [E(X)]2 .
(3.26)
Beweis: Sei E(X) = μ gesetzt, so gilt nach Definition (3.20) unter Verwendung der binomischen Formel und der Additivit¨at des Erwartungswertes Var(X) = E(X − μ)2
= E(X 2 − 2μX + μ2 ) = E(X 2 ) − 2μE(X) + E(μ2 )
= E(X 2 ) − 2μ2 + μ2 = E(X 2 ) − [E(X)]2 .
Theorem 3.5.2 (Additivit¨ at der Varianz bei Unabh¨ angigkeit). Sind X und Y unabh¨angige Zufallsvariablen, so gilt Var(X + Y ) = Var(X) + Var(Y ) .
(3.27)
Anmerkung. Satz 3.5.2 gilt analog auch f¨ ur mehr als zwei unabh¨angige Zufallsvariablen. Den Beweis geben wir mit dem allgemeineren Satz 3.7.1. Beispiel 3.5.4 (W¨ urfelwurf ). Sei X die Zufallsvariable Augenzahl beim ein” maligen W¨ urfelwurf“ mit den Auspr¨ agungen 1, . . . , 6. Die Varianz von X erh¨alt man gem¨aß (3.21): Var(X) =
6 i=1
(xi − 3.5)2 pi
= [(1 − 3.5)2 + (2 − 3.5)2 + (3 − 3.5)2 + (4 − 3.5)2 + (5 − 3.5)2 1 + (6 − 3.5)2 ] 6 = 17.5/6 = 2.92 . W¨ahlt man den alternativen Ansatz (3.26), so berechnet man zun¨achst 2
E(X ) =
6
x2i pi =
i=1
= 12 P (X = 1) + 22 P (X = 2) + 32 P (X = 3) + 42 P (X = 4) + 52 P (X = 5) + 62 P (X = 6) 1 = (1 + 4 + 9 + 16 + 25 + 36) 6 = 91/6 . Damit erh¨alt man dann f¨ ur die Varianz
52
3. Zuf¨ allige Variablen
Var(X) = E(X 2 ) − [E(X)]2 = 91/6 − (21/6)2 = 105/36 = 2.92 .
F¨ ur die Varianz der Zufallsvariable Augensumme beim zweifachen W¨ urfel” wurf“ gilt mit (3.27) Var(X) = Var(X1 ) + Var(X2 ) = 35/12 + 35/12 = 70/12 = 5.83 . 3.5.5 Standardisierte Zufallsvariablen F¨ ur statistische Vergleiche von zwei Zufallsvariablen X1 und X2 oder f¨ ur die Ableitung von Teststatistiken (Kapitel 7) oder Grenzwerts¨atzen (Kapitel 5) ist es zweckm¨ aßig, eine lineare Transformation der Variablen so durchzuf¨ uhren, dass die transformierte Variable den Erwartungswert 0 und die Varianz 1 besitzt. Eine solche Transformation heißt Standardisierung. Definition 3.5.4. Eine Zufallsvariable Y heißt standardisiert, falls E(Y ) = 0 und Var(Y ) = 1 gilt. Unter Verwendung der obigen Regeln k¨ onnen wir eine beliebige Zufallvariable X mit E(X) = μ und Var(X) = σ 2 wie folgt standardisieren: Y =
X − E(X) X −μ = . σ Var(X)
(3.28)
3.5.6 Erwartungswert und Varianz des arithmetischen Mittels Definition 3.5.5. Wir bezeichnen Zufallsvariablen X1 , . . . , Xn als i.i.d. (independently identically distributed), falls alle Xi dieselbe Verteilung besitzen und voneinander unabh¨angig sind. Seien X1 , . . . , Xn i.i.d. Zufallsvariablen mit E(Xi ) = μ und Var(Xi ) = σ 2 f¨ ur i = 1, . . . , n. Wir bilden daraus die Zufallsvariable n
¯= 1 X Xi . n i=1 ur die Zufallsvariable arithmetisches Mittel“ Dann berechnen wir mit (3.18) f¨ ” n ¯ = 1 E(X) (3.29) E(Xi ) = μ . n i=1
3.5 Erwartungswert und Varianz einer Zufallsvariablen
53
Mit (3.25) und wegen der Unabh¨ angigkeit der Xi gilt nach (3.27) ¯ = Var(X)
n 1 σ2 ) = . Var(X i n2 i=1 n
(3.30)
Beispiel 3.5.5 (M¨ unzwurf ). Eine symmetrische M¨ unze, d.h., es gilt stets P ( Wappen“) = P ( Zahl“) = 21 , wird n mal unabh¨angig hintereinander ge” ” worfen. Das Ergebnis in jedem Wurf kann dabei durch die Zufallsvariable 0 Wappen“ f¨ ur ” , i = 1, . . . , n Xi = 1 Zahl“ ” ausgedr¨ uckt werden. Es gilt f¨ ur jedes Xi 1 1 1 +1· = 2 2 2 1 1 2 1 1 Var(Xi ) = (0 − ) · + (1 − )2 · 2 2 2 2 1 1 1 1 1 = · + · = . 4 2 4 2 4 ¯ = 1 n Xi (relative H¨aufigDamit erh¨alt man f¨ ur die Zufallsvariable X i=1 n keit von Zahl“ bei n W¨ urfen) ” n ¯ = 1 E(X) 1/2 = 1/2 n i=1 E(Xi ) = 0 ·
und ¯ = Var(X)
n 1 1 1 = . 2 n i=1 4 4n
3.5.7 Ungleichung von Tschebyschev F¨ ur eine beliebige Zufallsvariable X kann man ohne Kenntnis der Verteilung die Wahrscheinlichkeit absch¨ atzen, mit der X außerhalb eines bestimmten, um den Erwartungswert μ symmetrischen Intervalls liegt. Theorem 3.5.3 (Ungleichung von Tschebyschev). Sei X eine beliebige Zufallsvariable mit E(X) = μ und Var(X) = σ 2 . Dann gilt P (|X − μ| ≥ c) ≤
Var(X) . c2
(3.31)
54
3. Zuf¨ allige Variablen
Beweis: Wir definieren zun¨ achst folgende diskrete Zufallsvariable Y : 0 falls |X − μ| < c Y = . (3.32) c2 falls |X − μ| ≥ c Die zugeh¨origen Wahrscheinlichkeiten seien P (|X − μ| < c) = p1 , P (|X − μ| ≥ c) = p2 . Gem¨aß der Definition der Zufallsvariablen Y gilt stets Y ≤ |X − μ|2 ,
(3.33)
da im Fall |X − μ|2 < c2 die Zufallsvariable Y den Wert y1 = 0 annimmt und somit Y ≤ |X − μ|2 ist. Im Fall |X − μ|2 ≥ c2 nimmt Y den Wert y2 = c2 an, und somit gilt ebenfalls Y ≤ |X − μ|2 . Aus (3.33) folgt also sofort E(Y ) ≤ E(X − μ)2 = Var(X) .
(3.34)
Andererseits gilt f¨ ur die diskrete Variable Y E(Y ) = 0 · p1 + c2 · p2 = c2 P (|X − μ| ≥ c) ,
(3.35)
so dass wir insgesamt c2 P (|X − μ| ≥ c) ≤ Var(X)
(3.36)
erhalten, woraus die Ungleichung von Tschebyschev folgt. Unter Verwendung ¯ = 1 − P (A), d. h. mit der Regel P (A) P (|X − μ| ≥ c) = 1 − P (|X − μ| < c) , erhalten wir die alternative Darstellung der Tschebyschev-Ungleichung P (|X − μ| < c) ≥ 1 −
Var(X) . c2
(3.37)
Anmerkung. Da die Tschebyschev-Ungleichung f¨ ur jede Zufallsvariable gilt, ist sie recht konservativ. Ist die Verteilung von X bekannt, so lassen sich wesentlich bessere Absch¨ atzungen gewinnen (vgl. Abschnitt 4.3.3). Beispiel 3.5.6. Sei X eine stetige Zufallsvariable mit E(X) = 5 und Var(X) = 2. Mit Hilfe der Tschebyschev-Ungleichung (3.37) kann man dann die Wahrscheinlichkeit daf¨ ur, dass X zwischen 5−2 = 3 und 5+2 = 7 liegt, absch¨atzen und erh¨alt P (3 < X < 7) = P (|X − 5| < 2) ≥ 1 −
1 2 = . 4 2
3.5 Erwartungswert und Varianz einer Zufallsvariablen
55
Angenommen, wir haben n unabh¨ angige Zufallsvariablen X1 , . . . , Xn mit ¯ = 1/n n Xi . E(X) = 5 und Var(X) = 2 und bilden die Zufallsvariable X i=1 ¯ in dem Wie groß ist dann die Wahrscheinlichkeit, dass die Zufallsvariable X oben angegebenen Intervall liegt? ¯ = 5 und mit (3.30) gilt Var(X) ¯ = 2 und damit Mit (3.29) gilt E(X) n ¯ < 7) = P (|X ¯ − 5| < 2) ≥ 1 − P (3 < X
¯ 1 Var(X) =1− . 4 2n
Wir erhalten f¨ ur n = 10 ¯ < 7) ≥ 1 − P (3 < X und f¨ ur n = 100
1 = 0.95 20
¯ < 7) ≥ 1 − 1 = 0.995 . P (3 < X 200
3.5.8 kσ-Bereiche Wir wollen nun die Tschebyschev-Ungleichung f¨ ur interessante Spezialf¨alle der Konstanten c darstellen. Sei wieder Var(X) = σ 2 gesetzt. W¨ahlt man c = kσ, so hat (3.31) die Gestalt P (|X − μ| ≥ kσ) ≤
1 , k2
bzw. (3.37) hat die Gestalt P (|X − μ| < kσ) ≥ 1 −
1 . k2
(3.38)
Wir erhalten mit (3.38) f¨ ur k = 1, 2 bzw. 3: 1σ-Regel: P (μ − σ < X < μ + σ) ≥ 1 − 1 = 0 . Diese Aussage ist trivial, da die Wahrscheinlichkeit jedes zuf¨alligen Ereignisses ≥ 0 ist. 2σ-Regel: P (μ − 2σ < X < μ + 2σ) ≥ 1 −
3 1 = . 4 4
Die Wahrscheinlichkeit, dass eine beliebige Zufallsvariable X im 2σ-Bereich liegt, betr¨agt mindestens 0.75. 3σ-Regel: P (μ − 3σ < X < μ + 3σ) ≥ 1 −
1 8 = . 9 9
Die Wahrscheinlichkeit, dass eine beliebige Zufallsvariable X im 3σ-Bereich liegt, betr¨agt mindestens 0.88.
56
3. Zuf¨ allige Variablen
3.6 Die Quantile, der Median und der Modalwert einer Verteilung Neben dem Erwartungswert gibt es weitere Lokalisationsparameter wie den Median, den Modalwert oder die Quantile. Definition 3.6.1. Ein p-Quantil xp ist der Wert der Verteilungsfunktion, f¨ ur den gilt F (xp ) = p (0 < p < 1) . (3.39) Falls eine eindeutige L¨ osung xp existiert, dann ist xp also derjenige Wert einer Verteilung, der die Wahrscheinlichkeitsmasse so teilt, dass links von xp genau die Wahrscheinlichkeitsmasse p und rechts von xp genau die Wahrscheinlichkeitsmasse 1−p liegt. Wichtige Spezialf¨alle ergeben sich f¨ ur p = 1/4 (unteres Quartil), p = 1/2 (Median oder Zentralwert), p = 3/4 (oberes Quartil), vgl. Abbildung 3.8.
0.75 0.5 0.25 x x0.25
x0.5
x0.75
Abb. 3.8. Unteres Quartil, Median, oberes Quartil
Ist die Zufallsvariable X stetig, so besitzt (3.39) mindestens eine L¨osung. Falls die Verteilungsfunktion F (x) zus¨ atzlich streng monoton ist (d.h. aus x1 < x2 folgt F (x1 ) < F (x2 )), so ist das p-Quantil xp durch F (xp ) = p eindeutig bestimmt. Ist diese Voraussetzung verletzt – wie z.B. im Fall von diskreten Verteilungen – so wird als p-Quantil xp derjenige Wert genommen, f¨ ur den gilt F (xp ) ≥ p , F (x) < p
f¨ ur
x < xp .
In der induktiven Statistik spielen p- und (1 − p)-Quantile zu p = 0.025 und p = 0.05 insbesondere im Bereich der statistischen Tests eine wichtige Rolle. Dort stellen diese p-Werte Grenzen f¨ ur Irrtumswahrscheinlichkeiten dar, die die Grundlage f¨ ur Testentscheidungen bilden. Definition 3.6.2. Der Modalwert D einer Verteilung ist derjenige Wert, bei dem die Dichte bzw. Wahrscheinlichkeitsfunktion ihr Maximum hat.
3.7 Zweidimensionale Zufallsvariablen
57
Liegt nur ein Maximum vor, so heißt die Verteilung unimodal. In diesem Fall ist der Modalwert ein sinnvoller Lageparameter der Verteilung. Die Berechnung des Medians und des Modalwerts wird im Buch Deskriptive ” Statistik“ (Toutenburg und Heumann, 2006) f¨ ur diskretes X an Beispielen demonstriert. Abbildung 3.9 stellt diese Werte schematisch dar.
x D
x0.5 E(X)
Abb. 3.9. Modalwert D, Median x0.5 und E(X)
3.7 Zweidimensionale Zufallsvariablen Wir erweitern unsere bisherigen Betrachtungen dahingehend, dass wir nicht nur eine Zufallsvariable, sondern zwei Zufallsvariablen X und Y gleichzeitig untersuchen. Die Verteilung des Vektors (X, Y ) heißt zweidimensional. Beispiele. • • • •
Gewicht X und K¨ orpergr¨ oße Y eines Schulkindes, Geschwindigkeit X und Bremsweg Y eines Autos, Werbung X und Umsatzsteigerung Y einer Filiale, Dauer der Betriebszugeh¨ origkeit X und H¨ohe der Gratifikation Y eines Mitarbeiters.
Die Zufallsvariablen X und Y k¨ onnen jeweils in allen Skalenarten vorliegen. Wir beschr¨anken uns hier auf die F¨ alle X und Y diskret oder X und Y stetig. 3.7.1 Zweidimensionale diskrete Zufallsvariablen Wir setzen voraus, dass X die m¨ oglichen Auspr¨ agungen x1 , . . . , xI und analog Y die Auspr¨agungen y1 , . . . , yJ habe. Die gemeinsame Wahrscheinlichkeitsfunktion sei P (X = xi , Y = yj ) = pij (i = 1, . . . , I, j = 1, . . . , J) J mit i=1 j=1 pij = 1. Die sogenannten Randverteilungen von X und Y erh¨alt man durch Summation u ¨ ber alle Auspr¨agungen der jeweils anderen Variablen. I
58
3. Zuf¨ allige Variablen
Randverteilung von X Mit der Notation pi+ f¨ ur
J
j=1
P (X = xi ) =
pij erhalten wir
J
pij = pi+
i = 1, . . . , I .
I
pij = p+j
j = 1, . . . , J .
j=1
Es gilt
I
i=1
pi+ = 1.
Randverteilung von Y Analog erhalten wir P (Y = yj ) =
i=1
J Hier gilt j=1 p+j = 1. Die gemeinsame Verteilung legt also die (Rand-) Verteilungen der beiden Variablen X und Y fest. Die Umkehrung gilt im allgemeinen nicht, wie wir in Beispiel 3.7.1 demonstrieren werden. Analog zur bedingten Wahrscheinlichkeit lassen sich auch bedingte Verteilungen definieren. Bedingte Verteilung von X gegeben Y = yj Mit der Definition der gemeinsamen Verteilung und der Randverteilung ergibt sich f¨ ur die bedingte Verteilung von X gegeben Y = yj P (X = xi |Y = yj ) = pi|j =
pij p+j
i = 1, . . . , I .
Bedingte Verteilung von Y gegeben X = xi Analog zur bedingten Verteilung von X gegeben Y = yj erhalten wir P (Y = yj |X = xi ) = pj|i =
pij pi+
j = 1, . . . , J .
Die bedingten Verteilungen spielen insbesondere bei der Definition der Unabh¨angigkeit eine wichtige Rolle, wie wir in Kapitel 11 noch sehen werden. Die gemeinsame Verteilung und die Randverteilungen lassen sich in einer sogenannten Kontingenztafel f¨ ur Wahrscheinlichkeiten zusammenfassen. Die gemeinsame Verteilung steht als Matrix mit Elementen pij im Inneren der Kontingenztafel, die Randverteilung von X bildet den rechten Rand, die Randverteilung von Y den unteren Rand.
3.7 Zweidimensionale Zufallsvariablen
Y
X
1 2 .. . I
1 p11 p21 .. .
2 p12 p22
... ... ...
J p1J p2J
pI1 p+1
pI2 p+2
... ...
pIJ p+J
59
p1+ p2+ .. . pI+ 1
Beispiel 3.7.1. In einem Zufallsexperiment werde zun¨achst eine M¨ unze geworfen und anschließend unabh¨ angig davon ein W¨ urfel. Damit erh¨alt man die zweidimensionale Zufallsvariable (X Ergebnis des M¨ unzwurfes“, Y Au” ” genzahl beim W¨ urfeln“), wobei X = 1 bei Wappen“ und X = 2 bei Zahl“ ” ” ist. Die gemeinsame Verteilung ergibt sich aufgrund der Unabh¨angigkeit als Produkt der beiden Randverteilungen. Die gemeinsame Verteilung und die Randverteilungen sind in der Kontingenztafel (Tabelle 3.2) dargestellt. Tabelle 3.2. Kontingenztafel bei Unabh¨ angigkeit von M¨ unz- und W¨ urfelwurf Y X
1 2 p+i
1 1/12 1/12 1/6
2 1/12 1/12 1/6
3 1/12 1/12 1/6
4 1/12 1/12 1/6
5 1/12 1/12 1/6
6 1/12 1/12 1/6
pi+ 1/2 1/2
Tabelle 3.3. Kontingenztafel bei Abh¨ angigkeit von M¨ unz- und W¨ urfelwurf Y X
1 2 p+j
1 2/12 0 1/6
2 2/12 0 1/6
3 2/12 0 1/6
4 0 2/12 1/6
5 0 2/12 1/6
6 0 2/12 1/6
pi+ 1/2 1/2
Ver¨andert man das Zufallsexperiment in Abh¨angigkeit vom Ergebnis des M¨ unzwurfs dahingehend, dass bei Wappen“ die Zahlen 4 bis 6 durch die ” Zahlen 1 bis 3 auf dem W¨ urfel ersetzt werden und bei Zahl“ die Zahlen 1 ” bis 3 durch die Zahlen 4 bis 6, so erh¨ alt man die Tabelle 3.3 mit unver¨anderten Randverteilungen. Wie man sieht (vgl. Definition 3.4.2), sind dann die beiden Zufallsvariablen X und Y nicht mehr unabh¨ angig, da z.B. P (X = 1, Y = 4) = 0 = 1/2 · 1/6 = P (X = 1) · P (Y = 4) gilt. 3.7.2 Zweidimensionale stetige Zufallsvariablen Analog zur Definition der zweidimensionalen diskreten Zufallsvariablen geben wir folgende Definition.
60
3. Zuf¨ allige Variablen
Definition 3.7.1. Eine zweidimensionale zuf¨allige Variable (oder ein Zufallsvektor) (X, Y ) heißt stetig, falls es eine nichtnegative reelle Funktion fXY (x, y) gibt, so dass
y x P (X ≤ x, Y ≤ y) = fXY (x, y) dxdy (3.40) −∞
−∞
erf¨ ullt ist. Die Funktion FXY heißt gemeinsame Verteilungsfunktion, fXY (x, y) heißt die gemeinsame Dichte von (X, Y ). Mit der gemeinsamen Dichte fXY l¨asst sich – analog zur Bestimmung der Wahrscheinlichkeitsmasse von Intervallen [a, b] bei eindimensionalen Zufallsvariablen – die Wahrscheinlichkeitsmasse f¨ ur beliebige Rechtecke mit den Eckpunkten (x1 , y1 ), (x1 , y2 ), (x2 , y1 ), (x2 , y2 ) (vgl. Abbildung 3.10) bestimmen:
y2 x2 fXY (x, y) dxdy . P (x1 ≤ X ≤ x2 , y1 ≤ Y ≤ y2 ) = y1
x1
y2
y1 x1
x2
Abb. 3.10. Menge aller Punkte (X, Y ) mit (x1 ≤ X ≤ x2 , y1 ≤ Y ≤ y2 )
Analog zum diskreten Fall definiert man die beiden Randdichten
∞ fX (x) = fXY (x, y)dy , −∞
∞ fY (y) = fXY (x, y)dx , −∞
die dann die Randverteilungsfunktionen bestimmen:
x FX (x) = fX (t)dt , −∞
y FY (y) = fY (t)dt . −∞
3.7 Zweidimensionale Zufallsvariablen
61
Damit ist Definition 3.4.2 ¨ aquivalent mit: Zwei stetige Zufallsvariablen X und Y heißen unabh¨ angig genau dann, wenn fXY (x, y) = fX (x)fY (y)
(3.41)
f¨ ur alle x, y gilt. ¨ Die Ubertragung der bedingten Verteilung f¨ uhrt zum Begriff der bedingten Dichte f (x, y) f (x, y) und f (y|x) = f (x|y) = f (y) f (x) Analog lassen sich auch bedingte Verteilungsfunktionen definieren. Wir wollen dies jedoch hier nicht weiter vertiefen und verweisen an dieser Stelle auf Pruscha (1996) und Bauer (1991). 3.7.3 Momente von zweidimensionalen Zufallsvariablen Die zweidimensionale Zufallsvariable (X, Y ) mit der gemeinsamen Dichte fXY (x, y) im stetigen Fall bzw. mit der gemeinsamen Wahrscheinlichkeitsfunktion pij , i = 1, . . . , I, j = 1, . . . , J im diskreten Fall hat die jeweiligen Erwartungswerte und Varianzen der Randverteilungen von X bzw. Y :
Es ist also z.B. E(X) =
E(X) = μX ,
2 , Var(X) = σX
E(Y ) = μY ,
Var(Y ) = σY2 .
∞
−∞
∞
xfXY (x, y)dydx =
−∞
bzw. E(X) =
∞
xfX (x)dx
−∞
I J i=1 j=1
xi pij =
I
xi pi+
i=1
im diskreten Fall. Als Parameter der zweidimensionalen Verteilung definieren wir die Kovarianz von X und Y, die als Basis f¨ ur ein Maß (Korrelationskoeffizient) f¨ ur den linearen Zusammenhang von X und Y dient (vgl. (3.45)). Definition 3.7.2. Die Kovarianz von X und Y ist definiert als Cov(X, Y ) = E[(X − E(X))(Y − E(Y ))] . Die Erwartungswerte, Varianzen und die Kovarianz einer zweidimensionalen Verteilung faßt man zusammen zum Vektor der Erwartungswerte X E(X) μX E = = μY Y E(Y ) und zur Kovarianzmatrix 2 X σX Cov(X, Y ) = V . Y Cov(Y, X) σY2
62
3. Zuf¨ allige Variablen
Eigenschaften der Kovarianz Die Kovarianz ist symmetrisch in X und Y : Cov(X, Y ) = Cov(Y, X) . Ist speziell Y = X, so gilt Cov(X, X) = Var(X). Da der Erwartungswert ein linearer Operator ist (vgl. (3.18)), gilt Cov(X, Y ) = E[XY − E(X)Y − X E(Y ) + E(X) E(Y )] = E(XY ) − E(X) E(Y ) .
Dabei ist im stetigen Fall E(XY ) =
∞ −∞
∞
(3.42)
xyf (x, y)dxdy
−∞
bzw. im diskreten Fall E(XY ) =
I J
xi yj pij .
i=1 j=1
Sind X und Y unabh¨ angig, so gilt mit (3.41) E(XY ) = E(X) E(Y ) = μX μY und damit (vgl. (3.42)) Cov(X, Y ) = 0 .
(3.43)
Sind a, b, c, d beliebige reelle Zahlen, so gilt Cov(aX + b, cY + d) = ac Cov(X, Y ) . Theorem 3.7.1 (Additionssatz f¨ ur die Varianz). F¨ ur beliebige Zufallsvariablen X und Y gilt Var(X ± Y ) = Var(X) + Var(Y ) ± 2 Cov(X, Y ) . Beweis: Unter Verwendung der Definition der Varianz in (3.21), der Additivit¨at des Erwartungswerts und der binomischen Formel erhalten wir (wir bezeichnen wieder E(X) und E(Y ) mit μX bzw. μY ) Var(X ± Y ) = E[(X ± Y ) − E(X ± Y )]2 = E[(X − μX ) ± (Y − μY )]2
= E(X − μX )2 + E(Y − μY )2 ± 2 E(X − μX )(Y − μY ) = Var(X) + Var(Y ) ± 2 Cov(X, Y ) .
Sind X und Y unabh¨ angig, so gilt nach (3.43) Cov(X, Y ) = 0 und damit Var(X ± Y ) = Var(X) + Var(Y ) .
(3.44)
Die Umkehrung dieser Aussage gilt im allgemeinen nicht. Gleichung (3.44) gilt analog f¨ ur mehr als zwei unabh¨ angige Zufallsvariablen.
3.7 Zweidimensionale Zufallsvariablen
63
3.7.4 Korrelationskoeffizient Auf der Basis der Kovarianz definieren wir als normiertes Maß f¨ ur die (lineare) Abh¨angigkeit zwischen zwei Zufallsvariablen X und Y den Korrelationskoeffizienten. Definition 3.7.3. Der Korrelationskoeffizient von X und Y ist definiert durch Cov(X, Y ) . (3.45) ρ(X, Y ) = Var(X) Var(Y )
Es gilt stets −1 ≤ ρ(X, Y ) ≤ 1. Ist ρ(X, Y ) = 0, so heißen X und Y unkorreliert. Im Fall einer exakten linearen Abh¨angigkeit zwischen X und Y , d.h. im Fall von Y = aX + b mit a = 0, folgt Cov(X, Y ) = E[(X − μX )(Y − μY )]
= a E[(X − μX )(X − μX )] , = a Var(X) ,
Var(Y ) = a2 Var(X)
[vgl. (3.23)]
und damit im Fall a > 0 a Var(X) a ρ(X, Y ) = = =1. 2 |a| a Var(X) Var(X)
Im Fall einer exakten linearen Abh¨ angigkeit Y = aX + b mit a < 0 folgt analog ρ(X, Y ) = −1. Theorem 3.7.2. Sind X und Y unabh¨angig, so sind sie auch unkorreliert. Beweis: Seien X und Y unabh¨ angig, so gilt nach (3.43) Cov(X, Y ) = 0, so dass ρ(X, Y ) = 0 folgt. Anmerkung. Die Umkehrung gilt im allgemeinen nicht. Falls X und Y unkorreliert sind, so kann dennoch zwischen ihnen eine Abh¨angigkeit bestehen, die nicht linear ist.
64
3. Zuf¨ allige Variablen
3.8 Aufgaben und Kontrollfragen Aufgabe 3.1: Eine stetige Zufallsvariable X besitze folgende Verteilungsfunktion ⎧ f¨ ur x < 2 ⎨0 ur 2 ≤ x ≤ 4 F (x) = − 14 x2 + 2x − 3 f¨ ⎩ 1 f¨ ur x > 4 .
a) Man bestimme die Dichtefunktion der Zufallsvariablen X. b) Man bestimme den Erwartungswert E(X) und die Varianz Var(X). Aufgabe 3.2: Gegeben sei die Funktion 2x − 4 f¨ ur 2≤x≤3 f (x) = 0 sonst . a) Zeigen Sie, dass f (x) eine Dichtefunktion ist. b) Ermitteln Sie die zugeh¨ orige Verteilungsfunktion. Aufgabe 3.3: a) X sei eine stetige Zufallsvariable mit folgender Dichtefunktion: cx f¨ ur 1≤x≤3 f (x) = 0 sonst .
F¨ ur welchen Wert der Konstanten c ist die oben genannte Funktion tats¨achlich eine korrekte Dichtefunktion? b) Setzen Sie den entsprechenden Wert f¨ ur c ein und bestimmen Sie P (X ≥ 2). Aufgabe 3.4: X sei eine stetige Zufallsvariable mit folgender Verteilungsfunktion: ⎧ f¨ ur x < 3 ⎨0 f¨ ur 3 ≤ x ≤ 8 F (x) = x−3 5 ⎩ 1 f¨ ur x > 8 .
a) Bestimmen Sie die Dichtefunktion von X. b) Welchen Wert besitzt P (X = 5)? c) Berechnen Sie P (5 ≤ X ≤ 7).
Aufgabe 3.5: Von einem gef¨ alschten W¨ urfel seien folgende Werte f¨ ur die Wahrscheinlichkeitsfunktion der Zufallsvariable X Augenzahl beim einma” ligen W¨ urfeln“ bekannt: 1 9 1 P (X = 2) = 9 1 P (X = 3) = 9
P (X = 1) =
3.8 Aufgaben und Kontrollfragen
65
2 9 1 P (X = 5) = 9 3 P (X = 6) = 9 Bestimmen Sie den Erwartungswert und die Varianz von X sowie den Erwartungswert der Zufallsvariablen Y = X1 . Vergleichen Sie die beiden Erwartungswerte. Aufgabe 3.6: Eine diskrete Zufallsvariable X kann nur die Werte 1, 3, 5, 7 ¨ annehmen. Uber X seien folgende Angaben bekannt: P (X = 4) =
k 1 3 5 7
P (X ≤ k) 0.1 0.5 0.7 1
Bestimmen Sie den Erwartungswert und die Varianz von X sowie den Erwartungswert der Zufallsvariablen X12 . Aufgabe 3.7: Ein roter und ein blauer W¨ urfel (ideale W¨ urfel) werden gleichzeitig geworfen. Die Zufallsvariable X bezeichne die Differenz zwischen der Augenzahl des blauen W¨ urfels und derjenigen des roten W¨ urfels, die Zufallsvariable Y die Summe der beiden Augenzahlen. a) Man bestimme die Wahrscheinlichkeits- und Verteilungsfunktion von X. b) Man berechne Erwartungswert und Varianz der Zufallsvariablen X. c) Berechnen Sie die Wahrscheinlichkeit daf¨ ur, dass die Summe der Augenzahlen des blauen und des roten W¨ urfels - mindestens 3 - h¨ochstens 7 - h¨ochstens 11 und mindestens 4 betr¨ agt. Aufgabe 3.8: Eine Zufallsvariable X heißt symmetrisch um eine Konstante c verteilt, falls f (c − x) = f (c + x) f¨ ur alle x gilt. Zeigen Sie, dass eine um c symmetrisch verteilte Zufallsvariable den Erwartungswert c besitzt: E(X) = c. Bemerkung: Wir setzen dabei voraus, dass der Erwartungswert von X existiert. Aufgabe 3.9: Sei X eine beliebige Zufallsvariable, die nur Werte gr¨oßer oder gleich Null annimmt, d.h. X ≥ 0. Zeigen Sie, dass dann E(X) ≥ 0 gilt. Aufgabe 3.10: Von einer stetigen Zufallsvariablen X sei nur bekannt, dass sie den Erwartungswert 15 und die Varianz 4 besitzt. a) Wie groß ist P (10 ≤ X ≤ 20) mindestens? b) Bestimmen Sie das kleinste, symmetrisch um 15 gelegene Intervall der Form [15 − c, 15 + c], in welches mit einer Wahrscheinlichkeit von mindestens 0.9 die Werte von X fallen.
66
3. Zuf¨ allige Variablen
Aufgabe 3.11: a) Eine symmetrische M¨ unze wird viermal geworfen. Geben Sie die Wahrscheinlichkeiten f¨ ur folgende Ereignisse an: A: Es tritt genau einmal Wappen auf“. ” B: Es tritt mindestens zweimal Wappen auf“. ” C: Es tritt h¨ ochstens einmal Wappen auf“. ” b) Wie oft m¨ ußte die M¨ unze geworfen werden, um mit einer Wahrscheinlichkeit von mehr als 0.9 mindestens einmal Wappen zu erhalten? Aufgabe 3.12: Wir betrachten im Folgenden Telefongespr¨ache im Stadtbereich, welche h¨ochstens 8 Minuten dauern und im Zeitraum von 9 bis 18 Uhr stattfinden. Bis zum 31.12.95 kostete ein solches Telefongespr¨ach 23 Pfennige. Zum 1.1.96 wurde die Geb¨ uhrenstruktur ge¨andert: Im Stadtbereich kostet ein Gespr¨ach von bis zu 90 Sekunden Dauer nun 12 Pfennige, jeder weitere angefangene Zeittakt von 90 Sekunden kostet weitere 12 Pfennige. Die Wahrscheinlichkeitsverteilung der jetzigen Kosten X (in Pfennigen) f¨ ur ein solches Gespr¨ ach von h¨ ochstens 8 Minuten Dauer sei gegeben durch die folgende Tabelle: k P (X = k)
12
24
36
48
60
72
1 2
1 4
1 16
1 12
1 12
1 48
a) Berechnen Sie den Erwartungswert und die Varianz der Verteilung der jetzigen Kosten X eines solchen Gespr¨ aches. b) Ermitteln Sie die relative Preis¨ anderung f¨ ur ein solches Telefongespr¨ach, ¨ indem Sie die erwarteten Kosten vor und nach der Anderung der Geb¨ uhrenstruktur vergleichen. Die Dauer eines solchen Telefongespr¨ achs (in Sekunden) sei ausgedr¨ uckt durch eine Zufallsgr¨ oße Y . c) Bestimmen Sie die folgenden Wahrscheinlichkeiten P (Y ≤ 90) und P (Y > 180) d) Kann die erwartete Dauer E(Y ) eines solchen Telefongespr¨achs aus den erwarteten Kosten E(X) direkt abgeleitet werden? Begr¨ unden Sie Ihre Antwort. Aufgabe 3.13: X und Y seien zwei Zufallsvariablen in einem Zufallsexperiment, bei welchem nur 6 Ereignisse A1 , A2 , A3 , A4 , A5 , A6 eintreten k¨onnen. i P (Ai ) 1 0.3 2 0.1 3 0.1 4 0.2 5 0.2 6 0.1
Xi −1 2 2 −1 −1 2
Yi 0 2 0 1 2 1
3.8 Aufgaben und Kontrollfragen
67
a) Bestimmen Sie die gemeinsame Wahrscheinlichkeitsverteilung von X und Y sowie die jeweiligen Randverteilungen. b) Sind die beiden Zufallsvariablen unabh¨ angig? c) Bestimmen Sie die Wahrscheinlichkeitsverteilung von U = X + Y . Vergleichen Sie E(U ) mit E(X)+E(Y ) sowie Var(U ) mit Var(X)+Var(Y ). Aufgabe 3.14: Eine Urne enth¨ alt 8 Kugeln: 4 weiße, 3 schwarze und 1 rote. Die zwei Zufallsvariablen X und Y seien wie folgt definiert: ⎧ schwarze Kugel ⎨1 rote Kugel X = 2 falls im ersten Zug eine ⎩ 3 weiße Kugel ⎧ schwarze Kugel ⎨1 rote Kugel Y = 2 falls im zweiten Zug eine ⎩ 3 weiße Kugel gezogen wird. Beide Kugeln werden nacheinander und zuf¨allig gezogen.
a) F¨ ur welche Ziehungsart sind X und Y unabh¨angig, f¨ ur welche abh¨angig ? b) Bestimmen Sie f¨ ur den Fall, dass X und Y abh¨angig sind, die gemeinsame Wahrscheinlichkeitsverteilung, die Erwartungswerte E(X), E(Y ) sowie den Korrelationskoeffizienten ρ(X, Y ). Aufgabe 3.15: Zu einem Zufallsexperiment, bei dem sechs Ereignisse mit derselben Wahrscheinlichkeit eintreten k¨ onnen, geh¨oren zwei Zufallsvariablen X und Y . Pr¨ ufen Sie mit Hilfe der folgenden Tabelle, ob X und Y unkorreliert und unabh¨angig sind. i P (ωi ) X(ωi ) Y (ωi ) 1 1/6 −1 −2 2 1/6 1 0 3 1/6 −1 1 1 2 4 1/6 5 1/6 −1 1 6 1/6 1 −2 Aufgabe 3.16: Eine faire M¨ unze wird dreimal hintereinander geworfen. F¨allt dreimal KOPF, so erh¨ alt Spieler A vom Spieler B 6 Euro. F¨allt zweimal KOPF, so erh¨alt Spieler A vom Spieler B 4 Euro. Der Spieler A zahlt an den Spieler B 6 Euro, wenn einmal KOPF f¨ allt. Erscheint dreimal ZAHL, so braucht keiner der Spieler zu zahlen. Sei X der Gewinn bzw. Verlust des Spielers A. a) b) c) d)
Welche Werte kann X annehmen? Bestimmen Sie die Wahrscheinlichkeitsfunktion von X. Berechnen und zeichnen Sie die Verteilungsfunktion von X. Bestimmen Sie den erwarteten Gewinn von A.
4. Diskrete und stetige Standardverteilungen
4.1 Einleitung Wir haben in Kapitel 3 ganz allgemein Verteilungen von diskreten bzw. stetigen Zufallsvariablen und ihre Eigenschaften bzw. Parameter behandelt, ohne die Zufallsvariablen n¨ aher zu spezifizieren. Im Folgenden wollen wir die wesentlichen diskreten und stetigen Verteilungen vorstellen.
4.2 Spezielle diskrete Verteilungen 4.2.1 Die diskrete Gleichverteilung Die diskrete Gleichverteilung ist ebenso wie ihr stetiges Analogon eine der grundlegenden Verteilungen u ¨ berhaupt. Die diskrete Gleichverteilung geht von der Annahme aus, dass alle Auspr¨ agungen einer Zufallsvariablen gleichwahrscheinlich sind. Damit ist auch schon die folgende Definition gegeben. Definition 4.2.1. Eine diskrete Zufallsvariable X mit den Auspr¨agungen ur ihre Wahrscheinlichkeitsfunktion x1 , . . . , xk heißt gleichverteilt, wenn f¨ P (X = xi ) =
1 , k
∀i = 1, . . . , k
(4.1)
gilt. Diese Definition erinnert sehr stark an die Laplacesche Wahrscheinlichkeitsdefinition (2.3), bei der alle Elementarereignisse als gleichwahrscheinlich angesehen werden. Mit Hilfe der bekannten Rechenregeln f¨ ur den Erwartungswert und die Varianz einer Zufallsvariablen erhalten wir f¨ ur die diskrete Gleichverteilung mit den speziellen Auspr¨ agungen xi = i (i = 1, . . . , k) k+1 , 2 1 2 Var(X) = (k − 1) . 12 E(X) =
(4.2) (4.3)
70
4. Diskrete und stetige Standardverteilungen
Beispiel 4.2.1 (W¨ urfelwurf ). Wirft man einen unverf¨alschten W¨ urfel, so sind die Ergebnisse ‘1’ bis ‘6’ alle gleichwahrscheinlich, und damit ist die Zufallsvariable X Augenzahl beim einmaligen W¨ urfelwurf“ gleichverteilt mit der ” Wahrscheinlichkeitsfunktion P (X = i) =
1 , 6
∀i = 1, . . . , 6 .
F¨ ur den Erwartungswert und die Varianz von X gilt dann 6+1 = 3.5, 2 1 2 Var(X) = (6 − 1) = 35/12 . 12 E(X) =
F (x) 6/6 5/6 4/6 3/6 2/6 1/6
pi 1/6
x 1
2
3
4
5
6
• ◦ 1
• ◦ 2
• ◦
• ◦
• ◦
• ◦
x 3
4
5
6
Abb. 4.1. Wahrscheinlichkeitsfunktion und Verteilungsfunktion einer diskreten Gleichverteilung (einfacher W¨ urfelwurf)
4.2.2 Die Einpunktverteilung Definition 4.2.2. Eine Zufallsvariable X hat die Einpunktverteilung im Punkt a, wenn sie nur eine Auspr¨agung a mit P (X = a) = 1 besitzt, d.h. wenn 0 x
4.2 Spezielle diskrete Verteilungen
71
kann. Die Zufallsvariable wird durch ihre beiden m¨oglichen Werte und die zugeh¨origen Wahrscheinlichkeiten beschrieben: P (X = x1 ) = p ,
P (X = x2 ) = 1 − p ,
(0 < p < 1) .
(4.4)
Wie bereits erw¨ ahnt, arbeitet man bei Klassifizierungsproblemen mit zwei m¨oglichen Klassen (Alter u ¨ber 50/unter 50, Geschlecht m¨annlich/weiblich) h¨aufig standardm¨ aßig mit der Verschl¨ usselung x1 = 1 und x2 = 0. Man nennt eine Zufallsvariable X mit diesen Werten auch Indikatorvariable X = 1A . F¨ ur X = 1A hat (4.4) die Gestalt P (X = 1) = p ,
P (X = 0) = 1 − p ,
(0 < p < 1) .
(4.5)
Daraus resultiert die bekannte Null-Eins-Verteilung. Definition 4.2.3. Eine Zufallsvariable X heißt Null-Eins-verteilt, wenn sie die Wahrscheinlichkeitsfunktion p f¨ ur x = 1 P (X = x) = 1 − p f¨ ur x = 0 besitzt. Die Verteilungsfunktion der Null-Eins-Verteilung hat damit die Gestalt ⎧ ur x < 0 ⎨ 0 f¨ ur 0 ≤ x < 1 F (x) = 1 − p f¨ ⎩ 1 f¨ ur x ≥ 1 .
Wir berechnen den Erwartungswert der Null-Eins-Verteilung (vgl. (3.14)) E(X) = 1 · p + 0 · (1 − p) = p
(4.6)
und die Varianz (vgl. (3.21)) Var(X) = (1 − p)2 p + (0 − p)2 (1 − p) = p(1 − p) .
(4.7)
Die Kenntnis der Wahrscheinlichkeit p gen¨ ugt also zur vollst¨andigen Beschreibung der Null-Eins-Verteilung. Beispiel 4.2.2. Eine Urne mit Lotterielosen enthalte n = 500 Lose. Unter den 500 Losen befinden sich 400 ‘Nieten’-Lose und 100 ‘Gewinn’-Lose. Aus der Urne wird nun zuf¨ allig ein Los ausgew¨ ahlt. Wir setzen X:
¨ zuf¨allige Anzahl der Nieten bei Uberpr¨ ufung eines Loses“. ”
Die Zufallsvariable X kann damit nur die Werte X = 1 (Los ist eine Niete) oder X = 0 (Los ist ein Gewinn) annehmen. Nach der klassischen Definition
72
4. Diskrete und stetige Standardverteilungen
der Wahrscheinlichkeit auf der Basis der relativen H¨aufigkeiten erhalten wir die beiden Einzelwahrscheinlichkeiten P (X = 1) =
400 = 0.8 = p 500
und
P (X = 0) =
100 = 0.2 = 1 − p . 500
Die Variable X hat nach (4.6) den Erwartungswert E(X) = 0.8 und nach (4.7) die Varianz Var(X) = 0.8 · (1 − 0.8) = 0.16 . F (x) •
1.0 pi 0.8 0.2
0.2 0
• ◦ 0
x 1
◦
x
1
Abb. 4.2. Wahrscheinlichkeitsfunktion und Verteilungsfunktion einer Null-EinsVerteilung mit p = 0.8
4.2.4 Die hypergeometrische Verteilung Die hypergeometrische Verteilung und die im n¨achsten Abschnitt zu behandelnde Binomialverteilung k¨ onnen als Verallgemeinerungen der Null-EinsVerteilung angesehen werden. Da dieser Zusammenhang jedoch insbesondere bei der hypergeometrischen Verteilung nicht trivial ist, benutzen wir zur Herleitung der hypergeometrischen Verteilung das bereits in Kapitel 1 verwendete Urnenmodell (vgl. auch R¨ uger, 1996; Schlittgen, 1993). In einer Urne befinden sich M N −M N
weiße Kugeln schwarze Kugeln Kugeln insgesamt.
Man zieht zuf¨allig und ohne Zur¨ ucklegen n Kugeln. Wir definieren die folgende Zufallsvariable X : Anzahl der weißen Kugeln unter den n gezogenen Kugeln“. ” Hierbei gilt:
4.2 Spezielle diskrete Verteilungen
73
• Der Maximalwert von X ist entweder n (falls n ≤ M ) oder M (falls n > M ), also gleich min(n, M ). • Der Minimalwert von X ist entweder 0 (falls n ≤ N −M ) oder n−(N −M ) (falls n > N − M ), also insgesamt gleich max(0, n − (N − M )). • Die Reihenfolge der Ziehung spielt keine Rolle. • Die Anzahl der m¨ oglichen Ziehungen vom Umfang n aus N Kugeln beim Ziehen ohne Zur¨ ucklegen berechnet sich als N n (Kombination ohne Wiederholung ohne Ber¨ ucksichtigung der Reihenfolge). Seien nun x weiße Kugeln gezogen worden, so gibt es nach (1.5) M oglichx M¨ keiten, diese aus den insgesamt M weißen Kugeln auszuw¨ a hlen und analog N −M M¨ o glichkeiten f¨ u r die Auswahl der (n − x) gezogenen schwarzen Kun−x geln aus den insgesamt N − M schwarzen Kugeln. Damit gilt M N −M x
P (X = x) =
Nn−x
(4.8)
n
f¨ ur x ∈ {max(0, n − (N − M )), . . . , min(n, M )}.
Definition 4.2.4. Die Zufallsvariable X mit der Wahrscheinlichkeitsfunktion (4.8) heißt hypergeometrisch verteilt mit den Parametern n, M, N oder kurz X ∼ H(n, M, N ). F¨ ur den Erwartungswert und die Varianz von X gilt M , N M N −n M Var(X) = n 1− . N N N −1 E(X) = n
(4.9) (4.10)
Beispiel 4.2.3. In einer Urne seien N = 10 Kugeln, davon M = 6 weiße Kugeln und N − M = 4 schwarze Kugeln. Sei X: Anzahl der weißen Kugeln ” unter den n gezogenen Kugeln“. Dann gilt bei einer Ziehung ohne Zur¨ ucklegen vom Umfang n = 5: x ∈ {max(0, 5 − (10 − 6)), . . . , min(5, 6)} ∈ {1, 2, 3, 4, 5} . Wir erhalten 64
P (X = 1) = 1 104 = 5 6 4
P (X = 2) = 2 103 = 5 6 4
P (X = 3) = 3102 = 5
6·1 10! 5!5! 6! 2!4!
=
6 = 0.024 , 252
·4 60 = = 0.238 , 252 252
6! 3!3!
4! · 2!2! 120 = = 0.476 , 252 252
74
4. Diskrete und stetige Standardverteilungen
64
P (X = 4) = 4 101 = 5 6 4
P (X = 5) = 5 100 = 5
6! 4!2!
·4 60 = = 0.238 , 252 252
6·1 6 = = 0.024 , 252 252
F¨ ur den Erwartungswert erh¨ alt man E(X) = 5 ·
6 =3 10
und f¨ ur die Varianz 6 6 10 − 5 Var(X) = 5 · · 1− 10 10 10 − 1 2 = . 3
F (x) •
0.976 pi
•
0.738
0.476 0.238
0.262
0.024
x 0.024 0
1
2
3
4
5
0
•◦ 1
•
◦
◦ 2
3
•◦
◦
x 4
5
Abb. 4.3. Wahrscheinlichkeitsfunktion und Verteilungsfunktion der H(5,6,10)Verteilung
4.2.5 Die Binomialverteilung Beobachtet man in einem Zufallsexperiment ob ein bestimmtes Ereignis A eintritt oder nicht und wiederholt dieses Experiment n-mal unabh¨angig, so ist die Frage interessant, wie oft A in diesen n Wiederholungen eingetreten ist. Damit erh¨alt man die Zufallsvariable X:
Anzahl der eingetretenen Ereignisse A bei n Wiederholungen“. ”
Beispiele. • Beim M¨ unzwurf sei das interessierende Ereignis A = Wappen“. Beim ” zehnmaligen Werfen besitzt die Zufallsvariable X die m¨oglichen Auspr¨agungen k = 0, 1, . . . , 10.
4.2 Spezielle diskrete Verteilungen
75
¨ • In der Qualit¨atskontrolle entnimmt man bei der Uberpr¨ ufung einer Lieferung von Gl¨ uhbirnen eine zuf¨ allige Auswahl von n = 20 Gl¨ uhbirnen und erh¨alt die Zufallsvariable X Anzahl der funktionst¨ uchtigen Gl¨ uhbirnen“ ” mit den Auspr¨agungen k = 0, 1, . . . , 20. Ein alternativer Zugang zur Binomialverteilung bietet sich wiederum u ¨ ber unser Urnenmodell. In der Urne befinden sich M weiße und N − M schwarze Kugeln. Es werden n Kugeln zuf¨ allig aus der Urne gezogen, jedoch im Gegensatz zum Urnenmodell der hypergeometrischen Verteilung wird jede gezogene Kugel wieder in die Urne zur¨ uckgelegt (Ziehen mit Zur¨ ucklegen). Gesucht ist die Wahrscheinlichkeit daf¨ ur, dass X = k (k = 0, 1, . . . n) ist, d.h., dass bei n Wiederholungen k-mal A und (n − k)-mal A¯ auftritt. Dabei ist es gleichg¨ ultig, bei welchen der n Versuche A oder A¯ auftritt, registriert wird nur die Gesamtzahl der Ergebnisse mit A. Diese Anzahl ist gleich dem Binomialkoeffizienten nk (vgl. Abschnitt 1.4.1). Die Wahrscheinlichkeit f¨ ur k-mal A und (n − k)-mal A¯ in n Wiederholungen ist dann n k (k = 0, 1, . . . , n) . (4.11) P (X = k) = p (1 − p)n−k k Dies folgt aus der Unabh¨ angigkeit der n Zufallsexperimente: P (A1 ∩ . . . ∩ Ak ∩ A¯k+1 ∩ . . . ∩ A¯n ) = pk (1 − p)n−k k
n−k
¯ deren und der Gleichwertigkeit aller n-Tupel mit k-mal A und (n − k)-mal A, Anzahl gleich nk ist. Definition 4.2.5. Eine diskrete Zufallsvariable X mit der Wahrscheinlichkeitsfunktion (4.11) heißt Binomialvariable oder binomialverteilt mit den Parametern n und p, kurz X ∼ B(n; p).
F¨ ur zwei binomialverteilte Zufallsvariable gilt der folgende Additionssatz: Theorem 4.2.1. Seien X ∼ B(n; p) und Y ∼ B(m; p) und sind X und Y unabh¨angig, so gilt X + Y ∼ B(n + m; p) . (4.12) Anmerkung. Der Satz 4.2.1 l¨ asst sich nat¨ urlich auch auf mehr als zwei unabh¨angige Zufallsvariablen verallgemeinern. Seien Xi unabh¨a ngige B(1; p)n verteilte Zufallsvariablen, so ist die Zufallsvariable X = i=1 Xi nach (4.12) B(n; p)-verteilt. Damit wird der Zusammenhang zwischen Null-EinsVerteilung und Binomialverteilung deutlich, d.h., die Binomialverteilung kann als Summe von identischen, unabh¨ angigen Null-Eins-Verteilungen aufgefaßt werden.
76
4. Diskrete und stetige Standardverteilungen
F¨ ur den Erwartungswert und die Varianz einer binomialverteilten Zufallsvariablen X gilt E(X) = np ,
(4.13)
Var(X) = np(1 − p) .
(4.14)
¨ Dies ergibt sich durch folgende Uberlegungen: Seien Xi (i = 1, . . . , n) unabh¨angige B(1; p)-verteilte Zufallsvariablen, die jeweils eine Wiederholung des Zufallsexperiments asentieren. Dann l¨asst sich die Zufallsvariable X n repr¨ schreiben als X = i=1 Xi . Da der Erwartungswert additiv ist, gilt sofort nach (3.18) n n n E(X) = E( Xi ) = E(Xi ) = p = np . i=1
i=1
i=1
Da die Xi unabh¨ angig sind, gilt (vgl. (3.27)) n n n Var(X) = Var( Xi ) = Var(Xi ) = p(1 − p) = np(1 − p) . i=1
i=1
i=1
F¨ ur die Berechnung der Binomialwahrscheinlichkeit P (X = k) stehen Tabellen zur Verf¨ ugung (z.B. Vogel, 1995). F¨ ur hinreichend große Werte von n kann man die Binomial- durch die Normalverteilung approximieren (vgl. Kapitel 5). Anmerkung. Die hypergeometrische Verteilung H(n, M, N ) hat denselben Erwartungswert wie die Binomialverteilung B(n; M N ), aber eine um den Fak−n M kleinere Varianz als die B(n; )-Verteilung. F¨ ur wachsenden Umtor N N −1 N fang N der Grundgesamtheit strebt dieser Faktor, den man als Endlichkeitskorrektur bezeichnet, gegen 1, d.h. f¨ ur Stichproben mit sehr großen Grundgesamtheiten verschwindet der Unterschied zwischen Ziehen ohne Zur¨ ucklegen und Ziehen mit Zur¨ ucklegen. F¨ ur großes N , M , und N − M und im Verh¨altaherung f¨ ur nis dazu kleines n gilt: H(n, M, N ) ≈ B(n, M N ), wobei diese N¨ n ≤ 0.1M und n ≤ 0.1(N − M ) zul¨ assig ist (vgl. Abschnitt 5.4.4.). Beispiel 4.2.4. In einer Urne seien wie in Beispiel 4.2.3 N = 10 Kugeln, davon M = 6 weiße und N − M = 4 schwarze. Wir ziehen – im Gegensatz zu Beispiel 4.2.3 – nun mit Zur¨ ucklegen. Die Zufallsvariable X = Anzahl der ” gezogenen weißen Kugeln bei Ziehen mit Zur¨ ucklegen“ ist binomialverteilt. M ur X ∼ B(5; 0.6) Ziehen wir n = 5 Kugeln, so erhalten wir mit p = N = 0.6 f¨ 5 P (X = 0) = 0.60 (1 − 0.6)5 = 0.010 0 5 P (X = 1) = 0.61 (1 − 0.6)4 = 0.077 1
4.2 Spezielle diskrete Verteilungen
P (X P (X P (X P (X
5 = 2) = 0.62 (1 − 0.6)3 2 5 = 3) = 0.63 (1 − 0.6)2 3 5 = 4) = 0.64 (1 − 0.6)1 4 5 = 5) = 0.65 (1 − 0.6)0 5
77
= 0.230 = 0.346 = 0.259 = 0.078 1.000 .
F¨ ur den Erwartungswert und die Varianz erhalten wir nach (4.13) und (4.14) E(X) = 5 · 0.6 = 3 ,
Var(X) = 5 · 0.6 · (1 − 0.6) = 1.2 . F (x) •
0.922
pi 0.346
•
0.663
• ◦
◦
0.230 •
0.317 0.078
0.087 x 0.010
0.010 0
1
2
3
4
5
• ◦ 0
• ◦ 1
◦
◦ 2
x 3
4
5
Abb. 4.4. Wahrscheinlichkeitsfunktion und Verteilungsfunktion der B(5; 0.6)Verteilung
4.2.6 Die geometrische Verteilung Gegeben sei ein Zufallsexperiment und ein Ereignis A mit P (A) = p, dessen Eintreten als Erfolg aufgefaßt werden kann. Das Zufallsexperiment wird so oft unabh¨angig wiederholt, bis das Ereignis A zum ersten Mal eintritt. Im Gegensatz zur Binomialverteilung, bei der die Anzahl der Erfolge von Interesse ist, interessiert man sich bei der geometrischen Verteilung f¨ ur die Anzahl der notwendigen Versuche, bis man zum ersten Erfolg gelangt. Die entsprechende Zufallsvariable X Anzahl der Versuche, bis zum erstenmal das Ereignis A ” eintritt“ hat die Auspr¨ agungen k = 1, 2, . . . Beispiele. Beispiele f¨ ur derartige Zufallsvariablen X sind • Anzahl der M¨ unzw¨ urfe, bis zum erstenmal ‘Zahl’ erscheint“, ”
78
4. Diskrete und stetige Standardverteilungen
• „Anzahl der notwendigen Lottoziehungen, bis die Zahlenkombination 1, 3, 10, 12, 13, 45 gezogen wird“. Die Wahrscheinlichkeiten f¨ ur jede der k = 1, 2, . . . Auspr¨agungen der Zufallsvariablen X erh¨ alt man durch P (X = k) = p(1 − p)k−1
(4.15)
und damit die nachfolgende Definition. Definition 4.2.6. Eine Zufallsvariable X ist geometrisch verteilt mit dem Parameter p, wenn f¨ ur ihre Wahrscheinlichkeitsfunktion Gleichung (4.15) gilt. F¨ ur den Erwartungswert und die Varianz der geometrischen Verteilung erh¨alt man dann 1 , p 1 1 Var(X) = −1 . p p E(X) =
Anmerkung. Die geometrische Verteilung h¨ angt wieder nur von p ab, die Anzahl der m¨oglichen Realisationen einer geometrisch verteilten Zufallsvariablen ist jedoch im Gegensatz zu den anderen diskreten Verteilungen nicht beschr¨ankt. Beispiel 4.2.5 (M¨ unzwurf ). Eine symmetrische M¨ unze werde solange geworfen, bis zum ersten Mal Zahl“ auftritt. Damit erh¨alt man f¨ ur die Wahr” scheinlichkeitsfunktion P (X = 1) = 0.5 P (X = 2) = 0.5(1 − 0.5) = 0.25
P (X = 3) = 0.5(1 − 0.5)2 = 0.125 P (X = 4) = 0.5(1 − 0.5)3 = 0.0625 ...
F¨ ur den Erwartungswert und die Varianz erh¨ alt man E(X) =
1 = 2, 0.5
(d. h., man ben¨otigt im Mittel 2 W¨ urfe, bis zum ersten Mal Zahl“ auftritt), ” 1 1 Var(X) = − 1 = 2(2 − 1) = 2 . 0.5 0.5
4.2 Spezielle diskrete Verteilungen
79
F (x) pi 0.875 0.75
0.5
0.5 0.25
• •◦ ◦• ◦• • ◦• ◦ • ◦ • ◦ • ◦
0.125 x 1 2 3 4 5 6 7 8 9
◦ 1 2 3 4 5 6 7 8 9
x
Abb. 4.5. Wahrscheinlichkeitsfunktion und Verteilungsfunktion der geometrischen Verteilung mit p = 0.5
4.2.7 Die Poissonverteilung Ausgehend von zuf¨ alligen Ereignissen, die innerhalb eines Kontinuums (einer bestimmten Einheit) auftreten, definieren wir die Zufallsgr¨oße X : Anzahl der Ereignisse innerhalb eines Kontinuums“. ” Das Kontinuum kann dabei sowohl ein Zeitraum (Stunde, Minute usw.) als auch eine Strecke (Meter, Kilometer usw.) oder eine Fl¨ache sein. Beispiele. • • • • • •
Zahl Zahl Zahl Zahl Zahl Zahl
der der der der der der
Staubteile auf einem Kotfl¨ ugel beim Autolackieren, Totgeburten in einer Klinik in einem Jahr, Tippfehler auf einer Schreibmaschinenseite, Unwetter in einem Gebiet, Telefonanrufe in einer Stunde, Ausschussst¨ ucke in einer Produktion.
Im Folgenden beschr¨ anken wir uns auf Zeitintervalle. Dabei gelte: Die Wahrscheinlichkeit f¨ ur das Eintreten eines Ereignisses innerhalb eines Zeitintervalls h¨angt nur von der L¨ ange des Intervalls, nicht jedoch von seiner Lage auf der Zeitachse ab. Die Wahrscheinlichkeit f¨ ur das Eintreten eines Ereignisses wird dann nur von der sogenannten Intensit¨ atsrate λ beeinflusst. Es gelte dar¨ uber hinaus, dass das Eintreten von Ereignissen in disjunkten Teilintervallen des Kontinuums unabh¨ angig voneinander ist. Dies f¨ uhrt zu folgender Definition. Definition 4.2.7. Eine diskrete Zufallsvariable X mit der Wahrscheinlichkeitsfunktion P (X = x) =
λx exp (−λ) x!
(x = 0, 1, 2, . . .)
heißt poissonverteilt mit dem Parameter λ > 0, kurz X ∼ P o(λ).
(4.16)
80
4. Diskrete und stetige Standardverteilungen
Es gilt E(X) = Var(X) = λ. Die Intensit¨atsrate k¨ onnen wir damit interpretieren als die durchschnittliche Anzahl von Ereignissen innerhalb eines Kontinuums. Theorem 4.2.2 (Additionssatz). Sind X ∼ P o(λ1 ) und Y ∼ P o(λ2 ) und sind X und Y unabh¨angig, so gilt X + Y ∼ P o(λ1 + λ2 ) . Beispiel 4.2.6. In einer Autolackiererei werden Kotfl¨ ugel zun¨achst mit einer Grundierung und danach mit einem Deckglanzlack lackiert. Im Durchschnitt werden bei der Grundierung 4 Staubpartikel je Kotfl¨ ugel eingeschlossen (Zufallsvariable X), bei der Deckglanzlackierung 7 Staubpartikel (Zufallsvariable Y ). Wie groß ist die Wahrscheinlichkeit, nach der Grundierung auf einem Kotfl¨ ugel zwei Staubpartikel zu finden? λx exp(−λ) x! 42 = exp(−4) 2! = 0.146525 .
P (X = 2) =
Geht man davon aus, dass die Anzahl der eingeschlossenen Staubpartikel bei der Grundierung und der Deckglanzlackierung voneinander unabh¨angig sind, so findet man z.B. sechs eingeschlossene Staubpartikel auf einem komplett lackierten Kotfl¨ ugel mit einer Wahrscheinlichkeit von (λx + λy )x+y exp −(λx + λy ) (x + y)! 116 = exp(−11) 6! = 0.041095 .
P (X + Y = 6) =
Anmerkung. Die Poissonverteilung wird auch als die Verteilung seltener Ereignisse bezeichnet. Sie steht in engem Zusammenhang mit einer Binomialverteilung, bei der bei großer Anzahl von Wiederholungen die Wahrscheinlichkeit f¨ ur das Eintreten eines Ereignisses sehr klein ist (vgl. Kapitel 5). 4.2.8 Die Multinomialverteilung Im Gegensatz zu den bisherigen Verteilungen betrachten wir nun Zufallsexperimente, bei denen k disjunkte kEreignisse A1 , A2 , . . . , Ak mit den Wahrscheinlichkeiten p1 , p2 , . . . , pk mit i=1 pi = 1 eintreten k¨onnen (d.h., die Ai bilden
4.2 Spezielle diskrete Verteilungen
81
F (x) 0.195
• • •◦ ◦• ◦ • ◦ • ◦
pi
0.147
• ◦
0.629
• ◦
0.433 0.073 0.238 0.092 x 0.018
0.018 0 1 2 3 4 5 6 7 8 9 10
• ◦
• ◦ • ◦ ◦ 0 1 2 3 4 5 6 7 8 9 10
x
Abb. 4.6. Wahrscheinlichkeitsfunktion und Verteilungsfunktion der P o(4)Verteilung
eine vollst¨andige Zerlegung von Ω). Wird der Versuch n-mal unabh¨angig wiederholt, so interessiert die Wahrscheinlichkeit des zuf¨alligen Ereignisses n1 -mal A1 , n2 -mal A2 , . . . , nk -mal Ak
mit
k
ni = n .
i=1
Sei Xi (i = 1, . . . k) die Zufallsvariable Ai beobachtet“ und X = (X1 , . . . , Xk ) ” der k-dimensionale Zufallsvektor. Definition 4.2.8. Der Zufallsvektor X = (X1 , . . . , Xk ) mit der Wahrscheinlichkeitsfunktion P (X1 = n1 , . . . , Xk = nk ) =
n! · pn1 · · · pnk k n1 !n2 ! · · · nk ! 1
(4.17)
heißt multinomialverteilt, kurz X ∼ M (n; p1 , . . . , pk ). Der Erwartungswert von X ist der Vektor E(X) = (E(X1 ), . . . , E(Xk )) = (np1 , . . . , npk ) . Die Kovarianzmatrix V (X) hat die Elemente npi (1 − pi ) f¨ ur i = j Cov(Xi , Xj ) = . −npi pj f¨ ur i = j Beispiel 4.2.7. Eine Urne enthalte 50 Kugeln, davon 25 rote, 15 weiße und 10 schwarze. Wir ziehen mit Zur¨ ucklegen, so dass bei jeder Ziehung die Wahrscheinlichkeit daf¨ ur, dass die Kugel rot ist, gleich p1 = 25 agt. Ana50 = 0.5 betr¨ log gilt f¨ ur die beiden anderen Wahrscheinlichkeiten p2 = 0.3 und p3 = 0.2. Wir f¨ uhren n = 4 unabh¨ angige Ziehungen durch. Die Wahrscheinlichkeiten f¨ ur die zuf¨alligen Ereignisse 2 mal rot, 1 mal weiß, 1 mal schwarz“, 4 mal ” ”
82
4. Diskrete und stetige Standardverteilungen
rot, kein mal weiß, kein mal schwarz“und 3 mal rot, 1 mal weiß, kein mal ” schwarz“ sind 4! (0.5)2 (0.3)1 (0.2)1 = 0.18 2!1!1! 4! (0.5)4 = 0.0625 P (X1 = 4, X2 = 0, X3 = 0) = 4!0!0! 4! (0.5)3 · 0.3 = 0.15 . P (X1 = 3, X2 = 1, X3 = 0) = 3!1!0! P (X1 = 2, X2 = 1, X3 = 1) =
F¨ ur den Erwartungswertvektor erh¨ alt man E(X) = (4 · 0.5, 4 · 0.3, 4 · 0.2) = (2, 1.2, 0.8)
und f¨ ur die Kovarianzmatrix ⎛ ⎞ 4 · 0.5 · 0.5 −4 · 0.5 · 0.3 −4 · 0.5 · 0.2 V(X) = ⎝ −4 · 0.3 · 0.5 4 · 0.3 · 0.7 −4 · 0.3 · 0.2 ⎠ −4 · 0.2 · 0.5 −4 · 0.2 · 0.3 4 · 0.2 · 0.8 ⎛ ⎞ 1 −0.6 −0.4 = ⎝ −0.6 0.84 −0.24 ⎠ . −0.4 −0.24 0.64
Anmerkung. F¨ ur k = 2 geht die Multinomialverteilung in die Binomialverteilung u ucklegen. ¨ ber. Es handelt sich um Ziehen mit Zur¨
4.3 Spezielle stetige Verteilungen 4.3.1 Die stetige Gleichverteilung Analog zum diskreten Fall gibt es auch bei stetigen Zufallsvariablen die Gleichverteilung. Dabei lassen sich die f¨ ur den diskreten Fall gemachten Aussagen und Definitionen gr¨ oßtenteils u ¨ bertragen, wenn man die in Kapitel 3 dargestellten Zusammenh¨ ange zwischen diskreten und stetigen Zufallsvariablen ber¨ ucksichtigt. Definition 4.3.1. Eine stetige Zufallsvariable X mit der Dichte 1 f¨ ur a ≤ x ≤ b (a < b) f (x) = b−a 0 sonst heißt (stetig) gleichverteilt auf dem Intervall [a, b]. F¨ ur den Erwartungswert und die Varianz der stetigen Gleichverteilung gilt
4.3 Spezielle stetige Verteilungen
83
a+b , 2 (b − a)2 Var(X) = . 12 E(X) =
Beispiel 4.3.1. In Beispiel 3.4.2 hatten wir bereits eine Zufallsvariable X: Wartezeit in Minuten bis zur n¨ achsten Abfahrt einer S-Bahn“ betrachtet. ” Wir hatten dabei angenommen, dass die S-Bahnlinie im 20-Minuten-Takt f¨ahrt. Die Zufallsvariable X ist also stetig gleichverteilt auf dem Intervall [0, 20]. 1
1/20
0
5
10
15
20
0
5
10
15
20
Abb. 4.7. Dichte- und Verteilungsfunktion der [0, 20]-Gleichverteilung
4.3.2 Die Exponentialverteilung Wir haben in Abschnitt 4.2.6 die geometrische Verteilung behandelt, die die Anzahl der unabh¨ angigen Versuche bis zum Eintreten eines Ereignisses beschreibt. Betrachten wir nun die (stetige) Wartezeit bis zum Eintreten eines Ereignisses. Die Forderung der Unabh¨ angigkeit der einzelnen Versuche wird hier durch folgende Forderung ersetzt: Die weitere Wartezeit ist unabh¨angig ” von der bereits verstrichenen Wartezeit“. Die Exponentialverteilung ist damit das stetige Analogon zur geometrischen Verteilung. Definition 4.3.2. Eine Zufallsvariable X mit der Dichte λ exp(−λx) f¨ ur x ≥ 0 f (x) = 0 sonst
(4.18)
heißt exponentialverteilt mit Parameter λ, kurz X ∼ expo(λ). Anmerkung. Man kann zeigen, dass die Voraussetzung der Unabh¨angigkeit der vergangenen von der zuk¨ unftigen Wartezeit notwendig und hinreichend f¨ ur das Vorliegen einer exponentialverteilten Zufallsvariablen ist. Der Erwartungswert einer exponentialverteilten Zufallsvariablen X ist E(X) =
1 , λ
84
4. Diskrete und stetige Standardverteilungen
f¨ ur die Varianz gilt
1 . λ2 Den Zusammenhang zwischen der Exponentialverteilung (Wartezeit zwischen zwei Ereignissen) und der Poissonverteilung (Anzahl der Ereignisse) dr¨ ucken wir in dem folgenden zentralen Satz aus: Var(X) =
Theorem 4.3.1. Die Anzahl der Ereignisse Y innerhalb eines Kontinuums ist poissonverteilt mit Parameter λ genau dann, wenn die Wartezeit zwischen zwei Ereignissen exponentialverteilt mit Parameter λ ist. Beispiel 4.3.2. Die Zufallsvariable X: Lebensdauer einer Gl¨ uhbirne einer ” Schaufensterbeleuchtung“ sei exponentialverteilt mit Parameter λ = 10. Damit gilt 1 10 1 Var(X) = 2 . 10 E(X) =
Die Zufallsvariable Y : Anzahl der ausgefallenen Gl¨ uhbirnen“ ist damit pois” sonverteilt mit dem Parameter λ = 10, d.h. E(Y ) = 10, Var(Y ) = 10. Betrachten wir als Kontinuum ein Jahr, so erhalten wir f¨ ur die erwartete Anzahl der ausgefallenen Gl¨ uhbirnen pro Jahr E(Y ) = 10 Gl¨ uhbirnen pro Jahr und f¨ ur die zu erwartende Wartezeit zwischen zwei Ausf¨allen E(X) = 1/10 Jahr = 36.5 Tage .
F (x)
f (x) 2
1
x
0 0
1
2
3
4
5
x
0 0
1
2
3
4
5
Abb. 4.8. Dichte- und Verteilungsfunktion der expo(10)-Verteilung
4.3 Spezielle stetige Verteilungen
85
4.3.3 Die Normalverteilung Die Normalverteilung ist die in der Statistik am h¨aufigsten verwendete stetige Verteilung. Der Begriff Normalverteilung wurde von C.F. Gauss gepr¨agt und zwar im Zusammenhang mit dem Auftreten zuf¨alliger Abweichungen der Messergebnisse vom wahren Wert bei geod¨atischen und astronomischen Messungen. Die zuf¨ alligen Abweichungen liegen symmetrisch um den wahren Wert. Definition 4.3.3. Eine stetige Zufallsvariable X mit der Dichtefunktion (x − μ)2 1 (4.19) f (x) = √ exp − 2σ 2 σ 2π heißt normalverteilt mit den Parametern μ und σ 2 , kurz X ∼ N (μ, σ2 ). F¨ ur die Momente einer normalverteilten Zufallsgr¨oße gilt E(X) = μ , Var(X) = σ 2 . Sind speziell μ = 0 und σ 2 = 1, so heißt X standardnormalverteilt, X ∼ N (0, 1). Die Dichte einer standardnormalverteilten Zufallsvariablen ist damit gegeben durch 1 x2 φ(x) = √ exp(− ) . 2 2π Die Dichte einer Normalverteilung (Abbildung 4.9) hat ihr Maximum an der Stelle μ. Dies ist gleichzeitig der Symmetriepunkt der Dichte. Die Wendepunkte dieser Dichte liegen bei (μ − σ) und (μ + σ) (vgl. Abbildung 4.9). Je kleiner σ ist, desto mehr ist die Dichte um den Erwartungswert μ konzentriert. Je gr¨oßer σ ist, desto flacher verl¨ auft die Dichte (vgl. Abbildung 4.10).
μ−σ
μ
μ+σ
Abb. 4.9. Dichtefunktion der N (μ, σ 2 ) Verteilung
Die Berechnung der Verteilungsfunktion
86
4. Diskrete und stetige Standardverteilungen
N (0, 0.5)
N (0, 1) N (0, 2)
0 Abb. 4.10. Dichten der Normalverteilungen N (0, 2), N (0, 1) und N (0, 0.5)
F (x) =
x
f (t)dt
−∞
einer normalverteilten Zufallsvariablen ist nicht mit elementaren Methoden m¨oglich, so dass eine Tabellierung erforderlich wird. Dabei beschr¨anken wir uns auf die Standardnormalverteilung. Tabelle B.2 enth¨alt die Dichtefunktion φ(x), Tabelle B.1 die Verteilungsfunktion Φ(x) der N (0, 1)-Verteilung. Standardisierung einer N (μ, σ 2 )-verteilten Variablen Es sei X ∼ N (μ, σ 2 ). Unter Verwendung der Standardisierungs-Transformation (vgl. (3.28)) erhalten wir Z=
X −μ ∼ N (0, 1) . σ
(4.20)
Dabei wird die Tatsache genutzt, dass eine lineare Transformation einer normalverteilten Variablen wieder zu einer normalverteilten Variablen f¨ uhrt. Eine N (0, 1)-verteilte Variable wird mit Z bezeichnet. Theorem 4.3.2 (Additionssatz). Seien X1 , . . . , Xn unabh¨angig und identisch verteilte Zufallsvariablen mit Xi ∼ N (μ, σ 2 ), so gilt n i=1
Xi ∼ N (nμ, nσ 2 ) .
(4.21)
Rechenregeln f¨ ur normalverteilte Zufallsvariablen Es sei X ∼ N (μ, σ2 ). Die Wahrscheinlichkeit daf¨ ur, dass X Werte im Intervall [a, b] annimmt, ist
4.3 Spezielle stetige Verteilungen
P (a ≤ X ≤ b) = P
a−μ b−μ ≤Z≤ σ σ
die Wahrscheinlichkeit f¨ ur X ≤ b ist P (X ≤ b) = Φ
=Φ
,
b−μ σ
b−μ σ
−Φ
87
a−μ , σ (4.22)
und die Wahrscheinlichkeit f¨ ur X > a ist gleich 1 − P (X ≤ a), also gilt a−μ P (X > a) = 1 − P (X ≤ a) = 1 − Φ . (4.23) σ Anmerkung. F¨ ur die standardnormalverteilte Zufallsgr¨oße Z ∼ N (0, 1) gilt insbesondere wegen der Symmetrie der Dichte φ(x) bez¨ uglich 0 f¨ ur jeden Wert a Φ(−a) = 1 − Φ(a) . Damit gilt insbesondere Φ(0) = 0.5. Dieser Zusammenhang ist in Abbildung 4.11 dargestellt.
1 − Φ(a)
0.5
Φ(−a) x −a
0
+a
Abb. 4.11. Verteilungsfunktion der Standardnormalverteilung
Beispiel 4.3.3. Gegeben sei eine normalverteilte Variable X ∼ N (−2, 102 ). Die Wahrscheinlichkeit daf¨ ur, dass X Werte zwischen 0 und 5 annimmt, ist gem¨aß (4.22) zu berechnen: 5 − (−2) 0 − (−2) P (0 ≤ X ≤ 5) = Φ −Φ 10 10 7 2 =Φ −Φ 10 10 = 0.758036 − 0.579260 = 0.178776 .
88
4. Diskrete und stetige Standardverteilungen
Die Wahrscheinlichkeit daf¨ ur, dass X nur Werte gr¨oßer als Null annimmt ist (nach (4.23)) 2 P (X > 0) = 1 − Φ = 1 − 0.579260 = 0.420740 . 10 Die Wahrscheinlichkeit, dass X Werte außerhalb des Intervalls [−5, 1] annimmt, d.h., dass X entweder kleiner als −5 oder gr¨oßer als 1 ist, ist P (X < −5 ∨ X > 1) = 1 − P (−5 ≤ X ≤ 1) 3 −3 −Φ = 1− Φ 10 10 3 −1 = 1 − 2Φ 10 = 2 − 2 · 0.617911 = 0.764178. Umgekehrt kann nat¨ urlich auch eine Zahl a so gesucht sein, dass X im Intervall (−2 − a, −2 + a) mit einer Wahrscheinlichkeit von z.B. 0.990 anzutreffen ist: −a X +2 a P (−2 − a ≤ X ≤ −2 + a) = P ≤ ≤ 10 10 10 a = 2Φ − 1 = 0.990 , 10 also gilt
a = 0.995 . 10 a Aus Tabelle B.1 lesen wir ab, dass 10 zwischen 2.57 und 2.58 liegen muß. a = 2.575862 und damit Lineare Interpolation der Tabellenwerte liefert 10 a = 25.75862. Φ
kσ-Regel f¨ ur die Normalverteilung F¨ ur die praktische Anwendung (z.B. bei Qualit¨atsnormen) gibt man h¨aufig die Streuungsintervalle (μ ± σ), (μ ± 2σ) und (μ ± 3σ) an, die 1σ-Bereich, 2σ-Bereich bzw. 3σ-Bereich heißen (vgl. Abschnitt 3.5.8). Sie dienen dem Vergleich von verschiedenen normalverteilten Zufallsvariablen. Wir wollen jetzt die Wahrscheinlichkeiten daf¨ ur bestimmen, dass eine N (μ, σ2 )-verteilte Variable Werte im 1σ-, 2σ- bzw. 3σ-Bereich um μ annimmt. Es gilt X −μ ≤ 1) σ = 2Φ(1) − 1
P (μ − σ ≤ X ≤ μ + σ) = P (−1 ≤
= 2 · 0.841345 − 1 = 0.682690 ,
4.3 Spezielle stetige Verteilungen
89
X −μ ≤ 2) σ = 2Φ(2) − 1
P (μ − 2σ ≤ X ≤ μ + 2σ) = P (−2 ≤
= 2 · 0.977250 − 1 = 0.954500 ,
X −μ ≤ 3) σ = 2Φ(3) − 1
P (μ − 3σ ≤ X ≤ μ + 3σ) = P (−3 ≤
= 2 · 0.998650 − 1
= 0.997300 .
Bei einer beliebigen N (μ, σ 2 )-verteilten Zufallsvariablen liegen also bereits 68% der Wahrscheinlichkeitsmasse im einfachen Streubereich, 95% im zweifachen und 99.7% im dreifachen Streubereich. Vergleicht man diese Wahrscheinlichkeiten mit den nach der Tschebyschev-Ungleichung erhaltenen Absch¨atzungen (vgl. Abschnitt 3.5.8), so sieht man den Informationsgewinn durch Kenntnis des Verteilungstyps Normalverteilung“ . ” Verteilung des arithmetischen Mittels normalverteilter Zufallsvariablen Sei eine Zufallsvariable X ∼ N (μ, σ2 ) gegeben. Wir betrachten eine Stichangigen und identisch N (μ, σ2 )-verteilten probe X = (X1 , . . . , Xn ) aus unabh¨ ¯ Variablen Xi . Es gilt dann f¨ ur das Stichprobenmittel X n
¯ = E(X) und ¯ = Var(X)
1 E(Xi ) = μ (Regel (3.29)) n i=1
n σ2 1 Var(Xi ) = 2 n i=1 n
(Regel (3.30)) .
Damit gilt dann insgesamt f¨ ur das Stichprobenmittel einer normalverteilten Zufallsvariablen (vgl. (4.21)) 2
¯ ∼ N (μ, σ ) . X n 4.3.4 Die zweidimensionale Normalverteilung Seien zwei Zufallsvariablen X1 ∼ N (μ1 , σ12 ) und X2 ∼ N (μ2 , σ22 ) gegeben und sei ρ der Korrelationskoeffizient, d.h. ρ = ρ(X1 , X2 ) =
Cov(X1 , X2 ) . σ1 σ2
90
4. Diskrete und stetige Standardverteilungen
Definition 4.3.4. Der Zufallsvektor (X1 , X2 ) besitzt die zweidimensionale Normalverteilung, falls die gemeinsame Dichte die Gestalt 1 × fX1 X2 (x1 , x2 ) = 2πσ1 σ2 1 − ρ2
1 1 exp − 2 1 − ρ2
x1 − μ1 σ1
2
x1 − μ1 x2 − μ2 − 2ρ + σ1 σ2
x2 − μ2 σ2
2 !
Dichte f(x1,x2) 0 0.05 0.1 0.15 0.2 0.25 0.3
hat.
2 1
2
1
0 x2
-1
-1 -2
0 x1
-2
Abb. 4.12. Dichte einer zweidimensionalen Normalverteilung
Im Fall ρ = 0 folgt " " 1 1 1 1 √ exp − 2 (x1 − μ1 )2 √ exp − 2 (x2 − μ2 )2 σ1 σ2 σ1 2π σ2 2π = fX1 (x1 )fX2 (x2 ) ,
fX1 X2 (x1 , x2 ) =
Die gemeinsame Dichte wird also zum Produkt der Randdichten, so dass angig sind (vgl. (3.41)). Damit haben wir folgenden Satz X1 und X2 unabh¨ bewiesen: Theorem 4.3.3. Zwei normalverteilte Zufallsvariablen sind genau dann unabh¨angig, wenn sie unkorreliert sind.
4.4 Pr¨ ufverteilungen
91
Anmerkung. Wie wir bereits gezeigt haben, gilt f¨ ur zwei beliebige Zufallsvariablen X1 , X2 nur, dass aus der Unabh¨ angigkeit die Unkorreliertheit folgt. Die Umkehrung dieser Beziehung gilt nur f¨ ur normalverteilte Zufallsvariablen. Im Hinblick auf die sp¨ ateren Kapitel f¨ uhren wir hier zus¨atzlich die Matrixnotation f¨ ur die Normalverteilung ein. Dazu definieren wir den Vektor der Erwartungswerte und die Kovarianzmatrix X1 μ1 E =μ= μ2 X2 2 X1 σ1 ρσ1 σ2 V =Σ= X2 ρσ1 σ2 σ22 und erhalten f¨ ur die gemeinsame Dichte von (X1 , X2 ) 1 1 ′ −1 exp − (x − μ) Σ (x − μ) . fX1 X2 (x1 , x2 ) = 2 2π|Σ|1/2
4.4 Pru ¨ fverteilungen Aus der Normalverteilung lassen sich drei wesentliche Verteilungen – die sogenannten Pr¨ ufverteilungen – gewinnen. Diese Verteilungen werden z.B. zum Pr¨ ufen von Hypothesen u ¨ ber • die Varianz σ 2 einer Normalverteilung: χ2 -Verteilung, • den Erwartungswert einer normalverteilten Zufallsvariablen mit unbekannter Varianz bzw. zum Vergleich der Mittelwerte zweier normalverteilter Zufallsvariablen mit unbekannter, aber gleicher Varianz: t-Verteilung, • das Verh¨altnis von Varianzen zweier normalverteilter Zufallsvariablen: F Verteilung eingesetzt (vgl. Kapitel 7). 4.4.1 Die χ2 -Verteilung Definition 4.4.1. Es seien Z1 , . . . , Zn n unabh¨angige und identisch n N (0, 1)verteilte Zufallsvariablen. Dann ist die Summe ihrer Quadrate i=1 Zi2 χ2 -verteilt mit n Freiheitsgraden. Die χ2 -Verteilung ist nicht symmetrisch. Eine χ2 -verteilte Zufallsvariable nimmt nur Werte gr¨ oßer oder gleich Null an. Die Quantile der χ2 -Verteilung sind in Tabelle B.3 f¨ ur verschiedene n angegeben. Theorem 4.4.1 (Additionssatz). Die Summe zweier unabh¨angiger χ2n verteilter bzw. χ2m -verteilter Zufallsvariablen ist χ2n+m -verteilt.
92
4. Diskrete und stetige Standardverteilungen
Als wesentliches Beispiel f¨ ur eine χ2 -verteilte Zufallsvariable ist die Stichprobenvarianz einer normalverteilten Grundgesamtheit zu nennen: n
2 SX
1 ¯ 2. (Xi − X) = n − 1 i=1
(4.24)
F¨ ur unabh¨angige Zufallsvariablen Xi ∼ N (μ, σ2 ) (i = 1, . . . , n) gilt 2 (n − 1)SX ∼ χ2n−1 . σ2
(4.25)
F (x)
f (x) 2
χ21
1
χ22
χ21
χ25 χ22 χ25 x
0 0
1
2
3
4
x
0 0
1
2
3
4
Abb. 4.13. Dichte- und Verteilungsfunktion der χ21 -, χ22 und χ25 -Verteilung
Anmerkung. Der Nachweis, dass tats¨ achlich eine χ2n−1 -Verteilung vorliegt, d.h., dass (4.25) gilt, verwendet den Satz von Cochran (vgl. Satz 11.4.1). Die Zahl der Freiheitsgrade betr¨ agt n − 1, also Eins weniger als der Stichpro¯ nicht unabh¨angig sind. Wegen benumfang, da die Zufallsvariablen (Xi − X) n ¯ i=1 (Xi − X) = 0 besteht zwischen ihnen genau eine lineare Beziehung. 4.4.2 Die t-Verteilung
Definition 4.4.2. Sind X und Y unabh¨angige Zufallsvariablen, wobei X ∼ N (0, 1) und Y ∼ χ2n verteilt ist, so besitzt der Quotient X ∼ tn Y /n
(4.26)
eine t-Verteilung (Student-Verteilung) mit n Freiheitsgraden. In Tabelle B.4 sind die Quantile der t-Verteilung enthalten. Wird von einer N (μ, σ2 )-verteilten Zufallsvariablen X eine Stichprobe vom Umfang n realisiert, so bilden wir die Zufallsvariablen arithmetisches ¯ und Stichprobenvarianz S 2 , f¨ Mittel X ur die wir folgenden zentralen Satz X angeben.
4.4 Pr¨ ufverteilungen
93
F (x)
f (x) 0.5
1
t30 t5 t1 t5
t30
t1
x
0 -2
-1
0
1
x
0
2
-2
-1
0
1
2
Abb. 4.14. Dichte- und Verteilungsfunktion der t-Verteilung
Theorem 4.4.2 (Student (Gosset, 1908)). Sei X = (X1 , . . . , Xn ) mit iid. ¯ und S 2 unabh¨angig. Der folgende Quotient ist Xi ∼ N (μ, σ 2 ), so sind X X tn−1 -verteilt ¯ − μ)√n ¯ − μ)√n (X (X ∼ tn−1 . =# SX 1 ¯ 2 i (Xi − X) n−1
4.4.3 Die F-Verteilung
Definition 4.4.3. Sind X und Y unabh¨angige χ2m bzw. χ2n -verteilte Zufallsvariablen, so besitzt der Quotient X/m ∼ Fm,n Y /n
(4.27)
die Fisher’sche F-Verteilung mit (m, n) Freiheitsgraden. Ist X eine χ21 -verteilte Zufallsvariable, so ist der Quotient F1,n -verteilt. Die Wurzel aus dem Quotienten ist dann tn -verteilt, da die Wurzel aus einer χ21 verteilten Zufallsvariablen N (0, 1)-verteilt ist. Dieser Zusammenhang wird h¨aufig bei der automatisierten Modellwahl in linearen Regressionsmodellen (Kapitel 9) verwendet. Als wichtiges Anwendungsbeispiel sei die Verteilung des Quotienten der Stichprobenvarianzen zweier Stichproben vom Umfang m bzw. n von unbzw. Y ∼ abh¨angigen normalverteilten Zufallsvariablen X ∼ N (μX , σ 2 ) n 1 m 1 2 2 2 ¯ N (μY , σ ) genannt: SX = m−1 i=1 (Xi − X) bzw. SY2 = n−1 i=1 (Yi − Y¯ )2 . F¨ ur das Verh¨ altnis beider Stichprobenvarianzen gilt (im Falle gleicher Varianzen σ 2 ) 2 SX ∼ Fm−1,n−1 . SY2 Anmerkung. Ist eine Zufallsvariable W nach Fm,n -verteilt, so ist 1/W nach Fn,m -verteilt. Deshalb sind die Tabellen der Fm,n -Verteilung im allgemeinen auf den Fall m ≤ n beschr¨ ankt (Tabellen B.5–B.8).
94
4. Diskrete und stetige Standardverteilungen f (x)
F (x)
1
F5,30 F5,10
1
F5,5
F5,30 F5,10 F5,5
x
0 0
1
2
3
4
x
0 0
1
2
3
4
Abb. 4.15. Dichte- und Verteilungsfunktion der F -Verteilung
4.5 Aufgaben und Kontrollfragen Aufgabe 4.1: In einer Multiple-Choice-Klausur werden zehn Fragen gestellt. Zu jeder Frage gibt es drei m¨ ogliche Antworten, von denen jedoch nur eine richtig ist. Wieviele richtige Antworten m¨ ussen zum Bestehen der Klausur mindestens gefordert werden, wenn die Wahrscheinlichkeit, die Klausur durch Raten zu bestehen, h¨ ochstens 0.05 betragen soll? Aufgabe 4.2: Ein Angler f¨ angt an einem kleinen Fischteich im Durchschnitt pro Stunde sechs Fische. Y bezeichne die Zahl der Fische, die in irgendeiner Stunde gefangen werden, X die Zeitspanne zwischen dem Fang zweier Fische in Minuten. a) Welche Verteilung kann man X und Y zuordnen? b) Bestimmen Sie E(X) und E(Y ). c) Wie groß sind P {Y = 2}, P {Y > 2}, P {X ≤ 20}? Aufgabe 4.3: Eine Maschine produziert Bandnudeln, deren L¨angen normalverteilt sind. Die durchschnittliche Nudell¨ ange kann eingestellt werden, jedoch betr¨agt die Varianz unabh¨ angig davon immer 4. a) Wie groß ist die Wahrscheinlichkeit daf¨ ur, dass der eingestellte Wert μ = 50 mm um mehr als 3 mm unterschritten wird? b) Auf welchen Wert muß die durchschnittliche Nudell¨ange eingestellt werden, damit die produzierten Nudeln mit einer Wahrscheinlichkeit von 0.99 eine L¨ange von h¨ ochstens 60 mm haben? Aufgabe 4.4: Leiten Sie den Erwartungswert und die Varianz f¨ ur die Null– Eins–Verteilung und die Binomialverteilung her. Aufgabe 4.5: Sei X ∼ P o(λ). Zeigen Sie: E(X) = λ und Var(X) = λ.
Aufgabe 4.6: X sei eine binomialverteilte Zufallsgr¨oße mit n = 10 und p = 41 . a) Bestimmen Sie die exakte Wahrscheinlichkeit, dass X um h¨ochstens 2 vom Erwartungswert abweicht. b) Sch¨atzen Sie diese Wahrscheinlichkeit ab.
4.5 Aufgaben und Kontrollfragen
95
Aufgabe 4.7: Bei einem Experiment ist nur von Interesse, ob ein bestimmtes Ereignis A eintritt oder nicht. Das Experiment wird n mal unabh¨angig voneinander durchgef¨ uhrt. Es wird folgende Zufallsgr¨oße definiert: 1 falls Ereignis A im i-ten Versuch eintritt Xi = 0 falls Ereignis A im i-ten Versuch nicht eintritt
¯ = a) Bestimmen Sie Erwartungswert und Varianz der neuen Zufallsgr¨oße X 1 (X + X + · · · + X ). 1 2 n n ¯ mit einer Sicherheit von minb) Wie groß muß n mindestens sein, damit X destens 98% um h¨ ochstens 0.01 von der unbekannten Wahrscheinlichkeit p abweicht? Aufgabe 4.8: Eine Urne enth¨ alt M weiße und N − M schwarze Kugeln. Aus dieser Urne werden nacheinander und ohne Zur¨ ucklegen n Kugeln gezogen. a) Bestimmen Sie die Wahrscheinlichkeit, dass im ersten Zug eine weiße Kugel erscheint. b) Wie groß ist die Wahrscheinlichkeit daf¨ ur, im zweiten Zug eine weiße Kugel zu ziehen, wobei der erste Zug beliebig ist? c) Wie groß ist die Wahrscheinlichkeit daf¨ ur, im zweiten Zug eine weiße Kugel zu ziehen, wenn bereits im ersten Zug eine weiße Kugel gezogen wurde? d) Wie groß ist die Wahrscheinlichkeit, im i-ten Zug (i = 1, . . . , n) eine weiße Kugel zu ziehen, wobei die i − 1 vorhergehenden Z¨ uge beliebig sind? Aufgabe 4.9: Ein unverf¨ alschter W¨ urfel wird f¨ unfmal geworfen. X sei die Anzahl der W¨ urfe, bei denen eine Sechs erscheint.
a) Wie groß ist hier die Wahrscheinlichkeit, mindestens zwei Sechsen zu werfen? b) Wie groß ist der Erwartungswert von X? Aufgabe 4.10: In einer Schulklasse befinden sich 20 Sch¨ uler, denen es freigestellt ist, sich an einer Klassenfahrt zu beteiligen oder nicht. Aus vergangenen Jahren ist bekannt, dass etwa 70% der Sch¨ uler an den Fahrten teilnehmen. Wie groß ist die Wahrscheinlichkeit, dass die Klassenfahrt stattfindet, wenn dazu mindestens 10 Sch¨ uler teilnehmen m¨ ussen? Aufgabe 4.11: Zwei W¨ urfel werden viermal gleichzeitig geworfen. a) Wie groß ist die Wahrscheinlichkeit, dass dabei genau zweimal eine ungerade Augensumme auftritt? b) Bestimmen Sie die Wahrscheinlichkeit daf¨ ur, dass die Augensumme bei einem Wurf h¨ ochstens vier und bei den u urfen mindestens ¨ brigen drei W¨ acht betr¨agt. Aufgabe 4.12: X sei eine N (2; 4)-verteilte Zufallsgr¨oße. Folgende Ereignisse seien definiert: A = {X ≤ 3}, B = {X ≥ −0.9}.
a) Bestimmen Sie P (A ∩ B). b) Bestimmen Sie P (A ∪ B).
96
4. Diskrete und stetige Standardverteilungen
Aufgabe 4.13: Z sei eine N (0; 1)-verteilte Zufallsgr¨oße. Wie groß muß eine positive Zahl c gew¨ ahlt werden, damit gilt: P (−c ≤ Z ≤ +c) = 0.97? Aufgabe 4.14: Flugg¨ aste kommen zuf¨ allig und unabh¨angig voneinander an den Sicherheitscheck eines Flughafens. Im Mittel kommen 10 Passagiere pro Minute an. a) Wie gross ist die Wahrscheinlichkeit, dass keine Passagiere in einer Minute ankommen? b) Wie gross ist die Varianz und die Standardabweichung? c) Wie gross ist die Wahrscheinlichkeit, dass h¨ochstens 2 Passagiere in einer Minute ankommen? d) Wie gross ist die Wahrscheinlichkeit, dass kein Passagier in 15 Sekunden ankommt. e) Wie gross ist die Wahrscheinlichkeit, dass mindestens 1 Passagier in 15 Sekunden ankommt.
5. Grenzwerts¨ atze und Approximationen
5.1 Die stochastische Konvergenz In diesem Kapitel wollen wir einige Grundbegriffe u ¨ ber das Verhalten von Folgen von Zufallsvariablen (Xn )n∈N einf¨ uhren, wenn n gegen ∞ strebt. Dazu ben¨otigen wir den Begriff der stochastischen Konvergenz. Definition 5.1.1. Eine Folge (Xn )n∈N von Zufallsvariablen konvergiert stochastisch gegen 0, wenn f¨ ur beliebiges ǫ > 0 die Beziehung lim P (|Xn | > ǫ) = 0
n→∞
(5.1)
erf¨ ullt ist. Dies ist ¨aquivalent zu limn→∞ P (|Xn | ≤ ǫ) = 1. Diese Konvergenz heißt auch Konvergenz nach Wahrscheinlichkeit. Wir weisen darauf hin, dass diese Definition nicht besagt, dass Xn gegen Null konvergiert (im klassischen Sinne der Analysis). Klassische Konvergenz w¨ urde bedeuten, dass man f¨ ur jedes ǫ ein endliches n = n0 so finden kann, dass |Xn | ≤ ǫ, ∀n > n0 gilt. Aus der Definition der stochastischen Konvergenz folgt lediglich, dass die ur n → ∞ gegen Null Wahrscheinlichkeit des zuf¨ alligen Ereignisses |Xn | > ǫ f¨ strebt. Sei Fn (t) die Verteilungsfunktion der Zufallsvariablen Xn . Dann bedeutet (5.1), dass f¨ ur jedes ǫ > 0 und f¨ ur n → ∞ P (Xn < −ǫ) = Fn (−ǫ) → 0
(5.2)
P (Xn > ǫ) = 1 − P (Xn ≤ ǫ) = 1 − Fn (ǫ) − P (Xn = ǫ) → 0
(5.3)
und
gilt. Da (5.1) f¨ ur jedes ǫ > 0 gilt, folgt P (Xn = ǫ) → 0 f¨ ur n → ∞ f¨ ur alle ǫ > 0. Somit wird (5.3) zu 1 − Fn (ǫ) → 0 , d. h., es gilt f¨ ur alle ǫ > 0
(5.4)
98
5. Grenzwerts¨ atze und Approximationen
Fn (ǫ) → 1 . Mit Hilfe der in Abschnitt 4.2.2 definierten Einpunktverteilung k¨onnen wir also folgendes Ergebnis formulieren (vgl. Fisz, 1970) Theorem 5.1.1. Eine Folge (Xn )n∈N von Zufallsvariablen konvergiert stochastisch gegen Null genau dann, wenn die Folge (Fn (x))n∈N ihrer Verteilungsfunktionen gegen die Verteilungsfunktion der Einpunktverteilung in jeder Stetigkeitsstelle dieser Funktion konvergiert. Gem¨aß (5.1) konvergiert eine Folge (Xn )n∈N von Zufallsvariablen stochastisch gegen eine Konstante c, falls (Yn )n∈N = (Xn − c)n∈N stochastisch gegen Null konvergiert. Analog konvergiert eine Folge (Xn )n∈N stochastisch gegen eine Zufallsvariable X, falls (Yn )n∈N = (Xn − X)n∈N stochastisch gegen Null konvergiert.
5.2 Das Gesetz der großen Zahlen ¯ = 1 n Xi (arithmetisches Mittel) aus Wir haben f¨ ur die Zufallsvariable X i=1 n n i.i.d. Zufallsvariablen Xi mit E(Xi ) = μ und Var(Xi ) = σ 2 die grundle¯ = σ2 hergeleitet (vgl. (3.30)). Die Varianz von gende Eigenschaft Var(X) n ¯ nimmt also mit wachsendem n ab. Wir betrachten die TschebyschevX ¯ und verwenden den Index n zur Kennzeichnung Ungleichung (3.37) f¨ ur X ¯ n − μ)n∈N der n unabh¨angigen Wiederholungen. Dann gilt f¨ ur die Folge (X 2 ¯ ¯ n − μ| < c) ≥ 1 − Var(Xn ) = 1 − σ . P (|X c2 nc2
(5.5)
F¨ ur jedes feste c ≥ 0 strebt die rechte Seite von (5.5) f¨ ur n → ∞ gegen Eins. Damit haben wir folgenden Satz bewiesen. Theorem 5.2.1 (Gesetz der großen Zahlen). Seien X1 , . . . , X n i.i.d. ¯ n = 1 n Xi Zufallsvariablen mit E(Xi ) = μ und Var(Xi ) = σ 2 und sei X i=1 n das arithmetische Mittel. Dann gilt ¯ n − μ| < c) = 1 , lim P (|X
n→∞
∀c ≥ 0 .
(5.6)
¯ n konvergiert stochastisch (nach Wahrscheinlichkeit) gegen μ. D. h. X Wir wenden dieses Gesetz auf unabh¨ angige Null-Eins-verteilte Variablen (vgl. (4.5)) an, d. h., wir w¨ ahlen die Zufallsvariablen (i = 1, . . . , n) 1 mit P (Xi = 1) = p Xi = 0 mit P (Xi = 0) = 1 − p . Damit ist E(Xi ) = p und Var(Xi ) = p(1 − p) (vgl. (4.6),(4.7)). Bilden wir ¯ n = 1 n Xi und ersetzen in (5.5) μ durch p und σ 2 durch p(1−p), wieder X i=1 n so gilt
5.3 Der zentrale Grenzwertsatz
¯ n − p| < c) ≥ 1 − p(1 − p) , P (|X nc2 und damit erhalten wir ¯ n − p| < c) = 1 lim P (|X
n→∞
99
(5.7)
∀c ≥ 0 .
¯ n ist die Zufallsvariable, die die relative H¨ X aufigkeit eines Ereignisses A bei n unabh¨angigen Wiederholungen angibt. Anders ausgedr¨ uckt erhalten wir folgenden Satz. Theorem 5.2.2 (Satz von Bernoulli). Die relative H¨aufigkeit eines zuf¨alligen Ereignisses A in n unabh¨angigen Wiederholungen konvergiert stochastisch gegen die Wahrscheinlichkeit p des Ereignisses A. Dieser Satz ist die Grundlage f¨ ur die schon oft benutzte H¨aufigkeitsinterpretation der Wahrscheinlichkeit. Mit seiner Hilfe kann man f¨ ur vorgegebenes c und vorgegebene Sicherheitswahrscheinlichkeit 1−α den zum Erreichen von ¯ n − p| < c) ≥ 1 − α P (|X notwendigen Stichprobenumfang n absch¨ atzen. Aufl¨osen der Ungleichung (5.7) nach n liefert die Bedingung n≥
p(1 − p) . c2 α
Beispiel. Sei c = α = p = 0.1, so folgt n≥
0.1(1 − 0.1) = 90 . 0.12 0.1
Sei c = α = 0.1, p = 0.5, so folgt n≥
0.52 = 250 . 0.12 0.1
5.3 Der zentrale Grenzwertsatz Der zentrale Grenzwertsatz geh¨ ort zu den wichtigsten Aussagen der Wahrscheinlichkeitstheorie. Er gibt eine Charakterisierung der Normalverteilung ¨ als Grenzverteilung von Uberlagerungen einer Vielzahl unabh¨angiger zuf¨alliger Einzeleffekte. Der zentrale Grenzwertsatz existiert in zahlreichen Modifikationen. Wir beschr¨ anken uns hier auf folgenden Fall. Seien Xi (i = 1, . . . , n) i.i.d. Zufallsvariablen n mit E(Xi ) = μ und Var(Xi )= σ 2 . Dann besitzt die Zufallsvariable i=1 Xi den Erwartungs wert E( ni=1 Xi ) = nμ und die Varianz Var( ni=1 Xi ) = nσ 2 , so dass
100
5. Grenzwerts¨ atze und Approximationen
Yn =
n
Xi − nμ √ nσ 2
i=1
(5.8)
standardisiert ist, d. h., es gilt E(Yn ) = 0 und Var(Yn ) = 1. Yn heißt standardisierte Summe der X1 , . . . , Xn . Theorem 5.3.1 (Zentraler Grenzwertsatz). Seien Xi (i = 1, . . . , n) i.i.d. Zufallsvariablen mit E(Xi ) = μ und Var(Xi ) = σ 2 , (i = 1, . . . , n) und sei Yn die standardisierte Summe der Xi . Dann gilt f¨ ur die Verteilungsfunktion von Yn lim P (Yn ≤ y) = Φ(y), ∀y , n→∞
wobei Φ(y) die Verteilungsfunktion der Standardnormalverteilung ist. Satz 5.3.1 besagt, dass die standardisierte Summe Yn f¨ ur große n ann¨ahernd standardnormalverteilt ist: Yn ∼ N (0, 1) f¨ ur n → ∞ . n n Bilden wir die R¨ ucktransformation nach i=1 Xi gem¨aß (5.8), so ist i=1 Xi f¨ ur große n ann¨ahernd N (nμ, nσ 2 )-verteilt n i=1
Xi ∼ N (nμ, nσ 2 ) .
¯n = Das arithmetische Mittel X σ2 N (μ, n ) verteilt
1 n
n
i=1
(5.9)
Xi ist somit f¨ ur große n ann¨ahernd 2
¯ n ∼ N (μ, σ ) . X n ¯ n stochastisch gegen Das Gesetz der großen Zahlen sagt also aus, dass X μ konvergiert, w¨ ahrend der zentrale Grenzwertsatz zus¨atzlich aussagt, dass ¯ n gegen die Grenzverteilung N (μ, σ2 ) konvergiert. die Verteilung von X n
5.4 Approximationen Wir haben zur Herleitung der Regeln der Kombinatorik und von einigen diskreten Verteilungen das Urnenmodell verwandt. In einer Urne seien insgesamt N Kugeln, davon M weiße und N −M schwarze. Aus der Urne werden zuf¨allig n Kugeln gezogen. Sei X die Zufallsvariable Anzahl der weißen Kugeln in der ” Ziehung“. Beim Ziehen mit Zur¨ ucklegen ist X binomialverteilt, beim Ziehen ohne Zur¨ ucklegen ist X hypergeometrisch verteilt (vgl. Abschnitte 4.2.4 und 4.2.5). Falls N , M und N − M sehr groß gegen¨ uber n sind, stimmen beide Verteilungen nahezu u ¨berein. Es macht dann also kaum einen Unterschied, ob man mit oder ohne Zur¨ ucklegen zieht. Wir wollen dies hier nicht beweisen (vgl. dazu z. B. R¨ uger, 1996), sondern uns vielmehr auf das Grenzverhalten der Binomialverteilung f¨ ur großes n konzentrieren.
5.4 Approximationen
101
5.4.1 Approximation der Binomialverteilung durch die Normalverteilung Betrachten wir n unabh¨ angige Null-Eins-verteilte Variablen Xi mit Erwartungswert E(Xi ) = p und Varianz Var(X n i ) = p(1 − p). Die daraus gebildete binomialverteilte Zufallsvariable Xi besitzt den Erwartungswert n i=1 n E( i=1 Xi ) = np und die Varianz Var( i=1 Xi ) = np(1 − p). Durch Anwendung von (5.9) ergibt sich f¨ ur großes n n i=1
Xi ∼ N (np, np(1 − p)) .
Daraus folgt sofort f¨ ur die relative H¨ aufigkeit (n groß) n p(1 − p) 1 Xi ∼ N p, . n i=1 n
(5.10)
(5.11)
Die Binomialverteilung B(n; p) kann also f¨ ur großes n durch die Normalverteilung approximiert werden: B(n; p) → N (np, np(1 − p))
(5.12)
Die N¨aherung (5.12) ist f¨ ur np(1 − p) ≥ 9 hinreichend genau. Damit gilt f¨ ur X ∼ B(n; p) % $ x − np P (X ≤ x) ≈ Φ np(1 − p) bzw. mit der sogenannten Stetigkeitskorrektur $ % $ % b + 0.5 − np a − 0.5 − np P (a ≤ X ≤ b) ≈ Φ −Φ . np(1 − p) np(1 − p)
(5.13)
Beispiel. Von einer neuen Maschine sei bekannt, dass die von ihr hergestellten Produkte zu 90% den Qualit¨ atsanforderungen entsprechen. Bezeichnen wir mit A das Ereignis Produkt einwandfrei“, so gilt P (A) = 0.9 = p und ” ¯ = 0.1 = 1−p. damit P (A) Eine Kiste mit 150 St¨ ucken aus der neuen Produktion wurde gepr¨ uft, wovon k = 135 St¨ ucke als einwandfrei befunden wurden. Die Anzahl der einwandfreien St¨ ucke in der neuen Produktion ist eine binomialverteilte Zufallsvariable X mit np(1 − p) = 150 · 0.9 · 0.1 = 13.5. Damit ist die Approximation der Binomialverteilung durch die Normalverteilung gerechtfertigt, und wir erhalten z. B. 135 − 0.5 − 150 · 0.9 150 + 0.5 − 150 · 0.9 √ √ −Φ P (135 ≤ X ≤ 150) = Φ 150 · 0.9 · 0.1 150 · 0.9 · 0.1 = Φ(4.22) − Φ(−0.14) = 0.99934 − 0.44433 = 0.55501 .
102
5. Grenzwerts¨ atze und Approximationen
0 1 2 3 4 5 6 7 8 9 10
0
10
20
30
0
5
40
10
50
15
60
20
70
25
80
30
90
Abb. 5.1. Grafische Veranschaulichung des Zentralen Grenzwertsatzes. K = 100, K = 300 und K = 900fache Realisierung einer B(n, p)-verteilten Zufallsvariablen X (n = 10, 30, 90 und p = 0.3). Die Punkte repr¨ asentieren die Anzahl der Realisierungen von Xi = x (i = 1, . . . , K).
D. h. mit einer Wahrscheinlichkeit von rund 0.56 sind 135 oder mehr St¨ ucke der Produktion einwandfrei. Die erwartete Anzahl der qualitativ einwandfreien Produkte betr¨ agt E(X) = 150 · 0.9 = 135 und die Varianz Var(X) = 150 · 0.9 · 0.1 = 13.5 . Wir wollen nun noch die Approximation der Binomialverteilung durch die Normalverteilung grafisch veranschaulichen. Dazu wiederholen wir die Realisation einer B(n, p)-verteilten Zufallsvariablen X K–mal. In Abbildung 5.1 wird u aulen die H¨aufigkeit aufgetragen, ¨ ber der jeweiligen Anzahl Xi durch S¨ mit der dieses Ergebnis realisiert wurde. Die verwendeten Werte f¨ ur n und p waren n = 10, n = 30 und n = 90 und jeweils p = 0.3. Damit ergeben sich f¨ ur den Erwartungswert np die Werte np = 3, np = 9 und np = 27.
5.4 Approximationen
103
5.4.2 Approximation der Binomialverteilung durch die Poissonverteilung Die Regel np(1 − p) ≥ 9 besagt, dass f¨ ur Werte von p nahe Null (oder nahe Eins) n sehr groß sein muß, um die Approximation (5.10) zu sichern. Sei z. B. p = 0.01, so m¨ ußte n ≥ 9/(0.01 · 0.99) = 909.09 sein. F¨ ur extrem kleine Werte von p und große Werte von n approximiert man die Binomialverteilung durch die Poissonverteilung nach der Regel B(n; p) → P o(np) .
(5.14)
Diese Approximation ist f¨ ur p ≤ 0.1 und n ≥ 100 hinreichend genau. Die Approximation (5.14) heißt Grenzwertsatz von Poisson. Anmerkung. Einen Beweis von (5.14) findet man in R¨ uger (1996). 5.4.3 Approximation der Poissonverteilung durch die Normalverteilung Die Approximation der Poissonverteilung durch die Normalverteilung ergibt sich aus den beiden Approximationsm¨ oglichkeiten der Binomialverteilung. F¨ ur np(1 − p) ≥ 9 und p ≤ 0.1 sowie n ≥ 100, also λ = np ≥ 10, folgt aus der Approximation der Binomialverteilung durch die Normalverteilung und der Approximation der Binomialverteilung durch die Poissonverteilung die Approximation der Poissonverteilung durch die Normalverteilung, wenn wir zus¨atzlich bedenken, dass f¨ ur kleines p die Approximation np ≈ np(1 − p) gilt: B(n; p) → P o(np) ,
B(n; p) → N (np, np(1 − p)) ,
also P o(np) → N (np, np(1 − p)) oder P o(λ) → N (λ, λ) . 5.4.4 Approximation der hypergeometrischen Verteilung durch die Binomialverteilung Wir haben in Kapitel 4 das Urnenmodell betrachtet, wobei unter insgesamt N Kugeln M weiße und N − M schwarze Kugeln waren. Es wurden n Kugeln gezogen. Die Zufallsvariable X : Anzahl der weißen Kugeln unter den n ” gezogenen Kugeln“ ist • bei Ziehen mit Zur¨ ucklegen binomialverteilt • bei Ziehen ohne Zur¨ ucklegen hypergeometrisch verteilt.
104
5. Grenzwerts¨ atze und Approximationen
H(n, M, N ) M, N → ∞ Faustregel n ≤ 0.1M N/M = p = const. n ≤ 0.1(N − M ) B(n; M/N ) p ≤ 0.1 n ≥ 100
B(n; p)
P o(np) p klein, so dass np ≈ np(1 − p)
np(1 − p) ≥ 9 N np, np(1 − p)
N (np, np) = N (λ, λ)
Abb. 5.2. Approximationen der einzelnen Verteilungen
Falls N , M und N − M sehr groß gegen¨ uber n sind, so ¨andern sich die Ziehungswahrscheinlichkeiten f¨ ur eine weiße Kugel bei Ziehen ohne Zur¨ ucklegen kaum, die Ziehungen sind n¨ aherungsweise unabh¨angig voneinander. Damit sind die Verteilungen von X in beiden Ziehungsmodellen nahezu gleich, d. h. die hypergeometrische Verteilung stimmt nahezu mit der Binomialverteilung u ur M → ∞ und N → ∞. Dann gilt ¨berein. Sei 0 < M N = p < 1 konstant f¨ H(n, M, N ) ≈ B(n;
M ) N
(Beweis: vgl. z. B. R¨ uger (1988), S.83). Als Faustregel f¨ ur N , M , N − M groß im Verh¨altnis zu n verwendet man die Bedingung n ≤ 0.1M und n ≤ 0.1(N − M ).
5.5 Aufgaben und Kontrollfragen
105
5.5 Aufgaben und Kontrollfragen Aufgabe 5.1: Wie lautet die Definition der stochastischen Konvergenz einer Folge {Xn }n∈N von Zufallsvariablen
a) gegen Null b) gegen eine Konstante c) gegen eine Zufallsvariable X?
Aufgabe 5.2: Wie lautet das Gesetz der großen Zahlen? Wie leitet man daraus den Satz von Bernoulli her? Aufgabe 5.3: Seien X1 , . . . , Xn i.i.d. Zufallsvariablen. Wie lautet die Grenz¯ verteilung der Zufallsvariablen arithmetisches Mittel X? Aufgabe 5.4: Wie groß ist die Wahrscheinlichkeit, dass beim 500-maligen Werfen eines W¨ urfels das Ergebnis gerade Zahl geworfen“ um h¨ochsten 25 ” von seinem Erwartungswert abweicht? Aufgabe 5.5: Ein Zufallsexperiment, in dem ein Ereignis A mit Wahrscheinlichkeit p = 0.5 eintritt, wird n-mal unabh¨ angig wiederholt. Wie groß muß n sein, so dass mit Wahrscheinlichkeit α = 0.01 die absolute Abweichung der ¯ n von p h¨ relativen H¨aufigkeit X ochstens 0.1 ist? Aufgabe 5.6: Eine Maschine fertigt Produkte, die M¨angel mit einer Wahrscheinlichkeit von p = 0.2 aufweisen. In einer Stichprobe vom Umfang n = 100 wurden k = 10 fehlerhafte Produkte festgestellt. a) Wie groß ist die Wahrscheinlichkeit f¨ ur dieses Ergebnis? b) Mit welcher Wahrscheinlichkeit liegt der Ausschussanteil bei 100 Produkten zwischen 3% und 10%? Aufgabe 5.7: Sei X eine P o(32) verteilte Zufallsvariable. Berechnen Sie (unter Verwendung der Normalapproximation) folgende Wahrscheinlichkeiten: a) P (X ≤ 10), b) P (25 ≤ X ≤ 30), c) P (X ≥ 55).
Aufgabe 5.8: In einem Stadtbezirk einer bayerischen Stadt mit 10000 wahlberechtigten B¨ urgern werden Wahlen durchgef¨ uhrt. Zwei Tage vor den Wahlen werden 200 Wahlberechtigte f¨ ur die Erstellung einer Wahlprognose zuf¨allig ausgew¨ahlt und nach ihrer bevorstehenden Wahlentscheidung befragt. Wenn davon ausgegangen wird, dass in diesem Stadtbezirk eine Pr¨aferenz von 40% f¨ ur die CSU besteht, wie groß ist dann die Wahrscheinlichkeit, dass sich unter den Befragten weniger als 35% f¨ ur die CSU aussprechen? Aufgabe 5.9: Aufgrund gewisser Erfahrungswerte kann davon ausgegangen werden, dass ca. 1% der Bev¨ olkerung an einer Krankheit leidet. Bestimmen Sie die Wahrscheinlichkeit, dass unter 1000 zuf¨allig ausgew¨ahlten Personen
a) mindestens drei b) genau vier kranke Personen sind.
106
5. Grenzwerts¨ atze und Approximationen
Aufgabe 5.10: In einer Kiste mit 20 Orangen befinden sich zwei verdorbene Orangen, die restlichen 18 Orangen sind einwandfrei. Nun werden zuf¨allig vier Orangen aus der Kiste genommen (ohne Zur¨ ucklegen). a) Wie groß ist die Wahrscheinlichkeit, dass unter den vier gew¨ahlten Orangen auch die zwei verdorbenen sind? b) Die Zufallsgr¨ oße X bezeichne die Anzahl der verdorbenen unter den ausgew¨ahlten Orangen. Bestimmen Sie Erwartungswert und Varianz von X.
Teil II
Induktive Statistik
6. Sch¨ atzung von Parametern
6.1 Einleitung Wenn eine wissenschaftliche Untersuchung geplant und durchgef¨ uhrt wird, so geschieht das unter dem Aspekt, eine spezifische wissenschaftliche Hypothese zu u ufen. Obwohl eine Stichprobe nur ein kleiner Ausschnitt aus ¨ berpr¨ der Grundgesamtheit ist, m¨ ochte man die aus der Stichprobe gewonnenen Erkenntnisse m¨oglichst verallgemeinern. Ein wesentliches Charakteristikum der statistischen Schlussweise (Inferenz) ist die Tatsache, dass die aus einer Stichprobe gezogenen Schlussfolgerungen im allgemeinen nicht fehlerfrei sind. Die statistische Induktion u ¨ ber die unbekannten Parameter der Grundgesamtheit wird also h¨aufig mit einer Evaluation (wie z.B. Pr¨ ufen von Hypothesen) verkn¨ upft sein. Die bisher vorgestellten Verteilungen f¨ ur die Beschreibung von Zufallsvariablen h¨angen von Parametern ab (Erwartungswert μ, Varianz σ 2 , Wahrscheinlichkeit p der Null-Eins- und der Binomialverteilung), die unbekannt sind. Aus einer Stichprobe werden Maßzahlen (Stichprobenmittelwert x¯, Stichprobenvarianz s2 , relative H¨ aufigkeit k/n) ermittelt, die wir als Sch¨ atzwerte der Parameter μ, σ 2 , p der Grundgesamtheit bezeichnen. Beispiel. Die K¨orpergr¨ oße X von dreij¨ ahrigen Kindern kann als normalverteilt gelten, X ∼ N (μ, σ2 ). Der Erwartungswert μ repr¨asentiert die mittlere (durchschnittliche) K¨ orpergr¨ oße der dreij¨ ahrigen Kinder. Aus einer Stichprobe ermittelt man den Wert von x ¯ (mittlere K¨orpergr¨oße der dreij¨ahrigen Kinder in der Stichprobe) als Sch¨ atzung des Parameters μ der dreij¨ahrigen Kinder der Bev¨olkerung. Die konkreten Sch¨ atzwerte als Realisierungen von Zufallsvariablen – den Sch¨atzungen – werden von Stichprobe zu Stichprobe verschieden sein, sie streuen um den unbekannten Parameter (im Beispiel μ). Je nachdem, ob nur ein einziger Zahlenwert als Sch¨atzgr¨oße oder ein Intervall angegeben wird, spricht man von einer Punktsch¨ atzung bzw. von einer Intervallsch¨ atzung (Konfidenzsch¨ atzung). Unter einer Stichprobe verstehen wir allgemein bei endlicher Grundgesamtheit eine zuf¨ allige Auswahl von n Elementen aus den N Elementen der Grundgesamtheit, analog zu den Urnenmodellen der vorangegangenen Kapitel. Bei einem Zufallsexperiment erh¨ alt man die Stichprobe durch n-fache
110
6. Sch¨ atzung von Parametern
Wiederholung des Experiments. Falls alle Xi unabh¨angig und identisch verteilt sind, bezeichnen wir X = (X1 , . . . , Xn ) als i.i.d. Stichprobe. Die Schreibweise X = (X1 , . . . , Xn ) bezeichnet die Stichprobe (als Zufallsgr¨oße), die Xi sind Zufallsvariablen. Nach Durchf¨ uhrung der Stichprobenziehung, d.h., nach Realisierung der Zufallsvariablen Xi in einem zuf¨alligen Versuch, erh¨alt man die konkrete Stichprobe x = (x1 , . . . , xn ) mit den realisierten Werten xi der Zufallsvariablen Xi . Anmerkung. Wenn wir von Stichprobe sprechen, meinen wir stets die i.i.d. Stichprobe. Bei endlicher Grundgesamtheit sichert man die i.i.d. Eigenschaft durch Ziehen mit Zur¨ ucklegen, bei Zufallsexperimenten durch geeignete Versuchspl¨ane (i.i.d.: independently identically distributed).
6.2 Allgemeine Theorie der Punktsch¨ atzung Generell stellt sich das Problem der Sch¨ atzung von Parametern der Verteilung einer Zufallsvariablen X durch geeignete aus Stichproben ermittelte Maßzahlen. Im einparametrigen Fall ist es das Ziel der Punktsch¨atzung, den unbekannten Parameter θ mittels einer Stichprobe vom Umfang n zu sch¨atzen, d.h., eine Maßzahl zu finden, die m¨ oglichst gut“ mit dem zu sch¨atzenden ” Parameter u bereinstimmt. M¨ o glichst gut“ ist durch geeignete G¨ utekriterien ¨ ” n¨aher zu definieren. Im mehrparametrigen Fall tritt an die Stelle des Parameters θ der Parametervektor θ. Definition 6.2.1. Die Menge Θ, die alle m¨oglichen Werte des unbekannten Parameters θ enth¨alt, heißt Parameterraum. Definition 6.2.2. Sei θ ∈ Θ der unbekannte Parameter der Verteilung Fθ (X) und X = (X1 , . . . , Xn ) eine Stichprobe. Dann nennt man T (X) = T (X1 , . . . , Xn ) eine Sch¨ atzung (Sch¨atzfunktion) von θ. T (X) ist eine Zufallsvariable. F¨ ur die konkrete Stichprobe (x1 , . . . , xn ) ergibt sich der Sch¨atzwert θˆ = T (x1 , . . . , xn ) als beobachtete Realisation der Zufallsvariablen T (X). Definition 6.2.3. Eine Sch¨atzung T (X) des Parameters θ heißt erwartungstreu f¨ ur θ (unverzerrt, unverf¨alscht, unbiased), wenn gilt: Eθ (T (X)) = θ .
(6.1)
Im Falle Eθ (T (X)) = θ heißt die Sch¨atzung T (X) nicht erwartungstreu (verzerrt, verf¨alscht, biased). Anmerkung. Falls (6.1) f¨ ur alle θ ∈ Θ gilt, heißt die Sch¨atzung T (X) erwartungstreu (f¨ ur alle θ). Im Folgenden wird erwartungstreu stets in dieser Bedeutung verwendet.
6.2 Allgemeine Theorie der Punktsch¨ atzung
111
Die Differenz zwischen dem Erwartungswert Eθ (T (X)) der Sch¨atzung und dem zu sch¨atzenden Parameter θ wird als Bias (Verzerrung) bezeichnet: biasθ (T (X); θ) = Eθ (T (X)) − θ. F¨ ur eine erwartungstreue Sch¨ atzung T (X) von θ gilt: biasθ (T (X); θ) = 0. Ein wichtiges Maß zur Beurteilung der G¨ ute einer Sch¨atzung ist der mittlere quadratische Fehler (Mean Square Error). Definition 6.2.4. Der Mean Square Error (MSE) einer Sch¨atzung T (X) ist definiert als 2 MSEθ (T (X); θ) = Eθ [T (X) − θ] . 2 Sei Varθ (T (X)) = Eθ [T (X) − Eθ (T (X))] die Varianz der Sch¨atzung T (X), so l¨asst sich der MSE wie folgt darstellen:
2
MSEθ (T (X); θ) = Varθ (T (X)) + [biasθ (T (X); θ)] . Ist die Sch¨atzung T (X) erwartungstreu, so stimmen ihre Varianz und ihr MSE u ¨ berein: biasθ (T (X); θ) = 0
⇔
MSEθ (T (X); θ) = Varθ (T (X)) .
Im mehrparametrigen Fall mit dem Parametervektor θ ist der MSE ein matrixwertiges G¨ utemaß. Der MSE liefert ein G¨ utekriterium zum Vergleich von Sch¨atzungen. Definition 6.2.5 (MSE-Kriterium). Seien T1 (X) und T2 (X) zwei alternative Sch¨atzungen des Parameters θ. Dann heißt die Sch¨atzung T1 (X) MSE-besser als T2 (X), wenn MSEθ (T1 (X); θ) ≤ MSEθ (T2 (X); θ)
∀θ
(6.2)
gilt und wenn es mindestens ein θ∗ ∈ Θ gibt mit
MSEθ (T1 (X); θ∗ ) < MSEθ (T2 (X); θ∗ ) .
(6.3)
Es ist nicht m¨ oglich, unter allen Sch¨ atzungen eine MSE-beste Sch¨atzung zu finden. Dies wird klar, wenn wir den konstanten Sch¨atzer T2 (X) = θ0 betrachten (θ0 ein beliebiger Parameterwert), f¨ ur den M SEθ0 (T2 (X); θ0 ) = 0 gilt. Damit existiert kein Sch¨ atzer, der die Bedingungen (6.2) und (6.3) erf¨ ullt; es existiert kein MSE-bester Sch¨ atzer schlechthin. Deshalb muß man die Klasse der zugelassenen Sch¨atzfunktionen einschr¨anken. In der klassischen Sch¨ atztheorie beschr¨ankt man sich auf die Klasse der erwartungstreuen Sch¨ atzungen. Da im Fall von erwartungstreuen Sch¨atzungen der MSE und die Varianz u uhrt die Suche nach ¨ bereinstimmen, f¨ einer MSE-besten Sch¨ atzung in der Klasse der erwartungstreuen Sch¨atzungen zur Auswahl derjenigen Sch¨ atzung mit der kleinsten Varianz.
112
6. Sch¨ atzung von Parametern
Definition 6.2.6. Eine erwartungstreue Sch¨atzung T (X) des Parameters θ heißt effizient bzw. UMVU-Sch¨atzung (Uniformly Minimum Variance Unbiased), wenn T (X) unter allen erwartungstreuen Sch¨atzungen f¨ ur θ die kleinste Varianz besitzt. Die effiziente Sch¨ atzung ist die beste Sch¨atzung (im Sinne kleinster Varianz) in der Klasse der erwartungstreuen Sch¨atzungen, nicht aber in der Klasse aller Sch¨ atzungen. Es kann verzerrte Sch¨atzungen geben, die einen kleineren MSE besitzen (zur Theorie der verzerrten Sch¨atzungen in linearen Modellen vgl. z.B. Toutenburg (2002a), Rao, Toutenburg, Shalabh und Heumann (2008)). Asymptotische G¨ utekriterien Ein schw¨acheres G¨ utekriterium als die Erwartungstreue eines Sch¨atzers ist die asymptotische Erwartungstreue. Man betrachtet Sch¨atzungen T (X), die mit zunehmendem Stichprobenumfang n den Parameter θ genauer sch¨atzen. atzfolge f¨ ur Eine Menge von Sch¨ atzfunktionen (T(n) (X))n∈N heißt Sch¨ den unbekannten Parameter θ, wenn es zu jedem Stichprobenumfang n genau eine Sch¨atzung T(n) (X) gibt. Definition 6.2.7. Eine Sch¨atzfolge (T(n) (X))n∈N f¨ ur den Parameter θ ist asymptotisch erwartungstreu, wenn f¨ ur jede zugelassene Verteilung mit dem Parameter θ gilt: lim Eθ (T(n) (X)) = θ
n→∞
∀θ .
Damit ist jeder erwartungstreue Sch¨ atzer auch asymptotisch erwartungstreu. Eine weitere asymptotische Eigenschaft ist die Konsistenz. Definition 6.2.8. Eine Sch¨atzfolge (T(n) (X))n∈N heißt konsistent f¨ ur θ, wenn die Folge T(n) (X) stochastisch gegen den wahren Parameter θ konvergiert: lim P (|T(n) (X) − θ| < ǫ) = 1 ∀ǫ > 0 . n→∞
Anmerkung. Die asymptotische Erwartungstreue und die Konsistenz sind relativ schwache Forderungen an einen Sch¨ atzer. Sie werden oft als Minimalanforderungen betrachtet.
6.3 Maximum-Likelihood-Sch¨ atzung 6.3.1 Das Maximum-Likelihood-Prinzip Ein wichtiges Konstruktionsprinzip zur Gewinnung der Parametersch¨atzung θˆ von θ ist das Maximum-Likelihood-Prinzip. Der mit dieser Methode
6.3 Maximum-Likelihood-Sch¨ atzung
113
gewonnene Maximum-Likelihood-Sch¨ atzer (ML-Sch¨atzer) zeichnet sich durch diverse G¨ uteeigenschaften aus. Sei (X1 , . . . , Xn ) eine i.i.d. Stichprobe der Zufallsvariablen X und sei f (x; θ) eine einparametrige Wahrscheinlichkeitsfunktion, falls X diskret ist, bzw. sei f (x; θ) eine einparametrige Dichte, falls X stetig ist. Die Menge {f (x; θ) : θ ∈ Θ} enth¨ alt alle zul¨ assigen Verteilungen der Zufallsvariablen X. Die gemeinsame Dichte bzw. gemeinsame Wahrscheinlichkeitsfunktion der Realisation x einer i.i.d. Stichprobe ist – wegen der Unabh¨angigkeit der Xi – das Produkt f (x; θ) = f (x1 , . . . , xn ; θ) =
n &
f (xi ; θ) .
i=1
Sie ist f¨ ur jeden festen Parameterwert θ eine Funktion der Realisation der Stichprobe. F¨ ur einen realisierten Stichprobenvektor x = (x1 , . . . , xn ) kann f (x; θ) nun umgekehrt als Funktion von θ aufgefaßt werden. Sie wird dann als Likelihood bzw. Likelihoodfunktion bezeichnet. Die Likelihoodfunktion von θ nach Beobachtung der Stichprobe x = (x1 , . . . , xn ) ist gegeben durch L(θ) = L(θ; x) =
n &
f (xi ; θ).
(6.4)
i=1
Durch Logarithmieren erh¨ alt man die Loglikelihoodfunktion l(θ) = ln L(θ) =
n
ln f (xi ; θ) ,
(6.5)
i=1
die mathematisch einfacher zu handhaben ist. Im mehrparametrigen Fall ist die Likelihoodfunktion bzw. Loglikelihoodfunktion eine Funktion des Parametervektors θ. Als Sch¨atzung des Parameters θ wird derjenige Wert θˆ gew¨ahlt, f¨ ur den die Likelihoodfunktion auf Grund der beobachteten Stichprobe x = (x1 , . . . , xn ) am gr¨oßten ist. Definition 6.3.1. Die Sch¨atzung θˆ = T (x) heißt Maximum-LikelihoodSch¨ atzung f¨ ur θ, wenn f¨ ur alle θ ∈ Θ bzw. gilt.
ˆ x) ≥ L(θ; x) L(θ;
(6.6)
ˆ x) ≥ l(θ; x) l(θ;
(6.7)
Beide Bedingungen sind gleichwertig, da die Logarithmierung eine streng monotone Transformation ist. Unter gewissen Voraussetzungen, die hier nicht n¨aher er¨ortert werden k¨onnen (vgl. z.B. R¨ uger, 1996), gilt f¨ ur die ML-Sch¨atzung TML (X):
114
1. 2. 3. 4.
6. Sch¨ atzung von Parametern
Die Die Die Die
ML-Sch¨atzung ML-Sch¨atzung ML-Sch¨atzung ML-Sch¨atzung
ist ist ist ist
asymptotisch erwartungstreu. konsistent. asymptotisch normalverteilt. asymptotisch effizient.
Zur praktischen Gewinnung der ML-Sch¨ atzung muß die Maximierung der Likelihoodfunktion bzw. der Loglikelihoodfunktion durchgef¨ uhrt werden. 6.3.2 Herleitung der ML-Sch¨ atzungen f¨ ur die Parameter der Normalverteilung Die Zufallsvariable X sei normalverteilt N (μ; σ 2 ). Die Realisation (x1 , . . . , xn ) einer i.i.d. Stichprobe der Zufallsvariable X besitzt die Likelihoodfunktion n2 n 1 1 2 L(μ, σ ; x1 , . . . , xn ) = (xi − μ)2 ). (6.8) exp(− 2πσ 2 2σ 2 i=1 Die Loglikelihoodfunktion lautet damit l(μ, σ 2 ) = −
n n n 1 ln 2π − ln σ 2 − 2 (xi − μ)2 . 2 2 2σ i=1
(6.9)
1. Fall: μ unbekannt, σ 2 =σ02 bekannt Gesucht ist die ML-Sch¨ atzung f¨ ur den unbekannten Parameter μ bei bekannter Varianz σ02 . Im ersten Schritt wird (6.9) nach μ differenziert: n d 1 n l(μ, σ02 ) = 2 (xi − μ) = 2 (¯ x − μ) . dμ σ0 i=1 σ0
(6.10)
Durch Nullsetzen der ersten Ableitung erh¨ alt man: d l(μ, σ02 ) = 0 dμ
⇔
μ ˆ = x¯ .
(6.11)
Um festzustellen, ob es sich um ein Maximum handelt, muß das Vorzeichen der zweiten Ableitung an der Stelle μ = x¯ u uft werden: ¨ berpr¨ ' ' d2 n l(μ, σ02 )'' (6.12) = − 2 < 0. 2 (dμ) σ0 µ=¯ x
Damit lautet die ML-Sch¨ atzung f¨ ur μ
¯ TML (X) = X. Sie ist erwartungstreu: n
¯ = E(X)
1 E(Xi ) = μ . n i=1
6.3 Maximum-Likelihood-Sch¨ atzung
115
2. Fall: σ 2 unbekannt, μ = μ0 bekannt Gesucht ist die ML-Sch¨ atzung f¨ ur den unbekannten Parameter σ 2 bei bekanntem Erwartungswert μ0 . Im ersten Schritt wird (6.9) nach σ 2 differenziert: n 1 n d 2 l(μ , σ ) = − + (xi − μ0 )2 . 0 dσ 2 2σ 2 2σ 4 i=1
(6.13)
Durch Nullsetzen der ersten Ableitung erh¨ alt man: d l(μ0 , σ 2 ) = 0 dσ 2
n
σ ˆ2 =
⇔
1 (xi − μ0 )2 . n i=1
(6.14)
Die Pr¨ ufung des Vorzeichens der zweiten Ableitung an der Stelle σ 2 = σ ˆ2 zeigt, dass es sich um ein Maximum handelt: n d2 n 2 2 l(μ , σ ) = − (xi − μ0 )2 0 (dσ 2 )2 2(σ 2 )2 2(σ 2 )3 i=1 ' ' n d2 1 2 ' l(μ , σ ) − 2 3 nˆ σ2 0 ' 2 2 = 2(ˆ 2 2 2 )2 (d σ ) σ (ˆ σ ) σ =ˆ σ n n − 2 2 = 2(ˆ σ 2 )2 (ˆ σ ) n =− < 0. 2(ˆ σ 2 )2
(6.15)
Damit lautet die ML-Sch¨ atzung f¨ ur σ 2 n
TML (X) =
1 (Xi − μ0 )2 , n i=1
die in diesem Fall (μ = μ0 bekannt) erwartungstreu ist. 3. Fall: μ unbekannt, σ 2 unbekannt Dies ist der f¨ ur die Praxis wesentliche – weil realistische – Fall, da er keine Vorkenntnis von μ = μ0 oder σ 2 = σ02 voraussetzt. ist die ML-Sch¨ atzung f¨ ur den unbekannten Parametervektor θ = Gesucht μ . Im ersten Schritt wird (6.9) partiell nach μ bzw. σ 2 differenziert: σ2 n 1 n ∂ l(θ) = 2 (xi − μ) = 2 (¯ x − μ) ∂μ σ i=1 σ
n ∂ 1 n l(θ) + (xi − μ)2 . = − ∂σ 2 2σ 2 2σ 4 i=1
116
6. Sch¨ atzung von Parametern
Durch Nullsetzen der ersten Ableitungen erh¨ alt man: n (¯ x − μ) = 0 σ2 n 1 n − 4 (xi − μ ˆ)2 = 0 2 2σ 2σ i=1
⇔
μ ˆ=x ¯
⇔
σ ˆ2 =
n
1 (xi − x ¯)2 . n i=1
¨ Nach Uberpr¨ ufung der Definitheit der Matrix der partiellen zweiten Ableiμ tungen ergibt sich als ML-Sch¨ atzung f¨ ur θ = σ2 ¯ X TML (X) = 1 n ¯ 2 . i=1 (Xi − X) n ¯ ist erwartungstreu und eine effiziente Sch¨atzung f¨ Anmerkung. X ur μ. F¨ ur 2 σ ˆ erhalten wir n−1 2 E(ˆ σ2 ) = σ , n
d.h., σ ˆ 2 ist nicht erwartungstreu, jedoch asymptotisch erwartungstreu. Durch n Korrektur mit dem Faktor n−1 erh¨ alt man die erwartungstreue Sch¨atzfunktion (Stichprobenvarianz) n
2 = SX
1 ¯ 2, (Xi − X) n − 1 i=1
¯ und S 2 von der man zeigen kann, dass sie effizient ist. Außerdem sind X X unabh¨angig. Beispiel 6.3.1. Eine Maschine bef¨ ullt Dosen mit einem bestimmten Produkt. Das F¨ ullgewicht X sei eine normalverteilte Zufallsvariable X ∼ N (μ, σ 2 ), deren Parameter μ und σ 2 durch x¯ und s2 gesch¨atzt werden sollen. Aus den bef¨ ullten Dosen wurde eine Stichprobe vom Umfang n = 50 gezogen (Tabelle 6.1). Wir erhalten x ¯=
1 (991 + 1011 + . . . + 1002 + 984) = 998.90 50
als gesch¨atztes mittleres F¨ ullgewicht. Die Stichprobenvarianz als Sch¨atzung der Varianz σ 2 der Verteilung betr¨ agt ) 1 ( (991 − 998.9)2 + (1011 − 998.9)2 + . . . + (984 − 998.9)2 50 − 1 = 79.23 .
s2 =
Mit SPSS erhalten wir die Ausgabe in Abbildung 6.1.
6.4 Konfidenzsch¨ atzungen von Parametern
117
Tabelle 6.1. F¨ ullgewichte xi der Dosen (in Gramm) xi 991 1011 1001 995 1001
1000 1000 1011 990 1005
993 990 994 981 1001
996 1000 1007 999 993
1007 1004 993 992 991
999 989 1001 1020 996
994 1002 1000 998 1017
1003 1008 989 1010 1008
989 1007 1016 1007 991
999 980 990 1002 984
Descriptive Statistics
N X Valid N (listwise)
50
Mean 998,9000
Std. Deviation 8,9014
Variance 79,235
50
Abb. 6.1. SPSS-Output zu Beispiel 6.3.1
6.4 Konfidenzsch¨ atzungen von Parametern 6.4.1 Grundlagen Eine Punktsch¨atzung hat den Nachteil, dass kein Hinweis auf die Genauigkeit dieser Sch¨atzung gegeben wird. Die Abweichung zwischen Punktsch¨atzung und wahrem Parameter (z.B. |¯ x − μ|) kann erheblich sein, insbesondere bei kleinem Stichprobenumfang. Aussagen u ¨ ber die Genauigkeit einer Sch¨atzung liefert die Konfidenzmethode. Bei ihr wird f¨ ur den unbekannten Parameter ein Zufallsintervall mit den Grenzen Iu (X) und Io (X) bestimmt, das den unbekannten Parameter θ (z.B. den Erwartungswert μ) mit vorgegebener Wahrscheinlichkeit von mindestens 1 − α u ¨berdeckt: Pθ (Iu (X) ≤ θ ≤ Io (X)) ≥ 1 − α .
(6.16)
Die Wahrscheinlichkeit 1 − α heißt Konfidenzniveau, Iu (X) heißt untere und Io (X) obere Konfidenzgrenze. Wir wollen noch einmal darauf hinweisen, dass die Intervallgrenzen Iu (X) und Io (X) als Funktionen der Stichproben Zufallsgr¨oßen sind. Damit kann ein Konfidenzintervall den Parameter θ u ¨ berdecken oder auch nicht u ¨ berdecken. Die Intervalle werden gerade so konstruiert, dass die Wahrscheinlichkeit f¨ ur ¨ die Uberdeckung des unbekannten Parameters mindestens (1 − α) betr¨agt. α dr¨ uckt das Risiko f¨ ur eine falsche Aussage (Nicht¨ uberdeckung) aus, das bei der Angabe eines Konfidenzintervalls f¨ ur θ eingegangen wird. Dieses Risiko muß vorher festgelegt werden. H¨aufigkeitsinterpretation: Wenn N unabh¨ angige Stichproben X(j) aus derselben Grundgesamtheit gezogen werden und dann jeweils Konfidenzintervalle
118
6. Sch¨ atzung von Parametern
der Form [Iu (X(j) ), Io (X(j) )] berechnet werden, so u ¨ berdecken bei hinreichend großem N etwa N (1 − α) aller Intervalle (6.16) das unbekannte, wahre θ. Anmerkung. Analog zur Theorie der Punktsch¨atzung k¨onnen auch bei Konfidenzsch¨atzungen G¨ utekriterien angegeben werden. Wir verweisen hierzu auf die entsprechende Spezialliteratur. 6.4.2 Konfidenzsch¨ atzung der Parameter einer Normalverteilung Konfidenzsch¨ atzung f¨ ur μ (σ 2 = σ02 bekannt) 2 Gegeben sei eine i.i.d. Stichprobe der N (μ, σ )-verteilten Zufallsvariablen X. n 1 ¯ ur μ und konstruieren Wir verwenden die Punktsch¨ atzung X = n i=1 Xi f¨ ein Konfidenzintervall, das symmetrisch um μ liegen soll. Die Punktsch¨atzung √ ¯ ¯ besitzt unter H0 eine N (μ, σ 2 /n)-Verteilung. Damit ist X−µ n ∼ N (0, 1), X 0 σ0 und es gilt ' ' ¯ 'X − μ√ ' ' ' α Pµ ' n' ≤ z1− 2 = 1 − α . σ0
(z1−α/2 bezeichnet das (1 − α/2)-Quantil der N (0, 1)-Verteilung.) Wir l¨osen diese Ungleichung nach μ auf und erhalten das gesuchte Konfidenzintervall f¨ ur μ dann als σ0 ¯ σ0 ¯ − z1−α/2 √ , X + z1−α/2 √ . (6.17) [Iu (X), Io (X)] = X n n ¯ eingesetzt. Die L¨ange In der Anwendung wird der realisierte Wert x¯ von X des Konfidenzintervalls σ0 (6.18) L = 2z1−α/2 √ n
ist von α und n abh¨ angig. Sind α und n konstant, so haben Konfidenzintervalle aus verschiedenen Stichproben (mit gleichem Umfang n) dieselbe L¨ange, jedoch eine unterschiedliche Lage. Wird α konstant gehalten, so kann die L¨ange L des Intervalls durch Erh¨ ohung des Stichprobenumfangs n verkleinert, die Genauigkeit der Sch¨ atzung also erh¨ oht werden. Wird die Genauigkeit durch die Intervall¨ ange L vorgegeben, so l¨asst sich leicht der f¨ ur diese Genauigkeit notwendige Mindeststichprobenumfang bestimmen. Wir l¨osen Gleichung (6.18) nach n auf und w¨ahlen das kleinste ganzzahlige n, f¨ ur das 2z1−α/2 σ0 2 (6.19) n≥ L gilt.
6.4 Konfidenzsch¨ atzungen von Parametern
119
Beispiel 6.4.1. Eine Maschine produziert Werkst¨ ucke. Die L¨ange X (in mm) dieser Werkst¨ ucke sei eine normalverteilte Zufallsvariable mit bekannter Varianz σ02 = 0.52 . In einer Stichprobe von n = 25 Werkst¨ ucken sei eine mittlere L¨ange (Stichprobenmittel) von x¯ = 50.1 mm ermittelt worden. Wir berechnen ein Konfidenzintervall zum Niveau 1 − α = 0.95 f¨ ur den Erwartungswert μ von X. Nach (6.17) erhalten wir das gesuchte Intervall: 0.5 0.5 [50.1 − 1.96 √ , 50.1 + 1.96 √ ] 25 25 ur α = 0.05 hat z1−α/2 den Wert 1.96). Die Intervallgrenzen sind also (f¨ Iu (x) = 49.904 und Io (x) = 50.296 . σ0 Das Konfidenzintervall hat die L¨ ange L = 2z1−α/2 √ = 2·1.96·0.5/5 = 0.392. n Wird f¨ ur das Intervall eine Maximall¨ ange von z.B. Lmax = 0.20 gefordert, also eine h¨ohere Genauigkeit der Sch¨ atzung verlangt, so ist daf¨ ur nach (6.19) ein Stichprobenumfang von mindestens 97 zu sichern: 2 2 · 1.96 · 0.5 = 96.04 . n≥ 0.20
Konfidenzsch¨ atzung f¨ ur μ (σ 2 unbekannt) Wenn die Varianz σ 2 unbekannt ist, sch¨ atzen wir sie durch die Stichprobenvarianz (vgl. (4.24)) n
2 SX =
2 1 ¯ 2 ∼ σ χ2 . (Xi − X) n − 1 i=1 n − 1 n−1
¯ und S 2 unabh¨ angig sind, ist Da X X
¯ − μ√ X n ∼ tn−1 SX t-verteilt mit n − 1 Freiheitsgraden (vgl. (4.26)). Damit gilt SX SX ¯ − tn−1;1−α/2 · √ ¯ + tn−1;1−α/2 · √ ≤μ≤X ) = 1 − α, P(µ,σ2 ) (X n n wobei tn−1;1−α/2 das (1 − α/2)-Quantil der t-Verteilung mit n − 1 Freiheitsgraden ist. Hieraus folgt das Konfidenzintervall f¨ ur μ SX SX ¯ ¯ [Iu (X), Io (X)] = X − tn−1;1−α/2 · √ , X + tn−1;1−α/2 · √ . (6.20) n n F¨ ur gleiches α und gleichen Stichprobenumfang n ist das Intervall (6.20) im allgemeinen breiter als das Intervall (6.17), da der unbekannte Parameter 2 σ 2 durch SX gesch¨ atzt werden muß, was zus¨atzliche Unsicherheit hereinbringt.
120
6. Sch¨ atzung von Parametern
Beispiel 6.4.2 (Fortsetzung von Beispiel 6.3.1). Zum Niveau 0.95 ergibt sich mit den Punktsch¨ atzungen x ¯ = 998.90 und s2 = 79.23 und t49;1−0.05/2 = 2.01 folgendes Konfidenzintervall f¨ ur den Parameter μ der Zufallsvariablen F¨ ullgewicht der Dosen“: ” √ √ 79.23 79.23 , 998.90 + 2.01 √ 998.90 − 2.01 √ 50 50 also [996.37, 1001.43].
Descriptives
X
Mean 95% Confidence Interval for Mean
Statistic 998,9000 Lower Bound Upper Bound
Std. Error 1,2588
996,3703 1001,4297
5% Trimmed Mean 998,8222 Median Variance Std. Deviation Minimum Maximum Range Interquartile Range Skewness Kurtosis
999,5000 79,235 8,9014 980,00 1020,00 40,00 13,7500 ,175 -,147
,337 ,662
Abb. 6.2. SPSS-Output zu Beispiel 6.4.2
Mit SPSS erhalten wir die Ausgabe wie in Abbildung 6.2 angegeben, mit x¯: Mean 998.9000; s2 : Variance 79.2347 und dem Konfidenzintervall zum Niveau 0.95: 95\% CI for Mean (996.3703, 1001.4297). Konfidenzsch¨ atzung f¨ ur die Varianz σ 2 (μ unbekannt) F¨ ur das unbekannte σ 2 wird zun¨ achst die Punktsch¨atzung
6.4 Konfidenzsch¨ atzungen von Parametern
121
n
2 SX =
1 ¯ 2 (Xi − X) n − 1 i=1
bestimmt. Da die Zufallsvariable C=
n 2 1 (n − 1)SX ¯ 2 = (Xi − X) σ2 σ 2 i=1
eine χ2 -Verteilung mit (n − 1) Freiheitsgraden besitzt, werden wir das Konfidenzintervall f¨ ur σ 2 wie folgt bestimmen k¨ onnen. Zun¨achst lesen wir zu vorgegebenem α aus Tabelle B.3 Werte c1 und c2 derart ab, dass 2 (n − 1)SX α < c1 = P σ2 2 und P
2 (n − 1)SX > c2 2 σ
=
α 2
gilt (Abbildung 6.3), d.h., insgesamt gilt 2 (n − 1)SX P c1 ≤ ≤ c = 1 − α. 2 σ2
(6.21)
x cn−1;α/2
cn−1;1−α/2 Abb. 6.3. Quantile gem¨ aß Gleichung (6.21)
In unserer u ¨blichen Schreibweise sind c1 und c2 Quantile der χ2n−1 Verteilung: c1 = cn−1;α/2 und c2 = cn−1;1−α/2 . Damit hat das Konfidenzintervall f¨ ur die Varianz σ 2 zum Niveau 1 − α die Gestalt n−1 n−1 2 2 S , S . (6.22) cn−1;1−α/2 X cn−1;α/2 X
122
6. Sch¨ atzung von Parametern
Jede konkrete Stichprobe liefert also eine Realisierung des Zufallsintervalls (6.22), so dass die Konfidenzsch¨ atzung von σ 2 in der Realisierung die Gestalt hat n n ¯)2 ¯)2 i=1 (xi − x i=1 (xi − x , . (6.23) cn−1;1−α/2 cn−1;α/2 Beispiel 6.4.3 (Fortsetzung von Beispiel 6.3.1). F¨ ur die Varianz der Grundgesamtheit wurde aus der Stichprobe aus Beispiel 6.3.1 ein Sch¨atzwert 50 1 ¯)2 = 79.23 berechnet (vgl. SPSS-Listing in Beispiel 6.4.2). s2 = 49 i=1 (xi − x Also ist (n − 1)s2 = 49 · 79.23 = 3882.27. Zum Konfidenzniveau 1 − α = 0.95 wird c49;0.975 = 70.19 und c49;0.025 = 31.60. Diese Werte werden durch lineare Interpolation u ur ¨ ber die Freiheitsgrade aus Tabelle B.3 bestimmt; z.B. gilt f¨ den ersten Wert 40 Freiheitsgrade, c40;0.975 = 59.30 50 Freiheitsgrade, c50;0.975 = 71.40 ·9 = 70.19. Damit k¨onnen wir Formel (6.23) also c49;0.975 = 59.30+ 71.40−59.30 10 zur Berechnung des Konfidenzintervalls f¨ ur σ 2 anwenden: 3882.27 3882.27 , = [55.31, 122.86] . 70.19 31.60
6.5 Sch¨ atzen einer Binomialwahrscheinlichkeit Wir betrachten ein Zufallsexperiment mit zwei m¨oglichen Ausg¨angen: Ereig¯ Die Wahrscheinlichkeit f¨ nisse A und A. ur das Eintreten von A sei p, die Wahrscheinlichkeit f¨ ur A¯ ist dann 1 − p. Die Wahrscheinlichkeit p ist unbekannt und soll aus einer Stichprobe gesch¨ atzt werden. Ordnen wir wieder dem Ereignis A den Wert 1 und dem Ereignis A¯ den Wert 0 zu. Bei n-facher Wiederholung dieses Experiments ist die Anzahl der Versuche mit eingetretenem Ereignis A eine Zufallsvariable X, die die Werte 0, 1, . . . , n annehmen kann. X ist binomialverteilt: X ∼ B(n; p). Als Punktsch¨ atzung der unbekannten Wahrscheinlichkeit p w¨ahlen wir den ML–Sch¨atzer (vgl. Aufgabe 6.4) X . n Da X die Varianz np(1 − p) besitzt, lautet die Varianz der Sch¨atzung pˆ pˆ =
Var(ˆ p) = die durch Sp2ˆ = gesch¨atzt wird.
p(1 − p) , n
pˆ(1 − pˆ) n
6.5 Sch¨ atzen einer Binomialwahrscheinlichkeit
123
Beispiel 6.5.1. Aus der Kundendatei eines Versandhauses werden zuf¨allig n = 100 Kunden (Ziehen mit Zur¨ ucklegen) gezogen. Bei jedem Kunden wird notiert, ob er in den letzten zw¨ olf Monaten etwas bestellt hat (Ereignis A) ¯ Es sei 40-mal A und 60-mal A¯ beobachtet worden. oder nichts bestellt hat (A). Die Wahrscheinlichkeit p, dass ein zuf¨ allig gezogener Kunde in den letzten zw¨olf Monaten etwas bestellt hat, wird gesch¨ atzt als 40 = 0.4 pˆ = 100 mit einer gesch¨atzten Varianz von 0.4 · 0.6 s2pˆ = = 0.0024. 100
Konfidenzsch¨ atzung f¨ ur p H¨aufig ist man daran interessiert, ein Konfidenzintervall f¨ ur die unbekannte Wahrscheinlichkeit p zu konstruieren, das p mit vorgegebener Wahrscheinlichkeit 1 − α u ¨ berdeckt. Man kann exakte Konfidenzintervalle mit Hilfe der Tafeln der Binomialverteilung bestimmen (vgl. Vogel, 1995, Anhang 12). Ist die Bedingung np(1 − p) ≥ 9 erf¨ ullt, so kann man die N¨aherung (vgl. (5.12)) verwenden, die die Binomialverteilung durch die Normalverteilung approximiert: pˆ − p approx. Z= ∼ N (0, 1) , pˆ(1 − pˆ)/n also gilt % $ * * pˆ(1 − pˆ) pˆ(1 − pˆ) ≈ 1 − α , (6.24) P pˆ − z1−α/2 ≤ p ≤ pˆ + z1−α/2 n n und wir erhalten das Konfidenzintervall f¨ ur p * * pˆ(1 − pˆ) pˆ(1 − pˆ) pˆ − z1−α/2 , pˆ + z1−α/2 n n
.
Beispiel 6.5.2 (Fortsetzung von Beispiel 6.5.1). Die Sch¨atzung des Konfidenzintervalls f¨ ur die Wahrscheinlichkeit p zum Niveau 1 − α = 0.95 wird mit der obigen N¨ aherung wie folgt berechnet. Mit nˆ p(1− pˆ) = 100·0.4·0.6 = 24 > 9 ist die notwendige Voraussetzung f¨ ur die Verwendung der Normalapproximation erf¨ ullt. Wir erhalten mit z1−α/2 = z0.975 = 1.96 und pˆ = 0.4 * * 0.4 · 0.6 0.4 · 0.6 = [0.304, 0.496] 0.4 − 1.96 , 0.4 + 1.96 100 100 als Konfidenzintervall f¨ ur das unbekannte p. Mit SPSS erhalten wir (ebenfalls unter Verwendung der Normalapproximation) die Ausgabe in Abbildung 6.4.
124
6. Sch¨ atzung von Parametern
Descriptives
X
Mean 95% Confidence Interval for Mean
Statistic ,4000 Lower Bound Upper Bound
Std. Error 4,924E-02
,3023 ,4977
5% Trimmed Mean ,3889 Median Variance Std. Deviation Minimum Maximum Range Interquartile Range Skewness Kurtosis
,0000 ,242 ,4924 ,00 1,00 1,00 1,0000 ,414 -1,866
Abb. 6.4. SPSS-Output zu Beispiel 6.5.2
,241 ,478
6.6 Aufgaben und Kontrollfragen
125
6.6 Aufgaben und Kontrollfragen Aufgabe 6.1: Sei T (X) eine Sch¨ atzfunktion f¨ ur einen unbekannten Parameter θ. a) Wann ist T (X) erwartungstreu? b) Wie lautet der MSE f¨ ur erwartungstreue Sch¨atzfunktionen? c) Wann ist eine Sch¨ atzfolge konsistent f¨ ur θ? Aufgabe 6.2: Gegeben seien zwei Sch¨ atzungen T1 (X) und T2 (X) von θ. Wann heißt T1 (X) MSE-besser als T2 (X)? Aufgabe 6.3: Sei X ∼ N (μ, σ2 ) und x = (x1 , . . . , xn ) eine konkrete Stichprobe. Wie lautet a) die Punktsch¨atzung f¨ ur μ (σ 2 unbekannt)? b) die Punktsch¨atzung f¨ ur σ 2 (μ unbekannt)? c) die Konfidenzsch¨ atzung f¨ ur μ bei bekanntem bzw. bei unbekanntem σ 2 ? Aufgabe 6.4: Sei X ∼ B(n; p) eine binomialverteilte Zufallsvariable. Leiten Sie die ML–Sch¨atzung f¨ ur p her. Aufgabe 6.5: Sei X1 , . . . , Xn eine i.i.d. Stichprobe einer auf dem Intervall [0, b] gleichverteilten Zufallsvariablen X. Bestimmen Sie die ML-Sch¨atzung f¨ ur E(X) = b/2. Aufgabe 6.6: Gegeben sei eine i.i.d. Stichprobe einer P o(λ)-verteilten Zufalls¯ der ML-Sch¨ variablen X. Zeigen Sie, dass X atzer f¨ ur E(X) ist. Aufgabe 6.7: Es soll der Mittelwert μ = E(X) des normalverteilten Kopfumfangs X (in cm) bei M¨ adchengeburten gesch¨atzt werden. Dazu werden in einer Frauenklinik n Kopfumf¨ ange gemessen; es kann davon ausgegangen werden, dass es sich dabei um eine unabh¨ angige Stichprobe von X handelt. Bestimmen Sie f¨ ur folgende Situationen ein Konfidenzintervall f¨ ur μ zum Konfidenzniveau 0.99: ¯ = 42 a) n = 100; σ 2 = 16; x b) n = 30; x ¯ = 42; s2 = 14 c) Wie groß m¨ ußte der Stichprobenumfang in Teilaufgabe (a) gew¨ahlt werden, um eine Genauigkeit von 0.999 zu erreichen (z0 .9995 = 3.29)? Aufgabe 6.8: Mittels eines neuartigen Verfahrens soll die Einschaltquote bei ausgew¨ahlten Fernsehsendungen gesch¨ atzt werden. Zu diesem Zweck werden durch reine Zufallsauswahl 2500 Haushalte bestimmt, wobei in jedem Haushalt ein Ger¨ at installiert wird, das einer Zentralstelle anzeigt, wann der Fernsehapparat eingeschaltet ist. Wie groß ist die Genauigkeit, mit der die Einschaltquoten gesch¨atzt werden k¨onnen, wenn ein Konfidenzniveau von 0.95 f¨ ur die Sch¨atzung eingehalten werden soll?
126
6. Sch¨ atzung von Parametern
Aufgabe 6.9: Unter 3000 Neugeborenen wurden 1428 M¨adchen gez¨ahlt. Bestimmen Sie daraus ein Konfidenzintervall f¨ ur die Wahrscheinlichkeit p einer M¨adchengeburt zum Konfidenzniveau 0.98. Aufgabe 6.10: Eine Maschine f¨ ullt Gummib¨ archen in T¨ uten ab, die laut Aufdruck 250g F¨ ullgewicht versprechen. Wir nehmen im Folgenden an, dass das F¨ ullgewicht normalverteilt ist. Bei 16 zuf¨allig aus der Produktion herausgegriffenen T¨ uten wird ein mittleres F¨ ullgewicht von 245g und eine Stichproben–Standardabweichung von 10g festgestellt. a) Berechnen Sie ein Konfidenzintervall f¨ ur das mittlere F¨ ullgewicht zum Konfidenzniveau von 95%. b) Wenn Ihnen zus¨ atzlich bekannt w¨ are, dass die Stichprobenstreuung gleich der tats¨achlichen Streuung ist, w¨ are dann das unter a) zu berechnende Konfidenzintervall f¨ ur das mittlere F¨ ullgewicht breiter oder schmaler? Begr¨ unden Sie Ihre Antwort ohne Rechnung.
7. Pru ¨fen statistischer Hypothesen
7.1 Einleitung Im vorausgegangenen Kapitel haben wir Sch¨ atzungen f¨ ur unbekannte Parameter von Verteilungen zuf¨ alliger Variablen hergeleitet. Wir betrachten nun Annahmen (Hypothesen) u ¨ ber die nicht vollst¨andig bekannte Wahrscheinlichkeitsverteilung einer Zufallsvariablen. Diese Hypothesen betreffen die Parameter der Verteilung. Sie werden anhand von Stichproben u uft. ¨ berpr¨ Beispiel. Ein Werk produziert Waschpulver der Sorte 1kg Reinweiß“. Die ” Zufallsvariable X F¨ ullgewicht eines Pakets“ (Maßeinheit Gramm) sei nor” malverteilt mit bekannter Standardabweichung σ = 15, d. h. X ∼ N (μ, 152 ). Bei einer Qualit¨ atskontrolle soll durch eine Stichprobe die Einhaltung des Sollgewichts μ = 1000 Gramm u uft werden. ¨berpr¨ Die Pr¨ ufung einer statistischen Hypothese H0 erfolgt mit statistischen Tests. Ausgangspunkt ist die Beobachtung einer Zufallsvariablen in einer zuf¨alligen Stichprobe. Mittels der daraus gewonnenen Sch¨atzungen der unbekannten Parameter will man zu einer Aussage u urdigkeit der ¨ ber die Glaubw¨ Hypothese H0 gelangen.
7.2 Testtheorie Der statistische Test stellt eine Methode dar, Verteilungsannahmen u ¨ ber eine Zufallsvariable X anhand einer konkreten Stichprobe zu u ufen. Die ¨berpr¨ Menge aller f¨ ur die Zufallsvariable X in Frage kommenden Verteilungen wird als Hypothesenraum Ω bezeichnet. Diese Menge ist vor der Durchf¨ uhrung eines Tests festzulegen. Betrachtet man einen Hypothesenraum Ω, der nur Verteilungen einer Familie (z. B. Normalverteilungen) enth¨ alt, so ist die Festlegung von Ω ¨aquivalent zur Festlegung des Parameterraums Θ, der alle m¨oglichen Werte eines Verteilungsparameters θ ∈ Θ bzw. Parametervektors θ ∈ Θ enth¨alt (z. B. θ = μ mit Θ = R; θ = σµ2 mit Θ = R × R+ ). In diesem Fall spricht man von einem parametrischen Testproblem.
128
7. Pr¨ ufen statistischer Hypothesen
Dieses Kapitel befaßt sich mit parametrischen Testproblemen. Nichtparametrische Testprobleme werden in Kapitel 8 behandelt. Bei einem parametrischen Testproblem wird der Hypothesenraum (Parameterraum) in zwei Teilmengen aufgeteilt: die zu testende Hypothese (Nullhypothese) H0 = {θ|θ ∈ Θ0 } und die Alternative H1 = {θ|θ ∈ Θ1 }. Hierbei gilt stets Θ0 ∩ Θ1 = ∅ und (bei einem Signifikanztest) Θ0 ∪ Θ1 = Θ . Ein Test heißt Signifikanztest, wenn die Hypothese direkt an die Alternative grenzt“, d. h., wenn die minimale Distanz zwischen der Hypothese und der ” Alternative gleich Null ist (z. B. H0 : μ = μ0 gegen H1 : μ = μ0 oder H0 : σ 2 = σ02 gegen H1 : σ 2 = σ02 ). Ist der Abstand zwischen Hypothese und Alternative nicht Null, spricht man von einem Alternativtest (z. B. H0 : μ = 4 gegen H1 : μ = 5 oder H0 : σ 2 = σ02 gegen H1 : σ 2 = σ12 mit σ02 = σ12 ). Wir behandeln hier nur Signifikanztests. Die Hypothese ist die Menge der Verteilungen, die die unbekannte Ver¨ teilung der Zufallsgr¨ oße X aufgrund von sachlichen Uberlegungen enthalten soll. Mit Hilfe einer Realisation (x1 , . . . , xn ) der Zufallsvariablen X aus einer i.i.d. Stichprobe soll eine der folgenden beiden Entscheidungen getroffen werden: • H0 wird abgelehnt, • H0 wird beibehalten. Die Funktion T (X) = T (X1 , . . . , Xn ) der Stichprobenvariablen X = (X1 , . . . , Xn ) heißt Testgr¨ oße oder Pr¨ ufgr¨ oße. T (X) ist eine Zufallsvariable, deren Verteilung u ¨ ber die Stichprobenvariablen (X1 , . . . , Xn ) von der Verteilung von X abh¨ angt. F¨ ur die konkrete Stichprobe (x1 , . . . , xn ) ergibt sich t = T (x1 , . . . , xn ) als Realisation der Zufallsgr¨oße T (X). Der Wertebereich der Zufallsgr¨oße T (X) wird in folgende zwei Teilbereiche zerlegt: • kritischer Bereich oder Ablehnbereich K ¯ • Annahmebereich K. Aufgrund der Realisation (x1 , . . . , xn ) wird dann folgende Testentscheidung getroffen: • H0 ablehnen, falls T (x1 , . . . , xn ) ∈ K, ¯ • H0 nicht ablehnen, falls T (x1 , . . . , xn ) ∈ K. Bei einem Signifikanztest enth¨ alt die erste Testentscheidung H0 abzulehnen eine wesentlich sch¨ arfere Aussage als die zweite. Denn eine Stichprobe, die nicht zu einer Ablehnung von H0 f¨ uhrt, spricht nicht unbedingt gegen die Alternative, da Elemente der Alternative beliebig nahe bei Elementen der ”
7.2 Testtheorie
129
Hypothese liegen“. Eine Best¨ atigung der Hypothese H0 ist deshalb bei Signifikanztests nicht m¨ oglich. Will man eine Aussage best¨atigen, muß das Gegenteil dieser Aussage als Hypothese formuliert werden. Eine Ablehnung dieser Hypothese stellt dann die gew¨ unschte Best¨ atigung der Aussage dar. Bei der Durchf¨ uhrung eines statistischen Tests k¨onnen zwei Arten von Fehlern gemacht werden: • Die Hypothese H0 ist richtig und wird abgelehnt; diesen Fehler bezeichnet man als Fehler 1. Art. • Die Hypothese H0 wird nicht abgelehnt, obwohl sie falsch ist; dies ist der Fehler 2. Art. Insgesamt gibt es also folgende vier Situationen. H0 wird nicht abgelehnt H0 wird abgelehnt
H0 ist richtig richtige Entscheidung Fehler 1. Art
H0 ist nicht richtig Fehler 2. Art richtige Entscheidung
Bei der Konstruktion eines Tests gibt man sich f¨ ur die Wahrscheinlichkeit f¨ ur einen Fehler 1. Art eine Schranke α vor (z. B. α = 0.05), die nicht u ¨ berschritten werden darf. Diese Schranke bezeichnet man als Signifikanzniveau des Tests. Der zugeh¨ orige Test heißt dann Signifikanztest zum Niveau α oder kurz Niveau-α-Test. Der kritische Bereich K wird so konstruiert, dass die Wahrscheinlichkeit f¨ ur einen Fehler 1. Art nicht gr¨ oßer als α ist: Pθ (T (X) ∈ K) ≤ α
∀θ ∈ Θ0 .
Wird H0 abgelehnt, so gilt H1 als statistisch signifikant mit einer Irrtumswahrscheinlichkeit von h¨ ochstens α. Der Fehler 1. Art ist unter Kontrolle“. ” Ziel bei der Konstruktion eines Niveau-α-Tests ist, dass die Wahrscheinlichkeit f¨ ur einen Fehler 2. Art ¯ Pθ (T (X) ∈ K)
∀θ ∈ Θ1 ,
f¨ ur alle Verteilungen der Alternative m¨ oglichst klein ist. Die Funktion G(θ), die f¨ ur einen Test die Ablehnwahrscheinlichkeit in Abh¨angigkeit vom Parameter θ angibt, heißt G¨ utefunktion des Tests: Gθ (θ) = P (T (X) ∈ K) . In der Qualit¨atskontrolle wird statt der G¨ utefunktion die Operationscharakteristik (OC-Kurve) ¯ OC(θ) = 1 − G(θ) = Pθ (T (X) ∈ K) betrachtet. Sie gibt die Wahrscheinlichkeit f¨ ur die Nichtablehnung der Hypothese in Abh¨angigkeit vom Parameter θ an.
130
7. Pr¨ ufen statistischer Hypothesen
Definition 7.2.1. Ein Test zum Signifikanzniveau α heißt gleichm¨ aßig bester Test unter allen Tests zum Niveau α, wenn er f¨ ur alle Parameterwerte der Alternative H1 die kleinste Wahrscheinlichkeit f¨ ur den Fehler 2. Art besitzt. F¨ ur die G¨ utefunktion des gleichm¨aßig besten Tests ϕ∗ zum Niveau α gilt: Gϕ∗ (θ) ≥ Gϕ (θ) ∀θ ∈ Θ1 und ϕ ∈ Φα , wobei Φα die Klasse aller Niveau-α-Tests ist. Ein Test zum Niveau α heißt unverf¨ alscht, wenn G(θ) ≥ α
∀θ ∈ Θ1
gilt, d. h., wenn die Ablehnwahrscheinlichkeit f¨ ur alle Verteilungen der Alternative mindestens so groß ist wie f¨ ur alle Verteilungen der Hypothese. Unverf¨alschte Tests gew¨ ahrleisten, dass unter H1 die Hypothese mit gr¨oßerer Wahrscheinlichkeit abgelehnt wird als unter H0 . Wir betrachten in diesem Kapitel nur unverf¨ alschte Tests. Die Unverf¨ alschtheit wird als Minimalforderung an einen Test angesehen. Die Suche nach gleichm¨aßig besten Tests wird auf diese Klasse beschr¨ ankt. Ein Test l¨auft im allgemeinen nach folgendem Schema ab: 1. Das Vorwissen u ¨ ber die Zufallsvariable X wird durch Festlegung der Verteilungsannahme umgesetzt. Im parametrischen Fall bedeutet dies, dass der Parameterraum festgelegt wird. 2. Formulierung der Hypothese und der Alternative. 3. Vorgabe der Irrtumswahrscheinlichkeit α. 4. Konstruktion einer geeigneten Testgr¨ oße T (X) = T (X1 , . . . , Xn ) als Funktion der Stichprobenvariablen X, deren Verteilung unter der Nullhypothese vollst¨ andig bekannt sein muß. 5. Wahl des kritischen Bereichs K aus dem m¨oglichen Wertebereich von T (X) derart, dass Pθ (T (X) ∈ K) ≤ α f¨ ur alle θ ∈ Θ0 gilt. 6. Berechnung der Realisierung t = T (x1 , . . . , xn ) der Testgr¨oße T (X) anhand der konkreten Stichprobe (x1 , . . . , xn ). 7. Entscheidungsregel: Liegt der Wert t = T (x1 , . . . , xn ) f¨ ur die konkrete Stichprobe im kritischen Bereich K, so wird die Nullhypothese abgelehnt. Ist t nicht im kritischen Bereich, so wird die Nullhypothese nicht abgelehnt: t ∈ K : H0 ablehnen,
t ∈ K : H0 nicht ablehnen. Bei Hypothesen der Form H0 : θ = θ0 gegen H1 : θ = θ0 sprechen wir von alt alle von θ0 abweichenden Paramezweiseitiger Fragestellung (Θ1 enth¨ terwerte). Wir sprechen von einseitiger Fragestellung, wenn wir Hypothesen der Form H0 : θ ≥ θ0 gegen H1 : θ < θ0 bzw. H0 : θ ≤ θ0 gegen H1 : θ > θ0 testen.
7.3 Einstichprobenprobleme bei Normalverteilung
131
Beispiel. Wird bei Gl¨ uhbirnen gepr¨ uft, ob die mittlere Brenndauer μ einen Mindestsollwert erreicht, so bedeutet eine Unterschreitung des Sollwertes, ¨ dass die Gl¨ uhbirnen die geforderte Qualit¨ at nicht erreichen. Die Uberschreitung des Sollwertes dagegen hat keine negativen Folgen. Wir testen deshalb einseitig H0 : μ ≥ μ0 gegen H1 : μ < μ0 . Testentscheidung mit p–values Beim Einsatz von Statistiksoftware wie SPSS zum Pr¨ ufen von Hypothesen werden diese Schritte – insbesondere die Konstruktion des kritischen Bereichs K – nicht angezeigt. Statt dessen wird der konkrete Wert t = T (x1 , . . . , xn ) der Teststatistik T (X) und der zugeh¨ orige p-value (auch ‘significance’) ausgegeben. Der p-value der Teststatistik T (X) ist wie folgt definiert: zweiseitige Fragestellung: Pθ0 (|T (X)| > t)) = p–value einseitige Fragestellung: Pθ0 (T (X) > t)) = p–value bzw. Pθ0 (T (X) < t)) = p–value Die Testentscheidung lautet dann: H0 ablehnen, falls der p-value kleiner oder gleich dem vorgegebenem Signifikanzniveau α ist, ansonsten H0 nicht ablehnen. Ein- und Zweistichprobenprobleme Man spricht von einem Einstichprobenproblem, wenn Hypothesen u ¨ ber eine Zufallsvariable X und ihre Verteilung gepr¨ uft werden. Liegen dagegen zwei Zufallsvariablen X und Y vor, so spricht man von einem Zweistichprobenproblem, wenn die Hypothesen H0 und H1 beide Verteilungen betreffen. Seien z. B. X = (X1 , . . . , Xn1 ) und Y = (Y1 , . . . , Yn2 ) jeweils i.i.d. Stichproben von 2 unabh¨angigen Zufallsvariablen X ∼ N (μX , σX ) und Y ∼ N (μY , σY2 ), so sind Hypothesen wie H0 : μX = μY gegen H1 : μX = μY von Interesse.
7.3 Einstichprobenprobleme bei Normalverteilung 7.3.1 Pr¨ ufen des Mittelwertes bei bekannter Varianz (einfacher Gauss-Test) Wir wollen im Folgenden pr¨ ufen, ob der unbekannte Erwartungswert μ einer N (μ, σ 2 )-verteilten Zufallsvariablen X einen bestimmten Wert μ = μ0 besitzt bzw. u ¨ ber- oder unterschreitet. Dabei sei zun¨achst die Varianz σ 2 = σ02 bekannt. Der vorgegebene Wert μ0 kann beispielsweise ein Sollwert bei der Herstellung eines Produkts sein, u ¨ ber den gewisse Festlegungen oder Vermutungen vorliegen. Wir wollen diese Fragestellung ausf¨ uhrlich anhand des Testschemas demonstrieren. Die einzelnen Schritte des Testschemas sind:
132
7. Pr¨ ufen statistischer Hypothesen
1. Verteilungsannahme: Die Zufallsvariable X ist N (μ, σ02 )-verteilt mit bekannter Varianz σ02 . 2. Festlegen von H0 : F¨ ur die zweiseitige Fragestellung lautet die Nullhypour die einseitige Fragestellung lautet die Nullhypothese these H0 : μ = μ0 , f¨ H0 : μ ≤ μ0 oder H0 : μ ≥ μ0 , je nachdem welche Richtung von Interesse ist. 3. Vorgabe der Irrtumswahrscheinlichkeit α: In der Regel w¨ahlt man α = 0.05 oder α = 0.01. 4. Konstruktion der Testgr¨oße: Wir sch¨ atzen den unbekannten Erwartungswert durch das arithmetische Mittel der Stichprobenwerte (Stichprobenmittelwert) n σ2 1 H ¯ X= Xi ∼0 N (μ0 , 0 ) n i=1 n und bilden durch Standardisierung daraus die unter H0 N (0, 1)-verteilte Pr¨ ufgr¨oße ¯ − μ0 √ H0 X T (X) = n ∼ N (0, 1). σ0
5. Kritischer Bereich: Trifft bei zweiseitiger Fragestellung die Nullhypothese ¯ in der Realisierung H0 : μ = μ0 zu, so m¨ ußte auch das Stichprobenmittel X einen Wert nahe μ0 besitzen, d. h., die Realisierung t der Testgr¨oße T (X) m¨ ußte nahe Null liegen. Mit anderen Worten, der kritische Bereich K wird so gew¨ahlt, dass er alle betragsm¨ aßig großen Werte von T (X) enth¨alt, wobei die Wahrscheinlichkeitsmasse von K unter H0 gerade α ist. Bei einseitiger Fragestellung H0 : E(X) ≤ μ0 (bzw. H0 : E(X) ≥ μ0 ) sind große Abweichungen nach oben (bzw. nach unten) in K zusammengefaßt. F¨ ur die zweiseitige Fragestellung ist der kritische Bereich also K = Θ\[−k, k], wobei k so bestimmt wird, dass der Fehler 1. Art gleich α ist, d. h. Pµ0 (|T (X)| > k) = α . Man erh¨alt k = z1−α/2 , wobei z1−α/2 das (1 − α/2)-Quantil der N (0, 1)Verteilung ist. Die Werte hierzu findet man in Tabelle B.1. Es sind z. B. z1−0.05/2 = 1.96 oder z1−0.01/2 = 2.57. Wir erhalten den kritischen Bereich K als: K = (−∞, −z1−α/2 ) ∪ (z1−α/2 , ∞) . (7.1)
7.3 Einstichprobenprobleme bei Normalverteilung
133
Bei der einseitigen Fragestellung erhalten wir entsprechend im Fall H0 : μ ≤ μ0 gegen H1 : μ > μ0 den kritischen Bereich K = (z1−α , ∞) . Im umgekehrten Fall H0 : μ ≥ μ0 gegen H1 : μ < μ0 erhalten wir K = (−∞, −zα ) . Die Standardwerte f¨ ur die z–Quantile sind hierbei z1−0.05 = 1.64 und z0.05 = −1.64 = −z1−0.05 .
6. Realisierung der Testgr¨oße: Aus einer konkreten Stichprobe x1 , . . . , xn wird der Stichprobenmittelwert n
x ¯=
1 xi n i=1
und daraus die Realisierung t = T (x1 , . . . , xn ) der Testgr¨oße T (X) ermittelt t=
x ¯ − μ0 √ n. σ0
7. Testentscheidung: Bei der zweiseitigen Fragestellung wird die Nullhypothese abgelehnt, falls die Testgr¨ oße im kritischen Bereich liegt, d. h., falls |t| > z1−α/2 gilt. H0 wird nicht abgelehnt, falls umgekehrt |t| ≤ z1−α/2 gilt. Die Bereiche sind in Abbildung 7.1 dargestellt.
zα/2 = −z1−α/2
z1−α/2
Abb. 7.1. Kritischer Bereich f¨ ur den zweiseitigen einfachen Gauss-Test H0 : μ = μ0 gegen H1 : μ = μ0 . Der kritische Bereich K = (−∞, −z1−α/2 ) ∪ (z1−α/2 , ∞) besitzt unter H0 die durch die grauen Fl¨ achen dargestellte Wahrscheinlichkeitsmasse α.
Bei der einseitigen Fragestellung H0 : μ ≤ μ0 gegen H1 : μ > μ0 wird H0 genau dann abgelehnt, wenn t > z1−α gilt. Ist t > z1−α nicht erf¨ ullt, so wird H0 nicht abgelehnt (vgl. Abbildung 7.2). Bei der umgekehrt gerichteten einseitigen Fragestellung H0 : μ ≥ μ0 gegen H1 : μ < μ0 wird H0 genau dann abgelehnt, wenn t < zα = −z1−α gilt. Anderenfalls wird H0 nicht abgelehnt.
134
7. Pr¨ ufen statistischer Hypothesen
z1−α Abb. 7.2. Kritischer Bereich f¨ ur den einseitigen einfachen Gauss-Test H0 : μ ≤ μ0 gegen H1 : μ > μ0 . Der kritische Bereich K = (z1−α , ∞) besitzt unter H0 die durch die graue Fl¨ ache dargestellte Wahrscheinlichkeitsmasse α.
Beispiel 7.3.1. Die (in kg gemessene) Masse X von maschinell hergestellten Brotlaiben sei normalverteilt. Die Varianz σ02 = 0.12 sei aus Erfahrung bekannt. Das angegebene Verkaufsgewicht und damit die geforderte Mindestmasse sei μ = 2 kg. Liegt nun eine Stichprobe vom Umfang n = 20 Brotlaibe mit dem Stichprobenmittelwert x ¯ = 1.97 kg vor, so soll u uft werden, ob ¨ berpr¨ dieses Stichprobenergebnis gegen die Hypothese H0 : μ ≥ μ0 = 2 kg spricht. Wir geben eine Irrtumswahrscheinlichkeit von α = 0.05 vor. F¨ ur die einseitige Fragestellung H0 : μ ≥ 2
gegen H1 : μ < 2
verwenden wir bei vorgegebenem α = 0.05 den Wert z1−α = 1.64. F¨ ur die √ ¯ 0 n ergibt sich der Wert Realisierung t der Testgr¨ oße T (X) = X−µ σ0 t=
1.97 − 2 √ 20 = −1.34. 0.1
H0 wird nicht abgelehnt, da t = −1.34 > −1.64 = −z1−0.05 = z0.05 . Interpretation: Die in der Stichprobe beobachtete mittlere Masse x ¯ = 1.97 kg liegt zwar unter dem Sollwert von μ = 2 kg. Dieses Ergebnis widerspricht aber nicht der Hypothese, dass die Stichprobe aus einer N (2, 0.12 )-verteilten Grundgesamtheit stammt. Die Wahrscheinlichkeit, in einer Stichprobe vom Umfang n = 20 einer N (2, 0.12 )-verteilten Grundgesamtheit einen Mittelwert von h¨ochstens 1.97 zu erhalten, ist gr¨ oßer als 0.05. Das beobachtete Ergebnis spricht damit nicht gegen die Nullhypothese. Die Abweichung zwischen x ¯= 1.97 kg und dem Sollwert von μ = 2 kg ist als statistisch nicht signifikant und damit als zuf¨ allig anzusehen. Anmerkung. Dieser Test existiert nicht in SPSS, da die Situation σ02 be” kannt“ in der Praxis unrealistisch ist.
7.3 Einstichprobenprobleme bei Normalverteilung
135
7.3.2 Pr¨ ufung des Mittelwertes bei unbekannter Varianz (einfacher t-Test) Wir wollen Hypothesen u ur eine normalverteilte Zufallsvariable X ∼ ¨ ber μ f¨ N (μ, σ 2 ) in dem Fall pr¨ ufen, in dem auch die Varianz σ 2 unbekannt ist und aus der zuf¨alligen Stichprobe (X1 , . . . , Xn ) durch n
2 SX =
1 ¯ 2 (Xi − X) n − 1 i=1
gesch¨atzt werden muß. Die Testverfahren laufen analog zum vorangegangenen Abschnitt ab, allerdings ist eine andere Testgr¨ oße zu benutzen, n¨amlich T (X) =
¯ − μ0 √ X n, SX
die unter H0 eine t-Verteilung mit n − 1 Freiheitsgraden besitzt (vgl. (4.26)). Kritischer Bereich Bei der zweiseitigen Fragestellung H0 : μ = μ0 gegen H1 : μ = μ0 umfaßt der kritische Bereich wieder alle unter H0 ‘unwahrscheinlichen’ Werte: K = (−∞, −tn−1;1−α/2 ) ∪ (tn−1;1−α/2 , ∞) ,
(7.2)
wobei tn−1;1−α/2 das (1 − α/2)-Quantil der t-Verteilung mit n − 1 Freiheitsgraden ist (vgl. Tabelle B.4). Bei einseitiger Fragestellung sind die kritischen Bereiche ur H0 : μ ≤ μ0 gegen H1 : μ > μ0 , K = (tn−1;1−α , ∞) f¨ K = (−∞, −tn−1;1−α ) f¨ ur H0 : μ ≥ μ0 gegen H1 : μ < μ0 .
(7.3) (7.4)
Entscheidungsregel: Bei der zweiseitigen Fragestellung H0 : μ = μ0 gegen H1 : μ = μ0 wird H0 genau dann abgelehnt, falls |t| > tn−1;1−α/2 . Ansonsten wird H0 wird nicht abgelehnt. Bei einseitiger Fragestellung H0 : μ ≤ μ0 gegen H1 : μ > μ0 wird die Nullhypothese genau dann abgelehnt, wenn t > tn−1;1−α gilt. Bei der entgegengesetzt gerichteten einseitigen Fragestellung H0 : μ ≥ μ0 gegen H1 : μ < μ0 wird die Nullhypothese genau dann abgelehnt, wenn t < −tn−1;1−α gilt.
136
7. Pr¨ ufen statistischer Hypothesen
Beispiel 7.3.2 (Fortsetzung von Beispiel 7.3.1). Bei der Herstellung der Brotlaibe wird nun eine neue Maschine zur Portionierung der Teigmasse eingesetzt. Die Masse X der Brotlaibe sei wieder normalverteilt, die Varianz sei nun aber unbekannt. Es liegt eine zuf¨ allige Stichprobe vom Umfang n = 20 mit dem Stichprobenmittelwert x ¯ = 1.9668 und der Stichprobenvarianz s2 = 0.09272 vor. Tabelle 7.1. Masse (in kg) der Brotlaibe in Beispiel 7.3.2 1.971 1.882 2.122 1.943
1.969 2.106 1.949 1.938
2.040 1.872 1.970 2.076
1.832 1.942 1.892 1.939
1.856 2.085 2.105 1.848
Wir pr¨ ufen nun, ob dieses Stichprobenergebnis gegen die Hypothese H0 : μ = 2 spricht. Die Irrtumswahrscheinlichkeit wird wieder mit α = 0.05 vor√ ¯ 0 gegeben. F¨ ur die Realisierung t der Testgr¨ oße T (X) = X−µ n ergibt sich SX der Wert 1.9668 − 2 √ t= 20 = −1.60 . 0.0927 H0 wird nicht abgelehnt (zweiseitige Fragestellung), da |t| = 1.60 < 2.09 = t19;0.975 ist (vgl. Tabelle B.4). Mit SPSS erhalten wir die Ausgabe in Abbildung 7.3.
One-Sample Statistics
N X
20
Mean 1,96675
Std. Deviation 9,27E-02
Std. Error Mean 2,07E-02
One-Sample Test Test Value = 2
X
t -1,603
df 19
Sig. (2-tailed) ,125
95% Confidence Interval of the Difference Mean Difference Lower Upper -3,32E-02 -7,7E-02 1,02E-02
Abb. 7.3. SPSS-Output zu Beispiel 7.3.2
Hierbei ist zu beachten, dass hier automatisch die zweiseitige Fragestellung getestet wird. Der p–value (2--tailed Sig) betr¨agt 0.125 > 0.05, so dass H0 nicht abgelehnt wird.
7.3 Einstichprobenprobleme bei Normalverteilung
137
Vergleiche hierzu auch Abschnitt 7.7, in dem die Testentscheidung bei einseitiger Fragestellung unter Verwendung von Statistik Software diskutiert wird. 7.3.3 Pr¨ ufen der Varianz; χ2 -Test f¨ ur die Varianz Mittelwerttests wie die oben beschriebenen untersuchen die Lage einer Verteilung. Die Varianz σ 2 ist ein Maß f¨ ur die Streuung. Mit ihr werden z. B. in der Qualit¨atskontrolle Normbereiche wie (μ ± 2σ) oder (μ ± σ) gebildet. Ein Test f¨ ur die Varianz pr¨ uft analog zum Vorgehen bei Mittelwerttests Hypothesen u ¨ber die Varianz, um z. B. zu kontrollieren, ob eine vorgegebene Genauigkeit eingehalten wird. Zun¨achst wollen wir wieder mit der zweiseitigen Fragestellung bei normalur verteilten Zufallsgr¨ oßen beginnen. Wir pr¨ ufen die Hypothese H0 : σ 2 = σ02 f¨ 2 eine N (μ, σ )-verteilte Zufallsvariable X. Als Testgr¨oße w¨ahlen wir den (mit dem Faktor n − 1 korrigierten) Quotienten aus der Stichprobenvarianz und der in der Nullhypothese angenommenen Varianz σ02 T (X) =
2 (n − 1)SX . 2 σ0
(7.5)
Die Testgr¨oße besitzt unter H0 eine χ2 -Verteilung mit n − 1 Freiheitsgraden. Der kritische Bereich K wird mit Hilfe der in Tabelle B.3 angegebenen Quantile der χ2 -Verteilung wie folgt bestimmt. Bei zweiseitiger Fragestellung H0 : σ 2 = σ02 gegen H1 : σ 2 = σ02 wird der kritische Bereich aus zu großen und zu kleinen Werten der Testgr¨oße bestehen: K = [0, cn−1;α/2 ) ∪ (cn−1;1−α/2 , ∞) ; cn−1;α/2 und cn−1;1−α/2 sind die α/2- bzw. (1 − α/2)-Quantile der χ2 Verteilung mit n − 1 Freiheitsgraden (vgl. Abbildung 7.4).
x cn−1;α/2
cn−1;1−α/2
Abb. 7.4. Kritischer Bereich beim zweiseitigen χ2 -Test von H0 : σ 2 = σ02 gegen H1 : σ 2 = σ02 . Der kritische Bereich K = [0, cn−1;α/2 ) ∪ (cn−1;1−α/2 , ∞) besitzt unter H0 die durch die grauen Fl¨ achen dargestellte Wahrscheinlichkeitsmasse α.
138
7. Pr¨ ufen statistischer Hypothesen
Entscheidungsregel: F¨ ur die konkrete Stichprobe (x1 , . . . , xn ) ergibt sich als Wert der Testgr¨ oße n (xi − x ¯)2 . t = i=1 2 σ0 Die Nullhypothese H0 : σ 2 = σ02 wird also abgelehnt, wenn die konkrete Stichprobe (x1 , . . . , xn ) so ausf¨ allt, dass t < cn−1;α/2 oder t > cn−1;1−α/2 gilt. Bei einseitiger Fragestellung H0 : σ 2 ≤ σ02 gegen H1 : σ 2 > σ02 , die verwendet wird um zu zeigen, dass die Streuung gr¨oßer als σ02 ist, sprechen nur sehr große Werte t von T (X) f¨ ur eine Ablehnung der Nullhypothese, d. h., wir w¨ahlen K = (cn−1;1−α , ∞) und lehnen die Nullhypothese ab, falls die konkrete Stichprobe t > cn−1;1−α ergibt. Bei der umgekehrt gerichteten einseitigen Fragestellung, die verwendet wird um zu zeigen, dass die Streuung kleiner als der vorgegebene Wert σ02 ist, also H0 : σ ≥ σ02 gegen H1 : σ 2 < σ02 , sprechen nur kleine Werte der Testgr¨oße (7.5) f¨ ur eine Ablehnung, d. h., wir w¨ahlen K = [0, cn−1;α )
(7.6)
und lehnen die Nullhypothese ab, falls die konkrete Stichprobe t < cn−1;α ergibt. Anmerkung. Dieser Test ist verf¨ alscht. Um eine unverf¨aschte Version zu erhalten, m¨ ussen die Werte c so gew¨ ahlt werden, dass sie die Niveaubedingung einhalten und zugleich Stellen gleicher Dichte sind. In der Praxis werden die Werte der Einfachheit halber jedoch wie oben beschrieben symmetrisch ermittelt, indem auf beiden Seiten die Wahrscheinlichkeitsmasse α/2 abgeschnitten wird. In dem in der Praxis eher unwahrscheinlichen Fall, dass μ ¯ bekannt ist, wird der bekannte Wert bei der Berechnung von s2X anstelle x verwendet und geht damit in die Testgr¨ oße (7.5) mit ein. Dies bewirkt eine Erh¨ohung der Zahl der Freiheitsgrade von n − 1 auf n und damit einen gr¨oßeren kritischen Bereich. Die zus¨ atzliche Information erh¨oht also die G¨ ute des Tests.
7.4 Zweistichprobenprobleme bei Normalverteilung
139
Beispiel 7.3.3 (Fortsetzung von Beispiel 7.3.1). Bei Einsatz einer neuen Portionierungsmaschine wird die Masse X der produzierten Brotlaibe wieder als normalverteilt angenommen. Die Varianz ist unbekannt. Wir wollen nun u ¨berpr¨ ufen, ob die unbekannte Varianz σ 2 unter dem Erfahrungswert σ02 = 0.12 aus Beispiel 7.3.1 liegt. Um diese Aussage zu best¨atigen, wird nun das Gegenteil als statistische Hypothese formuliert. Es liegt eine neue Stichprobe vom Umfang n = 20 mit dem Stichprobenmittelwert x ¯ = 1.9886 und der Stichprobenvarianz s2 = 0.07122 vor. Wir geben eine Irrtumswahrscheinlichkeit von α = 0.05 vor. Tabelle 7.2. Masse (in kg) der n = 20 Brotlaibe aus Beispiel 7.3.3 1.966 1.965 1.997 2.074
1.962 2.019 1.924 1.960
2.012 1.815 1.877 1.962
2.114 2.085 2.026 1.980
2.059 1.980 2.051 1.945
F¨ ur die einseitige Fragestellung H0 : σ 2 ≥ 0.01 gegen H1 : σ 2 < 0.01 entnehmen wir aus Tabelle B.3 cn−1;α = c19;0.05 = 10.10. F¨ ur die Rean ¯ 2 2 lisation der Testgr¨ oße T (X) = i=1 (Xi − X) /σ0 ergibt sich der Wert t = 0.09632/0.01 = 9.632, d. h., H0 wird abgelehnt, da 9.632 < 10.10 (vgl. (7.6)). Dieser Test ist in SPSS nicht realisiert. Um zu einer mit SPSS realisierbaren Aussage zu kommen, m¨ ußten wir die Daten der alten Maschine zusammen mit denen der neuen Maschine verwenden und einen Test auf Varianzhomogenit¨at anwenden. Ein solcher Test wird im folgenden Abschnitt beschrieben. Interpretation: Durch die Ablehnung von H0 wird unsere Aussage, dass die unbekannte Varianz σ 2 unter dem Erfahrungswert σ02 = 0.12 aus Beispiel 7.3.1 liegt, mit einer Irrtumswahrscheinlichkeit von h¨ochstens 5% best¨atigt. Die neue Maschine kann also als besser (im Sinne h¨ oherer Genauigkeit) angesehen werden.
7.4 Zweistichprobenprobleme bei Normalverteilung 7.4.1 Pr¨ ufen der Gleichheit der Varianzen (F-Test) Wir wollen zwei Variablen X und Y, von denen angenommen wird, dass 2 sie unabh¨angig und jeweils normalverteilt sind (X ∼ N (μX , σX ) und Y ∼ 2 N (μY , σY )), hinsichtlich ihrer Variabilit¨ at vergleichen. Wir testen die Hy2 2 pothese H0 : σX = σY2 zweiseitig gegen die Alternative H1 : σX = σY2 bzw. 2 2 2 2 einseitig H0 : σX ≤ σY gegen H1 : σX > σY . Wir setzen eine Stichprobe (X1 , . . . , Xn1 ) vom Umfang n1 und eine (davon unabh¨angige) Stichprobe (Y1 , . . . , Yn2 ) vom Umfang n2 voraus. Die Testgr¨oße ist der Quotient der beiden Stichprobenvarianzen
140
7. Pr¨ ufen statistischer Hypothesen
T (X, Y) =
2 SX , SY2
(7.7)
der unter der Nullhypothese F -verteilt mit n1 − 1 und n2 − 1 Freiheitsgraden ist (vgl. (4.27)). Bestimmung des kritischen Bereichs 2 2 F¨ ur die zweiseitige Fragestellung H0 : σX = σY2 gegen H1 : σX = σY2 gilt: Wenn die Nullhypothese wahr ist, die beiden Varianzen also gleich groß sind, m¨ ußte die Testgr¨ oße (7.7) Werte um 1 annehmen. Damit sprechen sehr kleine und sehr große Werte der Testgr¨ oße f¨ ur eine Ablehnung der Nullhypothese. Der kritische Bereich K = [0, k1 ) ∪ (k2 , ∞) wird also aus den Beziehungen
P (T (X, Y) < k1 |H0 ) = α/2 und P (T (X, Y) > k2 |H0 ) = α/2 ermittelt. Es ergeben sich die Werte k1 = fn1 −1,n2 −1,α/2 k2 = fn1 −1,n2 −1,1−α/2 . Das untere Quantil k1 kann durch folgende Beziehung aus Tabellen abgelesen werden, die meist nur die ‘1 − α2 ’-Werte angeben: fn1 −1;n2 −1;α/2 =
1 . fn2 −1;n1 −1;1−α/2
2 2 Bei einseitiger Fragestellung H0 : σX > σY2 besteht ≤ σY2 gegen H1 : σX 2 der kritische Bereich K aus großen Werten von T (X) (SX im Z¨ahler von T ), d. h., K = (k, ∞), wobei k aus
P (T (X, Y) > k|H0 ) = α bestimmt wird. Hier ergibt sich k = fn1 −1;n2 −1;1−α . Anmerkung. Bei einseitiger Fragestellung kann darauf verzichtet werden, die 2 2 Richtung H0 : σX ≥ σY2 gegen H1 : σX < σY2 gesondert zu betrachten, da dies 2 vollkommen symmetrisch zu behandeln ist: σX ≥ σY2 entspricht genau σY2 ≤ 2 σX , d. h. es m¨ ussen nur die Variablen-Bezeichnungen X und Y vertauscht werden. Aus den konkreten Stichproben (x1 , . . . , xn1 ) und (y1 , . . . , yn2 ) berechnen n1 n2 xi und y¯ = n12 i=1 yi sowie die wir die Stichprobenmittelwerte x¯ = n11 i=1 Stichprobenvarianzen
7.4 Zweistichprobenprobleme bei Normalverteilung n
s2x =
1 1 (xi − x ¯)2 , n1 − 1 i=1
141
n
s2y =
2 1 (yi − y¯)2 n2 − 1 i=1
oße: und daraus die Realisierung der Testgr¨ t=
s2x . s2y
(7.8)
2 Entscheidungsregel: Bei der zweiseitigen Fragestellung wird H0 : σX = σY2 2 2 zugunsten von H1 : σX = σY abgelehnt, falls
t > fn1 −1;n2 −1;1−α/2
oder t < fn1 −1;n2 −1;α/2
gilt. Falls diese Bedingungen nicht erf¨ ullt sind, also fn1 −1;n2 −1;α/2 ≤ t ≤ fn1 −1;n2 −1;1−α/2
(7.9)
gilt, wird H0 nicht abgelehnt. 2 ≤ σY2 zugunsten von H1 : Bei der einseitigen Fragestellung wird H0 : σX 2 2 σX > σY abgelehnt, falls t > fn1 −1;n2 −1;1−α
(7.10)
gilt. Falls (7.10) nicht erf¨ ullt ist, kann H0 nicht abgelehnt werden. Anmerkung. Ebenso wie im vorherigen Abschnitt wird davon ausgegangen, dass die in der Praxis relevante Situation unbekannter Erwartungswerte μX und μy vorliegt. Sind diese bekannt, so werden sie bei der Ermittlung von s2X und s2Y verwendet, was wiederum eine Erh¨ohung der Freiheitsgrade von n1 − 1 auf n1 bzw. n2 − 1 auf n2 bewirkt. Die zus¨atzliche Information erh¨oht auch hier wieder die G¨ ute des Tests. Beispiel 7.4.1. Zur Erh¨ ohung der Kapazit¨ at einer Konservenfabrik wird eine zweite Maschine zur Bef¨ ullung der Konservendosen angeschafft. Die F¨ ullgewichte der Dosen X (alte Maschine) und Y (neue Maschine) seien normal2 ), Y ∼ N (μY , σY2 ). Die beiden Maverteilte Zufallsvariablen X ∼ N (μX , σX schinen arbeiten unabh¨ angig voneinander, weshalb X und Y als unabh¨angig angenommen werden k¨ onnen. Es soll u uft werden, ob die Stichproben¨berpr¨ 2 = σY2 sprechen, d. h. ob die neue ergebnisse gegen die Hypothese H0 : σX Maschine also mit anderer Genauigkeit abf¨ ullt. Die Ergebnisse der Messungen sind in Tabelle 7.3 angegeben. F¨ ur die Zufallsvariable X liegt eine Stichprobe von Umfang n1 = 20 mit dem Stichprobenmittelwert x ¯ = 1000.49 und der Stichprobenvarianz s2x = 72.38 vor. Die Stichprobe f¨ ur die Zufallsvariable Y mit dem Umfang n2 = 25 ergibt den Stichprobenmittelwert y¯ = 1000.26 und die Stichprobenvarianz s2y = 45.42. Das folgende SPSS Listing (Abbildung 7.5) gibt die Stichprobenmittelwerte und –varianzen an.
142
7. Pr¨ ufen statistischer Hypothesen
Tabelle 7.3. Daten zu Beispiel 7.4.1. F¨ ullgewichte von Dosen in Gramm: xi alte Maschine, yi neue Maschine 996.7 1002.6 998.2 989.6
1006.6 1003.9 999.6 998.8
1001.9 999.9 1006.4 1006.2 996.1
996.2 1006.1 1006.8 997.2 995.7
xi 1002.5 1013.6 988.3 1002.3 yi 989.9 990.1 993.8 1005.1 994.0
1003.6 1020.4 1000.2 989.9
998.8 1010.2 985.2 998.8
1001.4 997.5 998.3 998.3 1008.8
997.6 1001.6 1004.0 1020.2 993.3
Descriptive Statistics
N X Y Valid N (listwise)
Mean 20 1000,4900 25 1000,2560
Std. Deviation 8,5074 6,7391
Variance 72,376 45,415
20
Abb. 7.5. SPSS-Output zu Beispiel 7.4.1
Wir geben eine Irrtumswahrscheinlichkeit von α = 0.1 vor. F¨ ur die zweiseitige Fragestellung 2 H0 : σX = σY2
2 gegen H1 : σX = σY2
ist f19;24;0.95 = 2.11 (vgl. Tabelle B5, lineare Interpolation von f19;20;0.95 1 1 = 2.11 = 0.47. =2.1370 und f19;30;0.95 =1.9452) und f19;24;0.05 = f19;24;0.95 F¨ ur die Testgr¨ oße T (X, Y) = t=
2 SX 2 SY
ergibt sich der Wert
72.38 = 1.59 . 45.42
Damit wird H0 nicht abgelehnt (vgl. (7.9)), da 0.47 ≤ t ≤ 2.11. 7.4.2 Pr¨ ufen der Gleichheit der Mittelwerte zweier unabh¨ angiger normalverteilter Zufallsvariablen 2 Wir betrachten zwei normalverteilte Variablen X ∼ N (μX , σX ) und Y ∼ 2 ur die Hypothesen H0 : μX = μY gegen N (μY , σY ). Von Interesse sind Tests f¨ H1 : μX = μY (zweiseitige Fragestellung) und H0 : μX ≥ μY gegen H1 : μX < μY oder H0 : μX ≤ μY gegen H1 : μX > μY (einseitige Fragestellungen). Die Pr¨ ufverfahren werden f¨ ur die F¨ alle
7.4 Zweistichprobenprobleme bei Normalverteilung
143
2 • σX , σY2 bekannt 2 • σX , σY2 unbekannt, aber gleich 2 • σX = σY2 , beide unbekannt
entwickelt. Wir setzen dabei voraus, dass zwei unabh¨angige Stichproben (X1 , . . . , Xn1 ) und (Y1 , . . . , Yn2 ) vorliegen. Fall 1: Die Varianzen sind bekannt (doppelter Gauss-Test) Trifft die Nullhypothese H0 : μX = μY zu, so ist die Pr¨ ufgr¨oße ¯ − Y¯ √ X T (X, Y) = n1 · n2 2 2 n1 σX + n2 σY
(7.11)
standardnormalverteilt, T (X, Y) ∼ N (0, 1). Der Test verl¨auft dann analog zum einfachen Gauss-Test (Abschnitt 7.3.1). Fall 2: Die Varianzen sind unbekannt, aber gleich (doppelter t-Test) Wir bezeichnen die unbekannte Varianz beider Verteilungen mit σ 2 . Die gemeinsame Varianz wird durch die sogenannte gepoolte Stichprobenvarianz gesch¨atzt, die beide Stichproben mit einem Gewicht relativ zu ihrer Gr¨oße verwendet: 2 (n1 − 1)SX + (n2 − 1)SY2 S2 = . (7.12) n1 + n2 − 2 Die Pr¨ ufgr¨oße
¯ − Y¯ * n1 · n2 X T (X, Y) = , S n1 + n2
(7.13)
mit S aus (7.12) besitzt unter H0 eine Student’sche t-Verteilung mit n1 +n2 −2 Freiheitsgraden. Das Testverfahren l¨ auft wie in Abschnitt 7.3.2. Beispiel 7.4.2. Die Brenndauer von Gl¨ uhbirnen zweier verschiedener Typen sei jeweils normalverteilt und beide Typen besitzen die gleiche Varianz. Die Zuvallsvariablen X bzw. Y bezeichnen die Brenndauer der Gl¨ uhbirnen der beiden Typen. Die beiden normalverteilten Zufallsvariablen X ∼ N (μX , σ 2 ) und Y ∼ N (μY , σ 2 ) k¨ onnen als unabh¨ angig voneinander vorausgesetzt werden. Eine Stichprobe (vgl. Tabelle 7.4) vom Umfang n1 = 25 f¨ ur X liefert den Stichprobenmittelwert x¯ = 5996.64 und die Stichprobenvarianz s2x = 65.2212. Die Stichprobe f¨ ur Y mit dem Stichprobenumfang n2 = 22 ergibt einen Stichprobenmittelwert von y¯ = 6125.545 und eine Stichprobenvarianz s2y = 56.9432. Wir wollen pr¨ ufen, ob diese Stichprobenergebnisse gegen die Hypothese H0 : μX = μY (gleiche mittlere Brenndauern) sprechen. Als Irrtumswahrscheinlichkeit geben wir α = 0.05 vor.
144
7. Pr¨ ufen statistischer Hypothesen
Tabelle 7.4. Daten zu Beispiel 7.4.2. Brenndauer (in Stunden) von Gl¨ uhbirnen zweier Typen 5958 6032 5904 5934 6000
6046 6016 5997 5927 5999
6149 6155 6226 6094 6082
6107 6102 6150 6131 6157
xi 6073 5965 5987 5974 6124 yi 6121 6088 6180 6095 6224
6034 6074 6012 6032 5811
5918 5980 6034 6050 6035
6129 6059 6137 6015 6038
6094 6229
2 Wir pr¨ ufen zun¨ achst die Annahme gleicher Varianzen: H0 : σX = σY2 gegen 2 2 H1 : σX = σY . Mit (7.8) und (7.10), d. h.,
f24,21;0.025 = 0.433 < t =
65.2212 s2X = = 1.312 < 2.37 = f24,21;0.975 , s2Y 56.9432
wird H0 nicht abgelehnt, die Annahme gleicher Varianzen wird also nicht widerlegt (die Quantile wurden per Computer berechnet). Anmerkung. SPSS verwendet einen anderen Test, den Levene Test, der robuster gegen Abweichungen von der Normalverteilung ist. Dieser Test ergibt einen p-value von 0.695, womit H0 ebenfalls nicht ablehnt wird (vgl. SPSS Listing in Abbildung 7.6). Wir sch¨atzen zun¨ achst die gemeinsame Varianz σ 2 mit (7.12): (n1 − 1)s2x + (n2 − 1)s2y n1 + n2 − 2 24 · 65.2212 + 21 · 56.9432 = = 3781.851 = 61.5002 . 45
s2 =
F¨ ur α = 0.05 und die zweiseitige Fragestellung H0 : μX = μY
gegen H1 : μX = μY
ist t45;0.975 = 2.01. F¨ ur die Realisierung t der Testgr¨oße T (X, Y) (7.13) ergibt sich der Wert * 5996.64 − 6125.545 25 · 22 t= = −7.17 . 61.500 25 + 22 Damit wird H0 abgelehnt, da |t| = | − 7.17| > 2.01 = t45;0.975 (vgl. (7.2)). Die Berechnung der Stichprobenmittelwerte, der Stichprobenvarianzen und des t-Tests mit SPSS ergibt das Listing in Abbildung 7.6:
7.4 Zweistichprobenprobleme bei Normalverteilung
145
Group Statistics
Brenndauer
TYP X Y
N
Mean 25 5996,6400 22 6125,5455
Std. Deviation 65,2207 56,9425
Std. Error Mean 13,0441 12,1402
Independent Samples Test Levene’s Test for Equality of Variances F Equal variances assumed Equal variances not assumed
,156
Sig. ,695
t
t-test for Equality of Means Sig. Mean df (2-tailed) Difference
Std. Error Difference
-7,171
45
,000
-128,9055
17,9770
-7,234
44,999
,000
-128,9055
17,8195
Abb. 7.6. SPSS-Output zu Beispiel 7.4.2
Fall 3: Die Varianzen sind unbekannt und ungleich (Welch-Test) Wir pr¨ ufen H0 : μX = μY gegen die Alternative H1 : μX = μY f¨ ur den Fall 2 σX = σY2 . Dies ist das sogenannte Behrens-Fisher-Problem, f¨ ur das es keine exakte L¨osung gibt. F¨ ur praktische Zwecke wird als N¨aherungsl¨osung folgende Testgr¨oße empfohlen (vgl. Sachs, 1978): ' ' 'X ¯ − Y¯ ' , (7.14) T (X, Y) = # 2 2 SX SY + n1 n2 die t-verteilt ist mit ann¨ ahernd v Freiheitsgraden (v wird ganzzahlig gerundet): %2 $ $ 2 2 % 2 s2y sy /n2 s2x /n1 s2x . (7.15) + / + v= n1 n2 n1 − 1 n2 − 1
Der Test verl¨auft dann wie in Abschnitt 7.3.2. Anmerkung. SPSS gibt beim doppelten t-Test sowohl die Teststatistik f¨ ur den Fall gleicher Varianzen als auch f¨ ur den Fall ungleicher Varianzen aus (vgl. Listing zu Beispiel 7.4.2: Variances Equal, Unequal). 7.4.3 Pr¨ ufen der Gleichheit der Mittelwerte aus einer verbundenen Stichprobe (paired t-Test) Wie oben betrachten wir wieder zwei stetige Zufallsvariablen X mit E(X) = μX und Y mit E(Y ) = μY . Die Annahme der Unabh¨angigkeit der beiden Variablen wird nun aufgegeben, die beiden Variablen werden als abh¨angig
146
7. Pr¨ ufen statistischer Hypothesen
angenommen. Diese Abh¨ angigkeit kann in der Praxis beispielsweise dadurch entstehen, dass an einem Objekt zwei Merkmale gleichzeitig beobachtet werden oder ein Merkmal an einem Objekt zu verschiedenen Zeitpunkten beobachtet wird. Man spricht dann von einer gepaarten oder verbundenen Stichprobe oder von einem matched-pair Design. Da beide Zufallsvariablen zum selben Objekt geh¨oren ergibt das Bilden einer Differenz einen Sinn. Mit D = X − Y bezeichnen wir die Zufallsvariable Differenz von X und Y “. Unter H0 : μX = μY ist die erwartete Differenz ” gleich Null, es gilt E(D) = μD = 0. Wir setzen voraus, dass D unter H0 : 2 μX = μY bzw. H0 : μD = 0 normalverteilt ist, d. h., dass D ∼ N (0, σD ) gilt. Es liege eine Stichprobe (D1 , . . . , Dn ) vor. Dann ist T (X, Y) = T (D) =
¯ √ D n SD
(7.16)
t-verteilt mit n − 1 Freiheitsgraden. Dabei ist n ¯ 2 (Di − D) 2 SD = i=1 n−1 2 eine Sch¨atzung f¨ ur σD . Der Test der zweiseitigen Fragestellung H0 : μD = 0 gegen die Alternative H1 : μD = 0 bzw. der einseitigen Fragestellungen H0 : μD ≤ 0 gegen H1 : μD > 0 oder H0 : μD ≥ 0 gegen H1 : μD < 0 erfolgt analog zu Abschnitt 7.3.2.
Anmerkung. Im Vergleich zum Verfahren aus Abschnitt 7.3.2 zum Pr¨ ufen der Mittelwerte zweier unabh¨ angiger Normalverteilungen sind beim Test auf gleichen Mittelwert verbundener Stichproben die Voraussetzungen weitaus schw¨acher. Gefordert wird, dass die Differenz beider Zufallsvariablen normalverteilt ist, die beiden stetigen Variablen selbst m¨ ussen also nicht notwendig normalverteilt sein. Beispiel 7.4.3. In einem Versuch soll die leistungssteigernde Wirkung von Koffein gepr¨ uft werden. Mit Y bzw. X bezeichnen wir die Zufallsvariablen Punktwert vor bzw. nach dem Trinken von starkem Kaffee“, die an n = 10 ” Studenten gemessen wurden. Aus den Daten in Tabelle 7.5 erhalten wir d¯ = 1 , 8 s2d = = 0.9432 . 9 Damit ergibt sich f¨ ur die Pr¨ ufgr¨ oße t bei α = 0.05 t=
1 √ 10 = 3.35 > t9;0.95 = 1.83 , 0.943
so dass H0 : μX ≤ μY zugunsten von H1 : μX > μY abgelehnt wird. Die Leistungen nach dem Genuß von Kaffee sind signifikant besser.
7.5 Pr¨ ufen der Korrelation zweier Normalverteilungen
147
Tabelle 7.5. Paarweise Daten xi , yi und Differenzen di aus Beispiel 7.4.3 ¯2 i yi xi di = xi − yi (di − d) 1 4 5 1 0 2 3 4 1 0 3 5 6 1 0 4 6 7 1 0 5 7 8 1 0 6 6 7 1 0 7 4 5 1 0 8 7 8 1 0 9 6 5 -1 4 10 2 5 3 4 P 10 8
Mit SPSS erhalten wir wie bereits erw¨ ahnt immer den zweiseitigen Test, so dass wir den p-value halbieren m¨ ussen. Wir verweisen an dieser Stelle wieder auf Abschnitt 7.7, in dem dieser Zusammenhang detailliert erl¨autert wird. In der SPSS Ausgabe ist zus¨ atzlich auch der Test zum Pr¨ ufen der Korrelation (Corr .832 mit 2-tail Sig .003) angegeben, der im n¨achsten Abschnitt besprochen wird. Paired Samples Statistics
Pair 1
Mean 5,0000 6,0000
X Y
N 10 10
Std. Deviation 1,6997 1,4142
Std. Error Mean ,5375 ,4472
Paired Samples Correlations N Pair 1
X&Y
10
Correlation ,832
Sig. ,003
Paired Samples Test
Pair 1
X-Y
Paired Differences Std. Std. Error Mean Deviation Mean -1,0000 ,9428 ,2981
t -3,354
df 9
Sig. (2-tailed) ,008
Abb. 7.7. SPSS-Output zu Beispiel 7.4.3
7.5 Pru ¨ fen der Korrelation zweier Normalverteilungen Wir haben zwei verbundene Stichproben, die wir als Realisation der Zufallsvariablen (X, Y ) auffassen k¨ onnen, die eine zweidimensionale Normalverteilung
148
7. Pr¨ ufen statistischer Hypothesen
besitzt. Wir wollen nun u ufen, ob die beiden Zufallsvariablen X und Y ¨berpr¨ unkorreliert sind oder ob zwischen ihnen ein linearer Zusammenhang besteht. Der Zusammenhang zwischen X und Y wird durch den Korrelationskoeffizienten ρ beschrieben. Der Test auf Unkorreliertheit (bei Normalverteilung gleichwertig mit Unabh¨ angigkeit) pr¨ uft die Nullhypothese H0 : ρ = 0 gegen die Alternative H1 : ρ = 0. Ist man an der Richtung des Zusammenhangs interessiert, so w¨ ahlt man die einseitige Fragestellung H0 : ρ ≤ 0 gegen H1 : ρ > 0 f¨ ur die positive Korrelation, die umgekehrte Fragestellung f¨ ur die negative Korrelation. Der Test basiert auf dem Korrelationskoeffizienten der Stichprobe (X1 , Y1 ), . . . , (Xn , Yn ) ¯ i − Y¯ ) (Xi − X)(Y SXY . (7.17) = √ R(X, Y) = 2 2 ¯ SXX SY Y (Xi − X) (Yi − Y¯ ) Die Testgr¨oße hat die Gestalt
T (X, Y) = R(X, Y) ·
+
n−2 1 − R(X, Y)2
(7.18)
und besitzt unter H0 eine t-Verteilung mit n − 2 Freiheitsgraden.
Entscheidungsregel: F¨ ur die zweiseitige Fragestellung, H0 : ρ = 0 gegen H1 : ρ = 0 wird H0 f¨ ur |t| > tn−2;1−α/2 abgelehnt. Der kritische Bereich ist wie in (7.2) definiert, wobei jedoch die ge¨ anderte Zahl der Freiheitsgrade beachtet werden muß. Bei der einseitigen Fragestellung H0 : ρ ≥ 0 gegen H1 : ρ < 0 f¨ uhrt t < −tn−2;1−α zur Ablehnung von H0 (vgl. (7.3)). Bei der umgekehrt gerichteten einseitigen Fragestellung H0 : ρ ≤ 0 gegen H1 : ρ > 0 wird f¨ ur t > tn−2;1−α H0 abgelehnt (vgl. (7.4)). Beispiel 7.5.1. Bei Studenten der Wirtschaftswissenschaften soll der Zusammenhang der beiden Zufallsvariablen X: Leistung im Seminar“ und Y : Lei” ” stung im Praktikum“ untersucht werden, wobei auf einer Punkte-Skala mit einer Nachkommastelle bewertet und n¨ aherungsweise von einer zweidimensionalen Normalverteilung ausgegangen wird. Eine Stichprobe von n = 26 Studenten ergibt die Werte in Tabelle 7.6. Aus den Daten berechnen wir x ¯ = 27.35 und y¯ = 32.58 und damit n (xi − x¯)(yi − y¯) = 0.821 , r = n i=1 n ¯)2 i=1 (yi − y¯)2 i=1 (xi − x
womit wir (7.18) als
*
n−2 = 7.045 1 − r2 erhalten. Da t > t24;1−0.05/2 = 2.07, lehnen wir H0 : ρ = 0 gegen H1 : ρ = 0 ab. Der lineare Zusammenhang zwischen Leistung im Seminar“ und Leistung ” ” im Praktikum“ ist signifikant auf dem 5%-Niveau. t=r
7.6 Pr¨ ufen von Hypothesen u ¨ ber Binomialverteilungen
149
Tabelle 7.6. Daten zu Beispiel 7.5.1; Leistungen im Seminar und im Praktikum i 1 2 3 4 5 6 7 8 9 10 11 12 13
xi 30.2 32.2 37.1 24.2 19.5 35.1 29.3 28.3 31.3 29.3 45.9 30.2 26.3
yi 35.1 56.6 37.1 24.4 17.6 38.0 37.1 32.2 27.3 38.0 59.9 38.0 36.1
i 14 15 16 17 18 19 20 21 22 23 24 25 26
xi 26.3 29.3 27.3 34.1 19.5 33.2 21.5 16.6 24.4 37.1 9.8 15.6 17.6
yi 32.2 35.1 34.1 35.1 25.4 35.1 25.4 19.5 27.3 38.0 8.8 33.2 20.5
Mit SPSS erhalten wir den Stichprobenkorrelationskoeffizienten ρ = 0.8210 und den zugeh¨ origen p–value 0.000 (Sig 2–tailed) f¨ ur die zweiseitige Fragestellung. Die Anordnung der Ergebnisse in einer Matrix ergibt sich dadurch, dass diese SPSS-Prozedur bei mehr als zwei Variablen automatisch alle zweiseitigen Tests durchf¨ uhrt.
Correlations
Pearson Correlation Sig. (2-tailed) N
X Y X Y X Y
X 1,000 ,821 , ,000 26 26
Y ,821 1,000 ,000 , 26 26
Abb. 7.8. SPSS–Output zu Beispiel 7.5.1
7.6 Pru ¨ fen von Hypothesen u ¨ ber Binomialverteilungen 7.6.1 Pr¨ ufen der Wahrscheinlichkeit f¨ ur das Auftreten eines Ereignisses (Binomialtest f¨ ur p) Wir betrachten eine Zufallsvariable X mit zwei Auspr¨agungen 1 und 0, die f¨ ur das Eintreten bzw. Nichteintreten eines Ereignisses A stehen. Die Wahrscheinlichkeit f¨ ur das Eintreten von A in der Grundgesamtheit sei p. Aus einer
150
7. Pr¨ ufen statistischer Hypothesen
Stichprobe X = (X1 , . . . , Xn ) von unabh¨ angigen B(1; p)-verteilten Zufallsva riablen Xi bilden wir die erwartungstreue Sch¨atzfunktion pˆ = n1 ni=1 Xi (relative H¨aufigkeit). Wir testen die Hypothese H0 : p = p0 gegen H1 : p = p0 (bzw. H0 : p ≤ p0 gegen H1 : p > p0 oder H0 : p ≥ p0 gegen H1 : p < p0 ). Unter H0 : p = p0 gilt Var(ˆ p) = n1 p0 (1 − p0 ). Also ist die folgende Variable unter H0 standardisiert: √ pˆ − p0 T (X) = n. p0 (1 − p0 )
(7.19)
F¨ ur hinreichend großes n (np(1 − p) ≥ 9) kann die Binomialverteilung durch die Normalverteilung approximiert werden, so dass dann approximativ T (X) ∼ N (0, 1) gilt. Der Test der Nullhypothese H0 : p = p0 verl¨auft damit wie in Abschnitt 7.3.1. F¨ ur kleine Stichproben werden die Testgr¨ oße T (X) =
n
Xi
(7.20)
i=1
(absolute H¨aufigkeit) und die Quantile der Binomialverteilung verwendet. F¨ ur die zweiseitige Fragestellung wird der kritische Bereich K = {0, 1, . . . , ku − 1} ∪ {ko + 1, . . . , n} aus der Bedingung Pp0 (T (X) < ku ) + Pp0 (T (X) > ko ) ≤ α bestimmt, wobei die Aufteilung der Wahrscheinlichkeitsmasse α auf die zwei Teilmengen von K gem¨ aß Pp0 (T (X) < ku ) ≤ α/2 Pp0 (T (X) > ko ) ≤ α/2
(7.21) (7.22)
erfolgt. Aus Gleichung (7.21) ergibt sich ku als gr¨oßte ganze Zahl, die k u −1 n i Pp0 (T (X) < ku ) = p0 (1 − p0 )n−i ≤ α/2 (7.23) i i=0 erf¨ ullt. ko wird analog als kleinste ganze Zahl bestimmt, die (7.22) erf¨ ullt: n n i (7.24) Pp0 (T (X) > ko ) = p (1 − p0 )n−i ≤ α/2 i 0 i=ko +1
F¨ ur die einseitige Fragestellung H0 : p ≤ p0 gegen H1 : p > p0 wird K = {k + 1, . . . , n} in analoger Weise aus der folgenden Forderung bestimmt: Pp0 (T (X) > k) ≤ α . F¨ ur die einseitige Fragestellung H0 : p ≥ p0 gegen H1 : p < p0 gilt schießlich K = {0, . . . , k} mit k gem¨ aß Pp0 (T (X) < k) ≤ α .
7.6 Pr¨ ufen von Hypothesen u ¨ ber Binomialverteilungen
151
Anmerkung. Hierbei tritt im Gegensatz zu stetigen Verteilungen jeweils das Problem auf, dass das vorgegebene Niveau α nicht immer voll ausgesch¨opft werden kann. Eine m¨ ogliche L¨ osung liegt in randomisierten Tests (vgl. R¨ uger, 1996). Beispiel 7.6.1. Einem Versandhaus ist aus Erfahrung bekannt, dass bei 20% der Kunden, die ihre Ware in Raten bezahlen, Schwierigkeiten auftreten. Das Ereignis A Kunde zahlt seine Raten nicht ordnungsgem¨aß“ tritt mit einer ” Wahrscheinlichkeit von p0 = 0.2 ein. Aus der Kundendatei der Ratenzahler wird zuf¨allig (mit Zur¨ ucklegen) eine Stichprobe vom Umfang n = 100 gezogen. Die Anzahl des Auftretens von Ereignis A in der Stichprobe ist eine B(n; p)-verteilte Zufallsvariable. In der Stichprobe wird 25mal das Ereignis A und 75mal A¯ (Kunde zahlt die Raten ordnungsgem¨aß) beobachtet. Es soll 25 gegen gepr¨ uft werden, ob die damit gesch¨ atzte Wahrscheinlichkeit pˆ = 100 ochstens 20% der Kunden treten die Hypothese H0 : p ≤ p0 spricht (bei h¨ Schwierigkeiten auf). Wir geben eine Irrtumswahrscheinlichkeit von α = 0.05 vor. F¨ ur die einseitige Fragestellung H0 : p ≤ p 0
gegen H1 : p > p0
ergibt sich f¨ ur die Testgr¨ oße T (X) (vgl. (7.20)) der Wert t = 25. Zur exakten Berechnung des kritischen Bereichs bestimmen wir die Wahrscheinlichkeiten n l Pp0 (t = l) = p (1 − p0 )n−l l 0 und die kumulierten Wahrscheinlichkeiten Pp0 (t ≤ l) =
l n i p0 (1 − p0 )n−i , i i=0
die in Tablelle 7.7 angegeben sind. Wir erhalten k = 27, da P (t > 27) = 1−P (t ≤ 27) = 1−0.9658484 ≤ 0.05. Der beobachtete Wert 25 liegt nicht in K = {k + 1, . . . , n} = {28, . . . , 100}, so dass H0 hier nicht abgelehnt wird. Da np0 (1 − p0 ) = 0.2 · 0.8 · 100 = 16 > 9 gilt, kann die Binomialverteilung durch die Normalverteilung approximiert werden. Die Berechnung der Testgr¨oße T (X) gem¨ aß (7.19) liefert den Wert 0.25 − 0.2 √ 100 = 1.25 . t= √ 0.2 · 0.8 H0 wird also ebenfalls nicht abgelehnt, da 1.25 < 1.64 = z1−0.05 . Interpretation: Die alten Erfahrungswerte sind weiterhin g¨ ultig, es liegt kein signifikant h¨oherer Anteil an s¨ aumigen Ratenzahlern vor.
152
7. Pr¨ ufen statistischer Hypothesen
Tabelle 7.7. Wahrscheinlichkeiten Pp0 (t = l) und kum. Wahrscheinlichkeiten Pp0 (t ≤ l) f¨ ur Beispiel 7.6.1 l 0 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22
Pp0 (t = l) 0.0000000 0.0000000 0.0000001 0.0000005 0.0000031 0.0000150 0.0000593 0.0001990 0.0005784 0.0014782 0.0033628 0.0068785 0.0127539 0.0215835 0.0335315 0.0480618 0.0638321 0.0788514 0.0908981 0.0980743 0.0993002 0.0945716 0.0848995
Pp0 (t ≤ l) 0.0000000 0.0000000 0.0000001 0.0000006 0.0000037 0.0000187 0.0000780 0.0002770 0.0008554 0.0023336 0.0056964 0.0125749 0.0253288 0.0469122 0.0804437 0.1285055 0.1923376 0.2711890 0.3620871 0.4601614 0.5594616 0.6540332 0.7389328
l 23 24 25 26 27 28 29 30 31 32 33 34 35 36 37 38 39 40 41 42 43 44 45
Pp0 (t = l) 0.0719800 0.0577340 0.0438778 0.0316427 0.0216811 0.0141314 0.0087712 0.0051896 0.0029296 0.0015793 0.0008136 0.0004008 0.0001889 0.0000853 0.0000369 0.0000153 0.0000061 0.0000023 0.0000008 0.0000003 0.0000001 0.0000000 0.0000000
Pp0 (t ≤ l) 0.8109128 0.8686468 0.9125246 0.9441673 0.9658484 0.9799798 0.9887510 0.9939407 0.9968703 0.9984496 0.9992631 0.9996639 0.9998529 0.9999381 0.9999750 0.9999903 0.9999964 0.9999987 0.9999996 0.9999999 1.0000000 1.0000000 1.0000000
7.6.2 Pr¨ ufen der Gleichheit zweier Binomialwahrscheinlichkeiten Wir betrachten wieder das obige Zufallsexperiment, jedoch nun als Zweistichprobenproblem mit zwei unabh¨ angigen Stichproben X = (X1 , . . . , Xn1 ) bzw. Y = (Y1 , . . . , Yn2 ). Xi bzw. Y sind B(1; p1 )- bzw. B(1; p 2 )-verteilte Zufallsvan1 i n2 riablen. Damit ist X = i=1 Xi ∼ B(n1 ; p1 ) und Y = i=1 Yi ∼ B(n2 ; p2 ). ufen und bilden dazu die Wir wollen die Hypothese H0 : p1 = p2 = p pr¨ Differenz D = nX1 − nY2 . F¨ ur hinreichend großes n1 und n2 sind nX1 und nY2 n¨aherungsweise normalverteilt: p1 (1 − p1 ) X approx. ∼ N p1 , , n1 n1 Y approx. p2 (1 − p2 ) ∼ N p2 , , n2 n2 so dass unter H0 D
approx.
∼
1 1 N 0, p(1 − p) + n1 n2
gilt. Die unter H0 in beiden Verteilungen identische Wahrscheinlichkeit p wird durch die Sch¨atzfunktion
7.6 Pr¨ ufen von Hypothesen u ¨ ber Binomialverteilungen
pˆ =
X +Y n1 + n2
153
(7.25)
erwartungstreu gesch¨ atzt. Dann erhalten wir folgende Teststatistik D T (X, Y) = * pˆ(1 − pˆ) n11 +
1 n2
,
(7.26)
die f¨ ur große n1 , n2 n¨ aherungsweise N (0, 1)-verteilt ist. Der Test f¨ ur die einund zweiseitigen Fragestellungen verl¨ auft wie im Abschnitt 7.3.1. Beispiel 7.6.2 (Fortsetzung von Beispiel 7.6.1). Das Versandhaus kauft die beiden Konkurrenzunternehmen Erwin-Versand und Hugo-Versand auf. Es liegen zwei unabh¨ angige Stichproben (Ziehen mit Zur¨ ucklegen) vom Umfang n1 = 200 bzw. n2 = 250 aus den jeweiligen Kundendateien vor. In der Stichprobe des Erwin-Versands wird 35mal das Ereignis A beobachtet. 65mal tritt das Ereignis A in der Stichprobe des Hugo-Versands auf. X bzw. Y bezeichnen die Anzahl des Auftretens von Ereignis A in der Stichprobe 1 (Erwin-Versand) bzw. Stichprobe 2 (Hugo-Versand). X ist eine B(n1 ; p1 )verteilte und Y eine B(n2 ; p2 )-verteilte Zufallsvariable. Wir wollen pr¨ ufen, ob die Auftretenswahrscheinlichkeit f¨ ur Ereignis A in beiden Versandh¨ausern gleich groß ist, d. h., wir testen zweiseitig H0 : p1 = p2 = p gegen H1 : p1 = p2 . Die Irrtumswahrscheinlichkeit wird wieder mit α = 0.05 vorgegeben. Die gesch¨atzten Wahrscheinlichkeiten f¨ ur das Ereignis A sind pˆ1 = 35/200 = 0.175 (Erwin-Versand) und pˆ2 = 65/250 = 0.260 (Hugo-Versand), ihre Differenz ist also d = 0.175 − 0.260 = −0.085. F¨ ur die Sch¨atzung der unter H0 in beiden Verteilungen identischen Wahrscheinlichkeit p ergibt sich gem¨aß (7.25) der Wert pˆ =
100 35 + 65 = = 0.222. 200 + 250 450
F¨ ur die zweiseitige Fragestellung ergibt sich f¨ ur die Testgr¨oße T (X, Y) der Wert −0.085 t= # 1 = −2.16. 1 0.222(1 − 0.222) 200 + 250 H0 wird abgelehnt, da |t| = 2.16 > 1.96 = z1−0.05/2 . 7.6.3 Exakter Test von Fisher Wir betrachten die gleiche Situation wie im letzten Abschnitt (Zweistichprobenproblem), jedoch mit der Einschr¨ ankung, dass die Stichprobenumf¨ange n1 und n2 klein sind und deshalb approximative Verfahren nicht angewendet werden k¨onnen. Von Interesse sind die Wahrscheinlichkeiten p1 = P (Xi = 1)
154
7. Pr¨ ufen statistischer Hypothesen
und p2 = P (Yi = 1) sowie der Test f¨ ur die Hypothese H0 : p1 = p2 = p gegen die Alternative H1 : p1 = p2 . Konstruktion einer Testgr¨ oße verwenden wir die Zufallsvariablen X = nZur n2 1 i=1 Xi und Y = i=1 Yi sowie die bedingte Verteilung von X gegeben X + Y , die unter H0 durch P (X = t1 |X + Y = t1 + t2 = t) P (X = t1 )P (Y = t − t1 ) = P (X + Y = t) t−t n1 t n1 −t1 n2 1 1 (1 − p)n2 −(t−t1 ) t1 p (1 − p) t−t1 p n1 +n2 = pt (1 − p)n1 +n2 −t t n1 n2 t1 t − t1 = n1 + n2 t
(7.27)
gegeben ist. Unter H0 ist die bedingte Verteilung von X gegeben X + Y also die hypergeometrische Verteilung H(n1 + n2 , n1 , t) und damit unabh¨angig vom unbekannten p. Der kritische Bereich K = {0, . . . , ku − 1} ∪ {ko + 1, . . . , t} wird dann gem¨aß (7.27) aus P (X > ko |X + Y = t) ≤ α/2 und P (X < ku |X + Y = t) ≤ α/2 so bestimmt, dass ku und ko die gr¨ oßte bzw. kleinste ganze Zahl ist, die die jeweilige Niveaubedingung einh¨ alt (Vorgehensweise analog zur Bestimmung der kritischen Werte in Abschnitt 7.6.1). Auch hier gilt, dass der Test das Niveau α nicht immer ganz aussch¨ opft (vgl. R¨ uger, 1996). Beispiel 7.6.3. Zwei Strategien A und B werden danach beurteilt, ob sie zu Erfolg oder Nichterfolg f¨ uhren. Mit p1 bezeichnen wir die Wahrscheinlichkeit P (Xi = 1) f¨ ur Erfolg unter Strategie A, mit p2 bezeichnen wir die Wahrscheinlichkeit P (Yi = 1) f¨ ur Erfolg unter Strategie B. Wir wollen pr¨ ufen, ob sich die beiden Strategien A und B hinsichtlich ihrer Erfolgsquote signifikant unterscheiden, d. h., wir pr¨ ufen die Hypothese H0 : p1 = p2 = p gegen die Alternative H1 : p1 = p2 . Wir setzen das Signifikanzniveau als α = 0.05 fest. In der folgenden Tabelle sind die Ergebnisse des Zufallsexperiments angegeben. Strategie A Strategie B
Erfolge 8 5 13
Mißerfolge 3 3 6
n1 = 11 n2 = 8 n1 + n2 = 19
7.6 Pr¨ ufen von Hypothesen u ¨ ber Binomialverteilungen
155
Wir haben n1 = 11, n2 = 8, t1 = 8, t2 = 5 und damit n = n1 + n2 = 19 und t = t1 + t2 = 13. Die bedingte Verteilung von X unter der Bedingung X + Y = t ist die hypergeometrische Verteilung H(19, 11, 13). Wir berechnen k 0 1 2 3 4 5 6 7 8 9 10 11 12 13
P (X = k|X ⎫ + Y = 13) 0.00000 ⎪ ⎪ ⎪ 0.00000 ⎪ ⎪ ⎪ ⎬ 0.00000 = 0.01703 < α/2 0.00000 ⎪ ⎪ ⎪ 0.00000 ⎪ ⎪ ⎪ ⎭ 0.01703 0.13622 ku 0.34056 0.34056 0.14190 ⎫ko 0.02270 ⎪ ⎪ ⎬ 0.00103 = 0.02373 < α/2 0.00000 ⎪ ⎪ ⎭ 0.00000
Daraus erhalten wir K = {0, . . . , ku − 1} ∪ {ko + 1, . . . , t} = {0, . . . , 5} ∪ {10, . . . , 13}, so dass H0 wegen X = 8 ∈ K nicht abgelehnt wird. Beide Strategien k¨onnen als gleich gut angesehen werden. Anmerkung. Die bedingten Wahrscheinlichkeiten P (X = 0|X + Y = 13), . . ., P (X = 4|X + Y = 13) und P (X = 12|X + Y = 13), P (X = 13|X + Y = 13) sind Null, da diese Ereignisse unm¨ oglich sind. 7.6.4 McNemar-Test f¨ ur bin¨ aren Response Wir betrachten nun ein matched-pair Design mit den beiden Zufallsvariablen X und Y , die jedoch jeweils nur zwei m¨ogliche Auspr¨agungen x1 , x2 bzw. y1 , y2 besitzen. Wir verwenden standardm¨aßig die Kodierungen 0 und 1 (bin¨arer Response), so dass die Paare (xi , yi ) die Responsetupel (0, 0), (0, 1), (1, 0) oder (1, 1) bilden. Die Ergebnisse werden in einer 2 × 2-Tafel zusammengefaßt. X Y
0
1 Summe
0 A
1 C
B A+B
D C +D
Summe A+C B+D A+B+C +D =n
Wir testen die Nullhypothese H0 : P (X = 1) = P (Y = 1) gegen H1 : P (X = 1) = P (Y = 1). Dieser Test ist damit das Pendant zum exakten Test von Fisher f¨ ur den matched-pair Fall.
156
7. Pr¨ ufen statistischer Hypothesen
Der Test basiert auf den relativen (Rand-) H¨aufigkeiten, die sich in B und C (den H¨aufigkeiten f¨ ur die diskordanten Ergebnisse (0, 1) bzw. (1, 0)) unterscheiden. Unter H0 m¨ ußten b und c (Realisierungen der Zufallsvariablen B und C) gleich groß sein. Unter fest vorgegebener Summe b + c ist C = Anzahl der (1, 0)-Paare“ damit eine binomialverteilte Zufallsvariable: C ∼ ” B(b + c; 1/2). Also gilt E(C) = (b + c)/2 und Var(C) = (b + c) · 12 · 12 . Damit ist der folgende Quotient unter H0 standardisiert: C − (b + c)/2 . (b + c) · 1/2 · 1/2
(7.28)
F¨ ur hinreichend großes (b + c) folgt nach dem zentralen Grenzwertsatz, dass (7.28) N (0, 1)-verteilt ist. Diese N¨ aherung gilt ab (b + c) ≥ 20. Damit hat die Teststatistik folgende Gestalt: Z=
2C − (b + c) √ . b+c
(7.29)
Die Teststatistik von McNemar ist das Quadrat dieser Z-Statistik. Sie wird im Fall (b + c) ≥ 20 und bei zweiseitiger Fragestellung verwendet und folgt einer χ2 -Verteilung mit einem Freiheitsgrad: (2C − (b + c))2 ∼ χ21 b+c
(7.30)
(b − c)2 (2c − (b + c))2 = . b+c b+c
(7.31)
Z2 = mit der Realisierung z2 =
F¨ ur kleine Stichproben w¨ ahlt man als Testgr¨oße C und als kritische Werte die Quantile der Binomialverteilung B(b + c; 21 ). F¨ ur (b + c) ≥ 20 w¨ahlt man als Testgr¨oße Z (bzw. Z 2 ) und die Quantile der Standardnormalverteilung (bzw. der Chi-Quadrat-Verteilung). Beispiel 7.6.4. In einem matched-pair Design werden n = 210 Studenten bez¨ uglich ihrer Leistungen im Seminar und im Praktikum eingesch¨atzt. Seien X (Leistung im Seminar) und Y (Leistung im Praktikum) bin¨ar kodiert mit 0 (zufriedenstellend), 1 (nicht zufriedenstellend). Y X
0 1
0 10 70 80
1 50 80 130
60 150 210
Wir pr¨ ufen H0 : P (X = 1) = P (Y = 1) und erhalten den Wert der Teststatistik (7.31)
7.7 Testentscheidung mit Statistik Software
157
X&Y Y X 0 1
0 10 70
1 50 80
Test Statisticsb N Chi-Square a Asymp. Sig.
X&Y 210 3.008 .083
a. Continuity Corrected b. McNemar Test Abb. 7.9. SPSS-Output zu Beispiel 7.6.4
z2 =
(70 − 50)2 400 = = 3.33 < 3.84 = c1;0.95 , 70 + 50 120
so dass wir H0 nicht ablehnen. Hierbei ist zu beachten, dass SPSS bei der Auswertung von (7.31) eine Stetigkeitskorrektur (|b−c|−1)2 )/(b+c) verwendet, so dass wir Chi-Square 3.008 anstelle von z 2 = 3.33 erhalten.
7.7 Testentscheidung mit Statistik Software In der klassischen Testtheorie wird eine Hypothese H0 zugunsten der Alternative H1 verworfen, wenn der aus der Stichprobe berechnete Wert der Testgr¨oße einen zugeh¨ origen kritischen Wert zu vorgegebenem Signifikanzniveau α u ur die verschiedenen ¨berschreitet. Die kritischen Werte der Tests sind f¨ Verteilungen der Testgr¨ oßen tabelliert, so dass die Testentscheidung durch Vergleich der berechneten Testgr¨ oße und des Tabellenwertes getroffen werden kann. Softwarepakete geben zu den berechneten Testgr¨oßen (TG) sogenannte p-values aus, anhand derer die Testentscheidung getroffen werden kann. Die Analogie beider Vorgehensweisen soll im Folgenden erl¨autert werden. Der zweiseitige p-value ist wie in Abschnitt 7.2 definiert durch p-value = PH0 (|x| > |T G|)
−T G
= fT G (x)dx + −∞
∞
TG
fT G (x)dx .
158
7. Pr¨ ufen statistischer Hypothesen
z1−α/2
zα/2 = −z1−α/2
Abb. 7.10. Ablehnbereich (−∞, −z1−α/2 ) ∪ (z1−α/2 , ∞) des zweiseitigen GaussTests. Die graue Fl¨ ache ist gem¨ aß der Definition von z1−α/2 gleich α/2 + α/2 = α
Er entspricht also der Wahrscheinlichkeit, dass bei G¨ ultigkeit von H0 ein Wert x beobachtet wird, der ‘extremer’ ist als der beobachtete Wert der Testgr¨oße, was genau der Fl¨ ache unter der Dichte von T G f¨ ur Werte gr¨oßer als |T G| entspricht. Die beiden Integrale sind f¨ ur symmetrische Pr¨ ufverteilungen wie die Normal- oder t-Verteilung gleich, da die Dichte hier symmetrisch zu Null ist. Es gilt also
p-value = 2
∞
fT G (x)dx .
TG
F¨ ur die einseitige Fragestellung ist je nach Richtung der Hypothese eines der beiden Integrale nicht von Bedeutung. Der Wert kann also halbiert werden. Testentscheidung
Wir wollen die Testentscheidungen f¨ ur die ein- und zweiseitigen Fragestellungen hier am Beispiel des Gauss-Tests aus Abschnitt 7.3.1 vorstellen. Zweiseitige Fragestellung. F¨ ur den zweiseitigen Gauss-Test wird die Nullhypothese H0 : μX = μ0 zugunsten der Alternative H1 : μX = μ0 verworfen – der Test lehnt H0 ab – falls die Realisierung der Testgr¨oße T G gr¨oßer als z1−α/2 bzw. kleiner als −z1−α/2 ist. Der Ablehnbereich (−∞, −z1−α/2 ) ∪ (z1−α/2 , ∞) ist in Abbildung 7.10 dargestellt. In Abbildung 7.11 wird eine Situation dargestellt, die zum Ablehnen von H0 f¨ uhrt. Die Realisation der Testgr¨ oße ist gr¨ oßer als z1−α/2 . Die Fl¨ache unter der Dichte rechts von T G ist damit kleiner als α/2. Der p-value entspricht der Summe dieser Fl¨ ache und dem Pendant auf der negativen Halbachse. Es gilt also insgesamt p-value < α (Ablehnen von H0 ). Abbildung 7.12 zeigt die Situation, die nicht zum Verwerfen von H0 f¨ uhrt. Die Realisation der Testgr¨ oße ist kleiner als z1−α/2 . Die Fl¨ache unter der Dichte rechts von T G ist damit gr¨ oßer als α/2. Es gilt also insgesamt p-value > α (H0 wird beibehalten).
7.7 Testentscheidung mit Statistik Software
−T G
−z1−α/2
z1−α/2
159
TG
Abb. 7.11. Zweiseitiger Gauss-Test: Ablehnen von H0 . Die schraffierte Fl¨ ache rechts von T G ist kleiner als α/2 (graue Fl¨ ache). Insgesamt gilt p-value < α
−z1−α/2
−T G
TG
z1−α/2
Abb. 7.12. Zweiseitiger Gauss-Test: H0 wird nicht abgelehnt. Die dunkle Fl¨ ache rechts von T G ist gr¨ oßer als α/2. Insgesamt gilt p-value > α.
Einseitige Fragestellung. F¨ ur den einseitigen Gauss-Test wird die Nullhypothese H0 : μX ≤ μ0 zugunsten der Alternative H1 : μX > μ0 verworfen – der Test lehnt H0 ab – falls die Realisierung der Testgr¨oße T G gr¨oßer als z1−α ist (die umgekehrte Fragestellung H0 : μX ≥ μ0 wird analog behandelt und deshalb hier nicht n¨ aher erl¨ autert). Der Ablehnbereich (z1−α , ∞) ist in Abbildung 7.13 dargestellt. Die Entscheidung H0 abzulehnen oder beizubehalten verl¨auft analog zur Vorgehensweise beim zweiseitigen Test. In Abbildung 7.14 werden die Ablehnbereiche der ein- und der zweiseitigen Fragestellung verglichen. Hier ist die Fl¨ ache unter der Dichte rechts von z1−α gleich der Summe der Fl¨ achen unter der Dichte links von −z1−α/2 und rechts von z1−α/2 .
160
7. Pr¨ ufen statistischer Hypothesen
z1−α Abb. 7.13. Ablehnbereich (z1−α , ∞) beim einseitigen Gauss-Test. Die graue Fl¨ ache ist α.
−z1−α/2
z1−α
z1−α/2
Abb. 7.14. Vergleich der Ablehnbereiche (z1−α , ∞) beim einseitigen und (−∞, −z1−α/2 ) ∪ (z1−α/2 , ∞) beim zweiseitigen Gauss-Test. Die Summe der hellgrauen Fl¨ achen ist gleich der dunkelgrauen Fl¨ ache; jeweils gleich α.
7.8 Aufgaben und Kontrollfragen
161
7.8 Aufgaben und Kontrollfragen Aufgabe 7.1: Erl¨autern Sie die Vorgehensweise beim Signifikanztest. Aufgabe 7.2: Eine Mensa bezieht Semmeln aus einer Großb¨ackerei. Diese garantiert ein mittleres Gewicht von mindestens 45 g bei einer Standardabweichung von 2 g. Die Mensa unterzieht die t¨agliche große Lieferung einer Pr¨ ufung bez¨ uglich des Sollgewichts. a) Wie lauten Null- und Alternativhypothese? b) Bestimmen Sie den Annahme- und Ablehnungsbereich f¨ ur α = 0.05 und den Stichprobenumfang n = 25 unter Verwendung der Normalverteilung. c) Eine Stichprobe liefert x = 44g. Wie entscheiden Sie? Aufgabe 7.3: Eine Gastst¨ atte bezieht die 1/2-Liter-Bierflaschen aus einer kleinen Brauerei im Nachbarort. Nach mehreren Beschwerden seiner G¨aste, dass die Flaschen weniger als 1/2 Liter Bier enthalten w¨ urden, fordert der Gastwirt den Brauereibesitzer auf, seine Abf¨ ullanlage u ufen zu lassen. ¨berpr¨ Zu diesem Zweck wird eine Zufallsstichprobe vom Umfang n = 150 Flaschen ausgew¨ahlt. Bei deren Untersuchung ergaben sich die folgenden Werte: x¯ = 498.8 ml und s = 3.5 ml (Normalverteilung vorausgesetzt). a) Ist der Verdacht der Besucher der Gastst¨ atte bei einem Signifikanzniveau von 1% gerechtfertigt? b) Der Brauereibesitzer behauptet nun, dass das Ergebnis der Stichprobe ¨ nicht widerlegen w¨ urde, dass seine Flaschen genau 500 ml enthalten. Uberpr¨ ufen Sie diese Behauptung bei α = 0.01. c) Ein Jahr sp¨ater wird nochmals eine Untersuchung durchgef¨ uhrt, allerdings diesmal nur mit n = 20 Flaschen. Die Stichprobenresultate sind diesmal x ¯ = 498.1 und s = 3.7. Wie lauten die Tests aus (a) und (b) unter Verwendung dieser Werte? Aufgabe 7.4: In den Bundesl¨ andern Baden–W¨ urttemberg und Bayern wurde eine Untersuchung u ¨ber das monatliche Bruttoeinkommen von Hochschulabsolventen durchgef¨ uhrt. Eine Stichprobe von je 41 Absolventen ergab in Baden–W¨ urttemberg ein durchschnittliches Monatseinkommen von x = 3025 Euro bei einer Varianz von s2x = 41068 bzw. in Bayern von y = 2846 Euro mit s2y = 39236. Es soll angenommen werden, dass die Bruttoverdienste in beiden Bundesl¨ andern normalverteilt sind. Pr¨ ufen Sie anhand der Stichprobenergebnisse, ob von einer Gleichheit der Varianzen ausgegangen werden kann (α = 0.05). Hinweis: Das f¨ ur den Test ben¨otigte F -Quantil lautet F40,40,0.975 = 1.88. Aufgabe 7.5: W¨ahrend eines Behandlungszeitraumes von einem Jahr wird ein cholesterinsenkendes Pr¨ aparat A an 15 Versuchspersonen, ein ebenso wirkendes Mittel B an 17 Personen verabreicht. Stichprobenmittel und -varianz der in dieser Zeit erzielten Senkung des Cholesterinspiegels (in mg) lauten:
162
7. Pr¨ ufen statistischer Hypothesen
A-Personen: x ¯A = 102;
s2A = 37;
B-Personen: x ¯B = 86;
s2B = 48.
Kann aus diesen Beobachtungen mit einer Irrtumswahrscheinlichkeit von h¨ochstens 0.05 darauf geschlossen werden, dass Pr¨aparat A im Durchschnitt zu einer um mehr als 10 mg h¨ oheren Senkung des Cholesterinspiegels f¨ uhrt als Pr¨aparat B? Gehen Sie dabei davon aus, dass die erzielten Cholesterinsenkungen unter A bzw. B normalverteilte Zufallsgr¨oßen mit a) u ¨ bereinstimmenden Varianzen, 2 2 b) den Varianzen σA = 32, σB = 50 sind. Aufgabe 7.6: 10 Personen werden zuf¨ allig ausgew¨ahlt, um die Reaktionszeit nach der Einnahme eines neuen Medikaments zu untersuchen (Personengruppe X). Dieselbe Untersuchung wird an 10 ebenfalls zuf¨allig bestimmten Personen durchgef¨ uhrt, wobei diese jedoch keinerlei Medikamente eingenommen haben (Personengruppe Y). Kann man aufgrund der in der Tabelle zusammengefaßten Ergebnisse behaupten, dass das Medikament die Reaktionszeit signifikant beeinflusst (α = 0.05)? Wir gehen dabei von der Annahme 2 2 ), Y1 , . . . , Ym ∼ N (μY ; σY2 ) und σX = σY2 aus. X1 , . . .,Xn ∼ N (μX ; σX Person 1 2 3 4 5 6 7 8 9 10 X 0.61 0.72 0.79 0.83 0.64 0.69 0.73 0.72 0.84 0.81 Y 0.68 0.65 0.58 0.67 0.70 0.82 0.59 0.60 0.71 0.62 Aufgabe 7.7: Auf einer landwirtschaftlichen Versuchsanlage werden zuf¨allig 10 Felder ausgew¨ ahlt, um ein neues D¨ ungemittel f¨ ur den Kartoffelanbau zu testen. Nachdem jedes Versuchsfeld halbiert wurde, wird in der ersten H¨alfte das herk¨ommliche D¨ ungemittel und in der zweiten H¨alfte das neue Mittel eingesetzt. Die jeweiligen Ernteertr¨ age (in kg/m2 ) sollen als Realisationen normalverteilter Zufallsgr¨ oßen X (herk¨ ommliches Mittel) und Y (neues Mittel) angesehen werden. Feld X Y
1 7.1 7.3
2 6.4 5.1
3 6.8 8.6
4 8.8 9.8
5 7.2 7.9
6 9.1 8.0
7 7.4 9.2
8 5.2 8.5
9 5.1 6.4
10 5.9 7.2
Wurden die durchschnittlichen Ernteertr¨ age durch das neue D¨ ungemittel signifikant gegen¨ uber dem herk¨ ommlichen D¨ ungemittel gesteigert (α = 0.05)? Aufgabe 7.8: Worin unterscheiden sich der paired t-Test und der doppelte t-Test? Aufgabe 7.9: Unter 3000 Neugeborenen wurden 1428 M¨adchen gez¨ahlt. Testen Sie zum Niveau 0.05 die Hypothese, dass die Wahrscheinlichkeit f¨ ur eine M¨adchengeburt 0.5 betr¨ agt.
7.8 Aufgaben und Kontrollfragen
163
Aufgabe 7.10: Bei den letzten Wahlen entschieden sich 48% der wahlberechtigten Bev¨olkerung einer Stadt mit mehr als 100000 Einwohnern f¨ ur den Kandidaten A als B¨ urgermeister. In einer aktuellen Umfrage unter 3000 zuf¨allig bestimmten W¨ahlern entschieden sich 1312 wieder f¨ ur diesen Kandidaten. Kann aus diesem Ergebnis mit einer Irrtumswahrscheinlichkeit von 0.05 auf eine Ver¨anderung des W¨ ahleranteils des Kandidaten A geschlossen werden? Aufgabe 7.11: Frau Meier kauft im Supermarkt 10 Orangen. Sp¨ater f¨allt ihr ein, dass sie nochmals 8 Orangen braucht und sie kauft diese im Obstgesch¨aft um die Ecke. Als sie zu Hause ist, stellt sie fest, dass 3 Orangen aus dem Supermarkt angefault sind. Beim Obsth¨ andler hat sie nur eine schlechte Orange bekommen. Spricht dies f¨ ur eine unterschiedliche Qualit¨at in den beiden Gesch¨aften? Aufgabe 7.12: Ein Dauertest von Gl¨ uhbirnen zweier verschiedener Firmen f¨ uhrte zu folgenden Ergebnissen: Von 400 Gl¨ uhbirnen des Herstellers 1 waren 300 qualit¨atsm¨aßig ausreichend, von den 900 u uften Gl¨ uhbirnen des ¨ berpr¨ Herstellers 2 hingegen 648. Kann auf Grund dieses Ergebnisses behauptet werden (α = 0.01), dass die Firmen mit verschiedenen Ausschussanteilen produzieren? Aufgabe 7.13: Eine umfangreiche Lieferung von Eiern soll auf ihre Qualit¨at hin u uft werden. Zu diesem Zweck werden n = 100 Eier zuf¨allig aus¨berpr¨ gew¨ahlt und u uft. Dabei geben 3 Eier Anlaß zu Beanstandungen. Der ¨ berpr¨ Lieferant behauptet nun, dass der Anteil verdorbener Eier bei seinen Liefe¨ rungen kleiner als 4% ist. Uberpr¨ ufen Sie diese Annahme unter Verwendung einer geeigneten Verteilungsapproximation mit dem dazugeh¨origen Test zum Niveau α = 0.05. Aufgabe 7.14: Eine Drahtziehmaschine erzeugt eine bestimmte Sorte Draht. Die mechanischen Eigenschaften von Draht werden durch seine Zugfestigkeit (in N/mm2 = Newton pro Quadratmillimeter) gemessen. Die Zugfestigkeit einer Drahtprobe aus der laufenden Produktion kann als normalverteilte Zufallsgr¨oße angesehen werden. Erfahrungsgem¨ aß streut die Zugfestigkeit von Draht aus einer laufenden Produktion umso mehr, je l¨ anger die Maschine im Einsatz ist. Dies soll anhand von zwei Stichproben u uft werden, die nacheinander in einem ¨ berpr¨ bestimmten zeitlichen Abstand aus der laufenden Produktion entnommen wurden. Wir sehen die beiden Stichproben als unabh¨angig voneinander an. Die zeitlich erste Stichprobe Y von 15 untersuchten Drahtproben ergab eine Streuung sY = 80 N/mm2 . Die zweite Stichprobe X von 25 Drahtproben lieferte sX = 128 N/mm2 . 2 ≤ σY2 bei einem Signifikanzniveau von Testen Sie die Hypothese H0 : σX 5%. Aufgabe 7.15: Wir nehmen an, dass die Wirkung von Kaffee auf die Lernleistung in einem Test erprobt werden soll. Dazu werden die Leistungen von Studenten vor bzw. nach dem Kaffeegenuß beurteilt. Die Leistungen seien
164
7. Pr¨ ufen statistischer Hypothesen
bin¨ar kodiert gem¨ aß Leistungen u ¨ber/unter dem Durchschnitt: 1/0. Es sei folgendes Ergebnis bei n = 100 Studenten erzielt worden:
0 nachher
1
vorher 0 1 20 25
45
15 35
55 100
Pr¨ ufen Sie H0 : p1 = p2 gegen H1 : p1 = p2 .
40 65
8. Nichtparametrische Tests
8.1 Einleitung In die bisherigen Pr¨ ufverfahren des Kapitels 7 ging der Verteilungstyp der Stichprobenvariablen ein (z.B. normal- oder binomialverteilte Zufallsvariablen). Der Typ der Verteilung war also bekannt. Die zu pr¨ ufenden Hypothesen bezogen sich auf Parameter dieser Verteilung. Die f¨ ur Parameter bekannter Verteilungen konstruierten Pr¨ ufverfahren heißen parametrische Tests, da die Hypothesen Parameterwerte festlegen. So wird beim einfachen t-Test beiuft. M¨ochte man Lage- oder Streuspielsweise die Hypothese H0 : μ = 5 gepr¨ ungsalternativen bei stetigen Variablen pr¨ ufen, deren Verteilung nicht bekannt ist, so sind die im Folgenden dargestellten nichtparametrischen Tests zu verwenden. Wir wollen in diesem Kapitel einige f¨ ur die Praxis relevante Tests vorstellen. F¨ ur weitergehende Ausf¨ uhrungen verweisen wir auf B¨ uning und Trenkler (1994).
8.2 Anpassungstests Der einfache t-Test pr¨ uft anhand einer Stichprobe ob beispielsweise der Erwartungswert einer (normalverteilten) Zufallsvariablen kleiner ist als der Erwartungswert einer (theoretischen) Zufallsvariablen mit anderem Erwartungswert. Kennt man nun den Verteilungstyp der der Stichprobe zugrunde liegenden Zufallsvariablen nicht, so kann man pr¨ ufen, ob diese Zufallsvariable von einer bestimmte Verteilung wie z.B. einer Normalverteilung abweicht. Es soll also untersucht werden, wie gut“ sich eine beobachtete Verteilung der ” hypothetischen Verteilung anpaßt. Wie in Kapitel 7 beschrieben, ist es bei der Konstruktion des Tests notwendig, die Verteilung der Testgr¨ oße unter der Nullhypothese zu kennen. Daher sind alle Anpassungstests so aufgebaut, dass die eigentlich interessierende Hypothese als Nullhypothese und nicht – wie sonst u ¨ blich – als Alternative formuliert wird. Deshalb kann mit einem Anpassungstest auch kein statistischer Nachweis gef¨ uhrt werden, dass ein bestimmter Verteilungstyp vorliegt, sondern es kann nur nachgewiesen werden, dass ein bestimmter Verteilungstyp nicht vorliegt.
166
8. Nichtparametrische Tests
8.2.1 Chi-Quadrat-Anpassungstest Der wohl bekannteste Anpassungstest ist der Chi-Quadrat-Anpassungstest. Die Teststatistik wird so konstruiert, dass sie die Abweichungen der unter H0 erwarteten von den tats¨ achlich beobachteten absoluten H¨aufigkeiten mißt. Hierbei ist jedes Skalenniveau zul¨ assig. Um jedoch die erwarteten H¨aufigkeiten zu berechnen ist es bei ordinalem oder stetigem Datenniveau notwendig, die Stichprobe X = (X1 , . . . , Xn ) in k Klassen Klasse Anzahl der Beobachtungen
1 n1
2 n2
··· ···
k nk
Total n
einzuteilen. Die Klasseneinteilung ist dabei in gewisser Weise willk¨ urlich. Die Klasseneinteilung sollte jedoch nicht zu fein gew¨ahlt werden, um eine gen¨ ugend große Anzahl an Beobachtungen in den einzelnen Klassen zu gew¨ahrleisten. Wir pr¨ ufen die Nullhypothese H0 : Die Verteilungsfunktion F (x) der in ” der Stichprobe realisierten Zufallsvariablen X stimmt mit einer vorgegebenen ufen H0 : F (x) = F0 (x) gegen Verteilungsfunktion F0 (x) u ¨ berein“, d.h., wir pr¨ die zweiseitige Alternative H1 : F (x) = F0 (x). Die Teststatistik lautet T (X) =
k (Ni − npi )2 i=1
npi
,
(8.1)
wobei aufigkeit der Stichprobe X f¨ ur die Klasse i (i = 1, . . . , k) • Ni die absolute H¨ ist (Ni ist eine Zufallsvariable mit Realisierung ni in der konkreten Stichprobe), • pi die mit Hilfe der vorgegebenen Verteilungsfunktion F0 (x) berechnete (also hypothetische) Wahrscheinlichkeit daf¨ ur ist, dass die Zufallsvariable X in die Klasse i f¨ allt, • npi die unter H0 erwartete H¨ aufigkeit in der Klasse i angibt. Entscheidungsregel: Die Nullhypothese H0 wird zum Signifikanzniveau α oßer als das (1 − α)-Quantil der χ2 abgelehnt, falls t = T (x1 , . . . , xn ) gr¨ Verteilung mit k − 1 − r Freiheitsgraden ist, d.h., falls gilt: t > ck−1−r,1−α . r ist dabei die Anzahl der Parameter der vorgegebenen Verteilungsfunktion F0 (x). Sind die Parameter der Verteilungsfunktion unbekannt, so m¨ ussen diese aus der Stichprobe gesch¨ atzt werden. Die Sch¨atzung der Parameter aus den gruppierten Daten f¨ uhrt dabei im Gegensatz zur Sch¨atzung aus ungruppierten Daten zu Verzerrungen in dem Sinne, dass die Teststatistik dann ur eine genauere Diskussion sei auf B¨ uning und nicht mehr χ2 -verteilt ist. F¨ Trenkler (1994) verwiesen.
8.2 Anpassungstests
167
Anmerkung. Die Teststatistik T (X) ist unter der Nullhypothese nur asymptotisch χ2 -verteilt. Diese Approximation ist u ¨ blicherweise hinreichend genau, wenn nicht mehr als 20% der erwarteten Klassenbesetzungen npi kleiner als 5 sind und kein Wert npi kleiner als 1 ist. Beispiel 8.2.1. In einem Betrieb werden Plastikteile produziert. Im Rahmen der Qualit¨atskontrolle entnimmt man bei einer neu aufgestellten Maschine n = 50 Teile und pr¨ uft, ob die Zufallsvariable X: Durchmesser eines Teils“ ” normalverteilt ist. Wir erhalten folgende Werte: xi 7.6 6.9 7.5 7.4 7.1
7.1 6.3 7.1 6.4 6.9
7.1 6.5 7.9 7.8 7.0
6.0 6.4 7.0 6.6 6.3
7.7 6.0 7.0 7.3 7.2
6.8 6.9 7.4 7.3 6.9
6.4 7.2 6.1 6.5 6.7
6.0 6.9 7.2 6.9 6.1
7.3 6.9 6.9 7.9 7.0
7.9 6.7 7.1 6.7 6.9
Wir pr¨ ufen auf Normalverteilung, d.h. H0 : F (x) = F0 (x) = N (μ, σ 2 ). Die Nullhypothese legt hier also nur den Typ der Verteilung, nicht aber die Werte der Parameter μ und σ 2 fest. Wir m¨ ussen die Parameterwerte daher aus der Stichprobe sch¨atzen. Wir ermitteln die Sch¨ atzwerte x ¯ = 6.93 und s2 = 0.502 f¨ ur μ und σ 2 . Im n¨achsten Schritt m¨ ussen nun die Originaldaten klassiert werden. Wir w¨ahlen folgende Klasseneinteilung der Stichprobe vom Umfang n = 50. Klasse Grenzen ni
1 (−∞, 6.5) 10
2 [6.5, 7.0) 16
3 [7.0, 7.5) 17
4 [7.5, ∞) 7
Um die Wahrscheinlichkeiten pi (i = 1, . . . , 4) zu berechnen f¨ uhren wir mit Z ∼ N (0, 1) wieder die standardisierte normalverteilte Zufallsvariable ein. Unter Verwendung von Tabelle B.1 erhalten wir f¨ ur Klasse 1: 6.5 − 6.93 p1 = P (X < 6.5) = P Z < 0.50 = Φ(−0.86) = 1 − Φ(0.86) = 0.194895 .
Die unter H0 erwartete H¨ aufigkeit f¨ ur die Klasse 1 betr¨agt also 50 · p1 = 9.74. F¨ ur Klasse 2 erhalten wir: 6.5 − 6.93 7.0 − 6.93 p2 = P (6.5 ≤ X < 7.0) = P ≤Z< 0.50 0.50 = Φ(0.14) − Φ(−0.86) = Φ(0.14) + Φ(0.86) − 1 = 0.360775 .
168
8. Nichtparametrische Tests
Die erwartete H¨aufigkeit unter H0 betr¨ agt 50 · p2 = 18.04. F¨ ur Klasse 3 erhalten wir: 7.0 − 6.93 7.5 − 6.93 ≤Z< p3 = P (7.0 ≤ X < 7.5) = P 0.50 0.50 = Φ(1.14) − Φ(0.14) = 0.317187 .
Die erwartete H¨ aufigkeit unter H0 betr¨ agt 50 · p3 = 15.86. F¨ ur Klasse 4 erhalten wir schließlich: 7.5 − 6.93 p4 = P (X ≥ 7.5) = P Z ≥ 0.50 = 1 − Φ(1.14) = 0.127143 .
Die erwartete H¨ aufigkeit unter H0 betr¨ agt 50 · p4 = 6.36. Damit k¨onnen wir den Wert der Testgr¨ oße (8.1) berechnen: (10 − 9.74)2 (16 − 18.04)2 (17 − 15.86)2 (7 − 6.36)2 + + + 9.74 18.04 15.86 6.36 = 0.3839 .
t=
Die Zahl der Freiheitsgrade betr¨ agt k − 1 − r = 4 (Klassen) − 1 − 2 (gesch¨ atzte Parameter) = 1 . Zur Irrtumswahrscheinlichkeit α = 0.05 und der Freiheitsgradzahl 1 lesen wir aus Tabelle B.3 den kritischen Wert c1,0.95 = 3.84 ab. Da t = 0.38 < 3.84 ist, besteht kein Anlaß die Nullhypothese abzulehnen. Die Annahme einer Normalverteilung f¨ ur die Zufallsvariable X (Durchmesser) ist also im Rahmen der vorliegenden Stichprobe nicht widerlegt. Anmerkung. Die Zahl der zu sch¨ atzenden Parameter wird bei der Bestimmung der Freiheitsgrade von SPSS nicht ber¨ ucksichtigt. Es gilt hier stets df = k − 1 (in unserem Beispiel df = 4 − 1 = 3). Damit erhalten wir zwar den gleichen Wert der Teststatistik, jedoch einen anderen p-value, was gerade bei wenig Klassen deutliche Unterschiede ergeben kann. 8.2.2 Kolmogorov–Smirnov–Anpassungstest Der Chi–Quadrat–Anpassungstest hat bei stetigen Variablen den Nachteil, dass eine Gruppierung der Werte notwendig ist. Insbesondere kann die Klassenbildung auch die Teststatistik und damit das Testergebnis beeinflussen. Dieses Problem wirkt sich besonders stark bei kleinen Stichproben aus. In
8.2 Anpassungstests
169
Descriptive Statistics
N X Valid N (listwise)
50
Mean 6,9340
Std. Deviation ,5041
Variance ,254
50
Test Statistics
Chi-Squarea df Asymp. Sig.
KLASSE
1 2 3 4 Total
Observed N 10 16 17 7 50
Expected N 9,7 18,0 15,9 6,4
Residual ,3 -2,0 1,1 ,6
KLASSE ,386 3 ,943
a. 0 cells (,0%) have expected frequencies less than 5. The minimum expected cell frequency is 6,4.
Abb. 8.1. SPSS-Output zu Beispiel 8.2.1
diesen F¨allen ist der Kolmogorov-Smirnov-Anpassungstest f¨ ur stetige Variablen dem Chi-Quadrat-Anpassungstest vorzuziehen. Dieser Test pr¨ uft ebenfalls die Hypothese H0 : F (x) = F0 (x) gegen H1 : F (x) = F0 (x), wobei F eine stetige Verteilung ist. Die Testgr¨ oße basiert beim Kolmogorov-SmirnovAnpassungstest auf der gr¨ oßten Abweichung zwischen empirischer und theoretischer Verteilungsfunktion. Wir ordnen daher zun¨ achst die Stichprobe x = (x1 , . . . , xn ) der Gr¨oße nach zu (x(1) ≤ . . . ≤ x(n) ) und bestimmen die empirische Verteilungsfunktion Fˆ (x) ⎧ ⎨ 0 −∞ < x < x(1) Fˆ (x) = i/n x(i) ≤ x < x(i+1) i = 1, . . . , n − 1 ⎩ 1 x(n) ≤ x < ∞ bzw. allgemeiner formuliert (f¨ ur den Fall von Bindungen) n
1 Fˆ (x) = 1{xi ≤x} . n i=1 Dann lautet die Teststatistik D = sup |F0 (x) − Fˆ (x)| . x∈R
Wegen der Monotonie von F (x) ist (8.2) identisch zu
(8.2)
170
8. Nichtparametrische Tests
D = max {|Di+ |, |Di− |} i=1,...,n
mit Di− = Fˆ (x(i−1) ) − F0 (x(i) ) D+ = Fˆ (x(i) ) − F0 (x(i) ) . i
Zur Veranschaulichung dieser Situation vgl. Abbildung 8.2.
|Di+ |
F0 (x) Fˆ (x)
• |Di− |
•
◦
◦
x
x(i−1)
x(i)
Abb. 8.2. Abst¨ ande zwischen empirischer Verteilungsfunktion Fˆ (x) und theoretischer Verteilungsfunktion F0 (x)
Entscheidungsregel: Die Nullhypothese H0 : F (x) = F0 wird zugunsten der Alternative H1 : F (x) = F0 (x) abgelehnt, falls D > dn;1−α ist, wobei die kritischen Werte in der folgenden Tabelle enthalten sind. n dn;1−α n dn;1−α
3 0.708 10 0.409
4 0.624 15 0.338
5 0.563 20 0.294
6 0.519 25 0.264
7 0.483 30 0.242
8 0.454 40 0.210
9 0.430 > 40 √ ≈ 1.36/ n
Im Gegensatz zum Chi–Quadrat–Anpassungstest gibt es keine allgemeine Methodik f¨ ur den Fall, dass die Parameter der theoretischen Verteilung unbekannt sind. Werden diese Parameter aus der Stichprobe gesch¨atzt, dann ist der Test zu konservativ. Lilliefors (1967; 1969) hat f¨ ur die Normalverteilung und Exponentialverteilung korrigierte kritische Werte f¨ ur den Fall bestimmt, dass die Parameter aus der Stichprobe gesch¨ atzt werden. Beispiel 8.2.2 (Fortsetzung von Beispiel 8.2.1). Wir pr¨ ufen H0 : F (x) = F0 (x), wobei F0 (x) die Verteilungsfunktion einer N (μ, σ 2 )-Verteilung mit μ=6.93 und σ 2 =0.25 ist. Wir bestimmen die Werte der empirischen Verteilungsfunktion Fˆ (x(i) ), die der theoretischen Verteilungsfunktion F0 (x(i) ) und die daraus resultierenden Werte von Di− und Di+ gem¨aß Tabelle 8.1.
8.2 Anpassungstests
171
Tabelle 8.1. Verteilungsfunktionen und Abst¨ ande ni 3 2 2 3 2 1 3 1 9 4 5 3 3 2 1 1 1 1 3
x(i) 6.00 6.10 6.30 6.40 6.50 6.60 6.70 6.80 6.90 7.00 7.10 7.20 7.30 7.40 7.50 7.60 7.70 7.80 7.90
Fˆ (x(i) ) 0.0600 0.1000 0.1400 0.2000 0.2400 0.2600 0.3200 0.3400 0.5200 0.6000 0.7000 0.7600 0.8200 0.8600 0.8800 0.9000 0.9200 0.9400 1.0000
F0 (x(i) ) 0.0320 0.0490 0.1043 0.1447 0.1946 0.2538 0.3213 0.3952 0.4731 0.5521 0.6290 0.7011 0.7661 0.8224 0.8692 0.9068 0.9357 0.9571 0.9723
Di− –0.0320 0.0110 –0.0043 –0.0047 0.0054 –0.0138 –0.0613 –0.0752 –0.1331 –0.0321 –0.0290 –0.0011 –0.0061 –0.0024 –0.0092 –0.0268 –0.0357 –0.0371 –0.0323
Di+ 0.0280 0.0510 0.0367 0.0553 0.0454 0.0062 –0.0013 –0.0552 0.0469 0.0479 0.0710 0.0589 0.0539 0.0376 0.0108 –0.0068 –0.0157 –0.0171 0.0277
∗
√ Wir entnehmen D = max{|Di− |, |Di+ |} = 0.1331 < d50;1−0.05 ≈ 1.36/ 50 = 0.192, so dass H0 nicht abgelehnt wird.
One-Sample Kolmogorov-Smirnov Test X N Normal Parametersa,b Most Extreme Differences
Mean Std. Deviation Absolute Positive Negative
Kolmogorov-Smirnov Z Asymp. Sig. (2-tailed) Exact Sig. (2-tailed) Point Probability a. Test distribution is Normal. b. Calculated from data. Abb. 8.3. SPSS-Output zu Beispiel 8.2.2
50 6,9340 ,5041 ,133 ,071 -,133 ,941 ,338 ,310 ,000
172
8. Nichtparametrische Tests
√ Anmerkung. SPSS verwendet die√Teststatistik nD mit D aus (8.2). Im √ Beispiel erhalten wir f¨ ur nD = 50 · 0.1331 = 0.941 (K-S Z = .9413).
8.3 Homogenit¨ atstests fu angige ¨ r zwei unabh¨ Stichproben Im Gegensatz zu den Anpassungstests vergleichen die Homogenit¨atstests die Verteilungen zweier Zufallsvariablen miteinander. Die beiden Zufallsvariablen k¨onnen unabh¨ angig sein oder im matched-pair Design vorliegen. Homogenit¨atstests f¨ ur unabh¨ angige Zufallsvariablen werden in diesem Abschnitt vorgestellt, Abschnitt 8.4 behandelt das matched-pair Design. 8.3.1 Kolmogorov-Smirnov-Test im Zweistichprobenproblem Gegeben seien zwei Stichproben X1 , . . . , Xn1 und Y1 , . . . , Yn2 zweier unabh¨angiger Zufallsvariablen X ∼ F und Y ∼ G. Zu pr¨ ufen ist nun die Hypothese H0 : F (t) = G(t) gegen H1 : F (t) = G(t) f¨ ur alle t ∈ R. Analog zur Vorgehensweise beim Kolmogorov-Smirnov-Anpassungstest (Einstichprobenproblem) werden hier die Differenzen zwischen den beiden empirischen Verteilungsfunktionen bestimmt. Die Teststatistik ist der maxiˆ male absolute Abstand zwischen Fˆ (t) und G(t): ˆ K = max |Fˆ (t) − G(t)| . t∈R
Zur praktischen Anwendung ist es ausreichend, diesen Abstand f¨ ur alle t ∈ S zu bestimmen (S bezeichnet hierbei die (gepoolte) Stichprobe S = X ∪ Y): ˆ K = max |Fˆ (t) − G(t)| . (8.3) t∈S
Entscheidungsregel: H0 wird abgelehnt, falls K > kn1 ,n2 ;1−α gilt. Die kritiuning und Trenkler, 1994, schen Werte kn1 ,n2 ;1−α sind tabelliert (vgl. z.B. B¨ Tabellen J und K). Beispiel 8.3.1. In zwei St¨ adten wird der Quadratmeterpreis bei Neubauwohnungen ermittelt. Die Zufallsvariable X sei der Preis in Stadt A“, die Zu” fallsvariable Y sei der Preis in Stadt B“. Wir pr¨ ufen H0 : FA (i) = GB (i) ” gegen H1 : FA (i) = GB (i) zum Niveau α = 0.05. Die Daten sind in folgender Tabelle gegeben: 8.18 9.45 6.29 9.37 9.63
xi 6.95 11.47 10.03 13.03 9.97
9.32 12.85 9.11 9.57 11.39
10.93 10.28 7.47 14.27 10.37
yi 13.03 12.17 9.24 10.47 7.43
8.68 9.26
8.3 Homogenit¨ atstests f¨ ur zwei unabh¨ angige Stichproben
173
Daraus bestimmen wir die empirischen Verteilungsfunktionen FˆA (i) und ˆ GB (i): x(i) 6.29 6.95 8.18 9.11 9.32 9.37 9.45 9.57 9.63 9.97 10.03 11.39 11.47 12.85 13.03 i 6.29 6.95 7.43 7.47 8.18 8.68 9.11 9.24 9.26 9.32 9.37 9.45 9.57
FˆA (x(i) ) 0.067 0.133 0.200 0.267 0.333 0.400 0.467 0.533 0.600 0.667 0.733 0.800 0.867 0.933 1.000
ˆ Fˆ (i) − G(i) 0.067 0.133 0.050 –0.034 0.033 –0.050 0.017 –0.066 –0.150 –0.084 –0.017 0.050 0.116
y(i) 7.43 7.47 8.68 9.24 9.26 10.28 10.37 10.47 10.93 12.17 13.03 14.27
i 9.63 9.97 10.03 10.28 10.37 10.47 10.93 11.39 11.47 12.17 12.85 13.03 14.27
ˆ B (y(i) ) G 0.083 0.167 0.250 0.333 0.417 0.500 0.583 0.667 0.750 0.833 0.917 1.000
ˆ Fˆ (i) − G(i) 0.183 0.250 0.316 0.233 0.150 0.066 –0.017 0.050 0.117 0.037 0.100 –0.083 0.000
∗
F¨ ur die Werte i ∈ s (s = x ∪ y) erhalten wir die Differenzen FˆA (i) − ˆ ˆ GB (i) wie in der obigen Tabelle und damit K = maxi∈s |Fˆ (i) − G(i)| = 0.316 < kn1 ,n2 ;1−0.05 = 0.5, so dass (zum Niveau α = 0.05, zweiseitig) H0 nicht abgelehnt wird. Hierbei ist zu beachten, dass derWert Kolmogorov-Smirnov Z aus dem Wert K durch Multiplikation mit n1 n2 /(n1 + n2 ) hervorgeht: 0.8176 = 15 · 12/(15 + 12) · 0.316.
174
8. Nichtparametrische Tests
Frequencies Stichprobe X Y Total
XY
N 15 12 27
Test Statisticsa
Most Extreme Differences
Absolute Positive Negative
Kolmogorov-Smirnov Z Asymp. Sig. (2-tailed)
XY ,317 ,317 -,150 ,818 ,516
a. Grouping Variable: Stichprobe Abb. 8.4. SPSS-Output zu Beispiel 8.3.1
8.3.2 Mann-Whitney-U-Test Der Kolmogorov-Smirnov-Test pr¨ uft allgemeine Hypothesen der Art Die ” beiden Verteilungen sind gleich“. Wir gehen nun davon aus, dass sich die Verteilungen zweier stetiger Variablen nur bez¨ uglich der Lage unterscheiden. Der wohl bekannteste Test f¨ ur Lagealternativen ist der U -Test von Mann und Whitney. Der U -Test von Mann und Whitney ist ein Rangtest. Er ist ein nichtparametrisches Gegenst¨ uck zum t-Test und wird bei Fehlen der Voraussetzungen des t-Tests (bzw. bei begr¨ undeten Zweifeln) angewandt. Die zu pr¨ ufende Hypothese l¨ asst sich auch formulieren als H0 : Die Wahrscheinlichkeit P , dass eine Beobachtung der ersten Grundgesamtheit X gr¨oßer ist als ein beliebiger Wert der zweiten Grundgesamtheit Y , ist gleich 0.5. Die Alternative lautet H1 : P = 0.5. Man f¨ ugt die Stichproben (x1 , . . . , xn1 ) und (y1 , . . . , yn2 ) zu einer gemeinsamen aufsteigend geordneten Stichprobe S zusammen. Die Summe der Rangzahlen der X-Stichprobenelemente sei R1+ , die Summe der Rangzahlen der Y -Stichprobenelemente sei R2+ . Als Pr¨ ufgr¨oße w¨ahlt man U , den kleineren der beiden Werte U1 , U2 : n1 (n1 + 1) − R1+ , 2 n2 (n2 + 1) − R2+ . U 2 = n1 · n2 + 2
U 1 = n1 · n2 +
(8.4) (8.5)
8.3 Homogenit¨ atstests f¨ ur zwei unabh¨ angige Stichproben
175
Entscheidungsregel: H0 wird abgelehnt, wenn U < un1 ,n2 ;α gilt. Da U1 +U2 = n1 · n2 gilt, gen¨ ugt es zur praktischen Berechnung des Tests, nur Ri+ und damit U = min{Ui , n1 n2 − Ui } zu berechnen (i = 1 oder 2 wird dabei so gew¨ahlt, dass Ri+ f¨ ur die kleinere der beiden Stichproben ermittelt werden muß). F¨ ur n1 , n2 ≥ 8 kann die N¨ aherung Z= *
U−
n1 ·n2 2
approx.
∼
n1 · n2 · (n1 + n2 + 1) 12
N (0, 1)
(8.6)
benutzt werden. F¨ ur |z| > z1−α/2 wird H0 abgelehnt. Beispiel 8.3.2. Wir pr¨ ufen die Gleichheit der Mittelwerte der beiden Meßreihen aus Tabelle 8.2 mit dem U -Test. Es sei X: Biegefestigkeit von Kunststoff ” A“ und Y : Biegefestigkeit von Kunststoff B“. Wir ordnen die (16+15) Werte ” beider Meßreihen der Gr¨ oße nach und bestimmen die Rangzahlen und daraus die Rangsumme R2+ = 265 (vgl. Tabelle 8.3). Tabelle 8.2. Biegefestigkeit zweier Kunststoffe Kunststoff A 98.47 106.20 100.74 98.72 91.42 108.17 98.36 92.36
B 80.00 114.43 104.99 101.11 102.94 103.95 99.00 106.05
106.75 111.75 96.67 98.70 118.61 111.03 90.92 104.62
94.63 110.91 104.62 108.77 98.97 98.78 102.65
Dann wird 15(15 + 1) − 265 = 95 , 2 U1 = (16 · 15) − U2 = 145 . U2 = 16 · 15 +
Da n1 = 16 und n2 = 15 (also beide Stichprobenumf¨ange ≥ 8), wird die Pr¨ ufgr¨oße (8.6) berechnet, und zwar mit U = U2 als kleinerem der beiden U -Werte: 25 95 − 120 = −√ = −0.99 , z= # 240(16+15+1) 640 12
also ist |z| = 0.99 < 1.96 = z1−0.05/2 = z0.975 .
176
8. Nichtparametrische Tests Tabelle 8.3. Berechnung der Rangsumme R2+ = 265
Rangzahl Meßwert Variable Rangsumme Y
1 80.00 X
2 90.92 Y 2
3 91.42 X
4 92.36 X
5 94.63 Y +5
6 96.67 Y +6
7 98.36 X
Rangzahl Meßwert Variable Rangsumme Y
10 98.72 X
11 98.78 Y +11
12 98.97 Y +12
13 99.00 X
14 100.47 X
Rangzahl Meßwert Variable Rangsumme Y
18 103.95 X
19 104.62 Y +19
20 104.75 Y +20
21 104.99 X
22 106.05 X
23 106.20 X
24 106.75 Y +24
Rangzahl Meßwert Variable Rangsumme Y
25 108.17 X
26 108.77 Y +26
27 110.91 Y +27
28 111.03 Y +28
29 111.75 Y +29
30 114.43 X
31 118.61 Y +31
15 101.11 X
8 98.47 X
16 102.65 Y +16
9 98.70 Y +9
17 102.94 X
Die Nullhypothese wird damit nicht abgelehnt (Irrtumswahrscheinlichkeit 0.05, approximative Vorgehensweise). Der exakte kritische Wert f¨ ur U betr¨agt u16,15,0.05/2 = 70 (Tabellen in Sachs, 1978), also haben wir die gleiche Entscheidung (H0 nicht ablehnen).
Ranks
WERT
XY 1,00 2,00 Total
Mean Rank 14,44 17,67
N 16 15 31
Sum of Ranks 231,00 265,00
Test Statisticsb
Mann-Whitney U Wilcoxon W Z Asymp. Sig. (2-tailed) Exact Sig. [2*(1-tailed Sig.)]
WERT 95,000 231,000 -,988 ,323 ,338
a
a. Not corrected for ties. b. Grouping Variable: XY
Abb. 8.5. SPSS-Output zu Beispiel 8.3.2
8.3 Homogenit¨ atstests f¨ ur zwei unabh¨ angige Stichproben
177
Korrektur der U-Statistik bei Bindungen Treten in der zusammengefaßten und der Gr¨ oße nach geordneten Stichprobe Meßwerte mehrfach auf, so spricht man von Bindungen. In diesem Fall ist jedem dieser Meßwerte der Mittelwert der Rangpl¨atze zuzuordnen. Die korrigierte Formel f¨ ur den U -Test lautet dann (n1 + n2 = n gesetzt) n1 · n2 2 Z= / 0 R 3 0 n1 · n2 n − n Ti3 − Ti 1[ ][ − ] n(n − 1) 12 12 i=1 U−
approx.
∼
N (0, 1) .
(8.7)
Dabei bezeichnet R die Zufallsvariable Anzahl der Bindungen“ mit der Rea” lisierung r und Ti die Zufallsvariable Anzahl der gleichen Werte bei Bindung ” i“ mit den Realisierungen ti . Beispiel 8.3.3. Wir vergleichen die Umsatzsteigerungen beim Einsatz von Werbemaßnahmen (Daten in Tabelle 9.1) und zwar bez¨ uglich Maßnahme A (Werbung II) und Maßnahme B (Werbung III). Beide Stichproben werden zun¨achst in einer aufsteigenden Rangfolge zusammengefaßt (Tabelle 8.4). Tabelle 8.4. Berechnung der Rangordnung (vgl. Tabelle 10.1) Meßwert Werbung Rangzahl
19.5 B 1
31.5 B 2.5
31.5 B 2.5
33.5 A 4
37.0 A 5
40.0 B 6
43.5 A 7
50.5 B 8
53.0 B 9
Meßwert Werbung Rangzahl
56.0 A 11
57.0 A 12
59.5 A 13
60.0 A 14
62.5 B 15.5
62.5 B 15.5
65.5 A 17
67.0 A 18
75.0 A 19
Wir haben r = 2 Gruppen gleicher Werte 1. Gruppe (B) : zweimal den Wert 31.5; 2. Gruppe (B) : zweimal den Wert 62.5; Das Korrekturglied in (8.7) wird also 2 t3 − ti i
i=1
12
=
23 − 2 23 − 2 + = 1. 12 12
Die Rangsumme R2+ (Werbung B) ist R2+ = 1 + 2.5 + · · · + 15.5 = 60 , also erhalten wir nach (8.5)
t1 = 2 , t2 = 2 .
54.0 A 10
178
8. Nichtparametrische Tests
U2 = 11 · 8 +
8(8 + 1) − 60 = 64 2
und nach (8.4) U1 = 11 · 8 − U2 = 24 . Mit n = n1 + n2 = 11 + 8 = 19 und f¨ ur U = U1 wird die Pr¨ ufgr¨oße (8.7) 24 − 44
z=*
88 193 − 19 [ ][ − 1] 19 · 18 12
= −1.65 ,
also ist |z| = 1.65 < 1.96 = z1−0.05/2 . Die Nullhypothese H0 : Beide Werbemaßnahmen f¨ uhren im Mittel zur ” selben Umsatzsteigerung“ wird damit nicht abgelehnt. Beide Stichproben k¨onnen als homogen angesehen und zu einer gemeinsamen Stichprobe zusammengefaßt werden.
Ranks
WERT
Werbung Werbung A Werbung B Total
Mean Rank 11,82 7,50
N 11 8 19
Sum of Ranks 130,00 60,00
Test Statisticsb
Mann-Whitney U Wilcoxon W Z Asymp. Sig. (2-tailed) Exact Sig. [2*(1-tailed Sig.)]
WERT 24,000 60,000 -1,653 ,098 ,109
a
a. Not corrected for ties. b. Grouping Variable: Werbung
Abb. 8.6. SPSS-Output zu Beispiel 8.3.3
Wir wollen feststellen, zu welchem Ergebnis wir bei gerechtfertigter Annahme von Normalverteilung mit dem t-Test gekommen w¨aren: Werbung A : Werbung B :
x ¯ = 55.27 s2x = 12.742 y¯ = 43.88
s2y
= 15.75
2
n1 = 11 n2 = 8
2 2 Die Pr¨ ufgr¨oße (7.7) f¨ ur H0 : σX ≤ σY2 und H1 : σX > σY2 mit α = 0.05 ergibt
8.4 Homogenit¨ atstests im matched-pair Design
179
15.752 = 1.53 < 3.15 = f7,10;0.95 . 12.742 Also wird die Hypothese gleicher Varianzen nicht abgelehnt. Zum Pr¨ ufen der Hypothese H0 : μx = μy wird also die Pr¨ ufgr¨ oße (7.13) verwendet, wobei die gemeinsame Varianz beider Stichproben nach (7.12) als s2 = (10 · 12.742 + 7 · 15.752)/17 = 14.062 berechnet wird. Dann nimmt die Pr¨ ufgr¨oße (7.13) folgenden Wert an: * 55.27 − 43.88 11 · 8 t= = 1.74 < 2.11 = t17;0.95 . 14.06 11 + 8 t=
uhren im Mittel zur selben Die Nullhypothese H0 : Beide Werbemaßnahmen f¨ ” Umsatzsteigerung“ wird auch hier nicht abgelehnt. Group Statistics
Werbung Werbung A Werbung B
WERT
N 11 8
Std. Deviation 12,7404 15,7497
Mean 55,2727 43,8750
Std. Error Mean 3,8414 5,5684
Independent Samples Test Levene’s Test for Equality of Variances
F Equal variances assumed Equal variances not assumed
Sig.
1,095
,310
t-test for Equality of Means
t
df
Sig. (2-tailed)
Mean Difference
Std. Error Difference
1,745
17
,099
11,3977
6,5321
1,685
13,161
,116
11,3977
6,7648
Abb. 8.7. SPSS-Output zu Beispiel 8.3.3
8.4 Homogenit¨ atstests im matched-pair Design In Abschnitt 8.3 wurden Tests zum Vergleich zweier unabh¨angiger Zufallsvariablen behandelt. Im Folgenden stellen wir zwei Tests f¨ ur Lagealternativen bei abh¨angigen Zufallsvariablen vor. 8.4.1 Vorzeichen-Test F¨ ur zwei abh¨angige Zufallsvariablen mit mindestens ordinalem Niveau kann zur Pr¨ ufung von H0 : P (X < Y ) = P (X > Y ) gegen H1 : P (X < Y ) = P (X > Y ) der Vorzeichen-Test (auch Sign-Test) verwendet werden.
180
8. Nichtparametrische Tests
Wir bilden dazu die Zufallsvariablen 1 falls Xi < Yi Di = 0 sonst f¨ ur i = 1, . . . , n. Die Teststatistik T ergibt sich als T (X, Y) =
n
Di .
i=1
Unter H0 ist T binomialverteilt B(n; p) mit dem Parameter p = P (X < Y ) = 1/2. Entscheidungsregel: H0 wird abgelehnt, falls t < bn;1−α/2 , oder falls t > n − bn;1−α/2 , wobei bn;1−α/2 das (1-α/2)-Quantil einer B(n; 1/2)-verteilten Zufallsvariablen ist. F¨ ur n ≥ 20 ist die Teststatistik T approximativ N ( n2 , n4 )-verteilt. H0 wird dann abgelehnt, falls gilt |z| =
|2t − n| √ > z1−α/2 . n
Beispiel 8.4.1. Die positive Wirkung von gezieltem Z¨ahneputzen auf die Mundhygiene soll in einem klinischen Versuch u uft werden. Der Re¨ berpr¨ sponse ist der ordinalskalierte OHI-Index mit den Werten 0 bis 3. An n = 20 Patienten wird der OHI-Index vor bzw. nach dem Putzkurs gemessen (Variable X bzw. Y ). xi 3 2 3 2 1 1 2 3 2 0
yi 2 1 2 1 0 0 0 2 1 0
di 0 0 0 0 0 0 0 0 0 0
xi 1 2 3 0 0 2 1 0 3 3
yi 0 1 1 0 1 1 0 1 2 2
di 0 0 0 0 1 0 0 1 0 0
F¨ ur die exakte Bestimmung des kritischen Bereichs ermitteln wir die folgenden Wahrscheinlichkeiten:
8.4 Homogenit¨ atstests im matched-pair Design
i 0 1 2 3 4 5 6 7 8 9 10
P (T ≤ i) 0.00000 0.00002 0.00020 0.00129 0.00591 0.02069 0.05766 0.13159 0.25172 0.41190 0.58810
i 11 12 13 14 15 16 17 18 19 20
181
P (T ≤ i) 0.74828 0.86841 0.94234 0.97931 0.99409 0.99871 0.99980 0.99998 1.00000 1.00000
Damit erhalten wir den kritischen Bereich als {0, . . . , 5} ∪ {14, . . . , 20}, so 20 dass wir mit t = i=1 di = 2 die Nullhypothese H0 ablehnen. √ = Zur approximativen Bestimmung des Tests ermitteln wir |z| = |2·2−20| 20 3.58 > 1.96, so dass H0 : P (X < Y ) = P (X > Y ) ebenfalls zugunsten von H1 abgelehnt wird.
Frequencies N Negative Differencesa Positive Differencesb Ties c Total
Y-X
16 2 2 20
a. Y < X b. Y > X c. X = Y Test Statisticsb
Exact Sig. (2-tailed)
Y-X ,001a
a. Binomial distribution used. b. Sign Test Abb. 8.8. SPSS-Output zu Beispiel 8.4.1
182
8. Nichtparametrische Tests
Hier wird bei der Bestimmung von di auch der Fall xi = yi unterschieden, der bei unserer Vorgehensweise zu di = 0 f¨ uhrt. F¨alle mit xi = yi (Ties) werden von SPSS nicht ber¨ ucksichtigt. 8.4.2 Wilcoxon-Test Der Wilcoxon-Test f¨ ur Paardifferenzen ist das nichtparametrische Pendant zum t-Test f¨ ur Paardifferenzen. Dieser Test kann f¨ ur stetigen (nicht notwendig normalverteilten) Response angewandt werden. Der Test gestattet die Pr¨ ufung, ob die Differenzen Yi − Xi paarweise angeordneter Beobachtungen (Xi , Yi ) symmetrisch um den Median M = 0 verteilt sind. Die damit zu pr¨ ufende Hypothese lautet im zweiseitigen Testproblem H0 : aquivalent, H0 : P (X < Y ) = 0.5 gegen H1 : M = 0 gegen H1 : M = 0 oder, ¨ P (X < Y ) = 0.5. Die Hypothesen im einseitigen Testproblem lauten H0 : M ≤ 0 gegen H1 : M > 0 bzw. H0 : M ≥ 0 gegen H1 : M < 0. Unter der Annahme einer um Null symmetrischen Verteilung von X − Y gilt f¨ ur einen beliebigen Wert der Differenz D = Y − X also f (−d) = f (d), wobei f (·) die Dichtefunktion der Differenzvariablen ist. Damit kann man ange der absoluten Differenzen |D| bez¨ uglich unter H0 erwarten, dass die R¨ der negativen und positiven Differenzen gleichverteilt sind. Man bringt also die absoluten Differenzen in aufsteigende Rangordnung und notiert f¨ ur jede Differenz Di = Yi − Xi das Vorzeichen der Differenz. Dann bildet man die Summe der R¨ange der absoluten Differenzen u ¨ ber die Menge mit positivem Vorzeichen (oder analog mit negativem Vorzeichen) und erh¨alt die Teststatistik (vgl. B¨ uning und Trenkler, 1994) W+ =
n i=1
mit
Zi =
Zi R(|Di |)
(8.8)
1 : di > 0 . 0 : di < 0
R(|Di |) : Rang von |Di |, Di = Yi − Xi . Zur Kontrolle kann man auch die R¨ ange der negativen Differenzen aufsummieren (W − ). Dann muß W + + W − = n(n + 1)/2 sein. Testprozeduren Bei der zweiseitigen Fragestellung wird H0 : M = 0 zugunsten von H1 : M = 0 abgelehnt, wenn W + < wα/2 oder W + > w1−α/2 ist. F¨ ur die einseitigen Fragestellungen wird H0 : M ≤ 0 zugunsten von H1 : M > 0 abgelehnt, wenn W + > w1−α ist, bzw. H0 : M ≥ 0 zugunsten von H1 : M < 0 abgelehnt, wenn W + < wα ist. Die exakten kritischen Werte sind vertafelt (z.B. B¨ uning und Trenkler, 1994, Tabelle H).
8.4 Homogenit¨ atstests im matched-pair Design
183
Auftreten von Bindungen Treten Bindungen, d.h. Paare (xi , yi ), mit di = 0 auf (Nulldifferenzen), so werden die zugeh¨ origen x- und y-Werte aus der Stichprobe entfernt. Bindungen der Form di = dj (i = j, Verbunddifferenzen) werden durch Bilden von Durchschnittsr¨ angen ber¨ ucksichtigt. F¨ ur große Stichproben (n > 20) kann man die N¨aherung W + − E(W + ) H0 ∼ N (0, 1) , Z= Var(W + )
verwenden. Mit E(W + ) = f¨ ur die Teststatistik
n(n+1) 4
und Var(W + ) =
n(n+1)(2n+1) 24
erhalten wir
n(n + 1) W+ − 4 Z= * . (8.9) n(n + 1)(2n + 1) 24 Die Ablehnungsbereiche f¨ ur die Tests lauten dann |Z| > z1−α/2 (zweiseitige Fragestellung) und Z > z1−α bzw. Z < zα (einseitige Fragestellungen). Beispiel 8.4.2. Nach Durchf¨ uhrung der ISO-9001-Zertifizierung will ein Konzern die Wirkung von gezielter Weiterbildung auf dem Gebiet Statistische Qualit¨atskontrolle und Qualit¨ atssicherung u ufen. Dazu werden n = 22 ¨ berpr¨ Fertigungsbereiche auf ihren Ausschuss, gemessen durch Kosten f¨ ur Nacharbeit oder Verluste untersucht. Die Zufallsvariablen sind X und Y : Aus” schusskosten vor bzw. nach der Weiterbildung“. xi yi di Zi R(|di |) xi yi di Zi R(|di |) 17 10 –7 0 13 40 35 –5 0 9.5 25 22 –3 0 7 30 35 5 1 9.5 10 12 2 1 4.5 50 55 5 1 9.5 12 14 2 1 4.5 70 50 –20 0 21 34 20 –14 0 17.5 60 46 –14 0 17.5 20 10 –10 0 15 45 34 –11 0 16 14 12 –2 0 4.5 47 40 –7 0 13 10 11 1 1 1.5 27 20 –7 0 13 5 4 –1 0 1.5 13 8 –5 0 9.5 8 6 –2 0 4.5 83 53 –30 0 22 20 1 –19 0 20 48 30 –18 0 19
Mit diesen Werten ist W + = 29.5. Mit der N¨ aherung (8.9) erhalten wir den Wert der Teststatistik 29.5 − z= #
(22(22+1)) 4
22(22+1)(44+1) 24
=
29.5 − 126.5 # 22770 24
−97 = −3.15 < −1.64 = z0.05 . 30.80 Damit wird H0 : M ≥ 0 gegen H1 : M < 0 abgelehnt. Die gezielte Weiterbildung f¨ uhrt zu einem statistisch signifikanten R¨ uckgang der Kosten. =
184
8. Nichtparametrische Tests
Ranks
N Y-X
Negative Ranks Positive Ranks Ties Total
17a 5b 0c 22
Mean Rank 13,15 5,90
Sum of Ranks 223,50 29,50
a. Y < X b. Y > X c. X = Y Test Statisticsb
Z Asymp. Sig. (2-tailed)
Y-X -3,155a ,002
a. Based on positive ranks. b. Wilcoxon Signed Ranks Test
Abb. 8.9. SPSS-Output zu Beispiel 8.4.2
8.5 Matched-Pair Design: Pru ¨ fung der Rangkorrelation Liegt eine Stichprobe (xi , yi ) i = 1, . . . , n aus zwei (mindestens ordinalskalierten) Zufallsvariablen eines matched-pair Designs vor, so k¨onnen wir f¨ ur beide konkreten Stichproben jeweils ihre Rangreihen und damit rs , den Rangkorrelationskoeffizienten von Spearman, als Maß f¨ ur die Korrelation der beiden Zufallsvariablen X und Y bestimmen. Man bestimmt dazu separat die R¨ange innerhalb jeder Stichprobe. ri bezeichnet den Rang von xi und si den Rang von yi . Treten keine gleichen Originalwerte und damit keine gleichen R¨ange (Bindungen) auf, so wird der gew¨ ohnliche Korrelationskoeffizient nach Pearson, angewandt auf die R¨ ange, bestimmt, der in diesem Fall gleich dem Rangkorrelationskoeffizienten von Spearman ist: n (ri − r¯)(si − s¯) . rs = n i=1 n ¯)2 i=1 (si − s¯)2 i=1 (ri − r Diese Darstellung l¨ asst sich vereinfachen zu n 6 i=1 (ri − si )2 rs = 1 − . n(n2 − 1)
Es gilt stets −1 ≤ rs ≤ 1.
8.5 Matched-Pair Design: Pr¨ ufung der Rangkorrelation
185
Wenn beide Stichproben die gleiche Rangordnung besitzen, sind die Differenzen di = ri − si = 0, und es wird rs = 1. Sind die Rangordnungen v¨ollig entgegengesetzt, so wird rs = −1. Die Pr¨ ufung des Rangkorrelationskoeffizienten gestattet die Einsch¨ atzung, ob ein positiver oder ein negativer Zusammenhang vorliegt. ¨ Entscheidungsregel: Uberschreitet die Realisierung von |rs | den kritischen Wert rs;n,1−α/2 , so wird die Hypothese H0 : Die beiden Variablen sind un” korreliert“ abgelehnt. F¨ ur die einseitigen Fragestellungen H0 : rs ≤ 0 bzw. H0 : rs ≥ 0 wird H0 abgelehnt, falls rs > rs;n,α bzw. falls rs < rs;n,1−α . Eine Tabelle mit kritischen Werten f¨ ur |rs | ist z.B. in B¨ uning und Trenkler (1994, Tabelle S) angegeben. Hierbei ist allerdings zu beachten, dass dort kritische Werte f¨ ur d = ni=1 (ri − si )2 betrachtet werden. d – und damit auch die kritischen Werte – steht jedoch in direktem Zusammenhang mit rs : d = n(n2 − 1)(1 − rs )/6. F¨ ur n ≥ 30 liefert eine N¨ aherungsl¨ osung auf der Basis der N (0, 1)Verteilung zufriedenstellende Resultate bei der Pr¨ ufung der Signifikanz von ufgr¨oße lautet in diesem Fall rs . Die Pr¨ √ z = rs n − 1 . Die Nullhypothese wird abgelehnt, wenn im zweiseitigen Fall |z| > z1−α/2 ist bzw. wenn bei einseitiger Fragestellung z > z1−α oder z < zα ist. Falls Bindungen (also mehrfach gleiche R¨ ange) auftreten, muß man einen korrigierten Rangkorrelationskoeffizienten rkorr berechnen: n(n2 − 1) − 21 lj (lj2 − 1) − 21 mk (m2k − 1) − 6 (ri − si )2 j i k * rkorr = . * n(n2 − 1) − lj (lj2 − 1) n(n2 − 1) − mk (m2k − 1) j
k
(8.10)
Dabei haben wir folgende Bezeichnungen benutzt: F¨ ur die X-Rangreihe j = 1, . . . , J Gruppen mit jeweils gleichen Meßwerten in der j-ten Gruppe, lj = Anzahl der gleichen Meßwerte in der j-ten Gruppe, f¨ ur die Y -Rangreihe k = 1, . . . , K Gruppen mit jeweils gleichen Meßwerten in der k-ten Gruppe, mk = Anzahl der gleichen Meßwerte in der k-ten Gruppe und n = Gesamtzahl der Einheiten. Beispiel 8.5.1. Bei einem Unternehmen ergab sich in den Jahren 1990–1994 folgende Entwicklung des Umsatzes und des Gewinns (in Mio. DM):
186
8. Nichtparametrische Tests
Jahr 1990 1991 1992 1993 1994
Umsatz (X) 60 70 70 80 90
Gewinn (Y ) 2 3 5 3 5
Um rs zu ermitteln, m¨ ussen zun¨ achst die R¨ange vergeben werden. Dabei gehen wir so vor, dass dem Jahr mit dem h¨ ochsten Umsatz bzw. Gewinn der Rang 1, dem Jahr mit dem zweith¨ ochsten Umsatz bzw. Gewinn der Rang 2 usw. zugewiesen wird. Da hier sowohl bei der Zufallsvariablen X (Wert 70) als auch bei Y (Wert 3 und 5) Bindungen auftreten, m¨ ussen gemittelte R¨ange vergeben werden. So erh¨alt man folgende Tabelle: Jahr 1990 1991 1992 1993 1994
Ri (x) 5 3+4 2 = 3.5 3+4 2 = 3.5 2 1
Ri (y) 5 3.5 1.5 3.5 1+2 2 = 1.5
di 0 0 2 -1.5 -0.5
d2i 0 0 4 2.25 0.25 2 i di = 6.50
In der X-Rangreihe ist eine Bindung bei 3.5, also ist J = 1 und l1 = 2. In der Y -Rangreihe liegt eine Bindung bei 1.5 und eine Bindung bei 3.5, also ist K = 2, m1 = 2 und m2 = 2. Setzt man die Werte in (8.10) ein, so erh¨ alt man 5(25 − 1) − 12 [2(4 − 1)] − 21 [2(4 − 1) + 2(4 − 1)] − 6 · 6.50 rkorr = 5(25 − 1) − [2(4 − 1)] 5(25 − 1) − [2(4 − 1) + 2(4 − 1)] 120 − 3 − 6 − 39 √ √ = = 0.6489 , 114 108 diese positive Korrelation ist jedoch nicht signifikant (p-value = 0.236).
Correlations
Spearman’s rho
Correlation Coefficient Sig. (2-tailed) N
X Y X Y X Y
X 1,000 ,649 , ,236 5 5
Abb. 8.10. SPSS-Output zu Beispiel 8.5.1
Y ,649 1,000 ,236 , 5 5
8.6 Aufgaben und Kontrollfragen
187
8.6 Aufgaben und Kontrollfragen Aufgabe 8.1: Von einem W¨ urfel wird vermutet, dass er gef¨alscht ist. Um diese Vermutung zu best¨ atigen, wird der W¨ urfel 300mal geworfen. Dabei ergeben sich folgende H¨aufigkeiten f¨ ur die einzelnen Augenzahlen: Augenzahl H¨ aufigkeit
1 39
2 42
3 41
4 50
5 58
6 70
Kann die Annahme, dass nicht alle Augenzahlen dieselbe Wahrscheinlichkeit besitzen, auf Grund dieser Beobachtung best¨ atigt werden (Signifikanzniveau α = 0.05)? Aufgabe 8.2: Wegen der bevorstehenden Wahlen werden 5000 W¨ahler zuf¨allig ausgew¨ahlt und nach ihrer Meinung befragt. Von diesen W¨ahlern bevorzugen 1984 die Partei A, 911 die Partei B, 1403 die Partei C und der Rest die verbleibenden, kleineren Parteigruppierungen. Aus den Ergebnissen der letzten Wahlen ist bekannt, dass Partei A 42%, B 15%, C 27% und sonstige Parteien 16% der Stimmen erhielten. Pr¨ ufen Sie, ob sich die Stimmenverteilung seit den letzten Wahlen ver¨andert hat (α = 0.01). Aufgabe 8.3: Nachdem 150 Kaffeepakete, die von einer bestimmten Maschine abgef¨ ullt werden und 500 g enthalten sollen, zuf¨allig ausgew¨ahlt und nachgewogen wurden, ergaben sich betragsm¨ aßig folgende Abweichungen von dem geforderten Soll-Gewicht: Abweichung (von – bis unter) H¨aufigkeit
0–5 43
5–10 36
10–15 41
15–20 30
Sind diese Ergebnisse bei einem Signifikanzniveau von α = 0.05 mit der Normalverteilungsannahme vertr¨ aglich? Aufgabe 8.4: Als Ergebnis zweier unabh¨ angiger Stichproben erh¨alt man die beiden folgenden Meßreihen: xi yi
1.2 3.2
2.1 2.3
1.7 2.0
0.6 3.2
2.8 3.5
3.1 3.8
1.7 4.6
3.3 3.0
1.6 7.2
2.9 3.4
¨ Uberpr¨ ufen Sie zum Signifikanzniveau α = 0.05 die Hypothese, dass die beiden Stichproben aus derselben Grundgesamtheit stammen mit Hilfe des Homogenit¨atstests von Kolmogorov-Smirnov, wobei hier die beiden Stichproben folgendermaßen eingeteilt sind: Klasse Klassengrenzen hi (x) hi (y)
1 < 2.1 5 1
2 [2.1; 2.5) 1 1
3 [2.5; 2.9) 1 0
Hinweis: Der kritische Wert lautet k10,10;0.95 = 0.6.
4 [2.9; 3.3) 2 3
5 ≥ 3.3 1 5
188
8. Nichtparametrische Tests
Aufgabe 8.5: Im Rahmen einer klinischen Studie wird die K¨orpergr¨oße von M¨adchen im Alter von 16 Jahren bestimmt. Dabei ergaben sich die folgenden Gr¨oßen (in cm): Gr¨ oße H¨ aufigkeit Gr¨ oße H¨ aufigkeit
159 1 170 3
160 1 171 4
161 1 172 1
162 2 173 4
163 3 174 3
164 5 175 2
165 3 176 2
166 2 177 1
167 3 178 1
168 3 179 1
169 4
¨ a) Uberpr¨ ufen Sie die Hypothese, dass die K¨ orpergr¨oße 16–j¨ahriger M¨adchen normalverteilt ist mit μ = 169 und σ 2 = 16. Verwenden Sie dazu sowohl den Kolmogorov-Smirnov-Test als auch den Chi-Quadrat-Test. b) Was w¨ urde sich gegen¨ uber (a) ¨ andern, wenn die Hypothese der Normalverteilung beibehalten wird, deren Parameter aber nicht spezifiziert sind? Aufgabe 8.6: Im Vergleich zweier unabh¨ angiger Stichproben X: Blattl¨ange ” von Erdbeeren mit D¨ ungung A“ und Y : D¨ ungung B“ seien Zweifel an der ” Normalverteilung angebracht. Pr¨ ufen sie H0 : F (x) = G(y) mit dem MannWhitney-U -Test. Beachten Sie, dass Bindungen vorliegen. A 37 49 51 62 74 44 53 17
B 45 51 62 73 87 45 33 89
Aufgabe 8.7: F¨ uhren Sie den Wilcoxon-Test (einseitig, zum Niveau α = 0.05) f¨ ur das matched-pair Design in folgender Tabelle durch, die Punktwerte von Studenten enth¨alt, die einmal vor bzw. direkt nach der Vorlesung einen starken Kaffee tranken und deren Leistungen jeweils nach der Vorlesung gepr¨ uft wurden. Hat die Behandlung B (Kaffee nachher) einen signifikanten Einfluss auf die Leistung? Student 1 2 3 4 5 6 7
vorher 17 18 25 12 19 34 29
nachher 25 45 37 10 21 27 29
8.6 Aufgaben und Kontrollfragen
189
Aufgabe 8.8: Ein Hersteller erzeugt Schrauben, deren Durchmesser 3 mm betragen soll. Eine Abweichung um 0.0196 mm nach oben bzw. unten ist jedoch noch tolerabel. Aus fr¨ uheren Produktionsserien ist die Streuung des Schraubendurchmessers bekannt, n¨ amlich σ = 0.01. a) Wir nehmen nun an, der Schraubendurchmesser sei N (3, 0.012 )-verteilt. Berechnen Sie mit dieser Annahme die Wahrscheinlichkeit f¨ ur die folgenden Ereignisse: A: Der Durchmesser einer produzierten Schraube ist zu klein.“ ” B: Der Durchmesser einer produzierten Schraube ist tolerabel.“ ” C: Der Durchmesser einer produzierten Schraube ist zu groß.“ ” b) Eine Stichprobe von 200 Schrauben aus der laufenden Produktion enth¨alt 5 zu schmale und 10 zu breite Schrauben, der Rest gen¨ ugt den Anforderungen. Testen Sie anhand dieser Stichprobe mit einem geeigneten Test die Hypothese: Der Schraubendurchmesser ist N (3, 0.012)-verteilt“ bei ” einem Signifikanzniveau von 5%.
Teil III
Modellierung von Ursache–Wirkungsbeziehungen
9. Lineare Regression
9.1 Bivariate Ursache-Wirkungsbeziehungen In diesem Kapitel behandeln wir Methoden zur Analyse und Modellierung der Beziehung zwischen zwei und mehr Variablen. Wir setzen zun¨achst voraus, dass an einem Untersuchungsobjekt (Person, Firma, Geldinstitut usw.) zwei Variablen X und Y erhoben werden. Diese Variablen seien stetig (Intervalloder Ratioskala). Wir erhalten also die zweidimensionale Stichprobe (Xi , Yi ), i = 1, . . . , n. Beispiele. • • • •
Einkommen (X) und Kreditwunsch (Y ) eines Bankkunden, Geschwindigkeit (X) und Bremsweg (Y ) eines Pkw, Einsatz von Werbung in DM (X) und Umsatz in DM (Y ) in einer Filiale, Investition (X) und Exporterl¨ os (Y ) eines Betriebes.
Mit dem Korrelationskoeffizienten ρ haben wir bereits ein dimensionsloses Maß kennengelernt, das die St¨ arke und die Richtung des linearen Zusammenhangs zwischen X und Y mißt. Ziel der Regressionsanalyse ist es, diesen Zusammenhang durch ein einfaches Modell zu erfassen. Die obigen Beispiele verdeutlichen, dass eine Variable (X) als gegeben oder beeinflussbar angesehen werden kann, w¨ ahrend die andere Variable (Y ) als Reaktion auf X beobachtet wird. Dies ist die allgemeine Struktur einer Ursache-Wirkungsbeziehung zwischen X und Y . Das einfachste Modell f¨ ur einen Zusammenhang Y = f (X) ist die lineare Gleichung Y = β0 + β1 X . Eine lineare Funktion liefert einen einfach zu handhabenden mathematischen Ansatz und ist auch insofern gerechtfertigt, als dass sich viele Funktionstypen gut durch lineare Funktionen st¨ uckweise approximieren lassen. Bevor man eine Ursache-Wirkungsbeziehung modelliert, sollte man sich durch grafische Darstellungen eine Vorstellung vom m¨oglichen Zusammenhang der beiden Variablen machen. Dazu werden beispielsweise Streudiagramme verwendet, die wir im Buch Deskriptive Statistik“ bereits ausf¨ uhr” lich diskutiert haben. Damit l¨ asst sich leicht feststellen, ob ein lineare Beziehung zu vermuten ist, oder nicht.
194
9. Lineare Regression
9.2 Induktive univariate lineare Regression Die Aufgabe der univariaten induktiven linearen Regression ist es, den durch das univariate lineare Modell Yi = β0 + β1 Xi + ǫi
(9.1)
i = 1, . . . n, beschriebenen Zusammenhang zwischen den Variablen X und Y zu beurteilen. Dabei sind β0 und β1 unbekannte Modellparameter und ǫ eine zuf¨allige Fehlervariable, f¨ ur die E(ǫi ) = 0 ,
Var(ǫi ) = σ 2
(9.2)
gelten soll. Man unterscheidet dabei Modelle, bei denen X und Y zuf¨allig sind, und Modelle, bei denen X als gegeben angesehen wird. Wir beschr¨anken uns hier auf den Fall eines vorgegebenen nichtzuf¨ alligen X. F¨ ur fest gegebenes X folgt f¨ ur die zuf¨allige Variable Y wegen (9.2) sofort E(Yi ) = β0 + β1 Xi und Var(Y ) = σ 2 . Es werden die Eigenschaften der Sch¨ atzfunktion b f¨ ur den unbekannten Parameter β betrachtet und eine Teststatistik hergeleitet. Weitere Details werden in 9.3.6, wo die univariate Regression als Spezialfall der multiplen Regression behandelt wird, betrachtet. Als Anmerkung sei notiert, dass wir hier, in Anlehnung an Deskriptive Statistik“ die Notation a, b f¨ ur die Sch¨atz” funktionen von β0 und β1 verwenden, in 9.3.6 wird diese Notation aufgegeben. Aus Deskriptive Statistik“ sind die Kleinste-Quadrat-Sch¨atzungen f¨ ur ” das univariate Regressionsmodell (9.1) bekannt. Sie lauten a = y¯ − b¯ x und Sxy b= = Sxx
n
i=1
(xi − x ¯)(yi − y¯)) n
(9.3)
.
(9.4)
(xi − x ¯)2
i=1
In der induktiven Statistik ist es von Interesse Aussagen u ¨ber die Grundgesamtheit durch diese Sch¨ atzungen zu treffen. So k¨onnte eine Stichprobe mit Konsum und Einkommensdaten von Individuen vorliegen und daraus soll die marginale Konsumneigung, der Anstieg des Konsums bei einer Einkommenserh¨ohung, gesch¨ atzt werden. Nach der Sch¨ atzung stellt sich zum Beispiel die
9.2 Induktive univariate lineare Regression
195
Frage ob dieser Anstieg statistisch signifikant ist. Dazu muss man auf die Grundgesamtheit schliessen k¨ onnen. Betrachten wir dazu einige Eigenschaften der Sch¨atzfunktion b. Dazu nehmen wir zus¨atzlich zu den obigen Annahmen an, dass die zuf¨alligen Fehler ǫi identisch unabh¨angig normalverteilt sind, mit den Parametern E(ǫi ) = 0 und ur alle i = 1, . . . , n. Die Annahme E(ǫi ) = 0 spiegelt wieder, V ar(ǫi ) = σ 2 , f¨ dass der erwartete Einfluss des Fehlers auf das Modell Null ist. Also streut der Fehlerterm symmetrisch um die Null mit einer festen Varianz. Alle Annahmen formal zusammengefasst: xi : nicht stochastisch E(ǫi ) = 0 Var(ǫi ) = E(ǫ2i ) = σ 2 Cov(ǫi ) = E(ǫi ǫj ) = 0, i = j ǫi ∼ N (0, σ 2 ).
9.2.1 Eigenschaften der Sch¨ atzfunktion b Die Sch¨atzfunktion (9.4) ist eine erwartungstreue Sch¨atzfunktion f¨ ur den unbekannten Modellparameter β1 . Das sieht man folgendermassen. Summiert man (9.1) u ¨ber alle n und dividiert anschliessend durch n, so ergibt das ¯ + ǫ¯. y¯ = β0 + β1 x Zieht man das von (9.1) ab, so erh¨ alt man yi − y¯ = β1 (xi − x ¯) + (ǫi − ǫ¯).
Das kann in (9.4) eingesetzt werden um
(xi − x ¯)(ǫi − ¯ǫ) β1 (xi − x ¯)2 b= + (xi − x ¯)2 (xi − x ¯)2
zu erhalten. Weiteres Umstellen, Ausmultiplizieren und der Einsatz der aus Statistik I bekannten Beziehung (xi − x ¯) = 0 liefert (xi − x¯)ǫi b = β1 + . (9.5) (xi − x¯)2
Bilden wir nun den Erwartungswert und verwenden dabei die bekannte n (xi − x¯)2 . Beachten Sie dabei, dass der ErwartungsAbk¨ urzung Sxx = i=1
wert einer Summe die Summe der Erwartungswerte ist und dass Konstanten vor den Erwartungswert gezogen werden k¨ onnen.
196
9. Lineare Regression
(xi − x ¯)ǫi E(b) = E(β1 ) + E Sxx ¯) E(ǫi ) (xi − x = β1 + Sxx
Oben wurde angenommen, dass E(ǫi ) = 0 ist, damit ist b erwartungstreu: E(b) = β1 . ¨ Als Ubung k¨onnen Sie zeigen, dass a ebenfalls erwartungstreu ist. Bestimmen wir nun die Varianz der Sch¨ atzfunktion b. Dank der Erwartungstreue von b ist die Varianz Var(b) = E[(b − β1 )2 ]. Das ergibt wegen (9.5)
(xi − x¯)ǫi 2 . Var(b) = E Sxx
Ausklammern der Konstante ergibt 1 Var(b) = 2 E[( (xi − x ¯)ǫi (xj − x ¯)ǫj )]. Sxx i j
Dies kann durch die Doppelsumme weiter aufgel¨ost werden. Ziehen wir anschliessend den Erwartungswert in die Klammer, so erhalten wir 1 Var(b) = 2 ( (xi − x ¯)(xj − x ¯) E(ǫi ǫj )), Sxx i j
weil der Fehlerterm die einzige Zufallsvariable in dem Ausdruck ist. Wegen der Unabh¨ angigkeit der Fehler ist E(ǫi ǫj ) = 0 f¨ ur i = j, f¨ ur i = j ist E(ǫ2i ) = σ 2 . Damit sind nur die Terme mit i = j der Doppelsumme interessant und der Ausdruck vereinfacht sich zu 1 (xi − x ¯)2 σ 2 . Var(b) = 2 Sxx i
Durch K¨ urzen erhalten wir die Varianz von b σ2 Var(b) = . (9.6) Sxx Wie ist b verteilt? Wir kennen die Varianz und den Erwartungswert, kennen wir aber auch die Verteilung? Wie oben angenommen wurde, sind die Fehler die einzigen Zufallsvariablen in (9.1), da die xi fest vorgegeben sind. Weiter sind die Fehler als normalverteilt angenommen worden. Damit ist yi als lineare Funktion einer normalverteilten Zufallsvariablen ebenfalls normalverteilt. Nun ist b eine gewichtete Summe der Zufallsvariablen yi und somit als Summe von normalverteilten Zufallsva2 riablen ebenfalls normalverteilt, b ∼ N (β1 , Sσxx ).
9.3 Induktive multiple Regression
197
9.2.2 Hypothesentests f¨ ur den Parameter b Im vorherigen Abschnitt haben wir uns die Verteilung von b unter bestimmten Annahmen hergeleitet und sowohl den Erwartungswert als auch die Varianz spezifiziert. Damit k¨ onnen wir einen Test f¨ ur den unbekannten Parameter β1 konstruieren. Die Hypothesen lauten: H 0 : β1 = b 0 H1 : β1 = b0 Nat¨ urlich k¨onnen auch einseitige Hypothesen betrachtet werden. Als Pr¨ ufgr¨osse w¨ ahlen wir unseren gesch¨ atzten Wert b. Werte nahe bei ur die Nullhypothese; ’nahe bei b0 ’ h¨angt von der Varianz von b0 sprechen f¨ b ab. Die Varianz (9.6) h¨ angt aber von dem unbekannten Parameter σ 2 ab. Dieser wird erwartungstreu u ¨ber n
n
1 1 2 ǫˆi = (yi − yˆi )2 s = n − 2 i=1 n − 2 i=1 2
gesch¨atzt. Damit ist die gesch¨ atzte Varianz von b 2 = s . Var(b) Sxx
Wenn b normalverteilt ist mit b und
σ2 Sxx ,
dann ist die Standardisierung
√ b − b0 (b − b0 ) Sxx T = # = s Var(b)
(9.7)
t-verteilt mit n − 2 Freiheitsgeraden. H0 wird folglich abgelehnt, wenn |T | > tn−2,1− α2 . Ein wichtiger Spezialfall ist b0 = 0. Dies Hypothese testet ob X einen signifikanten Einfluss auf y hat. Kann H0 nicht abgelehnt werden, so kann nicht ausgeschlossen werden, dass β = 0 ist und somit X keinen Einfluss hat.
9.3 Induktive multiple Regression Bei der Untersuchung von Zusammenh¨ angen in der Wirtschaft, den Sozialwissenschaften, in Naturwissenschaften, Technik oder Medizin steht man
198
9. Lineare Regression
h¨aufig vor dem Problem, dass eine zuf¨ allige Variable Y (auch Response genannt) von mehr als einer Einflussgr¨ oße, d.h. von X1 , . . . , XK , abh¨angt. Wir beschr¨anken uns auf den Fall, dass X1 , . . . , XK stetig und nicht zuf¨allig sind und Y stetig ist. Das Modell lautet Yi = β1 Xi1 + . . . + βK XiK + ǫi ,
i = 1, . . . , n .
Wir setzen voraus, dass alle Variablen n-mal beobachtet wurden und stellen dies in Matrixschreibweise dar y = β1 x1 + . . . + βk xk + ǫ = Xβ + ǫ . Dabei sind y, xi und ǫ n-Vektoren, β ein K-Vektor und X eine n×K-Matrix. Zus¨atzlich wird x1 im allgemeinen als 1 = (1, . . . , 1)′ gesetzt, wodurch eine Konstante (Intercept) in das Modell eingef¨ uhrt wird. Anmerkung. Im Gegensatz zur bisherigen strengen Unterscheidung zwischen Zufallsvariable Y und Realisierung y bedeutet der Vektor y nun sowohl die vektorielle Zufallsvariable y = (y1 , . . . , yn )′ als auch die Realisierung in der Stichprobe bei der Berechnung des konkreten Wertes von Parametersch¨atzungen. Dies wird jedoch jeweils aus dem Zusammenhang klar. Die Matrix X ist keine Zufallsgr¨oße. Wir treffen folgende Annahmen u ¨ ber das klassische lineare Regressionsmodell ⎫ y = Xβ + ǫ ⎪ ⎪ ⎪ X nichtstochastisch ⎪ ⎬ Rang(X) = K (9.8) ⎪ ⎪ E(ǫ) = 0 ⎪ ⎪ ⎭ E(ǫǫ′ ) = σ 2 In .
Die letzte Annahme E(ǫǫ′ ) = σ 2 In bedeutet, dass E(ǫ2i ) = σ 2 (i = 1, . . . , n) ur alle i = j) gilt. Die Fehlervariablen ǫi haben dieselbe und Cov(ǫi , ǫj ) = 0 (f¨ Varianz σ 2 und sind unkorreliert. Die Rangbedingung an X besagt, dass keine exakten linearen Beziehungen zwischen den Einflussgr¨oßen X1 , . . . , XK (den sogenannten Regressoren) bestehen. Insbesondere existiert die Inverse (X′ X)−1 . 9.3.1 Beste lineare erwartungstreue Sch¨ atzung von β Wir sind an optimalen Sch¨ atzungen der unbekannten Parameter β und σ 2 interessiert, die nach folgendem Prinzip hergeleitet werden: Wir w¨ahlen eine ˆ von β gem¨ in y lineare Sch¨ atzfunktion β aß ˆ = Cy , β wobei die K × n-Matrix C durch Minimierung einer geeignet gew¨ahlten Risikofunktion bestimmt wird. Wir w¨ ahlen die quadratische Risikofunktion.
9.3 Induktive multiple Regression
199
ˆ von Definition 9.3.1. Die quadratische Risikofunktion einer Sch¨atzung β β im Modell (9.8) ist definiert als ˆ β) = E(y − Xβ) ˆ ′ (y − Xβ) ˆ . r(β, ˆ ′ (y − Xβ) ˆ ist eine zuf¨allige Variable, die Die quadratische Form (y − Xβ) ˆ bezeichnet wird. Durch den als Verlust bei der Sch¨ atzung von y durch Xβ Erwartungswert wird der u ¨ ber die Verteilung von y gemittelte Verlust – das ˆ β) – gebildet. Ziel ist die Minimierung von r(β, ˆ β) in der Klasse Risiko r(β, der linearen erwartungstreuen Sch¨ atzungen. Wir erhalten die L¨ osung des Optimierungsproblems als (vgl. z. B. Toutenburg, 1992a) ˆ = b = (X′ X)−1 X′ y, β (9.9) die mit der empirischen KQ-Sch¨ atzung b u ¨ bereinstimmt. Die Optimalit¨at von b wird in Gestalt des fundamentalen Gauss-Markov-Theorems formuliert. Theorem 9.3.1 (Gauss–Markov-Theorem). Im klassischen linearen Regressionsmodell (9.8) ist die Sch¨atzung b = (X′ X)−1 X′ y
(9.10)
mit der Kovarianzmatrix Vb = σ 2 (X′ X)−1 die beste (homogene) lineare erwartungstreue Sch¨atzung von β. (Man bezeichnet b auch als Gauss–Markov-(GM)-Sch¨atzung.) Diese Optimalit¨ at u agt sich auch auf die Sch¨atzung des bedingten ¨ bertr¨ Erwartungswertes von y. Sei x∗ ein K-Vektor von Werten der Variablen X1 , . . . , XK und y∗ = x∗ β + ǫ∗ das lineare Modell zum Index ∗ (z.B. ein Zeitpunkt). Dann gilt f¨ ur die optimale lineare Sch¨atzung von x′∗ β der folgende Satz: Theorem 9.3.2. Im klassischen linearen Regressionsmodell (9.8) hat die beste lineare erwartungstreue Sch¨atzung des bedingten Erwartungswertes E(y∗ |x′∗ ) = x′∗ β die Gestalt yˆ∗ = x′∗ b und die Varianz Var(ˆ y∗ ) = x′∗ Vb x∗ . 9.3.2 Sch¨ atzung von σ 2 ˆ = Xb, der gesch¨atzte Fehlervektor ist ˆǫ = Der Vorhersagewert von y ist y ˆ . Die Quadratsumme ˆǫ′ ˆǫ des gesch¨ y−y atzten Fehlervektors ˆǫ bietet sich als Grundlage f¨ ur eine Sch¨ atzung von σ 2 in nat¨ urlicher Weise an. Es gilt E(ˆǫ′ ˆǫ) = σ 2 (n − K)
200
9. Lineare Regression
(f¨ ur eine ausf¨ uhrliche Herleitung verweisen wir auf Toutenburg, 1992a), so dass wir die erwartungstreue Sch¨ atzung f¨ ur σ 2 s2 =
ˆǫ′ ˆ (y − Xb)′ (y − Xb) ǫ = (n − K) (n − K)
(9.11)
und damit als erwartungstreue Sch¨ atzung f¨ ur Vb Vˆb = s2 (X′ X)−1
(9.12)
erhalten. 9.3.3 Klassische Normalregression Die bisher abgeleiteten Ergebnisse im klassischen linearen Regressionsmodell haben G¨ ultigkeit f¨ ur alle Wahrscheinlichkeitsverteilungen der Fehlervariablen ǫ, f¨ ur die E(ǫ) = 0 und E(ǫǫ′ ) = σ 2 I gilt. Wir spezifizieren nun auch den Typ der Verteilung von ǫ, indem wir zus¨ atzlich zu den Modellannahmen (9.8) die folgende Annahme treffen. Der Vektor ǫ der zuf¨ alligen Fehler ǫi besitzt eine n-dimensionale Normalverteilung Nn (0, σ 2 I), d.h., es ist ǫ ∼ Nn (0, σ 2 I), so dass die Komponenten ǫi i = 1, . . . , n unabh¨ angig und identisch N (0, σ 2 )-verteilt sind. Damit besitzt ǫ die Dichtefunktion n & 1 (2πσ 2 )−1/2 exp − 2 ǫ2i f (ǫ; 0, σ 2 I) = 2σ i=1 ! n 1 2 2 −n/2 exp − 2 ǫ = (2πσ ) . 2σ i=1 i Das klassische lineare Regressionsmodell mit normalverteilten Fehlern – kurz das klassische Modell der Normalregression – hat dann die Gestalt ⎫ y = Xβ + ǫ, ⎬ ǫ ∼ Nn (0, σ 2 I), (9.13) ⎭ X nichtstochastisch, Rang(X) = K .
9.3.4 Maximum-Likelihood-Sch¨ atzung
Durch die Festlegung der Verteilung ist es nun m¨oglich, die ML-Sch¨atzungen der Parameter herzuleiten. Mit (9.13) erhalten wir f¨ ur y y = Xβ + ǫ ∼ Nn (Xβ, σ 2 I) , so dass die Likelihood-Funktion von y die folgende Gestalt hat: " 1 2 2 −n/2 ′ L(β, σ ) = (2πσ ) exp − 2 (y − Xβ) (y − Xβ) . 2σ
9.3 Induktive multiple Regression
201
Wegen der strengen Monotonie der logarithmischen Transformation kann man statt L(β, σ 2 ) auch die Loglikelihood l(β, σ 2 ) = ln L(β, σ 2 ) maximieren, ohne dass sich das Maximum ¨ andert: l(β, σ 2 ) = −
1 n ln(2πσ 2 ) − 2 (y − Xβ)′ (y − Xβ) . 2 2σ
Wir erhalten die ML-Sch¨ atzungen von β und σ 2 durch Nullsetzen der ersten (vektoriellen) Ableitungen 1 ∂l = 2X′ (y − Xβ) = 0 , ∂β 2σ 2 ∂l n 1 =− 2 + (y − Xβ)′ (y − Xβ) = 0 ∂σ 2 2σ 2(σ 2 )2 also ˆ = X′ y , X′ Xβ 1 ˆ ′ (y − Xβ) ˆ . σ ˆ 2 = (y − Xβ) n
(9.14) (9.15)
Gleichung (9.14) ist die Normalgleichung, aus der wir auf Grund der Voraussetzung Rang(X) = K die eindeutig bestimmte L¨osung (ML-Sch¨atzung) ˆ = b = (X′ X)−1 X′ y β
(9.16)
erhalten. Ein Vergleich von (9.15) mit der erwartungstreuen Sch¨atzung s2 (9.11) ergibt die Relation n−K 2 σ ˆ2 = s , (9.17) n so dass σ ˆ 2 nicht erwartungstreu ist. F¨ ur den asymptotischen Erwartungswert erhalten wir lim E(ˆ σ 2 ) = E(s2 ) = σ 2 . n→∞
Damit gilt Theorem 9.3.3. Im Modell (9.13) der klassischen Normalregression stimmen die ML- und die KQ-Sch¨atzung von β u ˆ2 ¨berein. Die ML-Sch¨atzung σ 2 (9.17) von σ ist verzerrt, jedoch asymptotisch erwartungstreu. In der Praxis wird man s2 aus (9.11) als erwartungstreue Sch¨atzung von σ verwenden. 2
9.3.5 Pr¨ ufen von linearen Hypothesen Wir entwickeln in diesem Abschnitt Testverfahren zum Pr¨ ufen von linearen Hypothesen im Modell (9.13) der klassischen Normalregression. Bei der statistischen Untersuchung eines Regressionsmodells (mit Intercept) y = β0 +X1 β1 +. . .+XK βK +ǫ sind folgende Hypothesen von Interesse.
202
9. Lineare Regression
(i) Globale Hypothese H0 : β1 = . . . = βK = 0
gegen
H1 : β1 = 0, . . . , βK = 0. Dies bedeutet den Vergleich der Modelle (unterH0 ) y = β0 + ǫ und (unterH1 ) y = β0 + X1 β1 + . . . + XK βK + ǫ . Die Nullhypothese besagt, dass y durch kein Modell erkl¨art wird. (ii) Pr¨ ufen des Einflusses einer Variablen Xi Die Hypothesen lauten Ho : βi = 0 gegen H1 : βi = 0 . Falls H0 nicht abgelehnt wird, kommt die Variable Xi als Einflussgr¨oße (im Rahmen des linearen Modells) nicht in Betracht. Anderenfalls wird Xi in das Modell als Einflussgr¨ oße aufgenommen. (iii) Gleichzeitiges Pr¨ ufen des Einflusses mehrerer X-Variablen Die Hypothesen lauten z. B. H0 : β1 = β2 = β3 = 0 gegen H1 : βi = 0 (i = 1, 2, 3) Dabei werden die Modelle (unterH0 ) y = β0 + β4 X4 + . . . + βK XK + ǫ und (unterH1 ) y = β0 + β1 X1 + β2 X2 + β3 X3 + β4 X4 + . . . + βK XK + ǫ verglichen. Die Modelle unter H0 sind also stets Teilmodelle des vollen Modells, das alle Variablen Xi enth¨ alt. Diese Hypothesen lassen sich in folgenden Formalismus einbinden. Die allgemeine lineare Hypothese H0 : Rβ = r ,
σ 2 > 0 beliebig
(9.18)
wird gegen die Alternative H1 : Rβ = r , getestet, wobei wir voraussetzen:
σ 2 > 0 beliebig
(9.19)
9.3 Induktive multiple Regression
⎫ R eine (K − l) × K-Matrix, ⎪ ⎪ ⎪ ⎪ r ein (K − l)-Vektor, ⎬ Rang(R) = K − l, ⎪ ⎪ l ∈ {0, 1, . . . , K − 1}, ⎪ ⎪ ⎭ R, r nichtstochastisch und bekannt.
203
(9.20)
Die Hypothese H0 besagt, dass der Parametervektor β zus¨atzlich zu den Modellannahmen (K − l) exakten linearen Restriktionen gen¨ ugt, die wegen Rang(R) = K − l linear unabh¨ angig sind. Die Rangbedingung an R sichert, dass keine Scheinrestriktionen gepr¨ uft werden. Beispiel 9.3.1. Sei K = 3, so dass wir das Modell y = x1 β1 + x2 β2 + x3 β3 + ǫ ⎛ ⎞ β1 = (x1 , x2 , x3 ) ⎝ β2 ⎠ + ǫ β3 = Xβ + ǫ betrachten. ahlt, so l¨ asst sich dies als r = Rβ formulieren mit Sei H0 : β3 = 0 gew¨ r = 0,
R = (0, 0, 1),
Rang(R) = 1 .
Sei H0 : β2 = β3 = 0, so erhalten wir 0 010 r= , R= , 0 001
Rang(R) = 2 .
Die allgemeine lineare Hypothese (9.18) l¨asst sich auf zwei wesentliche Spezialf¨alle ausrichten. Fall 1, l = 0: Die Hypothese H0 aus (9.18) betrifft dann den gesamten Parametervektor. Nach Voraussetzung (9.20) ist dann die K × K-Matrix R regul¨ar, und wir k¨ onnen H0 und H1 wie folgt darstellen: H0 : β = R−1 r = β∗ , σ 2 > 0 beliebig , H1 : β = β∗ , σ 2 > 0 beliebig .
(9.21) (9.22)
Fall 2, l > 0: Die Hypothese H0 legt K − l Komponenten von β fest. Bei der Behandlung dieses Falles beschr¨ anken wir uns auf eine spezielle Matrix R, n¨amlich R = (0, IK−l ) . β1 Wir unterteilen den Parametervektor β in β = und analog die Xβ2 Matrix in (X1 , X2 ). Dann bedeutet die Restriktion r = Rβ
204
9. Lineare Regression
r = (0, I)
β1 β2
= β2 .
Die Hypothesen H0 (9.18) und H1 (9.19) sind dann gleichwertig mit H0 : β 2 = r , H1 : β2 = r ,
β 1 und σ 2 > 0 beliebig, β 1 und σ 2 > 0 beliebig.
(9.23)
Diese Hypothesen werden bei der Modellwahl eingesetzt. Setzt man r = 0, so wird H0 : y = X1 β 1 + ǫ gegen H1 : y = X1 β 1 + X2 β2 + ǫ gepr¨ uft. Pr¨ ufen der Hypothesen Bezeichnen wir den vollen Parameterraum, d.h. den Raum, in dem entweder H0 oder H1 gilt, mit Ω und den durch H0 eingeschr¨ankten Parameterraum mit Ω ′ , so gilt Ω ′ ⊂ Ω mit Ω = {β, σ 2 : β ∈ RK , σ 2 > 0} ,
Ω ′ = {β, σ 2 : β ∈ RK und Rβ = r, σ 2 > 0} . Zur Konstruktion der Teststatistik verwenden wir den Likelihood-Quotienten maxH0 L(Θ) maxΩ ′ L(Θ) = , (9.24) λ(y) = maxΩ L(Θ) maxH0 ∪H1 L(Θ) der f¨ ur das Modell (9.13) der klassischen Normalregression folgende Gestalt ˆ an, es gilt also mit hat. L(Θ) nimmt sein Maximum f¨ ur die ML-Sch¨atzung Θ 2 Θ = (β, σ ) ˆ σ max L(β, σ 2 ) = L(β, ˆ2) 2 β,σ
und damit
" 1 ˆ ′ (y − Xβ) ˆ = (2πˆ σ 2 )−n/2 exp − 2 (y − Xβ) 2ˆ σ 2 n3 σ 2 )−n/2 exp − = (2πˆ 2 λ(y) =
2 σ ˆΩ ′ 2 σ ˆΩ
−n/2
,
2 2 wobei σ ˆΩ ˆΩ die ML-Sch¨ atzungen von σ 2 unter H0 bzw. im vollen ′ bzw. σ Parameterraum Ω sind. Wie aus (9.24) ersichtlich ist, liegt λ(y) zwischen 0 und 1. λ(y) ist selbst ußte der Z¨ahler von λ(y) bei uneine Zufallsvariable. Ist H0 richtig, so m¨ abh¨angigen Stichproben in der Mehrzahl der F¨alle einen im Vergleich zum Nenner hinreichend großen Wert ergeben, so dass λ(y) unter H0 einen Wert nahe 1 annehmen m¨ ußte. Umgekehrt m¨ ußte λ(y) bei G¨ ultigkeit von H1 vorwiegend Werte nahe 0 annehmen.
9.3 Induktive multiple Regression
205
Wir f¨ uhren folgende streng monotone Transformation durch, um zu einer Teststatistik zu kommen, die unter H0 eine bekannte Verteilung besitzt. −2/n
F = {(λ(y)) − 1}(n − K)(K − l)−1 σ ˆ2 ′ − σ ˆ2 n − K . = Ω 2 Ω · σ ˆΩ K−l
(9.25)
F¨ ur λ(y) → 0 gilt F → ∞ und f¨ ur λ(y) → 1 gilt F → 0, so dass eine Stichprobe im Bereich F nahe 0“ nicht gegen H0 und im Bereich F hinreichend ” ” ur die groß“ gegen H0 spricht. Wir bestimmen nun F und seine Verteilung f¨ beiden Spezialf¨alle der allgemeinen linearen Hypothese. Fall 1, l = 0: Die ML-Sch¨ atzungen unter H0 (9.21) sind ˆ = β∗ β
2 und σ ˆΩ ′ =
1 (y − Xβ ∗ )′ (y − Xβ ∗ ) . n
Die ML-Sch¨atzungen u ¨ ber dem vollen Parameterraum Ω sind nach (9.16) und (9.15) 1 2 ˆ = b und σ β ˆΩ = (y − Xb)′ (y − Xb) . n Nach einer Reihe von Umformungen erhalten wir (vgl. Toutenburg, 1992a) als Teststatistik F =
(b − β ∗ )′ X′ X(b − β ∗ ) n − K · , (y − Xb)′ (y − Xb) K
(9.26)
die unter H0 : β = β ∗ eine FK,n−K -Verteilung besitzt. Bezeichnung: der Nenner von F wird als SQResidual bezeichnet (Restvarianz), der Ausdruck im Z¨ ahler von F (9.26) heißt SQRegression : SQResidual = (y − Xb)′ (y − Xb) SQRegression = (b − β∗ )′ X′ X(b − β∗ ) SQRegression mißt den durch das Regressionsmodell erkl¨arten Anteil an der Gesamtvariabilit¨ at. Es gilt die fundamentale Formel der Streuungszerlegung SQT otal = SQRegression + SQResidual n mit SQT otal = ¯)2 . SQT otal ist -bis auf die Freiheitsgrade- die i=1 (yi − y Stichprobenvarianz in der y-Stichprobe. Mit diesen Bezeichnungen l¨ asst sich F schreiben als F =
SQRegression n − K · . SQResidual K
Bezeichnen wir mit fK,n−K,1−α das (1−α)-Quantil der FK,n−K -Verteilung, ¨ so erhalten wir auf Grund unserer soeben gef¨ uhrten Uberlegungen bei einer vorgegebenen Irrtumswahrscheinlichkeit α folgende Entscheidungsregel:
206
9. Lineare Regression
H0 nicht ablehnen, falls 0 ≤ F ≤ fK,n−K,1−α , H0 ablehnen, falls F > fK,n−K,1−α .
"
Eine Auswahl kritischer Werte der F -Verteilung ist im Anhang (Tabellen B5-B8) enthalten. Fall 2, l > 0: Die ML-Sch¨ atzungen unter H0 : β 2 = r (9.23) sind ˆ = (X′ X1 )−1 X′ (y − X2 r) , β 1 1 1 ˆ β2 = r , ′ 1 2 ˆ ˆ . y − X1 β y − X1 β σ ˆΩ ′ = 1 1 n
Hier erhalten wir als Teststatistik (vgl. Toutenburg, 1992a) (b2 − r)′ D(b2 − r) n − K (y − Xb)′ (y − Xb) K − l SQRegression n − K = · SQResidual K −l
F =
mit
⎫ b2 = D−1 X′2 M1 y , ⎬ D = X′2 M1 X2 , ⎭ M1 = I − X1 (X′1 X1 )−1 X′1
(9.27)
(9.28)
(b2 ist die β 2 entsprechende Komponente in b). Dann besitzt die Teststatistik F unter H0 eine FK−l,n−K -Verteilung. H0 wird abgelehnt, falls F > fK−l,n−K,1−α ist. 9.3.6 Pr¨ ufen der univariaten Regression Diese Sektion liefert als Erg¨ anzung zu 9.2 den F-Test im univariaten Fall und die Konfidenzintervalle der Parametersch¨ atzungen. Zus¨atzlich zeigt sie auf, das sich durch die Matrixschreibweise viele Formalismen einfacher darstellen lassen. Gegeben sei das univariate lineare Modell yi = β0 + β1 xi + ǫi
(i = 1, . . . , n)
mit ǫi ∼ N (0, σ 2 ). Das Modell (9.29) hat in Matrixschreibweise die Gestalt y = (1x)β + ǫ mit
(9.29)
9.3 Induktive multiple Regression
β=
β0 β1
207
.
Die Kleinste-Quadrat-Sch¨ atzung b = (X′ X)−1 X′ y (vgl. (9.10)) von β lautet in diesem speziellen Modell mit der Matrix X = (1x) b0 b= b1 mit den Komponenten ¯ und b0 = y¯ − b1 x
b1 =
Sxy . Sxx
Die G¨ ultigkeit des Modells (9.29) bedeutet insbesondere, dass der Parame¨ ufung dieser Annahme bedeutet ter β1 von Null verschieden ist. Die Uberpr¨ formal den Vergleich der Modelle unter den Hypothesen H0 : y t = β0 + ǫ t H1 : yt = β0 + β1 xt + ǫt , d.h. die Pr¨ ufung von H0 : β1 = 0 gegen H1 : β1 = 0. Die zugeh¨orige Teststatistik (9.27) wird mit D aus (9.28), d.h. mit D = x′ x − x′ 1(1′ 1)−1 1′ x ( xi )2 2 = xi − = (xi − x ¯)2 = Sxx n
und K = 2, l = 1 zu
b21 Sxx s2 SQRegression = · (n − 2) . SQResidual
F =
Mit den Bezeichnungen M QRegression = und M QResidual =
SQRegression K −l
SQResidual = s2 n−K
l¨asst sich die Teststatistik (9.27) schreiben als (beachte K = 2, l = 1) F =
M QRegression . M QResidual
Sie besitzt unter H0 : β1 = 0 eine F1,n−2 -Verteilung.
208
9. Lineare Regression Tabelle 9.1. Arbeitstabelle zur Berechnung der Sch¨ atzungen i 1 2 3 4 5 6 7 8 9 10 P
yi 2.0 3.0 6.0 5.0 1.0 6.0 5.0 11.0 14.0 17.0 70 y¯ = 7
xi 1.5 2.0 3.5 2.5 0.5 4.5 4.0 5.5 7.5 8.5 40 x ¯=4
Syy
yi − y¯ −5.0 −4.0 −1.0 −2.0 −6.0 −1.0 −2.0 4.0 7.0 10.0 0.0 = 252
xi − x ¯ −2.5 −2.0 −0.5 −1.5 −3.5 0.5 0.0 1.5 3.5 4.5 0.0 Sxx = 60
(xi − x ¯)(yi − y¯) 12.5 8.0 0.5 3.0 21.0 −0.5 0.0 6.0 24.5 45.0 Sxy = 120
Beispiel 9.3.2. In einem Kaufhauskonzern mit n = 10 Filialen sollen die Auswirkungen von Werbeausgaben xi auf die Umsatzsteigerung yi untersucht werden (Werbung: 1000 DM als Einheit, Umsatzsteigerung: 10000 DM als Einheit). Wir verwenden die Daten aus Tabelle 9.1 und wollen die Hypothese H0 : β1 = 0 gegen H1 : β1 = 0 f¨ ur das univariate lineare Regressionsmodell yi = β0 + β1 xi + ǫi u ufen. Es ist n = 10, K = 2, l = 1, ¨ berpr¨ SQResidual = 12 SQRegression = 240 und damit 12 SQResidual = = 1.5 n−K 10 − 2 SQRegression 240 = = = 240 . K −s 1
M QResidual = M QRegression
Die Teststatistik hat den Wert F = 240 1.5 = 160. Sie ist unter H0 : β1 = 0 mit F1,8 -verteilt. Der Wert F = 160 ist gr¨ oßer als der kritische Wert f1,8,0.05 = 5.32 (p-value von 0.000, vgl. SPSS Listing), so dass H0 : β1 = 0 zugunsten von aquivalent zur Ablehnung des Modells H1 : β1 = 0 abgelehnt wird. Dies ist ¨ yi = β0 + ǫi zugunsten des Modells yi = β0 + β1 xi + ǫi . In Abbildung 9.3 ist die Regressionsgerade dargestellt, das Listing in Abbildung 9.2 zeigt die Berechnungen der Sch¨ atzungen mit SPSS. 9.3.7 Konfidenzbereiche Neben der Punktsch¨ atzung b f¨ ur β wollen wir nun auch Konfidenzsch¨atzungen f¨ ur β herleiten. Falls β ein Vektor ist, ergeben sich Konfidenzellipsoide statt der Konfidenzintervalle im univariaten Fall.
9.3 Induktive multiple Regression
209
Model Summary
Model 1
Std. Error of the Estimate 1,2247
Adjusted R Square ,946
R R Square ,976a ,952
a. Predictors: (Constant), X ANOVAb
Model 1
Regression Residual Total
Sum of Squares 240,000 12,000 252,000
df 1 8 9
Mean Square 240,000 1,500
F 160,000
Sig. ,000a
a. Predictors: (Constant), X b. Dependent Variable: Y
Abb. 9.1. SPSS-Output zu Beispiel 9.3.2 Coefficientsa
Model 1
(Constant) X
Unstandardized Coefficients B Std. Error -1,000 ,742 2,000 ,158
Standardi zed Coefficien ts Beta ,976
t -1,348 12,649
Sig. ,214 ,000
95% Confidence Interval for B Lower Bound Upper Bound -2,710 ,710 1,635 2,365
a. Dependent Variable: Y
Abb. 9.2. SPSS-Output zu Beispiel 9.3.2 (Fortsetzung)
Konfidenzintervalle im univariaten Fall: β0 und β1 Die Kovarianzmatrix der KQ-Sch¨ atzung hat die Gestalt Vb = σ 2 (X′ X)−1 (vgl. (9.12)). F¨ ur das Modell (9.29) erhalten wir mit X = (1, x) ′ 1 1 1′ x n n¯ x X′ X = = , 1′ x x′ x n¯ x x2i 1 2 σ2 xi −¯ x n σ 2 (X′ X)−1 = −¯ x 1 Sxx mit Sxx =
(xi − x ¯)2 und daraus
1 Sxx 2 2 xi σ2 xi − n¯ x2 + n¯ x2 σ2 Var(b0 ) = · = n Sxx n Sxx Var(b1 ) = σ 2
9. Lineare Regression
Y
210
20
10
0
-10 0
2
4
6
8
10
X Abb. 9.3. Regressionsgerade im Beispiel 9.3.2
=σ
2
1 x¯2 + n Sxx
.
Die gesch¨atzten Varianzen sind also 2 1 ) = s Var(b Sxx
und 0 ) = s2 Var(b mit s2 aus (9.11) (K = 2 gesetzt). iid. Da ǫi ∼ N (0, σ 2 ) gilt, ist b1 ∼ N also gilt
Analog erhalten wir
1 x¯2 + n Sxx
(9.31)
σ2 , β1 , Sxx
b 1 − β1 # 1 ) Var(b b0 ∼ N
(9.30)
∼
β0 , σ 2
b 0 − β0 # ∼ tn−2 . 0 ) Var(b
tn−2 .
1 x¯2 + n Sxx
,
9.3 Induktive multiple Regression
211
Wir berechnen die Konfidenzintervalle f¨ ur β0 und β1 zum Niveau 1 − α # # b0 − tn−2,1−α/2 · Var(b0 ) , b0 + tn−2,1−α/2 · Var(b0 ) (9.32) bzw.
# # b1 − tn−2,1−α/2 · Var(b1 ) , b1 + tn−2,1−α/2 · Var(b1 ) .
(9.33)
Beispiel 9.3.3 (Fortsetzung von Beispiel 9.3.2). Das SPSS Listing in Abbildung 9.2 zeigt zus¨ atzlich zu den Sch¨ atzungen b0 und b1 (Spalte B) auch die Konfidenzintervalle f¨ ur β0 (Zeile (Constant)) und β1 (Zeile X). Die in (9.32) und (9.33) verwendeten Sch¨ atzungen der Quadratwurzeln der Varianzen ((9.30) und (9.31)) sind in der Spalte Std.Error gegeben. Direkte Berechnung liefert mit s2 = M QResidual = 1.5 (Abbildung 9.1), x¯ = 4 (Tabelle 9.1), Sxx = 60 (Tabelle 9.1) 1.5 = 0.025 = 0.1582 [(9.30)], V ar(b1 ) = 60 1 42 V ar(b0 ) = 1.5 + = 0.55 = 0.7422 [(9.31)]. 10 60 Mit t8,0.975 = 2.3060 (Tabelle B.4) erhalten wir gem¨aß (9.32) [−1 − 2.3060 ∗ 0.742, −1 + 2.3060 ∗ 0.742] = [−2.711, 0.711] und analog gen¨aß (9.33) [2 − 2.3060 ∗ 0.158, 2 + 2.3060 ∗ 0.158] = [1.636, 2.364] . Konfidenzellipsoid f¨ ur den vollen Parametervektor β Wie im univariaten Fall gibt es auch im multiplen Modell einen engen Zu¯ der F -Tests und Konfidenzbereichen sammenhang zwischen den Bereichen K f¨ ur β oder Subvektoren von β. Aus (9.26) erhalten wir f¨ ur β∗ = β das Konfidenzellipsoid zum Niveau 1 − α aus der Ungleichung (b − β)′ X′ X(b − β) n − K · ≤ fK,n−K,1−α . (y − Xb)′ (y − Xb) K
(9.34)
Das Konfidenzellipsoid ist die Menge aller Punkte β ∈ RK , f¨ ur die (9.34) erf¨ ullt ist. Konfidenzellipsoid f¨ ur einen Teilvektor β2 von β = (β 1 , β 2 ) Setzen wir β 2 f¨ ur r in (9.27) ein, so folgt, dass alle β 2 ∈ RK−l , die die folgende Ungleichung erf¨ ullen, ein (1 − α)-Konfidenzelipsiod f¨ ur β 2 bilden: (b2 − β 2 )′ D(b2 − β2 ) n − K · ≤ fK−l,n−K,1−α . (y − Xb)′ (y − Xb) K−l
212
9. Lineare Regression
9.3.8 Vergleich von Modellen In der multiplen Regression steht man vor dem Problem des Vergleichs von Modellen mit hierarchisch angeordneten Variablenmengen. Sei das folgende lineare Modell mit einer Konstanten 1 und K − 1 echten Regressoren X1 , . . . , XK−1 gegeben: y = 1β0 + x1 β1 + . . . + xK−1 βK−1 + ǫ ˜ = 1β0 + Xβ +ǫ ∗ β 0 ˜ = (1 X) +ǫ β∗ = Xβ + ǫ. ˜ Man vergleicht zun¨ achst das volle Modell y = 1β0 + Xβ ∗ + ǫ = Xβ + ǫ mit dem Modell y = 1β0 + ǫ ohne echte Regressoren. In diesem Modell ist ¯ , und die zugeh¨ βˆ0 = y orige Residual-Quadratsumme ist (yt − y¯)2 = Syy . (yt − yˆt )2 =
Damit ist SQResidual im Modell y = 1β0 + ǫ gleich SQT otal im vollen Modell. F¨ ur das volle Modell wird β = (β0 , β∗ )′ durch die KQ-Sch¨atzung ′ b = (X X)−1 X′ y gesch¨ atzt. Nehmen wir die Unterteilung von β in den zur Konstanten 1 geh¨orenden Parameter β0 und den zu den echten Regressoren geh¨orenden Subvektor β ∗ ¯ = (¯ in die Sch¨atzung b hinein, so erhalten wir mit x x1 , . . . , x ¯K−1 )′ βˆ ˆ = (X ˆ′ x ˜ ′ X) ˜ −1 X ˜ ′ y, βˆ0 = y¯ − β b = ˆ0 , β ∗ ∗ ¯. β∗ Damit gilt im vollen Modell (vgl. Weisberg, 1980) SQResidual = (y − Xb)′ (y − Xb) = y′ y − b′ X′ Xb
ˆ + n¯ ˆ ′ (X ˜ ′ X) ˜ β = (y − 1¯ y)′ (y − 1¯ y) − β y2 . ∗ ∗
Der durch die Regression – also die Hereinnahme der Regressormatrix X – erkl¨arte Variabilit¨ atsanteil wird ′
ˆ − n¯ ˆ (X ˜ ′ X) ˜ β SQRegression = SQT otal − SQResidual = β y2 . ∗ ∗ Das multiple Bestimmtheitsmaß 2 RK =
SQRegression SQT otal
mißt den relativen Anteil der durch Regression auf X1 , . . . , XK−1 erkl¨arten Variabilit¨at im Verh¨ altnis zur Gesamtvariabilit¨at SQT otal .
9.3 Induktive multiple Regression
213
Der F -Test zum Pr¨ ufen von H0 : β∗ = 0 gegen H1 : β ∗ = 0 (also H0 : ˜ y = 1β0 + ǫ gegen H1 : y = 1β0 + Xβ ∗ + ǫ) basiert auf der Teststatistik F =
SQRegression /(K − 1) , s2
(9.35)
die unter H0 eine FK−1,n−K -Verteilung besitzt. Falls H0 : β∗ = 0 abgelehnt wird, folgt die Pr¨ ufung von Hypothesen bez¨ uglich einzelner Komponenten von β. Dieses Problem tritt auf, wenn man aus einer m¨oglichen Menge X1 , . . . , XK−1 von Regressoren ein z.B. bez¨ uglich des Bestimmtheitsmaßes bestes Modell finden will. 9.3.9 Kriterien zur Modellwahl Draper und Smith (1966) und Weisberg (1980) geben eine Reihe von Kriterien zur Modellwahl an. Wir beschr¨ anken uns im Folgenden auf das Ad-hocKriterium und das Bestimmtheitsmaß. Ad-hoc-Kriterium Sei {X1 , . . . , XK } die volle Regressormenge (unter Einschluss der Konstanten) und {Xi1 , . . . , Xip } eine Auswahl von p Regressoren (Untermenge). Wir p bezeichnen die Residual-Quadratsummen mit SQK Residual bzw. SQResidual . Die Parametervektoren seien β f¨ ur X = {X1 , · · · , XK }, β 1 f¨ ur X1 = {Xi1 , · · · , Xip } und β 2 f¨ ur X2 = {X1 , · · · , XK }\{Xi1 , · · · , Xip }. Dann bedeutet die Wahl zwischen dem Modell mit der vollen Regressormenge und dem Modell mit der Untermenge von Regressoren die Pr¨ ufung von H0 : β 2 = 0. Wir wenden den F -Test (vgl. (9.25)) an: F =
(SQpResidual − SQK Residual )/(K − p) . SQK Residual /(n − K)
(9.36)
Diese Teststatistik hat unter H0 eine FK−p,n−K -Verteilung. Das volle Modell ist gegen¨ uber dem Submodell zu bevorzugen, falls H0 : β 2 = 0 abgelehnt wird, d.h., falls F > fK−p,n−K;1−α gilt. Anmerkung. Will man die jeweils einbezogene Matrix der Regressoren deutlich machen, so verwendet man sie als Index bei R2 und SQResidual , also z.B. 1 ,X2 2 RX oder SQ1,X Residual . Ist klar, um welche Variablen es sich handelt, und ist 1 nur die Anzahl p interessant, so verwendet man die Kennzeichnung Rp2 oder SQpResidual .
214
9. Lineare Regression
Die F -Statistik von (9.36) kann mit dieser Nomenklatur auch in folgender Gestalt geschrieben werden: F -Change =
X 1 (SQX Residual − SQResidual )/(K − p) . SQX Residual /(n − K)
(9.37)
Sie wird mit F -Change bezeichnet, da sie bei Modellwahlverfahren die Signifikanz in der Ver¨anderung von Rp2 durch Hinzunahme weiterer K − p Variablen uft. zum kleineren Modell (X1 -Matrix) pr¨ Modellwahl auf der Basis des adjustierten Bestimmtheitsmaßes Das multiple Bestimmtheitsmaß Rp2 = 1 −
SQpResidual SQT otal
f¨ ur ein Modell mit p Regressoren w¨ achst f¨ ur hierarchische Regressorenmengen 2 monoton in p im Sinne von Rp+1 ≥ Rp2 gem¨ aß dem folgenden Satz: Theorem 9.3.4. Sei y = X1 β 1 + X2 β 2 + ǫ = Xβ + ǫ ein volles Modell mit K Regressoren und y = X1 β 1 + ǫ ein Submodell mit p Regressoren. Dann gilt 2 2 RX − RX ≥ 0. (9.38) 1 Damit ist R2 als Vergleichskriterium ungeeignet, da das volle Modell stets den gr¨oßten R2 -Wert h¨ atte. Die Monotonieeigenschaft von Rp2 in der Parameter- oder Regressorenanzahl erfordert also eine Korrektur, die zum sogenannten adjustierten Bestimmtheitsmaß f¨ uhrt: ¯ p2 = 1 − n − 1 (1 − Rp2 ). R n−p Anmerkung. Falls keine Konstante β0 im Modell enthalten ist, steht im ¯ p2 kann – im Gegensatz zu Rp2 – negativ werden. In der Z¨ahler n statt n − 1. R Praxis hat es sich durchgesetzt, eine Konstante im Modell mitzuf¨ uhren, die als Skalierungsgr¨ oße (wie auch in den Modellen der Varianzanalyse u ¨ blich, vgl. Kapitel 10) dient. Deshalb wird bei der Modellwahl die Signifikanz der Konstanten nicht u uft. ¨berpr¨ Falls f¨ ur zwei Modelle, von denen das kleinere vollst¨andig im gr¨oßeren Modell enthalten ist, ¯2 ¯2 < R R p+q
p
gilt, so signalisiert dies eine bessere Anpassung durch das Submodell.
9.4 Ein komplexes Beispiel
215
9.3.10 Die bedingte KQ-Sch¨ atzung Die Normalgleichung (9.14) ist nur eindeutig l¨ osbar, wenn die n×K-Matrix X von vollem Spaltenrang K ist, so dass (X′ X)−1 existiert. Im Fall Rang(X) = p < K, der in der Varianzanalyse auftritt, geht man wie folgt vor: Man bestimmt eine (K − p)× K-Matrix R mit Rang(R) = K − p so, dass X die zusammengesetzte Matrix den Rang K besitzt. Ist dies erf¨ ullt, so R heißt R eine zu X komplement¨ are Matrix. Wir f¨ uhren u atzliche lineare Restriktion ¨ber R die zus¨ r = Rβ in das Modell y = Xβ + ǫ ein und ber¨ ucksichtigen diese Restriktion in der Zielfunktion: Q(β, λ) = (y − Xβ)′ (y − Xβ) + 2λ′ (Rβ − r) , λ ist ein (K − p)-Vektor aus Lagrange-Multiplikatoren. Aus dem Gleichungssystem 1 ∂Q(β, λ) = X′ Xβ − X′ y + R′ λ = 0 2 ∂β 1 ∂Q(β, λ) = Rβ − r = 0 2 ∂λ osung erhalten wir die eindeutig bestimmte L¨ b(R, r) = (X′ X + R′ R)−1 (X′ y + R′ r) ,
(9.39)
die wir als bedingte KQ-Sch¨ atzung von β bezeichnen. Es gilt E(b(R, r)) = β
(9.40)
und V(b(R, r)) = σ 2 (X′ X + R′ R)−1 X′ X(X′ X + R′ R)−1 . Die bedingte KQ-Sch¨ atzung wird in Kapitel 10 zur Sch¨atzung im Modell der Varianzanalyse eingesetzt.
9.4 Ein komplexes Beispiel Wir wollen die Modellwahl anhand der eingef¨ uhrten Kriterien ausf¨ uhrlich an einem Datensatz erl¨ autern. Es sei folgendes Modell mit K = 5 echten Regressoren und n = 10 Beobachtungen gegeben: y = 1β0 + x1 β1 + x2 β2 + x3 β3 + x4 β4 + ǫ.
216
9. Lineare Regression
Die Datenmatrix (y, X) ist ⎛
⎞ Y X1 X 2 X 3 X 4 ⎜ 18 3 7 20 −10 ⎟ ⎜ ⎟ ⎜ 47 7 13 5 19 ⎟ ⎜ ⎟ ⎜ 125 10 19 −10 100 ⎟ ⎜ ⎟ ⎜ 40 8 17 4 17 ⎟ ⎜ ⎟ ⎜ 37 5 11 3 13 ⎟ ⎜ ⎟ ⎜ 20 4 7 3 10 ⎟ ⎜ ⎟ ⎜ 24 3 6 10 5⎟ ⎜ ⎟ ⎜ 35 3 7 0 22 ⎟ ⎜ ⎟ ⎝ 59 9 21 −2 35 ⎠ 50 10 24 0 20
Zur Auswertung verwenden wir SPSS. 9.4.1 Normalverteilungsannahme
Die Voraussetzung f¨ ur die G¨ ultigkeit der im folgenden angewendeten Tests – die Normalverteilungsannahme f¨ ur y – u ufen wir mit dem Kolmogorov¨berpr¨ Smirnov-Test:
One-Sample Kolmogorov-Smirnov Test Y N Normal Parametersa,b Most Extreme Differences
Mean Std. Deviation Absolute Positive Negative
10 45,5000 30,9237 ,242 ,242 -,187
Kolmogorov-Smirnov Z Asymp. Sig. (2-tailed)
,766 ,601
a. Test distribution is Normal. b. Calculated from data. Abb. 9.4. SPSS-Output zum komplexen Beispiel
Die Annahme einer Normalverteilung f¨ ur die Zufallsvariable Y wird nicht abgelehnt (p-value 0.601). Die f¨ ur die Tests n¨otigen Modellannahmen sind damit nicht widerlegt und k¨ onnen beibehalten werden.
9.4 Ein komplexes Beispiel
217
9.4.2 Schrittweise Einbeziehung von Variablen Die Modellwahl kann nach verschiedenen Strategien erfolgen. Entweder man nimmt die X-Variablen schrittweise in das Modell hinein, bis ein Endmodell erreicht ist (forward selection), oder die X-Variablen des vollen Modells werden schrittweise aus dem Modell entfernt, bis ein Endmodell erreicht ist (backward selection). Eine dritte M¨ oglichkeit der Modellwahl besteht aus der Kombination der ersten beiden Verfahren. Man nimmt schrittweise XVariablen ins Modell hinein, pr¨ uft aber zugleich in jedem Schritt ab, ob eine im Modell vorhandene X-Variable wieder entfernt werden muß (stepwise selection). Als Kriteriun f¨ ur die Hereinnahme bzw. Entfernung von X-Variablen dient dabei die F -Change-Statistik. Da in jedem Schritt nur eine X-Variable ins Modell aufgenommen oder aus dem Modell entfernt wird, hat die F Change-Statistik im Z¨ ahler nur einen Freiheitsgrad und ist damit das Quadrat einer t-Statistik. Diese findet man in den SPSS-Listings unter T. F¨ ur die Modellwahl muß das Signifikanzniveau f¨ ur F -Change vorher festgelegt werden. Dies geschieht in SPSS durch die Wahl von PIN (probability of F-to-enter) und POUT (probability of F-to-remove). Um zu vermeiden, dass Variablen zu schnell aus dem Modell entfernt werden oder erst gar nicht aufgenommen werden, sollte man PIN und POUT im Gegensatz zum sonstigen Vorgehen bei Tests gr¨oßer, also z.B. als 0.1, w¨ ahlen. Wir betrachten im Folgenden nur die Modellwahl mit der stepwise-Prozedur. Anmerkung. In den folgenden SPSS Listings bedeuten B die Sch¨atzung eines Parameters, SE B die gesch¨atzte Standardabweichung der Parametersch¨atzung, Beta den Beta-Koeffizienten Betak =
s2yk s2yy s2kk
mit s2yk = Stichprobenkovarianz zwischen Y und Xk , s2yy = Stichprobenvarianz von Y und s2kk = Stichprobenvarianz von Xk , T den Wert der Teststatistik (t-Test) B/SE B, Sig T den p-value von T beim Testen von H0 : B = 0, Multiple R Wurzel aus dem multiplen Bestimmtheitsmaß R2 . Schritt 1 der Prozedur Die schrittweise Prozedur zum Auffinden des besten Modells w¨ahlt als erste Variable X4 aus, da X4 die h¨ ochste Korrelation zu Y aufweist. Dies ist oßten F -Change-Wert. ¨aquivalent zum gr¨
218
9. Lineare Regression * * * *
M U L T I P L E
R E G R E S S I O N
* * * *
Listwise Deletion of Missing Data Equation Number 1
Dependent Variable..
Block Number 1. Method: Criteria FIN 3.840 X1 X2 X3
Y
Stepwise FOUT 3.839 X4
Variable(s) Entered on Step Number 1.. X4 Multiple R .97760 R Square Square .95017 Standard Error 6.90290
.95571 Adjusted R
Analysis of Variance Regression 8 F =
DF 1 381.20068
172.61878
Sum of Squares 8225.29932 47.65009 Signif F =
Mean Square 8225.29932 Residual
.0000
------------------ Variables in the Equation -----------------Variable X4 (Constant)
B
SE B
Beta
T
Sig T
1.025790 21.804245
.078075 2.831568
.977603
13.138 7.700
.0000 .0001
------------- Variables not in the Equation ------------Variable X1 .155826 .369763
Beta In
Partial
Min Toler
T
.179010 .644927 .574902 2.233 .629328 .722436 2.143 .0694 X3 .292702 1.053 .3274
Sig T .0607 X2 .143838
Das Bestimmtheitsmaß f¨ ur das Modell y = 1βˆ0 + x4 βˆ4 + ǫ wird R22 =
8225.29932 SQRegression = = 0.95571 SQT otal 8225.29932 + 381.20068
und das adjustierte Bestimmtheitsmaß 10 − 1 2 ¯ R2 = 1 − (1 − 0.95571) = 0.95017. 10 − 2 Die Tabelle der Sch¨ atzungen ergibt βˆ0 = 21.804 und βˆ4 = 1.026.
9.4 Ein komplexes Beispiel
219
Schritt 2 der Prozedur: Hier wird die Variable X1 hinzugenommen, da X1 im ersten Schritt unter den Variablen die nicht im Modell sind, den gr¨ oßten T-Wert hat. Das adjustierte ¯ 2 = 0.96674. Bestimmtheitsmaß w¨ achst auf R 3 * * * *
M U L T I P L E
Equation Number 1
R E G R E S S I O N
Dependent Variable..
* * * *
Y
Variable(s) Entered on Step Number 2.. X1 Multiple R .98698 R Square Square .96674 Standard Error 5.63975
.97413 Adjusted R
Analysis of Variance Regression 7 F =
DF 2 222.64760
131.79340
Sum of Squares 8383.85240 31.80680 Signif F =
Mean Square 4191.92620 Residual
.0000
------------------ Variables in the Equation -----------------Variable X1 .903324 12.944925
B
SE B
Beta
T
Sig T
1.885209 .844369 .179010 2.233 .0607 X4 .084129 .860889 10.737 .0000 (Constant) 4.593152 2.818 .0258
------------- Variables not in the Equation ------------Variable X2 .237627
Beta In
Partial
.005496 .006574 .764301 .267626
Min Toler
T
.029451 2.903 .0272
.016
Sig T .9877 X3
Die Sch¨atzungen a ¨ndern sich durch die Hinzunahme von X1 zu βˆ0 = 12.945, βˆ1 = 1.885 und βˆ4 = 0.903. Schritt 3 der Prozedur: Hier wird X3 hinzugenommen, das adjustierte Bestimmtheitsmaß w¨achst wei¯ 2 = 0.98386 . ter auf R 4 * * * *
M U L T I P L E
Equation Number 1
R E G R E S S I O N
Dependent Variable..
Y
* * * *
220
9. Lineare Regression Variable(s) Entered on Step Number 3.. X3 Multiple R .99461 R Square Square .98386 Standard Error 3.92825
.98924 Adjusted R
Analysis of Variance Regression 6 F =
DF 3 92.58670
Sum of Squares 8513.91330 15.43112
183.91223
Signif F =
Mean Square 2837.97110 Residual
.0000
------------------ Variables in the Equation -----------------Variable X1 .936516 1.079069 2.554272
B
SE B
Beta
T
Sig T
2.407861 .615063 .228638 3.915 .0078 X3 .322582 .237627 2.903 .0272 X4 .084251 1.028379 12.808 .0000 (Constant) 4.800509 .532 .6138
------------- Variables not in the Equation ------------Variable
Beta In
Partial
Min Toler
T
Sig T
X2
.166664
.300278
.028653
.704
.5129
Die Sch¨atzungen ¨ andern sich durch die Hinzunahme von X3 erneut, und zwar zu βˆ0 = 2.554, βˆ1 = 2.408, βˆ3 = 0.937 und βˆ4 = 1.079. Die Pr¨ ufgr¨oße F -Change wird wie folgt berechnet: (X ,X ,1)
F -Change =
(X ,X ,X3 ,1)
4 1 4 1 − SQResidual SQResidual
(X ,X ,X ,1)
4 1 3 SQResidual /6 222.64760 − 92.58670 = 15.4311 = 8.42848.
Das 95%-Quantil der F1,6 -Verteilung ist 5.99 < F -Change. Der Zuwachs an Bestimmtheit ist also auf dem 5%-Niveau signifikant (der p-value von F Change liegt mit 0.0272 unter 0.05). Schritt 4 der Prozedur: SPSS bricht nun die Modellwahl ab, da der Zuwachs (F -Change) im n¨achsten Schritt nicht mehr signifikant ist. Die Variable X2 wird damit nicht ber¨ ucksichtigt (vgl. Sig T .5129 im oberen Listing). Damit lautet das gew¨ ahlte Modell Y = β0 + β1 X1 + β3 X3 + β4 X4 + ǫ mit den statistischen Kenngr¨ oßen
9.4 Ein komplexes Beispiel
221
------------------ Variables in the Equation -----------------Variable X1 .936516 1.079069 2.554272
B
SE B
Beta
T
Sig T
2.407861 .615063 .228638 3.915 .0078 X3 .322582 .237627 2.903 .0272 X4 .084251 1.028379 12.808 .0000 (Constant) 4.800509 .532 .6138
9.4.3 Grafische Darstellung Die folgenden Grafiken geben einen Eindruck vom korrelativen Zusammenhang zwischen y und den X-Variablen. Die Korrelationskoeffizienten und die zugeh¨origen p-values sind in Tabelle 9.2 angegeben. Tabelle 9.2. Bivariate Korrelationen
Y
Vergleich y, X1 y, X2 y, X3 y, X4
r 0.7403 0.6276 −0.7801 0.9776
p-value 0.014 0.052 0.008 0.000
140 120 100 80 60 40 20 0 2
4
6
8
10
12
X1 Abb. 9.5. Regression von y auf X1
9. Lineare Regression
Y
222
140 120 100 80 60 40 20 0 0
10
20
30
X2
Y
Abb. 9.6. Regression von y auf X2 140 120 100 80 60 40 20 0 -20 -20
-10
0
10
20
30
X3 Abb. 9.7. Regression von y auf X3
9.5 Kategoriale Einflussgr¨ oßen In den bisherigen Ausf¨ uhrungen haben wir Y und X1 , . . . , XK als stetig vorausgesetzt. Wir wollen nun den in Anwendungen ebenfalls wichtigen Fall behandeln, dass die Einflussgr¨ oßen (Regressoren) X1 , . . . , XK kategoriales Skalenniveau besitzen. Wir betrachten hierf¨ ur nun einige Beispiele f¨ ur kategoriale Einflussgr¨ oßen:
Y
9.5 Kategoriale Einflussgr¨ oßen
223
140 120 100 80 60 40 20 0 -20
0
20
40
60
80
100
120
X4 Abb. 9.8. Regression von y auf X4
Beispiele. • • • •
Unternehmensstandort: Ost, West, S¨ ud, Nord Geschlecht: m¨annlich, weiblich Familienstand: ledig, verheiratet, geschieden, verwitwet Bewertung einer Kundenbefragung: sehr zufrieden, zufrieden, unzufrieden
Regressoren mit kategorialem Skalenniveau erfordern eine spezifische Behandlung. Die kodierten Merkmalsauspr¨ agungen wie z. B. ‘ledig’=1, ‘verheiratet’=2, ‘geschieden’=3, ‘verwitwet’=4 k¨ onnen wir nicht wie reelle Zahlen in die Berechnung der Parametersch¨ atzungen a und b einbeziehen, da den Kodierungen wie z. B. beim nominalen Merkmal ‘Familienstand’ nicht notwendig eine Ordnung zugrundeliegt und Abst¨ ande bei ordinalen Merkmalen nicht definiert sind. Um diesem Problem zu begegnen, m¨ ussen kategoriale Regressoren umkodiert werden. Hierf¨ ur m¨ ochten wir nun die zwei g¨angigsten M¨oglichkeiten vorstellen: Dummy- und Effektkodierung. Dabei wird ein kategorialer Regressor mit k m¨ oglichen Merkmalsauspr¨agungen in k − 1 neue Regressoren (Dummys) umgewandelt. Eine der Originalkategorien (Merkmalsauspr¨agungen) wird dabei als sogenannte Referenzkategorie ausgew¨ahlt. Dummykodierung. Ein kategoriales Merkmal X mit k m¨oglichen Merkmalsauspr¨agungen wird durch k − 1 Dummys Xi kodiert. Nach Wahl einer Referenzkategorie j ∈ {1, . . . , k} ergeben sich die Dummys Xi , i = 1, . . . , k, i = j wie folgt: 1 falls Kategorie i vorliegt, xi = (9.41) 0 sonst.
224
9. Lineare Regression
Effektkodierung. Ein kategoriales Merkmal X mit k m¨oglichen Merkmalsauspr¨agungen wird durch k − 1 Dummys Xi kodiert. Nach Wahl einer Referenzkategorie j ∈ {1, . . . , k} ergeben sich die Dummys Xi , i = 1, . . . , k, i = j wie folgt: ⎧ ⎨ 1 falls Kategorie i vorliegt, xi = −1 falls Kategorie j vorliegt, (9.42) ⎩ 0 sonst.
Beispiel. Betrachten wir das Merkmal X ‘Herstellungsort’ einer Studie u ¨ ber Eigenschaften und Verbrauch von Autos. Die Zielgr¨oße Y sei in diesem Fall der Hubraum (in ccm). Das Merkmal X hat in unserem Fall drei Merkmalsauspr¨agungen (‘USA’, ‘Europa’ und ‘Asien’), die mit 1, 2 und 3 kodiert sind. Wir verwenden die letzte Kategorie, d. h. die Kategorie 3 ‘Asien’, als Referenzkategorie. Damit erhalten wir die Dummys X1 (USA, LAND1), X2 (Europa, LAND2) wie in folgender Tabelle angegeben. Merkmalsauspr¨ agung von X 1 USA 2 Europa 3 Asien
Wert X1 1 0 0
von X2 0 1 0
Wert X1 1 0 -1
von X2 0 1 -1
F¨ ur die Effektkodierung erhalten wir Merkmalsauspr¨ agung von X 1 USA 2 Europa 3 Asien
F¨ ur eine Dummycodierung mit ‘Asien’ als Referenz ist in folgender Tabelle ein Auszug aus dem Datensatz gegeben: ID
Hubraum
Land
.. . 6 7 8 9 10 .. .
.. . 429 454 455 440 390 .. .
.. . 1 1 2 1 3 .. .
Dummy1 (USA) .. . 1 1 0 1 0 .. .
Dummy2 (Europa) .. . 0 0 1 0 0 .. .
Beispiel 9.5.1. Wir betrachten nun den Output von SPSS (Abbildung 9.9) zur linearen Regression mit den beiden Dummies ‘Land1 (USA)’ und ‘LAND2 (Europa)’ als Einflussgr¨ oßen und dem Hubraum (in ccm) als Zielgr¨oße Y .
9.5 Kategoriale Einflussgr¨ oßen
225
Abb. 9.9. SPSS Output zur linearen Regression mit der kategorialen Einflussgr¨ oße ‘Herstellungsort’
Zuerst entnehmen wir die Parametersch¨ atzungen f¨ ur β0 , β1 und β2 und betrachten die gesch¨ atzte Regressionsgerade: Hubraum = 102.709 + 145.005 · Land1 + 6.757 · Land2 Setzen wir nun die Dummywerte f¨ ur ‘USA’, ‘Europa’ und ‘Asien’ ein, Hubraum USA = 102.709 + 145.005 · 1 + 6.757 · 0 = 247.714 Hubraum Europa = 102.709 + 145.005 · 0 + 6.757 · 1 = 109.466 Hubraum Asien = 102.709 + 145.005 · 0 + 6.757 · 0 = 102.709
so f¨allt eine Interpretation leicht: Unser Modell erwartet ein im Mittel um 145.005 ccm h¨oheren Hubraum f¨ ur Autos, welche in den USA produziert werden im Vergleich zu Autos die aus der Referenz Asien kommen. F¨ ur Autos aus Europa wird dagegen ein im Mittel 6.757 ccm h¨oherer Hubraum im Vergleich zur Referenz Asien vorhergesagt. Neben den Parametersch¨ atzungen gibt uns SPSS noch die Standardabweichung, standardisierte Koeffizienten, sowie die T-Statistik bzw. den p-Wert f¨ ur die Tests β0 = 0, β1 = 0 und β2 = 0 aus. Wir sehen, dass zum Niveau α = 0.05 die Parametersch¨ atzungen des Intercepts und des ersten Dummies signifikant von Null verschieden sind. Auch wenn der p-Wert des zweiten Dummies gr¨oßer als unser vorgegebenes Signifikanzniveau ist, behalten wir ihn trotzdem im Modell, da die Signifikanz eines Dummies ausreicht um den ganzen Regressor im Modell zu behalten. Wir behalten also (auf Grund der Werte der t-Statistik, siehe auch Kapitel 9.3.7) unser Modell mit der Regressionsgleichung Hubraum = 102.709 + 145.005 · Land1 + 6.757 · Land2 bei und halten fest, dass das Herstellungsland einen Einfluss auf den Hubraum besitzt.
226
9. Lineare Regression
Anmerkung: Bei der Durchf¨ uhrung einer Regression mit Effektcodierung w¨ urden wir dasselbe Ergebnis erhalten. Einzig die Interpretation der Parametersch¨atzungen w¨ urde sich nun auf den globalen Mittelwert beziehen, und nicht auf die Referenzkategorie. Weitere ausf¨ uhrliche Beispiel zur Regression, Modellwahl, kategorialen Einflussgr¨oßen und weiteren Aspekten der multiplen linearen Regression finden Sie in Kapitel 14.2.3.
9.6 Aufgaben und Kontrollfragen
227
9.6 Aufgaben und Kontrollfragen Aufgabe 9.1: In einer Schulklasse wurden bei n = 10 Sch¨ ulern die K¨orpergr¨oße und das Gewicht gemessen. Die nachfolgende Tabelle enth¨alt die gemessenen Werte. Gr¨ oße in cm yi 188 160 172 198 189 177 175 188 165 183
i 1 2 3 4 5 6 7 8 9 10
Gewicht in kg xi 80 50 58 100 85 78 88 90 76 73
Bestimmen Sie βˆ0 , βˆ1 und s2 der Regression y = β0 + β1 x + ǫ. Aufgabe 9.2: Interpretieren Sie das folgende SPSS-Listing. Model Summary
Model 1
R R Square ,065a ,004
Adjusted R Square -,017
Std. Error of the Estimate 2,9390
a. Predictors: (Constant), X
ANOVAb
Model 1
Regression Residual Total
Sum of Squares 1,754 414,600 416,354
Mean Square 1,754 8,638
df 1 48 49
F ,203
Sig. ,654a
a. Predictors: (Constant), X b. Dependent Variable: Y
Coefficientsa
Model 1
(Constant) X
Unstandardized Coefficients B Std. Error ,323 ,421 17,407 38,624
Standardi zed Coefficien ts Beta ,065
t ,768 ,451
Sig. ,446 ,654
a. Dependent Variable: Y
Aufgabe 9.3: Sei Y (CURRENT SALARY) das aktuelle Gehalt eines Arbeitnehmers. In einem linearen Regressionsmodell soll der Einfluss der XVariablen X1 (WORK EXPERIENCE): Berufserfahrung, X2 (JOB SENIORITY): Dienstalter, X3 (BEGINNING SALARY): Anfangsgehalt und X4 (AGE
228
9. Lineare Regression
OF EMPLOYEE): Alter auf Y untersucht werden. Interpretieren Sie das folgende SPSS–Listing. Welches weitere Vorgehen w¨ urden Sie vorschlagen? Model Summary
Model 1
R R Square ,898a ,807
Std. Error of the Estimate 3017,00
Adjusted R Square ,805
a. Predictors: (Constant), WORK EXPERIENCE, JOB SENIORITY, BEGINNING SALARY, AGE OF EMPLOYEE ANOVAb
Model 1
Regression Residual Total
Sum of Squares 1,8E+10 4,3E+09 2,2E+10
df 4 469 473
Mean Square 4,4E+09 9102284
F 488,824
Sig. ,000a
a. Predictors: (Constant), WORK EXPERIENCE, JOB SENIORITY, BEGINNING SALARY, AGE OF EMPLOYEE b. Dependent Variable: CURRENT SALARY
Coefficientsa
Model 1
Unstandardized Coefficients B Std. Error (Constant) -2835,937 1278,840 BEGINNING SALARY 1,919 ,044 JOB SENIORITY 72,149 13,837 AGE OF EMPLOYEE -50,688 19,940 WORK EXPERIENCE -52,766 26,958
Standardi zed Coefficien ts Beta ,884 ,106 -,087 -,067
t -2,218 43,353 5,214 -2,542 -1,957
Sig. ,027 ,000 ,000 ,011 ,051
a. Dependent Variable: CURRENT SALARY
Aufgabe 9.4: In einem Restaurant wurden n = 10 Rechnungsbetr¨age (x) und die dazugeh¨origen Trinkgelder (y) in Euro erhoben. i 1 2 3 4 5 6 7 8 9 10
xi 10 30 25 7.5 42.5 35 40 25 12.5 60
yi 2 3 2 2.5 6 5 4 6 1 7
Tabelle 9.3. Quelle: Auer (2005)
a) Sch¨atzen und interpretieren Sie die Parameter des linearen Regressionsmodells. b) Bestimmen Sie die Varianz der Sch¨ atzung b.
9.6 Aufgaben und Kontrollfragen
229
c) Hat der Rechnungsbetrag einen signifikanten Einfluss auf die Trinkgeldh¨ohe? F¨ uhren Sie den Test zum Niveau α = 0.05 durch . d) Testen Sie die Hypothesen b ≥ 0.15 und b ≤ 0.1.
10. Varianzanalyse
10.1 Einleitung Die Modelle der Varianzanalyse sind spezielle lineare Regressionsmodelle, die den Einfluss (Effekt) der Faktoren (Kovariablen) auf eine stetige Responsevariable untersuchen. Im Gegensatz zur linearen Regression m¨ ussen die Kovariablen jedoch diskret vorliegen. Die Varianzanalyse unterscheidet zwei grunds¨atzliche Problemstellungen, je nachdem, ob die Effekte als fest oder als zuf¨allig angesehen werden. Beim Modell mit festen Effekten werden die Faktoren und ihre Faktorstufen (Kategorien der Kovariablen) durch den Experimentator (Versuchsleiter) festgelegt. Damit k¨ onnen nur Vergleiche zwischen den festgelegten Faktorstufen vorgenommen werden, weitere m¨ogliche, im Experiment nicht ber¨ ucksichtigte Faktorstufen sind nicht von Interesse. Das Modell mit festen Effekten dient dem mehrfachen Mittelwertsvergleich noruft die malverteilter Zufallsvariablen Y1 , . . . , Ya , Yi ∼ N (μi , σ 2 ). Man pr¨ Nullhypothese H0 : μ1 = μ2 = . . . = μa gegen die Alternative H1 : mindestens zwei Mittelwerte sind verschieden“. Diese Hypothese wird mit ” Hilfe des F -Tests gepr¨ uft, der eine Verallgemeinerung des t-Tests ist, der dem Mittelwertsvergleich zweier normalverteilter Zufallsvariablen dient. Der mehrfache Mittelwertsvergleich wird auch als Vergleich der Wirkungen von Behandlungen bezeichnet, wobei Behandlungen im weitesten Sinne des Wortes als gezielte Beeinflussung einer Responsevariablen zu verstehen sind. Verschiedene Behandlungen, die man miteinander vergleichen will, wird man sicher nicht zuf¨allig ausw¨ ahlen, sondern fest vorgeben. Daher ist in diesem Fall das Modell mit festen Effekten zu w¨ ahlen. Die festgelegten Faktorstufen m¨ ussen den vorliegenden Objekten (Beobachtungseinheiten) nach einem bestimmten Schema zugeordnet werden. Diese Zuordnung bezeichnet man als Versuchsplan. Anmerkung. Das Modell mit festen Effekten kann auch f¨ ur Vergleiche von nicht normalverteilten Responsevariablen durch nichtparametrische Verfahren herangezogen werden. Dies wird in Abschnitt 10.4 besprochen. Beispiel 10.1.1. Ein Kaufhauskonzern will feststellen, ob verschiedene Werbemaßnahmen den Umsatz beeinflussen. Hierf¨ ur werden die Werbemaßnahmen I (Inserate), II (Sonderangebote) und III (Radiowerbung) ausgew¨ahlt
232
10. Varianzanalyse
und auf 33 Filialen aufgeteilt. Die Umsatzsteigerung der Filialen nach der Werbekampagne wurde in Tabelle 10.1 festgehalten. Tabelle 10.1. Umsatzsteigerung (in 1000 DM) bei drei Werbemaßnahmen Werbung I 55.5 40.0 38.5 31.5 45.5 70.0 78.0 80.0 74.5 57.5 72.0 70.0 48.0 59.0
Werbung II 67.0 57.0 33.5 37.0 75.0 60.0 43.5 56.0 65.5 54.0 59.5
Werbung III 62.5 31.5 31.5 53.0 50.5 62.5 40.0 19.5
Beim Modell mit zuf¨ alligen Effekten sind die Faktorstufen eine Zufallsauswahl aus einer Grundmenge von Faktorstufen. Dadurch ist man weniger am Vergleich der beobachteten Faktorstufen interessiert, sondern m¨ochte vielmehr den Einfluss aller m¨ oglichen Faktorstufen beurteilen. Das Modell mit zuf¨alligen Effekten zerlegt deshalb die Gesamtvariabilit¨at (Varianz) in Komponenten, die den Einfluss jedes Faktors widerspiegeln und in eine Komponente, die nicht durch die Faktoren erkl¨ art wird (Residualvarianz). Beispiel. Aus der Gesamtpopulation Belegschaft“ werden die Arbeitszeit” werte von (z.B. drei) zuf¨ allig ausgew¨ ahlten Arbeitern bez¨ uglich ihres Anteils an der Gesamtvariabilit¨ at der Fertigungszeiten analysiert. Anmerkung. Wir beschr¨ anken uns im Folgenden auf das Modell mit festen Effekten und verweisen f¨ ur Verfahren beim Modell mit zuf¨alligen Effekten z.B. auf Toutenburg (1994) und Toutenburg (1995).
10.2 Einfaktorielle Varianzanalyse Gegeben seien a Stichproben von a normalverteilten Zufallsvariablen Yi ∼ N (μi , σ 2 ). Die Varianzen σ 2 seien unbekannt, aber in allen Grundgesamtheiten gleich. Die Stichprobenumf¨ ange seien ni , der Gesamtstichprobenumfang sei n a ni = n . i=1
10.2 Einfaktorielle Varianzanalyse
233
Definition 10.2.1. Sind alle ni gleich, so heißt der Versuchsplan balanziert, anderenfalls heißt er unbalanziert. Jede der a Stichproben der Zufallsvariablen Y1 , . . . , Ya stellt eine Stufe des Faktors A dar. Man sagt deshalb, der Faktor A wirkt in a Stufen, und zu vergleichen sind die a Effekte, die sich in den Stichprobenmittelwerten niederschlagen. Die Meßwerte sind also nach einem Faktor klassifiziert (einfache Klassifikation). Beispiele. • Faktor A: Gasgemisch beim Lasertrennschneiden 3 Stufen: 3 verschiedene Konzentrationen von Sauerstoff 3 Effekte: Schneidegeschwindigkeit des Lasers bei den 3 verschiedenen Sauerstoffkonzentrationen • Faktor A: D¨ ungung 5 Stufen: 5 verschiedene D¨ ungemittel (oder ein D¨ ungemittel mit 5 verschiedenen Konzentrationen von Phosphat) 5 Effekte: Ertrag (je ha) bei den 5 D¨ ungemitteln Die beschriebene Datensituation ist in Tabelle 10.2 dargestellt. Ein ‘+’ als Index deutet darauf hin, dass u ¨ber diesen Index summiert wurde. So ist ur zum Beispiel y1+ der Mittelwert der 1. Zeile, y++ das Gesamtmittel. F¨ ur Mittelsummierten Response verwendet man große Buchstaben (Yi+ ), f¨ werte kleine Buchstaben (yi+ ). Wir halten uns somit im Folgenden an die in der Varianzanalyse u ¨bliche Nomenklatur und verzichten – wie bereits in Kapitel 9 – auf die gesonderte Unterscheidung von Zufallsvariablen und ihren Realisierungen. Tabelle 10.2. Datensituation (einfache Klassifikation) Einzelversuche je Stufe von A 1 2 ... ni 1 2 .. . a
y11 y21
y12 y22
yl1
yl2
... ... . . .P n= ni
y1n1 y2n2 ylnl
Summe der Beobachtungen je Stichprobe (Totaler P Response) P y1j = Y1+ y2j = Y2+ P P ylj = Yl+ Yi+ = Y++
Stichprobenmittel Y1+ /n1 = y1+ Y2+ /n2 = y2+ Yl+ /nl = yl+ Y++ /n = y++
F¨ ur die Beobachtungen yij wird das folgende lineare Modell angenommen: yij = μ + αi + ǫij wobei • μ das Gesamtmittel,
(i = 1, . . . , a; j = 1, . . . , ni ) ,
(10.1)
234
10. Varianzanalyse
• αi den Effekt der i-ten Stufe des Faktors A, d.h. die durch die i-te Stufe verursachte Abweichung vom Gesamtmittel μ, und • ǫij einen zuf¨alligen Fehler (d.h. Zufallsabweichung von μ und αi ) darstellen. μ und αi sind unbekannte Parameter, die ǫij sind zuf¨allige Variablen. Folgende Voraussetzungen sind zu sichern: angig und identisch normalverteilt mit Erwar• Die Fehler ǫij sind unabh¨ tungswert 0 und Varianz σ 2 , d.h., es gilt iid.
ǫij ∼ N (0, σ 2 ) , • es gilt die sogenannte Reparametrisierungsbedingung a
αi ni = 0 .
(10.2)
i=1
Mit der gew¨ahlten Parametrisierung des Modells (10.1) ist μi = μ+αi , so dass die Nullhypothese H0 : μ1 = · · · = μa ¨ aquivalent ist zu H0 : α1 = · · · αa = 0. Im Gegensatz zum linearen Regressionsmodell y = Xβ + ǫ mit quantitativen stetigen X-Variablen sind im linearen Modell der Varianzanalyse die X-Variablen quantitativ diskret oder qualitativ. Sie gehen in das Modell nur mit ihrer Faktorstufe ein. Daher ist es notwendig, die X-Variable entsprechend zu kodieren. Betrachten wir beispielsweise die Einflussgr¨oße Werbung im Beispiel 10.1.1, so sind die nachfolgenden Situationen denkbar. Die Einflussgr¨oße sei qualitativ Kodierung Stufe 1: Inserate i=1 (a) Stufe 2: Sonderangebote i=2 Stufe 3: Radiowerbung i=3 quantitativ diskret Kodierung Stufe 1: x1 = 10000 EUR i = 1 (b) Stufe 2: x2 = 20000 EUR i = 2 Stufe 3: x3 = 70000 EUR i = 3 Die Kodierung ist von i = 1 bis a durchg¨angig zu w¨ahlen. Die Varianzanalyse kann pr¨ ufen, ob Werbung mit ihren a Stufen Einfluss auf den Umsatz hat, eine quantitative Aussage wie im Regressionsmodell Umsatz (in EUR) = 500 EUR + 100 · Werbung (in EUR) ist nicht m¨oglich. Vollst¨ andig randomisierter Versuchsplan Der einfachste und am wenigsten restriktive Versuchsplan besteht darin, die a Faktorstufen den n Versuchseinheiten in folgender Weise zuzuordnen. Wir
10.2 Einfaktorielle Varianzanalyse
235
w¨ahlen n1 Versuchseinheiten zuf¨ allig aus und ordnen sie der Faktorstufe i = 1 zu. Danach werden n2 Versuchseinheiten wiederum zuf¨allig aus den n − n1 verbleibenden Einheiten ausgew¨ ahlt und der Faktorstufe i = 2 zugeordnet a−1 usw. Die restlichen n − i=1 ni = na Einheiten erhalten die a-te Faktorstufe. Wir beschr¨ anken uns im Folgenden auf diesen Versuchsplan. Weitere Versuchspl¨ane findet man in der speziellen Literatur zur Versuchsplanung (vgl. z.B. Petersen, 1985; Toutenburg, 2002b). Bei der Versuchsplanung sollte man m¨oglichst gleiche Stichprobenumf¨ ange ni in den Gruppen anstreben (balancierter Fall), weil dann die Varianzanalyse robust gegen Abweichungen von den Voraussetzungen (Normalverteilung, gleiche Varianz) ist. 10.2.1 Darstellung als restriktives Modell Das lineare Modell (10.1) l¨ asst sich in Matrixschreibweise formulieren gem¨aß ⎞ ⎛ ⎞ ⎛ ⎛ ⎞ ǫ11 y11 1 1 0 ... 0 ⎜ . ⎟ ⎜ .. ⎟ ⎜ .. .. .. .. ⎟ ⎜ . ⎟ ⎜. . . ⎛ ⎞ ⎜ .. ⎟ .⎟ ⎟ ⎜ ⎟ ⎜ ⎜ ⎟ μ ⎟ ⎜ ⎜ y1n1 ⎟ ⎜ 1 1 0 . . . 0 ⎟ ⎜ ⎟ ⎜ ⎟ ⎜ α1 ⎟ ⎜ ǫ1n1 ⎟ ⎜ .. ⎟ ⎜ .. . . ⎟ ⎜ ⎟ ⎜ .. ⎟ ⎜ . ⎟=⎜. ⎟ ⎜ .. ⎟ + ⎜ . ⎟ , . ⎟ ⎜ ⎟ ⎜ ⎟⎝ . ⎠ ⎜ ⎜ ǫa1 ⎟ ⎜ ya1 ⎟ ⎜ 1 0 · · · 0 1 ⎟ ⎟ ⎜ ⎟ ⎜ ⎜ ⎟ αa ⎜ . ⎟ ⎜ . ⎟ ⎜. . .. .. ⎟ . ⎝ ⎝ .. ⎠ ⎝ .. .. ⎠ . ⎠ . . ǫana yana 1 0 ··· 0 1
d.h. als
y = Xβ + ǫ ,
ǫ ∼ N (0, σ 2 I)
(10.3) ′
mit X vom Typ n × (a + 1) und Rang(X) = a. Damit ist X X singul¨ar, so dass zur Sch¨atzung des (a + 1)-Vektors β′ = (μ, α1 , . . . , αa ) eine lineare Restriktion r = R′ β mit X Rang(R) = J = 1 und Rang =a+1 R′ hinzugef¨ ugt werden muss (vgl. Abschnitt 9.3.10). Wir w¨ahlen r = 0,
R′ = (0, n1 , . . . , na ) ,
(10.4)
′
also ist r = R β ¨aquivalent zu a i=1
(vgl. (10.2)).
αi ni = 0
(10.5)
236
10. Varianzanalyse
Anmerkung. Die gew¨ ahlte Restriktion (10.5) bietet den Vorteil einer sachlogisch gerechtfertigten Interpretation. Die Parameter αi sind danach die Abweichungen vom Gesamtmittel μ und somit de facto auf μ standardisiert. Die αi bestimmen also mit ihrer Gr¨ oße und ihrem Vorzeichen die relativen (positiven oder negativen) Kr¨ afte, mit denen die i-te Behandlung zu Abweichungen von μ f¨ uhrt. X hat vollen Spaltenrang a+1, so dass die Inverse (X′ X+ Die Matrix R′ RR′ )−1 existiert. Damit erhalten wir die bedingte KQ-Sch¨atzung von β ′ = (μ, α1 , . . . , αa ) b(R′ , 0) = (X′ X + RR′ )−1 X′ y ⎞ ⎛ ⎞ y++ μ ˆ ⎜ y1+ − y++ ⎟ ⎜ αˆ1 ⎟ ⎜ ⎟ ⎜ ⎟ ⎟ ⎜ ⎟ ⎜ = ⎜ y2+ − y++ ⎟ = ⎜ αˆ2 ⎟ . ⎜ ⎟ ⎜ .. ⎟ .. ⎝ ⎠ ⎝ . ⎠ . αˆa ya+ − y++
(10.6)
⎛
Beispiel 10.2.1. Wir demonstrieren die Berechnung der Sch¨atzung b(R′ , 0) ur f¨ ur den Fall a = 2. Wir erhalten mit der Bezeichnung 1′ni = (1, . . . , 1) f¨ den ni -Vektor aus Einsen folgende Darstellungen: 1n1 1n1 0 X = , 1n2 0 1n2 n,3 ⎞ ⎛ ′ 1n1 1′n2 1n1 1n1 0 ′ ′ ⎠ ′ ⎝ X X = 1n1 0 1n2 0 1n2 0′ 1′n2 ⎛ ⎞ n1 + n2 n1 n2 = ⎝ n1 n1 0 ⎠ , n2 0 n2 ⎛ ⎞ 0 RR′ = ⎝ n1 ⎠ (0 n1 n2 ) (10.7) n2 ⎞ ⎛ 0 0 0 = ⎝ 0 n21 n1 n2 ⎠ . 0 n1 n2 n22 Mit n = n1 + n2 folgt ⎞ ⎛ n2 n n1 (X′ X + RR′ ) = ⎝ n1 n1 + n21 n1 n2 ⎠ , n2 n1 n2 n2 + n22
10.2 Einfaktorielle Varianzanalyse
|X′ X + RR′ | = n1 n2 n2 , ⎛
(X′ X + RR′ )−1 =
X′ y = Dabei sind
Y1+
1
n1 n2 n2
⎛
1′n1 ⎝ 1′n 1 ′
237
n1 n2 (1+n)
−n1 n2
−n1 n2
n2 (n(1+n2 )−n2 )
−n1 n2 (n−1)
−n1 n2
−n1 n2 (n−1)
n1 (n(1+n1 )−n1 )
⎝
1′n2 ′
⎞
0 ⎠ 0 1′n2
y1 y2
⎛
−n1 n2
⎞
Y++ = ⎝ Y1+ ⎠ . Y2+
⎞
⎠,
(10.8) (10.9)
⎞ ⎞ ⎛ y21 y11 ⎟ ⎟ ⎜ ⎜ y1 = ⎝ ... ⎠ , y2 = ⎝ ... ⎠ , y2n2 y1n1 n1 n2 = i=1 y1i , Y2+ = i=1 y2i , Y++ = Y1+ + Y2+ . ⎛
Die zeilenweise Multiplikation von (10.8) mit (10.9) ergibt
n1 n2 (1 + n)Y++ − n1 n2 Y1+ − n1 n2 Y2+ n1 n2 n2 nY++ Y++ = = = y++ , n2 n −n1 n2 Y++ + n2 (n(1 + n2 ) − n2 )Y1+ − n1 n2 (n − 1)Y2+ α ˆ1 = n1 n2 n2 Y++ n + nn2 − n2 n−1 =− 2 + Y1+ − (Y++ − Y1+ ) n n1 n2 n2 n + nn2 − n2 + nn1 − n1 1−1+n = Y1+ − Y++ n1 n2 n2 Y++ Y1+ = − = y1+ − y++ n1 n μ ˆ=
und analog α ˆ 2 = y2+ − y++ . Damit erhalten wir schließlich die bedingte KQ-Sch¨atzung (10.6) b ((0, n1 , n2 ), 0) = (X′ X + RR′ )−1 X′ y ⎛ ⎞ ⎛ ⎞ μ ˆ y++ = ⎝α ˆ 1 ⎠ = ⎝ y1+ − y++ ⎠ . α ˆ2 y2+ − y++
(10.10)
10.2.2 Zerlegung der Fehlerquadratsumme Zur Herleitung der Teststatistik zum Pr¨ ufen von H0 : α1 = · · · = αa = 0 gehen wir analog zum linearen Regressionsmodell vor und zerlegen die
238
10. Varianzanalyse
Fehlerquadratsumme (vgl. Abschnitt 9.3.5). Dazu bestimmen wir zun¨achst die gesch¨atzten Responsewerte yˆij in unserem speziellen Modell. Mit b(R′ , 0) aus (10.10) und X aus (10.7) erhalten wir im Fall a = 2 y1+ 1n1 ′ ˆ y = Xb(R , 0) = . y2+ 1n2 Allgemein gilt analog f¨ ur beliebiges a ⎛ ⎞ y1+ 1n1 ⎜ ⎟ .. ˆ=⎝ y ⎠. .
(10.11)
ya+ 1na
Die Zerlegung der Fehlerquadratsumme (vgl. Abschnitt 9.3.5) n t=1
(yt − y¯)2 =
n t=1
(yt − yˆt )2 +
n t=1
(ˆ yt − y¯)2
hat im Modell (10.3) mit den neuen Bezeichnungen und mit yˆij = yi+ gem¨aß (10.11) die Gestalt ni a i=1 j=1
(yij − y++ )2 =
ni a i=1 j=1
(yij − yi+ )2 +
a i=1
ni (yi+ − y++ )2
bzw. in der Nomenklatur der Varianzanalyse (SQRegression = SQA gesetzt) SQT otal = SQResidual + SQA . Die Quadratsumme SQResidual =
ni a i=1 j=1
(yij − yi+ )2
mißt die Variabilit¨ at innerhalb jeder Behandlung, w¨ahrend die Quadratsumme a SQA = ni (yi+ − y++ )2 i=1
die Variabilit¨atsunterschiede der Responsevariablen zwischen den Stufen des Faktors A, also den eigentlichen Behandlungseffekt mißt. Alternativ lassen sich die Quadratsummen wie folgt darstellen: SQT otal = SQA = SQResidual =
ni a
i=1 j=1 ni a
i=1 j=1 ni a i=1 j=1
ni a
(yij − y++ )2 = (yi+ − y++ )2 = (yij − yi+ )2 =
2 2 yij − ny++ ,
(10.12)
2 2 ni yi+ − ny++ ,
(10.13)
i=1 j=1 a
i=1 ni a i=1 j=1
2 yij −
a i=1
2 ni yi+ . (10.14)
10.2 Einfaktorielle Varianzanalyse
239
Wegen der vorausgesetzten Normalverteilung sind die Quadratsummen jeweils χ2 -verteilt mit den zugeh¨ origen Freiheitsgraden df . Die Quotienten SQ/df bezeichnet man als M Q. 10.2.3 Sch¨ atzung von σ 2 In (9.11) haben wir f¨ ur das lineare Regressionsmodell y = Xβ + ǫ als erwartungstreue Sch¨atzung f¨ ur σ 2 die Statistik s2 =
1 (y − Xb)′ (y − Xb) n−K
(10.15)
hergeleitet. In unserem Spezialfall des Modells (10.3) und unter Verwendung von ⎞ ⎛ y1+ 1n1 ⎜ y2+ 1n2 ⎟ ⎟ ⎜ ˆ = Xb(R′ , 0) = ⎜ y ⎟ .. ⎠ ⎝ . ya+ 1na
erhalten wir analog zu (10.15) mit K = a:
⎛
⎞ y1 − y1+ 1n1 1 ⎟ ⎜ .. s2 = ((y1 − y1+ 1n1 )′ , . . . , (ya − ya+ 1na )′ ) ⎝ ⎠ . n−a ya − ya+ 1na ni a 1 = (yij − yi+ )2 n − a i=1 j=1 = M QResidual .
Aus dem Modell (10.1) folgt ǫi+ ∼ N
yi+ = μ + αi + ǫi+ ,
σ2 0, ni
und damit erhalten wir E(M QResidual ) =
=
=
1 n−a 1 n−a 1 n−a 2
=σ .
⎡ ⎤ ni a E⎣ (yij − yi+ )2 ⎦ i=1 j=1
⎡ ⎤ ni a E⎣ (ǫ2ij + ǫ2i+ − 2ǫij ǫi+ )⎦ i=1 j=1
ni a
(σ 2 +
i=1 j=1
σ2 σ2 −2 ) ni ni
(10.16)
240
10. Varianzanalyse
M QResidual ist also eine erwartungstreue Sch¨atzung von σ 2 . Wir bestimmen nun den Erwartungswert von M QA . Aus (10.16) folgt mit (10.5) a
y++ = μ +
1 ni αi + ǫ++ n i=1
σ2 = μ + ǫ++ , ǫ++ ∼ N 0, , n ⎡ ⎤ ni ni a 1 E⎣ ǫij ǫij ⎦ E(ǫi+ ǫ++ ) = ni n j=1 i=1 j=1 =
(10.17)
σ2 . n
Also gilt yi+ − y++ = αi + ǫi+ − ǫ++ , σ2 σ2 E(yi+ − y++ )2 = α2i + − ni n und damit a
n
i 1 E(yi+ − y++ )2 a − 1 i=1 j=1 a ni α2i = σ 2 + i=1 . a−1
E(M QA ) =
(10.18)
Falls alle αi = 0 sind, gilt E(M QA ) = σ 2 , anderenfalls ist E(M QA ) > σ 2 . 10.2.4 Pr¨ ufen des Modells Wir betrachten das lineare Modell (10.1) yij = μ + αi + ǫij mit der Nebenbedingung
(i = 1, . . . , a , j = 1, . . . , ni ) a
ni αi = 0 .
i=1
Die Pr¨ ufung der Hypothese
H0 : α1 = · · · = αa = 0 bedeutet den Vergleich der Modelle H0 :
yij = μ + ǫij
10.2 Einfaktorielle Varianzanalyse
und H1 : yij = μ + αi + ǫij
mit
a
ni αi = 0 ,
241
(10.19)
i=1
d.h. die Pr¨ ufung von
H0 : α1 = · · · = αa = 0 (Parameterraum Ω ′ )
(10.20)
gegen H1 : αi = 0
f¨ ur mindestens zwei i (Parameterraum Ω).
Die zugeh¨orige Likelihood-Quotienten-Teststatistik (vgl. (9.25)) F =
2 2 n−K σ ˆΩ ˆΩ ′ − σ 2 σ ˆΩ K−l
wird damit zu (vgl. auch (9.35)) SQT otal − SQResidual n − a SQResidual a−1 n−a SQA . = SQResidual a − 1
F =
(10.21)
Wie wir in Abschnitt 10.2.3 gezeigt haben, ist M QResidual =
SQResidual n−a
eine erwartungstreue Sch¨ atzung von σ 2 . Unter H0 : α1 = · · · = αa = 0 ist M QA ebenfalls ein erwartungstreuer Sch¨ atzer von σ 2 (vgl. (10.18)). Zum Pr¨ ufen von H0 verwendet man also die Testgr¨oße F =
M QA , M QResidual
(10.22)
die unter H0 eine Fa−1,n−a -Verteilung besitzt. F¨ ur F > fa−1,n−a;1−α wird H0 abgelehnt. F¨ ur die Durchf¨ uhrung der Varianzanalyse wird das Schema der Tabelle 10.3 verwendet. Anmerkung. Wir haben uns bei der Herleitung der Teststatistik (10.22) auf die Ergebnisse aus Kapitel 9 gest¨ utzt und den Nachweis der Unabh¨angigkeit ahler und Nenner von F (10.22) nicht durchgef¨ uhrt. der χ2 -Verteilungen im Z¨ Eine M¨oglichkeit zum Nachweis, dass SQA und SQResidual stochastisch unabh¨angig sind, basiert auf dem Theorem von Cochran (vgl. Kapitel 11).
242
10. Varianzanalyse Tabelle 10.3. Tafel der Varianzanalyse – einfache Klassifikation
Variationsursache
SQ
Freiheitsgrade
Zwischen den Stufen des Faktors (Faktor A)
a−1
Innerhalb der Stufen des Faktors (Residual)
n−a
Gesamt (Total)
n−1
a P i=1
2 2 ni yi+ −ny++
a n P Pi i=1 j=1
2 yij −
a n P Pi i=1 j=1
a P i=1
2 ni yi+
MQ
Pr¨ ufwert F
SQA a−1
M QA M QResidual
SQResidual n−a
2 2 yij −ny++
Beispiel 10.2.2 (Fortsetzung von Beispiel 10.1.1). Die ermittelten Umsatzsteigerungen stellen ein einfach klassifiziertes Datenmaterial dar, wobei der Faktor A den Einfluss der Werbung ausdr¨ uckt; er wirkt hier in a = 3 Stufen (Werbung I, II, III). Die Zusammenstellung der Meßwerte erfolgt gem¨aß Tabelle 10.4 in der Nomenklatur der Varianzanalyse. Die Anwendung der Formeln (10.12) bis (10.14) ergibt SQT otal = (55.52 + 40.02 + · · · + 19.52 ) − 33 · 53.912 = 103700 − 95907.51
= 7792.49 , SQA = 14 · 58.572 + 11 · 55.272 + 8 · 43.882 − 33 · 53.912 = 97032.37 − 95907.51 = 1124.86 ,
SQResidual = SQT otal − SQA = 6667.63 . Damit erh¨alt man die Tafel der Varianzanalyse (Tabelle 10.5). Der Testwert F = 2.53 < 3.32 = f2,30;0.95 ist kleiner als der kritische Wert, so dass die Nullhypothese H0 : αi = α2 = α3 = 0 bzw. H0 : μ1 = μ2 = μ3 nicht abgelehnt wird. Ein Effekt des Faktors Werbung ist nicht nachweisbar. Mit SPSS erhalten wir die Ausgabe in Abbildung 10.1. Wir erhalten die Teststatistik F mit einem p-value von 0.0954 > 0.05, so dass wir H0 nicht ablehnen. Anmerkung. Vergleichen wir die Ergebnisse im SPSS-Ausdruck mit unseren eigenen Berechnungen, so stellen wir relativ große Abweichungen fest. Diese Abweichungen entstehen dadurch, dass wir bei der Demonstration des Rechenwegs mit den gerundeten Teilergebnissen gerechnet haben. Diese Rundungsfehler ziehen sich bis zum Endergebnis durch und erkl¨aren die Abweichungen.
10.3 Multiple Vergleiche von einzelnen Mittelwerten
243
Tabelle 10.4. Umsatzwerte aus Tabelle 10.1
(I) (II) (III)
j i 1 2 3
(I) (II) (III)
j i 1 2 3
1
2
3
4
5
6
7
8
9
10
55.5 67.0 62.5
40.0 57.0 31.5
38.5 33.5 31.5
31.5 37.0 53.0
45.5 75.0 50.5
70.0 60.0 62.5
78.0 43.5 40.0
80.0 56.0 19.5
74.5 65.5
57.5 54.0
11
12
13
14
Yi+
72.0 59.5
70.0
48.0
59.0
820 608 351 1779
n=33
yi+ = = = =
Y1+ Y2+ Y3+ Y++
58.57 55.27 43.88 53.91
= = = =
y1+ y2+ y3+ y++
Tabelle 10.5. Tafel der Varianzanalyse zum Beispiel 10.2.2 Faktor A Residual Total
df 2 30 32
SQ 1124.86 6667.63 7792.49
MQ 562.43 222.25
F 2.53
ANOVA Sum of Squares Y
Between Groups Within Groups Total
df
Mean Square
F 2,543
1130,242
2
565,121
6665,485
30
222,183
7795,727
32
Sig. ,095
Abb. 10.1. SPSS-Output zu Beispiel 10.2.2
10.3 Multiple Vergleiche von einzelnen Mittelwerten Die bisher durchgef¨ uhrte Varianzanalyse pr¨ uft H0 : α1 = . . . = αa = 0 bzw. H0 : μ1 = . . . = μa . Falls H0 nicht abgelehnt wird, ist man mit der Analyse fertig – ein Effekt des Faktors A ist nicht nachweisbar. Im Fall, dass H0 abgelehnt wird, ist ein signifikanter Einfluss des Faktors A nachgewiesen. Im n¨ achsten Schritt interessiert man sich nun daf¨ ur, ob und zwischen welchen der a Faktorstufen signifikante Unterschiede bestehen. Ein signifikanter Unterschied zwischen zwei Faktorstufen i und j bedeutet, dass der doppelte t-Test die Nullhypothese H0 : μi = μj zugunsten von H1 : μi = μj zum Niveau α ablehnt. Werden nun zwei oder mehr Hypothesen, z.B. H0 : μ1 = μ2 , H0 : μ2 = uft, so kann man nicht jeden Test einzeln zum Niveau μ3 , . . . gleichzeitig gepr¨ α durchf¨ uhren, sondern muß das Testniveau jedes Tests so festlegen, dass f¨ ur
244
10. Varianzanalyse
alle Tests insgesamt das Testniveau α eingehalten wird. Dies liegt daran, dass die einzelnen Tests nicht unabh¨ angig voneinander sind. Eine Testprozedur, die z.B. paarweise Mittelwertsvergleiche simultan so durchf¨ uhrt, dass der Fehler 1. Art f¨ ur alle paarweisen Tests insgesamt ein vorgegebenes α nicht u ¨berschreitet, heißt multipler Test zum Niveau α. Es existiert eine Vielzahl von statistischen Verfahren zum Vergleich von einzelnen Mittelwerten oder Gruppen von Mittelwerten. Diese Verfahren haben folgende unterschiedliche Ziele: • Vergleich aller m¨ oglichen Paare von Mittelwerten (bei a Stufen von A also a(a − 1)/2 verschiedene Paare), • Vergleich aller anderen (a − 1) Mittelwerte mit einer vorher festgelegten Kontrollgruppe, • Vergleich aller Paare von Behandlungen, die vorher ausgew¨ahlt wurden, • Vergleich von beliebigen Linearkombinationen der Mittelwerte. Sie unterscheiden sich – neben ihrer Zielsetzung – vor allem in der Art und Weise, wie sie den Fehler 1. Art kontrollieren (vgl. z.B. Toutenburg, 1994). Wir beschr¨anken uns hier auf die simultane Testprozedur nach Bonferroni. Angenommen, wir wollen k ≤ a Vergleiche mit einem multiplen Testniveau von h¨ochstens α durchf¨ uhren, so splittet die Bonferroni-Methode den Fehler 1. Art α zu gleichen Teilen α/k auf die k Vergleiche auf. Grundlage hierf¨ ur ist die Bonferroni-Ungleichung. Theorem 10.3.1 (Ungleichung von Bonferroni). Seien A1 , . . . , Ak beliebige zuf¨allige Ereignisse. Dann gilt P (A1 ∪ · · · ∪ Ak ) ≤
k
P (Ai ) .
(10.23)
i=1
Wir beschr¨anken uns auf den folgenden Fall. Wir betrachten die k Testprobleme H01 gegen H11 , H02 gegen H12 , . . ., H0k gegen H1k mit H0i : μji = μj ′ i ,
H1i : μji = μj ′ i
(i = 1, . . . , k) .
Wir w¨ahlen die Teststatistiken der doppelten t-Tests (vgl. (7.13)) Ti = T (Yji , Yj ′ i ) und f¨ uhren zu jedem Vergleich einen Niveau-α/k-Test durch. Der zugeh¨orige kritische Bereich sei Ki . Sei Ai das zuf¨ allige Ereignis Ti ∈ Ki“, so gilt ” P (Ti ∈ Ki |H0i ) = α/k. Dann gilt nach der Bonferroni-Ungleichung P {(T1 ∈ K1 |H01 )∪· · · ∪(Tk ∈ Kk |H0k )} ≤
k i=1
P (Ti ∈ Ki |H0i ) =
k α i=1
k
= α.
10.3 Multiple Vergleiche von einzelnen Mittelwerten
245
Dieser multiple Test, der k paarweise Mittelwertsvergleiche mit den zugeh¨origen paarweisen t-Tests zum Niveau α/k durchf¨ uhrt, heißt auch (α)Bonferroni-t-Test. Anmerkung. Ausgew¨ ahlte multiple Tests und ihre Realisierung an Beispielen (mit SPSS) sind in Toutenburg (1994) dargestellt. Beispiel 10.3.1. Wir nehmen an, dass wir den Einfluss von verschiedenen Arten des Trainings (Faktor A, a = 4 Stufen) auf die Leistung von Leichtathleten untersuchen. Wir f¨ uhren jeweils r = 6 Wiederholungen in einem randomisierten Versuch durch und erhalten Tabelle 10.6. Tabelle 10.6. Leistungen von Leichtathleten bei verschiedenen Trainingsmethoden Faktorstufe i 1 2 3 4
1 6.5 3.8 3.5 3.0
2 8.0 4.0 4.5 2.8
Wiederholungen j 3 4 5 9.5 12.7 14.8 3.9 4.2 3.6 3.2 2.1 3.5 2.2 3.4 4.0
6 14.0 4.4 4.0 3.9
Die Tafel der Varianzanalyse ist in Tabelle 10.7 angegeben. H0 : μ1 = · · · = μ4 wird abgelehnt, da F = 25.6475 > 3.10 = f3,20;095 ist. Tabelle 10.7. Tafel der Varianzanalyse zum Beispiel 10.3.1 Faktor A Residual Total
df 3 20 23
SQ 245.6713 63.8583 309.5296
MQ 81.8904 3.1929
F 25.6475
Wir f¨ uhren nun z.B. die folgenden k = 3 paarweisen Vergleiche durch, um herauszufinden, ob je zwei Trainingsmethoden zu signifikanten Mittelwertsunterschieden f¨ uhren. H1i i Vergleich H0i 1 1/2 μ1 = μ2 μ1 = μ2 2 2/3 μ2 = μ3 μ2 = μ3 3 3/4 μ3 = μ4 μ3 = μ4
Wir w¨ahlen α = 0.05, so dass f¨ ur jeden Einzelvergleich ein Signifikanzniveau von α/3 = 0.0166 gilt. F¨ ur die Teststatistik gilt mit n1 = n2 = 6 und s = 1.7869 * yi+ − yj+ 1 1 T (y) = + ∼ t10 . 1.7869 6 6 Eine Nullhypothese wird abgelehnt, falls T (y) > t10;0.9834 = 2.47 ist. Wir erhalten folgendes Ergebnis f¨ ur die multiplen Vergleiche nach Bonferroni:
246
10. Varianzanalyse
Vergleich 1/2 2/3 3/4
Testgr¨ oße 4.98 1.47 0.58
∗
Der Vergleich der Gruppen 1/2 ist signifikant, die beiden anderen Vergleiche nicht. Ein Unterschied zwischen den Trainingsmethoden 1 und 2 ist also nachgewiesen. Mit SPSS erhalten wir die Ausgabe in Abbildung 10.2 und 10.3 (S.241).
ANOVA Sum of Squares LEISTUNG
Between Groups Within Groups Total
Mean Square
df
245,671
3
81,890
63,858
20
3,193
309,530
23
F
Sig.
25,648
,000
Group Statistics
LEISTUNG
TRAINING 1 2
N 6 6
Mean 10,9167 3,9833
Std. Deviation 3,3997 ,2858
Std. Error Mean 1,3879 ,1167
Independent Samples Test Levene’s Test for Equality of Variances F LEISTUNG
Equal variances assumed Equal variances not assumed
31,819
Sig. ,000
t
t-test for Equality of Means Sig. Mean (2-tailed) Difference df
Std. Error Difference
4,978
10
,001
6,9333
1,3928
4,978
5,071
,004
6,9333
1,3928
Abb. 10.2. SPSS-Output zu Beispiel 10.3.1
10.4 Rangvarianzanalyse – Kruskal-Wallis-Test Das bisherige Modell aus Abschnitt 10.2 war auf den Fall zugeschnitten, dass die Responsevariable normalverteilt ist. Wir betrachten nun die Situation, dass der Response entweder stetig, aber nicht normalverteilt ist oder dass ein ordinaler Response vorliegt. F¨ ur diese in den Anwendungen h¨aufig auftretende Datenlage wollen wir den einfaktoriellen Vergleich von Behandlungen mit einem nichtparametrischen Verfahren durchf¨ uhren. Dabei gehen wir wieder vom vollst¨andig randomisierten Versuchsplan aus.
10.4 Rangvarianzanalyse – Kruskal-Wallis-Test
247
Group Statistics
LEISTUNG
TRAINING 2 3
N 6 6
Mean 3,9833 3,4667
Std. Deviation ,2858 ,8116
Std. Error Mean ,1167 ,3313
Independent Samples Test Levene’s Test for Equality of Variances F LEISTUNG
Equal variances assumed Equal variances not assumed
Sig.
1,964
,191
t-test for Equality of Means Sig. Mean (2-tailed) Difference df
t
Std. Error Difference
1,471
10
,172
,5167
,3513
1,471
6,221
,190
,5167
,3513
Std. Deviation ,8116 ,6882
Std. Error Mean ,3313 ,2810
t-test for Equality of Means Sig. Mean (2-tailed) Difference df
Std. Error Difference
Group Statistics
LEISTUNG
TRAINING 3 4
N 6 6
Mean 3,4667 3,2167
Independent Samples Test Levene’s Test for Equality of Variances F LEISTUNG
Equal variances assumed Equal variances not assumed
,000
Sig. ,984
t ,575
10
,578
,2500
,4344
,575
9,740
,578
,2500
,4344
Abb. 10.3. SPSS-Output zu Beispiel 10.3.1 (Fortsetzung)
Die Responsewerte seien zweifach indiziert als yij mit i = 1, . . . , a (Faktorstufen) und j = 1, . . . , ni (Wiederholungen je Faktorstufe). Die Datenstruktur ist in Tabelle 10.8 gegeben. Tabelle 10.8. Datenmatrix im vollst¨ andig randomisierten Versuchsplan
P
Mittelwert
1 y11 .. . y1n1 Y1+ y1+
Faktorstufe 2 ··· a y21 ya1 .. .. . . y2n2 yana Y2+ · · · Ya+ y2+ ··· ya+
Y++ y++
248
10. Varianzanalyse
Wir w¨ahlen das folgende lineare Modell yij = μi + ǫij
(10.24)
E(ǫij ) = 0
(10.25)
und nehmen an, dass gilt. Ferner setzen wir voraus, dass die Beobachtungen innerhalb jeder Faktorstufe und zwischen den Faktorstufen unabh¨angig sind. Der Test baut – analog zum U -Test von Mann und Whitney im Zweistichprobenfall (vgl. (8.5)) – auf dem Vergleich der Rangsummen der Gruppen auf. Die Rang-Prozedur ordnet dem kleinsten Wert aller a Faktorstufen den Rang 1, . . ., dem gr¨oßten Wert aller a Faktorstufen den Rang n = ni zu. Diese R¨ ange Rij ersetzen die Originalwerte yij des Response in Tabelle 10.8 gem¨aß Tabelle 10.9. Tabelle 10.9. Rangwerte zu Tabelle 10.8 1 R11 .. . R1n1 R1+ r1+
P
Mittelwert
Faktorstufe 2 ··· R21 .. . R2n2 R2+ ··· r2+ ···
a Ra1 .. . Rana Ra+ ra+
R++ r++
Die Rangsummen und Rangmittelwerte sind Ri+ =
ni
Rij ,
R++ =
j=1
a i=1
n(n + 1) , 2
R++ n+1 = . n 2 a In Analogie zur Fehlerquadratsumme SQA = i=1 ni (yi+ − y++ )2 (vgl. (10.13)) haben Kruskal und Wallis folgende Teststatistik konstruiert (Kruskal und Wallis, 1952), ri+ =
Ri+ , ni
Ri+ =
r++ =
a
H=
12 ni (ri+ − r++ )2 n(n + 1) i=1 a
2 Ri+ 12 = − 3(n + 1) . n(n + 1) i=1 ni
(10.26)
Die Testgr¨oße H ist ein Maß f¨ ur die Varianz der Rangmittelwerte zwischen den Faktorstufen. F¨ ur den Fall ni ≤ 5 existieren Tabellen f¨ ur die exakten kritischen Werte (vgl. z.B. Sachs, 1978; Hollander und Wolfe, 1973). F¨ ur ni > 5 (i = 1, . . . , a) ist H approximativ χ2a−1 -verteilt. F¨ ur H > ca−1;1−α wird die Hypothese H0 : μ1 = · · · = μa zugunsten von H1 abgelehnt.
10.4 Rangvarianzanalyse – Kruskal-Wallis-Test
249
Korrektur bei Bindungen: Treten gleiche Responsewerte yij auf, denen dann mittlere R¨ange zugewiesen werden, so wird folgende korrigierte Teststatistik benutzt: r −1 3 k=1 (tk − tk ) . (10.27) HKorr = H 1 − n3 − n Dabei ist r die Anzahl von Gruppen mit gleichen Responsewerten (und damit gleichen R¨angen) und tk die Anzahl der jeweils gleich großen Responsewerte innerhalb einer Gruppe. Anmerkung. Liegen Bindungen vor und gilt bereits H > ca−1;1−α , so muß wegen HKorr > H der korrigierte Wert nicht mehr berechnet werden. Beispiel 10.4.1. Wir vergleichen die Umsatzsteigerung aus Tabelle 10.1 nun nach dem Kruskal-Wallis-Test. Wir ordnen die Werte in Tabelle 10.1 spaltenweise der Gr¨oße nach und vergeben die R¨ ange (Tabelle 10.10). Tabelle 10.10. Berechnung der R¨ ange und Rangsummen zu Tabelle 10.1 Werbung I Meßwert Rang 31.5 3 38.5 7 40.0 8.5 45.5 11 48.0 12 55.5 16 57.5 19 59.0 20 70.0 27.5 70.0 27.5 72.0 29 74.5 30 78.0 32 80.0 33 n1 = 14 R1+ = 275.5 r1+ = 19.68
Werbung II Meßwert Rang 33.5 5 37.0 6 43.5 10 54.0 15 56.0 17 57.0 18 59.5 21 60.0 22 65.5 25 67.0 26 75.0 31
Werbung III Meßwert Rang 19.5 1 31.5 3 31.5 3 40.0 8.5 50.5 13 53.0 14 62.5 23.5 62.5 23.5
n2 = 11 R2+ = 196.0 r2+ = 17.82
n3 = 8 R3+ = 89.5 r3+ = 11.19
Die Pr¨ ufgr¨oße auf der Basis von Tabelle 10.10 wird 12 275.52 196.02 89.52 H= + + − 3 · 34 33 · 34 14 11 8 = 4.044 < 5.99 = c2;0.95 . Da Bindungen vorliegen und H nicht signifikant ist, muß HKorr berechnet werden. Aus Tabelle 10.10 entnehmen wir
250
10. Varianzanalyse
r = 4,
t1 = 3 (3 R¨ ange von 3) t2 = 2 (2 R¨ ange von 8.5) t3 = 2 (2 R¨ ange von 23.5) t4 = 2 (2 R¨ ange von 27.5) 3 3 −3) −1 ] = [1 − Korrekturglied: [1 − 3·(2 −2)+(3 333 −33
42 −1 35904 ]
= [0.9988]−1 ,
HKorr = 4.049 < 5.99 = c2;0.95 . Die Entscheidung lautet: die Nullhypothese H0 : μ1 = μ2 = μ3 wird nicht abgelehnt, ein Effekt des Faktors Werbung“ ist nicht nachweisbar. ” Mit SPSS erhalten wir die Ausgabe in Abbildung 10.4.
Ranks
WERBUNG 1,00 2,00 3,00 Total
Y
N 14 11 8 33
Mean Rank 19,68 17,82 11,19
Test Statisticsa,b
Chi-Square df Asymp. Sig.
Y 4,048 2 ,132
a. Kruskal Wallis Test b. Grouping Variable: WERBUNG
Abb. 10.4. SPSS-Output zu Beispiel 10.4.1
10.5 Zweifaktorielle Varianzanalyse mit Wechselwirkung 10.5.1 Definitionen und Grundprinzipien In der Praxis der geplanten Studien kann man h¨aufig davon ausgehen, daß ein Response Y nicht nur von einer Variablen, sondern von einer Gruppe von Einflussgr¨oßen (Faktoren) abh¨ angt. Versuchspl¨ane, die den Response f¨ ur alle m¨oglichen Kombinationen von zwei oder mehr Faktoren auswerten, heißen faktorielle Experimente oder Kreuzklassifikation. Seien l Faktoren
10.5 Zweifaktorielle Varianzanalyse mit Wechselwirkung
251
A1 , . . . , Al mit ra1 , . . . , ral Faktorstufen (Auspr¨agungen) gegeben, so erfordert der vollst¨andige Faktorplan r = Πri Versuchseinheiten f¨ ur einen Durchlauf. Damit ist klar, daß man sich sowohl bei der Anzahl der Faktoren als auch bei der Anzahl ihrer Stufen beschr¨ anken muß. Bei faktoriellen Experimenten sind zwei Grundmodelle zu unterscheiden – Modelle mit und ohne Wechselwirkungen. Betrachten wir den Fall zweier Faktoren A und B mit jeweils zwei Faktorstufen A1 , A2 bzw. B1 , B2 . Als Haupteffekte eines Faktors bezeichnet man die Ver¨anderung des Response bei Wechsel der Faktorstufe. Betrachten wir Tabelle 10.11, so kann der Haupteffekt des Faktors A als Differenz zwischen den mittleren Responsewerten beider Faktorstufen A1 und A2 interpretiert werden: λA =
60 40 − = 10 . 2 2
Analog ist der Haupteffekt B λB =
70 30 − = 20 . 2 2
Tabelle 10.11. Zweifaktorielles Experiment ohne Wechselwirkung
Faktor A
A1 A P2
Faktor B B1 B2 10 30 20 40 30 70
P
40 60 100
Die Effekte von A auf den beiden Stufen von B sind f¨ ur B1 : 20 − 10 = 10 ,
f¨ ur B2 : 40 − 30 = 10 ,
also auf beiden Stufen identisch. Analog gilt f¨ ur Effekt B f¨ ur A1 : 30 − 10 = 20 ,
f¨ ur A2 : 40 − 20 = 20 ,
so dass auch hier kein von A abh¨ angender Effekt sichtbar ist. Die Responsekurven verlaufen parallel (Abbildung 10.5). Die Auswertung der Tabelle 10.12 dagegen ergibt folgende Effekte: 80 − 40 = 20 , 2 90 − 30 = 30 , Haupteffekt λB = 2 Haupteffekt λA =
Effekte von A f¨ ur B1 : 20 − 10 = 10 ,
f¨ ur B2 : 60 − 30 = 30 ,
252
10. Varianzanalyse
B2 •
40 30
B2 •
• B1
20 10
• B1
0 A1
A2
Abb. 10.5. Zweifaktorielles Experiment ohne Wechselwirkung Tabelle 10.12. Zweifaktorielles Experiment mit Wechselwirkung
Faktor A
A1 A P2
Faktor B B1 B2 10 30 20 60 30 90
P
40 80 120
Effekte von B f¨ ur A1 : 30 − 10 = 20 ,
f¨ ur A2 : 60 − 20 = 40 .
Hier h¨angen die Effekte wechselseitig von der Stufe des anderen Faktors ab, der Wechselwirkungseffekt betr¨ agt 20. Die Responsekurven verlaufen nicht mehr parallel (Abbildung 10.6).
60 50 40 30 20 10 0
B2 • B2 • • B1 A1
• B1 A2
Abb. 10.6. Zweifaktorielles Experiment mit Wechselwirkung
Anmerkung. Der Begriff faktorielles Experiment beschreibt nicht die Art des Versuchsplans, sondern die vollst¨ andig gekreuzte Kombination der Faktoren (Behandlungen). Faktorielle Experimente k¨onnen als vollst¨andig randomisierter Versuchsplan, als Randomisierter Blockplan, als Lateinisches Quadrat usw. angelegt werden.
10.5 Zweifaktorielle Varianzanalyse mit Wechselwirkung
253
Das faktorielle Experiment sollte angewandt werden • bei Vorstudien, in denen m¨ ogliche Kovariablen auf ihre statistische Relevanz gepr¨ uft werden, • zur Bestimmung von bivariaten Wechselwirkungen, • zur Bestimmung von m¨ oglichen Rangordnungen der Faktoren bez¨ uglich ihrer Bedeutung f¨ ur den Response. Gegen¨ uber dem Einfaktorplan bietet das faktorielle Experiment den Vorteil, Haupteffekte mit der gleichen Pr¨ azision, aber mit einem geringeren Stichprobenumfang zu sch¨ atzen. Angenommen, wir wollen – wie eben in den Beispielen – die Haupteffekte A und B sch¨atzen. Dann w¨ are folgender Einfaktorplan mit zwei Wiederholungen m¨oglich (vgl. z.B. Montgomery, 1976): (1)
A1 B1 (1) A2 B1
(1)
(2)
A1 B2
A1 B1 (2) A2 B1
(2)
A1 B2
n = 3 + 3 = 6 Beobachtungen ; 1: (1) (1) (2) (2) (A2 B1 − A1 B1 ) + (A2 B1 − A1 B1 ) , 2 ; 1: (1) (1) (2) (2) Sch¨atzung von λB : (A1 B1 − A1 B2 ) + (A1 B1 − A1 B2 ) . 2 Sch¨atzungen derselben Pr¨ azision erh¨ alt man im zweifaktoriellen Experiment Sch¨atzung von λA :
A1 B1 A2 B1
A1 B2 A2 B2
mit bereits n = 4 Beobachtungen gem¨ aß λA = und
1 [(A2 B1 − A1 B1 ) + (A2 B2 − A1 B2 )] 2
1 [(A1 B2 − A1 B1 ) + (A2 B2 − A1 B1 )] . 2 Daneben kann das faktorielle Experiment bei r ≥ 2 Wiederholungen Wechselwirkungen aufdecken und damit ein ad¨aquates Modell liefern. Die Vernachl¨assigung oder das Nichterkennen von Wechselwirkungen kann erhebliche Fehlinterpretationen der Haupteffekte zur Folge haben. Im Prinzip sind bei signifikanter Wechselwirkung die Haupteffekte von untergeordneter Bedeutung, da die Wirkung des einen Faktors auf den Response nicht mehr separat, sondern stets unter Einbeziehung des anderen Faktors zu interpretieren ist. λB =
254
10. Varianzanalyse
10.5.2 Modellannahmen Wir nehmen an, dass der Faktor A in a Stufen (i = 1, . . . , a) und der Faktor B in b Stufen (j = 1, . . . , b) vorliegt. F¨ ur jede Kombination (i, j) werden r Wiederholungen durchgef¨ uhrt, wobei die Versuchsanlage des vollst¨andig randomisierten Versuchsplans angewandt wird. Die Datenlage ist in Tabelle 10.13 dargestellt. Tabelle 10.13. Datensituation im A × B-Versuchsplan B A 1 2 .. . a P
Mittelwerte
1
2
Y11+ Y21+ .. . Ya1+ Y+1+ y+1+
Y12+ Y22+ .. . Ya2+ Y+2+ y+2+
··· ··· ··· ··· ··· ···
b Y1b+ Y2b+ .. . Yab+ Y+b+ y+b+
P
Y1++ Y2++ .. . Ya++ Y+++
Mittelwerte y1++ y2++ .. . ya++ y+++
Insgesamt sind also N = rab Versuchseinheiten beteiligt. Der Response folge dem linearen Modell yijk = μ + αi + βj + (αβ)ij + ǫijk , (i = 1, . . . , a; j = 1, . . . , b; k = 1, . . . , r) ,
(10.28)
das auch als A × B-Versuchsplan oder als Modell der zweifaktoriellen Varianzanalyse mit Wechselwirkung bezeichnet wird. Dabei ist • yijk der Response zur i-ten Stufe von A und j-ten Stufe von B in der k-ten Wiederholung, • μ das Gesamtmittel, • αi der Effekt der i-ten A-Stufe, • βj der Effekt der j-ten B-Stufe, • (αβ)ij der Wechselwirkungseffekt der Kombination (i, j), • ǫijk der zuf¨allige Fehler.
Wir treffen folgende Voraussetzung u ¨ber die zuf¨allige Variable ǫ′ = (ǫ111 , . . . , ǫabr ): ǫ ∼ N (0, σ 2 I) . (10.29)
F¨ ur die festen Effekte gelten folgende Reparametrisierungsbedingungen: a
αi = 0 ,
(10.30)
βj = 0 ,
(10.31)
i=1
b j=1
10.5 Zweifaktorielle Varianzanalyse mit Wechselwirkung a
(αβ)ij =
i=1
b
(αβ)ij = 0 .
255
(10.32)
j=1
Kleinste-Quadrat-Sch¨ atzung der Parameter Ziel des A × B-Versuchsplans ist die Pr¨ ufung der Haupteffekte beider Faktoren A und B und des Wechselwirkungseffekts. Das Modell (10.28) ist ein spezielles lineares Regressionsmodell. Zur Herleitung der Teststatistiken gehen wir also nach der Strategie des linearen Modells wie in Kapitel 9 vor, d.h., zun¨achst werden die bedingten Kleinste-Quadrat-Sch¨atzungen der Parameter bestimmt. Mit ihnen werden die yˆijk berechnet und danach wird die Zerlegung der Fehlerquadratsumme in die A, B und A × B zuzuordnenden Anteile SQA , SQB und SQA×B durchgef¨ uhrt. Die Zielfunktion zur Bestimmung der KQ-Sch¨atzungen lautet im Modell (10.28) S(θ) =
a b r
i=1 j=1 k=1
(yijk − μ − αi − βj − (αβ)ij )2
(10.33)
unter den Nebenbedingungen (10.30) – (10.32). Dabei ist θ′ = (μ, α1 , . . . , αa , β1 , . . . , βb , (αβ)11 , . . . , (αβ)ab )
(10.34)
der Vektor der unbekannten Parameter. Die Normalgleichungen unter Ber¨ ucksichtigung der Restriktionen (10.30) – (10.32) lassen sich leicht herleiten: −
a b r 1 ∂S(θ) = (yijk − μ − αi − βj − (αβ)ij ) 2 ∂μ i=1 j=1 k=1
= Y+++ − N μ = 0 , (10.35) 1 ∂S(θ) − = Yi++ − brαi − brμ = 0 (i fest) , (10.36) 2 ∂αi 1 ∂S(θ) − = Y+j+ − arβj − arμ = 0 (j fest) , (10.37) 2 ∂βj 1 ∂S(θ) − = Yij+ − rμ − rαi − rβj − (αβ)ij = 0 (i, j fest) .(10.38) 2 ∂(αβ)ij Daraus erhalten wir die KQ-Sch¨ atzungen unter den Reparametrisierungsbedingungen (10.30) – (10.32), also die bedingten KQ-Sch¨atzungen μ ˆ = Y+++ /N = y+++ , Yi++ −μ ˆ = yi++ − y+++ , α ˆi = br Y+j+ βˆj = −μ ˆ = y+j+ − y+++ , ar = Yij+ − μ ˆ−α ˆ i − βˆj = yij+ − yi++ − y+j+ + y+++ . (αβ) ij r
(10.39) (10.40) (10.41) (10.42)
256
10. Varianzanalyse
Sei das sogenannte Korrekturglied definiert als C = Y+2 /N
(10.43)
mit N = a · b · r . Dann erhalten wir folgende Zerlegung: SQT otal =
a b r
i=1 j=1 k=1
= SQA = SQB =
a b r
(yijk − y+++ )2 2 yijk −C,
i=1 j=1 k=1 a 1 2 Y br i=1 i++
(10.44)
−C,
(10.45)
b 1 2 Y −C, ar j=1 +j+
(10.46)
a b a b 1 2 1 2 1 2 Yij+ − Yi++ − Y +C r i=1 j=1 br i=1 ar j=1 +j+ ⎤ ⎡ a b 1 Y 2 − C ⎦ − SQA − SQB , (10.47) =⎣ r i=1 j=1 ij+
SQA×B =
SQResidual = SQT otal − SQA − SQB − SQA×B ⎡ ⎤ a b 1 = SQT otal − ⎣ Y 2 − C⎦ . r i=1 j=1 ij+
(10.48)
Anmerkung. Die Quadratsumme zwischen den a · b Responsesummen Yij+ heißt auch SQSubtotal , d.h. a
SQSubtotal =
b
1 2 −C. Y r i=1 j=1 ij+
(10.49)
Damit Wechselwirkungseffekte nachweisbar sind bzw. damit (αβ)ij sch¨atzbar ist, m¨ ussen mindestens r = 2 Wiederholungen je Kombination (i, j) durchgef¨ uhrt werden. Sonst gehen die Wechselwirkungseffekte in den Fehler mit ein und sind nicht separierbar. Testprozedur Das Modell (10.28) mit Wechselwirkungen wird als saturiertes Modell bezeichnet. Das Modell ohne Wechselwirkungen lautet yijk = μ + αi + βj + ǫijk
(10.50)
10.5 Zweifaktorielle Varianzanalyse mit Wechselwirkung
257
und heißt Unabh¨ angigkeitsmodell. Man pr¨ uft zun¨ achst H0 : (αβ)ij = 0 (alle (i, j)) gegen H1 : (αβ)ij = 0 (mindestens ein Paar (i, j)). Dies entspricht der Modellwahl Submodell (10.50) ” gegen volles Modell (10.28)“ gem¨ aß unserer Teststrategie aus Kapitel 9. Die Interpretation des zweifaktoriellen Experiments h¨angt vom Ausgang dieses Tests ab. H0 wird abgelehnt, falls FA×B =
M QA×B > f(a−1)(b−1),ab(r−1);1−α M QResidual
(10.51)
ist. Bei Ablehnung von H0 sind also Wechselwirkungseffekte signifikant; die Haupteffekte sind ohne interpretierbare Bedeutung, egal ob sie signifikant sind oder nicht. Tabelle 10.14. Tafel der Varianzanalyse im A × B-Versuchsplan mit Wechselwirkungen Ursache Faktor A Faktor B Wechselwirkung A×B Residual Total
df a−1 b−1
SQ SQA SQB
MQ M QA M QB
F FA FB
(a − 1)(b − 1)
SQA×B
M QA×B
FA×B
N − ab = ab(r − 1) N −1
SQResidual SQT otal
M QResidual
Wird H0 dagegen nicht abgelehnt, so haben die Testergebnisse f¨ ur H0 : A αi = 0 gegen H1 : αi = 0 (mindestens zwei i) mit FA = MQMQ und f¨ ur Residual
B H0 : βj = 0 gegen H1 : βj = 0 (mindestens zwei j) mit FB = MQMQ eine Residual interpretierbare Bedeutung im Modell (10.50). Falls nur ein Faktor signifikant ist (z.B. A), reduziert sich das Modell weiter auf ein balanziertes einfaktorielles Modell mit a Faktorstufen mit jeweils br Wiederholungen: (10.52) yijk = μ + αi + ǫijk .
Beispiel 10.5.1. Es soll der Einfluss zweier Faktoren A (Werbung) und B (Management, hier: Stammkundenkartei nein/ja) auf den Umsatz eines Kaufhauskonzerns gekl¨ art werden. Dazu werden A (niedrig, hoch) und B (nein, ja) in jeweils zwei Stufen angewandt und je r = 2 Wiederholungen (in verschiedenen Filialen) durchgef¨ uhrt. Damit sind a = b = r = 2 und N = abr = 8. Die Versuchseinheiten (Filialen) werden den Behandlungen randomisiert zugewiesen. Wir berechnen aus Tabelle 10.15: C = 77.62/8 = 752.72 , SQT otal = 866.92 − C = 114.20 ,
258
10. Varianzanalyse
SQA = = SQB = = SQSubtotal = =
1 (39.62 + 38.02) − C 4 753.04 − 752.72 = 0.32 , 1 (26.42 + 51.22) − C 4 829.60 − 752.72 = 76.88 , 1 (17.82 + 21.82 + 8.62 + 29.42 ) − C 2 865.20 − 752.72 = 112.48 ,
SQA×B = SQSubtotal − SQA − SQB = 35.28 , SQResidual = 114.20 − 35.28 − 0.32 − 76.88 = 1.72 .
Tabelle 10.15. Einzelne Responsewerte und totaler Response im Beispiel 10.5.1 B
B A 1 2
1 8.6 4.7
2 9.2 3.9
10.4 14.1
11.4 15.3
A 1 2 P
1 17.8 8.6 26.4
2 21.8 29.4 51.2
P
39.6 38.0 77.6
Tabelle 10.16. Tafel der Varianzanalyse im Beispiel 10.5.1 Ursache Faktor A Faktor B Wechselwirkung A × B Residual Total
df 1 1 1 4 7
SQ 0.32 76.88 35.28 1.72 114.20
MQ 0.32 76.88 35.28 0.43
F 0.74 178.79 82.05
∗ ∗
Ergebnis: Der Test auf Wechselwirkung gem¨aß Tabelle 10.16 ergibt mit FA×B = 82.05 > 7.71 = f1,4;0.95 eine Ablehnung von H0 : Keine Wechsel” wirkung“, so dass das saturierte Modell (10.28) (mit Wechselwirkung) g¨ ultig ist (vgl. auch Abbildung 10.7). Eine Reduzierung auf ein Einfaktormodell ist damit trotz des nichtsignifikanten Haupteffekts A nicht m¨oglich. Mit SPSS erhalten wir die Ausgabe in Abbildung 10.8. Beispiel 10.5.2. In einem anderen Kaufhauskonzern seien in einem vergleichbaren Experiment folgende Ergebnisse erzielt worden (vgl. Tabelle 10.17 f¨ ur die Originalwerte und f¨ ur den totalen Response): Wir berechnen
10.5 Zweifaktorielle Varianzanalyse mit Wechselwirkung
B2 •
30 B2 • • B1
20
259
10
• B1
0 A1
A2
Abb. 10.7. Signifikante Wechselwirkung (Beispiel 10.5.1) ANOVAa,b
Y_IJK
Main Effects
(Combined) MANAGE WERBUNG MANAGE * WERBUNG
2-Way Interactions
Sum of Squares 77,200 76,880 ,320
Model Residual Total
df
Unique Method Mean Square F 2 38,600 89,767 1 76,880 178,791 1 ,320 ,744
Sig. ,000 ,000 ,437
35,280
1
35,280
82,047
,001
112,480 1,720 114,200
3 4 7
37,493 ,430 16,314
87,194
,000
a. Y_IJK by MANAGE, WERBUNG b. All effects entered simultaneously
Abb. 10.8. SPSS-Output zu Beispiel 10.5.1 Tabelle 10.17. Einzelne Responsewerte und totaler Response im Beispiel 10.5.2 B
B A 1 2
1 4 8
2 6 12
12 24
8 16
N = 2· 2· 2 = 8,
A 1 2 P
1 10 20 30
2 20 40 60
C = 902 /8 = 1012.50 , SQT otal = 1300 − C = 287.50 , 1 SQA = (302 + 602 ) − C 4 = 1125 − C = 112.50 , 1 SQB = (302 + 602 ) − C = 112.50 , 4 1 SQSubtotal = (102 + 202 + 202 + 402 ) − C 2 = 1250 − C = 237.50 ,
P 30 60 90
260
10. Varianzanalyse
SQA×B = SQSubtotal − SQA − SQB = 12.50 , SQResidual = SQT otal − SQA − SQB − SQA×B = 50 . Tabelle 10.18. Tafel der Varianzanalyse im saturierten Modell (Beispiel 10.5.2) Ursache Faktor A Faktor B Wechselwirkung A × B Residual Total
df 1 1 1 4 7
SQ 112.50 112.50 12.50 50.00 287.50
MQ 112.50 112.50 12.50 12.50
F 9.00 9.00 1.00
∗ ∗
Mit SPSS erhalten wir die Ausgabe in Abbildung 10.9. ANOVAa,b
Z_IJK
Main Effects
2-Way Interactions
(Combined) MANAGE WERBUNG MANAGE * WERBUNG
Model Residual Total
Unique Method Mean Square 2 112,500 1 112,500 1 112,500
F 9,000 9,000 9,000
Sig. ,033 ,040 ,040
12,500
1
12,500
1,000
,374
237,500 50,000 287,500
3 4 7
79,167 12,500 41,071
6,333
,053
Sum of Squares 225,000 112,500 112,500
df
a. Z_IJK by MANAGE, WERBUNG b. All effects entered simultaneously
Abb. 10.9. SPSS-Output zu Beispiel 10.5.2
Ergebnis: Zun¨achst pr¨ ufen wir auf Wechselwirkung (Tabelle 10.18). Die Hypothese H0 : (αβ)ij = 0 wird wegen FA×B = 1 < 7.71 = f1,4;0.95 nicht abgelehnt. Damit gehen wir vom Modell (10.28) zum Modell (10.50) mit den beiden Haupteffekten A und B (Modell ohne Wechselwirkung, Unabh¨angigkeitsmodell) u ¨ber. SQA×B wird zu SQResidual addiert. Wir erhalten die Tabelle 10.19. Wegen FA = FB = 9 > 6.61 = f1,5;0.95 werden H0 : α1 = . . . = αa = 0 und H0 : β1 = . . . = βb = 0 abgelehnt. Mit SPSS erhalten wir hier die Werte wie in Abbildung 10.10. Interpretation: Die beiden Faktoren A (Werbung) und B (Management) haben beide einen signifikanten Einfluss auf den Umsatz, sie wirken beide unabh¨angig. Aus Tabelle 10.17 und Abbildung 10.11 entnehmen wir, dass der Umsatz maximal wird f¨ ur die Wahl der Faktorstufen A2 (Werbung hoch) und B2 (Stammkundenkartei ja).
10.5 Zweifaktorielle Varianzanalyse mit Wechselwirkung
261
Tabelle 10.19. Tafel der Varianzanalyse im Unabh¨ angigkeitsmodell (Beispiel 10.5.2) Ursache A B Residual Total
df 1 1 5 287.50
SQ 112.50 112.50 62.50 7
MQ 112.50 112.50 12.50
F 9.00 9.00
∗ ∗
ANOVAa,b
Z_IJK
Main Effects
(Combined) MANAGE WERBUNG
Model Residual Total
Sum of Squares 225,000 112,500 112,500 225,000 62,500 287,500
df
Unique Method Mean Square 2 112,500 1 112,500 1 112,500 2 112,500 5 12,500 7 41,071
F 9,000 9,000 9,000 9,000
Sig. ,022 ,030 ,030 ,022
a. Z_IJK by MANAGE, WERBUNG b. All effects entered simultaneously
Abb. 10.10. Fortsetzung: SPSS-Output zu Beispiel 10.5.2
B2 •
40 30 20
B2 •
10
• B1
• B1
0 A1
A2
Abb. 10.11. Nichtsignifikante Wechselwirkung im Beispiel 10.5.2
262
10. Varianzanalyse
10.6 Aufgaben und Kontrollfragen Aufgabe 10.1: In einem Feldversuch werden drei D¨ unger eingesetzt. Die Tafel der Varianzanalyse lautet Faktor A Residual Total
df
SQ 50
32
350
MQ
F
Wie lautet die zu pr¨ ufende Hypothese? Wie lautet die Testentscheidung? ¨ Aufgabe 10.2: Drei Studentengruppen erreichten in den Ubungsbl¨ attern zur Vorlesung Statistik I nachfolgende Punktwerte: Gruppe 1 32 39 45 47 53 59 71 85
Gruppe 2 34 37 42 54 60 75
Gruppe 3 38 40 43 48 52 61 80 95
Vergleichen Sie diese Ergebnisse mit einem geeigneten Verfahren unter der Annahme einer Normalverteilung. Aufgabe 10.3: Wie sind folgende Testergebnisse zu interpretieren? Formulieren Sie die entsprechenden zweifaktoriellen Modelle. FA ∗ FA ∗ FA ∗ ∗ b) FB c) FB a) FB FA×B ∗ FA×B FA×B ∗ FA ∗ FA ∗ d) FB e) FB FA×B ∗ FA×B Aufgabe 10.4: F¨ uhren Sie folgenden Test im zweifaktoriellen Modell mit festen Effekten durch und geben Sie das endg¨ ultige Modell an. Faktor A Faktor B Wechselwirkung A × B Residual Total
df 1 2 2 18 23
SQ 130 630 40 150
MQ
F
10.6 Aufgaben und Kontrollfragen
263
Aufgabe 10.5: Interpretieren Sie das nachfolgende SPSS-Listing. Wie gehen Sie weiter vor? Tests of Between-Subjects Effects Dependent Variable: CURRENT SALARY
Source Model JOBCAT MINORITY JOBCAT * MINORITY Error Total
Type III Sum of Squares 1,1E+11a 6,2E+09 5,5E+07 1,7E+08 6,7E+09 1,1E+11
df 13 6 1 5 461 474
Mean Square 8,1E+09 1,0E+09 5,5E+07 3,5E+07 1,5E+07
a. R Squared = ,940 (Adjusted R Squared = ,938)
F 556,162 70,545 3,753 2,377
Sig. ,0000 ,0000 ,0533 ,0380
11. Analyse von Kontingenztafeln
11.1 Zweidimensionale kategoriale Zufallsvariablen Im Kapitel 9 u ¨ ber Regressionsmodelle haben wir den Zusammenhang zwischen zwei metrischen Zufallsvariablen X und Y untersucht und modelliert. In diesem Kapitel betrachten wir ebenfalls zwei Variablen X und Y , setzen jedoch voraus, dass X und Y entweder kategoriale Zufallsvariablen (ordinal oder nominal) oder kategorisierte stetige Zufallsvariablen sind. Die vorgestellten Methoden sind f¨ ur nominale und ordinale Variablen anwendbar, nutzen jedoch im Fall ordinaler Variablen den damit verbundenen Informationsgewinn nicht aus. Beispiele. • X: Raucher/Nichtraucher Y : Krankheit ja/nein • X: Schulbildung (niedrig, mittel, hoch) Y : Verdienstklasse (< 5000, 5000 – 10000, > 10000 EUR/Monat) • X: Werbemittel (Zeitung, TV, Sonderangebote) Y : Umsatz (fallend, gleichbleibend, steigend) • X: Studienfach (BWL, VWL) Y : Leistungen in Statistik (schlecht, gut, sehr gut) • X: Behandlung (A, B, C) Y : Therapieerfolg (ja, nein) Die beiden Zufallsvariablen X und Y bilden den zweidimensionalen Zufallsvektor (X, Y ), dessen gemeinsame Verteilung untersucht wird. Von Interesse ist die Hypothese H0 : X und Y sind unabh¨angig“. Bei Ablehnung der ” Hypothese wird man – wie im Regressionsmodell – versuchen, den Zusammenhang n¨aher zu untersuchen (z.B. auf Trends) bzw. durch ein geeignetes Modell zu erfassen. Die Zufallsvariable X habe I Auspr¨agungen x1 , . . . , xI , die durch die Kodierung i = 1, . . . , I dargestellt werden. Analog habe Y J Auspr¨agungen y1 , . . . , yJ mit der Kodierung j = 1, . . . , J. Werden an Objekten jeweils beide Zufallsvariablen beobachtet, so ergeben sich I × J m¨ogliche (Kreuz-) Klassifikationen. Die gemeinsame Verteilung von (X, Y ) wird durch die Wahrscheinlichkeiten
266
11. Analyse von Kontingenztafeln
P (X = i, Y = j) = πij definiert, wobei
I
i=1
J
j=1
πij = 1 gilt.
Anmerkung. Wir verwenden hier die im Zusammenhang mit Kontingenztaur die Wahrscheinlichkeiten pij . feln allgemein u ¨bliche Schreibweise πij f¨ Die Randwahrscheinlichkeiten erh¨ alt man durch zeilen- bzw. spaltenweises Aufsummieren: J
P (X = i) = πi+ =
πij
,
i = 1, . . . , I ,
πij
,
j = 1, . . . , J .
j=1
P (Y = j) = π+j =
I i=1
Es gilt I
πi+ =
i=1
J
π+j = 1 .
j=1
Tabelle 11.1. Gemeinsame Verteilung und Randverteilungen von X und Y Y
X
1 2 .. . I
1 π11 π21 .. . πI1 π+1
2 π12 π22 .. . πI2 π+2
... ... ... ... ...
J π1J π2J .. . πIJ π+J
π1+ π2+ .. . πI+
Die Wahrscheinlichkeiten {π1+ , . . . , πI+ } und {π+1 , . . . , π+J } definieren dann die Randverteilungen von X und Y . Sind X und Y Zufallsvariablen, dann ist die bedingte Verteilung von Y gegeben X = i definiert durch die Wahrscheinlichkeiten P (Y = j|X = i) = πj|i =
πij πi+
∀j .
(11.1)
Die Wahrscheinlichkeiten {π1|i , . . . , πJ|i } bilden also die bedingte Verteilung von Y auf der Stufe i von X. Analog wird die bedingte Verteilung von X gegeben Y = j definiert durch die Wahrscheinlichkeiten {π1|j , . . . , πI|j } mit P (X = i|Y = j) = πi|j =
πij π+j
∀i .
(11.2)
11.2 Unabh¨ angigkeit
267
Anmerkung. Wir m¨ ussen in (11.1) und (11.2) πi+ > 0 und π+j > 0 f¨ ur alle i, j voraussetzen, damit die bedingten Wahrscheinlichkeiten eindeutig definiert sind. Beispiel 11.1.1. Sei I = J = 2. Die gemeinsame Verteilung von X und Y (ohne Klammern) und die bedingte Verteilung von X gegeben Y (mit Klammern) sind in der nachfolgenden 2 × 2-Tafel dargestellt: Y 1 X 2
1 π11 (π1|1 ) π21 (π2|1 ) π+1 (1)
2 π12 (π1|2 ) π22 (π2|2 ) π+2 (1)
π11 + π12 = π1+ (π1|1 + π1|2 = 1) π21 + π22 = π2+ (π2|1 + π2|2 = 1) 1
11.2 Unabh¨ angigkeit Wir haben bereits in (3.13) die Bedingung f¨ ur die Unabh¨angigkeit zweier diskreter Zufallsvariablen angegeben. Wir wiederholen diese Bedingung in der aktuellen Schreibweise der Kontingenztafel. Die Variablen X und Y der Kontingenztafel heißen unabh¨angig, falls alle gemeinsamen Wahrscheinlichkeiten gleich dem Produkt der Randwahrscheinlichkeiten sind: (11.3) πij = πi+ π+j ∀i, j . Sind X und Y unabh¨ angig gem¨ aß Definition (11.3), dann gilt: P (Y = j|X = i) = πj|i =
πi+ π+j πij = = π+j πi+ πi+
∀i .
D.h., jede bedingte Verteilung von Y gegeben X ist gleich der Randverteilung von Y unabh¨angig von der Stufe i der Variablen X. Im Fall der Unabh¨angigkeit gilt genauso P (X = i|Y = j) = πi|j =
πi+ π+j πij = = πi+ π+j π+j
∀j .
Anmerkung. Oftmals ist es sinnvoll, Y als Responsevariable und X als nichtstochastische Variable aufzufassen. In diesem Fall ist man am Vergleich der bedingten Verteilungen von Y auf jeder Stufe i von X interessiert. Man sagt dann, X hat keinen Einfluss auf Y , wenn gilt: πj|1 = πj|2 = . . . = πj|I
∀j .
268
11. Analyse von Kontingenztafeln
11.3 Inferenz in Kontingenztafeln Wir setzen voraus, dass wir in einer zuf¨ alligen Stichprobe die H¨aufigkeiten nij (i = 1, . . . , I, j = 1, . . . , J) der (i, j)-ten Auspr¨agung der Zufallsvariablen (X, Y ) beobachtet haben. Die H¨ aufigkeiten werden in einer Kontingenztafel zusammengefaßt: Y
X
1 2 .. . I
1 n11 n21 .. .
2 n12 n22
··· ··· ··· .. .
J n1J n2J .. .
n1+ n2+ .. .
nI1 n+1
nI2 n+2
··· ···
nIJ n+J
nI+ n
Dabei ist ni+ n+j n
die i-te Zeilensumme, die j-te Spaltensumme, die Gesamtzahl der Beobachtungen.
Die statistischen Methoden f¨ ur Kontingenztafeln treffen bestimmte Annahmen u ¨ ber das Zustandekommen einer vorliegenden Kontingenztafel von beobachteten H¨aufigkeiten. Als g¨ angige Modelle werden das Poissonschema, das unabh¨angige Multinomialschema und das Produktmultinomialschema verwendet. Zur Vereinfachung der Notation nummerieren wir die I × J = N Zellen der Kontingenztafel (zeilenweise) durch und erhalten die beobachteN ten Zellh¨aufigkeiten {n1 , . . . , nN } mit n = i=1 ni . Die Erwartungswerte E(ni ) bezeichnen wir mit mi . Diese nennen wir die erwarteten Zellh¨aufigkeiten {m1 , . . . , mN }. 11.3.1 Stichprobenschemata f¨ ur Kontingenztafeln Poissonstichprobenschema Da die ni nichtnegative ganze Zahlen sind, sollte eine Stichprobenverteilung ihre Wahrscheinlichkeitsmasse auf diesen Bereich konzentrieren. Eine der einfachsten dieser Verteilungen ist die Poissonverteilung (vgl. Abschnitt 4.2.7). Sie ist durch einen Parameter, n¨ amlich λ charakterisiert. F¨ ur die Wahrscheinlichkeitsfunktion einer poissonverteilten Zufallsvariablen Zi gilt mit λ = mi P (Zi = ni ) =
mni i exp(−mi ), ni !
ni = 0, 1, 2, . . .
und Var(Zi ) = E(Zi ) = mi .
(11.4)
11.3 Inferenz in Kontingenztafeln
269
Das Poissonstichprobenschema geht also davon aus, dass die beobachteten H¨aufigkeiten {ni } Realisationen von N unabh¨ angigen Poisson-Zufallsvariablen Zi mit Parameter mi sind. Die Wahrscheinlichkeitsfunktion der gemeinsamen Verteilung der Zi , i = 1, . . . , N ist wegen der Unabh¨angigkeit damit das Produkt der N Wahrscheinlichkeitsfunktionen (11.4) P (Z1 = n1 , . . . , ZN = nN ) =
N &
P (Zi = ni ) .
i=1
Der Stichprobenumfang n = ni ist damit selbst zuf¨allig und wegen des Additionssatzes der Poissonverteilung (Satz 4.2.2) Realisation einer poissonverteilten Zufallsvariablen mit dem Parameter mi . Multinomialstichprobenschema
Die Tatsache des zuf¨ alligen Stichprobenumfangs n beim Poissonstichprobenschema mag ungew¨ ohnlich erscheinen. Wenn wir vom Poissonstichprobenschema ausgehen und anschließend auf den Stichprobenumfang n bedingen (d.h., n wird festgehalten), dann sind die ni keine Realisationen von poissonverteilten Zufallsvariablen mehr, da z.B. kein ni gr¨oßer als n sein kann. F¨ ur die bedingte Wahrscheinlichkeit einer Menge {ni } erhalten wir (vgl. Agresti, 1990) N P (ni Beobachtungen in Zelle i | i=1 ni = n) P (ni Beobachtungen in Zelle i) = N P ( i=1 ni = n)
=
i=1
mit
N &
ni ! i=1
πini
(11.5)
N πi = mi /( mk ) i = 1, . . . , N − 1 , k=1
πN = 1 −
N −1
πi .
i=1
Die bedingte Wahrscheinlichkeit in (11.5) ist die Wahrscheinlichkeitsfunktion der Multinomialverteilung M (n; π1 , . . . , πN ) (vgl. (4.17)), die durch den jetzt
270
11. Analyse von Kontingenztafeln
festen Stichprobenumfang n und die Zellwahrscheinlichkeiten πi charakterisiert ist. Ist N = 2, so ist die Multinomialverteilung gleich der Binomialverteilung B(n; πi ) mit E(ni ) = nπi und Var(ni ) = nπi (1 − πi ). Beim Multinomialstichprobenschema gehen wir also von n unabh¨angigen Beobachtungen aus einer diskreten Verteilung mit N Kategorien aus. Die Wahrscheinlichkeit, dass die diskrete Variable die Kategorie i annimmt, ist πi . Produktmultinomialstichprobenschema Eine Abwandlung des Multinomialstichprobenschemas aus dem vorhergehen¨ den Abschnitt erh¨ alt man durch folgende Uberlegung. Wir nehmen an, dass Beobachtungen einer kategorialen Responsevariablen Y (J Kategorien) zu verschiedenen Stufen einer erkl¨ arenden Variablen X vorliegen. In der Zelle (X = i, Y = j) werden nij Besetzungen beobachtet. Angenommen, die J ni+ = j=1 nij Beobachtungen von Y zur i-ten Kategorie von X seien unabh¨angig mit der Verteilung {π1|i , . . . , πJ|i }, dann sind die beobachteten Zellh¨aufigkeiten {nij , j = 1, . . . , J} in der i-ten Kategorie von X Realisationen aus einer Multinomialverteilung gem¨ aß J ni+ ! & nij πj|i <J j=1 nij ! j=1
(i = 1, . . . , I) .
(11.6)
Falls dar¨ uber hinaus auch die Stichproben u ¨ ber die i Stufen von X unabh¨angig sind, ist die gemeinsame Verteilung der nij u ¨ ber die I ×J Zellen das Produkt der I Multinomialverteilungen aus (11.6). Wir bezeichnen dies mit Produktmultinomialstichprobenschema oder als unabh¨angige multinomiale Stichprobe. 11.3.2 ML-Sch¨ atzung bei Multinomialschema Gegeben seien die beobachteten Zellbesetzungen {ni : i = 1, 2, . . . , N }. Die Likelihoodfunktion ist dann definiert als Funktion der unbekannten Parameter, in diesem Fall {πi : i = 1, 2, . . . , N }, nach der Beobachtung {ni : i = 1, 2, . . . , N }. Die Maximum-Likelihood-Sch¨atzung f¨ ur diese Parameter ist das Maximum der Likelihoodfunktion n! max L = max
{πi }
i=1
N &
ni ! i=1
πini .
(11.7)
Wir suchen also eine Menge {πi : i = 1, 2, . . . , N }, f¨ ur die L maximal wird. Dies ist ¨aquivalent zum Problem max {πi }
N &
i=1
πini
11.3 Inferenz in Kontingenztafeln
271
und wegen der strengen Monotonie des nat¨ urlichen Logarithmus wiederum ¨aquivalent zum Maximierungsproblem max ln L = max {πi }
{πi }
N
ni ln(πi ) .
(11.8)
i=1
Zur Bestimmung des Maximums muß die Loglikelihood (11.8) partiell nach πi , i = 1, . . . , N differenziert werden. N Mit den Nebenbedingungen πi > 0, i = 1, 2, . . . , N , i=1 πi = 1 folgt −1 πN = 1 − N i=1 πi . Somit reduziert sich das Maximierungsproblem (11.8) auf N −1 N −1 max ln L = max ni ln(πi ) + nN ln(1 − πi ) . {πi }
Da
gilt
{πi }
i=1
∂πN = −1 , ∂πi
i=1
i = 1, 2, . . . , N − 1 ,
∂ ln πN 1 ∂πN −1 = · = ∂πi πN ∂πi πN
i = 1, 2, . . . , N − 1 .
,
Differentiation nach πi liefert die zu l¨ osenden Gleichungen ∂ ln L ni nN = − =0 , ∂πi πi πN
i = 1, 2, . . . , N − 1 .
Die L¨osung nach der ML-Methode erf¨ ullt damit ni π ˆi = π ˆN nN
i = 1, 2, . . . , N − 1,
also π ˆi = π ˆN Nun gilt: N
π ˆi = 1 =
i=1
π ˆN
ni . nN
N
i=1
nN
ni
=
πN n . nN
Daraus erhalten wir die L¨ osungen nN = fN , n ni π ˆi = = fi , i = 1, 2, . . . , N − 1 . n
π ˆN =
Die Maximum-Likelihood-Sch¨ atzungen der πi sind die relativen H¨aufigkeiten aufigkeiten erh¨alt man fi . Als Sch¨atzung der erwarteten H¨
272
11. Analyse von Kontingenztafeln
m ˆ i = nˆ πi = nfi = n
ni = ni . n
(11.9)
Ohne weitere Einschr¨ ankungen sind also die gesch¨atzten erwarteten H¨aufigkeiten gleich den beobachteten H¨ aufigkeiten. Man kann zeigen, dass die MLSch¨atzungen f¨ ur die Parameter mi bei Verwendung des Poissonstichprobenschemas ebenfalls durch (11.9) gegeben sind. Kehren wir zur u uhrten) Notation in I × J¨ blichen (anfangs eingef¨ Kontingenztafeln zur¨ uck, so gilt unter der Annahme, dass X und Y unabh¨angig sind, nach (11.3) πij = πi+ π+j . Die ML-Sch¨atzungen unter dieser Annahme lauten dann π ˆij = pi+ p+j =
ni+ n+j n2
mit den erwarteten Zellh¨ aufigkeiten m ˆ ij = nˆ πij =
ni+ n+j . n
(11.10)
χ2 -Unabh¨ angigkeitstest In Zweifach-Kontingenztafeln mit multinomialem Stichprobenschema sind H0 : X und Y sind statistisch unabh¨ angig“ und H0 : πij = πi+ π+j ∀i, j ” ¨aquivalent. Als Teststatistik erhalten wir Pearson’s χ2 -Statistik in der Gestalt I J (nij − mij )2 C= , mij i=1 j=1 wobei die mij = nπij = nπi+ π+j (erwartete Zellh¨aufigkeiten unter H0 ) unbekannt sind. Mit der Sch¨ atzung m ˆ ij aus (11.10) erhalten wir c=
I J (nij − m ˆ ij )2 . m ˆ ij i=1 j=1
(11.11)
ur die Freiheitsgrade gilt bei I × J Kategorien: Bei einer Randbedingung F¨ πij = 1 hat die theoretische Verteilung (Population) I ·J −1 Freiheitsgrade. Die erwarteten H¨ aufigkeiten mij enthalten dagegen I + J Parameter πi+ und π , die gesch¨ a tzt werden m¨ u ssen. Mit den Nebenbedingungen πi+ = +j π+j = 1 sind dann jeweils nur (I − 1) bzw. (J − 1) Parameter zu sch¨atzen. Allgemein erhalten wir die Freiheitsgrade als Differenz der Freiheitsgrade der Population und der Anzahl der gesch¨ atzten Parameter. Hier gilt also (I · J − 1) − (I − 1) − (J − 1) = (I − 1)(J − 1). Testentscheidung Wir lehnen H0 ab, falls c > c(I−1)(J−1);1−α gilt.
11.3 Inferenz in Kontingenztafeln
273
11.3.3 Exakter Test von Fisher f¨ ur 2 × 2-Tafeln Der exakte Test von Fisher, den wir in Abschnitt 7.6.3 vorgestellt haben, pr¨ uft die Differenz zweier Wahrscheinlichkeiten p1 und p2 . Es l¨asst sich zeigen (vgl. R¨ uger, 1996), dass dieser Test sich auch als Test auf Unabh¨angigkeit in 2 × 2-Kontingenztafeln mit geringem Stichprobenumfang verwenden l¨asst. 11.3.4 Maximum-Likelihood-Quotienten-Test auf Unabh¨ angigkeit Der Maximum-Likelihood-Quotienten-Test (MLQ-Test) ist eine generelle Methode zum Pr¨ ufen einer Hypothese H0 gegen eine Alternative H1 . Die grundlegende Idee bei hierarchischen Modellen ist, die Likelihoodfunktion L unter H0 sowie unter H0 ∪ H1 zu maximieren. Die Teststatistik Λ erh¨alt man als Quotienten maxH0 L ≤ 1. Λ= maxH0 ∪H1 L Definieren wir G2 = −2 ln Λ (vgl. Wilks, 1938), so gilt G2 = −2 ln Λ
approx.
∼
χ2df .
(11.12)
Die Zahl der Freiheitsgrade (df ) ergibt sich als Differenz der Dimensionen der Parameterr¨aume unter H0 ∪ H1 und unter H0 . Wollen wir die Hypothese der Unabh¨ angigkeit H0 : πij = πi+ π+j gegen die Alternative H1 : πij = πi+ π+j
n
n
testen, so wird die Likelihood unter H0 maximal f¨ ur π ˆij = i+n2 +j und unter nij H0 ∪ H1 maximal f¨ ur π ˆij = n . Die Teststatistik lautet daher Λ= F¨ ur Wilks’s G2 folgt 2
<J
nij j=1 (ni+ n+j ) < < n nn Ii=1 Jj=1 nijij
i=1
G = −2 ln Λ = 2
I J i=1 j=1
nij ln
.
nij m ˆ ij
,
(11.13)
wobei m ˆ ij = ni+ n+j /n die Sch¨ atzungen der erwarteten H¨aufigkeiten unter H0 darstellen (vgl. (11.10)). Falls H0 wahr ist, wird Λ groß, d.h. nahe bei 1, und G2 klein. Deshalb besteht die kritische Region dieses Tests aus großen G2 -Werten. Die Hypothese H0 wird abgelehnt f¨ ur G2 > c(I−1)(J−1);1−α .
274
11. Analyse von Kontingenztafeln
Anmerkung. Die Zahl der Freiheitsgrade der Teststatistik G2 aus (11.13) ergibt sich durch die Differenz der Dimensionen der Parameterr¨aume unter H0 ∪ H1 und unter H0 . Unter H0 ∪ H1 sch¨ atzen wir (IJ −1) Parameter, unter H0 sch¨atzen wir die (I − 1) Parameter der Randverteilung von X und die J − 1 Parameter der Randverteilung von Y . Damit ergibt sich df = (IJ − 1) − (I − 1) − (J − 1) = IJ − I − J + 1 = I(J − 1) − (J − 1)
= (I − 1)(J − 1) .
11.4 Differenziertere Untersuchung von I × J -Tafeln n
n
Die Sch¨atzungen m ˆ ij = i+n +j in c (11.11) und G2 (11.13) h¨angen von den Zeilen- und Spaltenrandsummen ab, aber nicht von der Anordnung der Zeilen und Spalten. c und G2 ver¨ andern sich nicht, falls Permutationen von Zeilen (oder Spalten) durchgef¨ uhrt werden. Die Zeilen und Spalten werden als nominale Variablen behandelt. Ist zumindest eine dieser Variablen ordinal skaliert, so verschenken wir Information, da bei ordinalen Variablen sch¨arfere Tests existieren. F¨ ur unser weiteres Vorgehen ben¨ otigen wir eine Zerlegung der χ2 -verteilten Teststatistik G2 in unabh¨ angige Komponenten. Hierf¨ ur gilt der folgende fundamentale Satz: Theorem 11.4.1 (Cochran). Seien zi ∼ N (0, 1), i = 1, . . . , v unabh¨angige Zufallsvariablen und sei folgende disjunkte Zerlegung v i=1
zi2 = Q1 + Q2 + · · · + Qs
mit s ≤ v gegeben. Damit sind die Q1 , . . . , Qs unabh¨angige χ2v1 , . . . , χ2vs verteilte Zufallsvariablen dann und nur dann, wenn v = v1 + · · · + vs gilt. Im Folgenden wollen wir diesen Satz auf Kontingenztafeln anwenden, um verschiedene Effekte herauszuarbeiten, z.B. Zusammenhangsnachweise mittels Zusammenfassung von Kategorien. Zun¨achst werden wir 2 × J-Tafeln betrachten (d.h. I = 2). Hier erhalten wir 2 J nij . G2 = −2 ln Λ = 2 nij ln m ˆ ij i=1 j=1
Ziel ist es, eine Zerlegung von G2 in J − 1 unabh¨angige χ21 -verteilte Gr¨oßen ˜ 2 f¨ G ogliches Schema hierf¨ ur ist k ur J − 1 Vierfeldertafeln zu finden. Ein m¨
11.4 Differenziertere Untersuchung von I × J-Tafeln
1 2
Spalte 1+2 3 n11 + n12 n13 n21 + n22 n23
Spalte 1 2 n11 n12 n21 n22
···
Spalte 1 + 2 + ···+ J − 1 n11 + · · · + n1J−1 n21 + · · · + n2J−1
275
J n1J n2J
G2 l¨asst sich dann zerlegen als G2 =
J−1
˜ 2k , G
k=1
˜ 2k ∼ χ21 G
(k = 1, . . . , J − 1) .
(11.14)
˜ 2 f¨ Dieses Schema sichert also, dass sich G2 als Summe der J − 1 Werte G k ur die einzelnen Vierfeldertafeln ergibt. Es l¨ asst sich zeigen, dass z.B. folgende Aufteilung keine unabh¨ angigen Komponenten liefert: Es werden die (J − 1) 2 × 2-Tafeln als Kombination einer der ersten J − 1 Spalten jeweils mit der J-ten Spalte gebildet. Die Summe dieser Komponenten ist auch nicht gleich G2 . Die oben genannte Partitionierung l¨ asst sich leicht auf I × J-Tafeln verallgemeinern:
1 .. . I
Spalte 1 2 n11 n12 .. .. . . nI1 nI2
Spalte 1+2 3 n11 + n12 n13 .. .. . . nI1 + nI2 nI3
Spalte 1 + 2 + ··· + J − 1 n11 + · · · + n1J −1 .. . nI1 + · · · + nIJ −1
···
J n1J .. . nIJ
˜2 wobei jede dieser Subtafeln unter H0 eine χ2I−1 -verteilte Teststatistik G k liefert, so dass eine Zerlegung analog zu (11.14) gilt. Beispiel 11.4.1. Wir betrachten folgende Studie, die den Zusammenhang zwischen den ordinalen Variablen Werbung (X) und Umsatzsteigerung (Y ) in einem Versandhaus untersucht. Die Variable Werbung (X) hat die Auspr¨agungen x1 = 1 (keine Werbung), x2 = 2 (ein Brief an die Kunden), x3 = 3 (zwei und mehr Briefe an die Kunden). Die Variable Umsatzsteigerung (Y ) hat die Auspr¨agungen y1 = 1 (keine Bestellung), y2 = 2 (eine Bestellung), y3 = 3 (zwei und mehr Bestellungen). Die Kontingenztafel hat folgende Gestalt:
X
1 2 3
1 300 600 1100 2000
Y 2 300 1000 2000 3300
3 100 200 400 700
700 1800 3500 6000
Wir gehen dabei nach folgendem Arbeitsplan vor: 1. Als Arbeitshypothese formulieren wir: X und Y sind abh¨angig.
276
11. Analyse von Kontingenztafeln
2. Daraus ergibt sich als statistische Hypothese H0 : X und Y sind unabh¨angig. 3. Somit ist der Fall f¨ ur uns interessant, wenn H0 abzulehnen ist. Nach Ablehnung von H0 soll eine Analyse der Abh¨angigkeitsstruktur mittels der G2 -Zerlegung vorgenommen werden. Dabei werden wir die ordinale Struktur der Variablen dahingehend beachten, dass nur die Zusammenfassung benachbarter Kategorien sinnvoll ist. Wir berechnen die bei Unabh¨ angigkeit von X und Y erwarteten Zellben n setzungen m ˆ ij = i+n +j : 1 233.3 600.0 1166.7
1 2 3
X
Y 2 385.0 990.0 1925.0
3 81.7 210.0 408.3
Daraus erhalten wir als Pearson’s χ2 -Statistik C = 49.41 > 9.49 = c4;0.95 und G2 = 49.14 > 9.49, so dass beide Tests die Hypothese H0 : X und Y ” unabh¨angig“ ablehnen. 2 Wir f¨ uhren die G -Zerlegung zeilenweise durch, da nur die Variable X (Werbung) durch das Versandhaus beeinflusst werden kann:
1 2
X
1 300 600
Y 2 300 1000
3 100 200
X
1+2 3
1 900 1100
Y 2 1300 2000
3 300 400
Die unter H0 erwarteten Besetzungen lauten mit m ˆ ij = (ni+ n+j )/n
X
1 2
1 252 648
Y 2 364 936
3 84 216
X
1+2 3
1 833.3 1166.7
Y 2 1375.0 1925.0
3 291.7 408.3
Es gilt G2 = 32.60 + 16.54 = 49.14 , df = 2 + 2 = 4 . Damit erhalten wir als vorl¨ aufiges Ergebnis: Sowohl das Verschicken eines Briefes wirkt sich (positiv) auf das Bestellverhalten der Kunden aus als auch das Versenden mehrerer Briefe (im Vergleich zum Versenden keines oder eines Briefes). Wir wollen nun noch eine andere zul¨ assige Zerlegung vornehmen, die uns zu einer sch¨arferen Interpretation dieses Beispiels f¨ uhrt. Dazu betrachten wir die folgende Zerlegung in vier 2 × 2-Tafeln:
11.5 Die Vierfeldertafel
277
Y (1) X
(2) X
3 2
1 1100 600
2 2000 1000
3 2
Y 1+2 3 3100 400 1600 200
G2 = 1.85 (df = 1)
G2 = 0.12 (df = 1)
Y (3) X
(4) X
3+2 1
1 1700 300
3+2 1
Y 1+2 3 4700 600 600 100
Wir erhalten 0.05).
4
i=1
2 3000 300
G2 = 42.16 (df = 1)
G2 = 5.01 (df = 1)
G2(i) = 49.14. G2(3) und G2(4) sind signifikant (bei α =
Interpretation: Aus Tafel (3) ergibt sich als gr¨oßter Effekt: Kein/ein- oder mehrere Briefe werden verschickt. Dieser Effekt wirkt positiv insofern, dass mehr Kunden u ¨ berhaupt etwas bestellen. Dies best¨atigt also nur, dass sich Werbung auszahlt. Tafel (1) zeigt jedoch bei Betrachtung nur der Kunden, die keine oder eine Bestellung aufgeben, dass sich die Zahl derer, die eine Bestellung aufgeben, im Verh¨ altnis zur Zahl derer, die keine Bestellung aufgeben, durch mehrmaliges Versenden eines Briefes nicht erh¨ohen l¨asst.
11.5 Die Vierfeldertafel Die Vierfeldertafel ist ein wesentlicher Spezialfall von I ×J-Kontingenztafeln. Sie hat mit der Standardkodierung 1 und 0 f¨ ur die beiden Auspr¨agungen von X und Y die Gestalt wie in Tabelle 11.2. Die allgemeine Form (11.11) der Chi-Quadrat-Statistik zum Pr¨ ufen von angig“ vereinfacht sich zu H0 : X und Y unabh¨ ” (n11 n22 − n12 n21 )2 n . C= n1+ n2+ n+1 n+2 Zus¨atzlich zur χ2 -Statistik kann man ein Maß verwenden, das die St¨arke und die Richtung des Zusammenhangs zwischen X und Y angibt – den OddsRatio oder das sogenannte Kreuzprodukt-Verh¨ altnis.
278
11. Analyse von Kontingenztafeln Tabelle 11.2. Vierfeldertafel der Grundgesamtheit und der Stichprobe Y X
1 0
1 π11 π21 π+1
Y 0 π12 π22 π+2
π1+ π2+ 1
X
1 0
1 n11 n21 n+1
0 n12 n22 n+2
n1+ n2+ n
Odds-Ratio Der Odds-Ratio in der gemeinsamen Verteilung von X und Y ist definiert als OR =
π11 π22 . π12 π21
Der Odds-Ratio ist der Quotient aus dem Odds π11 /π12 in der Auspr¨agung x1 = 1 zum Odds π21 /π22 in der Auspr¨ agung x2 = 0. Die Odds geben f¨ ur die jeweilige X-Auspr¨ agung das Verh¨ altnis an, die Auspr¨agung y1 = 1 statt y2 = 0 zu erhalten. Falls die Odds f¨ ur beide X-Auspr¨agungen identisch sind – also nicht von X abh¨ angen – so gilt OR = 1. Theorem 11.5.1. In einer Vierfeldertafel sind X und Y genau dann unabh¨angig, wenn OR = 1 gilt. Es gilt stets 0 ≤ OR < ∞ .
F¨ ur 0 ≤ OR < 1 liegt ein negativer Zusammenhang zwischen X und Y vor, f¨ ur OR > 1 ein positiver Zusammenhang. Positiv bedeutet, dass das Produkt der Wahrscheinlichkeiten der u ¨bereinstimmenden Auspr¨agungen (X = 1, Y = 1) und (X = 0, Y = 0) gr¨oßer ist als das Produkt der Wahrscheinlichkeiten f¨ ur die gegenl¨ aufigen Auspr¨agungen (X = 1, Y = 0) und (X = 0, Y = 1). Diese Situation f¨ ur die Stichprobe ist in Abbildung 11.1 dargestellt. Die Sch¨atzung des OR erfolgt durch den Stichproben Odds-Ratio = = n11 n22 . OR n12 n21
Basierend auf dem Odds-Ratio l¨ asst sich – alternativ zur χ2 -Statistik – eine Teststatistik f¨ ur H0 : X und Y unabh¨ angig“ durch folgende monotone ” Transformation gewinnen: Sei θ0 = ln OR = ln π11 + ln π22 − ln π12 − ln π21 und
= = ln n11 n22 , θˆ0 = ln OR n12 n21 so gilt asymptotisch (Agresti, 1990), dass θˆ0 normalverteilt ist mit Erwartungswert θ0 . Die Standardabweichung von θˆ0 wird gesch¨atzt durch
11.5 Die Vierfeldertafel
1
2
1
n11
n12
2
n21
n22
279
Abb. 11.1. Positiver Zusammenhang in einer 2 × 2-Tafel (symbolisch durch große Punkte (n11 bzw. n22 ) und kleine Punkte (n21 bzw. n12 ) dargestellt)
σ ˆθˆ0 =
1 1 1 1 + + + n11 n22 n12 n21
21
.
Bei Unabh¨angigkeit von X und Y ist OR = 1 und damit θ0 = ln OR = 0. F¨ ur −∞ < θ0 < 0 liegt ein negativer und f¨ ur 0 < θ0 < ∞ ein positiver Zusammenhang vor. Wir k¨onnen also zus¨ atzlich zum Test mit der χ2 -Statistik folgenden Test f¨ ur H0 : X und Y unabh¨ angig“ gegen H1 : X und Y nicht unabh¨angig“ ” ” durchf¨ uhren. Wir bestimmen die Teststatistik Z, die unter H0 : θ = 0 standardnormalverteilt ist: θˆ0 ∼ N (0, 1) . Z= σ ˆθˆ0 Wir werden H0 ablehnen, falls |z| > z1− α2 gilt (zweiseitige Fragestellung). Wir bestimmen ein (1 − α)-Konfidenzintervall f¨ ur θ0 gem¨aß : ; ˆθˆ0 , θˆ0 + z1− α2 σ ˆθˆ0 = [Iu , Io ] θˆ0 − z1− α2 σ
und lehnen H0 ab, falls die Null nicht im Intervall enthalten ist. Durch R¨ ucktransformation erhalten wir ein Konfidenzintervall f¨ ur den Odds-Ratio selbst gem¨aß [exp(Iu ), exp(Io )] . (11.15) Auf der Basis von (11.15) w¨ urde man H0 ablehnen, falls die Eins nicht im Intervall enthalten ist. Alle diese Tests sind nat¨ urlich ¨aquivalent. Beispiel 11.5.1. In einer Studie wird der Einfluss von Strategietraining von n = 255 Managern auf den Erfolg der Firmen untersucht:
280
11. Analyse von Kontingenztafeln
Training (X)
nein ja
Erfolg nein 40 30 70
(Y ) ja 75 110 185
115 140 255
Wir pr¨ ufen H0 : X, Y unabh¨ angig“. ” (i) Chi-Quadrat-Statistik C=
255(40 · 110 − 30 · 75)2 = 5.65 > 3.84 = c1;0.95 , 70 · 185 · 115 · 140
d.h., H0 wird abgelehnt (p-value 0.0174). (ii) Odds-Ratio = = 40 · 110 = 1.96 , OR 75 · 30 d.h., es besteht ein positiver Zusammenhang (iii) ln(OR) = = θˆ0 = 0.673 ln OR 1 1 1 1 σ ˆθ2ˆ = + + + = 0.0808 = 0.2842 . 0 40 75 30 110 Damit erhalten wir z =
θˆ0 σ ˆθˆ
= 2.370 > 1.96 = z0.975 , weswegen wir H0
0
ablehnen. (iv) 95%-Konfidenzintervall f¨ ur θ0 [0.673 − 1.96 · 0.284, 0.673 + 1.96 · 0.284] = [0.116, 1.230] . Wir lehnen H0 ab (zweiseitiger Test), da die Null nicht im Intervall enthalten ist. Das 95%-Konfidenzintervall f¨ ur OR hat die Gestalt [exp(0.116), exp(1.230)] = [1.123, 3.421] . Wir lehnen H0 ab, da die Eins nicht im Konfidenzintervall enthalten ist.
11.6 Zweifache Klassifikation und loglineare Modelle Die Betrachtung von zwei kategorialen Variablen X und Y mit I bzw. J Kategorien in einer Realisierung (Stichprobe) vom Umfang n liefert Beobachtungen nij in N = I × J Zellen der Kontingenztafel.
11.6 Zweifache Klassifikation und loglineare Modelle
281
Setzen wir zun¨ achst das Multinomialschema voraus, so bilden die Wahrscheinlichkeiten πij der zugeh¨ origen Multinomialverteilung den Kern der gemeinsamen Verteilung, wobei Unabh¨ angigkeit der Variablen ¨aquivalent ist mit πij = πi+ π+j
(f¨ ur alle i, j).
Wir u origen erwarteten Zellh¨aufigkeiten ¨ bertragen dies auf die zugeh¨ mij = nπij , um mit den H¨ aufigkeiten in einer Kontingenztafel arbeiten zu k¨onnen. F¨ ur diese gilt unter Unabh¨ angigkeit von X und Y mij = nπi+ π+j .
(11.16)
Die Modellierung der I × J-Tafel erfolgt auf der Basis von (11.16) als Unabh¨angigkeitsmodell in der logarithmischen Skala: ln(mij ) = ln(n) + ln(πi+ ) + ln(π+j ) , so daß die Effekte der Zeilen und Spalten additiv auf ln(mij ) wirken. Eine alternative Darstellung in Anlehnung an die Modelle der Varianzanalyse der Gestalt ⎛ ⎞ I J yij = μ + αi + βj + εij , ⎝ αi = βj = 0 ⎠ i=1
j=1
ist gegeben durch
Y ln(mij ) = μ + λX i + λj
(11.17)
mit λX i
1 = ln(πi+ ) − I
$
I
%
ln(πk+ )
k=1
,
(11.18)
$ J % 1 λYj = ln(π+j ) − ln(π+k ) , J k=1 $ I $ J % % 1 1 ln(πk+ ) + ln(π+k ) , μ = ln n + I J k=1
(11.19)
(11.20)
k=1
wobei die Reparametrisierungsbedingungen I i=1
λX i =
J
λYj = 0
j=1
gelten, die erst die Sch¨ atzbarkeit der Parameter sichern.
(11.21)
282
11. Analyse von Kontingenztafeln
Anmerkung. Die λX die Abweichungen der ln(πi+ ) von ihrem Mittelwert i sind I 1 I X ln(π ), so daß i+ i=1 i=0 λi = 0 (vgl. (11.21)) folgt. I
Das Modell (11.17) heißt Loglineares Modell f¨ ur die Unabh¨ angigkeit in einer zweidimensionalen Kontingenztafel. Das zugeh¨orige saturierte Modell enth¨ alt zus¨atzlich die Wechselwirkungen λXY : ij Y XY ln(mij ) = μ + λX . i + λj + λij Es beschreibt die perfekte Anpassung. F¨ ur die Wechselwirkungen gilt die Reparametrisierungsbedingung I
λXY = ij
i=1
J
λXY =0. ij
j=1
Hat man die λij in den ersten (I − 1)(J − 1) Zellen gegeben, so sind durch diese Bedingung die anderen λij (in der letzten Zeile bzw. letzten Spalte) bestimmt. Damit hat das saturierte Modell insgesamt 1 + (I − 1) + (J − 1) + (I − 1)(J − 1) = I · J (μ) (λX (λYj ) (λXY i ) ij ) unabh¨angige Parameter (also 0 Freiheitsgrade). F¨ ur das Unabh¨ angigkeitsmodell haben wir entsprechend 1 + (I − 1) + (J − 1) = I + J − 1 unabh¨angige Parameter (also I ×J −I −J +1 = (I −1)(J −1) Freiheitsgrade). Interpretation der Parameter Die loglinearen Modelle sch¨ atzen die Abh¨ angigkeit von ln(mij ) von Zeilenund Spalteneffekten. Dabei wird nicht zwischen Einfluß- und Responsevariable unterschieden; die Information aus Zeilen oder Spalten geht symmetrisch in ln(mij ) ein. Betrachten wir den einfachsten Fall – die I ×2-Tafel (Unabh¨angigkeitsmodell). Y ist damit eine bin¨ are Variable mit den Auspr¨agungen y1 = 1 und y2 = 2 und den Wahrscheinlichkeiten (in Abh¨ angigkeit von der i-ten Kategorie von X) P (Y = 1|X = i) = π1|i und P (Y = 2|X = i) = π2|i = 1 − π1|i . Damit ist der Quotient π1|i /π2|i der Odds f¨ ur Response Y = 1. Den Logarithmus dieses Odds bezeichnet man als Logit von π1|i , d.h. π1|i π1|i Logit(π1|i ) = ln = ln . π2|i 1 − π1|i
11.6 Zweifache Klassifikation und loglineare Modelle
283
Der Logit von π1|i ist unter (11.17) also π1|i Logit(π1|i ) = ln π2|i mi1 = ln mi2 = ln(mi1 ) − ln(mi2 ) Y X Y = (μ + λX i + λ1 ) − (μ + λi + λ2 ) = λY1 − λY2
und damit f¨ ur alle Zeilen gleich, also unabh¨ angig von X bzw. den Kategorien i = 1, . . . , I. Die Reparametrisierungsbedingung λY1 + λY2 = 0 ergibt λY1 = −λY2 , so dass π1|i = 2λY1 (i = 1, . . . , I) ln π2|i und damit
π1|i = exp(2λY1 ) (i = 1, . . . , I) π2|i
gilt. D.h., in jeder X-Kategorie ist der Odds daf¨ ur, dass Y in Kategorie 1 statt in Kategorie 2 f¨ allt, gleich exp(2λY1 ), sofern das Unabh¨angigkeitsmodell gilt. 2 × 2-Tafel Der Odds-Ratio OR einer 2 × 2-Tafel und das saturierte loglineare Modell stehen in folgendem Zusammenhang: m11 m22 ln(OR) = ln m12 m21 = ln(m11 ) + ln(m22 ) − ln(m12 ) − ln(m21 ) Y XY X Y XY = (μ + λX 1 + λ1 + λ11 ) + (μ + λ2 + λ2 + λ22 ) Y XY X Y XY − (μ + λX 1 + λ2 + λ12 ) − (μ + λ2 + λ1 + λ21 )
XY XY XY = λXY 11 + λ22 − λ12 − λ21 . 2 2 XY XY XY Wegen i=1 λXY = j=1 λXY = 0 folgt λXY 11 = λ22 = −λ12 = −λ21 ij ij und damit ln OR = 4λXY 11 . Der Odds-Ratio in einer 2 × 2-Tafel ist also
OR = exp(4λXY 11 ) ,
(11.22)
d.h., er ist direkt abh¨ angig vom Zusammenhangsmaß im saturierten loglinearen Modell. Besteht kein Zusammenhang, ist also λij = 0, so ergibt sich OR = 1.
284
11. Analyse von Kontingenztafeln
Beispiel 11.6.1. Wir demonstrieren die Analyse einer zweidimensionalen Kontingenztafel durch loglineare Modelle der verschiedenen Typen f¨ ur den Zusammenhang zwischen Werbung (X) und Umsatzsteigerung (Y ) aus Beispiel ¨ 11.4.1. Wir geben die Kontingenztafel zur besseren Ubersicht noch einmal an.
1 2 3
X
Y 2 300 1000 2000 3300
1 300 600 1100 2000
3 100 200 400 700
700 1800 3500 6000
Zur Analyse setzen wir SPSS ein. * * * * * * * *
H I E R A R C H I C A L
L O G
L I N E A R
* * * * *
Tests that K-way and higher order effects are zero. K
DF
L.R. Chisq
Prob
Pearson Chisq
Prob
Iteration
2 1
4 8
49.141 3952.769
.0000 .0000
49.408 4440.000
.0000 .0000
2 0
Estimates for Parameters. X*Y Parameter Coeff. 1 .1328526668 2 -.2367015413 3 -.0374225411 4 .1038488745
Std. Err. .03944 .03893 .03220 .03038
Z-Value Lower 95 CI Upper 95 CI 3.36884 .05556 .21015 -6.08060 -.31300 -.16040 -1.16229 -.10053 .02568 3.41870 .04431 .16339
Parameter Coeff. 1 -.7969960551 2 .0664263334
Std. Err. .03108 .02515
Z-Value Lower 95 CI Upper 95 CI -25.64351 -.85791 -.73608 2.64100 .01713 .11572
Parameter Coeff. 1 .2333514294 2 .6029056376
Std. Err. .02382 .02297
Z-Value Lower 95 CI Upper 95 CI 9.79529 .18666 .28004 26.24595 .55788 .64793
X
Y
Abb. 11.2. SPSS-Output zu Beispiel 11.6.1
Interpretation: Der Test auf H0 : λij = 0 ∀i, j ergibt einen Wert von Pearson’s χ2 -Statistik c = 49.408 (p-value 0.0000), so dass H0 abgelehnt wird, das saturierte Modell also gegen¨ uber dem Unabh¨angigkeitsmodell statistisch signifikant ist. Die Parametersch¨ atzungen (vgl. SPSS Listing) lauten λXY 11 = 0.1329
11.6 Zweifache Klassifikation und loglineare Modelle
285
λXY 12 = −0.2367 λXY 21 = −0.3742 λXY 22 = 0.1038 .
XY XY XY Daraus folgt z.B. wegen λXY 11 + λ12 + λ13 = 0 sofort λ13 = −0.1329 + 0.2367 = 0.1038. F¨ ur die Haupteffekte lesen wir aus dem SPSS Listing ab:
λX 1 = −0.7970 , λX 2 = 0.0664 .
Damit ist λX 3 = 0.7970 − 0.0664 = 0.7306. λY1 = 0.2334 und λY2 = 0.6029 ergibt λY3 = −0.2334 − 0.6029 = −0.8363.
286
11. Analyse von Kontingenztafeln
11.7 Aufgaben und Kontrollfragen Aufgabe 11.1: Gegeben sei folgende Kontingenztafel:
X
1 2
1 10 70
2 30 180
Y 3 40 200
4 50 250
5 50 200
Berechnen Sie Pearson’s Chi-Quadrat und f¨ uhren Sie den Test auf H0 : X ” und Y unabh¨angig“ durch. F¨ uhren Sie die spaltenweise G2 -Analyse durch. Kann man die Tafel durch Zusammenlegen von Y -Auspr¨ agungen aussagef¨ahiger gestalten? Aufgabe 11.2: Gegeben sei folgende 2 × 2-Tafel f¨ ur die Variablen X: gesunde ” Lebensweise“ und Y : Gesundheit“ mit den Auspr¨agungen X = 1: ‘Raucher’, ” X = 0: ‘Nichtraucher’, Y = 1: ‘krank’ und Y = 0: ‘gesund’. Pr¨ ufen Sie H0 : X und Y sind unabh¨ angig“ mit Pearson’s χ2 -Statistik, OR und ln OR. ” Y 1 0 1 40 60 X 0 20 80 Aufgabe 11.3: Die Einf¨ uhrung des EU-Standards ISO 9001 ergab in einem Werk folgende Ver¨ anderung des Ausschussanteils:
nachher vorher
Produkte mangelhaft einwandfrei 20 80 40 60
Pr¨ ufen Sie, ob die Einf¨ uhrung des EU-Standards ISO 9001 einen signifikanten Effekt ergab. Aufgabe 11.4: Eine Stichprobenuntersuchung der Variablen ‘Geschlecht’ und ‘Beteiligung am Erwerbsleben’ ergab die folgende Kontingenztafel: m¨annlich weiblich
Erwerbst¨ atig 16950 10800
Erwerbslos 1050 1100
Nichterwerbspersonen 11780 20200
Pr¨ ufen Sie, ob ein signifikanter Zusammenhang zwischen Beteiligung am Erwerbsleben und Geschlecht vorliegt. Unterscheiden Sie das Merkmal ‘Beteiligung am Erwerbsleben’ nur nach Erwerbspersonen (= Erwerbst¨ atig oder Erwerbslos) und Nichterwerbspersonen. Stellen Sie die entsprechende Vier-Felder-Tafel auf, und pr¨ ufen Sie den Zusammenhang erneut.
11.7 Aufgaben und Kontrollfragen
287
Aufgabe 11.5: In einem Krankenhaus wurden folgende Geburten registriert: m¨ annlich weiblich 0 bis 12 Uhr 5 3 8 12 bis 24 Uhr 8 3 11 13 6 19
Pr¨ ufen Sie, ob ein signifikanter Zusammenhang zwischen Tageszeit und Geschlecht vorliegt. Aufgabe 11.6: Interpretieren Sie folgendes Listing. X * Y Crosstabulation Count Y 1,00 X
1,00 2,00
2,00 12 18 30
Total
Total 8 2 10
20 20 40
Chi-Square Tests
Pearson Chi-Square Continuity Correctiona Likelihood Ratio Fisher's Exact Test Linear-by-Linear Association N of Valid Cases
Value 4,800b 3,333 5,063
4,680
1 1 1
Asymp. Sig. (2-sided) ,028 ,068 ,024
1
,031
df
Exact Sig. (2-sided)
Exact Sig. (1-sided)
,065
,032
40
a. Computed only for a 2x2 table b. 0 cells (,0%) have expected count less than 5. The minimum expected count is 5,00.
Aufgabe 11.7: Um die Wirkung eines neuentwickelten blutdrucksenkenden Mittels zu untersuchen, wird damit ein Versuch mit 50 m¨annlichen und 50 weiblichen, zuf¨allig ausgew¨ ahlten Patienten durchgef¨ uhrt. Beweisen die in der nachfolgenden Tabelle aufgef¨ uhrten Ergebnisse, dass M¨anner und Frauen unterschiedlich auf das neue Medikament reagieren (α = 0.01)? M¨ anner Frauen
+ 11 22
− 17 17
0 22 11
Aufgabe 11.8: Es soll untersucht werden, ob zwischen der Wahl eines Studienfaches und den Hobbies der Studenten ein Zusammenhang besteht. Zu diesem Zweck werden 5000 Studenten aus 3 Fachrichtungen zuf¨allig ausgew¨ahlt und nach ihren Hobbies befragt. Hier die Ergebnisse der Befragung:
288
11. Analyse von Kontingenztafeln
Literatur Schach Musik Sport Tanz
BWL 400 50 250 1000 300
Physik 50 400 250 200 100
Anglistik 550 50 500 800 100
F¨ uhren Sie zum Niveau α = 0.01 den entsprechenden Test durch.
12. Lebensdaueranalyse
12.1 Problemstellung Die Lebensdaueranalyse (Survival analysis) wird – neben ihrem Hauptanwendungsgebiet Medizin – zunehmend in Technik, Soziologie und Betriebsund Volkswirtschaft eingesetzt. Bei der Lebensdaueranalyse werden Beobachtungseinheiten u ¨ber eine bestimmte Zeit hinweg auf ihren Zustand hin u uft. Insbesondere wird der Wechsel von einem Ausgangszustand in ¨berpr¨ einen Endzustand sowie der Zeitpunkt des Zustandswechsels registriert. Diese Zustandswechsel heißen auch Ereignisse, so dass man statt Lebensdaueranalyse auch den Begriff Ereignisanalyse verwendet. F¨ ur die Auswertung dieser L¨angsschnittdaten ist es notwendig, ein Studienende festzulegen. Deshalb gibt es Einheiten, die zum Studienende noch ohne Ereignis sind. Die Verweildauer dieser Einheiten heißt dann zensiert (genauer: rechtszensiert). Auch die Verweildauer von Objekten, die vor Studienende aus Gr¨ unden, die nicht notwendig mit der Untersuchung in Zusammenhang stehen, aus der Studie ausfallen, ist zensiert. Die verschiedenen M¨ oglichkeiten sind in Abbildung 12.1 dargestellt: Ausscheiden aus der Studie (I), zensiert durch Studienende (II) und Untersuchungseinheit mit Ereignis (III). •I •III Start
•II
? ? •
Zeit Studienende
Abb. 12.1. M¨ ogliche Zust¨ ande von Untersuchungseinheiten
Wir m¨ ussen also unterscheiden zwischen den Objekten, bei denen das Ereignis beobachtet wurde, das heißt deren tats¨ achliche Lebensdauer beobachtet wurde und den Objekten, bei denen die tats¨achliche Lebensdauer wegen Zensierung nicht beobachtet werden konnte. Im letzteren Fall ist die tats¨achliche Lebensdauer aber mindestens so groß wie die Verweildauer in der Studie. Folgende Grundbegriffe sind also f¨ ur die Datenstruktur von Bedeutung:
290
12. Lebensdaueranalyse
Ausgangszeitpunkt: Endzeitpunkt: Lebensdauer: Verweildauer:
Eintritt der Beobachtungseinheit in die Untersuchung Austritt der Beobachtungseinheit aus der Untersuchung Zeitintervall bis zum Zustandswechsel (Ereignis) Zeitintervall bis zum Zustandswechsel bzw. bis zur Zensierung
Beispiele. • Zuverl¨assigkeit von technischen Systemen (Lebensdauer von Gl¨ uhbirnen, Lebensdauer von LKW-Achsen bis zur ersten Reparatur) Zust¨ande: intakt/nicht intakt Ereignis: Ausfall der Gl¨ uhbirne (bzw. der Achse) ¨ • Abwehrstrategie von kleinen Regionalbanken gegen die Ubernahme durch eine Großbank Zust¨ande: Fortbestand einer kleinen Bank ja/nein ¨ Ereignis: Ubernahme durch die Großbank • Zuverl¨assigkeit von zahnmedizinischen Implantaten Zust¨ande: Funktionsf¨ ahigkeit ja/nein Ereignis: Extraktion • Wiedereingliederung von Arbeitslosen Zust¨ande: arbeitslos/nicht arbeitslos Ereignis: Vermittlung einer Arbeitsstelle Bei der Lebensdaueranalyse werden f¨ ur jede Beobachtungseinheit zwei Zufallsvariablen realisiert: das Zeitintervall von einem Ausgangszeitpunkt bis zum Eintreten des Endzustands bzw. bis zur Zensierung und der Zustandswechsel. Der Zustandswechsel ist eine diskrete Zufallsvariable mit den beiden Auspr¨agungen Ereignis ja/nein“. Die Verweildauer hingegen ist eine steti” ¨ ge Zufallsvariable. Ziel ist die Sch¨ atzung von Uberlebenswahrscheinlichkeiten und ihr Vergleich bez¨ uglich verschiedener Gruppen (Mehrstichprobenproblem). Beispiel 12.1.1 (Lebensdauer von Regionalbanken). In Tabelle 12.1 sind zur Demonstration der obigen Begriffe und der Datenstruktur die Daten von 26 US-amerikanischen Regionalbanken angegeben, die mit zwei Abwehrstrate¨ gien A bzw. B einer Ubernahme durch eine Großbank entgegenwirken wollen. Die Strategien lauten ¨ A: 90% der Aktion¨ are m¨ ussen f¨ ur eine Ubernahme stimmen B: Wechsel des Firmensitzes in einen anderen Eintragungsstaat (mit besserem gesetzlichen Schutz) Die Variable Ereignis“ in der Kodierung 1 (Ereignis) und 0 (zensiert) ist ” die realisierte Zufallsvariable Zustandswechsel“, die Variable Verweildauer“ ” ” ist die Realisierung der entsprechenden Zufallsvariable.
12.2 Survivorfunktion und Hazardrate
291
Tabelle 12.1. Datenstruktur der Regionalbanken i 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26
Strategie A A B A B B A B A B A B A A A B B A A A B B A B B A
Verweildauer 1431 1456 1435 116 602 406 98 1260 1263 172 393 911 34 912 1167 1003 151 669 533 1044 1015 116 570 914 899 898
Ereignis 0 0 0 1 0 1 1 0 1 1 1 0 1 1 0 0 0 1 0 0 0 1 0 0 1 0
12.2 Survivorfunktion und Hazardrate Die Lebensdauer T ist eine stetige Zufallsvariable mit der Dichtefunktion f (t) und der Verteilungsfunktion F (t) = P (T ≤ t) . Die Survivorfunktion S(t) = P (T > t) gibt die Wahrscheinlichkeit daf¨ ur an, dass die Versuchseinheit eine Lebensdauer von mindestens t hat. Da die Lebensdauer T eine stetige Zufallsvariable ist, gilt S(t) = 1 − F (t) . (12.1) T wird diskret, sofern der Endzeitpunkt nicht exakt angegeben werden kann, sondern nur ein Intervall bekannt ist, in dem der Endzeitpunkt liegen wird. Wir behandeln hier den stetigen Fall. Da F (t) als Verteilungsfunktion monoton wachsend ist, ist gem¨ aß (12.1) die Survivorfunktion monoton fallend.
292
12. Lebensdaueranalyse
Das Risiko eines Ereignisses zum Zeitpunkt t wird als Hazardrate λ(t) bezeichnet. Hazardrate und Survivorfunktion stehen in folgender Relation zueinander: f (t) f (t) = , (12.2) λ(t) = S(t) 1 − F (t) woraus sich zwei weitere Beziehungen ergeben (vgl. z.B. Blossfeld, Hamerle und Mayer, 1986). Integriert man λ(t) und verwendet man die beiden Beziehungen in (12.2), so erh¨ alt man die Survivorfunktion als Funktion der Hazardrate:
t 0
λ(s)ds =
t 0
f (u) du 1 − F (u) t
= − ln (1 − F (u))]0 = − ln (1 − F (t)) = − ln S(t) . Durch Verwendung der Exponentialfunktion folgt daraus ⎛ ⎞
t S(t) = exp ⎝− λ(s) ds⎠ .
(12.3)
0
F¨ ur die Dichte erh¨ alt man aus (12.2) und (12.3) die Beziehung f (t) = λ(t) · S(t) ⎛
= λ(t) exp ⎝−
t 0
⎞
λ(s)ds⎠ .
(12.4)
Wenn die Hazardrate bekannt ist, kann man nach (12.3) S(t) und dann nach (12.4) f (t) bestimmen. Die Hazardrate definiert also den Typ der Lebensdauerverteilung. Ist z.B. λ(t) = λ eine zeitunabh¨angige Konstante f¨ ur den gesamten Prozeß, so liegt eine exponentiell verteilte Lebensdauer vor: S(t) = exp(−λt) , f (t) = λ exp(−λt) . Die wesentliche statistische Aufgabe ist die Sch¨atzung der Hazardrate λ(t) und der Survivorfunktion S(t), die wir im Folgenden vorf¨ uhren wollen.
12.3 Kaplan-Meier-Sch¨ atzung Wir haben im Buch Deskriptive Statistik“ die empirische Sterbetafelme” thode verwendet, deren G¨ ute durch die Breite und die Lage der Intervalle
12.3 Kaplan-Meier-Sch¨ atzung
293
bestimmt wird, in die man den Beobachtungszeitraum aufteilt. Je breiter die Intervalle sind, desto ungenauer k¨ onnen die Sch¨atzungen werden. Um die Willk¨ ur bei der Wahl der Intervalle auszuschließen, haben Kaplan und Meier (1958) den Kaplan-Meier-Sch¨ atzer f¨ ur die Survivorfunktion vorgeschlagen. Ausgangspunkt ist eine Zerlegung der Zeitachse in Intervalle, wobei die beobachteten Ereigniszeitpunkte (z.B. Tage der Ausf¨alle) als Intervallgrenzen gew¨ahlt werden. Wir bezeichnen die zeitlich aufsteigend geordneten Ereigniszeitpunkte mit t(1) < t(2) < . . . < t(m) , wobei m ≤ n (n: Gesamtzahl der Einheiten) ist und angenommen wird, dass Zensierungen und Ereignisse nicht gleichzeitig eintreten. Die KaplanMeier-Sch¨atzung ist nichtparametrisch, da sie keine spezifische Gestalt der zugrundeliegenden Survivorfunktion voraussetzt. Eine grundlegende Voraussetzung ist die Annahme, dass die Einheiten mit zensierten Verweildauern eine zuf¨allige Stichprobe derselben Population wie die nichtzensierten Einheiten sind. Die Wahrscheinlichkeit, eine Einheit mit zensierter Verweildauer zu erhalten, ist dann unabh¨ angig von der unbeobachteten tats¨achlichen Verweildauer dieser Einheit. Es sei dk die Anzahl der zum Zeitpunkt t(k) eingetretenen Ereignisse. R(k) bezeichne die Anzahl der unter Risiko stehenden Einheiten. Dies sind die Einheiten, die zu Beginn des k-ten Intervalls noch kein Ereignis hatten und auch nicht zensiert sind. Wir bilden die Intervalle [0, t(1) ), [t(1) , t(2) ), . . . , [t(m) , ∞) . Im k-ten Intervall finden dk Ereignisse und wk Zensierungen statt. Dann berechnet sich die Anzahl R(k) wie folgt (vgl. Blossfeld et al., 1986): R(1) = n
(Gesamtzahl der Einheiten in der Studie)
R(k) = R(k−1) − dk−1 − wk−1
(k = 2, 3, . . . , m + 1)
Wir definieren f¨ ur jede Beobachtungseinheit folgende Zufallsvariablen Xk : Xk = 0 Xk = 1
: :
kein Ereignis im k-ten Intervall Ereignis im k-ten Intervall eingetreten
Die Anzahl dk der Versuchseinheiten mit einem Ereignis innerhalb des kten Intervalls ist damit die Summe dieser unabh¨angigen Null-Eins-verteilten Zuffallsvariablen und somit eine binomialverteilte Zufallsvariable. Die Einheiten, die zu Beginn des k-ten Intervalls noch unter Beobachtung und damit unter Risiko stehen, sind unabh¨ angig. F¨ ur die bedingte Ereigniswahrscheinlichkeit (Hazardrate) gelte P (Xk = 1|X1 = . . . Xk−1 = 0) = λ(k) . ¨ Die bedingte Uberlebenswahrscheinlichkeit im k-ten Intervall ist dann
294
12. Lebensdaueranalyse
P (Xk = 0|X1 = . . . Xk−1 = 0) = 1 − λ(k) = p(k) . Bei der Binomialverteilung B(R(k) ; λ(k) ) ist die ML-Sch¨atzung der Wahrscheinlichkeit λ(k) durch ˆ(k) = dk λ R(k) ¨ gegeben. Damit ist die Sch¨ atzung der Wahrscheinlichkeit zum Uberleben des k-ten Intervalls unter der Bedingung, dass die Einheit zu Beginn noch ohne Ereignis ist, ˆ (k) = R(k) − dk (12.5) pˆ(k) = 1 − λ R(k) ebenfalls eine ML-Sch¨ atzung. Wir erhalten also die Sch¨atzungen • Risiko (Hazardrate) zum Zeitpunkt t(k) ˆ (k) = dk , λ R(k) ¨ • bedingte Uberlebenswahrscheinlichkeit zum Zeitpunkt t(k) ˆ (k) , pˆ(k) = 1 − λ • Survivorfunktion zum Zeitpunkt t (Kaplan-Meier-Sch¨atzung) ˆ = 1 f¨ S(t) ur t < t(1) ˆ = pˆ(k) · pˆ(k−1) · . . . · pˆ(1) f¨ S(t) ur t(k) ≤ t < t(k+1) . Beispiel 12.3.1 (Fortsetzung von Beispiel 12.1.1). F¨ ur die Berechnung der Kaplan-Meier-Sch¨ atzung werden zun¨ achst die Ereignis- und Zensierungszeiten aufsteigend sortiert. F¨ ur jeden Ereigniszeitpunkt ist festzustellen, wieviele Einheiten R(k) sich unter Risiko eines Ereignisses befinden. Das SPSS-Listing enth¨alt diese Werte und die auf ihnen aufbauenden Berechnungen. So ist z.B. (nach (12.5)) ˆ (3) = 1 − pˆ(3) = 1 − λ
d3 2 =1− = 0.91667 R(3) 24
und ˆ (3) ) = pˆ(3) · pˆ(2) · pˆ(1) = 0.91667 · 0.96000 · 0.96154 = 0.84615 . S(t Survival Analysis for DIFFER Time
34.00 98.00
Status
Ereignis Ereignis
Cumulative Survival .9615 .9231
Standard Error
Cumulative Events
Number Remaining
.0377 .0523
1 2
25 24
12.3 Kaplan-Meier-Sch¨ atzung
116.00 116.00 151.00 172.00 393.00 406.00 533.00 570.00 602.00 669.00 898.00 899.00 911.00 912.00 914.00 1003.00 1015.00 1044.00 1167.00 1260.00 1263.00 1431.00 1435.00 1456.00
Ereignis Ereignis zensiert Ereignis Ereignis Ereignis zensiert zensiert zensiert Ereignis zensiert Ereignis zensiert Ereignis zensiert zensiert zensiert zensiert zensiert zensiert Ereignis zensiert zensiert zensiert
Number of Cases:
26
.8462
.0708
.8059 .7656 .7253
.0780 .0839 .0886
.6769
.0950
.6249
.1010
.5680
.1066
.4260
.1467
Censored:
15
3 4 4 5 6 7 7 7 7 8 8 9 9 10 10 10 10 10 10 10 11 11 11 11
( 57.69%)
295
23 22 21 20 19 18 17 16 15 14 13 12 11 10 9 8 7 6 5 4 3 2 1 0
Events: 11
Die nach Kaplan-Meier gesch¨ atzte Survivorfunktion ist in Abbildung 12.2 dargestellt. Da es im Beispiel Zensierungszeiten gibt, die gr¨oßer sind als der Zeitpunkt des letzten Ereignisses, strebt die gesch¨atzte Funktion nicht nach 0. Um eine Fehleinsch¨ atzung zu vermeiden, sollte die Kurve nur bis zum letzten Ereigniszeitpunkt betrachtet werden.
Survival-Funktion 1.1 1.0 .9 .8
Kum Survival
.7 .6 .5
Survival-Funktion Zensiert
.4 0
200
400
600
800
1000
1200
1400
1600
DIFFER Abb. 12.2. Kaplan-Meier-Sch¨ atzung der Survivorfunktion (gesamt)
296
12. Lebensdaueranalyse
Beispiel 12.3.2 (Fortsetzung Beispiel 12.1.1). Wir demonstrieren die KaplanMeier-Sch¨atzung mit SPSS nun f¨ ur die Gruppen A und B getrennt. Mit SPSS erhalten wir f¨ ur Gruppe A Survival Analysis for DIFFER Factor STRAT = A Time
34.00 98.00 116.00 393.00 533.00 570.00 669.00 898.00 912.00 1044.00 1167.00 1263.00 1431.00 1456.00
Status
Ereignis Ereignis Ereignis Ereignis zensiert zensiert Ereignis zensiert Ereignis zensiert zensiert Ereignis zensiert zensiert
Number of Cases:
14
Cumulative Survival
Standard Error
Cumulative Events
Number Remaining
.9286 .8571 .7857 .7143
.0688 .0935 .1097 .1207
.6250
.1347
.5208
.1471
.3472
.1724
1 2 3 4 4 4 5 5 6 6 6 7 7 7
13 12 11 10 9 8 7 6 5 4 3 2 1 0
Censored:
7
( 50.00%)
Events: 7
und f¨ ur Gruppe B Survival Analysis for DIFFER Factor STRAT = B Time
116.00 151.00 172.00 406.00 602.00 899.00 911.00 914.00 1003.00 1015.00 1260.00 1435.00
Status
Ereignis zensiert Ereignis Ereignis zensiert Ereignis zensiert zensiert zensiert zensiert zensiert zensiert
Number of Cases:
12
Cumulative Survival
Standard Error
Cumulative Events
Number Remaining
.9167
.0798
.8250 .7333
.1128 .1324
.6286
.1493
1 1 2 3 3 4 4 4 4 4 4 4
11 10 9 8 7 6 5 4 3 2 1 0
Censored:
8
( 66.67%)
Events: 4
12.4 Log-Rank-Test zum Vergleich von Survivorfunktionen Bei der Analyse von Lebensdauerdaten ist der Zwei- und Mehrstichprobenfall von speziellem Interesse. Angenommen, wir haben zwei Gruppen (im Beispiel: Abwehrstrategien A und B der kleinen Banken, zwei Fertigungsst¨atten f¨ ur
12.4 Log-Rank-Test zum Vergleich von Survivorfunktionen
297
Survival-Funktionen 1.1 1.0 .9 .8
Kum Survival
.7
STRAT
.6
B
.5
B-zensiert
.4
A
.3
A-zensiert 0
200
400
600
800
1000
1200
1400
1600
DIFFER Abb. 12.3. Kaplan-Meier-Sch¨ atzungen der Survivorfunktion (Gruppen A und B)
Gl¨ uhbirnen, zwei Therapien zur Behandlung einer Krankheit usw.). Dann ist als statistisches Testproblem die Pr¨ ufung von H0 : SA (t) = SB (t) gegen z.B. H1 : SA (t) = SB (t) (f¨ ur t ≤ t∗ ) von Interesse. Dabei ist t∗ ein festzulegender Zeitpunkt, der h¨ochstens so groß wie der letzte beobachtete Ereigniszeitpunkt sein darf. Der Log-Rank-Test dient zur Feststellung signifikanter Unterschiede des ¨ Uberlebensverhaltens der Subgruppen (A bzw. B). Er kann angewandt werden, wenn sich die Survivorfunktionen nicht u ¨ berschneiden und wenn die Zensierungsf¨alle in den Subgruppen in etwa gleich verteilt sind. Der Log-Rank-Test summiert die Abweichungen der beobachteten Ereignisse von den unter H0 erwarteten (entsprechend dem Verh¨altnis der Anzahl der Versuchseinheiten unter Risiko) zu den einzelnen Ereigniszeitpunkten und kontrolliert dadurch die Abweichungen der beiden Funktionen SA (t) und SB (t) voneinander in allen Zeitpunkten. Wir bezeichnen mit u1 , . . . , un1 und v1 , . . . , vn2 die beobachteten Werte der Verweildauer T in den beiden Stichproben (in unserem Beispiel: die Gruppen A und B). Die beiden Stichproben werden zusammengelegt, und zwar mit den der Gr¨oße nach geordneten Ereigniszeitpunkten t(1) ≤ t(2) ≤ . . . ≤ t(m)
(m ≤ n1 + n2 ) .
Die Risikomenge R(k) ist diejenige Zahl von Einheiten, die unmittelbar vor dem Zeitpunkt t(k) noch kein Ereignis hatten und die im Zeitabschnitt von t(k−1) bis t(k) nicht zensiert wurden. Da wir die Nullhypothese H0 : SA (t) = SB (t)
f¨ ur t ≤ t∗ ,
(12.6)
298
12. Lebensdaueranalyse
d.h. die Gleichheit der Survivorfunktionen beider Subgruppen (Behandlung A bzw. B), u ufen wollen, notieren wir zu den Ereigniszeitpunkten t(k) ¨ berpr¨ die Risikomengen beider Subgruppen. Es sei also • • • •
R(k) die Anzahl aller zum Zeitpunkt t(k) unter Risiko stehenden Einheiten, nAk die unter Risiko stehenden Einheiten der Gruppe A, nBk die unter Risiko stehenden Einheiten der Gruppe B, dk die Anzahl der Ereignisse zum Zeitpunkt t(k) in beiden Gruppen insgesamt, • dAk bzw. dBk die Anzahl der Ereignisse zum Zeitpunkt t(k) in den Subgruppen A bzw. B.
Die Einheiten der beiden Gruppen bilden zum Zeitpunkt t(k) eine 2 × 2Kontingenztafel (Vierfeldertafel) aus dk Ereignissen und R(k) − dk Einheiten ohne Ereignis.
mit Ereignis ohne Ereignis
Gruppe A B dAk dBk nAk − dAk nBk − dBk nAk nBk
dk R(k) − dk R(k)
Die Ausdr¨ ucke dAk , nAk − dAk , dBk und nBk − dBk sind die beobachteten Zellh¨aufigkeiten. Unter der Bedingung, dass die Randh¨aufigkeiten nAk , nBk , dk und R(k) − dk gegeben sind, repr¨ asentiert nur eine Zelle – sagen wir die mit der Zellh¨aufigkeit dAk – eine Zufallsvariable. D.h., diese Zufallsvariable – sagen wir X – hat die beobachtete H¨ aufigkeit dAk , w¨ahrend die anderen H¨aufigkeiten durch die Randsummen bestimmt sind. Unter der Nullhypothese, dass der Status (mit Ereignis/ohne Ereignis) unabh¨angig von den Gruppen A bzw. B ist, besitzt X eine hypergeometrische Verteilung, d.h., es gilt dAk dBk P (X = dAk ) =
nAk
nBk dk R(k)
.
(12.7)
Interpretation: Die obige Kontingenztafel entspricht dem folgenden Urnenmodell. Seien R(k) Kugeln in der Urne, davon nAk weiße und nBk schwarze. Die Gleichung (12.7) definiert die Wahrscheinlichkeit, genau dAk weiße Kugeln bei dk Ziehungen ohne Zur¨ ucklegen zu erhalten. Die erwartete Anzahl von Ereignissen in der Gruppe A zum Zeitpunkt t(k) ist (vgl. (4.9)) nAk · dk . (12.8) E(X) = wAk = R(k) Die Varianz von X ist (vgl. (4.10))
12.4 Log-Rank-Test zum Vergleich von Survivorfunktionen
Var(X) = vAk = dk
299
R(k) − dk nAk 1− R(k) R(k) − 1
nAk = dk R(k)
nAk (R(k) − nAk )(R(k) − dk ) . 2 (R R(k) (k) − 1)
Unter der Nullhypothese (12.6) ist die (auf der Gruppe A basierende) Log-Rank-Teststatistik von Mantel-Haenszel χ21 -verteilt:
S=
m
k=1
(dAk − wAk )2 m
.
vAk
k=1
Tabelle 12.2. Risikomengen der beiden Gruppen k 1 2 3 4 5 6 7 8 9 10
Ereigniszeitpkt. (t) 34 98 116 172 393 406 669 899 912 1263
Unter Risiko A∪B R(k) 26 25 24 21 20 19 15 13 11 4
Unter Risiko Gruppe A nAk 14 13 12 11 11 10 8 6 6 3
Unter Risiko Gruppe B nBk 12 12 12 10 9 9 7 7 5 1
Beispiel 12.4.1 (Fortsetzung von Beispiel 12.3.1). Zur Veranschaulichung des Rechengangs zum Erhalt der Teststatistik dienen die Tabellen 12.2 und 12.3. Als Beispiel sei der Rechengang in der dritten Zeile erl¨autert: wA3 =
12 ·2 =1 , 24
2 · 12 · (24 − 12) · (24 − 2) 6336 = = 0.47826 . 242 · 23 13248 Die erwarteten Ereignisse werden u ¨ ber alle Zeitpunkte summiert. Dies ergibt f¨ ur die Gruppe A die erwartete Gesamtzahl 5.94891 an Ereignissen. Es wird die Differenz zu der Gesamtzahl der tats¨ achlich beobachteten Ereignisse gebildet: 7 − 5.94891 = 1.05109 . vA3 =
Die Summe der Varianzen u ¨ber alle Zeitpunkte betr¨agt 2.65547.
300
12. Lebensdaueranalyse Tabelle 12.3. Berechnung der Log-Rank-Teststatistik Ereignis dk 1 1 2 1 1 1 1 1 1 P 1 11
Ereignis Gruppe A dAk 1 1 1
Ereignis Gruppe B dBk 1 1
1 1 1 1 1 1 7
4
erwartet Gruppe A wAk 0.53846 0.52000 1.00000 0.52381 0.55000 0.52632 0.53333 0.46154 0.54545 0.75000 5.94891
Varianz vAk 0.24852 0.24960 0.47826 0.24943 0.24750 0.24931 0.24889 0.24852 0.24793 0.18750 2.65547
Die Testgr¨oße S errechnet sich als S = 1.051092/2.65547 = 0.42 . Die Testgr¨oße wird mit dem kritischen Wert der χ2 -Verteilung mit einem Freiheitsgrad verglichen. Mit S = 0.42 < 3.84 = c1;0.95 kann die Nullhypothese der Gleichheit der Survivorfunktionen der Gruppen A und B nicht abgelehnt werden. Die beobachteten Unterschiede sind statistisch nicht signifikant. Die Berechnungen mit SPSS ergeben Test Statistics for Equality of Survival Distributions for STRAT Statistic Log Rank
.42
df
Significance
1
.5189
¨ F¨ ur die Uberpr¨ ufung von mehr als zwei Gruppen sollten statistische Programmpakete angewandt werden, da hierbei noch Kovarianzen ber¨ ucksichtigt werden m¨ ussen. Anmerkung. F¨ ur weitere Ausf¨ uhrungen, insbesondere zu Konfidenzb¨andern und zur Einbeziehung von Kovariablen, sei auf Harris und Albert (1991) und Toutenburg (1992b) verwiesen.
12.5 Einbeziehung von Kovariablen in die ¨ Uberlebensanalyse Die Hazardrate λ(t) war definiert als die Wahrscheinlichkeit f¨ ur das Eintreten eines Ereignisses zum Zeitpunkt t f¨ ur ein Individuum, das den Zeitpunkt t erlebt hat. Es galt mit (12.2)
¨ 12.5 Einbeziehung von Kovariablen in die Uberlebensanalyse
λ(t) =
f (t) . S(t)
301
(12.9)
Bezieht man einen (zeitunabh¨ angigen) Kovariablenvektor xi f¨ ur das i–te Individuum als einen die Lebenszeit beeinflussenden Faktor mit ein, so ergibt sich f¨ ur die Hazardrate λi (t) = f (xi , t) .
(12.10)
Glasser (1967) schlug den Ansatz vor λi = λ · exp(−x′i β) ,
(12.11)
der von einer konstanten Hazardrate λ in der Behandlungsgruppe ausgeht und den individuellen Effekt des Patienten im zweiten Term separiert. Dieser Ansatz heißt proportionaler Hazard. Unter diesem Ansatz ist das Verh¨altnis der Hazardraten zweier Patienten λ1 = exp(−(x1 − x2 )′ β) λ2
(12.12)
als eine Funktion der Differenzen der Komponenten der Kovariablenvektoren angig von einem festen Zeitpunkt, d.h. konstant u (x1j − x2j ) unabh¨ ¨ ber den gesamten Verlauf. 12.5.1 Das Proportional–Hazard–Modell von Cox Der Ansatz von Cox (1972) ist ein semiparametrisches Modell f¨ ur die Hazardfunktion des i–ten Individuums: λi (t) = λ0 (t) exp(x′i β) ,
(12.13)
wobei λ0 (t) die unbekannte Baseline–Hazardrate der Population (z.B. Therapiegruppe) ist. xi = (x1i , . . . , xki )′ ist der Vektor der prognostischen Variablen des i–ten Individuums. Wenn β = 0 ist, folgen alle Individuen der Hazardrate λ0 (t). Der Quotient d λλ0i (t) (t) heißt relativer Hazard. Es gilt λi (t) (12.14) ln = x′i β , λ0 (t) so daß das Cox–Modell auch h¨ aufig loglineares Modell f¨ ur den relativen Hazard heißt. Der Vorteil des Cox–Modells liegt darin, daß die Zeitabh¨angigkeit der Verweildauer nur in die Baseline–Hazardrate λ0 (t) einbezogen wird. Die Sch¨atzung des Parametervektors β wird nur an den tats¨achlichen Ereigniszeitpunkten vorgenommen, da zum Versuchsplan X nur die Anzahl der Ereignisse bzw. die Odds festgestellt werden. Wegen der eindeutigen Beziehung ¨ (12.3) zwischen Hazardrate und Uberlebensfunktion
302
12. Lebensdaueranalyse
⎛
S(t) = exp ⎝−
t 0
⎞
λ(s) ds⎠
= exp(−Λ(t))
(12.15)
mit Λ(t) der kumulativen Hazardfunktion l¨ aßt sich das Cox–Modell auch alternativ schreiben als ′
S(t) = S0 (t)exp(x β) , da
⎛
⎛
S(t) = exp ⎝exp(x′ β) ⎝− ⎛
= exp ⎝−
t 0
t 0
(12.16) ⎞⎞
λ0 (s) ds⎠⎠
⎞exp(x′ β)
λ0 (s) ds⎠
exp(x′ β)
= S0 (t) , (12.17) t wobei exp − λ0 (s) ds = exp(−Λ0 (t)) gesetzt werden kann. Die kumula0
¨ tive Baseline–Hazardrate Λ0 (t) steht dann zur “Baseline“–Uberlebenskurve S0 (t) in der Beziehung Λ0 (t) = − ln S0 (t) .
(12.18)
¨ 12.5.2 Uberpr¨ ufung der Proportionalit¨ atsannahme Grundlage des Cox–Modells ist die Annahme der zeitunabh¨angigen Proportionalit¨at der Hazardraten von verschiedenen Patientengruppen (d.h. nach X geschichteten Subgruppen). In Blossfeld et al. (1986) wird folgendes Beispiel gegeben. Betrachtet man die geschlechtsspezifische Schichtung nach M¨annern und ¨ Frauen, so hat man f¨ ur beide Subgruppen folgende Uberlebenskurven: ′
SM (t | x) = S0 (t)exp(x β) exp(γ) exp(x′ β)
SF (t | x) = S0 (t)
,
(12.19) (12.20)
wobei in X die anderen Kovariablen gegeben sind. Nach doppelter Logarithmierung beider Gleichungen erh¨alt man M : ln (− ln SM (t | x)) = ln (− ln S0 (t)) + x′ β + γ F : ln (− ln SF (t | x)) = ln (− ln S0 (t)) + x′ β .
(12.21) (12.22)
¨ Tr¨agt man die so transformierten Uberlebenskurven u ¨ ber der Zeitachse auf, so d¨ urfen sich beide Kurven u ¨ ber dem gesamten Verlauf nur um eine Konstante (n¨amlich γ) unterscheiden, wenn die Proportionalit¨atsannahme zutreffend ist.
¨ 12.5 Einbeziehung von Kovariablen in die Uberlebensanalyse
303
12.5.3 Sch¨ atzung des Cox–Modells Wir betrachten die Sch¨ atzung von β im proportionalen Hazardmodell λ(t) = λ0 (t) exp(x′ β)
(12.23)
bei unbekannter Baseline–Hazardrate λ0 (t). Cox f¨ uhrte eine neue Form einer Likelihoodfunktion ein. Sei tk ein bekannter Ereigniszeitpunkt und sei Rk die Risikogruppe unmittelbar vor diesem Zeitpunkt. Falls genau ein Ereignis (Verlust) zum Zeitpunkt tk diese Risikogruppe trifft, so ist die bedingte Wahrscheinlichkeit f¨ ur das Eintreten des Ereignisses beim Element k ∗ der Risikogruppe unter dem Cox–Modell exp(x′k∗ β) λ (t ) exp(x′k∗ β) 0 k = . ′ λ0 (tk ) exp(xi β) exp(x′i β)
i:Rk
(12.24)
i:Rk
Die Likelihoodfunktion nach Cox ist das Produkt dieser Wahrscheinlichkeiten u ¨ber alle Ereigniszeitpunkte: ⎧ ⎫ ⎪ ⎪ L ⎨ & exp(x′k β) ⎬ L(β) = . (12.25) ⎪ exp(x′i β) ⎪ ⎭ k=1 ⎩ i:Rk
Damit wird die Loglikelihood $ %! L ′ ′ ln L = xk β − ln exp(xi β) . k=1
(12.26)
i:Rk
Diese Funktion enth¨ alt also weder die unbekannte Baseline–Hazardrate noch die zensierten Daten. Da eine Likelihood–Funktion jedoch alle Stichprobensituationen ber¨ ucksichtigen muß — was durch Weglassen der zensierten Daten hier nicht der Fall ist — gab Cox dieser Funktion die Bezeichnung partieller (partial) Likelihood. Die vollst¨ andige Likelihoodfunktion h¨atte die Gestalt L(complete) = L(partial) × L(censored) .
(12.27)
Der Cox–Ansatz liefert jedoch Sch¨ atzungen f¨ ur β, die zumindest asymptotisch atzungen auf der Basis der vollst¨andigen Daten ¨aquivalent zu den ML–Sch¨ sind. Falls Bindungen auftreten (mehrere Ereignisse zum selben Zeipunkt), d.h. d falls dk > 1 ist, so wird in Formel (12.24) der Nenner durch ( exp(x′i β)) k ersetzt. Die Bestimmung der ML–Sch¨ atzungen βˆ erfolgt iterativ.
304
12. Lebensdaueranalyse
¨ 12.5.4 Sch¨ atzung der Uberlebensfunktion unter dem Cox–Ansatz Die Baseline–Hazardrate k¨ urzt sich bei den Likelihood–Komponenten heraus. ¨ Wenn wir jedoch die Uberlebenszeit eines Individuums sch¨atzen wollen nach ′
ˆ
Si (t) = S0 (t)exp(xi β) ,
(12.28)
so ben¨otigen wir eine (zumindest nichtparametrische) Sch¨atzung von S0 (t). Lawless (1982, S.362) schl¨ agt folgende Formel vor zur Sch¨atzung der kumulativen Hazardfunktion Λ0 (t) ⎤ ⎡ ⎢ di ⎥ (12.29) Λˆ0 (t) = ⎦ , ⎣ ′ ˆ exp(xi β) tk
so dass wir gem¨aß (12.18) die nichtparametrische Sch¨atzung von S0 (t) erhalten als: Sˆ0 (t) = exp −Λˆ0 (t) . (12.30)
¨ Die Sch¨atzung der individuellen Uberlebensfunktion z.B. des i–ten Patienten (i = 1, . . . , I) erfolgt dann durch Ber¨ ucksichtigung seines Kovariablenvektors xi gem¨aß ′ ˆ Sˆi (t) = Sˆ0 (t)exp(xi β) .
(12.31)
Falls βˆ = 0 ist, entspricht der Kurvenverlauf u ¨ ber alle Patienten der Kaplan– Meier–Sch¨atzung. F¨ ur βˆ = 0 stellt (12.31) die Kaplan–Meier–Sch¨atzung dar, die durch Einbeziehung von Kovariablen korrigiert wurde. Solange kein parametrisches Modell f¨ ur S0 (t) wie Exponential– oder Weibullverteilung spezifiziert ist, bleibt Sˆi (t) eine Treppenfunktion. Bei Vorliegen einer Parametrisierung von S0 (t) sch¨ atzt man die Parameter und hat mit der stetigen Darstellung von Sˆ0 (t) auch einen stetigen Verlauf von Sˆi (t). 12.5.5 Einige Wahrscheinlichkeitsverteilungen f¨ ur die Verweildauer Die Verweildauer T ist eine stetige Zufallsvariable. Wir wollen nun einige wichtige Verteilungen f¨ ur T angeben. Exponentialverteilung. F¨ ur den wichtigen Spezialfall der zeitkonstanten Hazardrate λ(t) = λ > 0 ¨ erhalten wir f¨ ur die Uberlebensfunktion
(12.32)
¨ 12.5 Einbeziehung von Kovariablen in die Uberlebensanalyse
⎛
S(t) = exp ⎝−
t 0
⎞
λ(u) du⎠ = exp(−λt) ,
305
(12.33)
also die Exponentialverteilung, f¨ ur die gilt E(t) =
1 λ
(12.34)
1 . λ2
(12.35)
und Var(T ) =
Je gr¨oßer das Ereignisrisiko λ ist, desto kleiner f¨allt die mittlere Verweildauer E(T ) aus. Weibull–Verteilung. F¨ ur die zeitabh¨ angige Hazardrate der Gestalt λ(t) = λα(λt)α−1
(λ > 0, α > 0)
(12.36)
¨ ergibt sich als zugeh¨ orige Uberlebensverteilung die Weibull–Verteilung ⎛ ⎞
t α S(t) = exp ⎝−λ α rα−1 du⎠ = exp (−(λt)α ) . (12.37) 0
Der Parameter α steuert die Hazardrate. F¨ ur α = 1 ist λ(t) = λ konstant, ¨ die Uberlebensfunktion ist wieder die Exponentialverteilung. F¨ ur α > 1 bzw. α < 1 ist λ(t) monoton wachsend bzw. fallend. λ(t) α>1
α=1 α<1
t Abb. 12.4. Hazardrate der Weibull-Verteilung f¨ ur verschiedene α
306
12. Lebensdaueranalyse
Extremwertverteilung. F¨ ur die Hazardrate 1 t˜ − μ ˜ λ(t) = exp σ σ mit T˜ = ln T erhalten wir t˜ − μ ˜ S(t) = exp − exp σ
− ∞ < t˜ < ∞ .
(12.38)
(12.39)
Besitzt T eine Weibullverteilung (12.37), so folgt T˜ = ln T einer Extremwertverteilung mit σ = α−1 und μ = − ln λ. 12.5.6 Modellierung der Hazardrate Wir wollen die Verkn¨ upfung der Verweildauer–Verteilung mit der Hazardrate nun durch Einbeziehung von Kovariablen erg¨ anzen. Im Fall der Exponentialverteilung ist die Hazardrate der Population konstant. Die interindividuelle Variabilit¨ at der Hazardraten verschiedener Patienten kann also nur durch die spezifischen Kovariablenvektoren erkl¨art werden. Ihr Einfluß auf die Hazardrate wird modelliert durch eine positive Funktion, z.B. durch λ(x) = exp(−x′ β) .
(12.40)
Dann ist die Verweildauer T exponentialverteilt mit diesem Parameter λ. Zwei Patienten mit verschiedenen Kovariablenvektoren x1 bzw. x2 haben dann als Verh¨altnis ihrer Hazardraten λ(x1 ) = exp(−(x1 − x2 )′ β) . λ(x2 )
(12.41)
Damit erf¨ ullt die Exponentialverteilung trivialerweise die Voraussetzung der Proportionalit¨ at der Hazards. Die Verbindung zum Modell (12.11) von Glasser stellt man her, indem man ein konstantes Glied β0 in das Regressionsmodell x′ β einf¨ uhrt, also mit dem Modell β0 + x′ β arbeitet: λ(x) = exp(−β0 − x′ β) = exp(−β0 ) · exp(−x′ β) = λ0 exp(−x′ β) (. 12.42) Vergleicht man zwei Individuen mit unterschiedlichen Kovariablenvektoren x1 und x2 , so unterscheiden sich die Hazardraten u ¨ber den gesamten Zeitverlauf nur um eine Konstante (siehe Abbildung 12.5) Mit dem Ansatz 1 = exp(β0 + x′ β) = exp(˜ x′ β) λ(x)
(12.43)
¨ 12.5 Einbeziehung von Kovariablen in die Uberlebensanalyse
307
λ(x1 )
λ(x2 ) t Abb. 12.5. Hazardrate zu verschiedenen x-Designs bei exponentieller Lebensdauer
und 1 = E(T | x) = θx λ(x)
(12.44)
l¨aßt sich die Dichte der transformierten Lebensdauer Y = ln T
mit
EY = x ˜′ β
(12.45)
berechnen. Die logarithmische Transformation stellt den nat¨ urlichen Link zwischen EY = x ˜′ β und der Hazardrate her. Sei y = ln t = g(t) und damit t = g −1 (y) = h(y) = exp(y) die Umkehrfunktion, wobei h′ (y) = h(y) ist. Die Dichte von y wird nach der u ¨blichen Transformationsregel (vgl. z.B. Fisz, 1962, S.38) berechnet: f (h(y) | x) · h′ (y) = λ(x) exp(−λ(x)h(y)) · h(y) = λ(x) exp(y − λ(x) exp(y)) exp(y) −1 = θx exp y − , θx also ˜′ β)) . f˜(y | x) = exp ((y − x˜′ β) − exp(y − x
(12.46)
308
12. Lebensdaueranalyse
Weibull–Ansatz W¨ahlt man als Parametrisierung f¨ ur λ(x) wieder die positive Funktion λ(x) = exp(−β0 − x′ β) bzw.
1 = exp(β0 + x′ β) , λ(x)
so erh¨alt man f¨ ur die Hazardrate der Weibull–Verteilung (vgl. (12.36)) λ(t | x) = λ(x)α(λ(x) t)α−1 α−1 α t = . exp(β0 + x′ β) exp(β0 + x′ β)
(12.47)
Die Proportionalit¨ at der Hazardraten ist hier ebenfalls erf¨ ullt: λ(t | x1 ) α = exp ((x2 − x1 )′ β) . λ(t | x2 )
(12.48)
Bemerkung: Die Auswahl des passenden parametrischen Regressionsmodells erfolgt u ute der Anpassung. Daneben gibt es zahlreiche ¨ ber die G¨ Vorschl¨age, durch Plots in geeignet transformierten Skalen die Ad¨aquatheit des gew¨ahlten parametrischen Ansatzes zu u ufen ( vgl. z.B. Elandt– ¨berpr¨ Johnson und Johnson, 1980, Kapitel 7).
12.6 Aufgaben und Kontrollfragen
309
12.6 Aufgaben und Kontrollfragen ¨ Aufgabe 12.1: Wie sind Hazardrate, bedingte Uberlebenswahrscheinlichkeit und Survivorfunktion f¨ ur die Zufallsvariable Lebensdauer“ T definiert? ” Aufgabe 12.2: Berechnen Sie f¨ ur folgende Realisierung den Kaplan-MeierSch¨atzer: Tabelle 12.4. Kaplan-Meier-Sch¨ atzung k 0 1 2 3 4 5 6 7 8 9 10
t(k) 0 10 20 30 40 50 60 70 80 90 100
R(k) 10 10 9 ? ? ? ? ? ? ? ?
dk 0 1 1 1 1 1 1 1 1 1 1
ˆk λ 0 1/10 1/9 ? ? ? ? ? ? ? ?
pˆk 1 9/10 8/9 ? ? ? ? ? ? ? ?
ˆ (k) ) S(t 1 9/10 8/10 ? ? ? ? ? ? ? ?
Aufgabe 12.3: Interpretieren Sie das nachfolgende SPSS-Listing und die zugeh¨orige Abbildung. Survival Analysis for TIME
MASCHINE MASCHINE
Stanze Presse
Alter der Maschine Total
Number Events
258 216
64 40
194 176
75.19 81.48
474
104
370
78.06
Overall
Number Censored
Test Statistics for Equality of Survival Distributions for MASCHINE
Statistic Log Rank
.58
df
Significance
1
.4473
Percent Censored
310
12. Lebensdaueranalyse
Survival-Funktionen 1.0 .9 .8 .7
Kum Survival
.6
Maschinentyp Presse
.5
Presse-zensiert .4
Stanze
.3 60
Alter der Maschine
Stanze-zensiert 70
80
90
100
13. Fehlende Daten
In der Praxis taucht h¨ aufig das Problem auf, dass trotz aller Bem¨ uhungen bei der Erhebung der Daten die Auspr¨ agungen eines oder mehrerer Merkmale an einigen, oft auch an vielen Untersuchungseinheiten, nicht erhoben werden konnten. Wir sind also nach Erhebung der Daten in der Situation, die wahren Merksmalsauspr¨ agungen nicht immer beobachtet zu haben. Die folgenden Beispiele sollen die Problematik verdeutlichen: • Nichtantworter in statistischen Befragungen: Sensible Fragen nach z.B. Einkommen, Sexualverhalten oder Alkohol- und Drogenkonsum werden oft nicht beantwortet. Auch bei anonymen Befragungen ist dies ein h¨aufiges Problem. • Drop-out in klinischen (L¨ angsschnitt-)Studien. Patienten kommen nach gewisser Zeit nicht mehr zu den Kontrolluntersuchungen. Die Gr¨ unde k¨onnen vielf¨altig sein, z.B. weil sie die Behandlung nicht gut vertragen oder weil es ihnen sehr gut geht oder weil sie weggezogen sind. Ab einem gewissen Zeitpunkt hat man also keine Kenntnis u ¨ ber die Auspr¨agungen der Variablen bei diesen Patienten (z.B. Blutdruck, Blutwerte). • Zensierte Daten in der Lebensdaueranalyse sind unvollst¨andige Daten, da die genaue Lebensdauer nicht bekannt ist. • Experimentelle Versuche: Ergebnisse fehlen z.B. wegen fehlerhafter Messger¨ate. • Geplantes Fehlen: Bestimmte Merkmale werden nur in einer Teilstichprobe erhoben, z.B. weil die Erhebung sehr teuer ist (z.B. aufwendiger medizinischer Test). Ein weiteres Beispiel f¨ ur geplantes Fehlen sind in Frageb¨ogen eingebaute Verzweigungen, die dazu f¨ uhren, dass bestimmte Fragen nur dann beantwortet werden k¨ onnen, wenn eine andere Frage zuvor mit einer bestimmten Merkmalsauspr¨ agung beantwortet wurde. Als einfaches Beispiel diene die Frage nach Anzahl und Alter der Kinder, die nur dann sinnvoll beantwortet werden kann, wenn die Frage Haben Sie Kinder?“ ” zuvor mit ja“ beantwortet wurde. ” • Schlechtes Design in einer Meinungsumfrage: Bevorzugen Sie Kandidat ” A oder Kandidat B?“ Die Antwort wird vermutlich fehlen, wenn die Person keinen der beiden Kandidaten bevorzugt (deshalb sollte man dies als weitere Kategorie zulassen).
312
13. Fehlende Daten
Statistische Verfahren und Modelle setzen i.a. einen vollst¨andigen Datensatz voraus und k¨onnen daher nicht (gut) mit fehlenden Daten umgehen. F¨ ur eine einfach verst¨andliche Einf¨ uhrung in die Problematik wollen wir nochmals das Einf¨ uhrungsbeispiel aus Kapitel 8 in Toutenburg und Heumann (2006) zitieren. Beispiel 13.0.1. Ein Unternehmen, welches davon u ¨ berzeugt ist, dass motivierte und zufriedene Mitarbeiter wichtig f¨ ur den Erfolg des Unternehmens sind, f¨ uhrt eine schriftliche, anonyme Befragung seiner Mitarbeiter hinsichtlich der Zufriedenheit am Arbeitsplatz durch. Eines der erhobenen Merkmale lautet: Sind Sie mit Ihrer Situation im Unternehmen eher zufrieden ” oder eher unzufrieden?“ Es handelt sich dabei also um ein diskretes, genauer gesagt bin¨ares Merkmal mit zwei m¨ oglichen Merkmalsauspr¨agungen: eher ” zufrieden“ oder eher unzufrieden“. Von den 500 Mitarbeitern antworteten ” 240 eher zufrieden“, 150 eher unzufrieden“, aber 110 Mitarbeiter machten ” ” keine Angabe. Typischerweise w¨ urde man die Datenverdichtung durch Prozentangaben vornehmen. Als grafische Darstellung k¨ame ein Balken- oder Kreisdiagramm in Frage. Eine einfache M¨ oglichkeit ist, eine zus¨atzliche Kategorie keine Angabe“ einzuf¨ uhren und in die deskriptive Analyse einzube” ziehen. Statistische Programmpakete dagegen ignorieren in der Grundeinstellung meist die fehlenden Daten. In SPSS erh¨alt man zun¨achst das Balkendiagramm wie in Abbildung 13.1, wenn man Prozentzahlen (statt absoluter H¨aufigkeiten) w¨ahlt. Eine vorschnelle Aussage erg¨ abe daher das Bild, dass mehr als 60% der Mitarbeiter eher zufrieden“ mit ihrer Situation sind. Dieses Ergebnis ergibt ” sich, wenn man die 110 fehlenden Angaben ignoriert und stattdessen mit der verringerten Datenbasis von 390 (240+150) beobachteten Antworten arbeitet. Dann ergibt sich gerade, dass 240 von 390, also 61.5% der Mitarbeiter, welche eine Antwort gaben, eher zufrieden“ sind, w¨ ahrend 150 von 390, also 38.5% ” der Mitarbeiter, welche eine Antwort gaben, eher unzufrieden“ sind. W¨ahlt ” man dagegen die zus¨ atzliche Option, dass fehlende Werte als eigene Kategorie behandelt werden, erh¨ alt man das Balkendiagramm in Abbildung 13.2. Die Prozentzahlen betragen jetzt • 240 von 500, also 48% f¨ ur • 150 von 500, also 30% f¨ ur • 110 von 500, also 22% f¨ ur
eher zufrieden“ ” eher unzufrieden“ ” keine Angabe“ ” Als Nebeneffekt ergibt sich dabei, dass sich die Differenz der Prozente von eher zufrieden“ und eher unzufrieden“ von 23% (61.5%-38.5%, Ignorieren ” ” der fehlenden Daten) auf 18% (48%-30%) verringert (Ber¨ ucksichtigung der fehlenden Daten). Wir stellen also fest, dass eine Analyse, die sich allein auf die vollst¨andig beobachteten Daten st¨ utzt, zu Ergebnissen f¨ uhren kann, die sich stark von denen unterscheiden, welche die fehlenden Daten ber¨ ucksichtigen. Fehlende Daten f¨ uhren also zu einem Informationsverlust. Das Unternehmen oder
13. Fehlende Daten
313
Abb. 13.1. Zufriedenheit mit der Situation im Unternehmen, fehlende Daten werden ignoriert (Beispiel 13.0.1)
der mit der Auswertung beauftragte Statistiker wird mit der bisherigen Analyse sicher nicht zufrieden sein. Beide k¨ onnten beispielsweise folgende Fragen stellen: • Warum haben 110 Mitarbeiter nicht geantwortet? • K¨onnte die Nichtantwort mit der Zufriedenheit in Beziehung stehen? • Haben vielleicht besonders unzufriedene Mitarbeiter nicht geantwortet, weil sie zum Beispiel der Aussage, dass die Erhebung anonym sei, nicht vertraut haben oder einfach keine Lust hatten zu antworten? • Waren diese 110 Mitarbeiter zu sehr mit ihren Aufgaben besch¨aftigt und empfanden die Umfrage als st¨ orend, weil zeitraubend? Das w¨ urde vielleicht bedeuten, dass besonders engagierte Mitarbeiter (die dann sicher auch eher zufrieden“ sind) nicht geantwortet haben. ” • Wurden Mitarbeiter schlicht vergessen, also die Umfrage trotz aller Bem¨ uhungen nicht ordentlich durchgef¨ uhrt oder wurden Mitarbeiter nicht erreicht, weil sie beispielsweise gerade im Aussendienst t¨atig waren? Es ist typisch f¨ ur diese Art von Fragen oder Vermutungen, dass sie sich alle auf die eigentliche Fragestellung der Untersuchung beziehen, welche man durch die Erhebung gerade beantworten wollte und nun aber mit den verf¨ ugbaren Daten nicht ohne weitere Annahmen, die vor der Erhebung nicht in Betracht gezogen wurden eindeutig beantworten kann.
314
13. Fehlende Daten
Abb. 13.2. Zufriedenheit mit der Situation im Unternehmen, fehlende Daten werden als eigene Kategorie dargestellt (Beispiel 13.0.1)
In der Sprache der Statistik bedeutet das, dass wir, allerdings oft nicht u ¨berpr¨ ufbare, Annahmen u ¨ ber den sogenannten Fehlendmechanismus treffen m¨ ussen, um dem durch die fehlenden Daten entstandenen Informationsverlust zu begegnen. Der Fehlendmechanismus wird dabei durch Wahrscheinlichkeitsaussagen formuliert, was wir im Folgenden pr¨azisieren wollen.
13.1 Betrachtung eines einzelnen Merkmals Im Folgenden wollen wir das Problem fehlender Daten zun¨achst durch univariate Betrachtungen f¨ ur ein einzelnes Merkmal pr¨azisieren. 13.1.1 Behandlung fehlender Daten f¨ ur eine bin¨ are Zufallsvariable Im Folgenden beschr¨ anken wir uns zun¨ achst auf ein bin¨ares Merkmal, wobei wir das Beispiel 13.0.1 weiter analysieren wollen. Wir k¨onnen diese Befragung als unabh¨angige n–fache (n = 500 im Beispiel) Wiederholung von Null–Eins Experimenten auffassen. Beispiel 13.1.1 (Fortsetzung von 13.0.1). Wir definieren die bin¨aren Zufallsvariablen X1 , . . . , Xn so, dass
13.1 Betrachtung eines einzelnen Merkmals
315
1 wenn der Mitarbeiter i eher zufrieden“ ist ” 0 wenn der Mitarbeiter i eher unzufrieden“ ist . ” Wir interessieren uns f¨ u r die Wahrscheinlichkeit p = P (Xi = 1). Die Zufallsn variable X = i=1 Xi ist dann binomialverteilt. In Abschnitt 6.5 haben wir gezeigt, dass die relative H¨ aufigkeit (arithmetisches Mittel) Xi =
pˆ =
X n
der ML–Sch¨atzer f¨ ur p ist. Wie geht man aber nun vor, wenn, wie im Beispiel, 110 Befragte nicht geantwortet gaben? Eine statistisch ad¨aquate Vorgehensweise besteht in der Einf¨ uhrung einer zus¨ atzlichen (bin¨aren) Indikatorvariable R, die angibt, ob die Frage beantwortet wurde oder die Angabe fehlt: 1 wenn der Mitarbeiter i geantwortet hat Ri = (13.1) 0 wenn der Mitarbeiter i nicht geantwortet hat . Wir wollen uns die Datensituation veranschaulichen (nach Sortieren der Stichprobe nach eher zufriedenen“ Antwortern, eher unzufriedenen“ Ant” ” wortern und Nichtantwortern). i Xi Ri 1 1 1 .. .. .. . . . 240 1 1 241 0 1 .. .. .. . . .
(13.2)
390 391 .. .
0 1 ? 0 .. .. . . 500 ? 0 Nun k¨onnen wir folgende bedingte Wahrscheinlichkeiten (vergleiche Kapitel 2.5) definieren: P (Ri = 1|Xi = 0) = α0 P (Ri = 1|Xi = 1) = α1 .
(13.3) (13.4)
Die bedingte Wahrscheinlichkeit (13.3) ist also die Wahrscheinlichkeit, dass Mitarbeiter i die Frage beantwortet, wenn er eher unzufrieden“ ist, (13.4) ” ist die Wahrscheinlichkeit, dass Mitarbeiter i die Frage beantwortet, wenn er eher zufrieden“ ist. Die Wahrscheinlichkeiten f¨ ur Nichtbeantwortung sind ” die entsprechenden Gegenwahrscheinlichkeiten P (Ri = 0|Xi = 0) = 1 − α0 P (Ri = 0|Xi = 1) = 1 − α1 .
(13.5) (13.6)
316
13. Fehlende Daten
Nun k¨onnen wir mittels des Satzes von der totalen Wahrscheinlichkeit (2.11) schreiben: p = P (Xi = 1) = P (Xi = 1|Ri = 1)P (Ri = 1)+P (Xi = 1|Ri = 0)P (Ri = 0) , (13.7) wobei P (Ri = 0) = 1 − P (Ri = 1) gesetzt werden kann. Mit dem Satz von Bayes (2.12) k¨ onnen wir die bedingten Wahrscheinlichkeiten in (13.7) berechnen: P (Xi = 1|Ri = 1) = P (Ri = 1|Xi = 1)P (Xi = 1) = P (Ri = 1|Xi = 1)P (Xi = 1) + P (Ri = 1|Xi = 0)P (Xi = 0) pα1 = (13.8) pα1 + (1 − p)α0 P (Xi = 1|Ri = 0) = P (Ri = 0|Xi = 1)P (Xi = 1) = P (Ri = 0|Xi = 1)P (Xi = 1) + P (Ri = 0|Xi = 0)P (Xi = 0) p(1 − α1 ) . (13.9) = p(1 − α1 ) + (1 − p)(1 − α0 ) Das Problem ist aber nun, dass die Wahrscheinlichkeiten α0 und α1 unbekannt sind und auch nicht aus der Stichprobe gesch¨ atzt werden k¨ onnen! Betrachten wir nochmals Gleichung (13.7). Welche Wahrscheinlichkeiten in dieser Gleichung k¨ onnen wir aus der Stichprobe sch¨atzen? ur eher zufrieden“ un• P (Xi = 1|Ri = 1). Dies ist die Wahrscheinlichkeit f¨ ” ter der Bedingung, dass der Mitarbeiter geantwortet hat. Offenbar k¨onnen wir diese Wahrscheinlichkeit aus der Stichprobe sch¨atzen, indem wir uns auf die Teilstichprobe der Antworter beschr¨anken, d.h. Pˆ (Xi = 1|Ri = 1) =
240 = 0.615 . 240 + 150
(13.10)
Dies bezeichnen wir in der Statistik als complete case Analyse, d.h. wir beschr¨anken uns auf die F¨ alle, bei denen die Merkmalsauspr¨agung bekannt ist. ur Beantwortung der Frage. • P (Ri = 1). Dies ist die Wahrscheinlichkeit f¨ Auch diese Wahrscheinlichkeit k¨ onnen wir aus der Stichprobe sch¨atzen durch den beobachteten Anteil der Antworter: 390 Pˆ (Ri = 1) = = 0.78 . 500
(13.11)
• P (Ri = 1) = 1 − P (Ri = 0). Eine Sch¨ atzung ist daher 390 Pˆ (Ri = 0) = 1 − = 0.22 . 500
(13.12)
13.1 Betrachtung eines einzelnen Merkmals
317
• P (Xi = 1|Ri = 0). Dies ist die Wahrscheinlichkeit f¨ ur eher zufrieden“ un” ter der Bedingung, dass der Mitarbeiter nicht geantwortet hat. Offensichtlich k¨onnen wir diese Wahrscheinlichkeit nicht aus der Stichprobe sch¨atzen, da sich uns die Verteilung der eher zufriedenen“ und eher unzufriedenen“ ” ” Mitarbeiter in der Teilstichprobe der Nichtanworter nicht erschließt. D.h., eine Sch¨atzung von p mit Gleichung (13.7), pˆ = 0.615 · 0.78 + P (Xi = 1|Ri = 0) · 0.22 = 0.4797 + 0.22 · P (Xi = 1|Ri = 0)
(13.13)
kann nicht ohne Zusatzannahmen aus der Stichprobe abgeleitet werden, da P (Xi = 1|Ri = 0) nicht gesch¨ atzt werden kann. Wir wissen nat¨ urlich, dass eine Wahrscheinlickeit im Intervall [0, 1] liegen muss, so dass f¨ ur die Punktsch¨atzung von p zumindest ein Bereich zwischen 0.4797 (wenn P (Xi = 1|Ri = 0) = 0), also etwa 48% und 0.6997 (wenn P (Xi = 1|Ri = 0) = 1), also etwa 70% angegeben werden kann. Wir wollen an dieser Stelle bemerken, dass es sich hierbei um ein Unsicherheitsintervall f¨ ur die Punktsch¨atzung handelt, das noch keineswegs die Unsicherheit bei der Sch¨atzung von p im Sinne einer Varianz ber¨ ucksichtigt! D.h. die gesamte Unsicherheit setzt sich aus zwei Komponenten zusammen: Unsicherheit durch die Sch¨atzung aus einer Stichprobe plus Unsicherheit induziert durch die fehlenden Daten. Ein statistisch ad¨aquates Konfidenzintervall f¨ ur p wird daher noch breiter sein als das Intervall [0.4797, 0.6997]. Wir wollen jetzt der Frage nachgehen, wie eine Verringerung der Unsicherheit durch Vorwissen erreicht werden kann und wie dies mit den Gleichungen (13.8) und (13.9), sowie (13.3), (13.4), (13.5) und ¨ (13.6) zusammenh¨ angt, die wir bisher noch nicht in unseren Uberlegungen ber¨ ucksichtigt haben. • Annahme 1: Wir nehmen an, dass P (Xi = 1|Ri = 0) = P (Xi = 1|Ri = 1) .
(13.14)
D.h., wir gehen davon aus, dass die Verteilung der eher zufriedenen“ und ” eher unzufriedenen“ Mitarbeiter in der Teilstichprobe der Nichtanwor” ter identisch zur Verteilung der eher zufriedenen“ und eher unzufriede” ” nen“ Mitarbeiter in der Teilstichprobe der Antworter ist. Dann k¨onnen wir P (Xi = 1|Ri = 0) in (13.13) sch¨ atzen durch Pˆ (Xi = 1|Ri = 0) = Pˆ (Xi = 1|Ri = 1) = 0.615
(13.15)
und erhalten entsprechend pˆ = 0.4797 + 0.22 · 0.615 = 0.615 ,
(13.16)
d.h. die Sch¨atzung pˆ f¨ ur p entspricht der complete case Sch¨atzung. Wie h¨angt Annahme 1 mit den Gleichungen (13.8) und (13.9), sowie (13.3),
318
13. Fehlende Daten
(13.4), (13.5) und (13.6) zusammen? Ganz einfach: Dies entspricht der Annahme, dass α0 = α1 . (13.17) In Worten: Die Wahrscheinlichkeit, dass ein Mitarbeiter antwortet (oder nicht antwortet) h¨ angt nicht davon ab, ob er eher zufrieden“ und eher ” ” unzufrieden“ ist (diese Annahme mag durchaus unrealistisch sein!). Es gen¨ ugt, dass α0 = α1 . Welchen konkreten Werte diese annehmen, ist egal“, ” zumindest f¨ ur die durch die fehlenden Werte induzierte Unsicherheit. Nur gleich m¨ ussen sie sein! Setzt man in (13.8) und (13.9) α0 = α1 = α, so ¨ erhalten wir nach kurzer Uberlegung P (Xi = 1|Ri = 1) = P (Xi = 1|Ri = 0) = p .
(13.18)
Nat¨ urlich gilt: je gr¨ oßer α, desto weniger fehlende Werte sind potenziell in der Stichprobe vorhanden und desto besser k¨onnen wir die statistische Unsicherheit verringern. Diese Annahme f¨ uhrt also letztlich dazu, dass wir unsere Sch¨atzung von p auf die beobachteten Werte st¨ utzen k¨onnen. Diese Annahme wird als MCAR (missing completely at random) bezeichnet. D.h. mit konstanter Wahrscheinlichkeit α wird ein Wert Xi beobachtet oder anders ausgedr¨ uckt: im Mittel sind α% der Werte Xi beobachtet, unabh¨angig von der Auspr¨ agung von Xi . • Annahme 2: Wir kennen α0 und α1 . Nehmen wir beispielsweise an, dass Mitarbeiter, die eher zufrieden“ sind, mehr Bereitschaft zeigen an der ” Befragung teilzunehmen als Mitarbeiter, die eher unzufrieden“ sind. D.h. ” α1 > α0 . Angenommen, α1 = 0.9 und α0 = 0.2. Dann gilt: 0.9p 0.9p + 0.2(1 − p) 0.1p P (Xi = 1|Ri = 0) = . 0.1p + 0.8(1 − p)
P (Xi = 1|Ri = 1) =
(13.19) (13.20)
Wie erh¨alt man nun eine Sch¨ atzung von p, wenn α0 und α1 bekannt sind? Wir erinnern uns dazu an die Maximum–Likelihood Methode aus Kapitel 6.3 und 6.5. Allerdings betrachten wir nun die gemeinsame Verteilung von X und R. Wir wissen mit obigen Annahmen: P (R = 1, X = 1) = P (R = 1|X = 1)P (X = 1) = α1 p P (R = 1, X = 0) = P (R = 1|X = 0)P (X = 0) = α0 (1 − p) P (R = 0, X = 1) = P (R = 0|X = 1)P (X = 1) = (1 − α1 )p
P (R = 0, X = 0) = P (R = 0|X = 0)P (X = 0) = (1 − α0 )(1 − p) . Die Likelihood ist daher in unserem Beispiel (bis auf eine multliplikative Konstante, die wir hier nicht weiter betrachten m¨ ussen):
13.1 Betrachtung eines einzelnen Merkmals
Lc (p) =
240 &
(α1 p)
i=1
150 &
(α0 (1 − p))
i=1
= (α1 p)240 (α0 (1 − p))150
110 &
i=1
110 &
i=1
319
[(1 − α1 )p]xi,m [(1 − α0 )(1 − p)]1−xi,m
[(1 − α1 )p]xi,m [(1 − α0 )(1 − p)]1−xi,m ,
wobei xi,mis f¨ ur einen fehlenden Wert steht, dessen Auspr¨agung wir ja nicht kennen. Man beizeichnet Lc (p) auch als complete data likelihood. Die Idee ist nun die fehlenden Daten herauszuintegrieren“. Da Xi diskret ist, ist dies ” gleichbedeutend mit einer Summation. Dadurch erhalten wir die observed data likelihood oder Likelihood der beobachteten Daten, welche nun zur Maximierung herangezogen werden kann, da sie nur noch von p abh¨angt. Man errechnet: Lo (p) = (α1 p)240 (α0 (1 − p))150 · 110 ! 1 1 & xi,m 1−xi,m ··· [(1 − α1 )p] [(1 − α0 )(1 − p)] x1,mis =0
x110,mis =0
= (α1 p)240 (α0 (1 − p))150
i=1
110 &
!
[(1 − α1 )p] + [(1 − α0 )(1 − p)]
i=1
110
= (α1 p)240 (α0 (1 − p))150 {[(1 − α1 )p] + [(1 − α0 )(1 − p)]}
.
Man mache sich die Summation anhand eines einfachen Beispiels klar. Betrachte 2 fehlende Werte a und b. q u ¨ bernehme die Rolle von [(1 − α1 )p], l die Rolle von [(1 − α0 )(1 − p)]: 1 1 1 a 1−a b 1−b q l q l = q a l1−a (q 0 l1 + q 1 l0 ) a=0 b=0
a=0 0 1
= (q l + q 1 l0 )(q 0 l1 + q 1 l0 ) = (q + l)2 .
Der Kern der logartihmierten Likelihood der beobachteten Daten ist dann log Lo (p) = = 240 log(α1 p) + 150 log(α0 (1 − p)) + 110 log((1 − α1 )p + (1 − α0 )(1 − p)) . (13.21) Man spricht vom Kern, da wir additive Konstanten, die nicht von p abh¨angen, weglassen. Dies hat keine Auswirkung auf die Punktsch¨atzung pˆ. In Abbildung 13.3 ist die beobachtete logarithmierte Likelihood (13.21) in Abh¨angigkeit von verschiedenen α0 und α1 in Abh¨ angigkeit von p und die Maximum– Likelihood Sch¨atzung dargestellt. Man beachte, dass lim log Lo (p) = lim log Lo (p) = −∞ ,
p→0
p→1
13. Fehlende Daten
D0=0.2; D1=0.9 D0=0.01; D1=0.99 D0=0.2; D1=0.2
−800
p= 0.505
−1000
p= 0.615
p= 0.482
−1400
−1200
Kern der Log−Likelihood
−600
320
0.0
0.2
0.4
0.6
0.8
1.0
Parameter p
Abb. 13.3. Maximum–Likelhood Sch¨ atzung f¨ ur verschiedene α0 und α1
so dass die Grafik bzgl. der y-Achse unten abgschnitten ist. F¨ ur α0 = 0.2 und α1 = 0.9 erhalten wir pˆML = 0.505. F¨ ur α0 = α1 = 0.2 erhalten wir pˆML = 0.615, also, wie erwartet, den complete case Sch¨atzer. F¨ ur α0 = 0.01 und α1 = 0.99 erhalten wir pˆML = 0.482, also in etwa die Untergrenze von Gleichung (13.13), wenn (praktisch) fast alle Nichtantworter unzufriedene und (praktisch) fast alle Antworter zufriedene Mitarbeiter sind. Wir fassen f¨ ur den univariaten Fall zusammen: • Fehlen die Daten rein zuf¨ allig“, so kann die complete case Sch¨atzung ” verwendet werden, die sich nur auf die bebachteten Daten st¨ utzt. Rein ” zuf¨allig“ bedeutet, dass die Wahrscheinlichkeit, dass die Auspr¨agung von Merkmal Xi beobachtet wird, nicht von dieser Auspr¨agung abh¨angt. Im univariaten Fall ist dies gleichbedeutend mit den in der Literatur verwendeten Bezeichnungen MCAR (missing completely at random) und MAR (missing at random). D.h. im univariaten Fall brauchen wir keinen Unterschied zwischen MCAR und MAR zu treffen (dies ist erst ab 2 simultan betrachteten Merkmalen der Fall). • Fehlen die Daten nicht rein zuf¨ allig“, so h¨ angt die Sch¨atzung von (i.a. un” bekannten) Wahrscheinlichkeiten f¨ ur den Fehlendmechanismus ab. Wir haben dieses Problem in den Likelihood Kontext eingebettet und f¨ ur verschiedene Szenarien veranschaulicht. In der Literatur wird dieser Fall als NMAR (not missing at random) bezeichnet. Die complete case Sch¨atzung ist dann i.a. eine verzerrte Sch¨ atzung, die die wahren Gegebenheiten nicht erfasst
13.2 Betrachtung zweier Merkmale
321
(auch nicht mit wachsendem Stichprobenumfang n!). Oft hilft dann nur eine Sensitivit¨ atsanalyse, die, wie in unserem Beispiel, mehr oder weniger plausible Annahmen f¨ ur α0 und α1 trifft. Diese Annahmen sind nat¨ urlich nur kontextspezifisch (d.h. von der Anwendung abh¨angig) und nicht allgemein zu treffen. 13.1.2 Fehlende Daten bei einer univariat normalverteilten Zufallsvariable Im Folgenden wollen wir von einer Stichprobe X1 , . . . , Xn , Xi ∼ N (μ, σ 2 ), i = 1, . . . , n ausgehen. Wir definieren wieder 1 wenn xi beobachtet ist Ri = 0 wenn xi fehlt Wie in Abschnitt 13.1.1 erh¨ alt man das Ergebnis, dass im Falle MCAR und MAR die complete case Sch¨ atzung verwendet werden kann. Im Fall NMAR allerdings tritt auch hier das Problem auf, dass die complete case Sch¨atzung die wahren Gegebenheiten verfehlt. Wie sich das auswirkt, soll in folgendem Beispiel erl¨autert werden. Beispiel 13.1.2. Wirkung von NMAR im Ein–Stichproben–Fall. (X1 , . . . , Xn ) i.i.d. X ∼ N (0, 1). Logistisches Modell: P (Ri = 1|xi ) =
exp{− 21 + 2xi } . 1 + exp{− 21 + 2xi }
Große x-Werte werden mit h¨ oherer Wahrscheinlichkeit beobachtet. Wir wollen dazu (ohne weitere Rechnung) Abbildung 13.4 betrachten. Es handelt sich dabei um simulierte Daten. Die vollst¨ andigen, wahren“ Daten, also vor der ” Anwendung des logistischen Modells, decken sich gut mit der theoretischen Normalverteilungsdichte. Die beobachteten Daten nach Anwendung der Selektion sind in dagegen in mehrfacher Hinsicht verzerrt“: der Mittelwert ist ” gr¨oßer als 0, und die Varianz ist kleiner als 1 (die Kurve ist anschaulich gestaucht)! D.h., wir erhalten eine verzerrte Sch¨ atzung f¨ ur den Erwartungwert μ der Verteilung und eine Untersch¨ atzung der tats¨achlichen Variabilit¨at σ 2 in den Daten.
13.2 Betrachtung zweier Merkmale Betrachten wir zwei Merkmale X und Y simultan, so k¨onnen drei F¨alle auftreten, wobei n jeweils die Gesamtzahl der Beobachtungspaare darstellt: • X vollst¨andig beobachtet (n Werte beobachtet), fehlende Daten in Y (nur m < n Werte beobachtet)
322
13. Fehlende Daten
Wirkung eines Selektionsmodells auf normalverteilte Daten
0.5
P(R=1|x)=exp(−0.5+2*x)/( 1+exp(−0.5+2*x) ) Dichte der N(0,1)
0.4
Kerndichteschätzung der vollständigen Daten
0.0
0.1
0.2
Dichte
0.3
Kerndichteschätzung der beobachteten Daten
−2
0
2
4
Abb. 13.4. NMAR bei univariater Normalverteilung
• Fehlende Daten in X (nur m < n Werte beobachtet), Y vollst¨andig beobachtet (n Werte beobachtet) • Fehlende Daten in X (nur m1 < n Werte beobachtet) und Y (nur m2 < n Werte beobachtet) Diese drei Situationen sind in Abbildung 13.5 dargestellt. Wollen wir u ¨ ber X x1 x2 .. . .. . .. . xn
Y y1 y2 .. . ym
X x1 x2 .. . xm
Y y1 y2 .. . .. . .. . yn
X x1 x2 .. . .. . xm1
Y y1 y2 .. . ym2
Abb. 13.5. Drei verschiedene Fehlendmuster, siehe Text f¨ ur die Beschreibung.
die separate Betrachtung jedes Merkmals wie in Abschnitt 13.1 hinausgehen, so m¨ ussen wir versuchen, einen eventuell vorhandenen Zusammenhang der beiden Merkmale X und Y auszunutzen. Dabei wollen wir der Einfachheit halber nur den Fall betrachten, dass eines der beiden Merkmale fehlende Werte aufweist. Nat¨ urlich m¨ ussen wir wieder das Skalenniveau der beiden
13.2 Betrachtung zweier Merkmale
323
Merkmale beachten. Wir beschr¨ anken uns aber der Einfachheit halber auf einen ausgew¨ahlten Fall, n¨ amlich dass • beide Merkmale kategorial sind, • wir MAR annehmen k¨ onnen (dies wird unten genauer spezifiziert), • fehlende Werte nur in einem Merkmal auftreten. 13.2.1 Zwei kategoriale Merkmale Zwei kategoriale Merkmale k¨ onnen in einer Kontingenztafel dargestellt werden. F¨ ur die Darstellung verweisen wir auf Kapitel 11. Die Situation kann bez¨ uglich der Wahrscheinlichkeiten dargestellt werden wie in Tabelle 13.1. Im Y
X
1 2 .. . I
1 π11 π21 .. . πI1 π+1
2 π12 π22 .. . πI2 π+2
... ... ... ... ...
J π1J π2J .. . πIJ π+J
π1+ π2+ .. . πI+ 1
Tabelle 13.1. Gemeinsame Verteilung und Randverteilungen von X und Y
Fall vollst¨andiger Daten greift man auf die Tabelle der absoluten H¨aufigkeiten zur¨ uck: Y
X
1 2 .. . I
1 n11 n21 .. .
2 n12 n22
··· ··· ··· .. .
J n1J n2J .. .
n1+ n2+ .. .
nI1 n+1
nI2 n+2
··· ···
nIJ n+J
nI+ n
Im Fall, dass in einem Merkmal fehlende Werte auftreten, in unserem Fall in Merkmal Y , erhalten wir eine zus¨ atzliche Tafel nur f¨ ur die Randh¨aufigkeiten von X bei den F¨ allen, bei denen Y nicht beobachtet werden konnte. Beispiel 13.2.1 (Beispiel einer Kontingenztafel, bei der Y nicht immer beobachtet wurde). Y Y 1 2 3 1 2 3 X 1 20 30 40 90 X 1 ? ? ? 100 2 50 60 20 130 2 ? ? ? 90 70 90 60 220 ? ? ? 190
324
13. Fehlende Daten
D.h., in 100 F¨ allen wurde nur X = 1 beobachtet, in 90 F¨allen nur X = 2, aber die Auspr¨agung von Y wurde in diesen 190 F¨allen nicht beobachtet. Die allgemeine Situation eines monotonen Patterns ist in Tabelle 13.2 dargestellt. Dabei sei n = m + r der Gesamtstichprobenumfang. Y
X
1 2 .. . I
1 m11 m21 .. . mI1 m+1
2 m12 m22 mI2 m+2
··· ··· ··· .. . ··· ···
J m1J m2J .. . mIJ m+J
··· ··· ··· .. . ··· ···
J ? ? .. . ? ?
m1+ m2+ .. . mI+ m
Y
X
1 ? ? .. . ? ?
1 2 .. . I
2 ? ? ? ?
r1 r2 .. . rI r
Tabelle 13.2. Monotones Pattern bei zwei kategorialen Merkmalen X und Y
Ziel. Maximum–Likelihood Sch¨ atzung von πij = P (X = i, Y = j), also der ¨ gemeinsamen Verteilung von X und Y . Dazu machen wir folgende Uberlegungen: • Es liegt ein sogenanntes monotones Pattern wie in Beispiel 13.2.1 vor. • Zu sch¨atzen ist der Parameter θ = (π11 , π12 , . . . , πIJ ) mit der NebenbedinI I gung i=1 j=1 πij = π++ = 1. • Faktorisierung der gemeinsamen Wahrscheinlichkeiten in bedingte Wahrscheinlichkeiten und Randwahrscheinlichkeiten. πij = P (X = i, Y = j) = P (Y = j|X = i) · P (X = i) = πj|i · πi+ • Wir w¨ahlen eine alternative Parametrisierung, die der Faktorisierung entspricht: φ = (φ1 , φ2 ) mit φ1 = {πi+ , i = 1, . . . , I} mit den Nebenbedingungen
,
φ2 = {πj|i , i = 1, . . . , I; j = 1, . . . , j}
13.2 Betrachtung zweier Merkmale I
I
πi+ = 1
i=1
325
∀i = 1, . . . , I .
πj|i = 1
j=1
Diese alternative Parametrisierung hat genauso viele freie Parameter wie die Parametrisierung in gemeinsamen Wahrscheinlichkeiten: θ hat IJ − 1 Parameter, φ1 hat I − 1 Parameter und φ2 hat I(J − 1) Parameter. D.h. φ1 und φ2 haben zsammen I − 1 + I(J − 1) = IJ − 1 Parameter. Der Fall MAR (missing at random) bedeutet nun, dass die Wahrscheinlichkeit f¨ ur das Fehlen von Y nicht von der konkreten Auspr¨ agung von Y abh¨angt. Die Wahrscheinlichkeit kann jedoch von der vollst¨ andig beobachteten Variablen X abh¨angen. D.h f¨ ur X = 1 kann z.B. die Wahrscheinlichkeit anders sein als f¨ ur X = 2. Dies f¨ uhrt (ohne Beweis) dazu, dass wir uns auf die beobachteten Daten konzentrieren k¨onnen. Die Likelihood der beobachteten Daten in der φ–Parametrisierung ist dann: L( mij , ri | φ) = beobachtet
=
I & J &
m
πij ij
i=1 j=1 I & J &
I &
ri πi+
i=1
(πj|i πi+ )mij
i=1 j=1
=
=
I & J &
m
πj|iij
i=1 j=1
I & J &
I &
m
πj|iij
i=1 j=1
= ⎣ L(φ | beobachtet) =
ri πi+
i=1 I & J &
i=1 j=1
⎡
I &
m
i=1 j=1
I &
ri πi+
i=1
πi+i+
i=1
I & J &
m
πi+ij I &
ri πi+
i=1
⎤ I & mij ⎦ (m +r ) π πi+ i+ i j|i
i=1
angig von φ2 abh¨ angig von φ1 abh¨ I J
mij log(πj|i ) +
i=1 j=1
I
(mi+ + ri ) log(πi+ )
i=1
Beide Produkte k¨ onnen jetzt getrennt maximiert werden und wir erhalten (ohne ausf¨ uhrliche Berechnung): π ˆj|i =
mij mi+
π ˆi+ =
mi+ + ri n
In der θ–Parametrisierung erhalten wir dann (sogenannte Invarianzeigenschaft des Maximum–Likelihood Sch¨ atzers) mij mi+ + ri ri mij mi+ π ˆij = π ˆj|i π ˆi+ = + = mi+ n mi+ n n
326
13. Fehlende Daten
=
(mij /mi+ )ri mij + . n n
Das Ergebnis ist intuitiv: die Zellh¨ aufigkeiten ri werden gem¨aß der bedingten Verteilung, welche aus den vollst¨ andig beobachteten F¨allen gesch¨atzt wird, aufgeteilt. Beispiel 13.2.2 (Fortsetzung von Beispiel 13.2.1). Wir erhalten f¨ ur φˆ1 die Maximum–Likelihood Sch¨atzungen 90 + 100 190 = 220 + 190 410 220 130 + 90 = = 410 410
π ˆ1+ = π ˆ2+ und f¨ ur φˆ2 die Sch¨ atzungen
30 40 20 , π ˆ2|1 = , π ˆ3|1 = 90 90 90 60 20 50 , π ˆ2|2 = , π ˆ3|2 = . = 130 130 130
π ˆ1|1 = π ˆ1|2
ˆ Damit erhalten wir f¨ ur θ: π ˆ11 = π ˆ12 = π ˆ13 = π ˆ21 = π ˆ22 = π ˆ23 =
20 190 = 0, 103 90 410 30 190 = 0.154 90 410 40 190 = 0.206 90 410 50 220 = 0.206 130 410 60 220 = 0.248 130 410 20 220 = 0.0826 . 130 410
Man vergleiche dies mit den Schätzungen, die sich nur auf die vollständige Tafel beziehen: 20 π ˜11 = 220 = 0.091 π ˜12 = 0.136 π ˜13 = 0.182 π ˜21 = 0.227 π ˜22 = 0.273 π ˜23 = 0.091 .
Teil IV
Einfu ¨hrung in statistische Software
14. Einfu ¨hrung in SPSS
Bereits im Buch ’Deskriptive Statistik’ (Toutenburg und Heumann (2006)) haben wir uns mit dem statistischen Softwarepaket SPSS besch¨aftigt. Wir m¨ ochten erneut die Grundkonzepte des Programms erl¨autern und anhand von ausf¨ uhrlichen Beispielen die Anwendung von statistischen Methoden der induktiven Statistik demonstrieren um so dem Anwender einen raschen Einstieg zu erm¨oglichen. SPSS ist in seiner urspr¨ unglichen Version (’Statistical Package for the Social Sciences’) als anwendungsorientiertes Analyseinstrument f¨ ur die Sozialwissenschaften konzipiert worden. Heutzutage steht das K¨ urzel SPSS f¨ ur ’Statistical Product and Service Solution’ und zielt damit auf die Integration zwischen Statistik und Service ab. Im Vergleich zu anderen statistischen Softwarepaketen wie S-Plus, R, SAS, MINITAB, etc. ist SPSS noch immer im Wesentlichen auf den Anwender fokussiert und erlaubt dadurch statistische Instrumente einfach und interaktiv einzusetzen. Dies bringt viele Vorteile, jedoch auch einige Nachteile, mit sich. Prinzipiell ist SPSS intuitiv und einfach bedienbar, es existieren eine gute Online Hilfe sowie gute Handb¨ ucher, SPSS ist Windows-konform und erstellt automatisch Programmcodes (Syntax). Leider birgt die einfache Bedienung auch Gefahren, so werden schnell falsche Methoden angewandt und interpretiert. Auch ist die automatische Manipulation von Grafiken nur beschr¨ ankt m¨ oglich. Neben typischen Programmierwerkzeugen wie beispielsweise Schleifen fehlen auch statistische Verfahren, die in anderen Programmpaketen implementiert sind. Einzelne Prozeduren weisen Inkonsistenzen auf. Wer mit dem Textsatzprogramm Latex arbeitet wird schnell bemerken, dass ein Einbinden der Grafiken oft sehr m¨ uhselig ist.
14.1 Grundaufbau des Programms SPSS setzt sich aus drei verschiedenen Fenstern zusammen: dem Datenfenster, dem Ausgabefenster und dem Syntaxfenster. Wir m¨ochten diese nun n¨aher erl¨autern.
330
14. Einf¨ uhrung in SPSS
14.1.1 Das Datenfenster Das Datenfenster besteht aus zwei verschiedenen Teilen: a) der ’Datenansicht’ und b) der ’Variablenansicht’. In der Datenansicht werden Daten eingelesen und ausgewertet, in der Variablenansicht k¨onnen Variablen (von bereits eingelesenen Daten) entsprechend ihren Eigenschaften modifiziert werden. Das gesamte Datenfenster kann abgespeichert werden und besitzt die Dateiendung .sav. a) Datenansicht. Einlesen der Daten: Word-, Excel-, Text- und SPSS-Files k¨onnen neben einer Reihe anderer g¨ angigen Formate unter ¨ Datei → Offnen → Daten in der oberen Schaltleiste eingelesen werden. Selbstverst¨andlich ist es auch m¨oglich die Daten schlicht per Hand in die entsprechenden Zellen in SPSS einzutippen. Typisch f¨ ur die statistische Analyse ist hierbei die Datenbankform der Daten: Die Spalten beschreiben Variablen bzw. Merkmale, die Zeilen stehen f¨ ur die Untersuchungseinheiten (siehe dazu auch Abbildung 14.1.
Abb. 14.1. Die Datenansicht im Datenfenster
Auswerten der Daten: Zur Auswertung der Daten dient die obere Schaltleiste des Fensters. Speziell die Buttons ’Analysieren’ und ’Grafiken’ werden
14.1 Grundaufbau des Programms
331
im Rahmen einer statistischen Analyse ben¨ otigt. In Abschnitt 14.2 wollen wir detailliert darauf eingehen wo die wichtigsten Werkzeuge der induktiven Statistik in SPSS zu finden sind und wie sie verwendet werden k¨onnen. b) Variablenansicht. In der Variablenansicht werden die Eigenschaften der einzelnen Variablen angegeben. Neben Name, Skalenniveau und weiteren spezifischen Eigenschaften k¨ onnen vor allem Wertelabels f¨ ur kategoriale Variablen vergeben werden (siehe auch Abbildung 14.2). Dies ist sehr wichtig, da kategoriale Gr¨oßen in der Regel codiert vorliegen und damit sp¨ater bei der Erstellung von Grafiken die Auspr¨ agung nur mit der entsprechenden Codierung versehen wird, nicht aber mit dem Namen der Auspr¨agung. Betrachten wir beispielsweise die kategoriale Variable ’Standort eines Unternehmens’ mit den Auspr¨agungen ’West’, ’S¨ ud’, ’Nord’, ’Ost’, so ist eine Analyse mit diesen Bezeichnungen weitaus einfacher als mit den bloßen Codierungen ’1’, ’2’, ’3’ und ’4’. Weitere Informationen zur Variablenansicht findet man in der SPSS-Hilfe und in Toutenburg und Heumann (2006).
Abb. 14.2. Die Variablenansicht im Datenfenster
14.1.2 Das Ausgabefenster Das Ausgabefenster (siehe auch Abbildung 14.3) besteht im Wesentlichen aus drei Teilen: Die obere Schaltleiste erm¨ oglicht die Analyse eines Datensatzes und unterscheidet sich nur unwesentlich von der Leiste des Datenfensters. Speziell f¨ ur kurze Analysen ist so ein st¨ andiges Wechseln zwischen den einzelnen Fenstern nicht unbedingt notwendig. Der Großteil des Fensters besteht nat¨ urlich aus den Ausgaben selbst, also Tabellen und Grafiken. Per doppeltem Mausklick k¨onnen vor allem die Grafiken editiert werden. Sehr schnell lassen sich so Farbe, Achsenskalierung
332
14. Einf¨ uhrung in SPSS
und Beschriftungen ¨ andern. Sollen Grafiken separat abgespeichert werden, so k¨onnen unter Rechte Maustaste → Exportieren viele g¨angige Grafikformate ausgew¨ahlt werden. Auf der linken Leiste des Fensters sind u ¨bersichtlich alle bisherigen Ausgaben angeordnet. Diese k¨ onnen per Mausklick schnell aufgerufen, editiert bzw. gel¨oscht werden.
Abb. 14.3. Das Ausgabefenster von SPSS
14.1.3 Das Syntaxfenster ¨ Um sich einen schnellen Uberblick zu verschaffen, gen¨ ugt es oft u ¨ber eine Best¨atigung per Mausklick (’OK ’) Grafiken und Tabellen ins Outputfenster zu schicken. Damit Ergebnisse nicht verloren gehen, kann selbstverst¨andlich die gesamte Ausgabe abgespeichert werden (Dateiendung .spo). Leider ist dies sehr speicherplatzintensiv und bietet auch nicht die M¨oglichkeit im Nachhinein nachzuvollziehen wie Grafiken und Tabellen produziert wurden. Als L¨osung bietet es sich an, anstelle der Ausgabe die Syntax zu speichern. Hierf¨ ur wird einfach anstelle der einfachen Best¨atigung (also ’OK’) der Button ’Einf¨ ugen’ angeklickt. Es ¨ offnet sich ein neues Fenster (das Syntaxfenster, siehe auch Abbildung 14.4) mit dem Programmcode. Durch Klicken auf den - Button wird der markierte Teil der Synatx ausgef¨ uhrt. Durch Kopieren und Einf¨ ugen k¨ onnen so auch sehr schnell ¨ahnliche Operationen durchgef¨ uhrt werden.
14.2 Einige praktische Beispiele
333
Abb. 14.4. Das Syntaxfenster von SPSS
14.2 Einige praktische Beispiele Die folgenden Abschnitte sollen die Anwendung von induktiven Methoden in der Statistik erl¨ autern. Wir wollen zuerst, in Bezug auf den ersten Teil des Buches, die Wahrscheinlichkeitstheorie und speziell die Erzeugung von Zufallszahlen mit SPSS demonstrieren. Anschließend steht die Anwendung statistischer Tests (Teil II des Buches), sowie die Modellierung von UrsacheWirkungsbeziehungen (Teil III des Buches) im Vordergrund. In Kapitel 15.2 werden s¨amtliche Beispiele noch einmal mit dem statistischen Programmpaket R vorgef¨ uhrt. 14.2.1 Wahrscheinlichkeitstheorie und die Erzeugung von Zufallszahlen In vielen statistischen Programmpaketen ist die Erzeugung von Zufallszahlen m¨oglich mit deren Hilfe sich Wahrscheinlichkeitsverteilungen simulieren lassen. In der Praxis existieren hierf¨ ur zahlreiche Anwendungen in verschiedensten Bereichen, auf die wir an dieser Stelle jedoch nicht n¨aher eingehen wollen. Stattdessen m¨ ochten wir mit der Generierung von Zufallszahlen das ’Gesetz der großen Zahlen’, sowie den ’Anwendungen des zentralen Grenzwertsatzes’ verdeutlichen. Erzeugung von Zufallszahlen mit SPSS. Die Erzeugung von Zufallszahlen ist in SPSS leider nicht ganz so intuitiv wie in anderen Programmpaketen. Es besteht keine M¨ oglichkeit Zufallszahlen in einem leeren Datenblatt zu erzeugen. Stets ben¨ otigt wird eine Hilfsvariable mit einer vorgegebenen Gr¨oße, die sp¨ater dann wieder u ¨ berschrieben wird. Eine solche Hilfsvariable kann aus einem Index, oder einfach nur aus einer Serie von Zahlen (z.B. der Zahl
334
14. Einf¨ uhrung in SPSS
1 ) bestehen. Es ist nur darauf zu achten, dass die L¨ange der Hilfsvariable die L¨ ange der gew¨ unschten Zufallszahlenserie besitzt. Ist eine solche Hilfsvariable erstellt ist u u dem Pfad ¨ ber das SPSS-Men¨ Transformieren → Variable berechnen zu folgen. Unter ’Zielvariable’ kann nun ein Name f¨ ur die neue Variable die die Zufallszahlen enthalten soll angegeben werden, im Feld ’Numerischer Ausdruck’ dagegen k¨ onnen die Zufallszahlen selbst n¨aher spezifiziert werden. Hierf¨ ur ist es n¨otig am rechten Rand des Fensters im Feld ’Funktionsgruppe’ die Gruppe ’Zufallszahlen’ auszuw¨ ahlen um anschließend im darunter erscheinenden Feld ’Funktionen und Sondervariablen’ die gew¨ unschte Verteilung n¨aher zu spezifizieren. Eine einfacher Klick auf das ’Einf¨ ugen’-Feld o¨ffnet das Syntaxfenster. Durch Markieren des Codes und ein best¨atigen u ¨ber den - Button werden die Zufallszahlen erzeugt. So lassen sich eine Vielzahl an Verteilungen (z.B. Normalverteilung, Exponentialverteilung, Gleichverteilung, etc.) einfach und schnell generieren. Durch die Benutzung des Syntaxfensters (siehe auch Kapitel 14.1.3) k¨onnen u ¨ ber einfache ’Copy and Paste’-Arbeit sehr schnell sehr viele Variablen erstellt werden. Wir fassen das Vorgehen zur Erstellung von Zufallszahlen in SPSS nun noch einmal zusammen: 1. Erstellen einer Hilfsvariable (mit der L¨ ange die sp¨ater f¨ ur die Variable mit den Zufallszahlen gew¨ unscht wird) 2. SPSS-Pfad: Transformieren → Variable berechnen 3. Erstellen der Zufallszahlen a) unter ’Zielvariable’ den gew¨ unschten Namen eingeben b) in den Feldern ’Funktionsgruppe’ und ’Funktionen und Sondervariablen’ die Verteilung spezifizieren 4. Best¨atigung u ugen’ (Syntaxfenster) ¨ber ein einfaches ’OK’ oder ’Einf¨ Das Gesetz der großen Zahlen. Wie in Kapitel 5 beschrieben, ist die Kernaussage des Gesetzes der großen Zahlen, dass das arithmetische Mittel ¯ N f¨ ur N → ∞ stochastisch gegen den Erwartungswert μ konvergiert. Um X dies n¨aher zu veranschaulichen erzeugen wir normalverteilte (μ = 0, σ = 1), exponentialverteilte (λ = 10), poissonverteilte (λ = 14) und binomialverteilte (n = 100, p = 0.4) Zufallszahlen mit SPSS f¨ ur jeweils eine Stichprobengr¨oße von N = 10, N = 100 und N = 1000. Bei der Erzeugung von Zufallszahlen mit verschiedener Stichprobengr¨ oße erwarten wir, dass das arithmetische Mittel sich dem Erwartungswert umso st¨ arker ann¨ahert je gr¨oßer die Stichprobe ist. Die deskriptiven Auswertungen unserer Simulation (Tabelle 14.1) best¨atigen dies. Betrachten wir die normalverteilten Zufallszahlen, so liegt das arithmetische Mittel f¨ ur N = 10 bei −0.594, f¨ ur N = 100 bei 0.352 und f¨ ur N = 1000 schon bei 0.011. Es n¨ ahert sich also immer mehr unserem Erwartungswert
14.2 Einige praktische Beispiele
335
Tabelle 14.1. Deskriptive Statistiken f¨ ur die Simulation der Zufallszahlen Verteilung Normal (μ = 0, σ = 1) Normal (μ = 0, σ = 1) Normal (μ = 0, σ = 1) Exp(λ = 10) Exp(λ = 10) Exp(λ = 10) Pois(λ = 14) Pois(λ = 14) Pois(λ = 14) Bin(n = 100, p = 0.4) Bin(n = 100, p = 0.4) Bin(n = 100, p = 0.4)
N 10 100 1000 10 100 1000 10 100 1000 10 100 1000
Mittelwert -0.594 0.352 0.011 0.302 0.0953 0.0992 13.200 13.560 14.060 39.500 39.610 40.067
Varianz 0.671 0.825 0.971 0.001 0.012 0.011 13.289 11.905 13.552 15.833 23.998 20.933
von μ = 0 an. Auch die Stichprobenvarianz s2 ist f¨ ur eine gr¨oßere Stichprobe n¨aher am Wert der Varianz von σ 2 = 1. Die exponentialverteilten Zufallszah1 = 0.1, len liefern uns ein ¨ ahnliches Bild. Der Erwartungswert liegt bei λ1 = 10 1 1 2 ¯ die Varianz bei σ = λ2 = 100 = 0.01. W¨ ahrend XN f¨ ur N = 10 noch bei ¯ N = 0.0992 der Erwartungswert von 0.302 liegt, wird f¨ ur N = 1000 mit X 0.1 beinahe erreicht. Es ist leicht zu sehen, dass bei der Poissonverteilung (μ = λ = 14, σ 2 = λ = 14) und der Binomialverteilung (μ = np = 40, σ 2 = np(1 − p) = 24) ein ¨ ahnliches Verhalten des arithmetischen Mittels zu beobachten ist. Anwendung des zentralen Grenzwertsatzes f¨ ur Approximationen. In Kapitel 5.3 haben wir den zentralen Grenzwertsatz sowie einige seiner Interpretationen und Anwendungen kennengelernt. Spezielles Augenmerk lag dabei auf der Approximation von verschiedenen Verteilungen untereinander. Sie sind ein wichtiger Bestandteil der Testtheorie: einige der in Kapitel 7 vorgestellten Tests basieren auf diesen oder ¨ ahnlichen Approximationen, so beispielsweise der Binomialtest f¨ ur p (Kapitel 7.6.1). Mit der Ziehung von Zufallszahlen wollen wir die Approximation sowohl der Binomialverteilung als auch der Poissonverteilung durch die Normalverteilung demonstrieren. Hierf¨ ur generieren wir binomialverteilte Zufallsvariablen (n = 100, p = 0.4) f¨ ur N = 10, N = 100 und N = 1000, sowie poissonverteilte Zufallsvariablen (λ = 14) f¨ ur N = 10, N = 100 und N = 1000. Wir erwarten, dass sich die empirischen Verteilungen der Poisson- und Binomialverteilung mit der Erh¨ohung der Stichprobengr¨ oße der Normalverteilung ann¨ahert, da alle Voraussetzungen f¨ ur die Normalapproximation gegeben sind (λ ≥ 10, np(1 − p) ≥ 9). Die Abbildungen 14.5, 14.6 und 14.7 zeigen die Ergebnisse unserer Untersuchungen.
336
14. Einf¨ uhrung in SPSS
Abb. 14.5. Veranschaulichung von Zufallszahlen einer Poissonverteilung (λ = 14) und einer Binomialverteilung (n = 100, p = 0.4) bei einer N = 10-fachen Realisierung
Abb. 14.6. Veranschaulichung von Zufallszahlen einer Poissonverteilung (λ = 14) und einer Binomialverteilung (n = 100, p = 0.4) bei einer N = 100-fachen Realisierung
Abb. 14.7. Veranschaulichung von Zufallszahlen einer Poissonverteilung (λ = 14) und einer Binomialverteilung (n = 100, p = 0.4) bei einer N = 1000-fachen Realisierung
14.2 Einige praktische Beispiele
337
Es ist leicht zu sehen, dass sowohl bei der Binomial- als auch bei der Poissonverteilung f¨ ur N = 1000 die empirische Verteilung einer Normalverteilung ¨ahnelt - im Gegensatz zu den geringeren Stichprobengr¨oßen von N = 10 bzw. N = 100. Man kann erahnen, dass sich f¨ ur noch gr¨oßere N die Verteilungen immer st¨arker einer Normalverteilung mit μ = 14, σ 2 = 14 bzw. μ = 40, σ 2 = 24 ann¨ahern. In Kapitel 15.2.1 wollen wir den zentralen Grenzwertsatz mit Hilfe des statistischen Programmpakets R noch einmal direkt veranschaulichen. Das dortige Beispiel betrachtet die standardisierten Summen am Beispiel einer Poissonverteilung. 14.2.2 Verwendung von statistischen Tests In diesem Abschnitt wollen wir die Anwendung statistischer Tests mit SPSS demonstrieren. Dazu verwenden wir den von SPSS mitgelieferten Datensatz ’Employee.sav’ (ehemals ’bank.sav’ ), der die Einkommensstruktur der Mitarbeiter einer Bank beschreibt. Tabelle 14.2 zeigt einen Auszug aus dem Datensatz. Interessierende Variablen sind v.a. ’gehalt’ und ’agehalt’, die das Tabelle 14.2. Auszug des SPSS-Datensatzes ’Employee.sav’ id .. . 4 5 6 7 .. .
geschl .. . 1 0 0 0 .. .
ausbild .. . 8 15 15 15 .. .
t¨ atig .. . 1 1 1 1 .. .
gehalt .. . 21900 45000 32100 36000 .. .
agehalt .. . 13200 21000 13500 18750 .. .
dauer .. . 98 98 98 98 .. .
erfahr .. . 190 138 67 114 .. .
mind .. . 0 0 0 0 .. .
aktuelle Gehalt bzw. das Einstiegsgehalt (in US$/Jahr) der Bankangestellten beschreiben. Potentielle Einflussfaktoren sind das Geschlecht (’geschl’), die Ausbildungsl¨ange in Jahren (’ausbild’), die Art der T¨atigkeit (’t¨atig’), das erste Arbeitsjahr (’dauer’), die Berufserfahrung in Monaten (’erfahr’), sowie die Zugeh¨origkeit zu einer Minderheit (’mind’). Tests auf Mittelwerte; 1-Stichproben t-Test. Zur Durchf¨ uhrung des 1-Stichproben t-Tests folgt man dem Pfad Analysieren → Mittelwerte vergleichen → T-Test bei einer Stichprobe. Im Men¨ upunkt ’Testvariable’ gibt man durch einfachen Mausklick die interessierende Variable ein, unter ’Testwert’ kann μ0 angegeben werden. Wir wollen nun testen, ob man von einem mittleren Gehalt von 35000 US$/Jahr unter
338
14. Einf¨ uhrung in SPSS
den Mitarbeitern ausgehen kann. Dazu verwenden wir den 1-Stichproben tTest und testen die Hypothese μ = 35000. Abbildung 14.8 zeigt die Ergebnisse des Tests.
Abb. 14.8. SPSS-Ausgabe zum 1-Stichproben t-Test
Wir sehen, dass das mittlere Gehalt in der Bank bei 34419.57 US$/Jahr liegt. Der t-Wert von −0.740 bzw. der p-Wert von 0.460 zeigen, dass die Nullhypothese zum Niveau α = 0.05 nicht verworfen werden kann. Wir k¨onnen also die Nullhypothese von μ = 35000 nicht verwerfen. Tests auf Mittelwerte; 2-Stichproben t-Test. Zur Durchf¨ uhrung des 2-Stichproben t-Tests folgt man dem Pfad Analysieren → Mittelwerte vergleichen → T-Test bei unabh¨angigen Stichproben. Wir interessieren uns bei unserem Datensatz ’Employee.sav’ daf¨ ur ob sich das mittlere Gehalt bei M¨ annern und Frauen unterscheidet. Abbildung 14.9 zeigt die Ergebnisse von SPSS. Die deskriptiven Statistiken sprechen ein ein-
Abb. 14.9. SPSS-Ausgabe zum 2 Stichproben t-Test
deutiges Bild: Die m¨ annlichen Angestellten haben ein mittleres Gehalt von u ahrend dies bei den weiblichen Angestellten gera¨ber 41000 US$/Jahr, w¨ de mal 26331 US$/Jahr betr¨ agt. Die Varianzen sind nicht bekannt, deshalb
14.2 Einige praktische Beispiele
339
f¨ uhrt SPSS den ’Levene-Test auf Varianzgleichheit’ durch, um festzustellen, ob von einer Gleichheit der Varianzen ausgegangen werden kann oder nicht. Entsprechend der Entscheidung wird dann ein ’doppelter t-Test’ bzw. der ’Welch-Test’ durchgef¨ uhrt. In unserem Beispiel lehnt der Levene Test die Nullhypothese gleicher Varianzen ab (p-Wert = 0.000), dementsprechend ist die untere Zeile in der Ausgabe zum t-Test relevant. Der dortige Wert der Teststatistik (T=11.688) bzw. des p-Wertes (p=0.000) lehnen die Nullhypothese eines gleichen mittleren Gehalts ab, M¨ anner scheinen in dieser Bank also signifikant mehr zu verdienen. Um eine endg¨ ultige Aussage bez¨ uglich dieser Thematik zu treffen, sollten jedoch weitere Analysen zu Rate gezogen werden; m¨oglicherweise liegt ein Schichtungseffekt vor, und Frauen sind vor allem in Segmenten t¨atig, die schlechter bezahlt werden, w¨ ahrend M¨ anner F¨ uhrungspositionen besetzen. Tests auf Mittelwerte; paired t-Test. Zur Durchf¨ uhrung des paired tTestes folgt man dem Pfad Analysieren → Mittelwerte vergleichen → T-Test bei gepaarten Stichproben. Die einzigen abh¨angigen Variablen in unserem Datensatz sind die beiden Variablen ’Gehalt’ und ’Anfangsgehalt’. Ein gepaarter t-Test soll nun die (m¨oglicherweise triviale) Fragestellung kl¨ aren, ob sich mittleres Gehalt und mittleres Anfangsgehalt unterscheiden, ob es also zu Gehaltserh¨ohungen gekommen ist oder nicht. Abbildung 14.10 zeigt die Ausgabe von SPSS.
Abb. 14.10. SPSS-Ausgabe zum gepaarten t-Test
Die deskriptiven Statistiken zeigen ein mittleres Anfangsgehalt von etwas u ¨ber 17000 US$/Jahr, sowie ein aktuelles Gehalt von u ¨ ber 34000 US$/Jahr. Es ist nicht verwunderlich, dass der gepaarte t-Test die Nullhypothese gleicher mittlerer Geh¨alter verwirft (p=0.000).
340
14. Einf¨ uhrung in SPSS
Tests auf Varianz. Der von uns vorgestellte χ2 -Test auf Varianz sowie der F-Test zum Vergleich zweier Varianzen sind in SPSS leider nicht enthalten. Zur Durchf¨ uhrung dieser Tests k¨ onnen andere Programmpakete wie z.B. R (siehe auch Kapitel 15.2.2) oder MINITAB verwendet werden. Der Test von Levene, der die Varianz von zwei Stichproben vergleicht, wird dagegen in entsprechendem Zusammenhang ausgegeben: so z.B. beim 2-Stichproben tTest bzw. bei der ANOVA. Tests auf Korrelation. Zur Durchf¨ uhrung des Tests auf Korrelation folgt man dem Pfad Analysieren → Korrelation → Bivariat. Uns interessiert nun der Zusammenhang zwischen der ’Berufserfahrung in Monaten’ und dem ’Gehalt’. Abbildung 14.11 enth¨alt die Ergebnisse von SPSS. Der Korrelationskoeffizient von Bravais-Pearson betr¨agt rBP = −0.097
Abb. 14.11. SPSS-Ausgabe zum Test auf Korrelation
und deutet auf einen leicht negativen Zusammenhang hin. Der p-Wert von 0.034 zeigt, dass die Korrelation zum Niveau α = 0.05 signifikant von Null verschieden ist. Dass die Berufserfahrung einen negativen Effekt auf das Gehalt haben soll, ist auf den ersten Blick verwunderlich. Ein Blick auf Abbildung 14.12 liefert hierf¨ ur jedoch eine Erkl¨ arung. Eine lange Berufserfahrung haben im Wesentlichen Mitarbeiter des Sicherheitsbereiches, die jedoch im unteren Gehaltsgef¨ uge der Bank anzutreffen sind. Tests auf Binomialwahrscheinlichkeiten. Zur Durchf¨ uhrung des Binomialtests f¨ ur p folgt man dem Pfad Analysieren → Nichtparametrische Tests → Binomial. Uns interessiert, ob der Anteil der M¨ anner und der Frauen in der Bank gleich groß ist, oder anders formuliert, ob der Anteil der M¨anner bei p = 0.5 liegt oder nicht. SPSS liefert uns folgende Ausgabe (Abbildung 14.13):
14.2 Einige praktische Beispiele
341
Abb. 14.12. Boxplot der Berufserfahrung (in Monaten) in Abh¨ angigkeit der ’Art der T¨ atigkeit’
Abb. 14.13. SPSS-Ausgabe zum Test auf Binomialwahrscheinlichkeiten
Der M¨anneranteil in der Stichprobe betr¨ agt 54%. Da der p-Wert 0.06 betr¨agt, k¨onnen wir die Nullhypothese von einem Anteil von 50% zum Niveau α = 0.05 jedoch nicht verwerfen. Zum Vergleich zweier Binomialwahrscheinlichkeiten haben wir den (approximativen) Binomialtest, den Test von Fisher, sowie den Test von McNemar kennengelernt. Die Durchf¨ uhrung des Binomialtests ist in SPSS nicht m¨oglich, wohl aber die der Tests von Fisher und McNemar. Zur Durchf¨ uhrung des Tests von Fisher folgt man dem Pfad Analysieren → Deskriptive Statistiken → Kreuztabellen und w¨ahlt im Men¨ upunkt ’Statistik’ den Button ’Chi-Quadrat’ aus. Der Test von Fisher wird dann automatisch mitausgegeben. In unserem Datensatz ’Employee.sav’ definieren wir uns zuerst eine neue Variable ’Gehaltkat’, die angibt, ob ein Gehalt niedrig (< 28880 US$/Jahr) oder hoch (≥ 28880 US$/Jahr) ist. Wir wollen nun die beiden Binomialwahrscheinlichkeiten f¨ ur ein niedriges Gehalt in den beiden Gruppen ’m¨annlich’ und ’weiblich’ gegeneinander testen. Wir haben schon bei der Durchf¨ uhrung
342
14. Einf¨ uhrung in SPSS
des 2-Stichproben t-Tests bereits gesehen, dass sich das Gehalt geschlechtsspezifisch unterscheidet und erwarten bei dieser Analyse ein ¨ahnliches Ergebnis. Abbildung 14.14 zeigt die Ergebnisse von SPSS. In der Kreuztabelle erkennen wir bereits, dass der Anteil weiblicher Beschäf-
Abb. 14.14. SPSS-Ausgabe zum Test von Fisher
tigter mit niedrigem Gehalt deutlich höher ist als der der männlichen Angestellten. Der p-Wert von 0.000 in der unteren Ausgabe bestätigt dies noch einmal und zeigt, dass Frauen in dieser Bank weitaus weniger im Mittel verdienen als Männer. Zur Durchf¨ uhrung des Tests von McNemar folgt man dem Pfad Analysieren → Nichtparametrische Tests → Tests bei zwei verbundenen Stichproben und w¨ahlt im unteren Bereich des sich ¨ offnenden Fensters den Test von McNemar aus. Analog zur Vorgehensweise beim Test von Fisher definieren wir eine neue Variable ’Agehaltkat’, die angibt, ob das Anfangsgehalt niedrig (< 15000 US$/Jahr) oder hoch (≥ 15000 US$/Jahr) war. Die beiden Variablen ’Gehaltkat’ und ’Agehaltkat’ bilden nun eine verbundene Stichprobe. Wir wollen nun den Anteil eines hohen Gehaltes in den beiden Gruppen ’niedriges Anfangsgehalt’ und ’hohes Anfangsgehalt’ miteinander vergleichen. Es stellt sich also die Frage, ob ein hohes Anfangsgehalt auch ein hohes Gehalt zum aktuellen Zeitpunkt garantiert und analog, ob ein niedriges Anfangsgehalt auch ein niedriges aktuelles Gehalt bedeutet. Die SPSS-Ausgabe zum Test von McNemar ist in Abbildung 14.15 dargestellt.
14.2 Einige praktische Beispiele
343
Abb. 14.15. SPSS-Ausgabe zum Test von McNemar
Der p-Wert von 0.012 verwirft die Nullhypothese zum Niveau α = 0.05 und zeigt, dass ein hohes Einstiegsgehalt nicht zwangsl¨aufig auch ein hohes Gehalt in der Zukunft bedeutet bzw. dass ein geringes Einstiegsgehalt auch die M¨oglichkeit zu einem hohen Gehalt in der Zukunft offen l¨asst. Nichtparametrische Tests. In diesem Abschnitt wollen wir die Anwendung nichtparametrischer Tests mit SPSS demonstrieren. Wie bisher sollen all diejenigen Tests vorgef¨ uhrt werden, die wir bereits in fr¨ uheren Kapiteln kennengelernt haben. Im Rahmen der Anpassungstests wollen wir die Anwendung des Kolmogorov-Smirnov-Tests, sowohl f¨ ur den 1-Stichproben- als auch den 2–Stichprobenfall, demonstrieren. Der χ2 -Anpassungstest ist in SPSS zwar u ¨ ber den Pfad Analysieren → Nichtparametrische Tests → Chi-Quadrat erreichbar, eine sinnvolle Fragestellung ergibt sich f¨ ur unseren Datensatz ’Employee.sav’ jedoch nicht. Uns interessiert nun zun¨ achst, ob unsere Zielgr¨oßen – das Gehalt und das Anfangsgehalt – einer Normalverteilung folgen oder nicht. Dazu folgen wir dem Pfad Analysieren → Nichtparametrische Tests → K-S bei einer Stichprobe. SPSS liefert uns eine Ausgabe, wie in Abbildung 14.16 zu sehen. Die beiden p-Werte von jeweils 0.000 zeigen deutlich, dass die Nullhypothese einer Normalverteilung verworfen werden muss. Abbildung 14.17 unterstreicht dieses Ergebnis noch einmal. Die Histogramme beider Variablen weisen eher auf eine linkssteile Verteilung hin als auf eine Normalverteilung. Wollen wir nun den Kolmogorov-Smirnov-Test zum Vergleich zweier Stichproben durchf¨ uhren, so folgen wir dem Pfad Analysieren → Nichtparametrische Tests → Zwei unabh¨angige Stichproben und w¨ahlen am unteren Bildrand die Option ’Kolmogorov-Smirnov-Z’ aus. In diesem Fall m¨ochten wir nun die Verteilungsfunktion der Variable ’Gehalt’ in den beiden Gruppen ’m¨ annlich’ und ’weiblich’ vergleichen. Abbildung 14.18 zeigt die Ergebnisse von SPSS. Der p-Wert von p = 0.000 zeigt, dass die Nullhypothese zweier identischer Verteilungen verworfen werden muss. Der h¨aufig verwendete Test von Mann-Whitney ist u ¨ ber den Pfad
344
14. Einf¨ uhrung in SPSS
Abb. 14.16. SPSS-Ausgabe zum 1-Stichproben KS-Test
Abb. 14.17. Histogramme der Variablen ’Gehalt’ und ’Anfangsgehalt’
Abb. 14.18. SPSS-Ausgabe zum 2-Stichproben KS-Test
Analysieren → Nichtparametrische Tests → Zwei unabh¨angige Stichproben zu erreichen. In unserem Bankdatensatz interessiert uns weiterhin die Hypothese, ob sich das mittlere Gehalt bei M¨ annern und Frauen unterscheidet.
14.2 Einige praktische Beispiele
345
Der 2-Stichproben t-Test sowie der Test von Fisher zeigen, dass das mittlere Gehalt der m¨annlichen Angestellten signifikant gr¨oßer als das der Frauen ist. Wir erwarten bei der Durchf¨ uhrung des Tests von Mann-Whitney aufgrund der sehr großen Differenz kein anderes Ergebnis als bei den anderen Tests, dennoch wollen wir zur Absicherung auch ihn durchf¨ uhren, da f¨ ur die hier vorliegende Verteilung des Gehalts das arithmetische Mittel sicher nicht das geeignete Maß ist, um die beiden Gruppen miteinander zu vergleichen und bei der Binarisierung f¨ ur den Test von Fisher Information verloren ging. Die SPSS Ausgabe ist in Abbildung 14.19 zu sehen. Der p-Wert von
Abb. 14.19. SPSS-Ausgabe zum Mann-Whitney Test
0.000 best¨atigt noch einmal die Hypothese, dass sich das Gehaltsgef¨ uge bei M¨ annern und Frauen signifikant unterscheidet. Als Homogenit¨ atstest f¨ ur verbundene (abh¨ angige) Stichproben haben wir den Vorzeichentest und den Test von Wilcoxon kennengelernt. Sie sind beide u ¨ber den Pfad Analysieren → Nichtparametrische Tests → Zwei abh¨angige Stichproben zu erreichen. Unsere einzigen abh¨ angigen Variablen sind weiterhin das ’Gehalt’ und das ’Anfangsgehalt’. Dass sich diese beiden im Mittel unterscheiden ist trivial und zudem haben wir dies mit dem gepaarten t-Test bereits nachgewiesen. Deshalb verzichten wir auf die Vorf¨ uhrung dieser beiden Tests an dieser Stelle, demonstrieren ihre Anwendung und Interpretation jedoch mit Hilfe des statistischen Programmpakets R (Kapitel 15.2.2). Zuletzt wollen wir nun noch den nonparametrischen Test auf Korrelation demonstrieren. Dieser ist u ¨ ber Analysieren → Korrelationen → Bivariat
346
14. Einf¨ uhrung in SPSS
erreichbar; der Men¨ upunkt ’Spearman’ muss jedoch noch aktiviert werden. Um den Zusammenhang zwischen ’Gehalt’ und ’Anfangsgehalt’ zu messen, lassen wir uns von SPSS nun den Rangkorrelationskoeffizienten von Spearman berechnen und schauen, ob dieser signifikant von Null verschieden ist. Das Ergebnis ist in Abbildung 14.20 sehen. Der Zusammenhang ist mit 0.826 sehr
Abb. 14.20. SPSS-Ausgabe zum nonparametrischen Test auf Korrelation
stark und dabei signifikant von Null verschieden (p=0.000). Dieses Ergebnis ist keineswegs trivial, wenn wir uns die Ergebnisse vom Test von McNemar in Erinnerung rufen. 14.2.3 Modellierung von Ursache-Wirkungsbeziehungen Lineare Regression. Um m¨ ogliche Effekte auf die H¨ohe des Gehalts der Bankangestellten n¨ aher zu untersuchen, fitten wir ein lineares Regressionsmodell mit ’Gehalt’ als Zielgr¨ oße und allen anderen Variablen als Einflussgr¨oßen. Dazu folgen wir dem SPSS-Pfad Analysieren → Regression → Linear und spezifizieren unsere Zielgr¨ oße y, sowie alle Einflussgr¨oßen xi . Die Variable ’dauer’, die die Dauer der Betriebszugeh¨ origkeit beschreibt, transformieren wir sinngem¨aß um: Statt des Einstiegsjahres (z.B. 1998) geben wir die Dauer in Jahren an (z.B. 2007-1998=9 Jahre) um die entsprechenden Parameter im linearen Regressionsmodell sp¨ ater besser interpretieren zu k¨onnen. Die Variable ’t¨atig’, die die Art der T¨ atigkeit in der Bank beschreibt ist kategorial (in drei Kategorien) und wird von uns daher dummycodiert mit der Kategorie 3 (’Management’) als Referenz. Die Ergebnisse der linearen Regression befinden sich in Abbildung 14.21. Wir betrachten zuerst die zweite Tabelle der Ausgabe. Die dortige ANOVA zeigt uns an, dass die Nullhypothese, dass alle Parametersch¨atzungen gleich Null sind (β1 = ... = βK = 0) verworfen werden muss (p = 0.000). Mindestens einer der Parameter βi ist also signifikant von Null verschieden, d.h. die zugeh¨orige X-Variable besitzt tats¨ achlich einen Einfluss. Welche X-Variablen tats¨achlich einen Einfluss besitzen und wie groß dieser ist, erkennen wir in der
14.2 Einige praktische Beispiele
347
Abb. 14.21. SPSS-Ausgabe zur linearen Regression
dritten Tabelle der SPSS-Ausgabe: Dort sind sowohl die Parametersch¨atzungen bi f¨ ur die Parameter βi aufgelistet, als auch die dazugeh¨orige Teststatistik T f¨ ur die Tests βi = 0 und ein entsprechender p-Wert. Unser Signifikanzniveau soll (wie u ¨ blich) bei α = 0.05 liegen. Da der p-Wert der Variable ’Minderheit’ (p=0.190) unser vorgegebenes Signifikanzniveau u ¨ berschreitet, wollen wir diese aus unserem linearen Modell entfernen (wir w¨ahlen also ein ad-hoc Kriterium zur Modellwahl). Erst nach der Entfernung der betreffenden Variable wollen wir die Parametersch¨ atzungen genauer interpretieren. In Abbildung 14.22 ist die SPSS-Ausgabe f¨ ur das lineare Modell mit allen XVariablen (außer eben der Variable ’Minderheit’) zu sehen. Betrachten wir nun die Ergebnisse von SPSS, so scheint es, dass wir ein passendes lineares Modell gefunden haben: Alle p-Werte zu den Tests auf βi = 0 sind kleiner als unser vorgegebenes Signifikanzniveau, damit sind die bi signifikant von Null verschieden, d.h. alle im Modell befindlichen X-Variablen besitzen einen signifikanten Einfluss. Auch der p-Wert der ANOVA ist (selbstverst¨andlich) kleiner als unser Signifikanzniveau. Der Wert von R2 = 0.918 ist sehr hoch und zeigt, dass das Modell die Daten sehr gut beschreibt. Aufgrund dieser Erkenntnisse wollen wir nun die Parametersch¨atzungen interpretieren: F¨ ur unsere Variable x1 , die das Geschlecht beschreibt (0=’m¨annlich’, 1=’weiblich’), erhalten wir eine Sch¨ atzung von b1 = −1870.063. Dies bedeutet f¨ ur unsere Voraussage des Gehalts, dass –unter Festhalten aller an-
348
14. Einf¨ uhrung in SPSS
Abb. 14.22. SPSS-Ausgabe zur linearen Regression
deren Variablen– Frauen ein um etwa 1800 US$/Jahr geringeres Gehalt erwarten k¨onnen. Aufgrund der bisherigen Untersuchungen ist diese Aussage nicht verwunderlich. Die Parametersch¨ atzung f¨ ur die Variable x2 (’Ausbilur dung (in Jahren)’) liegt bei b2 ≈ 500. Unser Modell prognostiziert also f¨ jedes weitere Jahr in der Ausbildung ein um etwa 500 US$/Jahr h¨oheres Gehalt. Analog hierzu k¨ onnen f¨ ur die stetigen Einflussgr¨oßen ’Anfangsgehalt (x3 )’, ’Berufserfahrung (x4 )’ und ’Dauer der Betiebszugeh¨origkeit (x5 )’ die Parametersch¨ atzungen f¨ ur das entsprechende βi interpretiert werden. Die kategoriale Variable ’Art der Betriebszugeh¨ origkeit’ muss in Bezug auf ihre Referenz interpretiert werden: Unter Festhalten aller anderen X-Variablen erwartet unser Modell f¨ ur die Kategorie 2 (’Sicherheitspersonal’) ein um rund 4500 US$/Jahr geringeres Gehalt als in der Referenzkategorie (’Management’) bzw. f¨ ur die Kategorie 1 (’B¨ uro’) ein um rund 11000 US$/Jahr geringeres Gehalt. Die Theorie sowie die Anwendung statistischer Regressionsmodelle ist ein anspruchsvolles und weitreichendes Feld. In der linearen Regression m¨ ussen prinzipiell Grundannahmen (z.B. die Normalverteilung der Residuen) u ¨berpr¨ uft werden und bei Problemen sollte das Modell geeignet adjustiert werden. Wir empfehlen daher zus¨ atzlich noch den Gebrauch von Spezialliteratur, wie z.B. Toutenburg (2003). Varianzanalyse. F¨ ur eine einfaktorielle Varianzanalyse w¨ahlt man den SPSS-Pfad
14.2 Einige praktische Beispiele
349
Analysieren → Mittelwerte vergleichen → Einfaktorielle ANOVA. F¨ ur unseren Datensatz Employee.sav betrachten wir noch einmal den Einfluss des Faktors ’Art der T¨ atigkeit’ auf das Gehalt. Die SPSS-Ausgabe zur einfaktoriellen ANOVA ist in Abbildung 14.23 zu sehen. Da der p-Wert kleiner als unser Signifikanzniveau von α = 0.05 ist, verwerfen
Abb. 14.23. SPSS-Ausgabe zur einfaktoriellen ANOVA
wir die Nullhypothese gleicher Mittelwerte in den Gruppen (μ1 = μ2 = μ3 ) und stellen fest, dass sich das mittlere Gehalt in mindestens zwei der T¨atigkeitsgruppen unterscheidet. Die deskriptiven Statistiken in Abbildung 14.24 liefern hierf¨ ur noch detailliertere Informationen. Das mittlere Gehalt der B¨ uroangestellten liegt bei etwa 28000 US$/Jahr, das des Bewachungspersonals bei etwa 31000 US$/Jahr und das des Managements bei 64000 US$/Jahr. Der paarweise Vergleich der Mittelwerte kann nun u ¨ber drei separate t-Tests durchgef¨ uhrt werden. Es stellt sich heraus, dass sich alle drei Mittelwerte signifikant unterscheiden.
Abb. 14.24. Vergleich der Mittelwerte in den Gruppen
Bereits in Abbildung 14.17, sowie bei der Durchf¨ uhrung des KolmogorovSmirnov Tests auf Normalverteilung haben wir gesehen, dass die Annahme einer Normalverteilung f¨ ur die Responsevariable ’Gehalt’ nicht zu vertreten ist. Wir wollen unser Ergebnis daher mit der Durchf¨ uhrung des KruskalWallis Tests u ufen. Hierzu folgt man dem SPSS-Pfad ¨berpr¨ Analysieren → Nonparametrische Tests → K unabh¨angige Stichproben und w¨ahlt den Men¨ upunkt ’Kruskal-Wallis-H’ aus. Die Ergebnisse von SPSS sind in Abbildung 14.26 zu sehen. Der p-Wert ist auch hier deutlich unter
350
14. Einf¨ uhrung in SPSS
Abb. 14.25. SPSS-Ausgabe zum Kruskal-Wallis Test
unserem vorgegebenen Signifikanzniveau und best¨atigt unsere Hypothese eines unterschiedlichen mittleren Gehalts in den drei T¨atigkeitsgruppen. Zur Demonstration der zweifaktoriellen ANOVA betrachten wir neben dem Faktor ’Art der T¨ atigkeit’ des weiteren noch den Faktor ’Geschlecht’. Zur Durchf¨ uhrung unserer Analyse w¨ ahlen wir den SPSS-Pfad Analysieren → Allgemeines lineares Modell → Univariat und w¨ahlen als abh¨ angige Variable das Gehalt und als feste Faktoren das T¨atigkeitsfeld, sowie das Geschlecht aus. Die Ergebnisse von SPSS sind in Abbildung 14.26 zu sehen. Wir sehen, dass nicht nur beide Faktoren, son-
Abb. 14.26. SPSS-Ausgabe zur zweifaktoriellen ANOVA mit Interaktion
dern auch die Wechselwirkung signifikant ist. Diese Tatsache ist auch in Abbildung 14.27 zu sehen. Das mittlere Gehalt von M¨anner und Frauen unterscheidet sich in der T¨ atigkeitsgruppe ’Management’ deutlich st¨arker als in der T¨atigkeitsgruppe ’B¨ uro’. Das Personal des Sicherheitsdienstes besteht nur aus M¨annern und kann in der Interpretation nicht ber¨ ucksichtigt werden. Analyse von Kontingenztafeln. Bei der Analyse von Kontingenztafeln, und der damit verbundenen Fragestellung nach der Abh¨angigkeit bzw. Unabh¨angigkeit zweier kategorialer Gr¨ oßen folgen wir dem SPSS-Pfad
14.2 Einige praktische Beispiele
351
Abb. 14.27. Darstellung des Interaktionseffektes bei der zweifaktoriellen ANOVA
Analysieren → Deskriptive Statistiken → Kreuztabellen und markieren den Button ’Chi-Quadrat’ im Optionsfeld ’Statistik’. Wir interessieren uns f¨ ur den Zusammenhang der von uns erstellten bin¨aren Variable ’Gehaltkat’, die zwischen hohem und geringem Gehalt unterscheidet, und dem Geschlecht. Bereits bei der Durchf¨ uhrung des Tests von Fisher interessierten uns diese beiden Gr¨ oßen. Wir haben herausgefunden, dass sich die Anteile an geringem Gehalt bei M¨ annern und Frauen signifikant unterschiedet. Unsere Tests auf Unabh¨ angigkeit (siehe Abbildung 14.28) best¨atigen dieses Bild noch einmal. Die p-Werte von jeweils 0.000 beim χ2 -Test und MLQ-Test verwerfen die Nullhypothese der Unabh¨ angigkeit der beiden Variablen. Lebensdaueranalyse. In SPSS k¨ onnen im Men¨ upunkt ¨ Analysieren → Uberlebensanalyse zahlreiche Analysen der Lebensdaueranalyse durchgef¨ uhrt werden, wie beispielsweise die Kaplan-Meier-Sch¨ atzung f¨ ur die Survivorfunktion oder die Durchf¨ uhrung einer Cox-Regression. Wir verzichten an dieser Stelle auf ein weiteres Beispiel und verweisen auf die SPSS-Ausgaben in Kapitel 12.1, sowie auf Kapitel 15.2.3, in dem zahlreiche Methoden der Lebensdaueranalyse mit Hilfe des statistischen Programmpakets R vorgef¨ uhrt werden.
352
14. Einf¨ uhrung in SPSS
Abb. 14.28. SPSS-Ausgabe zum χ2 -Test und MLQ-Test auf Unabh¨ angigkeit
15. Einfu ¨hrung in R
R (R Development Core Team, 2007) ist ein statistisches Softwarepaket, das u ugung gestellt wird. Es handelt um ein sogenanntes ¨ber das Internet zur Verf¨ open source Projekt, bei dem der komplette Quelltext der Software eingesehen werden kann und das unter der GNU General Public License steht. Dadurch kann es auf unterschiedlichen Betriebssystemen verwendet werden, u.a. Apple Mac OS X, Linux, Sun Solaris und Microsoft Windows. W¨ahrend bei dem in Kapitel 14 eingef¨ uhrten statistischen Softwarepaket SPSS die einfache Handhabung fest implementierter Prozeduren u ¨ber eine grafische Benutzeroberfl¨ache im Vordergrund steht, zeichnet sich R durch eine praktisch unbegrenzt m¨ogliche Erweiterung durch neue Funktionen und Verfahren aus. Neben dem gut ausgetesteten Basispaket, welches bereits eine hohe Funktionalit¨ at hinsichtlich statistischer Verfahren und grafischer Darstellungsm¨oglichkeiten f¨ ur Daten besitzt, gibt es eine große Anzahl an zus¨atzlichen R-Paketen mit modernsten statistischen Verfahren f¨ ur die unterschiedlichsten Datensituationen und Einsatzzwecke. Dazu z¨ ahlen auch Methoden, die weit u ¨ ber die in diesem Buch besprochenen Verfahren hinausgehen, wie z.B. modernste Verfahren zur statistischen Modellierung, zur Zeitreihenanalyse und zu datengesteuerten multivariaten Analysen mit sogenannten Data Mining Methoden. Mit Hilfe solcher Zusatzpakete kann jeder, der es w¨ unscht, der gesamten R Benutzergemeinde neue Funktionalit¨ at zug¨ anglich machen. F¨ ur einen Abriß der Geschichte von R, sowie Hintergr¨ unde zur Programmiersprache S, welche durch R im wesentlichen implementiert wurde, verweisen wir auf die B¨ ucher von Ligges (2007), Dalgaard (2002) und Venables und Ripley (2002).
15.1 Installation und Grundaufbau des Programmpakets R Der Einfachheit halber beschr¨ anken wir uns hier auf die Beschreibung der Version f¨ ur das Betriebssystem Microsoft Windows. Wie bereits erw¨ahnt, wird die Software u ugung gestellt. Einstiegspunkt ¨ ber das Internet zur Verf¨ ist die Webseite http://www.r-project.org/. Von dort bewegt man sich weiter zum sogenannten Comprehensive R Archive Network (CRAN). Dort w¨ahlt man einen Spiegelserver aus, von wo aus man zun¨achst auf eine weitere Seite gelangt, die die Auswahl base (Basispaket) oder contrib (Zusatzpakete)
354
15. Einf¨ uhrung in R
erlaubt. Nach Auswahl von base gelangt man auf die Seite, welche die Installationsroutine f¨ ur die Windows Version verlinkt. Diese hat die Gestalt R-2.x.y-win32.exe, wobei x den Major Revision Stand angibt und y den Minor Revision Stand (in der Regel 0 oder 1). Die Versionen mit y gleich 1 sind in der Regel die stabileren Versionen, bei denen Fehler der Versionen mit y gleich 0 bereits bereinigt wurden. Nach Herunterladen dieser ausf¨ uhrbaren Datei wird die Installation durch einen Doppelklick auf die Datei R-2.x.ywin32.exe gestartet. Nach der Installation ist R u u von ¨ber das Start Men¨ Windows ausf¨ uhrbar. Es gibt auch eine eigene R for Windows FAQ (frequently asked questions) Liste, wo Windows-spezifische Tips gegeben werden bzw. Probleme und deren L¨ osung behandet werden. Nach dem Start des Programms o¨ffnet sich ein Fenster, das sogenannte Kommandofenster mit dem Gr¨oßerzeichen“ > als Eingabeaufforderung. Im Prinzip kann R damit als ” u ¨ berdimensionierter“ Taschenrechner benutzt werden. Dazu wollen wir im ” folgenden Abschnitt einige Beispiele angeben. F¨ ur die Programierung in R sollte man sich allerdings einen benutzerfreundlichen Texteditor besorgen, der mindestens Syntax–Highlighting f¨ ur R Quelltext besitzt. F¨ ur Windows gibt es unter http://www.sciviews.org/Tinn-R/ einen Editor, der weitergehende Integration mit R anbietet. So k¨ onnen einzelne Zeilen, markierte Bl¨ocke oder ganze Dateien mit R Kommandos direkt aus dem Editor Tinn-R heraus in R ausgef¨ uhrt werden. Wenn man Hilfe zu einer bekannten R–Funktion sucht, so kann man diese durch die Eingabe ?Funktion“ erhalten. ” 15.1.1 R als u ¨ berdimensionierter Taschenrechner Die Eingabe eines arithmetischen Ausdrucks erfolgt mit den auch in anderen Programmiersprachen u ¨ blichen Operatoren (+, −, ∗, /). Die Eingabe von > 3*4 liefert das erwartete Ergebnis 12 und in der n¨achsten Zeile wartet R an der Eingabeaufforderung auf eine erneute Eingabe. > 3*4 [1] 12 > Die [1] ist hier ohne Bedeutung und spielt erst bei R¨ uckgabewerten wie Vektoren, Listen und Matrizen eine Rolle. Es handelt sich dann um den Index des ersten Elements in dieser Zeile. Beispielsweise l¨asst sich ein Vektor mit Hilfe des Bindungsbefehls c() erzeugen. Arithmetische Operationen werden dann auf jedes Element des Vektors angewendet. Im folgenden Beispiel wird jedes Element des Vektors (3, 4, 5) quadriert. > c(3,4,5)^2 [1] 9 16 25
15.1 Installation und Grundaufbau des Programmpakets R
355
Die sogenannte Recycling-Eigenschaft von R l¨ asst auch Befehle der folgenden Art zu, die man als vektorisierte Artihmetik bezeichnet. > c(3,4,5,6) * c(2,7) [1] 6 28 10 42 Dies ist also ¨aquivalent zu > c(3,4,5,6) * c(2,7,2,7) [1] 6 28 10 42 Nat¨ urlich stehen auch mathematische Funktionen, wie Wurzelfunktion, Sinusfunktion, Cosinusfunktion, Logarithmus oder Exponentialfunktion zur Verf¨ ugung. Der nat¨ urliche Logarithmus wird zum Beispiel durch die Funktion log() definiert, die Exponentialfunktion durch exp() und die Wurzelfunktion durch sqrt(). > log(4) [1] 1.386294 > exp(log(4)) [1] 4 > sqrt(2) [1] 1.414214 Hilfe zu dieser Funktion erh¨ alt man durch ?sqrt 15.1.2 Programmiersprache R Mit R lassen sich nicht nur einfache Kalkulationen wie im vorigen Abschnitt durchf¨ uhren sondern R erlaubt die Programmierung komplexer Funktionen. Dabei stehen die u ¨ blicherweise in einer Programmiersprache vorhandenen Konstrukte wie Schleifen (for, while, repeat), bedingte Ausf¨ uhrungen (if, else) und Funktionen (function()) zur Verf¨ ugung. Zuweisungen an Variablen erfolgen durch die Operatoren <- oder =. > x <- 5 > y = c(8,9,10) > print(x) [1] 5 > print(y) [1] 8 9 10 > x+y [1] 13 14 15 In der Kommandozeile kann man den print()–Befehl auch weglassen.
356
15. Einf¨ uhrung in R
> x [1] 5 > y [1] 8
9 10
Eine Funktion, die das artihmetische Mittel berechnet, k¨onnte so aussehen (es gibt bereits die Standardfunktion mean in R, welche das und noch mehr erledigt). Wir nehmen dazu einen Editor unserer Wahl (Windows Wordpad geht auch) und tippen ein: mein.mittelwert <- function(x){ n <- length(x) if (n>=1) return( sum(x)/n ) # berechne arithmetisches Mittel else return (NULL) } Mit Hilfe des Zeichens # wird ein Kommentar eingeleitet. Mittels cut/paste kann man diese Funktion jetzt R bekannt machen: > mein.mittelwert <- function(x){ + n <- length(x) + if (n>=1) + return( sum(x)/n ) + else + return (NULL) + } > Die sum()–Funktion u ¨ bernimmt dabei die Hauptaufgabe, alle Elemente des Vektors x zu summieren, der der Funktion mit dem Namen mein.mittelwert u ¨bergeben wird. Die Funktion length() liefert die L¨ange des Vektors (die Anzahl der Elemente des Vektors) zur¨ uck. Das folgende Beispiel liefert das erwartete Ergebnis, das auch mit der Standardfunktion mean() u ¨ bereinstimmt. > x =c(8,9,13) > mein.mittelwert(x) [1] 10 > mean(x) [1] 10 Wie man sieht, k¨ onnen Funktionen– und Variablennamen einen Punkt enthalten. 15.1.3 Grafische F¨ ahigkeiten von R R besitzt bereits im Basis–Paket eine Vielzahl grafischer Darstellungsm¨oglichkeiten f¨ ur Daten, insbesondere alle bekannten Darstellungen der deskritptiven
15.1 Installation und Grundaufbau des Programmpakets R
357
Statistik. Dazu z¨ ahlen zum Beipiel Balkendiagramme (barchart()), Boxplots (boxplot()) und Histogramme (hist()). Einfaches Streudiagramm. Dazu betrachten wir das Beispiel 9.3.2. Zun¨achst geben wir die Daten, also die beiden Vektoren x und y, ein: > x <- c(1.5, 2, 3.5, 2.5, 0.5, 4.5, 4, 5.5, 7.5, 8.5) > y <- c(2,3,6,5,1,6,5,11,14,17) Ein einfaches Streudiagramm erh¨ alt man durch den Befehl plot(). > plot(x,y, xlim=c(0,10), ylim=c(-10,20)) Dabei haben wir die zus¨ atzlichen Argumente xlim, ylim verwendet, um das gleiche Koordinatensystem wie in Abbildung 9.3 zu erhalten. Um die Grafik dauerhaft abzuspeichern (zum Beispiel als Postscript, PDF oder JPEG Datei) gen¨ ugt es, vor dem Zeichenbefehl eine entsprechende Datei zu ¨offnen. Nach Ausf¨ uhrung des Zeichenbefehls wird die Datei mit dem Befehl dev.off() geschlossen und ist anschliessend im aktuellen Verzeichnis, welches mit getwd() herausgefunden werden kann. Die Funktion setwd() wechselt in ein entsprechendes Verzeichnis. Die folgende Sequenz von Befehlen erzeugt eine PDF Datei mit dem Namen regression_beispiel_932.pdf im Verzeichnis C:/R/proj/buch in Laufwerk C, welche das Streudiagramm enth¨alt. > setwd("C:/R/proj/buch") > getwd() [1] "C:/R/proj/buch" > pdf("regression_beispiel_932.pdf") > plot(x,y, xlim=c(0,10), ylim=c(-10,20)) > dev.off() Die erzeugte Grafik ist in Abbildung 15.1 zu sehen. Einfaches Streudiagramm mit Regressionsgerade. Um die Regressionsgerade einzuzeichnen, f¨ uhren wir zun¨ achst die lineare Regression durch (Funktion lm()). Die Regressionsformel wird dabei in der Form y~x angegeben, was anzeigt, dass y die abh¨ angige Variable oder Zielvariable darstellt und x die ucksichtigt. Einflussgr¨oße. Die Konstante (Intercept) β0 wird automatisch ber¨ ¨ Die summary()–Funktion gibt sofort einen Uberblick u ¨ ber die wesentlichen Kenngr¨oßen der Regression. Die Parametersch¨atzungen βˆ0 und βˆ1 erh¨alt man mit der Funktion coefficients. Die abline()–Funktion f¨ ugt dann die Gerade zu der Grafik 15.1 hinzu > modell <- lm(y~x) > print( summary(modell) ) Call: lm(formula = y ~ x)
15. Einf¨ uhrung in R
y
−10
−5
0
5
10
15
20
358
0
2
4
6
8
10
x
Abb. 15.1. R–Output zu Beispiel 9.3.2
Residuals: Min 1Q -2.000e+00 -3.287e-16
Median 6.312e-16
3Q 1.000e+00
Max 1.000e+00
Coefficients: Estimate Std. Error t value Pr(>|t|) (Intercept) -1.0000 0.7416 -1.348 0.214 x 2.0000 0.1581 12.649 1.43e-06 *** --Signif. codes: 0 ’***’ 0.001 ’**’ 0.01 ’*’ 0.05 ’.’ 0.1 ’ ’ 1 Residual standard error: 1.225 on 8 degrees of freedom Multiple R-Squared: 0.9524, Adjusted R-squared: 0.9464 F-statistic: 160 on 1 and 8 DF, p-value: 1.434e-06 > betadach <- coefficients(modell) (Intercept) x -1 2 > plot(x,y, xlim=c(0,10), ylim=c(-10,20)) > abline(a=betadach[1], b=betadach[2] )
Das Ergebnis ist in Abbildung 15.2 zu sehen. Alternativ kann zum Einzeichnen der Gerade der lines()–Befehl verwendet werden. Die Gerade ist ja durch die Regressonsgleichung yˆi = βˆ0 + βˆ1 ∗ xi
359
y
−10
−5
0
5
10
15
20
15.1 Installation und Grundaufbau des Programmpakets R
0
2
4
6
8
10
x
Abb. 15.2. R–Output zu Beispiel 9.3.2 (Fortsetzung)
bestimmt: > plot(x,y, xlim=c(0,10), ylim=c(-10,20)) > lines(x, betadach[1] + betadach[2] *x ) Man erkennt an Abbildung 15.3, dass sich die Grafik leicht von der Grafik 15.2 unterscheidet bzgl. der L¨ ange der gezeichneten Gerade. In Abbildung 15.3 wird der Wertebereich der x-Werte ber¨ ucksichtigt. Zeichnen von Funktionen. R bietet die Funktion curve(), die ein einfaches Zeichnen von Funktionen erlaubt. Will man beipielsweise die Sinusfunktion im Bereich [0, 2π] zeichnen, so erreicht man dies durch einen einzigen Befehl: > curve( sin(x), from=0, to=2*pi) > abline(h=0) Das Ergebnis ist in Abbildung 15.4 zu sehen. Dabei wurde mit abline(h=0) eine zus¨atzliche horizontale Linie bei 0 eingezeichnet. Die Kreiszahl π erh¨alt man in R durch die definierte Konstante pi. Wollen wir wissen, welche trigonometrischen Funktionen in R implementiert sind, so hilft uns die Hilfeseite > ?sin weiter.
15. Einf¨ uhrung in R
y
−10
−5
0
5
10
15
20
360
0
2
4
6
8
10
x
Abb. 15.3. R–Output zu Beispiel 9.3.2 (Fortsetzung)
15.2 Einige praktische Beispiele Hier orientieren wir uns im Wesentlichen an den Beipielen aus Abschnitt 14.2. Dies bietet eine gute Gelegenheit, die beiden unterschiedlichen Philosophien“ ” der Programme SPSS und R kennenzulernen. D.h. wir wollen speziell, in Bezug auf den ersten Teil des Buches, die Wahrscheinlichkeitstheorie und die Erzeugung von Zufallszahlen mit R demonstrieren. Anschließend steht die Anwendung statistischer Tests (Teil II des Buches), sowie die Modellierung von Ursache-Wirkungsbeziehungen (Teil III des Buches) im Vordergrund. 15.2.1 Wahrscheinlichkeitstheorie und die Erzeugung von Zufallszahlen In R sind bereits f¨ ur eine Vielzahl von Verteilungen jeweils vier Funktionen implementiert: die Dichtefunktion f (x) (bei stetigen Zufallsvariablen) bzw. die Wahrscheinlichkeitsfunktion (bei diskreten Variablen), die Verteilungsfunktion F (x), die Quantilsfunktion (also die Umkehrfunktion zur Verteilungsfunktion) und eine Funktion zur Erzeugung von Zufallszahlen. Beispiel 15.2.1 (Normalverteilung mit Mittelwert 0 und Varianz 2). Die Funktionen sind • dnorm(x, mean=0, sd=sqrt(2) ) f¨ ur die Dichtefunktion an der Stelle x. Man beachte, dass R die Standardabweichung (Wurzel aus der Varianz) als Parameter verlangt.
361
0.0 −1.0
−0.5
sin(x)
0.5
1.0
15.2 Einige praktische Beispiele
0
1
2
3
4
5
6
x
Abb. 15.4. Sinusfunktion im Bereich [0, 2π]
• pnorm(x, mean=0, sd=sqrt(2) ) f¨ ur die Verteilungsfunktion • qnorm(p, mean=0, sd=sqrt(2) ) f¨ ur die Quantilsfunktion • rnorm(n=100, mean=0, sd=sqrt(2) ) f¨ ur die Erzeugung von Zufallszahlen (hier gleich 100 Zufallszahlen) Die Pr¨afixe d,p,q,r der Funktionen werden dabei f¨ ur alle Verteilungen verwendet. Beispiel 15.2.2 (Standardnormalverteilung). • Wert der Verteilungsfunktion an der Stelle x = 0: > pnorm(0.0) [1] 0.5 • 95%–Quantil und 97.5%–Quantil: > qnorm(p=0.95) [1] 1.644854 > qnorm(p=0.975) [1] 1.959964 • Histogramm von 1000 Zufallszahlen: > x <- rnorm(n=1000) > hist(x, xlim=c(-4,4), ylim=c(0,0.5), prob=T)
362
15. Einf¨ uhrung in R
Das Maximum der Dichte einer N (0, 1) ist √12π ≈ 0.3989423, so dass der angegebene Bereich der y–Achse ausreichend ist (zwischen 0 und 0.5). Die Wahrscheinlichkeit einer Beobachtung kleiner als −4 oder gr¨oßer als 4 ist ebenfalls gering, so dass auch der angegebene Bereich der x–Achse ausreicht. Der Parameter prob=TRUE gibt an, dass wir relative und keine absoluten H¨aufigkeiten darstellen wollen (die Rechtecke summieren sich zu 1 auf). Wir k¨onnen u urzende Schreib¨ brigens statt prob=TRUE auch die abk¨ weise prob=T verwenden. Das Histogramm ist in Abbildung 15.5 dargestellt.
0.0
0.1
0.2
Density
0.3
0.4
0.5
Histogram of x
−4
−2
0
2
4
x
Abb. 15.5. Histogramm von 1000 standardnormalverteilten Zufallszahlen
Der zentrale Grenzwertsatz. Wir wollen den zentralen Grenzwertsatz aus Kapitel 5.3 veranschaulichen. Als Verteilung f¨ ur die Xi w¨ahlen wir eine Poisson– Verteilung mit Parameter λ = 2. F¨ ur die Stichprobengr¨oße probieren wir nacheinander n = 5, n = 10, n = 100 und n = 5000. Aus diesen n Zufallszahlen berechnen wir die standardisierten Summen n Xi − nλ , Yn = i=1√ nλ da f¨ ur die Poisson–Verteilung E(Xi ) = Var(Xi ) = λ gilt. Um die Verteilung dieser Summe darstellen zu k¨ onnen, wiederholen wir diesen Vorgang N = 1000 mal. Der R Quelltext sieht f¨ ur n = 100 (andere n analog) folgendermaßen aus:
15.2 Einige praktische Beispiele
363
N=1000 n <- 100 lambda <- 2 ssum <- vector(mode="numeric", length=N) for ( i in 1:N ) { x <- rpois(n=n, lambda=lambda) ssum[i] <- ( sum(x) - n*lambda ) / sqrt( n*lambda) } hist(ssum, prob=T, xlim=c(-4,4), ylim=c(0,0.6), xlab="Standardisierte Summe", main="ZGWS f¨ ur eine Po(2)-Verteilung (n=100)" ) curve( dnorm(x), add=T) Wir lernen hier: Die Funktion vector(mode="’numeric"’, length=N) erzeugt einen mit Nullen vorbelegten Vektor der L¨ange N, indem die standardisierten Summen abgespeichert werden. Der Zugriff auf das i-te Element dieses Vektors erfolgt durch [i]. Eine for–Schleife erzeugt N solcher standardisierten Summen aus jeweils n Po(2)–verteilten Zufallszahlen. Alle Befehle innerhalb der for–Schleife werden durch { und } geklammert. Zur Veranschaulichung wird jeweils noch die Dichte der Standardnormalverteilung eingezeichnet. Dies erlaubt der zus¨ atzliche Parameter add=TRUE in der Funktion curve(). Abbbildung 15.6 zeigt das Ergebnis. Wie erwartet n¨ahert sich die
ZGWS für eine Po(2)−Verteilung (n=10) 0.6 0.5 0.4
−2
0
2
4
−4
−2
0
2
Standardisierte Summe
ZGWS für eine Po(2)−Verteilung (n=100)
ZGWS für eine Po(2)−Verteilung (n=5000)
4
0.5 0.4 0.3 0.2 0.1 0.0
0.0
0.1
0.2
0.3
Density
0.4
0.5
0.6
Standardisierte Summe
0.6
−4
Density
0.3
Density
0.0
0.1
0.2
0.3 0.0
0.1
0.2
Density
0.4
0.5
0.6
ZGWS für eine Po(2)−Verteilung (n=5)
−4
−2
0 Standardisierte Summe
2
4
−4
−2
0
2
Standardisierte Summe
Abb. 15.6. Visualisierung des zentralen Grenzwertsatzes
4
364
15. Einf¨ uhrung in R
Verteilung immer besser einer N (0, 1)–Verteilung an. 15.2.2 Verwendung von statistischen Tests In diesem Abschnitt (vergleiche Abschnitt 14.2.2) wollen wir die Anwendung statistischer Tests in R demonstrieren. Vorbereitung: Einlesen der Daten. Dazu wandeln wir den von SPSS mitgelieferten Datensatz ’Employee.sav’, der die Einkommensstruktur der Mitarbeiter einer Bank beschreibt, in eine sogenannte tab-delimited (tabulatorgetrennte) Textdatei mit Namen ’employee.dat’ um. D.h. die einzelnen Felder der erhobenen Variablen (Geschlecht, Gehalt, etc.) werden durch ein Tabulatorzeichen getrennt. Solche Dateien k¨ onnen dann einfach in R eingelesen werden. Probleme beruhen meist darauf, dass es unterschiedliche L¨anderkonventionen gibt, was als Dezimalzeichen und Tausender–Trennzeichen verwendet wird. Die flexible R–Funktion read.table() l¨asst sich entsprechend anpassen. Hier ist ein Auszug der Hilfe zu dieser Funktion: read.table( file, header = FALSE, sep = "", quote = "\"’", dec = ".", row.names, col.names, as.is = FALSE, na.strings = "NA", colClasses = NA, nrows = -1, skip = 0, check.names = TRUE, fill = !blank.lines.skip, strip.white = FALSE, blank.lines.skip = TRUE, comment.char = "#") ¨ Uber den Parameter dec l¨ asst sich steuern, welches Zeichen als Dezimalzeichen verwendet wird. Standardm¨ aßig wird der Dezimalpunkt verwendet. Ist die Datei in eine tabulator–getrennte Datei umgewandelt und abgespeichert, ¨ so kann sie jetzt in R eingelesen werden. Ubrigens kann man u ¨ ber die Befehle getwd() und setwd() herausfinden, in welchem aktuellen Verzeichnis sich R befindet bzw. dieses Verzeichnis setzen. Zum Beispiel wechselt setwd("C:/R/proj/buch/") in das entsprechende Verzeichnis. Man beachte, dass nicht die Windows/DOS– spezifische Variante mit \ f¨ ur die Pfadangaben verwendet werden muss, sondern dass die auch unter Linux/UNIX verwendete Variante mit / verwendet werden kann. Es ist vielmehr so, dass man in der Windows–Variante den doppelten \\ verwenden muss, also setwd("C:\\R\\proj\\buch") Jetzt k¨onnen wir den Datensatz einfach einlesen (d.h. wir nehmen an, der Datensatz befindet sich im Verzeichnis welches durch getwd() angezeigt wird): > daten <- read.table("employee.dat", header=TRUE, sep="\t")
15.2 Einige praktische Beispiele
365
Die Angabe sep="\t" weist R an, von einer tabulator–getrennten Datei aus¨ zugehen. Die Variable enth¨ alt jetzt den kompletten Datensatz. Uber den Befehl > colnames(daten) [1] "id" "geschl" "gebtag" "gehalt" "agehalt" "dauer"
"ausbild" "t.tig" "erfahr" "mind"
erhalten wir Auskunft u ¨ ber die Variablennamen. Dazu hatten wir • SPSS angewiesen, die Variablennamen in die erste Zeile der tabulator– getrennten Datei zu schreiben • R angewiesen, beim Einlesen die erste Zeile als Variablennamen zu interpretieren (durch den Parameter header=TRUE) Um beispielsweise das mittlere Gehalt (Angabe in US$/Jahr) zu berechnen, f¨ uhren wir folgenden Befehl aus: > mean(daten$gehalt) [1] 34419.57 Dies stimmt mit der Berechnung in SPSS exakt u ¨ berein. Der Zugriff auf einzelne Variablen erfolgt u ¨ ber $. Allerdings kann man dies vereinfachen, in dem man die Daten in den sogenannten Suchpfad aufnimmt. Nach Ausf¨ uhrung von > attach(daten) kann man jetzt direkt auf die Variablen zugreifen: > mean(gehalt) [1] 34419.57 Analog wird attach(daten) durch detach(daten) wieder r¨ uckg¨angig gemacht. Tests auf Mittelwerte; 1-Stichproben t-Test. Zur Durchf¨ uhrung des 1Stichproben t-Tests verwenden wir die R–Funktion t.test(). Diese Funktion kann f¨ ur alle Arten von t–Tests (1-Stichproben t-Test, 2-Stichproben t-Test, gepaarter Test, einseitig/zweiseitig) verwendet werden. Hier ein Auszug aus der Hilfe zu t.test(): t.test(x, y = NULL, alternative = c("two.sided", "less", "greater"), mu = 0, paired = FALSE, var.equal = FALSE, conf.level = 0.95, ...) ## S3 method for class ’formula’: t.test(formula, data, subset, na.action, ...) Arguments: x: a numeric vector of data values.
366
15. Einf¨ uhrung in R y: an optional numeric vector data values. alternative: a character string specifying the alternative hypothesis, must be one of ’"two.sided"’ (default), ’"greater"’ or ’"less"’. You can specify just the initial letter. mu: a number indicating the true value of the mean (or difference in means if you are performing a two sample test). paired: a logical indicating whether you want a paired t-test. var.equal: a logical variable indicating whether to treat the two variances as being equal. If ’TRUE’ then the pooled variance is used to estimate the variance otherwise the Welch (or Satterthwaite) approximation to the degrees of freedom is used. conf.level: confidence level of the interval.
Die Voreinstellungen sind also zum Beispiel “kein gepaarter t-Test“, paired=FALSE, Testwert μ = 0, Konfidenzniveau conf.level=0.95, damit also α = 0.05. Wir wollen nun wie in Abschnitt 14.2.2 testen, ob man von einem mittleren Gehalt von 35000 US$/Jahr unter den Mitarbeitern ausgehen kann. Dazu verwenden wir den 1-Stichproben t-Test und testen die Hypothese μ = 35000. > t.test(gehalt, alternative="two.sided", mu=35000) One Sample t-test data: gehalt t = -0.7401, df = 473, p-value = 0.4596 alternative hypothesis: true mean is not equal to 35000 95 percent confidence interval: 32878.40 35960.73 sample estimates: mean of x 34419.57
Der Parameter alternative steuert, ob ein zweiseitiger Test alternative="two.sided" oder ein einseitiger Test (alternative="less" o. alternative="greater") durchgef¨ uhrt werden soll. Die Ergebnisse entsprechen den Ergebnissen in SPSS aus Abbildung 14.8. So erh¨ alt man einen t–Wert von (gerundet) −0.740 und einen p–Wert von (gerundet) 0.460, also keine Ablehnung der Nullhypothese bei einem Signifikanzniveau von α = 0.05. Das 95%–Konfidenzintervall
15.2 Einige praktische Beispiele
367
ist [32878.40; 35960.73], welches die Nullhypothese μ = 35000 enth¨alt. SPSS gibt stattdessen die Differenz zu μ = 35000 aus: [32878.40 − 35000; 35960.73 − 35000] = [−2121.60; 960.73] Der Parameter df gibt die Zahl der Freiheitsgrade (473) an. Tests auf Mittelwerte; 2-Stichproben t-Test. Wir interessieren uns bei unserem Datensatz ’Employee.sav’ daf¨ ur ob sich das mittlere Gehalt bei M¨annern und Frauen unterscheidet. Zur Durchf¨ uhrung des 2-Stichproben t-Tests verwenden wir wie schon im 1–Stichproben–Fall die R–Funktion t.test(), die sowohl mit einer als auch mit zwei Stichproben aufgerufen werden kann. Dazu m¨ ussen wir zun¨ achst die Geh¨alter der M¨anner und Frauen separat in 2 Vektoren speichern (siehe Hilfe zu t.test()). Eine einfache M¨oglichkeit bietet der subset() Befehl in R. Er erlaubt, Teilstichproben gem¨aß eines angebenen Kriteriums (logischer Ausdruck) zu selektieren: > maenner <- subset(daten, geschl=="m") > frauen <- subset(daten, geschl=="w") Man beachte, dass die doppelten Gleichheitszeichen == verwendet werden m¨ ussen, da es sich um einen logischen Vergleich und keine Zuweisung handelt. Damit enth¨alt jetzt maenner den Teildatensatz der M¨anner und frauen den ¨ Teildatensatz der Frauen. Eine schnelle Ubersicht u ¨ ber die Verteilung des Merkmals Gehalt in den beiden Teildatens¨ atzen liefert der Befehl summary(): > print(summary(maenner$gehalt)) Min. 1st Qu. Median Mean 3rd Qu. 19650 28050 32850 41440 50410 > print(summary(frauen$gehalt)) Min. 1st Qu. Median Mean 3rd Qu. 15750 21560 24300 26030 28500 > length(maenner$gehalt) [1] 258 > length(frauen$gehalt) [1] 216
Max. 135000 Max. 58130
D.h., wir haben 258 M¨ anner und 216 Frauen in der Gesamtstichprobe. Man sollte beachten, dass die Quantile und der Mittelwert stark gerundet sind. Ruft man die mean()–Funktion einzeln f¨ ur beide Stichproben auf, so erh¨alt man > mean(maenner$gehalt) [1] 41441.78 > mean(frauen$gehalt) [1] 26031.92 und damit die gleichen Werte wie in Abbildung 14.9. Offenbar unterscheiden sich beide Gruppen deutlich bez¨ uglich des Gehalts. Jetzt f¨ uhren wir den t– Test durch. Dabei w¨ ahlen wir zun¨ achst die Variante, bei der die Varianzen in
368
15. Einf¨ uhrung in R
beiden Teilpopulationen als gleich angenommen werden. Gesteuert wird dies durch den Parameter var.equal in t.test(). > t.test(maenner$gehalt, frauen$gehalt, + alternative="two.sided", var.equal=TRUE) Two Sample t-test data: maenner$gehalt and frauen$gehalt t = 10.9452, df = 472, p-value < 2.2e-16 alternative hypothesis: true difference in means is not equal to 0 95 percent confidence interval: 12643.32 18176.40 sample estimates: mean of x mean of y 41441.78 26031.92
Anschließend jetzt die Variante, bei der die Varianzen als ungleich angenommen werden: > t.test(maenner$gehalt, frauen$gehalt, + alternative="two.sided", var.equal=FALSE) Welch Two Sample t-test data: maenner$gehalt and frauen$gehalt t = 11.6883, df = 344.262, p-value < 2.2e-16 alternative hypothesis: true difference in means is not equal to 0 95 percent confidence interval: 12816.73 18003.00 sample estimates: mean of x mean of y 41441.78 26031.92
Man erh¨alt die gleichen Ergebnisse wie in SPSS in Abbildung 14.9. Auch hier gibt es eine Unterscheidung in die 2 F¨ alle “Varianzen sind gleich“ und “Varianzen sind nicht gleich“. Die t–Werte und Freiheitsgrade stimmen exakt u ¨berein, auch im zweiten Fall (Test von Welch), bei dem die Freiheitsgrade datenangepasst berechnet werden. Die Freiheitsgrade unterscheiden sich zwar stark (472 versus 344.262), praktisch spielt dies aber keine Rolle, da beide Werte sehr groß sind. Die Konfidenzintervalle unterscheiden sich allerdings, da die gepoolte Standardabweichung unterschiedlich berechnet wird. So zeigt > sd(maenner$gehalt) [1] 19499.21 > sd(frauen$gehalt) [1] 7558.021 einen deutlichen Unterschied in den Standardabweichungen der beiden Stichproben (sd() verwendet 1/(n − 1)). Beide F¨alle f¨ uhren zur Ablehnung der Nullhypothese, so dass von einem signifikanten Unterschied der M¨anner– und Frauengeh¨alter gesprochen werden kann (α = 0.05).
15.2 Einige praktische Beispiele
369
Tests auf Mittelwerte; paired t-Test. Nicht ganz u ¨ berraschend kann auch hierzu die Funktion t.test() verwendet werden, und zwar durch Setzen des Parameters paired auf TRUE. Ein gepaarter t-Test soll nun die Fragestellung kl¨aren, ob sich mittleres Gehalt und mittleres Anfangsgehalt unterscheiden, ob es also zu Gehaltserh¨ ohungen gekommen ist oder nicht. Abbildung 14.10 zeigt die Ausgabe von SPSS. Zun¨ achst geben wir uns auch in R Mittelwerte und Standardabweichungen aus: > cat("Gehalt: ", mean(gehalt), " Gehalt: 34419.57 17075.66 > cat("Anfangsgehalt: ", mean(agehalt)," Anfangsgehalt: 17016.09 7870.638
", sd(gehalt), "\n" ) ", sd(agehalt), "\n" )
Bei dieser Gelegenheit haben wir den cat Befehl kennengelernt, mit dem man numerische Werte und Zeichenketten zu einer Konsolenausgabe in einer Zeile verkn¨ upfen kann. Nicht fehlen sollte dabei das abschließende newline (neue Zeile) durch "\n". Die R Ausgabe des gepaarten t–Tests lautet: > t.test(gehalt, agehalt, paired=TRUE, alternative="two.sided") Paired t-test data: gehalt and agehalt t = 35.036, df = 473, p-value < 2.2e-16 alternative hypothesis: true difference in means is not equal to 0 95 percent confidence interval: 16427.41 18379.56 sample estimates: mean of the differences 17403.48
Die R Ausgabe stimmt auch hier mit der Ausgabe in Abbildung 14.10 von SPSS u ¨ berein. Die Nullhypothese, dass die Differenz der aktuellen Geh¨alter und der Anfangsgeh¨ alter 0 ist, wird abgelehnt (α = 0.05). Tests auf Varianz. Hier bietet R den F–Test zum Vergleich zweier Varianzen, vergleiche Abschnitt 7.4.1. Die R Funktion lautet var.test(). Hier ist ein Auszug aus dem Hilfesystem: var.test(x, y, ratio = 1, alternative = c("two.sided", "less", "greater"), conf.level = 0.95, ...)
Der Parameter ratio gibt das Verh¨ altnis der Varianzen in der Nullhypothese an (standardm¨aßig wird also die Gleichheit der Varianzen als Nullhypothese formuliert). Wollen wir also zum Beispiel die Varianzen der Teilpopulationen der M¨anner und Frauen auf diese Nullhypothese testen, so geht das in R wie folgt: > var.test(maenner$gehalt, frauen$gehalt, alternative="two.sided")
370
15. Einf¨ uhrung in R F test to compare two variances data: maenner$gehalt and frauen$gehalt F = 6.6561, num df = 257, denom df = 215, p-value < 2.2e-16 alternative hypothesis: true ratio of variances is not equal to 1 95 percent confidence interval: 5.140924 8.592188 sample estimates: ratio of variances 6.656071
Die Nullhypothese wird also abgelehnt (α = 0.05). Tests auf Korrelation. Uns interessiert nun der Zusammenhang zwischen der ’Berufserfahrung in Monaten’ (Variable erfahr im Datensatz) und dem ’Gehalt’. Abbildung 14.11 enth¨ alt zum Vergleich die entsprechenden Ergebnisse mit SPSS. R stellt daf¨ ur die Funktion cor.test() zur Verf¨ ugung. Es folgt wieder ein Auszug aus der Hilfedatei. cor.test(x, ...) ## Default S3 method: cor.test(x, y, alternative = c("two.sided", "less", "greater"), method = c("pearson", "kendall", "spearman"), exact = NULL, conf.level = 0.95, ...) ## S3 method for class ’formula’: cor.test(formula, data, subset, na.action, ...) Arguments: x, y: numeric vectors of data values. same length.
’x’ and ’y’ must have the
alternative: indicates the alternative hypothesis and must be one of ’"two.sided"’, ’"greater"’ or ’"less"’. You can specify just the initial letter. ’"greater"’ corresponds to positive association, ’"less"’ to negative association. method: a character string indicating which correlation coefficient is to be used for the test. One of ’"pearson"’, ’"kendall"’, or ’"spearman"’, can be abbreviated. exact: a logical indicating whether an exact p-value should be computed. Only used for Kendall’s tau. See the Details for the meaning of ’NULL’ (the default). conf.level: confidence level for the returned confidence interval. Currently only used for the Pearson product moment correlation coefficient if there are at least 4 complete pairs of observations.
15.2 Einige praktische Beispiele
371
Da wir hier an einem parametrischen Test interessiert sind, verwenden wir den Korrelationskoeffizienten nach Bravais–Pearson. > cor.test(gehalt, erfahr, alternative="two.sided") Pearson’s product-moment correlation data: gehalt and erfahr t = -2.1277, df = 472, p-value = 0.03388 alternative hypothesis: true correlation is not equal to 0 95 percent confidence interval: -0.185900660 -0.007466824 sample estimates: cor -0.09746693 Die Ergebnisse stimmen mit den von SPSS berechneten u ¨berein. Obwohl also die Korrelation (absolut) klein ist (−0.097), ist sie von Null verschieden (p– Wert von 0.034, α = 0.05). Zur Erkl¨ arung sei auf Abschnitt 14.2.2 verwiesen. Interessanter ist vielleicht die Korrelation von Anfangsgehalt und Gehalt: > cor.test(gehalt, agehalt, alternative="two.sided") Pearson’s product-moment correlation data: gehalt and agehalt t = 40.2755, df = 472, p-value < 2.2e-16 alternative hypothesis: true correlation is not equal to 0 95 percent confidence interval: 0.8580696 0.8989267 sample estimates: cor 0.8801175 D.h. die Korrelation ist hoch (0.88) und die Nullhypothese (Korrelation ist 0) wird abgelehnt zum Niveau α = 0.05. Tests auf Binomialwahrscheinlichkeiten. Uns interessiert, ob der Anteil der M¨anner und der Frauen in der Bank gleich groß ist, oder anders formuliert, ob der Anteil der M¨ anner bei p = 0.5 liegt oder nicht. SPSS liefert uns dazu die Ausgabe in Abbildung 14.13. R stellt f¨ ur diese Fragestellung die Funktion binom.test() zur Verf¨ ugung. Hier ist ein Auszug aus der Hilfe: Description: Performs an exact test of a simple null hypothesis about the probability of success in a Bernoulli experiment. Usage:
372
15. Einf¨ uhrung in R
binom.test(x, n, p = 0.5, alternative = c("two.sided", "less", "greater"), conf.level = 0.95) Arguments: x: number of successes, or a vector of length 2 giving the numbers of successes and failures, respectively. n: number of trials; ignored if ’x’ has length 2. p: hypothesized probability of success. alternative: indicates the alternative hypothesis and must be one of ’"two.sided"’, ’"greater"’ or ’"less"’. You can specify just the initial letter. conf.level: confidence level for the returned confidence interval. Details: Confidence intervals are obtained by a procedure first given in Clopper and Pearson (1934). This guarantees that the confidence level is at least ’conf.level’, but in general does not give the shortest-length confidence intervals.
Wir wissen bereits, dass der Datensatz 258 M¨anner und 216 Frauen enth¨alt. Damit l¨asst sich der Test einfach durchf¨ uhren: > binom.test(c(258,216), p=0.5, alternative="two.sided") Exact binomial test data: c(258, 216) number of successes = 258, number of trials = 474, p-value = 0.05956 alternative hypothesis: true probability of success is not equal to 0.5 95 percent confidence interval: 0.4982562 0.5897954 sample estimates: probability of success 0.5443038
Der M¨anneranteil betr¨ agt also 0.54, der p–Wert 0.05956 oder gerundet 0.06. Die Nullhypothese kann nicht abgelehnt werden (α = 0.05). Zum Vergleich zweier Binomialwahrscheinlichkeiten haben wir den (approximativen) Binomialtest, den Test von Fisher, sowie den Test von McNemar kennengelernt. In unserem Datensatz ’employee.dat’ definieren wir uns zuerst eine neue Variable ’gehaltkat’, die angibt, ob ein Gehalt niedrig (< 28875 US$/Jahr) oder hoch (≥ 28875 US$/Jahr) ist. Wir wollen nun die
15.2 Einige praktische Beispiele
373
beiden Binomialwahrscheinlichkeiten f¨ ur ein niedriges Gehalt in den beiden Gruppen ’m¨annlich’ und ’weiblich’ gegeneinander testen. Wir haben bei der Durchf¨ uhrung des 2-Stichproben t-Tests bereits gesehen, dass sich das Gehalt geschlechtsspezifisch unterscheidet und erwarten bei dieser Analyse ein ¨ahnliches Ergebnis. Abbildung 14.14 zeigt wieder die entsprechenden Ergebnisse von SPSS. Zur Kategorisierung kann in R der Befehl cut() verwendet werden. Die summary() Funktion f¨ ur Gehalt liefert: > summary(gehalt) Min. 1st Qu. Median 15750 24000 28880
Mean 3rd Qu. 34420 36940
Max. 135000
Der Median ist 28880. Wir teilen die Variable genau am Median in 2 Intervalle auf, um die neue Variable zu erhalten: > gehaltkat <- cut(gehalt, breaks=c(0, 28880, 140000), + labels=c("<28880 US$/Jahr", ">=28880 US$/Jahr")) > print(summary(gehaltkat)) <28880 US$/Jahr >=28880 US$/Jahr 237 237 D.h. die Stichprobe wird genau in 2 gleich große Teile bzgl. Gehalt aufgeteilt. Um die gew¨ unschten Intervalle wie angegeben zu erhalten, m¨ usste steng genommen der Befehl noch modifiziert werden, denn exakt 28880 US$ soll ja nicht im ersten Intervall enthalten sein (um den Effekt zu sehen, verzichten wir hier auf labels): > gehaltkat <- cut(gehalt, breaks=c(0, 28880, 140000), right=FALSE) > print(summary(gehaltkat)) [0,2.89e+04) [2.89e+04,1.4e+05) 237 237
right=FALSE bewirkt, dass die obere Intervallgrenze jeweils offen ist. Es ergibt sich hier aber kein Unterschied zur urspr¨ unglichen Einteilung mit der Voreinstellung right=TRUE (obere Intervallgrenze abgeschlossen). > gehaltkat <- cut(gehalt, breaks=c(0, 28880, 140000), right=TRUE) > print(summary(gehaltkat)) (0,2.89e+04] (2.89e+04,1.4e+05] 237 237
Die 2 × 2 Kontingenztafel kann jetzt mittels der table() Funktion erstellt werden: > table(gehaltkat, geschl) geschl gehaltkat m w <28880 US$/Jahr 73 164 >=28880 US$/Jahr 185 52 In R stehen nun mehrere Funktionen zur Verf¨ ugung.
374
15. Einf¨ uhrung in R
χ2 –Test. Der χ2 –Test wird durch die Funktion chisq.test() in R zur Verf¨ ugung gestellt. Dazu k¨ onnen wir direkt obiges table() Objekt u ¨bergeben: > chisq.test( table(gehaltkat, geschl), correct=FALSE ) Pearson’s Chi-squared test data: table(gehaltkat, geschl) X-squared = 106.6942, df = 1, p-value < 2.2e-16 Wir erhalten das gleiche Ergebnis wie in der entsprechenden Zeile der SPSS Ausgabe aus Abbildung 14.14 (ohne Stetigkeitskorrektur, correct=FALSE). Mit Stetigkeitskoreektur erhalten wir entsprechend die zweite Zeile der SPSS Ausgabe aus Abbildung 14.14: > chisq.test( table(gehaltkat, geschl), correct=TRUE ) Pearson’s Chi-squared test with Yates’ continuity correction data: table(gehaltkat, geschl) X-squared = 104.7975, df = 1, p-value < 2.2e-16
Exakter Test von Fisher. Hierzu kann die Funktion fisher.test() verwendet werden. > fisher.test( table(gehaltkat, geschl) ) Fisher’s Exact Test for Count Data data: table(gehaltkat, geschl) p-value < 2.2e-16 alternative hypothesis: true odds ratio is not equal to 1 95 percent confidence interval: 0.08095576 0.19292121 sample estimates: odds ratio 0.1257671
Zu bemerken ist, dass der Odds Ratio hier nicht durch den Stichproben Odds Ratio gesch¨atzt wird, sondern durch ein komplizierteres Verfahren (bedingte Maximum–Likelihood Sch¨ atzung). Deshalb unterscheidet sich obiger Wert von 0.1257671 leicht vom Stichproben Odds Ratio: > sampleor <- (73*52) / ( 164*185) > print(sampleor) [1] 0.1251154 Im Prinzip k¨ame hier nat¨ urlich auch eine einseitige Fragestellung in Betracht. Der exakte Test von Fisher kann dies ber¨ ucksichtigen (nicht dagegen der χ2 – Test).
15.2 Einige praktische Beispiele
375
In der Kreuztabelle (Seite 373 unten) erkennen wir bereits, dass der Anteil weiblicher Besch¨ aftigter mit niedrigem Gehalt deutlich h¨oher ist als der der m¨annlichen Angestellten. Die Ausgaben sowohl der χ2 –Tests als auch des exakten Tests von Fisher best¨ atigen dies noch einmal (alle p–Werte kleiner als α = 0.05). Test von McNemar f¨ ur abh¨angige Stichproben. F¨ ur abh¨angige Stichproben bin¨arer Merkmale steht der Test von McNemar in R u ¨ ber die Funktion mcnemar.test() zur Verf¨ ugung. Wir wollen dazu eine weitere kategorisierte Variable ’agehaltkat’ aus der Variablen ’agehalt’ ableiten und diese mit der kategorialen (bin¨ aren) Variable ’gehaltkat’ vergleichen (verbundene Stichprobe). Die Kenngr¨ oßen der Verteilung von ’agehalt’ erh¨alt man wieder durch die summary() Funktion: > print(summary(agehalt)) Min. 1st Qu. Median Mean 3rd Qu. 9000 12490 15000 17020 17490
Max. 79980
Analog zu ’gehalt’ teilen wir die Variable am Median (15000 US$/Jahr) auf: > agehaltkat <- cut(agehalt, breaks=c(0, 15000, 80000), + labels=c("<15000 US$/Jahr", ">=15000 US$/Jahr")) > print(summary(agehaltkat)) <15000 US$/Jahr >=15000 US$/Jahr 264 210 Hier m¨ ussen wir aber aufpassen. Die obere Intervallgrenze soll nicht enthalten sein, deshalb m¨ ussen wir obigen Befehl modifizieren: > agehaltkat <- cut(agehalt, breaks=c(0, 15000, 80000), + labels=c("<15000 US$/Jahr", ">=15000 US$/Jahr"), right=FALSE) > print(summary(agehaltkat)) <15000 US$/Jahr >=15000 US$/Jahr 212 262
Wir erhalten also so die gew¨ unschte Aufteilung. Die 2 × 2 Kontingenztabelle ist > table(gehaltkat, agehaltkat) agehaltkat gehaltkat <15000 US$/Jahr >=15000 US$/Jahr <28880 US$/Jahr 179 58 >=28880 US$/Jahr 33 204 Der McNemar–Test kann wieder mit und ohne Stetigkeitskorrektur durchgef¨ uhrt werden: > mcnemar.test( table(gehaltkat, agehaltkat)) McNemar’s Chi-squared test with continuity correction
376
15. Einf¨ uhrung in R data: table(gehaltkat, agehaltkat) McNemar’s chi-squared = 6.3297, df = 1, p-value = 0.01187 > mcnemar.test( table(gehaltkat, agehaltkat), correct=FALSE) McNemar’s Chi-squared test data: table(gehaltkat, agehaltkat) McNemar’s chi-squared = 6.8681, df = 1, p-value = 0.008775
SPSS verwendet die Version mit Stetigkeitskorrektur. Nichtparametrische Tests. In diesem Abschnitt wollen wir die Anwendung nichtparametrischer Tests mit R demonstrieren. Im Rahmen der Anpassungstests wollen wir die Anwendung des Kolmogorov-Smirnov-Tests, sowohl f¨ ur den 1-Stichproben- als auch den 2-Stichprobenfall, demonstrieren. Kolmogorov–Smirnov Tests. Der 1- und 2-Stichprobenfall wird durch die R Funktion ks.test() abgedeckt. Mit dem 1-Stichproben KS–Test wollen wir testen, ob die Hypothese, dass ’Gehalt’ und ’Anfangsgehalt’ normalverteilt sind, abgelehnt werden muss. Dazu u ¨ bergeben wir der Funktion ks.test() die Testverteilung (hier: pnorm() f¨ ur die Verteilungsfunktion der Normalverteilung) und die Parameter dieser Testverteilung. Ohne Vorkenntnisse werden dazu u ¨blicherweise die Parame¨ ter aus der Stichprobe gesch¨ atzt. Dies erfolgt hier durch explizite Ubergabe der Parameter an ks.test() mittels mean(gehalt) und sd(gehalt) als Sch¨atzungen f¨ ur den Erwartungswert und der Standardabweichung der Testverteilung. > ks.test(gehalt,"pnorm",mean(gehalt),sd(gehalt),exact=FALSE) One-sample Kolmogorov-Smirnov test data: gehalt D = 0.2079, p-value < 2.2e-16 alternative hypothesis: two.sided Warning message: cannot compute correct p-values with ties in: ks.test(gehalt,"pnorm",mean(gehalt),sd(gehalt),exact = FALSE) > ks.test(agehalt,"pnorm",mean(agehalt),sd(agehalt),exact=FALSE) One-sample Kolmogorov-Smirnov test data: agehalt D = 0.2519, p-value < 2.2e-16 alternative hypothesis: two.sided Warning message: cannot compute correct p-values with ties in: ks.test(agehalt,"pnorm",mean(agehalt),sd(agehalt),exact = FALSE)
15.2 Einige praktische Beispiele
377
Die beiden sehr kleinen p-Werte zeigen deutlich, dass die Nullhypothese einer Normalverteilung verworfen werden muss. Mit dem 2–Stichproben KS–Test wollen wir untersuchen, ob sich die Verteilung des Gehalts bei M¨ annern und Frauen unterscheidet. > maenner <- subset(daten, geschl=="m") > frauen <- subset(daten, geschl=="w") > ks.test(maenner$gehalt, frauen$gehalt) Two-sample Kolmogorov-Smirnov test data: maenner$gehalt and frauen$gehalt D = 0.5226, p-value < 2.2e-16 alternative hypothesis: two.sided Warning message: cannot compute correct p-values with ties in: ks.test(maenner$gehalt, frauen$gehalt) Die Nullhypothese zweier identischer Verteilungen muss verworfen werden. Wilcoxon–Tests. Analog zum t–Test (t.test()) bietet wilcox.test() die M¨oglichkeit, sowohl den Fall zweier unabh¨ angiger Stichproben als auch den Fall zweier gepaarter Stichproben abzudecken. F¨ ur den Fall unabh¨ angiger Stichproben wollen wir wieder testen, ob sich das Gehalt von M¨ annern und Frauen unterscheidet. > wilcox.test(frauen$gehalt, maenner$gehalt) Wilcoxon rank sum test with continuity correction data: frauen$gehalt and maenner$gehalt W = 9616.5, p-value < 2.2e-16 alternative hypothesis: true mu is not equal to 0 Dabei liefert W den Wert in SPSS, der mit Mann–Whitney U bezeichnet ist, vergleiche Abbildung 14.19. Die Hypothese, dass sich das Gehaltsgef¨ uge bei M¨annern und Frauen signifikant unterscheidet, wird best¨atigt. F¨ ur die verbundene Stichprobe w¨ ahlen wir wieder den Vergleich von Gehalt und Anfangsgehalt. > wilcox.test(gehalt, agehalt) Wilcoxon rank sum test with continuity correction data: gehalt and agehalt W = 204274.5, p-value < 2.2e-16 alternative hypothesis: true mu is not equal to 0
378
15. Einf¨ uhrung in R
oder > wilcox.test(agehalt, gehalt) Wilcoxon rank sum test with continuity correction data: agehalt and gehalt W = 20401.5, p-value < 2.2e-16 alternative hypothesis: true mu is not equal to 0 Beide Variablen unterscheiden sich deutlich bez¨ uglich ihrer Lage. Korrelationstest. Zuletzt wollen wir nun noch den nichtparametrischen Test auf Korrelation demonstrieren. Dieser ist u ¨ ber die zus¨atzliche Angabe von method="’spearman" in der bereits bekannten Funktion cor.test() verf¨ ugbar. Wiederum verwenden wir Gehalt und Anfangsgehalt als Variablen. > cor.test(agehalt, gehalt, method="spearman" ) Spearman’s rank correlation rho data: agehalt and gehalt S = 3090197, p-value < 2.2e-16 alternative hypothesis: true rho is not equal to 0 sample estimates: rho 0.8258977 Warning message: Cannot compute exact p-values with ties in: cor.test.default(agehalt, gehalt, method = "spearman") Die SPSS Ausgabe hierzu ist in Abbildung 14.20 zu sehen. Der Zusammenhang ist mit 0.826 (gerundet) sehr stark und dabei signifikant von Null verschieden. 15.2.3 Modellierung von Ursache–Wirkungsbeziehungen Wir wollen drei Arten der Modellierung vorstellen: lineare Regression, Varianzanalyse und Kontingenztafeln. Lineare Regression. Wie in Abschnitt 14.2.3 wollen wir wieder den Datensatz ’employee.dat’ als Beispieldatensatz verwenden. Wir interessieren uns dabei f¨ ur m¨ogliche Einflussgr¨ oßen xj auf die Variable ’gehalt’ (Zielgr¨oße y). Um die Ergebnisse mit der SPSS Ausgabe vergleichen zu k¨onnen, transformieren wir die Einflussvariable ’dauer’, die die Dauer der Betriebszugeh¨origkeit beschreibt, wieder sinngem¨ aß um: Statt des Einstiegsjahres (z.B. 1998) geben
15.2 Einige praktische Beispiele
379
wir die Dauer in Jahren an (z.B. 2007-1998=9 Jahre) um die entsprechenden Parameter im linearen Regressionsmodell sp¨ater besser interpretieren zu k¨onnen. Die Variable ’t¨ atig’, die die Art der T¨ atigkeit in der Bank beschreibt ist kategorial (in drei Kategorien) und wird von uns daher dummycodiert mit der Kategorie 3 (’Management’) als Referenz. Wie kann man in R Variablen kodieren? Zun¨achst lesen wir den Datensatz ein und f¨ ugen ihn zum Suchpfad hinzu: > daten <- read.table("employee.dat", header=T, sep="\t") > attach(daten) Anschliessend wandeln wir die Variable ’t¨ atig’ in eine sogenannte Faktorvariable (kategoriale Variable) um. In der Voreinstellung wird die Variable dummykodiert, allerdings mit der niedrigsten Kategorie als Referenzkategorie. > t¨ atig <- factor(t¨ atig) > levels(t¨ atig) [1] "1" "2" "3" > summary(t¨ atig) 1 2 3 363 27 84 Man erkennt, dass die summary() Funktion sich entsprechend anpasst und statt der Quantile jetzt die absoluten H¨ aufigkeiten darstellt, mit der die einzelnen Kategorien auftreten. Nun k¨ onnen wir R anweisen, die Kategorie, die mit ’3’ bezeichnet ist, als Referenzkategorie zu verwenden. > t¨ atig <- relevel( t¨ atig, ref=3 ) > levels(t¨ atig) [1] "3" "1" "2" Man sieht, dass die Referenzkategorie jetzt an erster Stelle der levels(t¨ atig) Ausgabe steht. Mittels is.factor() l¨ asst sich jederzeit abfragen, ob es sich bei einer Variable um eine kategoriale Variable handelt: > is.factor(t¨ atig) [1] TRUE Jetzt m¨ ussen wir noch die Betriebszugeh¨ origkeit transformieren. Dabei tun wir so, als w¨are der Datensatz von 2007 (Achtung: die Jahresangaben sind nur zweistellig, also z.B. 98 statt 1998). > dauerneu <- 107-dauer Jetzt k¨onnen wir das Regressionsmodell formulieren. Dazu verwenden die R Funktion lm() und die entsprechende summary Funktion. > regrmodell <- lm(gehalt~geschl+ausbild+agehalt+erfahr+mind+ dauerneu+t¨ atig) > print( summary(regrmodell) )
380
15. Einf¨ uhrung in R Call: lm(formula = gehalt ~ geschl + ausbild + agehalt + erfahr + mind + dauerneu + t¨ atig) Residuals: Min 1Q Median -22890 -3271 -691
3Q 2654
Max 46250
Coefficients: Estimate Std. Error t value Pr(>|t|) (Intercept) 2.081e+04 3.224e+03 6.455 2.73e-10 *** geschlw -1.988e+03 7.652e+02 -2.598 0.00967 ** ausbild 5.021e+02 1.599e+02 3.141 0.00179 ** agehalt 1.334e+00 7.305e-02 18.267 < 2e-16 *** erfahr -2.191e+01 3.575e+00 -6.127 1.91e-09 *** mind -1.034e+03 7.872e+02 -1.313 0.18982 dauerneu -1.502e+02 3.134e+01 -4.791 2.24e-06 *** t¨ atig1 -1.111e+04 1.368e+03 -8.121 4.19e-15 *** t¨ atig2 -4.254e+03 2.168e+03 -1.962 0.05034 . --Signif. codes: 0 ’***’ 0.001 ’**’ 0.01 ’*’ 0.05 ’.’ 0.1 ’ ’ 1 Residual standard error: 6808 on 465 degrees of freedom Multiple R-Squared: 0.8437, Adjusted R-squared: 0.841 F-statistic: 313.8 on 8 and 465 DF, p-value: < 2.2e-16
Die Formatierung der Zahlen in der R Ausgabe unterscheidet sich von der in SPSS in Abbildung 14.21. Allerdings erkennt man, dass die Regression die gleichen Ergebnisse liefert (zum Beispiel R2 = 0.844, gerundet). Eine an SPSS n¨ahere Formatierung erh¨ alt man automatisch bei Verwendung der coefficients() Funktion: > coefficients( regrmodell) (Intercept) geschlw ausbild agehalt 20809.397898 -1988.078165 502.104049 1.334340 erfahr mind dauerneu t¨ atig1 -21.907113 -1033.568787 -150.157349 -11107.683287 t¨ atig2 -4254.340925 Interessant ist weiterhin: • Das Regressionsmodell wird als Formel der lm() Funktion u ¨ bergeben: gehalt~geschl+ausbild+agehalt+erfahr+mind+dauerneu+t¨ atig • Die Faktorvariable ’t¨ atig’ wird als solche in der lm() Funktion erkannt und automatisch richtig verarbeitet. Deshalb sind in der Ausgabe zwei Variablen vorhanden, die mit ’t¨ atig1’ und ’t¨atig2’ bezeichnet sind. • Die Werte der Variable ’geschl’ sind im Datensatz mit ’m’ und ’w’ kodiert (also mit Buchstaben und nicht mit Zahlen). R wandelt solche Variablen
15.2 Einige praktische Beispiele
381
automatisch in Faktorvariablen um. Deshalb taucht jetzt die Variable ’geschlw’ in der Ausgabe auf. Das heisst, ’w’ wurde automatisch mit ’1’ kodiert und ’m’ mit 0. Inhaltlich ergibt sich, dass die Variable ’mind’ (Minderheit) keinen Einfluss hat (p–Wert 0.18982). Wir verweisen hierzu auch nochmal auf Abschnitt 14.2.3. Mittels der anova() Funktion k¨ onnen wir uns Tests f¨ ur jede einzelne Variable ausgeben lassen, wobei Faktorvariablen, die aus mehreren Dummyvariablen bestehen, als eine Variable mit mehereren Freiheitsgraden betrachtet werden (’t¨ atig’ in unserem Beispiel). > anova(regrmodell) Analysis of Variance Table Response: gehalt Df Sum Sq Mean Sq F value geschl 1 2.7919e+10 2.7919e+10 602.305 ausbild 1 3.9545e+10 3.9545e+10 853.123 agehalt 1 4.2057e+10 4.2057e+10 907.330 erfahr 1 1.5671e+09 1.5671e+09 33.807 mind 1 1.1574e+08 1.1574e+08 2.497 dauerneu 1 1.1564e+09 1.1564e+09 24.947 t¨ atig 2 4.0028e+09 2.0014e+09 43.178 Residuals 465 2.1554e+10 4.6353e+07 --Signif. codes: 0 ’***’ 0.001 ’**’ 0.01 ’*’
Pr(>F) < 2.2e-16 < 2.2e-16 < 2.2e-16 1.132e-08 0.1147 8.352e-07 < 2.2e-16
*** *** *** *** *** ***
0.05 ’.’ 0.1 ’ ’ 1
Man erkennt in der Regressions- und in der ANOVA-Ausgabe, dass die Variable ’mind’ keinen Einfluss auf das Gehalt hat. Daher passen wir nun ein Modell ohne ’mind’ an. > regrmodell2 <- lm(gehalt~geschl+ausbild+agehalt+ erfahr+dauerneu+t¨ atig) > print( summary(regrmodell2) ) Call: lm(formula = gehalt ~ geschl + ausbild + agehalt + erfahr + dauerneu + t¨ atig) Residuals: Min 1Q -22915.4 -3298.9
Median -675.8
3Q 2544.1
Max 46541.0
Coefficients: (Intercept) geschlw ausbild agehalt erfahr dauerneu t¨ atig1 t¨ atig2
Estimate Std. Error t value Pr(>|t|) 2.057e+04 3.221e+03 6.386 4.12e-10 *** -1.870e+03 7.605e+02 -2.459 0.01429 * 4.993e+02 1.600e+02 3.121 0.00191 ** 1.341e+00 7.291e-02 18.397 < 2e-16 *** -2.228e+01 3.567e+00 -6.248 9.41e-10 *** -1.486e+02 3.135e+01 -4.741 2.83e-06 *** -1.126e+04 1.364e+03 -8.251 1.63e-15 *** -4.519e+03 2.161e+03 -2.091 0.03703 *
382
15. Einf¨ uhrung in R --Signif. codes:
0 ’***’ 0.001 ’**’ 0.01 ’*’ 0.05 ’.’ 0.1 ’ ’ 1
Residual standard error: 6814 on 466 degrees of freedom Multiple R-Squared: 0.8431, Adjusted R-squared: 0.8408 F-statistic: 357.8 on 7 and 466 DF, p-value: < 2.2e-16
Die anova() Funktion liefert: > anova(regrmodell2) Analysis of Variance Table Response: gehalt Df Sum Sq Mean Sq F value geschl 1 2.7919e+10 2.7919e+10 601.371 ausbild 1 3.9545e+10 3.9545e+10 851.800 agehalt 1 4.2057e+10 4.2057e+10 905.922 erfahr 1 1.5671e+09 1.5671e+09 33.755 dauerneu 1 1.1288e+09 1.1288e+09 24.315 t¨ atig 2 4.0662e+09 2.0331e+09 43.793 Residuals 466 2.1634e+10 4.6425e+07 --Signif. codes: 0 ’***’ 0.001 ’**’ 0.01 ’*’
Pr(>F) < 2.2e-16 < 2.2e-16 < 2.2e-16 1.159e-08 1.140e-06 < 2.2e-16
*** *** *** *** *** ***
0.05 ’.’ 0.1 ’ ’ 1
D.h., wir w¨ urden jetzt alle Variablen im Modell behalten. Der Wert von R2 betr¨agt jetzt 0.843, ist also nur geringf¨ ugig kleiner als im Modell mit ’mind’. Die Parametersch¨ atzungen kann man u ¨ brigens extrahieren, zum Beispiel um weitere Berechnungen anzustellen. F¨ ur das Modell mit und ohne ’mind’ erh¨alt man: > coefficients( regrmodell2) (Intercept) geschlw ausbild agehalt 20571.778941 -1870.062925 499.308099 1.341343 erfahr dauerneu t¨ atig1 t¨ atig2 -22.283073 -148.614760 -11255.522921 -4518.650767 Weitere Details findet man wie immer in der Hilfe zu lm(). Zur Interpretation der Parametersch¨ atzungen sei auf Abschnitt 14.2.3 verwiesen. Varianzanalyse. Zur Durchf¨ uhrung der einfaktoriellen Varianzanalyse kann die lm() Funktion verwendet werden, denn eine einfaktorielle Varianzanalyse kann als lineares Modell mit einer einzigen, kategorialen Einflussgr¨oße aufgefasst werden. Inhaltlich stellt sie aber eher einen R¨ uckschritt dar, da es sinnvoller ist, den Einfluss mehrerer Variablen simultan zu betrachten, wenn mehrere potenzielle Einflussgr¨ oßen erhoben wurden. Kruskal–Wallis Test. Wir wollen noch den sogenannten Kruskal–Wallis Test pr¨asentieren, der ohne die Annahme normalverteilter Fehler auskommt. Als Beispiel w¨ahlen wir Gehalt als Zielgr¨ oße und ’Art der T¨atigkeit’ (also die Variable ’t¨atig’ im Datensatz) als Einflussgr¨ oße. Die Einflussgr¨oße sei dabei wie im letzten Abschnitt (lineare Regression) bereits in eine Faktorvariable umgewandelt.
15.2 Einige praktische Beispiele
383
> kruskal.test(gehalt~t¨ atig) Kruskal-Wallis rank sum test data: gehalt by t¨ atig Kruskal-Wallis chi-squared = 207.6795, df = 2, p-value < 2.2e-16 Die Ergebnisse stimmen mit den Ergebnissen von SPSS, Abbildung 14.25 u ¨berein. Die Hypothese eines gleichen Gehalts in den drei T¨atigkeitsgruppen wird abgelehnt. Die Art der T¨ atigkeit der Bankangestellten (B¨ uro, Bewachung, Management) beeinflusst also das Gehalt. Zweifaktorielle Varianzanalyse. Auch diese kann mittels lm() durchgef¨ uhrt werden. Der Unterschied zum u ¨ blichen linearen Modell besteht darin, dass beide Einflussvariablen Faktoren (also kategorial) sein m¨ ussen und die Wechselwirkung ber¨ ucksichtigt werden soll. Als Beispiel verwenden wir ’Geschlecht’ und ’Art der T¨atgkeit’ als Einflussfaktoren auf das Gehalt: > regrmodell4 <- lm(gehalt~geschl+t¨ atig+geschl:t¨ atig) > anova(regrmodell4) Analysis of Variance Table Response: gehalt Df Sum Sq Mean Sq F value Pr(>F) geschl 1 2.7919e+10 2.7919e+10 315.816 < 2.2e-16 t¨ atig 2 6.7290e+10 3.3645e+10 380.595 < 2.2e-16 geschl:t¨ atig 1 1.2477e+09 1.2477e+09 14.114 0.0001937 Residuals 469 4.1460e+10 8.8401e+07 --Signif. codes: 0 ’***’ 0.001 ’**’ 0.01 ’*’ 0.05 ’.’ 0.1
*** *** *** ’ ’ 1
Die Wechselwirkung dabei durch die Hinzunahme von geschl:t¨ atig in die Modellformel ber¨ ucksichtigt. Vergleiche Abbildung 14.26 f¨ ur die SPSS Ausgabe. Wir sehen, dass nicht nur beide Faktoren, sondern auch die Wechselwirkung signifikant ist. Analyse von Kontingenztafeln. Den χ2 –Test f¨ ur eine 2 × 2 Kontingenztafel haben wir bereits in Abschnitt 15.2.2 kennengelernt (chisq.test()). Die Funktion chisq.test() kann analog auch f¨ ur gr¨oßere Tafeln verwendet werden. Lebensdaueranalyse. In R steht dazu die Bibliothek survival zur Verf¨ ugung. Um sie zu benutzen, laden wir die Bibliothek in R: > library(survival)
384
15. Einf¨ uhrung in R
Anschließend k¨onnen wir die Funktionen Surv() und survfit() benutzen. Wir betrachten Beispiel 12.1.1 aus Kapitel 12.1. Zun¨achst definieren wir 3 ¨ Vektoren, die die Uberlebenszeiten, den Zensierungsindikator (0 zensiert, 1 unzensiert) und die Gruppe (A oder B, kodiert als 1 oder 2) enthalten: > times<-c(1431,1456,1435,116,602,406,98,1260,1263,172, 393,911,34,912,1167,1003,151,669,533,1044,1015,116,570, 914,899,898) > cens <- c(0,0,0,1,0,1,1,0,1,1,1,0,1,1,0,0,0,1,0,0, 0,1,0,0,1,0) > group <- c(1,1,2,1,2,2,1,2,1,2,1,2,1,1,1,2,2,1,1,1,2, 2,1,2,2,1) Jetzt k¨onnen wir ein Surv() Objekt konstruieren: > Surv(times,cens) [1] 1431+ 1456+ 1435+ 172 393 911+ 34 [20] 1044+ 1015+ 116
116 602+ 406 912 1167+ 1003+ 570+ 914+ 899
98 1260+ 1263 151+ 669 533+ 898+
¨ Das Zeichen + zeigt die zensierten Uberlebenszeiten an. Eine Kaplan–Meier Sch¨atzung f¨ ur alle Daten (also ohne Ber¨ ucksichtung der Gruppe) wie in Beispiel 12.3.1 erh¨alt man jetzt wie folgt: > fit1 <- survfit( Surv(times,cens), conf.type="none" ) > summary(fit1) Call: survfit(formula = Surv(times, cens), conf.type = "none") time n.risk n.event survival std.err 34 26 1 0.962 0.0377 98 25 1 0.923 0.0523 116 24 2 0.846 0.0708 172 21 1 0.806 0.0780 393 20 1 0.766 0.0839 406 19 1 0.725 0.0886 669 15 1 0.677 0.0950 899 13 1 0.625 0.1010 912 11 1 0.568 0.1066 1263 4 1 0.426 0.1467 Es werden also lediglich die Sprungpunkte (Zeitpunkte, an denen ein Ereignis stattfand) ausgegeben. Eine grafische Darstellung erh¨alt man durch > plot(fit1) Die erzeugte Grafik ist in Abbildung 15.7 zu sehen. Wollen wir dagegen beide Gruppen getrennt betrachten wie in Beispiel 12.3.2, so k¨onnen wir dies durch Einbeziehen der group Variable in die survfit() Funktion erreichen.
0.0
0.2
0.4
0.6
0.8
1.0
15.2 Einige praktische Beispiele
0
200
400
600
800
1000
1200
1400
Abb. 15.7. Kaplan–Meier Sch¨ atzung der Survivorfunktion (gesamt)
> summary(fit2) Call: survfit(formula = Surv(times, cens) ~ group, conf.type = "none") group=1 time n.risk n.event survival std.err 34 14 1 0.929 0.0688 98 13 1 0.857 0.0935 116 12 1 0.786 0.1097 393 11 1 0.714 0.1207 669 8 1 0.625 0.1347 912 6 1 0.521 0.1471 1263 3 1 0.347 0.1724 group=2 time n.risk n.event survival std.err 116 12 1 0.917 0.0798 172 10 1 0.825 0.1128 406 9 1 0.733 0.1324 899 7 1 0.629 0.1493 Die grafische Darstellung findet sich in Abbildung 15.8.
385
15. Einf¨ uhrung in R
0.0
0.2
0.4
0.6
0.8
1.0
386
0
200
400
600
800
1000
1200
1400
Abb. 15.8. Kaplan–Meier–Sch¨ atzung der Survivorfunktion (Gruppen A und B)
Log–Rank Test. Zum Vergleich der beiden Gruppen A und B kann der Log– Rank Test verwendet werden, siehe Kapitel 12.4. F¨ ur unsere Daten erhalten wir den Test mit der survdiff Funktion mit folgendem Befehl. > survdiff( Surv(times,cens)~group ) Call: survdiff(formula = Surv(times, cens) ~ group) N Observed Expected (O-E)^2/E (O-E)^2/V group=1 14 7 5.95 0.186 0.416 group=2 12 4 5.05 0.219 0.416 Chisq= 0.4
on 1 degrees of freedom, p= 0.519
Die Werte entsprechen denen der Ausgabe von SPSS in Beispiel 12.4.1.
¨ A. L¨ osungen zu den Ubungsaufgaben
¨ Wir stellen im Folgenden m¨ ogliche L¨ osungswege zu den Ubungsaufgaben dieses Buches vor. Gibt es mehrere L¨ osungswege, so beschr¨anken wir uns auf einen. Zu den theoretischen Aufgaben, die dem Leser zur Kontrolle des Stoffs dienen sollen, werden keine L¨ osungen angegeben. Der Leser sei hierzu auf das ¨ entsprechende Kapitel verwiesen. Bei der L¨ osung der Ubungsaufgaben geben wir die zugrundeliegende Formel nur durch die entsprechende Gleichungsnummer an. Sind in einem L¨ osungsweg Zwischenergebnisse angegeben, so sollen diese dem Leser zur Kontrolle dienen. Es wird jedoch nicht mit den gerundeten Zwischenergebnissen, sondern mit dem exakten Wert weitergerechnet.
388
¨ A. L¨ osungen zu den Ubungsaufgaben
A.1 Kombinatorik L¨osung zu Aufgabe 1.2: a) F¨ ur die erste Stelle gibt es, da die 0 ausgeschlossen ist, 9 M¨oglichkeiten: die Ziffern 1, . . . , 9. Ist die erste Ziffer gew¨ahlt, so stellt die Wahl der verbleibenden Ziffern eine Kombination von m = 7 aus n = 10 Ziffern (0, . . . , 9) dar, diese Anzahl ist nach (1.9) gleich 107 , die Gesamtzahl der 8-stelligen Kontonummern ist also 9 · 107 . b) F¨ ur die erste Stelle gibt es 9 M¨ oglichkeiten. Haben wir die erste Ziffer gew¨ahlt, so gibt es f¨ ur die zweite Stelle wieder 9 M¨oglichkeiten: die acht verbleibenden plus die jetzt zugelassene 0. F¨ ur die dritte Stelle verbleiben 8 M¨oglichkeiten, f¨ ur die vierte Stelle 7 M¨oglichkeiten, usw. Es gibt also 9 · 9 · 8 · 7 · 6 · 5 · 4 · 3· = 1 632 960 Kontonummern. L¨osung zu Aufgabe 1.3: Die Anzahl der Permutationen von a, b, c, d, e, die mit e“ beginnen, entspricht der Anzahl der Permutationen von a, b, c, d, da ” duch den festgelegten Beginn nur noch die Buchstaben a, b, c, d permutiert werden k¨onnen. Es gibt also 4! = 24 derartige Permutationen. Die Anzahl der Permutationen von a, b, c, d, e, die mit cb“ beginnen, ent” spricht analog der Anzahl der Permutationen von a, d, e (die bereits festgelegten c und b werden nicht ber¨ ucksichtigt), d. h. es gibt 3! = 6 Permutationen. L¨osung zu Aufgabe 1.4: Es handelt sich um f¨ ur Buchstaben und Ziffern separate Kombinationen mit Ber¨ ucksichtigung der Reihenfolge und mit Wiederholung (vgl. (1.9)). m = 2 aus n = 26 Buchstaben werden unter Ber¨ ucksichtigung der Reihenfolge, mit Wiederholung ausgew¨ ahlt. Das ergibt nm = 262 m¨ogliche Buchstabenkombinationen. m = 3 aus n = 9 Ziffern werden unter Ber¨ ucksichtigung der Reihenfolge, mit Wiederholung ausgew¨ ahlt. Es ergeben sich nm = 93 m¨ogliche Zahlenkombinationen. Alle Kombinationen von gew¨ ahlten Buchstaben- und Zahlenkombinationen sind zugelassen. Damit sind 262 · 93 = 676 · 729 = 492 804 Motorradkennzeichen m¨oglich. L¨osung zu Aufgabe 1.5: Es spielen jeweils zwei Manschaften gegeneinander. Es gibt damit 12 ogliche Paarungen, d. h. Spiele. Da hierbei die Rei2 = 66 m¨ henfolge noch nicht ber¨ ucksichtigt wird, also keine Unterscheidung zwischen uckspiel) getroffen wird, muß die Anzahl Mi : Mj (Hinspiel) und Mj : Mi (R¨ der Spiele noch mit 2 multipliziert werden. Allgemein haben wir also eine Kombination mit Reihenfolge, ohne Wiederholung. Wir erhalten nach (1.7) 12 12 · 11 n n! = 2! =2· = 2 · 66 = 132 m! = 2 (n − m)! 2·1 m Hin- und R¨ uckspiele.
A.1 Kombinatorik
389
L¨osung zu Aufgabe 1.6: Wir haben n = 10 G¨aste, aus denen jeweils m = 2 G¨aste auszuw¨ahlen sind, die sich k¨ ussen. Da bei der Anzahl der K¨ usse nicht unterschieden wird, ob Person A Person B k¨ usst oder umgekehrt, und keine Person ‘sich selbst k¨ usst’, liegt also eine Kombination ohne Ber¨ ucksichtigung der Reihenfolge sowie ohne Wiederholung vor. Damit betr¨agt die Gesamtzahl der K¨ usse nach (1.5) n 10 10 · 9 = 45 . = = 2·1 m 2 L¨osung zu Aufgabe 1.7: Das Siegerpodest wird mit den m = 3 Schnellsten der n = 22 Athleten besetzt. Die Reihenfolge des Zieleinlaufs bestimmt die Platzierungen und ein Athlet kann nur einen Platz belegen. Wir bestimmen also die Kombinationen mit Ber¨ ucksichtigung der Reihenfolge, ohne Wiederholung (vgl. (1.7)): n 22 22! 3! = 9 240 , m! = 3! = m 3 3!19! d. h. 9 240 verschiedene Besetzungen des Siegerpodestes sind m¨oglich. W¨ urde wie bei einem Qualifikationslauf, in dem die ersten Drei f¨ ur die n¨achste Runde qualifiziert sind, die Reihenfolge keine Rolle spielen, so veringert sich die Zahl der m¨oglichen Besetzungen der Gruppe der ersten Drei auf n 22 22! = 1 540 . = = m 3 3!19! L¨osung zu Aufgabe 1.8: Wir haben n = 12 Tischtennisspieler, mit denen eine Rangliste f¨ ur die Pl¨ atze 1 bis 6 gebildet wird. Die Platzierung wird ber¨ ucksichtigt und jeder Spieler kann nur einen Platz der Rangliste belegen. Dies ergibt Kombinationen mit Ber¨ ucksichtigung der Reihenfolge und ohne Wiederholung. Deren Anzahl ist nach (1.7) 12! n 12 12! · 6! = = 665 280, m! = 6! = 6!6! 6! m 6 d. h. wir haben 665 280 m¨ ogliche Ranglisten. L¨osung zu Aufgabe 1.9: a) F¨ ur die Ergebnisse der vier W¨ urfel w¨ ahlen wir vier Augenzahlen aus den 6 m¨oglichen Augenzahlen aus. F¨ ur das Ereignis ‘vier verschiedene Augenzahlen’ spielt die Reihenfolge keine Rolle (Kombination ohne Ber¨ ucksichtigung der Reihenfolge). Da keine Augenzahl doppelt vorkommen soll sind Wiederholungen ausgeschlossen. Wir erhalten mit (1.6) insgesamt 6·5 6 6! = = 15 = 4!2! 2 4 M¨oglichkeiten.
390
¨ A. L¨ osungen zu den Ubungsaufgaben
b) Wir bestimmen zun¨ achst die Gesamtzahl der Kombinationen beim Wurf von 4 W¨ urfeln ohne Ber¨ ucksichtigung der Reihenfolge und mit Wiederholung. Dies sind n+m−1 6+4−1 9 9! = 126 . = = = 4!5! m 4 4 Darunter sind 6 Kombinationen von jeweils 4 gleichen Zahlen: (1, 1, 1, 1) bis (6, 6, 6, 6). Ziehen wir diese von den 126 Kombinationen ab, so erhalten wir die gesuchten 126−6 = 120 Kombinationen mit h¨ochstens drei gleichen Zahlen. L¨osung zu Aufgabe 1.10: a) Gez¨ahlt werden alle F¨ alle, in denen der erste Wurf eine 6 und die beiden anderen ein beliebiges Ergebnis ergeben, es wird also die Reihenfolge ber¨ ucksichtigt. Der erste Wurf ist festgelegt (= 6) und wir haben damit f¨ ur die Besetzung der beiden letzten W¨ urfe eine Kombination mit Ber¨ ucksichtigung der Reihenfolge, mit Wiederholung, d. h. wir haben nm = 62 = 36 M¨oglichkeiten. b) Es wird wieder die Reihenfolge ber¨ ucksichtigt. Die ersten beiden W¨ urfe k¨onnen einen beliebigen Ausgang haben. Hier gibt es wieder 62 M¨oglichkeiten. F¨ ur den dritten Wurf gibt es 3 M¨ oglichkeiten eine gerade Augenzahl zu erhalten, also insgesamt 62 · 3 = 108 M¨oglichkeiten. c) Wiederum wird die Reihenfolge ber¨ ucksichtigt. Der erste und der dritte Wurf sind fest (= 3), f¨ ur das beliebige Ergebnis des zweiten Wurfs gibt es 6 M¨oglichkeiten. Insgesamt sind es 1 · 6 · 1 = 6 M¨oglichkeiten. L¨osung zu Aufgabe 1.11: Nach Vorgabe sollen die 10 Karten 3 beliebige K¨onige und 2 beliebige Damen enthalten. Da jede Karte nur einmal vorkommt, handelt es sich um Kombinationen ohne Wiederholungen. Die Reihenfolge, in der der Spieler seine Karten erh¨ alt, ist ohne Bedeutung. Wir haben damit also Kombinationen ohne Wiederholung und ohne Ber¨ ucksichtigung der Reihenfolge. Die gesuchten Partien ergeben sich indem drei aus den vier vorhandenen K¨onigen, zwei aus den vier vorhandenen Damen und die restlichen 5 Karten aus den verbleibenden 24 Karten gezogen werden, die weder K¨onig noch Dame sind. Es gibt insgesamt 4 4 24 = 1 020 096 3 2 5 Partien.
A.2 Elemente der Wahrscheinlichkeitsrechnung
391
A.2 Elemente der Wahrscheinlichkeitsrechnung L¨osung zu Aufgabe 2.1: Beim zweimaligen M¨ unzwurf sind die Elementarereignisse e1 = (W, W ), e2 = (W, Z), e3 = (Z, W ) und e4 = (Z, Z). F¨ ur Ω ogliches Ereignis ist z.B. (8, Z). Das Komgilt Ω = (e1 , e2 , e3 , e4 ). Ein unm¨ plement¨arereignis zu A = {(W, W ), (W, Z)} lautet A¯ = {(Z, W ), (Z, Z)}. L¨osung zu Aufgabe 2.2: Aus den Angaben f¨ ur A, B, C bestimmen wir a) A ∩ B = {1, 8}, A ∩ C = ∅ und B ∩ C = {5}. b) A ∪ B = {0, 1, 2, 4, 5, 8, 9, 11} und A ∪ C = {1, 4, 5, 6, 7, 8, 11}. c) A \ B = {4, 11}, B \ A = {0, 2, 5, 9} und A \ C = {1, 4, 8, 11} = A, weil AC = ∅ gilt. d) (A ∪ B) ∩ C = {5}. e) (A ∩ B) \ C = {1, 8}. L¨osung zu Aufgabe 2.3: Die Ereignisse A, B und C sind A = {1, 3, 5}, B = {4, 5, 6} und C = {5, 6} (vgl. Abbildung A.1). Damit ist
a) B und C aber nicht A: Es gilt immer A¯ = Ω \ A = {2, 4, 6}. Gem¨aß der Definition der Mengen B und C gilt C ⊂ B, so dass B ∩C = C. Insgesamt erhalten wir B ∩ C ∩ A¯ = {5, 6} ∩ {2, 4, 6} = {6} .
b) Keines der genannten Ereignisse tritt ein. Mit den De Morganschen Regeln ¯ ∩ C¯ = A ∪ B ∪ C. Dies ist mit A¯ = Ω \ A (vgl. Definition 2.2.3) gilt A¯ ∩ B ¯¯ = A gilt erhalten wiederum gleich mit Ω \ {A ∪ B ∪ C}. Da allgemein A wir schließlich ¯ ∩ C¯ = Ω \ (A ∪ B ∪ C) , A¯ ∩ B was mit A ∪ B ∪ C = {1, 3, 4, 5, 6} gleich Ω \ {1, 3, 4, 5, 6} = {2} ist. ¯ = {1, 2, 3} und C¯ = {1, 2, 3, 4} sofort Wir erhalten mit A¯ = {2, 4, 6}, B ¯ ∩ C¯ = {2} . A¯ ∩ B ¯ ∩ C¯ = {1, 3}, A¯ ∩ B ∩ C¯ = {4} und A¯ ∩ B ¯ ∩ C = ∅. c) Wir bestimmen A ∩ B Damit erhalten wir als Gesamtergebnis ¯ ∩ C) ¯ ∪ (A¯ ∩ B ∩ C) ¯ ∪ (A¯ ∩ B ¯ ∩ C) = {1, 3} ∪ {4} ∪ ∅ = {1, 3, 4} (A ∩ B
¨ A. L¨ osungen zu den Ubungsaufgaben
392
3 1 A
C 5 2
6
C
3 1
4 B
5 2
A
6
4 B
3 1 A
C 5
6
2
4 B
Abb. A.1. Darstellung der Mengen zu Aufgabe 2.3
L¨osung zu Aufgabe 2.4: Wir u ufen die Axiome. ¨ berpr¨ Axiom 1: 0 ≤ P (A) ≤ 1 ist f¨ ur alle gegebenen Ereignisse erf¨ ullt. Axiom 2: P (Ω) = 1. A, B, C und D bilden gem¨aß Angabe eine vollst¨andige Zerlegung von Ω, d. h. es gilt Ω = A ∪ B ∪ C ∪ D mit P (Ω) = P (A) + P (B) + P (C) + P (D) = 1. Wir erhalten jedoch P (A) + P (B) + P (C) + P (D) =
12 + 35 + 15 + 20 82 = = 1 . 60 60
Dies ist ein Widerspruch. Die Werte verstoßen gegen die Kolmogorovschen Axiome und k¨onnen damit keine Wahrscheinlichkeiten f¨ ur die Zerlegung des Grundraums Ω sein. Zur Vollst¨andigkeit u ufen wir auch noch Axiom 3: P (A ∪ B) = ¨ berpr¨ P (A) + P (B), falls A ∩ B = ∅. Wir haben jedoch P (B ∪ C) = 0.5 und 10 = 0.5. Dies ist ein ebenfalls ein Widerspruch. P (B) + P (C) = 12 L¨osung zu Aufgabe 2.5: Der Berechnung liegt ein Laplace-Experiment zugrunde. Die Wahrscheinlichkeit f¨ ur ein Ereignis A wird nach (2.3) als Quotient der Anzahl der f¨ ur A g¨ unstigen F¨ alle und der Anzahl aller m¨oglichen F¨alle bestimmt: P (A) = |A|/|Ω|. Aus Beispiel 1.4.3 entnehmen wir die M¨achtigkeit = 13 983 816. von Ω: |Ω| = 49 6 a) A: 6 Richtige. Es gibt genau eine M¨ oglichkeit alle 6 gezogenen Zahlen richtig getippt zu haben, d. h. |A| = 1. Damit erhalten wir 1 P (A) = 49 = 7.15 · 10−8 . 6
b) B: genau 5 Richtige. F¨ ur die Konstruktion der Mengen vertauschen wir gedanklich die Reihenfolge ‘Tippen der Zahlen’ und ‘Ziehung des Ergeb oglichkeiten 5 aus den 6 richtigen Zahlen ausnisses’. Es gibt 65 = 6 M¨ zuw¨ahlen. Die verbleibende Zahl muß falsch getippt sein, sie kann also nur aus ur den restlichen 43 nicht gezogenen Zahlen getippt werden, 643 wof¨ es 43 = 43 M¨ o glichkeiten gibt. Wir erhalten damit |B| = , also 1 5 1 P (B) =
643 5
491 6
=
6 · 43 = 1.84 · 10−5 . 13 983 816
A.2 Elemente der Wahrscheinlichkeitsrechnung
393
c) C: keine Richtige. Um keine Zahl richtig zu tippen, m¨ ussen alle getippten Zahlen aus den nicht gezogenen Zahlen gew¨ a hlt werden. Hierf¨ ur gibt es oglichkeiten. Damit ist |C| = 43 6 M¨ 43 6 096 454 6 = P (C) = 49 = 0.436 . 13 983 816 6
d) D: h¨ochstens zwei Richtige. F¨ ur dieses Ereignis gibt es drei M¨oglichkeiten: Null, ein oder zwei Richtige. Diese drei Ereignisse schließen sich gegenseitig aus, so dass die Wahrscheinlichkeit f¨ ur D die Summe der Wahrscheinlichkeiten der einzelnen Ereignisse darstellt P (h¨ochstens 2 Richtige) = P (0 Richtige)+P (1 Richtige)+P (2 Richtige) . Die Anzahlen der M¨ oglichkeiten f¨ ur die einzelnen Ereignisse erhalten 643 wir ¨ analog zu den obigen Uberlegungen als 43 (keine Richtige), 6 1 5 (ge (genau zwei Richtige). Insgesamt gilt nau eine Richtige) und 62 43 4 43 643 643 + 1 5 + 2 4 49 = 0.981 . P (D) = 6 6
Wir haben f¨ ur die obigen Berechnungen jeweils folgendes allgemeine Schema verwendet. 6 43 |A| = . Anzahl der Richtigen Anzahl der Falschen 6 In a) und c) traten die Spezialf¨ alle 66 = 1 und 43 0 = 1 bzw. 0 = 1 auf.
L¨osung zu Aufgabe 2.6: Zur Bestimmung der gesuchten Wahrscheinlichkeit verwenden wir das Komplement¨ arereignis. Zum Ereignis A: ‘mindestens 2 ¯ ‘alle Kinder sind Kinder sind am gleichen Tag geboren’ ist das Ereignis A: an verschiedenen Tagen geboren’ komplement¨ ar. Da die Geburtstermine als unabh¨angig betrachtet werden k¨ onnen, ergibt sich die gesuchte Wahrscheinlichkeit aus dem Produkt der Wahrscheinlichkeiten f¨ ur die einzelnen Kinder. Ohne die zeitliche Reihenfolge der Geburtstermine zu betrachten k¨onnen wir folgende Wahrscheinlichkeiten f¨ ur die Geburtstermine einzelner Kinder angeben. F¨ ur das erste betrachtete Kind gilt P (an irgendeinem Tag geboren) =
31 . 31
F¨ ur ein zweites betrachtetes Kind gilt P (an anderem Tag geboren als das erste Kind) =
30 , 31
da noch 30 ‘freie’ Tage verbleiben. F¨ ur ein drittes betrachtetes Kind ergibt sich
394
¨ A. L¨ osungen zu den Ubungsaufgaben
P (an anderem Tag geboren als die ersten beiden Kinder) =
29 , 31
da noch 31 − 2 = 29 ‘freie’ Tage verbleiben, u.s.w. F¨ ur alle Kinder zusammen ergibt sich damit P (A) = 1 −
31 30 29 28 27 26 25 24 23 22 21 20 · · · · · · · · · · · = 0.9142 31 31 31 31 31 31 31 31 31 31 31 31
L¨osung zu Aufgabe 2.7: Zun¨ achst werden 3 M¨anner zuf¨allig ausgew¨ahlt. Die Aufgabenstellung reduziert sich dann auf die Fragestellung: Wie groß ist die Wahrscheinlichkeit, dass sich unter den 3 Frauen, die anschließend ausgew¨ahlt werden, mindestens eine befindet, die mit einem der 3 bereits ausgew¨ahlten M¨anner verheiratet ist? Wir verwenden zur Berechnung der gesuchten Wahrscheinlichkeit wieder das Komplement¨ arereignis P (mindestens eine) = 1 − P (keine) . ¨ Die Wahrscheinlichkeit P (keine) ergibt sich aus der Uberlegung, dass es ins gesamt 73 M¨oglichkeiten gibt, 3 Frauen aus einer Gruppe von 7 Frauen auszuw¨ahlen (Kombination ohne Wiederholung, ohne Ber¨ ucksichtigung der Reihenfolge, vgl. (1.5)). F¨ ur die f¨ ur das gesuchte Ereignis g¨ unstigen F¨alle wird aus den verbleibenden 4 Frauen ausgew¨ahlt, die mitkeinem der 3 vor her ausgew¨ahlten M¨ anner verheiratet sind. Hier gibt es 43 M¨oglichkeiten. Wir berechnen damit 4 4 . P (keine) = 37 = 35 3 Damit gilt
4 = 0.886 . 35 L¨osung zu Aufgabe 2.8: In der Urne befinden sich 8 gelbe und 4 blaue Kugeln P (mindestens eine) = 1 −
a) 3 Kugeln gleichzeitig zu ziehen entspricht 3-maligem Ziehen ohne Zur¨ ucklegen. Das gesuchte Ereignis A lautet: 2 gelbe und 1 blaue Kugel wurden ” gezogen“. Hierf¨ ur gibt es 12 m¨ ogliche F¨alle. Die zur Bestimmung der 3 Laplace-Wahrscheinlichkeit ben¨ otigten g¨ unstigen F¨ alle ergeben sich aus dem Ziehen von 2 aus 8 gelben Kugeln, wof¨ ur es 82 M¨oglichkeiten gibt und dem Ziehen von einer aus 4 blauen Kugeln mit 41 M¨oglichkeiten. 84 28 · 4 P (A) = 2121 = = 0.509 . 220 3 Mit dem Baumdiagramm in Abbildung A.2 (Ziehen ohne Zur¨ ucklegen) erhalten wir die gleiche L¨ osung: P (2 gelbe und 1 blaue) =
8 7 4 8 4 7 4 8 7 + + = 0.509 . 12 11 10 12 11 10 12 11 10
A.2 Elemente der Wahrscheinlichkeitsrechnung
8/12
4/12
gelb
7/11
blau 4/11
gelb
gelb
8/11
gelb
blau
4/10
7/10
gelb
blau
395
blau
7/10
blau
gelb
gelb
blau
blau
Abb. A.2. Baumdiagramm zu Aufgabe 2.8 a). Die g¨ unstigen F¨ alle sind mit den Wahrscheinlichkeiten angegeben, die ung¨ unstigen F¨ alle sind durch gestrichelte Linien dargestellt.
b) F¨ ur die erste zu ziehende Kugel gibt es zwei M¨oglichkeiten: sie ist gelb und wird durch eine blaue ersetzt oder sie ist blau und wird durch eine gelbe ersetzt. Dies entspricht der obersten Verzweigung in Baumdiagramm in Abbildung A.3. Gegen¨ uber dem Baumdiagramm in Abbildung A.2 ver¨andern sich durch das Ersetzen der gezogenen Kugel die Wahrscheinlichkeiten f¨ ur den zweiten Zug. Wir erhalten als L¨ osung P (zweite Kugel ist blau) =
8/12
4 3 52 8 5 + = = 0.361 . 12 12 12 12 144
4/12
gelb
blau 5/12
gelb
3/12
blau
gelb
blau
Abb. A.3. Baumdiagramm zu Aufgabe 2.8 b). Die g¨ unstigen F¨ alle sind mit den Wahrscheinlichkeiten angegeben, die ung¨ unstigen F¨ alle sind durch gestrichelte Linien dargestellt.
396
¨ A. L¨ osungen zu den Ubungsaufgaben
L¨osung zu Aufgabe 2.9: a) Mit dem Baumdiagramm in Abbildung A.4 bilden wir die Ziehungen nach. F¨ ur die gesuchte Wahrscheinlichkeit ergibt sich P (weiß) = P (weiß|U1 )P (U1 ) + P (weiß|U2 )P (U2 ) + P (weiß|U3 )P (U3 ) 7 1 2 1 4 1 · = 0.474 = · + · + 7 3 8 3 11 3
1/3
1/3
U1 2/7
1/3
U2 5/7
4/8
U3 4/8
7/11 4/11
Abb. A.4. Baumdiagramm zu Aufgabe 2.9
b) Gesucht ist die bedingte Wahrscheinlichkeit P (U2 |schwarz). Nach dem Satz von Bayes (vgl. (2.12)) gilt: P (U2 |schwarz) =
P (schwarz|U2 ) · P (U2 ) . P (schwarz)
Wir entnehmen aus den Angaben P (schwarz|U2 ) = 84 und P (U2 ) = 13 . Aus dem Ergebnis von Teilaufgabe a) folgt P (schwarz) = 1 − P (weiß) = 0.526, also folgt insgesamt P (U2 |schwarz) =
4 8
· 31 = 0.317 . 0.526
L¨osung zu Aufgabe 2.10: Der B¨ acker kann sein Brot nur verkaufen, falls alle vier Mehlsorten einwandfrei sind. Er kann sein Brot nicht verkaufen, falls ¯ mindestens eine Mehlsorte M¨ angel aufweist. Wir verwenden P (A) = 1−P (A), also P (kann sein Brot nicht verkaufen) = P (mindestens eine Mehlsorte weist M¨angel auf) = 1 − P (keine Mehlsorte weist M¨angel auf) . ¯ f¨ Wir wenden die Rechenregel P (A) = 1 − P (A) ur jede Mehlsorte an und gehen davon aus, dass die einzelnen Mehllieferungen unabh¨angig sind, d. h.,
A.2 Elemente der Wahrscheinlichkeitsrechnung
397
dass wir die Rechenregel P (AB) = P (A)P (B) anwenden k¨onnen. Damit erhalten wir schließlich P (kann Brot nicht verkaufen) = 1 − (1 − 0.1)(1 − 0.05)(1 − 0.2)(1 − 0.15) = 1 − 0.9 · 0.95 · 0.8 · 0.85 = 0.419.
L¨osung zu Aufgabe 2.11: Zwei Ereignisse A und B sind gem¨aß Definition 2.6.1 stochastisch unabh¨ angig, wenn P (A ∩ B) = P (A) · P (B) gilt. Wir bestimmen die einzelnen Faktoren der Gleichung um ihre G¨ ultigkeit zu u ufen. Das Eintreten des Ereignisses A ist unabh¨angig vom Ausgang ¨ berpr¨ unzwurf gibt des zweiten Wurfes, es gilt somit P (A) = 21 . Beim zweifachen M¨ es 36 m¨ogliche Ergebnisse, wenn die Reihenfolge der W¨ urfe ber¨ ucksichtigt werden soll. Es ist |Ω| = 36. Das Ereignis B enth¨alt folgende Ergebnisse ⎫ ⎧ ⎨ (1; 2) (1; 4) (1; 6) (2; 1) (2; 3) (2; 5) ⎬ B = (3; 2) (3; 4) (3; 6) (4; 1) (4; 3) (4; 5) ⎭ ⎩ (5; 2) (5; 4) (5; 6) (6; 1) (6; 3) (6; 5) Mit |B| = 18 folgt
P (B) =
18 1 |B| = = . |Ω| 36 2
Das Ereignis (A ∩ B) tritt ein, wenn beide Ereignisse A und B eintreten: A ∩ B = {(2; 1)(2; 3)(2; 5)(4; 1)(4; 3)(4; 5)(6; 1)(6; 3)(6; 5)} 9 Mit |A ∩ B| = 9 folgt P (A ∩ B) = 36 = 14 . Dies ist wiederum gleich mit 1 P (A)P (B) = 4 , so dass A und B stochastisch unabh¨angig sind.
Bemerkung. Dieses Ergebnis war zu erwarten, wenn man bedenkt, dass die einzelnen W¨ urfe unabh¨ angig voneinander ausgef¨ uhrt werden und unabh¨angig davon, ob im ersten Wurf eine gerade oder eine ungerade Zahl geworfen wurde, durch das Ergebnis im zweiten Wurf stets noch eine ungerade Augensumme entstehen kann. L¨osung zu Aufgabe 2.12: Den Angaben entnehmen wir P (A) = 0.3, P (B) = 0.3, P (C) = 0.25 und P (D) = 0.15. Außerdem sind folgende Wahrscheinlichkeiten angegeben: P (verdorben|C) = 0.07 P (verdorben|A) = 0.02 P (verdorben|B) = 0.02 P (verdorben|D) = 0.02 .
398
¨ A. L¨ osungen zu den Ubungsaufgaben
a) Da A, B, C, D eine vollst¨ andige Zerlegung von Ω bilden, k¨onnen wir mit obigen Angaben den Satz von der totalen Wahrscheinlichkeit (vgl. (2.11)) anwenden. Es gilt: P (verdorben) = P (verdorben|A) · P (A) + P (verdorben|B) · P (B)
+ P (verdorben|C) · P (C) + P (verdorben|D) · P (D) = 0.02 · 0.3 + 0.02 · 0.3 + 0.07 · 0.25 + 0.02 · 0.15 = 0.0325.
b) Nach dem Satz von Bayes (vgl. (2.12)) gilt: P (A|verdorben) =
0.02 · 0.3 P (verdorben|A) · P (A) = = 0.1846 . P (verdorben) 0.0325
c) Analog wie in Teilaufgabe b) berechnen wir zun¨achst: 0.02 · 0.3 = 0.1846 0.0325 0.07 · 0.25 = 0.5385 P (C|verdorben) = 0.0325 0.02 · 0.15 P (D|verdorben) = = 0.0923 0.0325 Da die Ereignisse B, C und D disjunkt sind, gilt P (B|verdorben) =
P (B ∪ C ∪ D|verdorben) = 0.1846 + 0.5385 + 0.0923 = 0.8154 . Einfacher w¨are folgende Rechnung gewesen, die das Komplement¨arereignis verwendet, dessen Wahrscheinlichkeit bereits in b) berechnet wurde P (B ∪ C ∪ D|verdorben) = 1 − P (A|verdorben) = 1 − 0.1846 = 0.8154 . Damit k¨onnen wir nun mit Hilfe des Satzes von Bayes die gesuchte Wahrscheinlichkeit bestimmen: P (B ∪ C ∪ D|verdorben) · P (verdorben) P (B ∪ C ∪ D) 0.8154 · 0.0325 = = 0.0379 . 0.3 + 0.25 + 0.15
P (verdorben|B ∪ C ∪ D) =
L¨osung zu Aufgabe 2.13: A und B sind stochastisch unabh¨angig, d. h. es gilt P (A ∩ B) = P (A) · P (B). Aus der Angabe entnehmen wir weiter P (B) = 0.5 und P (A ∩ B) = 0.2. Zun¨ achst bestimmen wir daraus P (A) =
P (A ∩ B) 0.2 = = 0.4 , P (B) 0.5
um den Additionssatz f¨ ur zwei beliebige (nicht notwendig disjunkte) Ereignisse anwenden zu k¨ onnen und das gesuchte Ergebnis P (A ∪ B) = P (A) + P (B) − P (A ∩ B) = 0.4 + 0.5 − 0.2 = 0.7 zu erhalten.
A.2 Elemente der Wahrscheinlichkeitsrechnung
399
L¨osung zu Aufgabe 2.14: Bezeichne A das Ereignis Fahrer ist Alkohols¨ under“ ” und B das Ereignis Test zeigt positiv“. Aus den Angaben entnehmen wir die ” Wahrscheinlichkeit P (A) = 0.1 und die beiden Irrtumswahrscheinlichkeiten ¯ ¯ = 0.2. P (B|A) = 0.3 und P (B|A) a) Die Wahrscheinlichkeit f¨ ur einen postitiven Test k¨onnen wir bestimmen, ¯ indem wir die disjunkten Ereignisse P (AB) und P (AB) betrachten, f¨ ur die gilt, dass ¯ . P (B) = P (AB) + P (AB) ¯ bilden eine vollst¨ AB und AB andige Zerlegung von B. Mit dem (umgeformten) Satz von Bayes berechnen wir P (AB) = P (B|A)P (A), wobei sich ¯ ¯ als P (B|A) = 1 − P (B|A) = 0.7 erP (B|A) aus dem gegebenen P (B|A) ¯ ¯ gibt. Ebenso bestimmen wir P (AB) = P (B|A)P (A) = 0.03. Wir erhalten damit P (AB) = P (B|A)P (A) = 0.07. Setzen wir diese Zwischenergebnisse ein, so resultiert ¯ = 0.07 + 0.18 = 0.25 . P (B) = P (AB) + P (AB) ¯ f¨ b) Die Wahrscheinlichkeit P (A|B) ur einen Alkohols¨ under mit negativem Testergebnis erhalten wir mit dem Satz von Bayes aus ¯ ¯ = P (AB) = 0.03 = 0.04 , P (A|B) ¯ 1 − 0.25 P (B) ¯ bereits aus a) bekannt ist und P (B) ¯ mit dem Ergebnis von wobei P (AB) ¯ a) als P (B) = 1 − P (B) = 1 − 0.25 folgt. L¨osung zu Aufgabe 2.15: a) Keine Farbe darf doppelt vorkommen und vier Eier sollen im Osternest liegen. Dies entspricht der Wahl von vier aus f¨ unf m¨oglichen Farben: 54 = 5. Die Anzahl der verf¨ ugbaren Eier einer bestimmten Farbe spielt auf Grund der nicht vorhandenen Unterscheidbarkeit gleichfarbiger Eier keine Rolle. b) Die Eier werden nun zuf¨ allig ausgew¨ ahlt. Jedes Ei besitzt damit die gleiche Wahrscheinlichkeit in den Osterkorb zu gelangen. i) Die Wahrscheinlichkeit des gesuchten Ereignisses betr¨agt P (2 rote Eier, 1 blaues und 1 lila Ei) =
1 , 15
da hierf¨ ur die M¨ achtigkeit der Menge der f¨ ur das Ereignis g¨ unstigen F¨alle 1 betr¨ agt (beide roten Eier m¨ ussen gezogen werden und es gibt nur jeweils ein blaues und lila Ei). Die Anzahl der m¨oglichen ein 6! = 15. Ereignisse ergibt sich als 64 = 4!2!
400
¨ A. L¨ osungen zu den Ubungsaufgaben
ii) Die Wahrscheinlichkeit lauter verschiedenfarbige Eier zu erhalten betr¨agt 9 = 0.6 . P (lauter verschiedenfarbige Eier) = 15 Die Anzahl der g¨ unstigen Ereignisse ist hier 2·4+1 = 9, wie die folgende Tabelle der Farbkombinationen zeigt, bei der die ersten vier Farbkombinationen durch die zwei roten Eier jeweils doppelt zu z¨ahlen sind. rot blau gelb gr¨ un rot gelb gr¨ un lila rot blau gr¨ un lila rot blau gelb lila blau gelb gr¨ un lila Die Anzahl der m¨ oglichen Ereignisse ist wie in i) 64 = 15. Eine alternative Betrachtungsweise zur Bestimmung der gesuchten Wahrscheinlichkeit ist: P (lauter verschiedenfarbige Eier) = 1 − P (mindestens zwei Eier mit gleicher Farbe) . Dies ist im konkreten Fall aber nur bei der Auswahl zweier roter 6 = 0.4, da die Eier m¨oglich. Die Wahrscheinlichkeit hierf¨ ur betr¨agt 15 4 4! Anzahl der g¨ unstigen F¨ alle gleich 2 = 2!2! = 6 ist (es m¨ ussen beide roten Eier gezogen werden; die verbleibenden zwei Eier werden aus den 4 nicht roten Eiern gezogen). Die Anzahl der m¨oglichen F¨alle ist wieder 64 = 15. 4! c) Bei zwei roten, einem blauen und einem gelben Ei bestehen 2!1!1! = 12 m¨ogliche Farbreihenfolgen (Permutationen mit Wiederholung). L¨osung zu Aufgabe 2.16: a) Die beiden Fußballer schießen unabh¨ angig voneinander auf die Torwand. Damit ist die Wahrscheinlichkeit, dass beide ein Tor erzielen (Durchschnittsmenge) P (A ∩ B) = 0.4 · 0.5 = 0.2. Durch das dritte Axiom der Wahrscheinlichkeitsrechnung erhalten wir die gesuchte Wahrscheinlichkeit P (A ∪ B) = 0.4 + 0.5 − 0.2 = 0.7. In 70% der Torsch¨ usse trifft mindestens einer von beiden. b) Genau einer von beiden trifft dann, wenn nur A trifft oder nur B trifft, also P (A\B ∪ B\A) = 0.4 − 0.2 + 0.5 − 0.2 = 0.5. Genau einer von beiden trifft in 50% der Torsch¨ usse. c) Nur B trifft mit der Wahrscheinlichkeit P (B\A) = 0.5 − 0.2 = 0.3, somit in 30% der Torsch¨ usse.
A.3 Zuf¨ allige Variablen
401
A.3 Zuf¨ allige Variablen L¨osung zu Aufgabe 3.1: Die Verteilungsfunktion lautet ⎧ f¨ ur x < 2 ⎨0 1 2 − x + 2x − 3 f¨ u r2≤x≤4 F (x) = ⎩ 4 1 f¨ ur x > 4
a) Bildung der ersten Ableitung liefert die Dichtefunktion: F ′ (x) = f (x) ⎧ f¨ ur x < 2 ⎨0 ur 2 ≤ x ≤ 4 f (x) = − 12 x + 2 f¨ ⎩ 0 f¨ ur x > 4
b) Erwartungswert: Mit (3.14) berechnen wir f¨ ur den Erwartungswert
∞
∞
2
4 1 x0 dx E(X) = x f (x) dx = x0 dx + x (− x + 2) dx + 2 4 −∞ −∞ 2
4 1 = 0+ − x2 + 2x dx + 0 2 2 4 1 3 64 8 8 2 = − x +x = (− + 16) − (− + 4) = . 6 6 6 3 2 Wir haben bereits den Erwartungswert E(X) ermittelt, so dass nun noch E(X 2 ) bestimmt werden muß, um mit Verschiebungssatz (3.26) die Varianz Var(X) zu bestimmen (Var(X) = E(X 2 ) − [E(X)]2 ).
4 1 1 − x3 + 2x2 dx x2 − x + 2 dx = 2 2 2 2 4 1 2 128 16 22 = − x4 + x3 = (−32 + ) − (−2 + ) = , 8 3 3 3 3 2
E(X 2 ) =
4
8 2 also gilt Var(X) = 22 = 66−64 = 29 . 3 − 3 9 Berechnung der Varianz ist nat¨ urlich auch u ¨ ber die Definition Var(X) = Die ∞ 2 (x − E(X)) f (x)dx m¨ o glich, der obige Weg ist jedoch einfacher. −∞
L¨osung zu Aufgabe 3.2: Gegeben ist folgende Funktion 2x − 4 f¨ ur 2 ≤ x ≤ 3 f (x) = 0 sonst
a) Um zu u ufen, ob f (x) eine Dichte ist, verwenden wir Satz 3.4.1. Die ¨ berpr¨ erste Bedingung f (x) ≥ 0 ist erf¨ ullt, da 2x−4 im Intervall [2, ∞3] stets gr¨oßer oder gleich Null ist. Gem¨ aß der zweiten Bedingung muß −∞ f (x)dx den Wert 1 ergeben, also:
¨ A. L¨ osungen zu den Ubungsaufgaben
402
2
3
(2x − 4)dx = [x2 − 4x]32 = 9 − 12 − 4 + 8 = 1
Somit ist f (x) die Dichtefunktion einer stetigen Zufallsvariable X. b) F¨ ur x < 2 ist f (x) = 0 und damit auch F (x) = 0. F¨ ur x > 3 ist F (x) = 1, wie wir eben ermittelt haben. Damit muß nur noch die Verteilungsfunktion f¨ ur 2 ≤ x ≤ 3 bestimmt werden:
x
x ( )x f (t)dt = (2t − 4)dt = t2 − 4t 2 = x2 − 4x − 4 + 8 = x2 − 4x + 4 . −∞
2
Wir erhalten f¨ ur die Verteilungsfunktion F (x) also insgesamt ⎧ f¨ ur x < 2 ⎨0 ur 2 ≤ x ≤ 3 F (x) = x2 − 4x + 4 f¨ ⎩ 1 f¨ ur x > 3
L¨osung zu Aufgabe 3.3:
a) Wir bestimmen zun¨ achst die Konstante c so, dass f (x) eine Dichtefunktion ist: cx f¨ ur 1 ≤ x ≤ 3 f (x) = 0 sonst Gem¨aß Satz 3.4.1 muß f (x) ≥ 0 f¨ ur alle x gelten. Dies ist f¨ ur alle c ≥ 0 gegeben. F¨ u r eine Dichtefunktion muß weiterhin gelten, dass ∞ f (x)dx = 1. Wir setzen das gegebene f (x) ein und erhalten die Be−∞ dingung
3
cxdx = 1 ,
1
also
:c
2
x2
;3 1
=1
1 9 c− c = 1 2 2 4c = 1 . Damit beide Bedingungen von Satz 3.4.1 erf¨ ullt sind, muß also c = gelten. b) Mit c = 14 lautet die gesuchte Wahrscheinlichkeit P (X ≥ 2) =
2
3
3 1 2 1 9 1 4 1 5 1 xdx = x − = − − + = . 4 8 4 2 8 4 8 4 8
1 4
A.3 Zuf¨ allige Variablen
403
L¨osung zu Aufgabe 3.4: a) Aus den Angaben bestimmen wir F ′ (x) ⎧ ⎨0 f (x) = 15 ⎩ 0
zun¨ achst die Dichtefunktion f (x) = f¨ ur x < 3 f¨ ur 3 ≤ x ≤ 8 f¨ ur x > 8
b) Es gilt P (X = 5) = 0, da gem¨ aß (3.11) bei stetigen Zufallsvariablen die Wahrscheinlichkeiten f¨ ur einzelne Punkte gleich Null sind. 5−3 2 c) Mit (3.12) erhalten wir P {5 ≤ X ≤ 7} = F (7) − F (5) = 7−3 5 − 5 = 5.
L¨osung zu Aufgabe 3.5: Die Zufallsvariable X ist diskret und besitzt folgende Wahrscheinlichkeitsfunktion xi P (X = x)
1
2
3
4
5
6
1 9
1 9
1 9
2 9
1 9
3 9
Wir berechnen gem¨ aß (3.14) 1 1 1 2 1 3 +2· +3· +4· +5· +6· 9 9 9 9 9 9 1 + 2 + 3 + 8 + 5 + 18 37 = = . 9 9
E(X) = 1 ·
Die Varianz berechnen wir mit dem Verschiebungssatz (3.26). Dazu ben¨otigen wir noch 1 1 1 2 1 3 E(X 2 ) = 1 · + 4 · + 9 · + 16 · + 25 · + 36 · 9 9 9 9 9 9 1 + 4 + 9 + 32 + 25 + 108 179 = = . 9 9 ur Var(X) = E(X 2 ) − [E(X)]2 der Wert Damit ergibt sich f¨ Var(X) =
179 37 1611 − 1369 242 − ( )2 = = . 9 9 81 81
F¨ ur die transformierte Variable Y = lichkeitsfunktion yi = x1i P ( X1 = y)
1 1 9
1 2 1 9
1 X
erhalten wir folgende Wahrschein1 3 1 9
1 4 2 9
1 5 1 9
1 6 3 9
Damit erhalten wir f¨ ur den Erwartungswert gem¨aß (3.14) E(Y ) = E(
Damit ist E( X1 ) =
1 1 1 1 1 1 2 1 1 ) = 1· + · + · + · + X 9 2 9 3 9 4 9 5 1 1 1 1 1 1 = + + + + + = 9 18 27 18 45 18 1 E(X) .
1 1 3 + · 9 6 9 91 . 270
·
404
¨ A. L¨ osungen zu den Ubungsaufgaben
L¨osung zu Aufgabe 3.6: Gegeben ist die Verteilungsfunktion der Zufallsgr¨oße X: k 1 3 5 7
P (X ≤ k) 0.1 0.5 0.7 1
Mit P (X ≤ k) = P (X < k)+P (X = k) kann daraus die Wahrscheinlichkeitsfunktion von X abgelesen werden. Es ist P (X ≤ 1) = P (X < 1) + P (X = 1). Da gem¨aß obiger Verteilungsfunktion P (X < 1) = 0 ist, gilt P (X = 1) = 0.1. Der Wert f¨ ur P (X = 3) ergibt sich aus P (X ≤ 3) = P (X < 3) + P (X = 3). Aus der Verteilungsfunktion entnehmen wir P (X ≤ 3) = 0.5. Dies ergibt mit dem eben berechneten Wert von P (X = 1) = 0.1, dass P (X = 3) = 0.4 ist. Die restlichen Werte ergeben sich analog. k 1 3 5 7
P (X = k) 0.1 0.4 0.2 0.3
Mit diesem Ergebnis berechnen wir nun E(X) = 1 · 0.1 + 3 · 0.4 + 5 · 0.2 + 7 · 0.3 = 4.4 . Wir berechnen weiter E(X 2 ) = 1 · 0.1 + 9 · 0.4 + 25 · 0.2 + 49 · 0.3 = 23.4 , um mit dem Verschiebungssatz die Varianz zu erhalten: Var(X) = 23.4 − (4.4)2 = 4.04. Nimmt X nur die Werte 1,3,5 und 7 an, so nimmt die Zufallsvariable 1 2 2 2 X 2 nur die Werte 1,1/3 , 1/5 und 1/7 an. Mit der oben ermittelten Wahrscheinlichkeitsfunktion von X berechnen wir f¨ ur die Zufallsvariable 1/X 2 1 1 E = P (X = x) X2 x2 1 1 1 = 1 · 0.1 + · 0.4 + · 0.2 + · 0.3 9 25 49 1 4 2 3 = + + + = 0.1586 . 10 90 250 490 L¨osung zu Aufgabe 3.7: Die Augenzahlen der beiden W¨ urfel sind unabh¨angige Zufallsgr¨oßen.
A.3 Zuf¨ allige Variablen
405
a) Sei die Zufallsgr¨ oße X: Differenz zwischen Augenzahl blauer W¨ urfel und ” Augenzahl roter W¨ urfel“. Die folgende Tabelle gibt die m¨oglichen Kombinationen der Ergebnissse in der Form (blau, rot) und die daraus abgeleitete Wahrscheinlichkeitsfunktion von X an. −5 −4 −3 (1,6) (1,5) (1,4) (2,6) (2,5) (3,6)
k
P (X = k)
1 36
2 36
−2 (1,3) (2,4) (3,5) (4,6)
−1 (1,2) (2,3) (3,4) (4,5) (5,6)
0 (1,1) (2,2) (3,3) (4,4) (5,5) (6,6)
1 (2,1) (3,2) (4,3) (5,4) (6,5)
4 36
5 36
6 36
5 36
3 36
2 3 4 5 (3,1) (4,1) (5,1) (6,1) (4,2) (5,2) (6,2) (5,3) (6,3) (6,4) 4 36
3 36
2 36
1 36
Daraus ergibt sich als Verteilungsfunktion: k P (X ≤ k)
−5 1 36
−4 3 36
−3 6 36
−2 10 36
−1 15 36
0
1
2
3
4
21 36
26 36
30 36
33 36
35 36
5 1
b) Wir berechnen 1 E(X) = (−5)1 + (−4)2 + (−3)3 + (−2)4 + (−1)5 + 0 · 6 + 36 +1·5+2·4+3·3+2·4+5·1 1 = −5−8−9−8−5+5+8+9+8+5 =0 36 1 E(X 2 ) = 25 · 1 + 16 · 2 + 9 · 3 + 4 · 4 + 1 · 5 + 0 · 6 + 1 · 5 + 36 + 4 · 4 + 9 · 3 + 16 · 2 + 25 · 1 210 1 . = 25 + 32 + 27 + 16 + 5 + 5 + 16 + 27 + 32 + 25 = 36 36 Damit erhalten wir nach dem Verschiebungssatz Var(X) = E(X 2 ) − [E(X)]2 = 210 36 . ur die Zufallsgr¨ oße Y : Summe der beiden Augenzahlen“ leiten wir die c) F¨ ” Wahrscheinlichkeitsfunktion aus der unter a) angegebenen Wahrscheinlichkeitsfunktion der Zufallsvariablen X ab: k P (Y = k)
2
3
4
5
6
7
8
9
10
11
12
1 36
2 36
3 36
4 36
5 36
6 36
5 36
4 36
3 36
2 36
1 36
Mit den Tabellenwerten berechnen wir die Wahrscheinlichkeiten f¨ ur die zuf¨alligen Ereignisse
406
¨ A. L¨ osungen zu den Ubungsaufgaben
– Y ist mindestens 3: P (Y ≥ 3) = 1 − P (Y < 3) = 1 − P (Y ≤ 2) = 1 −
35 1 = . 36 36
– Y ist h¨ochstens 7:
21 7 = . 36 12 – Y hat Werte h¨ ochstens 11 und mindestens 4: P (Y ≤ 7) =
P (4 ≤ Y ≤ 11) = P (Y ≤ 11) − P (Y ≤ 3) =
3 32 8 35 − = = . 36 36 36 9
L¨osung zu Aufgabe 3.8: Wenn X symmetrisch um c ist, so ist die Variable Y = X − c symmetrisch um 0, d.h. es gilt f (−y) = f (y). Wegen E(Y ) = E(x − c) = E(X) − c ist E(X) = c ¨ aquivalent zu E(Y ) = 0. Dies ist nun zu zeigen:
E(Y ) =
∞
y f (y) dy =
−∞
∞
=−
0
0
y f (y) dy + −∞
y f (−y) dy +
∞
y f (y) dy
0
∞
y f (y) dy = 0
0
L¨osung zu Aufgabe 3.9: Wir beschr¨ anken uns auf eine stetige Zufallsvariable X, f¨ ur die
∞ E(X) = x f (x) dx −∞
gilt. Da gem¨aß Vorgabe X ≥ 0 gilt und da f (x) eine Dichte ist, f¨ ur die allgemein f (x) ≥ 0 f¨ ur alle x gilt, folgt xf (x) ≥ 0 f¨ ur alle x ∈ (−∞, ∞) und damit auch E(X) ≥ 0. F¨ ur diskrete Zufallsvariablen verl¨ auft die Argumentation analog; an die Stelle von xf (x)dx tritt dann xP (X = x). Die Summe ist positiv, da P (X = x) ≥ 0 stets erf¨ ullt ist.
L¨osung zu Aufgabe 3.10: Gegeben ist eine Zufallsgr¨oße X mit E(X) = 15, Var(X) = 4.
a) Es gilt P (|X − μ| < c) = P (|X − μ| ≤ c), da Punktwahrscheinlichkeiten im stetigen Fall Null sind. Da keine n¨ aheren Angaben zur Verteilung von X gemacht werden, verwenden wir die Ungleichung von Tschebyschev in der alternativen Darstellung (vgl. (3.37)): P (|X − μ| < c) ≥ 1 −
Var(X) c2
Das betrachtete Intervall [10, 20] liegt symmetrisch um E(X) = μ = 15 und 10 ≤ X ≤ 20 ist ¨ aquivalent zu |X −15| ≤ 5. Es ergibt sich die gesuchte Wahrscheinlichkeit als 4 21 P (|X − 15| ≤ 5) ≥ 1 − = = 0.84 . 25 25
A.3 Zuf¨ allige Variablen
407
b) Wir verwenden wieder die Ungleichung von Tschebyschev (vgl. (3.37)): P (|X − μ| < c) ≥ 0.9 = 1 −
Var(X) . c2
Die Bestimmungsgleichung f¨ ur c lautet also: 1−
Var(X) = 0.9 c2 Var(X) 4 c2 = = = 40 0.1 0.1 √ c = ± 40 = ±6.325
Das gesuchte Intervall [μ − c; μ + c] lautet damit [15 − 6.325; 15 + 6.325] = [8.675; 21.325]. L¨osung zu Aufgabe 3.11: a) Ereignis A: Es tritt genau einmal Wappen auf“. Dies kann im ersten ” Wurf, im zweiten, im dritten oder im vierten Wurf geschehen. Es gilt also A = {(W, Z, Z, Z), (Z, W, Z, Z), (Z, Z, W, Z), (Z, Z, Z, W )}. F¨ ur jedes der vier Teilereignisse Ai von A gilt 3 4 1 1 1 = . P (Ai ) = 2 2 2 4 Damit ist P (A) = 4 · ( 12 )4 = 16 = 14 . Ereignis B: Es tritt mindestens zweimal Wappen auf“. Wir berechnen ” diese Wahrscheinlichkeit u ¨ber das Gegenereignis.
P (mindestens 2 Wappen) = 1 − P (kein Wappen) − P (genau 1 Wappen) Die Wahrscheinlichkeit f¨ ur genau einmal Wappen haben wir bereits bestimmt, die Wahrscheinlichkeit f¨ ur kein Wappen ergibt sich analog zu 4 1 . P (kein Wappen) = 1 · 2 Wir erhalten insgesamt P (mind. 2 Wappen) = 1 −
1 1 5 11 − =1− = . 4 16 16 16
Ereignis C: Es tritt h¨ ochstens einmal Wappen auf“. Dieses Ereignis hat” ten wir gerade als Komplement¨ arereignis zur Berechnung von B: minde” stens zweimal Wappen“ verwendet. Damit gilt P (h¨ochstens einmal Wappen) = 1 − P (mind. 2 Wappen) = 1 −
5 11 = . 16 16
408
¨ A. L¨ osungen zu den Ubungsaufgaben
b) Wir verwenden das Gegenereignis zur Berechnung der gesuchten Wahrscheinlichkeit. n 1 . P (nie Wappen) = 2 Damit erh¨alt man P (mindestens einmal Wappen) = 1 − ( 12 )n . Die Forderung an n lautet also 1 − ( 21 )n > 0.9, bzw. umgeformt n 1 < 0.1 . 2
Wir logarithmieren: 1 n ln < ln(0.1) 2 ln(0.1) = 3.32 n> ln( 12 ) Das gesuchte minimale n ist also n = 4. Die M¨ unze m¨ ußte mindestens 4-mal geworfen werden. L¨osung zu Aufgabe 3.12: a) Die Zufallsvariable X : Kosten des Gespr¨achs“ ist diskret. Mit (3.14) ” berechnen wir ihren Erwartungswert: 1 1 1 E(X) = 12 + 24 + . . . + 72 2 4 48 = 6 + 6 + 2.25 + 4 + 5 + 1.5 = 24.75 . Mit dem Verschiebungssatz f¨ ur die Varianz (vgl. (3.26)) erhalten wir: Var(X) = E(X 2 ) − [E(X)]2 1 1 1 = 122 + 242 + . . . + 722 − 24.752 2 4 48 = 72 + 144 + 81 + 192 + 300 + 108 − 24.752 = 897 − 24.752 = 284.4375 .
Analog h¨atten wir auch (3.20) verwenden k¨onnen, um Var(X) direkt zu berechnen: Var(X) = E[X − E(X)]2 1 1 = (12 − 24.75)2 + . . . + (72 − 24.75)2 2 48 1 1 1 1 1 = (−12.75)2 + (−0.75)2 + 11.252 + 23.252 + 35.252 + 2 4 16 12 12 1 +47.252 48 = 284.4375
A.3 Zuf¨ allige Variablen
409
· 100% = 7.6% b) Die relative Preis¨ anderung betr¨ agt 24.75−23 23 c) Aus der angegebenen Kostenstruktur und dem daraus folgenden Zusammenhang zwischen der diskreten Zufallsvariablen X und der stetigen Zufallsvariablen Y berechnen wir 1 2 P (Y > 180) = P (X > 12 + 12) = P (X > 24) = P (X = 36) + P (X = 48) + P (X = 60) + P (X = 72) 1 1 1 1 1 = + + + = . 16 12 12 48 4 P (Y ≤ 90) = P (X = 12) =
Alternativ k¨onnen wir auch das Gegenereignis zur Berechnung verwenden P (Y > 180) = 1 − P (X ≤ 24) = 1 − P (X = 12) − P (X = 24) 1 1 1 = 1− − = . 2 4 4 d) Nein. Es gilt E(Y ) = E(X) · 90 12 , denn X ist diskret, Y aber stetig! Wie Y innerhalb der 90–Sekunden–Intervalle verteilt ist, ist unbekannt. L¨osung zu Aufgabe 3.13: a) Die gemeinsame Verteilung kann aus den Angaben abgelesen werden.
X
−1 2
0 0.3 0.1
Y 1 0.2 0.1
2 0.2 0.1
Die beiden Randverteilungen erhalten wir durch zeilenweises Summieren u ¨ ber Y bzw. spaltenweises Summieren u ¨ber X als X P(X=x)
−1 0.7
2 0.3
Y P(Y=y)
0 0.4
1 0.3
2 0.3
b) Unabh¨angigkeit von X und Y ist ¨ aquivalent zu der Bedingung P (X = x, Y = y) = P (X = x)P (Y = y) ∀x, y . In unserem Fall gilt aber z.B.: P (X = −1, Y = 0) = 0.3 = P (X = −1) · P (Y = 0) = 0.7 · 0.4 = 0.28 , so dass X und Y nicht unabh¨ angig sind. c) Aus der gemeinsamen Verteilung ergibt sich f¨ ur die Verteilung der Summe U = X + Y die Wahrscheinlichkeitsfunktion k P (U = k)
−1 0.3
0 0.2
1 0.2
2 0.1
3 0.1
4 0.1
410
¨ A. L¨ osungen zu den Ubungsaufgaben
Daraus und aus den Ergebnissen unter a) berechnen wir die Erwartungswerte E(U ) =
4
k=−1
k · P (U = k) = 0.8
E(X) = (−1)0.7 + 2 · 0.3 = −0.1
E(Y ) = 0 · 0.4 + 1 · 0.3 + 2 · 0.3 = 0.9 .
Der Erwartungswert einer Summe von Zufallsvariablen ist stets gleich der Summe der Erwartungswerte. Es gilt also auch hier E(X) + E(Y ) = −0.1 + 0.9 = 0.8 = E(U ). Die Varianzen werden u ¨ber den Verschiebungssatz berechnet Var(U ) = E(U 2 ) − [E(U )]2 = 3.4 − (0.8)2 = 2.76
Var(X) = E(X 2 ) − [E(X)]2 = 1.9 − (−0.1)2 = 1.89 Var(Y ) = E(Y 2 ) − [E(Y )]2 = 1.5 − (0.9)2 = 0.69 . Hier gilt Var(U ) = Var(X) + Var(Y ), denn die Varianz einer Summe von Zufallsvariablen ist nur dann gleich der Summe der Varianzen, wenn die Kovarianz Null ist (vgl. (3.42)). Wir k¨onnen hier damit nicht ’genau dann wenn’ verwenden. L¨osung zu Aufgabe 3.14: a) Beim Ziehen mit Zur¨ ucklegen sind X und Y unabh¨angig. Dies wird klar, wenn man bedenkt, dass im zweiten Zug durch das Zur¨ ucklegen die gleichen Bedingungen herrschen wie im ersten Zug. Der erste Zug beeinflusst den Ausgang des zweiten Zugs nicht. Wir u ufen Definition 3.4.2 f¨ ur das Ziehen ohne Zur¨ ucklegen. Hier ¨berpr¨ gilt 1 1 P (X = 2, Y = 2) = 0 = P (X = 2) · P (Y = 2) = · . 8 8 Wird im ersten Zug eine rote Kugel gezogen, so ist beim Ziehen ohne Zur¨ ucklegen keine rote Kugel mehr in der Urne und der erste Zug beeinflusst somit den zweiten Zug. Beim Ziehen ohne Zur¨ ucklegen sind X und Y also abh¨angig. b) Wir bestimmen die gemeinsame Verteilung aus der bedingten Verteilung Y |X und der Randverteilung von X gem¨ aß folgendem Schema. P (Y = 1, X = 1) = P (Y = 1|X = 1)P (X = 1) =
6 2 3 · = 7 8 56
P (Y = 1, X = 2) = P (Y = 1|X = 2)P (X = 2) =
3 1 3 · = 7 8 56
...
3 4 12 · = 7 8 56 Als gemeinsame Verteilung erhalten wir schließlich folgende Werte: P (Y = 3, X = 3) = P (Y = 3|X = 3)P (X = 3) =
A.3 Zuf¨ allige Variablen
Y 2
1 1 2 3
X
6 56 3 56 12 56
3 56
0 4 56
411
3 12 56 4 56 12 56
F¨ ur die Erwartungswerte erhalten wir 3 1 4 17 +2· +3· = 8 8 8 8 17 E(Y ) = E(X) = . 8 Um die Varianz mit Hilfe des Verschiebungssatzes berechnen zu k¨onnen, bestimmen wir zun¨ achst E(X 2 ) und E(Y 2 ). E(X) = 1 ·
43 1 4 3 + 22 + 32 = 8 8 8 8 43 2 2 E(Y ) = E(X ) = . 8 Damit erhalten wir die Varianzen 2 43 17 55 Var(X) = E(X 2 ) − [E(X)]2 = − = 8 8 64 55 . Var(Y ) = Var(X) = 64 Wir benutzen (3.42), um Cov(X, Y ) = E(XY ) − E(X) E(Y ) zu bestimmen. Zu den oben bereits berechneten Gr¨ oßen ben¨otigen wir nun noch E(XY ). E(X 2 ) = 12
3 12 3 4 12 4 12 6 +2 +3 +2 +4·0+6 +3 +6 +9 56 56 56 56 56 56 56 56 246 = . 56 Mit (3.45) erhalten wir schließlich E(XY ) = 1
246 289 Cov(X, Y ) 56 − 64 ρ= = # = −0.143 . 55 55 Var(X) · Var(Y ) · 64 64
L¨osung zu Aufgabe 3.15: Aus den Angaben bilden wir die gemeinsame Verteilung: Y
X
−1 1
−2 1 6 1 6 2 6
0 0 1 6 1 6
1 2 6
0 2 6
2 0 1 6 1 6
3 6 3 6
412
¨ A. L¨ osungen zu den Ubungsaufgaben
Unkorreliertheit erfordert Cov(X, Y ) = 0, dies ist nach (3.42) ¨aquivalent zu E(XY ) = E(X) · E(Y ). Wir berechnen: E(XY ) = xi yj pij i
j
2 1 1 1 1 = (−1)(−2) + (−1) + (−2) + 1 · 0 · + 2 · 6 6 6 6 6 2 2 2 2 = − − + =0 6 6 6 6 3 3 E(X) = −1 · + 1 · = 0 6 6 2 2 1 E(Y ) = −2 · + 1 · + 2 · = 0 6 6 6
Also gilt E(XY ) = E(X) · E(Y ), d.h. X und Y sind unkorreliert. Die Unabh¨angigkeit zweier Zufallsvariablen erfordert die G¨ ultigkeit von P (X = xi , Y = yj ) = P (X = xi )P (Y = yj ) f¨ ur alle i, j. Nun gilt aber z.B.: 3 1 3 · = , 6 6 36 d.h. X und Y sind zwar unkorreliert, jedoch nicht unabh¨angig. L¨osung zu Aufgabe 3.16: P (X = −1, Y = 0) = 0 = P (X = −1)P (Y = 0) =
a) Die Zufallsvariable X kann die Werte (-6, 0, 4, 6) annehmen. Es handelt sich um eine diskrete Zufallsvariable. b) Das Spiel wir u unzwurf’ entschieden. Eine ¨ ber das Zufallsexperiment ’M¨ faire M¨ unze mit den Ereignissen K: Kopf und Z: Zahl hat die Elementarwahrscheinlichkeiten P (K) = P (Z) = 0.5. Mehrmaliges Werfen einer M¨ unze ist ein unabh¨ angiges Zufallsexperiment, da kein M¨ unzwurf den folgenden M¨ unzwurf beeinflusst. Betrachten wir dazu ein Baumdiagramm. Wir sehen in der Grafik, dass wir drei M¨oglichkeiten f¨ ur das Ereignis {K, Z, Z} und f¨ ur das Ereignis {K, K, Z} haben (die Reihenfolge von Kopf oder Zahl ist hier egal). Die Ereignisse {K, K, K} und {Z, Z, Z} sind jeweils nur auf einem Weg m¨ oglich. Damit erhalten wir folgende Tabelle ¨ f¨ ur die Wahrscheinlichkeiten. Ubertragen auf unser Spiel und die jeweiEreignis {K, K, K} {K, K, Z} {K, Z, Z} {Z, Z, Z}
Wahrscheinlichkeit ( 12 )3 = 18 3 · ( 21 )3 = 83 3 8 1 8
ligen Auszahlungen ergibt das die folgende Wahrscheinlichkeitsfunktion. Hinweis: Die Wahrscheinlichkeiten k¨ onnen auch mit Hilfe der in Kapitel 4 diskutierten Binomialverteilung bestimmt werden.
A.3 Zuf¨ allige Variablen
413
Wurf 1 0.5
0.5
Zahl
Kopf
Wurf 2
Kopf
Zahl
Kopf
Zahl
Wurf 3
Kopf
Zahl
Zahl
Kopf
i 1 2 3 4
xi -6 0 4 6
Kopf
Zahl
Kopf
Zahl
P (X = xi ) 3 8 1 8 3 8 1 8
c) Durch Aufsummieren der einzelnen Wahrscheinlichkeiten erhalten wir die Verteilungsfunktion. x −∞ < x < −6 −6 ≤ x < 0 0≤x<4 6≤x<∞
F (x) 3 8 1 2 7 8
1
Diese Verteilungsfunktion wird als Treppenfunktion grafisch dargestellt.
¨ A. L¨ osungen zu den Ubungsaufgaben
0.0
0.2
0.4
F(x)
0.6
0.8
1.0
414
−6
−4
−2
0
2
4
6
x
d) Der erwartete Gewinn bzw. Verlust ist E(X) = −6 83 + 0 81 + 4 83 + 6 81 = 81 (−18 + 0 + 12 + 6) = 0.
A.4 Diskrete und stetige Standardverteilungen
415
A.4 Diskrete und stetige Standardverteilungen L¨osung zu Aufgabe 4.1: Bei drei m¨ oglichen Antworten ist die Wahrscheinlichkeit daf¨ ur die richtige Antwort zu erraten gleich 1/3. Sei X die Anzahl der richtig geratenen Antworten. Die Antworten zu den zehn Fragen werden unabh¨angig voneinander jeweils mit der Erfolgswahrscheinlichkeit von 1/3 geraten. Es gilt damit X ∼ B(10; 31 ). Es ist das kleinste k gesucht, das P (X ≥ k) ≤ 0.05 erf¨ ullt. Dies ist ur das P (X < k) ≥ 0.95 gilt. ¨aquivalent zu der Suche nach dem kleinsten k, f¨ Wir berechnen die Wahrscheinlichkeiten k 10−k 2 10 1 P (X = k) = 3 3 k und erhalten folgende Tabelle k 0 1 2 3 4 5 6 7 .. .
P (X = k) 0.01734 0.08671 0.19509 0.26012 0.22761 0.13656 0.05690 0.01626 .. .
P (X < k) 0.00000 0.01734 0.10405 0.29914 0.55926 0.78687 0.92343 0.98033 .. .
F¨ ur k = 7 ist P (X < k) = 0.98 > 0.95. Es m¨ ussen also mindestens 7 richtige Antworten zum Bestehen gefordert werden. L¨osung zu Aufgabe 4.2: a) Ist Y die Anzahl der Fische, die in (dem Kontinuum) einer Stunde gefangen werden. Damit ist die Zufallsvariable Y Poissonverteilt: Y ∼ P o(λ) mit λ = 6. Gem¨ aß Satz 4.3.1 ist die Zufallsvariable X: Zeitspanne zwi” schen dem Fang zweier Fische in Stunden“ damit exponentialverteilt: X ∼ Exp(λ). Wir sind an der Zeitspanne zwischen zwei F¨angen interessiert und erhalten X ∼ Exp(λ) mit λ = 6. b) F¨ ur die Erwartungswerte gilt E(Y ) = λ = 6 und E(X) = λ1 = 61 Stunde, d. h. 10 Minuten. c) Die gesuchten Wahrscheinlichkeiten lauten mit (4.16) 62 −6 e = 0.0446 2! P (Y > 2) = 1 − P (Y ≤ 2) = 1 − (P (Y = 0) + P (Y = 1) + P (Y = 2)) = 1 − (0.0025 + 0.0149 + 0.0446) = 0.9380 . P (Y = 2) =
416
¨ A. L¨ osungen zu den Ubungsaufgaben
F¨ ur die Exponentialverteilung gilt mit (4.18)
20 1 1 1 − 10 1 x e e− 10 x dx P (X ≤ 20) = dx = 10 10 0 0 ;20 1 1 : − 10 x = (−10)e = −e−2 + 1 = 0.865 . 10 0
20
L¨osung zu Aufgabe 4.3: Aus der Aufgabenstellung entnehmen wir die Zufallsvariable X : Nudell¨ ange, f¨ ur die X ∼ N (μ, σ2 ) mit σ 2 = 4 gelte. a) Die Wahrscheinlichkeit f¨ ur eine Unterschreitung von mehr als 3 mm ist P (X < 47). Zur Berechnung verwenden wir eine Transformation auf die N (0, 1)-Verteilung, um die tabellierten Werte verwenden zu k¨onnen: X − 50 47 − 50 P (X < 47) = P < = Φ(−1.5) = 1 − Φ(1.5) = 0.0668 . 2 2 b) μ ist so zu w¨ ahlen, dass P (X ≤ 60) = 0.99 gilt. Dies bedeutet X −μ 60 − μ 60 − μ ≤ P = 0.99, also Φ = 0.99. 2 2 2 Wir entnehmen aus der Tabelle B.1: Φ(2.33) = 0.99010. Daraus folgt 60−µ = 2.33, also μ = 55.34. 2 Die Maschine ist also mit μ = 55.34 zu justieren. L¨osung zu Aufgabe 4.4: F¨ ur eine diskrete Zufallsvariable X mit dem Tr¨ager x1 , . . . , xn und der Wahrscheinlichkeitsfunktion p1 , . . . , pn mit i pi = 1 gilt E(X) =
n i=1
xi pi ,
Var(X) =
n i=1
(xi − E(X))2 · pi
a) Null-Eins-Verteilung Tr¨ ager: x1 = 1, x2 = 0 p1 = p, p2 = 1 − p E(X) = 1 · p + 0 · (1 − p) = p Var(X) = (1 − p)2 · p + (0 − p)2 · (1 − p) = p(1 − p) b) Die Binomialverteilung B(n; p) ist die Summe n unabh¨angiger, identischer B(1; p)-Verteilungen (B(1; p) ist eine Null-Eins-Verteilung.) Der Erwartungswert einer Summe von Zufallsvariablen ist stets die Summe der Erwartungswerte der einzelnen Summanden. Sei X ∼ B(n; p) und Xi ∼ B(1; p), so gilt also
A.4 Diskrete und stetige Standardverteilungen n
E(X) =
417
E(Xi ) = np.
i=1
angig vorausgesetzt sind, gilt f¨ ur die Varianz Da die Xi ∼ B(1; p) als unabh¨ die Regel (3.27) (Additivit¨ at bei Unabh¨ angigkeit): Var(X) =
n i=1
Var(Xi ) = np(1 − p).
L¨osung zu Aufgabe 4.5: Die Poissonverteilung ist diskret, wir haben f¨ ur X x den Tr¨ager (0, 1, 2, . . .) und P (X = x) = λx! e−λ . Den Erwartungswert von X berechnen wir gem¨ aß E(X) =
xP (X = x) =
{0,1,2,...}
=λ
∞ λx
x=0
x!
e−λ = λ
∞
∞ ∞ λx−1 −λ λx e x e−λ = λ x! (x − 1)! x=1 x=1
P (X = x) = λP (Ω) = λ.
x=0
F¨ ur die Bestimmung der Varianz von X wenden wir den Verschiebungssatz an Var(X) = E(X)2 − [E(X)]2 . Zun¨achst bestimmen wir (vgl. R¨ uger (1988), S.322) E[X(X − 1)] = E(X 2 ) − E(X) ∞ λx = x(x − 1) e−λ x! x=0 = λ2 = λ2
∞ λx−2 −λ e (x − 2)! x=2 ∞ λx
x=0
x!
e−λ = λ2 .
Damit ist E(X 2 ) − λ = λ2 , d.h.
Var(X) = E(X 2 ) − [E(X)]2 = [λ2 + λ] − λ2 = λ.
L¨osung zu Aufgabe 4.6: a) Die Zufallsgr¨oße X hat die Verteilung X ∼ B(10; 41 ) mit E(X) = np = 10 4 = 2.5 und Var(X) = n p q = 10 · 0.25 · 0.75 = 1.875.
418
¨ A. L¨ osungen zu den Ubungsaufgaben
Die gesuchte Wahrscheinlichkeit wird wie folgt berechnet P (0.5 ≤ X ≤ 4.5) = P (1 ≤ X ≤ 4)
= P (X = 1) + P (X = 2) + P (X = 3) + P (X = 4) 10 P (X = 1) = 0.251 0.759 = 0.1877 1 P (X = 2) = 0.2816 P (X = 3) = 0.2503 P (X = 4) = 0.1460
Damit erhalten wir P (0.5 ≤ X ≤ 4.5) = 0.1877 + 0.2816 + 0.2503 + 0.1460 = 0.8656. b) Die Absch¨atzung mittels Tschebyschev-Ungleichung ergibt P (|X − μ| < 2) ≥ 1 −
1.875 = 0.53125. 22
L¨osung zu Aufgabe 4.7: Die Zufallsgr¨ oße Xi ist Bernoulli- bzw. Null-Eins¯ = 1 − p. Es werden n unabh¨angige Wiederverteilt mit P (A) = p und P (A) holungen durchgef¨ uhrt. a) F¨ ur Xi (i = 1, . . . , n) gilt E(Xi ) = 1 · p + 0 · (1 − p) = p
Var(Xi ) = E(Xi2 ) − [E(Xi )]2 = [12 p + 02 (1 − p)] − p2 = p − p2 = p(1 − p) . ¯ = 1 n Xi berechnen wir F¨ ur die Zufallsgr¨ oße X i=1 n ¯ = E 1 (X1 + . . . + Xn ) E(X) n 1 1 = E(X1 + . . . + Xn ) = (E(X1 ) + E(X2 ) . . . + E(Xn )) n n 1 1 = (p + p + . . . + p) = np = p n n n-mal 1 ¯ Var(X) = Var (X1 + . . . + Xn ) n 1 1 1 = 2 Var(X1 + . . . + Xn ) = 2 np(1 − p) = p(1 − p). n n n
A.4 Diskrete und stetige Standardverteilungen
419
b) Nach der Tschebyschev-Ungleichung gilt ¯ ¯ − E(X)| ¯ < c) ≥ 1 − Var(X) P (|X 2 c 1 p(1 − p) p(1 − p) = 1− n =1− . c2 nc2 Es gilt stets
p(1 − p) ≤ 14 . Daraus folgt die Absch¨atzung
1 . 4nc2 Nun setzen wir c = 0.01 und die vorgegebene Wahrscheinlichkeit von 0.98 ein und erhalten 1 . 0.98 ≥ 1 − 4 · n · 0.012 Aufl¨osen nach n ergibt n ≥ 125000. ¯ − p| < c) ≥ 1 − P (|X
L¨osung zu Aufgabe 4.8: Gegeben ist: M weiße Kugeln N − M schwarze Kugeln n Kugeln ohne Zur¨ ucklegen ziehen 1 falls im i-ten Zug weiß, i = 1, . . . , n Die Zufallsgr¨ oße ist Xi = 0 sonst
a) F¨ ur den ersten Zug ist die Wahrscheinlichkeit gleich der relativen H¨aufigkeit der weißen Kugeln in der Urne, d.h. es gilt P (X1 = 1) = M N (vgl. auch (4.8)). b) Die beiden m¨ oglichen Ziehungen sind: (1. Kugel schwarz, 2. Kugel weiß) und (1. Kugel weiß, 2. Kugel weiß). Mit dem Satz von der totalen Wahrscheinlichkeit gilt: P (X2 = 1) =
1
P (X2 = 1|X1 = k)P (X1 = k)
k=0
= P (X2 = 1|X1 = 0)P (X1 = 0) 1.Kugel schwarz 2.Kugel weiß
+ P (X2 = 1|X1 = 1)P (X1 = 1) 1.Kugel weiß 2.Kugel weiß
M N −M M −1M MN − M2 + M2 − M = + = N −1 N N −1 N N (N − 1) M (N − 1) M = = . N (N − 1) N c) Im ersten Zug ist eine weiße Kugel gezogen worden, es verbleiben M − 1 weiße Kugeln unter den N − 1 Kugeln vor der zweiten Ziehung. Damit ist die gesuchte Wahrscheinlichkeit gleich der relativen H¨aufigkeit, also P (X2 = 1|X1 = 1) = M−1 N −1 .
420
¨ A. L¨ osungen zu den Ubungsaufgaben
d) Mit dem Satz von der totalen Wahrscheinlichkeit gilt analog zu b): P (Xi = 1) =
i−1
P (Xi = 1|Xi−1 = k)P (Xi−1 = k)
k=0
=
i−1
k=0
=
M −k P (Xi−1 = k) N − (i − 1) i−1
M P (Xi−1 = k) N − (i − 1) k=0 =1
−
1 N − (i − 1)
i−1
k=0
k · P (Xi−1 = k)
=E(Xi−1 )=(i−1) M N
1 (i − 1)M N M − (i − 1)M M − · = N − (i − 1) N − (i − 1) N [N − (i − 1)]N M (N − (i − 1)) M = = [N − (i − 1)]N N =
L¨osung zu Aufgabe 4.9: Wir haben die zuf¨ alligen Ereignisse A: 6 gew¨ urfelt und A¯ : keine 6 gew¨ urfelt. Die Zufallsgr¨ oße ist X : Anzahl der W¨ urfe bei n = 5 W¨ urfen, bei denen eine 6 erscheint. Damit gilt X ∼ B(n; p) mit n = 5 und p = 1/6 und mit (4.11) erhalten wir x 1 5 1 (1 − )5−x . P (X = x) = 6 x 6 a) Die gesuchte Wahrscheinlichkeit ist P (X ≥ 2) = 1 − P (X < 2) = 1 − (P (X = 0) + P (X = 1)) $ 5 1 4 % 0 5 1 5 1 5 1 1− + = 1− 1 0 6 6 6 6 % $ 1 4 5 1 5 5 +5· = 1− 6 6 6 5 5 = 0.1962. = 1−2 6 b) F¨ ur den Erwartungswert gilt mit (4.13) E(X) = n p = 5 61 = 56 .
A.4 Diskrete und stetige Standardverteilungen
421
L¨osung zu Aufgabe 4.10: Die Zufallsgr¨ oße ist X : Anzahl der Sch¨ uler, die an der Klassenfahrt teilnehmen. Damit ist X ∼ B(n; p) mit n = 20 und p = 0.7. Die gesuchte Wahrscheinlichkeit ist P (X ≥ 10) = 1 − P (X ≤ 9) 9 20 = 1− 0.7x (1 − 0.7)20−x x x=0 = 1 − 0.01714481 = 0.98285519
L¨osung zu Aufgabe 4.11: Die Zufallsgr¨ oße X: Augensumme beim zweimaligen W¨ urfelwurf kann die Werte xi = 2, . . . , xi = 12 annehmen (vgl. folgende Tabelle): 1 2 3 4 5 6
1 2 3 4 5 6 7
2 3 4 5 6 7 8
3 4 5 6 7 8 9
4 5 6 7 8 9 10
5 6 7 8 9 10 11
6 7 8 9 10 11 12
a) Sei A1 : Augensumme ungerade und A2 : Augensumme gerade. A1 , A2 bilden eine vollst¨ andige Zerlegung von Ω mit p1 = P (A1 ) = P (1. W¨ urfel gerade, 2. W¨ urfel ungerade) + P (1. W¨ urfel ungerade, 2. W¨ urfel gerade) 11 11 1 = + = 22 22 2 1 p2 = P (A2 ) = 1 − p1 = . 2 Sei X1 : Anzahl von A1 in der Stichprobe bzw. X2 : Anzahl von A2 in der Stichprobe. Der Zufallsvektor X = (X1 , X2 ) besitzt eine Multinomialverteilung (vgl.(4.17)), die wegen k = 2 (Anzahl der disjunkten Ereignisse) mit der Binomialverteilung u ¨ bereinstimmt: (X1 , X2 ) ∼ M (n; p1 , p2 ) = M (4; 0.5, 0.5) = B(4; 0.5). Damit erhalten wir die gesuchte Wahrscheinlichkeit: 2 2 4 1 1 · = 0.375 . P (X1 = 2) = 2 2 2 b) Seien nun drei zuf¨ allige Ereignisse definiert: B1 : Augensumme ≤ 4
B2 : Augensumme ≥ 8 B3 : Augensumme < 8 und > 4
422
¨ A. L¨ osungen zu den Ubungsaufgaben
mit (vgl. obige Tabelle) 1 6 = 36 6 5 15 p2 = P (B2 ) = = 36 12 5 15 p3 = 1 − p1 − p2 = = . 36 12 p1 = P (B1 ) =
5 5 Damit gilt f¨ ur die Multinomialverteilung M (4; 16 , 12 , 12 ) gem¨aß (4.17):
n! px 1 px 2 px 3 x1 ! · x2 ! · x3 ! 1 2 3 1 3 0 5 5 4! 1 = 0.0482 . = 1!3!0! 6 12 12
P (X1 = 1, X2 = 3, X3 = 0) =
L¨osung zu Aufgabe 4.12: Gegeben sind eine normalverteilte Zufallsgr¨oße X ∼ alligen Ereignisse A = {X ≤ 3} N (μ, σ2 ) mit μ = 2 und σ 2 = 4 und die zuf¨ und B = {X ≥ −0.9}. a) Das Ereignis A ∩ B bedeutet −0.9 ≤ X ≤ 3. Damit gilt
P (A ∩ B) = P (−0.9 ≤ X ≤ 3) = P (X ≤ 3) − P (X ≤ −0.9) = F (3) − F (−0.9) . Standardisieren von X gem¨ aß Z = F (3) = P (X ≤ 3) = P ( = P (Z ≤
X−µ σ
∼ N (0, 1) f¨ uhrt zu
3−μ 3−2 X −μ ≤ ) = P (Z ≤ ) σ σ 2
1 ) = Φ(0.5) = 0.6915 2
X −μ −0.9 − 2 ≤ ) = P (Z ≤ −1.45) σ 2 = Φ(−1.45) = 1 − Φ(1.45) = 1 − 0.9265 = 0.0735 .
F (−0.9) = P (X ≤ −0.9) = P (
b)
Damit erhalten wir schließlich P (−0.9 ≤ X ≤ 3) = 0.6915 − 0.0735 = 0.6180. P (A ∪ B) = P (X ≤ 3 ∪ X ≥ −0.9) = P (−∞ ≤ X ≤ ∞) = 1
L¨osung zu Aufgabe 4.13: Sei Z ∼ N (0, 1) eine standardnormalverteilte Zufallsgr¨oße. Gesucht ist eine Zahl c ≥ 0 , so dass P (−c ≤ Z ≤ c) = 0.97 gilt. Allgemein gilt: P (−c ≤ Z ≤ c) = Φ(c) − Φ(−c)
= Φ(c) − [1 − Φ(c)] = Φ(c) + Φ(c) − 1 = 2Φ(c) − 1 .
A.4 Diskrete und stetige Standardverteilungen
423
Hier gilt: !
2Φ(c) − 1 = 0.97 ⇔ 2Φ(c) = 1.97 ⇔ Φ(c) = 0.985 ⇔ c = 2.17
c = 2.17 ist das 0.985-Quantil der N (0, 1)-Verteilung. L¨osung zu Aufgabe 4.14: a) Zuf¨allige und unabh¨ angige Ankunftprozesse sind Poissonverteilt, x P (X = x) = λx! e−λ mit λ = 10 Passagiere pro Minute. Die gesuchte Wahrscheinlichkeit ist demnach P (X = 0) = e−10 = 0.00005. b) Das Besondere der Poissonverteilung ist, dass sowohl Erwartungswert als auch Varianz durch den Parameter λ beschrieben werden. • V ar(X) = 10√ • V ar(X) = 10 c) F¨ ur die Wahrscheinlichkeit, dass h¨ ochstens 2 Passagiere in einer Minute ankommen, m¨ ussen wir die Verteilungsfunktion an der Stelle 2 bestimmen. 2 10i −10 = 0.00277. So erhalten wir P (X ≤ 2) = F (2) = i! e i=0
d) Wenn 10 Passagiere im Mittel pro Minute ankommen, dann kommen 2.5 Passagiere im Mittel pro 15 Sekunden an. Die gesuchte Wahrscheinlichkeit ist dann P (X = 0) = e−2.5 = 0.082. e) Die Wahrscheinlichkeit f¨ ur mindestens einen Passagier in 15 Sekunden erhalten wir u ¨ ber die Gegenwahrscheinlichkeit P (X ≥ 1) = 1 − 0.082 = 0.918.
424
¨ A. L¨ osungen zu den Ubungsaufgaben
A.5 Grenzwerts¨ atze und Approximationen L¨osung zu Aufgabe 5.1: Eine Folge {Xn }n∈N von Zufallsvariablen konvergiert stochastisch a) gegen Null, wenn f¨ ur beliebiges ǫ > 0 lim P (|Xn | > ǫ) = 0
n→∞
gilt, b) gegen eine Konstante c, wenn {Xn − c}n∈N stochastisch gegen Null konvergiert, c) gegen eine Zufallsvariable X, wenn {Xn − X}n∈N stochastisch gegen Null konvergiert. L¨osung zu Aufgabe 5.2: Das Gesetz der großenZahlen beschreibt die Kon¯n = 1 Xi einer i.i.d. Stichprobe vergenz des arithmetischen Mittels X n X1 , . . . Xn mit E(Xi ) = μ, Var(Xi ) = σ 2 einer beliebigen Zufallsvariablen X. Es gilt ¯ n − μ| < c) = 1 ∀c > 0. lim P (|X n→∞
¯ n die relative H¨aufigkeit W¨ahlt man die Xi als Null-Eins-verteilt, so ist X und μ die Wahrscheinlichkeit, so dass die obige Beziehung das Gesetz von Bernoulli darstellt. L¨osung zu Aufgabe 5.3: Nach dem Zentralen Grenzwertsatz gilt f¨ ur die Zu¯ (arithmetisches Mittel) einer i.i.d. Stichprobe X1 , . . . , Xn fallsvariable X 2
¯ n ∼ N (μ, σ ). X n L¨osung zu Aufgabe 5.4: Die Zufallsvariable gerade Zahl gew¨ urfelt“ ist bino” mialverteilt: X ∼ B(500; 0.5) mit E(X) = n p = 250. Wir nutzen die Approximation der Binomialverteilung durch die Normalverteilung X ∼ N (250, 125), da n p (1 − p) ≥ 9 gilt. Ohne Stetigkeitskorrektur erhalten wir: 225 − 250 275 − 250 √ √ −Φ P (225 ≤ X ≤ 275) = Φ 125 125 25 −25 25 √ √ √ =Φ −Φ = 2Φ −1 125 125 125 = 2 · 0.987323 − 1 = 0.974646 Mit Stetigkeitskorrektur erhalten wir:
A.5 Grenzwerts¨ atze und Approximationen
425
275 + 0.5 − 250 225 − 0.5 − 250 √ √ P (225 ≤ X ≤ 275) = Φ −Φ 125 125 −25.5 25.5 25.5 −Φ √ = 2Φ √ −1 =Φ √ 125 125 125 = 2 · 0.988725 − 1 = 0.97745 .
Die exakte L¨ osung (mit SPSS) lautet P (225 ≤ X ≤ 275) = 0.9746038. L¨osung zu Aufgabe 5.5: Wir verwenden die Ungleichung von Tschebyschev ¯ n − p| < c) ≥ 1 − α = P (|X
p(1 − p) . nc2
Aufl¨osen nach n und Einsetzen von c = 0.1 ergibt: n≥
0.5 · 0.5 p(1 − p) = = 2500. αc2 0.01 · 0.12
L¨osung zu Aufgabe 5.6: Aus der Aufgabenstellung ersehen wir, dass p = 0.2, n = 100, k = 10 gilt, X also nach B(100; 0.2) verteilt ist. Es gilt E(X) = np = 20. a) Die Wahrscheinlichkeit f¨ ur das zuf¨ allige Ereignis X = 10 der diskreten Zufallsvariablen X ∼ B(100; 0.2) l¨ aßt sich mit Hilfe der Verteilungsfunktion schreiben als P (X = 10) = P (X ≤ 10) − P (X ≤ 9) = F (10) − F (9) .
Wegen n p (1 − p) = 16 > 9 ist die Normalapproximation m¨oglich. Damit wird die Verteilungsfunktion F (·) der Binomialverteilung ersetzt durch die Verteilungsfunktion der N (20, 16)-Verteilung. Wir erhalten nach Standardisierung auf die N (0, 1)-Verteilung: 9 − 20 10 − 20 11 √ P (X = 10) = Φ −Φ √ = Φ(−2.5) − Φ(− ) 4 16 16 11 11 = 1 − Φ(2.5) − 1 + Φ( ) = Φ( ) − Φ(2.5) 4 4 = 0.00323 . Exakt (mit SPSS gerechnet) gilt: 100 P (X = 10) = 0.210 0.890 = 0.00336 . 10 b) Hier erhalten wir analog zu a) wieder mit der Normalapproximation
426
¨ A. L¨ osungen zu den Ubungsaufgaben
P (3 ≤ X ≤ 10) = P (X ≤ 10) − P (2 ≤ X) 2 − 20 10 − 20 = Φ( √ ) − Φ( √ ) = Φ(−2.5) − Φ(−4.5) 16 16 = Φ(4.5) − Φ(2.5) = 0.00621 . (Es gilt n¨aherungsweise Φ(4.5) = 1 nach Tabelle B.1 im Buch.) Exakt (mit SPSS berechnet) gilt: P (3 ≤ X ≤ 10) = 0.005696 . L¨osung zu Aufgabe 5.7: Unter Verwendung der Approximation P o(λ) ∼ N (λ, λ) erhalten wir a) 10 − 32 22 x−λ ) = 1 − Φ( √ ) ≈ 0 P (X ≤ 10) = Φ( √ ) = Φ( √ 32 32 λ
b)
Φ( √2232 ) = Φ(3.89) ist nicht in Tabelle B.1 enthalten, es wird n¨aherungsweise gleich 1 gesetzt. Exakt (mit SPSS gerechnet) gilt: P (X ≤ 10) = 0.00000561 . 24 − 32 2 8 30 − 32 ) − Φ( √ ) = Φ( √ ) − Φ( √ ) P (25 ≤ X ≤ 30) = Φ( √ 32 32 32 32 = Φ(1.41) − Φ(0.35) = 0.2839
c)
Exakt (mit SPSS gerechnet) gilt: P (25 ≤ X ≤ 30) = 0.3180 . 54 − 32 22 P (X ≥ 55) = 1 − Φ(X ≤ 54) = 1 − Φ( √ ) = 1 − Φ( √ ) 32 32 ≈0 Exakt (mit SPSS gerechnet) gilt: P (X ≥ 55) = 1−P (X ≤ 54) = 0.000138.
L¨osung zu Aufgabe 5.8: Wir haben folgende Angaben: N = 10000 (wahlberechtigte B¨ urger) Stichprobe mit n = 200 (ohne Zur¨ ucklegen zuf¨allig ausw¨ahlen) M = 0.4 · 10000 = 4000 (CSU-W¨ahler) N − M = 6000 (Nicht-CSU-W¨ahler)
Die Zufallsvariable X : Anzahl der CSU-W¨ahler unter den n = 200 ” ausgew¨ahlten W¨ ahlern“ folgt einer hypergeometrischen Verteilung (da die Stimmabgabe eines B¨ urgers nur einmal erfolgt, also ein Ziehen ohne Zur¨ ucklegen vorliegt), d.h. es gilt
A.5 Grenzwerts¨ atze und Approximationen
X ∼ H(n, M, N ) mit P (X = k) =
427
M N −M k
Nn−k . n
Gesucht ist die Wahrscheinlichkeit P (X < 0.35 · 200) = P (X < 70) = P (X ≤ 69). P (X ≤ 69) ist nur sehr aufwendig exakt zu berechnen. Deshalb w¨ahlen wir die Approximation der hypergeometrischen Verteilung durch die Binomialverteilung. Die Bedingungen: n ≤ 0.1M und n ≤ 0.1(N − M ) sind erf¨ ullt. Es gilt ), also H(200, 4000, 10000) ≈ B(200; 0.4). B(200; 0.4) H(n, M, N ) ≈ B(n; M N ist ebenfalls nicht vertafelt, deshalb w¨ ahlen wir als weiteren Schritt die Approximation der Binomialverteilung durch die Normalverteilung. Die Bedingung (np(1 − p) ≥ 9) ist erf¨ ullt, damit gilt B(n; p) ≈ N (np, np(1 − p)), also B(200; 0.4) ≈ N (80, 48) . Damit erhalten wir schließlich 69 − 80 X − 80 √ ≤ √ P (X ≤ 69) = P = Φ(−1.59) = 1 − Φ(1.59) = 0.0559. 48 48 L¨osung zu Aufgabe 5.9: Die Zufallsgr¨ oße X : Anzahl der Kranken“ folgt ei” ner hypergeometrischen Verteilung X ∼ H(n, M, N ) mit N : Gesamtbev¨olkerung, M : Kranke in der Gesamtbev¨ olkerung (M = N · 0.01), n = 1000. F¨ ur großes N, M und N − M und im Vergleich dazu kleines n stimmt die hypergeometrische Verteilung H(n, M, N ) ann¨ahernd mit der Binomialverteilung B(n; M ¨ berein. Die Voraussetzung n ≤ 0.1M und n ≤ 0.1(N − M ) N) u ist erf¨ ullt. Damit erhalten wir x n−x M n M M 1− mit P (X = x) = = 0.01. x N N N a) P (X ≥ 3) = 1 − P (X ≤ 2) = 1 − (P (X = 0) + P (X = 1) + P (X = 2)) 1000 1000 0.0100.991000 + = 1− 0.011 0.99999 0 1 1000 + 0.012 0.99998 2 = 1 − 0.00268 = 0.99732 b) 1000 P (X = 4) = 0.014 0.99996 = 0.0186 4
428
¨ A. L¨ osungen zu den Ubungsaufgaben
L¨osung zu Aufgabe 5.10: Die Zufallsgr¨ oße X : Anzahl der verdorbenen ” Orangen in der Stichprobe“ folgt einer hypergeometrischen Verteilung X ∼ H(n, M, N ) mit N = 20, M = 2, n = 4. a) Mit (4.8) berechnen wir P (X = 2) = =
220−2 2
204−2 4 18! 2!·16! = 20! 4!·16!
1 · 18 = 202 4
12 = 0.03158 . 380
b) Mit (4.9) und (4.10) erhalten wir M 2 =4 = 0.4 N 20 M 4 M N −n 2 20 − 4 Var(X) = n (1 − ) = 1− N N N −1 10 20 20 − 1 4 9 16 = = 0.3032. 10 10 19 E(X) = n
A.6 Sch¨ atzung von Parametern
429
A.6 Sch¨ atzung von Parametern L¨osung zu Aufgabe 6.1: Sei T (X) eine Sch¨ atzfunktion f¨ ur einen unbekannten Parameter θ . a) T (X) heißt erwartungstreu, falls Eθ (T (X)) = θ f¨ ur alle θ ∈ Θ gilt. b) Sei T (X) erwartungstreu, so ist MSEθ (T (X); θ) = Varθ (T (X)), d.h. der MSE reduziert sich auf die Varianz von T (X). c) Eine Sch¨atzfolge (T(n) (X))n∈N heißt konsistent f¨ ur θ, falls lim P (|T(n) (X) − θ| < ǫ) = 1 ∀ǫ > 0
n→∞
gilt, d.h. falls die Folge T(n) (X) stochastisch gegen θ konvergiert. L¨osung zu Aufgabe 6.2: Seien zwei Sch¨ atzfolgen T1 (X) und T2 (X) gegeben. ur die beiden MSE-Ausdr¨ ucke Dann heißt T1 (X) MSE-besser als T2 (X), falls f¨ gilt MSEθ (T1 (X); θ) ≤ MSEθ (T2 (X); θ) f¨ ur alle θ.
L¨osung zu Aufgabe 6.3: Sei X ∼ N (μ, σ 2 ) und x = (x1 , . . . , xn ) eine konkrete Stichprobe. a) Die Punktsch¨ atzung f¨ ur μ (bei σ 2 unbekannt) lautet n
x ¯=
1 xi . n i=1
atzung f¨ ur σ 2 (μ unbekannt) lautet b) Die Punktsch¨ n
s2 =
1 (xi − x ¯)2 . n − 1 i=1
c) Die Konfidenzsch¨ atzungen f¨ ur μ zum Niveau 1 − α lauten σ σ [¯ x − z1−α/2 · √ , x¯ + z1−α/2 · √ ] (σ bekannt) n n s s bzw. [¯ x − tn−1;1− α2 √ , x¯ + tn−1;1− α2 √ ] (σ unbekannt). n n L¨osung zu Aufgabe 6.4: Sei X ∼ B(n; p), p ∈ (0; 1), so bestimmt man die ML-Sch¨atzung von p durch Maximierung der Likelihoodfunktion, d. h. durch Ableiten nach p, Nullsetzen der Ableitung und Aufl¨osen nach dem unbekannten Parameter p. Es gilt P P n L(p; x1 , · · · , xn ) = p xi (1 − p)n− xi . xi
430
¨ A. L¨ osungen zu den Ubungsaufgaben
a) Erste Ableitung: Wir bilden die erste Ableitung nach p P P n ∂ xi p xi −1 (1 − p)n− xi L(p; x1 , · · · , xn ) = xi ∂p P P n xi (−1) . + p xi (1 − p)n− xi −1 n − xi Wir klammern einen gemeinsamen Faktor aus und erhalten P P n = p xi −1 (1 − p)n− xi −1 · xi >0
: ; · (1 − p) xi − n − xi p .
b) Nullsetzen der ersten Ableitung: Zur Bestimmung von pˆ wird die Ableitung gleich Null gesetzt und dann nach dem unbekannten Parameter p aufgel¨ost. ∂ L(p; x1 , · · · , xn ) = 0 ⇔ xi − p xi − np + p xi = 0 ∂p ⇔ xi − np = 0 1 ⇔ pˆ = ¯ xi = x n
Man u ˆ= x ¯ einen ¨berzeugt sich, dass die zweite Ableitung an der Stelle Pp xi ¯. Wert < 0 besitzt, die ML-Sch¨ atzung von p lautet also pˆ = n = x iid
L¨osung zu Aufgabe 6.6: Sei Xi ∼ P o(λ)verteilt, i = 1, . . . , n . Die Likelihoodfunktion lautet: L(Θ; x) =
n &
i=1
f (xi ; Θ) =
n & λxi
i=1
xi !
e
−λ
P
λ = <
xi
xi !
Daraus erhalten wir die Loglikelihoodfunktion ln L = xi ln λ − ln(x1 ! · · · xn !) − nλ .
Wir leiten nach λ ab
∂ ln L 1 ! = xi − n = 0 ∂λ λ
und l¨osen diese Gleichung:
ˆ= 1 ¯. λ xi = x n
e−nλ
A.6 Sch¨ atzung von Parametern
431
Wir u ufen, ob die 2.Ableitung < 0 ist: ¨ berpr¨ ∂ 2 ln L 1 n = − xi = − < 0. 2 ˆ ˆ ∂λ2 λ λ ˆ die gesuchte ML-Sch¨ Damit ist x ¯=λ atzung. L¨osung zu Aufgabe 6.7: Die Zufallsgr¨ oße ist X : Kopfumfang bei M¨adchen” geburten (in cm)“ mit X ∼ N (μ, σ2 ). Es liege mit X1 , . . . Xn eine i.i.d. Stichprobe von X vor. a) n = 100, x ¯ = 42, σ 2 = 16 bekannt Das Konfidenzintervall f¨ ur μ zum Konfidenzniveau γ = 0.99 hat die Gestalt (vgl. (6.17)) σ0 σ0 ¯ ¯ − z1−α/2 √ , X + z1−α/2 √ [Iu (X), Io (X)] = X n n 4 4 = 42 − 2.58, 42 + 2.58 10 10 = [40.968, 43.032] √ 2 ¯ ¯ ∼ N μ, σ , standardisieren: X−µ Herleitung: X n ∼ N (0, 1) n σ0 ¯ − μ√ X Pµ −z1− α2 ≤ n ≤ z1− α2 = 1 − α σ0 σ0 σ0 ¯ ≤μ≤X ¯ + z1− α √ Pµ −z1− α2 √ + X = 1−α 2 n n b) n = 30, x ¯ = 42, s2 = 14, σ 2 unbekannt Das Konfidenzintervall f¨ ur μ zum Konfidenzniveau γ = 0.99 hat die Gestalt s s ¯ ¯ √ √ , X + tn−1;1−α/2 [Iu (X), Io (X)] = X − tn−1;1−α/2 n n √ √ 14 14 = 42 − √ t29;0.995 , 42 + √ t29;0.995 30 30 = [40.115, 43.885] Hinweis: Es ist t29;0.995 = 2.76 c) Gesucht ist der Stichprobenumfang f¨ ur γ = 1 − α = 0.999. Wir gehen aus von der Formel f¨ ur die L¨ ange des Intervalls, setzen L = 2.064 aus a) und osen nach n auf: z0.9995 = 3.29 ein und l¨ σ0 L = 2z1−α/2 √ n 2 2z1−α/2 σ0 2 2 · 3.29 · 4 = = 162.6 n≥ L 2.064 n = 163
432
¨ A. L¨ osungen zu den Ubungsaufgaben
L¨osung zu Aufgabe 6.8: Der i-te Haushalt stellt eine Null-Eins-verteilte Zufallsgr¨oße Xi mit Xi = 1 : Fernseher eingeschaltet, Xi = 0 : Fernseher nicht eingeschaltet. 2500 dar. Dann ist X = i=1 Xi die Zufallsgr¨ oße Anzahl der eingeschalteten ” Fernseher“ bei n = 2500 Haushalten. Da die Xi identisch und unabh¨angig verteilt mit P (Xi = 1) = p angenommen werden, ist X binomialverteilt, X ∼ B(2500; p), mit p unbekannt. Konfidenzintervall f¨ ur p: Ist n sehr groß (hier: n=2500) und ist u ¨ berdies die Bedingung np(1 − p) ≥ 9 erf¨ ullt, so kann die Binomialverteilung durch die Normalverteilung approximiert werden. Es gilt % $ * * pˆ(1 − pˆ) pˆ(1 − pˆ) ≤ p ≤ pˆ + z1−α/2 ≈ 1 − α, P pˆ − z1−α/2 n n und wir erhalten damit das Konfidenzintervall f¨ ur p * * pˆ(1 − pˆ) pˆ(1 − pˆ) , pˆ + z1−α/2 pˆ − z1−α/2 n n
.
Die L¨ange L ist damit L = 2z1−α/2
*
pˆ(1 − pˆ) n
pˆ(1 − pˆ) ist zwar unbekannt doch es gilt stets: pˆ(1 − pˆ) ≤ 41 . Damit gilt L ≤ 2z1−α/2
+
1 4
n
1.96 =√ = 0.0392, 2500
d.h. p kann mit einer Abweichung von maximal ±0.0196 abgesch¨atzt werden. L¨osung zu Aufgabe 6.9: Der Stichprobenumfang ist n = 3000, das Konfidenzniveau ist γ = 1 − α = 0.98. Konfidenzintervall f¨ ur p: Falls np(1 − p) > 9, dann gilt die N¨ aherung (vgl. (6.24)) * * pˆ(1 − pˆ) pˆ(1 − pˆ) . ; pˆ + z1−α/2 pˆ − z1−α/2 n n Die Bedingung np(1 − p) > 9 ist erf¨ ullt bei p ∈ [0.1; 0.9], falls n > 100 gilt. Dies ist hier erf¨ ullt. Wir bestimmen
A.6 Sch¨ atzung von Parametern
433
1 1 1428 = 0.476 Xi = n 3000 pˆ(1 − pˆ) = 0.476 · 0.524 = 0.249 z1−α/2 = z0.99 = 2.33 . ¯ = pˆ = X
F¨ ur das Konfidenzintervall gilt dann: [0.476 − 0.021; 0.476 + 0.021] = [0.455; 0.497] . Lösung zu Aufgabe 6.10: Die Zufallsvariable ist X: Füllgewicht; X ∼ N (μ, σ 2 ); μ, σ unbekannt. Es liegt eine i.i.d. Stichprobe vor mit n = 16, x ¯ = 245 und sx = 10. √ ¯ ¯ ∼ N μ, σ2 und X−µ a) Es gilt X n ∼ tn−1 . n Sx Das Konfidenzintervall zum Vertrauensgrad 1 − α = 0.95 hat die Gestalt (vgl. (6.20)) sx sx 10 10 ¯ + t15;0.975 √ x¯ − t15;0.975 √ , x = 245 − 2.13 , 245 + 2.13 n n 4 4 = [239.675; 250.325] . b) Die Unsicherheit nimmt ab, das Konfidenzintervall wird schmaler. Statt t15;0.975 = 2.13 wird z0.975 = 1.96 verwendet. Das Konfidenzintervall lautet damit [245 − 1.96
10 10 , 245 + 1.96 ] = [240.100, 249.900] . 4 4
434
¨ A. L¨ osungen zu den Ubungsaufgaben
A.7 Pru ¨fen statistischer Hypothesen L¨osung zu Aufgabe 7.1: Bei einem parametrischen Testproblem wird der Hypothesenraum in einen zur Nullhypothese geh¨orenden Bereich Θ0 und einen dazu disjunkten Bereich Θ1 (zur Alternativhypothese geh¨orend) aufgeteilt. Bei einem Signifikanztest grenzt“ die Hypothese H0 direkt an die Alterna” tive H1 in dem Sinne, dass der minimale Abstand zwischen beiden Parameterr¨aumen gleich Null ist. Der Signifikanztest legt die Wahrscheinlichkeit f¨ ur den Fehler 1. Art P (H1 |H0 ) ≤ α fest; α heißt Signifikanzniveau. Man konstruiert eine Testgr¨ oße T (X) und zerlegt ihren Wertebereich in zwei dis¯ (Annahmebereich). Falls junkte Teilbereiche K (kritischer Bereich) und K T (x1 , . . . , xn ) ∈ K, wird H0 abgelehnt (und damit H1 best¨atigt zum Niveau 1 − α), im anderen Fall wird H0 nicht abgelehnt. L¨osung zu Aufgabe 7.2: a) Die Mensa geht bei der Pr¨ ufung des Semmelgewichts von der Arbeitshypothese μ < 45g aus. Das Testproblem lautet also H0 : μ ≥ 45g gegen H1 : μ < 45g. b) Die Zufallsvariable ist X: Gewicht einer Semmel. F¨ ur X gilt X ∼ N (μ; σ 2 ), μ0 = 45g, σ = 2g Das Pr¨ ufen des Mittelwertes bei bekannter Varianz erfolgt nach dem Gauss–Test mit der Teststatistik T (X) =
¯ − μ0 √ H0 X n ∼ N (0; 1) . σ
H0 wird nicht abgelehnt, falls ¯ − μ0 √ X n ≥ −z1−α σ ¯ ≥ μ0 − z1−α √σ , X n d.h. der Annahmebereich lautet: ¯ = [μ0 − z1−α √σ ; ∞) = [45 − 1.64 √2 ; ∞) = [44.34; ∞) . K n 25 c) x ¯ = 44 liegt außerhalb dieses Bereichs, d.h. H0 ist einseitig abzulehnen, die Alternativhypothese H1 : μ < 45g ist damit statistisch signifikant best¨atigt. L¨osung zu Aufgabe 7.3: X : Die F¨ ullmenge je Flasche ist die Zufallsvariable. Wir haben n = 150, x ¯ = 498.8, s = 3.5. Ziel ist das Pr¨ ufen des Mittelwerts bei unbekannter Varianz mittels t–Test . Die Quantile entnehmen wir Tabelle B4.
A.7 Pr¨ ufen statistischer Hypothesen
a) Hier pr¨ ufen wir einseitig H0 : μ ≥ μ0 T (X) =
435
gegen H1 : μ < μ0 . Es ist
¯ − μ0 √ H0 X n ∼ tn−1 . S
Der kritische Bereich (vgl. H1 : μ < μ0 ) besteht aus kleinen“ Werten der ” realisierten Teststatistik. Wir berechnen t=
498.8 − 500 √ 150 = −4.199 < −2.355 = −t149;0.99 . 3.5
Die Entscheidung lautet also: H0 ablehnen. Damit ist H1 : μ < μ0 best¨atigt. Der Verdacht der Gastst¨ atte war also begr¨ undet. b) Der zweiseitige Test auf H0 : μ = μ0 gegen H1 : μ = μ0 ergibt f¨ ur die Realisierung der Testgr¨ oße |t| = |
x ¯ − μ0 √ n| = | − 4.199| > 2.614 = t149;0.995 . s
Die Entscheidung lautet also: H0 ablehnen. Die Behauptung des Brauereibesitzers ist also widerlegt. c) n = 20, x ¯ = 498.1, s = 3.7 ergeben x¯ − μ0 √ n s 498.1 − 500 √ = 20 = −2.296 3.7
t=
F¨ ur den einseitigen Test von H0 : μ ≥ μ0 gegen H1 : μ < μ0 gilt: t = −2.296 > −2.54 = t19;0.01 , f¨ ur den zweiseitigen Test von H0 : μ = μ0 gegen H1 : μ = μ0 gilt: |t| = 2.296 < 2.86 = t19;0.995 . Damit ist H0 ein- und zweiseitig nicht abzulehnen. L¨osung zu Aufgabe 7.4: Es ist ein Test auf Gleichheit der Varianzen bei zwei unabh¨angigen Stichproben mit nX = nY = 41, α = 0.05 durchzuf¨ uhren: 2 H0 : σX = σY2
2 gegen H1 : σX = σY2
Die realisierte Teststatistik lautet (vgl. (7.8)) t=
s2x 41068 = 1.0467 < 1.88 = f40,40,0.975 . = 2 sy 39236
Die Entscheidung lautet: H0 nicht ablehnen. Bemerkung: Das F-Quantil ist in der Tabelle B6 enthalten.
¨ A. L¨ osungen zu den Ubungsaufgaben
436
L¨osung zu Aufgabe 7.5: Aus der Aufgabenstellung entnehmen wir: A-Personen: nA = 15, x ¯A = 102, s2A = 37 B-Personen: nB = 17, x ¯B = 86, s2B = 48 Wir testen H0 : μA − μB ≤ 10 = d0 gegen H1 : μA − μB > 10 = d0 . 2 2 a) Wir haben unbekannte Varianzen, jedoch σA = σB , d.h. der doppelte t-Test ist anzuwenden. Die Teststatistik ist (vgl. (7.13), dort ist d0 = 0!):
¯A − X ¯ B − d0 X T (X) = # ( n1A + n1B )S 2
mit
S2 =
(nA − 1)s2A + (nB − 1)s2B . n+m−2
F¨ ur die Stichprobe erhalten wir als Realisierung von S 2 s2 = Mit
(15 − 1)37 + (17 − 1)48 = 42.87 . 15 + 17 − 2
102 − 86 − 10 t= # = 2.587 > 1.70 = t30;0.95 1 1 ( 15 + 17 )42.87
ist H0 zugunsten von H1 abzulehnen. Die h¨ ohere Wirksamkeit von Pr¨aparat A ist damit nachgewiesen. b) Hier sind die Varianzen bekannt, d.h. der doppelte Gauss-Test ist anzuwenden. Die realisierte Teststatistik lautet (vgl. (7.11), dort ist d0 = 0!) t=
102 − 86 − 10 # = 2.66 > 1.65 = z0.95 32 50 + 15 17
Damit ist H0 zugunsten von H1 abzulehnen. Die h¨ohere Wirksamkeit von Pr¨aparat A ist auch hier nachgewiesen. L¨osung zu Aufgabe 7.6: Wir haben zwei unabh¨angige Stichproben: X1 , . . .,Xn 2 ∼ N (μX ; σX ), Y1 , . . . , Ym ∼ N (μY ; σY2 ) Der Vergleich der Mittelwerte μx und μy bei unabh¨angigen Stichproben 2 2 mit σX , σY2 unbekannt und σX = σY2 erfolgt mit dem Welch-Test (vgl. (7.14)). Das Testproblem lautet: H0 : μX = μY oder ¨aquivalent H0 : μX − μY = d0 = 0 gegen H1 : d0 = μX − μY > 0. Die Teststatistik ist: ¯ − Y¯ − d0 H0 X T (X, Y ) = # 2 ∼ tv;1−α . 2 SX SY + n m
Wir berechnen aus der Stichprobe:
A.7 Pr¨ ufen statistischer Hypothesen
1 2 ( x − n¯ x2 ) = n−1 i i 1 2 ( y − n¯ y2) = s2Y = n−1 i i
s2X =
437
1 (5.5022 − 10 · 0.7382) = 0.0062 9 1 (4.4292 − 10 · 0.6622) = 0.0052 9
Mit (7.15) erhalten wir die korrigierten Freiheitsgrade: v=
0.0062 0.0052 + 10 10
2 0.0062 2 2 ( 10 ) ( 0.0052 10 ) / + = 17.86 . 9 9
Damit wird die realisierte Teststatistik zu 0.076 0.738 − 0.662 − 0 = 2.251 > 1.73 = t18;0.95 . = √ t= # 0.0062 0.0052 0.00114 + 10 10
Wir m¨ ussen H0 zugunsten von H1 ablehnen, d.h. es kann auf einen signifikanten Einfluss des Medikaments auf die Reaktionszeit geschlossen werden. L¨osung zu Aufgabe 7.7: Es liegt eine verbundene Stichprobe vor und es ist der paired t–Test anzuwenden. Wir bilden die Zufallsvariable D = X − Y (Differenz der Ertr¨ age). Das Testproblem lautet: H0 : μx ≥ μy bzw. H0 : μD ≥ 0 gegen H1 : μD < 0. Die Teststatistik ist (vgl. (7.16)) T (X; Y ) = T (D) = 2 mit SD =
Feld X Y di di − d¯
P
¯ 2 (Di −D) . n−1
1 7.1 7.3 -0.2 0.7
¯ √ D n SD
Wir berechnen:
2 6.4 5.1 1.3 2.2
3 6.8 8.6 -1.8 -0.9
4 8.8 9.8 -1 -0.1
−9 d¯ = = −0.9, 10
5 7.2 7.9 -0.7 0.2 s2d =
6 9.1 8.0 1.1 2
7 7.4 9.2 -1.8 -0.9
8 5.2 8.5 -3.3 -2.4
9 5.1 6.4 -1.3 -0.4
10 5.9 7.2 -1.3 -0.4
17.08 = 1.898 , 9
−0.9 √ t= √ 10 = −2.06 < −1.83 = −t9;0.95 . 1.898 Damit ist H0 abzulehnen. Die h¨ ohere Wirksamkeit des neuen D¨ ungemittels ist damit nachgewiesen, da D die Differenz Ertrag altes minus Ertrag neues ” D¨ ungemittel“ ist mit d¯ = −0.9.
438
¨ A. L¨ osungen zu den Ubungsaufgaben
L¨osung zu Aufgabe 7.8: Der doppelte t-Test wird zum Mittelwertsvergleich 2 zweier unabh¨angiger Stichproben X1 , . . . , Xn mit Xi ∼ N (μX , σX ) und 2 2 2 Y1 , . . . , Ym mit Yj ∼ N (μY , σY ) bei Annahme σX = σY angewendet. Liegt eine verbundene Stichprobe vor (n = m), so ist die interessierende Zufallsvariable die Differenz D = X − Y der beiden Zufallsvariablen. X und Y sind als stetig aber nicht notwendigerweise normalverteilt vorauszusetzen. Die neue Variable D wird dagegen als normalverteilt angenommen. Die Hypothese μX = μY geht u ¨ber in μD = 0. Damit liegt ein Einstichprobenproblem f¨ ur die neue Zufallsvariable D (Differenz von X und Y ) vor. L¨osung zu Aufgabe 7.9: Mit den Zufallsvariablen 1 falls i-tes Baby M¨adchen Xi = 0 sonst bilden wir die Zufallsvariable X = Xi ∼ B(n; p) (X: Anzahl der M¨adchen bei n Geburten). Wegen p0 = 0.5, n = 3000, folgt np0 (1 − p0 ) = 750 > 9. Damit ist die Normalverteilungsapproximation m¨oglich: X ∼ N (np0 ; np0 (1 − p0 )). Das Testproblem H0 : p = p0 gegen H1 : p = p0 wird u ¨ ber die folgende Teststatistik (vgl. (7.19)) gepr¨ uft:
also mit der Realisierung
√ pˆ − p0 n, T (X) = p0 (1 − p0 )
0.476 − 0.5 √ t= √ 3000 0.5 · 0.5 = | − 2.63| > 1.96 = z0.975 . H0 muß damit abgelehnt werden, die Wahrscheinlichkeit f¨ ur eine M¨adchengeburt ist signifikant von 0.5 verschieden. L¨osung zu Aufgabe 7.10: Es handelt sich um einen einfachen Binomialtest, da das Ergebnis der letzten Wahl als theoretischer Wert p0 = 0.48 angesehen werden kann. Wir pr¨ ufen: H0 : p = p0 gegen H1 : p = p0 . Mit np0 (1 − p0 ) = 3000·0.48·0.52 = 748.8 > 9 ist die Approximation durch die Normalverteilung zul¨assig. Mit (7.19) erhalten wir √ pˆ − p0 n, T (X) = p0 (1 − p0 )
die Realisierung der Testgr¨ oße ergibt also
√ | 1312 3000 − 0.48| |t| = √ 3000 = | − 4.68| > 1.96 = z0.975 . 0.48 · 0.52 H0 ist abzulehnen. Der W¨ ahleranteil f¨ ur den Kandidaten hat sich signifikant gegen¨ uber den fr¨ uheren 48% ver¨ andert.
A.7 Pr¨ ufen statistischer Hypothesen
439
L¨osung zu Aufgabe 7.11: Zur L¨ osung des Problems verwenden wir den exakten Test von Fisher f¨ ur Binomialwahrscheinlichkeiten, da die Stichprobenumf¨ange zu klein sind, um approximative Verfahren anzuwenden. Wir testen H0 : p1 = p2 = p gegen H1 : p1 = p2 . Der kritische Bereich ergibt sich gem¨ aß Abschnitt 7.6.3 zu K = {0, . . . , ku − 1} ∪ {ko + 1, . . . , t} mit P (X > ko |X + Y = t) ≤ α/2, P (X < ku |X + Y = t) ≤ α/2. k .. . 4 5 6 7 8 9 10 11 .. .
P (X ≤ k|X + Y = 14) .. . 0.00000 0.00000 0.06863 0.38235 0.79412 0.97712 1.00000 1.00000 .. .
Aus der Tabelle entnehmen wir K = {0, . . . , 5}∪{10, . . . , 18}. Da X = 7 ∈ / K, ist H0 nicht abzulehnen. L¨osung zu Aufgabe 7.12: Das Problem ist das Pr¨ ufen der Gleichheit zweier Binomialwahrscheinlichkeiten aus zwei unabh¨ a ngigen Stichproben. Mit X = Xi = 100, n1 = 400, Y = Yi = 252, n2 = 900, α = 0.01 berechnen wir (vgl. (7.24)) als Sch¨ atzung von p 100 + 252 352 X +Y = = = 0.27 n1 + n2 1300 1300 X Y D= − = 0.25 − 0.28 = −0.03 . n1 n2 pˆ =
Die Teststatistik (7.26)
hat den Wert t= #
D T (X, Y ) = # pˆ(1 − pˆ)( n11 + −0.03
352 948 1 1300 1300 ( 400
+
1 900 )
1 n2 )
= −1.123 > −2.58 = z0.005 .
Damit ist H0 nicht abzulehnen. Die Ausschussanteile beider Firmen sind als gleich anzusehen.
440
¨ A. L¨ osungen zu den Ubungsaufgaben
L¨osung zu Aufgabe 7.13: Sei X : Anzahl der verdorbenen Eier, so ist X ∼ B(100; 0.04) verteilt. Wir pr¨ ufen H0 : p ≥ 0.04 gegen H1 : p < 0.04. Da p sehr klein ist, verwenden wir die Approximation der Binomial- durch die Poisson-Verteilung. Mit n=100 und p0 =0.04 gilt f¨ ur die Verteilung (unter H0 ) B(100; 0.04) die Approximation: B(100; 0.04) ≈ P o(4) (vgl. (5.14)). Die Faustregel f¨ ur die Approximation p ≤ 0.1, n ≥ 30 ist erf¨ ullt. Mit dieser Approximation erh¨ alt man: 40 exp(−4) = 0.0183 , 0! 1 4 P (X = 1) = exp(−4) = 0.0733 . 1!
P (X = 0) =
Die Wahrscheinlichkeit P (X = 0) ist kleiner als α = 0.05, also geh¨ort X = 0 zum kritischen Bereich. Die m¨ ogliche Hinzunahme von X = 1 zum kritischen Bereich f¨ uhrt wegen P (X = 0) + P (X = 1) = 0.0183 + 0.0733 = 0.0916 > ¨ 0.05 zu einer Uberschreitung der Irrtumswahrscheinlichkeit. Damit ist der Ablehnbereich K = 0. Die Behauptung des Lieferanten konnte also nicht signifikant nachgewiesen werden. L¨osung zu Aufgabe 7.14: Sei Y : Zugfestigkeit fr¨ uher; X: Zugfestigkeit jetzt mit X, Y jeweils normalverteilt. Die i.i.d. Stichproben ergeben: ny = 15 Y : sy = 80 X: sx = 128 nx = 25 Wir testen H0 : σx2 ≤ σy2 gegen H1 : σx2 > σy2 . Die Teststatistik lautet (vgl. (7.7)): S2 H T (X, Y ) = x2 ∼0 F24,14 Sy Der kritische Bereich enth¨ alt große Werte von T (X, Y ), d.h. K = (f24,14;0.95 , ∞) = (2.35, ∞) . Die Realisierung der Testgr¨ oße ergibt: 2 128 = 1.62 = 2.56 ∈ K, t= 80 d.h. H0 wird zugunsten von H1 abgelehnt. L¨osung zu Aufgabe 7.15: Es liegt bin¨ arer Response im matched-pair Design vor. Wir pr¨ ufen mit dem McNemar-Test H0 : p1 = p2 gegen H1 : p1 = p2 . Wegen D + C = 15 + 25 = 40 > 20 ist die Normalapproximation m¨oglich. Die Testgr¨oße (7.30) hat also den Wert (b − c)2 (15 − 25)2 100 (2c − (b + c))2 = = = = 2.5 < 3.84 = c1;0.95 . b+c b+c 40 40 Damit ist H0 : p1 = p2 nicht abzulehnen, der Einfluss von Kaffee auf die Leistung ist nicht nachgewiesen. z2 =
A.8 Nichtparametrische Tests
441
A.8 Nichtparametrische Tests L¨osung zu Aufgabe 8.1: Wir verwenden den Chi-Quadrat-Anpassungstest zum Pr¨ ufen von H0 : X (Augenzahl) ist auf der Menge {1,2,. . . ,6} gleichverteilt, gegen H1 : Es liegt irgendeine andere Verteilung von X vor. Die Teststatistik ist nach (8.1) T (X) =
6 (Ni − npi )2 i=1
npi
mit Ni : beobachtete H¨ aufigkeit, npi : unter H0 zu erwartende H¨aufigkeit. ur i = 1, . . . , 6. Der W¨ urfel wird n = 300 Unter H0 ist pi = P (X = i) = 61 f¨ mal geworfen. Daher lauten die unter H0 zu erwartenden Besetzungszahlen: npi = 300
1 = 50 f¨ ur i = 1, . . . , 6 6
Daraus erhalten wir als Realisierung von T (X) t=
6 (ni − npi )2 i=1
=
npi
1 730 (121 + 64 + 81 + 0 + 64 + 400) = = 14.6 > 11.1 = c5,0.95 50 50
Hinweis: Die Zahl der Freiheitsgrade ist Anzahl der Klassen minus 1 minus Anzahl der gesch¨ atzten Parameter (hier: Null), also 6 − 1 = 5. H0 ist abzulehnen, d.h. die Annahme, dass nicht alle Augenzahlen dieselbe Wahrscheinlichkeit besitzen, kann best¨ atigt werden. L¨osung zu Aufgabe 8.2: Mit dem Chi-Quadrat-Anpassungstest pr¨ ufen wir H0 : Stimmenanteil ist gleichgeblieben gegen H1 : Stimmenanteil hat sich ver¨andert.
A B C sonstige
Beobachtete H¨ aufigkeiten ni 1984 911 1403 702
Unter H0 zu erwartende Anteile H¨ aufigkeiten pi npi 0.42 2100 0.15 750 0.27 1350 0.16 800
(ni −npi )2 npi
6.41 34.56 2.08 12.01 55.06
2 4 i) Es ist t = i=1 (ni −np = 55.06 > 11.3 = c(4−1);0.99 , damit wird H0 npi abgelehnt, die Ver¨ anderung der Stimmenverteilung ist signifikant.
442
¨ A. L¨ osungen zu den Ubungsaufgaben
L¨osung zu Aufgabe 8.3: Wir f¨ uhren den Test auf Normalverteilung mit dem χ2 -Anpassungstest durch. Dazu m¨ ussen wir zun¨achst die Parameter μ und σ 2 aus der Stichprobe sch¨ atzen. Das Sch¨ atzen von μ und σ 2 ergibt: 4
μ ˆ = x¯ =
1 1 ai f i = 1415 = 9.43 , n i=1 150 4
σ ˆ 2 = s2 =
1 fi (ai − x ¯)2 = 30.47 = 5.522 . n − 1 i=1
Die Hypothesen lauten: H0 : Die Zufallsgr¨ oße X : Gewicht der Kaffeepakete folgt einer Normalverteilung gegen H1 : es liegt keine Normalverteilung vor. Durch Standardisieren unter Verwendung der Stichprobenwerte μ ˆ = 9.43 und σ ˆ = 5.52 erhalten wir folgende Intervallgrenzen 0−5 : 5 − 10 : 10 − 15 : 15 − 20 :
0−9.43 5−9.43 5.52 , 5.52
−1.7 ; −0.8 −0.8 ; 0.1 0.1 ; 1.0 1.0 ; 1.9
Die Wahrscheinlichkeiten f¨ ur die unter H0 erwarteten Klassenbesetzungen lauten: p1 p2 p3 p4
= = = =
pi Φ(−0.8) − Φ(−1.7) Φ(0.1) − Φ(−0.8) Φ(1.0) − Φ(0.1) Φ(1.9) − Φ(1.0)
= = = =
0.21 − 0.04 = 0.17 0.54 − 0.21 = 0.33 0.84 − 0.54 = 0.3 0.97 − 0.84 = 0.13
npi 25.5 49.5 45.0 19.5
Damit wird die Realisierung von T (X) (vgl. (8.1)) zu t=
k (ni − npi )2
npi (30 − 19.5)2 (43 − 25.5)2 (36 − 49.5)2 (41 − 45)2 + + + = 25.5 49.5 45 19.5 = 12 + 3.68 + 0.36 + 5.65 = 21.69 > 3.84 = c1;0.95
H0 ist abzulehnen. Die Zufallsvariable X folgt damit keiner Normalverteilung, sondern irgend einer anderen Verteilung. (Hinweis: Wir haben k = 4 Klassen und r = 2 zu sch¨ atzende Parameter, also ist die Zahl der Freiheitsgrade 4 − 1 − 2 = 1. ) L¨osung zu Aufgabe 8.4: Es liegt ein Zweistichprobenproblem vor. Wir setzen i.i.d. i.i.d. voraus: X1 , . . . , X10 ∼ F und Y1 , . . . , Y10 ∼ G und pr¨ ufen H0 : F (z) = G(z) gegen H1 : F (z) = G(z), z ∈ R. Der erste Schritt ist es, die Stichproben zu ordnen:
A.8 Nichtparametrische Tests
i x(i) y(i)
1 0.6 2.0
2 1.2 2.3
3 1.6 3.0
4 1.7 3.2
5 1.7 3.2
6 2.1 3.4
7 2.8 3.5
8 2.9 3.8
9 3.1 4.6
443
10 3.3 7.2
Damit bestimmen wir die empirischen Verteilungsfunktionen geordnete Stichprobe x(1) = 0.6 x(2) = 1.2 x(3) = 1.6 (x(4) , x(5) ) = 1.7 y(1) = 2.0 x(6) = 2.1 y(2) = 2.3 x(7) = 2.8 x(8) = 2.9 y(3) = 3.0 x(9) = 3.1 (y(4) , y(5) ) = 3.2 x(10) = 3.3 y(6) = 3.4 y(7) = 3.5 y(8) = 3.8 y(9) = 4.6 y(10) = 7.2
Fˆ (x) 1/10 2/10 3/10 5/10 5/10 6/10 6/10 7/10 8/10 8/10 9/10 9/10 1 1 1 1 1 1
ˆ G(y) 0 0 0 0 1/10 1/10 2/10 2/10 2/10 3/10 3/10 5/10 5/10 6/10 7/10 8/10 9/10 1
ˆ |Fˆ (x) − G(y)| 1/10 2/10 3/10 5/10 4/10 5/10 4/10 5/10 6/10 5/10 6/10 4/10 5/10 4/10 3/10 2/10 1/10 0
Die Teststatistik (vgl. (8.3)) ergibt als maximalen Abstand der beiden empirischen Verteilungsfunktionen ˆ K = max |Fˆ (x) − G(y)| = 6/10 ≤ 0.6 = k10,10;0.95 , d.h. wir k¨onnen H0 nicht ablehnen. L¨osung zu Aufgabe 8.5: orpergr¨ oße X ist N (μ; σ 2 )-verteilt mit μ = a) Wir pr¨ ufen zun¨ achst H0 : K¨ 2 169, σ = 16 gegen H1 : X ist nicht N (169; 16)-verteilt. i) Chi-Quadrat-Test Wir nehmen folgende Klasseneinteilung vor: j Gj = [aj−1 , aj ) Klassenmitte mj nj 1 (−∞; 158.5) − 0 2 [158.5; 161.5) 160 3 3 [161.5; 164.5) 163 10 4 [164.5; 167.5) 166 8 5 [167.5; 170.5) 169 10 6 [170.5; 173.5) 172 9 7 [173.5; 176.5) 175 7 8 [176.5; 179.5) 178 3 9 [179.5; +∞) − 0
444
¨ A. L¨ osungen zu den Ubungsaufgaben
Die unter H0 zu erwartenden Wahrscheinlichkeiten pj f¨ ur die einzelnen Gruppen werden mit Hilfe der N (169; 16)-Verteilung und durch Standardisierung berechnet: p1 p2 p3 p4 p5 p6 p7 p8 p9 j 1 2 3 4 5 6 7 8 9
) = Φ(−2.63) = 0.0043 = Φ( 158.5−169 4 = Φ( 161.5−169 ) − Φ(−2.63) = 0.0301 − 0.0043 = 0.0258 4 = Φ( 164.5−169 ) − Φ(−1.88) = 0.1292 − 0.0301 = 0.0991 4 = Φ( 167.5−169 ) − Φ(−1.13) = 0.352 − 0.1292 = 0.2228 4 = Φ(0.38) − Φ(−0.38) = 0.6480 − 0.352 = 0.296 = Φ(1.13) − Φ(0.38) = 0.8708 − 0.6480 = 0.2228 = Φ(1.88) − Φ(1.13) = 0.9699 − 0.8708 = 0.0991 = Φ(2.63) − Φ(1.88) = 0.9957 − 0.9699 = 0.0258 = 1 − Φ(2.63) = = 0.0043 G′j = [a′j−1 , a′j ) (−∞; −2.63)
pj 0.0043
npj 0.215
[−2.63; −1.88) [−1.88; −1.13) [−1.13; −0.38) [−0.38; 0.38) [0.38; 1.13) [1.13; 1.88)
0.0258 0.0991 0.2228 0.2960 0.2228 0.0991
1.29 4.955 11.14 14.8 11.14 4.955
[1.88; 2.63) [2.63; ∞)
0.0258 0.0043
1.29 0.215
(npj )
nj
(nj −npj )2 npj
@
13
6.621
8 10 9
0.885 1.557 0.411
10
1.940
@
6.46
6.46
11.414
Da f¨ ur die Klassen 1,2,3 und 7,8,9 die Faustregel (npj > 5) verletzt w¨ urde, wurden diese Gruppen zu jeweils einer Gruppe zusammengefaßt. Damit bleiben 5 Gruppen, was 4 Freiheitsgrade ergibt. Somit ist t = 11.414 > 9.49 = c4;0.95 und wir m¨ ussen H0 ablehnen. Die Zufallsgr¨oße X folgt in diesem Datensatz nicht einer N (169; 16)-Verteilung. ii) Kolmogorov-Smirnov-Test Mit den bereits beim Chi-Quadrat-Test berechneten Werten bilden wir die unter H0 erwarteten Summenh¨aufigkeiten Fj (E) = npj und ebenso die beobachteten Summenh¨aufigkeiten Fj (B) = nj :
A.8 Nichtparametrische Tests
F1 (E) F2 (E) F3 (E) F4 (E) F5 (E) F6 (E) F7 (E) F8 (E) F9 (E)
= = = = = = = = =
0.215 1.505 6.46 17.6 32.4 43.54 48.495 49.785 50
F1 (B) F2 (B) F3 (B) F4 (B) F5 (B) F6 (B) F7 (B) F8 (B) F9 (B)
= = = = = = = = =
0 3 13 21 31 40 47 50 50
|F1 (B) − F1 (E)| |F2 (B) − F2 (E)| |F3 (B) − F3 (E)| |F4 (B) − F4 (E)| |F5 (B) − F5 (E)| |F6 (B) − F6 (E)| |F7 (B) − F7 (E)| |F8 (B) − F8 (E)| |F9 (B) − F9 (E)|
= = = = = = = = =
445
0.215 1.495 6.54 3.4 1.4 3.54 1.495 0.215 0
Die Teststatistik (8.3) hat als Realisierung 1.36 ˆ = 6.54 = 0.1308 < 0.192 = √ D = d50;0.95 , 50 50 d.h. mit dem Kolmogorov-Smirnov-Test wird H0 nicht abgelehnt. oße ist N (μ; σ 2 )-verteilt bei beliebigen μ und σ 2 gegen H1 : b) H0 : K¨orpergr¨ Es liegt keine Normalverteilung vor i) Chi-Quadrat-Test Sch¨atzen der unbekannten Parameter: 1 nj mj = 168.7 n 1 nj (mj − μ ˆ)2 = 24.93 σ ˆ2 = n μ ˆ=
Die Sch¨atzwerte pˆj f¨ ur die unter H0 g¨ ultigen Wahrscheinlichkeiten pj f¨ ur die einzelnen Gruppen werden mit Hilfe der N (168.7; 24.93)Verteilung und Standardisierung berechnet: pˆ1 pˆ2 pˆ3 pˆ4 pˆ5 pˆ6 pˆ7 pˆ8 pˆ9
= = = = = = = = =
Φ(−2.04) = 1 − 0.9793 = Φ(−1.44) − Φ(−2.04) = 0.0749 − 0.0207 = Φ(−0.84) − Φ(−1.44) = 0.2005 − 0.0749 = Φ(−0.24) − Φ(−0.84) = 0.4052 − 0.2005 = Φ(0.36) − Φ(−0.24) = 0.6406 − 0.4052 = Φ(0.96) − Φ(0.36) = 0.8315 − 0.6406 = Φ(1.56) − Φ(0.96) = 0.9406 − 0.8315 = Φ(2.16) − Φ(1.56) = 0.9846 − 0.9406 = 1 − Φ(2.16) = 1 − 0.9846 =
0.0207 0.0542 0.1256 0.2047 0.2354 0.1909 0.1091 0.044 0.0154
446
¨ A. L¨ osungen zu den Ubungsaufgaben
j 1 2 3 4 5 6 7 8 9
G′j = [a′j−1 , a′j ) (−∞; −2.04)
pj 0.0207
npj 1.035
[−2.04; −1.44) [−1.44; −0.84) [−0.84; −0.24) [−0.24; 0.36) [0.36; 0.96) [0.96; 1.56)
0.0542 0.1256 0.2047 0.2354 0.1909 0.1091
2.71 6.28 10.235 11.77 9.545 5.455
[1.56; 2.16) [2.16; ∞)
0.044 0.0154
2.2 0.77
(npj ) @
10.03
@
8.43
nj
(nj −npj )2 npj
13
0.879
8 10 9
0.488 0.266 0.031
10
0.292 1.956
t = 1.956 < 5.99 = c2;0.95
d.h. wir werden H0 nicht ablehnen. (Hinweis: Die Zahl der Freiheitsgrade ist 5 (Gruppen) −1 − 2 (gesch¨ atzte Parameter) = 2.) ii) Kolmogorov-Smirnov-Test Wir gehen analog zu Teilaufgabe a) vor und bilden erneut die Summenh¨aufigkeiten: F1 (E) F2 (E) F3 (E) F4 (E) F5 (E) F6 (E) F7 (E) F8 (E) F9 (E)
= = = = = = = = =
1.035 3.745 10.025 20.26 32.03 41.575 47.03 49.23 50
F1 (B) F2 (B) F3 (B) F4 (B) F5 (B) F6 (B) F7 (B) F8 (B) F9 (B)
= = = = = = = = =
0 3 13 21 31 40 47 50 50
|F1 (B) − F1 (E)| |F2 (B) − F2 (E)| |F3 (B) − F3 (E)| |F4 (B) − F4 (E)| |F5 (B) − F5 (E)| |F6 (B) − F6 (E)| |F7 (B) − F7 (E)| |F8 (B) − F8 (E)| |F9 (B) − F9 (E)|
= = = = = = = = =
1.035 0.745 2.975 0.74 1.03 1.575 0.03 0.77 0
ˆ = 2.975 = 0.0595 < 0.192 = d50;0.95 , D 50 d.h. H0 wird nicht abgelehnt. L¨osung zu Aufgabe 8.6: Der Mann-Whitney-U-Test erfordert die Rangvergabe, wobei auf Bindungen zu achten ist. Wert 17 33 37 44 45 45 49 51 51 53 62 62 Gruppe A B A A B B A A B A A B Rang 1 2 3 4 5.5 5.5 7 8.5 8.5 10 11.5 11.5 Wert 73 74 87 89 Gruppe B A B B Rang 13 14 15 16 Daraus folgt f¨ ur die beiden Rangsummen und die Teststatistiken (vgl. (8.4) und (8.5))
A.8 Nichtparametrische Tests
447
RA+ = 59 RB+ = 77 8·9 − 59 = 41 2 8·9 UB = 8 · 8 + − 77 = 23 2 UA = 8 · 8 +
Da Bindungen vorliegen, ist die korrigierte Teststatistik (vgl. (8.7)) anzuwenden, wobei man f¨ ur U den kleineren der beiden Werte UA , UB , also UB nimmt. Wir haben r = 3 Gruppen von jeweils gleichen Werten mit jeweils ti = 2 Elementen (je 2mal 5.5, 8.5, 11.5). Damit erhalten wir als Realisierung der Testgr¨oße Z z= # = #
8·8 16·15
64 15·16
23 − ( 163 −16 12
8·8 2
−
23 − 32 ( 4096−16 12
−9 = √ = −0.95 90.27
23 −2
−
12
6 12
·3
·3
)
)
Da die Bedingung n1 , n2 ≥ 8 erf¨ ullt ist, kann die Normalapproximation Z ∼ N (0, 1) verwendet werden. Mit |z| = |0.95| < 1.64 = z0.95 wird H0 : μX = μY im zweiseitigen Test nicht abgelehnt, ein Unterschied in der Blattl¨ange als Ergebnis unterschiedlicher D¨ ungung ist nicht nachweisbar. L¨osung zu Aufgabe 8.7: Der Wilcoxon-Test f¨ ur verbundene Stichproben pr¨ uft folgende Hypothesen u ¨ ber den Median M : H0 : M ≤ 0 gegen H1 : M > 0 (einseitig). Wir bestimmen in der Tabelle die Werte di der Differenz D und der Variablen 1 di > 0 Zi = 0 sonst. Student 1 2 3 4 5 6 7
vorher 17 18 25 12 19 34 29
nachher 25 45 37 10 21 27 29
di 8 27 12 -2 2 -7 0
zi 1 1 1 0 1 0
R(|di |) 4 6 5 1.5 1.5 3
Da beim 7. Studenten eine Nulldifferenz auftritt, ist diese Beobachtung wegzulassen. Damit ergibt sich als Teststatistik der Wert (vgl. (8.8))
¨ A. L¨ osungen zu den Ubungsaufgaben
448
W
+
=
6 i=1
zi R(|di |) = 16.5 .
Der kritische Wert f¨ ur α = 0.05 berechnet sich nach B¨ uning und Trenkler (1994) als n(n + 1) − w0.05 = 21 − 2 = 19, w0.95 = 2 so dass wir H0 nicht ablehnen, da W + < w0.95 ist. L¨osung zu Aufgabe 8.8: a) Die Zufallsgr¨oße ist X: Schraubendurchmesser mit X ∼ N (3, 0.012 ). Wir standardisieren: Z = (X−3) 0.01 ∼ N (0, 1). Eine Abweichung um 0.0196 vom Mittelwert nach unten bedeutet, dass X kleiner als μ − 0.0196 sein muß. Damit erhalten wir X −3 3 − 0.0196 − 3 P (A) = P (X < 3 − 0.0196) = P < 0.01 0.01 = P (Z < −1.96) = 1 − P (Z ≤ 1.96) = 1 − 0.975 = 0.025 . Analog gilt P (B) = P (3 − 0.0196 < X < 3 + 0.0196) = P (|Z| < 1.96) = 0.95
und P (C) = P (X > 3 + 0.0196) = P (Z > 1.96) = 1 − P (Z ≤ 1.96) = 1 − 0.975
= 0.025 .
b) Wir pr¨ ufen H0 : X ∼ N (3, 0.012) gegen H1 : X folgt keiner Normalver” teilung“ mit dem Chi-Quadrat-Anpassungstest bei drei Klassen: Klasse:
zu schmal“ ”
tolerabel“ ”
zu breit“ ”
beobachtete H¨aufigkeiten
5
185
10
erwartete H¨aufigkeiten unter H0
200 · 0.025 = 5
200 · 0.95 = 190
200 · 0.025 = 5
Die Testgr¨oße (8.1) lautet: T (X) =
( beobachtete − erwartete H¨aufigkeiten )2 H0 ∼ χ23−1 . erwartete H¨ aufigkeiten
A.8 Nichtparametrische Tests
449
Der kritische Bereich enth¨ alt große Werte, d. h. es ist K = (χ22,0.95 , ∞) = (5.99, ∞). Die Realisierung ergibt den Wert: t=
25 25 + = 5.132 ∈ K, 5 190
d.h. H0 wird nicht abgelehnt. Dies bedeutet, dass nichts gegen die Annahme einer Normalverteilung f¨ ur die Zufallsgr¨oße X spricht (wir haben jedoch nicht nachgewiesen, dass X normalverteilt ist!)!
450
¨ A. L¨ osungen zu den Ubungsaufgaben
A.9 Lineare Regression L¨osung zu Aufgabe 9.1: Wir berechnen aus der folgenden Arbeitstabelle x ¯= 77.8, y¯ = 179.5, Sxy = 1255, Sxx = 1993.6. yi 188 160 172 198 189 177 175 188 165 183
yi − y¯ 8.5 -19.5 -7.5 18.5 9.5 -2.5 -4.5 8.5 -14.5 3.5
xi 80 50 58 100 85 78 88 90 76 73
xi − x ¯ 2.2 -27.8 -19.8 22.2 7.2 0.2 10.2 12.2 -1.8 -4.8
Damit erhalten wir die Parametersch¨ atzungen Sxy βˆ1 = = 0.63 Sxx βˆ0 = y¯ − βˆ1 x¯ = 179.50 − 0.63 · 77.8 = 130.49 .
Damit k¨onnen wir die gesch¨ atzten Werte yˆi = βˆ0 + βˆ1 xi bestimmen: i 1 2 3 4 5 6 7 8 9 10
yˆi 180.89 161.99 167.03 193.49 184.04 179.63 185.93 187.19 178.37 176.48
1 Damit erhalten wir die Sch¨ atzung s2 = n−2 (yi − yˆi )2 = 472.46 . L¨osung zu Aufgabe 9.2: Wir haben ein Regressionsmodell y = β0 + β1 X + ǫ mit einer Einflussgr¨ oße X (Variable(s) Entered on Step Number 1. . . X) Der F -Test pr¨ uft H0 : β1 = 0 gegen H1 : β1 = 0. Der F -Wert lautet F1,48 = 0.203 und hat eine Signifikanz (p-value) von 0.654. Die Nullhypothese wird also nicht abgelehnt, d. h. das Modell“ y = β0 + ǫ wird nicht abgelehnt. ” Der Einfluss von X auf y im Rahmen des linearen Modells ist nicht signifikant. Das Bestimmtheitsmaß R2 = r2 = 0.004 und der von ihm gemessene Anteil durch die Regression erkl¨ arte Anteil an der Gesamtvariabilit¨at ist fast Null: SQT otal = SQRegression + SQResidual = 1.754 + 414.600 .
A.9 Lineare Regression
451
L¨osung zu Aufgabe 9.3: Es liegt ein multiples Regressionsmodell mit vier Regressoren und einer Konstante vor. Der F -Test (F = 488.824, Significance =0.0000) lehnt H0 : βBEGIN N IN GSALARY = βJOBSEN IORIT Y = βAGEOF EMP LOY EE = βW ORKEXP ERIEN CE = 0 ab. Diese Paramter sind uglich der uni–bis auf βW ORKEXP ERIEN CE (Significance=0.051)– auch bez¨ variaten t-Tests signifikant von Null verschieden. Man w¨ urde also im zweiten Schritt den Regressor WORK EXPERIENCE weglassen und die Modellanpassung erneut vornehmen und dann eine endg¨ ultige Entscheidung treffen. L¨osung zu Aufgabe 9.4: a) Diese Ergebnisse sollten Sie mit ihrem Vorwissen einfach best¨atigen k¨onnen. • a = 0.96 nicht sinnvoll interpretierbar (Trinkgeld beim Rechnungsbetrag von 0) • b = 0.1 → steigt der Betrag um 1 Euro so steigt das Trinkgeld um 0.1 Euro. b) Zun¨achst ben¨ otigen wir eine Sch¨ atzung f¨ ur σ 2 , Dazu die Residuen der gesch¨atzten Gerade eˆi = yi − (0.96 + 0.1xi ). Das ergibt die folgenden Werte: 0.037, -0.976, -1.473, 0.789, 0.766, 0.521, -0.982, 2.527, -1.215, 0.005 Die gesch¨atzte Varianz des Fehlers ist: σˆ2 =
1 n−2
10
eˆi 2 =
i=1
13.43 8
= 1.68.
Damit bekommen wir die Varianz von ˆb: (Sxx = 2428.125 sollten Sie in a) bestimmt haben.) V ar(b) =
1.68 2428.125
= 0.00069.
c) Die Hypothesen lauten: H0 : b = 0 (Der Rechnungsbetrag hat keinen Einfluss) H1 : b = 0 Die Teststatistik ergibt sich als: T =√
ˆ b V ar(ˆ b)
= 3.81.
Wir lehnen H0 ab, falls | T |> tn−2,0.975 = 2.3 Die ist hier der Fall. Der Rechnungsbetrag hat einen signifikanten Einfluss auf die Trinkgeldh¨ohe. d) • H0 : b ≥ 0.15 H1 : b < 0.15 Teststatistik: T = 0.1−0.15 0.0263 = −1.9 H0 ablehnen falls T < −tn−2,0.95 = −1.86, H0 wird abgelehnt, b ist kleiner als 0.15.
452
¨ A. L¨ osungen zu den Ubungsaufgaben
• H0 : b ≤ 0.1 H1 : b > 0.1 Teststatistik: 0.1−0.1 0.0263
=0 H0 ablehnen falls T > tn−2,0.95 = 1.86, H0 wird nicht abgelehnt, es kann weiter davon ausgegangen werden, dass b h¨ochstens 0.1 ist. T =
A.10 Varianzanalyse
453
A.10 Varianzanalyse L¨osung zu Aufgabe 10.1: Wir erg¨ anzen zun¨ achst die Tafel der Varianzanalyse. Der einzige Faktor A (D¨ unger) liegt in a = 3 Stufen vor, also ist df (A) = a − 1 = 2 die Freiheitsgradzahl von Faktor A. Wegen df (A) + df (Residual) = df (T otal) erhalten wir df (Residual) = 32 − 2 = 30. Analog ist SQResidual = SQT otal − SQRegression = 350 − 50 = 300. Damit erhalten wir die erg¨ anzte Tabelle Faktor A Residual Total
df 2 30 32
SQ 50 300 350
MQ 25 10
F FA =
25 10
= 2.5
Die Nullhypothese lautet: H0 : Faktor A ist ohne Einfluss auf den Response. Mit dem einfaktoriellen Modell der Varianzanalyse yij = μ + αi + ǫij l¨asst sich H0 schreiben als H0 : α1 = α2 = α3 = 0 . Die Alternativhypothese lautet H1 : mindestens ein αi = 0. Die Teststatistik folgt unter H0 einer F2,30 -Verteilung, der kritische Wert lautet F2,30,0.95 = 3.32 (Tabelle B5). Wegen FA = 2.5 < 3.32 ist H0 nicht abzulehnen, d. h. ein Effekt des D¨ ungers ist nicht nachweisbar. L¨osung zu Aufgabe 10.2: Wir haben drei unabh¨angige Stichproben. Unter der Annahme y1 ∼ N (μ1 , σ 2 ) (Punktwerte Gruppe 1), y2 ∼ N (μ2 , σ 2 ) (Punktwerte Gruppe 2), y3 ∼ N (μ3 , σ 2 ) (Punktwerte Gruppe 3) f¨ uhren wir den Mittelwertsvergleich der drei Gruppen mit der einfaktoriellen Varianzanalyse durch. Der Faktor A ist durch die Gruppeneinteilung mit den drei Stufen 1,2,3 gegeben. Es ist a = 3 (Anzahl der Stufen von A) und n = n1 + n2 + n3 = 8 + 6 + 8 = 22. Wir berechnen zun¨ achst die Mittelwerte in den Gruppen und das Gesamtmittel: 8
y1+ =
431 1 1 = 53.875 y1j = · (32 + . . . + 85) = 8 j=1 8 8 6
y2+ =
302 1 1 = 50.333 y2j = · (34 + . . . + 75) = 6 j=1 6 6 8
y3+ = y++ =
457 1 1 = 57.125 y3j = · (38 + . . . + 95) = 8 j=1 8 8
431 + 302 + 457 1190 8y1+ + 6y2+ + 8y3+ = = = 54.09 22 22 22
454
¨ A. L¨ osungen zu den Ubungsaufgaben
Mit den Formeln (10.12) bis (10.14) berechnen wir mit y++ = 54.09 SQT otal =
ni 3 i=1 j=1
2 2 yij − ny++
= 6443.82 3 2 2 SQA = ni yi+ − ny++ i=1
= 158.735
und daraus SQResidual = SQT otal − SQA = 6285.085 .
Die Nullhypothese H0 : μ1 = μ2 = μ3 wird mit der Statistik F2,19 =
SQA /a − 1 = SQResidual /n − a
158.735 2 6285.085 19
= 0.240
gepr¨ uft (vgl. Tabelle 10.3). Der kritische Wert F2,19,0.95 betr¨ agt 3.52 (Tabelle B5). Damit gilt F = 0.240 < 3.52 = F2,19,0.95 , so dass H0 : μ1 = μ2 = μ3 nicht abgelehnt wird. Die beobachteten Unterschiede in den mittleren Punktzahlen der drei Gruppen (y1+ = 53.875, y2+ = 50.333, y3+ = 57.125) sind als statistisch nicht signifikant sondern als zuf¨ allig einzusch¨ atzen. L¨osung zu Aufgabe 10.3: Gem¨ aß der hierarchischen Modellbildung sind bei signifikanter Wechselwirkung auch die beiden Haupteffekte im Modell zu belassen. Die Modelle lauten also a) b) c) d) e)
yijk = μ + αi + βj + (αβ)ij + ǫijk yijk = μ + αi + βj + ǫijk wie a) wie a) yjk = μ + βj + ǫjk
L¨osung zu Aufgabe 10.4: Wir erg¨ anzen die Tabelle durch Angabe der Werte f¨ ur M Q = SQ/df und der F -Statistiken: Faktor A
df 1
SQ 130
MQ 130/1=130
FA =
130 8.33
= 15.61
Faktor B
2
630
630/2=315
FB =
315 8.33
= 37.81
2 18
40 150
40/2=20 150/18=8.33
FA×B =
Wechselwirkung A × B Residual
F
20 8.33
= 2.40
Der erste Test pr¨ uft die Wechselwirkung A × B. Die F -Statistik zum Pr¨ ufen von H0 : Wechselwirkung gleich Null“ hat 2 bzw. 18 Freiheitsgra” de. Der kritische Wert (vgl. Tabelle B5) lautet F2,18,0.95 = 3.55. Wegen
A.10 Varianzanalyse
455
FA×B = 2.40 < 3.55, wird H0 nicht abgelehnt, d. h. die Wechselwirkung ist nicht signifikant und wird aus dem Modell entfernt. Die Fehlerquadratsumme SQA×B wird zu SQResidual addiert, die Freiheitsgrade von SQA×B gehen in die Freiheitsgrade von SQResidual ein: Faktor A
df 1
SQ 130
MQ 130
Faktor B Residual
2 20
630 190
315 9.5
F FA =
130 9.5
= 13.68
FB =
315 9.5
= 33.16
Wir haben nun das Modell mit den Haupteffekten A und B und pr¨ ufen H0 : αA = 0 gegen H1 : αA = 0 mit FA = 13.68 > 4.35 = F1,20,0.95 . Damit wird H0 abgelehnt, Faktor A hat signifikanten Einfluss auf den Response. Wir pr¨ ufen H0 : αB = 0 gegen H1 : αB = 0. Mit FB = 33.16 > 3.49 = F2,20,0.95 wird H0 abgelehnt, Faktor B hat ebenfalls signifikanten Einfluss auf den Response. Als Ergebnis erhalten wir ein zweifaktorielles Modell mit signifikanten Haupteffekten A und B aber ohne Wechselwirkung. L¨osung zu Aufgabe 10.5: Die Zielvariable y ist SALNOW, die Faktoren A und B sind JOBCAT (7 Stufen, DF=6) und MINORITY (2 Stufen, DF=1). Die Wechselwirkung ist signifikant von Null verschieden (Sig. 0.041), so dass das zweifaktorielle Modell mit Wechselwirkung g¨ ultig ist: SALN OW = μ+JOBCAT +M IN ORIT Y +(JOBCAT )×(M IN ORIT Y ) . Eine Reduzierung auf ein Modell mit Haupteffekten ist also nicht m¨oglich.
456
¨ A. L¨ osungen zu den Ubungsaufgaben
A.11 Analyse von Kontingenztafeln L¨osung zu Aufgabe 11.1: Zun¨ achst berechnen wir die bei Unabh¨angigkeit zu erwartenden H¨aufigkeiten gem¨ aß m ˆ ij = nˆ πij = ni+nn+j :
X
1 2 n+j
1 13.33 66.67 80
Y 3 40 200 240
2 35 175 210
4 50 250 300
5 41.67 208.33 250
ni+ 180 900 n = 1080
Pearson’s χ2 -Statistik berechnet sich mit c=
2 5 (nij − m ˆ ij )2 m ˆ ij i=1 j=1
zu c = 3.85. Ein Test mit Signifikanzniveau 0.05 lehnt daher die Hypothese der Unabh¨angigkeit nicht ab, da der kritische Wert c(I−1)(J−1);1−α = c4;0.95 = 9.49 ist, also c < c4;0.95 . F¨ ur die spaltenweise G2 -Analyse analysieren wir die folgenden 2×2-Tafeln bez¨ uglich ihres G2 -Wertes: Y 1 X 2
1 X 2
1 X 2
1 X 2
1 10 70
2 30 180
˜ 2 = 0.158 G 1
Y 1+2 3 40 40 250 200 Y 1+2+3 80 450
Y 1+2+3+4 130 700
˜ 2 = 0.843 G 2
4 50 250 5 50 200
˜ 2 = 0.356 G 3
˜ 24 = 2.516 G
˜2 + G ˜2 + G ˜2 + G ˜ 2 = 0.158 + 0.843 + 0.356 + Wir erhalten damit G2 = G 1 2 3 4 2.516 = 3.873. Man erh¨ alt ein homogeneres Bild, wenn man beispielsweise die folgende Zusammenfassung f¨ ur Y w¨ ahlt: Kategorie 1 und Kategorie 2 ˜ 2 den kleinsten Beitrag zu G2 leistet. Kategorie werden zusammengefaßt, da G 1
A.11 Analyse von Kontingenztafeln
457
5 bleibt f¨ ur sich, da die vierte betrachtete Tafel den gr¨oßten Beitrag zu G2 liefert. Die 2 × 2 Tafel, die die Kategorien 3 und 4 f¨ ur sich betrachtet, h¨atte einen Odds Ratio von 1. Wir fassen daher diese beiden auch noch zusammen. Wir erhalten als eine M¨ oglichkeit die 2 × 3-Tafel
X
1 2
1+2 40 250
Y 3+4 90 450
5 50 200
mit c = 3.72 und G2 = 3.71. L¨osung zu Aufgabe 11.2: Pearson’s χ2 -Statistik berechnet sich zu c = 9.52. Zum Signifikanzniveau 0.05 betr¨ agt der kritische Wert c1;0.95 = 3.84. Die Hy= = (40 · 80)/(60 · pothese H0 wird daher abgelehnt. Der Odds Ratio ist OR 20) = 2.67, also gr¨ oßer als 1. D.h. es besteht ein positiver statistischer Zusammenhang zwischen Rauchen und Krankheit. F¨ ur den Test w¨ahlt man den Weg u atzung: ¨ ber den ln OR und dessen Varianzsch¨ = = θˆ0 = 0.98 ln OR 1 1 1 1 σ ˆθ2ˆ = + + + = 0.104 0 40 60 20 80 σ ˆθˆ0 = 0.323 Man erh¨alt damit den z-Wert z =
θˆ0 σ ˆθˆ
= 3.04 > 1.96 = z0.95 . Daher wird H0
0
= oder abgelehnt. Alternativ berechnet man ein Konfidenzintervall f¨ ur ln OR = F¨ = erh¨ OR. ur ln OR alt man [0.98 − 1.96 · 0.323; 0.98 + 1.96 · 0.323] = [0.35; 1.61] ,
= entsprechend f¨ ur den OR
[exp(0.35); exp(1.61)] = [1.42; 5.00] .
In beiden F¨allen kann man H0 verwerfen: im ersten Fall wird der Wert 0 nicht vom Konfidenzintervall u ¨ berdeckt (ln OR = 0 entspricht Unabh¨angigkeit), im zweiten Fall wird der Wert 1 nicht u ¨ berdeckt. L¨osung zu Aufgabe 11.3: Wie in der L¨ osung zur vorhergehenden Aufgabe = oder ln OR. = Zur einfacheren Interpretierbarkeit kann man verwenden wir OR zun¨achst die Spalten der Tafel vertauschen. nachher vorher
Produkte einwandfrei mangelhaft 80 20 60 40
= = 2.67. Man erh¨ Damit ist OR alt im u ur die ¨ brigen die gleichen Werte f¨ Sch¨atzungen wie in der vorherigen Aufgabe. Damit hat die Einf¨ uhrung des ISO 9001 Standards die Produktion signifikant verbessert.
458
¨ A. L¨ osungen zu den Ubungsaufgaben
L¨osung zu Aufgabe 11.4: Wir verwenden die χ2 -Statistik. Man erh¨alt c = 3499 > c2;0.95 = 5.99. Also liegt ein signifikanter Zusammenhang zwischen Erwerbst¨atigkeit und Geschlecht vor. Machen wir nun die vorgeschlagene Unterscheidung, erhalten wir die folgende Tafel: m¨annlich weiblich
Erwerbsperson 18000 11900
Nichterwerbspersonen 11780 20200
Wir verwenden jetzt wieder den Odds Ratio: = = 2.59 OR = = θˆ0 = 0.95 ln OR 1 1 1 1 σ ˆθ2ˆ = + + + = 2.74 · 10−4 0 18000 11780 11900 20200 σ ˆθˆ0 = 0.017 = Damit erh¨alt man als 95%-Konfidenzintervall f¨ ur den ln OR:
[0.95 − 1.96 · 0.017; 0.95 + 1.96 · 0.017] = [0.92; 0.98] .
Damit ist auch dieser Zusammenhang signifikant positiv, das heißt M¨anner sind eher Erwerbspersonen als Frauen. L¨osung zu Aufgabe 11.5: Da es sich um einen Fall mit geringen Stichprobenumf¨angen handelt, sollten die f¨ ur große Stichprobenumf¨ange gedachten Tests und auch der Test mittels des Odds Ratios nicht verwendet werden. Besser ist es in diesem Fall, den exakten Test von Fisher zu verwenden. Dazu stellen wir uns vor, wir h¨ atten 2 Gesamtheiten, eine von 0 bis 12 Uhr und die andere von 12 bis 24 Uhr (vergleiche Beispiel 7.6.3, dort Strategie A und Strategie B). Man definiert dann die beiden bedingten Wahrscheinlichkeiten p1 = P (Baby ist m¨ annlich|das Baby kam zwischen 0 und 12 Uhr zur Welt) und p2 = P (Baby ist m¨ annlich|das Baby kam zwischen 12 und 24 Uhr zur Welt) . Die Anzahl der m¨ annlichen Babies unter der Bedingung, dass sie zwischen 0 und 12 Uhr zur Welt kamen, kann als binomialverteilt B(8; p1 ) aufgefaßt werden, die Anzahl der m¨ annlichen Babies unter der Bedingung, dass sie zwischen 12 und 24 Uhr zur Welt kamen, als B(11; p2 ). Die Unabh¨angigkeitshypothese kann dann ersetzt werden durch die Annahme der Gleichheit der bedingten Wahrscheinlichkeiten p1 und p2 . In Analogie zum Beispiel 7.6.3 erhalten wir also n1 = 8, n2 = 11, t1 = 5, t2 = 8, n = n1 + n2 = 19 und t = t1 + t2 = 13. Damit ergibt sich exakt die gleiche Konstellation wie in Beispiel 7.6.3 mit dem entsprechend gleichen Resultat: H0 : p1 = p2 und damit auch H0′ : “Tageszeit und Geschlecht sind unabh¨angig“ k¨onnen nicht abgelehnt werden.
A.11 Analyse von Kontingenztafeln
459
L¨osung zu Aufgabe 11.6: Die entscheidende Frage, die sich hier zun¨achst stellt, ist: sind der Stichprobenumfang und die Zellh¨aufigkeiten groß genug, um den χ2 -Test oder den Likelihood-Quotienten-Test (G2 ) durchzuf¨ uhren, oder sollte man etwas vorsichtiger sein und den exakten Test von Fisher durchf¨ uhren? Dies f¨ uhrt in diesem Fall zu folgender Situation: w¨ahlt man als Signifikanzniveau den Wert 0.05, so lehnen sowohl der χ2 -Test (c = 4.8, pWert < 0.05), als auch der Likelihood-Quotienten-Test (G2 = 5.063, p-Wert < 0.05) die Unabh¨ angigkeitshypothese ab. Der zu diesen Tests vergleichbare exakte Test von Fischer ist der f¨ ur die zweiseitige Fragestellung. Dieser lehnt aber die Hypothese der Unabh¨ angigkeit nicht ab (p-Wert “two tail“ > 0.05). Man erh¨ alt also je nach Wahl des Tests (und diese Wahl mag in diesem Beispiel nicht ganz eindeutig sein) eine andere statistische Aussage. L¨osung zu Aufgabe 11.7: W¨ urde man hier unmittelbar einen χ2 -Test durchf¨ uhren, erhielte man c = 7.33 (G2 = 7.48), wobei c2;0.99 = 9.21, was zum Nichtablehnen der Nullhypothese f¨ uhrt. M¨ oglich ist es, die F¨alle aus der Analyse herauszunehmen, wo sich keinerlei Wirkung des neuen Mittels feststellen l¨asst (Bezeichnung “0“). Das heißt, man analysiert die folgende Tafel: M¨ anner Frauen
+ 11 22
− 17 17
Hierf¨ ur erh¨alt man c = 1.91, G2 = 1.92 und damit c, G2 < c1;0.99 = 6.63. In beiden F¨allen ist also kein Unterschied in der Wirkung auf M¨anner und Frauen nachweisbar. L¨osung zu Aufgabe 11.8: Man erh¨ alt c = 1637.5 oder G2 = 1416.8. Beide Werte sind gr¨oßer als der kritische Wert c(I−1)(J−1);0.99 = c8;0.99 = 20.1. Es besteht offenbar ein Zusammenhang zwischen dem (prim¨aren) Hobby und dem Studienfach.
460
¨ A. L¨ osungen zu den Ubungsaufgaben
A.12 Lebensdaueranalyse L¨osung zu Aufgabe 12.1: Bezeichnen f (t) und F (t) die Dichte und Verteilungsfunktion der Zufallsvariablen T , so lassen sich Hazardrate λ(t) und Survivorfunktion S(t) definieren als f (t) 1 − F (t) S(t) = 1 − F (t) . λ(t) =
¨ Die bedingte Uberlebenswahrscheinlichkeit zum Zeitpunkt t wurde nur im Zusammenhang mit der Kaplan-Meier-Sch¨ atzung eingef¨ uhrt. Betrachtet man das k-te Zeitintervall, so ist die Hazardrate die bedingte Ereigniswahrscheinlichkeit λ(k) = P (Xk = 1|X1 = . . . Xk−1 = 0) , also die Wahrscheinlichkeit eines Objekts, im k-ten Zeitintervall ein Ereignis zu haben, gegeben dass das Objekt in den vorherigen Intervallen kein Ereignis ¨ hatte. Die bedingte Uberlebenswahrscheinlichkeit p(k) bezieht sich auf das Gegenereignis, also im k-ten Zeitintervall kein Ereignis zu haben, gegeben dass das Objekt auch in den vorherigen Intervallen kein Ereignis hatte, und ist damit gegeben durch p(k) = 1 − λ(k) = P (Xk = 0|X1 = . . . Xk−1 = 0) . L¨osung zu Aufgabe 12.2: Es liegen keine zensierten Daten vor. Die gesch¨atzte Survivalfunktion f¨ allt daher bis zum Wert 0. In jedem Intervall findet ein Ereignis statt. Daher sinkt die Risikomenge gleichm¨aßig und die Survivalfunktion f¨allt gleichm¨ aßig in 1/10-Schritten ab. Tabelle A.1. Kaplan-Meier-Sch¨ atzung k 0 1 2 3 4 5 6 7 8 9 10
t(k) 0 10 20 30 40 50 60 70 80 90 100
R(k) 10 10 9 8 7 6 5 4 3 2 1
dk 0 1 1 1 1 1 1 1 1 1 1
ˆk λ 0 1/10 1/9 1/8 1/7 1/6 1/5 1/4 1/3 1/2 1
pˆk 1 9/10 8/9 7/8 6/7 5/6 4/5 3/4 2/3 1/2 0
ˆ (k) ) S(t 1 9/10 8/10 7/10 6/10 5/10 4/10 3/10 2/10 1/10 0
A.12 Lebensdaueranalyse
461
L¨osung zu Aufgabe 12.3: Die Log-Rank-Statistik weist keinen signifikanten Unterschied bez¨ uglich des Alters (Haltbarkeit) der beiden Maschinentypen Stanze“ und Presse“ aus. Ein Blick auf die Abbildung macht jedoch offen” ” sichtlich, dass ein Log-Rank-Test in dieser Datensituation unangebracht ist, da die Voraussetzung, dass sich die zwei Survivalkurven nicht u ¨berschneiden, nicht erf¨ ullt ist.
B. Tabellenanhang
464
B. Tabellenanhang
Tabelle B.1. Verteilungsfunktion Φ(z) der Standardnormalverteilung N (0, 1) z 0.0 0.1 0.2 0.3 0.4 0.5
.00 0.500000 0.539828 0.579260 0.617911 0.655422 0.691462
.01 0.503989 0.543795 0.583166 0.621720 0.659097 0.694974
.02 0.507978 0.547758 0.587064 0.625516 0.662757 0.698468
.03 0.511966 0.551717 0.590954 0.629300 0.666402 0.701944
.04 0.515953 0.555670 0.594835 0.633072 0.670031 0.705401
0.6 0.7 0.8 0.9 1.0
0.725747 0.758036 0.788145 0.815940 0.841345
0.729069 0.761148 0.791030 0.818589 0.843752
0.732371 0.764238 0.793892 0.821214 0.846136
0.735653 0.767305 0.796731 0.823814 0.848495
0.738914 0.770350 0.799546 0.826391 0.850830
1.1 1.2 1.3 1.4 1.5
0.864334 0.884930 0.903200 0.919243 0.933193
0.866500 0.886861 0.904902 0.920730 0.934478
0.868643 0.888768 0.906582 0.922196 0.935745
0.870762 0.890651 0.908241 0.923641 0.936992
0.872857 0.892512 0.909877 0.925066 0.938220
1.6 1.7 1.8 1.9 2.0
0.945201 0.955435 0.964070 0.971283 0.977250
0.946301 0.956367 0.964852 0.971933 0.977784
0.947384 0.957284 0.965620 0.972571 0.978308
0.948449 0.958185 0.966375 0.973197 0.978822
0.949497 0.959070 0.967116 0.973810 0.979325
2.1 2.2 2.3 2.4 2.5
0.982136 0.986097 0.989276 0.991802 0.993790
0.982571 0.986447 0.989556 0.992024 0.993963
0.982997 0.986791 0.989830 0.992240 0.994132
0.983414 0.987126 0.990097 0.992451 0.994297
0.983823 0.987455 0.990358 0.992656 0.994457
2.6 2.7 2.8 2.9 3.0
0.995339 0.996533 0.997445 0.998134 0.998650
0.995473 0.996636 0.997523 0.998193 0.998694
0.995604 0.996736 0.997599 0.998250 0.998736
0.995731 0.996833 0.997673 0.998305 0.998777
0.995855 0.996928 0.997744 0.998359 0.998817
B. Tabellenanhang
465
Tabelle B.1. Verteilungsfunktion Φ(z) der Standardnormalverteilung N (0, 1) z 0.0 0.1 0.2 0.3 0.4 0.5
.05 0.519939 0.559618 0.598706 0.636831 0.673645 0.708840
.06 0.523922 0.563559 0.602568 0.640576 0.677242 0.712260
.07 0.527903 0.567495 0.606420 0.644309 0.680822 0.715661
.08 0.531881 0.571424 0.610261 0.648027 0.684386 0.719043
.09 0.535856 0.575345 0.614092 0.651732 0.687933 0.722405
0.6 0.7 0.8 0.9 1.0
0.742154 0.773373 0.802337 0.828944 0.853141
0.745373 0.776373 0.805105 0.831472 0.855428
0.748571 0.779350 0.807850 0.833977 0.857690
0.751748 0.782305 0.810570 0.836457 0.859929
0.754903 0.785236 0.813267 0.838913 0.862143
1.1 1.2 1.3 1.4 1.5
0.874928 0.894350 0.911492 0.926471 0.939429
0.876976 0.896165 0.913085 0.927855 0.940620
0.879000 0.897958 0.914657 0.929219 0.941792
0.881000 0.899727 0.916207 0.930563 0.942947
0.882977 0.901475 0.917736 0.931888 0.944083
1.6 1.7 1.8 1.9 2.0
0.950529 0.959941 0.967843 0.974412 0.979818
0.951543 0.960796 0.968557 0.975002 0.980301
0.952540 0.961636 0.969258 0.975581 0.980774
0.953521 0.962462 0.969946 0.976148 0.981237
0.954486 0.963273 0.970621 0.976705 0.981691
2.1 2.2 2.3 2.4 2.5
0.984222 0.987776 0.990613 0.992857 0.994614
0.984614 0.988089 0.990863 0.993053 0.994766
0.984997 0.988396 0.991106 0.993244 0.994915
0.985371 0.988696 0.991344 0.993431 0.995060
0.985738 0.988989 0.991576 0.993613 0.995201
2.6 2.7 2.8 2.9 3.0
0.995975 0.997020 0.997814 0.998411 0.998856
0.996093 0.997110 0.997882 0.998462 0.998893
0.996207 0.997197 0.997948 0.998511 0.998930
0.996319 0.997282 0.998012 0.998559 0.998965
0.996427 0.997365 0.998074 0.998605 0.998999
466
B. Tabellenanhang Tabelle B.2. Dichtefunktion φ(z) der N (0, 1)-Verteilung z 0.0 0.2 0.4 0.6 0.8 1.0
.00 0.3989 0.3910 0.3814 0.3332 0.2897 0.2419
.02 0.3989 0.3894 0.3653 0.3292 0.2850 0.2371
.04 0.3986 0.3876 0.3621 0.3251 0.2803 0.2323
.06 0.3982 0.3857 0.3589 0.3209 0.2756 0.2275
.08 0.3977 0.3836 0.3555 0.3166 0.2709 0.2226
1.2 1.4 1.6 1.8 2.0
0.1942 0.1497 0.1109 0.0789 0.0539
0.1895 0.1456 0.1074 0.0761 0.0519
0.1849 0.1415 0.1039 0.0734 0.0498
0.1804 0.1374 0.1006 0.0707 0.0478
0.1758 0.1334 0.0973 0.0681 0.0459
2.2 2.4 2.6 2.8 3.0
0.0355 0.0224 0.0136 0.0059 0.0044
0.0339 0.0213 0.0167 0.0075 0.0024
0.0325 0.0203 0.0122 0.0071 0.0012
0.0310 0.0194 0.0116 0.0067 0.0006
0.0296 0.0184 0.0110 0.0063 0.0003
B. Tabellenanhang Tabelle B.3. (1 − α)-Quantile cdf ;1−α der χ2 -Verteilung 1−α 0.05 0.95 0.004 3.84 0.103 5.99 0.352 7.81 0.711 9.49 1.15 11.1
df 1 2 3 4 5
0.01 0.0001 0.020 0.115 0.297 0.554
0.025 0.001 0.051 0.216 0.484 0.831
0.975 5.02 7.38 9.35 11.1 12.8
0.99 6.62 9.21 11.3 13.3 15.1
6 7 8 9 10
0.872 1.24 1.65 2.09 2.56
1.24 1.69 2.18 2.70 3.25
1.64 2.17 2.73 3.33 3.94
12.6 14.1 15.5 16.9 18.3
14.4 16.0 17.5 19.0 20.5
16.8 18.5 20.1 21.7 23.2
11 12 13 14 15
3.05 3.57 4.11 4.66 5.23
3.82 4.40 5.01 5.63 6.26
4.57 5.23 5.89 6.57 7.26
19.7 21.0 22.4 23.7 25.0
21.9 23.3 24.7 26.1 27.5
24.7 26.2 27.7 29.1 30.6
16 17 18 19 20
5.81 6.41 7.01 7.63 8.26
6.91 7.56 8.23 8.91 9.59
7.96 8.67 9.39 10.1 10.9
26.3 27.6 28.9 30.1 31.4
28.8 30.2 31.5 32.9 34.2
32.0 33.4 34.8 36.2 37.6
25 30 40 50
11.5 15.0 22.2 29.7
13.1 16.8 24.4 32.4
14.6 18.5 26.5 34.8
37.7 43.8 55.8 67.5
40.6 47.0 59.3 71.4
44.3 50.9 63.7 76.2
60 70 80 90 100
37.5 45.4 53.5 61.8 70.1
40.5 48.8 57.2 65.6 74.2
43.2 51.7 60.4 69.1 77.9
79.1 90.5 101.9 113.1 124.3
83.3 95.0 106.6 118.1 129.6
88.4 100.4 112.3 124.1 135.8
467
468
B. Tabellenanhang Tabelle B.4. (1 − α)-Quantile tdf ;1−α der t-Verteilung df 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 30 40 50 60 70 80 90 100 200 300 400 500
0.95 6.3138 2.9200 2.3534 2.1318 2.0150 1.9432 1.8946 1.8595 1.8331 1.8125 1.7959 1.7823 1.7709 1.7613 1.7531 1.7459 1.7396 1.7341 1.7291 1.7247 1.6973 1.6839 1.6759 1.6706 1.6669 1.6641 1.6620 1.6602 1.6525 1.6499 1.6487 1.6479
1−α 0.975 0.99 12.706 31.821 4.3027 6.9646 3.1824 4.5407 2.7764 3.7469 2.5706 3.3649 2.4469 3.1427 2.3646 2.9980 2.3060 2.8965 2.2622 2.8214 2.2281 2.7638 2.2010 2.7181 2.1788 2.6810 2.1604 2.6503 2.1448 2.6245 2.1314 2.6025 2.1199 2.5835 2.1098 2.5669 2.1009 2.5524 2.0930 2.5395 2.0860 2.5280 2.0423 2.4573 2.0211 2.4233 2.0086 2.4033 2.0003 2.3901 1.9944 2.3808 1.9901 2.3739 1.9867 2.3685 1.9840 2.3642 1.9719 2.3451 1.9679 2.3388 1.9659 2.3357 1.9647 2.3338
0.995 63.657 9.9248 5.8409 4.6041 4.0321 3.7074 3.4995 3.3554 3.2498 3.1693 3.1058 3.0545 3.0123 2.9768 2.9467 2.9208 2.8982 2.8784 2.8609 2.8453 2.7500 2.7045 2.6778 2.6603 2.6479 2.6387 2.6316 2.6259 2.6006 2.5923 2.5882 2.5857
Tabelle B.5. (1 − α)-Quantile fdf1 ,df2 ;1−α der F -Verteilung f¨ ur α = 0.05. df1 in den Zeilen, df2 in den Spalten 1 161.44 199.50 215.70 224.58 230.16 233.98 236.76 238.88 240.54 241.88 242.98 243.90 244.68 245.36 245.94 246.46 246.91 247.32 247.68 248.01 250.09 251.14 251.77 252.19 252.49 252.72 252.89 253.04
2 18.512 19.000 19.164 19.246 19.296 19.329 19.353 19.370 19.384 19.395 19.404 19.412 19.418 19.424 19.429 19.433 19.436 19.440 19.443 19.445 19.462 19.470 19.475 19.479 19.481 19.483 19.484 19.485
3 10.127 9.5520 9.2766 9.1171 9.0134 8.9406 8.8867 8.8452 8.8122 8.7855 8.7633 8.7446 8.7286 8.7148 8.7028 8.6922 8.6829 8.6745 8.6669 8.6601 8.6165 8.5944 8.5809 8.5720 8.5655 8.5607 8.5569 8.5539
4 7.7086 6.9442 6.5913 6.3882 6.2560 6.1631 6.0942 6.0410 5.9987 5.9643 5.9358 5.9117 5.8911 5.8733 5.8578 5.8441 5.8319 5.8211 5.8113 5.8025 5.7458 5.7169 5.6994 5.6877 5.6793 5.6729 5.6680 5.6640
5 6.6078 5.7861 5.4094 5.1921 5.0503 4.9502 4.8758 4.8183 4.7724 4.7350 4.7039 4.6777 4.6552 4.6357 4.6187 4.6037 4.5904 4.5785 4.5678 4.5581 4.4957 4.4637 4.4444 4.4313 4.4220 4.4149 4.4094 4.4050
6 5.9873 5.1432 4.7570 4.5336 4.3873 4.2838 4.2066 4.1468 4.0990 4.0599 4.0274 3.9999 3.9763 3.9559 3.9380 3.9222 3.9082 3.8957 3.8844 3.8741 3.8081 3.7742 3.7536 3.7397 3.7298 3.7223 3.7164 3.7117
df2 7 5.5914 4.7374 4.3468 4.1203 3.9715 3.8659 3.7870 3.7257 3.6766 3.6365 3.6030 3.5746 3.5503 3.5292 3.5107 3.4944 3.4798 3.4668 3.4551 3.4445 3.3758 3.3404 3.3188 3.3043 3.2938 3.2859 3.2798 3.2748
8 5.3176 4.4589 4.0661 3.8378 3.6874 3.5805 3.5004 3.4381 3.3881 3.3471 3.3129 3.2839 3.2590 3.2373 3.2184 3.2016 3.1867 3.1733 3.1612 3.1503 3.0794 3.0427 3.0203 3.0053 2.9944 2.9862 2.9798 2.9746
9 5.1173 4.2564 3.8625 3.6330 3.4816 3.3737 3.2927 3.2295 3.1788 3.1372 3.1024 3.0729 3.0475 3.0254 3.0061 2.9889 2.9736 2.9600 2.9476 2.9364 2.8636 2.8259 2.8028 2.7872 2.7760 2.7675 2.7608 2.7555
10 4.9646 4.1028 3.7082 3.4780 3.3258 3.2171 3.1354 3.0716 3.0203 2.9782 2.9429 2.9129 2.8871 2.8647 2.8450 2.8275 2.8120 2.7980 2.7854 2.7740 2.6995 2.6608 2.6371 2.6210 2.6095 2.6007 2.5939 2.5884
11 4.8443 3.9822 3.5874 3.3566 3.2038 3.0946 3.0123 2.9479 2.8962 2.8536 2.8179 2.7875 2.7614 2.7386 2.7186 2.7009 2.6850 2.6709 2.6580 2.6464 2.5704 2.5309 2.5065 2.4901 2.4782 2.4692 2.4622 2.4565
12 4.7472 3.8852 3.4902 3.2591 3.1058 2.9961 2.9133 2.8485 2.7963 2.7533 2.7173 2.6866 2.6601 2.6371 2.6168 2.5988 2.5828 2.5684 2.5554 2.5435 2.4662 2.4258 2.4010 2.3841 2.3719 2.3627 2.3555 2.3497
13 4.6671 3.8055 3.4105 3.1791 3.0254 2.9152 2.8320 2.7669 2.7143 2.6710 2.6346 2.6036 2.5769 2.5536 2.5331 2.5149 2.4986 2.4840 2.4708 2.4588 2.3803 2.3391 2.3138 2.2965 2.2841 2.2747 2.2673 2.2613
14 4.6001 3.7388 3.3438 3.1122 2.9582 2.8477 2.7641 2.6986 2.6457 2.6021 2.5654 2.5342 2.5072 2.4837 2.4630 2.4446 2.4281 2.4134 2.4000 2.3878 2.3082 2.2663 2.2405 2.2229 2.2102 2.2006 2.1930 2.1869
B. Tabellenanhang
df1 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 30 40 50 60 70 80 90 100
469
470
Tabelle B.5. (1 − α)-Quantile fdf1 ,df2 ;1−α der F -Verteilung f¨ ur α = 0.05. df1 in den Zeilen, df2 in den Spalten 15 4.5430 3.6823 3.2873 3.0555 2.9012 2.7904 2.7066 2.6407 2.5876 2.5437 2.5068 2.4753 2.4481 2.4243 2.4034 2.3848 2.3682 2.3533 2.3398 2.3275 2.2467 2.2042 2.1779 2.1601 2.1471 2.1373 2.1296 2.1234
16 4.4939 3.6337 3.2388 3.0069 2.8524 2.7413 2.6571 2.5910 2.5376 2.4935 2.4563 2.4246 2.3972 2.3733 2.3522 2.3334 2.3167 2.3016 2.2879 2.2755 2.1938 2.1507 2.1239 2.1058 2.0926 2.0826 2.0747 2.0684
17 4.4513 3.5915 3.1967 2.9647 2.8099 2.6986 2.6142 2.5479 2.4942 2.4499 2.4125 2.3806 2.3530 2.3289 2.3076 2.2887 2.2718 2.2566 2.2428 2.2303 2.1477 2.1039 2.0768 2.0584 2.0450 2.0348 2.0268 2.0204
18 4.4138 3.5545 3.1599 2.9277 2.7728 2.6613 2.5767 2.5101 2.4562 2.4117 2.3741 2.3420 2.3143 2.2900 2.2686 2.2495 2.2325 2.2171 2.2032 2.1906 2.1071 2.0628 2.0353 2.0166 2.0030 1.9926 1.9845 1.9780
19 4.3807 3.5218 3.1273 2.8951 2.7400 2.6283 2.5435 2.4767 2.4226 2.3779 2.3402 2.3079 2.2800 2.2556 2.2340 2.2148 2.1977 2.1822 2.1682 2.1554 2.0711 2.0264 1.9985 1.9795 1.9657 1.9552 1.9469 1.9403
20 4.3512 3.4928 3.0983 2.8660 2.7108 2.5989 2.5140 2.4470 2.3928 2.3478 2.3099 2.2775 2.2495 2.2249 2.2032 2.1839 2.1667 2.1511 2.1370 2.1241 2.0390 1.9938 1.9656 1.9463 1.9323 1.9216 1.9133 1.9065
df2 30 4.1708 3.3158 2.9222 2.6896 2.5335 2.4205 2.3343 2.2661 2.2106 2.1645 2.1255 2.0920 2.0629 2.0374 2.0148 1.9946 1.9764 1.9601 1.9452 1.9316 1.8408 1.7917 1.7608 1.7395 1.7239 1.7120 1.7026 1.6950
40 4.0847 3.2317 2.8387 2.6059 2.4494 2.3358 2.2490 2.1801 2.1240 2.0772 2.0375 2.0034 1.9737 1.9476 1.9244 1.9037 1.8851 1.8682 1.8528 1.8388 1.7444 1.6927 1.6600 1.6372 1.6205 1.6076 1.5974 1.5892
50 4.0343 3.1826 2.7900 2.5571 2.4004 2.2864 2.1992 2.1299 2.0733 2.0261 1.9860 1.9515 1.9214 1.8949 1.8713 1.8503 1.8313 1.8141 1.7984 1.7841 1.6871 1.6336 1.5994 1.5756 1.5580 1.5444 1.5336 1.5249
60 4.0011 3.1504 2.7580 2.5252 2.3682 2.2540 2.1665 2.0969 2.0400 1.9925 1.9522 1.9173 1.8870 1.8602 1.8364 1.8151 1.7958 1.7784 1.7625 1.7479 1.6491 1.5942 1.5590 1.5343 1.5160 1.5018 1.4905 1.4813
70 3.9777 3.1276 2.7355 2.5026 2.3455 2.2311 2.1434 2.0736 2.0166 1.9688 1.9282 1.8932 1.8626 1.8356 1.8116 1.7901 1.7707 1.7531 1.7370 1.7223 1.6220 1.5660 1.5299 1.5045 1.4856 1.4710 1.4593 1.4498
80 3.9603 3.1107 2.7187 2.4858 2.3287 2.2141 2.1263 2.0563 1.9991 1.9512 1.9104 1.8752 1.8445 1.8173 1.7932 1.7715 1.7519 1.7342 1.7180 1.7031 1.6017 1.5448 1.5080 1.4821 1.4627 1.4477 1.4357 1.4258
90 3.9468 3.0976 2.7058 2.4729 2.3156 2.2010 2.1130 2.0429 1.9855 1.9375 1.8966 1.8613 1.8304 1.8032 1.7789 1.7571 1.7374 1.7195 1.7032 1.6882 1.5859 1.5283 1.4909 1.4645 1.4447 1.4294 1.4170 1.4069
100 3.9361 3.0872 2.6955 2.4626 2.3053 2.1906 2.1025 2.0323 1.9748 1.9266 1.8856 1.8502 1.8192 1.7919 1.7675 1.7456 1.7258 1.7079 1.6914 1.6764 1.5733 1.5151 1.4772 1.4503 1.4302 1.4146 1.4020 1.3917
B. Tabellenanhang
df1 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 30 40 50 60 70 80 90 100
Tabelle B.6. (1 − α/2)-Quantile fdf1 ,df2 ;1−α/2 der F -Verteilung f¨ ur α = 0.05/2. df1 in den Zeilen, df2 in den Spalten 1 647.78 799.50 864.16 899.58 921.84 937.11 948.21 956.65 963.28 968.62 973.02 976.70 979.83 982.52 984.86 986.91 988.73 990.34 991.79 993.10 1001.4 1005.5 1008.1 1009.8 1011.0 1011.9 1012.6 1013.1
2 38.506 39.000 39.165 39.248 39.298 39.331 39.355 39.373 39.386 39.397 39.407 39.414 39.421 39.426 39.431 39.435 39.439 39.442 39.445 39.447 39.464 39.472 39.477 39.481 39.483 39.485 39.486 39.487
3 17.443 16.044 15.439 15.100 14.884 14.734 14.624 14.539 14.473 14.418 14.374 14.336 14.304 14.276 14.252 14.231 14.212 14.195 14.180 14.167 14.080 14.036 14.009 13.992 13.979 13.969 13.962 13.956
4 12.217 10.649 9.9791 9.6045 9.3644 9.1973 9.0741 8.9795 8.9046 8.8438 8.7935 8.7511 8.7149 8.6837 8.6565 8.6325 8.6113 8.5923 8.5753 8.5599 8.4612 8.4111 8.3807 8.3604 8.3458 8.3348 8.3263 8.3194
5 10.006 8.4336 7.7635 7.3878 7.1463 6.9777 6.8530 6.7571 6.6810 6.6191 6.5678 6.5245 6.4875 6.4556 6.4277 6.4031 6.3813 6.3618 6.3443 6.3285 6.2268 6.1750 6.1436 6.1225 6.1073 6.0960 6.0871 6.0799
6 8.8131 7.2598 6.5987 6.2271 5.9875 5.8197 5.6954 5.5996 5.5234 5.4613 5.4097 5.3662 5.3290 5.2968 5.2686 5.2438 5.2218 5.2021 5.1844 5.1684 5.0652 5.0124 4.9804 4.9588 4.9434 4.9317 4.9226 4.9154
df2 7 8.0726 6.5415 5.8898 5.5225 5.2852 5.1185 4.9949 4.8993 4.8232 4.7611 4.7094 4.6658 4.6284 4.5960 4.5677 4.5428 4.5206 4.5007 4.4829 4.4667 4.3623 4.3088 4.2763 4.2543 4.2386 4.2267 4.2175 4.2100
8 7.5708 6.0594 5.4159 5.0526 4.8172 4.6516 4.5285 4.4332 4.3572 4.2951 4.2434 4.1996 4.1621 4.1296 4.1012 4.0760 4.0537 4.0337 4.0157 3.9994 3.8940 3.8397 3.8067 3.7844 3.7684 3.7563 3.7469 3.7393
9 7.2092 5.7147 5.0781 4.7180 4.4844 4.3197 4.1970 4.1019 4.0259 3.9638 3.9120 3.8682 3.8305 3.7979 3.7693 3.7440 3.7216 3.7014 3.6833 3.6669 3.5604 3.5054 3.4719 3.4493 3.4330 3.4207 3.4111 3.4034
10 6.9367 5.4563 4.8256 4.4683 4.2360 4.0721 3.9498 3.8548 3.7789 3.7167 3.6649 3.6209 3.5831 3.5504 3.5216 3.4962 3.4736 3.4533 3.4351 3.4185 3.3110 3.2553 3.2213 3.1984 3.1818 3.1693 3.1595 3.1517
11 6.7241 5.2558 4.6300 4.2750 4.0439 3.8806 3.7586 3.6638 3.5878 3.5256 3.4736 3.4296 3.3917 3.3588 3.3299 3.3043 3.2816 3.2612 3.2428 3.2261 3.1176 3.0613 3.0268 3.0035 2.9867 2.9740 2.9640 2.9561
12 6.5537 5.0958 4.4741 4.1212 3.8911 3.7282 3.6065 3.5117 3.4358 3.3735 3.3214 3.2772 3.2392 3.2062 3.1772 3.1515 3.1286 3.1081 3.0895 3.0727 2.9632 2.9063 2.8714 2.8477 2.8307 2.8178 2.8077 2.7996
13 6.4142 4.9652 4.3471 3.9958 3.7666 3.6042 3.4826 3.3879 3.3120 3.2496 3.1974 3.1531 3.1150 3.0818 3.0527 3.0269 3.0038 2.9832 2.9645 2.9476 2.8372 2.7796 2.7443 2.7203 2.7030 2.6899 2.6797 2.6714
14 6.2979 4.8566 4.2417 3.8919 3.6634 3.5013 3.3799 3.2852 3.2093 3.1468 3.0945 3.0501 3.0118 2.9785 2.9493 2.9233 2.9002 2.8794 2.8607 2.8436 2.7323 2.6742 2.6384 2.6141 2.5966 2.5833 2.5729 2.5645
B. Tabellenanhang
df1 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 30 40 50 60 70 80 90 100
471
472
Tabelle B.6. (1 − α/2)-Quantile fdf1 ,df2 ;1−α/2 der F -Verteilung f¨ ur α = 0.05/2. df1 in den Zeilen, df2 in den Spalten 15 6.1995 4.7650 4.1528 3.8042 3.5764 3.4146 3.2933 3.1987 3.1227 3.0601 3.0078 2.9632 2.9249 2.8914 2.8620 2.8360 2.8127 2.7919 2.7730 2.7559 2.6437 2.5850 2.5487 2.5242 2.5064 2.4929 2.4824 2.4739
16 6.1151 4.6866 4.0768 3.7294 3.5021 3.3406 3.2194 3.1248 3.0487 2.9861 2.9336 2.8890 2.8505 2.8170 2.7875 2.7613 2.7379 2.7170 2.6980 2.6807 2.5678 2.5085 2.4719 2.4470 2.4290 2.4154 2.4047 2.3961
17 6.0420 4.6188 4.0111 3.6647 3.4379 3.2766 3.1555 3.0609 2.9848 2.9221 2.8696 2.8248 2.7862 2.7526 2.7230 2.6967 2.6733 2.6522 2.6331 2.6157 2.5020 2.4422 2.4052 2.3801 2.3618 2.3480 2.3372 2.3285
18 5.9780 4.5596 3.9538 3.6083 3.3819 3.2209 3.0998 3.0052 2.9291 2.8663 2.8137 2.7688 2.7301 2.6964 2.6667 2.6403 2.6167 2.5955 2.5764 2.5590 2.4445 2.3841 2.3468 2.3214 2.3029 2.2890 2.2780 2.2692
19 5.9216 4.5075 3.9034 3.5587 3.3327 3.1718 3.0508 2.9562 2.8800 2.8172 2.7645 2.7195 2.6807 2.6469 2.6171 2.5906 2.5669 2.5457 2.5264 2.5089 2.3937 2.3329 2.2952 2.2695 2.2509 2.2367 2.2256 2.2167
20 5.8714 4.4612 3.8586 3.5146 3.2890 3.1283 3.0074 2.9127 2.8365 2.7736 2.7208 2.6758 2.6369 2.6029 2.5730 2.5465 2.5227 2.5014 2.4820 2.4644 2.3486 2.2873 2.2492 2.2233 2.2045 2.1902 2.1789 2.1699
df2 30 5.5675 4.1820 3.5893 3.2499 3.0264 2.8666 2.7460 2.6512 2.5746 2.5111 2.4577 2.4120 2.3724 2.3377 2.3071 2.2798 2.2554 2.2333 2.2133 2.1951 2.0739 2.0088 1.9680 1.9400 1.9195 1.9038 1.8915 1.8815
40 5.4239 4.0509 3.4632 3.1261 2.9037 2.7443 2.6237 2.5288 2.4519 2.3881 2.3343 2.2881 2.2481 2.2129 2.1819 2.1541 2.1292 2.1067 2.0863 2.0677 1.9429 1.8751 1.8323 1.8027 1.7810 1.7643 1.7511 1.7405
50 5.3403 3.9749 3.3901 3.0544 2.8326 2.6735 2.5529 2.4579 2.3808 2.3167 2.2626 2.2162 2.1758 2.1404 2.1090 2.0809 2.0557 2.0329 2.0122 1.9932 1.8659 1.7962 1.7519 1.7211 1.6984 1.6809 1.6671 1.6558
60 5.2856 3.9252 3.3425 3.0076 2.7863 2.6273 2.5067 2.4116 2.3344 2.2701 2.2158 2.1691 2.1286 2.0929 2.0613 2.0330 2.0076 1.9845 1.9636 1.9444 1.8152 1.7440 1.6985 1.6667 1.6432 1.6251 1.6107 1.5990
70 5.2470 3.8902 3.3089 2.9747 2.7537 2.5948 2.4742 2.3791 2.3017 2.2373 2.1828 2.1360 2.0953 2.0594 2.0276 1.9992 1.9736 1.9504 1.9292 1.9099 1.7792 1.7068 1.6604 1.6279 1.6037 1.5851 1.5702 1.5581
80 5.2183 3.8643 3.2840 2.9503 2.7295 2.5707 2.4501 2.3549 2.2774 2.2130 2.1584 2.1114 2.0705 2.0345 2.0026 1.9740 1.9483 1.9249 1.9037 1.8842 1.7523 1.6790 1.6318 1.5986 1.5739 1.5548 1.5396 1.5271
90 5.1962 3.8442 3.2648 2.9315 2.7108 2.5521 2.4315 2.3362 2.2587 2.1942 2.1395 2.0924 2.0514 2.0153 1.9833 1.9546 1.9287 1.9053 1.8839 1.8643 1.7314 1.6574 1.6095 1.5758 1.5507 1.5312 1.5156 1.5028
100 5.1785 3.8283 3.2496 2.9165 2.6960 2.5374 2.4168 2.3214 2.2438 2.1792 2.1244 2.0773 2.0362 2.0000 1.9679 1.9391 1.9132 1.8896 1.8682 1.8485 1.7148 1.6401 1.5916 1.5575 1.5320 1.5121 1.4962 1.4832
B. Tabellenanhang
df1 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 30 40 50 60 70 80 90 100
Tabelle B.7. (1 − α)-Quantile fdf1 ,df2 ;1−α der F -Verteilung f¨ ur α = 0.01. df1 in den Zeilen, df2 in den Spalten 1 4052.1 4999.5 5403.3 5624.5 5763.6 5858.9 5928.3 5981.0 6022.4 6055.8 6083.3 6106.3 6125.8 6142.6 6157.3 6170.1 6181.4 6191.5 6200.5 6208.7 6260.6 6286.7 6302.5 6313.0 6320.5 6326.1 6330.5 6334.1
2 98.502 99.000 99.166 99.249 99.299 99.332 99.356 99.374 99.388 99.399 99.408 99.415 99.422 99.427 99.432 99.436 99.440 99.443 99.446 99.449 99.465 99.474 99.479 99.482 99.484 99.486 99.488 99.489
3 34.116 30.816 29.456 28.709 28.237 27.910 27.671 27.489 27.345 27.228 27.132 27.051 26.983 26.923 26.872 26.826 26.786 26.750 26.718 26.689 26.504 26.410 26.354 26.316 26.289 26.268 26.252 26.240
4 21.197 18.000 16.694 15.977 15.521 15.206 14.975 14.798 14.659 14.545 14.452 14.373 14.306 14.248 14.198 14.153 14.114 14.079 14.048 14.019 13.837 13.745 13.689 13.652 13.625 13.605 13.589 13.576
5 16.258 13.273 12.059 11.391 10.967 10.672 10.455 10.289 10.157 10.051 9.9626 9.8882 9.8248 9.7700 9.7222 9.6801 9.6428 9.6095 9.5796 9.5526 9.3793 9.2911 9.2378 9.2020 9.1763 9.1570 9.1419 9.1299
6 13.745 10.924 9.7795 9.1483 8.7458 8.4661 8.2599 8.1016 7.9761 7.8741 7.7895 7.7183 7.6574 7.6048 7.5589 7.5185 7.4827 7.4506 7.4218 7.3958 7.2285 7.1432 7.0914 7.0567 7.0318 7.0130 6.9984 6.9866
df2 7 12.246 9.5465 8.4512 7.8466 7.4604 7.1914 6.9928 6.8400 6.7187 6.6200 6.5381 6.4690 6.4100 6.3589 6.3143 6.2750 6.2400 6.2088 6.1808 6.1554 5.9920 5.9084 5.8576 5.8235 5.7990 5.7806 5.7662 5.7546
8 11.258 8.6491 7.5909 7.0060 6.6318 6.3706 6.1776 6.0288 5.9106 5.8142 5.7342 5.6667 5.6089 5.5588 5.5151 5.4765 5.4422 5.4116 5.3840 5.3590 5.1981 5.1156 5.0653 5.0316 5.0073 4.9890 4.9747 4.9632
9 10.561 8.0215 6.9919 6.4220 6.0569 5.8017 5.6128 5.4671 5.3511 5.2565 5.1778 5.1114 5.0545 5.0052 4.9620 4.9240 4.8901 4.8599 4.8326 4.8079 4.6485 4.5666 4.5167 4.4830 4.4588 4.4406 4.4264 4.4149
10 10.044 7.5594 6.5523 5.9943 5.6363 5.3858 5.2001 5.0566 4.9424 4.8491 4.7715 4.7058 4.6496 4.6008 4.5581 4.5204 4.4869 4.4569 4.4298 4.4053 4.2469 4.1652 4.1154 4.0818 4.0576 4.0394 4.0251 4.0137
11 9.6460 7.2057 6.2167 5.6683 5.3160 5.0692 4.8860 4.7444 4.6315 4.5392 4.4624 4.3974 4.3416 4.2932 4.2508 4.2134 4.1801 4.1502 4.1233 4.0990 3.9411 3.8595 3.8097 3.7760 3.7518 3.7335 3.7192 3.7077
12 9.3302 6.9266 5.9525 5.4119 5.0643 4.8205 4.6395 4.4993 4.3875 4.2960 4.2198 4.1552 4.0998 4.0517 4.0096 3.9723 3.9392 3.9094 3.8827 3.8584 3.7007 3.6191 3.5692 3.5354 3.5111 3.4927 3.4783 3.4668
13 9.0738 6.7009 5.7393 5.2053 4.8616 4.6203 4.4409 4.3020 4.1910 4.1002 4.0245 3.9603 3.9052 3.8573 3.8153 3.7782 3.7451 3.7155 3.6888 3.6646 3.5070 3.4252 3.3751 3.3412 3.3168 3.2983 3.2839 3.2722
14 8.8615 6.5148 5.5638 5.0353 4.6949 4.4558 4.2778 4.1399 4.0296 3.9393 3.8640 3.8001 3.7452 3.6975 3.6556 3.6186 3.5856 3.5561 3.5294 3.5052 3.3475 3.2656 3.2153 3.1812 3.1566 3.1380 3.1235 3.1118
B. Tabellenanhang
df1 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 30 40 50 60 70 80 90 100
473
474
Tabelle B.7. (1 − α)-Quantile fdf1 ,df2 ;1−α der F -Verteilung f¨ ur α = 0.01. df1 in den Zeilen, df2 in den Spalten 15 8.6831 6.3588 5.4169 4.8932 4.5556 4.3182 4.1415 4.0044 3.8947 3.8049 3.7299 3.6662 3.6115 3.5639 3.5221 3.4852 3.4523 3.4227 3.3960 3.3718 3.2141 3.1319 3.0813 3.0471 3.0223 3.0036 2.9890 2.9772
16 8.5309 6.2262 5.2922 4.7725 4.4374 4.2016 4.0259 3.8895 3.7804 3.6909 3.6161 3.5526 3.4980 3.4506 3.4089 3.3720 3.3391 3.3095 3.2829 3.2587 3.1007 3.0182 2.9674 2.9330 2.9081 2.8893 2.8745 2.8626
17 8.3997 6.1121 5.1849 4.6689 4.3359 4.1015 3.9267 3.7909 3.6822 3.5930 3.5185 3.4551 3.4007 3.3533 3.3116 3.2748 3.2419 3.2123 3.1857 3.1615 3.0032 2.9204 2.8694 2.8348 2.8097 2.7907 2.7759 2.7639
18 8.2854 6.0129 5.0918 4.5790 4.2478 4.0146 3.8406 3.7054 3.5970 3.5081 3.4337 3.3706 3.3162 3.2688 3.2272 3.1904 3.1575 3.1280 3.1013 3.0770 2.9185 2.8354 2.7841 2.7493 2.7240 2.7049 2.6899 2.6779
19 8.1849 5.9258 5.0102 4.5002 4.1707 3.9385 3.7652 3.6305 3.5225 3.4338 3.3596 3.2965 3.2422 3.1949 3.1533 3.1164 3.0836 3.0540 3.0273 3.0031 2.8442 2.7607 2.7092 2.6742 2.6488 2.6295 2.6144 2.6023
20 8.0959 5.8489 4.9381 4.4306 4.1026 3.8714 3.6987 3.5644 3.4566 3.3681 3.2941 3.2311 3.1768 3.1295 3.0880 3.0511 3.0182 2.9887 2.9620 2.9377 2.7784 2.6947 2.6429 2.6077 2.5821 2.5627 2.5475 2.5353
df2 30 7.5624 5.3903 4.5097 4.0178 3.6990 3.4734 3.3044 3.1726 3.0665 2.9790 2.9056 2.8430 2.7890 2.7418 2.7001 2.6631 2.6300 2.6002 2.5732 2.5486 2.3859 2.2992 2.2450 2.2078 2.1807 2.1601 2.1438 2.1307
40 7.3140 5.1785 4.3125 3.8282 3.5138 3.2910 3.1237 2.9929 2.8875 2.8005 2.7273 2.6648 2.6107 2.5634 2.5216 2.4844 2.4510 2.4210 2.3937 2.3688 2.2033 2.1142 2.0581 2.0194 1.9910 1.9693 1.9522 1.9383
50 7.1705 5.0566 4.1993 3.7195 3.4076 3.1864 3.0201 2.8900 2.7849 2.6981 2.6250 2.5624 2.5083 2.4608 2.4189 2.3816 2.3480 2.3178 2.2903 2.2652 2.0975 2.0065 1.9489 1.9090 1.8796 1.8571 1.8392 1.8247
60 7.0771 4.9774 4.1258 3.6490 3.3388 3.1186 2.9530 2.8232 2.7184 2.6317 2.5586 2.4961 2.4418 2.3943 2.3522 2.3147 2.2811 2.2506 2.2230 2.1978 2.0284 1.9360 1.8771 1.8362 1.8060 1.7828 1.7643 1.7493
70 7.0113 4.9218 4.0743 3.5996 3.2906 3.0712 2.9060 2.7765 2.6718 2.5852 2.5121 2.4495 2.3952 2.3476 2.3055 2.2679 2.2341 2.2035 2.1757 2.1504 1.9797 1.8861 1.8263 1.7845 1.7536 1.7298 1.7108 1.6953
80 6.9626 4.8807 4.0362 3.5631 3.2550 3.0361 2.8712 2.7419 2.6373 2.5508 2.4777 2.4151 2.3607 2.3131 2.2708 2.2331 2.1992 2.1686 2.1407 2.1152 1.9435 1.8489 1.7883 1.7458 1.7144 1.6900 1.6706 1.6548
90 6.9251 4.8490 4.0069 3.5349 3.2276 3.0091 2.8445 2.7153 2.6108 2.5243 2.4512 2.3886 2.3342 2.2864 2.2441 2.2064 2.1724 2.1417 2.1137 2.0881 1.9155 1.8201 1.7588 1.7158 1.6838 1.6590 1.6393 1.6231
100 6.8953 4.8239 3.9836 3.5126 3.2058 2.9876 2.8232 2.6942 2.5898 2.5033 2.4302 2.3675 2.3131 2.2653 2.2230 2.1851 2.1511 2.1203 2.0922 2.0666 1.8932 1.7971 1.7352 1.6917 1.6593 1.6342 1.6141 1.5976
B. Tabellenanhang
df1 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 30 40 50 60 70 80 90 100
Tabelle B.8. (1 − α/2)-Quantile fdf1 ,df2 ;1−α der F -Verteilung f¨ ur α = 0.01/2. df1 in den Zeilen, df2 in den Spalten 1 16210 19999 21614 22499 23055 23437 23714 23925 24091 24224 24334 24426 24504 24571 24630 24681 24726 24767 24803 24835 25043 25148 25211 25255 25285 25307 25324 25338
2 198.50 199.00 199.16 199.24 199.29 199.33 199.35 199.37 199.38 199.39 199.40 199.41 199.42 199.42 199.43 199.43 199.44 199.44 199.44 199.44 199.46 199.47 199.47 199.48 199.48 199.48 199.48 199.48
3 55.551 49.799 47.467 46.194 45.391 44.838 44.434 44.125 43.882 43.685 43.523 43.387 43.271 43.171 43.084 43.008 42.940 42.880 42.826 42.777 42.465 42.308 42.213 42.149 42.103 42.069 42.042 42.021
4 31.332 26.284 24.259 23.154 22.456 21.974 21.621 21.351 21.139 20.966 20.824 20.704 20.602 20.514 20.438 20.370 20.311 20.258 20.210 20.167 19.891 19.751 19.667 19.610 19.570 19.539 19.515 19.496
5 22.784 18.313 16.529 15.556 14.939 14.513 14.200 13.960 13.771 13.618 13.491 13.384 13.293 13.214 13.146 13.086 13.032 12.984 12.942 12.903 12.655 12.529 12.453 12.402 12.365 12.338 12.316 12.299
6 18.634 14.544 12.916 12.027 11.463 11.073 10.785 10.565 10.391 10.250 10.132 10.034 9.9501 9.8774 9.8139 9.7581 9.7086 9.6644 9.6246 9.5887 9.3582 9.2408 9.1696 9.1219 9.0876 9.0619 9.0418 9.0256
df2 7 16.235 12.403 10.882 10.050 9.5220 9.1553 8.8853 8.6781 8.5138 8.3803 8.2696 8.1764 8.0967 8.0278 7.9677 7.9148 7.8678 7.8258 7.7880 7.7539 7.5344 7.4224 7.3544 7.3087 7.2759 7.2512 7.2319 7.2165
8 14.688 11.042 9.5964 8.8051 8.3017 7.9519 7.6941 7.4959 7.3385 7.2106 7.1044 7.0149 6.9383 6.8721 6.8142 6.7632 6.7180 6.6775 6.6411 6.6082 6.3960 6.2875 6.2215 6.1771 6.1453 6.1212 6.1025 6.0875
9 13.613 10.106 8.7170 7.9558 7.4711 7.1338 6.8849 6.6933 6.5410 6.4171 6.3142 6.2273 6.1530 6.0887 6.0324 5.9828 5.9388 5.8993 5.8639 5.8318 5.6247 5.5185 5.4539 5.4104 5.3791 5.3555 5.3371 5.3223
10 12.826 9.4269 8.0807 7.3428 6.8723 6.5446 6.3024 6.1159 5.9675 5.8466 5.7462 5.6613 5.5886 5.5257 5.4706 5.4220 5.3789 5.3402 5.3054 5.2740 5.0705 4.9659 4.9021 4.8591 4.8282 4.8049 4.7867 4.7721
11 12.226 8.9122 7.6004 6.8808 6.4217 6.1015 5.8647 5.6821 5.5367 5.4182 5.3196 5.2363 5.1649 5.1030 5.0488 5.0010 4.9585 4.9205 4.8862 4.8552 4.6543 4.5508 4.4876 4.4450 4.4143 4.3911 4.3730 4.3585
12 11.754 8.5096 7.2257 6.5211 6.0711 5.7570 5.5245 5.3450 5.2021 5.0854 4.9883 4.9062 4.8358 4.7747 4.7213 4.6741 4.6321 4.5945 4.5606 4.5299 4.3309 4.2281 4.1653 4.1229 4.0923 4.0692 4.0512 4.0367
13 11.373 8.1864 6.9257 6.2334 5.7909 5.4819 5.2529 5.0760 4.9350 4.8199 4.7240 4.6428 4.5732 4.5128 4.4599 4.4132 4.3716 4.3343 4.3007 4.2703 4.0727 3.9704 3.9078 3.8655 3.8350 3.8120 3.7939 3.7795
14 11.060 7.9216 6.6803 5.9984 5.5622 5.2573 5.0313 4.8566 4.7172 4.6033 4.5084 4.4281 4.3591 4.2992 4.2468 4.2004 4.1591 4.1221 4.0887 4.0585 3.8619 3.7599 3.6975 3.6552 3.6247 3.6017 3.5836 3.5692
B. Tabellenanhang
df1 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 30 40 50 60 70 80 90 100
475
476
Tabelle B.8. (1 − α/2)-Quantile fdf1 ,df2 ;1−α der F -Verteilung f¨ ur α = 0.01/2. df1 in den Zeilen, df2 in den Spalten 15 10.798 7.7007 6.4760 5.8029 5.3721 5.0708 4.8472 4.6743 4.5363 4.4235 4.3294 4.2497 4.1813 4.1218 4.0697 4.0237 3.9826 3.9458 3.9126 3.8825 3.6867 3.5849 3.5225 3.4802 3.4497 3.4266 3.4086 3.3940
16 10.575 7.5138 6.3033 5.6378 5.2117 4.9134 4.6920 4.5206 4.3838 4.2718 4.1785 4.0993 4.0313 3.9722 3.9204 3.8746 3.8338 3.7971 3.7641 3.7341 3.5388 3.4372 3.3747 3.3324 3.3018 3.2787 3.2605 3.2460
17 10.384 7.3536 6.1556 5.4966 5.0745 4.7789 4.5593 4.3893 4.2535 4.1423 4.0495 3.9708 3.9032 3.8444 3.7929 3.7472 3.7066 3.6701 3.6371 3.6073 3.4124 3.3107 3.2482 3.2058 3.1751 3.1519 3.1337 3.1191
18 10.218 7.2148 6.0277 5.3746 4.9560 4.6627 4.4447 4.2759 4.1409 4.0304 3.9381 3.8598 3.7925 3.7340 3.6827 3.6372 3.5967 3.5603 3.5274 3.4976 3.3030 3.2013 3.1387 3.0962 3.0654 3.0421 3.0239 3.0092
19 10.072 7.0934 5.9160 5.2680 4.8526 4.5613 4.3448 4.1770 4.0428 3.9328 3.8410 3.7630 3.6960 3.6377 3.5865 3.5412 3.5008 3.4645 3.4317 3.4020 3.2075 3.1057 3.0430 3.0003 2.9695 2.9461 2.9278 2.9130
20 9.9439 6.9864 5.8177 5.1742 4.7615 4.4721 4.2568 4.0899 3.9564 3.8470 3.7555 3.6779 3.6111 3.5530 3.5019 3.4567 3.4164 3.3801 3.3474 3.3177 3.1234 3.0215 2.9586 2.9158 2.8849 2.8614 2.8430 2.8282
df2 30 9.1796 6.3546 5.2387 4.6233 4.2275 3.9492 3.7415 3.5800 3.4504 3.3439 3.2547 3.1787 3.1132 3.0560 3.0057 2.9610 2.9211 2.8851 2.8526 2.8230 2.6277 2.5240 2.4594 2.4151 2.3829 2.3583 2.3390 2.3234
40 8.8278 6.0664 4.9758 4.3737 3.9860 3.7129 3.5088 3.3497 3.2219 3.1167 3.0284 2.9531 2.8880 2.8312 2.7810 2.7365 2.6966 2.6606 2.6280 2.5984 2.4014 2.2958 2.2295 2.1838 2.1504 2.1248 2.1047 2.0884
50 8.6257 5.9016 4.8258 4.2316 3.8486 3.5785 3.3764 3.2188 3.0920 2.9875 2.8996 2.8247 2.7598 2.7031 2.6531 2.6085 2.5686 2.5326 2.4999 2.4701 2.2716 2.1644 2.0967 2.0498 2.0154 1.9890 1.9681 1.9512
60 8.4946 5.7949 4.7289 4.1398 3.7599 3.4918 3.2911 3.1344 3.0082 2.9041 2.8166 2.7418 2.6771 2.6204 2.5704 2.5258 2.4859 2.4498 2.4170 2.3872 2.1874 2.0788 2.0099 1.9621 1.9269 1.8998 1.8783 1.8608
70 8.4026 5.7203 4.6612 4.0758 3.6980 3.4313 3.2315 3.0755 2.9497 2.8459 2.7586 2.6839 2.6193 2.5627 2.5126 2.4681 2.4280 2.3919 2.3591 2.3291 2.1282 2.0186 1.9488 1.9001 1.8642 1.8365 1.8145 1.7965
80 8.3346 5.6652 4.6112 4.0285 3.6523 3.3866 3.1875 3.0320 2.9066 2.8030 2.7158 2.6412 2.5766 2.5200 2.4700 2.4254 2.3853 2.3491 2.3162 2.2862 2.0844 1.9739 1.9033 1.8539 1.8174 1.7892 1.7667 1.7484
90 8.2822 5.6228 4.5728 3.9921 3.6172 3.3523 3.1538 2.9986 2.8734 2.7700 2.6829 2.6084 2.5439 2.4873 2.4372 2.3926 2.3525 2.3162 2.2833 2.2532 2.0507 1.9394 1.8680 1.8181 1.7811 1.7524 1.7296 1.7109
100 8.2406 5.5892 4.5423 3.9633 3.5894 3.3252 3.1271 2.9721 2.8472 2.7439 2.6569 2.5825 2.5179 2.4613 2.4112 2.3666 2.3264 2.2901 2.2571 2.2270 2.0238 1.9119 1.8400 1.7896 1.7521 1.7230 1.6998 1.6808
B. Tabellenanhang
df1 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 30 40 50 60 70 80 90 100
Literatur
Agresti, A. (1990). Categorical Data Analysis, Wiley, New York. Bauer, H. (1991). Wahrscheinlichkeitstheorie, de Gruyter. Blossfeld, H.-P., Hamerle, A. und Mayer, K. U. (1986). Ereignisanalyse, Campus. B¨ uning, H. und Trenkler, G. (1994). Nichtparametrische statistische Methoden, de Gruyter. Cox, D. R. (1972). Regression models and life-tables (with discussion), Journal of the Royal Statistical Society, Series B 34: 187–202. Dalgaard, P. (2002). Introductory Statistics with R, Springer, Berlin. Draper, N. R. und Smith, H. (1966). Applied Regression Analysis, Wiley. Fahrmeir, L., K¨ unstler, R., Pigeot, I. und Tutz, G. (2003). Der Weg zur Datenanalyse, Springer–Verlag. Fisz, M. (1970). Wahrscheinlichkeitsrechnung und Mathematische Statistik, Akademie-Verlag. Glasser, M. (1967). Exponential survival with covariance, Journal of the American Statistical Association 62: 561–568. Gosset, W. S. (1908). The probable error of a mean, Biometrika 6: 1–25. Harris, E. K. und Albert, A. (1991). Survivorship Analysis for Clinical Studies, Dekker. Hollander, M. und Wolfe, D. A. (1973). Nonparametric Statistical Methods, Wiley. Kaplan, E. L. und Meier, P. (1958). Nonparametric estimation from incomplete observations, Journal of the American Statistical Association 53: 457–481. Kreyszig, E. (1979). Statistische Methoden und ihre Anwendungen, Vandenhoeck & Rupprecht. Kruskal, W. H. und Wallis, W. A. (1952). Use of ranks in one-criterion variance analysis, Journal of the American Statistical Association 47: 583–621. Lawless, J. F. (1982). Statistical Models and Methods for Lifetime Data, Wiley, New York. Ligges, U. (2007). Programmieren mit R, Springer, Berlin. Lilliefors, H. W. (1967). On Kolmogorov-Smirnov test for normality with mean and variance unknown, Journal of the American Statistical Association 62: 399–402. Lilliefors, H. W. (1969). On Kolmogorov-Smirnov test for exponential distribution with mean unknown, Journal of the American Statistical Association 64: 387– 389. Menges, G. (1968). Grundriß der Statistik Teil 1: Theorie, Westdeutscher Verlag. Miethke, R. R. (1973). Zahnbreiten und Zahnbreitenkorrelation, Deutsche Zahn¨ arztliche Zeitschrift 28: 1078–1084. Montgomery, D. C. (1976). Design and Analysis of Experiments, Wiley. M¨ uller, P. H. (ed.) (1983). Lexikon der Stochastik, Akademie-Verlag. Petersen, R. G. (1985). Design and Analysis of Experiments, Dekker. Pruscha, H. (1996). Angewandte Methoden der Mathematischen Statistik, Teubner.
478
Literatur
R Development Core Team (2007). R: A Language and Environment for Statistical Computing, R Foundation for Statistical Computing, Vienna, Austria. ISBN 3-900051-07-0. *http://www.R-project.org Rao, C. R. (1995). Was ist Zufall? Statistik und Wahrheit, Prentice Hall. Rao, C. R., Toutenburg, H., Shalabh und Heumann, C. (2008). Linear Models and Generalizations: Least Squares and Alternatives, 3rd Edition, Springer–Verlag. R¨ uger, B. (1988). Induktive Statistik: Einf¨ uhrung f¨ ur Wirtschafts- und Sozialwissenschaftler, Oldenbourg. R¨ uger, B. (1996). Induktive Statistik: Einf¨ uhrung f¨ ur Wirtschafts- und Sozialwissenschaftler, Oldenbourg. R¨ uger, B. (1999). Test- und Sch¨ atztheorie. Band I: Grundlagen, Oldenbourg. R¨ uger, B. (2002). Test- und Sch¨ atztheorie. Band II: Statistische Tests, Oldenbourg. Sachs, L. (1978). Angewandte Statistik, Springer–Verlag. Schlittgen, R. (1993). Einf¨ uhrung in die Statistik: Analyse und Modellierung von Daten, Oldenbourg. Stigler, S. M. (1986). The history of statistics: The measurement of uncertainty before 1900, Harvard University Press. Toutenburg, H. (1992a). Lineare Modelle, Physica. Toutenburg, H. (1992b). Moderne nichtparametrische Verfahren der Risikoanalyse, Physica, Heidelberg. Toutenburg, H. (1994). Versuchsplanung und Modellwahl, Physica. Toutenburg, H. (1995). Experimental Design and Model Choice, Physica. Toutenburg, H. (2002a). Lineare Modelle, Physica. Toutenburg, H. (2002b). Statistical Analysis of Designed Experiments, Springer– Verlag. Toutenburg, H. und Heumann, C. (2006). Deskriptive Statistik. Eine Einf¨ uhrung in Methoden und Anwendungen mit SPSS, Springer, Berlin. Toutenburg, H., Schomaker, M. und Wissmann, M. (2006). Arbeitsbuch zur deskriptiven und induktiven Statistik, Springer, Berlin. Venables, W. N. und Ripley, B. D. (2002). Modern Applied Statistics with S, Springer, Berlin. Vogel, F. (1995). Beschreibende und schließende Statistik, Oldenbourg. Weisberg, S. (1980). Applied Linear Regression, Wiley. Wilks, S. S. (1938). The large-sample distribution of the likelihood ratio for testing composite hypotheses, Annals of Mathematical Statistics 9: 60–62.
Sachverzeichnis
χ2 – Test f¨ ur die Varianz, 135 – Verteilung, 89 χ2 -Unabh¨ angigkeitstest, 270 Ad-hoc-Kriterium, 211 Additionssatz – f¨ ur χ2 -Verteilungen, 89 – f¨ ur beliebige Ereignisse, 18 – f¨ ur Binomialverteilungen, 73 – f¨ ur disjunkte Ereignisse, 17 – f¨ ur Normalverteilungen, 84 – f¨ ur Poissonverteilungen, 78 Annahmebereich, 126 Anpassung, perfekte, 280 Anpassungstests, 163 Ausgabefenster, 329 Auswahl von Elementen – geordnet, 2 – ungeordnet, 2 Baseline–Hazardrate, 299, 301 Baumdiagramm, 24 Bestimmtheitsmaß, 210 – adjustiertes, 212, 216 Bias, 109 Bindungen, 174, 182, 183 Binomialkoeffizient, 5 Binomialtest f¨ ur p, 147 Binomialverteilung, 72 Bonferroni, 242 Chi-Quadrat-Anpassungstest, 164 Cox–Modell, 299, 300 Data Mining, 351 Datenansicht, 328 Datenfenster, 328 DeMorgan, 15 Dichtefunktion, 40 Dispersion, 48 Dummykodierung, 221
Effektkodierung, 222 Effizienz, 110 Einpunktverteilung, 68 Einstichprobenproblem, 129 Elementarereignis, 12 Ereignisraum, 12 Ereignisse – Additionssatz, 17, 18 – disjunkte, 14 – elementare, 12 – komplement¨ are, 12 – Multiplikationssatz, 20 – paarweise disjunkte, 19 – sichere, 12 – unm¨ ogliche, 12 – zuf¨ allige, 12 – zusammengesetzte, 13 Erwartungstreue, 108 – asymptotisch, 110 Erwartungswert, 46 Exakter Test von Fisher, 151 – f¨ ur 2 × 2-Tafeln, 271 Experiment – Laplacesches, 16 – zuf¨ alliges, 11 Exponentialverteilung, 302 Extremwertverteilung, 304 F -Change, 212 F -Test, 137 F -Verteilung, 91 Fakult¨ at, 3 Fehlende Daten, 309 – bin¨ ares Merkmal, 312 – einzelnes Merkmal, 312 – Fehlendmuster, 320 – missing at random, 318 – missing completely at random, 316 – Normalverteilung, 319 – not missing at random, 318 – zwei Merkmale, 319
480
Sachverzeichnis
Fehlendmechanismus, 312 Fehler . Art, 127 . Art, 127 Fehlerquadratsumme, 236 Fisher’s exakter Test, 151 – f¨ ur 2 × 2-Tafeln, 271 Fragestellung – einseitige, 128 – zweiseitige, 128 G¨ utefunktion, 127 Gauss-Markov-Sch¨ atzung, 197 Gauss-Markov-Theorem, 197 Gauss-Test – doppelter, 141 – einfacher, 129 Geometrische Verteilung, 75 Gesetz – der großen Zahlen, 332 Gesetz der großen Zahlen, 96 Gleichverteilung – diskrete, 67 – stetige, 80 Grundraum, 12 H¨ aufigkeit – absolute, 15 – relative, 11, 15 Hazardrate, 289 Homogenit¨ atstest, 169, 177 Hypothese, 126 Hypothesenraum, 125 Informationsverlust, 310 Intervallsch¨ atzung, 107 Kaplan-Meier-Sch¨ atzung, 290 Kolmogorov, 17 Kolmogorov-Smirnov – Anpassungstest, 166 – Zweistichprobentest, 170 Kombinationen, 5 – mit Reihenfolge, 7, 8 – mit Wiederholung, 8 – ohne Reihenfolge, 5, 8 – ohne Wiederholung, 5, 7 Kombinatorik, 1 – Regeln, 9 Komplement¨ arereignis, 12 Konfidenzellipsoid, 209 Konfidenzgrenze, 115 Konfidenzintervalle, 207 Konfidenzmethode, 115
Konfidenzniveau, 115 Konfidenzsch¨ atzung, 107, 116 – f¨ ur μ, 116, 117 – f¨ ur σ 2 , 118 Konsistenz, 110 Kontingenztafel, 263 Kontinuum, 77 Konvergenz – nach Wahrscheinlichkeit, 95 – stochastische, 95 Korrelationskoeffizient, 61, 146 Kovarianz, 59 – Eigenschaften, 60 Kovarianzmatrix, 59 KQ-Sch¨ atzung – bedingte, 213, 253 Kriterien zur Modellwahl, 211 kritischer Bereich, 126 Kruskal-Wallis-Test, 244 kσ-Bereiche, 53 kσ-Regel f¨ ur die Normalverteilung, 86 Laplace-Experiment, 16 Laplace-Wahrscheinlichkeit, 16 Lebensdaueranalyse, 287 Likelihood, 111 Likelihood-Quotient, 202 Lineare Regression, 191 – induktive, 192 – Restriktionen, 201 Log-Rank-Test, 294 Logit, 280 Loglikelihoodfunktion, 111 Loglineares Modell, 280 loglineares Modell f¨ ur den relativen Hazard, 299 Mann-Whitney-U -Test, 172 Mantel-Haenszel, 297 MAR, 318 Matched-Pair Design, 177 Maximum-Likelihood-Prinzip, 110 Maximum-Likelihood-Sch¨ atzung, 110 – f¨ ur μ, 113 – f¨ ur σ 2 , 113 – f¨ ur p, 120 MCAR, 316 McNemar-Test, 153 Mean Square Error, 109 Median, 54 Mengenoperationen, 13 Merkmal – diskretes, 33
Sachverzeichnis – qualitatives, 33 – quantitatives, 33 – stetiges, 33 Missing at random, 318 Missing completely at random, 316 Mittelwertsvergleich – einfacher, 129, 133 – mehrfacher, 229 – zweifacher, 140, 143 Modalwert, 54 Modellierung der Hazardrate, 304 Modellwahl, 212 MSE-Kriterium, 109 Multinomialstichprobenschema, 267 Multinomialverteilung, 78 Multiplikationssatz, 20 M¨ achtigkeit einer Menge, 1 Nichtparametrische Tests, 163 Niveau-α-Test, 127 NMAR, 318 Normalregression, 198 Normalverteilung, 83 – Dichte, 83 – zweidimensionale, 87 Not missing at random, 318 Odds-Ratio, 276 Operationscharakteristik, 127 p-value, 129 Parameterraum, 108 Permutationen, 2 – mit Wiederholung, 4 – ohne Wiederholung, 2 Poissonstichprobenschema, 266 Poissonverteilung, 77 Produktmultinomialstichprobenschema, 268 Proportional–Hazard–Modell von Cox, 299 proportionaler Hazard, 299 Pr¨ ufen – der Korrelation, 145 – der Regression, 204 – linearer Hypothesen, 199 Prufen – der Rangkorrelation, 182 Punktsch¨ atzung, 107 Quantil, 54 Quartil, 54 R, 351
481
chi2 -Test, 372 Analyse von Kontingenztafeln, 381 Analyse von Lebensdauern, 381 Ein-Stichproben t-Test, 363 Einlesen von Daten, 362 exakter Binomialtest, 369 exakter Test von Fisher, 372 F-Test f¨ ur die Varianz, 367 Grafiken, 354 Grundaufbau, 351 Installation, 351 Kaplan–Meier Sch¨ atzung, 382 Kategorisierung von Variablen, 371 Kolmogorov–Smirnov Tests, 374 Korrelationstests, 368 Kruskal–Wallis Test, 380 Lineare Regression, 376 Log–Rank Test, 383 Modellierung von Ursache– Wirkungsbeziehungen, 376 – Nichtparametrische Tests, 374 – nichtparametrischer Korrelationstest, 376 – Paired t-Test, 367 – Praktische Beispiele, 358 – Programmiersprache, 353 – Simulation des zentralen Grenzwertsatzes, 360 – Statsistische Tests, 362 – Test vonMcNemar, 373 – Tests auf Binomialwahrscheinlichkeiten, 369 – Varianzanalyse, 380 – Verteilungen, 358 – Wilcoxon–Tests, 375 – Zeichnen von Funktionen, 357 – Zufallszahlen, 358 – Zwei-Stichproben t-Test, 365 – zweifaktorielle Varianzanalyse, 381 R Project, 351 Randdichte, 58 Randverteilung, 56, 58 Rangkorrelationskoeffizient, 182 Rangvarianzanalyse, 244 Rechenregeln – f¨ ur den Erwartungswert, 46 – f¨ ur die Varianz, 48 – f¨ ur Verteilungsfunktionen, 36 – f¨ ur Wahrscheinlichkeiten, 19 Referenzkategorie, 221 Regeln der Kombinatorik, 9 Regressionsanalyse, 191 relativer Hazard, 299 – – – – – – – – – – – – – – – – – – –
482
Sachverzeichnis
Risikofunktion, 197 Satz – Bayes, 21 – Bernoulli, 97 – Cochran, 272 – Gauss-Markov, 197 – Student, 91 – totale Wahrscheinlichkeit, 21 Sch¨ atzfolge, 110 Sch¨ atzung, 108 – beste lineare erwartungstreue, 196 – Gauss-Markov, 197 – Maximum-Likelihood, 110 Signifikanzniveau, 127 Signifikanztest, 126 SPSS, 327 SQRegression , 236 SQResidual , 236 SQT otal , 236 Standardabweichung, 48 Standardisierte Zufallsvariable, 50 Standardnormalverteilung, 83 Standardverteilungen, 67 Sterbetafelmethode, 289 Stichprobe, 107 – als Zufallsgr¨ oße, 108 – i.i.d., 108 – konkrete, 108 Stichprobenvarianz, 114 – gepoolte, 141 Streuungszerlegung, 236 Student-Verteilung, 90 Survivorfunktion, 289, 294 Syntaxfenster, 330 t-Test – doppelter, 141 – einfacher, 133 – paired, 143 t-Verteilung, 90 Tafel der Varianzanalyse, 240 Test – U -Test, 172 – χ2 -Test f¨ ur die Varianz, 135 – Binomialtest, 147, 150 – doppelter t-Test, 141 – doppelter Gauss-Test, 141 – einfacher t-Test, 133 – einfacher Gauss-Test, 129 – exakter Test von Fisher, 151, 271 – F -Test, 137 – gleichm¨ aßig bester, 128
– Kolmogorov-SmirnovAnpassungstest, 166 – Kolmogorov-Smirnov-Test im Zweistichprobenproblem, 170 – Kruskal-Wallis-Test, 244 – Log-Rank, 294 – Mann-Whitney-Test, 172 – multipler, 242 – paired t-Test, 143 Testentscheidung, 126 Testgr¨ oße, 126 Testtheorie, 125 Tr¨ ager einer Verteilung, 38 Treppenfunktion, 38 ¨ Uberlebenswahrscheinlichkeit, 288 UMVU-Sch¨ atzung, 110 Unabh¨ angigkeit, 25 – in Kontingenztafeln, 265 – normalverteilter Variablen, 88 – paarweise, 26 – stochastische, 25 – von diskreten Zufallsvariablen, 45 – von stetigen Zufallsvariablen, 59 – von Zufallsvariablen, 45 Unabh¨ angigkeitsmodell, 255 Ungleichung – Bonferroni, 242 – Tschebyschev, 51 Unverf¨ alschtheit, 128 Ursache-Wirkungsbeziehung, 191 Variable – diskrete, 33 – qualitative, 33 – quantitative, 33 – stetige, 33 Variablenansicht, 329 Varianz, 48 – Additionssatz, 49, 60 – Rechenregeln, 48 – Verschiebungssatz, 49 Varianzanalyse – einfaktorielle, 230 – Modell mit festen Effekten, 229 – Modell mit zuf¨ alligen Effekten, 230 – zweifaktorielle, 248 Versuchsplan, 229 – balanziert, 231 – unbalanziert, 231 – vollst¨ andig randomisierter, 232 Verteilung – gemeinsame, 56
Sachverzeichnis – unimodale, 55 Verteilungsfunktion, 35 Verweildauer, 287, 288 Vierfeldertafel, 275 vollst¨ andige Zerlegung, 14 vollst¨ andiges System, 14 Vorzeichen-Test, 178 Wahrscheinlichkeit – a-posteriori, 21 – a-priori, 21 – bedingte, 20 – nach Laplace, 16 Wahrscheinlichkeitsfunktion, 38, 55 Wahrscheinlichkeitsrechnung – Axiomensystem, 17 – Rechenregeln, 19 Wartezeit, 81 Weibull–Verteilung, 303 Welch-Test, 143 Wilcoxon-Test, 180 Wilks G2 , 271
zentraler Grenzwertsatz, 97, 333 Zerlegung – vollst¨ andige, 14 – von G2 , 272 Ziehen – mit Zur¨ ucklegen, 73 – ohne Zur¨ ucklegen, 70 zuf¨ alliges – Ereignis, 12 – Experiment, 11 Zufallsintervall, 115 Zufallsvariablen – diskrete, 37 – stetige, 37 – zweidimensionale, 55 Zufallsvektor, 58 Zufallszahlen, 331 Zustandsraum, 33 Zweipunktverteilung, 68 Zweistichprobenproblem, 129, 137
483