Prognoserechnung
Peter Mertens · Susanne Rässler Herausgeber
Prognoserechnung Sechste, völlig neu bearbeitete und erweiterte Auflage
Mit Beiträgen von S. Albers, C. Becker, Y. Chen, M. Deistler, J. Falk, M. Frölich, J. Große-Wilde, G. Greve, M. Grottke, K. Hansen, W. Härdle, M. Helm, P. Janetzke, W. Krämer, U. Küsters, H. Langen †, M. Lechner, H. Lejmi, G. Matt, P. Mertens, K. Neusser, N. Niederhübner, A. Nowack, S. Rässler, H. Schneeberger, M. Schröder, R. Schuhr, R. Schulz, R. Stäglin, H. Steiger, W. Trux, F. Weinthaler, R. Wildner, K. Wolf, A. J. Zeller
Physica-Verlag Ein Unternehmen von Springer
Professor Dr. Dr. h.c. mult. Peter Mertens Universität Erlangen-Nürnberg Bereich Wirtschaftsinformatik I Lange Gasse 20 90403 Nürnberg E-mail:
[email protected] PD Dr. Susanne Rässler Institut für Arbeitsmarkt- und Berufsforschung (IAB) Kompetenzzentrum für empirische Methoden Regensburger Straße 104 90478 Nürnberg E-mail:
[email protected]
Mit 124 Abbildungen und 58 Tabellen
ISBN 3-7908-0216-6
Physica-Verlag Heidelberg
ISBN 3-7908-0758-3 5. Auflage Physica-Verlag Heidelberg
Bibliografische Information Der Deutschen Bibliothek Die Deutsche Bibliothek verzeichnet diese Publikation in der Deutschen Nationalbibliografie; detaillierte bibliografische Daten sind im Internet über http://dnb.ddb.de abrufbar. Dieses Werk ist urheberrechtlich geschützt. Die dadurch begründeten Rechte, insbesondere die der Übersetzung, des Nachdrucks, des Vortrags, der Entnahme von Abbildungen und Tabellen, der Funksendung, der Mikroverfilmung oder der Vervielfältigung auf anderen Wegen und der Speicherung in Datenverarbeitungsanlagen, bleiben, auch bei nur auszugsweiser Verwertung, vorbehalten. Eine Vervielfältigung dieses Werkes oder von Teilen dieses Werkes ist auch im Einzelfall nur in den Grenzen der gesetzlichen Bestimmungen des Urheberrechtsgesetzes der Bundesrepublik Deutschland vom 9. September 1965 in der jeweils geltenden Fassung zulässig. Sie ist grundsätzlich vergütungspflichtig. Zuwiderhandlungen unterliegen den Strafbestimmungen des Urheberrechtsgesetzes. Physica-Verlag ist ein Unternehmen von Springer Science+Business Media springer.de © Physica-Verlag Heidelberg 1981, 1994, 2005 Printed in Germany Die Wiedergabe von Gebrauchsnamen, Handelsnamen,Warenbezeichnungen usw. in diesem Werk berechtigt auch ohne besondere Kennzeichnung nicht zu der Annahme, dass solche Namen im Sinne der Warenzeichen- und Markenschutz-Gesetzgebung als frei zu betrachten wären und daher von jedermann benutzt werden dürften. Umschlaggestaltung: Erich Kirchner Herstellung: Helmut Petri Druck: betz-druck SPIN 10998236
88/3130 – 5 4 3 2 1 0 – Gedruckt auf säurefreiem Papier
Vorwort zur sechsten Auflage Seit Erscheinen der funften Auflage ist eine Reihe von interessanten Entwicklungen eingetreten: 1.
Prognosen haben sich vor allem auf dem Weg uber Standardsoftware („ERP-Systeme") weiter ihren Weg in die Praxis der betrieblichen Dispositions- und Planungssysteme gebahnt.
2.
Aus der Unternehmenspraxis resultieren neue Herausforderungen. Z. B. versucht man im Bereich „Business Intelligence", Marktforschungsdaten mit Ergebnissen der Datenmustererkennung („Data Mining") und mit Prognoserechnungsverfahren zu verknupfen („Predictive Analytics"). Lieferkettenmanagement (Supply Chain Management) hat das interessante Konzept des „Collaborative Planning, Forecasting and Replenishment" (CPFR) hervorgebracht.
3.
Die Prognosetheorie ist vor allem im Grenzgebiet zwischen Betriebswirtschaft, Volkswirtschaft, Informatik (Kunstliche Intelligenz), Operations Research, Statistik und Wirtschaftsinformatik, namentlich im US-amerikanischen Raum, beachtlich weiterentwickelt worden. Charakteristisch ist das Journal of Forecasting mit seinen vielen und facettenreichen Aufsatzen.
4.
Auch im deutschsprachigem Raum werden zunehmend Prognosen nachgefragt, die auf „weichen Daten" (etwa Personencharakteristika aus Kundendatenbanken Oder Umfragen) basieren, also nicht „harten" Daten, die aus einem Produktionsoder Dispositionsprozess stammen. Der damit verbundenen zusatzlichen Unsicherheit versuchen die beschriebenen Verfahren Rechnung zu tragen.
Nach wie vor existieren zwei Welten: Auf der einen Seite aus der Praxis heraus entstandene pragmatische Heuristiken, auf der anderen Seite eine hoch entwickelte und mathematisch-statistisch wohl fundierte Theorie. Nicht uberall ist der Graben zwischen den beiden „Welten" schon gut gefullt. Daher haben wir in diesem Buch beiden Kategorien Raum gegeben. Mit der sechsten Auflage werden neuere Entwicklungen und Anwendungsgebiete der Vorhersagemethodik berucksichtigt, was sich in einer Umstrukturierung des Buches niederschlagt: Wir haben es in zwei Teile gegliedert, wobei sich der erste Teil (Kapitel 1 bis 19) den methodischen Grundlagen der Prognoserechnung in ihren vielen Facetten widmet, der zweite Teil (Kapitel 20 bis 26) spezielle Anwendungsfelder zum Gegenstand hat. Einige Beitrage fokussieren auf die Entwicklung der Prognoserechnung fur Massendaten im betrieblichen Bereich. Fast alle Aufsatze sind wesentlich uberarbeitet und den in den letzten Jahren gewonnenen Erkenntnissen angeglichen worden. Zehn Kapitel (von nunmehr 26) sind neu hinzugekommen respektive von neuen Autoren vollig uberarbeitet oder neu erarbeitet worden. Unserer Meinung nach gilt fur den betrieblichen und die verwandten Bereiche durchaus der Satz „Forecasting is a mixture of science, art, and luck". Wenigen erstaunlich treffsicheren Vorhersagen, wie z. B. dem Moore'schen Gesetz (die Dichte von Halbleiterspeichern und die Verarbeitungsgeschwindigkeit von Prozessoren wachsen alle 18 Monate auf das Doppelte) stehen viele „Flops" gegenuber. So aulierte Charles Duell
VI
Vorwort zur sechsten Auflage
vom US-Patentamt 1899: „Alles was erfunden werden kann, ist bereits erfunden worden." Der Vater der Gebruder Wright glaubte noch 1903, dass Menschen niemals fliegen werden. Ein Pressesprecher von Daimler-Benz auUerte sich am Anfang des 20. Jahrhunderts dahin, dass es in Europa nie mehr als 1.000 Autos geben werde, well nicht mehr Chauffeure verfugbar waren. Bill Gates, der Grunder von Microsoft, schatzte 1981, dass 640 KB Hauptspeicher pro PC genug sein werden (er selbst hat zur „Zerstorung" dieser Prognose maUgeblich beigetragen). Ferner bleibt der vielfach zitierte Ausspruch des Statistikers George E.P. Box anzufugen, der sinngemali sagte: „Alle Modelle sind falsch, aber einige sind hilfreich". Wir sollten uns also bescheiden. Die in diesem Buch vorgestellten Prognoserechnungs-Algorithmen haben groStenteils den Zweck, Massenprognosen zu rationalisieren oder uberhaupt erst zu ermoglichen und damit die teilautomatischen oder automatischen Dispositionen in Vertrieb, Materialwirtschaft, Produktion, Logistik, Finanzwirtschaft und in anderen Funktionsbereichen bzw. bei anderen Prozessen zu verbessern. Bei der Herausgabe der Neuauflage haben uns Frau Waltraut Ruck und vor allem Frau Marga Stein in aufopferungsvoller Weise unterstutzt. Wir sind den beiden zu groRem Dank verpflichtet. Die folgenden Damen und Herren haben bei den redaktionellen Arbeiten geholfen: Mag. rer. soc. oec. Irene Walther, Dipl.-Biol. Elmar Dolgener, Dipl.Kfm. Jorn Grolie-Wilde, Dr. Marco Meyer, Dipl.-Wirtsch.-lnf. Jochen Speyerer, Dipl.Ing. Martin Stolilein, Dipl.-Volkswirt Andrew Zeller und Dipl.-Kfm. Thomas Zeller. Auch ihnen gebuhrt Dank! Unseren Autoren mussten wir manche Konzession abringen, um eine gewisse Einheitlichkeit im vorliegenden Sammelband zu gewahrleisten. Wir danken alien fur ihr Verstandnis und ihr Entgegenkommen.
Nurnberg, im August 2004
Peter Mertens und Susanne Rassler
Inhaltsverzeichnis re/7 /; Allgemeine 1
2
Prognosemethoden
Prognoserechnung - Einfiihrung und Uberblick von Peter Mertens und Susanne Rassler 1.1 Zur Bedeutung der Prognoserechnung 1.2 Uberblick 1.3 Voraussetzungen beim Leser 1.4 Literatur Einfuhrung in die kurzfristige Zeitreihenprognose und Vergieich der einzeinen Verfahren von Michael Schroder 2.1 Uberblick 2.2 Allgemeine Uberlegungen 2.2.1 Anforderungen an Verfahren fur kurzfristige Prognoserechnungssysteme 2.2.2 Datenauswahl und -analyse 2.2.2.1 Datenquellen 2.2.2.2 Datenanalyse 2.2.3 Prognoseintervall und Vorhersagezeitraum 2.3 Modelle zur Abbildung von Zeitreihen 2.3.1 Graphische Ubersicht uber die Moglichkeiten zur Modellbildung 2.3.2 Mathematische Beschreibung der wichtigsten Modelle 2.3.2.1 Konstantes Modell 2.3.2.2 Lineares Modell 2.3.2.3 Modelle hoherer Ordnung 2.3.2.4 Trigonometrische Modelle 2.4 Methoden zur Abschatzung der Modellkoeffizienten 2.4.1 Gbersicht 2.4.2 Methoden fur das konstante Modell 2.4.2.1 Gleitende Durchschnitte erster Ordnung 2.4.2.2 Gewogene gleitende Durchschnitte 2.4.2.3 Exponentiell gewogene Durchschnitte (exponentielles Glatten erster Ordnung) 2.4.2.3.1 Ubergang von gleitenden Durchschnitten zum exponentiellen Glatten 2.4.2.3.2 Prinzip des exponentiellen Glattens 2.4.2.3.3 Bestimmung des Glattungsfaktors 2.4.2.3.4 Reaktion auf plotzliche Veranderungen 2.4.2.3.4.1 Reaktion auf einen Impuls 2.4.2.3.4.2 Reaktion auf eine Niveauanderung 2.4.2.3.5 Bedeutung und Vorteile des exponentiellen Glattens 2.4.3 Methoden zur Abschatzung der beiden Koeffizienten im linearen Modell mit Trend 2.4.3.1 Exponentielles Glatten mit Trendkorrektur 2.4.3.2 Exponentielles Glatten zweiter Ordnung (nach Brown) 2.4.3.2.1 Verwendung von Glattungswerten erster und zweiter Ordnung 2.4.3.2.2 Direkte Fortschreibung der Modellkoeffizienten
1 1 2 5 5 7 7 7 7 8 9 9 10 11 11 13 13 13 14 14 14 14 15 16 18 18 18 20 21 24 24 25 26 28 28 29 29 31
VIII
Inhaltsverzeichnis
2.4.3.2.3 Vergleich zwischen exponentiellem Glatten mit Trendkorrektur und exponentiellem Glatten zweiter Ordnung (nach Brown) 2.4.3.3 Zwei-Parameter-Modell nach Holt 2.4.3.4 Zwei-Parameter-Modell mit gedampftem Trend 2.4.3.5 Drei-Parameter-Modell mit Fehlerdifferenzausdruck 2.5 Moglichkeiten und Grenzen der Zeitreihenextrapolation 2.6 Literatur
34 34 35 36 36 37
3
Einfuhrung in die Prognose saisonaler Zeitreihen mithilfe exponentieller Glattungstechniken und Vergleich der Verfahren von Winters und Harrison 39 von Roland Schuhr 3.1 Einleitung 39 3.2 Das Holt-Winters-Verfahren 40 3.2.1 Das Prognoseproblem und die Prognosefunktionen des Verfahrens 40 3.2.2 Rekursive Berechnung der Prognosefunktionskoeffizienten 41 3.2.3 Implementierung des Verfahrens 44 3.2.4 Bin numerisches Beispiel 47 3.2.5 Modifikationen des Basisansatzes 47 3.3 Das SEATREND-Verfahren von Harrison 50 3.3.1 Berechnung der Niveau- und der Trendwerte 50 3.3.2 Berechnung der Saisonfaktoren 51 3.3.2.1 Fourier-Polynom-Darstellung und Fourier-Glattung von Saisonfaktoren 51 3.3.2.2 Rekursive Berechnung geglatteter Saisonfaktoren 52 3.3.3 Implementierung des Verfahrens 55 3.3.4 Ein numerisches Beispiel 56 3.4 Verfahrensvergleich und Ausblick 56 3.5 Literatur 58
4
Prognose bei unregelmaRigem Bedarf von Arthur Nowack 4.1 Abgrenzung zwischen regelmaBigem und unregelmaBigem bzw. sporadischem Bedarf 4.1.1 Kennzeichen des „regelma(iigen Bedarfs" 4.1.2 Festlegung des „sporadischen Bedarfs" im IMPACT-Verfahren 4.2 Vorhersage bei unregelmaBigem Bedarf - Verfahren von Trux 4.2.1 Begriff „unregelmaSiger Bedarf" 4.2.2 Vorhersage der Anzahl von Bestellungen 4.2.3 Vorhersage der Menge je Bestellung 4.3 Das Modell zur Vorhersage fur sporadische Nachfragemengen von Wedekind 4.3.1 Begriffsbestimmung „sporadische Nachfrage" 4.3.2 Das Vorhersagemodell 4.4 Ein „dynamisches" Vorhersagemodell zur Prognose bei unregelmaUigem Bedarf 4.4.1 Analyse der Probleme der bisher dargestellten Verfahren 4.4.1.1 Verlust der Information uber den Zeitpunkt der Nachfrage 4.4.1.2 Kumulation des Bedarfs zu Bedarf je Intervall 4.4.1.3 Verspatete Reaktion auf Anderung der Nachfragestruktur
61
61 61 61 62 62 63 63 64 64 65 67 67 67 67 68
Inhaltsverzeichnis
5
6
7
IX
4.4.1.4 Nicht steuerbare Genauigkeit der Vorhersage 4.4.2 Grundaufbau bisheriger Systeme 4.4.3 Grundidee der dynamischen Vorhersage 4.4.4 Beschreibung des Verfahrens der dynamischen Vorhersage 4.4.4.1 Einteilung des Bedarfs in Klassen mit konstantem Bedarf 4.4.4.2 Vorgabe von Vorhersagewerten fur die Nachfrageintervalle 4.4.4.3 Feststellen von signifikanten Veranderungen 4.4.4.4 Berechnung des aktuellen Wertes je Interval! 4.4.5 Fortschreibung der Zeitverteilung der in Klassen eingeteilten Nachfrage 4.4.6 Merkmale des Verfahrens 4.4.6.1 Wahlbare Genauigkeit 4.4.6.2 Aktualitat der gespeicherten Werte 4.4.6.3 Schnelles Anpassen an Strukturveranderungen 4.5 Literatur
68 68 69 70 70 70 70 71 72 72 72 72 72 72
Ein gemischt deterministisch-stochastisches Prognoseverfahren von Walter Trux 5.1 Prinzip der gemischt deterministisch-stochastischen Prognoseverfahren 5.2 Beispiel einer gemischt deterministisch-stochastischen Prognose 5.3 Kritische Wurdigung 5.4 Literatur
73
Prognose mithilfe von Verweilzeitverteilungen von Heinz Langen und Fritz Weinthaler 6.1 Die Grundgedanken des Verfahrens 6.2 Die analytische Vorstufe der Prognose 6.2.1 Die Strukturanalyse 6.2.2 Die Analyse der Ubergangsgesetzmaliigkeiten 6.2.2.1 Wesen und Begriff der Verweilzeitverteilung 6.2.2.2 Die Arten von VenA/eilzeitverteilungen 6.2.2.2.1 Mengenverteilungen 6.2.2.2.2 Wertverteilungen 6.2.2.2.3 Einfache Verteilungen 6.2.2.2.4 Komplexe Verteilungen 6.2.2.3 Die Ermittlung von VenA/eilzeitverteilungen 6.2.2.4 Die Aufbereitung von VenA/eilzeitverteilungen 6.3 Die Prognose 6.3.1 Prognose mit einfacher VenA/eilzeitverteilung 6.3.2 Prognose mit komplexer Verweilzeitverteilung 6.3.2.1 Im Produktionsbereich 6.3.2.2 Im Investitionsbereich 6.4 Schlussbetrachtung 6.5 Literatur Punkt-, Intervallprognose und Test auf Strukturbruch mithilfe der Regressionsanalyse von Hans Schneeberger 7.1 Einleitung 7.2 Prognose im Fall einfacher linearer Regression
73 73 76 76 77 77 77 78 78 79 80 80 81 81 81 82 82 83 83 84 84 88 89 89 91 91 91
Inhaltsverzeichnis
8
9
7.2.1 Punkt- und Intervallprognose 7.2.2 Strukturbruch der Regressionsgeraden 7.3 Prognose im Fall multipler (k-dimensionaler) linearer Regression 7.3.1 Punkt-und Intervallprognose 7.3.2 Strukturbruch der Regressionshyperebenen 7.4 Nichtlineare Regression 7.5 Literatur
91 96 98 98 102 104 104
Prognose mit Paneldaten von Susanne Rassler und Katja Wolf 8.1 Einleitung 8.2 Lineare Modellspezifikationen fur Paneldaten 8.3 Schatzverfahren und ihre Eigenschaften 8.4 Moglichkeiten zur Prognose 8.5 AbschlieBende Bemerkungen 8.6 Literatur
105
Prognose mit nichtparametrischen Verfahren von Ying Chen, Wolfgang Hardle und Rainer Schuiz 9.1 Einleitung 9.2 Nichtparametrische Verfahren 9.2.1 Einfuhrung 9.2.2 Lokal gewichtete lineare Regression 9.2.3 Prognose 9.3 Anwendung auf Volatilitaten 9.4 Literatur
10 Adaptive EinflussgroRenkombination (AEK) - Prognosen mit schrittweiser Regression und adaptivem Gewichten von Gunter Matt 10.1 Einleitung und Uberblick 10.2 Beschreibung des Verfahrens der adaptiven Einflussgrolienkombination 10.3 Vergleich der adaptiven EinflussgroSenkombination mit anderen Vorhersageverfahren 10.3.1 Vergleich von AEK, Winters, HOREST, NP1, NP2 und Disponentenprognosen 10.3.2 Vergleiche mit weiteren Prognoseverfahren 10.4 Beispiele fur den praktischen Einsatz des Verfahrens der adaptiven EinflussgrolJenkombination 10.5 Literatur 11 Mittel- und langfristige Absatzprognose auf der Basis von Sattigungsmodeilen von Peter Mertens und Jurgen Falk 11.1 Einleitung 11.2 Systematik und grober Uberblick 11.3 Grundmodelle 11.3.1 Vorbemerkung und Uberblick 11.3.2 Das logistische Modell
105 105 108 110 111 112 113 113 113 113 116 119 120 124 125 125 129 136 138 145 151 162 169 169 170 171 171 172
Inhaltsverzeichnis
XI
11.3.2.1 Der Modellansatz 11.3.2.2 Analyse von Modelleigenschaften 11.3.2.3 Zur Kritik des logistischen Ansatzes 11.3.3 Das exponentielle Modell 11.3.4 Das Bass-Modell 11.3.5 Das Gompertz-Modell 11.4 Flexible Modelle 11.4.1 Vorbemerkung und Uberblick 11.4.2 Generalisierte logistische Funktionen 11.4.3 Eine verallgemeinerte exponentielle Funktion 11.4.4 Das generalisierte Bass-Modell von Easingwood, Mahajan und Muller und verwandte Ansatze 11.5 EnA/eiterte Modelle fur Erstkaufe 11.5.1 Vorbemerkung und Uberblick 11.5.2 EnA/eiterungen des logistischen Modells 11.5.3 Das Modell von Weblus 11.5.4 Das Modell von Bonus 11.5.5 Eine EnA/eiterung des Modells von Bonus und das Modell der Einkommensklassen von Lewandowski 11.5.6 Die Modelle von Roos und von Szeliski sowie vonKlaassen und Koyck 11.5.7 EnA/eiterungen des Bass-Modells 11.6 Modelle mit Komponenten fur Wiederholungskaufe 11.6.1 Problematik und Uberblick 11.6.2 Das Modell von Olson und Choi und venA/andte Verfahren 11.6.3 Das Modell von Parfitt und Collins und verwandte Verfahren 11.7 Entscheidungsunterstutzung uber Testmarkte 11.8 Verwendungsbreite und Vergleich 11.9 Schlussbemerkung und Ausblick 11.10 Literatur 12 Indikatorprognosen von Norbert Niederhubner 12.1 Einfuhrung 12.2 Ablauf des Indikatorverfahrens 12.3 Methoden der Lag-Bestimmung 12.4 Prognoseverfahren 12.4.1 Regressionsanalyse 12.4.2 Multivariate ARIMA-Modelle 12.4.3 Kombinierte Prognosen 12.5 Validierung der Prognosen 12.6 Ein Beispiel 12.7 Literatur 13 Lineare Filter und integrierte autoregressive Prozesse von Klaus Hansen 13.1 Einleitung 13.2 Lineare Filter 13.2.1 Differenzenfilter 13.2.2 Exponentiell glattende Filter
172 174 176 177 178 179 181 181 182 183 184 185 185 185 187 188 190 190 191 192 192 193 195 198 200 200 201 205 205 205 206 207 207 208 209 210 211 213 215
.
215 215 217 219
XII
Inhaltsverzeichnis
13.2.3 Der Wiener-Filter 13.3 Integrierte autoregressive Moving-Average-Prozesse 13.3.1 Stationare Prozesse 13.3.2 Instationare Prozesse 13.3.3 Die Modellidentifikation 13.4 Anwendungen 13.4.1 Eine ARIMA(p,d,q)-Prognose 13.4.1.1 Modellidentifikation 13.4.1.2 Prognose 13.4.1.3 Modelluberprufung 13.4.2 Eine ARIMA(p,d,q)(sp,sd,sq)S-Prognose 13.4.2.1 Modellidentifikation 13.4.2.2 Prognose 13.4.2.3 Modelluberprufung 13.5 Ex post Prognose mithilfe von ARIMA-lnterventionsanalysen 13.5.1 ARIMA-lnterventionsmodelle 13.5.2 Anwendung 13.5.2.1 Modellidentifikation 13.5.2.2 Prognose 13.5.2.3 Modelluberprufung 13.5.2.4 Interpretation der Werte der Koeffizienten der Dummy-Variablen 13.6 Literatur 14 Prognose uni- und multivariater Zeitreihen von Manfred Deistler und Klaus Neusser 14.1 Einfuhrung 14.2 Die Theorie der linearen Kleinst-Quadrate-Prognose 14.3 Die Prognose aus unendlicher Vergangenheit 14.4 AR- und ARMA-Prozesse 14.5 Die Schatzung der Pradiktoren fur ARMA-Systeme 14.6 ARMAX-Modelle und bedingte Prognose 14.7 Die Prognose gesamtwirtschaftlicher GroBen 14.8 Absatzprognose 14.9 Literatur 15 Die Input-Output-Rechnung als Hilfsmittel der Prognose von Reiner Staglin 15.1 Einleitung 15.2 Input-Output-Tabellen als Informationssystem fur die Prognose 15.2.1 Symmetrische Input-Output-Tabelle als Datensystem 15.2.2 Deskriptive Auswertung der symmetrischen Input-Output-Tabelle 15.2.2.1 Output-Koeffizienten 15.2.2.2 Input-Koeffizienten 15.2.2.3 Triangulation 15.3 Input-Output-Analyse als Hilfsmittel der Prognose 15.3.1 Input-Output-Modell 15.3.1.1 Das traditionelle Modell 15.3.1.2 Das enA/eiterte Modell 15.3.1.3 Das dynamische Modell
219 221 221 223 223 225 225 225 226 226 229 229 229 229 232 232 233 234 234 234 235 237 239 239 240 242 244 247 250 252 255 258 261 261 262 262 263 263 264 265 266 266 266 267 268
Inhaltsverzeichnis 15.3.2 ModellmaRige Auswertung der symmetrischen Input-Output-Tabelle 15.3.2.1 Inverse Koeffizienten 15.3.2.2 Berechnung unternehmensbezogener Produktionseffekte 15.3.2.3 Zusammenhang zwischen letzter Verwendung und Bruttoproduktion 15.3.2.3.1 Diagnostische Bedeutung 15.3.2.3.2 Prognostische Bedeutung 15.3.3 Transformation der Input-Output-Ergebnisse in BeschaftigungsgroRen 15.4 Input-Output-Auswertungsprogramme 15.5 Literatur 16 Prognose mithilfe von Markovprozessen von Klaus Hansen 16.1 Einfuhrung 16.2 Regulare Markovprozesse 16.2.1 Definition und grundlegende Merkmale 16.2.2 Modellbildung des regularen Prozesses mithilfe der erzeugenden Funktion 16.2.3 Anwendungen 16.2.3.1 Prognose von Marktanteil und Absatzmengen 16.2.3.2 Prognose einer Lagerbestandsbewegung 16.3 Absorbierende Markovprozesse 16.3.1 Definition und grundlegende Merkmale 16.3.2 Modellbildung des absorbierenden Prozesses mithilfe der erzeugenden Funktion 16.3.3 Anwendungen 16.4 Periodische Markovprozesse 16.4.1 Definition und grundlegende Merkmale 16.4.2 Modellbildung des zyklischen Prozesses mithilfe der erzeugenden Funktion 16.4.3 Anwendungen 16.5 Bewertete Markovprozesse 16.5.1 Definition und grundlegende Merkmale 16.5.2 Anwendungen 16.6 Fazit 16.7 Literatur 17 Der Beitrag der Kunstlichen Intelligenz zur betrieblichen Prognose von Philipp Janetzke und Jurgen Falk 17.1 Einleitung 17.2 Expertensysteme 17.2.1 Prognosespezifischer Aufbau 17.2.2 Wissensreprasentation 17.2.3 Wissensverarbeitung 17.2.4 Einsatz wissensbasierter Prognosesysteme 17.2.4.1 Expertensysteme mit mathematisch-statistischen Methoden 17.2.4.1.1 Nicht integrierte Auswahlsysteme 17.2.4.1.2 Integrierte Auswahlsysteme 17.2.4.2 Expertensysteme mit empirischen Methoden 17.2.4.3 Vorteile des Einsatzes von Expertensystemen
XIII 269 269 270 272 272 273 275 275 276 279 279 281 281 284 286 287 289 291 291 294 295 296 296 297 299 299 299 300 303 303 305 305 305 305 306 307 308 308 308 309 310 311
XIV
Inhaltsverzeichnis
17.3 Kunstliche Neuronale Netze 17.3.1 Motivation fur den Prognoseeinsatz 17.3.2 Prognose mit Multilayerperceptrons 17.3.2.1 Topologie 17.3.2.2 Anwendung 17.3.2.2.1 Ereignisprognose 17.3.2.2.2 Zeitverlaufsprognose 17.3.3 Prognose mit selbstorganisierenden Karten 17.3.3.1 Topologie 17.3.3.2 Anwendung 17.3.4 Prognose mit Boltzmannmaschinen 17.3.4.1 Topologie 17.3.4.2 Anwendung 17.3.5 Weiterfuhrende Netzwerkmodelle 17.3.6 Aspekte der betrieblichen VenA^endung von Kunstlichen Neuronalen Netzen als Prognoseverfahren 17.3.7 Weiterfuhrende Einsatzgebiete von Kunstlichen Neuronalen Netzen in der Prognose 17.4 Vergleich der vorgestellten Prognosemodelle 17.4.1 Vergleiche der Prognosemodelle der Kunstlichen Intelligenz untereinander 17.4.1.1 Expertensysteme mit Kunstlichen Neuronalen Netzen 17.4.1.2 Kunstliche Neuronale Netzmodelle untereinander 17.4.1.3 Kunstliche Neuronale Netze mit Case-Based Reasoning 17.4.2 Vergleiche der Kunstlichen Neuronalen Netze mit mathematischstatistischen Verfahren 17.4.2.1 Kunstliche Neuronale Netze mit Regressionsmethoden 17.4.2.2 Kunstliche Neuronale Netze mit der Diskriminanzanalyse 17.5 Hybridsysteme 17.5.1 Formen von Hybridsystemen 17.5.1.1 Expertensystem in Verbindung mit Kunstlichem Neuronalem Netz 17.5.1.2 EnA/eiterung um Ansatze aus der Genetik 17.5.1.3 Interagierende Kunstliche Neuronale Netze 17.5.2 Anwendungen 17.5.2.1 Expertensystem und Kunstliche Neuronale Netze 17.5.2.2 Kunstliche Neuronale Netze und andere Verfahren 17.6 Ausblick 17.7 Literatur 17.8 Anhang: Tabellarische Ubersicht der im Beitrag erwahnten Systeme 18 Monitoring von Prognosemodellen von Ulrich Kusters und Claudia Becker 18.1 Ubersicht 18.2 AusreiUertypen und ihre Konsequenzen 18.2.1 Ausreiliertypen 18.2.2 Konsequenzen der unzureichenden Berucksichtigung von AusreiBern 18.2.2.1 Auswirkungen auf die Modellschatzung und -identifikation 18.2.2.2 Auswirkungen auf die Prognosefunktion
312 312 312 312 313 313 313 315 315 315 316 316 316 316 317 317 318 318 318 319 319 320 320 321 322 322 322 323 324 324 324 326 326 326 332 335 335 337 337 340 340 341
Inhaltsverzeichnis 18.2.3 Malinahmen zur Berucksichtigung von AusreiSern 18.3 Monitore in exponentiellen Glattungsmodellen 18.3.1 Diagnose additiverAusreilier 18.3.2 Diagnose von Niveauverschiebungen 18.3.3 Kalibration von Schwellenwerten 18.3.4 Verfahren zur Berucksichtigung identifizierter Ausreilier 18.3.5 Probleme der Monitore der exponentiellen Glattung 18.3.6 Monitore in Strukturkomponentenmodelien 18.3.7 Softwarepakete 18.4 Monitore in Box-Jenkins-Modellen 18.4.1 Modelldefinition 18.4.2 Diagnosetechniken 18.4.3 Software-Pakete 18.4.4 Beurteilung 18.5 Schlussbemerkungen 18.6 Literatur 19 Evaluation, Kombination und Auswahl betriebswirtschaftlicher Prognoseverfahren von Ulrich Kusters 19.1 Uberblick 19.2 Evaluation der Prognosegenauigkeit 19.2.1 Grundlagen der Evaluation 19.2.2 Differenzierungsmerkmale von EvaluationsmaSen 19.2.3 Untersuchungsdesigns 19.2.4 PrognoseevaluationsmaSe (Gutemalie) 19.2.4.1 Grundsatzliche Hinweise 19.2.4.2 Evaluationsma(Je ohne Referenz zu einem Benchmark 19.2.4.3 Benchmarkbasierte Vergleichsmalie 19.2.5 Evaluation von Wahrscheinlichkeits- und Ereignisprognosen 19.2.6 Evaluation von Intervallprognosen 19.2.7 Tests auf Prognoseaquivalenz 19.2.8 Evaluation von Dichteprognosen 19.3 Kombination von Prognosen 19.3.1 Grundlegende Verfahren 19.3.2 Kombination durch Varianzminimierung 19.3.3 Kombination durch Regression 19.3.4 Konfidenzintervalle von Prognosekombinationen 19.3.5 Prognosekombination durch RBF 19.3.6 Beziehungen zwischen Kombination, Evaluation, Einschluss (Encompassing) und Effizienz konkurrierender Verfahren 19.3.7 Prognosekombination in der Praxis 19.4 Prognosewettbewerbe 19.4.1 Ziele und Bandbreite der Prognosewettbewerbe 19.4.2 Ausgewahlte Resultate der Wettbewerbe 19.4.3 Kritik an Prognosewettbewerben 19.5 Auswahl von Prognoseverfahren 19.5.1 Grundsatzliche Hinweise
XV 343 344 344 345 348 351 352 353 353 354 354 356 359 359 360 362 367 367 368 368 369 370 374 374 375 378 381 383 383 386 386 386 388 388 388 389 389 390 391 391 391 392 394 394
XVI
Inhaltsverzeichnis
19.5.2 Einflussfaktor Sach- und Aggregationsebene 19.5.3 Einflussfaktor Informationsbasen 19.5.4 Einflussfaktor PrognosegroBen 19.5.5 Einflussfaktor Nutzer-Anforderungen 19.5.6 Einflussfaktor verfugbare Prognosesoftware 19.5.7 Faktische Nutzung von Prognoseverfahren in Unternehmen 19.5.8 Ein grobes Entscheidungsraster 19.6 Schlussbemerkungen 19.7 Literatur
395 395 395 396 396 397 398 398 400
Teil II: Spezielle Prognosemethoden fiir betriebswirtschaftliche und volkswirtschaftliche Anwendungsfelder 20 Modellgestiitzte Marktanteilsprognose auf Basis von Paneldaten von Raimund Wildner 20.1 Problemstellung 20.2 Paneldaten als Grundlage fur Marketing-Mix-Modelle 20.3 Prognosen mit Scanner-Handelspanel-Modellen 20.3.1 Die Datenbasis 20.3.2 Die Modellbildung 20.3.3 Prognosen am Fallbeispiel 20.4 Prognosen mit Scanner-Verbraucherpanel-Modellen 20.4.1 Vorbemerkung 20.4.2 Die Datenbasis 20.4.3 Die Modellierung 20.4.4 Prognosen am Fallbeispiel 20.5 Modellauswahl und Fazit 20.6 Literatur 21 Die Verbindung von Absatzplanung und Prognoserechnung ein Beispiel aus der Praxis von Meinhard Helm 21.1 Die Absatzplanung in der vernetzten Welt 21.2 Die Planungsstrukturen 21.2.1 Die Produktstruktur 21.2.2 Die Systemstruktur 21.2.3 Die Vertriebsstruktur 21.3 Der Planungsablauf 21.4 Die Wahl der Planungsebene 21.5 Methodeneinsatz in der Planung 21.6 Ein Prognosebeispiel 21.6.1 DieZeitreihe 21.6.2 Der Instabilitatsfilter 21.6.3 Der Saisonfilter 21.6.4 Der autoregressive Filter 21.6.5 Das Prognosemodell 21.7 Fazit 21.8 Literatur
405 405 406 408 408 408 410 413 413 414 414 416 417 418
419 419 419 419 420 421 422 423 424 426 426 427 427 427 428 429 430
Inhaltsverzeichnis 22 Kundenwertprognose von Sonke Albers und Goetz Greve 22.1 Einleitung 22.2 Der Begriff Kundenwert 22.3 Ein Model! zur Prognose des Kundenwerts 22.3.1 Das Grundmodell und seine EnA/eiterung 22.3.2 Bestimmung des Deckungsbeitragssatzes 22.3.3 Bestimmung der Umsatzentwicklung uber die Zeit 22.3.4 Bestimmung der Transaktionshaufigkeit 22.3.5 Bestimmung des Referenzwerts 22.3.6 Bestimmung des KalkulationszinsfuBes 22.4 Zusammenfassung 22.5 Literatur 23 Qualitatsvergleiche bei Kreditausfallprognosen von Walter Kramer 23.1 Qualitative versus quantitative Prognosen 23.2 Trennscharfe und Kalibrierung 23.3 Weitere Halbordnungen von Wahrscheinlichkeitsprognosen 23.4 SkalanA/ertige AbweichungsmaUe 23.5 Literatur 24 Beratung mithilfe von statistischen Prognosen. Welches Instrument ist das sinnvollste? von Markus Frolich, Michael Lechner und Heidi Steiger 24.1 Einleitung 24.2 Expertensysteme zur Programmauswahl 24.3 Definition des optimalen Instruments 24.4 Identifikation der individuellen Prognosen 24.5 Schatzung der individuellen Prognosen 24.6 Auswahl der besten MaSnahme 24.7 Praktische Anwendung: Arbeitsmarktiiche MaUnahmen in der Schweiz 24.8 Fazit 24.9 Literatur 25 Prognose von Softwarezuverlassigkeit, Softwareversagensfallen und Softwarefehlern von Michael Grottke 25.1 Einleitung 25.2 Softwarezuverlassigkeitswachstumsmodelle 25.2.1 Markovprozess-Modelle 25.2.2 Ein Semi-Markovprozess-Modell: Littlewood-Verrall-Modell 25.2.3 Nichthomogene Poissonprozess-Modelle 25.2.4 Weitere Ansatze zur Modellvereinheitlichung 25.2.5 Systematisches und nutzungsprofilorientiertes Testen 25.2.6 Evaluierung und Verbesserung der Modellgute 25.3 Weitere Modellklassen 25.3.1 Stichprobenmodelle 25.3.2 Modelle zur Prognose von Software
XVII 431 431 431 432 432 433 434 435 436 437 437 437 439 439 439 441 445 446
449 449 449 450 451 453 454 455 457 457 459 459 460 463 469 471 476 476 477 480 480 483
XVIII
Inhaltsverzeichnis
25.4 AbschlielJende Bemerkung 25.5 Literatur
485 485
26 Kooperative Vorhersage in Unternehmensnetzwerken von Peter Mertens, Andrew J. Zeller, Jorn Grolie-Wilde und Habib Lejmi 26.1 Von der Einzelprognose zur kooperativen Vorhersage 26.2 Der CPFR-Prozess 26.3 Vorhersagemethoden der Standardsoftware 26.4 Herausforderungen 26.4.1 Prognosesituation 26.4.2 Prognoseprozess 26.4.3 Abstimmungsbedarf 26.4.4 Verdichtungsmechanismen 26.4.5 Abgleich der Prognose mit der Produktionsmoglichkeit 26.5 Kritische Wurdigung 26.6 Literatur
489 489 489 490 493 493 494 494 496 497 499 500
Stichwortverzeichnis
503
Autorenverzeichnis Prof. Dr. Sonke Albers Institut fur betriebswirtschaftliche Innovationsforschung, Universitat Kiel Dipl.-Kauffrau Claudia Becker Munchen M.A. Ying Chen Institut fur Statistik und Okonometrie, Humboldt-Universitat zu Berlin Prof. Dr. Manfred Deistler Forschungsgruppe Okonometrie und Systemtheorie, TU Wien Dr. Jurgen Falk fcs fair computer systems GmbH, Nurnberg Dr. Markus Frolich SIAW-HSG, Universitat St. Gallen Dipl.-Kfm. Jorn GroBe-Wilde Bereich Wirtschaftsinformatik I, Universitat Eriangen-Nurnberg Dipl.-Kfm. Goetz Greve Institut fur betriebswirtschaftliche Innovationsforschung, Universitat Kiel Dr. Michael Grottke Lehrstuhl fur Statistik und Okonometrie, Universitat Eriangen-Nurnberg Prof. Dr. Klaus Hansen Institut fur Unternehmensforschung, Universitat Hamburg Prof. Dr. Wolfgang Hardle Institut fur Statistik und Okonometrie, Humboldt-Universitat zu Berlin Dr. Meinhard Helm Weilheim Prof. Dr. Philipp Janetzke Lehrgebiet Wirtschaftsinformatik, FH Weihenstephan Prof. Dr. Walter Kramer Institut fur Wirtschafts- und Sozialstatistik, Universitat Dortmund Prof. Dr. Ulrich Kusters Lehrstuhl fur Statistik und Quantitative Methoden, Katholische Universitat Eichstatt-lngolstadt Prof. Dr. Heinz Langenf zuletzt Abteilung fur Allgemeine Betriebswirtschaftslehre, Wirtschaftsprufung und betriebliche Steuerlehre, Universitat Tubingen
XX
Autorenverzeichnis
Prof. Dr. Michael Lechner SIAW-HSG, Universitat St. Gallen Dr. Habib Lejmi Bereich Wirtschaftsinformatik I, Universitat Eriangen-Nurnberg Dipl.-Math. Gunter Matt Augustdorf Prof. Dr. Dr. h.c. mult. Peter Mertens Bereich Wirtschaftsinformatik I, Universitat Eriangen-Nurnberg Prof. Dr. Klaus Neusser Volkswirtschaftliches Institut, Universitat Bern Dipl.-lnf. Norbert Niederhubner Ammerbuch Dipl.-lng. Dipl.-Wirtsch.-lng. Arthur Nowack Nowack EDV GmbH, Rosenheim PD Dr. Susanne Rassler Institut fur Arbeitsmarkt- und Berufsforschung (lAB), Nurnberg Prof. Dr. Hans Schneeberger Holzkirchen Dr. Michael Schroder Industrieautomationsprojekte, Allhaming PD Dr. Roland Schuhr Institut fur Empirische Wirtschaftsforschung, Universitat Leipzig Dr. Rainer Schuiz University of Aberdeen Business School, Aberdeen Prof. Dr. Reiner Staglin DIW, Berlin Lie. oec. Heidi Steiger SIAW-HSG, Universitat St. Gallen Dr. Walter Trux Erbato GmbH, Munchen Dipl.-Kfm. Fritz Weinthaler Gingen Dr. Raimund Wildner GfKAG, Nurnberg Dr. Katja Wolf Institut fur Arbeitsmarkt- und Berufsforschung (lAB), Nurnberg
Autorenverzeichnis Dipl.-Volkswirt Andrew J. Zeller Bereich Wirtschaftsinformatik I, Universitat Eriangen-Nurnberg
XXI
1
Prognoserechnung - Einfiihrung und Uberblick
von Peter Mertens und Susanne Rassler 1.1
Zur Bedeutung der Prognoserechnung
Der Wunsch des Menschen, in die Zukunft zu schauen, durfte so alt sein wie die Menschheit selbst. Nach dem Aufkommen der elektronischen Rechenanlagen war vor allem durch die populare Literatur der Eindruck erweckt worden, als ob nunmehr ein neuer Weg zur Erfullung dieses uralten Menschheitstraumes gewiesen sei. Charakteristisch hierfur waren Redewendungen wie z. B. „Computer haben vorhergesagt, dass im Jahr 2000 ...". Zunachst trat im Hinblick auf „die exakte Prognose" durch computerunterstutzte Prognoseverfahren eine gewisse Ernuchterung ein. Bekannte Methoden etwa in Verbindung mit Standardprogrammen in den Sektoren Absatz, Lagerhaltung und Finanzierung - haben hier zum Teil zu Enttauschungen gefuhrt. Ungeachtet dessen ist der Trend, anspruchsvollere Modelle zu entwickein, die die realen Gegebenheiten besser erfassen und daher immer genauere Prognosen versprechen, ungebrochen. Der Fortschritt in der Computertechnik, der sich in immer kurzeren Rechenzeiten und einem standig wachsenden Speicherplatzangebot zeigt, hat es uberhaupt erst ermbglicht, solche komplexen Methoden einzusetzen. Nicht jedes Verfahren ist fur jede reale Konstellation geeignet. Aus diesem Grunde enthalten leistungsfahige Prognosesysteme mittlerweile eine groBere Anzahl alternativer Algorithmen. Allerdings erfordern Auswahl und Parametrierung meist mathematische Experten, was in der betrieblichen Praxis zu einem Akzeptanzproblem gefuhrt hat. Mit Werkzeugen aus der so genannten Kunstiichen Intelligenz (Kl) gelingt es, Expertenwissen zu verarbeiten. Somit wird der unerfahrene Benutzer bei der Auswahl vom System beraten und durch den Prognoseprozess „intelligenf gefuhrt. Eine hohere Genauigkeit bei betrieblichen Vorhersagen kann also dadurch erreicht werden, dass Praktiker aufgrund der Kl-Unterstutzung eher geneigt sind, komplexe Methoden einzusetzen. Selbst wenn Prognosesysteme nur in etwa die gleiche Prognosesicherheit bringen wie Vorhersagen menschlicher Sachbearbeiter, resultiert immer noch ein beachtlicher Nutzeffekt, und zwar liegt dieser in der Rationalisierung der Prognose begrundet. Nehmen wir an, es sei der Zukunftsbedarf von 500 Produkten zu ermittein, die in einem industriellen Lager gefuhrt werden. Einem Menschen mag es gelingen, fur einen oder zwei dieser Artikel, die man beliebig herausgreift, eine bessere Vorhersage zu machen als ein Informationsverarbeitungs-System (IV-System), well er eine besonders intensive Datenanalyse anstellt und gewisse Hintergrundinformationen (etwa aus einem Kundengesprach) einbringen kann. Es ist jedoch undenkbar, dass der Sachbearbeiter die gleiche Sorgfalt auf alle 500 Produkte verwendet. Das Computer-Programm behandelt hingegen alle Positionen im Lager mit gleicher Akkuratesse. Damit wird aber klar, dass - bezogen auf das gesamte Lager - die IV-gestutzte besser als die menschliche Prognose ist. Daruber hinaus wird durch rechnerunterstutzte Prognosemodelle menschliche Arbeitszeit eingespart, und es kann im Sinne einer integrierten Informationsverarbeitung vermieden werden, automatische Datenflusse zu unterbrechen, um menschliche Vorhersagen einzuholen [7].
Mertens, Rassler Trotz der Vorteile der Computer-Prognose mag es auch vorkommen, dass fur bestimmte Anwendungsfalle einer menschlichen Vorhersage der Vorzug zu geben ist. Das wird dann der Fall sein, wenn der Aufwand fur Prognosemodell und -software im Verhaltnis zum Nutzen zu hoch ist. Zur Entscheidung, ob ein kompliziertes System, eine menschliche Schatzung oder auch ein sehr einfaches Prognosemodell zur Anwendung kommen soil, mussen die Kosten fur die Vorhersage mit den Ertragen verglichen werden, die durch die Minderung des mit der Qualitat der Prognose verbundenen Risikos entstehen (vgl. hierzu [4]).
1.2
Uberblick
Gegenstand dieser Schrift sind in erster Linie Prognoseverfahren, die in Verbindung mit der IV im betriebswirtschaftlichen Bereich benutzt werden konnen. Es ergeben sich allerdings zahlreiche Verbindungslinien zu Vorhersagemethoden in anderen Disziplinen, insbesondere in den Sozialwissenschaften und in der Volkswirtschaft (vgl. dazu [1]> [5], [6] und [9]), zum Teil auch in den Natur- und den Ingenieurwissenschaften. In der Literatur sind verschiedene Ansatze einer Systematisierung vorzufinden. Zum einen wird in methodischer Hinsicht unterschieden in Verfahren, die auf die einfache Extrapolation von Zeitreihen mithilfe gleitender Durchschnitte zuruckgefuhrt werden konnen, und in Methoden, die sich der Regressionsanalyse bedienen. Eine zweite Systematisierung geht von den in den Prognosemodellen verarbeiteten Einflussgrolien aus. Hier wird danach differenziert, ob als unabhangige Variable nur die Zeit oder auch andere Faktoren, wie z. B. das Einkommenswachstum, verwendet werden. Naturlich uberschneiden sich die genannten Systematisierungen. Auderdem kann man neben den rein mathematisch-statistischen Techniken auch Methoden der Mustererkennung aus dem Bereich der Kl zur Prognoserechnung heranziehen: Kunstliche Neuronale Netze bilden Intelligenz biologischer Systeme nach und eriernen den funktionalen Zusammenhang des zugrunde liegenden Prozesses anhand der Daten selbststandig. Man hat herausgefunden, dass fur bestimmte Netztopologien Aquivalenzen zu mathematisch-statistischen Verfahren bestehen [2]. Je nach Aufbau sind also Neuronale Netze unterschiedlichen Verfahrensklassen (z. B. fur Zeitreihen- oder Ereignisprognosen) zuordenbar. Aus diesen Grunden sowie aufgrund der vielen verschiedenen Anwendungsfelder haben wir bei der Gliederung eine Zweiteilung vorgenommen. Der erste Teil, bestehend aus den Kapitein 1 bis 19, beschaftigt sich eher allgemein mit den methodischen Grundlagen der Prognoserechnung in ihren vielen Facetten, wahrend im zweiten Teil, Kapitel 20 bis 26, Prognosemethoden fur spezifische betriebs- und volkswirtschaftliche Anwendungsfelder diskutiert werden. Wir beginnen mit Verfahren, die die exponentielle Glattung als elementaren Baustein benutzen. Dazu gehort die Einfuhrung von Schroder \n die Behandlung von ZeitreihenModellen ohne Saisonschwankungen. In diesem Beitrag wird der Elementarbaustein „Exponentielles Glatten" relativ grundlich dargestellt, und es wird gezeigt, wie man die exponentielle Glattung als Weiterentwicklung der Verfahren der gleitenden Durchschnitte begreifen kann. Sc/?roc/er vergleicht ferner verschiedene Varianten des „Exponential Smoothing".
Prognoserechnung - Einfuhrung und Uberblick In den folgenden Beitragen werden Verfahren geschildert, die anzuwenden sind, wenn man nicht die Annahme einer mit konstantem oder mit linearem Anstieg behafteten Zeitreihe treffen darf. Schuhr beschreibt die beiden wichtigsten Ansatze zur Zeitreihenprognose bei Saisonschwankungen. Eine andere Besonderheit von Zeitreihen kann sein, dass die Ereignisse in unregelmaBiger Folge eintreffen. A/oi/i/ac/c zeigt Ansatze zur Losung der dabei anfallenden Probleme auf. Bei der Vorhersage von Absatzmengen begegnet man in Industrie und Handel haufig folgender Konstellation: Ein Teil der zu erwartenden Verkaufe ist durch Vorbestellungen bekannt (es handelt sich also um eine deterministische Vorhersage), ein anderer Teil muss geschatzt werden (stochastische Vorhersage). Ein hierfur geeignetes Modell tragt Trux vor. Ein Verfahren, das ursprunglich zur Prognose von Zahlungsstromen und der daraus resultierenden Liquiditatssituation entwickelt wurde, das aber auch Bedeutung fur andere Vorhersageobjekte, wie z. B. Auftragseingange und Ersatzteilbedarfe, hat, diskutieren Langen und Weinthaler in Kapitel 6. Die Folge der Beitrage uber Verfahren, die um die Regressionsanalyse herum gruppiert sind, wird mit einem Aufsatz von Sc/7neeit)erger eingeleitet, der Punkt- und Intervallprognose im klassischen linearen Normalverteilungsmodell und unter Verletzung der ubiichen Annahmen erklart. Rassler und Wolf stellen in ihrem Beitrag statistische Modelle fur die Analyse von Paneldaten vor, Daten also, die sowohl in der Zeit als auch im Querschnitt vorliegen und vielfache weitergehende Analysen eriauben. Die Moglichkeiten und Grenzen der Prognose werden hier kurz eriautert. Chen, Hardle und Schuiz verlassen die klassische parametrische Modellwelt und fuhren nichtparametrische Verfahren ein. Sie eriautern deren grundsatzliche Struktur und veranschaulichen an Beispielen, wie nichtparametrische Verfahren zu Prognosezwecken eingesetzt werden konnen. Matt beschreibt ein Verfahren, das den Gedanken der Regression mit dem einer unterschiedlichen Gewichtung von unterschiedlich alten Vergangenheitseinflussen kombiniert, sich adaptiv verhalt und daruber hinaus noch einige besondere Vorrichtungen zur Gewahrleistung der Rechenokonomie bietet. In dem Aufsatz von Mertens und Falk uber die mittel- und langfristige Absatzprognose auf der Basis von Sattigungsmodellen zeigt sich in besonderem Mafie, wie die Regressionsanalyse sowohl fur die Prognose reiner Zeitreihen als auch fur die Vorhersage von Prozessen, in die daruber hinaus weitere GroBen Eingang finden, benutzt werden kann. Besonders in Konzernen, in denen Beobachtungen der Nachfrage nach unterschiedlichen, aber in einem bestimmten okonomischen Zusammenhang stehenden Erzeugnissen, wie z. B. elektronischen Bauelementen und Fernsehgeraten, moglich sind, ist die Verwendung der Regressionsrechnung und einfacher Indikatormethoden zur Prognose zeitlich verschobener Entwicklungen aus fruher beobachteten Absatzprozessen erwagenswert. Damit beschaftigt sich Niederhubner in seinem Beitrag uber die mittelfristige Prognose mithilfe der Indikatormethode. Der folgende Beitrag von Hansen gibt einen umfangreichen Uberblick uber die Prognose mithilfe linearer Filter und integrierter autoregressiver Modelle. Das von Box und Jenkins entwickelte ARIMA-Verfahren wird vorgestellt, an verschiedenen Anwendungen ohne und mit Saisonschwankungen eriautert und auf Interventionsanalysen ausgedehnt. Der Beitrag von Deistler und Neusser uber die Prognose uni- und multivariater Zeitreihen erweitert die Darstellung von Hansen auf die Struktur- und Schatztheorie von mehrdimensionalen Systemen, wie vektorautoregressiven Modellen und ARMAX-
Mertens, Rassler Prozessen. Diese Verfahren setzen sich zunehmend bei der Analyse und Vorhersage multivariaterZeitreihen durch. Aus dem volkswirtschaftlichen Bereich kommend, beginnen sich Prognosen mithilfe von Input-Output-Tabellen auch in anderen Sektoren Beachtung zu verschaffen. Dem tragt ein Beitrag von Staglin Rechnung. Hansen gibt eine Einfuhrung in die Prognose mit Markovprozessen und stellt fur eine Auswahl ihrer moglichen Erscheinungsformen Beispiele fur Marktanteils- und Absatzprognosen vor. Der Aufsatz vermittelt die analytischen Grundlagen, die man benotigt, um Markovketten bei komplizierteren Bedingungen der Praxis geeignet zu simulieren. Aus dem Bereich der Kl sind mittlerweile verschiedene Experimente und Vorschlage bekannt, wie man Prognosesysteme Jntelligenter" machen kann. Es erscheint einerseits besonders wichtig, dem Benutzer die Auswahl und Parametrierung bei der Vielzahl von anspruchsvollen Prognosemethoden zu erieichtern. Hierfur bieten sich zusatzliche wissensbasierte Komponenten an. Andererseits kann man sich mit Kunstlichen Neuronalen Netzen den oft schwierigen Prozess der Modellbildung ersparen. Derartige Netze eriernen den funktionalen Zusammenhang selbststandig, wenn sie vorher mit genugend Beispieldaten trainiert worden sind. Janetzke und Falk geben einen Uberblick uber die derzeitigen Einsatzmoglichkeiten der Kunstlichen Intelligenz in der betrieblichen Prognose und vergleichen Kl-Methoden mit konventionellen (mathematisch-statistischen) Verfahren. Den Abschluss der Ausfuhrungen des ersten Teils bilden Beitrage von Kusters und Becker uber Moglichkeiten und Grenzen des Monitoring von Prognoseverfahren sowie Liber die Evaluation, Kombination und Auswahl von Prognoseverfahren. Das Vertrauen, das der Benutzer in ein Prognosesystem setzt, ist oft abhangig von den ersten Ergebnissen, und diese werden wiederum sehr stark bestimmt von der ersten Parameterwahl. Da man damit rechnen muss, dass - beispielsweise als Konsequenz einer Strukturveranderung des zu prognostizierenden Prozesses - die Prognosequalitat plotzlich nachlasst, muss in einem IV-System dafur Sorge getragen werden, dass der Mensch automatisch benachrichtigt wird, wenn die Vorhersage-lst-Abweichungen eine Toleranzschwelle uberschreiten. In bestimmten Situationen kann allerdings das System die eigenen Parameter oder gar das ganze Modell selbsttatig der Entwicklung anpassen. Kusters diskutiert im abschlieBenden Beitrag zunachst die Schwierigkeiten, die bei dem Versuch auftreten, uber Vergleiche zu einer Anwendungsempfehlung zu gelangen. Probleme ergeben sich schon aus dem Grunde, dass die Resultate einer quantitativen Gegenuberstellung vom verwendeten Fehlermali abhangig sind. Inhaltlich konzentriert sich dieser Beitrag vor allem auf die fur die Verfahrensauswahl wichtige statistische Evaluation der Prognosegenauigkeit, die Kombination von Prognosen und die Rolle von Prognosewettbewerben. Weiterhin werden auf der Grundlage einer kurzen Darstellung struktureller Merkmale und Anforderungskataloge einige subjektive Hinweise zur Auswahl von Prognoseverfahren gegeben. Der zweite Teil des Buches fokussiert auf Anwendungsfelder. Er beginnt mit dem Beitrag von Wildner, der zur Vorhersage von Marktanteilen auf Basis von Paneldaten einen speziellen Ansatz der nichtlinearen Regression entwickelt, bei dem man verschiedene Marketing-Mix-Variablen in wechselnder Kombination multiplikativ verknupft. Helm zeigt an einem anschaulichen Beispiel des Planungskettenkonzeptes, dass die
Prognoserechnung - Einfuhrung und Uberblick vergleichsweise aufwandigen, aber dafur wirksameren Methoden mittlerweile in der Praxis durchaus eine sinnvolle Verwendung finden konnen. Ziel des Beitrags von Albers und Greve ist es, einen praktikablen Ansatz zur Kundenwertprognose vorzustellen. Durch die Aufteilung der Kundenwertformel in die Elemente Deckungsbeitragssatz, Umsatzfunktion, Transaktionshaufigkeit und Referenzwert wird eine handhabbare Schatzung der einzeinen Elemente des Kundenwerts ermoglicht. Damit zeigen sie einen praktikablen Ansatz auf, der es Unternehmen ermoglicht, Kundenwerte auf der Basis von im Unternehmen vorhandenen Daten oder von relativ einfach zu beschaffenden Informationen zu berechnen. Die folgenden drei Beitrage konzentrieren sich weniger auf die Prognose eines bestimmten Marktanteils, einer Absatzmenge oder eines Kundenwertes, sondern handein trotz vollig unterschiedlicher Anwendungsfelder im Wesentlichen von Wahrscheinlichkeiten des Eintritts interessierender Ereignisse. Kramer resumiert uber Qualitatsvergleiche bei Kreditausfallvorhersagen und kommt zu dem Schluss, dass Wahrscheinlichkeitsprognosen in naher Zukunft zu den haufigsten Wirtschaftsprognosen uberhaupt gehoren werden, insbesondere im Lichte der von „Basel M" auf alle Geschaftsbanken zukommenden Verpflichtung zur Belegung aller vergebenen Kredite mit Ausfallwahrscheinlichkeiten. Die statistische Prognose von Wahrscheinlichkeiten fur den Erfolg von BeschaftigungsmaG»nahmen fur Arbeitslose diskutieren Frolich, Lechner und Steiger am Beispiel eines automatischen Vorschlagssystems, genannt SAPS, in der Schweiz. Grottke gibt schlieSlich einen umfangreichen Uberblick uber Modelle zur Prognose von Softwarezuverlassigkeit, Softwareversagensfallen und Softwarefehlern, wobei er Softwarezuverlassigkeit allgemein als die Wahrscheinlichkeit dafur, dass in einer definierten Umgebung eine Software innerhalb einer bestimmten Nutzungsperiode nicht versagt, begreift. Im Kernpunkt der Arbeit steht allerdings die Entwicklung der Anzahl von beobachteten Versagensfallen, wie sie im Laufe der Integrations- und Testphase einer Softwareentwicklung auftreten. Im letzten Kapitel dieses Buches versuchen Grolie-Wilde, Lejmi, Mertens und Zeller den Stand und die hartesten Herausforderungen beim „Collaborative Planning, Forecasting and Replenishment", kurz CPFR, zusammenzufassen. 1.3
Voraussetzungen beim Leser
Die Beschaftigung mit Verfahren der Prognoserechnung verlangt statistische Kenntnisse. Der Umfang dieses Buches hatte fast verdoppelt werden mussen, wenn man dieses Basiswissen von Grund auf hatte vermittein wollen. In dieser Lage ist folgender Kompromiss gewahit worden: Wir setzen statistisches Wissen in dem Malie voraus, wie es heute ubIichenA/eise im Rahmen des Grundstudiums fur Volkswirte, Betriebswirte, Sozialwissenschaftler, Informatiker, Ingenieure und Naturwissenschaftler vermittelt und gepruft wird. Daruber hinausfuhrende statistische Instrumente werden im Rahmen dieser Schrift naher eriautert. 1.4 [1]
Literatur Armstrong, J.8. (Hrsg.), Principles of Forecasting - A Handbook for Researchers and Practitioners, Dordrecht 2001.
Mertens, Rassler [2]
[3] [4] [5] [6] [7] [8] [9] [10]
Connor, J. und Atlas, L., Recurrent Neural Networks and Time Series Prediction, in: IEEE (Hrsg.), Proceedings of the International Joint Conference on Neural Networks, Vol. 1, Seattle 1991,3.301 ff. Granger, C.W., Forecasting in Business and Economics, 2. Aufl., Boston u.a. 1989. Harris, L., A Decision-Theoretic Approach on Deciding when a Sophisticated Forecasting Technique is Needed, Management Science 13 (1966), S. B-66 ff. Henschel, H., Wirtschaftsprognose, Munchen 1979. Makridakis, S., Wheelwright, S.C. und Hyndman, R.J., Forecasting, Methods and Applications, 3. Aufl., New York 1998. Mertens, P., Integrierte Informationsverarbeitung 1, 14. Aufl., Wiesbaden 2004. Rothschild, K.W., Wirtschaftsprognose - Methoden und Probleme, Berlin u.a. 1969. Theil, H., Economic Forecasts and Policy, 3. Aufl., Amsterdam 1970. Weber, K., Wirtschaftsprognostik, Munchen 1990.
2
Einfiihrung in die kurzfristige Zeitreihenprognose und Vergleich der einzelnen Verfahren
von Michael Schroder 2.1
Uberblick
Zunachst befasst sich Abschnitt 2.2 mit den grundlegenden Fragen, die bei der Konzeption eines Systems der kurzfristigen Zeitreihenprognose beantwortet werden mussen. Neben den Anforderungen werden verschiedene Aspekte behandelt, die bei der Beschaffung und Analyse des Datenmaterials zu beachten sind. Aus dieser Analyse leitet sich die Auswahl von Modellen ab (Abschnitt 2.3), durch die das Verhalten der Zeitreihe abgebildet werden kann. Auf die Schilderung der grundsatzlichen Moglichkeiten zur Modellbildung folgt in Abschnitt 2.4 die Darstellung mathematisch-statistischer Verfahren zur Abschatzung der Koeffizienten des ausgewahlten Modells. Wir beginnen mit einer Ubersicht (Abschnitt 2.4.1) und beschreiben dann in Abschnitt 2.4.2 Methoden, mit denen man den Koeffizienten eines konstanten Modells bestimmen kann. Dabei entwickein wir aus den Verfahren der gleitenden Durchschnitte heraus das Prinzip des exponentiellen Glattens. Im Anschluss daran werden der Einfluss des Glattungsfaktors und die Reaktion des Verfahrens auf Storungen in der Zeitreihe untersucht. Die Methoden, die zur Bestimmung der Modellkoeffizienten in linearen Modellen geeignet sind, werden in Abschnitt 2.4.3 erortert. Das exponentielle Glatten mit Trendkorrektur stellen wir verschiedenen Verfahren des exponentiellen Glattens nach Brown und Holt gegenuber, abschlieUend werden Verfahren beschrieben, die dadurch gekennzeichnet sind, dass sie mehr als einen Glattungsparameter verwenden. 2.2 2.2.1
Allgemeine Uberlegungen Anforderungen an Verfahren fiir kurzfristige Prognoserechnungssysteme
Genauigkeit der Vorhersage. Bei der Forderung nach einer moglichst hohen Genauigkeit der Vorhersage ist zu berucksichtigen, dass zusatzliche Genauigkeit in der Regel mit erhohtem Aufwand verbunden ist. Man hat daher stets diesen erhohten Aufwand mit den Ertragen aus der besseren Prognose zu vergleichen. Letztere konnen in Kostensenkungen bestehen. (Beispiel: Bei genauerer Prognose im Rahmen eines Lagerdispositionssystems konnen die Sicherheitsbestande niedriger gehalten werden.) Der Ertrag kann jedoch auch eine Risikominderung sein, etwa weil durch eine bessere Vorhersage im Rahmen eines Planungsmodells die Gefahr einer Fehlentscheidung geringer ist. Reagibilitat und Stabilitat der Verfahren. Eine vollkommene Ubereinstimmung zwischen Prognosewert und spater tatsachlich beobachtetem Wert kann nur zufalliger Natur sein, da die hier behandelten Vorhersageverfahren lediglich Schatzwerte fur die zu prognostizierende GroUe liefern konnen. In der Regel wird also der Beobachtungswert vom Prognosewert abweichen. Es stellt sich jeweils die Frage, ob diese Abweichung zufalliger Natur oder ob sie das erste Anzeichen dafur ist, dass sich die Zeitreihe in ihrem Verhalten grundlegend geandert hat (ob z. B. ein bisher steigender Trend in einen
8
Schroder
fallenden Trend ubergeht). Im ersten Fall sol! die Methode in der Lage sein, die Abweichung dadurch „herauszuglatten", dass es durch die Verwendung von vielen Vergangenheitsdaten bei der Durchschnittsbildung den Einfluss von zufalligen Abweichungen klein halt. Im zweiten Fall, wenn sich also tatsachlich eine neue Entwicklung der Zeitreihe anbahnt, sollte das Verfahren die alteren Daten moglichst gering gewichten und die Prognose aus den jungsten Daten ableiten, damit die Anpassung an die neue Entwicklung moglichst rasch erfolgt. Es gilt also, einen befriedigenden Kompromiss zwischen Stabilitat bei Zufallsabweichungen und Reagibilitat auf Anderungen im Verhalten der Zeitreihe zu finden. Eingriffsmoglichkeiten in das Verfahren. Es ist bei der Gestaltung eines Prognosesystems zu prufen, ob eine Verbesserung der Vorhersage dadurch erreicht werden kann, dass man den menschlichen Experten mit einbezieht. Diese Vorgehensweise kann aus folgenden Grunden vorteilhaft sein: Der Mensch hat nicht die Moglichkeit, alle Vergangenheitsinformationen zu verarbeiten. Er mag aber eine Reihe von - fur das Prognosesystem „externen" - Informationen besitzen, deren Berucksichtigung zu einer Verbesserung der Vorhersage fuhren kann. Daruber hinaus verfugt der Mensch uber groBe Fahigkeiten, irgendwelche RegelmaSigkeiten oder spezielle Abweichungen zu erkennen (Mustererkennung, pattern recognition). Es kann also die Prognose verbessert werden, wenn der Mensch dazu herangezogen wird, Besonderheiten in der Zeitreihenentwicklung zu interpretieren, und wenn er von sich aus seine speziellen Informationen dem Prognosesystem zur Verfugung stellt. Prognoserechnungssysteme auf der Basis von Vergangenheitsdaten haben eine wesentliche Beschrankung: Sie verzichten darauf, Kausalbeziehungen zu konstruieren, und gehen sozusagen mathematisch-statistisch „vorurteilsfrei" an das Problem heran. Diese Beschrankung kann unter Umstanden ohne Nachteile aufgehoben werden, wenn der Mensch als Informations- und Intelligenztrager eingeschaltet wird. Rechenzeit und Speicherplatzbedarf. Der fur die Anwendung eines Prognoserechnungssystems erforderliche Aufwand an Rechenzeit und Speicherkapazitat wird durch die Anzahl der Elemente, fur die man eine Vorhersage zu treffen hat, durch die Haufigkeit der Vorhersagen und die Methodenbewertung und -auswahl bestimmt. Kurzfristige Vorhersagen werden bei betriebswirtschaftlichen Anwendungen wie beispielsweise Lagerhaltungssystemen in kurzen Zeitabstanden und fur eine groRe Anzahl von Elementen durchgefuhrt. Unter diesen Voraussetzungen mussen selbst bei den heutigen Preis-Leistungs-Verhaltnissen von Rechnern und Datenspeichern entsprechende Anforderungen an die Verfahren gestellt werden. Beispielsweise werden Verfahren so konzipiert, dass sie entweder nicht alle vorhandenen Vergangenheitsinformationen benotigen oder dass sie in der Lage sind, diese in verdichteter Form zu erstellen bzw. zu verarbeiten. 2.2.2
Datenauswahl und -analyse
Bei der Konzeption eines Zeitreihen-Prognosemodells wird man sich zu Beginn der Uberlegungen mit der Frage beschaftigen, welche der verfugbaren Daten zur Bildung der Zeitreihen venA/endet werden sollen. Diese Entscheidung wird nicht nur von der Ak-
Einfuhrung in die kurzfristige Zeitreihenprognose tualitat, Qualitat und Form der verfugbaren Daten beeinflusst, sondern auch von den verschiedenen Geschaftszusammenhangen im Umfeid der Prognoseaufgabe (vgl. dazu[1], S219ff.). 2.2.2.1
Datenquellen
Die Probiematik der Entscheidung, an welcher Stelle des Datenfiusses die Daten zweckmaBig zu erfassen sind, soil am Beispiel der Umsatzprognose dargestellt werden: Wahit man die Zahlungseingange als Basis, so stutzt man sich auf die effektiv eingetroffenen Gegenieistungen, erhalt die Daten jedoch zu einem relativ spaten Zeitpunkt. Entscheidet man sicii fur die Rechnungsausgange, so hat man die Daten um das Zahlungsziel fruher, jedoch sind unter Umstanden Korrekturen fur Gutschriften und Retouren erforderlich. Nimmt man die eintreffenden Kundenauftrage (Bestellungen), so stehen die Daten noch fruher bereit, jedoch kann sich das Problem ergeben, dass ein Teil der Kundenauftrage storniert wird oder aus anderen Grunden nicht zur Auslieferung kommt. Dieses Problem kann noch weiter verfolgt werden: Angenommen, man ist Produzent eines Artikels, der zunachst an einen GroBhandler, von dort an einen Einzelhandler und von dort an den Endverbraucher geliefert wird. Wo setzt man fur welche Prognosezwecke an? Fur den eigenen unmittelbaren Absatz sind nur die Lieferungen an den GroBhandler interessant. Will man die Prognosedaten fur die Produktionsplanung verwenden, so wunscht man moglicherweise Kenntnisse uber die Verkaufe des GroBhandlers an die Einzelhandler oder gar der Einzelhandler an die Kunden. Letztere eilen den Bestellungen des GroShandlers mit einer gewissen Phasenverschiebung voraus; jedoch wird die Prognose schwieriger, weil man nicht weiB, welche Lagerhaltungspolitik die Groli- und Einzelhandler betreiben. Um die Kenntnis von den Verkaufen des Einzelhandels zu eriangen, gibt es verschiedene Hilfsmittel, z. B. Haushaltspanels, die Rucksendung von Garantiekartchen oder Verlosungen, an denen der Kaufer teilnimmt, wenn er Lose einsendet, die dem verkauften Artikel beigefugt waren. (In solchen Fallen stellt sich die Frage, ob diese Malinahmen nicht mehr kosten, als die Verbesserung der Prognose wert ist.) Dieses Beispiel zeigt, dass es sinnvoll und auch notwendig ist, dass sich der Konstrukteur eines Prognosesystems in einem ersten Schritt mit den Geschaftsfallen befasst, die sich im Umfeid der Prognoseaufgabe abspielen. Ahnliche Vorschlage und Beispiele finden sich bei Armstrong ([1], S 219 ff.). 2.2.2.2
Datenanalyse
In einem zweiten Schritt setzt man sich dann im Detail mit den Daten auseinander und wird fur eine groliere Zahl von Perioden die Daten graphisch in Diagrammen darstellen, um allmahlich ein Gefuhl fur deren Schwankungen, Periodizitaten usw. zu erhalten. Die in der Praxis des Wirtschaftslebens verfugbaren Zeitreihen sind oft mit Messfehlern behaftet oder unvollstandig, beides kann zu gravierenden Prognosefehlern fuhren und erfordert eine Bereinigung der Daten vor der Berechnung von Vorhersagewerten. Spezielle Anforderungen stellen auch Zeitreihen, die wiederholt bzw. sporadisch 0-
10
Schroder
Werte enthalten und ein sporadisches Nachfrageverhalten reprasentieren. Armstrong schlagt hier vor, die Messwerte zu verdichten (z. B. zeitlich oder raumlich) oder die 0Werte durch Mittelwerte aus fruheren und spateren Methoden zu ersetzen ([1], S 222 ff.). (In Kapitel 4 dieses Buches werden fur diesen Nachfragetyp geeignete Verfahren beschrieben.) Diese Voruntersuchung des Datenmaterials darf aber nicht dazu verleiten, bereits hier verallgemeinernde Aussagen uber die Zeitreihen abzugeben, da die Gefahr groB ist, dass atypische Datenkonstellationen als typisch angesehen und daraus falsche Schlusse fur die Verfahrensauswahl gezogen werden. Diese Untersuchung hat vielmehr den Zweck, die Auswahl von Verfahren fur eine mathematisch-statistische Datenanalyse zu erieichtern. Im Speziellen geht es darum, zufallige Schwankungen von systematischen zu unterscheiden und die Bildungsgesetze der systematischen Schwankungen festzustellen. 2.2.3
Prognoseintervall und Vorhersagezeitraum
Wir haben oben bereits festgehalten, dass wir uns mit Vorhersageverfahren befassen, die auf der Extrapolation von Zeitserien beruhen. Diese Zeitreihen bestehen aus Beobachtungswerten x^ (r=0,l,2,...,r), die jeweils in gleichen, diskreten Zeitabstanden ermittelt wurden. Es wird nun vorweggenommen, dass nach jeder neu eintreffenden Beobachtung die Vorhersage wiederholt werden soil. Daher ist das Prognoseintervall gleich dem Zeitabstand zwischen zwei Beobachtungen. Unter dem Vorhersagezeitraum wollen wir die Lange der Periode verstehen, fur die wir in die Zukunft vorhersagen. Diese Periode setzt sich aus einem oder mehreren Prognoseintervallen zusammen. Im Folgenden sind einige Faktoren angefuhrt, die bei der Wahl der GroBe von Prognoseintervall und Vorhersagezeitraum zu berucksichtigen sind. (In der Regel wird der Vorhersagezeitraum ein Vielfaches des Prognoseintervalls sein. Brown gibt als Faustregel an, dass das Prognoseintervall etwa 1/4 bis 1/10 des Vorhersagezeitraums sein soil (vgl. [4], S. 43). Fur die Grolie des Prognoseintervalls gilt: 1.
Eine untere Grenze ist dadurch gegeben, dass die Laufzeitpunkte der Prognoseprogramme nicht vor denen jener Programme liegen konnen, welche die Beobachtungswerte fur das Prognoseprogramm beistellen (z. B. liefern Lagerbestandsfuhrungsprogramme Informationen uber die Lagerabgange, die dann wieder die Grundlage fur die Bedarfsprognose sind).
2.
Kurze Prognoseintervalle bzw. haufige Prognosen erfordern einen hohen Datenverarbeitungsaufwand und konnen dazu fuhren, dass das Modell stark auf Zufallsschwankungen reagiert.
3.
Bei grollen Prognoseintervallen hingegen erhoht sich die Gefahr, dass Veranderungen im Verhalten der Zeitreihe nicht rechtzeitig erkannt werden. Dem steht allerdings der Vorteil gegenuber, dass bei einer geringeren Anzahl von Prognosen weniger Planrevisionen durchzufuhren sind.
Einfuhrung in die kurzfristige Zeitreihenprognose
11
Fur die GroBe des Vorhersagezeitraums gilt: 1.
Eine untere Grenze ist durch die Zeitspanne vorgegeben, die zwischen dem Veranlassen einer Aktion aufgrund der Prognose und dem Eintreten des durch sie beabsichtigten Effekts verstreicht. Beispieisweise muss der Vorhersagezeitraum in einem Lagerhaltungssystem zumindest so groS wie die Zeitspanne sein, die zwischen einer Neubestellung und dem Eintreffen des Gutes in dem Lager vergeht.
2.
Nach oben wird die Lange des Vorhersagezeitraums vor allem durch die geforderte Genauigkeit und Zuverlassigkeit des Verfahrens bestimmt, da sich mit zunehmenden Vorhersagezeitraum die Gefahr von Fehlprognosen - z. B. durch eine Trendanderung - erhoht.
2.3
Modelle zur Abbildung von Zeitreihen
Nachdem wir das Verhalten einer Zeitreihe analysiert haben, stehen wir vor der Aufgabe, ihre systematischen Veranderungen uber der Zeit durch ein Modell darzustellen. Gedanklich wollen wir so vorgehen, dass wir die beobachteten Werte als das Ergebnis eines „Prozesses" plus einer nicht vorhersagbaren Zufallsabweichung auffassen. Der Begriff „Prozess" kann hier durchaus in einem physikalischen Sinne verstanden werden; man denke etwa an einen radioaktiven Zerfall oder an die Schwingungen eines Pendels. Zu bestimmten diskreten Zeitabstanden fuhren wir nun eine Messung durch und halten die Werte x^ fest. Bei vielen physikalischen Prozessen ist die zugrunde liegende Gesetzmaliigkeit genau bekannt. Die Daten, mit denen wir zu tun haben, sind ebenfalls das Ergebnis eines Prozesses, den wir aber niemals genau erfassen konnen, da er durch zu viele Faktoren und Interaktionen determiniert ist. Wir sind daher gezwungen, diesen uns unbekannten Prozess durch ein deskriptives Modell darzustellen. Bezuglich der Zufallsabweichungen, die ebenfalls in die Beobachtungswerte eingehen, wird angenommen, dass 1. 2. 3.
der Erwartungswert Null, die Varianz konstant und die Verteilung annahernd normal ist.
Die unbekannten Prozesse werden als deterministische Funktionen der Zeit betrachtet. Die Modelle haben die Aufgabe, diese Prozesse moglichst genau zu beschreiben. Fur die Beobachtungswerte gilt: Xf =P^ +e^(P^ = Prozess, e^ = Zufallsabweichung) Im Folgenden werden nun eine Ubersicht uber die grundsatzlichen Moglichkeiten zur Modellbildung bei der kurzfristigen Zeitreihenprognose gegeben und die wichtigsten Modelle mathematisch dargestellt. 2.3.1
Graphische Ubersicht uber die Moglichkeiten zur Modellbildung
Die Modelle der Gruppe 1 (Abbildung 1) haben gemeinsam, dass sie keine periodische Veranderung uber der Zeit aufweisen.
12
Schroder
Modell
1-A
1-B
1-C
Abb. 1: Modelle fur Zeitreihen ohne Periodizitat ([14], S. 312) Im Modell A wird angenommen, dass der zugrundeliegende Prozess uber der Zeit konstant ist, in Modell B, dass der Prozess eine linear, im Modell C, dass er eine nicht-linear wachsende Funktion der Zeit ist. Dabei stellen die ausgezogenen Linien den Prozess dar, der durch das Modell beschrieben werden soil, wahrend die Abstande der Beobachtungswerte von diesen Linien das Ergebnis der nicht vorhersagbaren Zufallsabweichungen sind. Die Darstellungen in den Abbildungen 2 und 3 sind zwei weitere Modellgruppen, die dadurch entstanden, dass den Modellen der Gruppe 1 zyklische Schwankungen uberlagert wurden.
Modell
2-A
2-B
2-C
Abb. 2: Modelle fur Zeitreihen, bei denen periodische Schwankungen den Grundwert additiv uberlagern ([14], S. 313) In der Modellgruppe 2 sind diese Schwankungen additiv uberlagert, d. h., dass die GroQ>e ihrer Amplituden von der Hohe des Grundwertes unabhangig ist. In der Modellgruppe 3 hingegen sind die Schwankungen multiplikativ uberlagert, so dass die Amplituden zeitabhangig sind.
Modell
3-A
3-B
3-C
Abb. 3: Modell fur Zeitreihen, bei denen periodische Schwankungen den Grundwert multiplikativ uberlagern ([14], S. 314)
Einfuhrung in die kurzfristige Zeitreihenprognose 2.3.2
13
Mathematische Beschreibung derwichtigsten Modelle
Im folgenden werden die wichtigsten Modelle behandelt, die zur Beschreibung der datenerzeugenden Prozesse Verwendung finden (vgl. hierzu [4], S. 57 ff.]). 2.3.2.1
Konstantes Modell
Betrachtet man das Modell 1-A (Abbildung 1), so geht daraus die Annahme hervor, dass der zugrunde liegende Prozess uber der Zeit annahernd konstant ist. Wir verwenden daher zur Beschreibung des Verlaufs ein Modell von der Form P^ = a, wobei a der „wahre" Wert der Konstanten ist, den wir nicht kennen. (Die Gleichung der Geraden, die in Abbildung 1 durch die Punkte gelegt wurde, ist uns nicht bekannt.) Beziehen wir die Zufallsabweichungen {e^) in unsere Uberlegungen mit ein, so konnen wir sagen, dass die Beobachtungswerte x^ Stichproben aus einer bestimmten Verteilung mit dem Mittelwert a sind. Da dieser Mittelwert unbekannt ist, sind wir gezwungen, aus den vorliegenden Vergangenheitsdaten einen Schatzwert zu errechnen. Die Indizierung in diesem Beitrag erfolgt in Aniehnung an Brown [4]. Fur die Zeit als unabhangige Variable wird {t) verwendet (/= 0,1,2,...,r), wobei die Gegenwart den Index T erhalt. Beispielsweise ist Xj, der Beobachtungswert, der in der letzten Beobachtungsperiode eingetroffen ist. Ein Schatzwert, der nach dem Eintreffen von x^^ aus alien oder einer bestimmten Menge A^ Vergangenheitsdaten errechnet wurde, soil durch das Symbol ^ und durch den Index T gekennzeichnet werden. Beispiel: a^. st ein Schatzwert fur den Wert a in einem konstanten Modell (siehe oben), der nach dem Eintreffen von Xj berechnet wurde. Eine Vorhersage, die in der Periode T auf Basis der Schatzwerte a^, ^^,... und so fort abgegeben wird, erhalt ebenfalls das Symbol ^ und den Index T. Zur Kennzeichnung der Periode, fur die die Vorhersage gilt, wird {T + i) venA/endet. Ftihren wir nun eine Prognose fur die Periode (T + i) durch, so bedeutet das, dass wir den Mittelwert der Verteilung in der Periode (T + i) vorhersagen. Die Vorhersagegleichung lautet: Xj^^^ =aj^. Fur ihre Gultigkeit mussen folgende Annahmen zutreffen: 1.
Der den Daten zugrunde liegende Prozess kann durch eine Konstante dargestellt werden.
2.
Diese Konstante (der Koeffizient des Modells) kann man durch eine Mittelwertbildung uber Vergangenheitsdaten abschatzen.
3.
Der Mittelwert der Verteilung kann durch den Wert a^ mit hinreichender Genauigkeit dargestellt werden.
2.3.2.2
Lineares Modell
Gehen wir von dem zweiten Modell in Abbildung 1 aus, so sehen wir, dass die Bedarfsentwicklung einen Trend aufweist, der uber der Zeit konstant ist (gleiche Zuwachs-
14
Schroder
raten). In diesem Fall nehmen wir an, dass sich der zugrunde liegende Prozess durch ein Modell von der Form Pf=a + bt abbilden lasst. Dabei stellt a die durchschnittliche Nachfrage zu dem Zeitpunkt dar, in dem t als Null angenommen wird (relative Zeit). Der Trendwert b gibt die Anderungsrate des ordinalen Wertes innerhalb einer Periode an. Da wiederum die Werte von a und b unbekannt sind, ist eine Schatzung aus den Daten der Vergangenheit notwendig. Diese Schatzung soil nach Ablauf einer bestimmten Periode durch die Werte aj^ und bj^ dargestellt werden. Beachten wir, dass unsere Beobachtungswerte durch die Punktwoike in Abbildung 1 gegeben sind. Die Schatzwerte unterliegen zeitlichen Schwankungen. Die Vorhersagegleichung ist bei einem linearen Modell durch bj^ i gegeben. Dabei ist zu berucksichtigen, dass die Vorhersage nur von der relativen Zeit abhangt, und daher gilt, dass aj^ =aj^_i +^r-i • 2.3.2.3
Modelle hoherer Ordnung
Liegt der Fall vor, dass auch der Trendanstieg uber der Zeit (bzw. innerhalb unseres Beobachtungszeitraums) nicht mehr konstant ist (vgl. Modell 3 in Abbildung 1), so muss dieser Sachverhalt durch eine Erweiterung des Modells wiedergegeben werden, beispielsweise durch P^=a + bt + ct^. Wir sehen daraus, dass wir im Falle eines quadratischen Modells drei Koeffizienten abschatzen mussen. (Allgemein gilt, dass wir bei Verwendung eines Modells ^-ter Ordnung (^ + 1) Koeffizienten zu schatzen haben.) Haben wir z. B. das oben angegebene quadratische Modell zur Darstellung unseres Prozesses ausgewahit, so ist unsere Vorhersage gegeben durch die Gleichung X'T' , 1
Clrp
I O'T' I
\ G'T' I
Ein Verfahren zur Abschatzung der Koeffizienten von Modellen hoherer Ordnung wird z. B. von Box und Jenkins beschrieben ([3]). 2.3.2.4
Trigonometrische Modelle
Viele Zeitreihen in der Praxis weisen periodische Schwankungen auf (Abbildungen 2 und 3). Werden diese im Modell berucksichtigt, so vergroliert sich der erforderliche mathematisch-statistische Aufwand erheblich. Lassen sich die Schwankungen durch Verwendung von Winkelfunktionen darstellen, so gelangt man beispielsweise zu einem Modell von der Form P^ =acos(27rt/l2). Diese Verfahren werden hier nicht naher erortert, sie stehen im Mittelpunkt des in Kapitel 3 dieses Buches enthaltenen Beitrags. 2.4 2.4.1
Methoden zur Abschatzung der Modellkoeffizienten Ubersicht
Nach der Auswahl eines Modells, das in der Lage ist, das Verhalten einer Zeitserie zu beschreiben, benotigen wir Verfahren, um die uns unbekannten Modellkoeffizienten abzuschatzen.
Einfuhrung in die kurzfristige Zeitreihenprognose
15
Eine erste Einteilung dieser Verfahren richtet sich danach, auf welche Modelie sie anwendbarsind. Zur Abschatzung des Koeffizienten im konstanten Modeil kann entweder • •
ein Verfahren der gleitenden Durchschnitte oder Exponentielles Glatten erster Ordnung
verwendet werden (vgl. dazu den folgenden Abschnitt 2.4.2). Mussen wir zwei Koeffizienten in einem linearen Modeil bestimmen, so stehen uns folgende Verfahren zur Verfugung (vgl. dazu Abschnitt 2.4.3) 1. 2. 3. 4. 5.
Exponentielles Exponentielles Exponentielles Exponentielles Exponentielles
Glatten mit Trendkorrektur Glatten zweiter Ordnung nach Brown Glatten zweiter Ordnung nach Holt Glatten zweiter Ordnung mit gedampftem Trend Glatten mit Fehlerdifferenz nach Holt
Als Einleitungskriterium haben wir hier die Ordnung des Polynoms verwendet, mit dessen Hilfe wir den Prozess abbilden wollen. Eine andere Einteilungsmoglichkeit besteht darin, dass man unterscheidet, ob die Vergangenheitsdaten gleich gewichtet bei der Berechnung des Mittelwerts verwendet werden (Regression und einfache gleitende Durchschnitte) oder ob sie mit verschiedenen Gewichten zum Mittelwert beitragen (gewogene gleitende Durchschnitte, alle Verfahren des exponentiellen Glattens). Im letzten Fall berucksichtigt man, dass jungere Daten meist starker fur die zukunftige Entwicklung relevant sind, als dies fur altere Daten gilt. Bei den Verfahren der exponentiellen Glattung kann man schlielilich noch eine Unterscheidung nach der Zahl der verwendeten Glattungsfaktoren treffen. Das Schwergewicht unserer Darstellung werden wir auf Methoden legen, die mit einem Glattungsfaktor auskommen, well diese Verfahren vergleichsweise einfach sind und daher auch am haufigsten benutzt werden. Daneben sind aber auch Algorithmen bekannt, die zwei, drei oder noch mehr Glattungsfaktoren verwenden. In Tabelle 1 ist ein Uberblick uber die Verfahren nach den oben beschriebenen Einteilungskriterien gegeben. 2.4.2
Methoden fiir das konstante Modeil
In diesem Punkt wollen wir uns mit verschiedenen Methoden der Mittelwertbildung befassen, die es uns ermoglichen, sukzessive eine moglichst gute, mit jeder neuen Beobachtung wiederholte Schatzung der Modellkoeffizienten durchzufuhren. Wir gehen davon aus, dass der unseren Daten zugrunde liegende Prozess konstant ist (vgl. Abschnitt 2.3.2.1), also Pt=a, und die beobachteten Werte durch Xf=Pf+e( dargestellt werden konnen. Wir nehmen weiterhin an, dass die e^ Stichproben einer bestimmten Verteilung mit dem Mittelwert 0 und der Varianz c/ sind.
Schroder
16
Gewichtung
Anwendung auf Konstanter Prozess
Verfahren Gleitende Durchschnitte M.Ordnung
X
Exponentielles Glatten 1. Ordnung
X
Linearer Prozess
Polynome hoherer Ordnung
Gleich
Exponentiell
X
Zahl der Glattungsfaktoren 0
X
1
Exponentielles Glatten mit Trendkorrektur
X
X
1
Exponentielles Glatten 2. Ordnung (Brown)
X
X
1
Exponentielles Glatten 1 2. Ordnung (Holt)
X
X
2
Exponentielles Glatten mit gedampftem Trend
X
(X)
X
2
Exponentielles Glatten mit Fehlerdlfferenz (Holt)
X
(X)
X
3
Tab. 1: Ubersicht uber die Verfahren zur Abschatzung der Modellkoeffizienten Da der „wahre" Wert a uns nicht bekannt ist, mussen wir versuchen, aus den vorhandenen Daten x^ einen moglichst guten Schatzwert ctj^ zu berechnen, den wir dann als Prognosewert x^^^^ =aj, verwenden konnen. 2.4.2.1
Gleitende Durchschnitte erster Ordnung
Bei gleitenden Durchschnitten wird aus N Werten x^ ein Mittelwert dadurch gebildet, dass man jeweils die jungste Beobachtung anstatt der altesten in die Berechnung mit einbezieht. Dieser gleitende Durchschnitt kann fur beliebige Perioden t mit der Formel M
Ji^j^ \ J^f\
I •^/^o
•
+ x,t-N+\
N
(1)
berechnet werden. Streng genommen gilt der in T berechnete Mittelwert nur fur die Perioden T-[N-\)I2. Solange aber der Prozess konstant ist, machen wir keinen Fehler, wenn wir diesen Wert als Prognosewert fur die Periode {T + i) verwenden. (Weist die Zeitreihe einen Trend auf, so ist diese Vorgehensweise nicht mehr zulassig.) Hat man nach Eintreffen von x^ einen neuen Mittelwert Mj, aus den Daten x^ {t = T,...J-N + \) berechnet, so wird M^ fur den Schatzwert QJ^ verwendet. Eine Vorhersage fur die Periode {T + i) istdurch Xj^^^ ^a^ gegeben. Rechentechnisch ist es sehr umstandlich, wenn wir in jeder Periode summieren und durch N dividieren mussen. Es ist einfacher, die Berechnung nach der Formel M, =M,_i+(x,-x,_^)/A^
(2)
Einfuhrung in die kurzfristige Zeitreihenprognose
17
durchzufuhren. Wir berechnen also den neuen Mittelwert dadurch, dass wir zu dem der Vorperiode den A^-ten Teil der Differenz aus dem neuen Beobachtungswert x^ und dem Wert x^_^ addieren. Setzen wir (x^-jc^_^) = J^ und 1/A^ = A:, so erhalten wir M^=M^_^+k'd^
(3)
Zur Berechnung benotigen wir den Mittelwert der Vorperiode und die Beobachtungen Xf bis x^_^.
Vorteile dieser Methode: Sie erfullt das Optimalitatskriterium einer Minimierung der Abstandsquadrate zwischen Modell- und Beobachtungswerten (zum Beweis vgl. Abschnitt 2.4.3.1) und liefert unter den Annahmen (vgl. Abschnitt 2.3.2.1), dass 1.
der Prozess durch eine Konstante darstellbar ist,
2.
diese durch einen Mittelwert uber Vergangenheitsdaten abgeschatzt werden kann und
3.
der Mittelwert der Verteilung im Vorhersagezeitraum (/ Perioden) durch den Schatzwert aj^ mit hinreichender Genauigkeit reprasentiert wird,
gute Vorhersagen. Nachteile dieser Methode: 1.
Die obigen Annahmen sind fur viele Zeitserien in der Praxis nicht zutreffend.
2.
Der Aufwand fur die Speicherung und Verarbeitung der Vergangenheitsdaten nimmt mit steigender Zahl von Prognoseobjekten und grolieren N stark zu.
3.
Tritt der Fall ein, dass sich a (beispielsweise durch Anderung der Marktsituation) von a^ auf ^2 andert, dann dauert es genau A^ Perioden, bis die neuen Schatzwerte fur eine Vorhersage brauchbar sind. Das heilit aber, dass wir streng genommen diese A^ Perioden lang keine Vorhersage machen konnen.
4.
Wird aus diesem Grund A^ verkleinert, so besteht die Gefahr, dass Zufallsschwankungen zu stark in die Vorhersagen eingehen.
5.
Durch den konstanten Faktor l/N = k wird alien Daten das gleiche Gewicht zugeordnet. Hingegen ist die Annahme plausibel, dass die Daten der jungsten Vergangenheit die Entwicklung besser reprasentieren als die alteren Daten und daher eine unterschiedliche Gewichtung zur Verbesserung der Prognose beitragen kann.
Wir wollen diese Nachteile in Form von Anforderungen an ein besser geeignetes Verfahren zusammenfassen: 1.
Die Vergangenheitsentwicklung muss durch eine moglichst geringe Anzahl von Informationen dargestellt werden konnen.
2.
Es muss die Moglichkeit vorhanden sein, mit geringem Aufwand die Reaktionszeit (rate of response) des Systems zu andern.
18
Schroder
3.
Auch bei trendahnlichen Tendenzen soil das Verfahren in der Lage sein, sich diesen anzupassen.
4.
Die Vergangenheitsdaten sollen nicht gleich, sondern proportional zu ihrer Relevanz fur die zukunftige Entwicklung gewichtet werden.
2.4.2.2
Gewogene gleitende Durchschnitte
Ein erster Versuch, die Nachteile des Verfahrens der ungewogenen gleitenden Durchschnitte zu verringern, besteht darin, die N Werte x^, die jeweils zur Mittelwertbildung herangezogen werden, mit verschiedenen Koeffizienten zu gewichten. Die Auswahl der Koeffizienten wird in der Weise getroffen, dass die Daten proportional zu ihrer Relevanz fur die zukunftige Entwicklung in den Mittelwert eingehen. Damit aber durch die Gewichtung keine systematischen Komponenten eingefuhrt werden, muss fur die Gewichtungsfaktoren k gelten, dass
Wenn die Zeitreihe also stellenweise Trendanderungen oder andere Schwankungen aufweist, wird dieses Verfahren bessere Ergebnisse als ungewogene gleitende Durchschnitte liefern. Diese Tatsache ist aus der Abbildung 4 deutlich zu ersehen. Man kann die Daten auch von unerwunschten Saisoneinflussen bereinigen, wenn man die Durchschnittsbildung auf vollstandige Saisonzyklen bezieht (z. B. mit vier, acht oder zwolf Monatsperioden) [2], Der Nachteil der geringen Flexibilitat in Bezug auf die Reaktionszeit (rate of response) des Verfahrens der ungewogenen gleitenden Durchschnitte bleibt aber auch bei dieser Methode. Dazu kommt noch, dass die Bestimmung der Koeffizienten k^ aufwandig ist. 2.4.2.3
Exponentiell gewogene Durchschnitte (exponentielles Glatten erster Ordnung)
In diesem Abschnitt wollen wir uns ausfuhrlich mit dem Verfahren des exponentiellen Glattens (Exponential Smoothing) befassen. Ausfuhrlich deshalb, weil exponentielles Glatten weniger nur ein Verfahren als vielmehr ein Prinzip darstellt, welches fur viele spezielle Vorhersagemethoden von grundlegender Bedeutung ist. Dazu kommt noch, dass sich alle Autoren uber das Grundprinzip des exponentiellen Glattens einig sind, wenn wir auch uber die verschiedenen Erweiterungen, Verallgemeinerungen und speziellen Verfahren in der Literatur sehr verschiedene Ansichten finden. Daher besitzt das Prinzip des exponentiellen Glattens eine gewisse Allgemeingultigkeit, die - will man die darauf aufbauenden hoheren Verfahren verstehen - eine eingehende Erorterung rechtfertigt. 2.4.2.3.1
Ubergang von gleitenden Durchschnitten zum exponentiellen Glatten
Ein Nachteil der Methode der gleitenden Durchschnitte ist die Notwendigkeit, dass zur Berechnung alle N Daten x^ gespeichert sein mussen. Da wir unseren Betrachtungen
Einfuhrung in die kurzfristige Zeitreihenprognose
19
einen konstanten Prozess zugrunde legen, ist die Prognose fur die Periode {T-\-i) durch Xj^^^ =aj=Mj^ gegeben. Was uns fur die Zukunft recht ist, kann uns fur die Vergangenheit billig sein:
Gleitender Durchschnitt
/^Gewogener gleitender Durch sell nitt Istwerte
Abb. 4: Vorhersagen nach den Verfahren der gleitenden Durchschnitte und der gewogenen gleitenden Durchschnitte ([11], S. 239) Wenn wir den Mittelwert M^ =aj^ als Vorhersagewert fur die zukunftige Beobachtung Xf^i verwenden, dann durfen wir ihn doch auch als Schatzwert fur den Beobachtungswert Xj_^ nehmen, ohne einen Fehler zu begehen. Fuhren wir dies laufend durch, d. h., setzen wir jeweils anstatt des altesten Wertes Xj^_^ den uns zur Verfugung stehenden Wert Mj_^ ein, so konnen wir uns die Speicherung des Datensets der N Daten x^ ersparen. Wir wollen dieses Vorgehen an einem Beispiel darstellen: Wir ermittein einen Wert M^=M^+{x^-x2)l6 nach der Methode der gleitenden Durchschnitte. Wir sehen, dass wir dafur den Wert x^ benotigen, d. h., wir mussten bis zur Periode / = 8 alle Werte bis Xj (da wir ja auch in der nachsten Periode x^ benotigen) vorhalten. Das ist uns zuviel Aufwand; wir nehmen statt X2 den Wert M^ und erhalten Mg =M^ +(jc8 -X2)I6 zur naherungsweisen Berechnung des Mittelwerts (daher Mg). Wollen wir jetzt M^ berechnen, so mussen wir anstatt des Wertes x^, der uns ja nun ebenso wenig wie X2 zur Verfugung stehen soil, den Wert M^ verwenden. Wir erhalten M9 = Mg + (X9 - Mg) / 6 Oder allgemein (4) Setzen wir nun M^=Sj[x)
und 1/A^ = J , so erhalten wir
S,{x) = S,_,{x) + A(x,-S,_,{x))
(5)
20
Schroder
(Die Bezeichnung S^x) wird im Folgenden fur alle exponentiell gewogenen (geglatteten) Mittelwerte verwendet.) Damit haben wir durch einen Analogieschluss zur Gleichung (2) die Grundformel des exponentiellen Glattens hergeleitet. Durch Umrechnungen ergibt sich:
S,{x) = Ax,+{l-A)S,_,{x)
(6)
Dieses S^ix) ist unser exponentiell geglatteter Mittelwert, der zur Abschatzung von a^ verendet wird. A wollen wir als Glattungskonstante bezeichnen, die nur ahnlich, aber keineswegs gleich unserem Wert 1/A^ ist, wie sich aus einer mathematischen Betrachtung im nachsten Punkt ergeben wird. Ebenso wird dort begrundet, warum wir den Mittelwert als „exponentieH" geglattet bezeichnen. 2.4.2.3.2
Prinzip des exponentiellen Glattens
Wir wollen die Konsequenz unserer Vorgehensweise einer mathematischen Betrachtung unterziehen. Dazu gehen wir von der Formel S,{x) = Ax,+{\-A)S,_,{x)
(6)
aus und setzen S,_,{x) =
Ax,_,+{\-A)S,_,{x)
in Gleichung (6) ein. Wir erhalten
S,{x) =
Ax,+A{l-A)x,_^+{l-Afs,_2{x)
Berechnen wir den Wert fur *S'^_2(^) und setzen ihn wieder in die letzte Gleichung ein, ergibt sich
S,{x) = Ax, + A{\- A)x,_^+ A{l- Af x,_2+{l- Af S,_^{x) und durch weiteres Einsetzen
S,[x) = Ax, +A{\-A)xf_^ +...-\-A(\-Ayx,_i bzw. S,{x) = At{l-Ayx,_,
(7)
Man erkennt daraus, dass jeder Wert x^_^ (/ = 0,1,2,...) mit dem Koeffizienten gewichtet wird.
A{l-Ay
Die Summe dieser Koeffizienten ist 1, wie leicht gezeigt werden kann: Setzt man A = p und [l-A)
= q, so ergibt der Ausdruck S ^ ( l - ^ y eine geometrische Reihe von der z=0
Form pq^ + pq^ + pq^ +... +pq'+... fur p wieder A und fur q {\-A)
mit der Summe pl{\-q).
Dieser Wert ist 1, wenn
eingesetzt wird. Hiermit ist sichergestellt, dass durch
die Gewichtung kein systematischer Fehler in die Berechnungen eingebracht wurde.
Einfuhrung in die kurzfristige Zeitreihenprognose
21
Wir wollen wiederholen, welche Folgen die Substitution von x^_^ durch den Wert M^_^ (vgl. dazu Gieichungen (2) und (4)) hat. Wie Abbildung 5 zeigt, wurden beim Verfahren der gleitenden Durchschnitte jeweils N Daten x^ mit dem gleichen Gewicht zur Berechnung des Durchschnitts benutzt.
0,50,4JO.
1
0,3-
O 0,2-
Gleiche Gewichte N=Q
\
\
rv
i
^
ExDonentielle Gewichte A =0,3
0,10
1
^
4 6 Alter der Daten
I 8
^
T 10
Abb. 5: Gewichtung der Vergangenheitsdaten beim Verfahren der gleitenden Durchschnitte und beim exponentiellen Glatten ([4], S. 102) Durch die Substitution x^_^ = ^ r - i ^^"^^ folgende Anderungen eingetreten: 1.
Es werden a//e Daten der Vergangenheit zur Berechnung des Durchschnitts herangezogen.
2.
Die Gewichtung der Daten erfolgt exponentiell fallend mit
A{\-A^.
Praktisch allerdings werden die alteren Daten - je nach GroSe des A - ihren Einfluss auf den Durchschnitt nach wenigen Perioden verlieren. Diese Aussagen gelten aber nur fur den Fall, dass 0< J < 1 ist. Wird A gleich Null gewahlt, so folgt aus (6), dass der neue Glattungswert jeweils gleich dem vorhergegangenen ist und daher uberhaupt nicht auf Veranderung des numerischen Werts von x^ reagiert. Ist ^ = 1, so ist der neue Glattungs-jeweils gleich dem neuen Beobachtungswert. 2.4.2.3.3
Bestimmung des Glattungsfaktors
Aus den bisherigen Ausfuhrungen geht hervor, dass die Grolie des Wertes A entscheidend fur die Reagibilitat (bzw. Stabilitat) des Verfahrens in Bezug auf Zufallsschwankungen ist. Durch die Wahl von A wird bestimmt, mit welchem Gewicht die Vergangenheitsdaten in den Glattungswert eingehen. Bei dem Verfahren der gleitenden Durchschnitte hat man die Reagibilitat des Systems direkt durch die Anzahl der Beobachtungen (N) festgelegt, die zur Berechnung des Mittelwerts herangezogen wurden, ohne eine unterschiedliche Gewichtung vorzuneh-
22
Schroder
men. Beim exponentiellen Glatten bestimmen wir indirekt uber die Gewichte die Zahl der Werte, die in unserem Mittelwert hauptsachlich berucksichtigt werden sollen. Zur Verdeutlichung dienen die Abbildungen 6 und 7. A 0,10-i
0,08-
0,06-
87,84 % des neuen Durchschnitts bestehen aus Daten mit einem Alter von 19 Perioden oderweniger
Die restlichen 12,16 % des neuen Durchschnitts stammen von Daten, die alter als 19 Perioden sind
0,04-
0,02 H
^ c CD D) (D
1 2
3 4
5 6 7 8
9 10 11 12 13 14 15 16 17 18 19
Alter der Daten
O
Abb. 6: Gewichtung der Vergangenheitsdaten mit ^ = 0,1 ([15], S. 10) Wenn die Grolie A fur die Brauchbarkeit des Verfahrens entscheidend ist, dann muss nach Methoden gesucht werden, mit denen man ein geeignetes A bestimmen kann. Re/f ([15], S. 9) gibt als Erfahrungsregel an, dass A zwischen 0,1 und 0,3 zu wahlen ist. Eine andere Moglichkeit ist, A so zu wahlen, dass etwa so viele Werte x^ wie bei dem Verfahren der gleitenden Durchschnitte zur Berechnung herangezogen werden. Hat man dort beispielsweise mit A^ = 50 befriedigende Ergebnisse erzielt, so kann man ein A berechnen, bei dessen Verwendung ebenfalls annahernd die letzten 50 Werte in die Rechnung eingehen. Zu diesem Zweck wollen wir ein durchschnittliches Alter 7_unserer Daten berechnen. Im Falle der gleitenden Durchschnitte ist dieses Alter durch / = (O +1 + 2 +...+ A^ - l)/N zu ermitteln. (Die jungste Beobachtung ist 0 Perioden alt, die vorhergegangene 1 Periode usf.) Es ist die Summe uber 0,1,2,...,TV-1 gleich (A^-1) A^/2, so dass sich das mittlere Alter der Beobachtungen beim Verfahren der gleitenden Durchschnitte zu J = (N-l)/2 ergibt. Das durchschnittliche Alter wurde bestimmt durch die Summe der Produkte aus 1. 2.
dem Alter der Daten und dem Gewicht, das ihnen das Verfahren verleiht.
Einfuhrung in die kurzfristige Zeitreihenprognose
23
0,5 98,44 % des neuen Durchschnitts bestehen aus Daten, die 5 oderweniger Perioden alt sind
0,4.
0,3-^ o
CD
Die restlichen 1,56% des neuen Durchschnitts enthalten Daten, die alter als 5 Perioden sind
0,2
0,1
f-
Vz/y^y/^y^^^
sc
0) D)
1 2
3 4
5
Alter der Daten
Q)
(3
Abb. 7: Gewichtung der Vergangenheitsdaten mit^i = 0,5 ([15], S. 10) Beim Verfahren der gleitenden Durchschnitte wird alien Daten das gleiche Gewicht 1/A^ zugeordnet. Hingegen mussen wir beim exponentiellen Glatten das Alter der Daten mit dem entsprechenden Gewicht A i\- Af multiplizieren, urn das mittlere Alter der Daten zu erhalten. Setzen wir (1 - ^ ) = 5 , so ist
I^^A^\AB-rlAB^-v...^AY.iB'
. /=0
Dafur 0<5<1 gilt, dass £^5'=5/(1-5)' A:=0
erhaltman I = ABl{\-Bf
bzw. da B = \-A,
I = {\-A)IA.
Wenn wir nun die Glattungskonstante so wahlen wollen, dass sie den Daten dasselbe Durchschnittsalter wie beim Verfahren der gleitenden Durchschnitte gibt, so erhalten wir {N-\)I2 = {[-A)IA und durch Auflosen nach ^ A =
2I{N^\).
Wenn wir beispielsweise wunschen, dass sich jeweils die Gewichte der letzten funf Daten zu annahernd 100 % erganzen (annahernd deshalb, well beim exponentiellen Glatten immer noch ein Restprozentsatz alterer Daten zur Mittelwertbildung beitragt und wir unsere Berechnung auf gleiches Durchschnittsalter gestutzt haben), dann mussen wir ein A von 0,33 wahlen. In Tabelle 2 sind fur einige Werte von A^ entsprechende A, die
24
Schroder
beim exponentiellen Glatten Durchschnitte mit demselben Durchschnittsalter ergeben, zusammengestellt. 1st nun die Annahme gerechtfertigt, dass mit einem bestimmten N bei der Methode der gleitenden Durchschnitte befriedigende Ergebnisse erzielt werden konnen, so kann man mit dieser Tabelle ein aquivalentes A auswahlen. Bei der Bestimmung des Faktors A ist noch zu beachten: 1.
Ergeben empirische Untersuchungen, dass A groSer als 0,3 zu wahlen sei, so ware es zweckmaliig, zu untersuchen, ob ein konstantes Modell uberhaupt noch zugrunde gelegt werden kann oder ob die Daten nicht doch einen Trend oder ein Saisonverhaiten aufweisen.
2.
Wenn man bei Anwendung der gleitenden Durchschnitte ein A^ = 12 gewahit hat, um Saisonschwankungen auszugleichen, dann ist ein aquivalentes A von 0,154 beim exponentiellen Glatten nicht geeignet, den gleichen Effekt zu erzielen. A^ bei gleitendem Durchschnitt
Aquivalenter Wert fur A
3
0,500
4
0,400
5
0,333
6
0,286
9
0,200
12
0,154
19
0,100
39
0,050
199
0,010
Tab. 2: Entsprechende Werte fur N und A, die gleiches Durchschnittsalter ergeben ([4],S. 108) 2.4.2.3.4
Reaktion auf plotzliche Veranderungen
Weitere Einsichten in die Bedeutung des Glattungsfaktors A wollen wir dadurch gewinnen, dass wir unsere Zeitserie bewusst verandern und beobachten, welche Auswirkungen diese Anderung auf die folgenden Perioden hat. Dabei gehen wir in jedem Fall von „reinen" Daten aus, also von Daten, die frei von Zufallsabweichungen sind (vgl. dazu [11], S. 241f.). 2.4.2.3.4.1
Reaktion auf einen Impuis
Wir nehmen nun an, dass die Werte x^ bis zu einer Periode / konstant sind (...jc^_2 =x^_i = x j und in der Periode (/ + l) ein Impuis in der Form auftritt, dass ^r+i=(l + ^r) ^^^ ^t+2 wiedergleich x^ ist. Das heiBt aber auch, dass der Glattungswert 5'^(x) bis zum Zeitpunkt / gleich x^ war, da wir ja keine Zufallsabweichung in den Daten haben.
S,,,{x) = Ax,,,^{l-A)S,{x)
Einfuhrung in die kurzfristige Zeitreihenprognose
25
Da nun S^ (x) = x^ und x^+i = 1 + ^^ erhalten wir S,^^{x) = A{l + x,) + {l-A)X^ = X, + A = X, -{• A(\-Af
(8)
S,^2{x) = Ax,^^+{l-A)S,^,{x) Da
S^^^ (x) = (x^ + A) und x^^2 = ^t
gilt
iS'^^2 (•^) = ^^? + (l ~ ^)(^; +A) = AX^+X^+A-
X^A -A^=X^+
A(\
- Af
und fur die Me Periode nach der Storung S^^^ {x) = x^ + ^ ( l - A)'^ . Damit erhalten wir die Storungsfunktion zu
e,=A{\-A)-'
(9)
Diese Funktion gibt an, welchen Fehler der Glattungswert / Perioden nach Eintreten der Storung von einer Einheit noch aufweist. Die GroSe des Fehlers {e) ist also von der Wahl des A und von der Anzahl der Perioden abhangig, die seit Eintreten der Storung vergangen sind. Je grower das A gewahit wird, desto starker reagiert der Glattungswert auf den Impuls, benotigt dafur aber weniger Perioden, um wieder auf das alte Niveau zuruckzufallen (vgl. Abbildung 8). 2.4.2.3.4.2
Reaktion auf eine Niveauanderung
Jetzt wollen wir untersuchen, welche Auswirkungen sich ergeben, wenn sich ab einer Periode t das Niveau des Prozesses so andert, dass
Fur Si^y{x) gilt ebenso wie in Abschnitt 2.4.2.3.4.1, dass S,,,{x)=x, + A
vgl. (8)
Wir erweitern zu
S,^,{x)={\ + x)-{\-A)
(10)
S,,,{x) = Ax,,,+{\-A)S,^,{x)
(11)
Setzt man (10) in (11) und Xt+2 = 1 + ^^ ©in, so erhalt man
S,,,{x)^A
{\ + x,) + {\-A)
^A {\ + x,) + {\-A) = (\ +
[(l + x , ) - ( l - J ) ] {\ +
x,)-{\-Af
x,)-{\-Af
Fijhren wir diese formalen Uberlegungen welter, so erhalten wir fur die Me Periode S,^^{x) = {\ + x,)-{\-A) . Die Storungsfunktion, die uns den in der Periode {t + i) noch vorhandenen Fehler angibt, ist dann
26
Schröder
.-{l-A)
(12)
Das bedeutet, dass sich im Falle einer Niveauänderung der Glättungswert um so schneller an das neue Niveau anpasst, je größer wir A wählen. Die Abbildungen 8 und 9 zeigen uns jetzt deutlich, welche Auswirkungen plötzliche Veränderungen bei verschiedenen Werten von A haben. Zu bemerken ist allerdings, dass der Fehler theoretisch erst nach unendlich vielen Perioden Null wird und der Glättungswert sich nur asymptotisch, wie es die Abbildung 9 zeigt, dem neuen Niveau nähert. Für A = 0,3 wird das neue Niveau nach 10 Perioden annähernd erreicht. Die Abbildung 10 bringt einen Vergleich zwischen dem Verfahren der gleitenden Durchschnitte und dem exponentiellen Glätten. Daraus geht hervor, dass sich für A^ = 7 der gleitende Mittelwert genau 7 Perioden nach der Niveauerhöhung an das neue Niveau angepasst hat, während sich die Kurve der exponentiell geglätteten Werte nur asymptotisch der neuen Niveau-Geraden nähert.
^ = 0,3 v4 = 0,2
10 11
12 ^
Abb. 8: Reaktion des Verfahrens der exponentiellen Glättung erster Ordnung auf einen Impuls ([11], S. 242) Ein Vergleich der Abbildungen 8 und 9 zeigt deutlich das Optimierungsproblem bei der Wahl des Faktors A\ Ein Modell mit großem A passt sich schneller den Niveauänderungen an, reagiert aber stark auf Zufallsabweichungen. Ein kleines A liefert hingegen stabile Vorhersagewerte, benötigt aber eine vergleichsweise lange Zeit, um Niveauänderungen zu verkraften. 2.4.2.3.5
Bedeutung und Vorteile des exponentiellen Glättens
Man spricht von einem Verfahren des exponentiellen Glättens erster Ordnung als einer Methode zur Abschätzung des Koeffizienten in einem konstanten Modell. Aus dieser Blickrichtung weist das exponentielle Glätten insbesondere im Vergleich mit dem Verfahren der gleitenden Durchschnitte folgende Vorteile auf:
Einführung in die kurzfristige Zeitreihenprognose
27
Abb. 9: Reaktion des Verfahrens des exponentiellen Glättens erster Ordnung auf eine Niveauänderung ([11], S. 243) 100 T \ exponentielles Glätten mit^ =0,25
I 075 ^ 050
^^^^ gleitende Durchschnitte mitiV=7
025 0 0
3 5
20
25
30
Zeit
Abb. 10: Vergleich zwischen dem Verfahren der gleitenden Durchschnitte und dem exponentiellen Glätten bei einer Niveauänderung von r = 3 ([4], S. 114) 1.
Zur Berechnung unseres Glättungswertes benötigen wir nur den Glättungswert der Vorperiode, einen Wert für A und den neuen Beobachtungswert x^.
2.
Es kann gezeigt werden, dass das Verfahren der exponentiellen Glättung die Abweichungsquadrate zwischen den neuen Beobachtungs- und den Prognosewerten minimiert ([4], S. 102). Das Verfahren ist in Bezug auf dieses Kriterium optimal.
3.
Wir sind in der Lage, durch die Änderung eines einzigen Parameters (des Glättungsfaktors A) die Zahl und das Gewicht der Vergangenheitsdaten zu bestimmen, die zur Bildung des Glättungswertes herangezogen werden, ohne in den Rechenformalismus eingreifen zu müssen. Es wird durch einen einzigen Parameter die Stabilität bzw. Reagibilität des Verfahrens determiniert.
28
Schröder
Der zuletzt genannte Vorteil ist mit ein Grund dafür, im exponentiellen Glätten ein Prinzip zu sehen, auf dem eine Vielzahl anderer Verfahren basiert. Wird der Glättungsparameter A in Abhängigkeit vom Vorhersagefehler geändert, so gelangt man zu adaptiven Verfahren, die sich automatisch an Veränderungen der Zeitreihencharakteristik anpassen können. Eine andere Möglichkeit besteht darin, dass man das exponentielle Glätten erster Ordnung auf geglättete Daten anwendet. Ergebnis ist das exponentielle Glätten zweiter Ordnung, mit dem wir uns in Abschnitt 2.4.3.2. befassen werden. Wenn die mit exponentiellen Glätten ermittelten Schätzwerte große Unsicherheiten aufweisen, kann es zielführend sein, die extrapolierten Werte mit subjektiven Schätzungen zu kombinieren ([1], S. 227). Man sieht bereits aus diesen Andeutungen, dass es eine Vielzahl von Verfahren gibt, die alle - trotz ihrer unterschiedlichen Ausprägungen - auf dem Prinzip des exponentiellen Glättens beruhen. 2.4.3
Methoden zur Abschätzung der beiden Koeffizienten im linearen Modell mit Trend
Die bisher behandelten Verfahren setzten voraus, dass der den Daten zugrunde liegende Prozess über der Zeit konstant verläuft. Wir nehmen nun an, dass der Prozess eine lineare Funktion der Zeit ist (Modell 1-B, Abbildung 1) P^=a + bt. Es sind jetzt Verfahren erforderlich, die es gestatten, die Modellkoeffizienten a und b abzuschätzen. Für die Daten gilt x^=a + bt + e^. Dabei sind e^ Zufallsabweichungen, von denen wir wieder annehmen, dass sie einen Erwartungswert von Null haben. 2.4.3.1
Exponentielles Glätten mit Trendkorrektur
Wird exponentielles Glätten (erster Ordnung) auf einen linearen Prozess angewendet, so bezieht sich der Glättungswert S^ (x) auf eine frühere Periode, die unter Berücksichtigung der unterschiedlichen (exponentiellen) Gewichtung dem durchschnittlichen Alter der Daten entspricht. Das mittlere Alter der Daten beim exponentiellen Glätten wurde in Abschnitt 2.4.2.3.3 mit (l-Ä)/A bestimmt. Ein Glättungswert, welcher in der Periode T aus allen Daten x^ berechnet wird, bezieht sich daher auf die Periode {T -{\-A)/A). Soll eine Vorhersage durchgeführt werden, so muss vorher der Glättungswert Sf{x) um das (l-A)/A-fache des Trendanstiegs pro Periode ^ korrigiert werden. Bezeichnen wir nun den kom'gierten Schätzwert für den Periodengrundwert mit ä^, dann ist dieser mit
(l-A) ^ a^=S,{x) + ^—-Lb, zu berechnen.
(13)
Einführung in die kurzfristige Zeitreihenprognose
29
Beim Verfahren des exponentiellen Glättens mit Trendkorrektur wird der Trendwert 4 folgendermaßen direkt fortgeschrieben: Man berechnet einen aktuellen Trendwert b^ aus der Differenz der Glättungswerte S^ (x) und S^_^ (x)
b,=S,{x)-S,_,{x)
(14)
Dieser wird mit exponentiellem Glätten (erster Ordnung) fortgeschrieben. (Zur Kennzeichnung des geglätteten Trendwerts wird S^ (b) verwendet.) S,{b) = S,_,{b) + A(b,-S,_,{b))
(15)
Der Glättungswert S^{b) wird zur Abschätzung von b^ herangezogen. b,=S,{b)
(16)
Zur Berechnung benötigt man also folgende Formeln: b, =S,{x)-S,_^{x) S^ (^b) = S,_^ (b) + A[b,- S,_^ (b))
(aktueller Trendwert)
(fortgeschriebener Trendwert)
b,=S,{b) (\-Ä) ^ 4 =S^[x) + -b^
(14)
(16) (korrigierter Grundwert)
(13)
Die Vorhersage in einer Periode ( r ) für eine Periode (T + i) ist dann Xj^^^ =äj, +bj^i. 2.4.3.2
Exponentielles Glätten zweiter Ordnung (nach Brown)
Dieses Verfahren (Double Exponential Smoothing) ist sehr bekannt und verbreitet. Der Zusatz „nach Brown" ist deswegen erforderlich, weil es auch noch andere Verfahren des exponentiellen Glättens für das lineare Modell gibt (vgl. Abschnitt 2.4.3.3 ff.). Auch hier bestehen grundsätzlich zwei Möglichkeiten der Berechnung: 1. 2.
Verwendung von Glättungswerten erster und zweiter Ordnung Direkte Fortschreibung der Modellkoeffizienten
Die Ergebnisse sind in jedem Fall gleich, der Unterschied ist nur rechentechnischer Natur (Beweis siehe Abschnitt 2.4.3.2.3). 2.4.3.2.1
Verwendung von Glättungswerten erster und zweiter Ordnung
Der einfache Glättungswert S^ix) (im folgenden mit S]{x) bezeichnet) errechnet sich aus
s]{x) = Ax,+{l-A)sl,{x)
(6)
(15)
30
Schröder
Wir fassen nun die errechneten Glättungswerte S]{x) als Beobachtungswerte auf und schreiben sie mit exponentiellem Glätten erster Ordnung fort. Damit erhalten wir einen Glättungswert zweiter Ordnung, der einen Glättungswert über die Glättungswerte darstellt (im folgenden mit S]{x) bezeichnet).
s]{x) = AS]{x)-^{\-A)sl,{x)
(17)
S]{X) = SI,{X) + A(SUX)-SUX))
(18)
oder
Nehmen wir an, dass unsere Daten frei von Zufallsabweichungen sind, so liegen die Glättungswerte zweiter Ordnung auf einer Geraden parallel zu den Glättungswerten erster Ordnung bzw. zu den Beobachtungswerten. Der horizontale Abstand der Geraden zueinander ist konstant und beträgt (1-A)/A, der vertikale Abstand ist daher durch b^ (l-A)/A gegeben:
x,-S]{x) = S]{x)-S]{x) = b,{l-A)/A
(19)
Sind die Daten mit Zufallsabweichungen behaftet, so können mithilfe der Gleichung (19) Schätzwerte für den korrigierten Periodengrundwert und den Trendwert bestimmt werden.
a, = S]{x) + S]{x)-S]{x) = 2S]{x)-S]{x)
(20)
Dabei ist ä^ ein Periodengrundwert, der bereits um den durch Trend verursachten „time-lag" korrigiert wurde (4 =^t)Da aber auch gilt, dass
S]{x)-S]{x)=b,{\-A)/A erhält man einen Schätzwert für den Trendanstieg pro Periode durch
b,=A/{\-A)
(S]{x)-S]{x))
(21)
Soll nun in einer bestimmten Periode T eine Vorhersage für {T + /) Perioden durchgeführt werden, so lautet die Vorhersagegleichung Xj^^^ =äj^-\-bji. Wir können also durch die Bildung von Glättungswerten erster und zweiter Ordnung Schätzwerte für die Koeffizienten a und b in einem linearen Modell bestimmen. Zu Beginn der Glättung sind die Glättungswerte der Vorperiode Sl[x) und sl[x) erforderlich. Bezieht man die Formeln (20) und (21) auf die Periode ^ = 0, so erhält man
ä,=2Sl{x)-Sl{x)
(22)
b,=Al{\-Ä)[sl{x)-Sl{x))
(23)
und
Auflösen dieser beiden Gleichungen nach S^i^x) bzw. 5'^(jc) ergibt mit B = \-A
Einführung in die kurzfristige Zeitreihenprognose
31
sl{x) = a,-b,B/A
(24)
sl{x) = äo-2b,B/A
(25)
Liegen repräsentative Vergangenheitsdaten vor, so kann man die Werte ÜQ und ÖQ z. B. mithilfe einer Regressionsrechnung bestimmen. Ist dies nicht der Fall, so muss man versuchen, durch den Vergleich mit ähnlichen Zeitreihen (z. B. von ähnlichen Produkten) möglichst gute Schätzungen für ÜQ und SQ ZU erhalten. Sind die Schätzwerte sehr unsicher, so wird man gegebenenfalls zu Beginn mit einem größeren A rechnen, damit sich ein Fehler bei der Schätzung der Anfangswerte nicht lange auswirkt, und nach einigen Perioden das A wieder verkleinern. Sind nun die Werte für ä^ und 4 bestimmt, so können mit (24) und (25) die Glättungswerte für die Periode t = 0 berechnet werden. Die Glättungswerte für die Periode t = 1 sind und
vgl. (6)
s]{x) = As\{x) + BS^{x)
vgl. (17)
s\{x) = Ax^+BSl{x)
Die gesuchten Modellkoeffizienten für die Periode / = 1 sind a^=2
S\{x)-S]{x)
vgl. (20)
b^=A/B[s\{x)-S]{x))
vgl. (21)
Mithilfe der Vorhersagegleichung x^^^ =äj^+bj^i kann nun für eine beliebige Zahl von Perioden prognostiziert werden. Wird jeweils nur für eine Periode vorhergesagt (xy^+i), so kommt man durch Einsetzen von (20) und (21) in die Vorhersagegleichung unter Berücksichtigung der Beziehung B = \-A zu folgenden Gleichungen:
^T.=s]{xh(s]{x)-S]{x)y^[s]{x)-S]{x)) Xr,,=s]{x)-^[s]{x)-S]{x))^ Xr.,=s]{x) + (s]{x)-S]{x))^ 2.4.3.2.2
\-A B
(26)
Direkte Fortschreibung der Modellkoeffizienten
Bei der oben (Abschnitt 2.4.3.2.1) behandelten Methode ist die erforderliche Trendkorrektur durch die Differenz der Glättungswerte erster und zweiter Ordnung eingeführt worden. Um den korrigierten Periodengrundwert ä^ zu erhalten, wurde S\{x) um den Berag is\[x)-S][x)\ vermehrt. Abbildung 11 verdeutlicht diesen Sachverhalt.
32
Schröder
Beim Verfahren des exponentiellen Glättens mit Trendkorrektur wurde der Glättungsl-A faktor erster Ordnung um den Betrag b^ korrigiert, der Trendanstieg pro Periode A b^ wurde getrennt bestimmt bzw. fortgeschrieben (vgl. Abschnitt 2.4.1). Aus Abbildung 11 geht hervor, dass als dritte Möglichkeit zur Trendkorrektur die Beziehung (27) ^^=^M+Vl verwendet werden kann. Diese Methode hat den Vorteil, dass keine Glättungswerte zu berechnen sind und die Modellkoeffizienten direkt fortgeschrieben werden können. Zu diesem Zweck wird die Trendgerade gedanklich in einen Trendwert und in einen Grundwert zerlegt, die über der Zeit als annähernd konstant angesehen werden. Da jetzt zwei konstante Prozesse vorliegen, können die Koeffizienten mit exponentiellem Glätten erster Ordnung fortgeschrieben werden, ohne dass eine Trendkorrektur durchzuführen ist.
-bt-1 bt-sl(x)
1-A
T-4
-s](x)
1-A
T-3
T-2
T-1
T
Abb. 11: Möglichkeiten der Trendkorrektur Die Umformung der Formeln des exponentiellen Glättens zweiter Ordnung zu Formeln für direkte Fortschreibung der Modellkoeffizienten soll am Beispiel des konstanten Modells gezeigt werden. Als Schätzwert für ä^ wird der Glättungswert erster Ordnung venA/endet:
ä,=s]{x)^Ax,+{\-A)
S]_^ {x)
(28)
Eine Vorhersage für die nächste Periode ist im konstanten Modell durch x,,,=a,=s\{x)
gegeben.
Es muss aber auch x^ =4-i = ^ M ( ^ ) gelten. Setzt man nun in der Gleichung (28) für S]_^ (x) den Wert 4-i ein, so erhält man nach Umformen
Einführung in die kurzfristige Zeitreihenprognose a, =4_i + v4(x,-4_i)
33 (29)
als Formel für direkte Fortschreibung des Koeffizienten im konstanten Modell. Die Ableitung der Formel (29) aus der Formel (28) ist beim konstanten Modell trivial. Für das lineare Modell ist diese Vorgehensweise nicht so einfach. Wir geben hier nur die grundlegenden Rechenschritte und das Ergebnis wieder. Man geht von den Formeln
ä,=2s]{x)-s]{x)
und
(20)
b,=A/Bl^s]{x)-s]{x)]
(21)
aus, in die man für
s]{x) und s]{x) s]{x) = Ax,+{l-A)Sl^{x)
und
s]{x) = AS]{x) + {l-A)Sl,{x)
(6) (17)
einsetzt. In den daraus resultierenden Ausdrücken für ä^ und b^ werden die Glättungswerte durch
s]{x) = ä,-b,B/A
und
S]{x) = ä,-2b, B/A
vgl. (24) vgl. (25)
ersetzt. (Diese Formeln gewinnt man durch Auflösen der Gleichungen (20) und (21) nach s]{x) bzw. s]{x).) Nach verschiedenen Umformungen erhält man als Resultate:
a,=x,+{\-B^){x^-x^)
(30)
b^=b,_,+{l-Bf{x,-x,)
(31)
In diesen Formeln ist x^ der um den Trend korrigierte Periodengrundwert [Xf =4-1 + 4 - i ) ' ^^^ ^'s „alter Glättungswert" in die Formeln eingeht, hingegen stellt ä^ aen fortgeschriebenen „neuen Glättungswert" dar, welcher unter Berücksichtigung der Differenz zwischen neuem Beobachtungswert x^ und dem „alten Glättungswert" x^ mit exponentiellem Glätten erster Ordnung bestimmt wird ([4], S. 140). Eine Vorhersage für die Periode (T + /) ist durch Xj^^^ = a^ + bj^i gegeben.
34
Schröder
Es ist aber zu beachten, dass es sich hier lediglich um eine andere Berechnungsmethode handelt, die dieselben Werte wie die im vorhergegangenen Abschnitt behandelte Methode ergibt. In dieser Form kann aber das Verfahren von Brown mit anderen besser verglichen werden. 2.4.3.2.3
Vergleich zwischen exponentiellem Glätten mit Trendkorrektur und exponentiellem Glätten zweiter Ordnung (nach Brown)
Diese beiden Verfahren unterscheiden sich lediglich in der Organisation des Rechenvorgangs, führen aber zu den gleichen Ergebnissen. Der korrigierte Periodengrundwert ist beim exponentiellen Glätten mit Trendkorrektur
ä,=S,{x) + BIAb^.
(13)
Der Trendwert b^ wird direkt mit der Formel
b,=b,_,^A[b,-b,_,) = S,{b)
(15a)
und 4-1 =^^-i(^) fortgeschrieben, wobei der jeweils neue „Beobachtungswert" b^ durch
b,=S]{x)-SU{x)
(14)
gegeben ist. Da man den Periodengrundwert mithilfe der Glättungswerte bestimmt, werden beide zuvor beschriebenen Berechnungsformen (Abschnitte 2.4.3.2.1 und 2.4.3.2.2 verwendet. Die entsprechenden Formeln für exponentielles Glätten zweiter Ordnung sind
a,=x,+[\-B^){x,-i,)
(30)
b,=b,_,^{\-B)\x,-x,)
(31)
Durch eine Reihe von Umformungen kann gezeigt werden, dass die Formeln (13) und (15a) mit den Formeln (30) und (31) identisch sind ([16], S. 53 ff.). 2.4,3.3
Zwei-Parameter-Modell nach Holt
Bei allen bisher besprochenen Verfahren des exponentiellen Glättens wurde ein einziger Glättungsparameter {A bzw. für {\-Ä) = B) verwendet. Für das lineare Modell bedeutet das, dass sowohl Periodengrundwert als auch der Trendwert mit dem gleichen Parameter geglättet wurden. Wir wollen nun Verfahren behandeln, die zwei (bzw. drei) verschiedene Glättungsparameter benutzen. Holt war der erste Autor, der exponentielles Glätten für die kurzfristige Vorhersage verwendet hat ([9], S. 104). Im Gegensatz zu dem Verfahren von Brown werden hier Periodengrundwert und Trendwert mit zwei verschiedenen Glättungsparametern fortgeschrieben. Die Grundformeln lauten:
Einführung in die kurzfristige Zeitreihenprognose
35
ä,=Cx,+{l-C)(a,_,^b,_,)
(32)
b,=D{a,-a,_,)^{\-D)b,_,
(33)
C und D sind die Glättungsparameter, für die gilt 0
äj=x^+C [x^ -x^)
(34)
bzw. mit Xj =a^_i + 4-i
Der Ausdruck (35) wird in (33) eingesetzt, und man erhält für ^ 4 =b,_^+E{x, -X,);{E
= CD)
.
(36)
Wir stellen nun die Formeln des Holtschen Zwei-Parameter-Modells ä^=Xf+C
[Xf -x^)
(34)
b,=b,_^+E{x,-x,)
(36)
den Formeln von Brown für das Ein-Parameter-Modell
a,=x,+[l-B^){x,-x,)
(30)
4=4_i+(l-5f (x,-xj
(31)
gegenüber. Daraus ist nun ersichtlich, dass das Brownsche Modell ein Sonderfall des Zwei-Parameter-Modells von Holt ist, da es die beiden Parameter C und D so beschränkt, dass
(I-BV C = ( l - 5 ^ ) und E = CD = {l-By
2.4.3.4
bzw. D = ^
2
^ ist. i
Zwei-Parameter-Modell mit gedämpftem Trend
Werden die Trendkomponenten der Gleichungen (32) und (33) mit einem zusätzlichen Faktor O, 0 < O < l , multipliziert, so erhält man einen abgeschwächten Trend [5]:
a^=Cx,+{l-C)[a,_,+Ob,_,)
(37)
36
Schröder
4=/)(4-a,_i) + (l-i))o4_i
(38)
Die Ermittlung des Prognosewertes unterscheidet sich dann von der bisherigen {xT^i=äj + bfi) insofern, als man im zweiten Summanden über Dämpfungsfaktoren, die für die betrachteten Zukunftsperioden unterschiedlich gewählt werden können, summieren muss: ^T^i ^aT + JL^jb^
(39)
Für 0 = 1 erhält man als Spezialfall das ursprüngliche Holt-Modell, für 0 = 0 das exponentielle Glättungsmodell erster Ordnung. Das Verfahren mit gedämpftem Trend stellt eine beachtenswerte Weiterentwicklung dar, da sich auf diese Weise Prozesse, deren Werte in einer „Grauzone" zwischen „mit und ohne Trend" variieren, besser modellieren lassen. Ein Beispiel zum praktischen Einsatz (Prognose der Personenbeförderung bei der Schweizerischen Bundesbahn für die Jahre 1987 bis 1996) findet sich in ([18], S. 48). 2.4.3.5
Drei-Parameter-Modell mit Fehlerdifferenzausdruck
Zum Abschluss wollen wir noch ein Drei-Parameter-Modell zeigen: Wir erweitern das Holtsche Modell durch die Einführung eines Fehlerdifferenzausdrucks: Der Vorhersagefehler e^ ist die Differenz zwischen dem Beobachtungswert der Periode t und dem Vorhersagewert für die gleiche Periode /, der in {t-\) errechnet wurde und er entspricht damit dem Ausdruck (x^ -x^), der in den Gleichungen bisher venA^endet wurde (jc^= Beobachtungswert, x^=ä^_^+b^_^). Die Fehlerdifferenz ist {e^-e^_^) und wird mit einem dritten Parameter geglättet. Man erhält folgende Gleichungen (vgl. dazu (32) und (33)): a,=Fx,+{\-F)x^+H{e,-e^_^)
(40)
b^=G{ä,-ä,_,)
(41)
+ {\-G)b,_,
F,G,H sind Glättungsparameter. Ob dieser Fehlerdifferenzausdruck eine wesentliche Verbesserung der Vorhersage bringen kann, wollen wir in dieser Einführung nicht näher erörtern, sondern auf weiterführende Literatur verweisen ([9], S. 107). 2.5
Möglichkeiten und Grenzen der Zeitreihenextrapolation
Ausgehend von verschiedenen Verfahren der Mittelwertbildung haben wir uns schrittweise zu relativ komplexen Verfahren der Zeitreihenextrapolation hin gearbeitet. An dieser Stelle sollten wir uns die Frage stellen, ob zusätzliche mathematisch-statistische Verfahren die Genauigkeit der Vorhersagen erhöhen können. Diese Frage hat sich auch Armstrong gestellt, hat 32 Studien ausgewertet und nur 5 gefunden, in denen komplexere Methoden als exponentielles Glätten zu einer Verbesserung der Vorhersagen geführt haben ([1], S. 227 ff.). Diese Ergebnisse führen zu dem Schluss, dass es
Einführung in die kurzfristige Zeitreihenprognose zielführend komplexere ßigkeiten in se Aussage
37
ist, soweit wie möglich einfache Verfahren zu verwenden und nur dann Verfahren zu berücksichtigen, wenn es deutliche Hinweise auf Gesetzmäder Zeitreihe gibt. Besonders für kurzfristige Zeitreihenprognosen wird diezutreffen.
2.6
Literatur
[I]
Armstrong, J.S. (Hrsg.), Principles of Forecasting: A Handbook for Researchers and Practitioners, Boston 2001 Armstrong, J.S., Long-Range Forecasting: From Crystal Ball to Computer, 2. Aufl., New York 1985 Box, G.E.P. und Jenkins, G.M., Time Series Analysis, Forecasting and Control, San Francisco 1970. Brown, R.G., Smoothing, Forecasting and Prediction of Discrete Time Series, EnglewoodCliffs 1963. Gardner, E.S., Jr., Exponential Smoothing: The State of the Art, Journal of Forecasting 4 (1985), S. 1 ff. Gardner, E.S., Jr. und McKenzie, E., Model Identification in Exponential Smoothing, Journal of the Operational Research Society 39 (1988), S. 863 ff. Harrison, P.J., Short Term Sales Forecasting, Applied Statistics 14 (1965), S. 102 ff. Harrison, P.J., Exponential Smoothing and Short-Term Sales Forecasting, Management Science13(1967), S. 821 ff. Holt, C.C., Modigliani, F., Muth, J.F. und Simon, H.A., Planning Production, Inventories and Work Force, Englewood Cliffs 1960. IGT (Hrsg.), SCAN System 1 Operating Manual for Inventory Management, 1900 Series Nr. 3331. Lewandowski, R., Modelle und Methoden der ökonomischen Vorhersage, Elektronische Datenverarbeitung 11 (1969), S. 235 ff. Makridakis, S., Wheeiwright, S.C. und Hyndman, R.J., Forecasting, Methods and Applications, 3. Aufl., Indianapolis, IN 1998. Müller-Merbach, H., Operations Research, 3. Aufl., München 1973. Pegels, C, Exponential Forecasting: Some New Variations, Management Science 15 (1969), S. 311 ff. Reif, K., Bedarfsvorhersage mittels mathematisch-statistischer Verfahren, IBM Form 81518, 1966. Schröder, M., Einführung in die kurzfristige Zeitreihenprognose und Vergleich der einzelnen Verfahren, in: Mertens, P. (Hrsg.), Prognoserechnung, 2. Aufl., Würzburg 1975, S. 53 ff. Wiese, K.H., Exponential Smoothing - eine Methode der statistischen Bedarfsvorhersage, IBM Form 78129, 1964. Weber, K., Prognosemethoden und -Software, Idstein 1991. Winters, P.R., Forecasting Sales by Exponentially Weighted Moving Averages, Management Science 6 (1960), S. 324 ff.
[2] [3] [4] [5] [6] [7] [8] [9] [10] [II] [12] [13] [14] [15] [16]
[17] [18] [19]
3
Einführung in die Prognose saisonaler Zeitreihen mithilfe exponentieller Glättungstechniken und Vergleich der Verfahren von Winters und Harrison
von Roland Schuhr 3.1
Einleitung
Zahlreiche ökonomische Zeitreihen mit Monats-, Quartals- oder Halbjahreszeitabstand der Beobachtungswerte weisen neben einem Trend, also einer längerfristigen systematischen Änderung des Datenniveaus, auch Schwankungen der Zeitreihenwerte auf, die sich relativ gleichförmig Jahr für Jahr wiederholen. Diese als Saison bezeichneten zyklischen Schwankungen können in der Regel auf den Jahreszeitenwechsel und die Anpassung der menschlichen Lebensführung an dieses physikalische Phänomen zurückgeführt werden. So weist beispielsweise die Reihe der von der Bundesagentur für Arbeit monatlich ermittelten Arbeitslosenzahlen in der Bundesrepublik ausgeprägte Saisonschwankungen auf, die sich wesentlich durch die vom jahreszeitlichen Klimawechsel und von Ferienzeiten verursachten Beschäftigungsschwankungen in bestimmten Wirtschaftsbereichen - wie dem Baugewerbe oder dem Hotel- und Gaststättengewerbe - erklären lassen. Ende der 50er, Anfang der 60er Jahre des zwanzigsten Jahrhunderts wurden von verschiedenen Autoren exponentielle Glättungstechniken zur Prognose von Zeitreihen mit Trend und Saison vorgeschlagen. Konzipiert waren die Techniken primär als Verfahren zur Kurzfristprognose zukünftiger Produktabsatzzahlen im Rahmen betrieblicher Lagerhaltungs- und Produktionsplanungen. Da die Planungsprozesse regelmäßig Absatzprognosen für hunderte oder tausende Produkte als Planungsgrundlage benötigen, lag das Augenmerk auf der Entwicklung automatisierbarer Verfahren mit möglichst geringem Speicher- und Rechenzeitbedarf. Brown [2], [3] entwickelte die General-Exponential-Smoothing-{GESyMethode. Ein Charakteristikum von GES ist es, dass der Anwender durch die Spezifikation eines Glättungsparameters die Anpassung der Prognosefunktionskoeffizienten an eine Zeitreihe steuert. Die Verwendung eines einzigen Glättungsparameters begrenzt beim praktischen Prognoseeinsatz den Verfahrensaufwand, man schränkt so aber auch die Fähigkeit der Methode, zeitvariable Entwicklungsmuster einer Reihe rasch zu adaptieren, ein. Die eingeschränkte Adaptivität des Brownschen Ansatzes motivierte Winters [26] und Harrison [10] zur Entwicklung alternativer Verfahren, die durch die Verwendung dreier bzw. zweier Glättungsparameter eine größere Flexibilität als GES gewinnen. Winters' Verfahren ist eine direkte Erweiterung des für trendbehaftete Zeitreihen ohne Saisonschwankungen konzipierten exponentiellen Glättungsverfahrens von Holt [11] auf trend- und saisonbehaftete Reihen. In Würdigung der Verdienste beider Autoren wird das Verfahren in der Literatur üblicherweise als HoltWinters-Verfahren bezeichnet - eine Konvention, der auch hier gefolgt wird. Harrison schlug zwei Verfahren mit den akronymatischen Bezeichnungen DOUBTS und SEATREND vor. Während DOUBTS im Wesentlichen eine doppelte Anwendung der Brownschen Methode ist, entstand SEATREND in Auseinandersetzung mit dem HoltWinters-Verfahren. In diesem Beitrag werden nachfolgend das Holt-Winters-Verfahren und das SEATREND-Verfahren detaillierter vorgestellt und verglichen. Hierin folgt dieser Artikel der
40
Schuhr
Tradition des von Schläger verfassten Vorgängerbeitrags in der fünften Auflage dieses Buches. 3.2 3.2.1
Das Holt-Winters-Verfahren Das Prognoseproblem und die Prognosefunktionen des Verfahrens
Die Aufgabe des Holt-Winters-Verfahrens ist die Lösung des folgenden Prognoseproblems: Gegeben sind Beobachtungswerte x^ {t = \,2,...j) einer Zeitreihe mit Trendentwicklung und saisonalen Schwankungen. Mit L wird die Saisonzyklusperiode gekennzeichnet; es gilt L = 2, L = 4 oder L = \2 im Falle einer Reihe mit Halbjahres-, Quartals- oder Monatsabstand der Erhebungszeitpunkte t = l,2,...,T. Der Zeitpunkt t = T wird als Gegenwart interpretiert. Zum Gegenwartszeitpunkt t = T soll auf Basis der Beobachtungswerte ein Prognosewert jcj^ ^ für den zukünftigen Zeitreihenwert x^^^^ mit r = 1,2,3,... ermittelt werden. Da exponentielle Glättungstechniken häufig im Rahmen betrieblicher Lagerhaltungs- und Produktionsplanungsprozesse eingesetzt werden, ist es sinnvoll, die Ermittlung einer x-Schritt-Prognose x^^ ^ nicht als ein singuläres Problem, sondern als Routineproblem zu interpretieren, das sich in zukünftigen „Gegenwartsperioden" 7 + 1,7 + 2,7 + 3,... jeweils wieder erneut stellt. Das Holt-Winters-Verfahren fußt ebenso wie die einleitend genannten alternativen exponentiellen Glättungsverfahren auf dem Komponentenansatz der traditionellen Zeitreihenanalyse. Die Beobachtungswerte x^ einer trend- und saisonbehafteten Zeitreihe werden als zerlegbar in drei unbeobachtbare Komponenten angenommen: die Trendkomponente n^, die Saisonkomponente z^ und die Restkomponente u^. Die Restkomponente wird als Zusammenfassung irregulärer und/oder zufälliger Effekte unterstellt und bei der Prognose vernachlässigt. Empirische Zeitreihen weisen typischerweise Saisonschwingungen auf, deren Amplituden im Zeitablauf entweder (i) näherungsweise konstant sind oder aber (ii) proportional zum Trend variieren. Im ersten Fall kann eine additive Verknüpfung der Zeitreihenkomponenten x,=n^+z^+u,
(1)
und im zweiten Fall eine multiplikative Verknüpfung x,=n^-z^'U,
(2)
bzw. eine gemischt multiplikativ-additive Verknüpfung Xf =n^ -z^ + u^
(3)
unterstellt werden. Die Gleichung (2) ist durch eine Logarithmustransformation in eine additive Form überführbar: Xnx^ =\nn^ +lnz^ +lni/^. Winters [26] geht von der Zeitreihenzerlegung (3) aus und schlägt zur Lösung des Prognoseproblems eine Prognosefunktion der Form
Einführung in die Prognose saisonaler Zeitreihen
=
(cij +bj'TyCj^^_2i
für
41
r = Z + 1,Z + 2,...,2Z
vor. Die Funktion wird im Folgenden etwas kompakter
für beliebige Prognoseschritte r = 1,2,3,... geschrieben. In (4) symbolisiert [ r / z ] die kleinste natürliche Zahl, die nicht kleiner als der Quotient r/Z ist. Der lineare Term äj^+bj'T der Prognosefunktion dient als eine lokale Näherung des Zeitreihentrends «^ in der zeitlichen Umgebung des Gegenwartszeitpunkts t = T. Eine spezifische funktionale Form unterstellt Winters bezüglich der Trendentwicklung bei seiner heuristischen Herleitung des Verfahrens nicht. Die saisonalen Schwankungen werden durch Z multiplikativ mit dem Trendterm verknüpfte Saisonfaktoren Cj^_^,Cj^_^^^,...,Cj^ erfasst. Unterstellt man eine additive Zeitreihenzerlegung der Form (1), so ist die VenA^endung der modifizierten Prognosefunktion ^T,T=^T +^T'^^^T^r-lr/L}L
(^ = 1,2,3,...)
(5)
mit additiven Saisonfaktoren nahe liegend. Entsprechend der multiplikativen bzw. der additiven Zusammensetzung der beiden Prognosefunktionen (4) und (5) unterscheidet man das multiplikative und das additive IHolt-Winters-Verfstiren als methodische Varianten. 3.2.2
Rekursive Berechnung der Prognosefunktionskoeffizienten
Die Koeffizienten der Prognosefunktionen werden rekursiv auf Basis der historischen Zeitreihenwerte x^ (/ = l,2,...,r) unter Verwendung verfahrensspezifischer Rekursionsgleichungen oder Update-Gleichungen berechnet. Die Update-Gleichungen des multiplikativen Holt-Winters-Ansatzes besitzen die Form ä,=A--r^
+ (l-Ä)-\ä,_i-[-b,_i\,
(6)
4-5.[4-a,_,]+(i-5)i,,
(7)
c , = c 4 + (l-C)-c,_,.
(8)
A,B und C sind drei konstante, jeweils im Intervall ]0,1[ wählbare Glättungsparameter. Mittels der Rekursionsgleichung (6) wird schrittweise eine Sequenz von Näherungswerten ä^ (^ = l,2,...,r) für die von saisonalen und zufälligen/irregulären Einflüssen bereinigte Niveauentwicklung n^ der Zeitreihe berechnet. Zum Zeitpunkt / erhält man den Niveauwert ä^ als gewogenen Mittelwert zweier Schätzungen: (i)
Der Quotient xJc^_^ ist der von Saisoneinflüssen rechnerisch bereinigte aktuelle Zeitreihenwert, der als aktuelle Schätzung des Zeitreihenniveaus dient.
42 (ii)
Schuhr Die Summe ä^_^+b^_^ ist eine Schätzung des Zeitreihenniveaus auf der Basis von Koeffizientenwerten der Vorperiode t-\.
Die gemäß (7) rekursiv berechneten Koeffizienten b^ {t = \,2,...,T) nähern die Periodenänderungen des Zeitreihenniveaus in der Umgebung des jeweiligen Zeitpunkts / an. Die im Folgenden Trendfaktoren genannten Koeffizienten werden ebenfalls als gewogene Mittelwerte zweier Schätzungen ermittelt: (i)
Die Differenz ä^ -ä^_^ ist eine zum Zeitpunkt / aktuelle Schätzung der Periodenänderung des Zeitreihenniveaus.
(ii)
Der Koeffizient 4-i ist die Schätzung der Periodenänderung aus der Vorperiode t-\.
Mittels der Update-Gleichung (8) schließlich erfolgt die rekursive Ermittlung der Saisonfaktoren. Zum Zeitpunkt t erhält man den Saisonfaktor c^ wiederum als gewogenen Mittelwert zweier Schätzungen: (i)
Der Quotient xjä^ ist der von der Trendentwicklung rechnerisch bereinigte aktuelle Zeitreihenwert, der als aktuelle Saisonfaktorschätzung dient.
(ii)
Der Koeffizient c^_^ ist der geschätzte Saisonfaktor der Vorjahresperiode t-L .
Die Phasen der Saisonfaktoren wechseln in (8) zyklisch von Periode zu Periode. Es werden L Saisonfaktorsequenzen C^.C^^J^.C^^^L^- (^" = 1.2,...,Z) rekursiv berechnet, wobei jede Sequenz genau einer Phase (z. B. einem Monat oder einem Quartal) des Saisonzyklus zugeordnet ist. Die Fortschreibung der Saisonfaktoren gleicher Phase erfolgt nur alle L Perioden. Setzt man die Saisonfaktoren c^ für alle t gleich Eins, so gehen die Formeln (4), (6) und (7) in das bereits aus Kapitel 2 dieses Buches bekannte Verfahren von Holt für nichtsaisonale Zeitreihen über. Das multiplikative Holt-Winters-Verfahren ist somit eine direkte Verallgemeinerung des Holtschen Ansatzes. Zur rekursiven Ermittlung der Prognosefunktionskoeffizienten im Rahmen der additiven Verallgemeinerung des HoltVerfahrens sind nur geringfügige Modifikationen der Rekursionsgleichungen (6) und (8) erforderlich. An die Stelle der Quotienten x^/c^_^ und xjä^ treten die Differenzen x^-c^_^ und x^-a^. Die erste Differenz dient der Saisonbereinigung und die zweite Differenz der Trendbereinigung des jeweils aktuellen Zeitreihenwertes x^. Die modifizierten Rekursionsgleichungen des additiven Holt-Winters-Verfahrens sind in der Übersicht 1 ausgewiesen. Neben der bisher gewählten Darstellung des Holt-Winters-Verfahrens in der so genannten Rekursionsform ist in der Literatur auch die Darstellung in der Fehlerkorrekturform gebräuchlich. Hierbei werden in den Update-Gleichungen die zu den historischen Zeitpunkten t = l,2,...,T berechneten ex post Ein-Schritt-Prognosefehler
Einführung in die Prognose saisonaler Zeitreihen Verfahren mit multiplikativen Saisonfaktoren Rekursionsform des Holt-Winters-Verfahrens X,
ä, =A- —— + (l - ^ ) • a,-i + bi_ b,=B-[äf-
a,_i ] + (l - 5 ) • ^-i
43
Verfaliren mit additiven Saisonfaktoren Rekursionsform des Holt-Winters-Verfahrens ä,=A\x,-
c,_i ] + (1 - ^ ) • [a,_i + 4_,
bi=B\ä,-
a,_i ] + (l - 5) • 4_,
d,=C\x,-ä,]
+ {\-C)-B,_^
a. >=(^:j+bj-zy
Cj,^^_|-^^iL}L
Fehlerkorrekturform des Holt-Winters-Verfahrens
Fehlerkorrekturform des Holt-Winters-Verfahrens a;=a;_i+Vl+^-«/,l bf=bt_^+A-B-et;^ Cf=Ct_^+C-(l-A)-eti ^T,x =aT+h
•'^ + ^T+x-lx/L}L
i\/lodifizierter Holt-Winters-Ansatz mit normierten Modifizierter Holt-Winters-Ansatz mit normierten Saisonfaktoren in der Fehlerkorrekturform Saisonfaktoren in der Fehlerkorrekturform kl =l + C-(\-A)
j
k,
.—^
ät
6
(Vi+Vi).
^t.i=^t-\,i+\l^t Xj^ -{pf
'tX
+C.il-A)-
Ikt
^t,L
't,\
=äi_i+bi_i+A-efi+kt
b( = b(_y
^t=^t-\+^-B-et.\l^t-\.\\^t 't,L
^C-i\-A)-
+A-B-eii '^^t-\,\+C-{\-A)-eiy-k,
Cij = C;_j ,+1 -kf
(/• = \,2,-,L
+bj -y-Cf
I mit j = 1 +
[(T-l)modL]
l\/lodifizierter Holt-Winters-Ansatz mit gedämpftem Trendterm in der Fehlerkorrekturform
^r,T =^1 '^^T ''^'^^T j "^'^y = 1 + [("^~\)modL\
l\/lodifizierter Holt-Winters-Ansatz mit gedämpftem Trendterm in der Fehlerkorrekturform
ö,=aM+8-4-1+^-^uA-i
a^-«M+5-4-1+^-^M
4=8-4-i+^-^-^uA-i Ct=Ct-L+C\\-A)-ety T
^T^-
-1)
0=l2,...,i:-i)
''^T+x-\tlL\-L
Übersicht 1:
z=l
Holt-Winters-Verfahren und Varianten
44
Schuhr
genutzt. Einfache Umformungen der Update-Gleichungen in der Rekursionsform liefern die Fehlerkorrekturdarstellungen des multiplikativen und additiven Holt-Winters-Ansatzes in der Übersicht 1. 3.2.3
Implementierung des Verfahrens
Der praktische Prognoseeinsatz des Holt-Winters-Verfahrens setzt (i)
die geeignete Initialisierung der Update-Gleichungen für die Prognosefunktionskoeffizienten ä^ ,4 ,c^ und
(ii) die geeignete Wahl der Glättungsparameter A,B und C voraus. In der Literatur finden sich zahlreiche verschiedene Vorschläge zur Lösung der beiden Teilprobleme; eine Vielfalt, die sich in verschiedenen Implementationen des Holt-Winters-Ansatzes in Software-Paketen widerspiegelt. Der Tatbestand ist durchaus bemerkenswert, da unterschiedliche Implementationen zu deutlich unterschiedlichen Prognosen führen können. Einen Überblick über Initialisierungsverfahren und Methoden zur Festlegung der Glättungsparameter geben z. B. Gardner [7] und Chatfield und Yar [4], siehe auch Kapitel 18 dieses Buches. Exemplarisch werden nachfolgend einige ausgewählte Ansätze skizziert. Hierbei kennzeichnen
^
X:
1 \t\J-^)L.i
(y = U,3,...)
(10)
arithmetische Jahresmittel der Zeitreihenwerte am historischen Rand (Anfang) einer Reihe. Einen betont einfachen Ansatz zur Bestimmung der Startwerte schlagen Granger und Newbold [9, S.168f] vor. Der Startwert ä^ für die Rekursion der Niveauwerte wird gleich dem arithmetischen Mittel der ersten L Zeitreihenwerte gesetzt, d. h. ä^^x^. Durch die Mittelwertbildung über genau ein Jahr werden Saisoneinflüsse auf den Startwert ausgeschaltet. Die Startwerte für die L Saisonfaktoren erhält man im Rahmen der multiplikativen Holt-Winters-Variante gemäß c_^^^ =Xiß\ (/ = 1,2,...,Z) und im Rahmen der additiven Variante gemäß c_^^^ =x^ -x^ (/ = 1,2,...,Z). Der Startwert 4 für die Rekursion der Trendfaktoren wird gleich Null gesetzt. Eine weniger simple Technik nutzt (11)
bo=^^
als Trendanfangswert. Die Berechnungen der Startwerte ä^ und c_^^^,c_^^2^"'^^o können nun gegebenenfalls durch Trendkorrekturen verfeinert werden: _
L "^
^0=^1--^0
und
(12)
Einführung in die Prognose saisonaler Zeitreihen c^L..=^
mit c,=^-^^^
(/-1,2,...,L)
45 (13)
(=1
im multiplikativen Fall bzw. 1^
C-L^,.^^i-jJl^i
mit c,=x,-(a,+i-bA
(/ = 1,2,...,Z)
(14)
im additiven Fall. Die Größen c^ sind nicht normierte Saisonfaktorstartwerte. Für die „normierten" Startwerte c_^^^ gilt c.^^j+c_^^2+- + ^o = ^ ' ^ multiplikativen und c_^+i + ^-L+2 +... + ^0=0 im additiven Fall (vgl. Abschnitt 3.2.5). Einige Autoren greifen obigen Ansatz auf, verbreitern aber die Datenbasis zur Ermittlung der Startwerte. Beispielsweise lässt sich der Ansatz im Rahmen des multiplikativen Holt-Winters-Verfahrens wie folgt modifizieren (vgl. Winters [26] und Montgomery und Johnson [19, S.102]): ^o^/""w> (m-l)-L
äo=^i-^k 2
und c_,,,=^ ^^
(/ = 1,2,...,Z)
(15)
mit den nicht normierten Saisonfaktorstartwerten
^ >m- I,^1— rrr^-^_ J ^ ^7 r
('=u,...,x).
(16)
bo
Die Berechnungen fußen hier auf den ersten m-L Zeitreihenwerten {m-L
46
Schuhr
Der Initialisierung kommt im Rahmen des Holt-Winters-Verfahrens eine größere Bedeutung zu als etwa im Rahmen der einfachen exponentiellen Glättung oder dem nichtsaisonalen Holt-Verfahren. Da nur einmal pro Jahr ein Update der Saisonfaktoren möglich ist, verliert sich der Einfluss ihrer Startwerte auf die Prognosefunktion nur bei Verfügbarkeit langer, über viele Jahre beobachteter Zeitreihen. Im Falle kürzerer Zeitreihen werden inadäquate Startwerte zu ungünstigen Prognoseergebnissen führen. Chatfield und Yar [4] raten deshalb insbesondere bei Vorliegen kürzerer Zeitreihen, komplexeren Initialisierungsmethoden wie etwa der Backcasting-Technik gegenüber sehr einfachen Methoden unter Hinnahme eines größeren Rechenaufwands den Vorzug zu geben. Die rekursive Berechnung der Koeffizienten der Prognosefunktion wird im Rahmen des Holt-Winters-Verfahrens durch die drei im Intervall ]0,l[ wählbaren Glättungsparameter A,B und C gesteuert. Bei Vorgabe sehr kleiner Parameterwerte nahe Null beeinflussen die Beobachtungswerte am historischen Rand der Zeitreihe die Funktionskoeffizienten annähernd so stark wie die Beobachtungswerte am aktuellen Zeitreihenrand. Je größer die Glättungsparameter festgelegt werden, umso stärker wird der Einfluss der aktuellen Beobachtungen. Weist eine Zeitreihe starke Zufallsschwankungen auf, so legt dies beispielsweise die Wahl kleiner Glättungsparameter nahe. Struktureller Wandel der Trendentwicklung und/oder instabile Saisonschwankungen lassen hingegen große Parameterwerte geeignet erscheinen. Winters [26] und andere Autoren schlagen vor, die Glättungsparameter so festzulegen, dass eine bestmögliche „Prognose" der verfügbaren historischen Daten erreicht wird. Als Bewertungskriterium für die Güte der ex post Prognosen wird oft die Summe der quadrierten ex post Ein-Schritt-Prognosefehler (9) empfohlen:
Q{AB,C) = f^{x,-x,_,,f=tel,. t=h
(17)
t^h
Eine näherungsweise Optimierung des Gütekriteriums kann durch eine Gittersuche realisiert werden: Für A,B und C gibt man ein hinreichend feines „Gitter" möglicher Parameterwerte vor; anschließend wird für jeden Gitterpunkt - also für jede Parameterwertkombination - der Wert des Gütekriteriums ermittelt. Ausgewählt wird diejenige Parameterwertkombination, für die Q[A,B,C) den kleinsten Wert annimmt. Alternativ hierzu ist der Einsatz von Hill-Climbing-Verfahren zur iterativen Bestimmung der Glättungsparameterwerte möglich (vgl. [4]). Die Suche nach optimalen Glättungsparameterwerten wird durch die Wahl der Startwerte der Holt-Winters-Rekursionen beeinflusst. Um diesen Einfluss zu mindern, ist es zweckmäßig, nicht die Prognosefehler am historischen Rand der Zeitreihe in die Bewertungsfunktion einfließen zu lassen. In (17) sollte daher die Summation erst ab einem Startzeitpunkt t = h>l beginnen, z. B. h = 2'L + \ oder dergleichen. Selbstverständlich ist die Quadratsumme (17) nicht das einzig sinnvolle Gütekriterium. Dient der Einsatz des Holt-Winters-Verfahrens der Ermittlung von Mehr-Schritt-Prognosen, bietet sich die Quadratsumme von x-Schritt-Prognosefehlern e^^ =jc^-x^_^^ mit r > 1 als Alternative an. Ferner kann anstelle der Summe quadratischer Prognoseifehler el^ auch beispielsweise die Summe absoluter Prognosefehler le^l betrachtet werden.
Einführung in die Prognose saisonaler Zeitreihen 3.2.4
47
Ein numerisches Beispiel
Das Holt-Winters-Verfahren soll anhand der Datenreihe x^ (^ = 1,2,...,28) aus Tabelle 1 illustriert werden. Es handelt sich um eine kurze Zeitreihe von Quartalsabsatzzahlen eines pharmazeutischen Produkts mit saisonal schwankender Nachfrage (Angaben in 1000 Stück). Die mit dem Datenniveau wachsenden Amplituden der Nachfrageschwankungen (vgl. Abbildung 1) legen die Anwendung der multiplikativen Holt-Winters-Variante nahe. Die Tabelle 1 weist neben den Daten auch die mithilfe der Update-Gleichungen (6)-(8) für die Zeitpunkte ^ = 1,2,...,28 rekursiv ermittelten Niveauwerte, Trendfaktoren und Saisonfaktoren aus. Die Startwerte für die Rekursionen «0 =27,793, 4 = 0 , 9 9 7 , c_3 =0,895, c_2 =1,386, c_i =0,801, CQ =0,901 wurden mithilfe der Backcasting-Methode ermittelt. Die Werte der Glättungsparameter ^ = 0,025, 5 = 0,1, C = 0,05 wurden über eine näherungsweise Minimierung der Fehlerquadratsumme (17) mit der Abschneidegrenze h = 9 festgelegt. Die Tabelle weist ferner die ex post Ein-SchrittPrognosen x^_^-^ und die zugehörigen ex post Ein-Schritt-Prognosefehler ^^^ =x^ - Vi,i aus. Vernachlässigt man die Fehler in einer zweijährigen Startphase der Rekursionen, so werden für den restlichen Beobachtungszeitraum der Reihe folgende mittlere quadratische und mittlere absolute Prognosefehler ermittelt: 1
28
—Ye^ 20 S
1
28
6 931, _ y L 1 = 2,100. 20 S ' '
Setzt man schließlich die Werte der Koeffizienten äf,b^,Cf_^,...,c^ am aktuellen Rand ^ = 28 der Reihe in die Prognosefunktion (4) ein, dann können echte ex ante Prognosen ermittelt werden. Für die Quartale des nachfolgenden Jahres erhält man: X28,i = (55,355 + 0,989) • 0,904 = 50,961, ^28,2 =(55,355+ 0,989-2)-1,382 = 79,247, ^28,3 =(55,355+ 0,989-3)-0,789 = 46,034, ^28,4= (55,355+ 0,989-4)-0,902 = 53,507. Die Zeitreihe sowie die ex post und die ex ante Prognose sind in der Abbildung 1 grafisch dargestellt. 3.2.5
Modifikationen des Basisansatzes
Die Interpretation der Saisonfaktoren c^ wird erleichtert, wenn sie im multiplikativen Fall der Bedingung c^_^+c^_^^i+... + c^ =Z bzw. im additiven Fall der Bedingung c^_L+<5^-L+i+--- + ^r =0 für alle ^>0 genügen. Diese Normierungsbedingungen geben der Vorstellung, dass sich die in den einzelnen Phasen des Saisonzyklus wirksamen
Schuhr
48
80
70
60
50
40
30
20
12
16 Quartal
20
24
28
32
Abb. 1: Quartalsabsatzzahlen (Punkte) sowie ex post und ex ante Prognosen (Kreise) Saisoneinflüsse über einen Jahreszeitraum betrachtet wechselseitig aufheben, formal Ausdruck, und sie erlauben eine eindeutige Trennung von Datenniveau und Saisonmuster. In der Tat schlägt Winters [26] vor, sein Verfahren mit normierten Saisonfaktoren zu initialisieren; die anfängliche Normierung geht allerdings bei der Fortschreibung der Startwerte im Update-Prozess verloren und die Saisonfaktoren enthalten zunehmend auch „Trendeinflüsse". Dieser für die Interpretation (nicht aber für die Prognose) relevante Nachteil lässt sich durch Modifikation der Update-Gleichungen beheben. Modifizierte Update-Gleichungen, die auf Arbeiten von McKenzie [18] (additiver Ansatz) und Archibald und Koehler [1] (multiplikativer Ansatz) zurückgehen, sind in der Übersicht 1 in der Fehlerkorrekturform ausgewiesen. Mithilfe von Korrektur- oder Renormierungsfaktoren k^, die es zu jedem Zeitpunkt t neu zu berechnen gilt, werden normierte Saisonfaktorstartwerte so fortgeschrieben, dass die Normierung erhalten bleibt. Die Korrekturen haben keine Auswirkungen auf die Prognosewerte (siehe hierzu Archibald und Koehler). In der Übersicht 1 werden - in Anlehnung an die Notation von McKenzie - Phase und Zeit der Saisonfaktoren durch zwei Indizes gekennzeichnet. Die zum Zeitpunkt t aktuellen Saisonfaktoren werden c^j (/ = 1,2,...,Z) geschrieben, wobei (?,, ^c,_^^, ist. Speziell gilt c,^ ^c, und c,_,, ^c,_^. In der Literatur werden weitere Modifikationen/Erweiterungen des Holt-Winters-Ansatzes vorgeschlagen. Einige dieser Vorschläge betreffen den Trendterm der Prognosefunktion. Der lineare Term äj-^-bj-r in den Prognosefunktionen (4) und (5) dient der
Einführung in die Prognose saisonaler Zeitreihen
49
t
X,
4
4
^t
-^(-1,1
^M
i
27,304 42,773 24,798 27,365 28,448 43,531 26,728 31,590 36,824 51,115 26,708 34,313 36,232 58,323 28,872 42,496 43,681 61,855 36,273 40,244 45,136 67,913 38,851 51,438 45,683 74,230 44,915 48,417
28,833 29,860 30,867 31,834 32,806 33,743 34,701 35,675 36,773 37,751 38,613 39,561 40,532 41,527 42,353 43,420 44,497 45,463 46,435 47,349 48,363 49,337 50,290 51,416 52,357 53,352 54,407 55,355
1,002 1,004 1,004 1,001 0,998 0,992 0,988 0,987 0,998 0,996 0,983 0,979 0,978 0,980 0,965 0,975 0,985 0,983 0,982 0,975 0,979 0,979 0,976 0,991 0,986 0,987 0,994 0,989
0,897 1,388 0,801 0,899 0,896 1,383 0,800 0,898 0,901 1,382 0,794 0,897 0,901 1,383 0,789 0,901 0,905 1,382 0,788 0,898 0,906 1,382 0,787 0,904 0,904 1,382 0,789 0,902
25,756 41,353 24,722 28,724 29,460 46,933 27,826 32,090 32,839 52,255 30,980 35,576 36,527 57,367 33,757 38,853 39,984 62,907 36,624 42,724 43,719 68,190 39,657 46,061 47,487 73,705 42,786 50,058
1,548 1,420 0,076 -1,359 -1,012 -3,402 -1,098 -0,500 3,985 -1,140 -4,272 -1,263 -0,295 0,956 -4,885 3,643 3,697 -1,052 -0,351 -2,480 1,417 -0,277 -0,806 5,377 -1,804 0,525 2,129
-
-
-
-
•^28,r
T
2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 ^ 29 30 31 32
-1,641
50,961 i 79,247 2 46,034 3 53,507 4 Tab. 1: Beispielanwendung des multiplikativen Holt-Winters-Verfahrens
1
1
lokalen Approximation des Trendverlaufs einer Zeitreihe in der zeitlichen Umgebung des Gegenwartszeitpunkts t = T. Für kleine Prognoseschritte wie r = l , r = 2 oder r = 3 ermöglicht die lineare Approximation bei vielen Reihen hinreichend zuverlässige Prognosen. Für größere Prognoseschritte lässt sich jedoch häufig eine Tendenz zur Überzeichnung des zukünftigen Niveauanstiegs bzw. Niveauabstiegs feststellen. Sollen längerfristige Prognosen ermittelt werden, ist deshalb die Verwendung eines „gedämpften" Trendterms mit der Form
50
Schuhr
a^+Y,s'-b^
(18)
eine interessante Alternative. Hierbei ist S ein im Intervall [O, l] wählbarer Dämpfungsfaktor. Im Spezialfall S = l geht der gedämpfte Trendterm in den linearen Trendterm äj+bj-r über. In der Übersicht 1 sind die von Gardner und McKenzie [8] entwickelten Update-Gleichungen für die Prognosefunktionskoeffizienten in der Fehlerkorrekturform angegeben. Alternative Trendterme können selbstverständlich auch bei Kurzfristprognosen sinnvoll sein. Gardner [7] schlägt beispielsweise den multiplikativen (exponentiellen) Trendterm mit exponentiellem ä^ -b^ als Alternative zum additiven (linearen) Term äj+bj-r vor. Weist eine Zeitreihe im Zeitablauf keine Niveauänderungen oder langsame Niveauänderungen ohne prägnant ausgeprägte Trendrichtung auf, so kann es schließlich auch sinnvoll sein, auf die Verwendung von (additiven oder multiplikativen) Trendfaktoren 4 zu verzichten; d.h., man setzt b^=0 für alle r = l,2,...,r (siehe ebenfalls [7]). 3.3
Das SEATREND-Verfahren von Harrison
Das SEATREND-Verfahren von Harrison [10] nutzt ebenso wie das Holt-Winters-Verfahren Prognosefunktionen, die sich aus einem linearen Trendterm und Saisonfaktoren, die mit dem Trendterm multiplikativ oder additiv verknüpft sind, zusammensetzen. Unterschiede treten bei der rekursiven Bestimmung der Prognosefunktionskoeffizienten auf. Die wesentliche Abweichung vom Holt-Winters-Ansatz ist, dass das SEATREND-Verfahren die Saisonfaktoren mittels Fourier-Polynomen glättet. Im Folgenden steht die multiplikative Variante im Mittelpunkt der Ausführungen. Die Prognosefunktion wird ^Tj = \^T +bj'Ty
Sjj
( r = 1,2,3,...)
(19)
geschrieben, wobei mit Sj^j (z = l,2,...,Z) die zum Gegenwartszeitpunkt t = T verfügbaren Saisonfaktoren gekennzeichnet sind und j die Ordnungsnummer der Saisonzyklusphase des zukünftigen Zeitreihenwerts zum Zeitpunkt T + T ist. 3.3.1
Berechnung der Niveau- und der Trendwerte
Zur rekursiven Berechnung der Niveauwerte ä^ und der Trendwerte 4 übernimmt Harrison die exponentielle Glättungstechnik zweiter Ordnung von Brown [2]. Basierend auf den gegebenen Zeitreihenwerten x^ (^ = l,2,...,r) ermittelt man schrittweise
ä,=[ä,_,+b,_,y(\-ß^\e,^,^
(20)
b,=b,_,-v{\-ßf-e,,.
(21)
Hierbei sind e^^^ =Xf -^t-u der ex post Ein-Schritt-Prognosefehler und ß ein im Intervall ]0,l[ wählbarer Glättungsparameter. Diese Fehlerkorrekturform des Brownschen Ansatzes wurde bereits in Kapitel 2 vorgestellt. Die von Harrison vorgeschlagene VenA/en-
Einführung in die Prognose saisonaler Zeitreihen
51
düng eines exponentiellen Glättungsansatzes mit nur einem Glättungsparameter ist nicht zwingend. Eine größere Flexibilität ermöglicht die Nutzung des Holtschen ZweiParameter-Ansatzes
b,=b,_^+A'B-e,^
(23)
mit den beiden im Intervall ]0,l[ wählbaren Glättungsparametern A und B (vgl. Kapitel 2 dieses Buches). Im Spezialfall A = l-ß^ und B = {l-ßf /A geht dieser Zwei-Parameter-Ansatz wieder in den Brownschen Ein-Parameter-Ansatz über. 3.3.2
Berechnung der Saisonfaktoren
Bezüglich der Berechnung der Saisonfaktoren unterscheidet Harrison zwei Verfahrensvarianten: Das „grobe" und das „stromlinienförmige" SEATREND-Verfahren (englisch: crude and streamlined SEATREND). Beide Varianten nutzen Fourier-Techniken, die Harrison als Fourier-Glättung bezeichnet. Zunächst sollen die Überlegungen, die der Fourier-Glättung zugrunde liegen, in einem allgemeinen Kontext skizziert werden. 3.3.2.1
Fourier-Polynom-Darstellung und Fourier-Glättung von Saisonfaktoren
Betrachtet sei eine Sequenz von Saisonfaktoren Ci,c2,...,c^, welche die saisonalen Schwankungen einer Zeitreihe mit der Saisonzykluslänge L über einen bestimmten Jahrzeitraum hinweg erfasst. Die Art und Weise der Ermittlung der Faktoren ist an dieser Stelle unerheblich; von Interesse ist hingegen, dass die Faktoren durch eine Überlagerung harmonischer Schwingungen mit geeigneten Frequenzen dargestellt werden können. Als harmonische Schwingung bezeichnet man eine periodische Funktion der Form f (^u) = a' cos{27rÄu -(p) ,
wobei a die Amplitude, X die Frequenz und cp die Phasenverschiebung der Schwingung sind. Es gilt -a
v kann die phasenverschobene harmonische Welle als Summe einer Kosinusfunktion mit der Amplitude 0 = a-cos(p und einer Sinusfunktion mit der Amplitude & = a-sin(p geschrieben werden: f (^u) = 0• cosl/TÄu + 3• sinlTTÄu .
Hierbei gilt a = ^6^ + 3^ . Die Saisonfaktoren Ci,c2,...,c^ sind als Punkte auf einer Kurve darstellbar, die durch Überlagerung einer harmonischen Schwingung der Frequenz 1/Z mit harmonischen Oberschwingungen der Frequenzen 2/Z, ...,1/2 entsteht: LI2 k=\
52
Schuhr Ljl
= 6Q+^dj^'COs27rji+
[Ll2)-\
^
i9^-sin2;rj/
(/ = 1,2,...,Z) .
Man beachte, dass sm(27rki/L) = 0 für k = L/2 und z = l,2,...,Z gilt. Die Frequenzen 1/Z, 2/Z,...,l/2 werden als Fourier-Frequenzen und obige Überlagerung als FourierPolynom bezeichnet. Die Koeffizienten des Polynoms sind durch
_
1^
1 ^ ^^^2 ^ ~ X ^/ ' ^^^ ^^ ^^^ ^L/2 - ö gegeben. Erfüllen die Saisonfaktoren die Normierungsbedingung q+^2+... + c^ = Z , dann ist genau OQ=1. Die mathematisch-statistischen Hintergründe diskutieren z. B. Schlittgen und Streitberg [24], S. 50 ff. Obige Fourier-Polynom-Darstellung benötigt L Polynom-Koeffizienten 6Q,6^,...,6J^I2,&I,.. ••'^(L/2)-i '^^^ Repräsentation von L Saisonfaktoren. Die Amplituden der harmonischen Schwingungen a^ = ^61 + &l {k = \,2,...,L/2) variieren typischerweise mit der Frequenz der Schwingungen. Sind einige der Amplituden nahe Null, dann können die zugehörigen Schwingungen gegebenenfalls vernachlässigt und die Saisonfaktoren durch die Überlagerung der verbleibenden Wellen angenähert werden. Die Vernachlässigung harmonischer Wellen mit kleiner Amplitude bewirkt eine Glättung der Faktoren (FourierGlättung). Ferner wird eine „sparsam parametrisierte" Repräsentation der Saisonfaktoren durch weniger als L Polynom-Koeffizienten erreicht. Der Fourier-Ansatz sei anhand eines Beispiels verdeutlicht. Hierbei wird eine Zeitreihe von Monatsdaten ( 1 = 12) unterstellt, deren Saisonschwankungen über eine bestimmte Saison durch die nachfolgenden Saisonfaktoren beschrieben werden: 0,93, 0,94, 1,00, 0,95, 0,98, 1,14, 1,22, 1,14, 1,09, 0,93, 0,80, 0,88. Das Saisonmuster lässt sich bereits durch die Überlagerung dreier harmonischer Wellen mit den Frequenzen /lj=l/12, >^=l/6 und /l4=l/3 brauchbar annähern (siehe Abbildung 2). Die zugehörigen Fourier-Polynom-Koeffizienten und Amplituden lauten 6>o=l-0, ö^ =-0.1295, i9i =-0,0501, 6^1=0,1389, ^2 =-0,0142, 6^2=0,0823, ^2 =0,0835 und Ö4 =0,0275, »94=0,0245, ^4 =0,0369. Die harmonischen Schwingungen mit den Frequenzen yl^ = l/4, Ä^=5l\2 und /l6=l/2 werden vernachlässigt, da sie wegen ihrer kleinen Amplituden ^3 =0,0075 , a^ =0,0064 und a^ =0,0033 keinen wesentlichen Beitrag zur Darstellung der Saisonfaktoren liefern. 3.3.2.2 Rekursive Berechnung geglätteter Saisonfaktoren Die grobe SEATREND-Methode nutzt den skizzierten Fourier-Ansatz zur Glättung von Saisonfaktoren, die Winters' Rekursionsgleichung (8) genügen:
Einführung in die Prognose saisonaler Zeitreihen
53
Überlagerung
4. Harmonische
2. Harmonische
1. Harmonische
-i—
—1—
0
10
— I —
12
Abb. 2: Approximation von Saisonfaktoren (Punkte) durch die Überlagerung dreier harmonischer Wellen (Kurven) c , = C . ^ + (l-C).c,_,=c,_,+C a,
•-C,
t-L
K^t
Die zu einem Zeitpunkt / aktuell verfügbaren „rohen" Faktoren c^_^+i,c^_^+2 '•••' ^t werden in „geglättete" Saisonfaktoren V L + 1 ' V L + 2 '•••' ^t transformiert gemäß VL+/ =4,0 + Z [^t^k •cos2;r|/ + 4,;t •sin2;rA/j
(/ = 1,2,..,Z)
(24)
sig k
mit dem vorgegebenen Absolutglied 4,o =1 und den Polynom-Koeffizienten 2 ^ ^a=TZ^^-L+/-c^s2;rA/
4,)^=-Z^^-L+/-sin2;rA/,
und
falls
(25)
0
6^^^ = —Z^f-L+/'cos/n und 3^j^:=0 ^ falls A: = Z/2.
54
Schuhr
In (24) symbolisiert das Zeichen Yjsi k ' ^^^^ ^''^® Addition nur über die harmonischen Schwingungen erfolgt, deren Amplituden signifikant größer als Null sind. Eine Testprozedur zur statistischen Prüfung der Amplitudensignifikanz gibt Harrison in seinem Beitrag an. Durch die Vorgabe des Absolutglieds 4,o =1 wird sichergestellt, dass die geglätteten Faktoren der Normierung V L + I + V L + 2 +••+'?; = ^ genügen. Zu jedem Zeitpunkt t = \,2,...,T kann nun ein aktualisierter Satz geglätteter Saisonfaktoren ermittelt werden. Die hierzu benötigten Koeffizienten 4,)t ^^^ ^t,k der signifikanten harmonischen Wellen werden beim SEATREND-Verfahren nicht durch Lösen der Gleichungen (25) berechnet, sondern es erfolgt eine schrittweise Fortschreibung der Koeffizienten mithilfe von Update-Gleichungen. Zur Vermeidung von Widersprüchen werden die zu einem Zeitpunkt t aktuell verfügbaren rohen und geglätteten Saisonfaktoren im Folgenden c^i (/ = 1,2,...,Z) bzw. 5^^(/ = l,2,...,Z) geschrieben. Die von Harrison angegebenen Rekursionsgleichungen besitzen die Form
dt± - ^t-u
+ C•
•-C.
t-\,h
COSl/Tjt
,
(26)
•-C,
t-\,h
'S'mlTT-j-t
,
(27)
L \^t
'^t,k - ^t-\,k + ^ ' \^t
wobei h = l + (t-\)modL die Ordnungsnummer der Saisonzyklusphase des Zeitreihenwertes X, ist. Analog zu (24) gilt ^^'=^+Z(4.t•cos2;^A/ + 4,A•sin2;^A^•)
(z = l,2,...,L)
(28)
sig k
Die Rekursionsgleichungen (26) und (27) entsprechen in ihrer Struktur der UpdateGleichung (8) der rohen Saisonfaktoren. Speziell fungiert die Konstante C auch hier als Glättungsparameter mit 0 < C < 1. Aus dem groben Ansatz entsteht die verfeinerte, stromlinienförmige SEATREND-Variante, wenn man in den Update-Gleichungen (26) und (27) die rohen Saisonfaktoren durch geglättete Faktoren ersetzt: f ^t,k -
^t-\,k
L \^i
^i,k -
^i-\,k
L K^t -s, t-\,h
^t-\,h
'COSlTTj-t,
sinlTT-j-t.
(29)
(30)
Die Berechnung roher Saisonfaktoren ist jetzt nicht mehr erforderlich. Es müssen lediglich Startwerte 4,yt ^^^ \k ^^^ Initialisierung der obigen Rekursionen ermittelt werden; anschließend ist zu jedem Zeitpunkt ^>0 über die Gleichungen (29), (30) und (28) ein aktueller Satz von Saisonfaktoren s^j (/ = 1,2,...,Z) verfügbar. Angemerkt sei, dass die geglätteten Saisonfaktoren bei der groben und bei der stromlinienförmigen Variante zur Vereinfachung der Notation mit identischen Symbolen dargestellt wurden; die Faktorwerte unterscheiden sich allerdings in aller Regel voneinander.
Einführung in die Prognose saisonaler Zeitreihen
55
Die relevanten Berechnungsformeln des stromlinienförmigen SEATREND-Verfahrens sind nochmals in der Übersicht 2 zusammengestellt. Bezüglich der Berechnung der Niveau- und Trendwerte wird dort der flexible Zwei-Parameter-Ansatz (22) und (23) ausgewiesen. Das SEATREND-Verfahren ist in dieser Form - ebenso wie das HoltWinters-Verfahren - eine exponentielle Glättungsmethode mit drei wählbaren Glättungsparametern. Die Übersicht 2 weist ferner den korrespondierenden Formelapparat der SEATREND-Variante mit additiver Saison aus. Die Rekursionsgleichungen beim multiplikativen und additiven Ansatz unterscheiden sich lediglich in einem Punkt: An die Stelle der Trendbereinigung durch Division xjäi in (29) und (30) tritt die Trendbereinigung durch Subtraktion x^-ä^. Ferner wird in der Berechnungsformel für die geglätteten Saisonfaktoren s^j (z = l,2,...,Z) das Absolutglied 4,o des Fourier-Polynoms gleich Null gesetzt; die additiven Faktoren genügen hierdurch der Normierungsbedingung ^,i+5,2+... + ^,,^=0.
1
Verfahren mit multiplikativen Saisonfaktoren
Verfahren mit additiven Saisonfaktoren
^t=l^t-\+^-\h^'^t,\
^^ = [^M+4-ll+^-^U
4=4-i+^-^-^u
4=Vi+^'^'^u
-
-
2
2 /
'COSlll — t
\
^
L
-
-
2
• 0
^.
\ y t = V u +C—(x^ -a^
-St_^j^\sin2%-t
sig k
sig k
(/=i,...,d
(i = U.L) Xj ^^äj
XT,^=(äj+bj'x\sjj
•\-bj"X + Sj :
mit h = \^-{t- \)mod L und 7 = 1 + (7 + x - \)mod L mit h = \ + {t-\)modLund
Übersicht 2: 3.3.3
j = \ + {T +
x-\)modL
Streamlined SEATREND-Verfahren mit drei Glättungsparametern
Implementierung des Verfahrens
Die rekursive Berechnung der Prognosefunktionskoeffizienten setzt die geeignete Initialisierung der Update-Gleichungen und die geeignete Festlegung der Glättungsparameter voraus. Zur Initialisierung der Update-Gleichungen werden Startwerte a^, 4 . 4,1,-,4,1/2 ^^^ 4,P-'4(L/2)-i benötigt. Die Fourier-Polynom-Koeffizienten 4,)t ^^^ OQJ^ können beim groben wie beim stromlinienförmigen SEATREND-Verfahren mithilfe der Gleichungen (25) auf der Basis roher Saisonfaktoranfangswerte c_^^^,c_^^2 '•••»^o ermittelt werden. Die Startwertproblematik entspricht nun der Startwertproblematik beim Holt-Winters-Verfahren; es können bei beiden Methoden dieselben Techniken zur Startwertermittlung eingesetzt werden (vgl. Abschnitt 3.2.3). Die Initialisierung des SEATREND-Verfahrens erfordert darüber hinaus die Prüfung der Amplitudensignifikanz harmonischer Schwingungen. Hierfür schlägt Harrison [10] ein Testverfahren na-
56
Schuhr
mens PERSEAVAR vor. Die Wahl der Glättungsparameter A,B und C schließlich kann analog zur Wahl der Glättungsparameter beim Holt-Winters-Verfahren durchgeführt werden (vgl. ebenfalls Abschnitt 3.2.3). 3.3.4
Ein numerisches Beispiel
Die Zeitreihe aus Tabelle 1 wird jetzt auch zur Illustration des SEATREND-Verfahrens herangezogen. Die Ergebnisse der Prognoseanwendung sind in der Tabelle 2 zusammengestellt. Die rekursiven Berechnungen wurden mit denselben Startwerten initialisiert wie das Holt-Winters-Verfahren in Anschnitt 3.2.4. Zum Einsatz kann die multiplikative SEATREND-Variante mit zwei Glättungsparametern, denen die Werte ß = Q,915 und C = 0,05 zugewiesen wurden. Dies entspricht dem Drei-Parameter-Ansatz mit ^ = 0,049, 5 = 0,013 und C = 0,05. Zur Approximation der Saisonschwankungen wurden Fourier-Polynome mit der vollen Anzahl von Z/2 = 2 harmonischen Schwingungen benötigt. Die resultierenden ex post und ex ante Prognosen weichen nicht wesentlich von den Holt-Winters-Prognosen ab. Für die Ein-Schritt-Prognosefehler im ex post Bereich ergeben sich die folgende Mittelwerte: 1
28
1
28
^ 1 4 = 7.026. ^ I k . | = V44. Die Prognosefunktion zur Ermittlung der ex ante x-Schritt-Prognosen besitzt die Form ^28^= (55,279+ 0,993r)-(l-0,240cos2;;rl7 + 0,058sin 2;^-i7>0J48cos;r
mit
^28 =55,279, ^8 =0,993, ^8,1 =-0,240, ^8,2 =0,148, 48,i =0,058
und
7 = 1 + (27 + r)mod4. Prognosewerte JC28^^ für r = 1,...,4 weist Tabelle 2 aus.
3.4
Verfahrensvergleich und Ausblick
Das Holt-Winters-Verfahren und das SEATREND-Verfahren sind zwei verwandte exponentielle Glättungstechniken zur Prognose trend- und saisonbehafteter Zeitreihen. Sie nutzen identisch aufgebaute Prognosefunktionen, berechnen die Prognosefunktionskoeffizienten jedoch mithilfe unterschiedlicher Rekursionsschemata. Signifikante Verfahrensunterschiede treten insbesondere bei der rekursiven Berechnung der Saisonfaktoren auf. Zwei Vorzüge des SEATREND-Verfahrens sind hierbei augenfällig: Die Anwendung der Fourier-Technik erlaubt es SEATREND, in jeder Update-Periode alle L Saisonfaktoren zu aktualisieren, während im Rahmen des HoltWinters-Ansatzes ein Saisonfaktor mit bestimmter Saisonzyklusphase nur einmal pro Jahr fortgeschrieben wird; ferner ermittelt SEATREND stets normierte Saisonfaktoren, das Holt-Winters-Verfahren in seiner Grundversion hingegen nicht. Die beiden Vorzüge werden allerdings durch einen gegenüber dem Holt-Winters-Verfahren erhöhten Bedarf an Rechenzeit erkauft. Die Rechenzeitunterschiede variieren selbstverständlich mit der
Einführung in die Prognose saisonaler Zeitreihen
57
t
X,
ä,
l
c,
•^(-1,1
^M
2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28
i
27,304 42,773 24,798 27,365 28,448 43,531 26,728 31,590 36,824 51,115 26,708 34,313 36,232 58,323 28,872 42,496 43,681 61,855 36,273 40,244 45,136 67,913 38,851 51,438 45,683 74,230 44,915 48,417
28,860 29,922 30,918 31,843 32,784 33,609 34,544 35,512 36,698 37,639 38,414 39,344 40,314 41,357 42,099 43,261 44,430 45,362 46,327 47,187 48,238 49,210 50,148 51,395 52,288 53,293 54,381 55,279
0,998 0,999 0,999 0,998 0,997 0,995 0,994 0,994 0,997 0,996 0,993 0,992 0,992 0,993 0,989 0,992 0,994 0,993 0,993 0,991 0,992 0,992 0,991 0,994 0,993 0,993 0,994 0,993
0,901 1,391 0,804 0,902 0,900 1,387 0,806 0,903 0,908 1,384 0,801 0,902 0,908 1,388 0,796 0,909 0,910 1,388 0,794 0,904 0,913 1,387 0,794 0,909 0,909 1,389 0,794 0,908
25^879 41,478 24,868 28,866 29,602 47,026 27,949 32,121 32,945 52,227 31,179 35,600 36,665 57,302 33,949 38,994 40,091 63,109 36,832 42,929 43,930 68,319 39,937 46,250 47,716 73,998 42,993 50,353
1,425 1,295 -0,070 -1,501 -1,154 -3,495 -1,221 -0,531 3,879 -1,112 -4,471 -1,287 -0,433 1,021 -5,077 3,502 3,590 -1,254 -0,559 -2,685 1,206 -0,406 -1,086 5,188 -2,033 0,232 1,922 -1,936
t
-
-
-
-
^28,r
T
29 30 31 32
5lTl89
i
79,494 46,287 53,779
2 3
4
1
Tab. 2: Beispielanwendung des multiplikativen SEATREND-Verfahrens jeweiligen konkreten Anwendung und lassen sich nicht generell quantifizieren. Es sei deshalb hier lediglich an die unterschiedliche Anzahl der Rekursionsgleichungen erinnert. Beim Holt-Winters-Verfahren werden pro Update-Schritt stets drei Koeffizienten 4 , 4 und c^ fortgeschrieben. Beim SEATREND-Verfahren werden neben dem Niveau- und dem Trendwert bis zu Z - 1 Fourier-Polynom-Koeffizienten aktualisiert, wobei die konkrete Anzahl der Koeffizienten von der Zahl signifikanter harmonischer Schwingungen abhängt. Im Falle Z = 12 kann die Anzahl der Rekursionen maximal 13 betragen. Das Holt-Winters-Verfahren wurde in weiteren empirischen Studien mit anderen Prognosemethoden verglichen. Speziell in den umfangreichen Studien von Makridakis u.a. (siehe z. B. [15], [16], [17]) erwies es sich als ein robustes, weitgehend automatisierbares Verfahren, dessen Kurzfristprognosen im Allgemeinen nicht weniger zuverlässig als die Kurzfristprognosen komplexerer und rechenaufwändigerer Alternativverfahren sind. Im Lichte der Studien erscheint Holt-Winters auch heute noch als eine attraktive Prognosemethode - dies gilt speziell für aufwändige betriebliche Anwendungen, bei denen zur Unterstützung der Lagerhaltungs- und Produktionsplanung routinemäßig Kurzfrist-
58
Schuhr
Prognosen für zukünftige Absatzzahlen von hunderten oder gar tausenden von Produkten benötigt werden. Software-Implementierungen des Verfahrens bieten zahlreiche allgemeine Statistik-Software-Pakete (z. B. Minitab, SAS/ETS, SPSS, Statgraphics oder Statistica) und spezialisierte Prognosesoftware-Tools (z. B. Autocast, Forecast Pro oder SIBYL/Runner). Einen umfassenderen, wenn auch nicht vollständigen Überblick gibt der „2003 Forecasting Software Survey" der Zeitschrift OR/MS Today [20]. Des Weiteren finden sich Implementierungen in Planungstools von Herstellern betrieblicher Standardsoftware (z. B. Demand Planning von Oracle und mySAP Supply Chain Management von SAP). Das SEATREND-Verfahren hat keinen Eingang in die Prognosevergleiche von Makridakis u.a. gefunden. Implementierungen in aktuellen SoftwarePaketen sind rar; der „2003 Forecasting Software Survey" weist iData als einziges Software-Paket aus. Auch jenseits der genannten Vergleichsstudien ist das Holt-Winters-Verfahren Gegenstand aktueller Forschung. Winters [26] motivierte - ohne Bezug auf modelltheoretische Überlegungen - seinen Prognoseansatz rein heuristisch. Es ist dennoch interessant zu untersuchen, unter welchen Modellprämissen der Ansatz optimale Prognoseeigenschaften im Sinne eines definierten Gütekriteriums besitzt. Ord u.a. [21] und hierauf aufbauend Chatfield u.a. [6] spezifizieren eine Klasse von Zustandsraummodellen, unter deren Bedingung Holt-Winters und seine Varianten optimale Prognosen im Sinne eines minimalen erwarteten quadratischen Prognosefehlers ermitteln. Die Umschreibung „unter der Bedingung" meint hier, dass alle prognoserelevanten statistischen Charakteristika einer betroffenen Zeitreihe durch ein Modell aus der spezifizierten Modellklasse erfasst werden. Die theoretischen Ergebnisse können unmittelbar für die Prognosepraxis nutzbar gemacht werden. Hyndman u.a. [13] wenden sie zur Konstruktion von Prognoseintervallen an, die eine Quantifizierung der mit der „Punkt"Prognose Xj^^ zukünftiger Zeitreihenwerte x^^^ verbundenen Prognoseunsicherheit ermöglichen. Die Arbeit von Hyndman u.a. konkretisiert und erweitert ältere Ergebnisse von Yar und Chatfield [27] und Chatfield und Yar [5], die unter weniger klar fassbaren Prämissen gewonnen wurden. Eine zweite Anwendung der modelltheoretischen Erkenntnisse ist ein automatisches Methoden-Selektionsverfahren von Hyndman u.a. [12]. Vor dem Prognoseeinsatz des Holt-Winters-Verfahrens muss entschieden werden, ob eine Prognosefunktion mit additiven, multiplikativen oder gegebenenfalls auch ohne Saisonfaktoren sowie mit einem additiven (linearen), multiplikativen (exponentiellen) oder gedämpften Trendterm genutzt werden soll. Das Selektionsverfahren erlaubt eine Automatisierung der Entscheidungsfindung - natürlich auf Kosten eines zusätzlichen Rechenaufwands. 3.5 [1] [2] [3] [4] [5]
Literatur Archibald, B.C. und Koehler, A.B., Normalization of seasonal factors in Winters' methods, International Journal of Forecasting 19 (2003), S. 143 ff. Brown, R.G., Statistical forecasting for inventory control, New York 1959. Brown, R.G., Smoothing, forecasting and prediction of discrete time series, Englewood Cliffs1963. Chatfield, C. und Yar, M., Holt-Winters forecasting: Some practical issues, The Statistican37(1988), S. 129 ff. Chatfield, C. und Yar, M., Prediction intervals for multiplicative Holt-Winters, International Journal of Forecasting 7 (1991), S. 31 ff.
Einführung in die Prognose saisonaler Zeitreihen [6] [7] [8] [9] [10] [11] [12]
[13]
[14] [15]
[16]
[17] [18] [19] [20] [21]
[22]
[23] [24] [25] [26] [27]
59
Chatfield, C , Koehler, A.B., Ord, J.K. und Snyder, R.D., A new look at models for exponential smoothing, The Statistican 50 (2001), S. 147 ff. Gardner, E.S., Jr., Exponential smoothing: The State of the art, Journal of Forecasting 4 (1985), S. 1 ff. Gardner, E.S., Jr. und McKenzie, E., Seasonal exponential smoothing with damped trends, Management Science 35 (1989), S. 372 ff. Granger, C.W.J. und Newbold, P., Forecasting economic time series, 2. Aufl., San Diego u.a. 1986. Harrison, P.J., Short-term sales forecasting, Applied Statistics, 14 (1965), S.102 ff. Holt, C.C., Forecasting seasonals and trends by exponentially weighted moving averages, Office of Naval Research, Research Memorandum No. 52, 1957. Hyndman, R.J., Koehler, A.B., Snyder, R.D. und Grose, S., A State space framework for automatic forecasting using exponential smoothing methods. International Journal of Forecasting 18 (2002), S. 439 ff. Hyndman, R.J., Koehler, A.B., Ord, J.K. und Snyder, R.D., Prediction intervals for exponential smoothing using two new classes of State space models, Working Paper January 2003, Monash University, VIC 3800, Australia. Ledolter, J. und Abraham, B., Some comments on the initialization of exponential smoothing, Journal of Forecasting 3 (1984), S. 79 ff. Makridakis, S., Andersen, A., Carbone, R., Fildes, R., Hibon, M., Lewandowski, R., Newton, J., Parzen, E. und Winkler, R., The accuracy of extrapolation (time series) methods: Results of a forecasting competition, Journal of Forecasting 1 (1982), S. 111 ff. Makridakis, S., Chatfield, C, Hibon, M., Lawrence, M., Mills, T., Ord, J.K. und Simmons, L., The M-2 competition: A real-life judgmentally based forecasting study with discussion. International Journal of Forecasting 9 (1993), S. 5 ff. Makridakis, S. und Hibon, M., The M3-competition: Results, conclusions and implications. International Journal of Forecasting 16 (2000), S. 451 ff. McKenzie, E., Renormalization of seasonals in Winters' forecasting Systems: Is it necessary?, Operations Research 34 (1986), S. 174 ff. Montgomery, D.O. und Johnson, L.A., Forecasting and time series analysis, New York u.a. 1976. OR/MS Today, 2003 Forecasting Software Survey, Institute for Operations Research and the Management Sciences, Atlanta 2003. Ord, J.K., Koehler, A.B. und Snyder, R.D., Estimation and prediction for a dass of dynamic nonlinear Statistical models, Journal of the American Statistical Association 92 (1997), S. 1621 ff. Reid, D.J., Forecasting in action: A comparison of forecasting techniques in economic time-series, Joint Conference of O.R. Society's Group on Long Range Planning and Forecasting 1971. Reid, D.J., A review of short-term projection techniques, in Gordon, H.A. (Hrsg.), Practical aspects of forecasting, London 1975. Schlittgen, R. und Streitberg, B.H.J., Zeitreihenanalyse, 7. Aufl., München-Wien 1997. Wagle, B., Rappoport, J.Q.G.H. und Downes, V.A., A program for short-term sales forecasting, The Statistican 18 (1968), S. 141 ff. Winters, P.R., Forecasting sales by exponentially weighted moving averages, Management Science 6 (1960), S. 324 ff. Yar, M. und Chatfield, C, Prediction intervals for the Holt-Winters forecasting procedure, International Journal of Forecasting 6 (1990), S. 127 ff.
4
Prognose bei unregelmäßigem Bedarf
von Arthur Nowack 4.1
Abgrenzung zwischen regelmäßigem und unregelmäßigem bzw. sporadischem Bedarf
4.1.1
Kennzeichen des „regelmäßigen Bedarfs"
Die Vorhersagemethode der exponentiellen Glättung auf Basis der Arbeiten von Brown (Kapitel 3 dieses Buches) geht davon aus, dass in jeder beobachteten Periode Nachfragen eintreffen. Zur Prüfung, ob regelmäßiger Bedarf vorliegt, ob also die relativen Abweichungen vom Mittelwert klein sind, wird ein „Abweichsignal" berechnet (vgl. Kapitel 18 in diesem Buch). Denn nur unter der Voraussetzung kleiner Abweichungen ist das einfache und doch wirkungsvolle Verfahren der exponentiellen Glättung überhaupt anwendbar. Es ist leicht einzusehen, dass nicht alle Zeitreihen der Nachfrage nach Artikeln diesen Voraussetzungen entsprechen. 4.1.2
Festlegung des „sporadischen Bedarfs" im IMPACT-Verfahren
Wir wollen zur Abgrenzung des Begriffs „sporadischer Bedarf" zunächst die Vorgehensweise darstellen und kritisch beleuchten, die IBM erstmals in Verbindung mit einer Standardsoftware für den Handel (IMPACT) entwickelt hatte. Begriffsdifferenzierungen anderer Autoren geben wir im Zusammenhang mit den von ihnen entwickelten Verfahren wieder. Im Programm IMPACT zur Lagerhaltung im Handel, das als Vorhersageverfahren die Methode der exponentiellen Glättung verwendete, wurde der Begriff der „sporadischen Nachfragen" durch folgende Bedingungen charakterisiert [1], S. 24 ff.: 1. 2. 3. 4.
Während 50 % des beobachteten Zeitraums ist die Nachfrage gleich Null Während 80 % des Zeitraums ist die Zahl der Bestellungen Null oder Eins In Ballungsintervallen ist der Bedarf 300 % bis 400 % der Durchschnittsnachfrage Die mittlere absolute Abweichung (MAD) ist etwa gleich dem Durchschnittsbedarf
Da diese Prämissen aus einem einzelnen Beispiel mit zehn Nachfragen resultieren, bei dem die maximale Nachfrage (zufälligerweise) lediglich Vier war (vgl. Abbildung 1), dürfen sie nicht als allgemeingültige Definitionen für den sporadischen Bedarf verstanden werden. Sie sind aber gut dazu geeignet, eine erste Abgrenzung gegenüber dem Begriff der regelmäßigen Nachfrage zu geben. In IMPACT wurde kein spezielles Modell für die sporadische Nachfrage-Charakteristik entwickelt. Es wurde vorgeschlagen, den Parameter beim exponentiellen Glätten ^ = 0,05 zu setzen. Das bedeutet, dass den Gegenwartswerten wenig Vertrauen entgegen gebracht wird. Außerdem ist das Abweichsignal nicht aussagefähig, da die Vorhersagefehler nicht normalverteilt sind.
Nowack
62
Nachfrage
A
Mittelwert der Nachfrage = 1 mittl. absolute Abweichung = 1
4 3 2
10
^
Zeit
Abb. 1: Beispiel einer sporadischen Nachfrage-Charakteristik mit IMPACT 4.2
Vorhersage bei unregelmäßigem Bedarf - Verfahren von Trux
4.2.1
Begriff „unregelmäßiger Bedarf"
Trux stellt dem regelmäßigen Bedarf den unregelmäßigen gegenüber [3], S. 132 ff. Eine Abgrenzung ist dadurch gegeben, dass der Störpegel (p) einer NachfrageCharakteristik größer als 0,5 ist. Der Störpegel ist das Verhältnis von mittlerer M4D zum Mittelwert des Bedarfs (D): MAD P=D Unregelmäßiger Bedarf liegt also vor, wenn AMD größer als 50 % des durchschnittlichen Bedarfs ist. Die Vorhersage des Bedarfs wird zunächst in zwei Teilen getrennt durchgeführt. Neben der Anzahl von Bestellungen bzw. Entnahmen in der nächsten Periode (VA) wird die durchschnittliche Höhe des Bedarfs je Bestellung (VH) prognostiziert. Der Bedarf für die nächste Periode (V) ergibt sich aus V, = VArVH, Die Vorhersage der Anzahl von Bestellungen geht davon aus, dass diese regelmäßig oder sporadisch eintreffen können. Zur Vorhersage der durchschnittlichen Bedarfshöhe wird unterschieden in homogene Struktur der Kunden (Menge je Entnahme normalverteilt) und inhomogene Struktur (Menge je Entnahme lognormalverteilt). Die Kundenstruktur wird z. B. als homogen angesehen, wenn nur Einzelhändler zum Kreis der Nachfrager gehören. Setzt sich der Kundenstamm aus Einzelhändlern und Großhändlern zusammen, so ist die Struktur inhomogen. Damit ergeben sich vier Vorhersagestrukturen: 1. 2.
Regelmäßiger Auftragseingang und homogene Kundenstruktur (hierfür werden einfache Verfahren, wie in Kapitel 2 dieses Buches beschrieben, angewandt) Regelmäßiger Auftragseingang und inhomogene Kundenstruktur
Prognose bei unregelmäßigem Bedarf 3. 4.
63
Sporadischer Auftragseingang und homogene Kundenstruktur Sporadischer Auftragseingang und inhomogene Kundenstruktur
Die zusätzliche Information über den Kundenkreis ist eine interessante Ergänzung zu Vorhersagemodellen. 4.2.2
Vorhersage der Anzahl von Bestellungen
Bei regelmäßigem Auftragseingang wird VA mit exponentieller Glättung erster Ordnung vorhergesagt. Bei sporadischem Bedarf kommt dem Periodenbedarf wegen der starken Zufallsschwankungen nicht die gleiche Bedeutung zu wie bei regelmäßigem Bedarf. Als bessere Basis bieten sich für die Vorhersage die bisher insgesamt aufgelaufenen Bestellungen eines Artikels an. In diesen werden sich die Abweichungen ausgleichen. Es wird davon ausgegangen, dass eine Entnahme ein „seltenes Ereignis" darstellt und der Auftragseingang Po/sson-verteilt ist. Folgende Vorhersagemethode wird abgeleitet: Man bilde die aufgelaufenen Gesamtnachfragen X^ durch Summation der Bestellungen aller Perioden Dj von der Periode 0 bis zur Periode t .
7=0
Diese Gesamtnachfrage X^ verwende man als Substitution für eine Bestellvorhersage mit exponentieller Glättung zweiter Ordnung. Das Prognoseergebnis ist die bis zur nächsten Periode aufsummierte Anzahl der Bestellungen. Die eigentliche Zahl der Bestellungen dieser Periode (VA) wird durch die Steigung der Trendgeraden dargestellt. Dieses Verfahren ist aber nur anzuwenden, wenn die Häufigkeitsverteilung der Nachfragen in etwa einer Po/ssorz-Verteilung gehorcht. 4.2.3
Vorhersage der Menge je Bestellung
Bei tiomogener Kundenstrul
64
Nowack In F//^+i =ln VH^ +A{\nEt-\n
VH^)
Dieser Vorhersagewert der Auftragsmenge muss auf der Basis der Eulerschen Konstanten e wieder zum Vorhersagewert VH delogarithmiert werden. VH,^,=e'^''''t.x
(1)
Trux gibt auch für jedes Verfahren Formeln an, mit denen der Anfangswert der Vorhersage gut abgeschätzt werden kann. Die angegebenen Verfahren der doppelten Vorhersage gleichen Zufallsschwankungen aus und gewährleisten darüber hinaus auch eine gute Anpassung bei Strukturbruch. (Ein solcher liegt vor, wenn sich die Zeitreihen-Charakteristik ändert, z. B. von linear steigender Tendenz zu linear fallender Tendenz oder zu konstantem Verlauf.) 4.3
4.3.1
Das Modell zur Vorhersage für sporadische Nachfragemengen von Wedekind Begriffsbestimmung „sporadische Nachfrage"
In der Studie von Wedekind [5] über ein Vorhersagemodell für sporadische Nachfragemengen bei der Lagerhaltung ist folgende Begriffsbeschreibung der „sporadischen Nachfrage" [5], S. 1, enthalten: Nachfragemengen werden als sporadisch bezeichnet, wenn in sehr vielen Zeitperioden überhaupt keine oder nur sehr geringe Nachfrage nach einem zu lagernden Gut herrscht, um dann in einigen wenigen Perioden sprunghaft anzusteigen. Diese Beschreibung ist allgemeiner als die anhand des IMPACT-Beispiels und bei Trux getroffene Abgrenzung gegenüber dem regelmäßigen Bedarf. Da aber nur relative Ausdrücke wie „sehr viel" oder „sehr gering" gebraucht werden, ist diese Beschreibung unschärfer als die beiden oben wiedergegebenen. Wedekind stellt an einer Lagerhaltungssimulation dar, wie er diese relativen Begriffe interpretiert. Die Nachfragedaten des verwendeten Beispiels sind in Abbildung 2 grafisch als Zeitreihe dargestellt. Wedekind weist darauf hin, dass im Wirtschaftsleben neben geringwertigen Artikeln auch hochwertige Fertigprodukte, wie z. B. elektronische Bauteile, sporadisch nachgefragt werden. Für diese ist der Aufwand der verfeinerten Disposition gerechtfertigt. Ein bedeutender Aspekt wird von Wedekind angesprochen [5], S. 2: Die Einteilung von Zeitreihen in solche mit Trend, trend-saisonalen Schwankungen und solche mit sporadischem Charakter erfolgt aufgrund eines wirtschaftlich sinnvollen Zeitabstandes. Durch übermäßiges Ausdehnen oder Verkleinern der Zeitabstände verlieren die Zeitreihenkategorien ihren Sinn. So kann man z. B. durch Vergrößerung von einem Monat auf ein Jahr sehr viele trend-saisonale Zeitreihen in Reihen mit reinem Trend überführen. Geht man hingegen auf Tage, Stunden oder gar Minuten über, so sind alle Zeitreihen des wirtschaftlichen Lebens sporadisch.
Prognose bei unregelmäßigem Bedarf
65
Menge
A 1200
o
I
1000 9
T
800 600 400
fl
0 1
o
o
I
I I
? I
9
i
o
I
I i
200 4 10 20 30 40 50 60 70 80 90 100
- > Zeit
Abb. 2: Beispiel zur Verdeutlichung des Begriffs „sporadische Nachfrage" Dieser Gedanke findet seinen Niederschlag in der Dimensionierung des Zeitintervalls der Vorhersage. Allein durch die Wahl eines größeren Zeitintervalls wird bereits ein Glättungseffekt erzielt [2], S. 233 ff. In diesem Fall wird nämlich nicht das Eintreten des einzelnen Ereignisses vorhergesagt. Im größeren Zeitintervall lässt sich mit höherer Wahrscheinlichkeit annehmen, dass die Ereignisse überhaupt eintreffen. Damit kann die Vorhersage der Höhe des Bedarfs von einem mittleren Wert von Nachfragen ausgehen, welche mit größerer Wahrscheinlichkeit eintreffen werden. Die Vorhersage, gemessen an der Abweichung, wird in diesem Fall absolut gesehen sicher besser werden. Für die Lagerhaltung bedeutet dies aber, dass ein mittlerer Bestand auch während der Perioden mit Nachfrage gleich Null gehalten werden muss. 4.3.2
Das Vorhersagemodell
Die allgemeinen Vorhersagemethoden auf der Basis der exponentiellen Glättung nehmen bezüglich der Nachfragemengen keine Wahrscheinlichkeitsverteilung an. Zur Ermittlung des Bestellpunkts wird jedoch davon ausgegangen, dass die Vorhersagefehler normalverteilt sind. Im vorliegenden Modell wird ebenfalls keine Verteilung der Nachfragemengen unterstellt. Es wird aber eine Verteilung der Nullperioden, in denen keine oder kaum Nachfrage vorhanden ist, vorausgesetzt. Bei der Vorhersage der Nichtnullmengen werden die Nullperioden nicht berücksichtigt [5], S. 3: Während bei den üblichen Vorhersageprozeduren für jede Prognoseperiode eine Vorhersage gemacht wird, soll bei dem Modell für sporadische Mengen vor jeder Periode zunächst entschieden werden, ob überhaupt eine von Null verschiedene Vorhersage entsprechend dem exponentiellen Glätten oder anderen Verfahren abgegeben werden soll. Fällt diese Entscheidung positiv aus, wird prognostiziert; im anderen Fall wird eine Nullperiode vorhergesagt, d. h., die Nachfragemenge Null wird als Vorhersage gewertet.
66
Nowack
Die Zeitabstände zwischen zwei Nachfragen werden als Weibull-verteilt angenommen. Die Weibuliverteilung ist eine Verallgemeinerung der Exponentialverteilung und die beste bekannte Darstellung dieses Zufallsprozesses. Sie lautet:
F(x) = l-cxp[-(Sxr]
(2)
Die Parameter a und S charakterisieren die Verteilung. Der Vorgang der Vorhersage soll am folgenden Bild erklärt werden. h^
X 1
^n
X
e
^
\^
2
3
K
u
X->Zeit 4
>Kw^
Abb. 3: Darstellung des Vorhersageprozesses Die Kreuze stellen Nachfragepunkte dar (Nichtnullnachfragen). Der Kreis bedeutet den Zeitpunkt, zu dem eine Vorhersage abgegeben wird. Die Veränderliche t^ ist die Zeit zwischen zwei Nachfragen (Nullzeit). Die Nachfragen 1 und 2 liegen in der Vergangenheit, 3 und 4 in der Zukunft. Seit der letzten Nachfrage ungleich Null ist die Zeit u vergangen. Die Vorhersage soll für die Periode w gemacht werden. Ergebnis soll die Prognose sein, ob in der Periode w eine Nachfrage eintreffen wird oder nicht. Die Höhe der Nachfrage wird dann mit exponentieller Glättung unter Benutzung der alten Vorhersage V^^ und des letzten beobachteten Bedarfswertes ermittelt, wobei Perioden mit Nullnachfragemengen unberücksichtigt bleiben. Da unser Beispiel (Abbildung 3) auch bereits die Zukunftsdaten beinhaltet, wäre hier die Prognose „keine Nachfrage" richtig. Die bedingte Wahrscheinlichkeit Pu(w), dass im Vorhersageintervall w eine Nachfrage eintrifft, vorausgesetzt, dass das Nullzeitintervall größer ist als die abgelaufene Zeit u, lautet für die Weibullverteilung mit den Parametern a und S:
F(u^2!izm
(3)
1 - F{u) p^(w) = l-Qxp(-S
L
J)
(4)
Um zu entscheiden, ob eine Vorhersage für das nächste Intervall erfolgen soll oder nicht, wird nach Gleichung (5) der Fehler i^ berechnet, der eintritt, falls eine positive Nachfragemenge vorhergesagt wird. Dieser Fehler wird mit dem Fehler FQ verglichen, der sich ergibt, wenn man die Menge Null prognostiziert (6). Die Entscheidungsregel lautet: Falls FQ>FI ist, erfolgt die Vorhersage einer Nachfragemenge mittels exponentieller Glättung, im Falle FI>FQ erstellt man keine Prognose.
Prognose bei unregelmäßigem Bedarf
67
Zur Berechnung der Gesamtfehler Fi und FQ werden der Vorhersagewert V, der sich aus der exponentiellen Glättung ergibt, und der daraus resultierende Fehler F als Erwartungswerte berechnet. Perioden ohne Nachfrage bleiben dabei unberücksichtigt. Aus der Wahrscheinlichkeit Pu(w), dass im Intervall w eine Nachfrage eintrifft, und der Wahrscheinlichkeit l-Pui^^), dass keine Nachfrage eintreffen wird, ergeben sich die Gesamtfehler Fi und FQ: Fi=F-p^(w)^{l-p^(w))-V Fo = V-p^(w) + (\-p^(w))-0
(5) = V-p^(w)
(6)
Das in Abbildung 2 dargestellte Beispiel über 100 Zeitintervalle von je einer Woche mit einem Vorhersageintervall von vier Wochen wird von Wedekind zum Test seines Vorhersageverfahrens herangezogen. Es wird dabei ein Liefergrad von 88,5 % erzielt. 4.4
Ein „dynamisches" Vorhersagemodeil zur Prognose bei unregelmäßigem Bedarf
4.4.1
Analyse der Probleme der bisher dargestellten Verfahren
Es wird zunächst versucht, die Probleme zu analysieren, welche bei der Verwendung der bisher dargestellten Verfahren für unregelmäßige Nachfrage auftreten [2], S. 28 ff. 4.4.1.1
Verlust der Information über den Zeitpunkt der Nachfrage
Die Information über den Zeitpunkt, zu dem die Nachfrage eintrifft, geht bei diesen Systemen verloren. Je größer das Intervall ist, um so mehr gewinnt die Information an Bedeutung, ob zu Beginn oder am Ende der Periode nachgefragt wird. So kann eine relativ große Nachfrage, welche durch die willkürliche Einteilung der Perioden am Ende eines Intervalls eintrifft, den Bedarf dieser Periode beträchtlich erhöhen. Würde diese Nachfrage aber zufällig um einige Tage später eintreffen, wäre in der Zeitreihe der Nachfrage keine Schwankung gegeben. Durch die Einteilung in Perioden können also künstlich Schwankungen des Bedarfs erzeugt werden. Dieser Nachteil entfällt, wenn der Zeitpunkt der Nachfrage als Information verarbeitet wird. 4.4.1.2
Kumulation des Bedarfs zu Bedarf je Intervall
Vorgänge während einer Periode werden vergröbert in einen einzigen Wert der Nachfrage je Intervall zusammengefasst. Die Intervalllänge darf nicht zu klein gewählt werden, weil sonst neben einem erhöhten Rechenaufwand zu starke Zufallsschwankungen eintreten würden.
68 4.4.1.3
Nowack Verspätete Reaktion auf Änderung der Nachfragestruktur
Die Information, dass der ursprüngliche Vorhersagewert einen großen Fehler verursachen wird, kann bereits kurz nach Beginn einer Periode vorliegen. Der Vorhersagewert für die nächste Periode sollte in einem solchen Fall bereits mit anderen Parametern oder Vorhersagemodellen berechnet werden, welche die neue Tendenz berücksichtigen. Dies ist mit dem oben angegebenen Verfahren nicht möglich. 4.4.1.4
Nicht steuerbare Genauigkeit der Vorhersage
Vorhersagen mit den bisher dargestellten Methoden können in ihrer Qualität nicht verbessert werden. Selbst bei Verkleinerung der Intervalllänge werden nur geringfügige Verbesserungen erzielt, weil damit eine steigende Unsicherheit und Instabilität des Systems einhergehen. Es wäre sicherlich wünschenswert, für Prognoseobjekte, die einen gesteigerten Aufwand rechtfertigen, ein Verfahren benutzen zu können, dessen Vorhersagegenauigkeit vorgegeben werden kann. 4.4.2
Grundaufbau bisheriger Systeme
In den bisher dargestellten Modellen wird eine Vorhersage für den Bedarf je Intervall gemacht. Zur Zeit t wird also vorhergesagt, wie groß der Bedarf im Intervall / + 1 sein wird. Die Intervalllänge wird dabei als Konstante betrachtet, während die Bedarfshöhe vorausgesagt wird, wie in Abbildung 4 dargestellt ist. Höhe des Bedarfs
Vorhersage = 5
t
Abb. 4: Modell der Bedarfsvorhersage
t+\
->Zeit
Prognose bei unregelmäßigem Bedarf 4.4.3
69
Grundidee der dynamischen Vorliersage
Was geschieht, wenn obiges IVIodell umgekehrt wird? Durch diese einfache Vorgehensweise erhält man ein anderes Modell: Der Bedari" wird als Konstante behandelt, während die Zeit, die vergeht, bis eine Nachfrage der Höhe Bedarf = Konstante eintrifft, vorhergesagt wird. Dieses Modell ist in Abbildung 5 dargestellt. Da bei diesem Modell die Zeitreihe in ihrem zeitlichen Ablauf nicht durch Aufteilung in Intervalllängen künstlich zerschnitten wird, sondern fließend ist, erhält dieses Modell die Bezeichnung „dynamische Vorhersage". Dieses Vert'ahren kann auf folgende Weise Interpretiert werden: Der Kreis der Nachfrager setzt sich meist aus einem bekannten Stamm zusammen, der dann jeweils im eigenen Rhythmus, vielleicht aufgrund eines Glättungsmodells, seine Nachfrage abgibt. Nachfrager, die etwa In dergleichen Höhe bestellen, werden in einer „Klasse" zusammengefasst und gemeinsam behandelt.
A Bedarf 9 8 7
Vorhersage = 0
6
4
O
o O
o
Kc
K.
a
O
3
1
K«
a
5
K>
oo
o
K,
K' K' K1
o o
rO
K.
-o
t-\
Abb. 5:
K.
K.
t+l
Zelt
Modell der Prognose mit dem Verfahren der dynamischen Vorhersage
Die kleinen Kreise markieren die einzelnen Nachfragen einer Bedarfsklasse, die zur Gesamtnachfrage (Kastenprofil) akkumuliert werden. Die Zeitdifferenz zwischen zwei Nachfragen gleicher Klasse K' wird laufend fortgeschrieben (K). Wenn der Kreis der Nachfrager unverändert und auch die Klasse eines jeden Kunden erhalten bleibt, müssten keine Veränderungen am Modell vorgenommen werden. Da
70
Nowack
sich aber beide Größen zufällig oder signifikant ändern werden, muss man diese Änderungen berücksichtigen. Das Problem liegt darin, zufällige von signifikanten Abweichungen zu unterscheiden. Bei zufälligen Abweichungen soll das Modell nicht reagieren, dagegen bei signifikanten möglichst schnell. Im vorliegenden Verfahren werden allen Klassen von Nachfragern diskrete Zeitwerte zugewiesen, die für die Zeit zwischen zwei folgenden Nachfragen stehen. Bei Abweichungen wird dieser Zeitwert verändert. Damit ist zu jedem Zeitpunkt der aktuelle Stand der Zusammensetzung der Nachfrager, ausgedrückt durch Zeitwerte, die nach Umrechnung eine Bedarfshöhe darstellen, im Modell vorhanden. 4.4.4 4.4.4.1
Beschreibung des Verfahrens der dynamischen Vorhersage Einteilung des Bedarfs in Klassen mit konstantem Bedarf
Da die Zeitdifferenz zwischen zwei Nachfragen gleicher Höhe vorausgesagt wird, muss zunächst die Nachfrage in Klassen eingeteilt werden. Denkbar sind sowohl eine lineare als auch eine andere, z. B. eine logarithmische Einteilung. Im Folgenden steht dann die Klasse für die Höhe der Nachfrage. Da bei der Klasseneinteilung die Klasse alle Nachfragen ersetzt, die innerhalb der Klassenbreite liegen, ist die Differenz zwischen Wert der Klasse und Wert der Nachfrage getrennt zu berücksichtigen, damit nicht künstlich Fehler eingebaut werden. 4.4.4.2
Vorgabe von Vorhersagewerten für die Nachfrageintervalle
Die Nachfrageintervalle werden bei unserem Modell mit exponentiellem Glätten fortgeschrieben. Deshalb müssen Anfangswerte vorgegeben werden. Als Anfangswerte muss man je Klasse die Zeitstrecken vorgeben, nach denen eine Nachfrage dieser Höhe eintreffen wird. Dadurch wird gewissermaßen eine Häufigkeitsverteilung über die Klassen hinweg aufgebaut. Ein großer Wert der Zeitdifferenz zwischen zwei Nachfragen besagt, dass diese Klasse selten nachgefragt wird und deshalb die Bedarfshöhe (abhängig vom Wert der Klasse) gering sein wird. Für kleine Werte der Zeitdifferenz gilt analog, dass diese Klasse häufig nachgefragt wird und deshalb eine große Bedarfshöhe bedingt. Diese Verteilung wird dann fortgeschrieben, sodass stets aktuelle Werte vorhanden sind und verarbeitet werden können. 4.4.4.3
Feststellen von signifikanten Veränderungen
Analog zu den in den Abschnitten 4.1 bis 4.3 beschriebenen Verfahren könnte die Vorhersage am Ende eines Intervalls stattfinden. Damit wäre dieses Modell aber wieder an künstliche Grenzen gebunden. Deshalb wird folgende Methode gewählt: Die vorgegebene Zeitdifferenz zwischen zwei Nachfragen gleicher Klasse wird so lange beibehalten, bis eine signifikante Änderung festgestellt wird.
Prognose bei unregelmäßigem Bedarf
71
Eine Plus-Minus-Toieranz soll die zufälligen Abweichungen aussondern. Liegt die Nachfrage einer Klasse außerhalb dieser Toleranz, dann wird die Vorhersage der Zeitdifferenz dieser Klasse entsprechend mit exponentiellem Glätten erster Ordnung geändert. Dadurch kann nochmals nach zufälligen Schwankungen aussortiert werden. Der Glättungsparameter wird dabei gleich oder größer als 0,5 gewählt. Durch das aufgebaute Sieb der Toleranz kann bereits mehr Vertrauen in gegenwärtige Zeitwerte gelegt werden. Der Vorgang der Korrektur der Vorhersage ist für drei Klassen in Abbildung 6 dargestellt. Bedarf (Klasse)
A Anfangswerte KS^
K3
K2°
I
alte Vorhersage [
K^^ Toleranz
o
-o
neue Vorhersage "zu spät"
^
K^
o—^
•^
"zu früh".
-^
innerhalb der Toleranz
K^ K, K
K, -O
o
o
O
-0 ^
Zeit Abb. 6:
Korrektur der Vorhersagewerte je Klasse
Die kleinen Kreise geben die beobachteten Nachfragen, die Kreuze die Vorhersagen an. Wählen wir als Beispiel die Klasse des Bedarfs „3 Einheiten" und glätten wir mit A = 0,5, so ergibt sich Folgendes: Der alte Vorhersagewert K3 für das Intervall bis zur nächsten Nachfrage beträgt 4 Perioden. Die Nachfrage dieser Klasse trifft aber erst nach 6 Zeiteinheiten ein. Die Toleranz von 1,5 Perioden wird also überschritten. Damit wird ein neuer Vorhersagewert erforderlich. Er errechnet sich zu K = 4 + 0,5(6 - 4) = 5 Perioden.
4.4.4.4
Berechnung des aktuellen Wertes je Intervall
In einem Lagerhaltungssystem wird der Bedarf je Intervall zur Ermittlung der Bestellmenge herangezogen. Deshalb muss für diese Zwecke eine Intervalllänge definiert werden. Der Bedarf für dieses Intervall kann aus den Vorhersagewerten je Klasse und dem Wert der Klasse errechnet werden. Das Prognosemodell gibt an, wie oft der Bedarf dieser Klasse im Intervall auftreten wird. Der so ermittelte Wert ist bereits der Vorhersagewert für die Nachfrage des nächsten Intervalls. Abbildung 5 verdeutlicht diesen Vorgang. Beispielsweise würde bei der in der Periode t-l abgegebenen Vorhersage für die Periode t der Wert von einmal 1 Bedarfseinheit und einmal 4 Bedarfseinheiten, also zusammen 5 Bedarfseinheiten, errechnet werden.
72
Nowack
4.4.5
Fortschreibung der Zeitverteilung der in Klassen eingeteilten Nachfrage
Durch die skizzierte Art der Vorhersage wird die vorgegebene Zeitverteilung laufend korrigiert. So können z. B. nach einem Sprung in der Zeitreihe Nachfragen einer niedrigen Klasse fast nicht mehr auftreten, dafür aber Nachfragen einer bestimmten höheren Klasse häufiger. In diesem Modell wird dann die Vorhersagezeit der niedrigen Klasse vergrößert, die der höheren Klasse vom System entsprechend verkleinert. Damit ist eine schnelle Anpassung gegeben. Das Verfahren muss also bei Änderung des Charakters der Zeitreihe nicht geändert werden, während man z. B. beim exponentiellen Glätten erster Ordnung nach Brown auf zweite Ordnung übergehen sollte, wenn sich nach einer bis dahin konstanten Nachfrage ein Trend bemerkbar macht. Ebenso passt sich das System bei saisonalen Schwankungen dem Charakter der Zeitreihe an. Wie schnell es reagiert, hängt von den gewählten Parametern bzw. dem Vertrauen in Junge" Nachfragewerte ab. 4.4.6
Merkmale des Verfahrens
4.4.6.1
Wählbare Genauigkeit
Die Genauigkeit des Verfahrens kann gesteuert werden, indem man die Höhe der Nachfrage in ein grobes oder feines Netz von Klassen einteilt. Bei einer größeren Anzahl von Klassen steigt aber auch der Aufwand zur Berechnung. 4.4.6.2
Aktualität der gespeicherten Werte
Bei Veränderung der Nachfrage werden auch die Zeiten der Klassen verändert. Durch exponentielles Glätten werden aber Zufallsschwankungen aussortiert. 4.4.6.3
Schnelles Anpassen an Strukturveränderungen
Da eigentlich eine Häufigkeitsverteilung der in Klassen eingeteilten Nachfrage fortgeschrieben wird, ist es nicht nötig, verschiedene Prognosemethoden heranzuziehen. Das Verfahren passt sich selbst an, indem es die vorgegebene Verteilung ändert. 4.5 [1] [2] [3] [4] [5]
Literatur IBM (Hrsg.), IMPACT-Handbuch, Teil 1, IBM Form 80582, 1965. Nowack, A., Entwurf und Test eines Prognosemodells mit dynamischer Fortschreibung von Zeiträumen und potentieller Lernfähigkeit, Diplomarbeit, München 1969. Trux, W., Einkauf und Lagerdisposition mit Datenverarbeitung, 2. Aufl., München 1972. Vigier, G.J., Prognose von Artikeln mit sprunghaftem Bedarf, Bürotechnik und Automation 12(1971)1,8. 22 ff. Wedekind, H., Ein Vorhersagemodell für sporadische Nachfragemengen bei der Lagerhaltung, Ablauf- und Planungsforschung 9 (1968), S. 1 ff.
5
Ein gemischt deterministisch-stochastisches Prognoseverfahren
von Walter Trux 5.1
Prinzip der gemischt deterministisch-stochastischen Prognoseverfahren
Vor allem bei der Absatzprognose trifft man in der Praxis oft den Fall an, dass ein Teil der Daten bekannt ist, ein anderer hingegen unbekannt. Die Vorhersage muss dann aus einem deterministischen und einem stochastischen Teil zusammengesetzt werden, sodass man zu einem gemischt deterministisch-stochastischen Prognosemodell gelangt. In Betrieben, die zum einen sofort auszuliefernde Aufträge (Sofortaufträge) und zum anderen Aufträge erhalten, die erst nach einer gewissen Lieferfrist zu erfüllen sind (Terminaufträge), rekrutiert sich der künftige Absatz aus 1. 2. 3.
Lieferungen aufgrund bereits eingetroffener, aber noch nicht ausgelieferter (Termin-)Aufträge, Lieferungen aufgrund erwarteter Sofortaufträge, Lieferungen aufgrund erwarteter Terminaufträge.
Die Umsätze aus der Position 1. sind aufgrund der bekannten Liefertermine deterministisch zu berechnen. Bei der Position 2. sind die zu bestimmten Terminen eintreffenden Aufträge und damit die mit diesen termin- und mengenmäßig identischen Lieferungen stochastisch vorherzusagen. Um die Umsätze gemäß Position 3. zu erhalten, müssen zunächst die zu bestimmten Terminen eintreffenden Aufträge nach der Höhe stochastisch prognostiziert werden. Darüber hinaus ist es aber erforderlich, auch die Zusammensetzung dieser Aufträge nach Lieferterminen (das Lieferspektrum) vorherzusagen. Dies gelingt mit einem in der Folge anhand eines einfachen Zahlenbeispiels entwickelten Verfahren [1], S. 208 ff. 5.2
Beispiel einer gemischt deterministisch-stochastischen Prognose
Das Prinzip sei mithilfe der Tabelle 1 erläutert, die das Rechenschema des Verfahrens für drei Perioden darstellt. Zu den durch fett gedruckte Buchstaben gekennzeichneten Stellen in Tabelle 1 wollen wir folgende Erläuterung geben: A
Stochastische Vorhersage Auftragseingang. Das Feld enthält die nach subjektiver Schätzung oder statistischen Rechenverfahren vorhergesagten Werte für den Auftragseingang der Perioden im Vorhersagezeitraum. Im Beispiel sind es drei Perioden, für die eine konstante Nachfrage von 200 Einheiten angegeben ist, und wir nehmen an (da es sich um einen neuen Artikel handelt), dass diese Werte aus einer subjektiven Schätzung in Periode 0 stammen. Im Beispiel erfolgt die Vorhersage ohne Trend, daher ist in allen Feldern die gleiche Nachfragemenge eingetragen (bei Trend oder saisonalem Bedarf würden verschiedene Werte der Vorhersage in den drei Perioden eingetragen sein).
74
Trux
Felder der stochastlschen Vorhersage Periode- Felder der beobachteten Werte Felder der Kombinierte Nr. determini- Vorhersage Liefermenge je Periode Lieferfaktoren Vorhersage Auftrags-! stischen für Periode.. Auftragseingang % vom Auftragseingang Vorhersage Vorhersage eingang Nachfrage Akkum. Liefermenge B >0,50 0,30 0,20 0 1 2 0,50 0,30 ->o 0 0 0 0 0,50 -•0 S deterministi- % 0 0 0 3 D 1 2 3 E 1 A 1 scher Bedarf 200 200 200 100 160 200 0 0 0 100 160 200 0 0 0
i i
H
220
210 Z deterministischer Bedarf
1 100 % 45 K 100
2 70 32 70
3 50 23 50
2 110 % 52 180
3 4 80 20 38 10 130 20
0,48 0,31 0,21 0 0,48 0,31 0 0 0,48 210 210 210
1Ö1
166 210
2 3 4 70 50 0
2 3 4 171 216210
3 4 5 130 20 0
3 4 5 235 199 210
0,50 0,35 0,15 0,50 0,35 0 0 0,50 0 210 210 210
105
179 210
Tab. 1: Rechenschema der gemischt deterministisch-stochastischen Vorhersage B
Matrix der Lieferfaktoren. Jede Zeile der Matrix enthält einen als Erfahrungswert registrierten „Lieferfaktor" für die prozentuale Verteilung der Liefermengen aus dem Auftragseingang einer Periode. Die erste Zeile gibt z. B. an: Man erwartet, dass 50 % (Lieferfaktor = 0,5) des Auftragseingangs in der ersten Periode auch in der gleichen Periode zu liefern wären; weitere 30 % (Lieferfaktor = 0,3) des Auftragseingangs aus dieser Periode werden zur Lieferung in der zweiten Periode enA/artet und der Rest von 20 % in Periode 3. Die zweite Zeile gibt die gleichen Lieferfaktoren, jedoch für den Auftragseingang der Periode 2 an, die dritte Zeile entsprechend für den Auftragseingang der dritten Periode. Wir sehen, dass die Matrix ebenso viele Spalten und Zeilen wie Vorhersageperioden hat (der über den Vorhersagezeitraum hinausragende Teil der Lieferfaktoren aus Auftragseingang in Periode 2 und 3 interessiert für die Vorhersage nicht, da der Vorhersagezeitraum nur 3 Perioden beträgt). Wird angenommen, dass die Liefertermine des Auftragseingangs in allen Perioden gleich sind, so enthalten alle Zeilen der Matrix - jeweils um eine Spalte nach rechts verschoben - die gleichen Zahlen. Trifft dies nicht zu, so unterscheiden sich die Lieferfaktoren für die einzelnen Perioden, und die Zeilen der Matrix haben dementsprechend unterschiedliche Zahlenwerte. Im Beispiel nehmen wir ebenfalls an, dass die Lieferfaktoren in der Matrix in der Periode 0 aus einer subjektiven Schätzung stammen.
C
Stocliastiscfie Vorhersage der Nachfrage. Das Feld enthält die stochastische Vorhersage der Nachfrage aufgrund von Auftragseingang und Lieferterminen für die Perioden des Vorhersagezeitraums. Sie wird auf folgende Weise errechnet: Um die Nachfrage der ersten Periode zu erhalten (im Beispiel 100 Stück), multipliziert man alle Zahlen des Feldes A mit der ersten Spalte der Matrix der Lieferfaktoren (im Beispiel 100 = 200-0,5+ 200•0 + 200-0). Entsprechend erhält man den Wert für die Vorhersage der Nachfrage in der zweiten bzw. dritten Spalte der Matrix (160 = 200-0,3+ 200-0,5+ 200-0 bzw. 200 = 200-0,2 + 200-0,3 + 200-0,5). Ma-
Ein gemischt deterministisch-stochastisches Prognoseverfahren
75
thematisch kann man diesen Rechenvorgang beschreiben als Multiplikation der Lieferfaktorenmatrix mit dem Vektor der Auftragseingangsvorhersage. D
Deterministische Voriiersage. Dieses Feld enthält die Summe der vorliegenden Terminaufträge für alle Perioden des Vorhersagezeitraums (in Periode 0 sind noch keine Aufträge vorhanden, deshalb ist dieses Feld gleich Null).
E
Kombinierte Voriiersage. Die Felder stellen die Summe aus stochastischer (Feld C) und deterministischer Vorhersage der Nachfrage (Feld D) dar. Da in Periode 0 noch keine Aufträge vorliegen, ist der Inhalt des Feldes E gleich dem Inhalt des Feldes C.
F
Periodennummer Wir gehen nunmehr zu Periode 1, deren Periodennummer in diesem Feld angegeben ist.
G
Auftragseingang. Dieses Feld enthält die Summe aller in dieser Periode eingegangenen Aufträge ohne Rücksicht auf deren Liefertermin. Das Feld ist für die stochastische Vorhersage der „tatsächlichen Nachfrage" bestimmt und dient zur Korrektur der Vorhersage des Auftragseingangs nach einem der in Kapitel 2 beschriebenen Verfahren. Wählen wir am Beispiel ^ = 0,5 und exponentielle Glättung erster Ordnung (ohne Trend), so ergibt sich nach den Formeln in Kapitel 2 eine neue Vorhersage für den Auftragseingang i v r = 210 = 200 + 0,5-(220-200).
H
Liefermenge je Periode. Hier ist die Liefermenge aus dem Auftragseingang dieser Periode eingetragen, so wie sie sich aufgrund der von den Kunden gewünschten Lieferzeiten ergibt. Im Beispiel ist dargestellt, dass die in der Periode eingegangenen Aufträge über insgesamt 220 Stück mit 100 Stück in der gleichen Periode zu beliefern waren (Sofortaufträge). 70 Stück des Auftragseingangs stehen noch zur Lieferung in Periode 2 aus und die restlichen 50 Stück für die Lieferung in Periode 3.
I
Liefermengenverteilung in Prozent Auftragseingang. Das Feld enthält die Umrechnung der in Feld H dargestellten Mengen in Prozent des Auftragseingangs der gleichen Periode (220 Stück = 100 %). Die Prozentzahlen dienen der Korrektur der Lieferfaktoren. Nehmen wir hierfür ebenfalls einen Reaktionsparameter ^ = 0,5 an, so erhält man mit diesen Prozentzahlen und den Lieferfaktoren aus Periode 0 die neuen Lieferfaktoren, die in der Matrix dieser Periode dargestellt sind (Feld B der Periode 1).
K
Al
Die Rechnung in den Feldern der stochastischen Vorhersage wiederholt sich nun wie bei der Periode 0 beschrieben. Da nunmehr echte Kundenaufträge vorliegen, wird zur stochastischen Vorhersage der Nachfrage (Feld C der Periode 1) die deterministische Vorhersage (Feld D der Periode 1) addiert. Der Inhalt von Feld D ergibt sich durch periodengerechte Übertragung der Werte aus Feld K in Periode 1. Damit erhalten wir schließlich als Summe aus Feld C und D die kombinierte Vorhersage in Feld E.
76
Trux
Den gleichen Rechengang finden wir in Periode 2. Als Unterschied hat man nur zu beachten, dass hier der Inhalt in Feld K (Summe deterministischer Bedarf) aus den vorliegenden Aufträgen dieser Periode und den Aufträgen der Periode 1 akkumuliert ist. 5.3
Kritische Würdigung
Zur kritischen Würdigung dieses Verfahrens wäre folgendes auszuführen: 1.
Es vermeidet alle durch rein stochastische Vorhersagen aus dem Auftragseingang bei Terminaufträgen auftretenden Fehler.
2.
Es verwendet stochastische Vorhersagen nur soweit als erforderlich, deterministische Methoden dagegen soweit als möglich.
3.
Die erhöhte Genauigkeit dieses Verfahrens wird erkauft durch zusätzlichen Rechenaufwand.
5.4 [1]
Literatur Trux, W., Einkauf und Lagerdisposition mit Datenverarbeitung, München 1968, 2. Aufl. 1972.
6
Prognose mithilfe von Verweilzeitverteilungen
von Heinz Langen und Fritz Weinthaler 6.1
Die Grundgedanken des Verfahrens
Das die Unternehmungsaufgabe erfüllende Betriebsgeschehen stellt ein aus einer Vielzahl von sich nach- und nebeneinander vollziehenden Aktivitäten bzw. Teilprozessen gebildetes Prozessgefüge dar, in dem bestimmte sachliche Ordnungszusammenhänge herrschen. Jeder Teilprozess knüpft sachlich-inhaltlich an einen oder mehrere vorausgegangene Prozesse an und mündet selbst wieder in bestimmte nachfolgende Prozesse ein. Zwischen den einzelnen Teilprozessen bestehen Ursache-Wirkungs-Beziehungen. So sind beispielsweise Art und Umfang der Wareneingänge festgelegt durch die vorausgegangenen Warenbestellungen. Andererseits stellen sie selbst die Determinanten, z. B. für die Höhe der Beschaffungsausgaben, dar. Daraus folgt, dass dispositive Eingriffe in einzelne Teilbereiche des Gesamtgeschehens in ihren Wirkungen nicht auf diese Teilbereiche beschränkt bleiben, sondern auf Art und Umfang einer Vielzahl von sachlich verketteten Teilprozessen durchschlagen. Für die Entscheidung über eine Disposition ist es unerlässlich, Informationen über die in ihrer Folge sich in den wichtigsten abhängigen Teilbereichen ergebenden Veränderungen zu haben. Darüber hinaus vollzieht sich das betriebliche Geschehen grundsätzlich eingebettet in den Zeitablauf, es ist ein dynamischer Prozess. Die sachliche Verknüpfung der Prozesse wird überlagert durch bestimmte temporale Beziehungen. Jeder Teilprozess hat seine besondere zeitliche Charakteristik und steht in bestimmter zeitlicher Relation zu vorund nachgelagerten Prozessen. In Bezug auf die Beurteilung einer Disposition bedeutet dies, dass das Wissen um die sachlich zu erwartenden Dispositionskonsequenzen in den verketteten Teilprozessen alleine nicht ausreicht, vielmehr sind diese eintretenden Veränderungen möglichst exakt zu terminieren. Nur dadurch gelingt es, die Ausprägung der Güter- und Zahlungsströme im Zeitablauf zu verfolgen und die aus der Dynamik des Ablaufgeschehens sich ergebende Aufgabe der Erhaltung bzw. Erreichung eines ökonomischen Gleichgewichts in - streng genommen - jedem zukünftigen Zeitpunkt zu lösen. Der Grundgedanke des im Folgenden vorzustellenden Prognoseverfahrens besteht nun darin, diese sachlichen und zeitlichen Folgebeziehungen zwischen einzelnen Teilprozessen durch empirisch-statistische Untersuchungen des Betriebsgeschehens zu ermitteln und zu mathematisch formulierten Folgegesetzmäßigkeiten zu verdichten. Gelingt dies, so eröffnet sich die Möglichkeit, ausgehend von dem durch eine Disposition unmittelbar beeinflussten Teilprozess, den zeitlichen Eintritt und die bewirkte inhaltliche Ausprägung der Kette von Folgeprozessen zu prognostizieren und damit die Grundlagen für eine umfassende Beurteilung der Disposition zu schaffen. 6.2
Die analytische Vorstufe der Prognose
Der erste Schritt des darzustellenden Prognoseverfahrens besteht in einer Analyse des Betriebsgeschehens hinsichtlich der vorliegenden sachlichen und zeitlichen Abhängigkeitsbeziehungen. Diese Analyse wird in zwei Stufen durchgeführt.
78
Langen, Weinthaler
6.2.1
Die Strukturanalyse
Ziel der ersten Analysestufe ist es, die charakteristischen Teilprozesse des zu untersuchenden Betriebsgeschehens und ihre Folgebeziehungen zu erkennen. Diese Strukturanalyse bildet die Grundlage für die zweite Stufe, in der durch statistische Methoden die Gesetzmäßigkeiten der Verknüpfungen ermittelt werden, und bietet zugleich einen Überblick über die möglichen Prognosen. Die Ergebnisse der ersten Analysestufe lassen sich in Form von Blockschaltbildern darstellen. Ein Beispiel gibt Abbildung 1.
±
Abgang an 1 Abgang an 1 Kunden- 1 Fertigungs- 1 auftragen | auftragen |
^ Forderungsabgang
Lieferung (Umsatz)
1 Einnahme
LagerZugang
1
^ Verbindlichkeiten- 1 abgang |
Lieferung 1 Abgang an (Verbindlich-1 Stoff1 Kelten) | 1 bestellung |
y Ausgabe
Abb. 1: Durch Blockschaltbild abgebildete Ablaufstruktur eines Betriebsprozesses Solche Darstellungen sind aus den beiden Elementen Ereignisse und Aktivitäten (Teilprozesse) zusammengesetzt. Die einzelnen Blöcke enthalten die Ereignisse des analysierten Betriebsprozesses. Der Begriff „Ereignis" ist aus der Netzplantechnik übernommen. In gleicher Weise wie dort bezeichnet er ein Zwischenstadium oder einen Zustand zwischen zwei Aktivitäten, der weder Zeit beansprucht noch Produktionsmittel oder Geld verbraucht. Ereignisse sind demnach Ausgangslagen bzw. Endzustände bei Beginn bzw. nach Abschluss von Aktivitäten. Das Ereignis „Lagerzugang" beispielsweise bildet nicht den prozessualen Einlagerungsvorgang ab, sondern einen Zustand, wie er sich nach Vollzug dieser Vorgänge ergibt. Verknüpft sind die Blöcke durch Pfeile. Sie stellen die Ausgangslage in einen neuen Zustand überführenden Aktivitäten, definiert als sich im Zeitablauf vollziehende und Produktionsmittel oder Geld verbrauchende Vorgänge, also die eigentlichen Prozesse dar. 6.2.2
Die Analyse der Übergangsgesetzmäßigkeiten
Auf der Kenntnis der Ordnungsstruktur des Betriebsgeschehens im Sinne einer Folge von typischen Ereignissen baut die zweite Stufe der Analyse auf, bei der es darum
Prognose mithilfe von Verweilzeitverteilungen
79
geht, die Aktivitäten genauer zu betrachten hinsichtlich der Zeitdauer des Übergangs von einem Ereignis zu einem nachfolgenden und den Mengen bzw. Werten, die zwischen den Ereignissen bewegt werden. Dadurch sollen die bei den Ereignisübergängen vorliegenden Gesetzmäßigkeiten herausgeschält werden. 6.2.2.1
Wesen und Begriff der Verweilzeitverteilung
Die Systemtheorie bedient sich zur Erfassung der Transformation eines vorhergehenden Ereignisses in ein nachfolgendes der Übergangsfunktion, die die zeitlich-quantitativen Beziehungen zwischen Input und Output beschreibt^. Im darzustellenden Prognoseverfahren venA/endet man besondere Übergangsfunktionen, die als Verweilzeitverteilungen bezeichnet werden. Sie sagen aus, wie viel Prozent der Ereignisse gleichen Typs, z. B. der Umsätze, nach einer ganz bestimmten Zeit ein anderes Ereignis, etwa Bareinnahmen, hervorrufen. Ein Beispiel soll das Gemeinte verdeutlichen. Abbildung 2 stellt eine angenommene VenA/eilzeitverteilung zwischen Umsatz und Zahlungseingang dar.
20
Bareinnahmen (% des Umsatzes)
8
Zeit (Wochen)
Abb. 2: Beispiel einer Verweilzeitverteilung zwischen Umsätzen und Bareinnahmen An der Kurve lässt sich ablesen, dass 10 % aller Umsätze (z. B. eines Jahres) eine Liquidationsdauer von drei Wochen, 5 % von zwei Wochen und 20 % von sieben Wochen benötigten. Grundsätzlich können Verweilzeitverteilungen zwischen beliebigen Ereignisfolgen ermittelt werden. Der Inhalt ihrer Aussage ist stets gleich. Sie geben Auskunft über den prozentualen Anteil der Anfangsereignisse, die nach einer bestimmten Anzahl von Perioden zu einem Folgeereignis führen, und lassen sich auch als Wahrscheinlichkeitsverteilungen in dem Sinne interpretieren, dass sie aussagen, welche Wahrscheinlichkeit der Verweilzeit, d. h. der Zeitspanne zwischen Input- und Outputereignis, zukommt.
In der Literatur wird der Terminus „Übergangsfunktion" teilweise der Reaktion des Outputs auf eine Einheitssprungfunktion als spezieller Inputfunktion vorbehalten. Hier wird jedoch jede zeitlich-quantitative Beziehung zwischen Input und Output als Übergangsfunktion bezeichnet.
80
Langen, Weinthaler
6.2.2.2
Die Arten von Verweilzeitverteilungen
Die obige Definition der Verweilzeitverteilung bildet den gemeinsamen Rahmen für eine Anzahl durch unterschiedliche Merkmale gekennzeichneter Arten von Verteilungen. Die Ermittlung der Gesetzmäßigkeiten, unter denen sich die Ereignistransformation im Zeitablauf vollzieht, setzt eine Quantifizierung der Input- und Outputereignisse voraus. Diese Quantifizierung kann auf unterschiedliche Weise erfolgen, wobei jedoch starke Einflüsse von der Art der abzubildenden Ereignisse ausgehen. Unter diesem Quantifizierungsgesichtspunkt lassen sich zwei große Gruppen von Verweilzeitverteilungen unterscheiden: Mengenverteilungen und Wertverteilungen. 6.2.2.2.1
Mengenverteilungen
Bei den Mengenverteilungen handelt es sich um solche Funktionen, die Auskunft geben über die Mengengrößen von Zugängen und Abgängen in der Zeiteinheit. Die prozentualen Anteile beziehen sich auf den mengenmäßig ausgedrückten Umfang (z. B. Stückzahl, Gewicht usw.) der vorhergehenden Ereignisse. Der Anwendungsbereich solcher Mengenverteilungen liegt insbesondere bei den Ereignisfolgen des die Unternehmung durchfließenden Realgüterstroms im Beschaffungs-, Lager-, Produktionsund Absatzbereich. Definiert sind die Elemente der Mengenverteilungen durch folgende Formel m, =-^
0 = 0,1,2,..., w)
Durch V wird die gesamte Mengengröße der betrachteten Ereignisse symbolisiert, v^ beinhaltet diejenigen Teilmengen, die genau / Perioden für ihre Transformation in ein Folgeereignis benötigen. Als eine Sonderform der Mengenverteilungen ist die Anzahlverteilung anzusehen, die allein auf der Anzahl der transformierten Ereignisse ohne Berücksichtigung der Mengen bzw. Werte, die den einzelnen Ereignissen zugeordnet werden können, basiert. Die einzelnen Komponenten der Verweilzeitverteilung auf Anzahlbasis sind definiert als n ü: =—^
(?' = 0,1, 2,..., m)
worin A^ die gesamte betrachtete Ereignisanzahl bezeichnet und n^ diejenigen Teilmengen, die nach / Perioden in das Folgeereignis transformiert worden sind. Es hat sich bei einer Vielzahl von Tests gezeigt, dass solche Anzahlverteilungen nur in wenigen Fällen unverzerrte Prognosen ermöglichen, da sie unter anderem unterstellen, dass die mengen- bzw. wertmäßige Dimension der Einzelereignisse ohne Einfluss auf die Charakteristik der Transformationsvorgänge ist.
Prognose mithilfe von Verweilzeitverteilungen 6.2.2.2.2
81
Wertverteilungen
Die Wertverteilungen sind VenA/eilzeitverteilungen, die die Werte der transformierten Ereignisse in Geldeinheiten widerspiegeln. Die prozentualen Anteile beziehen sich auf den Wert der vorhergehenden Ereignisse: b^=^
(i =
0A,2,...,m)
U ist der Gesamtwert der betrachteten Ereignisse, u^ sind diejenigen Teilwerte, die nach genau / Perioden in neue Ereignisse überführt worden sind. Als Geltungsbereich von Wertverteilungen sind vornehmlich die Ereignisübergänge im Nominalgüterstrom anzusehen. 6.2.2.2.3
Einfache Verteilungen
Unabhängig von der Unterscheidung einzelner Arten von Verweilzeitverteilungen aufgrund des verwendeten Quantifizierungsmaßstabs können einfache von komplexen Verteilungen getrennt werden. Einfache Verweilzeitverteilungen lassen sich zur Erfassung solcher Ereignisübergänge verwenden, bei denen sich die Transformation aller in der gesamten Ereignismasse enthaltenen Einzelereignisse nach der gleichen statistischen Gesetzmäßigkeit vollzieht. Es entfällt die Notwendigkeit einer differenzierten Betrachtung bestimmter Ereigniselemente. Alle Einzelereignisse sind hinsichtlich ihrer VenA/eilzeit homogen. Solche einfachen Verweilzeitverteilungen können mathematisch als Vektoren dargestellt werden, deren Elementeanzahl durch die Länge der vollständigen Transformationsperiode und deren Unterteilung in einzelne Teilperioden (Basisperioden) bestimmt wird und deren Elementesumme gleich Eins ist (vollständige Transformation). Die in Abbildung 2 grafisch dargestellte Verweilzeitverteilung (Gesamtperiode acht Wochen, in Wochenabschnitte unterteilt) lässt sich in folgendem Vektor ausdrücken: v = (0,02 0,05 0,10 0,16 0,16 0,13 0,20 0,18) Hinreichenden Informationsgehalt bieten Prognosen mit einfachen VenA/eilzeitverteilungen zumeist im Bereich der Nominalgüterereignisse, z. B. bei der Transformation von Umsätzen in Bareinnahmen. Jedoch kann es sich auch hier zur Prognoseverbesserung als notwendig erweisen, für einzelne Kundengruppen mit unterschiedlichem Zahlungsverhalten gruppenindividuelle Verweilzeitverteilungen zu verwenden. 6.2.2.2.4
Komplexe Verteilungen
Ganz deutlich wird der Zwang zur Verwendung von komplexen Verteilungen im Realgüterstrom, wo z. B. zwischen den Ereignissen Materialeinsatz und Güterentstehung eine Vielzahl einzelner Einsatzgüterarten mit unterschiedlicher mengenmäßiger und zeitlicher Einsatzcharakteristik zu einer Mehrzahl von unterschiedlichen Produktarten transformiert wird. Die Gesamtmasse der Gütereinsätze setzt sich aus völlig heterogenen Einzelereignissen zusammen.
82
Langen, Weinthaler
Zwar wäre es denkbar, diese Transformation durch eine einfache Verteilung auf wertmäßiger Ebene auszudrücken, jedoch würde dadurch auf die in diesem Bereich wichtigsten Informationen über die Infrastruktur des Geschehens verzichtet. Die Gesetzmäßigkeit solcher durch weitgehende Individualität der Einzelereignisse gekennzeichneter Ereignisübergänge lässt sich nur durch eine Vielzahl von zu einer komplexen Verweilzeitverteilung gebündelten Einzelverteilungen beschreiben. Solche komplexen Verteilungen können zwar in gleicher Weise wie die einfachen als Vektoren formuliert werden, jedoch stellen deren Komponenten dann selbst ebenfalls Vektoren bzw. Matrizen dar. Beispiele für den Aufbau von komplexen Verteilungen finden sich in späteren Abschnitten dieses Beitrags. 6.2.2.3
Die Ermittlung von Verweilzeitverteilungen
Die Verweilzeitverteilungen ermittelt man durch statistische Erhebung und Auswertung der die einzelnen Ereignisse dokumentierenden betrieblichen Daten. Dabei sind vor Durchführung der Erhebung Vorüberlegungen bezüglich des Erhebungszeitraums (Kalenderzeitraum, dem die Daten entnommen werden), der Basisperiode (Zeiteinheiten, in die der Erhebungszeitraum unterteilt und in denen die Verweilzeit gemessen wird), des Erhebungsumfangs (Vollerhebung aller Ereignisse oder Stichprobenerhebung) und der Erhebungselemente (Arten der zu erhebenden Daten) notwendig. Diese Überlegungen haben sich an dem betriebsindividuellen Informationsbedürfnis (z. B. ob die Prognose von Tages-, Wochen- oder Monatswerten für die Entscheidungen benötigt wird), dem verfügbaren Datenmaterial, dem als vertretbar angesehenen Aufwand und insbesondere auch an statistischen Gesichtspunkten zu orientieren. So müssen sowohl der Erhebungszeitraum als auch die Basisperiode genügend groß gewählt werden, um eine hinreichende Menge von Einzelereignissen zu enthalten. Die Ermittlung selbst erfolgt in der Weise, dass mithilfe von Tabellen bzw. Strichlisten für jedes in der Erhebung enthaltene Einzelereignis festgestellt wird, in welchem Zeitabstand es in das nachfolgende Ereignis übergegangen ist. Anschließend werden die auf die einzelnen Perioden entfallenden prozentualen Anteile an der betrachteten Gesamtmenge errechnet. Sie zeigen die durchschnittliche Übergangsgesetzmäßigkeit in Form einer VenA/eilzeitverteilung an. 6.2.2.4
Die Aufbereitung von Verweilzeitverteilungen
Solche empirisch-statistisch gewonnenen VenA/eilzeitverteilungen sind in der Regel mit Zufallsfehlern behaftet, die das Erkennen der dem Ereignisübergang zugrunde liegenden Gesetzmäßigkeit stören können und daher neutralisiert werden müssen. Zum einen zeichnen sie sich durch ihre unregelmäßige Gestalt aus, was durch eine unregelmäßige Gruppierung von Einzelereignissen mit gleicher VenA/eilzeit innerhalb der gesamten betrachteten Ereignismenge hervorgerufen wird, zum anderen treten Außenseiterereignisse auf, die sich abseits der Gesetzmäßigkeiten der Ereignistransformation stellen. Um den ersten Störeinfluss zu eliminieren, empfiehlt die statistische Literatur eine Glättung. Es hat sich jedoch in mehreren Tests, entgegen den ursprünglichen Erwartun-
Prognose mithilfe von Verweilzeitverteilungen
83
gen, gezeigt, dass in keinem Fall mit geglätteten Verteilungen Prognoseverbesserungen erzielt werden konnten. Das Auftreten von Außenseiterereignissen, das sich in der Verweilzeitverteilung in einer geringen Besetzungsdichte der kurzen, insbesondere aber der langen Verweilzeiten bemerkbar macht, ist in der Prognose dadurch hinderlich, dass der Rechenaufwand erhöht wird, jedoch ohne nennenswerten Einfluss auf das Ergebnis. Es ist deshalb ratsam, die Verteilungen auf beiden Seiten zu stutzen, sodass die verbliebenen relativen Häufigkeiten kumuliert einen bestimmten Grenzwert von z. B. 95 % ergeben, und anschließend die Summe der Verteilungskomponenten wieder auf 100 % hochzurechnen (zu normieren). Untersuchungen mit simulierten und empirischen Daten ergaben, dass der durch Stutzung und Normierung hervorgerufene Fehler vernachlässigt werden darf, da die Abweichungen, gemessen an Mittelwert und Varianz der VenA/eilzeiten, gering sind. 6.3
Die Prognose
Im Folgenden wird die Wirkungsweise der Verweilzeitverteilungen als Instrument zur Prognose gezeigt. Diese Darstellung erfolgt zunächst am Beispiel einer einfachen Verweilzeitverteilung. Anschließend wird das Prognoseverfahren mit komplexen Verteilungen im Produktions- und Investitionsbereich demonstriert. 6.3.1
Prognose mit einfacher Verweilzeitverteilung
Der Prognosekalkül wird anhand des Zusammenhangs von Umsätzen und daraus resultierenden Bareinnahmen dargestellt. Dieser Zusammenhang ist doppelschichtig. Er umfasst zunächst die generelle Gesetzmäßigkeit, mit der die betrieblichen Umsätze im Zeitablauf zu Bareinnahmen werden. Sie findet ihren Ausdruck in der VenA/eilzeitverteilung. Darüber hinaus sind die Einnahmen von der Höhe der Umsätze abhängig. Zur Verweilzeitverteilung hinzu treten müssen Informationen über die tatsächliche Höhe der Umsatzwerte in den einzelnen Basisperioden. Zur Prognose wird eine einfache Wertverteilung mit den Komponenten (SQ,S^,...,SJ verwendet. Unterstellt man zeitliche Konstanz der Verteilung, so lässt sich der Liquidationsprozess der Umsatzwerte u wie folgt darstellen. ^t-n
••
Uf
••
Ut_x
••
^t-l
••
^t-3
•• ••
^t-n
^t-n^O
^t-S
^t-l
^t-X
^t UfSQ
Uf_lSQ
^t-\^l
Uf_2So
Ut_2Sx
^t-l^l
^t-3^0
Ut-3S\
^t-S^l
^t-3^3
^t-n^n-3
^t-n^n-l
^t-n^n-X
^t-n^n
Die Zeilen in diesem Tableau zeigen die Verteilung der Umsätze u^ bis w^_„ auf die Einnahmen e^ bis e^_^ der Perioden / bis / - w , während die Spalten erkennen lassen,
84
Langen, Weinthaler
aus welchen Umsätzen sich die einzelnen Periodeneinnahmen zusammensetzen. Die Prognosefunktion für die Einnahmen e^ ergibt sich aus dieser Tabelle als: e, = U^SQ + U,_^S^ + t/,_2^2 + - + ^t-n^n = S ^t-^^i /=0
Fasst man mehrere solcher linearer Prognosefunktionen für aufeinander folgende Perioden in einem linearen Gleichungssystem zusammen, so kann man den Matrizenkalkül einsetzen und gelangt zur Matrizengleichung: ^S^O ^
^t-\ ^t+\
^t+\
^t+2
V+2
^t+3
^t+2>
\^t+m J
\J^t+m
U-t+m-\
^t+m-n J
\^n J
Dabei bezieht sich der erste sinnvolle Prognosewert der Einnahmenzeitreihe auf die nte Periode nach der Periode des ältesten in die Prognose einbezogenen Umsatzes. Die Prognose reicht genau so weit in die Zukunft wie die Zeitreihe der bekannten oder geplanten Umsätze. Die Einbeziehung von zukünftigen Werten in die Prognose weist dabei nicht auf eine durch irgendwelche anderen Verfahren zu schließende Lücke im Prognosesystem hin, sie können als durch eine vorgelagerte (beispielsweise aus Auftragseingängen erfolgte) Prognose ermittelt angesehen werden. Dieses Prognosekonzept wurde mehrfach an empirischen Daten überprüft. Die dabei gewonnenen Resultate werden beispielhaft durch die folgenden beiden Abbildungen verdeutlicht. In Abbildung 3 ist die Prognose (gestrichelte Kurve) den realisierten Einnahmewerten (durchgezogene Kurve) gegenübergestellt. Die Treffsicherheit der Prognose zeigt insbesondere Abbildung 4, die die kumulierten Werte aus Abbildung 3 enthält. 6.3.2 6.3.2.1
Prognose mit komplexer Verweilzeitverteilung Im Produktionsbereich
Die Prognose mit komplexen Verteilungen soll zunächst am Beispiel der Aufeinanderfolge von Produktionsereignissen dargestellt werden. Jeder betriebliche Produktionsprozess setzt sich aus einer Vielzahl von Teilprozessen zusammen, die sich auf den gemeinsamen Tatbestand des Gütereinsatzes zur Gewinnung anderer Güter zurückführen lassen. Ausgehend von dem mit Beginn der Fertigung eintretenden Einsatz des ersten Gutes, hinweg über die verschiedenen Reifestadien der zu erstellenden Produkte bis hin zu ihrer endgültigen Gestalt als Endprodukt, findet bei jedem Arbeitsgang ein Verbrauch bestimmter Güter statt. Unter diesem Aspekt stellt der Produktionsprozess eine Kette von Verbrauchsereignissen dar. Zum anderen entsteht praktisch nach Abschluss jedes einzelnen Arbeitsgangs ein neues
Prognose mithilfe v o n Verweilzeitverteilungen
85
Gut, welches allerdings zumeist in nachfolgenden Arbeitsgängen erneut eingesetzt wird. Der Produktionsprozess kann also in g l e i c h e r w e i s e auch als Kette v o n Güterentstehungsereignissen begriffen w e r d e n .
/^ Zahlungseingänge in 10 Tsd. Euro
106-
98891 1
80
1 1
7162^ 53-
1 V
A
/ T-i\
A 44A A
35"
26178"
A \
1/^' VJi 1 X\
//i\ h
M t
A i\
//
f / 1 / 1/ 1' W
^
1 1 1 r V
\ \
\
1/1
1
.A J1 ^i \ 1"* \t /
/ 1 l l f 1 / '1 1 1 /' 1 1.
\ / ||
/ /
\\ II
1 '
r
1 /
li
f / 1^ f' r r1
1 1 1 1 1 1
V l^ /
1 1
^ V
1
V
s
\
y
\ 1 /
f
11 '
^ 5
^__ 10
, 15
,, 20
^ 25
^ 30
^ 35
-—1
40
->
f= 10 Tage
Abb. 3: Prognose der Zahlungseingänge aus den Umsätzen Es ist einsichtig, dass die Übergänge zwischen Produktionsbeginn und der Vielzahl der dadurch ausgelösten Materialeinsatzereignisse bzw. Güterentstehungsereignisse nur durch komplexe Verweilzeitverteilungen abgebildet werden können, da in diesem Bereich gerade die individuellen Strukturen der zukünftigen Einsatz- bzw. Entstehungszeitreihen interessieren. Zum Teil werden diese Informationen für die Planung des Fertigungsgeschehens selbst benötigt, insbesondere bilden sie aber die Grundlage für die weiterführende Prognose der Lager- und Beschaffungsereignisse bis letztlich hin zur Vorhersage der zu erwartenden Ausgaben einerseits und der Umsatzereignisse bis hin zu den daraus resultierenden Einnahmen andererseits. Inhaltlich wird durch die anzuwendende Verweilzeitverteilung der quantitativ-zeitliche Zusammenhang zwischen einzelnen Fertigungsbeginnereignissen und den zugehörigen Input- bzw. Outputereignissen ausgedrückt. Welche Arten von Einsatzgütern oder entstehenden Gütern in die Verweilzeitverteilung aufgenommen und dadurch der Prognose zugänglich gemacht werden sollen, ist in Abhängigkeit von ihrer Bedeutung und dem Informationsbedürfnis der Unternehmensführung zu entscheiden. Die Prognose der Verbrauchsereignisse kann mit einer komplexen Verweilzeitverteilung vorgenommen werden, die sich wie folgt aufbaut:
86
Langen, Weinthaler
141,6 Kumulierte Zahlungseingänge 134,2 - in 10 Tsd. Euro 126,7119,3 111,8 104,3 96,9 89,4 82,0 74,5 // 67,1 r^ 59,6 52,1 / 44,7 37,2 29,8 22,3 14,9 7,4i
1
\
\
10
15
20
-^>^
J
—
1
25
/ /-^'^'"'"^
\
30
^
35
^
>
40 f= 10 Tage
Abb. 4:Kumulierte Prognoseergebnisse der Einnahmenprognose aus Abbildung 3 Durch l^fj mit (/ = !,...,/), (7 = l,...,r), (/ = !,...,^) werden die Mengen der Einsatzgüterarten j bezeichnet, die in der jeweils t -ten Periode eines Produktionszyklus zur Produktion einer Einheit des betreffenden Gutes / benötigt werden. Durch n wird die längste vorkommende Produktionsdauer ausgedrückt. Diese Einsatzkoeffizienten werden zu n Einsatzmatrizen S^ zusammengefasst, die in den Zeilen nach den Enderzeugnissen und in den Spalten nach Aufwandsarten gegliedert sind. f M
Jr\
s^ Diese n Einsatzmatrizen lassen sich zu einem Einsatzvektor S'=^(SQ S^ -"S^) zusammenfassen. Dieser Vektor stellt die zur Prognose verwendbare Verweilzeitverteilung dar. Dass es sich hierbei um eine komplexe Verteilung handelt, zeigt sich darin, dass ihre einzelnen Komponenten Matrizen darstellen, die die Verteilung einzelner Inputarten auf ihre zugehörigen Outputarten beinhalten. Die Matrizen ermittelt man, indem man die Arbeits- und Produktionsunterlagen für mehrere Perioden statistisch auswertet. Da jedoch gerade im Produktionsbereich die Verfolgung der einzelnen Fertigungsaufträge bei ihrem Durchlauf durch die Produktion
Prognose mithilfe von Verweilzeitverteilungen
87
erhebliche Erfassungsschwierigkeiten bereiten kann, können die Komponenten auch durch Schätzverfahren ermittelt werden. Bei der Methode der kleinsten Quadrate bzw. bei der Schätzung mit der Maximum-Likelihood-Funktion werden Übergangsfunktionen gesucht, die eine lineare Verknüpfung der Zeitreihen derart erlauben, dass die Abweichungen der empirischen Outputzeitreihen minimiert werden. Allerdings ist es dann nicht mehr in jedem Fall möglich, die berechneten Komponenten auch ökonomisch zu interpretieren. Es bleibt abzuwarten, welche Möglichkeiten sich für die Schätzung der VenA/eilzeitverteilung aus der Weiterentwicklung der Spektralanalyse ergeben. Gute Hilfestellung leisten auch terminierte Stücklisten, aus denen die benötigten Verweilzeitverteilungen teils direkt entnommen, teils durch Summation, Faltung und Ähnlichem errechnet werden können. Allerdings haben die hierin enthaltenen Zeit- und Mengengrößen eine Tendenz zu technischen Sollgrößen und führen in der Prognose zu verzerrten Ergebnissen. Sie sind daher durch Erfahrungswerte und statistisch ermittelte Werte zu korrigieren. Neben den VenA/eilzeitverteilungen werden zur Prognose Informationen über die begonnenen und zu beginnenden Fertigungsprozesse der Produktionsmengen p der Produkte / in den Perioden t benötigt. Diese Größen [p^^ mit (/ = !,...,/) und (^ = ^o_„,...,^o+m) können einerseits selbst wiederum das Ergebnis einer vorgelagerten Prognose (z. B. aus Auftragsbeständen) sein, andererseits können diese Daten auch aus Vergangenheitswerten des Fertigungsbereichs selbst unter Berücksichtigung von Zukunftserwartungen mithilfe von Durchschnittswerten, gleitenden Mittelwerten, Exponential Smoothing, Trendwerten oder saisonalen Schwankungswerten ermittelt werden. In diesem Zusammenhang ist insbesondere auf ein mit VenA/eilzeiten arbeitendes Verfahren hinzuweisen, mit dessen Hilfe aus den Daten des Absatzplans gewissermaßen rückwärts die Struktur der Fertigungsbeginne ermittelt werden kann, unter Berücksichtigung verschiedener Zielsetzungen, wie z. B. optimaler Kapazitätsauslastung [8]. Die Fertigungsmengen p\ in den Perioden t werden zu Produktionsvektoren
Pt={p]pl"P\) zusammengefasst, aus denen sich ihrerseits die Produktionsmatrix P ergibt: 'P.
...
P. ^
P= P
... P
Die Prognose der Gütereinsatzmengen der einzelnen Güterarten j in den Perioden t^ bis ^o+m vollzieht sich durch Multiplikation der Produktionsmatrix P mit der Verweilzeitverteilung 5", d. h. P'S' = A. Die Matrix A enthält dann die nach Perioden und Güterarten gegliederten Bedarfsmittel a{ für die in die Prognose einbezogenen Einzelteile, Materialien, Arbeitszeiten, Maschinenkapazitäten und Ähnliches.
88 6.3.2.2
Langen, Weinthaler Im Investitionsbereich
Ein weiterer Anwendungsbereich von komplexen VenA/eilzeitverteilungen liegt in der Prognose der in der Zukunft notwendig werdenden EnA/eiterungs- und Ersatzinvestitionen. Die Vorhersage der zukünftigen Erweiterungsinvestitionen vollzieht sich im Rahmen der oben dargestellten Inputprognose. Ausgehend von der quantitativ-zeitlichen Struktur des Produktionsbeginns wird dessen Konsequenz für die kapazitative Beanspruchung einzelner Werkstätten, Maschinengruppen oder Maschinen ermittelt. Zeigt das Prognoseergebnis eine Kapazitätsbeanspruchung, die nicht nur kurzfristig über die tatsächlich vorhandenen Kapazitäten hinausgeht, so müssen diese Kapazitäten durch EnA/eiterungsinvestitionen aufgestockt werden. Der umgekehrte Fall weist auf Desinvestitionsmöglichkeiten hin. Ein anderer Prognoseweg führt zum Erkennen der zu erwartenden Ersatzinvestitionen. Als Prognosegrundlage dient hierbei die in der Vergangenheit bis zur Prognoseperiode realisierte Zeitreihe der in den einzelnen Perioden getätigten Gesamtinvestitionen (Ersatzinvestitionen, Rationalisierungsinvestitionen, EnA/eiterungsinvestitionen). Verlängert wird diese Zeitreihe durch die für die kommenden Perioden fest eingeplanten Erweiterungsinvestitionen. Aus diesen Ausgangsinformationen wird die Investitionsmatrix K gebildet, deren Struktur der obigen Produktionsmatrix entspricht. Ihre Elemente sind Periodenvektoren K^=(k]k^...kl), deren Komponenten die in einer Periode t angeschaffte bzw. anzuschaffende Anzahl der Investitionsgüterart j beinhalten. Die zur Prognose verwendete komplexe Verweilzeitverteilung beinhaltet die aus den Betriebsunterlagen ermittelten Gesetzmäßigkeiten über die Verweilzeit dieser Investitionsgüter im Betrieb bis zum Ersatzereignis (Lebensdauer). Mit s{ wird die Anzahl der Investitionsgüter j bezeichnet, die nach genau t Perioden ersetzt werden müssen. Diese Ersatzkoeffizienten werden zu einzelnen Periodenvektoren S^={s]s^...s\) geordnet, die dann den Gesamtvektor 5"ergeben: S' = {8^ S^ ...S^). Die Prognose vollzieht sich dann wiederum als Matrizenmultiplikation K-S' = E. Die Matrix E enthält die Größen e^ als in den Perioden t zu ersetzende Anzahl von Einheiten der Investitionsgüter/ Allerdings ist diese Lösung deshalb noch fehlerhaft, weil in der als Prognosegrundlage verwendeten Matrix K für die zukünftigen Perioden ^Q+I bis ^o+m ^^^ EnA/eiterungsinvestitionen berücksichtigt sind und damit die Tatsache, dass die für diese Perioden prognostizierten Ersatzinvestitionen ihrerseits selbst Einfluss auf Art und Umfang der in nachfolgenden Perioden notwendig werdenden Ersatzinvestitionen haben, unberücksichtigt bleibt. Das hat zur Folge, dass nur der für die Prognoseperiode selbst ermittelte Ersatzvektor ohne diesen Fehlereinfluss ist, während der für die Folgeperioden ermittelte Ersatzbedarf zu gering angenommen wird. Um diesen Fehler zu eliminieren, empfiehlt es sich, die Basisperioden so klein zu wählen, dass die Notwendigkeit eines Ersatzes bereits in der Investitionsperiode ausgeschlossen wird. Dadurch wird die erste Komponente der VenA/eilzeitverteilung gleich Null, und der in der Prognoseperiode t prognostizierte Ersatzbedarf / + 1 bleibt fehlerfrei. Dieses Ergebnis kann nun in die ^-Matrix aufgenommen werden (Addition zu den
Prognose mithilfe von Verweilzeitverteilungen
89
für Periode / + 1 geplanten Erweiterungsinvestitionen). Dadurch wird die Ausgangsbasis für die in einem neuen Rechenschritt durchzuführende, fehlerfreie Prognose des Ersatzbedarfs in Periode t + 2 gewonnen. Die Prognose der zukünftigen Ersatzinvestitionen vollzieht sich also durch eine Abfolge von Rechenschritten, wobei jeweils der fehlerfreie Ergebnisvektor in die Prognosebasis für die nächste Periode aufgenommen wird. 6.4
Schlussbetrachtung
Mithilfe des Konzepts der Auflösung des Betriebsgeschehens in eine kausal verknüpfte Folge von Ereignisarten und der Ermittlung der zwischen ihnen vorliegenden Übergangsgesetzmäßigkeiten auf statistischer Grundlage ist es möglich, zukünftige Entwicklungen, deren Wurzeln in sachlich und zeitlich vorgelagerten Ereignissen ruhen, vorherzusagen. Prognosen mit dem hier nur für eine beschränkte Auswahl aus der Vielzahl der sich bietenden Anwendungsbereiche dargestellten Instrumentarium ergänzen und verbessern, wie die bisher durchgeführten empirischen Untersuchungen ergaben, ganz wesentlich die Planungsergebnisse eines Unternehmens. Dies ist vornehmlich darauf zurückzuführen, dass bei dieser Konzeption den tatsächlich vorliegenden Ursache-Wirkungs-Beziehungen im Ablaufgeschehen des Betriebs Rechnung getragen wird, im Gegensatz zu einer Reihe von Instrumenten, die eine Prognose der Mengen- und Wertgrößen aus eigenen Vergangenheitswerten der Ereignisse - wie z. B. in dem Verfahren des Exponential Smoothing oder der Trendberechnung - vornehmen und dadurch die eigentlichen verursachenden Faktoren unberücksichtigt lassen. Selbstverständlich kann das vorgetragene Prognoseverfahren bei dem gegenwärtigen Stand der Forschung auf diesem Gebiet keinen Anspruch auf Vollständigkeit erheben. Sowohl hinsichtlich der praktischen Anwendungsmöglichkeit auf die vielschichtigen Einzelprobleme der Praxis als auch hinsichtlich des theoretischen Ansatzes bedarf das Verfahren ständiger Überprüfung und Weiterentwicklung. 6.5 [1] [2] [3] [4] [5] [6]
[7]
Literatur Brand, 8., Statistische Methoden der Datenanalyse, Mannheim 1968. Edin, R., Wirkungsweise und Voraussetzungen der Prognose mittels Verweilzeitverteilungen, Zeitschrift für Betriebswirtschaft 38 (1968), S. 743 ff. Edin, R. und Schmitt, H.J., Verweilzeitverteilungen und Prognosen: Einige empirische Ergebnisse, Zeitschrift für betriebswirtschaftliche Forschung 21 (1969), S. 484 ff. Gahse, S., Liquiditätsprognose auf der Grundlage von Phasenfolgen mit Hilfe von EDVA, Dissertation, Mannheim 1967. Gahse, S., Dynamische Liquiditätsplanung DYPOL auf IBM-System 360, IBM Form 8064200, o.J. Hasenauer, R. und Magloth, U., Ein Time-Sharing Dialogmodell für die Planung dynamischer Betriebsprozesse mittels einfachen Verweilzeitverteilungen, in: Hasenauer, R. (Hrsg.), Modell der computergestützten Marketingplanung, Meisenheim 1977, S. 261 ff. Honig, G., Existenz und Eignung der Kostenfunktion für betriebliche Dispositionen, Dissertation, Mannheim 1965.
90 [8] [9] [10] [11]
[12] [13]
[14] [15] [16]
[17] [18]
[19] [20] [21]
[22] [23] [24] [25]
Langen, Weinthaler Kockelkorn, G., Verweilzeitverteilungen und Prognosen im betrieblichen Produktionsbereich, Zeitschrift für betriebswirtschaftliche Forschung 23 (1971), S. 83 ff. Kossbiel, H., Das Tagesumsatzliquiditätsspektrum - ein Instrument zur Prognose der kurzfristigen Finanzplanung, Dissertation, Mannheim 1965. Kossbiel, H., Die Umsatzeinnahmen als Gegenstand der unternehmerischen Liquiditätsplanung und Liquiditätspolitik, Berlin 1968. Langen, H., Die Prognose von Zahlungseingängen: Die Abhängigkeit der Bareinnahmen von Umsätzen in dynamischer Sicht, Zeitschrift für Betriebswirtschaft 34 (1964), S. 289 ff. Langen, H., Betriebliche Zahlungsströme und ihre Planung in dynamischer Sicht, Zeitschrift für Betriebswirtschaft 35 (1965), S. 261 ff. Langen, H., Gedanken zu einer betriebswirtschaftlichen Dispositionsrechnung, Mitteilungen der Gesellschaft der Freunde der Wirtschaftshochschule Mannheim e.V. 14 (1965) 2, S. 27 ff. Langen, H., Grundzüge einer betriebswirtschaftlichen Dispositionsrechnung, Zeitschrift für Betriebswirtschaft 36 (1966), Ergänzungsheft 1, S. 71 ff. Langen, H., Dynamische Preisuntergrenze, Zeitschrift für betriebswirtschaftliche Forschung 18 (1966), S. 649 ff. Langen, H., Preis- und konditionspolitische Maßnahmen in der Rezession, in: Jacob, H. (Hrsg.), Schriften zur Unternehmensführung, Band 1: Unternehmenspolitik bei schwankender Konjunktur, Wiesbaden 1967, S. 43 ff. Langen, H., Einige Werkzeuge betrieblicher Konjunkturtheorie, Zeitschrift für Betriebswirtschaft 37 (1967), S. 553 ff. Langen, H., Die betriebswirtschaftliche Disposition im Dienste der Unternehmensführung, in: Stöhr, W. (Hrsg.), Unternehmensführung auf neuen Wegen, Wiesbaden 1968, S. 231 ff. Langen, H., Der Betriebsprozeß in dynamischer Darstellung, Zeitschrift für Betriebswirtschaft 38 (1968), S. 867 ff. Langen, H., Edin, R., Kockelkorn, G., Schmitt, H. und Weinthaler, F., Unternehmungsplanung mit Verweilzeitverteilungen: Eine Anleitung für Praktiker, Berlin 1971. Langen, H., Evolutorisches Verhalten von Debitoren bei Geldknappheit, in: Wild, J. (Hrsg.), Unternehmensführung, Festschrift für Erich Kosiol zu seinem 75. Geburtstag, Berlin1974, S. 525ff. Neumeyer, L., Zum Problem der Ermittlung von Liquidationsspektren und ihrer Stabilität im Zeitablauf, Dissertation, Mannheim 1966. Niebling, H., Kurzfristige Finanzrechnung auf der Grundlage von Kosten- und Erlösmodellen, Wiesbaden 1973. Pönninghaus, S., Betriebswirtschaftliche Multiplikatoren, Zeitschrift für betriebswirtschaftliche Forschung 19 (1967), S. 659 ff. Schmitt, H.J., Die Planrevision in dynamischen Abgangsfolgemodellen, Betriebswirtschaftliche Forschung und Praxis 20 (1968), S. 24 ff.
7
Punkt-, Intervallprognose und Test auf Strukturbruch mithilfe der Regressionsanalyse
von Hans Schneeberger 7.1
Einleitung
In der Theorie der linearen Regression ist es möglich, unter bestimmten Voraussetzungen bei vorgegebenen n Punkten {x{,y^), (x2;j^2)'-' (^«'J^«) einen erwartungstreuen Schätzwert für den Wert der Regressionsgeraden an einer weiteren Stelle x^^^ zu berechnen und ein Vertrauensintervall für diesen Schätzwert anzugeben. Im ersten Fall spricht man von Punktprognose, im zweiten von Intervallprognose. Weiterhin kann eine Vorhersage über die Verteilung der Ordinate y^^^ eines {n+\)-iex\ Messpunkts (^«+1 '3^«+i) geniacht werden; hier ist eine Intervallprognose möglich. In der Praxis könnten z. B. x das private Einkommen, ;; der private Verbrauch, der Index z der Zeitpunkt / sein [5]. Diese Aussage für den Fall der einfachen linearen Regression lässt sich auf die multiple (^-dimensionale) lineare Regression verallgemeinern. Bei gegebenen n>k Punkten {x^^,...,Xky,y,) (/=!,...,«) kann man an einer (^+l)-ten Stelle ( X I „ ^ I , ^ 2 , « + I - " . ^ M + I ) den Wert der Regressionsfunktion schätzen und ein zugehöriges Vertrauensintervall berechnen. Für einen weiteren Messpunkt (^i,^+i,-,^^,„+i;3^„+i) geben wir ein Vertrauensintervall für die Ordinate y^^^ an. Im Fall k = 2 könnten z. B. y der private Verbrauch, x^ das Lohneinkommen, x^ das Gewinneinkommen, der Index / wieder der Zeitpunkt (Jahr) sein [2]. Die Testaussage wird in jedem Fall lauten: Die Hypothese, dass auch der (w + l)-te Punkt den Annahmen der linearen Regression genügt, wird verworfen, falls dieser Punkt außerhalb des Vertrauensintervalls liegt, anderenfalls wird sie angenommen. Eine weitere Verallgemeinerung ergibt sich, wenn sich die Prognose nicht auf einen einzigen, sondern auf mehrere weitere Beobachtungspunkte bezieht. Dieser Anwendungsfall wird vorliegen, wenn ein Strukturbruch in den Regressionsparametern, also etwa eine andere Neigung der Regressionsgeraden in einem zweiten [5] oder auch mehreren folgenden Zeitintervallen ([3] und [4]), vermutet wird. 7.2 7.2.1
Prognose im Fall einfacher linearer Regression Punkt- und Intervallprognose
Wir nehmen an, x sei eine nichtzufällige Größe, y eine Zufallsgröße, und es mögen n Messpunkte {xx\y\\{x2 \y2\"->{^n'^yn) vorliegen. Über die Verteilung von y machen wir zunächst nur folgende Annahmen: Über die bedingten Erwartungswerte: (A1)
£'(j^|x) = ri[x) = a+ß{x-x)
Über die Varianzen:
(Linearitätshypothese);
92
Schneeberger (A2)
V(y\x) = E [(y-7jf\x]
= a^
(Homoskedastizität);
Über die Unabhängigkeit: (A3)
yj unabhängig von yj für i^j
Die Annahme (A2), dass die Streuung konstant, also unabhängig von x ist, lässt sich in einfacher Weise auf den Fall der Heteroskedastizität verallgemeinern (vgl. z. B. [1] und [5]). Da die Überlegungen und Ergebnisse ganz analog sind, beschränken wir uns der Einfachheit halber auf den Fall (A2). Häufig wird die Störvariable u^ (i = \,2,...,n) eingeführt: y^ = a+ß{xi-x)
+ Ui = 7](xi) + u^ = rji + i/^-
M\
Dann schreiben sich unsere Annahmen: (A1) E{u\x) = Q (A2) E{u^\x) = c7^ (A3) Ui unabhängig von uj für / ^j Für die Parameter a und ß erhält man nun Schätzwerte a und ß nach der Methode der kleinsten Quadrate. Die notwendigen Bedingungen für ein Extremum von Q = t\yi-cc-ß{x,-x)\
(2)
ergeben sich als Lösung der Normalgleichungen
% = -2Y.\y,-ä-ß{x,-x) 1 = 0 /=i
da
(3) •^---Tny^-an
ß{x^-x)\{x^-x)
=
_
und wegen 2;(x, -x) = 0 zu i=\
ä=-Yyi=y;ß=^„
(4) /=1
Unter der trivialen Annahme, dass nicht alle Xf identisch sind, liefert also (4) ein (eindeutiges) Minimum von (2). Man sieht sofort, dass ä und ß lineare Funktionen der yi sind und dass aufgrund der Voraussetzung (A1)
E{ä) = a',E[ß) = ß
(5)
Punkt-, Intervallprognose und Test auf Strukturbruch
93
also ä und ß erwartungstreue Schätzwerte von a und ß sind. Insbesondere ist dann die empirische Regressionsgerade
y{x)^ä^ß{x-x)
(6)
erwartungstreuer Schätzwert der theoretischen Regressionsgeraden //(x). Für die Varianzen ergibt sich wegen der Annahmen (A2) und (A3)
V{a) = ^;V[ßy
„ ^'
(7)
i=\
Ohne weitere Prämissen lassen sich über die Verteilung von ä,ß,y auch keine weiteren Aussagen machen. Wir nehmen daher zusätzlich zu (A1) bis (A3) an, dass die Zufallsgröße y, also auch die Störvariable u, normalverteilt sind (Annahme A4). Diese Annahme ist bei vielen Anwendungen erfüllt, eventuell nach einer geeigneten Variablentransformation. In jedem Fall kann diese Hypothese getestet werden. Die Maximum-Likelihood-Methode liefert als Schätzwert für a und ß die bereits nach der Methode der kleinsten Quadrate gefundenen Schätzungen ä und ß. Als Schätzung für (? ergibt sich der (nicht erwartungstreue) Schätzwert
^' --t{y, -K^;)f --t^y, -hf =-tüf n 7=1
n i=\
(8)
n i=\
mit den empirischen Störgrößen ü^=y^-y^\s^ ^{nln-2)6-^ Schätzung von c?.
ist eine erwartungstreue
Nach dem Additionstheorem der Normalverteilung für unabhängige Zufallsgrößen sind ä und ß normalverteilt mit den jeweiligen Erwartungswerten (5) und (7), also ist y=ä^ß[x-x)
normalverteilt mit dem Erwartungswert
ri = a + ß[x-lc) Mithilfe des Satzes von Cochran zeigt man weiter (z. B. in [1]), dass ä, ß und s'^ stochastisch unabhängig sind
(9)
und dass Y—j^-verteilt
2
ist mit {n-2) Freiheitsgraden.
Mit diesen Ergebnissen können die bekannten Vertrauensgrenzen für ä, ß und y{x) angegeben werden. Uns interessiert hier: a) Punkt- und Intervallschätzung für den Erwartungswert 77 an einer weiteren Stelle ^^+1- Es gilt: Der Schätzwert
94
Schneeberger (10)
ist erwartungstreu, d. h. E(yn+11 ^«+1) = « + ßi^n^i - ^ ) = n(x„^i) = %+i
(11)
wegen (5). Die Annahme (A4) wurde hierfür nicht benutzt; diese Aussage ist also von der Verteilung von y unabhängig, wenn nur die Annahmen (Al) bis (A3) erfüllt sind. Die Varianz von y„^i ist wegen (7) und der Unabhängigkeit von a und ß: 1 , (^»+1-^)^ = <j2^2 d^
v{y„.x) =
"
(12)
t{x,-xf i=\
Dann ist yn^i-v^ n+\ 'ln+\ =t sd,
(13)
Student-verteilt mit {n-2) Freiheitsgraden, und man erhält als 100 (l-^)-Prozent-Vertrauensintervall für den wahren Wert 77^+1 A + l - 1 ^ 2 I ^^\ ^ ^n^l ^ A + 1 +1 teil I Sd^
(14)
t^l2 ist das 100^/2 -Prozent Fraktil der Student-Verteilung mit n-2 Freiheitsgraden. In (10) haben wir mit y^^^ eine (enA/artungstreue) Punktschätzung oder Punktprognose für den wahren Regressionswert T/^^J an der Stelle x^^j, in (14) die zugehörige Intervallschätzung oder Intervallprognose für T/^^J . Weiter können wir b) ein Prognoseintervall für den Messwert y^^i an einer weiteren Stelle x^+j angeben. Wir betrachten die Zufallsgröße ü^^^ = y^^^ - j)„^i mit y^^^ =d + ß(^n+\ -^)• Dann ist wegen (Al) und (11) (15) Die Varianz ergibt sich wegen der Unabhängigkeit von y^^i und j)„+i zu
V(K.,)-C7^'
1
1+-+
(^«^1-^)'
=a^(l+d^)=a^d^
(16)
T7\2
" E(x,-x) i=\
yn+\~yn+\
sdo
(17)
ist dann Student-verteilt mit {n-2) Freiheitsgraden. Die 100 (l-£:)-Prozent-Vertrauensgrenzen ergeben sich jetzt für den weiteren Messwert ;^„+i zu: 7«+i-\hi21sd^
(18)
Punkt-, Intervallprognose und Test auf Strukturbruch
95
Man sieht sofort wegen d2 = l+d^, dass dieses Vertrauensintervall für y^^^ größer ist als das Vertrauensintervall (14) für //„^^. (18) ist das 100 (l-^)-Prozent-Prognose/nteAva//für einen weiteren Messwert y^^^, d. h., unter je 100 Messwerten y^^^ an dergleichen Stelle x^^^ liegen im Durchschnitt 100 (l-6")-Messwerte in diesem Intervall. Wenn man x^^^ variieren lässt (x^^j = x) und e konstant hält (z. B. ^ = 0,05), dann ergeben die Intervallgrenzen (14) Hyperbeläste, von denen der eine über der geschätzten Regressionsgeraden y{x) liegt, der andere in demselben Abstand darunter (Abbildung 1). Das gleiche gilt für die Intervallgrenzen (18).
j)(x)
>'W-K/2M2
>x Abb. 1: Intervallgrenzen Im Durchschnitt liegen - w e n n man sich die Messreihen beliebig oft wiederholt denkt 100 (l-^)-Prozent der geschätzten Regressionsgeraden innerhalb der Grenzen (14). Bisher wurde für eine einzige weitere Messstelle x^^^ in (10) eine Punktprognose für den theoretischen Regressionswert //„^j, in (14) die zugehörige Intervallprognose gefunden. (18) lieferte die Intervallprognose für einen weiteren Messwert y^_^^ an der Stelle X,,,. Wenn also bei einer zugrunde gelegten Sicherheit von 100 (l-^)-Prozent ein weiterer (w + l)-ter Messpunkt (x^+iiy^+i) außerhalb der Grenzen (18) fällt, dann ist unsere bisherige Prognose abzulehnen, dass auch dieser Punkt den Regressionsannahmen (Al) bis (A4) genügt, d. h., es kann entweder die Annahme (Al), dass sich der lineare Trend über den Punkt (x^ ;y^) hinaus fortsetzt, oder die Annahme (A2), dass die Streuung von y konstant bleibt, falsch sein. Besonders wichtig für die Prognose ist der Fall, dass die Annahme (Al) abzulehnen ist, also eine Parallelverschiebung oder Richtungsänderung der Regressionsgeraden oder beides gleichzeitig vorliegt: ein Strukturbruch.
96
Schneeberger
Dafür aber ist die Aussage anhand eines einzigen Messpunktes (x^+i;yn+\) armselig, mit anderen Worten: das Vertrauensintervall (18) für den einzigen Messwert ist sehr weit. Besser ist es dann in jedem Fall, anhand mehrerer Punkte die Prognose zu stellen. 7.2.2
Strukturbruch der Regressionsgeraden
Der Einfachheit halber beschränken wir uns zunächst auf zwei Messreihen(x^;;;!),..., (x ;v ) und (x ;v ),..., (x ;v ), wie in Abbildung 2 grafisch dargeStellt.
^«,+1
Abb. 2: Strukturbruch der Regressionsgeraden Wir nehmen an, dass für beide die Voraussetzungen (A1), (A2), (A3) und (A4) gelten, und zusätzlich zu (A3) setzen wir die Unabhängigkeit der ;; zwischen den Messreihen voraus. Die Frage ist dann: Ist die Linearität, die für die beiden einzelnen Messreihen als gegeben angenommen wird, auch für alle ni+n2 Messpunkte erfüllt, mit anderen Worten: liegt ein Strukturbruch vor? Die F-verteilte Testgröße, die diese Hypothese zu prüfen gestattet, kann hier nur zitiert und veranschaulicht werden. Einzelheiten finden sich in [3] und [4]. Wir berechnen nach Abschnitt 7.2.1 die beiden Regressionsgeraden y^(x) = ä^+ß^(x-x^)
(19)
unter Zugrundelegung der ersten w^ Messwerte und entsprechend 3)2 (x) = (22+>Ö2(x-X2)
(20)
unter Zugrundelegung der zweiten «2 Messwerte. Die Streuungen um diese Regressionsgeraden
Punkt-, Intervallprognose und Test auf Strukturbruch
sf =-^l(yi-yi(Xi)f
97
(21)
und 1
n^ +«2
^2 =—-
S (yi-y2(^i)f
(22)
sind dann erwartungstreue Schätzwerte von o^. Weiter berechnen wir die Regressionsgerade nach 7.2.1 unter Zugrundelegung aller ni+n2 Messwerte
z{x)=ä-\-ß{x-x)
(23)
und bilden die Varianz 1 f"l
9
"1"^"2
9I
^ ' = - Z[i>,(x,)-i(x,)f + I [y,(x,)-z(x,)f\
(24)
Die einzelnen Summanden sind die Quadrate der Abweichungen in sämtlichen («1+^2) Punkten zwischen der Gesamtregressions- und den Teilregressionsgeraden. Ist 5^ =0, so fallen diese drei Geraden zusammen, ist s^ groß, so weichen die Teilgeraden von der Gesamtgeraden wesentlich ab. Eine Testgröße zur Prüfung der Hypothese der Linearität für alle («1+^2) Punkte oder zur Prüfung der Hypothese, dass kein Strukturbruch vorliegt, wird demnach wesentlich s^ enthalten. Man kann zeigen (vgl. [3]), dass die Prüfgröße
F ~
(25)
Fisher-verteilt mit (2;ni-\-n2-4) Freiheitsgraden ist. Hierbei ist 1
S3 = 1
=
-\(ni -2)s^ +(^2 -2)^21 = r^i
T T[y>-yM)]
9
"i'^"2
+ S [y.-M^^)]
9
(26)
und stellt die Varianz aller («1+^2) Messwerte y^ um die einzelnen Regressionsgeraden dar. Die Testaussage lautet dann: Ist bei einer zugrunde gelegten Sicherheitswahrscheinlichkeit von P % die Prüfgröße
F > ivo/,
(27)
wobei Fpo/^ die P%-Fraktile der Fisher-Verteilung mit (2;ni+n2-4) Freiheitsgraden ist, so ist die Hypothese der Linearität für alle («1+^2) Messpunkte abzulehnen; falls F Fpo/^, ist die Abweichung zwischen den Teilregressionsgeraden und der Gesamtregressionsgeraden signifikant - es liegt ein Strukturbruch vor.
98
Schneeberger
Es wurde hier nur der Fall behandelt, aufgrund einer zweiten Messreihe vom Umfang n2 festzustellen oder die Prognose zu stellen, ob dieselbe lineare Abhängigkeit, der die ersten wj Messpunkte genügen, auch für diese gilt. Es wurde hierbei stillschweigend angenommen, dass die zwei Klassen von ni bzw. n2 Messpunkten wirklich die Berechnung einer Regressionsgeraden nach Abschnitt 7.2.1 zulassen. Dazu ist nach (4) vorauszusetzen, dass in jeder Klasse nicht alle Abszissenwerte xi zusammenfallen. Diese Aussagen lassen sich verallgemeinern: 1. 2.
Die Anzahl der Klassen kann größer als zwei sein. In einzelnen Klassen dürfen alle Abszissenwerte x^ zusammenfallen.
Wie in diesem verallgemeinerten Fall die Fisher-verteilte Prüfgröße F zum Testen der Linearitätshypothese bzw. zum Feststellen eines Strukturbruches aussieht, kann in [3] nachgelesen werden. 7.3 7.3.1
Prognose im Fall multipler (k-dimensionaler) linearer Regression Punkt- und Intervallprognose
Die Problemstellung und auch die Antworten sind hier ganz entsprechend wie im Fall einfacher linearer Regression: jci,jc2,...,Xy^ seien nichtzufällige, y sei die einzige zufällige Variable, über deren Verteilung wir zunächst folgende Voraussetzungen machen:
(V1) E{y\xx,..,,xj,) = 77(xi,...,x^) = a+ßx{xx-xx) + ...+ßj,{xj,-xj,) (Linearitätshypothese) (V2) V{y\xx,...,xk) = (?
(Homoskedastizität)
(V3) yi ist unabhängig von yj für /Vy Anhand von n>k+\ Messpunkten {xii,...,xj^i\yi) {i = \,...,n) können wir wieder nach der Methode der kleinsten Quadrate Schätzwerte a und ßj^ {K = \,...,k) für die hypothetischen a und ßj^ berechnen. Die notwendigen Bedingungen für ein Minimum von
ß = E[>^.-^-Ä(^h-^i)--.-Ä(%-^jJ
(28)
ergeben
oc = y =-ty,
(29)
n f=i
und das System der Normalgleichungen zur Berechnung der ßi,...,ßi^ /y
n
ÄIK-^i)
^
^
+
/vrt
ßlJl(X2i-X2)(Xu-Xi)+
i=\
n
/vrt
...
(=1
Ä S (%-^t)(^u-^i) +
n
••• + Ä S ( ^ i , - ^ i ) ( % - % ) +ÄS(.^2/-^2)(-^W--^t) (=1
•••
+ Ä I (Xki-Xkf (=1
=Z(^i/-^i)3^/ n
= I (^2; "-^2) J'/ 1=1
= I (=1
(%-Xk)y,
(30)
Punkt-, Intervallprognose und Test auf Strukturbruch
99
Das in den ß^ lineare Gleichungssystem (30) ist eindeutig auflösbar genau dann, wenn die n Punkte {x^-,x^^,,..,Xj^^) (i = l,2,...,n) den Ä:-dimensionalen Raum (xi,x2,...,x^) wirklich aufspannen, also nicht in einem Unterraum von der Dimension k+l ist. Ein sinnvolles kdimensionales Regressionsproblem wird diese Bedingung stets erfüllen, da wir es sonst mit einem Regressionsproblem von geringerer Dimension zu tun hätten.
y(x^,...,Xj^) = ä+ß^(x^-x^) + ,..+ßj^(xj^-x,^)
(31)
ist dann die geschätzte Regressionshyperebene. Mithilfe von (30) und unter Verwendung der Voraussetzung (V1) kann man zeigen, dass die geschätzten Regressionsparameter ä und ß^ (A:=1,...,Ä:) erwartungstreue Schätzwerte von a und yff^ [K: = \,...,k) sind.
E{ä)=a;
E[ß^) = ß^
{K = h...,k)
(32)
Die Koeffizientenmatrix von (30) ist (bis auf die Faktoren l/n-l effizienten) die Kovarianzmatrix.
bei den einzelnen Ko-
In der Hauptdiagonale stehen (im Wesentlichen) die Varianzen, die anderen Koeffizienten sind (im Wesentlichen) die Kovarianzen. Wir führen zur Abkürzung ein:
V,, = i:(x,,-x^)(x^^-xj
(33)
also (v^s) für die Koeffizientenmatrix von (30). Ist dann (w^^) die Inverse von (v^^), die nach unserer Annahme, dass die n Punkte (jci^,jc2/,...,xy^/) den Ä:-dimensionalen Raum aufspannen, existiert, so ergibt sich für die Varianz von a und die Varianzen und Kovarianzen der ß^ (K = \,...,k) (vgl. z. B. [1]):
V{a) = ^;V(l) w
v(ßJ,) = E
V
= E\(l-ßf] /
L^
[(A-Ä)
= cr'w^ / J
(ß,-ß,)] = cr'w^
(34)
{^^^)
Um weitere Aussagen, insbesondere Vertrauensintervalle zu erhalten, machen wir wieder die zusätzliche Voraussetzung, (V4)
die Zufallsgröße y ist normalverteilt mit Erwartungswert und Streuung gemäß (V1) und (V2).
Dann ergibt die Maximum-Likelihood-Schätzung für die Parameter a und y?^ (A:=1,...,Ä:) dieselben erwartungstreuen Schätzwerte d und ß^ wie die Methode der kleinsten Quadrate. Zusätzlich aber liefert jetzt unsere weitere Annahme (V4) Aussagen über die Verteilung dieser Zufallsgrößen ä undyö^. Nach dem Additionstheorem der Normalverteilung sind zunächst ä und ß^ normalverteilt mit den Erwartungswerten (32) und den Varianzen und Kovarianzen (34); dann ist y normalverteilt mit dem Erwartungswert r/. Weiterhin ist nach dem Satz von Cochran (vgl. z. B. [1])
100
Schneeberger i n
^i =
ry
—rY.{yi-yi) er i=\
(35)
^-verteilt mit ( ^ - ^ - 1 ) Freiheitsgraden; hierbei wurde abkürzend (36) gesetzt. Die Summanden in (35) sind die Quadrate der Abstände der Messwerte ;; von den entsprechenden j)-Werten auf der berechneten Regressionshyperebene; die Summe ist also im Wesentlichen die Varianz (Abbildung 3).
Abb. 3: Zweidimensionale lineare Regression Weiter ist nach dem Satz von Cochran
^2
a-a GJ^n
=
(37)
;tr^-verteilt mit einem Freiheitsgrad und
?3=Z /=1
Z(Ä-Ä)k,-^.) K=\
;tf^-verteilt mit k Freiheitsgraden, und q^^q^Az sind voneinander stochastisch unabhängigDie erste Frage, die wir jetzt analog Abschnitt 7.2 beantworten können, lautet:
Punkt-, Intervallprognose und Test auf Strukturbruch
101
a) Gegeben sind die Abszissen (xi,...,x^) eines weiteren (« + l)-ten Punktes (den Index n + l lassen wir der Kürze halber weg). Man gebe eine Punkt- und Intervallprognose für 7] (xi,...,xi,) an. Zunächst die Punktprognose: y(x^,...,x,^) = ä+ß^ (Xi -Xi) + ... + A (Xk -Xk)
(39)
ist wegen (32) erwartungstreuer Schätzwert von j] (xi,...,x^): (40)
E{y(x^,...,x,^))^7j(x^,...,x,^)
Für die Streuung ergibt sich
(41) da mit qj und q^ auch ä und iß^,...,ß,^) voneinander stochastisch unabhängig sind. Wegen (37) ist:
V{ä)=— n
und wegen (34):
i:(Ä-Ä)(x,-xj
V
:i(X,-jjV(^j+ i K=\
i{x,-\){x,-X,)v{ßM=
K=\
k
Ä=\
k
\
k
k
n
K=\
Ä=\
_
_
= a'Dl
V(y) = CT'
(42)
j)(xi,...,Xjt) ist folglich normalverteilt mit dem Erwartungswert ri{x^,...,xj^) und der Varianz (42); somit ist u=
y-ri
W)
y-ri
(43)
ö-ß
normalverteilt mit dem Erwartungswert 0 und der Streuung 1 ((0;1)-normalverteilt). Da wegen (35), (37) und (38) die erwartungstreue Stichprobenschätzung für cP'
1
.2 =
n-k-l
7
^l
1
"
. 7
(44)
n-k-\i=\
unabhängig von u ist, ist y-7] t =sD,
(45)
102
Schneeberger
Student-verteilt mit (n-k-l) Freiheitsgraden, und wir haben folgende Inten/allprognose für den EnA/artungswert TJ an der weiteren Stelle (xi,x2,...,xj^): Bei einer vorgegebenen Sicherheitswahrscheinlichkeit von 100(l-^)-Prozent liegt der wahre Wert in 100(l-^)-Prozent der Fälle im Vertrauensintervall y-\t^/^\sD,
(46)
Man erkennt, dass dieses Ergebnis dem in (14) gewonnenen vollständig analog ist. b) Wir geben ein Prognoseintervall für einen weiteren (w + l)-ten Messwert y^^^ =;; an der Stelle (xi,x2,...,xj^) an. Entsprechend wie in Abschnitt 7.2.1 zeigt man, dass t^y^
(47)
Student-verteilt ist mit (n-k-\) 1
r^:=i
+ E^ = x+«
Freiheitsgraden: hierbei ist k
k
^ Y 1:{^K-^K){^X-^X)^KX
(48)
K=\ Ä=\
Man hat also in dem Prognoseintervall
ein 100(l-^)-Prozent-Vertrauensintervall für einen weiteren Messwert y. In 100(l-^)Prozent aller möglichen Fälle wird ein weiterer (^7 + l)-ter Messwert an der Stelle (jci,x2,...,x^) in diesem Intervall liegen. Die Darstellung der Prognoseintervalle (46) und (49) ist eine sinngemäße Verallgemeinerung der Darstellung in Abschnitt 7.2.1. An die Stelle der dortigen Hyperbeläste treten jetzt gekrümmte Flächen. 7.3.2
Strukturbruch der Regressionshyperebenen
Der Einfachheit halber beschränken wir uns wieder wie in Abschnitt 7.2.2 auf den Fall zweier Messreihen mit n^ bzw. «2 Messpunkten (x^,...,x,^;y). Für jede Messreihe mögen die Voraussetzungen (VI) bis (V4) gelten; weiterhin seien die Messwerte ;; beider Messreihen stochastisch unabhängig. Die Überlegungen und Ergebnisse sind ganz entsprechend wie im einfachen linearen Fall. Wir berechnen nach Abschnitt 7.3.1 die beiden Regressionshyperebenen bei Zugrundelegung der n^ bzw. n2 Messpunkte y' =y\x,,...,x,) = ä' +ßl(x, -JI) + ,.. + ßl(x, -xl) f
(50)
= y\x,,...,x,) = ä^ + ß^(x,-x^) +... + ßlixj^ -x^)
und die (erwartungstreuen) Schätzwerte sj für die Streuung c^
s^ =—\—hyi-y}f
(51)
Punkt-, Intervallprognose und Test auf Strukturbruch
sl =
—
Z
103
(yi-yff
Hierbei ist z. B.
der Regressionswert der ersten Messreihe an der Stelle (xn,... .xj^i). Aus s^ und 5^ bilden wir die vereinigte Streuung
^^3 =
Tn—^r^^i
~^"^)*^!^ + («2 - ^ - ^ ) 4 1
n-2yk + l)^ mit
(52)
-•
n = ni + n2
Dies ist ein aus beiden Messreihen kombinierter Schätzwert für o^ Aus beiden Messreihen zusammen berechnen wir die Gesamt-Regression: z = z(x^,...,Xk) = ä + ß^ (xi - Jj) + ... + Ä K -^k)
(53)
und die Varianz s'^
• k+l
(54) i=\
i=n-, +1
Wir sehen, dass wieder ^^=0 genau dann ist, wenn die Teilregressionen y^,y^ mit der Gesamtregression z übereinstimmen, und dass die Übereinstimmung der Gesamtregression mit den Teilregressionen um so schlechter wird, je größer s^ ist. Wir erhalten also wieder einen einseitigen Test für die Prüfung dieser Übereinstimmung: Führen wir die mit (Ä: + 1;W-2(Ä: + 1)) Freiheitsgraden Fisher-verteilte Zufallsgröße
ein, so ist bei der zugrunde gelegten Sicherheit von P % die Hypothese der Linearität für sämtliche «1+^22 Punkte zu venA/erfen, falls F>Fpo/^ ist - es liegt ein Strukturbruch vor. Andernfalls kann diese Hypothese nicht abgelehnt werden. Es wurde stillschweigend angenommen, dass sich die Teilregressionen (50) nach Abschnitt 7.3.1 berechnen lassen. Dazu war vorauszusetzen, dass ni>k-{-l;n2>k+l und dass die n^ und «2 Messpunkte wirklich im A:-dimensionalen (x^, ...,xy^)-Raum liegen und nicht in einem Raum geringerer Dimension. Damit aber könnte z. B. nicht die Hypothese getestet werden, ob zwei Regressionsgeraden im (x|,x2;j^)-Raum in einer gemeinsamen Regressionsebene liegen. Dieser Fall liegt etwa vor, wenn für die eine Messreihe X2 = const. = k^ ist und aufgrund einer zweiten Messreihe an der Stelle X2 = const. = ^2 getestet werden soll, ob bezüglich dieser Variablen X2 auch lineare Abhängigkeit vorliegt: Die Prognose der linearen Abhängigkeit von weiteren Variablen wäre nicht möglich. Das ist aber beim Aufbau von Modellen durch sukzessive Hereinnahme weiterer Variablen besonders wichtig.
104
Schneeberger
Die Verallgemeinerung des Tests (55) auf Strukturbruch für den Fall, dass 1.
die ni bzw. «2 Messpunkte der beiden Klassen in einem Teilraum des (xj,... ,jc^)Raums liegen,
2.
mehr als zwei Klassen von Messpunkten vorliegen, wobei alle Möglichkeiten der Lage der Messpunkte im (xj,... ,Xy^)-Raum zugelassen sind, findet sich in [4].
7.4
Nichtlineare Regression
Eine Reihe von nichtlinearen Ansätzen, die in der Praxis besonders wichtig sind, lässt sich durch geeignete Koordinatentransformationen auf die lineare Form bringen. Im Fall einer einzigen unabhängigen Variablen x lassen sich z. B. die Beziehungen y = ae^'', y = ax\
y = ae^^'', y^a + b— durch Logahthmieren linearisieren (vgl. auch X
Kapitel 20). Die Methode der Substitution ermöglicht, auf eine lineare Form in mehreren unabhängigen Variablen zu kommen. Ist die Modellannahme ein Polynomansatz: y = a+b^x+b2X -\-...+bj^x SO erhält man durch die Substitution
die in Abschnitt 7.3 behandelte multiple lineare Regression. Schließlich kann eine Kurve durch ein Polygon approximiert und für diese Geradenstücke die lineare Regression angewendet werden. 7.5 [1] [2] [3] [4] [5] [6] [7]
Literatur Heinhold, J. und Gaede, K.-W., Ingenieur-Statistik, 4. Aufl., München-Wien 1979. Hochstädter, D. und Uebe, G., Ökonometrische Methoden, Berlin u.a. 1970. Schneeberger, H., Linearitätsteste der eindimensionalen Regressionsgleichung und Anwendungen, Mathematik, Technik, Wirtschaft 7 (1960), S. 118 ff. und S. 175 ff. Schneeberger, H., Linearitätsteste der k-dimensionalen Regressionsgleichung und Anwendungen, Monatshefte für Mathematik 64 (1960), S. 361 ff. Schneeweiß, H., Ökonometrie, 4. Aufl., Heidelberg 1990. Johnston, J., Econometric Methods, 2. Aufl., McGraw-Hill 1972. Stulajter, F., Predictions in Time Series Using Regression Models, Berlin 2002.
8
Prognose mit Paneldaten
von Susanne Rässler und Katja Wolf 8.1
Einleitung
Die wesentliche Besonderheit von Paneldaten, die auch der Grund für ihre große Beliebtheit in der empirischen Forschung ist, liegt in der zweidimensionalen Datenstruktur. Für eine bestimmte Gruppe von Querschnittseinheiten (Personen, Regionen usw.) werden Daten zu interessierenden Variablen an mehreren Zeitpunkten erhoben. Wie Querschnittsdaten beschreiben sie Unterschiede zwischen Querschnittseinheiten, wie Zeitreihendaten Veränderungen über die Zeit. Aus dieser zweidimensionalen Struktur erwachsen viele Vorteile (vgl. z. B. [6], S. 362). So trägt die Verwendung von Paneldaten erheblich dazu bei, unbeobachtete zeitkonstante Unterschiede zwischen den einzelnen Querschnittseinheiten innerhalb des Modells zu kontrollieren. Dies gilt sowohl für systematische als auch unsystematische Formen solch einer individuenspezifischen Heterogenität. Eine Diskussion der hierfür geeigneten Modellspezifikationen und der jeweils „besten" Schätzverfahren erfolgt in den Abschnitten 8.2 und 8.3. Inwieweit sich Paneldaten darüber hinaus nutzen lassen, um zu verbesserten Prognosen für jede der beobachteten Querschnittseinheiten zu kommen, ist Thema des Abschnitts 8.4. Paneldaten sind auch Grundlage zur mittel- und langfristigen Absatzprognose in Kapitel 11 sowie für Marktanteilsprognosen in Kapitel 20 dieses Buches. 8.2
Lineare Modellspezifikationen für Paneldaten
Im Rahmen von Panelmodellen lassen sich die erklärenden Variablen in drei Gruppen einteilen. Zum einen gibt es Variablen, die sowohl in der Zeit als auch zwischen den Querschnittseinheiten variieren (z. B. Einkommen). Weiterhin existieren Variablen, die für eine Querschnittseinheit zu allen Beobachtungszeitpunkten den gleichen Wert aufweisen (z. B. Geschlecht). Schließlich weisen einige Variablen zu einem Zeitpunkt für alle Querschnittseinheiten den gleichen Wert auf (z. B. Arbeitslosenquote). Ausgangspunkt für die folgenden Überlegungen sei nun ein lineares Regressionsmodell mit K zeit- und individuenvariierenden erklärenden Variablen x = (xp...x^)' und G nur individuenspezifischen erklärenden Variablen z = (zi,...,z^)'''. Es wird darüber hinaus angenommen, dass für jede Querschnittseinheit / ( / = 1,...,A^) die gleiche Anzahl von Beobachtungen zur Verfügung steht {t = \,..,,T). Man spricht in diesem Fall von einem balancierten Paneldesign, d. h. von Panelmortalität, Antwortverweigerung und verwandten Problemen wird hier Abstand genommen. Das zunächst betrachtete Modell lautet somit in seiner einfachsten Form:
1
K
G
k=\
g=\
Zeitspezifische erklärende Variablen werden nicht gesondert betrachtet, sind aber ohne Probleme in die Analyse einzubeziehen.
106
Rässler,Wolf
wobei Zj. als Achsenabschnitt stets gleich 1 gesetzt wird und s^^ der gewöhnliche statistische Stör-/Fehlerterm ist, für den folgende Annahmen getroffen werden: s^^ - N(0,crl)
und E{s^^£j^) = 0 für / ^ j
und/oder t ^ s .
Die zeit- und individuenvariierenden Variablen X nehmen in Panelmodellen eine besondere Stellung ein, da hierfür jede Querschnittseinheit mindestens zwei unterschiedliche Werte vorliegen. Dies ermöglicht die Spezifikation eines Regressionsmodells, bei dem die Regressionskoeffizienten nicht notwendigerweise konstant formuliert werden müssen, sondern zwischen den Querschnittseinheiten variieren können^. Für die Koeffizienten dieser Art von Variablen ergeben sich somit grundsätzlich drei Spezifikationsmöglichkeiten. Der Einfluss einer erklärenden Variablen auf die zu erklärende Variable kann als identisch für jede der N Querschnittseinheiten betrachtet werden. In diesem Fall wird der Koeffizient der erklärenden Variablen als nicht-stochastisch und identisch für alle Querschnittseinheiten / formuliert:
ß,=ßj^ß
für Uj = \,,..,N.
Als zweite Möglichkeit kann angenommen werden, dass es im Einfluss einen Unterschied zwischen den Querschnittseinheiten gibt, dieser allerdings nur zufällig ist, d. h. nicht systematisch. Der dazugehörige Regressionskoeffizient wird in diesem Fall als Zufallsvariable betrachtet und somit als zufällig variierend zwischen den Querschnittseinheiten spezifiziert. Der Erwartungswert ist für alle Querschnittseinheiten identisch:
ß^^ß^\ü,i^j\aber
E{ß^) = E{ß^) = ß\ür UJ = l...,N.
Schließlich kann der Koeffizient systematisch zwischen den Querschnittseinheiten variieren: ß^ ^ß^ für / ^ j und E{ß^) ^ E(ß^) für i^j
.
Der Einfluss der erklärenden Variablen auf die zu erklärende Variable unterscheidet sich in diesem Fall auch in der Grundgesamtheit zwischen den Querschnittseinheiten. Da in einem Regressionsmodell alle drei Arten von Regressionskoeffizienten gleichzeitig auftreten können, beschreiben Pesaran u.a. ([8], S. 623) die sich daraus ergebenden unterschiedlichen Modellspezifikationen als Kontinuum, an dessen einem Ende ein Modell mit ausschließlich identischen Koeffizienten für alle Querschnittseinheiten, am anderen Ende ein Modell mit ausschließlich unterschiedlichen Koeffizienten für alle Querschnittseinheiten steht. Der erst genannte Extremfall wird in der Literatur auch als gepooltes Modell bezeichnet - hierbei wird die Panelstruktur der Daten ignoriert, d. h. die T Beobachtungen für eine Querschnittseinheit werden als unabhängig voneinander betrachtet (vgl. (1)). Im anderen Extremfall wird für jede Querschnittseinheit ein separates Regressionsmodell formuliert, d. h. es wird von jeglicher Art von Gemeinsamkeiten im Hinblick auf die Erklärung von y abstrahiert.
Eine Variation der Koeffizienten zwischen den Zeitpunkten ist ebenso möglich. Dies wird aber im Folgenden nicht separat betrachtet.
Prognose mit Paneldaten
107
Entscheidend für die geeignete Spezifikation der Regressionskoeffizienten ist die Gültigkeit der so genannten Random-Effects-Annahme, die in engem Zusammenhang mit der Annahme der mittleren bedingten Unabhängigkeit der Störgröße von den erklärenden Variablen steht. Diese Annahme, die in jedem Regressionsmodell für die Interpretation und die Schätzung der unbekannten Parameter von zentraler Bedeutung ist, impliziert, dass die erklärenden Variablen „keinerlei Informationen" hinsichtlich des erwarteten Werts der Störgröße enthalten (vgl. z. B. [10], S. 16). Es gilt: E{£, |x^.,z^.) = 0Im Rahmen von Paneldaten bedeutet dies explizit, dass - gegeben ein Set von beobachteten erklärenden Variablen - die Unterschiede zwischen zwei beliebigen Querschnittseinheiten / und j {i^ j) im Hinblick auf die zu erklärende Variable y lediglich als „zufällig" betrachtet werden, d. h. es gilt E(y^ \x,z) = E(yj \x,z). Modellspezifikationen, die auf dieser Annahme aufbauen, sind das gepoolte Modell, das Random-Effects-Modell und das Random-Coefficients-Modell. Modellspezifikationen, für die diese Annahme nicht zu treffen ist, sind das Fixed-Effects-Modell, das Modell mit festen und zufälligen individuenspezifischen Koeffizienten und das individuenspezifische Modell. Im Folgenden werden analog zu weiten Teilen der empirischen Forschung vorwiegend das Fixed- und Random-Effects-Modell betrachtet^. Grundlage beider Modelle ist die Annahme, dass der Einfluss der erklärenden Variablen nicht zwischen den Querschnittseinheiten variiert, es aber unbeobachtete zeitkonstante Faktoren auf Ebene der Querschnittseinheiten gibt, die sich in Form einer Niveauverschiebung bei der abhängigen Variable niederschlagen. Der Unterschied zwischen den beiden Modellen liegt lediglich darin, ob dies als zufällig variierend zwischen den Querschnittseinheiten betrachtet wird (Random-Effects-Modell) oder nicht (Fixed-Effects-Modell). In erstem Fall erfolgt die Spezifikation eines zufälligen Achsenabschnitts, für den gewöhnlich eine Normalverteilung angenommen wird: K
G
yit = ri/ + E Ä%/ + E rg^gi + ^^
(2)
g=2
k=l
mit rii-^in^^l) und Cov(ry,r^j) = 0 für / T^ 7, wobei die Vektoren ß = und / = (/2^"'^TGy ^'^ f®^^ betrachtet werden.
(ß^,.,,,ß^y
Der zufällige Achsenabschnitt kann auch als Summe einer nicht-stochastischen {/^) und einer stochastischen Komponente (//J formuliert werden:
r,^=r,+jUi
mit
JU^-^N(0,CTI)
und Cov(//,,//^) = 0 für
i^J.
Wie die folgende Darstellung verdeutlicht, wird das Random-Effects-Modell deshalb auch häufig als Fehlerkomponentenmodell bezeichnet: K
G
k=\
g=2
Für eine ausführliche Darstellung der anderen Modellspezifikationen siehe [11].
108
Rässler, Wolf
Für die Varianz-Kovarianz-Matrix des r-dimensionalen Vektors der zusammengesetzten Störgröße v, - jj^ + s, gilt:
^ 2
_2
,
_2
_2
(4)
E(vy,) = Q,=(jlJ,+crUT 2
2
2
2
mit Jj, =ir^i[, 4 =(!?••-4) und /^. als Einheitsmatrix. Im Gegensatz zum Random-Effects-Modell wird beim Fixed-Effects-Modell der individuenspezifische Achsenabschnitt nicht als stochastisch spezifiziert, sondern als fester Parameter, den es zu schätzen gilt. Das Modell lautet somit: K
k=\
Der individuenspezifische Achsenabschnitt y^ enthält sämtliche Effekte, die konstant für eine Querschnittseinheit während des Beobachtungszeitraums sind, d. h. es gilt: G
Welche der beiden Modellspezifikationen bei einer konkreten empirischen Fragestellung geeignet ist, wurde und wird in der Literatur ausführlich diskutiert (vgl. für eine Zusammenfassung z. B. [6], S. 41 ff. oder auch [2], S. 20). Als ein wesentliches Kriterium wird dabei angesehen, inwieweit von der Gültigkeit der Random-Effects-Annahme E{iu^ I x^,z.) = 0 ausgegangen werden kann. Hierbei ist zu entscheiden, inwieweit die unbeobachtete Heterogenität zwischen den Individuen, die sich zwangsläufig im Störterm //. wieder findet, unsystematisch ist, d. h. keine Informationen hinsichtlich des zu enA/artenden Werts der abhängigen Variablen enthält^. Die Bedeutung dieser Annahme wird im Rahmen der Schätzverfahren und ihrer Eigenschaften im nächsten Abschnitt nochmals verdeutlicht. 8.3
Schätzverfahren und ihre Eigenschaften
Die verschiedenen Schätzverfahren, die im Rahmen linearer Panelmodelle standardmäßig zum Einsatz kommen, basieren im Wesentlichen auf dem Kleinst-Quadrate-Kriterium (KQ), d. h., es handelt sich dabei meist um gewöhnliche oder verallgemeinerte KQ-Verfahren, vgl. auch Kapitel 7 in diesem Buch. Die Eigenschaften der grundsätzlich möglichen Schätzverfahren für Panelmodelle unterscheiden sich allerdings zum Teil dramatisch je nach Modellspezifikation. Wird ein Fixed-Effects-Modell spezifiziert, dann ist der so genannte „Least Square Dummy Variable" LSDV-Schätzer BLU (best linear unbiased), d. h., für dieses Modell An dieser Stelle ist zu erwähnen, dass sowohl im Random- als auch im Fixed-Effects-Modell stets von der mittleren bedingten Unabhängigkeit der gewöhnlichen Störgröße £-^ von den erklärenden Variablen ausgegangen wird.
Prognose mit Paneldaten
109
besitzt dieser unter allen linearen unverzerrten Schätzern die kleinste Varianz. Er ist also ein bester Schätzer. Solch ein LSDV-Schätzer entspricht im Grunde einem gewöhnlichen KQ-Schätzer, wobei der individuelle Achsenabschnitt durch eine Dummy-Variable für jede Querschnittseinheit modelliert wird. Um das Invertieren einer (N-\-K)dimensionalen Matrix zu vermeiden, wird häufig gemäß dem Satz der partitionierten Regression ein zweistufiges Verfahren verwendet (vgl. z. B. [1], S. 16). Um im ersten Schritt die Regressionskoeffizienten der erklärenden Variablen zu schätzen, wird das Modell (5) wie folgt transformiert: y^t -yi=llßk(^kit
-^ki)-^(^it
-^.)
k=\
Dieses Vorgehen bezeichnet man als Within-Transformation, da lediglich die Variation der Variablen „innerhalb" einer Querschnittseinheit herangezogen wird. Sämtliche Variation zwischen den Querschnittseinheiten („Between"-Variation) wird nicht zur Schätzung von ß verwendet. Schätzwerte für die A^ individuenspezifischen Achsenabschnitte können im zweiten Schritt nach folgender Schätzgleichung berechnet werden:
ru=y.-llA^k. für i = U.,N k=l
Wird der LSDV-Schätzer bei Spezifikation eines Random-Effects-Modells bestimmt, so ist dieser weiterhin unverzerrt, verliert aber seine BLUE Eigenschaft. Die Unverzerrtheit gilt im Random-Effects-Modell auch für den gewöhnlichen KQ-Schätzer:
^KO
=
91 f)
,-1
>V /=1
J
i=l
wobei
y^ =iyn'--->y.Ty
und ^ = ( X , , Z , ) gilt mit 'Ki
''Kn ^1/2
^2/2
""KU
V^l/T
^2/r
^KiT J
X.=
^Ki
und Z, = K^u
'KiJ
Allerdings ist auch dieser nicht varianzminimal, da die besondere Struktur der VarianzKovarianz-Matrix Q.der zusammengesetzten Störgröße (vgl. (4)) unbeachtet bleibt. BLUE ist in diesem Fall ein verallgemeinerter KQ-Schätzer (kurz VKQ), der diese berücksichtigt: ( ^VKQ
~
r)
N
Y,W\QM V/=i
Tw^y,
(6)
/=i
Da die Varianzkomponenten cr^ und a] gewöhnlich unbekannt sind und dieser Schätzer somit nicht praktikabel ist, kann man ein zweistufiges Verfahren durchführen. Im
110
RässlerWolf
ersten Schritt müssen aufbauend auf konsistente Schätzer für ö = {ß,yy die unbekannten Varianzkomponenten geschätzt werden. Hierfür kommen grundsätzlich mehrere Möglichkeiten in Betracht, die sich hinsichtlich ihrer Eigenschaften bei der Schätzung der Regressionskoeffizienten nicht unterscheiden (vgl. [9]). In den meisten Statistik-Programmpaketen (z. B. STATA) werden die Varianzkomponenten mithilfe der LSDV-Residuen s^^ wie folgt geschätzt: 2
^i^j^u^
und ai=^^^
N{T-\)
""
CT.,
N
Für den Fall einer negativ geschätzten Varianz a^.2 wird diese gleich Null gesetzt^ Die so geschätzten Varianzkomponenten werden im zweiten Schritt verwendet, um Q zu bilden und dann die Koeffizienten ß und y gemäß Gleichung (6) zu schätzen. Die auf diese Art und Weise geschätzten Koeffizienten sind bei Annahme eines Random-Effects-Modells unverzerrt und asymptotisch effizient. Welche Eigenschaften weist dieser FGLS-Schätzer aber auf, wenn die Random-Effects-Annahme £(//^ |x^,z^) = 0 nicht gilt? Zunächst lässt sich relativ einfach zeigen, dass der Schätzer die Eigenschaft der Unverzerrtheit verliert. Hinsichtlich der Konsistenzeigenschaft ist zu unterscheiden, ob N,T->cc (asymptotisch) oder lediglich N ->co bei festem T (semiasymptotisch) betrachtet wird. Während im ersten Fall der Schätzer für ß und y weiterhin konsistent bleibt, führt dies im zweiten Fall, der bei praktischen Problemen meist der relevantere ist, zu inkonsistent geschätzten Koeffizienten^. Aufgrund dieser Inkonsistenz bei Verletzung der Random-Effects-Annahme kommt der Überprüfung dieser Annahme große Bedeutung zu. Ein Testverfahren, um diese zumindest indirekt zu überprüfen, wurde von Hausman [4] entwickelt. Ergibt der Test eine Ablehnung der Random-Effects-Annahme, dann ermöglicht die bereits erläuterte LSDV-Schätzung eine unverzerrte Schätzung der ß Koeffizienten. Es besteht in diesem Fall aber keine Möglichkeit an unverzerrte Schätzer für y zu gelangen. Mithilfe der von Hausman und Taylor [5] 1981 vorgeschlagenen Instrumentvariablenschätzung gelingt es aber auch für den semiasymptotischen Fall zumindest konsistente Schätzer für y zu ermitteln. Problematisch hierbei ist, dass hinsichtlich der Eigenschaften dieser Schätzer in endlichen Stichproben analytisch kaum Informationen vorliegen. Monte-Carlo-Simulationen haben in diesem Zusammenhang allerdings gezeigt, dass vor allem bei Verwendung von „schwachen" Instrumenten das Ausmaß der Verzerrung sehr groß sein kann. Dies ist mit zum Teil extrem negativen Auswirkungen auf die im Anschluss einer Schätzung durchzuführenden Hypothesentests verbunden^. 8.4
Möglichkeiten zur Prognose
Liegt das eigentliche Ziel bei der Schätzung eines Panelmodells nicht in der Quantifizierung eines vermuteten kausalen Zusammenhangs, sondern in der Prognose der abhängigen Variablen, so können Schätzverfahren, obwohl verzerrt, zu guten VorhersaGewöhnlich zeichnet sich ein Paneldatensatz durch geringes T , d. h. nur wenige Zeitpunkte und großes A^, d. h. viele Querschnittsbeobachtungen, aus. Vgl. hierzu z.B. [11].
Prognose mit Paneldaten
111
gewerten führen. Die im Bereich von Panelmodellen möglichen Schätzverfahren werden in diesem Zusammenhang in drei Gruppen eingeteilt - homogene, Shrinkage- und heterogene Verfahren. Homogene Schätzverfahren basieren auf der Annahme eines für alle Querschnittseinheiten gemeinsamen Koeffizienten einer erklärenden Variablen. Hierzu gehören z. B. die in Abschnitt 8.3 vorgestellten Random- und Fixed-EffectsSchätzer. Heterogene Schätzverfahren gehen dagegen von einem systematisch unterschiedlichen Effekt einer erklärenden Variablen zwischen den Querschnittseinheiten aus. Hierzu zählt der individuenspezifische KQ-Schätzer, d. h. für jede Querschnittseinheit i {i = l,..,,N) werden lediglich die T Beobachtungen zur Schätzung der unbekannten Koeffizienten herangezogen. Shrinkage-Schätzer schließlich stellen einen Mittelwert zwischen homogenen und heterogenen Schätzern dar. Individuenspezifische Koeffizienten sind zwar der Ausgangspunkt, diese werden aber mit unterschiedlichen Gewichten zu einem gemeinsamen Schätzer gemittelt. Ein Beispiel hierfür sind iterative Bayes-Schätzer oder auch der zweistufige Random-Coefficients-Schätzer von Swamy. Die zugrunde liegende Idee ist, dass der Effizienzgewinn durch die Vervielfachung der Beobachtungen die damit einhergehende Fehlspezifikation ausgleicht bzw. übenA/iegt. Trotz der systematisch zwischen den Querschnittseinheiten variierenden Koeffizienten wird von einer gewissen Ähnlichkeit ausgegangen, die für eine Prognose gewinnbringend genutzt werden kann. Eine ausführliche Übersicht hierzu findet sich unter anderem bei Maddala u.a. [7] oder auch bei Baltagi u.a. [3]. Abschließend ist noch auf eine Einschränkung der Prognose mit Paneldaten für den Fall individuenspezifischer Achsenabschnitte (Fixed-Effects-Modell) bzw. individuenspezifischer Steigungskoeffizienten einzugehen. In diesen Fällen ist lediglich eine Prognose in der Zeit, nicht aber für unbeobachtete Querschnittseinheiten möglich^. Zur Lösung dieses Problems könnte man anstelle von individuellen Koeffizienten für jede Querschnittseinheit gruppenspezifische Koeffizienten verwenden. Beispielsweise ließen sich bei Befragungsdaten alle Personen einer Region oder einer Altersgruppe einem spezifischen Koeffizienten zuordnen, womit über die geschätzten Koeffizienten wiederum eine Prognose möglich wird. 8.5
Abschließende Bemerkungen
Wie gezeigt wurde, erlaubt die Verbindung von Quer- und Längsschnittdimension bei Paneldaten die Spezifikation einer Vielzahl unterschiedlicher Modelle, die sich vor allem hinsichtlich der Annahmen bezüglich der Koeffizienten unterscheiden. Für den Anwender besteht das große Problem darin, das für die jeweilige Fragestellung geeignete Modell auszuwählen. Bei den Kriterien zur Beurteilung der Eignung eines Modells muss beachtet werden, ob ein kausaler Zusammenhang identifiziert werden soll oder auf eine Prognose abgezielt wird. Gerade für letzteres Anliegen bieten Paneldaten neue Möglichkeiten. Vor allem wenn die Zeitreihe, die für jede Querschnittseinheit zur Analyse zur Verfügung steht, relativ kurz ist, kann durch das Poolen der Daten für unterschiedliche Querschnittseinheiten die Prognosequalität erheblich verbessert werden (vgl. [3], S. 123).
Analoges gilt für Modelle mit zeitspezifischen Koeffizienten. Hier ist nur eine Prognose für unbeobachtete Querschnittseinheiten möglich, nicht aber für zukünftige Zeitpunkte.
112
8.6 [I] [2] [3]
[4] [5] [6] [7]
[8]
[9] [10] [II]
Rässler.Wolf
Literatur Arellano, M., Panel Data Econometrics, Oxford 2003. Baltagi, B.H., Econometric Analysis of Panel Data, New York 2001. Baltagi, B.H., Griffin, J.M. und Xiong, W., To Pool or Not to Pool: Homogenous Versus Heterogeneous Estimators Applied to Cigarette Demand, The Review of Economics and Statistics 82 (2000), S. 117 ff. Hausman, J.A., Specification Tests in Econometrics, Econometria 46 (1978), S. 1251 ff. Hausman, J.A. und Taylor, W.E., Panel Data and Unobservable Individual Effects, Econometria 49 (1981), S. 1377 ff. Hsiao, C, Analysis of Panel Data, Cambridge 2003. Maddala, G.S., Trost, R.P., Li, H. und Joutz, F., Estimation of Short-Run and Long-Run Elasticities of Energy Demand from Panel Data Using Shrinkage Estimators, Journal of Business & Economic Statistics 15 (1997), S. 90 ff. Pesaran, M.H., Shin, Y. und Smith, R.P., Pooled Mean Group Estimation of Dynamic Heterogenous Panels, Journal of the American Statistical Association 9 (1999) 4, S. 621 ff. Taylor, W.E., Small Sample Consideration in Estimation from Panel Data, Journal of Econometrics, 13 (1980), S. 203 ff. Verbeek, M., A Guide to Modern Econometrics, New York 2000. Wolf, K., Vergleich von Schätz- und Testverfahren unter alternativen Spezifikationen linearer Panelmodelle, Dissertation, Nürnberg 2004.
9
Prognose mit nichtparametrischen Verfahren
von Ying Chen, Wolfgang Härdle und Rainer Schulz 9.1
Einleitung
Statistische Prognosen basieren auf der Annahme, dass ein funktionaler Zusammenhang zwischen der zu prognostizierenden Variable y und anderen J-dimensionalen beobachtbaren Variablen x = {x^,...,Xjf efl'^ besteht. Kann der funktionale Zusammenhang geschätzt werden, so kann im Prinzip für jedes x der zugehörige y Wert prognostiziert werden. Bei den meisten Anwendungen wird angenommen, dass der funktionale Zusammenhang einem niedrigdimensionalen parametrischen Modell entspricht oder durch dieses zumindest gut wiedergegeben wird. Ein Beispiel im bivariaten Fall ist das lineare Modell y = ßQ+ß^x. Sind die beiden unbekannten Parameter ß^ und ß^ mithilfe historischer Daten geschätzt, so lässt sich für jedes gegebene x sofort der zugehörige y Wert prognostizieren. Allerdings besteht hierbei die Gefahr, dass der wirkliche funktionale Zusammenhang nicht dem gewählten Modell entspricht. Dies kann infolge zu schlechten Prognosen führen. Nichtparametrische Verfahren gehen ebenfalls von einem funktionalen Zusammenhang aus, geben aber kein festes parametrisches Modell vor. Sie sind deshalb hervorragend geeignet, 1) um Daten explorativ darzustellen, 2) um parametrische Modelle zu überprüfen und 3) um selbst als Schätzer für den funktionalen Zusammenhang zu dienen (Cleveland [2], Cleveland und Devlin [3]). Nichtparametrische Verfahren können daher problemlos auch zur Prognose eingesetzt werden. Abschnitt 9.2 stellt nichtparametrische Verfahren vor und erläutert deren grundsätzliche Struktur. Der Schwerpunkt liegt auf bivariaten Modellen und auf der Motivation der verwendeten Verfahren. Abschnitt 9.3 präsentiert eine Anwendung für eine Zeitreihe von Wechselkursvolatilitäten. Es werden Prognosen mit nichtparametrischen Verfahren berechnet und deren Güte mit den Prognosen eines AR(1)-Zeitreihenmodells verglichen, vgl. auch Kapitel 14 dieses Buches. Für die gewählten Daten zeigt sich, dass diese durch das parametrische Modell sehr gut erfasst werden und das nichtparametrische Modell keine bessere Prognosegüte liefert. Zugleich veranschaulichen die praktischen Beispiele, wie nichtparametrische Verfahren für Prognosen eingesetzt werden können. Alle Beispiele, welche mit dem Symbol Q versehen sind, lassen sich interaktiv über www.xplore-stat.de ausführen. 9.2 9.2.1
Nichtparametrische Verfahren Einführung
Ein nichtparametrisches Modell geht von dem allgemeinen funktionalen Zusammenhang aus y = m(x),
(1)
114
Chen, Härdle, Schulz
wobei m(-) eine glatte Funktion in den erklärenden Variablen x ist. Selbstverständlich lässt sich auch das lineare Regressionsmodell mit m(x) = x^ß in obiger Form darstellen. Nichtparametrische Verfahren lassen jedoch die glatte Funktion w(-) für die Schätzung unspezifiziert. Mit dem Störterm e wird (1) in das statistische Modell y - m(x) + £
(2)
Überführt. Der bedingte Erwartungswert des Störterms in (2) ist Null und es folgt E{y I x) - m{x). Es ist das Ziel nichtparametrischer Verfahren, die bedingte Erwartungswertfunktion m{x) TLW schätzen. Dies geschieht durch lokale Mittelwertbildung über die i = \,..,,n Beobachtungen y^ mit
m(x) = YG,(x)y^.
(3)
Der Wert des Gewichtes G^(x) hängt davon ab, wie nahe die zu y^ gehörenden Ausprägungen der exogenen Variablen x^ an x liegen. Der k-nearest neighbor (kNN) Schätzer mit gleichen Gewichten ist ein anschauliches Beispiel für (3). Hierbei werden die k nächsten Nachbarn zur Berechnung des Durchschnitts mit einbezogen, wobei n>k>l. In diesem Fall gilt für die Gewichte in (3)
^W =
I{ieM(xM :
.
k wobei M(x,Ä:) = {/:xJst eine der k nächsten Nachbarn Beobachtungen von jc} die Menge der k Beobachtungen ist, die am nächsten an x liegen. Die Nähe kann etwa mit der euklidischen Distanz ^(x^. -xfix^ -x) bestimmt werden; /(Oist die Indikatorfunktion. Wird etwa Ä: = 12 gewählt, so ist mW=-r7 I
12/eA/(jc,12)
y'
(4)
und für jedes x wird das arithmetische Mittel aus 12 Beobachtungen berechnet. Es ist offensichtlich, dass m(x) dem arithmetischen Mittel aller Beobachtungen entspricht, wenn k = n gewählt wird. Abbildung 1 zeigt die geschätzte Funktion für den bivariaten
Fall:
(x,y)em\
Man erkennt, dass m(x) eine Treppenfunktion ist, die für alle x konstant ist, welche über die gleiche Indexmenge verfügen. Der frei zu wählende Parameter k bestimmt die Glattheit der geschätzten Kurve. Variiert man k, so entsteht eine Familie von Regressionskurven, die alle durch lokale Mittelung entstanden sind.
Prognose mit nichtparametrischen Verfahren
115
Abb. 1: Nichtparametrische Regression mit kNN Schätzer mit k = 12, uniformer Gewichtung und Mittelwertbildung für alle einbezogenen Beobachtungen. Quadrate geben die Beobachtungen an. Es handelt sich um den Motorcycle Datensatz mit n = 133 Beobachtungen aus Table 2, Appendix 2 in Härdle [6]. • Statt das arithmetische Mittel aller Beobachtungen der Indexmenge M{x,k) zu nehmen, kann auch eine lokale lineare Regression für die Beobachtungen in M(x,k) angepasst werden, sodass gilt m(x) = J3Q (X) + yöj (x)x . Abbildung 2 zeigt die geschätzte Funktion, die offensichtlich aufgrund der uniformen Gewichtung (4) unstetig ist.
Abb. 2: Nichtparametrische Regression mit kNN Schätzer mit /c = 12, uniformer Gewichtung und linearer Regression für alle einbezogenen Beobachtungen. Quadrate geben die Beobachtungen an. O
116
Chen, Härdle, Schulz
9.2.2
Lokal gewichtete lineare Regression
Um eine glatte Funktion m(x) zu erhalten, dürfen nicht alle Beobachtungen für die Schätzung gleich gewichtet werden, sondern Beobachtungen nahe x müssen stark und entfernte Beobachtungen schwach gewichtet werden. Eine stetige Gewichtungsfunktion reduziert den anfänglichen Einfluss von Beobachtungen, die neu in die Indexmenge kommen oder diese verlassen. Zwei stetige Gewichtungsfunktionen werden im Folgenden genauer vorgestellt. Zugleich wird mit der lokal gewichteten Regression (LWR) ein genereller Ansatz für die nichtparametrische Regression vorgestellt, der die Beispiele aus der Einleitung als Sonderfälle umfasst. Da die Gewichte bei der lokal gewichteten Regression nicht direkt auf die Beobachtungen y^ angewendet werden - wie in (3) - , sondern auf die quadrierten Abweichungen y^ -m(x^), werden die Gewichtungsfunktionen mit K() bezeichnet. Man findet sie in der Literatur unter dem Namen Kernfunktionen. Hastie, Tibshirani und Friedman [12] geben einen guten und knappen Überblick. Das effektive Datengewicht der lokalen Regression hat wieder die Form (3), sodass m(x) auch hier ein gewichteter Durchschnitt der Beobachtungen y^ ist. Die Gewichte G() sind dabei im Allgemeinen komplizierte Ausdrücke der Differenzen x^-x für i = l,...,n und den Kernfunktionen K(). Die Tricube-Funktion
K(u,)~(l-\u^\yi(\u^\
(5)
ol
und die Epanechnikov-Funktion
K(u,) = ^(l-u^')I(\u,\
(6)
sind zwei häufig angewandte Kernfunktionen, w, misst den Abstand von x^ zu x und die Kernfunktionen geben den Beobachtungen ein desto höheres Gewicht, je näher x^ an X liegt. Falls immer A: Beobachtungen einbezogen werden sollen, ist im bivariaten Fall
^^^jcr2±^ d(x,k)
(7)
wobei
d(x,k) = max{\xi -x\:Xj eM(x,k)} die absolute Distanz der am weitesten von x entfernten Beobachtungen in M(x,k) ist. Für alle Beobachtungen aus M(x,k), die näher als d(x,k) an x liegen, gilt |wy| 0 . Für x^ =x nehmen die Kernfunktionen (5) und (6) mit 1 bzw. 0,8875 den maximalen Wert an. Für die am weitesten entfernte Beobachtung in M(x,k) gilt |w,| = 0 und entsprechend K = 0. Da \u^\>l für alle Beobachtungen gilt, die kein Element von M(x,k) sind, ist in diesen Fällen K = 0. Abbildung 3 zeigt beide Kernfunktionen.
Prognose mit nichtparametrischen Verfahren
1.00-
1.00-
0.751
0.751
0.50,
0.501
0.251
0.251
117
Abb. 3: Linkes Diagramm zeigt die Tricube-Kernfunktion (5) und rechtes Diagramm zeigt die Epanechnikov-Kernunktion (6). Q' Statt einer festen Anzahl an Beobachtungen können die Gewichte auch auf einem Intervall mit festen Länge definiert sein. In diesem Fall ist -X
X U:
= •
h wobei /z>0 die Bandweite angibt. Alle Beobachtungen, die im Intervall (x-h,x-\-h) liegen, erhalten mit (5) und (6) strikt positive Gewichte, während Beobachtungen außerhalb des Intervalls ein Gewicht von 0 erhalten. Mit festen Bandweiten kann die Anzahl der Beobachtungen mit positiven Gewichten mit x variieren. Bei der lokal gewichteten linearen Regression wird im bivariaten Fall für jedes x (beziehungsweise für ein hinreichend feines Gitter von x Werten) folgendes lokales Minimierungsproblem gelöst (8) Als Schätzer für yÖ = (/?o,A)^ ^''hält man (9) wobei die erste Spalte der (nx2) MatrixXaus Einsen besteht und die zweite Spalte die Beobachtungen x^ enthält. Die (nxn) Diagonalmatrix W enthält die Gewichte K(u.) und die (nx\) Matrix 7die Beobachtungen;;.. Der Schätzer ß(x) ähnelt dem gewichteten Kleinstquadrate-Schätzer in [14]. Der große Unterschied besteht jedoch darin, dass (8) nur lokal für den Punkt x minimiert wird. Bezogen auf das Ausgangsmodell (1) mit der glatten Funktion m(x) wird diese für jede Beobachtung durch eine Taylor-Entwicklung erster Ordnung m(Xj ) = m(x)-\-m \x)(x^ - x)
(10)
118
Chen, Härdle, Schulz
approximiert. Definiert man ßQ=m(x) und ß^=m\x), so entspricht der Term geschweiften Klammer in (8) approximativ y--m(xi). Bei der Schätzung der kannten Parameter ß werden Beobachtungen nahe an x stärker gewichtet als achtungen, die fern von x liegen. Es folgt aus (10), dass der Schätzer für m(x) den Schätzer für ß^ gegeben ist, sodass mit e^ =(1,0,...,0)^ gilt:
in der unbeBeobdurch
m(x) = e^iX'^WXy^X'^WY. Wie die rechte Seite zeigt, wird der (^xl) Vektor 7 mit einem (Ix^?) Vektor multipliziert, der nicht von den endogenen Variablen y^ abhängt. Dies lässt sich auch in der Form (3) schreiben. Damit ist m{x) der gewichtete Mittelwert der y Beobachtungen, wobei die Gewichte G,(x) von den exogenen Variablen x^-x, i = \,...,n und der Kernfunktion /< abhängen. Abbildung 4 zeigt die lokale lineare Regression für A: = 12, wobei der Tricube-Kernel (5) und (7) venA/endet wurde.
Abb. 4: Lokale lineare Regression mit k = l2 und Tricube-Gewichtung für alle einbezogenen Beobachtungen. Quadrate geben die Beobachtungen an. Q Falls statt der linearen Regressionsfunktion in (8) lediglich die lokale Konstante ß^ angesetzt wird, erhält man für (9) den Nadaraya-Watson-Schätzer (11)
m(x) =
Auch dieser ist ein gewichteter Durchschnitt der 7, Beobachtungen. Für die uniforme Kernfunl
\/k , wenn 11/, |< 1 0
sonst
erhält man für (11) sofort das arithmetische Mittel aller k Beobachtung in M{x,k). Man kann ebenfalls zeigen, dass mit der uniformen Kernfunktion und einem lokal linearen Modell der Schätzer (9) der lokalen linearen Regression auf M(x,k) entspricht.
Prognose mit nichtparametrischen Verfahren
119
Für die empirische Anwendung müssen die Kernfunktion K(') und der Glättungsparameter k beziehungsweise h gewählt werden. Es ist offensichtlich, dass die geschätzte Funktion m(x) umso glatter wird, je mehr Beobachtungen einbezogen werden, desto größer also k und h gewählt werden. Mit dem Nadaraya-Watson-Schätzer (11) prüft man leicht, dass für //^oo und damit u^ -^O für alle / der Schätzer m(x) für alle x innerhalb des Spektrums der Beobachtungen gegen y konvergiert. Daraus ist offensichtlich, dass Glattheit alleine kein Kriterium für die Wahl des Glättungsparameters sein kann. Der optimale Glättungsparameter sollte die totale Variation {m(x) -m(x)}^ über alle x minimieren. Da m(x) nicht bekannt ist, kann diese Minimierung nicht direkt durchgeführt werden. Allerdings lassen sich erwartete mittlere Abweichungen theoretisch berechnen und mithilfe von Approximationen in Ausdrücke transformieren, die durch die Wahl des Glättungsparameters minimiert werden können. Alternativ können Kreuzvalidierungs-Techniken verwendet werden, wobei m(x^) durch y^ ersetzt wird und Beobachtung / nicht für die Schätzung von m(x^) verwendet wird. Durch die Wahl des Glättungsparameters wird danach die Summe der quadrierten Abweichungen minimiert. Die Wahl der Kernfunktion spielt - zumindest asymptotisch - keine Rolle, solange der Glättungsparameter entsprechend angepasst wird. Härdle u.a. [11] geben einen detaillierten Überblick. Eine natürliche Erweiterung der vorgestellten lokal gewichteten Regression besteht darin, höhere Ordnungen für die Taylor-Approximation zu verwenden und m(x) mit einem Polynom der Ordnung p>l zu modellieren. Selbstverständlich lässt sich die lokale Regression auch auf multivariate Daten anwenden. Diese Erweiterungen, asymptotische Eigenschaften, Konstruktion von Konfidenzbändern und Testverfahren werden ausführlich in Härdle [6], Fan und Gijbels [5] und Härdle u.a. [11] diskutiert. 9.2.3
Prognose
Eine Punktprognose besteht darin, den Wert der endogenen Variable y an einer bestimmten Stelle Xp zu schätzen. Die obigen Ausführungen haben deutlich gemacht, dass mit nichtparametrischer Regression eine gesamte Funktion geschätzt werden kann. Für eine Prognose muss nun natürlich nicht die gesamte Funktion geschätzt werden, sondern lediglich m{Xp). Die nichtparametrische Regressionstechnik lässt sich leicht auf stationäre Zeitreihenmodelle anwenden. Ein einfaches Beispiel ist ein autoregressives Modell erster Ordnung
was der Form des allgemeinen Modells (1) entspricht. Für Modelle höherer Ordnung gehen weitere verzögerte Variablen ein. Falls die aktuellen Beobachtungen bis Periode r reichen, ist die Prognose für die nächste Periode mit
gegeben. Dies entspricht dem bedingten Erwartungswert
120
Chen, Härdle, Schulz
wobei die unbekannte Funktion m(yj,) durch den nichtparametrischen Schätzer ersetzt wird. Für eine gewichtete Regression mit lokaler Konstante - dem Nadaraya-Watson-Schätzer (11) - erhält man etwa
wobei im Zähler von u^ die Abweichungen y^ -yj, stehen. Der Ansatz lässt sich leicht für Prognosen mit Horizont T<\ enA/eitern. Überblicke zur nichtparametrischen Zeitreihenanalyse geben Härdle u.a. [10] und Heiler [13]. 9.3
Anwendung auf Volatilitäten
Zur Illustration wird ein nichtparametrisches Modell für die Vorhersage von Wechselkursvolatilitäten genutzt. Die Ergebnisse werden mit den Vorhersagen eines linearen Modells verglichen. Die Vorhersage von Volatilitäten ist ein sehr aktiver Bereich der Finanzmarktökonometrie, da Volatilitätsvorhersagen für die Preise von Optionen oder für Value-at-Risk (VaR) Kalkulationen benötigt werden. Einen Überblick zum Stand der Forschung geben Poon und Granger [16]. Allerdings werden dort keine nichtparametrischen Modelle diskutiert, da deren Vorhersagekraft nach einigen Studien nicht besser ist als diejenigen von parametrischen Modellen, siehe etwa Diebold und Nason [4]. Natürlich hängt dieses Ergebnis von der gewählten Anwendung ab und es ist immer von Vorteil, parametrische und nichtparametrische Modelle gleichzeitig zu verwenden. Die quadrierte Volatilität wird für den Wechselkurs von Deutscher Mark (DEM) und US Dollar (USD) für 258 Tage vom 1. Oktober 1992 bis zum 30. September 1993 mithilfe von logarithmierten Intra-Tageskursen berechnet. Die Ausgangsdaten umfassen 25434 Beobachtungen (siehe Tabelle 1) und sind online über die Datenbank MD*Base (www. quantlet.org/mdbase) abrufbar (demusd.dat). Die tägliche quadrierte Volatilität wird mit af =0,361''Rangef
(13)
berechnet, wobei Range^ die Differenz zwischen höchstem und niedrigstem Log-Kurs pro Tag t ist. Parkinson [15] und Brandt und Diebold [1] haben gezeigt, dass der „range-based"-Schätzer ein zuverlässiges Maß für die quadrierte Volatilität ist. Abbildung 5 zeigt die 258 berechneten täglichen quadrierten Volatilitäten (siehe auch Tabelle 1). Daten
Mittelwert
Standardfeiiier
IVlininnum
Maximum
Beobachtungen
DEM/USD
0,48
0,04
0,33
0,56
25434
Varianz
4,57*10''
4,65*10"'
0,20*10""'
29,60^10"'
258
Tab. 1: Intra-Tageskurs von DEM und USD und tägliche quadrierte Volatilität des DEM/USD Wechselkurses von 1. Oktober 1992 bis zum 30. September 1993
Prognose mit nichtparametrischen Verfahren
121
30e-5.
06/01/93
15/04/93
25/06/93
30/09/93
Abb. 5: Tägliche quadrierte Volatilität des DEM/USD Wechselkurses von 1. Oktober 1992 bis zum 30. September 1993. Werte wurden mit dem „range-based"Schätzer (12) berechnet. 11 Um die Ein-Schritt-Prognosen zu berechnen, werden jeweils die 7 = 180 vorhergehenden Beobachtungen genutzt, was einer Jahreshälfte entspricht. Insgesamt werden / / = 78 Prognosen berechnet. Der Glättungsparameter/c, der die lokale Umgebung definiert, wird durch die Kreuzvalidierungs-Technik (gestützt durch 258 Beobachtungen) gewählt. Genauer wird die verallgemeinerte Kreuzvalidierung-Technik venA/endet: Eine Penalizing-Funktion S bestraft zu kleine Glättungsparameter, siehe Härdle u.a. [11], -2
^GCvM = (^-^)
wobei u = l/k. Der Glättungsparameter minimiert das Produkt der Summe der quadrierten Abweichungen von y^ -rh{x^) und der verallgemeinerten Kreuzvalidierung-Penalizing-Funktion. 1^
Der erhaltene optimale Glättungsparameter ist A: = 22. Abbildung 6 illustriert den LWRVorhersage-Prozess für die Varianz am 21. April 1993. Die Punkte sind die 22 Nachbarn, mit denen die lokalen Parameter berechnet werden. Man sieht, dass die Punkte eine lineare Kurve mit positiver Drift implizieren. Man sieht zugleich, dass negative Prognosen nicht grundsätzlich ausgeschlossen sind. Lägen etwa die Punkte in der rechten oberen Ecke weiter oben, so würde die Regressionsgerade steiler ansteigen und sie könnte für kleine Beobachtungswerte im negativen Bereich verlaufen. Neben den lokal gewichteten Regressionen wird auch ein parametrisches Modell angepasst. Da für den gesamten Zeitraum das lineare AR(1)-Modell mit 258 Beobachtungen die beste Anpassung bringt, wird dieses auch für die Prognosen verwendet.
122
Chen, Härdle, Schulz 30e-5,
4.5e-5
5e-5
5.5e-5
6e-5
ö.5e-5
Abb. 6: LWR-Prognose der quadrierten Volatilität für den 21. April 1993 mit /c = 22 benachbarten und zeitlich vorhergehenden Beobachtungen. Q^ Alle Berechnungen werden in XploRe durchgeführt, Härdle u.a. [9], Härdle und Tschernig [8]. Abbildung 7 zeigt die 78 Ein-Schritt-Prognosen. Das linke Panel ist für die LWR-Prognosen und das rechte Panel für die Prognosen mit dem parametrischen AR(1)-Modell. Für die LWR wurde der Tricube Kernel (5) und (7) verwendet. Für jede LWR-Prognose werden die Parameter mit den 22 lokalen Nachbarn aus den 180 zeitlich vorausgehenden Beobachtungen geschätzt. Das AR(1)-Modell wird jeweils für alle 180 vorausgehende Beobachtungen angepasst. Die Prognosefehler des LWR-Modells und des AR(1)-Modells werden in der Abbildung 8 gezeigt. Tabelle 2 zeigt Statistiken für die durchschnittlichen Prognosefehler, wobei der mittlere quadratische
und der mittlere absolute
angegeben werden, vgl. auch Kapitel 19 dieses Buches. Die Prognosen eines Verfahrens sind umso besser, je geringer diese Fehler sind. Tabelle 2 zeigt die Prognosefehler der AR(1)- und LWR-Modelle. Das nichtparametrische Modell hat im Durchschnitt einen leicht größeren Prognosefehler als parametrische Verfahren. Dies ist zunächst einmal eine schwächere Prognose-Leistung, die jedoch nicht überinterpretiert werden sollte, da die nichtparametrischen Verfahren gerade bei wechselnden Regimen und nichtstationären Phänomenen eine wesentlich bessere Leistung erzielen, Härdle u.a. [7]. Zudem ist die nichtparametrische LWR für die gewählte Anwendung hilfreich, da sie offenbart, dass ein parametrisches Modell für eine statistische Modellierung ausreichend ist.
Prognose mit nichtparametrischen Verfahren
AR(1) LWR(/( = 22)
MSE(10"')
MAE (10"^)
„Rolling Window Size"
1,54
2,57
180
1,76
2,85
180
123
Tab. 2: Die Ergebnisse der Vorhersagen mittlere MSE und MAE.
25e-5.
25e-5.
01/06/93
01/08/93
30/09/93
01/06/93
01/08/93
30/09/93
Abb. 7: H=7S lokale gewichtete (links) und AR(1) (rechts) Ein-Schritt-Prognosen, wobei Ä: = 22 lokale vorhergehenden Beobachtungen verwendet wurden. Q le-4
le-4,
-le-4l
-le-4.
-2e-4l
-2e-4.
01/06/93
01/08/93
30/09/93
01/06/93
01/08/93
30/09/93
Abb. 8: Prognosefehler des LWR Modells (links) und AR(1)-Modells (rechts) mit r = 180 undk = 22. O. Danksagung: Für finanzielle Unterstützung bedanken wir uns bei der Deutschen Forschungsgemeinschaft, SFB 373 Quantifikation und Simulation Ökonomischer Prozesse.
124
9.4 [I] [2] [3]
[4] [5] [6] [7] [8] [9] [10] [II] [12] [13]
[14] [15] [16]
Chen, Härdle, Schulz
Literatur Brandt, M.W. und Diebold, F.X., A No-Arbitrage Approach to Range-Based Estimation of Return Covariances and Correlations, erscheint im Journal of Business 78 (2005) 4. Cleveland, W.S., Robust locally weighted regression and smoothing scatterplots, Journal of the American Statistical Association 74 (1979), S. 829 ff. Cleveland, W.S. und Devlin, S.J., Locally Weighted Regression: An Approach to Regression Analysis by Local Fitting, Journal of the American Statistical Association 83 (1988), S. 596 ff. Diebold, F.X. und Nason, J.A., Nonparametric Exchange Rate Prediction?, Journal of International Economics 28 (1990), S. 315 ff. Fan, J. und Gijbels, I., Local Polynomial Modeling and its Applications. London 1996. Härdle, W., Applied Nonparametric Regression. Econometric Society Monographs No. 19, Cambridge 1990. Härdle, W., Herwartz, H. und Spokoiny, V., Time Inhomogeneous Multiple Volatility Modeling, Journal of Financial Econometrics 1 (2003), S. 55 ff. Härdle, W. und Tschernig, R., Flexible Time Series Analysis, in: Härdle, W., HIävka, Z. und Klinke, S. (Hrsg.), Xplore - Application Guide, Berlin 2002, S. 397 ff. Härdle, W., Klinke, S. und Müller, M. (Hrsg.), XploRe - Learning Guide, Berlin 2000. Härdle, W., Lütkepohl, H. und Chen, R., A Review of Nonparametric Time Series Analysis, International Statistical Review 65 (1997), S. 49 ff. Härdle, W., Müller, M., Sperlich, S. und Werwatz, A., Introduction to Non- and Semiparametric Modeling, Berlin 2004. Hastie, T., Tibshirani, R. und Friedman, J., The Elements of Statistical Learning. Data Mining, Inference, and Prediction, Springer Series in Statistics, Berlin 2001. Heiler, S., Nonparametric Time Series Analysis: Nonparametric Regression, Locally Weighted Regression, Autoregression, and Quantile Regression, in: Pena, D., Tiao, G.C. und Tsay, R.S. (Hrsg.), A Course in Time Series Analysis, Wiley Series in Probability and Statistics, New York 2001, S. 308 ff. Johnston, J., Econometric Methods, 3. Aufl., New York 1984. Parkinson, M., The Extreme Value Method for Estimating the Variance of the Rate of Return, Journal of Business 53 (1980), S. 61 ff. Poon, S.-H. und Granger, C.W.J., Forecasting Volatility in Financial Markets: A Review, Journal of Economic Literature 41 (2003), S. 478 ff.
10 Adaptive Einflussgrößenkombination (AEK) - Prognosen mit schrittweiser Regression und adaptivem Gewichten von Günter Matt 10.1 Einleitung und Überblick Das Verfahren der adaptiven Einflussgrößenkombination kombiniert verschiedene Verfahren wie Regressionsanalyse, statistische Testtheorie, lineare Optimierung, Exponential Smoothing (ES), Informationstheorie und Kybernetik. Ein historischer Überblick soll die Entwicklung bis 1966 deutlich machen\ Gauß (1777 bis 1855) schuf von 1794 bis 1826 [38] die Grundlagen der Regressionsanalyse durch das Gaußsche Ausgleichsprinzip, den Gauß-Algorithmus, das Maximum-Likelihood-Prinzip und das Gauß-Markov-Theorem. Dabei bewies Gauß (zweite Begründung), dass bei stochastisch unabhängigen, beliebig verteilten Abweichungen die von der Methode der kleinsten Quadrate gelieferten Schätzungen erwartungstreu (unverzerrt) und wirksam (effizient) sind. Legendre (1752 bis 1833) veröffentlichte 1806 einen neunseitigen Anhang „Sur la Methode des moindres quarres" [81]. Gösset (unter dem Pseudonym Student) und Fisher entwickelten statistische Testverfahren zur Signifikanzprüfung der Einflussgrößen (t- und F-Verteilung). Von 1939 bis 1948 entwickelten Kantorovich, Dantzig u.a. die lineare Optimierung, die weiteres wichtiges Gedankengut für die schrittweise Regression lieferte. Diese wurde 1960 etwa gleichzeitig und unabhängig in den USA von Efroymson, Tukey, Schricker und Blanding [26] sowie in Deutschland von Matt [99] entwickelt (interne Berichte ([53] und [55]) wurden 1960 und 1962 beim Hüttenwerk Rheinhausen veröffentlicht). Bei der Mattschen Variante wird auf die Korrelationsmatrix verzichtet. Dadurch entfallen die aufwändigen Wurzelberechnungen und Koeffizientenumrechnungen, außerdem wird die Konstante nicht zwangsweise in die Regressionsgleichung übernommen, auch wenn sie nicht signifikant ist'. Insgesamt wird dadurch auch die Gefahr der Rundungsfehler verringert. Shannon schuf 1944 die Informationstheorie und Wiener gab ihr eine kybernetische Deutung [174]. Brown ([13], [14]) und Holt [52] entwickelten von 1956 bis 1963 die Methode des Exponential Smoothing (ES) als pragmatisches Prognoseverfahren. 1961 zeigte D'Esopo [23], dass die Brownsche einparametrige Version einer exponentiell gewichteten Ausgleichsrechnung (Regression) entspricht, dagegen erzeugt das mehrparametrige Holtsche Verfahren ein unabgestimmtes willkürliches exponentielles Glätten von Konstante und Trend. Da das Brownsche Verfahren zweiter Ordnung (Trendmodell) auf das Holt-Modell zurückgeführt werden kann, liefert das Holt-Modell bei einer Vollsimulation zwar bessere ex post Prognosen, da es einen Parameter mehr für die Optimierung verfügbar hat, aber kaum bessere ex ante Prognosen (vgl. [140], S. 226, und Tabelle 6). Während in England und in den USA die Entwicklung in pragmatischer Abbildung 7 zeigt die Entwicklung der Prognoserechnung bei saisonbeeinflussten Zeitreihen von 1957 bis 1990. Hocking [51] beschreibt die angloamerikanischen Beiträge zur Regressionsrechnung von 1959 bis 1982. Erstaunlicherweise haben Makridakis/Wheeiwright bisher ([95], 5. amerik. Aufl. 1989, S. 190) nicht gelernt, eine nichtsignifikante Konstante korrekt aus der vollen Regressionsgleichung zu eliminieren, denn sie ersetzen die berechnete Konstante von 19,1 einfach durch Null ([97], 1. Aufl. 1978, S. 186); [95], S. 134). Dadurch erhalten sie die stark verzerrte „forecasting equation as 7 = 35,7X1+10,9^2" st^tt d®'' korrekten Gleichung 7 = 38,93Xj+10,82X2. Die Standardabweichung liegt deshalb bei 46,15 statt bei 39,87.
126
Matt
Richtung weiterging (z. B. [9], [45], [179]), indem man versuchte, über willkürliche Glättungsparameter und deren Simulation unter Verzicht auf eine statistische Validierung zu guten Prognosen zu kommen, wurde in Deutschland angestrebt, auf der Gaußschen Basis eine statistische Absicherung der Verfahren zu erreichen. Matt ([101], [100]) gelang 1963 durch eine informationstheoretische Deutung der Einbau des exponentiellen Gewichtens in die statistische Testtheorie. Damit wurde nachgewiesen, dass für Vergangenheit und Gegenwart die Schätzungen der Modellkoeffizienten erwartungstreu und wirksam sind, best linear unbiased estimation (blue). Die adaptive Einflussgrößenkombination basiert auf folgenden wesentlichen Grundforderungen an statistisch gesicherte Prognosen ([101], [104], [106]) 1.
Logische und ökonomische Interpretierbarkeit des Prognosemodells Gauß an Gerling (2.4.1840): „Sachkenntnis kann bei der Anwendung der MdklQ (Methode der kleinsten Quadrate: G.M.) niemals erlassen werden." Statistische Gesetzmäßigkeiten sind nur dann auf die Zukunft übertragbar, wenn Abweichungen vom Prognosemodell zufällig auftreten. Gegen diesen Grundsatz wird z. B. verstoßen, wenn Eufinger ([29], S. 120) trotz der Feststellung „Da jedoch bisher im Bereich der Sparkasse noch keine quadratische Bestandsentwicklung festgestellt wurde" einen quadratischen Trend in sein MURA-Modell aufnimmt oder wenn Ellinger u.a. ([27], S. 29 f.) schreiben „Trendeinfluss: Da sich die Verbrauchsgewohnheiten der Konsumenten ändern, muss das Prognoseverfahren in der Lage sein, steigende und fallende Trends sowie nicht-lineare Entwicklungen zu erkennen und zu berücksichtigen" und dann nur einen linearen Trend in ihr Prognosemodell aufnehmen. Zu warnen ist vor dem Weglassen des konstanten Glieds beim Regressionsansatz, denn vielfach übernimmt die Konstante die Stellvertreterfunktion für nicht oder nur unzureichend erfasste Einflussgrößen. Außerdem sind die Schätzungen der Zielgröße nicht erwartungstreu, wenn die Konstante statistisch gesichert (signifikant) von Null abweicht. Linder ([89], S. 234) behandelt ein Beispiel der Arbeitsbewertung, wobei die Löhne anhand der Anforderungen nach vier Merkmalen ermittelt werden sollen. „Im Ansatz (1) fehlt das konstante Glied, weil anzunehmen ist, dass der Lohn Null sein müsste, wenn alle Punktzahlen gleich Null wären." Bei Linder ergab sich eine Standardabweichung von 42,1, dagegen lag beim Ansatz mit Konstante die Standardabweichung bei 25,1, wobei die Konstante die wichtigste Einflussgröße (höchster t-Wert) war ([99], S. 263). Vielfach wird übersehen, dass bei vielen Zeitreihen der lineare Zeittrend eine der wichtigsten Einflussgrößen ist. Woitschach ([181], S. 59) bringt einen Regressionsansatz mit einer Konstanten und vier weiteren Einflussgrößen, dabei war kein linearer Trend im Ansatz, obwohl der Zielgröße ein deutlicher Zeiteinfluss anzusehen war. Beim vollen Modell ergab sich eine Standardabweichung von 9,85. Bei einem Ansatz, bei dem zusätzlich ein linearer Trend aufgenommen war, ergab sich mithilfe der schrittweisen Regression eine Standardabweichung von 1,35. Dabei waren Konstante, linearer Trend und eine weitere Einflussgröße, die beim ersten Modell nicht signifikant war, in der Regressionsgleichung. Sogar die Regressionsgleichung mit Konstante und mit linearem Trend ergab eine wesentlich kleinere Standardabweichung (2,56) als das ursprüngliche volle Modell.
Adaptive Einflussgrößenkombination
127
2.
Erwartungstreue Prognosen ([101] und Kapitel 7 in diesem Buch) Bei nicht erwartungstreuen Prognosen ist eine Fehlerabschätzung praktisch unmöglich. Lewandowski ([87], S. 348) venA^endet bei seinen PROCOM- und OPSModellen die Brownsche Transformation, die nur bei konstantem A erwartungstreu ist, für seine Anpassung des Glättungsparameters A. Dadurch fällt bei ihm ([83], S. 232) in Periode 12 der lineare Trend von 11,21 auf 8,24 und der quadratische Trend von 1,18 auf 0,5, obwohl die Prognose in dieser Periode zu niedrig war. Ähnliche Fehler findet man in der Literatur wiederholt, z. B. bei Chow ([18], S. 314), Hansmann ([44], S. 42) und Rosentreter ([140], S. 205).
3.
Wirksame (effiziente) Prognosen ([78], S. 170, [106], S. 486) Die Summe der gewichteten Abweichungsquadrate soll ein Minimum werden. Diese Forderung wird von den meisten Prognoseverfahren nicht erfüllt, z. B. von HÖREST und Winters in Abbildung 2 und 3.
4.
Logische Interpretierbarkeit der Gewichtung von Beobachtungen ([101], [106]) So lässt sich eine wesentlich niedrigere Gewichtung jüngerer gegenüber weiter zurückliegenden Beobachtungen, wie sie bei freier Wahl der Glättungsparameter in den Modellen mit mehreren Glättungsparametern, z. B. Box-Jenkins [9], Holt [52], HÖREST [155] und Winters [179], zustande kommen kann, logisch nicht rechtfertigen. Noch bedenklicher ist es, wenn Autoren Ausgleichsparameter von 1 bis 2 zulassen ([11], [37]), da dabei auch jüngere Vergangenheitswerte negative Gewichte bekommen. Es gibt kaum kontroversere Empfehlungen in der Literatur als die zum Ausgleichsparameter A. Von 77 untersuchten Empfehlungen übernehmen nur fünf den Vorschlag von Brown ([14], S. 106) 0,01 bis 0,3, was einem Freiheitsgrad von 3 bis 99 entspricht bzw. einem Korrekturfaktor {rA) von 0,01 bis 0,9, mit dem die neueste Prognoseabweichung multipliziert und der alten Prognose zugeschlagen wird, r gibt die Ordnung des ES-Verfahrens an. 31 Empfehlungen liegen bei 0,1 bis 0,3, was einem Freiheitsgrad von 3 bis 10 entspricht und entschieden zu wenig ist, wenn die Prognose z. B. auf Tages- oder Wochendaten basiert. Die niedrigste Empfehlung liegt bei 0,01 bis 0,1 ([3], S. 19) und die höchste bei >0,3 ([130], S. 138). Erstaunlich ist, welch hohe ^-Werte in Gebrauch sind, sie liegen vielfach weit außerhalb der eigenen Empfehlungen: z. B. ^ = 1,2; r = 2 bei ([1], S. 160), A = 0,8; r = 3 bei ([92], S. 94), A = 0,6; r = 3 bei ([64], S. 53) und ([88], S. 174). Weitere hohe rA -Werte befinden sich bei ([1], S. 118 f., [2], S. 350, [44], S. 42, [76], S. 44, [82], S. 123 und [171], S. 216). Nur bei drei Fällen handelt es sich um Jahresdaten, meist sind es Monatsdaten. Erfreulicherweise gibt es auch einige Fälle, bei denen sehr niedrige optimale ^-Werte gezeigt werden. Beim AEK-Konsumgüter-Prognosemodell liegt A bei 0,001 für die Tagesdaten (siehe Abschnitt 10.4). Meier ([114], S. 95 ff.) verwendet A = 0,005 bei Tagesund Wochendaten. Weitere ^-Werte unter 0,04 finden sich bei ([8], S. 131 und 192, [82], S. 113, [1], S. 165 und [43], S. 239). Bedenklich erscheint es, wenn Autoren (z. B. [15], S. 57) eine logisch interpretierbare Gewichtung weit gehend ablehnen, denn logisch ist wohl kaum widerlegbar, dass jüngere Beobachtungen für Prognosen einen höheren Informationswert haben als ältere. Schon bei Gauß ([38], S. 65) findet man „plausible Gewichte".
5.
Statistisch gesicherte Koeffizienten und Standardabweichungen ([101] und Kapitel 7 in diesem Buch)
128
Matt Die Prognosekoeffizienten a^ sollten mit mindestens 50 % Wahrscheinlichkeit zwischen Null und 2a, liegen, bevor sie in die Prognosegleichung aufgenommen werden; andernfalls sprechen über 50 % Wahrscheinlichkeit dafür, dass sie nur durch Zufall ins Prognosemodell gekommen sind (siehe Abbildung 4). Bei der Standardabweichung ist darauf zu achten, dass die Zahl der verbliebenen Freiheitsgrade größer gleich Eins ist, sonst basiert die Ermittlung der Standardabweichung auf weniger als einer freien Beobachtung. Erfreulicherweise verlangt Späth ([158], S. 152) neuerdings wenigstens einen Freiheitsgrad größer Null für seine Cluster bei der „Klassenweisen Regression" („w<m/'). Woitschach ([181], S. 59) erstellt eine Regressionsgleichung, bei der bei zwei Koeffizienten nur 38 % Wahrscheinlichkeit dafür sprechen, dass sie zwischen Null und 2a^ liegen. Entfernt man diese beiden Einflussgrößen aus der Gleichung, dann reduziert sich die Standardabweichung von 9,85 auf 7,83. Allgemein kann gesagt werden, dass sich bei t-Werten kleiner Eins die Standardabweichung vergrößert ([99], S. 260). Yamane ([183], S. 704 ff.) erzeugt bei allen seinen Beispielen zur „Mehrfachregression" Gleichungen mit Einflussgrößen die t-Werte kleiner 1 haben, dadurch erreicht er in keinem Fall die optimale Standardabweichung. Ab Seite 709 soll der Umsatz durch Konstante, Radio- und Zeitungswerbeaufwendungen erklärt werden. Bei der gelieferten Regressionsgleichung j = 0,644+ l,661xi+0,0169x2 liegen die t-Werte bei 0,1424, 1,491 und 0,0143; dadurch steigt die Standardabweichung von (7=0,932 auf cr=l,562 . Bei der aufbauenden schrittweisen Regression wird nur x^ in die Gleichung aufgenommen y=lJ4lx^ mit r^ =31,83 und CT = 0,932. Zu warnen ist auch vor den „hypothetischen Beispielen", denn einmal ist bei der vierten Beobachtung der Umsatz genau gleich hoch wie die Werbeaufwendungen und zum anderen (S. 752 ff.) erzeugen LKWs einen negativen Treibstoffverbrauch. Sicher kein guter Anschauungsunterricht für Studenten und Praktiker. Schlittgen ([146], S. 394) untersucht die „Abhängigkeit des Netto- vom Bruttoeinkommen für Abteilungsleiter in verschiedenen Städten. Um die Berechnungen nachvollziehbar zu machen, reduzieren wir den Datensatz." D. h., er wählt aus der Grundgesamtheit von 47 Elementen zehn als Stichprobe aus. Dadurch, dass Schlittgen nichtsignifikante konstante Glieder in seine Regressionsgleichungen aufnimmt, bekommt er wesentlich verschiedene Gleichungen für die Stichprobe (j) = -5,99 + 0,784x ) und die Grundgesamtheit (j) = 2,78 + 0,646x ). Ohne Konstante ergibt sich für die Stichprobe j) = 0,694x und j) = 0,681 für die Grundgesamtheit. Die nichtsignifikanten Studentschen t-Werte für die Konstante liegen bei -1,1 (Stichprobe) und 1,29 (Grundgesamtheit).
Bei der adaptiven Einflussgrößenkombination spart die exponentielle Gewichtung der Abweichquadrate Rechenzeit und Speicheraufwand gegenüber gleitenden Zeiträumen bei der Datenfortschreibung und gewährleistet, dass alte Beobachtungen einen kleineren Informationswert bekommen als neue. Die schrittweise Regressionsanalyse erlaubt einen flexiblen Prognosemodellansatz, da nur statistisch gesicherte Einflussgrößen in das Prognosemodell aufgenommen werden. Außerdem ergibt sich gegenüber der normalen Regressionsanalyse eine erhebliche Einsparung an Rechenschritten, da das gesamte Gleichungssystem nur soweit aufgelöst werden muss, wie signifikante Einflussgrößen vorhanden sind. Weiter entfällt die nachträgliche, rechenaufwändige Elimination nichtsignifikanter Einflussgrößen, und die Gefahr, durch Rundungsfehler zu fal-
Adaptive Einflussgrößenkombination
129
sehen Schätzungen zu kommen, wird wesentlich kleiner. Durch diese Vorteile ist die praktische VenA/endbarkeit der adaptiven Einflussgrößenkombination auch bei Massendaten gewährleistet. Gegenüber Exponential Smoothing hat AEK den Vorteil, dass keine Anfangsschätzungen für die Koeffizienten benötigt werden, denn AEK setzt nicht „unendlich" viele Beobachtungen voraus, sondern arbeitet immer nur mit den vorhandenen. Bedauerlicherweise ist kaum bekannt, dass schlechte Anfangsschätzungen bei ES zweiter Ordnung und A= 0,1 z. B. verheerende Folgen haben können, die dann oft dem Modell angelastet werden ([83], S. 55 ff.). Wahrscheinlich hat Brown die Unsitte begründet, bei ES zweiter Ordnung die Anfangsschätzung Trend = 0 zu wählen ([13], S. 111). „As for the trend, it is frequently practical to assume that it is zero, and let the System compute its own trend." Leider wurde die Unsitte auch noch auf ES dritter Ordnung übertragen. Dort wird zusätzlich noch die Anfangsschätzung quadratischer Trend = 0 gemacht. Da der quadratische Trend mit A'/2 fortgeschrieben wird, kann man sich leicht ausrechnen, wie lange es dauert, bis die Trends ihre richtigen Werte erreichen. Besonders bei kleinen A -Werten kann es Jahre dauern. Kein Wunder, dass ES dritter Ordnung in der Praxis dadurch nicht Fuß fassen konnte, obwohl es bei bestimmten Zeitreihen gute Prognosen liefert (siehe Tabelle 6). Um zu zeigen, wie verbreitet die Unsitte sowohl bei der Prognoserechnung als auch bei der Materialwirtschaft inklusive Lagerbewirtschaftung ist, werden einige Beispiele angeführt: ([2], S. 349 f., [36], S. 51, [76], S. 44, [83], S. 55 und 62, [88], S. 171 und 174, [95], S. 72, [97], S. 122 f., [115], S. 116, [161], S. 47 ff., [171], S. 209 und 214, [175], S. 7, [185], S. 73). 10.2 Beschreibung des Verfahrens der adaptiven Einflussgrößenkombination Für das Auflösen eines Regressionsansatzes bieten sich mehrere Möglichkeiten an: Einmal kann man, ausgehend von einem Ansatz nullter Ordnung, das Gleichungssystem um die Einflussgrößen erweitern, die die Standardabweichung zwischen den berechneten und den beobachteten Werten der Zielgröße am stärksten verringern (aufbauende Regression). Der Nachteil liegt in der Gefahr eines zu frühen Abbrechens des Ansatzes, falls durch starke Korrelation von Einflussgrößen die geforderte statistische Sicherheit bei einzelnen Koeffizienten nicht erreicht wird, sondern nur bei mehreren gleichzeitig. Bei der umgekehrten Variante (abbauende Regression) [177f werden zuerst alle Koeffizienten des Modellansatzes berechnet, dann wird Schritt für Schritt jeweils die Einflussgröße eliminiert, welche den geringsten Beitrag zur Verringerung des Fehlerkriteriums erbringt; hierbei besteht die Gefahr, dass eliminierte Einflussgrößen später wieder signifikant, aber nicht mehr berücksichtigt werden. Dem Nachteil des größeren Rechenaufwands und der Anfälligkeit gegen Rundungsfehler steht der Vorteil gegenüber, dass auf diese Weise die Gefahr eines fälschlichen Abbrechens der Rechnung etwas verringert wird. Die sichere Methode, den Ansatz mit allen signifikanten Einflussgrößen zu finden, ist das Durchrechnen aller möglichen Ansätze jeder Ordnung ^ . Da es bei n Einflussgrößen jedoch (M Ansätze ^-ter Ordnung, insgesamt also 2" mögliche Ansätze gibt, kann man diese Vorgehensweise nur bei kleinem n anwenden. Späth ([158], S. 150) bekam bei ^2 = 15 und q = 6 eine Rechenzeit von 16513 sec. auf Sie geht wahrscheinlich auf Schultz zurück und wurde von Fisher veröffentlicht ([35], S. 165 f.).
130
Matt
einem IBM PC/AT02. Praktisch die gleiche Sicherheit erreicht man, wenn dann, wenn keine einzelne Einflussgröße mehr signifikant ist, zwei Einflussgrößen simultan untersucht werden. Hierbei sind zwei Fälle relevant: 1. 2.
Zwei Einflussgrößen sind nur gemeinsam signifikant. Eine weniger signifikante Einflussgröße wird durch eine höher signifikante ersetzt [177].
Beide Fälle können mit der gleichen Rechenroutine behandelt werden. Von den 2^ möglichen Kombinationen der n Einflussgrößen können nur Z l ^ ) Fälle auftreten, wenn r Einflussgrößen statistisch gesichert sind. Davon werden z ( ^
mögliche Fälle
durch die normale aufbauende Methode untersucht (r^ = Anzahl der Einflussgrößen, die entweder durch einfache oder mehrfache Korrelation mit den anderen (r^ -1) Einflussgrößen statistisch gesichert sind). Durch die genannten Maßnahmen werden noch ^ n ^ /=2
weitere Fälle untersucht, die durch einfache Doppelkorrelation oder mehrfa-
Vl+^y
che Korrelation mit den übrigen r^ Einflussgrößen auftreten. Bei logisch interpretierbarem Modellaufbau können so alle praxisrelevanten Fälle abgedeckt werden. Die von Fahrmeir, Kaufmann und Kredler ([30], [74]) vorgeschlagene Methode zur Verbesserung der abbauenden Variante führt dagegen zu einem vielfachen Rechenaufwand, ohne die gewünschte theoretische Sicherheit zu gewährleisten. Erfreulicherweise haben Linder/Berchtold: Statistische Methoden 2, Basel u.a. 1982, ein Beispiel geliefert, an dem man wunderschön zeigen kann, wie die erweiterte schrittweise Regression arbeitet, wenn die einzelnen nicht aufgenommenen Einflussgrößen nicht mehr signifikant sind und auch der Variablenaustausch keine Verbesserung bringt. Ab S. 135 wird die „Abhängigkeit der Druckfestigkeit 28-tägiger Normalmörtelprismen von den mineralogischen Komponenten des Klinkers" untersucht, dabei werden außer der zwangsweise aufgenommenen Konstanten vier variable Einflussgrößen in die Regressionsgleichung aufgenommen. Bei der Auswahl der Regressoren lehnen Linder/Berchtold die schrittweise Regression ab (S. 149) „dass etwa im aufbauenden Verfahren die im ersten Schritt als bedeutsam erkannte Variable im besten Satz von Variablen nicht mehr enthalten sein muss ... Zudem ist es nicht zweckmäßig, nur die 'beste' Lösung zu betrachten. ... Aus diesem Grunde ziehen wir es vor, mit Programmen zu arbeiten, die alle möglichen Regressionen untersuchen und zu jeder Zahl von Variablen die Kenngröße der bedeutendsten Versionen herausdrucken." Seit 1963 wird in der deutschsprachigen Literatur vielfach gezeigt, dass nichtsignifikante Einflussgrößen aus der Regressionsgleichung eliminiert werden, auch wenn sie davor signifikant waren (z. B. [26], S. 346, [99], S. 256 und 260, [177], S. 15). Bei ([99], S. 261 f.) wird gezeigt, wie wertvoll es für die Prognosen ist, wenn mehrere Regressionsgleichungen, die bei der schrittweisen Regression anfallen, anhand der Daten der Folgeperioden getestet werden, da dadurch z. B. Strukturänderungen frühzeitig erkannt werden können. Gibt man bei der schrittweisen Regression ein tjj^ =1,6 vor, dann wird die „optimale Gleichung [1 2 3]" in fünf Schritten gefunden. Wichtigste Einflussgröße x^ mit
Adaptive Einflussgrößenkombination
131
t^ = 18,42, 2-te Größe x^ mit tj = 9,42, 3-te Größe X2 mit ^2 = 1616 und 4. x^ mit t^ = 5,46. Bei der Prüfung der //-Werte der Gleichung mit allen Variablen ergibt sich tj = 0,47, d. h., JC4 sollte eliminiert werden bei 4^^^ = 1, denn tf < 1 bedeutet, dass die Standardabweichung größer ist als die der Gleichung ohne x^ ([99], S. 260). Gibt man tj^ = 1,62 vor, dann würden nach der alten Version X2 {tl = 1,616) und x^ {tl = 0,0405) nicht in die Gleichung aufgenommen. Erst die Prüfung von X2 gemeinsam mit JC3 ergibt ^2 = 7,17 und t^ = 5,46, nach Eliminieren von x^ ist dann die „optimale" Gleichung mit ^3 = 3,602 j^= -31,5876 + 1,0663jc^+0,7829x2+0,84x3. Folgt man dem Rat von [99], S. 263, Kombinationen von Einflussgrößen als mögliche Variable aufzunehmen, dann findet man mit X5 = ^2 + x^ eine bessere Regressionsgleichung als die „optimale" von Linder/Berchtold in zwei Schritten ;; = -32,957 + l,0855xi+0,8089(x2+X3) mit ^2 = 13,433,^o = 4,23,/j^ =33,01 und tj =17,56. ^2 ist bei Linder die Varianz bei zwei variablen Einflussgrößen (Varianz = Quadrat der Standardabweichung). Dankenswerterweise haben Makridakis/Wheeiwright/Hyndman ([97], S. 279 ff.) einen Vergleich der „Best subsets regression" mit der „Stepwise regression" durchgeführt. Für „bank data" wurde eine Regressionsgleichung mit Konstante und 17 Einflussgrößen erstellt und über 53 Perioden Daten erhoben. Bei der „Best subsets regression" werden für jede Einflussgrößenanzahl r die drei Gleichungen mit den höchsten „adjusted" (bereinigten) multiplen Korrelationskoeffizientenquadraten R^ ermittelt, er gibt den Varianzanteil an, der durch die Regression erklärt wird. Bei r = 14 wurde das maximale R^ = 0,858 erreicht. Bei stepwise regression „the probability to enter and remove a variable was set at 0,10", was etwa tj^^ = 2 , 7 entspricht, wurden außer der Konstanten 12 signifikante Einflussgrößen ermittelt mit
R^2 = 0,852. Die 13. Größe x^ hatte nur
ein /^4 = 1,27, deshalb wurde abgebrochen. Die simultane Aufnahme von D^^ und D^ ergibt ^^ und tl^ > 2,7 und R^^ = 0,858 (siehe [97], S. 283), dort ist tj^^ = -1,7433 und tj)^ = -1,7563. Zu bemerken ist, dass die „Best subsets regression" mit dem größten R^ -Wert nur /^-Werte > 1 garantiert, d. h., mit tjj^ =1, 4^^. =0,99 erhält man mit der schrittweisen Regression auch „the best model overall" (S. 282, siehe auch [99], S. 260). Nimmt man statt der 11 „seasonal dummy variables" bei der „stepwise regression" 12 saisonale Einflussgrößen auf (siehe (13) und (15)), dann erhält man das maximale R^ bei 13 Einflussgrößen mit i?i^3 =0,896 und Rf^ = 0,861, da die Konstante D^,D^ und Dg aufnimmt. Bei tjj^ > 1 können nie alle 12 Saisonglieder und die Konstante in die Regressonsgleichung aufgenommen werden, die Furcht vor der „multicollinearity" ([97], S. 282) ist deshalb unbegründet. Die feste Zuordnung der Konstanten mit (Feb-Jan) ist wahrscheinlich der Grund, dass Rf^ nicht erreicht wurde bei tjj^ =2,7 . Die erweiterte schrittweise Regression löst auch das „serious collinearity problem" bei ([97], S. 294 f.) „TABLE 6-11 AN ANOMALOUS DATA SET FOR REGRESSION ANALYSIS" durch simultane Aufnahme von X^ und X2 mit der Standardabweichung a = 0,1274. Außerdem wird eine Lösung auch durch die kombinierte Variable X3 = Xi - 2X2 gefunden: 7 = 99,877 + 18,9987^3 =99,877+ 18,9987Xi-37,9974 mit er = 0,1299, die restlichen Variablen haben /^-Werte <1,6, d. h. nichtsignifikante.
132
Matt
Die folgende Darstellung der adaptiven Einflussgrößenkombination (vgl. auch [99]) unterscheidet sich von den Beschreibungen der schrittweisen Regressionsanalyse dadurch, dass zurückliegende Abweichquadrate mit exponentiell abnehmenden Gewichten (entsprechend dem Vorgehen beim Exponential Smoothing) versehen sind\ Das bedeutet, dass der Informationswert der Beobachtungen exponentiell mit der Zeit abnimmt (entspricht dem Vergessen; vgl. auch [101]). Den Ausgangspunkt bildet die Beziehung
t = tb,x,, mit
(1)
/=0
xi(
^i Yf
= (Funktionen der) Einflussgrößen auf die Zielgröße Y zum Zeitpunkt t] meist wird XQf =1 gesetzt, um eine Konstante (ÖQ) in den Regressionsansatz auf zunehmen. = Koeffizienten der Einflussgrößen = Schätzung für den Erwartungswert der Zielgröße Y zum Zeitpunkt t
Die x^f können Funktionen von Einflussgrößen sein, z. B. Xy=t^. Für die zurückliegenden Perioden t,t-l,.,.,0 sind Beobachtungen y^,y^_^,.,.,yQ der Zielgröße Y vorhanden. Die Abweichquadrate der Periode v ( 0 < v < 0 werden mit ( 1 - ^ / " ' ' gewichtet. Ziel der Regressionsrechnung ist die Minimierung der Summe der gewichteten quadratischen Abweichungen zwischen den beobachteten {y^) und den berechneten Werten ( 7 J der Zielgröße:
F=i(y.-tf
(l-^y^ = i:(y.-tb,xA
v=0
v=OV
/=0
(\-Ay-^ =Mm\
(2)
J
Dieses Ziel wird durch das schrittweise Optimieren des linearen Gleichungssystems (4) erreicht. 1960 wurde dann die schrittweise Optimierung auch bei der linearen Optimierung angewendet [54], dort ist sie als „largest-increase ruie" oder „greatest change"Version ([123], S. 113) bekannt. Sie erreicht meist mit wesentlich weniger Iterationen das Optimum als die meist gebrauchte „largest-coefficient ruIe". Durch partielles Differenzieren von (2) nach den Koeffizienten bi und Nullsetzen der Ableitungen, z. B.
(7bQ
v=0
oder in anderer Schreibweise
v=0
v=0
v=0
-S(l-^)'">v^Ov v=0
Allgemein können bei AEK auch andere adaptive Gewichte angewendet werden, z. B. lineare 2
ffi
. polynomiale . . . p^ = a-{-bv + cv ^ + ••• + hv Py = a + vb oder a + tb a + bt + cr +--- + ht^
Adaptive Einflussgrößenkombination
133
erhält man n + l lineare Gleichungen für die Koeffizienten bj (3). Eine (« + 2)-te lineare Gleichung für die Koeffizienten bj ergibt sich durch Einsetzen der Gleichungen (3) in die Gleichung (2); nach einer etwas mühseligen Rechnung erhält man als (« + 2)-dimensionales Gleichungssystem für die Koeffizienten bf und F:
v=0 t
v=0 t
v=0 t
v=0
v=0
v=0
v=0
v=0
v=0
bo Z(l-^/""xovJ^v+.-+ b^ Z ( l - ^ y - " x^,y,-^F v=0
= Ul-Ay-'^y^
v=0
(4)
v=0
Zur besseren Übersicht werden die Abkürzungen Z(l-^)
^xi^xp=aij
(i,j = 0,.,.,n)
v=0
v=0 t
v=0
v=0
eingeführt. Mit diesen Abkürzungen vereinfacht sich (4) zu:
(5) ^n,obo
+ ^n,\bi
<^n+lobo +^«+1,1*1
+ . . . + Cln,nbn
= ^n,n+l
-^'"-^
= ^n+l,n+\
^n+lnbn-^^
Da die Matrix {a^j} des Gleichungssystems (5) symmetrisch ist, benötigt man nur die obere Dreiecksmatrix. Die Auflösung erfolgt nach einem leicht modifizierten Gauß-Algorithmus, dabei bleibt die Matrix immer symmetrisch.
%\
•
•
•
•
^1,^+1
(6)
134
Matt
Als Pivotelement wird in jedem Iterationsschritt das Diagonalglied gesucht, das F (die Summe der gewichteten quadratischen Abweichungen zwischen den Beobachtungen und der Zielgröße) am stärksten verringert; für den Iterationsschritt (1) gilt:
•
bzw.
•
= Max!
Außerdem muss für die Signifikanzprüfung der Einflussgrößen beim ersten Schritt gelten: aj/,«+! m-u
v=0
/+1
_ 2
-
(7)
Dabei ist tj^ ^ ein Maß für die geforderte statistische Sicherheit für die Aufnahme der Einflussgrößen (zum Beweis, dass die rechte Seite von (7) Student-verteilt [48] ist und die statistische Sicherheit der Koeffizienten mithilfe der Studentverteilung geschätzt werden kann (vgl. [101], S. 27 ff.). Weiter gelten folgende Rechenvorschriften:
Cl
ü
ü
^1,1
^1,1
^1,1
Alle übrigen Matrixelemente der Entwicklung (1) berechnen sich durch:
Bei dieser Rechnung entwickelt sich in der Pivotspalte bzw. -zeile die negative inverse Matrix. Einflussgrößen, die in die Regressionsgleichung aufgenommen wurden, werden am negativen Diagonalglied a[^^ erkannt, c^ =-a\j wird zur besseren Unterscheidung gesetzt.
Nach diesem ersten Schritt erhält man folgende Regressionsgleichung:
Die Standardabweichung von Y ergibt sich zu:
''zo-^y-^o—^) v=0
t+\
Nicht zu verwechseln mit der Zeit, für die hier auch der Buchstabe t verwendet wird.
(8)
Adaptive Einflussgrößenkombination
135
Zur Berechnung der Standardabweichung des Koeffizienten af)^^^ wird die inverse Matrix von (6) benutzt, die Standardabweichung ergibt sich zu:
-f:=4^ -f
(9)
Zur Ermittlung der statistischen Sicherheit des Koeffizienten a)l^^ bildet man: ,(i)_r^
(10)
.(1)
Analog geht die Entwicklung schrittweise weiter. Nach dem r-ten Iterationsschritt ergeben sich folgende Gleichungen:
7=1
J
J
•ir)
a,n+\,n+\
r(0_
z
(8a)
i\-Ar\\---) t+ \
v=0
a<:)
<
(9a)
M) -
(10a)
Die Rechnung ist beendet, wenn für alle noch nicht in die Gleichung aufgenommenen Einflussgrößen gilt: ('•)
\2
KL^)
4>-
v=0
"iJ "n+l,n+l
/ +1 V"),n+1 /
Weiter muss für alle in die Gleichung aufgenommenen Einflussgrößen gelten: ir) \2
(C.l> ''OUT
v=0
/ +1
-
Dabei ist tg^^ der vorgegebene t-Wert für die Elimination einer Einflussgröße aus der Prognosegleichung {t^^j^ muss < t]^ gewählt werden, da sonst eine ewige Schleife entstehen kann). Falls sich für ein beliebiges i bei negativem Diagonalglied */
^
''OUT
ergibt, muss dieser Koeffizient durch Rückentwicklung der Matrix (6) nach dem a\'^ Glied mit den Rechenvorschriften
136
Matt 1 ^i,i
a^'^
a^'^
^i,i
^i,i
wieder aus der Gleichung eliminiert werden (hier wird die negative inverse Matrix benötigt). Die Rechnung ist beendet, wenn keine zusätzliche Einflussgröße mit genügender statistischer Sicherheit mehr gefunden wird und alle Einflussgrößen in der Regressionsgleichung die geforderte statistische Sicherheit t^'^ ^tour besitzen. Folgende Modellansätze können als allgemeine Modelle zur Nachfrageprognose angesehen werden: 1.
Modell mit linearem und quadratischem Trend ohne Saisoneinfluss Y,=b,+b^t + b^t^
(AEKTM)
Dieses in [104] beschriebene Testmodell ist vielfach untersucht worden (vgl. auch Abschnitt 10.3.2). Leider wurde dabei nie die orthogonale Variante verwendet, die eine um ca. 70 % geringere Rechenzeit aufweist. Der Modellansatz sollte nur für kurzfristige Prognosen (< 6 Perioden) Anwendung finden, da der quadratische Trend nur als Ersatzfunktion für lineare Trendänderungen und Saisonverhalten dient und nicht beliebig extrapolierbar ist. 2.
Orthogonales Saisonmodell mit linearem Trend und Anlauf-ZAuslaufeinfluss Y,=y + s,+b,(t^-0
' + b2
1
^-^
5 + t^ 5 +1^ j
Man erhält bis auf die Koeffizienten b^ und Z?2 eine orthogonale Lösungsmatrix, die ohne Matrixinversion gelöst werden kann (vgl. auch Abschnitt 10.4); auf diese Weise können die Koeffizienten schnell ermittelt und auf statistische Sicherheit geprüft werden. Zu einem Prognosemodell, das Ansätze der linearen Filtertheorie und der Spektralanalyse weitgehend abdeckt, werden verzögerte Einflussgrößen zugelassen (vgl. [106], S. 490 f.); weitere Modellansätze sind in den folgenden Abschnitten dargestellt. 10.3 Vergleich der adaptiven Einflussgrößenkombination mit anderen Vorhersageverfahren In diesem Abschnitt werden vor allem Ergebnisse quantitativer Vergleiche anderer Verfahren mit AEK dargestellt (weitere Vergleiche findet man in Kapitel 20 der 5. Aufl. dieses Buches). Zur generellen Vergleichbarkeit werden weitgehend die naiven Prognosen herangezogen: ]SIP\^^^^y^ und A^P2^^i = j;^^i_^. (s = Saisonlänge). Es sind zahlreiche Lagerbewirtschaftungs- und Prognoseprogramme auf dem Markt bzw. in der Anwendung. In diesen Programmen enthaltene Prognosemethoden wurden untersucht und mit dem Verfahren der adaptiven Einflussgrößenkombination verglichen. In den hier analysierten Fällen reduzierten sich die Prognosefehler nach dem neuen Verfahren sehr stark (20 bis 80 %). Nahezu alle Modelle basieren entweder auf einem pragmatischen Prognoseverfahren, das Winters [179] (vgl. Kapitel 3) veröffent-
Adaptive Einflussgrößenkombination
137
iiciite und das auf einen Ansatz von Holt [52] zurückgeht, oder auf dem Brownschen Verfahren der exponentiellen Glättung zweiter Ordnung kombiniert mit multiplikativen Saisonfaktoren. Eine Ausnahme machten lediglich die zwei IBM-Systeme MINCOS [58] (hier war als Prognoseansatz nur das Exponential Smoothing erster Ordnung vorhanden) und Retail IMPACT [61] (es enthält das Speicher- und rechenzeitaufwendige Prognosemodell Adaptive Smoothing mit trigonometrischen Funktionen für die Saisoneinflüsse). Da mehrfach nachgewiesen wurde (z. B. [140]), dass die beiden Verfahren (Winters und Brown) bezüglich der Prognosegüte gleichwertig sind, wird in unserem ersten Vergleich nur das Verfahren von Winters berücksichtigt. Siemens ([155], [156]) verwendete außer dem Verfahren von Winters noch das Verfahren HÖREST (Handelsorientiertes Einkaufsdispositions-System mit Trendberücksichtigung). Burbulla [16] hat auf die systematischen Fehler von HÖREST hingewiesen (vgl. hierzu auch [140], [170]). Siemens selbst ([155], S. 7) empfahl für größere DV-Anlagen das Programm SAVOY, das auf dem Winters-Verfahren basiert; deshalb beziehen wir hier HÖREST nur in zwei Fällen in den Vergleich ein (Abbildungen 2 und 3). Die der AEK gegenübergestellten multiplikativen Vorhersageverfahren sind in den folgenden Standardprogrammen enthalten (siehe auch [49], S. 247 und 345): •
IBM: IMPACT [59], AS [64], EXFOR 1 und 2 [60], PICS [62], DIOS [63], CAS FSM [66] und [127], S. 4348, COPICS IPF [65]
•
SAP: RM [142]
•
SIEMENS: HÖREST [155], SAVOY 1 [156]
•
UNISYS (ehemals UNIVAC): ALDOS [167], FORTRAN-Programm der Bedarfs- und Verkaufsvorhersage [168], UNIS [159]
Alle diese Systeme benötigen Nachfragedaten über mindestens zwei Jahre, um die Nachfragestruktur erkennen und einem speziellen Prognosemodell zuordnen zu können. Die Systeme enthalten meist vier spezielle Prognosemodelle: 1.
Horizontales Modell (Exponential Smoothing erster Ordnung) für eine relativ konstante Nachfrage (vgl. Kapitel 2 dieses Buches)
2.
Trendmodell (Exponential Smoothing zweiter Ordnung) für Nachfrage mit Trend (vgl. Kapitel 2 dieses Buches)
3.
Saisonmodell (Winters-Modell ohne Trend) für Nachfrage mit Saisonschwankungen, aber ohne Trend
4.
Trend-Saisonmodell (Winters-Modell mit Trend) für Nachfrage mit Saisonschwankungen und Trend (vgl. Kapitel 3)
Der Nachteil dieser Systeme liegt unter anderem darin, dass Änderungen der Nachfragestruktur zu großen Prognosefehlern führen und nur teilweise durch das Abweichungssignal (Tracking Signal) erkannt werden. Danach muss eine neue, aufwendige Datenanalyse vorgenommen werden. Die Modellzuordnung und Berechnung der Prognosegleichung benötigte z. B. bei SAVOY 1 auf einer Siemens 4004/35 mit 64 K Bytes pro Artikel ca. 30 Sekunden gegenüber 3,6 Sekunden beim Verfahren der adaptiven Einflussgrößenkombination auf einer IBM/360-30. Außerdem müssen die Vergangenheitsdaten aufbewahrt und für ei-
138
Matt
ne neue Modellauswahl zwischengespeichert werden. Bei der adaptiven Einflussgrößenkombination gibt es dagegen ein allgemeines Prognosemodell, das alle Nachfragestrukturen enthält. Die Auswahl des speziellen Prognosemodells erfolgt automatisch durch eine Prüfung der statistischen Sicherheit für die einzelnen Koeffizienten der Einflussgrößen, d. h., Strukturänderungen werden frühzeitig erkannt und in der Prognosegleichung berücksichtigt. 10.3.1 Vergleich von AEK, Winters, HÖREST, NP1, NP2 und Disponentenprognosen Der pragmatische Ansatz von Winters führt im Gegensatz zur adaptiven Einflussgrößenkombination (siehe Anhang von [101]) weder zu einer Minimierung der Standardabweichung noch zu enA/artungstreuen (unverzerrten) [45] oder wirksamen Schätzungen, was leicht mathematisch zu beweisen ist, aber den Rahmen dieses Beitrags sprengen würde. Hier sollen die wichtigsten Vor- und Nachteile erläutert und an praktischen Beispielen demonstriert werden: 1.
Kein Ansatz spezieller Einflussgrößen möglich Weder externe Einflussgrößen noch spezielle Zeitfunktionen für Anlauf-, Tages-, Dekaden- oder ähnliche Einflüsse können in das Prognosemodell aufgenommen werden; das hat größere Zufallsschwankungen und Fehlinterpretationen bei der Prognose zur Folge. In den Tabellen 11 und 12 sind die Unterschiede aus dem notwendigen Sicherheitsbestand bei gleicher Lieferbereitschaft deutlich abzulesen. Abbildung 1 gibt 58 Nachfragewerte (x und +) eines Artikels wieder, der von den oben erwähnten Systemen dem horizontalen Modell zugeordnet wird. Nach 44 Perioden (Arbeitstagen (x)) wurde jeweils die Prognosegleichung aufgestellt. Die durchgezogene Gerade zeigt die Prognose mit Exponential Smoothing, die durchgezogene gezackte Kurve die Prognose mit AEK unter Berücksichtigung der Tageseinflüsse. Die gestrichelten Linien verdeutlichen jeweils die Standardabweichung. Sie ging von ±200 auf ±120 zurück.
2.
Schlechte Anpassung an Strukturänderungen Selbst wenn das richtige Prognosemodell vorliegt, führen HÖREST und das Winterssche Verfahren zu einer schlechten Anpassung und großen Prognosefehlern bei einer Strukturänderung der Nachfrage. Das liegt an der isolierten Korrektur der einzelnen Einflussgrößen. Mittelwert, Trend und Saisonindizes werden jeweils für sich korrigiert und beeinflussen sich gegenseitig. Abbildung 2 zeigt die Halbjahresnachfragen (x) über sechs Jahre mit einer Änderung der Nachfragestruktur nach zwei Jahren und die entsprechenden Prognosewerte von der Basis des letzten Jahres aus. Die Prognosemodelle waren auf Mittelwert, Trend und zwei Saisonkoeffizienten ausgerichtet. Die durchgezogene Kurve entspricht der Prognose der adaptiven Einflussgrößenkombination mit A = 0,2 und einer Standardabweichung o-^Ojei. Die untere, groß gestrichelte Kurve zeigt die Prognose nach dem Wintersschen Verfahren mit A = B = C = 0,2 und er = 1,54, die groß/klein gestrichelte Kurve die Prognose nach Winters mit A = B = C = 0,5 und a = l,Ol. Die klein gestrichelte Kurve stellt die HOREST-Prognose mit ^ = 5 = 0,2 und cr = 3,48, die obere, groß gestrichelte Kurve die HOREST-Prognose mit ^ = 5 = 0,5 und er = 2,2 dar. Die Standardabweichungen für die letzten acht Beobachtungen (d. h. nach der Strukturänderung) betragen bei AEK er = 0,22, bei Winters mit A = B = C = 0,2
Adaptive Einflussgrößenkombination
139
ö- = l,55 und mit A = B = C = 0,5 a = 0J4. Bei Winters mit A = B = C = 0,2 enA/eist sich deutlich, dass die Prognose zu starken Verzerrungen führt. A Nachfrage
Zeit (Tage)
Abb. 1: Tagesnachfragen (x und +) eines Konsumartikels in einem Regionallager und deren Prognose mit AEK Zum Vergleich werden Mittelwert (entspricht Exponential Smoothing erster Ordnung) und Standardabweichung gezeigt. Durchgezogene Gerade: Prognose mit Exponential Smoothing, durchgezogene Kurve: AEK-Prognose, gestrichelte Linien: Prognose + Standardabweichung A Nachfrage
15
[ 10
5 X
1
2
3
4
5
Zeit (Jahre) ^—>
Abb. 2: Halbjahresnachfragen (x) eines Artikels mit Strukturänderung Durchgezogene Kurve: AEK-Prognose mit A=0,2 (er =0,61), untere, groß gestrichelte Kurve: Prognose nach Winters (A=B=C=0,2] er =1,54), groß/klein gestrichelte Kurve: Prognose nach Winters (A=B=C=0,5\ 0^=1,01), klein gestrichelte Kurve: Prognose nach HÖREST (A=B=0,2] CT =3,48), obere, groß gestrichelte Kurve: Prognose nach HÖREST (A=B=0,5\ er =2,2), 0-1^^1=4,28, cr^^. =1,79
140
Matt
3.
Nichtbeachtung der Korrelation zwischen den Einflussgrößen Das Winterssche Modell beachtet den Zusammenhang der Einflussgrößen nicht richtig. Die Abweichung zwischen Prognose und Nachfrage wird entsprechend den Ausgleichskonstanten A, B und C gleichmäßig auf die Einflussgrößen verteilt. Das führt besonders beim Trend-Saisonmodell zu so großen Prognosefehlern, dass einige DV-Hersteller die Anwendung dieses Verfahrens nicht empfehlen. Dieser Fehler wirkt sich sowohl bei Strukturänderungen als auch bei großen Zufallsschwankungen aus. Abbildung 3 zeigt Halbjahresnachfragen (x) mit Zufallsschwankungen. Über die ersten vier Perioden (zwei Jahre) wurden die Nachfragen gesammelt und die Anfangsprognosegleichungen ermittelt, danach wurden nach jeder Periode die neuen Prognosen berechnet. Die durchgezogene Kurve entspricht Vorhersagen mittels AEK-Methode; es ergibt sich a = \,3. Die groß gestrichelte Kurve zeigt die Prognosen nach Winters mit A = B = C = 0,5 und Ö- = 4,8, während die groß/klein gestrichelte die mit A = B = C = 0,2 und er = 2,6 darstellt.
4.
Keine Prüfung der statistischen Sicherheit der Einflussgrößen Bei Exponential Smoothing und dem Verfahren von Winters kommen alle Einflussgrößen in die Prognosegleichung, auch wenn sie nicht statistisch gesichert sind. Dadurch können die Modelle Zufallsschwankungen und echte Einflüsse nicht richtig bewerten, was zu großen Extrapolationsfehlern führen kann. Abbildung 4 zeigt ein Beispiel aus einer UNIVAC-Veröffentlichung [168]. Das Programm arbeitet mit der Wintersschen Optimierung der Glättungsparameter A, B, C. Die „optimalen Glättungsparameter" waren A = B=0, C = \. Für die Anfangsprognose (nach zwei Jahren) ergab sich der Mittelwert zu 105,28 und der Trend zu 0,78. Diese Werte werden nicht weiter korrigiert, da ^ = 0 und 5 = 0, während die Saisonindizes durch C = \ die Zufallsschwankungen voll übernehmen und außerdem noch mit einem unkorrigierbaren Jahrestrend von 9,4 überlagert werden. Das führt deutlich die Fragwürdigkeit einer Optimierung von Glättungsparametern vor Augen. In Abbildung 4 sind die Nachfragen (x) über drei Jahre, die laufenden Prognosen nach Winters (gestrichelte Kurve; a-=32,3) und nach der Methode der adaptiven Einflussgrößenkombination (durchgezogene Kurve; cr= 22,4) gezeigt. Bei der AEK-Methode wurden A = 0,\ und ein Prognoseansatz mit Mittelwert, linearem Trend und Saisonkoeffizienten verwendet, um gleiche Voraussetzungen wie bei Winters zu haben. Es zeigt sich, dass weder Trend noch Saisonkoeffizienten genügend statistische Sicherheit besaßen, um in die Prognosegleichung zu kommen.
5.
Multiplikativer Ansatz Der Winterssche Prognoseansatz {a + bi)s^ ist eine multiplikative Verknüpfung zwischen einem Trendmodell (a + bi) und den Saisonindizes s^. Dadurch werden die Fehler, die bei den Koeffizientenschätzungen entstehen, multiplikativ fortgesetzt, was zu einer Erhöhung des Gesamtfehlers führt, der mit der Größe der Zufallsschwankungen überproportional ansteigt. Nehmen wir an, dass sowohl die Schätzung des Mittelwerts a' = l,2a als auch die Schätzung der Saisonindizes s' = l,2 s um 20 % zu hoch liegen, dann ergibt sich für die Vorhersage VS = a''s'= 1,2 a'\,2s
= \,44a'S
Adaptive Einflussgrößenkombination
141
Nachfrage 15
10
X
1
2
3
4
5
6 Zeit (Jahre)
Abb. 3: Halbjahresnachfragen (x) eines Artikels mit Zufallsschwankungen Durchgezogene Kurve: AEK-Prognose mit A = 0,2 (er =1,3), groß gestrichelte Kurve: Prognose nach Winters (A=B=C=0,5; er =4,8), groß/klein gestrichelte Kurve: Prognose nach Winters (>:\=ß=C=0,2; a'=2,6), c r ^ i = 8 , 1 , c r ^ 2 = ^ ' 4 1 . Prognose nach HÖREST (yA=ß=0,2;1;12;1,4; 16,1;2,2;17,7; er =4,08); (/\=ß=0,5;1;15;1,8;19,2;3;12,6;ö-=4,41) A Nachfrage
150 X
XX
[ 100
50
1964
1965
1966
Zeit (Monate)
Abb. 4: Monatsnachfragen (x) mit starken Zufallsschwankungen Durchgezogene Kurve: AEK-Prognose mityA=0,1 (er =22,4), gestrichelte Kurve: Prognose nach Winters mit Optimierung der Glättungsparameter A, B, C (er =32,3) [168], c r ^ i = 2 8 ,
d. h., die Abweichung vom echten Wert beträgt 44 %. Unternehmen wir den gleichen Versuch bei einem additiven Ansatz a + s und nehmen wir eine gleiche Fehlerkonstellation an a' = l,2a, s' = l,2s , dann ergibt sich: VS = a'+ s'= 12 a +1,2 s = 1,2 (a + s) d. h., die Abweichung vom echten Wert beträgt nur 20 %. Auch bei im Vorzeichen unterschiedlichen Abweichungen der prognostizierten Faktoren ergeben sich er-
142
Matt hebliche Fehlermöglichkeiten (besonders wenn die Schätzung eines Faktors nahe bei Null liegt, da dann die Schätzung des anderen Faktors erheblich über dem echten Wert liegen muss, um den Fehler auszugleichen). Abbildung 5 zeigt einen solchen Fall. Die Prognose wurde nach 24 Monats-Nachfragewerten (x) gestartet. Die gestrichelte Kurve ist die Prognose nach Winters mit A = 0, B = C = 0,2 und cr=6893, die durchgezogene Kurve zeigt die Prognose des AEK-Modells ohne Trend bzw. bei einer geforderten statistischen Sicherheit von über 95 % (t>2,5) für den Trend (^ = 0,2; cr= 2073). Die strichpunktierte Kurve stellt die Prognose des AEK-Modells mit Trend und fortgeschriebener Fehlerprognose dar, wie sie auch in DIS 1 [19] verwendet wird {A = 0,2; cr=2780). Die schlechte Prognose nach Winters hängt mit dem starken negativen Trend des zweiten Jahres, der sich im dritten Jahr nicht fortsetzt, und mit dem multiplikativen Ansatz zusammen. Der Trend bleibt im dritten Jahr noch negativ, erst Ende des Jahres geht er auf Null zurück. Die Saisonindizes steigen zwar stark, können aber den niedrigeren Mittelwert nicht ausgleichen.
Bei einem Versuch wurden die monatlichen Umsatzzahlen eines Dreijahreszeitraums für mehr als 100 Artikel eines Unternehmens der Chemieindustrie mit einem Standardprogramm, das auf dem Verfahren von Winters basiert, von den Mitarbeitern des DVHerstellers zu Prognosezwecken getestet. In über 80 % der Fälle schrieb das Programm „ZU GROSSE IRREGULÄRE IN PROGR. NR.", d. h., der Variationskoeffizient (Standardabweichung durch Mittelwert der Nachfrage) beträgt über 50 %, der Artikel ist nicht zu prognostizieren. Bei einem weiteren Versuch mit AEK und 25 Artikeln ergab sich, dass nur acht Artikel von beiden Verfahren bearbeitet wurden. Es ergaben sich folgende in Tabelle 1 dargestellte Vergleichswerte für die letzten 12 Monate (Winters mit A = 0,B = C = 0,2] AEK mit Saisonfaktoren und Trend sowie J = 0,02). Abbildung 6 zeigt einen Artikel aus dem Versuch. Die gestrichelte Kurve ist die Prognose nach Winters mit er = 7750, während die durchgezogene Kurve die AEK-Prognose verdeutlicht a = All5 . Bei Winters liegen bei fünf Produkten und beim Gesamtvergleich die Variationskoeffizienten (a/NF) weit über 50 % und bei den restlichen drei Produkten nur knapp unter 50 %, während bei AEK alle Variationskoeffizienten unter 50 % bleiben. Die Standardabweichungen a reduzieren sich bei AEK im Schnitt um 60 % gegenüber Winters. ArtikelNr. 24 26 29 30 33 40 44 45
Mittelwert der Nachfrage (NF) 12335 3717 53487 4920 4640 2692 10477 19599 111867
Winters (T/NF(%)
72,3 48,4 74,5 68,9 65,1 47,5 74,1 44,6 65,8
AEK (T/NFiVo) 31,6 34,4 15,2 47,3 27,5 36,3 45,7 33,2 26,0
NP1 er/ NF (%) 54,9 56,9 33,4 55,8 57,9 79,5 71,8 57,8 47,5
Tab. 1: Prognosevergleich (Chemieprodukte)
NP2 (T/NF{%)
66 67,3 37,8 121,8 52,7 63,8 66,8 45,4 50,9
Adaptive Einflussgrößenkombination
143
Ein Vergleich der notwendigen Lagerbestände bei gleicher Lieferbereitschaft (Beschaffungszeit = ein Monat, durchschnittliche Bestellmenge = Monatsnachfrage, laufende Lagerüberprüfung, Formeln siehe [103]) ergibt Tabelle 2: Lieferbereitschaft 80 % 90 % 95 % 98 %
1
99 %
Winters 71100 104700 133100 165200 186700
Durchschnittlicher Lagerbestand AEK 38600 57100 71500 86800 96800
NP2 56600 84700 107900 134000 150600
1
Tab. 2: Vergleich der Lagerbestände Die Lagerkosten und der Kapitaleinsatz lassen sich bei gleicher Lieferbereitschaft und Bestellhäufigkeit um 45 bis 48 % reduzieren (AEK gegenüber Winters). Dazu die Aussage von Woitschach ([182], S. 13) zur Bestellpunktberechnung: „Doch wiederum spielen die zwangsläufigen Abweichungen zwischen Prognose und tatsächlichem Bedarf innerhalb bestimmter Grenzen nur eine untergeordnete Rolle." Abschließend sollen noch Vorteile des Wintersschen Verfahrens erwähnt werden: 1.
Geringer Speicheraufwand für die Prognosefortschreibung Wenn man von dem Speicher- und Rechenaufwand zur Bestimmung der Anfangsprognosewerte und der Optimierung der Glättungsparameter absieht, ist der Speicheraufwand für die Prognoserechnung unter Beibehaltung der Glättungsparameter gering. Für jeden Saisonindex, den Trend und den Mittelwert muss nur jeweils ein Fortschreibungsfeld gespeichert werden, während bei der normalen AEK-Methode außerdem noch die Korrelationswerte zu halten sind (bei einem Trend-Saisonmodell sind das zwei Werte pro Saisonkoeffizient, da die Saisonkoeffizienten gegeneinander unkorreliert sind). Inzwischen wurde ein Trend-Saisonmodell entwickelt (S. 12, Punkt 2.), das den Speicheraufwand erheblich reduziert, da die Korrelationswerte normiert und deshalb nicht mehr pro Saisonkoeffizient zu speichern sind. Damit ist der Speicheraufwand gegenüber Winters nur unerheblich größer. Die Prognosen in den Abbildungen 2 und 5 wurden nach diesem Modell berechnet.
2.
Geringer Rechenaufwand für die Prognosefortschreibung Da bei der Prognosefortschreibung weder Korrelation noch statistische Sicherheit der Koeffizienten berücksichtigt werden, ist der Rechenaufwand gering. Allerdings erkauft man sich diesen Vorteil mit einer unstabilen, verzerrten Prognose ohne statistische Sicherheit. Außerdem ist die Neuberechnung der Anfangswerte und Glättungsparameter wesentlich aufwendiger als bei der AEK-Methode (ca. 8-fach), und bei einer instabilen Prognose ist die Neuberechnung häufig notwendig.
Im Rahmen von Konzeptionen für Absatzplanungen wurden AEK-Prognosen mit Disponentenprognosen (DP) in zwei Betrieben verglichen ([20], [110]). Zur Objektivierung wurden auch die naiven Prognosen NP1 und NP2 gegenübergestellt. Die Mitarbeiter der beiden Unternehmen haben die Artikel als repräsentativ für das Sortiment ausgewählt. Auf der Basis von zwei Jahren wurden die nächsten 12 Monate prognostiziert (Tabellen 3 und 4).
144
Matt A
Nachfrage
15000
X
10000
5000
1968
X X
1969 Zeit (Monate)
Abb. 5: Monatsnachfragen (x) mit Trend, Saison- und Zufallsschwankungen. Durchgezogene Kurve: AEK-Prognose (ohne Trend) A=0,2 (er =2073), strichpunktierte Kurve: AEK-Prognose (mit Trend) A=0,2 (er =2780), gestrichelte Kurve: Prognose nach Winters (>A=0, ß=C=0,2; a =6893), a^p^ =2695, cr^p2 =3736, Kombinierte Prognosen (KP) mit auf 20 % gedämpftem Trend 4460;4740;10780;4830;10880;8135;6830;6990;7065;7265;7265;8430; a^ ^KP' 2019
Nachfrage
20000
10000 X
X X
1968
^1969
1970
Zeit (Monate) Abb. 6: Monatsnachfragen (x) mit Trend-, Saison- und Zufallsschwankungen. Durchgezogene Kurve: AEK-Prognosen (er =4775), gestrichelte Kurve: Prognose nach Winters ((7=7750), ö-^pi=7520, aJ^p2=700^
Adaptive Einflussgrößenkombination
145
i _ ^ . ^ _ i _ ^ . ^ — i ^ — i -
Art-Nr. 25 37 61 62 63 79 84
NF NP2 NP1 DP (Monat) alW (%) CT INF (%) Gl NF (%) 3434 10,7 19,8 11,4 4282 15,6 20,1 16,5 7910 25,0 23,0 20,9 3708 22,5 47,6 17,6 3435 27,9 30,0 29,4 5620 24,4 11,8 24,5 1178 22,3 94,5 106,4 29567 21,8 26,8 23,9 Tab. 3: Prognosevergleich (Backwaren) [20]
AEK alNF (%) 9,9 13,9 12,9 16,3 14,5 10,5 27,6 13,5
• " • — • ~ ^ — " ^ " " " " ^ — " — " — "
Art-Nr. 60 71 82 93 74 75 96 67 78 49
NF NP2 NP1 DP (TI NF (%) (TI NF (%) (Monat) ö-/ Ä ^ (%) 100 75,9 55,4 47,6 248 48,8 36,9 52,8 2397 23,7 23,5 21,4 1117 16,9 15,5 15,2 710 22,4 37,4 29,9 103 138,1 164,4 210,5 135 90,4 51,7 81,1 2661 23,1 19,4 23,3 1478 27,0 26,4 35,7 148 59,7 74,6 36,5 9097 26,9 26,5 28,9 Tab. 4: Prognosevergleich (Papiersorten) [110]
AEK (TINF
(%)
39,9 33,9 17,1 12,4 16,8 128,3 61,0 15,3 20,6 36,5 19,5
10.3.2 Vergleiche mit weiteren Prognoseverfahren In den Tabellen 6 bis 9 und in Abbildung 7 werden die Ergebnisse verschiedener Prognosevergleiche gezeigt. Dabei gelten folgende Abkürzungserklärungen: 1. Allgemein: A B DAFf = DQ = DT DU = EP FC G GW = AfAPF = MAPK =
Ausgleichsparameter (sonst meist a genannt) Betriebswirtschaftliche Zeitreihen (meist Nachfragen) Durchschnittlicher Absoluter Fehler von t^+X bis t Datenquelle, S. = Anfangsseite Datentyp „Dynamisierter" Theilscher Ungleichheitskoeffizient ([6], S. 421 f.) Empfohlene Parameter Forecasting Coefficient von Theil [164] FC^ ^aja^p^. Neuerdings auch als TU^ Theilscher Ungleichheitskoeffizient bezeichnet ([154], S. A5) Gemischte Zeitreihen (B und V) bzw. Gesamt Gewicht, unter anderem nach PM-Rangfolge vergeben Mittlerer Absoluter Prozentualer Fehler = MAPE ([96], S. 143) 100 |:^v ->'v,/|/3^v durch die Division durch die Zufallsvariable y^ ist bei Monats-Wochen- und Tagesprognosen mit Verzerrungen zu rechnen. Armstrong/Grohman haben das Fehlermaß 1972 bei Jahresprognosen eingeführt Obere Mertensschwelle [120] (PV ist 10 % weniger wirksam als NP2) Untere Mertensschwelle (PV ist 10 % wirksamer als NP2)
146
Matt Optimale Parameter Prozentualer Absoluter Fehler = DAFIy in % Prognostizierte Monate Prognoseverfahren Prognosevergleiche Rangfolge Relative Rechenzeit von [40], [83], [140] und [22] übernommen Sicherheitsbestand ([103], S. 82) Statistische Sicherheit für den Trendkoeffizienten b Berechnete Standardabweichung der Prognosen von PV^ Studentscher t-Wert für die Aufnahme von Einflussgrößen Studentscher t-Wert für die Elimination von Einflussgrößen Volkswirtschaftliche Zeitreihen (Grund)-Vergleichsmaß des Vergleichs Wirksamkeitsmaß WM, ^GJGNPl • DAF^ IDAFj^p^ « MAPF^ I MAPF^p^ (beispielsweise bei saisonbeeinflussten Zeitreihen) WM^ :0 = optimaler Prognose WM^ =\ = (j.= or^p^ Zeitreihe
OP PAF PM PV PVG RF RRZ SB SSb
t, 'IN OUT
V VM WM
ZR
2. Prognoseverfahren: AD AEK AEKCH AEKLM AEKTL AEKTM AEKVD AEP AF AS ASM BF BJE B/J CBA Chow DP ES/ ESMS Holt HRS HR1 H/W KZZ KA/V LWD
= = = = = = = = = = = = = = = = = = = = = = = = = =
ADAPT modifiziertes AS von Siemens [154, Weckerle] Adaptive Einflussgrößen-Kombination allgemein AEK kombiniert mit dem Verfahren von Chow ([40], S. 51) AEK mit linearem Trendmodell f^ = ^o + h^ [22] AEK kombiniert mit T/L [22] AEK-Testmodell f^ = ^o + ht + b2t^ AEK kombiniert mit VDB [22] Automatisches rekursives Filterverfahren [96] Adaptives Filtern von Widrow ([94], [173]) Adaptive Smoothing von Brown/Meyer (additives PV) ([14], [154], S. 33) AS von Groff mit Binärvariablen für den Saisoneinfluss ([112], S. 2) Bayesian Forecast von Harrison/Stevens (Kaiman Filter) [96] Box-Jenkins Einfache Modelle (z. B. Groff und Emde) [28] Box-Jenkins (ARIMA)-Verfahren ([10], [96] und Kapitel 13, 14) Combining A. Kombinierte Prognose, Mittelwert von 6 einfachen PV [96] Adaptives ES nach Chow ([18], [40] und [140]) Menschliche Prognosen von Disponenten oder Planern Exponential Smoothing /-ter Ordnung nach Brown ([14], Kapitel 2) ES mit multiplikativer Saison von Siemens ([155], [156]) ES-Verfahren mit 2 Glättungsparametern ohne Saison ([52], Kapitel 2) Multiplikatives PV von Harrison ([45] und Kapitel 3) HÖREST 1 PV mit multiplikativer Saison von Siemens [155] PV von Holt/Winters mit drei Glättungsparametern ([179] und Kapitel 3) Klassische Zeitreihen-Zerlegung [95] Filterverfahren nach Kolmogoroff/Wiener ([28] und Kapitel 13) FORSYS- bzw. OPS-System von Lewandowski ([83], [96])
Adaptive Einflussgrößenkombination
147
Neuronale Netze Prognose (Kapitel 17) Naive Prognose 1 (no change) A^Pl^+i =yt (entspricht ESI mit^=1) Naive Prognose 2 NPl^ =yt-s («^ = Saisonlänge) PV von T/L mit „Pattern Search" gekoppelt nach Bednar [6] PV von Parzen modifiziert die ARIMA-Methodologie [96] PV von Quelle mit additiver oder multiplikativer Saison [133] PV mit Rekursiven Funktionen von Förster [154] Regression allgemein ([38] und Kapitel 7) RG mit externen Einflussgrößen [24] RG mit konstanter Gewichtung [184] RG mit Zeitfunktionen (vgl. 10.4) Schrittweise Autoregression von Newbold/Granger [125] Korrelationen missachtendes 3-Stufenmodell [154, Kampf] Adaptives ES von Trigg und Leach ([166], [40]) Adaptives ES nach van Dobben de Bruyn ([169], [40]) WINAS „4-Parameter-Modell" von Hüttner/Götte [154] ES-Verfahren von Wiese mit Logarithmen ([154, Roloff] und [176]) PV von Miebach (Kombination Winters/Lewandowski) [154]
NN NP1 NP2 PS PZ QL RF RG RGE RGK RGZ SAR SM T/L VDB WN WS W/L
Beim nächsten Vergleich werden die Ergebnisse verschiedener Autoren bei PVG mit der Zeitreihe von Tabelle 5 aufgezeigt. Die Zeitreihe simuliert die Wochennachfragen eines Produkts, das durch intensiven Werbeeinsatz in den Wochen 21 bis 53 von einem Niveau von 100 auf das von 200 gebracht wurde, mit entsprechenden Zufallsschwankungen. Da bis auf Rosentreter [140], der a als Vergleichsmaßstab verwendet, alle anderen DAF verwenden, wurde DAF^^ als VM gewählt. Um den starken Einfluss der Startwerte auf die Anfangsprognosen zu vermeiden, wurden wie bei [140] die Vergleiche erst ab Periode 13 vorgenommen. 90
DAF,,= Periode Istwert Periode Istwert Periode Istwert Periode Istwert Periode Istwert Periode Istwert Periode Istwert
1 97 14 102 27 119 40 159 53 197 66 197 79 201
2 98 15 100 28 121 41 161 54 202 67 196 80 191
^\Y,-y, 3 102 16 94 29 125 42 166 55 200 68 202 81 197
78 4 108 17 107 30 129 43 172 56 208 69 197 82 202
5 99 18 102 31 133 44 172 57 207 70 197 83 192
6 92 19 101 32 138 45 173 58 200 71 196 84 196
7 103 20 101 33 140 46 179 59 201 72 197 85 196
8 94 21 99 34 140 47 180 60 199 73 204 86 194
9 97 22 106 35 143 48 181 61 199 74 197 87 200
10 101 23 109 36 156 49 185 62 194 75 194 88 205
11 99 24 110 37 153 50 194 63 202 76 200 89 203
12 103 25 115 38 151 51 190 64 197 77 201 90 202
13 1 105 26 118 39 159 52 199 65 202 78 201
Tab. 5: Wochennachfragen eines werbebeeinflussten Produkts Da bei Dirr [22] über 50 % der Rechenzeit für die (unnötige) Umrechnung der vorgegebenen statistischen Sicherheit auf tg^j^ benötigt wird, wurde RRZ entsprechend reduziert.
148 IPV ES1
Matt DQ
S.
A
/2 ''OUT
11
0,05 0,15 0,25
99 99 99
1 0,1 0,3 0,5 0
999 499 99 0 EP OP
Neu [104]
Neu Neu ES2
ES3
[140] [140] [140]
Neu Neu [104]
11
Neu AEKLM AEKTM
[22]
44
Neu Neu [104]
0,05 0,15 0,25 0,28
0 11
Neu
0,05 0,15 0,25 0,15
0,2 Neu iHolt Chow VDB T/L LWD AEKCH AEKVD AEKTL
[140] [140] [140] [140] [140] [140] [140] [140] [83] [40] [22] [22]
0,25
226 226 226 226 226 226 226 226 165 56 44 44
0,2-0,6
0 0 0 0 1,9 3,9 3,9 3,9 3,9 1,9 1.9 1,9 OP EP OP EP OP EP OP EP 2 OP OP
<^90
7,89 4,31 4,70
4,30 12,22 4,33 4,75 4,83 8,90 4,26 6,70
DAFgQ
RF
RRZ
WM
21,71 9,62 6,35 3,77 6,31 3,45 3,76 11,20 5,89 3.71 3,47 3,30 11,02 5,96 3,70 3,39 3,54 3,08 3,15 3,44 9,77 3,46 3,80 3,86 7,12 3,40 5,36 3,16 3,14 3,59 4,16
31 27 25 17 24 9 16 30 22 15 11 5 29 23 14 6 12 1 3 8 28 10 18 19 26 7 21 4 2 13 20
1 1 1 1 1 1 1 1,2 1,2 1,2 1,2 1,5 1,8 1,8 1,8 1,8 1,8 1,8 1,8 1 1 4,1 4,1 5,9 5,9 1,5 1,5 2 3,4 1,7 2,0
6,293 2,788 1,841 1,093 1,829
1 1,09 3,246 1,707 1,075 1,006 0,957 3,194 1,728 1,072 0,983 1,026 0,893 0,913 0,997 2,832 1,003 1,101 1,119 2,064 0,986 1,554 0,916 0,91 1,041
1,206
1
Tab. 6: Prognosevergleich anhand der Zeitreihe von Tabelle 5 Die Ergebnisse von Tabelle 6 zeigen: Bezogen auf das Gütekriterium DAFg^ schneidet AEKTM am besten ab, nur unwesentlich schlechter waren AEKCH, LWD und AEKLM. Selbst bei „optimalen Parametern" lagen die anderen PV um mindestens 11 % schlechter. Bei OP ist natürlich Holt um 0,3% besser als ES2, dafür liegt es bei EP (a = 0,l;ß = 0,l) um 5 5 % schlechter als ES2 (6^ = 0,1). Bei empfohlenen Parametern liefert nur Chow ein erträgliches DAFg^ von 3,8 geringfügig über dem Wert von NP1 mit 3,77 (ESI mit A = \). Bei den relativen Rechenzeiten schneiden natürlich die einfachen PV wie ESI, ES2 und Holt am besten ab; bis auf AEKCH, Chow und VDB liefern die anderen PV akzeptable RRZ. Bei den heutigen schnellen Computern dürfte die Rechenzeit, selbst bei Massendaten, kaum eine wesentliche Rolle spielen. Die Ergebnisse wurden mehrfach veröffentlicht, leider meist mit den irreführenden Werten von Lanzdorf [80] (schlechte Startwerte und Programmierfehler) bis zur vierten Auflage auch in diesem Buch und bei [40], [83], [22], [34], [84], [85], [86], [112] und [120]. Kurioserweise fehlen die AEK-Werte bei Fischer [34] und bei der neuesten (vierten) Veröffentlichung von Lewandowski [86]. Gestützt auf Theil [164], der 1955 den „forecasting coefficienf FC. =<jjaj^p^ einführte, und Emde [28], der NP1 durch NP2 ersetzte, wird das Wirksamkeitsmaß WM auf plausible, nachvollziehbare PV bezogen. Bei Zeitreihen ohne Saisoneinfluss (Tabelle 7) sind es ESI bzw. ES2, bei Zeitreihen mit Saisoneinfluss ist es NP2 (Tabelle 8), und bei Zeitreihen mit externen Einflussgrößen und keinem Saisoneinfluss ist es NPX, die
Adaptive Einflussgrößenkombination
149
Prognose mit der wichtigsten Einflussgröße (Tabelle 9). Zu warnen ist davor, NP1 auf Prognosen über 12 bzw. 18 Perioden auszudehnen ([25], [94], [96]), denn dann verliert NP1 ihre wichtigsten Eigenschaften, extrem erwartungstreu und trendfolgend zu sein (Verzögerung nur eine Periode). Wie wenig geeignet NP1 bei Saisoneinflüssen ist, kann man an Tabelle 8 sehen: ^ M . schwankt zwischen 0,802 und 5,745. Leider konnten einige PV nicht in die Vergleicne aufgenommen werden, z. B. ES3 und lineares Trendmodell (Regression), denn die Prognosen wurden anhand falscher Prognoseformeln berechnet ([94], S. 119; [96], S. 144), auch ES2 wurde falsch berechnet. PVG 1 2 3 4 5 6 7 8 9 10 11 12 ZR
DQ
DT 7 B B 9.4 B Tab. 11/12 B 507 B [6] 512 B [6] 546 B [6] 549 B [6] 21 B [124] 131 G [96] [44] 96 V 96 B [114] 8.
[104] Tab.6
VM DAF DAF er SB DU DU DU DU DAF MAPF <j
DAF
ohne Saison
ZR 3 1 150 31 20 25 14 16 10 51 1 2
NP1
AEK
1,093
0,637 0,893 0,649
PIVI GW ESI ES2
51 2 18 1 300 6 62 3 580 9 725 10 406 7 464 8 120 5 51 2 82 4 16 1 324 2875 58
1 1 1 1 1 1
LWD T/L
PS
0,916 0,986
1,338 1,336
1,020 1,016 1,007 1
1
1,112 1,010 0,970
1,051
0,837 1,010 0,746
1,042
1,060 1,053 1,154 1,315
1,011
1,136 1,091 0,990
1 1 1
AF
0,625 0,724 0,813 0.733 0,813
1 1 1 1
B/J
1,037
1,273
Tab. 7: Prognosevergleiche ohne Saisoneinflüsse ([112],.s. 6) PVG 13 14 15 16 17 18 19 20 21 22 23 24 ZR
DQ
s.
Tab.1 Abb.4 Abb.2 Abb.3 [140]
368
[43] 242 Tab.3 [96] [96] Tab.4
130 130
[114] 96 92 [114] mit Saison
DT B B B B V B B G G B B B
VM
:ZR
PiVI GW NP2 NP1 1 0,964
8 8 96 2 1 12 1 1 72 1 1 36 4 3 48 CT DAF 1 1 12 7 7 84 G MAPF 8 60 720 MAPF 3 60 60 10 120 10 CT DAF 1 2 16 1 2 16 DAF 157 1242 46 er er a er
1 1 1 1 1 1 1 1 1 1 1 1
HR1
LWD
B/J
HRS
DP
0,802 2,319
1,229
5,745 2,894
AEK
1,052
0,518
40,7
0,925 0,642
19,0
0,564 0,341
13,2
0,922
19,4
0,366 0,619
17,8
1,844
1,602
1,158
1,229
1,067 1,096
1,120 1,479
2,205 0,985
1,786
13,3
1,068 1,219
1,113 1,438
1,218 1,202
P^FNP2
0,990
1,220
1,326
H/W
7,3
1,074
0.725
21,6
1,170 1,084
1,047 0,842 1,217 0,781 1,075 0,633
11,1 11,9 19,3
Tab. 8: Prognosevergleiche mit Saisoneinflüssen Dadurch sind auch die schlechten Ergebnisse erklärbar, denn bei ES3 und a=0,\ wird ein zehnfacher quadratischer Trend verwendet. Gewarnt werden muss vor der Inflation der „Fehlermaße". Wenn bei einem PVG [154] 36 Fehlermaße angekündigt, aber nur 35 ausgewiesen werden, von denen viele identische Ergebnisse liefern und andere offensichtlich schlechte PV zum besten machen, dann ist das wohl kurios. Gegenüber [112] wurden die PVG 15, 16 und 26 neu aufgenommen. Bei PVG 20 und 21 wurden hier nur Zeitreihen mit Saisoneinfluss berücksichtigt. Die Ergebnisse zeigen, dass bei ZR ohne Saison nur AEK wirksamere Prognosen liefert als ESI bzw. ES2, und bei ZR mit Saison ist auch nur AEK wirksamer als NP2. Bei [112] wird zusätzlich noch die Erwartungstreue untersucht; sie korreliert stark mit der Wirksamkeit. Obwohl es nach Abbildung 7 bei saisonbeeinflussten ZR 14 PV gibt, die wirksamere Prognosen liefern als H/W, und 25 wirksamere als HR1, werden folgende Empfehlungen ausgesprochen: „Treten saisonale Nachfragezeitreihen auf, so venA/endet man das Verfahren von Win-
150
Matt
ters oder daraus abgeleitete Verfahren (z. B. Prognose-Formel in HÖREST)" ([147], S. 107 und [148], S. 242). Das Programm PROGNOSE-DIALOG von Scheer ([143], S. 46 f.) empfiehlt seinen Benutzern bei saisonalen ZR nur „GEEIGNETE(S) PROGNOSEVERFAHREN WINTERS-MODELL", obwohl Scheer auf S. 131 nachweist, dass bei seinen beiden Test-ZR sowohl MKQ (Regressionsmodell mit Zeitfunktionen) als auch das Harrison-Modell wirksamere Prognosen liefern. Der „Standardfehler" vom WintersModell ist in beiden Fällen um ca. 30 % größer, siehe auch ([144], S. 139) und ([145], S. 147). PVG 25 26 27 28 ZR
DQ S. DT VM [99] 216f B Abb.10 B [22] 50ff B [43] 242 B DAF mit externen Einflussgrößen
ZR 2 1 1 1 4
PIVI 15 3 228 12 258
GW 2 1 7 1 11
NPX 1 1 1 1 1
RGZ
RGE 0,801
0,239 0,982
0,639
0,889
0,675
AEK 0,402 0,176 0,507 0,366 0,445
PAFuPX 3,7 5,2 7,5 6,5
Tab. 9: Prognosevergleiche mit externen Einflussgrößen Auf Anregung von Mertens wurde die Abhängigkeit der Wirksamkeit vom Erscheinungsjahr der Prognoseverfahren mit Saisonberücksichtigung untersucht anhand 31 unabhängiger Prognosevergleiche bei saisonbeeinflussten Zeitreihen. Ergebnis: Die Wirksamkeit der neueren PV verschlechterte sich signifikant (99 %). 1960 wurde die untere Mertensschwelle überschritten (MS^), 1970 NP2 erreicht und 1981 die obere Mertensschwelle (MS^), d. h., der Erwartungswert ab 1982 sagt aus, dass die neuen PV wesentlich weniger wirksam sein werden als NP2. Zum gleichen Ergebnis kam Knolmayer bei den neuen „Bestellheuristiken": „Bemerkenswert ist, dass gerade neuere Verfahren ... überaus schlecht abschneiden" ([72], S. 227). Nieschlag/Dichtl/Hörschgen schreiben dazu ([126], S. 975): „Unabhängig davon sollte beim Einsatz moderner (Prognose-: G.M.)Verfahren eine gewisse Zurückhaltung geübt werden, da jene nicht zwangsläufig zu mehr Genauigkeit verhelfen."
1960
1965
1970
1975
1980
1985
1990 Jahr
Abb. 7: Wirksamkeitsgerade der Prognoseverfahren seit 1957 ([112], S. 9), WMG = 0,875 + 0,00935 (J-1957), (7= 0,147, tf, = 2,59, SSi, > 99 % 1996 veröffentlichte Steurer (Prognose von 15 Zeitreihen der DGOR mit Neuronalen Netzen, OR Spektrum 18 (1996) S. 117 ff.), dabei lieferte er Prognosen zum „Prognosetyp I (Prognosehorizont = 12 Monate)" und „Prognosetyp II (Prognosehorizont = 12x1 Monat)" [154], die Wirksamkeit der Prognosen ermittelte er mitFC^. über die 15
Adaptive Einflussgrößenkombination
151
Zeitreihen sowohl für Prognosetyp I FCNNJ = 1,04 = 15,6/15 als auch für Prognosetyp WFCNNJJ =
0,867 = 13/15. Da NP1 für saisonale Monatsprognosen denkbar ungeeignet ist (Theil hat sie für Jahresprognosen eingeführt, siehe auch Tabelle 8), wurde WMNN pro Zeitreihe j bestimmt durch ^ M ^ ^ =FC^j^^ IFC^^p . Über alle ZR gemittelt ergibt sich WMNNJ = 1,175 und WMNN, =1,369 und WMG(NN) =1,272, d. h., NN überschreitet in Abbildung 7 die obere Mertensschwelle beträchtlich und liegt auch weit über der Wirksamkeitsgeraden. Steurer (S. 124) „Falls also Regelmäßigkeiten in Form einer starken Saisonkomponente vorhanden sind, empfiehlt es sich, kein Neuronales Netz zu verwenden. Eher sollte dieses a priori Wissen durch ein konventionales Verfahren modelliert werden." 10.4 Beispiele für den praktischen Einsatz des Verfahrens der adaptiven Einflussgrößenkombination Mit dem nachfolgend beschriebenen Konsumgüter-Prognosemodell (siehe auch [70], [98], [105], [107], [27] und [68], S. 1316) wurden oder werden über 50 Lager aus verschiedenen Branchen disponiert (DIS 1 und DIS 1/L). Tabelle 10 zeigt die eingesparten Kosten. Branche
Lagerkosten in TDM bisher mit AEK
1 Fleischwarenindustrie Getränl<eindustrie Elektroindustrie Plastil<;industrie Lebensmittelgroßhandel Fachgroßhandel durchschnittlich
Lieferbereitschaft bisher mit AEK
Lagerbestand bisher mit AEK
Umsatz Mio. DM
1080
600
93 %
95 %
1800
1080
59
2200
1475
96 %
98 %
7880
5400
86
1050
540
99 %
99 %
10500
5400
36
1980
1490
96 %
98 %
6300
4500
42
1750
1030
96 %
97 %
5900
4200
120
600
335
95 %
97 %
3000
1695
20
1443
912
95,8 %
97,3 %
5897
3713
60,5
Tab. 10: Kosteneinsparungen mit AEK und optimaler Lagerwirtschaft Im Durchschnitt ergab sich eine Verringerung des Lagerbestands und der Lagerkosten um 37 % durch den Einsatz des AEK-Modells bei 1,5 % höherer Lieferbereitschaft. Unter Berücksichtigung der Geldentwertung seit 1971 würden sich 2004 durchschnittliche Lagerkosteneinsparungen von 1,1 Mio. € ergeben.
Das gesamte Modell ist zweistufig aufgebaut. In der ersten Stufe wird ein allgemeiner Ansatz für die Abhängigkeit der Zielgröße (in diesem Fall: Nachfrage) von der Zeit formuliert: 5
17
20
l
i=\
7=6
Ä:=18
/+5
(13)
Dabei bedeuten: x^ (z = 1,..., 5)
= Einflussgrößen für die Wochentage (z. B. x^^ = 1, falls es sich um einen Montag handelt, sonst 0)
152
Matt
Xj^ (7 = 6,..., 17)
= Einflussgrößen für die Monate (z. B. x^^ = 1 , falls es sich um den Monat Januar handelt, sonst 0) xj^f (Ä: = 18,19,20) = Einflussgrößen für die Dekaden (z. B. xjg^ = 1, falls es sich um die erste Dekade handelt, sonst 0) / = Zeit (in Wochen) b^ = Koeffizienten der Einflussgrößen Yf = Schätzung für den Erwartungswert der Zielgröße zum Zeitpunkt / Das hyperbolische Glied l/(/ + 5) wurde für die Anpassung von Anlauf- und Auslaufartikeln eingeführt, da sich bei Testläufen ergab, dass ein quadratischer Trend zu großen Extrapolationsfehlern führte. Je nach Anwendungsfall werden nicht benötigte Einflussgrößen weggelassen, z. B. wenn keine Tagesnachfragedaten vorliegen. Die Koeffizienten dieses Ansatzes werden mit schrittweiser Regression errechnet und haben für mehrere Prognoseperioden Gültigkeit. Für den Fehler, der durch die Abweichung zwischen Prognose- und Istwert entsteht, wird in einer zweiten Stufe des Modells nochmals ein exponentiell gewichteter Ausgleich vorgenommen: F,=y,-Y,
(14)
Ff = Schätzung für den Erwartungswert des Fehlers zum Zeitpunkt / Eine Neuberechnung der Gleichung (14) erfolgt in jeder Prognoseperiode. Ein Kontrollsignal cr^/cr^o ^'s Verhältnis der laufenden Standardabweichung cr^ zu der, welche bei der Erstellung der Prognosegleichung ermittelt wurde (cr^o), überwacht den Fehler des allgemeinen Ansatzes und löst bei Überschreiten einer vorgegebenen Grenze eine erneute Berechnung der Gleichung (13) aus. Den Disponenten werden viele Hinweise auf die Entwicklung der Artikel gegeben, z. B. sporadische Nachfrage, starker positiver Trend oder Anfangsartikel. Mit einem vorgebbaren Prozentsatz kann der Disponent die Trendextrapolation steuern, wenn er glaubt, dass sich der Trend nicht in voller Höhe fortsetzt (einfache Form einer kombinierten Prognose) mit gedämpftem Trend (siehe Abbildung 5). Das Prognoseprogramm wurde in COBOL programmiert und auf einer IBM/360-30 Plattenanlage mit 32 KB getestet. Mit Beobachtungswerten von vier Monaten ergab sich für die Prognoseberechnung von 150 Artikeln eine Laufzeit von neun Minuten. Da seit 1970 die Rechengeschwindigkeit etwa 500 mal höher ist, dürfte heute die Laufzeit bei ca. 1 sec. liegen. Ab der IBM/370 wurde das Programm zur Erstellung der Prognosegleichungen im „Background" mit niedrigster Priorität gefahren. Dadurch verbrauchte das Programm nur Rechenzeiten, die sonst ungenutzt geblieben wären, d. h., die Prognosegleichungen konnten fast kostenlos erstellt werden. Selbst bei vollem Preis für die Rechenzeit kostete 1970 die Erstellung einer Prognosegleichung nur ca. 0,1 DM. Dem ist die Behauptung von Chambers/Mullick/Smith gegenüberzustellen, dass beim „Regression model" „Cost of forecasting with a Computer $ 100" sind. Dagegen liegen die Kosten bei „Exponential Smoothing" bei $ 0,005, d. h., die Kosten sind bei der Regression 20000-fach so hoch ([17], S. 55 ff.). Traurig ist, wie sich die unhaltbaren Aussagen bis in die Gegenwart fortgepflanzt haben. Das Manager Magazin steigert beim „Regressions-Modell" die „Kosten der Prognose mit Computer" sogar auf „DM 800 und mehr" ([128], S. 54). Noch verrückter ist es, wenn das Manager Magazin die Kosten bei „Box-Jenkins" von $ 10 auf „DM 6.000 und mehr" (S. 53) steigert. Umgekehrt senken Mertens/Backert ([120], S. B6) und Nieschlag/Dichtl/Hörschgen ([126], S. 975) das Kosten- bzw. Rechenzeitverhältnis von Box-Jenkins zu „Exponential Smoothing" von 2000 auf 200. Offensichtlich übersehen haben Hillier/Liebermann, dass sich die Computerkosten von 1971 bis 1992 auf etwa 1/100 gesenkt haben, denn sie übernehmen die schon 1971 weit überhöhten Computerkosten auch für die Gegenwart ([50], S. 674 ff.). Bedauerlich ist auch die Fehlerfortpflanzung der Falschaussagen von Reif zur Re-
Adaptive Einflussgrößenkombination
153
gression in den IBM Nachrichten, Heft 177 (April 1966), S. 129 und ([135], S. 9 und Abbildung 17): „Es müssen alle Daten der Vergangenheit... gespeichert werden" und „Das Verfahren ist in seinem Formalismus relativ statisch, wodurch eine Gewichtung der Daten nicht möglich ist". Mir sind über 15 Literaturquellen bekannt, die diese und ähnliche Falschaussagen fast wörtlich übernommen haben (z. B. [143], S. 107, [159], S. 35 f.; [185], S. 86). Hinzuweisen ist noch auf die Plagiate ([135], S. 16 f., bei [99], S. 254 und [159], S. 34 ff., bei [135], S. 8 f.) sowie bei IBM Nachrichten, Heft 177, S. 129. Leicht widerlegbar sind die Aussagen von Bartmann/Schramm ([4], S. 86), wenn sie behaupten: „Der Rechenaufwand der linearen schrittweisen Regression ... wächst damit ebenfalls in der dritten Potenz der Variablen", denn die „Zahl der signifikanten Variablen" wächst längst nicht proportional mit der „Zahl aller Variablen". Abbildung 8 zeigt die Nachfrage (x) eines Artikels in einem Verkaufslager vom 1.7. bis 30.10.1969. Nach Speicherung der Nachfragedaten bis 30.9.1969 wurde die Prognosegleichung berechnet zu: / = 515,7 + 921,5 • -^^o«tog + 239,2 • X^^^^^^^g - 293,9 • y^frenag +173,6 • X^^p^^^jj^^
j) = 749 gibt den exponentiell gewichteten Mittelwert zum gleichen Zeitpunkt an. Die Standardabweichung reduzierte sich bei dem AEK-Modell gegenüber dem Exponential Smoothing von cr| =483 auf 0*2 =222. Die statistische Sicherheit betrug über 99 % für alle Koeffizienten der Gleichung. 2400 H
2000
1500
1000
Juli
Aug.
Sept.
Okt.
Zeit'
Abb. 8: Nachfragen (x) und Prognosen bei einem Lagerartikel ohne Oktoberdaten Auch die Oktobernachfragen wurden gut vorhergesagt. Abbildung 9 zeigt für den gleichen Artikel die Vorhersagegleichung nach Berücksichtigung der Oktobernachfragen: 7 = 624,5 + 922,5-Z^,,,^+254,6.X^_,,^-270.X^,,,,^-158,2.xJuli
154
Matt
y = 760 ist der exponentiell gewichtete Mittelwert zum gleichen Zeitpunkt. Die Standardabweichung ging von cri=458 (Exponential Smoothing) auf 0-2 =211 (AEK) zurück. Außerdem liegen 15 Nachfragen über y+cii, aber nur acht über ¥ + 0-2, d. h., bei dem AEK-Modell treten große Ausreißer seltener auf (das ist noch ein weiterer Vorteil für die Prognose). Es fällt auf, dass bei Berücksichtigung der Oktoberdaten für die Vorhersage die Julidaten signifikant von den anderen Werten abweichen, während sich in Abbildung 8 (ohne Berücksichtigung der Oktoberdaten) die Septemberdaten signifikant von den Juli- und Augustdaten unterscheiden. Das rührt daher, dass die Oktoberdaten stärker von den Julidaten abweichen als von den September- und Augustdaten. Der Test mit den 150 Artikeln zeigte, dass beim AEK-Modell die Standardabweichungen um 10 bis 60 % niedriger sind als bei Exponential Smoothing. Bei gleicher Lieferbereitschaft reduzieren sich die notwendigen Sicherheitsbestände noch stärker, da der Sicherheitsbestand bei konstanter Lieferbereitschaft überproportional von der Standardabweichung abhängt. Auf diese Weise können die Lagerkosten erheblich gesenkt werden. 2400
2000
1500
1000
500
Juli
Aug.
Sept.
Okt. Zeit
Abb. 9: Prognosen beim gleichen Artikel (Abbildung 8) mit Oktoberdaten Tabelle 11 zeigt die Nachfragevorhersagen und die Sicherheitsbestände für die Dispositionszeit (Distage) bei einer gewünschten Lieferbereitschaft von 95 %. Die Vorhersage wurde mittels Exponential Smoothing erster Ordnung vorgenommen (Kennzeichen 3 in der letzten Spalte).
Adaptive Einflussgrößenkombination Auslieferungslager 91 Dispositionstag 02.09.69. Liefertag 03.09.69. Reicht bis NachSicherh.Art.-Nr. Distage frage bestand 701,2 7 60.1 B ÖÖ3 004 20,7 12,0 B 8 7 1147,9 98,7 B 009 010 9 9,6 10,6 B 015 20 115,3 51,0 B 017 14 149,9 38.9 B 7 1717,4 59,8 B 018 11 7,8 B 019 9,1 72,2 78.1 B 028 9 029 11 303,8 35,4 B 7 108,1 46,3 B 030 031 7 455,8 79.4 B 032 7 256,1 51,0 B 035 9 105,0 47,0 B 037 37 341,7 67,8 B 040 64,6 9 53,3 B 045 7 321,4 52,1 B 049 22 37.9 19,7 B 057 9,7 9 10,3 B 058 29 149,8 32,0 B 060 7 184,4 128,5 B 062 7 176,8 35,9 B 066 7 444,1 36,1 B 069 64,9 52.9 B 9 070 11 8,3 7,9 B 072 9 14,0 17,4 B 075 7 437.6 61,1 B 076 15,5 14,8 B 15 078 7 27,0 18,8 B 085 7 259,0 32,6 B 087 31 19.9 15,1 B 090 7 220.6 60,3 B 092 7 290.5 42,9 B 093 21 139.0 155,6 B 094 7 201.5 217,6 B 099 7 100,8 26,2 B 7 182,2 100 30,5 B 112 29,7 B 7 526,0 114 7 291,8 65,7 B 117 7 554,0 74,6 B 118 7 325,2 52,6 B 119 7 950,2 108,7 B 121 7 636,2 208,2 B 122 10 155,8 20,1 B
10.09.69 IstBestand 101,7 0,0 -142,1 2,5 -30,0 0,0 -113.9 0,0 0,9 -89,7 132,5 -152,1 41.9 -0,5 -9,0 1.7 68,0 0,0 0,0 0,0 -57,5 58,6 52.5 7,5 0,0 0,0 -191,4 -5,0 2,1 -62,3 0,0 -104,4 -21,8 0,0 -173,3 2,0 10.0 -164,7 201,5 -190,4 -80,5 -90.7 191.8 -60.2
Ausr. für
i
0 0 2 -5 0 0 0 0 -3 8 -2 1 0 0 0 1 0 0 0 -2 2 0 1 0 0 -3 -4 0 -1 0 -3 0 0 -6 0 0 -2 4 -2 -1 0 2 -3
Bestell Kilo 659,6 32,7 1388,7 17,7 196,3 188,8 1891,1 16,9 149,4 428,9 21,9 687,3 265.2 152.5 418,5 116.2 305,5 57,6 20,0 181,8 370,4 154,1 427,7 110,3 16,2 31,4 690,1 35,3 43,7 353,9 35,0 385,3 355,2 294.6 592.4 125,0 202,7 720,4 156,0 819,0 458,3 1149,6 652,6 236,1
155
KZ 3 3 3 3 3 3 3 3 3 3 3 3 3 3 3 3 3 3 3 3 3 3 3 3 3 3 3 3 3 3 3 3 3 3 3 3 3 3 3 3 3 3 3 3
Tab. 11: Bestelldisposition für ein Verkaufslager, wobei die Nachfragen und Sicherheitsbestände mithilfe eines starren Exponential-Smoothing-Modells vorhergesagt werden. Gewünschte Lieferbereitschaft 95 % Die Bestelldisposition bei Tabelle 12 erfolgte mit dem AEK-Modell unter sonst gleichen Voraussetzungen. Die 3 in der letzten Spalte gibt an, dass bei den entsprechenden Artikeln nicht genügend Beobachtungsdaten (<25) für das Prognosemodell vorlagen, deshalb wurde mittels Exponential Smoothing vorhergesagt wie bei Tabelle 11. Der Vergleich zeigt, wie stark die Sicherheitsbestände und damit auch die Lagerkosten reduziert werden können. Addiert man die Sicherheitsbestände der Artikel aus Tabelle 12, die mittels des AEK-Modells vorhergesagt wurden (ohne Kennzeichen), so ergibt sich ein Sicherheitsbestand von 1217,6 gegenüber 1947,0 bei den gleichen Artikeln
156
Matt
von Tabelle 11 mit KZ = 3, d. h., die Sicherheitsbestände konnten gegenüber dem Exponential Smoothing bei gleicher Lieferbereitschaft um 37 % verringert werden. Auslieferungslager 91 Dispositionstag 02.09.69. Liefertag 03.09.69. Reicht bis Sicherh.Art.-Nr. Distage NachBestand frage 702,5 35,1 B 7 003 20,7 12,0 B 004 8 1210,2 15,5 B 009 7 10,6 B 010 9 9,6 119,7 19,7 B 015 20 149,9 38,9 B 017 14 1806,5 018 7 7,1 B
019 028 029 030 031 032 035 037 040 045 049 057 058 060 062 066 069 070 072 075 076 078 085 087 090 092 093 094 099 100 112 114 117 118 119 121 122
11 9 11 7 7 7 9 37 9 7 22 9 29 7 7 7 9 11 9 7 15 7 7 31 7 7 21 7 7 7 7 7 7 7 7 7 10
9,1 42,6 313,0 108,1 356,7 237,0 105,0 341,7 55,3 601,9 37,9
7,8 149,8 372,7 272,7 440,1 50,7
8,3 14,0 443,7
1.9 39,3 272,8 19,9 235,2 306,2 139,0 77,5 320,5 201,1 536,8 278,5 567,9 325,2 996,8 1874,0 154,5
7,8 B B B B B B B B B B B 7,9 B 32,0 B 82,9 B 6,3 B 19,4 B 32,6 B 7,9 B 17,4 B 33,9 B 15,7 B 13,8 B 27,7 B 15,1 B 55,1 B 36,7 B 155,6 B 233,5 B 6,1 B 11,1 B 3,2 B 42,5 B 68,5 B 52,6 B 89,2 B 32,2 B 17,0 B 79,2 29,4 46,3 64,8 41,1 47,0 67,8 28,0 11,3 19,7
10.09.69 IstBestand 101,7
0,0 -142,1
2,5 -30,0
0,0 -113,9
0,0 0,9 -89,7 132,5 -152,1 41,9 -0,5 -9,0
1,7 68,0
0,0 0,0 0,0 -57,5 58,6 52,5
7,5 0,0 0,0 -191,4 -5,0
2,1 -62,3
0,0 -104,4 -21,8
0,0 -173,3
2,0 10.0 -164,7 201,5 -190,4 -80,5 -90,7 191,8 -60,2
Ausr. für
1 0 0 2 -5 0 0 0 0 -3 8 -2 1 0 0 0 0 0 0 0 -1 1 0 1 0 0 -3 -38 0 -1 0 -3 0 0 -15 0 0 -2 5 -2 -1 0 0 -3
Bestell Kilo 635,9 32,7 1367,8 17,7 169,4 188,8 1927,5 16,9 120,9 432,1 21,9 573,6 236,2 152,5 418,5 81,6 545,2 57,6 15,7 181,8 513,1 220,4 407,0 75,8 16,2 31,4 669,0 22,6 50,5 362,8 35,0 394,7 364,7 294,6 484,3 324,6 202,2 704,7 119,5 826,8 458,2 1176,7 1714,4 231,7
KZ
3 3 3 3 3 3 3 3 3
3 3
3 3
Tab. 12: Bestelldisposition unter Verwendung eines anpassungsfähigen KonstumgüterPrognosemodells bei gleichen Voraussetzungen wie bei Tabelle 11 Eines der weiteren Einsatzgebiete ist die Disposition von Einzelhandelsfilialen, Kaufhäusern und Verbrauchermärkten (DIS 2/L) ([71], [106], S. 480f., [137]). Dabei wird keine artikelweise Erfassung der Abgänge benötigt, sondern die Nachfrage wird aus Zugängen und Bestandserfassungen abgeleitet. Bei einer weiteren Anwendung (DIS 2) werden 400 Fahrverkäufern die täglichen Belademengen vorgeschlagen ([67], S. 2135, [98]).
Adaptive Einflussgrößenkombination
157
Der Bayerische Sparkassen- und Giroverband prognostizierte 1975 monatlich ca. 5000 Zeitreihen (Bilanzpositionen) mit einem Modell MURA [29], das eine Kombination von schrittweiser Regression und exponentieller Glättung ist. Parallel dazu wird das Verfahren EXPO angewendet (modifiziertes EXFOR von IBM mit quadratischem Trend und vier Glättungsparametern). Ergebnis: „Das vollständige Modell MURA zeigt wesentlich bessere Ergebnisse als das Verfahren EXPO" ([29], S. 121). Nach Aussagen von Eufinger lief 1994 das Programm bei allen Rechenzentren der Sparkassen- und Giroverbände für Deutschland und Österreich. Über 20000 Bilanzpositionen werden damit laufend prognostiziert. Weckerle [172] verwendet eine Kombination von mehrfacher Regression und exponentieller Glättung zur Nachfrageprognose unter Berücksichtigung des vorhandenen Auftragsbestands. Hansmann [42] setzte ein AEK-Modell zur Prognose von Publikumszeitschriften ein. Entsprechend den Empfehlungen von Matt verbesserte er das Prognosemodell. Dadurch konnte der M4Pi^ von 2,7 % auf 2,4 % gesenkt werden ([43], S. 242). Weitere Anwendungsmöglichkeiten für AEK gibt es bei Prognosen zur Unternehmungsbewertung [12] und für Kostenprognosen [134]. Über Möglichkeiten bei der Unternehmensplanung berichten Heckmann/Schemmel [47]. Witte/Klein empfehlen AEK für Finanzprognosen [180]. Bei der Absatz- und Produktionsplanung wird LOGIS 1 verwendet ([21], [68], S. 1253). LOGIS 1 ist eine Erweiterung des Konsumgüter-Prognosemodells um 16 Einflussgrößen: einen gedämpften Trend, drei Tertialeinflüsse und 12 Einflussgrößen für Sondereinflüsse wie Feiertage, Ferienzeit, Betriebsurlaub, Aktionen und andere. Die Sondereinflüsse können betriebsindividuell definiert werden. Dazu ist nur nötig, dass man die Zeiträume angibt, in denen die Einflüsse wirksam waren oder sind. Haberbeck [41] empfiehlt in seiner Dissertation bei Gutenberg, „die schrittweise Regressionsanalyse ... mit exponentiell verteilten Gewichten" zur wirtschaftlichen Ermittlung von Verbrauchsfunktionen einzusetzen. Schrammel/Griese verwenden ein AEK-Modell mit externen Einflussgrößen zur Prognose der Studienanfängerzahlen ([150], S. 15). Im Rahmen der computergestützten Marketing-Planung haben die IBM-Mitarbeiter zur BrüggeAA/urms eine „gleitende gewichtete Regression" vorgestellt, die auf AEK aufbaut ([188], S. 121). Erfreulicherweise hat Meier gegen die Aussagen von Bartmann/Schramm ([4], S. 32) nachgewiesen, dass AEK sehr wohl „Tagesgenaue Prognosen" für Zahlungsströme liefern kann [114]. Das Problem bei der Stichprobeninventur ([108], [109], [160]) besteht darin, die Bestandsabweichungen bestmöglich zu prognostizieren. Mithilfe der Kombinierbaren Stichprobeninventur (KSI) wurden bei der ersten Anwendung im ersten Jahr 150.000 DM Kosten eingespart [129]. Aufgrund der Personalkostenerhöhungen seit 1981 würden im Jahr 2004 180.000 € eingespart. Bei der IBM Werkabendschule wurde von 1965 bis 1967 im Offline-Verfahren die Simulation als pädagogisches Hilfsmittel eingesetzt ([73], S. 302, [102], S. 15]). Die Schüler konnten dabei anhand des MIMS (Modular Inventory Management Simulator) die Lagerbewirtschaftung simulieren oder anhand des FORTRAN-Programms aus [104], S. 6) einen Prognosedialog führen. Dabei konnten die Schüler die Wirkungsweise von ESI, ES3 und AEKTM anhand beliebiger A-, tj^- und /^^^-Werte testen. 1973 führten Mertens und seine Schüler das Computerunterstützte Entscheidungstraining (CET) als
158
Matt
online-Verfahren ein ([118], [131], [136]). Dabei hat Reitbauer für das Prognosetraining das AEK-Programm aus [104] übernommen [136], S. 239 ff.). Das CET-Teachwarepaket wurde von mehreren Universitäten übernommen [118], S. 820). Ab Sommersemester 1973 war der CET-Kurs Pflichtbestandteil des Ausbildungsprogramms in Betrieblicher Datenverarbeitung [132], S. 184). An den Hochschulen gibt es mehrere Programme und Methodenbanken, die AEK enthalten, sogar für „Kleinrechner" ([22], [25], [151], S. 120). 1981 wiesen Ellinger/Asmussen/Schirmer im Rahmen einer RKW (Rationalisierungs-Kuratorium für die Deutsche Wirtschaft)-Untersuchung [27] nach, dass bei einem Großhandelsbetrieb dank AEK und dem Lagerbewirtschaftungssystem DIS 1/L [67], S. 2135) jährlich 429.000 DM Kosten eingespart werden. Eine erfreuliche Folge für die Unternehmung war, dass im nächsten Jahr durch gezielte Ausnutzung der gebotenen Möglichkeiten von DIS 1/L zusätzlich 396.000 DM eingespart wurden. Gewarnt werden sollte vor der Anwendung der schrittweisen (stepwise) Autoregression von Newbold/Granger, denn die Zielgröße Z^^y^-y^_^ bewirkt, dass NP1 unnötigerweise yoW in die Prognose eingeht (siehe auch [57], S. 96 und 139). Nach seinen Harrison-Modellen und „Bayesian models" ist Harrison nun wieder bei der „Discount Weighted Regression" [69], S. 923): „This is the general principle adopted by Ameen and Harrison, who generalize and formalize a multiple discount procedure first used by Harrison [45] in a seasonal/growth model". Erfreulich ist zwar, dass die schrittweise Regression bis zur deutschen Ökonometrie vorgedrungen ist, bedauerlich ist aber, dass sie dort oft unter dem irreführenden Namen „stufenweise Regression" ihr Dasein fristen muss ([138], [143], [149], [171]). Die stufenweise (stagewise) Regression gab es wahrscheinlich schon lange vor der schrittweisen, und es gibt sie heute noch ([24], [39], [113], [139]), sicherlich zur weitgehenden Verwirrung der Studenten und Praktiker. Zu warnen ist vor irreführenden Aussagen bei ([138], S. 105 ff.). Obwohl Hocking behauptet, dass sich die Regressionsrechnung von Gauß bis zur Entdeckung der schrittweisen Regression (1960) kaum verändert hat, „but by 1959 regression methodology had not changed appreciably", und Draper/Smith ([24], S. 310) zur „stepwise regression" schreiben: „we believe this to be one of the best of the variable selection procedures discussed and recommend its use", ist die schrittweise Regression kaum bis zu den deutschsprachigen Lehr- und Handbüchern der Statistik oder des Operations Research vorgedrungen. Bei den meisten taucht nicht einmal der Begriff im Sachregister auf, z. B. ([46], [48], [50], [78], [91], [116], [123], [141], [146], [183], [186], [187]). Das alles, obwohl reihenweise Vorträge bei OR-Tagungen gehalten sowie Aufsätze in Statistik- und OR-Zeitschriften publiziert wurden, z. B. ([99], [101], [104], [120], [178]). Außerdem gibt es mindestens seit 1963 ([99], S. 263) zahlreiche Programme zur schrittweisen Regression, zum Teil sogar mit freier Gewichtung. Siehe auch ([134], S. 260 ff.) zu den Programmen der DV-Hersteller sowie ([24], S. 344 ff.), [79], [184] zu den Statistik-Softwarepaketen. Eine hinlängliche Beschreibung der schrittweisen Regression fanden wir nur bei [32], denn die Beschreibungen bei ([153], S. 165 und [165], S. 195 f.) sind fehlerhaft und auch zu kurz (5 bzw. 42 Zeilen). Hinzuweisen ist noch auf falsche Einordnungen und Beschreibungen von AEK ([111], [133] sowie [83], S. 148, [85], S. 195, [140], S. 616 und 611, [57], S. 73). Neuerdings wird die schrittweise Regression auch in neueren Statistik-Lehrbüchern behandelt, leider oft sehr kurz. Z. B. bei Hippmann, H: Statistik, Stuttgart 2003, 3. Aufl. in 15
Adaptive Einflussgrößenkombination
159
Zeilen (S. 217), bedauerlicherweise wird sie im Stichwortverzeichnis unter „Regression, stufenweise" geführt. Bleymüller/Gehlert/Gülicher: Statistik für Wirtschaftswissenschaftler, München, haben ab der 9. Auflage 1994 den Abschnitt „24.2 Variablenauswahlverfahren" aufgenommen, dabei behandeln sie die schrittweise Regression in 26 Halbzeilen und empfehlen sie. So erfreulich es ist, dass Nieschlag/Dichtl/Hörschgen [126] ab der 18. Aufl. 1997 (S. 779 ff.) die schrittweise Regression behandeln und empfehlen „Die schrittweise Vorgehensweise ermöglicht es insbesondere, wechselseitige Abhängigkeit der Prädiktoren und damit eine Verletzung der Modellprämissen frühzeitig aufzudecken und ein hinsichtlich Umfang und Vorhersagegüte optimales Prädikatoren-Set zu bestimmen." So bedauerlich ist, dass sie dafür ein äußerst irreales „fiktives Beispiel" benutzen, das Backhaus/Erichson/PlinkeAA/eiber: Multivariate Analysemethoden, Berlin u.a. ab der 7. Aufl. 1993 veröffentlicht haben. „Es geht dabei um die Frage, welche der leicht steuerbaren Faktoren Preis, Ausgaben für Verkaufsförderung und Anzahl der Vertreterbesuche im Wesentlichen den Absatz eines Produkts in verschiedenen Verkaufsgebieten beeinflussen." ([126], 18. Aufl. S. 781). Dabei wird unterstellt, dass 37 „etwa gleich große Verkaufsgebiete" ausgewählt wurden. Eine höchst unwahrscheinliche Prämisse, da alle Gebiete ein gleiches Marktpotential haben müssten, andernfalls könnten nur Marktanteile verglichen werden. Außerdem schwanken die Preise für einen Margarinekarton von 7 bis 13 DM, zudem ist der Preiseinfluss als Einzelvariable nicht signifikant, tl = 0,9674, d. h., mit Preiseinfluss ist die Standardabweichung größer als ohne! Da bei der SPSS-Vorgabe von FIN = t]^ = 3,84 sowohl Konstante als auch die drei anderen Einflussgrößen bei der multiplen Regression signifikant sind, kann der Leser kaum einen Unterschied zur Vollregression feststellen, deshalb sollte die schrittweise Regression mit der Stichprobe der zehn ersten Verkaufsgebiete durchgeführt werden, wobei die Konstante keine Vorzugsrolle bekommen sollte, dann ergibt sich die optimale Regressionsgleichung in 2 Schritten. Wichtigste Größe sind die Vertreterbesuche x^, nächst wichtigster Einfluss ist die Verkaufsförderung JC2,, Preise und Konstante haben keinen signifikanten Einfluss, ihre /^-Werte liegen unter 1. Bemerkenswert ist noch, dass bei der vollen Regressionsgleichung mit allen Einflussgrößen der Preiskoeffizient B^ positiv ist, d. h., je höher der Preis, desto größer der Absatz. Soviel dazu, wie wichtig die Signifikanz der Koeffizienten ist. ;;^= 0,6622x2^+12,02x3, mit er = 132,69, ^^2 =7,716, ^53 =11,536,/^i =0,5656, ^^ =0,483 In der 6. Aufl. 1990 wird bei geringfügig geänderten Absatzwerten auf S. 24 (Tabelle 1.15) eine analoge Regressionsgleichung gezeigt, allerdings mit einer nichtsignifikanten Konstante mit t^ = 1,164. Offensichtlich hat bisher kaum ein Nutzer von SPSS gemerkt, dass SPSS das Kommando POUT(O.IO) (Tabelle 1.16, S. 24) bei der Konstanten nicht einhält, denn FOUT = 4^^. müsste bei 7 Freiheitsgraden 3,59 oder t^yj^ = 1,895 sein. Nichtsignifikante Konstanten können verursachen, dass signifikante andere Einflussgrößen nicht in die Regressionsgleichung aufgenommen werden. BedauerlichenA/eise kannte Kendali (M., Multivariate Analysis, London 1975) die deutschsprachige Literatur zur schrittweisen Regression [99], [177] und diesen Aufsatz aus der 1. Aufl. (1973) nicht, sonst wären seine „Problems in regression analysis" kein Problem mehr gewesen. Beim Bierproblem S. 95 mit 5 variablen Einflussgrößen findet nämlich die „stepwise foreward method" die signifikanten Einflussgrößen in der Reihenfolge X3, X2, X4, x^] Xj hat einen fANert = 0,224, sodass die Varianz für die volle
160
Matt
Gleichung 5,5 % höher ist. Die angegebenen 3er Subsets haben Varianzen, die 16,5 % bzw. 96,6 % höher liegen als beim besten 3er Subset, direkt gefunden von der aufbauenden schrittweisen Regression (ASR). Gegenüber der optimalen Lösung liegen sie um 65 % bzw. 178 % höher. Oosterhoff (S. 98) konnte 1963 den optimalen 2er Subset mit ASR noch nicht finden, da Wiezorke [177] den Variablenaustausch erst 1964 veröffentlicht hat. Damit war es möglich, da dort nur die Variable x^ gegen x^ auszutauschen war. Beim „(imaginary data)"-Problem (S. 99) gibt es echte Probleme, denn die Daten stimmen nicht, z. B. ^ ^ 2 = 117 und xi = 11,1 = 111/10. Setzt man die Daten in Gleichung (7.63) ein, dann erhält man R^ = 0,63855 statt 0,999. Korrigiert man die Daten und führt x^ =x^-x2 ein, dann ergibt sich die optimale Gleichung im 2. Schritt ;; = 25,57+ 10,207x3; er = 2,9325; 7?^ =0,994686;/^^ =38,7;/^ =27,53. Ein ähnliches Ergebnis erhält man mit der erweiterten schrittweisen Regression ohne JC3. :^ = 25,622 + 10,207XI-10,204JC2; ö- = 3,136;7?^ =0,994694. Auf S. 101 empfiehlt Kendall „we should do better to work out all the possible regressions with their associated R^ and choose from the complete array of possibilities." Andererseits sagt er „but they are expensive in machine time for p > 14". Nun werden aber seit 1969 bei zigtausend Artikeln Regressionsgleichungen mit p = 23 Einflussgrößen berechnet (siehe (13) bzw. 1. Aufl., S. 181). Seit 1984 gibt es bei L0GIS1 Regressionsgleichungen mit 39 Einflussgrößen [21]. Die irreführenden Aussagen von Kendall zur schrittweisen Regression haben auch den DGOR-Vergleich erreicht ([154], S. 42). AEK eignet sich nicht nur für die meist kurzfristige Lagerdisposition, sondern auch für Umsatz- und Nutzenprognosen, wie es das Beispiel einer rollierenden Umsatzprognose für ein SB-Warenhaus zeigt [106]. Dabei sind die Einflussgrößen für die externen Einflüsse vorgebbare Plandaten oder zeitverzögert angesetzte Größen. Nach der Analyse möglicher Einflussgrößen auf den Umsatz ergab sich folgendes Prognosemodell: U = ÜQ +aj • P
= Umsatz = konstanter Anteil = Zeiteinfluss (linearer Trend, P = Periode)
H
= Anlauf-, Auslaufeinfluss (hyperbolischer Zeiteinfluss)
^—
PD + a^
+
^ MP (PDy <1 ^4 j(MPy
+^5 •PE + « 6 - VF + a-j •PEVF + «8 •FW + üg •RW + a,o •ZW +«11' •PW + «,7 •SW + «n •GW + «14 •KW +«15 •SA
= linearer Preiseinfluss (Preisdifferenz ( P D ) zum Marktpreis ( M P ) )
= quadratischer Preiseinfluss ' Personaleinsatzeinfluss
(PE)
• Verkaufsflächeneinfluss (VF) - kombinierter Personal- und Verkaufsflächeneinfluss : Fernsehwerbungseinfluss (FW) : Rundfunkwerbungseinfluss (RW) : Zeitungswerbungseinfluss {ZW) : Prospektwerbungseinfluss {PW) : sonstiger Werbungseinfluss {SW) • Gesamtwerbungseinfluss {GW) • Konkurrenzwerbungseinfluss ( K W ) • Serviceaufwandseinfluss {SA)
(15)
Adaptive Einflussgrößenkombination
+f^brM.
= Saisoneinfluss {M^=\
161
für Monat / )
/=1
+ ZS
= Zufallsschwankungen
Der quadratische Ansatz des Preiseinflusses erfolgte, um nichtlineare Preiseinflüsse erfassen zu können, der Ansatz nach Werbeträgern und nach der Gesamtwerbung hat den Sinn, unterschiedliche Werbeeinflüsse im Zeitablauf auch dann feststellen zu können, wenn einzelne Werbeeinflüsse nicht die geforderte statistische Sicherheit erreichen. Umsatz (DM)
1 100 000
1 000 000
1969
1970
Zeit (Monate)
Abb. 10: Monatsumsätze (x) eines SB-Warenhauses und deren Prognose mit den Verfahren AEK, RGZ, NP1 und NP2. Entsprechend der Geldentwertung würden 2004 die Monatsumsätze in € etwa doppelt so hoch sein Die Prognosegleichung wurde mit Daten von 24 Monaten aufgestellt (x), die Monate 25 bis 27 (+) dienten als Testdaten. Es ergab sich folgende Prognosegleichung: f/(/>/1.000Z)M) = 356 + 4 - P - 3 8 0 2 • — +5,83-P£ +0,253-FF+ MP
+ 14,3-G^-43-M7-68-M8-42-M9+53-Mii+68-Mi2 Die Gleichung zeigt, dass ein positiver Umsatztrend vorliegt und dass Preisverhalten, Personaleinsatz, Verkaufsfläche und Werbung statistisch gesicherte Einflüsse auf den Umsatz haben. Außerdem stellte sich heraus, dass der Umsatz während der Urlaubsmonate (Juli bis September) zurückgeht und zum Ende des Jahres ansteigt (November und Dezember). Abbildung 10 zeigt die effektiven Umsätze und die Prognosewerte (Kurve). Die Umsätze von 1971 (+) wurden nicht bei der Berechnung der Prognosegleichung benutzt. Auch hier ergibt sich eine gute Übereinstimmung zwischen den effektiven und Prognosewerten. Die Standardabweichung (durchschnittlicher Fehler) beträgt 9.200 DM, d. h., mit 95 % Sicherheit können die Monatsumsätze bis auf ±18.400 DM und mit 68 % Sicherheit auf ±9.200 DM prognostiziert werden.
162
Matt
Weitere Anwendungsberichte und Beurteilungen von AEK findet man in ([5], [6], [7], [16], [19], [29], [31], [32], [33], [36], [40], [49], [56], [57], [70], [71], [75], [77], [80], [85], [88], [90], [98], [101], [104], [105], [106], [117], [119], [120], [121], [122], [130], [137], [143], [162], [182]), über 20 Dissertationen aus mindestens vier Ländern. 10.5 Literatur [I] [2] [3] [4] [5] [6]
[7] [8] [9] [10] [II] [12] [13] [14] [15] [16] [17] [18] [19]
[20] [21] [22]
[23] [24]
Abraham, B. und Ledolter, J., Statistical Methods for Forecasting, New York 1983. Bails, D. und Peppers, L., Business Fluctuations, Englewood Cliffs 1982. Bartmann, D. und Beckmann, M., Lagerhaltung, Berlin u.a. 1989. Bartmann, D. und Schramm, C, Ein Verfahren zur Prognose von Tagesdaten, in: [151], S. 31 ff. Bednar, L., Entwicklung eines Lagerhaltungsmodells für Ersatzteile, Dissertation, Hochschule für Welthandel Wien 1975 (man beachte die Korrekturen). Bednar, L. und Hasenauer, R., Adaptive und nichtadaptive Prognosemodelle - ein empirischer Methodenvergleich, in: Hasenauer, R. (Hrsg.), Modelle der computergestützten Marketingplanung, Meisenheim am Glan 1977, S. 357 ff. (Korrekturen beachten, sie können beim Verlag angefordert werden). Biethahn, J., Optimierung und Simulation, Wiesbaden 1978. Bowermann, B. u.a., Time Series and Forecasting, North Scituate 1979, 2. Aufl. 1987. Box, G.E.P. und Jenkins, G.M., Some Statistical Aspects of Adaptive Optimization and Control, Journal of the Royal Statistical Society B 24 (1962), S. 297 ff. Box, G.E.P. und Jenkins, G.M., Time Series Analysis, 2. Aufl., San Francisco 1976, 3. Aufl. 1994. Brenner, J. u.a., Difference Equations in Forecasting Formulas, Management Science 14(1968), S. 141 ff. Bretzke, W., Das Prognoseproblem bei der Unternehmungsbewertung, Düsseldorf 1975. Brown, R.G., Less Risk in Inventory Estimates, Harvard Business Review 33 (1959) 4, S. 104 ff. Brown, R.G., Smoothing, Forecasting and Prediction of Discrete Time Series, Englewood Cliffs 1963, Neuauflage 2004. Bruckmann, G. (Hrsg.), Langfristige Prognosen, 2. Aufl., Würzburg 1978. Burbulla, J., Kritische Analyse von HÖREST, Diplomarbeit, Universität Münster 1975. Chambers, J. u.a., How to Choose the Right Forecast Technique, Harvard Business Review45(1971)4, S. 45ff. Chow, W.M., Adaptive Control of the Exponential Smoothing Constant, The Journal of Industrial Engineering 16 (1965), S. 314 ff. DbO - Aktiengesellschaft für Datenverarbeitung und betriebswirtschaftliche Organisation (Hrsg.), Allgemeine Beschreibung des DbO-Systems DIS 1 - Disposition der Verkaufslagerstufen - Stand 8. 7. 1969, Zürich. DbO (Hrsg.), Konzeption für ein neues Prognosesystem, Arbeitspapier L6, Zürich 1981. DbO (Hrsg.), Allgemeine Beschreibung des DbO-Systems LOGIS 1, Zürich 1984. Dirr, U., Konzeption und Programmierung der Adaptiven Einflußgrößenkombination für ein Methodenbanksystem auf Kleinrechnern und Test des Verfahrens anhand von Wirtschaftsdaten, Diplomarbeit, Nürnberg 1979. D'Esopo, D., A Note on Forecasting by the Exponential Smoothing Operator, Operations Research 9 (1961), S. 686 f. Draper, N. und Smith, H., Applied Regression Analysis, 2. Aufl., New York 1981, 3. Aufl. 1998.
Adaptive Einflussgrößenkombination [25]
[26]
[27] [28] [29] [30]
[31] [32] [33] [34] [35] [36] [37] [38] [39] [40] [41] [42] [43] [44] [45] [46] [47]
[48] [49] [50] [51]
163
Eckardt, T., Möglichkeiten, Grenzen und Wirtschaftlichkeit der Realisierung von Methodenbankelementen auf arbeitsplatzorientierten Kleinrechnern, dargestellt am Beispiel einer Prognose-Methodenbank, Dissertation, Nürnberg 1981. Efroymson, M.A., Mehrfache Regressionsanalyse, in: Ralston, A. und Wilf, H.S. (Hrsg.), Mathematische Methoden für Digitalrechner, München-Wien 1967, S. 345 ff., 2. Aufl. 1972. Ellinger, T. u.a., Ergebnisverbesserung durch optimale Lagerbewirtschaftung, Eschborn 1981. Emde, W., Analyse- und Prognosemethoden in der rechnergestützten Absatzplanung, Köln 1977. Eufinger, J., Empirische Erfahrungen mit den Prognosemethoden des Sparkassenprognosesystems, IBM Nachrichten 25 (1975), S. 118 ff. Fahrmeir, L., Kaufmann, H.L. und Kredler, Ch., Modellwahl und numerische Aspekte bei der Bestimmung von Bayes-Klassifikatoren, Beitrag zur DGOR-Tagung 1979, Regensburg, in: [152], S. 341 ff. Fahrmeir, L., Rekursive Algorithmen für Zeitreihenmodelle, Göttingen 1981. Fahrmeir, L. u.a. (Hrsg.), Multivariate statistische Verfahren, Berlin u.a. 1984, 2. Aufl. 1996. Fahrmeir, L. u.a., Stochastische Prozesse, München u.a. 1981. Fischer, H., Eine kritische Übersicht über Vergleiche von Prognoseverfahren, Diplomarbelt, Nürnberg 1978. Fisher, R.A., Statistical Methods for Research Workers, 13. Aufl., London 1958. Gahse, S., Mathematische Vorhersageverfahren, München 1971. Gardner, E., Exponential Smoothing: The State of the Art, Journal of Forecasting 4 (1985), S. 1 ff. Gauß, C.F., Abhandlungen zur Methode der kleinsten Quadrate, Berlin 1887, Nachdruck 1986. Gerfin, H., Einige Probleme mittel- und langfristiger Marktprognosen, Schweizerische Zeitschrift für Volkswirtschaft und Statistik 97 (1961), S. 45 ff. Griese, J., Adaptive Verfahren im betrieblichen Entscheidungsprozeß, Würzburg-Wien 1972. Dissertationskurzfassung, Linz 1970. Haberbeck, H., Zur wirtschaftlichen Ermittlung von Verbrauchsfunktionen, Dissertation, Köln 1967. Hansmann, K.W., Absatzprognose für Publikumszeitschriften, Beitrag auf der DGORTagung 1979, Regensburg, in: [152], S. 313 ff. Hansmann, K.W., Die Anwendung der Spektral- und Regressionsanalyse bei der Absatzprognose von Zeitschriften, in: [151], S. 231 ff. Hansmann, K.W., Kurzlehrbuch Prognoseverfahren, Wiesbaden 1983. Harrison, P.J., Short-Term Sales Forecasting, Applied Statistics 14 (1965), S. 102 ff. Härtung, J. u.a., Statistik, Lehr- und Handbuch der angewandten Statistik, 8. Aufl., München 1991, 13. Aufl. 2002. Heckmann, N. und Schemmel, F., Die Anwendung der Regressionsrechnung zur Entwicklung quantitativer Prognosemodelle, Zeitschrift für betriebswirtschaftliche Forschung 23(1971), S. 42 ff. Heinhold, J. und Gaede, K.W., Ingenieurstatistik, 3. Aufl., München-Wien 1972, 4. Aufl. 1979. Heinzeibecker, K., Partielle Marketing-Informationssysteme, Frankfurt u.a. 1977. Hillier, F. u.a., Einführung in Operations Research, 4. Aufl., München 1992, 5. Aufl. 1997. Hocking, R., Developments in Linear Regression Methodology: 1959-1982, Technometrics25(1983), 219ff.
164 [52] [53] [54] [55] [56] [57] [58] [59] [60] [61] [62] [63] [64] [65] [66] [67] [68] [69] [70] [71] [72] [73] [74] [75] [76] [77] [78] [79] [80] [81] [82] [83] [84]
[85]
Matt Holt, C.C., Forecasting Seasonals and Trends by Exponentially Weighted Moving Averages, Pittsburg 1957, Office of Naval Research ONR Memorandum 52. Hüttenwerk Rheinhausen, Einflußgrößenrechnung am Hochofen, Rheinhausen 1960. Hüttenwerk Rheinhausen, Berechnung des maximalen Stahldurchsatzes der Tieföfen, Rheinhausen 1960. Hüttenwerk Rheinhausen, Durchführung einer Regressionsanalyse über den Koksverbrauch, Rheinhausen 1962. Hüttner, M., Informationen für Marketing-Entscheidungen, München 1979. Hüttner, M., Prognoseverfahren und ihre Anwendung, Berlin-New York 1986. IBM (Hrsg.), Lagerdisposition mit MINCOS, IBM Form 80630, 1966. IBM (Hrsg.), IMPACT-Handbuch, Teil 1, IBM Form 80582, 1965. IBM (Hrsg.), EXFOR 1 und 2 - Bedarfsvorhersage mittels exponentiell gewichteter, gleitender Mittelwerte, IBM Form 72139, 1969. IBM (Hrsg.), IMPACTfürden Einzelhandel, IBM Form 80558, 1969. IBM (Hrsg.), PICS - Lagerbewirtschaftungssystem für Fertigungsbetriebe, IBM Form 81912, 1970. IBM (Hrsg.), Distributions-, Informations- und Optimierungs-System Anwendungsbeschreibung, IBM Form E12-1077-0, 1971. IBM (Hrsg.), IBM AS Statistische Analysen und Vorhersageverfahren, Handbuch, Stuttgart ca. 1984. IBM (Hrsg.), COPICS Inventory Planning and Forecasting II, Handbuch, Atlanta 1990. IBM (Hrsg.), Produktionsplanungs- und Steuerungssystem CAS für IBM AS/400: Systemmodule für den Fertiger, IBM Form GT12-4130, 1990. Infratest Informations Services (Hrsg.), ISIS Software Report 2, München 1976. Infratest Informations Services (Hrsg.), ISIS Software Report 2, München 1985. Johnston, F. und Harrison, P., Discount Weighted Regression, Journal of the Operational Research Society 35 (1984), S. 923 ff. Kempe, H., Lagerbewirtschaftung mit den DbO-Systemen DIS 1 und DIS 2, Cash and Carry10(1972), S. 20. Kempe, H. und Lau, R., Erstes EDV-Programm für den Lebensmitteleinzelhandel, Lebensmittelzeitung Nr. 29 vom 20. 7. 1973, S. 16 ff. Knolmayer, G., Ein Vergleich von 30 „praxisnahen" Lagerhaltungsheuristiken, in: Ohse, D. u.a. (Hrsg.), Operations Research Proceedings 1984, Berlin u.a. 1985, S. 223 ff. Köcher, D. u.a., Einführung in die Simulationstechnik, Berlin u.a. 1972. Kredler, C, Schrittweise Regression und rekursive Parameterschätzung, TUM-ISU7919, Technische Universität München 1979. Kredler, C , Schrittweise Verfahren für multinomiale und verwandte Regressionsmodelle, Dissertation, Technische Universität München 1981. Kress, G., Practical Techniques of Business Forecasting, Westport 1985. Kreuz, W., Dynamische Absatzprognoseverfahren, Zürich 1979. Kreyszig, E., Statistische Methoden, 7. Aufl., Göttingen 1991. Küffner, H. u.a., Datenanalysesysteme für statistische Auswertungen, Stuttgart 1985. Lanzdorf, A., Lernende Prognoseverfahren, Diplomarbeit, Hochschule Linz 1970. Legendre, A.M., Nouvelles Methodes pour la Determination des Orbites des Cometes, Paris 1806. Levenbach, H. und Cleary, J., The Modern Forecaster, Belmont 1984. Lewandowski, R., Prognose- und Informationssysteme und ihre Anwendungen, Band 1, Berlin-New York 1974. Lewandowski, R., Prognosesysteme und ihre heutigen Anwendungsmöglichkeiten in der Unternehmensführung, in: GöppI H. und Opitz, O. (Hrsg.), Information und Prognose, Meisenheim 1975, S. 49 ff. Lewandowski, R., La Provision ä Court Terme, Paris 1979.
Adaptive Einflussgrößenkombination [86] [87] [88] [89] [90] [91] [92] [93] [94] [95] [96] [97] [98] [99]
[100] [101]
[102] [103]
[104] [105] [106]
[107] [108] [109] [110] [111] [112] [113]
165
Lewandowski, R., Forecasting Incorporating Special Events and Marketing Actions, in: [93], S. 371 ff. Lewandowski, R. und Maurer, G., PROCOM - ein universelles kurzfristiges Analyse- und Prognosesystem, Angewandte Informatik 14 (1972), S. 345 ff. Lienhard, H., Die Methode der fortlaufenden exponentiellen Ausgleichung, Elektrizitätsverwertung 46 (1971) 6, S. 169 ff. Linder, A., Statistische Methoden für Naturwissenschaftler, 4. Aufl., Basel 1964. Littger, K., Standardregister des Operations Research, München 1973. Lohse, H. u.a.. Statistische Verfahren, 2. Aufl., Berlin (Ost) 1986. Makridakis, S. und Wheeiwright, S., Interactive Forecasting, 2. Aufl., San Francisco 1978. Makridakis, S. und Wheeiwright, S., The Handbook of Forecasting, New York 1982, 2. Aufl. 1987. Makridakis, S. u.a., Accuracy of Forecasting, Journal of the Royal Statistical Society A 142(1979), S. 97ff. Makridakis, S. u.a., Prognosetechniken für Manager, Wiesbaden 1980. Makridakis, S. u.a., The Accuracy of Extrapolation (Time Series) Methods, Journal of Forecasting 1 (1982), S. 111 ff. Makridakis, S. u.a., Forecasting: Methods and Applications, 2. Aufl., New York 1983, 3. Aufl. 1998. Marx, W., Zwei neue Absatzprognose- und Lagerbewirtschaftungssysteme: DIS 1 und DIS 2, Zeitschrift für Datenverarbeitung 8 (1970), S. 397 ff. Matt, G., Die schrittweise Regressionsanalyse und ihre Anwendungsmöglichkeit im kaufmännischen Bereich, Ablauf- und Planungsforschung 4 (1963), S. 254 ff., auch als Sonderdruck IBM Form 78132. Matt G., Ein anpassungsfähiges Modell für Prognosen, Sindelfingen 1964, Paper zum IBM SE-Symposium 1965. Matt, G., Bestimmung statistisch gesicherter Koeffizienten bei der exponentiellen Ausgleichung (Exponential Smoothing), Unternehmensforschung 10 (1966), S. 15 ff., Beitrag zur DGU-Tagung 1963. Matt, G., Neue Wege des Lehrens, Lernens und Übens - Computer Assisted Instruction (CAI), IBM Form 81542, 1967, Beitrag zum IBM SE-Symposium 1967. Matt G., Wirtschaftliche Bestellmenge bei stochastischer Nachfrage (Optimale Lagerhaltung), in: Busse von Colbe, W. u.a. (Hrsg.), Der Computer im Dienste der Unternehmungsführung, Bielefeld 1968, S. 75 ff., Beitrag zur DGU-Tagung 1966. Matt, G., Ein lernfähiges Modell zur Bestimmung von Zusammenhängen anhand beobachteter Daten, IBM Form 81545, 1967, Beitrag zur DGU-Tagung 1965. Matt, G., Stand und Möglichkeiten der Lagerbewirtschaftung im Handel (Systeme der Lagerbestandskontrolle), Rationeller Handel 15 (1972) 3, S. 22 ff. Matt, G., Welche Prognoseverfahren müssen bereitgestellt werden? Abschnitt 6.2 im unveröffentlichten Projektbericht: Branchenorientiertes Marktdatensystem (MADAS), Universität Erlangen-Nürnberg 1973, S. 476 ff. Matt, G., Optimale Losgröße und Lieferbereitschaft bei stochastischer Nachfrage, Beitrag zur DGOR-Tagung 1979, Regensburg. Matt, G., Zur Stichprobeninventur, Wirtschaftsprüfung Nr. 7, 1980, S. 192 ff. Matt, G., Kombinierbare Stichproben-Inventur, Eigenveröffentlichung, Augustdorf 1983. Matt, G., Konzeption für ein neues Prognosesystem, Augustdorf 20.06.1983. Matt, G., Offener Brief an Dr. G. Quelle, DGOR Bulletin Nr. 26, 1983, S. 19. Matt, G., Quantitativer Vergleich bekannter Prognosevergleiche, Beitrag zur DGORTagung 1985, Kurzfassung in: [163], S. 333 ff., von Streitferdt unautorisiert verfälscht. Meffert, H. und Steffenhagen, H., Marketing-Prognosemodelle, Stuttgart 1977.
166 [114] [115] [116] [117] [118] [119] [120]
[121] [122] [123] [124] [125] [126] [127] [128] [129] [130] [131] [132] [133] [134] [135] [136] [137] [138] [139] [140] [141] [142] [143] [144] [145] [146] [147]
Matt Meier, H., Zahlungsstromprognosen und optimale Liquiditätsdisposition bei Kommunen, Dissertation, Nürnberg 1984. Melzer-Ridinger, R., Materialwirtschaft, 2. Aufl., München 1991, 3. Aufl. 1994. Menges, G., Die Statistik, Wiesbaden 1982. Merkle, E. und Schmitt, W., Die Gestaltung von Branchendatenbanken, Zeitschrift für allgemeine und textile Marktwirtschaft, o.J. (1974) 1, S. 1 ff. Mertens, P. u.a.. Das computerunterstützte Entscheidungstraining, Zeitschrift für Betriebswirtschaft 45 (1975), S. 793 ff. Mertens, P., Prognoserechnung - ein Überblick, Betriebswirtschaftliche Forschung und Praxis6(1983), S. 469ff. Mertens, P. und Backert, K., Vergleich und Auswahl von Prognoseverfahren für betriebliche Zwecke, Zeitschrift für Operations Research 24 (1980), S. B1 ff., Beitrag zur DGOR-Tagung 1979. Möllers, P., Das Prognosesystem PROFIL, Arbeitsbericht Nr. 20, Ruhr-Universität Bochum, 2. Aufl., Bochum 1982. Mörgel, K., Ermittlung des Bedarfs an Farbteilen im Automobilbau, Dissertation, Bremen 1986. Müller-Merbach, H., Operations Research, 3. Aufl., München 1973. Muller, H. u.a., Forecasting Accuracy, Cost Minimization and Investment Optimization in Inventory Management, Arbeitsbericht, Universität Gent 1977. Newbold, P. u.a., Experience with Forecasting Univariate Time-Series, Journal of the Royal Statistical Society A 137 (1974), S. 131 ff. Nieschlag, R. u.a., Marketing, 15. Aufl., Berlin 1988, 18. Aufl. 1997. Nomina Information Services (Hrsg.), ISIS Engineering Report 1, München 1992. O.V., 18 brauchbare Prognoseverfahren, Manager Magazin 1 (1971) 1, S. 51 ff. O.V., Die Inventurkosten um 90 % senken, Impulse 12 (1982), S. 64 ff. Olivier, G., Material- und Teiledisposition, Bonn 1977. Österle, H., Das Computerunterstützte Entscheidungstraining, Dissertation, Nürnberg 1973. Plötzeneder, H. u.a., Wirtschaftsinformatik III, EDV-Anwendungen, Stuttgart 1980. Quelle, G., Prognoseverfahren mit empirischer Saisonanalyse und exponentieller Glättung, in: [154], S. 15 ff. Recksiegel, W., Die Anwendung der Regressions- und Korrelationsanalyse in der Kostenrechnung, Dissertation, Münster 1972. Reif, K., Bedarfsvorhersage mittels mathematisch-statistischer Verfahren, IBM Form 81518, 1966. Reitbauer, F., Das Trainingssystem im Computerunterstützten Entscheidungstraining, Dissertation, Nürnberg 1973. Rennert, H., Automatische Disposition - kein Wunschtraum mehr. Rationeller Handel 17 (1974)12, S. 2 ff. Rinne, H., Ökonometrie, Stuttgart 1976. Rogge, H., Methoden und Modelle der Prognosen aus absatzwirtschaftlicher Sicht, Berlin 1972. Rosentreter, J., Prognosen in der industriellen Planung, Zürich u.a. 1977. Sachs, L., Angewandte Statistik, 6. Aufl., Berlin u.a. 1984, 10. Aufl. 2004. SAP AG (Hrsg.), System RM 4.3, M04.2 Funktionsabläufe am Bildschirm, Bedarfsplanung/Disposition, Walldorf 1989, Blatt-Nr. 4.4.4.1-1. Scheer, A.W., Absatzprognosen, Berlin u.a. 1983. Scheer, A.W., Computer: A Challenge for Business Administration, Berlin u.a. 1985. Scheer, A.W., EDV-orientierte Betriebswirtschaftslehre, 2. Aufl., Berlin u.a. 1985. Schlittgen, R., Einführung in die Statistik, 3. Aufl., München 1991, 10. Aufl. 2003. Schneeweiß, C, Modellierung industrieller Lagerhaltungssysteme, Berlin u.a. 1981.
Adaptive Einflussgrößenkombination [148] [149] [150] [151] [152] [153] [154] [155] [156] [157] [158] [159] [160] [161] [162] [163] [164] [165] [166] [167] [168] [169] [170] [171] [172] [173] [174] [175] [176] [177] [178] [179] [180]
167
Schneeweiß, C, Lagerhaltung, in: Gal, T. (Hrsg.), Grundlagen des Operations Research, Band 3, 3. Aufl., Berlin u.a. 1992, S. 220 ff. Schneeweiß, H., Ökonometrie, 4. Aufl., Würzburg 1990. Schrammel, D. und Griese, J., Prognose-Informations-System und Auslastungs-Informations-System, Weinheim u.a. 1971. Schwarze, J. (Hrsg.), Angewandte Prognoseverfahren, Herne 1980. Schwarze, J. u.a. (Hrsg.), Proceedings in Operations Research 9, Würzburg 1980. Schwarze, J., Grundlagen der Statistik: beschreibende Verfahren, Herne 1981, 9. Aufl. 2001. Schwarze, J. u.a. (Hrsg.), Prognoseverfahren im Vergleich, Braunschweig 1982. Siemens (Hrsg.), Wirtschaftliche Lagerhaltung mit HÖREST, data praxis 2-2600-491, ca. 1969. Siemens (Hrsg.), SAVOY 1 - ein Programmsystem zur Bedarfsprognose, data praxis 2-2600-708, ca. 1969. Späth, H., Klassenweise Regressionsanalyse, Beitrag zur DGOR-Tagung 1979, Regensburg, Kurzfassung in: [152], S. 350 f. Späth, H., Mathematische Software zur linearen Regression, München-Wien 1987. Sperry Rand Univac, UNIS-Univac-Industrie-System, BA 21810, Frankfurt 1972. Steinecke, V. u.a., Arbeitsthesen zur Stichprobeninventur, Die Wirtschaftsprüfung o.J. (1980)14/15, S. 385 ff. Steininger, H., Prognoseverfahren im Absatz- und Materialbereich, Eschborn 1985. Stöppler, S., Nachfrageprognose und Produktionsplanung bei saisonalen und konjunkturellen Schwankungen, Würzburg 1984. Streitferdt, L. u.a. (Hrsg.), Operations Research Proceedings 1985, Berlin u.a. 1986. Theil, H., Who Forecasts Best?, International Economic Papers o.J. (1955) 5, S. 194 ff. Tiede, M., Statistik, Regressions- und Korrelationsanalyse, München 1987. Trigg, D.W. und Leach, A.G., Exponential Smoothing with an Adaptive Response Rate, Operational Research Quarterly 18 (1967), S. 53 ff. UNIVAC (Hrsg.), ALDOS - Lagerbewirtschaftungssystem für den Handel, BA 15500, 1970. UNIVAC (Hrsg.), FORTRAN-Programm der Bedarfs- und Verkaufsvorhersage mit Hilfe derExponential-Smoothing-Methode, UVU-VMT 8-66, 1965. Van Dobben de Bruyn, CS., Prediction by Progressive Correction, Journal of the Royal Statistical Society B 26 (1964), S. 113 ff. Volkmer, P., Entwurf und Realisierung eines Modells zur kurzfristigen Prognose, Diplomarbeit, Universität Dortmund 1977. Weber, K., Wirtschaftsprognostik, München 1990. Weckerle, J., Bedarfsprognose durch Hochrechnung des Auftragsbestandes, Beitrag zur DGOR-Tagung 1979, Regensburg, in: [152], S. 308 ff. Widrow, R., Adaptive Filters, in: Kaiman, R. u.a. (Hrsg.), Aspects of Network and System Theory, New York 1971, S. 563 ff. Wiener, N., Kybernetik, Reinbek 1968. Wiese, K.H., Exponential Smoothing - eine Methode der statistischen Bedarfsvorhersage, IBM Form 78129, 1964. Wiese, K.H., Mittelfristige Bedarfsvorhersage in der Konsumgüterindustrie, IBM Form 78170, 1965, Beitrag zum IBM SE-Symposium 1965. Wiezorke, B., Auswahlverfahren in der Regressionsanalyse, Rundschreiben Nr. 27 der AG Technische Statistik im Verein Deutscher Eisenhüttenleute, Düsseldorf 1964. Wiezorke, B., Auswahlverfahren in der Regression, Metrika 12 (1967) 1, S. 68 ff. Winters, P.R., Forecasting Sales by Exponentially Weighted Moving Averages, Management Science 6 (1960), S. 324 ff. Witte, E., Finanzplanung der Unternehmung, Reinbek 1974, 3. Aufl. 1983.
168 [181] [182] [183] [184] [185] [186] [187] [188]
Matt Woitschach, M., Anmerkungen zur Regressionsanalyse, IBM Nachrichten 24 (1974), S. 55 ff. Woitschach, M., Wissenschaftliche Zukunftsvorhersagen und ihre sinnvolle praktische Nutzung, in: Lindemann, P. und Nagel, K. (Hrsg.), Organisation, Neuwied u.a. 1982. Yamane, T., Statistik, Ein einführendes Lehrbuch, Band 1 und 2, Frankfurt 1976. Younger, M., Handbook for Linear Regression, North Scituate (Mass.) 1980. Zeigermann, J., EDV in der Materialwirtschaft, Stuttgart 1970. Zimmermann, H., Methoden und Modelle des Operations Research, 2. Aufl., Braunschweig u.a. 1992. Zimmermann, W., Operations Research, 5. Aufl., München 1990, 10. Aufl. 2001. Zur Brügge, J. und Wurms, J., Zeitreihenanalyse- und Vorhersageverfahren, in: Hansen, H. (Hrsg.), Computergestützte Marketing-Planung, München 1974, S. 108 ff.
11 Mittel- und langfristige Absatzprognose auf der Basis von Sättigungsmodellen von Peter Mertens und Jürgen Falk 11.1 Einleitung Bei einer Reihe von Produkten ist es relativ gut möglich abzusehen, nach welcher Absatzmenge der Markt gesättigt sein wird. Daher eignet sich die Sättigungsgrenze als Parameter eines Prognosemodells, das vor allem den mittel- oder langfristig erreichbaren Absatz abzuschätzen gestattet. Im Rahmen von Produktionsplanungssystemen oder auch solchen zum Lieferkettenmanagement (Supply Chain Management) dürfte besonders der Fall bedeutsam sein, bei dem die Absatzmengen des nächsten Halbjahres oder Jahres vorhergesagt werden sollen. Es ist aber auch möglich, von beobachteten Werten der Funktion auf die Höhe des Sättigungswertes zu schließen und den ungefähren Zeitpunkt anzugeben, zu dem er bis zu einem bestimmten Prozentsatz erreicht sein wird. Verwandt mit den Modellen, bei denen von einer Marktsättigung ausgegangen wird, ist ein Verfahren zur Prognose des Marktanteils, der von einem neuen Produkt erobert werden kann; dieses Modell wird daher hier mitbehandelt. Im übrigen ist die Absatzprognose auf der Basis von Sättigungsmodellen eng mit der Theorie des Produktlebenszyklus verwandt. Abbildung 1 verdeutlicht den Zusammenhang. Allgemein gültige Produktlebenszyklen wurden von der absatzwirtschaftlichen Diffusionstheorie mitbegründet, die vor allem auf Rogers [46] zurückgeht. Während Produktlebenszyklen die zeitliche Verteilung der Absatzzahlen beschreiben, stellen die Diffusionsverläufe lediglich die Verteilung des Zeitpunkts dar, zu dem erstmalig gekauft wurde [21]. Absatz
^ t, Jahre Abb. 1: Produktlebenszyklus und Sättigungsfunktion Wegen der großen Zahl von Modellen kann nur ein Ausschnitt dargestellt werden. Umfangreichere und tiefergehende Analysen einschlägiger Modelle zu Marktsättigung,
170
Mertens, Falk
Produktlebenszyklus und Diffusion von Innovationen findet der Leser z. B. bei Lewandowski [31], Ulrich und Köstner [52], Pfeiffer und Bischof [44] sowie Mahajan und Petersen [35]. 11.2 Systematik und grober Überblick Innerhalb der Gliederung bieten sich folgende Einteilungskriterien für die Absatzfunktion an, mit denen wir uns in diesem Abschnitt befassen wollen: 1.
Der charakteristische Punkt in einer Wachstumsfunktion ist der Wendepunkt. In der Vorhersagetheorie interessiert man sich dafür, ob die Kurve um den Wendepunkt herum symmetrisch verläuft oder nicht. Entsprechend differenziert man in den symmetrischen und den asymmetrischen Typ der Prognosefunktion.
2.
In Anknüpfung an 1. lässt sich auch unterscheiden, ob der Wendepunkt beliebigen Zeiten des Ausbreitungsprozesses zuordenbar ist und damit unterschiedliche symmetrische und asymmetrische Verläufe einstellbar sind oder nicht. Bei Grundmodellen ist im Gegensatz zu flexiblen Modellen der Wendepunkt über der Ordinate fix (z. B. beim logistischen Modell immer bei 50 % Marktsättigung) oder nur eingeschränkt variierbar (z. B. beim Bass-Modell zwischen 0 und 50 % Marktsättigung).
3.
Es ist danach zu differenzieren, ob der Prozess sich „aus sich selbst entwickelt" und unabhängig von äußeren ökonomischen Einflüssen bleibt (endogener Prozess) oder auch andere Einflussfaktoren, wie z. B. das Wachstum des Volkseinkommens, herangezogen werden (exogener Prozess) (vgl. hierzu [8]).
4.
Wir können auch danach unterscheiden, ob wir es mit der Annahme eines homogenen oder eines inhomogenen Absatzmarktes zu tun haben. Bei einem inhomogenen Absatzmarkt gibt es verschiedene Abnehmerschichten, in denen das Produkt sich mit unterschiedlicher Geschwindigkeit verbreiten wird, während das bei einem homogenen Absatzmarkt nicht der Fall ist.
5.
Eine weitere wichtige Differenzierung ist danach zu treffen, ob die Sättigungsgrenze als konstant oder als von der Zeit abhängig angenommen wird. Im letzteren Fall liegt die Sättigungsgrenze umso höher, je länger sich ein Produkt am Markt halten kann.
6.
Modellen für Erstkäufe, die wir vorwiegend behandeln, lassen sich auch solche mit Komponenten für Ersatz- und Wiederholungskäufe gegenüberstellen.
7.
Man kann auch danach differenzieren, ob die Modelle auf individuellen Paneloder aggregierten Marktdaten basieren. Da letztere keinen Aufschluss über spezifische Verhaltensweisen von Konsumenten geben, wird bei zugehörigen Prognosemodellen die Parameteranzahl klein gehalten (vgl. hierzu [42]).
8.
Schließlich könnte man auch deterministische und stochastische Ansätze unterscheiden.
Wir bilden zunächst vier große Modellklassen (vgl. Abbildung 2), für die mit obigen Kriterien unterschiedliche Differenzierungen sinnvoll sind. Der kombinatorische Umfang reduziert sich allgemein dadurch, dass sich die unter 1. eingeführte Unterscheidung in
Mittel- und langfristige Absatzprognose auf Basis von Sättigungsmodellen
171
symmetrische und asymmetrische Funktionen lediglich bei solchen Modellen anbietet, die eine feste Sättigungsgrenze enthalten. Flexible Modelle können je nach Parametereinstellung verschiedenen Kategorien und daher keinem festen Schema zugeordnet werden.
Grundmodelle
Flexible Modelle Sättigungsmodelle f"
'
!'
"""^
V
EnA/eiterte Modelle für Erstkäufe
Modelle mit Komponenten für Wiederholungskäufe Abb. 2: Grobgliederung von Sättigungsmodellen Wir wollen von den Grundmodellen ausgehen und diese verhältnismäßig detailliert analysieren. Das logistische und das exponentielle Modell erweisen sich als Bausteine des Bass-Modells. Als bekannteste asymmetrische Wachstumsfunktion stellen wir die Gompertz-Kurve vor. Anschließend diskutieren wir verschiedene flexible Modelle, darunter die generalisierten logistischen Funktionen von Lewandowski [31] sowie Bewiey und Fiebig [5] und das verallgemeinerte Bass-Modell von Easingwood u.a. [14] (vgl. Abschnitt 11.4). Aus der Klasse der erweiterten Verfahren stellen wir neben anderen die Modelle von Weblus (Abschnitt 11.5.3) und Bonus (Abschnitt 11.5.4) vor. Zur Integration von Ersatzbedarf beschreiben wir in Abschnitt 11.6 einen auf aggregierten Zeitreihen basierenden Ansatz von Olsen und Chol [42]. Außerdem skizzieren wir das Modell von Parfitt und Collins [43], dem Paneldaten zugrunde liegen und das eine Komponente für Wiederholungskäufe besitzt. 11.3 Grundmodelle 11.3.1 Vorbemerkung und Überblick Dieser Abschnitt behandelt Modelle, die sich durch einfachere mathematische Beziehungen beschreiben lassen und oft Bausteine komplizierterer Verfahren sind. So ist die einzige unabhängige Variable die Zeit /. Außerdem weisen alle Modelle eine feste Sättigungsgrenze auf. Die Kurvenverläufe approximieren die zeitliche Verteilung der Absatzzahlen bei einer Reihe von Gütern bereits in guter Näherung. Einen Überblick gibt Abbildung 3.
172
Mertens, Falk
Grundmodellei
Symmetrisch
Asymmetrisch
Logistisches Modell Abschnitt 11.3.2
Bass-Modell Abschnitt 11.3.4
Exponentielles Modell Abschnitt 11.3.3
Gompertz-Modell Abschnitt 11.3.5
Abb. 3: Überblick über Grundmodelle 11.3.2 Das logistische Modell 11.3.2.1 Der Modellansatz dN Wir gehen davon aus, dass die Zunahme N[=— der akkumulierten Nachfrage N^, dt beginnend mit einer Ausgangsnachfrage NQ zum künstlich gewählten Zeitpunkt /o = 0, in einer Planperiode proportional dem noch nicht ausgenutzten Marktpotenzial und dem Bekanntheitsgrad des Produkts ist. Wenn A^* die Sättigungsgrenze und N^ die bis zur Periode / registrierte akkumulierte Nachfrage darstellen, so ist also Nl proportional dem noch nicht ausgeschöpften Marktpotenzial (N*-NJ. Der Bekanntheitsgrad ist eine Funktion der bisher registrierten Nachfrage A^^, sodass wir mithilfe eines Proportionalitätsfaktors ß schreiben können: dN
^.N:=ßN,(N'-N,)
(1)
dt
Diese Differenzialgleichung hat als Lösung die Nachfrage- bzw. Wachstumsfunktion N'
A^, =
'
,^K^]^e-ß^'t
für
NQ>0
(2)
Nr. Setzt man in Gleichung (2) den Zeitpunl
N' N-Nr. N,
N'
N,
A^o+^ -NQ Nr.
Man beachte, dass der Wert NQ = 0 nicht zulässig ist. (Für den Nullpunkt ist der logistische Ansatz nicht gültig, weil dann der Kontakt- oder Lernprozess, der dem Modell zugrunde liegt (vgl. Abschnitt 11.3.2.3), nicht einsetzen kann.) Man darf also die Betrachtungen immer erst anstellen, wenn bereits eine Anzahl von Produkten abgesetzt ist.
Mittel- und langfristige Absatzprognose auf Basis von Sättigungsmodellen
173
Wir setzen im Interesse einer Vereinfachung unserer Berechnungen die folgenden Abkürzungen ein: N
a = ln
-N, «=e«
(3)
m und
b = ßN'
(4)
Dann ergibt sich aus Gleichung (2) N^ *
\+e^a e^-bt
(5)
l+eM-bt
Gleichung (5) ist die logistische Funktion. Der Leser kann den Zusammenhang zwischen Gleichung (5) und Gleichung (1) herstellen, wenn er Gleichung (5) differenziert: -1
Nl=N
i-b)
N^
a-bt
l + e"-^'
a-bt l+e
be
a-bt
(6)
l + e"-^'
Kombiniert man die Gleichungen (5) und (6), so resultiert:
'
t
be"-''' a-bt l+e
(7)
Aus Gleichung (5) erhalten wir aber auch a-bt +e
bzw.
e''-^'=
N* N,
—
(8)
-\
(9)
Gleichungen (8) und (9) in Gleichung (7) eingesetzt, ergibt:
N^=N^N
= N -—N t * t N K t
b
*
(10)
J
Ersetzt man -— gemäß Gleichung (4) durch ß, so erscheint wieder die Gleichung (1): N N\=ßN^{N
-N^)
q.e.d.
174
Mertens, Falk
11.3.2.2 Analyse von Modelleigenschaften Zur Analyse der Funktion bilden wir die zweite Ableitung, indem wir (1) umformen in (11) und nochmals nach / ableiten: N]=ßN\N*
-2ßN^N\
(12)
Um den Wendepunkt zu ermitteln, setzt man N^ gleich Null und löst nach A^^ auf:
'
(13)
2
Der Wendepunkt wird also erreicht, wenn der MBXVX zur Hälfte gesättigt ist. Um den Zeitpunkt zu erhalten, zu dem dieser Wendepunkt erreicht wird, setzen wir Gleichung (13) In Gleichung (9) ein: ^a-M_N
N II
-1 = 1
(9)
Diese Beziehung wird nur erfüllt für a-bt
= 0->t = alb
(14)
Charakteristisch für die logistische Kurve ist auch, dass ihre relative Wachstumsrate NJN^ eine lineare Funktion der verbleibenden relativen Marktaufnahmefähigkeit darstellt, wie durch die folgende Ableitung gezeigt werden kann: Aus Gleichung (1) folgt mit Gleichung (4) unmittelbar: 'N*-N^ N' V
(15) N
-N Der Klammerausdruck ^ ist aber die zum Zeitpunkt t verbleibende Marktkapazität, bezogen auf die Sättigungsmenge. Durch Logarithmierung von Gleichung (9) stoßen wir auf die letzte hier zu besprechende Charakteristik der logistischen Funktion: In^a-bt
In
IL - 1
(16)
also a-bt = In
(17)
Mittel- und langfristige Absatzprognose auf Basis von Sättigungsmodellen
Die Funktion In
175
ist auch unter dem Namen LogWs bekannt. Sie hilft in der Pra-
xis, die Koeffizienten a und h durch eine grafische Methode zu schätzen. Man geht dazu von einem Schätzwert für A^* aus und trägt auf halblogarithmischem Papier auf. Erhält man eine Punktfolge, die sich gut durch eine Gerade annähern lässt, so war der Schätzwert für A^* gut. Ist die Kurve nach unten gebogen, so wurde A^* zu klein gewählt, verläuft sie überproportional, so muss TV* verringert werden. So gelangt man nach einer bestimmten Zahl von Schritten zu einem geeigneten A^*. Dann kann man aus der Geraden die Koeffizienten a und h als Abschnitt auf der Ordinate und als Steigung ablesen. Um die Regressionskoeffizienten auf analytischem Weg zu bestimmen, wenn nur A^^Werte vorhanden sind, empfiehlt sich folgende Vorgehensweise: Wir führen zwei neue Größen X und Y ein, sodass
X = — = - ^ ( l + e"-'0
(18)
Durch Umformung von Gleichung (18) folgt
und zusammen mit Gleichung (19) N ' \-e
b
-t
-^e-'X
(20)
N Setzt man aus Gründen der Übersichtlichkeit (21) und Q-e-'
(22)
so erhält man die lineare Funktion Y = P + QX
(23)
176
Mertens, Falk
sodass man nun die Koeffizienten P und Q mithilfe der gewöhnlichen linearen Regressionsrechnung (Methode der kleinsten Quadrate) bestimmen kann, wenn einige Werte für A^^ (und damit gemäß Gleichungen (18) und (19) Werte für X und Y) vorliegen. Anschließend benutzt man den Ausdruck (22), um b aus Q zu finden: 6 = - I n ß .
*
Aus Gleichung (21) erhält man N =
\-e~
\-0 P
^
AT \ -N,
f N AT*
a resultiert schließlich aus Gleichung (3): a = m\
No
j
11.3.2.3 Zur Kritik des logistischen Ansatzes Die Kritik des logistischen Ansatzes kann an zwei seiner Prämissen orientiert werden: 1.
Die Ausbreitung der Nachfrage ist abhängig von der Zahl der bereits abgesetzten Produkte N^.
2.
Die Ausbreitung der Nachfrage ist proportional der restlichen Marktpotenz
Zu 1. Diese Komponente des logistischen Ansatzes wird auch als „Kontaktkomponente" bezeichnet. Hierin kommt zum Ausdruck, dass das logistische Modell zuweilen in der Medizin bzw. Biologie und in der Physik eingesetzt und erforscht worden ist. In der Biologie bzw. Medizin kann man es z. B. verwenden, um die Ausbreitung von Epidemien zu erklären, wobei die Ausbreitung durch Kontakt der noch gesunden mit den bereits erkrankten Personen zustande kommt. Ähnlich verläuft der Prozess bei kernphysikalischen Kettenreaktionen. In der Wirtschaftswissenschaft wird nicht angenommen, dass der erste Kontakt mit dem Produkt zum Kauf führt, wie es analog bei einer physikalischen Kettenreaktion der Fall ist. Vielmehr kann man einen Lernprozess zugrunde legen, der durch Kontakte ausgelöst und vorangetrieben wird ([8], S. 19 ff.): Jeder zusätzliche Kontakt mit dem neuen Gut intensiviert die Kenntnis des Produkts. Der Kauf kommt erst nach einer bestimmten Zahl von Kontakten zustande, die Nachfrage ist mithin eine Funktion der Zahl der Kontakte. Diese Kontakte sind zwar um so wahrscheinlicher, je verbreiteter das Gut ist, jedoch nicht rein proportional ISI^. Denn die Zahl der Kontakte hängt nicht allein davon ab, wie viel Produkte zum Zeitpunkt / bereits im Gebrauch sind, sondern wegen der zeitlichen Ausdehnung des Lernprozesses auch davon, wie viel in früheren Perioden verkauft worden waren. Streng angenommen wäre der logistische Ansatz nur zulässig, wenn der Lernprozess allein durch die in der letzten Periode neu hinzugekommenen Produkte bedingt würde. Damit wäre ein komplizierteres Modell als das logistische erforderlich. Jedoch hat Bonus am (nicht untypischen) Beispiel des Fernsehens in einer detaillierten Analyse ([8], S. 62 ff.) gezeigt, dass im praktischen Fall der vereinfachende logistische Ansatz trotzdem geeignet ist. Dies gilt besonders dann, wenn aus verhaltenstheoretischer Sicht der Imitatoren-Anteil im Markt überwiegt: Käufer vom Typ „Imitatoren" erwerben vor allem deswegen, weil sie den Kauf anderer beobachten [48]. Durch einen großen Teil der Bevölkerung, der das Gut bereits besitzt, wird ein „sozialer Druck" aus-
Mittel- und langfristige Absatzprognose auf Basis von Sättigungsmodellen
177
geübt, der um so größer ausfällt, je stärker das Produkt schon verbreitet ist, und der schließlich zum Kaufentscheid führt. Zu 2. Im logistischen Modell wird angenommen, dass die restliche Marktpotenz homogen strukturiert ist. Man kann diese Aussage dahin differenzieren, dass sowohl die räumliche als auch die gesellschaftliche Ausbreitung gleichmäßig erfolgen müssen. Wo diese Prämisse nicht erfüllt ist, muss man Verfeinerungen einführen, wie sie beispielhaft in Abschnitt 11.5.3 demonstriert werden. Über diese beiden Ansatzpunkte einer Kritik hinaus wird gegen das logistische Modell auch eingewandt, dass der in ihm zum Ausdruck kommende symmetrische Verlauf der Wachstumskurve mit zahlreichen empirischen Beobachtungen nicht übereinstimme ([8], S. 65 ff.). Für solche Fälle stehen die in diesem Beitrag ebenfalls beschriebenen Modelle mit asymmetrischem und flexiblem Kurvenverlauf zur Verfügung (vgl. Abschnitte 11.3.5 und 11.4). Auch die Prämisse eines konstanten Sättigungsniveaus ist oft bedenklich und führt immer wieder zu dessen Unterschätzung ([31], S. 274). Das logistische Modell hat jedoch trotz der genannten Schwächen verschiedentlich praktischen Einsatz gefunden (vgl. [30] und [53]). Vor allem aber ist es - wie das nachfolgende exponentielle Modell - ein häufig benutzter Baustein komplizierterer Prognoseverfahren. 11.3.3 Das exponentielle Modell Das exponentielle Modell ist eine Vereinfachung des logistischen Modells. Es wird von der Hypothese ausgegangen, dass die Wachstumsrate proportional zur Aufnahmekapazität des Marktes verläuft, jedoch nicht - wie bei der logistischen Funktion - vom Bekanntheitsgrad abhängt. Daher gilt für den Nachfragezuwachs die Differenzialgleichung
Nl=ß(N'^-N,)
(24)
Die zugehörige Lösung lautet
N,=N"{l-e''-^') mit a = \n 1
(25)
o_\ für
No>0
N
Der Leser kann sich durch folgende Ableitung der Gleichung (25) vom Zusammenhang der Gleichungen (24) und (25) überzeugen: N^=N''
ße^~^^
= ßN' -ßN^
^ßN^' -ßN^' +ßN' e^~f^^ ^ ßN^ =ß{N' -N,)
ßN^ix-e^'1^^
q.e.d.
Das exponentielle Modell ist geeignet, wenn es gilt, die Ausbreitung eines bereits bekannten Produkts zu prognostizieren, und wenn die Information des Konsumenten über das Produkt z. B. durch intensive Werbung erreicht wurde. Auch lassen sich die Wachstumsvorgänge zu Beginn der Lebensdauer eines Produkts oft recht gut durch
178
Mertens, Falk
dieses Modell wiedergeben. Das wird verhaltenstheoretisch damit erklärt, dass diese Phase voHA/iegend durch Innovatoren geprägt ist. Die Käufer vom Typ „Innovatoren" richten sich nicht an der Verbreitung des Gutes aus, sondern erwerben es, weil sie ein besonderes Interesse an Neuheiten haben [48]. 11.3.4 Das Bass-Modell Das Modell von Bass ergibt sich aus der Kombination eines exponentiellen und eines logistischen Absatzverlaufs und wird deswegen in der deutschsprachigen Literatur oft als semilogistisch bezeichnet. Seine Veröffentlichung 1969 verlieh der Diffusionsforschung des Marketing neue Triebkraft. Das Modell setzt voraus, dass die Übernahme einer Innovation von einem Kommunikationsprozess abhängt: Ein neues Produkt wird zuerst von einigen Innovatoren erworben, die die Übernahme der Neuheit durch persönliche (Mund-zu-Mund-) Kommunikation an Imitatoren propagieren und somit deren Kaufentscheide beeinflussen. Darauf aufbauend formuliert Bass einen stochastischen Ansatz, der auf folgender Hypothese beruht: Die Wahrscheinlichkeit P(t), dass eine Person zum Zeitpunkt t das Gut kaufen wird, wenn sie es bis zum Zeitpunkt t noch nicht gekauft hat, hängt linear davon ab, wie viel Personen das Gut schon besitzen. Dabei wird angenommen, dass jede Person nur ein Produkt kauft. Bass geht von der Funktion P(t) = -J^^ l-F(t)
= p + ^N(t) N
(26)
für die bedingte Wahrscheinlichkeit aus. Hierin sind: f{t)
die Wahrscheinlichkeit eines Kaufes zum Zeitpunkt /
F{t)
die akkumulierte Wahrscheinlichkeit eines Kaufes zum Zeitpunkt r. F{t) = \f{T)dT
(27)
0
A^*
das Sättigungsniveau oder die Zahl der im Betrachtungszeitraum überhaupt absetzbaren Produkte
N{t)
die bis zum Zeitpunkt t abgesetzten Produkte sowie
p,q
Proportionalitätsfaktoren, wobei p den Anteil der Innovatoren und q den der Imitatoren widerspiegelt. (Da A^(0) = 0, muss gemäß Gleichung (26) p die Wahrscheinlichkeit eines Kaufes zum Zeitpunkt 0 sein, also die Bedeutung der Innovatoren in dem Markt widerspiegeln.)
Nun ergibt sich N{t) durch Multiplikation der gesamten potenziellen Käufe N* mit der Wahrscheinlichkeit F{t), dass der einzelne bis zum Zeitpunkt t bereits gekauft hat: N{t) = N*F{t) -> F{t) = ^ N
(28)
Man erhält den Nachfragezuwachs, indem man diese Gleichung ableitet und Gleichung (26) sowie anschließend Gleichung (28) einsetzt:
Mittel- und langfristige Absatzprognose auf Basis von Sättigungsmodellen
\
N
N:=i^p+q^yN*-N(t))
179
J (29)
Als Lösung dieser Differenzialgleichung erster Ordnung ergibt sich für die akkumulierte Nachfrage der Ausdruck: N(t) = N -^-^ l + ^e-^'^'^' P
(30)
Die Analyse der Funktion erbringt für die Parameterkonstellationen der Praxis oft einen Kurvenverlauf, der dem der logistischen Funktion ähnelt. Die Ähnlichkeit ist dann besonders groß, wenn die Zahl der Imitatoren die der Innovatoren stark übertrifft, wenn mithin q beträchtlich größer als p ist. In diesem Fall liegt der maximale Periodenabsatz und damit der Wendepunkt der Funktion N{t) etwa bei halber Marktsättigung, wie bei der logistischen Kurve auch. Grundsätzlich kann der Wendepunkt je nach Wahl von p und q zwischen 0 und 50 % Marktsättigung variieren [33]. Das Modell von Bass unterscheidet sich von anderen weniger durch den Verlauf der Funktion als vielmehr dadurch, dass die verhaltenswissenschaftlichen Annahmen explizit zum Ausdruck gebracht und folglich auch zum Gegenstand von Parametermodifikationen gemacht werden können. Bass hat sein Modell an elf Haushaltsgütern ausgetestet, darunter Kühlschränken, Klimaanlagen und Kaffeemaschinen [2]. Von einer hohen Akzeptanz in der US-amerikanischen Industrie berichten Mahajan u.a. [33]. Gierl zeigt anhand eines neueren Rechenbeispiels, dass bei der Prognose des Zuwachses von Scannerkassen-Installationen in der Bundesrepublik mithilfe des Bass-Modells die reproduzierten mit den tatsächlich eingetretenen Werten im großen und ganzen übereinstimmen [21]. 11.3.5 Das Gompertz-Modell Die Gompertz-Kurve ist die wohl bekannteste asymmetrische Wachstumsfunktion. Grundlage ist eine Beziehung vom Typ N^=N'L'^'
(31)
wobei also die Zeit im Exponenten des Exponenten erscheint (Z und k sind Konstanten). Diese Grundfunktion kann auf verschiedene Weise variiert werden. Wir wollen hier mit einem Modell arbeiten, das Lewandowski ([31], S. 287 ff.) angegeben hat. Danach werden die Parameter so definiert, dass die folgende Funktion resultiert: N,=N\-^''
wobei b und c Konstanten sind.
(32)
180
Mertens, Falk
Zur Analyse der Funktion sollen zunächst die Koordinaten des Wendepunkts bestimmt werden: Die erste Ableitung der Gleichung (32) lässt sich mithilfe der Kettenregel errechnen: ^
= N]=N* e-'^' (-bc' Inc) = -N* bInc (e"^^' c^)
(33)
Nun bilden wir die zweite Ableitung, indem wir auf den Klammerausdruck die Produktregel anwenden:
K = -N*b\nci-be''"'
c'Xncd'+<,-"' c Inc
= -iV*6(lnc)^-*^'c'(-Äc' - > )
(34)
Die hintere Klammer wird Null für bc' =1 t=
oder
\nb
(35) (36)
Inc
Wir haben damit die Abszissenkoordinate des Wendepunkts berechnet. Setzt man den Wert, den t im Nulldurchgang der zweiten Ableitung annimmt, in Gleichung (32) ein, so erhält man als Ordinatenwert des Wendepunkts N,=N*e-'=-N* e
^0,37N*
(37)
(Dies erkennt man, wenn man Gleichung (35) mit Gleichung (32) kombiniert.) Damit erreicht die Gompertz-Funktion ihren Wendepunkt bei einem niedrigeren Gesamtabsatz als die logistische Funktion, bei der der Wendepunkt den Ordinatenwert N*/2 = 0,5N* hatte. Die Gompertz-Funktion ist daher vor allem zur Prognose von Gütern geeignet, bei denen nach der Markteinführung ein rasches Bedarfswachstum zu verzeichnen ist. Nach dem Wendepunkt verläuft das Wachstum zunächst weitgehend linear (vgl. Abbildung 4). Dieser Verlauf ist häufig bei technologischen Ersatzprozessen zu beobachten ([36], S. 59): Beispielsweise zeigt Chow [10], dass die Verbreitung von Computern in den 50er und 60er Jahren durch die Gompertz-Kurve besser erklärt wird als durch das logistische Modell. Als einen der Gründe führt er den damaligen Preisverfall von durchschnittlich 20 % im Jahr an. Einen interessanten Vergleich zur logistischen Funktion hat Lewandowski ([31], S. 288) gezogen: Durch Logarithmieren von (32) folgt: lnN,=\nN*-bc'
(38)
Mittel- und langfristige Absatzprognose auf Basis von Sättigungsmodellen
181
yt-^
40
— Gompertz-Kurve ^logistische Kurve
30
20
10
1
2
3
4
5
6
7
8
9
-> t
Abb. 4: Die Gompertz-Kurve und die logistische Kurve ([18], S. 21) Setzt man e'^"" aus (32) und bc^ aus (38) in (33) ein, so ergibt sich für die Wachstumsrate: N\=-\ncN^(\nN*
-XnN^)
(39)
Bei der Behandlung der logistischen Funktion sind wir von dem Ausdruck
N\^ßN\N'-N,)
(1)
ausgegangen. Man erkennt, dass bei der Gompertz-Funktion die entsprechenden Größen des logistischen Modells durch ihre Logarithmen ersetzt worden sind. 11.4 Flexible Modelle 11.4.1 Vorbemerkung und Überblick Die Vielzahl der vorhandenen Wachstumsmodelle erhöht einerseits die Chance, für ein gegebenes Produkt bzw. eine gegebene Produktgruppe ein zur Prognose geeignetes Modell zu finden, erschwert aber andererseits die Auswahl. Um die Vielfalt überschaubarer zu machen, bieten sich Verallgemeinerungen an. Generalisierte bzw. flexible Modelle erlauben, durch bestimmte Parameterkonstellationen unterschiedlichste praktische Kurvenverläufe nachzubilden. So lässt sich z. B. der Wendepunkt meist zwischen 0 % und 100 % Marktsättigung variieren. Außerdem ist man nicht auf rein symmetrische oder rein asymmetrische Funktionen festgelegt. Flexible Modelle enthalten als einzige unabhängige Variable die Zeit und weisen eine feste Sättigungsgrenze auf. Einen Überblick über die hier behandelten Ansätze gibt Abbildung 5.
182
Mertens, Falk
Flexible Modelle Erweiterte logistische Funktion von Böhm und Wacker Abschnitt 11.4.2 Generalisierte logistische Funktion von Lewandowski Abschnitt 11.4.2 Verallgemeinerte exponentielle Funktion von Weibull Abschnitt 11.4.3 Generalisiertes Bass-Modell von Easingwood u.a. (NUl-Modell), Abschnitt 11.4.4 Generalisierte logistische Funktion von Easingwood u.a. (NSRL-Modell), Abschnitt 11.4.4 Generalisierte logistische Funktion von Bewiey und Fiebig (FLOG-Modell), Abschnitt 11.4.4 Abb. 5: Überblick über flexible Modelle 11.4.2 Generalisierte logistische Funktionen Eine erste Verallgemeinerung ist die „potenzierte logistische Funktion", die Böhm [6] in seiner 1969/70 vorgelegten Dissertation entwickelt hat und die für die Prognosen bei den Fernmeldeämtern der Deutschen Bundespost eingesetzt wurde. Die Funktion ist von Böhm und Wacker [7] ergänzt worden und wird unter der Bezeichnung „erweiterte logistische Funktion" verwendet. Eine andere Art der Verallgemeinerung ist von Lewandowski vorgeschlagen worden. Wir wollen das Vorgehen am Beispiel der generalisierten Funktionen erster Ordnung zeigen ([31], S. 274 ff.). Wir führen eine Anzahl von Wachstumshypothesen ein, die definiert werden können durch (40)
N,=bN,H und berücksichtigen vor allem Hypothesen der Art
EL
H
(41)
Setzt man (41) in (40) ein, so erhält man N,
N\=bN^ y
KN
(42) j ^
als generalisierte logistische Funktion erster Ordnung nach Lewandowski. Wie erzeigt, _1 hat diese Differenzialgleichung die Lösung A^^ = A^* f 1 + ^"^"^0 ^ mit den Abkürzungen
Mittel- und langfristige Absatzprognose auf Basis von Sättigungsmodellen S = \ni(N*]
183
cL £ = bY (c ist die Integrationskonstante). Für y^X gewinnt man aus
(42) wieder die einfache logistische Funktion (vgl. (1) mit
b=ßN*).
Setzt man / = 2, so erhält man einen Wachstumsprozess, bei dem - verglichen mit der einfachen logistischen Funktion - der potenzielle Markt (N* -NA stärkeren Einfluss ausübt als der Bekanntheitsgrad A^^: Bei größer werdendem N^ nimmt der Ausdruck in der geschweiften Klammer der Gleichung (42), der den Einfluss des potenziellen Marktes widerspiegelt, rasch ab. Für r\ rückt er näher zur Marktsättigung hin (Beispiel: y = 3, Wendepunkt bei
Lewandowski ([31], S. 281) empfiehlt Werte von /<\ für langlebige Güter wie PKW oder Fernsehgeräte, hingegen Werte von r>l für relativ kurzlebige Güter. 11.4.3 Eine verallgemeinerte exponentielle Funktion Eine Verallgemeinerung der exponentiellen Funktion basiert auf der Wahrscheinlichkeitsverteilungsfunktion / ^ ( / ) , die Weibull 1951 einführte. Sie wurde zunächst vorwiegend für die Analyse von Ausfallprozessen verwendet ([31], S. 496 ff.). MittlenA/eile setzt man sie zunehmend zur Prognose von Diffusionsverläufen ein [11]. Für den Nachfragezuwachs gilt
N]=Ny^{t) = N'^t^-'e-^^^^ Als akkumulierte Nachfrage erhält man N^=N
(43) *f
\\-e
-tß I ^
Durch Veränderung des Formparameters ß sind unterschiedliche Verläufe einstellbar. Für ß=\ ergibt sich die einfache exponentielle Funktion (vgl. Abschnitt 11.3.3). Für ß>2 tendiert die Weibull-Funktion gegen eine Normalverteilungsfunktion ([31], S. 497). De Kluyver [11] hat die Langzeitprognosen der Weibull-Funktion für eine Reihe von Konsumgüterabsatzzahlen mit dem Bass-Modell verglichen. Dabei erwiesen sich die beiden Verfahren als relativ gleichwertig, auch was die Prognose des Wendepunktes betraf. Die Modellauswahl sollte sich nach De Kluyver an der Verfügbarkeit der Daten ausrichten: Sind wenige oder sogar überhaupt keine Daten vorhanden, lässt sich meist mit der Weibull-Funktion „intuitiver" prognostizieren. Die Bestimmung von p und q für das Bass-Modell erscheint in solchen Fällen schwieriger.
184
Mertens, Falk
11.4.4 Das generalisierte Bass-Modell von Easingwood, Mahajan und Muller und verwandte Ansätze Aus dem Bass-Modellansatz folgt, dass der Wendepunkt nur im Bereich von 0 und 50 % Marktsättigung einstellbar ist. Auch das enA/eist sich noch als eine Beschränkung, die vielen praktischen Verläufen entgegensteht. Daher haben Easingwood u.a. [14] die verhaltenstheoretischen Überlegungen weitergeführt: Das NUl (nonuniform influence)Modell trägt der Tatsache Rechnung, dass die Wirkung der persönlichen Kommunikation nicht nur über der Zeit konstant bleibt, sondern auch mit der Durchdringung anwachsen oder abfallen kann. Deswegen wird der Imitatorenkoeffizient q eine Funktion der akkumulierten Nachfrage A^^: q{t) = q
Nif) (44)
wobei a und q" Konstanten sind. Ersetzt man in (29) q durch q(t) aus (44), so ergibt sich für den Nachfragezuwachs N^
^Nit)^'-' . Um die Flexibilität dieses Ansatzes nachzuvollmit S = \ + a>0 und q{t)^q V N
j
ziehen, leiten wir zunächst q{t) nach A', ab und erhalten
N' Da A^^>0, wächst der Imitatorenkoeffizient offensichtlich für S>\ an; für S=\ bleibt er konstant (ßass-Modell), und für das Intervall Q<ö<\ nimmt er ab. Zur Bestimmung des Wendepunkts müsste Gleichung (45) differenziert, anschließend Null gesetzt und dann nach / aufgelöst werden. Allerdings existiert hierfür keine geschlossene Lösung. Jedoch ist es mathematisch möglich, Grenzen für die Ordinatenwerte des Wendepunkts anzugeben. Es kann gezeigt werden, dass sich der Wendepunkt für ^-^oo bei 100 % und für ^->0 bei 0 % Marktsättigung einstellt [14]. Um Aussagen zur relativen Leistungsfähigkeit zu treffen, haben Easingwood u.a. zunächst die Absatzzahlen von fünf Konsumgütern, darunter Schwarzweiß- und Farbfernseher sowie Wäschetrockner, mit ihrem und mit anderen Modellen, z. B. dem ßassModell, analysiert. Sie stellten fest, dass der Einflussfaktor S bei vier der fünf Produkte Werte kleiner als Eins annahm, was zeigt, das in diesen Fällen der Imitatoren-Anteil mit der Durchdringung abnimmt. Damit konnten sie auch bessere Ergebnisse für das NUIModell nachweisen. Anschließend verglichen sie die Prognosefähigkeit der verschiedenen Ansätze, indem sie hintere Werte der Zeitreihen extrapolierten. Gemessen am
Mittel- und langfristige Absatzprognose auf Basis von Sättigungsmodellen
185
durchschnittlichen mittleren Fehlerquadrat wartete auch hier das NUl-Modell mit besseren Ergebnissen auf. Beschränkt man die NUl-Funktion nur auf den Imitatoren-Anteil, so ergibt sich ein weiteres generalisiertes logistisches Modell, das als NSRL (non Symmetrie responding logistic)-Modell bezeichnet wird [13]. Das FLOG (flexible logistic)-Modell von Bewiey und Fiebig [5] beruht ebenfalls auf einem variablen Imitatorenkoeffizienten. Für diesen gilt hier
Während k die Kurve im wesentlichen horizontal skaliert, bestimmt ju vorwiegend den Grad der Krümmung. Bewiey und Fiebig analysierten mit dem FLOG-Modell die Marktdurchdringung neuer Telekommunikationsdienste, z. B. Fax, in Australien. Der Vorteil des FLOG-Ansatzes besteht darin, dass er im Gegensatz zur NSRL-Funktion eine geschlossene Lösung der akkumulierten Nachfrage N^ besitzt. 11.5 Erweiterte Modelle für Erstkäufe 11.5.1 Vorbemerkung und Überblick Bisher hatten wir angenommen, dass das Wachstum ausschließlich eine Funktion der Zeit ist. Nun können es aber andere Faktoren beschleunigen oder verzögern. Diesen kann man in der Theorie der mittel- und langfristigen Prognose Rechnung tragen, indem man in den Modellansätzen die Proportionalitätsfaktoren parametrisiert. Es genügt aber manchmal, dass die Koeffizienten lediglich eine Funktion der Zeit werden, um exogene Effekte zu erfassen, und die exogenen Größen nicht explizit als Parameter erscheinen. Solche Modelle lassen sich weiterhin als endogene Prozesse verstehen. Welche Einflussgrößen aufzunehmen sind und wie die funktionale Beziehung zu wählen ist, hängt oft davon ab, wie die Anbieter vorgehen, d. h. beispielsweise, welche Preisstrategien und Werbemaßnahmen sie einsetzen. Daher müsste man die Funktionen eher anbieter- oder auch produktspezifisch bilden [21]. Die hier vorgestellten erweiterten Ansätze sind in Abbildung 6 zusammengefasst. 11.5.2 Erweiterungen des logistischen Modells Beim logistischen Modell äußern sich Modifikationen darin, dass im Exponenten der eFunktion im Nenner der Sättigungskurve in der Regel zusätzliche Größen erscheinen. Statt N, = '
TV* N* 77 heißt es im allgemeinen N, = TT-T;^, l + e'-^' 1 + ^H^^^V'
wobei X eine im Einzelfall zu spezifizierende Größe ist.
186
Mertens, Falk
Erweiterte Modelle für Erstkäufe | < — " Homogener Absatzmarkt Endogener Prozess Modell mit zeitabhängigen Proportionalitätsfaktoren Abschn. 11.5.2
'"
> Inhomogener Abjsatzmarkt
Exogener Prozess Feste Sättigungsgrenze / \ / \ / \
symmetrisch
asymmetrisch
Modell, das konstantes Einkommenswachstum berücksichtigt Abschn. 11.5.2
Modell, das veränderliches EinkommensWachstum berücksichtigt Abschn. 11.5.2
Veränderliche Sättigungsgrenze
Endogener Prozess
Exogener Prozess
Modell von Weblus Abschn. 11.5.3
Modell der Einkommensklassen von Lewandowski Abschn. 11.5.5
Modell von Bonus Abschn. 11.5.4 Erweitertes Modell von Bonus Abschn. 11.5.5 Modell von Roos und von Szeliski sowie von Klaassen und Koyck Abschn. 11.5.6
Bass-Modell, das Preis und Werbebudget berücksichtigt Abschn. 11.5.7 Erweitertes Bass-Modell von Mahajan und Petersen Abschn. 11.5.7
Abb. 6: Überblick über erweiterte Modelle Wir wollen in der Folge den wichtigen Fall behandeln, dass in der Volkswirtschaft ein allgemeines, gleichmäßiges Wachstum E des Pro-Kopf-Einkommens zu konstatieren ist und dass diese Einkommenssteigerungen die zu prognostizierende Nachfrage nach einem Produkt beschleunigen, wobei jedoch durch die Einkommenssteigerungen das Sättigungsniveau nicht erhöht wird. Bei der Diskussion der logistischen Funktion waren wir von der Gleichung
N\^ßN\N'-N)
(1)
ausgegangen. Dabei war ß ein Faktor, der angab, in welchem Verhältnis das Absatzvolumen in Abhängigkeit vom Bekanntheitsgrad und von der restlichen Marktkapazität wächst. Wir führen jetzt additiv eine Größe KE ein, die bestimmt, wie dieser Effekt durch das Einkommenswachstum E verstärkt wird. Dann erhalten wir: (46) In Abschnitt 11.3.2.1 hatten wir die Größe (4) eingeführt. Wir führen abkürzend h ein:
Mittel- und langfristige Absatzprognose auf Basis von Sättigungsmodellen 187 b + KE =[ß + KE)N*
(47)
Nehmen wir jetzt KE als zeitlich konstant an, so ergibt sich analog zu Gleichung (5) des Abschnitts 11.3.2.1:
a-\b+KE \t
Da in dieser Funktion nur Konstanten verändert sind, erbringt die Analyse die gleichen Ergebnisse wie die der logistischen Funktion. Insbesondere verläuft die Kurve auch symmetrisch zum Wendepunkt, der bei halber Marktsättigung erreicht wird. Man beachte, dass E von der einzigen im Modell vorkommenden unabhängigen Variablen t unabhängig ist. Exogene Einflüsse können auch in einem im Zeitablauf veränderlichen Parameter ß berücksichtigt werden. Modelle dieser Art verwendet man, wenn ein neues Gut ein vorhandenes substituiert, dabei aber die gleiche Funktion ausübt. 11.5.3 Das Modell von Weblus Für die Prognose mancher Güter ist die Annahme, dass der Stamm der potenziellen Kunden homogen strukturiert sei, nicht zulässig. Dazu gehören z. B. gehobene Gebrauchsgüter, die vom einkommensstarken Teil der Bevölkerung rasch, von weniger einkommenskräftigen Schichten langsamer gekauft werden. Aufgrund der Kaufkraftdifferenzierung ist das Kaufinteresse im Durchschnitt der potenziellen Käufer anfangs größer und nimmt allmählich ab, nachdem die jeweils wohlhabenden Schichten gekauft haben. Weblus ([53], S. 592 f.) hat für den Absatz von Fernsehgeräten die Annahme getroffen, dass diesem Tatbestand Rechnung getragen werden kann, indem der Proportionalitätsfaktor ß der logistischen Funktion im Zeitablauf kleiner wird. Wir wollen das Modell von Weblus im folgenden in modifizierter Form entwickeln. Dazu definieren wir einen neuen Proportionalitätsfaktor / so, dass
(49)
ß=^ Dann lautet die Ausgangsgleichung N]=^N,[N*-N,)
(50)
Man gelangt nach Integration zur Lösung der Differenzialgleichung:
(51)
N,= 1+
T
V *y
wobei TQ die Zeitspanne vom Absatzbeginn (/ = 0) bis zum Erreichen des Sättigungsgrades Nf=N*/2 darstellt und S = xN* ist.
188
Mertens, Falk
Die Konstanten y und TQ enthalten das allgemeine Einkommensniveau, das Kaufinteresse an sich und das allgemeine Einkommenswachstum E implizit ([53], S. 599); Die einzige unabhängige Variable bleibt auch hier die Zeit /. Wenn / = TQ '^t, wird gemäß Gleichung (51) A^^ = — 11.5.4 Das Modell von Bonus Bonus [8] hat, aufbauend auf der logistischen Kurve, ein Modell zur Ausbreitung des Fernsehens entwickelt und getestet. Er geht im Gegensatz zu Abschnitt 11.5.2 davon aus, dass das Sättigungsniveau zu einem Betrachtungszeitpunkt / einkommensabhängig ist, wobei das zeitabhängige Sättigungsniveau A^* dem absoluten Sättigungsniveau A^o ^^^ ^^^^"^ logistischen Kurve zustrebt:
N] = '
(52)
^' I + CE;""
Dabei ist E^ das in der Volkswirtschaft zum Zeitpunkt t erreichte Pro-Kopf-Einkommen. Der Elastizitätsgrad a in Bezug auf das Einkommen bezeichnet die Intensität, mit der sich Einkommenserhöhungen auf das temporäre Sättigungsniveau auswirken. Ist a positiv und groß, so gleicht sich bei Einkommenssteigerungen das variable Sättigungsniveau rasch dem absoluten an. c ist eine Konstante, durch die der Einfluss der Einkommensveränderungen zum Ausdruck gebracht werden kann. Wählt man c < 0, so nimmt bei positivem a der potenzielle Markt trotz einer Einkommenssteigerung ab, z. B. wegen Veralterung. Man beachte, dass A^* nicht beobachtet wird. Es ist das Sättigungsniveau, dem der endogene logistische Wachstumsprozess zum Zeitpunkt t zustrebt ([8], S. 70). Bonus nimmt nun weiter an, dass die Einkommen mit einer konstanten Rate g nach dem Ausdruck E,=E,e''
(53)
steigen, wenn EQ das Einkommen zu Beginn der Betrachtung (^ = 0) ist. Durch Kombination von Gleichung (52) und (53) erhält man N*= ^ = ^ ^ l-^c(E,e^y l^cE-^e-^^^
(54)
Wir fassen der Übersichtlichkeit halber einige Konstanten in Abkürzungen zusammen: ;^ = l n ( c V ) - > ^ V
=e'
S = ag und erhalten damit aus Gleichung (54) den Ausdruck
(55) (56)
Mittel- und langfristige Absatzprognose auf Basis von Sättigungsmodellen
189
N:=^^
(57)
Wir nehmen nun den elementaren Ausdruck über das logistische Wachstum (1) hinzu und formen ihn mit der Abkürzung (4) um zu '
'
N
(58)
'
Da jetzt N* zeitabhängig ist, müssen wir für A^' in Gleichung (58) den Wert A^,* aus Gleichung (57) einsetzen und erhalten
bN. N,^bN^
^ M ' =bN,—^i\ + e''"]N':
(59)
Nr,
N,
Diese Differenzialgleichung hat, wie Bonus zeigt ([8], S. 70 f.), die Lösung N,
N:
(60)
l + e^-*'+_^.r-^'
b-S oder
N:
N, X+
, und mit Gleichungen (55) und (56)
e^-b'+-^e'e-"
b-S
N:
N = l + e^-*'+-
*
b-ag
(61) cE-"e-"''
Dabei ist / = ln A^; 1-C + b-S
(62)
worin C die Integrationskonstante darstellt. Die Funktion (60) unterscheidet sich von der logistischen vor allem dadurch, dass im Nenner neben dem Ausdruck e^"*', der die endogene Ausbreitung bewirkt, die einkommensinduzierte Ausbreitung bei exponentiell wachsendem Einkommen durch den dritten Summanden e^~^* zur Geltung kommt. Ist <J= 0, so erhält man eine logistische Kurve.
190
Mertens, Falk
Da gemäß Gleichung (56) ^das Produkt aus a und g ist, kann 5 dann Null werden, wenn entweder die Einkommen stagnieren (g = 0) oder das Sättigungsniveau auf die Einkommenssteigerungen nicht reagiert (a = 0) (für einige Parameterkonstellationen produziert das Modell von Bonus unzulässige Werte; vgl. im einzelnen ([8], S. 72). Lewandowski ([31], S. 344) hebt als einen der Vorteile des Bonus-Modells heraus, dass es durch die Anpassung der Sättigungsgrenze an exogene Entwicklungen „die klassische Unterschätzung des definitiven Sättigungsniveaus" vermeide. 11.5.5 Eine Erweiterung des Modells von Bonus und das Modell der Einkommensklassen von Lewandowski Bonus hat zu seinem in obigem Abschnitt skizzierten Modell auch vorgesehen, dass das temporäre Sättigungsniveau N] eine Funktion des Preises P^ ist, den das Produkt zum Zeitpunkt / hat. Er verändert dann die Gleichung (53) zu 1S!\ =
^ _^ , ß gibt
den Elastizitätsgrad in Bezug auf den Preis an. Mit diesem Ansatz will er vor allem untersuchen, wie sich die (z. B. als Folge von Lernprozessen bei der Herstellung) fallenden Preise der Fernsehgeräte auf die Ausbreitung im Markt auswirken. Da fallende Preise einen ähnlichen Effekt wie steigende Einkommen haben können, ist der obige Ansatz, bei dem die beiden Einflussgrößen P^ und E^ miteinander kombiniert werden, plausibel. Führt man derartige Überlegungen weiter, so stößt man darauf, dass die Relationen von Einkommen, Preisen und Konsum in den verschiedenen Käufersegmenten nicht homogen sind. Lewandowski ([31], S. 353 ff.) hat daher ein Modell vorgelegt, bei dem die Nachfrage durch einzelne „Einkommensklassen" getrennt analysiert und dann addiert wird. 11.5.6 Die Modelle von Roos und von Szeliski sowie von Klaassen und Koyck Ähnlich wie Bonus (vgl. Abschnitt 11.5.4) nehmen Roos und von Szeliski in ihrer Arbeit zur Prognose der Automobilnachfrage das Sättigungsniveau N* als im Zeitablauf veränderlich an [47]. Sie gehen aus von der Funktion A^^ =CNJz(t)N*[t)-N^Y wo z{t) die Zahl der Familien im Zeitpunkt t und N*(t) die Anzahl der Autos pro Familie angibt, bei der zu einem bestimmten Zeitpunkt / der Markt gesättigt wäre. A^*(/) hängt wieder von dem Einkommensteil pro Kopf der Bevölkerung ab, der für den Kauf eines Automobils verfügbar ist, ferner vom Preis und von der Lebensdauer der Kraftfahrzeuge. Auch der Proportionalitätsfaktor C ist bei Roos und von Szeliski variabel. Das Modell von Roos und von Szeliski hat den Nachteil, dass es kein maximales Sättigungsniveau aufweist. Daher haben Klassen und Koyck (siehe hierzu [31], S. 339 f.) einen Ansatz vorgeschlagen, bei dem das Sättigungsniveau A^* einem maximalen Sättigungsniveau NI nach der Formel
A^* =NI
/P
zustrebt.
Dabei sind Y^ ein Maß für die Einkommensverhältnisse und P^ ein Maß für die Preisverhältnisse, jeweils zum Zeitpunkt /. a und / sind Parameter.
Mittel- und langfristige Absatzprognose auf Basis von Sättigungsmodellen
191
11.5.7 Erweiterungen des Bass-Modells Die verhaltenstheoretische Begründung für den Verlauf der Absatzzahlen und die damit verbundene Akzeptanz in der Praxis veranlassten viele Forscher, das Modell von Bass weiterzuentwickeln. Von besonderem Interesse ist dabei auch heute noch, wie Marketingvariablen am geeignetsten integriert werden können. Im allgemeinen geht man so vor, dass man Innovatoren- und Imitatorenkoeffizient parametrisiert [48]: p = p(P,WX q = q{P,W), wobei hier beispielhaft der Absatzpreis P und das Werbebudget W berücksichtigt sind. Der funktionale Zusammenhang zwischen den Marketingvariablen und dem Diffusionsverlauf bzw. Produktlebenszyklus wird in der Literatur recht unterschiedlich angenommen (siehe hierzu z. B. [24], S. 52). Es lässt sich aber empirisch zeigen, dass die Innovatoren eher durch umfangreiche Werbung und die Imitatoren eher durch einen günstigen Preis zu Mehrkäufen neigen [48]. Andere Modellerweiterungen gehen von einem variablen Sättigungsniveau aus. Diesen Ansatz griffen Mahajan und Petersen in allgemeiner Form auf [34]. Sie geben das Sättigungsniveau an als:
N\t)^f(s{t))
(63)
S(/)ist ein Vektor relevanter Faktoren, die N*{t) beeinflussen. Wir substituieren zunächst in Gleichung {29)q = q/N*. Ersetzen wir dann N* durch N*(t) aus Gleichung (63), so ergibt sich:
N]={p+qN(t))(f(s{t))-N(t))
(64)
Diese Differenzialgleichung hat als allgemeine Lösung [34] -[p{t-t,)^qM{t))
fm-
p + qN^
N{t) = -
(65)
1+
-(p{t-to)+qM{t))
p + qN^
mit N{t = t,) = N,;f(s{to))
= N; und M{t) = j
f{s{x))dx.
Setzt man N*(t) = f{^S{tyj = N*= const., so ergibt sich mit ^^=0 und q = q/N* relativ einfach das Bass-Grundmodell (vgl. Gleichung (30) in Abschnitt 11.3.4). Die Einflussfaktoren und ihre funktionale Beziehung in Gleichung (63) müssen jeweils fallspezifisch gewählt werden. Mahajan und Petersen untersuchten die Prognosegüte ihres dynamischen Modells anhand von Waschmaschinen-Absatzzahlen in den USA. Dabei zogen sie als einzigen Einflussfaktor die Anzahl der Wohnungsneugründungen als Maß für das Bevölkerungswachstum B[t) heran und formulierten eine lineare Beziehung für das Sättigungsniveau N* (t) = / ^ 5 ( / ) ) = k^-^k2 B{t). Die Parameter kx und k2 wurden durch eine Regressionsanalyse bestimmt. Die Korrelation zwischen tatsächlichen und prognostizierten Absatzzahlen in drei betrachteten Zeiträumen war mit jeweils 0,99 sehr hoch.
192
Mertens, Falk
11.6 Modelle mit Komponenten für Wiederholungskäufe 11.6.1 Problematik und Überblick In unseren bisherigen Betrachtungen hatten wir nur Methoden zur Prognose von Erstkäufen beschrieben. In vielen Anwendungsfällen wird die Erstnachfrage nach einiger Zeit beträchtlich durch Ersatzkäufe überlagert. In der Bundesrepublik Deutschland gibt es bereits zahlreiche Märkte, die soweit gesättigt sind, dass der Ersatzbedarf den Neubedarf deutlich übersteigt. In solchen Fällen könnte man zunächst an eine Kombination der in diesem Beitrag und der im Beitrag 6 beschriebenen Verfahren denken: Der Erstbedarf wird mithilfe eines Sättigungsmodells vorhergesagt, während man die Ersatzkäufe als Funktion von VenA/eilzeitverteilungen prognostiziert (vgl. auch [20]). Den Umsätzen in Kapitel 6 entspricht jetzt der Geldwert der neu beschafften Güter, dem Verweilzeitvektor der Vektor der Lebens- und Nutzungsdauern. Allerdings ist insbesondere bei langfristigen Prognosen zu beachten, dass sich der Lebensdauervektor verändern kann, vor allem dadurch, dass 1.
eine Weiterentwicklung und Ausreifung des Produkts eine längere (oder auch kürzere) Haltbarkeit nach sich führt; so haben Untersuchungen erbracht, dass zumindest die durch technisches Versagen erzwungenen Ersatzinvestitionen von Hausgeräten, PKW und leichteren LKW erst nach zunehmender Lebensdauer eintreten (siehe [22] und [32];
2.
der technische Fortschritt eine raschere Veralterung bedingt;
3.
sich ändernde Konsumgewohnheiten - etwa auch als Folge von großen Werbeaktionen - bis hin zu Modeerscheinungen die Zeit der Nutzung eines Konsumgutes verändern;
4.
Einflüsse der Konjunktursituation und -politik (z. B. Schwankungen der Kaufkraft, Liquiditätsengpässe, modifizierte Abschreibungsbestimmungen im Steuerrecht) die Verlängerung oder Verkürzung der betriebswirtschaftlich optimalen Nutzungsdauer von Investitionsgütern bewirken (vgl. z. B. über den Einfluss von Rezessionen auf den Ersatzprozess von LKW [27], S. 288 ff.);
5.
sich das Verhältnis von Preisen ändert und so den optimalen Ersatzzeitpunkt verändert (z. B. werden die Preise der Reparaturleistungen höher als die des Neuprodukts, höhere Energiekosten machen den Wechsel zu einem Nachfolgemodell mit niedrigerem Energieverbrauch sinnvoll);
6.
die Vorschriften und Bedingungen (z. B. Inzahlungnahme) bei der Rücknahme ausgedienter Erzeugnisse durch den Hersteller sowie der Schrottwert Einfluss ausüben.
Das Vorhersageproblem kompliziert sich weiter dadurch, dass man selbst bei erzwungenen Maßnahmen (also nicht solchen, die ergriffen werden, weil der Eigentümer z. B. ein technisch fortschrittlicheres oder moderner „gestyltes" Gut [25] an die Stelle des bisherigen setzen möchte) noch zwischen dem völligen Ersatz, einer Generalüberho-
Mittel- und langfristige Absatzprognose auf Basis von Sättigungsmodellen
193
lung, dem Austausch einer wesentlichen Baugruppe (z. B. Motor samt Getriebe) oder dem Kauf eines Gebrauchtguts wählen kann. Insofern ist die praktische Anwendbarkeit einfacher Verweilzeitmethoden begrenzt (vgl. auch Lewandowski [31], S. 441 und S. 454). Mittlerweile sind verschiedene Ansätze bekannt, die Komponenten für Wiederholungskäufe enthalten. Bei solchen, die auf aggregierten Zeitreihen basieren, hält man die Anzahl der Parameter klein, da keine detaillierten Verhaltensinformationen verfügbar sind, und man arbeitet meist stochastisch. Außerdem finden bei diesen Modellen bisher nur Ersatzbedarfe von Gebrauchsgütern Berücksichtigung. Im Gegensatz dazu bergen Paneldaten oft vielfältige repräsentative Beobachtungen in sich, unter anderem die, ob ein Kauf durch Ersatz- oder Mehrbedarf begründet ist oder nicht. Mit den darauf aufsetzenden Modellen gelingen speziellere, auf dem jeweiligen Konsumentenverhalten beruhende Prognosen. Dabei wird häufig mit einer Vielzahl von Parametern gerechnet (z. B. durch Segmentierung, vgl. Kapitel 20). Die aggregierten Modelle haben demgegenüber den Vorteil, dass sie auch bei solchen Anwendungen noch Aussagen treffen können, für die keine Paneldaten verfügbar sind. Einen Überblick über die hier vorgestellten oder lediglich erwähnten Modelle gibt Abbildung 7. Modelle mit Komponenten für Wiederholungskäufe
Ersatzbedarf (aggr. Zeitreihen)
„globaler Wiederholungskauf (Paneldaten)
Modell von Lawrence und Lawton (Abschnitt 11.6.2)
Modell von Parfitt und Collins (Abschnitt 11.6.3)
Modell von Olson und Choi (Abschnitt 11.6.2)
Modell von Ahl (Abschnitt 11.6.3)
Modell von Kamakura und Balasubramanian (Abschnitt 11.6.2)
Modell von Eskin (Abschnitt 11.6.3)
Modell von Steffens (Abschnitt 11.6.2) Modell von Bayus (Abschnitt 11.6.2) Abb. 7: Überblick über Modelle mit Komponenten für Wiederholungskäufe 11.6.2 Das Modell von Olson und Choi und verwandte Verfahren Einen einfachen Ansatz, der erlaubt, Ersatzkäufe von Gebrauchsgütern zu integrieren, haben zunächst Lawrence und Lawton vorgeschlagen [29]: Um den Verlauf der Ersatzkäufe zu erhalten, wird der Produktlebenszyklus um die (konstante) durchschnittliche Lebensdauer verschoben. Anschließend werden die Absatzzahlen beider Kurven aufaddiert. Der Ansatz geht von vereinfachenden Annahmen aus, die dazu führen, dass
194
Mertens, Falk
das Modell in der Praxis lediglich Anhaltswerte liefern kann: Z. B. wird vorausgesetzt, dass der Verlauf der Ersatzkäufe dem der Erstkäufe entspricht und dass man jedes Produkt sofort ersetzt, wenn es unbrauchbar wird. Im Gegensatz zu Lawrence und Lawton gehen Olsen und Chol von einer stochastischen Lebensdauer aus [42]. Deshalb enthält ihr diskretes Modell eine Komponente für Ersatzkäufe R{t), die sich von der für Erstkäufe S{t) unterscheidet. Wir vereinfachen den mathematischen Ausdruck insoweit, dass wir Fehlerterme nicht betrachten wollen, und setzen für die Gesamtverkäufe in der Periode t an:
n{t)=S{t) + R{t)
(66)
Zunächst wird als Wahrscheinlichkeit definiert, dass ein Produkt in der r-ten Periode seines Lebens unbrauchbar wird (Ausfallwahrscheinlichkeit):
Pd{T)= ] f{X)dX mit r > l r-l
wobei f[X) die Wahrscheinlichkeitsdichtefunktion von X ist. Werden die Produkte in der Periode Null zum ersten Mal verkauft und, nachdem sie unbrauchbar geworden sind, immer sofort in der darauffolgenden Periode ersetzt, dann ergibt sich die Ersatzbedarfskomponente zu:
R{t)=tPd{t-i)n{i)
(67)
Hierbei stellt n(j) die beobachteten Verkäufe des Produkts in der Periode / dar. Die Wahl der Wahrscheinlichkeitsdichtefunktion f (/l) richtet sich nach Zuverlässigkeitsanalysen von Produkten, die Auskunft über Ausfallraten geben. Olsen und Choi wählen eine Rayleigh-Verteilung, die den Vorteil hat, dass lediglich ein Parameter bestimmt werden muss. (Sie entsteht aus der Weibull-Funktion für ß = 2 und S = \/a, siehe Gleichung (43) in Abschnitt 11.4.3.)
Der Verlauf der Erstkäufe kann z. B. durch einen Bass-Ansatz mit variablem Sättigungsniveau approximiert werden:
S{t) = (p + qN{t-\))(N\t)-N{t-l))
(68)
7V(r-l) steht für die Anzahl der Käufer, die das Produkt bis zur (/-l)"ten Periode wenigstens einmal erworben haben. Damit ergeben sich mit (67) und (68) die Erst- und Ersatzkäufe in der Periode t zu:
n{t)=S{t) + R{t) = {p + qN{t-l))[N\t)-N{t-l))
+ 'Y.Pd{t-i)n{i)
(69)
Mittel- und langfristige Absatzprognose auf Basis von Sättigungsmodellen
195
Werden die Verkaufszahlen n{t) vorgegeben, so können in dieser nichtlinearen Regressionsgleichung die fehlenden Parameter p,q und S bestimmt werden. Olson und Choi zeigen, dass dies mit einer Kombination von Least-Squares- und MaximumLikelihood-Methode möglich ist ([42], S. 389 f.). Auch Olson und Choi verglichen die Prognoseleistungen ihres Modells mit denen des Bass-Modells. Ihr Ansatz erreichte bei Schwarzweiß- und Farbfernsehern bessere Ergebnisse, da die zu prognostizierenden Werte für einen sehr „späten" Zeitbereich gewählt wurden, indem der Ersatzbedarf bereits deutlich überwog. Eine vielversprechende Weiterentwicklung von Kamakura und Balasubramanian unterscheidet sich dahingehend, dass anstatt von schwer zu ermittelnden jährlichen lediglich kumulierte Verkaufszahlen zur Parameterbestimmung benötigt werden [24]. Außerdem berücksichtigen sie in ihrem Modell als Einflussfaktoren den Preisindex und das Bevölkerungswachstum. Diese Autoren merken an, dass sich zukünftige Forschungen in der langfristigen Prognose mit der Frage beschäftigen müssen, wie man bei aggregierten Modellen Komponenten für reine Mehrkäufe („Zweitgeräte") integriert, da diese die Höhe bzw. den Verlauf des Sättigungsniveaus bei Gebrauchsgütern wie Fernsehern, Radios, Kühlschränken usw. stark beeinflussen können. Steffens [51] entwickelt ein Modell, bei dem die akkumulierten Ersatzinvestitionen auf die Gesamtmenge der im Markt untergebrachten Erzeugnisse (Diffusion) bezogen wird. Die Verteilungsfunktion dieser akkumulierten Ersatzmaßnahmen und Mittelwerte können variabel sein. Die Verkäufe in einer Periode bis zu einem Zeitpunkt / ergeben sich als S^=N^-\-Rf, Nf ist die Zahl der Neuverkäufe und R^ die der außer Betrieb genommenen Einheiten. Es wird unterstellt, dass alle ausgesonderten Betriebsmittel ersetzt werden. In das Modell wird ferner eine Funktion F(a,t) eingeführt. Sie repräsentiert die unbedingte Wahrscheinlichkeit, dass zum Zeitpunkt / eine Einheit mit dem Alter a außer Betrieb genommen wird. Untersuchungen von Bayus [3] übertragen Elemente der Theorie von frühen und späten Käufern bzw. Innovatoren und Imitatoren (vgl. Abschnitt 11.3.4) auf den Ersatz; sie unterscheiden „early and late replacers" von Automobilen und berücksichtigen dabei Faktoren wie das Einkommen, die Ausbildung, die Beschäftigung und die Einstellung gegenüber „weichen" Merkmalen wie optischem Design und Markenruf. 11.6.3 Das Modell von Parfitt und Collins und verwandte Verfahren Dieses Modell ist im Zusammenhang mit der Auswertung der Attwood-Konsum-Panels entwickelt worden [43]. Es dient der Prognose des Marktanteils neuer Produkte. Das Modell folgt in seinem Aufbau den chronologischen Phasen bei der Eroberung eines Marktanteils: 1.
Eine Anzahl A^ von Konsumenten erwirbt das neue Produkt bis zum Zeitpunkt t erstmals.
196 2.
Mertens, Falk Bezieht man A^ auf die Zahl B^ derjenigen Konsumenten, die bis zum Zeitpunkt t zum entsprechenden Gesamtmarkt gehörende Produkte kaufen, so erhält man die Einführungsrate E^ zum Zeitpunkt / in Prozent:
E,=^-mJiA{i)/iB{i)\ B^
\i=0
100
i=0
3.
Von den Erstkäufern A^ kauft eine Anzahl das neue Produkt wiederholt. Die Wiederholkäufe führen in einem Zeitintervall s zu dem Absatz M^ (s), gemessen aufgrund der zum Zeitpunkt t vorhandenen (Panel-)lnformationen.
4.
Bezieht man M^ (s) auf den Wert Q (s) des Gesamtabsatzes im relevanten Markt in der Periode s, so erhält man die Wiederholkaufrate W^ [s) in Prozent zu
5.
1^(5) sei der im Zeitintervall s von den Käufern des neuen Produkts durchschnittlich getätigte Gesamtumsatz auf dem relevanten Markt. Bezieht man Y^ [s) auf das durchschnittliche Kaufvolumen Z^ [s) aller Marktteilnehmer in dem Zeitintervall s, wiederum festgestellt zum Zeitpunkt /, so ergibt sich der Kaufratenfaktor K^ (s), der anzeigt, ob die Käufer des neuen Produkts überdurchschnittlich (z. B. Großkunden) oder unter- bzw. durchschnittlich viel kaufen:
6.
Die zum Zeitpunkt t errechnete Prognose des Marktanteils resultiert dann aus dem Produkt der Einführungsrate mit der Wiederholkaufrate und dem Kaufratenfaktor (vgl. hierzu auch Abbildung 8):
' 1 0 0 Die Prognose des langfristig sich einstellenden Marktanteils S* ermittelt man durch Abschätzen der langfristig zu erwartenden Grenzwerte von E^ und W^ (s) und Einsetzen in Gleichung (70). Eine Verfeinerung kann dahin erfolgen, dass man die im Panel vorhandenen Konsumenten in Segmente zerlegt (vgl. auch Kapitel 20 dieses Buches), für jedes Segment getrennt prognostiziert und erst dann den Gesamtmarktanteil durch Addition errechnet. Die Segmentierung kann nach marktpsychologischen Kriterien erfolgen. Interessant erscheint in diesem Zusammenhang ein empirischer Befund von Parfitt und Collins, wonach Käufer, die das Produkt sehr spät nach der Einführungskampagne zum ersten Mal erwerben, eine niedrige durchschnittliche Wiederholkaufrate haben.
Mittel- und langfristige Absatzprognose auf Basis von Sättigungsmodellen Umsätze am Produktmarkt in Prozent
Käufer am Produktmarkt (akkumuliert) in Prozent
66%
mit einem Kaufratenfaktor K/s)=\,2 folgt:
59%
197
prognostizierter Marktanteil bei den Umsätzen am Produktmarkt
mit einer Wiederholkaufrate Wf(s)=2SVo folgt:
59% 89,8 % 75%
neues Produkt
34%
Kt(s)
41 % 25%
41 %
10,2 Vo=S^
Abb. 8: Prognose des Marktanteils nach Parfitt und Collins zum Zeitpunkt t Parfitt und Collins testeten verschiedene Wachstumsfunktionen, um Anhaltspunkte zu liefern, wie die Einführungsrate Ef ihrem Grenzwert E* entgegenstrebt. Sie haben die Exponentialfunktion
E,=E\\-e-"')
(71)
als in den meisten Fällen geeignet befunden (vgl. auch [28]). Kroeber-Riel und Roloff [28] haben das Modell von Parfitt und Collins einer Analyse unterzogen und für den Verlauf von W, [s) die Funktion
W,{s) =
(72)
•+ £
t +S
angesetzt, wobei y,S und s Parameter mit y,S>(i,s>0
sind.
Arbeitet man mit dieser Annahme und setzt man vereinfachend K, (*) = 1, so erhält man für den Verlauf des Marktanteils die Funktion
'
100 U + ^ ^
^
^
^
indem E^ und W^{s) aus den Gleichungen (71) und (72) in Gleichung (70) eingesetzt werden. Diese Funktion zeigt etwa den in Abbildung 9 dargestellten Verlauf. Das Modell von Eskin [16] stellt einerseits eine Weiterentwicklung des Verfahrens nach Parfitt und Collins dar, andererseits wollte Eskin eine Vereinfachung des unten angedeuteten Verfahrens von Massy bieten, sodass man Eskins Methode als Mittelweg zwischen den Modellen von Parfitt und Collins und von Massy werten kann. Auch Eskin geht davon aus, dass die einzelnen Konsumenten aus verschiedenen Gründen (z. B. Haushaltsgröße, psychologische Merkmale usw.) ein unterschiedliches Kaufverhalten zeigen, sodass sich die Prognose zunächst auf einzelne Komponenten
198
Mertens, Falk
des Markts in Form von Käuferklassen erstrecken muss. Um die Käufer zu klassifizieren, werden sie daraufhin beobachtet, wie oft sie das neue Produkt wieder erworben haben und zu welchen Zeitpunkten bzw. nach welchen Zeitintervallen dies geschah. Die Wiederholkaufakte werden also aufgespalten nach solchen aus erster Wiederholung, zweiter Wiederholung usw. und dann in die Anzahl der Kaufakte in Abhängigkeit von der Frist, die seit dem Erstkauf vergangen ist.
Abb. 9: Verlauf des Marktanteils für K^ {s) = l Das Verfahren von Eskin hat den in der Marketingpraxis willkommenen Nebeneffekt, dass eine Reihe von mengen- und käuferbezogenen Kennzahlen anfällt, die die intensive Marktbeobachtung in der kritischen Phase der Einführung eines neuen Produkts erleichtern. Das Verfahren von Massy [37], das unter dem Namen STEAM bekannt wurde, betrachtet die Folge der Kaufentscheidungen von individuellen Haushalten in den einzelnen Phasen der Marktdurchdringung als stochastischen Prozess. Dabei werden als Einflussgrößen unter anderem der durchschnittliche Verbrauch des Gutes, der Zeitpunkt des letzten Kaufs und die Zeitspanne seit dem letzten Kauf berücksichtigt. Das Modell stellt hohe Anforderungen an Quantität und Qualität der verfügbaren Daten und an die Einstellung der zahlreichen Parameter. Eine wesentlich detailliertere Darstellung von Eigenschaften, Vor- und Nachteilen sowie Einsatzmöglichkeiten der in diesem Abschnitt skizzierten Methodengruppe findet sich bei Meffert und Steffenhagen [39]. 11.7 Entscheidungsunterstützung über Testmärkte Ein interessantes Feld der Vorhersagetheorie bei Produktinnovationen ist die Auswertung von Testmärkten. Einen Überblick zu acht Modellen und Parameter-Schätzverfahren findet man bei Hardie u.a. [23]. Messungen des Käuferverhaltens in Testmärkten und die zugehörigen statistischen Auswertungen entscheiden mit darüber, ob die in diesem Kapitel beschriebenen Diffusionsprozesse vom Management überhaupt in Gang gesetzt werden.
Mittel- und langfristige Absatzprognose auf Basis von Sättigungsmodellen
199
Gerade wenn wenig Erfahrung zu einem innovativen Gut vorliegt, verlassen sich viele Verantwortliche in der Unternehmensleitung auf solche Resultate. Andererseits existiert bei derartigen Produkten ein erheblicher Druck, die Zeit von der Entwicklung bis zur Markteinführung („time to market") zu verkürzen; mit anderen Worten: Die Test-Periode soll so kurz wie möglich sein. Eine große Zahl der einschlägigen Modelle hat man in den sechziger und siebziger Jahren entwickelt, als man noch auf Marktforschungsdaten (z. B. aus Panels) angewiesen war, die im wöchentlichen Rhythmus gewonnen wurden. Die Herausforderung besteht nun darin, in der Modellentwicklung die technischen Möglichkeiten bei der Verkaufsdatenerfassung (Point-of-sale-recording, Radio Frequency Identification (RFID)) zu nutzen, um jeweils die neuesten, in kurzen Abständen eintreffenden Verkaufsinformationen zu verwenden und festzustellen, ob die Prognose hinreichend konvergiert. Dabei kann die bei derartigen Modellen übliche Trennung in Erstkauf, erster, zweiter, ... Wiederholungskauf beibehalten werden (vgl. Abschnitt 11.6). Fader u.a. [17] überprüfen, welche Wirkung zusätzliche Einflussgrößen aus dem Marketing nicht nur auf die Güte der Prognose haben, sondern es erlauben, die Zeit zu verkürzen, die benötigt wird, um die Vorhersagemodelle zu kalibrieren. Bei den Modellvarianten werden drei Aspekte unterschieden: 1.
Ist bei der Definition der Sättigungslinie eine Gruppe von Käufern bzw. Haushalten in Rechnung zu stellen, die das neue Produkt, z. B. aus fundamentaler Überzeugung bezüglich ökologischer Verträglichkeit, nie ausprobieren („never triers")?
2.
Wird die Heterogenität der Verbraucher (vgl. Abschnitt 11.3.3) explizit modelliert?
3.
Werden die Einflüsse von Marketing-Entscheidungen in das Modell aufgenommen?
In Experimenten mit Daten des BehaviorScan der Firma Information Resources, Inc. (IRI) aus verschiedenen regionalen Märkten in den USA testeten Fader u.a. Erzeugnisse wie Fruchtsäfte, Kekse, Salzgebäck und Salat-Dressings. IRI berichtete, in welchen Wochen wie viel Teilnehmer eines Haushaltspanels das neue Produkt erwarben. Dazu wurden Informationen über Marketing-Aktivitäten für das neue Erzeugnis in den einzelnen Wochen (promotional activity), z. B. gemessen in der Zahl der aufgestellten Displays oder der ausgeteilten Coupons, herangezogen. Die meisten Modelle erreichten nach 20 Wochen einen Mean Absolute Percentage Error (MAPE), auf den die weiteren Trennentscheidungen zur Vermarktung gestützt werden konnten. Mit anderen Worten: Die Ausdehnung der Versuchszeit über jene 20 Wochen hinaus brachte keine so hohen Genauigkeitssteigerungen, dass sie zu rechtfertigen gewesen wäre. In Einzelfällen erreichte man auch Genauigkeiten im 10 %-Bereich nach nur zwölf Wochen. Fader u.a [17] ziehen aus ihren Arbeiten den Schluss, dass es wichtig ist, die Heterogenität der Kundschaft zu modellieren, da Einflussgrößen wie Werbemaßnahmen, Coupons oder Aktionen in den Läden vor allem dann zu Genauigkeitssteigerung beitragen, wenn die Versuchsperiode sehr kurz ist.
200
Mertens, Falk
Als Forschungsaufgabe für die Zukunft nennen sie, dass im gegebenen Zusammenhang Bayes-Methoden verstärkt in Betracht zu ziehen seien. 11.8 Verwendungsbreite und Vergleich Die Theorie der Diffusions- bzw. Sättigungsmodelle ist verhältnismäßig weit entwickelt. So verwundert es nicht, dass sie über die ursprüngliche Absicht, sie zur mittelfristigen Vorhersage der Marktdurchdringung von neuen Erzeugnissen heranzuziehen, auch andere Verwendung gefunden hat. Hierzu zählen, das Sättigungsniveau abzuschätzen oder einzelne Phasen zu prognostizieren, etwa jene, in der sich das neue Erzeugnis am schnellsten ausbreitet. Die Ausbreitung der Produkte, die mit den Modellen beschrieben worden ist, betrifft Fahrzeuge, Chemieprodukte, Computer, langlebige Konsumgüter, Roboter, Solarenergieanlagen, Telefone, Fernseher und landwirtschaftliche Geräte. Es gibt eine Reihe von Literaturübersichten und -vergleichen ([33], [34], [35], [38][36]). Die Vielfalt der Studien zur Leistungsfähigkeit der Methoden im Vergleich, die ihrerseits wieder bei Meade und Islam zusammengefasst sind [38], erbringt, dass die komplizierteren „Derivate" der Grundmodelle den Aufwand zur Beherrschung der größeren Komplexität (z. B. den Umgang mit einer größeren Zahl von Parametern) nicht rechtfertigen; vielmehr schneiden einfachere Verfahren, darunter vor allem die logistische Funktion und die Modelle von Gompertz und Bass, in den Gegenüberstellungen recht gut ab. Methoden, die von einem variablen Sättigungsniveau ausgehen, haben sich in der Regel nicht als wesentlich leistungsfähiger erwiesen als solche, die ein konstantes Sättigungsniveau unterstellen. Bei vielen Erzeugnissen wurde in der Prognoseforschung das Sättigungsniveau unterschätzt. So hat 1973 Dodds geschätzt, dass die Sättigungslinie für das Kabelfernsehen bei 10 % der Haushalte in den Vereinigten Staaten liegen würde, 1978 waren bereits 17 % damit ausgestattet. Bei Vorhersagen über eine längere Zeitstrecke enA/iesen sich Verfahren vom ARIMATyp (vgl. Kapitel 13) als überlegen. Diffusionsprozesse für das gleiche Produkt verlaufen oft in verschiedenen geografischen Bereichen unterschiedlich, was je nach Erzeugnis nicht nur mit volkswirtschaftlichen Rahmenbedingungen, wie etwa der Kaufkraft in der Bevölkerung, zu tun hat, sondern auch mit kulturellen Einflüssen. So haben Meade und Islam 1995 die Vorhersagegüte von 17 Modellen für Diffusionsprozesse im Telekommunikationsmarkt in 15 Ländern studiert. Unterschiedliche Verfahren lagen in den einzelnen Ländern an der Spitze, wobei eine Variante des logistischen Modells („Local Logistic") am besten abschnitt, jedoch in den paarweisen Vergleichen nicht signifikant besser als das einfache logistische Modell und das Gompertz-Verfahren. 11.9 Schlussbemerkung und Ausblick Man sollte sich darüber klar sein, dass die behandelten Methoden möglicherweise nur ein Hilfsmittel sind, den Absatzerfolg eines Produkts während seiner Lebenszeit zu prognostizieren, das mit anderen kombiniert werden muss. Der Leser sei vor allem auf
Mittel- und langfristige Absatzprognose auf Basis von Sättigungsmodellen
201
die Arbeit von Chambers u.a. [9] verwiesen, in der am Beispiel von Fernsehgeräten und Haushaltsartikeln gezeigt wird, wie in den einzelnen Phasen der Lebenszyklen andere Verfahren mit den hier skizzierten in Verbindung treten können. Die Aufgabe der Zukunft besteht weiter darin, die Integration der Verhaltenswissenschaften und der statistischen Prognosetheorie fortzusetzen, um Kurvenverläufe erklärbarer zu machen. Das Modell von Bass und seine bereits zahlreichen Erweiterungen sind Schritte in diese Richtung (vgl. [33] und [49]). Insbesondere interessiert, wie sich Änderungen von Marketing-Einflussgrößen auf die Kurvenverläufe auswirken. Bei schwer quantifizierbaren Faktoren wie Werbemaßnahmen, Messen, Händlerschulung, Außendiensteinsatz usw. sind allgemeine Empfehlungen für die Art der funktionalen Beziehung kaum möglich. Wenn sich bedingte Übernahmewahrscheinlichkeiten errechnen lassen, dann kann man die Käuferzuwächse unter Umständen mithilfe von Markovprozessen vorhersagen (vgl. Kapitel 16 dieses Buches). Eine Methode von Easingwood [15], die Ähnlichkeiten in den Diffusionsverläufen bestimmter Produkte ausnutzt, geht von keinerlei bekannten funktionalen Beziehungen aus und könnte daher zukunftsweisend sein: Zunächst werden aus den realen Absatzzahlen von Gebrauchsgütern, die ein ähnliches Profil der Marketing-Einflussgrößen aufweisen, durchschnittliche Parameterwerte für das NSRL-Modell (oder ein anderes flexibles Modell) errechnet und gespeichert (vgl. Abschnitt 11.4.4). Wird nun das Einflussgrößen-Profil eines neuen Produkts erkannt, so kann man mit den vorliegenden Parameterwerten sehr gut auf die neuen Absatzzahlen schließen, was Easingwood anhand von bestimmten Gebrauchsgütern zeigte. Es bietet sich hier an, mit Methoden der Mustererkennung zu experimentieren: Dabei trainiert man ein Künstliches Neuronales Netz mit Einflussgrößen-Profilen und zugehörigen Werten von Parametern flexibler Modelle (vgl. hierzu auch Kapitel 17 in diesem Buch). 11.10 Literatur [I] [2] [3] [4] [5] [6] [7]
[8] [9] [10] [II]
Ahl, D.H., New Product Forecasting Using Consumer Panels, Journal of Marketing Research 7 (1970), S. 160 ff. Bass, F.M., A New Product Growth Model for Consumer Durables, Management Science 15(1969), S. 215 ff. Bayus, B.L., The Consumer Durable Replacement Buyer, Journal of Marketing 55 (1991) 1,S. 42ff. Bertalanffy, L. von. Modern Theories of Development, New York 1934. Bewiey, R. und Fiebig, D.G., A Flexible Logistic Growth Model with Applications in Telecommunications. International Journal of Forecasting 4 (1988), S. 177 ff. Böhm, E., Modelle für Entwicklungsprognosen im Fernsprechwesen, Dissertation, Stuttgart 1969/70. Böhm, E. und Wacker, W., Wachstumsfunktionen mit Sättigungsverhalten und ihre Anwendung in ökonometrischen Prognosemodellen für den Fernsprechdienst, Archiv für das Post- und Fernmeldewesen 31 (1979), S. 305 ff. Bonus, H., Die Ausbreitung des Fernsehens, Meisenheim 1968. Chambers, J.C., Mullick, S.K. und Smith, D.D., How to Choose the Right Forecasting Technique, Harvard Business Review 49 (1971) 4, S. 45 ff. Chow, G.C., Technological Change and the Demand for Computers, The American Economic Review 57 (1967), S. 1116 ff. De Kluyver, CA., A Comparative Analysis of the Bass and Weibull New Product Growth Models for Consumer Durables, New Zealand Operational Research 10 (1982), S. 99 ff.
202
[12
[13:
[14
[15: [16
[17:
[18: [19: [2o: [21 [22 [23 [24
[25: [26:
[27: [28:
[29:
[3o: [31 [32 [33 [34 [35
Mertens, Falk Dichtl, E., Die Beurteilung der Erfolgsträchtigkeit eines Produktes als Grundlage der Gestaltung des Produktionsprogramms, Berlin 1970. Easingwood, CJ., Mahajan, V. und Muller, E., A Nonsymmetric Responding Logistic Model for Forecasting Technological Substitutions, Technological Forecasting and Social Change20(1981), S. 199 ff. Easingwood, C.J., Mahajan, V. und Muller, E., A Nonuniform Influenae Innovation Diffusion Model of New Product Acceptance, Marketing Science 2 (1983), S. 273 ff. Easingwood, C.J., An Analogical Approach to the Long Term Forecasting of Major New Product Sales, International Journal of Forecasting 5 (1989), S. 69 ff. Eskin, G.J., Dynamic Forecasts of New Product Demand Using a Depth of Repeat Model, Journal of Marketing Research 10 (1973), S. 115 ff. Fader, P.S., Forecasting New Product Trial in a Controlled Test Market Environment, Journal of Forecasting 22 (2003), S. 391 ff.; vgl. auch Fader, P.S. und Hardie, B.G.S., Forecasting Trial Sales of new Consumer Packaged Goods, in: Armstrong, J.S. (Hrsg.), Principles of Forecasting, Boston u.a. 2001, S. 613 ff. Fiedler, J., Prognosemethoden für die Bestands- und Absatzentwicklung neuer Produkte, Forschen-Planen-Entscheiden 3 (1967) 1, S. 13 ff. Fourt, L.A. und Woodlock, J.W., Early Prediction of Market Success for New Grocery Products, Journal of Marketing 25 (1960) 2, S. 31 ff. Gahse, S., Methode der langfristigen Bedarfsvorhersage bei vorhandener Sättigungsgrenze, Neue Betriebswirtschaft 12 (1964), S. 147 ff. Gierl, H., Diffusionsmodelle, Techniken zur Absatzprognose und Gestaltung der Absatzpolitik, Wirtschaftswissenschaftliches Studium 21 (1992), S. 382 ff. Greene, D.L. und Chen, C.K.E., Scrappage and Survival Rates of Passenger Cars and Light Trucks in the U.S. 1966-77, Transportation Research 15 (1981) 5, S. 383 ff. Hardie, B.G.S., Fader, P.S. und Wisniewski, M., An Empirical Comparison of new Product Trial Forecasting Models, Journal of Forecasting 17 (1998), S. 209 ff. Hesse, H.W., Kommunikation und Diffusion von Produktinnovationen im Konsumgüterbereich, Berlin 1987. Hoffer, G. und Reilly, R., Automobile Styling as a Shift Variable: An Investigation by Firm and by Industry, Applied Economics 16 (1984), S. 291 ff. Kamakura, W.A. und Balasubramanian, S.A., Long-term Forecasting with Innovation Diffusion Models: The Impact of Replacement Purchases, Journal of Forecasting 6 (1987), S. 1 ff. Kasper, E.F., Verschleißgrad und Austauschrate als Hilfe bei Absatzprognosen, Zeitschriftfür betriebswirtschaftliche Forschung 24 (1972), S. 281 ff. Kroeber-Riel, W. und Roloff, S., Zur Problematik von Wendepunkten in Trendfunktionen, dargestellt an einem Modell zur Prognose von Marktanteilen, Zeitschrift für betriebswirtschaftliche Forschung 24 (1972), S. 294 ff. Lawrence, K.D. und Lawton, W.H., Applications of Diffusion Models: Some Empirical Results, in: Wind, Y., Mahajan, V. und Cardozo, R.N. (Hrsg.), New Product Forecasting, Lexington 1981, S. 529 ff. Lewandowski, R., Systematik der langfristigen Prognose, Monographien zu den modernen Methoden des Managements, Nr. 1, Dortmund 1970. Lewandowski, R., Prognose- und Informationssysteme und ihre Anwendungen, BerlinNew York 1974. Lund, R., Making Products live longer, Technology Review 79 (1977), S. 49 ff. Mahajan, V., Muller, E. und Bass, F.M., New Product Diffusion Models in Marketing: A Review and Directions for Research, Journal of Marketing 54 (1990) 1, S. 1 ff. Mahajan, V. und Petersen, R.A., Innovation Diffusion in a Dynamic Potential Adopter Population, Management Science 24 (1978), S. 1589 ff. Mahajan, V. und Petersen, R.A., Models for Innovation Diffusion, Beverly Hills u.a. 1985.
Mittel- und langfristige Absatzprognose auf Basis von Sättigungsmodellen [36] [37] [38]
[39] [40]
[41] [42] [43] [44] [45]
[46] [47]
[48] [49]
[50] [51] [52] [53]
203
Martine, J.P., Technological Forecasting for Decision Making, 2. Aufl., New York u.a. 1983. Massy, W.F., Montgomery, D.B. und Morrison, D.G., Stochastic Models of Buying Behavior, Cambridge 1970. Meade, N. und Islam, T., Forecasting the Diffusion of Innovations: Implications for TimeSeries Extrapolation, in: Armstrong, J. S. (Hrsg.): Principles of Forecasting: A handbook for Researchers and Practitioners, Kluwer, Boston u.a. 2001. Meffert, H. und Steffenhagen, H., Marketing-Prognosemodelle, Stuttgart 1977. Mertens, P. und Rackelmann, G., Konzept eines Frühwarnsystems auf der Basis von Produktlebenszyklen, in: Albach, H., Hahn, D. und Mertens, P. (Hrsg.), Frühwarnsysteme, Ergänzungsheft 2/1979 der Zeitschrift für Betriebswirtschaft, Wiesbaden 1979, S. 70 ff. Oliver, F.R., Aspects of Maximum Likelihood Estimation of the Logistic Growth Function, Journal of the American Statistical Association 61 (1966), S. 697 ff. Olsen, J. und Chol, S., A Product Diffusion Model Incorporating Repeat Purchases, Technological Forecasting and Social Change 27 (1985), S. 385 ff. Parfitt, J.H. und Collins, B.J.K., Use of Consumer Panels for Brand-share Prediction, Journal of Marketing Research 5 (1968), S. 131 ff. Pfeiffer, W. und Bischof, P., Produktlebenszyklen - Instrument jeder strategischen Produktplanung, in: Steinmann, H. (Hrsg.), Planung und Kontrolle, München 1981, S. 133 ff. Raymond, J.E., Beard, R.T. und Gropper, D.M., Modelling the Consumer's Decision to Replace Durable Goods: A Hazard Function Approach, Applied Economics 25 (1993) 10, S. 1297 ff. Rogers, E.M., Diffusion of Innovations, 3. Aufl., New York 1983. Roos, C.F. und Szeliski, V. von, Factors Governing Changes in Domestic Automobile Demand, in: General Motors Corporation (Hrsg.), The Dynamics of Automobile Demand, New York 1939, S. 21 ff. (zit. nach [4]). Schmalen, H., Das Bass-Modell zur Diffusionsforschung, Zeitschrift für betriebswirtschaftliche Forschung 41 (1989), S. 210 ff. Schmalen, H., Binninger, F.-M. und Pechtl, H., Diffusionsmodelle als Entscheidungshilfe zur Planung absatzpolitischer Maßnahmen bei Neuprodukteinführungen, Die Betriebswirtschaft 53 (1993), S. 513 ff. Späth, H., Algorithmen für elementare Ausgleichsmodelle, München-Wien 1973. Steffens, P.R., An Aggregate Sales Model for Consumer Durables Incorporating a Timevarying Mean Replacement Age, Journal of Forecasting 20 (2001) 1, S. 63 ff. Ulrich, E. und Köstner, K., Prognosefunktionen, Beiträge zur Arbeitsmarkt- und Berufsforschung Nr. 27, Nürnberg 1979. Weblus, B., Zur langfristigen Absatzprognose gehobener Gebrauchsgüter, z. B. von Fernsehgeräten u. a. m., Zeitschrift für Betriebswirtschaft 35 (1965), S. 592 ff.
12 Indikatorprognosen von Norbert Niederhübner 12.1 Einführung Das Verfahren der Indikatorprognose versucht, zeitliche Strukturen (Lead-Lag-Beziehungen) zwischen volks- und betriebswirtschaftlichen Kenngrößen aufzudecken und mittels statistischer Methoden eine Vorhersage der zukünftigen Entwicklung einer Zielreihe abzuleiten. Diese Art der modellgestützten Datenanalyse ist damit den im Bereich der Konjunkturtheorie eingesetzten Multiplikator- und Akzeleratoranalysen verwandt, berücksichtigt also ökonomische Gesetzmäßigkeiten im Sinne logischer Konjunktionen. Ziel der Indikatorprognose ist es, die aktuelle wirtschaftliche Situation zwecks Absicherung der Verlaufsanalyse zu erklären, die Qualität der zukünftigen Entwicklung vorherzusagen und den Zeitpunkt von Tendenzwenden zu bestimmen. 12.2 Ablauf des Indikatorverfahrens Im ersten Schritt wählt man eine potenzielle Indikatormenge aus. Als fundamentale Eigenschaft für deren Elemente wird die theoretische Plausibilität gefordert, d. h., es muss zwischen Indikator und Zielreihe ein Erklärungszusammenhang bestehen. V
C
Bestimmen einer potenziellen Indikatormenge J ^
"
Ermitteln der Vorlauflänge
J
JüEingrenzen der Indikatormenge
J
41. Schätzen der Prognosefunktion
1
» Durchführen der Prognose
"" ^
1
m~ Überprüfen der Prognose
J
Abb. 1: Anwendung der Indikatormethode Nach Bestimmung der Vorlauflängen wird die Indikatormenge dahingehend eingeschränkt, dass die verbleibenden Indikatoren die Forderungen nach einem ausreichend starken Zusammenhang mit der Zielreihe sowie eines hinreichenden Vorlaufs zur Realisierung der angestrebten Prognosereichweite erfüllen. Schließlich wird aus den beob-
206
Niederhübner
achteten Vergangenheitswerten der Zielreihe die Prognosefunktion geschätzt, wobei man versucht, den nicht erklärten Anteil (repräsentiert durch die Störgröße e^) zu minimieren. Für die Prognose selbst wird dann unterstellt, dass der hergeleitete Zusammenhang zwischen der Zielreihe und den erklärenden Variablen zumindest für den Prognosezeitraum besteht. Diese Annahme ist - wie alle vorher getroffenen Entscheidungen - abschließend zu überprüfen. In Abschnitt 12.6 wird ein praktisches Beispiel für die beschriebene Vorgehensweise vorgestellt. In der Literatur findet sich mit [25] eine weitere, nahezu deckungsgleiche Anwendung des skizzierten Verfahrens. Gerade im Bereich der indikatorbasierten Prognose makroökonomischer Zahlenreihen existiert eine umfangreiche wissenschaftliche Literatur (siehe zum Beispiel [6], [7], [8] oder [9]). In Bezug auf den vorgestellten Ablauf des Indikatorverfahrens sind vor allem Variationen im Bereich der Auswahl des jeweils eingesetzten Prognoseverfahrens und der Prognosevalidierung, insbesondere in Hinblick auf die Berücksichtigung spezifischer Randbedingungen der jeweiligen Aufgabenstellung, festzustellen (siehe auch Abschnitte 12.4 und 12.5). Der aktuelle Stand der Forschung wird in [21] kritisch beleuchtet. Speziell der praktische Nutzen zusammengesetzter Indikatoren (und damit auch deren Einsatz im Rahmen einer kombinierten Prognose) wird von den Autoren Hendry und Clements in Frage gestellt. Interessant erscheinen in diesem Zusammenhang auch die Arbeiten von Emerson und Hendry [15] mit dem Ziel der Erkennung konjunktureller Wendepunkte mithilfe aggregierter Indikatoren. Das dort vorgestellte Verfahren versucht, mittels der Verknüpfung statistischer und ökonometrischer Modelle, eine geeignete Parametrisierung der Indikatorprognose abzuleiten. Die Autoren selbst räumen aber ein, dass weitere Arbeiten in diesem Bereich erforderlich wären, um dieses Ziel zu erreichen. Dieser theoretisch vielversprechende Ansatz kann wohl derzeit noch nicht als praxistauglich betrachtet werden, zumal sich die Autoren in den folgenden Jahren auf die Thematik „Strukturbruch" (insbesondere in Hinblick auf fehlerhafte Modelle mit systematischen Bias, siehe z. B. [22]) spezialisiert haben. Eine weitere Alternative stellt das multivariate Fehlerkorrekturmodell (VECM) dar [2], [28]. Es repräsentiert ein geeignetes Instrument, dynamische Beziehungen zwischen ökonomischen Größen zu spezifizieren, ohne dass über ihre Natur als endogene oder exogene Variable und über strukturelle Abhängigkeiten explizite Annahmen getroffen werden müssen. Die Praxisrelevanz der VECM zeigt sich auch darin, dass bereits verschiedene Programmpakete zur Zeitreihenanalyse diese Methode unterstützen (zum Beispiel JMulTi [24]). 12.3 Methoden der Lag-Bestimmung Der visuelle Vergleich der Indikatorreihen mit der Zielreihe liefert eine erste Abschätzung der Vorlauflänge und vermittelt eine grobe Vorstellung von der Stärke des Zusammenhangs zwischen den beiden Zeitreihen x^ und y^. Zur exakteren Bestimmung der Phasenverschiebung wird üblicherweise die Korrelationsanalyse angewandt. Ausgangspunkt dieser Technik ist die Schätzung des Lag-Korrelationskoeffizienten r^y, definiert durch (vgl. z. B. [23], S. 226):
Indikatorprognosen 1
n-k
n-k
ik):
i=l
n-k
\
n-k
\
E (v. . -yf
S(x^ - X) ' n-k
_
/=i
i
n-k
n-k
i=i
mit x=
207
'
^
_
n-k
M^*^'""^
\
n-k
n-k
i=\
I x , und y =
-^^
Zyt+k
Der für die Prognose maßgebliche Lag ergibt sich aus dem Wert des Parameters k, für den diese Funktion ihr Maximum annimmt. Hierin liegt aber auch der wesentliche Schwachpunkt der Methode; es wird nur ein durchschnittlicher Lead/Lag für das zugrunde gelegte Verschiebungsintervall ermittelt, Veränderungen im Zeitablauf werden nicht indiziert. Empirische Untersuchungen (vgl. [14] oder [12]) belegen aber, dass das Vorlaufverhalten von Indikatoren im Zeitablauf schwankt. Beispielsweise ist die Vorlauflänge abhängig von der aktuellen Konjunkturlage; in der Regel zeigt sich an den oberen Wendepunkten ein deutlich größerer Vorlauf als an den unteren. Für die Anwendung der Korrelationsanalyse spricht, dass gleichzeitig auch die Stärke des Zusammenhangs zwischen den beiden Zeitreihen ermittelt wird. Werte von r^^, die nahe bei den Extrema +1 bzw. - 1 liegen, deuten auf einen stark positiven bzw. negativen linearen Zusammenhang hin, Werte um Null auf Unkorreliertheit. Dormayer und Lindibauer [13] geben als Faustregel zur Beurteilung der Indikatorqualität eine am Korrelationskoeffizienten R nach Bravais-Pearson (folgt aus r^^ für k gleich Null) orientierte Klassifizierung an: \R\ > 0,8 0,8>|i?|>0,6 0,6>|i?|>0,4 0,4 > \R\ > 0,0
sehr guter Indikator guter Indikator durchschnittlicher Indikator schlechter/kein Indikator
Als weitere Technik zur Ermittlung der Phasenverschiebung ist die Methode der Kreuzspektralanalyse zu nennen (vgl. z. B. [23], S. 226). Sie erlaubt eine differenzierte Darstellung der Lead/Lag-Beziehungen nach verschiedenen Frequenzkomponenten. Aufgrund seiner Komplexität kann jedoch das Verfahren nicht automatisiert werden. Für die erforderliche Eingrenzung der Indikatormenge sind die bisher erhaltenen Informationen jedoch noch nicht aussagekräftig genug. Wie Abbildung 2 (in Anlehnung an [14]) verdeutlicht, ist zwischen dem potenziellen Vorlauf eines Indikators und der realisierbaren Prognosereichweite zu unterscheiden. 12.4 Prognoseverfahren 12.4.1 Regressionsanalyse In der Praxis wird meist der regressionsanalytische Ansatz zur Bestimmung der Prognosefunktion eingesetzt (siehe z. B. [26] oder [23]). Die zu ermittelnde Regressionsgleichung ist von folgender Gestalt (nach [14]):
208
Niederhübner yt=%
+ TciiXif_/, i=\
+et
mit:
yt ÜQ
Anzahl der Indikatoren Störgröße Vergangenheitswert in Periode / Regressionskonstante Regressionskoeffizienten {i = \,2,...,n) Indikator x, mit einem Vorlauf von h Perioden
Indikatorsignal thtt auf
)
J
Indikator wird veröffentlicht
Veröffentlichungs-Lag
Entwicklung tritt ein
realisierbare /Prognosereichweite ^
J
\
potenzieller Vorlauf
Abb. 2: Indikatorvorlauf und Prognosereichweite Zur Ermittlung der Regressionsparameter wird meist die Methode der kleinsten Quadrate eingesetzt (vgl. Kapitel 7). Die Beliebtheit der multiplen Regression erklärt sich zum einen aus der mathematischen Einfachheit des Verfahrens, zum anderen ist eine ökonomische Interpretation der Regressionskoeffizienten unschwer abzuleiten. Der Einfluss eines einzelnen Indikators auf die Zielreihe wird über den Wert des zugehörigen Regressionskoeffizienten repräsentiert. Allerdings treten bei der Anwendung der multiplen Regression eine Reihe technischer Probleme auf, deren Auswirkungen oft unterschätzt werden (z. B. Multikollinearität, d. h. hohe Interkorrelation zwischen den unabhängigen Variablen); eine ausführliche Diskussion findet sich unter anderem bei Makridakis und Wheeiwright [26]. 12.4.2 Multivariate ARIMA-Modelle Die von Box und Jenkins entwickelten ARIMA-Modelle (autoregressive integrated moving average) umfassen eine allgemeine Klasse stochastischer Prozesse zur Beschreibung von Zeitreihen. Dieser Ansatz wird in Kapitel 14 ausführlich behandelt. Die Erweiterung auf multivariate ARIMA-Modelle (bzw. Transferfunktionsmodelle, vgl. [19], S. 217) erlaubt zusätzlich, erklärende Variablen einzubeziehen (zur Vereinfachung der Darstellung sei die Stationarität der Zeitreihen vorausgesetzt):
yt -ßo^iy~'{B) i=\
(D^(5) x^, + (l)-\B) @{B)^e,
Indikatorprognosen
209
Dabei repräsentieren die Filtersequenzen T~\B) 0 ^ ( 5 ) den Einfluss des Indikators / auf die abhängige Variable; sie stellen konzeptionell den Zusammenhang zu den unter Abschnitt 12.3 abgeleiteten Lag-Strukturen her. In der Praxis werden in diesem Bereich häufig die frei verfügbaren Programme TRAMO und SEATS [18] eingesetzt. Unter der Bezeichnung TERROR („TRAMO for ERROR") existiert zusätzlich eine Weiterentwicklung zur automatischen Auswahl des ARIMAModells, die insbesondere für Anwendungsszenarios mit fehlenden Datenwerten, Ausreißern und saisonalen Effekten einsetzbar ist [10]. 12.4.3 Kombinierte Prognosen Besitzt man nun mehrere Vorhersagen für die interessierende Größe, die jeweils auf unterschiedlichen (nicht notwendigerweise disjunkten) Informationsmengen beruhen, so kann angenommen werden, dass aus einer Kombination dieser Vorhersagen verbesserte Prognosen resultieren. Als Kombinationsmethode ist eine gewichtete Durchschnittsbildung denkbar, dabei sind die Gewichtungsfaktoren der Einzelvorhersagen als Repräsentanten des jeweiligen Informationsgehalts zu verstehen. Von Granger und Newbold [19] oder auch Winkler und Makridakis [30] wurden verschiedene Alternativen zur Bestimmung der Gewichte auf ihre Eignung hin untersucht. Beide Veröffentlichungen weisen darauf hin, dass in der Praxis kaum Unterschiede in der Leistungsfähigkeit der verschiedenen Gewichtungsmethoden festzustellen sind. Jedoch wurden leichte Vorteile für diejenigen Verfahren verzeichnet, welche die Gewichte proportional zum Kehrwert der Summe der quadrierten Fehler ansetzen. Folgende Formel zählt zu dieser Klasse:
\^J=\\t=n-S
mit: ^^'^ M S
= = =
Gewicht der Einzelprognose / Anzahl der verfügbaren Einzelprognosen Reagibilitätsparameter
Damit ergibt sich die kombinierte Prognose zu y^ = Z % yl! Der Parameter S steuert die Reagibilität des Verfahrens, d. h., die Wahl von S beeinflusst die Verzögerung, mit der das Verfahren auf Instationaritäten reagiert. Eine Vielzahl weiterer Varianten zur Bildung der kombinierten Prognose werden in der Bibliographie von Trenker und Gotu [29] referenziert. Sehr oft aber werden jedoch nur spezielle Anwendungsfälle mit ganz spezifischen Randbedingungen behandelt (unter anderem hinsichtlich bestimmter Verteilungsfunktionen oder der Korrelation zwischen erklärenden Variablen), siehe zum Beispiel [31] oder [16]. Regelbasierte Kombinationsmethoden (vor allem Arbeiten im Umfeld von J. Armstrong [1], [5]) repräsentieren wohl die interessanteste Weiterentwicklung in diesem Bereich. Auch der Einsatz neuronaler Netze stellt eine interessante Alternative dar (vgl. [27]). Ansonsten sind gegen-
210
Niederhübner
über [11] kaum Beschreibungen allgemein einsetzbarer Verfahren in der neueren Literatur zu finden. 12.5 Validierung der Prognosen Dieser Abschnitt behandelt Ansätze zur Beurteilung der Prognosegüte und der Überwachung der Prognosemodelle. Es wird dabei nicht auf die statistischen Einzelheiten der Modellverifikation (Signifikanzprüfung der Modellparameter, Kontrolle der WhiteNoise-Eigenschaften für die Residuen usw.) eingegangen. Sie werden z. B. in [19] und [26] ausführlichst behandelt. Zudem ist die Modellvalidierung in der Praxis technisch relativ problemlos möglich (zumindest für die hier relevanten Verfahren), da exakte Regeln zur Durchführung bekannt sind. Definiert man den Prognosefehler e^ als Abweichung der prognostizierten Entwicklung Pf von der tatsächlich eingetretenen y^, so können die bekannten Fehlermaße, wie z. B. der mittlere quadratische Fehler oder die mittlere absolute prozentuale Fehlerabweichung (vgl. hierzu Kapitel 19), zur quantitativen Abschätzung der Prognosegüte bestimmt werden. Wie die unter Abschnitt 12.1 entwickelte Aufgabenstellung zeigt, interessiert man sich jedoch primär für die Frage, inwieweit die Tendenz der Entwicklung getroffen wurde und wie exakt die Vorhersage von Wendepunkten erfolgte. Erste Hinweise in dieser Richtung erhält man, wenn der Theilsche Ungleichheitskoeffizient C/^ zur Beurteilung der Prognosequalität herangezogen wird. (Eine weitergehende Diskussion findet sich in [20].) o
LyPt
f/2 = i ^ L -
yt)
V -V
mit
y, = ^'
^'-'
n
und
p, = P'
-V
^'-'
t=\
Für perfekte Prognosen (also bei Übereinstimmung von prognostizierten und beobachteten Werten) nimmt U den Wert Null an. Ergeben sich für U Werte größer als Eins, so ist dies so zu interpretieren, dass die naive „no change"-Prognose die tatsächlich eingetretene Entwicklung besser als das untersuchte Prognoseverfahren vorhergesagt hat. Das einem Prognose-Realisations-Diagramm zugrunde liegende, sehr anschauliche Prinzip verdeutlicht Abbildung 3 (nach [20]). Als Variante kann der für die Veränderungen relevante Wertebereich in Intervalle eingeteilt sein. Diese repräsentieren dann die qualitative Tendenz der Entwicklung. Die Bewertung einer Prognose orientiert sich daran, ob die beobachtete und die prognostizierte Veränderung der Zielreihe in dasselbe Intervall fallen. Aus den Verfahren zur Beurteilung der Prognosequalität lassen sich verschiedene Alternativen zur Überwachung der Prognosemodelle ableiten. Das grundlegende Verfahren dazu ist das Schwellenwertkonzept (vgl. [14]).
Indikatorprognosen
^t
Überschätzung
211
^^^^^^^, perfekten F
Wendepunktfehler / / 1 / / Überschätzung
Unterschätzung
/
/
+
1 "^
^^
yt
'
/
Wendepunktfehler
/ y '
Unterschätzung
/ Abb. 3: Prognose-Realisations-Diagramm Neben den hier vorgestellten Verfahren zur Beurteilung der Prognosegüte existiert eine ganze Palette weiterer Gütemaße, die je nach Anwendungsfall und Untersuchungsziel die Bewertung relevanter Qualitätseigenschaften einer Prognose unterstützen (siehe zum Beispiel [4]). Einen Überblick zu dieser Thematik vermittelt die Veröffentlichung von Andres und Spiwoks [3]. 12.6 Ein Beispiel Im Rahmen des Projekts „Wissensbasierte Systeme zur Auftragseingangsanalyse und -Prognose" im Bereich Wirtschaftsinformatik I der Universität Erlangen-Nürnberg wurde in Zusammenarbeit mit einem deutschen Großunternehmen die Indikatormethode als Basis der Prognosekomponente eingesetzt. Der erste Schritt bestand in der Auswahl einer potenziellen Indikatormenge für die auf der untersten Ebene nach Wirtschaftsregionen und Kundengruppen strukturierten Zeitreihen der Auftragseingänge (AE). Hierzu wurde ein Sortiment von ca. 100 volkswirtschaftlichen Zahlenreihen untersucht, wie sie beispielsweise vom Statistischen Bundesamt oder dem Ifo-Institut regelmäßig veröffentlicht werden (z. B. Auftragseingang des Grundstoff- und Produktionsgütergewerbes, Ifo-Geschäftsklimata, Zentralbankgeldmenge oder Gesamtgeschäft der verarbeitenden Industrie in den USA). Die Vorauswahl orientierte sich dabei a priori an der theoretischen Plausibilität, d. h., die Möglichkeit eines Erklärungszusammenhangs musste gegeben sein. Zusätzlich wurden einige synthetische Indikatoren konstruiert. Da die Kundenstruktur aus der AE-Hierarchie abzuleiten ist, konnten verschiedene Branchenindikatoren erfolgreich zu aussagekräftigen Gesamtindikatoren aggregiert werden; dabei entsprach die Zusammenstellung dem relativen Anteil der zugehörigen Kundengruppe am Gesamtumsatz. Zunächst wurden die Zeitreihen zerlegt und gleitende Durchschnitte der Ordnung zwölf gebildet, um die glatten Komponenten (Trend und Konjunktur) zu extrahieren. Anschließend diente ein visueller Vergleich der AE- mit den Indikatorreihen einer ersten
212
Niederhübner
Eingrenzung der potenziellen Indikatormenge. Mithilfe der Kreuzkorrelationsanalyse bestimmte man dann die jeweilige Vorlauflänge und die Stärke des Zusammenhangs zwischen und AE- und Indikatorreihe. In die weitere Untersuchung wurden nur noch Indikatoren einbezogen, mit deren Hilfe über mindestens sechs Monate prognostiziert werden konnte. Für die Bildung von Indikatorgruppen wurden die erklärungsstärksten Indikatoren zur jeweiligen Zielreihe ausgewählt und schließlich die Indikatorkombinationen aus zwei bzw. drei Elementen mit dem besten Anpassungsgrad des jeweils resultierenden ARIMA-Modells in das Prognosesystem übernommen. Der Korrelationskoeffizient R lag für die so ermittelten Indikatoren im Bereich von 0,73 bis 0,90. Anschließend wurden für eine 24-monatige Validierungsperiode ex post Prognosen erstellt. Die erreichte Genauigkeit der Vorhersage wird durch die mittlere absolute prozentuale Fehlerabweichung dokumentiert. Sie betrug im Durchschnitt ca. 1,5 %. Der Nutzeffekt des Prinzips der kombinierten Prognose zeigte sich dabei an einem Vergleich mit dem entsprechenden Fehlermaß für die Einzelprognosen (zwischen 1,97 und 2,34 %). Die maximal aufgetretene absolute Fehlerabweichung lag bei 3,51 % für die kombinierte Prognose. Diese Zahlen waren jedoch noch über einen Vergleich mit der No-Change-Prognose zu relativieren. Für diese naive Vorhersagetechnik wurden mittlere Abweichungen um 3 bis 4 % ermittelt, dabei lag die maximale Abweichung bei 7,63 %. Um zu überprüfen, inwieweit die kombinierte Prognose die qualitative Tendenz der AEEntwicklung getroffen hat, wurde eine siebenstufige Intervallstruktur gebildet. Die zugehörigen Veränderungsraten des Auftragseingangs sind als leichter/mittlerer/starker Aufschwung bzw. Abschwung oder Stagnation zu interpretieren. In ca. 60 % der Validierungsfälle lagen prognostizierte und tatsächlich eingetretene Veränderung im selben Intervall; eine Fehleinschätzung um mehr als eine Stufe trat nicht auf. 50,000
20.000 15,000
1978 1979 1980 1981 1982 1983 1984 1985 1986 1987 1988
Abb. 4: AE-Reihe und aggregierter Gesamtindikator In der Phase der Indikatorsuche wurde auch die Beobachtung gemacht, dass zur Absicherung der Verlaufsanalyse für nahezu alle betrachteten AE-Reihen relativ gute, gleichlaufende Indikatoren verfügbar waren. Im Beispiel der Abbildung 4 treten im Zeit-
Indikatorprognosen
213
räum 1985 bis 1987 deutliche Verlaufsdivergenzen auf. In diesem Fall konnte die zeitweilige Unterbrechung der Indikatorbeziehung unter anderem auf eine unternehmensspezifische Ausnahmesituation in bestimmten Teilbereichen zurückgeführt werden. Im Rahmen der Untersuchung hat sich erwartungsgemäß gezeigt, dass für höher aggregierte AE-Reihen leichter Indikatoren zu finden sind, da diese AE-Reihen eher den gesamtwirtschaftlichen Bewegungen folgen. Desgleichen beeinflusst die Produktionsstufe eines Branchenindikators den erreichbaren Prognosehorizont. Diese Erfahrungen decken sich mit dem Ergebnis anderer empirischer Untersuchungen, wie sie beispielsweise von Fuchs [17] für den Bereich der kurzfristigen Produktionsentwicklung durchgeführt wurden.
12.7 Literatur [I]
[2] [3]
[4] [5] [6] [7] [8] [9]
[10] [II] [12] [13]
[14] [15] [16]
Adyaa, M., Armstrong, J., Collopy, F. und Kennedy M., An application of ruie-based forecasting to a Situation lacking domain knowledge, International Journal of Forecasting 16(2000), S. 477 ff. Allen, D. und Gandiya, F., Assessing Exchange Rate Hypotheses within Southern Africa, Aldershot 2004, S. 66 ff. Andres, P. und Spiwoks, M., Prognosegütemaße - State of the Art der statistischen Expost-Beurteilung von Prognosen, Sofia-Studien zur Institutionenanalyse, Darmstadt 2000. Armstrong, J., Correspondence On the Selection of Error Measures for Comparisons Among Forecasting Methods, Journal of Forecasting 14 (1995), S. 67 ff. Armstrong, J. (Hrsg.), Principles of Forecasting: A Handbook for Researchers and Practitioners, Kluwer Academic Publishers2001. Bandholz, H. und Funke, M., In Search of Leading Indicators of Economic Activity in Germany, Journal of Forecasting 22 (2003), S. 277 ff. Benner, J. und Meier, C.-P., Prognosegüte alternativer Frühindikatoren für die Konjunktur in Deutschland, Institut für Weltwirtschaft, Kiel 2003. Breitung, J. und Jagodzinski, D., Prognoseeigenschaften alternativer Indikatoren für die Konjunkturentwicklung in Deutschland, Konjunkturpolitik 47 (2002), S. 292 ff. Camba-Mendez, G., Smith, R., Kapetanios, G. und Weale, M., An Automatic Leading Indicator of Economic Activity: Forecasting GDP Growth for European Countries, Econometrics Journal 4 (2001), S. 56 ff. Caporello, G. und Maravall, A., A Tool for Quality Control of Time Series Data - Program TERROR, Banco de Espana 2002. Giemen, R., Combining forecasts. International Journal of Forecasting 5 (1989), S. 559 ff. Dhrymes, P.J., Distributed Lags: Problems of Estimation and Formulation, San Francisco 1971. Dormayer, H.-J. und Lindibauer, J.D., Sectoral Indicators by Use of Survey Data, in: Oppenländer, K.H. und Poser, G. (Hrsg.), Leading Indicators and Business Cycle Surveys, Aldershot 1984, S. 467 ff. Dormayer, H.-J., Konjunkturelle Früherkennung und Flexibilität im Produktionsbereich, Dissertation, München 1985. Emerson, R. und Hendry, D., An Evaluation of Forecasting using Leading Indicators, Journal of Forecasting 15 (1996), S. 271 ff. Fang, Y., Forecasting Combination and Encompassing Tests, International Journal of Forecasting 19 (2003), S. 87 ff.
214 [17] [18]
[19] [20] [21] [22] [23] [24] [25] [26] [27] [28] [29] [30] [31]
Niederhübner Fuchs, W., BOX-JENKINS-Prognosen der kurzfristigen Produktionsentwicklung, Dissertation, Köln 1989. Gömez, V. und Maravall, A., Programs TRAMO (Time series Regression with Arima noise, Missing observations, and Outliers) and SEATS (Signal Extraction in Arima Time Series), Working Paper 9628, Banco de Espana 1996. Granger, C.W. und Newbold, P., Forecasting Economic Time Series, New York 1977. Heilemann, U., Zur Prognoseleistung ökonometrischer Konjunkturmodelle für die Bundesrepublik Deutschland, Berlin 1981. Hendry, D. und Clements, M., Economic forecasting: Some lessons from recent research, ECB Working Paper No. 82, Economic Modelling 2002. Hendry, D. und Clements, M., Pooling of Forecasts, Econometrics Journal 5 (2002), S. 1 ff. Hilber, G., Mittelfristige Prognose mit Hilfe der Indikatormethode, in: Mertens, P. (Hrsg.), Prognoserechnung, 4. Aufl., Würzburg 1981, S. 225 ff. Jmulti, Applying Multiple Time Series with JAVA, Humboldt-Universität Berlin 2001. Lebrun, I., Le Systeme d'indicateurs avances du BfP, Bureau federal du Plan, Bruxelles 1999. Makridakis, S. und Wheeiwright, S.C., Interactive Forecasting: Univariate and Multivariate Methods, 2. Aufl., San Francisco 1978. Qi, M., Predicting U.S. Recessions with Leading Indicators via Neural Network Models, International Journal of Forecasting 17 (2001), S. 383 ff. Silber, F., Alternative Konzepte zur Anpassungsanalyse in Vektor-FehlerkorrekturModellen, FEMM Working Paper 21/2000, Magdeburg 2000. Trenkler, G. und Gotu B., Combination of Forecasts: A Bibliography, Technical Report SFB 475, Universität Dortmund 1998. Winkler, R.L. und Makridakis, S., The Combination of Forecasts, Journal of the Royal Statistical Society A 146 (1983), S. 150 ff. Yang, Y., Combining Forecasting Procedures: Some Theoretical Results, Proceedings ICML-00, 17th International Conference on Machine Learning 2000, S. 1167 ff.
13 Lineare Filter und integrierte autoregressive Prozesse von Klaus Hansen 13.1 Einleitung Mit der Filterung von Zeitreihen verfolgt man sehr unterschiedliche Ziele. Filter eignen sich als Prognosemodell sowie zur Schätzung und Elimination von Instationaritäten wie Trend- und Saisonkomponenten. Die Eigenschaft von Filtern, irreguläre Zeitreihenkomponenten beseitigen zu können, wird bei integrierten autoregressiven Prognosemodellen verwendet. Deshalb stellen wir im zweiten Abschnitt die Theorie der linearen Filter dar und behandeln darauf aufbauend im dritten Abschnitt die von Box und Jenkins entwickelten ARIMA(autoregressive integrated moving average)-Verfahren [3]. 13.2 Lineare Filter Filter dienen zur Trennung von Erwünschtem und UnenA/ünschtem, z. B. Lichtfilter zum Aussieben oder Schwächen eines bestimmten Spektralbereiches aus einer einfallenden Strahlung, Akustikfilter zur Abtrennung von Schallfrequenzen aus einem Frequenzgemisch oder Bandpassfilter in der Fernmeldetechnik zum Unterdrücken, Durchlassen oder Hervorheben eines bestimmten Frequenzbandes. Wie mit diesen technischen Filtern kann man auch mit mathematischen Filtern unerwünschte Störungen beseitigen. Ein einfacher mathematischer Filter ist der in Kapitel 2.3.2 dargestellte gleitende Durchschnitt, bei dem die glättende Wirkung aufgezeigt wurde. Gleitende Durchschnitte können aber nicht nur glätten, sondern auch Kontraste verstärken. Glättung und Kontrastverstärkung bezeichnet man als Filterung und die Gewichte /o,/_!,...,/_^ des gleitenden Durchschnitts als linearer Filter.
3 2 1 "T"
2
4
6
7
8
10
11
'i
Abb. 1: Gefilterte periodische Zeitreihe Betrachten wir als Beispiel die periodische Zeitreihe 6; 4; 6; 4; ... der Abbildung 1. Wir erhalten in Tabelle 1 mithilfe des Filters {/^ = 0,25;/_i = 0,25;/_2 = 0,5} die geglättete Zeitreihe 5,5; 4,5; 5,5; 4,5; ... (gestrichelte Linie in Abbildung 1).
216
Hansen
\xi
6-0,5 +
X2
X3
X4
4-0,25 + 4-0,5 +
6 • 0,25 6-0,25 + 6-0,5 +
X5
^5
= 5,5 4-0,25 = 4,5 4-0,25 + 6 • 0,25 = 5,5 4-0,5 + 6-0,25 + 4 - 0,25 = 4,5 Tab. 1: Glätten der Zeitreihe 6; 4; 6; 4;... mit dem linearen Filter {0,25; 0,25; 0,5} Wenn wir die geglättete Zeitreihe mit den Gewichten /Q = 0, f_i = -0,5, /_2 =1,5 filtern, dann erhalten wir die ursprüngliche Reihe zurück (Tabelle 2). Dieses Filter wirkt also kontrastverstärkend. Xi
X2
^3
X4
5,5- 1,5 +
4,5- -0,5 + 4,5- 1,5 +
5,5- 0 5,5 - -0,5 + 5,5- 1,5 +
4,5 - 0 4,5 - -0,5 + 4,5- 1,5 +
X5
Xg
5,5 -0 5,5--0,5 +
4,5-0
= = = =
6 4 6 4
Tab. 2: Kontrastverstärken der Zeitreihe 5,5; 4,5; 5,5; 4,5;... mit dem linearen Filter {0;-0,5; 1,5} Weil lineare Filter glätten und verstärken können, sind sie in zahlreichen Fällen eine geeignete Rechentechnik zur und in der Zeitreihenprognose. Allgemein lässt sich das Filtern einer Zeitreihe Xi,...,Xn in der Form +p
^t - Z^fs^t+s
für
t = q + \,"',n-p
(1)
s=-q
darstellen. Das Gewicht fg heißt linearer Filter. Häufig werden Filter nacheinander, in Serienschaltung, auf eine Zeitreihe angewandt. Das Ergebnis einer Serienschaltung ist wieder ein linearer Filter. Zwei in Serie geschaltete Filter mit den Gewichten
/ii>;...;/i'> und /_?V-;//^' ergeben einen Filter mit den Gewichten
ff^=
i / i ^ V ) 3 für y = -m-/,...,a + Z)
(2)
Wendet man (2) auf das Beispiel in Tabelle 1 und Tabelle 2 an und setzt man dabei /s = 0 f ü r a l l e s < - 2 , so ergibt sich ^(3) _ y
A\) Al)
_ A\) Al) , ^(1) Al) , A\) Al)
s=-3
= 0-0 + 0,5-0 + 0,25-0 + 0,25-0 = 0
s=-3
A\) Al)
Lineare Filter und integrierte autoregressive Prozesse
217
= 0-l,5 + 0,5-0 + 0,25-0 + 0,25-0 = 0
s=-3
- 0-(-0,5) +0,5-1,5+ 0,25-0 +0,25-0 = 0,75
= 0-0 +0,5 •(-0,5) + 0,25-l,5 +0,25-0 = 0,125
= 0-0 +0,5-0 +0,25-(-0,5) + 0,25-1,5 = 0,25
s=-3
= 0-0 +0,5-0+ 0,25-0 + 0,25-(-0,5) =-0,125
= 0-0 + 0,5-0 + 0,25-0 + 0,25-0 = 0 Man erkennt, dass der Filter mit den neu gebildeten Gewichten
fj'\
7 = -6,-,0
die Reihe 6; 4; 6; 4; ... in Übereinstimmung mit den Ergebnissen in den Tabellen 1 und 2 nicht verändert. 13.2.1 Differenzenfilter Weist eine Zeitreihe Xi, X2, ..., Xn einen Trend auf, so kann dieser durch die Bildung der ersten Differenzen eliminiert werden: ^t=^^t=^t-^t-i
(3)
Er entspricht einem linearen Filter mit den Gewichten: /_i=-lund/o=l
(4)
Eine ideale Zeitreihe mit einem linearen Trend lässt sich durch die Funktion
darstellen. Bildet man entsprechend der Vorschrift (3) die ersten Differenzen, so erhält man: Xf-Xf_i=[ai't
+ a2] - [ay{t-l)
+ a2] = ai
218
Hansen
Dasselbe Ergebnis ergibt sich durch eine Filterung mit den Gewichten (4). Für das Beispiel Xf =2-t
+3
sind die Ergebnisse einer ersten Differenzenfilterung in Tabelle 3 enthalten. t
Xt
Xt — X t . 1
0 1 2 3 4 5
3 5 7 9 11 13
2 2 2 2 2
Tab. 3: Vx^ für x^=2-/ + 3 Durch zweite Differenzen
= x^ - 2 •x^_j + Xj_2
wird ein quadratischer Trend eliminiert. Ihm entspricht eine Filterung mit den Gewichten /_,=!;/_, = -2;/o=l
(5)
Die Gewichte lassen sich auch unmittelbar mithilfe von (2) und (4) ermitteln: l2=
i ; / . / - 2 - . = / - l / - l + / o / - 2 = ( - l ) - ( - l ) + l-0 = l
ll=
Z / , / _ ! _ , = / _ i / _ o + / o / - l = ( - l ) - l + l-(-l) = -2
fo= i;/./-.=/-i/i+/o/o=(-i)-o+M=i s=-l
Betrachtet man die ideale Zeitreihe mit quadratischem Trend X( = ai t
2
+ ^2
und filtert mit den Gewichten (5) bzw. bildet man die zweiten Differenzen, dann ergibt sich: [xt-Xt_i]-[xf_^-Xf_2]
=
(ai ?- +a2)-2(ai{t-lf
+ a2) +ai(t-2f
Wählt man für diesen Fall als Beispiel Xf=2't^
+\,
so erhält man die Ergebnisse der Tabelle 4.
+ a2 =2 a^
Lineare Filter und integrierte autoregressive Prozesse t
Xt
0 1 2 3 4
1 3 9 19 33
^<
^t-\
219
[xf - Xi_i ] - [xt_i - Xi_2 ]
2 6 10 14
4 4 4
Tab. 4: V^x^ für x ^ = 2 - / ^ + l Durch saisonale Differenzen V^ Xf=Xf- Xf_i,
Z = Saisonlänge
lassen sich Saisonkomponenten glätten. Manchmal sind einfache Differenzen zu grob. Man ersetzt sie dann durch so genannte Pseudodifferenzen
in denen y empirisch bestimmt wird. Mithilfe des gleitenden Durchschnittes
kann die Grundschwingung L einschließlich aller Oberschwingungen Z/2, Z/3,... gedämpft werden. 13.2.2 Exponentiell glättende Filter Das exponentielle Glätten (vgl. Kapitel 2 in diesem Buch) Yf = aXf+{\-a)
Xf_i
0
ist ein Filter, der langfristige Trends unverändert lässt und die übrigen Bewegungskomponenten dämpft. Je kleiner a gewählt wird, umso stärker wird der Mittelwert vom Einfluss durch Zufallsschwankungen bereinigt. Mit wachsendem Wert von awird eine zunehmend bessere Anpassung an einen signifikant veränderten Mittelwert erreicht. 13.2.3 Der Wiener-Filter Der Wiener-Filter gehört zur Klasse der linearen optimalen Filterung. Sein Kriterium ist das Minimum der mittleren Fehlerquadrate. Wiener [18] betrachtete ausschließlich stationäre Zufallsprozesse in kontinuierlicher Zeit. Die Weiterführung auf instationäre Prozesse ist von verschiedenen Autoren bearbeitet worden [10]. Wir gehen aus von einer Zeitreihe mit den Messwerten
220
Hansen
für die der in der Zukunft liegende, unbekannte Wert x^^i zu suchen ist. Dazu bilden wir nach dem Prinzip der gewogenen gleitenden Durchschnitte mit den noch zu bestimmenden Filtergewichten yi^,...,/_i,/o die Gleichungen zur Berechnung der Mittelwerte (Schätzwerte)
Setzt man z. B. t =3 und m =1, dann erhält man
Xo/_i+Xi/o
=X2
^l/-l+^2/o
=^3
Das Gleichungssystem kann man allgemein angeben durch
Zwischen den zu errechnenden und den gegebenen Werten bilden wir die Differenz: ^t ~'^t+l ~'^t+\ ~^tJ0
"*"^M / - l "-^t+l
\^)
Als Summe der Quadrate der Abweichungen ergibt sich für unser Beispiel
Wir bilden die partiellen Ableitungen nach fo und f.i und setzen sie gleich Null, um das Minimum zu erhalten:
as(x,^i -x,^^y 2dfo
r)v : Sr.
r)e Ö5] + S. —-
ö^o^ 5/0
dfo
r5e 5s-,
+ s-,ö/o — =u (7)
aE(x,^,-x,^,)' _ 25/_i
- S . ^ ^ S , ^ •+ .
df_,
9/1:
,
^ = 0
9/_. (8)
Aus Gleichung (6) folgt: ^_i mit x^ = 0 für Ä: < 0 ^O
(9)
^ - 1
Aus Gleichung (6) resultiert auch: •^o = ^o /o - ^i si=xifo+XQf_i-X2
(10)
S2=X2fo+Xif-i-X2
Setzen wir diese Werte zusammen mit den Werten aus Gleichung (9) in die Gleichung (7) ein, so ergibt sich: -"-0
/ o ~ XQ X^ + X]
/ o + XQXI/_] — X]X2 + X2/0 + XiX2/_] — X2X 3= U
Lineare Filter und integrierte autoregressive Prozesse
221
Daraus folgt:
1
2
2
foT.^t^t+f-iT.^t^t^i=ll^t^t^i f=0
f=0
(11)
r=0
Führen wir die entsprechenden Umformungen für (8) durch, so erhalten wir
Daraus folgt: / o (^O-^l "^ -^1^2 ) + / -1 (^O + -^l ) — •^0-^2 + -^1^3
('2)
Mit den Abkürzungen 1
1
1
®o=Yu^t^n ®i=E^^^^+i'®2=Z^^^^+2; r=0
t=Q
2
(13)
t=0
2
@l=Y,x,x,; &\=Y,x,x,^^ t=0
(13)
t=0
folgt aus Gleichung (11) 0;/o+0i/-i=0*i
(14)
und aus Gleichung (12) 0i/o+0o/-i=02
(15)
Aus (14) und (15) lassen sich die Filterkoeffizienten / o , / _ i , welche die Fehlerquadratsumme minimieren, bestimmen zu:
0*000 - 0 1 0 1 '
0000 - © l © !
13.3 Integrierte autoregressive Moving-Average-Prozesse 13.3.1 Stationäre Prozesse Die beobachteten oder gefilterten Werte •^l ? -^2 ' • • •'
^n
einer Zeitreihe lassen sich als endliche Realisationen einer Folge korrelierter Zufallsvariablen X i , ^ 2 , . . . 5 X^
222
Hansen
interpretieren. Ein solcher Prozess heißt schwach stationär, wenn alle Zufallsvariablen Xf den gleichen EnA/artungswert und die gleiche Varianz (Homoskedastizität) aufweisen. Nun seien x^,x2,-",x^ Abweichungen von x^,x2,"',x^ mit
wobei ju einen „mittleren" Wert des Prozesses darstellt. Man bezeichnet die Linearform
als autoregressiven Prozess der Ordnung p [AR(p)-Prozess]. Darin ist st die Realisation einer normalverteilten Zufallsvariablen mit dem Erwartungswert Null und der Varianz Qj. Die Störgrößen sind Residuen, die man auch als „weißes Rauschen" bezeichnet. Da im Modell (16) der Prozentwert x eine Abhängigkeit von Vergangenheitsdaten desselben Prozesses beschreibt, bezeichnet man diese Modelle als autoregressiv. Der gewogene gleitende Durchschnitt der Ordnung q eines weißen Rauschens
heißt Moving-Average-Prozess der Ordnung q [MA(q)-Prozess]. Jeden schwach stationären AR-Prozess kann man in einen MA (oo)-Prozess umformen. Dazu knüpfen wir an das autoregressive Modell (16) an: X,
= ^ X,_i + ^2^,_2 + • • • + (l>t.pXt.p + S,
X,_i
= ^ X,_2 + ^2^^-3 + • • • + ^t-p^t-p-X + ^t-X
X^2
= ^ X,_3 + (p2^t-4 + • • • + (/>t-p-2^t-p-2
+
(18)
^t-2
(1 9)
(20)
Setzt man die Beziehung (19), (20), ... sukzessive in (18) ein, dann erhält man den Vorhersagewert als eine unendliche Folge der Störgröße £•, d. h. in der Form 00
7=0
Analog kann man auch umgekehrt jeden schwach stationären MA-Prozess als einen AR(oo) - Prozess darstellen: 00
X,=Y.^jX,_j+S, 7=1
Setzt man einen AR(q)-Prozess und einen MA(p)-Prozess in der Form
Lineare Filter und integrierte autoregressive Prozesse
223
zusammen, so spricht man von einem gemischten Prozess mit den Ordnungen p und q [ARMA(p,q,)-Prozess]. Das Modell enthält p+q+2 zu schätzende Parameter, das sind
Jedes gemischte ARMA-Modell kann auch als AR- oder MA-Modell dargestellt werden. Die gemischten Modelle bieten in der Regel jedoch den Vorteil, dass weniger Parameter geschätzt werden müssen. 13.3.2 Instationäre Prozesse Zeitreihen sind häufig nicht stationär. Um sie mit den beschriebenen Modellen untersuchen zu können, müssen sie in schwach stationäre Folgen transformiert werden. Ein einfaches Hilfsmittel zur Eliminierung von Instationaritäten wie Trends, Saisonschwankungen, nichtlineare Komponenten und Ähnliches sind die in Abschnitt 13.1 beschriebenen Differenzenfilter. Ist {X^} ein nicht schwach stationärer Prozess, den man mithilfe der d-ten Differenzen
in einen schwach stationären ARMA(p,q)-Prozess transformieren kann, so wird {X) als integrierter ARMA(p,q)-Prozess oder auch als ARIMA(p,d,q)-Prozess bezeichnet. Darin geben d die Differenzenordnung sowie p bzw. q die Ordnung des autoregressiven bzw. des Moving-Average-Teils an. Für z. B. einen ARIMA(1,1,1)-Prozess erhalten wir
Tritt in einer instationären Zeitreihe neben einem Trend auch eine konstante Saisonkomponente der Länge S auf und erhält man aus der Umformung
x:=v\x,-x,_,) einen ARMA(;7,^)-Prozess, so heißt {XJ ein SARIMA(/>,^,^)5'-Prozess. 13.3.3 Die Modellidentifikation Die Ordnung {p,d,q) von AR-, MA- und ARIMA-Modellen sowie S von SARIMA-Modellen lassen sich mithilfe der Autokorrelationsfunktion und der partiellen Autokorrelationsfunktion bestimmen. Die Wahrscheinlichkeitsdichte eines stochastischen Prozesses zum Zeitpunkt t sei gleich p{Xf). Dann ist der Erwartungswert aller Realisationen an der Stelle / 00
// = E{x^)= \ X p(x)dx -00
mit einer Varianz von
224
Hansen
I = \{x,~^yp{x)dx CO
(21)
-00
Die Kovarianz zwischen Xt und Xt+k (mit k als dem Zeitintervall zwischen den Realisationen t und t + k) wird definiert als
Ist der Prozess schwach stationär, dann gilt: rk=r-kDie Autokorrelation für das Zeitintervall k erhält man durch E[(xt -MX^t^k -M)]
^22)
Da die Varianz für schwach stationäre Prozesse zu jedem Zeitpunkt gleich ist, gilt
^f=^lk=ro und (22) kann umgeformt werden in / 7 ^ - ^ ; d a r a u s folgt Po=l.
(23)
n Aus (22) und (23) lassen sich für die Autokorrelation folgende Eigenschaften ableiten:
1. -l< p,< +1, 2. p^ «0, falls ein geringer linearer Zusammenhang besteht, und 3. Pf^ --1,+1, falls ein hoher linearer Zusammenhang besteht. Wenn eine Zeitreihe als schwach stationär angenommen werden kann, dann lassen sich Schätzwerte für den Erwartungswert, die Kovarianz und die Autokorrelationsfunktion ermitteln zu
_
1 ^ 1 ^ 'k
Cr
Die Korrelation zwischen X^ und X^+y^ bei Ausschaltung des Einflusses der dazwischenliegenden Zufallsvariablen X^+i,...,X^+y^_i wird als partielle Autokorrelation Oy^y^ definiert. Mithilfe der Yü/e-l/l/a/Zcer-Gleichungen
Lineare Filter und integrierte autoregressive Prozesse
' k-i
' k-2
'k-\
\'l>kl
'k-2
't'kl
1 J Wkk .
225
'"l
=
fl
Jk\
lassen sie sich aus den Werten der Autokorrelationsfunktion rj, r2, zur Lösung linearer Gleichungssysteme bestimmen.
nach den Regeln
13.4 Anwendungen^ Die Prognose mithilfe der von Box und Jenkins [2] entwickelten ARIMA-Verfahren läuft in fünf Schritten ab. 1.
Untersuchen der Autokorrelation der Zeitreihe auf Instationaritäten wie Trend- und Saisonkomponenten. Sind solche vorhanden, so werden sie durch Differenzenfilter eliminiert.
2.
Es wird erneut durch ein Korrelogramm geprüft, ob die gefilterte Reihe Instationaritäten enthält. Trifft dies weiter zu, so werden diese wieder durch Differenzenfilter entfernt.
3.
Bestimmen der Ordnung p des AR-Terms und der Ordnung q des MA-Terms mithilfe der Autokorrelationsfunktion.
4.
Schätzen der Koeffizienten durch z. B. kleinste Quadrate.
5.
Überprüfen des Modells durch Testen der Residuen auf weißes Rauschen und/oder durch den Box-Ljung-Test (vgl. [4] und [9]).
13.4.1 Eine ARIMA(p,d,q)-Prognose 13.4.1.1 Modellidentifikation Untersucht wird die Zeitreihe der Tabelle 5, die auch in Abbildung 2 dargestellt ist. Die Grafik lässt vermuten, dass die Zeitreihe einen Trend aufweist, also die Voraussetzung der schwachen Stationarität nicht erfüllt. Zur Verifizierung bestimmen wir die Werte der Autokorrelationsfunktion (Abbildung 3). Sie beginnt mit einem relativ großen Wert und nimmt mit wachsender Periodenzahl (LAG) nur langsam ab. Dieses Autokorrelationsmuster bestätigt die Nichtstationarität. Zur weiteren Analyse sollte die Zeitreihe durch Differenzenfilterung geglättet werden. Die Autokorrelationsfunktion der ersten Differenz (Abbildung 4) hat eine Spitze bei der ersten Periode und befindet sich sonst im Wesentlichen im a-Bereich. Nur bei Periode 7 liegt der Autokorrelationswert geringfügig darüber. Die partielle Autokorrelationsfunktion der ersten Differenz (Abbildung 5) fällt rasch ab. Insgesamt liegt es nahe, die Zeitreihe als einen ARIMA(1,1,1)-Prozess zu modellieren. Die Ordnungen p und q eines ARIMA(p,d,q)-Prozesses lassen sich anhand von empirischen partiellen Autokorrelationen (PAK) durch einen iterativen Such^ Die Anwendungen wurden mithilfe der Software SPSS for Windows (Trends) gerechnet [15].
226
Hansen
Vorgang bestimmen, der sich an den Autokorrelationsmustern theoretischer Prozesse orientiert, oder können mithilfe von Schätzprozeduren gefunden werden [1]. Die Schwierigkeit ergibt sich aus der gegenseitigen Abhängigkeit der AK und der PAK. Es ist also nicht möglich, die beiden Funktionen wie bei reinen MA- oder AR-Prozessen getrennt zu betrachten. Erst nachdem die Modelle überprüft sind, kann man die gewählten Ordnungen endgültig akzeptieren oder muss sie wieder verwerfen.
1000H Legende Zeitreihe - Prognose
900 -
Abb. 2: ARIMA(1,1,1)-Prognose 13.4,1.2 Prognose Die Kleinstquadrateschätzung der ARIMA-Koeffizienten ergibt ^ = -0,002 und 0 = 0,949. Die Werte des ARIMA(1,1,1)-Modells mit einer Prognose von Periode 52 bis 70 sind in der dritten Spalte der Tabelle 5 angegeben und in Abbildung 2 grafisch dargestellt. 13.4.1.3 Modellüberprüfung Zur Modellüberprüfung bestimmen wir die Autokorrelationsfunktion der Residuen (6. Spalte in Tabelle 5) und erstellen zusätzlich einen Box-Ljung-Test. Darin überprüft man die Hypothese //Q» dass die normierten empirischen Autokorrelationen zum LAG k = 1, 2, 3,... alle Null sind. Die Güteprüfung (Abbildung 6) des Modells ergibt insgesamt, dass die Werte der Autokorrelationsfunktion sämtlich im 2 a-Bereich liegen und das Ergebnis des Box-Ljung-Tests in keinem Fall signifikant ist. Man kann also annehmen, dass die Residuen die endliche Realisation eines weißen Rauschens darstellen und die Vorhersage zukünftiger Beobachtungswerte der Zeitreihe durch einen ARIMA (1,1,1 )-Prozess gemacht werden darf.
Lineare Filter und integrierte autoregressive Prozesse Prognose
95 %-Konfidenzintervall
227
Residuen
Zeit
Zeitreihe
i
1002
2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 31 32 33 34 35 36 37 38 39 40 41 42 43 44 45 46 47 48 49 50 51
1007
1003,25327
948,30106
1058,20548
3,74673
986 902 997
1006,37941
958,78995
1053,96888
-20,37941
1000,83747
955,95005
1045,72489
-98,83747
977,26286
933,77664
1020,74908
19,73714 34,62291
1017
982,37709
939,74315
1025,01102
1002
989,51849
947,45303
1031,58396
12,48151
1014
992,64595
950,98283
1034,30908
21,35405
998
996,67954
955,31294
1038,04614
1,32046
1000
998,11704
956,97530
1039,25877
1,88296
1046
999,57200
958,60427
1040,53974
46,42800
972
1005,37295
964,54176
1046,20413
-33,37295
1013
1003,65259
962,92957
1044,37561
9,34741
1019
1005,65599
965,01908
1046,29289
13,34401
1021
1008,00346
967,43521
1048,57172
12,99654
1018
1010,27762
969,76397
1050,79127
7,72238
1010
1012,11929
971,64877
1052,58981
-2,11929
1025
1013,23434
972,79750
1053,67118
11,76566
1029
1015,28769
974,87666
1055,69871
13,71231
1021
1017,46571
977,07390
1057,85753
3,53429
1008
1018,96710
978,58894
1059,34527
-10,96710
1033
1019,53915
979,16994
1059,90837
13,46085
1032
1021,59891
981,23464
1061,96317
10,40109
1004
1023,49609
983,13339
1063,85880
-19,49609
1015
1023,61923
983,25520
1063,98326
-8,61923
1032
1024,34404
983,97624
1064,71184
7,65596
1022
1026,01988
985,64622
1066,39353
-4,01988
1036
1027,05930
986,67805
1067,44056
8,94070
1003
1028,80227
988,41194
1069,19260
-25,80227
1029
1028,65394
988,25331
1069,05456
0,34606
1043
1029,88585
989,47392
1070,29778
13,11415
1041
1031,84566
991,42160
1072,26972
9,15434
1033
1033,60816
993,17131
1074,04501
-0,60816
1037
1034,84342
994,39327
1075,29357
2,15658
1039
1036,20929
995,74547
1076,67312
2,79071
1019
1037,61203
997,13425
1078,08982
-18,61203
1048
1037,90042
997,40851
1078,39234
10,09958
1058
1039,64809
999,14195
1080,15422
18,35191
1029
1041,86421
1001,34384
1082,38458
-12,86421
1043
1042,48482
1001,95026
1083,01937
0,51518
1050
1043,74435
1003,19572
1084,29299
6,25565
1025
1045,31791
1004,75535
1085,88047
-20,31791
1051
1045,54634
1004,97005
1086,12262
5,45366
1034
1047,04486
1006,45508
1087,63465
-13,04486
1050
1047,64565
1007,04263
1088,24867
2,35435
1057
1048,99759
1008,38162
1089,61357
8,00241
1059
1050,65852
1010,02990
1091,28715
8,34148
1042
1052,34465
1011,70370
1092,98560
-10,34465
1051
1053,09042
1012,43748
1093,74336
-2,09042
1058
1054,22246
1013,55787
1094,88705
3,77754
1028
1055,66209
1014,98619
1096,33798
-27,66209
1
228
Hansen
52 53 54 55 56 57 58 59 60 61 62 63 64 65 66 67 68 69 70
1055,53447
1014,84763
1096,22130
1056,74449
1015,91187
1097,57711
1057,99784
1017,00861
1098,98707
1059,25111
1018,10021
1100,40201
1060,50439
1019,18681
1101,82196
1061,75766
1020,26847
1103,24685
1063,01093
1021,34524
1104,67663
1064,26421
1022,41718
1106,11123
1065,51748
1023,48437
1107,55060
1066,77076
1024,54686
1108,99466
1068,02403
1025,60471
1110,44335
1069,27730
1026,65799
1111,89661
1070,53058
1027,70677
1113,35439
1071,78385
1028,75110
1114,81660
1073,03713
1029,79106
1116,28319
1074,29040
1030,82670
1117,75410
1075,54367
1031,85810
1119,22925
1076,79695
1032,88531
1120,70859
1078,05022
1033,90840
1122,19205
Tab. 5: ARIMA(1,1,1)-Prognose
Konfidenzhöchstgrenzen
Konfidenzhöchstgrenzen
<
1
-,5
3 2
10
12
14 16
5 4
7 6
9 8
11 10
12
13 15 14 16
Lag-Nummer
Lag-Nummer
Transformiert: Differenz (1)
Abb. 3: Autokorrelation der Zeitreihe in Tabelle 5
Abb. 4: Autokorrelation der ersten Differenz der Zeitreihe in Tabelle 5
n nl.J Konfidenzhöchstgrenzen
Konfidenzhöchstgrenzen
Q.
-.5 1
3 2
5 4
7 6
9 8
11
13 15
10 12 14 16
Lag-Numnner Transformiert: Differenz (1)
Abb. 5: Partielle Autokorrelation der Zeitreihe in Tabelle 5
1
3 2
5 4
7 6
9 8
11
13 15
10 12 14 16
Lag-Nummer
Abb. 6: Autokorrelation der Residuen der Zeitreihe in Tabelle 5
Lineare Filter und integrierte autoregressive Prozesse
229
13.4.2 Eine ARIMA(p,d,q)(sp,sd,sq)S-Prognose 13.4.2.1 Modellidentifikation Wir betrachten die Zeitreihe in Tabelle 6 und ihre grafische Darstellung in Abbildung 7. Die Beobachtungswerte zeigen einen langfristigen Aufwärtstrend und enthalten eine kurzfristige Saisonkomponente. Die von ARIMA-Modellen geforderte Stationarität wird offenbar nicht erfüllt. Zur Bestätigung ermitteln wir die Werte der Autokorrelationsfunktion (Abbildung 8) und die partielle Autokorrelationsfunktion (Abbildung 9). Letztere weist das typische Muster eines MA(1)- bzw. ARIMA(0,0,1)-Modells auf. Dagegen zeigt die Autokorrelationsfunktion erhebliche Instationaritäten. Wir filtern deshalb die Zeitreihe mithilfe einer ersten Differenz und bilden davon die Autokorrelationsfunktion (Abbildung 10). Man erkennt deutlich saisonale Schwankungen mit Spitzen bei der Periode 6 und 12. Wir bilden die erste Saisondifferenz der Periodenlänge 12 und entnehmen der Abbildung 11, dass die Saisonkomponenten bis auf eine Spitze bei der Periode 12 gedämpft sind. Die analoge partielle Autokorrelation liegt bis auf Periode 12 und 11 im 2 a-Bereich (Abbildung 12). Beide Funktionsausprägungen sind Indizien dafür, dass sich die Zeitreihe als multiplikativerARIMA(1,1,1 )(1,1,1)12-Prozess modellieren lässt. 13.4.2.2 Prognose Die Kleinstquadrateschätzung der ARIMA-Koeffizienten ergibt ^ = 0,913,0 = 0,963, ^,. = -0,443, 0^ = 0,080 Die Werte des ARIMA(1,1,1)(1,1,1)12-Modells mit einer Prognose von Periode 61 bis 70 sind in der dritten Spalte der Tabelle 6 angegeben und in Abbildung 7 grafisch dargestellt. 13.4.2.3 Modellüberprüfung Die Autokorrelationsfunktion und der Box-Ljung-Test (Abbildung 13) zeigen, dass der Prozess der Residuen (6. Spalte der Tabelle 6) als weißes Rauschen interpretiert und die Prognose der Zeitreihe mithilfe des gewählten multiplikativ-saisonalen Ansatzes geeignet durchgeführt werden können.
230
Hansen
10
20
30
40
50
60
70
Abb. 7: SARIMA-Modell (1,1,1) (1,1,1)12-Prognose Zeit
Zeitreihe
1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 31 32 33 34 35 36
10 16 19 18 17 16 14 13 13 14 18 20 24 26 29 32 31 30 28 27 25 25 28 32 35 41 43 42 42 39 38 38 37 37 42 46
Prognose
29,99366 30,17355 28,89960 30,10752 29,24493 27,34375 26,41633 26,46776 26,46158 29,80864 30,97789 35,23429 40,70624 43,90080 42,60601 41,36881 40,86271 37,79787 37,22155 37,55021 38,06831 41,51297 44,13838
95 %-Konfidenzintervall
26,02160 26,37876 25,20420 26,47547 25,65639 23,78626 22,88079 22,94598 22,94483 26,29228 27,51107 32,32094 39,21720 42,46225 41,19763 39,98033 39,48820 36,43356 35,86492 36,19945 36,72208 40,17027 42,79842
33,96573 33,96834 32,59499 33,73957 32,83346 30,90124 29,95187 29,98953 29,97833 33,32500 34,44470 38,14763 42,19528 45,33936 44,01439 42,75729 42,23723 39,16218 38,57819 38,90098 39,41453 42,85567 45,47835
Residuen
-3,99366 -1,17355 3,10040 0,89248 0,75507 0,65625 0,58367 -1,46776 -1,46158 -1,80864 1,02211 -0,23429 0,29376 -0,90080 -0,60601 0,63119 -1,86271 0,20213 0,77845 -0,55021 -1,06831 0,48703 1,86162
Lineare Filter und integrierte autoregressive Prozesse
1 38 '^ 39 40 41 42 43 44 45 46 47 48 49 50 51 52 53 54 55 56 57 58 59 60 61 62 63 64 65 66 67 68 69 70
48 50 53 56 55 54 52 51 50 50 53 57 59 65 67 66 66 63 62 62 61 61 66 70
48,95153 50,39802 53,16115 55,86751 55,07062 53,87407 52,01371 51,05126 49,08657 49,50399 52,67610 56,62285 59,55718 64,84000 67,04219 66,30878 66,08562 63,25934 62,10134 62,04420 61,06644 61,05634 65,89322 69,95299 71,94761 74,22613 77,13052
79,80857 78,87204 77,70588 75,77027 74,83476 73,82254 73,81034
47,61366 49,06172 51,82599 54,53313 53,73672 52,54038 50,68000 49,71733 47,75226 48,16913 51,34057 55,28652 58,21996 63,50179 65,70291 64,96836 64,74399 61,91646 60,75715 60,69866 59,71952 59,70801 64,54346 68,60177 70,59493 72,70510 75,55090 78,19780 77,23867 76,05274 74,09816 73,14371 72,11226 72,08041
50,28940 51,73432 54,49630 57,20188 56,40452 55,20776 53,34741 52,38518 50,42089 50,83884 54,01163 57,95917 60,89440 66,17821 68,38147 67,64920 67,42725 64,60223 63,44553 63,38973 62,41336 62,40467 67,24298 71,30421 73,30029 75,74716 78,71015 81,41935 80,50542 79,35902 77,44237 76,52581 75,53283 75,54027
-0,95153 -0,39802 -0,16115 0,13249 -0,07062 0,12593 -0,01371 -0,05126 0,91343 0,49601 0,32390 0,37715 -0,55718 0,16000 -0,04219 -0,30878 -0,08562 -0,25934 -0,10134 -0,04420 -0,06644 -0,05634 0,10678 0,04701
Tab. 6: SARIMA(1,1,1)(1,1,1)12-Prognose
'^-^MUKonfidenzhöchst-
Konfidenzhöchst-
grenzen
grenzen
1
3 2
Lag-Nummer
Abb. 8: Autokorrelation der Zeitreihe in Tabelle 6
5 4
7 6
9 8
11 10
13 12
15 14
16
Lag-Nummer
Abb. 9: Partielle Autokorrelation der Zeitreihe in Tabelle 6
231
1
232
Hansen
,5 '
u
0.0 '
^000n ^H^I V\
\\\\\^\i
1
Konfidenzhöchst-.5 ' grenzen
Konfidenzhöchstgrenzen
IL.
O < 1
3 2
5 4
7 6
9 8
11 10
13 12
15
14
\w^
-1.0 . 1
3 2
16
5 4
7 6
9 8
11 10
13 12
15 14
16
Lag-Nummer
Lag-Nummer
Transformiert: Differenz (1)
Transformiert: Differenz (1), Saisonale Differenz (1, Periode 12)
Abb. lO.Autokorrelation der ersten Differenz der Zeitreihe in Tabelle 6
Abb. 11: Autokorrelation der ersten Differenz und der ersten Saisondifferenz mit der Periodenlänge 12 der Zeitreihe in Tabelle 6
Konfidenzhöchstgrenzen
Konfidenzhöchstgrenzen
ä: -1,0 1
3 2
5 4
7 6
9 8
11 13 15 10 12 14 16
Lag-Nummer Transformiert: Differenz (1), Saisonale Differenz (1, Periode 12)
1
3 2
5 4
7 6
9 8
11 13 15 10 12 14 16
Lag-Nummer
Abb. 12: Partielle Autokorrelation der Abb. 13: Autokorrelation der Residuen ersten Differenz und der Saider Zeitreihe in Tabelle 6 sondifferenz mit der Periodenlänge 12 der Zeitreihe in Tabelle 6 13.5 Ex post Prognose mithilfe von ARIMA-Interventionsanalysen 13.5.1 ARIMA-Interventionsmodelle Die erste Anwendung von Interventionsanalysen zur Untersuchung von Zeitreihen mit interventionsbedingten Strukturbrüchen haben Wichern und Jones [17] vorgelegt. Evans und Costa [7] verwenden in einer neueren Arbeit die gleiche Modellform, jedoch mit einem enA/eiterten Interpretationsspektrum. Kern der Modelle ist die Darstellung der Strukturbrüche mithilfe von 0-1 Variablen. Eine Variable, die ausschließlich den Wert 0 oder 1 annehmen kann, bezeichnet man bei Untersuchungen von Zeitreihen häufig als Dummy-Variable. Damit soll charakterisiert werden, dass diese Variablen die Anwesenheit (die Dummy-Variable wird gleich 1 gesetzt) bzw. Abwesenheit (die DummyVariable erhält den Wert 0) von Ereignissen, Zuständen und Ähnliches in einem Modell beschreiben sollen. Nehmen wir als Beispiel das ARIMA(1,1,1)-Modell (vgl. Abschnitt
Lineare Filter und integrierte autoregressive Prozesse
233
13.3.2) und fügen die Dummy-Variable D mit einem eigenen Koeffizienten 5 dem Modell als unabhängige Variable hinzu, dann erhalten wir ARIMA{\X\)j=(S>^ V i - ^ i
^ 2 + ^ ^ + 0 1 <^M+^ D
(24)
Die Indizierung von ARIMA durch I im Modell (24) soll kennzeichnen, dass ein bestimmtes Ereignis bzw. ein bestimmter Zustand durch eine Intervention I verursacht wurde. Deshalb spricht man auch von Interventionsanalysen. Für eine Zeitreihe mit k Inten/entionen folgt für das Modell (24) k
7=1
Die Koeffizienten 5j müssen simultan mit sämtlichen anderen Koeffizienten des Modells geschätzt werden. Dummy-Variable in Zeitreihenanalysen können z. B. Stufen- oder Impulsfunktionen sein. Das Dj einer Stufenfunktion ist bis zum Eintritt der Intervention j gleich 0 und dann konstant gleich 1. Das Dj einer Impulsfunktion ist gleich 0, wird beim Eintritt der Intervention j gleich 1 und fällt unmittelbar nach der Intervention auf 0 zurück. Aus beidem folgt, dass die Bildung der ersten Differenz einer Stufen intervenierten Zeitreihe eine Impuls intervenierte Zeitreihe ergibt und die Kumulation einer Impuls intervenierten Zeitreihe diese in eine Stufen intervenierte Zeitreihe transformiert. Dieser Zusammenhang ist bei der Modellierung von ARIMA(p,d,q)-Modellen mit d>0 zu beachten. Denn eine erforderliche Differenzenbildung im eigentlichen ARIMA-Prozess ist nicht notwendig abhängig vom Interventionsgeschehen und umgekehrt. 13.5.2 Anwendung In einer Klinik für Chirurgie wurde zur Verbesserung der Kapazitäts- und Ablaufplanung ein Managementinformationssystem entwickelt und eingeführt. Der Kern des Planungssystems sind im Wesentlichen „in Simulationsmodelle eingebettete, optimierende neuronale Netze". Der Einsatz erfolgte in zwei Stufen. Um die Wirkung des Planungssystems zu untersuchen, wurde die Kapazitätsauslastung des Operationsbereiches (Operationspersonal, Operationssäle sowie Operationsgroßgeräte) während insgesamt 42 Wochen gemessen, davon 18 Wochen vor der ersten Stufe, die Zeit von 12 Wochen zwischen Stufe eins und zwei sowie 13 Wochen nach Einführung der Stufe zwei. Die Messwerte sind als Auslastungsgrad in der Spalte 'Zeitreihe' der Tabelle 7 zu finden. Es soll im Folgenden mithilfe eines ARIMA-Interventionsmodells die Wirkung der Projektstufen eins und zwei auf die Kapazitätsauslastung untersucht werden. Die Modellidentifikation, die Prognose und die Modellüberprüfung wird in vier Schritten bearbeitet: 1. 2. 3.
Modellentwicklung ohne Berücksichtigung der Interventionen. Ergänzung des Modells um zwei Interventionsstufen in der 19. und 30. Woche mit den Dummy-Variablen Di und D2 und ihren Koeffizienten 5i und 82. Simultane Schätzung der Koeffizienten des ARIMA-Modells einschließlich 5i und 82.
4.
Interpretation der Dummy-Variablen und der Werte ihrer Koeffizienten.
234
Hansen
13.5.2.1 Modellidentifikation Wir betrachten die Zeitreihe in Tabelle 7 und ihre grafische Darstellung in Abbildung 14. Die Grafik lässt vermuten, dass die Zeitreihe die Voraussetzung der schwachen Stationarität nicht erfüllt. Zur Überprüfung wird die Autokorrelationsfunktion (Abbildung 15) bestimmt. Sie beginnt mit einem relativ hohen Wert und nimmt mit wachsender Periodenzahl nur langsam ab. Dies bestätigt die Nichtstationarität. Die partielle Autokorrelationsfunktion (Abbildung 16) weist eine Spitze in der ersten Periode auf. Die Autokorrelationsfunktion (Abbildung 17) und die partielle Autokorrelationsfunktion (Abbildung 18) der ersten Differenz liegen in der ersten Periode geringfügig außerhalb des 2a-Bereichs, aber sonst im 2a-Bereich. Insgesamt liegt es nahe, die Zeitreihe als einen ARIMA(0,1,1)-Prozess abzubilden. Zur Modellierung der Interventionsstufen in der 19. bzw. 30. Woche führen wir die Dummyvariablen Di und D2 mit ihren Koeffizienten 81 und 82 ein. Entsprechend Modell (25) bilden wir das zweistufige ARIMA-Interventionsmodell ARIMA(0,1,1)i = ARIMA(0,1,1) + S^ D^ + 82 D2.
(26)
Für die Dummy-Variablen gilt: Di = 0
falls 'Zeit in Wochen' < 19
Di = 1
falls 'Zeit in Wochen' > 19
D2 = 0
falls 'Zeit in Wochen' < 30
D2 = 1
falls 'Zeit in Wochen' > 30
13.5.2.2 Prognose Die simultane Kleinstquadrateschätzung der ARIMA- und der beiden Interventionsstufen-Koeffizienten ergibt 0=0,999816,
Si = 10,24 und Ö2 = 13,74.
Die Werte der Ex post Prognose des ARIMA(0,1,1)rModells sind in der dritten Spalte der Tabelle 7 angegeben und in Abbildung 14 grafisch dargestellt. 13.5.2.3 Modellüberprüfung Zur Modellüberprüfung bestimmen wir die Autokorrelationsfunktion der Residuen (6. Spalte der Tabelle 7). Die Werte (Abbildung 19) liegen im 2a-Bereich. Man kann also annehmen, dass die Residuen die endliche Realisation eines weißen Rauschens darstellen und die Ex post Prognose der Zeitreihe durch einen ARIMA(0,1,1)|-Prozess mit zwei Interventions-Dummyvariablen gemacht werden darf. Da jedoch der Koeffizient der zweiten Periode der partiellen Autokorrelationsfunktion der Zeitreihe (Abbildung 16) den 2a-Bereich zwar nicht überschreitet, aber erreicht, erstellen wir auch ein ARIMA(0,1,2)i-Modell und bilden ebenfalls die Autokorrelationsfunktion der Residuen (Abbildung 20). Dies ergibt keine Verbesserung, sodass das ARIMA(0,1,1)|-Modell bestätigt wird.
Lineare Filter und integrierte autoregressive Prozesse
235
13.5.2.4 Interpretation der Werte der Koeffizienten der Dummy-Variablen Aus Modell (25) folgt allgemein, dass der Wert des Koeffizienten 5j die Wirkung der Intervention j angibt. Denn vor der Intervention j gilt Dj = 0 und damit auch 5j Dj = 0 und nach der Intervention j mit Dj = 1 folgt 5j Dj = 5j. Für das betrachtete Projekt folgt analog aus Modell (26), dass die Projektstufe eins zu einer Erhöhung der Kapazitätsauslastung von 10,24 % und die Stufe zwei zu einer weiteren Erhöhung von 13,74 % geführt haben. Generell lassen sich mithilfe von ARIMA-Interventionsmodellen Maßnahmen (Interventionen) auf ihren Nutzen (Outcome) evaluieren. Jedoch muss vorausgesetzt werden, dass der Nutzen messbar und quantifizierbar ist, das gilt aber für alle Verfahren. 100,00 n
x,;ARIMA(OX\)j
90,00 -
.')Hfj^^-^-'V^
1
80,00 ."'-["''
70,00 -
60,00 -
— Zeitreihe - - Ex post Prognose
Ai/v/" U 7
50,00 -
40.00 -
()
Abb. 14: 1
20
10
30
40
50
Zweistufige ARIMA(0,1,1)i-lnterventlons-ex post Prognose
Zeit in Wochen
Zeitreihe
Ex post Prognose
1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16
55,00 61,00 53,00 67,00 62,00 58,00 57,00 66,00 72,00 53,00 60,00 44,00 56,00 58,00 66,00 64,00
55,22 58,32 56,76 59,54 60,25 60,09 59,86 60,84 62,30 61,58 61,65 60,40 60,27 60,33 60,92
95 %-Konfidenzintervall 40,97057 45,97857 45,11419 48,24384 49,16187 49,13687 48,9993 50,03979 51,53108 50,83689 50,91602 49,65768 49,52368 49,55816 50,12687
69,45956 70,66663 68,41275 70,8315 71,32853 71,03527 70,72124 71,64582 73,06404 72,32885 72,39207 71,13819 71,02573 71,09642 71,71421
Residuen
5,78493 -5,3226 10,23653 2,46233 -2,2452 -3,08607 6,13973 11,15719 -9,29756 -1,58287 -17,65404 -4,39794 -2,2747 5,67271 3,07946
236
1
Hansen
^'^
18 19 20 21 22 23 24 25 26 27 28 29 30 31 32 33 34 33 36 37 38 39 40 41
1 42
61,00 59,00 66,00 69,00 68,00 74,00 76,00 75,00 76,00 78,00 74,00 75,00 71,00 84,00 87,00 88,00 88,00 93,00 87,00 89,00 90,00 91,00 96,00 88,00 90,00 89,00
61,33 61,52 71,83 71,74 71,82 71,85 72,17 72,55 72,86 73,21 73,60 73,83 74,09 87,94 88,02 88,21 88,41 88,62 88,96 89,12 89,33 89,57 89,82 90,19 90,35 90,56
50,50412 50,66439 60,64741 60,70209 60,89573 61,01817 61,3974 61,82607 62,17306 62,52819 62,92898 63,14814 63,38368 76,94584 77,14611 77,4229 77,70637 77,96552 78,34947 78,53319 78,75554 78,98638 79,22502 79,57347 79,69851 79,86043
72,15203 72,3833 83,02009 82,78147 82,74378 82,68769 82,93379 83,26868 83,55621 83,88205 84,28023 84,52049 84,79835 98,93488 98,90205 98,98934 99,12311 99,26896 99,57296 99,70731 99,90841 100,14382 100,41083 100,80955 101,00508 101,25613
-0,32807 -2,52384 -5,83375 -2,74178 -3,81976 2,14707 3,83441 2,45263 3,13536 4,79488 0,39539 1,16568 -3,09102 -3,94036 -1,02408 -0,20612 -0,41474 4,38276 -1,96122 -0,12025 0,66802 1,4349 6,18207 -2,19151 -0,35179
-1,55828 1
Tab. 7: ARIMA(0,1,1)-Interventionsmodell Auslastungsgrad
Auslastungsgrad
Q Q J H H
t^
ra
n.
r^
Konfidenzhöchstgrenzen
1
3 2
Lag-Nummer
Abb. 15: Autokorrelation der Zeitreihe in Tabelle 7
5 4
7 6
9 8
11 10
13 12
14
15 16
Lag-Nummer
Abb. 16: Partielle Autokorrelation der Zeitreihe in Tabelle 7
Lineare Filter und integrierte autoregressive Prozesse
237
Auslastungsgrad
Auslastungsgrad
j
1 Konfidenzhöchstgrenzen
1
3 2
5 4
7 6
9 8
1
n_
O <
-,5
Q.
-1,0
J
1
11 13 15
3 2
10 12 14 16
5 4
7 6
9 8
11 13 15 10 12 14 16
Lag-Nummer
Transformiert: Differenz (1)
Transformiert: Differenz (1)
Abb. 17: Autokorrelation der ersten Differenz der Zeitreihe in Tabelle 7
Auslastungsgrad
2
5 4
7 6
9 8
Abb. 18: Partielle Autokorrelation der ersten Differenz der Zeitreihe in Tabelle 7 Auslastungsgrad
Konfidenzhöchst-
Konfidenzhöchst-
grenzen
grenzen
^Koeffizient 3
Konfidenzhöchstgrenzen
Lag-Nummer
1
H
r i T B " i I I i]
o
<
11 13 15 10 12 14 16
Lag-Nummer
Abb. 19: Autokorrelation der Residuen desARIMA(0,1,1)-lnterventionsmodells der Zeitreihe in Tabelle 7
Lag-Nummer
Abb. 20: Autokorrelation der Residuen des ARIMA(0,1,2)-lnterventionsnnodells der Zeitreihe in Tabelle 7
13.6 Literatur [1] [2] [3] [4] [5] [6]
Akaike, H., On Entropy Maximization Principle, in: Krishnaiah, P.R. (Hrsg.), Applications of Statistics, Amsterdam 1977, S. 27 ff. Akaike, H. und Kitagawa, G., The Practice of Time Series Analysis 1999. Box, G.E.P. und Jenkins, G.M., Time Series Analysis, Forecasting and Control, 2. Aufl., San Francisco 1976. Box, G.E.P. und Ljung, G.M., On a Measure of Lack of Fit in Time Series Models, Biometrika65(1978), S. 297ff. Box, G.E.P. und Newbold, P., Some Comments on a Paper of Coen, Gomme and Kendall, Journal of the Royal Statistical Society A 134 (1971), S. 229. Box, G.E.P und Pierce, D.A., Distribution of Residual Autocorrelations in Autoregressive-lntegrated Moving Average Time Series Models, Journal of the American Statistical Association, 65 (1970), S. 1509 ff.
238 [7]
[8] [9] [10] [11] [12] [13] [14] [15] [16] [17] [18]
Hansen Evans, G.E. und Costa, B.A., Outcome-Based Systems Evaluation To Asses Information Technology Impact Using ARIMA Methods Communications of the Association for Information Systems 11 (2003), S. 660 ff. Johnston, F.R., Exponentially Weighted Moving Average (EWMA) with Irregulär Updating Periods, Journal of the Operational Research Society 44 (1993), S. 711 ff. Kallianpur, G. und Karandikar, R.L., White Noise Theory of Prediction Filtering and Smoothing, New York u.a. 1988. Kaiman, R.E. und Bucy, R.S., New Results in Linear Filtering and Prediction Theory, Transactions of the American Society of Mechanical Engineers D 83 (1961), S. 95 ff. Khintchine, A., Korrelationstheorie der stationären stochastischen Prozesse, Mathematische Annalen 109 (1934), S. 604 ff. Löbus, J.-U., Ökonometrie, Mathematische Theorie und Anwendungen, Braunschweig u.a. 2001. Prabhakar, S.N., Modern Spectrum Analysis of Timeseries, Boca Raten u.a. 1996. Schlittgen, R., Angewandte Zeitreihenanalyse, München u.a. 2001. SPSS Trends 10.0, Chicago 1999. Stier, W., Methoden der Zeitreihenanalyse, Berlin u.a. 2001. Wichern, D.W. und Jones, R.H., Assessing the Impact of Market Disturbances Using Intervention Analysis, Management Science 24 (1977), S. 329 ff. Wiener, N., Extrapolation, Interpolation, and Smoothing of Stationary Time Series, Cambridge 1949.
14 Prognose uni- und multivariater Zeitreihen von Manfred Deistler und Klaus Neusser 14.1 Einführung Zeitlich ablaufende zufällige Vorgänge können durch stochastische Prozesse modelliert werden. Insbesondere ist es in diesem Rahmen möglich, Unsicherheit über die Zukunft zu beschreiben. Für stationäre Prozesse wurde bereits vor ca. 60 Jahren eine elegante Prognosetheorie von Kolmogorov [26] und Wiener [39] entwickelt. Ein weiterer wesentlicher Beitrag geht auf Kaiman [25] zurück. Diese Theorie behandelt die lineare Kleinst-Quadrate-Prognose unter der Voraussetzung, dass die zweiten Momente des zugrunde liegenden Prozesses bekannt sind. In den meisten Fällen sind diese zweiten Momente jedoch nicht bekannt und müssen geschätzt werden, sodass das Prognoseproblem mit einem Identifikationsproblem einhergeht. Die Theorie der linearen Kleinst-Quadrate-Prognose stationärer Prozesse bei bekannten zweiten Momenten und die Theorie der Identifikation von AR-, ARMA- und Zustandsraumsystemen stellen die beiden Herzstücke der theoretischen Analyse des Prognoseproblems dar. Unsere Darstellung beschränkt sich auf diese lineare Kleinst-Quadrate-Prognose und die Identifikation von linearen dynamischen Systemen. Nichtlineare Prognosefunktionen und von den quadratischen abweichende Kostenfunktionen werden demnach nicht behandelt, wenn es nicht ausdrücklich erwähnt ist. Die Praxis hat gezeigt, dass diese linearen Ansätze auch bei offensichtlich nichtlinearen Mechanismen erstaunlich erfolgreich sind. In der Praxis müssen bei der Entwicklung von Prognosealgorithmen der Verwendungszweck, die vorhandenen a priori Informationen und die spezifischen Besonderheiten der Daten berücksichtigt werden. Was die Verwendung betrifft, so sind unter anderem zu überlegen: die Fristigkeit, die gewünschte Genauigkeit, die sich auch im Aufwand für die Modellierung niederschlägt, und der erforderliche Rechenaufwand. Im Speziellen kann man zwei Extremfälle unterscheiden: zum einen schnell verfügbare, relativ ungenaue Prognosen, bei denen auf eine detaillierte Modellierung der Daten weitgehend verzichtet wird. Solche Verfahren könnte man als „automatisierte Kurvenlineale" bezeichnen. Sie finden z. B. in der Absatzprognose Verwendung (siehe Abschnitt 14.8). Zum anderen Prognosen, bei denen eine möglichst hohe Genauigkeit erwünscht und daher eine detaillierte und zeitaufwändige Modellierung der Daten angezeigt ist. Ein Beispiel hierfür liefert die Prognose der Industrieproduktion (vgl. Abschnitt 14.7). In vielen Fällen stehen zusätzlich a priori Informationen zur Verfügung, die aber im Bereich der Wirtschaftswissenschaften, im Gegensatz zu vielen Anwendungen in den Naturwissenschaften oder den technischen Wissenschaften, oft unpräzise oder schwer quantifizierbar sind. Andererseits ist die Information aus den Daten in vielen Fällen alleine nicht ausreichend. In der Entscheidung über Art und Ausmaß der verwendeten a priori Information zeigt sich ganz wesentlich die Kunst des Prognostikers. Abschnitte 14.7 und 14.8 bieten konkrete Beispiele für die bei der Prognose auftretenden Überlegungen und Vorgangsweisen.
240
Deistler, Neusser
14.2 Die Theorie der linearen Kleinst-Quadrate-Prognose In diesem Abschnitt behandeln wir die Theorie der linearen Kleinst-Quadrate (KQ)Prognose für bekannte erste und zweite Grundgesamtheitsmomente. Wir nehmen an, dass die zu prognostizierende, /?-dimensionale Zeitreihe durch einen zugrunde liegenden Zufallsmechanismus, einen ^-dimensionalen stochastischen Prozess (X^)^^^ mit E"-wertigen Zufallsvariablen X^ und Indexmenge Z, der Menge der ganzen Zahlen, erzeugt wird. Ferner sollen sämtliche Prozessvariablen endliche zweite Momente besitzen: £:x;x,
(1)
dabei bezeichnet X^ einen A?-dimensionalen Spaltenvektor und X/ den zugehörigen transponierten Vektor. In diesem Fall existieren die Erwartungswerte EX^ =m und die Kovarianzmatrizen T(t + T,t) = E(X^^^-EX^^^)E(X^-EXJ. Die Informationsgewinnung aus vergangenen und gegenwärtigen Werten X^, t-T<s 0 , erfolgt durch die Prognosefunktion (Prädiktor) ^((XJ^_y.<^<J. Dabei können endlich viele (r
E[x,,^-X{t,T))[x,,^-X{t,T)) Über diese Klasse. Nimmt man die größtmögliche in diesem Kontext sinnvolle Klasse von Prognosefunktionen, also alle messbaren und quadratisch integrierbaren Funktionen der X^., ^ - r < ^ < / , so erhält man den bedingten Erwartungswert E{X^^J\X^,X^_^,...).
Da die konkrete Berechnung des bedingten Erwartungswertes aber in vielen Fällen auf Schwierigkeiten stößt, beschränken wir uns auf lineare Prognosefunktionen und erhalten so lineare KQ-Prädiktoren. Die Beschränkung auf lineare Prognosefunktionen ist natürlich nur dann sinnvoll, wenn aufgrund der Struktur des Prozesses {X^) die lineare KQ-Prognose und der bedingte EnA/artungswert entweder zusammenfallen, wie im Gauß'schen Fall, oder zumindest nicht stark voneinander abweichen. Das Problem der linearen KQ-Prognose für X^^^ aus endlicher oder unendlicher Vergangenheit kann folgendermaßen formuliert werden: Man suche unter allen linearen Prognosefunktionen P{{X^)^_j^^^^), also Linearkombinationen b + YIi=Qa^X^_. oder de-
Prognose uni- und multivariater Zeitreihen
241
ren Grenzwerte, wobei b ein Element aus M" und die a, n-xn IViatrizen sind, diejenige, die -T<s
(2)
minimiert. Nach dem so genannten Projektionssatz (siehe z. B. Brockweli und Davis [7]) ist der lineare KQ-Prädiktor X(t,x) vollständig durch folgende Eigenschaften charakterisiert:
X(/,r) = P((X,X_^,,,,),
P linear
(3)
E[x,^^-X{t,T))x[=0^
t-T<s
(4)
EX,^^=EX{t,T)
(5)
Zudem gibt es immer genau ein X(/,r) mit diesen Eigenschaften. Der lineare KQ-Prädiktor existiert also immer und ist eindeutig. Die Bedingungen (4) und (5) besagen, dass der Prognosefehler ix^^^ -X{t,T)\ orthogonal zu den vergangenen Zufallsvariablen X^., t-T<s
-X(t,T))(x,,^
-X(t,T))
Im Fall der Prognose aus endlicher Vergangenheit (T
T(t,t-T)
...
= {T(t + T,t)
EX,,^=b + f^a^EX,_,
T(t-T,t-T)^ ... r(t + Tj-T))
(6)
(7)
/=0
Zur Lösung des linearen KQ-Prognoseproblems reicht die Kenntnis der ersten und zweiten Momente aus. Durch Inversion der Matrix (^(hj))ij=t...,t-T ©fhält man die Lösung, falls die Matrix regulär ist. Man kann zeigen, dass das System (6) auch dann lösbar ist, wenn die Matrix singulär ist. In diesem Fall bestimmt jede Lösung b,aQ,...,aj^ den gleichen Prädiktor. Zur Lösung des Prognoseproblems werden im Allgemeinen weitere Annahmen über die Struktur des Prozesses (X^) getroffen. Diese sind, zumindest wenn die zweiten Momente geschätzt werden müssen, aus statistischen Gründen praktisch immer erforderlich. Oft wird angenommen, dass der stochastische Prozess stationär (im weiteren Sinn) ist, d. h., es gilt zusätzlich zu Bedingung (1)
242
Deistler, Neusser EX^ =m = konstant, T(t + s,t) = /(s)
für alle teZ hängt für alle t,sGZ nicht von^, sondern nur von s ab.
Die Funktion / heißt die Kovarianzfunktion des Prozesses. In vielen Anwendungen kann der ursprüngliche Prozess in eine Summe aus einem Trend (EX^ =m^) und einer stationären Komponente zerlegt werden. Da die Prognose des Trends, bei bekannten ersten Momenten, trivial ist, beschränken wir uns auf die Darstellung der Prognose stationärer zentrierter, d. h. enA/artungswertbereinigter Prozesse. In anderen Fällen kann durch Differenzenbildung Stationarität erreicht werden. 14.3 Die Prognose aus unendlicher Vergangenheit Obwohl in der Praxis nur endliche Vergangenheit vorliegt, ist die Theorie der Prognose aus unendlicher Vergangenheit dennoch wichtig, da sie die tiefere Struktur des Problems aufzeigt. Die allgemeine Prognosetheorie stationärer Prozesse, die für den eindimensionalen Fall von Kolmogorov [26], Wiener [39] und Wold [40] und für den mehrdimensionalen Fall von z. B. Rozanov [33] behandelt wurde, wird heute in der Praxis weniger verwendet als ursprünglich angenommen. Wir werden diese Theorie daher hier nicht darstellen, sondern nur einige zentrale Ergebnisse festhalten. Klassifiziert man stationäre Prozesse nach ihrem Prognoseverhalten, so kann man zwei Extreme herausgreifen: Die so genannten singulären Prozesse lassen sich exakt aus unendlicher Vergangenheit prognostizieren: X(t,T) = X^^^ für alle r > 0
(8)
Die bei weitem wichtigste Klasse singulärer Prozesse sind endliche Summen von Sinus- und Cosinusfunktionen mit zufälligen Amplituden (harmonische Prozesse). Die regulären Prozesse sind charakterisiert durch: \\mX{t,x) = EX^=Q
(9)
T->00
Für X -> cx) kann also aus der Vergangenheit keine über den Erwartungswert hinausgehende Information zur linearen Prognose gewonnen werden.'' Nach dem Satz von Wold lässt sich jeder stationäre Prozess ( X J eindeutig als Summe eines stationären regulären Prozesses (Y^) und eines stationären singulären Prozesses ( Z J darstellen: X,=Y,+Z,
(10)
wobei (7J und (ZJ unkorreliert sind und Y^ und Z^ sich durch lineare Transformationen aus X^, s
Prognose uni- und multivariater Zeitreihen
243
Jeder reguläre stationäre Prozess (X^) besitzt eine Darstellung (Wold-Darstellung) der Form X,=f^C,s,_,,
(11)
wobei (^J weißes Rauschen ist, also fZ, für s = t;
,^^^
gilt und s^ eine lineare Transformation von X^,s
(13)
/=0
i=T
dass er eine lineare Funktion der X^., ^ < ^, ist, und für den zweiten Term x ; = 0 , f ü r alle V/=o
s
JI
Aufgrund des Projektionssatzes gilt somit: X(t,T) = f^qe,,,_,
(14)
und der Prognosefehler ist
Damit ist jedoch das Prognoseproblem noch keineswegs gelöst. Erstens müssen die Matrizen Q bestimmt werden, und zweitens müssen, um die Prognosefunktion zu erhalten, in (14) die e^ durch X . , / < ^, ersetzt werden. Wir führen folgenden wichtigen Begriff ein: Für jeden regulären stationären Prozess wird durch
2
Quadratisch summierbar bedeutet, dass Zr.o||Qf
244
Deistler, Neusser
/ W = T - i r(s)e''' mit Äe[-7r,7r]
(15)
S=—O0
m=fe-"'f(s)dÄ
(16)
J-n:
der Kovarianzfunktion y umkehrbar eindeutig die spektrale Dichte f •.[-7r,7r]^C"''" zugeordnet^. Die unendliche Summe (15) ist dabei im Sinne der Konvergenz im quadratischen Mittel zu verstehen. Aus (11) folgt (* bedeutet konjungiert transponiert): 00
^
r "
A
27r\\s=0
)
^^=0
)
/^
z Xc,.-'^^ / W = T^ llC.e-"^ XC.^ \A LC.e-'^' I
(17)
Die Ermittlung der C^ aus / , also aus den zweiten Momenten, bezeichnet man als die Faktorisierung der spektralen Dichte. Wir wollen uns mit diesem Problem hier in voller Allgemeinheit ebenso wenig befassen wie mit der Ersetzung der s^ durch X^, i<s, also der Herleitung der Prognoseformel. 14.4 AR- und ARMA-Prozesse Die bei weitem wichtigste Klasse von regulären stationären Prozessen sind die ARMAProzesse (X^). Sie sind als stationäre Lösung der stochastischen Differenzengleichung
definiert. Dabei sind 4 ^^^ A ^2x^-Matrizen und (s^) ist weißes Rauschen mit T = E^t^t • Für q = 0 erhält man als Spezialfall die autoregressiven Prozesse (AR-Prozesse), für p = 0 die Moving-Average-Prozesse (MA-Prozesse). Wir nehmen weiter an:
detZ>0
(19)
00
det^4z';^0, für alle zeC mit|z|
(20)
00
det^5^z';^0, für alle zeC mit|z|
(21)
wobei C den Körper der komplexen Zahlen bezeichnet. Die große Bedeutung der ARMA-Prozesse in der Praxis liegt vor allem in zwei Tatsachen begründet. Zum Ersten kann jeder reguläre stationäre Prozess durch geeignete Wahl der Ordnungen p und q beliebig genau durch ARMA-Prozesse approximiert werden. Zum Zweiten hängen die zweiten Momente von ARMA-Prozessen, bei gegebenen p und q, nur von endlich vielen Parametern ab. Der Parameterraum ist daher für gegebene Ordnungen p und q endlichdimensional, wodurch die Schätzung bedeutend vereinfacht wird. Die spektrale Dichte Ist, genau genommen, nur A-fast überall bestimmt.
Prognose uni- und multivariater Zeitreihen
245
Die Annahme (20) erlaubt es, die (eingeschwungene) Lösung des ARMA-Systems (18) zu schreiben als 00
^,-ZC,V,,
(22)
wobei die Q bestimmt sind durch C(z) = f^qz^=A-\z)B(z)
(23)
mit A(z) = T.f=oA^' ^^^ B(z) = Yto B^z'. Die Stabilitätsbedingung (20) sichert somit auch die Stationarität der Lösung. Die spektrale Dichte von (X^) ist wegen (22) und (23) gegeben durch
f(Ä) = — A-' (e-'^ )B(e-'^) IB* (^"^^ )A*~' (e"^^)
(24)
Die spektrale Dichte repräsentiert in gewissem Sinne die äußeren, d. h. die aus den Beobachtungen direkt schätzbaren Eigenschaften des Prozesses. Sie kann konsistent geschätzt werden. Die Modellparameter^ , B^ und S stellen hingegen die innere Struktur des Systems dar. Im Allgemeinen können 4 , B^ und E nicht ohne weitere Annahmen aus f{Ä) eindeutig bestimmt werden. Das ist das so genannte Identifizierbarkeitsproblem. Dieses Identifizierbarkeitsproblem kann in zwei Schritte zerlegt werden. Im ersten geht es um die Eindeutigkeit von C(z) und E bei gegebenem f(Ä); im zweiten um die Eindeutigkeit von A(z) und B(z) bei gegebenem C(z) (siehe dazu Abschnitt 14.5). Für die Prognose ist primär der erste und einfachere Schritt wichtig. Unter unseren Annahmen, insbesondere unter (21), ist C(z) eindeutig bis auf Nachmultiplikation mit einer konstanten nichtsingulären Matrix bestimmt (vgl. [19] und [21]). Durch eine einfache Normierung, wie z. B. Co=/..
(25)
können die C^ eindeutig festgelegt werden. Aus (18) und (21) folgt:
^.=IA^.-.
(26)
mit Z)^o A^' =^~\^)^(^)- Die s^ sind also lineare Funktionen der X^, s
(27)
Für bekannte C^ und deshalb bekannte D^ ist somit die Prognosefunktion durch (27) gegeben. Zur Bestimmung der C^ und daher der i). aus f(Ä), siehe z. B. [33], Kapitel 1.10, oder [21]. Heute werden die 4 , B^ und Z meist direkt geschätzt.
246
Deistler, Neusser
Die Prognosefehlervarianz ist gegeben durch: r-l
S.=EC,IC;
(28)
Für AR-Prozesse ist die Prognose besonders einfach. Nimmt man AQ=BQ=I^ ist X,=-A,X,_,-...-A^X,_^+^,.
an, so (29)
Aus dem Projektionssatz folgt: X(tA) = -A,X,-..,-A^X,,,_^,
(30)
da Es^^^X'^ = Es^^^iTZoCi^s-i)' = ^ f ü r ^ < / . Mit dem gleichen Argument gilt x(a)
= -AX(tA)-A^t---Ap^t.2-p
(31)
usw. Beim AR-Prozess bestimmen die 4 also sehr direkt die Prognoseformel. Man kann den Prädiktor aus gegebenen oder geschätzten Koeffizienten eines ARMAModells durch Koeffizientenvergleich aus A(z)C(z) = B(z) blockrekursiv berechnen: AQCQ = BQ
A]^Q + 4 ) ^ 1 ~ ^]
(32) A^C^_^ + 4_iC^_^^i + • • • + 4)C, = 0 für / > max(p, q + l) Die Q erhält man aus der Lösung dieses (unendlichen) linearen Gleichungssystems. Analog können auch die D^ in (27) bestimmt werden: BoDo=A, B,D,+B,D,=A, (33) B^D^_^ + 5^_i A_,.i + • • • + 5o A = 0 für / > max(q, p + l) Wegen (20) bzw. (21) konvergieren die C^ bzw. D^ für /->oo geometrisch gegen 0. Für viele praktische Fälle ist diese Konvergenz sogar sehr schnell, sodass man oft mit relativ kleinen „Anfangsausschnitten" aus (32) und (33) eine hinreichend genaue Approximation für den Prädiktor aus unendlicher Vergangenheit erhält. Eine zweite Möglichkeit der praktischen Berechnung ist die Verallgemeinerung der in (30) und (31) beschriebenen Iteration auf den ARMA-Fall. Durch Bildung der Prädiktoren auf beiden Seiten von (18) erhält man wegen der Linearität der Projektion:
j;,AM^-i) i=0
wobei
1
= J]B^eit,T-i)^ /=0
(34)
Prognose uni- und multivariater Zeitreihen
s(t,T-i) = \ [ 0, X(t,T-i)
247
(35) für r - / > 0
= X(t-\-T-i),
für T-i<0.
(36)
Ersetzt man die s^ in (34) dann aus (18) durch X^_^, />0 und ^^_^, / > 0 , so erhält man auf diese Weise eine Approximation für den Prädiktor. Dies ist nur eine Approximation, da die unbekannten Anfangswerte bei dieser Prozedur gleich Null gesetzt wurden. Für genügend großes t ist ihr Einfluss allerdings gering. Betrachten wir als Beispiel ein einfaches ARMA-System mit n = l, p = q = l: X^ + aX^_^ = ^/ + bSj_^ .
(37)
für die Einschrittprognose gilt
X{t,\) = -aX^+b6^ = -aX^ + bX^ + abX^_^ - b s^_^ = i-a + b)X^ + {-a + b){-b)X^_, +...
(38)
^{-\y-'ab'X,+{-\yb'''s, und wir setzen XQ=0 erhält man aus
und wie bereits zuvor erwähnt £Q=Q. Die Zweischrittprognose
X{t,2) = {-a + b)X{t,\) + abX^ +..., usw. 14.5 Die Schätzung der Prädiktoren für ARMA-Systeme In der Praxis sind die C^ bzw. / unbekannt und müssen aus den Beobachtungen geschätzt werden. Dadurch kommt zu dem vorher beschriebenen Prognosefehler im Fall bekannter zweiter Momente ein weiterer Prognosefehler hinzu. Die Komponente des Prognosefehlers kann bei endlichen Stichproben erheblich sein, geht aber bei Konsistenz der Schätzer mit wachsender Stichprobe gegen Null. Das Schätzproblem ist der vielleicht schwierigste Teil des Prognoseproblems. Bei ARMA-Modellen liegt es nahe, nicht die C. oder / direkt zu schätzen, sondern A^, B. und Z und, falls unbekannt, p und q . Das bietet den Vorteil, dass für vorgeschriebenes p und q der Parameterraum Teilmenge des Euklidischen Raums ist, was die Schätzung sehr vereinfacht. Wir behandeln zunächst den Fall, dass p und q a priori bekannt sind. Das Problem der Schätzung ist sehr eng mit dem zweiten Schritt des Identifizierbarkeitsproblems verzahnt, also dem Problem der eindeutigen Festlegung von 4 und B^ ^. Dieses Identifizierbarkeitsproblem ist im mehrdimensionalen Fall bedeutend Hannan und Deistler [21] bzw. Ljung [29] geben eine ausführliche Darstellung der hier zusammengefassten Ergebnisse.
248
Deistler, Neusser
schwieriger zu lösen als im eindimensionalen Fall. Die wichtigsten Beiträge hierzu stammen von Hannan [18]. Einfache, jedoch nicht ganz allgemeine, hinreichende Bedingungen zur Identifizierbarkeit sind: (39) A(z) und B(z) sind relativ linksprim
(40)
(A^^B^) hat Rang n
(41)
Bedingung (40) bedeutet, dass alle gemeinsamen Linksteiler von A(z) und B{z) unimodular sind, das ARMA-System daher keine künstlich aufgeblähte Dynamik besitzt.^ Das am häufigsten verwendete Schätzverfahren erhält man aus der Gauß'schen Likelihoodfunktion Lj^: (42)
- | l n Z , ( Ö ) = l l n d e t r , ( ö ) + lx'(T)r-^(ö)X(T)
Die Optimierung dieser Funktion ergibt den Maximum-Likelihood-Schätzer (ML-Schätzer). Dabei enthält der Parametervektor 0 die freien, d. h. unabhängig wählbaren Parameter in 4 , El und Z in einer bestimmten Anordnung, und wir wählen folgende Notation:
^x^ X(T) =
T,(d) = \^TJ
Km ro(T-l)
r.(i) ro(0) 7e(T-2)
re(T-\) 7e(T-2)
reiß) .
wobei y0{s) die Kovarianzfunktion eines ARMA-Prozesses mit dem Parametervektor e darstellt. In den meisten Fällen erhält man eine Approximation des ML-Schätzers durch die numerische Optimierung der Funktion Z^. Unter den Identifizierbarkeitsannahmen lässt sich mit einigen weiteren Voraussetzungen zeigen, dass der ML-Schätzer konsistent und asymptotisch normal ist (vgl. [21]). Betrachten wir nun den Fall, dass p und q unbekannt sind. Hier gibt es zwei Fehlermöglichkeiten: entweder sind die p und q zu groß („overfitting") oder p oder q sind zu klein („underfitting") gewählt. Im Fall von „overfitting" ist der ML-Schätzer im Allgemeinen nicht mehr konsistent für die 4 und B^, wohl aber für die Q . Mit anderen Worten, bei „overfitting" geht wohl die Konsistenz für die wahren Parameter 4 und B^ verloren, der ML-Schätzer konvergiert aber gegen die wahre Äquivalenzklasse, d. h. gegen die Menge aller 4 und B^, die nach (23) die wahren Q ergeben. Die Q und damit die Prognosefunktion werden konsistent geschätzt. Das Schätzproblem ist also für die Prognose in diesem Sinne gutmütiger als für die Parameter 4 und B^. Eine Polynommatrix U{z) heißt unimoduiar, falls det[/(z) = konstant ^^0 . Im Fall (37) würde künstlich aufgeblähte Dynamik bedeuten a = b^O . Siehe Hannan und Deistler [21] für eine eingehende Diskussion.
Prognose uni- und multivariater Zeitreihen
249
Wir erläutern diesen Sachverhalt anhand des eindimensionalen ARMA-Systems mit der Spezifikation (37). Gilt für das wahre System a = b = 0, so konvergiert der MLSchätzer im Allgemeinen nicht gegen a = b = 0, sondern nur gegen die Gerade a = b mit der Einschränkung |a|
q(C,=l;q=OJ>0). Zwar muss beim „overfitting" ein Verlust an asymptotischer Effizienz in Kauf genommen werden. Zudem wirft die Unbestimmtheit der Parameterschätzung auch numerische Probleme auf, die jedoch bei rein autoregressiven Prozessen nicht auftreten. Die Schätzer der „überzähligen" Parameter konvergieren in diesem Fall gegen Null. Außerdem ist der ML-Schätzer bei AR-Modellen vom Kleinst-Quadrate-Typ. Die Schätzformel ist daher im Gegensatz zum allgemeinen ARMA-Fall explizit gegeben und daher schnell auswertbar. Deshalb werden AR-Modelle oft bevorzugt (vgl. Parzen [32]), zumal auch sie reguläre stationäre Prozesse beliebig genau approximieren können. Um jedoch eine bestimmte Güte der Approximation zu erreichen, müssen beim reinen ARModell im Allgemeinen viel mehr Parameter geschätzt werden als beim ARMA-Modell, was einen Nachteil des AR-Ansatzes darstellt. Bei „underfitting" konvergieren die ML-Schätzer gegen die besten Prädiktoren, die der eingeschränkte Parameterraum zulässt. Aufbauend auf den Arbeiten von Akaike [1] wurden vollautomatisierte Verfahren zur Schätzung von p und q entwickelt (siehe Hannan und Deistler [21]). Die Grundidee ist dabei die folgende: Der ML-Schätzer tendiert insofern zum „overfitting", als die Werte der Likelihoodfunktion für größeres p und q größer oder zumindest gleich sein werden. Aus diesem Grund liegt es nahe, die Likelihoodfunktion oder den ML-Schätzer für Z mit einem Korrekturterm zu versehen, der von der Anzahl der freien Parameter und damit von p und q abhängt. Eine wichtige Klasse von Kriterien ist von der Form:
A(p,q) = lnd^ttr(p.q)-^n\p^q)^
(43)
wobei lLj{p,q) der ML-Schätzer von Z für gegebenes p und q ist. Die Funktion C{T) beschreibt den „trade-off" zwischen der Güte der Anpassung des Systems an die Daten und der Komplexität oder genauer der Dimension des Parameterraums. Konkrete Wahlen sind: CiT) = 2
(AlC-Kriterium)
C{T) = \nT
(BIC-Kriterium)
Die Schätzer von p und q werden durch Minimierung von A(p,q) über einen bestimmten endlichen ganzzahligen Bereich gewonnen. Es kann gezeigt werden, dass das BIC-Kriterium unter allgemeinen Voraussetzungen konsistent ist, während das AlC-Kriterium asymptotisch zur Überschätzung neigt (vgl. [20]). Eine Alternative zur Verwendung von Informationskriterien besteht darin, diejenige Spezifikation zu wählen, die die Summe der Quadrate der „out-of-sample" Einschrittprognosefehler minimiert.
250
Deistler, Neusser
14.6 ARMAX-Modelle und bedingte Prognose Bei vielen Anwendungen hängen die endogenen Variablen (X^) noch von (m-dimensionalen) exogenen Variablen oder Inputs (Z^) ab. Dann erweitert man das ARMASystem (18) zu einem ARMAX-System: p
1X4^._.=I^.Z,_,+I5,^._., /=0
i=0
(44)
i=0
wobei E^ nxm Matrizen sind und A^ nicht unbedingt gleich /„ sein muss. Analog spricht man von einem ARX-System, wenn q = 0 und B^ =1^ ist. Die „klassischen" linearen ökonometrischen Systeme sind ARX-Systeme. Bei ARMAX-Systemen wird oft die Frage nach der bedingten Prognose für die endogenen Variablen, gegeben die exogenen Variablen, gestellt, z. B. um die Auswirkungen wirtschaftspolitischer Instrumente auf ökonomische „Zielvariablen" zu prognostizieren. Der lineare KQ-Prädiktor für X^_^^ gegeben X^,s
(45)
/=0
mit
';"
(46)
i=0
und dieser Erwartungswert kann aus der Kenntnis der 4 . ^i und Z^, s
i(a)=-V f^Ax,,,_,+Y.^^z,,,_^ i=\
i=0
und die Mehrschrittprognosen erhält man durch iteratives Einsetzen analog zu (31).
(47)
Prognose uni- und multivariater Zeitreihen
251
Wieder ist die Schätzung der 4 , B^, E^ und E in (44) der komplizierteste Schritt zur tatsächlichen Ermittlung der Prädiktoren. Der eigentlichen Schätzung ist wiederum ein Identifizierbarkeitsproblem vorgelagert. Im ARMAX-Fall ist die „strukturelle" Identifizierbarkeit, also die Identifizierbarkeit der ökonomisch direkt interpretierbaren Parameter aufgrund von a priori Information, besonders wichtig. Hier lassen sich meist aus der a priori Kenntnis, dass gewisse Variable in gewissen Gleichungen nicht erscheinen, Nullrestriktionen an die Elemente von 4 und E^ ableiten. Diese a priori Information reduziert in vielen praktischen Fällen die Dimension des Parameterraums (durch Überidentifikation) bedeutend und erhöht dadurch die asymptotische Effizienz, ja sie macht oft bei einer relativ großen Zahl von Gleichungen und relativ kurzen Zeitreihen die Schätzung erst möglich. Zur Schätzung selbst empfehlen sich wieder der ML-Schätzer oder geeignete Approximationen - praktisch alle ökonometrischen Schätzverfahren lassen sich als Approximation an den ML-Schätzer auffassen. Die negative logarithmierte Likelihoodfunktion ist in diesem Fall proportional zu - | l n Z , ( ö ) = l l n d e t r , ( ö ) + li.'(?^,Ö).r-^(ö).t/(r,ö)
(48)
t-\
Dabei ist u(T,d) = (u[(dl...y^(d)y
mit u,(d) = X,-Y,TjZ^-j,
und r^(0) ist die Varianz-
J=0
Kovarianzmatrix von u{T,0). Die ML-Schätzer sind unter allgemeinen Annahmen konsistent und asymptotisch normal. Die dynamische Spezifikation des ARMAX-Systems, also die Festlegung der maximalen Lag-Längen p, r und q, erfolgt analog zum ARMA-Fall. In vielen Anwendungen will man noch zusätzlich die Inputs bzw. die exogenen Variablen datengetrieben auswählen. Dabei wird die Inputselektion aus einer vorgegebenen Liste von fh a priori Kandidaten gleichzeitig mit der dynamischen Spezifikation, etwa mittels eines der in Gleichung (43) angegebenen Informationskriterien, durchgeführt. Dabei wird oft das Kriterium über alle Teilmengen der Menge aller Inputkandidaten optimiert, sodass sich ohne Dynamik schon 2^ unterschiedliche Inputkombinationen ergeben. Klarerweise soll die Zahl der Spezifikationen, über die das Informationskriterium optimiert werden soll, in einem vernünftigen Verhältnis zur Stichprobengröße stehen, um „overfitting" zu vermeiden; mit anderen Worten: Bei kleinen Stichproben macht es wenig Sinn, ein Informationskriterium über zu viele Spezifikationsmöglichkeiten zu optimieren. In wirtschaftspolitischen Anwendungen ist es oft nicht von vornherein klar, welche Variablen endogen und welche exogen sind. Wir geben folgende Definition von Exogenität: Sei {Y^) der Prozess aller beobachtbaren Variablen, wobei noch nicht notwendigerweise zwischen endogenen und exogenen Variablen unterschieden worden ist; gegeben eine beliebige Partitionierung (eventuell nach Umordnung der Komponenten) (}^) = ( x ; , z ; y , dann heißt (Z^) exogen für {X^), falls die Projektion von X^ auf (ZJ^^^ nicht von (ZJ^>^ abhängt. Zukünftige Werte des Prozesses (Z^) verbessern diese Approximation nicht. Diese Definition der Exogenität entspricht dem Kausalitätskonzept von Granger [16] (siehe [34] und [35]). Diese Definition kann direkt für einen Test (Kausalitätstest) verwendet werden, bei dem man in der Regression
252
Deistler, Neusser
X,= ^ A Z , - , + " . i=-N
die Koeffizienten /?,, z<0, z. B. mit einem F-Test, auf Null testet. Es gibt eine umfangreiche Literatur über alternative Methoden (vgl. [15]). Die praktische Bedeutung des Kausalitätstests für die Prognose besteht darin, dass man das Prognoseproblem in zwei Schritte zerlegen kann. Zuerst werden die exogenen Variablen aus ihrer eigenen Vergangenheit prognostiziert. Im zweiten Schritt werden die endogenen Variablen bedingt vorhergesagt, wobei für die exogenen Variablen die Prädiktoren der ersten Stufe eingesetzt werden. Bei gegebenen zweiten Momenten ist diese Prognose gleich der unbedingten Prognose für (Y^). Weiß man jedoch, dass (Z^) exogen ist, so hat man weniger Parameter zu schätzen und damit die Möglichkeit eines Effizienzgewinns. 14.7 Die Prognose gesamtwirtschaftlicher Größen In diesem Abschnitt wird ein makroökonomisches Prognosemodell für Deutschland besprochen. Dieses konkrete Beispiel soll aufzeigen, welche zusätzlichen inhaltlichen wie statistischen Überlegungen angestellt werden müssen, um ein aussagekräftiges Prognosemodell zu entwickeln. Wir beschränken uns auf folgende vier Zeitreihen: die Industrieproduktion Y^, den Verbraucherpreisindex P^, das Zinssatzdifferenzial zwischen dem Monatsgeldmarktsatz und der Umlaufsrendite R^ sowie der Arbeitslosenrate U^.^ Diese Zeitreihen stehen nicht nur im Mittelpunkt makroökonomischer Forschung, sondern beanspruchen auch das Interesse einer breiteren Öffentlichkeit. Wir haben das Zinssatzdifferenzial anstelle eines Zinssatzes verwendet, da die Differenz zwischen kurz- und langfristigem Zinssatz wichtige Informationen über den zukünftigen Verlauf der wirtschaftlichen Aktivität sowie der Inflationsrate enthält (siehe [13] und [12]). Alle Daten stehen monatlich ab Januar 1992 bis Oktober 2003 zur Verfügung und umfassen daher nur die Zeit nach der deutschen Wiedervereinigung. Als eigentlicher Schätzzeitraum wurde nur die Zeit bis zum Dezember 2001 gewählt. Die restliche Zeitspanne von Januar 2002 bis Oktober 2003 dient zur Evaluation der Prognosegüte des Modells. Charakteristisch für viele ökonomische Zeitreihen ist das Vorhandensein eines Trends und/oder eines Saisonmusters. Die Zeitreihen sind daher nicht stationär, sodass die in den vorangegangenen Abschnitten dargestellte Theorie nicht unmittelbar anwendbar ist. Um die Natur des Trends und des Saisonmusters feststellen zu können, insbesondere ob diese deterministisch oder stochastisch sind, sind in den letzten beiden Jahrzehnten eine Vielzahl von Tests entwickelt worden, auf die aus Platzmangel nicht weiter eingegangen werden kann (siehe etwa [5] oder [23]). In jedem Fall empfiehlt es
Alle Daten wurden der Zeitreihen-Datenbank der Deutschen Bundesbank mit Internetadresse http:// www.bundesbank.de/stat/zeitreihen/index.htm entnommen. Die genaue Beschreibung der ausgewählten Reihen ist wie folgt: Die arbeitstäglich bereinigte Industrieproduktion mit Basisjahr 1995 (Code: UXNI63), der Verbraucherpreisindex mit Basisjahr 2000 (Code: UUFA01), der Zinssatz für Monatsgeld am Frankfurter Bankplatz (Code: SU0104), die ungewogene Umlaufsrendite von Bundeswertpapieren mit Restlaufzeit von 9 bis 10 Jahren (Code: WX3950) und die Arbeitslosenquote bezogen auf alle zivilen Erwerbspersonen (Code: UUCC02).
Prognose uni- und multivariater Zeitreihen
253
sich, soweit dies möglich ist, sowohl den Trend als auch die Saison zu modellieren und nicht mechanisch die Daten durch ein Saisonbereinigungsprogramm (z. B. Census X12) zu glätten. Diese Programme können nicht nur die Eigenschaften der Zeitreihen in oft unsystematischer Weise verfälschen, sondern sind, da sie im Kern einen unendlichen zweiseitigen Filter approximieren, für die Evaluation und Erstellung von Prognosemodellen ungeeignet. Eine geeignete Transformation der Variablen besteht darin, die Wachstumsraten gegenüber dem Vorjahresmonat zu bilden, also Ai2ln}^ =ln}^-ln}^_i2 bzw. Ai2lnP^ =lnP^-lnP^_i2 zu modellieren. Eine Transformation des Zinssatzdifferenzials und der Arbeitslosenquote ist nicht angezeigt. Der zu modellierende Prozess besteht daher aus (X^) = ((Ai2lnl^,Ai2lni'^,i?^,[/^y). Ausgangspunkt der Modellierung bildet ein vektorautoregressives (VAR) Modell der Ordnung 2''. Dabei zeigt sich, dass die saisonalen Effekte durch die obigen Transformationen nicht vollständig berücksichtigt werden.^ Es werden daher neben der Konstanten noch zwei Dummy-Variablen, eine für Dezember und eine für Januar, im Modell berücksichtigt. Die Anwendung der Informationskriterien (43) zur Bestimmung der Ordnung des VAR-Modells ergibt ein uneinheitliches Bild. Während das AlC-Kriterium eine Ordnung von 12 wählt, bevorzugt das BIC-Kriterium ein VAR der Ordnung 1. Da ein VAR-Modell der Ordnung 12 aufgrund der relativ kleinen Stichprobe und der damit verbundenen vielen statistisch insignifikanten Koeffizienten wenig Sinn macht, wird ein VAR-Modell der Ordnung 2 inklusive Konstante und den beiden Dummyvariablen spezifiziert, wobei zusätzlich noch U^_^2 '^ jeder Gleichung und ä^2^nY^_^2 ^^"^ '"^ der Gleichung für die Produktion berücksichtigt werden. Diese pragmatische Vorgehensweise scheint sich in der Praxis zu bewähren (siehe [27]). Da das gesamte Modell relativ viele Parameter umfasst, wird auf eine Auflistung der einzelnen Koeffizienten verzichtet. Stattdessen werden die Zusammenhänge anhand folgender Abbildung verdeutlicht. Dabei zeigen die durchgezogenen (strichlierten) Pfeile Zusammenhänge an, die aufgrund eines i^-Tests am 5(10)-Prozentniveau statistisch signifikant sind. Die Prognosegüte des Modells wurde wie folgt untersucht. Zuerst wurde das Modell für den Beobachtungszeitraum Januar 1992 bis Dezember 2001 geschätzt. Anschließend wurden mit diesem Modell Prognosen für die nächsten 24 Monate erstellt. Abbildung 2 vergleicht die Prognosewerte mit den Realisationen, die allerdings nur bis Oktober 2003 zur Verfügung stehen. Diese Abbildung zeigt, dass das Wachstum der Industrieproduktion im Jahre 2002 relativ gut prognostiziert wird. Der Aufschwung bricht jedoch im Jahr 2003 zusammen, was durch das Modell nicht erfasst wird. Die Prognose der Inflationsrate sowie des Zinssatzdifferenzials fällt wenig befriedigend aus, da sowohl die Richtung als auch das Niveau der Entwicklung verfehlt werden.
7
In der Sprechweise der vorigen Abschnitte entspricht dies einem AR-Modell mit maximaler Verzögerung von p = 2. Kointegrationsbeziehungen (siehe [24] und [31]) zwischen den hier verwendeten Variablen werden aus theoretisch-ökonomischen Überlegungen ausgeschlossen.
254
Deistler, Neusser
Abb. 1: Zusammenhänge zwischen den Variablen Inflationsrate
Wacfistumsrate der Industrieproduktion 10 •Progrjose
•h
5 -V
\
V, k 1k
"ÄOI
2002
21303
\ \
2D04
2002
Zinssatzdifferential
2003
2004
Arbeitslosenrate 115 11 l^^ginose |: 10.5 10 9.5
2002
2003
2004
"^N
v. -^..
\\^
^ iW' v
^*Q1
;\
2002
•
\
2003
Abb. 2: Prognose und Realisation Im nächsten Schritt wird der Schätzzeitraum um einen Monat, den Januar 2002, erweitert und das so adaptierte Modell für eine neuerliche Prognose, diesmal von Februar 2002 bis Dezember 2003, verwendet. Danach wurde der Schätzzeitraum um einen weiteren Monat erweitert, die Koeffizienten des Modells wiederum an die neue Information angepasst und Prognosen für die nächsten Monate berechnet. Insgesamt können auf diese Weise 22 Einschritt-, 21 Zweischritt- und schließlich 10 Zwölfschrittprognosen erstellt werden. Die Güte der Prognosen wird anhand der Wurzel des mittleren quad-
Prognose uni- und multivariater Zeitreihen
255
rierten Prognosefehlers (Root Mean Squared Error, RI\/ISE) überprüft. Bei einem Prognosehorizont von r Monaten und einem Überprüfungszeitraum von N Monaten ist der RMSE für die Variable x, = X „ für den Prognosehorizont T definiert durch: RMSE(T)
=.
1 N + \-T
N-T
Y,(x„,.i-x(t + i,T)f
(49)
/=0
Da für die Evaluation der Prognose nur jener Zeitraum venA/endet wird, der nicht zur Identifikation und Schätzung des Modells diente, spricht man von einer „out-of-sample" Evaluation. Die Ergebnisse dieser Übung sind in Tabelle 1 zusammengefasst. Insgesamt bestätigt die Tabelle, dass die Prognose makroökonomischer Variablen schwierig ist. Dies trifft vor allem auf die Prognose der Wachstumsrate der Industrieproduktion zu. Die Gründe für diese unbefriedigende Ergebnisse sind vielfältig (siehe [22]). Diese reichen von Messfehlern in den Daten über die Auswahl der Variablen, die Instabilität und Unzuverlässigkeit aggregierter makroökonomischer Zusammenhänge (siehe etwa Lucas' Kritik [30]) bis hin zu Fehlspezifikationen der Modelle.^
Variable A,>7 A,2lnP R U
1 1.77 0.26 0.23 0.18
Prognosehorizont (in Monaten) 2 3 4 6 8 1.96 2.15 2.62 3.31 3.76 0.35 0.45 0.52 0.63 0.68 0.39 0.47 0.55 0.72 0.82 0.43 0.44 0.30 0.39 0.43
12 4.63 0.73 0.88 0.42
Tab. 1: Prognosegüte (RMSE) für verschiedene Prognosehorizonte Bei VAR-Modellen wirkt sich besonders die Überparametrisierung negativ auf die Prognosegüte aus (siehe [14] und [27]). Eine Methode zur Lösung dieses Problems besteht darin, statistisch nicht signifikante Koeffizienten zu eliminieren. Dieses einfache heuristische Verfahren kann die Prognosegüte bereits deutlich verbessern. Eine andere bewährte Methode besteht darin, Bayesianische Verfahren zu venA/enden, um a priori Information besser berücksichtigen zu können (siehe [28] und [36]). Außer rein statistischen Verfahren kann auch die ökonomische Theorie zur Gewinnung von a priori Information beitragen. Diese ist jedoch bezüglich der Dynamik der Variablen meist wenig informativ. 14.8 Absatzprognose Prognosen gesamtwirtschaftlicher Größen, wie sie im vorigen Abschnitt besprochen wurden, waren lange Zeit die in der Ökonometrie dominierenden Prognosen. In den letzten zwanzig Jahren haben jedoch ökonometrische Prognosemethoden und Modelle im Finanzmarkt- und Unternehmensbereich stark an Bedeutung gewonnen. Die Finanzmarktökonometrie hat durch die große Nachfrage nach empirischen Analysen und Entscheidungsfundierung auf diesem Sektor einen enormen Aufschwung genommen; diese Nachfrage wurde ihrerseits durch die steigende Bedeutung der FiAbschnitt 14.8 diskutiert weitere Problemfelder und mögliche Lösungsvorschläge.
256
Deistler, Neusser
nanzmärkte und durch die steigende Komplexität ihrer Produkte ausgelöst. Darauf soll aber in diesem Beitrag nicht eingegangen werden. Vielleicht nicht ganz so spektakulär wie im Finanzmarktbereich, aber doch deutlich an Gewicht gewinnend sind ökonometrische Prognose- und Analysemethoden im Unternehmensbereich. Zunehmende Verfügbarkeit von Daten, etwa in Data Warehouses und wachsender Konkurrenzdruck sind wesentliche Anreize, auch anspruchsvollere Methoden einzusetzen. Wir betrachten hier die Absatzprognose, die einen wesentlichen Input, etwa für das Supply Chain Management (siehe z. B. Aviv [4]), bildet. Bei der Erstellung eines Prognosemodells sind folgende Fragen zu klären bzw. Punkte zu berücksichtigen (siehe z. B. Überwimmer und Deistler [37] und Wehling [38]): 1.
Wie viele Zeitreihen sollen prognostiziert werden? Bei Bedarfsprognosen für Warenwirtschaftssysteme, wo oft 10000 und mehr Artikel betrachtet werden, ist vollständige Automatisierung anzustreben. Sind wenige Zeitreihen zu prognostizieren, so kann die Genauigkeit des Prognosemodells durch „fine tuning" erhöht werden.
2.
Liegen sehr viele Zeitreihen vor, so stellt sich die Frage, ob diese in Cluster mit gleichem Prognoseverhalten unterteilt werden sollen.
3.
Sollen die Prognosewerte der Zeitreihen direkt verwendet werden oder werden sie z. B. noch von Experten korrigiert? Eine interessante Entwicklung sind so genannte hybride Prognosesysteme, die z. B. auf ARX-Systemen basierende Zeitreihenprognosen mit wissensbasierten Systemen, bei denen zusätzliche Erfahrungsregeln verwendet werden, kombinieren.
4.
Sind die Kostenfunktionen stark asymmetrisch, d. h., die Folgekosten von positiven Prognosefehlern unterscheiden sich stark von denen betragsgleicher negativer Prognosefehler, dann werden in gewissen Fällen so genannte lin-lin-Kostenfunktionen venA/endet, die aus zwei linearen Ästen bestehen. In diesem Fall erhält man den optimalen Prädiktor als ein Quantil der bedingten Verteilung, das durch den Quotienten der Steigungen der beiden Geradenäste der Kostenfunktion gegeben ist (siehe Christoffersen und Diebold [8]).
5.
Welche Kalendereffekte (z. B. Feiertags-, Weihnachts- oder Ostereffekte) und Saisoneffekte sind relevant? Derartige Effekte können durch Dummyvariablen berücksichtigt werden. Ein anderer Zugang sind variable, z. B. tagesspezifische Lags (siehe Deistler u.a. [10]).
6.
Soll der Trend getrennt modelliert werden?
7.
Sind Ausreißer vorhanden?
8.
Welche Variablen beeinflussen die zu prognostizierende Variable? Typische Kandidaten für Inputs sind: Preisreduktionen, Preisreduktionen bei Konkurrenzprodukten, Werbung und Promotionsmaßnahmen.
9.
Ein spezielles Problem bilden in der Beobachtungszeit neu eingeführte Produkte.
In Überwimmer und Deistler [37] und Wehling [38] wurden Analyse- und Prognosemodelle für Absätze von Markenartikeln aus Wochendaten über einem Beobachtungszeit-
Prognose uni- und multivariater Zeitreihen
257
räum von zwei oder drei Jahren entwickelt. Der Prognosezeitraum beträgt eine Woche; in Wehling [38] lag das Hauptaugenmerk auf der Vollautomatisierung der Prozedur. Die Basismodelle waren dabei univariate (genauer ein Output, mehrere Inputs) ARXModelle. Die Spezifikation der Dynamik und die Inputselektion wurden, wie zuvor beschrieben, mit Informationskriterien oder dem „out-of-sample" Einschrittprognosefehler durchgeführt. Um eine zeitaufwändige Untersuchung aller Teilmengen der Liste der Kandidaten für die prädeterminierten Variablen (also der Inputs und der verzögerten Outputs) zu vermeiden, wurde der so genannte An-Algorithmus (An und Gu [2]) verwendet. Dieser Algorithmus sucht in einer „intelligenten" Weise über eine Teilmenge der Menge aller möglichen Spezifikationen. In vielen Fällen sind verzögerte Inputs wichtig, um nicht allen Inputs die gleiche Dynamik aufzuprägen. In der übenA/iegenden Mehrzahl der Fälle ist es wichtig, auch die letzten noch verfügbaren Daten zur Identifikation zu benützen, die Parameter werden daher laufend neu geschätzt. Ebenso wurde die Spezifikation der Modelle in regelmäßigen Abständen erneut vorgenommen. Dies wurde sowohl mit einem gleitenden („moving") oder einem sich erweiternden („extending") Fenster vorgenommen (siehe auch Deistler und Hamann [11]). Dadurch wird auch der Effekt von Variationen der Parameter abgeschwächt. Für die Validierung der Prognosemodelle sind folgende Schritte wichtig: 1.
Der quadratische Korrelationskoeffizient, berechnet aus dem „out-of-sample" Einschnittprognosefehler. Dabei ist wichtig, dass für Parameterschätzung und Spezifikation nur Daten verwendet werden, die vor dem Prognosezeitpunkt liegen. Insbesondere ist der Vergleich mit dem „no change predictor" als einfachstem Benchmark wichtig.
2.
Tests auf Schiefe der Fehler: Starke Schiefe kann ein Indikator für Ausreißer sein. ^ oder F-Tests für die Parameter bringen andererseits wenig zusätzliche Information; auf AlC oder BIG basierte Verfahren lassen sich als Sequenzen von Likelihood Ratio Tests interpretieren.
3.
Werbeeinflüsse werden oft durch so genannte Adstocks beschrieben (s. Überwimmer und Deistler [37]). Hier ist zu untersuchen, ob dadurch die Dynamik der Werbeeinflüsse ausreichend beschrieben wird.
4.
Um zu untersuchen, ob die Parameter langsam mit der Zeit variieren oder ob Strukturbrüche vorliegen, kann man, um einen ersten Hinweis zu erhalten, adaptive Schätzverfahren verwenden, die den Zeitpfad der Parameter „tracken". Ein einfaches Schätzverfahren besteht darin, die zurückliegenden Daten mit einem geometrischen Vergessensfaktor zu gewichten, wobei dieser Faktor seinerseits durch „grid search" bestimmt wird. Aus den Zeitpfaden der Parameter kann man auch Hinweise über die Validität der Spezifikation erhalten.
5.
Eventuell auftretende Strukturbrüche können durch Tests untersucht werden. Ebenso sind Strukturbrüche in der Spezifikation von Interesse, so könnten z. B. gewisse Inputs nur in speziellen Regimen wirksam sein.
6.
Schließlich ist zu prüfen, ob Nichtlinearitäten die Prognosequalität verbessern. Dies kann ganz allgemein durch den Vergleich mit auf neuronalen Netzen basierenden Prognosen (siehe z. B. Wehlig [38]) oder durch Erweiterungen des ARX-
258
Deistler, Neusser Ansatzes geschehen. Übliche Erweiterungen sind etwa (siehe ÜbenA/immer und Deistler [37]) das additive Hinzufügen von Interaktionstermen (z. B. das Produkt aus Werbung und Preisreduktion), STARX-Modelle (Granger und Teräsvirta [17]) oder Asymmetrieterme für die Werbewirkung.
In gewissen Fällen ist eine multivariate Modellierung angebracht, etwa wenn Produkte eng verwandt sind und ihre Absätze starke gemeinsame Bewegungen aufweisen. Bei „normalen" multivariaten (oder Vektor-) ARX-Systemen kommt man dabei mit der Anzahl der gemeinsam zu modellierenden Produkte sehr rasch an Grenzen. Aus diesem Grunde werden oft Faktormodelle „vorgeschaltet" (siehe Deistler u.a. [9] und Deistler u.a. [10]):
X,^Kf,^u,
(50)
wobei yj r-dimensionale Faktoren sind, mit r<^n, die dann mit ARX-Modellen prognostiziert werden. A ist die ^ x r Faktorladungsmatrix und u^ sind die Fehler. Das Faktormodell kann z. B. aus einer Hauptkomponentenanalyse stammen oder einer Rangreduzierten Regression entsprechen (siehe Anderson [3] und Deistler und Hamann [11]). Die Prognosequalitäten, die mit den von uns erstellten Modellen erzielt wurden, sind bei verschiedenen Produkten deutlich verschieden. Wir haben in fast allen Fällen zumindest keine Verbesserungen der Prognose mit neuronalen Netzen festgestellt; durch Interaktionsterme und STARX-Modelle konnten zum Teil jedoch Verbesserungen erzielt werden. Wir haben somit einen Zugang und eine Methodik zur Erstellung von Prognosemodellen für Absatzdaten in groben Zügen beschrieben. Dieser Zugang lässt sich auf andere Unternehmensdaten (in Zeitreihenform) übertragen. Im Kern dieses Zuganges stehen ARX-Modelle, ihre Identifikation und die auf ihnen basierende Prognose. Anwendungen finden derartige Prognosen etwa für die Lagerhaltung und die Produktionsplanung. 14.9 Literatur [1] [2] [3] [4] [5] [6] [7] [8]
Akaike, H., A New Look at the Statistical Model Identification, IEEE Transactions on Automatic Control AC-19 (1974), S. 716 ff. An, H. und Gu, L., On Selection of Regression Variables, Acta Mathematica Applicatae Sinica2(1985), S. 27ff. Anderson, T.W., An Introduction to Multivariate Statistical Analysis, 2. Aufl., John Wiley and Sons 1984. Aviv, Y., A Time-Series Framework for Supply-Chain Inventory Management, Operations Research 51 (2003), S. 210 ff. Banerjee, A., Dolado, J., Galbraith, J.W. und Hendry, D.F., Co-Integration, Error-Correction, and the Econometric Analysis of Non-Stationary Data, Oxford, 1993. Bernanke, B.S., Alternative Explanations of the Money-Income Correlation, CarnegieRochester Conference Series on Public Policy 25 (1986), S. 49 ff. Brockwell, P.J. und Davis, R.A., Time Series: Theory and Methods, New York, 1987. Christoffersen, F.F. und Diebold, F.X., Optimal Prediction under Asymmetrie Löss, Economic Theory 13 (1997), S. 808 ff.
Prognose uni- und multivariater Zeitreihen [9] [10]
[11]
[12] [13]
[14] [15]
[16] [17] [18] [19] [20] [21] [22] [23] [24] [25]
[26] [27] [28] [29] [30] [31] [32]
[33]
259
Deistler, M., Fraißler, W., Petritsch, G. und Scherrer, W., Ein Vergleich von Methoden zur Kurzfristprognose elektrischer Last, Archiv für Elektrotechnik 71 (1988), S. 389 ff. Deistler, M., Käfer, I., Scherrer, W. und ÜbenA/immer, M., Prediction of Daily Power Demand, in: Bitzer, B. (Hrsg.), Proceedings of the 3rd European IFS Workshop 2 (2000), S. 52 ff. Deistler, M. und Hamann, E., Identification of Factor Models for Forecasting Returns, Forschungsbericht, Institut für Ökonometrie, Operations Research und Systemtheorie, TU Wien 2003. Dotsey, M., The Predicitve Content of the Interest Rate Term Spread for Future Economic Growth, Federal Reserve Bank of Richmond Economic Quarterly 84 (1998), S. 31 ff. Estrella, A. und Mishkin, F.S., The Predictive Power of the Term Structure of Interest Rates: Implications for the European Central Bank, European Economic Review 41 (1997), S. 1375 ff. Fair, R., An Analysis of the Accuracy of Four Macroeconometric Models, Journal of Political Economy 87 (1979), S. 701 ff. Geweke, J., Inference and Causality in Economic Time Series Models, in: Griliches, Z. und Intriligator, M.D. (Hrsg.), Handbooks of Econometrics, Vol. 2, Amsterdam 1984, S. 1101 ff. Granger, C.W.J., Investing Causal Relations by Econometric Models and Cross-Spectral Methods, Econometrica 37 (1969), S. 424 ff. Granger, C.W.J. und Teräsvirta, T., Modelling Economic Relationships, Oxford University Press 1993. Hannan, E.J., The Identification of Vector Mixed Autoregressive-Moving Average Systems, Biometrika 57 (1969), S. 223 ff. Hannan, E.J., Multiple Time Series, New York 1970. Hannan, E.J., The Estimation of the Order of an ARMA Process, Annais of Statistics 8 (1980), S. 1071 ff. Hannan, E.J. und Deistler, M., The Statistical Theory of Linear Systems, New York 1988. Hendry, D.F. und Clements, M.P., Economic Forecasting: Some Lessons from Recent Research, Mimeo 2002. Hylleberg, S., Seasonality in Regresssion, Orlando, Florida 1986. Johansen, S., Likelihood-Based Inference in Cointegrated Vector Autoregressive Models, Oxford 1995. Kaiman, R.E., A New Approach to Linear Filtering and Prediction Problems, Journal of Basic Engineering, Transactions of the American Society of Mechanical Engineers D 82 (1960), S. 35 ff. Kolmogorov, A.N., Sur l'interpolation et extrapolation des suites stationaires, Comptes rendus hebdomadaires des sceances de l'Academie des Sciences 208 (1939), S. 208 ff. Kunst, R. und Neusser, K., A Forecasting Comparison of Some VAR Techniques, International Journal of Forecasting 2 (1986), S. 447 ff. Litterman, R.B., Forecasting With Bayesian Vector Autoregressions - Five Years of Experience, Journal of Business and Economic Statistics 4 (1986), S. 25 ff. Ljung, L., System Identification, Theory for the User, New Jersey 1987. Lucas, R.E., Econometric Policy Evaluation: A Critique, Journal of Monetary Economics 2 (1976), Supplement Carnegie-Rochester Conference Series on Public Policy, S.19 ff. Neusser, K., Testing the Long-Run Implications of the Neociassical Growth Model, Journal of Monetary Economics 27 (1991), S.3 ff. Parzen, E., Multiple Time Series: Determining the Order of Approximating Autoregressive Schemes, in: Krishnaiah, P. (Hrsg.), Multivariate Analysis IV, Amsterdam 1977, S. 283 ff. Rozanov, Y.A., Stationary Random Processes, San Francisco 1967.
260 [34] [35] [36]
[37] [38]
[39] [40]
Deistler, Neusser Sims, CA., Money, Income, and Causality, American Economic Review 62 (1972), S. 540 ff. Sims, CA., Macroeconomics and Reality, Econometrica 48 (1980), S. 1 ff. Sims, C A., A Nine-Variable Probabilistic Macroeconomic Forecasting Model, in: Stock, J.H. und Watson, M.W. (Hrsg.), Business Cycles, Indicators, and Forecasting, Chicago 1993, S. 179 ff. Überwimmer, M. und Deistler, M., Modelling Effects of Advertising for Non-Durable Goods, Mimeo 2003. Wehling, S., Prognosemodelle für Warenwirtschaftssysteme im Hinblick auf eine vollständige Automatisierung, Diplomarbeit, Institut für Ökonometrie, Operations Research und Systemtheorie, TU Wien 2003. Wiener, N., Extrapolation, Interpolation and Smoothing of Stationary Time Series with Engineering Applications, New York 1949. Wold, H., A Study In the Analysis of Stationary Time Series, Uppsala 1938.
15 Die Input-Output-Rechnung als Hilfsmittel der Prognose von Reiner Stäglin 15.1 Einleitung Die Prognose der wirtschaftlichen Entwicklung eines Unternehmens oder eines Wirtschaftsbereichs darf nicht isoliert vorgenommen, sondern muss in ein umfassendes Dateninformationssystem integriert werden. Will man z. B. für einen Wirtschaftsbereich die Produktionsentwicklung in den nächsten Jahren vorhersagen, so muss man einerseits das Wachstum des Bruttoinlandsprodukts und seiner Komponenten, andererseits die für die Zukunft erwartete Produktionsentwicklung der wichtigsten Abnehmerbranchen des Bereichs berücksichtigen. Darüber hinaus empfiehlt es sich - was oft übersehen wird - , auch die Entwicklung derjenigen Branchen zu beachten, die als Kunden des zu prognostizierenden Wirtschaftsbereichs zwar nicht direkt in Erscheinung treten, die seine künftige Entwicklung aber indirekt beeinflussen, weil sie Vorleistungsprodukte nachfragen, bei deren Erzeugung ebenfalls Produkte des zu prognostizierenden Bereichs eingesetzt werden. Ein Beispiel soll dies veranschaulichen: Die Produktion der Elektrotechnischen Industrie hängt nicht nur vom künftigen Wachstum der letzten Verwendung von Erzeugnissen der Elektrotechnik und von der Produktionsentwicklung des Maschinenbaus, des Straßenfahrzeugbaus und des Baugewerbes als den wichtigsten direkten Beziehern ab. Sie wird indirekt auch durch eine veränderte letzte Verwendung (Privater Verbrauch, Anlageinvestitionen, Exporte) von Produkten aus anderen Wirtschaftsbereichen sowie durch die Entwicklung des Stahlbaus, der Datenverarbeitung und der Feinmechanischen und Optischen Industrie mitbestimmt, weil in die End- und Vorleistungsproduktion dieser Branchen elektrotechnische Artikel als Vorprodukte eingehen. Das einzige bisher bekannte System, das die angedeuteten vielfältigen Bezugs- und Lieferverflechtungen einschließlich der möglichen Anstoß-, Mitzieh- und Rückkoppelungseffekte erfasst, ist die Input-Output-Rechnung. Sie bietet die Möglichkeit, die von Veränderungen ökonomischer Variablen auf die Wirtschaftsbereiche und Unternehmen ausgehenden Wirkungen zu quantifizieren sowie einzel- und gesamtwirtschaftliche Prognosen auf Konsistenz zu prüfen. Die Berücksichtigung der Interdependenz aller Wirtschaftsbereiche durch die Input-Output-Rechnung hat dazu geführt, dass von ihr als Hilfsmittel der Prognose und als ergänzendem Instrument der Wirtschaftspolitik Gebrauch gemacht wird [10]. Die Input-Output-Rechnung besteht aus der symmetrischen Input-Output-Tabelle [34], der eine Aufkommens- und Verwendungstabelle zugrunde liegen kann [7], und aus der Input-Output-Analyse. Die Tabellen stellen das statistische Informationssystem dar, die Analyse liefert eine Interpretation des in der symmetrischen Tabelle enthaltenen Datenmaterials anhand von Input-Output-Modellen.
262
Stäglin
15.2 Input-Output-Tabellen als Informationssystem für die Prognose 15.2.1 Symmetrische Input-Output-Tabelle als Datensystem Die symmetrische Input-Output-Tabelle verzeichnet in Form eines konsistenten Rechenschemas die Waren- und Dienstleistungsströme, die zwischen den zu Bereichen zusammengefassten Produktionseinheiten eines Wirtschaftsraums in einer bestimmten Periode fließen. Außerdem zeigt sie die Zulieferungen der Produktionsbereiche an die letzte Verwendung (unter anderem Privater Verbrauch und Investitionen) und die Entstehung der primären Inputs (Einfuhren und Beiträge zum Bruttoinlandsprodukt bzw. nach Abzug der Einfuhrabgaben die Bruttowertschöpfung) in den einzelnen Bereichen. Ihr Schema ist dem angegebenen Zahlenbeispiel (vgl. Tabelle 1) zu entnehmen, das eine gesamtwirtschaftliche Input-Output-Tabelle darstellt und aus drei Produktionsbereichen, zwei Vektoren der letzten Verwendung (y^, yj) und zwei primären Inputs (Pi, P2) besteht.
an
von 1 2 3 PI P2
^y
1 30 80 90 30 70 300
2
3
yi
yi
^i
100 225 100 45 30 500
90 100 240 120 50 600
60 55 80 35
20 40 90 20
-
-
300 500 600 250 150
230
170
1800
Tab. 1: Symmetrische Input-Output-Tabelle Für jeden Produktionsbereich zeigt die Tabelle zeilenweise die Verteilung seines Outputs (x^) auf die Abnehmer und spaltenweise die Zusammensetzung seines Inputs (xj) nach Lieferanten und primären Komponenten. Trägt z. B. der Bereich 2 mit 80 Einheiten zur Produktion des Bereichs 1 bei, so kommt das im Felderwert ^21 zum Ausdruck, der zugleich einen Teil des gesamten Outputs des Produktionsbereichs 2 (500 Einheiten) und einen Teil des gesamten Inputs des Produktionsbereichs 1 (300 Einheiten) darstellt. Nachgewiesen werden Werteinheiten, die sich durch Menge x Preis ergeben, wobei als gemeinsame Recheneinheit in der Regel die Landeswährung verwendet wird. Die Werteinheiten können zu jeweiligen Preisen oder zu konstanten Preisen eines Basisjahres bzw. des Vorjahres ausgedrückt werden. Für jeden Produktionsbereich ist Zeilensumme = Spaltensumme, d. h. Gesamtoutput = Gesamtinput; dabei handelt es sich in beiden Fällen um den Bruttoproduktionswert. Für die Vektoren der letzten Verwendung und die primären Inputs ist diese Gleichheit nicht bereichsweise, sondern nur summarisch gegeben [30]. Eine entsprechende symmetrische Input-Output-Tabelle kann - je nach vorhandenem statistischen Material - auch für ein Unternehmen, einen Wirtschaftsbereich oder eine Region aufgestellt werden. Die unternehmensbezogene oder auch betriebliche Tabelle zeigt den internen Produktionsfluss, d. h. die Liefer- und Bezugsverflechtungen zwischen den verschiedenen Bereichen (z. B. Betriebsstätten oder Werken) des Unternehmens sowie die externen Outputs (Lieferungen an Kunden und an sog. Verrechnungssektoren) und die externen Inputs (Bezüge von Lieferanten und Leistungsein-
Die Input-Output-Rechnung als Hilfsmittel der Prognose
263
satz); sie kann zu einer Matrix der Konzernverflechtung erweitert werden. Die Tabelle für einen ausgewählten Wirtschaftsbereich gibt die Verflechtung der Produktionseinheiten des Bereichs untereinander (z. B. innerhalb des Textilgewerbes zwischen der Spinnstoffaufbereitung, der Spinnstoffverarbeitung und der Gespinstverarbeitung) und mit den übrigen Wirtschaftsbereichen wieder (z. B. mit der Chemie auf der Bezugsseite und mit der Polstermöbelherstellung auf der Absatzseite), berücksichtigt aber nicht deren wechselseitige Beziehungen. Diese werden erst beim Übergang zur regionalen und gesamtwirtschaftlichen Input-Output-Tabelle einbezogen, in die wiederum ein Unternehmen eingefügt werden kann, wenn die dafür benötigten Input- und Output-Daten vorhanden sind. Soll z. B. ein Unternehmen aus dem Produktionsbereich 2 der InputOutput-Übersicht der Tabelle 1 herausgelöst und gesondert nachgewiesen werden, so müssen je eine neue Zeile und Spalte U2 eingefügt und die Werte des Bereichs 2 entsprechend gekürzt werden (vgl. Tabelle 2).
an
von 1 2* U2 3 P\ PI ^y
1
2*
U2
3
y\
yi
30 70 10 90 30 70 300
80 210 5 90 40 25 450
20 10 0 10 5 5 50
90 75 25 240 120 50 600
60 45 10 80 35
20 40 0 90 20
-
-
300 450 50 600 250 150
230
170
1800
Xi
Tab. 2: Symmetrische Input-Output-Tabelle mit eingefügtem Unternehmen 15.2.2 Deskriptive Auswertung der symmetrischen Input-Output-Tabelle Die deskriptive Auswertung der symmetrischen Input-Output-Tabelle vermittelt ein quantitatives Bild von den direkten Verflechtungsbeziehungen, die zwischen den einzelnen Produktionsbereichen und Wirtschaftseinheiten bestehen. Durch Output- und Input-Koeffizienten sowie durch die Ergebnisse der Triangulation liefert sie ein Informationssystem für die Prognose. 15.2.2.1 Output-Koeffizienten Die Output-Koeffizienten, definiert durch b^j =x^j/x^, geben an, zu welchen Anteilen der Output jedes in der Vorspalte der Tabelle aufgeführten Produktionsbereichs an die in der Kopfzeile ausgewiesenen Bereiche geht. Durch die Normierung der Zeilenwerte auf die jeweiligen Zeilensummen bringen die Koeffizienten die Absatzstrukturen zum Ausdruck, d. h., für die Produktionsbereiche zeigen sie den Verbleib der Bruttoproduktion und für die primären Inputs deren Verteilung auf die einzelnen Bereiche ([27] und [30]). In Tabelle 3 sind die Output-Koeffizienten für die symmetrische Input-Output-Tabelle der Tabelle 2 wiedergegeben. Sie lassen unter anderem erkennen, dass für den Produktionsbereich 1 wie auch für das Unternehmen U2 der Bereich 3 den wichtigsten Abnehmer darstellt. Kann der Produktionsbereich 1 - in % ausgedrückt - 30 % seiner Bruttoproduktion an den Bereich 3 absetzen, so sind es bei U2 sogar 50 %, die von
264
Stäglin
ihm abgenommen werden. Dies bedeutet, dass eine Prognose der Produktionsentwicklung des Bereichs 1 bzw. des Unternehmens U2 eine Kenntnis der Entwicklung des Produktionsbereichs 3 voraussetzt. Diese wiederum hängt aber von dem Wachstum der letzten Verwendung von Produkten des Bereichs 3 ab, die 28,3 % (13,3 + 15,0) des gesamten Outputs auf sich vereinigt. Nur eine Prognose der Bedarfsentwicklung auf den einzelnen Märkten gewährleistet eine ausreichende Abstimmung der bereichsweisen Produktion auf die Erfordernisse der letzten Verwendung und die der anderen Produktionsbereiche; mithilfe von detaillierten Input-Output-Tabellen ist sie möglich.
1 2* U2 3 PI ^j
1
2*
U2
3
y\
yi
s
0,1000 0,1555 0,2000 0,1500 0,1200 0,4667
0,2667 0,4667 0,1000 0,1500 0,1600 0,1667
0,0667 0,0222 0,0000 0,0167 0,0200 0,0333
0,3000 0,1667 0,5000 0,4000 0,4800 0,3333
0,2000 0,1000 0,2000 0,1333 0,1400 0,0000
0,0667 0,0889 0,0000 0,1500 0,0800 0,0000
1,0000 1,0000 1,0000 1,0000 1,0000 1,0000
0,1667
0,2500
0,0278
0,3333
0,1278
0,0944
1,0000
Tab. 3: Output-Koeffizienten für die symmetrische Input-Output-Tabelle mit eingefügtem Unternehmen (die Summen sind ohne Berücksichtigung von Rundungsfehlern gebildet) 15.2.2.2 Input-Koeffizienten Die Input-Koeffizienten, definiert durch a^j =Xy Ixj, geben an, zu welchen Anteilen jeder der in der Kopfzeile der Tabelle ausgewiesenen Bereiche Inputs von den in der Vorspalte aufgeführten Produktionsbereichen bezogen hat. Durch die Normierung der Spaltenwerte auf die jeweiligen Spaltensummen stellen die Koeffizienten die Kostenstrukturen dar, d. h., für die Produktionsbereiche zeigen sie die Herkunft der Vorleistungen und die primären Kostenbestandteile der Bruttoproduktion, für die Vektoren der letzten Verwendung deren Belieferung durch die einzelnen Produktionsbereiche ([27] und [30]). In Tabelle 4 sind die für die Input-Output-Übersicht der Tabelle 2 berechneten InputKoeffizienten zusammengestellt. Sie machen deutlich, dass der Produktionsbereich 1 die meisten und der Bereich 2* die wenigsten primären Inputs zur Erzeugung von 100 Einheiten Bruttoproduktion einsetzt, nämlich 33,3 (10,0 + 23,3) bzw. 14,4 (8,9 + 5,5) Einheiten. Die Input-Relationen lassen ferner erkennen, dass der Produktionsbereich 1 am stärksten auf die Zulieferungen des Bereichs 3 und das Unternehmen U2 relativ noch mehr auf die Lieferungen des Bereichs 1 angewiesen ist, wenn man die intrasektoralen Transaktionen, also die Bezüge bzw. Lieferungen innerhalb des gleichen Produktionsbereichs, außer Acht lässt. Der Produktionsbereich 1 bezieht 30 % seiner gesamten Inputs vom Bereich 3, und U2 ist mit Vorleistungsbezügen in Höhe von 40 % seiner Bruttoproduktion vom Bereich 1 abhängig. Da die Produktion nur erbracht werden kann, wenn die dafür notwendigen Rohstoffe, Vorprodukte, Einbauteile und dergleichen verfügbar sind, muss bei einer
Die Input-Output-Rechnung als Hilfsmittel der Prognose
265
Prognose der Produktionsentwicklung z. B. des Unternehmens U2 unter anderem auch die künftige Entwicklung des Produktionsbereichs 1 als dem wichtigsten Lieferanten von Vorleistungen beachtet werden.
3
2*
U2
Pl
0,1000 0,2333 0,0333 0,3000 0,1000 0,2333
0,1778 0,4667 0,0111 0,2000 0,0889 0,0556
0,4000 0,2000 0,0000 0,2000 0,1000 0,1000
0,1500 0,1250 0,0417 0,4000 0,2000 0,0833
0,2609 0,1956 0,0435 0,3478 0,1522 0,0000
0,1176 0,2353 0,0000 0,5294 0,1176 0,0000
0,1667 0,2500 0,0278 0,3333 0,1389 0,0833
I
1,0000
1,0000
1,0000
1,0000
1,0000
1,0000
1,0000
1 1 2* U2 3
y\
yi
Xi
Tab. 4: Input-Koeffizienten für die symmetrische Input-Output-Tabelle mit eingefügtem Unternehmen (die Summen sind ohne Berücksichtigung von Rundungsfehlern gebildet) Bei der Prognose des Bedarfs an Produktgruppen genügt es also nicht, die in der Input-Output-Tabelle verzeichneten Transaktionen als Outputs zu interpretieren, vielmehr muss auch die Input-Bedeutung der Güterströme berücksichtigt werden. Und diese nimmt quantitativ zu, wenn Engpässe auf den Rohstoffmärkten auftreten, weil sie das Produktionswachstum beeinflussen. 15.2.2.3 Triangulation Die Triangulation ist eine Methode zur Ermittlung der Hierarchie der Produktionsbereiche in einem Wirtschaftsraum [9]. Sie besteht in der Umwandlung des Vorleistungsteils einer symmetrischen Input-Output-Tabelle in eine Matrix, bei der die Lieferungen oberhalb oder unterhalb der Hauptdiagonalen maximiert sind. Die Triangulation, die nach verschiedenen Verfahren vorgenommen werden kann [38], ist das Ergebnis eines iterativen Prozesses, bei dem schrittweise die Reihenfolge der Sektoren umgruppiert wird. Werden die Transaktionen z. B. oberhalb der Hauptdiagonalen maximiert, erhält man eine dem Produktionsfluss entsprechende Rangordnung; sie beginnt mit den Bereichen, die überwiegend an andere Produktionsbereiche liefern, jedoch wenig von ihnen beziehen, und endet mit den Branchen, die am meisten an die letzte Verwendung liefern, aber auch viele Vorleistungen beziehen. Eine Triangulation der Input-Output-Übersichten der Tabellen 1 und 2 erübrigt sich, da die Bereiche bzw. Wirtschaftseinheiten in den Matrizen schon in einer dem Produktionsfluss entsprechenden Hierarchie angeordnet sind. Die Rangordnung bringt die Abhängigkeit (Dependenz) der für eine Prognose wichtigen Produktionsbereiche zum Ausdruck. Sitzen z. B. Branchenexperten zusammen, um die Produktionsentwicklung der von ihnen vertretenen Bereiche vorauszuschätzen, empfiehlt es sich, sie in der Reihenfolge der Hierarchie zu Wort kommen zu lassen. Dadurch wird erreicht, dass jeder Experte - außer dem Letzten - durch seine Prognose mehr Informationen an seinen Nachfolger weitergibt (z. B. Bereich 2* an U2), als er von seinem Vorgänger erhalten hat (z. B. von Bereich 1).
266
Stäglin
Im Deutschen Institut für Wirtschaftsforschung (DIW Berlin) finden jährlich zwei Prognosetagungen mit Vertretern aus dem Produzierenden Gewerbe und aus dem Dienstleistungsgewerbe statt, auf denen gemeinsam eine Vorstellung von der kurzfristigen Produktionsentwicklung der einzelnen Wirtschaftsbereiche erarbeitet wird. Der Prognosetätigkeit liegt eine entsprechende Hierarchie zugrunde, die auf der Basis von symmetrischen Input-Output-Tabellen mithilfe der Triangulation ermittelt wird. 15.3 Input-Output-Analyse als Hilfsmittel der Prognose Die symmetrische Input-Output-Tabelle, die durch die Beschreibung der zwischen den einzelnen Wirtschaftsbereichen bestehenden Input- und Output-Verflechtungen ein wichtiges Informationssystem für die Prognose darstellt, kann auch für analytische Zwecke verwendet werden. Hierzu ist ein Modell erforderlich, mit dem die in der Tabelle gespeicherten Angaben interpretiert werden können [15]. 15.3.1 Input-Output-Modell 15.3.1.1 Das traditionelle Modell Das Produktionsmodell, das die Grundlage der Input-Output-Analyse bildet, ist in der Regel das offene statische LeoA?f/e/-Modell. (Vom geschlossenen Modell, das zuerst von Leontief entwickelt wurde und in dem alle Bereiche nur unter Produktions- und Absatzgesichtspunkten analysiert werden, unterscheidet sich das offene System durch die Berücksichtigung autonomer Vektoren für die letzte Verwendung und die primären Inputs [33].) Das offene Modell geht von der Annahme konstanter Input-Koeffizienten aus, unterstellt also, dass die bezogenen Vorleistungsinputs eines Produktionsbereichs proportional zum Output dieses Bereichs sind: Die Relationen Xy^ay-Xj stellen somit die Leontiefsche Produktionsfunktion dar, die linear-homogen und limitational ist. Da sie für jeden Produktionsbereich gebildet werden kann, lässt sich die Struktur einer Wirtschaft durch ein System von Gleichungen beschreiben, dessen spezifische strukturelle Eigenschaften durch die numerischen Werte der Input-Koeffizienten gegeben sind. Für jeden Produktionsbereich / ergibt sich der Output durch n
j=\
sodass das Gleichungssystem für ein offenes statisches Input-Output-Modell in Matrixschreibweise folgendes Aussehen hat:
x=Ax+y Hierin sind x und y die Vektoren des technologisch abhängigen Gesamtoutputs (Bruttoproduktion) und der systemunabhängigen letzten Verwendung; A ist die Matrix der Input-Koeffizienten.
Die Input-Output-Rechnung als Hilfsmittel der Prognose
267
Das Input-Output-Modell beschreibt ein Mengensystem, obwohl den Transaktionen der Input-Output-Tabelle stets Werte zugrunde liegen. Diese Wertangaben können aber als physische Mengen interpretiert werden, indem man die Mengeneinheiten eines Produkts als genau der Gütermenge entsprechend definiert, die für eine Geldeinheit bei den jeweiligen Preisen gekauft werden kann (hierzu und zum Preissystem vgl. [24]). Die Lösung des Modells besteht nun darin, die Bruttoproduktionswerte bzw. Produktionsmengen bei autonom vorgegebener letzter Verwendung und konstanten Input-Koeffizienten zu bestimmen. Die Auflösung des Gleichungssystems nach x ergibt
wobei / die Einheitsmatrix ist; {I-Ay^
wird inverse Leontief-Malnx genannt.
Die Bedeutung des offenen statischen Input-Output-Modells als Hilfsmittel der Prognose hängt von der Konstanz der Input-Koeffizienten ab. Für kurzfristige Betrachtungen ist diese Annahme durchaus vertretbar, für mittel- und langfristig ausgerichtete Analysen empfiehlt es sich dagegen - insbesondere wegen der strukturellen Veränderungen - , variable Koeffizienten zu verwenden, die dann ebenfalls prognostiziert werden müssen. Hierfür gibt es methodische Ansätze, die die Entwicklung der Input-Koeffizienten als zeit-, technologie- und preisabhängig zu erklären versuchen ([13] und [20]); außerdem gibt es mathematische Verfahren, mit deren Hilfe auf iterativem Wege - mit mehr oder weniger zusätzlicher originärer Information - Input-Output-Tabellen aktualisiert und prognostiziert werden können [21]. Ob mit konstanten oder mit veränderlichen Koeffizienten gearbeitet wird, in jedem Fall lassen sich Wirkungsanalysen durchführen, die die Bedeutung des Input-Output-Modells als Hilfsmittel der Prognose mitbegründen, zumal die Input-Output-Analyse selbst kein Prognoseinstrument darstellt. 15.3.1.2 Das erweiterte Modell Diese Aussage gilt auch für das erweiterte offene statische Input-Output-Modell, das zusätzlich zu den direkten und indirekten Produktionswirkungen die durch eine Veränderung der letzten VenA/endung induzierten Folgereaktionen beim Einkommen und beim privaten Verbrauch berücksichtigt. Die EnA/eiterung des traditionellen Input-Output-Modells erfolgt durch eine teilweise modellendogene Erklärung des privaten Verbrauchs, der folgender Gedanke zugrunde liegt: Erhöht sich im Sinne eines exogenen Anstoßes die Endnachfrage (z. B. durch Staatsausgaben im Rahmen eines Konjunkturprogramms), so führt das zu Produktionsänderungen. Die im Zuge der Produktion entstehenden Einkommen werden teilweise wieder für Verbrauchszwecke ausgegeben, und aus dem zusätzlichen privaten Verbrauch resultieren wiederum direkte und indirekte Produktionseffekte sowie zugehörige Einkommenseffekte; diese ihrerseits bewirken eine erneute Veränderung des privaten Verbrauchs und geben den Anstoß zu einer neuen „Runde", der sukzessiv weitere folgen. Formelmäßig lässt sich dieser Kreislauf von Verwendungs-, Produktions- und Einkommensänderungen ausdrücken durch
268
Stäglin x^ = {I-A)-^'(I-R)-^'y
bzw.
jc* = ( / - Z ) " ^ - 3 ;
Hierin bezeichnet x* die mit dem erweiterten offenen statischen Modell errechnete Bruttoproduktion. (I-R)~^ ist die Matrix der Verbrauchsmultiplikatoren, die zum Ausdruck bringt, wie viel letzte VenA/endung in den in der Vorspalte aufgeführten Produktionsbereichen durch die Nachfrage nach Gütern der in der Kopfzeile ausgewiesenen Bereichen und die daraus resultierenden produktions- und einkommensbedingten Folgewirkungen induziert wird. Die Matrix (I-zy^ ergibt sich durch die Verknüpfung der traditionellen /_eo/7f/e/-lnversen mit der Matrix der Verbrauchsmultiplikatoren; sie berücksichtigt neben den Produktionseffekten im Sinne von Leontief auch die Einkommenseffekte im Sinne von Keynes [18]. 15.3.1.3 Das dynamische Modell Werden darüber hinaus die Investitionen modellendogen bestimmt, so lässt sich auch die zu einer exogen vorgegebenen letzten Verwendung gehörige bereichsweise Entwicklung von Investition, Produktion und Beschäftigung ermitteln. Das bedeutet eine zusätzliche Erweiterung des Input-Output-Modells als Mengensystem und führt zum dynamischen Modell. Die endogene Erklärung der sektoralen Investitionsprozesse (vgl. [6] und [25]) beruht auf folgenden Annahmen: In jeder Periode werden in jeder Branche Entscheidungen über den Ausbau von Produktionskapazitäten aufgrund der Produktionsentwicklung der letzten Jahre getroffen. Diese KapazitätsenA/eiterungspläne basieren auf einem Akzelerationsprinzip. Einige Kapitalgüter - diese werden in Erweiterungs- und Ersatzinvestitionen unterteilt - müssen eine bestimmte Anzahl von Perioden im Voraus produziert werden, bevor sie die Produktionskapazitäten in der investierenden Branche erhöhen. Eine Vollauslastung der Kapazitäten ist nicht notwendig. Formelmäßig spiegeln sich diese Annahmen des dynamischen Modells in der folgenden Gleichung wider, deren Originalversion auf Leontief und Duchin [16] zurückgeht:
Hierin sind die Vektoren der Produktion und der letzten Verwendung sowie die Matrix der Input-Koeffizienten datiert, d. h., sie beziehen sich auf die Zeitperioden t und^ + 1. Die Matrix R^ enthält die Investitionskoeffizienten für Ersatz- und Modernisierungsanlagen in der Periode /, während B^^^ die Matrix der Erweiterungskapitalkoeffizienten in der Periode t + l darstellt. Eine weitere Spezifikation der Produktionskapazität in / und ihrer Veränderung zwischen t und / + 1 führt zu einem Modell, das für den gesamten Simulationszeitraum nur positive Outputs - also nicht-negative Lösungen - garantiert. Da in der Modellformulierung von einer sich im Zeitablauf ändernden Struktur und Technologie der Wirtschaft ausgegangen wird, erfordert die Implementierung des dynamischen Input-Output-Modells eine Zeitreihe von verschiedenen Matrizen, die untereinander vergleichbar und kompatibel sein müssen. Diese im Vergleich zum statischen Modell um ein Vielfaches größeren Datenanforderungen stehen einer weit reichenden empirischen Anwendung oft im Wege.
Die Input-Output-Rechnung als Hilfsmittel der Prognose
269
15.3.2 Modellmäßige Auswertung der symmetrischen Input-Output-Tabelle Die modellmäßige Auswertung der symmetrischen Input-Output-Tabelle bedeutet eine Analyse der wechselseitigen direkten und indirekten - beim erweiterten Modell auch der multiplikatorinduzierten - Beziehungen zwischen letzter Verwendung, primären Inputs und Vorleistungsverflechtung (zu weiteren Auswertungsmöglichkeiten vgl. [14] und [30]). Zum Beispiel macht sie es möglich, die Auswirkungen künftiger Veränderungen von letzter VenA^endung und primären Inputs auf die einzelnen Wirtschaftseinheiten und Branchen sowie auf die Wirtschaft als Ganzes zu quantifizieren. Ausgegangen wird dabei immer von der inversen Leontief-Mainx als dem Kernstück der Input-OutputAnalyse (vgl. [33]). 15.3.2.1 Inverse Koeffizienten Wie die Lösung des offenen statischen Leo/7^/e/-Modells gezeigt hat, ist die inverse Matrix durch C = (I-Ay^ definiert. Ihre Koeffizienten Cjj geben an, wie viel jeder der in der Vorspalte aufgeführten Bereiche produzieren muss, damit eine Einheit letzte Verwendung von Gütern der in der Kopfzeile ausgewiesenen Produktionsbereiche befriedigt werden kann. Durch die Einbeziehung der sektoralen Interdependenzen wird es möglich, die zur Befriedigung einer letzten Verwendung insgesamt, d. h. direkt und indirekt benötigte Bruttoproduktion festzustellen. Wenn z. B. die Nachfrage nach elektrotechnischen Haushaltsgeräten steigt, gehen von der Produktion der unmittelbar angesprochenen Elektrotechnischen Industrie nicht nur Wirkungen auf ihre direkten Zulieferindustrien wie die NE-Metallindustrie und die Chemie aus (direkte Effekte). Auch deren jeweilige Zulieferanten wie der Metallerzbergbau und die Energiewirtschaft, im nächsten Schritt wiederum deren Zulieferbereiche usw., müssen mehr Vorleistungsproduktion bereitstellen (indirekte Effekte), damit die Nachfrage nach Elektrogeräten letztlich befriedigt werden kann. Formal lässt sich die durch die letzte Verwendung ausgelöste Gesamtproduktion in die einzelnen Produktionsschritte zerlegen, wenn die Berechnung der inversen Matrix durch die Entwicklung der folgenden Potenzreihe approximiert wird: C = (I - A)-^ = I + A + A^ + A^ + A^ + .,. I repräsentiert dann die Nachfrage nach Produkten jedes Bereichs (Incentives), A die zur Befriedigung dieser letzten Verwendung direkt notwendigen Vorleistungen bzw. Zulieferungen, während die verbleibenden Elemente A^-\-A^-hA^ +... die indirekte Vorleistungsproduktion ausdrücken, die zur Erbringung der direkten Zulieferungen erforderlich ist. In den Tabellen 5 und 6 sind die inversen Koeffizienten für die beiden Input-OutputÜbersichten (ohne bzw. mit eingefügtem Unternehmen) wieder gegeben. Aus der Tabelle 6 ist zu ersehen, dass zur Befriedigung einer Einheit letzte Verwendung von Produkten des Bereich 2* der Produktionsbereich 1 der Produktionsbereich 2* das Unternehmen U2 der Produktionsbereich 3
0,76 2,54 0,11 1,26
Einheiten, Einheiten, Einheiten und Einheiten
270
Stäglin
produzieren müssen. Die Produktion des Bereichs 2* in Höhe von 2,54 Einheiten lässt sich entsprechend der dargestellten Potenzreihe weiter zerlegen in: 1,00 0,47
Einheiten letzte Verwendung, Einheiten direkte Vorleistungen, die Unternehmen des gleichen Bereichs beziehen (vgl. Tabelle 4), und Einheiten indirekte Vorleistungen, die Unternehmen des Sektors 2* für andere Unternehmen der Produktionsbereiche 1, 2* und 3 sowie für das Unternehmen U2 bereitstellen müssen. Das entspricht der Summe der Glieder A^ ^-A^+Ä^ usw. der Potenzreihe.
1,07
1 2 3
s
1 1,5431 1,0923 1,1357 3,7711
2 0,7802 2,5748 1,2484 4,6034
z
3 0,6025 0,9883 2,2974 3,8882
2,9259 4,6554 4,6814 12,2627
Tab. 5: Inverse Koeffizienten für die symmetrische Input-Output-Tabelle
1 2* U2 3
z
1 1,5432 0,9824 0,1097 1,1356 3,7709
2* 0,7602 2,5435 0,1062 1,2634 4,6733
Up 0,8905 1,0717 1,0902 1,1659 4,2183
3
z
0,6060 0,8499 0,1253 2,2947 3,8759
3,7999 5,4476 1,4313 5,8596 16,5384
Tab. 6: Inverse Koeffizienten für die symmetrische Input-Output-Tabelle mit eingefügtem Unternehmen Die Summenzeile der inversen Matrix zeigt, wie viel Einheiten insgesamt erzeugt werden müssen, damit eine Einheit letzte Verwendung von Produkten der in der Kopfzeile ausgewiesenen Produktionsbereiche befriedigt werden kann. Die Tabelle macht deutlich, dass der Produktionseffekt bei einer Veränderung der Nachfrage nach Erzeugnissen des Bereichs 2* mit 4,67 am größten wäre. Die inversen Koeffizienten - auch als Branchenmultiplikatoren bezeichnet - bieten die Möglichkeit, bei einer Prognose der Bedarfsentwicklung auf den einzelnen Märkten und bei einer Vorausschätzung der sektoralen Produktionsentwicklung die anderweitig nicht quantifizierbaren indirekten Effekte zu berücksichtigen. Da sie die Interdependenz aller wirtschaftlichen Beziehungen widerspiegeln, sind sie wertmäßig größer als die nur die direkten Beziehungen beschreibenden Input-Koeffizienten. 15.3.2.2 Berechnung unternehmensbezogener Produktionseffekte Die inversen Koeffizienten der Tabelle 6 zeigen, dass auch ein in eine Input-OutputÜbersicht eingefügtes Unternehmen sofort in der Lage ist, den von einer Veränderung der letzten Verwendung (z. B. einem staatlichen Konjunkturprogramm) auf seine Produktion ausgehenden Gesamteffekt zu quantifizieren. Steigt z. B. die Nachfrage nach Produkten des Bereichs 1 bzw. des Bereichs 3 um jeweils 100 Einheiten, bedeutet dies
Die Input-Output-Rechnung als Hilfsmittel der Prognose
271
für das Unternehmen U2 eine Mehrproduktion von rd. 11,0 bzw. 12,5 Einheiten. Davon sind 3,3 bzw. 4,2 Einheiten direkte Zulieferungen an die Produktionsbereiche 1 und 3 (vgl. Tabelle 4), die restlichen 7,7 bzw. 8,3 Einheiten stellen indirekte Vorleistungsproduktion dar. Auch wenn ein Unternehmen nicht explizit in einer Input-Output-Tabelle erscheint, hat es die Möglichkeit, die von einer erwarteten Nachfrageveränderung auf seine Bruttoproduktion ausgehenden Wirkungen abzuschätzen. Hierfür muss es sich durch eine separate Zeile in eine vorhandene symmetrische Input-Output-Tabelle hineinrechnen, d. h., es muss über die bereichsweise Verteilung seines Outputs Bescheid wissen [35]. Nehmen wir an, dass das Unternehmen U2 - zum Produktionsbereich 2 gehörig - die in der Tabelle 2 angegebene Output-Verteilung hat. Da die gesamten Inputs Xj der drei Abnehmerbereiche aus der Input-Output-Übersicht der Tabelle 1 ebenfalls bekannt sind, lassen sich für das Unternehmen die folgenden individuellen Input-Koeffizienten berechnen (der Input-Koeffizient %^^ weicht deshalb von dem der Tabelle 4 ab, weil er auf den gesamten Bereich 2 und nicht auf den Bereich 2* bezogen ist): an
-'2,1
=0,0333
au^^ =0,0100
a^2,3 = 0,0417
Werden sie mit den inversen Koeffizienten der Tabelle 5 kombiniert, geben sie Auskunft über die durch eine Erhöhung der letzten Verwendung bewirkte Output-Zunahme bei dem Unternehmen U2. Steigt z. B. - um bei dem oben gegebenen Beispiel zu bleiben - die Nachfrage nach Produkten des Bereichs 1 bzw. des Bereichs 3 um jeweils 100 Einheiten, so nehmen die Bruttoproduktionswerte aller (direkt und indirekt) betroffenen Produktionsbereiche entsprechend den inversen Koeffizienten der Spalten 1 und 3 der Tabelle 5 zu, also:
1 2 3
qi-100
c,3-100
154,31 109.23 113,57
60,25 98,83 229,74
Werden diese Output-Veränderungen mit den individuellen Input-Koeffizienten des Unternehmens multipliziert und die Bereichsergebnisse addiert, so erhält man eine Angabe über die durch die gestiegene letzte Verwendung ausgelöste Mehrproduktion beim Unternehmen U2: (cn-100)au2. 1 2 3
z
5,14 1,09 4,74 10,97
(c,3-100)öu 2,01 0,99 9,58 12,58
Ein Vergleich mit den aufgrund der inversen Koeffizienten des Unternehmens U2 aus Tabelle 6 unmittelbar ermittelten Produktionszunahmen zeigt -- bis auf Rundungsfehler - volle Übereinstimmung. Somit hat ein Unternehmen, auch wenn es nicht explizit mit seiner Input- und Output-Struktur in der Verflechtungsmatrix erscheint, die Möglichkeit, die Auswirkung der Nachfrage nach der Produktion aller Bereiche auf seinen eigenen Output zu quantifizieren.
272
Stäglin
15.3.2.3 Zusammenhang zwischen letzter Verwendung und Bruttoproduktion 15.3.2.3.1 Diagnostische Bedeutung Die letzte Verwendung besteht aus verschiedenen Komponenten, die für die einzelnen Produktionsbereiche und deren Entwicklung unterschiedliche Bedeutung haben. Diese auch für die Prognose wichtige Bedeutung ist aber nicht allein aus der direkten Nachfrage (Endproduktion) zu erkennen, sondern es muss die indirekte Nachfrage (Vorleistungsproduktion) mit berücksichtigt werden. Das ist durch die inverse Matrix möglich, die bei Multiplikation mit der letzten VenA/endung (7) die zur Befriedigung der Verwendungskomponenten insgesamt (direkt und indirekt) notwendige bereichsweise Bruttoproduktion (X) zeigt:
X=CY In Tabelle 7 sind die Ergebnisse einer derartigen Transformation der letzten Verwendung in Bruttoproduktion für die Input-Output-Übersicht der Tabelle 2 wiedergegeben. Die Ergebnisse machen deutlich, dass der Bereich 1 z. B. 184 Einheiten Bruttoproduktion zur Befriedigung des Verwendungsvektors yi bereitstellen musste, obwohl dessen direkte Nachfrage nach Produkten des Bereichs 1 nur 60 Einheiten betrug (vgl. Tabelle 2). Das erklärt sich dadurch, dass der Bereich 1 auch die Produktionsbereiche 2* und 3 sowie U2 beliefert, die ebenfalls für yi produzieren, sodass er einen erheblichen Teil seiner Bruttoproduktion (124 Einheiten) indirekt - durch Vorleistungslieferungen an die anderen Bereiche und an sich selbst - für die Befriedigung von yi zur Verfügung stellen muss.
1 2* U2 3
s
y\
yi
Xi
184 252 32 320 788
116 198 18 280 612
300 450 50 600
1400 Tab. 7: Den Komponenten der letzten Verwendung zugerechnete Bruttoproduktion Um festzustellen, wie viel Produkte des Bereichs 1 in der für die letzte Verwendung bestimmten Produktion der einzelnen Branchen enthalten sind, oder anders ausgedrückt, durch welche Lieferbeziehungen die indirekte Abhängigkeit des Bereichs 1 im einzelnen bedingt ist, müssen Marktverflechtungsanalysen durchgeführt werden (vgl. [28] und [30]). Hierzu wird die dem untersuchten Produktionsbereich / entsprechende Zeile der inversen Matrix, als Diagonalmatrix geschrieben, mit der Matrix der VenA/endungskomponenten multipliziert:
Die Ergebnisse einer derartigen Marktverflechtungsanalyse sind für den Bereich 1 und das Unternehmen U2 in Tabelle 8 zusammengestellt. Sie lassen z. B. erkennen, dass in den Lieferungen der Produktionsbereiche 2* und 3 sowie des Unternehmens U2 an den Verwendungsvektor yi Produktionswerte des Be-
Die Input-Output-Rechnung als Hilfsmittel der Prognose
273
reichs 1 in Höhe von 34, 49 und 9 Einheiten enthalten sind. Hinzu kommen 32 Einheiten Vorleistungsprodukte, die intrasektoral durch die Lieferbeziehungen zwischen den Unternehmen des Bereichs 1 bedingt sind. Diese 32 Einheiten ergeben sich aus den 92 Einheiten Gesamtleistung (Tabelle 8) abzüglich der 60 Einheiten für direkte Lieferungen (Tabelle 2). Bereich 1
1 2* U2 3
z
Jl 92 34 9 49 184
U2 yi
y\
yi
31 30 0 55 116
6 5 11 10 32
2 4 0 12 18
Tab. 8: Marktverflechtungsanalysen Wie bei den inversen Koeffizienten schon gezeigt wurde, ist es auch hier wieder möglich, die Interdependenzen von letzter Verwendung und Bruttoproduktion für das Unternehmen U2 ohne dessen explizite Berücksichtigung in der Input-Output-Tabelle zu quantifizieren. Gegeben sein müssen nur die Absatzwerte an die Komponenten der letzten Verwendung. 15.3.2.3.2 Prognostische Bedeutung Die bisherigen Berechnungen sind innerhalb des Systems einer vorliegenden InputOutput-Tabelle geblieben. Wird dieses System verlassen, d. h. werden Verwendungsvektoren von außen her vorgegeben - wobei es gleichgültig ist, ob sie geschätzt oder einem wirtschaftspolitischen Plan entnommen sind - so können durch Multiplikation mit der inversen Matrix die von diesen Verwendungsgrößen auf die einzelnen Bereiche ausgehenden Produktionswirkungen geschätzt werden. Auf gesamtwirtschaftlicher Ebene ist von der Möglichkeit, die Input-Output-Analyse in dieser Hinsicht als Hilfsmittel der Prognose einzusetzen, bereits frühzeitig Gebrauch gemacht worden. Schon 1967 wurden mithilfe der im DIW erstellten symmetrischen input-Output-Tabellen die Auswirkungen der beiden staatlichen Konjunkturprogramme auf die Bruttoproduktion der einzelnen Wirtschaftszweige quantifiziert [1]; diese Untersuchungen wurden mit den nachfolgenden Konjunkturprogrammen fortgeführt [3] und um Wirkungsanalysen erweitert, bei denen es um die Formulierung einer mittelfristigen Wachstumsstrategie [4] und um die Simulation der durch Angebotsverknappungen auf Rohstoffmärkten ausgelösten Störungen des Wirtschaftsablaufs [8] ging. Bei der letztgenannten Analyse wurden erstmals variable Input-Koeffizienten zur Berücksichtigung von Substitutionsmöglichkeiten herangezogen. Auch der Einfluss von gesamtwirtschaftlichen Nachfrageaggregaten auf Produktions- und Beschäftigungsstruktur [31] sowie die Exportabhängigkeit der deutschen Wirtschaft wurde und wird weiterhin kontinuierlich analysiert ([23] und [36]), um z. B. sichtbar zu machen, welche direkten und indirekten Folgen ein Rückgang der Exporte eines Wirtschaftsbereichs (z. B. der Automobilindustrie) haben könnte. Hierzu zählen ferner die projektspezifischen Input-Output-Studien, mit denen die wirtschaftliche Bedeutung von Großinvestitionen [11] und von länderübergreifenden Materialströmen [32] sowie die intersektoralen Auswirkungen des Ausstoßes von Schadstoffen [11] quantifiziert werden. Hinzu kommen Untersuchungen, denen das
274
Stäglin
traditionelle Input-Output-Modell in seiner Version als Preissystem zugrunde liegt. Bei ihnen geht es vor allem um die Simulation der Auswirkungen von Erdölverteuerungen auf das sektorale und gesamtwirtschaftliche Preis- und Kostenniveau [22]. Mit der Input-Output-Analyse können also die durch bestimmte wirtschaftspolitische Maßnahmen hervorgerufenen Effekte in Form eines Planspiels bereits vorher abgeschätzt werden. Dadurch gewinnt die für die Wirtschaftspolitik verantwortliche Stelle rechtzeitig einen Einblick in die Effizienz ihrer Maßnahmen, soweit der Strukturaspekt im Vordergrund der Untersuchungen steht. In welchem Ausmaß das auch für die Unternehmenspolitik zutrifft, ist eine Frage der Datenverfügbarkeit für betriebliche InputOutput-Tabellen (vgl. [17]). Für die Prognose im engeren Sinn, d. h. für die eigentliche Vorausschätzung z. B. der Größen der letzten Verwendung, ist die Input-Output-Rechnung dagegen weniger geeignet. Das liegt nicht daran, dass die durch eine erhöhte letzte Verwendung induzierten Reaktionen der Wirtschaftssubjekte, die einmal in einer Vermehrung der Investitionen (Akzeleratoreffekt) und zum anderen in einer Wiederverausgabung der entstandenen Einkommen in den Folgeperioden (Multiplikatoreffekt) zum Ausdruck kommen können, nicht ausreichend berücksichtigt werden, und dies trotz der Erweiterungen des offenen statischen Input-Output-Modells. Es ist vielmehr durch die andere Fragestellung begründet; der Input-Output-Analyse geht es nicht um die Prognose der letzten Verwendung, sondern um die Berechnung der von dieser prognostizierten Verwendung ausgehenden Wirkungen auf die einzelnen Produktionsbereiche. Somit bietet sich die Input-Output-Analyse auch für die Konsistenzprüfung von Prognosen an, insbesondere dann, wenn voneinander unabhängig gewonnene Vorstellungen über die künftige Entwicklung der letzten VenA/endung und der Bruttoproduktion vorhanden sind, man aber nicht weiß, ob diese Vorstellungen kompatibel sind. Liegen z. B. nach Wirtschaftsbereichen disaggregierte Vorausschätzungen der Verwendungskomponenten für das Jahr 2010 vor, so können die dazugehörigen Bruttoproduktionswerte ermittelt und mit den gesondert prognostizierten Produktionsgrößen für 2010 verglichen werden. Andererseits ist es auch möglich, die zu dem Produktionsvektor des Jahres 2010 „passende" Verwendung zu bestimmen und sie mit den Ergebnissen einer getrennten Prognose der letzten Verwendung zu vergleichen. Hierzu ist nicht einmal eine inverse Matrix notwendig, denn die Berechnung erfolgt mithilfe der Leontief-Matnx durch
y = (I-A)x Von der Möglichkeit, die Input-Output-Analyse zur Konsistenzprüfung einzusetzen, ist schon sehr früh bei Kurzfristprognosen [2] und bei Langfristprognosen [37] Gebrauch gemacht worden. Von Nachteil bei diesen Konsistenzprüfungen ist nur, dass man bei festgestellten Inkonsistenzen zwischen den unabhängig und den mit der Input-OutputRechnung ermittelten Prognoseergebnissen nicht diskriminieren kann, ob die Abweichungen auf Fehler in der Verwendungs- bzw. Produktionsvorausschätzung oder eher auf die meist als konstant angenommenen Koeffizienten zurückzuführen sind. Die für die Beantwortung gesamtwirtschaftlicher Fragestellungen angeführten Beschränkungen gelten entsprechend für die Anwendung der Input-Output-Rechnung auf Unternehmens- bzw. betriebswirtschaftlicher Ebene. Trotzdem wird auch hier von die-
Die Input-Output-Rechnung als Hilfsmittel der Prognose
275
sem Hilfsmittel der Prognose Gebrauch gemacht; einmal, weil es möglich ist, den von gesamtwirtschaftlichen Maßnahmen auf das einzelne Unternehmen ausgehenden Produktionseffekt abzuschätzen, zum anderen, weil im günstigsten Falle - wie in den USA schon seit langem geschehen [26] - dem Unternehmen die Frage beantwortet werden kann: Welche Wirtschaftsbereiche und welche Betriebe innerhalb dieser Bereiche kaufen meine Produkte, und wie viel kaufen sie? Diese Information ermöglicht dem Unternehmen, seine Marktposition zu bestimmen, Marktlücken zu erkennen und neue Absatzmärkte zu erschließen. Verfügt das Unternehmen darüber hinaus über eine eigene betriebliche Input-Output-Tabelle, so kann es auch folgende mit einer geplanten Marktausdehnung zusammenhängende Fragen beantworten: In welchem Umfang müsste bei gleichbleibender Belieferung der alten Kunden die Produktion auf den vorgelagerten Fertigungsstufen gesteigert werden? Wie viel mehr externe Inputs müssten bezogen werden? Wo könnten extern oder intern bedingte Engpässe auftreten? 15.3.3 Transformation der Input-Output-Ergebnisse in Beschäftigungsgrößen Wenn mit den symmetrischen Input-Output-Tabellen abgestimmte sektorale Arbeitsmarktdaten vorliegen, können die Ergebnisse der Input-Output-Analyse in Erwerbstätigenzahlen (Personen) und Arbeitsvolumen (Stunden) transformiert werden. Hierfür werden bereichsweise (Brutto-)Arbeitskoeffizienten bzw. - reziprok - (Brutto-)Arbeitsproduktivitäten benötigt, definiert durch EnA/erbstätige oder Volumen Bruttoproduktion
bzw.
Bruttoproduktion Erwerbstätige oder Volumen
um die Input-Output-Tabellen, die zugehörigen inversen /_eo/7f/e/-Matrizen oder die Auswertungsergebnisse in Beschäftigungsgrößen umzurechnen. Von der so genannten input-output-orientierten Arbeitsmarktanalyse machen vor allem das Institut für Arbeitsmarkt- und Berufsforschung der Bundesagentur für Arbeit (lAB), Nürnberg, und das DIW Berlin Gebrauch. Sie setzen die Input-Output-Analyse bei Fragestellungen ein, die im Zusammenhang mit der Bekämpfung der Arbeitslosigkeit auftreten und bei deren Beantwortung die Techniken der Global- und Partialanalyse nicht ausreichen. Unter dem Gesichtspunkt der Prognose standen bisher die direkten, indirekten und multiplikatorinduzierten Beschäftigungswirkungen wirtschaftspolitischer Maßnahmen auf die einzelnen Wirtschaftsbereiche im Mittelpunkt des Interesses (vgl. [29] und [31]). Aber auch die zukünftigen Beschäftigungswirkungen der Diffusion von Industrierobotern wurden mithilfe des dynamischen Input-Output-Modells geschätzt [6]. 15.4 Input-Output-Auswertungsprogramme Die deskriptiven und modellmäßigen Auswertungen der Input-Output-Tabelle, die anhand eines Zahlenbeispiels veranschaulicht worden sind, können heute mit jeder Software vorgenommen werden, die Matrizenoperationen enthält. Soll die Input-Output-Tabelle auch als Basis für Alternativrechnungen verwendet werden, kann auf MICRO 1-0 (Input-Output-Software zur Lösung von Input-Output-Modellen im Mikrocomputer) zurückgegriffen werden [5]. Diese Software erlaubt dem Benut-
276
Stäglin
zer, die letzte Verwendung, die Bruttoproduktionswerte und die Input-Strukturen der den Berechnungen zugrunde liegenden Input-Output-Matrix zu modifizieren. In jedem Falle lassen sich die von der neuen Konstellation der letzten Verwendung auf die einzelnen Bereiche ausgehenden Produktionseffekte berechnen. Auch die umgekehrte Rechnung ist möglich, d. h., es kann ermittelt werden, wie die letzte Verwendung aussehen muss, wenn ein bestimmter als Zielvorstellung vorgegebener Produktionsvektor erreicht werden soll. Deskriptive Analysen, Multiplikator- und Wirkungsanalysen erlaubt die interregionale Software IRIOS, die das Vorliegen einer gesamtwirtschaftlichen oder einer regionalen Input-Output-Tabelle voraussetzt [12]. Ein Manual präsentiert die einzelnen Rechenschritte des Auswertungsprogramms. Zusätzlich zu den generell und speziell verfügbaren Auswertungsprogrammen gibt es zahlreiche Programme, die von den mit der Input-Output-Rechnung befassten Institutionen intern eingesetzt werden, die aber nur teilweise erhältlich sind. So arbeitet z. B. das DIW Berlin bei der deskriptiven und modellmäßigen Auswertung seiner Input-Output-Tabellen mit einem umfangreichen Programmsystem, zu dem die Programme PUTPUT, MARKTA (Marktverflechtungs-Analysen) und MULIOS (Multiplikator im Input-Output-System) gehören. Hinzu kommt mit MODOP (Modell der doppelten Proportionalität) ein Programm, das zur Erstellung bzw. Vervollständigung von symmetrischen Input-Output-Tabellen herangezogen wird. Ob die mit den Auswertungsprogrammen vorgenommenen Alternativrechnungen von der letzten Verwendung oder von der Bruttoproduktion ausgehen, immer erfordern sie die Vorgabe exogener Größen. Das erklärt es auch, warum von der Input-Output-Rechnung nicht als Mittel, sondern nur als Hilfsmittel der Prognose gesprochen werden kann. 15.5 Literatur [1] [2] [3]
[4] [5] [6]
[7] [8] [9]
DIW (Hrsg.), Auswirkungen der beiden Konjunkturprogramme auf die einzelnen Wirtschaftszweige, Wochenbericht des DIW 34 (1967) 34, S. 203 ff. DIW (Hrsg.), Grundlinien der Wirtschaftsentwicklung 1974, Wochenbericht des DIW 40 (1973)51/52, S. 474 ff. DIW-Arbeitskreis Arbeitsmarktperspektiven, Gefahr steigender Arbeitslosigkeit durch die bisherigen Konjunkturprogramme nicht gebannt, Wochenbericht des DIW 45 (1978) 2, S. 13 ff. DIW-Arbeitskreis Arbeitsmarktperspektiven, Eine mittelfristige Strategie zur Wiedergewinnung der Vollbeschäftigung, Wochenbericht des DIW 45 (1978) 15, S. 147 ff. Econometrica, Inc. (Hrsg.), MICRO 1-0. A Package for Solving Input-Output Models in the Micro-Computer, Miami (ohne Datum). Edler, D., Ein dynamisches Input-Output-Modell zur Abschätzung der Auswirkungen ausgewählter neuer Technologien auf die Beschäftigung in der Bundesrepublik Deutschland, DIW-Beiträge zur Strukturforschung 116, Berlin 1990. Eurostat (Hrsg.), Europäisches System Volkswirtschafticher Gesamtrechnungen ESVG 1995, Kapitel 9: Input-Output-System, Luxemburg, Juni 1996. Filip-Köhn, R., Zur Abhängigkeit der Wirtschaft der Bundesrepublik Deutschland von Rohstoffimporten, Vierteljahreshefte zur Wirtschaftsforschung o.J. (1978) 4, S. 361 ff. Helmstädter, E., Die geordnete Input-Output-Struktur, Jahrbücher für Nationalökonomie und Statistik 174 (1962), S. 322 ff.
Die Input-Output-Rechnung als Hilfsmittel der Prognose [10] [11]
[12] [13]
[14] [15] [16] [17] [18]
[19]
[20]
[21] [22]
[23]
[24] [25]
[26] [27] [28] [29]
[30] [31]
277
Holub, M.-W. und SchnabI, H., Input-Output-Rechnung: Input-Output-Analyse, München 1994. Institut für Wirtschaftsforschung Halle (Hrsg.), Neuere Anwendungsfelder der Input-Output-Analyse in Deutschland, Tagungsband: Beiträge zum Halleschen Input-OutputWorkshop 2002, Sonderheft 4/2003. Stelder, T.M., Oosterhaven, J. und Eding, G.-J., Interregional Input-Output Software: IRIOS 1.0 Manual, Universityof Groningen, The Netherlands, September 2000. Krelle, W., Ersetzung der Produktionsfunktion durch preis- und kapazitätsabhängige Produktionskoeffizienten, Jahrbücher für Nationalökonomie und Statistik 176 (1964), S. 289 ff. Krengel, R. (Hrsg.), Aufstellung und Analyse von Input-Output-Tabellen, Sonderhefte zum Allgemeinen Statistischen Archiv 5, Göttingen 1973. Leontief, W., The Structure of the American Economy, 1919 - 1939, An Empirical Application of Equilibrium Analysis, 2. Aufl., New York 1953. Leontief, W. und Duchin, F., The Future Impact of Automation on Workers, New York 1986. Liebe, I., Input-Output-Analyse. Lieferverflechtung in der Wirtschaft, Perspektiven, Publikation der Abteilung Versuche und Erprobungen, Siemens AG o.J. (1971) 1, S. 2 ff. Pischner, R. und Stäglin, R., Darstellung des um den Keynesschen Multiplikator erweiterten offenen statischen Input-Output-Modells, Mitteilungen aus der Arbeitsmarkt- und Berufsforschung 9 (1976), S. 345 ff. Reich, U.-P., Stäglin, R., Stahmer, C, Schintke, J. und Eichmann, W., Ein System von Input-Output-Tabellen für die Bundesrepublik Deutschland; Konzeption, Erstellung, Auswertung, DIW-Beiträge zur Strukturforschung 159, Berlin 1995. Richter, J., Aktualisierung und Prognose technischer Koeffizienten in gesamtwirtschaftlichen Input-Output-Modellen, Wirtschaftswissenschaftliche Beiträge 43, Heidelberg 1991. Schintke, J., Modell der doppelten Proportionalität zur Schätzung von nichtnegativen Matrizen, insbes. Input-Output-Tabellen, Angewandte Informatik 15 (1973) 4, S. 153 ff. Schintke, J., Stäglin, R. und Weiß, J.-P., Verteuerung von Erdöl, Erdgas und Mineralölprodukten: Potentielle Preiseffekte in den Produktionsbereichen der deutschen Wirtschaft, Wochenbericht des DIW Berlin (2000) 45, S. 761 ff. Schintke, J. und Stäglin, R., Export stützt Beschäftigung - Jeder fünfte Arbeitsplatz in Deutschland von der Ausfuhr abhängig, Wochenbericht des DIW Berlin (2003) 9, S. 139 ff. Schumann, J., Input-Output-Analyse, in: Kosiol, E. (Hrsg.), Handwörterbuch des Rechnungswesens, Stuttgart 1970, S. 690 ff. Schumann, J., Möglichkeiten und Bedeutung einer teilweise endogenen Erklärung des privaten Konsums und der privaten Investitionen im statischen offenen Leontief-Modell, Jahrbücher für Nationalökonomie und Statistik 189 (1975), S. 378 ff. Stäglin, R., Zur Anwendung der Input-Output-Rechnung in den USA, Konjunkturpolitik 16(1970), S. 327 ff. Stäglin, R., Methodische und rechnerische Grundlagen der Input-Output-Analyse, in: Krengel, R. [14], S. 27 ff. Stäglin, R., Hohe indirekte Abhängigkeiten bestimmen Kurs der Chemiekonjunktur, Eine absatzorientierte Input-Output-Analyse, Chemische Industrie 100 (1977) 4, S. 184 ff. Stäglin, R., Zum Einsatz der Input-Output-Technik bei Arbeitsmarktanalysen, Ein Überblick für die Bundesrepublik Deutschland, Mitteilungen aus der Arbeitsmarkt- und Berufsforschung 12 (1979), S. 178 ff. Stäglin, R., Input-Output-Analyse, Spektrum der Wissenschaft o.J. (1985) 5, S. 44 ff. Stäglin, R., Edler, D. und Schintke, J. (unter Mitarbeit von Filip-Köhn, R.), Der Einfluß der gesamtwirtschaftlichen Nachfrageaggregate auf die Produktions- und Beschäfti-
278
[32]
[33]
[34]
[35] [36]
[37]
[38]
Stäglin gungsstruktur - eine quantitative Input-Output-Analyse, DIW-Beiträge zur Strukturforschung 127/1 und 127/11, Berlin 1992. Stäglin, R., Möglichkeiten zur Erfassung länderübergreifender Materialströme mit Hilfe internationaler Input-Output-Verflechtungen, in: Statistisches Bundesamt (Hrsg.), Beiträge zu den Umweltökonomischen Gesamtrechnungen, Band 6, Wiesbaden 1998. Stäglin, R., Input-Output-Analyse/Input-Output-Modelle/Input-Output-Tabellen, in: Bümmerhoff, D. und Lützel, H. (Hrsg.), Lexikon der Volkswirtschaftlichen Gesamtrechnung, 3. Aufl., München-Wien 2002, S. 186 ff. Statistisches Bundesamt (Hrsg.), Volkswirtschaftliche Gesamtrechnungen, Input-OutputTabellen 1991-2000, in jeweiligen Preisen und Preisen von 1995, Wiesbaden 2002 (im lnternetwww.destatis.de und [email protected]). Tiebout, CM., Input-Output and the Firm: A Technique for Using National and Regional Tables, The Review of Economics and Statistics 49 (1967), S. 260 ff. Verband der Automobilindustrie e.V. (Hrsg.), The Role of the Automobile Industry as a Key Sector - An Application of Input-Output Analysis, The Publication Series of the VDA, No. 77, Frankfurt/Main 1994. Weiß, J.-P., (Hrsg.) Wirtschaftliche Entwicklung Deutschlands bis zum Jahr 2000, Szenarien und Input-Output-Analysen des DIW-Arbeitskreises Langfristprognose, Wiesbaden 1993. Wessels, H., Vergleich verschiedener Ansätze zur Triangulation von Input-Output-Matrizen, in: Wetzel, W. und Münzner, H. (Hrsg.), Anwendungen statistischer und mathematischer Methoden auf sozialwissenschaftliche Probleme, Würzburg 1972, S. 133 ff.
16 Prognose mithilfe von Markovprozessen von Klaus Hansen 16.1 Einführung Die Einführung in die Struktur der Markovprozesse soll am Beispiel einer einfachen Prognoseaufgabe erfolgen. Betrachtet werden Wanderbewegungen von Konsumenten zwischen unterschiedlichen Produkten sowie die sich daraus ergebenden Marktanteile. Dabei soll unterschieden werden zwischen Käufen der Marke A und der Marke B. Durch eine Verbraucherbefragung sei festgestellt worden, dass 30 % der Kunden von A im nächsten Monat das Produkt der Marke B kaufen, d. h., 70 % bleiben bei A und von B wechseln 20 % zu A über. Zunächst wird davon ausgegangen, dass der Markt geschlossen ist, also weitere Wettbewerber und Konsumenten nicht auftreten. Vereinfachend wird zusätzlich angenommen, dass keine Werbemaßnahmen durchgeführt werden und auch Zyklen sowie saisonale Schwankungen unberücksichtigt bleiben, folglich das Einkaufsverhalten im Zeitablauf als konstant vorausgesetzt werden kann. Ebenso bleiben Erlöse und andere Bewertungen noch außer Betracht. Die hier gemachten Einschränkungen werden in den folgenden Abschnitten schrittweise aufgehoben. ^^A A^ ^^B
^ A ^
\ ^ \<^
•
• 0
•
• 1
m
• 2
•
• 3
V
Zeit
Abb. 1: Konsumentenverhalten unter der Voraussetzung, dass der Prozess mit dem Kauf des Produktes A beginnt. Die Zusammenhänge der Aufgabe lassen sich mit den Baumdiagrammen der Abbildungen 1 und 2 veranschaulichen. Darin wird das Ereignis, A bzw. B zu kaufen, durch Knoten beschrieben. Die Prognose, mit welcher Wahrscheinlichkeit im darauf folgenden Zeitintervall das Produkt A bzw. B gekauft wird, ist an den die Knoten verbindenden Kanten notiert. Die Wahrscheinlichkeit für das Eintreten eines Ereignisses ist dabei ausschließlich „bedingt" durch das Ereignis der Vorperiode. Sei (t) die Funktion (Zufallsvariable), die den Übergang zum Folgeereignis ausdrückt, dann kann man auch allgemein schreiben
P(X, = A\X,_, =A) = p^= OJ;P(X, = A\X,_, =B) = p,, = 0,2; P(X, = B\X,_, =B) = p,, = 0,8;P(X, = B\X,_,
=A)
=
p,, = 0,3.
280
Hansen
Neben der Darstellung durch Baumdiagramme können die stochastischen Abhängigkeiten durch gerichtete Grafen, man bezeichnet sie als Markovgrafen (Abbildung 3), dargestellt werden. Die Ereignisse werden durch Punkte in der Ebene und die Übergänge durch gerichtete Strecken gekennzeichnet. Schleifen symbolisieren Übergänge von Ereignissen in sich selbst. Mithilfe der Baumdiagramme lässt sich der Zeitablauf sichtbar machen, während die Markovgrafen ein statistisches Gleichgewicht beschreiben. Denn die Summe der Intensitäten der gerichteten Strecken aus jedem Punkt ist gleich Eins.
Abb. 2: Konsumentenverhalten unter der Voraussetzung, dass der Prozess mit dem Kauf des Produktes B beginnt. Mithilfe der Fundamentalsätze der Wahrscheinlichkeitstheorie und der Definition für bedingte Wahrscheinlichkeiten kann man nun Vorhersagen für zukünftige Intervalle treffen. Dabei unterscheiden wir zwei Fälle: 1.
Wird zum Zeitpunkt der Prognose A gekauft (Abbildung 1), dann erhält man als Wahrscheinlichkeit, dass A auch im zweiten Intervall erworben wird (0,7 • 0,7) + (0,3 • 0,2) = 0,55 und dass B gekauft wird (0,7 • 0,3) + (0,3 • 0,8) = 0,45.
2.
Wird zum Zeitpunkt der Prognose B gekauft (Abbildung 2), erhält man für den Kauf von A im zweiten Zeitintervall (0,2 • 0,7) + (0,8 • 0,2) = 0,3, für ß (0,2 • 0,3) + (0,8 • 0,8) = 0,7.
Abb. 3: Markovgraf zur Darstellung der Übergangswahrscheinlichkeiten von Konsumentenwanderbewegungen
Prognose mithilfe von Markovprozessen
281
16.2 Reguläre Markovprozesse 16.2.1 Definition und grundlegende Merkmale Das in der Einführung beschriebene Prognoseproblem ist ein Beispiel für einen stochastischen Prozess. Er ist definiert als eine Familie von zufälligen Variablen { X j . Bei Prognoserechnungen stellt der Parameter te& die Zeit dar. Der Parameterraum 0 i s t ein Intervall mit kontinuierlicher Zeit oder diskreten (abzählbaren oder überabzählbaren) Zeitpunkten. Ist die Menge abzählbar, spricht man von einer stochastischen Kette. Die Realisationen eines stochastischen Prozesses liegen in einer Menge E, dem Zustandsraum. Das einführende Beispiel ist also eine stochastische Kette mit dem Zustandsraum E = [A,B] und den diskreten Zeitpunkten 0,1,2,3.... Die Elemente der Menge E bezeichnet man als Zustände. Eine zweckmäßige Darstellung der stochastischen Kette gelingt in der Form einer quadratischen Matrix.
A Af P = ^(PAA B PBA
B PÄB^ PBB J
Für das Beispiel erhält man
P=
^0,2
0,8
Hängt der Verlauf eines stochastischen Prozesses [X^] mit te@ für t>T nur von X^ ab, nicht jedoch vom Verhalten von { X j , für t>x, so hat der Prozess die Markov-Eigenschaft (vgl. [12], S. 12). Offensichtlich gilt für Abbildung 1
P{X^ = A\X^_, = A,X^_^ = Ä) =P(X^ = A\X^_, =A) = 0,7 P(X^ = A\X^_, = B,X^_^ = A) =P(X^ = A\X^_, =B) = 0,2 und
P(X^ = B\X^_, = 5,X,_2 = A) =P(X^ = B\X^_, - 5) = 0,8 P(X^ = B\X^_, - A,X^_^ = A) =P(X^ = B\X^_, =A) = 0,3. Aus Abbildung 2 erhält man
P(X^ =A\X,_,
= A,X^_^ = B) =P(X^ = A\X^_, =A) = 0J
P(X^ = A\X^_, = B,X^_, = B) =P(X^ =A\X^_, =B) = 0,2 und
P(X^ = B\X^_, = ^,X,_2 = B) =P(X^ = B\X^_, - ^) - 0,3 P(X, = B\X,_, = B,X,_, = B) =P{X^ = B\X^_, =B) = 0,S Allgemein heißt ein stochastischer Prozess ein Markovprozess, wenn für alle
282
Hansen Ä:>3, alle x^ x^.-'.Xj^ e E und alle t^ < t^ <'"
G 0
gilt, dass
P {X,^<x,\
X,^_^=x,_,^...X,^=x,) = P (X,^<x,\
X,^_^=x ,_,)
Dies bedeutet, dass der Übergang des Systems von einem Zustand / in einen anderen Zustandy nur durch i undy bestimmt wird und nicht von Informationen des Modells vor dem Eintreten des Zustandes / abhängt. Wie wir im folgenden Abschnitt zeigen werden, eignen sich Markovprozesse dennoch sehr wohl zur Modellierung von Prognosesystemen unter Berücksichtigung vergangenheitsbezogener Zeitreihen. Falls die Übergangswahrscheinlichkeiten
p^^{sJ)^P{X^=j\X^^i) s.teQ und s
mit/,7GiV,
nur von der Zeitdifferenz i = t-s
abhängen, also stationär sind, bezeichnet man den Markovprozess als homogen. Da im einführenden Beispiel die Übergangswahrscheinlichkeiten durch eine, sich im Zeitablauf nicht ändernde Matrix dargestellt werden können, handelt es sich um einen homogenen Markovprozess. Ein homogener Markovprozess bzw. eine homogene Markovkette ist durch die Übergangs- und Anfangsverteilung P(Xo =j) eindeutig bestimmt. Im Beispiel haben wir als Anfangsverteilungen P(Xo = A) = ^ (vgl. Abbildung 1) bzw. P(Xo = B) = ^ (vgl. Abbildung 2) gewählt. Ändert sich die Matrix der Übergangswahrscheinlichkeiten im Prozessverlauf, so spricht man von nichthomogenen Markovprozessen. Sie werden bei den Anwendungen im folgenden Abschnitt behandelt. Prognosewerte für den Zeitpunkt {s+t) erhält man allgemein durch die Chapman-Kolmogorovsche Beziehung (vgl. [9], S.23 ff.):
Pü=llPiic(^^PkAO
mit Uje E und sJeQ
oder in Matrixschreibweise P(s+t) = P(s) P(t) bzw.
dabei ist P^^^ die Einheitsmatrix /. Die Einheitsmatrix beschreibt sämtliche Anfangsverteilungen für die Fälle, in denen der Prozess mit der Wahrscheinlichkeit Eins mit einem Ereignis j ^ E für alley beginnt. Für das einführende Beispiel erhält man:
Prognose mithilfe von Markovprozessen
/"
= P"P' =
1
0
0,7
0,3
0,7
0,3
0
1
0,2
0,8
v0,2
0,8^
0,7 P'p'
v0,2
P > ' =
p.5
P > '
0,3
0,7
0,3
0,55
0,45
0,8^ 0,2
0,8
0,30
0,70 y
r0,40
0,60^
1^0,40
0,60
0,40
0,60^
0,40
0,60
283
Ab der 14. und höheren Potenz ändert sich (innerhalb einer gewissen Genauigkeit) die potenzierte Matrix der Übergangswahrscheinlichkeiten nicht mehr. Dies bedeutet, dass sich die Prognosen nach 14 Zeitintervallen statistisch (innerhalb einer gewissen Genauigkeit) im Gleichgewicht befinden. Sie sind insbesondere unabhängig vom Ausgangszustand. Streng gilt, dass die Matrix für die Potenz n -> co absolut konvergent ist. Dieser Zustand heißt ergodisch (vgl. [14], S. 37 f.). Aus der Ergodizität ergibt sich unmittelbar p " = P"" p Da die Wahrscheinlichkeitsvektoren (Zeilen der Matrix) im Gleichgewichtszustand identisch sind, folgt
p'-=p^p
bzw.
y») (i-p)=.o mit y " ^ als Zeile derP^"*. Damit gewinnt man nun bei einer ergodischen Markovkette die Prognose für den Gleichgewichtszustand, ohne den Weg über die Berechnung der Potenzen der Matrix der Übergangswahrscheinlichkeiten zu gehen (vgl. [5], S. 33). Mit der Normierungsvorschrift, dass die Summe der Wahrscheinlichkeit gleich Eins ist, ergibt sich für unser Beispiel das Gleichungssystem 0,3 p, - 0,2/7, = 0 -0,3p, + 0,2p2 = 0 p, +P2 = 1 mit der Lösung;?/ = 0,4 und;?, = 0,6 in Übereinstimmung mit P"^. Ein Kriterium für die Ergodizität homogener Markovketten ist die Positivität aller Koeffizienten in irgendeiner der Potenzen der Matrix der Übergangswahrscheinlichkeiten. Sie wird dann als regu/är bezeichnet.
284
Hansen
16.2.2 Modellbildung des regulären Prozesses mithilfe der erzeugenden Funktion Als Grundlage des Prognosemodells wurde die Chapman-Kolmogorov-Beziehung verwendet. Darauf aufbauend gewinnt man durch die Modellbildung mithilfe der erzeugenden Funktion eine enA/eiterte und vollständig verallgemeinerte Sicht in die Struktur des Markov-Prognosemodells. Für eine Zufallsgröße X, die nur nichtnegative ganzzahlige Werte annehmen kann, bezeichnet man den Erwartungswert von i/ als erzeugende Funktion von X (vgl. [4], S. 179), in Symbolen
G(u) =E(u^). Die Verteilung von Xsei durch P{X=n} =f(n) gegeben, dann erhält man
Gin)=/(o)+ni)u+f(2y +...=2/(^) ^" n=0
G(u) existiert, falls N < 1. Für eine Zufallsvariable X mit der erzeugenden Funktion G(u) gilt
E(X) = G'(l) = f^nf(n), Var{X) = G\\) +
G\\)-{G\\))\
EiX^"^) = E(X(X - V)...(X -{k-1))
= G^^> (1).
Mit« > 0 erhält man für
G{u) = f^fin
+ \)u"
^u-\G{u)-fm.
Wendet man dies auf die Chapman-Kolmogorov-Beziehung
p'''=p'P an und bezeichnet F(u) als die erzeugende Funktion von p'', folgt
u'\F(u)-p']
= F{u)P bzw. u-'Fiu)-u-^p'=F(u)P
bzw. F(u)iI-uP)
und schließlich F(u) =
p\l-uPy'
Für das in Abschnitt 16.2.1 gewählte Beispiel mit
P=
0,7
0,3"
0,2
0,8
erhält man für
fl-0,7u I-uP-\
Daraus gewinnt man mit einigen Umformungen
-0,2M
-0,3w 1-0,8M
= p'
Prognose mithilfe von Markovprozessen ("0,4 0,6
1
{I-uPy' =
l-/ljW
+ 0,6 -0,6^
1
+ •
285
\ - X^u - 0 , 4 +0,4
,0,4 0,6
darin sind Xi = 1 und Ä2 = 1/2, damit ergibt sicln
{I-uPy =
1
0,4 0,6
1-M
0,4 0,6
+ 0,6 - 0 , 6 ^
1
- 0 , 4 +0,4
1—u 2
Berücl<sichtigt man, dass G{u) = Y,f(n)u" =
für /(n) = 1 mit « > 0
l—u
„=o
sowie G(u) = ^ f ( n ) u "
= Y,{auf
= — ^ - — für f(n) = a", \au\0
n=0
^
^
^
und invertiert die erzeugende Funl
erhält man wieder p" = p V " .
Durch Komponentenvergleich folgt „ ("0,4 0,6^ \\n + 0,6 - 0 , 6 P" = 0,4 0,6 + 0 - 0 , 4 +0,4 Ein Vergleich mit der Matrixpotenzierung des Abschnittes 16.2.1 bestätigt die Übereinstimmung beider Ergebnisse. Denn man erhält P' =
P' =
,14
'0,4 0,6^ .0,4 0,6
+ 0 °^-0,4
'+0,6 - 0 , 6
1 0
+0,4
0 1
+0,6
- 0,6
0,7 0,3~
- 0 , 4 +0,4
0,2 0,8
0,4 0,6' 0,4 0,6,
^0,4
ni
+(i)
0,6"! , ,4^+0,6
0,4 0,6
+0
P" =P°° +ayD
p« ^p^
_^nyjy^p^
- 0 , 6 ^ f0,40 0,60^
v-0,4 +0,4^
0,40 0,60
286
Hansen
Die Form von P" = P^ ^-D{n) weist eine allgemeine Struktur auf, die für sämtliche hier beschriebenen Markovprognosemodelle gilt. /li und X2 sind die Eigenwerte der Matrix P, denn mit der so genannten charakteristischen Determinante
d e t ( P - ^ / ) = Obzw. det
0,7 0,3^ 0,2
0,8
-X
1 0 0 1
= 0 bzw. det
QJ-X
0,3 \
0,2
0,8-:^ J
= r - l , 5 X + 0,5-0
werden 2i=1 und X2-M2 als Eigenwerte von P bestätigt. Allgemein gilt: M = 1 und;ii< 1 für/ = 2,...,n. Sei X Eigenvektor und Ä Eigenwert der Matrix P, dann ist die Matrizeneigenwertaufgabe bekanntlich definiert durch Px = Äx. Mit dem Eigenvektor eT= (1,...,1) erhält man, weil die Zeilensumme der stochastischen Matrix P stets gleich 1 ist,
Pe = Xe, d. h. ;i = 1 ist Eigenwert zum Eigenvektor e. X ist auch der maximale Eigenwert. Denn der maximale Eigenwert einer nichtnegativen Matrix P liegt zwischen der kleinsten und größten Zeilensumme (vgl. [15], S. 224). Da die Zeilensumme einer stochastischen Matrix stets gleich 1 ist, folgt I1 = Imax = 1 und Ij < 1 für / = 2,...,«. Weiter gilt, da P eine nichtnegative unzerlegbare Matrix (vgl. 16.3.2) mit konstanter Zeilensumme gleich 1 ist und für sämtliche Eigenwerte die oben gezeigte Eigenschaft gilt, dass die Folge F gegen eine wiederum zeilensummekonstante Matrix konvergiert, deren Zeilen sämtlich miteinander übereinstimmen (vgl. [15], S. 224) pn^p^
für ^ ^ 0 0
Im gefundenen Prognosemodell P" = P'"-\-(XyD = P"^ +D{n) ist P" die stabile Matrix des stationären Zustandes. D{n) sind im allgemeinen Fall Matrizen mit den geometrischen Faktoren X", nX", n^ Ä" usw., da Ä<^, verschwindet D(n), falls n über alle Grenzen wächst. Die Zeilensumme der Matrizen von D(n) ist gleich Null. Sie lassen sich offensichtlich als Störungen der P°° interpretieren. Damit ist es gelungen, den stabilen vom instabilen Teil des Prognosemodells zu trennen und die Störungen detailliert zu quantifizieren. Das Prognosemodell ist vollständig transparent. Dies erweist sich in der praktischen Anwendung zur Evaluierung des Modells und der Parameter als sehr hilfreich. Für die rein algorithmische Prognoserechnung bleibt das Matrixpotenzierungsmodell der Chapman-Kolmogorov-Beziehung aktuell. 16.2.3 Anwendungen Diskutiert werden ein Beispiel für eine mittel- bzw. langfristige Prognoserechnung und ein Fall für eine kurzfristige Vorhersage.
Prognose mithilfe von Markovprozessen
287
16.2,3.1 Prognose von Marktanteil und Absatzmengen Prognostiziert werden soll der mittel- bzw. langfristige zeitliche Ablauf des mengen- und wertmäßigen Anteils einer Unternehmung A am gesamten Marktvolumen eines Konsumgutes. Dazu wird ein Markt mit einem Wirtschaftsgut betrachtet, an dem eine Unternehmung in Konkurrenz mit anderen Anbietern, die zusammen mit B bezeichnet werden, steht. Für eine Stichprobe von Nachfragern lassen sich die Kaufwahrscheinlichkeiten über einen bestimmten Zeitraum ermitteln. Sie sind in der folgenden Matrix der Übergangswahrscheinlichkeiten angegeben: (0,50 p.
0,50^
[o,25 0,75 J
Die Marktanteile seien zum Zeitpunkt der Prognoseerstellung mit jeweils 50 % gleichverteilt. Daraus erliält man einen Anlaufvektor von f^
= {Q,5 0,5)
Zur Bestimmung der Vorhersagewerte bilden wir
piM) = piM-X) p^ Die Ergebnisse für die Perioden M= 1 bis M = 4 enthält Tabelle 1. Nach vier Perioden erwartet man eine Verhaltensänderung der Käufer, die sich durch die folgende Matrix der Übergangswahrscheinlichkeiten darstellen lässt: / A0,20 on
P2-
0,90
n on\ 0,80
0,10
Der Anlaufvektor für den zweiten Vorhersageabschnitt ist der Ergebnisvektor des ersten Vorhersageabschnittes. Das sind die Prognosewerte der vierten Periode (vgl. Tabelle 1): PTpen.
= P\Ven.
= (0,3340
0,6660)
Damit bilden wir zur Bestimmung der Vorhersagewerte: p(n) ^ p{n-i) p^ für (^-1) = M = 4 bis ^ = TV Die Ergebnisse findet man in Tabelle 1. Nach weiteren A^= 6 Perioden enA/artet man einen erneuten Strukturbruch dadurch, dass sich zwei zusätzliche Anbieter auf dem Markt etablieren. Die erwarteten Konsumentenwanderungen enthält die folgende Matrix der Übergangswahrscheinlichkeiten:
288
Hansen
^0,25 0,25 0,25 P.
0,25^
0,30
0,50
0,10
0,10
0,10
0,10
0,70
0,10
0,10
0,10
0,20
0,60
Den Anlaufvektor erhalten wir aus dem Ergebnisvektor des zweiten Vorhersageabschnitts (Prognosewerte der Periode 10 in Tabelle 1), ergänzt durch zwei Elemente mit dem Wert Null, die den aktuellen Marktanteil der neuen Anbieter angeben. Die Bestimmungsgleichung für die Prognose mit der geänderten Datenkonstellation lautet Sr)
•p^'-'^P^iüx (r-l) = (M+A0 = 10 bis r = R
Für die Periode 11 ergibt sich:
^0,25 0,25 0,25 .(11)
-
(0,50640,493600)
0,25^
0,30 0,50
0,10
0,10
0,10
0,10
0,70
0,10
0,10
0,10
0,20
0,60
Die Ergebnisse von Periode 11 bis zum stationären Gleichgewichtszustand sind ebenfalls aus Tabelle 1 ersichtlich. Prognosen mithilfe von Zeitreihenanalysen stützen sich generell auf Werte mehrerer Vergangenheitsperioden. Das Grundmodell der Markovkette leistet dies nicht. Die Übergangswahrscheinlichkeiten sind durch den aktuellen Zustand, in dem sich das System gerade befindet, festgelegt. Definiert man nun aber die vergangene Zeitreihe als eine Folge von Zuständen, dann gelingt es, den vorausgegangenen Ablauf mithilfe von Markovketten zu modellieren (vgl. [11], S.195 f.). Dazu definieren wir für eine Zeitreihe von zwei Perioden die Zustände AA, AB, BA und BB. Sie beschreiben in unserem Beispiel die Entscheidungen zweier aufeinander folgender Käufe. Der Zustand AA bedeutet, dass bei den letzten zwei Käufen die Marke A gekauft wurde. Analog gilt für BB, dass sich der Käufer bei den beiden letzten Käufen für B entschieden hat. Entsprechend sind die Folgen AB und BA zu verstehen. Mithilfe der definierten Zustände lassen sich Zeitreihen von Käufen darstellen. So kann z. B. eine Kaufgeschichte durch BBBABAA beschrieben werden. Sie begann im Zustand BB, blieb in der folgenden Periode in BB, wechselte dann nach BA, danach nach AB, zurück nach BA und endete im Zustand AA. Dabei gilt, dass der erste Buchstabe des Zustandes, in dessen Richtung sich der Käufer bewegt, mit dem zweiten Buchstaben des Zustandes, aus der er kam, übereinstimmen muss. Daraus ergibt sich als Matrix der Übergangswahrscheinlichkeiten:
Prognose mithilfe von Markovprozessen AA
BA
AB
289
BB
AA (\-a
0
a
0 ^
BA
b
0
\-b
0
AB
0
\-c
0
c
BB
0
d
0
\-d,
Die Übergangswahrscheinlichkeiten a, b, c und d können aus Vergangenheitsdaten oder aus Befragungen geschätzt werden. Marktanteil
A
B
C
D
2 3 4
i
0,3750 0,3438 0,3359 0,3340
0,6250 0,6563 0,6641 0,6660
0,0000 0,0000 0,0000 0,0000
0,0000 0,0000 0,0000 0,0000
5 6 7 8 9 10
0,6662 0,4337 0,5964 0,4825 0,5623 0,5064
0,3338 0,5663 0,4036 0,5175 0,4377 0,4936
0,0000 0,0000 0,0000 0,0000 0,0000 0,0000
0,0000 0,0000 0,0000 0,0000 0,0000 0,0000
11 12
0,2747 0,2159 0,1905 0,1783 0,1723 0,1694 0,1680 0,1673 0,1670 0,1668 0,1667 0,1667 0,1667 0,1667 0,1667 0,1667
0,3734 0,2906 0,2468 0,2280 0,2180 0,2130 0,2106 0,2095 0,2089 0,2086 0,2085 0,2084 0,2084 0,2083 0,2083 0,2083
0,1760 0,2644 0,3139 0.3416 0,3569 0,3653 0,3698 0,3722 0,3735 0,3742 0,3746 0,3748 0,3749 0,3749 0,3750 0,3750
0,1760 0,2292 0,2470 0,2521 0,2528 0,2522 0,2515 0,2510 0,2506 0,2503 0,2502 0,2501 0,2501 0,2500 0,2500
Periode
!
13
14 15 16 17 18 19 20 21 22 23 24 25 26
Tab.1:
0,2500
1
Prognose der Marktanteile für A, B, C und D
In Abbildung 4 ist der Markovgraf mit einer Kaufgeschichte von zwei Perioden angegeben. Seine Struktur lässt sich relativ einfach auf Probleme mit mehr Perioden übertragen. So enthält Abbildung 5 ein Marktanteilsmodell mit zwei Anbietern und einer Kaufgeschichte von drei Perioden. Generell können die Markovgrafen und die dazugehörigen Matrizen der Übergangswahrscheinlichkeiten mithilfe von Matrixgeneratoren bequem für fast beliebige Konstellationen erstellt werden. 16.2.3.2 Prognose einer Lagerbestandsbewegung Prognostiziert werden soll die kurzfristige Lagerbestandsbewegung eines Artikels, dessen Nachfrage aus Vergangenheitswerten gewonnen werden kann (vgl. [4], S. 9 ff.). Zu Beginn einer Periode wird der Lagerbestand überprüft, ob und gegebenenfalls wie viel
290
Hansen
bestellt werden soll. Immer dann, wenn der Lagerbestand s = 2 Einheiten erreicht oder unterschritten hat, füllt man das Lager auf 5* = 4 Einheiten auf. Verfolgt wird also eine (5,5)-Politik. Man setzt ferner voraus, dass unbefriedigte Nachfrage nicht verloren geht. Liegen zu Beginn einer Periode L>s Einheiten auf Lager, so wird nicht bestellt, ist aber L<s<S, so erfolgt eine Bestellung in Höhe von q = {S-L). Der Lagerbestand L ist eine Zufallsgröße und soll prognostiziert werden.
Abb. 4: Markovgraf mit zweiter Verkettungsordnung
AAB/
\ABB
ABAM^
( ^"^^f BAA\
%BAB
MBBB
j
^BBA
Abb. 5: Markovgraf mit dritter Verkettungsordnung Das System lässt sich als Markovkette modellieren, wenn wir den positiven oder negativen Lagerbestand als Zustand definieren. Durch empirische Erhebungen sei festgestellt worden, dass sich der Bedarf x entsprechend der Verteilungsfunktion P(X < x) in Tabelle 2 verhält. X
0 1 2 3 4 5
P{X<x) 0,1 0,4 0,6 0,7 0,9 1,0
Tab. 2: Verteilungsfunktion für den Lagerabgang pro Periode
Prognose mithilfe von Markovprozessen
291
Unter der Annahme, dass die Beschaffungsdauer relativ zur Periodenlänge gering ist, beträgt der Lagerbestand zu Beginn einer Periode gleich vier oder gleich drei. Da nach Tabelle 2 die Wahrscheinlichkeit, dass der Bedarf pro Periode größer als fünf Mengeneinheiten wird, gleich Null ist, ergibt sich das Lagerbestandsminimum zu -2. Die zu definierenden Zustände sind 4, 3, 2, 1, 0, - 1 , -2. Die Übergangswahrscheinlichkeiten erhält man unmittelbar aus der Verteilungsfunktion des Lagerabgangs (vgl. Tabelle 3). Zustand Zustand
4 3 2 1 0 -1 -2
2
4
3
0,1 0,0 0,1 0,1 0,1 0,1 0,1
0,3 0,1 0,3 0,3 0,3 0,3 0,3
0,2 0,3 0,2 0,2 0,2 0,2 0,2
1
0
-1
-2
0,1 0,2 0,1 0,1 0,1 0,1 0,1
0,2 0,1 0,2 0,2 0,2 0,2 0,2
0,1 0,2 0,1 0,1 0,1 0,1 0,1
0,0 0,1 0,0 0,0 0,0 0,0 0,0
Tab. 3: Matrix der Übergangswahrscheinlichkeiten für den Lagerabgang Die Erwartungswertprognose für den Anfangszustand 3 enthält Tabelle 4. Dichtefunktion Periode
4
3
2
1
0
-1
-2
0 1 2 3 4 5 6 7
0,0000 0,0000 0,0900 0,0720 0,0756 0,0749 0,0750 0,0750
1,0000 0,1000 0,2800 0,2440 0,2512 0,2498 0,2500 0,2500
0,0000 0,3000 0,2100 0,2280 0,2244 0,2251 0,2250 0,2250
0,0000 0,2000 0,1100 0,1280 0,1244 0,1251 0,1250 0,1250
0,0000 0,1000 0,1900 0,1720 0,1756 0,1749 0,1750 0,1750
0,0000 0,2000 0,1100 0,1280 0,1244 0,1251 0,1250 0,1250
0,0000 0,1000 0,0100 0,0280 0,0244 0,0251 0,0250 0,0250
Tab. 4: Dichtefunktion der Prognose des Lagerbestandsverlaufs für die Perioden 1 bis 7 beim Anfangsbestand von drei IVIengeneinheiten 16.3 Absorbierende Markovprozesse 16.3.1 Definition und grundlegende Mericmale Ein Zustand einer IVIarkovkette heißt absorbierend, wenn es unmöglich ist, ihn zu verlassen. Eine Markovkette heißt absorbierend, wenn sie mindestens über einen absorbierenden Zustand verfügt und es möglich ist, von jedem nicht absorbierenden zu einem absorbierenden Zustand zu gelangen. Gegeben sei eine Matrix:
1
2
5
0
O^
2
P2\
P22
P23
P24
P25
P=3
P3]
P32
P33
P34
P35
4
Al
P42
P43
P44
P45
5
0
0
0
0
1
292
Hansen
Darin sind die Zustände 1 und 5 absorbierend. Es ist zweckmäßig, die Matrix so umzuschreiben, dass die Zustände in der Reihenfolge „absorbierend", „nicht absorbierend" auftreten:
1
5
2
3
4
1( 1
0
0
0
O^
5 0
1
0
0
0
P25
P22
P23
P24
^35
P^
-'33
Pu
P45
P42
P43
P44)
= 2 Pix 3 ^3, 4 IAI
p
Die Übergangsmatrix hat nun die Form 0, P =
R^
Q 3,3
y
wobei /eine (2,2) Einheitsmatrix und 0 eine (2,3) Nullmatrix ist. R ist eine (3,2) Matrix, die den Übergang von einem nicht absorbierenden zu einem absorbierenden Zustand angibt, und Q ist eine (3,3) Matrix für den Übergang innerhalb der nicht absorbierenden Zustände. Grundsätzlich ist es auch hier wieder möglich, für die Prognoserechnung die Chapman-Kolmogorov-Beziehung anzuwenden. Die spezifische Struktur absorbierender Ketten gestattet es jedoch, die Potenzen der Matrix der Übergangswahrscheinlichkeiten auf einem kürzeren Weg zu bestimmen. Aus dem Bildungsgesetz zur Potenzierung von Matrizen ergibt sich unmittelbar: P" =
:in)
Da die Zeilensumme einer potenzierten stocinastischen IVlatrix stets gleich 1 bleibt, kann man schließen, dass
Ö" ^ 0 , weil Y^^ij^O, wegen YJ% <^ Zur Bestimmung von S bilden wir die ersten vier Potenzen von P: P=
P' =
I
0
wir setzen 5^'^ = R
R ß' I
, mit S^^^=RI + QR
5 (2)
fI
, mit S^'^ = S^^'^I + Q'R = RI + QR + Q^R Q'
Prognose mithilfe von Markovprozessen
293
Durch vollständige Induktion ergibt sich:
o^
/ p°° =
^^(CO)
Q.
^
mitit5(°°)=[/+ö+ö'+Ö^+...>?
Mit ß " ^ ' 0 folgt für die geometrisclie Reihe
und damit für p°o —
.(«:)
0
Bei absorbierenden Markovketten gibt es insbesondere drei interessierende Fragen: 1.
Welche Wahrscheinlichkeit besteht dafür, dass der Prozess in einem gegebenen absorbierenden Zustand endet? -(OD)
2.
- ( l - Ö ) " ^ i?
Wie oft wird sich durchschnittlich der Prozess in jedem nicht absorbierenden Zustand befinden?
gibt den Erwartungswert an, dass sich der Prozess im k-ien Schritt im Zustandy befindet, falls er im Zustand / begann. Dann ist
I q {k)
k=\
'
der Erwartungswert dafür, wie häufig sich der Prozess im Zustandy befindet, wenn er im Zustand / beginnt. In Matrixform erhält man:
3.
Wie lange wird es durchschnittlich dauern, bis der Prozess absorbiert wird? n
00
...
I s 4^ j=\ k=\ ist der Erwartungswert dafür, wie viel Schritte erforderlich sind (also er sich in j = 1,2,...,« befindet), bis er absorbiert wird. In Matrixform erhält man:
a^ (i-QY vly
294
Hansen
16.3.2 Modellbildung des absorbierenden Prozesses mithilfe der erzeugenden Funktion Eine Matrix P heißt zerlegbar, wenn sie durch Vertauschen gewisser Zeilen und gleichzeitiges Vertauschen entsprechender Spalten auf die Form absorbierender Matrizen
\. 0 '22 7
gebracht werden kann, wobei P^^ und P22 quadratisch sind. Eine nicht-negative zerlegbare Matrix P besitzt einen nichtnegativen, reellen Eigenwert /Imax, der betragsmäßig alle anderen Eigenwerte von P nicht unterschreitet, d. h. X^ax^ \H für alle Eigenwerte /Ij von P (zum Beweis vgl. [6], S. 94). Da P eine stochastische Matrix ist, gilt /lmax=1. Die Überlegungen des Abschnittes 16.2.2 können also auf absorbierende Matrizen analog übertragen werden. Ausgehend von der erzeugenden Funktion der Chapman-Kolmogorov-Beziehung
F{u) =
p\l-uPy'
wird anhand der absorbierenden Kette
f 1 0 0 1 P= 0,25 0,25 lo,25 0,25
0 0 0,5
0 \ 0 0
0
0,5]
F{u) entwickelt, um aus deren Inversion die Chapman-Kolmogorov-Beziehung in der separierten Form des Abschnitts 16.2.2 zu gewinnen. Es gilt:
^ I-uP =
\-u 0
0
0
0
\-u
0
0
-0,25M
- 0,25M
1 - 0,5
0
y-0,25w
- 0,25w
0
1 - 0,5w
Daraus ergibt sich mit einigen Umformungen:
(i-uPr = \-
1
1
0
0 O^
0
1
0
Ä^u 0,5
0,5
0
0,5 0,5 0
/
0 0
1 11
oj
Darin sind X-^ = 1 und Äz = l^, damit ergibt sich:
0
0
0 O^
0
0
0 0
•0,5
•0,5
1
0
V •0,5
-0,5
0
1J
Prognose mithilfe von Markovprozessen
(I-uPr = \-u
1
0
0 0]
0
1
0 0
/
1 1
0,5 0,5 0 0
oj
0,5 0,5 0
0
0
0 O^
1 0
0
0 O^
0
0
0 0
-0,5
1 0
-0,5
0 1
V
0
0 O^
0
0 0
-0,5
1 0
f^
1 0 +— 0,5 0,5 0 0 2 -0,5
P" =\
0
1 — u -0,5 2 -0,5
Aus der Inversion gewinnt man:
f \
0
295
1-0,5 -0,5 0 ij
^0,5 0,5 0 O^
Eine einfache numerische Überprüfung bestätigt die Übereinstimmung mit dem Ergebnis der Chapman-Kolmogorov-Beziehung:
r1
0
0
1
p° =
0 o^ 0 0
0,5 0,5 0 0
,0,5 0,5 0 /
p' =
pll _
—
' l
0
0 o^
0
1
0 0
0,5 0,5 0 0 \.0,5 0,5 0
^i Y
\
4
0
0 o^\
0
1
0 0
0 O^
0
0
-0,5
-0,5 -0,5
0 0 0 1 0 0 = 1 0 0 0 1 0
^
0,5 0,5 0 0 0,5 0 o^/
' 0 0 -0,5 ',-0,5
1
0
0
0 o^
0
0 0
-0,5 -0,5
^O 0
h
/'
-\
1 0 0
u
0
0'
0 ij
1
0
0
0
0
1
0
0
0,25 0,25 0,5 0 0 0,5 V0,25 0,25
0
0 0\
r1
0
0
0
0 0
0
1
0 0
-0,5
-0,5
1 0
1-0,5
-0,5
0
(
+
a 0
0
(
1-0,5
r1
lo,5
+
oj
oJ
1
j
^
UJ i ° riV
1/
0'
0,5 0,5 0 0
lo,5
0,5 0 O^
P" = P" + 0"Z)
Das Ergebnis zeigt, dass auch der absorbierende Prozess vollständig in einen stabilen und instabilen Teil des Prognosemodells separiert werden kann. 16.3.3 Anwendungen Ein Beratungsunternehmen bestehe aus den drei Abteilungen I, II, III. Die Aufträge durchlaufen den Betrieb gemäß der unten folgenden Matrix der Übergangswahrschein-
296
Hansen
lichkeiten. Darin bedeuten der Zustand 1, der Auftrag wurde ausgeführt sowie der Zustand 2, der Auftrag ist nicht durchführbar und wurde abgelehnt. Die Zeile I beinhaltet z. B., dass die Abteilung I 40 % selbst ausführt, 10 % als unausführbar beurteilt und 50 % an die Abteilung II weitergibt (vgl. [11], S. 299 f.).
1 1 ^1,0 0,0
2
P = I 0,4
2
I
II
III
0,0 0,0 0,0 0,0^ 1,0
0,0 0,0
0,1 0,0
0,0
0,5 0,0
II
0,3
0,1 0,2 0,0
III
0,2
0,1 0,4
0,4
0,3 0,0y
Man erhält
1,257
0,714
0,286
(i-Qr = 0,514 1,429
0,571
0,657
(I-QT vly
0,714
1,286
2,257'^ 2,514 2,657
2,257 gibt z. B. den Prognosewert für die Zeit an, die durchschnittlich in Abteilung I zur Bearbeitung eines Auftrages benötigt wird. Weiter erhält man 0,7743
0,2257
(/-ß)-'i? = 0,7486 0,2514 ^0,7343
0,2657
0,7743 gibt z. B. die Prognose für einen erfolgreich durchgeführten Auftrag an. 16.4 Periodische l\/larkovprozesse 16.4.1 Definition und grundlegende IVIerIcmale Nicht immer erreichen Prozesse einen stationären Zustand. Es kann Oszillieren auftreten, sodass Zustände periodisch durchlaufen werden. Die einfachste periodische Markovkette ist die mit zwei Zuständen und der Übergangsmatrix
P=
0 1 1 0
Wenn das System im Zustand 1 beginnt, wird es nach jeder geraden Anzahl von Übergängen wieder in den Zustand 1 und nach jeder ungeraden Anzahl von Übergängen in den Zustand 2 gelangen. Einen dreiperiodigen Zyklus erhält man mit
Prognose mithilfe von Markovprozessen
1
(Q
297
o^
P= 0 0 1
U
oj
0
16.4.2 Modellbildung des zyklischen Prozesses mithilfe der erzeugenden Funktion Eine Matrix wird zyklisch vom k-ien Grade genannt, wenn P^ = /. Für die zyklische Matrix (Q 0
n
(\
P= 0 1 0
U
P' = 0
wird
1 0
/,
[o 0 ij
oJ
0
0 O^
k ist also gleich 2, d. h. es wird mit dieser Matrix ein zweiperiodiger Zyklus abgebildet. Analog zu den Abschnitten 16.2.2 und 16.3.2 wird für P die erzeugende Funktion
F{u) =
p\l-uP)-'
zur Chapman-Kolmogorov-Beziehung entwickelt. Man erhält: ^ 1
0
I-uP = 0 -u
\-u 0
-w^
0 1
Daraus ergibt sich mit einigen Umformungen:
{I-uP) -1
\-\u
- 0 2 2 0 1 0 + \-X^u
1 'l 0 1
i 0 i 2
Aus
det(P-;!/) =
2y
1\ 0 = Ä-Ä^-Ä -Ä
A 0 0 \-X 1
I
0
-0 0 ü
n 2 0 1
2J
+l=0
folgt für die Eigenwerte Äi = 1 und /I2 = - 1 , sodass
(I-uPy = \-u
2 0
2 1 0
i 0 i 2
Ij
'l 1 l-(-M)
+ •
-0
2 0
0
-i
0
2
1 2 0
i 2 y
298
Hansen
Durch Inversion und Komponentenvergleich erhält man
2 P" = 0
2
0 1 0
2^ 2 0
+ (-!)"
J_ 2
-0
2 0
0 0
2
0 ]_
2
Eine einfache numerische Überprüfung bestätigt die Übereinstimmung mit dem Ergebnis der Chapman-Kolmogorov-Beziehung:
0
P° =
1
2 0
+(-iy
0
2 \
f
0 />' =
1
+(- -ly
J
V
0
1
+(-1)^
0
0
0
1
0
0
~2
f\ 0 O^ = 0 1 0
[o 0 i j
2 0
2 0 = 0
i
1 0
[l 0 oj
2 -0
2
•J
0
i
-0 - i ^ fo 0 n
2 0
0
p'^
,0 - i
0 0
^l
0 O^
0
0
1 0
1
0 0 1
bzw. allgemein P"=p»+(-!)"£)
für « ^ 0 0 .
P"' ist die stabile Matrix des stationären Zustandes. Das scheint ein Widerspruch zur zyklischen Matrix zu sein, da zyklisches Verhalten keinen stationären Zustand kennt. Um P" dennoch zu interpretieren, wird angenommen, dass es einen stationären Zustand für P gäbe. Dann muss, wie in Abschnitt 16.2.1 gezeigt wurde, P" = P°°P bzw. p^°°\l-P) = 0 gelten. Mit der Normierungsvorschrift, dass die Summe der Wahrscheinlichkeiten gleich eins ist, erhält man für die zyklische Matrix das Gleichungssystem
p,
= 0
Pl
+
0P2
—
OA
+
0P2
+
Op^ = 0
-Pl
+
0P2
+
A
= 0
Pl
+
Pl
+
Ps
= 1
mit der Lösung p^ = 1/2, p2 = 0 und pz = "i^, wodurch die Matrix P°°als stationärer Teil des Prognoseprozesses bestätigt wird. P°° ist eine stochastische Matrix, die angibt, mit
Prognose mithilfe von Markovprozessen
299
welcher Wahrscheinlichkeit sich der Prozess in einem zufällig herausgegriffenen Zeitpunkt befindet. Insgesamt erhält man als Ergebnis, dass sich auch zyklische Prozesse in einen stabilen und instabilen Teil des Prognosemodells trennen lassen. 16.4.3 Anwendungen Neben Trends, saisonalen und zufallsabhängigen Schwankungen enthalten Vorhersageprobleme häufig zyklische Bewegungen. Letztere lassen sich mithilfe periodischer Übergangsmatrizen in der Form nichthomogener Markovketten modellieren. Dazu betrachten wir das Beispiel aus dem Abschnitt 16.2.1 mit der Übergangsmatrix
^ i -
lo,2 0,8j
und nehmen an, dass der Prozess einem zweiperiodigen Zyklus mit der Übergangsmatrix 0
1
P2 =
vi
Oy
unterliegt. Mithilfe des nichthomogenen Prozesses
p^'^=p,p,p, p'''=p,p,p,p, p^"^ ={p,p^y'^ superpositioniert man auf den Prozess Pi den zweiperiodigen Zyklus P2. Tabelle 5 enthält die numerischen Werte mit dem Anlaufvektor
y°) = (i 0) 16.5 Bewertete Markovprozesse 16.5.1 Definition und grundlegende Merkmale In realen Fällen sind bei Markovprozessen die Übergänge vom Zustand / zum Zustand j häufig mit Bewertungen, z. B. Erlösen oder Verlusten, verbunden. Der Markovprozess erzeugt dann während seines Ablaufes eine Folge von positiven und/oder negativen Nutzengrößen, die von den realisierten Übergängen abhängen. Die Bewertungen, die sich beim Übergang vom Zustand / in den Zustandy ergeben, fassen wir in der Matrix
300
Hansen 1 Periode
Marktanteil
1 2 3 4 5 6 7 8
A 0,7 0,3 0,35 0,65 0,525 0,475 0,4375 0,5625
B 0,3 0,7 0,65 0,35 0,475 0,525 0,5625 0,4375
29 30 31 32
0,4667 0,5333 0,4666 0,5333
0,5337 0,4666 0,5333 0,4666
Tab. 5: Prognosewerte eines nichthomogenen zweiperiodigen Prozesses
zusammen. Der Prognosewert für den erwarteten Erlös bzw. Verlust der kommenden n Perioden ergibt sich aus den mit den Übergangswahrscheinlichkeiten gewichteten ErlösenA/erlusten ^
r
1
f ü r / = 1,2,...,iVundw= 1,2,3. Darin sind v^(^-l) die erwarteten ErlöseA/erluste für die verbleibende, um Eins reduzierte Anzahl von Übergängen mit dem Anfangszustand7. Definiert man ^i W = Z/^/, ^^ ß^ ^ = 1,2,...,A^ 7=1
folgt
für/ = 1, 2, ..., A^undw= 1,2,3,... In vektorieller Schreibweise ergibt sich v{n) = q + pv{n -1) für w = 1,2,3,... Dabei ist v{n) ein Spaltenvektor mit A^ Komponenten. 16.5.2 Anwendungen In einem Betrieb treten im Produktionsablauf Störungen auf, die zur Produktionsunterbrechung führen. Man kann also zwei Betriebszustände unterscheiden: Eo, die Anlage steht still, und E^, die Anlage läuft. Die Übergangsmatrix sei
Prognose mithilfe von Markovprozessen
301
£0^0,75 0,25^ P=
0,20 0,80
Als Bewertungsmatrix wurde U=
-10
+6
-10
+20
ermittelt. Die Unternehmung verliert also 10 Geldeinheiten, wenn nicht produziert wird. Behebt man einen Stillstand, werden in der nächsten Periode 6 Geldeinheiten und treten keine Störungen auf, werden 20 Geldeinheiten erzielt. Weiter wird angenommen, dass sich die Anfangswerte aus den Erlösen ergeben, die die Unternehmung durch den Verkauf der Anlage erzielen kann. Dabei sind der Verkaufspreis vo(0) = 100 Geldeinheiten, wenn die Produktion unterbrochen ist, und vi(0) = 200 Geldeinheiten, wenn die Anlage läuft. n
Vo{n)
vi(w)
ö
iöö
2ÖÖ
119,00 131,75 141.0625 148,4844 154.8664 160,6765 166,1721 171,4947 176,7221 181.8972 187.0435 192.1739 197.2957 202.4126 207.5270 323.6399 217.7520 222.8636 227.9750 233.0863 238.1975 243.3086 248,4198 253,5309 258,6440 263.7531 268,8642 273,9754
194,00 193,00 194,75 198,0125 202,1069 206,6588 211,4624 216,4043 221,4224 226,4823 231,5653 236,6609 241.7635 246.8700 251.9785 257.0882 262,1986 267,3092 272,4201 277,5311 282,6421 287,7532 292,8643 297,9754 303,0865 308,1976 313.3087 318,4198
1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28
Vi(n)-Vo(n)
iöö
75
61,25 53,6875 49,5281 47,24.05 45,9823 45,2903 44,9096 44,7003 44,5851 44,5218 44,4870 44,4678 44,4574 44,4515 44,4483 44,4466 44,4456 44,4451 44,4448 44,4446 44,4446 44,4445 44.4445 44.4445 44,4445 44,4445 44,4444
v^(n)-v^(n-^) -6 -1 1,75 3,2625 4,0944 4,5519 4,8036 4.9419 5,0181 5.0599 5.0830 5.0956 5.1026 5.1065 5,1085 5,1097 5.1104 5.1106 5,1109 5,1110 5,1110 5,1111 5,1111 5.1111 5.1111 5,1111 5,1111 5,1111
Tab. 6: Prognose der erwarteten Erlöse als Funktion vom Ausgangszustand und der Anzahl der verbleibenden Übergänge Aus den Daten von P und [/sowie den Randwerten erhält man die Prognosewerte als Funktion vom Ausgangszustand und der Anzahl der verbleibenden Übergänge. In der Tabelle 6 erkennt man, dass sich mit wachsendem n die Differenzen \vi(n) - VQ(n)\ und \vi(n) -vi(n-l)\ offensichtlich konstanten Werten nähern. Konkret heißt dies, wenn die Anlage im Ausgangszustand läuft, dann ist das Periodenergebnis für ein großes n um
302
Hansen
etwa 44,44 Geldeinheiten höher, und außerdem erzielt der Unternehmer bei großem n für jede weitere Periode zusätzlich etwa 5,11 Geldeinheiten. Nehmen wir nun an, dass dem Unternehmer iterative Entscheidungsalternativen (Strategien) zur Verfügung stehen. Möglich seien eine verbesserte Reparaturplanung (Strategie I) und eine verbesserte vorbeugende Instandhaltung (Strategie II). Die Tabelle 7 beschreibt die gesamte Entscheidungssituation. Die optimale Entscheidungssequenz ist dann erreicht, wenn für jedes / und n das gesamte erwartete Betriebsergebnis maximal wird (vgl. [7], S. 43 f.). Setzt man die Strategie Ä:ein, so gilt
7=1
M
und wenn k optimal ist, max {v\{n)) = max Q][*1 + 1;^^
v/«-i)
7=1
Ausgangszustand
Strategie
0
1
Ergebnis bei Übertragung nach
I
0,75 0,20
0,25 0,80
0 -10 -10
1 6 20
I
0,40 0,50
0,60 0,50
-10 -8
5 16
I
0 0
Übergangswahrscheinlichkeit nach
Tab. 7: Sequenzielles Entscheidungsproblem einer bewerteten Markovkette Mit den Randwerten Vo(0)=100 und vi(0) = 200 erhält man vo (1) = max [119,0000; 194,0000], also Strategie II, vi (1) = max [159,0000; 154,0000], also Strategie I, vo(2) = max [179,2500; 180,0000], also Strategie II, Vi (2) = max [172,0000; 180,5000], also Strategie II vo(3) = max [174,1250; 194,4000], also Strategie II, vi (3) = max [179,3000; 184,2500], also Strategie II vo(4) = max [185,8625; 200,2800], also Strategie II, vi (4) = max [187,3100; 193,3250], also Strategie II vo(5) = max [192,5413; 208,7160], also Strategie II, vi (5) = max [195,1070; 200,8025], also Strategie II vo(6) = max [200,7376; 216,3852], also Strategie II, vi (6) = max [202,9679; 208,7593], also Strategie II usw.
Daraus gewinnt man als Prognose für die erwarteten Periodenergebnisse die in der folgenden Tabelle angegebenen Werte. n
Vo(«)
Vi(n)
1 2 3 4 5 6
194,0000 180,0000 194,4000 200,2800 208,7160 216,3852
159,0000 180,5000 184,2500 193,3250 200,8025 208,7593
Tab. 8: Prognose für die Periodenergebnisse bei optimaler Strategie
Prognose mithilfe von Markovprozessen
303
16.6 Fazit Wir haben uns in der Darstellung weitgehend auf diskrete Prozesse beschränkt. Für ihre Analyse hat sich die erzeugende Funktion als ein wirksames Instrument erwiesen. Bei der Betrachtung kontinuierlicher Systeme tritt an die Stelle der erzeugenden Funktion die Laplace-Transformation. Für beide Fälle (diskret und kontinuierlich) gelingt eine vollständige Analyse des dynamischen Verhaltens des zu untersuchenden Prognoseproblems. Der algorithmische Aufwand für den diskreten Prozess ist gering. Dies gilt nicht in gleichem Maße für ein kontinuierliches Problem. In praktischen Fällen genügt es in der Regel, den kontinuierlichen Fall durch eine diskrete Betrachtung zu approximieren. Damit die beschriebenen Beispiele ihren didaktischen Zweck möglichst erfüllen, wurden sie inhaltlich einfach gehalten und haben einen geringen Umfang. Sie sollen auch als Anregung für praktische Fälle dienen. Wegen der einfachen Berechnungstechniken können praktische Anwendungen mit einem hohen Komplexitätsgrad auch dann noch mithilfe von Markovketten erfolgreich bearbeitet werden, wenn andere Analysemethoden versagen. Insbesondere lassen sich Markovprozesse elegant in andere Modellformen einbetten. Besonders geeignet ist die Verknüpfung von stochastischen Simulationsmodellen und Markovketten. Die Schnittstellenkonstruktion zu anderen Modelltypen, z. B. zu Modellen der mathematischen Optimierung, gelingt häufig auch in einfacher Weise. 16.7 Literatur [I] [2] [3] [4] [5] [6] [7] [8] [9] [10] [II] [12] [13] [14] [15]
Breuer, L., Spatial Queues, [Elektronische Ressource], University of Trier, Trier 2000. Buchholz, F., Die strukturierte Analyse Markovscher Modelle, Berlin u.a. 1991. Chung, K.L., Lectures from Markov Processes to Brownian Motion, New York u.a. 1982. Ferschl, F., Zufallsabhängige Wirtschaftsprozesse, Wien-Würzburg 1964. Filar, J. und Vrieze, K., Competitive Markov Decision Processes, New York 1997. Heller, W.-D., Lindenberg, H., Nuske, M. und Schriever, K.-H., Stochastische Systeme: Markoffketten, Stochastische Prozesse, Warteschlangen, Berlin u.a. 1978. Hernändez-Lerma, O. und Lasserre, J.B., Discrete-time Markov Control Processes, New York u.a. 1996. Hilfer, R., Stochastische Modelle für die betriebliche Planung, München 1985. Jacob, N., Pseudo-Differential Operators and Markov Processes, Berlin 1996. Kalpazidou, S.L., Cycle Reprentations of Markov Processes, New York u.a. 1995. Kemeny, J.G., Schleifer, A., Snell, J.L. und Thompson, G.L., Finite Mathematics with Business Applications, Englewood Cliffs 1972. Schäl, M., Markoffsche EntScheidungsprozesse, Stuttgart 1990. Wächter, K.H., Die Verwendung von Markov-Ketten in der Personalplanung, Zeitschrift für Betriebswirtschaft 44 (1974), S. 243 ff. Zanakis, S.H. und Maret, M.W., A Markovian Goal Programming Approach to Aggregate Manpower Planning, Journal of the Oprerations Research Society 32 (1981), S. 55 ff. Zurmühl, R. und Falk, S., Matrizen und ihre Anwendungen, Teil 1: Grundlagen, 5. Aufl., Berlin u.a. 1984.
17 Der Beitrag der Künstlichen Intelligenz zur betrieblichen Prognose von Philipp Janetzke und Jürgen Falk 17.1 Einleitung Viele leistungsfähige Prognosesysteme enthalten eine größere Anzahl unterschiedlicher Verfahren, deren Auswahl und Anwendung meist mathematische Experten erfordern. Wegen der in der betrieblichen Praxis zahlreich zu erstellenden Prognosen sind die Experten entsprechende Zeit gebunden. Um Prognosesysteme einem breiteren Benutzerspektrum zugänglich zu machen, bleibt einerseits, sie vollkommen zu automatisieren. Dann hat man aber in der betrieblichen Praxis bei weniger plausiblen Ergebnissen ein Akzeptanz-Problem. Es wird dort darauf Wert gelegt, dass der Lösungsweg nachvollziehbar ist. Andererseits bestehen Möglichkeiten, Prognosesysteme interaktiver zu gestalten: Der Benutzer könnte durch den Prognoseprozess „geführt" und bei der Methodenauswahl und -parametrierung „beraten" werden. Das System interpretiert die Ergebnisse und schlägt gegebenenfalls Korrekturen vor. Neben dem Ansatzpunkt bei der Verwendung bekannter Prognoseverfahren könnte man dem Benutzer Verfahren an die Hand geben, die den funktionalen Zusammenhang von Eingabe- und Prognosewerten anhand der Daten selbstständig erlernen. Somit brauchte er nicht mehr mit mathematisch-statistischen Details einer Modellbildung vertraut sein. In diesem Beitrag wollen wir untersuchen, ob, inwieweit und an welchen Stellen dies durch die Künstliche Intelligenz (Kl) geleistet werden kann und welche Experimente sowie Vorschläge bereits bekannt sind. Dazu geben wir einen Überblick über derzeitige Einsatzmöglichkeiten der Kl in der betrieblichen Prognose. Schwerpunkt der Betrachtung ist der Einsatz von Expertensystemen und Künstlichen Neuronalen Netzen. 17.2 Expertensysteme Innerhalb der betrieblichen Nutzung von Expertensystemen nimmt der Einsatz der Expertensysteme zur Prognose einen Anteil von ca. 4 % (vgl. Auswertung von 440 Expertensystemen in [24], S. 54) bzw. ca. 14 % (vgl. Auswertung von 380 Expertensystemen in [101], S. 145) ein. Der Anteil unterstreicht die Bedeutung für die Prognoserechnung, wenn man bedenkt, dass Expertensysteme eine Vielzahl betrieblicher Funktionen unterstützen (vgl. [51]). 17.2.1 Prognosespezifischer Aufbau In Abbildung 1 ist das Modell eines Expertensystems (XPS) zur Prognoserechnung zu sehen (vgl. Grundlagen der XPS in [60]). Bestandteile sind eine Inferenzkomponente, die den Arbeitsablauf des XPS steuert, eine Dialogkomponente als Schnittstelle zum Benutzer und eine Wissensbasis, die prognosespezifisches Wissen enthält. Das Wissen wird in XPS explizit repräsentiert. Über die Inferenzkomponente sind dem XPS Daten- und Methodenbanken zugänglich, die beispielsweise Vergangenheitswerte und bestimmte Prognoseverfahren bzw. Verfahren zur Datenanalyse beinhalten.
306
Janetzke, Falk
Datenbank zur Prognoserechnung z.B. Zeitreihenwerte
Prognosemethodenbank )der I z.B. ARIMA, Filter oder Exponentielles Glätten ätten I
1 r Inferenzkomponente
Dialogkomponente
J C Wissensbasis Prognosewissen Regeln
Fakten
XPS
Abb. 1: Modell eines Expertensystems zur Prognoserechnung Die Expertensystemtechnik bietet die Möglichkeit, Expertenwissen zu speichern und es heuristisch, nicht deterministisch, zu verarbeiten. Ihr Einsatz liegt bei der Auswahl und Parametrierung von Prognosemethoden nahe, da mit dem Expertenwissen die Wirkung und Abhängigkeit von Einflussfaktoren eingeschätzt werden kann. Dies sind Zusammenhänge, die meist nicht exakt formalisierbar sind (vgl. Abschnitt 17.2.4 sowie [77] und [6]). 17.2.2 Wissensrepräsentation Als zwei zentrale Konzepte zur Wissensrepräsentation werden Regeln und Frames vorgestellt. Regeln sind in der Logik 1. Stufe, die das menschliche Denken formalisiert, eingebettet und damit syntaktisch leicht verständlich (vgl. [68], S. 101 ff.). In der Wissensrepräsentation übenA/iegt daher auch die Verwendung von Regeln (vgl. [3], S. 424, [20], S. 289, [60]). Eine Regel zur Auswahl einer Prognosemethode könnte folgendermaßen aufgebaut sein: Wenn Quadratischer Trend und vorhandene Saisoneinflüsse und erwünschter Prognosehorizont über 15 Perioden Dann Methode = multivariate Regression. Die gesamte Wissenbasis eines XPS besteht aus 10 bis 100 Regeln (vgl. [3], S. 424, [28], S. 486, [5], S. 261). Zur besseren Strukturierung werden die Regeln wiederum in einzelne Klassen eingeteilt. Frames beinhalten das Wissen über Objekte, für die eine Prognose erstellt werden soll [39]. Ein Frame ist syntaktisch eine Datenstruktur, die sich aus mehreren Plätzen (Slots) zusammensetzt (vgl. [60], S. 32). In der Prognosepraxis werden Frames z. B. verwendet, um Prognosemethoden darzustellen.
Der Beitrag der Kl zur betrieblichen Prognose
307
Streitberg und Naeve [85] bauen im XPS A4 einen Frame „Prognosemethode" (z. B. ARMA) auf, in dessen Slots sie die Startwerte und, nach den entsprechenden Bearbeitungsschritten, die jeweiligen Ergebniswerte, die Zahl der Parameter bzw. deren Werte sowie Einheiten und Ergebnisse der Voruntersuchung (z. B. Saison, Trend) eintragen. Unsicheres, d. h. mathematisch-statistisch nicht exakt formalisierbares Wissen, z. B. darüber, für welche Bedingung welche Prognosemethode am besten geeignet ist, kann in regelbasierten Wissensbasen in Form von Wahrscheinlichkeiten, die an die entsprechenden Regeln gebunden sind, repräsentiert werden. Experten denken zudem nicht in scharfen Grenzen. Die Fuzzy-Logik versucht, über fließende Grenzen in Form überlappender Wahrscheinlichkeitsverteilungen diese Unscharfe im Denken nachzubilden (vgl. [106], [23], S. 408 f.). Durch die Integration der Fuzzy-Logik soll sich die Leistung der XPS weiter der menschlicher Experten nähern (vgl. z. B. XPS Interest Rate Insight in [35]). In der Prognoseauswahl wirkt sich beispielsweise der Prognosehorizont auf die Komplexitätsanforderung an die auszuwählende Methode aus. Die Grenzen der Auswahl der einen oder anderen Methode sind dabei fließend. 17.2.3 Wissensverarbeitung Die Arbeitsweise der Inferenzmaschine, die die Regelauswertung durchführt, erfolgt ohne vorher festgelegte Reihenfolge der Regelauswertung und damit nicht deterministisch. Diese Arbeitsweise begünstigt auch die Verarbeitung unvollständigen Wissens, wie fehlende Benutzereingaben, die auch statistisch nicht ermittelt werden können. Dann verliert allerdings die Auswahl einer Methode an Genauigkeit und liefert statt einer besten eine Menge geeigneter Methoden. Die Verarbeitung unsicheren Wissens - Regel verknüpft mit Wahrscheinlichkeit - richtet sich nach der Bayesschen Wahrscheinlichkeitsfortpflanzung (vgl. [60]) und ermöglicht so, in der Ergebnisdarstellung Unsicherheitsfaktoren zu berücksichtigen. Die Auswertung von Fuzzy-Regeln erfolgt nach einem fuzzy-spezifischen Inferenzprozess (vgl. [67], S. 366 bzw. [45], S. 197). Einen ähnlichen Weg zur genaueren Abbildung des Expertenschlussfolgerns beschreiten Systeme, die auf der Dempster-Shafer-Logik aufbauen (vgl. [21]). In der Anwendung der Prognoseauswahl wird für jede Methode bzw. Menge von Methoden die Wahrscheinlichkeit, dass diese die beste ist, berechnet [21], S.10 ff. Die Wahrscheinlichkeit wird allerdings - der auffälligste Unterschied - in Form eines Intervalls angegeben. Ober- und Untergrenze des Intervalls sind auf den Bereich [0,1] definiert. Die Intervalle werden in zweifacher Hinsicht interpretiert. Liegen die Ober- und Untergrenze „weit" auseinander, ist die Länge des Unsicherheitsintervalls - Maß der Unsicherheit größer als im Idealfall, wenn Ober- und Untergrenze übereinstimmen. Die Unsicherheit ist dann gleich 0 bzw. die Gewissheit gleich 1 und die Eignungs-Wahrscheinlichkeit der Methode gleich dem Wert der Grenzen. Ist die Untergrenze nahe 0, so ist das Vertrauen in diese Methode gering - analog der exakten Wahrscheinlichkeit. Das Vertrauen ist umso größer, je näher die Obergrenze bei 1 liegt. Die Methode mit der groß-
308
Janetzke, Falk
ten Wahrscheinlichkeit verbunden mit einer geringen Unsicherheit sollte die am besten geeignete sein und wird ausgewählt. 17.2.4 Einsatz wissensbasierter Prognosesysteme XPS zur betrieblichen Prognose lassen sich nach dem Aufbau ihrer Methodenbanken in zwei Klassen einteilen. Zur Klasse der mathematisch-statistisch orientierten zählen Systeme, die wissenschaftlich untersuchte Methoden wie Zeitreihenanalysen oder ökonometrische Modelle verwenden (z. B. XPS Panisse in [32]). Die zweite Klasse stellen XPS dar, die Methoden enthalten, welche aus dem Erfahrungsschatz betrieblicher Prognoseexperten stammen bzw. betriebswirtschaftliche Kausalzusammenhänge abbilden. Die beiden Klassen sind nicht überschneidungsfrei, da sich die Verfahren auch kombinieren lassen. 17.2.4.1 Expertensysteme mit mathematisch-statistischen {Methoden Mathematisch-statistisch orientierte XPS können weiter nach dem Aufbau ihrer Wissensbasis in nicht integrierte und integrierte Auswahlsysteme untergliedert werden. Nicht integrierte Auswahlsysteme sind anwendungsunabhängig, während integrierte Auswahlsysteme die Anforderungen des Anwendungsgebiets bei der Prognose berücksichtigen. 17.2.4.1.1 Nicht integrierte Auswahlsysteme Das XPS unterstützt den Benutzer bei der Auswahl der für ihn am besten geeigneten Methode und der Parametrierung der Modelle. Diese Eigenschaft als Zugangssystem (vgl. [49], S. 178) ermöglicht es einem größeren Anwenderkreis, die Prognosetechniken zu nutzen. Bislang setzten diese ein hohes Maß an Expertenwissen zum korrekten Einsatz voraus. Ein von Kumar und Hsu [37] entwickeltes XPS unterstützt die Auswahl unter 25 verschiedenen Methoden, die in Zeitreihenmodelle, kausale und beurteilende Verfahren gegliedert sind. Während des Auswahlvorgangs bewertet das System die Methoden auf Basis von 16 unterschiedlichen Kriterien, z. B. Anzahl der Vergangenheitswerte und Prognosehorizont. Diese werden im Dialog mit dem Benutzer erfragt und gehen in die Prämissen unscharfer Auswahlregeln ein. Eine typische Regel hat z. B. folgenden Aufbau: Wenn Anzahl der verfügbaren Vergangenheitswerte = „mittel" Dann multipliziere „Score" der Naiven Extrapolationsmethode mit 1,0 und/oder der Input-Output-Methode mit 0,3. Außer der Methode mit dem höchsten „Score" kann das System auch eine Kombination zweier Verfahren vorschlagen.
Der Beitrag der Kl zur betrieblichen Prognose
309
17.2.4.1.2 Integrierte Auswahlsysteme Integrierte Systeme sind Auswahlsysteme, deren Wissensbasen um anwendungsspezifisches Wissen erweitert sind. Die Praxis hat gezeigt, dass in den Anwendungsbereichen, z. B. Lagerabgangsprognose, zum einen Auswahlvorgänge durch betriebswirtschaftliche Faktoren mitbestimmt (z. B. Teileart: Rohteil, Halbfabrikat oder Enderzeugnis [49], S. 73), zum anderen erstellte Prognosen im Falle ökonomischer Besonderheiten berichtigt werden sollten. Letztere lassen sich nach ihrer Bedeutung in drei Kategorien einteilen: Marktspezifische ökonomische Besonderheiten wirken auf ganze Wirtschaftszweige, produktspezifische beeinflussen einzelne Produkte oder Standorte. So kann die Prognose einer Produktgruppe nicht auf jedes Produkt dieser Gruppe in gleicher Weise übertragen werden; Korrekturen sind nötig. Schließlich unterscheidet man noch die Kategorie der „besonderen" Ereignisse wie z. B. neue Konkurrenten oder unvorhergesehene Großaufträge. Die Bedeutung ökonomischer Besonderheiten für die Vorhersagegenauigkeit stellen auch Flores und Wolfe fest. Flores und Wolfe [29] zeigen, dass mathematisch-statistische Vorhersagen durch explizite Nachbesserungen, die allgemeine ökonomische Bedingungen berücksichtigen, genauer werden können. In ihrer Studie werden ARIMAPrognosen von Analysten nachgebessert. Allerdings wird die Frage, ob eine Nachbesserung wirklich die Prognosequalität verbessert, unterschiedlich beantwortet (vgl. [10], S. 15). In Abbildung 2 ist ein Auszug aus einer Regelbasis eines integrierten Systems ersichtlich. Die Regeln sind in vier Klassen zusammengefasst, um die Beziehungen der Wissensbereiche anwendungsspezifisches Wissen und Auswahlwissen zu verdeutlichen. Mit der hier dargestellten Regelbasis könnte eine Methode zur Absatzprognose eines neu entwickelten Produkts ausgewählt werden. Neben Regeln, die den Auszug aus einer Wissensbasis eines Auswahlsystems repräsentieren, sind Brückenregeln zu sehen, die das anwendungsspezifische Wissen mit dem Auswahlwissen verbinden (XPS FOCA in [30]). Damit kann man ökonomische Bedingungen wie die Entwicklungsdauer eines Produkts berücksichtigen, um ein Verfahren auszuwählen, das in dem Prognosehorizont, der über die Entwicklungsdauer hinausgeht, genügend genau vorhersagen kann [30]. Eine ähnliche Brückenregel beinhaltet auch das XPS Sales Forecaster, dessen Prognose für die Produktion eine „16 to 24 week lead time" [79] besitzen muss. In dem XPS for Selecting a Marketing Forecasting Technique wird nach der „availability of exogenous data (such as advertising, product quality, price, distribution)" [79] gefragt und die Antwort bei der Auswahl über Brückenregeln eingearbeitet. Überlagerungsregeln (vgl. Abbildung 2) berichtigen die Prognose a posteriori im Falle ökonomischer Besonderheiten - im Beispiel sind dies die Marketingstrategie, die Produktqualität und der Zielmarkt (vgl. [83]). Weiterhin werden solche Überlagerungsregeln eingesetzt, um weltpolitische oder andere „besondere" Ereignisse wie z. B. Streiks, Auftreten neuer Konkurrenten oder besondere Produktpromotions zu berücksichtigen (vgl. [10], S. 15). Der Vorgang der Überlagerung lässt sich am dargestellten Beispiel wie folgt erklären (vgl. Abbildung 2): Der Benutzer muss entscheiden, ob er die vom System eingestell-
310
Janetzke, Falk
ten Parameter für Qualität, die es aus den für das Produkt verwendeten Materialien und Verfahren ableitet, akzeptiert bzw. korrigiert. Es obliegt ihm außerdem, die Bewertung/Skalierung der Marketingvorhaben zu ändern (vgl. XPS zur Absatzprognose auf dem Reifenmarkt in [83]). Anschließend werden vom System Nachbesserungsprozeduren aufgerufen (vgl. XPS ELIED in [70], S. 70 ff.). Auswahlregeln
Benutzervorschlag Horizont
Prognosehorizont
Prognoseverfahren
a
Brückenregeln
Anwendungsspezifisches Wissen
Überlagerungsregeln
Entwicklungsdauer
Entwicklung eines Produkts
Skalierung der Marketingvorhaben
Entwicklungswert
Datenmenge
VP
Materialien, Verfahren
Zielmarkt
M
Skalierung der Qualität
Skalierung des Zielmarkts
Innovationsgrad
Abb. 2: Regelbasis eines integrierten Auswahlsystems 17.2.4.2 Expertensysteme mit empirischen Methoden Empirische Methoden, so genannte Faust- und Daumenregeln, werden in der Praxis mathematisch-statistischen Methoden vorgezogen, wenn bestimmte Rahmenbedingungen erfüllt sind. Kern nennt in diesem Zusammenhang unter anderem das Vorhandensein wichtiger „Ereignisse und Prämissen, die pro Jahr unterschiedlich und zueinander unterschiedlich in der Zeitachse liegen", ebenso „Überlagerungen von Ereignissen als erheblichen Bestimmungsfaktor für den Prognosewert" [64]. Wie im vorigen Abschnitt gezeigt, wird die Lösung derartiger Probleme aber auch mit integrierten Systemen angegangen. XPS mit einer empirischen Methodenbank sind in zweifacher Hinsicht empirisch: Die vom Experten definierten Regeln zur Auswahl geeigneter Methoden selbst sind empirisch, ebenso die Prognosemethoden, da Faust- bzw. Daumenregeln. Innerhalb der „ruies-of-thumb" unterscheiden Humpert und Holley [32] - j e nach Vorgehensweise der Prognoseerstellung - zwischen „top-down"-Methoden (z. B. Gebrauch von Marktgröße und Marktanteil) bzw. „bottom-up"-Verfahren (z. B. Gebrauch von Produktionsplänen). Beim XPS zur frühzeitigen Materialeinzelkostenprognose von Seidimeier ist - im Gegensatz zu reinem Erfahrungswissen - vor allem Wissen über kausale Zusammenhänge in Form von Regeln und Frames (vgl. Abschnitt 17.2.2) rekonstruiert [71], S. 78. Das XPS erkennt die durch die Entscheidungen der Bereiche Konstruktion und Materialwirtschaft ausgelösten Kostenursachen (z. B. Materialeigenschaften) und ermittelt die Kostenwirkungen (z. B. Kosten für die Recherche unbekannter Lieferquellen). Die zugehörigen Schätzkosten werden für die einzelnen Materialien addiert; die Summe stellt den Prognosewert dar.
Der Beitrag der Kl zur betrieblichen Prognose
311
17.2.4.3 Vorteile des Einsatzes von Expertensystemen Verfügbarkeit Expertenwissen, Entlastung der Experten und Steigerung des Expertenpotenzials. Durch den Einsatz der XPS steht das Wissen von Experten einem größeren Anwenderkreis zur Verfügung. Durch dieses Expertenwissen wird die Qualität der Prognosen von Nichtexperten erhöht (vgl. [20], S. 296). Experten können ihre Anwendungen zeitsparend erstellen, mehrere Methoden austesten und die in der Praxis beste Methode auswählen (vgl. XPS Merlin in [57]). Transparenz des Lösungswegs. Für den Benutzer ist der Auswahlvorgang leichter nachvollziehbar. Dritte haben einen besseren Einblick in die Bedingungen, die der erstellten Prognose vorausgesetzt wurden. In einer Expertise beispielsweise führt das System FOCA ([30], [97], S. 91) neben der Dokumentation der ausgewählten Methode und der Methodenparameter auch die Bedingungen auf, die zur Auswahl entscheidend waren wie Trend oder Saison. Interpretation und Validierung der Ergebnisse. Dem Benutzer wird aufgezeigt, wie geeignet die ausgewählte Methode ist und welche Schlüsse aus dem Ergebnis möglich sind. Im XPS AMIA gilt, dass signifikante Resultate extrahiert und anhand fester Kriterien bewertet werden [6]. Die Ergebnisse der Änderungen an den ausgewählten Methoden durch den Anwender werden ebenfalls interpretiert und beurteilt (XPS FOCA in [30]). Teilanwendungen und Alternativmöglichkeiten. Neben dem Erstellen einer Prognose erlauben manche Systeme auch, Teilanwendungen, wie Bestimmung von Einflussfaktoren (Regression), Vorliegen von Trends sowie deren Ausprägung, durchzuführen bzw. zu analysieren. Ist der Benutzer mit der ausgewählten Methode nicht zufrieden, werden vom XPS Alternativvorschläge angeboten. Vollständigkeit. Alle für die Auswahl wichtigen Aspekte werden mit dem Anwender „besprochen" bzw. die entsprechenden Werte erfragt. Auch die weniger offensichtlichen Einflussfaktoren wie „allocated budget for the forecast" oder „amount of data available (sales history)" [79] werden dabei berücksichtigt. Plausibilitätskontrolle. Mit zunehmender Komplexität steigt auch die Wahrscheinlichkeit, dass Wünsche und Angaben des Benutzers nicht mehr konsistent sind. Das System überprüft die Benutzerangaben und korrigiert sie bei Bedarf. Im XPS AMIA existieren „consistency ruies (they avoid the making contradictory choices)" [6]. Auch die notwendigen Datenvoraussetzungen werden geprüft. Gegebenenfalls informiert das System den Anwender, wenn es Irregularitäten in den Daten nicht selbst beheben kann (vgl. XPS FOCA in [30]). Lernsysteme. Unerfahrenen Benutzern wird über Erklärungen, Dokumentationen, Plausibilitätskontrollen und Expertisen im Umgang mit der Prognose die Möglichkeit eröffnet, Theorie und Anwendung ohne zusätzliche menschliche Experten zu erlernen. Automation. Gerade dem unerfahrenen „ad hoc"-Anwender der Prognosemethode bietet die Automation Hilfen. So ermittelt das System vom Benutzer einzugebende Daten, wie Verdacht auf Trend, Periodizität oder Güte der Daten, durch statistische Verfahren selbsttätig (vgl. [85]). Im Bereich der Lagerbedarfsprognose teilt das System Merlin die Produkte in „low dollar", „medium dollar" bzw. „top dollar products" [57] ein.
312
Janetzke, Falk
Die Prognose der low- bzw. medium dollar products wird automatisiert. Dies ermöglicht dem Experten, sich auf die Vorhersagen der top dollar products zu konzentrieren. Lernen. Das System ist in der Lage, a posteriori Prognosemethoden anhand der erzielten Ergebnisse im Vergleich zu den realen Werten zu beurteilen und diese Bewertungen bei späterer Auswahl und Parametrierung zu berücksichtigen (vgl. [30]). 17.3 Künstliche Neuronale Netze 17.3.1 Motivation für den Prognoseeinsatz Künstliche Neuronale Netze (KNN) entstanden mit der Zielsetzung, eine Rechnerabbildung der biologischen Intelligenz zu entwickeln. Ihre Arbeitsweise, die auf Methoden der Mustererkennung beruht, motiviert den Einsatz auch in der Prognoserechnung. So besitzen KNN die Fähigkeiten, sich selbstständig an Daten anzupassen, zu lernen und zu generalisieren. Da Systeme der realen Welt auch nichtlineare Zusammenhänge aufweisen und mathematisch-statistische Verfahren bei sehr stark nichtlinearen Prognoseanforderungen ungenauer werden (vgl. [50]), bieten KNN, die als universelle funktionale Approximatoren angesehen werden und die Eigenschaft der Nichtlinearität besitzen, Potenziale für den Einsatz in der Prognose (vgl. [74], [65], [107], S. 35 f.). In den folgenden Abschnitten werden die drei zentralen Modelle der KNN vorgestellt und die zugehörigen Prognosemechanismen genauer beschrieben. Viele Erweiterungen zu neuen Netzwerkmodellen basieren auf diesen Konzepten (vgl. [80], S. 1031). Der Schwerpunkt der Beschreibung liegt auf dem KNN-Modell, dessen Einsatz in der betrieblichen Anwendung am weitesten verbreitet ist, dem Multilayerperceptron (vgl. [100], S. 1054 ff., [80], S. 1025). Weiterhin bietet die Technologie der KNN Potenziale, die über den Einsatz als Prognoseverfahren hinausgehen. So finden KNN auch in der Auswahl von Prognosemethoden Verwendung. 17.3.2 Prognose mit Multilayerperceptrons 17.3.2.1 Topologie Multilayerperceptrons (MLP) bestehen aus mehreren Schichten von Neuronen, wobei die eine der zwei äußeren Schichten zur Informationseingabe, die andere zur Informationsausgabe dient (vgl. Abbildung 3). Oftmals ist jedes Neuron (Unit) der Schicht i-1 mit allen Neuronen der Schicht i verbunden - Schicht 0 entspricht der Eingabeschicht. Eingabeinformation in das KNN könnten Vergangenheitswerte einer Zeitreihe sein. Nach der Verarbeitung der Information werden die prognostizierten Werte an den Ausgabeknoten abgelesen (vgl. [69]). Voraussetzung der Prognosefähigkeit ist, dass das KNN im Rahmen eines Lernvorgangs trainiert wird. Hierzu passt man die Gewichtung der Kanten und der Schwellwerte in den Neuronen so an, dass sich die Trainingsdaten und die im produktiven Prognosebetrieb abgelesenen Werte an der Ausgabeschicht nur unwesentlich unterscheiden. Dafür sind unabhängig von der Trainingsmethode (z. B. Error-Backpropagation) viele Beispieldaten erforderlich.
Der Beitrag der Kl zur betrieblichen Prognose
313
1...5: Eingabe KNN 6,7: Ausgabe KNN Zeitpunkt t - i, i=0...4
Abb. 3: Modell eines Multilayerperceptrons mit Eingabe von Werten einer Zeitreihe Auf diese Weise wird eine Abbildung definiert, die je nach Aktivierungsfunktion der Neuronen linear oder nichtlinear sein kann und Muster des Eingaberaums in den der Ausgabe abbildet. Die Aktivierungsfunktion bestimmt, wann ein Neuron erregt wird und wie Informationen weitergegeben werden (vgl. zu den Grundlagen der KNN z. B. [13]). 17.3.2.2 Anwendung 17.3.2.2.1 Ereignisprognose Durch Ereignisprognosen werden Vorkommnisse, wie der Konkurs eines Unternehmens, vorausgesagt, indem in der Regel Eingaben aus einem Musterraum in eine der Ereignisklassen abgebildet werden. In der Arbeit Erxiebens u.a. [25] werden in KNN Unternehmenskenndaten als Merkmale eines Unternehmensmusters eingegeben. Nach der Berechnung durch das KNN ist an den Ausgabeknoten abzulesen, ob das KNN das Unternehmen der Klasse der „Gesunden" oder der „Kranken" zuteilt und so das Ereignis „leistungsgestört" oder „nicht leistungsgestört" prognostiziert. Geometrisch lässt sich die Wirkung der KNN wie folgt deuten: Das KNN separiert den Musterraum der Unternehmen durch eine Hyperebene, z. B. im zweidimensionalen Fall, wie Abbildung 4 zeigt, durch eine Gerade. In der Abbildung sind exemplarisch die Merkmale Liquidität und Gewinn verschiedener Unternehmen aufgetragen. 17.3.2.2.2 Zeitverlaufsprognose Unter einer Zeitverlaufsprognose versteht man die Prognose von Zukunftswerten aus Vergangenheitsdaten einer oder mehrerer Zeitreihen. Erstellt man die Prognose aus den Werten einer Zeitreihe (vgl. Abbildung 5) ähnlich der Autoregression, spricht man auch von einer horizontalen Prognose. Werden Daten mehrerer Zeitreihen ähnlich der multiplen Regression verwendet und nimmt man im einfachsten Fall nur einen Wert je
314
Janetzke, Falk
Zeitreihe zu jeweils dem gleichen Zeitpunkt, so spricht man von einer vertikalen Prognose. 1: Trennlinie KNN Gewinn des Unternehmens
/K
2: krankes Unternehmen 3: gesundes Unternehmen
(3
'^
Liquidität in Prozent
8
11
Abb. 4: Modell einer Merkmalsraum-Separation durch ein Künstliches Neuronales Netz Aktienkurs (ln€)
Realwert Prognose
600
500
Zeit 30.07.2003
31.12.2003
Abb. 5: Zeitreihenprognose eines Künstlichen Neuronalen Netzes Wichtige Anwendungsgebiete sind Finanzprognosen (Aktienkurse), Lagerabgangsprognosen sowie Absatz- oder Umsatzprognosen (vgl. die Systeme in Tabelle 2, [100], S. 1048 ff., [107], S. 39 f., [80], S. 1035 ff.). Windsor und Harker [99] verwenden beispielsweise zur Vorhersage des englischen FT-Aktienindex die Eingabereihen Zinssatz, Geldmenge MI und alte Indexwerte. Topalli verwendet zur Prognose des kurzfristigen Strombedarfs alte Bedarfswerte [91], S. 497.
Der Beitrag der Kl zur betrieblichen Prognose
315
17.3.3 Prognose mit selbstorganisierenden Karten 17.3.3.1 Topologie Selbstorganisierende Karten kann man sich als Neuronengitter vorstellen (vgl. [66], S. 1 ff., [80], S. 1028 ff.), wobei jedes Neuron mit dem nächsten Gitternachbarn verbunden ist (vgl. Abbildung 6). Jedes dieser Neuronen enthält einen Referenzvektor, über den es für die Erregung ausgewählt wird. 17.3.3.2 Anwendung Ein Prognosemechanismus lässt sich folgendermaßen darstellen: Außer dem Referenzvektor w besitzt das Neuron einen Aktionsvektor r. Letzterer kann aus Regressionskoeffizienten bestehen (vgl. [96]). Mit einem Erregungsvektor v, der die letzten Werte der zu prognostizierenden Zeitreihe enthält, wird das Neuron von der Erregungsfunktion ausgewählt, dessen Referenzvektor w den geringsten Abstand zu v im Vektorraum V hat (vgl. Abbildung 6). Das ausgewählte Neuron „errechnet" aus den im Aktionsvektor enthaltenen Regressionskoeffizienten und den im Vektor v enthaltenen letzten Zeitreihenwerten eine Prognose für den nächsten Zeitabschnitt.
A: Neuronengitter V: Vektorraum e: erregtes Neuron im Gitter 1: Erregungsfunktion 2: Abstand Referenzvektor w von Erregungsvektor v i: Neuron i (w,r) r: Aktionsvektor w: Referenzvektor
Abb. 6: Prognosemechanismus einer selbstorganisierenden Karte Wählt man bei der Prognose die Zeitabschnitte klein genug, so lassen sich mit oben genannter Methode nichtlineare Prozesse approximieren (vgl. [96]) und mit einer Erweiterung auch direkt vorhersagen: Der Vektor v, in dem die Regressionskoeffizienten gespeichert sind, wird um Variablen verlängert, die die Regressionsfunktion - linear, quadratisch oder exponentiell - beschreiben. Die Abstandsmessung des Erregungsvektors v zu den gespeicherten Referenzvektoren w im Gitter und die damit verbundene Auswahl (Erregung) können als Mustererkennung angesehen werden. Genauere Informationen unter anderem über den Vorgang des Lernens der selbstorganisierenden Karten findet man in [66], S. 1 ff.).
316
Janetzke, Falk
Eine Implementierung zur Finanzprognose beschreiben Binks und Allinson [9]. Einer selbstorganisierenden Karte werden Zeitreihen gleicher Länge n angeboten. Jedes Neuron war vorher mit einem Zufallsvektor der Länge n (späterer Referenzvektor) initialisiert worden. Daraufhin werden aus einer Bibliothek für grafische Chartformationen Elemente, z. B. head and Shoulders, als Erregungsvektoren ausgewählt und der Karte präsentiert. Die Antworten ermöglichen eine Clusterbildung gemäß der angebotenen Chartfiguren. Cluster x entspricht dabei der Menge der Neuronen, die eine der Chartfigur X ähnliche Zeitreihe (Referenzvektor) enthalten. Jeder Chartfigur wurde eine Information, z. B. Prognose der weiteren Kursentwicklung, zugeordnet, die an die Neuronen des zugehörigen Clusters übergeht, d. h. in einem zusätzlichen Vektor (Aktionsvektor) im Neuron abgelegt wird. Bei der Prognose wird der selbstorganisierenden Karte eine Zeitreihe angeboten, worauf ein Neuron eines Clusters aktiv wird und dessen Aktionsvektor die Prognose beschreibt. Eine weitere Anwendung einer selbstorganisierenden Karte beschreiben Volmer und Lehrbaß [95]. Das Kohonennetz besteht aus 37 mal 37 Neuronen. Zusätzlich wurde eine Outputebene eingeführt, in der die zu prognostizierenden Werte abzulesen sind. Eingesetzt wird das System bei der Prognose von Terminkontrakten auf den DAX und ergänzt ein bereits länger im Einsatz befindliches MLP-Netz. 17.3.4 Prognose mit Boltzmannmaschinen 17.3.4.1 Topologie Die Anordnung der Units einer Boltzmannmaschine ist nicht strukturiert oder geschichtet, vielmehr ist jede Unit mit jeder anderen verbunden (vgl. [80], S. 1027 f.). Einige dieser Units sind als Eingabe-, andere als Ausgabeknoten gekennzeichnet, die übrigen „verborgen". 17.3.4.2 Anwendung Die Anwendung der Boltzmannmaschinen ist für Ereignis- als auch für Zeitverlaufsprognosen möglich (vgl. [64]). Im Gegensatz zu MLP arbeitet man hier mit einer stochastischen Abbildungsfunktion. Aufgrund der geringen Verbreitung wird die Boltzmannmaschine in dieser Arbeit nicht genauer beleuchtet. 17.3.5 Weiterführende Netzwerkmodelle Neben den zentralen Modellen der KNN und deren direkter Anwendung in der Prognose wurden weitere Netzmodelle entwickelt. Leung u.a. [41] zeigen den Einsatz der General Regression Netzwerke am Beispiel der Prognose von Wechselkursen. Tay und Cao [88] verwenden das Netzwerkmodell „Support Vector Machine" bei der Prognose von Zeitreihen aus der Finanzwelt. Chen u.a. [15] prognostizieren mithilfe von probabilistischen Netzwerken den Aktienindex TSE der Taiwanesischen Börse. VenA/eise auf weitere Netzwerkmodelle finden sich auch in [80], S. 1031 und [107], S. 37.
Der Beitrag der Kl zur betrieblichen Prognose
317
17.3.6 Aspekte der betrieblichen Verwendung von Künstlichen Neuronalen Netzen als Prognoseverfahren Anwendungsunabhängigkeit. KNN sind an keine spezielle Anwendung gebunden. Ihre universelle Einsetzbarkeit ermöglicht auch in den Bereichen Vorhersagen, in denen ökonomische Zusammenhänge nicht ausreichend formalisierbar sind. Optimale Topologie. Eine Strategie zur Wahl der optimalen Topologie existiert noch nicht [107]. Es zeigt sich aber, dass bei MLP die Verwendung zumindest einer versteckten Schicht und einer nichtlinearen Aktivierungsfunktion sinnvoll ist. Anscheinend lässt sich das Prognoseergebnis durch Rückwärtsverkettung steigern (vgl. [93]). Datenvoraussetzungen. Ähnlich mathematisch-statistischen Verfahren sind auch KNN auf genügend viele Daten angewiesen, um optimal trainiert werden zu können. Liegen zu kleine Datenmengen vor, ist einfachen traditionellen Verfahren der Vorzug zu geben (vgl. [65]). Training des Netzes. Als zentraler Lernalgorithmus ist Backpropagation nennen (vgl. [1], S. 491). Besteht das KNN aus vielen Gewichten und liegen nur kurze Zeitreihen vor, besitzt es einen Hang zur Überanpassung an die Daten („overlearning" [7]). Das Netzwerk lernt in diesem Fall vergangene Verläufe „auswendig", d. h., es modelliert jeden einzelnen Datenpunkt, und verliert somit seine Generalisierungseigenschaft. Stabilität/Reagibiiität. KNN sind aufgrund der Musterwahl auf stabileres bzw. reagibleres Verhalten trainierbar. Reagiblere Netze erhält man durch Verkürzung der Musterlängen. 17.3.7 Weiterführende Einsatzgebiete von Künstlichen Neuronalen Netzen in der Prognose Das Potenzial von KNN im Rahmen der Prognose erschöpft sich nicht nur darin, ein Vertreter nichtlinearer Prognoseverfahren zu sein. Vielmehr eröffnen sich weiterführende Einsatzgebiete: Shi u.a. [75] nutzen die KNN zur Kombination von Prognosen, die mit unterschiedlichen Prognosemethoden erstellt wurden. Dabei ordnen die KNN jeder Prognose ein Gewicht zu. Als zugrunde liegende Einzelverfahren werden mathematisch-statistische Verfahren wie ARIMA verwendet. Sohl und Venkatachalam [82] verwenden die KNN zur Auswahl geeigneter Prognoseverfahren. Dabei stellen die Autoren dem KNN als Eingabewerte z. B. die Länge der Zeitreihe, den Basistrend und die Variabilität zu Verfügung. Das KNN bestimmt dann eine von drei Kategorien, aus denen das Prognoseverfahren zu wählen ist. In der Kategorie I befinden sich die Verfahren naive Prognose, einfacher Moving Average und einfache exponentielle Glättung (vgl. auch [94], S. 169 ff.). Mit diesen Einsatzgebieten erfüllen die KNN analoge Aufgaben vergleichbarer XPS. Verglichen mit den XPS bieten die KNN den Vorteil, selbstständig zu lernen. Dadurch ergeben sich neue Möglichkeiten, Wissen zu akquirieren, das dem menschlichen Experten bislang verschlossen war. Allerdings ist dieses Wissen nicht so transparent wie in den XPS verfügbar.
318
Janetzke, Falk
17.4 Vergleich der vorgestellten Prognosemodelle Bedienbarkeit und Leistungsfähigkeit, insbesondere die Prognosegenauigkeit, beeinflussen die Akzeptanz der vorgestellten Prognosemodelle. Daher werden diese sowohl untereinander als auch mit „akzeptierten" mathematisch-statistischen Verfahren verglichen. 17.4.1 Vergleiche der Prognosemodelle der Künstlichen Intelligenz untereinander 17.4.1.1 Expertensysteme mit Künstlichen Neuronalen Netzen Innerhalb einer Studie von Bowen und Bowen [12] über die Prognose eines Lagerbedarfs in US $ werden am Spezialfall der Bevorratung von Geldautomaten XPS mit Experten und KNN verglichen. Resultat dieser Untersuchung ist, dass die Prognosegenauigkeit des XPS der des Experten zumindest gleichkommt und über der des KNN liegt (vgl. Abbildung 7).
90 80 52 70 o 60 o o 50
/t X rK ^'v
1 nn
j
v^^
30 o 20
J5 10 \\ m\
I
tBUffi
40
m\
m\ 3
4
5 Perioden
6
7
8
1 = 1 KNN ^ ^ Experte - « : ^ Realwert
9
Abb. 7: Vergleich KNN, Expertensystem und Experte mit Realwerten Das KNN kann zufällige Ereignisse, die in Zeitreihen „random surges" [12] verursachten, nicht in ähnlicher Genauigkeit wie Experten berücksichtigen. Bowen und Bowen vermuten als Ursache, dass dem KNN zu wenig Wissen über Zukunftsereignisse antrainiert wurde. Sharda und Patil [73] stimmen mit Bowen und Bowen überein, dass die Prognosefähigkeit eines automatisierbaren XPS mit der menschlicher Experten vergleichbar ist. Allerdings widerspricht ihr Ergebnis der von Bowen und Bowen beschriebenen Überlegenheit der Expertensystemtechnik gegenüber KNN. Nach Ansicht von Sharda und Patil unterscheidet sich die Prognosegenauigkeit nicht signifikant, was sie anhand des XPS Autobox (vgl. [97], S. 26 ff.) belegen.
Der Beitrag der Kl zur betrieblichen Prognose
319
17.4.1.2 Künstliche Neuronale Netzmodelle untereinander In Abschnitt 17.3 wurden unterschiedliche KNN-Modelle behandelt, von denen nun zunächst die Boltzmannmaschine sowie zwei ihrer Varianten (MFT bzw. HHT) und MLP hinsichtlich ihrer Prognosegenauigkeit verglichen werden. In einer Studie von Rehkugler und Podding [63] werden die Ergebnisse von „Steigt/Fällt"-Prognosen untersucht. Der naiven Prognose, die den letzten Veränderungswert als Prognose fortschreibt, erweisen sich Boltzmannmaschine und MLP als überlegen, wie in Abbildung 8 zu sehen ist. Die Trefferquote der Boltzmannmaschine (ca. 62 %) liegt unter der der MLP (ca. 72 %), wenngleich die MFT- (ca. 64 %) bzw. die HHT-Variante der Boltzmannmaschine (ca. 67 %) die Genauigkeit steigern kann. Die Wahl geeigneter Eingabeparameter spielt für das Ergebnis eine nicht unwesentliche Rolle.
Markttendenzprognose 80 70 ^60 p Naive Prognose D Boltzmannmaschine p MFT - Variante p HHT - Variante • MLP
"ö 50 3 40 St 30 H 20 10 0 Modelltyp
Abb. 8: Vergleich von naiver Prognose, Boltzmannmaschinen und Multilayerperceptron Die Möglichkeiten der selbstorganisierenden Karten und der MLP stellen Cherkassky u.a. [16] in einer Studie gegenüber, in der komplexe zweiparametrige Regressionsgleichungen trainiert werden. Vermutlich nicht optimierte MLP erzielen dabei schlechtere Näherungswerte hinsichtlich eines modifizierten mittleren quadratischen Fehlers bzw. der maximalen Abweichung als selbstorganisierende Karten. 17.4.1.3 Künstliche Neuronale Netze mit Case-Based Reasoning Die Prognosegenauigkeit der KNN im Vergleich zu der ebenfalls zur Kl zählenden Methode des Case-Based Reasoning (vgl. [59]) wird unterschiedlich beurteilt. Chun u.a. stellen fest, dass KNN (MLP) gegenüber Case-Based Reasoning schlechtere Prognoseergebnisse liefern (vgl. [19], S. 271). Hingegen beobachten Jo u.a. eine deutliche Überlegenheit der KNN gegenüber Case-Based Reasoning (vgl. [34], S. 104 f.).
320
Janetzke, Falk
17.4.2 Vergleiche der Künstlichen Neuronalen Netze mit mathematischstatistischen Verfahren Adya und Collopy kommen bei einer Untersuchungen von 22 Studien zu KNN zu dem Ergebnis, dass in 86 % KNN bessere Ergebnisse als alternative, übenA/iegend aus dem mathematisch-statistischen Bereich stammende, Verfahren, liefern (vgl. [1], S. 488 ff.). Einer weiteren Übersicht ist zu entnehmen, dass KNN ebenfalls gegenüber übenA/iegend mathematisch-statistischen Verfahren als überlegen angesehen werden (vgl. [107], S. 53). Auch Wong u.a. stellen in einer breiteren Anwendungsuntersuchung fest, dass KNN nur in wenigen Fällen den mathematisch-statistischen Verfahren unterlegen sind (vgl. [102], S. 134). Im Folgenden werden einzelne Vergleichsstudien dargestellt. 17.4.2.1 Künstliche Neuronale Netze mit Regressionsmethoden Innerhalb der schon in vorigen Abschnitt beschriebenen Finanzprognose liegt die Trefferqualität der multivariaten Regression ca. 12 % unter der der MLP, erreicht aber die Performance der Boltzmannmaschine (vgl. [63). In Abbildung 9 werden die Ergebnisse unterschiedlicher Topologien der MLP veranschaulicht. Auffallend ist zum einen, dass die TreffenA/ahrscheinlichkeit der Topologien um ca. 6 % schwanken, zum anderen, dass nicht die aufwändigste Topologie 3-4-1 die beste ist. Mit der Idee, die Topologie durch KNN selbstständig bestimmen zu lassen, verbessern Rehkugler und Podding [63] die Trefferquote auf 74 % (KNN, die derartige Fähigkeiten aufweisen, werden auch als selbstoptimierende Netze bezeichnet). Remus und O'Conner (vgl. [65], S. 247 f.) unterscheiden nach der Art der Ausgangszeitreihen sowie dem Zeithorizont. So sind KNN bei monatlichen bzw. quartalsbasierten Zeitreihen mindestens so gut wie traditionelle Prognosemethoden. Bei diskontinuierlichen Zeitreihen mögen sie besser sein. Bei längerem Zeithorizont erweisen sich KNN als überlegen, bei kürzerem hingegen liegt der Vorzug bei den traditionellen Methoden. Tkacz beobachtet, dass KNN bei der Vorhersage eines Bruttoinlandsprodukts besser als statistische Verfahren sind. Werden hingegen Quartalsdaten als Grundlage genommen, verschlechtert sich die Prognosequalität erheblich (vgl. [90]). Die Überlegenheit der KNN, insbesondere der MLP, gegenüber der multivariaten Regression bestätigen auch Windsor und Harker [99] (ca. 30 % geringerer mittlerer quadratischer Fehler (MSE)) sowie Chiang u.a. [17] in ihren Arbeiten. Eine um absolut 10 % höhere Prognosegenauigkeit ermitteln Fletcher und Goss [27] bei einem Vergleich der MLP mit der Logit Regression. Shrinivasan u.a. [76] unterstreichen die Überlegenheit der KNN gegenüber der Regression eindrucksvoll (ca. 40 % geringerer MSE). Zudem untersuchen sie die Methode des Exponentiellen Glättens, das Verfahren von Winters, eine Kombination aus Regression und Box-Jenkins u.a. mit dem Ergebnis, dass die Prognosegenauigkeit dieser Verfahren bezüglich des MSE signifikant (ca. 60 bis 75 %) unter der der KNN liegt. Bei Zielgruppenselektionen und Absatzprognosen im Pharmamarketing stellt Sink eine generelle Überlegenheit der KNN gegenüber traditionellen Verfahren fest [78], S. 67 ff. und S. 130 ff.]. Lind und Suiek beobachten bei der Prognose von Projektdauern eine Überlegenheit der KNN gegenüber der Regression gemessen am MAPE (vgl. [42], S. 1164).
Der Beitrag der Kl zur betrieblichen Prognose
321
Markttendenzprognose 76 n 74 72 70 68 66 64 62 60 58 56 J
D stat. Prognose MLP: 3-1 MLP: 3-2-1 MLP: 3-3-1 MLP: 3-4-1
Modelltyp
Abb. 9: Vergleich von Multilayerperceptron mit multivariater Regression 17.4.2.2 Künstliche Neuronale Netze mit der Diskriminanzanalyse Zur Beurteilung der Qualität der Ereignisprognosen durch KNN ist ein Vergleich mit der Diskriminanzanalyse hilfreich. Erxieben u.a. [25] können eine pauschale Überlegenheit einer der beiden Verfahren nicht feststellen. Unterschiede zwischen den Methoden zeigen sich bei differenzierter Betrachtung im Hinblick auf Fehler 1. und 2. Art - mit der Nullhypothese, das Unternehmen sei leistungsgestört. Der Fehler 2. Art der KNN ist selbst für unterschiedliches Alter der Daten geringer als der der Diskriminanzanalyse. Hingegen klassifizieren KNN, im Sinne eines Fehlers 1. Art, häufiger leistungsgestörte Unternehmen als nicht leistungsgestört (vgl. Abbildung 10). Zu einem entgegengesetzten Ergebnis gelangen Odom und Sharda [56], in deren Studie das KNN mehr „bankrotte" Unternehmen erkennt (80 %:60 %). Tam und Kiang [87] bestätigen den Vorteil der KNN hinsichtlich des Fehlers 1. Art und stellen schlechtere Ergebnisse bezüglich des Fehlers 2. Art fest. In ihrer Studie vergleichen sie MLP mit Diskriminanzanalyse (DA), logistischer Regression mit vorgelagerter Faktoranalyse (LR) und dem nächsten Nachbar Klassifikator (KNNb) ein bzw. zwei Jahre im Voraus (KNN:DA:LR:KNNb, Fehler 1. Art: 9:22,7:22,7:36,4 für das erste Jahr bzw. 2,5:35:30:30 für das zweite Jahr im Voraus, Fehler 2. Art: 18:9,1:9,1:9,1 für das erste Jahr bzw. 20:0:0:10 für das zweite Jahr im Voraus). Yoon u.a. [105] ermitteln als Klassifikationsergebnis, dass MLP der Diskriminanzanalyse mit 76 % zu 63 % um absolute 13 % überlegen sind. Allerdings unterscheiden sie dabei nicht nach Fehler 1. und 2. Art. Eine schlechtere Prognosegenauigkeit von 5 % gegenüber konventionellen statistischen Verfahren und ökonometrischen Techniken erzielen die KNN bei Suret u.a. [86]. Dabei prognostizieren sie mit auf zwei verschiedene Arten trainierten MLP die Richtung
322
Janetzke, Falk
der Gewinnänderung (Zunahme bzw. Einbuße) von 2940 amerikanischen Unternehmen anhand von 28 verschiedenen Unternehmensfinanzdaten.
Klassifikationsvergleich OD T~ OU
D DA Kranke
1 1 1 1
.E 20 -]i±! 10 J
5 -i1
1 1 1 1 2
II 1 1 1
D KNN Kranke D DA Gesunde • KNN Gesunde
3
Perioden
Abb. 10: Vergleich von KNN und Diskriminanzanalyse (Fehler 1. und 2. Art) Einen Vergleich mit einem Verfahren auf Basis rekursiver Partitionierung beschreiben McKee und Greenstein (vgl. [47]). Dabei zeigt sich, dass KNN bei der Vorhersage von „Bankrottereignissen" eine Trefferquote von 86 bis 91 % erzielen, das entwickelte Verfahren hingegen 95 bis 98 %. 17.5 Hybridsysteme In zunehmenden Maße werden unterschiedliche Verfahren der Kl gemeinsam in betrieblichen Prognosesystemen verwendet. Nach einer Darstellung verschiedener Formen der Hybridsysteme veranschaulichen Systembeispiele das Zusammenspiel der KlMethoden. 17.5.1 Formen von Hybridsystemen 17.5.1.1 Expertensystem in Verbindung mit Künstlichem Neuronalem Netz Bei Hybridsystemen, die aus einem XPS und KNN aufgebaut sind, dient das KNN dem XPS vorwiegend als Methode. Die Erweiterung von Experten- zu Hybridsystemen wird durch die flexible Wissensbasis (vgl. Abschnitt 17.2.2) und die Trennung der Wissensbasis von der Methodenbank unterstützt. Die Wissensbasis wird um Regeln, die geeignete Netze auswählen, und die Methodenbank um bestimmte KNN erweitert. Da das XPS als Schnittstelle zwischen Anwender und KNN fungiert, kann das KNN einerseits von einem Nichtexperten eingesetzt werden. Andererseits wird die Prognosegenauigkeit der KNN vom XPS dadurch gesteigert, dass es (unvorhergesehene) Ereignisse und Tatsachen, die in der Prognose der KNN nicht eskomptiert sind, a posteriori berücksichtigt. XPS verfügen über
Der Beitrag der Kl zur betrieblichen Prognose
323
verschiedene Möglichkeiten, mit Prognosen angeschlossener KNN umzugehen. Die prognostizierten Daten können analysiert, gewertet und bei unberücksichtigten Veränderungen venA/orfen oder berichtigt werden. Das XPS kann auch das Training des KNN erleichtern (vgl. [101], S. 148). In einer bisher weniger verbreiteten Form der Zusammenarbeit von XPS und KNN identifiziert das XPS aus dem Datenmaterial problemspezifische Schlüsselindikatoren und bereitet Zwischenwerte auf, die das KNN anschließend als Eingabedaten übernimmt. Durch diese intelligente Vorverarbeitung sollen die Trainingszeit des KNN verkürzt und bessere Prognosen erreicht werden [44]. Neben der Form XPS und KNN finden sich auch Hybridanwendungen, bei denen statt der XPS regelbasierte Systeme zum Einsatz kommen. Regelbasierte Systeme verfügen ebenfalls über eine Menge von Regeln. Das Zusammenspiel zwischen Regeln und KNN kann grundsätzlich ähnlich zu der von XPS und KNN stattfinden (vgl. [18], [92]). Eine weiterführende Form des Zusammenspiels zwischen regelbasierten Systemen und KNN beschreiben Siekmann u.a. [72]. Dort lernt das KNN das explizite, in Form von Wenn-Dann-Regeln präsentierte, Expertenwissen. Das KNN, das auch Fuzzy-Elemente beinhaltet, wird trainiert und zur Erstellung der Prognose eingesetzt. Aufgrund des semantikerhaltenden Lernverfahrens sind die Prognosen des KNN nachvollziehbar und im Sinne der ursprünglichen Regeln interpretierbar. Einen auf der Grundlage von Fuzzy-Logik entwickelten Ansatz für die Prognose des Absatzes von Fahrzeugersatzteilen beschreiben Müller und Wendisch [53]. Darin werden über Methoden der Mustererkennung typische Muster von Verlaufstypen von Lebenszyklen ermittelt. Die Zuordnung eines Produkts zu dem jeweiligen Muster erfolgt wissensbasiert über fuzzy-basierte Zuordnungsregeln. 17.5.1.2 Erweiterung um Ansätze aus der Genetik Mit Genetischen Algorithmen (GA) wird versucht, die Mechanismen der Genetik biologischer Systeme nachzubilden. GA wenden Vererbungsprinzipien wie Mutation und Crossover auf Populationen von Chromosomen an. Überträgt man die Prognoseprobleme dann in die Welt der Genetik, ermöglichen die GA die Optimierung regelbasierter Wissensbasen sowie von Topologien, Gewichtsvektoren und Trainingsdatensätzen der KNN (vgl. [54], [44]). Bei der Optimierung regelbasierter Wissensbasen betrachtet man Regeln als „Chromosome", deren Prämissen und Konklusionen durch Crossover und Mutation genetisch variiert werden. Diese neuen Regeln werden evaluiert und zur alten „Chromosomenmenge" hinzugefügt. Bei KNN deutet man die Topologien sowie die Gewichte an den Kanten einzelner Netze als „Chromosome". Beispielsweise können die Spezifika des Netzaufbaus, wie die Anzahl der Schichten oder die Anzahl der Elemente pro Schicht, durch Crossover und Mutation „genetisch" verändert werden. Die besten der neu entstandenen Netze ergänzen die alte „Chromosomenmenge". Das Anlernen der MLP und damit die Approximation an Trainingsdatensätze wird durch genetisch veränderte Gewichtsvektoren erreicht. Bohn u.a. setzen die GA bereits bei der Auswahl von Input-Werten für die KNN ein (vgl. [11]).
324
Janetzke, Falk
Eine andere Form der Evolution beschreiben Heyder und Zayer [31]. Durch den Einsatz von Methoden der Physik wie Simulated Annealing werden optimale Vertreter von Populationen von KNN ausgewählt. Variierend mit der Aufgabenstellung können dabei unterschiedliche Vertreter „zuständig" sein. GA können selbst auch zur Wissensakquisition eingesetzt werden. So nutzen Kim und Han GA zur Ableitung von Regeln, um die Ereignisprognose „Firmenbankrott" durchzuführen (vgl. [36]). 17.5.1.3 Interagierende Künstliche Neuronale Netze Lerntechniken können sich nicht nur auf ein einzelnes, sondern auch auf einen Verbund von KNN erstrecken. Error-Backpropagation und genetische Veränderung der Gewichtsvektoren gehören den Individualtechniken an. In einem „Netz von Netzen" lernen die einzelnen KNN - in diesem Zusammenhang als adaptive Agenten bezeichnet - einerseits durch Imitation des beobachteten Verhaltens anderer Netze. Ein Agent ahmt dabei z. B. das leistungsstärkste Netz nach. Implementierungstechnisch realisiert man dies derart, dass der imitierende Agent seinen Ausgabewert mit dem des nachgeahmten Agenten vergleicht und die Differenz durch Backpropagation zurückführt. Andererseits können sich die Netze durch direkten Informationsaustausch trainieren, indem sie Resultate oder genetisch veränderte Gewichtswerte transferieren. In der betrieblichen Prognosepraxis sollen die Verbundtechniken bei Agentenmodellen von „neuronalen" Aktienhändlern, die dann Kursentwicklungen gemeinsam errechnen, eingesetzt werden [46]. 17.5.2 Anwendungen 17.5.2.1 Expertensystem und Künstliche Neuronale Netze In einem System zur Prognose des Erfolgs von Bauprojekten werden KNN und XPS gemeinsam verwendet (vgl. [2]). Das zugrunde liegende KNN ist ein MLP mit drei Schichten. Den acht Eingabeneuronen werden dabei z. B. die Cash-Flow-Situation der Baufirma, der Erfolg deren Managements, die Bestellsituation für Material und Geräte angeboten. Am Neuron der Ausgabeschicht ist dann die Prognose abzulesen. Dem XPS kommt die Aufgabe zu, die Ist-Situation des Bauprojekts zu analysieren. In einem Warenhandelssystem werden die Prognosen eines KNN von einem XPS durch „money management ruies" [8] weiterverarbeitet. Das XPS sichert den Handel mit Waren durch Risikomanagement ab. Es bestimmt Stop-Ioss-Grenzen für den Fall falscher, nicht eingetretener Prognosen oder setzt Grenzen für Gewinnmitnahmen bzw. nachfolgende Stop-Ioss-Absicherungen fest. Der Unsicherheit, ob starke Veränderungen im „Umfeld" schon in den Prognosen der KNN berücksichtigt sind, begegnet das XPS, indem es bei Schwankungen von Indikatoren, die über Sicherheitslimits hinaus als Zeichen hoher Marktvolatilität anzusehen sind, von einem Vetorecht Gebrauch macht. Das System ISSS [104], das in Abbildung 11 zu sehen ist, nutzt ebenfalls Synergieeffekte im Managementbereich. Ein KNN, der „Neural Forecaster" [103], stellt dem XPS,
Der Beitrag der Kl zur betrieblichen Prognose
325
das als „Fuzzy Net" implementiert ist, „Stock Market Forecasts" zur Verfügung. Dieses wählt als Portfoliomanager mithilfe von „Company-, industry- and country-based ruies" geeignete Länder und Aktien aus. Der NeuroForecaster der NIBS Pte Ltd in Singapur [55] arbeitet mit zwölf verschiedenen Modellen von Fuzzy-KNN und eignet sich daher für unterschiedlichste Anwendungsgebiete. Neben Aktien- und Wechselkursprognosen sind beispielsweise auch Vorhersagen des Lagerabgangs oder des Bruttoinlandsprodukts möglich.
Data Base
u Neural Forecaster
Fuzzy Net
stock market forecast country list
Country Selection
stock list
Port folio
Stock Selection
Rule Base
Abb. 11: Hybridsystem ISSS Den Nachteil der KNN, ökonomisch-wirksame Besonderheiten in den prognostizierten Daten ungenau, im schlimmsten Fall gar nicht vorwegzunehmen, versucht das im Folgenden beschriebene Hybridsystem durch Nachbesserungen der Prognose auszugleichen. Dieser Mechanismus ist für die Prognoserechnung interessant, da das XPS überlagerte und damit neue Vorhersagen erstellt und nicht wie die beiden bisher vorgestellten Hybridsysteme die Prognosen der KNN „nur" bewertet. Das Hybridsystem von Bowen und Bowen [12] versucht, ökonomisch-wirksame Besonderheiten durch Nachbesserungen zu berücksichtigen. Dabei wird der Lagerbedarf mit Wissen über „special events" [43], die das gesamte Lagernetzwerk betreffen, und Wissen über die aktuelle Lagerstätte vorhergesagt. Um allgemeine Lagerprognosen zu erstellen, trainiert man das KNN nicht mit Daten über einzelne Standortfaktoren. Daher müssen solche Faktoren, ebenso die „special events", in die Korrektur des XPS einbezogen werden. Den Einsatz eines Hybridsystems aus einem KNN und regelbasierten Systemen zur Prognose des kurzfristigen Strombedarfs beschreiben Chiu u.a. [18]. Das verwendete MLP besteht aus drei Schichten. Als Eingabe erhält das KNN dabei alte Bedarfswerte sowie Prognosewerte, die regelbasiert erstellt wurden. Ein System, bei dem regelbasiert Trainingsdaten für ein KNN ermittelt werden, beschreiben Tsaih u.a. [92]. Die vom KNN erzeugten Prognosen des S&P 500 Index sind Grundlage eines Tradingsystems für Future-Kontrakte.
326
Janetzke, Falk
17.5.2.2 Künstliche Neuronale Netze und andere Verfahren Der FX Trader der Citibank London ist ein aus GA und KNN aufgebautes Hybridsystem, das Wechselkursänderungen prognostizieren kann [44]. Der GA stellt in einem Vorverarbeitungsprozess geeignete Trainingsdatensätze zusammen, indem er solche Kombinationen technischer Indikatoren (z. B. bestimmte Wechselkurszeitreihen) identifiziert, die die größte „Forecasting Power" besitzen. Aus den Kombinationen abgeleitete Werte werden dem KNN zugeführt, das anschließend eine „Kaufen"- oder „Verkaufen"-Entscheidung für die untersuchte Währung trifft. Nag und Mitra beschreiben ein Hybridsystem zur täglichen Prognose von Wechselkursen. Die Prognosen werden mit MLP erstellt. GA dienen der Optimierung der Topologieparameter der MLP, wie z. B. der Anzahl der Inputneuronen, der Anzahl der verdeckten Schichten oder der Anzahl der Neuronen je verdeckter Schicht (vgl. [54], S. 503 f.). Das Zusammenspiel von KNN und Fuzzy-Logik beschreiben Ragg u.a. [62]. Dort werden für ca. 112.000 Verkaufsstellen tägliche Verkaufsprognosen für Zeitungen erstellt. Für die Verkaufsprognosen werden durch KNN Basisprognosen erzeugt, zu denen noch Reservebestände addiert werden. Die Reservebestände werden mittels FuzzyLogik bestimmt. Ein komplexes Hybridsystem zur Verkaufsprognose stellt Kuo [38] vor. Basisprognosen werden mit klassischen MLP erzeugt. Promotions werden besonders behandelt, indem deren Auswirkungen separat mit Fuzzy KNN vorhergesagt werden. Über ein weiteres KNN werden die Einzelprognosen dann verdichtet. GA dienen zur Optimierung der Architektur der Fuzzy KNN. 17.6 Ausblick Der Trend, verschiedene Konzepte der Künstlichen Intelligenz gemeinsam im Rahmen der Prognose einzusetzen, wird sich fortsetzen (vgl. [100], S. 1047). So treten neben die KNN nach deren Hochzeit Mitte der 90er Jahre betriebliche Anwendungen auf Basis weiterer Konzepte der Künstlichen Intelligenz wie der Genetischen Algorithmen oder der Fuzzy-Logik in Erscheinung. Analog der Integration der KNN, nach deren Etablierung als Prognoseverfahren, in die Expertensystem-Technologie, ist auch eine gemeinsame Nutzung dieser neuen Konzepte zu erwarten. Ob KNN selbst in der Lage sein werden, die Rolle von Expertensystemen zu übernehmen, indem sie z. B. Prognosemethoden auswählen bzw. kombinieren, wird sich zeigen. Auch die Frage, welchen weiteren Netzwerkmodellen der Durchbruch im betrieblichen Prognoseeinsatz gelingt, bleibt abzuwarten. Das Potenzial der Künstlichen Intelligenz als Beitrag zur Prognoserechnung ist zum heutigen Zeitpunkt sicherlich noch nicht ausgeschöpft. 17.7 Literatur [1]
Adya, M. und Collopy, F., How Effective are Neural Networks at Forecasting and Prediction? A Review and Evaluation, Journal of Forecasting 17 (1998), S. 481 ff.
Der Beitrag der Kl zur betrieblichen Prognose [2] [3] [4]
[5]
[6]
[7]
[8]
[9]
[10] [11]
[12]
[13] [14] [15]
[16]
[17] [18]
[19]
[20]
327
Al-Tabtabai, H., A Framework for developing an expert analysis and forecasting System for construction projects, Expert Systems With Applications 14 (1998), S. 259 ff. Arinze, B., Kim, S.L. und Anandarajan, M., Combining and selecting forecasting models using ruie based induction, Computers & Operational Research 24 (1997) 5, S. 423 ff. Armstrong, J.S. und Collopy, F., Integration of Statistical Methods and Judgement for Time Series Forecasting: Principles from Empirical Research, S.1-31 reproduced from Wright, G. u.a. (Hrsg.), Forecasting with Judgement, 1998, S. 269 ff. Armstrong, J.S., Adya, M. und Collopy, F., Ruie-based Forecasting: Using Judgement in Time-Series Extrapolation, in: Armstrong, J.S. (Hrsg.), Principles of Forecasting, Norwell 2001, S. 259 ff. Arrus, R., Ollivier, M., Deord, B., Duvillon, M.A. und Robert, S., AMIA: An Expert System for Simulation Modelling and Sectoral Forecasting, in: Hashemi, S. u.a. (Hrsg.), Expersys-91, Gournay sur Marne 1991, S. 263 ff. Baun, S. und Isbert, H.-O., Der Einsatz Neuronaler Netze in der Finanzwirtschaft, in: Nagl, M. (Hrsg.): Congressband VI zur 16. Europäischen Congressmesse für Technische Kommunikation, Software- und Information Engineering, Velbert 1993, S. C611.01 ff. Bergerson, K, A Commodity Trading Model Based on a Neural Network-Expert System Hybrid, in: IEEE (Hrsg.), Proceedings of the International Joint Conference on Neural works. Vol. 1, Seattle 1991, S. 289 ff. Binks D.L. und Allinson N.M., Financial Data Recognition and Prediction Using Neural Networks, in: Kohonen, T. u.a. (Hrsg.), Proceedings of the International Conference on Artificial Neural Networks, Vol. 2, Espoo 1991, S. 1709 ff. Blanchard, D., Expert System Predicts Top Five Stocks, Intelligent Systems Report 9 (1992)2, S. 15. Bohn, A., Güting, Th., Mansmann, T. und Seile, St., MoneyBee: Aktienkursprognose mit künstlicher Intelligenz bei hoher Rechenleistung, Wirtschaftsinformatik 45 (2003) 3, S. 325 ff. Bowen, J.E. und Bowen, W.E., Neural Nets vs. Expert Systems: Predicting in the Financial Field, in: IEEE (Hrsg.), Proceedings of the Conference on Artificial Intelligence Application Vol. 1, San Diego 1990, S. 72 ff. Brause, R., Neuronale Netze, Stuttgart 1991. Callen, J.L., Kwan, C.C.Y., Yip, P.C.Y. und Yuan, Y., Neural network forecasting of quarterly accounting earnings. International Journal of Forecasting 12 (1996), S. 475 ff. Chen, A.-S., Leung, M.T. und Daouk, H., Application of neural networks to an emerging financial market: forecasting and trading the Taiwan Stock Index, Computers & Operations Research 30 (2003), S. 901 ff. Cherkassky, V., Lee, Y, und Hossein, L. H., Self-Organizing Network for Regression: Efficient Implementation and Comparative Evaluation, in: IEEE (Hrsg.), Proceedings of the International Joint Conference on Neural Networks, Vol. 1, Seattle 1991, S. 79 ff. Chiang, W.-C, Urban, T.L. und Baldrigde, D.E., A Neural Network Fund Net Asset Approach to Mutual Value Forecasting, Omega 24 (1996) 2, S. 205 ff. Chiu, C.-C, Kao, L.-J. und Cook, D.F., Combining a Neural Network with a Ruie-Based Expert System Approach for Short-Term Power Load Forecasting in Taiwan, Expert Systems With Applications 13 (1997) 4, S. 299 ff. Chun, S.-H., Kim, K-J. und Kim, S.H., Chaotic analysis of predictability versus knowledge discovery techniques: case study of the Polish stock market, Expert Systems 19 (2002) 5, S. 264 ff. Collopy, F., Adya, M. und Armstrong, J.S., Expert Systems for Forecasting, in: Armstrong, J.S. (Hrsg.), Principles of Forecasting, Norwell 2001, S. 285 ff.
328 [21]
[22]
[23]
[24] [25]
[26]
[27] [28] [29] [30]
[31] [32] [33] [34]
[35] [36] [37]
[38]
[39]
[40]
Janetzke, Falk Cortes-Rello, E. und Golshani, F., Uncertain Reasoning Using the Dempster-Shafer Method: An Application in Forecasting and Marketing Management, Expert System (1990)1,3.9 ff. Darbellay, G.A. und Slama, M., Forecasting the short-term demand for electricity - Do neural networks stand a better Chance?, International Journal of Forecasting 16 (2000), S. 71 ff. Dash, P.K., Liew, A.C., Rahman, S. und Ramakrishna, G., Building a Fuzzy Expert System for Electric Load Forecasting Using a Hybrid Neural Network, Expert Systems With Applications 9 (1995) 3, S. 407 ff. Eom, S.B., A Survey of Operational Expert Systems in Business (1980-1993), Interfaces, 26 (1996) 5, S. 50 ff. Erxieben, K., Baetge, J., Feidicker, M., Koch, H., Krause, C. und Mertens, P., Klassifikation von Unternehmen - Ein Vergleich von Neuronalen Netzen und Diskriminanzanalyse, Zeitschrift für Betriebswirtschaft 62 (1992), S. 1237 ff. Fildes, R., Bretschneider, S., Collopy, F., Lawrence, M., Stewart, D., Winkihofer, H., Mentzer, J.T. und Moon, M.A., Researching Sales Forecasting Practice, International Journal of Forecasting 19 (2003), S. 27 ff. Fletcher D. und Goss, E., Forecasting with Neural Networks - An Application Using Bankruptcy Data, Information & Management 24 (1993), S. 153 ff. Flores, B.E. und Pearce, St.L., The use of an expert System in the M3 competition, International Journal of Forecasting 16 (2000), S. 485 ff. Flores, B. und Wolfe, C, Judgemental Adjustment of Earning Forecasts, Journal of Forecasting 9 (1990), S. 389 ff. Hansmann, K. und Zetsche, W., Business Forecasts Using a Forecasting Expert System, in: Schader u.a. (Hrsg.), Knowledge, Data and Computer-Assisted Decisions, Berlin u.a. 1990, S. 289 ff. Heyder, F. und Zayer, St., Analyse von Kurszeitreihen mit Künstlichen Neuronalen Netzen und Competing Experts, Wirtschaftsinformatik 41 (1999) 2, S. 13 ff. Humpert, B. und Holley, P., Expert Systems in Finance Planning, Expert Systems 2 (1988)2, S. 85 ff. Indro, D.C., Jiang, C.X., Patuwo, B.E. und Zhang, G.P., Predicting mutual fund Performance using artificial neural networks, Omega 27 (1999), S. 373 ff. Jo, H., Han, I. und Lee, H., Bankruptcy prediction using Case-Based Reasoning, Neural Networks, and Discriminant Analysis, Expert Systems With Applications 13 (1997) 2, S. 97 ff. Keyes, J., Expert Systems in Financial Services - Off-the-Shelf Financial Expertise, Expert Systems 2 (1991) 4, S. 54 ff. Kim, M.-J. und Han, I., The discovery of experts' decision ruies from bankruptcy data using genetic algorithms, Expert Systems With Applications 25 (2003), S. 637 ff. Kumar, S. und Hsu, C , An Expert System Framework for Forecasting Method Selection, in: IEEE (Hrsg.), Proceedings of the Twenty-First Annual Hawaü International Conference on System Sciences, Band III: Decision Support and Knowledge-Based System Track, Honolulu 1988, S. 86 ff. Kuo, R.J., A sales forecasting System based on fuzzy neural network with initial weights generated by genetic algorithm. European Journal of Operational Research 129 (2001), S. 496 ff. Leigh, W., Paz, M. und Purvis, R., An analysis of a hybrid neural network and pattern recognition technique for predicting short-term increases in the NYSE composite index, Omega 30 (2002), S. 69 ff. Leonard, K.J., The development of a ruie based expert System model for fraud alert in consumer credit. European Journal of Operational Research 80 (1995), S. 350 ff.
Der Beitrag der Kl zur betrieblichen Prognose [41] [42] [43] [44] [45]
[46]
[47] [48] [49] [50]
[51] [52] [53]
[54] [55] [56]
[57] [58] [59] [60] [61] [62] [63]
[64]
329
Leung, MT., Chan, A.-S., Daouk, H., Forecasting exchange rates using generai regression neural networks, Computers & Operations Research 27 (2000), S. 1093 ff. Lind, M.R. und Suiek, J., A methodology for forecasting knowledge work projects, Computers & Operations Research 27 (2000), S. 1153 ff. Liu, X., Using Experimental and Fundamental Knowledge Diagnosis in Load Forecasting, in: Hashemi, S. u.a. (Hrsg.), Expersys-91, 1991, S. 257 ff. Loofbourrow, T., Advanced Trading Technologies: Artificial Intelligence on Wall Street Worldwide, Intelligent Software Strategies 8 (1992) 11, S. 1 ff. Malhotra, R. und Malhotra, D.H., Differentiating between good credits and bad credits using neuro-fuzzy Systems, European Journal of Operational Research 136 (2002), S. 190 ff. Margarita, S., Interacting Neural Networks: An Artificial Life Approach for Stock Markets, in: Aleksander, I. u.a. (Hrsg.), Proceedings of the International Conference on Artificial Neural Networks, Brighton 1992, S. 1343 ff. McKee, Th.E. und Greenstein, M., Predicting Bankruptcy Using Recursive Partitioning and a Realistically Proportioned Data Set, Journal of Forecasting 19 (2000), S. 219 ff. Medsker, L. und Turban, E., Integrating Expert Systems and neural Computing for decision Support, Expert Systems with Applications 7 (1994) 4, S. 553 ff. Mertens, P., Integrierte Informationsverarbeitung 1, 9. Aufl., Wiesbaden 1993. Mertens, P. und Backert, K, Vergleich und Auswahl von Prognoseverfahren für betriebswirtschaftliche Zwecke, in: Mertens, P. (Hrsg.), Prognoserechnung, 4. Aufl., Würzburg-Wien 1981, S. 344 ff. Mertens, P., Borkowski, V. und Geis, W., Betriebliche Expertensystem-Anwendungen, 3. Aufl., Berlin u.a. 1993. Moore, J.S., An Expert System Approach to Graduate School Admission Decisions and Academic Performance Prediction, Omega 26 (1998) 5, S. 659 ff. Müller, K und Wendisch, M., Entscheidungsunterstützung durch moderne Prognoseverfahren, in: Biethahn, J. u.a. (Hrsg.), Betriebswirtschaftliche Anwendungen des Soft Computing, Wiesbaden 1998, S. 145 ff. Nag, A. und Mitra, A., Forecasting Daily Foreign Exchange Rates Using Genetically Optimized Neural Networks, Journal of Forecasting 21 (2002), S. 501 ff. NIBS Pte Ltd (Hrsg.), Analyze it! Classify it! Forecast it! Intelligent Business Forecast Software NeuroForecaster, Produktprospekt, Singapur 1993. Odom, M. und Sharda, R., Neural Network Model for Bankruptcy Prediction, in: IEEE (Hrsg.), Proceedings of the International Joint Conference on Neural Networks, Vol. 2, San Diego 1990, S. 163 ff. O.V., Merlin: A Factory Knowledge-Based System for Forecasting Product Demand, Intelligent Software Strategies 6 (1990) 11, S. 12 ff. O.V., Expert Forecasting Software, Intelligent Systems Report 9 (1992) 12, S. 16. Pomerol, J.-Ch., Artificial intelligence and human decision making, European Journal of Operational Research 99 (1997), S. 3 ff. Puppe, F., Einführung in Expertensysteme, 2.Aufl., Berlin u.a. 1991. Qi, M. und Yang, S., Forecasting consumer credit card adoption: what can we learn about the Utility function?. International Journal of Forecasting, 19 (2003), S. 71 ff. Ragg, Th., Menzel, W., Baum, W. und Wigbers, M., Bayesian learning for sales rate prediction for thousands of retailors, Neurocomputing 43 (2002), S. 127 ff. Rehkugler, H. und Podding, T., Statistische Methoden versus Künstliche Neuronale Netzwerke zur Aktienprognose, - Eine vergleichende Studie -, Bamberger Betriebswirtschaftliche Beiträge Nr. 73, Bamberg 1990. Rehkugler, H. und Podding, T., Künstliche Neuronale Netze in der Finanzprognose: Eine neue Ära der Kursprognosen, Wirtschaftsinformatik 33 (1991), S. 365 ff.
330 [65] [66] [67]
[68] [69] [70] [71]
[72]
[73]
[74] [75] [76]
[77]
[78] [79]
[80]
[81] [82] [83]
[84] [85]
[86]
Janetzke, Falk Remus, W. und O'Connor, M., Neural Networks für time-series forecasting, in: Armstrong, J.S. (Hrsg.), Principles of Forecasting, Norwell 2001, S. 245 ff. Ritter, H., Schulten, K. und Martinez, T., Eine Einführung in die Neuroinformatik selbstorganisierender Karten, Bonn u.a. 1990. Rizzi, L., Bazzana, F., Kasabov, N., Fedrizzi, M. und Erzegovesi, L., Simulation of ECB decisions and forecast of the Short term Euro rate with an adaptive fuzzy expert System, European Journal of Operational Research 145 (2003), S. 363 ff. Schefe, P., Künstliche Intelligenz- Überblick und Grundlagen, 2. Aufl., Mannheim 1991. Schöneburg, E., Stock Price Prediction Using Neural Networks; A Project Report, Neurocomputing 2 (1990), S. 17 ff. Schweneker, O., Entwicklung eines Expertensystems für Absatzprognosen durch konzeptionelles Prototyping, Berlin u.a. 1990. Seidimeier, H., Kostenrechnung und wissensbasierte Systeme: Theoretische Überlegungen und Entwicklung eines prototypischen Anwendungssystems, (Unternehmensentwicklung, Band 10), München 1991. Siekmann, St., Neuneier, R., Zimmermann, H.G. und Kruse, R., Tägliche Prognose des Deutschen Aktienindex DAX mit Neuro-Fuzzy-Methoden, in: Biethahn, J. u.a. (Hrsg.), Betriebliche Anwendungen des Soft Computing, Wiesbaden 1998, S. 161 ff. Sharda, R., und Patil, R.B., Neural Networks as Forecasting Experts: An Empirical Test, in: IEEE (Hrsg.), Proceedings of the International Joint Conference on Neural Networks, Vol. 2, Washington 1990, S. 491 ff. Sharda, R., Neural networks for the MS/OR analyst: an application bibliography, Interfaces 24 (1994), S. 116 ff. Shi, S.M., Xu, L.D. und Liu, B., Improving the accuracy of nonlinear combined forecasting using neural networks, Expert Systems With Applications, 16 (1999), S. 49 ff. Shrinivasan, D., Liew, A.C. und Chen, J.S.P., A Novel Approach to Electrical Load Forecasting Based on a Neural Network, in: IEEE (Hrsg.), Proceedings of the International Joint Conference on Neural Networks, Vol. 2, Singapur 1991, S. 1173 ff. Sieben, G., Diedrich, R., Kirchner, M. und Krautheuser, R., Expertengestützte Ergebnisprognose zur Unternehmensbewertung, Wochenzeitschrift für Betriebswirtschaft, Steuer-, Wirtschafts- und Arbeitsrecht 43 (1990) 1, S. 1 ff. Sink, K., Einsatz Neuronaler Netze im Pharmamarketing, Dissertation, Freiburg 1992. Sisodia, R. und Warkentin, M., Marketing and Expert Systems: Review, Synthesis and Agenda, Liebowitz, J. (Hrsg.), Proceedings of the World Congress on Expert Systems, Orlando 1991, S. 276 ff. Smith, K.A. und Gupta, J.N.D., Neural networks in business: techniques and applications for the Operations researcher, Computers & Operations Research, 27 (2000), S. 1023 ff. Smith, P., Husein, S. und Leonard, D.T., Forecasting Short Term Regional Gas Demand Using an Expert System, 10 (1996) 2, S. 265 ff. Sohl, J.E. und Venkatachalam, A.R., A neural network approach to forecasting model selection, Information & Management 29 (1995), S. 29 ff. Steinmann, D. und Scheer, A.-W., Expertensysteme (ES) in Produktionsplanung und Steuerung (PPS) unter CIM - Aspekten, In: Wildemann H. (Hrsg.), Expertensysteme in der Produktionsplanung, Passau 1987, S. 202 ff. Steiner, M. und Wittkemper, H.-G., Neuronale Netze - Ein Hilfsmittel für betriebswirtschaftliche Probleme, Die Betriebswirtschaft 53 (1993), S. 447 ff. Streitberg, B. und Naeve, P., A Modesty Intelligent System for Identification, Estimation, and Forecasting of Univariant Time Series: A4: ARIMA, Artificial Intelligence, and APL2, in: Haux, R. (Hrsg.), Expert Systems in Statistics, New York 1986, S. 111 ff. Suret, J.-M., Roy, J. und Nicolas, J., Financial Forecasting Using Backpropagation of Error and the Learning Vector Quantization Methods, The Japan Society for Manage-
Der Beitrag der Kl zur betrieblichen Prognose
[87] [88] [89]
[90] [91] [92] [93]
[94] [95] [96]
[97] [98] [99]
[100] [101] [102] [103] [104] [105]
[106] [107]
331
ment Information (Hrsg.), Proceedings of the International Conference on Economics/ Management and Information Technology, Tokio 1992, S. 109 ff. Tam, K.Y. und Kiang, M., Predicting Bank Failures: A Neural Network Approach, Applied Artificial Intelligence 4 (1990), S. 265 ff. Tay, F.E.H. und Cao, L., Application of support vector machines in financial time series forecasting, Omega 29 (2001), S. 309 ff. Thiesing, P.M. und Vornberger, O., Abverkaufsprognose im Supermarkt mit Neuronalen Netzen, in: Biethahn, J. u.a. (Hrsg.), Betriebswirtschaftliche Anwendungen des Soft Computing, Wiesbaden 1998, S. 115 ff. Tkacz, G., Neural network forecasting of Canadian GDP growth. International Journal of Forecasting 17 (2001), S. 57 ff. Topalli, A.K. und Erkmen, I., A hybrid learning for neural networks applied to Short term load forecasting, Neurocomputing 51 (2003), S. 495 ff. Tsaih, R., Hsu, Y. und Lai, Ch.C, Forecasting S&P 500 stock index futures with a hybrid Al System, Decision Support Systems 23 (1998), S. 161 ff. Ulbricht, C, Dorffner, G., Canu, S., Guillemyn, D., Marijuan, G., Olarte, J., Rodriguez, C. und Martin, L, Mechanisms for Handling Sequences with Neural Networks, Bericht Nr. 29 des Österreichischen Forschungsinstituts für Artificial Intelligence, Wien 1992. Venkatachalam, A.R. und Sohl, J.E., An Intelligent Model Selection and Forecasting System, Journal of Forecasting 18 (1999), S. 167 ff. Volmer, R. und Lehrbaß, F.B., Kohonens selbstorganisierende Karten und der Terminkontrakt auf den DAX, Wirtschaftsinformatik 39 (1997) 4, S. 339 ff. Walter, J., Ritter, H. und Schulten , K., Non Linear Prediction with Selforganizing Maps, in: IEEE (Hrsg.), Proceedings of the International Joint Conference on Neural Networks, Vol.1, San Diego 1990, S. 589 ff. Weber, K., Prognosemethoden und -Software, Idstein 1991. Wilson, I.D., Paris, S.D., Ware, J.A. und Jenkins, D.H., Residential property price time series forecasting with neural networks, Knowledge-Based Systems 15 (2002), S. 335 ff. Windsor, C. und Harker, A., Multi-Variate Financial Index Prediction - A Neural Net Study, in: IEEE (Hrsg.), Proceedings of the International Neural Network Conference, Vol.1, Paris1990, S. 357ff. Wong, B.K., Lai, V.S. und Lam, J., A bibliography of neural network business applications, Computers & Operations Research 27 (2000), S. 1047 ff. Wong, B.K. und Monaco, J.A., Expert System applications in business: A review and analysis of the literature (1977-1993), Information & Management 29 (1995), S. 141 ff. Wong, B.K., und Seivi, Y., Neural network applications in finance: A review and analysis of the literature (1990-1996), Information & Management 34 (1998), S. 129-139. Wong, F.S., Time Series Forecasting Using Backpropagation Neural Networks, Neurocomputing 2 (1990/91), S, 147 ff. Wong, F.S. und Wang, P.Z., A Stock Selection Strategy Using Fuzzy Neural Networks, Neurocomputing 2 (1990/91), S. 233 ff. Yoon, Y., Swales, G. und Margavio, T.M., A Comparison of Discriminant Analysis versus Artificial Neural Networks, Journal of the Operational Research Society 44 (1993), S. 51 ff. Zadeh, L., A theory of approximate reasoning, in: Hayes, J., u.a. (Hrsg.), Machine Intelligence, Vol. 9, New York 1979, S. 149 ff. Zhang, G., Patuwo, E.B. und Hu, M.Y., Forecasting with artificial neural networks: The State of the art. International Journal of Forecasting 14 (1998), S. 35 ff.
332
Janetzke, Falk
17.8 Anhang: Tabellarische Übersicht der im Beitrag erwähnten Systeme Tabelle 1 Systemname
Anwendung
Methoden
Quelle
ten-
A4 ALFA
m.-st. m.-st.
[85] [43]
sys-
AMIA
Methodenauswahl und -anwendung Erstellung und Diagnose von Abgangsprognosen (z. B. Wasserverbrauch) Prognosemethodenmodellierung und -anwendung Prognose Abgangsprognose von Gas
m.-st.
[6]
m.-st.
[81]
Methodenauswahl und -anwendung
m.-st. m.-st., DR
KlBereich Exper-
tem Crystal DEMI ELIED FOCA Forecast Pro Interest Rate Insight Macro*World Investor
m.-st. m.-st.
[83] [70] [30], [97] [35], [97]
Finanzprognose (z. B. Zinssatz) Finanzprognose (z. B. Aktien)
ökon. Mod. m.-st., DR
Management Advisor Merlin
Absatzprognose, Planung Lagerabgangsprognose
m.-st., DR m.-st, DR
[57]
Prognex RBF
Unternehmensbewertung
m.-st.
[77]
Methodenauswahl und -anwendung
m.-st.
Absatzprognose
m.-st, DR m.-st, DR DR
[4] [79] [58] [40]
Sales Forecaster SmartForecaster XPS ohne Namen
[35] [10] [32]
XPS ohne Namen
Absatzprognose Bewertung Kundenverhalten (Prognose Betrugsverhalten) Methodenauswahl Marketing, Methodenauswahl
m.-st. m.-st ?
[37]
XPS ohne Namen XPS ohne Namen XPS ohne Namen
Methodenauswahl
m.-st ?
[3]
Methodenauswahl und -anwendung
m.-st, DR
XPS ohne Namen XPS ohne Namen
Absatzprognose, Absatzplanung
m.-st, DR DR
[21] [83]
XPS ohne Namen XPS ohne Namen XPS ohne Namen
Wechselkursprognose Prognose akademischer Performance Prognose monatlicher Nachfrage nach Industrieprodukten Lagerabgangsprognose
DR DR m.-st.
[8] [52] [28]
KNN, DR
Wechselkursprognose Aktienprognose
KNN KNN
[12] [44] [46]
KNN KNN
[104] [55]
KNN
[8]
Hybridsystem ohne Namen PAFEX Hybridsystem ohne Namen Hybridsystem ohne Namen
Finanzprognose (z. B. Aktienkurs) verschieden (z. B. Finanz- und Absatzprognose) Finanzprognose, Planung für Warenhandel Absatzprognose (Zeitungen) Prognose Erfolg von Bauprojekten Prognose Strombedarf Prognose S&P 500 z. Trading von Futures
KNN, Fuzzy KNN
[62]
Hybridsystem ohne Namen Hybridsystem ohne Namen
Prognose Wechselkurse Prognose Verkauf
Hyb-
ATMES
ridsys-
FX Trader Interagierende KNN (ohne Namen) ISSS NeuroForecaster
teme
Absatzprognose auf dem Buchmarkt Methodenauswahl und -anwendung Methodenauswahl und -anwendung
Hybridsystem ohne Namen
frühzeitige Materialeinzelkostenprognose
KNN KNN KNN, GA KNN, GA Fuzzy
[79]
[71]
[2] [18] [92] [54] [38]
1
Der Beitrag der Kl zur betrieblichen Prognose
333
Abkürzungen KNN DR Charts m.-st. ökon.
Künstliches Neuronales Netz Daumenregeln (empirisches Prognoseverfahren) Charttechniken mathematisch-statistisch ökonometrisch
Tabelle 2 Kl-Bereich
Anwendung
Neuronale
Finanzprognose
Netze
Finanzprognose (DAX)
Topologie 1 Selbstorganisierende Karten Selbstorganisierende ' Karten: 37*37 Neuronen
Quelle [9] [95]
Finanzprognose (Zinssatz, Wechselkurs Dollar)
MLP: x-x-x
[7]
Finanzprognose (Unternehmensklassifikation)
MLP: X-4-4-X
[25]
Finanzprognose (Unternehmensbankrott)
MLP: 3-4-1
[27]
Finanzprognose (Unternehmensbankrott)
MLP: 5-X-1
[56]
Finanzprognose (Aktienkurs)
MLP: 3-3-1
[63]
Finanzprognose(Aktienkurs)
MLP: 10-10-10-1
[69]
Abgangsprognose (Wasserverbrauch)
MLP: x-x-x-1
[76]
Finanzprognose (Gewinnentwicklung)
MLP: 28-40-2
[86]
Finanzprognose (Unternehmensbankrott)
MLP: 19-10-1
[87]
Finanzprognose (Zinssatz)
MLP: X-4-X
[99]
Finanzprognose (Aktienkurs)
MLP: 10-16-9-1
[104]
Finanzprognose (Aktienkurs)
MLP: 4-2-2
[105]
Finanzprognose
MLP: x-x-x
Finanzprognose (Aktienindex) Abgangsprognose (Gasverbrauch, Fahrzeugersatzteile)
Fuzzy KNN MLP: x-x-x
[11] [72] [53]
Absatzprognose (Artikelabsatz im Supermarkt)
MLP: x-4-1
[89]
Prognose Wert von Fonds
MLP
[17]
Prognose Wert von Fonds
MLP: 7-X-1
[33]
Prognose Finanzindex
MLP: x-x-x
[39]
Prognose Kundenverhalten im Kreditkartenbereich
MLP: x-x-x
[61]
Prognose kurzfristiger Stromverbrauch
MLP: x-x-x
[91]
Prognose Hauspreis
MLP: x-x-x-1
[98]
Kombination Prognose
MLP: 3-X-X-1
[75]
Auswahl Prognoseverfahren
MLP: 11-X-3
[82]
Prognose Quartalszahlen
MLP: 4-X-1
[14]
Abkürzung und Erläuterung: X (Topologie) 3-3 (Topologie) 1 bis 2 (Topologie)
= nicht mit Bestimmtheit angebbar bzw. nicht bekannt = zwei Schichten mit je 3 Neuronenelementen = je nach Anwendung 1 bis 2 Neuronenelemente dieser Schicht
1
18 Monitoring von Prognosemodellen von Ulrich Küsters und Claudia Becker 18.1 Übersicht Frühwarnsysteme (Monitore) spielen in allen Bereichen der Betriebswirtschaftslehre eine wichtige Rolle, um kürzlich eingetretene, aber noch nicht diagnostizierte Entwicklungen und Ereignisse, die für ein Unternehmen von Bedeutung sind, möglichst präzise und frühzeitig zu erkennen. Frühwarnsysteme dienen damit aus betriebswirtschaftlicher Sicht vor allem dem Zweck, mithilfe geeigneter Maßnahmen rechtzeitig auf neue Entwicklungen zu reagieren. Beim Monitoring unterscheidet man zwischen drei unterschiedlichen Vergleichen: 1. 2. 3.
Plan versus Prognose, Plan versus Ist und Prognose versus Ist.
Plan-Prognose- und Plan-Ist-Vergleiche, auf die hier nicht weiter eingegangen wird, werden vor allem im Controlling eingesetzt; siehe dazu unter anderem die Literatur über Kennzahlensysteme wie [52]. Dieser Beitrag konzentriert sich hingegen auf Prognose-lst-Vergleiche mithilfe statistischer Monitore. Prognoseverfahren beruhen im Wesentlichen auf einer Fortschreibung der Muster der Vergangenheit. Dabei entstehen aufgrund von Zufallsschwankungen zwangsläufig Abweichungen zwischen Prognose und Ist, die eine Konsequenz der in der Betriebswirtschaftslehre unvermeidbaren nicht-deterministischen Systeme sind. Zur Modellierung dieser Unsicherheiten werden daher neben den Punktprognosen von Lageparametern oft auch die mit den Prognosen assoziierten Risiken mithilfe von Streuungsschätzern, Konfidenzintervallen und Dichteprognosen beschrieben. Systematische, d. h. nicht-zufällige Abweichungen zwischen Prognose und Ist weisen hier zum einen auf Prozessänderungen wie Niveau- oder Trendverschiebungen hin, denen man möglicherweise durch geeignete betriebswirtschaftliche Maßnahmen (z. B. Erhöhung der Werbeintensität bei Absatzeinbrüchen) begegnen kann. Damit weist das statistische Monitoring in Form von Prognose-Ist-Vergleichen zunächst einmal eine betriebswirtschaftliche Frühwarnfunktion auf, die in der Signalisierung von bereits eingetretenen, aber möglicherweise noch nicht erkannten Prozessänderungen besteht. Zum anderen führen Prozessänderungen unabhängig von den betriebswirtschaftlichen Konsequenzen und Gegenmaßnahmen aber auch zu Problemen bei der Nutzung eines Prognoseverfahrens. Ausreißer, seien es nun singulare, transiente oder auch permanente Effekte, wirken sich je nach Art in unterschiedlichem Ausmaß (a) auf die Modellidentifikation, (b) auf die Schätzung der Modellparameter, (c) auf die Verankerung, die Form und den Verlauf der Prognosefunktion sowie (d) auf die Bewertung der mit der Prognose assoziierten Risiken, also die Verteilung der Prognosefehler aus. Dabei beeinträchtigen singulare und transiente Prozessänderungen die Prognosefunktionen parametrischer Prognoseverfahren (z. B. exponentielle Glättung, Box-Jenkins-Modelle
336
Küsters, Becker
und dynamische Regressionen) meistens stärker als die Prognosefunktionen robuster Verfahren der Zeitreihenanalyse [31]. Sowohl aus betriebswirtschaftlicher als auch aus statistischer Sicht besteht die zentrale Aufgabe des Monitoring zunächst in einer Trennung von zufälligen und systematischen Abweichungen. Liegen systematische Abweichungen vor, so ist (1) eine präzise Diagnose des Zeitpunktes der Prozessänderung und (2) eine zuverlässige Klassifikation des Ausreißertyps erforderlich. Nach der Diagnose einer Prozessänderung bietet sich ein breites Spektrum an Handlungsalternativen an. Dieses reicht vom Ignorieren des Ausreißers über eine ausschließlich statistische Ausreißermodellierung im Prognoseverfahren bis zur Einleitung betriebswirtschaftlicher Gegenmaßnahmen. Singulare und auch transiente Prozessänderungen erfordern typischerweise geringere Korrekturen als Prozessänderungen mit permanenten Auswirkungen. Methodisch bieten sich vier grundsätzlich verschiedene Ansätze zur statistischen Berücksichtigung von Ausreißern und Strukturbrüchen an: 1.
Abbildung des zeitlich veränderlichen Risikos durch Volatilitätsmodelle; dieser Ansatz beschränkt sich im Wesentlichen auf Modelle zur Abbildung von risikorelevanten Ausreißern, die weitgehend mittelwertresistent sind, z. B. ARCH- und GARCH-Modelle [7].
2.
Robuste Modellierung von Zeitreihen, bei denen ausreißerresistente konditionale Erwartungswerte oder Mediane mithilfe nichtparametrischer Verfahren geschätzt werden [31].
3.
Modellierung von Ausreißern und Strukturveränderungen, die iterativ über Diagnose-, Korrektur-, Modellidentifikations- und Schätzschritte mithilfe parametrischer Modelle sequenziell berücksichtigt werden.
4.
Adaption, d. h. dynamisches Lernen von Prognosefunktionsparametern, die eine rasche Korrektur zentraler Parameter wie die Prognoseverankerung und die Anpassungsgeschwindigkeit an die Veränderung der Eigendynamik ermöglicht.
Dieser Beitrag konzentriert sich vor allem auf die beiden letzten Methodengruppen, da diese Ansätze durch die explizite Signalisierung von Ausreißern auch die betriebswirtschaftliche Funktion als Frühwarnsystem erfüllen. Diese Eigenschaft ist sowohl bei robusten Verfahren als auch bei Volatilitätsmodellen nicht unmittelbar vorhanden, obgleich robuste Schätzmethoden auch bei der parametrischen Ausreißermodellierung eine zunehmende Rolle spielen [6]. Abschnitt 18.2 gibt zunächst einen Überblick über die verschiedenen Ausreißertypen sowie deren Konsequenzen. Im Anschluss werden Methoden des Monitoring in zwei gängigen Prognoseverfahren vorgestellt: der exponentiellen Glättung in Abschnitt 18.3 und den Box-Jenkins-Modellen in Abschnitt 18.4. Bei den Monitoren für diese beiden Prognoseverfahren handelt es sich weitgehend um traditionelle und teilweise bereits seit den 60er Jahren bekannte Standard-Methoden, die insbesondere in den letzten Jahren kaum weiter entwickelt wurden. In den Schlussbemerkungen wird noch kurz auf einige weitere Entwicklungen eingegangen.
Monitoring von Prognosemodellen
337
Dieser Beitrag beschränkt sich auf das Monitoring skalarer Zeitreihen {;^i,;^2v.,;^r} ^'^ insgesamt T Beobachtungen. Die simultane Analyse mehrerer Zeitreihen, wie sie etwa in Produkthierarchien vorkommen, wird hingegen nicht behandelt, da die statistische Literatur bisher keine gängigen Lösungskonzepte aufzeigt. Der Zeitpunkt des Auftretens eines Ausreißers wird generisch mit r bezeichnet, obgleich natürlich mehrere Ausreißer auftreten können. Zur Vereinfachung der Nomenklatur werden alle Formen von Prozessänderungen, seien es nun singulare additive Ausreißer, temporäre Übergänge oder auch Strukturbrüche wie permanente Niveauverschiebungen generisch als Ausreißer bezeichnet, da die entsprechende angelsächsische Literatur alle Prozessänderungsarten unter dem Oberbegriff „outlier" behandelt. Die //-stufige Prognose für y^^^ vom Prognoseursprung t wird mit f^ [h) bezeichnet. 18.2 Ausreißertypen und ihre Konsequenzen 18.2.1 Ausreißertypen Eine allgemeine Klassifikation von Ausreißern ist schwierig, da die Definition modellabhängig ist. Während die Box-Jenkins-ARIMA-Methodologie einen umfassenden Rahmen zur Definition, Diagnose und Behandlung von Ausreißern liefert, findet man bei vielen anderen Prognoseverfahren meist nur einfache, heuristische und statistisch unzureichend modellierte Ansätze zum Umgang mit Ausreißern, die sich zudem auf wenige Ausreißerarten beschränken. Abbildung 1, die sich im Wesentlichen an [37] anlehnt, gibt einen Überblick über verschiedene Ausreißertypen, die sich in der dargestellten Vielfalt allerdings nur mithilfe von saisonalen Interventions- und Transferfunktionsmodellen (Box-Jenkins-SARIMAXModelle [8], [50]) mit überlagerten Volatilitätsmodellen (z. B. GARCH- oder Varianzbruch-Modelle) diagnostizieren und modellieren lassen. Die genaue parametrische Form der verschiedenen Ausreißertypen wird erst bei der Darstellung der zugehörigen Diagnoseverfahren in den Abschnitten 18.3 und 18.4 erläutert. Im Regelfall stellen Ausreißer entweder unbekannte oder im Rahmen der verwendeten Prognosemethodologie nicht modellierbare Kausaleffekte oder Strukturbrüche dar. Beispielsweise bewirkt eine Werbeaktion eine temporäre Absatzzunahme, deren Nachwirkung nach einiger Zeit abstirbt. Derartige Effekte sind zwar ohne Schwierigkeiten mit kontemporären und verzögerten Variablen in Regressionsmodellen abbildbar [27], erfordern aber eine Aufzeichnung aller wesentlichen Charakteristika der Werbeaktionen wie Zeitpunkte, Dauer und Intensitäten sowie die Zuordnung der Aktionen zu produkt-, artikel- und regionsspezifischen Zeitreihen in Produkthierarchien. Gerade an dieser Aufzeichnung und Zuordnung mangelt es aber in den meisten Unternehmen, sodass in der Praxis kaum eine Alternative zum datengesteuerten Diagnostizieren (Monitoring) besteht. Vor allem im Kontext der Box-Jenkins-Modelle entstand seit der bahnbrechenden Arbeit von Fox [22] im Jahre 1972 eine weit reichende Differenzierung von Ausreißerarten, obgleich die Monitore der exponentiellen Glättung zu Niveauverschiebungen deutlich älter sind [9]. In diesem Beitrag werden folgende Arten unterschieden:
338
Küsters, Becker Additiver Ausreißer mit co^o 20 = ^
Niveauverschiebung mit COLS,2O " ^
Transienter Übergang mit COTC,2O = 5 und 6 = 0,7
Reallokationsausreißer mit CORO2,2O = 5
Saisonaler Impuls mit COSP 20 ~ ^ ^^^ Periodizität s = 4
Trendänderung mit 0 j s 20 " 0-2
Innovationsausreißer in MA(3)-Fyozess mit ©10,20 = 5
Varianzerhöhung mit covc,2o = 2
Abb. 1: Ausreißertypen (mit r = 20 als Zeitpunkt des Auftretens des Ausreißers) 1.
Additiver Ausreißer (AO = Additive Outlier, Fox [22]): Der einfachste Ausreißertyp ist der additive Ausreißer. Dieser repräsentiert eine singulare Störung und bewirkt eine auf einen einzigen Zeitpunkt r beschränkte Veränderung des Niveaus der Zeitreihe. Beispielsweise führt ein nicht berichteter oder nicht protokollierter Produktionsausfall innerhalb eines Monats zu einem additiven Ausreißer.
2.
Niveauversciiiebung (LS = Level Shift, Tsay [57]): Während bei einem AO nur eine isolierte Beobachtung „vom üblichen Muster der Zeitreihe" abweicht, bewirkt ein Level Shift (LS) eine permanente Änderung des mittleren Niveaus auf einen neuen Wert ab dem Zeitpunkt r.
3.
Transienter Übergang (TC = Transient Change, Tsay [57]): Ein transienter Übergang bewirkt ähnlich wie ein Level Shift eine Änderung des Niveaus einer Zeitreihe, allerdings ist diese Änderung nicht permanent, sondern lediglich vorüberge-
Monitoring von Prognosemodellen
339
hend. Ein Beispiel für einen transienten Übergang ist der oben skizzierte Fall einer Werbeaktion, deren Wirkung mit zunehmendem Zeitabstand schwächer wird und gegen Null konvergiert. Mit transienten Übergängen kann man als Grenzfälle auch additive Ausreißer und Niveauverschiebungen abbilden. 4.
Reallokationsausreißer (RO = Reallocation Outlier, Wu, Hosking und Ravishanker [63]): Ein Reallokationsausreißer kann ebenso wie eine Niveauveränderung als eine Folge von mehreren zusammenhängenden additiven Ausreißern dargestellt werden. Zusätzlich weisen Reallokationsausreißer jedoch die besondere Eigenschaft auf, dass sich die Einzeleffekte dieser M additiven Ausreißer zu Null aufsummieren. Reallokationsausreißer entstehen oft durch eine in der Datenbasis nicht protokollierte Preiserhöhung, die im Monat r vor der Preiserhöhung zu vorgezogenen und im Folgemonat r + 1 zu verminderten Lagerhaltungskäufen im gleichen Umfang führt. Dieser Reallokationsausreißer über zwei Zeitpunkte wird mit R02 bezeichnet.
5.
Saisonaler Impuls (SP = Seasonal Pulse, Bell [5]): Ein saisonaler Impuls kann ebenfalls als additiver Ausreißer interpretiert werden, jedoch tritt dieser in regelmäßigen Abständen mit der Periodizität s auf. Saisonale Impulse erscheinen meistens nicht isoliert, sondern als plötzlich ab dem Zeitpunkt r auftretende Änderungen der deterministischen Saisonstruktur. Derartige Effekte werden manchmal durch organisatorisch bedingte Änderungen der Handelsgebaren oder Lieferzyklen verursacht.
6.
Trendänderungen (TS = Trend Shift): Deterministische Trendänderungen können sich in einer Umkehr des Trends, aber auch in Trendverstärkungen und Trendabschwächungen bemerkbar machen. Die Diagnose von Trendänderungen wurde nach unserem Kenntnisstand in der statistischen Literatur nur am Rande behandelt, allerdings verfügen Programmpakete wie Autobox 5.0 [1] über nicht dokumentierte Methoden zur Diagnose lokaler Trendänderungen\
Die Ausreißerarten 1 bis 6 verursachen entweder isolierte, temporäre oder permanente Veränderungen des Niveaus der Zeitreihe. Sie sind hinsichtlich ihrer Nettoeffekte modellunabhängig. Neben diesen Ausreißertypen werden in der Literatur noch zwei weitere Ausreißerarten behandelt, die sich lediglich indirekt über den modelltheoretisch nur in Box-Jenkins-Modellen und EnA^eiterungen formal vorhandenen Innovationsterm auswirken. 7.
Innovationsausreißer (10 = Innovational Outlier, Fox [22]): Innovationsausreißer beeinflussen nicht die Zeitreihe y^ direkt, sondern wirken sich indirekt über einen Puls auf die Innovationsterme des Box-Jenkins-Modells aus. Ihre Wirkung beschränkt sich nicht nur auf eine Veränderung der Zeitreihe zum Zeitpunkt r, sondern setzt sich dynamisch mit der gleichen Gedächtnisstruktur wie das zugrunde liegende ARIMA-Modell in den nachfolgenden Beobachtungen fort. Innovationsausreißer sind durch eine bloße Inspektion der Zeitreihe nicht zu erkennen.
1
In instationären ARIMA-Modellen kann man deterministische Trendänderungen durch eine Niveauverschiebung des Driftparameters der ersten Differenz modellieren und damit auch diagnostizieren. Allerdings fehlt immer noch ein Konzept zur Diagnose von deterministischen Trendänderungen in Modellen, die außer der Trendänderung eine stationäre ARMA-Fehlertermstruktur aufweisen.
340 8.
Küsters, Becker Varianzänderungen (VC = Variance Change, Tsay [57]): Hinsichtlich der Volatilität lassen sich zwei unterschiedliche Arten von Veränderungen unterscheiden. Neben Strukturbrüchen der Varianz^ werden insbesondere bei Kapitalmarktdaten dynamische Varianzveränderungen mithilfe von ARCH- oder GARCH-Modellen analysiert und modelliert. Analysiert man instabile Varianzprozesse mithilfe von Modellen, die lediglich eine Dynamik der konditionalen Erwartungswerte unter der Annahme konstanter Varianzen modellieren (z. B. Box-Jenkins-Modelle), so führt dies im Rahmen des Monitoring fast immer zu Serien von diagnostizierten Strukturbrüchen der Varianz.
In der Praxis sind die einzelnen Ausreißerarten diagnostisch nicht immer klar trennbar. Zum einen bestehen in Sonderfällen analytische Äquivalenzen zwischen verschiedenen Ausreißerarten. Beispielsweise ist ein transienter Übergang mit einer Gedächtnisrate von S = 0,7 nicht von einem Innovationsausreißer in einem autoregressiven Modell erster Ordnung mit einem Koeffizienten von ^ = 0,7 unterscheidbar. Zum anderen lassen sich Störungen insbesondere am Ende der Zeitreihe nur sehr schwer klassifizieren. Wird im Extremfall nur die letzte verfügbare Beobachtung als Ausreißer identifiziert ( r = r ) , so ist eine Ausreißerklassifikation unmöglich. Dementsprechend muss man bei automatischen Diagnoseverfahren inhaltlich begründete Voreinstellungen für die Ausreißermelde- und Bereinigungsprioritäten festlegen. 18.2.2 Konsequenzen der unzureichenden Berücksichtigung von Ausreißern Ausreißer können zu schwerwiegenden Konsequenzen in allen Phasen des Modellbildungs- und Prognoseprozesses führen. Dieser besteht im Wesentlichen (1) aus der Datenexploration, (2) der Modellidentifikation, (3) der Modellschätzung, (4) der Evaluation und (5) der Prognose, wobei die Phasen (2)-(4) iterativ wiederholt werden, bis keine weiteren Modellverbesserungen mehr möglich sind [8]. Die Auswirkungen von Ausreißern hängen sowohl vom Ausreißertyp, vom Zeitpunkt des Auftretens, als auch von der Stärke ab, wie nachfolgend exemplarisch verdeutlicht wird. 18.2.2.1 Auswirkungen auf die Modeilschätzung und -identifikation Die Konstruktion einer Prognosefunktion erfordert in einem ersten Schritt die Auswahl eines Modells und/oder Verfahrens, das den Datengenerierungsprozess (DGP) der Zeitreihe entweder explizit oder implizit adäquat abbildet. Für diesen Zweck stehen einerseits Werkzeuge der explorativen Datenanalyse [12] wie Autokorrelationsfunktionen und Season-Subseries-Plots, andererseits aber auch statistisch fundierte Modellspezifikationsmethoden wie Informationskriterien [15] und Unit-Root-Tests [3] zur Verfügung. Ist die Zeitreihe durch Ausreißer kontaminiert, so kann dies zu Fehlern bei der Identifikation des korrekten bzw. angemessenen Modells führen. Schwerwiegende Probbleme treten vor allem bei einer fehlerhaften Trennung von stationären und instationären Prozessen sowie bei letzteren zwischen deterministischen und stochastischen Instationaritäten auf.
^
In bayesianischen dynamischen linearen Modellen [62] werden beim Monitoring von Varianzen nur Erhöhungen betrachtet, da diese zu einer Reduktion der Prognosegenauigkeit führen. Volatilitätssenkungen werden hingegen üblicherweise ignoriert.
Monitoring von Prognosemodellen
341
Weiterhin können Ausreißer auch zu erheblichen Verzerrungen der Parameterschätzer führen. Meistens sind diese Verzerrrungen auch die Ursache für die oben erwähnten Modellidentifikationsfehler, da zahlreiche Identifikationswerkzeuge auf der Schätzung von tentativen Modellen beruhen. Am einfachsten lässt sich dies an einem autoregressiven Prozess erster Ordnung illustrieren, der zum einen mit einem AO und zum anderen mit einem LS kontaminiert wird. Hierzu nimmt man an, dass die Zeitreihe y^ durch einen stationären AR(1)-Prozess y^ =^yt-\ +^? generiert wird, wobei a^ eine Folge stochastisch unabhängiger, identisch normalverteilter Zufallsvariablen ist. Der Parameter ^ G ( - 1 , 1 ) ist der AR-Koeffizient erster Ordnung, wobei die Beschränkung des Wertebereichs die Stationarität des Prozesses sicherstellt. 1.
Ist die Zeitreihe durch einen AO im mittleren Bereich kontaminiert, so konvergiert der Parameterschätzer für (/> mit wachsender Größe des AO gegen Null [51]. Dies führt möglicherweise dazu, dass der AR(1)-Prozess irrtümlich als Folge stochastisch unabhängiger Zufallsvariablen identifiziert wird, sodass die Dynamik des Prozesses nicht zur Prognose genutzt werden kann.
2.
Tritt hingegen im mittleren Bereich der Zeitachse der Reihe ein LS auf, so strebt der Parameterschätzer für ^ mit wachsender Stärke der Veränderung gegen den Wert Eins [51]. Diese Verzerrung führt unter Umständen dazu, dass der mit Ausnahme der deterministischen Niveauverschiebung stationäre AR(1)-Prozess irrtümlich mithilfe von diagnostischen Tests (z. B. dem Dickey-Fuller-Unit-Root-Test [3]) als instationärer Random Walk und somit als l(1)-Prozess identifiziert wird.
Umgekehrt können Ausreißer in einer Zeitreihe ohne dynamische Struktur zur irrtümlichen Diagnose dynamischer Prozesse führen, obgleich eine Folge stochastisch unabhängiger Größen vorliegt. Ein Beispiel hierfür ist ein LS, der möglicherweise durch einen großen Autokorrelationskoeffizienten erster Ordnung zur Identifikation eines AR(1)-Modells führt. 18.2.2.2 Ausv\^irkungen auf die Prognosefunktion Neben den durch Ausreißer aufgrund verzerrter Schätzer verursachten Spezifikationsfehlern können aber selbst unter der Voraussetzung korrekt spezifizierter Modelle und erwartungstreuer bzw. konsistenter Schätzer Probleme durch eine inkorrekte Verankerung der Prognosefunktion sowie durch Vergrößerungen oder Verkleinerungen der Prognosevarianz entstehen. Abbildung 2 verdeutlicht exemplarisch die Auswirkungen einer Niveauveränderung und eines additiven Ausreißers in einem AR(1)-Modell auf die Prognosefunktion. Grafik 2a zeigt den ausreißerfreien Verlauf einer simulierten Zeitreihe y^ und die zugehörige Prognosefunktion /7^(//), also /looW für h = l,...,20 auf der Grundlage des geschätzten Autokorrelationskoeffizienten erster Ordnung. In Grafik 2b wird die Zeitreihe hingegen zum Zeitpunkt r = 40 durch einen LS überlagert. Identifiziert man als Modell einen l(1)-Prozess, so erhält man als Prognosefunktion den Random Walk fP{h) = yj, also /looW^J^ioo- Behält man hingegen die korrekte AR-Ordnung mit p = \ unter Vernachlässigung der deterministischen Niveauverschiebung bei, so erhält man die zum AR(1)Prozess gehörende Prognosefunktion fT^\h) = y + ^{yj-y), somit also fm{^)'^y^^iym -y)^ die gegen den Stichprobenmittelwert y der ersten 100 Beo-
342
Küsters, Becker
bachtungen konvergiert. Dieser liegt deutlich höher als das durchschnittliche Niveau der ersten 39 Beobachtungen, aber auch deutlich niedriger als das durchschnittliche Niveau der letzten 61 Beobachtungen. In diesem Fall würde die Identifikation des fehlerhaft spezifizierten Random-Walk-Modells zu genaueren Prognosen als die Identifikation der korrekten AR(1)-Modellordnung mit fehlender Verschiebung führen. Siehe dazu auch die Arbeit von Chen und Tiao [14], in der zwischen instationären ARIMAModellen und stationären ARMA-Modellen mit zufälligen Niveauverschiebungen (RLARMA = random level shift ARMA) unterschieden wird.
2a AR(1) ohne Ausreißer o _
LO
~"
-
fioo(h)
o -
'
1
1
1
1
1
I
20
40
60
80
100
120
2bAR(1)mitLS, COLS,4O = 5
2cAR(1)mitAO,coAo,4o = 5
Abb. 2: Auswirkungen von LS und AO in r = 40 auf die Prognose Abbildung 2c illustriert die Auswirkung eines AO, der zu der in Abbildung 2a dargestellten Zeitreihe zum Zeitpunkt r = 40 hinzugefügt wurde. Behält man die Identifikation als AR(1)-Modell bei, so wirkt sich lediglich die systematische Unterschätzung des Autokorrelationskoeffizienten erster Ordnung aus. Dies führt dazu, dass die Prognose-
Monitoring von Prognosemodellen
343
funktion fT^\h) = y + ^\yj^-y), also /ioo(^) = 3^ + ^^(3^ioo-^) rascher gegen den unkonditionalen Mittelwert y der Zeitreihe konvergiert. Eine fehlerhafte Identifikation der Zeitreihe als Folge stochastisch unabhängiger, identisch verteilter Zufallsvariablen führt hingegen zu einer inkorrekten Verankerung der Prognosefunktion auf den unkonditionalen Mittelwert durch fP(^h) = y , also /IOO^(/^) = ( X ) ! I ^ H / 1 Ö Ö ' sodass bereits die einund zweistufigen Prognosen mit erheblichen Fehlern behaftet sind. Die unmittelbaren Auswirkungen von Ausreißern auf die Prognosefunktion hängen erheblich davon ab, an welcher Position innerhalb der Zeitreihe der Ausreißer auftritt. Ausreißer am Ende der Zeitreihe wirken sich nur schwach auf den Parameterschätzer, aber erheblich auf die Prognosefunktion und deren Verankerung aus. Dies liegt zum einen an der unzureichenden Unterscheidbarkeit von Ausreißern. Zum anderen werden in fast allen Prognoseverfahren wie der exponentiellen Glättung und den ARIMAModellen die letzten Daten bei der Prognose stärker als weiter zurückliegende Datenpunkte gewichtet. 18.2.3 Maßnahmen zur Berücksichtigung von Ausreißern Identifizierte Ausreißer lassen sich mit vier unterschiedlichen Methoden bei der statistischen Prognostik berücksichtigen: 1.
Datenstutzung: Bei allen Prognoseverfahren besteht die Möglichkeit, den als Ausreißer diagnostizierten Datenpunkt und alle vorhergehenden Beobachtungen zu streichen und das Prognoseverfahren neu zu starten. Dies ist zum Beispiel nach einem Produktrelaunch sinnvoll, führt aber insbesondere bei gegenwartsnahen Ausreißern zu erheblichen Daten- und damit Informationsverlusten.
2.
Datensubstitution: Bei singulären und transienten Ausreißern mit temporärer Wirkung können die betroffenen Beobachtungen lokal durch Prognosen ersetzt werden. Bei einem AO etwa ersetzt man y^ durch die einstufige Prognose /-_i(l), während ein RO der Länge 3, der zum Zeitpunkt r auftritt, approximativ durch eine Ersetzung von y^^y^^^ und y^^2 durch /._i(l), / - i ( 2 ) und /-_i(3) eliminiert werden kann. Bei transienten Übergängen (TC) ist dies wegen des möglicherweise langen Gedächtnisses schwieriger. Die Datensubstitution führt zu einer Unterschätzung der Prognosevarianz, die aber bei langen Zeitreihen mit geringer Ausreißerzahl meistens vernachlässigt werden kann.
3.
Adaptive Parameteranpassung: Die Parameter eines Prognoseverfahrens können dynamisch in Abhängigkeit von der Ausreißerstärke angepasst werden und entsprechend rasch auf die Datenänderung reagieren. Beispielsweise wird die Adaptivität, d. h. die Anpassungsgeschwindigkeit des Systems an neue Daten, in der exponentiellen Glättung durch eine Veränderung der Glättungsparameter gesteuert. Werden die Glättungsparameter im Grenzfall gleich 1,0 gesetzt, so entspricht dies der Methode einer Datenkappung und einer Reinitialisierung des Algorithmus durch eine Random-Walk-Prognose.
4.
Ausreißerdiagnose und -modellierung: Ideal, aber aufwändig ist eine Einbettung der identifizierten Ausreißer in ein parametrisches Modell. Dieser Ansatz erfordert sowohl eine präzise Identifikation des Ausreißerzeitpunktes T als auch eine exak-
344
Küsters, Becker te Klassifikation des Ausreißertyps. Anschließend werden die Ausreißer mithilfe von Interventionseffekten in Box-Jenkins-Modelle [8], mit Ereignisindizes in Glättungsmodelle [56] oder mithilfe von Regressoren auch in frequentistische [30] und bayesianische [62] Strukturkomponentenmodelle eingebettet. Eine umfassende Modellierung aller Ausreißertypen ist bisher aber nur mit Interventionsfunktionsmodellen möglich.
18.3 Monitore in exponentiellen Glättungsmodellen 18.3.1 Diagnose additiver Ausreißer Exponentielle Glättungsmethoden [24] umfassen eine Gruppe von Ad-hoc-Verfahren, bei denen die Verfahrensauswahl ausschließlich explorativ und datengetrieben ohne eine explizite Referenz zu einem Datengenerierungsprozess stattfindet^. In Verbindung mit den tendenziell guten Ergebnissen bei Prognosewettbewerben hinsichtlich der durchschnittlichen Prognosegüte (z. B. [41], siehe auch den Beitrag zur Evaluation, Kombination und Auswahl von Prognoseverfahren in diesem Sammelband) hat dies dazu geführt, dass die exponentielle Glättung als robuste und annahmenarme Prognosemethode bewertet wird, obgleich die nicht explizit formulierten Annahmen [47] auch zu erheblichen Schwierigkeiten bei der Kalibration von Monitorschwellenwerten führen, wie in Abschnitt 18.3.3 skizziert wird. Traditionell beschränken sich Monitore in der exponentiellen Glättung auf die Diagnose von additiven Ausreißern und Niveauverschiebungen. Konzeptionell wurden die Monitore übenA/iegend für die einfache exponentielle Glättung erster Ordnung unter Verwendung einfachster Datengenerierungsprozesse entwickelt. In der Praxis werden die verschiedenen Monitore jedoch häufig auch auf komplexere Modelle angewandt. Jedoch ist nach wie vor unklar, inwieweit die für die einfache exponentielle Glättung kalibrierten Schwellenwerte auch auf komplexere Modelle aus der Pegels-Gardner-Familie [24] wie das Holt-Winters-Modell mit multiplikativer Saison anwendbar sind [47]. Die einfache exponentielle Glättung erster Ordnung wird für nicht-saisonale Zeitreihen ohne deterministische Trends benutzt und weist eine konstante Prognosefunktion auf. Als Prognosewert f^{h) für y^^^ wird für alle Prognosehorizonte h der geglättete Mittelwert L^ verwendet. Dieser wird als gewichteter Durchschnitt der aktuellen und aller vergangener Beobachtungen berechnet, wobei die Gewichtung ex definitione mit zunehmendem Zeitabstand exponentiell abnimmt:
Bei exponentiellen Glättungsverfahren mit additiven Komponenten (z. B. beim Holt-Winters-Modell mit additiver Saison) ist die Äquivalenz zu SARIMA-Modellen mit restringierten Parametern seit vielen Jahren bekannt [48]. Für Glättungsverfahren mit multiplikativer Saison steht aber erst seit 1997 ein durch Ord, Koehler und Snyder [49] entwickeltes formales statistisches Modell in Form eines nichtlinearen Zustandsraummodells mit einem skalaren Fehlerterm zur Verfügung. Allerdings beschränken sich die darauf basierenden Arbeiten bisher auf klassische Prognoseinferenz wie die Schätzung von Prognosekonfidenzintervallen. Monitore wurden auf der Grundlage dieses Konzepts bisher noch nicht entwickelt.
Monitoring von Prognosemodellen
345
Der in der Regel auf das Intervall (0,l] restringierte Glättungsparameter a wird manchmal gesetzt, meistens aber geschätzf^'^. Zur Identifizierung von isolierten additiven Ausreißern wird meistens der gewöhnliche tTest verwendet. Dieser Test überprüft für die laufende Beobachtung y^ implizit die Nullhypothese der Unverzerrtheit des Prognosefehlers {H^ :^^ =0) zum Zeitpunkt t gegen die Alternativhypothese einer signifikanten Abweichung des Fehlers von Null {H^ \e^^^). Die Teststatistik lautet
L= - ^ '
RSE,
mit RSE, = A p ^ ^ ^ '
V
t
als empirische Standardabweichung der ersten t Beobachtungen. Dabei ist e^ = y^ - f^_^(V) der einstufige Prognosefehler. Überschreitet der Absolutbetrag \t^\ einen a priori gewählten Schwellenwert, so wird ein Signal generiert, das auf einen AO hinweist. Oft wird der Schwellenwert unter Vorgabe eines Signifikanzniveaus a als entsprechendes (l-ci:/2)-Quantil t^^a/ij-i der /-Verteilung mit t-l Freiheitsgraden festgelegt. Die Ho-Hypothese, dass die Beobachtung y^ keinen AO darstellt, wird somit verworfen, wenn gilt:
Streng genommen setzt die Anwendung des ^Tests voraus, dass die Residuen e^ eine Folge stochastisch unabhängiger, identisch normalverteilter Zufallsvariablen ist. Dies ist etwa dann der Fall, wenn der wahre DGP zu einem korrekt spezifizierten ARIMA(0,1,1)-Modell korrespondiert und der wahre Moving-Average-Parameter 6 bzw. ein konsistenter Schätzer in der Glättungsformel über a = l-d eingesetzt wird. Bei anderen Prozessen führt das Verfahren der exponentiellen Glättung hingegen oft zu autokorrelierten Fehlertermen. Dies ist insbesondere dann häufig der Fall, wenn der Glättungsparameter a nicht optimiert, sondern a priori festgelegt wird [47]. Fehlerterme können auch autokorreliert sein, wenn a zwar geschätzt wird, das Modell aber beispielsweise aufgrund einer Niveauverschiebung fehlspezifiziert wurde. Diese Autokorrelation wird bei Gardner [23] auch zur LS-Diagnose, die im nächsten Abschnitt skizziert wird, genutzt. 18.3.2 Diagnose von Niveauverschiebungen Wird eine Zeitreihe, die ohne Störung gut durch eine einfache exponentielle Glättung prognostiziert werden kann, durch einen LS gestört, so hängt die AnpassungsgeDie Schätzung kann in Verbindung mit dem Monitoring zu Problemen führen, da einige theoretische Konzepte (z. B. Trigg's Monitor, siehe Abschnitt 18.3.2) zumindest in der Grundform eine Identität der potenziell unterschiedlichen Glättungsparameter im Monitor- und Prognosemodell unterstellen. Alle zeitreihenbasierten Prognoseverfahren sowie die zugehörigen Monitore müssen mithilfe geeigneter Startwerte initialisiert werden. Bei der exponentiellen Glättung benötigt man etwa einen Startwert für das Niveau U in ^ = 0, um die Rekursionsformeln anwenden zu können. Typische Startwerte bei der einfachen exponentiellen Glättung sind etwa Lo=yi oder Lo=y , wobei die Komplexität und Vielfalt dieser Startwertroutinen mit wachsender Methodenkomplexität ebenfalls zunimmt. Startwertalgorithmen sind fast immer methoden- und programmspezifisch, sodass auf die entsprechende Literatur verwiesen wird (siehe z. B. [8], [24], [30], [36] und [62]).
346
Küsters, Becker
schwindigkeit des Verfahrens nach Auftreten der Abweichung nicht nur von der Stärke des Ausreißers, sondern auch vom Wert des Glättungsparameters a ab. Je größer a ist, desto höher ist die Adaptivität des Verfahrens, wie Abbildung 3 zeigt:
CM
CO H
CO H
ft(h|a=0,3)
'^ H
ft(h|a=0,1) CN H
0
20
40
60
80
100
Abb. 3: Anpassungsgeschwindigkeit der einstufigen Prognosefunktion der exponentiellen Glättung erster Ordnung bei einer Niveauverschiebung Die Diagnose von LS in exponentiellen Glättungsmodellen basiert auf der Verwendung von Abweichungssignalen, die ihren Ursprung in der statistischen Qualitätskontrolle haben [45]. Nicht modellierte LS machen sich dadurch bemerkbar, dass die einstufigen Prognosefehler systematisch in eine Richtung weisen. Eine einfache Technik zur Identifikation dieser systematischen Abweichungen sind CUSUM-Statistiken, bei denen die kumulierte Summe der Prognosefehler auf eine systematische Abweichung von Null überprüft wird. Bei der von Brown [9] entwickelten und auch als einfaches CUSUM bezeichneten Statistik C^ wird die kumulierte Summe der einstufigen Prognosefehler CUSUM^ zum Zeitpunkt / mit der geglätteten mittleren Abweichung MAD^ als Variationsschätzer normiert und durch folgende Vorschrift aktualisiert: CUSUM^ =e,+ CUSUM^_^ = Y^e, i=\
MAD, =a\e^\ + (l- a)MAD^_^
c,=
CUSUM, MAD.
Der MAD, wird hier als geglättetes Variationsmaß benutzt, da für normalverteilte Fehlerterme s zwischen der Standardabweichung a und dem MAD approximativ die
Monitoring von Prognosemodellen
347
Beziehung cr^ ^1,25-AMD^ gilt [46]. Zur Kalibration der Schwellenwerte werden t- oder Normalverteilungsapproximationen herangezogen. Ein wesentlicher Nachteil von Brown's Q ist das lange Gedächtnis, da bereits geringfügige Abweichungen immer wieder zu einem Überschreiten der Kontrollgrenzen führen, sobald Q ein bestimmtes Niveau erreicht hat. Darüber hinaus können anfänglich „gute" Prognosen auch zur Folge haben, dass der MAD^ gegen Null konvergiert, während die kumulierte Fehlersumme CUSUM^ nahezu unverändert bleibt. Auch dies bewirkt permanent große Signalwerte für Q. Das geglättete Fehlersignal 7; von Trigg [59] vermeidet den Nachteil des langen Gedächtnisses von C^, indem auch die Fehlerkumulation nicht wie bei CUSUM^ gleichgewichtet, sondern mithilfe einer exponentiell abnehmenden Gewichtung durch den geglätteten Fehlersummenterm E^ ersetzt wird: Ef = ae^ + (1 - o^)Et-i MAD^ =a\e\ + r t
{\-a)MAD^_
E, MAD,\
Ein anderer Ansatz zur Vermeidung eines langen Gedächtnisses besteht in der Stutzung der Fehlersumme mithilfe der Backward-CUSUM Statistik S^^^ von Harrison und Davies [28]. Dabei wird das Gedächtnis des Prozesses durch eine festgelegte Anzahl von / rückwärts gerichteten Perioden begrenzt: /-i j=o
wobei durch / eine Obergrenze der maximal rückwärts zu inspizierenden einstufigen Prognosefehler festgelegt wird. Harrison und Davies [28] empfehlen 1 = 6. Tritt eine Niveauverschiebung zum Zeitpunkt t-i, also vor genau / Perioden auf, so entsteht zwischen den kumulativen Fehlersummen S^j und S^^^^ ein Sprung, der deutlich über die durchschnittliche Variation von e^ hinausgeht. Daher schlagen Harrison und Davies einen linearen Verlauf der Schwellenwerte L^ vor: L^ =o''CO'{i + Ä)
Eine Niveauverschiebung wird immer dann signalisiert, wenn Is^} den Wert L^ überschreitet. Dabei ist a ein Schätzer der Standardabweichung der Prognosefehler, während ü) und Ä Konstanten darstellen, die wegen der unbekannten Verteilung von S^j mithilfe von Simulationen ermittelt werden. Neben diesen auf kumulativen Fehlersummen basierenden Abweichungssignalen existieren noch weitere Monitore, die in der exponentiellen Glättung verwendet werden. Das Autokorrelationssignal von Gardner [23] wurde zur Diagnose von negativ und positiv korrelierten Fehlertermsequenzen konstruiert. Diese Sequenzen weisen nicht nur bei unmodellierten Niveauverschiebungen, sondern auch bei anderen Fehlspezifikationsformen (etwa bei inkorrekt geschätzten oder gesetzten Glättungsparametern) auto-
348
Küsters, Becker
korrelierte Muster auf. Daher eignet sich das Autokorrelationssignai von Gardner weniger zur Identifikation von Niveauverschiebungen, sondern vielmehr als allgemeiner Test zur Diagnose von Spezifikationsfehlern, vergleichbar zur Ljung-Box-Pierce-Statistik[17]. Als Glättungsparameter a der Monitore wird oft der gleiche Wert wie in der exponentiellen Glättung benutzt, obgleich man in der Literatur (z. B. [42] und [25]) auch Hinweise auf die Vorteile unterschiedlicher Glättungsparameter für Prognose- und Monitormodell findet. Identische Glättungsparameter in Prognosemodell und Monitor sind problematisch. Zum einen ist eine a priori Festlegung von Glättungsparametern mehr oder weniger willkürlich, zum anderen verzerren Ausreißer fast immer die Schätzer von Glättungsparametern. Bei Glättungsmodellen mit mehreren Glättungskonstanten, wie etwa dem Holt-Winters-Modell, dürfte es auch schwierig sein, zu begründen, warum man als Monitorkonstante die Glättungskonstante des lokalen Niveaus und nicht die Konstante einer anderen Komponente verwendet. Tabelle 1 fasst die in [20] und [23] angegebenen Vor- und Nachteile der vorgestellten Abweichungssignale zusammen. Abweichungssignal
Vorteile Nachteile
Brown's [9] einfaches CUSUM C,
- Monitorqualität unabhängig vom Glättungsparameter a - aufgrund Normierung unabhängig von Varianz der Zeitreihe - einfach berechenbar
Trigg's [59] geglättetes Signal Tt
- aufgrund Normierung unabhängig von Varianz der Zeitreihe - einfach berechenbar
- langes Gedächtnis - exzeptionell „gute" Prognosen führen zu Fehlalarmen - geringe Effizienz bei unabhängigen Fehlertermen - für hohe oc-Werte ungeeignet - Verteilung und damit Schwellenwerte abhängig von a
- hohe Sensitivität Backward CUSUM Stj von Harrison - ermöglicht Diagnose des Zeitpunkts der Prozessänderung und Davies [28] - modelltheoretisch begründbar
- aufwändige Berechnung - unterstellt konstante Varianz der Zeitreihe - schwierige Kalibration der Schwellenwerte - benötigt relativ große Stichproben
Autokorrelationssignal von Gardner [23]
- eignet sich allgemein zur Diagnose von Modellspezifikationsfehlern - unabhängig von Varianz der Zeitreihe - eignet sich zur Diagnose sowohl positiver als auch negativer Autokorrelationen - einfach berechenbar
- bei fehlspezifizierten Glättungsmodellen keine saubere Trennung zwischen Fehlspezifikation und Niveauverschiebung möglich - insensitives Signal bei permanentem Vorzeichenwechsel aufeinanderfolgender Fehlerterme (negative Autokorrelation)
Tab. 1: Bewertung unterschiedlicher Monitore in der exponentiellen Glättung 18.3.3 Kalibration von Schwellenwerten Typischerweise wird bei den oben skizzierten Monitorstatistiken ein Signal generiert, sobald der Absolutbetrag einen a priori vorgegebenen Schwellenwert C überschreitet. Die Konstruktion der Schwellenwerte lehnt sich entweder an die Theorie der Signifikanztests oder an das Konzept durchschnittlicher Lauflängen aus der Qualitätskontrolle an.
Monitoring von Prognosemodellen
349
Die Kaiibration der Schwellenwerte C auf der Grundlage von Signifikanztests beruht auf der Kenntnis der Verteilungen der Monitorstatistiken Q , 7J und S^j unter der Annahme eines ausreißerfreien Prozesses. Steht die Verteilung unter dieser Nullhypothese zur Verfügung, so wird durch das Signifikanzniveau definiert, wie viele Signale durchschnittlich generiert werden dürfen, wenn kein Ausreißer vorliegt. Dieser Ansatz konzentriert sich somit auf eine maximale Kontrolle der Fehlalarme und somit auf den Fehler erster Art (ÖT -Fehler). Der Fehler zweiter Art (y9 -Fehler), der aufgrund der NichtSignalisierung tatsächlich vorhandener Ausreißer entsteht, wird bei der Konstruktion der Schwellenwerte hingegen vernachlässigt. Bei der signifikanztestbasierten Kalibration von Schwellenwerten ist zu beachten, dass Tests für jeden Zeitpunkt durchgeführt werden und somit ein multiples Testproblem vorliegt. Daher ist eine Korrektur des Signifikanzniveaus (etwa auf Basis der Bonferroni-Ungleichung) erforderlich. Beim Konzept der mittleren Lauflänge (ARL = average run length) wird hingegen der Zusammenhang zwischen Schwellenwert, Ausreißerstärke und der ARL, definiert als durchschnittliche Dauer vom Ausreißerzeitpunkt r bis zum Diagnosezeitpunkt /, analysiert^. Diese Zusammenhangsprofile werden typischenA/eise mithilfe von Simulationen ermittelt und können zur Festlegung von Schwellenwerten benutzt werden, indem zu einem Ausreißer mit vorgegebener Stärke eine Maximaldauer bis zur Diagnose vorgegeben wird. Natürlich weist auch eine derartige Schwellenwertwahl eine Irrtumswahrscheinlichkeit a (Fehlalarmrate) und eine „Missing Hit-Rate" ß auf. Zur exakten Kalibration der Schwellenwerte benötigt man beim signifikanztheoretischen Ansatz die Kenntnis der Verteilung der diversen Signalstatistiken unter der Annahme einer korrekten Spezifikation eines Modells ohne Ausreißer. Bei der Festlegung von Schwellenwerten mithilfe des Lauflängen-Konzeptes sind darüber hinaus auch die Verteilungen unter der Annahme wohl definierter Ausreißerkonstellationen, also die Verteilungen unter lokalen Alternativen [18] erforderlich. Beide Ansätze können bei klassischen Glättungsmethoden nicht exakt realisiert werden, da es sich bei nahezu allen exponentiellen Glättungsverfahren nicht um modellgestützte Verfahren mit wohl definiertem Datengenerierungsprozess, sondern nur um algorithmische Vorschriften, die für eine Vielfalt von Prozessen genutzt werden, handelt. Daher wurden die meisten Schwellenwerte nur approximativ unter der Annahme einfachster Datengenerierungsprozesse kalibriert. Trigg [59] und Brown [10] etwa unterstellen als Datengenerierungsprozess für y^ stationäre, unkorrelierte und normalverteilte Prozesse mit konstantem Mittelwert. Dieses Konzept kann heuristisch zwar damit begründet werden, dass nicht-informative Fehlersequenzen idealerweise eine derartige Struktur aufweisen. Auf der anderen Seite ist aber zu beachten, dass man für Folgen stochastisch unabhängiger, identisch normalverteilter Zufallsvariablen den arithmetischen Mittelwert als optimale Prognose verwenden kann; die exponentielle Glättung erster Ordnung ist hingegen eine für stochastisch abhängige ARIMA(0,1,1)-Prozesse optimale Prognose (im Sinne von MMSE). Insofern handelt es sich bei derartig berechMcCIain [42] unterscheidet hier für den Fall eines fehlenden Ausreißers (äquivalent einem Ausreißer der Stärke Null) zwischen zwei ARLs: ARL1 bezeichnet die durchschnittliche Länge zwischen zwei Fehlalarmen, während ARL2 die durchschnittliche Länge zwischen einem Bezugspunkt und einem Fehlalarm angibt. Zwischen beiden ARLs können sich Unterschiede in der Größenordung bis zu 100 % ergeben! Die in Abschnitt 18.3.3 angegebene Definition von Gardner [23] stimmt mit der ARL2 überein.
350
Küsters, Becker
neten Schwellenwerten immer nur um heuristische Ersatzlösungen mit größtenteils ungeklärten statistischen Eigenschaften. In der Praxis werden anstelle der theoretisch kalibrierten Schwellenwerte nahezu immer Schwellenwerte verwendet, die mithilfe von Simulationsstudien ermittelt werden. Allerdings ist bei den mithilfe von Simulationsstudien kalibrierten Werten unklar, ob die Verteilung invariant gegenüber alternativen Datengenerierungsprozessen ist. Bei einigen Monitorstatistiken, wie etwa Trigg's geglättetem Fehlersignal, wird bereits aufgrund theoretischer Überlegungen eine Abhängigkeit vom Glättungsparameter deutlich; insbesondere große o:-Werte führen auch zu erheblichen Abweichungen von der im Regelfall verwendeten Normalverteilungsapproximation, wie die in Abbildung 4 wiedergegebene simulierte und bimodale Verteilung der Monitorstatistik 7; für a = 0,5 unter der //Q-Hypothese, dass keine Niveauveränderung vorliegt, zeigt. An der überlagerten Normalverteilungsdichte kann man hier auch den Approximationsfehler erkennen, wobei allerdings darauf hingewiesen werden muss, dass die Normalverteilungsapproximation für kleine a-Werte (etwa 0,1) deutlich besser ist.
00
03 i_
CD
D) O -I—» CO
X
B
o
m
m
>1M
b ^
CM
O
NN
M
-«
"T
-1.0
-0,5
0
0.5
1,0
Abb. 4: Simulierte Verteilung von Trigg's Signal T^ mit a = 0,5 unter der Annahme, dass keine Niveauverschiebung vorliegt (Zeitreihenlänge r = 100 nach Stutzung der ersten 20 Beobachtungen, Anzahl der Replikationen r = 100.000) Präzise Schwellenwerte lassen sich nur durch theoretische Herleitungen der exakten und/oder asymptotischen Verteilungen der Monitorstatistiken für spezifische Glättungsalgorithmen unter Zuhilfenahme einschränkender Annahmen über den Datengenerierungsprozess berechnen; siehe dazu auch [43].
Monitoring von Prognosemodellen
351
18.3.4 Verfahren zur Berücksichtigung identifizierter Ausreißer Um die negativen Auswirkungen von Ausreißern und Niveauverschiebungen auf die ex ante Prognosefunktion exponentieller Glättungsverfahren zu vermeiden, müssen die identifizierten Ausreißer durch geeignete Verfahren berücksichtigt werden. Bei additiven Ausreißern zum Zeitpunkt t = T kann die Beobachtung y^ durch die einstufige Prognose /^_i(l) mit Prognoseursprung r - 1 ersetzt werden, es sei denn, es liegen realwissenschaftlich begründete Hinweise für die Existenz einer anders gearteten und anders korrigierbaren Störung vor. Bei einer Niveauverschiebung kann man hingegen - wie bereits in Abschnitt 18.2.3 beschrieben - alle vorhergehenden Daten löschen und das System ab dem Zeitpunkt t = T neu initialisieren. Darüber hinaus hat der Anwender die Möglichkeit, durch eine manuelle Adaption der Glättungsparameter auf die Veränderung zu reagieren. Durch ein temporäres Hochsetzen der Parameter der exponentiellen Glättung wird erreicht, dass die aktuellen Beobachtungen stärker gewichtet werden und somit die Veränderung schneller berücksichtigt („erlernt") wird (vgl. Abbildung 3). Diese Vorgehensweise ist etwa beim Monitoring in bayesianischen dynamischen linearen Modellen, die eine bayesianische Verallgemeinerung exponentieller Glättungsmodelle mit additiven Effekten darstellen, über eine Änderung der Diskontfaktoren als Lernratenparameter üblich (siehe [62] und [35]). Wegen der meist großen Anzahl an Prognosen und somit an generierten Warnsignalen kann die Menge der vorzunehmenden manuellen Eingriffe aber rasch ansteigen. Aus diesem Grund wurden adaptive Verfahren entwickelt, bei denen die Glättungsparameter automatisch angepasst werden. Nachfolgend werden fünf ausgewählte adaptive Varianten kurz skizziert. Trigg und Leach [60] beschreiben ein adaptives Glättungsverfahren für die exponentielle Glättung erster Ordnung, wobei das oben skizzierte geglättete Fehlersignal T^ von Trigg [59] verwendet wird. Dabei wird der Glättungsparameter a im exponentiellen Glättungsmodell erster Ordnung nach Vorliegen einer neuen Beobachtung y^ unabhängig von der Existenz eines Monitorsignals mit der Vorschrift cc = \Tt\ adaptiv angepasst, sodass größere Prognosefehler zu einem höheren a-Wert und damit zu einer höheren Anpassungsgeschwindigkeit führen. Der ör-Wert zur Berechnung der Signalstatistik T^ wird hingegen konstant gehalten. Das Verfahren von Trigg und Leach weist eine hohe Sensitivität gegenüber einmalig auftretenden zufälligen Impulsen auf. Um eine höhere Stabilität des Glättungsparameters a zu erreichen ohne zugleich die Reaktionsgeschwindigkeit des Signals bei einem Level Shift erheblich zu reduzieren, setzt Shone [54] den Glättungsparameter nach Signalisierung einer Abweichung gleich dem Trackingsignal der vorangegangenen Periode, d. h. ö: = |r^_i|. Die Logik der Shone'schen Modifikation liegt darin, dass beim Vorliegen einer einmaligen zufälligen Schwankung in / - l ein hoher Glättungsparameter a keine große Auswirkungen besitzt, wenn die Zeitreihe zum Zeitpunkt / wieder als ungestörter Prozess verläuft und somit wieder einen kleinen Prognosefehler nahe Null aufweist. Whybark [66] erhöht hingegen den Glättungsparameter nicht durchgängig adaptiv, sondern lediglich in zwei Fällen:
352
Küsters, Becker
1.
Der Prognosefehler der aktuellen Periode überschreitet die 4-fache Standardabweichung; dies entspricht oft einem additiven Ausreißer.
2.
Sowohl der Prognosefehler der aktuellen als auch der vergangenen Periode überschreiten die 1,2-fache Standardabweichung und weisen das gleiche Vorzeichen auf; dies korrespondiert möglicherweise zum Beginn eines LS.
Bei der Generierung eines Ausnahmesignals wird der Glättungsparameter für eine Periode auf einen sehr hohen und für die darauffolgende Periode auf einen moderat hohen Wert gesetzt. Diese Technik berücksichtigt somit die verschiedenen Eigenschaften von additiven Ausreißern und Niveauveränderungen. Die adaptive Anpassung nach Dennis [21] basiert auf dem Konzept der mittleren Lauflänge, die als die Anzahl aufeinanderfolgender Prognosefehler mit gleichem Vorzeichen definiert wird. Überschreitet die Lauflänge einen Grenzwert N, wird der Glättungsparameter ausgehend vom einem Startwert a^ um eine kleine positive Konstante A erhöht. Die Erhöhung endet, wenn a Eins beträgt. Der Monitor wird auf den Wert a^ reinitialisiert, wenn die Lauflänge durch einen Vorzeichenwechsel wieder auf Null gesetzt wird. Chow [16] erstellt konkurrierende Prognosen auf Basis einer Reihe unterschiedlicher Glättungsparameter. Als Glättungsparameter wird derjenige Wert ausgewählt, der die höchste Prognosegüte, gemessen an der mittleren absoluten Abweichung MAD^, aufweist. Auf diese Weise wird bei einem Strukturbruch automatisch derjenige Glättungsparameter ausgewählt, der eine hohe Adaptivität gewährleistet. 18.3.5 Probleme der Monitore der exponentiellen Glättung Die Monitore der exponentiellen Glättung weisen drei grundsätzliche Probleme auf: Erstens wurden die meisten Monitore nur für die exponentielle Glättung erster Ordnung hergeleitet, obgleich die Familie der exponentiellen Glättungsmodelle mit der PegelsGardner-Familie einschließlich Erweiterungen wie gedämpfte Trends [24] und Ereignisindizes [56] weitaus umfangreicher ist''. Zweitens wurden Schwellenwerte in der Regel nur auf der Grundlage der statistischen Verteilungen einfacher, häufig inkorrekter Ersatzmodelle und ohne Beachtung des wahren, zugrunde liegenden Datengenerierungsprozesses kalibriert^. Drittens kann man nur zwischen isolierten additiven Ausrei-
Dieses Problem wurde auch durch diverse Arbeiten in der Literatur thematisiert. McKenzie [43] leitet etwa eine Korrektur der Monitorstatistiken von Batty [4] für verallgemeinerte exponentielle Glättungsmodelle mit additiven Komponenten her. Allerdings unterstellen auch diese und vergleichbare Arbeiten einschränkende Annahmen hinsichtlich des zugrunde liegenden DGP. Darüber hinaus werden Approximationen für Quotienten von stochastisch abhängigen Zufallsvariablen verwendet, die letztlich nur eine Approximation der Varianzen, nicht aber eine exakte Herleitung der Verteilung der Monitorstatistiken ermöglichen. So unterstellt zum Beispiel Trigg [59], dass die Zeitreihe durch yt = Lt + at abgebildet wird, wobei at eine Folge stochastisch unabhängiger, identisch normalverteilter Zufallsvariablen mit konstantem Mittelwert 0 und konstanter Varianz a^ ist, d. h. a, - N(0,G2) . In diesem Fall würde man als optimalen Schätzer aber nicht den statistisch ineffizienten exponentiell geglätteten Mittelwert I , , sondern den Mittelwert über alle Beobachtungen y als effizienten Schätzer wählen. Der exponentiell geglättete Mittelwert I , hingegen ist ein optimaler Schätzer für einen ARIMA(0,1,1)-Prozess, in dem stochastische Abhängigkeiten vorliegen [47]. Residuen von ARIMA(0,1,1)-Modellen weisen bei kor-
Monitoring von Prognosemodellen
353
ßern und Niveauverschiebungen differenzieren, obgleich nicht nur aus statistisch-modelltheoretischer, sondern auch aus inhaltlicher Sicht andere Ausreißerformen denkbar und sinnvoll sind (z. B. Reallokationsausreißer, saisonale Pulse, transiente Übergänge). Derartige Differenzierungen sind bisher aber nur mithilfe von expliziten Ausreißermodellen, wie sie im nächsten Abschnitt für ARIMA-Modelle (Box-Jenkins-Modelle) skizziert werden, möglich. 18.3.6 Monitore in Strukturkomponentenmodellen Frequentistische [30] und bayesianische [62] Strukturkomponentenmodelle stellen statistisch begründete Erweiterungen der exponentiellen Glättungsmodelle dar. Auch Strukturkomponentenmodelle gehen von einer Zerlegung der Zeitreihe in einzelne Komponenten wie Niveau, Trend, Saison und irreguläre Komponente aus, können darüber hinaus aber auch durch Regressoren zur Abbildung von Kausaleffekten benutzt werden. Strukturkomponentenmodelle werden über Zustandsraummodelle (State Space Models) abgebildet, die eine Schätzung des laufenden Zustands rekursiv aus dem Zustand der Vorperiode und der aktuellen Daten mithilfe des Kalman-Filters^ ermöglichen. Monitore in frequentistischen Strukturkomponentenmodellen wurden bisher nur ansatzweise entwickelt [33]. Der Monitormechanismus in bayesianischen dynamischen linearen Modellen basiert auf einem Vergleich der Güte eines Standardmodells mit Alternativmodellen, die so konstruiert werden, dass sie bestimmte Abweichungen gegenüber dem Standardmodell modellieren. Als Vergleichskriterien werden so genannte einfache und kumulative Bayes-Faktoren als Verhältnis der Likelihood zweier Modelle in Kombinationen mit Lauflängen venA/endet; siehe [62] und [35]. 18.3.7 Softwarepakete Zahlreiche Programme mit exponentiellen Glättungsmodellen enthalten Monitore als Frühwarnsysteme, wobei die oben skizzierten Monitore und hier insbesondere die Statistik Tt von Trigg [59] dominieren. In einer 1998 durchgeführten Untersuchung [36] konnten die Systeme DrPro-^-^, Force4, FuturMaster, microTrend & microForecast, Smart Forecast, Time Trends, Minitab, TurboSpringStat, Adapta-DLS-FBS, Demand Solutions, Logol, Peer Planner, System A3, Beta und Microfit identifiziert werden, die in irgendeiner Form einen Monitor enthielten. Allerdings wurde aus dieser Untersuchung auch deutlich, dass die genaue Funktionsweise nicht in allen Fällen offen gelegt wurde. In Verbindung mit der bereits beschriebenen Problematik der Kalibration und Wahl geeigneter Schwellenwerte muss daher mit erheblichen Qualitätsunterschieden zwischen den verschiedenen Implementationen gerechnet werden, die eine routinemäßige Nutzung nur nach einer genauen Prüfung zulassen.
rekter Spezifikation allerdings die Eigenschaften einer Folge stochastisch unabhängiger, identisch verteilter Zufallsvariablen auf, sodass der Monitor T, auf diese Residuen anwendbar ist. Die Anwendung des Kaiman-Filters beschränkt sich nicht auf Strukturkomponentenmodelle. In der modernen Zeitreihenanalyse werden zahlreiche andere Modelle, unter anderem auch ARIMAX-Modelle, mithilfe einer Zustandsraumrepräsentation über den Kaiman-Filter geschätzt, da dieser unter anderem eine einfache Berücksichtigung fehlender Beobachtungen erlaubt.
354
Küsters, Becker
18.4 Monitore in Box-Jenkins-IVIodellen 18.4.1 Modelldefinition Im Gegensatz zur exponentiellen Glättung wird bei Box-Jenkins-Modellen ein expliziter Datengenerierungsprozess unterstellt, der durch unterschiedliche Ausreißerarten (einschließlich der in Abschnitt 18.2 dargestellten permanenten Strukturbrüche) additiv überlagert wird. Konzeptionell basiert die Diagnose von Ausreißern auf der Grundidee, dass eine Serie von K Ausreißern zu unbekannten und daher zu diagnostizierenden Zeitpunkten ri,...,r^ durch parametrische Effekte, deren dynamische Verlaufsformen der Interventionsanalyse entnommen werden, modelliert wird. Als DGP der unverschmutzten Zeitreihe y^ wird ein ARIMA(p,d,q)-Modell zugrunde gelegt^^:
Der Lag-Operator B und der Differenzenoperator V werden durch die Eigenschaften By^=y^_^ und V =(l-5) definiert. Das autoregressive Polynom (j){B)^\-(j\B-(t)2B^-...-(j)pB^ weist eine Ordnung von p auf, während das MovingAverage-Polynom e{B)^\-e^B-e^B^ -.„-e^B"^ die Ordnung q besitzt. Die Konstante c wird zur Parametrisierung von Mittelwerten und deterministischen Trends (für d>^) verwendet. Es wird unterstellt, dass sich die unverschmutzte Zeitreihe y^ durch die Wahl einer hinreichend großen Differenzenordnung d (typischerweise J = 0, 1 oder 2) in eine schwach stationäre Zeitreihe ^"^y^ transformieren lässt. Dementsprechend wird unterstellt, dass die möglicherweise komplexen Nullstellen der Polynome ^(5) und 6{E) außerhalb des Einheitskreises liegen. Die Wahl der ARIMA(p,d,q)-Ordnung erfolgt im Rahmen der Modellidentifikationsphase mithilfe von Spezifikationstests und -Werkzeugen wie z. B. Unit-Root-Tests und wird in diesem Beitrag nicht mehr weiter verfolgt. Siehe [3], [8], [15], und [19]. Bei der Ausreißermodellierung unterstellt man, dass sich die beobachtete Zeitreihe z^ additiv aus der durch ein ARIMA-Modell generierten unkontaminierten Zeitreihe y^ und i^ Ausreißern zusammensetzt. Die Nettoeffekte dieser iC Ausreißer zu den Zeitpunkten {ri,r2,....,r^} werden mithilfe der Summe X^=iA(^'^^'^^) abgebildet:
strukturell entspricht dies einem klassischen Interventionsfunktionsmodell; siehe [8] und [50]. Im Gegensatz zu Interventionsmodellen sind jedoch bei der Ausreißerdiagnostik (a) weder die Anzahl K der Ausreißer, (b) noch die Zeitpunkte {7-1,^2,....,r^} des Auftretens der Ausreißer, (c) noch die Ausreißertypen /^(/,r^,ty^), noch (d) die Einflussstärken co^ der Ausreißer a priori bekannt. Daher müssen diese vier Merkmale im Rahmen des Monitoring diagnostiziert werden. Die K Funktionen f^{t,T^,co^)^(D^^^{B)I]^ beschreiben in Abhängigkeit der bereits in Abschnitt 18.2.1 dargestellten Ausreißertypen die dynamische Struktur der zeitlichen
^^
Die Erweiterung der Diagnostik auf saisonale SARIMAX-Modelle mit saisonalen Differenzenbildungen und exogenen Variablen ist ohne Probleme möglich, wird in diesem Beitrag wegen der umfangreicheren Notation aber nicht behandelt.
Monitoring von Prognosemodellen
355
Ausreißerauswirkungen, die mithilfe der aus der Interventionsanalyse bekannten LagPolynome ^ ( 5 ) repräsentiert werden. Dabei signalisiert die Dummy-Variable//S ob ein Ausreißer zum Zeitpunkt t = Tj^ vorliegt {^' =1) oder nicht {^' =0). Dabei werden zwei Arten von Indikatorvariablen ^^' unterschieden. Durch die Puls-Funktion P^' wird der Effekt einer temporären Intervention repräsentiert, während die Stufen-Funktion S^^' eine permanente Änderung anzeigt: pn ^,
[l für/ = r^ lo sonst
und S'/ =<
[l für t>Tj^ 10 sonst
Dabei gilt die Beziehung(l-^)*?^^^ =S^^' -Sj!^^ ^P^', sodass man einen LS in einer instationären Zeitreihe y^ der Ordnung Eins 1(1) auch durch einen AO in der einmal differenzierten Zeitreihe Vy^ der Ordnung Null 1(0) repräsentieren kann. Tabelle 2 zeigt die funktionale Form verschiedener Ausreißertypen exemplarisch für das MA(1)-Modell y^ =a^-6a^_^ sowie für die allgemeine ARIMA(p,d,q)-Form. Ausreißereffekt f,^{t,Tj^,coj^)
Typ
>;,~MA(1)
y^ ~ ARIMA(p,d,q)
AO
(^ÄO.k f ü r r = r i
0>AO.kPl'
LS
(^Ls.k f ü r / > r ; t
^LS.k^!"
TC
RO
^rc,* • ^''^'
für ^ > r^ mit (0 < ^ < 1)
^ÄO,M
für
t = T,^
(^ROM
für
t = Ti^+\
(ORO,kM-\^-YZ=l^RO,k,m SP
für
ß'B.*(' + l - ^ * ) f ü r ^ > r ,
10
co,o.,
f ü r t = T,
-co,oye
für / = r , + l
Z-im=0 RO,k,mU
/-r^+M-l
COgPI^ für / = t^,T,^+S,T^ + 2s,...
TS
^^'* \-SB
®.F,t^'*"'mit / = 0,1,2,... ©„_,(?+1-7^5;*
Tab. 2: Ausreißereffekte in ARIMA-Modellen Ein Varianzausreißer VC bewirkt im Gegensatz zu den anderen Ausreißerarten keine Verschiebung der konditionalen Lage, sondern eine zeitabhängige Veränderung der konditionalen Streuung der Zeitreihe über den Innovationsterm a^: ia^
für t < Tj^
Ut'^ck
für t>T^
mit coyf^j^ > 0 .
356
Küsters, Becker
Für das oben angegebene Beispiel des MA(1)-Modells verändert sich der Datengenerierungsprozess einer durch einen Varianzausreißer gestörten Zeitreihe zu a^+6a^_^ z,=^a^cOyf^+6a^_^
für t
Hinsichtlich der Modellierung dynamischer Volatilitätseffekte durch ARCH- und GARCH-Modelle wird auf die einschlägige Literatur wie [7] verwiesen. 18.4.2 Diagnosetechniken Mit Ausnahme der Diagnostik von Varianzausreißern beruhen die Diagnosetechniken in ARIMA-Modellen auf einer Schätzung der Stärke coj^ der K Ausreißer für k = l,...,K . Die Ausreißerstärke wird mithilfe von Kleinste-Quadrate-Schätzern auf der Grundlage der geschätzten Residuen eines ARIMA-Modells bestimmt, wobei die Identifikation dieses Startmodells zunächst eine ausreißerfreie Zeitreihe unterstellt. Die nachfolgend skizzierte Methodik beschränkt sich zur Vereinfachung auf stationäre ARMAModelle, ist aber ohne erhebliche Änderungen auch auf instationäre ARIMA- und saisonale SARIMA-Modelle mit Regressoren anwendbar. Bei einer Zeitreihe ohne Ausreißer kann man mithilfe der infiniten autoregressiven TTRepräsentation mit 7r(B) = l + 7r^B + 7r2B^+... = 0(3)'^-(/^(B) die stochastisch unabhängige, identisch verteilte Innovationsfehlerfolge eines ARMA-Modells durch a^ =7i:{B)y^ darstellen. Tritt nun ein einziger Ausreißer der Form f,^(t,T,^,coj^) = coj^<^j^(B)IJ' auf, so erhält man durch Anwendung des korrekten ;r-Polynoms die modifizierten Residuen der kontaminierten Reihe durch e, = 7r(B)z, bzw. e, = 7r(B)[y, + CD,^,(B)IJ^ ). Für das oben angegebene MA(1)-Modell führt beispielsweise ein LS der Stärke coj^ zum Zeitpunkt r^ aufgrund der Gleichung ^t=yt+ fk (f. H. ^LSk) = (1 - 0B)a, + co^s±St' zum Regressionsmodell e,={\- OB)-' z, = a, + (1 - OBy' co,s,,S,'^. Durch die Annahme der Invertierbarkeit des MA(1)-Prozesses {-\<6<\) kann man dieses Regressionsmodell unter Zuhilfenahme der geometrischen Reihenentwicklung (1 - OB)-' =\ + eB + e^B^ +... = K{E) auch zu für / < Tu i-H
Y.Q' .^=0
^Ls,i+«r
für
t>T^
Monitoring von Prognosemodellen
357
umformen, wobei e^ die Residuensequenz des kontaminierten ARIMA-Modells für die beobachtete Zeitreihe z^ ist. Deutlich ersichtlich wird, dass die Residuen e^ der Zeitreihe nicht nur zum Zeitpunkt des Auftretens r^ des Level Shift, sondern auch in den nachfolgenden Perioden t > TJ^ beeinflusst werden. Dabei hängt der dynamische Effekt nicht nur von der Stärke coj^^j^, sondern auch von der Form von TI^B) und damit vom Gedächtnis des ARIMA-Modells der unkontaminierten Zeitreihe y^ ab. Unter Verwendung der Definition jc^ =;z-(5)5'/"* als unabhängige und e^ als abhängige Variable erhält man als Kleinsten-Quadrate Schätzer für ^^^. den Ausdruck
Im Beispiel des MA(1)-Modells gilt
7=0
Zur Diagnose eines Ausreißers wird die Hypothese H^: co,^=0 mithilfe des KleinstenQuadrate-Schätzers ^^ getestet. Weicht der Schätzer signifikant von Null ab, überschreitet also der Absolutbetrag der Teststatistik \
—
^
^Var(4)
eine vom Anwender gesetzte Kontrollgrenze, so wird ein Abweichungssignal generiert. Somit lautet die Teststatistik Ä^s,k 2:ur Diagnose eines Level Shift im Fall eines MA(1)Modells ^
ks,k -
/,
2
t
, mit VarK,^,) = — ^ ,
wobei die Varianz der unkontaminierten Residuen a^ in der Praxis durch einen Schätzer ersetzt wird. Die Berechnung der Teststatistik unterstellt, dass sowohl der Zeitpunkt des Auftretens eines Ausreißers als auch dessen Typ bekannt sind. Dies ist faktisch nicht der Fall. Aus diesem Grund werden zur Identifikation von Ausreißern die Teststatistiken Ä^yp^i^ ZU jedem möglichen Zeitpunkt berechnet. Überschreitet das Maximum der Absolutbeträge aller Teststatistiken in /^ einen vorgewählten kritischen Wert, so wird ein Ausreißer der Kategorie Typ zum Zeitpunkt r^ ^t^ diagnostiziert. In der Literatur findet man mehrere Vorgehensweisen zur Diagnose und Behandlung von Ausreißern in Box-Jenkins ARIMA-Modellen ([11], [13], [26], [51] und [57]). Die iterative Bestimmung potenzieller Ausreißer auf Basis korrigierter Residuen stellt den gemeinsamen Kern aller Verfahren dar. Unterschiede ergeben sich im Wesentlichen hinsichtlich der Schätzung der ARMA-Modellparameter und der Ausreißerstärken sowie der Anordnung und Wiederholung diverser Identifikations- und Schätzzyklen.
358
Küsters, Becker
Bei der iterativen Ausreißerdiagnose werden in einem ersten Durchlauf die Teststatistiken aller möglichen Ausreißerarten für alle logisch zulässigen Ausreißerzeitpunkte berechnet und mit den vorgegebenen Schwellenwerten verglichen. Wird ein Ausreißer identifiziert, werden die Residuen um den Nettoeffekt der Ausreißerauswirkung bereinigt. Anschließend wird die Ausreißeridentifikation erneut auf die korrigierten Residuen angewandt, ohne jedoch die ARMA-Modellparameter neu zu schätzen. Diese Prozedur wird solange wiederholt, bis sich in den korrigierten Residuen keine Ausreißermuster mehr finden lassen. Ergebnis ist eine Liste potenzieller Ausreißerzeitpunkte, denen bereits Typ und Stärke zugeordnet sind. Hinsichtlich der weiteren Vorgehensweise unterscheiden sich die diversen Verfahren. Chang, Tiao und Chen [11] kombinieren die tentativ identifizierten Ausreißer mit dem anfänglich identifizierten ARMA-Modell zu einem Interventionsfunktionsmodell, in dem Ausreißereffekte und ARMA-Modellparameter in einem zweitem Schritt simultan geschätzt werden. Anschließend wird das Verfahren auf Basis revidierter ARMA-Modellschätzer wiederholt, bis keine weiteren Ausreißer mehr identifiziert werden. Bei Tsay [57] wird die beobachtete Reihe hingegen zunächst um die tentativ identifizierten Ausreißereffekte bereinigt und zur Neuschätzung der ARMA-Modellparameter verwendet. Anschließend wird die iterative Ausreißerdiagnose erneut durchlaufen. Auch dieses Verfahren wird solange wiederholt, bis keine zusätzlichen Ausreißer mehr diagnostiziert werden. Beide Verfahren erlauben zwar eine Revision der ARMA-Modellparameter, allerdings werden die identifizierten Ausreißer nicht auf ihre Signifikanz hin überprüft. Mögliche Konsequenzen sind daher neben einer Einbettung insignifikanter Ausreißer auch Fehlklassifikationen der Ausreißertypen, die sich etwa durch die Verwendung verzerrter Schätzer aufgrund der anfänglich identifizierten und als ausreißerfrei angenommenen ARMA-Startmodelle ergeben können. Zur Vermeidung dieser Probleme werden bei dem Verfahren von Chen und Liu [13] die Effekte der potenziellen Ausreißer in einer Regression der ARMA-Residuen gemeinsam geschätzt und insignifikante Ausreißer entfernt. Anschließend werden die ARMA-Modellparameter auf Basis der um die signifikanten Ausreißereffekte korrigierten Zeitreihe neu geschätzt, bevor das Verfahren auf der Grundlage bereinigter Residuen und Beobachtungen wiederholt wird. Der iterative Ein- und Ausschluss potenzieller Ausreißer ermöglicht daher auch eine Revision der Ausreißerzeitpunkte und -typen. Diese Methoden sowie darauf basierende Varianten wie [26] unterscheiden sich vor allem durch die genaue Anordnung und Verschachtelung der Diagnose- und Schätzzyklen, wobei sich zusätzliche Differenzierungen durch den Einsatz automatischer Modellidentifikationsverfahren ergeben. Bei allen Verfahren wird ein relativ einfaches und robustes ARIMA-Modell als Startmodell ausgewählt, damit möglichst alle wichtigen Effekte des Datengenerierungsprozesses einschließlich möglicher Instationaritäten abgebildet werden. Ziel hierbei ist, dass die geschätzten Residuen nur noch die auf Ausreißer bzw. Strukturbrüche zurückzuführenden Effekte enthalten. SCA PC-Expert [53] identifiziert das Startmodell mithilfe einer Filtermethode nach Liu [40].
Monitoring von Prognosemodellen
359
Zur Verbesserung der schwierigen Trennbarkeit zwischen verschiedenen Ausreißertypen wurden neben der oben enA/ähnten robusten Schätzung nach [6] auch diverse Varianten entwickelt. Balke [2] augmentierte das Veri'ahren von Tsay [57] durch die Durchführung einer Ausreißerdiagnostik in einem ARIMA(0,0,0)-Modell, um die Güte der Diagnose von LS zu verbessern. Balkes Modifikation weist aber den Nachteil auf, dass transiente Übergänge (TC) aus der Diagnose ausgeschlossen sind, sodass Ausreißer lediglich innerhalb der eingeschränkten Menge {AO, 10, LS} zulässig sind [61]. 18.4.3 Software-Pakete Im kommerziellen Bereich existieren seit ca. 14 Jahren die beiden Softwarepakete SCA PC'Expert ([39], [53]) und Autobox [1] zur automatischen Schätzung, Modellidentifikation und Prognose saisonaler ARIMA-Modelle. Beide Systeme enthalten auch eine simultane Ausreißerdiagnostik und -Schätzung für diverse Ausreißertypen; einen Vergleich dieser beiden Systeme zum Stand 1995, der hinsichtlich der Diagnostik nach wie vor weitgehend aktuell ist, findet man in [34]. Darüber hinaus liegen mehrere akademische, nichtkommerzielle Implementationen automatischer Modellidentifikation- und Schätzveri'ahren mit Ausreißerdiagnosemodulen für saisonale Box-Jenkins Modelle vor. Siehe dazu unter anderem das Programm TSE [44], das Programm TRAMO/ SEATS [26] und das in der Programmiersprache GAUSS implementierte Programm SAMSON [55]. Ein mit SAMSON geschätztes Beispiel findet man in [37]. 18.4.4 Beurteilung Die vorgestellten Monitormechanismen in den Box-Jenkins Transferfunktions- und Interventionsmodellen sind sehr flexible Werkzeuge, mit denen man eine Vielzahl unterschiedlicher Ausreißertypen diagnostizieren und im Modell als Interventionseffekte einbetten kann. Zudem findet sowohl die Modellbildung als auch die Ausreißeridentifikation unter Einbezug einer Vielfalt potenziell möglicher Datengenerierungsprozesse, nämlich der Menge aller SARIMA-Modelle, statt. Im Unterschied zu den Monitoren in exponentiellen Glättungsmodellen ist diese Vorgehensweise damit methodisch und statistisch fundiert. In der Praxis haben sich diese Verfahren und zugehörigen Softwarepakete aber aus drei Gründen nur sehr selten durchgesetzt: 1.
Die Modelle sind konzeptionell komplex.
2.
Aufgrund unzureichender Schnittstellen ist die Integration in Planungssysteme schwierig.
3.
Die Verfahren und existierende Programme weisen eine unzureichende Robustheit gegenüber Ausnahmesituationen auf.
Siehe dazu unter anderem [34] und [36]. Ferner ist die Wahl der Schwellenwerte ebenso wie bei den Monitoren der exponentiellen Glättung häufig mehr oder weniger willkürlich, da die exakten finiten Verteilungen der Teststatistiken unbekannt sind. Daher kann man implizite Signifikanzniveaus auch nicht exakt berechnen. Ebenfalls ungeklärt sind die Probleme, die aufgrund der Tatsache auftreten, dass bei der Ausreißerdiagnostik in der Regel multiple Ausreißer bzw. Strukturbrüche identifiziert werden. Diese multiplen Testprobleme sind wegen der hohen Korrelationen zwischen den Ausreißerdiagnosestatistiken schwer beherrschbar. Aus praktischer Sicht kann man sich
360
Küsters, Becker
allerdings auf diverse Simulationsstudien wie [13] stützen, die für Zeitreihen mittlerer Länge in der Größenordnung um 7 = 100 eine Wahl der Schwellenwerte zwischen 3,0 und 4,0 nahe legen. Durch die teilweise ähnlichen dynamischen Effekte unterschiedlicher Ausreißertypen tritt auch das Problem auf, dass Ausreißertypen oft verwechselt, d. h. fehlklassifiziert werden. Dies wird insbesondere dann sichtbar, wenn bei einem inkrementellen Anwachsen der Zeitreihe (durch sukzessive Datenaugmentation) die Diagnoseroutine zwar zum gleichen Zeitpunkt wie in der vorhergehenden Iteration einen Ausreißer signalisiert, aber den Ausreißertyp ändert. Zu diesem Problemfeld existieren bisher nur wenige experimentelle Analysen [38]. Praktisch vermeidbar sind diese Zuordnungsfehler nur durch eine Einschränkung der Diagnoseroutinen auf eine reduzierte Menge von Ausreißertypen, etwa AO, LS, RO über zwei Zeitpunkte, SP und evtl. TC mit festem Gedächtnisparameter (z. B. S = 0,1), obgleich dies natürlich a priori Wissen über die Art der sachlogisch möglichen Ausreißer erfordert. Die Ausreißerdiagnostik ist hochgradig von den typischerweise verwendeten automatischen Modellidentifikationsverfahren, die ebenfalls eine weitgehende Konfiguration (z. B. hinsichtlich der Signifikanzniveaus der Modellidentifikationsstatistiken, der UnitRoot-Tests etc.) erfordern, abhängig. Daher ist die Nutzung der iterativen und simultanen Ausreißerdiagnostik in Box-Jenkins-Modellen auch eine Kunst, die viel Erfahrung bei der Wahl problemgerechter Voreinstellungen erfordert. Methodisch sind diese Abhängigkeiten jedoch geringer als bei den Monitoren der exponentiellen Glättung. 18.5 Schlussbemerkungen In diesem Beitrag wurden ausgewählte Monitortechniken für zwei wichtige Prognosemethoden, die exponentielle Glättung als Hauptvertreter heuristisch basierter Strukturkomponentenmodelle und die Box-Jenkins-Modelle als Hauptvertreter statistisch begründeter Verfahren in ihren Grundzügen skizziert. Einige Aspekte, die im Folgenden kurz aufgelistet werden, wurden dabei vernachlässigt: 1.
Bei zeitlich und sachlich fein aufgelösten Zeitreihen (etwa bei produktspezifischen täglichen Absatzzeitreihen) ist der Einbezug von Regressoren in Form von Kalendereffekten, Werbemaßnahmen etc. nahezu unverzichtbar. Exponentielle Glättungsmodelle verfügen hier nur über wenige Erweiterungen zur Einbettung von Regressoren. Box-Jenkins-Modelle wurden hingegen in Form von Transfer- und Interventionsfunktionsmodellen [8] zu dynamischen Regressionsmodellen [50] erweitert, sodass die in Abschnitt 18.4 dargestellte Ausreißeranalyse auch mit diesen Modellen kombiniert werden kann; für ein Beispiel siehe [37].
2.
Nahezu jedes zeitreihenanalytische Verfahren muss in einer geeigneten und fast immer methodenspezifischen Weise initialisiert und konfiguriert werden. Dies betrifft vor allem (a) die Wahl der Startwerte bei nichtlinearen Schätzverfahren z. B. für die Maximum-Likelihood-Schätzung in ARIMA-Modellen, (b) die Initialisierung von Komponenten z. B. für Niveau und Trend in exponentiellen Glättungsmodellen, (c) die Konfiguration von automatischen Modellsuchverfahren z. B. durch eine Festlegung des Signifikanzniveaus und der Augmentationsordnung in Dickey-Fuller-Unit-Root-Tests, (d) die Konfiguration von Monitoren z. B. durch Festlegung
Monitoring von Prognosemodellen
361
der Schwellenwerte, der maximalen Lauflängen und der zulässigen Ausreißertypen als auch (e) die Entscheidung, wie Prognoseverfahren und Monitorstatistiken nach der Generierung eines Signals reinitialisiert werden. Auf der Ebene einzelner Entscheidungen stehen oft fundierte Empfehlungen zur Verfügung, die entweder mit theoretischen Argumenten oder mithilfe von Simulationsstudien untermauert werden können. Beispielsweise findet man durchaus asymptotisch begründete Resultate über die Wahl der Augmentationsordnung von Unit-Root-Tests. Das Zusammenwirken aller Komponenten, insbesondere bei mit Ausreißern und Strukturbrüchen kontaminierten Zeitreihen, wurde bisher aber nur sehr unzureichend untersucht. 3.
Unabhängig von den oben beschriebenen Konfigurationsproblemen muss man bei Anwendung der Monitore auf lange Zeitreihen und bei Produkthierarchien mit zahlreichen Zeitreihen konstruktionsbedingt eine Vielzahl von Fehlsignalen in Kauf nehmen. Unter Verwendung eines zu einem Signifikanzniveau von 1 % korrekt kalibrierten Monitors muss ein Absatzplaner bei der Analyse der wöchentlichen Zeitreihen einer Produkthierarchie mit 1000 Artikeln durchschnittlich mit ca. 10 wöchentlichen Signalen rechnen, obgleich keine Ausreißer vorliegen!'•'' Grundsätzlich wünschenswert und denkbar wäre hier eine Kopplung der Monitore mehrerer verbundener Zeitreihen. Erste Ansätze existieren für vektorielle ARMA-Modelle [58]. Voraussetzung für eine praktische Nutzung in Produkthierarchien sind aber simultane Komponentenmodelle, deren Entwicklung sich noch in den Anfängen befindet.
4.
Die in diesem Beitrag behandelten Konzepte wurden vielfach verfeinert und modifiziert. Beispielsweise entwickelte Kirkendall [33] in der Tradition des ursprünglich von Harrison und Stevens [29] entwickelten mehrstufigen bayesianischen Modells mit den vier Systemzuständen (1) Standard, (2) additiver Ausreißer, (3) Niveauveränderung und (4) Trendänderung einen Monitor für AO und LS in exponentiellen Glättungsmodellen. Diese Erweiterungen fanden aber aufgrund der formalen Komplexität (z. B. bayesianische Modellmischungen) bisher noch keinen Einzug in die Praxis.
Zahlreiche Zeitreihen enthalten Ausreißer bzw. Strukturbrüche mit singulären, temporären oder permanenten Auswirkungen auf die Prognosefunktion. Idealerweise wird man zwar möglichst genaue Informationen über Ausnahmesituationen sammeln und diese in einer strukturierten Form mithilfe von Kausaleffekten in dynamische Regressionsmodelle einbetten. In der Praxis lässt es sich aufgrund der Informationsdefizite jedoch kaum vermeiden, Ausreißer zu diagnostizieren und in einer angemessenen Art und Weise statistisch zu berücksichtigen. Für diesen Zweck eignen sich die in diesem Beitrag skizzierten Verfahren. Zur Robustifizierung der Parameterschätzer und der zugehörigen Diagnoseverfahren wird man in Zukunft aber vermutlich stärker als bisher Verfahren der robusten Statistik einsetzen, um die hochgradigen Abhängigkeiten der Ausreißerklassifikation von den Modellidentifikations- und Schätzmethoden zu reduzieren. Durch den Einsatz computerbasierter Verfahren, insbesondere zur Simulation von
''''
Eine einfache, wenn auch theoretisch nicht begründete Lösung besteht darin, nur die über die statistische Erwartung hinausgehenden Ausreißer nach abnehmender Stärke zu inspizieren. Generiert der Monitor im oben angegebenen Beispiel etwa 15 Signale, so wäre nach diesem Ansatz eine Inspektion der 5 stärksten Ausreißer erforderlich.
362
Küsters, Becker
Quantilen unter vielfältigen Datengenerierungsprozessen, lässt sich das Problem der Fehlsignale zwar nicht eliminieren; allerdings kann man mit diesen Verfahren ein genaueres Bild über die relativen Risiken der Diagnoseverfahren gewinnen. Dieser Aufsatz konzentriert sich fast ausschließlich auf die systematische Untersuchung von Prognose-Ist-Vergleichen mithilfe statistischer Monitore. Die in der Einleitung erwähnten Plan-Ist-Vergleiche wurden hingegen ausgeklammert, da diese typischerweise als rein betriebswirtschaftliche Kennzahlensysteme realisiert werden. Allerdings wurden durch Wu [64] sowie Wu, Hosking und Doli [65] drei statistisch begründete Monitortechniken für Plan-lst-Vergleiche entwickelt. Mit diesen als WINEGLASS, SIHIPWRECK und OUTLOOK bezeichneten Monitoren kann man untersuchen, (a) ob die monatlichen Absätze noch mit dem Jahresziel vereinbar sind, (b) ob bei einem hinter Plan zurückliegenden Absatz noch eine Chance besteht, das Jahresziel zu erreichen und (c) mit welchen Zufallsschwankungen man bei den auf der Basis von Monatsdaten hochgerechneten Jahresendwerten rechnen muss. Leider wurde dieser hochinteressante Ansatz bisher noch nicht weiterentwickelt, obgleich gerade aufgrund der häufigen Verwechslung zwischen den Konzepten „Prognose" und „Plan" in der Praxis ein erheblicher Bedarf an derartigen Instrumenten besteht. Danksagung Die Arbeit von Claudia Becker wird großzügig von der Maximilian-Bickhoff-Universitätsstiftung, bei der wir uns herzlich bedanken, gefördert. Weiterhin bedanken wir uns bei Bernhard Brandel, Oliver Vogt und Tobias Wintz für hilfreiche Kommentare zu einer Vorversion dieses Beitrags. Für alle Fehler und Unzulänglichkeiten sind jedoch wir verantwortlich. 18.6 Literatur [I] [2] [3] [4] [5]
[6]
[7] [8] [9] [10] [II]
Automatic Forecasting Systems Inc. (AFS), Autobox 5.0 for Windows, User's Guide and Reference Guide, P.O. Box 563, Hatboro, PA 19040, http://www.autobox.com, 2002. Balke, N.S., Detecting level shifts in time series, Journal of Business and Economic StatisticsH (1993), S. 81 ff. Banerjee, A., Dolado, J., Galbraith, J.W. und Hendry, D.F., Co-Integration, Error-Correction, and the Econometric Analysis of Non-Stationary Data, Oxford 1993. Batty, M., Monitoring an Exponential Smoothing Forecasting System, Operational Research Quarterly 20 (1969), S. 319. ff Bell, W., A Computer Program for Detecting Outliers in Time Series, American Statistical Association, Proceedings of the Business and Economic Statistical Section (1983), S. 634 ff. Bianco, A.M., Garcia Ben, M., Martinez, E.J. und Yohai, V.J., Outlier Detection in Regression Models with ARIMA Errors using Robust Estimates, Journal of Forecasting 20 (2001), S. 565 ff. Brooks, C, introductory econometrics for finance, Cambridge 2002. Box, G.E.P., Jenkins, G.M. und Reinsei, G.C., Time Series Analysis, Forecasting and Control, Englewood Cliffs 1994. Brown, R.G., Statistical Forecasting for Inventory Control, New York 1959. Brown, R.G., Smoothing, Forecasting and Prediction, New York 1963. Chang, I., Tiao, G.C. und Chen, C, Estimation of Time Series Parameters in the Presence of Outliers, Technometrics 30 (1988), S. 193 ff.
Monitoring von Prognosemodellen [12] [13] [14]
[15] [16] [17] [18] [19]
[20] [21] [22] [23] [24] [25] [26]
[27] [28]
[29] [30] [31]
[32] [33] [34]
[35]
363
Chatfield, C , Time-Series Forecasting, Boca Raten 2001. Chan, C. und Liu, M.L., Joint Estimation of Model Parameters and Outlier Effects in Time Series, Journal of the American Statistical Association 88 (1993), S. 284 ff. Chen, C. und Tiao, G.C., Random Level-Shift Time Series Models, ARIMA Approximations, and Level-Shift Detection, Journal of Business and Economic Statistics 8 (1990), S. 83 ff. Chol, B., ARMA Model Identification, New York 1992. Chow, W.M., Adaptive Control of the Exponential Smoothing Constant, Journal of Industrial Engineering 5 (1965), S. 314 ff. Cromwell, J.B., Labys, W.C. und Terraza, M., Univariate Tests for Time Series Models, Thousand Oaks 1994. Davidson, R. und MacKinnon, J.G., Estimation and Inference in Econometrics, New York 1993. DeGooijer, J.G., Abraham, B., Gould, B. und Robinson, L., Methods for Determining the Order of an Autoregressive-Moving Average Process: A Survey, International Statistical Review3(1985), S. 301 ff. DeLurgio, S.A., Forecasting Principles and Applications, New York 1998. Dennis, J.D., A Performance test of a run-based adaptive exponential forecasting technique, Production and Inventory Management 19 (1978), S. 43 ff. Fox, A.J., Outliers in Time Series, Journal of the Royal Statistical Society Series B 34 (1972), S. 350 ff. Gardner, E.S., Automatic Monitoring of Forecast Errors, Journal of Forecasting 2 (1983), S. 1 ff. Gardner, E.S., Exponential Smoothing: The State of the Art, Journal of Forecasting 4 (1985), S. 1 ff. Gardner, E.S., CUSUM vs Smoothed-Error Forecasting Monitoring Schemes: Some Simulation Results, Journal of the Operational Research Society 36 (1985), S. 43 ff. Gömez, V. und Maravall, A., Automatic Modeling Methods for Univariate Series, in: Pena, D., Tiao, G.G. und Tsay, R.S. (Hrsg.), A Course in Time Series Analysis, New York 2001, S. 171 ff. Hanssens, D.M., Parsons, L.J. und Schultz, R.L., Market Response Models: Econometric and Time Series Analysis, 2. Aufl., Boston 2001. Harrison, P.J. und Davies, O.L., The Use of Cumulative Sum (CUSUM) Techniques for the Control of Routine Forecasts of Product Demand, Operations Research 12 (1964), S. 325 ff. Harrison, P.J. und Stevens, C.F., Bayesian forecasting, Journal of the Royal Statistical Society38(1976), S. 205ff. Harvey, A.C., Forecasting, structural time series models and the Kaiman filter, Cambridge 1989. Heiler, S., Nonparametric Time Series Analysis: Nonparametric Regression, Locally Weighted Regression, Autoregression and Quantile Regression, in: Pena, D., Tiao, G.C. und Tsay, R.S. (Hrsg.), A Course in Time Series Analysis, New York 2001, S. 308 ff. Jun, D.B., On Detecting and Estimating a Major Level or Slope Change in General Exponential Smoothing, Journal of Forecasting 8 (1989), S. 55 ff. Kirkendall, N.J., Monitoring for Outliers and Level Shifts in Kaiman Filter Implementations of Exponential Smoothing, Journal of Forecasting 11 (1992), S. 543 ff. Küsters, U., Software Review: Autobox 3.0 and SCA PC-Expert. The Forum, Joint Newsletter of the International Association of Business Forecasting and the International Institute of Forecasters 8 (1995), S. Iff. Küsters, U., Subjektive Interventionen und Prozeßänderungsdiagnostik in bayesianischen Prognosemodellen, Woinzach 1996.
364 [36] [37]
[38]
[39]
[40] [41]
[42] [43] [44] [45] [46] [47] [48] [49]
[50] [51] [52] [53]
[54] [55]
[56] [57] [58]
Küsters, Becker Küsters, U. und Bell, M., The Forecasting Report: A Comparative Survey of Commercial Forecasting Systems, Höhenkirchen und Brookline, MA 1999. Küsters, U., Scharffenberger, U. und Steffen, J.P., Outlier Diagnostics in ARMAX Models, in: Faulbaum, F. und Bandilla, W. (Hrsg.), SoftStat'95 - Advances in Statistical Software 5, Stuttgart 1996, S. 569 ff. Küsters, U. und Steffen, J.P., Outlier Recognition Time Paths in SARIMAX models: a case study. Diskussionsbeitrag der Katholischen Universität Eichstätt, Wirtschaftswissenschaftliche Fakultät Ingolstadt Nr. 72, ISSN 0938-2712, 1996. Liu, L.M., Hudak, G.B., Box, G.E.P., Muller, M.E. und Tiao, G.G., Forecasting and Time Series Analysis using the SCA Statistical System, Volume 1, Scientific Computing Associates Corp., P.O. Box 4692, Oak Brook, lllionois 60522, USA 1992. Liu, L.M., Identification of Seasonal ARIMA Models Using a Filtering Method, Communications in Statistics 18 (1989), S. 2279 ff. Makridakis, S., Andersen, A., Carbone, R., Fildes, R., Hibon, M., Lewandowski, R., Newton, J., Parzen, E. und Winkler, R., The accuracy of extrapolation (time series) methods: Results of a forecasting competition, Journal of Forecasting 1 (1982), S. 111 ff. McCIain, J.O., Dominant Tracking Signals, International Journal of Forecasting 4 (1988), S. 563 ff. McKenzie, E., The Monitoring of Exponentially Weighted Forecasts, Journal of the Operational Research Society 29 (1978), S. 449 (Erratum in Band 31 (1980), S. 960). Melard, G. und Pasteeis, J.M., Automatic ARIMA modelling including interventions, using time series expert Software, International Journal of Forecasting 16 (2000), S. 497 ff. Montgomery, D.C., Introduction to Statistical Quality Control, New York 1991. Montgomery, D.C., Johnson, L.A. und Gardiner, J.S., Forecasting and Time Series Analysis, 2. Aufl., New York 1990. Newbold, P. and Bos, T., On exponential smoothing and the assumption of deterministic trend plus white noise. International Journal of Forecasting 5 (1989), S. 523 ff. Newbold, P. und Bos, T., Introductory Business and Economic Forecasting, Cincinnati 1994. Ord, J.K, Koehler, A.B. und Snyder, R.D., Estimation and Prediction for a Class of Dynamic Nonlinear Statistical Models, Journal of the American Statistical Association 92 (1997), S. 1621 ff. Pankratz, A., Forecasting with dynamic regression models, New York 1991. Pena, D., Outliers, Influential Observations and Missing Data, in: Pena, D., Tiao, G.C. und Tsay, R.S. (Hrsg.), A Course in Time Series Analysis, New York 2001, S. 136 ff. Reichmann, T., Controlling mit Kennzahlen und Managementberichten, München 1993. Scientific Computing Associates Corp. (SCA), Modeling and Forecasting Time Series using SCA-Expert Capabilities, 913 W. Van Buren Street, Suite 3H, Chicago, Illinois 60607-3528, http://www.scausa.com, 1993 Shone, M.L., Viewpoints: Exponential smoothing with an adaptive response rate, Operational Research Quarterly 18 (1967), S. 318 ff. Steffen, J.P. und Küsters, U., SAMSON - Ein Programm zur automatischen Prognose von saisonalen Box-Jenkins Modellen, Diskussionsbeiträge der Katholischen Universität Eichstätt, Wirtschaftswissenschaftliche Fakultät Ingolstadt, Nr. 115, ISSN 0938-2712, 1999. Stellwagen, E.A. und Goodrich, R.L., Forecast Pro XE, Business Forecast Systems Inc., 68 Leonard Street, Belmont, MA 02178 USA, 1993. Tsay, R.S., Outliers, Level Shifts, and Variance Changes in Time Series, Journal of Forecasting 7 (1988), S. 1 ff. Tsay, R.S., Pena, D. und Pankratz, A.E., Outliers in multivariate time series, Biometrika 87 (2000), S. 789 ff.
Monitoring von Prognosemodellen [59] [60] [61] [62] [63] [64] [65] [66]
365
Trigg, D.W., Monitoring a forecasting System, Operational Research Quarterly 15 (1964), S. 271 ff. Trigg, D.W. und Leach, A.G., Exponential smoothing with an adaptive response rate, Operational Research Quarterly 18 (1967), S. 53 ff. Vaage, J., Detection of Outliers and Level Shifts in Time Series: An Evaluation of Two Alternative Procedures, Journal of Forecasting 19 (2000), S. 23 ff. West, M. und Harrison, P.J., Bayesian Forecasting and Dynamic Models, 2. Aufl., New York 1997. Wu, L.S.-Y., Hosking, J.R.M. und Ravishanker, N., Reallocation Outliers in Time Series, Journal of the Royal Statistical Society Series C 42 (1993), S. 301 ff. Wu, L.S.-Y., Business planning under uncertainty: Quantifying variability, The Statistician37(1988), S. 141 ff. Wu, L.S.-Y., Hosking, J.R.M. und Doli, J.M., Business planning under uncertainty. Will we attain cur goal? International Journal of Forecasting 8 (1992), S. 545 ff. Whybark, D.C., A comparison of adaptive forecasting techniques, The Logistics and Transportation Review 8 (1973), S. 13 ff.
19 Evaluation, Kombination und Auswahl betriebswirtschaftlicher Prognoseverfahren von Ulrich Küsters 19.1 Überblick Prognoseprobleme in der betriebswirtschaftlichen Praxis sind sehr vielfältig. Das Spektrum reicht von hochfrequenten Prognosen im Energiesektor (z. B. Bedarfsprognosen in 15 Minuten Abständen) und in Kapitalmärkten (z. B. Kurse) über die kurz- und mittelfristige Prognose von Absätzen und Umsätzen in umfangreichen Produkthierarchien bis zur Prognose langfristiger Entwicklungen wie etwa dem Bedarf nach Gesundheitsdienstleistungen bis 2030 (z. B. für die Krankenhausbedarfsplanung einer Region). Dementsprechend unterschiedlich sind auch die für die verschiedenen Anwendungen entwickelten Prognoseverfahren und die dahinter stehenden Auswahlprozesse. Idealerweise wird die Selektion einer Prognosemethodologie in einen strukturierten Prozess eingebettet [69], in dem man ausgehend von einer Stärken-Schwächen-Analyse der bisher benutzten Verfahren, von den Informationsgrundlagen und von einer genauen Bedarfsanalyse einen Migrationspfad entwickelt, der die Prognosequalität unter Beachtung von Kosten-Nutzen-Aspekten iterativ verbessert. Innerhalb dieses Prozesses spielt neben der präzisen Evaluation der Leistungsfähigkeit der bisher benutzten Verfahren (Track Records) auch eine Prüfung der potenziell nutzbaren Daten und Verfahren sowie deren Prognosegenauigkeit und Umsetzbarkeit eine wichtige Rolle. In der Literatur werden verschiedene Vorgehensweisen beschrieben, mit denen Prognoseverfahren in der Praxis ausgewählt werden. Armstrong [5] identifiziert sechs Strategien, die von der Auswahl nach (1) Bequemlichkeit, (2) Marktpopularität, (3) grundlegenden strukturellen Kriterien wie wahrgenommene Genauigkeit, Flexibilität und Kosten, (4) statistischen Kriterien wie die gemessene Prognosegenauigkeit, (5) einer Analyse der Leistungsfähigkeit in der Vergangenheit bis (6) zur Auswahl eines Verfahrens aufgrund einer Meta-Analyse der Leistungsfähigkeit in vergleichbaren Situationen (z. B. in Prognosewettbewerben) reichen. In diesem Beitrag werden ausgewählte Methoden zur Bewertung, Kombination und Auswahl von Prognoseverfahren diskutiert. Aufgrund der Vielfalt unterschiedlicher Prognoseverfahren, die die Vielfalt betriebswirtschaftlicher Prognoseprobleme widerspiegelt, ist diese Auswahl natürlich subjektiv. Inhaltlich konzentriert sich dieser Beitrag vor allem auf die für die Verfahrensauswahl wichtige statistische Evaluation der Prognosegenauigkeit (Abschnitt 19.2), die Kombination von Prognosen (Abschnitt 19.3) und die Rolle von Prognosewettbewerben (Abschnitt 19.4). Weiterhin werden auf der Grundlage einer kurzen Darstellung struktureller Merkmale und Anforderungskataloge einige subjektive Hinweise zur Auswahl von Prognoseverfahren gegeben (Abschnitt 19.5). Durch die Beschränkung auf zeitreihenbasierte Ansätze werden einige Methoden nicht berücksichtigt. Dazu gehören etwa Prognoseverfahren aufgrund von Analogien, querschnittsbasierte Conjoint-Analysen sowie beurteilende Prognosemethoden wie Delphi.
368
Küsters
Die besonderen Probleme der Evaluation und Auswahl von Verfahren zur Prognose von Kapitalmarktdaten und deren Umsetzung in Transaktionsregeln werden ebenfalls weitgehend ausgeklammert, obgleich die hier beschriebenen Ansätze der Prognoseevaluation zumindest teilweise in diesem Segment anwendbar sind. Damit schließt sich dieser Beitrag an die Tradition der von Mertens und Backert [67] bzw. Hüttner [46] verfassten Vorgängerartikel in der vierten [65] bzw. fünften [66] Auflage dieses Sammelbands an, die sich ebenfalls auf zeitreihenbasierte Ansätze vor allem im Absatzbereich konzentrieren. Die in diesem Aufsatz behandelten Themen werden in mehreren Beiträgen ausführlich im Sammelband von Armstrong [4] dargestellt. In Diebold und Lopez [28], in der Monographie von Granger und Newbold [42] sowie im Sammelband von Clements und Hendry [22] werden einige Themenfelder dieses Beitrags vor allem aus ökonometrischer Sicht behandelt. Die kommentierte Bibliographie von Giemen [21] gibt einen ausführlichen Überblick über Kombinationsverfahren. 19.2 Evaluation der Prognosegenauigkeit 19.2.1 Grundlagen der Evaluation Sowohl Praktiker als auch Theoretiker nennen in Befragungen (siehe u.a. [15] und [5]) fast durchweg eine hohe Genauigkeit als wichtigstes Kriterium zur Auswahl von Prognoseverfahren und Systemen, obwohl auch eine Reihe praktischer Kriterien, auf die in Abschnitt 19.5 kurz eingegangen wird, als wichtig erachtet werden. Dementsprechend zentral ist eine genaue Beschreibung, was unter Prognosegenauigkeit verstanden wird und wie diese gemessen werden kann. Aus methodischer Sicht können Prognosen einer Zeitreihe y^ mit t = l,2,... mit fünf unterschiedlichen Genauigkeitsgraden formuliert werden, die jeweils unterschiedliche Evaluationstechniken erfordern: 1.
Punktprognosen y^ von Lagemaßen wie konditionale Mediane und Erwartungswerte, als Grenzfall auch Punktprognosen anderer Parameter der Prognoseverteilung wie die konditionale Varianz (gelegentlich auch Quantile).
2.
Intervallprognosen [i^^^^j^^^] zu einer vorgegebenen Intervallwahrscheinlichkeit \-a mit p(y^ G[j)^^,j)^^]j = l - a ; die unter (1) genannten Quantile sind hier ein Spezialfall.
3.
Wahrscheinlichkeitsprognosen von Ereignissen, z. B. der Wahrscheinlichkeit P(y^ =1), dass ein Kredit Not leidend wird. Siehe dazu auch den Beitrag von Krämer (Kapitel 23) in diesem Sammelband.
4.
Ereignisprognosen in diskreter Form, z. B. in Form einer konkreten Aussage, dass ein Kredit Not leidend wird, d. h. j ) ^ = l . Zu dieser Gruppe gehören auch Richtungsprognosen der Form Ay^ =y^ -y^_^ >0 (hoch versus runter), wie sie etwa zur Steuerung von Handelsstrategien verwendet werden.
5.
Dichteprognosen f{y^) der Dichte f(y^) der zu prognostizierenden Variablen;;^, aus denen die Formen 1 bis 3 abgeleitet werden können und aus denen sich mit-
Evaluation von Prognoseverfahren
369
hilfe einer Entscheidungsvorschrift auch Ereignisprognosen der Form (4) herleiten lassen. Typischerweise werden bedingte Prognosen für y^ durch eine Konditionierung der Prognose y^ auf die Historie [y^,...,y^_^] erstellt, wobei zusätzlich auch erklärende Variablen jc^,x^_i,... einbezogen werden können. Die Form der Prognose hängt einerseits vom Bedarf eines Nutzers, andererseits aber auch von der Datenlage und den im Unternehmen verfügbaren bzw. nutzbaren Standard-Software-Paketen und Prognoseverfahren ab. Idealerweise lässt sich aus der Nutzerperspektive eine Kosten- oder Risikofunktion Riy^^y^) angeben [38], mit der die mit den ökonomischen Konsequenzen von Fehlprognosen verbundenen Kosten beschrieben werden. Die Wahl der Risikofunktion wird von den Entscheidungen beeinflusst, die mithilfe der Prognosen erstellt werden (etwa die Festlegung von Sicherheitsbeständen auf der Grundlage von Lage- und Streuungsprognosen in Verbindung mit Verteilungsannahmen). In der Praxis ist es oft schwer, die aus zu hohen bzw. zu niedrigen Punktprognosen resultierenden Kosten (z. B. durch Lagerüberbestände, Verschrottung und Kundenabwanderungen) genau zu beschreiben. Daher begnügt man sich fast immer mit statistischen Ersatzkriterien. Idealerweise wird man auch Dichteprognosen generieren, da sich diese im Regelfall weitaus besser als Punkt- und Intervallprognosen zur optimalen Steuerung nutzen lassen. Allerdings benötigt man für genaue Prognosen der konditionalen Dichten relativ lange Zeitreihen, wie man sie im Regelfall nur bei Energie-, Kapitalmarkt- und Scannerdaten findet. Außerdem ist das statistische Instrumentarium der Dichteschätzung [88] und deren Evaluation noch nicht durchgängig entwickelt; dementsprechend selten findet man Anwendungen im Bereich der betriebswirtschaftlichen Prognostik. Der überwiegende Teil der nachfolgenden Ausführungen beschränkt sich auf die Bewertung der Güte von Punktprognosen mithilfe des Prognosefehlers e^=yf-y^, definiert als Differenz zwischen der Beobachtung y^ und der Punktprognose y^ =f^_^(^h) vom Prognoseursprung t-h mit Horizont h. Manchmal wird auch ein aus diesen beiden Konstituenten zusammengesetztes Risikomaß Riy^.y^) verwendet, das möglicherweise als betriebswirtschaftliche Kostenfunktion oder mit negativem Vorzeichen als Nutzenfunktion interpretiert werden kann. Die Evaluation von Wahrscheinlichkeits-, Ereignis-, Intervall-, Richtungs- und Dichteprognosen wird unten nur kurz skizziert. 19.2.2 Differenzierungsmerkmale von Evaluationsmaßen Die in der Literatur vorgeschlagenen Prognoseevaluationsmaße und zugehörigen Informationsbasen lassen sich durch folgende Merkmale unterscheiden: 1.
Die Vorschrift zur Berechnung der Prognose y^, die von vier Faktoren abhängt: • • • •
Dem Prognoseverfahren und dessen Implementation. Dem Prognoseursprung t-h bzw. dem Prognosehorizont h. Dem Verfahren zur Schätzung der Prognosefunktionsparameter 0 und damit des Parameterschätzers 6. Der zur Schätzung von 6 benutzten Informationsbasis / , die üblicherweise aus der Historie {y^,...,y^_f^} bis zum Prognoseursprung t-h, manchmal aber auch aus der gesamten Zeitreihe {y^,...,yj^}, besteht. Hinzu treten möglicherweise weitere Informationen wie Regressoren x^.
370
Küsters Zur Verdeutlichung dieser Abhängigkeiten wird die Prognose y^ manchmal durch f^_^(h\3j) dargestellt. Variationen der bei der Schätzung der //-stufigen Prognosefunktion genutzten Informationen (Daten) / führen hier zu erheblichen Unterschieden.
2.
Unmittelbar werden die Prognosefehler ef_^(h) = yf -f^_^{h\0J) meistens nur grafisch als Zeitreihe inspiziert. Zur analytischen Bewertung der Güte findet hingegen im Regelfall eine Mittelwertbildung über mehrere Prognosefehler statt, mit der das durch eine Fehlprognose implizierte Risiko (idealerweise in Form einer betriebswirtschaftlich begründeten Kostenfunktion) geschätzt wird. Diese Mittelwertbildung erfordert drei weitere Festlegungen: •
Die Operationalisierung der Abweichung durch eine Risikofunktion R{y^,y^), mit der etwa festgelegt wird, ob Abweichungen nach unten und nach oben gleich gewichtet werden, und ob diese relativ oder absolut, proportional oder quadratisch in das Maß eingehen etc. EnA/eiterte Maße wie der RAE (relative absolute error) beziehen das Risikobewertungsmaß auch auf ein BenchmarkVerfahren; beispielsweise verwendet das Maß U2 von Theil (siehe [59]) die naive Random Walk-Prognose f^{h) = yj als Bezugspunkt (Benchmark).
•
Die Festlegung, ob Durchschnittsmaße über unterschiedliche Prognoseursprünge t in ft.hih) bei konstantem Horizont h, über unterschiedliche Horizonte h bei konstantem Prognoseursprung t und/oder über sachlich unterschiedliche Zeitreihen k berechnet werden.
•
Eine Entscheidung, mit welcher mathematischen Operation eine Durchschnittsbildung durchgeführt wird. Neben Standardformeln wie dem arithmetischen Mittel und dem Median werden auch andere Varianten wie geometrische und getrimmte Mittelwerte verwendet.
Eine weitere Alternative besteht in der Ermittlung von Durchschnittsrängen einzelner Methoden. Zur Notation: Unterschiedliche Methoden (Prognoseverfahren) werden von m = l,...,M, unterschiedliche Zeitreihen von k = \...,K, unterschiedliche Horizonte von h = l,...,H und unterschiedliche Ursprünge von t = \,...,T indiziert. Die ultimative Prognosegenauigkeit eines Verfahrens und der im Rahmen der Verfahrensanwendung genutzten Szenarien und Zusatzinformationen (z. B. Regressoren) kann nur ex post nach Beobachtung der zu den einzelnen Prognosen gehörenden Werte bewertet werden. Allerdings wird diese ex post Evaluation, die auch als TrackRecord-Analyse oder retrospektive Evaluation bezeichnet wird, eher selten vorgenommen. Meistens wird eine der im nächsten Abschnitt beschriebenen Prognosesimulationen durchgeführt. 19.2.3 Untersuchungsdesigns Bei der Evaluation der Genauigkeit von Prognoseverfahren lassen sich drei Untersuchungsdesigns unterscheiden: 1.
Die Berechnung der Anpassungsgüte innerhalb einer Zeitreihe auf Grundlage von ex post Prognosen.
Evaluation von Prognoseverfahren
371
2.
Die retrospektive Analyse eines Track Records einer ex ante berechneten Prognose in einer realen Entscheidungssituation.
3.
Die Festlegung der Funktionsform und Parametrisierung der Prognosefunktion mithilfe einer Prognosesimulation auf der Grundlage einer unvollständigen, gestutzten Zeitreihe (Kalibrationsstichprobe, within-sample), wobei die Bewertung der Prognosegüte ausschließlich auf den nicht zur Kalibration genutzten, aber bereits verfügbaren Daten einer Teststichprobe (out-of-sample) beruht.
Im Folgenden werden die wichtigsten Gestaltungsmerkmale dieser Designs anhand Abbildung 1 diskutiert, bevor auf die konkrete Berechnung der Fehlerevaluationsmaße eingegangen wird. Ausgangspunkt ist dabei eine Zeitreihe {y^,y2,...,y^,y^+i,...,yr} der Länge T. Kalibrationsstichprobe (Umfang N)
r
Teststichprobe (Umfang T-N)
A.
Statische Simulation (h=1,...,T-N)
r
h=4
h=3 h=2 h=1
j ^
C^
^^^J^ h=2 h=2 h=2
t = 1, 2,
N, N+1, N+2, N+3,
Prognosezeitraum (Länge H)
r C^ Kr^>
A.
Dynamische (rollierende)Simulation (hier h=2 fix, Ursprung t variierend)
T, T+1, T+2,
T+H
Abb. 1: Kalibrationsstichprobe, Teststichprobe und Prognosezeitraum Die drei oben genannten Fälle können wie folgt präzisiert werden: 1.
Ex post Evaluation cfer Anpassungsgüte.' Nutzung der gesamten Stichprobe sowohl zur Festlegung des Prognoseverfahrens bzw. der Prognosefunktion f^(h\dj) für /==!,...,r als auch zur Schätzung 6 des Parameters 0, d.h. I = {y^,...,yrj.]. Bei dieser Vorgehensweise wird nicht die Prognosefähigkeit, sondern nur die Anpassungsgüte gemessen, wobei diverse empirische Studien zeigten, dass eine hohe Anpassungsgüte in vielen Fällen nicht mit einer hohen ex ante Prognosegenauigkeit der evaluierten Prognosemethode m assoziiert werden kann [6].
2.
Retrospektive ex post Evaluation einer realen ex ante kalkulierten Prognosefunktion (Track-Record'Analyse): Hier wird fj^{h\dj) außerhalb der Zeitreiheninformationsbasis [y^,...,yj,] zum Zeitpunkt T (als Prognoseursprung) für verschiedene Horizonte h = l,...,H zur realen Prognose noch nicht verfügbarer Datenpunkte {yT+i-'-^yT+n] genutzt und an einem nach T + H liegenden Zeitpunkt zur retrospektiven Bewertung der realisierten Abweichungen zwischen yj^^^ und fj{h\6J) ausgewertet. Im Rahmen eines strukturierten Kontrollprozesses ist diese Inspek-
372
Küsters tion des Track Records als Wegbeschreibung zwischen „Prognose" und „Ist" zur Erfassung der bisher realisierten Prognosequalität sehr sinnvoll. Für die Entscheidungsfindung, welches Verfahren sich aus einer Menge konkurrierender Verfahren am besten eignet, lässt sich diese Technik aber nur nutzen, wenn die Zeitreihe bereits zum Prognoseursprung T mit mehreren konkurrierenden Verfahren prognostiziert wurde; ansonsten eignet sich dieser Ansatz nur zur isolierten Bewertung der Vergangenheit.
3.
Prognosesimulation mit Kalibrations- und Teststichprobe: Hier wird der Fall 2 simuliert, indem die Prognosefunktion f^{h\6J) zunächst auf der Grundlage der Kalibrationsstichprobe festgelegt und geschätzt wird, d. h., zur Auswahl der Prognosefunktion, zur Schätzung der Parameter 6 als auch zur Berechnung der Prognosen wird ausschließlich die Informationsbasis I^=[y^,y^,...,y^] einschließlich möglicherweise zugehöriger Regressoren x^ genutzt. Anschließend berechnet man ausgehend vom Prognoseursprung A^ die Punktprognosen yN+h=fN(^\^N^^N) für alle Horizonte h = l,...,T-N. Dabei ist ö^ der Schätzer für 0 auf der Grundlage der Informationsbasis Ij^.
Aus praktischer Sicht ist Fall 3 wegen der enormen Bedeutung für die fallspezifische Auswahl von Prognoseverfahren, der allgemeinen Bewertung von Methoden im Rahmen der im Abschnitt 19.4 skizzierten Prognosewettbewerbe sowie zur empirischen Schätzung von Prognosekonfidenzintervallen [96] am interessantesten. Bei statischen Prognosesimulationen kann man nur in einem beschränkten Umfang Durchschnittswerte mehrerer Fehler ermitteln. Eine oft praktizierte Durchschnittsbildung erfolgt über mehrere unterschiedliche Prognosehorizonte bei festem Ursprung A^, was oft der Situation einer jährlichen Unternehmensplanung mit festem Prognoseursprung (etwa im Planungsmonat September) für alle zu prognostizierenden Monatsdaten des Folgejahres entspricht. Eine andere Form der Durchschnittsbildung, wie sie auch bei allen bekannteren und in Abschnitt 19.4 skizzierten Prognosewettbewerben praktiziert wurde, mittelt die zu einem festen Prognosehorizont h und zu einem festen Ursprung N korrespondierenden Fehler e\^\^(h) = y\!j\^ - fj^'\h) bzw. abgeleitete, gewichtete Größen über mehrere Zeitreihen /. Eine wichtige Variante von Fall 3 ist die dynamische Prognosesimulation, bei der die Kalibrationszeitreihe /^ =[y^,y2,...,y^} sukzessiv um jeweils eine Beobachtung {y^+i, dann y^^^ etc.) zu lM^i={y\^y2^-^yN^yN+i} etc. bis zu Ij^_^={y^,y2,...,y^,...,yr.x} erweitert wird. Aus jeder Informationsbasis I^ entsteht dann eine Serie von Prognosen ff(h\3^J^) mit variierenden Parameterschätzern 4 ^^^ variierenden Prognoseursprüngen t = N,N + l,...,T-\ sowie variierenden Horizonten h = \,...,T-t, die bereits bei einer einzigen Zeitreihe Rückschlüsse auf die Prognosegüte des Verfahrens für unterschiedliche Horizonte ermöglicht, da insgesamt T-N einstufige, T-N-\ zweistufige Prognosefehler usw. für eine Durchschnittsbildung zur Verfügung stehen. In der Ökonometrie [62] wird die zugehörige Schätzmethode als rekursive Schätzung bezeichnet. Charakteristische Varianten der dynamischen Prognosesimulation sind unter anderem ([85], [50]):
Evaluation von Prognoseverfahren
373
1.
Die Verwendung rollierender Fenster bei den Informationsbasen IuK..,N^k ={yuk^yi^k^'"^yN^'"^yN^k]. sodass die Anzahl der zur Schätzung verwendeten Beobachtungen auf N fixiert wird. Diese Form wird als rollierende Schätzung bezeichnet.
2.
Die Fixierung der Modellfamilie und Modellparametrisierung (etwa der ARIMA(p,d, q)-Modellordnung bei Box-Jenkins-Modellen) und der auf der Informationsbasis [y^,...,yj^] geschätzten Parameter O^, sodass lediglich eine sukzessive Datenaugmentation durch y^^x.'-.yj^^k ©rfolQt; dies wird als fixe Schätzung bezeichnet.
3.
Beschränkung der Fixierung auf Modellfamilie und Modellparametrisierung; neben der Datenaugmentation erfolgt aber eine Parameterneuschätzung (9^^^ auf Grundlage des erweiterten Datensatzes bis zur Beobachtung j ; ^ ^ ^ .
4.
Ausschließliche Fixierung der Modellfamilie, sodass neben einer Datenaugmentation und einer Parameterneuschätzung auch ein Wechsel der Modellparametrisierung (z. B. durch Wechsel der ARIMA(p,d,q)-Modellordnungen) zulässig ist. Dies ist faktisch nur mithilfe automatischer Modellidentifikationsverfahren möglich ([87], [75]).
5.
Potenziell vollständiger Modellwechsel bei Hinzutreten neuer Beobachtungen. Diese Vorgehensweise ist insbesondere bei der Prognose und Prognosesimulation kurzer, aber rasch anwachsender Zeitreihen (z. B. bei Neuprodukten) sinnvoll, da man bei Erreichen einer kritischen Datenmasse naive Verfahren durch statistisch basierte, aber datenhungrigere Verfahren ablösen kann.
Nicht alle Prognoseverfahren lassen sich mit den bisher skizzierten Methoden evaluieren. Zum einen erfordert die Anwendung einer Prognosesimulation eine hinreichende Zeitreihenlänge, um eine Partitionierung in Kalibrations- und Testzeitreihe zu ermöglichen. Zum anderen ist es bei beurteilenden Verfahren sehr schwierig, die Informationsbasis Ij^ des Beurteilers auf den Kalibrationsdatensatz I^ zu beschränken, wenn der Beurteiler die zur Evaluation zu nutzenden Beobachtungswerte des Testdatensatzes bereits kennt. Bei der Verwendung erklärender Größen x^ in Regressionsmodellen tritt das Problem hinzu, dass die Prognosefunktionen f^{h\6Jf,x^^^,x^^^_^,...) auch von den Werten der Regressoren x^^i^,x^^^_^,... abhängen, die bereits im Testzeitraum liegen und damit zum Evaluationszeitpunkt t unbekannt sind. Eine Ausnahme findet man nur bei verzögerten Variablen x^_^, deren Verzögerung L größer oder gleich h ist. Bei der Prognosesimulation kann man hinsichtlich der Werte dieser Regressoren x^^^ drei Fälle unterscheiden: die Regressorwerte werden (a) als bekannt angenommen, (b) mithilfe anderer Verfahren durch einen Wert x^^^ prognostiziert oder (c) innerhalb eines Szenarios als Annahme gesetzt. Bei a priori bekannten Regressoren wie Kalender- und Ferieneffekten sowie bei unternehmensintern plan- und steuerbaren Größen wie dem Zeitpunkt von Verkaufsmessen bestehen zwischen (a) und (b) keine Unterschiede. Marktbezogene, insbesondere makroökonomische Einflüsse sind jedoch nur schwierig prognostizierbar. Um bei einer Evaluation zwischen der Qualität des Regressionsmodells als Vorhersageverfahren und der Güte der Prognose der exogenen Variablen zu differenzieren, werden die Evaluationsauswertungen zum einen auf der Grundlage der im Testdatensatz realisierten Größen x^^^, zum anderen aber auch auf Grundlage prog-
374
Küsters
nostizierter Werte x^^^ separat durchgeführt. Durch diese Unterscheidung kann man untersuchen, ob sich die in der Praxis manchmal beobachtete unzureichende Genauigkeit komplexer regressionsanalytischer Verfahren auf eine unzureichende Qualität der Prognose der Regressoren oder auf eine unzureichende Modellgüte zurückführen lässt. Ergebnis einer Track-Record-Analyse, einer Prognosesimulation oder auch einer ex post Analyse der Residuen ist immer eine Sequenz von Paaren {yj.yj) oder Prognosefehlern ej=yj-yj als Differenz zwischen Beobachtung yj und Prognose j)^ (bzw. Anpassungswert). Der Index j kann sowohl über unterschiedliche Zeitpunkte t (Prognoseursprünge), unterschiedliche Prognosehorizonte h, unterschiedliche Zeitreihen k (etwa aus einer Produkthierarchie oder einer Stichprobe eines Prognosewettbewerbs), in seltenen Fällen aber auch über verschiedene Methoden m sowie über Kombinationen dieser vier Indizes t,h,k,m variieren. Diese Sequenzen werden mithilfe der im nächsten Abschnitt beschriebenen Methoden zu skalaren Gütemaßen zusammengefasst. 19.2.4 Prognoseevaluationsmaße (Gütemaße) 19.2.4.1 Grundsätzliche Hinweise In der Literatur findet man immer wieder emotional geführte Diskussionen über den Sinn einzelner Prognoseevaluationsmaße [16], die teilweise darauf zurückgeführt werden können, dass Durchschnittsbildungen über bestimmte Indexmengen (etwa unterschiedliche Zeitreihen) bei einigen Abweichungsmaßen nicht sinnvoll sind. Beispielsweise kann der mittlere quadratische Fehler, definiert durch
MSE{d)=-^f^{y,-f,_,(l\d)f auf dem gesamten Datensatz durchaus als sinnvolles Anpassungsmaß sowie als Grundlage zur Schätzung des Parameters 0 herangezogen werden, auch wenn der MSE sehr sensitiv auf Ausreißer reagiert. Eine Durchschnittsbildung über unterschiedliche Zeitreihen k = l,...,K etwa durch
MSE=^j:{y^'^-f:^\i)f ist hingegen nur dann sinnvoll, wenn alle Zeitreihen eine gemeinsame Skala und/oder eine inhaltlich vergleichbare bzw. verrechenbare Dimension (z. B. wertmäßiger Umsatz) aufweisen. Im Idealfall besteht zwischen dem benutzten Prognoseevaluationsmaß und den mit Fehlprognosen verbundenen Kosten ein expliziter Zusammenhang. Überhöhte Prognosen können bei Ersatzteillagern kurzfristig zu zusätzlichen Lagerhaltungs-, Kapitalbindungs- oder Verschrottungskosten und mittelfristig zu Überschusskapazitäten (etwa durch zu große Lagerhallen oder Fertigungskapazitäten) führen, während zu geringe Prognosen unmittelbar zu entgangenen Gewinnen, zu Sonderkosten aufgrund von Eil-
Evaluation von Prognoseverfahren
375
bestellungen oder Kleinserienfertigungen und mittelbar auch zu Kundenabwanderungen führen können. Nun ist eine präzise Bewertung dieser durch Fehlprognosen verursachten Kosten in der Praxis durchweg schwierig. Einerseits fehlen oft geeignete Kennzahlen aus Kostenrechnung und Controlling, andererseits ist die Bewertung eines Kundenverlustes aufgrund der notwendigen Abschätzung des Kundenrestwertes schwierig. Auch können sich Effekte über mehrere Perioden (bzw. Zeitpunkte) möglicherweise kumulieren, in anderen Fällen aber ausgleichen. Diese Schwierigkeiten führen gerade bei logistischen Fragestellungen in Materialwirtschaft und Produktion dazu, dass man Serviceniveaus entweder in Mengen (z. B. Auslieferung von mindestens 95 % des Volumens aller Bestellungen einer Periode) oder Perioden (z. B. in maximal 5 % aller Lieferperioden ist das Lager ausverkauft) festlegt. Diese Praxis impliziert aber, dass im Kern nicht die Punktprognosen entscheidungsrelevant sind, da sich diese auf Lagemaße wie Erwartungswerte beziehen. Vielmehr müssen die entscheidungsrelevanten Quantile auf der Grundlage von Punktprognosen und Prognosekonfidenzintervallen evaluiert werden. Die Evaluation dieser entscheidungsrelevanten Größen im betriebswirtschaftlichen Umfeld beschränkt sich bisher auf Track-Record-Analysen, wenn man von den ersten Ansätzen im Rahmen der unten kurz skizzierten Intervall- und Dichteprognosen absieht. Die Auswahl, über welche Indizes (Zeitpunkte bzw. Ursprünge, Horizonte, Zeitreihen etc.) gemittelt wird, hängt im Wesentlichen vom oben beschriebenen Untersuchungsdesign sowie von der inhaltlichen Fragestellung ab. Darüber hinaus müssen noch zwei weitere Designentscheidungen getroffen werden, bevor numerische Evaluationsmaße berechnet werden können: 1.
Die Festlegung der Schätzfunktion, mit der die Mittelungsoperation vorgenommen wird.
2.
Die Festlegung der Risiko- bzw. Kostenfunktionskomponente R(yj,yj) pro Beobachtungs-Prognose-Paar (yj,yj), mit der Eigenschaften wie Verzerrung und Variation entweder in absoluten oder relativen Maßeinheiten abgebildet werden. Relative Maßeinheiten beziehen sich entweder auf die zu prognostizierende Einheit oder auf die Prognosequalität eines Referenzverfahrens (Benchmark-Prognose).
Neben den überwiegend benutzten Durchschnitten in Form von arithmetischen Mittelwerten, Medianen etc. findet man auch Auszähloperationen wie „Prozent-besser", Anteile der Wendepunktfehler etc. Einige Gütemaße beziehen sich auf ein Referenzverfahren wie etwa der Random Walk-Prognose und beschreiben somit die relative Prognosegüte im Vergleich zum Referenzverfahren. Andere, referenzlose Maße liefern hingegen absolute Zahlen, aus denen Ränge für die unterschiedlichen Methoden ermittelt werden können. 19.2.4.2 Evaluationsmaße ohne Referenz zu einem Benchmark Tabelle 1 enthält eine Auflistung ausgewählter Fehlermaße und ihrer primären Eigenschaften, wie sie in zahlreichen Arbeiten beschrieben werden ([82], [9], [54], [59] und
376
Küsters
[6]). Die Definitionen beschränken sich zunächst auf den arithmetischen Mittelwert als Mittelungsoperation, der allerdings durch andere Arten der Durchschnittsbildung ersetzt werden kann. Der durchaus wichtige Aspekt, ob über verschiedene Zeitreihen /, Ursprünge t, Horizonte h oder Methoden m gemittelt wird, wird in Tabelle 1 zunächst vernachlässigt, weiter unten aber noch diskutiert.
ü O) (f)
.9 "CD i—
0 Q.
0 Sl CD LL
O
<
^
$
CO
13
>
JD
0
<
^
0 .1 -g
0
o
•^ 0 01
Q.
o Qi|i
P
0 x: 0
c 0
CD
CO
CL ==J
A
P
J
N
A
P
J
N
A
Ü
N
RMSE = yjMSE
N
A
ü
J
1 ' f MPE = 100%'-Y,\-yj-yA yj J
J
R
p
N
N
R
p
N
N
R
p
N
Mittlerer absolu-
Mittlerer quadra-
c "CD
J
Mittlerer Fehler
ter Fehler
c5 CD
•(D
c
CO
^ N
MAE^-YAyj-yA 1 ^
^
tischer Fehler Standardabweichung Mittlerer prozentualer Fehler [in %] Mittlerer absoluter prozentualer
1 -^
AL4PE = 100% —J]\yj-yj\ yj
Fehler [in %] Symmetrischer mittlerer absoluter prozentualer Fehler [in %]
1 «^\yj-yj MAPEs = 1 0 0 % - - ^
1
2
Tab. 1: Ausgewählte Fehlermaße Mit den Maßen ME und MPE kann man systematische Verzerrungen von Prognosen beurteilen. Die anderen Maße erfassen hingegen die kombinierte Wirkung von Verzerrung und Variation (Streuung). Für zeitreihenübergreifende Vergleiche sind in der Regel nur relative, also prozentuale Maße wie MPE, MAPE und MAPEs sinnvoll, wobei Ausnahmen bei Produkt- oder Vertriebshierarchien, in denen identische Mengen- oder Werteinheiten benutzt werden, auftreten. Maße wie MSE und RMSE, die große Abweichungen überproportional gewichten, weisen eine hohe Ausreißersensitivität auf. Dies kann bei zeitreihenübergreifenden Durchschnittsbildungen dazu führen, dass das Maß durch wenige Reihen dominiert wird. Außerdem werden bei der Berechnung von Anpassungsmaßen (within-sample) gerade die bei rekursiven Algorithmen am Anfang der
Evaluation von Prognoseverfahren
377
Reihen überproportional großen Prognosefehler zu stark gewichtet. Siehe dazu auch die Diskussion zur M-Competition, unter anderem in [55]. Das in Tabelle 1 angegebene arithmetische Mittel wird daher manchmal durch den Median (Md) ersetzt, der deutlich robuster gegenüber Ausreißern reagiert, d. h., der ME wird durch den Median der Fehler MdE, der MAPE durch den MdAPE usw. ersetzt. Eine Alternative besteht in der Verwendung gestutzter Mittelwerte (trimmed means) oder in einer Stutzung der Fehler durch untere und obere Schwellenwerte (winsorizing, nach Armstrong und Collopy [9]); siehe dazu unten auch die Diskussion zum relativen absoluten Fehler RAE. Beim MPE als auch beim MAPE werden die Fehler ej durch die Beobachtungswerte yj dividiert. Daher eignen sich diese Maße nur für Zeitreihen, die streng positive Werte annehmen. Bei zahlreichen betriebswirtschaftlichen und auf hinreichend sachlichen und/oder zeitlichen Ebenen aggregierten Zeitreihen ist diese Voraussetzung erfüllt. Ausnahmen findet man bei sachlich und/oder zeitlich fein aufgelösten Zeitreihen, die oft sporadische Muster aufweisen (z. B. tägliche Nachfrage nach SpezialÖlen auf einem kleinen Flugplatz, Zeitschriftenabsätze unter Abzug von Remittenten), beim Gewinn (bzw. Verlust) sowie bei Absatzreihen mit Rückläufern (z. B. im Versandhandel). Die meisten Prognosesysteme verwenden die oben angegebene und auch in der Literatur übliche Definition des MAPE (in %, siehe z. B. [6]); andere Systeme wie beispielsweise Forecast Pro XE 4.1 weisen den MAPE hingegen ohne Multiplikation mit 100 % aus. Diese Definition findet man gelegentlich auch in der Literatur, etwa in [17]. Der MAPE wurde in der Literatur kritisiert [54], da betragsmäßig gleich große Ausreißer bei Abweichungen nach unten und nach oben zu unterschiedlichen MAPE-Werten führen. Beispielsweise ergeben die beiden Konstellationen ^^=100 mit i'y^lSO und ;;^ =150 mit yj =100 die MAPE-Werte 50 % und 33,33 %. Diese Eigenschaft ist nicht überraschend, da der Wertebereich des MAPE auf das nicht-negative Intervall [0,oo) beschränkt ist. Zur Vermeidung dieser Asymmetrie wurde von Makridakis [54] der symmetrische mittlere absolute Fehler MAPEs vorgeschlagen, der zusätzlich bei garantiert positiven Prognosewerten yj den Vorteil aufweist, auch für nullwertige Beobachtungen definiert zu sein. Allerdings weist der MAPEs ©ine asymmetrische Risikofunktion auf, wie Goodwin und Lawton [37] sowie Koehler [49] zeigen, sodass die Wahl zwischen MAPE und MAPEs nicht einfach ist. Beim MAPE ist die Irritation entstanden, dass in der Praxis gelegentlich die Variante
M4P£^,,=100%~2
\yj-yj
verwendet wird. Diese Variante unterscheidet sich natürlich sowohl vom klassischen MAPE als auch vom MAPEs, da anstelle der realisierten Werte yj die prognostizierten Werte yj als Teiler eingesetzt werden. Kahn [48] berichtet von einer am MIT durchgeführten Befragung von Praktikern, dass fast die Hälfte aller MAPE-Nutzer dieses modifizierte Maß benutzen. Insofern ist hier insbesondere bei der Track-Record-Analyse eine erhöhte Aufmerksamkeit geboten.
378
Küsters
Die Interpretation der absoluten Werte relativer Evaluationsmaße ist schwierig, auch wenn in der Literatur gelegentlich Interpretationsmuster vorgeschlagen wurden. Lewis [51] bezeichnet die Prognosegenauigkeit eines Verfahrens mit einem MAPE von unter 10 % als sehr gut, Werte höher als 30 % als potenziell ungenau und die dazwischen liegenden Werte im 10 % Abstand als gut bzw. brauchbar. Allerdings dürfte ein geeignetes Interpretationsmuster hochgradig vom Prognosehorizont, von der Art der Durchschnittsbildung und vom Kontext abhängen. Als Alternative bietet sich der Vergleich der Genauigkeit einer Prognosemethode mit einem Referenzverfahren (Benchmark) an. Als Benchmark kann man entweder das bisher eingesetzte Verfahren und/oder eine sachlich begründbare naive Vorhersagemethode verwenden (z. B. bei saisonalen Monatsdaten monatsspezifische Durchschnittswerte vorhergehender Jahre oder Random Walk-Prognosen desaisonalisierter Reihen mit anschließender Rückrechnung mit Saisonindizes). 19.2.4.3 Benchmarkbasierte Vergleichsmaße In der Literatur werden mehrere Maße vorgeschlagen, die die parameterfreie naive Prognose f^{h) = y^ für y^_^^, also einen Random Walk ohne deterministischen Trend (Drift) als Bezugspunkt (Referenz, Benchmark) verwenden. Am bekanntesten sind Theils U2 sowie die auf dem relativen absoluten Fehler RAE basierenden GMRAE und MdRAE sowie PB (Prozent-Besser). Das von Theil [91] entwickelte Maß U2 vergleicht die prognostizierten Veränderungen Aj)^ mit den realisierten Veränderungen A;;^ durch das Maß '
.x2
t=2
} UM' t=2
}
wobei die Standardform der prognostischen Literatur (siehe z. B. [53] und [59]) die relativen Veränderungen Ay^=(y^-y^_^)/y^_^ und Ay^ =[y^ -yf_^)/y^_^ zugrundelegt. Diese Version kann aber- ähnlich wie der MAPE - nur bei positiven Größen sinnvoll interpretiert werden. In der ökonometrisch-statistischen Literatur (siehe z. B. [45] und [70]) wird die Veränderung daher gelegentlich auch durch die Varianten A;;^ =y^-y^_^ und Ay^ =y^ -y^_^ operationalisiert. Andere Summationsbereiche sowie Varianten für mehrstufige Prognosehorizonte und saisonale Random Walks können ebenfalls definiert werden. Ein Theilsches U2 kleiner 1 (größer 1) impliziert, dass die einstufige Prognose des Verfahrens im Durchschnitt genauer (ungenauer) als eine Random Walk-Prognose ist, ein Wert von 0 impliziert exakte Prognostizierbarkeit. Der relative absolute Fehler RAE [9], definiert durch
\y.-y.\
RAE = ;
\yt-yt-h\
vergleicht ebenfalls die Prognose j), ^^ft^hi^) eines Verfahrens für y^ mit der Ä-stufigen Random Walk-Prognose y,_^. Bei vergleichbarer Genauigkeit beider Verfahren
Evaluation von Prognoseverfahren
379
weist der RAE einen Wert von 1,0 aus. Daher wird bei einer Durchschnittsbildung über K verschiedene Zeitreihen yj^ entweder das geometrische Mittel GMRAE, definiert durch
GMRAE = ^Y{^^ oder der Median MdRAE der relativen absoluten Fehler [RAE^^\...,RAE^^A
verwendet.
Sowohl U2 als auch RAE sind nur dann definiert, wenn die naive Random Walk-Prognose einen Fehler ungleich Null aufweist. Da die relativen absoluten Fehler RAE sehr extreme Werte weit ober- und unterhalb 1,0 annehmen können, empfehlen Armstrong und Collopy [9] eine Stutzung (winsorizing) durch die Beschränkung des RAE durch min{lO,0,max{i?/i£,0,Ol}} auf einen Wertebereich von 0,01 bis 10,0. Ist zusätzlich eine Erfassung der aggregierten Güte über mehrere Prognosehorizonte in einer Kennzahl notwendig, wie es etwa bei den unten skizzierten M-Wettbewerben der Fall war, so wird anstelle der RAE einzelner Serien der kumulierte relative absolute Fehler CumRAE, definiert durch
Sk/.-/.(Ä)| CumRAE = ^^H
1
T.\yt^h-yt\ h=\
berechnet. Bei Benchmark-basierten Fehlermaßen kann man die Random Walk-Prognose natürlich auch durch andere Referenzverfahren ersetzen; dies ist aber unüblich, da nur wenige Prognosesysteme die Möglichkeit aufweisen, beliebige Prognoseverfahren aus einem Veri'ahrensportfolio als Referenzverfahren einzusetzen [50]. Bei statischen Prognosesimulationen ist dies unkritisch, da man nur die zu einem fixen Prognoseursprung / korrespondierenden Prognosen mit bis zu H Horizonten in ein Datenbank- oder Tabellenkalkulationssystem exportieren muss. Bei dynamischen Prognosesimulationen besteht hingegen fast immer die Notwendigkeit, die Evaluationsroutinen entweder zu programmieren oder eine Schnittstelle zwischen dem Prognosesystem und einem externen Evaluationsprogramm zu nutzen. Besonders aufwändig ist dies, wenn die Prognosefunktion kompliziert ist oder wenn Parameter rekursiv oder rollierend neu geschätzt (rekalibriert) werden müssen. Das Evaluationsmaß „Prozent-besser" PB (Percentage Better) bezieht sich meistens auf die Random Walk-Prognose, allerdings findet man gelegentlich auch einen Bezug auf ein anderes Verfahren. Wenn j)f ^ und j)^^ zwei unterschiedliche Prognosefunktionen sind, so kann man den Quotienten PB durch
Anzahl{|j;,-i)f>|
^J ^— ^-100% Gesamtzahl Prognosezeitpunkte
380
Küsters
als denjenigen Anteil der Prognosen j)f ^ der Methode 1 definieren, deren Abstand zum wahren Wert y^ geringer als der Abstand zur Prognose j)p^ der Methode 2 (standardmäßig der Random Walk ohne Drift) ist. Die analoge Definition für M Methoden lautet
PB^=
Anzahl jly^ ~>'^1
mitm^A ^-100%.
Zum Vergleich mehrerer Methoden werden oft Ränge durch Ordnung der absoluten Prognosefehler ausgewiesen, sodass man methodenspezifische Durchschnittsränge über unterschiedliche Horizonte h und/oder Zeitreihen k ermitteln kann. In Analogie zum Bestimmtheitsmaß R^ im klassischen Regressionsmodell wird manchmal auch die quadrierte Korrelation zwischen Beobachtungswert y^ und Prognosewert y^ als Gütemaß venA/endet. Systematische Verzerrungen der Prognosefunktion gehen aber nicht in die Korrelation ein. Daher ist die Verwendung als Gütemaß problematisch, wie Armstrong [6] hervorhebt. Die oben skizzierten Maße weisen erhebliche Unterschiede hinsichtlich wünschenswerter Eigenschaften wie Reliabilität, Konstruktvalidität und Robustheit gegenüber Ausreißern auf. Die konkreten Eigenschaften hängen vom Datenbereitstellungsdesign (ex post, ex ante, simuliert), von der Operation zur Berechnung der Durchschnitte und von der zugrunde gelegten Indexmenge (unterschiedliche Zeitpunkte bzw. Ursprünge /, Horizonte h und/oder Zeitreihen k) ab. Reliable Maße führen bei einer Methodenreplikation auf vergleichbaren Zeitreihen in Prognosewettbewerben zu qualitativ ähnlichen Ergebnissen; ausreißersensitive Evaluationsmaße wie der RMSE neigen hier zu erheblichen Schwankungen und lassen daher keine allgemeinen Schlussfolgerungen zu. Konstruktvalidität ist hingegen eng mit der Frage verbunden, inwieweit eine hohe Güte bei einem Maß tatsächlich auch zu einer hohen Prognosegenauigkeit bei realen ex ante Prognosen vom Prognoseursprung T führt und somit generalisierbar ist. Leider weisen Anpassungsmaße, die auf der gesamten Zeitreihe {y^,...,yj^} mithilfe einstufiger ex post Fehler berechnet werden, nur eine unzureichende Generalisierbarkeit auf. Bei Evaluationen aufgrund von Prognosesimulationen scheinen sich hingegen Ränge auf der Grundlage des MdAPE, MdRAE und PB als Prädiktoren der relativen Prognosegüte in exemplarischen Studien bewährt zu haben, wie Armstrong [6] berichtet. Umfassende Studien stehen aber noch aus. Bei den unten skizzierten statistischen Tests auf Prognoseäquivalenz wird ebenfalls zwischen mindestens zwei konkurrierenden Verfahren diskriminiert. Dabei bildet das unter der Ho-Hypothese ausgezeichnete Veri'ahren den Referenzpunkt. Bei fast allen theoretisch basierten Modellen (z. B. Box-Jenkins-Modellen) weist die Sequenz der einstufigen Prognosefehler e^ =y^ - / ^ ( l ) - unter der Annahme einer korrekten Spezifikation - die Eigenschaft der stochastischen Unabhängigkeit auf, die sowohl mithilfe deskriptiver Maße (z. B. der Autokorrelationsfunktion der einstufigen Prognosefehler) als auch mithilfe von Tests (z. B. dem Ljung-Box-Pierce-Test) geprüft werden kann. Diese Tests stellen einen modellspezifischen Bestandteil der Modellidentifikationsphase dar und werden daher in diesem Aufsatz nicht mehr weiter verfolgt; siehe hierzu unter anderem [13].
Evaluation von Prognoseverfahren
381
19.2.5 Evaluation von Wahrscheinlichkeits- und Ereignisprognosen Die bisher beschriebenen Kennzahlen lassen sich leider nicht als universelle Evaluationsmaße anwenden. Erstens sind die Bindeglieder zu den betriebswirtschaftlich relevanten Kosten fehlerhafter Prognosen nicht übermäßig ausgeprägt. Zweitens werden oft nicht nur Punktprognosen von Lageparametern, sondern auch Wahrscheinlichkeits-, Ereignis- und Intervallprognosen erstellt. Drittens treten immer wieder Sondersituationen auf, in denen man andere Evaluationsmaße benötigt. Am deutlichsten erkennt man dies bei extremen Ereignissen, etwa bei der Vorhersage von Katastrophen, seien es nun Naturkatastrophen wie Tornados oder menschlich verursachte Unfälle wie Kernkraftwerkschmelzen. Typischerweise ist es bei derartigen Ereignissen oft günstiger, das fatale, aber sehr seltene Ereignis bei Vorliegen geeigneter Indikatoren eher zu oft als zu selten zu prognostizieren, um geeignete Vorbeugungsmaßnahmen treffen zu können. Dies führt bei den oben angegebenen durchschnittsbasierten Fehlermaßen dazu, dass eine inhaltlich begründete risikoaverse Prognose häufig ein höheres Evaluationsmaß (etwa beim MAPE) aufweist als wenn man grundsätzlich davon ausgehen würde, dass überhaupt kein fatales Ereignis auftritt. Ein analoges Beispiel für PB findet man bei Armstrong [6], S. 449. Zwischen Wahrscheinlichkeits-, Ereignis- und Intervallprognosen bestehen folgende Beziehungen: 1.
Wahrscheinlichkeitsprognosen p(^y^=:k) können mithilfe von Schwellenwerten r^ in Ereignisprognosen umgerechnet werden, etwa bei binären Ereignissen durch y^=l genau dann, wenn gilt: P(y^=l)>T^. Oft wird als Schwellenwert 0,5 gewählt, obgleich entscheidungs- und kostentheoretische Überlegungen [43] ähnlich wie in der Diskriminanzanalyse meistens zu anderen Schwellenwertfolgen führen. Damit kann man aus Wahrscheinlichkeitsprognosen Ereignisprognosen ableiten; die Umkehrung ist hingegen nicht möglich.
2.
Intervallprognosen lassen sich als inverse Wahrscheinlichkeitsprognosen P{A^_^)=^l-a von Ereignissen 4_^ =|>^^ e[j)^^,j)^^]| interpretieren, bei denen die Sicherheitswahrscheinlichkeiten l-a vorgegeben und die Intervallgrenzen j)^ ^ und j)^ ^ als Zufallsvariablen interpretiert werden.
Wahrscheinlichkeitsprognosen in Form von probabilistischen Aussagen über das Eintreten eines Ereignisses werden häufig mit dem Brier-Score (BS) evaluiert. Diese Maßzahl von Brier [14] ist definiert durch
mit yj=Pj{Ä) als Prognose der Wahrscheinlichkeit eines Ereignisses A und yj als Indikatorvariable des Ereignisses, die den Wert 1 bei Eintreten und ansonsten den Wert 0 annimmt. Damit stimmt die Definition des BS mit dem MSE, angewandt auf 0,1Variablen, überein. Ersetzt man eine Wahrscheinlichkeitsprognose durch eine Ereignisprognose, so kann man im einfachsten Fall binärer Prognosen die Ist-Werte y^ den prognostizierten Werten y^ in einer quadratischen 2x2-Kontingenztabelle gegenüber stellen [77]:
382
Küsters Ist;;, Ausprägung Prognose y,
1
0
1
Cu
^io
0
c
c
Tab. 2: Kontingenztafel der Prognose-Ist-Kombinationen Dabei bezeichnet C^ die absolute Häufigkeit der Kombination y^ =i und yt=j. Verwendung der Quotienten H =Cji
a +CQI
und F=-
Unter
G10
^ I O + ^OO
der Prognosetreffer (H=hits) und Fehlalarme (F=false alarms) wird der so genannte Kuipers-Score KS = H-F definiert, der bei perfekter Trefferquote und Null Fehlalarmen einen Wert von 1 aufweist. Gleichen sich Treffer und Fehlsignale hingegen aus, so erhält man den Wert von 0. Brier- und Kuipers-Score unterscheiden sich dahingehend, dass mit dem BS Wahrscheinlichkeitsprognosen (z. B. morgen regnet es mit 80 %-iger Wahrscheinlichkeit) evaluiert werden, während der KS die Güte unmittelbarer Ereignisprognosen (morgen regnet es) bewertet. Im Falle einer 2x2-Kontingenztafel, also bei einer {0,1}-Prognose, kann man auch mithilfe des ;[f^-Unabhängigkeitstests prüfen, ob Prognose und Ist stochastisch unabhängig sind. Bei Ereignisprognosen mit mehr als 2 Ausprägungen (z. B. hoch, mittel, niedrig) ist dieser Test aber nicht sinnvoll anwendbar. Ursache ist, dass für eine Evaluation qualitativer Prognosen nur die Hypothese, ob die Wahrscheinlichkeiten der Hauptdiagonalelemente mit dem Produkt der beiden Randverteilungen von Prognose und Ist übereinstimmen, relevant ist. Abweichungen von der Unabhängigkeit in den Nebendiagonalen sind hingegen bei der Prüfung der Güte qualitativer Prognosen irrelevant. Mithilfe des von Pesaran und Timmermann [78] entwickelten nichtparametrischen PTTests kann man sowohl im 2x2- als auch im allgemeinen KxK-Fall die prädiktive Güte eines Veri'ahrens prüfen. Dabei zeigt sich, dass j^-Test und PT-Test im 2x2-Fall asymptotisch äquivalent sind; im Fall K>2 berücksichtigt der PT-Test hingegen nur systematische Abweichungen in der Diagonalen der Kontingenztabelle zwischen der Prognose und dem Ist, während der j^-Test auch auf die für Prognosezwecke irrelevanten systematischen Abweichungen in den Nebendiagonalen reagiert. Die Verallgemeinerung für mehr als zwei Kategorien ist vor allem für die Bewertung von Handelsstrategien (z. B. kaufen, halten, verkaufen) von Bedeutung, während der oben beschriebene Test vor allem für Richtungsprognosen (1=hoch, 0=runter) benutzt wird. Der KS und der PT-Test lassen sich auch zur Beurteilung von Trendwendeindikatoren verwenden. Allerdings findet man in der Literatur [97] auch auf Trendwendeprognosen spezialisierte Maße. Ein Wendepunkt zum Zeitpunkt t ist durch das Ereignis
Evaluation von Prognoseverfahren
l{yt-i
>;^/^i)} v{U_i
383
>yt)^{yt
definiert. Der Anteil der Wendepunktfehler lässt sich durch den Quotienten
r
-\-c
(c,/.+c,/,)+c pit berechnen, wobei 0^,^ die Zahl der prognostizierten {p) und tatsächlich ( 0 eingetretenen Wendepunkte, C^/„ die Zahl der prognostizierten, in der Realität aber nicht {n) eingetretenen Wendepunkte und C^^ die Zahl der nicht prognostizierten, in der Realität aber eingetretenen Wendepunkte bezeichnen. CE ist als Anteilswert zwischen 0 und 1 normiert und nimmt bei einer perfekten Wendepunktprognose den Wert 0, bei einer großen Zahl prognostizierter, in der Realität aber nicht eingetretener bzw. eingetretener, aber nicht prognostizierter Wendepunkte hingegen einen Wert in der Nähe von 1 an. Natürlich kann man dieses Maß auch auf verschiedene Prognosehorizonte konditionieren, sodass Aussagen über die Qualität der Wendepunktvorhersage auch für unterschiedliche Vorlaufzeiten getroffen werden können, im Gegensatz zum KS lässt CE alle Zeitpunkte, bei denen weder Wendepunkte prognostiziert noch realisiert wurden, unberücksichtigt. 19.2.6 Evaluation von Intervallprognosen Zu einer vorgegebenen Sicherheitswahrscheinlichkeit
\-a
kalibrierte Sequenzen
{^t]t=N+\ N+K konditionaler Intervallprognosen A =[>'?,«'>'/,o] werden traditionell nur durch die Analyse der Abweichungen des empirischen Überdeckungsgrades Anzahl! V, GDA ,, , ,, ^ K mit dem konstruktiv vorgegebenen Niveau l-a innerhalb der Teststichprobe entweder deskriptiv oder mithilfe eines Anteilswerttests verglichen. Allerdings wird bei diesem Vergleich nur die durchschnittliche, also nichtkonditionale Überdeckung analysiert. Christoffersen [20] konnte nun nachweisen, dass die konditionalen Intervallprognosen D^ |/^_i, gegeben die Historie I^_^ bis einschließlich Zeitpunkt t-l bei einer korrekten Modellspezifikation, eine Sequenz stochastisch unabhängiger Bernoulli-verteilter Zufallsvariablen mit Parameter \-a darstellt. Auf dieser Grundlage wurden LikelihoodRatio-Tests entwickelt, mit denen sich prüfen lässt, (a) ob die Intervalle auch konditional kalibriert sind, (b) ob eine Verletzung auf eine unzureichende nichtkonditionale Kalibration der Intervalle zurückzuführen ist oder (c) ob eine Verletzung der stochastischen Unabhängigkeit vorliegt. 19.2.7 Tests auf Prognoseäquivalenz Unterschiedliche Evaluationsmaße führen meistens zu unterschiedlichen Rangreihenfolgen der zur Auswahl stehenden Prognoseverfahren; daher werden diese Rangunterschiede auch gelegentlich mithilfe nichtparametrischer Tests auf Signifikanz geprüft.
384
Küsters
Meistens ist nicht unmittelbar ersichtlich, ob numerisch unterschiedliche Evaluationsmaße konkurrierender Methoden noch als Zufallsschwankungen oder bereits als systematische Abweichungen interpretiert werden können. Daher wurden zur Überprüfung der Zufälligkeitsannahme statistische Signifikanztests entwickelt. Die einfachsten Tests vergleichen lediglich die Varianzen of^^ und cr^^2) der Prognosefehler e^^"^ und ^p^ zweier unverzerrter Prognoseverfahren m = 1,2 über die Identität
E[[^Ke^^]{4'-e^^]) =
2
_
2
Damit kann man etwa durch Anwendung des Fisher-Tests mithilfe des Produkt-Moment-Korrelationskoeffizienten zwischen den beiden Reihen ef^-^f^ und ^^^^^+ep^ durch Prüfung der Nullhypothese p = 0 testen, ob sich die Varianzen systematisch unterscheiden. Dieses Verfahren wird als Morgan-Granger-Newbold bzw. MGN-Test [42] bezeichnet. Dieses auf Varianzen und Kovarianzen beruhende Testverfahren unterstellt (a) quadratische Risikofunktionen, (b) unverzerrte Prognosefunktionen sowie (c) normalverteilte und (d) unkorrelierte bzw. unabhängige Fehler. Dementsprechend wurden Erweiterungen und Modifikationen entwickelt, um diese Voraussetzungen abzuschwächen. Die Annahme (d) der Unabhängigkeit der Prognosefehler ist insbesondere bei mehrstufigen Prognosefehlern kritisch. Folgen von einstufigen Prognosefehlern e^=e^_^(\) = y^-f^_^{\) sind bei korrekter Spezifikation zwar stochastisch unabhängig. Mehrstufige Prognosefehler e^_^(h) = y^ - f^_f^(h) weisen hingegen selbst bei korrekter Spezifikation von besten linearen Prädiktoren (MMSE) in ARMA-Modellen eine Abhängigkeitsstruktur in Form von M A ( Ä -1)-Prozessen auf. Beim MR-Test von Meese und Rogoff [63] wird die Annahme der Unabhängigkeit daher aufgegeben, indem in der MGN-Testgröße des Korrelationskoeffizienten von e^^^-e^^^ und ef^+^f^ die auf der Bartlett-Formel für abhängige Zufallsvariablen beruhende Varianz bzw. Standardabweichung zur Normierung verwendet wird, um Autokorrelation zu berücksichtigen. Diebold und Mariano [29] schwächen neben der Aufgabe der Unabhängigkeit (d) auch die Annahmen (a)-(c) nochmals erheblich ab. Zum einen kann man beim Diebold-Mariano-Test (DM-Test) weitgehend beliebige, also nichtquadratische Risikofunktionsdifferenziale benutzen. Damit können nicht nur die Unterschiede verschiedener Prognoseverfahren auf Grundlage der oben angegebenen Evaluationsmaße wie dem MAPE, sondern auch Unterschiede zwischen betriebswirtschaftlichen Entscheidungsfunktionen (etwa ökonomische Erträge unterschiedlicher Handelsstrategien) auf Zufälligkeit der Abweichungen geprüft werden. Zum anderen lässt sich die fehlende Unabhängigkeit zwischen Risikofunktionsfolgen - ähnlich wie beim MR-Test - durch einen Varianzschätzer berücksichtigen, der formal der Bartlett-Formel entspricht, aber spektralanalytisch über Rechteckfenster geschätzt wird. Darüber hinaus findet man auch nichtparametrische Tests (z. B. Rangtest und Wilcoxon-Test), bei denen die Annahme der Normalverteilung aufgegeben werden kann. Bei Fehlen der Gültigkeit der Normalverteilungsannahme führt dies zu einer Signifikanzniveau-Korrektur, bei Gültigkeit der Normalverteilungsannahme aber zu einem Güteverlust, wie man anhand von Simulationsergebnissen erkennen kann.
Evaluation von Prognoseverfahren
385
Bei nichtparametrischen Tests kann man stochastische Abhängigkeiten mehrstufiger Prognosefehler e^ (h) am einfachsten durch Anwendung der Bonferroni-Korrektur berücksichtigen. Bei dieser Technik wird die stochastisch abhängige Sequenz der zu evaluierenden Fehlerterme {^i,^2'---'%} ^^ q = h-l Teilsequenzen {^1,^1+^,^1+2^,."}, 1^2.^2+^,^2+2^'-} bis \^e^,e2^,e^^,..}j aufgeteilt, sodass jede Teilsequenz approximativ eine Folge stochastisch unabhängiger Zufallsvariablen darstellt. Anschließend wird jede Teilsequenz separat zum Niveau a* =a/q geprüft. Sobald einer der Tests zu einem signifikanten Ergebnis führt, wird die Nullhypothese abgelehnt. Die oben skizzierten MGN-, MR- und DM-Tests weisen gemeinsam das Problem auf, dass die Herleitungen der asymptotischen Testverteilungen davon ausgehen, dass der wahre Parameter bekannt ist. Faktisch muss man aber anstelle der wahren und unbekannten Parameter einen Schätzer in die Testvorschriften einsetzen. Die durch diesen Schätzfehler entstehenden Konsequenzen (unter anderem Verzerrungen des Signifikanzniveaus) wurden von McCracken und West sowohl analytisch als auch mithilfe von Simulationen für Kleinste-Quadrate-Schätzer untersucht und beschrieben; siehe dazu die Zusammenfassung in [62]. Diese Untersuchungen zeigen, dass die Größenordnung der Störung des Signifikanzniveaus vom Evaluations- bzw. Differenzialmaß, vom Schätzverfahren (fest, rollierend, rekursiv) sowie vom Verhältnis der zur Parameterschätzung zur Verfügung stehenden Datenpunkten A^ (within-sample size) zum maximalen Prognosehorizont H (out-of-sample size) abhängt. Beispielsweise reduziert ein kleiner Wert für HIN die Konsequenzen der Parameterunsicherheit. Außerdem existieren Sondersituationen (z. B. die quadratische Risikofunktion MSE), bei denen die Parameterunsicherheit asymptotisch, d. h. bei großem Stichprobenumfang fortfällt. In den anderen Fällen kann man asymptotisch korrekte Tests mithilfe der bei West und McCracken [93] und McCracken [61] hergeleiteten Varianzschätzer verwenden. In der Regel stehen mehr als zwei Prognoseverfahren als Alternativen zur Verfügung, sodass bei der simultanen Anwendung mehrerer Paarvergleiche ein multiples Testproblem entsteht. Beim multiplen, sequentiellen Testen mehrerer Hypothesen auf der Grundlage eines Datensatzes unterscheidet sich das faktische Signifikanzniveau des zusammengesetzten Tests erheblich vom nominalen Signifikanzniveau. Dies macht sich in der Praxis dadurch bemerkbar, dass man bei einer Vielzahl von Tests auf einem konventionellen Signifikanzniveau (etwa 1 % oder 5 %) immer irgendeinen signifikanten Unterschied entdeckt, der aber möglicherweise nur auf Zufall zurückzuführen ist. Besonders gravierend wird dieses Problem beim Einsatz von Regressionsmodellen, bei denen durch den Ein- und Ausschluss von Regressoren in Abhängigkeit von einer Modellselektionstrategie eine sehr große Anzahl konkurrierender Prognosemodelle geschätzt werden. Im Prinzip kann man auch hier die oben skizzierte Technik einer Bonferroni-Korrektur anwenden; allerdings steht die Anzahl der im Rahmen der Modellselektion zu prüfenden Modelle nicht a priori fest, sodass es schwierig wird, ein korrigiertes Signifikanzniveau festzulegen. Ein für zahlreiche Modellselektionsmethoden anwendbarer Test wurde von White [95] entwickelt. Dieser so genannte Data-Snooping-Test ist ein asymptotischer Signifikanztest, mit dem geprüft wird, ob sich die beste der zur Disposition stehenden Methoden signifikant von einem Referenzverfahren (Benchmark) unterscheidet. Im Rahmen der Prognoseevaluation wird man als Benchmark eine relativ einfache Prognosefunktion, die absolut unverzichtbare Effekte (z. B. Trend, Saison sowie dominante Regressoren
386
Küsters
und Dynamik) enthält, benutzen. Weiterhin wird man eine Risikofunktion wählen, die die Konsequenzen der betriebswirtschaftlichen Entscheidungsfunktion (z. B. einer Handelsstrategie) möglichst gut abbildet. Praktische Erfahrungen im Rahmen der Prognoseevaluation liegen bisher, wenn man von der Arbeit von White [95] und der Anwendung in Sullivan u.a. [84] absieht, kaum vor. 19.2.8 Evaluation von Dichteprognosen Diebold, Günther und Tay [26] entwickelten ein Verfahren zur Evaluation einer Sequenz konditionaler Dichteprognosen fy^\i^^{yt I^M)» das darauf beruht, dass bei einer korrekten Modellspezifikation die mittels
transformierte Sequenz [z^,...,z^] eine Folge stochastisch unabhängiger, auf dem Intervall [0,l] gleichverteilter Zufallsvariablen darstellt. Daher kann man mithilfe klassischer Verteilungstests wie den Kolmogorov-Smirnov- und Cramer-von-Mises-Tests und grafischen Hilfsmitteln wie Q-Q-Plots, Histogrammen und Kernschätzern prüfen, ob die transformierte Sequenz {^J^^j ^ mit dieser Verteilungsannahme verträglich ist. Das Verfahren lässt sich vor allem im Kontext von Volatilitätsmodellen wie GARCH-Modellen auf der Grundlage langer Zeitreihen von Kapitalmarktdaten nutzen. Taylor [89] und Lopez [52] beschreiben weitere Verfahren zur Evaluation von Volatilitätsprognosen. Im Rahmen der klassischen, güterorientierten betriebswirtschaftlichen Prognose findet man nur selten (etwa im Energiesektor) hinreichend lange Zeitreihen. Diebold, Hahn und Tay [27] entwickelten auf der Grundlage der von Rosenblatt hergeleiteten multivariaten Integraltransformation eine Methode, mit der man nicht nur eine Evaluation, sondern auch eine Rekalibration der Dichteprognose durchführen kann, sofern die Annahme der konditionalen Unabhängigkeit nicht verletzt wird. Damit lassen sich Abweichungen von der Gleichverteilung der z^-Folge approximativ korrigieren. 19.3 Kombination von Prognosen 19.3.1 Grundlegende Verfahren Die Kombination von Prognoseverfahren ist immer dann ratsam, wenn nach Anwendung substantieller Kriterien immer noch mehrere Prognoseverfahren mit unterschiedlichen Punktprognosen zur Auswahl stehen, ohne dass ein eindeutiger Favorit identifiziert werden kann. Dabei sind auch die in Abschnitt 19.5 genannten und jenseits der Prognosegenauigkeit stehenden Kriterien zu beachten. Bei mehreren der im nächsten Abschnitt beschriebenen Prognosewettbewerbe konnte die Erfahrung gemacht werden, dass die Kombination von Prognosen unterschiedlicher Verfahren im Durchschnitt zu einer Verbesserung der Prognosegenauigkeit führt; siehe [72], [55] und [58]. Dies widerspricht zwar der Theorie der Zeitreihenanalyse, nach der ein korrektes und mithilfe von Selektionsverfahren identifiziertes Modell optimal im Sinne minimaler MSE ist. In der Praxis ist eine Fehlspezifikation aufgrund zu kurzer
Evaluation von Prognoseverfahren
387
Zeitreihen, der Existenz von Strukturbrüchen, der geringen Güte von Tests und anderer Modellselektionswerkzeuge aber kaum vermeidbar. Der Nutzen der Prognosekombination beruht im Wesentlichen auf der Annahme, dass verschiedene Prognoseverfahren die Eigenschaften einer Zeitreihe unterschiedlich ausnutzen, sodass eine Kombination wie bei der Portfoliooptimierung nach Markowitz zu einer Reduktion des Risikos führt. Bei einer linearen Prognosekombination wird eine neue Punktprognose durch
aus einer Menge lyl^\...,yl^A von M Prognosen berechnet, wobei Unterschiede durch die Wahl der Konstanten Ä^ und der Gewichte {/ly,/l2,...,Äj^} entstehen. In der Literatur findet man eine Vielzahl von Kombinationsverfahren, die sich grob in vier Gruppen einteilen lassen: 1.
Die „naive" Kombination durch Berechnung des arithmetischen Mittelwertes mit Ä^=l/M und /lo=0.
2.
Die varianzoptimale Lösung nach Bates und Granger [12], bei der die Gewichte unter Fortlassen der Konstanten ( ^ =0) und der Restriktion M m=\
SO gewählt werden, dass die Varianz vly^^A der Prognosekombination y^^^ minimiert wird. 3.
Die Regressionslösung nach Granger und Ramanathan [44], bei der der Gewichtsvektor mithilfe des Kleinste-Quadrate-Schätzers durch Regression der zu prognostizierenden Variablen y^ auf alle Prognosekomponenten yl^\...,y^^^ berechnet wird.
4.
Regelbasierte Ansätze nach Collopy und Armstrong [23], bei denen unterschiedliche Prognoseverfahren mit Gewichten kombiniert werden, die mithilfe eines Regelwerkes (im Sinne eines Expertensystems) in Abhängigkeit von den Eigenschaften der Zeitreihe festgelegt werden. Expertensysteme werden auch im Beitrag von Janetzke und Falk (Kapitel 17) in diesem Sammelband behandelt.
Einen Überblick über die ersten drei Methodengruppen findet man in Diebold und Lopez [28]; Armstrong [7] betont in seinem Übersichtsaufsatz hingegen die praktische Ausgestaltung der ersten Methode der Gleichgewichtung. Die kommentierte Bibliographie von Giemen [21] zeigt die weit zurückliegenden Ursprünge der Kombination von Prognosen auf.
388
Küsters
19.3.2 Kombination durch Varianzminimierung Der varianzminimierende Ansatz unterstellt unverzerrte Einzelprognosen und erfordert die Verwendung von Schätzern der Varianzen und Kovarianzen der einzelnen Komponentenprognosen. Deutlich ersichtlich wird dies an der Varianz
al =2? '(j1+{\-Xf 'CJI-\-2'X\\-X)'P'C7^
-cr^
der auf die Gewichtssumme 1,0 beschränkten positiven Kombination zweier Prognosekomponenten yf^ und ^P^ mit den Varianzen a^ und a] und der Korrelation p. Offensichtlich nimmt die Varianz crl der kombinierten Prognose bei der Wahl von
(Tj +
ein Minimum an, sodass man das optimale Gewicht X durch das Einsetzen von Schätzern für die Varianzen, Kovarianzen und Korrelationen der Prognosen approximieren kann. Bates und Granger [12] entwickelten in Anlehnung an die exponentielle Glättung diverse Schätzverfahren, in denen die Prognosewerte der Vergangenheit in unterschiedlichem Ausmaß eingehen. Einige Varianten unterstellen auch eine Korrelation p von Null. 19.3.3 Kombination durch Regression Bei den in Granger und Ramanathan [44] beschriebenen Regressionsverfahren werden die Gewichtsparameter hingegen mithilfe des Kleinsten-Quadrate-Schätzers für die Parameter der Gleichung
bestimmt, wobei durch Restriktionen (etwa ^ =0 und/oder A^-\-... + Äj^ =1) auch einige Spezialfälle der varianzminimierenden Prognosekombinationen hergeleitet werden können. Mithilfe des Regressionsansatzes kann man auch testen, ob ein Prognoseverfahren A ein anderes Verfahren B in dem Sinne umschließt, dass alle Informationen, die in B eingehen, auch in A berücksichtigt werden. Derartige Encompassing-Tests werden bei Diebold [25] dargestellt; siehe dazu auch die Ausführungen am Ende dieses Abschnitts. Eine Diskussion der hinter der Prognosekombination stehenden Informationsmengen findet man bei Granger [39]. 19.3.4 Konfidenzintervalle von Prognosekombinationen Eine Schätzung von Konfidenzintervallen für Prognosekombinationen ist sehr schwierig, zumal für eine ganze Reihe häufig benutzter Punktprognoseverfahren keine analytischen Methoden zur Bestimmung von Prognosevarianzen und Konfidenzintervallen zur Verfügung stehen. Dies gilt sogar für populäre exponentielle Glättungsverfahren wie die Holt-Winters-Methode mit multiplikativer Saison, für die lange Zeit nur empirische Approximationen aufgrund von Prognosesimulationen [96] sowie komplizierte und
Evaluation von Prognoseverfahren
389
auf ARIMA-Modellen beruhende Näherungen [18] zur Verfügung standen. Moderne Ansätze auf der Grundlage nichtlinearer Zustandsraummodelle mit skalaren Fehlertermen [74] sowie die daraus resultierenden Methoden zur Berechnung von Prognosevarianzen wurden bisher noch nicht in gängigen Softwarepaketen implementiert. Durch die Kombination von Prognosen werden diese Probleme noch verschärft. Daher kann man faktisch nur auf heuristische Approximationen zurückgreifen. Dazu gehören etwa die auf die Quantilregression zurückgehende Methode von Taylor und Bunn [90] oder die empirische Schätzung von Konfidenzintervallen auf der Grundlage umfangreicher Prognosesimulationen. Für beide Verfahren werden lange Zeitreihen benötigt. 19.3.5 Prognosekombination durch RBF Das regelbasierte Prognoseverfahren RBF (ruie based forecasting) von Collopy und Armstrong [23] enthält eine unkonventionelle Methode der Prognosekombination; siehe dazu auch [1] und [8]. RBF ist zunächst einmal ein Expertensystem, in dem abhängig von Zeitreihenmerkmalen eine Serie einfacher Prognoseverfahren wie Trendgeraden, exponentielle Glättungen und die naive Random Walk-Prognose selektiert bzw. miteinander kombiniert werden. Neben der im RBF zentralen Kombination von Prognosen nach Regeln werden aber auch diverse subjektive Bewertungen etwa hinsichtlich der auf die Zeitreihe wirkenden Kausalkräfte [10] und deren Beziehung zur jüngeren Vergangenheit in das Regelwerk eingebettet. Daher ist RBF weniger eine Kombinationstechnik, sondern eher ein eigenständiges Prognoseverfahren. Präzise Kenntnisse über die Prognosegenauigkeit des RBF stehen bisher noch nicht zur Verfügung. Die Ergebnisse bei der M3-Competition [58] waren eher mäßig, wobei allerdings beachtet werden muss, dass eine automatische Variante verwendet wurde [2]. Daher konnte ein wesentlicher Vorteil des RBF, der in der Einbettung subjektiver Bewertungen besteht, nicht genutzt werden. 19.3.6 Beziehungen zwischen Kombination, Evaluation, Einschluss (Encompassing) und Effizienz konkurrierender Verfahren Auf den ersten Blick weisen Prognosekombination, Prognoseevaluation und Prognosevergleichstests nur einen mittelbaren Zusammenhang auf. Mithilfe des Konzeptes des Modelleinschlusses (Encompassing) lassen sich jedoch enge Beziehungen aufzeigen, die in der prognostischen Literatur vor allem von Diebold [25] herausgearbeitet wurden. Ausgangspunkt sind zwei Folgen {j)f^} und {j)f ^} konkurrierender Prognosen der Reihe {y^}, bei denen es zunächst unerheblich ist, ob die Prognosen mithilfe von parametrischen oder nichtparametrischen Modellen oder sogar modellfrei (etwa durch Experten) erstellt wurden. Das oben beschriebene Regressionsmodell zur Prognosekombination nach Granger und Ramanathan [44] lautet dann:
Dieses Modell enthält einige Spezialfälle, die in der folgenden Liste kurz angegeben werden:
390
Küsters
1.
Die Schätzung der drei Parameter ergibt eine Prognosekombination mit Gewichten Ä^,Jl2 und Verzerrungskorrektur Ä^ im Sinne von Granger und Ramanathan [44].
2.
Unter den Annahmen Ä^=0 und \^?^^\
erhält man die Gleichung
mit der äquivalenten Formulierung die unmittelbar zur varianzminimierenden Gewichtungsformel von zwei Prognosen im Sinne von Bates und Granger [12] führt. 3.
Unter der Annahme, dass die Prognose j)f^ alle in yf^ enthaltenen Informationen einschließt (encompasses), gilt die Beziehung
mit /I2 =0; siehe [19]. Diese Hypothese kann mit einem t-Test geprüft werden. Ein F-Test der zusammengesetzten Hypothese {X^,X^ = {^,^) testet hingegen simultan die Verzerrungsfreiheit und den Einschluss. 4.
Der Test ;ii = 1 in der Regression y^=X^^\y,^£, prüft hingegen, ob die Prognosefunktion y^ alle systematischen Informationen ausnutzt, also effizient im Sinne von Mincer und Zarnovitz [68] ist. Weitere Erläuterungen findet man in [73] und [62].
Enge Verbindungen zwischen signifikanten Prognoseunterschieden und Prognoseeinschlüssen erkennt man auch über den Test von Diebold und Mariano [29]. Die Hypothese, ob Prognose y^^^ Prognose j)^^ einschließt, lässt sich mit dem DM-Test durch das Testen der Ho-Hypothese E{d^) = 0 mit J, =ef^(ef^-eP^) prüfen. Der MGN-Test auf signifikante MSE-Differenzen kann hingegen als DM-Test durch Überprüfung der Ho-Hypothese E(d^) = 0 mit (i^ =fef^+ ep^W^^^^^-eP^) realisiert werden. Im Gegensatz zum F-Test und zum MGN-Test ermöglichen sowohl der DM-Test als auch der MRTest die Berücksichtigung autokorrelierter Verlustdifferenziale d^, wie sie insbesondere bei mehrstufigen Prognosen auftreten. 19.3.7 Prognosekombination in der Praxis Armstrong [7] beschreibt in einem Überblick den gegenwärtigen Stand der Forschung über Prognosekombinationen und gibt auch eine ganze Reihe praktisch relevanter Hinweise, wie Prognosekombinationen etwa durch die Verwendung gestutzter Mittelwerte sinnvoll angewandt werden. Darüber hinaus wird auch eine ganze Serie von empirischen Studien ausgewertet, aus denen im Wesentlichen hervorgeht, dass Praktiker fast ausschließlich das einfache arithmetische Mittel als Prognosekombinationsverfah-
Evaluation von Prognoseverfahren
391
ren nutzen. Studien, in denen auch ungleichgewichtige Prognosekombinationen verwendet wurden, sind rar, vermitteln bisher aber den Eindruck, dass die einfache Mittelwertbildung im Regelfall ausreicht. 19.4 Prognosewettbewerbe 19.4.1 Ziele und Bandbreite der Prognosewettbewerbe In der Praxis treten immer wieder Situationen auf, (a) in denen noch keine Zeitreihen verfügbar sind, (b) in denen die Zeitreihen zu kurz sind oder (c) in denen Kosten-Nutzen-Überlegungen keine aufwändige Prognosesimulation zulassen. In diesen Fällen kann man die Ergebnisse diverser vergleichender Studien und Prognosewettbewerbe ([72], [57], [55], [83], [56] und [58]) sowie die Ergebnisse von Folgeuntersuchungen und Replikationsstudien mit neuen Verfahren wie [3] als Indikatoren der relativen Prognosegenauigkeit konkurrierender Verfahren nutzen. Fallstudien wie [76] geben ebenfalls Hinweise auf die Leistungsfähigkeit ausgewählter Methoden. Bei Prognosewettbewerben werden zahlreiche Zeitreihen (etwa 1001 bei der M-Competition [55] oder 3003 bei der M3-Competition [58]) durch mehrere Beteiligte mit konkurrierenden Verfahren prognostiziert. Die Evaluation erfolgt entweder auf Grundlage einer statischen Prognosesimulation (als Regelfall z. B. bei der M- und M3-Competition) oder ex post, d. h. als Realzeitstudie zur Simulation eines Track Records (als Ausnahme z. B. bei der M2-Competition [56]). Das Spektrum der bisher benutzten Verfahren deckt eine umfangreiche Sammlung autoprojektiver Methoden ab. Dazu gehören unter anderem naive Verfahren wie die Random Walk-Prognose, vielfältige Varianten der exponentiellen Glättung [35] sowie statistisch komplexe Modelle wie ARIMA [13]. Beim M3-Wettbewerb wurden auch automatische Prognosesysteme wie Forecast Pro und Autobox eingesetzt, die für jede Zeitreihe ein besonders geeignetes Verfahren mithilfe von Regelwerken, Modellidentifikationsstatistiken etc. aufgrund von Datenmerkmalen auswählen. Prognosekombinationsverfahren wurden ebenfalls eingesetzt. 19.4.2 Ausgewählte Resultate der Wettbewerbe Nach Makridakis und Hibon [58] sowie Fildes und Makridakis [33] lassen sich die vier zentralen Ergebnisse der Wettbewerbe wie folgt zusammenfassen: 1.
Komplexe statistische Methoden sind nicht notwendigerweise genauer als einfache Verfahren.
2.
Die Ränge der einzelnen Verfahren hängen von den benutzten Evaluationsmaßen zur Bewertung der Prognosegüte ab.
3.
Im Durchschnitt schneiden Prognosekombinationen gut ab.
4.
Die Genauigkeit der diversen Verfahren variiert mit dem Prognosehorizont (und sinkt typischerweise mit wachsendem Horizont).
Weiterhin hängt die Prognosegenauigkeit der einzelnen Verfahren auch von der Zeitreihenart (z. B. Mikro- versus Makrodaten etc.), der Periodizität (z. B. Saison) und anderer Zeitreihenmerkmale ab. Diese Unterschiede sind nicht immer erkennbar, da ins-
392
Küsters
besondere einige ältere Studien wie [72] eine nur geringe Zahl von Zeitreihen untersuchten, die eine differenzierte Auswertung nicht zulassen. Die großen Wettbewerbe, bei denen differenzierte Sonderauswertungen für bestimmte Zeitreihentypen (z. B. Mikro-, Makro-, Industrie- und Finanzzeitreihen) und Periodizität (z. B. jährlich, monatlich etc.) durchgeführt wurden, lassen aber erkennen, dass sich diese Unterschiede auf die Prognosegüte auswirken. 19.4.3 Kritik an Prognosewettbewerben Insbesondere die von Makridakis, Hibon u.a. ([55] bis [58]) veranstalteten Prognosewettbewerbe führten zu teilweise konfliktreichen Diskussionen um den Wert und die Aussagekraft derartiger Vergleiche, wie die zahlreichen Kommentare, Folgeartikel und partiellen Replikationen insbesondere im International Journal of Forecasting (IJoF) zeigen. Gravierende Kritikpunkte, die unter anderem in Chatfield [17] sowie in zahlreichen Beiträgen des Sonderheftes des IJoF 4/2001 wiedergegeben werden, sind: 1.
Bei den Zeitreihen der Wettbewerbe handelt es sich nicht um Stichproben, da eine Grundgesamtheit aller Prognoseprobleme (als Universum) nicht existiert. Damit stellen sich die Fragen, (a) für welche Probleme die Wettbewerbe repräsentative Aussagen treffen können (Generalisierbarkeit) und (b) wie ein Unternehmen prüfen kann, ob sich die für eine Teilmenge der Wettbewerbe (etwa monatliche Mikrodaten) getroffenen Aussagen auf das eigene Prognoseproblem übertragen lassen. Goodrich [36] weist außerdem darauf hin, dass die in Unternehmen häufig verfügbaren saisonalen und wöchentlichen Zeitreihen bei der M3-Competition unterrepräsentiert waren. Bei der M-Competition wurde hingegen kritisiert, dass die meisten Zeitreihen einen positiven Trend aufweisen.
2.
Die Genauigkeit einer Prognose hängt nicht nur von der Methode, sondern auch von der Implementation des zugehörigen Algorithmus ab, da hinlänglich bekannt ist [71], dass sich unterschiedliche Implementationen eines Verfahrens erheblich auf die Prognosegenauigkeit auswirken können. Manchmal wurden auch fehlerhafte Formeln implementiert [34]. Außerdem spielt die methodische Kompetenz des Anwenders bei nicht-automatischen Methoden und hier insbesondere bei multivariaten Analysen im Rahmen der Auswahl der Regressoren und der Modellierung der funktionalen Zusammenhänge eine Rolle [17].
3.
Die Konklusion, dass einfache Vorhersagetechniken genauso gute Prognosen generieren wie komplizierte, wird nicht ohne Einschränkung geteilt. Zum einen wird zu Recht darauf hingewiesen, dass zwischen einfachen Methoden (etwa dem arithmetischen Mittel und der Random Walk-Prognose) durchaus erhebliche Unterschiede existieren, die zudem auch noch vom Prognosehorizont abhängen. Bei dieser Auswahl können komplexe Methoden wie z. B. Unit-Root-Tests aber durchaus helfen. Zum anderen sind zahlreiche der in den Wettbewerben benutzten Reihen eher kurz, sodass komplexe Phänomene (z. B. Nichtlinearitäten) nicht adäquat identifiziert werden können [11].
4.
Insbesondere nach den ersten Prognosewettbewerben wurde die unzureichende Berücksichtigung von Kontextinformationen und Beurteilungen kritisiert. Der auf diesen Problemkreis ausgerichtete und auf 29 Reihen beruhende und in Realzeit
Evaluation von Prognoseverfahren
393
durchgeführte M2-Wettbewerb [56] ergab allerdings, dass Zusatzinformationen nicht zu einer systematischen Erhöhung der Prognosegüte gegenüber einfachen Verfahren führten. Hier ist allerdings zu berücksichtigen, dass kein direkter Kontakt zwischen den am Wettbewerb beteiligten Prognostikern und den Urhebern der Zeitreihen bestand. Kausalinformationen in Form von Regressoren wurden ebenfalls nicht verwendet. 5.
Bei einigen Wettbewerben bestand die Möglichkeit der Revision bereits abgegebener Prognosen (teilweise auch erst nach Bekanntgabe der vorläufigen Ergebnisse im Rahmen des International Symposium of Forecasting). Ebenso wurden bei einigen Wettbewerben immer wieder Reihen venA/endet, bei denen sich die beteiligten Prognostiker aufgrund der Reihenbezeichnung (z. B. Niederschlag in Paris [36]) bereits die realisierten Daten beschaffen konnten. Damit bestand in einzelnen Fällen potenziell die Möglichkeit zur Täuschung.
6.
Ein weiteres Problem besteht darin, dass die Wettbewerbe nur Punktprognosen evaluierten. Intervallprognosen, die insbesondere wegen ihrer hohen Bedeutung für Risikoabschätzungen sowie für die Festlegung betriebswirtschaftlicher Größen (z. B. Sicherheitsbestände) relevant sind, wurden hingegen nicht untersucht. Hintergrund dieser Kritik ist, dass sich die prognostische Qualität eines Punktprognoseverfahrens und eines zugehörigen Verfahrens zur Berechnung von Konfidenzintervallen beträchtlich unterscheiden können; die praktische Brauchbarkeit hängt aber erheblich von beiden Komponenten ab. Box-Jenkins-Modelle erlauben etwa eine theoriegestützte Berechnung der Konfidenzintervalle, während man bei exponentiellen Glättungsmethoden auf mehr oder weniger begründete Techniken zur Schätzung der Konfidenzintervalle zurückgreifen muss. Gerade bei den Konfidenzintervallen für exponentielle Glättungsverfahren findet man auch beträchtliche Unterschiede zwischen verschiedenen Softwareimplementationen, die fast immer unzureichend dokumentiert sind [50].
7.
Nahezu alle Prognosewettbewerbe beschränken sich auf eine statische Simulation mit festem Prognoseursprung, sodass eine Mittelung nur über verschiedene Horizonte und/oder verschiedene Zeitreihen möglich ist. Eine statische Prognosesimulation mit festem Ursprung, angewandt auf eine homogene Datenbasis, kann zu Zeitabschnittseffekten führen. Bei den meisten Prognosewettbewerben wurden aber eine Vielzahl von Zeitreihen unterschiedlicher Länge, zugleich aber konstante Prognosehorizonte verwendet. Daher streuen die Prognoseursprünge der Zeitreihen vermutlich weitgehend zufällig; geprüft wurde dies bisher jedoch nicht.
Einige Autoren wie Chatfield [17] gehen davon aus, dass sich die Ergebnisse der Wettbewerbe maximal auf Anwendungsfelder der automatischen Prognose (z. B. Lagerhaltungssysteme) übertragen lassen, während man bei der nicht-automatischen Prognose durch die Einbettung von Kontextinformationen zusätzliche Verbesserungen erzielen kann. Bemängelt wurde auch der unzureichende Einbezug multivariater Verfahren in die Wettbewerbe. Mehrere Autoren weisen auf die Notwendigkeit hin, ein adäquates Prognoseverfahren auf der Grundlage von Datenmerkmalen (z. B. Saison) mithilfe von Tests und Regelwerken mithilfe von Expertensystemen auszuwählen; siehe [36] und [87] sowie den Beitrag von Janetzke und Falk (Kapitel 17) in diesem Sammelband. Diese datenge-
394
Küsters
steuerten Modellselektionsverfahren stecken aber trotz zahlreicher Versuche immer noch in den Kinderschuhen. Außerdem sind die bisher implementierten Methoden nur partiell nachvollziehbar, da die meisten Softwarehersteller die in ihren Systemen verwendeten Identifikationstechniken nur teilweise offen legen. Schwierigkeiten ergeben sich auch bei einem systematischen Vergleich konkurrierender Regeln durch Variationen. Der Wert der bisherigen Wettbewerbe und der daraus resultierenden Diskussionen besteht bzw. bestand vor allem in drei Punkten: 1.
Die Generierung von Anhaltspunkten über die relative Leistungsfähigkeit von Standardverfahren für die Prognose von Massendaten [17].
2.
Die Aufdeckung von Defiziten komplexer und theoretisch begründeter Prognoseverfahren aus Statistik und Ökonometrie [33] und der daraus resultierenden Suche nach Erklärungen [47] und alternativen Methoden.
3.
Die Entwicklung der in Abschnitt 19.2 dargestellten Methodologie zur Evaluation der Prognosegenauigkeit, die sich auch praktisch auf zahlreiche unternehmensspezifische Prognoseprobleme anwenden und zur Auswahl von Prognoseverfahren und/oder Prognosesoftware nutzen lässt.
Prognosewettbewerbe verleiten möglicherweise dazu, dass man eine zu einem konkret vorliegenden Prognoseproblem ähnliche Auswertungskategorie (Datenquelle, Periodizität, Prognosehorizont, Risikofunktion) innerhalb eines Wettbewerbs selektiert und innerhalb dieser Gruppe einen „Sieger" auswählt. Diese Vorgehensweise, die teilweise durch Systemhersteller forciert wird, ist zwar bequem, wegen der erheblichen Unsicherheiten hinsichtlich der Transferierbarkeit der Ergebnisse, die auch von nicht berichteten Datenmerkmalen wie Ausreißern, Strukturbrüchen, verschiedenen Zeitreihenlängen etc. abhängt, aber auch riskant. In den zu Beginn des Abschnitts genannten Fällen (unzureichende Daten etc.) stehen aber keine Alternativen zur Verfügung. 19.5 Auswahl von Prognoseverfahren 19.5.1 Grundsätzliche Hinweise Bei der Auswahl von Prognoseverfahren spielt die Prognosegenauigkeit und deren Evaluation mithilfe der oben beschriebenen Methoden eine zentrale Rolle. Eine explizite Wahl einer Prognosefunktion kann aber durch die Kombination von Prognosen partiell umgangen werden. In der Praxis ist man aber in Anbetracht der riesigen Anzahl potenziell anwendbarer Modelle gezwungen, je nach Verwendungszweck und Datenlage (Informationsbasis) wesentliche Vorentscheidungen zu treffen, die zu einer erheblichen Einschränkung der näher zu untersuchenden Prognoseverfahren führen. Wichtige Elemente sind hier einerseits die genaue Identifikation und Beschreibung des Prognoseproblems und -Umfelds, andererseits aber auch die präzise Erfassung der Bedarfslage des Prognosenutzers.
Evaluation von Prognoseverfahren
395
19.5.2 Einflussfaktor Sach- und Aggregationsebene Auf der Ebene der zu prognostizierenden Objekte findet man das gesamte Spektrum von unternehmensbezogenen (mikroökonomischen) Produkt- und Vertriebshierarchien (Artikel, Produkte etc.) über branchenbezogene Marktanteile bis zu makroökonomischen Größen wie Lohn- und Kostenniveaus. Auf der Zeitachse reicht die Spannweite von zeitlich fein aufgelösten Zeitreihen (Stunden-, Tages- und Wochendaten) bis zu klassischen Planperioden wie Monate, Quartale und Jahre. Unter dem Gesichtspunkt der Dimension findet man nominale Prognosevariablen wie Absätze, Umsätze und Preise, aber auch inflationsbereinigte Realgrößen, standardisierte Variablen wie Marktanteile sowie probabilistische Aussagen über diskrete Ereignisse. Bei langen und zeitlich fein aufgelösten Zeitreihen kann man oft statistische Verfahren einsetzen. Kurze Zeitreihen (z. B. von Neuprodukten) werden hingegen eher mit beurteilenden Methoden oder mithilfe von Analogieschlüssen aus statistischen Komponentenmodellen über die Komponentenschätzer ähnlicher Produkte prognostiziert. Zeitlich oder sachlich zu fein aufgegliederte Zeitreihen weisen oft sporadische Muster auf, sodass Trend- und Saisoninformationen nur aus übergeordneten Aggregaten hergeleitet werden können. In sachlich aggregierten Zeitreihen (z. B. Umsätze von Unternehmensbereichen) spielen hingegen oft gesamtwirtschaftliche Einflüsse eine Rolle, die auf der Ebene von einzelnen Artikeln statistisch vernachlässigbar sind (siehe West und Harrison [94], S. 586 ff.). Daher werden auf der Artikelebene sehr häufig autoprojektive Prognosemethoden benutzt. Aggregierte Zeitreihen lassen sich hingegen oft nur mithilfe erklärender Variablen durch eine Modellierung der Kausaleffekte in dynamischen Regressionsmodellen präzise prognostizieren. 19.5.3 Einflussfaktor Informationsbasen Die Spannweite der für Prognosezwecke nutzbaren Informationen ist riesig. Das Spektrum reicht von univariaten Zeitreihenhistorien, simultan analysierbaren Zeitreihengruppen (etwa Produkthierarchien) über die Nutzung erklärender, exogener Variablen wie Preise, Werbemaßnahmen und Kalendereffekte bis zur subjektiven Beurteilung potenziell kausal wirksamer singulärer Ereignisse (z. B. antizipierte Sonderaktionen von Mitbewerbern). Quantitative Zusatzinformationen ermöglichen die Nutzung von Regressionsmodellen und Erweiterungen wie z. B. SARIMAX [76]. Bei unzureichender zeitlicher Verzögerung (lead) und im Vergleich dazu großen Prognosehorizonten hängt die Qualität von Kausalmodellen aber erheblich von der Güte der Vorhersage der erklärenden Variablen ab. In einigen Spezialfällen wie etwa der Prognose von Konfektionsware (z. B. im Versandhandel) müssen auch unregelmäßig erfasste Zusatzinformationen wie die Absätze ausgewählter Konsumentengruppen bei Vorverkaufsaktionen (Testkataloghandel) in die zeitreihenbasierte Prognostik integriert werden. Dies ist gegenwärtig nur mit Informationspooling über bayesianische Komponentenmodelle [94] und/oder beurteilende Verfahren [92] möglich. 19.5.4 Einflussfaktor Prognosegrößen Die meisten Prognoseverfahren beschränken sich auf die je nach Planungsaufgabe kurz-, mittel- oder langfristige Prognose mittlerer Bedarfe, Nachfragen etc. einzelner Planungsperioden. Oft sind die betriebswirtschaftlichen Entscheidungsvariablen aber
396
Küsters
nicht diese „mittleren" Bedarfe, sondern die aus konditionalen Mittelwerten und Streuungsmaßen abgeleiteten Quantile, um etwa a priori festgelegte Serviceniveaus durch Festlegung von Sicherheitsbeständen oder zur Absicherung von Spitzenbedarfen (z. B. peak loads in der Energieversorgung) zu garantieren. Ebenfalls ergibt sich oft die Notwendigkeit der Prognose kumulierter Bedarfe/ Absätze (etwa bei mehrperiodigen Beschaffungszeiten) oder der Zwang zum Aufbruch aggregierter Prognosewerte in unterperiodige Plangrößen oder sachliche Untergliederungen (etwa Konfektionsware nach Farben und Größen). Damit hängt die Qualität der betriebswirtschaftlichen Lösung nicht nur von der häufig gemessenen Güte der Punktprognose und des dahinter stehenden Verfahrens, sondern auch von den fast immer vernachlässigten Techniken zur Bestimmung der Prognosekonfidenzintervalle und den zusätzlich genutzten Aufbruchbausteinen (pro-rating) ab. 19.5.5 Einflussfaktor Nutzer-Anforderungen Mithilfe diverser Befragungsstudien wurden die teilweise stark variierenden Anforderungen der Nutzer von Prognoseverfahren identifiziert. Einige dieser Studien differenzieren nach Nutzergruppen wie Entscheidungsträger, Praktiker, Dozenten und Wissenschaftler. Bei den meisten Befragungen ergab sich eine hohe Prognosegenauigkeit als wichtigstes Auswahlkriterium eines Verfahrens. Häufig werden aber auch jenseits der Genauigkeit liegende Anforderungen genannt [99]. Dazu gehören etwa Aktualität, deutliche Kostenersparnisse aufgrund einer erhöhten Prognosegüte, geringe Datenbeschaffungs-, Entwicklungs- und Wartungskosten, die Nutzbarkeit subjektiver Bewertungen, Einfachheit, Verständlichkeit, einfache Interpretation und Anwendbarkeit der Verfahren, Möglichkeiten zur Bewertung alternativer Szenarien z. B. zur retrospektiven Wirksamkeitsmessung unterschiedlicher Marketing-Mix-Kombinationen, die Genauigkeit der Prognosekonfidenzintervalle, die Möglichkeit zur präzisen Generierung von Frühwarnsignalen (Monitoring), flexible Anpassungsmechanismen zur Berücksichtigung geänderter Daten und Prognoseprobleme (etwa bei Änderungen der Produkthierarchie), die numerische und statistische Robustheit gegenüber Datensondersituationen (z. B. kurze Reihen, Ausreißer, extreme Datenvariationen) sowie vor allem bei Wissenschaftlern die theoretische Relevanz der Methode. Siehe hierzu unter anderem die Studien [81], [64] und [15] sowie den Überblicksaufsatz von Winkihofer u.a. [98]. 19.5.6 Einflussfaktor verfügbare Prognosesoftware Die Lösung von Prognoseproblemen erfordert mit Ausnahme von sehr einfachen oder sehr datenarmen Situationen den Einsatz ausgereifter Software. Hier rangiert die Spannweite von 1.
Tabellenkalkulationsprogrammen wie Microsoft Excel und StarOffice Calc,
2.
Statistik-Programm-Paketen wie SPSS, SAS und S-Plus,
3.
ökonometrischen Paketen wie EViews, PCGive und Rats,
4.
dedizierten Prognosesystemen wie Forecast Pro XE, SCA-PC-Expert und Autobox bis
5.
zu integrierten Planungs- und Prognosesystemen wie Futurcast, Adapta und Demand Solutions.
Evaluation von Prognoseverfahren
397
Siehe dazu [50] und [79] und die darin zitierte Literatur. Daneben findet man auch Speziallösungen. Dazu gehören etwa das A^-Hochrechnungsmodul für den Textilbereich, SuperStore für die Prognose von Artikeln in Einzelhandelsfilialen sowie firmenspezifische Individuallösungen, die teilweise auch Prognosesystembibliotheken (z. B. die Forecast Pro DLL von BFS) nutzen. Planungsmodule wie SAP-APO als Ergänzung zu Transaktionssystemen wie SAP/R3 bzw. mySAP sowie zahlreiche Produktionsplanungssysteme enthalten ebenfalls sehr häufig elementare Prognosetechniken; siehe dazu auch [31] und [32]. Die Notwendigkeit der Nutzung unternehmensinterner Datenbanken und Transaktionssysteme sowie die Einbindung der Ergebnisse in den unternehmensspezifischen Planungsprozess erzwingen in der Regel die Verfügbarkeit von Schnittstellen sowie die Erstellung von Datentransfermodulen, Reportgeneratoren usw. Unter Abwägung von Kosten-Nutzen-Aspekten und IT-bedingten Restriktionen führt dies zu einer erheblichen Einschränkung der faktisch nutzbaren Prognoseverfahren, wobei der Faktor Bequemlichkeit oft auch eine Rolle spielt. In manchen Fällen reduziert bereits die Anforderung, Reports und Graphiken in einer vorgegebenen Form und Qualität erstellen zu müssen, die Auswahl auf ein spezifisches System, dessen Prognoseverfahren aber möglicherweise sehr schwach sind. Nach der Untersuchung in den USA von Sanders und Manrodt [81] führt der Einsatz professioneller Prognosesoftware zwar zu einer Erhöhung der Prognosegüte, im praktischen Einsatz dominieren aber nach wie vor Tabellenkalkulationsprogramme. 19.5.7 Faktische Nutzung von Prognoseverfahren in Unternehmen Anhaltspunkte über potenziell verwendbare Prognoseverfahren erhält man auch durch Untersuchungen, in denen die faktische Nutzung von Verfahren und Softwaresystemen in Unternehmen eruiert wurde. Befragungen wie [80] und [24] sowie die Übersichtsarbeit [98] zeigen eindeutig, dass in der Vergangenheit vor allem subjektive Verfahren wie die Umsatzschätzungen durch den Vertrieb und deren Kumulation (Sales-ForceComposite), Bewertungen des Managements sowie einfache statistische Methoden wie gleitende Durchschnitte, naive Prognoseverfahren wie Random Walk und saisonale Mittelwerte sowie ausgewählte Frühindikatoren und exponentielle Glättungsmethoden dominieren. Ökonometrische Methoden und statistisch komplexe Verfahren wie Box-Jenkins-Modelle (ARIMA) werden, wenn man von Banken und Energieunternehmen absieht, hingegen deutlich seltener genutzt. Insofern kommt man bei der Auswahl eines Prognoseverfahrens nach dem Kriterium der Marktpopularität fast immer zu sehr einfachen Methoden. Nun sind die meisten dieser Untersuchungen aber schon einige Jahre, teilweise bereits Jahrzehnte alt und reflektieren damit auch die in der Vergangenheit oft massiven Probleme hinsichtlich der Datenverfügbarkeit als auch hinsichtlich der Verfügbarkeit und Qualität statistischer Methoden. Durch die Zunahme sachlich, räumlich und zeitlich fein aufgegliederter Zeitreihen und der daraus resultierenden Notwendigkeit der häufigen und automatisch durchzuführenden Prognose unmittelbar entscheidungsrelevanter Variablen (wie Lagerhaltungsentscheidungen am POS) ergibt sich auch der Bedarf zur Nutzung von Zusatzinformationen. Diese (etwa in Form von Kalendereffekten) erfordern zwangsläufig den Einsatz komplexer Methoden. Bei der Wahl eines Verfahrens nach dem Kriterium der Marktpopularität verliert man möglicherweise auch Vorteile gegenüber Mitbewerbern, sodass eine Auswahl nach Popula-
398
Küsters
rität und „Best Practice" nur bei betriebswirtschaftlich untergeordneten Größen, deren Fehlprognose zu geringen Kosten führt, vertretbar ist [5]. 19.5.8 Ein grobes Entscheidungsraster Tabelle 3 enthält eine subjektive Bewertung von sechs unterschiedlichen Gruppen von Prognoseverfahren hinsichtlich einer Reihe struktureller Kriterien wie Datenanforderungen, prognostische und institutionelle Rahmenbedingungen sowie Anforderungen an die Prognose. Bei dieser Einordnung müssen zwei Punkte beachtet werden. Zum einen enthält jede Gruppe eine Vielzahl von Verfahren und Varianten, die sich beträchtlich unterscheiden können. Dies geht in dem groben Raster der Tabelle natürlich verloren. Zum anderen sind die Grenzen zwischen den verschieden Verfahrensklassen fließend. Beispielsweise gehört das naive Verfahren des saisonalen Random Walks, bei dem die Werte eines Monats durch den Vorjahreswert des korrespondierenden Monats fortgeschrieben werden, ebenfalls zur Klasse der Box-Jenkins-Modelle [13]. Ebenso existieren in der Gruppe der Komponentenmodelle neben den Hauptvertretern der exponentiellen Glättungsmodelle [35] auch frequentistische [30] und bayesianische [94] Strukturkomponentenmodelle, die Regressoren verwenden können. Bei den subjektiven und beurteilenden Prognoseverfahren [92] wird die Variationsvielfalt besonders deutlich, da man in dieser Gruppe sowohl sehr einfache und möglicherweise auch sehr stark verzerrende Verfahren wie Sales-Force-Composite, aber auch hochgradig kontrollierte Methoden wie bestimmte Sonderformen der Delphi-Methode findet. Insofern kann Tabelle 3 nur grobe Anhaltspunkte liefern. Ansonsten wird von einer relativ breiten Definition der sechs Klassen ausgegangen; beispielsweise gehören zur Gruppe der dynamischen Regressionsmodelle [76] nicht nur traditionelle Regressionsmodelle mit autokorrelierten Fehlern und verteilten Lags, sondern auch Transfer- und Interventionsfunktionsmodelle [13]. Diese Verfahren werden in mehreren Beiträgen in diesem Sammelband dargestellt. Bezüglich der Prognosegenauigkeit werden in der Tabelle nur die in der Literatur üblichen Einschätzungen wiedergegeben. Diese zumeist auf Prognosewettbewerben beruhenden Bewertungen der Prognosegenauigkeiten der Verfahrensgruppen können nun erheblich von der Prognosegenauigkeit eines konkreten Verfahrens bei einem spezifischen Prognoseproblem abweichen. Betriebswirtschaftlich angemessener ist daher eine explizite Prognoseevaluation konkurrierender Verfahren auf der Grundlage exemplarischer Daten des konkreten Problems mithilfe der Methoden aus Abschnitt 19.2. 19.6 Schlussbemerkungen In Anbetracht der sehr umfangreichen und verstreuten Literatur aus Statistik, Ökonometrie, Marketing, Kapitalmarktforschung, Operations Research und Wirtschaftsinformatik muss ein Überblicksbeitrag über die Evaluation, Kombination und Auswahl von Prognoseverfahren zwangsläufig lückenhaft bleiben. Beispielsweise wurden diverse Varianten der statistischen Kombinationsverfahren wie nichtlineare Kombinationstechniken, horizontabhängige Gewichte und bayesianische Kombinationsverfahren in diesem Beitrag nicht behandelt. Ebenfalls vernachlässigt wurde die Evaluation von Sondersituationen wie die Prognose sporadischer Bedarfe. Die neuere Literatur zur Evaluation wurde nur gestreift, obgleich sich hier in den letzten Jahren durch einen verstärk-
Evaluation von Prognoseverfahren
399
ten Einbezug von Kosten-, Risiko- bzw. Nutzenfunktionen und einer Refokussierung auf den ökonomischen Wert von Prognoseverfahren interessante Sichtweisen ergeben. 1
0
0 O 0
•D
"05 ^
> -^ ^
c B
5i
Z to >
n
n-h
n-h
k-m
k-l
-
m-l (X)
0
0 t^
0
SM
0 0 CQ >
CO i5
1
1
(/) c
o o CD
'W 2^ "0 CO 0 O
1 "^ ^ C O)^ >. 0 O
Q Q^ E
^
Datenverfügbarkeit • Anzahl der Zeitreihen • Zeitreihenlänge 1 • Kausale Regressoren möglich • Subjektive Bewertungen
X
• Sporadische Reihen
X
•
X
-
X
Fehlende Werte zulässig
Prognostische Ratimenbedingungen 1 • Anwendbarkeit trotz Marktunsicherheiten und häufiger Strukturbrüche 1 • Nutzbarkeit von Wissen über Wirkungszusammenhänge 1 Prognoseanforderungen
n-m
n-m
n-m
1
m-l X
1 X
-
-
(X)
-
(X)
(X)
X
(X)
-
(X)
-
-
-
(X)
-
(X)
-
X
X
(X)
•
Prognosegenauigkeit
?
n-m
m
?
n
?
•
Implementationsabhängigkeit
h
n
h
m
n
m
•
Regressorenaktualität
na
na
na
na
da
da
•
Interpretierbarkeit
e
e
e-m
s
m
s
•
Implementationskomplexität
V
e
e-m
m
e
s
•
Datenkomplexität
V
e
e
e
m
s
•
Ausreißerresistenz
?
-
V
(X)
(X)
(X)
• Numerische Stabilität • Zusatzinformationen über Regressorstärke
na
h
V
n
m
n
na
-
-
-
X
X
• Kumulierte Prognose
na
(X)
X
X
X
•
na
-
(X)
X
X
X
(X)
X
X
X
Prognosekonfidenzintervalle
• Theoretische Grundlage
V
Institutionelle Rahmenbedingungen
\
•
Herstellungskosten
V
n
n-m
n-h
n
m-h
•
Datenbeschaffungskosten
V
n
n
n-m
m-h
h
Wartungskosten Statistisch-methodische Kompetenzanforderungen • Fachlich-inhaltliche Kompetenzanforderungen • Verfahrensverfügbarkeit in Prognosesystemen • Verfahrensverfügbarkeit in Planungssystemen
V
n
n-m
n-m
n-m
h
V
n
n-m
m
m
h
m-h
n
n
n
m
h
na
m
h
m-h
h
n
na
h
m
n
m
n
• •
1
Legende: n=niedrig, m=mittel, h=hoch, k=kurz, l=lang, ?=unklar, umstritten oder situationsabhängig, na=nicht anwendbar, da=datenabhängig, e=einfach, s=schwierig, v=variabel, X=ja, - =nein, (X)=eingeschränkt (über Sonderimplementationen oder Zusatzkonstruktionen)
Tab. 3: Strukturelle Auswahlkriterien für ausgewählte Verfahrensgruppen
400
Küsters
In der Praxis ist es empfehlenswert, nach einer kriteriengesteuerten Vorauswahl alle verbleibenden und potenziell als praktikabel und effektiv wahrgenommenen Kandidaten mithilfe einer Prognosesimulation hinsichtlich ihrer Genauigkeit und anderer Leistungsmerkmale zu analysieren, da Prognosewettbewerbe nur unzureichende Hinweise liefern können. Dabei ist aber immer zu beachten, dass das Verfahren der Prognosesimulation nur dann nutzbar ist, wenn keine erheblichen Strukturbrüche am Ende der Zeitreihe vorliegen. Erwähnenswert ist noch, dass alle in diesem Beitrag skizzierten Prognoseevaluationsmaße auf einem Vergleich der vertikalen Distanz zwischen Beobachtung und Prognose zu einem Zeitpunkt t beruhen. Granger und Jeon [40] entwickelten kürzlich ein weiteres Maß, mit dem die Güte einer Prognose hinsichtlich der horizontalen Prognosegenauigkeit im Sinne von zeitlich stabilen Verschiebungen zwischen vor- und nachlaufenden Indikatoren (leads und lags) und der zu prognostizierenden Größe evaluiert werden kann. Über den praktischen Einsatz dieses horizontalen Maßes, das explizit nicht als Ersatz, sondern als Ergänzung zu vertikalen Maßen konzipiert wurde, ist mit Ausnahme der Anwendung von Granger und Jeon [41] auf Konsumentenpreisindizes als Indikatoren der Inflationsrate bisher nur wenig bekannt. Danksagung Ich bedanke mich bei Michael Bell, Bernhard Brandel, Anja Küsters, Peter Mertens, Susanne Rässler, Oliver Vogt und Tobias Wintz für hilfreiche Kommentare zu verschiedenen Vorversionen dieses Beitrags. Andrea BartI und Marga Stein danke ich für technische Unterstützung bei der Formatierung dieses Manuskriptes. Für alle Fehler und Unzulänglichkeiten bin ich jedoch verantwortlich. 19.7 Literatur [I] [2]
[3] [4] [5] [6] [7] [8] [9] [10] [II]
Adya, M., Corrections to ruie-based forecasting: findings from a replication, International Journal of Forecasting 16 (2000), 8. 125 ff. Adya, M., Collopy, F., Armstrong, J.S. und Kennedy, M., Automatic Identification of time series features for ruIe-based forecasting, International Journal of Forecasting 17 (2001), 8. 143 ff. Andrews, R.L., Forecasting Performance of structural time series models, Journal of Business and Economic Statistics 12 (1994), S. 129 ff. Armstrong, J.S. (Hrsg.), Principles of Forecasting - A Handbook for Researchers and Practitioners, Norwell, MA2001. Armstrong, J.S., Selecting Forecasting Methods, in: [4], S. 365 ff. Armstrong, J.S., Evaluating Forecasting Methods, in: [4], S. 443 ff. Armstrong, J.S., Combining Forecasts, in: [4], S. 417 ff. Armstrong, J.S., Adya, M. und Collopy, F., Ruie-Based Forecasting: Using Judgement in Time-Series Extrapolation, in: [4], S. 259 ff. Armstrong, J.S. und Collopy, F., Error measures for generalizing about forecasting methods: Empirical comparisons, International Journal of Forecasting 8 (1992), S. 69 ff. Armstrong, J.S. und Collopy, F., Causal forces: Structuring knowledge for time series extrapolation, Journal of Forecasting 12 (1993), S. 103 ff. Balkin, S. D., The value of nonlinear models in the M3-Competition, International Journal of Forecasting 17 (2001), S. 545 ff.
Evaluation von Prognoseverfahren [12] [13] [14] [15]
[16] [17] [18] [19] [20] [21] [22] [23]
[24] [25] [26]
[27]
[28]
[29] [30] [31] [32]
[33] [34]
401
Bates, J.M. und Granger, C.W.J., The Combination of Forecasts, Operational Research Quarterly20(1969), S. 451 ff. Box, G.E.P., Jenkins, G.M. und Reinsei, G.C., Time Series Analysis, Forecasting and Control, Englewood Cliffs 1994. Brier, G.W., Verification of forecasts expressed in terms of probability, Monthly Weather Review 78 (1950), S. 1 ff. Carbone, R. und Armstrong, J.S., Evaluation of Extrapolative Forecasting Methods: Results of a Survey of Academicians and Practitioners, Journal of Forecasting 1 (1982), S. 215 ff. Chatfield, C, Apples, Oranges and Mean Square Error, International Journal of Forecasting 4 (1988), S. 515 ff. Chatfield, C , Time-Series Forecasting, Boca Raten 2001. Chatfield, C. und Yar, M., Prediction intervals for multiplicative Holt-Winters, International Journal of Forecasting 7 (1992), S. 31 ff. Chong, Y.Y. und Hendry, D.F., Econometric evaluation of linear macro-economic models, Review of Economic Studies 53 (1986), S. 671 ff. Christoffersen, P.F., Evaluating Interval Forecasts, International Economic Review 39 (1998), S. 841 ff. Clemen, R.T., Combining forecasts: A review and annotated bibliography. International Journal of Forecasting 5 (1989), S. 559 ff. Clements, M.P. und Hendry, D.F. (Hrsg.), A Companion to Economic Forecasting, Oxford 2002. Collopy, F. und Armstrong, J.S., Ruie-based forecasting: Development and Validation of an expert System approach to combining time series extrapolations, Management Science 38 (1992), S. 1394 ff. Dalrymple, D.J., Sales Forecasting Practices - Results from a United States survey, International Journal of Forecasting 3 (1987), S. 379 ff. Diebold, F., Forecast combination and encompassing: reconciling two divergent literatures, International Journal of Forecasting 5 (1989), S. 589 ff. Diebold, F.X., Günther, T.A. und Tay, A.S., Evaluating Density Forecasts with Applications to Financial Risk Management, International Economic Review 39 (1998), S. 863 ff. Diebold, F.X., Hahn, J. und Tay, A.S., Multivariate Density Forecast Evaluation and Calibration on Financial Risk Management: High Frequency Returns on Foreign Exchange, The Review of Economics and Statistics 81 (1999), S. 661 ff. Diebold, F.X. und Lopez, J.A., Forecasting Evaluation and Combination, in: Maddala, G.S. und Rao, CR. (Hrsg.), Statistical Methods in Finance, Handbook of Statistics Vol. 14, Amsterdam 1996, S. 241 ff. Diebold, F.X. und Mariano, R.S., Comparing Predictive Accuracy, Journal of Business and Economic Statistics 13 (1995), S. 253 ff. Durbin, J. und Koopman, S.J., Time Series Analysis and State Space Methods, Oxford 2001. Fandel, G., Francois, P. und Gubitz, K.M., PPS- und integrierte betriebliche Softwaresysteme: Grundlagen, Methoden, Marktanalyse, Berlin 1997. Fandel, G. und Francois, P., IT-gestützte Entscheidungen bei der Einführung von PPSSystemen, in: Jahnke, B. und Wall, F. (Hrsg.), IT-gestützte betriebswirtschaftliche Entscheidungsprozesse, Wiesbaden 2001, S. 271 ff. Fildes, R. und Makridakis, S., The Impact of Empirical Accuracy Studies On Time Series Analysis and Forecasting, International Statistical Review 63 (1995), S. 289 ff. Gardner, E.S., The Strange Case of the Lagging Forecasts, Interfaces 14 (1984), S. 47 ff.
402 [35] [36] [37] [38] [39] [40] [41] [42] [43] [44] [45] [46] [47] [48] [49] [50] [51] [52] [53] [54] [55]
[56]
[57] [58] [59]
Küsters Gardner, E.S., Exponential smoothing: The State of the art, Journal of Forecasting 4 (1985), S. 1 ff. Goodrich, R.L., Commercial Software in the M3 Competition, International Journal of Forecasting 17 (2001), S. 560 ff. Goodwin, P. und Lawton, R., On the asymmetry of the Symmetrie MAPE, International Journal of Forecasting 15 (1999), S. 405 ff. Granger, C.W.J., Prediction with a Generalized Cost of Error Function, Operational Research Quarterly 20 (1969), S. 199 ff. Granger, C.W.J., Invited Review: Combining Forecasts - Twenty Years Later, Journal of Forecasting 7 (1989), S. 167 ff. Granger, C.W.J. und Jeon, Y., A time-distance criterion for evaluating forecasting models. International Journal of Forecasting 19 (2003), S. 199 ff. Granger, C.W.J. und Jeon, Y., Comparing forecasts of Inflation using time distance, International Journal of Forecasting 19 (2003), S. 339 ff. Granger, C.W.J. und Newbold, P., Forecasting Economic Time Series, 2. Aufl., San Diego 1986. Granger, C.W.J. und Pesaran, M.H., Economic and Statistical Measures of Forecast Accuracy, Journal of Forecasting 19 (2000), S. 537 ff. Granger, C.W.J. und Ramanathan, R., Improved Methods of Combining Forecasts, Journal of Forecasting 3 (1984), S. 197 ff. Greene, W.H., Econometric Analysis, 5. Aufl., Upper Saddle River, NJ 2003. Hüttner, M., Vergleich und Auswahl von Prognoseverfahren für betriebswirtschaftliche Zwecke, in: [66], S. 349 ff. Hyndman, R., It's time to move from ,what' to ,why'. International Journal of Forecasting 17(2001), S. 537 ff. Kahn, KB., Benchmarking Sales Forecasting Performance Measures, The Journal of Business Forecasting (1998/1999), S. 19 ff. Koehler, A.B., The asymmetry of the sAPE measure and other comments on the M3Competition, International Journal of Forecasting 17 (2001), S. 570 ff. Küsters, U. und Bell, M., The Forecasting Report: A Comparative Survey of Commercial Forecasting Systems, Höhenkirchen und Brookline, MA 1999. Lewis, CD., Demand forecasting and inventory control: A Computer aided learning approach, Cambridge, UK 1997. Lopez, J.A., Evaluating the Predictive Accuracy of Volatility Models, Journal of Forecasting 20 (2001), S. 87 ff. Mahmoud, E., The Evaluation of Forecasts, in: Makridakis, S. und Wheeiwright, S.C. (Hrsg.), Handbook of Forecasting: A Manager's Guide, New York 1987, S. 504 ff. Makridakis, S., Accuracy measures: theoretical and practical concerns. International Journal of Forecasting 9 (1993), S. 527 ff. Makridakis, S., Andersen, A., Carbone, R., Fildes, R., Hibon, M., Lewandowski, R., Newton, J., Parzen, E. und Winkler, R., The accuracy of extrapolation (time series) methods - Results of a forecasting competition, Journal of Forecasting 1 (1982), S. 111 ff. Makridakis, S., Chatfield, C , Hibon, M., Lawrence, M.J., Mills, T., Ord, K und Simmons, L.F. (1993), The M2-Competition: a real time judgementally based forecasting study (with comments), International Journal of Forecasting 9 (1993), S. 5 ff. Makridakis, S. und Hibon, M., Accuracy of forecasting: an empirical investigation, Journal of the Royal Statistical Society, Series A 142 (1979), S. 97 ff. Makridakis, S. und Hibon, M., The M3-competition: results, conclusions and implications. International Journal of Forecasting 16 (2000), S. 451 ff. Makridakis, S., Wheeiwright, S.C. und Hyndman, R.J., Forecasting, Methods and Applications, 3. Aufl., New York 1998.
Evaluation von Prognoseverfahren [60] [61] [62] [63] [64] [65] [66] [67] [68] [69] [70] [71] [72]
[73] [74]
[75] [76] [77] [78] [79] [80] [81] [82]
[83]
[84] [85]
403
Mariano, R.S., Testing Forecast Accuracy, in: [22], S. 284 ff. McCracken, M.W., Robust out-of-sample inference, Journal of Econometrics 99 (2000), S. 195 ff. McCracken, M.W. und West, K.D., Inference about Predictive Ability, in: [22], S. 299 ff. Meese, R.A. und Rogoff, K., Was it real? The exchange rate-interest differential relation over the modern floating-rate period, Journal of Finance 43 (1988), S. 933 ff. Mentzer, J.T. und Kahn, K.B., Forecasting Technique Familiarity, Satisfaction, Usage and Application, Journal of Forecasting 14 (1995), S. 465 ff. Mertens, P. (Hrsg.), Prognoserechnung, 4. Aufl., Würzburg 1981. Mertens, P. (Hrsg.), Prognoserechnung, 5. Aufl., Heidelberg 1994. Mertens, P. und Backert, K., Vergleich und Auswahl von Prognoseverfahren für betriebswirtschaftliche Zwecke, in: [65], S. 339 ff. Mincer, J. und Zarnovitz, V., The evaluation of economic forecasts, in: Mincer, J. (Hrsg.), Economic Forecasts and Expectations, New York 1969, S. 3 ff. Moon, M.A., Mentzer, J.T. und Smith, CD., Conducting a sales forecasting audit, International Journal of Forecasting 19 (2003), S. 5 ff. Newbold, P. und Bos, Th., Introductory Business and Economic Forecasting, 2. Aufl., Cincinnati 1994. Newbold, P., Agiakloglou, C. und Miller, J., Adventures with ARIMA Software, International Journal of Forecasting 10 (1994), S. 573 ff. Newbold, P. und Granger, C.W.J., Experience with Forecasting Univariate Time Series and the Combination of Forecasts, Journal of the Royal Statistical Society, Series A 137 (1974), S. 131 ff. Newbold, P. und Harvey, D.I., Forecast Combination and Encompassing, in: [22], S. 268 ff. Ord, J. K., Koehler, A. B. und Snyder, R. D., Estimation and prediction for a dass of dynamic nonlinear Statistical models, Journal of the American Statistical Association 92 (1997), S. 1621 ff. Ord, K. und Lowe, S., Automatic Forecasting, The American Statistician 50 (1996), S. 88 ff. Pankratz, A., Forecasting with dynamic regression models, New York 1991. Pesaran, M.H. und Skouras, S., Decision-Based Methods for Forecast Evaluation, in: [22], S. 241 ff. Pesaran, M.H. und Timmermann, A., A Simple Nonparametric Test of Predictive Performance, Journal of Business and Economic Statistics 10 (1992), S. 461 ff. Rycroft, R., Microcomputer Software of interest to forecasters in comparative review: Updated again. International Journal of Forecasting 15 (1999), S. 93 ff. Sanders, N.R. und Manrodt, K.B., Forecasting Practices in US Corporations: Survey Results, Interfaces 24 (1994), S. 92 ff. Sanders, N.R. und Manrodt, K.B., Forecasting Software in Practice: Use, Satisfaction, and Performance, Interfaces 33 (2003), S. 90 ff. Schwarze, J., Statistische Kenngrößen zur Ex-post-Beurteilung von Prognosen (Prognosefehlermaße), in: Schwarze, J. (Hrsg.), Angewandte Prognoseverfahren, Herne/ Berlin 1980, S. 317 ff. Schwarze, J. und Weckerle, J. (Hrsg.), Prognoseverfahren im Vergleich: Anwendungserfahrungen und Anwendungsprobleme verschiedener Prognoseverfahren, TU Braunschweig 1982. Sullivan, R.A., Timmermann, A. und White, H., Data-snooping, technical trading ruie Performance, and the bootstrap, Journal of Finance 54 (1999), S. 1647 ff. Tashman, L.J., Out-of-sample tests of forecasting accuracy: an analysis and review, International Journal of Forecasting 16 (2000), S. 437 ff.
404 [86] [87] [88] [89] [90]
[91] [92] [93] [94] [95] [96]
[97] [98]
[99]
Küsters Tashman, L., The M3-Competition and forecasting Software. International Journal of Forecasting 17 (2001), S. 578 ff. Tashman, L.J. und Leach, M.L., Automatic Forecasting Software: A Survey and Evaluation, International Journal of Forecasting 7 (1991), S. 209 ff. Tay, A.S. und Wallis, K. F., Density forecasting: A survey, Journal of Forecasting 19 (2000), S. 235 ff. Taylor, J.W., Evaluating Volatility and Interval Forecasts, Journal of Forecasting 18 (1999), S. 111 ff. Taylor, J.W. und Bunn, D.W., Investigating improvements in the accuracy of prediction intervals for combinations of forecasts: A Simulation study. International Journal of Forecasting 15(1999), S. 325 ff. Theil, H., Applied Economic Forecasting, Amsterdam 1966. Webby, R. und O'Connor, M., Judgemental and Statistical time series forecasting: a review of the literature. International Journal of Forecasting 12 (1996), S. 91 ff. West, K.D. und McCracken, M.W., Regression-based tests of predictive ability. International Economic Review 39 (1998), S. 817 ff. West, M. und Harrison, J., Bayesian Forecasting and Dynamic Models, 2. Aufl., New York 1997. White, H., A reality check for data snooping, Econometrica 68 (2000), S. 1097 ff. Williams, W.H. und Goodman, M.L., A Simple Method for the Construction of Empirical Confidence Limits for Economic Forecasts, Journal of the American Statistical Association 66 (1971), S. 752 ff. Winker, P., Empirische Wirtschaftsforschung, Berlin 1997. Winkihofer, H., Diamantopoulos, A. und Witt, S.F., Forecasting practice: a review of the empirical literature and an agenda for future research, International Journal of Forecasting 12(1996), S. 193 ff. Yokum, J.T. und Armstrong, J.S., Beyond accuracy: Comparison of criteria used to select forecasting methods. International Journal of Forecasting 11 (1995), S. 591 ff.
20 Modellgestützte Marktanteilsprognose auf Basis von Paneldaten von Raimund Wildner 20.1 Problemstellung Marketing und Vertrieb sind laufend mit der Frage konfrontiert, wie eine Veränderung im Marketing-Mix den Marktanteil beeinflusst. Wie haben sich Preis und Marktanteil entwickelt? Das mag interessant sein. Für das Management wesentlicher ist jedoch die Frage, welche Auswirkung eine Preiserhöhung um 5 % auf den Marktanteil haben wird, oder besser noch, welcher Preis den Deckungsbeitrag der Marke optimiert. Die Beantwortung solcher Fragen versprechen Marketing-Mix-Modelle. Unabhängig von der vorhandenen Datenbasis liegt dabei stets das gleiche Prinzip zugrunde: Zunächst wird rechnerisch die Verbindung zwischen den Einflussgrößen (im Falle von Marketing-Mix-Modellen die Marketing-Mix-Variablen wie z. B. Preis, Distribution oder Handelsaktionen) und einer Ergebnisgröße (im Falle von Marktanteilsprognosen der Marktanteil) ermittelt. Dazu sind Hypothesen erforderlich, die in mathematische Gleichungen umgesetzt werden. Diese Gleichungen enthalten Parameter, die mithilfe mathematisch-statistischer Verfahren geschätzt werden. Die Qualität der Schätzung wird dann nach inhaltlichen und statistischen Aspekten geprüft. Ist sie akzeptiert, so lassen sich damit im Wesentlichen drei Typen von Fragen beantworten, die jeweils durch ein Beispiel repräsentiert werden sollen: 1.
Analyse: Was hat den Anstieg des Marktanteils bewirkt? Sehr häufig haben sich zwischen zwei Perioden (z. B. vom 1. Quartal zum 2. Quartal eines Jahres) sehr viele Einflussgrößen gleichzeitig verändert. Marketing-Mix-Modelle erlauben es, die Veränderung im Marktanteil auf diese Einflussfaktoren aufzuteilen.
2.
Simulation: Was wäre, wenn der Preis um 5 % erhöht würde? In das Modell lassen sich geänderte Werte für die Einflussvariablen eingeben und über die Modellgleichungen erhält man eine Schätzung für die Auswirkung der Änderung. Dabei ist es möglich, nur eine Variable zu verändern (z. B. wie in der Beispielfrage der Preis) oder auch alle Einflussgrößen gleichzeitig, sodass ganze Szenarios auf ihre Auswirkungen überprüft werden können.
3.
Prognose: Welcher Marktanteil ist bei dem geplanten Marketing-Mix zu erwarten? Wird ein künftig geplanter Marketing-Mix eingegeben, so wird die Simulation zur Prognose. Für die Konkurrenzaktivitäten sind dabei Annahmen zu treffen. Werden verschiedene Szenarios für die Konkurrenz eingegeben, so erhält man verschiedene Prognosen, die einen Prognosetunnel aufspannen.
In diesem Beitrag wird das „Modelling" mit Paneldaten untersucht. Dabei wird der Schwerpunkt auf die Prognosefähigkeit gelegt. Paneldaten existieren im Wesentlichen für die Märkte der Güter des täglichen Bedarfs (Handelspanels von IRI in Nürnberg und Nielsen in Frankfurt, Verbraucherpanels von GfK in Nürnberg und Nielsen), für Textil (GfK), Finanzanlagen (GfK), Reisen (GfK) sowie für Gebrauchsgüter wie z. B. Unterhaltungselektronik, Foto, Brillen, Haushaltsausstattung, Baumarktartikel, Spielwaren und Uhren (jeweils GfK). Eine Sonderstellung nehmen Medienpanels ein, weil es nicht um
406
Wildner
den Kauf oder Verkauf von Produkten sondern um die Nutzung von Medienangeboten geht und diese Daten die Grundlage für den Verkauf von Werbeangeboten der Medien bilden. Das wichtigste Beispiel ist das Fernsehzuschauerpanel der AGF (Arbeitsgemeinschaft Fernsehforschung, ein Zusammenschluss der Fernsehanbieter), das von der GfK durchgeführt wird. Für die anderen, durchaus erheblichen Warenbereiche (z. B. Autos und vor allem den gesamten Bereich der von Firmen und Behörden eingekauften Dienstleistungen und Waren) existieren solche Daten nicht. Zur Modellierung dieser Märkte wurde kürzlich von Hupp und Xu [5] ein auf Befragung gestützter Ansatz vorgestellt, der hier aber nicht weiter behandelt werden soll. Marketing-Mix-Modelle wurden bereits vor Jahrzehnten entwickelt, konnten sich aber lange in der Praxis nicht durchsetzen. Ihr Einsatz scheiterte vor allem daran, dass die Daten in der verfügbaren Qualität nicht zur Verfügung standen. Das trifft unter anderem für die Modelle von Amstutz [1], Lavington [7] sowie Klenger und Krautter [6] zu. Little [8] verzichtet in seinem Modell von vornherein auf die empirische Schätzung der Modellparameter und eicht subjektiv geschätzte Werte anhand empirischer Daten. Zentral für die Anwendbarkeit eines Verfahrens ist demnach, dass man sich mit den zugrunde liegenden Daten auseinandersetzt. Dies soll im folgenden Abschnitt geschehen. Darauf folgt eine Beschreibung der auf die verschiedenen Panels aufsetzenden Modellierungsansätze und ihrer Stärken und Schwächen. Eine Fallstudie sowie ein Vergleich der Modelle schließen die Darstellung ab. 20.2 Paneldaten als Grundlage für Marketing-Mix-Modelle Panels können „dadurch charakterisiert werden, dass grundsätzlich 1. 2. 3. 4.
der stets gleiche Sachverhalt, zu den stets gleich bleibenden, wiederkehrenden Zeitpunkten, bei der stets gleichen Stichprobe, auf die stets gleiche Art und Weise,
erhoben wird." ([3], S. 5). Die Datenpunkte lassen sich folglich als dreidimensionaler Würfel mit den Kanten „Perioden", „Merkmalsträger" und „Zeitpunkte" beschreiben. Für jeden dieser Fälle liegen mehrere Variable vor. Eine solche rechteckige Datenstruktur ist generell für multivariate Verfahren, wie sie auch beim Modelling angewendet werden, besonders geeignet (vgl. [2],S. 16f.). Dabei lassen sich nach der Art der Grundgesamtheit folgende Panelarten unterscheiden (vgl. [3], S. 59-70): Beim Handelspanel wird die Grundgesamtheit aus Einzelhandelsgeschäften gebildet. Je nach Erhebungsart lassen sich unterscheiden: 1.
Bei Scannerpanels werden die Abverkäufe und Preise über die Scannerkasse erfasst und stehen in der Regel wöchentlich zur Verfügung. Zusätzlich werden Informationen zu Aktionen (z. B. ob ein Display stand oder für ein Produkt per Hand-
Modellgestützte Marktanteilsprognose auf Basis von Paneldaten
407
Zettel geworben wurde) durch den Außendienst ebenfalls wöchentlich erhoben. Dadurch werden Handelsaktionen und ihre Auswirkungen auf den Abverkauf sehr gut abgebildet. Diese Daten eignen sich besonders gut zur Modellbildung. Nachteilig ist, dass nur solche Geschäfte in der Stichprobe berücksichtigt werden können, die mit Scannerkassen ausgerüstet sind. Dadurch leidet die Repräsentativität. 2.
Bei den traditionellen Panels sind zwar auch Geschäfte integriert, bei denen die Datenerfassung über Scannerkassen erfolgt. Ein Teil der Geschäfte wird aber manuell vom Außendienst erhoben. Dies kann aus Kostengründen nur monatlich oder zweimonatlich erfolgen. Mit monatlichen oder zweimonatlichen Daten ist aber eine Analyse wöchentlicher Aktionen nur eingeschränkt möglich. Vorteil ist die bessere Repräsentativität dieser Panels.
Beim Verbraucherpanel bilden Private Haushalte (für Produkte, die für den gesamten Haushalt eingekauft werden, wie z. B. Waschmittel) oder Einzelpersonen (für individuell eingekaufte Produkte, wie z. B. Kosmetik) die Grundgesamtheit. Die Panelteilnehmer teilen dem Institut pro gekauften Artikel mit, wo und wann dieser gekauft wurde und wie hoch der Preis war. Beim GfK-Haushaltspanel wird darüber hinaus erhoben, ob der Artikel in der Aktion gekauft wurde. Handelspanels haben den Vorteil, dass alle Variablen, die pro Geschäft differenzieren (wie z. B. Distribution oder Preis), sehr gut und detailliert abgebildet werden. Darüber hinaus ist für jedes Produkt auch die jeweilige Konkurrenzsituation bekannt. Werbung kann dagegen nur zwischen den Perioden, nicht zwischen den Geschäften getrennt analysiert werden. Ihr Einfluss wird daher in der Regel unterschätzt. Verbraucherpanels können dagegen Werbung sehr viel besser abbilden, weil diese auf den einzelnen Haushalt wirkt (vgl. [11]). Dagegen liefern sie über die Konkurrenzsituation in den Geschäften nur unscharfe Informationen, weil diese nur über die Einkäufe der anderen Haushalte in Geschäften der gleichen Vertriebsschiene nachgebildet werden können. Im Folgenden werden zwei Arten von Modellen näher vorgestellt: 1.
Scanner-Handelspanelmodelle sind seit dem ersten Aufkommen der Scannerdaten Mitte der 80er Jahre im Einsatz und heute schon sehr ausgereift. Solche Modelle werden unter anderem von den Anbietern von Scannerdaten IRI in Nürnberg und Nielsen in Frankfurt angeboten. Aus Konkurrenzgründen publiziert man diese nicht vollständig. Deshalb wird hier ein von der GfK entwickeltes Modell dargestellt. Der hier vorgestellte Ansatz des GfK-Marken-Simulators wurde ursprünglich für traditionelle Handelspaneldaten entwickelt (vgl. [9] und [10]) und ab etwa 1992 dann auf Scanner-Handelspaneldaten übertragen.
2.
Verbraucherpanelmodelle sind dagegen noch sehr neu. Sie werden erst seit kurzem von der GfK angeboten und hier erstmals dargestellt. Die Beschreibung beschränkt sich auf das weitaus wichtigere Haushaltspanel.
408
Wildner
20.3 Prognosen mit Scanner-Handelspanel-Modellen 20.3.1 Die Datenbasis Die Datenbasis bilden wöchentliche Daten aus Handelsgeschäften, wobei Preise, Abverkäufe und Handelsaktionen in der jeweiligen Warengruppe erhoben werden. Eine Aufgliederung der Daten, wie man sie normalerweise für die Handelsberichterstattung vornimmt, indem Gesamt, Geschäftstypen (z. B. Verbrauchermärkte oder Discounter) und Organisationsformen (z. B. Rewe oder Spar) dargestellt werden, ist nicht ausreichend, weil dann das Marketing-Mix in der Regel zu wenig streut. Auf der anderen Seite führt die Modellierung auf Basis der Einzelgeschäfte zu einer sehr umfangreichen und damit unhandlichen Datenbasis. Bewährt hat sich, die Geschäfte jeweils einer Vertriebsschiene (z. B. „Plus" von Tengelmann oder „HL" von Rewe) zusammenzufassen. Weil diese in sich sehr homogen sind, bleibt die im Marketing-Mix der Einzelgeschäfte enthaltene Streuung im Wesentlichen erhalten. Die Datenbasis wird aber sehr viel kleiner: Statt ca. 400 Einzelgeschäften werden ca. 15 bis 30 Vertriebsschienen betrachtet. Bei 52 Wochen ergeben sich somit ca. 750 bis 1500 Datenpunkte. 20.3.2 Die Modellbildung Wichtig für die Modellbildung ist, dass alle wichtigen, den Absatz beeinflussenden Variablen gleichzeitig in die Analyse einbezogen werden. Als zentral sind hier insbesondere Konkurrenzpreise sowie die Handelsaktionen für das eigene Produkt und die Konkurrenz zu nennen. Eine Nicht-Berücksichtigung von wichtigen Variablen führt regelmäßig zu schlechteren Anpassungen und Prognosen, häufig auch zu Fehlurteilen, wie durch ein (fiktives) Beispiel deutlich wird: Ein Produkt erreicht in einer Nichtaktionswoche beim Preis von 1,09 € in einer Vertriebsschiene einen Marktanteil von 10 %, in einer Woche mit Preissenkung auf 0,99 € 12 % und in einer Woche mit Preissenkung auf 0,99 € und zusätzlichem Display 28 %. Eine Regression, die als beeinflussende Größe nur die Preise und nicht die Displayinformation berücksichtigt, wird zu dem falschen Ergebnis kommen, dass eine Preissenkung von 1,09 € auf 0,99 € im Durchschnitt den Marktanteil von 10 % auf 20 % verdoppelt. In der Praxis möchte man möglichst viele Variable in die Analyse einbeziehen, weil nur für die einbezogenen Variablen Ergebnisse zur Verfügung stehen und deren Einflüsse auf die Prognose ermittelt werden können. Dem steht auf statistischer Seite entgegen, dass die dann resultierenden Modelle wegen der oft hohen Korrelation der beeinflussenden Größen instabil werden. Als Ausweg hat es sich als zweckmäßig erwiesen, mehrere Variable zunächst zu so genannten „Metavariablen" zusammenzufassen. Die Vorgehensweise lässt sich am Beispiel eines Modells für eine Tafelschokoladenmarke A und der Variable „Konkurrenzpreis" erläutern. Eine mögliche Lösung wäre, den Preis jeder Konkurrenzmarke für sich einfließen zu lassen. Dadurch würden sich jedoch sehr viele hochkorrelierte (exogene) Variable ergeben, die dann keine stabile Schätzung mehr erlaubten. Eine weitere Möglichkeit bestünde darin, den durchschnittlichen Konkurrenzpreis als eine zusammengefasste Variable in die Analyse aufzunehmen. Dabei vermischen sich jedoch Preis- und Mengeneffekt, es kann sogar vorkommen, dass eine Preissenkung einer Konkurrenzmarke zu einer Erhöhung des durch-
Modellgestützte Marktanteilsprognose auf Basis von Paneldaten
409
schnittlichen Konkurrenzpreises führt, wie folgendes (fiktive) Beispiel mit zwei Konkurrenzmarken B und C zeigt: In einer Woche werden von der Konkurrenzmarke B 90 Stück zum Preis von 0,50 € verkauft, von C 10 Stück zum Preis von 1,50 €. Es ergibt sich ein durchschnittlicher Konkurrenzpreis von 0,60 €. In der Folgewoche sinkt der Preis von C auf 1,00 €, wodurch der Verkauf auf 50 Stück steigt. B verkauft zum unveränderten Preis von 0,50 € aufgrund der stärkeren Konkurrenz von C nur noch 50 Stück. Damit steigt der Konkurrenzpreis trotz der Preissenkung von 0,60 € auf 0,75 €. Die Vermischung von Preis- und Mengeneffekten kann vermieden werden, wenn die Mengenanteile der Konkurrenzmarken konstant gehalten werden. Eine Möglichkeit besteht nun darin, den Mengenanteil konstant auf den Durchschnittsanteil in der beobachteten Periode zu setzen. Das kann zu brauchbaren Ergebnissen führen, berücksichtigt aber nicht, dass die Produkte sich verschieden stark beeinflussen: So wird eine Premiummarke wohl eher durch die Preissenkung einer anderen Premiummarke beeinflusst als durch die Preissenkung einer Billigmarke. Deshalb werden die Gewichte für die Zusammenfassung der Preise so bestimmt, dass die Modellanpassung insgesamt maximiert wird. Das kann für alle Konkurrenzprodukte zusammen oder aber auch für Gruppen von Konkurrenzprodukten getrennt erfolgen. Praktisch geschieht dies mit einer numerischen Optimierungsmethode, z. B. mit dem Nelder-Mead-Verfahren (vgl. [4], S. 127 ff.). Die Höhe der Gewichte lässt sich als Ausdruck der Nähe eines Produkts zum modellierten Produkt interpretieren. Für die Verknüpfung der Variablen wird beim GfK-Marken-Simulator eine spezielle Form der nichtlinearen Regression angewendet, wobei der aktuelle Marktanteil als abhängige Variable, die verschiedenen Marketing-Mix-Variablen direkt oder in Form von Metavariablen als unabhängige Variablen eingesetzt werden. Dabei wird ein multiplikativer Regressionsansatz der Form
verwendet, wobei ys,t = Marktanteil (Menge) der Vertriebslinie s (s=l,2,...,S) zum Zeitpunkt (t=l,2,...,T), wobei S die Zahl der Subsegmente (z. B. 30) und T die Anzahl der venA/endeten Perioden darstellen. Eine Periode wird als zeitverzögerte oder Lag-Periode benötigt. Liegt ein Jahr zugrunde und werden wöchentliche Daten verwendet, so gilt: T = 51. Zs,t-i = Marktanteil (Menge), wie er in der Vorperiode bestanden wäre, wenn der gleiche Marketing-Mix verwendet worden wäre, wie in der aktuellen Periode. Xi^s,t = i-te Marketing-Mix-Variable (i=l,2,...n) des Segments s zum Zeitpunkt f, wobei n die Anzahl der einbezogenen Variablen bedeutet. Dabei kann es sich auch um eine Metavariable handeln. es,t = Störvariable, wird durch den Schätzprozess minimiert. üj = Parameter, die so zu schätzen sind, dass die Quadratsumme der e^^ minimiert wird. Die Variable z kann nach einigen Umformungen (vgl. [10]) eliminiert werden. Es ergibt sich als zu schätzende Modellgleichung:
410
Wildner
Deren Parameter lassen sich iterativ bestimmen: Hierzu berechnet man zunächst mit einem vorgegebenem aj = 0 die Ausdrücke in den Klammern. Nach Logarithmieren können die Parameter ao bis a^+j außerhalb der Klammern mit linearer Regressionsrechnung geschätzt werden (vgl. z. B. [2], S. 45 ff.), wodurch sich ein neuer Wert für aj ergibt, der wieder in die Klammerausdrücke eingesetzt wird. Dies führt man solange fort, bis sich die Beträge der aj zweier aufeinander folgender Iterationen um weniger als einen sehr kleinen Betrag (z. B. 0,00001) unterscheiden. Die Konvergenz des Verfahrens ist zwar nicht bewiesen, trat bis jetzt in der Praxis jedoch stets nach 5 bis 10 Iterationen auf. Zur Beurteilung der Qualität der Schätzung stehen mehrere statistische und inhaltliche Kriterien zur Verfügung (vgl. z. B. [2], S. 45 ff.). Dies soll jedoch anhand eines konkreten Beispiels erläutert werden. 20.3.3 Prognosen am Fallbeispiel Im Folgenden soll ein Beispiel aus dem Süßwarenbereich dargestellt werden. Ein Unternehmen offeriert zwei Produktlinien. Pro Produktlinie werden mehrere Marken angeboten, jede Marke meist auch in mehreren Größen. Für beide Produktlinien wurde je ein Modell erstellt. Im Folgenden soll das Modell der 1. Produktlinie näher beleuchtet werden. Es wurden 15 Vertriebslinien unterschieden. 87 Wochen von Woche 1 1998 bis Woche 34 1999 (1998 hatte 53 Wochen) standen für die Modellbildung zur Verfügung. Vertriebslinien, bei denen die Produkte nicht oder kaum distribuiert waren, wurden aus der Datenbasis entfernt. Damit ergaben sich insgesamt 1131 Datenpunkte. Für jeden dieser Datenpunkte wurde ein umfassendes Set an Variablen gebildet. So wurden 70 eigene und konkurrierende Produkte bzw. Zusammenfassungen daraus berücksichtigt. Pro Marke wurden folgende Variable berücksichtigt: 1.
Zahl der EAN als Ausdruck für die Tiefe des angebotenen Sortiments.
2.
Preis in den Ausprägungen Normalpreis und Aktionspreis, dieser wiederum getrennt nach Preissenkung, Display, Anzeige (in Handzettel oder Zeitung) und allen möglichen Kombinationen daraus.
3.
Distribution gewichtet gesamt, nicht Aktion und Aktion getrennt nach Preissenkung, Display, Anzeige und allen Kombinationen daraus.
4.
Damit wurde die Situation in den Geschäften sehr umfassend berücksichtigt. Insgesamt besteht die Datenbasis aus ca. 3,8 Mio. Zahlen.
Die wesentlichen Parameter des Modells zeigt die Tabelle 1.
Modellgestützte Marktanteilsprognose auf Basis von Paneldaten Modell "Marke X" Abh. Variable Marktanteil Konstante
R^ =
93,77 %
F-Wert=
1199,188
Parameter a, -0,506
411
f-Werte ^T;84
Lag-Variable
0,663
43,06
Preis Mittelpreisprodukte Marke X
-0,766
-7,57
Preis Niedrigpreisprodukte Marke X
-0,167
-2,40
Distr. Aktion Mittelpreisprod. X
0,058
11,52
Distr. Aktion Niedrigpreisprod. X
0,087
17,13
Preis Konkurrenten 1
1,135
15,25
Preis Marke X Produktlinie 2
0,086
2,56
Zahl EAN Niedrigpreisprod. X
0,373
6,16
Zahl EAN Marke X Produktlinie 2
0,573
10,10
Zahl EAN Hochpreisprodukte Marke X
0,225
3,99
Distr. Aktion Handelsm.
-0,014
-4,73
Preis Handelsmarken
0,064
2,69
Distr. Aktion Konkurrenten 2
-0,017
-3,33
Distr. Aktion sonst. Konkurrenten
-0,029
-2,68
Tab. 1: Parameter-Modell Marke X Produktlinie 1 (Quelle: GfK) 1.
Die statistische Qualität des Modells ergibt sich aus: a)
Dem Bestimmtheitsmaß R\ das den Anteil der durch die Regression erklärten Varianz angibt. Mit fast 94 % bleiben nur etwas über 6 % der Varianz unerklärt. Dieser Wert muss als sehr gut bezeichnet werden
b)
Dem F-Wert, der über die Signifikanz des Modells Auskunft gibt. Ab einem Wert von 2,04 ist die Regression als Ganzes mit einer Sicherheitswahrscheinlichkeit von 99 % signifikant. Ein F-Wert kleiner als die Signifikanzgrenze würde das gesamte Modell wertlos machen. Der Wert von 1199 übersteigt diese sehr deutlich und muss daher ebenfalls als sehr gut bezeichnet werden.
c)
Den f-Werten der einzelnen Parameter, wobei ein ^Wert von kleiner -1,96 oder größer +1,96 mit 95 % Sicherheitswahrscheinlichkeit eine signifikante Einflussgröße signalisiert; ein ^Wert von kleiner -2,57 oder größer +2,57 zu 99 %. Das Vorzeichen ist gleich dem Vorzeichen des zugehörigen a^. Ein Plus drückt aus, dass ein Einfluss gleichläufig (wenn sich die Variable erhöht, erhöht sich der Marktanteil, z. B. der Preis eines Konkurrenzprodukts), ein Minus, dass er gegenläufig ist (wenn sich die Variable erhöht, vermindert sich der Marktanteil, z. B. der eigene Preis). Ist ein Parameter nicht signifikant, so ist der Einfluss der entsprechenden Variablen nicht gesichert. Es zeigt sich, dass bis auf die Konstante, die nicht weiter interpretiert wird, alle Werte zu 95 % signifikant sind, bis auf einen sind sie sogar zu 99 % signifikant. Auch dies muss als sehr gut bezeichnet werden.
d)
Dagegen kann der Absolutwert der Parameter a^ wegen der Transformation der Variablen nicht direkt beurteilt werden.
412
Wildner e)
Wichtig ist auch das Punktdiagramm der geschätzten zu den realen Marktanteilen. Dieses ergibt, dass die Datenpunkte sehr eng um die Diagonale als Ideallinie streuen und sich weder im unteren noch im oberen Bereich davon entfernen (siehe Abbildung 1).
Abb. 1: Geschätzte versus reale Marktanteile f)
2.
Besonders wichtig ist jedoch die Prognosefähigkeit des Modells. Dazu werden nur die Daten der Wochen 1-53 1998 herangezogen und das Modell erneut geschätzt. Dann werden die Marketing-Mix-Variablen für die Wochen 134 des Jahres 1999 eingegeben in die Modellgleichung und die zugehörigen Marktanteile geschätzt. Dieser Test ist besonders wichtig, weil so aufgedeckt werden kann, wenn eine gute Anpassung des Modells an die Realität im Schätzzeitraum lediglich auf „Overfitting" (gute Anpassung ohne real dahinter stehende Zusammenhänge und daher schlechte Erklärung zusätzlicher Datenpunkte) zurückzuführen ist. Mit einer durchschnittlichen Abweichung des prognostizierten Marktanteils vom realen Marktanteil von 0,24 Prozentpunkten kann die Prognose als sehr gut bezeichnet werden (siehe Abbildung 2).
Die inhaltliche Qualität ergibt sich insbesondere daraus, dass alle Vorzeichen der Parameter das erwartete Ergebnis zeigen und die Elastizitäten in sinnvollen Bereichen liegen.
Die zur Produktlinie gehörenden Produkte wurden aufgeteilt in Niedrigpreisprodukte, Mittelpreisprodukte und Hochpreisprodukte. Die Konkurrenten wurden nach Marken getrennt. Die Preise gehen gewichtet ein, wobei - wie oben dargestellt - die Gewichte so gewählt wurden, dass die Modellanpassung insgesamt optimiert wurde. Diese Gewichte lassen sich interpretieren: So ergaben sich für die Mittelpreisprodukte für vier Produkte Gewichte zwischen 14 % und 25 %. Diese Produkte haben Konkurrenten, die mit ihnen vergleichbar sind und damit die Preiswahrnehmung der Marke insgesamt
Modellgestützte Marktanteilsprognose auf Basis von Paneldaten
413
stärker beeinflussen, als die sieben Produkte mit den niedrigen Gewichten zwischen 1 % und 9 %.
Prognosefähigkeit
"Ist •Modell
8
I
-
I
1 1 I
^
I
I
N-
I
1 1 I
O
I
I
CO
I
I
CD
I
I
I
O)
I
I
I I
CN CM
I
I 'i ' i
in
00
CNJ
CN
I
I I
CO
CO
Woche 1999
Abb. 2: Prognosefähigkeit des Modells Die Aktionen wurden ebenfalls gewichtet zusammengefasst. Die Variable „Distribution Aktion Mittelpreisprodukte" wurde demnach aus zwei Zusammenfassungen gebildet. Dabei ergeben sich die folgenden Gewichte: Aktionsart Preissenkung (P) Display (D) Anzeige (A) Display und Anzeige (DA) PD PA PDA
Gewicht (%) 3 6 6 6 19 23 38
Tab. 2: Aktionsarten und Aktionsgewichte Die Gewichte zeigen eindeutig, dass in diesem Markt vor allem Preissenkungen wirken, die mit einer kommunikativen Maßnahme (Display und/oder Anzeige, d. h. Handzettel- oder Zeitungsinserat) verknüpft sind. 20.4 Prognosen mit Scanner-Verbraucherpanel-Modellen 20.4.1 Vorbemerkung Scanner-Verbraucherpanel-Modelle sind erst seit kurzem im Einsatz. Die GfK hat in den Jahren 1998 bis 2003 ein entsprechendes Modell entwickelt, das seit November 2003 unter dem Namen „GfK-Brand-Simulator" angeboten wird.
414
Wildner
Zielsetzung war 1.
die simultane Schätzung aller relevanten Marken und Vertriebslinien, also ein Marktmodell, kein Markenmodell wie das in Abschnitt 20.3 vorgestellte Modell;
2.
ein Modell auf Basis der einzelnen Haushalte, sodass beliebige Aggregationen von Haushalten möglich sind;
3.
die Berücksichtigung des kompletten Marketing-Mix mit Ausnahme des Produkts selbst. Es sollen also einbezogen werden können Preise, Aktionen, Distributionen und Werbung (TV);
4.
schließlich ein transparentes Modell, d. h. keine „Black Box", die dem Kunden kein Vertrauen vermitteln kann.
20.4.2 Die Datenbasis Die Datenbasis soll dargestellt werden am Beispiel Weichspüler. 7421 Haushalte haben im Jahr 2002 mindestens einmal Weichspüler gekauft. Dabei sind nur solche Haushalte berücksichtigt, die 2002 durchgehend berichtet haben (diese bilden die so genannte „durchgehende Masse"). Haushalte, die 2002 die Berichterstattung aufgenommen und/oder beendet hatten, sind nicht enthalten. Nun ist ein einziger Einkaufsakt nicht ausreichend, um auf dieser Basis das Einkaufsverhalten des betreffenden Haushalts zu modellieren. Deshalb werden für die Modellbildung nur solche Haushalte berücksichtigt, die mindestens drei Einkaufsakte haben. Das sind 3307 Haushalte, die insgesamt 32281 und damit ca. 90 % der Einkaufsakte getätigt haben. Die Einkäufe werden in insgesamt 29 Vertriebslinien und für die wichtigsten Marken des Markts beobachtet. Insgesamt deckt das Modell damit etwa 80 % des Markts ab. Für jeden Einkaufsakt stehen folgende Informationen zur Verfügung: 1.
Einkaufsverhalten des Haushalts vor dem Einkaufsakt;
2.
Preis des Produkts;
3.
gekaufte Menge;
4.
Preise der Produkte, die von anderen Panelhaushalten eingekauft wurden. Dabei werden auch die Einkäufe der Haushalte herangezogen, die nur einen oder zwei Einkaufsakte hatten;
5.
Distribution laut IRI.
20.4.3 Die Modellierung Für die Modellierung wird jeder Einkaufsakt in folgende Entscheidungen zerlegt: 1. 2. 3. 4.
Wann wird gekauft? Wo wird gekauft? (Vertriebslinie) Was wird gekauft? (Marke, Produkt) Wie viel wird gekauft? (Anzahl Packungen)
Modellgestützte Marktanteilsprognose auf Basis von Paneldaten
415
Die ausführliche Darstellung aller Modellteile würde den Rahmen dieses Artikels sprengen. Deshalb soll nur das Teilmodell für die Einkaufsstättenwahl näher beleuchtet werden. Dieses Teilmodell ist eine Besonderheit des Verbraucherpanel-Modells im Vergleich zum Handelspanel-Modell. In den Handelspanel-Modellen wird jedes Geschäft bzw. jede Vertriebslinie als ein unabhängig bestehendes Universum behandelt. Wenn eine Vertriebslinie eine Aktion fährt, dann wird dies Nachfrage von anderen Vertriebslinien abziehen. Dieser Nachfragerückgang in den anderen Vertriebslinien wird in den Handelspanel-Modellen nicht modelliert, was tendenziell zu einer Überschätzung des Erfolgs der Aktion für das Produkt führt. Im Verbraucherpanel-Modell wird dies jedoch explizit berücksichtigt. Zunächst hat jeder Haushalt eine Anzahl von Vertriebslinien im „Relevant Set". Dieses Relevant Set wird insbesondere von der räumlichen Nähe von Geschäften der Vertriebslinie zum Wohn- bzw. Arbeitsort determiniert. Eine Vertriebslinie ist nur dann im Relevant Set, wenn sie im Basis-Zeitraum mindestens einmal genutzt wird. Die Nutzungswahrscheinlichkeit einer Vertriebslinie errechnet sich durch ein logistisches Modell der folgenden Form:
w w,h,v
-
1 _j_ V ^
1
~Zu<^ß'(^ß,w,h,v~^ß,w,h,u)
mit ^w,h,v ~ Wahrscheinlichkeit, dass Haushalt h in Woche w in Vertriebslinie v einkauft, ^ß,w,h,v ~ Einflussgröße ß (z. B. Preisniveau) für Haushalt h in Woche w und Vertriebslinie V. Entsprechend: ^ß,w,h,u " Einflussgröße ß (z. B. Preisniveau) für Haushalt h in Woche w und Vertriebslinie u, üß - Parameter, der die Bedeutung der Einflussgröße steuert. Einflussgrößen sind: 1. 2. 3. 4.
Nutzen der Vertriebslinie Nutzen des Sortiments Preisniveau Aktionsniveau
Der Nutzen der Vertriebslinie als erste Einflussgröße hängt ab vom Niveau der Vertriebslinienbindung eines Haushalts. Dabei werden für die Vertriebslinien des Relevant Sets vier Stufen unterschieden: 1. 2. 3. 4.
Nichtkäufer Gelegentlicher Käufer Wiederkäufer Treuekäufer
Ein Haushalt befindet sich vor jedem Kaufakt für jede Vertriebslinie seines Relevant Sets auf je einer Stufe der Vertriebslinienbindung. Kauft er in einer Vertriebslinie ein,
416
Wildner
für die er nicht als Treuekäufer eingestuft ist, so wird er für diese Vertriebslinie eine Stufe hinaufgestuft, für die anderen Vertriebslinien, für die er auf „Gelegentlicher Käufer" oder höher steht, jedoch herabgestuft. Für jede Stufe und jede Vertriebslinie wird nun ein Nutzenwert geschätzt, bei 29 Vertriebslinien demnach 116 Nutzenwerte. Die Schätzung erfolgt so, dass die Einkaufsstättenwahl möglichst gut repräsentiert wird. Auch die Parameter aß werden auf diese Weise geschätzt. Dabei kommt wieder das bereits erwähnte Verfahren von Nelder-Mead zur numerischen Optimierung zum Einsatz. Der Nutzen des Sortiments hängt ab von der Distribution der Produkte, die im Relevant Set des Haushalts sind. Ein Produkt ist im Relevant Set, wenn es im Basiszeitraum mindestens einmal eingekauft wurde. Das Preisniveau ergibt sich aus den Preisen der distribuierten Produkte des Relevant Sets. Gleiches gilt für das Aktionsniveau. Weitere Teilmodelle von ähnlichem Komplexitätsniveau betreffen die Fragen wann, wie viel und was, d. h., welche Marke eingekauft wird. Beim Markenwahlmodell kann auch die TV-Werbung berücksichtigt werden. Voraussetzung dafür ist eine Datenfusion mit dem TV-Zuschauerpanel der AGF/GfK. Dabei wird für jeden Haushalt des Verbraucherpanels ein „statistischer Zwilling" im TV-Zuschauerpanel gesucht. Die Kontakte des statistischen Zwillings mit der Werbung werden auf den betreffenden Haushalt übertragen (vgl. [11]). Im Rahmen des Markenwahlmodells lassen sich auch „Below-the-lineAktivitäten" wie „Direct Mail" oder „Haushalts-Bemusterung" berücksichtigen. 20.4.4 Prognosen am Fallbeispiel Wie beim Marken-Simulator auch lassen sich nun Entwicklungen von Marken prognostizieren, wenn das künftige Marketing-Mix eingegeben wird. Für eine Untersuchung der Prognosegenauigkeit wurde ein Jahr als Basiszeitraum verwendet, um die Parameter zu schätzen. Für die folgende Zeit wurde der reale Marketing-Mix eingegeben und die so errechnete Entwicklung mit der realen Entwicklung verglichen. Abbildung 3a und 3b zeigen zwei typische Ergebnisse für zwei Marken verschiedener Warengruppen. Marke A 50
• real . Modell
I 1 I I I I I I I i"'i r"i r"r"T i | - T - T - [ - I
1 4
i-vr-i
[""i-i-r'-i-'r"!
['"i
I-T-T-I""!'
7 10 13 16 19 22 25 28 31 34 37 40 43 46 49 52 KW 2000
Abb. 3a: Marke aus dem Heißgetränkemarkt
Modellgestützte Marktanteilsprognose auf Basis von Paneldaten
417
Marke B
• real • Modell
50 00
I I I M
1 4
I I I I I I I I I ' I' I I M
I I M
I I I I
7 10 13 16 19 22 25 28 31 34 37 40 43 46 49 KW 2000
Abb. 3b: Marke aus dem Süßwarenbereich Es zeigt sich, dass in beiden Fällen die wesentliche Entwicklung richtig vorweggenommen wird, dass jedoch die Wirkung der Aktionen teilweise leicht unter-, teilweise leicht überzeichnet wird. Der Grund dafür ist, dass Aktionsinformationen im Verbraucherpanel nur eingeschränkt zur Verfügung stehen. Für die praktische Arbeit mit dem Instrument wurde ein PC-Programm erstellt, mit dem der Manager sehr einfach Prognosen für unterschiedliche Szenarios erstellen kann und so in der Lage ist, sein Marketing-Mix schrittweise zu optimieren. 20.5 Modellauswahl und Fazit Wie bereits gezeigt, haben sowohl die auf Scanner-Handelspaneldaten als auch die auf Scanner-Haushaltspaneldaten bestehenden Modelle ihre spezifischen Stärken und Schwächen. Diese lassen sich wie folgt zusammenfassen: Scanner-Handelspanel-Modelle können besonders gut Einflussgrößen berücksichtigen, die unmittelbar im Geschäft wirken. Sie sind daher dann angezeigt, wenn die Prognosewerte vor allem durch Faktoren wie Preise, Distribution oder Handelsanzeigen beeinflusst sind. Scanner-Verbraucherpanel-Modelle sind dagegen besonders geeignet, den Einfluss von Faktoren abzuschätzen, die direkt auf den einzelnen Haushalt wirken. Hier sind insbesondere TV-Werbung, Direct Mail und Haushaltsbemusterung zu nennen. Scanner-Verbraucherpanel-Modelle sind im Gegensatz zu den Scanner-Handelspanel-Modellen auch in der Lage, die Einkaufsstättenwahl abzubilden. Sie sind demnach dann die bessere Wahl, wenn solche Faktoren sich besonders auf die Prognose auswirken. Die beste Lösung ist wohl eine Kombination der Modelle: Die Basis wird von einem Scanner-Handelspanel-Modell gelegt. Diese Prognose liefert den Ausgangspunkt. Parallel wird ein Scanner-Verbraucherpanel-Modell geschätzt. Dort werden in einem ersten Schritt die in den Geschäften wirkenden Einflussgrößen für die Zukunft eingegeben. Die direkt auf den Haushalt wirkenden Einflussgrößen werden auf dem Niveau
418
Wildner
gehalten wie im Basiszeitraum. Damit erhält man eine erste Verbraucherpanel-Prognose. Zusätzlich werden nun die künftigen Werte der direkt auf die Haushalte wirkenden Einflussgrößen eingegeben. Das ergibt eine zweite Verbraucherpanel-Prognose. Der Vergleich mit der ersten Verbraucherpanel-Prognose ergibt einen Korrekturfaktor, der auf die Scanner-Handelspanel-Prognose anzuwenden ist. Doch dies wird wohl erst dann in Angriff genommen, wenn Modelle insgesamt eine noch höhere Akzeptanz haben. Die Akzeptanz hat in den vergangenen Jahren schon deutlich zugenommen und wird weiter steigen: Die Bewertung von Handlungsalternativen für die zukünftige Entwicklung wird immer wichtiger. Modelle bewältigen diese Aufgabe und berücksichtigen dabei eine große Fülle von Daten in qualifizierter Weise. Wichtig bleibt, dass stets auch die Grenzen der Modelle deutlich kommuniziert werden. Letztlich bleiben die aus ihnen abgeleiteten Prognosen nur solange richtig, wie das zugrunde liegende Wirkungsgefüge stabil bleibt.
20.6 Literatur [I] [2] [3] [4] [5] [6]
[7] [8] [9] [10] [II]
Amstutz, A., Computer Simulation of Competitive Market Response, Cambridge 1967. Backhaus, K., Erichson, B., Flinke, W. und Weiber, R., Multivariate Analysemethoden, Berlin 2003. Günther, M., Vossebein, U. und Wildner, R., Marktforschung mit Panels, Wiesbaden 1998. Hoffmann, U. und Hofmann, H., Einführung in die Optimierung mit Anwendungsbeispielen aus dem Chemie-Ingenieur-Wesen, Weinheim/Bergstraße 1971. Hupp, O. und Xu, Z., Brand Performance Measurement mit dem Brand Assessment System (BASS), Jahrbuch der Absatz- und Verbrauchsforschung 3 (2003), S. 220 ff. Kienger, F. und Krautter, J., Simulation des Käuferverhaltens, Teil 1: Werbewirkung und Käuferverhalten, Teil 2: Analyse des Kaufprozesses, Teil 3: Computermodell des Käuferverhaltens, in: Fack. L. (Hrsg.), Schriften zur theoretischen und angewandten Betriebswirtschaftslehre, Band 11, Wiesbaden 1973. Lavington, M.R., Ein Mikrosimulationsmodell der Nachfragereaktion beim Konsumgütermarketing, in: Kroeber-Riel, W. (Hrsg.), Marketingtheorie, Köln 1972, S. 332 ff. Little, J.D.C. und Brandaid: A Marketing Mix Model, Fart 1: Structure, Fart 2: Implementation, Calibration and Case Study, Operations Research 23 (1974), S. 628 ff. Vossebein, U. und Wildner, R., Komplexe Fragestellungen erfordern komplexe Lösungsansätze: Ein Marketing-Mix-Modell im Fraxistest, planung & analyse 4 (1992), S. 56 ff. Wildner, R., Nutzung integrierter Faneldaten für Simulation und Frognose, Jahrbuch der Absatz- und Verbrauchsforschung 2 (1991), S. 114 ff. Wildner, R., Messung von Werbewirkung mit fusionierten Faneldaten, Jahrbuch der Absatz- und Verbrauchsforschung 3 (2000), S. 242 ff.
21 Die Verbindung von Absatzplanung und Prognoserechnung - ein Beispiel aus der Praxis von Meinhard Helm 21.1 Die Absatzplanung in der vernetzten Welt Die Logistik ist ein wesentlicher Ansatzpunkt zur Steigerung der Rentabilität. Optimierte Bestände senken Kosten und die Kundenzufriedenheit steigt durch Liefertreue. Dabei lebt das Konzept der Planungsketten auf breiter Basis unter der Bezeichnung „Supply Chain Management" (SCM) wieder auf. Während die betriebswirtschaftlichen Funktionen weit gehend den herkömmlichen entsprechen, bietet die moderne Informationstechnologie durch dezentrale Rechnerlandschaften und insbesondere durch die weltweite Vernetzung über das Internet bisher ungeahnte Möglichkeiten und fördert so die Akzeptanz des SCM. Es wird durch eine einheitliche Datenbasis und Bausteine für die verschiedenen betriebswirtschaftlichen Funktionen umgesetzt, entsprechende Werkzeuge werden von zahlreichen Herstellern als Standardsoftware angeboten [1], [2]. Dabei ist der erste Baustein der Kette stets die Absatzplanung („Demand Planning"). Während z. B. die Module für Fertigungstechnik stark vom zu fertigenden Produkt geprägt und weitgehend unternehmensspezifisch sind, ist der Baustein für die Absatzplanung branchenunabhängig und somit als Standard einsetzbar. Allerdings sind auch die bei der Einführung begangenen Fehler gewissermaßen Standard. Im Folgenden soll aufbauend auf den Erfahrungen des Verfassers in einem großen Konzern die Absatzplanung mit ihren Problempunkten kurz skizziert werden. Dabei wird insbesondere gezeigt, an welchen Stellen der Planungskette Prognosemethoden eingesetzt werden müssen, um sinnvolle Ergebnisse zu erhalten. 21.2 Die Planungsstrukturen Kernpunkt der Absatzplanung sind die Planungspyramiden, die sämtliche Daten und Strukturen enthalten. Folgende drei Planungspyramiden bilden die Planungsfälle vollständig ab: 1. 2. 3.
Produktstruktur Systemstruktur Vertriebsstruktur
21.2.1 Die Produktstruktur Im Produktgeschäft wählt der Kunde aus einer festen Anzahl von Varianten das ihm zusagende Produkt aus. Als Prinzipbeispiel für die Produktstruktur soll die Planung von Telefonen geschildert werden. (Andere Beispiele wären Computerchips oder Elektromotoren.) Die unterste Ebene bilden die verkaufsfähigen Varianten, die in verschiedenen Farben (Rot, Grün, Grau usw.) und in den verschiedensten technischen Ausführungen angeboten werden. Varianten, die ähnliche Fertigungsabläufe aufweisen, wer-
420
Helm
den zu Typen zusammengefasst. Die Typen wiederum aggregiert man nach ähnlichem Marketingverhalten zu Fabrikategruppen und diese schließlich nach kaufmännischen Gesichtspunkten zu Produktgruppen. Den Abschluss bildet die Planung für den Geschäftsbereich „Telefone" innerhalb des Unternehmens. Die unterste Ebene beschreibt den zeitlich variablen Produktmix. Darunter liegt die Baugruppenebene, die durch die Stücklistenauflösung definiert wird und durch die Technik festgeschrieben ist.
Unternehmen
Produktgruppen
Fabrikategruppen
Varianten
Abb. 1: Die Planungspyramide für eine Produktstruktur Typisch für diese Struktur ist es, dass jede Position nur einmal auftritt. Die Zahlen für die oberen Ebenen (Stückzahlen und Werte) werden additiv aus den unteren Ebenen erzeugt. Ebenso können die Planungen aus den oberen Ebenen über Faktoren auf die unteren Ebenen heruntergebrochen werden. 21.2.2 Die Systemstruktur Bei manchen hochwertigen Produkten kauft der Kunde ein Grundgerät, das dann fast beliebig mit Zubehör („Add 0ns") ergänzt werden kann. Hier ist es unmöglich, von einer festen Anzahl von Varianten auszugehen, da bereits die Kombination von wenigen Add 0ns ein gigantisches Produktspektrum erzeugt. Diesem Umstand wird durch die Systemstruktur Rechnung getragen. Sie ist für die Planung von konfigurierbaren Produkten, d. h. für das Anlagen- bzw. das Systemgeschäft, entscheidend wichtig. Ein stark vereinfachtes Beispiel aus der Planung von PC-Systemen soll die Zusammenhänge erläutern (Abbildung 2). Der Kunde bestellt z. B. ein „Tower-System", das durch diverse Add 0ns ergänzt wird. Neben dem immer vorhandenen Grundgerät (Tower) kann der Kunde zwischen verschiedenen Bildschirmen wählen. Er mag sich für einen CD-Brenner, einen DVDPlayer sowie diverse Drucker entscheiden. Er konfiguriert also das für ihn passende System. Demzufolge plant man den Absatz von Systemen, die durch ihren durch-
Die Verbindung von Absatzplanung und Prognoserechnung
421
schnittlichen Ausbau genauer spezifiziert werden. Im Beispiel umfasst ein „TowerSystem" stets den Tower. Dieser ist zu 100 % in sämtlichen Systemen vorhanden. Jedes System enthält einen Bildschirm, von dem es mehrere Typen geben kann. Die Prozentsätze der Bildschirme addieren sich zu 100% auf. Das System kann DVDPlayer enthalten (5 %) oder auch nicht. Diese sind mögliche, aber nicht notwendige Bestandteile des Systems.
Prociuktgruppe
Systeme
Module
Abb. 2: Die Planungspyramide für eine Systemstruktur Anders als in der Produktstruktur dürfen in der Systemstruktur Module mehrfach vorkommen. Die Prozentsätze der Module addieren sich nicht zwingend zu 100 %. Beispiele für diese Struktur sind alle Produkte, die beim Verkauf speziell für den Kunden konfiguriert werden: PC-Systeme, Telefonvermittlungsanlagen, Fertigungsstraßen usw. Dass die Grenzen hier fließend sein können, erkennt man bei Automobilen. Hochwertige Wagen sind durch zahlreiche Extras konfigurierbar und somit Systeme, einfache Fabrikate werden als Varianten angeboten und gehören in das Produktgeschäft. Die Wahl der richtigen Struktur ist für den Erfolg der Planung entscheidend. Sie muss dem Geschäft entsprechen, da nur dann der Vertrieb in diesen Strukturen denken kann. Leider ist den meisten Entwicklern von Standardsoftware die Systemstruktur fremd. Dadurch werden die Anwender automatisch in die Produktstruktur gedrängt. Diese hat allerdings keinen Bezug mehr zum tatsächlichen Geschäft und führt demzufolge zu schlechten Planungen. 21.2.3 Die Vertriebsstruktur Die bisher besprochenen Strukturen sind produktbezogen. Daneben muss in allen Planungstools eine Struktur für die Vertriebsplanung enthalten sein. Diese ist geografisch bzw. organisatorisch aufgebaut.
422
Helm
Unternehmen
Vertriebsabteilungen
Regionen
Norwegen Schweden
7 ^
C^ne Fe
Antenie Alfense Isela Anten
7
DirkAtnn
Synshein
IsLind
Länder
Nonni
Kunden
Abb. 3: Die Planungspyramide für eine Vertriebsstruktur Ein Beispiel: Die unterste Ebene stellt die Kunden dar. In der Aggregation folgen die Länder, die Vertriebsregionen, die Vertriebsabteilungen und schließlich das Gesamtunternehmen. Jedes Produkt hat seine eigene Vertriebsstruktur. Die Gesamtzahl einer Produktebene ist in der Vertriebsstruktur auflösbar in Zahl pro Land, pro Kunde usw. 21.3 Der Planungsablauf Die Planung verläuft meist monatlich rollierend in den folgenden Schritten: 1.
Vertriebsplanung Es liegt nahe, dass der periphere Vertrieb, der die Verhältnisse beim Kunden am besten übersieht, die zu erwartenden Geschäfte für die einzelnen Produkte plant. Kennt er die Pläne der Kunden, so kann er daraus den Bedarf für die eigenen Produkte am besten ableiten. Dies wird durch die Vernetzung über das Internet unterstützt. So wichtig die Vertriebsplanung ist, so falsch ist der Gedanke, Planungsverantwortlichkeit ausschließlich in die Vertriebsebene zu legen. In der Praxis kommt es häufig vor, dass die Vertriebe nur einen Teil der ihnen obliegenden Produkte planen. Oft werden überhöhte Werte abgegeben, da man den Niedergang des Geschäfts nicht eingestehen will usw. Fazit: Die Vertriebsplanung ist ein wichtiger Baustein für die Vorhersage, aber mit Vorsicht zu übernehmen.
2.
Marketingplanung Die Vertriebsplanung wird von der Marketingplanung entgegen genommen. Diese ist naturgemäß eine zentrale Stelle im Unternehmen. Sie hat insbesondere strategische Gesichtspunkte in die Planung zu integrieren. Ebenso hat sie den Anlauf von neuen Produkten bzw. den Auslauf von alten zu planen. Nicht zuletzt muss sie
Die Verbindung von Absatzplanung und Prognoserechnung
423
die Vertriebsplanung ergänzen bzw. mit eigenen Erkenntnissen, z. B. aus der Marktanalyse, vergleichen. 3.
Werksplanung Die Marketingplanung wird gegen die verfügbare Fertigungskapazität abgeprüft. Dies kann zu Terminverschiebungen führen, die dem Vertrieb mitzuteilen sind.
4.
Budgetplanung Einmal im Jahr wird die Budgetplanung durchgeführt. Die geplanten Stückzahlen werden mit Kosten und Preisen bewertet. Das Budget ist eine der Säulen der Wirtschaftsplanung des Unternehmens. Hierbei wird regelmäßig ein typischer Fehler begangen: Zwar wird die operative Planung meist noch von den betriebswirtschaftlichen Stäben der Unternehmensleitung zur Kenntnis genommen, eine Rückmeldung von Änderungen an die unteren Planungsebenen erfolgt jedoch häufig nicht. Somit differieren die strategische und die operative Planung. Dies begünstigt „politische Planungen", die ein falsches Bild des zu erwartenden Geschäfts vorspiegeln. Sie sind regelmäßig stark überhöht.
Die Durchgängigkeit der Planung über sämtliche Ebenen in einem gemeinsamen Planungstool ist eine an sich selbstverständliche Forderung. Sie wird durch klare und offene Kommunikation auf allen Ebenen erreicht. 21.4 Die Wahl der Planungsebene Für den Erfolg der Planung ist die richtige Wahl der Planungsebene für Produkt und Vertrieb entscheidend. Sie muss noch so marktnah sein, dass die Zahlen vom Geschäft her interpretierbar sind. Andererseits muss eine ausreichende Verdichtung erfolgen, damit die Planung noch durchführbar ist. Als Beispiel soll die Produktstruktur in einem Geschäftsbereich eines global tätigen Herstellers von elektronischen Komponenten untersucht werden. Die Ebenen der Produktstruktur sind wie folgt aufgebaut: Art Produktgruppen Fabrikategruppen Typen Varianten
Anzahl 30 860 1600 5200
Die Vertriebsstruktur: Art Vertriebsabteilungen Länder Kunden
Anzahl 20 50 1200
Die maximal mögliche Anzahl der Planpositionen in der untersten Ebene beträgt 5200 X 1200 = 6.240.000. Die tatsächliche Anzahl der zu planenden Positionen (pro Kunde und Varianten verkaufter Produkte) beträgt 18.570''.
Dieser Wert entspricht den tatsächlich gelieferten Positionen in der Vergangenheit.
424
Helm
Der Geschäftsbereich wählt die unterste Ebene für die Planung, d. h. er plant für jeden Kunden die dort abzusetzenden Produktvarianten. Diese Ebene wird von den Vertriebsmitarbeitern vor Ort beplant. Bei der Analyse der Vertriebsplanung stellt sich heraus, dass 18.570 Produktvarianten zu planen sind, der Vertrieb tatsächlich aber nur für 6.630 Produktvarianten Planungen abgibt. Somit müssen die 4 Marketingplaner des Geschäftsbereichs monatlich 11.940 (18.570 - 6.630) Varianten beplanen. Die hauptsächliche Information hierfür sind die historischen Ist-Daten für den Auftragseingang. Da der Geschäftsbereich keine Prognoserechnungsverfahren einsetzt, haben die Marketingplaner die fehlenden Positionen von Hand zu planen. Auf jeden der 4 Mitarbeiter entfallen monatlich etwa 3000 Planpositionen. Da dies personell nicht durchführbar ist, bleibt ein wesentlicher Teil der Planpositionen monatelang mit alten Planwerten stehen, oder es werden sogar bereits ausgelaufene Produkte noch über längere Zeiträume „beplant". Wie ist dieser häufig zu beobachtende Planungsfehler „Falsche Wahl der Planungsebene" zu beheben? Als Planungsebenen bieten sich im Beispiel die Länder und Produkttypen an. In dieser Kombination sind nur 3440 Positionen zu beplanen. Als Einstieg sollte für die Vertriebsund die Marketingplaner die Planung durch Prognoserechnungen vorbereitet werden. Für die neuen Positionen bzw. für die Positionen, bei denen die Rechnung nicht befriedigend ist, werden die Marketingplaner die Werte entsprechend ändern. Die Vertriebsprognosen in der untersten Ebene bleiben als wichtige Information sichtbar. In der Ebene der Produkttypen werden die erwarteten Markttrends in die Planung integriert. Die Planung wird dann über Faktoren in die unterste Ebene heruntergerechnet. Diese Auflösungsfaktoren bilden den zeitlich variablen Produktmix unter der Typenebene ab, der in der Regel zeitlich etwas stabiler als die Stückzahlprognose der übergeordneten Ebene ist. Die Ermittlung dieser Faktoren stellt einen wichtigen Planungsschritt dar. Damit die Planung durchführbar bleibt, müssen die Faktoren aus dem laufenden Ist automatisch durch rechnerische Prognosen ermittelt werden. So wird die Planung monatlich durch das gelaufene Ist dynamisiert. Es darf nicht übersehen werden, dass die Qualität der Planung in der untersten Ebene entschieden wird. Diese steuert ja das operative Geschäft. 21.5 Methodeneinsatz in der Planung Welche Rolle spielen Prognoserechnungen im Planungsablauf? Aus den bisherigen Ausführungen geht hervor, dass die Planung ohne Unterstützung durch maschinelle Vorhersagen nicht effizient durchgeführt werden kann. Zwei Gründe bedingen den Einsatz von Prognosemethoden: 1. 2.
Die Rationalisierung der Planung insbesondere in den unteren Ebenen. Die Dynamisierung der Planung durch die Einbeziehung der Ist-Zahlen.
In den allermeisten Fällen sind die Vergangenheitszahlen (insbesondere der gelaufene Auftragseingang und der künftige Auftragsbestand) die wichtigste und die verlässlichste Informationsquelle für die Planung. Insbesondere im Produktgeschäft sind kon-
Die Verbindung von Absatzplanung und Prognoserechnung
425
krete Hinweise der Vertriebe auf künftige Aufträge recht selten, sodass der Planer auf Extrapolationen der Ist-Zahlen angewiesen ist. Wegen der Bedeutung der Ist-Zahlen für die Qualität der Planung sei darauf hingewiesen, dass deren Bereitstellung in der richtigen Planungsstruktur eine äußerst anspruchsvolle Aufgabe ist, bei der keine Fehler toleriert werden können. Es darf nur eine Ist-Datenversorgung im Unternehmen geben, da abweichende Ist-Daten endlose Diskussionen nach sich ziehen und schließlich das gesamte Planungsgeschehen infrage stellen. Leider wird der Einsatz von etwas anspruchsvolleren Prognoserechnung von den Planern häufig abgelehnt, und man bevorzugt einen „Eigenbau", z. B. in Microsoft EXCEL. Beliebt ist die Methode, die drei letzten Ist-Werte horizontal in die Zukunft (24 Monate) fortzuschreiben. Oft wird auch der Ist-Wert des letzten Geschäftsjahres durch 12 geteilt und ebenfalls in die Zukunft extrapoliert. All dies erfolgt personell, was - wie oben gezeigt - aus Kapazitätsgründen tatsächlich undurchführbar ist. In den unteren Ebenen der Planungspyramide muss allein wegen der Zahl der Positionen automatisch und maschinell extrapoliert werden. Ebenso kann das Herunterbrechen der Planung in die unterste Ebene nur automatisch eri'olgen. Für eine effiziente Planung ist es ratsam, sämtliche Ebenen mit Prognosen aus geeigneten Veri'ahren vorzubelegen. Die zusätzlich vorhandenen konkreten Marktinformationen können dann „von Hand" in die Planung eingearbeitet werden. So wird das tatsächlich gelaufene Geschäft in die Planung integriert. In allen Ebenen werden so politische Planungen oder Wunschdenken verhindert. Die Ursache für die Ablehnung von Prognosemethoden liegt nicht in den Standardtools. Diese stellen ausreichend Prognosemodelle zur Verfügung. Dabei sind insbesondere in den unteren Ebenen die automatisierbaren Veri'ahren der exponentiellen Glättung geeignet (siehe auch Kapitel 2 dieses Buches). Falls in den höheren Ebenen aufwändigere Veri'ahren benötigt werden, können diese von spezialisierten Anbietern zugekauft werden. Was ist nun die Ursache für dieses Verhalten der Planer? Rationale Begründungen werden nicht gegeben. Meist handelt es sich um ein Informationsdefizit, das durch gründliche Schulung und praktisches Training ausgeräumt werden könnte. Dem Planer muss klar werden, dass die Verfahrensunterstützung eine wesentliche Hilfe und keine Gefährdung für seine Arbeit bedeutet. Er kann die Routinefälle (80 %) der Methode überlassen und bekommt so Zeit für die wirklich kritischen Fälle. Ein wichtiges Instrument zur Klärung der Methodenfrage sind Soll-Ist-Vergleiche. So schwierig die Prognose ist, so einfach ist die nachträgliche Erfolgskontrolle. Tatsächlich werden sehr selten regelmäßige und systematische Soll-Ist-Vergleiche durchgeführt. Man kann z. B. einen rein rechnerischen Planungsablauf simulieren. Dieser wird den durch die Planer personell erstellten Ergebnissen gegenübergestellt. Durch den Vergleich mit dem Ist-Zustand könnte die Diskussion versachlicht und der Beweis erbracht werden, dass sinnvoll eingesetzte Prognoseverfahren die Qualität und die Effizienz der Planung wesentlich verbessern würden.
426
Helm
21.6 Ein Prognosebeispiel Abschließend soll eine halbautomatisch funktionierende Methode in einem Planungsbeispiel vorgeführt werden, die z. B. auf der Typen- oder der Systemebene eingesetzt werden kann. Diese Methode von hintereinander geschalteten Filtern kann auch als vollautomatisches Modul von dem Anbieter 12 bezogen werden [4]. Die Theorie wird im Kapitel 2 dieses Buches bzw. unter [2] und [5] dargelegt. Das Beispiel soll die Leistungsfähigkeit und -grenzen der Verfahren verdeutlichen. 21.6.1 Die Zeitreihe Der Umsatz einer Produktgruppe mit einer Vergangenheit von 10 Jahren wird analysiert. Die ersten acht Jahre der Zeitreihe werden für die Erstellung der Prognose verwendet, die beiden letzten Jahre werden für die Verifizierung herangezogen. In diesem Bereich wird das Ist den prognostizierten Werten gegenübergestellt. Umsatz (in Mio. DM)
6
5
-
A---y\
.rr
V
A / V V \ / \ /
81 |
82
|
\
83
1|
|
84
|
85
|
86
|
87
|
88
|
89
|
90
| 91
Jahre
Abb. 4: Die Zeitreihe Der erste Analyseschritt ist die grafische Darstellung der Reihe (vgl. Abbildung 4). Man erkennt einen aufsteigenden Trend und eine möglicherweise vorhandene Saison. Diese Vermutung wird durch das Korrelogramm der Reihe bestätigt (vgl. Abbildung 5). Die Instabilität der Reihe (variabler Trend) macht sich in dem linearen Abfall des Korrelogramms bemerkbar, der alle anderen Effekte überdeckt. Sämtliche Korrelogramme sind mit ihren nach Bartlett [1] berechneten Toleranzbändern ausgegeben; damit wird die Signifikanz der Korrelationen überprüft.
Die Verbindung von Absatzplanung und Prognoserechnung
427
21.6.2 Der Instabilitätsfilter Der Trend in der Reihe wird durch den Instabilitätsfilter eliminiert. Man betrachtet für die weitere Analyse also die Zuwächse der Monatswerte.
Für die gefilterte Reihe wird erneut ein Korrelogramm erstellt (Abbildung 6). Man erkennt bei den Verzögerungen (Lags) 1,2,6,18 sowie bei 10 signifikante Korrelationen, die stärkste jedoch bei 12. Das Korrelogramm weist somit Saisoneffekte auf (6,12,18). Die Korrelation bei 10 ist nicht interpretierbar. Bei 1 und 2 zeichnet sich eine so genannte Nahordnung (Autokorrelation) ab. Korrelation
Korrelation
Abb. 5: Korrelogramm ohne Filter
Abb. 6: Korrelogramm nach Instabilitätsfilter
21.6.3 Der Saisonfilter Um den nun dominierenden Saisoneffekt, der alle weiteren Effekte überdeckt, zu eliminieren, wird als nächster Filter die Transformation (4) gewählt: •r^t-n
(4)
Wiederum wird die Veränderung der Reihenwerte gegen die Monate des Vorjahres untersucht. Die Konstante / optimiert man empirisch. Dies wird durch die Auswertung der Standardabweichung der Residuen erreicht. Es stellt sich heraus, dass der Wert / = 0,6 die signifikanten Korrelationen der Saison zum Verschwinden bringt (vgl. Abbildung 7). Es bleiben nur eine starke Korrelation bei Lag 1 übrig sowie schwach signifikante Korrelationen bei Lag 4 und 8, die auf restliche Autokorrelationen hinweisen. 21.6.4 Der autoregressive Filter Die Nahordnung der Reihe wird durch Autoregressionen beschrieben. Ein Modell der Ordnung 4 erweist sich als geeignet, da das Korrelogramm der Residuen keine signifikante Korrelationen aufweist (vgl. Abbildung 8). Klarheit bringt der Residuentest nach Box and Pierce [3], der eindeutig positiv ausfällt (siehe Abbildung 8).
428
Helm Korrelation
Korrelation
1
1
0,5
0
0,5
"°"°:ÜW°°°°°"°D°'
-0,5
0
°-°°-Q°nn°D°g-
-fT
0,5
-1
-1
12
18
24
12
LAG
18
24
LAG
Abb. 7: Korrelogramm nach Saisonfilter
Abb. 8: Korrelogramm nach AR Filter
Der autoregressive Filter wird durch die folgende Gleichung beschrieben: (5) Die Koeffizienten mit ihren Toleranzintervallen zeigt die folgende Übersicht. Koeffizient
Toleranzintervall
<;i = -o,57
[-0,80; -0,35]
^2 = -0,39
[-0,65;-0,13]
^^ = -0,08
[-0,35;+0,18]
<^4=-0,20
[-0,43; +0,03]
21.6.5 Das Prognosemodell Das Gesamtmodell wird aus den einzelnen Bausteinen aufgebaut: Die Berechnung der Prognoseformel wird allerdings transparenter, wenn man die Filter als lineare Transformationen beschreibt: 1)
Die Originalwerte der Zeitreihe:
2)
Der Instabilitätsfilter erzeugt die Reihe yt -^t
3)
~^
X^,
t=l,2,3,...,N
(6)
t-i
Der Saisonfilter erzeugt die Reihe
z^, t=^13, 14, , N
^t=yt-ryt-n
(7)
Für die zweimal gefilterte z-Reihe wird der Autoregressionsfilter ermittelt: ^t = A^t-\ + A^t-2 + ^3^t-3 + A^t-4
(8)
Die Aufgabe besteht nun darin, die in der z- Ebene gefundene Prognoseformel in die xEbene umzurechnen. Durch Einsetzen von (6) in (7) erhält man:
Die Verbindung von Absatzplanung und Prognoserechnung "^t ~ ^ r^t-\
yy^t- -12
429 (9)
^t-u)
Durch Einsetzen von (9) in (8) erhält 1Tian '^t~'^t-\
-yW
^(Vr ~ ^t-i
-12
~•r^i-
^t-n)~
13+rVl4) +
^ 2 ^ - 2 ~ •^/-3 "-r^t- -14+r^M5)
+
^3(^^-3 ~ ^t-A "-Y^t- -15+rVl6)
+
^A^t-A
+
~ ^t-5 ~-r^t- -16+r^M7)
(10)
Durch Ausmultiplizieren von (10) und Ordnen nach x^ erhält man (11): X,={\
+ (l\ )X^_1 + (^2 - ^ )^t-2 + (^3 - ^2 )^^-3 + (^4 - ^3 )^^-4 + ^4^^-5 + Y^t-U '
,. . .
K l + ^ )^/-13 - K^2 - ^ )^^-14 - r(^3 - ^2 )^^-15 - K^4 " ^3 )^^-16 + M^r-17
Wenn man in (11) die angegebenen Faktoren ^^und ;^ = 0,6 einsetzt, so erhält man die Prognoseformel im x- Raum: 3c; =0,43x,_i +0,18x,_2 +0,30x,_3 -0,\2x^_^ +0,60x,_i2 -0,26x,_i3 -0,llx,_i4 -0,19x,_i5 +0,07x^_i6 -0,12x,_i7
,^2)
In der Formel sind der Trend-Koeffizient mit Lag = 1 und die Saison mit Lag = 12 dominierend. Jedoch haben die Nahordnungskoeffizienten durchaus ihr Gewicht. Die Prognose ist in die letzten zwei Jahre der Zeitreihen hineingezeichnet, die nicht für die Prognose herangezogen wurden (Abbildung 9). Man sieht, dass das erste Prognosejahr recht gut nachgezeichnet ist (mittlere Abweichung zwischen Prognose und Ist: +2,4 %, größter Prognosefehler: 15 %). Im zweiten Jahr ändert sich die Saisonfigur etwas. Dieses Jahr wird nicht mehr so gut getroffen. Das Toleranzband spreizt sich bedingt durch die Instabilität rasch auf. Die Einzelfehler sind durch das „Weiße Rauschen" der Residuen bedingt. Sie können nicht weiter verkleinert werden. Die so gefundene Prognose muss vom Planer in die Planung überführt werden. Dazu hat er insbesondere zu entscheiden, wie lange der gefundene Trend anhalten wird und wann dieser durch einen konstanten Verlauf (Sättigung) abgelöst wird. 21.7 Fazit Nach den zahlreichen Kritikpunkten könnte der Eindruck entstehen, dass sich der sehr kostenintensive Einsatz von Planungstools nicht lohnen würde. Das Gegenteil ist der Fall. Wenn die aufgezeigten Fehlerquellen vermieden würden, amortisierten sich die Verfahrenskosten durch die erheblich gestiegene Planungsqualität rasch.
430
Helm Umsatz (in Mio. DM)
6,5
5,5
4,5
3,5
2,5
1 2 3 4 5 6 7 8 9 101112 1 2 3 4 5 6 7 8 9 1011 12 1 2 3 4 5 6 7 8 9 101112 1 2 3 4 5 6 7 8 9 1011 12 1 2 3 4
87
|
88
|
89
|
90
|
91
Monate
Abb. 9: Die Zeitreihe mit Prognose 21.8 Literatur [1] [2] [3]
[4] [5] [6]
Bartlett, M.S., On the Theoretical Specification of Sampling Properties of Autocorrelated Time Series, Journal of the Royal Statistical Society (1946) B 8, S. 27 ff. Box, G.E.P. und Jenkins, G.M., Time Series Analysis, Forecasting and Control, San Francisco 1979. Box, G.E.P. und Pierce, D.A., Distribution of Residual Autocorrelations in Autoregressive-lntegrated Moving Average Time Series Models, Journal of the American Statistical Association 65 (1970), S. 1509 ff. Chopra, S. und Meindl, P., Supply Chain Management, New Jersey 2003 Schlittgen, R., Angewandte Zeitreihenanalyse, München 2001. Stadler, H. und Kilger, C, Supply Chain Management and Advanced Planning: Concepts, Models, Software and Case Studies, Berlin 2002.
22 Kundenwertprognose von Sönke Albers und Goetz Greve 22.1 Einleitung In den letzten Jahren wurde immer mehr die Notwendigkeit erkannt, Kundenbeziehungen optimal zu gestalten (Blattberg und Deighton [4], ZeithamI u.a. [20]). Voraussetzung dafür ist die Ableitung eines Werts für die zukünftige Kundenbeziehung. Bisher hat man sich mehr mit der Bestimmung des Kundenwerts auf der Basis seiner zurückliegenden Transaktionen und Bindungswahrscheinlichkeit beschäftigt. Zur Steuerung braucht ein Unternehmen allerdings eine Prognose der zukünftigen Entwicklung. Dabei reicht es jedoch nicht, einfach den bisherigen Umsatz mit einem Faktor hochzurechnen, sondern es sind die Umsatzentwicklung und die Kosten für das Halten von Kunden vorherzusagen. Statt auf den für den Praktiker wenig hilfreichen Sachverhalt zu verweisen, dass sich der zukünftige Kundenwert aus der Summe der abgezinsten Einnahmenüberschüsse ergibt, weil die Schwierigkeit eben in der Bestimmung dieser Einnahmenüberschüsse liegt, wird hier eine Formel für den zukünftigen Kundenwert vorgestellt, die die verschiedenen Komponenten umfasst, die den Kundenwert über die Zeit beeinflussen. Dies sind die zukünftigen Umsätze aus Penetration, Up-Selling und Cross-Selling, Referenzwert sowie der mittlere Deckungsbeitragssatz und die Transaktionshäufigkeit. Damit wird ein praktikabler Ansatz aufgezeigt, der es Unternehmen ermöglicht, Kundenwerte auf der Basis von im Unternehmen vorhandenen Daten oder relativ einfach zu beschaffenden Informationen zu berechnen. Zunächst wird in Kapitel 2 der Begriff Kundenwert konkretisiert und für die folgenden Ausführungen eingegrenzt. Im Anschluss daran wird in Kapitel 3 auf der Basis des Kunden-Kapitalwerts eine modifizierte Formel für den Kundenwert vorgestellt, die eine Dekomposition des Prognoseproblems in einzelne Teile zulässt. Darauf folgt eine Darstellung, wie die einzelnen Komponenten bestmöglich prognostiziert werden können. Kapitel 4 fasst die Ausführungen zusammen. 22.2 Der Begriff Kundenv\^ert Die betriebswirtschaftliche Literatur enthält hinsichtlich des Begriffs Kundenwert eine Vielzahl von Auslegungen, so dass keine abschließende Klarheit existiert. Im Folgenden wird der Kundenwert aus Unternehmenssicht Mittelpunkt der Betrachtung sein. Die Unternehmenssicht bewertet die Geschäftsbeziehung sowohl anhand quantitativer als auch qualitativer Maßgrößen (Krafft und Rutsatz [13]). In der Literatur werden die Ansätze zur Kundenbewertung weiter in ein- und mehrdimensionale Ansätze differenziert. Mehrdimensionale Ansätze beziehen die gesamte Kundenbasis in die Bewertung ein (ZeithamI u.a. [20]), bei eindimensionalen Ansätzen bilden individuelle Kundenbeziehungen das Bewertungsobjekt (Helm und Günter [9]), welches für die weiteren Ausführungen von Bedeutung ist. Innerhalb dieser Ansätze kann in gegenwartsbezogene, retrospektive und prospektive Verfahren unterschieden werden. In der Praxis werden überwiegend gegenwartsbezogene Verfahren zur Kundenbewertung eingesetzt. Diese Methoden berücksichtigen nur Ergebnisse aus der gegenwärtigen Periode. Retrospektive Verfahren beziehen auch vergangenheitsbezogene Daten in die Kundenwertberechnung ein. Dies ermöglicht, einen kumulierten Erfolgsbeitrag zu ermitteln. Prospek-
432
Albers, Greve
tive Verfahren nutzen Daten der Vergangenheit und Gegenwart zur Prognose zukünftiger Kundenentwicklungen. Die prospektiven Verfahren sind bisher am wenigsten entwickelt, aus Sicht der Marketing-Planung jedoch von besonderem Interesse (Krafft und Bromberger [12]), da sie zukünftige Entwicklungen in die Berechnung einbeziehen (Bruhn u.a. [5]). Dementsprechend liegt der Fokus unserer Betrachtung auf den eindimensionalen quantitativen, prospektiven Verfahren zur Berechnung eines Kundenwerts. 22.3 Ein Modell zur Prognose des Kundenwerts Die Bestimmung des Kundenwerts stellt ein komplexes Problem dar. Neben der Mehrdimensionalität des Begriffs Kundenwert existiert eine Vielzahl unterschiedlicher Operationalisierungsmöglichkeiten für nahezu jedes Element des Kundenwerts. Unabhängig von den unterschiedlichen Dimensionen kann der Kundenwert allgemein als Summe der Zielbeiträge eines Kunden für das Unternehmen definiert werden. Der Kundenwert errechnet sich dabei aus der Summe der diskontierten, kundenbezogenen Ein- und Auszahlungen, die während der gesamten Dauer der Geschäftsbeziehung durch die mit dem Kunden getätigten Transaktionen verursacht werden (Dwyer [7], Berger und Nasr [2], Krafft [11]). Im Mittelpunkt aller Prognosebemühungen steht die Bestimmung des dem Kunden direkt zurechenbaren Netto-Zahlungsstroms (Ein- und Auszahlungen) über die Dauer der Geschäftsbeziehung (Bruhn u.a. [5], Jain und Singh[10]). 22.3.1 Das Grundmodell und seine Erweiterung Das Grundmodell zur Berechnung des Kundenwerts lautet:
^=1 (1 + /) Et At / T /
= Erlöse des Kunden in der /-ten Periode = Kosten zur Generierung der Erlöse in der t-ten Periode = Transaktionsperiode = Gesamtdauer der Geschäftsbeziehung = Kalkulationszinsfuß
Der Kundenwert eines Kunden setzt sich damit zusammen aus den direkt zurechenbaren enA/arteten, zukünftigen Ein- und Auszahlungen über die Lebenszeit der Geschäftsbeziehung (Berger und Nasr [2]). Mittels Abzinsung der Zahlungsströme wird der gegenwärtige Wert eines Kunden ermittelt. Die Berechnung des Kundenwerts anhand des Grundmodells erscheint einfach und leicht umsetzbar, stellt jedoch nur eine sehr beschränkte Realitätsnähe her, da über die Dauer der Geschäftsbeziehung lediglich ein Zahlungsstrom angenommen wird (Jain und Singh [10]). Effekte, die einen Einfluss auf die Höhe des Zahlungsstromes im Zeitablauf haben, bleiben in dem Grundmodell unberücksichtigt. Um zu einem aussagefähigen Prognosemodell zu kommen, sei der Kundenwert in diejenigen Elemente dekomponiert, deren Verlauf über die Zeit prognostizierbar ist. Diese Elemente sind:
Kundenwertprognose a) b) c) d)
433
Deckungsbeitragssatz Umsatz Transaktionshäufigkeit Referenzwert
Es wird angenommen, dass sich der kundenindividuelle Deckungsbeitragssatz über die Dauer der Geschäftsbeziehung verändert, da die Geschäftsbeziehung im Zeitablauf profitabler wird (Reichheld und Sasser [15]). Die zunehmende Profitabilität der Geschäftsbeziehung ist auch auf eine Verbesserung des Umsatzes im Zeitablauf zurückzuführen. Zusätzliche Käufe innerhalb und außerhalb des bestehenden Sortiments führen zu einer Umsatzsteigerung während der Geschäftsdauer (Eberling [8]). Die Transaktionshäufigkeit ist ein Indikator für die Aktivität einer Geschäftsbeziehung (Schmittlein u.a. [19], Krafft [11]). Der Referenzwert eines Kunden stellt die monetäre Wertgröße des Weiterempfehlungsverhaltens eines Kunden dar (Cornelsen [6]). Um die Prognoseprobleme deutlicher herauszustellen, wird im Folgenden der Kundenwert in die aufgeführten Elemente dekomponiert:
(
KW = Y,{d,''U,''x,^RW,y
1 ^
(2)
t=\
dt Ut xt RWt t T /
= = = = = = =
Deckungsbeitragssatz in der /-ten Periode Umsatz in der Men Periode Transaktionshäufigkeit in der Men Periode Referenzwert des Kunden in der Men Periode Transaktionsperiode Gesamtdauer der Geschäftsbeziehung Kalkulationszinsfuß
Dabei stellt KW den individuellen Kundenwert über die Gesamtdauer T der Geschäftsbeziehung dar. Die eigentliche Schwierigkeit der Kundenwertberechnung liegt nicht in dem Aufstellen eines Modells, sondern in der Ermittlung der zur Berechnung notwendigen Parameter. Den verwendeten Parametern Deckungsbeitragssatz, Umsatz, Transaktionshäufigkeit und Referenzwert wird eine zeitliche Abhängigkeit unterstellt. Gelingt es dann für diese Elemente, auf der Basis von retrospektiven Daten Prognosen über die zeitlichen Entwicklungen der bisherigen Kundenbeziehungen abzuleiten, so können adäquate Kundenwerte bestimmt werden. Wie dies erfolgen kann, wird in den nächsten Unterabschnitten gezeigt. 22.3.2 Bestimmung des Deckungsbeitragssatzes Der Deckungsbeitragssatz gibt das Verhältnis von Deckungsbeitrag zu Umsatz an. Es wird angenommen, dass mit anhaltender Geschäftsdauer der Deckungsbeitragssatz eines Kunden ansteigt, da empirisch gezeigt wurde, dass der Kunde im Verlauf der Geschäftsbeziehung teurere Produkte nachfragt oder aber bereit ist, schlechtere Konditionen zu erdulden (Reinartz und Kumar [16]). Dieses Verhalten wird als Up-Selling bezeichnet. Je länger eine Geschäftsbeziehung besteht, desto profitabler ist also die Geschäftsbeziehung zu dem Kunden (Reichheld und Sasser [15], Reinartz und Kumar [17]). Ferner ist davon auszugehen, dass eine Unter- und Obergrenze des Deckungs-
434
Albers, Greve
beitragssatzes existiert. Zur Modellierung der Kundenwertformel wird angenommen, dass der Deckungsbeitragssatz eines Kunden einen ^-förmigen Verlauf über die Zeit beschreibt (Berger und Nasr [2]):
Abb. 1: Beispielhafte Entwicklung von Deckungsbeitragssätzen für einen Kunden über 12 Perioden Die oben dargestellte Funktion wächst bis zu einem Punkt mit einer steigenden Rate, um dann mit einer abnehmenden Rate bis zu einer Obergrenze zu steigen. Die Obergrenze stellt den Höchstwert des zu erreichenden Deckungsbeitrags eines Kunden dar. Eine mögliche Formulierung für eine s-förmige Deckungsbeitragssatzfunktion lautet (in Anlehnung an Little [14]):
df=a + [ß-a)'
S+ f
{t = U.J)
(3)
a = Untergrenze Deckungsbeitragssatz ß = Obergrenze Deckungsbeitragssatz y, ö = Parameter Für Werte von y > 1 erhalten wir einen ^-förmigen Verlauf, für Werte 0 < ;; < 1 nimmt die Funktion einen konkaven Verlauf an. Die Parameter a, ß, y und S lassen sich aus den retrospektiven Daten eines Unternehmens schätzen. Dazu müssen der Deckungsbeitrag und der bisherige Umsatz als Daten über die Geschäftsdauer vergangener Kundenbeziehungen verfügbar sein. Diese Daten sollten in der Regel aus dem Rechnungswesen ableitbar sein, wenn das Unternehmen über eine kundenindividuelle Deckungsbeitragsrechnung verfügt. Zu beachten ist, dass der Deckungsbeitragssatz eines Kunden sich aus den mit ihren jeweiligen Umsatzanteilen gewichteten Deckungsbeitragssätzen der vom Kunden bezogenen Produkten zusammen setzt. 22.3.3 Bestimmung der Umsatzentwicklung über die Zeit Umsatzentwicklungen können auf subjektiven Schätzungen oder Vergangenheitsdaten beruhen. Im ersten Fall schätzen Experten die Parameter intuitiv, im zweiten Fall wird
Kundenwertprognose
435
dagegen auf Vergangenheitsdaten wie Potenziale, Umsätze etc. zurückgegriffen. Zu den Einflussfaktoren auf den Umsatz über die Dauer einer Geschäftsbeziehung gehören das Cross-Selling-Potenzial und das Entwicklungspotenzial eines Kunden. Auch hier wird analog zur Abbildung 1 in Kapitel 22.3.2 ein ^-förmiger Verlauf angenommen, da unterstellt wird, dass mit andauernder Geschäftsbeziehung ein Kunde zusätzliche Transaktionen vornehmen wird. Beispielsweise erwirbt ein Bankkunde nach Aufnahme der Geschäftsbeziehung im Zeitablauf zusätzlich zu dem Ausgangsprodukt Girokonto einen Bausparvertrag, eine private Rentenversicherung und ein Aktiendepot. Der Erwerb zusätzlicher Produkte außerhalb des bestehenden Sortiments wird als Cross-Selling bezeichnet (Eberling [8]). Des Weiteren besteht die Möglichkeit des Erwerbs zusätzlicher Produkte im bestehenden Sortiment, beispielsweise der Kauf weiterer Investmentfonds über die Geschäftsdauer. Diese Alternative wird als Entwicklungs- oder Penetrationspotenzial bezeichnet (Rudolf-Sipötz [18]). Kern der Kundenwertberechnung ist die Modellierung einer individuellen Umsatzfunktion in Abhängigkeit von der Zeit, dem Cross-Selling-Potenzial CSt und dem Entwicklungspotenzial EPf Die Darstellung der Umsatzfunktion lautet:
U,=f{CS,,EP,) (t = U.J)
(4)
CSt = Cross-Selling-Potenzial in der Men Periode EPt = Entwicklungspotenzial in der t-ten Periode Die Parameterwerte der Umsatzfunktion lassen sich aus retrospektiven Daten mithilfe der Regressionsanalyse statistisch schätzen (Backhaus u.a. [1]). Ziel der Analyse ist es, die beobachteten Umsatzwerte möglichst gut mit den durch die Umsatzfunktion ergebenden Werten zu erklären. Analog zur Schätzung des Deckungsbeitragssatzes sind die Umsatzinformationen aus dem Rechnungswesen ableitbar. 22.3.4 Bestimmung der Transaktionshäufigkeit Die Transaktionshäufigkeit bildet die Anzahl von Transaktionen pro Periode / ab. Die Transaktionshäufigkeit gibt für jede Periode die Höhe der Transaktionen eines Kunden an. Dies bedeutet, dass für jede Periode eine Aussage über die Aktivität eines Kunden getroffen wird. Die VenA/endung einer Retention-Rate (Berger und Nasr [2]), wie sie üblicherweise zur Modellierung von Kundenabwanderungen verwendet wird, ist damit unnötig. Zur Schätzung der Transaktionshäufigkeit X eines aktiven Kunden in einer Zeitperiode (0, T] wird eine Poisson-Verteilung zugrunde gelegt (Krafft [11], Schmittlein u.a. [19]).
p{X^x)~^e-' x\ p(X=x) X x = 0,1,2,3,... X
= = = =
(5)
Wahrscheinlichkeit des Auftretens einer Transaktionshäufigkeit X Anzahl Transaktionen im Beobachtungszeitraum Transaktionshäufigkeit Erwartungswert der Transaktionshäufigkeit X
Die Poisson-Verteilung beschreibt die Wahrscheinlichkeit, dass in einem bestimmten Zeitabschnitt eine gegebene Anzahl von Ereignissen stattfindet. Dabei wird angenom-
436
Albers, Greve
men, dass die Ereignisse unabhängig und unbeeinflusst voneinander auftreten und zu jedem Zeitpunkt höchstens ein Ereignis eintritt. Jeder Kunde weist eine individuelle Transaktionshäufigkeit X auf, die nicht direkt beobachtbar ist, aufgrund retrospektiver Daten aus dem Rechnungswesen jedoch geschätzt werden kann. In einer Poisson-Verteilung entspricht X dem Erwartungswert E [XJ = Ä. Somit gilt für die Schätzung x^ der individuellen Transaktionshäufigkeit eines Kunden zum Zeitpunkt /:
x,=E[x] = Ä (t = h...J)
(6)
Der Erwartungswert X lässt sich wiederum aus dem Verhältnis von Gesamtanzahl der Transaktionen der Geschäftsdauer zur Geschäftsdauer r schätzen. 22.3.5 Bestimmung des Referenzwerts Der Referenzwert beschreibt den monetarisierten Effekt, dass ein Kunde eine Anzahl potenzieller Kunden während seiner Geschäftsdauer durch sein angenommenes Weiterempfehlungsverhalten. Einflussvermögen und soziales Netzwerkes erreichen kann. (Rudolf-Sipötz [18]). Die Richtung der Beeinflussung kann dabei positiv, negativ oder neutral sein. In Ergänzung zur ursprünglichen Konzeption eines Referenzwerts nach Cornelsen (Cornelsen [6]) wird hier der Referenzwert zusätzlich in Abhängigkeit von der Geschäftsdauer geschätzt:
RW^=SN,''MF^''KZ,''RV, (t = l...J) SNt = MFt = KZt = RVt = RRt'^KVt =
(7)
Soziales Netz in der Men Periode Meinungsführerschaft in der Men Periode Kundenzufriedenheit in der Men Periode Referenzvolumen in der Men Periode
Das soziale Netz SNt beeinflusst die Häufigkeit der Referenzabgabe. Es wird bestimmt durch die Anzahl potenzieller Referenzgespräche in einem Personenkreis sowie der Intensität der geführten Gespräche. Die Meinungsführerschaft MFt bildet ab, wie groß die Wirkung von Empfehlungen des Kunden ist. Diese Meinungsführerschaft kann durch ein Punktesystem operationalisiert werden. Die Kundenzufriedenheit KZt gibt die Richtung der Empfehlungen an. Sie lässt sich ebenfalls über ein Punktesystem festlegen. Das Referenzvolumen errechnet sich aus der Multiplikation des durchschnittlichen Kaufvolumens mit der Referenzrate. Die Referenzrate RRt wird durch branchenbezogene Schätzungen ermittelt. Sie gibt die Stärke der Beeinflussung durch Empfehlungen wieder. Das Kaufvolumen KVt operationalisiert den monetären Wertbeitrag durch durchschnittliche Umsätze oder Kundendeckungsbeiträge (Cornelsen [6]). Die meisten Parameter der Referenzwertberechnung lassen sich nur über subjektive Beurteilungen oder Befragungen anhand von Erfahrungswerten ermitteln, sodass hier mit den größten Prognosefehlern zu rechnen ist.
Kundenwertprognose
437
22.3.6 Bestimmung des Kalkulationszinsfußes Der risikoadäquate Kalkulationszinsfuß entspricht der Rendite, die man am Kapitalmarkt für eine risikoadäquate Kapitalanlage erzielen könnte (Betsch u.a. [3]). In der Praxis hat sich für seine Berechnung das Capital Asset Pricing Model (CAPM) durchgesetzt. Unter der Annahme eines vollkommenen Kapitalmarkts wird die erwartete Rendite eines Investitionsobjekts^ wie folgt berechnet (nach Betsch u.a. [3]):
i = E(r^) = r,^-[E{r^)-r,Yß^ / E(rj) E(r}^ rp ßj
= = = =
(8)
Kalkulationszinsfuß Erwartete Rendite des Investitionsobjekts^ Erwartete Rendite des Marktportefeuills risikofreier Zinssatz Risikofaktor
Die erwartete Rendite E(rj) setzt sich aus dem Zinssatz Vf der risikofreien Kapitalmarktanlage und einer Risikoprämie zusammen. Die Risikoprämie berechnet sich aus dem Marktpreis des Risikos E(rM)-rF und dem speziellen Risiko ßj des Investitionsobjekts. Allerdings kann das für Unternehmensbewertungen konzipierte CAPM nicht ohne Weiteres auf die Bewertung von Kundenbeziehungen übertragen werden, da aufgrund der mangelnden Zurechenbarkeit einer Kapitalbasis Renditen nur schwer ermittelt werden können (Eberling [8]). Dennoch beschreibt das CAPM einen möglichen Ansatz zur kundenindividuellen Bestimmung des Kalkulationszinsfußes, wenn das Unternehmen in der Lage ist, die entsprechenden Daten für eine statistische Schätzung bereit zu stellen. Ansonsten muss es die Risikokomponenten subjektiv prognostizieren. 22.4 Zusammenfassung Ziel der vorangegangenen Ausführungen war es, einen praktikablen Ansatz zur Kundenwertprognose vorzustellen. Durch die Aufteilung der Kundenwertformel in die Elemente Deckungsbeitragssatz, Umsatzfunktion, Transaktionshäufigkeit und Referenzwert wird eine handhabbare Schätzung der einzelnen Elemente des Kundenwerts ermöglicht. Alle eingeführten Elemente unterliegen einer Veränderung über die Geschäftsdauer und können damit aus retrospektiven, im Unternehmen vorhandenen Daten oder Erfahrungswerten geschätzt werden. Es wurde gezeigt, dass die erforderlichen Daten relativ leicht im Unternehmen beschafft werden können. Für die unternehmerische Praxis ist es unbedingt notwendig, die retrospektiven Kundendaten über einen längeren Zeitraum zu sammeln und verfügbar zu halten. Die Informationen über vergangene Geschäftsbeziehungen stellen die Basis für die Prognose der Wertentwicklung zukünftiger Geschäftsbeziehungen dar. Nur durch die Nutzung der retrospektiven Daten wird es möglich, die einzelnen Komponenten für die bestehenden Geschäftsbeziehungen anhand ähnlicher, vergangener Geschäftsbeziehungen verlässlich zu prognostizieren. 22.5 Literatur [1]
Backhaus, K., Erichson, B., Plinke, W. und Weiber, R., Multivariate Analysemethoden: Eine anwendungsorientierte Einführung, 10. Aufl., Berlin 2003.
438 [2] [3] [4] [5]
[6] [7] [8] [9]
[10] [11] [12]
[13]
[14] [15] [16]
[17] [18] [19] [20]
Albers, Greve Berger, P.D. und Nasr, N.I., Customer Lifetime Value: Marketing Models And Applications, Journal of Interactive Marketing 12 (1998) 1, S. 17 ff. Betsch, O., Groh, A. und Lehmann, L., Corporate Finance: Unternehmensbewertung, M&A und innovative Kapitalmarktfinanzierung, 2. Aufl., München 2000. Blattberg, R.C. und Deighton, J., Manage Marketing by the Customer Equity Test, Harvard Business Review 74 (1996) 4, S. 136 ff. Bruhn, M., Gregori, D., Treyer, M. und Leumann, S., Wertorientiertes Relationship Marketing: Vom Kundenwert zum Customer Lifetime Value, Die Unternehmung 54 (2000)3, 167 ff. Cornelsen, J., Kundenwertanalysen im Beziehungsmarketing: Theoretische Grundlegung und Ergebnisse einer empirischen Studie im Automobilbereich, Nürnberg 2000. Dwyer, R.F., Customer Lifetime Valuation to Support Marketing Decision Making, Journal of Direct Marketing 11 (1997) 4, S. 6 ff. Eberling, G., Kundenwertmanagement, Wiesbaden 2002. Helm, S. und Günter, B., Kundenwert: Herausforderungen der Bewertung von Kundenbeziehungen, in: Günter, B. und Helm, S. (Hrsg.), Kundenwert: Grundlagen - innovative Konzepte - Praktische Umsetzungen, 2. Aufl., Wiesbaden 2003, S. 3 ff. Jain, D. und Singh, S.S., Customer Lifetime Value Research in Marketing: A Review and Future Directions, Journal of Interactive Marketing 16 (2002) 2, S. 34 ff. Krafft, M., Kundenbindung und Kundenwert, Heidelberg 2002. Krafft, M. und Bromberger, J., Kundenwert und Kundenbindung, in: Albers, S., Clement, M., Peters, K. und Sklera, B. (Hrsg.), Marketing mit interaktiven Medien: Strategien zum Markterfolg, 3. Aufl., Frankfurt 2001, S. 160 ff. Krafft, M. und Rutsatz, U., Konzepte zur Messung des ökonomischen Kundenwerts, in: Günter, B. und Helm, S. (Hrsg.), Kundenwert: Grundlagen - innovative Konzepte Praktische Umsetzungen, 2. Aufl., Wiesbaden 2003, S. 275 ff. Little, J.D.C., Models and Managers: The Concept Of A Decision Caiculus, Management Science18(1970)8, S. 466ff. Reichheld, F.F. und Sasser, E.W., Zero Defections: Quality Comes to Services, Harvard Business Review 68 (1990) 5, S. 105 ff. Reinartz, W.J. und Kumar, V., On the Profitability of Long-Life Customers in a Noncontractual Setting: An Empirical Investigation and Implications for Marketing, Journal of Marketing 64 (2000) 4, S. 17 ff. Reinartz, W.J. und Kumar, V., The Impact of Customer Relationship Characterstics on Profitable Lifetime Duration, Journal of Marketing 67 (2003) 1, S. 77 ff. Rudolf-Sipötz, E., Kundenwert: Konzeption - Determinanten - Management, Bamberg 2001. Schmittlein, D.C., Morrison, D.G. und Colombo, R., Counting your Customers: Who are they and what will they do next?, Management Science 33 (1987) 1, S. 1 ff. ZeithamI, V.A., Rust, R.T. und Lemon, K.N., The Customer Pyramid: Creating and Serving Profitable Customers, California Management Review 43 (2001) 4, S. 118 ff.
23 Qualitätsvergleiche bei Kreditausfallprognosen von Walter Krämer 23.1 Qualitative versus quantitative Prognosen Wirtschaftsdaten als Objekte von Prognosen sind meist metrischer Natur: Arbeitslosenzahlen, Aktienkurse, Umsätze, Erlöse usw., alle sind quantitative Variable, bei denen sich Prognosen und realisierte Werte, wie auch konkurrierende Prognosen, leicht vergleichen lassen. Anders die Lage bei qualitativen, speziell dichotomen 0-1-Variablen, die im Zentrum der folgenden Überlegungen stehen. Hier ist der Vergleich von Prognosen und realisierten Werten, wie auch der Qualitätsvergleich konkurrierender Prognosen, erheblich schwerer. Das folgende Kapitel diskutiert diese Problematik anhand von Kreditausfallprognosen. Unter Hintanstellung von Problemen, die mit der Definition von „Kreditausfall" verbunden sind, gibt es hier zwei Möglichkeiten: (i) der Kredit fällt aus und (ii) der Kredit fällt nicht aus, und die zahlreichen Verfahren, die es gibt - Diskriminanzanalyse, Logit- und Probit-Modelle, Neuronale Netze und Klassifikationsbäume - dieses Ereignis vorherzusagen (siehe Arminger u.a. [1] oder Blume u.a. [2] für eine Übersicht) müssen mit zwei Arten von Fehlern leben: Bei der Prognose „Kein Ausfall" tritt dennoch ein Ausfall ein der Alpha-Fehler - oder bei einer Prognose von „Ausfall" tritt kein Ausfall ein - der Beta-Fehler. Je nach Bewertung und Wahrscheinlichkeit von Alpha- und Beta-Fehler lassen sich konkurrierende Prognosen dann hinsichtlich ihrer Prognosequalität vergleichen. Die einschlägigen Methoden sind seit langem wohlbekannt (siehe etwa Oehler und Unser [13], Kapitel IM.2) und müssen hier nicht weiter erörtert werden. Die folgende Diskussion konzentriert sich vielmehr auf Prognosen, die nur die Wahrscheinlichkeiten für das interessierende Ereignis betreffen: Die Ausfallwahrscheinlichkeit bei Kredit X beträgt Y % mit 0 < Y < 100 %. Dergleichen Wahrscheinlichkeitsprognosen haben in der Meteorologie und in der Medizin eine lange Tradition (siehe etwa DeGroot und Fienberg [4], Redelmeier u.a. [14] oder Winkler [18]), sind aber mit der wachsenden Bedeutung von Ratings und Rating-Agenturen im modernen Wirtschaftsleben auch dort in letzter Zeit vermehrt ins Rampenlicht getreten. Nimmt man noch die im Kielwasser von Basel II auf alle Geschäftsbanken zukommende Verpflichtung zur Belegung aller vergebenen Kredite mit Ausfallwahrscheinlichkeiten hinzu, so werden Wahrscheinlichkeitsprognosen in naher Zukunft zu den häufigsten Wirtschaftsprognosen überhaupt gehören. Anders als bei Prognosevergleichen metrischer Variablen, steckt die einschlägige Methodologie aber hier noch in den Kinderschuhen. Im Weiteren werden zunächst die gängigen Verfahren vorgestellt und auf ihre Eignung für die Praxis abgeklopft. Ferner werden Implikationsbeziehungen zwischen den durch die verschiedenen Qualitätskriterien definierten Halbordnungen abgeleitet, diskutiert und ausgewählte skalarwertige Gütemaße vorgestellt. 23.2 Trennschärfe und Kalibrierung Angenommen, 2 % aller Kredite eines größeren Portfolios fallen erfahrungsgemäß binnen eines festen Zeitraums, etwa eines Jahres, aus. Eine Rating-Agentur A, um eine
440
Krämer
Bewertung der Kredite dieses Portfolios gebeten, versieht jeden davon mit dem Etikett „Ausfallwahrscheinlichkeit 2 %". Diese Prognose ist „kalibriert" (synonym auch valide = „valid" oder zuverlässig = „reliable", siehe Sanders [15] oder Murphy [12]). Kalibriert bedeutet: Unter allen Krediten mit dem Etikett „Ausfallwahrscheinlichkeit x %" fallen langfristig x % tatsächlich aus. Trotzdem ist dieses Rating wertlos - es liefert keine neuen Informationen, das alles hat man vorher schon gewusst. Oder anders ausgedrückt: Kalibrierung ist eine notwendige, aber keine hinreichende Bedingung für eine „gute" Wahrscheinlichkeitsprognose. Agentur B teilt das Portfolio in zwei Gruppen auf: die erste mit Ausfallwahrscheinlichkeit 1 %, die zweite mit Ausfallwahrscheinlichkeit 3 %. Auch diese Bewertung sei kalibriert: In der ersten Gruppe fallen tatsächlich 1 %, in der zweiten 3 % der Kredite aus. Dann ist Agentur B ganz offensichtlich „besser" als Agentur A. Das Rating von B heißt auch „trennschärfer" als das von A (synonym auch „sharper" oder „more refined", siehe Sanders [15] oder DeGroot und Fienberg [4]). Trennschärfe ist ein Maß für das „Spreizen" der Wahrscheinlichkeitsprognosen in Richtung 0 bzw. 100 %. Die trennschärfste Wahrscheinlichkeitsprognose lässt nur zwei Aussagen zu: „Ein Kredit fällt sicher aus" (Prognose 100 %), oder „ein Kredit fällt sicher nicht aus" (Prognose 0 %). Ist eine solche extrem trennscharfe Prognose außerdem noch kalibriert, dann ist sie absolut perfekt: Das Rating sagt jeden Kreditausfall mit Sicherheit exakt voraus. Auch bei kalibrierten, aber nicht maximal trennscharfen Prognosen ist es sinnvoll, nachzufragen: Welches von mehreren kalibrierten Ratingsystemen kommt dem Ideal einer maximal trennscharfen Prognose am nächsten? In obigem Beispiel ist System B trennschärfer als A. Und nochmals trennschärfer sind zwei Systeme, C und D, welche die Kredite in die Ausfallklassen 0,5 %, 1,5 % und 4,5 % bzw. 0,5 %, 1 % und 3 % aufteilen. Tabelle 1 zeigt eine mit Kalibrierung verträgliche Verteilung der Kredite auf die verschiedenen Ausfallklassen in diesen vier Prognosesystemen: Prognostizierte Ausfallwahrscheinlichkeit
Verteilung der Kredite auf die prognostizierten Ausfallwahrscheinlichkeiten B C 0 0,25
0,5 %
A 0
D 0,2
1%
0
0,5
0
0,25
1,5%
0
0
0,5
0
2%
1
0
0
0
3%
0
0,5
0
0,55
4,5 %
0
0
0.25
0
Tab. 1: Prognostizierte Ausfallwahrscheinlichkeiten und ihre Verteilung auf die Gesamtzahl der Kredite Mathematisch ist „trennschärfer" bei kalibrierten Prognosen dadurch definiert, dass sich die trennschwächere Prognose in gewissem Sinn aus der trennschärferen ableiten lässt. Das ist bei einem Vergleich von A und B ganz offenbar der Fall: Unabhängig vom B-Etikett erhalten alle Kredite unter A die Prognose 2 %. Aber auch die B-Prognose
Qualitätsvergleiche bei Kreditausfallprognosen
441
lässt sich ihrerseits aus der C-Prognose ableiten: Alle Kredite mit der C-Prognose 0,5 % und eine zufällig ausgewählte Hälfte aller Kredite mit der C-Prognose 1,5 % erhalten das Etikett 1 %, die übrigen das Etikett 3 %. Das Ergebnis ist eine kalibrierte Prognose mit der gleichen Trennschärfe wie B. Die B-Prognose lässt sich aber auch aus der D-Prognose ableiten: Alle D-Prognosen 0,5 % und 1 % sowie ein zufällig ausgewähltes Elftel der D-Prognosen 3 % erhalten das Etikett 1 %, die übrigen das Etikett 3 %. Das Ergebnis ist wieder eine kalibrierte Prognose mit der gleichen Trennschärfe wie B. Die Prognosen C und D lassen sich jedoch in diesem Sinne nicht vergleichen: Weder ist D trennschärfer als C, noch C trennschärfer als D. Die Trennschärfe erzeugt also keine vollständige Ordnung, sondern nur eine Halbordnung unter allen kalibrierten Wahrscheinlichkeitsprognosen; es gibt kalibrierte Wahrscheinlichkeitsprognosen, die nach dem Kriterium der Trennschärfe nicht vergleichbar sind. Formal: Seien 0 = p^
/u)=i^v(/',)
(1)
Piq'{P,) = tM,Pjq'(pj)
(2)
und
mit einer kxk Markoff-Matrix M (einer Matrix mit nichtnegativen Elementen, deren Spalten sich zu 1 addieren (siehe DeGroot und Fienberg [4]). Dabei formalisiert Gleichung (1) das auf A's Prognosen angewandte Randomisieren, und Gleichung (2) garantiert die Kalibrierung dieser so entstandenen neuen Prognosen. 23.3 Weitere Halbordnungen von Wahrscheinlichkeitsprognosen Unabhängig von Trennschärfe und Kalibrierung ist es sinnvoll, beim Vergleich zweier Ratingsysteme A und B zu fragen: „Welches der beiden Systeme gibt den ausgefallenen Krediten die schlechtesten Bewertungen?" Diese Frage führt zum Begriff der „Ausfalldominanz" (Vardeman und Meeden [16]): Ein Ratingsystem A ist besser als ein Ratingsystem B im Sinne der Ausfalldominanz, falls A die ausgefallenen Kredite systematisch schlechter einstuft als B. Formal: Sei q^{pi 11) der Anteil der ausgefallenen Kredite, die von System A in die durch die prognostizierte Ausfallwahrscheinlichkeit p^{i = \,...,k) definierte Ratingklasse einsortiert worden sind. Analog q^{pi \ l) usw. Dann ist A besser als B im Sinne der Ausfalldominanz, falls 2?"(A|1)^S/U|1)
füralle 7-1,...,^.
(3)
442
Krämer
In kalibrierten Ratingsystemen errechnen sich die q'^{Pi |l) durch
mit p als Gesamtausfallwahrscheinlichkeit für alle Kredite insgesamt. Analog lässt sich auch in Bezug auf die nicht ausgefallenen Kredite fragen, ob eines von zwei zu vergleichenden Ratingsystemen diese systematisch besser bewertet. Sei dazu ^^ [p^ IO) der Anteil der nicht ausgefallenen Kredite, die von System A in die verschiedenen Ratingklassen p^ i = l,...,k eingeordnet worden sind. Analog q^{Pi\0). Dann ist A besser als B im Sinn der Nichtausfalldominanz, falls
Tl' {P. 10) ^ 1 / {P, 10) für alle j = \,...,k. t^Hp.\o)>i M
(5)
/=1
In kalibrierten Ratingsystemen errechnen sich die ?'^(p, |0) als
,.(^_|0),(L«lii>0.
(6)
In der Sprache der Mathematik handelt es sich hier um einen Vergleich von Wahrscheinlichkeitsverteilungen über Ratingklassen. System A ist in dieser Sprache besser als System B im Sinne der Ausfalldominanz, wenn die bedingte Verteilung von A, gegeben Ausfall, diejenige von B stochastisch dominiert. Und A ist besser als B im Sinne der Nichtausfalldominanz, wenn die bedingte Verteilung von B, gegeben kein Ausfall, diejenige von A stochastisch dominiert. Analog lässt sich auch der Trennschärfe-Vergleich aus Abschnitt 2 in die Sprache der stochastischen Dominanz übertragen (DeGroot und Eriksson [5]): Ein kalibriertes System A ist genau dann trennschärfer als ein kalibriertes System B, wenn die unbedingte Verteilung der Kredite auf die Ratingklassen unter A diejenige unter B stochastisch in 2. Ordnung dominiert. Ausfalldominanz und Nichtausfalldominanz sind je für sich sehr leicht zu erzeugen: Durch hinreichende Erhöhung der vorhergesagten Ausfallwahrscheinlichkeiten (und damit natürlich unter Preisgabe einer vorher vielleicht vorhandenen Kalibrierung) wird jedes System einen vorgegebenen Konkurrenten letztendlich im Sinne der Ausfalldominanz schlagen. Gleiches gilt für die Nichtausfalldominanz, wenn man die vorhergesagten Ausfallwahrscheinlichkeiten hinreichend reduziert. Schwieriger ist dagegen eine Qualitätsverbesserung sowohl im Sinne der Ausfall- als auch im Sinne der Nichtausfalldominanz. Ein System, welches ein anderes in diesem Sinne dominiert, heißt im Weiteren auch „besser im Sinne der doppelten Ausfallordnung". Die doppelte Ausfallordnung ist ein sehr anspruchsvolles Kriterium. Wie man sich leicht überzeugt, ist sie für kein einziges Paar der in Tabelle 1 aufgelisteten Wahrscheinlichkeitsprognosen gegeben. Ganz allgemein lässt sich zeigen (siehe Krämer [10], Satz 1), dass die doppelte Ausfallordnung mit Kalibrierung im Wesentlichen unverträglich ist:
Qualitätsvergleiche bei Kreditausfallprognosen
443
Wenn für zwei kalibrierte Wahrscheinlichkeitsprognosen A und B gilt: ^^(0) = ^^(0) = 0, so ist die Ausfallordnung ausgeschlossen. Und für ^^(i) = ^^(i) = o ist die Nichtausfallordnung ausgeschlossen. Unabhängig von Kalibrierung nennen DeGroot und Fienberg [4] deshalb eine Prognose A „suffizient" für B, wenn B's bedingte Verteilungen der Kredite auf die Ausfallwahrscheinlichkeiten p^, gegeben sowohl Ausfall als auch Nicht-Ausfall, aus denen von A durch Randomisieren abgeleitet werden können:
q'{pAö)-f,M^^q'[p^\e) für/ = l,...,^, e = Q^
(7)
mit einer Markoff-Matrix M. Für kalibrierte Prognosen stimmt die so induzierte Halbordnung mit der durch den Trennschärfe-Vergleich induzierten Halbordnung überein. Ein weiteres, von Kalibrierung unabhängiges und in der Praxis gern benutztes Qualitätskriterium (siehe z. B. Falkenstein u.a. [7]) gründet sich auf dem Polygonzug durch die Punkte
(o,o)ix?(A-.),i:^(A-ji)
j = U^,k.
(8)
Diese Kurve heißt in der angelsächsischen Literatur auch „power curve", „cumulated accuracy profile" oder „Gini curve" und sei im weiteren als Gini-Kurve bezeichnet. Eine Wahrscheinlichkeitsprognose A ist dann besser als eine Wahrscheinlichkeitsprognose B in diesem, dem Gini-Sinne, wenn A's Gini-Kurve nirgends unterhalb von der von B verläuft. Ein System, das in jeder Ratingklasse die gleichen prozentualen Ausfallanteile hätte, hat als Gini-Kurve die Diagonale. Dieses System liefert keine Informationen und ist in diesem Sinne das schlechtest mögliche. Angenommen, im Beispiel aus Abschnitt 2 seien insgesamt 800 Kredite zu bewerten. Agentur C prognostiziert für 200 davon eine Ausfallwahrscheinlichkeit von 0,5 %, für 400 eine Ausfallwahrscheinlichkeit von 1,5 %, und für 200 eine Ausfallwahrscheinlichkeit von 4,5 %. Agentur C ist kalibriert, d. h. in der ersten Gruppe fällt im Mittel 1 Kredit (= 0,5 % von 200) tatsächlich aus, in der zweiten Gruppe fallen 6 Kredite aus (= 1,5 % von 400), in der dritten Gruppe 9 (= 4,5 % von 200). Insgesamt gibt es 16 Ausfälle (2 % von 800). Im Weiteren sei der Einfachheit halber unterstellt, dass die enA/arteten Ausfälle mit den tatsächlichen Ausfällen übereinstimmen. Gruppiert man die Kredite von schlecht nach gut und stellt ihnen die kumulierten Anteile an den Ausfällen gegenüber, ergibt sich Tabelle 2. Diese Punkte, in ein 2-dimensionales Koordinatensystem übertragen und durch Geraden verbunden, erzeugen die in Abbildung 1 wiedergegebene Gini-Kurve der Prognose C. Ebenfalls eingezeichnet ist die optimale Gini-Kurve eines Ratingsystems, das alle 16 Ausfälle, und nur diese, in die schlechteste Bonitätsklasse aufgenommen hätte. Diese begrenzt zusammen mit der Winkelhalbierenden die Fläche B.
444
Krämer
Anteil an der Gesamtzahl der bewerteten Kredite
Anteile an der Gesamtzahl der Ausfälle 0/16 9/16 15/16 16/16
0/800 = 0 200/800 = 0,25 600/800 = 0,75 800/800 = 1
Tab. 2: Bonität versus Ausfallanteile für ein ausgewähltes Prognoseverfahren
1.00
Abb. 1: Gini-Kurve Das Verhältnis der Fläche A zur Fläche B heißt auch Trefferquote (accuracy ratio). Je höher die Trefferquote, desto näher kommt ein Ratingsystem an die in obigem Sinn optimale Prognose heran. Alternativ betrachtet man ebenfalls oft die ROC-Kurve (ROC = „Receiver Operating Characteristic"), die durch die Punkte
(O,O)JX^(A-.|O),Z^(A-.|I) , J = h...,k
(9)
/=0
und verbindende Geraden gegeben ist. ROC-Kurven sind vor allem in der medizinischen Diagnostik seit langem als Werkzeug zum Qualitätsvergleich konkurrierender Diagnosesysteme wohlbekannt (siehe Zweig und Campell [19] oder Hajian-Tilaki und Henley [9] für eine Übersicht). Da sich aber zwei Gini-Kurven genau dann schneiden, wenn sich die zugehörigen ROC-Kurven schneiden, sind die durch diese Kurven induzierten Halbordnungen äquivalent (Krämer [10], Theorem 3). Außerdem ist die oft als Skalares Qualitätskriterium genutzte Fläche unter der ROC-Kurve numerisch identisch zu der aus der Gini-Kurve abgeleiteten Trefferquote (siehe etwa Engelmann u.a. [6]; diese Einsicht ist aber auch bei vielen anderen Autoren zu finden). Die ROC-Kurve liefert daher keine zusätzlichen Informationen und bleibt im Weiteren außer Betracht. Sowohl die Gini-Kurve als auch die ROC-Kurve sind invariant gegenüber monotonen Transformationen der vorhergesagten Ausfallwahrscheinlichkeiten. Nimmt die tatsächliche Ausfallwahrscheinlichkeit mit schlechter werdender Ratingklasse zu, heißt ein Sys-
Qualitätsvergleiche bei Kreditausfallprognosen
445
tem auch „semikalibriert". Bei einem semikalibrierten Ratingsystem ist die Gini-Kurve konvex. Man kann zeigen (siehe Krämer [10], Theorem 5), dass für semikalibrierte Wahrscheinlichkeitsprognosen eine Ordnung bezüglich Suffizienz das Gini-Kriterium impliziert. Die Umkehrung gilt nicht. Analog folgt auch aus einer Überlegenheit im Sinne der doppelten Ausfallordnung eine Überlegenheit im Sinne des Gini-Kriteriums, unabhängig davon, ob die Prognosen semikalibriert sind oder nicht. Hier kann man ebenfalls durch einfache Gegenbeispiele zeigen, dass die Umkehrung nicht gilt. 23.4 Skalarwertige Abweichungsmaße Eine alternative Möglichkeit zur Beurteilung der Qualität von Wahrscheinlichkeitsprognosen ist der direkte Vergleich von Prognosen und tatsächlich eingetretenen Ereignissen. Insgesamt gebe es n zu bewertende Kredite. Sei p^ e {p^,...,p,^] die Prognose für Kredit j, und sei 0^ = 1 bei Ausfall und 0^=0, wenn kein Ausfall eintritt. Dann ist das Brier-Maß („Brier-Score", nach G.W. Brier [3]) definiert als B--=--Y.(p'-^')-
(10)
Das Brier-Maß ist das bekannteste Maß zur Bewertung von Wahrscheinlichkeitsprognosen. Er wurde und wird bislang vor allem zum Qualitätsvergleich von Wettervorhersagen eingesetzt, ist aber grundsätzlich in allen Kontexten einsetzbar, in denen Wahrscheinlichkeitsprognosen zu vergleichen sind. Je kleiner das Brier-Maß, desto schlechter die Wahrscheinlichkeitsprognose. Der schlechtest mögliche Wert von B = -l ergibt sich für eine Prognose von immer nur 0 % oder 100 % Wahrscheinlichkeit für Ausfall, bei der stets das Gegenteil des Vorhergesagten eintritt. Der bestmögliche Wert von 0 ergibt sich für eine Prognose von immer nur 0 % oder 100 % für Ausfall, bei der stets das Vorhergesagte tatsächlich eintritt. Bei einem Gesamtausfall-Anteil p hat die Trivialprognose „Ausfallwahrscheinlichkeit von p für jeden Kredit" das (erwartete) Brier-Maß
B = -p{l-py-{l-p)p\
(11)
Dieser Ausdruck strebt für p-^0 ebenfalls gegen 0 (dito für p-^\). Das ist bei Anwendungen wie Kreditausfallprognosen, mit sehr kleinen Wahrscheinlichkeiten für das fragliche Ereignis, ein Problem. Es empfiehlt sich daher in den Anwendungen auf jeden Fall, einen realisierten Brier-Score relativ zu dem Trivialwert (11) zu sehen. Derart adaptierte Abweichungsmaße werden auch „skill-scores" genannt (Winkler [17]). Es ist leicht zu überprüfen (De Groot und Fienberg [4]), dass ein Anwender sein subjektiv enA/artetes Brier-Maß immer dann minimiert, wenn er als Prognose für die Ausfallwahrscheinlichkeit seine wahre subjektive Ausfallwahrscheinlichkeit einsetzt. Insofern belohnt das Brier-Maß „ehrliches" Verhalten. Abweichungsmaße mit dieser Eigenschaft heißen in der angelsächsischen Literatur auch „proper scoring ruies" (Winkler [18]).
446
Krämer
Ein deutscher Ausdruck dafür wäre „anreizkompatible Abweichungsmaße". Ein weiteres anreizkompatibies Abweichungsmaß ist die mittlere logarithmische Abweichung (Good [8])
L=^f^-log(\p^^0^-l\\
(12)
Anreizkompatible Abweichungsmaße wie das Brier-Maß oder die mittlere logarithmische Abweichung bieten sich als Entlohnungskriterium für Kreditsachbearbeiter an: Es lohnt sich, die wahren subjektiven Ausfallwahrscheinlichkeiten offenzulegen. Untertreibungen oder Übertreibungen der subjektiv für richtig gehaltenen Ausfallwahrscheinlichkeiten verschlechtern den subjektiven Erwartungswert des Abweichungsmaßes und werden insofern bestraft. Angesichts der Vielzahl der in der Literatur vorgeschlagenen Abweichungsmaße ist es sinnvoll, nach einem Kriterium zu fragen, welches garantiert, dass zwei Wahrscheinlichkeitsprognosen bezüglich aller anreizkompatiblen Abweichungsmaße die gleiche Reihung erfahren. Dazu seien die vorhergesagten Ausfallwahrscheinlichkeiten mit den empirisch beobachteten Ausfallraten gleichgesetzt. Per definitionem sind damit die Prognosen kalibriert, und es lässt sich zeigen (siehe Krämer [11]), dass eine Prognose A eine Prognose B für alle anreizkompatiblen Abweichungsmaße genau dann dominiert, wenn sie, unter Verwendung dieser vorhergesagten Wahrscheinlichkeiten, trennschärfer ist als B. Unabhängig von der Art des verwendeten Abweichungsmaßes stellt sich ferner das Problem seiner stochastischen Eigenschaften. Ist ein Prognosesystem „systematisch" besser als eine Zufallsprognose (d. h. ist die Trefferquote „signifikant" größer als Null)? Ist ein Kreditbewerter tatsächlich „besser" als die Konkurrenz, oder geht ein Vorsprung, etwa gemessen durch die Trefferquote oder den Brier-Score, nur auf zufällige Abweichungen der Stichprobe von den „wahren" Populationsparametern zurück? Hier gibt es erste Ansätze (siehe etwa Redelmeier u.a. [14] oder Engelmann u.a. [6], die einen Signifikanztest für die Trefferquote entwickeln), aber im großen und ganzen steht eine Antwort auf diese Fragen im Augenblick noch aus. 23.5 Literatur [1]
[2] [3] [4] [5]
[6]
Arminger, G., Enache, D. und Bonne, T., Analyzing credit risk data: A comparison of logistic discrimination, Classification tree analysis, and feedforward networks, Computational Statistics 12 (1997), S. 293 ff. Blume, C, Overbeck, L. und Wagner, L., An introduction to credit risk modelling, Boca Raton 2003. Brier, G.W., Verification of forecasts expressed in terms of probability, Monthly Weather Review 78 (1950), S. 1 ff. DeGroot, M. und Fienberg, S.E., The comparison and evaluation of forecasters, The Statistician32(1983), S. 12 ff. DeGroot, M. und Eriksson, E.A., Probability forecasting, stochastic dominance, and the Lorenz curve, in: Gupta, S.S. und Berger, J.O. (Hrsg.), Statistical decision theory and related topics III, Vol 1, New York 1985, S. 291 ff. Engelmann, B., Hayden, E. und Tasche, D., Testing rating accuracy, Risk 16 (2003), S. 82 ff.
Qualitätsvergleiche bei Kreditausfallprognosen [7] [8] [9]
[10] [11] [12] [13] [14] [15] [16]
[17] [18] [19]
447
Falkenstein, E., Boral, A. und Kocagil, A.E., RiskCalc for private companies II: More results and the Australian Model, Moody's Investor Services, Report No. 62265 (2000). Good, I.J., Rational decisions, Journal of the Royal Statistical Society B 14 (1952), S. 107 ff. Hajian-Tilaki, K. und Henley, J.A., Comparison of three methods for estimating Standard error of the area under the curve in ROC analysis of quantiative data, Academic Radiology 9 (2002), S. 1278 ff. Krämer, W., On the ordering of probability forecasts, SFB 475, Diskussionspapier 50/02, Dortmund 2002. Krämer, W., Evaluating probability forecasts in terms of refinement and strictiy proper scoring ruies, SFB 475, Diskussionspapier 24/03, Dortmund 2003. Murphy, A.H., A new vector partition of the probability score, Journal of Applied Meteorology 12(1973), S. 595 ff. Oehler, A. und Unser, M., Finanzwirtschaftliches Risikomanagement, Berlin 2001. Redelmeier, D.A., Block, D.A. und Hickam, D.H., Assessing predictive accuracy: Howto compare Brier scores, Journal of Clinical Epidemiology 44 (1991), S. 1141 ff. Sanders, F., On subjective probability forecasting, Journal of Applied Meteorology 2 (1963), S. 191 ff. Vardeman, S. und Meeden, G., Calibration, sufficiency and domination considerations for Bayesian probability assessors, Journal of the American Statistical Association 78 (1983), S. 808 ff. Winkler, R.L., Evaluating probabilities: Asymmetrie scoring ruIes, Management Science 40(1994), S. 1395 ff. Winkler, R.L., Scoring ruIes and the evaluation of probabilities, Test 5, (1996), S.1 ff. Zweig, M.H. und Campbell, G., Receiver-Operating Characterisic (ROC) plots: A fundamental evaluation tool in clinical medicine, Clinical Chemistry 39 (1993), S. 561 ff.
24 Beratung mithilfe von statistischen Prognosen. Welches Instrument ist das sinnvollste? von Markus Frölich, Michael Lechner und Heidi Steiger 24.1 Einleitung Wann immer es gilt, eine Kundin oder einen Kunden bezüglich verschiedener alternativer Instrumente zu beraten, stellt sich die Frage nach der optimalen Auswahl im Hinblick auf ein gewünschtes Ziel. Ein Kundenberater in einer Bank oder Versicherung soll eine Anlage- oder Versicherungsstrategie für einen Klienten auswählen, ein Arzt möchte die beste Behandlungsmethode für eine Patientin finden, oder ein Berufsberater sucht die optimale Ausbildung für einen Schulabgänger. Die hier vermittelte Methode wurde im Zusammenhang mit Arbeitsmarktprogrammen entworfen (Beschäftigungsprogramme, verschiedene Arten von Weiterbildungskursen, Einarbeitungszuschüsse etc.): Eine Person, die über die Teilnahme eines Erwerbslosen an einem Programm entscheidet - in der Regel ein Berater im Arbeitsamt - sollte diejenige Maßnahme auswählen, die ihm im Hinblick auf gegebene Ziele (Wiederbeschäftigung, Einkommen, geringe Kosten) am wirksamsten erscheint. Dieser Auswahlprozess kann unterstützt werden durch ein Expertensystem, welches auf statistischen Prognosen zukünftiger Beschäftigungsaussichten beruht. Die Methodik ist jedoch nicht limitiert auf diesen Bereich. Sie ist immer dort anwendbar, wo es um die Auswahl eines optimalen Instruments aus einer gegebenen Menge an Instrumenten geht, und wo diese Auswahl wiederholt für verschiedene Personen in derselben Art und Weise stattfindet. Das in diesem Kapitel beschriebene Vorgehen ermöglicht es, aus Daten früherer Entscheidungen direkt Prognosen und Anweisungen für weitere gleichartige Wahlsituationen zu erstellen. Dabei werden in einem ersten Schritt mittels vergangener Daten die Effekte der Maßnahmen, z. B. Arbeitsmarktprogramme, für jede Person abhängig von ihren individuellen Charakteristika geschätzt. In einem zweiten Schritt werden daraus individuelle Prognosen entwickelt und dazu verwendet, für eine beliebige andere Person die beste Maßnahme zu finden. Die Algorithmen für diese Prognosen werden optimalerweise in eine Software verpackt und direkt mit bestehenden Datenbanksystemen verknüpft, damit die Berater schnellen und unkomplizierten Zugriff haben. 24.2 Expertensysteme zur Programmauswahl Auf statistischen Prognosen basierende Expertensysteme zur Auswahl von Arbeitsmarktprogrammen wurden in den USA und in Kanada bereits entwickelt und teilweise getestet. Das Frontline Decision Support System (FDSS) in den USA wird derzeit in zwei Staaten getestet (vgl. Eberts u.a. [2]). Es besteht einerseits aus einem Hilfsmittel, das direkt aufgrund der eingegebenen administrativen Daten geeignete offene Stellen vorschlägt, und andererseits umfasst es ein Prognose-System. Es werden auf Basis der Daten einer Person Wiederbeschäftigungswahrscheinlichkeiten berechnet, die Berechtigung zu Arbeitsmarktprogrammen überprüft und die möglichen Programme nach geschätzter Effektivität rangiert.
450
Frölich, Lechner, Steiger
Das Service and Outcome Measurement System (SOMS) in Kanada sagt ebenfalls für gegebene Charakteristika eines neu oder wieder angemeldeten Arbeitslosen die optimale Maßnahme vorher. Wegen Datenschutzproblemen wurde dieses Projekt allerdings bereits wieder abgebrochen (vgl. Colpitts 2002 [1]). Das hier vorgeschlagene Verfahren ist in großen Teilen ähnlich zu jenen Systemen. Im Folgenden wird zunächst der konzeptionelle Rahmen beschrieben, um danach aufzuzeigen, welche ökonometrischen Methoden für die Berechnung dieser Prognosen innerhalb eines derartigen Systems in der Praxis konkret angewandt werden können. Eine Anwendung im Bereich Zuweisung in Arbeitsmarktprogramme soll das Vorgehen kurz veranschaulichen. 24.3 Definition des optimalen Instruments Ein Programm sollte ein oder mehrere wohl definierte Ziele haben, beispielsweise die Rückkehr der arbeitslosen Personen in die EnA/erbstätigkeit zu fördern, eine maximale Kundenzufriedenheit zu erreichen, oder am meisten Kosten einzusparen. Die Zielvariable sei im Folgenden mit der Variable Y. bezeichnet und wäre also im Falle von Arbeitsmarktprogrammen der Erwerbstätigkeitsstatus einer Person / nach Programmteilnahme, wobei Y^ die Werte 1 (erwerbstätig) oder 0 (arbeitslos) annehmen kann. Diese Zielvariable kann aber auch kontinuierlich sein, beispielsweise das erzielte Einkommen in der nächsten Beschäftigung oder die Kundenzufriedenheit. In der Literatur zur Programm-Evaluation verwendet man den Begriff der potenziellen Ergebnisse, wie er von Rubin 1974 [9] und 1977 [10] geprägt wurde. Das potenzielle Ergebnis ist dasjenige, das sich einstellen würde, wenn für Person / ein bestimmtes Instrument ausgewählt würde: Y^ sei das Ergebnis von Person /, wenn sie an keiner Maßnahme teilnähme, Y^ wenn sie an Maßnahme 1 teilnähme, Y^ wenn sie an Maßnahme 2 teilnähme usw. Wenn insgesamt R verschiedene Maßnahmen zur Verfügung stehen, so sind T^O yl
yl
yR
die potenziellen Ergebnisse für Person /, von denen eines nach Wahl des Instruments tatsächlich realisiert wird. Eine optimale Zuteilung ist dann erfolgt, wenn genau jene Maßnahme gewählt wird, die dem besten potenziellen Ergebnis entspricht. Die potenziellen Ergebnisse für Person / sind im Voraus unbekannt. Selbst nachträglich kann nur das potenzielle Ergebnis beobachtet werden, das derjenigen Maßnahme entspricht, die für Person / tatsächlich ausgewählt wurde. Ziel ist es nun, mithilfe der EnA/erbsverläufe früherer Teilnehmer mit ähnlichen Charakteristika die erwarteten potenziellen Ergebnisse zu prognostizieren. Die erwarteten potenziellen Ergebnisse für eine Person mit Charakteristika z für alle zur Verfügung stehenden Instrumente sind £ [ 7 ^ | Z = z] , E[Y^\Z^z'\
,..., E[Y^\Z = z].
Anhand dieser Prognose-Ergebnisse könnte ein Berater nun die optimale Maßnahme für Person / als diejenige Maßnahme, welche das potenzielle Ergebnis maximiert, auswählen:
Beratung mithilfe von statistischen Prognosen
451
r (z) = argmax£'[7'^ \Z = z'\ Selbstverständlich könnten neben dem Beschäftigungsstatus auch weitere Zielvariablen hinzugenommen werden, beispielsweise das Einkommen. In diesem Falle müsste man eine Gewichtung aller Zielvariablen, z. B. mittels einer Gewichtungs- oder Nutzenfunktion u, vornehmen:
r*(z) = argmaxwf£'[7'^ \Z = z\\ re{0,..,R]
24.4 Identifikation der individuellen Prognosen Die zentrale Aufgabe eines Auswahl-Systems ist es nun, die potenziellen Ergebnisse E[Y^ \Z = zlE[Y^ \Z = zl ..., E[Y^ \Z = z] auf Basis von Daten früherer Teilnehmer zu schätzen. Bezeichne mit D^G{0,...,R} die Maßnahme an der ein ehemaliger Teilnehmer / teilgenommen hat. Aus den Daten der früheren Teilnehmer ist nun E[Y'\Z = z,D = r] aber nicht E[Y'\Z = z] identifiziert. Erfolgte die Zuteilung zu den Maßnahmen in der Vergangenheit zufällig, dann wäre
E[r \Z = z] = E[r \Z = z,D = r] In den meisten Fällen ist jedoch anzunehmen, dass die Berater auch in der Vergangenheit versuchten, Personen bestmöglich, das heißt aufgrund ihrer zukünftigen Beschäftigungsaussichten, in die Maßnahmen zuzuteilen, sodass auch die Teilnahme am Programm bereits etwas über das potenzielle Ergebnis aussagen könnte. Möchte man nun also E[Y'\Z = z] schätzen, ist es erforderlich, für alle Charakteristika X zu kontrollieren, die in der Vergangenheit sowohl die Auswahl des Instruments als auch die Zielvariable beeinflussten. Konditional auf X ist dann das potenzielle Ergebnis unabhängig von der Teilnahme an einem Programm:
rY[D\X
VrE{0,l,...7?},
Die Anwendung der nachfolgenden Methodik erfordert, dass alle diese X beobachtet sind. Es müssen also möglichst viele Informationen über eine Person vorhanden sein, damit diese konditionale Unabhängigkeitsannahme gültig ist. Diese Annahme wäre z. B. verletzt, wenn nur besonders motivierte Personen in eine Maßnahme zugeteilt wurden und man keinerlei Angaben bezüglich Motivation hat. Von diesen Personen würde man später auch bessere Chancen auf dem Arbeitsmarkt enA/arten, und somit ist Motivation ein unbeobachtetes Charakteristikum, das die Annahme der konditionalen Unabhängigkeit verletzt. Als zweite Voraussetzung, um die potenziellen Ergebnisse für alle Personen und Instrumente identifizieren zu können, muss in der Vergangenheit jedes Instrument für jede Person auswählbar gewesen sein. Jede Person muss also eine positive Auswatii\/i/a/?rsc/?e/>7//c/7/ce/Y für jedes vorhandene Programm gehabt haben:
P(D = r\X = x)>0
V r e {0,l,...7?}
452
Frölich, Lechner, Steiger
Diese Voraussetzung wäre im Bereich der Arbeitsmarktprogramme beispielsweise dann nicht gegeben, wenn nur Langzeitarbeitsiose für Beschäftigungsprogramme auswählbar gewesen wären. Die X Charakteristika müssen nicht notwendigerweise mit den Z Charakteristika übereinstimmen. Die Z Charakteristika sind diejenigen Variablen, die zur Prognose der potenziellen Ergebnisse für einen neuen Klienten venA/endet werden und somit dem Berater konkret zur Verfügung stehen müssen. Die X Charakteristika sind jene Variablen, die für die Selektionskorrektur der Daten der früheren Teilnehmer erforderlich sind. Zur Bildung der Prognosen
E[r\Z = z] ist es zunächst erforderlich, auch aufXzu konditionieren, um aus den Daten der früheren Teilnehmer die konditionalen Erwartungswerte in der Population zu identifizieren:
E[Y'\Z = z,X = x\ = E[r\Z = z,X = x,D = r] Hierbei muss beachtet werden, dass Z keine Variablen enthalten darf, die von der Teilnahme am Programm selbst beeinflusst worden sind. Dies stellt jedoch keine wesentliche Restriktion dar, da derartige Variablen für einen neuen Klienten noch gar nicht beobachtbar wären, stets vorausgesetzt, dass die Z Charakteristika für neue Klienten und ehemalige Teilnehmer exakt gleich definiert sind. Zur Bildung der individuellen Prognosen können nun die X Charakteristika herausintegriert werden:
E[Y' \Z = z]= JE[Y' \Z = z,X = x]'^iV|z=.W = JE[Y\Z = z,X = x,D = r]-dF^^z^^(x) Die große Anzahl an X Charakteristika, die üblicherweise erforderlich ist, um für Selektion zu kontrollieren, erschwert eine nichtparametrische Schätzung von E[Y\Z,X,D = r]. Wie jedoch von Rosenbaum und Rubin 1983 [8], Imbens 2000 [5] und Lechner 2001 [6] gezeigt, ist es für die Selektionskorrektur ausreichend, auf die Teilnahmewahrscheinlichkeit (auch Propensitätsscore genannt)
p'(x) = P{D = r\X = x) statt auf X zu konditionieren. Hierdurch kann oft eine deutliche Reduktion der Dimensionalität erzielt und die individuellen Prognosen können bestimmt werden mittels:
E[Y' \Z = z]= JE[Y' I Z = z,/(X)
= p].dF^.^^^^^^^(p)
= \E[Y\Z = z,p'(X) = p,D = r]-dF^.^^^^^Jp). In einem ersten Schritt müssen nun jedoch die konditionalen Teilnahmewahrscheinlichkeiten geschätzt werden.
Beratung mithilfe von statistischen Prognosen
453
24.5 Schätzung der individuellen Prognosen Die Schätzung erfolgt in drei Stufen. Zunächst werden die Teiinahmewahrscheinlichkeiten geschätzt. In einem zweiten Schritt werden die potenziellen Ergebnisse in Abhängigkeit von den Z Charakteristika und den Teilnahmewahrscheinlichkeiten geschätzt. In der dritten Stufe wird das „Herausintegrieren" der Teilnahmewahrscheinlichkeiten vorgenommen. (1) Teilnahmewahrscheinlichkeiten: Diese werden meistens mittels binärer Probit-Modelle separat für alle R + 1 Programme (inkl. Nichtteilnahme) geschätzt, wobei die Teilnehmer am jeweiligen Programm allen Anderen gegenübergestellt werden: p'(x) = P(D = r\X = x) = O(xa'), wobei 0(.) die Verteilungsfunktion der Normalverteilung bezeichnet. Auf der Basis der geschätzten Koeffizienten ä' werden dann für jede Person ihre Teilnahmewahrscheinlichkeiten pj für jedes Programm berechnet: p';=0(X^ä')
r = 0,...,R.
(2) Potenzielle Ergebnisse: Diese werden geschätzt als Funktion aller Charakteristika Z und aller Teilnahmewahrscheinlichkeiten:
E[r\Z = z,p\X)
= p\...,p\X)
= p\D = r] -
(p(z,p\.,..,p^;ß'),
wobei für (p(.) je nach Zielvariable eine anderes Modell gewählt werden kann: Für eine binäre Ergebnisvariable wie Beschäftigung kann ein Probit-Modell verwendet werden; für eine kontinuierlich gemessene Zielvariable wie Einkommen kann ein lineares Modell gewählt werden, es muss jedoch die Zensierung von unten berücksichtigt werden (das Einkommen ist positiv für Beschäftigte und 0 für Arbeitslose). Da die Arbeitslosigkeit bereits mit der binären Ergebnisvariable abgedeckt ist, werden hier für das Einkommen nur noch die positiven Ausprägungen ausgewählt, logarithmiert, und eine lineare Regression auf alle Z Variablen und Teilnahmewahrscheinlichkeiten durchgeführt. Für die Selektionskorrektur wäre es ausreichend, nur auf p'(x) zu konditionieren: Mit geschätzten Teilnahmewahrscheinlichkeiten kann es jedoch vorteilhaft sein, alle Teilnahmewahrscheinlichkeiten p^(XX...,p^(X) zu berücksichtigen, um genauer für Selektion zu kontrollieren. Mithilfe der berechneten Koeffizienten werden für jede Person ihre potenziellen Ergebnisse für alle Programme berechnet:
Y; = E[r\z^.,p\x^.\....,p\Xj.)] = cp(z^,p\x^x...,p\x^yj') (3) Ergebnisprognosen: Die bisher durchgeführten Schätzungen basierten sowohl auf den Z wie auch auf den X Charakteristika. Die Bildung der individuellen Prognosen soll jedoch nur auf den Z Charakteristika beruhen, z. B. weil die X Charakteristika für neue Klienten nicht beobachtbar sind oder nicht verwendet werden sollen oder
454
Frölich, Lechner, Steiger um die Dimension des Projektionsraums zu begrenzen. Hierzu ist es erforderlich, die X Variablen „herauszuintegrieren": E[Y' \Z = z]= \E[Y' \Z = z,p\X)
= p,D = rldF^^^^^^^__^{p\
Für eine geringe Anzahl von (diskreten) Prognosecharakteristika Z könnte die Dichte dF ,,^,,^ nichtparametrisch aus den Daten geschätzt werden. Für eine größere Zahl von (kontinuierlichen) Prognosecharakteristika wäre ein solches Verfahren sehr mühsam. Ein einfacheres Verfahren besteht darin, die in Schritt 2 geschätzten potenziellen Ergebnisse Yj auf die Z Variablen zu regressieren:
E[r\z = z] = az;r), wobei <^(.) beispielsweise ein lineares Modell und j> die geschätzten Koeffizienten dieses Modells sind. Aus den resultierenden 7? + 1 geschätzten Koeffizientenvektoren können nun die individuellen Prognosen für jeden Wert von z bestimmt werden. 24.6 Auswahl der besten Maßnahme Für jeden neuen Klienten können somit aufgrund dieser Schätzungen direkt ihre Ergebnisse für jedes Instrument prognostiziert werden. Man kann nun dasjenige Instrument auswählen, für welches das beste Ergebnis prognostiziert wird. Dabei wird jedoch nicht die Schätzgenauigkeit der Ergebnisse berücksichtigt. Wenn die Variabilität in den prognostizierten Schätzergebnissen sehr hoch ist und die Unterschiede in den Niveaus der prognostizierten Werte gering sind, so ist es praktisch zufällig, welches Instrument als das optimale aus dem Schätzverfahren hervorgeht. In diesem Fall sind entweder alle Instrumente gleichermaßen Erfolg versprechend oder die Informationsstrukturen im Datensatz sind zu gering, um zuverlässig den Erfolg verschiedener Instrumente zu differenzieren. Ist hingegen die Variabilität in den Schätzergebnissen gering, so kann das statistische System relativ zuverlässig die optimale Maßnahme für eine bestimmte Person vorhersagen. Die Berücksichtigung der Variabilität der Schätzprognosen ist wichtig, um zu wissen, wie zuverlässig die erstellte Prognose ist. Da die Prognosen des Systems häufig nicht die einzige Information sind, die in das Entscheidungskalkül des Beraters eingehen, sondern auch andere Faktoren berücksichtigt werden müssen, wie z. B. die zeitliche Verfügbarkeit des Instrumentes, hängt die Entscheidung von der Zuverlässigkeit der Prognose ab. Nur wenn diese sehr genau ist, wird sie einen sinnvollen Beitrag für die Entscheidungsfindung leisten können. Die Varianz der geschätzten prognostizierten Ergebnisse bei der Auswahl der optimalen Maßnahme kann mittels multipler Vergleichsverfahren mit der besten Alternative (MVB/Multiple Comparison with the Best) berücksichtigt werden. Ziel dieser Verfahren ist es, eine Menge von Schätzwerten in zwei Untermengen zu teilen, sodass eine der beiden Mengen die beste Alternative mit vorgegebener Wahrscheinlichkeit enthält. Intuitiv ausgedrückt, wird jene Menge von Schätzwerten ausgewählt, die nicht statistisch signifikant kleiner als der größte der Schätzwerte ist. Ist die Varianz der Schätzwerte
Beratung mithilfe von statistischen Prognosen
455
sehr klein, so kann eventuell eine einzige Alternative als die signifikant Beste identifiziert werden, ansonsten enthält diese Menge mehrere Alternativen''. Seien Y[ für r = 0,...,R die prognostizierten potenziellen Ergebnisse für Person /. Die Maßnahme mit dem höchsten Schätzwert sei /; =argmax J^'^. re{0,..,R}
Das MVB-Verfahren bestimmt nun eine Menge St der besten Maßahmen für Person /, sodass PUES^
und L^
Vr = 0,..,7?)>l-6^,
wobei r* die tatsächlich beste Maßnahme, Y[ die tatsächlichen potenziellen Ergebnisse, L^ und U^ obere und untere Schranken und a das Signifikanzniveau sind. Die Menge St enthält somit mit Wahrscheinlichkeit \-a die tatsächlich optimale Maßnahme. 24.7 Praktische Anwendung: Arbeitsmarktliche Maßnahmen in der Schweiz Um aufzuzeigen, wie das oben theoretisch beschriebene Verfahren durchgeführt werden könnte, wird es beispielhaft auf einen schweizerischen Datensatz mit ehemaligen Teilnehmern an arbeitsmarktlichen Maßnahmen angewandt^. Die Schweiz kennt eine Vielzahl an Kursen und subventionierten Beschäftigungen. Diese werden hier eingeteilt in Basis-, Persönlichkeits-, Sprach-, Computer- und berufliche Weiterbildungskurse. Subventionierte Beschäftigungen umfassen zum einen die Beschäftigungsprogramme, welche wiederum in Einzelarbeitsplätze bei der öffentlichen Verwaltung und in kollektive Arbeitswerkstättenplätze bei privaten Nichtprofit-Organisationen aufgeteilt werden können. Zum anderen gibt es den Zwischenverdienst, bei dem ein zwischenzeitliches Arbeitsverhältnis auf dem Arbeitsmarkt in einer für eine Person (insbesondere wegen des zu geringen Anspruchsgrads und/oder der zu geringen Bezahlung) eigentlich nicht zumutbaren Beschäftigung subventioniert wird. Die Daten entstammen den Auszahlungs- und Vermittlungssystemen der Arbeitslosenversicherung, die mit Daten der Alters- und Hinterlassenenversicherung (AHV) kombiniert wurden. Der Datensatz enthält Personen, die Ende Dezember 1997 arbeitslos gemeldet aber nicht langzeitarbeitslos waren, zwischen 25 und 55 Jahre alt waren, und vorher noch an keiner substantiellen arbeitsmarktlichen Maßnahme teilgenommen hatten. Die Daten der Arbeitslosenversicherung sind auf monatlicher Basis und enthalten eine Vielzahl an sozio-ökonomischen Variablen sowie Informationen über Programmteilnahme und Zahlungen. Die AHV-Daten enthalten das sozialversicherungspflichtige Ein'' 2
Eine umfassende Übersicht über multiple Vergleichsverfahren findet sich in Hsu 1996 [4]. Das hier verwendete Verfahren basiert auf Horrace und Schmidt 2000 [3]. Für eine ähnliche Studie über die Optimalität der Zuteilung von aktiven arbeitsmarktlichen Maßnahmen in der Schweiz vergleiche Lechner und Smith 2003 [7].
456
Frölich, Lechner, Steiger
kommen, das auf Monate herunter gebrochen werden kann. Hieraus kann die Arbeitsiosigkeits- und Erwerbsgeschichte für die Jahre 1988 bis 1999 rekonstruiert werden. Der Fokus dieser Studie liegt auf der Zeit zwischen Januar 1998 und Dezember 1999. Für jede Person im Datensatz wird ein erstes Programm nach dem 1. Januar 1998 definiert. Für Personen ohne Programmteilnahme wird ein hypothetisches Startdatum zugelost (vgl. Lechner 2001 [6]). Diese Nichtteilnehmer werden aus der Stichprobe eliminiert, wenn sie zum Zeitpunkt des hypothetischen Startdatums bereits wieder beschäftigt sind. Schlussendlich besteht die Stichprobe aus 28.130 Personen. Als X Charakteristika werden möglichst viele erklärende Variablen in die Gleichungen einbezogen, um die Annahme der konditionalen Unabhängigkeit zu rechtfertigen. X enthält unter anderem die Charakteristika: Alter, Geschlecht, Anzahl unterstützungspflichtiger Personen, Zivilstand, Muttersprache, Aufenthaltsstatus, Teilzeitstellen suchend, Informationen über das regionale Arbeitsvermittlungszentrum (RAV), Indikator für soziale Normen, Einschätzungen des Personalberaters über die Vermittelbarkeit, Qualifikation, Funktion und Verdienst in der letzen Beschäftigung, Arbeitslosigkeitsdauer, Teilnahme an kurzen Programmen in 1997, AHV-Informationen über Arbeitslosigkeits- und Beschäftigungsgeschichte in 1988-1997, Wirtschaftszweig und Berufsgruppe in der letzten sowie der gesuchten Beschäftigung und regionale Informationen. Die Z Variablen enthalten diejenige Information, die in einem Arbeitsamt tatsächlich in kodierter Form zur Verfügung stünde. Sie enthalten somit nicht die aus den AHV-Daten gewonnenen Informationen über die Einkommensgeschichte, weil diese dem Personalberater nicht zugänglich ist. Als Z Charakteristika werden verwendet: Alter, Geschlecht, Zivilstand, Muttersprache, Aufenthaltsstatus, Nationalität, Qualifikation, Funktion und Verdienst in der letzten Beschäftigung, Arbeitslosigkeitsdauer bei Programmbeginn, Anzahl Arbeitslosigkeitsepisoden in 1996/97, Region, Beruf und Wirtschaftszweig der letzten Beschäftigung. Als Ergebnisvariablen werden Beschäftigung und Einkommen verwendet, jeweils zu drei verschiedenen Zeitpunkten (7, 12 und 17 Monate nach Programmbeginn). Dies ergibt somit insgesamt sechs verschiedene Zielgrößen. Die geschätzten Prognosen könnten jetzt beispielsweise für jede Person auf Knopfdruck in einer Tabelle dargestellt werden, ergänzt um eine Empfehlung in Bezug auf das optimale Programm. Die nachfolgende Tabelle zeigt eine solches Beispiel und gibt die geschätzten Individualprognosen für die neun verschiedenen Programme und die sechs Zielvariablen wieder. Ein fetter Eintrag bedeutet, dass das Programm bezüglich der entsprechenden Zielvariablen nicht signifikant vom höchsten Schätzwert verschieden ist. Es gehört somit zu den empfehlenswerten Programmen (im Bezug auf die entsprechende Zielvariable). Die Maßnahmen „keine Maßnahme", „berufliche Weiterbildung" und „Zwischenverdienst" sind bezüglich aller Zielvariablen fett markiert und stellen somit (für diese Person) die empfehlenswertesten Maßnahmen dar. Von den beiden Beschäftigungsprogrammen hingegen kann nur abgeraten werden, da für keine der sechs Zielvariablen gute Ergebnisse zu erwarten wären.
Beratung mithilfe von statistischen Prognosen
457
(0 1
0)
E
i2
c "E c "Ö)
• 0) (0 N ö) C
i2
3
3
O
O (Ü
:0
a (0
a>
••u
C 3
•*^
ü S
E o ü
3
o 5
3 Q.
c CDS
0)
> c :(0
^
HM
o
1CQ Q. (0
CD ö)S
"5 N
Beschäftigt nach 7 Monaten in %
74
Q.
61
58
52
64
32
48
70
Beschäftigt nach 12 IVIonaten in %
76
66
69
71
78
40
49
66
Beschäftigt nach 17 Monaten in %
83
70
79
73
76
59
68
81
Einkommen nach 7 Monaten (CHF)
2326
1680
1269
1731
1829
1067
1307
2011
Einkommen nach 12 Monaten (CHF)
2346
1695
2127
2355
2338
1459
1545
2169
Einkommen nach 17 Monaten (CHF)
2691
1846
2658
2430
2217
1710
1954
2837
^
X
X
/
^
Empfehlung v^ empfohlen
x nicht empfohlen
Statistisch signifikant schlechtere Werte sind kursiv dargestellt.
Tab. 1: Individualprognosen für verschiedene Programme 24.8 Fazit Bei der Auswahl eines optimalen Instruments aus einer Vielzahl von gegebenen Instrumenten gibt es oft Entscheidungssituationen, die sich immer gleich wiederholen. Mithilfe umfangreicher Mikro-Datensätze, wie sie heute teilweise zur Verfügung stehen, kann diese Auswahl statistisch unterstützt werden. Mittels mikroökonometrischer Methoden wird die Wirksamkeit der Instrumente in der Vergangenheit untersucht, und die dabei gewonnenen Ergebnisse können dann zur Wirkungsprognose für die verschiedenen Instrumente in gleichen Auswahlsituationen in der Zukunft verwendet werden. Diese Prognosen dienen als unterstützende Information bei der Auswahl des optimalen Instruments. Ein möglicher Anwendungsbereich dieser statistisch unterstützten Programmauswahl sind arbeitsmarktliche Maßnahmen für stellenlose Personen: ein Arbeitsberater kann sich für eine arbeitslose Person per Knopfdruck eine individuelle Prognose seiner Beschäftigungsaussichten bei Teilnahme an verschiedenen arbeitsmarktlichen Maßnahmen auf dem Bildschirm anzeigen lassen und diejenige auswählen, der die größte Wirkung beigemessen wird. 24.9 Literatur [1]
[2]
Colpitts, T., Targeting Reemployment Services in Canada: The Service and Outcome Measurement System (SOMS) Experience, in: Eberts, R.W., O'Leary, C.J. und Wandner, A. (Hrsg.), Targeting Employment Services, Kalamazoo, Michigan, W.E. Upjohn Institute 2002, S. 283 ff. Eberts, R.W., O'Leary, C.J. und DeRango, K.J., A Frontline Decision Support System for One-Stop Centers, in: Eberts, R.W., O'Leary, C.J. und Wandner, A. (Hrsg.), Targeting Employment Services, Kalamazoo, Michigan, W.E. Upjohn Institute 2002, S. 337.
458 [3] [4] [5] [6]
[7] [8] [9] [10]
Frölich, Lechner, Steiger Horrace, W.C. und Schmidt, P., Multiple Comparisons with the Best, with Economic Applications, Journal of Applied Econometrics 15 (2000), S. 1 ff. Hsu, J.C, Multiple Comparisons: Theory and Methods, Chapmann and Hall, London 1996. Imbens, G., The Role of the Propensity Score in Estimating Dose-Response Functions, Biometrika 87 (2000), S. 706 ff. Lechner, M., Identification and Estimation of Causal Effects of Multiple Treatments under the Conditional Independence Assumption, in: Lechner, M. und Pfeiffer, F. (Hrsg.), Econometric Evaluation of Labour Market Policies, Heidelberg 2001, S. 43 ff. Lechner, M. und Smith, J., What is the Value Added by Caseworkers?, IZA Discussion Paper 728, Bonn 2003. Rosenbaum, P. und Rubin, D.B., The Central Role of the Propensity Score in Observational Studies for Causal Effects, Biometrika 70 (1983), S. 41 ff. Rubin, D.B., Estimating Causal Effects of Treatments in Randomized and Nonrandomized Studies, Journal of Educational Psychology 66 (1974), S. 688 ff. Rubin, D.B., Assignment to Treatment Group on the Basis of a Covariate, Journal of Educational Statistics 2 (1977), S. 1 ff.
25 Prognose von Softwarezuverlässigkeit, Softwareversagensfällen und Softwarefehlern von Michael Grottke 25.1 Einleitung Im Laufe der letzten Jahrzehnte hat Software nicht nur in der Form von Computerprogrammen an Bedeutung gewonnen, sondern zudem als integraler Bestandteil verschiedenster Systeme technischer und/oder kommerzieller Natur fast jeden Lebensbereich erobert. Beispiele für solche Systeme sind medizinische Geräte, Automobile, Zahlungstransaktionssysteme, etc. Diese Entwicklung hat zweifelsohne die Möglichkeiten der betroffenen Maschinen sowie die Bandbreite der mit ihrer Hilfe produzierten Güter oder angebotenen Dienstleistungen erhöht. Allerdings ist der Mensch durch den Siegeszug der Software auch in zunehmendem Maße von ihrem korrekten Verhalten abhängig geworden. Während die Unterstützung der Analyse-, Design- und Implementierungsphase der Softwareerstellung durch systematische Methoden und Werkzeuge gewisse Irrtümer von Softwareentwicklern verhindern kann, lässt sich eine völlige Programmkorrektheit praktisch nicht garantieren. Vielmehr ist immer damit zu rechnen, dass eine Software Fehler (insbesondere falsche oder fehlende Programmzeilen) aufweist, deren Aktivierung bei der Programmausführung ein Versagen zur Folge hat, also ein Softwareverhalten, welches von dem eigentlich spezifizierten abweicht. Unter Softwarezuverlässigkeit versteht man nun allgemein die Wahrscheinlichkeit dafür, dass in einer definierten Umgebung die Software innerhalb einer bestimmten Nutzungsperiode kein Versagen zeigt [3]. Bei kontinuierlich laufender Software wird die Länge der „Nutzungsperiode" in der Regel in Form der zeitlichen Dauer der Programmnutzung gemessen [40]. Hingegen ist es bei Transaktionssystemen und Ähnlichem sinnvoll, die „Nutzungsperiode" an der Anzahl der Programmläufe festzumachen [3]. Da die beobachteten Versagensfälle dynamische Phänomene sind, deren Frequenz z. B. davon abhängt, wie häufig fehlerhafte Codestellen aufgerufen werden, bezieht sich ein geschätzter Zuveriässigkeitswert immer auf eine bestimmte Art der Programmnutzung. Das betont die oben genannte Zuveriässigkeitsdefinition durch den expliziten Hinweis auf die „definierte Umgebung". Dieses Kapitel bietet einen Überblick über Modelle zur Prognose von Softwarezuverlässigkeit, Softwareversagensfällen und Softwarefehlern. Die in Abschnitt 25.2 behandelten Modelle nutzen den Versagensverlauf während der Testphase zur Prognose der Zuverlässigkeit im Nutzungsbetrieb oder zur Prognose der bis zum Testende zu erwartenden Versagensfälle. Abschnitt 25.3 enthält knappe Darstellungen einiger weiterer Modellklassen. In Abschnitt 25.3.1 sind Modelle zusammengefasst, die basierend auf ein oder zwei Test-Stichproben die Zuverlässigkeit der Software prognostizieren oder ihren Fehlergehalt abschätzen. Demgegenüber benötigen die in Abschnitt 25.3.2 beschriebenen Modelle keine Beobachtungen aus der Testphase; sie versuchen, aufgrund von Informationen über das Softwareprodukt und seine Erstellung die Anzahl der Softwarefehler vorherzusagen. Dass in dem vorgegebenen Rahmen die Fragestellungen nur angerissen und die Methoden nur skizziert werden können, liegt auf der Hand. Der interessierte Leser sei deshalb auf weitere Überblicksartikel [3], [4], [12], [16], [19],
460
Grottke
[28], [36], [46], [48], [55], [56] sowie auf Bücher [9], [32], [39], [41], [44], [49], [54] zum Themenkomplex verwiesen. 25.2 Softwarezuverlässigkeitswachstumsmodelle Die in diesem Abschnitt vorgestellten Modelle betrachten allesamt die Entwicklung der Anzahl der im Laufe der Integrations- oder Systemtestphase der Softwareentwicklung beobachteten Versagensfälle. Während des Testens wird das Versagen der Software zum Anlass genommen, die ursächlichen Fehler im Code aufzuspüren und zu verbessern, sodass die Zuverlässigkeit der Software sich im Zeitablauf verändert und dabei tendenziell zunimmt. Da die hier beschriebenen Modelle versuchen, diesen Effekt abzubilden, werden sie als „Softwarezuverlässigkeitswachstumsmodelle" (kurz: SZWM) bezeichnet. Zur Anwendung (d. h. Schätzung) der Modelle benötigt man entweder die Zeitpunkte des Versagens der Software oder die Anzahl der Versagensfälle innerhalb von Zeitintervallen, welche den gesamten Beobachtungszeitraum partitionieren. Hierbei kann das verwendete Zeitmaß im Prinzip auch die Kalenderzeit sein. Allerdings gehen die meisten der im Folgenden diskutierten Modelle davon aus, dass die Intensität der Programmnutzung im Zeitablauf konstant ist. Deshalb sollte ein Maß zugrunde gelegt werden, für welches dies in etwa zutrifft, z. B. die von den Testern zur Durchführung der Testfälle benötigte Zeit oder die CPU-Ausführungszeit. Seien Tx
Die Irrtümer seitens der Softwareentwickler, die zur Einbringung von Fehlern in das Programm führen, sind nicht mit Sicherheit vorhersehbar. Deshalb sind die Positionen der Fehler in der Software unbekannt.
2.
Selbst wenn ein bestimmtes Nutzungsprofil mit vorgegebenen Frequenzen für die Aufrufe der einzelnen Funktionsbereiche zugrunde gelegt wird, ist die exakte Sequenz der Nutzereingaben nicht von vornherein festgelegt.
Die Versagensfälle, die sich aufgrund der Aktivierung der Fehler durch die Programmausführung ergeben, können deshalb mithilfe zufälliger Punktprozesse modelliert werden. Bezeichnet man mit M{t) die Anzahl der Versagensfälle im Intervall (0, /], so handelt es sich bei {M{t\ / > 0 } um einen mit dem Punktprozess verbundenen zufälligen Zählprozess. Ein solcher zeichnet sich dadurch aus, dass er nur Null oder ganzzahlige positive Werte annehmen kann und im Zeitablauf nicht abnehmend ist. Verschiedene Zählprozesse unterscheiden sich darin, wie der Zuwachs in der Zahl der beobachteten Ereignisse erfolgen kann. Stellt man sich die Wertausprägungen 0, 1, 2,... als mögliche Zustände des Prozesses vor, so läuft die Frage darauf hinaus, wie die Übergangsraten zwischen diesen Zuständen spezifiziert sind. Eine große Gruppe von Zählprozessen geht davon aus, dass nicht mehr als ein Ereignis gleichzeitig eintreten kann. Somit ist von einem beliebigen Zustand y direkt nur der
Prognose von Softwarezuverlässigkeit
461
Zustand y+l zu erreichen. Solange das Zeitintervall (/, t+At] kurz ist, ist es plausibel anzunehmen, dass die Wahrscheinlichkeit für den Wechsel von Zustand y in den Zustand y+1 proportional zur Intervalllänge A^ ist. Im einfachsten Fall ergibt sich die Übergangswahrscheinlichkeit somit als Produkt von A^ mit einer Konstanten r, die als Übergangsrate bezeichnet wird. Gaudoin [14], S. 37 ff., und später unabhängig von ihm Chen und Singpurwalla [10] haben gezeigt, dass sich viele SZWM als Spezialfälle des so genannten selbstanregenden Punktprozesses {self-exciting point process) darstellen lassen. In diesem komplizierteren Punktprozess ist die Übergangsrate kein konstanter Wert, sondern sie kann sowohl vom aktuellen Zeitpunkt t als auch von der gesamten Vorgeschichte des Zählprozesses, Vt= {M(0, Tu 72,..., TM(t)}, abhängen. Formal ist die Übergangsrate aus dem Zustandy als Grenzwert definiert (vgl. [14], S. 39, und [50], S. 289): P(M(t + At)-M(t) r.(t,V,) = \im-
= l\V,={M(t)
=
j\T,J,,...,T.})
Die Annahmen des selbstanregenden Punktprozesses im Kontext eines SZWM können informell folgendermaßen beschrieben werden (vgl. [19]): 1.
Zum Zeitpunkt / = 0 ist noch kein Versagensfall eingetreten, d. h. M(0) = 0.
2.
Wenn die Software bis zum Zeitpunkt t bereits y-mal versagt hat, dann entspricht die Wahrscheinlichkeit für genau ein Softwareversagen in dem Zeitintervall (t, t-^At] annähernd dem Produkt aus dessen Länge A^ und der Übergangsrate rj{t,Vt).
3.
Die Wahrscheinlichkeit für das Auftreten von mehr als einem Versagensfall in dem Intervall (/, /+A/] geht mit A/->0 schneller gegen Null als die Wahrscheinlichkeit für das Auftreten von genau einem Versagensfall. Praktisch bedeutet dies, dass in einem sehr kurzen Zeitintervall nicht mehr als ein Versagensfall beobachtet werden kann.
Die Struktur dieses allgemeinen selbstanregenden Punktprozesses ist in Abbildung 1 dargestellt. Hierbei entsprechen die Kreise den Zuständen des Zählprozesses M(t), von denen jeweils nur ein Übergang in den nächsthöheren Zustand möglich ist. Die Grafik deutet an, dass sich in manchen Modellen maximal uo Versagensfälle einstellen können und somit die Zustände i/o+l, wo+2,... nicht existieren. Dem Tester gegenüber äußert sich freilich immer nur diejenige Übergangsrate, die mit dem jeweils aktuellen Zustand verbunden ist. Die Versagensrate der Software, bezeichnet als Programmhazardrate z{t,Vt), stellt sich im Zeitablauf also als Aneinanderreihung der Übergangsraten der unterschiedlichen Zustände dar. Hazardrate
r,(t,V,)
r,(t,V,)
r^^_,{UV,)
r^^_,(t,V,)
Abb. 1: Struktur der Anzahl der Versagensfälle als selbstanregender Punktprozess
462
Grottke
Hierbei kommt zum Zeitpunkt / die Versagensrate des gegenwärtigen Zustands M{i) zum Tragen: z{t,V,) = r^,,{t^V,).
(1)
Aufgrund ihres stückweisen Aufbaus wird die Programmhazardrate mitunter auch „verkettete Versagensrate" [10] genannt. Es ist zu beachten, dass die Programmhazardrate zum Zeitpunkt t eine Funktion der Vorgeschichte bis zu diesem Zeitpunkt, F^, ist. Falls diese Vorgeschichte (noch) nicht beobachtet wurde, ist die Programmhazardrate aus zwei Gründen potenziell stochastisch: 1.
Aus welcher der Übergangsraten r/^^Fi) die Programmhazardrate zum Zeitpunkt t tatsächlich besteht, hängt vom Zufall ab, nämlich von der Anzahl der bis dahin aufgetretenen Versagensfälle. Nur dann, wenn die Übergangsraten aller Zustände identisch sind, ist dieser Punkt ohne Belang.
2.
Der Wert einer jeden Übergangsrate rj{t,V^ kann wiederum durch die Prozessvorgeschichte bestimmt sein, die zufällig ist, solange ihre Realisation nicht beobachtet wurde. Jede einzelne Übergangsrate ist nur dann deterministisch, wenn sie lediglich eine Funktion der Zeit t ist.
Im Folgenden werden wir deshalb die Bezeichnungen rj{t,Vt\V^ und z{t,Vt\V^ verwenden, falls diejenige deterministische Übergangs- bzw. Programmhazardrate gemeint ist, die sich unter Kenntnis einer ganz bestimmten Prozessvorgeschichte Vt = {M{t) = m{t\ Tx = tu 72 = h, •., TM(t) = tm(t)} bis zum Zeitpunkt t ergibt. Hierbei stellen die Kleinbuchstaben die Realisationen der entsprechenden Zufallsvariablen dar. Mit der Spezifikation der Übergangsraten rj{t,Vi) bzw. der Programmhazardrate z{t,V) legt ein SZWM indirekt zugleich weitere Größen fest, z. B. die so genannte Mittelwertfunktion |LL(/) = E{M{t)), welche die erwartete Anzahl an Versagensfällen bis zum Zeitpunkt t angibt, sowie deren Ableitung nach /, die als Versagensintensität X{t) bezeichnet wird. Während für |LI(/) kein allgemeingültiger Zusammenhang mit der Programmhazardrate formuliert werden kann, ist dies für die Versagensintensität möglich. Diese entspricht jeweils der Programmhazardrate, die ohne Kenntnis der Prozessvorgeschichte Vt zum Zeitpunkt t erwartet wird, X{t) = E{z{t,V,)).
(2)
Hängt die Programmhazardrate ohnehin nicht von Vt, sondern nur von der Zeit / ab, so ist sie mit der Versagensintensität identisch. Die grafische Darstellung von Mittelwertfunktion und Versagensintensität vermittelt einen guten Eindruck davon, wie sich aufgrund der Modellannahmen die Versagensauftritte erwartungsgemäß über die Beobachtungszeit verteilen. Falls man davon ausgehen kann, dass sich die Programmhazardrate weiter wie vom Modell spezifiziert entwickeln wird, so lässt sich mit ihrer Hilfe auch die zukünftige Zuverlässigkeit der Software bestimmen. Bedingt auf die beobachtete Vorgeschichte Vt beträgt die Wahrscheinlichkeit für kein Versagen im Zeitintervall {t, /+A/]
Prognose von Softwarezuverlässigkeit
463
Die im Folgenden dargestellten SZWM sind alle Spezialfälle des selbstanregenden Punktprozesses. Ihre Gruppierung erfolgt unter dem Gesichtspunkt, welche Teile der Vorgeschichte Vt Einfluss auf die Programmhazardrate haben. 25.2.1 Markovprozess-Modelle Die während des Testens aufgetretenen Versagensfälle geben den Anstoß zur Beseitigung der diese verursachenden Fehler. Eine idealisierte Modellierung des Testprozesses geht davon aus, dass jede Fehlerkorrektur unmittelbar nach dem beobachteten Versagen erfolgt und erst im Anschluss daran die Testausführung und die Zeitnahme fortgesetzt werden. (Obwohl dies in den allerwenigsten Fällen der Realität entspricht, kann man sich dieser modellhaften Situation annähern, indem man für jeden Fehler nur das erste von ihm bewirkte Versagen berücksichtigt und somit im weiteren Testverlauf so tut, als ob der Fehler nicht mehr im Code vorhanden wäre.) Unter diesen Voraussetzungen ist es plausibel anzunehmen, dass die Versagensrate eines jeden Zustands von eben diesem Zustand selbst abhängt, da auf jeden Versagenseintritt eine sofortige Änderung des Fehlergehalts der Software folgt. Bei den in diesem Abschnitt besprochenen Modellen ist der aktuelle Prozesszustand M(t) die einzige Information der Prozessvorgeschichte Vu die Einfluss auf die Übergangsraten hat. Es handelt sich deshalb um zeitstetige Markovprozess-Modelle. (Mit zeitdiskreten Markovprozess-Modellen befasst sich Kapitel 16 dieses Buches.) Manche der Modelle gehen zudem davon aus, dass die Übergangsraten auch von der momentanen Beobachtungszeit / selbst (die nicht Teil der Prozessvorgeschichte ist) abhängen. Eine besondere Unterklasse bilden die Binomialmodelle (s. Musa und andere [41], Kapitel 10.3 und 11.1.1, sowie Shantikumar [47]). Diese Modelle nehmen an, dass sich zu Testbeginn eine bestimmte Zahl von Fehlern, wo, in der Software befindet. Zudem unterstellen sie, dass in Bezug auf die Tendenz, ein Versagen zu verursachen, alle Softwarefehler zu jedem Zeitpunkt im Durchschnitt gleich gefährlich sind. (Wie hier beziehen wir im Folgenden die „Gefährlichkeit" eine Fehlers einzig auf seine Äußerungsrate und nicht auf den im Falle seiner Aktivierung verursachten Schaden.) Jeder Fehler weist also die gleiche Hazardrate Za(t) auf, die zwar von der Zeit, nicht aber von der Prozessvorgeschichte abhängen kann. Somit ist für jeden einzelnen Fehler die Wahrscheinlichkeit dafür, zum Zeitpunkt t oder früher zu einem Versagen geführt zu haben, identisch
7^,(/) = l-exp(-£'z,(x)ÄJ. Da die Binomialmodelle zudem davon ausgehen, dass die Fehlerkorrektur perfekt erfolgt, ergibt sich die Programmhazardrate zu jedem Zeitpunkt als Produkt der Anzahl der noch verbliebenen Fehler, uo-M(t), mit dem Beitrag eines einzelnen Fehlers, Za(t). Sie hängt deshalb von der Prozessvorgeschichte Vt ausschließlich überM(0 ab:
z(/,F,) = z(t,M(t)) = r^,,,(tM(t)) = (u, -M(t))z^(t) .
(4)
Da nach dem wo-ten Versagen auch der letzte Fehler behoben wird, beträgt die Übergangsrate aus dem Zustand uo gleich Null. Deshalb kann der Zählprozess M(t) die Zustände wo+1,... nicht einnehmen.
464
Grottke
Auch die Mittelwertfunktion lässt sich für die Binomialmodelle in intuitiv eingängiger Weise darstellen. Sie ist die Wahrscheinlichkeit eines jeden Fehlers, bereits ein Versagen verursacht zu haben, multipliziert mit der Anzahl der ursprünglichen Softwarefehler, 111(0 = ^0^,(0 = ^0 1 - e x p j - j
z^(x)dx\
(5)
Wurde also z. B. zu einem bestimmten Zeitpunkt jeder Fehler mit 50-prozentiger Wahrscheinlichkeit entdeckt, so kann man enA/arten, dass dies im Schnitt tatsächlich bei der Hälfte der ursprünglichen Fehler eingetreten ist. Jelinski-Moranda-Modell Das einfachste Binomialmodell wurde 1972 von Jelinski und Moranda [22] vorgeschlagen - als eines der ersten SZWM überhaupt. Es geht nicht nur davon aus, dass alle Fehler zu jedem Zeitpunkt gleich gefährlich sind, sondern unterstellt zudem eine konstante fehlerbezogene Hazardrate Za(t) von (j). Aus der für Binomialmodelle allgemein geltenden Gleichung (4) folgt deshalb: z(t,V,) = z(t,M(t)) = r^,MM{t))
= (i/o -M(0)(t).
(6)
Unter steter Kenntnis der Prozessvorgeschichte Fi nimmt die Programmhazardrate damit einen treppenförmigen Verlauf an: Sofort nach einem Versagensfall sinkt sie exakt um den Betrag (j) (die Hazardrate des soeben entdeckten und korrigierten Fehlers) und ist dann bis zum nächsten Versagen ein konstanter Wert. Im linken Teil von Abbildung 2 ist diese typische Entwicklung von z(t,Vt \ V^ dargestellt. Für die Mittelwertfunktion ergibt sich aus Gleichung (5) exp 1 - J (j) Ä 1 = I/o [l - exp(-(t)/)].
|U(0 = Wo
"i
-©-
c o
:ä^
:^ -e^ 7 ^N ^ CD (0
•p CO N CO JSZ
E F CO
CD O
Q-
(7)
^c D ^ a? ^ 0) i
1
-e-
'
CsJ
•
o ::3
1
-e-
1
co
1
c<
1 1
-e-
1
^o
1
'S 'ä) c
0)
"c CO c
3^
0 O) CO
1
1
1
U
t2
^3
1
u
>
Abb. 2: Typische Entwicklung von Programmhazardrate, Versagensintensität und Mittelwertfunktion gemäß dem Jelinski-Moranda-Modell
Prognose von Softwarezuverlässigkeit
465
Da sich dieser Ausdruck mit wachsendem / immer mehr an u^ annähert, ist aufgrund des Modells zu erwarten, dass nach einer ausreichenden Testdauer alle Softwarefehler gefunden und behoben sein werden. Eine für das Jelinski-Moranda-Modell typische Mittelwertfunktion und ihre Ableitung, die Versagensintensität
zeigt das rechte Diagramm von Abbildung 2. Die Grafik macht noch einmal deutlich, dass die Versagensintensität als eine von der konkreten Prozessvorgeschichte unbeeinflusste erwartete Programmhazardrate eine stetige Funktion der Zeit ist, die kontinuierlich abnimmt. Wurde die Software bis zum Zeitpunkt t getestet, wobei sie m(0-mal versagte, so beträgt ihre Zuverlässigkeit im Intervall (/, /+A/] unter Anwendung von Gleichung (3) R(At \t,V^) = exp|-|'^^'z(x,F; | V^)dx\ = Gxp(-(uQ-m(t))^At)
.
Offensichtlich ist der Zuverlässigkeitswert (als Wahrscheinlichkeit einer versagensfreien Programmnutzung) um so geringer, je mehr Fehler sich noch in der Software befinden, je größer die Hazardrate eines einzelnen Fehlers ist und je länger die Zeitspanne At ist, in der die Software verwendet wird. Um für ein konkretes Softwareprodukt die enA/artete Anzahl von Versagensfällen oder die Zuverlässigkeit prognostizieren zu können, müssen die beiden Parameter uo und ^ geschätzt werden. Die Anwendung der Maximum-Likelihood-Methode führt zu einem System aus zwei nichtlinearen Gleichungen [12], die leicht simultan gelöst werden können. Allerdings hat sich gezeigt, dass die so gewonnenen Schätzer unschöne Eigenschaften besitzen [13], [31]. Littlewood und Sofer entwickeln deshalb eine BayesErweiterung des Jelinski-Moranda-Modells, deren Prognosequalität allerdings nur wenig besser ist (s. [1]). Dies spricht dafür, dass die Probleme nicht nur vom Schätzverfahren, sondern auch von den simplen Modellannahmen selbst verursacht werden. Insbesondere die beiden folgenden Einwände werden oft erhoben: 1.
Es ist unrealistisch anzunehmen, dass alle Fehler die gleiche Hazardrate besitzen. Tatsächlich ist es plausibler davon auszugehen, dass diejenigen Fehler, die früh im Test ein Versagen verursachen, im Hinblick auf ihre Äußerungsrate auch gefährlicher waren. Deshalb sollten die Sprünge, welche die Programmhazardrate nach den Versagensfällen macht, im Zeitablauf tendenziell abnehmen.
2.
Obwohl nach jedem Versagensfall der Versuch unternommen wird, den für ihn kausalen Fehler zu korrigieren, gibt es in Wirklichkeit keine Gewähr dafür, dass die Bereinigung gelingt und keine neuen Fehler in die Software eingebracht werden. Deshalb könnte sich nach einem Versagenseintritt die Programmqualität sogar verschlechtern. Ein SZWM sollte diese Möglichkeit zulassen.
Viele der komplexeren Modelle entstanden als Antwort auf diese Kritikpunkte.
466
Grottke
Moranda-Modell So berücksichtigt z. B. Moranda [38] in seinem so genannten „geometrischen Modell" den ersten Einwand, indem er unterstellt, dass die Programmhazardrate nach jedem Softwareversagen auf das Mache des vorherigen Wertes sinkt, wobei k zwischen Null und Eins liegt. Zu Testbeginn beträgt die Programmhazardrate D. Es gilt also: z(t,V,) = z(t,M(t)) = r^^,^{tM{t)) = k.r^(,).,aM(0-1)
= Dk""^'^.
Wie die typische Entwicklung der Programmhazardrate in Abhängigkeit von der Vorgeschichte in der linken Grafik von Abbildung 3 zeigt, nimmt unter diesen Annahmen der Umfang der Reduzierung der Programmhazardrate mit jeder Fehlerkorrektur ab. Die Ermittlung von Mittelwertfunktion und Versagensintensität gestaltet sich für dieses Modell schwierig. Musa und andere [41], S. 572, leiten die Näherungen |Ll(0 =
1
-In 1 - —ln(yS:)/
ln(yi:)
und
X{t)«
D k-Dln(k)t
her. Die exakten aber unhandlichen Ausdrücke, deren Werte sich für bestimmte Wertkombinationen für D und k deutlich von den Approximationen unterscheiden können, werden von Boland und Singh [5] angegeben. Auf der rechten Seite von Abbildung 3 sind typische Verläufe der angenäherten Mittelwertfunktion und Versagensintensität angetragen. Im Vergleich mit dem Jelinski-Moranda-Modell wird deutlich, dass die Mittelwertfunktion im Zeitablauf nicht gegen einen festen Wert strebt, sondern die enA/artete Anzahl der Versagensfälle beliebig groß werden kann, wenn die Testphase entsprechend lange dauert. Während es unplausibel erscheint, eine unendliche Anzahl von ursprünglichen Softwarefehlern anzunehmen, liegt eine mögliche Interpretation dieser Mittelwertfunktion darin, dass die verminderte Wirkung der Korrekturen auf die Programmhazardrate nicht nur durch die geringere Gefährlichkeit der später entdeckten Fehler verursacht wird. Vielmehr werden zudem neue Fehler in die Software eingebracht, was in diesem Modell jedoch in keinem Fall zu einem Anwachsen der Programmhazardrate führt.
Q H
1 I I I I I
O
c
^J • •^
- \
Q
j
Q I
2
^ —I Q \
Q.
> CD
Abb. 3: Typische Entwicklung von Programmhazardrate, approximierter Versagensintensität und approximierter Mittelwertfunktion gemäß dem Moranda-Modell
Prognose von Softwarezuverlässigkeit
467
Nachdem bis zum Zeitpunkt / insgesamt m{t) Versagensfälle beobachtet wurden, errechnet sich die Zuverlässigkeit des Programms gemäß Gleichung (3) als R{M \ty^) = exp(-^'^'^'zixy^ I V^)dx\ = exp(-Z)r^'^A^) . Auch im Moranda-Modell resultiert die Parameterschätzung nach der Maximum-Likelihood-Methode in einem System aus zwei gemeinsam zu lösenden Gleichungen [12]. Littlewood'Modell Der nachlassende Effekt jeder weiteren Fehlerkorrektur auf die Programmhazardrate lässt sich auch im Rahmen eines Binomialmodells darstellen. An das Jelinski-MorandaModell anknüpfend geht Littlewood [29] zwar davon aus, dass jeder Fehler eine über die Zeit hinweg konstante Hazardrate (j) besitzt. Diese hat jedoch nicht für alle Fehler den gleichen fixen Wert. Stattdessen handelt es sich bei den Hazardraten der verschiedenen Fehler um Zufallszüge aus einer Gamma(a,ß)-Verteilung. Für die Wahrscheinlichkeit, dass ein bestimmter Fehler bis zum Zeitpunkt t noch kein Versagen ausgelöst hat, folgt aus diesen Annahmen die Verteilungsfunktion einer Paretoverteilung, ^.(0 = 1
ßT ß+t
(8)
deren Hazardrate
^AO-^^
(9)
beträgt. Diese im Zeitablauf abnehmende Hazardrate scheint im Widerspruch zu der postulierten konstanten Hazardrate cj) zu stehen. Sie erklärt sich dadurch, dass ein Fehler mit hoher konstanter Hazardrate erwartungsgemäß früher zu einem Versagen führt. Im Umkehrschluss ist die Gefährlichkeit eines Fehlers tendenziell um so geringer, je länger er bereits unentdeckt geblieben ist. Genau dies spiegelt sich in (9) wider. Da es sich bei dem Littlewood-Modell um ein Binomialmodell handelt, ist die Programmhazardrate zum Zeitpunkt / das Produkt aus der Anzahl der noch verbliebenen Fehler und der augenblicklichen fehlerbezogenen Hazardrate,
z(t,v,) = z{tM{t)) = /;,(,)(/,M(0) = K-M(OK(0 = {u,-M{t))j-^. Die Darstellung einer typischen Entwicklung der Programmhazardrate in Abbildung 4 zeigt, dass diese anders als bei den bisher vorgestellten Modellen sich nicht nur zu den Versagens- und Fehlerkorrekturzeitpunkten sprunghaft vermindert, sondern zudem zwischen ihnen kontinuierlich absinkt. Natürlich ist diese Eigenschaft eine Folge der fehlerbezogenen Hazardrate; die Interpretation fällt denn auch analog aus: Je länger die Software bereits getestet wurde, desto mehr unterstützt dies die subjektive Einschätzung, dass die Gefährlichkeit der noch nicht behobenen Fehler gering und die Programmqualität somit hoch ist.
468
Grottke
(D
^ O
QI
>
Abb. 4: Typische Entwicklung von erwarteter Programmhazardrate, Versagensintensität und Mittelwertfunktion gemäß dem Littlewood-Modell Die sich aus der für Binomialmodelle geltenden Gleichung (5) in Verbindung mit der Verteilungsfunktion (8) ergebende Mittelwertfunktion [i(t) = UQF^(t) = u,
1-
'i'
ß+/
und die mit ihr verbundene Versagensintensität xa
ß X{t) = u^- a ß + /l^ß + /
sind im rechten Teil von Abbildung 4 angetragen. Waren zum Zeitpunkt / bereits m(t) Versagensfälle aufgetreten, beträgt die Zuverlässigkeit im Intervall (t, t-\-At] dem Littlewood-Modell gemäß ß+/ \ R(At \t,V^) = exp(- f^^^'z(x,V^ \ V,)dx\ = ß + / + A^
(u^^-m(t))a
Die Anwendung von Gleichung (3) impliziert hierbei die Erwartung, dass sich die Programmhazardrate in der Zukunft bis zu einem Versagenseintritt gemäß der Übergangsrate des aktuellen Zustands m(t) verändern und somit kontinuierlich absinken wird. Diese Annahme ist selbst dann vernünftig, wenn die Prognose am Ende der Testphase erfolgt und sich auf die Nutzungsphase bezieht, in der typischerweise kaum Verbesserungen an der Software vorgenommen werden; denn die stetige Verkleinerung der Übergangsrate ist in diesem Modell - wie gezeigt - nur subjektiv begründet und nicht durch eine enA/artete Fehlerkorrektur bedingt. Die drei Parameter des Littlewood-Modells (wo, a und ß) können wiederum mittels der Maximum-Likelihood-Methode geschätzt werden [29].
Prognose von Softwarezuverlässigkeit
469
25.2.2 Ein Semi-Markovprozess-Modell: Littlewood-Verrall-Modell Bei den im letzten Abschnitt vorgestellten Modellen hängen die einzelnen Übergangsraten rj(t,Vt) ausschließlich vom jeweiligen Zustand M{t) und ggf. vom aktuellen Zeitpunkt t ab, weshalb sie zu den Markovprozess-Modellen zählen. Es ist jedoch durchaus denkbar, dass weitere Teile der Prozessvorgeschichte Vt die Übergangsraten beeinflussen, z. B. der Zeitpunkt des letzten Versagens, TM(ty In einem Semi-Markovprozess-Modell sind die Übergangsraten Funktionen der Zeitspanne seit der letzten Versagensbeobachtung, der Differenz t-TM(t). (lo wird hierbei gleich Null gesetzt und ist kein Versagenszeitpunkt, sondern der Testbeginn.) Der Name des Modells rührt daher, dass das künftige Verhalten des Zählprozesses zur Zeit To = 0 und zu den Versagenszeitpunkten Ti, T2, ... lediglich vom Zustand M(t) bestimmt wird, so wie dies in einem Markovprozess-Modell der Fall ist. Das bedeutendste SZWM aus der Klasse der Semi-Markovprozess-Modelle wurde bereits 1973 von Littlewood und Verrall [30] entwickelt. Die beiden Autoren gehen davon aus, dass die Übergangsrate aus demy-ten Zustand konstant ^j beträgt. Allerdings ist (^j kein bekannter, deterministischer Wert. Vielmehr handelt es sich um die Realisation einer Zufallsvariablen Oy, die einer Gammaverteilung mit den Parametern a und \\f(j) folgt. Da der Parameter \\f(j) eine Funktion des Zustandsy ist, beeinflusst dieser die Verteilung der Übergangsrate. Hierbei wird die Funktion \\j(j) so gewählt, dass für jedes beliebige x gilt:
P(^j<x)>P(Oj_^<x).
(10)
Unabhängig von x ist es also immer wahrscheinlicher, dass Oy diesen Wert unterschreitet, als dass dies auf die Übergangsrate aus dem vorherigen Zustand, Oy.i, zutrifft. In einem ganz spezifischen Sinne verbessert sich somit die Softwarequalität erwartungsgemäß nach jeder Fehlerkorrektur. Man kann zeigen, dass die Gültigkeit von Gleichung (10) dann gewährleistet ist, wenn \\f(j) eine streng monoton steigende Funktion von 7 ist. Im Folgenden werden wir diejenige Funktion betrachten, die in der Diskussion und Anwendung des Littlewood-Verrall-Modells die größte Aufmerksamkeit erfahren hat, \\f(j) = ßo + ßi (/'+l). Ähnlich wie im Littlewood-Modell für die fehlerbezogene Hazardrate ergibt sich hier für die Übergangsrate eines jeden Zustands ein Ausdruck, der im Zeitablauf absinkt,
a r (/,K) = rXtJJd = , ' ' ' ' ßo+ß,(7>i)+(/-7;)' wobei jeweils die Zeitspanne seit dem Betreten des aktuellen Zustands, / - 7], von Bedeutung ist. Auch die Erklärung dieser Eigenschaft ist analog zu derjenigen, die uns aus dem Littlewood-Modell bekannt ist: Je mehr Zeit bereits seit dem letzten beobachteten Versagen verstrichen ist, desto plausibler ist es, dass die augenblicklich geltende Übergangsrate einen niedrigen Wert besitzt. Die Programmhazardrate ist aus solchen kontinuierlich fallenden Übergangsraten stückweise zusammengesetzt:
ßo + ßj(M(/)+i)+(/-r^(,))
470
Grottke
Der im linken Diagramm der Abbildung 5 dargestellte beispielhafte Verlauf lässt allerdings ein Phänomen erkennen, welches in keinem der bislang diskutierten Modelle präsent war: Unter bestimmten Umständen kann die Programmhazardrate direkt nach einem Versagensfall höher sein als kurz zuvor. Wie Gleichung (11) zeigt, ist dies mathematisch gesehen nach dem y-ten Versagen genau dann der Fall, wenn die Zeitspanne seit dem ( / - l)-ten Versagen so lange war, dass tj-tj.x größer ist als ßi. Das durch das fehlerhafte Verhalten der Software zerstörte Vertrauen in deren Zuverlässigkeit überwiegt dann die durch die Fehlerkorrektur erwartete Verbesserung. Mitunter wird diese Modelleigenschaft auch dahingehend interpretiert, dass das LittlewoodVerrall-Modell die Möglichkeit zusätzlicher im Rahmen einer Korrekturmaßnahme eingebrachter Fehler berücksichtigt und somit auf den zweiten wichtigen Einwand gegen das Jelinski-Moranda-Modell eingeht (so z. B. von Gaudoin [14], S. 62 f.). Mittelwertfunktion und Versagensintensität lassen sich für dieses Modell wiederum nicht so einfach herleiten wie für die Binomialmodelle. Musa und andere [41], S. 295 f., ermitteln die Näherungen
^^W«j-(Vßo+2aßi/-ßo)
und
X(0«
a
Vßo+2aßi/
Die approximierte Mittelwertfunktion und ihr typischer Verlauf in Abbildung 5 zeigen, dass bei einer unendlich langen Testdauer auch unendlich viele Versagensfälle zu erwarten sind. Auch deshalb ist das Modell potenziell für Situationen geeignet, in denen bei der Fehlerverbesserung neue Fehler entstehen. Wurde die Software bis zum Zeitpunkt t getestet, wobei der letzte der m{t) beobachteten Versagensfälle zum Zeitpunkt tm{t) aufgetreten war, dann beträgt unter Anwendung von Gleichung (3) die Zuverlässigkeit im Intervall {t, t+^t\
R(At I t,V,) = exp(- j"'^(x,F, | FJ^]:
ßo+ß,(m(0 + l) + / - C (0
ßo+ßl(^7^(o+l)+/-C(o+^^
r^
cS 0
N
r-
0
cR
^
Abb. 5: Typische Entwicklung von erwarteter Programmhazardrate, approximierter Versagensintensität und approximierter Mittelwertfunktion gemäß dem Littlewood-Verrall-Modell
Prognose von Softwarezuverlässigkeit
471
Littlewood und Verrall [30] berücksichtigen die Unsicherheit bzgl. des Parameters a, indem sie für ihn eine so genannte uninformative a priori Verteilung unterstellen. Die Parameter der Funktion \\j(j) maximieren sie dagegen durch Optimierung einer Metrik, welche die Güte der Anpassung misst. Diesem hybriden Vorgehen stellen Mazzuchi und Soyer [37] ein geschlossenes Bayes-Verfahren gegenüber, welches für jeden der drei Modellparameter eine a priori Verteilung spezifiziert. 25.2.3 Nichthomogene Poissonprozess-Modelle Im Vergleich zu den in Abschnitt 25.2.1 besprochenen Modellen werden im LittlewoodVerrall-Modell die Übergangsraten von einer zusätzlichen Information beeinflusst, nämlich dem Zeitpunkt des letzten Zustandswechsels. Demgegenüber hängen die Übergangsraten bei den nun vorgestellten nichthomogenen Poissonprozess-Modellen (kurz: NHPP-Modellen) überhaupt nicht von der Vorgeschichte ab; sie sind also lediglich Funktionen der Zeit /, r/O- Da noch nicht einmal der aktuelle Zustand selbst einen Einfluss ausübt, müssen die einzelnen Übergangsraten r/O zudem identisch sein. Die Programmhazardrate ergibt sich durch Aneinanderreihung von Teilstücken der Übergangsraten, s. Gleichung (1). Wenn diese Übergangsraten sich wie hier aber gar nicht unterscheiden, dann ist auch die Programmhazardrate nur eine Funktion der Zeit und identisch mit den Übergangsraten. Es gilt demnach: z(t) = /;(/) = r.(0 für alle i,J = 0,1,2,.... Dass die Programmhazardrate nach dem Auftreten eines Versagens und der Korrektur des ihn verursachenden Fehlers nicht schlagartig einen anderen Wert annimmt, scheint wenig realistisch zu sein. Eine mögliche Begründung dieser Annahme, die Ascher und Feingold [2], S. 51, als „minimale Reparatur" bezeichnen, liegt darin, dass ein Computerprogramm sehr viele relativ unbedeutende Fehler enthält; die Bereinigung eines einzelnen dieser Fehler hat somit kaum einen Einfluss auf die Programmhazardrate [14], S. 64. Aber auch die kontinuierliche Veränderung der Programmhazardrate zwischen den Versagensauftritten muss erklärt werden. Zwei Ansätze kommen in Betracht: 1.
Wie im Littlewood- und im Littlewood-Verrall-Modell sind diese Modifikationen ausschließlich subjektiver Natur: Das erhöhte Vertrauen in die Qualität der Software kann die Programmhazardrate zwischen zwei Versagensfällen sinken lassen; die erwartete Zunahme der Fähigkeit der Tester, Fehler aufzuspüren, mag dagegen für ihren Anstieg sorgen.
2.
Die Fehlerkorrekturen finden nicht zwangsweise sofort nach dem beobachteten Softwareversagen, sondern u. U. erst in der Folgezeit statt. Somit kann es auch zwischen den Versagensauftritten zu leichten Änderungen der Programmhazardrate kommen.
Anders als in dem zu Beginn des Abschnitts 25.2 dargestellten allgemeinen Fall ist die Programmhazardrate völlig unabhängig von der zufälligen Prozessvorgeschichte und somit auch nicht stochastisch. Ihr Erwartungswert, die Versagensintensität, fällt deshalb mit der Programmhazardrate selbst zusammen: X(t) = E(z(t,V,)) = E(z(t)) = z(t).
(12)
472
Grottke
Zur vollständigen Spezifikation eines NHPP-Modells genügt es deshalb, die Versagensintensität oder ihr Integral, die Mittelwertfunktion |u(0, anzugeben. Die Bezeichnung der Modellklasse rührt daher, dass die Anzahl der Versagensfälle im Intervall (/, t+At] Poisson-verteilt ist mit Erwartungswert |LI(/+A/) - |LI(0. Das Modell ist insofern nichthomogen, als bei vorgegebener Intervalllänge der Erwartungswert von der Lage des Intervalls abhängt, d. h. von seinem Startzeitpunkt t. Aus Gleichung (3) in Verbindung mit Gleichung (12) ergibt sich für die Zuverlässigkeit der Software in der Zeitspanne (t, t+At] R(At \t,V,) = exp (- J''^' X(x)dx\ = exp {- [|i(/ + At) - [i(t)]}.
(13)
Dies ist identisch mit der Wahrscheinlichkeit dafür, dass eine Poisson-verteilte Zufallsvariable mit EnA/artungswert ^(t-\-At) - \x(t) den Wert Null annimmt. Gleichung (13) wird generell für die Zuverlässigkeitsprognose auch in der Nutzungsphase eingesetzt. Dies impliziert die Annahme, dass sich die innerhalb der Testphase erwarteten weiteren Veränderungen der Programmhazardrate auch nach dem Software-Release fortschreiben lassen, z. B. weil sie rein subjektiver Natur sind. Yang und Xie [59] stellen diesem Ansatz eine Berechnung der Zuverlässigkeit im Nutzungsbetrieb gegenüber, bei der die Programmhazardrate konstant belassen wird. Goel'OkumotO'Modell Das einfachste NHPP-Modell erhält man, wenn man für die Versagensintensität (und damit zugleich für die Programmhazardrate) die Form der Versagensintensität im Jelinski-Moranda-Modell wählt, X(t) = z(t) = Ni^Qxp{-^t), womit die Mittelwertfunktion
KO = A^[l-exp(-(t)/)] beträgt. Der linke Teil von Abbildung 6 zeigt typische Verläufe der beiden Funktionen. Anders als im Jelinski-Moranda-Modell ist in diesem von Goel und Okumoto [15] eingeführten Modell die Anzahl der ursprünglich in der Software enthaltenen Fehler wie auch die Anzahl der bei unendlichem Testaufwand auftretenden Versagensfälle kein fixer Wert UQ. Vielmehr sind beide Größen Poisson-verteilt, und ihr Erwartungswert entspricht dem Parameter TV. Somit kann der Zählprozess M(t) also durchaus die Zustände iV+1, A^H-2,... annehmen; es können also mehr als A/^ Versagensfälle auftreten. Unter der Annahme, dass man die Programmhazardrate des Modells in die Zukunft extrapolieren kann, ergibt sich für die Zuverlässigkeit im Intervall (/, t+At]: R(At I t,V^) = exp( - ^'^^\(x)dx\ = exp {TV [exp(-(t)(r + A^) - exp(-(t)0]}. Aufgrund der unterschiedlichen Verteilungsannahmen führt die Parameterschätzung mittels der Maximum-Likelihood-Methode zu anderen Schätzern als für das JelinskiMoranda-Modell, siehe [15].
Prognose von Softwarezuverlässigkeit
473
o '2
>
Abb. 6: Typische Entwicklung von Versagensintensität und Mittelwertfunktion gemäß dem Goel-Okumoto-Modell (links) und dem Musa-Okumoto-Modell (rechts) Musa-OkumotO'Modell Ähnlich wie Moranda gehen Musa und Okumoto [40] von einer Versagensintensität aus, die zu Testbeginn schneller abnimmt als in einer späteren Testphase. Genauer unterstellen sie, dass die Versagensintensität mit der erwarteten Anzahl der aufgetretenen Versagensfälle exponentiell absinkt:
Berücksichtigt man, dass die Versagensintensität die Ableitung der Mittelwertfunktion ist, so erhält man eine Differenzialgleichung, deren Auflösung zu der Mittelwertfunktion
führt. Wie im Moranda-Modell strebt auch hier die Mittelwertfunktion nicht gegen einen festen Wert. Die Anzahl der bei unendlichem Testaufwand erwarteten Versagensbeobachtungen ist also ebenfalls unendlich. Im rechten Diagramm der Abbildung 6 ist der Verlauf dieser Mittelwertfunktion und ihrer Ableitung, der Versagensintensität X(t) =
X^Qt + l
beispielhaft dargestellt. Bei Fortschreiben der Versagensintensität folgt für die Zuverlässigkeit im Intervall (t, t-\-At]: R(At \t,V^) = Qxp(-^'^^''\(x)dx\ --
Xßt + l Xß(t-^At)-^-\ V'^o
Aus den beobachteten Versagensdaten kann man zunächst durch Maximierung der bedingten Likelihoodfunktion (unter der Bedingung, dass bis zum Beobachtungsende 4 insgesamt m(te) Versagensfälle aufgetreten sind) einen Schätzer für das Produkt XQQ gewinnen und danach den Parameter 9 separat schätzen. Aufgrund der Invarianzei-
474
Grottke
genschaft der Maximum-Likelihood-Schätzung ergibt sich der Schätzer für Xo aus dem Quotienten dieser beiden Größen. Details finden sich in [40] und in [41], S. 326 und 347. Goel'OkumotO'Modell mit Weibull-Testaufwand Wie bereits bemerkt, gehen fast alle SZWM davon aus, dass die Belastung, dem ein Programm ausgesetzt ist, im Zeitablauf konstant ist. Insbesondere dann, wenn es sich bei dem verwendeten Zeitmaß / um die Kalenderzeit handelt, ist jedoch damit zu rechnen, dass die Intensität der Programmnutzung variiert. Oftmals werden zu Beginn einer Testphase nur wenige Tester eingesetzt - z. B. weil Teile der Software gerade noch programmiert werden - , und erst in der Folgezeit wird die Anzahl der Tester und damit der Testaufwand deutlich erhöht, um gegen Ende der Testphase, wenn sich die Anzahl der je Zeiteinheit gefundenen Fehler stark verringert hat, wieder zurückgefahren zu werden. Yamada und andere [58] erweitern das Goel-Okumoto-Modell, indem sie die Verteilung des Testaufwands über die Zeit mit einer Weibull-Funktion beschreiben. Dieser Ansatz führt zu der Mittelwertfunktion
Kt) = N 1 -exp(-(t)a(l-exp(-ß/^))) und der mit ihr verbundenen Versagensintensität
X(t) = TV^aßy/^-^ exp(-^a(l - exp(-ß/0) - ß/^), deren typischer Verlauf im linken Teil von Abbildung 7 dargestellt ist. Offensichtlich bewirkt eine zunächst wachsende und dann fallende Testintensität eine im Zeitablauf S-förmige Mittelwertfunktion. Die Weibull-Verteilung ist aber flexibel genug, um auch einen kontinuierlich fallenden Testaufwand modellieren zu können; die Steigung der Mittelwertfunktion nimmt dann stetig ab.
^4
I CD
CD
2
J2
5 Abb. 7: Typische Entwicklung von Versagensintensität und Mittelwertfunktion gemäß dem Goel-Okumoto-Modell mit Weibull-Testaufwand (links) und dem verzögert S-förmigen Modell (rechts)
Prognose von Softwarezuverlässigkeit
475
Falls die Entwicklung sowohl des Testaufwands als auch des Programmverhaltens sich in der Zukunft ohne Strukturbruch fortsetzen wird, so beträgt die Wahrscheinlichkeit dafür, dass im Intervall (t, t+At] kein Softwareversagen auftritt, R(At\t,V^) = Qxp N exp (-^a (l - exp(-ß(/ + Atf))) - TVexp(-^a (l - exp(-ß^^))) Alleine auf Versagensbeobachtungen basierend ist die getrennte Schätzung sämtlicher Modellparameter nicht möglich. Die Parameter a und (j) können nicht identifiziert werden, das Produkt aus ihnen dagegen schon. Yamada und andere [58] gehen davon aus, dass zusätzlich Daten zur Entwicklung des Testaufwands vorliegen, und schlagen ein zweistufiges Schätzverfahren vor. Verzögert S-förmiges Modell Schon vor der expliziten Einbeziehung eines variierenden Testaufwands in SZWM waren S-förmige Modelle betrachtet worden. Yamada und andere [57] untersuchen ein NHPP-Modell mit der Mittelwertfunktion |Li(0 = N[I - (1 + (t)Oexp(-^/)]
(14)
und der mit ihr verbundenen Versagensintensität Ht) = N ^ • l + ^t
(15)
Ohba [43] bezeichnet es als „verzögert S-förmiges Modell", da man es auch zur Modellierung der Verzögerung zwischen der Versagensbeobachtung und der Fehlerisolierung (d. h. der Bestätigung der Versagens-Reproduzierbarkeit) verwenden kann. Besteht zwischen der Hazardrate des Prozesses M(0, der die Versagensfälle zählt, und dem augenblicklichen erwarteten Fehlergehalt der Software ein proportionales Verhältnis und ist die Hazardrate des Prozesses G(0, welcher die Anzahl der isolierten Fehler zählt, ihrerseits ein Vielfaches von der erwarteten Anzahl der beobachteten aber noch nicht reproduzierten Versagensfälle, dann hat der Erwartungswert von G(t) die durch Gleichung (14) gegebene Form. Allerdings wird das Modell durchaus auch auf reine Versagensbeobachtungen angewandt, wenn diese einen S-förmigen Verlauf aufweisen. Insbesondere erfreut sich das Modell - wie auch andere S-förmige Modelle - in Japan einer großen Beliebtheit zur Anpassung an in Kalenderzeit gemessene Versagensdaten, die aufgrund der im letzten Abschnitt angesprochenen Effekte oftmals eine S-Form besitzen [19]. Kann man davon ausgehen, dass die Versagensintensität auch zukünftig durch Gleichung (15) adäquat beschrieben wird, so beträgt die Zuverlässigkeit im Zeitintervall
Ä(A/|/,F,) = exp{A^[(l + (t)(^ + AO)exp(-(t)(^ + A/))-(l + (t)Oexp(-(t)/)^^ Die Schätzung der beiden Parameter A^ und (^ erfolgt wiederum mittels der MaximumLikelihood-Methode [43], [57].
476
Grottke
25.2.4 Weitere Ansätze zur Modellvereinheitlichung Der selbstanregende Punktprozess bildet einen sehr weiten Rahmen, in den sich viele existierende SZWM eingliedern lassen. Er ist aber keineswegs die einzig mögliche Sichtweise zur Vereinheitlichung von Modellen. So haben bereits Langberg und Singpurwalla [27] gezeigt, dass sich sowohl das Goel-Okumoto-Modell als auch das Littlewood-Verrall-Modell gewinnen lässt, indem man das Jelinski-Moranda-Modell in einen Bayes-Kontext einbettet und für seine Parameter spezifische (mitunter degenerierte) a priori Verteilungen unterstellt. Kuo und Yang [25] weisen nach, dass sich für diejenigen NHPP-Modelle, für welche auch bei unendlichem Testaufwand nur eine endliche Anzahl an Versagensfällen A^ erwartet wird, die Versagenszeitpunkte als die Ordnungsstatistiken von v unabhängig und identisch verteilten Beobachtungen auffassen lassen. Hierbei ist v eine Poissonverteilte Zufallsvariable mit EnA/artungswert N. Für diejenigen NHPP-Modelle, bei denen die erwartete Zahl an Versagensfällen nicht beschränkt ist, stellen die Versagenszeitpunkte dagegen so genannte Rekorde dar. Ein völlig anderer Ansatz zur Modellvereinheitlichung betrachtet nur die Mittelwertfunktionen und führt diese auf verschiedene Einflussfaktoren zurück [17], [18], S. 14 ff. Bei den treibenden Größen, die jeweils miteinander in Beziehung stehen, handelt es sich um die Kalenderzeit, den kumulierten Testaufwand, die Anzahl der ausgeführten Testfälle und die Codeabdeckung. Eine Differenzialgleichung, die all diese Faktoren berücksichtigt, enthält als Spezialfälle unter anderem das Jelinski-Moranda-Modell, das Goel-Okumoto-Modell, das Goel-Okumoto-Modell mit Weibull-Testaufwand und das verzögert S-förmige Modell. Der Modellrahmen hilft, die Modellannahmen den einzelnen Beziehungen zuzuordnen und auf ihre Realitätsnähe zu überprüfen. Zudem kann er als Ausgangspunkt für die Konstruktion neuer Modelle dienen. 25.2.5 Systematisches und nutzungsprofilorientiertes Testen Alle bislang vorgestellten SZWM gehen implizit davon aus, dass die Software nutzungsprofilorientiert getestet wird. Während des Testens soll ein Programm also in etwa so bedient werden, wie man es von den späteren Nutzern typischerweise erwartet. Grundsätzlich bedeutet dies, dass sich die Gewichtungen der einzelnen Funktionalitäten nach deren (geschätzten) Nutzungsfrequenzen richten, die Eingabewerte aus adäquaten Verteilungen gezogen und die spezifizierten Testfälle in einer zufälligen Reihenfolge ausgeführt werden sollten [39], S. 165 ff. Weshalb diese Methodik eine wichtige Voraussetzung für die Prognose der Zuverlässigkeit im Nutzungsbetrieb ist, liegt auf der Hand: Falls beim Testen die Software in einer völlig anderen Weise verwendet wird, ändert sich mit ihrer Veröffentlichung der Prozess, welcher die Versagensfälle generiert. Es ist dann nicht sinnvoll, die Hazardrate des SZWM über das Ende der Testphase hinaus zu extrapolieren. Das nutzungsprofilorientierte Testen kann diesen Strukturbruch verhindern oder zumindest sein Ausmaß verringern. Allerdings wird diese Teststrategie vielfach für ineffizient und nicht praktikabel gehalten. Der Großteil der softwareproduzierenden Unternehmen setzt so genannte systematische Testtechniken ein. Diese Ansätze versuchen, ausgehend von Informationen
Prognose von Softwarezuverlässigkeit
477
über die Funktionalität der Software oder ihre Implementierung Testfälle zu generieren, die möglichst viele unterschiedliche und insbesondere fehleranfällige Bereiche der Software ausführen. (Für eine detailliertere Diskussion des nutzungsprofilorientierten und des systematischen Testens sowie der jeweiligen Vor- und Nachteile s. [18], S. 6 ff.) Zwar können ohne genaue Kenntnis der Unterschiede zwischen dem Testprofil und dem Nutzungsprofil die während des systematischen Testens gesammelten Daten nicht zur Prognose der Zuverlässigkeit im Feld verwendet werden. Allerdings ist es auf ihrer Grundlage z. B. möglich, die Anzahl der weiteren Versagensfälle bis zum Testende vorherzusagen, solange es bis dahin nicht zu Strukturbrüchen kommt. Für den Testmanager und das Programmierteam, welches sich um die Fehlerkorrektur zu kümmern hat, stellen auch diese Informationen wertvolle Planungsgrößen dar. Die Anwendung eines klassischen SZWM auf Versagensdaten, welche dem systematischen Testen entstammen, führt jedoch nicht unbedingt zu vertrauenswürdigen Ergebnissen. Der Grund hierfür liegt darin, dass die Modelle für das nutzungsprofilorientierte Testen geschaffen wurden und sich dies mitunter in den Strukturen der unterstellten Programmhazardrate und der von ihr abgeleiteten Größen widerspiegelt. So ergibt sich z. B. die Mittelwertfunktion des Jelinski-Moranda- und des Goel-Okumoto-Modells, wenn man ein Ziehen von Codekonstrukten mit Zurücklegen unterstellt [45]; dieser Aufbau ähnelt stark dem nutzungsprofilorientierten Testen mit einem homogenen Nutzungsprofil. Ausgehend von dem im letzten Abschnitt erwähnten Modellrahmen, der aus sukzessiven Beziehungen zwischen treibenden Faktoren besteht, wird in [18], S. 37 ff., ein Modell für die Entwicklung der Anzahl der Versagensfälle während des systematischen Testens hergeleitet. 25.2.6 Evaluierung und Verbesserung der Modellgüte Aufgrund der Vielzahl der existierenden Modelle scheint für jeden Fall ein adäquates Modell bereitzustehen. Das übergroße Angebot hat aber auch Nachteile, ist es doch Ausdruck der Tatsache, dass keines der Modelle für jeden Datensatz gute Ergebnisse liefert. Schlimmer noch: Da jedes Modell nur einen kleinen Teil der mannigfaltigen technischen und sozialen Einflussfaktoren des versagensverursachenden Prozesses abbilden kann, ist es nicht möglich, im Vorfeld der Datenerhebung mit Sicherheit zu entscheiden, welches der Modelle am besten zu den Versagensbeobachtungen passen wird [6]. Um so wichtiger ist es, für einen vorhandenen Datensatz die Güte verschiedener Modelle zu vergleichen. Hierbei gibt es eine Reihe von Kriterien, die unterschiedliche Aspekte der Modellqualität operationalisieren und erfassen. Das grundsätzliche Vorgehen zur Berechnung dieser Maße ist dabei immer gleich: Beginnend mit den ersten z. B. fünf Datenpunkten des gesamten Datensatzes werden die Parameter eines Modells geschätzt und zur Prognose einer bestimmten Größe (z. B. des nächsten Versagenszeitpunkts) bzw. deren Verteilung verwendet. Unter Hinzunahme jeweils eines weiteren Datenpunktes zu dem gestutzten Datensatz wird diese Prozedur sukzessive wiederholt. Man simuliert also die begleitende Anwendung des Modells während des gesamten bisherigen Projektverlaufs. Aus dem Vergleich der einzelnen Prognosen untereinander bzw. mit den tatsächlichen Beobachtungen errechnet sich schließlich
478
Grottke
das Gütekriterium für das jeweilige iVIodell. Folgende konkrete Maße werden oftmals betrachtet: 1.
Absolute relative Prognosefehler [11], S. 3f., [18], S. 78 f.: Zur Beurteilung der Qualität der kurzfristigen Prognose wird in jedem Schritt die geschätzte Anzahl der Versagensfälle zum nächsten Versagenszeitpunkt mit dem tatsächlichen Wert verglichen und der Absolutbetrag der relativen Abweichung bestimmt. Der kurzfristige absolute relative Prognosefehler ergibt sich dann als Mittelwert all dieser Größen. Um das langfristige Verhalten eines Modells quantifizieren zu können, ist der maximale Prognosehorizont zu wählen, für den eine Gegenüberstellung mit der Realität möglich ist. Deshalb wird für den so genannten mittleren absoluten relativen Prognosefehler für jeden gestutzten Datensatz die prognostizierte Anzahl von Versagensfällen bis zum Ende des Beobachtungszeitraums mit dem tatsächlichen Wert verglichen. Selbstredend ist ein Modell um so besser, je geringer seine Prognosefehler ausfallen.
2.
Variabilitätsmaße [1], [18], S. 80 f.: Um als Planungsgrundlage dienen zu können, dürfen sich die von einem Modell gelieferten Qualitätseinschätzungen bei der Hinzunahme einer weiteren Beobachtung nicht zu stark verändern. Zur Beurteilung des Ausmaßes dieser unerwünschten Variabilität berechnet man aus der Sequenz der Prognosen (z. B. der Zeitspanne bis zum nächsten Softwareversagen) für je zwei aufeinanderfolgende Werte den Absolutbetrag der relativen Abweichung. Das so genannte Variabilitätsmaß ergibt sich dann als Summe dieser Abweichungsgrößen; je kleiner sein Wert ist, desto besser.
3.
Präquenzielle Likelihoodfunktion [1]: Mit der Schätzung eines (zeitbasierten) SZWM aufgrund der bisherigen Beobachtungen wird indirekt zugleich die Verteilung der Zeit bis zum nächsten Versagensfall prognostiziert. Falls das Modell adäquat ist, sollte man erwarten, dass die später tatsächlich eintretende Realisation aus einem Bereich der Verteilung stammt, welcher eine große Eintrittswahrscheinlichkeit aufweist. Bei einer stetigen Zufallsvariablen sollte die Dichtefunktion an der Stelle dieser Beobachtung tendenziell einen hohen Wert annehmen. Evaluiert man in der sequenziellen Modellanwendung jede der Prognosedichten an der jeweils eingetroffenen Realisation und multipliziert die so erhaltenen Größen, dann ergibt sich ein Maß für die Plausibilität des Modells anhand des gesamten Datensatzes, welches als präquenzielle Likelihoodfunktion {prequential lil<elilioocl) bezeichnet wird. Zum Vergleich zweier Modelle bildet man den Quotienten der beiden präquenziellen Likelihoodfunktionen. Tendiert dieses präquenzielle Likelihoodverhältnis mit zunehmender Datensatzlänge gegen unendlich, dann ist das Modell, dessen präquenzielle Likelihoodfunktion im Zähler steht, dem anderen vorzuziehen; tendiert es gegen Null, so trifft das Gegenteil zu.
4.
w-Plotund:^-Plot[1], [6]: Obwohl die tatsächlich beobachteten Wartezeiten bis zum nächsten Versagensfall übenA/iegend aus denjenigen Bereichen der Prognosedichten stammen sollten,
Prognose von Softwarezuverlässigkeit
479
welche eine hohe Wahrscheinlichkeitsmasse umfassen (wie von der präquenziellen Likelihoodfunktion betont), sind durchaus auch - einige wenige - Realisationen aus den Rändern der Verteilungen zu erwarten. So dürften etwa 5% der Werte kleiner als diejenigen Schranken sein, die mit fünfprozentiger Wahrscheinlichkeit unterschritten werden. Beim so genannten w-Plot handelt sich um ein grafisches Instrument, mit dessen Hilfe überprüft werden kann, ob die Beobachtungen in diesem Sinne zu der Gestalt der von einem Modell prognostizierten Verteilungsfunktionen passen. Hierbei kann nicht nur die Stärke der Abweichung quantifiziert und mit derjenigen, die mit einem anderen Modell verbunden ist, verglichen werden. Es zeigt sich zudem, ob die tatsächlichen Wartezeiten bis zum nächsten Softwareversagen tendenziell in den oberen (unteren) Rändern der prognostizierten Verteilungen liegen und das Modell somit die Zuverlässigkeit der Software systematisch unterschätzt (überschätzt). Falls allerdings für eine Hälfte der Daten die Prognosen zu optimistisch sind, während sie für die andere Hälfte zu pessimistisch ausfallen, dann können sich diese gegensätzlichen Abweichungen des Modells von der Wirklichkeit ausgleichen, sodass sie im w-Plot nicht zu entdecken sind. Der auf den Werten des w-Plots aufbauende ;;-Plot kann solche Trends identifizieren. Hat man mithilfe eines Gütemaßes erkannt, dass ein SZWM bei der Prognose systematische Fehler macht, ist es möglich, dieses Wissen zur Verbesserung der Vorhersagen zu nutzen. Dies ähnelt dem Vorgehen eines Schützen, der bei seinen bisherigen Schüssen immer links am Ziel vorbeigeschossen hat: Die Lage rekapitulierend wird er beim nächstem Mal weiter nach rechts zielen. Brocklehurst und andere [7] schlagen eine solche „Rekalibrierung" von Prognosen vor, die auf den Ergebnissen des (geglätteten) w-Plots basiert. Sie zeigen, dass diese Technik die Prognosen verschiedener Modelle aneinander angleicht und dass zudem dem präquenziellen Likelihoodverhältnis gemäß die rekalibrierten „Modelle" ihren ursprünglichen Varianten vorzuziehen sind. Einen deutlich einfacheren Ansatz wählen Lyu und Nikora [33]. Sie raten dazu, eine Zuverlässigkeitsprognose als arithmetisches Mittel der Prognosen mehrerer SZWM zu berechnen. Insbesondere empfehlen sie die Mittelung der Prognosen des Goel-Okumoto-Modells (welches generell als zu optimistisch gilt), des Littlewood-Verrall-Modells (welches zu pessimistischen Prognosen tendiert) und des Musa-Okumoto-Modells (dessen Verzerrungsrichtung stärker variiert). Bei Erweiterungen der Methodik können die Gewichte für die einzelnen Modelle unterschiedlich ausfallen und sich sogar dynamisch nach der relativen Güte der Anpassung des jeweiligen Modells an die Daten richten [34]. In dieser adaptiven Variante handelt es sich bei den Gewichten um so genannte Bayesfaktoren; diese sind eng mit den präquenziellen Likelihoodfunktionen der verschiedenen Modelle verbunden [49], S. 148 ff. Ein grundsätzlicher Nachteil der Rekalibrierung und der Mittelung von Prognosen liegt darin, dass die Annahmen der ursprünglichen Modelle und die Interpretierbarkeit einzelner Modellparameter (z. B. des Parameters uo als der Anzahl der zu Beginn vorhandenen Softwarefehler im Jelinski-Moranda-Modell) verloren gehen. Die Gesamtheit aus Modell(en), Schätz- und Prognoseverfahren wird vollends zur Blackbox.
480
Grottke
25.3 Weitere Modellklassen Zwar haben die SZWM in der Literatur über die Schätzung und Prognose der Qualität und Zuverlässigkeit von Software die größte Aufmerksamkeit erfahren. Es handelt sich bei ihnen aber keineswegs um die einzige existierende Modellklasse. Der Vollständigkeit halber sollen in diesem Abschnitt einige weitere Modellansätze skizziert werden. Völlig ausklammern wollen wir aus Platzgründen Zertifizierungstests zur Überprüfung der Zuverlässigkeit von fertigen Softwareprodukten (s. [41], S. 201 ff.), welche auf der statistischen Theorie des sequenziellen Testens [53] beruhen. 25.3.1 Stichprobenmodelle Anders als die SZWM in Abschnitt 25.2 versuchen die in diesem Abschnitt besprochenen Modelle nicht, die Entwicklung der Zuverlässigkeit oder der Anzahl der verbliebenen Softwarefehler während einer Testphase mit Fehlerkorrektur nachzuvollziehen und vorherzusagen. Vielmehr dienen sie dazu, den aktuellen Fehlergehalt oder die Zuverlässigkeit einer Software zu bestimmen. Insofern mag man sie eher als Schätz- denn als Prognosemodelle bezeichnen. Allerdings ist zu beachten, dass Zuverlässigkeitswerte als Wahrscheinlichkeiten für einen Versagenseintritt bei zukünftiger Nutzung immer auch Vorhersagen sind, selbst wenn das Softwareprodukt unverändert bleibt. Zu ihrer Schätzung benötigen die Modelle keine Informationen über die Entwicklung der Anzahl der Versagensfälle im Zeitablauf. Die Daten der sukzessive durchgeführten Tests können gruppiert vorliegen, entweder in Form einer globalen Stichprobe oder getrennt in zwei Stichproben. A/e/sof7-Moc/e//
Dieses Modell [52], S. 217 ff., gründet sich auf derjenigen Zuverlässigkeitsdefinition, welche die Länge der „Nutzungsperiode" anhand der Anzahl der Programmläufe misst (s. oben Abschnitt 25.1). Genauer bezeichnet es als Zuverlässigkeit R die Wahrscheinlichkeit dafür, dass im Rahmen eines Laufs kein Versagen auftritt. Unter einem Programmlauf wird hierbei die Ausführung der Software mit einer bestimmten Kombination von Eingabewerten für die Inputvariablen verstanden. Diese entstammt der sehr großen aber endlichen Menge aller möglichen Wertekombinationen. Kam es während des Testens bei m von insgesamt n Programmläufen zu einem Softwareversagen, dann lautet die Zuverlässigkeitsschätzung nach dem Nelson-Modell m R = \-—. n Damit dieser Wert auch ein unverzerrter Schätzer für die versagensfreie Programmausführung im normalen Nutzungsbetrieb sein kann, müssen natürlich die Auswahlwahrscheinlichkeiten der Inputkombinationen denjenigen entsprechen, welche auch nach der Softwareveröffentlichung vorherrschen; kurz: Es muss nutzungsprofilorientiert getestet werden. Obwohl der Schätzer unter dieser Voraussetzung unverzerrt ist [52], S. 222 ff., ist eine große Zahl an Testläufen nötig, um seine Varianz gering zu halten und somit ein hohes Vertrauen in die Punktschätzung legen zu können [3].
Prognose von Softwarezuverlässigkeit
481
Dass das iVIodell an das nutzungsprofilorientierte Testen gebunden ist und deshalb nicht während des Testens gemäß systematischer Strategien verwendet werden kann, wird als weiterer Nachteil gesehen [3]. Brown-Lipow-Modell Eine Lösung des letztgenannten Problems bietet der Ansatz von Brown und Lipow [8]. Zu seiner Anwendung ist es nicht nötig, dass dem Nutzungsprofil gemäß getestet wird; dieses Profil muss aber in folgender Weise explizit spezifiziert sein: Die große Menge der möglichen Eingabekombinationen sei in Teilmengen Zu Z2, ..., ZK aufgespalten, die überschneidungsfrei sind und gemeinsam die gesamte Menge ergeben. Bei diesen Teilmengen kann es sich beispielsweise um Äquivalenzklassen handeln, deren Elemente bei ihrer Eingabe enA/artungsgemäß jeweils die gleiche Reaktion der Software bewirken. Das Nutzungsprofil muss dann in Form der Auftrittswahrscheinlichkeiten all dieser Teilmengen bei normaler Programmnutzung, P(Zi), P(Z2),..., P(ZK), bekannt sein. Als Ergebnis der Testdurchführung ist für jedes Zj zum einen die Anzahl rij der Programmläufe festzuhalten, deren Eingabekombinationen zu dieser Teilmenge gehören. Des Weiteren muss jeweils gezählt werden, wie viele der nj Läufe zu einem Versagen führen; für Zj sei dieser Wert mit mj bezeichnet. Die geschätzte augenblickliche Zuverlässigkeit der Software bei Bedienung dem Nutzungsprofil entsprechend beträgt dann
R=
\-Y,-^P{Zj).
Nelson [42] überträgt diese Formel auf eine Situation, in der die Läufe aller spezifizierten Testfälle zu keinem Softwareversagen führen (z. B. weil bereits zuvor alle Testfälle durchgeführt und die durch sie aufgedeckten Fehler bereinigt wurden). Die Zuverlässigkeitsschätzung errechnet er als
^ = 1-1^/(^7)' wobei Zj die Wahrscheinlichkeit dafür bezeichnet, dass eine beliebige aus Zj gewählte Eingabekombination zu keinem Versagen führt. Für die Bestimmung dieser s,-Werte gibt Nelson heuristische Regeln an, welche unter anderem die Anzahl der Testfälle berücksichtigen, die sich auf die Teilmenge Zj beziehen. MillS'Modell Ist man nicht an der Zuverlässigkeit, sondern lediglich an der Anzahl der Programmfehler interessiert, so kann man sich so genannte Capture-Recapture-Modelle zunutze machen, statistische Modelle, welche ursprünglich zur Schätzung der Größe von Populationen (z. B. der Anzahl der Fische in einem Teich) verwendet wurden [23], S. 248 ff. In einer spezifischen Form [44], S. 81 ff., wurden sie erstmals von Mills auf das Gebiet des Softwaretestens übertragen. In ein Programm, welches eine unbekannte Anzahl von Fehlern u^ aufweist, werden bewusst wi Fehler eingebaut. Es sei angenommen, dass alle Fehler in etwa gleich leicht entdeckt werden können und insbesondere die u\ „gesäten" Fehler nicht leichter oder schwerer zu finden sind als die u^
482
Grottke
von Anfang an vorhandenen. Zudem liege keine Interaktion zwischen den verschiedenen Fehlern vor. Wird nun eine Reihe von Testfällen durchgeführt, wobei insgesamt/Fehler gefunden werden, dann ist die Anzahl derjenigen unter ihnen, bei denen es sich um gesäte Fehler handelt, zufällig. Unter den oben genannten Voraussetzungen folgt diese Zufallsvariable, die mit Fi bezeichnet sei, einer hypergeometrischen Verteilung; d. h. die Wahrscheinlichkeit dafür, dass sie den Wert/i annimmt und sich also/i gesäte Fehler unter allen entdeckten befinden, beträgt ("., \ P{F^=f{,UQ,u^J)-
/ - / i \J \J\J /.
f Wurden tatsächlich / i der gesäten Fehler wiedergefunden, so ergibt sich mittels der Maximum-Likelihood-Methode folgende Schätzung für den Parameter UQ, die Anzahl der ursprünglichen Fehler [9], S. 108: Uc =
u,{f-f,) /i
Hierbei bezeichnet UJ die größte ganze Zahl, die kleiner oder gleich x ist. Der Schätzwert für UQ entspricht also in etwa derjenigen Größe, die man erhält, wenn man die Anzahl der gefundenen ursprünglichen Fehler (/"-/O durch die Entdeckungsquote bei den gesäten Fehlern {f\lu\) dividiert. Offensichtlich wird dieser Ansatz UQ tendenziell unterschätzen, wenn die bewusst eingefügten Fehler leichter zu finden sind als die ursprünglichen und damit erwartungsgemäß über eine höhere Entdeckungsquote verfügen. Basin-Modell Ein etwas veränderter Aufbau des Experiments, der kein Einbringen weiterer Fehler erfordert, wird mit Basin in Verbindung gebracht [9], S. 113. Das Fangen und Wiederfangen, welches in dem Begriff „Capture-Recapture-Modell" zum Ausdruck kommt, wird in der Form des unabhängigen Testens der Software durch zwei Personen realisiert. Von den insgesamt UQ Fehlern habe der erste Tester / i und der zweite Tester / entdeckt. Falls die Schwierigkeit des Auffindens für jeden Fehler gleich groß ist und zudem nicht von der Person des Testers abhängt, so beträgt die Wahrscheinlichkeit dafür, dass w d e r / vom zweiten Tester aufgespürten Fehler bereits von seinem Kollegen entdeckt worden waren, / / ,^\ " o - / i
P(W = w;u,J„f,):
v^y
(„
\
f, \J1J Wiederum tritt also die hypergeometrische Verteilung in Erscheinung.
Prognose von Softwarezuverlässigkeit
483
Unter Verwendung des für w tatsächlich beobachteten Wertes lautet der MaximumLikelihood-Schätzer für die Gesamtzahl an Fehlern in der Software u. =
/1/2
w
Wurden im zweiten „Fang" also (w/fi)=yyo der zuvor gefundenen Fehler wiederentdeckt, so kann man davon ausgehen, dass die/2 Fehler selbst etwa yVo der Gesamtfehlerzahl ausmachen. Auf Probleme der VenA/endung von Capture-Recapture-Modellen zur Schätzung des Fehlergehalts einer Software weist Isoda [21] hin. 25.3.2 Modelle zur Prognose von Softwarefehlern Die bisher behandelten Modelle haben gemein, dass sie Daten aus der Ausführung des betrachteten Programms venA/enden, um Rückschlüsse über dessen Qualität zu ziehen. In diesem Abschnitt sind einige Ansätze zusammengefasst, die aufgrund anderer (typischerweise bereits vor der Testphase verfügbarer) Informationen versuchen, den Fehlergehalt der Software vorherzusagen. Gegenüber den anderen Modellen unterscheiden sich diese Querschnittsmodelle grundlegend darin, dass zur Schätzung ihrer Parameter nicht nur die Daten eines einzigen Projekts verwendet werden. Vielmehr greift man entweder auf in der Literatur publizierte Erfahrungs- und Schätzwerte zurück, oder man schätzt die Parameter basierend auf einer Sammlung von früheren Projekten des eigenen Unternehmens. In jedem Fall unterstellt man, dass die Zusammenhänge, die anhand der für die Modellspezifikation genutzten Projekte identifiziert wurden, auch für die zukünftigen Projekte gültig sind. Die Prognoseergebnisse sind mit um so größerer Vorsicht zu genießen, je stärkere Zweifel an der Vergleichbarkeit der Projekte bestehen. Multiplikative Modelle Um multiplikative Modelle handelt es sich z. B. bei dem Modell des Rome Laboratory der Air Force (s. [12] und [26], S. 7-4 ff.) sowie bei dem Ansatz von Malaiya und Denton [35]. In ihnen ergibt sich die prognostizierte Fehlerdichte - die Anzahl der Fehler je 1000 Sourcecode-Zeilen - als Produkt einer Reihe von Faktoren, deren Werte in Abhängigkeit von den Gegebenheiten der Software und des gesamten Entwicklungsprojekts bestimmt werden. Beide Modelle verfügen über einen Faktor, welcher eine BasisFehlerdichte repräsentiert. Im Modell des Rome Laboratory wird der Wert dieses Faktors anhand einer Checkliste ermittelt, welche die Schwierigkeit der Entwicklung der vorliegenden Art von Software beurteilt; bei Malaiya und Denton beruht er auf der von dem betrachteten Unternehmen im Durchschnitt erreichten Fehlerdichte. Die weiteren Faktoren berücksichtigen Aspekte der verwendeten Entwicklungsmethoden, der institutionalisierten Entwicklungs- und Testprozesse, der Eignung der Mitarbeiter und der Struktur des implementierten Codes. All diese Faktoren weisen einen Wertebereich um die Zahl Eins auf. Je nach Ausprägung der einzelnen Aspekte wird also die BasisFehlerdichte aufgebläht oder verringert. So nimmt z. B. der Programmierteam-Faktor in Malaiyas und Dentons Modell bei einer durchschnittlichen Leistungsfähigkeit den Wert
484
Grottke
Eins und bei einem hohen bzw. niedrigen Leistungsniveau die Werte 0,4 resp. 2,5 an. Der Vorteil dieses multiplikativen Aufbaus besteht darin, dass bei Fehlen einzelner Informationen die jeweiligen Faktoren weggelassen (und dabei implizit auf ihren Grundwert Eins gesetzt) werden können. Da es möglich ist, die Faktoren des Rome Laboratory - Modells den Entwicklungsphasen Analyse, Design und Implementierung/ Test zuzuordnen, kann man somit für jeden Entwicklungsstand ein Submodell aufstellen, welches eine Teilmenge der Faktoren umfasst [26], S. 7-4 ff. Lineare Regressionsmodelle Lineare Regressionsmodelle versuchen, eine abhängige Variable y auf eine Linearkombination von erklärenden Variablen xu...,Xk zurückzuführen: y = aQ+ a^Xj +... + a^x^ + r|. Hierbei steht r| für die zufällige Abweichung von dem linearen Zusammenhang, für welche unter anderem ein Erwartungswert von Null unterstellt wird. In der konkreten Anwendung der Fehlerprognose handelt es sich bei der abhängigen Variablen um die Anzahl der Fehler im Programmcode oder um die Fehlerdichte. Mitunter wird jedoch auch auf den natürlichen Logarithmus der Fehlerdichte zurückgegriffen; ein Vorteil dieses Vorgehens liegt darin, dass der Logarithmus im Gegensatz zur Fehlerdichte selbst nicht aufwerte größer oder gleich Null beschränkt ist. Takahashi und Kamayachi [51] definieren neun quantitative Indikatoren, die potenziell einen Einfluss auf die Anzahl der Programmfehler haben. Bei denjenigen drei Variablen, die für ihren Datensatz aus 30 Projekten die größte Erklärungskraft für die Gesamtfehlerzahl zeigen, handelt es sich um die Häufigkeit von Änderungen der Programmspezifikation (gemessen in Seiten der Änderungswünsche), die durchschnittliche Programmiererfahrung der Entwickler (in Jahren) und den Umfang der Designdokumente (in Seiten). Für diese Variablen stellen die Autoren ein lineares Regressionsmodell mit der Anzahl der Programmfehler als exogene Variable auf. Zhang und Pham [60] erweitern Takahashis und Kamayachis Liste der Einflussfaktoren deutlich. Mittels eines Fragebogens erheben sie bei verschiedenen Gruppen von Mitarbeitern in Softwareunternehmen (z. B. Managern, Programmierern und Testern) die subjektiv empfundene Bedeutung dieser Faktoren für die Zuverlässigkeit der entwickelten Software, ohne allerdings anhand echter Projektdaten die Erwartungen zu verifizieren oder ein Regressionsmodell zu schätzen. In [18] wird eine Auswahl der von Zhang und Pham zusammengetragenen Einflussfaktoren weiter operationalisiert und damit objektiv messbar gemacht. Zudem enthält ein ausführlicher Fragebogen [18], S. 223 ff., Fragen und detaillierte Szenarien, mithilfe derer die Reife von Softwareentwicklungsprozessen in Anlehnung an den zukünftigen Standard ISO/IEC 15504 [20] - das so genannte SPICE-Modell - bestimmt werden kann. Die Analyse der dreizehn verfügbaren Projektdatensätze führt zu einem linearen Regressionsmodell, bei dem die Fehlerdichte durch eine selektive Reifegradbewertung, das Verhältnis zwischen der tatsächlichen und der geplanten Entwicklungsdauer und den Anteil der nach der Spezifikationsphase geänderten Anforderungen erklärt wird.
Prognose von Softwarezuverlässigkeit
485
Insbesondere dann, wenn es sich bei den exogenen Faktoren um Maße der Programmkomplexität handelt, welche erwartungsgemäß stark miteinander verbunden sind, können sich die geschätzten Regressionskoeffizienten bei der Aufnahme weiterer erklärender Variablen deutlich verändern. Um dies und weitere Probleme der so genannten Multikollinearität in den Griff zu bekommen, schlagen Khoshgoftaar und Munson [24] die Anwendung der Faktorenanalyse zur Gewinnung von orthogonalen (voneinander völlig unabhängigen) Faktoren vor. Eine Übersicht über weitere - nicht notwendigerweise lineare - Regressionsmodelle für Fehlerdaten findet sich bei Cai [9], S. 47 ff. 25.4 Abschließende Bemerkung Dieses Kapitel gibt einen knappen Überblick über verschiedene Ansätze zur Prognose von Softwarezuverlässigkeit, Softwareversagensfällen und Softwarefehlern. Da im Rahmen eines Softwareentwicklungsprojekts das korrekte Softwareverhalten zumeist nur eines der zu beachtenden Kriterien darstellt (neben dem Funktionsumfang, der Entwicklungszeit, den Lebenszykluskosten, usw.), kann es sinnvoll sein, die hier diskutierten Modelle als Elemente umfassenderer Optimierungsprobleme einzusetzen. So betrachten z. B. Pham [44], S. 159 ff., und Yamada [56] Ansätze zur Bestimmung derjenigen Testdauer, welche die Gesamtkosten der Testdurchführung und der Gewährleistung minimiert. 25.5 Literatur [I] [2] [3] [4] [5] [6]
[7] [8] [9] [10] [II] [12]
Abdel-Ghaly, AA., Chan, P.Y. und Littlewood, B., Evaluation of competing Software reliability predictions, IEEE Transactions on Software Engineering 12 (1986), S. 950 ff. Ascher, H. und Feingold, H., Repairable Systems reliability - Modeling, inference, misconceptions and their causes, New York 1984. Bastani, F.B. und Ramamoorthy, C.V., Software reliability, in: Krishnaiah, P.R. und Rao, CR. (Hrsg.), Handbook of statistics, Vol. 7, Amsterdam 1988, S. 7 ff. Belli, F., Grochtmann, M. und Jack, O., Erprobte Modelle zur Quantifizierung der Software-Zuverlässigkeit, Informatik Spektrum 21 (1998), S. 131 ff. Boland, P.J. und Singh, H., A birth-process approach to Moranda's geometric softwarereliability model, IEEE Transactions on Reliability 52 (2003), S. 168 ff. Brocklehurst, S. und Littlewood, B., Techniques for prediction analysis and recalibration, in: Lyu, M.R. (Hrsg.), Handbook of Software reliability engineering, New York 1996, S. 119 ff. Brocklehurst, S., Chan, P.Y. und Littlewood, B., Recalibrating Software reliability models, IEEE Transactions on Software Engineering 16 (1990), S. 458 ff. Brown, J.R. und Lipow M., Testing for Software reliability, Proceedings of the International Conference on Reliable Software, New York 1975, S. 518 ff. Cai, K.-Y., Software defect and operational profile modeling, Boston 1998. Chen, Y. und Singpurwalla, N.D., Unification of Software reliability models by selfexciting point processes, Advances in Applied Probability 29 (1997), S. 337 ff. Denton, J.A., Accurate Software reliability estimation, Master's thesis, Colorado State University, FortCollins 1999. Farr, W., Software reliability modeling survey, in: Lyu, M.R. (Hrsg.), Handbook of Software reliability engineering, New York 1996, S. 71 ff.
486 [13]
[14] [15]
[16]
[17]
[18] [19] [20]
[21] [22] [23] [24]
[25]
[26]
[27] [28] [29] [30] [31] [32] [33]
[34]
Grottke Forman, E.H. und Singpurwalla, N.D., An empirical stopping rule for debugging and testing Computer Software, Journal of the American Statistical Association 72 (1997), S. 750 ff. Gaudoin, O., Outils statistiques pour l'evaluation de la fiabilite des logiciels, These de doctorat, Universite de Joseph Fourier-Grenoble 1, Grenoble 1990. Goel, A.L. und Okumoto, K., Time-dependent error-detection model for Software reliability and other Performance measures, IEEE Transactions on Reliability 28 (1979), S. 206 ff. Gokhale, S.S., Marines, P.N. und Trivedi, K.S., Important milestones in Software reliability modeling, Proceedings of the Eighth International Conference on Software Engineering and Knowledge Engineering, Skokie 1996, S. 345 ff. Grottke, M., A vector Markov model for structural coverage growth and the number of failure occurrences, Proceedings of the Thirteenth IEEE International Symposium on Software Reliability Engineering, Los Alamitos 2002, S. 304 ff. Grottke, M., Modeling Software failures during systematic testing - The influence of environmental factors, Aachen 2003. lannino, A., Software reliability theory, in: Marciniak, J. (Hrsg.), Encyclopedia of Software engineering, New York 1994, S. 1223 ff. ISO/IEC JTC 1/SC 7/WG 10, Information technology - Software process assessment Part 2: A reference model for processes and process capability, Technical report ISO/IEC TR 15504-2, Genf 1998. Isoda, S., A criticism on the capture-and-recapture method for Software reliability assurance, The Journal of Systems and Software 43 (1998), S. 3 ff. Jelinski, Z. und Moranda, P., Software reliability research, in: Freiberger, W. (Hrsg.), Statistical Computer Performance evaluation, New York 1972, S. 465 ff. Johnson, N.L. und Kotz, S., Urn models and their application, New York 1977. Khoshgoftaar, T.M. und Munson, J.C, Predicting Software development errors using Software complexity metrics, IEEE Journal on Selected Areas in Communications 8 (1990), S. 253 ff. Kuo, L. und Yang, T.Y., Bayesian computation for nonhomogeneous Poisson processes in Software reliability, Journal of the American Statistical Association 91 (1996), S. 763 ff. Lakey, P.B. und Neufelder, A.M., System and Software reliability assurance guidebook, Rome Laboratory, Rome 1997. Verfügbar unter http://www.softrel.com/notebook.zip (Abruf am 22.12.2003). Langberg, N. und Singpurwalla, N.D., A unification of some Software reliability models, SIAM Journal of Scientific and Statistical Computing 6 (1985), S. 781 ff. Ledoux, J., Software reliability modeling, in: Pham, H. (Hrsg.), Handbook of reliability engineering, London 2003, S. 213 ff. Littlewood, B., Stochastic reliability growth: A model for fault-removal in computerprograms and hardware-design, IEEE Transactions on Reliability 30 (1981), S. 313 ff. Littlewood, B. und Verrall, J.L., A Bayesian reliability growth model for Computer Software, Journal of the Royal Statistical Society, series C 22 (1973), S. 332 ff. Littlewood, B. und Verrall, J.L., Likelihood function of a debugging model for Computer Software reliability, IEEE Transactions on Reliability 30 (1981), S. 145 ff. Lyu, M.R. (Hrsg.), Handbook of Software reliability engineering, New York 1996. Lyu, M.R. und Nikora, A., A heuristic approach for Software reliability prediction: The equally-weighted linear combination model, Proceedings of the 1991 IEEE International Symposium on Software Reliability Engineering, Los Alamitos 1991, S. 172 ff. Lyu, M.R. und Nikora, A., CASRE - A computer-aided Software reliability estimation tool, Proceedings of the 1992 IEEE Computer-Aided Software Engineering Workshop, LosAlamitos1992, S. 264ff.
Prognose von Softwarezuverlässigkeit [35]
[36] [37] [38] [39] [40]
[41] [42] [43] [44] [45]
[46] [47] [48] [49] [50] [51]
[52] [53] [54] [55]
[56] [57] [58] [59] [60]
487
Malaiya, Y.K. und Danton, J.A., What do the Software reliability growth model para-meters represent?, Technical report CS-97-115, Computer Science Department, Colorado State University, FortCollins 1997. Mazzuchi, T.A. und Singpurwalla, N.D., Software reliability models, in: Krishnaiah, P.R. und Rao, CR. (Hrsg.), Handbook of statistics. Vol. 7, Amsterdam 1988, S. 73 ff. Mazzuchi, T.A. und Soyer, R., A Bayes empirical-Bayes model for Software reliability, IEEE Transactions on Reliability 37 (1988), S. 248 ff. Moranda, P.B., Event-altered rate models for general reliability analysis, IEEE Transactions on Reliability 28 (1979), S. 376 ff. Musa, J.D., Software reliability engineering, New York 1999. Musa, J.D. und Okumoto, K., A logarithmic Poisson execution time model for Software reliability measurement, Proceedings of the Seventh International Conference on Software Engineering, Piscataway 1984, S. 230 ff. Musa, J.D., lannino, A. und Okumoto, K., Software reliability: Measurement, prediction, application, New York 1987. Nelson, E., Estimating Software reliability from test data, Microelectronics and Reliability 17(1978), S. 67 ff. Ohba, M., Software reliability analysis models, IBM Journal of Research and Development 28 (1984), S. 428 ff. Pham, H., Software reliability, Singapore 2000. Piwowarski, P., Ohba, M. und Caruso, J., Coverage measurement experience during function test, in: Proceedings of the Fifteenth International Conference on Software Engineering, Los Alamitos 1993, S. 287 ff. Schick, G.J. und Wolverton, R.W., An analysis of competing Software reliability models, IEEE Transactions on Software Engineering 4 (1978), S. 104 ff. Shantikumar, J.G., A general Software reliability model for Performance prediction, Microelectronics and Reliability 21 (1981), S. 671 ff. Singpurwalla, N.D. und Wilson, S.P., Software reliability modeling. International Statistical Review 62 (1994), S. 289 ff. Singpurwalla, N.D. und Wilson, S.P., Statistical methods in Software engineering: Reliability and risk, New York 1999. Snyder, D.L. und Miller, M.I., Random point processes in time and space, New York 1991. Takahashi, M. und Kamayachi, Y., An empirical study of a model for program error prediction, Proceedings of the Eighth International Conference on Software Engineering, Los Alamitos 1985, S. 330 ff. Thayer, T.A., Lipow, M. und Nelson, E.C., Software reliability, Amsterdam 1978. Wald, A., Sequential analysis, New York 1947. Xie, M., Software reliability modelling, Singapore 1991. Xie, M. und Hong, G.Y., Software reliability modeling, estimation and analysis, in: Balakrishnan, N. und Rao, CR. (Hrsg.), Handbook of statistics, Vol. 20, Amsterdam 2001, S. 707 ff. Yamada, S., Software reliability models, in: Osaki, S. (Hrsg.), Stochastic models in reliability and maintenance, Berlin 2002, S. 253 ff. Yamada, S., Ohba, M. und Osaki, S., S-shaped reliability growth modeling for Software error detection, IEEE Transactions on Reliability 32 (1983), S. 475 ff. Yamada, S., Hishitani, J. und Osaki, S., Software-reliability growth with a Weibull testeffort: A model & application, IEEE Transactions on Reliability 42 (1993), S. 100 ff. Yang, B. und Xie, M., A study of operational and testing reliability in Software reliability analysis, Reliability Engineering and System Safety 70 (2000), S. 323 ff. Zhang, X. und Pham, H., An analysis of factors affecting Software reliability, The Journal of Systems and Software 50 (2000), S. 43 ff.
26 Kooperative Vorhersage in Unternehmensnetzwerken von Peter Mertens, Andrew J. Zeller, Jörn Große-Wilde und Habib Lejmi 26.1 Von der Einzelprognose zur kooperativen Vorhersage Mit der zunehmenden Vernetzung der Industrien wird es für Einzelunternehmen immer schwieriger, die Marktsituation angemessen zu überblicken und zu prognostizieren. Dies trifft vor allem auf die Betriebe zu, die in Wertschöpfungsketten nicht das Endprodukt herstellen, sondern Rohstoffe verarbeiten oder Halbfertigfabrikate veredeln. Aus diesem Grund gehen Unternehmensnetzwerke vermehrt dazu über, bei der Prognosebildung zu kooperieren. Man erhofft sich hier folgende Vorteile: 1.
Mit der Zahl der Teilnehmer wächst die Datengrundlage.
2.
Existieren mehrere Prognosen für eine Größe, wobei alle auf unterschiedlichen Informationsmengen beruhen, so kann mit einer verbesserten Qualität gerechnet werden, wenn man sie kombiniert (vgl. Kapitel 12 in diesem Buch).
3.
Durch den Vergleich mehrerer Vorhersagetechniken mag die am besten geeignete herausgefiltert werden [2].
4.
Das Einbeziehen der verschiedenen Marketing-Aktivitäten verschafft der Kette Transparenz über die kurz- bis mittelfristige Bedarfssituation. Auf diese Weise lässt sich die Produktion bei den Zulieferern glätten, was zu geringerer Kapitalbindung führt.
5.
Die verschiedenen Einschätzungen verschaffen den Unternehmen Zugang zu differenziertem Markt-Know-how, wodurch sie den Gesamtmarkt besser vorhersagen können [24].
6.
Eine präzise unternehmensübergreifende Prognose erlaubt es, den Folgen des so genannten Forrester-Effekts (oder auch Bullwhip-Effekt) entgegen zu wirken. Dieser beschreibt die Verstärkung der Varianz in der Nachfrage, die innerhalb einer Wertschöpfungskette vom Handel bis zu den Herstellern von Zulieferprodukten entsteht (vgl. zu den Hauptursachen dieses Phänomens [15]).
Im Gegensatz zu den anderen in diesem Buch angeführten Rechenmethoden verschiebt sich der Fokus von der unternehmensbezogenen Erstellung der Einzelprognosen zu Mechanismen, um die Vielzahl der Vorhersagen zu einer netzwerkweiten Gesamtvorschau zu verdichten. Ein in der Industrie häufig genutztes Prozessmodell für eine solche Kooperation ist „Collaborative Planning, Forecasting and Replenishmenf (CPFR). 26.2 Der CPFR-Prozess CPFR ist eine Initiative der „Voluntary Interindustry Commerce Standards (VICS) Association". Ursprünglich wurde das Modell für Beziehungen zwischen Herstellern und
490
Mertens, Zeller, Große-Wilde, Lejmi
Einzelhandel vornehmlich aus der Konsumgüterbranche entwickelt. Der Begriff Planung bezeichnet in der Konzeption die Bestimmung einer gemeinsamen Strategie, für die Ziele, Aufgaben und Ressourcen festgelegt werden (vgl. [22]). Häufig umfasst dies in einem ersten Schritt nur eine ausgewählte Anzahl von Produkten. Anschließend erstellen die Partner zusammen Verkaufspläne sowie eine Absatzprognose, die auf elektronischem Weg übermittelt und aktualisiert wird. Die Reihenfolge der Schritte im Vorgehensmodell der VICS Association ist nicht zwingend, weil oft auch die Absatzplanung erst durchgeführt wird, wenn die Ergebnisse der Prognoserechnung vorliegen (vgl. [9] und Kapitel 21 dieses Buches). Der erhöhte Kommunikationsgrad zwischen den Unternehmen macht es möglich, bei Veränderungen der Bedarfe oder Sonderaktionen die Pläne umgehend anzupassen [17]. Im Rahmen des CPFR arbeiten die Partner auf der strategischen, taktischen und operativen Ebene zusammen. Diese Ebenen spiegeln sich im 9-stufigen CPFR-Prozessmodell (siehe Tabelle 1) in den verschiedenen Stufen der Planung, der Prognose und der Auftragserfüllung wider (vgl. [15], S. 124 f. und [7]). Auf der strategischen Ebene treffen die Partner die Grundsatzvereinbarungen, auf deren Basis ein Geschäftsplan entwickelt wird, der die gemeinsamen Maßnahmen für ausgewählte Produktgruppen enthält. Diese Grundsatzvereinbarungen beinhalten unter anderem die Zeitpunkte und die Form des Austausches der Vorhersagen sowie die zu verwendenden Planungsmethoden und Algorithmen. Auf diese Weise verhindert man von Anfang an, dass nicht abgestimmte Vorhersagezeiträume und -methoden zu Integrationsproblemen führen [27]. Auf Basis vorausgesagter Bedarfe berechnet man auf der taktischen Ebene die Bestellmengen. Für die Ableitung der kurzfristigeren Bestellprognose aus den ursprünglich geschätzten Bedarfen werden die Lagerhaltungsdaten und offene Aufträge einbezogen. Gegenstand der operativen Ebene sind die Transport- und Auftragsabwicklungsprozesse zwischen den Netzwerkteilnehmern. Hier werden die tatsächlichen Aufträge generiert und die Lieferungen durchgeführt. Das Prozessmodell ist neben der Ausweitung der Informationsversorgung auf vorgelagerte Wertschöpfungsstufen ein wesentliches Unterscheidungskriterium zum ECRKonzept (Efficient Consumer Response), welches vor allem im Groß- und Einzelhandel vielfach zum Einsatz kommt (vgl. [23]). 26.3 Vorhersagemethoden der Standardsoftware Die dargestellte Vorgehensweise für den CPFR-Prozess hat auch Einzug in die Pakete der großen Standardsoftwarehersteller gefunden, in der Regel im Rahmen von deren Supply-Chain-Initiativen. Von der Berechnungsmethodik her bieten sich für die kooperative Planung dieselben Algorithmen und Verfahren an, wie sie auch für unternehmensinterne Berechnungen eingesetzt werden. Stärker als beim lokalen Einsatz ist es für die unternehmensübergreifende Verwendung jedoch von Bedeutung, inwiefern das Verfahren und die Berechnung der Vorhersagen nachvollzieh- und kommunizierbar sind.
Kooperative Vorhersage in Unternehmensnetzwerken Stufe Planning
Forecasting
Replenishment
1 Schritt
491
Beispielaktivitäten
1. Grundsatzvereinbarung
Vereinbarungen über die gemeinsame Nutzung von Informationen und Absprachen zu den Rechten und Pflichten der Partner (z. B. Vertraulichkeit, Bereitstellung von Ressourcen, Erfolgsverteilung) sowie zu den Kriterien und Metriken, mit denen Wirksamkeit und Erfolg des CPFR-Prozesses gemessen werden (z. B. Vorhersagegenauigkeit, Rentabilität der Investitionen, Lagerumschlag, Liefertreue und Prozesskosten).
2. Entwickeln eines gemeinsamen Geschäftsplans
Festlegungen sind z. B. hinsichtlich Mindestbestellmengen, Parametern zur Auf- und Abrundung (insbesondere wegen der Verpackungseinheiten), Vorlaufzeiten und Bestellintervallen zu treffen.
3. Erstellen der Bedarfsprognose
Diese Prognose wird auf Basis der Point-of-Sale (POS)-Daten sowie von Informationen über Sondereinflüsse und geplante Aktionen erstellt.
4. Erkennen von Abweichungen
In diesem Schritt werden jene Prognoseobjekte ermittelt, bei denen die Ist-Bedarfe über eine (in Schritt 1 parametrierte) Toleranzschwelle hinaus von der Vorhersage abweichen.
5. Aktualisierung der Bedarfsprognose
Physisch und elektronisch wird konferiert, um zu einem Konsens über die möglichen Bestellungen zu gelangen.
6. Ableiten der Bestellprognose
Kombination der Bedarfsprognosen und der Informationen über Lagerbestände (z. B. physische Bestände und offene Bestellungen), um die Auftragseingänge vorherzusagen. Hierbei sind die Vereinbarungen aus Schritt 1 beispielsweise zur Bemessung von Sicherheitsbeständen, Bestellmengen oder Vorlaufzeiten zu berücksichtigen. |
7. Erkennen von Abweichungen
Analog zu Phase 4 wird festgelegt, welche Auftragseingänge gegen Politiken verstoßen, die Hersteller, Distribuenten und Händler gemeinsam festgelegt haben. 1
8. Aktualisierung der Bestellprognose
Es ist zu befinden, ob man die Ausnahmen auf sich beruhen lassen oder Konsequenzen ziehen soll, beispielsweise in Form von Käufen bei Herstellern, die nicht dem Liefernetz angehören.
9. Generierung der Aufträge
Im letzten Schritt werden die Prognosen der Auftragseingänge in verbindliche Aufträge umgewandelt, welche mindestens die vorhergesagten Bedarfe erfüllen sollen. Zudem sind Auftragsbestätigungen zu versenden.
Tab. 1: Schritte des CPFR-Prozessmodells Die im Folgenden angesprochenen Verfahren dienen allesamt der Prognose regelmäßiger Bedarfe, wohingegen die Vorhersage unregelmäßiger, sporadischer Bedarfe an dieser Stelle ausgeklammert bleibt, dies wird in Kapitel 4 dieses Buches ausgeführt. Zur Prognose der Endproduktnachfrage verwendet die Standardsoftware verschiedene, an anderer Stelle dieses Buches bereits dargestellte Verfahren, denen jeweils bestimmte Grundannahmen der Nachfrageverläufe zugrunde liegen. Man unterscheidet im Allgemeinen folgende Komponenten der Zeitreihe: den Trend als langfristige Ent-
|
492
Mertens, Zeller, Große-Wilde, Lejmi
Wicklungstendenz des beobachteten Merkmals, die mittelfristigen zyklischen Schwankungen und deren kurzfristiges Komplement, die saisonalen Schwankungen sowie unregelmäßige Restschwankungen. Prognose bei konstantem Bedarfsniveau a)
Gleitender Durchschnitt
b)
Exponentielle Glättung erster Ordnung
Prognose bei trendförmigem Bedarf a) b) c)
Lineare Regressionsrechnung Exponentielle Glättung höherer Ordnung Verfahren von Holt/Winters
Wahl der geeigneten Prognosemethode Die für das Prognoseproblem am besten geeigneten Verfahren werden von der Software anhand von Vergangenheitsdaten bestimmt, indem sie ex-post Vorhersagen berechnet und die Ergebnisse mit den tatsächlich eingetretenen Werten vergleicht. Die Methode, welche die geringsten kombinierten Prognosefehler aufweist, wird zur Verwendung vorgeschlagen. Die automatische Auswahl (vgl. Kapitel 12 dieses Buches) ist nicht immer geeignet, das ideale Prognosemodell zu finden, weshalb die meisten Systeme auch eine personelle Selektion unterstützen [25]. Dabei kann entweder ein vom Benutzer bestimmtes Fehlermaß als alleiniges Gütekriterium dienen oder aber eine völlig freie Auswahl der Methode gestattet werden. Der Prognosefehler e^ setzt sich dabei aus der Differenz der tatsächlich beobachteten Ausprägung im Zeitpunkt t{y^) und dem für t prognostizierten Wert ( j ) J zusammen: et=yt-yt
e^ y^ y^
Prognosefehler in Periode / Beobachtungswert in Periode t Prognosewert in Periode /
Gängige Maße für die Prognosegüte [18] sind die mittlere Abweichung (ME, Mean Error), der mittlere Prozentfehler (MPE, Mean Percentage Error), die mittlere absolute Abweichung (MAD, Mean Absolute Deviation), der Root Mean Square Error (RMSE, Wurzel des mittleren quadratischen Prognosefehlers) sowie der Theilsche Ungleichheitskoeffizient (TUK). CPFR wird durch das Internet erleichtert. Im System APO (Advanced Planner & Optimizer) zum Supply Chain Management, das die SAP AG entwickelt hat, existieren unter anderem die folgenden Möglichkeiten (vgl. [4], S. 55): 1.
Die Kunden erstellen und modifizieren ihre eigenen Prognosen. Diese übertragen sie in ein zentrales „Planning Book" des APO. Einzelne Kunden werden autorisiert, bestimmte Bereiche („Views") des Planning Book einzusehen.
Kooperative Vorhersage in Unternehmensnetzwerken
493
2.
Die Prognosen werden auf einem zentralen Computer gerechnet und den Kunden mitgeteilt. Diese bestätigen, wenn die ermittelten Vorhersagen die Grundlage der Planung sein sollen.
3.
Die Kunden melden unvorhergesehene Abweichungen („Information by Exception", „Exception Reporting"), die Anlass zu einer zentralen Revision der Vorhersagen sein können.
26.4 Herausforderungen Die kooperative Prognose lässt sich in Anlehnung an das CPFR-Modell in drei Komponenten zerlegen. Zuerst muss aus einer langfristigen Perspektive die Ausgangssituation in einem gegebenen Unternehmensnetzwerk analysiert werden. Auf der Planungsebene sind dann die Ziele und die Vorgehensweise bei der Vorhersageerstellung zu definieren. Während der Ausführungsphase gilt es schließlich die Abstimmungsbedarfe zu identifizieren und entsprechende Vereinbarungen zu treffen, Methoden auszuwählen und umzusetzen sowie die von Lieferanten und Abnehmern erstellten Pläne miteinander abzugleichen. 26.4.1 Prognosesituation Die Prognoseprozesse steuern unternehmensinterne Logistikfunktionen und können dazu dienen, Verknüpfungen mit externen Partnern über Prozessschnittstellen zu etablieren ([26], S. 5). Eine größtmögliche Integrationsebene entsteht, wenn es gelingt, alle Unternehmen einer Wertschöpfungskette - von den Rohmateriallieferanten bis hin zum Endkunden - in die gemeinsame Planung einzubinden. Ein wesentliches Merkmal bei der Beurteilung der Prognosesituation ist die Machtverteilung. Dominierende Unternehmen in einer Versorgungskette spielen bei Kooperationsbemühungen häufig eine entscheidende Rolle. Auf der einen Seite können durch sie Verzögerungen auftreten. Um die notwendige Kooperation zwischen den Betrieben zu erreichen, sind die bestehenden Vorbehalte, unternehmensinterne Prozesse gegenüber externen Partnern preiszugeben und anzupassen, zu überwinden. Es gilt daher, ein Vertrauensverhältnis aufzubauen und zu unterhalten, welches die Zusammenarbeit fördert. Ferner ist die Frage zu stellen, welcher Stellenwert der gemeinsamen Planung beizumessen ist: Dient diese lediglich als Richtgröße für die eigene Absatzbzw. Produktionsplanung und wird parallel zu den bisherigen Verfahren angewendet? Oder fungiert das einzelne Unternehmen nur noch als Datenlieferant und verlässt sich weitgehend auf die gemeinsam erarbeiteten Prognoseergebnisse? Die am stärksten ausgeprägte Auslagerung der Planungsdurchführung in einem Netzwerk könnte soweit führen, dass der dominierende Teilnehmer unter Einbezug der Informationen der restlichen Glieder die zentrale Planung übernimmt. Um den Erfolg des kooperativen Planens zu beurteilen, sollte nicht nur auf die Genauigkeit der Vorhersagewerte geachtet werden, sondern auch auf die Akzeptanz des Verfahrens in den einzelnen Unternehmen. Es ist meist ebenso wichtig, die unternehmensübergreifende Prognose organisatorisch zu etablieren wie auch deren Qualität zu verbessern. Eine der größten Schwierigkeiten mag in diesem Zusammenhang darin bestehen, die Teilnehmer von deren Nutzen zu überzeugen. Abnehmer könnten die
494
Mertens, Zeller, Große-Wilde, Lejmi
Gefahr eines erhöhten Rohmaterialbestands sehen, der durch den ermittelten Bedarf eventuell entstehen würde. Es gilt in solchen Fällen oft zwischen den Effekten einer steigenden Kapitalbindung und dem Nutzen verkürzter Lieferzeiten abzuwägen. 26.4.2 Prognoseprozess Die Frage, welches Unternehmen im Netzwerk für die Vorhersage verantwortlich ist, hängt vor allem mit dem verwendeten Dispositionsverfahren in der Bevorratung zusammen (Buyer, Vendor oder Co-Managed Inventory). Es muss bei der institutionellen Aufgabenverteilung außerdem darauf geachtet werden, dass sich alle Unternehmen im Verbund mit dem Ergebnis identifizieren können. Da nicht alle Personen, die in den jeweiligen Betrieben bei der Bedarfs- bzw. Absatzplanung mitwirken, in ein gemeinsames Team einbezogen werden können, bietet es sich an, den jeweiligen „ForecastChampion" der einzelnen Partner aufzunehmen. Ein entscheidender Faktor bei der Prognose ist auch der verwendete Ansatz bei der Datensammlung und -analyse. Man spricht von einem Top-down-Ansatz, wenn die Unternehmen die Vorhersage auf Wirtschaftsdaten, Branchenanalysen und betriebsspezifische Daten basieren und daraus Schlüsse für einzelne Unternehmen oder Gebiete ziehen. Im Gegensatz dazu extrapolieren Prognostiker in einer Bottom-up-Planung Zeitreihen vergangener Beobachtungen in den einzelnen Unternehmen in die Zukunft. Ein hybrider Ansatz, der die beiden Ansätze zu einer Middle-out-Prognose kombiniert, lässt die Genauigkeit der Vorhersage deutlich verbessern [13]. 26.4.3 Abstimmungsbedarf Die Zusammenführung der autonom geplanten und prognostizierten Bedarfe mag verschiedene Ausprägungen annehmen, im Folgenden werden einige wesentliche Voraussetzungen hierfür angesprochen. Zunächst ist zu klären, welche Eingabedaten für die Planungsrunden herangezogen werden sollen. In einer autonomen Planungsumgebung eines Unternehmens sind dies intern ermittelte Daten. Strebt man nun kooperative Planung an, so können entweder Daten, die netzwerkübergreifend in jedem Unternehmen nach dem gleichen Schema ermittelt werden, zugrunde gelegt werden, oder aber, unter Inkaufnahme eines größeren Bestimmungsaufwands, aufeinander abgestimmte Daten, z. B. unter Berücksichtigung der Prognosedaten der vor- bzw. nachgelagerten Produktionsstufen. Dies mag vor allem dann der Fall sein, wenn Unternehmen in verschiedenen Produktionsnetzen eingebunden und differenzierte Anforderungen zu erfüllen sind. Eine weitere Möglichkeit besteht darin, dass jeder Teilnehmer seine eigenen Rohdaten (z. B. Auftragseingänge beim Großhändler) an eine vorher bestimmte, zentrale Datenbank überstellt. Diese wiederum liefert schließlich die Angaben, die für die Erstellung der Bedarfsvoraussage verwendet werden (vgl. Abbildung 1). Die Wahl der Prognosemethode stellt die Unternehmen vor ähnliche Entscheidungsalternativen: jedes Unternehmen kann seine eigenen, bislang bereits eingesetzten Methoden beibehalten oder aufeinander abgestimmte verwenden (vgl. [11], S. 74). Ferner mag auch innerhalb der gesamten Kette ein einheitlicher Prognosealgorithmus zur Anwendung kommen (vgl. Abbildung 2). Im Allgemeinen kann man davon ausgehen,
Kooperative Vorhersage in Unternehmensnetzwerken
495
dass durch die Kombination verschiedener Verfahren für die Gesamtplanung eine geringere Gesamtabweichung zu erzielen ist [12]. Unternehmen 1
Unternehmen 2
Daten
Daten
Abgleich der Daten, z. B. Plausibilität etc.
Erstellen der Gesamtprognose aus den gesammelten Rohdaten
Prognosewert (Netzebene)
Abb. 1: Prinzip der zentralen Prognose Unternehmen 1
Unternehmen 2
Unternehmen 1
Unternehmen 2
Rohdaten • Unternehmensindividuelle Prognosemethode
Rohdaten i
Rohdaten i
Rohdaten
Unternehmensindividuelle Prognosemethode
Abgestimmte Prognosemethode
Abgestimmte Prognosemethode
i
i
Prognosewert (Unternehmensebene)
Prognosewert (Unternehmensebene)
Kombination der Einzelprognosen zu einem „One-Number Forecast"
X Prognosewert (Netzebene)
1
^
i
1
Prognosewert (Unternehmensebene)
Prognosewert (Unternehmensebene)
Kombination der Einzelprognosen zu einem „One-Number Forecast"
I Prognosewert (Netzebene)
Abb. 2: Kombinationsmöglichkeiten für Einzelprognosen Weiterer Koordinationsbedarf besteht sowohl bei der Planungs- und Prognosefrequenz als auch bei der Länge des Zeithorizonts, der Gegenstand der Vorhersagen ist. Auch der Detaillierungs- bzw. Aggregationsgrad der Daten ist in diesem Zusammenhang festzulegen. Aus vorhandenen Daten müssen die Prognoseverantwortlichen außerdem entsprechende Segmente mit unterschiedlichem Vorhersageverhalten definieren. Dabei sollte versucht werden, homogene Gruppen zu bilden. Wichtig ist anschließend, den richtigen Aggregationsgrad, abhängig von den Bedürfnissen der verschiedenen Unternehmen, für die einzelnen Segmente zu bestimmen. Eine weitgehende Synchronisation der Parameter erscheint für die kooperative Planung notwendig, was jedoch in der Praxis nicht immer gewährleistet werden kann. Insbesondere bei kleineren Betrieben oder auch bei Unternehmen, die in verschiedenen Netzwerken agieren, führt dies zu Problemen, da die Planungssynchronisation entsprechende Ressourcen erfordert und bindet.
496
Mertens, Zeller, Große-Wilde, Lejmi
Neben der hier vorgestellten Verdichtung der Vorhersagewerte zu einer gemeinsamen Prognose mag dies auch mithilfe des verhandlungsorientierten Ansatzes geschehen. Hierbei übermitteln die beteiligten Unternehmen in einem iterativen Prozess ihre Prognosen an den Partner, beurteilen die erhaltenen Werte, passen sie nach Bedarf an und übermitteln das Ergebnis wieder an den Absender. Dieser Vorgang wiederholt sich so lange, bis entweder ein gemeinsamer Kompromiss gefunden oder eine Abbruchbedingung erfüllt wird (vgl. [6], S. 59). 26.4.4 Verdichtungsmechanismen Ziel der gemeinsamen Planung in einem Netzwerk ist die Kombination der unterschiedlichen Vorgehensweisen und Ergebnisse in einem Prognosewert. Da nicht alle Planer der involvierten Parteien im überbetrieblichen Team integriert werden können, verbleibt ein Teil des Expertenwissens bei den einzelnen Teilnehmern. Deshalb mag es sinnvoll sein, zuerst die unterschiedlichen Verfahren innerbetrieblich zu kombinieren, bevor der unternehmensübergreifende Abstimmungsprozess beginnt [17]. Um die von den beteiligten Unternehmen abgegebenen Vorhersagen zu verdichten, lassen sich grundsätzlich zwei verschiedenen Methoden anwenden. 1. 2.
Heuristische Methoden Mathematische Verfahren
Erstere kommen zu einem gemeinsamen Wert, indem im Rahmen von Besprechungen ein Konsens zwischen den Betrieben gefunden wird. Man mag aber möglicherweise auch die vorsichtige oder die optimistische Prognose verwenden (vgl. [15], S. 127). Hierbei setzt man vor allem auf das Experten- und Erfahrungswissen der beteiligten Personen. Nachteilig sind neben der Subjektivität des Verfahrens auch der damit verbundene hohe Abstimmungsaufwand und die Möglichkeit, das Ergebnis zu beeinflussen, indem vorhandene Machtungleichgewichte ausgenutzt werden. Bei den mathematischen Verfahren kommen sowohl eine einfache und als auch eine gewichtete Durchschnittsbildung in Frage [1]. Für die Berechnung der kooperativen Vorhersage KV mithilfe des Mittelwerts, ohne andere Faktoren zu betrachten, setzt man:
Tuv KV=^ N UV^
Vorhersage des Unternehmens /
A^
Gesamtzahl der an der kooperativen Vorhersage beteiligten Unternehmen
Dem offensichtlich nur geringem Aufwand steht die Gleichbehandlung aller Beteiligten und somit die Verschleierung möglicher Informations- und Leistungsasymmetrien gegenüber. Einen Schritt weiter geht die Bildung des gewichteten Mittelwerts KVg. Dieser berechnet sich als:
Kooperative Vorhersage in Unternelimensnetzwerl<en
497
i=l N
/=1
g^ Gewichtung des /-ten Unternehmens Versuche haben gezeigt, dass diese Methodik zu besseren Ergebnissen als die einfache Durchschnittsbiidung führt [8]. Bei der Mittelwertbildung bietet es sich an, eine Gewichtung umgekehrt zur Summe der quadrierten Prognosefehler zu setzen (vgl. [3], S. 724 ff.) oder diese mit Regressionsanalysen zu bestimmen. Die Faktoren lassen sich auch aufgrund von Vergangenheitsdaten (ex post Vorhersagen) [2] über die Vorhersagegenauigkeit von bestimmten Verfahren oder einzelnen Unternehmen ermitteln. Hierbei sind sowohl die unabhängige als auch die Erklärungsvariable über einen abgelaufenen Zeitraum bekannt, sodass es möglich ist, die Leistungsfähigkeit der Prognoserechnungen der einzelnen Betriebe zu messen und zu vergleichen. Nachdem die ex post Analyse durchgeführt worden ist, nutzt man die Methode der kleinsten Quadrate, um die Gewichtung zu bestimmen. Die Koeffizienten sind auf den Wert eins zu restringieren. Die Prognosen werden als unabhängige Variablen der tatsächlich realisierten Nachfrage gegenübergestellt. Für den Fall von zwei Betrieben erhalten wir: D^ = const + ySj *UV^^ + >ff2 *U^2t + ^/
const
Konstanter Faktor
ß^,ß2
Gewichtungsfaktoren
s^
Zufallsfehler
D^
Realisierte Nachfrage zum Zeitpunkt /
t = \...T
Die Ergebnisse des Modells für die Koeffizienten können alsdann für die Gewichtung der kooperativen Vorhersage genutzt werden. Neben den bisher genannten Vorgehensweisen ist auf unternehmensübergreifender Ebene auch eine Gewichtung nach dem Umsatz oder nach der Bedarfsmenge des Unternehmens, die es im Verbund abdeckt, möglich. 26.4.5 Abgleich der Prognose mit der Produktionsmöglichkeit Beim CPFR erstellen nicht nur die Abnehmer Bedarfspläne, sondern auch die Lieferanten. Es liegen ergo mindestens zwei verschiedene Vorhersagen auf den jeweiligen Wertschöpfungsstufen vor, die miteinander abgeglichen werden müssen. Nachdem man die Prognosen der Abnehmer zu einem „One-Number Forecast" verdichtet hat, vergleicht die CPFR-Software diesen Wert mit der Vorhersage der Lieferanten [13]. Abbildung 3 stellt es grafisch dar.
498
Mertens, Zeller, Große-Wilde, Lejmi Nachfragemenge Angebotsmenge
Periode I
Periode II
Periode III
Zeit
Abb. 3: Ermittlung von Abweichungen beim Prognoseabgleich Für den Abgleich ist der Prognosezeitraum in diesem Beispiel in drei verschiedene Perioden aufgeteilt, die von der Flexibilität des Produktionssystems des Lieferanten abhängen. Die Flexibilität beschreibt in diesem Zusammenhang die Möglichkeit des Lieferanten, auf Abweichungen von der eigenen Prognose reagieren zu können (Reaktionskorridor). Im Beispiel mag in der Periode I auf eine Abweichung von +/- 5 %, in der Periode II auf +/-15 % und in der Periode III auf +/- 25 % eingegangen werden. Abweichungen zwischen den beiden Prognosen, welche den vorgegebenen Reaktionskorridor in den jeweiligen Perioden überschreiten, müssen schnell erkannt werden, um mit entsprechenden Anpassungsmaßnahmen reagieren zu können. Folgende Möglichkeiten sind an dieser Stelle denkbar: 1. 2. 3.
Hinzuziehen weiterer Produktionskapazitäten Anpassung von Sonderaktionen Netzwerkexterne Beschaffung bzw. Verkauf
Eine weitere methodische Variante der gemeinsamen Planung, welche unternehmensspezifische Kapazitätssituationen sowie die Unsicherheit in den Prognosedaten berücksichtigt, sieht vor, sowohl optimistische als auch pessimistische Erwartungen auszutauschen. Zusätzlich werden Informationen zu Kapazitätsrestriktionen (Unter- und Obergrenzen) übermittelt. Somit kann man bereits im Rahmen der Prognoseerstellung sicherstellen, dass unter Berücksichtigung von Kapazitätsengpässen jedes Unternehmen auf Basis realistischer Netzwerkkapazitäten plant. Dies ist insbesondere bei einer Verknüpfung der Vorhersage mit dem Supply Network Planning (vgl. [20], S. 282, [4], S. 64 f. und [21]) sinnvoll: Durch rechtzeitige Informationen über den Kapazitätsbedarf können beispielsweise die aus der Stücklistenauflösung resultierenden Vorlaufverschiebungen berücksichtigt werden, um eine möglichst gleichmäßige Inanspruchnahme der Produktionsressourcen zu gewährleisten. Eine weitere Spielart der kooperativen Planung besteht darin, dass die im Wertschöpfungsnetzwerk vorausgehenden Unternehmen anhand vereinbarter Kennzahlen (Indikatoren) frühzeitig Informationen über Änderungen des Absatzes erhalten (vgl. Kapitel
Kooperative Vorhersage in Unternehmensnetzwerken
499
12 dieses Buches). Diese indikatorbasierte Vorhersage mag beispielsweise einem Chipproduzenten Anhaltspunkte für steigende Chipnachfrage geben, sobald der Spielkonsolenhersteller, der diese in seinen Produkten verarbeitet, mehr Geräte verkauft. Auf diese Weise gewinnt Ersterer einen zeitlichen Vorteil, indem er bereits zum Zeitpunkt der steigenden Spielkonsolenverkäufe über den zunehmenden Chipbedarf informiert wird. Folglich kann er sich sofort auf die geänderte Situation einstellen, und nicht erst dann, wenn sich die Nachfrage bereits in seinem Bestelleingang widerspiegelt. Voraussetzungen für die Indikatorprognose sind eine enge Korrelation der Parameter sowie ein zeitliches Vorauseilen des Indikators gegenüber der zu prognostizierenden Größe(vgl. [19], S. 176 f.). In der bisherigen relativ frühen Phase des CPFR sind wenig reife Anwendungen vorzufinden. Die interessantesten Beispiele findet man in der Konsumgüter-Branche [10]. Dort hat man es mit relativ einfachen Erzeugnisstrukturen zu tun. Betrachtet man hingegen Branchen mit komplexeren Erzeugnissen (z. B. Elektronik, Maschinenbau, Fahrzeugbau), so muss der Schritt von der Prognose der Enderzeugnisbedarfe zu der Nachfrage nach Baugruppen, Einzelteilen und Rohstoffen getan werden. Analog zur Produktionsplanung im Industriebetrieb bietet es sich an, die Erzeugnisstrukturen aufzulösen (Stücklistenauflösung). Wenn - der Natur der Wertschöpfungsnetze entsprechend - untergeordnete Stücklistenpositionen von weit entfernten Produktionsstätten, Distributionszentren u. ä. beschafft werden, sind von Auflösungsstufe zu Auflösungsstufe individuelle Vorlaufzeiten zu berücksichtigen. Danach hat man aus der Vorhersage der Enderzeugnisbedarfe die der Nachfrage nach Baugruppen, Einzelteilen und Rohstoffen abgeleitet (vgl. [20], S. 139 f.). Wiederum analog zur innerbetrieblichen industriellen Produktionsplanung ist abzuwägen, auf welcher Stufe der Erzeugnisstruktur die Vorhersage stattfinden soll (vgl. [5], S. 55 und [20], S. 135): Bei Produkten, die sehr individuell an den Kundenwunsch angepasst werden können (z. B. Textilien nach Farbe und Größe, PKWs nach Ausstattungsdetails), kommt das eigentliche Enderzeugnis in so vielen Varianten vor, dass keine statistische Basis gegeben ist, vgl. Kapitel 21 dieses Buches. Wenn der Variantenbestimmungspunkt nahe am Endkunden liegt, ist zu erwägen, die Prognose auf die zweite Stücklistenebene zu begrenzen. 26.5 Kritische Würdigung Durch die kooperative Planung in Netzwerken erschließen sich teilnehmende Betriebe die Möglichkeit, den zukünftigen Bedarf genauer prognostizieren zu können. Die Probleme, die durch die Erweitung des Prognoseobjekts auf den Bedarf des gesamten Netzwerks resultieren, sind häufig dieselben, die auch intern existieren: In erster Linie gilt es, die gelieferten Prognosedaten soweit zu vereinheitlichen und abzustimmen, dass für die Gesamtvorhersage in sich konsistente Einzeldaten vorliegen. Während jedoch innerhalb eines Unternehmens die Vereinheitlichung der oben genannten Parameter relativ problemlos durchzuführen ist, ergeben sich bei übergreifenden Vereinbarungen insbesondere dann Schwierigkeiten, wenn ein Unternehmen in verschiedenen Netzwerken agiert und Prognosefrequenz, -Zeitraum etc. an mehrere Partner anpassen muss. Ein erhöhter Planungsaufwand erscheint häufig unvermeidlich.
500
Mertens, Zeller, Große-Wilde, Lejmi
Die Wahl des verwendeten Prognosealgorithmus ist ebenfalls venA/andt zu internen Problemstellungen. Jedoch zeigt die Praxis, dass hierbei vermehrt auf einfache Verfahren zurückgegriffen wird. Im Hinblick auf die mathematische Komplexität einiger Prognoseverfahren ist dies nahe liegend, da neben treffenden Prognoseergebnissen auch der Plausibilität und Kommunizierbarkeit der Verfahren Bedeutung zukommt.
26.6 Literatur [I] [2] [3] [4] [5] [6] [7]
[8]
[9] [10]
[II] [12] [13] [14] [15] [16] [17]
[18] [19] [20]
Chase, C.W., Measuring Forecast Accuracy, Journal of Business Forecasting 14 (1995) 3, S. 2 und S. 24 f. Chase, C.W., Composite Forecasting: Combining Forecasts For Improved Accuracy, Journal of Business Forecasting 19 (2000) 2, S. 2 ff. DeLurgio, S.A., Forecasting Principles and Applications, Boston 1998. Dickersbach, J.T., Supply Chain Management with APO, Berlin 2004. Dittrich, J., Mertens, P., Hau, M. und Hufgard, A., Dispositionsparameter von SAP R/3PP, 3. Aufl., Braunschweig-Wiesbaden 2003. Dudek, G., Collaborative Planning in Supply Chains. A Negotiation-Based Approach, Berlin 2004. ECR Initiative Deutschland, Managementinformation Collaborative, Planning, Forecasting and Replenishment, http://www.ecr.de/daten/Files/managementpapier__cpfr. pdf, Juli 2001, Abruf am 2004-02-15. Fischer, I. und Harvey, N., Combining Forecasts: What Information Do Judges Need to Outperform the Simple Average? International Journal of Forecasting 15 (1999) 1, S. 227 ff. Fontanella, J., CPFR: Lessons in Collaboration for Any Industry, AMR-Research Alert, 2004-02-03. Fräser, J., CPFR - Status and Perspectives: Key Results of a CPFR Survey in the Consumer Goods Sector and Updates, in: Seifert, D. (Hrsg.), Collaborative Planning, Forecasting and Replenishment - How to create a Supply Chain Advantage, Kevelaer 2002, S. 83 ff. Friedrich, J.-M., Supply-Chain-Management-Software für kleine und mittlere Unternehmen - Lösungsmöglichkeiten mit Componentware, Aachen 2002. Gaynor, P.E. und Kirkpatrick, R.C., Introduction to Time-Series Modeling and Forecasting in Business and Economics, New York 1994. Johnson, M., Transforming B2B Exchanges into Collaborative Trading Communities. White Paper, Syncra Systems, Waltham, MA, 2000. Kahn, K.B., Revisiting Top-Down versus Bottom-Up Forecasting, Journal of Business Forecasting 17 (1998) 2, S. 14 ff. Knolmeyer, G., Mertens, P. und Zeier, A., Supply Chain Management Based on SAP Systems: Order Management in Manufacturing Companies, Berlin 2002. Lee, H. L., Padmanabhan, V. und Whang, S., Der Peitscheneffekt in der Absatzkette, Harvard Business Manager 19 (1997) 4, S. 78 ff. Lejmi, H. und Zeller, A.J., Einsatz des Kooperativen Planens in B2B-Abwicklungsplattformen - Konzept und praktisches Beispiel, FORWIN-Bericht 2002-011, Nürnberg 2002. Lenders, R. und van Zundert, L., Forecast/Demand Planning 2003, White Paper, Cap Gemini Ernst & Young, Utrecht 2002. Meffert, H., Marketing - Grundlagen marktorientierter Unternehmensführung, Konzepte, Instrumente, Praxisbeispiele, 9. Aufl., Wiesbaden 2000. Mertens, P., Integrierte Informationsverarbeitung, Band 1: Operative Systeme in der Industrie, 14. Aufl., Wiesbaden 2004.
Kooperative Vorhersage in Unternehmensnetzwerken [21]
[22]
[23]
[24] [25]
[26] [27]
501
Rohde, J. und Wagner, M., Master Planning, in: Stadtler, H. und Kilger, C. (Hrsg.), Supply Chain Management and Advanced Planning. Concepts, Models, Software and Case Studies, Berlin 2002, S. 143 ff. Seifert, D., CPFR als neuer Strategieansatz, in: Seifert, D. (Hrsg.), Collaborative Planning, Forecasting and Replenishment - ein neues Konzept für state-of-the-art Supply Chain Management, Kevelaer 2002, S. 55 ff. Treeck, S. und Seishoff, M., CPFR in Germany, Austria and Switzerland, in: Seifert, D. (Hrsg.), Collaborative Planning, Forecasting and Replenishment - How to create a Supply Chain Advantage, Kevelaer 2002, S. 144 ff. Triantis, J.E., Collaborative Forecasting: An Intra-Company Perspective, Journal of Business Forecasting 21 (2002) 1, S. 13 ff. Wagner, M., Demand Planning, in: Stadtler, H. und Kilger, C. (Hrsg.), Supply Chain Management and Advanced Planning. Concepts, Models, Software and Case Studies, Berlin 2002, S. 123 ff. Werner, H., Supply Chain Management, Wiesbaden 2000. Zhou, W., Integration Of Different Forecasting Models, Journal of Business Forecasting 18(1999)3, S. 26 ff.
Stichwortverzeichnis A priori Verteilung 471, 476 Abbauende Regression 129 Absatzeinbruch 335 Absatzplanung 143 Absoluter relativer Prognosefehler 478 Abstimmungsbedarf 494 Abstimmungsprozess unternehmensübergreifend 496 Abweichungssignal 137, 346, 357 Accuracy ratio 444 Adaption 336 Adaptive Einflussgrößenkombination (AEK) 125 Adaptive exponentielle Glättung 351, 352 Adaptive Parameteranpassung 343 Adaptives Smoothing 137 Adaptives Verfahren 351 Adaptives Filtern 146 Adaptives Gewichten 125 Adaptivität 346 Additionstheorem 93 Additiver Ausreißer (AO) 337, 338, 344, 355 Advanced Planner & Optimizer (APO) 492 AlC-Kriterium 249 Aktionspreis 410 Alpha-Fehler 439 An-Algorithmus 257 Anfangsschätzung 129 Anpassungsgeschwindigkeit 346 Anpassungsgüte 370, 371 Anpassungsmaßnahmen 498 Anreizkompatibles Abweichungsmaß 445 Anzahlverteilung 80 Arbeitslosenversicherung 455 Arbeitsmarktprogramme 449 ARCH-Modell 336 ARIMA-Modelle 208, 223, 354 ARL (average run length) 349 ARMA-Modelle 223,244 ARMAX-Modelle 250 AR-Prozess 244 Ausfalldominanz 441,442 Ausgleichsrechnung 125 Ausreißer 361 singulare, transiente, permanente 335
Ausreißerdiagnose 343 Ausreißerfehlklassifikation 360 Ausreißerklassifikation 336,340 Ausreißermodellierung 343 Ausreißerstärke 349 Ausreißertypen 337 Ausreißerzeitpunkt 349 Außenseiterereignis 83 Auswahl der besten Maßnahme 454 Auswahl von Prognoseverfahren 367, 394 Auswahlprozess 449 Auswahlsystem 309 Autokorrelationssignal 347,348 Automatisches Modellsuchverfahren 360 Automatische Prognose 393 Automatisches Prognosesystem 391 Automatisches Diagnoseverfahren 340 Autoregressive Filter 427
B Backward CUSUM 347, 348 Bass-Modell erweitertes 191 generalisiertes 184 Grundmodell 178 Bayes-Faktoren 353 Bayesian Forecast 146 Bayesianische dynamische lineare Modelle 340,351,353 Bedarf konstanter 70 regelmäßiger 61 sporadischer 61 unregelmäßiger 62 Bedingte Prognose 250 BehaviorScan 199 Bekanntheitsgrad 172 Benchmark 375,378 Bertalanffy-Funktion 183 Bestelldisposition 155 Bestimmtheitsmaß 380, 411 Beta-Fehler 439 Betriebswirtschaftliche Entscheidungsfunktion 384 Beurteilende Prognosemethoden 367 Bewertungsmatrix 301
504
Stichwortverzeichnis
BIC-Kriterium 249 Binomialmodell 463 312 Biologische Intelligenz Boltzmannmaschine 316 Bonferron i-Korrektu r 385 Bonus-Modell 188 Bottom-up-Planung 494 Box-Jenkins-iVIodelle 146, 335, 337, 344, 354,398 Brier-Maß 445 Brier-Score (BS) 381,445 Brown-Verfahren 29, 125 Budgetplanung 423 Bullwhip-Effekt 489
C 437 Capital Asset Pricing Model Capture-Recapture-Modell 481 137 CAS FSM Case-Based Reasoning 319 CE 383 Chow-Verfaiiren 146 Cochran-Satz 93,99 Collaborative Planning, Forecasting and Replenishment (CPFR) 489 137 COPICS Crossover 323 Cross-Selling 431 Cross-Selling-Potenzial 435 CumRAE 379 443 Cumulated accuracy profile CUSUM 346, 348
D DAF Data-Snooping-Test Datenanalyse Datenbanken Datenexploration Datengenerierungsprozess Datenquellen Datenstutzung Datensubstitution Daumenregeln Deckungsbeitragsrechnung Deckungsbeitragssatz Delphi-Methode Demand Planning
145 385 9 397 340 354 9 343 343 310 434 431 398 419
307 Dempster-Shafer-Logik Deterministisch-stochastische Prognose 73 356 Diagnosetechniken 349 Diagnosezeitpunkt Dichteprognose 335 , 368, 386 341 Dickey-Fuller-Test Diebold-Mariano-Test (DM-Test) 384, 390 Diffusionsverlauf 169, 183^,191,201 137 DIOS DIS1,DIS1/L 151 156 DIS 2, DIS 2/L Diskontfaktor 351 Diskriminanzanalyse 321 Disponentenprognose 143 Distribution gewichtet 410 Double Exponential Smoothing 29 DOUBTS-Verfahren Drei-Parameter-Modell mit Fehlerdifferenzausdruck Durchschnitt exponentiell gewogener gewogener gleitender gleitender Durchschnittliche Lauflänge Durchschnittsalter von Daten Durchschnittsrang Dynamische Prognosesimulation Dynamisches Lernen Dynamisches Vorhersagemodell
39 36 18 18 16 348 24 370 372, 379 336 67
E Eingriffsmöglichkeiten Einkaufsstättenwahl Einkommenswachstum Encompassing Endogener Prozess Entwicklungspotenzial Ereignisindizes Ereignisprognose Error-Backpropagation Ersatzbedarf Erstkäufe Erwartungstreue Prognosen Erzeugende Funktion Evaluation Evaluationsmaß Ex ante Prognose
8 414 188, 190 388,389
368,
93,
368, 125,
170 435 344 381 312 193 185 127 284 340 369 371
Stichwortverzeichnis 370 ,371 Ex post Evaluation Ex post Prognose 125,212 ,370 137 ,157 EXFOR Exogener Prozess 170 Expertensystenn 211, 387, 389, 393 ,449 Expertenwissen 306 ,311 Exponential Smoothing 18 Exponentielle Funl
F Fehlalarm Fehlalarmrate Fehlerdifferenzausdruck Fernsehzuschauerpanel Finanzprognose Fisher-Verteilung Fixe Schätzung Fixed-Effects-Modell Flexibles Modell FLOG-Modell Forecasting coefficient Forrester-Effekt Fourier-Frequenz Fourier-Glättung Fourier-Polynom Frames Frühwarnfunktion Frühwarnsystem Fuzzy-Logik
382 349 36 406 157 ,314 97 373 107 181 185 148 489 52 51 52 306 335 335 307
G GARCH-Modelle Gauß-Jordan-Algorithmus Gauß-Markov-Theorem Geglättetes Fehlersignal Generalisierbarkeit Genetik Genetischer Algorithmus Geschäftstypen
336 133 125 347 392 323 323 408
Gini-Kurve Glättungsparameter GMRAE Gompertz-Modell Greatest-change-Version Grundmodell Gütemaß
505
443 21,-41,44,56 379 179 132 171 374
H Halbordnung von Wahrscheinlich441 keitsprognosen 408 Handelsaktion Handelsberichterstattung 408 Handelsgeschäft 408 Handelspanel 405, 406 Handzettel 410 Harmonische Schwingung 51 Hazardrate fehlerbezogene 463 Programm461 92 Heteroskedastizität Holt-Verfahren 34, 42, 51,125 Holt-Winters-Verfahren 39, 40, 56, 344, 348 Fehlerkorrekturform 43 44 Implementierung des mit exponentiellem Trendterm 50 mit gedämpftem Trendterm 43 mit normiertem Saisonfaktor 43,48 Rekursionsform 43 Homogener Absatzmarkt 170 91,98 Homoskedastizität HÖREST 127, 137, 138 Horizontale Prognosegenauigkeit 400 Hybridsystem 322 482 Hypergeometrische Verteilung
1 Identifizierbarkeitsproblem Imitatoren IMPACT Implementation Indikatorvariable Indikatorverfahren Indikatorvorlauf Individuelle Prognose Inferenzkomponente Informationsbasis
245 177 61,137 392 355 205 208 449 305 369, 395
506
Stichwortverzeichnis
Informationsdefizit 361 Inhomogener Absatzmarkt 170 Initialisierung 44, 55, 360 337, 339, 355 Innovationsausreißer (10) 356 Innovationsfehlerfolge 339 Innovationsterm 178 Innovator 264 Input-Koeffizient 276 Input-Output-Auswertungsprogramm 266 Input-Output-Modell 262 Input-Output-Tabelle 427 Instabilitätsfilter Instationarität 340 deterministische, stochastische Interpretation 311 Intervallprognose 91, 368, 381, 383 Interventionsanalyse 354 Interventionsfunktionsmodell 344, 354 Interventionsmodell 337 In verser Koeffizient 269 Investitionsmatrix 88 Irreguläre Komponente 353 Iterative Ausreißerdiagnose 358
K Kalendereffekt 360 Kalibration von Schwellenwerten 348 Kalibrationsstichprobe 371 Kalibrierung 439 Kalkulationszinsfuß 432 Kaiman-Filter 146 Kausaleffekt 337,353 Kausalkräfte 389 Kennzahlensystem 335 Klassen von Nachfragern 70 Klassische Zeitreihen-Zerlegung 146 Kleinst-Quadrate-Kriterium (KQ) 108, 132,240 k-nearest neighbor (kNN) 114 Kohonennetz 316 Kolmogoroff-Wiener-Filter 146 Kombination durch RBF 387 Kombination durch Regression 387, 388 Kombination durch Varianzminimierung 387, 388 Kombination von Prognosen 367, 386 Kombinierte Vorhersage 75, 146, 209 Konfidenzintervall 91, 335, 388, 393
Konfiguration von Monitoren 360 Konkurrenzpreis 408 Konsequenz der Parameterunsicherheit 385 274 Konsistenzprüfung 13 Konstantes Modell 380 Konstruktvalidität 176 Kontaktkomponente 152 Kontrollsignal 127 Korrekturfaktor 206 Korrelationsanalyse 369 Kosten- oder Risikofunktion 369 Kostenfunktion 157 Kosten Prognose 99, 248 Kovarianzfunktion 240 KQ-Prädiktor 439 Kreditausfallprognose Kreuzvalidierung-Penalizing-Funktion 121 119 Kreuzvalidierungs-Technik 400 Kriteriengesteuerte Vorauswahl 382 Kuipers-Score (KS) Kumulierter relativer absoluter Fehler 379 435 Kundenabwanderung 62 Kundenstruktur 431 Kundenwertprognose Künstliche Intelligenz 1, 305 Künstliches Neuronales Netz 201, 305, 312
Lagerbestand Lagerbewirtschaftung Lagerkosten Largest-increase ruie Lead-Lag-Beziehung Leontief-Matrix Lernalgorithmus Lernratenparameter Lernvorgang Lieferfaktor Lineare Prognosekombination Linearer Filter Lineares Modell Linearitätshypothese Logarithmische Abweichung LOGIS 1 Log ische I nterpretierbarkeit Logistische Funktion erweiterte generalisierte
65, 143 136 143 132 206 267 317 351 312 74 387 215 13 91,98 445 157 127 185 182
Stichwortverzeichnis Grundmodell Logits Lognormalverteilung LSDV-Schätzer
172 175 63 108
M M2-Competition M3-Competition Machtverteilung MAD MAE MAPE
391 391 493 346 376 145, 376 377 377 145 244 405,406 422
MAPEniod MAPEs MAPF MA-Prozess Marketing-Mix-Modell Marketingplanung Markovkette absorbierend 291 ergodisch 283 nichthomogen 299 periodisch 296 283 regulär Markovprozess 279 469 Semizeitstetiger 463 Marktanteilsprognose 195 397 Marktpopularität Marktpotenzial 172 272 Marktverflechtungsanalyse 394 Massendaten Maximum-Likelihood-Methode 93, 248, 465, 467, 468^,472, 475 Maximum-Likelihood-Schätzung 474 M-Com Petition 391 377 MdAPE MdE 377 379 MdRAE ME 376 Medienpanel 405 Mehrstufiger Prognosefehler 384 Mengenverteilung 80 150 Mertensschwelle Metavariable 408 Methodenauswahl 305 Methodenbank 158 MGN-Test 384, 390
MICRO 1-0 Middle-out-Prognose Missing Hit-Rate Mittelwertfunktion Mittlere Lauflänge Modell höherer Ordnung Modelleinschluss Modellidentifikation Modellschätzung Monitor Monitoring MPE MR-Test MSE Multilayerperceptron Multiple Comparison with the Best Multiples Testproblem Multiplikativer Ansatz Multiplikatives Modell MURA Mustererkennung Mutation
507 276 494 349 462 349 14 389
335, 340 340 335 353 376 384, 390 374,376 312 454 349 140 483 126, 157 312 323
N Nachfrageintervall 70 Naive Prognose 136, 210,255 Naives Verfahren 398 Nelder-Mead-Verfahren 409 Neuprodukt 395 Nichtparametrische Verfahren 113 353 Niveau Niveauverschiebung (LS) 335, 337, 338, 345, 355 41 Niveauwert Normalpreis 410 NP1, NP2 138, 147 NSRL-Modell 185 NUl-Modell 184 Nutzer von Prognoseverfahren 396 Nutzer-Anforderungen 396 Nutzung von Prognoseverfahren 397
0 One-Number Forecast Optimale Auswahl Optimales Instrument Organisationsform Outlier
497 449 450 408 337
508
Stichwortverzeichnis
OUTLOOK Output-Koeffizient Overfitting
362 263 248
Paneldaten 405, 406 Parzen-Verfahren 147 Pattern Search 147 Pegels-Gardner-Familie 344 Penetration 431 Penetrationspotenzial 435 337 Permanente Niveauverschiebung Plan-Ist-Vergleich 335, 362 492 Planning Book 335 Plan-Prognose-Vergleich 422 Planungsablauf 495 Planungsfrequenz 311 Plausibilitätskontrolle Poissonprozess 471 nichthomogener 435, 472 Poisson-Verteilung 63, Power curve 443 Prädiktor 240, 247 Präquenzielle Likelihoodfunktion 478 Produkthierarchie 337 Produktionsausfall 338 Produktionsmatrix 87 Produktionsmöglichkeit 497 Produktionsplanung 87, 157,169,271 Produktlebenszyklus 169, 191 Produktstruktur 419,421 Prognoseäquivalenz 383 Prognosedialog 157 Prognoseevaluation 368, 389 Prognoseevaluationsmaß 374 Prognosefähigkeit 371 Prognosefehler 335, 369,370, 374 einstufig 380 Prognosefrequenz 495 Prognosefunktion 40, 50,335, 341 Prognosegenauigkeit 367, 368, 394 Prognosegüte 344, 492 Prognosehorizont 369 Prognoseintervall 10 Prognose-Ist-Kombination 382 Prognosekombination 389 Prognosekonfidenzintervall 372 Prognosekosten 152
Prognosemethode 492 Prognosemodell Anforderungen 7, 126 Arten 11,137 Systematik 12 Prognosenutzer 394 Prognose-Realisations-Diagramm 210 Prognosesimulation 372,400 Prognosesoftware 58,396 Prognosetreffer 382 Prognoseursprung 369 Prognosevarianz 341,343 Prognosevergleichstest 389 Prognosewettbewerb 344, 367, 372, 380, 386, 391 Programm-Evaluation 450 Programmhazardrate 461 Propensitätsscore 452 Proper scoring ruie 445 Prospektive Verfahren zur Kundenbewertung 432 Prozent-besser PB (Percentage Better) 379, 380 Prozentualer Absoluter Fehler 146 Prozessänderung 335 Prozessänderungsarten 337 Prozesse 340 instationär 242 regulär 242 Singular 239, 242, 340 stationär 382 PT-Test 355 Puls-Funktion 91, 111,368,393 Punktprognose
Quadratische Risikofunktion Qualität der Schätzung Quantilregression Quelle-Verfahren
384 410 389 147
RAE (relative absolute error) 370, 378 Random-Effects-Modell 107 Random Walk 341, 370, 378, 398 RBF (ruIe based forecasting) 389 Reagibilität 8 Reaktionskorridor 498
Stichwortverzeichnis Reallokationsausreißer (RO) 337,339,,353 ,355 Rechenzeit 8, 128, 129, 136,, 147, 148 Referenzverfahren 378 431 Referenzwert Regeln 306 Regelwerk 387 Regression abbauende 129 aufbauende 129 dynamische 336 ,398 einfache lineare 91 lokal gewichtete 116 multiple lineare 98 ,484 multiplikative 409 multiVariante 320 nichtlineare 104 ,409 schrittweise 129 stagewise 158 stepwise 158 zweidimensionale lineare 101 Regressionsanalyse 91,105, 207,,435 Regressionsgerade 96 Regressor 360,,373 Rekalibrierung 479 147 Rekursive Funktion 380 Reliabilität Restkomponente 40 Retrospektive 431 Retrospektive Evaluation 370 Richtungsprognose 368 Risikoaverse Prognose 381 Risikofunktion 369 342 RLARMA (random level shift ARMA) RMSE 255,,376 Robuste Zeitreihenanalyse 336 380 Robustheit 444 ROC-Kurve 160 Rollierende Prognose 373 Rollierende Schätzung Root Mean Squared Error 255
S Sach- und Aggregationsebene Saison Saisonaler Puls Saisonaler Random Walk Q a i c n n o l a r I m n i i l c (
'X'Xl
395 39,,353 353 378,,398
509
Saisonfaktor 42,51 Saisonfilter 427 Saisonkomponente 40 Sales-Force-Composite 398 SARIMA-Modelle 223 337 SARIMAX-Modelle Sättigungsgrenze 169 Sättigungsmodell 169 Scanner-Handelspanelmodell 407 Scannerpanel 406 Schrittweise Autoregression 147 349, 360 Schwellenwert SEATREND-Verfahren 39, 50, 56 Implementierung 55 Selbstanregender Punktprozess 461 Selbstorganisierende Karten 315 Serviceniveau 375 SHIPWRECK 362 154,393 Sicherheitsbestand 383 Sicherheitswahrscheinlichkeit Signalstatistik 349 Signifikante Veränderung 70 Signifikanzprüfung 134 349 Signifikanztest Simulation 273, 405 359 Simultane Ausreißerdiagnostik Skill-score 445 Softwarefehler 459 Softwarepaket 353 Softwaretest nutzungsprofilorientierter 476 systematischer 476 Softwareversagen 459 459 Softwarezuverlässigkeit Softwarezuverlässigkeitswachstumsmodelle (SZWM) 460 Speicherplatzbedarf 8, 143 Spektrale Dichte 244 64 Sporadische Nachfrage Stabilität 8 Standardsoftware 419,421 Startmodell 358 Startwertalgorithmus 345 Startwert 345, 360 Startwertroutine 345 Statische Prognosesimulation 372, 379 Statische Simulation 393 Statistische Qualitätskontrolle 346
510
Stichwortverzeichnis
Statistische Sicherheit 135 STEAM 198 Störgröße 92 Störpegel 62 Streuungsschätzer 335 Strukturanalyse 78 Strukturbruch 91, 96, 337, 354, 400, 476 Strukturelles Auswahlkriterium 399 Strukturkomponentenmodell 344 bayesianisch, frequentistisch 353, 398 Strukturveränderung 72 Student-Verteilung 94, 134 Stufen-Funktion 355 Stufenmodell 147 Stutzung 379 Subjektives Verfahren 397 Supply Chain Management 256, 419, 492 Supply Network Planning 498 Systemstruktur 419
Trennschärfe Triangulation Trigg-Signal Trigonometrische Modelle
439 265 348 14
U Übergangsfunktion Übergangsgesetzmäßigkeit Übergangsrate Übergangswahrscheinlichkeit Unabhängigkeit der Prognosefehler Underfitting Unit-Root-Test Unternehmensnetzwerk Unternehmensplanung Unternehmungsbewertung Unverschmutzte Zeitreihe ü-Plot Up-Selling
79 78 461 461 384 248 341 489 157 157 354 478 431
V Temporärer Übergang 337 Teststichprobe (out-of-sample) 371 Theilsches U 145, 210, 370, 378 Top-down-Ansatz 494 Topologie 312,317 Track Record 367, 371 Track-Record-Analyse 370 Training 317 Trainingsmethode 312 Transaktionshäufigkeit 431 Transaktionssystem 397 Transfer- und Interventionsfunktionsmodell 398 Transferfunktionsmodell 337 Transienter Übergang (TC) 337, 338, 353, 355 Transparenz 311 Trend 353 36, 157 gedämpfter linearer 28, 126, 160 quadratischer 136 Trendänderung (TS) 337, 339, 355 Trendfaktor 42 Trendkomponente 40 Trendverschiebung 335 Trendwendeindikator 382 Trendwendeprognose 382
Validierung Variabilitätsmaß Variable selection procedure Variantenbestimmungspunkt Varianzänderung (VC) Varianzausreißer (VC) Varianzerhöhung Varianzminimierende Prognosekombination Vektorautoregressive Modelle (VAR) Verbraucherpanel Vererbungsprinzip Vergleiche der Prognosemodelle Versagensintensität Verteilung einfache komplexe Verteilung von Trigg's Signal Verteilungsvektor Vertriebsplanung Vertriebsschiene Vertriebsstruktur Verweilzeitverteilung Volatilitätsmodell Volatilitätsprognose Vollständigkeit
311 478 158 499 340 355 337 388 253,255 405,407 323 318 462 81 81 350 81 422 408 419 77, 192 336,337 386 311
Stichwortverzeichnis Vorhersagezeitraum
10
W Wahrscheinlichkeitsprognose 368, 381, 439 Weblus-!\/lodell 187 Wedekind-Modell 64 Weibull-Funktion 66, 183, 474 Weißes Rauschen 243 Wendepunkt 170, 174, 180, 183, 184, 382 Wendepunktfehler 383 Werbeaktion 337 Werksplanung 423 Wertverteilung 81 Wiederholungskauf 192 Wiener-Filter 146, 219 Wiese-Verfahren 147 WIN AS 147 WINEGLASS 362 Winsohzing 379 Winters-Verfahren 137, 138 Wissensbasis 305 Wissensrepräsentation 306 Wissensverarbeitung 307 Wold-Darstellung 243 Y y-Plot 478
Zustandsraummodell Zwei-Parameter-Modell mit gedämpftem Trend nach Holt Zyklische Matrix
344, 353 35 34 297
511