Thomas Hillig Verfahrensvarianten der Conjoint-Analyse zur Prognose von Kaufentscheidungen
GABLER EDITION WISSENSCHAF...
223 downloads
719 Views
4MB Size
Report
This content was uploaded by our users and we assume good faith they have the permission to share this book. If you own the copyright to this book and it is wrongfully on our website, we offer a simple DMCA procedure to remove your content from our site. Start by pressing the button below!
Report copyright / DMCA form
Thomas Hillig Verfahrensvarianten der Conjoint-Analyse zur Prognose von Kaufentscheidungen
GABLER EDITION WISSENSCHAFT
Thomas Hillig
Verfahrensvarianten der Conjoint-Analyse zur Prognose von Kaufentscheidungen Eine Monte-Carlo-Simulation
Mit einem Geleitwort von Prof. Dr. Dr. h.c. Klaus Backhaus
Deutscher Universitats-Verlag
Bibliografische Information Der Deutschen Bibliothek Die Deutsche Bibliothek verzeichnet diese Publikation in der Deutschen Nationalbibliografie; detailiierte bibliografische Daten sind im Internet uber abrufbar.
Dissertation Technische Universitat Berlin, 2004
D83
I.Auflage April 2006 Alle Rechte vorbehalten © Deutscher Universitats-Verlag I 6WV Fachverlage GmbH, Wiesbaden 2006 Lektorat: Ute Wrasmann / Sabine Scholler Der Deutsche Universitats-Verlag ist ein Unternehmen von Springer Science+Business Media. vvww.duv.de Das Werk einschlieBlich aller seiner Telle ist urheberrechtlich geschiitzt. Jede Verwertung auBerhalb der engen Grenzen des Urheberrechtsgesetzes ist ohne Zustimmung des Verlags unzulassig und strafbar. Das gilt insbesondere fiir Vervielfaltigungen, Ubersetzungen, Mikroverfilmungen und die Einspeicherung und Verarbeitung in elektronischen Systemen. Die Wiedergabe von Gebrauchsnamen, Handelsnamen, Warenbezeichnungen usw. in diesem Werk berechtigt auch ohne besondere Kennzeichnung nicht zu der Annahme, dass solche Namen im Sinne der Warenzeichen- und Markenschutz-Gesetzgebung als frei zu betrachten waren und dahervon jedermann benutztwerden diirften. Umschlaggestaltung: Reglne Zimmer, Dipl.-Designerin, Frankfurt/Main Druck und Buchbinder: Rosch-Buch, ScheBlitz Gedruckt auf saurefreiem und chlorfrei gebleichtem Papier Printed in Germany ISBN-10 3-8244-8329-7 ISBN-13 978-3-8244-8329-7
Geleitwort Die Prognose von Kaufentscheidungen steht seit jeher im Zentrum von Marketingiiberlegungen. Methodische Basis ist in zahlreichen Fallen die Conjoint-Analyse, der sowohl in Wissenschaft als auch Praxis eine herausragende Bedeutung zukommt. Mittlerweile ist ein umfangreiches Methodenarsenal entwickelt worden, und es fallt nicht nur Praktikem schwer zu entscheiden, wann welche Verfahrensvariante eingesetzt werden sollte. Diese Fragestellung ist Gegenstand vieler Vergleichsstudien, die insbesondere auf Grundlage empirisch erhobener Daten Handlungsempfehlungen ableiten. Problematisch ist dabei allerdings, dass solche Aussagen nicht ohne weiteres verallgemeinert werden konnen, da sie lediglich fur die jeweiligen Versuchbedingungen Gultigkeit haben. Aus diesem Grund werden mit steigender Tendenz Monte-Carlo-Simulationen zum systematischen Verfahrensvergleich eingesetzt. Dabei wird die Struktur empirischer Erhebungen mit Zufallszahlen nachgebildet und zugleich mehrere Einflussfaktoren variabel defmiert, fur die auch bei empirischen Erhebungen ein Einfluss auf die Ergebnisse vermutet wird. Allerdings beschranken sich die bisherigen Monte-Carlo Vergleichstudien primar auf Segmentierungsaufgaben und klammem allesamt die explizite Abbildung von Kaufentscheidungen - einschlieBlich der Abbildung von Nicht-Kaufen - aus. Der Verfasser ordnet conjoint-analytische Verfahrensvarianten auf Basis des Praferenzkonstruktes ausgehend von der traditionellen Conjoint-Analyse in den Kontext von Kaufentscheidungen ein. Dabei unterscheidet er zwei Strange, wobei sich die wahlbasierten Ansatze durch eine unmittelbare Beriicksichtigung von Kaufentscheidungen auszeichnen, wahrend die metrischen Ansatze erst durch die Ende der 1990er Jahre vorgestellte Einfuhrung einer so genannten Limit-Card auch Nicht-Kaufe berucksichtigen konnen. Die Erhebung von wahlbasierten Informationen ruft eine Informationsdichteproblematik hervor, die allerdings durch effiziente Losungsansatze wie Hierarchical-Bayes- und Latent-Class-Algorithmen beherrscht werden kann. Der Verfasser ubertragt diese informationseffizienteren Algorithmen auf den metrischen Ansatz und bezeichnet die resultierenden Verfahrensvarianten als Limit-FiniteMixture- und Limit-Hierarchical-Bayes-Conjoint-Analyse. Dim stehen damit sechs verschiedene conjoint-analytische Ansatze zur Verfugung, die grundsatzlich zur Analyse von Kaufentscheidungen geeignet sind. Eine qualitative Gegeniiberstellung der Verfahrensvarianten und eine Ubersicht iiber bereits veroffentlichte empirische Studien sowie eine grundsatzliche Diskussion iiber die Aussagekraft von Vergleichsstudien auf Basis empirischer bzw. simulierter Daten zeigt die Vorziige einer Monte Carlo-Simulation fur die im Rahmen dieser Arbeit bearbeitete Forschungsfrage. Im praktischen Teil der Arbeit erfolgt die Durchfiihrung der Monte-Carlo-Simulation. Der Verfasser begriindet die Auswahl der explizit untersuchten und der konstant gehaltenen Einflussfaktoren. Dariiber hinaus werden die Simulation der Datengrundlage und die Wahl der GutemaBe sowie die konkrete Operationalisierung der ausgewahlten Verfahrensvarianten dar-
gestellt. Die groB angelegte Monte-Carlo-Simulation zahlt zu der umfangreichsten ihrer Art, was sich nicht zuletzt beim Blick auf Details offenbart: es wurde entgegen der haufig anzutreffenden Gewohnheit kein Rechenaufwand gescheut und u.a. ein groBer Stichprobenumfang von 300 Auskunftspersonen simuliert. Die kontextspezifischen Ergebnisse werden mit dem Instrumentarium der Varianzanalyse ausgewertet, wobei es dem Verfasser gelingt, systematische Ergebnisse abzuleiten. Hervorzuheben ist, dass die im Rahmen dieser Arbeit entwickelten Verfahrensvarianten besonders gute Ergebnisse erzielen. Der Riickgriff - auch bei grundsatzlich rein individuell auswertbaren metrischen Daten - auf informationseffiziente Ansatze, die neben Individualinformationen zudem noch Informationen der gesamten Stichprobe beriicksichtigen, umgeht die Problematik der Uberanpassung und fiihrt zu einer Verbesserung der Ergebnisse. Die besondere Leistung des Verfassers besteht darin, den metrischen Limit-Ansatz auf die modemen Verfahrensvarianten der Conjoint-Analyse ubertragen und auf diese Art und Weise zwei Varianten entwickelt zu haben, die eine methodische Weiterentwicklung darstellen. Er unterzieht die neu geschaffenen Verfahrensvarianten unmittelbar einem Benchmark, indem er sie mit den bereits existierenden Verfahren im Rahmen einer Monte-Carlo-Simulation vergleicht. Ich wiinsche der Arbeit den verdienten Verbreitungsgrad und bin sicher, dass sie die Diskussion um die Kaufverhaltensprognose bereichem wird.
Prof. Dr. Dr. h.c. Klaus Backhaus
VI
Vorwort Angeregt durch meine Diplomarbeit und den Tenor eines Reviewprozesses des „Intemational Journal of Research in Marketing" entstand die Themenstellung fur die vorliegende Arbeit. Durch die neueren Entwicklungen im Bereich der Conjoint-Analyse wurden im Laufe der Bearbeitung zusatzlich „modeme" Verfahrensvarianten auf- und Weiterentwicklungen vorgenommen, so dass die Ausgangsfragestellung in der endgiiligen Version der Arbeit kaum noch zu erkennen ist. Diese Dissertation wurde wahrend meiner Tatigkeit als wissenschaftlicher Mitarbeiter am Fachbereich Strategisches Management des Instituts fiir Technologic und Management der Technischen Universitat Berlin erstellt und im November 2004 von der Fakultat als Dissertation angenonmien. Mein Weg nach Berlin hat mich iiber die Westfalische-WilhelmsUniversitat Miinster gefiihrt, wo ich nicht nur Betriebswirtschaftslehre studiert habe, sondem auch noch funf Monate lang auf das selbstgewahlte ,^xil in der AuBenstelle" des Instituts fiir Analgen und Systemtechnologien in Berlin eingearbeitet und eingestimmt wurde. Meine Zeit sowohl in Miinster als auch in Berlin wurde durch zahlreiche Personen mitgepragt, denen ich an dieser Stelle meinen Dank ausspreche. Meinem akademischen Lehrer, Herm Prof. Dr. Dr. h.c. Klaus Backhaus, gilt mein aufrichtiger Dank fur all die wertvolle fachliche Unterstiitzung, die er mir als „Chef * entgegengebracht hat. Daruber hinaus war sein menschliches Wesen ein entscheidender Faktor fiir den Abschluss meines Dissertationsprojektes: er gewahrte mir fern des Miinsteraner „Hauptsitzes" groBziigige Freiraume und brachte groBes Vertrauen in meine wissenschaftliche Arbeit entgegen. Er unterstiitzte mich wahrend der gesamten Zeit, und seine Motivationsgabe hat diese Arbeit schlieBlich ans Ziel gefiihrt. Femer gebiihrt Dank Herm Prof. Dr.-Ing. Helmut Baumgarten fiir die freundliche tJbemahme des Zweitgutachtens und fur die Unterstiitzung, die er mir wahrend der gesamten Zeit an seinem Institut gewahrt hat. Desweiteren danke ich Herm Prof. Dr. Axel Hunscha, der sich spontan bereit erklart hat, den Vorsitz des Promotionsausschusses zu ubemehmen, und so dazu beigetragen hat, das Verfahren ziigig zum Abschluss zu bringen. Bereichert wurde die Arbeit nicht nur in fachlicher Hinsicht durch die auBerordentliche Unterstiitzung zahlreicher Kollegen und Freunde. An erster Stelle mochte ich Herm Dipl.-Kfm. Marc Bieling nennen, mit dem ich zur Freude eines Mobilfunkanbieters sehr haufig iiber den Stand der Dinge und die allgemeine Promotionsproblematik konferierte. Zahlreiche entscheidende Hinweise konnte ich so bei der Erstellung der Arbeit beriicksichtigen. Fiir wertvolle Anregungen bei der Durchsicht des Manuskripts danke ich auBerdem Frau Dipl.-Kffr. Juliane Honig, Herm Dipl.-Ing. Johannes Schiffer, Dipl.-Math. Robert Wilken und Dipl.-Kfm. Udo Jaspemeite sowie den alten Fiichsen Dr. Lars Brzoska - dem ich daruber hinaus fiir die Uberlassung seines Literaturfundus besonders verbunden bin - und Dr. Gunnar Walter. Der Firma
VII
SKIM sowie dem Forderkreis fur Industriegiitermarketing e.V. danke ich fiir die finanzielle Unterstutzung im Rahmen des Dissertationsprojektes. Dariiber hinaus erlaubte mir die Technische Universitat Berlin den Riickgriff auf vorhandene Marktforschungssoftware, ohne die diese Dissertation nicht moglich gewesen ware. Zudem gilt mein Dank alien Kolleginnen und Kollegen in Berlin und Miinster. Gerade letztere haben mich wahrend der „hei6en" Phase immer wieder von den Lehrstuhlaufgaben entlastet. Besonders bedeutend war mir stets die auBerfachliche Unterstutzung einer Reihe lieber Freunde, die mir die Promotionszeit ganz entscheidend versiiBt haben und maBgeblich dazu beigetragen haben, dass dieser Lebensabschnitt nicht nur fachlich zu einer unvergleichlichen Zeit geworden ist, den ich nicht missen mochte. Da fiir mich das „Drumherum" wichtig ist, bin ich ausgesprochen froh uber die Gelegenheit, in einer so faszinierenden Stadt wie Berlin dissertiert haben zu diirfen. Zu guter letzt mochte ich meinen Eltem fur ihren uneingeschrankten Riickhalt und die unermiidlichen Aufmunterungen von ganzem Herzen danken. Dire Unterstutzung war und ist fur mich nicht nur in personlicher Hinsicht von groBer Bedeutung, sie stellte auch eine unabdingbare Voraussetzung fiir die Entstehung dieser Arbeit dar. Dinen ist daher diese Arbeit gewidmet.
Thomas Hillig
vm
Inhaltsverzeichnis Geleitwort
V
Vorwort
VII
Abbildungsverzeichnis
XV
Abkiirzungsverzeichnis
XIX
Symbolverzeichnis
XXI
1 Entwicklung, Bedeutung und Anwendungsfelder von Verfahrensvarianten der Conjoint-Analyse zur Prognose von Kaufentscheidungen
1
1.1 Entwicklung und Bedeutung von Verfahrensvarianten der Conjoint-Analyse
2
1.2 Anwendungsfelder von Verfahrensvarianten der Conjoint-Analyse im Marketing und Abgrenzung des Untersuchungsgegenstandes 1.3 Ziel der Arbeit und Untersuchungsaufbau 2 Praferenz als zentraler Erklarungsfaktor von Kaufentscheidungen 2.1 Bedeutung der Untersuchung von Kaufentscheidungen aus Sicht des Marketing
5 7 11 11
2.2 Stellenwert des Praferenzkonstruktes fiir das Zustandekommen der individuellen Kaufentscheidung
12
2.2.1 Uberblick liber verschiedene Modellierungsansatze zur Erklarung des Kauferverhaltens 2.2.2 Grundziige und Abgrenzung des hypothetischen Praferenzkonstruktes
12 14
2.2.3 Praferenz bei individuellen Kaufentscheidungen mit ausgepragter kognitiver Komponente
16
2.3 Klassifizierung moglicher intervenierender Variablen zur Analyse der Diskrepanz zwischen Praferenz und tatsachlicher Kaufentscheidung 2.4 Messung multiattributiver Konsumentenpraferenzen
21 28
2.4.1 Praferenzmodelle
28
2.4.2 Datengrundlage
32
2.4.3 Kompositionelle vs. dekompositionelle Verfahren zur Praferenzmessung
33
2.4.3.1
Kompositionelle Verfahren
34
2.4.3.2
Grundansatz dekompositioneller Verfahren
35
2.5 Schlussfolgerungen fiir die weitere Untersuchung
36
DC
3 Einsatz von Verfahrensvarianten der Conjoint-Analyse zur Prognose von Kaufentscheidungen 3.1 Traditionelle Conjoint-Analyse (TCA) als Ausgangspunkt von conjointanalytischen Verfahrensvariationen
37
37
3.1.1 Grundlagen der Traditionellen Conjoint-Analyse (TCA)
37
3.1.2 Gestaltungsfreiraume im Rahmen der Traditionellen Conjoint-Analyse
38
3.1.2.1 Gestaltungsfreiraume bei der Datenerhebung
41
3.1.2.1.1 Stichprobe
41
3.1.2.1.2 Definition der Eigenschaften und ihrer Auspragungen
42
3.1.2.1.3 Auswahl des Messmodells
44
3.1.2.1.4 Erhebungsdesign
45
3.1.2.1.5 Prasentationsform
46
3.1.2.1.6 Bewertungsskala
47
3.1.2.2 Datenanalyse
47
3.1.2.2.1 Schatzverfahren
47
3.1.2.2.2 Aggregation und Dateninterpretation
49
3.1.2.3 Marktsimulationen
51
3.1.2.3.1 Berechnung der individuellen Auswahlwahrscheinlichkeiten
52
3.1.2.3.2 Aggregation der individuellen Kaufwahrscheinlichkeiten zu Kauferanteilen
56
3.1.2.4 Beurteilung der Giite der Ergebnisse 3.1.3 Grenzen der Traditionellen Conjoint-Analyse als Ansatzpunkte fur Weiterentwicklungen
56 58
3.1.4 Systematisierung von Verfahrensvarianten der Conjoint-Analyse ausgehend von der Traditionellen Conjoint-Analyse 59 3.2 Limit-Conjoint-Analyse (LCA) als auswahlbezogene Weiterentwicklung des metrischen Traditionellen Conjoint-Analyse-Ansatzes
61
3.2.1 Grundlegende Charakterisierung der Limit-Conjoint-Analyse
61
3.2.2 Moglichkeiten der Simulation von Kaufentscheidungen
65
3.2.3 Beurteilung der Giite der Ergebnisse
68
3.3 Wahlbasierte Verfahrensvarianten
68
3.3.1 Choice-Based-Conjoint-Analyse(CBCA)
68
3.3.1.1 Grundziige der Discrete-Choice Analyse als Ausgangspunkt der ChoiceBased-Conjoint-Analyse 70 3.3.1.2 Ableitung von Auswahlwahrscheinlichkeiten im Zufallsnutzenmodell
71
3.3.1.3 Ubersicht iiber die Grundannahmen verschiedener Discrete-Choice-Modelle
73
3.3.1.4 Logit-Modell
74
3.3.1.5 Schatzung der Modellparameter
78
3.3.1.6 Beurteilung der Giite der Nutzenparameter
81
3.3.1.7 Problematik aggregierter Nutzenwerte
83
3.3.2 Abbildung von Praferenzheterogenitat durch die wahlbasierte Conjoint-Analyse 3.3.2.1 Latent-Class-Conjoint-Analyse(LCCA)
84 84
3.3.2.1.1 Grundlagen der Modellbildung
86
3.3.2.1.2 Schatzung der Nutzenwerte
88
3.3.2.1.3 Giite der ermittelten Nutzenfunktion
90
3.3.2.2 Hierarchical-Bayes-Conjoint-Analyse(HBCA)
92
3.3.2.2.1 Grundlagen der Bayes-Statistik
93
3.3.2.2.2 Hierarchische Modellierung verschiedener Modellebenen
96
3.3.2.2.3 Schatzung der Nutzenparameter
98
3.3.2.2.4 Giite der Ergebnisse der HBCA
105
3.4 tJbertragung der heterogenitatsberiicksichtigenden Weiterentwicklungen der CBCA auf den metrischen Limit-Conjoint-Ansatz 3.4.1 Limit-Finite-Mixture-Conjoint-Analyse (LFMCA) 3.4.1.1 Grundziige des metrischen Finite-Mixture-Regressionsansatzes
106 106 106
3.4.1.1.1 Modellierung von metrischen Finite-Mixture-Conjoint-Modellen
107
3.4.1.1.2 Schatzung der Nutzenparameter im Rahmen des Finite-MixtureRegressionsansatzes 3.4.1.2 Integration der Limit-Card in den metrischen Finite-Mixture-Ansatz
108 109
3.4.1.3 Giite der Ergebnisse der Limit-Finite-Mixture-Conjoint-Analyse
110
XI
3.4.2 Limit-Hierarchical-Bayes-Conjoint-Analyse (LHBCA)
Ill
3.4.2.1 Grundzuge des metrischen Hierarchical-Bayes-Ansatzes
111
3.4.2.1.1 Modellierung der unterschiedlichen Modellebenen
Ill
3.4.2.1.2 Schatzung der Nutzenparameter
112
3.4.2.2 Integration der Limit-Card in den metrischen HB-Ansatz
113
3.4.2.3 Giite der LHBCA-Ergebnisse
114
4 Gegeniiberstellung kaufentscheidungsbezogener Verfahrensvarianten der Conjoint-Analyse aufgrund qualitativer Uberlegungen und einer kritischen Wiirdigung bisheriger Forschungsstudien 117 4.1 Verschiedene Giitekriterien zum Vergleich von Verfahrensvarianten der ConjointAnalyse 117 4.1.1 Reliabilitat
117
4.1.2 Validitat
118
4.1.3 Kriterien zur vergleichenden Beurteilung von Conjoint-Ansatzen in Forschungsstudien
123
4.2 Empirische Validierung conjoint-analytischer Verfahrensvarianten 4.2.1 Anforderungen an die empirische Validierung
126
4.2.2 Kritische Wiirdigung der empirischen Vergleichsstudien
129
4.3 Einsatz von Monte-Carlo-Simulationen zum systematischen Vergleich von Conjoint-Verfahrensvarinaten
129
4.3.1 Uberblick iiber auf Monte-Carlo-Simulationen beruhende Conjoint-Studien
131
4.3.2 Kritische Wiirdigung von Simulationsstudien zum Vergleich von conjointanalytischen Verfahrensvarianten
133
4.4 Grundsatzliche Gegeniiberstellung der Hauptunterschiede von entscheidungsbezogenen Conjoint-Verfahrensvarianten
134
4.4.1 Unterschiede zwischen wahlbasierter und metrischer Conjoint-Analyse
136
4.4.1.1 Ratings versus Wahlentscheidungen als Datenerhebungsansatz
138
4.4.1.2 Bewertung der probabilistischen Komponente vor dem Hintergrund altemativer Kaufentscheidungstypen
139
4.4.2 Unterschiede hinsichtlich der Beriicksichtigung von Heterogenitat 4.5 Schlussfolgerungen fiir den weiteren Verlauf der Arbeit 5 Monte-Carlo-Studie zum systematischen Vergleich von conjoint-analytischen
XII
126
140 145
Verfahrensvarianten hinsichtlich ihrer Eignung zur Prognose von Kaufentscheidungen.. 147 5.1 Durchfiihrung der Monte-Carlo-Simulation
147
5.1.1 Generierung des synthetischen Datensatzes
147
5.1.2 Auswahl der zu beriicksichtigenden Einflussfaktoren
149
5.1.2.1 Konstante und nicht direkt abgebildete Faktoren
149
5.1.2.2 Variable Einflussfaktoren
153
5.1.3 Parametrisierung der ausgewahlten Conjoint-Analyse-Ansatze
157
5.1.3.1 Metrische Conjoint-Analyse-Ansatze
157
5.1.3.2 Wahlbasierte Conjoint-Analyse-Ansatze
159
5.1.4 Auswahl der zu beriicksichtigenden GiitemaBe
161
5.1.4.1 Anpassungsgiite der Modelle
161
5.1.4.2 Aufdeckung der Nutzenstruktur
162
5.1.4.3 Prognosevaliditat
162
5.1.4.4 Zusammenfassung der beriicksichtigten GiitemaBe
163
5.1.5 Ableitung von Hypothesen fiir die betrachteten Einflussfaktoren
164
5.2 Ergebnisse des Verfahrensvergleichs
167
5.2.1 Anpassungsgiite der Verfahren
168
5.2.1.1 Signifikanz der beriicksichtigten Einflussfaktoren
168
5.2.1.2 Interpretation der Mittelwerte
170
5.2.1.2.1 Metrische Ansatze
170
5.2.1.2.2 Wahlbasierte Ansatze
172
5.2.1.3 Vergleich der Verfahren und Zwischenfazit 5.2.2 Aufdeckung der Nutzenstruktur
174 175
5.2.2.1 Signifikanz der beriicksichtigten Einflussfaktoren
176
5.2.2.2 Interpretation der Mittelwerte
177
5.2.2.2.1 Metrische Ansatze
177
5.2.2.2.2 Wahlbasierte Ansatze
179
5.2.2.3 Vergleich der Verfahren und Zwischenfazit 5.2.3 Individuelle Prognosevaliditat 5.2.3.1 Signifikanz der beriicksichtigten Einflussfaktoren
181 182 183
XIII
5.2.3.2 Interpretation der Mittelwerte
186
5.2.3.2.1 Metrische Ansatze
186
5.2.3.2.2 Wahlbasierte Ansatze
188
5.2.3.3 Vergleich der Verfahren und Zwischenfazit 5.2.4 Aggregierte Prognosevaliditat
191 192
5.2.4.1 Signifikanz der beriicksichtigten Einflussfaktoren
193
5.2.4.2 Interpretation der Mittelwerte
194
5.2.4.2.1 Metrische Ansatze
195
5.2.4.2.2 Wahlbasierte Ansatze
197
5.2.4.3 Vergleich der Verfahren und Zwischenfazit
199
5.2.5 Zusammenfassende Beurteilung der Simulationsergebnisse und Implikationen fiir die praktische Anwendung
200
6 Zusammenfassung und Ausblick
207
Literaturverzeichnis
215
XIV
Abbildungsverzeichnis Abbildung 1: Entwicklung der wichtigsten Verfahrensvarianten der Conjoint-Analyse
4
Abbildung 2: Einsatzfelder der Conjoint-Analyse in Deutschland, Osterreich und der Schweiz
6
Abbildung 3: Hauptanwendungsgebiete kommerzieller Conjoint-Analysen in Europa und den USA Abbildung 4: Gang der Arbeit
6 9
Abbildung 5: Abgrenzung des Praferenzbegriffs
15
Abbildung 6: Modell der Informationsverarbeitung
17
Abbildung 7: Die Einordnung der Praferenz im erweiterten Linsenmodell von Brunswik... 20 Abbildung 8: Rahmenbedingungen von Kaufentscheidungen
22
Abbildung 9: Modelltheoretische Verlaufe verschiedener Beurteilungsmodelle
30
Abbildung 10: Teilnutzenwerte als Entscheidungsgrundlage
30
Abbildung 11: Einordnung von Verfahren der Nutzenmessung
33
Abbildung 12: Ablaufschritt-orientierte Darstellung einzelner Gestaltungsbereiche der TCA
39
Abbildung 13: Schatzverfahren und Losungsalgorithmen zum Einsatz bei der Conjoint-Analyse
48
Abbildung 14: Grenzen der TCA als Ansatzpunkt fur Verfahrensvarianten
61
Abbildung 15: Beispiel fiir die Skalentransformation bei der LCA
63
Abbildung 16: Uberblick iiber verschiedene Discrete-Choice-Modelle
74
Abbildung 17: Unterschied zwischen der Durchschnittswahrscheinlichkeit und der Wahrscheinlichkeit fiir den Mittelwert von zwei Nutzenwerten
84
Abbildung 18: Ablauf der LCCA
90
Abbildung 19: Die verschiedenen Ebenen der HBCA
97
Abbildung 20: Ablauf der HBCA
103
Abbildung 21: Parameterschatzung in der HB-Regressionsanalyse
113
Abbildung 22: Systematisierung von verschiedenen Validitatsarten
120
Abbildung 23: Ubersicht iiber GiitemaBe zur Beurteilung der Anpassungsgiite eines Modells fiir ausgewahlte empirische Studien
123
XV
Abbildung 24: Ubersicht iiber GiitemaBe zur Aufdeckung der Nutzenstruktur fiir ausgewahlte Studien
124
Abbildung 25: tJbersicht iiber GiitemaBe zur Beurteilung der pradiktiven Validitat fiir ausgewahlte Studien
125
Abbildung 26: Zuordnung von conjointbezogenen GiitemaBen und ValiditatsmaBen
126
Abbildung 27: Grundzuge der Monte-Carlo-Simulation
130
Abbildung 28: Ubersicht iiber die wichtigsten conjointbezogenen Monte-Carlo-Studien.... 132 Abbildung 29: Aggregationsniveau und Datenerhebungsansatze der verschiedenen entscheidungsbezogenenConjoint-Ansatze
135
Abbildung 30: Uberblick iiber emprirische Vergleichsstudien zwischen metrischer und wahlbasierter Datenerhebung
137
Abbildung 31: Empirische Vergleiche von Conjoint-Ansatzen mit unterschiedlichen Aggregationsniveaus
143
Abbildung 32: Uberblick tiber modemere Conjoint-Analyse-Ansatze berucksichtigende Monte-Carlo-Vergleichsstudien Abbildung 33: Ablaufschritte der Monte-Carlo-Simulation
144 149
Abbildung 34: Konstante bzw. nicht in der Monte-Carlo-Studie beriicksichtigte Faktoren.. 153 Abbildung 35: Variable Faktoren der Monte-Carlo-Simulation
157
Abbildung 36: tJberblick uber die verwendeten GiitemaBe
163
Abbildung 37: Hypothesen uber den Einfluss der variablen Faktoren auf die Giite der Ergebnisse der metrischen Ansatze der Conjoint-Analyse
165
Abbildung 38: Hypothesen uber den Einfluss der variablen Faktoren auf die Giite der Ergebnisse der wahlbasierten Ansatze der Conjoint-Analyse
166
Abbildung 39: Abhangige und unabhangige Variablen der verschiedenen Varianzanalysen
167
Abbildung 40: F-Werte der Haupteffekte und Nebeneffekte 1. Ordnung zur Prufung der Anpassungsgute
169
Abbildung 41: Mittelwerte der Varianzanalyse fur r^ als abhangige Variable bei metrischen Ansatzen
171
Abbildung 42: Mittelwerte der Varianzanalyse fur die Log-Likelihood als abhangige Variable bei wahlbasierten Ansatzen
173
Abbildung 43: Vergleich der metrischen Conjoint-Analyse-Ansatze hinsichtlich der Anpassungsgute
XVI
175
Abbildung 44: Vergleich der wahlbasierten Conjoint-Analyse-Ansatze hinsichtlich der Anpassungsgute
175
Abbildung 45: Signifikanz der Pearson-Korrelation fur Haupt- und Nebeneffekte l.Ordnung
176
Abbildung 46: Mittelwerte der Korrelation zwischen wahren und berechneten Nutzenparametem fiir die metrischen Conjoint-Ansatze
178
Abbildung 47: Mittelwerte der Korrelation zwischen wahren und berechneten Nutzenparametem fur die wahlbasierten Conjoint-Ansatze
179
Abbildung 48: Vergleich der Conjoint-Analyse-Verfahren hinsichtlich der Aufdeckung der Nutzenstruktur (N=64)
181
Abbildung 49: Signifikanz des emiittelten First-Choice-Anteils fiir alle Haupteffekte und Nebeneffekte 1. Ordnung
183
Abbildung 50: Signifikanz der erklarten Wahlwahrscheinlichkeit fiir alle Haupteffekte und Nebeneffekte 1. Ordnung bei wahlbasierten Conjoint-Ansatzen
184
Abbildung 51: Mittelwerte der prognostizierten First-Choice-Wahlanteile fiir die metrischen Conjoint-Ansatze
186
Abbildung 52: Mittelwerte der prognostizierten First-Choice-Wahlanteile fiir die wahlbasierten Conjoint-Ansatze
188
Abbildung 53: Mittelwerte der erklarten Auswahlwahrscheinlichkeit fiir die wahlbasierten Conjoint-Ansatze
189
Abbildung 54: Vergleich der Conjoint-Analyse-Verfahren hinsichtlich des Anteils der First-Choice-Hits (N=64)
190
Abbildung 55: Vergleich der Conjoint-Analyse-Verfahren hinsichtlich der durchschnittlichen Auswahlwahrscheinlichkeit (N=64)
191
Abbildung 56: Signifikanz der kumulierten Wahlanteile fur alle Haupteffekte und Nebeneffekte 1. Ordnung bei wahlbasierten Conjoint-Ansatzen
193
Abbildung 57: Mittelwerte der prognostizierten Wahlanteile fiir die metrischen Conjoint-Ansatze
195
Abbildung 58: Mittelwerte der prognostizierten Wahlanteile fiir die wahlbasierten Conjoint-Ansatze
197
Abbildung 59: Vergleich der Conjoint-Ansatze hinsichtlich der aggregierten Prognosevaliditat (N=64) Abbildung 60: Zusammenfassung der zentralen verfahrensspezifischen Ergebnisse
198 204
XVII
Abkiirzungsverzeichnis ACA AIC BIC BTL CAIC CBCA E-M emp. FC FM FMCA GCA GEV Gl. GNW HB HBCA HCA HiCa HILCA ICA IIA LC LCA LCCA LFMCA LHBCA LS MAIC MCMC MH ML MLA MLS MNL OLS PEV RMSE RUM
Adaptive Conjoint-Analyse Akaike's Information Criterion Baysian Information Criterion Bradley-Terry-Luce Consistent Akaike's Information Criterion Choice-Based-Conjoint-Analyse Expectation-Maximation empirische First-Choice Finite-Mixture Finite-Mixture-Conjoint-Analyse Gebriickte Conjoint-Analyse General Extreme Value Gleichung Gesamtnutzenwert Hierarchical-Bayes Hierarchical-Bayes-Conjoint-Analyse Hierarchische Conjoint-Analyse Hierarchische Conjoint-Analyse Hierarchischlndividualisierte-Limit-Conjoint-Analyse Individualisierte Conjoint-Analyse Independence of Irrelevant Alternative Latent-Class Limit-Conjoint-Analyse Latent-Class-Conjoint-Analyse Limit-Finite-Mixture-Conjoint-Analyse Limit-Hierarchical-Bayes-Conjoint-Analyse Latent Segmentation Modified Akaike's Information Criterion Markov Chain Monte-Carlo Metropolis-Hastings Maximum-Likelihood Maximum-Likelihood-Ansatz Maximum Likelihood Schatzung Multinominal Logit Ordinary-Least-Square Percentage of Error Root-Mean-Standard-Error Random Utility Model XIX
S-O-R S-R TCA TNW U u.U.
XX
Stimulus-Organism-Response Stimulus-Response Traditionelle Conjoint-Analyse Teilnutzenwert Utility unter Umstanden
Symbolverzeichnis a
Altemativen-Sets/Choice-Set
A
Anzahl an Altemativensets/Choice-Sets
AIC(S)
Akaike's Information Criterion fur S Segmente
tts
relative GroBe des Segments s
b
Vektor der Mittelwerte der individuellen Teilnutzenwerte
BIC(S)
Bayesian Information Criterion fiir S Segmente
p
Vektor der Nutzenparameter
P .^
Teilnutzenwert fiir Auspragung m von Eigenschaft j
P*^
Teilnutzenwert fiir Auspragung m von Eigenschaft j nach erstem Normierungsschritt
P .^
normierter Teilnutzenwert fur Auspragung m von Eigenschaft j
p^'"
minimaler Teilnutzenwert bei Eigenschaft j
psjm
Nutzenparameter fiir Auspragung m der Eigenschaft j in Segment s
c
Skalierungsfaktor
CAIC
Consistent Akaike's Information Criterion fiir S Segmente
d
Differenzvektor
D
Varianz-Kovarianz-Matrix
Ds
Varianz-Kovarianz-Matrix der FehlergroBen fiir Segment s
8nk
Messfehler bei der Bewertung der Produktaltemative k durch Proband n
5nk
probabilistische Funktion der Vektoren der nicht-beobachteten Eigenschaften und des Messfehlers fiir Proband n und Alternative k
5*y
Differenz der probabilistischen Funktionen 6nk und 5ni
9
Modellparameter bei der HBCA
f (5^^)
Dichtefunktion der probabilistischen Nutzenkomponente
F(5n,^)
Verteilung der probabihstischen Nutzenkomponente
G
Goodness-of-Fit-Statistik
H
Matrix, die die Priori-Informationen mit den gerade aktuellen Schatzwerten fiir b u n d PnVn kombiniert
In
Einheitsmatrix der Dimension n
j
Index fiir Merkmal/Eigenschaft einer Alternative
J
Anzahl der Merkmale/Eigenschaften einer Alternative
k
Index fiir Altemative/Stimulus/Produkt
K
Anzahl der Altemativen/Stimuli/Produkte/Simulationsprodukte
ka^
Kaufanteil fur Alternative k
Kp
Anzahl konkordanter Paare
1
Likelihood
XXI
L(-)
Likelihood-Funktion
L
Choleski-Faktor fur Varianz-Kovarianz-Matrix D
LPn
Punktzahl, die der Proband n der Limit-Card zugewiesen hat
LR
Likelihood-Ratio
LR-Index
Likelihood-Ratio-Index
LRn
Rangplatz, hinter den Proband n die Limit-Card platziert hat
m
Index fur Auspragung eines Merkmals/einer Eigenschaft
Mj
Anzahl der Auspragungen von Eigenschaft j
MAIC(S)
Modified Akaike*s Information Criterion fiir S Segmente Mittelwert der Bewertungen fiir Alternative k im Segment s
n
Index fiir Auskunftsperson, Proband
N
Anzahl der Probanden/Auskunftspersonen
Nonnal
Normalverteilung
Pnjm
Standardabweichung der Nutzenparameter
_2
Varianz der Fehlerterme fur Auskunftsperson n
r
Kovarianz-Matrix
P
Anzahl der zu schatzenden Parameter
Pn(-) P^(k)
Dichtefunktion fiir Auskunftsperson n Wahrscheinlichkeit, dass Auskunftsperson n auf Grundlage der LimitNutzenparameter die Alternative k wahlt
P(k)
Wahrscheinlichkeit, dass Alternative k gewahlt wird
Pn(k|s)
Wahrscheinlichkeit, dass Individuum n die Alternative k wahlt, falls n zur Klasse s gehort
Ps(k)
Wahrscheinlichkeit, dass im homogenen Segment s die Alternative k gewahlt wird
POIY)
Posteriori-Verteilung
P(e)
Priori-Verteilung
P(Y)
marginale Wahrscheinlichkeit (fiir die moglichen Auspragungen von 0)
p(e,Y)
gemeinsame Dichtefunktion von 0 und Y
P(Y|0)
Wahrscheinlichkeit, die Wahlentscheidungen aller Auskunftspersonen der Stichprobe bei gegebenen Modellannahmen 0 zu realisieren (Likelihood-Funktion)
Pns(-)
konditionale Dichtefunktion fur Auskunftsperson n unter der Bedingung, dass er Segment s angehort
Qn(s)
Wahrscheinlichkeit fiir die Klassenzugehorigkeit von Person n zur latenten Klasse s BestinmitheitsmaB korrigiertes BestimmtheitsmaB
XXII
R-n (s)
Wahrscheinlichkeit fiir die Zugehorigkeit von Proband n zu Segment s
s S
Index fur Segmente Anzahl der Segmente
Sn
Eigenschaften v o n Auskunftsperson n
Sn*
nicht-beobachteten Personlichkeitsmerkmale
SQE SQT temp T
erklarte Varianz Gesamtvarianz empirischer t-Wert quadratische untere Dreiecksmatrix
Uj^
geschatzter Gesamtnutzenwert fiir Stimulus k
u
Vektor mit normalverteilten Elementen
U„j^
berechneter Gesamtnutzenwert der Alternative k fur Auskunftsperson n
nk
Gesamtnutzenwert der Alternative k fur Proband n
U^
Gesamtnutzenwert der Alternative 1 fiir Proband n
U]^^
Limit-Gesamtnutzenwert des Produktes k fiir Auskunftsperson n
Uj;;,
Gesamtnutzenwert des Stimulus k bei Proband n fiir die LCA
Ukn V(-) V^
Gesamtnutzenwert des Stimulus k bei Proband n fiir die TCA deterministische Komponente der Nutzenfunktion U deterministische Komponente der Gesamtnutzenfiinktion der Alternative 1 fiir Proband n
wJ
relative Wichtigkeit von Merkmal j
Xj^
Dummy-Variable: Jl falls bei Stimulus k die Eigenschaft j in Auspragung m vorliegt, lO sonst
Xnk
nicht-beobachtete Eigenschaften der Alternative k
X
(J X M)-Matrix mit den D u m m y - V a r i a b l e n der K Altemativen
Xj,
beobachteter (erhobener) Messwert
X^
wahrer (tatsachlicher) Messwert
Xj
systematischer Fehler
X^
unsystematischer Fehler (Zufallsfehler)
¥„
arithmetisches Mittel der beobachteten Gesamtnutzenwerte fiir Auskunftsperson n
Y^
beobachteter Gesamtnutzenwert der Altemative k fiir Auskunftsperson n
Ynka
beobachtete Wahlentscheidung von Auskunftsperson fur Stimulus k aus Choice Set Ca (1 falls Stimulus k gewahlt wird, 0 falls nicht)
Y„^^
transformierte Limit-Gesamtnutzenwerte fiir Auskunftsperson n und Altemative k XXIII
Y^^.
beobachtete Gesamtnutzenwerte fur Auskunftsperson n und Alternative j
Y„^
Position der/ Bewertung fiir die Limit-Card durch Auskunftsperson n
Zy.
Dummy-Variable,
die
den
Wert
1 annimmt,
falls
der
Limit-
Gesamtnutzenwert groBer/gleich 0, und den Wert 0 anninmit, falls der Limit-Gesamtnutzenwert kleiner 0 ist
XXIV
1 Entwicklung, Bedeutung und Anwendungsfelder von Verfahrensvarianten der Conjoint-Analyse zur Prognose von Kaufentscheidungen Die Conjoint-Analyse ist ein in verschiedenen Forschungsdisziplinen weit verbreitetes Verfahren zur Messung und Analyse von Praferenzen' von Auskunftspersonen und hat insbesondere dort an Bedeutung gewonnen, wo Entscheidungen zwar ganzheitlich getroffen, jedoch einzelne objektbezogene Faktoren differenziert werden konnen."^ Dies ist insbesondere im Marketing und seiner Teildisziplin der Kaufverhaltensforschung der Fall, da hier einerseits produktbezogene Gestaltungsparameter fur Untemehmen existieren, es sich andererseits aber bei der Kaufentscheidung um globale Entscheidungen fiir oder gegen ein Produkt handelt.^ Die Conjoint-Analyse leitet im Rahmen von Befragungen aus ganzheitlichen Produktbeurteilungen Informationen iiber einzelne, zuvor definierte Produkteigenschaften ab, die anschlieBend zur Prognose von Kaufentscheidungen verwendet werden konnen. Die besondere Verbreitung der Conjoint-Analyse im Marketing hangt nicht zuletzt damit zusammen, dass diese Informationen in verschiedenen Bereichen wie (Neu-)Produktgestaltung, Preispolitik, Marktsimulation, Konkurrenzanalyse, Kommunikationspolitik, Markenwertbestimmung oder Marktsegmentierung Verwendung fmden konnen."^ Zahlreiche empirische Studien belegen die hohe und noch inmier steigende Bedeutung der Conjoint-Analyse in kommerziellen Anwendungen und wissenschaftlicher Forschung sowohl in Deutschland als auch weltweit^ und dokumentieren ihren Einsatz sowohl fiir physische Giiter als auch fur Dienstleistungen.^ Im Rahmen des Marketings werden mit der Conjoint-Analyse zumeist Produktpraferenzen untersucht, in anderen Disziplinen existiert aber eine Reihe vergleichbarer Fragestellungen. So sei an dieser Stelle nur exemplarisch die Wichtigkeit von Wahlerpraferenzen in der Politologie genannt^
Praferenzen erklaren die Vorziehenswurdigkeit einer Alternative i.d.R. fiir einzelne Individuen. Vgl. ausfuhrlich Abschnitt 2.2. Vgl. zur Verbreitung der Conjoint-Analyse in unterschiedlichen Forschungsdisziplinen Teichert, T. (200la), S. 2f. und lOff. Vgl. zur Dominanz von marketingnahen Zeitschriften als Medium fiir Publikationen iiber die ConjointAnalyse Teichert, T. (2001a), S. 2. Vgl. Wittink, DJVriem, MJBurheme. W. (1994), S. 44; Hartmann, A./Sattler, H. (2002a), S. 3f. Vgl. fiir konunerzielle Studien in Deutschland, Osterreich und der Schweiz Hartmann, A./Sattler, H. (2002a), S. Iff.; fur wissenschaftliche Veroffentlichungen in Deutschland Voeth, M. (1999), S. 153ff.; fur kommerzielle Studien in Europa Wittink, D./Vriens, M./Burhenne, W. (1994), S. 41ff. und fiir kommerzielle Studien in den USA Wittink, D.R./Cattin, P. (1989), S. 91ff.; Cattin, P./Wittink, D.R. (1982), S. 42ff. Sattler/Hensel-Borner schatzen fur die 1990er Jahre die jahrliche Anzahl von Conjoint-Anwendungen auf l.CXX), ohne diese Zahlen jedoch weiter zu belegen, vgl. Sattler, H./Hensel-Borner, S. (2001), S. 121. Conrad auBert zwar, dass die Conjoint-Analyse weniger fiir Dienstleistungen eingesetzt wird (vgl. Conrad, T. (1997), S. 38). Schubert beobachtete aber bereits einige Jahre zuvor, dass sich Conjoint-Analysen haufig auf Dienstleistungen beziehen, vgl. Schubert, B. (1991), S. 258; vgl. zur Anwendung von Conjoint-Analysen auf Dienstleistungen auch Meffert, C. (2002). Vgl. Klein, M. (2002b), S. 52ff.; Klein, M. (2002c).
1
Im Rahmen dieser Arbeit sollen die am weitesten verbreiteten Verfahrensvarianten der Conjoint-Analyse vorgestellt, vor dem Hintergrund der Prognose von Kaufentscheidungen weiterentwickelt und schlieBlich auf Grundlage von synthetischen Daten verglichen werden, die durch eine Monte-Carlo-Simulation generiert werden. Prinzipiell ware es zwar moglich, gerade da der Vergleich der verschiedenen Verfahrensvarianten der Conjoint-Analyse im praktischen Teil der Arbeit auf Grundlage von simulierten Daten durchgefiihrt wird, eine allgemein entscheidungsbezogene Perspektive einzunehmen und auf eine Fokussierung auf Kaufentscheidungen zu verzichten. Da allerdings die Untersuchung der Erklarungskraft von simulierten Daten als Grundlage eines Vergleiches conjoint-analytischer Verfahrensvarianten expliziter Bestandteil der Arbeit sein soil, erscheint es trotz des hypothetischen Charakters der Daten im praktischen Teil der Arbeit sinnvoll, mit dem Einsatz in der Marktforschung, dem primaren Einsatzgebiet der Conjoint-Analyse,^ einen Bezugspunkt festzulegen und auf diese Art und Weise die theoretische Diskussion mit Inhalten zu fiillen. Die Conjoint-Analyse betrachtet ein Produkt als Biindel von verschiedenen Eigenschaften^, deren Auspragungen^^ vom Anbieter festgelegt werden.'^ Es werden Urteile in der Regel fiir ganze Produkte bzw. zumindest fiir mehrere Eigenschaftsauspragungen im Verbund erhoben und anschliefiend durch Dekomposition Aussagen tiber die Nutzen- bzw. Praferenzbeitrage einzelner Eigenschaftsauspragungen abgeleitet.^^ Die Conjoint-Analyse ist ein experimentelles Verfahren, bei dem die Auskunftspersonen im Rahmen der Produktbewertung implizit vor Abwagungsprozesse bzgl. verschiedener Eigenschaftsauspragungen gestellt werden, zwischen denen ein kompensatorisches Verhaltnis besteht, d.h. negative Auspragungen bei einem Merkmal konnen durch positive Auspragungen bei einem anderen Merkmal ausgeglichen werden. ^^ Bei der Conjoint-Analyse handelt es sich nicht um ein einziges, geschlossenes Verfahren, sondem um eine Ansammlung ahnlich gerichteter Methoden, die verschiedene Entwicklungspfade aufweisen und fur unterschiedliche Einsatzgebiete besonders geeignet sind.^"^ 1.1
Entwicklung und Bedeutung von Verfahrensvarianten der Conjoint-Analyse
Der bereits in den 1960er Jahren in der Psychologie entwickelte'^ und in den 1970er Jahren vom Marketing aufgegriffene^^ Grundansatz der Conjoint-Analyse, bei dem nach statistischen Vgl. Teichert, T. (2001a), S. 12. Bei einer Eigenschaft der Conjoint-Analyse handelt es sich zum Beispiel um den Preis, die Marke, etc. Synonym zum Begriff Eigenschaft wird in dieser Arbeit der Ausdruck Merkmal verwendet. Bei Auspragungen handelt es sich um konkrete diskrete Ausgestaltungen einer Eigenschaft. Beispielsweise kann der Preis Auspragungen in Hohe von 100 € oder 200 € annehmen. Vgl. Brockhoff, K. (1999), S. 13. Vgl. Pullman, M.E./Moore, W.L/Wardell, D.G. (2002), S. 354. Vgl. bspw. Simon, H./Kucher, E. (1988), S. 178; Herrmann, A./Bauer, H.H. (1996), S. 329; Bauer, H.H./Herrmann, A./Mengen, A. (1995), S. 340. Vgl. Green, P.K/Srinivasan, V. (1978), S. 90; Green, P.E./Srinivasan, V. (1990), S.103ff. Die Conjoint-Analyse datiert auf das Jahr 1964 zuriick, als Luke/Tukey den ersten Artikel zur ConjointAnalyse veroffentlichten, vgl. Luce, R.D./Tukey, J.W. (1964), S. Iff.
Kriterien bestimmte Kombinationen der betrachteten Merkmalsauspragungen i.d.R. durch Rangreihung oder Rating^^ bewertet werden und der im Folgenden als Traditionelle ConjointAnalyse (TCA) bezeichnet wird, verliert in den letzten Jahren zunehmend an Bedeutung.^^ Dies verwundert nicht, da Mitte der 1980er Jahre mit der Einfiihrung der Adaptiven-ConjointAnalyse (ACA)^^ eine Phase einsetzte, in der zahlreiche Verfahrensvarianten zur TCA entwickelt wurden.^^ Ansatzpunkte fur die Entwicklung dieser Verfahrensvarianten sind Mangel der TCA hinsichtlich der Anzahl der beriicksichtigten Merkmale und Merkmalsauspragungen, die auf eine hohe Belastung durch die simultane Bewertung einer Vielzahl an Altemativen und auf statistische Probleme aufgrund einer zu geringen Anzahl an Freiheitsgraden zuriickzufiihren sind.^^ Angesichts der Begrenzung der entscheidungsrelevanten Objekteigenschaften ist die TCA in komplexen Kaufentscheidungssituationen nicht immer anwendbar.^^ Seit Beginn der 1980er Jahre wurden aus diesem Grunde neben den hybriden Modellen der ConjointAnalyse, die eine direkte Befragung der Auskunftspersonen sowie den dekompositionellen Conjoint-Ansatz kombinieren und zu denen auch die Adaptive Conjoint-Analyse zahlt, ebenfalls die Individualisierte Conjoint-Analyse (ICA)^^, die Gebruckte Conjoint-Analyse (GCA)^"^ und die Hierarchische Conjoint-Analyse (HiCA)^^ entwickelt. In einem parallelen Entwicklungsstrang wurde im Rahmen der Choice-Based-Conjoint-Analyse (CBCA) der Discrete-Choice-Ansatz aus der volkswirtschaftlichen Forschung auf experimentelle Marketingfragestellungen iibertragen.^^ Hier wird der Fokus verstarkt auf eine realistischere Abbildung der Wettbewerbsverhaltnisse gelegt.^^
Green/Rao veroffentlichten den ersten Beitrag zur Conjoint-Analyse in einer Marketing-Zeitschrift, vgl. Green, P.E./Rao, V.K (1971), S. 355ff. Beim Rating-Verfahren ordnen die Auskunftspersonen den bereits in eine Rangreihenfolge gebrachten Produktalternativen zusatzlich Punktwerte zu und konnen so unterschiedliche Abstande zwischen verschiedenen Alternativen zum Ausdnick bringen, vgl. Abschnitt 3.1.2.1.6. Vgl. exemplarisch fur Deutschland, Osterreich und die Schweiz Hartmann, A./Sattler, H. (2002a), S. 4. Vgl. Johnson, RM (1987b); Johnson, RM (1987a); Agarwal, M.K./Green, P.E. (1991), S. 141ff. Die Adaptive Conjoint-Analyse ermittelt computergestiitzt probandenspezifische Conjoint-Designs, die es erlauben, eine groBere Anzahl von Merkmalen und Merkmalsauspragungen zu beriicksichtigen. Damit wird dem Wunsch entsprochen, die Conjoint-Analyse auch in komplexeren Kaufentscheidungssituationen einzusetzen, die sich durch eine Vielzahl an Kaufentscheidungskriterien auszeichnen. Parallel dazu kam ein ebenfalls PCgestiitztes Software-Paket von Herman auf den Markt, das Vollprofile in Kombination mit orthogonalen Designs verwendet. Beide Software-Pakete beinhalten Conjoint-Simulatoren und sorgten nicht zuletzt aufgrund ihrer Benutzerfireundlichkeit fiir den kommerziellen Durchbruch der Conjoint-Analyse. Vgl. Green, P.E./Srinivasan, V. (1990), S. 3ff. Vgl. Wittink, DJVriens, M./Burhenne, P.K/Srinivasan, V. (1990), S. 3ff. Vgl. Klein, M. (2002a), S. 33.
W. (1994), S. 41ff.; Teichert, T. (2001a), S. 16f.; Green,
Vgl. Schweikl, H. (1985), insb. S. 15ff.; Bocker, F./Schweikl, H. (1988), S. 15ff. Entwickelt wurde die Gebruckte Conjoint-Analyse in den 1980er Jahren vom amerikanischen SoftwareHersteller Bretton-Clark, ihre Urspriinge hat sie aber bereits in der Arbeit von Green aus dem Jahre 1974, vgl. Green, P.E. (1974), S. 61ff. Vgl. Louviere, J.J (1984), S. 148ff.; Louviere, JJ/Gaeth,
G.J (1987), S. 25ff.
Vgl. Louviere, J.J./Woodworth, G.G. (1983). Damit werden allerdings noch keine Konkurrenzreaktionen beriicksichtigt, vgl. Steiner, W.J./Hruschka, H. (2000),S.71ff.
Verfahrensvarianten
POA)
KCBCA)
BI^^Bayes-CA ss-CA
1965
1970
1975
1980
1985
1990
1995
2000
Abbildung 1: Entwicklung der wichtigsten Verfahrensvarianten der Conjoint-Analyse Wahrend traditionelle und hybride Modelle tendenziell - vor allem bei der Datenerhebung eine Situation beschreiben, in der Neuprodukte in den Markt eingefuhit werden und Wettbewerber entweder nicht existieren oder aber als passiv bzgl. der Fahigkeit angesehen werden, auf Aktionen eines neu eintretenden Wettbewerbers zu reagieren^^, bildet die Choice-BasedConjoint-Analyse explizit Auswahlentscheidungen ab, die im Vergleich zum Ranking- oder Rating-Ansatz der TCA haufig als realistischer bewertet werden.^^
Vgl. Choi, S.C./DeSarbo, W.S. (1994), S. 451. Green/Krieger/Wind siQ\\&n die explizite Benicksichtigung des Wettbewerbs in den Vordergrund, indem sie den Begriff der TCA weiter als in dieser Arbeit fassen und hierunter all die Verfahrensvarianten subsumieren, die bei der Datenerhebung nicht gemaB der realen Kaufentscheidung eine Auswahlentscheidung zwischen verschiedenen Marken oder Anbietern verwenden, sondern auf Rangreihung oder Rating zur Bewertung der Stimuli zuriickgreifen, vgl. Green, P.E./Krieger, A.M./Wind, Y.J. (2001), S. S56ff. Dieser Kategorisierung soil an dieser Stelle nicht gefolgt werden, da in der anschlieBenden Simulation ebenfalls Wettbewerbsverhaltnisse abgebildet werden konnen und auch die CBCA, falls nur Teilprofile gegeniiber gestellt werden, keine in dieser Form am Markt angebotenen Produkte abbildet. AuBerdem beriicksichtigt die Choice-Based-Conjoint-Analyse keinesfalls die in der Einkaufsstatte vorherrschenden Alternativen. Die Auswahl der Choice-Sets folgt nicht wettbewerbsbezogenen Gesichtspunkten, sondern statistischen. Somit wird selbst bei der Datenerhebung der Aspekt der Berucksichtigung der Wettbewerbssituation beim Vergleich der beiden Verfahren zumindest ansatzweise nivelliert. Vgl. bspw. Perrey, J. (1998), S. 91; Weiber, R./Rosendahl, T. (1997), S. 114; Louviere. J.J./Gaeth, G.J. (1988), S. 62; Klein, M. (2002a), S. 37; Ebel, B./Lauszus, D. (2000), S. 850; Stadie, E. (1998), S. 60; Perkins, W.S./Roundy, J (1993), S. 34; Cohen, S.H. (1997), S. 15f.; Backhaus, K./Voeth, M./Hahn, C. (1998), S. 11; Hahn, C./Voeth, M. (1997), S. 140; Elrod, T./Louviere, JJ/Davey, K.S. (1992), S. 1992; McCullough, D. (2002), S. 22.
Allerdings konnen bei der CBCA die Nutzenparameter nicht auf Individualebene, d.h. fiir einzelne Probanden, ermittelt werden, sondem lediglich fiir die Gesamtheit aller Befragten bzw. fur einzelne zuvor definierte Gruppen, die bestimmten GroBekriterien geniigen. Einige Weiterentwicklungen der CBCA wie die Hierarchical-Bayes-(HBCA) oder Latent ClassConjoint-Analyse^^ (LCCA) erlauben allerdings, mittels eines effizienteren Losungsalgorithmus Schatzwerte fur einzelne Individuen bzw. fiir Gruppen von Individuen zu ermitteln.^^ Die Entwicklung der Limit-Conjoint-Analyse (LCA) geht auf Backhaus, Hahn und Voeth zuriick.^^ Die Grundidee des Verfahrens besteht in der Einfiihrung einer so genannten LimitCard, mit der eine prinzipielle Kaufbereitschaft fiir eine Teilmenge der Altemativen ausgedriickt wird, so dass zwischen Kaufen und Nicht-Kaufen unterschieden werden kann. Zu den jiingsten Verfahrensvarianten der Conjoint-Analyse zahlt schlieBlich die Hierarchisch Individualisierte-Limit-Conjoint-Analyse (HILCA), die die Grundgedanken der HiCA, LCA und ICA miteinander kombiniert.^^ Obwohl Abbildung 1 nur die wichtigsten Ansatze beriicksichtigt, wird deutlich, dass eine Vielzahl von Verfahrensvarianten existiert und der Anwender nicht selten nach Orientierungspunkten sucht, um in Abhangigkeit von verschiedenen Umweltfaktoren die am besten geeignete Verfahrensvariante zu wahlen.^"^ Diese Arbeit soil dem Anwender einen komparativen tJberblick iiber diejenigen Verfahrensvarianten geben, die explizit Kaufentscheidungen modellieren, sowie darstellen, aus welchen Griinden die nicht-beriicksichtigten Verfahrensvarianten problematisch hinsichtlich der Prognose von Kaufentscheidungen sind. 1.2
Anwendungsfelder von Verfahrensvarianten der Conjoint-Analyse im Marketing und Abgrenzung des Untersuchungsgegenstandes
Die (Neu-)Produktgestaltung ist das urspriingliche Anwendungsfeld der Conjoint-Analyse im Marketing und stellt noch immer einen Schwerpunkt der praktischen Studien dar.^^ Allerdings wird die Conjoint-Analyse ebenso fur andere, den Marketing-Mix betreffende Fragestellungen eingesetzt. So hat die jiingste Untersuchung von Hartmann/Sattler mit der Preispolitik ein weiteres Haupteinsatzgebiet conjoint-analytischer Untersuchungen identifiziert. Abbildung 2 gibt einen Uberblick iiber die Ergebnisse der Studie und unterscheidet dabei neben den Einsatzgebieten zwischen drei Hauptverfahrensvarianten.
Vgl. Abschnitt 3.3.2, Im Folgenden wird Hierarchical Bayes als HB und Latent Class als LC abgekiirzt. Vgl. zum Latent-Class-Conjoint-Ansatz Abschnitt 3.3.2.1. Vgl. zur LCA Hahn, C. (1997); Hahn, C./Voeth, M. (1997), Backhaus, K./Voeth, M./Hahn, C. (1998); Voeth, MJHahn, C. (1998) und Abschnitt 3.2. Vgl. Voeth, M. (2000), S. 163. „New developments in conjoint analysis are arriving so fast that even specialists find it difficult to keep up. Hierarchical Bayes models, latent class choice modelling, and individualized hybrid models are only a few of the new approaches and techniques that are arriving at the research scene", Carroll, J.D./Green, P.E. (1995), S. 389. Dariiber hinaus weisen Carroll/Green auf einen groBen Know-how Unterschied zwischen Forschern und Anwendern hin. Vgl. Hartmann, AJSattler, H (2002a), S. 4; Wittink, D./Vriens, M./Burhenne, W. (1994), S. 4Iff.
TCA (n=24)
CBCA (n=56)
ACA(n=41)
Gesamt(n=121)
(Neu-)Produktgestaltung
61%
26%
61%
46%
Preispolitik
36%
75%
28%
48%
Marktsegmentierung
41%
11%
22%
21%
Markenwertbestimmung
17%
10%
20%
16%
Abbildung 2: Einsatzfelder der Conjoint-Analyse in Deutschland, Osterreich und der Schweiz Die Studie verdeutlicht, dass die Wahl des Verfahrens nicht unabhangig vom Einsatzgebiet erfolgt. So ist eine starke Dominanz der CBCA bei Fragestellungen der Preispolitik und bei der TCA und ACA ein tendenzieller Schwerpunkt auf die (Neu-)Produktgestaltung auszumachen. Ahnliche Ergebnisse liefert die Studie von Wittink/Vriens/Burhenne zum kommerziellen Einsatz der Conjoint-Analyse in Europa und den USA (vgl. Abbildung 3).
Abbildung 3: Hauptanwendungsgebiete kommerzieller Conjoint-Analysen in Europa und den USA^^ Trotz einer leicht abweichenden Definition der Einsatzfelder wird deutlich, dass der Schwerpunkt auf der Preispolitik und der (Neu-)Produktgestaltung liegt. Der Marktsegmentierung kommt hier eine leicht hohere Bedeutung zu als bei der nur auf Deutschland, Osterreich und die Schweiz bezogenen Studie von Hartmann/Sattler. Preispolitik und (Neu-)Produktgestaltung werden hier als Einsatzgebiete separat aufgefiihrt, methodisch und inhaltlich sind sie jedoch eng miteinander verwandt.^^ Die Konstrukte ProQuelle: Eigene Darstellung auf Basis der Erhebung von Wittink/Vriens/Burhenne, vgl. Wittink, D./Vriens, M./Burhenne, W. (1994), S. 44.
dukt und Preis konnen im Rahmen einer Nutzenbetrachtung in vergleichbare Dimensionen uberfiihrt werden. Die Neuproduktgestaltung kann auf reinen Praferenzwerten basieren, aussagekraftiger sind jedoch Marktsimulationen, die es erlauben, die Veranderung des Marktanteils oder Marktvolumens bei verschiedenen Ausgestaltungsoptionen des Produktes abzubilden. Grundlage der Preispolitik sind Preis-/Absatzfiinktionen, die den funktionalen Zusammenhang zwischen Absatzvolumen und Preis darstellen und nur im Rahmen einer Simulation des relevanten Marktes Aussagekraft besitzen. Es wird deutlich, dass aus methodischer Sicht die Anwendungen der Conjoint-Analyse in den Bereichen Preispolitik und (Neu-)Produktgestaltung sehr eng miteinander verkniipft sind. Auch die Bestimmung des Markenwertes geht in eine ahnliche Richtung, hier findet lediglich eine Fokussierung auf das Produktmerkmal Marke statt. Eine ganzlich andere Zielsetzung verfolgt die Marktsegmentierung, bei der Gruppen von Kaufem mit ahnlichem Kauferverhalten, abgebildet iiber die Praferenzstruktur, identifiziert werden soUen.^^ Es konnen also mit der Marktsegmentierung einerseits und der Gruppe der kaufentscheidungsbezogenen Conjoint-Analysen anderseits zwei grundlegende Einsatzfelder der Conjoint-Analyse unterschieden werden. Die vorgestellten empirischen Studien belegen, dass der Marktsegmentierung als Einsatzgebiet der Conjoint-Analyse im Vergleich zur groBen Gruppe der Felder, fur die eine Beriicksichtigung von Kaufentscheidungen als unmittelbar sinnvoll erscheint, eine eher untergeordnete Rolle zukommt. Es wird deutlich, dass trotz der in dieser Arbeit vorgenonmienen Fokussierung auf kaufverhaltensbezogene Einsatzgebiete der groBte Teil der Anwendungsfelder erfasst wird.^^ 1.3
Ziel der Arbeit und Untersuchungsaufbau
Ziel dieser Arbeit ist es, einen Uberblick iiber die verschiedenen Verfahrensvarianten der Conjoint-Analyse und ihre grundsatzliche Eignung zur Prognose von Kaufentscheidungen zu geben. Dariiber hinaus sollen ausgewahlte Conjoint-Analyse-Varianten, die in ihrer aktuellen Form den Schwerpunkt auf die reine Praferenzanalyse legen, durch Verfahrenserweiterungen so modifiziert werden, dass sie zur Prognose von Kaufentscheidungen eingesetzt werden konnen. SchlieBlich sollen Anwendungsempfehlungen fur den Einsatz verschiedener auswahlbasierter Verfahrensvarianten der Conjoint-Analyse in unterschiedlichen Umweltsituationen geben werden. Dazu wird in Kapitel 2 das der Conjoint-Analyse zugrunde liegende Praferenzkonstrukt erlautert und vor dem Hintergrund verschiedener Kaufentscheidungssituationen beleuchtet. Es wird dabei diskutiert, weshalb ein Produkt, fiir das die hochste Praferenz gemessen wird, nicht
Vgl. Teichert, T. (2001a), S. 13f. Vgl. zur Segmentierung von Markten mittels der Conjoint-Analyse Vriens, M./Wedel, M./Wilms, T. (1996), S. 73ff; Vriens, M. (2001). Daneben existieren noch Bereich wie die Positionierung von Unternehmen am Markt, fiir die der Einsatz der Conjoint-Analyse ebenfalls geeignet ist. Vgl. exemplarisch zur Problemstellung der Marktpositionierung im Logistikmaikt Baumgarten, H./Zadek, H./Kieffer, D. (2004), S. 58f.
unbedingt gekauft wird und so eine Divergenz zwischen Praferenz und Kaufentscheidung auftreten kann. Vor diesem Hintergrund werden verschiedene Aspekte der Praferenzmessung thematisiert. Nach der Begriindung der besonderen Eignung von dekompositionellen Verfahren zur Messung von Praferenzen, zu denen die Conjoint-Analyse zahlt, werden in Kapitel 3 verschiedene Ansatze der Conjoint-Analyse vorgestellt. Ausgangspunkt ist dabei die TCA, die ausfuhrlich unter besonderer Berucksichtigung der Gestaltungsmoglichkeiten fiir den Anwender beschrieben wird. Es werden zwei Hauptmangel des Verfahrens identifiziert, wobei die fehlende Berucksichtigung von Nicht-Kaufen fur die Themenstellung dieser Arbeit von zentraler Bedeutung ist. Aus diesem Grunde werden anschliefiend conjoint-analytische Ansatze diskutiert, die zwischen Kaufen und Nicht-Kaufen unterscheiden. An erster Stelle wird die LCA aufgefiihrt, da es sich um eine reine Weiterentwicklung der TCA handelt. Es folgt eine Beschreibung der aggregierten CBCA zur Analyse von wahlbasierten Daten, deren methodische Basis sich deutlich von der TCA unterscheidet. Im Anschluss werden mit der HBCA und der LCCA zwei Losungsansatze vorgestellt, die eine effizientere Auswertung der wahlbasierten Informationen erlauben.
I.
^
^
II.
Unsicherheit iiber den Einsatz von Verfahrensvarianten in unterschiedlichen Entscheidungssituationen Zielsetzung und Aufbau der Untersuchung
I. II. in.
Praferenzen als Konstnikt zur Prognose des Konsumentenverhaltens Praferenz vs. realer Kauf: Ein Ansatz zur Erklarung von Divergenzen Ansatze zur Modellierung und Parametrisierung von Konsumentenpraferenzen: Bedeutung conjointanalytischer Verfahrensvarianten zur Prognose des Konsumentenverhaltens
I.
Traditionelle Conjoint-Analyse als Ausgangspunkt fiir Verfahrensvarianten: Grundziige unter besonderer Beriicksichtigung validitatsbeeinflussender Faktoren Limit-Conjoint-Analyse als Weiterentwicklung der Traditionellen Conjoint Analyse Wahlbasierte Ansatze der Conjoint-Analyse
II. in.
• Choice-Based-Conjoint-Analyse • Latent-Class-Conjoint-Analyse •Hierarchical-Bayes-Conjoint-Analyse rV. Integration der Limit-Card in die metrischen Latent-Class- und Hierarchical-Bayes-Ansatze I. II. in. rV.
^
V.
Darstellung verschiedener GiitemaBe Problematik empirischer Untersuchungen als Grundlage fiir Verfahrensvergleiche Systematische Validierung mittels simulativer Conjoint-Studien Grundsatzliche Gegeniiberstellung der entscheidungsbezogenen Ansatze der Conjoint-Analyse unter Beriicksichtigung empirischer und simulativer Forschungsstudien Ableitung von Untersuchungshypothesen
I. II. in.
Aufbau und Ablauf der Monte-Carlo-Simulation Darlegung der Ergebnisse Priifung der Untersuchungshypothesen
I. II.
Zusammenfassung der Untersuchungsergebnisse Ausblick auf weiterfiihrende Forschungsarbeiten
Abbildung 4: Gang der Arbeit Die effizienteren Losungsansatze konnen grundsatzlich auch auf metrisch-skalierte Daten angewendet werden. Allerdings besteht in diesem Fall analog zur TCA ein Problem der Erfassung von Nicht-Kaufen. Aus diesem Grunde werden in den Abschnitten 3.3.2.1 und 3.3.2.2 jeweils zuerst die metrischen Grundansatze der Finite Mixture Conjoint-Analyse"^^ (FMCA) und HBCA vorgestellt und diese im Anschluss analog zur LCA durch IntegraUon einer LimitCard zu den entscheidungsbezogenen Ansatzen
Limit-Finite-Mixture-Conjoint-Analyse
(LFMCA) und Limit-Hierarchical-Bayes-Conjoint-Analyse (LHBCA) weiterentwickelt. Kapitel 4 behandelt einen grundsatzlichen Vergleich von verschiedenen Conjoint-AnalyseVerfahrensvarianten, wobei verschiedene Giitekriterien sowie die Moglichkeiten zur empiri-
Die LCCA zahlt zu der Gruppe der Finite-Mixture(FM)-Modelle. Es kann alternativ auch von FiniteA/a:rMre-Conjoint-Analyse gesprochen werden, wobei sich diese Bezeichnung allerdings eher auf metrische Regressionsansatze bezieht.
schen und simulativen Validierung erortert werden. Auf Grundlage von Plausibilitatsiiberlegungen und den Ergebnissen komparativer Forschungsstudien wird die Ableitung von Hypothesen fur den praktischen Teil der Arbeit vorbereitet. In Kapitel 5 werden ausfuhrlich Zielsetzung, Durchfiihrung und Ergebnisse der auf eine systematische Untersuchung von Kaufentscheidungen ausgelegten Monte-Carlo-Simulation beschrieben und Schlussfolgerungen fiir die Auswahl von Conjoint-Ansatzen in Abhangigkeit von verschiedenen Rahmenbedingungen gezogen. Dazu werden einerseits verschiedene Umweltsituationen und andererseits verschiedene Giitekriterien zum Vergleich der Verfahrensvarianten ausgewahlt. Fiir alle Kombinationen aus Gutekriterium und Umweltbedingung werden verfahrensspezifische Hypothesen aufgestellt, die mit Hilfe der Monte-Carlo-Simulation iiberpriift werden. SchlieBlich werden in Kapitel 6 die wichtigsten Ergebnisse zusammengefasst und ein Ausblick auf weiteren Forschungsbedarf hinsichtlich der Prognose von Kaufentscheidungen auf Basis von conjoint-analytischen Verfahrensvarianten gegeben.
10
2 Praferenz als zentraler Erklarungsfaktor von Kaufentscheidungen 2.1
Bedeutung der Untersuchung von Kaufentscheidungen aus Sicht des Marketings
Wesentliche Voraussetzung fiir die Sicherung von Markterfolgen und damit fiir den Erfolg von Untemehmen ist die Reaktion auf das Kauferverhalten und damit auf das kiinftige Verhalten von Nachfragem basierend auf der Erklarung des vergangenen und gegenwartigen Verhaltens,"^^ einschlieBlich einer aktiven Steuerung durch den Einsatz des marketingpolitischen Instrumentariums.'^^ Das Kauferverhalten kann Kufi und Tomczak folgend als „die Auswahl eines von mehreren Angeboten von Sachgiitem, Dienstleistungen, Rechten und Vermogenswerten durch Individuen, Gruppen und Organisationen [...], einschlieBlich der zu dieser Entscheidung hinfiihrenden und der auf diese Entscheidung folgenden Prozesse und Tatigkeiten, die kiinftige Kaufe beeinflussen konnen","^^ defmiert werden. Es verwundert nicht, dass der Kaufverhaltensforschung seit dem in den 1960er und 1970er Jahren einsetzenden Wandels von Verkaufer- zu Kaufermarkten eine Schlusselrolle im Marketing zugeordnet wird."^ Im Einzelnen ist hierbei zu untersuchen, wer (Trager der Kaufentscheidung) was (Kaufobjekt) warum (Kaufmotiv) wie (Kaufentscheidungsprozesse) in welcher Menge (Kaufmenge) zu welchem Zeitpunkt (Kaufzeitpunkt) wo bzw. bei wem (Einkaufsstatten-, Lieferantenwahl) kauft."^^ Im Zusanmienhang mit diesen Fragenstellungen ist haufig die Wirkung anbieterseitiger Marketing-Mix-Ma6nahmen von Interesse/^
Vgl. bspw. Miiller-Hagedorn, L. (1986), S. 18; Kufi, A./Tomczak, T. (2004), S. 18; Mefert, H. (1992), S. 24ff.; Wefiner, K. (1988), S. 208ff. Vgl. Assael, H. (1998), S. 3; Bansch, A. (2002), S. 1; Blackwell, R.D./Miniard, P. W./Engel, J.F. (2001), S. 8; Kotler, P./Bliemel, R (2001), S. 323; Trommsdorff, V. (2003), S. 22. Kufi, A./Tomczak, T. (2004), S. 12. Vgl. bspw. Andritzky, K. (1976), S. 2; Miiller-Hagedorn, L (1986), S. 13; Meffert, H. (1992), S. 18; Herrmann, A. (1992), S. 2; Bansch, A. (2002), S. 2. Vgl. Meffert, H. (2000), S. 98. Bereits an dieser Stelle sei darauf hingewiesen, dass die Conjoint-Analyse die Paradigmen des Kaufobjektes, des Kaufmotives und des Kaufentscheidungsprozesses untersucht. Im Rahmen dieser Arbeit werden die anderen aufgefiihrten Fragestellungen der Kaufverhaltensforschung aus diesem Grunde nicht weiter aufgefiihrt. Vgl. Kufi, A./Tomczak. T (2004), S. 19; Voeth, M. (2000), S. 1. Als Trager von Kaufentscheidungen konnen einerseits Individuen und Gruppen, andererseits private Haushalte und Unternehmen bzw. offentliche Institutionen unterschieden werden, vgl. Meffert, H. (1992), S. 37. Eine Differenzierung der vier moglichen Kombinationen von Tragem erscheint sinnvoll, da fiir jede Kategorie von Kaufentscheidungstrager eine andere Kaufentscheidung zu erwarten ist. Bei der folgenden Darstellung des Kauferverhaltens wird eine Fokussierung auf individuelle Kaufentscheidungen des Konsumenten vorgenommen, da er Konsumgiiterbereich der wichtigste Anwendungsbereich fiir die Conjoint-Analyse ist, vgl. Cattin, P./Wittink, D.R. (1982), S. 92; Wittink, D.R./Cattin, P. (1989), S. 92; Wittink, D./Vriens, M./Burhenne, W. (1994), S. 44; Melles, T/Holling, H. (1998), S. 5. Dies ist nicht zuletzt deshalb der Fall, weil erst ab einem Stichprobenumfang, der im Industriegiiterbereich teilweise nicht erhoben werden kann, mit stabilen Ergebnissen zu rechnen ist. Da der Vergleich der Verfahrensvarianten der Conjoint-Analyse auf synthetischen Daten beruht, und die Praferenzdaten inhaltsleer sind, konnen sie ebenfalls als aggregierte Werte fiir kollektive Entscheidungstrager oder als Werte fiir Unternehmen bzw. offentliche Institutionen interpretiert werden. Vgl. zum organisatorischen Beschaffungsverhalten Backhaus, K. (2003), S. 61ff.; Huth, W.-D. (1988), S. 5ff.; Johnston, W.J./Lewin, J.E. (1996), S. Iff.; Webster, F.E./Wind, Y.J. (1972), S. 29ff.; Wesley, J.J./Bonoma, TV. (1981), S. 5 und zu Kaufentscheidungen von Gruppen Voeth, M. (2002), S. 11 Iff.; sowie zu den Kaufentscheidun-
11
2.2
Stellenwert des Praferenzkonstruktes fiir das Zustandekommen der individuellen Kaufentscheidung
2.2.1 Uberblick iiber verschiedene Modellierungsamdtze zur Erkldrung des Kduferverhaltens Fiir die Bewaltigung der oben skizzierten Aufgaben der Kaufverhaltensforschung ist eine Reihe von Modellen mit dem Ziel entwickelt worden, das Konsumentenverhalten zu prognostizieren und zu erklaren."^^ Die Modelle der okonomischen Haushaltstheorie interpretieren die Kaufentscheidung noch als Ergebnis vollstandig rationaler und bewusster okonomischer Entscheidungen. Sie soUen die Frage beantworten, welche Guter der rationale Entscheider wahlt, um bei gegebenen Budget und Preisen seinen Nutzen zu maximieren."^^ Aufgrund der Annahmen vollkommener Rationalitat und vollstandig informierter Kaufer vermogen die okonomischen Modelle der Haushaltstheorie es nicht in ausreichender Form, reales Kaufverhalten abzubilden und zu erklaren. Allerdings konnen sie als Ausgangspunkt fur die Entwicklung von auf weniger restriktiven Pramissen basierenden Modellen verstanden werden, deren Differenzierung nach Strukturmodellen und stochastischen Modellen in der marketingwissenschaftlichen Literatur eine weitgehende Verbreitung gefunden hat."^^ Wesentliche Unterschiede sind in der schwerpunktmaBigen Beriicksichtigung von ausschliefilich beobachtbaren Bestandteilen im Falle von stochastischen Modellen bzw. in einer moglichen Integration von nicht beobachtbaren Einflussfaktoren im Falle von Strukturmodellen zu sehen.^^ Unter beobachtbaren Bestandteilen des Kaufentscheidungsprozesses sind einerseits endogene und exogene Einflussfaktoren {Stimuli) und andererseits die durch deren Zusammenwirken ausgelosten Reaktionen {Responses) in Form von Kaufentscheidungen zu verstehen. Nicht unmittelbar zu beobachten sind dagegen die psychischen Prozesse des Konsumenten, die durch die Stimuli hervorgerufen werden und im Inneren {Organism) des Individuums ablaufen. ^^ Die stochastischen Modelle bilden lediglich die wesentlichen Zusammenhange zwischen den Stimuli {Input) und den realisierten Kaufhandlungen eines Konsumenten explizit ab, wahrend alle sekundaren Einflussfaktoren und Zusammenhange, also insbesondere die Auswirkungen der inneren physischen Prozesse, iiber eine Zufallskomponente modelliert werden.^^ Strukturmodelle des Kauferverhaltens zerlegen den Kaufentscheidungsprozess in Stufen, um das Zustandekonmien der Kaufentscheidung im Detail darzustellen. GemaB dem neobehavioristischen Forschungsansatz wird so versucht, die im Inneren des Konsumenten ablaufenden.
gen von Familien Dahlhoff, H.-D. (1980), S. 20ff.; Bocker, F. (1987), S. 16ff.; Kirchler, E. (1990), S. 55ff.; Mayer, H./Boor, W. (1988), S. 120ff., Krishnamurthi, L (1989), S. 185ff. ^^ Vgl. Hiike, W. (1975); Kaas, K.P. (1987), S. 229ff. ^^ Vgl. Meffert, //. (1971), S. 329ff. ^^ Vgl. Bansch, A. (2002), S. 3; Corsten, H./Meier, B. (1982), S. 116; Meffert, H. (1992), S. 29. ^
Vgl. Berndt, R. (1992), S. 24.
^' Vgl. Olshavsky, R. WJGranbois, D.H. (1979), S. 93ff. ^^ Nach Topritzhofer hat die gewahlte Darstellung allerdings nur fiir teilstochastische Modelle Giiltigkeit, wahrend vollstochastische Modelle den gesamten Kaufentscheidungsprozess stochastisch modellieren, vgl. Topritzhofer, E. (1974), S. 34ff.; Corsten, H./Meier, B. (1982), S. 117.
12
nicht zu beobachtenden psychischen Ablaufe zu erklaren (S-0-R-Modell).^^ Der Mensch wird in diesem Modell als informationsverarbeitendes Wesen aufgefasst. Weitergehend konnen Strukturmodelle dahingehend systematisiert werden, ob sie das Kauferverhalten in seiner Gesamtheit abbilden (Totalmodelle) oder sich aufgrund der angesprochenen Komplexitat auf Teilausschnitte des Kaufentscheidungsprozesses beschranken (Partialmodelle).^'* Problematisch ist, dass die Totalmodelle aufgrund ihrer Komplexitat und Verknlipfiing theoretischer Konstrukte kaum operationalisierbar und validierbar sind.^^ Angesichts der Schwierigkeiten in Bezug auf die Operationalisierbarkeit und auf die empirische Uberpriifbarkeit von Totalmodellen haben sich in letzter Zeit zunehmend Partialmodelle durchgesetzt, die auf dem Weg zur Entwicklung einer „formalisierten, bewahrten und praktisch anwendbaren ,totalen Theorie'"^^ einzelne abgrenzbare Teilbereiche abdecken.^^ Gemeinsam haben diese Modelle, dass sie sich i.d.R. jeweils auf ein zentrales theoretisches Konstrukt bzw. eine intervenierende Variable wie zum Beispiel Emotionen, den subjektiv empfundenen Nutzen, das wahrgenommene Kaufrisiko oder Kaufmotive fokussieren.^^ Haufig werden allerdings Partialmodelle aufgestellt, die lediglich fur das Kaufverhalten relevante Pradispositionen von Individuen und damit Rahmenbedingungen des Kaufprozesses untersuchen,^^ aber weniger den Ablauf des gesamten Bewertungsprozesses selbst zu erklaren vermogen und damit nicht in der Lage sind, Kaufentscheidungen zu prognostizieren.^^ Aus diesem Grunde wird vermehrt angestrebt, aus der Vielzahl aller denkbaren intervenierenden Variablen diejenigen auszuwahlen, die auf die Erklarung des Bewertungsprozesses von Nachfragem gerichtet sind. Das theoretische Konstrukt sollte einerseits moglichst stark mit dem tatsachlichen Kauf zusammenhangen und eine hohe Validitat fur die Prognose der Kaufentscheidung aufweisen, andererseits aber auch gut operationalisierbar und empirisch iiberpnifbar sein sowie eine vom Entscheidungstrager beeinflussbare GroBe darstellen.^^ In diesem Zusammenhang wird haufig auf das Praferenzkonstrukt zurtickgegriffen,^^ da es sich durch seine unmittelbare Nahe zur Kaufentscheidung auszeichnet,^^ die Wertschatzung aller Merk-
Vgl. Meffert, H. (2000), S. 99f. Vgl. Schweikl, H. (1985), S. 24. Vgl. Decker, R. (1994), S. 29. Trommsdorff. V. (2003), S. 27. Vgl. Gutsche, J. (1995), S. 40; Schweikl, H. (1985), S. 24ff. Vgl. Nieschlag, RJDichtl, E./Horschgen, H. (2002), S. 634f. Vgl. Voeth, M. (2000), S. 3. Vgl. Voeth, M. (2000), S. 5. Vgl. Gwr^c/^e, J. (1995),S.41. Vgl. bspw. Bauer, H.H. (1989), S. 132; Schweikl, H. (1985), S. 26; Weiber, R./Rosendahl, T. (1997), S. 577, Backer, F. (1986), S. 543; Nieschlag, R./Dichtl, E./Horschgen, H. (2002), S. 635. Trotz der Nahe des Praferenzkonstruktes zur Kaufentscheidung bleibt zu bedenken, dass die Kaufentscheidung durch eine Reihe zusatzlicher Faktoren beeinflusst wird, die im Praferenzkonstrukt nicht enthalten sind, so dass nicht immer die am meisten praferierte Alternative auch tatsachlich gekauft wird, vgl. Schweikl, H. (1985), S. 26 und zu den Einflussfaktoren Abschnitt 2.2.3.
13
male der beurteilenden Objekte beinhaltet und zahlreiche Verfahren zur Erfassung und Verarbeitung insbesondere empirischer Praferenzurteile bereitstehen.^ 2.2.2 Grundzuge und A bgrenzung des hypothetischen Prdferenzkonstruktes Der Begriff Praferenz wird in der Marketing-Literatur nicht einheitlich verwendet, und die Abgrenzung gegeniiber anderen Formen subjektiver Evaluation ist teilweise unzureichend.^^ Es besteht Ubereinstimmung daruber, dass Praferenzen zeitlich begrenzt giiltig sind und einen Indikator fur das AusmaB an subjektiver Vorziehenswiirdigkeit einer Alternative im Vergleich zu einer oder mehreren Altemativen darstellen.^ Praferenzen sind folglich personenspezifisch und weisen uber einen begrenzten Zeitraum eine gewisse zeitliche Stabilitat auf. Sie beziehen sich zudem zwingend auf Altemativen und werden durch Altemativen relativiert.^^ Differenzen im Begriffsverstandnis liegen in erster Linie in einer unterschiedlichen Beriicksichtigung von restriktiven Kauffaktoren in der Definition des Praferenzkonstmktes begriindet. Im angloamerikanischen Sprachraum hat sich hierfiir die Unterscheidung zwischen constrained und unconstrained preferences durchgesetzt.^^ Haufig wird unter dem Begriff Praferenz die relative Vorteilhaftigkeit von Altemativen ohne Berucksichtigung restriktiver Kauffaktoren verstanden {unconstrained preferences).^^ Andere Ansatze beziehen Kaufrestriktionen wie bspw. das verfiigbare finanzielle oder zeitliche Budget des Konsumenten mit in das Praferenzkonstmkt ein7^ Praferenz kann hier als Resultat eines Nettonutzenvergleichs betrachtet werden, wobei der Nettonutzen^^ die Differenz aus dem subjektiv wahrgenommenen erwarteten Nutzen und den subjektiv wahrgenommenen Kosten darstellt/^ Das Konstmkt der constrained preferences ist durch die Vorwegnahme der individuellen Ressourcenallokation damit wesentlich naher am tatsachlichen Kauf anzusiedeln als die unconstrained prefe-
\g\.Gutsche,J.{\995\S.A\. Vgl. bspw. Bocker, F. (1986), S. 543; Balderjahn, I. (1993), S. 22; Gutsche, J. (1995), S. 39; Hahn, C. (1997), S. 5. Vgl. Bocker, F. (1986), S. 556; Fischer, J. (2(X)1), S. 9; Schweikl, H. (1985), S. 26; Brzoska, L. (2003), S. 20. Vgl. Bauer, H.H. (1989), S. 132. Vgl. Rao, V.RJGautschi, D.A. (1982), S. 62; Zeithaml, V.A. (1988), S. 4. Vgl. dazu bspw. Srinivasan, V. (1982), S. 86f.; Bocker, F. (1986), S. 556 oder Balderjahn, I. (1993), S. 29. So definiert Balderjahn Praferenz als „handlungsf6rdernde Tendenz", die sich aus der „Wahmehmung und Bewertung Ressourcen-unabhangiger Produktattribute" bildet. Vgl. Trommsdorff, V./Bleicker, U./Hildebrandt, L (1980), S. 270. Zum Begriff des Nettonutzens vgl. Simon, H. (1992), S. 3; Plinke, W. (1995), S. 70. Vgl. Trommsdorff, V./Bleicker, U./Hildebrandt, L (1980), S. 270. Der Nutzen ist eines der zentralen okonomischen Konstrukte und stellt ein nach subjektiven MaBstaben bewertbares und daher intersubjektiv nur schwer iiberpriifbares Ma6 der Bediirfnisbefriedigung dar. Das Nutzenkonstrukt ist der Kern jeglichen wirtschaftlichen Handelns und der okonomischen Theorie, denn erst durch den Begriff des Nutzens wird der Zugang zum Phanomen des Wirtschaftens geschaffen. Unter Nutzen soil in dieser Arbeit ein Ma6 fiir die Befriedigung von den aus physikalisch-funktionellen, asthetischen und sozialen Eigenschaften eines Produktes entstehenden Bedurfnissen verstanden werden, vgl. Meffert, H. (2000), S. 333; Brzoska, L. (2003), S. 21 (FuBnote 68) und zum Nutzenbegriff P//«)fce. W. (1995), S. 12.
14
rencesP Zusatzlich zu den restriktiven Kauffaktoren werden bei der Kaufabsicht (intention to buy) situative Variablen beriicksichtigt, deren Wirkung das Individuum vor dem Kauf gedanklich antizipieren kann/"^ SchlieBlich unterscheidet sich der reale Kauf- bzw, NichtKaufakt von der Kaufabsicht dadurch, dass situative Einflusse hinzutreten, die vom Konsumenten zu einem friiheren Zeitpunkt nicht antizipiert werden konnen^^ Einstellung gegeniiber den einzelnen Produkten
Nutzenvergleich unconstrained preference bzgl. eines Produktes gegeniiber den Altemativen Beriicksichtigung restriktiver Kauffaktoren
PrSferenz
constrained preference bzgl. eines Produktes gegeniiber den Altemativen Beriicksichtigung antizipierbarer situativer Variablen Kaufabsicht bzgl. eines bestimmten Produktes Beriicksichtigung nichtantizipierbarer situativer Variablen Kauf eines bestimmten Produktes
Abbildung 5: Abgrenzung des Praferenzbegriffs
In Kapitel 2 wird die Differenzierung zwischen constrained und unconstrained preferences zur Erklarung des Kaufentscheidungsverhaltens teilweise aufrechterhalten. Vor dem Hintergrund einer haufigen Beriicksichtigung der Eigenschaft Preis bei conjoint-analytischen Fragestellungen wird von Kapitel 3 an ein Praferenzbegriff zugrunde gelegt, der weitestgehend dem Begriff der constrained preferences folgt, aber lediglich eine hypothetische Ressourcenallokation durch die Auskunftsperson umfasst, und damit dem experimentellen und hypothetischen Charakter der Conjoint-Analyse Rechnung tragt. Die Begriffsdefmition wird damit der Tatsache gerecht, dass sich Praferenzen auch auBerhalb eines tatsachlichen Kaufentscheidungsprozesses bilden konnen und eine reale Ressourcendisposition von dem Konsumenten in diesem Fall nicht vorgenommen werden muss, vgl. auch Brzoska, L. (2003), S. 21. Vgl. zum Begriff Kaufabsicht und zur Abgrenzung zwischen Praferenzen (unconstrained preferences) und Kaufabsicht Nieschlag, R./Dichtl, E./Horschgen, H. (2002), S. 656 f.; Scharf A. (1991), S. 88. Vgl. Scharf A. (1991), S. 82ff.
15
Kaufabsichten miissen also aufgrund unvorhersehbarer situativer Variablen wie Unwetter, Streik oder Lieferschwierigkeiten nicht unbedingt zu Kaufakten fuhren.^^ Abbildung 5 stellt die inhaltliche Differenzierung und Abgrenzung des Praferenzkonstruktes zu vor- und nachgelagerten Konstrukten grafisch dar7^ Das der Praferenz vorgelagerte Konstrukt der Einstellung kann dabei nach Kroeber-Riel als verfestigte Meinung iiber die „subjektiv wahrgenommene Eignung eines Gegenstandes"^^ zur Befriedigung eines Bediirfnisses verstanden werden, wobei ein Vergleich verschiedener Altemativen keine Beriicksichtigung fmdet und damit ein absolutes Urteil uber ein Produkt ausdruckt7^ 2.2.3 Praferenz bei individuellen Kaufentscheidungen mit ausgeprdgter kognitiver Komponente Die Rolle, die der Praferenz bei Kaufentscheidungen zukommt, hangt von verschiedenen mit der jeweiligen Kaufentscheidung verbundenen Faktoren ab. Das Informationsverarbeitungsmodell nach van Raaij zeigt beispielsweise, dass Art und Umfang der Informationsverarbeitung je nach Involvement, das nach Trommsdorff dXs Indikator fur den „Aktivierungsgrad bzw. die Motivstarke zur objektgerichteten Informationssuche, -aufnahme, -verarbeitung und -speicherung"^^ eines Konsumenten defmiert werden soil, variieren (vgl. Abbildung 6).
Vgl. Schneider, C. (1997), S. 22f. Vgl. Schneider. C. (1997), S. 23. Kroeber-Riel, W./Weinberg, P. (2003), S. 169; vgl. auch Hughes, G.D. (1974), S. 3-16ff; Trommsdorff, V./Bleicker, U./Hildebrandt, L (1980), S. 269ff. Vgl. Schneider, C. (1997), S. 22. Kotler/Bliemel sehen neben unvorhergesehener situativer Faktoren noch Einstellungen anderer als intervenierende Variable zwischen Kaufabsicht und Kaufentscheidung, vgl. Kotler, P./Bliemel, F. (2001), S. 360ff. Trommsdorff, V. (2003), S. 56; vgl. zum Involvement auch Deimel, K. (1989), S. 153ff.; Trommsdorff, V. (1995), S. 1067ff.; Celsi, R.L./Olson, J.C. (1988), S. 210ff.; Gensch, D.H./Javalgi, R.G. (1987), S. 71ff.; Muehling, D.D./Laczniak, RN./Andrews, J.C. (1993), S. 22ff.; Costley, C.L. (1988), S. 554ff.; Zaichkowsky, J.L. (1985), S. 341ff.; McQuarrie, E.F./Munson, J.M. (1992), S. 108ff.; Leavitt, C./Greenwald, A.G./Obermiller, C. (1981), S. 15ff.; Poiesz, TB.C./Cees, J.P, de Bont, M. (1995), S. 448ff.; JeckSchlottmann, G. (1988), S. 'i'i.; Andrews, J./Durvasula, S (1990), S. 27f.; Laurent, G./Kapferer, J.N. (1985), S. 41ff.; Kearsley, J.F. (1996), S. 35ff.; Antil, J.H. (1984), S. 203ff.; Kassarjian, H.H. (1981), S. 31ff.
16
Problemerkennung
•
Lemen
Interne und exteme Suche nach Altemativen T
Bewertung der Altemativen; primare Affektreaktion
Wahlverhalten (geringes Involvement)
T
Kognitive Verarbeitung T
Einstellung; sekundare Affektreaktion 1r
Kaufabsicht
1
r
Wahlverhalten (hohes Involvement)
Abbildung 6: Modell der Informationsverarbeitung Es wird deutlich, dass Kaufentscheidungen, selbst wenn mit dem Aspekt der Informationsverarbeitung lediglich ein Gesichtspunkt im Rahmen eines Partialmodells fokussiert wird, nicht nach einem einheitlichen Schema ablaufen.^^ In Abhangigkeit von einem Erklarungsfaktor, und zwar im konkreten Fall dem Involvement, kommt es im Rahmen der Informationsverarbeitung entweder zu kognitiven Prozessen^^ oder das Wahlverhalten wird vor dem Einsetzen kognitiver Prozesse abgebrochen und im Wesentlichen durch primare Affektreaktionen^"^ aus-
Quelle: in Anlehung an Wiswede, G. (2000), S. 93 nach van Raaij, W.F. (1988), S. 83ff. Vgl. Kroeber-Riel, W./Weinberg, P. (2003), S. 369. Prozesse eines Individuums, die gedankliche bzw. rationale Aufnahme, Verarbeitung und Speicherung von Informationen umfassen, werden als kognitiv bezeichnet, vgl. Kroeber-Riel, W./Weinberg, P. (2003), S. 49. Kroeber-Riel/Weinberg definieren Affekte als „grundlegende, kurzfristig auftetende Gefiihle der Akzeptanz Oder Ablehnung eines Sachverhalts..., als Emotionen, die kognitiv wenig kontrolliert werden und inhaltlich kaum differenzierbar sind." A:roe^er-/?/e/, W./Weinberg, P. (2003), S. 100.
17
gelost. Bei Wahlverhalten mit geringem Involvement konnen gemaB dem Ansatz von van Raaij dementsprechend auch nicht Praferenzen als zentrale Grundlage fiir die Vorhersage von Kaufentscheidungen verwendet werden.^^ Der Einsatz und die Messbarkeit des hypothetischen Praferenzproduktes hangen also von bestimmten Eigenschaften des Kaufentscheidungsprozesses ab. Dabei kann grundlegend eine Zweiteilung der Vorgange, die im Rahmen der Kaufentscheidung wirksam werden, vorgenommen werden.^^ Der Teil der Prozesse, der verstandesmaBiger Natur ist und eine willentliche Steuerung des Verhaltens erklart, wird auch als kognitive Prozesse bezeichnet. Unter aktivierenden Prozessen werden dagegen diejenigen Vorgange subsumiert, die „niit innerer Spannung und Erregung verbunden sind und als Antriebskrafte die menschliche Existenz mit Handlungsenergie versorgen (Emotionen, Motive, Einstellungen)".^^ Nach der weit verbreiteten Typologie von Weinberg^^, die auf den Ansatzen von Howard/Sheth^^ und Engel/Kollat/Blackwelf^ aufbaut und die Analyse des Kauferverhaltens von Katona^^ mit einbezieht, werden vier Grundtypen von Kaufentscheidungen unterschieden: (1) impulsive Kaufentscheidung, (2) habitualisierte Kaufentscheidung, (3) limitierte Kaufentscheidung und (4) extensive Kaufentscheidung. Weder impulsive noch habitualisierte Kaufentscheidungen unterliegen einer ausgepragten kognitiven Steuerung.^^ Ein Impulskauf stellt eine emotional geladene, schnell ablaufende, durch Produktinformation stimulierte und spontane Kaufreaktion dar, bei der der Konsument also affektgesteuert reagiert, indem er eine vorherige Aufnahme und Verarbeitung von Informationen unterlasst. Bei habitualisierten Kaufentscheidungen verfiigt der Konsument bereits uber umfangreiche Kauferfahrung und die Altemativenwahl wird zur Gewohnheit. Der geistige Aufwand reduziert sich auf die Identifikation des Produktes, die kognitive Steuerung sinkt ebenso wie die affektive Komponente auf ein Minimum, da die gleiche Alternative immer wieder gekauft wird. Bei habitualisierten Kaufentscheidungen finden also feste Verhaltensmuster weitgehend automatisierte Anwendung.
Constrained Preferences sind in Abbildung 6 unmittelbar vor dem Konstrukt Kaufabsicht anzusiedeln und konnen fiir die hier dargelegte Argumentation mit Kaufabsicht gleichgesetzt werden. Vgl. zu der Unterteilung und im Folgenden Kroeber-Riel, W./Weinberg, P. (2003), S. 368ff Nieschlag. RJDichtl, E./Horschgen, H. (2002), S. 590. Vgl. Weinberg, P. (1981), S. 13f; Kroeber-Riel, W./Weinberg, P. (2003), S. 369ff und zu abweichenden Typologisierungen Krugman, H.E. (1965), S. 349ff; Bettman, J.RJZins, M.A. (1977), S. 75ff; Sheth, J.NJRaju, P.S. (1979), S. 147ff; Olshavsky, R. W. (1985), S. 3ff Vgl. Howard, J.A./Sheth, J.N. (1969), S. 51ff. Vgl. Engel, J.F./Kollat, D.T./Blackwell, R.D. (1968), S. 350ff und Blackwell, R.D./Miniard, P.W./Engel, J.F. (2001), S. 86ff Vgl. Katona, G. (1951), S. 51ff und die deutsche Fassung Katona, G. (1960). Vgl. Nieschlag, R./Dichtl, E./Horschgen, H. (2002), S. 610.
18
Auch bei der limitierten Kaufentscheidung verftigt der Konsument bereits liber Kauferfahrung, hier allerdings ohne bereits eine feste Praferenz fur ein bestimmtes Produkt entwickelt zu haben.^^ Er greift in erster Linie auf vorhandene Informationen und gespeicherte Auswahlprogramme bzw. Systeme von Entscheidungskxiterien zuriick, so dass der kognitive Aufwand hier beschrankt (limitiert) ist. Da das Individuum seine Kaufentscheidung weitgehend frei von emotionalen und reaktiv-impulsiven Einflussen trifft, spielt die affektive Komponente bei limitierten Kaufentscheidungen eine zu vemachlassigende Rolle. Die kognitive Steuerung durch den Konsumenten ist bei extensiven Kaufentscheidungen am starksten ausgepragt. Mangels Kauferfahrung und bestehender Entscheidungskriterien erfolgt eine umfassende Informationsaufnahme und rationale -verarbeitung sowie ein griindlicher Vergleich der verfiigbaren Produktaltemativen, um die Auswahl des subjektiv besten Produkts zu gewahren. Insbesondere die Anschaffung von Produkten, die einer komplexen und neuartigen Entscheidungssituation unterliegen und mit hohem fmanziellen Mitteleinsatz verbunden sind, stellen tendenziell extensive Kaufentscheidungen dar.^"^ Es wird deutlich, dass ein umfangreicher Praferenzbildungsprozess nicht bei jeder Klasse von Kaufentscheidungsprozessen zu beobachten ist, sondem vor allem bei extensiven, in weniger umfangreicher Form, aber auch bei limitierten Kaufentscheidungen vom Konsumenten vollzogen wird. Im Folgenden wird fur den Fall von tendenziell extensiven Kaufentscheidungssituationen, also Kaufentscheidungssituationen mit ausgepragter kognitiver Komponente, der Prozess der Praferenzbildung mit seinen vor- und nachgelagerten Phasen in den gesamten Kaufentscheidungsprozess eingeordnet. Bei dem erweiterten Linsenmodell von Brunswick aus Abbildung 7 handelt es sich um ein Strukturmodell, das den zeitlichen Ablauf der Prozesse wahrend der Kaufentscheidung berucksichtigt^^ und die Stellung der Praferenz im Entscheidungsprozess verdeutlicht. Ausgangspunkt des Prozesses ist eine durch einen intemen^^ bzw. extemen Stimulus ausgeloste Aktivierung eines Bedtirfnisses. Es werden daher passiv oder aktiv Informationen iiber Produkte gesucht, die zur Bediirfnisbefriedigung geeignet sind. Die gesanmielten Informationen iiber die tatsachlichen Produkteigenschaften stellen die Basis fur die Wahmehmung der Eigenschaften dar. Wahrend technisch-physikalisch-chemische Produktmerkmale intersubjektiv einheitlich sind, wird durch ihre Wahmehmung eine individuell gefarbte Realitat geschaffen, die erheblich zwischen verschiedenen Individuen differieren kann.^^ Zusatzlich zu den direkt beobachtbaren Informationen greift der Konsument noch auf ableitbare Informationen wie Haltbarkeit oder Zuverlassigkeit zuriick.^^
Vgl. Nieschlag, R./Dichtl, E./Horschgen, H. (2002), S. 610. Vgl. Brzoska, L (2003), S. 23f. Vgl. Brunswik, E. (1952); Gutsche, J. (1995), S. 41ff. Bei internen Stimuli kann es sich zum Beispiel um Durst handeln. Vgl. Bocker, F. (1986), S. 553. Vgl. Nieschlag, RJDichtl, E./Horschgen, H. (2002), S. 600ff.
19
Bediirfnisse
U-
d^ iJ
^
tatsachliche Produkteigenschaften
monetarer Preis
wahrgenommene intrinsische Produktattribute
wahrgenommener monetarer Preis
wahrgenommener nicht-monetarer Preis (z.B. Zeit)
1
i
wahrgenommene extrinsische Produktattribute
X
wahrgenommene Produktleistung (Qualitat, etc.)
wahrgenommener Produktpreis
Stimuli
Psyche
erwarteter Nettonutzen (objektbezogen)
I I Kaufwahrscheinlichkeit
Praferenz (altemativenbezogen)
Kaufhandlung
Response
Abbildung 7: Die Einordnung der Praferenz im erweiterten Linsenmodell von Brunswi/^'^ Die Reizaufnahme durch den Konsumenten beruht jedoch nicht nur auf auBeren Daten, sondem auch auf inneren Signalen wie Emotionen und eigenen Werten, die ebenfalls Einfluss auf die Wahmehmung ausiiben.'^ Jedes Individuum defmiert die fiir sich zur Beurteilung relevanten Merkmale und vergleicht anhand dieser wesentlichen Eigenschaften alle Altemativen in der relevanten Produktklasse. Dazu werden die verschiedenen Eigenschaften ganzheitlich bewertet und dem individuellen Ziel- und Bezugssystem gegenlibergestellt.^^^ Das Ergebnis dieser ganzheitlichen Nutzenbeurteilung ist der (objektbezogene) erwartete Nettonutzen. Der Nettonutzen wird fur alle Altemativen ermittelt und die (altemativenbezogene) Praferenzrangfolge gebildet. Da jedoch der Fall denkbar ist, dass der Konsument kein Produkt oder ein anderes Produkt als das mit der hochsten Praferenz wahlt, kann die Praferenz lediglich als Kaufwahrscheinlichkeit fur die jeweiligen Altemativen verstanden werden, denn die tatsachliche Kaufentscheidung umfasst dariiber hinaus Einflussfaktoren, die das Konstmkt Praferenz nicht umfasst. Genannt seien beispielsweise situative Einfliisse, Verfugbarkeit oder Budgetrestriktionen.^^^ Erst aus der Kaufhandlung erwachst der eigentliche Nutzen, der durch das erworbene Produkt gestiftet wird. Im Rahmen eines Lemprozesses kann dieser durchaus einen erheblichen Einfluss auf zukiinftige Produktbewertungen ausiiben. ^ Quelle: In Anlehnung an Brunswik, E. (1952), S. 16ff. ' ^ Vgl. Kroeber-Riel, W./Weinberg, P. (2003), S. 5Iff. '°' Vgl. Kroeber-Riel, W./Weinberg. P. (2003), S. 279ff. '^^ Diese Einflussfaktoren werden in Abschnitt 2.3 genauer untersucht.
20
|
Bei dem dargestellten erweiterten Linsenmodell von Brunswick handelt es sich um ein Stimulus-Organism-Response-Modell (S-0-R-Paradigma), das sich dadurch auszeichnet, dass es im Gegensatz zum Stimulus-Response-Modell (S-R-Modell) von der Grundannahme des rational handelnden Individuums abgekehrt und stattdessen um verhaltenstheoretische Aspekte erweitertwird.^^^ 2.3
Klassifizierung moglicher intervenierender Variablen zur Analyse der Diskrepanz zwischen PrMferenz und tatsMchlicher Kaufentscheidung
Obwohl es nach dem gesunden Menschenverstand auf den ersten Blick eine gute Entscheidungsregel zu sein scheint, dass ein Konsument immer die Alternative wahlt, fiir die er die groBte Praferenz aufweist, haben sowohl die vorgestellten Strukturmodelle als auch eine Vielzahl von Studien gezeigt, dass dies in der Realitat nicht unbedingt der Fall ist.*^ Die Betrachtung von verhaltenswissenschaftlichen Aspekten soil der Tatsache Rechnung tragen, dass das rationale Entscheidungsmodell der klassischen Okonomie teilweise Entscheidungen nur ungenau prognostizieren kann.^^^ Insbesondere die Grundannahme der stabilen, konsistenten^^ und unveranderlichen Praferenzen scheint in der Praxis kaum haltbar. Es besteht eine zunehmende Ubereinstimmung unter Entscheidungsforschem, dass Praferenzen nicht a priori konstant defmiert sind, sondem erst im speziellen Kontext, in dem sie hervorgerufen werden, konstruiert werden.^^^ Es liegt daher nahe, die Rahmenbedingungen einer Kaufentscheidung naher zu analysieren. Dazu wird im Folgenden der Ansatz von Bettman/Johnson/Payne verwendet, der die Rahmenbedingungen in drei verschiedene Kategorien unterteilt (vgl. Abbildung 8).^^^
Vgl. Trommsdorff, V./Bleicker, U./Hildebrandt, L (1980), S. 273. Die Conjoint-Analyse folgt dem SORAnsatz, da sie auf individuelle Abwagungsprozessen aufbauend Praferenzwerte berechnet und erst anschlieBend daraus Prognosen ableitet, vgl. Balderjahn, I. (1994), S. 13. Vgl. bspw. Lindberg, E./Gdrling, T./Montgomery, H. (1989), S. 205ff; Lichtenstein, S./Slovic, /'. (1971), S. 46ff; Lichtenstein, S./Slovic, P. (1973)S. 16ff; Lindman, H.R. (1971), S. 390ff; Sheluga, D.A./Jaccard, JJJacoby, J. (1979), S. 166ff; Gierl, H. (1987), S. 458ff; Bemmaor, A.C. (1995), S. 176; Young, M.RJLenk, P.J. (1998), S. 188ff.; Armstrong. J.S./Morwitz, V.G./Kumar, V. (2000), S. Iff Probanden neigen insbesondere dazu, bei Befragungen eine zu hohe Kaufbereitschaft anzugeben, vgl. Monvitz, V.G./Steckel, J.H./Gupta,A.(\991),S.3. Vgl. AJzen, I. (1985), S. 18; Montgomery, H.et al (1994), S. 145ff; Lindberg, E./Garling, T./Montgomery, //. (1989),S.205ff Im Rahmen der rationalen Entscheidungstheorie wird unterstellt, dass eine Auswahlentscheidung unabhangig ist vom Kontext, der in diesem Zusanunenhang als die Auswahl der betrachteten Alternativen defmiert wird. Betrachtet man ferner Praferenzen als hypothetisches Konstrukt mit wesentlichem Einfluss auf das Entscheidungsverhalten, miisste die Praferenz konsistent bzgl. der Unabhangigkeit des Entscheidungsverhaltens von Kontextfaktoren sein, vgl. Simonson, L/Tversky, A. (1992), S. 28Iff. Es existieren allerdings zahlreiche Studien, die belegen, dass die Einfiihrung einer neuen Alternative einen maBgeblichen Einfluss auf die relativen Praferenzen in Bezug auf verschiedene Alternativen haben kann, vgl. Dhar, R./Nowlis, S.M./Sherman, S.J. (2000), S. 189. Vgl. Dhar, R./Glazer, R. (1996), S. 280; Payne, J.W./Bettman, J.R./Johnson, E.J (1992), S. 87ff; Slovic, P. (1995), S. 364ff; Tversky, A./Simonson, L (1993), S. 1179ff; Payne, J.W./Bettman, J.R./Schkade, D.A. (1999),S.243ff In der Literatur werden teilweise andere Klassifikationen verwendet, so stellt der Ansatz von Wong/Sheth bspw. das Involvement mit hervorgehobener Bedeutung als eigenstandige Kategorie heraus, vgl. Wong, J.K./Sheth, J.N. (1985), S. 378ff Problematisch ist dabei, dass das Involvement selbst ein aggregiertes theo-
21
Abbildung 8: Rahmenbedingungen von Kaufentscheidungen Charaktehstika des Entscheidungstrdgers Die erste Kategorie umfasst die Charakteristika, die sich auf die Person des Entscheiders beziehen, also auf seine Personlichkeit, und im Optimalfall anhand von demographischen Merkmalen beschrieben werden konnen.^'^ In diesem Zusammenhang soUen unter Personlichkeit „die charakteristischen psychologischen Merkmale, die relativ konsistente und gleich bleibende Reaktionen auf seine Umwelt bewirken", verstanden werden/^' Die personlichen Charakteristika setzen sich vor allem aus den kognitiven Fahigkeiten des Konsumenten sowie aus dem Umfang und der Intensitat der bis zur Entscheidung angesammelten entscheidungsrelevanten Kenntnisse zusammen.^^^ Die kognitiven Fahigkeiten lassen sich danach differenzieren, inwieweit der Entscheider dazu in der Lage ist, Informationen in einem groBeren Umfang
retisches Konstrukt darstellt und sich nahezu vollstandig mit den Einflussfaktoren der anderen Kategorien (sowohl bei dem Ansatz von Wong/Sheth als auch bei dem hier benutzten Klassifikationsansatz von Payne et al.) erklaren lasst. Aus diesem Grund wird in dieser Arbeit Involvement nicht als eigenstandige Kategorie defmiert. Louviere et al. verwenden eine ahnliche Kategorisierung, die ebenfalls deutlich macht, dass die Auswahlentscheidung nicht nur von den direkt beobachtbaren bzw. manipulierbaren Faktoren X abhangt. Sie stellen den Zusammenhang zwischen Auswahlentscheidung Y und den verschiedenen Einflussfaktoren formal dar als: Y|X, Z, C, G, T. Vgl. Louviere, C.H.et al. (2002), S. 177ff. Vgl. Bettman, J.R./Johnson, E.J./Payne, J. W. (1991), S. 62. Morwitz/Schmittlein zeigen, dass die Beziehung zwischen Kaufabsicht und tatsachlicher Kaufentscheidung auch von demographischen Merkmalen abhangt. Bestimmte Personengruppen, fiir die eine Kaufabsicht festgestellt werden kann, weisen eine groBere Wahrscheinlichkeit dafiir auf, ihre Absicht auch umzusetzen, AuBerdem konnen bestimmte Personengruppen identifiziert werden, die zwar keine Kaufabsicht auBern, aber dennoch eher das betrachtete Produkt kaufen, vgl. Monvitz, V.G./Schmittlein, D. (1992), S. 39Iff. Kotler, P./Bliemel, F. (2001), S. 341. Vg\. Hoser, H. {\9n\S.
22
29.
zu verarbeiten und sich nicht nur auf einzelne Aspekte zu konzentrieren.^^^ In diesem Zusammenhang spielt das AusmaB der Selbstiiberwachung {self-monitoring) des Konsumenten eine bedeutende Rolle, denn Personen mit einem ausgepragten Ma6 an Selbstiiberwachung sind besonders sensibel fiir situativ angemessenes Verhalten und verwenden entsprechende Hinweisreize, um das eigene Verhalten und ihre Selbstprasentation zu steuem.^^^ Eine hohe Empfanglichkeit eines Konsumenten fiir situative Einflusse sorgt fiir eine tendenziell geringe Stabilitat der Praferenzstruktur.^*^ Der Kenntnisstand des Entscheiders hat Einfluss auf die Modalitaten der Informationsverarbeitung und die daraus gewonnenen Erkenntnisse bzw. ihre Speicherung. Die personenspezifischen Merkmale sind auf ein Individuum bezogen keinesfalls konstant. Abweichungen aufgrund von personenspezifischen Veranderungen konnen im Extremfall auf das natiirliche Erwachsenwerden zuriickgeftihrt werden, was bspw. bei der Befragung von Kindem iiber weit in der Zukunft liegende Entscheidungen zu Problemen fuhren kann. Relevanter sind jedoch in der Marktforschung anzutreffende kurzere Betrachtungszeitraume, bei denen es oft schon ausreicht, dass die Auskunftsperson im Lauf des Kaufentscheidungsprozesses bereits bestehende Information nochmals verarbeitet bzw. sein Selbstbild, Geschmack Oder Interessen andert.^^^ Dariiber hinaus konnen Unterschiede in der aktuellen Stimmung der betrachteten Person ausschlaggebend fiir die Instabilitat von Praferenzen sein.^^^ Individuelle Normen intervenieren im Kaufentscheidungsprozess zwischen Praferenz- und Kaufabsichtsbildung und konnen Grund fiir ein Auseinanderfalien der beiden Konstrukte sein. Sie stellen intemalisierte Verhaltensregeln dar, an denen sich einzelne Konsumenten im Rahmen des Kaufentscheidungsprozesses orientieren.^^^ Soziales Umfeld Das soziale Umfeld stellt die zweite Kategorie von Rahmenbedingungen einer Kaufentscheidung dar und tragt der Tatsache Rechnung, dass Entscheidungen normalerweise nicht in einem sozialen Vakuum getroffen werden,^'^ sondem eine Vielzahl sozialer Determinanten
Aufgrund von begrenzten und in Abhangigkeit der individuellen Informationsverarbeitungsmoglichkeiten greifen Entscheider auf vereinfachende Entscheidungsregeln zuruck, vgl. Bettman, J.R. (1979), S. 17f.; Newell, A/Simon, H.A. (1972), S. 479. Die hohe Bedeutung des Self-Monitoring lasst sich u.a. damit begriinden, dass einige empirische Studien Hinweise fiir die Gultigkeit dieser Theorie geliefert haben, vgl. Wong, J.K./Sheth, J.N. (1985), S. 379 sowie die dort angefiihrten Quellen. Vgl. Snyder, M. (1972), S. 5f. Weitere Ansatze, die ebenfalls personliche Merkmale fiir das Zustandekommen der Kaufentscheidung mitverantwortlich machen, sind ein Beleg dafiir, dass zahlreiche Rahmenbedingungen einer Kaufentscheidung stark mit den personlichen Pradispositionen des Entscheidungstragers korrelieren, vgl. Kuhl, J. (1985), S. 102. So kann die Kaufabsicht fiir eine Kamera durch die Aufmerksamkeit fiir ein anderes Produkt vergehen oder die Absicht, nie Schmerztabletten zu nehmen, durch starke Kopfschmerzen revidiert wird. Vgl. hierzu Belk, R.W. {19S5),S. 14. Vgl. Axelrod, J.N. (1963), S. 19ff. So kann bspw. der Kaufverzicht auf SUBwaren trotz starker Praferenzen auf individuelle Normen eines Konsumenten zuriickgeftihrt werden, einen gesunden Lebensstil zu fuhren. Vgl. Homans, G.C. (1961), S. Iff.
23
aufweisen, die entweder auf direktem oder aber auf indirektem Wege ihre Wirkung entfalten konnen.^^^ Zu direkten Einfliissen kommt es bei Mehrpersonenentscheidungen oder im Falle unmittelbarer Einwirkung dritter auf die Entscheidung des Nachfragers. Ein indirekter sozialer Einfluss kann insbesondere aus der verspiirten Notwendigkeit bzw. dem Bediirfnis resultieren, Entscheidungen vor anderen Personen zu rechtfertigen. Beispielsweise kann der Rechtfertigungszwang Grund ftir den Riickgriff auf eine bestimmt Entscheidungsheuristik sein oder aber auch die Risikobereitschaft reduzieren.^^^ Soziale Normen konnen nach Homans als spezifische, von den Mitgliedem einer Gruppe intemalisierte Verhaltensregeln definiert werden, die unter bestimmten Bedingungen von Gruppenmitgliedem oder aber auch von anderen Personen erwartet werden, wobei bei VerstoBen gegen akzeptierte Normen mit Sanktionen zu rechnenist.^^^ Charakteristika des Entscheidungsproblems Die dritte Gruppe von Rahmenbedingungen bezieht sich schlieBlich auf die Charakteristika des Entscheidungsproblems. Zunachst einmal fallen darunter Einflussfaktoren, die allgemein den Versuchsgegenstand betreffen. So zeigen Studien von Kalwani/Silk und Jamieson/Bass, dass die Beziehung zwischen Kaufabsicht und tatsachlichem Kauf von der Produktkategorie abhangt und ftir Gebrauchsgiiter {durable goods) und Verbrauchsgiiter {nondurable goods) verschieden sind.^^^ Dariiber hinaus kann zwischen spezifischen Besonderheiten der Entscheidungsaufgabe und altemativenspezifischen Faktoren unterschieden werden. Unter die spezifischen Besonderheiten fallt bspw. der Zeitdruck, dem der Trager der Entscheidung ausgesetzt ist, aber auch die Anzahl der zur Wahl stehenden Objekte.^^"^ Zeitdruck kann Mechanismen wie eine Beschleunigung des Entscheidungsprozesses, starke Selektivitat oder ein Wechsel der Entscheidungsstrategie zur Folge haben. Besonders bei extremem Zeitdruck nimmt die Zeit, die je Informationseinheit verwendet wird, rapide ab.^^^ AuBerdem fmdet eine Fokussierung auf die wichtigeren und/oder negativeren Informationen statt.^^^ Pay-
Ygl Anderson, W.T./Cunningham, W.H. (1972), S. 23ff Vgl.//d5er,//. (1998),S.29f. Vgl. Homans, G.C. (1978), S. 136. Bspw. konnte ein Konsument eine starke Praferenz fiir ein Luxusauto aufweisen, vom Kauf aber absehen, weil sein Vorgesetzter oder aber auch seine KoUegen lediglich einen Mittelklassewagen besitzen und Unverstandnis und Missgunst vorhersehbar sind. Kalwani/Silk zeigen bspw., dass fiir Gebrauchsgiiter ein lineares Modell die Kaufabsichts-Kauf-Relation gut darstellt, wahrend fiir Verbrauchsgiiter ein abschnittsweise lineares Modell eine hohere Korrelation aufweist, vgl. Kalwani, M.U./Silk, A.J. (1982), S. 243ff. und allgemein zum Einfluss der Produktkategorie vgl. Jamieson, L./Bass, F.M. (1989), S. 336ff Vgl. Wright, P. (1974), S. 555ff.; Ben Zur, H./Breznitz, S.J. (1981), S. 89ff; Leclerc, F./Schmitt, B.H./Dube, Z. (1995),S. UOff. Vgl. Ben Zur, H./Breznitz, S.J (1981), S. 89ff. Vgl. Ben Zur, H./Breznitz, S.J (1981), S. 89ff.; Wallsten, T.S./Barton, C. (1982), 361ff; Svenson, O./Edland, A. (1987), S. 322ff.; Payne, J.W./Bettman, JR./Johnson, E.J (1988), S. 534ff.
24
ne/Bettman/Johnson und Zakay zeigen, dass Zeitdruck eine Veranderung der Entscheidungsstrategien bewirken kann/^^ Der wahrscheinlich am besten erforschte Entscheidungskomplexitatseffekt ist der Einfluss einer Veranderung der Anzahl der Altemativen.^^^ Werden Personen mit zwei Altemativen konfrontiert, tendieren sie dazu, auf kompensatorische Entscheidungsstrategien wie das gewichtete additive Modell zuriickzugreifen.^^^ Sie wagen also einen besseren Wert bei einem Attribut gegen einen schlechteren Wert eines anderen Attributes ab. Werden Individuen allerdings mit multi-altemativen Entscheidungsproblemen konfrontiert, tendieren sie dazu, auf nicht-kompensatorische Strategien zurtickzugreifen.*^^ Sowohl eine groBere Komplexitat der Entscheidungsaufgabe als auch Zeitdruck veranlassen also den Entscheidungstrager, die Entscheidungsaufgabe zu vereinfachen.^^^ Die situativen Rahmenbedingungen der Kaufentscheidung konnen im Laufe der Zeit sehr stark schwanken,^^^ und es ist haufig auBerst problematisch, situative Einflussfaktoren genau zu prognostizieren.^^^ Im Konstrukt der Kaufabsicht und teilweise bereits bei constrained preferences werden Annahmen liber antizipierbare situative Einflussfaktoren in Form von Erwartungen des Konsumenten iiber Rahmenbedingungen fiir spezifische kiinftige Kaufsituationen berucksichtigt. Die Disposition der fmanziellen Ressourcen erfolgt zumeist vor dem Hintergrund des bekannten bzw. erwarteten Produktpreises und des verfiigbaren Geldbudgets.'^^ Gerade bei Kaufentscheidungsprozessen mit ausgepragter kognitiver Steuerung konamt es tendenziell zu einer zeitlichen Divergenz von Praferenz- und Kaufabsichtsbildung einerseits und realem Kauf andererseits.^^^ Die Anderung des situativen Kontextes wahrend dieses Zeitraums stellt einen der Hauptgriinde dafiir dar, dass sich Praferenzen bzw. Kaufabsichten im
Vgl. Zakay. D. (1985), S. 75ff.; Payne, J.W./Bettman, J.R./Johnson, E.J. (1988), S. 534ff. Allerdings zeigen Payne/Bettman/Johnson zudem, dass bei moderatem Zeitdruck zwar eine leichte Beschleunigung des Entscheidungsprozesses festzustellen ist, die Qualitat der Entscheidungen allerdings kaum verschlechtert wird, da in erster Linie eine starke Selektivitat zu beobachten ist, vgl. Payne, J.W./Bettman, J.R./Johnson, E.J. (1988), S. 534ff. Vgl. Payne, J.W./Bettman, J.R./Johnson, E.J (1988), S. 98; Ursic, M.L/Helgeson, J.G. (1990), S. 69ff. Vgl. zu kompensatorischen Entscheidungsstrategie und dem gewichteten additiven Modell Abschnitt 2.4.1. Vgl. Biggs, S.F.et al (1985), S. 970ff.; Billings, R.S./Marcus, S.A. (1983), S. 331ff.; Johnson, KJ/Meyer, R.J./Ghose, S. (1989), S. 255ff; Klayman. J (1985), S. 179ff.; Onken, J/Hastie, R./Revelle, W. (1985), S. 14ff.; Sunderstrom, G.A. (1987), S. 165ff.; Payne, J W. (1982), S. 386ff; Kaas, K.P. (1984), S. 585ff. Vgl. Bettman, JR. (1979), S. 63. Dabei ist zu beriicksichtigen, dass der Zeitdruck Einfluss auf die wahrgenommene Komplexitat der Entscheidungsaufgabe hat, vgl, Payne, J.W. (1982), S. 387; Schellinck, D.A. (1983), S. 474. Vg\.Belk,R.W.{\9%5),^.\6. Vgl. Gerhard, A. (1995), 18ff. Dazu zahlen auch Unsicherheiten iiber die Gewichtung von Eigenschaften, vgl. Kahn, B.E./Meyer, R.J (1991), S. 508ff Analog wird die Beschaffungsdauer vor dem Hintergrund des verfiigbaren zeitlichen Budgets bewertet, vgl. Kotler, P./Bliemel, F. (2001), S. 361; Nieschlag, R./Dichtl, E/Horschgen, H. (2002), S. 656; Bagozzi, R.P./Warshaw, P.R. (1990), S.128. Vgl. Kufi, A./Tomczak, T. (2004), S. 140f.
25
Rahmen des gesamten Entscheidungsprozesses neu bilden und Konsumenten von dem urspriinglich beabsichtigten Kauf abweichen.'^^ Allerdings konnen selbst bei Annahme eines abgeschlossenen Praferenzbildungsprozesses und stabiler Praferenzen nicht antizipierbare situative Ereignisse dazu fiihren, dass die am meisten praferierte Alternative nicht gekauft wird. Nicht antizipierbare situative Ereignisse konnen sowohl in der Einkaufsstatte, bspw. Warteschlangen, mangelnde Produktverfugbarkeit, Empfehlungen des Verkaufspersonals, als auch auBerhalb, z.B. Streik im Offentlichen Personennahverkehr, Staus oder Wetterbedingungen, eintreten und zu einer Anderung der urspriinglichen Kaufabsicht fiihren. Problematisch ist die Prognostizierbarkeit der situativen Rahmenbedingungen insbesondere auf individueller Ebene. Ist allerdings eine aggregierte Betrachtung von Interesse, spielen situative Einflussfaktoren haufig nur eine untergeordnete Rolle, da sich verschieden gerichtete Veranderungen haufig tendenziell gegenseitig ausgleichen, insofem es sich nicht um systematische Veranderungen handelt.^"^^ In zahlreichen Beitragen, insbesondere im Rahmen der Prospect Theory, wird gezeigt, dass Entscheidungen von konkreten Bezugspunkten abhangen und bspw. negative Folgen anders als positive beurteilt werden.^^^ AuBerdem konnen besondere Verwendungszwecke Grund dafiir sein, dass die am meisten praferierte Alternative nicht gekauft wird.^^^ Ein altemativenspezifischer Aspekt ist der Umfang der Informationen, der je Alternative Beriicksichtigung findet. Eine Reihe von Studien untersttitzt die Hypothese, dass die Qualitat von Entscheidungen bei einer Erhohung der Anzahl der zu berucksichtigenden Eigenschaften nach Uberschreiten einer bestinmiten Komplexitatsschwelle abnimmt und eine Konzentration auf die wichtigsten Informationen erfolgt.^'*^ Grether/Wilde und Grether et al argumentieren, dass bei realen Entscheidungen Personen imstande sind, weniger wichtige Informationen zu ignorieren und damit Informationsiiberfrachtung {information overload) kein gravierendes Problem darstellt. Dagegen haben Gaeth/Shanteau gezeigt, dass irrelevante Faktoren Einfluss auf Bewertungen haben konnen. ^"^^ Die Anzahl der beriicksichtigten Merkmale je Alternative hat wie die Anzahl der Altemativen Einfluss auf die Komplexitat der Entscheidungsaufgabe. Analog fordert eine groBere Anzahl
Vgl. Sheth, J.N. (1974), S. 248; van Raaij, W.F. (1981), S. 2. Vgl. Allenby, G./Rossi, P.E. (1991), S. If. Vgl. Gierl, H./Helm, R./Stumpp, S. (2001), S. 559ff; Felten, C. (2002), S. 67ff.; Kahneman, D./Tversky, A. (1979), S. 263ff.; Urbany, J.E./Dickson. P.R (1990), S. 69ff. oder bspw. fur Unterschiede zwischen Willingness-to-Pay und Willingness-to-Accept Kahneman, D./Knetsch, J.L/Thaler, R.H. (1990), S. 1325ff Vgl. Bagozzi, RP./Warshaw, P.R (1990), S. 127ff. Vgl. Keller, L.R/Staelin, R. (1987), S. 200ff; Shields, M.D. (1983), S. 284ff; Sunderstrom, G.A. (1987), S. 165ff und abweichend dazu sowie zu methodischer Kritik der oben genannten Studien Meyer, RJ./Johnson, £.J. (1989),S.498ff Vgl. Gaeth, G.J./Shanteau, J. (1984). Allerdings haben Payne et al. ebenfalls verdeutlicht, dass dieser Effekt mit Hilfe von Training reduziert werden kann, vgl. Payne, J. W./Bettman, J.R/Johnson, E.J. (1992), S. 88ff
26
an Altemativen tendenziell den Riickgriff auf nicht-kompensatorische Entscheidungsheuristiken.'^^ Es wird deutlich, dass zwischen Praferenzbildung und Kauf eine Vielzahl von Faktoren intervenieren, die eine Divergenz zwischen Praferenz und tatsachlichem Kauf erklaren konnen. Die beiden dem Kauf vorgelagerten Konstrukte Praferenz und Kaufabsicht sind instabiler als es nach verbreiteter Meinung vermutet werden konnte. Vor diesem Hintergrund und unter besonderer Berucksichtigung des Kaufentscheidungsprozesses kann die Diskrepanz zwischen gemessener Praferenz bzw. Kaufabsicht und tatsachlicher Kaufentscheidung anhand von Divergenzen bei der Praferenz einerseits und Divergenzen infolge der Instabilitat von Einflussfaktoren andererseits erklart werden. In die erste Kategorie fallen alle Aspekte, die sich auf die Messung des Praferenzkonstruktes beziehen, wahrend der zweiten eine fehlerfreie Messung des hypothetischen Konstruktes zu einem bestimmten Zeitpunkt zugrunde liegt. Die den verschiedenen Praferenzmessverfahren zugrunde liegende Bewertungsaufgabe differiert von Verfahren zu Verfahren. Allein durch den Einsatz von Praferenzmessverfahren wird ein Eingriff in den natiirlichen Entscheidungsprozess vorgenommen, der durchaus bereits Einfluss auf die Kaufentscheidung ausiiben kann.'"^^ Eine zentrale Forderung fur Durchfiihrung von Experimenten im Allgemeinen und damit fiir die Messung von Praferenzen im Besonderen ist, dass der experimentelle Ansatz in Bezug auf die Aufgabe, Stimuli und die Rahmenbedingungen realistisch sein soU.^"^ Dementsprechend liegt es nahe, das verwendete Praferenzmessverfahren dahingehend zu analysieren, inwieweit es dem realen Problem entspricht. Das Messverfahren ist also diesbeziiglich hinsichtlich der oben dargestellten Einflussfaktoren zu untersuchen. Zur Untersuchung der Kategorie der Charakteristika von Entscheidungstragem muss in diesem Zusammenhang die Reprasentativitat der berucksichtigten Auswahlpersonen fiir die beabsichtigte Verallgemeinerung geklart werden. Genauso kann die dargestellte Klassifizierung der Rahmenbedingungen angewandt werden, um eine Instabilitat der Einflussfaktoren wahrend der Zeit zu erklaren. Je groBer der Zeitraum zwischen Praferenzmessung und tatsachlichem Kauf ist, desto starker sind die Aktualisierungsprozesse und desto instabiler sind die Praferenzen.
'"^^ Zahlreiche Studien belegen die grundlegende Hypothese, dass bei steigender Komplexitat der Entscheidung mehr Personen auf stark abstrahierende Entscheidungsheuristiken zuriickgreifen. Im Rahmen der Studien werden systematisch Anzahl der Alternaiven, Anzahl der Auspragungen oder Zeitdruck variiert. Vgl. Payne, J. WJBettman, J.RJJohnson, E.J. (1992), S. 98f. '•^^ Monvitz/Johnson/Schmittlein. zeigen, dass eine Befragung von Konsumenten danach, ob sie ein Gebrauchsgut {durable good) kaufen oder nicht, stimulierende Wirkung auf die Kaufentscheidung haben kann. Vgl. Monvitz, V.G./Johnson, E./Schmittlein, D. (1993), S. 46ff. Zu einer systematischen Verzerrung der prognostizierten Werte kommt es insbesondere dann, wenn von einer Stichprobe auf die Grundgesamt geschlossen wird und folglich nicht alle Konsumenten befragt werden. ^^ Vgl. Berkowitz, L./Donnerstein, E. (1982), S. 245ff; Ebbesen, E.B./Konecni, V.J. (1980), S. 21ff; Smead, R.J./Wilcox, JB./Wilkes, R.B. (1981), S. 37ff.
27
Werden Auskunftspersonen befragt, die erst durch die Teilnahme an der Conjoint-Analyse den Kauf eines Produktes in Erwagung Ziehen, ist dies ein AnstoB und damit ein Eingriff in den Kaufentscheidungsprozess, der zu Verzerrungen ftihren kann. I.d.R. definiert der Durchfiihrende die Altemativen und stellt dariiber hinaus zusatzliche Informationen innerhalb des Erhebungsprozesses zur Auswahl. Auch hier muss kritisch hinterfragt werden, inwieweit die Auskunftsperson ohne die Teilnahme an der Erhebung dieselben Altemativen und Informationen betrachten wiirden. Es wurde gezeigt, dass die Bewertungsmethoden von aufgabenspezifischen Faktoren wie der Aufgabenkomplexitat oder dem Zeitdruck abhangen. Dariiber hinaus ist zu beachten, inwieweit der Proband in einem experimentellen Umfeld iiberhaupt aktiviert ist. Dabei sind zwei verschiedene Abweichungen vorstellbar. Gerade bei extensiven Kaufentscheidungen diirfte die Aktivierung im Experiment wesentlich geringer sein als im Rahmen des realen Kaufs, da Faktoren wie das mit der Entscheidung verbundene Risiko bei realen Kaufen deutlich hoher bzw. bei Experimenten nicht vorhanden oder nur rudimentar ausgepragt sind.^"^^ Anders gestaltet sich die Situation dagegen bei habitualisierten Kaufentscheidungen, bei denen in der Realitat die Aktivierung sehr gering ist und sich dementsprechend die Informationsaufnahme bspw. auf die reine Identifikation der bereits in der Vergangenheit gewahlten Alternative bezieht. Hier wird die Auskunftsperson im Rahmen des Experiments zusatzlich aktiviert und wohlmoglich erst durch die Erhebung auf Altemativen aufmerksam, die sie ansonsten nie wahrgenommen bzw. einem Bewertungsprozess unterzogen hatte. AuBerdem hangen die Ergebnisse von dem Zeitpunkt ab, zu dem die Conjoint-Analyse durchgefuhrt wird. Es wird deutlich, dass die Ausgestaltung des Erhebungsverfahrens einen mafigeblichen Einfluss auf die Realitatsnahe des Experiments bzw. auf den Entscheidungsprozess selbst haben kann. Aus diesem Grunde werden in Kapitel 3 die einzelnen Moglichkeiten, die hinsichtlich der Ausgestaltung der Conjoint-Analyse bestehen, zuerst mit einem Fokus auf den Gmndansatz der TCA und anschlieBend bei Abweichungen hinsichtlich der Verfahrensvarianten genauer untersucht. 2.4
Messung multiattributiver KonsumentenprMferenzen
2.4.1 Prdferenzmodelle Grundannahme der multiattributiven Praferenzmodelle ist, dass die Konsumenten im Rahmen des Praferenzbildungsprozesses verschiedene Altemativen anhand der jeweils wahrgenommenen Produkteigenschaften (Attribute) bewerten.^'*^ Die wahrgenommenen Produkteigenschaften werden demnach zuerst bewertet und anschlieBend zu einem Gesamturteil aggregiert, wodurch sich der Praferenzbildungsprozess in zwei Teilprozesse zerlegen lasst:^"^^ •
Praferenzbildung auf der Ebene einzelner Produkteigenschaften durch eigenschaftsspezifische Bewertungsfunktionen sowie
'*^ Vgl. zum wahrgenommenen Risiko Gemunden, H.G. (1985), S. 79ff. *^^ Vgl. Kroeber-Riel, W./Weinberg, P. (2003), S. 311; Jam, A.K./MahaJan, V./Malhotra, N.K. (1979), S. 248f.; Shocker, A.DJSrinivasan, V. (1979), S. 159f.; Huber, G.P. (1974), S. 1393ff. '^^ Vgl. Backer, F. (1986); S. 557f.; Green, P.E./Srinivasan, V. (1978), S. 105ff.; Albrecht, J. (2000), S. 13.
28
•
Praferenzbildung auf der Ebene des gesamten Produktes durch die Aggregation der Bewertung einzelner Produkteigenschaften anhand einer Verkntipfungsfunktion.
Die Praferenzmodellierung auf Eigenschaftsebene erfolgt mit Hilfe von Nutzenfunktionen, die die Wertigkeit unterschiedlicher Auspragungen eines Attributes (Teilnutzen)^'*^ zum Ausdruck bringen.'"^^ Den Bewertungs- bzw. Nutzenfunktionen liegen unterschiedliche Annahmen iiber die Veranderung der Teilnutzenwerte in Abhangigkeit verschiedener Produkteigenschaftsauspragungen zugrunde.^^^ Das Idealvektormodell unterstellt einen monoton steigenden oder fallenden Zusammenhang zwischen dem eigenschaftsspezifischem Nutzen (U) und den Auspragungen eines Merkmals.^^^ Bine Auskunftsperson praferiert also stets hohere oder niedrigere Auspragungen eines Merkmals. Beispielsweise scheint es beim Merkmal Preis plausibel, dass niedrigere Preisstufen immer hoheren vorgezogen werden, so dass ein Idealvektormodell unterstellt werden kann. AUerdings ist fiir die Spezifikation des Idealvektormodells zudem eine begriindete Annahme iiber die Art des monotonen funktionalen Zusammenhangs notig. In der Praxis wird zumeist ein linearer Zusammenhang unterstellt. Das Idealpunktmodell unterstellt im Gegensatz zum Idealvektormodell keinen monoton steigenden oder fallenden Zusammenhang, sondem basiert auf der Annahme, dass das betrachtete Merkmal eine ideale Auspragung besitzt, von der Abweichungen zu beiden Seiten zu Nutzenminderungen fuhren. Die NutzeneinbuBen miissen bzgl. der Richtung der Abweichung nicht unbedingt symmetrisch verlaufen.^^^ Das Teilnutzenmodell unterstellt keinerlei Zusammenhang zwischen Eigenschaftsauspragung und dem korrespondierenden Nutzen des Merkmals. Insofem weist dieses Modell die groBte Flexibilitat bzgl. des Schatzens der Modellparameter auf und kann die beiden zuvor dargestellten Messmodelle als Unterfalle erfassen. Es wird verwendet, wenn vor Durchfiihrung der Analyse keine Annahmen iiber die Zusanmienhange moglich sind. Abbildung 9 veranschaulicht zusanmienfassend die drei vorgestellten Beurteilungsmodelle.^^^
Der Begriff Teilnutzenwert wird zudem fiir eine bestimmte Praferenzmodellierung auf Eigenschaftsebene verwendet. Dies ist nur scheinbar ein Widerspruch, da es sich um ein allgemeines Praferenzmodell handelt, in das die anderen Modelle iiberfiihrt werden konnen. Vgl. die im Folgenden dargestellten Ansatze zur Modellierung von Praferenzen auf Eigenschaftsebene oder Balderjahn, I. (1998), S. 189. Vgl. Buschken, J. (1994a), S. 59. Zur Beriicksichtigung von Priori-Wissen bei der Spezifikation des Nutzenmodells vgl. Srinivasan, V./Jain, A.K./Malhotra, N.K. (1983), S. 433ff. Vgl. Green, P.E./Srinivasan, V. (1978), S. 106. Vgl. Balderjahn, I. (1994), S. 14. Vgl. Cattin, P./Punj, G. (1984), S. 73ff. Quelle: in Anlehnung an Hahn, C. (1997), S. 53.
29
Idealvektormodel]
Idealpunktmodell
Teilnutzenmodell
• J
Eigenschaft
m
!
?
J
1
Eigenschaft
I
' » Eigenschaft
Abbildung 9: Modelltheoretische Verlaufe verschiedener Beurteilungsmodelle Die Bewertungsfiinktion wird eigenschaftsspezifisch festgelegt. Fiir verschiedene Eigenschaften eines Versuchsgegenstandes konnen demnach verschiedene Messmodelle verwendet werden. Nach der Bewertung der einzelnen Auspragungen eines Merkmals legt die Verknupfungsfiinktion fest, wie diese Teilnutzenwerte zu einem eindimensionalen Praferenzwert, dem Gesamtnutzenwert fur den betrachteten Stimulus, verkntipft werden. Die Verkniipfungsfunktionen bilden die Regeln, die Konsumenten bei der Gesamtbewertung eines Produktes anwenden, ab.'^"^ Es lasst sich dabei grundlegend zwischen kompensatorischen und nichtkompensatorischen Verkniipfungsfunktionen unterscheiden (vgl. Abbildung 10).^^^ Teilnutzenwerte fiir verschiedene Eigenschaften
kompensatorische Ver kniipfungsregel n
linear-additive Verkniifpungsmodelle
nicht-linear-additive Verkniifpungsmodelle
nic htkompensatorische Verkniipfungsregel n
multiplikative Verkniifpungsmodelle
Entsc heidungsre gel
First-ChoiceRegel
BTl^Regel
Logit-Regel
Doninanzmodelle
konjunktive/ disjunktive Modelle
lexikographische Modelle
Abbildung 10: Teilnutzenwerte als Entscheidungsgrundlage Kompensatorischen Modellen liegt die Annahme der Substituierbarkeit von Teilnutzen unterschiedlicher Produkteigenschaften zugrunde. Dies bedeutet, dass niedrige Praferenzwerte bei einer Produkteigenschaft durch hohe Teilnutzenwerte einer oder mehrerer anderer Attribute
•^^ Vgl. Albrecht, J. (2000), S. 16. '^^ Vgl. Herrmann, A. (1992), S. 204; Green, P.E./Wind, Y.J. (1975), S. 39; Pras, B. (1978), S. 145f. '^^ Quelle: In Anlehnug an Herrmann, A. (1992), S. 204; Green, P.E./Wind, Y.J. (1975), S. 39; Pras, B. (1978), S. 145f.
30
ausgeglichen werden konnen.^^^ Die Aggregation der einzelnen Teilnutzenwerte zur Gesamtpraferenz kann mittels additiven (nicht-linearen bzw. linearen) oder multiplikativen Verkniipfungsfunktionen erfolgen, wobei aufgrund ihrer Einfachheit haufig linear-additive Modelle bevorzugt werden. ^^^ Linear-additive Verkniipfungsfunktionen basieren auf der Annahme eines proportionalen Austauschverhaltnisses zwischen den Teilnutzenwerten der verschiedenen Produkteigenschaften.^^^ Die Verkniipfungsfunktionen modellieren lediglich Praferenzen, d.h. uber Kaufabsichten kann noch keine Annahme getroffen werden, denn es bedarf hierzu einer Entscheidungsregel. Bei den Entscheidungsregeln fur die Auswahl zwischen durch aggregierte Gesamtnutzenwerte beschriebenen StimuU kann grundlegend zwischen der FirstChoice- (FC), BTL^^^- und Logit-Regel unterschieden werden, die jeweils aus den Gesamtnutzenwerten ftir ein Set von Stimuli Kaufentscheidungen bzw. Kaufwahrscheinlichkeiten ableiten.^^^ Bei nicht-kompensatorischen Modellen wird im Gegensatz zu kompensatorischen Modellen ein Ausgleich zwischen Teilnutzenwerten unterschiedlicher Eigenschaften ausgeschlossen. Die hier vorgestellten nicht-kompensatorischen Entscheidungsregeln haben gemein, dass sie die Teilnutzenwerte nicht zu Gesamtnutzenwerten verknupfen, sondem aus den Teilnutzenwerten direkt Kaufentscheidungen ableiten. Fine Trennung von Verkniipfungs- und Entscheidungsfiinktion fmdet bei nicht-kompensatorischen Modellen also nicht statt. Streng genommen beziehen sich die nicht-kompensatorischen Verkniipfungsregeln damit nicht direkt auf Praferenzen, sondem auf einen Bereich, der bspw. gemafi dem Modell von van Raaif^^ aufgrund eines geringen Involvements oder aber auch aufgrund anderer Faktoren wie Zeitdruck Oder einer hohen Komplexitat der Beurteilungsaufgabe zu einer Vereinfachung der Entscheidungsregeln fiihrt. In der Literatur werden im Wesentlichen konjunktive, disjunktive und lexikographische Modelle sowie Dominanzmodelle unterschieden.'^^ Dominanzmodelle basieren auf der Annahme, dass ein Konsument ein Produkt praferiert, wenn dessen wahrgenommene Eigenschaftsauspragungen mindestens genauso hohe Teilnutzenwerte aufweisen wie die anderen Altemativen und mindestens ein Attribut existiert, bei dem das Produkt tiberlegen ist. Dominanz ist ein sehr restriktives Kriterium, bei dem die anderen vorgestellten Regeln ebenfalls erfullt werden. Bei den lexikographischen Modellen wird der Alternative mit dem hochsten Teilnutzenwert bei dem wichtigsten Merkmal der hochste Praferenzwert zugewiesen. Im
Vgl. Thomas, L (1979), S. 137ff. Vgl. Bettman, J.RJLuce, M.FJPayne, J. W. (1998), S. 4; Aust, E. (1996), S. 25. Vgl. Bocker, F. (1986), S. 559; Hiittner, M./Schwarting, U. (2002), S. 340. Das Equal-Weight-ModeW wird nicht explizit als kompensatorisches Praferenzmodell aufgefiihrt, da es den Spezialfall des linear-additiven Modells darstellt, bei dem Moglichkeiten zur unterschiedlichen Gewichtung von Produkteigenschaften ignoriert werden, vgl. Bettman, J.RJLuce, M.F./Payne, J. W. (1998), S. 190. Die BTL-Regel ist nach ihren Entwicklern Bradley, Terry und Luce benannt. Vgl. Huber, J./Moore, W.L (1979), S. 64ff; Green, P.E./Krieger, A.M. (1988), S. 114ff., Elrod, T/Kumar, S.K. (1989), S. 259ff. oder Abschnitt 3.1.2.3.1. Vgl. Abschnitt 2.2.3. Vgl. im Folgenden insbesondere Bettman, J.R./Luce, M.F./Payne, J.W. (1998), S. 4ff.; Green, P.E./Wind, Y.J. (1975), S. 39ff.; Aschenbrenner, K.M. (1977), S. 26ff.; Fischer, J (2001), S. 69ff.
31
Falle identisch bewerteter Eigenschaftsauspragungen werden solange sukzessive die nachst wichtigeren Produkteigenschaften zur Bewertung herangezogen, bis eine eindeutige Losung zu erzielen ist. Im Rahmen disjunktiver Modelle definieren die Konsumenten Mindestauspragungsniveaus fur bestimmte Eigenschaften, wobei die anderen Eigenschaften keine Relevanz fur den Praferenzbildungsprozess aufweisen.^^ Den konjunktiven Praferenzmodellen folgend legen die Konsumenten ebenfalls Mindestanspruchsniveaus fest, hier allerdings fiir jede Produkteigenschaft. Wird bei konjunktiven und disjunktiven Modellen*^^ eine der definierten Mindestauspragungen nicht erfullt, scheidet das jeweilige Produkt aus dem weiteren Bewertungs- und Auswahlprozess aus. Erfiillen mehrere Produktaltemativen die Mindestniveaus bzgl. der relevanten Eigenschaften, wird eine eindeutige Praferenz ausschlieBlich tiber die Erhohung des Anspruchsniveaus an die Produkteigenschaften erreicht. Es werden also auch bei disjunktiven Modellen keine zusatzlichen Produkteigenschaften betrachtet.^^^ Elemination-by-Aspect-Mode\\e stellen eine Kombination aus lexikographischen und konjunktiven Modellen dar. Sie eliminieren zuerst die Produktaltemativen, die bei der wichtigsten Alternative ein bestimmtes Anspruchsniveau nicht erfiillen. Sukzessive werden solange fur die nachst wichtigen Produkteigenschaften Anspruchsniveaus defmiert und Eliminierungen vorgenommen, bis nur noch eine Alternative ubrig bleibt.^^^ Es wird deutlich, dass sich der Praferenzbildungsprozess auf unterschiedliche Art und Weise vollziehen kann und dementsprechend unterschiedliche Modellierungsansatze zur Verfiigung stehen. 2.4.2 Datengrundlage Praferenzmessungen basieren i.d.R. auf empirischen Daten, die zum einen aus Beobachtungen von tatsachlichen Kaufen {revealedpreferences)^^^ und zum anderen auf Grundlage von Befragungen {stated preferences) gewonnen werden konnen. Beobachtungen und Befragungen stellen nach Hammann/Erichson die grundlegenden Erhebungstechniken bzw. -methoden der Datenerhebung dar. Unter einem Erhebungsverfahren wird dagegen das konkrete Instrument verstanden, das zur Beobachtung bzw. Befragung verwendet wird.^^^ Werden bei der Beobachtung des realen Kaufverhaltens die unabhangigen Variablen gemafi der Problemstellung definiert und systematisch variiert, wird also aktiv in den KaufentscheidungsprozeB eingegrif-
Gerade in diesem Falle ist der Ausdruck Praferenz streng genommen falsch, da es sich um keinen alternativenbezogenen Vergleich handelt, vgl. Albrecht, J. (2000), S. 16. Im Englischen werden konjunktive und disjunktive Modelle auch als Satis/icing bezeichnet, vgl. Simon, H.A. (1955), S. 99ff Alternativ werden in der Literatur auch Vorgehensweisen beschrieben, bei denen die erste Alternative gewahlt wird, die das gestellte Anspruchsniveau erfullt, vgl. Bettman, J.RJLuce, M.F./Payne, J.W. (1998), S. 190. Hier ist wiederum der Praferenzbegriff problematisch, da nur in Ausnahmefallen alle Alternativen miteinander verglichen werden. Vgl. Tversky, A. (1972), S. 28Iff. Die Revealed Preference Theory (Theorie der offenbarten Praferenzen) postuliert, Aussagen iiber Praferenzen nur aus realen Kaufentscheidungen abzuleiten, vgl. Samuelson, P.A. (1938), S. 6Iff. Vgl. Hammann, P./Erichson, B. (2000), S. 9Iff
32
fen, um die Auswirkungen auf die abhangigen Variablen zu messen, liegt trotz der Verwendung von realen Kaufentscheidungen eine experimentelle Versuchsanordnung vor. Denkbar ist aber auch, auf vergangenheitsbezogene reale Verkaufszahlen zuriickzugreifen und natiirliche Variationen der unabhangigen Variablen zu verwenden.'^^ In diesem Fall hat die Datenerhebung keinen experimentellen Charakter. Bei Befragungen handelt es sich dagegen stets um eine experimentelle Datenerhebung. Zumeist werden Praferenzdaten durch Befragungen oder Experimente auf Grundlage von hypothetischen Kaufentscheidungen gewonnen, da die experimentelle Erhebung realer Kaufentscheidungen sehr kostenintensiv und wenig flexibel ist. AuBerdem konnen mit Hilfe einer vergangenheitsbezogenen Datenbasis keine Praferenzen fiir noch nicht am Markt befmdliche Produkte gemessen werden. ^^^ 2.4.3 Kompositionelle vs. dekompositionelle Verfahren zur Prdferenzmessung In der Literatur wird bei Messverfahren, die im Rahmen der Nutzenmessung Einsatz fmden, haufig zwischen kompositionellen und dekompositionellen Verfahren unterschieden.^^^ Wahrend bei kompositionellen Verfahren direkt einzelne Nutzendimensionen in Form von Produktmerkmalen bzw. ihren Auspragungen beurteilt sowie gewichtet und daraus Riickschliisse auf die Vorziehenswiirdigkeit verschiedener Stimuli (Praferenz) sowie eine evtl. Kaufentscheidung gezogen werden, geht die Nutzenmessung bei dekompositionellen Verfahren den umgekehrten Weg. Ausgehend von Kaufentscheidungen oder Praferenzurteilen werden Aussagen iiber die einzelnen Nutzendimensionen abgeleitet. Abbildung 11 ordnet die am weitesten verbreiteten Verfahren den beiden Gruppen zu: Kompositionelle Verfahren
Dekompositionelle Verfahren
Direkte PrSferenzbefragung Analytic Hierarchy Process^^"'
Conjoint-Analyse Contingent Valuation Informationsintegration M ultidimensionale Skalierung
Abbildung 11: Einordnung von Verfahren der Nutzenmessung'^"^
Diese Vorgehensweise wird relativ haufig bei der so genannten Discrete-Choice-Analyse verwendet, vgl. Abschnitt 3.3.1.1. Vgl. Verhoef, P.C./Franses, P.H. (2002), S. 2; Wertenbroch, K./Skiera, B. (2002), S. 229; Ben-Akiva, M. (1994), S. 337 und fur eine kritische Gegeniiberstellung der beiden Ansatze Axhausen, K.W. (1996), S. 5ff. In letzter Zeit werden zudem vermehrt Ansatze entwickelt, die den stated- und den revealed preferenceAnsatz kombinieren, indem zum einen hypothetische Praferenzen erhoben werden und ein moglicher systematischer Fehler des hypothetischen Praferenzkonstruktes durch eine Kalibrierung mit offenbarten Praferenzdaten beseitigt wird, vgl. Verhoef, P.C./Franses, P.H. (2003), S. 467ff.; Verhoef, P.C./Franses, P.H. (2002), S. Iff.; Ben-Akiva, M. (1994), S. 335ff.; Herriges, J.A./Kling, C.L/Azevedo, C. (1999), S. Iff.; Johannesson, M.et al (1999), S. 21ff.; Natter, M./Feurstein, M. (2001b), S. Iff; Louviere, J.J. (2001a), S. 125ff; Louviere, J.J (2001b), S. 247ff; Hensher, D.A./Louviere, JJ/Swait, J (1999), S. 197ff; Vgl. z.B. Trommsdorjf, V./Bleicker, U./Hildebrandt, L. (1980), S. 273f Vgl. bspw. Tscheulin, D.K. (1991), S. 1268f
33
2.4.3.1 Kompositionelle Verfahren Bei kompositionellen Verfahren {self-extracted-method) wird der Nutzen der Beurteilungsobjekte mit Hilfe einer geeigneten Integrationsfunktion aus den Beurteilungen der Nutzendimensionen ermittelt (komponiert).^^^ Den Auskunftspersonen werden vorher defmierte Nutzendimensionen separat zur Beurteilung vorgelegt.^^^ Die anhand von Plausibilitatsiiberlegungen festgelegte Integrationsfunktion berechnet aus den einzelnen Nutzendimensionen den Nutzen ganzer Objekte. Kompositionelle Verfahren waren iiber lange Zeit innerhalb der Nutzenmessung vorherrschend, was mit ihrer geringen Verfahrenskomplexitat und einfachen Handhabung zu erklaren ist.^^'' Allerdings werden kompositionelle Verfahren in der Literatur kritisch gesehen.^^^ Bspw. bemangelt Voeth vor allem:^^^ •
die geringe Realitatsnahe, da Individuen in der Realitat Nutzendimensionen nicht isoliert, sondem ganzheitlich beurteilen/^^
•
die geringe Validitat darauf aufbauender Entscheidungsprognosen, wie empirische Uberpriifungen belegen,^^^
•
die Uberbewertung unwichtiger Nutzendimensionen, die sich als Folge der monadischen Erhebungsweise ergibt/^^
•
die obligatorische Annahme der Beurteilungsunabhangigkeit der Nutzendimensionen^^^ und
•
die Gefahr einer kognitiven Uberforderung, da die Auskunftspersonen Teildimensionen beurteilen, die sie in der Realitat gegebenenfalls nicht isoliert wahmehmen.^^'*
Die zentralen in der Literatur vertretenen Kritikpunkte zu den kompositionellen Verfahren konnen durch das zugrunde gelegte Nutzenverstandnis erklart werden. In Abschnitt 2.2.2 wird
•^^ Quelle: in Anlehnung an Teichert, T. (2001a), S. 40. •^^ Vgl. Voeth, M. (2000), S. 27. '^^ Vgl. Mengen, A./Simon, H. (1996), S. 229. '^^ Vgl.Sc/7we//t/,//. (1985),S. 33. '^^ Vgl. Huber, J.et al (1993), S. 105ff.; Green, P.E./Goldberg, S.M./Wiley, J.B. (1983), S. 147ff.; Akaah, I.P./Korgaonkar, P.K. (1983), S. 187ff.; Green, P.E./Krieger, A.M. (2002). '^^ Vgl. Voeth, M. (2000), S. 28. ^^ Vgl.auch Buchtele, F./Holzmiiller, H.H. (1990), S. 88; Simon, //., HighTech und Kundennutzen, 1993, S. 545; Simon, H. (1994), S. 75; Bauer, H.H./Herrmann, A./Mengen, A. (1995), S. 340; Jiingst, K./Mengen, A. (1995), S. 92f; Wachter; Gerke, W./Pfeufer-Kinnel, G. (1996), S. 60; Sheluga, D.A./Jaccard, J./Jacoby, J. (1979), S. 166ff.; Srinivasan, Vet al. (1981), S. 159f.; Louviere, J.J. (1988), S. 93. '^' Vgl. bspw. Hausruckinger, G./Herker, A. (1992), S. 99; Eversheim, W./Schmidt, R./Sartez, B. (1994), S. 67f.; Mengen, A./Simon, H. (1996), S. 229. '^^ Vgl. z.B. Dichtl, E./Muller, S (1986), 233; Buchtele, F./Holzmiiller, H.H. (1990), S. 88; Tscheulin, D.K. (1991), S. 1269; Eisele, J./Kreusel, J (1997), S. 57; Zacharias, R. (1998), S. 103. '^^ Vgl. Mazanec, J.A. (1976), S. 5; Muhlbacher, H (1982), S. 11. ^^ Vgl. auch Mazanec, J.A. (1976), S. 5; Eversheim, W./Schmidt, R./Sartez, B. (1994), S. 67.
34
der Nutzen bzw. die Praferenz als hypothetisches Konstrukt verstanden, das zum einen - entsprechend den Uberlegungen von Lancaster - auf objektspezifische Eigenschaften zuriickzufiihren ist, bei dem Individuen zum anderen - gemaB der Theorie bekundeter Praferenzen den Nutzen allein durch ihr Wahlverhalten ganzheitlich als Praferenz zum Ausdruck bringen konnen. Wird dieses Nutzenverstandnis akzeptiert, dann ist der Ansatz kompositioneller Verfahren bereits aufgrund seiner Grundidee zu hinterfragen.^^^ Die Problematik wird aufgrund der Tatsache deutlich, dass kompositionelle Ansatze auf eine separate Beurteilung von isolierten Eigenschaften ausgerichtet sind, obwohl das dargelegte Praferenz- oder Nutzenverstandnis eine ganzheitliche Beurteilung voraussetzt. Ebenso lasst sich ein GroBteil der Kritik an den kompositionellen Ansatzen wie bspw. geringe Realitat, geringe Validitat oder die Gefahr einer kognitiven tJberforderung, darauf zuruckfiihren, dass diese Ansatze auf einem Nutzenverstandnis beruhen, das bei realem Kaufverhalten nicht in dieser Form anzutreffen ist.^^^ 2.4.3.2 Grundansatz dekompositioneller Verfahren Die Nutzenmessung vollzieht sich bei dekompositionellen Verfahren im Vergleich zu kompositionellen Verfahren genau umgekehrt. Anstatt aus empirisch erhobenen Bewertungen der einzelnen Nutzendimensionen den gesamten Nutzen des Objektes zu berechnen, werden bei dieser Gruppe von Verfahren Beurteilungsobjekte ganzheitlich - im Vergleich zu anderen Altemativen - beurteilt. Auf Grundlage geeigneter Annahmen iiber den Zusammenhang zwischen den Eigenschaften eines Objektes und der Beurteilung des Gesamtobjektes werden die Nutzenbeitrage der einzelnen Dimensionen ermittelt. Dekompositionelle Verfahren zerlegen (dekomponieren) dementsprechend die Globalbewertung in dimensionsspezifische Einzelbewertungen.^^^ Im Vergleich zu kompositionellen Verfahren werden dekompositionelle in der Literatur als leistungsfahiger eingestuft.^^^ Sie gehen zwar wie kompositionelle Verfahren davon aus, dass es die Objekteigenschaften sind, die den Nutzen von Objekten generieren, beriicksichtigen dariiber hinaus jedoch, dass Individuen ihre Nutzenvorstellungen durch eine ganzheitliche Praferenzbeurteilung auBem, indem ganzheitliche Beurteilungen im Objektvergleich erhoben werden. Dadurch kann den Verfahren erstens eine wesentlich groBere Realitatsnahe zugeschrieben werden, ^^^ zweitens werden hierbei auch die anderen Probleme kompositioneller Verfahren beseitigt. In der Literatur werden Conjoint-Analyse und Multidimensionale Skalierung als die beiden bedeutendsten Verfahren dekompositioneller Nutzenmessung bezeichnet.^^^ Die Verfahren Vgl. Voeth, M. (2000), S. 29. Vgl. Voeth, M. (2000), S. 29. Vgl. ScharfA.
(1991), S. 173; Weisenfeld, U. (1989), 26.
Vgl. bspw. Gutsche, J. (1995), S. 77 oder Hahn, C. (1997), S. 85. Vgl. Buchtele, F./Holzmiiller, H.H. (1990), S. 88; Gerke, W./Pfeufer-Kinnel, G. (1996), S. 61; Mengen, A./Simon, H. (1996), S. 230. Vgl. Trommsdorff, V./Bleicker, U./Hildebrandt, L (1980), S. 275; Schweikl, H. (1985), S. 35ff.; Gutsche, J. (1995), S. 77.
35
lassen sich nach der Bekanntheit der Nutzenfunktionen unterscheiden. Die Conjoint-Analyse bedarf einer Festlegung der Nutzendimensionen im Vorfeld der Untersuchung, um dann den Nutzenbeitrag dieser Dimensionen aus den ganzheitlichen Beurteilungen der Objekte durch die Auskunftspersonen ableiten zu konnen. Im Gegensatz dazu ist das Ziel der Multidimensionalen Skalierung die Ermittlung eben dieser Nutzendimensionen. Innerhalb des Verfahrens werden die zuvor unbekannten Nutzendimensionen so gebildet, dass die im Vergleich erhobenen Objektbeurteilungen moglichst gut reproduziert werden konnen. ^^^ Aus praxeologischer Sicht ist als Hauptproblemfeld der Multidimensionalen Skalierung zu nennen, dass die ermittelten Nutzendimensionen haufig Interpretationsprobleme aufwerfen. So verwundert es nicht, dass unter den dekompositionellen Verfahren zur Nutzenmessung sich insbesondere die Conjoint-Analyse durchsetzen konnte.^^^ 2.5
Schlussfolgerungen fur die weitere Untersuchung
Das theoretische Konstrukt Praferenz, das der Conjoint-Analyse und ihren Verfahrensvarianten zugrunde liegt, stellt unter bestimmten Voraussetzungen eine geeignete Basis dar, um Kaufentscheidungen zu prognostizieren. Allerdings sind die Pramissen hierfiir sehr restriktiv, da zum einen das Messverfahren der wahren Kaufentscheidungssituation moglichst ahnlich sein sollte und zum anderen die die Kaufentscheidung beeinflussenden Rahmenbedingungen zwischen Praferenzmessung und tatsachlichem Kauf moglichst konstant bleiben soUten. Dabei ist zwischen personenspezifischen, sozialen und aufgabenspezifischen Faktoren zu unterscheiden. Es gibt grundsatzlich verschiedene Moglichkeiten, Praferenzen zu modellieren. Unabhangig davon, ob die Messung mit Hilfe eines kompositionellen oder dekompositionellen Verfahrens erfolgt, wird fiir die Modellierung im Rahmen der meisten Verfahren eine kompensatorische Verkntipfung der Praferenzwerte fiir einzelne Eigenschaften angenonmien. Greifen Konsumenten jedoch in der Realitat auf eine andere Verkniipfungsfunktion zuruck, bilden conjoint-analytische Verfahren die Realitat nicht korrekt ab und nehmen u.U. Fehler in Kauf. Die Eignung des Einsatzes der Conjoint-Analyse hangt demnach von den konkreten Rahmenbedingungen ab und diirfte bei Kaufentscheidungssituationen mit ausgepragter kognitiver Komponente am groBten sein. Allerdings bestehen auch innerhalb der Gruppe der limitierten bzw. extensiven Kaufentscheidungen aufgrund der hohen Bedeutung situativer Einfliisse z.T. erhebliche Differenzen, die sich in unterschiedlicher Eignung des Praferenzkonstruktes zur Prognose von Kaufentscheidungen auBem und bei der weiteren Untersuchung Beriicksichtigung fmden sollen. Aufgrund ihrer methodischen Mangel werden im weiteren Verlauf der Arbeit kompositionelle Verfahren zur Praferenzmessung nicht weiter beriicksichtigt, stattdessen mit den conjoint-analytischen Verfahrensvarianten ein dekompositionelles Verfahren genauer untersucht.
^^' Vgl. bspw. Backhaus, K.et al (2003), S. 605ff.; Carroll, J.D. (1972), S. 105ff. '^^ Vgl.Perrev, J. (1998),S.64.
36
3 Einsatz von Verfahrensvarianten der Conjoint-Analyse zur Prognose von Kaufentscheidungen 3.1
Traditionelle Conjoint-Analyse (TCA) als Ausgangspunkt von conjointanalytischen Verfahrensvariationen
Die TCA ist seit ihrer Entwicklung im Jahre 1964^^^ fundamental weiterentwickelt worden. Fiir ein grundlegendes conjoint-analytisches Verstandnis ist sie dennoch als Ausgangspunkt besonders geeignet. Nicht zuletzt basieren einige Weiterentwicklungen direkt auf ihrer Methodik und haben sie nahezu unverandert als Ausgangsbasis ubemommen. Die folgende Darstellung der TCA soil fur Gestaltungsfreiraume sensibilisieren, die einen mafigeblichen Einfluss auf die Ergebnisse haben konnen.^^"^ Ein Vergleich von verschiedenen Verfahrensvarianten ist nur dann nachvollziehbar, wenn es gelingt, Einblick in die verschiedenen Handlungsparameter zu gewahren und die gefallten Ausgestaltungsaltemativen transparent darzustellen. Einzelne Gestaltungsmerkmale sind analog bei neueren conjoint-analytischen Verfahrensvarianten wieder zu finden. Die Notwendigkeit einer eingehenden Untersuchung der verschiedenen Gestaltungsoptionen erscheint vor dem Hintergrund von Studien, die einen nicht unerheblichen Einfluss auf die Validitat der Conjoint-Untersuchungen schlieBen lassen, besonders geboten. Basierend auf den Ergebnissen von Verfahrensvergleichen vermuten Green/Krieger/Agarwal gar, dass der Versuchsaufbau conjoint-analytischer Praferenzmessungen, u.a. die Konstruktion und Prasentation der Stimuli, Zusammensetzung der Stichprobe und Einweisung der Probanden, nicht nur einen fundamentalen Einfluss auf die Giite der Conjoint-Ergebnisse habe, sondem dieser Einfluss in einigen Untersuchungen selbst denjenigen durch die Wahl des Erhebungsdesigns ubertreffen dtirfte.^^^ 3.1.1 Grundlagen der Traditionellen Conjoint-Analyse (TCA) Ausgangspunkt der Conjoint-Analyse ist die Pramisse, dass Praferenzen durch die Bewertung einer Vielzahl von Eigenschaften und ihrer Auspragungen der jeweils zugrunde liegenden Altemativen zustande kommen. Es liegt also die Annahme zugrunde, dass eine Alternative als ein Biindel von Eigenschaften interpretiert wird und die Eigenschaften wiederum verschiedene Auspragungen haben. ^^^ Der conjoint-analytischen Praferenztheorie liegt damit ein multiattributives Bewertungsmodell zugrunde. *^^ In derartig defmierten Situationen treffen Kaufer eine Abwagungsentscheidung, bei der sie zumindest latent die Auspragungen der Eigenschaften bewerten miissen. Diese Beziehungen bestehen in realen Kaufentscheidungssituationen fiir zahlreiche Merkmale und Produkte. Im Rahmen der Conjoint-Analyse wird nun der Bei-
'^^ Vgl. Luce, R.D./Tukey, J. W. (1964) \g\.Perrey,
J. {\996\S.
66.
Vgl. Green, P.K/Krieger, A.M./Agarwal, M.K. (1993), S. 378. Vgl. Heemam, L (2001), S. 200. Vgl. Kroeber-Riel, W./Weinberg, P. (2003), S. 317.
37
trag der einzelnen Eigenschaften des jeweiligen Untersuchungsobjektes zum Gesamtpraferenzurteil einer Person gegeniiber einer bestimmten Alternative quantifiziert.^^^ Gegenstand der Conjoint-Analyse ist die Messung der Praferenzen - zumeist in Nutzeneinheiten - von Auskunftspersonen auf Individualebene. Der Nutzenbeitrag einer einzelnen Merkmalsauspragung wird als Teilnutzenwert bezeichnet. Die Conjoint-Analyse kann definiert werden als ein dekompositionelles Verfahren, das aus ganzheitlichen Praferenzurteilen bzgl. altemativer multiattributiver Objekte die Praferenzbeitrage bzw. Teilnutzenwerte der vorab definierten Eigenschaftsauspragungen unter Beachtung eines experimentellen Designs ennittelt/^^ Der kompensatorische Charakter der Conjoint-Analyse wird in der Regel mittels eines linearen Nutzenmodells dargestellt, bei dem sich der Gesamtnutzenwert des Beurteilungsobjektes additiv aus den Teilnutzenwerten der einzelnen Merkmalsauspragungen zusammensetzt.^^ Geringere Teilnutzenwerte ftir eine Eigenschaft konnen durch hohere Teilnutzenwerte fiir andere Eigenschaften kompensiert werden. Die TCA unterstellt als deterministisches Modell weiterhin, dass alle Probanden iiber eine vollstandige und unverzerrte Wahmehmung der technisch-physikalischen Eigenschaftsauspragungen der Beurteilungsobjekte verfugen.^^^ Aus diesem Grund mussen Wahmehmungsunterschiede weder explizit im Rahmen einer Wahmehmungs- bzw. Perzeptionsfunktion noch implizit iiber die Modellierung eines zufallsverteilten Storterms abgebildet werden.^^^ Der zentrale Vorteil der Conjoint-Analyse besteht darin, dass die Auskunftspersonen vor eine natiirliche Bewertungsaufgabe gestellt werden, indem die Probanden verschiedene Produkte bzw. Produktkonzepte ganzheitlich vergleichen und bewerten. 3.1.2 Gestaltungsfreiraume im Rahmen der Traditionellen Conjoint-Analyse Es existiert eine Reihe von Ansatzen, die TCA in einzelne Prozessschritte zu zerlegen. In der Regel orientieren sich die Ansatze an konkreten Ablaufschritten. Das an dieser Stelle gewahlte Vorgehen ist zwar ebenfalls grob prozessorientiert, betont aber durch den Fokus auf vom Anwender zu treffende Entscheidungen die verschiedenen Gestaltungsbereiche, die sich innerhalb der TCA eroffnen.
Vgl. Buschken, J. (1994b), S. 74. Vgl. Teichert, T. (2(X)la), S. 62; Thomas. L (1979), S. 200. Vgl. bspw. Madansky, A. (1980), S. S37. Vgl. Buschken, J. (1994a), S. 75. Vgl. Stallmeier, C. (1993), S. 90; Schweikl, H. (1985), S. 40
38
Gestaltungsbereiche
Gestaltungsmerkmale
1. Stichprobe
• VoUerhebung
• Teilerhebung - Stichprobenumfang
soziodemographische Merkmale (Zielgruppe) 2. Definition der Eigenschaften und ihrer Auspragungen
Anforderungen an die Eigenschaften und Auspragungen • Relevanz • kompensatorische Beziehung • Beeinflussbarkeit • keine Ausschlusskriterien • Realisierbarkeit • begrenzte Anzahl • Unabhangigkeit
3. Auswahl des Messmodells
Bewertungsfunktion • Vektormodell • Idealpunktmodell • Teilnutzenmodell Verkniipfungsfunktion: i.d.R. additive Verkniipfung
4. Erhebungsdesign
Stimulidefinition • VoUprofibnethode Stimulianzahl • voUstandiges Design
• Teilprofibnethode • reduziertes Design - Beriicksichtigung von Nebeneffekten
5. Prasentationsform der Stimuli
• verbal • multimedia!
6. Bewertungsskala
nichtmetrische Skalen • Ranking • ordinaler Paarvergleich metrische Skalen • Rating-Skala • Dollar-Metrik
7. Schatzverfahren
• visuell • real
• Kombination
• Konstant-Summen-skala • gewichteter Paarvergleich
nichtmetrische Algorithmen • z.B. Monova, LIM metrische Algorithmen • Z.B. OLS
8. Aggregation und Dateninterpretation
1
• Individualanalyse
• aggregierte Analyse
Marktsimulation
Abbildung 12: Ablaufschritt-orientierte Darstellung einzelner Gestaltungsbereiche der TCA Der erste Gestaltungsbereich betrifft nicht die Methodik der Conjoint-Analyse an sich, sondem bezieht sich auf die fiir jedes Marktforschungsverfahren relevante Problematik der Aus-
Quelle: In enger Anlehnung an Brzoska, L (2003), S. 76 und den dort angegebenen Quellen.
39
wahl der Stichprobe hinsichtlich Umfang und qualitativer Zusammensetzung. Als nachstes sind die zu beriicksichtigenden Eigenschaften und ihre Auspragungen zu wahlen. AuBerdem ist ein Messmodell als Grundlage fiir die Nutzenschatzungen der Conjoint-Analyse zu bestimmen, das wiederum in Praferenzmodell und Verkniipfungsfunktion unterteilt werden kann. Das Erhebungsdesign wird tiber die Definition der Stimuli und die Anzahl der zu bewertenden Stimuli bestimmt. Wird ein Stimulus iiber alle berucksichtigten Merkmale definiert, spricht man von der Profilmethode, wahrend eine partielle Verwendung von Eigenschaften als Teilprofilmethode bezeichnet wird.^^ Mit Hilfe von so genannten reduzierten bzw. fraktionalen Designs kann bei der Profilmethode die Anzahl der Stimuli, die den Befragten zur Bewertung vorgelegt werden, im Vergleich zum vollstandigen Design, also der Menge aller Kombinationen der verschiedenen Merkmalsauspragungen, erheblich reduziert werden.^^^ Zumindest wahrend der Anfange der Conjoint-Analyse wurden die Stimuli in erster Linie verbal auf Karten beschrieben. Der technologische Fortschritt erlaubt es heutzutage, multimediale Prasentationsformen einzusetzen, bei der Stimuli oder einzelne Eigenschaften durchaus visuell oder simulativ dargestellt werden konnen.^^ Bei der Bewertung der Stimuli durch die Befragten kann grundlegend zwischen einer Bewertung auf einer metrischen und auf einer nicht-metrischen Skala unterschieden werden. Diese sechs Gestaltungsbereiche konnen, wie in Abbildung 12 gekennzeichnet, der Datenerhebung zugeordnet werden. Dariiber hinaus bestehen noch Gestaltungsfreiraume im Bereich der Datenanalyse. Hier ist insbesondere auf die Wahl des Schatzverfahrens hinzuweisen, die in Abhangigkeit der zuvor spezifizierten Bewertungsskala erfolgt. In vielen Fallen ist eine individuelle Analyse der geschatzten Nutzenwerte wenig aussagekraftig, weshalb haufig die Einzelergebnisse der verschiedenen Auskunftspersonen aggregiert werden und darauf aufbauend eine aggregierte Analyse durchgefiihrt wird. Trotz gravierender methodischer Bedenken, die bei der Darstellung der LCA noch naher erortert werden,^^^ wird teilweise auch bei der TCA abschlieBend eine Marktsimulation durchgefiihrt. Die Darstellung der verschiedenen Gestaltungsbereiche verdeutlicht, dass die Ergebnisse von empirischen Conjoint-Analysen nicht direkt vergleichbar sind und von der Konkretisierung der zahlreichen beschriebenen Handlungsparameter abhangen.
^^ Vgl. Holbrook, M.B./Moore, W.L (1981), S. 20. ^^^ Vgl.y4<://o, F. (1977),S. 82. ^°^ Vgl. zur LCA Abschnitt 3.2.
40
3.1.2.1 Gestaltungsfreiraume bei der Datenerhebung 3.1.2.1.1 Stichprobe Im Zusammenhang mit dem Erhebungsumfang ist grundsatzlich zu entscheiden, ob alle der Zielgruppe angehorenden Auskunftspersonen befragt (Vollerhebung) oder nur ausgewahlte Probanden mit in die Erhebung einbezogen werden sollen (Teilerhebung).^^^ In Anbetracht, dass conjoint-analytische Erhebungen haufig eine zumindest geringe Verweigerungsquote aufweisen, und angesichts des grundsatzlich mit Vollerhebungen verbundenen okonomischen Aufwands, ist es nicht verwunderlich, dass in der Regel nur Teilerhebungen durchgefuhrt werden.^^ Ist die Stichprobe reprasentativ, kann das Ergebnis der gezogenen Stichprobe auf die Grundgesamtheit iibertragen werden.^^^ In diesem Zusammenhang ist darauf hinzuweisen, dass sich die Reprasentativitat auf die conjoint-analytisch auswertbaren Befragungen bezieht und nicht auf die kontaktierte Stichprobe. Da die Conjoint-Analyse je nach Ausgestaltungsform nicht zu unterschatzende kognitive Anspriiche an die Auskunftspersonen stellt, liegt die Annahme nahe, dass durch die Verweigerungsquote die Conjoint-Ergebnisse systematisch verzerrt werden konnten.^^^ Aus diesem Grund sollten in jedem Falle auch die Verweigerungen einer eingehenden Analyse unterzogen werden. Bei zahlreichen Studien im akademischen Bereich spielt der Versuchsgegenstand nur eine untergeordnete Rolle, er dient lediglich als Plattform fur das eigentliche methodenbezogene Versuchsziel. Ziel ist es in diesem Fall nicht, die Ergebnisse der Stichprobe auf die Grundgesamtheit zu iibertragen. Bei empirischen Vergleichen, insbesondere bei Verfahrensvergleichen, ist die Reprasentativitat der Stichprobe fur eine Grundgesamtheit keine Bedingung, vorausgesetzt, dass keine Interaktionen zwischen der Stichprobenzusammensetzung und einem bestimmten Verfahren vorliegen und eine Stichprobendefmition ein oder mehrere der verglichenen Verfahren einseitig begiinstigt.^^^
Eine weitere Bedingung fiir eine Vollerhebung ist, dass alle Auskunftspersonen derart antworten, dass ihre Angaben mit Hilfe der Conjoint-Analyse ausgewertet werden konnen. Vgl. Weisenfeld, U. (1989), S. 29. Vgl. Berekoven, L/Eckert, W./Ellenrieder, P. (2001), S. 50. Es liegen empirische Studien vor, die dafiir und dagegen sprechen, dass Sozio-Demographika, insbesondere Bildungsniveau und berufliche Orientierung, einen signifikanten Einfluss auf die Schatzergebnisse haben. Ebenso wie Verweigerungen oder Abbriiche wiirden Unterschiede bzgl. der Reprasentativitat die Ergebnisse systematisch verzerren. Vgl. zu den Studien, die auf einen Einfluss von Sozio-Demographika auf die Giite der Schatzergebnisse schlieBen lassen, Tscheulin, D.K./Blaimont, C. (1993), S. 839ff und Miiller, S./Kesselmann, P. (1994), S. 275, und zu solchen, die den Einfluss bezweifeln, Sattler, H./Hensel-Borner, S./Kruger, B. (2001), S. 77Iff. Dariiber hinaus zeigt Tscheulin, dass die Produktvertrautheit einen Einfluss auf die Giite von Conjoint-Ergebnissen haben kann, vgl. Tscheulin, D.K. (1996), S. 592ff Werden fiir unterschiedliche Vergleichsgegenstande verschiedene Auskunftspersonen befragt, also verschiedene Stichproben verwendet, mussen die Stichproben nicht reprasentativ, sondern lediglich strukturgleich sein, falls sozio-demographische Merkmale keinen EinfluB auf die Ergebnisse haben. Wird fiir die verschiedenen Vergleichsgegenstande dieselbe Stichprobe gewahlt, entfallt die Problematik einer strukturgleichen Zusammensetzung der Stichproben, allerdings ist dann zu priifen, inwiefern sich die zu vergleichenden Verfahren gegenseitig beeinflussen.
41
3.1.2.1.2 Definition der Eigenschaften und ihrer A uspragungen Die Qualitat der Daten hangt erheblich von der Definition der Merkmale und Merkmalsauspragungen des jeweils betrachteten Untersuchungsobjekts ab. Sie zahlt aus diesem Grund zu den wichtigsten Gestaltungsoptionen der Conjoint-Analyse.^'^ Die im Rahmen der ConjointAnalyse zu ennittelnden Teilnutzenwerte^*'* beziehen sich auf einzelne Merkmalsauspragungen, die im Rahmen der Untersuchung vorgegeben werden miissen. Dabei wird an die Festlegung der Merkmale der jeweils zu betrachtenden Untersuchungsobjekte eine Reihe einschrankender Anforderungen gestellt:^^^ •
Relevanz der Eigenschaften fiir die Bewertung der Stimuli,
•
Beeinflussbarkeit durch zumindest einen Anbieter,
•
Realisierbarkeit der Auspragungen,
•
Unabhangigkeit der Merkmale,
•
kompensatorische Beziehung zwischen den einzelnen Merkmalen,
•
Abwesenheit von Ausschlusskriterien und
•
Obergrenze bei der Anzahl der Stimuli.
Die in die Conjoint-Analyse aufzunehmenden Eigenschaften miissen fiir die Probanden bei der Praferenzbildung relevant sein. Die Relevanz der Merkmale auBert sich in ihrer Wichtigkeit im Bewertungsprozess und in ihrer diskriminatorischen Kraft zwischen den einzelnen zu bewertenden Altemativen.^'^ Im Rahmen der Conjoint-Analyse werden Zusammenhange zwischen den unabhangigen Variablen, d.h. den empirisch erhobenen Bewertungen der Stimuli, und den abhangigen Variablen, d.h. den Nutzenparametem, quantifiziert. Eine Beschrankung auf relevante Merkmale bedeutet in diesem Zusammenhang, dass vor der Quantifizierung der Zusanmienhange abgeschatzt werden muss, zwischen welchen GroBen die bedeutendsten Zusanamenhange bestehen. Dazu ist eine inhaltliche Auseinandersetzung mit dem Versuchsgegenstand notig. Gegebenenfalls sind Experten, die iiber entsprechende Kenntnisse verfugen, hinzuzuziehen und Pretests durchzufiihren. Besonders gravierend ist eine NichtVgl. Eggenberger, C./Hauser, C. (1996), S. 843. Im Folgenden wird synonym zu den allgemeineren Begriffen Wirkungskoeffizient und Nutzenparameter der speziellere Ausdruck Teilnutzemvert verwendet. Streng genommen kann sich der Begriff Teilnutzenwert allerdings nur auf Nutzenwerte beziehen, die ein Teilnutzenmodell als Praferenzmodell verwenden. Besonders irrefiihrend ist der Begriff Teilnutzenwert allerdings in Fallen, bei denen Interaktionen zwischen den Auspragungen einzelner Merkmale vorliegen. Hier sind neben Nutzenwerten fiir einzelne Merkmalsauspragungen zudem Nutzenwerte fiir die Interaktionen zu beriicksichtigen. Man spricht in diesem Zusammenhang von Haupteffekten und Nebeneffekten. Bei den Nebeneffekten unterscheidet man je nach Anzahl der interagierenden Merkmale verschiedene Ordnungen. Interaktionen n-ter Ordnung bedeuten, dass (n+1) Merkmale interagieren. Die TCA vernachlassigt in der Regel Interaktionen. Aus diesem Grund ist der Begriff Teilnutzenwert hier eher unproblematisch. Vgl. Backhaus, K.et al. (2003), S. 548f. Vgl. Thomas, L (1979), S. 199ff., Day, G.S. (1972), S. 279ff., Schweikl, H. (1985), S. 94ff.
42
Beriicksichtigung relevanter Merkmale. Gerade bei Auswahlentscheidungen fiihrt dies dazu, dass der Proband streng genommen nicht in der Lage ist, seine Kaufabsichtsentscheidung zu auBem. Werden dagegen nicht-relevante Merkmale berucksichtigt, ist dies prinzipiell den Ergebnissen zu entnehmen. Je nach Bewertungsskala und Reduzierung des Designs kann es jedoch zu einer Verzerrung der Ergebnisse kommen.^^^ Die Beeinflussbarkeit der Eigenschaften ist insbesondere vor dem Hintergrund der Verwendung der Ergebnisse durch das marktforschende Untemehmen zu sehen und hangt vom jeweiligen Untersuchungsziel ab. Soil die Conjoint-Analyse fur die rein praferenzbasierte Produktgestaltung, d.h. ohne explizite Beriicksichtigung der Wettbewerber, durchgefiihrt werden, muss sie von dem betrachteten Anbieter beeinflussbar sein. Soil dagegen der Wettbewerb im Rahmen der Untersuchung abgebildet werden, kann dieses Kriterium weiter gefasst werden. Es reicht aus, wenn einer der Wettbewerber eine Eigenschaft beeinflussen kann. Unmittelbar mit der Beeinflussbarkeit der Eigenschaften hangt die Realisierbarkeit der Auspragungen zusammen. Auch hier bestimmt das Untersuchungsziel, ob der betrachtete Anbieter Oder lediglich einer der Wettbewerber innerhalb des Prognosezeitraums voraussichtlich in der Lage sein muss, eine Merkmalsauspragung zu realisieren.^'^ Dabei stehen die Substitutionsbeziehungen zwischen verschiedenen Produkten im Vordergrund. Auch hier liegt wiederum das Phanomen vor, dass die Untersuchung einen besseren Einblick in mogliche Substitutionsbeziehungen gewahrt, vorher aber diesbeziiglich schon Annahmen getroffen werden miissen. Backhaus et al sprechen davon, dass die betrachteten Eigenschaften bzw. Eigenschaftsauspragungen kein Ausschlusskriterium bzw. K.O.-Kriterium darstellen diirfen.^^^ Ausschlusskriterium bedeutet, dass keine Substitutionsbeziehungen bzw. kein kompensatohsches Verhaltnis zwischen den Eigenschaftsauspragungen vorliegt. Weiterhin muss die Anzahl der Merkmale und Merkmalsauspragungen begrenzt sein. Zwar sind die meisten Losungsalgorithmen in der Lage, eine groBe Anzahl an Merkmalen und Auspragungen zu verarbeiten, allerdings steigt der Befragungsaufwand mit der Anzahl der Merkmale und Auspragungen exponentiell an. Im Zusammenhang mit der Anzahl der Merkmalsauspragungen sollte der Number-of-levels- oder Auspragungsstufeneffekt beachtet werden.^^^ Dieser Effekt besagt, dass die Bedeutung eines Merkmals hoher bewertet wird, wenn innerhalb eines vorgegebenen Variationsbereichs der Auspragungen dieses Merkmals weitere Auspragungsstufen aufgenommen werden. Aus diesem Grund ist bei der praktischen DurchVgl. Goldstein, W.M./Busemeyer. J.R. (1992), S. 425ff. Es stellt sich die Frage, wie weit der Begriff der Conjoint-Analyse gefasst werden soil. Ggfs. fallt ein bestimmtes Angebot mit einer bestimmten anderen Merkmalsauspragung automatisch in eine andere Produktkategorie. Ausschlaggebend fiir die Definition von Merkmalen und Merkmalsauspragungen sind allerdings nicht Produktkategorien. Vielmehr sollte der relevante Markt als Orientierungspunkt dienen. „Der relevante Markt umfasst alle fiir die Kauf- und Verkaufsentscheidungen bedeutsamen Austauschbeziehungen zwischen Produkten in sachlicher und raumlicher Hinsicht", Backhaus, K. (2003), S. 224. Vgl. Backhaus, K.et al (2003), S. 549. Vgl. Currim, IS. (1981), S. 301ff; Steenkamp, J.-B. (1994), S. 275ff Vgl. ahnlich zum Bandbreiteneffekt Sattler, H./Gedenk, K./Hensel-Bomer, S. (2002), S. 953, der nicht auf die Anzahl verschiedener Auspragungen, sondern auf die Bandbreite den extremen Auspragungen eines Merkmals abzielt.
43
fuhrung einer Conjoint-Analyse darauf zu achten, dass sich die verwendeten Merkmale hinsichtlich der Zahl ihrer Auspragungen nicht zu stark unterscheiden.^^* Ein letztes Kriterium stellt schlieBlich die Unabhdngigkeit der Merkmale dar.^^^ Unabhangigkeit bedeutet in diesem Zusammenhang, dass der Nutzen einer Merkmalsauspragung nicht durch die Auspragungen anderer Merkmale beeinflusst wird und sich damit pauschale Teilnutzenwerte fur die einzelnen Merkmale berechnen lassen.^^^ Allerdings ist es grundsatzlich moglich, durch entsprechende fraktionale Designs, die neben den Haupteffekten auch bestimmte Nebeneffekte berucksichtigen, Abhangigkeiten im Modell zu erfassen. Zumeist wird von dieser Moglichkeit jedoch kein Gebrauch gemacht, da im Vorfeld der Untersuchung Vermutungen uber konkrete Interaktionseffekte vorliegen mussen.^^"^ 3.1.2.1.3 A uswahl des Messmodells Praferenzen werden im Rahmen der Conjoint-Analyse mit Hilfe eines zweistufigen Modells modelliert. Das Beurteilungsmodell bildet die Beziehung zwischen den einzelnen Merkmalsauspragungen der Produktaltemativen und den abgefragten Praferenzen der Auskunftspersonen ab, wahrend die Verkntipfungsfunktion die merkmalsspezifischen Praferenzwerte fur das gesamte Objekt zu einem einheitlichen Wert zusammenfasst.^^^ Es wird angenonmien, dass die Probanden auf der Ebene einzelner Eigenschaftsauspragungen auf Praferenzfunktionen zuriickgreifen, die die Wertigkeit der einzelnen Merkmalsauspragungen abbilden. Hinsichtlich der Modellierung des Zusammenhangs zwischen Merkmalsauspragungen und Praferenz- bzw. Nutzenwerten stehen mit dem Vektor-, dem Idealpunkt- und dem Teilnutzenmodell prinzipiell drei verschiedene Ansatze zur Wahl.^^^ Hinsichtlich des zweiten Schritts hat bei der TCA die additive Verkntipfungsfunktion die groBte praktische Bedeutung erlangt. Dies ist mit ihrer einfachen mathematischen Handhabbarkeit und ihrer Robustheit auch fur den Fall, dass der tatsachliche Bewertungsprozess nicht additiv verlauft, zu begrunden.^^^ Das ftir die TCA typische Praferenzmodell als Kombination
Vgl. zum Number-of-levels-Effekt Currim, I.S./Weinberg, C.B./Wittink, D.R. (1981), S. 67ff.; Wittink, D.R./Knshnamurthi, L/Reibstein, D.J. (1989), S. 113ff.; Wittink D.R./McLauchlan, W.G./Seetharaman, P.B. (1997), S. 227ff.; Heemann, L. (2001), S. 206.; Verlegh, P.W.J./Schifferstein, H.N.J./Wittink, D.R. (2002), S. 41ff. Vgl. Backhaus, K.et al. (2003), S. 548. Vgl. Mengen, A./Tacke, G. (1995), S. 222. Vgl. Tscheulin, D.K. (1996), S. 589. Vgl. allgemein zur Modellierung von Praferenzen Abschnitt 2.4.1. Vgl. zu den einzelnen Praferenzmodellen Abschnitt 2.4.1. Sind bei der Konzeption der Studie keine begriindeten Annahmen iiber den moglichen Funktionsverlauf moglich, ist auf das Teilnutzenmodell zuriickzugreifen, das die beiden anderen Ansatze ebenfalls beinhaltet. Vgl. diesbezuglich eine Monte-Carlo Studie Hagerty, M.R. (1986), S. 298ff.; Wittink, D./Cattin, P. (1981), S. 101 ff. Die additive Verkniipfungsfunktion ist ein kompensatorisches Modell, d.h. es liegt die Annahme zugrunde, dass schlechte Werte bei einer Eigenschaft durch entsprechend gute bei einer anderen Eigenschaft ausgeglichen werden konnen und vice versa, vgl. ausfuhrlicher Abschnitt 2.4.1.
44
aus Teilnutzenmodell und additiver Verkniipfungsfunktion lasst sich formal wie folgt darstellen: J
Mj
y. = XXPj.x.jm
(1)
j=l m=l
mit: y^:
geschatzter Gesamtnutzenwert fiir Stimulus k,
Pj^:
Teilnutzenwert fur Auspragung m von Eigenschaft j ,
M:
Anzahl der Auspragungen von Eigenschaft j ,
"i
falls bei Stimulus k die Eigenschaft j in Auspragung m vorliegt, [ 0 , sonst
Die Variable Xjm stellt eine Dummy-Variable dar, die den Wert 1 genau dann annimmt, wenn die Merkmalsauspragung m der Eigenschaft j beim betrachteten Stimulus k voriiegt. Das additive Verkniipfungsmodell besagt, dass die Summe der Teilnutzenwerte den Gesamtnutzenwert fiir den jeweiligen Stimulus ergibt. Die Darstellung des Praferenzkonstruktes hat verdeutlicht, dass die reale Praferenzbildung nur bei Kaufentscheidungen mit ausgepragter kognitiver Komponente dem linear-additiven Modell folgt. 3.1.2.1.4 Erhebungsdesign Das Erhebungsdesign bestimmt, welche Stimuli der Auskunftsperson zur Beurteilung vorgelegt werden. Zum einen ist in diesem Zusammenhang zu untersuchen, wie viele Merkmale fiir einen Stimulus verwendet werden sollen: Hier kann zwischen der Profilmethode,^^^ bei der jeder Stimulus durch jeweils eine Auspragung aller Eigenschaften defmiert ist, und der Teilprofilmethode, bei der ein Stimulus anhand einer Teilmenge aller Merkmale beschrieben wird, unterschieden werden.^^^ Eine relativ haufig verwendete Teilprofil-Methode ist die Zwei-Faktor-Methode, bei der jeweils nur Kombinationen bestehend aus zwei Eigenschaften zur Auswahl stehen."^^^ In der praktischen Anwendung hat sich weitestgehend die Profilmethode durchgesetzt.^^^
Vgl. bspw. Theuerkauf, L (1989), S. 180. 229
Vgl. Backhaus, K.et al. (2003), S. 550f.
230
Die Zwei-Faktor-Methode wird auch als 7>ac/e-o^Methode bezeichnet. Vgl. zu Bezeichnung und Vorgehensweise bspw. Weiber, R./Rosendahl, T. (1997), S. 108; Huttner, M./Schwarting, U. (2002), S. 242. Vgl. Huber, J. (1997), S. Iff. Grundsatzlich sollten hinsichtlich der Definition der Stimuli folgende Aspekte beriicksichtigt werden: in der praktischen Anwendung stellt die Conjoint-Analyse hohe Anspruche an die Auskunftspersonen. Die Zwei-Faktor-Methode ist vor diesem Hintergrund mit einem bedeutend geringeren Anspruch an die Informationsverarbeitung verbunden. Sie stellt prinzipiell eine leichter zu bewaltigende Bewertungsaufgabe dar. Jedoch weist sie auf der anderen Seite gravierende Nachteile hinsichtlich des Realitatsbezugs auf. Teilweise ist sogar groBeres Abstraktionsvermogen verlangt, da die Auskunftspersonen den zu bewertenden Stimulus in seine Bestandteile zerlegen und einzelne Eigenschaftspaare isolieren miissen.
45
1st die grundlegende Form der Stimuli festgelegt, muss daruber hinaus ermittelt werden, wie viele und in welcher Zusammenstellung die Stimuli dem Probanden prasentiert werden sollen. Erfolgt die Bewertung der Stimuli durch Rangreihung, reduziert sich das Problem auf die Bestimmung der Anzahl zu verwendender Stimuli. Die Anzahl der Merkmale und der Merkmalsauspragungen determinieren die Anzahl der Stimuli im vollstandigen Design. Allerdings iibersteigt der Arbeitsaufwand schon bei relativ wenigen Merkmalen und Merkmalsauspragungen die Grenze der Zumutbarkeit. Durch den Einsatz so genannter reduzierter Designs besteht aber die Moglichkeit, die Zahl der zu bewertenden Stimuli erheblich zu verringem. Die in aller Kegel verwendeten linearen Praferenzmodelle basieren auf der Annahme, dass keine Interaktionen zwischen den Merkmalen bestehen, die Praferenzen also ausschlieBlich durch die Haupteffekte zwischen den Eigenschaften bestimmt werden. Orthogonale Haupteffekt-Designs stellen eine statistisch effiziente Auswahl der Stimuli des vollstandigen Designs dar, die erlauben, die Haupteffekte zwischen den Merkmalen zu bestimmen.^^^ Die verbreiteten Software-Losungen fiir die TCA beinhalten in der Regel Design-Generatoren, die Haupteffekt-Designs automatisiert erstellen. 3.1.2.1.5 Prdsentationsform Hinsichtlich der Prasentationsform der Stimuli stehen grundsatzlich verbale, visuale, modellhafte Oder reale Prasentationen, die zudem miteinander kombiniert werden konnen, zur Wahl. Mittlerweile ist es zudem moglich, auf multimediale Prasentationsformen zuriickzugreifen und ganze Stimuli bzw. einzelne Merkmale oder Biindel von Merkmalen simulativ darzustellen.^^^ Zwar ist eine moglichst realistische Stimuliprasentation wiinschenswert, haufig in der Praxis aber jedoch aufgrund hoher Kosten nicht umsetzbar.^^"^ Am haufigsten werden Stimuli deshalb inmier noch verbal auf Produktkarten oder am Computer prasentiert. Hier ist allerdings bei der Konstruktion der Stimuli der so genannte Positionseffekt zu beachten, der besagt, dass die Wichtigkeit eines Merkmals signifikant mit der Position bei der Prasentation korreliert.^^^ Merkmale, die bei verbaler Beschreibung der Altemativen an exponierter - insbesondere an erster, aber auch an zweiter oder letzter - Stelle auf den Produktkarten stehen,
Gerade in Kaufentscheidungssituationen, die sich durch eine geringe kognitive Beteiligung auszeichnen, entspricht dieses Vorgehen nicht der Realitat und ist als problematisch zu werten. Daruber hinaus erlaubt die Profilmethode anschaulichere Prasentationsformen, wie zum Beispiel multimediagestiitzte oder reale Stimuli. Die Profilmethode ermoglicht also sowohl ein realitatsnaheres Design als auch eine anschaulichere Prasentationsform, weshalb in der praktischen Anwendung haufig diese Methode verwendet wird, vgl. Green, P.E./Srinivasan, V. (1990), S. 3ff. ^^^ Vgl. zu den theoretischen Grundlagen und Konstruktionsmechanismen verschiedener Designs Addelman, S. (1962a), S. 23f; Addelman, S. (1962b), S. 47ff. Werden allerdings signifikante Interaktionseffekte zwischen einzelnen Merkmalen vermutet, sind so genannte Kompromiss-Designs zu verwenden, die die Schatzung von ausgewahlten Interaktionen erlauben, allerdings zu einer geringeren Reduktion der Anzahl der Stimuli fuhren, vgl. Green, P.E./Carroll, J.D./Carmone, F.J. (1978), S. 99ff. ^^^ Vgl. Vriens, M.et al. (1998), S. 455ff; Louviere, J.J.et al. (1987), S. 79ff.; Domzal, T.J./Unger, L.S. (1985), S. 268ff.; Holbrook, M.B./Moore, W.L. (1981), S. 103ff.; Anderson, J.C. (1987), S. 29ff.; Stadie, E. (1998), S. 46ff.; Acito, F. (1977), S. 82ff. ^^^ Vgl. Sattler, H. (1994), S. 31ff. ^^^ Vgl. Gierl, H./Hoser, H. (2002), S. 3ff.
46
werden von den Probanden als wichtiger wahrgenommen, verzerren somit die Ergebnisse und lassen insbesondere die Aussagekraft von abgeleiteten relativen Wichtigkeiten fragwiirdig erscheinen.^^^ Der Positionseffekt kann allerdings durch eine Variation der Reihenfolge der Auspragungen vemiieden werden.^^^ 3.1.2.1.6 Bewertungsskala Fiir die Bewertung der Altemativen durch die Auskunflspersonen stehen grundsatzlich verschiedene Methoden zur Auswahl. Am weitesten verbreitet im Rahmen der TCA sind Ranking- und Rating-Verfahren. Beim Ranking- bzw. Rangreihungsverfahren ordnen die Auskunftspersonen die ihnen prasentierten Stimuli entsprechend ihrer subjektiven Vorziehenswiirdigkeit, wobei das Spektrum der Reihenfolge der vorgelegten Angebote vom am meisten bis hin zum am wenigsten praferierten Stimulus reicht.^^^ Beim Rating-Verfahren bzw. Punktbewertungsverfahren ordnet die Auskunftsperson den gerangreihten Stimuli noch Punktbewertungen zu. Auf diese Art und Weise konnen Unterschiede bzgl. des Abstandes zwischen benachbarten Stimuli ausgedruckt werden. Eine weitere Skala, die bei ConjointAnalysen eingesetzt werden kann, ist die Konstant-Sunmien-Skala, bei der die Befragten eine bestimmte Anzahl von Punkten - haufig 100 - auf die vorgelegten Stimuli verteilen mussen.^^^ Je mehr Punkte ein Stimulus erhalt, desto besser wird er beurteilt. Ranking-Verfahren liefem ordinal-skalierte Daten, wahrend Rating-Verfahren und Konstant-Summen-Skala intervall-skalierte Daten erheben.^^^ erheben.^ In Abhangigkeit des Skalierungsniveaus der Daten ist der Losungsalgorithmus zu wahlen. 3.1.2.2 Datenanalyse 3.1.2.2.1 Schdtzverfahren Aus den empirisch erhobenen Praferenzurteilen werden im ersten Schritt der Datenanalyse die Teilnutzenwerte fur die verschiedenen Merkmalsauspragungen bzw. allgemeiner die Wirkungskoeffizienten oder Funktionsparameter geschatzt. In Abhangigkeit des Skalenniveaus der erhobenen Praferenzdaten konnen verschiedene Algorithmen zur Parameterschatzung gewahlt werden (vgl. Abbildung 13). Die TCA verwendet im Falle metrisch-skalierter unabhangiger Daten zumeist metrische multiple Dunmiy-Regressionen in Verbindung mit dem OLS-Verfahren oder die metrische Varianzanalyse (ANOVA) als Schatzverfahren. Bei ordinal-skalierten Daten sind dagegen MO-
Vgl. Chapman, R.G./Bolton, R.N. (1985), S. 373ff.; Hahn, C. (1997), S. 77f.; Huber, Jet al (1992), S. Iff. Vgl. zum Positionseffekt Perre;/, J. (1996), S. 105ff. Vgl. Sabel, H. (1977), S. 912. Die Bildung der inneren Ordnung kann mit oder ohne Wahlzwang erfolgen. Besteht kein Wahlzwang, hat die Auskunftsperson die Moglichkeit, mehrere Alternativen an die gleiche Stelle zu platzieren. Vgl. zur Verwendung von 100-Punkte-Skalen im Rahmen der Conjoint-Analyse Green, P.E./Srinivasan, V. (1990), S. 14. Vgl.F/5c/?er, J. (2001),S. 89.
47
NANOVA und LINMAP am weitesten verbreitet.^"^' Die Monotone Varianzanalyse (MONANOVA) schatzt die Modellparameter bei Zugrundelegung des Teilnutzenmodells.^"^^ Sie passt die Schatzwerte der Nutzenfunktion hierzu iterativ an die Rangordnung der Auskunftspersonen an. Dabei werden eine konsistente Praferenzrangreihung und die Abwesenheit von Fehlem bei der Einschatzung der Praferenzen unterstellt."^"^^ Ein weiteres Verfahren zur Analyse von Rangdaten ist das auf einem linearen Programmierungsansatz basierende LINMAP.^"^ Zu den Vorziigen von LE^fMAP zahlt, dass der Ansatz sicherstellt, dass ein globales Optimum erreicht wird, und dass das Verfahren nicht auf Teilnutzenmodelle beschrankt ist. Algorithmus
Verfahren
nicht-metrisch
MONANOVA
Monotone Analysis of Variance
LINMAP
Linear Programming Technique for Multidimen- 1 sional Analysis of Preference
PREFMAP
Preference Mapping
1
JOHNSON
Johnson' s Trade-off Procedure
1
OLS
Ordinary Leas Squares
1
MSAE
Minimizing Sum of Absolute Errors
1
ANOVA
Analysis of Variance
1
MLA
Maximum-Likelihood-Ansatz mit Logit- oder Probit Modell
1
1 metrisch
weitere statistische Ansatze
1
Abbildung 13: Schatzverfahren und Losungsalgorithmen zum Einsatz bei der ConjointAnalyse^"^^ Zielkriterium der verschiedenen Schatzverfahren ist es, die Nutzenparameter so zu schatzen, dass die empirischen Beurteilungen der Stimuli moglichst genau durch die aus der Schatzung resultierenden Gesamtnutzenwerte der Stimuli reproduziert werden konnen. Im Falle nichtmetrischer Verfahren bezieht sich das Zielkriterium dabei auf die Rekonstruktion der erhobenen Rangreihenfolge und der aus den resultierenden Gesamtnutzenwerten entstehenden Rangreihenfolge. Exemplarisch sei im Folgenden der Schatzalgorithmus der OLS-Regression dargestellt, der fiir mindestens intervallskalierte Daten die groBte praktische Bedeutung erlangt hat.^"^^
Vgl. Rao, V.RJSolgaard, H.S. (1978), S. 27ff 242
Vgl. Green, P.E./Srmivasan, V. (1978), S. 103ff. ^^^ Vgl. Keuchel, S. (1993), S. 107. ^^ Vgl. Shnivasan, V./Shocker, AD. (1973), S. 337ff. und Shnivasan, V. (1975), S. 475ff 245
48
Quelle: in Anlehnung an Schubert, B. (1991), S. 230.
Die Ausgangsgleichung der OLS-Regression kann aus dem linear-additiven TeilnutzenGrundmodell der Conjoint-Analyse abgeleitet werden (vgl. Gleichung (2)).^'^^ J
Mj
y.=Po+IIP,.-Xj.
(2)
j=l m=l
y^:
Gesamtnutzenwert fur Stimulus k und
Po:
Basisnutzen.
Diese Regressionsgleichung ist die Basis fiir die Ermittlung der Teilnutzenwerte, wobei die Summe der quadratischen Abweichungen zwischen den empirischen und den geschatzten Gesamtnutzenwerten als Zielkriterium minimiert werden soil (Kleinste-Quadrate-Schatzung). K
K
J Mj-1
£(U.-Uj'=I[U,-p„+£lPj„Xjjf-4min! k=l
k=l
j=l m=l
(3)
^"^
mit: U^:
beobachtete Gesamtnutzenwerte (Bewertung durch Probanden) und
U,^:
geschatzter Gesamtnutzenwert.
Haufig werden ordinal-skalierte Daten unter der Pramisse, dass die Abstande zwischen den benachbarten Stimuli jeweils gleich groB sind, als verhaltnis-skaliert interpretiert und dementsprechend auch in diesen Fallen Losungsalgorithmen fiir metrische Daten wie die OLSRegression angewendet.^"^^ 3.1.2.2.2 Aggregation und Dateninterpretation Die beschriebenen Schritte haben gezeigt, wie sich fiir einzelne Auskunftspersonen - d.h. auf Individualebene - Teilnutzenwerte ermitteln lassen. Individuelle Teilnutzenwerte weisen haufig eine geringe Validitat auf. Allerdings ist erst bei einer Aggregation von mehreren Auskunftspersonen mit validen Ergebnissen zu rechnen.^"^^ AuBerdem interessieren das marktforschende Untemehmen i.d.R. markt- oder segmentspezifische Praferenzstrukturen, da Produkte normalerweise nicht auf einzelne Konsumenten, sondem auf Gruppen von potentiellen Nach-
Die OLS-Regression wurde in 59 % der Anwendungsfalle in Europa (1986-1991) und in 54% der Anwendungsfalle in den Vereinigten Staaten von Amerika (1981-1985) eingesetzt, darin enthalten die Verwendung der OLS-Schatzung im weit verbreiteten ACA-Software-Paket von Sawtooth vgl. Wittink, D./Vriens, M./Burhenne, W. (1994), S. 44. Da die OLS-Regression mittlerweile in zahlreichen statistischen StandardSoftware-Paketen eingesetzt wird und dass sie haufig auch bei ordinal-skalierten Daten aufgrund der Pramisse gleicher Abstande zwischen benachbarten Stimuli eingesetzt wird, vgl. Fischer, J. (2(X)1), S. 93 diirfte der Anteil der OLS-Regressionen seither deutlich gestiegen sein. ^^^ Vgl. Skiera, BJGensler, S. (2002), S. 205. ^'*^ Dieses Vorgehen ist weit verbreitet, wird jedoch kaum hinterfragt, vgl. Teichert, T. (1994), S. 610. ^'*^ Bspw. nennen Kucher/Simon, ohne dies weiter zu begriinden, fiir die Pharmaindustrie eine Zahl von 150-2(X) individuellen Conjoint-Interviews, um zu einer zuverlassigen aggregierten Funktion zu gelangen, vgl. Kucher, E./Simon, H. (1987), S. 32.
49
fragem zugeschnitten werden.^^^ Aus diesem Grunde ist die Aggregation der ermittelten Individualwerte fiir einzelne Marktsegmente oder im Extremfall fur ganze Markte in bestimmten Fallen durchaus von Interesse. Da die absolute Hohe der Nutzenwerte flir unterschiedliche Auskunftspersonen nicht ohne weiteres vergleichbar ist, konnen die individuellen Nutzenfunktionen nicht direkt aggregiert werden. Zuvor sind die Teilnutzenwerte zu nomiieren, wodurch sichergestellt werden soil, dass die errechneten Teilnutzenwerte fur alle Befragten auf dem gleichen NuUpunkt und den gleichen Skaleneinheiten basieren. Bei dem hier vorgestellten Nonnierungsverfahren wird die Eigenschaftsauspragung mit dem kleinsten Teilnutzenwert auf Null gesetzt. Fiir die anderen Auspragungen ist im ersten Teilschritt der Normierung die Differenz zwischen dem betrachteten Teilnutzenwert und demjenigen mit dem kleinsten Teilnutzenwert der entsprechenden Eigenschaft zu bilden.^^^
mit: pj^:
Teilnutzenwert fiir Auspragung m von Eigenschaft j ,
Pj^'": minimaler Teilnutzenwert bei Eigenschaft j . Im zweiten Teilschritt der Normierung wird die Skaleneinheit justiert, dabei ist entscheidend, welchen Wert der groBte zulassige Gesamtnutzenwert annehmen soil. Da sich der Gesamtnutzen additiv aus den Teilnutzenwerten zusammensetzt, ergibt sich fUr eine Auskunftsperson der maximale Gesamtnutzenwert als Sunmie des jeweils maximalen Teilnutzenwertes der einzelnen Eigenschaften. Alle anderen Kombinationen von Teilnutzenwerten ergeben kleinere Gesamtnutzenwerte. Es scheint daher zweckmaBig, den Gesamtnutzenwert des jeweils am starksten praferierten Stimulus bei alien Auskunftspersonen auf einen gemeinsamen Wert, in der Regel auf 1, zu setzen. Daraus ergibt sich als zweiter Teilschritt der Normierung folgende Transformation: ^^^ p. =——liiB
(5)
Dies gilt allerdings in erster Linie fiir Konsumgutermarkte. Vgl. zu den strukturellen Unterschieden zwisciien Konsumgiiter- und Industriegiitermarkten Backhaus, K. (2003), S. 3ff. Vgl. Backhaus, K.et al. (2003), S. 566. Vgl. Backhaus, K.et al. (2003), S. 567.
50
Nachdem durch die Normierung die Vergleichbarkeit der Ergebnisse aus unterschiedlichen Individualanalysen sichergestellt wurde, konnen die individuellen Teilnutzenwerte durch einfache Mittelwertbildung aggregiert werden.^^^ Da jede Aggregation zu einem Informationsverlust fiihrt, muss der Heterogenitatsgrad der Nutzenstrukturen gepriift werden. Bei allzu groBer Heterogenitat besteht die Gefahr des Verlusts wesentlicher Informationen, der durch Bildung von homogenen Segmenten mittels der Clusteranalyse verhindert werden kann."^^"^ Aus der absoluten Hohe der Teilnutzenwerte - unabhangig von Normierung und Aggregation - konnen nur bedingt Schlussfolgerungen gezogen werden. Haufig werden Aussagen iiber die relative Wichtigkeit einer Eigenschaft angestellt, die den Beitrag einer Eigenschaft zum Zustandekommen des gesamten Praferenzurteils ausdriickt. Sehr problematisch ist allerdings haufig die Interpretation der relativen Wichtigkeiten Wj einer Eigenschaft, die eine Gewichtung einzelner Eigenschaften an der Summe der Spannweiten darstellt. Die Spannweite wird dabei defmiert als Differenz zwischen dem hochsten und niedrigsten Teilnutzenwert einer Eigenschaft. ^^^ max^j^j-min^pj^j (6) Xmax^j^}-min^j„} j=i
Es kann gezeigt werden, dass Positionierungseffekt, Number-of-Levels-Effect und die Wahl der zu beriicksichtigenden Merkmale einen erheblichen Einfluss auf das Konstrukt der relativen Wichtigkeiten haben und durch Gestaltungsfreiraume bei der Konzeption der Studie maBgeblich bestimmt werden konnen.^^^ 3.1.2.3 Marktsimulationen Die Conjoint-Analyse erlaubt die Berechnung von Teilnutzenwerten fiir alle mit in die Untersuchung aufgenonmienen Merkmalsauspragungen. Durch ein Einsetzen der Teilnutzenwerte in die Praferenzfunktion konnen fur beliebige Kombinationen der Merkmalsauspragungen Gesamtnutzenwerte gebildet werden, unabhangig davon, ob die spezifische Auspragungskombination den Probanden in dieser Form zur Befragung vorgelegt wurde.^^^
^^^ Alternativ zu Individualanalysen und anschlieBender Aggregation der Nutzenwerte kann sofort eine gemeinsame Conjoint-Analyse fiir eine Mehrzahl von Auskunftspersonen durchgefuhrt werden. Dabei werden die Auskunftspersonen als Wiederholungen (Replikationen) des Untersuchungsdesigns aufgefasst, vgl. Backhaus, K.et al. (2003), S. 568. ^^^ Vgl. zur Anwendung der Cluster-Analyse auf Conjoint-Daten Backhaus, K.et al. (2003), S. 569. 255
Vgl. Green, P.E./Wind, Y.J. (1975), S. UOf. Vgl. Perrey, J. (1996), S. 105ff. Bei Anwendung von Gleichung (6) auf normierte identische Praferenzvektoren ist der Ausdruck m i n p j^^ j stets gleich null. In diesem Fall sind Gleichung (5) und (6) identisch, und die groBten normierten Teilnutzenwerte je Eigenschaft liefern zugleich die relative Wichtigkeit der Eigenschaft. Vgl. Orme, B./Huber, J. (2000), S. 12ff.
51
Allerdings handelt es sich bei den Nutzenwerten lediglich um eine Operationalisierung der Praferenzstruktur der einzelnen Befragten. Es kann aus den Gesamtnutzenwerten nicht unmittelbar geschlossen werden, welches Produkt ein Befragter wahlen bzw. in einem weiteren Schritt tatsachlich kaufen wtirde. Ftir die Prognose von auf Conjoint-Ergebnissen basierenden Auswahlentscheidungen bedarf es daher tiber die reine Praferenzanalyse hinausgehender Annahmen iiber das Entscheidungsverhalten von Auskunftspersonen. Die TCA stellt eine reine Analyse der Praferenzstruktur dar, es wird dagegen nicht erhoben, inwieweit ein Proband bereit ist, ein vorziehenswurdiges Produkt auch zu kaufen. Die TCA geht von der Pramisse aus, dass die Auskunftsperson auf jeden Fall bereit sei, eines der simulierten Produkte zu kaufen. Es wird also unterstellt, dass alle Produkte aufgrund einer positiven Nutzenstiftung kaufenswert sind."^^^ Diese Pramisse schrankt den Einsatz der TCA fiir Marktsimulationen erheblich ein. Teilweise werden Marktsimulationen aber auch trotz eines VerstoBes gegen die Pramisse durchgefiihrt. Allerdings gibt es auch Bereiche, in denen die Pramisse der Realitat weitestgehend entspricht. Als Beispiel ist die Mehrzahl der Transporttragerentscheidungen im Gliterverkehr zu nennen, wo Untemehmen ihre Giiter zumindest kurzfristig mehr oder weniger unabhangig von der genauen Ausgestaltung der Angebote transportieren miissen. Trotz grundsatzlicher Vorbehalte gegeniiber den Ergebnissen der auf der TCA basierenden Marktsimulationen wird im Folgenden die Theorie solcher Simulationen kurz vorgestellt."^^^ 3.1.2.3.1 Berechnung der individuellen A uswahlwahrscheinlichkeiten Wird die Pramisse akzeptiert, dass Praferenzen die zentrale BestimmungsgroBe fur die abzubildenden Auswahlentscheidungen darstellen, konnen die mittels der Conjoint-Analyse berechneten Nutzenwerte fiir Simulationen verwendet werden, indem Praferenzen in hypothetische Wahlentscheidungen transformiert werden.^^^ Dazu sind die fiir einen Markt relevanten Wettbewerbsverhaltnisse bei der Auswahl der zu simulierenden Produkte zu beriicksichtigen. Ein Oder mehrere Szenarien werden entsprechend der augenblicklichen und potentiellen Angebote simuliert. Im Rahmen der Modellbildung ist der Zusammenhang zwischen den Praferenzen bzw. Nutzenwerten und dem Wahlverhalten so abzubilden, dass eine intersubjektiv nachvollziehbare Transformation moglich wird.^^^ In der Praxis haben sich die drei folgenden Regeln durchgesetzt:
Eine begleitende Zusatzfrage nach der Kaufabsicht, in der die Auskunftsperson ihre grundsatzliche Ablehnung ausdriicken kann, die prasentierten Alternativen zu wahlen und damit keines der vorgelegten Produkte aufgrund einer negativen Nutzenwirkung als kaufenswert erachtet, schmalert die methodischen Bedenken keinesfalls. Denn auf diese Art und Weise kann lediglich ausgedriickt werden, dass fiir alle Produkte einer zuvor definierten Produktkategorie keine Kaufbereitschaft besteht, nicht aber, dass die Kaufbereitschaft von der Ausgestaltung der Alternative abhangt. Vgl. Alters, S./Brockhoff, K. (1985), S. 191ff.; Tscheulin, O.K. (1992), S. 63ff Vgl. Biischken, J. (1994b), S. 80. Vgl. Brzoska, L (2003), S. 100.
52
•
First-Choice-Regel,^^^
•
BTL-Regel^^^ und
•
Logit-Regel.^^
Nach der First-Choice-Regel entscheidet sich ein Proband stets fiir das Produkt, das unter den angebotenen Altemativen den hochsten Gesamtnutzenwert aufweist. Obwohl es sich um eine streng deteraiinistische Transformationsregel handelt, kann sie in probabilistischer Notation dargestellt werden. Denn die First-Choice-Regel ordnet dem Produkt mit dem hochsten Gesamtnutzenwert fiir einen Konsumenten eine Auswahlwahrscheinlichkeit von 1, alien anderen Produkten des simulierten Szenarios eine Auswahlwahrscheinlichkeit von 0 zu. Damit kann die First-Choice-Regel wie folgt formalisiert werden :^^^
P"^*^>'"l0,sonst
^'^
mit: p„ (k'): Wahrscheinlichkeit, dass Proband n die Alternative k' wahlt, \}^^:
berechneter Gesamtnutzen der Alternative k fiir Proband n und
K:
Anzahl der Simulationsprodukte.
Die First-Choice-Regel entspricht dem Grundgedanken des okonomischen Prinzips, wonach die Konsumenten bei der Beschaffung von Giitem ihren Nutzen maximieren, indem sie bei gegebenem Budget das Produkt wahlen, das den hochsten Nutzen stiftet. Vor diesen Uberlegungen scheint die Anwendung der First-Choice-Regel durchaus plausibel.^^^ Als zentraler Nachteil dieser Transformationsregel gilt, dass sie Informationen iiber Nutzenabstande zwischen verschiedenen Altemativen ignoriert, denn fiir die Auswahlentscheidung ist es unerheblich, ob ein sehr groBer oder lediglich ein marginaler Nutzenabstand zwischen dem meist praferierten und den folgenden Stimuli vorliegt. Dies setzt jedoch nicht nur eine exakte Nutzenwahmehmung durch die Auskunftsperson, sonder dariiber hinaus zudem eine genaue Erhebung und Schatzung der Nutzenwerte voraus, die nicht immer garantiert werden kann.^^^
Vgl. Balderjahn, I. (1991), S. 34. Die First-Choice-Regel wird alternativ auch als Maximum-LikelihoodRegel bezeichnet. Vgl. Vriens, M. (1995), S. 72f.; Green, P.E./Shnivasan, V. (1990), S. 14f. Anstatt der BTL-Regel findet man in der Literatur auch die Bezeichnungen Attraktionsmodell, Attraktionsregel oder Lwce-Modell. Vgl. Balderjahn, I. (1993), S. 193; Gutsche, J. (1995), S. 142ff.; Vriens, M. (1995), S. 72f.; Fischer, J. (2001), S. 102f.; Green, P.E./Srinivasan, V. (1990), S. 14f.; Schubert, B. (1991), S. 244; Green, P.E./Krieger, A.M. (1988), S. 114f. Vgl. bspw. Punj, G.N./Staelin, R. (1978), S. 588ff. Vgl. Gutsche, J. (1995), S. 142. Vgl.//a/z«, C. (1997),S. 154f. Vgl. Otter, T. (2001), S. 62.
53
Vor diesem Hintergrund und aufgrund ihres deterministischen Charakters sollte die FirstChoice-Regel insbesondere bei extensiven bzw. limitierten Kaufentscheidungssituationen, d.h. bei solchen mit ausgepragter kognitiver Komponente, eingesetzt werden. In diesen Fallen kann unterstellt werden, dass die Produktaltemativen in einem langen und aufwandigen EntscheidungsprozeB sehr genau gegeneinander abgewogen werden und Produkte selbst bei einem nur geringen Nutzenvorteil auch tatsachlich ausgewahlt werden."^^^ Bei extensiven Kaufentscheidungen sind die Konsumenten beispielsweise eher bereit, umfangreiche Informationen einzuholen und weiter entfemte Einkaufsstatten aufzusuchen. Die von Bradley, Terry und Luce^^^ entwickelte BTL-Regel setzt mit ihrer probabilistischen Grundidee an der dargelegten Kritik der rein deterministischen First-Choice-Regel an. Zwar wird auch hier die Praferenzstruktur noch deterministisch modelliert. Allerdings werden durch den Einsatz der probabilistischen Auswahlregel Unsicherheiten bei der Prognose beriicksichtigt. Diese Unsicherheit ergibt sich aus der Annahme, dass ein Konsument nicht nur das nutzenmaximale, sondem prinzipiell alle Altemativen des Sets zu kaufen bereit ist und dementsprechend fur alle Produkte eine zumindest marginale Kaufbereitschaft aufweist. Die Kaufwahrscheinlichkeit resultiert aus dem Quotient aus Gesamtnutzenwert des betrachteten Produktes und der Summe der Gesamtnutzenwerte aller simulierten Stimuli:
Pn(k) = - i ^
(8)
k=l
Im Gegensatz zur First-Choice-Regel fiihrt die Anwendung des Grundmodells der BTL-Regel dazu, dass einem Stimulus bei Existenz mehrerer Produktaltemativen wohl die hochste, aber dennoch keine Wahlwahrscheinlichkeit von 1 zugeordnet wird. Die Ergebnisse sind damit weniger extrem als bei der First-Choice-Regel."^^^ Allerdings setzt die BTL-Regel ein verhaltnisskaliertes Datenniveau voraus, wahrend die Conjoint-Analyse aufgrund der fehlenden Bedeutung der absoluten Nutzenwerte lediglich intervallskalierte Nutzenwerte liefert, da der Nutzen hier keinen absoluten Bezugspunkt beSchlieBlich existiert noch die Logit-Regel,"^^^ die ebenfalls probabilistischen Charakter hat, aber zumeist nur in Verbindung mit den wahlbasierten Conjoint-Ansatzen^^^ verwendet wird. Sie defmiert die Kaufwahrscheinlichkeit als Quotient des exponentierten Gesamtnutzenwerts
Vgl. Teichert, T. (2001a), S. 75; Gutsche, J. (1995), S. 142f. 269
Vgl. Bradley, RA./Terry, M.E. (1952), S. 324ff, Luce, R.D. (1959), S. 5ff.
270
Vgl. Bretton-Clark (1989), S. 53; Balderjahn, I. (1993), S. 109; Otter, T. (2001), S. 62f; Elrod, T./Kumar, S.K. (1989), S. 259ff.; Curry, J. (1997), S. 10. Vgl. Teichert, T. (2000), S. 477. Vgl. McFadden, D. (1976), S. 363ff. Vgl. zu den wahlbasierten Verfahren Abschnitt 3.3.
54
mit Basis e des betrachteten Stimulus und der Summe der exponentierten Gesamtnutzenwerte aller simulierten Stimuli.^^"^ Im Zusammenhang mit der Entscheidungsregel wird haufig die so genannte IIA-Eigenschaft {Independence of Irrelevant Alternative) diskutiert."^^^ Danach sollte die relative Wahlwahrscheinlichkeit von zwei Altemativen bei Hinzunahme einer weiteren Alternative keine Anderung erfahren.^^^ Die BTL-Regel und auch die Logit-Regel sollten zum einen nur fur Entscheidungen zwischen echten Altemativen, die sich in den Auspragungen der Eigenschaften deutlich voneinander unterscheiden, eingesetzt werden.^^^ Zum anderen tritt das mit der IIAEigenschaft verbundene Problem ebenfalls nicht auf, wenn es sich um eine Auswahl relativ gleichartiger Altemativen handelt, wie sie typisch fiir eine Auswahl im Consideration Set ist.^^^ Mit anderen Worten erweist sich die Anwendung einer probabilistischen Transformationsregel aufgmnd der IIA-Eigenschaft inrnier dann als problematisch, wenn heterogene Substitutionsbeziehungen zwischen den dem Wettbewerbsszenario zugmnde liegenden Altemativen bestehen. Die Ausfiihmngen verdeutlichen, dass fiir die Begrundung der Wahl einer Entscheidungsregel Uberlegungen insbesondere zu der Art der vorliegenden Kaufentscheidung und zu den Substitutionsbeziehungen der abgebildeten Simulationsprodukte anzustellen sind. Allerdings kann die Giiltigkeit der Hypothesen tiber das Auswahlentscheidungsverhalten und damit die Gultigkeit der Entscheidungsregel empirisch kaum uberpruft werden. Damit geht ein nicht unerheblicher Manipulationsspielraum einher, denn in Abhangigkeit der verwendeten Transformationsregel kann es zu erheblichen Differenzen bei der Prognose der Auswahlwahrscheinlichkeiten kommen.^^^
Vgl. Kapitel 3.3.1.1. Vgl. fiir eine Gegeniiberstellung der verschiedenen Auswahlregeln Huber, J./Moore, W.L. (1979), S. 64ff.; Green, P.E./Krieger, A.M. (1988), S. 114ff. Vgl. zur IIA-Eigenschaft Green, P.E./Srinivasan, V. (1978), S. 113; Buckley, P.G. (1988), S. 135. Der Begriff hat sich so in der Literatur durchgesetzt, ist aber irrefuhrend, weshalb Block/Marschak vorschlagen, von „Irrelevance of Added Alternatives" zu sprechen, vgl. Block, H.D./Marschak, J. (1960), S. 100. Zur Veranschaulichung wird in der Literatur haufig das „Red-Bus/Blue-Bus-Problem" von BenAkiva/Lerman herangezogen. Danach wird die Verkehrsmittelwahlentscheidung auf die Nutzung privater PKW bzw. roter offentlicher Busse reduziert, die jeweils eine Wahlwahrscheinlichkeit von 0,5 besitzen. Werden nun zusatzlich blaue Busse als Verkehrstrager beriicksichtigt, sinkt die Wahlwahrscheinlichkeit fiir PKW und rote Busse unter der Voraussetzung, dass der Proband indifferent gegeniiber der Farbe des Busses ist, auf 0,33. Die drei Altemativen haben denselben Nutzen, also teilen sie sich den Markt. Problematisch ist, dass durch die Beriicksichtigung einer nicht relevanten Alternative die Wahlwahrscheinlichkeit fiir den offentlichen Bus insgesamt zunimmt. Diese Verschiebung scheint jedoch sehr fragwiirdig, da die Farbe des Busses keinen Einfluss auf das Entscheidungsverhalten haben und aus diesem Grund eine ausschlieBliche Substitutionsbeziehung zwischen roten und blauen Bussen bestehen diirfte. Vgl. Ben-Akiva, M./Lerman, S.R. (1985), S. 5Iff. Vgl. allgemein zur Losung der Problematik durch hierarchische Modellierung Tversky, A./Sattath, S./Slovic, P. (1988), S. 371ff; Kahn, B./Moore, W.L./Glazer, R. (1987), S. 96ff. Vgl. Batsell, R.R./Louviere, J.J. (1991), S. 199ff, Balderjahn, I. (1993), S. 132, Gutsche, J (1995), S. 163. Vgl. Debreu, G. (1960), S. 186ff.; Henrichsmeier, S. (1998), S. 32; Gensch, D.H./Soofi, E.S. (1995), S. 25ff.; Horowitz, JL/Louviere, J.J (1995), S. 39ff.; Manrai, A.K./Andrews, R.L. (1998), S. 193ff.; Nedungadi, P. (1990), S. 263ff.; Jedidi, K./Kohli, R./DeSarbo, W.S. (1996), S. 364ff. Vgl. zu dieser Problematik die Untersuchungen von Albers, S./Brockhoff, K. (1985), S. 191ff und Brzoska, L. (2003), S. 104f.
55
3.1.2.3.2 Aggregation der individuellen Kaujwahrscheinlichkeiten zu Kauferanteilen Zur Ermittlung der Kauferanteile werden die zuvor mit Hilfe einer Entscheidungsregel ermittelten individuellen Auswahlwahrscheinlichkeiten aggregiert. Der erwartete Kauferanteil kak entspricht dem arithmetischen Mittel der individuellen Auswahlwahrscheinlichkeiten und kann formal wie folgt dargestellt werden.
ip„(k)
ka,=^=L__
(9)
mit: N: Anzahl der Auskunftspersonen Unter der Voraussetzung, dass jeder Nachfrager in der betrachteten Periode genau ein Produkt kauft, was am ehesten bei Gebrauchsgiitem eine realistische Annahme ist, entspricht der Kauferanteil bei reprasentativer Stichprobe dem Marktanteil. Allerdings ist zu beachten, dass die mit Hilfe der Conjoint-Analyse ermittelten Praferenzen sich auf den Z^itpunkt der Erhebung beziehen. Aus diesem Grunde konnen gerade im Zusammenhang mit Innovationen keine allzu langen Prognosezeitraume gewahlt werden. Gegebenenfalls sind die Conjoint-Studien regelmaBig zu wiederholen, um so systematische Veranderungen der Praferenzen erfassen zu konnen. 3.1.2.4 Beurteilung der Gute der Ergebnisse Die Ergebnisse der Conjoint-Analyse sollten zunachst einer einfachen Plausibilitatsbetrachtung unterzogen werden. Dabei sollte insbesondere gepriift werden, inwieweit sich die Einflussrichtung der einzelnen Nutzenparameter auf den Gesamtnutzen mit den PrioriErwartungen deckt. AuBerdem kann gepriift werden, ob die Nutzenparameter einen signifikanten Einfluss auf den Gesamtnutzenwert haben. Dazu wird der t-Test verwendet:
te„^=-^ mit: temp:
empirischer t-Wert,
P„j^: Nutzenparameter der Auskunftsperson n fiir Auspragung m der Eigenschaft j . Op : Standardabweichung der Nutzenparameter.
56
(10)
Da bei der TCA die fiinktionalen Zusammenhange haufig gering parametrisiert sind, d.h. nur wenige Freiheitsgrade oder kein Freiheitsgrad vorliegen, resultieren nicht selten instabile Parameterschatzungen, die sich in einer hohen Streuung auBem.^^^ Dariiber hinaus kann die Anpassungsgiite (interne Validitat), die eine Aussage beziiglich der Anpassung des Modells an die Beobachtungen macht, zur Beurteilung benutzt werden.^^^ Die Anpassungsgiite wird bei OLS-Schatzungen zumeist durch das BestimmtheitsmaB oder das korrigierte BestimmtheitsmaB iiberpruft.^^^ Das BestimmtheitsmaB misst dabei den Anteil der durch das Conjoint-Modell erklarten Varianz an der Gesamtvarianz der abhangigen Variablen:^«^
1(0.-u J
j^.^SQE^^
^^^^
nut: R^:
BestinuntheitsmaB,
SQE: erklarte Abweichungsquadratsumme, SQT: gesamte Abweichungsquadratsunrnie,^^"* U„^: geschatzter Gesamtnutzenwert der Alternative k fiir Auskunftsperson n, U„:
arithmetisches Mittel der beobachteten Gesamtnutzenwerte fiir Auskunftsperson n,
V^y.: beobachteter Gesamtnutzenwert der Alternative k fiir Auskunftsperson n. Das BestinmitheitsmaB kann nur Werte zwischen den beiden Grenzfallen R^ = 0 (kein Erklarungsbeitrag) und R^= 1 (vollstandige Erklarung) annehmen.^^^ Das BestinmitheitsmaB wird in seiner Hohe durch die Anzahl der beriicksichtigten Parameter beeinflusst, da mit einer Hinzunahme von Parametem ein mehr oder weniger groBer Erklarungsanteil hinzugefiigt wird, der allerdings mOglicherweise nur zufallig bedingt ist. Das korrigierte BestinmitheitsmaB tragt diesem Sachverhalt Rechnung, indem es das einfache BestinmitheitsmaB um eine Korrektur-
Teichert hat zudem auf zahlreiche unterparametrisierte Conjoint-Studien hingewiesen, bei denen die Anzahl der Stimuli nicht ausreicht, um eindeutige Nutzenparameter zu schatzen, vgl. Teichert, T. (2001a), S. 16f. Vgl. Miiller-Hagedorn, L./Sewing, E./Toporowski, W. (1993), S. 126. Vgl. Gensler, S. (2003). S. 34. Vgl. Bamberg, G./Baur, F. (2002), S. 45. Die gesamte Abweichungsquadratsumme SQT setzt sich aus der nicht erklarten Abweichungsquadratsumme SQR (Quadratsumme der Residuen) und der durch die Regressionsfunktion erklarten Abweichungsquadratsumme SQE zusammen, vgl. Bleymiiller, J./Gehlert, G./Gulicher, H. (2002), S. 144. Vgl. Bleymiiller, J./Gehlert, G./Gulicher, H. (2002), S. 145.
57
groBe vermindert, die um so groBer ist, je groBer die Anzahl der Parameter und je kleiner die Anzahl der Freiheitsgrade ist. ^^^
[i:(M,-i)](i-RO ^korr
(12)
- ^
K-[i:(M,-i)]-- 1 ^
J
' I
mit:
Rl^^:
korrigiertes BestimmtheitsmaB,
J:
Anzahl der Merkmale j ,
M J:
Anzahl der Auspragungen des Merkmals j ,
K:
Anzahl der Altemativen k,
K - ^ (M j -1) - 1 : Anzahl der Freiheitsgrade. Insbesondere bei ordinalen Daten wird daruber hinaus Kendall's Tau eingesetzt, das ein Ma6 fur die Ubereinstimmung von beobachteter und berechneter Rangreihenfolge der Altemativen darstellt.^^^ Kendall's Tau =
\ ^
. -1
(13)
K(K-1)
mit:
3.1.3 Grenzen der Traditionellen Conjoint-Analyse als Ansatzpunktefur Weiterentwicklungen Wie die vorangegangenen Darstellungen bereits zeigen, ist die TCA mit einigen Mangeln behaftet, die zugleich als Ausgangspunkt fur Weiterentwicklungen und Neuentwicklungen von Verfahrensvarianten verstanden werden konnen. Neben zahlreichen sekundaren konnen zwei Hauptproblemfelder hinsichtlich des Verfahrens der TCA unterschieden werden. Zum einen kann die TCA nur eine relativ begrenzte Anzahl an Merkmalen und Auspragungen abbilden. Wird diese Anzahl iiberschritten, steigt der kognitive Aufwand fiir die Befragten
Vgl. Backhaus, K.et al. (2003), S. 67f. Kendall's Tau ist bei ordinalen Daten besonders verbreitet, eignet sich aber auch bei metrischen Schatzungen, vgl. Miiller-Hagedorn, L/Sewing, E./Toporowski, W. (1993), S. 123. Vgl. zu Kendall's Tau Kendall, M.G./Gibbons, J.D. (1990), S. 5. Vgl. dabei zur genauen Ermittlung der konkordanten Paare Kendall, M.G./Gibbons, J.D. (1990).
58
iiber ein vertretbares MaB."^^^ Ein Ansatzpunkt zur Reduktion der Eigenschaftsliste stellt insbesondere die Wichtigkeit des Merkmals dar.^^^ Wahrend die Bestimmung der individuell wichtigen Merkmale noch relativ unproblematisch ist,^^' fallt die Entscheidung schwerer, ab welchem Wichtigkeitsniveau ein Merkmal in die Entscheidung mit einzubeziehen ist. Bei der Merkmalsauswahl auf aggregierter Ebene ist dariiber hinaus die Streuung der Merkmalswichtigkeit zwischen verschiedenen Probanden zu beriicksichtigen. Als Extremfall ist vorstellbar, dass fiir die eine Halfte von Auskunftspersonen gewisse Merkmale besonders bedeutsam sind, die fiir die andere Halfte vollig unwichtig sind.^^^ Allerdings handelt es sich hierbei wohl eher um Einzelfalle. Zudem belegen einige empirische Studien, dass eine Fokussierung auf die wichtigsten Merkmale die Giite der Untersuchungsergebnisse nicht wesentlich verschlechfot^ 293
ten. Die zweite Problematik ist dagegen grundsatzlicher, denn die TCA kann lediglich Praferenzstrukturen abbilden, da die „ermittelten Praferenzdaten keinerlei Informationen iiber ein mogliches Wahlverhalten der Probanden"^^"^ enthalten. Haufig werden Conjoint-Analysen aber fiir Marktsimulationen eingesetzt, beispielsweise sollen Marktanteile oder Absatzvolumina bei verschiedenen Ausgestaltungsformen des eigenen Produktes bestinmit werden."^^^ Marktsimulationen auf Grundlage der TCA fiihren zumeist zu wenig aussagekraftigen Ergebnissen, weil der Ansatz nicht bestinmien kann, ab welcher Ausgestaltungsform der Proband ein Produkt der betrachteten Kategorie kaufen wiirde.^^^ Die haufig verwendete Vereinfachung, er besitze fur alle denkbaren Kombinationen der Merkmalsauspragungen eine prinzipielle Kaufbereitschaft, fiihrt in der Realitat zu wenig aussagekraftigen Ergebnissen."^^^ Bei vielen Produktkategorien hangt die Kaufbereitschaft von der konkreten Ausgestaltung der angebotenen Produkte ab. 3.1.4 Systematisierung von Verfahrensvarianten der Conjoint-Analyse ausgehend von der Traditionellen Conjoint-Analyse Es wurde eine Reihe von Verfahrensvarianten entwickelt, die eine Reduktion der Anzahl der von jedem Probanden zu beurteilenden Stimuli erlauben. Im Rahmen von hybriden Verfahren geht dem dekompositionellen Conjoint-Ansatz ein kompositioneller Befragungsteil voraus.
^^^ Thomas, Weiss, Muller/Kesselmann, Jiingst/Mengen, Weiber/Rosendal und Teichert gehen bspw. davon aus, dass spatestens bei einer Anzahl von 20 Alternativen eine Informationsuberlastung der Probanden zu erwarten ist, Thomas, L (1983), S. 310; Weiss, PA. (1992), S. 69ff.; MUller, S./Kesselmam, P. (1994), S. 260ff.; Jiingst, K./Mengen, A. (1995), S. 91ff.; Weiber, R./Rosendahl, T (1997), S. 107ff.; Teichert, T. (2000), S. 47 Iff. ^^ Vgl. Weiber, R./Rosendahl, T. (1997), S. 112. ^^' Vgl. Schweikl, H. (1985), S. 102ff. 2^2 Vgl. Weiber, R./Rosendahl, T (1997), S. 112. 2^^ Vgl. Pullman, M.E./Dodson, K.J./Moore, W.L (1999), S. Iff. ^^^ Weiber, R./Rosendahl, T (1997), S. 114. 2^5 Vgl.Orme, 5. (2003),S. Iff. ^^ Vgl. bspw. Balderjahn, I. (1993), S. 112. 2^^ Vgl. Jedidi, K./Kohli, R./DeSarbo, W.S. (1996), S. 364ff.
59
Dabei existiert in der Kegel ein umfangreiches Gesamtdesign, das jedoch von den einzelnen Auskunftspersonen nicht vollstandig beurteilt wird. Vielmehr werden die einzelnen Probanden gemaB der Ergebnisse des kompositionellen Befragungsteils unterteilt. Entweder werden dazu homogene Gruppen gebildet und das Gesamtdesign auf die Mitglieder der Gruppe verteilt (HCA), Oder die Altemativen auskunftspersonenspezifisch individualisiert (ACA und ICA).^^« LCA und CBCA sind zwei Ansatze, die Informationen iiber das Auswahlverhalten der Befragten erheben, die dann zur Simulation von Markten verwendet werden. Die LCA ist eine Erweiterung der TCA, bei der die Auskunftsperson in einem zusatzlichen Schritt diejenigen Altemativen, fiir die sie grundsatzlich Kaufbereitschaft aufweist, von denjenigen, die sie unter keinen Umstanden kaufen wiirde, trennt. Bei wahlbasierten Verfahrensvarianten der ConjointAnalyse wahlt der Proband mehrfach in unterschiedlichen Situationen zwischen verschiedenen Altemativen. Zumeist werden die Produktaltemativen um eine Nicht-Kauf-Option, mit der die Auskunftsperson ausdriicken kann, dass sie keine der gerade prasentierten Altemativen wahlen wiirde, erganzt. Damit erhalten die Nutzenwerte ahnlich wie bei der LCA ein Bezugsniveau und konnen i.d.R. zur Marktsimulation verwendet werden. Abbildung 14 gibt einen Uberblick iiber die oben skizzierten Verfahrensvarianten, wobei die Grenzen der TCA als Ausgangspunkt fur die Weiterentwicklungen dargestellt werden. Im Folgenden werden die in Abbildung 14 auf der linken Seite dargestellten Verfahren, die eine Beriicksichtigung einer groBeren Anzahl an Merkmalen und Auspragungen zulassen, nicht weiter verfolgt, da sie sich nicht zur Prognose von Kaufentscheidungen eignen. Ausfiihrlicher beschrieben und fiir den Vergleich mit Hilfe der Simulationsstudie im praktischen Teil der Arbeit herangezogen werden die metrischen Limit-Conjoint-Ansatze sowie die wahlbasierten Ansatze.^^
^^^ Vgl. zu den hybriden Verfahrensvarianten der Conjoint-Analyse Abschnitt 1.1 und Hemel-Borner, (2000). ^^ Vgl. Abschnitte 3.2, 3.3, 3.4.
60
S.
Abbildung 14: Grenzen der TCA als Ansatzpunkt fur Verfahrensvarianten 3.2
Limit-Conjoint-Analyse (LCA) als auswahlbezogene Weiterentwicklung des metrischen Traditionellen Conjoint-Analyse-Ansatzes
3.2.1 Grundlegende Charakterisierung der Limit-Conjoint-Analyse Die LCA zeichnet sich von den hier vorgestellten Ansatzen durch die engste Verwandtschaft zur TCA aus. Ansatzpunkt fur die Verfahrenserweitening sind Verzerrungen und Beschrankungen des Anwendungsgebietes der TCA aufgrund der fehlenden Beriicksichtigung von Auswahlentscheidungen. Bei moglichen Nicht-Kaufen lassen sich verschiedene Falle unterscheiden. Relativ unproblematisch ist der Fall, dass ein Proband kein Interesse beziiglich der Angebote einer bestimmten Produktkategorie aufweist. Dieser Fall kann durch direkte Abfrage bzw. durch eine geeignete Auswahl der Probanden erfasst werden.^^ Zudem kann die Auskunftsperson zwar durchaus eine prinzipielle Kaufbereitschaft fur eine bestimmte Produktkategorie aufweisen, das konkrete Kaufinteresse aber von der Ausgestaltung der Alternative abhangen.^^^ Kaufbereitschaft liegt also nicht fur jede Alternative vor, sondem lediglich fiir solche, die eine bestimmte Nutzenschwelle iiberschreiten.
Vgl. Backhaus, K./Voeth, M. (2003), S. 4. Vgl. Backhaus, K./Voeth, M./Hahn, C. (1998), S. 3ff. Darunter ist auch der Fall zu zahlen, dass die Auskunftsperson fiir die im Rahmen der Erhebung prasentierten Stimuli keine Kaufbereitschaft aufweist, diese allerdings nur eine Teilmenge der in der Realitat angebotenen Alternativen darstellen und sich die Auskunftsperson iiber attraktivere Alternativen bewusst ist, die sie auch kaufen wiirde, vgl. Backhaus, K./Voeth, M. (2003), S. 3.
61
Die LCA setzt mit der Modellierung eines zweistufigen Erhebungsprozesses genau an dieser Stelle an.^^^ Die erste Stufe entspricht der TCA, wahlweise mit Rangreihung oder Punktbewertung als Bewertungsmethode."^^^ Es werden analog zur TCA Praferenzurteile erhoben, indem den Auskunftspersonen die Stimuli des reduzierten Designs zur Bewertung auf der gewahlten Skala vorgelegt werden. Die zweite Stufe stellt die Weiterentwicklung der LCA dar. Hier wird der Proband zu einer Aufteilung aller zuvor bewerteten Stimuli in kaufenswerte und nicht kaufenswerte Produktaltemativen aufgefordert.^^ Auf diese Art und Weise werden hypothetische Kaufbereitschaften auf Basis der Praferenzurteile erhoben. Wird die Profilmethode betrachtet, muss hinsichtlich der Bewertungsmethode zwischen Ranking- und Rating-Verfahren differenziert werden. Beim Ranking-Verfahren erfolgt die Trennung zwischen kaufenswerten und nicht kaufenswerten Altemativen durch Angabe des Ranges, den die Auskunftsperson als gerade noch kaufenswert erachtet.^^^ Umgesetzt wird die Separierung mit Hilfe der so genannten Limit-Card, die hinter dem letzen als gerade noch kaufenswert empfundenen Stimulus platziert wird.^^ Die Limit-Card muss nicht notwendigerweise zwischen den bewerteten Stimuli, sondem kann auch hinter dem schlechtesten bzw. vor dem besten Angebot platziert werden, um Kaufbereitschaft fiir alle bzw. keine der angebotenen Altemativen auszudriicken.^^^ Bei Anwendung der Profilmethode in Verbindung mit dem Rating-Verfahren kann der Ort der Limit-Card zwischen dem gerade noch und dem gerade nicht mehr kaufenswerten Stimulus genauer bestinmit werden, denn die Limit-Card wird nicht nur platziert, sondem dariiber hinaus werden die Auskunftspersonen aufgefordert, auch fiir die Limit-Card einen genauen Punktwert anzugeben.^^^ Auf diese Art und Weise konnen unterschiedlich groBe Nutzenabstande zu der einen oder anderen Seite kenntlich gemacht werden. Beriicksichtigt man, dass RatingVerfahren insbesondere dann eingesetzt werden, wenn von unterschiedlich groBen Nutzenabstanden zwischen den verschiedenen benachbarten Karten auszugehen ist, erscheint es sinnvoll, diesen detaillierten Informationsgrad auch fiir die Platzierung der Limit-Card zu verlangen. Die Unterscheidung von kaufenswerten und nicht kaufenswerten Produktaltemativen durch die Verwendung der Limit-Card erlaubt eine Modifikation des Nutzenmodells der TCA. Beim Einsatz metrischer Losungsalgorithmen auf die Profilmethode in Verbindung mit dem Ranking-Verfahren werden die Rangplatze linear in Nutzenwerte transformiert. Der Einsatz metrischer Losungsalgorithmen in Verbindung mit dem Ranking-Verfahren ist unter der Voraussetzung zulassig, dass die Abstande zwischen benachbarten Rangplatzen und nach der Trans-
302
Vgl. Backhaus, K./Brzoska, L (2003), S. 27.
303
Vgl. Backhaus, K./Voeth, M. (2003), S. 9ff..
304
Vgl. Voeth, M./Hahn, C. (1998), S. 120ff.
305
Vgl. Backhaus, K./Voeth, M./Hahn, C. (1998), S. 13f.
306
Vgl. Voeth, M. (1998), S. 318ff.
307
Vgl. Voeth, M. (2000), S. 89. Vgl. Backhaus, K./Voeth, M. (2003), S. 9ff.
62
formation damit auch die Abstande zwischen benachbarten Nutzenwerten als annahrend aquidistant eingeschatzt werden.^^ Nur unter dieser Voraussetzung ist eine intervall-skalierte Interpretation der ordinalen Daten und die damit einhergehende Heraufsetzung des Skalenniveaus zulassig.310 1st die Pramisse nicht tragbar, wird das Rating-Verfahren verwendet, bei dem die Punktwerte direkt als Nutzenwerte interpretiert werden konnen. Die weiteren Schritte sind fiir Rating- und Ranking-Verfahren identisch.
HiH?HiMzH8H5>-
Rang—0—(2y-(3Wn D CDJ O CO
Score
2,5
O CO
1,5
O
(0
0,5
0
2^ L2 ®
2CD
D CD O CO
O CO
O CO
-0,5
O CO
2^0
2 ^
P CO
O CO
-1,5 -2,5 -3,5 -4,5 -5,5
Abbildung 15: Beispiel fiir die Skalentransformation bei der LCA^^^ Durch die Platzierung der Limit-Card wird der Ort markiert, an dem eine Auskunftsperson indifferent in Hinblick auf Kauf oder Nicht-Kauf ist.^^^ Dieser Ort wird auch als Nutzennullpunkt bezeichnet und dient als Referenzpunkt fiir eine Transformation der urspriinglichen ordinalen bzw. metrischen Bewertungen durch eine Skalenverschiebung. Da es sich um eine lineare Transformation der empirischen Gesamtnutzenwerte handelt, verandem sich die Teilnutzenwerte und die daraus abgeleiteten relativen Wichtigkeiten nicht.^^^ Lediglich der Basisnutzen wird entsprechend der Position der Limit-Card verschoben.^'"^ Den Basisnutzendifferenzen, die identisch mit den Differenzen der Gesamtnutzenwerte von TCA und LCA sind, liegt somit fiir das Ranking-Verfahren folgende Transformationsregel zugrunde:^^^
U^ = U ^ + L R „ - K - 0 . 5
(14)
Vgl. Voeth, M./Hahn, C. (1998), S. 122 und allgemein zur asymptotischen Annaherung von Rangdaten an die Intervallskaliening Teichert, T. (1998), S. 1248ff. Vgl. Backhaus, KJVoeth, M. (2003), S. 8f. Quelle: In enger Anlehnung an Hahn, C./Voeth, M. (1997), S. 14. 312 313 314
Vgl. Brzoska, L (2003), S. 112. Vgl. Voeth, MJHahn, C. (1998), S. 123. Vgl. Voeth, M. (2000), S. 84. Vgl. Backhaus, K./Voeth, M. (2003), S. 12.
63
mit: U ^ : Gesamtnutzenwert des Stimulus k bei Proband n fiir die L C A , Ukn^
Gesamtnutzenwert des Stimulus k bei Proband n fiir die T C A ,
LRn:
Rangplatz, hinter den Proband n die Limit-Card platziert hat,
K:
Anzahl der Stimuli des reduzierten Designs.
Fiir die Profilmethode in Verbindung mit dem Rating-Verfahren resultiert folgende Modifikation der Transformationsregel: UL=U^+LP„
(15)
mit: LPn:
Punktzahl, die der Proband n der Limit-Card zugewiesen hat.
Aufgrund der Linearitat der Transformation kann die Skalentransformation wahlweise vor Oder nach Berechnung der Basis- und Teilnutzenwerte durch den metrischen Losungsalgorithmus erfolgen.^^^ Die Platzierung der Limit-Card stellt zunachst eine nominal-skalierte Information („auswahlfahig" bzw. ,,nicht-auswahlfahig") bzgl. jedes einzelnen Stimulus dar."^*^ Erst die Interpretation der Position der Limit-Card als Nutzennullpunkt hebt das Skalenniveau ein weiteres Mai an, und zwar von intervallskaliert auf verhaltnisskaliert.^^^ Dabei muss zudem eine identisch skalierte Beurteilung der kaufenswerten und nicht kaufenswerten Altemativen unterstellt werden.^^^ Dariiber hinaus muss der Abstand zwischen den an die Limit-Card angrenzenden Karten genauso groB sein wie der Abstand zwischen kaufenswerten und nicht kaufenswerten benachbarten Stimuli. Die LCA ist also in Verbindung mit dem Ranking-Verfahren nur dann zulassig, wenn kein „Nutzengraben" an der Position der Limit-Card vorliegt.^^^ Eine Platzierung vor der besten der angebotenen Altemativen bedeutet zunachst, dass lediglich fiir die Stimuli des reduzierten Designs keine Kaufbereitschaft vorliegt. Nach obiger Transformationsregel (vgl. Gleichung (15)) ergibt sich fiir den besten Stimulus im reduzierten Design ein Gesamtnutzenwert von -0,5, was allerdings nicht bedeutet, dass das vollstandige Design keine Produktaltemativen umfasst, fur die positive Limit-Gesamtnutzenwerte berechnet werden konnen. Analog ergibt eine Platzierung der Limit-Card hinter den schlechtesten Stimulus einen Gesamtnutzenwert fiir die schlechteste Alternative des reduzierten Designs in Hohe von
Bei einer Anwendung der Transformationsregel auf die berechneten Gesamtnutzenwerte ist entsprechend die Bezeichnung der Variablen zu andem: U,yj-> U ^ etc. Vgl. Voeth, M. (2000), S. 82. Vgl. Voeth, M./Hahn, C. (1998), S. 121. Vgl. Voeth, M. (2000). Vgl. Brzoska, L (2003), S. 113.
64
0,5.^^^ Es kann durchaus vorkommen, dass im vollstandigen Design fur eine Produktaltemative ein negativer Gesamtnutzenwert ermittelt wird. Diese Besonderheit ist gegeben, wenn der am besten (schlechtesten) beurteilte Stimulus im reduzierten Design nicht zugleich der Stimulus des vollstandigen Design ist, der aus Sicht der Auskunftsperson die jeweils besten (schlechtesten) Merkmalsauspragungen auf sich vereint. Die nicht eindeutige Klassifizierung der Auskunftspersonen als Kaufer oder Nicht-Kaufer durch die Positionierung der Limit-Card an den Randem der gerangreihten Stimuli ist insofem problematisch, als dass kategorischen Kaufem (Nicht-Kaufem) falschlicherweise Kaufbereitschaft (bzw. keine Kaufbereitschaft) fiir eine oder mehrere Produktaltemativen unterstellt werden konnte.^^^ Eine derartige Fehlzuordnung kann im Kontext von Marktsimulationen zu einer leichten Uber- bzw. Unterschatzung des jeweiligen Marktpotentials fuhren.^^^ Werden die Pramissen des Ranking-Verfahrens als zu restriktiv angesehen, sollte das RatingVerfahren verwendet werden.^^"^ 3.2.2 Moglichkeiten der Simulation von Kaufentscheidungen Mit Hilfe der berechneten Nutzenwerte der LCA konnen Kaufentscheidungen und darauf aufbauend Markte simuliert werden.^^^ Dazu werden anhand der in der Studie beriicksichtigten Merkmale und Merkmalsauspragungen Gesamtnutzenwerte fiir eine oder mehrere verschie-
Vgl. Voeth, M. (2000), S. 83. Vgl. Brzoska, L. (2003), S. 216. In diesem Zusammenhang ist darauf hinzuweisen, dass es bereits bei der TCA aufgnind der Reduzierung des Designs zu Inkonsistenzen bei der Praferenzschatzung kommen kann. Die Reduzierung des Designs verringert zwar den Bewertungsaufwand durch die Auskunftsperson, fuhrt aber zugleich zu Informationsverlusten. Bei der LCA treten neben die Informationsverluste hinsichtlich der Praferenzschatzung noch Informationsverluste hinsichtlich der Bestimmung der kaufrelevanten Produktaltemativen aufgrund der Reduzierung des vollstandigen Designs. Selbst bei konsistenter Limit-Card-Positionierung im reduzierten Design konnen im Vergleich zum vollstandigen Design Falle auftreten, in denen irrtiimlich fiir einige Produktaltemativen Kaufbereitschaft bzw. keine Kaufbereitschaft ermittelt wird, vgl. Stadie, E. (1998), S. 71; Brzoska, L. (2003), S. 113f Diese Problematik ist auf die Pramisse gleicher Rangabstande zuriickzufiihren. Derartige Limit-Card-Positionierungseffekte sind jedoch zu vermeiden, wenn die Ermittlung unterschiedlicher Rangabstande bspw. durch die Verwendung des Rating-Verfahrens ermoglicht wird, vgl. Voeth, M. (2000), S. 91. Die Ausfiihrungen von Stadie, der eine „leichte Uberschatzung des Marktpotenzials" durch die LCA herleitet, sind damit eine einseitige Betrachtung der erlauterten Problematik, vgl. Stadie, E. (1998), S. 71. Es muss abgeschatzt werden, inwieweit die beiden Fehlerarten sich gegenseitig zu kompensieren vermogen. Nach Durchfiihrung der Befragung konnen beispielsweise die Positionen der Limit-Card analysiert werden. AuBerdem besteht die Moglichkeit, zu untersuchen, ob es sich bei den Stimuli des reduzierten Designs fiir die Probanden, die die Limit-Card vor dem besten oder nach dem schlechtesten Stimulus des reduzierten Designs platziert haben, zugleich um die aus Sicht des urteilenden Individuums schlechteste bzw. beste Kombination der Merkmalsauspragungen handelt. Im Rahmen der Konzeption der Studie kann bei relativ gut abschatzbarer Vorziehenswiirdigkeit versucht werden, bewusst die Kombinationen bestehend aus den tendenziell besten und den tendenziell schlechtesten Merkmalsauspragungen im reduzierten Design zu erfassen. Eine weitere Alternative, um die dargestellte Problematik beim Ranking-Verfahren abzuschwachen, ist die Aufnahme einer Zusatzfrage iiber die prinzipielle Kaufbereitschaft fiir Produkte der betrachteten Kategorie. Vgl. Backhaus, K./Voeth, M. (2003), S. 9ff Allerdings muss hier abgewagt werden, ob die formal exaktere Formulierung durch die hohere kognitive Belastung, die das Rating-Verfahren fiir die Auskunftspersonen aufgrund der zusatzlichen Angabe von Punktwerten fiir jede Produktalternative darstellt, nicht sogar iiberkompensiert wird. Vgl. Brzoska, L. (2003), S. 114.
65
dene Produktaltemativen berechnet.^^^ Die Trennung von kaufenswerten und nicht kaufenswerten Produktaltemativen mit Hilfe der Limit-Card ist prinzipiell noch keine Kaufabsichtserklarung, es handelt sich vielmehr um eine Eingrenzung der relevanten Altemativen durch die Auskunftsperson.^^^ Weisen mehrere simulierte Produktaltemativen einen positiven Gesamtnutzenwert auf, ist analog zu den in Abschnitt 3.1.2.3 vorgestellten Simulationsregeln die Auswahlentscheidung zu modellieren, wobei die Existenz nicht kaufenswerter Produktalternativen zu beriicksichtigen ist, was gleichzeitig eine Modifikation der Simulationsregeln zur Folge hat.^^^ Modiflzierte First-Choice-Regel der LCA: , . , j l , falls U„V=max^^,,...,U„\,...,U„^}AU:;,.> P"^'^>'"10, sonst
^^^^
mit: p[;(k'):Wahrscheinlichkeit, dass Auskunftsperson n die Alternative k' wahlt, U^:
berechneter Limit-Gesamtnutzen des Produktes k fur Auskunftsperson n,
Weisen mehrere Simulationsprodukte denselben maximalen positiven Gesamtnutzenwert auf, wird Indifferenz der Auskunftsperson beziiglich seiner Kaufabsichten angenommen und den Altemativen die gleiche Kaufwahrscheinlichkeit zugewiesen. Die Kaufwahrscheinlichkeit muss in diesem Fall korrigiert werden und berechnet sich als reziproker Wert der Anzahl der simulierten Produktaltemativen, fur die der gleiche maximal-positive Teilnutzenwert berechnet wird.^^^ Erst durch die Schaffiing eines Nutzennullpunktes und die damit verbundene Anhebung des Skaliemngsniveaus werden die Pramissen der BTL-Regel, die verhaltnisskalierte Daten voraussetzt, erfiillt, und es konnen im Gegensatz zur TCA aussagekraftige Ergebnisse fur Marktsimulationen erwartet werden. Analog zur First-Choice-Regel ist die BTL-Regel dahingehend zu modifizieren, dass nur Stimuli mit positivem Gesamtnutzenwert Beriicksichtigung fmden.
Diese Produktaltemativen konnen, miissen jedoch nicht im reduzierten Design enthalten sein. Ziel bei der Auswahl der zu simulierenden Produktaltemativen ist es, die Wettbewerbsverhaltnisse moglichst realitatsnah abzubilden. Dabei sind sowohl das eigene Angebot als auch die moglichen tatsachlichen oder potenziellen Angebote der Konkurrenz zu beriicksichtigen. Vgl, Voeth, M. (2000), S. 81. Nur wenn fiir genau eine der simulierten Altemativen ein positiver Gesamtnutzenwert berechnet wird, kann im Rahmen der Marktsimulation die entsprechende Auskunftsperson unmittelbar als Kaufer des entsprechenden Produktes gewertet werden. Vgl. Voeth, M./Hahn, C. (1998), S. 126. Vgl. Brzoska, L. (2003), S. 115 (FuBnote). Vor diesem Hintergrund wird deutlich, weshalb an dieser Stelle eine probabilistische Darstellung der modifizierten First-Choice-Regel verwendet wird, obwohl es sich auf den ersten Blick um eine rein deterministische Simulationsregel handelt.
66
Modifizierte BTL-Regel der LCA^^^ fjL
^T
nk' k=l
P^(kOH 0
fiirUL ,<0 nk
(17)
mit:
[l 2 =J ' 0
fiirUL >0 nk furUL^<0
Dabei kommt Zk die Rolle einer Dummy-Variablen zu, die bei positivem Gesamtnutzenwert fiir eine simulierte Produktaltemative einen Wert von 1, ansonsten einen Wert von 0 annimmt. Backhaus/Hahn/Voeth sprechen sich fur die Verwendung der modifizierten BTL-Regel aus, da die Verwendung der deterministischen First-Choice-Regel der grundlegenden Idee der LCA widersprache, da die Auskunftsperson durch die Positionierung der Limit-Card Kaufbereitschaft bzw. Kaufabsicht signalisieren kann.^^^ Der Einsatz einer probabilistischen Transformationsregel weist sich aber insofem als problematisch, als die Trennung der kaufenswerten und nicht kaufenswerten Stimuli rein deterministisch erfolgt.^^^ So propagieren Backhaus/Voeth aufgrund von Gesichtspunkten der modelltheoretischen Koharenz den Einsatz der modifizierten First-Choice-Regel.^^^ Gerade in den Fallen, in denen die reale Kaufentscheidung durch eine starke kognitive Beteiligung gepragt ist, also in erster Linie bei tendenziell extensiven Kaufentscheidungen, ist die Anwendung einer probabilistischen Transformationsregel kaum zu rechtfertigen.^^"^ Die Kritik am Einsatz einer deterministischen Transformationsregel ist vor diesem Hintergrund zu relativieren. Die LCA schafft auch bei Verwendung einer deterministischen Transformationsregel einen eindeutigen Informationsgewinn.^^^ Bei negativen Gesamtnutzenwerten aller Simulationsprodukte kann die Auskunftsperson im Gegensatz zur TCA eindeutig als Nicht-Kaufer interpretiert werden, was eine Verringerung des Potentials des simulierten Marktes bedeuten wiir-
Vgl. Backhaus, K./Voeth, M./Hahn, C. (1998), S. 22. Vgl. Backhaus, K./Voeth, M./Hahn, C. (1998), S. 21f. Vgl. Voeth, M. (2000), S. 89. Vgl. Backhaus, K./Voeth, M. (2003), S. 13f. Vgl. zu der Klassifizierung von Kaufentscheidungen Abschnitt 2.2.3. Vgl. Backhaus, K./Voeth, M. (2003), S. 14.
67
de.^^^ Fur den Fall, dass nur eine Alternative einen positiven Gesamtnutzenwert verzeichnet, fuhren modifizierte First-Choice-Regel und BTL-Regel zu demselben Ergebnis. 3.2.3 Beurteilung der Gute der Ergebnisse Es wird deutlich, dass der Einsatz der LCA grundsatzlich an ahnliche Einsatzvoraussetzungen gekniipft ist wie die TCA, so dass die GutemaBe analog - unter Verwendung der transformierten Nutzenwerte - berechnet werden konnen. AUerdings kommt einer konsistenten Positionierung der Limit-Card durch die Auskunftspersonen eine besondere Bedeutung zuP^ Gegebenenfalls ist die Positionierung der Limit-Card einer naheren Untersuchung zu unterziehen, um eventuelle Verzerrungen der Ergebnisse beurteilen zu konnen.^^^ AUerdings ist darauf hinzuweisen, dass entgegen der TCA eine korrekte Beriicksichtigung der Kaufbereitschaft und daraus resultierend eine sinnvolle Marktpotential- und Marktanteilsschatzung durch die LCA erst moglich wird und es sich beim Limit-Card-Positionierungseffekt um ein Skalentransformationsproblem handelt, dass durch die Verwendung einer Rating-Skala behoben werden kann.^^^ Die Ausfuhrungen machen deutlich, dass im Rahmen der LCA im Hinblick auf die Konzeption der Untersuchung neben den Entscheidungen des Grundansatzes der TCA noch einige weitere hinsichtlich der Verfahrenserweiterung zu treffen sind, von denen die zu erwartende Qualitat der Ergebnisse abhangen wird. 3.3
Wahlbasierte Verfahrensvarianten
3.3.1 Choice-Based-Conjoint-Analyse (CBCA) Die CBCA ist eine weitere Verfahrensvariante zur Messung von Praferenzstrukturen, die ebenso wie die LCA grundsatzlich durch im Modell enthaltene Auswahlentscheidungen der Probanden gekennzeichnet ist und damit eine Unterscheidung von Kaufer- und Nicht-KauferAnteilen erlaubt. Sie geht insbesondere auf eine Arbeit von Louviere/Woodworth aus dem Jahre 1983 zuruck,^"^^ hat aber vor allem in den vergangenen Jahren zunehmend an Bedeutung gewonnen^"^^ und dient ihrerseits als Ausgangspunkt fiir Verfahrensvarianten, die auf einer Kombination mit verschiedenen statistischen Ansatzen basieren.^^^ Im Gegensatz zur LCA handelt es sich bei der CBCA nicht um eine direkte Weiterentwicklung der TCA. Vielmehr wurde hier der Discrete-Choice-Ansatz,^"^^ der zuvor zur Analyse von tatsachlichen Kaufentscheidungen verwendet wurde, auf die experimentelle Anordnung 336
Vgl. Brzoska, L (2003), S. 116.
337
Vgl. Voeth, M. (2000), S. 90f.
338
Vgl. Brzoska, L. (2003), S. 116f.
339
Vgl. Voeth, M. (2000), S. 91. Selbst bei starken Verzerrungen durch so genannte Limit-CardPositionierungseffekte bei der Verwendung des Ranking-Ansatzes kann mit den Ergebnissen der LCA eine einfache Praferenzanalyse analog zur TCA vorgenommen werden. Vgl. Louviere, J.J./Woodworth, G.G. (1983), S. 350ff Vgl. Chakraborty, Get al. (2002), S. 238, Cohen, S.H. (1997), S. 12; Carroll, J.D./Green, P.E. (1995), S. 386; Erdem, T./Winer, R.S. (2002), S. 157ff. Vgl. Teichert, T. (2001a), S. 172. Vgl. bspw. McFadden, D. (1981), S. 198ff.
68
der Conjoint-Analyse bezogen.^'^ Die Zusammenftihrung der beiden Ansatze bringt einige Vorteile mit sich, da bspw. der Kontext im Rahmen hypothetischer Wahlentscheidungen praziser spezifiziert werden kann, so dass Zusammenhange besser identifiziert und Akzeptanztests auch fiir noch nicht am Markt befindliche Produkte durchgefiihrt werden konnen.^"^^ Ein Hauptunterschied zwischen der TCA und der CBCA besteht darin, dass bei der CBCA aus dem vollstandigen Design bestimmte Teilmengen an Stimuli (sog. „Choice-Sets") gebildet werden, aus denen der Proband jeweils einen Stimulus auswahlt bzw. auBert, dass er keine der angebotenen Produktaltemativen zu kaufen bereit ist.^"*^ Die GroBe der Choice-Sets, d.h. die Anzahl der im Rahmen des Experimentes zugleich prasentierten Altemativen, sollte der GroBe des Evoked-Sets, die sich aus den bei realen Kaufentscheidungen berucksichtigten Altemativen zusammensetzen,"''^^ entsprechen.^'^^ Die Vorteilhaftigkeit dieses Ansatzes besteht vor allem darin, dass er realen Kaufentscheidungssituationen im Gegensatz zum bei der Conjoint-Analyse iiblichen Ranking-ZRating-Verfahren starker ahnelt.^"^^ Durch die Beriicksichtigung einer Nicht-Kauf-Option handelt es sich zudem um ein auswahlbasiertes Verfahren. Der Mangel der TCA, die von der Pramisse ausgeht, dass jeder Proband mindestens eines der Produkte kauft, entfallt hier. AuBerdem kann die CBCA neben den Haupteffekten im Grundmodell auch Nebeneffekte, d.h. Interaktionen zwischen einzelnen Merkmalsauspragungen, messen und altemativenspezifische Merkmalsauspragungen defmieren. Dies ermoglicht prinzipiell ein wesentlich breiteres Einsatzgebiet und eine flexiblere Handhabung.^^^ SchlieBlich beinhaltet die CBCA im Gegensatz zur TCA, die auf einem vollstandig deterministischen Grundmodell und damit auf der Annahme basiert, dass sich die Beurteilungen der Probanden ausschlieBlich mit Hilfe der Auspragungen der Beschreibungsmerkmale der Objekte erklaren lassen, nicht nur eine deterministische, sondem zudem auch eine probabilistische Nutzenkomponente.^^^ Dadurch konnen nicht-systematische Fehler im Beurteilungsprozess und nicht-systematische Faktoren, die nicht direkt durch die im Modell defmierten Einflussfaktoren abgebildet werden, Beriicksichtigung fmden.^^^
344 345
347 348 349
Vgl. Cohen, S.H. (1997), S. 12; Green, P.E./Krieger, AM/Wind, Y.J. (2001), S. S66. Vgl. McFadden, D. (2001a), S. 373. AuBerdem ist im Rahmen der wahlbasierten Conjoint-Ansatze im Gegensatz zur LCA (TCA) keine ad hoc Transformation der geschatzten Nutzenwerte zur Vorhersage von Kaufentscheidungen notig, vgl. Kaciak, E./Louviere, J.J. (1990), S. 455. Vgl. Ben-Akiva, M./Boccara, N. (1995), S. 9. Vgl. Parkinson, T.L./Reilly, M. (1979), S. 227ff Vgl. Batsell, R.R./Louviere, J.J (1991), S. 205. Vgl. Elrod, T./Louviere, JJ/Davey, K.S. (1992), S. 368. Vgl.//a/2«, C. (1997),S. 125ff Vgl. Voeth, M. (2000), S. 93. Vgl. Hahn, C. (1997), S. 83ff Je nach zugrunde liegender Definition des Begriffes der Conjoint-Analyse kann argumentiert werden, ob die CBCA den conjoint-analytischen Ansatzen zuzuordnen ist, vgl. Balderjahn, I. (1993), S. 117ff.; Hahn, C. (1997), S. 83ff Teilweise wird zumindest ordinales Skalenniveau bei der Datenerhebung gefordert, wahrend die CBCA nominalskalierte Daten verwendet. Andere Autoren werfen ein, dass die CBCA keine Individualanalyse darstellt bzw. der teils probabilistische Ansatz dem
69
3.3.1.1 Grundzuge der Discrete-Choice Analyse als Ausgangspunkt der Choice-BasedConjoint-Analyse Die Discrete-Choice Analyse ist ursprunglich ein okonometrisches Modell, das auf die Arbeiten von Quandt, Theil und insbesondere McFadden zuriickgeht.^^^ Spater wird das Verfahren im Rahmen der Marketing-Forschung aufgegriffen und auf Marketing-Fragestellungen angewendet,^^"^ wobei die Studien im Marketing-Bereich anfangs ebenso wie bei nationalokonomischen Anwendungen auf bekundeten Praferenzen beruhen, hier insbesondere auf Scanner-Daten.^^^ Eine umfassendere marketingtheoretische Behandlung in der deutschsprachigen Marketing-Literatur erfolgt aber erst spater in den Arbeiten von Balderjahn und Hahn?^^ Balderjahn verwendet das Discrete-Choice-Modell als Kemelement eines theoretisch und methodisch geschlossenen Konzepts zur Analyse von Marktreaktionen der Konsumenten. Das Discrete-Choice-Modell beschreibt allgemein Entscheidungen von Entscheidungstragem wie bspw. Personen, Haushalten oder Untemehmen zwischen verschiedenen Altemativen, die konkurrierende Produkte, Dienstleistungen, Handlungsoptionen oder aber jede andere Art von Optionen darstellen konnen, iiber die Entscheidungen zu treffen sind.^^^ Die Altemativen, zwischen denen der Entscheidungstrager bei einer Entscheidung wahlen muss, werden als Choice-Set bezeichnet.^^^ Discrete-Choice-Modelle werden in der Regel unter der Annahme der Nutzenmaximierung seitens des Entscheidungstragers abgeleitet. Marschak interpretiert die Bewertung der Stimuli als probabilistische Nutzenwerte und entwickelt so Zufallsnutzenmodelle, bzw. das Random Utility Model (RUM), aus der Nutzenmaximierung.^^^
Grundgedanken der Conjoint-Analyse widerspricht. Vgl. Balderjahn, I. (1991), S. 34; Weiber, R./Rosendahl, T. (1997), S. 109; Zwerina, K. (1997), S. 25; Stadie, E. (1998), S. 59. Dieser Arbeit liegt eine weit gefasste Begriffsdefinition zugrunde, so dass die CBCA zu den conjoint-analytischen Verfahrensvarianten zu rechnen ist. Vgl. zu der dieser Arbeit zugrunde liegenden Definition der Conjoint-Analyse Abschnitt 3.1.1. ^" Vgl. Quandt, R.E. (1968), S. 41ff.; Theil, H. (1970), S. 103ff; McFadden, D. (1974), S. 105ff.; McFadden, D. (1980), S. S13ff.; McFadden, D. (1981), S. 198ff. ^^^ Vgl. Balderjahn, I. (1993), S. 117. ^^^ V%\.McFadden,
D.{\9U),S.215.
^^^ Vgl. Balderjahn, I. (1993); Hahn, C. (1997). ^^^ Vgl. Train, K. (2003), S. 15. ^^^ Vgl. zum Begriff des Choice-Sets und seiner Abgrenzung zu verwandten Begriffen vor dem Hintergrund des Kontext Shocker, A.D.et al. (1991), S. 181ff. Vgl. zum Begriff des Evoked-Sets Bliemel, F./Laroche, M. (1985), Howard, J.A./Sheth, J.N. (1969), S. 26; Narayana, C.L/Markin, R.J. (1975), S. Iff.; Parkinson, TL./Reilly, M. (1979), S. 227. Vgl. zu Vereinfachungsstrategien hinsichtlich des Evoked Set Brisoux, J.E./Laroche, M. (1980), S. 122ff. Selten umfasst ein individuelles Alternativen-Set mehr als sieben Marken, haufig sogar nur zwei, vgl. Kroeber-Riel, W. (1990), S. 412. ^^^ Vgl. Marschak, J. (1960), S. 312ff. Allerdings ist es wichtig anzumerken, dass Modelle, die von der Nutzenmaximierung abgeleitet wurden, auch zur Erklarung von Entscheidungen verwendet werden, die den Nutzen nicht maximieren. Die Ableitung stellt eine Konsistenz des Modells mit dem Prinzip der Nutzenmaximierung sicher, schlieBt aber nicht aus, dass das Modell mit anderen Formen der Erklarung von Verhalten konsistent ist. Vgl. Train, K. (2003), S. 18.
70
3.3.1.2 Ableitung von Auswahlwahrscheinlichkeiten im Zufallsnutzenmodell Zufallsnutzenmodelle werden abgeleitet, indem eine Situation defmiert wird, bei der jeder Entscheidungstrager n eine Auswahlentscheidung aus K Altemativen treffen muss. Femer wird unterstellt, dass jede Alternative k fiir den einzelnen Entscheidungstrager n einen bestimmten Nutzen generiert. Der Nutzen, den Proband n durch die Wahl der jeweiligen Alternative k erfahrt, wird mit Unk (k = 1,..., K) bezeichnet.^^^ Der Entscheidungstrager wahlt der Zufallsnutzentheorie zufolge die Alternative, die ihm den groBten Nutzen verspricht. Damit kann das Verhaltensmodell dargestellt werden als: Wahle die Alternative k genau dann, wenn Unk > Uni V 19^ k gilt."'^' Wahrend der Auskunftsperson der Nutzen zumindest implizit bekannt ist, kennt ihn der Forscher nicht.^^^ Er beobachtet nicht den Nutzen, den eine Alternative stiftet, sondem lediglich eine zuvor definierte Anzahl an Merkmalen der Alternative, die als Xk bezeichnet werden, und die Eigenschaften Sn der Auskunftsperson n sowie die Wahlentscheidung. Daruber hinaus ist er in der Lage, eine Funktion zu spezifizieren, die den Zusammenhang zwischen diesen Merkmalen und dem Nutzen herstellt. Diese Art von Nutzenfunktion kann formal als Vnk = V(Xk, Sn) V n, k dargestellt werden.^^^ Da es Nutzenaspekte gibt, die der Forscher nicht wahminmit bzw. nicht wahmehmen kann, ist Vnk T^ Unk-^^ Der Nutzen setzt sich demzufolge zusammen aus Unk = Vnk + Snk, wobei 5nk die nutzenbeeinflussenden Faktoren abbildet, die nicht in Vnk enthalten sind.^^^ Dieser Aufspaltung liegen (noch) keine Uberlegungen zu den inhaltlichen Dimensionen des nicht in der Nutzenfunktion Vnk abgebildeten Nutzens zugrunde, da 5nk einfach als die Differenz zwischen dem wahren Nutzen Unk und dem in der Nutzenfunktion abgebildeten Vnk defmiert wird. Allerdings wird deutlich, dass die Charakteristika von 8nk davon abhangen, wie der Anwender Vnk spezifiziert hat. Die 8nk werden nicht allgemein fiir die Auswahlsituation defmiert, sondem vielmehr fiir ihre vorliegende situationsspezifische Konkretisierung durch den Anwender. ^^^ Inhaltlich ist 5nk eine probabilistische Funktion der Vektoren der nicht-beobachteten Eigenschaften Xnk* der Altemative k, der nicht-beobachteten Personlichkeitsmerkmale Sn*, der Auskunftsperson n und der Messfehler Snk bei der Bewertung der Produktaltemative k durch Pro-
Vgl. zur funktionalen Darstellung der Zufallsnutzentheorie Ben-Akiva, M./Lerman, S.R. (1985), S. 55ff; Hahn, C. (1997), S. 86ff.; Train, K. (2003), S. 18ff. Vgl. Manski, C.F. {1917), S. 232. Vgl. Train, K. (2003), S. 19. Im Englischen wird die Funktion des vom Forscher wahrgenommenen Nutzens haufig als representative value bezeichnet. "The Modeler cannot observe and measure all factors that determine consumer preferences for different options (lack of information^, Zwerina, K. (1997), S. 25. Vgl. Borsch-Supan, A. (1987), S. 13f. Vgl. Train, K. (2003), S. 19.
71
band n. Vor diesem Hintergrund kann die Nutzenfunktion Unk formal dargestellt werden als:^^^ Unk= Unk(Xnk, Sn, Xnk*, Sn*, 8nk)
(18)
bzw. bei Aufspaltung in eine detemiinistische und eine probabilistische Komponente:^^^ Unk=Unk(Vnk,8nk).
(19)
Da die verschiedenen 5nk V n,k nicht direkt durch die Untersuchung bestimmt werden konnen, werden fiir diese Terme Zufallsverteilungen angenommen.^^^ Die gemeinsame Dichteflinktion des Zufallsvektors 6n = (8ni,..., 5nK) wird als f(5n) bezeichnet.^^^ Mit dieser Dichte konnen probabilistische Aussagen liber die Wahl der Auskunftsperson getroffen werden. Im Folgenden soil dariiber hinaus beriicksichtigt werden, dass die Auskunftsperson im Rahmen des realen Entscheidungsfmdungsprozesses nur eine Teilmenge aller moglichen Altemativen, das Choice-Set Ck, bewertet. Die Wahrscheinlichkeit, dass Auskunftsperson n die Alternative k wahlt, ist:^^^ Pn(k')=p(U„,.>U„,VkVk;k,k'ECj = p(v„.. + 6„,.>V„,+5„,VkVk) = p(S„k-5„..
(20)
Diese Wahrscheinlichkeit stellt eine kumulative Wahrscheinlichkeit dafiir dar, dass die Differenz aller Zufallsterme 8nk - Snk- geringer ist als die Differenzen der zugehorigen beobachteten Nutzenwerte Vnk' - Vnk. Es wird deutlich, dass bei dem Discrete-Choice-Ansatz nur der Nutzenunterschied, nicht aber die absolute Hohe des Nutzens von Bedeutung ist.^^^ Die Erkenntnis, dass pn(k') lediglich von Nutzendifferenzen abhangt, hat zahlreiche Auswirkungen auf die Auswahl und Ausgestaltung von Discrete-Choice-Modellen. Prinzipiell gilt, dass nur solche Parameter geschatzt werden konnen, die Unterschiede zwischen Altemativen erfassen. Unter Verwendung der gemeinsamen Dichtefunktion f(5n) fiir alle 8nk kann die kumulative Wahrscheinlichkeit geschrieben werden als:^^^
V g l . / / a M C ( 1 9 9 7 ) , S.93. Vgl. McFadden, D. (1974), S. 108; Dube, J.-P.et al (2002), S. 211. Vgl. Backhaus, K./Voeth, M./Hahn, C. (1998), S. 205. Vgl. Train, K. (2003), S. 19. Vgl. McFadden, D. (1974), S. 102. Wird eine Konstante zu den Nutzenwerten aller Altemativen addiert, andert sich die Alternative mit dem groBten Nutzen nicht. Dieselben Uberlegungen treffen zu, wenn soziodemografische Variablen in das Modell aufgenonmien werden. Alternativenspezifische Merkmale variieren fiir verschiedene Altemativen und generieren bei Relevanz fiir die Auswahlentscheidung unterschiedliche Nutzenwerte. Personenspezifische Merkmale variieren dagegen nicht fiir verschiedene Altemativen. Sie sind nur entscheidungsrelevant und sollten deshalb nur dann in das Modell aufgenommen werden, wenn sie so spezifiziert werden konnen, dass sie unterschiedliche Nutzenwerte fiir verschiedene Altemativen generieren. Vgl. Train, K. (2003), S. 19.
72
P„(k')=p(5„..-8„,i5„
^^'^
wobei I() eine Indikatorfunktiondarstellt, die den Wert 1 annimmt, falls der Ausdruck iiinerhalb der Klammer wahr ist, und den Wert 0, falls dieser Ausdruck falsch ist. Es handelt sich dabei um ein mehrdimensionales Integral iiber die Dichte des nicht-beobachteten Nutzenanteils f(8n). Es existieren mehrere Discrete-Choice Modelle, die sich durch verschiedene Spezifikationen der Dichte, d.h. durch unterschiedliche Annahmen iiber die Verteilung des nichtbeobachteten Nutzenanteils, unterscheiden.^^"* Das Integral nimmt nur fiir bestimmte Ausgestaltungsformen von f(-), bspw. fur das Logit- und das Nested-Logit-Modclh ^^^ eine geschlossene Form an, so dass es mit der klassischen Integralrechnung gelost werden kann.^^^ 3.3.1.3 Ubersicht iiber die Grundannahmen verschiedener Discrete-Choice-Modelle Die verschiedenen Discrete-Choice-Ansatze modellieren in unterschiedlicher Art und Weise die Verteilung fiir die unbeobachtete Nutzenkomponente. Abbildung 16 gibt einen Uberblick iiber ausgewahlte Discrete-Choice Modelle und die ihnen zugrunde liegenden Annahmen.^^^ Neben den in Abbildung 16 dargestellten Modellen existieren noch weitere Discrete-ChoiceModelle, die in der Regel vom Anwender situationsspezifisch modelliert werden. Haufig sind die Modelle eine Kombination von anderen Modellen, wie z.B. das Mixed-Probit-ModeW, das ahnlich wie das Mixed-Logit-ModtW den unbeobachteten Faktor in zwei Telle zerlegt, aber fiir den zweiten Teil statt einer Extremwertverteilung eine Normalverteilung verwendet. Das Mixed-Probit-ModtW kann genauso allgemein verwendet werden wie das Mixed-Logit-ModiQ\\, ist aber in bestimmten Situationen einfacher zu schatzen.
VgL/Za/iAi, C (1997),S. lOlf. Vgl. zu den Verfahren Moore, W.L/Pessemier, E.A./Lehmann, D.R. (1986), S. 371ff.; McFadden, D. (1981), S. 198ff.; Buckley, P.G. (1988), S. 133.; Lahiri, K./Gao, J. (2002), S. 103ff.; Poirier, D.J. (1996), S. 163ff. Vgl. Train. K. (2003), S. 20. Vgl. fur die Einteilung und auch die einzelnen Modelle Train, K. (2003), S. 2Iff. und die jeweiligen Kapitel. Dariiber hinaus konnen Entscheidungsmodelle dahingehend klassifiziert werden, ob die Auswahlentscheidungen binarer oder polytomer Natur sind, d.h. ob die Nachfrager aus nur zwei oder mehr als zwei Entscheidungsaltemativen auswahlen, vgl. Hahn, C. (1997), S. 101.
73
Modell
Annahmen und Anmerkungen
Logit-Modelle^^^
6nk ist iid-extremwertverteilt fiir alle k Kritisch ist die Annahme, dass die beobachteten Faktoren unabhangig in Bezug auf die verschiedenen Altemativen sind und dieselben Varianzen fiir alle Alternativen aufweisen.
GEV-Modelle'''
Verallgemeinerung der Extremwertverteilungsannahme des Logit-Modells
(General extreme
Das generalisierte Modell kann verschiedene Formen annehmen, denen gemeinsam ist,
value Model)
dass eine Korrelation zwischen den nicht-beobachteten Faktoren iiber verschiedene Alternativen abgebildet werden kann. Wenn die Korrelationen gleich 0 sind, entspricht das GEV-Modell dem Logit-Modell. Die einfachste Form unterteilt die Alternativen in verschiedene Gruppen {nests), wobei die nicht-beobachteten Faktoren dieselbe Korrelation fiir alle Alternativen innerhalb einer Gruppe haben und keine Korrelation zwischen Gruppen aufweisen. ^^°
Probit-Modelle"'
(K Die 6nk unterliegen einer gemeinsamen Normalverteilung 5
=
'Normai(0,r)
Bei vollstandiger Kovarianz-Matrix F kann jedes Korrelationsmuster und Heteroskedastizitat abgebildet werden. Die einzige funktionale Grenze des Probit-Modells ist seine Beschrankung auf die Normalverteilung.^^^ Mixed-LogitModelle^^^
Die 5nk konnen jede beliebige Verteilung annehmen. Die nicht-beobachtete Komponente wird zerlegt in einen Teil, der alle Korrelationen und Heteroskedastizitat enthalt, und einen Teil, der iid-extremwertverteilt ist. Der erste Teil kann jede Verteilung abbilden, was insgesamt dazu fuhrt, dass Mixed-Logit-Modelle jedes Discrete-Choice-Modell approximieren konnen und der Ansatz damit allgemeinen Charakter hat.
Abbildung 16: Uberblick iiber verschiedene Discrete-Choice-Modelle 3.3.1.4 Logit-Modell Das Logit-Modell ist das einfachste Discrete-Choice-Modell und hat die groBte Verbreitung erzielt, was damit zu erklaren ist, dass es mathematisch relativ einfach zu handhaben ist,^^"* da die Berechnungen in einer Formel geschlossener Form vorgenommen werden konnen, d.h. ohne Riickgriff auf simulative Ansatze.
Vgl.Abschnitt 3.3.1.4. Vgl. McFadden, D. (1978), S. 75ff.; McFadden, D. (2001b), S. 46f. Vgl. Urban, D. (1993), S. 140. Das Nested-Logit-Modell dient insbesondere dazu, die IIA-Annahme zu umgehen, indem bspw. die Nicht-Kauf-Alternative eine eigene Gruppe darstellt. Vgl. Ben-Akiva. M./Lerman, S.R. (1985), S. 128. In einigen Situationen sind die unabhangigen Faktoren nicht normalverteilt. Bspw. ist die Zahlungsbereitschaft fiir eine wiinschenswerte Produkteigenschaft grundsatzlich positiv, wahrend die Dichtefunktion der Normalverteilung Werte auf ganz R verteilt ist. Das Mixed-Multinominal-Logit-Modell wurde von Cardell/Dunbar eingefiihrt, vgl. Cardell, S./Dunbar, F. (1980), S. 423; Huber, J./Train, K. (2000), S. Iff. Vgl. bspw. Huber, F/Herrmann, A./Gustafsson, A. (2001), S. El; Zwerina, K. (1997), S. 39; Balderjahn, I. (1994), S. 13; Malhotra, N.K. (1984), S. 20; Gensch, D.H./Recker, W.W. (1979), S. 124.
74
Die Logit-Formel wurde in seiner urspriinglichen Fassung ausgehend von Annahmen tiber Charakteristika von Auswahlwahrscheinlichkeiten, und zwar iiber die IIA-Eigenschaft, entwickelt.^^^ Die IIA-Eigenschaft {Independence of Irrelevant Alternatives) besagt, dass das Verhaltnis der Auswahlwahrscheinlichkeit zweier Produkte durch die Hinzunahme einer weiteren Alternative nicht verandert wird.^^^ Aufgrund der IIA-Eigenschaft ist die Grundform des Logit-Modells beschrankt auf die Entscheidung zwischen „wirklichen" Altemativen, d.h. Alternativen, die sich in Hinblick auf ihre relevanten Merkmalsauspragungen deuthch wahmehmbar unterscheiden.^^^ Die Verbindung zwischen Logit-Formel und der Verteilung des nichtbeobachteten Nutzens wurde von Marley entwickelt, der zeigte, dass die Extremwertverteilung zur Logit-Formel fiihrt.^^^ McFadden komplettierte die Entwicklung, indem er im Umkehrschuss bewies, dass die Logit-Formel notwendigerweise eine Extremwertverteilung der probabilistischen Nutzenkomponente erfordert.^^^ Das Logit-Modell kann ausgehend von der bereits zuvor defmierten Entscheidungssituation abgeleitet werden.^^ Die Auskunftsperson n ist mit K Altemativen konfrontiert. Der Nutzen wird in eine beobachtete (deterministische) Komponente Vnk und in eine nicht-beobachtete Komponente 5nk unterteilt, die eine Zufallsvariable darstellt. Das Logit-Modell basiert auf der Pramisse, dass die 5nk unabhangig und identisch extremwertverteilt sind.^^^ 5nk besitzt die durch f^-(x)=e-'^e-^'^
(22)
defmierte Dichte^^^ sowie die durch F^-*(x)=e-'"'
(23)
defmierte Verteilungsfunktion.^^^ Der Mittelwert der Extremwertverteilung ist von 0 verschieden. Allerdings ist sein Wert fiir die folgende Betrachtung nicht von Bedeutung, da nur Nutzenunterschiede relevant sind, wo-
Vg\. Luce, R.D. {\959). Vgl. Green, P.E./Srinivasan, V. (1978), S. 113; Buckley, P.G. (1988), S. 135. Der Begriff hat sich so in der Literatur durchgesetzt ist aber irrefuhrend, weshalb Block/Marschak vorschlagen, von „Irrelevance of Added Alternatives" zu sprechen, vgl. Block, H.D./Marschak, J. (1960), S. 100. Vgl. Batsell, R.R. (1982), S. 244 zu Restriktionen aufgrund der IIA-Eigenschaft. Allerdings relativiert Batsell selbst einige Seiten spater auf Grundlage einiger empirischer Studien: „the similarity problem operates in the margin", Batsell, R.R. (1982), S. 253. Vgl. Luce, R.D./Suppes, P. (1965), S. 249ff. Vgl. McFadden, D. (1974), S. 105ff. Vgl. Abschnitt 3.3.1.1. Die Verteilung wird auch als iid-, Gumbel- oder Extremwertverteilung vom Typ I bezeichnet. Einige Autoren bezeichnen sie auch als Weibull-\erteWung, vgl. bspw. Herrmann, A. (1992), S.141, Frantzke, A. (1989), S. 60. Dies ist jedoch noch korrekt, denn die Weibull-Verteilung ist eine speziellere Form, die sich fiir bestimmte Spezifikationen ihrer Parameter auch als Gumbel-Verteilung oder Extremwertverteilung vom Typ 1 darstellen lasst, vgl. Hahn, C. (1997), S. 113 (FN284). Vgl. Domencich, T./McFadden, D. (1975), S. llff. Vgl. Johnson, N.L./Kotz, S. (1970), S. 272.
75
bei die Differenz des Erwartungswertes zweier Zufallstermen, die denselben Mittelwert haben, 0 ist.^^"^ Die Differenz zwischen zwei extremwertverteilten Zufallsvariablen ist logistisch verteilt.^^^ Falls 6nk und 6nk' iid-extremwertverteilt sind, besitzt 6*^^. = 5„^ - S^^. die durch
^ ^ l + e'' definierte Verteilungsfunktion.^^^ Empirisch ist der Unterschied zwischen extremwertverteilten und unabhangig normalverteilten Fehlertermen kaum feststellbar.^^^ Die wichtigste Eigenschaft der Extremwertverteilung ist auch nicht die konkrete Form, sondem die Unabhangigkeit der Fehler. Unabhangigkeit bedeutet hier, dass der probabilistische Nutzenanteil der einen Alternative unabhangig von den probabilistischen Nutzenkomponenten der anderen Altemativen ist.^^^ Einerseits ist die Annahme der Unabhangigkeit eine restriktive Annahme, andererseits kann sie aber auch als das Resultat eines gut spezifizierten Modells interpretiert werden.^^^ Bei Giiltigkeit der Annahme liefert der Fehler einer Alternative keine Informationen uber die anderen Altemativen. Ist Vnk hinreichend gut spezifiziert, kann die nicht-beobachtete Komponente als einfaches Rauschen verstanden werden. Der Idealzustand ware erreicht, wenn das Modell so gut spezifiziert ist, dass die Entscheidung, abgesehen von einem Rauschen mit kleiner Varianz, allein auf die im Modell erfassten EinflussgroBen zuruckgefuhrt werden konnte."^^ Die Logit-Auswahlwahrscheinlichkeiten werden nun den Ausfiihrungen von McFadden folgend abgeleitet."^^^ Die Wahrscheinlichkeit, dass die Auskunftsperson n die Alternative k' wahlt, lautet (vgl. Gleichung (20)): Pn (k')= P(V„.. + 6„,. > V„, + 6„,VkV k) = p(S„.-S„K
P„(k15,.)=ne-"~'-
(24)
394
Vgl. Train, K. (2003), S. 39.
395
Ygl Amemiya, T. (1981), S. 1516.
396
Vgl. Anderson, S.P. (1992), S. 35; Corstjens, M.L/Gautschi, D.A. (1983), S. 37.
397
Vgl. Hahn, C. (1997), S. 111. Daher macht es Sinn, dass fiir eine Approximation des normalverteilten Pro-
399 400
76
bit-Modells das einfacher zu handhabende Logit-Modell Verwendung findet, vgl. Hahn, C. (1997), S. 11 If. Die Unabhangigkeit der Zufallsnutzen entspricht der IIA-Annahme, vgl. McFadden, D. (1974), S. 105ff. Vgl. Train, K. (2003), S. 39. Vgl. Train, K. (2003), S. 39f. Vgl. McFadden, D. (1974), S. 1 lOff.
Tatsachlich sind die 6nk' jedoch nicht bekannt, und die Auswahlwahrscheinlichkeit ist das Integral von p^k-1 ^n^. tiber alle d^k- gewichtet mit ihrer Dichte:
Pn(k') = jfn^"^'""""1e""d6„,.
(25)
Das Integral kann wie folgt aufgelost und die Gleichung damit vereinfacht werden:"^^^ P„(k')=i^-
X
(26)
gV„k
Es handelt sich dabei um die Logit-Auswahlwahrscheinlichkeit. Fiir die Wahrscheinlichkeit einer reprasentativen Auskunftsperson wird haufig Linearitat der Form Vnk = |3 Xnk in den Parametem angenommen,"^^^ wobei der Vektor Xnk die Alternative k spezifiziert. Mit dieser Pramisse ergibt sich fur die Logit-Auswahlwahrscheinlichkeit: "^ P„(k')=i^^.
(27)
Die Logit-Wahrscheinlichkeiten zeichnen sich durch eine Reihe von wiinschenswerten Eigenschaften aus. pn(k') weist einen monoton steigenden Verlauf auf, d.h., falls bei konstantem Vnk fur alle k' ^^ k Vnk' steigt, nimmt ebenfalls pn(k') zu und nahert sich 1. Dies bedeutet, dass bei einer Verbesserung der Nutzenwerte fiir die Alternative k ihre Auswahlwahrscheinlichkeit steigt. Fiir Vnk' -^ -^ lauft pn(k') gegen 0."^^^ Die zweite Eigenschaft ist, dass sich die Summe der Auswahlwahrscheinlichkeit aller Alternativen zusammen stets auf 1 belauft. Dies bedeutet mit anderen Worten, dass die Auskunftsperson unbedingt eine der ihr angebotenen Altemativen wahlen muss. Der S-formige Verlauf der Beziehung zwischen der unabhangigen Variable und der abhangigen Variable steht nicht fur eine konstante, sondem fiir eine variierende Anderungsrate."^^ Eine durch Modifikation der Produkteigenschaften ausgeloste Veranderung des beobachteten Nutzens resultiert in Abhangigkeit ihrer Starke in unterschiedlichen Veranderungen der aus den Nutzenparametem resultierenden Auswahlwahrscheinlichkeiten.
402
Vgl. McFadden, D. (1974), S. 111.
403
Vgl. Hahn, C. (1997), S. 115 bzw. S. 105. Da jede Funktion unter wenig restriktiven Bedingungen durch eine Funktion, die linear in ihren Parametern ist, beliebig genau approximiert werden kann, ist diese Pramisse als problemlos zu bewerten, vgl. Train, K. (2003), S. 41. Allerdings nimmt Pn(k') niemals einen Wert von genau 0 an. Aus diesem Grund sollte der Forscher eine Alternative aus dem Choice-Set ausschlieBen, wenn klar ist, dass sie unter keinen Umstanden gekauft werden wurde. Vgl.//a/7«,C. (1997), S. 115.
77
3.3.1.5 Schdtzung der Modellparameter Nach der Spezifikation der deterministischen Nutzenfunktion und der Verteilungsfunktion fiir den probabilistischen Nutzenterm ist ein Modell zur Schatzung der Parameter p festzulegen. Liegen diese Werte vor, ist es moglich, die Auswahlwahrscheinlichkeiten pn(k') in Abhangigkeit von den unabhangigen Variablen bzw. den Eigenschaftsmerkmalen der Alternative und sozio-okonomischen Merkmalen der Nachfrager abzubilden. Zur Parameterschatzung kann prinzipiell die Kleinste Quadrate-Schatzung oder das Maximum-Likelihood-Verfahren verwendet werden."^^^ In einem GroBteil der Discrete-ChoiceAnwendungen wird nicht zuletzt aufgrund seiner Implementierung in zahlreichen Softwarepaketen zur statistischen Analyse von Logit-Modellen das Maximum-LikelihoodSchatzverfahren verwendet. Ziel der Maximum-Likelihood-Methode ist es, die Nutzenparameter p so zu schatzen, dass sie die Wahrscheinlichkeit fiir die beobachteten Auswahlentscheidungen maximieren."^^^ Dabei bezeichnet die Variable Ynk' das Anwortverhalten der Auskunftsperson n hinsichtlich der Alternative k und nimmt Werte von 0 bzw. 1 an:
J 1, falls Nachfrager n Alteraative k' wahlt bzw.
^2Q\
10, falls Nachfrager n eine andere Alteraative wahlt.
Das Maximum-Likelihood-Verfahren setzt voraus, dass die einzelnen Beobachtungen der Stichprobe zufallig aus der Grundgesamtheit gezogen werden und voneinander unabhangig sind."^ Die Likelihood-Funktion L(-) ist eine Funktion der im Vektor p zusammengefassten unbekannten Modellparameter, die im Einzelnen fiir die gegebenen Auswahlentscheidungen Ynk' fur alle Probanden n und alle Choice-Sets zu schatzen sind.'^^^ Im einfachen binaren Fall soil die wahre Wahrscheinlichkeit, dass eine Auskunftsperson n das Ereignis Ynk'= 1 realisiert, wiederum als Pn(k'), bezeichnet werden. Die wahre Wahrscheinlichkeit fiir das Ereignis Ynk' = 0 ist entsprechend 1 - pn(k') und die LikelihoodSchatzfunktion"^^^ L(-) in Abhangigkeit der Schatzparameter p kann formal dargestellt werden
Es ist schwer zu beurteilen, wann welches Verfahren besser geeignet ist, zumal Schatzergebnisse haufig keine groBen Unterschiede aufweisen. Die Literatur verweist auf die verwendeten Daten, formuliert aber i.d.R. keine eindeutigen Anwendungsempfehlungen, vgl. z.B. Hartung, J./Elpelt, B. (1999), S. 40ff. Vgl. Tiede, M. (1995), S. 18; Sensch, J. (1987), S. 46. Vgl. Balderjahn, I. (1993), S. 137. Vgl Hahn,C. (1997), S. 121f. Vgl. zur generellen Vorgehensweise beim Ableiten der Likelihood-Funktion aus einer bestimmten Verteilungsform der Stichprobe, Urban, D. (1989), S. 29 ff.; Bamberg, G./Baur, F. (2002), S. 153ff. Vg\. Tiede, M.{\995),S. 19.
78
L(p)=npS(kr-'(i-pS(k')r"
(29)
n=l
Ziel des Maximum-Likelihood-Verfahrens ist es, die Likelihood-Funktion L(-) in Abhangigkeit der Modellparameter p zu maximieren: L(p) ^ max.
(30)
Dazu wird in einem ersten Schritt aus Griinden einer einfacheren Berechnung die LikelihoodFunktion zur Log-Likelihood-Funktion logarithmiert: In L(p)= X Y„,. In p^ (k')+ (1 - Y„,.) ln(l - pj (k'))
(31)
n=l
AnschlieBend wird sie nach den unbekannten Parametem, die indirekt in der Gleichung iiber die Auswahlwahrscheinlichkeit pj(k') = -i^
s— enthalten sind, differenziert und die
partiellen Ableitungen gleich 0 gesetzt. Da das resultierende Gleichungssystem nicht linear in seinen Parametem ist, werden in den meisten Fallen iterative Algorithmen zu dessen Losung eingesetzt."^^^ Eine Anfangskonfiguration von Startwerten wird im Laufe des Iterationsprozesses solange schrittweise (iterativ) verbessert, bis sich die Schatzwerte nicht wesentlich verandem.'*^'^ Da die Log-Likelihood-Funktion unter relativ schwachen Bedingungen globale Konkavitat aufweist,"^^^ konnen Ansatze wie das haufig im Zusanmienhang mit dem Logit-Modell verwendete Newton-Raphson-Schaizwerfahren auf jeden Fall ein globales Maximum finden."^^^ Die mit Hilfe des Maximum-Likelihood-Werfahrcns bestimmten Parameterschatzungen sind unter relativ allgemeinen Bedingungen asymptotisch effizient und normalverteilt."^^^ Die Schatzung der Parameter fur das Multinominale Logit-Modell folgt dem gleichen Prinzip auch fiir den Fall, dass mehr als zwei Auswahlaltemativen betrachtet werden. Fiir die Likelihood-Funktion ergibt sich folgende Modifikation:"^^^
L(p)=iinnpS(kf"-.
(32)
n=l aeAkfeC,
wobei Ca fiir die im jeweiligen Choice-Set vorhandenen Altemativen steht. Die zu maximierende Log-Likelihood-Funktion gestaltet sich unter Verwendung der Beziehung
Vgl. Ben-Akiva, M./Lerman, S.R. (1985), 82; Greene, W.H. (2003), S. 672, die hierzu die Newton-RaphsonMethode vorschlagen. Vgl. Ben-Akiva, M./Lerman, S.R. (1985), S. 118ff.; Greene, W.H. (2003), S. 672. Vgl. Untiedt, G. (1992), S. 67. Vgl. zur generellen Vorgehensweise des Newton-Raphson-Algorithmus auch Toutenburg, H. (1992), 87ff. Vgl. McFadden, D. (1974), S. 119. Vgl. Kuhnel, S.-M. (1993), S. 151.
79
p„(k')=
(33)
1^' k'eC,
i"L0)=nnnY..
Px„,-lnXe^^"^
(34)
n=l aeA k'eCa
Die partiellen Ableitungen nach den Parametem des Vektors P sind ebenfalls nicht-linear und miissen aus diesem Grunde wiederum mit Hilfe eines iterativen Schatzverfahrens wie dem Newton-Raphson-Schatzverfahren gelost werden."^^^ Nach Bestimmung der Modellparameter lassen sich Auswahlwahrscheinlichkeiten fur beliebige Eigenschaftskombinationen der Alternativen und Merkmale der Auskunftspersonen gemaB dem Logit-Modell ermitteln und Marktsimulationen durchfuhren. Die geschatzten Nutzenparameter p konnen aufgrund der Modellspezifikationen nicht direkt interpretiert werden. Dire absolute Hohe hangt einerseits von der Gtite des Modells und andererseits vom Skalierungsfaktor ab. Je besser die Anpassung des Modells an die beobachteten Auswahlwahrscheinlichkeiten, desto hoher sind die absoluten Werte der Nutzenparameter."^^ ^ Der Skalierungsfaktor hat iiber die Verknupfung der Varianz der Gumbel-verteilten stochastischen Nutzenkomponente des MNL-Modells mit der deterministischen Nutzenkomponente einen Einfluss auf die Hohe der geschatzten Nutzenparameter, wobei die Varianz der Gumbel-verteilten Nutzenkomponente c'
mit c als Skalierungsfaktor betragt."*^^ Es resultiert
folgende Beziehung:"^^^ -XXPnjm''kj.
pS(k')=-
, J Mj
(35)
le^' Die geschatzten Nutzenparameter konnen aus diesem Grund nicht unmittelbar miteinander verglichen werden, es sei denn, es wird ein einheitlicher Skalierungsfaktor verwendet."^^"^
419
Vgl. Ben-Akiva, M./Lerman, S.R. (1985), S. 118.
420
VgL/Za/jw, C (1997), S. 124. Vgl. Huber, J.et al (1992), S. 278. Vgl. Gemler, S. (2003), S. 64. Vgl. Ben-Akiva, M./Lerman, S.R. (1985), S. 104; Dellaert, b.G.C./Brazell, J.D./Louviere, J.J. (1999), S. 142. Vgl. Swait, J./Louviere, C.H. (1993), S. 305f.
80
3.3.1.6 Beurteilung der Gilte der Nutzenparameter Analog zur TCA konnen die Nutzenparameter anhand von Plausibilitatskriterien, i.d.R. anhand ihrer Einflussrichtung auf den Gesamtnutzen, beurteilt werden."^^^ Die Ermittlung der statistischen Signifikanz der geschatzten Nutzenparameter gestaltet sich komplizierter als der t-Test bei der TCA und LCA. Beim aggregierten Ansatz der CBCA wird hierfiir die Matrix der zweiten partiellen Ableitungen der Likelihood-Funktion nach den Nutzenparametem (Hesse-Matrix) betrachtet, aus der die Kovarianz-Matrix Y der Nutzenmatrix nach folgender Beziehung ermittelt werden kann:"^^^
Das Verhaltnis zwischen einem Nutzenparameter und seinem Standardfehler, der die Quadratwurzel aus den Diagonalelementen der Kovarianz-Matrix darstellt, ergibt den empirischen t-Wert."^^^ Zusatzlich kann die Signifikanz der Logit-Koeffizienten auch mittels der Verteilungseigenschaft der Effekt-Koeffizienten uberpriift werden. Anhand eines Konfidenzintervalls, das um den als Mittelwert fungierenden geschatzten Logit-Koeffizienten platziert wird, kann herausgefunden werden, ob die Schatzung des Effekt-Koeffizienten innerhalb dieser Grenzen liegt."^^^ Die Testlogik leitet sich daraus ab, dass die wahre Verteilung der EffektKoeffizienten bei groBen Stichproben annahemd normalverteilt ist."*^^ Die Likelihood-Funktion stellt die Grundlage fiir die GiitemaBe zur Beurteilung der Anpassung des Modells an die Beobachtungen dar."^^^ Der Likelihood-Ratio-Test bildet die Differenz zwischen dem mit einem Faktor (-2) multiplizierten logarithmierten Wert der Likelihood des geschatzten Modells und dem mit einem Faktor (-2) multiplizierten logarithmierten Wert des Null-Modells L(0):^^^ LR = |-21nL(0]|-|-21nL(p]|
(37)
Dabei zeichnet sich das Null-Modell dadurch aus, dass alle Nutzenparameter einen Wert von 0 annehmen und damit die zu testenden Effekte nicht abbilden.'*^^ Je groBer die Werte beim Likelihood-Ratio-Test, desto besser ist die Anpassung des Modells an die Beobachtungen, wobei der Wert der Z,/A:e//7ioo(i-/?a//o-Teststatistik asymptotisch chiquadrat-verteilt ist mit P Freiheitsgraden, die der Anzahl der zu schatzenden Parameter ent-
Vgl.Abschnitt 3.1.2.4. Vgl. Eliason, S.R. (1993), S. 40. Wgl Gensler, S. {2003),S. 6\. Vgl. Urban, D. (1993), S.59. Vgl. Hosmer, D. W./Lemeshow, S. (1989), S. 44. Die im Folgenden dargestellten Tests setzen groBe Stichproben voraus. Vgl. Hauser, J.R. (1978), S. 408. Vgl. Urban, D. (1993), S. 60.
sprechen."*^^ Der Likelihood-Ratio-Index^^^ stellt eine weitere Test-Statistik dar und ist definiert als: LR-Index = l - f l ^ ) \
(38)
Der Wertebereich des Likelihood-Ratio-Index-Tests liegt im Intervall [0, 1], wobei ein Wert von 1 eine perfekte Anpassung des Modells an die beobachtete Auswahlentscheidung bedeutet."^^^ Die vorgestellten Signifikanz-Tests beurteilen den Schatzerfolg eines bestimmten Logit-Modells im Vergleich zum so genannten Null-Modell, sie konnen jedoch nicht die Giite der Modellschatzung beziiglich der beobachteten Wahlentscheidungen bewerten. Dazu ist die Anpassungsgiite des geschatzten Logit-Modells-Devianz- oder Goodness-of-FitTest zu iiberprufen.'^^^ Der Devianz-Test macht sich eine Eigenschaft des MLSchatzverfahrens zunutze und geht davon aus, dass der Log-Likelihood-Wert eines LogitModells, das eine perfekte Anpassung an die empirischen Wahlentscheidungen liefert, exakt bei 0 liegt. Als MaB der Abweichung wird die Devianz verwendet, die als die mit dem Faktor (-2) multiplizierte logarithmierte Likelihood definiert wird sowie (asymptotisch) chi-quadratverteilt mit (N-k) Freiheitsgraden ist und demzufolge einem Chi-Quadrat-Test unterworfen werden kann. Eine Alternative zur Devianz ist die Goodness-of-Fit-Statistik, die den Schatzfehler mit der Varianz der geschatzten Wahrscheinlichkeit im Nenner gewichtet:
tfp(kXi-p(k> Hold-Out-Choice-Sets, die defmitionsgemaB nicht zur Schatzung der Nutzenwerte herangezogen werden, stellen ein AuBenkriterium dar, wobei als GiitemaB dann bspw. die durchschnittlich prognostizierte Auswahlwahrscheinlichkeit fur die tatsachlich im Hold-OutChoice-Set gewahlten Stimuli zu wahlen ist.'*^^ Zudem kann die Abweichung zwischen geschatzter und beobachteter Anzahl der Wahlentscheidungen fur die verschiedenen Stimuli des Choice-Sets berechnet werden. Vorausgesetzt wird, dass die Auskunftspersonen die Alternative wahlen, fiir die sie den hochsten Gesamtnutzenwert haben."^^^ Als MaB fiir die Abweichung kann dann z.B. der Root-Mean-Square-Error (RMSE)"*^^ dienen, wobei jedoch die geschatzten Wahlanteile fiir die Altemativen des Hold-Out Choice-Sets eine bessere Giite^'' Vgl. Gemler, S. (2003), S. 62. '^'* Andere Bezeichnungen fiir den Likelihood-Ratio-Test sind Pseudo-I^, McFadden 's Rho-Square, P-Quadrat, Anteil erklarter Devianz , vgl. Urban, D. (1993), S. 62. "^^^ Fiir den Likelihood-Ratio-Index gelten Werte zwischen 0,2 und 0,4 als zufrieden stellend, vgl. Krafft, M. (1997), S. 6^\Costamo, C.M.et at. (1982), S. 963ff. ^^^ Vgl. hierzu Urban, D. (1993), S. 64ff. ^^^ Vgl. Hair, J.F.et al. (1998), S. 420. ^^^ Dies entspricht also der deterministischen First-Choice-Regel. *^^ Vgl. bspw. Armstrong, A.G./Fildes, R. (1995), S. 67ff.
82
Statistik zu sein scheinen, da sie modellkonform unter Anwendung der probabilistischen Logit-Regel berechnet werden konnen. 3.3.1.7 Problematik aggregierter Nutzenwerte Prinzipiell konnen Discrete-Choice-Modelle individuelle Entscheidungen modellieren und Parameter ftir einzelne Auskunftspersonen bestimmen. Allerdings ist dazu auf Individualebene eine nicht unerhebliche Menge an Informationen notwendig, die gerade bei der Anwendung des Discrete-Choice-Modells auf experimentelle Anordnungen wie bei der ConjointAnalyse aufgrund der geringen Informationseffizienz des Ansatzes nur in den seltensten Fallen vorliegen durften."^^ Aus diesem Grunde werden die Daten zumeist aggregiert analysiert,^^ was dazu fiihrt, dass identische Modellparameter fur die gesamte Population oder einen Teil der Population in Form einer reprasentativen Nutzenfunktion angenommen werden."^^ Unter der Pramisse einer weitgehenden Homogenitat der Praferenzen innerhalb der Population wird dann die Auswahlwahrscheinlichkeit fur eine durchschnittliche Auskunftsperson berechnet.'^"' Aus einem Master-Design mit alien ftir die Schatzung der Nutzenwerte notwendigen Choice-Sets beurteilt jeder Proband zumeist nur 6-12 verschiedene Sets."^ Ftir zahlreiche Marketingfragestellungen sind haufig nicht nur Individualinformationen von Interesse, sondem dariiber hinaus Informationen iiber einzelne Segmente und den Gesamtmarkt wie z.B. die durchschnittliche Kaufwahrscheinlichkeit oder die durchschnittliche Marktreaktion bei Anderung eines der Einflussfaktoren."^^ Es wird deutlich, dass sowohl verfahrensbedingte als auch ergebnisbedingte Grunde fur eine aggregierte Behandlung von Individualinformationen existieren. Problematisch ist die Aggregation von Individualergebnissen allerdings bei Praferenzheterogenitat, denn Discrete-Choice-Modelle sind nicht unbedingt linear in den erklarenden Variablen. Eine einfache Mittelwertbildung fiihrt zu einer verzerrten Schatzung der durchschnittlichen Auswahlwahrscheinlichkeit und der Reaktion auf eine Faktorveranderung.'*^^ Abbildung 17 veranschaulicht diesen Zusammenhang fiir die durchschnittliche Auswahlwahrscheinlichkeit. Die Stellen a und b stellen jeweils einen Nutzenwert fiir zwei verschiedene Individuen A und B dar, deren Auswahlwahrscheinlichkeit jeweils als Pa bzw. Pb gekennzeichnet ist. Die durchschnittliche Auswahlwahrscheinlichkeit ist auf der Mitte der Verbindung der beiden
In Verbindung mit der Maximum-Likelihood-Methode konnen die im Modell erfassten deterministischen und probabilistischen Parameter erst ab einer GroBenordnung von 100 Auswahlentscheidungen zuverlassig geschatzt werden, vgl. Malhotra, N.K. (1983), S. 326ff.; McFadden, D. (1974), S. 198ff. Vgl. Stadie, E. (1998), S. 60f. Vgl. Hemher, D.A. (1984), S. 268. Vgl. Renken, T. (1997), S. 18. Allerdings ist festzustellen, dass die Homogenitatsannahme teilweise eher auf pragmatischen Uberlegungen beruht, die das Ziel verfolgen, den Einsatz der Choice-Based-ConjointAnalyse zu rechtfertigen. Vgl. Pinnell, J./Englert, S. (1997), S. 122. Vgl. Balderjahn, I. (1993), S. 122. Vgl. im Folgenden auch fiir die Ausfiihrungen zur Problematik der Aggregation von Individualergebnissen Train, K. (2003), S. 33ff.
83
individuellen Auswahlwahrscheinlichkeiten zu finden. Diese Wahrscheinlichkeit ist bedeutend hoher als die Wahrscheinlichkeit des Durchschnittes der beiden Nutzenwerte, die bei einer einfachen Mittelwertbildung der Nutzenwerte an der Stelle (a + b)/2 berechnet wird. Im vorliegenden Beispiel tiberschatzt das Modell also fur den Fall einer einfachen Durchschnittsbildung die tatsachlich gesuchten Werte. scheinlichkeit
Pb
// durchschnittliche Wahrscheinlichkeit or Pfur
"''^ -
y
p •
—
-
^
/ / / ^
1
a
^ ^
b
Nutzen
Abbildung 17: Unterschied zwischen der Durchschnittswahrscheinlichkeit und der Wahrscheinlichkeit fur den Mittelwert von zwei Nutzenwerten'^^ Allgemein wird bei Verwendung des Konzepts des Durchschnittsnutzens die tatsachliche Wahrscheinlichkeit tiberschatzt, falls die individuellen Auswahlwahrscheinlichkeiten gering, und unterschatzt, falls die individuellen Auswahlwahrscheinlichkeiten hoch sind. Diese Verzerrungen sind fiir die CBCA angesichts des zugrunde liegenden Prinzips der reprasentativen Nutzenfunktion bei Vorliegen von Nutzenheterogenitat in der Stichprobe nicht unproblematisch. Altemativ stehen mit dem LC- bzw. dem HB-Ansatz zwei Verfahrensvariationen der CBCA zur Verfiigung, die in der Lage sind, bei geringeren Anspruchen an die Informationsdichte der erhobenen Daten segment- bzw. personenspezifische Nutzenwerte abzuleiten. 33.2
Abbildung von Prdferenzheterogenitdt durch die wahlbasierte Conjoint-Analyse
3.3.2.1 Latent-Class-Conjoint-Analyse (LCCA) Die LCCA gehort zu der Klasse der Latent-Segmentation-(LS) Modelle, die ihrerseits zu der Klasse der Finite-Mixture (P^)-Modelle zu zahlen sind."^^ Grundannahme dieser Modelle ist, dass die beobachteten Daten tatsachlich in mehrere homogene Gruppen unterteilt werden
Quelle: Train, K. (2003), S. 34. Vgl. Wedel, M./DeSarbo, W.S. (1994), S. 353ff, Dillon, W.R./Kumar, A. (1994), S. 295ff.
84
konnen und durch eine endliche Zahl von solchen Gruppen oder Segmenten die Heterogenitat in der Population vollstandig abgebildet werden kann."^^ Die unbeobachteten Gruppen liegen in einem unbekannten Verhaltnis vor und miissen daher durch ein Analyseverfahren „entmischt" werden."^^^ Da a priori weder die Anzahl noch die GroBe der Segmente bekannt sind und zudem keine Hinweise dartiber vorliegen, welche Auskunftsperson welchem Segment zugehort, werden die Segmente als latent bzw. unbeobachtet bezeichnet. Ziel der LatentSegmentation-Modelle ist es, die segmentiibergreifende „Mischung" der Beobachtungen riickgangig zu machen, indem die wahre Anzahl und Definition der Segmente, d.h. Zugehorigkeit einzelner Individuen zu bestimmten Segmenten, ermittelt wird."*^^ Das allgemeine Latent-Class-Choice-ModeW kann durch folgende Gleichung beschrieben werden:"^^^
P„(k') = ipn(k1s)Q„(s)
(40)
s=l
mit: pn(k')
Wahrscheinlichkeit, dass Auskunftsperson n die Alternative k' wahlt,
Qn(s)
Wahrscheinlichkeit fiir die Klassenzugehorigkeit von Person n zur latenten Klasse s, Wahrscheinlichkeit, dass Individuum n die Alternative k' wahlt, falls n zur Klasse s gehort und
pn(k'|s) S
Anzahl der latenten Klassen s."^^^
Die LS-Modelle eignen sich insbesondere zur simultanen, einstufigen Segmentierung,'^^'^ konnen aber durch eine Erweiterung zur Approximation von individuellen Nutzenwerten verwendet werden."^^^ Sie haben groBe Gemeinsamkeiten mit der herkommlichen Clusteranalyse: insbesondere die Extraktion von mehreren relativ homogenen Segmenten aus einem heterogenen Datensatz."^^^ Im Vergleich zur Clusteranalyse haben Latent-Segmentation-Modelle den Vorzug, dass sie sowohl kategoriale als auch metrische Daten verarbeiten konnen und zudem
449
Vgl. Kamakura, W.AJRussell, G.J. (1989), S. 379ff.
450
Vgl. Ramaswamy, V. (2001), S. 418.
451
Vgl. Ramaswamy, V. (2001), S. 418.
452
Vgl. Ben-Akiva, M.et al. (1997), S. 275. Prinzipiell miissen sich die latenten Klassen nicht unbedingt auf Unterschiede bspw. im Geschmack oder der Sensitivitat bzgl. verschiedener Produkte beziehen, sondern auch grundlegender auf bspw. unterschiedliche Entscheidungsprozesse oder unterschiedliche beriicksichtigte Choice-Sets, vgl. Ben-Akiva, M.et al. (1997), S. 275. Vgl. analog fur metrische FM-Conjoint-Modelle DeSarbo, W.S./Wedel, M./Vriem, M. (1992), S. 275. Die individuellen Nutzenwerte sind Linearkombinationen der Segment-Nutzenfunktionen, vgl. Johnson, /?.M(1997),S. 16.
453
Vgl. zur herkommlichen Cluster-Analyse bspw. Backhaus, K.et al. (2003), S. 479ff.
85
zugleich fur beschreibende als auch fiir pradiktive Zwecke einzusetzen sind."^^^ Die Clusteranalyse ist dagegen ein rein deskriptives Modell. Es wird, abgesehen von der Grundpramisse eines linear-additiven Grundmodells, keine konkrete Annahme iiber den Zusammenhang zwischen unabhangiger und abhangiger Variable unterstellt."^^^ Die LS-Modelle konnen ebenfalls fiir deskriptive Simulationsaufgaben benutzt werden, ihre Starke entwickeln sie aber insbesondere beim Einsatz fiir pradiktive Zwecke."^^^ Dir zentraler Vorteil besteht in einer quasisimultanen Segmentierung und Vorhersage von Entscheidungen. Im Falle von LSMRegressionen bestehen die Segmente aus Personen, deren Regressionskoeffizienten bzw. Conjoint-Teilnutzenwerte relativ ahnlich sind. Anstatt eine einzige Regressionsfunktion fiir den ganzen Datensatz zu verwenden, bilden verschiedene Gleichungen unterschiedliche Zusammenhange fiir homogene Gruppen, den so genannten Latent-Classes, spezifisch ab. 3.3.2.1.1 Grundlagen der Modellbildung Die LCCA stellt die Umsetzung eines Latent-Segmentation-ModeWs auf das experimentelle Erhebungsmodell der Conjoint-Analyse dar. Sie basiert auf der Grundannahme, dass die Beobachtungen in eine feste Anzahl an in sich vollstandig homogenen Gruppen, den so genannten Latent-Classes (LC), zerlegt werden konnen."^^^ Grundsatzlich konnen aufgrund der wenig restriktiven Anforderungen an die Skalierung der Daten sowohl Rating-, Ranking- als auch C/7o/ce-Verfahren zur Datenerhebung verwendet werden. Weite Verbreitung hat die LCCA, ebenfalls in Bezug auf Software-Losungen, in Verbindung mit einer wahlbasierten Datenerhebung gefunden."^^^ Die LCCA schatzt simultan einerseits die Nutzenwerte fiir jedes Segment und andererseits die Wahrscheinlichkeiten der Zugehorigkeit der Auskunftsperson zu den einzelnen Segmenten. Als Ergebnis liefert die LCCA keine individuellen Nutzenparameter. Vielmehr werden logitbasierte Nutzenwerte fiir einzelne Auspragungen segmentspezifisch geschatzt. Im Rahmen der LCCA werden Untergruppen aufgedeckt, wobei die Auskunftspersonen bzw. deren Nutzenwerte innerhalb der Untergruppen moglichst homogen, die Nutzenunterschiede zwischen den Gruppen dagegen maximal sein sollten. Ein Individuum wird nie genau einer Gruppe zugeordnet, sondem es werden von null verschiedene Wahrscheinlichkeiten fur die Zugehorigkeit zu jeder einzelnen Gruppe bestimmt. Bei eindeutiger Zuordnung laufen die Wahrscheinlichkeiten gegen 0 bzw. 1. Im Rahmen der LCCA wird also eine Aufteilung der Auskunftspersonen in Segmente gesucht, die das ML-Zielkriterium maximiert.
Vgl. fur metrische LC-Conjoint-Modelle DeSarbo, W.S./Wedel, M./Vhem, M. (1992), im Unterschied dazu zum wahlbasierten Ansatz und ebenfalls zur Marktsegmentierung DeSarbo, W.S./Ramaswamy, V./Cohen, S.H. (1995). Vgl. Backhaus, K.et al. (2003), S. 479ff Vgl. Cohen, S.H./Ramaswamy, V. (1998), S. 15. Vgl. Teichert, T. (2001b), S. 799. So zahlt das Latent Class-Modul von Sawtooth fiir die Choice Conjoint-Analyse zu denen am weitesten verbreiteten Software-Losungen fiir LCCA.
86
Die Wahrscheinlichkeit fiir die beobachteten Wahlentscheidungen (bzw. die LogWahrscheinlichkeit) berechnet sich nach folgenden Schritten:'^^^ (1) Probandenspezifische Berechnung der Wahrscheinlichkeit fiir jede getroffene Wahlentscheidung unter der Voraussetzung, dass das Individuum zur Gruppe s gehort. (2) Ermittlung einer gesamten Wahrscheinlichkeit der beobachteten Wahlentscheidungen fur diesen Probanden unter der Bedingung, dass er zur Gruppe s gehort, durch Multiplikation der Wahrscheinlichkeiten fiir alle individuellen bedingten Wahlentscheidungen aus Schritt(l), (3) Analoge Vorgehensweise fiir die Zugehorigkeit zu den anderen Gruppen, (4) Gewichtung der individuellen Wahrscheinlichkeiten fiir jede Gruppe mit der aktuellen Schatzung fiir die GroBe der Gruppe, wobei sich die Schatzungen der GruppengroBen zu 1 sununieren, (5) Ermittlung der gesamten (gewichteten) Wahrscheinlichkeit fiir ein hidividuum durch Summierung der gewichteten individuellen Wahrscheinlichkeiten fiir die einzelnen Gruppen, (6) Multiplikation der gewichteten individuellen Gesamtwahrscheinlichkeiten (bzw. Kumulierung des Logarithmus) fiir alle Probanden.
Berechnungsgrundlage des LC-Verfahrens fur Wahlurteile ist das multinominale Wahlmodell. Im Gegensatz zur CBCA, die eine einheitliche reprasentative Nutzenfunktion verwendet, wird bei der LCCA fiir jede der vorgegebenen Klassen eine separate Nutzenfunktion geschatzt. Die Auswahlwahrscheinlichkeit, dass eine einzelne Auskunftsperson Alternative k' wahlt, kann unter der Bedingung der Zugehorigkeit zur Klasse s Kamakura/Russel wie folgt formal dargestellt werden als (vgl. Schritt (1)):'*^^ expjXXPsjm-Xkjm j=l meMj
Ps(k')= keC,
(41)
1 j=l meMj
mit: K: Ck: Xkjm^ S:
Anzahl der Altemativen k, Altemativen des Choice-Sets, Dunmiy-Variable fur Conjoint-Profil k mit Auspragung m des Merkmals j , Anzahl der homogenen Segmente s.
^^^ Vgl. Kamakura, W.A./Russell, G.J. (1989), S. 379ff. ^^^ Vgl. Kamakura, W.A./Russell. G.J. (1989), S. 379ff.
87
Psjm^
Nutzenparameter fiir Auspragung m der Eigenschaft j in Segment s.
Die Auswahlwahrscheinlichkeit, dass eine bestimmte Auskunftsperson n den Stimulus k' wahlt, kann dann als die segmentspezifische Auswahlwahrscheinlichkeit gewichtet mit der relativen GroBe as des Segments s dargestellt werden: (42)
P„(k')=Icx,P3(k')
Das Modell enthalt also eine endliche Mischung {finite mixture) an multinominalen {conditional) Logit-Modellen, um die latenten Segmente anhand der beobachteten Wahldaten zu schatzen."^^ Die relative SegmentgroBe wird dabei als Priori-Wahrscheinlichkeit der Segmentzugehorigkeit einer Auskunftsperson interpretiert."^^^ 3.3.2.1.2 Schdtzung der Nutzenwerte Formal dargestellt ergibt dies folgende nicht-logarithmierte Likelihood-Funkiion:
L(p)=ni:«»nn(pf(kf-" n=l s=l
N
S
a=l k(
A
=ni«.nn n=l s=l
exp
^^ ^^rsjm I j=l meMj
k'jn
(43)
a=l k'eC. keC,
1 j=l meMj
nut: Ynk'a^ beobachtete Wahlentscheidung von Auskunftsperson n fur Stimulus k' aus Choice Set Ca (1 falls Stimulus k' gewahlt wird, 0 falls nicht) Zielfunktion der LCCA ist, durch eine entsprechende Wahl individueller Segmentzugehorigkeiten und segmentspezifischer Nutzenparameter die Likelihood-Funkiion zu maximieren. Die individuellen Wahrscheinlichkeiten fiir die Gruppenzugehorigkeiten Rn(s) lassen sich ermitteln, indem fiir das entsprechende Individuum der Anteil der gewichteten Wahrscheinlichkeiten fiir die jeweiligen Gruppenzugehorigkeiten aus den Schritten 1-5 berechnet wird:
asnn(p^(kfR„(s)=-
'-"'''•
i«,nn(p»w)' s=l
a=l keC,
Vgl. Kamakura. W.A./Russell, G.J. (1989), S. 379ff.; Ramaswamy, V./DeSarbo, W.S. (1990), S. 418ff. Vgl. Gedenk, K. (2002), S. 186.
(44)
Die Posteriori-Wahrscheinlichkeiten werden hier deterministisch nach der Bayes'schen-Regel berechnet."*^^ Haufig wird zur Maximierung der Likelihood-Funkiion der E-M-Algorithmus verwendet, der den Expectation- und Maximation-Schnti umfasst. Der Grundgedanke des EM-Algorithmus besteht darin, iterativ die Auskunftspersonen den Segmenten zuzuordnen und dann die segmentspezifischen Parameter des Models zu schatzen."^^^ Im Rahmen der Iterationsschritte werden so lange die SegmentgroBen und die segmentspezifischen Parameter geschatzt, bis die logarithmierte Likelihood-FuT±iion ein zuvor definiertes Anspruchsniveau erfullt. Der gesamte LC-Algorithmus kann damit in die folgenden Schritte untergliedert werden:
(1) Vorgabe der Komponentenzahl durch den Anwender, (2) Komponentenspezifische Ausgangslosung fur jede Eigenschaftsauspragung, ggfs. begriindete Vorgaben durch den Anwender, (3) Berechnung der segmentspezifischen Nutzenwerte mit dem Ziel, die individuellen Daten anzupassen, (4) Schatzung der Wahrscheinlichkeiten fiir die Gruppenzugehorigkeiten der Individuen, (5) Schatzung einer gewichteten Logit-Losung fiir jede Klasse, wobei fiir jede Losung die Werte von alien Probanden verwendet werden, die allerdings nur in Hohe ihrer gewichteten Wahrscheinlichkeit fiir die jeweilige Gruppenzugehorigkeit in die Losung eingehen, (6) Berechnung der Wahrscheinlichkeit der Daten unter Annahme eines Modells, das die Wahrscheinlichkeit der Daten bei gegebener Schatzung der Gruppenkoeffizienten und GruppengroBe ausdriickt, (7) Riickkehr zu (3), falls das Abbruchkriterium nicht erfiillt ist. Als Abbruchkriterium wird in der Regel ein Ma6 fiir die Verbesserung der Wahrscheinlichkeiten defmiert. Unterschreitet die Verbesserung der Wahrscheinlichkeiten fiir einen Iterationsschritt einen zuvor defmierten Wert, wird die Iteration beendet und die Log-Likelihood bei gegebenen Daten als GiitemaB ermittelt. Abbildung 18 stellt den Ablauf des GesamtAlgorithmus grafisch dar.
Vgl. Ramaswamy, V./Cohen, S.H. (2003), S. 446.
89
Eingabe
Aufbereitung der Schatzergebnisse
Schatzprozess gibt Segmentanzahl vor
Beobachtete Wahldaten
SctiStzung der Latent-Ctass MtHzenfunktion mtttel$ ^ Maxtmum-Ukellhocxi
ergibt
Latent-Class iNutzenfunktionenl
Aggreglerte Ebene Individualebene
Gewichtung liefert Vorgabe fur Individuelie INutzenfunktionenl
Abbildung 18: Ablauf der LCCA^^^ Die individuellen Nutzenwerte konnen durch eine Gewichtung der LC-Nutzenwerte mit den individuellen Wahrscheinlichkeiten der Gruppenzugehorigkeit in einem abschlieBenden Schritt gemaB Gleichung (44) geschatzt werden. In der Literatur wird teilweise kritisiert, dass die Annahme einer begrenzten Anzahl von Individuen, die vollkommen homogen innerhalb eines Segmentes sind, zu restriktiv sei."^^^ Als Grund wird angefuhrt, dass die Segmentierung innerhalb von C/io/ce-Modellen zu einer kiinstlichen Aufspaltung der stetigen Verteilung in homogene Segmente fiihrt und fiir den Fall, dass die zugrunde liegende Verteilung stetig ist, zu inkonsistenten Schatzergebnissen fiihrt/™ 3.3.2.1.3 Gate der ermittelten Nutzenfunktion Der Anwender hat in alter Regel bei der Modellierung verschiedene Pramissen fiir die Zahl der latenten Segmente vorgegeben. Zunachst ist also zu bestimmen, fiir welche Zahl das LCCA-Modell die besten Ergebnisse liefert. Hierzu steht eine Reihe unterschiedlicher Informationskriterien bereit, die jeweils auf der Likelihood dts geschatzten Modells basieren."^^* Grundsatzlich versehen die Liformationskriterien die geschatzte Likelihood mit „Strafpunkten", die sich nach der Anzahl der geschatzten Parameter richtet. Die „Strafpunkte" nehmen in
Quelle: In Anlehnung an Teichert, T. (2001b), S. 800. 469
Vgl. Allenby, GM/Rossi, P.E. (1999), S. 57ff.
^^° Vgl. Wedel, M.et al. (1999), S. 222. ^^' Wg\.Gensler,S. (2003), S. 123.
90
jedem Fall einen positiven Betrag an, und es wird schlieBlich die Anzahl an Segmenten gewahlt, fiir die das Informationskriterium den geringsten Wert annimmt."*^^ Das Akaike 's Information Criterion (AIC) erhielt als erstes Kriterium Einzug in die Litera-
AIC(S) = -21nL + 2P
(45)
mit: L:
Likelihood und
P:
Anzahl der zu schatzenden Parameter.
Der zweite Summand beriicksichtigt, dass die Likelihood bei einer groBeren Anzahl an Parametem automatisch steigt, und korrigiert diesen Effekt um eine gewichtete Anzahl an zu schatzenden Parametem. Das klassische AIC gewichtet dabei die Anzahl der Parameter mit einem Wert von l.'^^^ Das Modified Akaike's Information Criterion (MAIC) gewichtet die Anzahl der Parameter mit einem Wert von 3 und damit starker als das AIC: MAIC(S) = -21nL + 3P.
(46)
Zwei Kriterien, die die „Strafpunkte" mit einem noch groBeren Gewicht versehen, indem sie neben der Anzahl der zu schatzenden Parameter zusatzlich die Anzahl der Beobachtungen berucksichtigen, sind das Bayesian Information Criterion (BIC) und insbesondere das Consistent Akaike's Information Criterion (CAIC)."^^^ Das BIC ist defmiert als:^"^^ BIC(S) = -2 In L + (ln(N • K)) • P mit: N:
Anzahl der Auskunftspersonen,
K:
Anzahl der Altemativen.
(47)
Beim CAIC wird ein Summand von 1 bei der Gewichtung der Parameter addiert: CAIC(S) = -2 In L + (ln(N • K) +1) • P
(48)
Studien von Bozdogan zeigen, dass das CAIC prinzipiell fiir Mixture-ModcWe zu bevorzugen ist."^^^ Hauptproblem dieser Informationskriterien ist, dass sie auf denselben Eigenschaften
^^^ Vgl. Bozdogan, H. (1987), S. 353. ^^^ Vgl. Akaike, H. (1974), S. 716ff. ^^^ Vgl. Wedel, M./Kamakura, W. (2000), S. 92 ^^^ Vgl. Schwarz, G. (1978), S. 461ff. 477
Vgl. Akaike, H. (1974), S. 345ff.
91
wie der Likelihood-Ratio-Test beruhen und aus diesem Grunde nur als Indikator fiir die Anzahl an Segmenten verstanden werden konnen. Die vorangegangenen Kriterien tragen insbesondere einer Uberparametrisierung fiir den Fall einer groBen Anzahl an Segmenten Rechnung. Allerdings gilt es dariiber hinaus, auch die Separierung der verschiedenen Segmente zu beriicksichtigen. Dies kann mit Hilfe des EntropieMaBes E geschehen:"^^^ IlRnslnRns
E = l + -5^Lifl N-lnS
(49)
mit: R„5:
Wahrscheinlichkeit fur die Zugehorigkeit von Auskunftsperson n zu Segment s.
Der Wertebereich liegt zwischen 0 und 1, wobei Werte nahe bei 0 bedeuten, dass die Posteriori-Funktionen fiir alle Segmente ahnlich sind, die Zentren also nicht ausreichend separiert wurden."^^^ Mittels einer Monte-Carlo-Studie zeigen Andrews/Currim, dass dem MAIC bei multinominalen Logit-Daten grundsatzlich der Vorzug vor den anderen Ansatzen zu geben ist."^^^ Die Ergebnisse widersprechen allerdings den Ergebnissen zahlreicher friiherer Studien,^^^ so dass die Autoren selbst eine genauere Untersuchung hinsichtlich der verwendeten Verteilungsannahmen fordem. Das Modell mit der ausgewahlten Segmentzahl wird dann zur weiteren Beurteilung zugrunde gelegt. Die geschatzten segmentspezifischen Nutzenwerte konnen dabei analog zur Grundvariante der CBCA auf Plausibilitat und Signifikanz iiberpruft werden. Ebenso kann die pradiktive interne Validitat als GutemaB verwendet werden."^^^ Soil die Beurteilung auf Basis segmentspezifischer Nutzenwerte erfolgen, wird jeder Proband dem Segment zugeordnet, fiir das er die groBte Posteriori-Zugehorigkeitswahrscheinlichkeit aufweist. 3.3.2.2 Hierarchical-Bayes-Conjoint-Analyse (HBCA) Die HBCA hat ihre Urspriinge, im Gegensatz zur LCCA, nicht im Bereich der Segmentierung. Primares Ziel ist es vielmehr, individuelle Nutzenwerte zu schatzen, wenn nur relativ wenige Informationen je Auskunftsperson erhoben werden."^^^ Die Verwendung der Bayes-
478
Vgl. Wedel. MJKamakura, W. (2000), S. 92.
479
Vgl. Wedel, MJKamakura, W. (2000), S. 92f. Vgl. Andrews, RXJCurrim, I.S. (2003b), S. 235ff. Vgl. bspw. Cutler, A./Windham, M.P. (1994), S. 149ff. Vgl. Srinivasan, V./deMaCarty, P. (2000), S. 29ff. Vgl. Johnson, R.M. (20(X)), S. 10. Einerseits geht die LCCA durch den rekursiven iterativen Algorithmus einen ahnlichen Weg, allerdings werden hier die Wahrscheinlichkeiten fur die Gruppenzugehorigkeit rein deterministisch abgeleitet. Die Berechnung der individuellen Nutzenwerte ist dariiber hinaus lediglich eine Zusatzmoglichkeit der Datenauswertung. Im Mittelpunkt der Entwicklung des Verfahrens stand der Grund-
92
Statistik erlaubt, individuelle Nutzenwerte zu berechnen, indem die Informationen der Grundgesamtheit der Beobachtungen mit herangezogen werden.'^^'^ Wie bei der CBCA werden dazu Informationen verschiedener Auskunftspersonen miteinander verkniipft. Wahrend diese Verkniipfung bei den Fixed-Effects-ModeWcn, zu denen die CBCA zahlt, auf denkbar einfachste Weise mittels der Annahme homogener Praferenzen erfolgt, wird bei den Random-EjfectsModellen, denen die HBCA angehort, unterstellt, dass die Parameter der einzelnen Auskunftspersonen gemaB einer im Modell vom Anwender festzulegenden Verteilung variieren. Wahrend die klassischen wahlbasierten Random-Effects-ModtWo, keine Schatzung der Individualwerte, sondem nur der Parameter der Zufallsverteilung bzw. der Heterogenitat erlauben, ist bei HBCA-Modellen eben genau diese Ermittlung von Nutzenparametem auf individueller Ebene moglich."^^^ Damit erlaubt die HBCA eine Separation von Praferenzheterogenitat und Fehlervarianz."^^^ 3.3.2.2. J Grundlagen der Bayes-Statistik Die HBCA basiert auf der Bayes- Statistik, deren Perspektive sich in einigen Punkten von der Perspektive der klassischen Statistik unterscheidet. Die Bayes-Statistik betrachtet gebrauchliche statistische Problemstellungen unter Zuhilfenahme des Grundkonzeptes der bedingten Wahrscheinlichkeiten,'^^^ unterscheidet sich von der klassischen Statistik aber insbesondere dadurch, dass die bedingten Wahrscheinlichkeiten als Posteriori-Wahrscheinlichkeiten nach Beriicksichtigung von neuen empirischen Daten interpretiert werden."^^^ Bei der klassischen Statistik werden die Stichproben haufig als „zufallig" betrachtet und das Verhalten von Teststatistiken oder Schatzem bei verschiedenen hypothetischen Stichproben untersucht. Samtliche Schatzergebnisse werden dabei ausschlieBlich auf die einzelnen beobachteten Daten zuriickgefiihrt und entsprechend werden als Schatzlosungen stets diejenigen Parameter gewahlt, die bei gegebenem Verteilungsmodell die Wahrscheinlichkeit fiir die Reproduktion der Daten maximieren."^^^ Dies entspricht der Maximum-Likelihood-Schaizung (MLS), die als Zielkriterium die Grundlage aller gebrauchlichen statistischen Auswertungsverfahren wie OLS-Regression oder aber auch des multinominalen logistischen Modells dar-
gedanke einer simultanen Segmentierung. Anderseits konnen mit Hilfe einer anschlieBenden Clusteranalyse auch bei der HBCA auf Basis der individuellen Nutzenwerte Segmentierungsaufgaben durchgefiihrt werden. Auch wenn Einsatzgebiete und Vorgehensweise der beiden Verfahren gewisse Ahnlichkeiten aufweisen, unterscheiden sie sich jedoch deutlich anhand der gesetzten Schwerpunkte, vgl. Huber, J. (1998), S. Iff. Teichert, T. (2001b), S. 800. VgX.Allenby, GM/Ginter, J.L (1995), S. 393. Vgl. Orme, B. (2000), S. 2; Kamakura, W.A./Kim, B.-D./Lee, J. (1996), S. 152ff. Vgl. Teichert, T. (2001a), S. 155. Vgl. Rossi, P.E./Allenby, G.M. (2003), S. 304ff. Vgl. Teichert, T. (2001a), S. 156. Vgl. Teichert, T. (2001a), S. 156.
93
Bei der Bayes-Statistik wird dieser Prozess umgekehrt, indem zwar wiederum ein Modell unterstellt wird, aber dieses Mai die Wahrscheinlichkeitsverteilung der Parameter unter der Bedingung gegebener Daten gesucht wird. Die Stichprobenwerte werden als gegeben angenommen, und es wird die Unsicherheit tiber die „wahren" nicht-beobachteten Populationswerte betont."^^^ Zudem wird bei der Bayes-Statistik das a priori vorhandene Wissen"^^^ als Informationsquelle genutzt und die durch die Stichprobe gewonnenen Informationen darauf aufbauend zur Aktualisierung des zuvor bestehenden Wissens herangezogen."^^^ In der Marktforschung wird die Bayes-Statistik erfolgreich zur Verkntipfung von Informationen aus unterschiedlichen Quellen eingesetzt."^^"^ Daruber hinaus wird sie zur Schatzung von individuellen Nutzenfunktionen bei begrenztem Datenmaterial"^^^ bzw. bei individuell iiberparametrisierten Modellen"^^^ verwendet. Letztere Einsatzgebiete weisen die groBte (Jbereinstimmung mit der Zielsetzung der HBCA auf. Die Bayes-Statistik unterstellt, dass der Anwender bereits vor der Durchfiihrung der Untersuchung Vorstellungen {..beliefs'") liber die Parameter 0 des zu untersuchenden Modells hat und eine empirische Erhebung mit dem Ziel durchfuhrt, sein Verstandnis bzw. die Parameterschatzwerte fiir das Modell zu verbessem. Die urspriinglichen Modellvorstellungen werden in einer Dichtefunktion liber 6, der so genannten Priori-Verteilung p(G) abgebildet. ¥„ bezeichnet die beobachteten Auswahlentscheidungen fur Auskunftsperson n. Y={Yi, ...» YN) stellt die beobachteten Auswahlentscheidungen fiir die gesamte Stichprobe dar. Ein Grundgedanke der Bayes-Statistik sind bedingte Wahrscheinlichkeiten, die die Wahrscheinlichkeit, dass ein Ereignis eintritt unter der Bedingung, dass ein anderes Ereignis vorliegt, darstellen."*^^ Auf Grundlage der Informationen Y modifiziert der Anwender seine Vorstellungen tiber 0, wobei die Aktualisierungen zu der bedingten Verteilung p(0|Y), der so genannten PosterioriVerteilung, auf Grundlage der beobachteten Wahlentscheidungen fuhren."^^^
Vgl. Teichert, T. (2001a), S. 155. Da das Priori-Wissen defmitionsgemaB bereits vor der Datenerhebung besteht, basiert es auf Logik, Intuition Oder vergangenen Untersuchungen, vgl. Train, K. (2003), S. 287f. Die Verwendung von Priori-Vorstellungen (,yBeliefs") als Ausgangsbasis hat dazu gefuhrt, dass die BayesStatistik als subjektiv kritisiert wurde, vgl. Teichert, T (2001a), S. 156ff. Allerdings ist in diesem Zusammenhang darauf hinzuweisen, dass alle im Modell der klassischen Statistik bzw. Entscheidungstheorie spezifizierten Annahmen subjektiv sind und gerade die Bayes-Statistik die Spezifizierung der Pramissen durch eine Offenlegung der Priori-Annahmen fordert und durch die Angabe von wahrscheinlichkeitsverteilten Parametern der Posteriori-Verteilung die Unsicherheit expliziert und damit versucht zu objektivieren, vgl. Green, P.E./Frank, R.E. (1966), S. 173ff. Vgl. Allenby, GM/Arora, N./Ginter, J.L (1995), S. 152ff.; Arora, N./Allenby, G.M./Ginter, J.L (1998), S. 29. Wgl Allenby, G.M./Ginter, J.L. (1995)S. 392ff. Vgl. Lenk, P.J.et al. (1996), S. 173ff Vgl. bspw. Koch, K.-R. (2000), S. 5. Vgl. Train, K. (2003), S. 288. Die Bayes-Regel stellt allgemein einen Zusammenhang zwischen konditionalen (bedingten) und unkonditionalen Wahrscheinlichkeiten her, was nicht automatisch bedeutet, dass die Bayes-Statistik zur Anwendung kommt. Dies ist nur dann der Fall, wenn die Priori-Verteilung als nichtbedingte Wahrscheinlichkeit und die Posteriori-Verteilung als bedingte Wahrscheinlichkeit abgebildet wird, vgl. Train, K. (2003), S. 289.
94
Zu klaren ist, wie genau die Wahlentscheidungen Y die Ausgangsvorstellungen liber 9 modifizieren bzw. wie sich die Posteriori-Verteilimg p(6|Y) von der Priori-Verteilung p(9) unterscheidet. Mit Hilfe der Bayes-Regel kann die Beziehung hergestellt werden, wobei in einem ersten Schritt p(Yn|9) als die Wahrscheinlichkeit dafiir definiert wird, dass Auskunftsperson n die Entscheidungen Yn bei Giiltigkeit der Modellannahmen 9 trifft. Die Wahrscheinlichkeit, die Wahlentscheidungen aller Auskunftspersonen der Stichprobe bei gegebenen Modellannahmen 9 zu realisieren, wird von der Likelihood-Funktion L der beobachteten Wahlentscheidungen bestimmt: L = p(Y|0) = np(Y„|e)
(50)
n=l
Die gemeinsame Dichtefunktion von 9 und Y lasst sich als Produkt der Priori-Verteilung und der Likelihood-Funktion darstellen:"^^^ p(9,Y)=p(9)p(Y|9)
(51)
Fiir die bedingte Wahrscheinlichkeit nach den bekannten Daten Y ergibt sich der Bayes'schen Regel zufolge fiir die Posteriori-Verteilung:
*^' I
p(Y)
p(Y)
p(Y) stellt dabei die folgende Wahrscheinlichkeit (fur die moglichen Auspragungen von 9) dar:^^ p(Y) = jp(Y|e)p(e)de
(53)
Da im Rahmen der Bayes-Statistik die beobachteten Auswahlentscheidungen Y als gegeben und fest betrachtet werden und p(Y) damit nicht von 9 abhangt, sondem lediglich eine normierende Konstante darstellt, die dafur sorgt, dass das Integral der Posteriori-Verteilung einen Wert von 1 annimmt, kann Gleichung (52) uberfuhrt werden in die Form:^^^ p(e|Y)ocp(Y|9)p(e)
(54)
Die so genannte Posteriori-Wahrscheinlichkeit p(9|Y) ist also proportional zu dem Produkt aus der Priori-Wahrscheinlichkeit p(9), die ohne die Berticksichtigung der Daten Y bestimmt wird, und der bedingten Wahrscheinlichkeit fur die Daten Y bei Parametem 9. Die PosterioriWahrscheinlichkeit setzt Priori-Informationen uber die Parameter 9 voraus, verwendet aber dariiber hinaus noch die in den Daten enthaltenen hiformationen.
499
Vgl. Gelman, A.et al. (1995), S. 8. Vgl. Berger, J.O. (1980), S. 92. Vgl. Gelman, A.et al. (1995), S. 8.
95
Mit Hilfe der Beziehung aus Gleichung (54) erlaubt die Bayes-Statistik, die Wahrscheinlichkeitsschatzungen zu aktualisieren.^^^ Im Vergleich zur klassischen Statistik sind Schatzungen der Bayes-Statistik wesentlich aufwandiger, da Verteilungsfunktionen bedingter Wahrscheinlichkeiten zu schatzen sind.^^^ Gerade komplexere Problemstellungen, wie sie auch beim wahlbasierten Ansatz der ConjointAnalyse vorliegen, sind aufgrund der Art der ihnen zugrunde liegenden Integrale zumeist analytisch nicht losbar.^^ Haufig sind Parameter zu schatzen, die voneinander abhangig sind. Dann kann nicht auf einfache Zufallszahlengeneratoren zuruckgegriffen werden, sondem es sind simulative Losungsaiisatze wie die Markov Chain Monte-Carlo-(MCMC) Methode zu verwenden,^^^ die zwar kompliziert sind, nicht selten aber die einfachste Losung darstellen, um zuverlassige Ergebnisse zu erhalten.^^ In den letzten Jahren ist die Computerleistung derart gestiegen, dass sie den ausgesprochen hohen Anforderungen an die Rechenleistung mittlerweile entspricht.^^^ MCMC-Methoden stellen einen iterativen Prozess dar, bei dem die gewonnenen Schatzparameter jeweils als Eingabeparameter der nachsten Stufe verwendet werden. Die neuen Werte werden mit Hilfe einer Transferfunktion bestimmt, die dafur sorgt, dass die Werte gegen die Posteriori-Verteilung p(6|Y) konvergieren.^^^ Nach einer entsprechend groBen Anzahl an Wiederholungen, werden die simulierten Werte zur Ermittlung der zu schatzenden Parameter verwendet. 3.3.2.2.2 Hierarchische Modellierung verschiedener Modellebenen Die HBCA wurde bereits Mitte der 1990er Jahre entwickelt,^^ konnte sich aber aufgrund aufwendiger Berechnungen und den daraus resultierenden Anspriichen an die Rechenleistung von Computem nicht sofort in der Praxis durchsetzen. Der Losungsalgorithmus der HBCA erfordert mehrere 1000 Iterationen, was zu jener Zeit je nach Komplexitat der Studie und Stichprobenumfang Rechenzeiten von bis zu mehreren Tagen bedeuten konnte.^'^ Mit zunehmender Rechengeschwindigkeit hat sich diese Problematik allerdings relativiert und wird in den nachsten Jahren noch weiter in den Hintergrund treten. Grundgedanke der HBCA ist, dass zur Schatzung der individuellen Nutzenparameter nicht nur das Antwortverhalten der entsprechenden Auskunftsperson, sondem zudem noch Infor-
Vgl. Bradlow, E.T.et al. (o.A.), S. 1. Vgl. Teichert, T. (2001a), S. 157. Vgl. Gelman, A.et al. (1995), S. 320. Vgl. bspw. Gilks, W.RJRichardson, S./Spiegelhalter, D.J. (1996); Chib, S./Greenberg, E. (1996), S. 409ff Vgl. Gelman, A.et al. (1995), S. 320. Vgl. Sawtooth (2003), S. lOf. Vgl. Sawtooth (o.A.), S. 8. Vgl. Allenby, G.M./Ginter, J.L. (1995); Lenk, P.J.et al. (1996). Vgl. Sawtooth (1999); Johnson, R.M. (1999), S. 12.
96
mationen auf Populationsebene verwendet werden. Demnach wird das HB-Modell als hierarchisch bezeichnet, well es aus zwei Ebenen besteht. iibergeordnete Ebene
|3„~Norm(b,r)Vn
untergeordnete Ebene
U2ka=P2X2ka+S2b.
Y„.3=l, fa%.>U„Vk;tk' Auskunftsperson 1
Yj,,, = 1, falls U2k3 > U j ^ Vk ^ k
Auskunftsperson 2
*-' Nka ~ P N ^ Nka "*" "Nka
YN^., = 1 , falls U^k., > U^ka Vk ^ k|
Auskunftsperson N
Abbildung 19: Die verschiedenen Ebenen der HBCA Auf der oberen Ebene wird unterstellt, dass die individuellen Nutzenkoeffizienten durch eine multivariate Normalverteilung beschrieben werden. Die Parameter der multivariaten Normalverteilung werden als Vektor der Erwartungswerte b und als Matrix der Kovarianzen F angegeben. Auf der unteren Ebene wird angenommen, dass bei gegebenen individuellen Nutzenkoeffizienten die Wahrscheinlichkeiten fiir die Wahl bestimmter Altemativen einem Multinominalen Logit-Modell folgen. Die hohere Ebene kann wie folgt formal dargestellt werden:^^^ p„~Normal(b,r)
(55)
mit: P„:
Vektor der Teilnutzenwerte fur Auskunftsperson n,
b:
Vektor der Erwartungswerte der individuellen Teilnutzenwerte,
r
Kovarianz-Matrix der Verteilung der Teilnutzenwerte iiber die verschiedenen Auskunftspersonen hinweg.
Die hohere Ebene verbindet die Teilnutzenwerte der verschiedenen Auskunftspersonen, indem spezifiziert wird, dass die Heterogenitat in der Stichprobe normalverteilt mit den Parametem b und F ist.^^^ Der Proband hat Priori-Vorstellungen iiber b und F. Es sei angenommen, dass die Priori-Vorstellungen fur b die Mittelwerte der mittels OLS geschatzten Vektoren p und fiir F die Kovarianz-Matrix von p sind. Auf dem individuellen Niveau lassen sich die Auswahlwahrscheinlichkeiten, dass die Auskunftsperson n die Alternative k bei einer bestimmten Wahlaufgabe wahlt, beschreiben als:
Vgl. zur Herleitung der HBCA im Folgenden insbesondere Train, K. (2003), S. 302; Sawtooth (o.A.). Vgl. Allenby, G.MJRossi, P.E. (2003), S. 4.
97
p„(k')=^A^, £exp(p„xj
(56)
k=l
mit Pn(k'): Auswahlwahrscheinlichkeit, dass Individuum n Alternative k' wahlt, Xki
Vektor, der die Auspragungen fur die verschiedenen Merkmale der Alternative k definiert.
Da jeder Proband mehrere Choice-Sets Ca zur Beurteilung vorgelegt bekommt, kann die individuelle Wahrscheinlichkeit fiir die Gesamtheit seiner Wahlentscheidungen berechnet werden durch: P-(Yn|Pn)=nr'^"'^"'-
(57)
^'^•Xexp(l3„xJ k=l
Auf unterer Ebene des HB-Modells befinden sich also die beobachteten Auswahlentscheidungen, die fiir Choice-Sets und Auskunftspersonen variieren. Der Definition der Nutzenparameter auf Individualebene folgt schlieBlich die obere Ebene mit den gemeinsamen, verbindenden Parametem. Die nicht unter Bedingung von P„ untersuchte Wahrscheinlichkeit, die so genannte /w/jc^i/-/og//-Wahrscheinlichkeit, die annahmegemaB der Normalverteilung mit den Parametem b und F folgt, ist das Integral von p(Yn| p^) iiber alle P„: Pn(Y„|b,r) = jp„(Yjpjp(P„|b,r)dp„ ,
(58)
wobei die Verteilung p(p„ |b, F), die Dichtefunktion der Normalverteilung mit einem Mittelwert von b und einer Varianz von F, erganzt wird. b und F sind dabei als Hyperparameter zu verstehen, die die Variation in den Parametem (genauer in p„) und nicht eine durch die Daten induzierte Verandemng beschreiben. Die Posteriori-Verteilung von b und F ist definitionsgema6: p(b,F|Y)~np„(Y„|b,F>p(b,r),
(59)
n=l
wobei p(b, F) die Priori-Verteilung von b und F mit den jeweils oben beschriebenen Verteilungsannahmen darstellt. 3.3.2.2.3 Schdtzung der Nutzenparameter Es ist prinzipiell vorstellbar, direkt aus der Posteriori-Verteilung p(b,F| Y) mit Hilfe des so genannten Metropolis-Hastings-Algorithmus zu Ziehen. Allerdings miisste fiir jeden Iterationsschritt die rechte Seite von Gleichung (59) berechnet werden. Da die Mixed-logit-
98
Verteilung p„(Y„|b,r) ein viel-dimensionales Integral ist und nicht analytisch bestimmt werden kann,^'^ musste in jedem der mehreren tausend Schritte des Metropolis-HastingsAlgorithmus p„ (Y„|b,r) fur alle Auskunftspersonen n simuliert werden. Dies ware zum einen sehr zeitaufwandig, zum anderen wurde es die resultierenden Schatzwerte beeinflussen, da die Simulation der Mittelwerte der Posteriori-Funktion auf der Pramisse beruht, dass Ziehungen aus der Posteriori-Funktion vorgenommen werden konnen, ohne die Auswahlwahrscheinlichkeiten simulieren zu mussen.^^"^ Das Ziehen aus p(b,r| Y) gestaltet sich schnell und einfach, wenn jedes P„ als Parameter neben b und F interpretiert wird und mit dem Gibbs-Sampler eine relativ einfache Variante des MCMC-Algorithmus zur Bestimmung der Parameterwerte fiir b, F und Pn V n verwendet wird.^^^ Die gemeinsame Posteriori-Verteilung fur b, F und Pn V n ist:
p(b,r,p„ IY) ~ np„(Y„|p„)p(p„|b,r)p(b,r)
(60)
n=l
Mit Hilfe des Gibbs-Samplers werden die Ziehungen fiir einen Parameter jeweils unter der Annahme bestimmter Werte fiir die verbleibenden Parameter durchgeftihrt. Der GibbsSampler konvergiert ab einer bestimmten Anzahl an Iterationen gegen Ziehungen aus der gemeinsamen Posteriori-Verteilung fiir alle Parameter. Die Iterationen, die der Konvergenz vorausgehen, werden auch als burn-in bezeichnet. Dementsprechend sind fiir den Fall, dass die burn-ins iiberschritten wurden, die letzten Ziehungen aus Gleichung (60) ein Stichprobenelementvonp(b,F,PjY). Die Parameter werden in einem iterativen Prozess geschatzt, der relativ robust ist und nicht von den Startwerten abhangt. AUerdings sollte eine gute Schatzung der Startwerte zu schnellerem Konvergieren des Algorithmus fiihren. Beispielsweise konnen als Ausgangsschatzwerte gewahlt werden:^ *^ •
fur P„Vn kleinste Quadrate Schatzungen, wobei die abhangigen Variablen als 0 und 1 kodierten Wahlentscheidungen darstellen,
• •
fur b die Mittelwerte der Ausgangswerte fiir P„ Vn und fur die Matrix F die Varianzen und Kovarianzen der Ausgangswerte fiir PnVn bzw. die entsprechende Einheitsmatrix.
Ausgehend von diesen Ausgangswerten wird ein dreistufiger Iterationsprozess durchlaufen:
Eine Conjoint-Analyse mit rund 15 Teilnutzenwerten und 500 Probanden fiihrt zu einer Integration in tausenden Dimensionen, vgl. Allenby, G.M./Rossi, P.E. (2003), S. 4. ^^^ Vgl. Train, K. (2003), S. 296. ^•^ Vgl. Casella, G./George, E.I. (1992), S. 167ff.; Smith, A.F.M. (1993), S. 3ff. ^'^ Vgl. Sawtooth (2003), S. 8.
99
(1) b| r,pn: Aus den aktuellen Schatzungen fiir P^Vn und von F wird eine neue Schatzung ftir r abgeleitet. Dabei wird angenommen, dass a normalverteilt mit einem Mittelwert in Hohe der Durchschnittswerte von P^ Vn und mit einer Kovarianz-Matrix T dividiert durch die Anzahl der Auskunftspersonen n ist. Eine neue Schatzung ftir a wird aus dieser Verteilung gezogen. (2) r |b,pn: Ausgehend von aktuellen Schatzwerten ftir pn und von b wird ein neuer Schatzwert fur F aus der inversen Wishart Verteilung abgeleitet. (3) Pn|b, F: Basierend auf den jeweiligen Schatzungen ftir b und F werden neue Schatzwerte fur die Pn generiert. Dies geschieht mit Hilfe des Metropolis Hastings Algorithmus. Sukzessive Ziehungen der pn liefem eine immer besser werdende Anpassung des Modells an die Daten, bis das Modell so gut ist, dass keine relevanten Veranderungen mehr beobachtet werden bzw. eine zuvor festgelegte Obergrenze an Schritten erreicht wird. In diesem Fall hat der iterative Prozess konvergiert. Schritt (1) ist relativ einfach, Erklarung bedarf allerdings die Methode ftir das Ziehen aus einer multivariaten Normalverteilung. Die Matrix F kann mit Hilfe der so genannten CholeskyDekomposition zerlegt werden. Dazu wird F als das Produkt TT' dargestellt, wobei T eine quadratische untere Dreiecksmatrix reprasentiert. Wenn die Vektoren u und v=T u gegeben sind und alle Elemente von u unabhangig standardnormalverteilt sind, kann gezeigt werden, dass —T^uu' im Falle einer groBen Anzahl an Auskunftspersonen N eine Approximation ftir F darstellt.^*^ Ftir die Stichprobenziehung wird also eine Cholesky-Dekomposition von F durchgefuhrt, um T zu erhalten und anschlieBend T mit einem Vektor u mit unabhangig normalverteilten Abweichungen multipliziert. Der resultierende Vektor b = p +Tuq ist normalverteilt mit einem Mittelwert von P und einer Varianz von F. In Schritt (2) werden die Werte ftir F auf Grundlage gegebener Schatzwerte ftir b und P^Vn berechnet. Dabei sei P die Anzahl der Parameter, die ftir jeden Probanden n zu schatzen sind, und Q=N+P. Als Priori-Schatzungen ftir F wird die Identitatsmatrix I der P-ten Dimension verwendet. Die Matrix H kombiniert die Priori-Informationen mit den gerade aktuellen Schatzwerten ftir b und PnVn :
H = P-I + J(b-pJ(b-p„)'
(61)
n=l
H'^ wird mit Hilfe der Cholesky-Dekomposition ermittelt: H-'= T T'
^'^ Vgl. Sawtooth (2003), S. 23f.
100
(62)
Als nachstes werden Q Vektoren u unabhangiger normalverteilter Zufallswerte mit einem Erwartungswert von 0 und einer Varianz von 1 berechnet, die jeweils mit T multipliziert werden. Die resultierenden Produkte werden kumuliert:
-i(Tu
S = l(Tu^)(T.u^)'
(63)
Als Schatzwerte ftir T werden schlieBlich die Werte S"' verwendet, die annahmegemaB Ziehungen aus einer invertierten Wishart-Werteilung entsprechen.^*^ Schritt (3) ist der rechenaufwandigste Schritt, denn es ist hier nicht moglich, einfache Ziehungen durchzufiihren, und es muss auf den Metropolis-Hastings-Algorithmus zuriickgegriffen werden, allerdings auf eine Art und Weise, bei der keine Simulation innerhalb des Algorithmus notig ist.^^^ Im Rahmen der Schatzung werden die individuellen Schatzwerte fur p„ des vorhergehenden Iterationsschrittes in pf umbenannt. AnschlieBend wird ein neuer Kandidat fiir PJ, konstruiert, indem zu jedem Element des Vektors Pf ein Differenzvektor d addiert wird, der aus einer Normalverteilung mit einem Erwartungswert von 0 und mit einer zu T proportionalen Kovarianz-Matrix gezogen wurde: Pr=Pr+pLd.
(64)
Der Skalar p, der zu Beginn vom Anwender festgesetzt wird, ist dabei ein MaB fur die Schrittweite der Veranderung. L ist wiederum der Choleski-Faktor fur F. Zur Uberpriifung, inwiefem sich die Schatzergebnisse verbessert haben, wird unter Verwendung des Logit-Modells die bedingte Wahrscheinlichkeit p(Yn|Pr) bzw. p(Yn|pf) fiir die Daten bei gegebenen Teilnutzenwerten PJJ^" bzw. pf berechnet. Dann wird die Likelihood durch eine Multiplikation der Wahrscheinlichkeiten fiir jede Auswahlentscheidung der Auskunftspersonen berechnet (vgl. Gleichung (50)). Die Likelihoods werden sowohl fiir PJ^" als auch fur Pf berechnet, entsprechend mit Ineu bzw. mit lait bezeichnet und der Quotient Ineu/lait gebildet. Unter Berucksichtigung, dass das hierarchische Modell eine Ziehung der individuellen Pn aus einer multivariaten Normalverteilung mit dem Mittelwertvektor b und einer Kovarianz-Matrix r annimmt, konnen die relativen Wahrscheinlichkeiten, dass pJJ^" und pf aus dieser Verteilung gezogen wurden, p^^^ =p(pj^"|b,r) bzw. p^^^ =p(Pf |b,r) berechnet werden. Es wird zudem der Quotient dieser Wahrscheinlichkeiten pneu/pait ermittelt. SchlieBlich wird aus den beiden Quotienten das Produkt gebildet:^^^
Vgl. Train. K. (2003), S. 301f.; Sawtooth (2003), S. 23f. Der Gipps-Sampler ist ein Spezialfall des Metropolis-Hastings-Algorithmus, vgl. Chib, S./Greenberg, E. (1995), S. 327ff.; Chib, S./Jeliazkov, I. (2001), S. 270ff. ^^° Vgl. Sawtooth (2003), S. 9.
101
^_i„e. p.„_p(Yn|Pr)P(Prib.r) lai, Pal, p(Y„|pr)p(pr|b,r) Aus Abschnitt 3.3.2.2.1 ist bekannt, dass pneu und pait als Priori-Wahrscheinlichkeit interpretiert werden konnen. Beriicksicht man dariiber hinaus, dass die PosterioriWahrscheinlichkeiten proportional zu dem Produkt aus Priori-Wahrscheinlichkeit und der bedingten Wahrscheinlichkeit fur die Daten bei wahren Modellparametem ist, stellt r den Quotienten der Posteriori-Wahrscheinlichkeiten dar. Es handelt sich damit um einen Fall der Bayes-Aktualisierung der Daten. Da nur der Quotient der Posteriori-Wahrscheinlichkeiten fiir die Auswahl von Pn relevant ist, reicht in Gleichung (59) die Proportionalitatsbedingung. Der Standardisierungsfaktor, der nicht von den Modellparametem abhangt, kann eliminiert werden, da er sowohl in Nenner als auch Zahler auftauchen wiirde. Wenn r groBer als 1 ist, haben die neuen Schatzwerte p|;^" eine groBere PosterioriWahrscheinlichkeit als die alten Pf und wird P"^" angenommen. Wenn r kleiner als 1 ist, w^ird Pneu niit einer Wahrscheinlichkeit von r angenommen und ansonsten verworfen.^^^ Der Prozess wird in aller Regel mehr als 10.000 Mai wiederholt, wobei die Iterationen in zwei verschiedene Gruppen eingeteilt werden. Die ersten (mehreren) 1000 Schritte werden verwendet, um Konvergenz zu erzielen, wobei mit zunehmender Anzahl an Iterationen die Daten zunehmend genauer abgebildet werden konnen. Diese Iterationen werden als preliminary, burn-in oder transitory bezeichnet. Die letzten (mehreren) 1(XX) Iterationsschritte werden fiir die spatere Analyse gespeichert, um Schatzungen fur die p„, b und T vomehmen zu konnen.
Die Umsetzung erfolgt durch die Ziehimg einer gleich verteilten Zufallszahl n' aus dem Intervall [0;1]. Ist r> \\} wird p"^" akzeptiert, andernfalls abgelehnt und auf p^' gesetzt.
102
Eingabe
Aufbereitung der Schatzergebnisse
Schatzprozess
der Sohil4>aram0tdr
|^
SegmentNutzenfunktionen i
I
k
O (0 ©
Aggregierte Ebene
0 T3
Individualebene
£ J5
/
/ n~2*10.000 V ^ Wiederholunger1 y
i!.
o r
CD CO
c
<
bestimmt Beobachtete Wahldaten V
»
Statistische Auswertung. ^ Individuelie z.B. MIttelwertberechnung Nutzenfunktionen
J
A
Quelle: In Anlehung an Teichert, T. (2001b), S. 191.
103
Gelman et al haben als optimale Akzeptanzrate 0,44 fiir eine Anzahl an Parametem von P=l geschatzt, die allerdings fiir eine groBere Anzahl an Parametem bis auf 0,23 sinken kann.^^^ Uber die Wahl von p kann eine Akzeptanzrate in dieser GroBenordnung erreicht werden.^^^ Die drei bedingten Posteriori-Wahrscheinlichkeitsfunktionen werden auch als Ebenen des Gibbs-Sampling bezeichnet. Die erste Schicht hangt mehr von den Daten der einzelnen Auskunftsperson n als von der gesamten Stichprobe ab. Die zweite und dritte Schicht hangt nicht direkt von den Daten ab, sondem von den Ziehungen der p„, die wiederum von den Daten abhangen. Der Gibbs-Sampler weist vor allem zwei Vorteile auf. Zum einen beinhaltet keine der Schichten Integrale. Insbesondere wird in der ersten Schicht nur das Produkt der Logit-Formeln bei gegebenen p„ verwendet. Auf diese Art und Weise vermeidet der Gibbs-Sampler die Berechnung von Mixed-logit-Funktionen. Zum anderen wird in der zweiten und dritten Schicht die Verwendung der beobachteten Daten umgangen, da sie ausschlieBlich von den Ziehungen der P„ Vn abhangt. Lediglich Mittelwert und Varianz der p„ mtissen auf dieser Ebene berechnet werden. Im HB-Modell gibt es Hierarchien in verschiedener Hinsicht. Eine Hierarchic der Parameter liegt vor, denn die p„ stehen fiir die Individualparameter der Person n und beschreiben die Praferenzen dieser Person. In der Gesamtpopulation folgen die p„ einer Wahrscheinlichkeitsverteilung mit einem Erwartungswert von a und einer Varianz von P. Die Parameter a und T werden auch als Populationsparameter oder Hyperparameter bezeichnet. Auch die Priori-Verteilungen weisen eine hierarchische Beziehung auf. Die Priori-Verteilung P„ fur die einzelne Auskunftsperson n ist die Dichte fiir p„ in der Gesamtpopulation. Diese Priori-Verteilung hat ihrerseits Parameter (Hyperparameter), und zwar einen Erwartungswert von a und eine Varianz von F, fiir die ihrerseits wiederum (Ausgangs-)Priori-Verteilungen existieren. Im Gegensatz zur klassischen Individualanalyse hangt die Schatzung der individuellen Teilnutzenwerte nicht allein von den Daten der entsprechenden Auskunftsperson n p(P„ |Yn), sondem daruber hinaus noch von dem Auswahlverhalten der gesamten Stichprobe p( p„ |Y) ab. Der Einfluss der Individualdaten wird im Vergleich zum Einfluss der Annahme zufallsverteilter Teilnutzenwerte auf Populationsebene zur Schatzung der individuellen Parameter p„ von der Bedeutung der probabilistischen Komponente in den individuellen Daten im Vergleich zum AusmaB der Heterogenitat in p(p„ |b,r) mitbestimmt.^^^ Falls die probabilistische Komponente ausgepragt bzw. die Heterogenitat gering ist, ahneln sich die Schatzwerte fiir p„ fiir ^^^ Vgl. Gelman, A.et al. (1995), S. 335. ^^"^ p kann innerhalb des Iterationsprozesses adjustiert werden, falls die gewiinschte Akzeptanzrate verfehlt wird, vgl. Train, K. (2003), S. 306. ^^^ Vgl. im Folgenden Allenby, G.M./Rossi, P.E. (2003), S. 7.
104
die einzelnen Auskunftspersonen tendenziell. Falls die probabilistische Komponente dagegen wenig ausgepragt und die Homogenitat gro6 ist, werden die Schatzungen fur P„ starker von den individuellen Daten Yn beeinflusst. Die Balance zwischen diesen beiden Einflussfaktoren wird automatisch durch das Bayes-Theorem festgelegt, so dass hier keine zusatzlichen Angaben vom Anwender erforderlich sind. 3.3.2.2.4 Gate der Ergebnisse der HBCA Von grundlegender Bedeutung fiir die Beurteilung der geschatzten Nutzenfunktion ist das Erreichen der Konvergenz der Markov-Yj^iit gegen eine stationare Verteilung, denn nur dann wird auch tatsachlich aus der gemeinsamen Posteriori-Verteilung der verschiedenen Parameter gezogen. Die Konvergenz und die Frage, ob es sich bei der simulierten Verteilung um eine globale Oder lediglich um eine lokale Losung handelt, kann untersucht werden, indem der Iterationsprozess mehrfach unabhangig voneinander angestoBen wird.^^^ Konvergenz liegt fur den Fall vor, dass sich die resultierenden Posteriori-Verteilungsfunktionen hinreichend ahnlich sind. Altemativ konnen auch die geschatzten Mittelwerte der Nutzenwerte im Verlauf des Iterationsprozesses verwendet werden, wobei allerdings mangels Unabhangigkeit keine direkt aufeinander folgenden Ziehungen verwendet werden sollten.^^^ Analog konnen die Varianzen bei unterschiedlichen Iterationsschritten betrachtet werden.^^^ Ergebnis der HBCA ist die gemeinsame Posteriori-Verteilung der unbekannten Parameter, wobei haufig nur die Mittelwerte der individuellen Nutzenparameter von Interesse sind und die weiteren Verteilungsinformationen ignoriert werden. Die Mittelwerte konnen aufgrund der zumeist unterstellten Normalverteilung durch einfaches Bilden des arithmetischen Mittels der Ziehungen aus der bereits gegen die stationare Verteilung konvergierten Markov-Kette bestimmt werden. Die dariiber hinaus gehenden Verteilungsinformationen konnen zur Beurteilung der Unsicherheit der geschatzten Nutzenparameter - bspw. in Form der Standardabweichung der entsprechenden Parameterwerte - genutzt werden.^^^ Die Ermittlung individueller Nutzenwerte eroffnet im Gegensatz zum aggregierten wahlbasierten Modell den Einsatz von anderen Entscheidungsregeln als dem Logit-Modell, das aufgrund der IIA-Eigenschaft nicht unproblematisch ist.^^^ Zumindest die Verwendung der FirstChoice-Regel, wenn nicht bereits allein die Schatzung individueller Nutzenparameter, konnte die IIA-Problematik der MNL-Modelle abschwachen.^^^
Vgl. Gelman, A.et al (1995), S. 330. Beispielsweise kann jede zehnte Iteration als Simulationsziehung verwendet werden, vgl. Gelman, A.et al. (1995), S. 329. Vgl. zu Konvergenztests der Markov Chain Monte-Carlo-Simulation bspw. Cowles, M.K./Carlin, B.P. (1996), S. 883ff. und zu der mit den Ansatzen verbunden Problematik insbesondere Gelman, A.et al. (2000), S. 333 und Carlin, B.P./Chib, S. (1995), S. 473ff Dabei sind Unterschiede hinsichtlich der Interpretation der Nutzenparameter zu beachten, vgl. Allenby, G.M./Ginter, J.L. (1995), S. 397; Lenk, P.J.et al. (1996), S. 180. Vgl. Abschnitt 3.3.1.4. Vgl. Orme, B. (2000), S. 7.
105
3.4
Ubertragung der heterogenitatsberiicksichtigenden Weiterentwicklungen der CBCA auf den metrischen Limit-Conjoint-Ansatz
3.4.1 Limit-Finite-Mixture-Conjoint-Analyse (LFMCA) Die Ausfiihrungen in Abschnitt 3.3.2.1 verdeutlichen, dass es sich bei der LCCA um einen Spezialfall von Finite-Mixture (FM)-Modellen handelt, der auf (1) der experimentellen Versuchsanordnung der Conjoint-Analyse, (2) einem wahlbasierten Erhebungsansatz und (3) diskreten Verteilungsannahmen iiber die Heterogenitat im Modell aufbaut. Aufgrund der expliziten Erfassung von Auswahlentscheidungen eignet sich der Ansatz im Gegensatz zu solchen FM-Modellen, die metrisch skalierte Daten erheben, nur zur Untersuchung von diskreten Kaufentscheidungen. Andererseits kann gezeigt werden, dass metrische Regressionsansatze mittels Erweiterung um die Limit-Card prinzipiell ebenfalls geeignet sind, Kaufentscheidungen im Modell abzubilden.^^^ Es liegt nahe, die Grundidee der Einfuhrung der Limit-Card auf den metrischen FM- bzw. LC-Ansatz zu iibertragen und einen neuen Ansatz zu entwickeln, der im Folgenden als Limit-Finite-Mixture-Conjoint-Analyse (LFMCA) bezeichnet wird.^^^ Dazu werden im Folgenden aufgrund der ausfiihrlichen Darstellung des wahlbasierten Modells nur kurz die Grundziige von metrischen FM-Modellen aufgezeigt und im Anschluss die Modifikationen durch die Integration einer Limit-Card diskutiert.^^"^ 3.4.1.1 Grundziige des metrischen Finite-Mixture-Regressionsansatzes Das metrische FM-Modell stellt eine Kombination aus der Grundidee des FM-Ansatzes und dem Regressionsmodell der klassischen Conjoint-Analyse dar. Die Datenerhebung und damit die Erfassung der Praferenzen ist identisch zur TCA. Unterschiede bestehen in der Modellierung der Praferenzen und im Ansatz zur Schatzung der Nutzenwerte und damit in der Analyse der Praferenzen. Es werden Nutzenparameter fur eine gegebene endliche Zahl von annahmegemaB homogenen Segmenten geschatzt.^^^
Fur einen kritischen Vergleich zwischen metrischem und wahlbasiertem Conjoint-Ansatz vgl. Abschnitt 4.4.1 und die dort angegebenen Quellen. Durch den Begriff Limit wird deutlich, dass es sich bei der LFMCA nicht um einen wahlbasierten Ansatz handeln kann, da der Einsatz der Limit-Card nur bei intervall- bzw. ordinal-skalierten Daten sinnvoll ist. Die Bezeichnung LCCA fiir den wahlbasierten Ansatz ist streng genommen missverstandlich. Genauer ware die Bezeichnung Latent-Class-Choice-Based-Conjoint-Ana\yse und ais Abkiirzung LCCBCA. Um diesen langeren Ausdruck zu vermeiden und der Verwendung des Begriffes in der Praxis Rechnung zu tragen, wird auf die Konstruktion eines sechs Bestandteile umfassenden Begriffes verzichtet und auch im weiteren Verlauf die Bezeichnung LCCA verwendet. Um eine Verwechslung zwischen LCCA und dem metrischen Ansatz zu vermeiden, wird das Verfahren als Limit-Finite-Mixture-Conjoint-Analyse (LFMCA) statt Limit-LatentClass-Conjoint-Analyse bezeichnet. LCCA und LFMCA gehoren aber beide der Klasse der FM-Modelle an. Vgl. zu einer Gegeniiberstellung von LCCA und FMCA Vhens, M./Oppewal, HJWedel, M. (1998), S. 237ff. Vgl. Allenby, G.M./Ginter, J.L. (1995), S. 401.
106
3.4.1.1.1 Modellierung von metrischen Finite-Mixture-Conjoint-Modellen Das Modell der metrischen FMCA entspricht vom Grundgedanken dem wahlbasierten LCCA-Ansatz, allerdings mit dem Unterschied, dass hier nominal statt intervall-skalierte Daten erhoben werden. Entsprechend werden wie bei der TCA (LCA) den Auskunftspersonen alle Stimuli des reduzierten Designs zur simultanen, komparativen Bewertung vollzahlig vorgelegt.^^^ Aufgrund der Kongruenz bei der experimentellen Versuchsanordnung konnen die Daten fur die LCA ebenfalls mit der metrischen LCCA geschatzt werden. Allerdings bestehen Unterschiede bezuglich der Grundannahmen der beiden Ansatze. Der metrische FM-Ansatz basiert auf der Pramisse, dass die Praferenzen der Auskunftspersonen diskret-heterogen sind, d.h., die Auskunftspersonen lassen sich in verschiedene homogene Segmente einteilen. Dieser Ansatz erlaubt zum einen eine quasi-simultane Segmentierung nach Praferenzkriterien und Schatzung der Nutzenparameter. Zum anderen konnen fiir den Fall, dass pro Auskunftsperson relativ wenige Informationen vorliegen, zur Schatzung der individuellen Nutzenparameter Informationen der gesamten Stichprobe herangezogen werden.'" Durch die Verwendung metrischer Daten ergeben sich im Vergleich zur wahlbasierten LCCA einige Anderungen.^^^ Da im Gegensatz zur wahlbasierten LCCA die unabhangige Variable nicht bereits als Zufallsvariable aufgefasst wird, ist zunachst eine gesonderte Dichtefunktion fur die beobachtete Bewertung der Stimuli durch Proband n als Kombination einer endlichen, der latenten Segmente entsprechenden Zahl an bedingten segmentspezifischen Dichtefiinktionen zu defmieren: P„(Y„) = i<x,p„,(U„|X.p„r,)
(66)
s=l
mit: pn(-): Dichtefunktion fiir Auskunftsperson n, Un: ttj:
Vektor der Rating-Bewertungen der K Altemativen ftir Auskunftsperson n, relative GroBe von Segment s,
pns(0' konditionale Dichtefunktion fiir Auskunftsperson n unter der Bedingung, dass er Segment s angehort, X:
(J X M)-Matrix mit den Dunmiy-Variablen der K Altemativen,
P^:
Vektor der Teilnutzenwerte fiir das Segment s,
Vgl. zur Definition und Prasentation der Stimuli Abschnitte 3.1.2.1.2 und 3.1.2.1.5. Vgl. analog Abschnitt 0. In diesem Abschnitt erfolgt eine knappe Herleitung des Modells der metrischen LCCA, vgl. zum Verstandnis ausfiihrlich die nahezu analoge Argumentation fiir den wahlbasierten Ansatz. Der im Folgenden vorgestellte Ansatz entspricht dem von DeSarbo, W.S./Wedel, M./Vriens, M. (1992).
107
r^:
Kovarianz-Matrix der FehlergroBen fiir Segment s,
wobei die folgenden Nebenbedingungen zu beachten sind: 0 < a , <1,
(67)
toCs=l.
(68)
s=l
Es wird angenommen, dass jede der bedingten Dichtefunktionen pns(-) multivariat normalverteilt ist:
p„,(uJx,P3,rj = X(27c)-f |rj-^expf-l(u„-xpjr;^(u„-xpjl
(69)
Ziel der metrischen LCCA ist es, die segmentspezifischen Vektoren der Teilnutzenwerte P^ zu bestimmen, wobei diese in Form einer linear-additiven Verkniipfungsfunktion die Vektoren der segmentspezifischen Gesamtnutzenwerte bestimmen: U, =Xp,
(70)
Da annahmegemafi die einzelnen Segmente homogen hinsichtlich der Praferenzstruktur sein sollen, kann der segmentspezifische Gesamtnutzen U^^ fur Alternative k mit dem Mittelwert jLij^ der Bewertungen fur Alternative k im Segment s gleichgesetzt werden: ^^^ Us.=^Ask.
(71)
Es wird deutlich, dass ein VerstoB gegen die Homogenitatsannahme fur einzelne Segmente zu einer verzerrten Schatzung der Nutzenwerte fuhrt. 3.4.1.1.2 Schatzung der Nutzenparameter im Rahmen des Finite-MixtureRegressionsansatzes Zur Schatzung von FM-Modellen im Kontext der Conjoint-Analyse hat sich der MaximumLikelihood-Ansatz durchgesetzt. Die Likelihood-Funktion ergibt sich unter der Pramisse der Unabhangigkeit der Auskunftspersonen als Produkt der individuellen Dichtefunktionen.^"^^ Zielkriterium im Rahmen des I^-Modells ist es dann, die folgende Likelihood- bzw. die mathematisch einfacher zu handhabende Log-Likelihoodfunktion zu maximieren: [Xa,(2jc)-f |Dj 2expf-i(U„ -Xp,)rDr(U„ - X p j j
(72)
n=l
bzw.
Die dargestellte Gleichsetzung wird auch als Identity-Link bezeichnet. Bei Verwendung einer von der Normal verteilung abweichenden Annahme werden weitere Link-Funktionen herangezogen, vgl. Wedel, MJKamakura, W. (2000), S. 82f. ^^ Vgl. Wedel, M./Kamakura. W. (2000), S. 80.
108
l^L = i Jta,(2K)-f IrJ Uxpf-l(u„-XPJD:'(U„ ^
->max.
(73)
Bei der Maximierung sind die folgenden Nebenbedingungen aus Gleichung (67) und Gleichung (68) zu beachten: Die Zahl der Segmente ist vom Anwender festzulegen, wobei in aller Regel das Modell nacheinander mit verschiedenen Pramissen fiir die Anzahl der Segmente geschatzt wird, da a priori zumeist keine sinnvoUen Aussagen iiber die Zahl der Segmente getroffen werden konnen, da diese unbeobachtet (latent) sind. Die Schatzung des metrischen FM-Modells erfolgt i.d.R wiederum mit Hilfe des E-M-Algorithmus.^"^^ Dabei werden wie beim wahlbasierten Ansatz iterativ Wahrscheinlichkeiten fur die Segmentzugehorigkeit und damit die relative GroBe der Segmente sowie die segmentspezifischen Nutzenparameter geschatzt.^"^^ 3.4.1.2 Integration der Limit-Card in den metrischen Finite-Mixture-Ansatz Da die metrische LCCA sich hinsichtlich der Datenerhebung nicht von der TCA unterscheidet, liegt es nahe, analog zur LCA das Grundmodell zu erweitem und die Limit-Card in das Modell zu integrieren. Die Auskunftspersonen werden aufgefordert, nach der Beurteilung der einzelnen Altemativen die Limit-Card zu platzieren und analog zur LCA mit einem Punktwert zu versehen. Die Beurteilung der LC wird als Nutzennullpunkt interpretiert und alle Gesamtnutzenwerte einer linearen Skalentransformation unterzogen: u!;k = u : , - u : ; ^
(74)
mit: \5\^:
transformierter Limit-Gesamtnutzenwert fiir Auskunftsperson n und Alternative k,
U^^: beobachteter Gesamtnutzenwert fiir Auskunftsperson n und Alternative j , Uj;^: Bewertung fiir die Limit-Card durch Auskunftsperson n. Der Zeitpunkt, zu dem die Transformation der Nutzenwerte durchgefuhrt werden soil, muss diskutiert werden, da innerhalb des Modells eine Aggregation der Nutzenwerte auf Segmentebene vollzogen wird. Fur den Fall des Vorliegens vollkonmien homogener Nutzensegmente in der Stichprobe ist der Zeitpunkt der Transformation unerheblich. Wie dargestellt ist in der Realitat aber mit einem VerstoB gegen die Homogenitatspramissen zu rechnen. Aus diesem Grunde werden Wahrscheinlichkeiten fiir die Segmentzugehorigkeit einzelner Befragter ermittelt. Die Transformation sollte vorher durchgefuhrt werden, wenn den Informationen uber
^*' Vgl.Abschnitt 3.3.2.1.2. ^'^^ Alternativ kann auch das Newton-Raphson-Werfahrcn verwendet werden, das sich in der Anwendung allerdings haufig als diffizil erweist. Zudem ist im Gegensatz zum E-M-Ansatz nicht sichergestellt, dass der Algorithmus konvergiert. Wobei allerdings anzumerken ist, dass es sich bei dem mit Hilfe des E-MAlgorithmus ermittelten Optimums nicht notwendigerweise um ein globales Optimum handeln muss. Vorteil des Newton-Raphson-Algorithmus ist fiir den Fall der Konvergenz, dass er in zumeist weniger Iterationen als beim E-M-Algorithmus konvergiert, vgl. Titterington, D.M./Smith, A.F.M./Makov, U.E. (1985), S. 88f.
109
die Heterogenitat in der Stichprobe eine bedeutende Information zukommt. Die Frage, ob ein Konsument ein Produkt kauft oder nicht kauft, sollte flir die Bildung von Segmenten von entscheidender Bedeutung sein. Aus Sicht des Anwenders sollten sich Konsumenten trotz identischer Teilnutzenwerte fiir alle Auspragungen erheblich voneinander unterscheiden, wenn sie aufgrund von anderen als den in der Untersuchung explizit erfassten Produkteigenschaften eine Alternative fur kaufenswert oder nicht-kaufenswert erachten. Aus diesem Grunde konnen von der Platzierung der Limit-Card ebenfalls wichtige Informationen fiir die Marktsegmentierung abgeleitet werden, und die Transformation sollte in diesem Fall vor der Bildung der Segmente und Schatzung der Nutzenwerte erfolgen. Bei einer anschlieBenden Transformation werden die Informationen iiber die individuelle Kaufbereitschaft weniger verzerrt, allerdings besteht die Gefahr, dass fiir die Klassenbildung bedeutende Informationen ignoriert werden und die Heterogenitat nicht adaquat abgebildet wird. Deshalb wird im praktischen Teil der Arbeit die Transformation vor der Schatzung der Nutzenwerte durchgefuhrt.^"^^ Die Auswahlregeln mtissen analog zur LCA modifiziert werden, so dass sich die folgende modifizierte First-Choice-Regel ergibt:^"^
P»^M=li'lt5™^"'-""---'""^^^^-'' O,sonst
(75)
nut: pJ;(k'):Wahrscheinlichkeit,
dass
Auskunftsperson
n
auf
Grundlage
der
Limit-
Nutzenparameter die Alternative k' wahlt, Uj;^: Limit-Gesamtnutzenwert des Produktes k fiir Auskunftsperson n, K:
Anzahl der Altemativen k.
Entsprechend konnen auch die anderen Auswahlregeln verwendet werden, wobei die Modifikation analog zu Abschnitt 3.2.2 erfolgt. Wurde bei der LCA aufgrund des rein deterministischen Ansatzes der Einsatz der First-Choice-Regel empfohlen, kann bei der LFMCA aufgrund der probabilistischen Modellkomponenten ebenfalls zugunsten der probabilistischen BTL- oder Logit-Regeln argumentiert werden.^"^^ 3.4.1.3 Gate der Ergebnisse der Limit-Finite-Mixture-Conjoint-Analyse Wie beim wahlbasierten Ansatz des LC-Modells muss die Anzahl der Segmente vom Anwender vorgegeben werden. In der Regel sind die Parameter fiir mehrere verschiedene SegmentIn diesem Punkt besteht noch Forschungsbedarf, der durch Monte-Carlo-Simulationen zu beheben ist. Vgl. analog Abschnitt 3.2.2. Im Rahmen dieser Arbeit soil jedoch ausschlieBlich die modifizierte First-Choice-Regel in Zusanmienhang mit der LFMCA verwendet werden. Dafiir spricht insbesondere die deterministische Platzierung der LimitCard durch die Auskunftsperson und die Erhebung von metrischen Daten, die nach Argumentation aus Abschnitt 2.2.3 eher bei tendenziell extensiven oder limitierten Kaufentscheidungssituationen einzusetzen sind.
110
definitionen zu berechnen, und anschliefiend ist mit Hilfe geeigneter Informationskriterien die optimale Anzahl an Segmenten zu bestimmen. Dazu stehen grundsatzlich die Kriterien des wahlbasierten Ansatzes zur Verftigung, wobei allerdings fur den Regressionsansatz ein Monte-Carlo-Vergleich zeigt, dass hier nicht das MAIC, sondem BIC und CAIC besonders geeignet sind.^"^^ Auf Basis des Modells mit der ausgewahlten Segmentzahl konnen dann Plausibilitatsuberlegungen und Signifikanztests durchgefuhrt werden. Allerdings ist der fur den t-Test benotigte Standardfehler bei Konvergenz des E-M-Algorithmus nicht bekannt und muss gesondert berechnet werden. 3.4.2 Limit-Hierarchical-Bayes-Conjoint-Analyse (LHBCA) Analog zur in Abschnitt 3.3.2.1 vorgenommen Verfahrenserweiterung bei den FM-Modellen wird in diesem Abschnitt zuerst ein HB-Regressions-Modell vorgestellt, das grundsatzlich zur Schatzung von Nutzenparametem im Rahmen von metrischen Conjoint-Ansatzen verwendet werden kann, die Abbildung von Nicht-Kaufentscheidungen allerdings nicht zulasst. Aus diesem Grund wird wiederum das Grundmodell um die Limit-Card erweitert, was zur Entwicklung der so genannten Limit-Hierarchical-Bayes-Conjoint-Analyse (LHBCA) fiihrt.^'^^ 3.4.2.1 Grundzuge des metrischen Hierarchical-Bayes-Ansatzes 3.4.2.1.1 Modellierung der unterschiedlichen Modellebenen Wie bei der HBCA setzt sich der HB-Regressionsansatz aus verschiedenen Modellebenen zusammen. Unterschiede bestehen in erster Linie hinsichtlich der Modellierung der individuellen Praferenzen. Auf der unteren Modellebene wird fur die einzelnen Auskunftspersonen statt eines MNL-Modells eine linear-additive Nutzenfunktion spezifiziert. Auf der oberen Modellebene wird wie beim HBCA-Ansatz die Praferenzheterogenitat in der Stichprobe durch eine Annahme iiber die Verteilung der verschiedenen Schatzparameter modelliert. Zur Schatzung der individuellen Nutzenparameter wird auf Individual- und Populationsinformationen zuruckgegriffen.^"^^ Auf oberer Modellebene wird bei dem HB-Regressionsansatz i.d.R. die multivariate Normalverteilung verwendet, die sich in zahlreichen praktischen Anwendungen als besonders geeignet erwiesen hat.
^^ Vgl. Andrews, KL/Currim, IS. (2003a), S. 316ff. ^'^^ Wie beim LC-Ansatz wird das wahlbasierte Conjoint-Modell weiterhin als HBCA bezeichnet, vgl. FuBnote 533. ^^^ Neben der hier vorgestellten Vorgehensweise kann ein HB-Ansatz auch derart modelliert werden, dass die Ergebnisse von zusatzlichen Kovariablen abhangen. Da dieser Ansatz aufgrund mangelnder Vergleichbarkeit mit den anderen Conjoint-Varianten im Rahmen des simulativen Vergleiches allerdings nicht weiter verfolgt wird, sei an dieser Stelle auf die entsprechende Literatur verwiesen, vgl. Lenk, P.J.et al. (1996). ^^^ Vgl. Allenby, G.M./Arora, N./Ginter, J.L (1995), S. 152ff.; Allenby, G.M./Ginter, J.L. (1995), S. 392ff.; Allenby, G.M./Arora, N./Ginter, J.L (1998), S. 384ff.
Ill
Die untere, individuelle Ebene des hierarchischen Regressionsmodells besteht aus einer linear-additiven Nutzenfunktion mit normalverteiltem Storterm: U„=Xp„-f5„,
(76)
wobei 6„ ~ Normal(0,ajl) mit: IJ„:
Vektor der Gesamtnutzenwerte der K Altemativen des reduzierten Designs fur Auskunftsperson n,
X:
Design-Matrix,
P„:
Vektor der berechneten Nutzenwerte fiir Auskunftsperson n,
6„:
Vektor der Fehler-ZStorterme fur Auskunftsperson n,
al:
Varianz der Fehlerterme fiir Auskunftsperson n,
I:
Einheitsmatrix.
Die untere Modellebene beschreibt somit die direkten individuellen Praferenzen iiber ein individuelles Nutzenmodell (within-subject-ModeW). AnnahmegemaB soil bei der Ermittlung der individuellen Praferenzen jedoch auf Informationen aus der gesamten Stichprobe zuriickgegriffen werden, wobei iiber die Annahme multivariat-normalverteilter Nutzen-/ Regressionsparameter eine Verbindung zwischen den einzelnen Individualnutzenwerten geschaffen wird (between-subjects-ModeW): p„ ~Normal(|i,r)
(77)
mit: [i:
Vektor der Mittelwerte fiir die Verteilung der Nutzenparameter,
F:
Kovarianz-Matrix der Nutzenparameter.
Der Anwender muss neben der Verteilungsannahme (zumeist multivariate Normalverteilung) fur die tibergeordnete Modellebene eine Annahme uber die Priori-Verteilung der KovarianzMatrix D, in der Regel eine inverse Wishart-Verteilung, treffen.^^^ 3.4.2.1.2 Schdtzung der Nutzenparameter Wie bei der HBCA werden die Nutzenparameter mit Hilfe eines Gibbs-Samplers und eines darin integrierten MH-Algorithmus geschatzt.^^' Zuerst werden Ausgangswerte fur b, F, G\ , P„ defmiert.
^^° Vgl. Gelman, A.et al. (1995), S. 481. ^^' Vgl. Gensler, S. (2003), S. 162ff.
112
(
Initialisierung
J
i ~H
f
Ziehung der Populationsnutzenparameter
Ziehung der Populationsvarianzparameter
b
T
I
1
i ( Ziehung der individuellen Teilnutzenwerte
X
( Ziehung der individuellen Varianzparameter
P„ J o^^ J
Abbildung 21: Parameterschatzung in der HB-Regressionsanalyse^^^ AnschlieBend werden analog zur HBCA sequenziell, jeweils unter Bedingung aller verbleibenden Parameter, die einzelnen Parameter in einem rekursiven Prozess geschatzt (Abbildung 2j^ 553 j^gj. i-gj^uj-siyg Prozess wird solange wiederholt, bis die Markov-Kette gegen die gemeinsame Posteriori-Verteilung von b, F, c], P„ konvergiert und eine stationare Verteilung der Ziehungen vorliegt. Die Iterationen vor Eintritt der Konvergenz werden ignoriert, die folgenden bzw. eine bestimmte Auswahl daraus zur Simulation der gesuchten Parameter verwendet. 3.4.2.2 Integration der Limit-Card in den metrischen HB-Ansatz GemaB dem Grundgedanken der LCA trennt die Limit-Card diejenigen Altemativen, fiir die die Auskunftsperson eine grundsatzliche Kaufbereitschaft aufweist, von denjenigen, die sie nicht zu kaufen bereit ist. Um bestinmite Nutzenabstande zu den beiden angrenzenden Alternativen bzw. zu der ersten bzw. letzten Alternative bei einer Platzierung vor bzw. hinter den Stimuli des reduzierten Designs auszudrucken, wird der Proband beim metrischen Ansatz dazu aufgefordert, auch die LC mit einem Punktwert zu versehen. Analog zur LCA und LFMCA wird eine Transformation der Nutzenwerte der Altemativen durchgefiihrt, wobei die Limit-Card den individuellen Nutzennullpunkt darstellt. Die Transformation wird umgesetzt,
Quelle: In Anlehnung an Teichert, T. (2001a) und Gensler, S. (2003), S. 163. Die Schatzung der Modellparameter erfolgt analog zu denjenigen bei der HBCA. Aus diesem Grund wird hier nur auf die Grundziige des Verfahrens eingegangen und fiir eine ausfiihrlichere Darstellung auf Abschnitt 3.3.2.2.3 verwiesen. 113
indem der Punktwert der Limit-Card jeweils von den direkten (beobachteten) Bewertungen der verschiedenen Altemativen k subtrahiert wird:
UL=US,-U:;=
(78)
mit: U[;^: transforaiierter Limit-Gesamtnutzenwert fur Auskunftsperson n und Alternative k, U^^: Gesamtnutzenwert fur Auskunftsperson n und Alternative k, Uj;^^: Bewertung fiir die Limit-Card durch Auskunftsperson n. Eine Transformation der Werte vor der Schatzung der Nutzenwerte weist hier den Vorteil auf, dass fiir die Information der Limit-Card iiber die Kaufabsicht ebenfalls eine Zufallsverteilung, in der Kegel eine Normalverteilung, angenommen und dies bei der Schatzung der Parameter beriicksichtigt wird. Wurde die Limit-Transformation nach der Nutzenschatzung durchgefiihrt, wiirde dieser Einflussfaktor bei der Schatzung der Nutzenwerte nicht beriicksichtigt. Die Auswahlregeln miissen analog zur LCA modifiziert werden, so dass sich die folgende modifizierte First-Choice-Regel ergibt:^^"^ „L/,A fl,fallsU„V=maxfj:;„...,U„\,...,U^,}AU„^.>0 P"^^>'"|0,sonst
^'^^
mit: p[^(k'):Wahrscheinlichkeit, dass Auskunftsperson n die Alternative k wahlt, U^,^: Gesamtnutzen der Alternative k fiir Auskunftsperson n, K:
Anzahl der Altemativen k.
Entsprechend konnen auch die anderen Auswahlregeln verwendet werden, wobei die Modifizierung analog zu Abschnitt 3.2.2 erfolgt. Wurde bei der LCA aufgrund des rein deterministischen Ansatzes der Einsatz der First-Choice-Regel empfohlen, konnen in Verbindung mit der LHBCA aufgrund der probabilistischen Modellkomponenten ebenfalls die probabilistische Logit- bzw. BTL-Regel eingesetzt werden.^^^ 3.4.2.3 Gute der LHBCA-Ergebnisse In einem ersten Schritt ist analog zur HBCA zu priifen, ob die Markov-Kette gegen die stationare Verteilung konvergiert ist, was eine notwendige Bedingung dafiir ist, dass die Ziehungen
Vgl. analog Abschnitt 3.2,2. Im Rahmen dieser Arbeit soil jedoch ausschlieBlich die modifizierte First-Choice-Regel in Zusammenhang mit der LHBCA verwendet werden. Dafiir spricht insbesondere die deterministische Platziening der LimitCard durch die Auskunftsperson und die Erhebung von metrischen Daten, die nach Argumentation aus Abschnitt 2.2.3 eher bei tendenziell extensiven oder limitierten Kaufentscheidungssituationen einzusetzen sind.
114
aus der gemeinsamen Posteriori-Verteilung der zu schatzenden Parameter stammen. Uberpriift werden kann die Konvergenz, indem mehrere unabhangige Schatzungen fur das Modell durchgefuhrt werden. Die Anpassung des Modells an die Beobachtungen ist auf Grundlage des BestimmtheitsmaBes zu beurteilen, wobei allerdings zu beachten ist, dass das aus der klassischen Statistik bekannte Konzept der Freiheitsgrade in der Bayes-Statistik in dieser Form nicht existiert und dass aus diesem Grund das einfache und nicht das korrigierte BestinmitheitsmaB zu verwenden ist. Daneben sollten, wie auch bei den anderen Verfahren, Plausibilitatstiberlegungen zur Beurteilung der Gtite herangezogen werden.
115
4 Gegeniiberstellung kaufentscheidungsbezogener Verfahrensvarianten der Conjoint-Analyse aufgrund qualitativer Uberlegungen und einer kritischen Wiirdigung bisheriger Forschungsstudien 4.1
Verschiedene Gutekriterien zum Vergleich von Verfahrensvarianten der ConjointAnalyse
Eine vergleichende Beurteilung von verschiedenen Messverfahren^^^ (bzw. Messverfahrensvarianten) kann je nach Konzeption der Studie anhand von unterschiedlichen Kriterien erfolgen. Je hoher die Ubereinstimmung zwischen den erhobenen Messwerten und den tatsachlichen Werten des zu messenden hypothetischen Konstruktes ist (z.B. Gesamtnutzenwerte oder Teilnutzenwerte), je geringer also die Messfehler sind, desto hoher ist die Gtite des Messinstrumentes bzw. der Messung.^^^ Der fiir die folgende Monte-Carlo-Simulation wichtige Zusammenhang zwischen beobachteten (erhobenen) Messwerten, tatsachlichen (wahren) Messwerten und Messfehlem lasst sich als mathematische Funktion wie folgt darstellen:^^^ X , = X , + X, + X,
(80)
mit: Xi,:
beobachteter (erhobener) Messwert,
X^:
wahrer (tatsachlicher) Messwert,
Xj:
systematischer Fehler,
X^:
unsystematischer Fehler (Zufallsfehler).
Es existiert eine Reihe von Giitekriterien, die sich auf einen bestimmten Teilaspekt einer Untersuchung beziehen. So steht bspw. nach dem Kriterium der Reliabilitat die Ergebnisstabilitat im Sinne der Reproduzierbarkeit bei Wiederholung der Untersuchung unter gleichen Bedingungen im Vordergrund. Anhand von Gleichung (80) kann die Beziehung zwischen Reliabilitat und dem umfassenderen Konstrukt der Validitat dargestellt werden. 4.1.1 Reliabilitat Die Reliabilitat (Zuverlassigkeit bzw. Stabilitat) eines Messinstruments ist ein GutemaB fur die Genauigkeit der Messung eines hypothetischen Konstruktes. Fiir die Stabilitat bzw. Zuverlassigkeit eines Messinstruments spielt es keine RoUe, ob das anvisierte hypothetische Kon-
In der Arbeit werden die beiden Termini Messverfahren und Messinstrument synonym verwendet. Vgl. zur Abgrenzung der Begriffe Messverfahren, Messinstrument und Messmethode Hammann, P./Erichson, B. (2000), S. 86ff Vgl. Albrecht, J. (2000), S. 117f Vgl. Churchill, G.A.J. (1979), S. 65; Campbell, J.P. (1976), S. 187f; Kinnear, T.C/Taylor, J.R. (1996), S. 321; Cote, J.A./Buckley, M.R. (1987), S. 315.
117
strukt X^ Oder aber ein davon systematisch abweichendes hypothetisches Konstrukt (X^ + Xj.) gemessen wird. Die Reliabilitat eines Verfahrens liefert damit keinen Beitrag ftir die Interpretation der beobachteten Messwerte, sondem lediglich fiir das AusmaB der Zufallsfehler X^, mit denen die erhobenen Messwerte X^ behaftet sind.^^^ Die Reliabilitat eines Verfahrens lasst sich auch dann messen, wenn wie bei realen Erhebungen^^^ die zufallsfreien Messwerte (X^ + X J unbekannt sind, indem wiederholte Messungen unter vergleichbaren Versuchsbedingungen durchgefiihrt werden. Ein Messinstrument weist eine hohe Reliabilitat auf, wenn die Unterschiede zwischen den Messungen nur gering bzw. die Ergebnisse hoch korreliert und damit die Zufallsfehler gering sind.^^^ 4.1.2 Validitat Im Gegensatz zur Reliabilitat setzt sich die Validitat eines Messverfahrens mit der Frage auseinander, inwieweit das Messverfahren in der Lage ist, das anvisierte theoretische Konstrukt zu messen. Die Validitat gibt also an, ob das Messverfahren die wahren Messwerte X^ des hypothetischen Konstruktes oder ein anderes hypothetisches Konstrukt (X^ + X J erfasst.^^^ Der systematische Fehler X^ geht in die beobachteten Messwerte X^ ein, falls ein anderes als das beabsichtigte hypothetische Konstrukt erfasst wird, und tritt bei wiederholten Messungen in derselben Weise auf. Unterstellt man den (theoretischen) Fall, dass kein Zufallsfehler Xz existiert, fiihrt der systematische Fehler X^ dazu, dass der beobachtete Messwert X^ nicht mit dem wahren Wert X^ iibereinstimmt. Es wird deutlich, dass ein reliables Messverfahren aufgrund der Existenz eines systematischen Fehlers X^ nicht notwendigerweise valide sein muss.^^^ Allerdings ist lediglich Reliabilitat notwendige Bedingung fiir Validitat, denn die beobachteten Messwerte X^ entsprechen i.d.R. auch dann nicht den wahren Werten X^ des betrachte-
Die vorliegenden Ausfiihrungen beruhen auf der klassischen Testtheorie, vgl. bspw. Nunnally, J.C./Bernstein, I.H. (1994), S. 215ff. Daneben existiert mit der generalizibilty theory eine zweite Theorie, im Rahmen derer die Giiltigkeit der Messergebnisse unter anderen Untersuchungsbedingungen (z.B. Zeitpunkt, Situation) im Vordergrund steht, vgl. Peter, J.P. (1979), S. 11. Im Rahmen dieser Arbeit werden derartige Fragen im Rahmen der Generalisierbarkeit experimenteller Untersuchungen und damit im Kapitel der externen Validitat diskutiert, vgl. Abschnitt 4.2.1. Reale Untersuchungen sollen hier im Vergleich zu Monte-Carlo-Untersuchungen verstanden werden, bei denen auch die zufallsfreien Messwerte ( X ^ + X^) bekannt sind. Vgl. Lienert, G.A./Raatz, U. (1998), S. 175f. Vgl. zur Reliabilitat von Conjoint-Analysen Wittink, D.R.et al. (1989), S. 371ff; Reibstein, D./Bateson, J.E.G./Boulding, W. (1988), S. 271ff. Vgl. Albrecht, J. (2000), S. 120. Aus diesem Grund wird die Validitat haufig als das AusmaB der Freiheit von systematischen Fehlern definiert, vgl. Schnell, R./Hill, P.B./Esser, E. (1999), S. 148.
118
ten hypothetischen Konstruktes, wenn zwar kein systematischer Fehler X^, jedoch ein unsystematischer Zufallsfehler X^ vorliegt.^^ Die Validitat eines Messverfahrens wird zumeist empirisch durch die Berechnung von Validitatskennwerten (Validitatskoeffizienten) auf Basis der beobachteten Messwerte iiberpruft.^^^ I.d.R. wird keine Bereinigung der beobachteten Messwerte beziiglich der Zufallsfehler vollzogen,^^^ so dass neben dem systematischen Fehler X^ auch der Zufallsfehler X^ den Validitatskennwert beeinflusst.^^^ Bei empirischen Untersuchungen sind die wahren Werte des hypothetischen Konstruktes X^ in der Regel unbekannt, so dass zur Uberpriifung der Validitat auf Heuristiken zuriickgegriffen werden muss, mit deren Hilfe auf die Ubereinstimmung zwischen den wahren Werten des hypothetischen Konstruktes und den Messwerten des Messinstrumentes X^, geschlossen wird.^^^ In der Literatur werden drei grundlegende Heuristiken der Validitatspriifung differenziert, die in den drei Validitatsarten inhaltliche Validitat, Kriteriumsvaliditat und Konstruktvaliditat zum Ausdruck kommen (vgl. Abbildung 22).^^^ Die inhaltliche Validitat {content validity) geht der Frage nach, inwieweit die Indikatoren eines Messverfahrens das zu messende hypothetische Konstrukt inhaltlich-semantisch erfassen.^^^ Sie bezieht sich allgemein auf Plausibilitat, Vollstandigkeit und Angemessenheit des Messverfahrens und setzt insbesondere voraus, dass die Erhebung alle oder zumindest die fiir den Untersuchungsgegenstand relevanten Fragen, Probleme und Fallbeispiele (items) umfasst.^^^
^^ Vgl. Churchill, G.A.J. (1979), S. 65; Green, P.E./Tull, D.S. (1999), S. 185. ^^^ Abweichend davon basiert die Inhaltsvaliditat auf qualitativen Uberlegungen. ^^ Vgl. Nunnally, J.C./Bernstein, I.H. (1994), S. 256ff ^^"^ Vgl. Lienert, G.A./Raatz, U. (1998), S lOf. Vgl. zu der in dieser Arbeit verwendeten Definition Bohler, H. (1992), S. 102f., Churchill, G.A.J. (1979), S. 65; Kinnear, T.C./Taylor, JR. (1996), S. 232. ^^^ Vgl. Bohler, H. (1992), S. 105; Kinnear, T.C./Taylor, JR. (1996), S. 234f. ^^^ Vgl. Green, P.E./Tull, D.S. (1999), S. 184; Hildebrandt, L. (1984), S. 42. " ° Vgl. Schnell, R./Hill, P.B./Esser, K (1999), S. 149. ^^' Vgl. Albrecht, J. (2000), S. 122. In der Literatur wird bei inhaltlicher Validitat teilweise danach unterschieden, ob das Messverfahren lediglich das hypothetische Konstrukt inhaltlich-semantisch erfasst oder ob es Plausibilitats-, Vollstandigkeits- und Angemessenheitskriterien geniigen muss. Aufgnind der im Einzelfall schweren Unterscheidung der Kriterien wird eine weitere Differenzierung hier nicht verfolgt. Ein weiterer Aspekt, der in der Literatur unterschiedlich gehandhabt wird, ist die Frage, ob inhaltliche Validitat erst nach Fertigstellung oder bereits wahrend der Konstruktion eines Messinstruments zu beachten und zu priifen ist, vgl. Albrecht, J (2000), S. 122, Neibecker, B. (1985), S. 75.
119
Validitat
Inhaltliche Validitat
Kriteriumsvaliditat
Konstruktvaliditat
Pradiktive Validitat
Externe Validitat (pradiktiv)
Ubereinstimmungsvaliditat
Pradiktive interne Validitat
Interne Validitat i.e.S.
Kreuzvaliditat
Innere Validitat
Externe Validitat I (nicht pradiktiv)
Interne Validitat i.w.S.: ,JEntscheidungsverhalten in hypothetischen Markten" Externe Validitat: ,3itscheidungsverhalten in realen Markten"
Abbildung 22: Systematisierung von verschiedenen Validitatsarten^^^ Die Uberpriifung der Inhaltsvaliditat erfolgt rein qualitativ mittels subjektiver Einschatzungen in Form von Expertenurteilen (Expertenvaliditat) oder Plausibilitatsiiberlegungen (Augenscheinvaliditat).^^^ Der Begriff Konstruktvaliditat beschreibt den Fall, dass auf theoretischen tJberlegungen basierende Annahmen iiber die kausalen Beziehungen von Variablen mit einer empirischen Erhebung verifiziert werden. Es sind also zunachst Hypothesen iiber das zu untersuchende Konstrukt und seine Beziehungen zu anderen Konstrukten aus der jeweiligen Theorie abzuleiten, anschlieBend die verschiedenen Messwerte unter Verwendung der korrespondierenden Messinstrumente zu emiitteln und schliefilich zu tiberpnifen, inwieweit die Messwerte so ausfallen, wie es die aus der Theorie abgeleiteten Hypothesen vorgeben.^^"^ Untersuchungsobjekt der Konstruktvaliditat ist direkt die Beziehung zwischen den wahren Werten des Konstrukts X^ und seinen mit dem zu validierenden Messinstrument erfassten Messwerten Xj,.^^^ Die Uberpriifung der Konstruktvaliditat eines Messverfahrens setzt eine Theorie voraus und befasst sich mit der Frage, was genau das jeweilige Messverfahren misst bzw. wie genau das interessierende hypothetische Konstrukt bzw. dessen Dimensionen mit dem Messverfahren abgebilQuelle: in enger Anlehnung an Brzoska, L (2003), S. 48. Vgl. Hossinger, H.-P. (1982), S. 16ff. Vgl. Hossinger, H.-P. (1982), S. 22. Die Uberpriifung der Konstruktvaliditat kann durch eine Kombination aus konvergierender und diskriminierender Validitat bzw. durch Ermittlung der nomologischen Validitat erfolgen. Vgl. Albrecht, J. (2000), S. 126.
120
det werden und wie trennscharf die Erfassung im Vergleich zu anderen hypothetischen Konstrukten ist.^^^ Die theoretisch hergeleiteten Hypothesen und damit die Konstruktvaliditat gelten als angenommen, falls sie durch die empirischen Messwerte gestutzt werden, wobei bei einer Divergenz der Messwerte allerdings unklar bleibt, ob tatsachlich keine Konstruktvaliditat des zu iiberprufenden Messinstruments vorliegt, die zugrunde liegenden Hypothesen falsch und/oder die iibrigen Messverfahren nicht valide sind.^^^ Bei der Kriteriumsvaliditat werden die Messergebnisse X^ anhand eines unabhangig davon erfassten AuBenkriteriums X^', beurteilt.^^^ Das AuBenkriterium stellt eine andere Operationalisierung des zu messenden hypothetischen Konstruktes dar und reprasentiert dieses direkt Oder indirekt.^^^ Bei der Kriteriumsvaliditat soil geklart werden, wie genau das Messverfahren in der Lage ist, das AuBenkriterium vorherzusagen.^^^ Theoretische Uberlegungen zum hypothetischen Konstrukt werden hingegen lediglich bei der Auswahl des AuBenkriteriums angestellt.^^' In Hinblick auf den zeitlichen Bezug zwischen Ermittlung der zu validierenden MessgroBe und Zeitpunkt der Messung des Validierungskriteriums werden die pradiktive Validitat und die Ubereinstimmungsvaliditat unterschieden.^^^ Die pradiktive Validitat ist ein Indikator fiir die Fahigkeit, zuktinftiges Verhalten bzgl. der untersuchten Objekte und damit ein zeitlich nachgelagertes Validierungskriterium korrekt vorherzusagen.^^^ Ein Messverfahren besitzt pradiktive Validitat, wenn mit den gegenwartig erhobenen Messwerten kiinftige Validitatskriterien prognostiziert werden konnen. Bei der Ubereinstinmiungsvaliditat werden dagegen die Messergebnisse anhand eines Kriteriums validiert, das entweder parallel oder im Vorfeld der Messung des hypothetischen Konstruktes erhoben wurde.^^'* Neben der zeitlichen Unterscheidung nach pradiktiver Validitat und Ubereinstimmungsvaliditat konnen ValiditatsmaBe dahingehend differenziert werden, ob das Validierungskriterium lediglich hypothetisch innerhalb der Befragung (interne Validitat i.w.S.) erhoben wurde oder aber auf tatsachlichem Verhalten, d.h. fiir den Bereich der Marktforschung auf Entscheidungsverhalten von Konsumenten unter realen Marktbedingungen beruht, und damit ein wahres AuBenkriterium darstellt (exteme Validitat).^^^ Die MaBe der Ubereinstinmiungsvaliditat Vgl.lMcJt.//.£. (1974),S.83. Vgl. Carmines, E.G./Zeller, R.A. (1987), S. 24f. Vgl. Voeth, M. (2000), S. 226. Vgl. Schnell, R./Hill, P.B./Esser, E. (1999), S. 149. Vgl. Borg, I./Staufenbiel, T. (1997), S. 48. Vgl. Albrecht. J. (2000), S. 123. Vgl. Fricke, R. (1974), S. 43. Vgl. Cattin, P./Weinberger, M.G. (1980), S. 781. Vgl. Carmines, E.G./Zeller, R.A. (1987), S. 18; Lienert, G.A./Raatz, U. (1998), S. 224. Vgl. Albrecht, J. (2000), S. 161; Tauber, EM. (1977), S. 59ff.; Green, P.E/Srinivasan, V. (1978), S. 103ff.; Vgl. exemplarisch zur Bedeutung der externen Validitat Johnson, R.M. (1974), S. 125; Cook, T.D./Campbell, D.T. (1979), S. 37ff.
121
lassen sich bzgl. der intemen Validitat i.w.S. dahingehend unterscheiden, wie gut die gemessenen Ergebnisse die empirischen Ausgangsdaten (interne Validitat i.e.S.), die Angaben von nicht in die Auswertung einbezogenen Probanden (Kreuzvaliditat)^^^ oder die Messergebnisse bei Einsatz eines anderen Verfahrens bzw. einer Variante desselben Verfahrens („Innere Validitat") approximieren.^^^ Die interne Validitat wird bei Conjoint-Analysen i.d.R. mittels so genannter Holdout-Karten bestimmt, die von den Auskunftspersonen zwar mit den anderen Stimuli im Rahmen des zu validierenden Verfahrens beurteilt, aber nicht zur Schatzung der Praferenzwerte benutzt werden.^^^ Die pradiktive interne Validitat^^^ verwendet als Validierungskriterium simulierte Auswahlsituationen, die nicht im Rahmen des Verfahrens, sondem im Anschluss an die Conjoint-Befragung erhoben werden. Wie bei der Darstellung der intemen Validitat i.w.S. kann auch bei der extemen Validitat danach unterschieden werden, ob vergangene bzw. gegenwartige (nicht pradiktive exteme Validitat) Oder kunftige Handlungen bzw. Entscheidungen (pradiktive exteme Validitat) zur Validiemng Verwendung fmden. Fiir die Marktforschung ist die exteme pradiktive Validitat und damit die Frage, ob das prognostizierte und das folgende tatsachliche Kaufverhalten von Konsumenten iibereinstimmen, von besonderer Bedeutung.^^ Um auf Basis der pradiktiven extemen Validitat getroffene Aussagen zu generalisieren, sind die Verwendung von realem Kauferverhalten, die Reprasentanz der zugmnde liegenden Stichprobe und der zugmnde liegenden Rahmenbedingungen erforderlich. Es wird deutlich, dass es sich bei der pradiktiven extemen Validitat um die anspmchvollste aller Validitatsarten handelt.^^^ Besonders problematisch erscheint allerdings die praktische Umsetzung der Reprasentanzanfordemng, da sich gerade die Rahmenbedingungen von Untersuchung zu Untersuchung z.T. erheblich unterscheiden. Vgl. Green, P.E./Krieger, A.M./Aganvai, M.K. (1993), S. 375ff. Vgl. Brzoska, L. (2003), S. 50. Problematisch bei der inneren Validitat ist, dass die mit unterschiedlichen Messkonzepten erzeugten Ergebnisse lediglich miteinander verglichen und Abweichungen berechnet werden konnen, eine Bewertung einzelner Messkonzepte allerdings nicht erfolgen kann, vgl. Voeth, M. (2000), S. 227. Vgl. Wittink, D.R./Bergestuen, T. (2001), S. 156ff Die pradiktive interne Validitat wird im Rahmen von Conjoint-Studien haufig auch als Prognose-Validitat bezeichnet, vgl. Hensel-Borner, S. (2000), S. 31. Vgl. Srinivasan, V./deMaCarty, P. (2000), S. 29ff. Vgl. Vriem, M. (1995), S. 70; Hensel-Borner, S./Sattler, H. (2000), S. 15. Wissenschaftstheoretisch existieren verschiedene Standpunkte, die von unterschiedlichen Theorien bzw. Modellverstandnissen ausgehen und der Validierung jeweils eine andere Bedeutung zuschreiben. Die verschiedenen Positionen bewegen sich zwischen den Extrema Rationalismus und Empirismus, vgl. fiir einen ausfiihrlichen Uberblick z.B. Kleindorfer, G.B./O'Neill, L/Ganeshan, R. (1998), S. 1090. Im Rationalismus stellen Modelle bzw. Theorien ein System von logischen Deduktionen auf Grundlage einer Reihe von wahren synthetischen Pramissen dar. Validierung reduziert sich im Rationalismus auf die Suche nach denjenigen grundlegenden Annahmen, auf denen das Verhalten des betrachteten Systems beruht, vgl. Naylor, T.H./Finger, J.M. (1967), S. B-93. Eine Vielzahl von Wissenschaftlern lehnt allerdings die Existenz solcher wahren synthetischen Pramissen rigoros ab, vgl. Reichenbach, H. (1951), S. 304. Am anderen Ende des methodischen Spektrums, als ganzlicher Kontrast zum Rationalismus, ist der Empirismus anzusiedeln. Empiristen betrachten statt der Mathematik die empirischen Wissenschaften als die ideale Form von Wissen, vgl. Naylor, T.H./Finger, J.M. (1967), S. B-94.
122
4.1.3 Kriterien zur vergleichenden Beurteilung von Conjoint-Ansdtzen in Forschungsstudien In Forschungsstudien konnen Verfahren einerseits fiir eine sehr geringe Anzahl an Umweltsituationen empirisch oder mit Hilfe von kiinstlichen Daten systematisch fiir eine Vielzahl von Umweltsituationen validiert werden.
———_____ 1 metrische/ordinale Ansatze
GiitemaB
Studie
BestimmheitsmaB
• Andrews, R.L./Ansari,
1
AVCurrim, I S . (2002) • Herrmann, A./Gutsche, J. (1994) Kendall's Tau
• Balderjahn,!. (1991) • Gensler, S. (2003)
wahlbasierte Ansatze
Likelihood-Ratio-Index
• Moore, W.L./Gray-Lee, J./Louviere, J.J. (1998) • Hahn,C.(1997)
logarithmierter Wert der Likelihood
• Andrews, R.L./Ainslie, A./Currim, LS. (2002) • Hahn,C.(1997) • Allenby, G.M./Ginter, J.L. (1995) • Gensler, S. (2003)
Grenzwert
der
logarithmierten
Likelihood
• Andrews, R.L./Ainslie, A./Currim, LS. (2002) • Allenby, G.M./Arora, N./Ginter, J.L. (1998) • Allenby, G.M./Ginter, J.L. (1995)
Abbildung 23: Ubersicht iiber GiitemaBe zur Beurteilung der Anpassungsgiite eines Modells fur ausgewahlte empirische Studien^^^ Bei Monte-Carlo-Simulationen konnen die systematisch variierten Umweltsituationen als unabhangige Variable interpretiert werden. Die abhangige Variable ist dementsprechend ein ValiditatsmaB, welches das Verhaltnis zwischen „wahren" und „berechneten" Werten in Abhangigkeit der jeweiligen Umweltsituation beschreibt. Die Modelle konnen anhand von unterschiedlichen MaBen beurteilt werden, wobei eine Beurteilung hinsichtlich der Anpassungsgiite der Modelle, der Aufdeckung der Nutzenstruktur und der Prognosegiite zu unterscheiden ist. Zur Beurteilung der Anpassungsgiite werden bei der den metrischen Verfahrensvarianten der Conjoint-Analyse, wie bei der TCA beschrieben, das BestimmtheitsmaB oder Kendall's
Quelle: in Anlehnung an Gensler, S. (2003), S. 224.
123
Tau herangezogen,^ wahrend bei den wahlbasierten Ansatzen GiitemaBe Verwendung finden, die 2Luf der Likelihood der geschatzten Losung basieren (vgl. Abbildung 23).^^"^
r^ — ___J^ GiitemaB FehlermaB fiir die Nutzenwerte 1 metrische/ordinale Ansatze (Simulationsstudien)
Studie • Andrews, R.L./Ansari, AVCurrim, I.S. (2002) • Vriens, M.AVedel, M.AVilms, T. (1996)
Korrelation der Nutzenwerte (Si-
• Gensler, S. (2003)
mulationsstudien) Vergleich der Bedeutungsgewichte
• Gensler, S. (2003) • Vriens, M./Oppewal, H.AVedel, M. (1998) • Balderjahn,!. (1991) • Miiller-Hagedorn, L./Sewing, E./Toporowski, W. (1993) • Perrey,J. (1996)
wahlbasierte Ansatze
FehlermaB fiir die Nutzenwerte (Simulationsstudien) Korrelation der Nutzenwerte (Si-
• Andrews, R.LVAinslie, AVCurrim, I.S. (2002) • Gensler, S. (2003)
mulationsstudien) Vergleich der Bedeutungsgewichte
• Gensler, S. (2003)
(emp. Untersuchungen)
• Vriens, M./Oppewal, H.AVedel, M. (1998)
Abbildung 24: Ubersicht tiber GiitemaBe zur Aufdeckung der Nutzenstruktur fur ausgewahlte Studien^^^ Eine Beurteilung der Aufdeckung der Nutzenstruktur ist nur moglich, wenn die wahre Nutzenstruktur wie bei Simulationsstudien bekannt ist. Bei empirischen Studien kann hingegen lediglich die Kreuzvaliditat uberpriift werden, ohne dass eine Aussage tiber die Leistungsfahigkeit der einzelnen Modelle moglich ist.^^^ Dagegen konnen bei Simulationsstudien die simulierten „wahren" Werte bzw. Nutzengewichte den berechneten Werten bzw. Gewichten gegentibergestellt werden und ein FehlermaB verwendet werden.^^^
Vgl. Abschnitt 3.1.2.4. Vgl. Abschnitt 3.3.1.6. 595
Quelle: Gensler, S. (2003), S. 225.
596
Vgl. Gensler, S. (2003), S. 224.
597
Vgl. bspw. Andrews, R.L/Ainslie, A./Currim, I.S. (2002); Andrews, R.L./Ansari, A./Currim, I.S. (2002); Vriens, M./Wedel, M./Wilms, T. (1996).
124
"
^
~
—
-
-
-
-
,
•
,
_
1 metrische/ordinale An-
_
_
GiitemaB prozentueller Anteil der First-Choice-Hits
satze
Studie • Gensler, S. (2003) • Allenby, G.M./Arora, N./Ginter, J.L.(1995) • Lenk,P.J. e/fl/. (1996) • Green, P.E./Helsen, K. (1989) • Balderjahn,!. (1991)
FehlermaBe fiir die Gesamtnutzenwerte
• Andrews, R.L./Ansari, AVCurrim, I.S. (2002) • Green, P.E./Helsen, K. (1989)
Korrelation der Gesamtnutzenwerte
• Allenby, G.M./Arora, N./Ginter, J.L. (1995) • van der Lans, I.A./Heiser, W.J. (1992) • Green, P.E./Helsen, K. (1989) • Tscheulin, D.K. (1991)
durchschnittlich vorhergesagte Auswahl-
• Gensler, S. (2003)
nativen FehlermaB fiir die aggregierten Wahianteile
• Gensler, S. (2003)
der First-Choices
• Allenby, G.M./Arora, N./Ginter, J.L. (1995) • Lenk,P.J. e/a/. (1996)
FehlermaB fiir die prognostizierte Anzahl an Probanden, die eine Alternative wahlen wahlbasierte Ansatze
Anteil der First-Choice-Hits
• Moore, W.L./Gray-Lee,
1
J./Louviere, J.J. (1998) • Gensler, S. (2003) • Allenby, G.M./Arora, N./Ginter, J.L. (1995) • Teichert,T. (2001b)
logarithmierter Wert der Likelihood
• Andrews, R.L./Ainslie,
1
A./Currim, LS. (2002) FehlermaB fiir die Auswahlwahrscheinlichkeit der gewahlten Altemativen
• Allenby, G.M./Ginter, J.L. (1995)
durchschnittlich vorhergesagte Auswahl-
• Gensler, S. (2003)
wahrscheinlichkeit fiir die gewahlten Alter-
• Andrews, R.L./Ainslie,
nativen FehlermaB fiir die prognostizierte Anzahl an Probanden, die eine Alternative wahlen FehlermaB fiir aggregierte Wahianteile
1
A./Curtim, LS. (2002) • Moore, W.L./Gray-Lee,
1
J./Louviere, J.J. (1998) • Gensler, S. (2003)
Abbildung 25: Ubersicht iiber GUtemaBe zur Beurteilung der pradiktiven Validitat fiir ausgewahlte Studien Abbildung 26 ordnet die wichtigsten, teilweise bereits in Kapitel 3 verwendeten conjointbezogenen GUtemaBe in die dargestellte Systematisierung der Validitat ein.
125
Conjointbezogenes GQtekriteriuin
ValiditatsmaB
Plausibilitatsiiberlegungen
inhaltliche Validitat
Signifikanztests
innere Validitat
AnpassungsmaBe
innere Validitat
FehlermaBe (Holdout Karten)
pradiktive interne Validitat
FehlermaBe (reale Kaufe)
pradiktive externe Validitat
Abbildung 26: Zuordnung von conjointbezogenen Giite- und ValiditatsmaBen Im Rahmen der vorliegenden Arbeit steht die Untersuchung von Kaufentscheidungen im Vordergrund. Aus diesem Grunde werden zentrale Vergleichskriterien MaBe zur Beurteilung der Prognosevaliditat sein. Dartiber hinaus ist davon auszugehen, dass eine Aufdeckung der wahren Praferenzstruktur ebenfalls zu einer hohen pradiktiven Validitat der Modelle fiihrt. 4.2
Empirische Validierung conjoint-analytischer Verfahrensvarianten
4.2.1 Anforderungen an die empirische Validierung Die vorliegende Arbeit^^ macht deutlich, dass es eine Vielzahl von potentiellen Einflussfaktoren auf die Ergebnisse conjoint-analytischer Untersuchungen gibt. Wie bei alien Laboroder Feldexperimenten bleibt eine Fokussierung auf die Haupteinflussfaktoren nicht aus, obwohl bekannt ist, dass dariiber hinaus noch zahlreiche Faktoren existieren, die ebenfalls Einfluss auf die abhangige Variable haben mogen. Unabhangig davon, ob die Einflussfaktoren absichtlich oder aber unabsichtlich ignoriert werden, kann ein gravierender Einfluss auf die Untersuchungsergebnisse und ihre Generalisierbarkeit nicht ausgeschlossen werden. Diese nicht explizit betrachteten Faktoren konnen entweder auf ein konstantes Niveau festgesetzt Oder aber nicht betrachtet werden und damit zufallig fur verschiedene Beobachtungen variieren, da sie im Experiment genau der Realitat entsprachen bzw. in der Stichprobe und der Zielpopulation, auf die die Ergebnisse iibertragen werden sollen, identisch waren. Es werden in der Literatur Anforderungen an die Versuchsanordnung gestellt, um eine Ubertragbarkeit der Ergebnisse zu garantieren. Es werden statistische Generalisierbarkeit durch die Verwendung geeigneter Verfahren zur Stichprobenziehung^\ Robustheit und Realitat der experimentellen Bedingungen gefordert.
Vgl. zu GiitemaBen in Zusammenhang mit der Conjoint-Analyse auch Cattin, P./Weinberger, M.G. (1980), S. 780ff.; Anderson, J.C./Donthu, N. (1988), S. 287ff.; Montgomery, D.B./Wittink, D.R. (1980), S. 298ff; Wittink, D.RJMontgomery, D.B. (1979), S. 69ff.; Srinivasan, V./deMaCarty, P. (1998), S. Iff.; Srinivasan, V./deMaCarty, P. (2000), S. 29ff; Johnson, R.M. (1989), S. 273ff.; Skiera, B./Gensler, S. (2002), S. 258f.; Bateson, J.E.G./Reibstein, D.J./Boulding W. (1987), S. 451ff Vgl. dazu insbesondere das 2. und 3. Kapitel. Vgl. Cook, T.D./Campbell, D.T. (1979), S. Iff. Vgl.Ferfter, 7?. (1977),S.57f.
126
Haufig werden zur Validierung so genannte convenience samples verwendet, bei wissenschaftlichen Untersuchungen handelt es sich dabei meist um Befragungen von Studenten.^^^ Der Wissenschaftstheorie Poppers folgend konnen Theorien nicht bewiesen, sondem lediglich falsifiziert werden.^^^ Demnach ware die Verwendung von convenience samples durchaus wunschenswert, da eine Theorie, die fur Konsumenten im Allgemeinen Giiltigkeit haben sollte, abgelehnt werden kann, falls sie fiir eine Untergruppe verworfen werden muss.^^ Da vor diesem Hintergrund Daten, die zu einer Falsifizierung der Theorie fiihren, aussagekraftiger sind, fordem Calder et al den „strongest possible test" im Rahmen der Validierung einer Theorie.^^^ Eine heterogene Stichprobe steigert die Fehlerterme von statistischen Tests und reduziert somit die Wahrscheinlichkeit, moglicherweise vorhandene systematische Verletzungen der Theorie aufzudecken und sie so zu falsifizieren.^^ In der hier behandelten praktischen Anwendung wird das Ziel verfolgt, mit Hilfe von Conjoint-Studien zukunftiges Verhalten vorherzusagen. Eine zufallige Stichprobenziehung ist hier streng genommen unmoglich.^^ Eine Rechtfertigung iiber die Stichprobentheorie scheint hier nur schwer moglich. Der Erfolg bei der Ubertragung der Ergebnisse wird letztlich davon abhangen, ob die Haupteinflussfaktoren im Rahmen der Theorie abgebildet und in das Modell integriert werden konnen. Da es aber unmoglich ist, alle Einflussfaktoren abzubilden, ohne dass die Modelle zu kompliziert werden, miissen im Rahmen der Modellbildung gewisse Fehler bewusst in Kauf genonmien werden. Haufig sind Experimente so konzipiert, dass Unterschiede bzgl. der unabhangigen Variablen beurteilt werden. Dies ist bspw. bei den hier behandelten Vergleichsstudien der Fall, wo eine mogliche Hypothese lautet, dass Verfahren A in Situation X bessere Ergebnisse liefert als Verfahren B. Verandert der nicht-betrachtete Einflussfaktor die abhangige Variable durch Addition einer Konstanten, muss er nicht betrachtet werden, solange er zufallig verteilt bzw. konstant ist und nicht mit den beobachteten Einflussfaktoren interagiert. Als zweiter Faktor wird in der Literatur die Robustheit der Ergebnisse genannt. Auch hier hangt die Beurteilung bei der Betrachtung von Differenzen der abhangigen Variablen davon ab, inwieweit nicht beriicksichtigte Faktoren, die sich jetzt allerdings nicht mehr notwendigerweise auf die Stichprobe beziehen, mit den beobachteten Einflussfaktoren interagieren. Problematisch ist die Schwierigkeit, im Rahmen der Modellbildung abzuschatzen, inwieweit Interaktionen zwischen Hintergrundfaktoren und den berucksichtigten Einflussfaktoren bestehen. Auch die Forderung nach einer moglichst realen Ausgestaltung von Experimenten kann
Vgl. zum Einfluss der Probanden-Charakteristika auf Conjoint-Ergebnisse Tscheulin, D.K./Blaimont, C. (1993), S. 840ff. und zur Generalisierung von experimentellen Ergebnissen Brookshire, D.S./Coursey, D.L/Schulze, W.D. (1987), S. 239ff. Vgl. Popper, K.R. (1959), S. Iff. Allerdings sieht die Praxis in der Konsumentenforschung anders aus, da Untersuchungen, die sich als konsistent mit einer Theorie erweisen, haufig als Unterstiitzung fiir deren Giiltigkeit angesehen werden. Vgl. Lynch Jr, J.G. (1982), S. 226. Vgl. Lynch Jr, J.G. (1982), S. 234. Calder, B.J./Phillips, LW./Tybout, A.M. (1981), S. 197ff. Vgl. Calder, B.J./Phillips, LW./Tybout, A.M. (1981), S. 197ff. Vgl. Lynch Jr, J.G. (1982), S. 228.
127
analog zu der Problembehandlung von Hintergrundfaktoren gehandhabt werden. Es mag unrealistische Aspekte geben, die mit den betrachteten unabhangigen Variablen interagieren und andere, bei denen dies nicht der Fall ist.^^^ Es sind demnach alle Aspekte der experimentellen Beurteilungsaufgabe, die vom realen Kaufentscheidungsprozess abweichen, zu sammeln und anschliefiend ist die Wahrscheinlichkeit dafur einzuschatzen, dass diese Aspekte mit einer der explizit betrachteten unabhangigen Variablen interagieren.^^ Die Erklarungskraft von Vergleichsstudien hangt in starkem MaBe von der genauen Versuchsanordnung ab. Studien, die Verfahren anhand der extemen Validitat vergleichen, setzen grundsatzlich sehr dicht an der Frage an, wie exakt die betrachteten Studien das Konsumentenverhalten abbilden. In der Umsetzung unterscheiden sie sich allerdings noch hinsichtlich der Operationalisierung des extemen Validitatskonstrukts, das in Bezug auf zwei Dimensionen unterschiedlich ausgestaltet werden kann. Zum einen konnen sich die Validierungskriterien bzgl. der Zeit unterscheiden. So kann als Validierungskriterium zukiinftiges Kaufverhalten verwendet werden, was der Tatsache Rechnung tragt, dass Conjoint-Analysen in der Regel vor der tatsachlichen Kaufentscheidung durchgefuhrt werden und somit die Frage der zeitlichen Reliabilitat mit untersucht wird. Altemativ konnen vergangene oder gegenwartige Entscheidungen zur Validierung herangezogen werden. Diejenigen Kontexteffekte^^^, die sich auf eine Veranderung der Konsumentenpraferenzen im Zeitablauf beziehen, werden nur im Falle einer Validierung anhand kiinftigen Entscheidungsverhaltens erfasst. Zum anderen sind Unterschiede bzgl. der Erhebungsstichproben auszumachen, da es grundsatzlich moglich ist, das Entscheidungsverhalten derjenigen Personen als Validierungskriterium zu verwenden, die bereits an den zu validierenden Verfahren teilgenommen haben, oder dasjenige von anderen Personen. Im letzten Fall wird die Frage nach der Reprasentativitat der Stichprobe hinsichtlich des Ziels, die conjoint-analytischen Ergebnisse zu generalisieren, mit in die Untersuchung einbezogen. Die Argumentation, die betrachteten Verfahren mit dem kunftigen Entscheidungsverhalten unterschiedlicher Personen zu vergleichen, ist insofem nachvollziehbar, als dass sie in der Realitat zumeist genau in solchen Situationen eingesetzt werden. Allerdings fallt es umso schwerer, mogliche Unterschiede auf einzelne Einflussfaktoren zuriickzufuhren, je mehr potentielle Einflussfaktoren in die Untersuchung aufgenommen werden. Es bedarf hierzu einer systematischen Durchfiihrung von Conjoint-Analysen, bei denen ein Teil der Faktoren konstant gehalten wird, wahrend andere Faktoren variieren.
^'° Vgl. zu Kontexteffekten Swait, J./Adamowicz, W./Hanemann, M.e.a. (2002), S. 195ff.; Dhar, R./Nowlis, S.M./Sherman, S.J. (2000), S. 189ff.; Hamilton, R. W. (2003), S. 492ff. und Abschnitt 2.3.
128
4.2.2 Kritische Wurdigungder empirischen Vergleichsstudien Die Untersuchung von empirischen Conjoint-Verfahrensvergleichen verdeutlicht, dass bereits zahlreiche vergleichende conjoint-analytische Studien existieren, die eine Vielzahl von Verfahren, Versuchsobjekten sowie Versuchsanordnungen wie Stichprobenumfang und Validierungskriterien umfassen. Haufig werden als Validierungskriterium allerdings nur MaBe der intemen Validitat verwendet, indem nicht zur Schatzung der Teilnutzenwerte verwendete Stimuli zur Validierung eingesetzt werden. Aufgrund der Vielzahl an moglichen Einflussfaktoren verwundert es nicht, dass trotz der hohen Anzahl der zur Verfiigung stehenden Studien, eine systematische Isolierung von einzelnen Einflussfaktoren hinsichtlich einer moglichen Generalisierbarkeit der Ergebnisse unmoglich erscheint. Es lassen sich hier nur Ergebnisse fiir die spezifischen Versuchsanordnungen ableiten. Problematisch ist insbesondere, dass gerade die neueren Conjoint-Verfahrens-Varianten wie HBCA, LCCA, LHBCA und LITvICA kaum bei den bisherigen Vergleichen beriicksichtigt werden. Eine Meta-Analyse iiber die verschiedenen empirischen Studien ist insbesondere aus diesem Grund ungeeignet. Schwerer wiegt dariiber hinaus, dass bei den zahlreichen nicht beriicksichtigten Faktoren eine Interaktion mit den verschiedenen Verfahrensvarianten nicht ausgeschlossen werden kann und damit ein deutlicher negativer Einfluss auf die exteme Validitat hinsichtlich der Generalisierungsfahigkeit der Ergebnisse der Einzelstudien zu erwarten ist. 4.3
Einsatz von Monte-Carlo-Simulationen zum systematischen Vergleich von Conjoint-Verfahrensvarinaten
.JSimulation is the process of designing a model of a real system and conducting experiments with this model for the purpose either of understanding the behavior of the system or of evaluating various strategies (within the limits imposed by a criterion or set of criteria) for the operation of the system.'' ^^^ Im Zusanmienhang mit Monte-Carlo-Simulationen als Datengrundlage fiir die Prognose von Kaufentscheidungen ist unter den realen Systemen {real systems) die Gesamtheit der tatsachlichen Kaufentscheidungsprozesse einer Population auf einem relevanten Markt zu interpretieren. ,Monte-Carlo*' ist eine Anspielung auf die Zufallskomponente des Gliickspiels in den Spielkasinos in Monte-Carlo^^^ und bedeutet hinsichtlich der Monte-Carlo-Simulation, dass das Verhalten des Systems {behavior of the system) probabilistisch, d.h. unter Verwendung von Zufallszahlen, modelliert wird. Simuliert werden bei Monte-Carlo-Simulationen als Datengrundlage fur Conjoint-Analysen Praferenzen bzw. ihre Operationalisierung in Form von Nutzenwerten. Die beschriebene Vorgehensweise kann als probabilistisches Modell des Kaufverhaltens interpretiert werden.^^^
Shannon, R.E. (1915), S. 2. Vgl. Jackel, P. (2002), S. 3. ^'^ Vgl. zu den probabilistischen Modeller! des Kauferverhaltens Abschnitt 2.2.1.
129
Abbildung 27 zeigt allgemein die Simulation von individuellen Werten als Datengrundlage fur die Verwendung von einem oder mehreren Verfahren. Man kann die Vorgehensweise zur Operationalisierung von Monte-Carlo-Simulationen danach unterscheiden, ob empirische Ergebnisse als Grundlage mit in die Modellierung der Daten einbezogen werden oder rein probabilistisch vorgegangen wird. Es konnen die aggregierten Ergebnisse von empirischen Studien oder simulierte aggregierte Werte als Ausgangspunkt dienen und durch die Addition von zufalligen Abweichungen individualisierte Daten simuliert werden, oder aber direkt individuelle Praferenzwerte durch das Ziehen von Zufallszahlen ohne Verwendung einer empirischen Basis erzeugt werden. Vorstellbar ware zudem eine Verwendung von empirischen individuellen Werten. Diese Vorgehensweise wird in der Abbildung gestrichelt dargestellt, da sie aufgrund mangelnder Flexibilitat, insbesondere was die Simulation verschiedener Stichprobenumfange betrifft, und mangelnder Verallgemeinbarkeit der Ergebnisse in der Praxis kaum Verwendung fmdet. Der eigentliche Monte-Carlo-Schritt besteht aber in einer Abbildung aller nicht explizit durch die Conjoint-Erhebung erfassten unsystematischen Einflussfaktoren durch eine zufallsverteilte StorgroBe. Aus simulierten bzw. tatsachlichen realen Werten werden durch diesen Schritt simulierte beobachtete Werte generiert. Die simulierten Werte dienen als unabhangige Variable (Input-Variablen) der zu vergleichenden Verfahren. Es werden also auf Basis der simulierten unabhangigen Variablen die abhangigen Variablen berechnet bzw. geschatzt. Berechnung der abhangigen Variable
Generierung der unabhangigen Variable K Zufallszahlen
/
1/ K Empirische Werte/
Aggregierte „wahre" Werte
V Zufallszahlen
Enpirische Werte
Zufallszahlen Individuelle „wahre" Werte
Zufallszahlen
Individuelle „beobachtete" Werte
Anwendung des Verfahrens /
Individuelle „berechnete" Werte
MonteCarlo-Schritt i.e.S.
Abbildung 27: Grundziige der Monte-Carlo-Simulation Obwohl die Kosten fiir die Durchfiihrung von Monte-Carlo-Experimenten geringer als bei empirischen Studien sind, konnen nicht beliebig viele Einflussfaktoren variiert werden, da selbst bei einer Beriicksichtigung von lediglich jeweils zwei Auspragungen fiir die zu variierenden Faktoren die Zahl der zu simulierenden Konstellationen sehr schnell wachst. Bei sechs zu variierenden Faktoren mit jeweils zwei Auspragungen und 6 zu vergleichenden Verfahren mtissten bereits 384 Experimente durchgefiihrt werden (2^-6=384). Computer-Ressourcen und Zeit limitieren die Anzahl der im Rahmen der Monte-Carlo-Simulation zu variierenden Fakto130
ren. Es liegt offensichtlich ein Trade-off zmschen Computer-Ressourcen und Zeit einerseits und Prazision bzw. Validitat andererseits vor. Skrondal schlagt eine Entscharfung des Zielkonfliktes vor, indem anstelle von vollstandigen Designs faktorielle Designs verwendet werden.^^"^ Der experimentelle Versuchsplan konnte hier als Meta-Studie interpretiert werden und mit dem Instrumentarium der Meta-Analyse ausgewertet werden. Der in erster Linie auf Strukturgleichungsmodelle bezogene Vorschlag konnte sich jedoch nicht durchsetzen. Gerade bei conjoint-analytischen Monte-Carlo-Studien wird auf vollstandige Designs zuriickgegriffen. Validitat in Zusammenhang mit Monte-Carlo-Simulationen bedeutet, die anhand der Simulation gewonnenen Kenntnisse in die Realitat zu iibertragen.^^^ Wichtig dabei ist, dass die simulierten Situationen tatsachlichen Umweltsituationen zugeordnet werden konnen. Dariiber hinaus eignen sich nicht alle Fragestellungen fur den Einsatz von Simulationsstudien, denn haufig kann bei kiinstlichen Daten nicht ausgeschlossen werden, dass bereits bei der Simulation ein systematischer Fehler vorliegt und nicht die wahren Werte X^ des hypothetischen Konstruktes, sondem andere hypothetische Werte (X^ + X J simuliert werden.^^^ Insbesondere Faktoren, die die Wahmehmung oder psychologische Prozesse abbilden, lassen sich nur in Ausnahmefalle anhand kiinstlicher Daten erfassen. So sind bspw. zum Vergleich von unterschiedlichen Prasentationsformen keine Monte-Carlo-Simulationen, sondem empirische Daten zu verwenden. 4.3.1 Uherblick uber aufMonte-Carlo-Simulationen beruhende Conjoint-Studien Schon seit geraumer Zeit wird die Monte-Carlo-Simulation zur Validierung im Zusammenhang mit der Conjoint-Analyse eingesetzt.^^^ Es handelt sich dabei in aller Regel um Vergleiche von Verfahrensvariationen, denen wahre simulierte Teilnutzenwerte als Validierungsgro6e zugrunde liegen. Abbildung 28 gibt einen Uberblick iiber die wichtigsten veroffentlichten Monte-Carlo-Studien, die einen Bezug zur Conjoint-Analyse aufweisen.
Vgl. Skrondal A. (2000), S. 147ff. Vgl. van Horn, R.L. (1971), S. 247. Im Folgenden soil davon ausgegangen werden, dass der Zufallszahlengenerator tatsachlich Zufallszahlen nach dem Zufallsprinzip generiert. Von der Frage und damit verbundenen Problematik der computergestiitzten Generierung von Zufallszahlen wird damit abstrahiert. Hinsichtlich der Ubertragbarkeit auf die Realitat lassen sich demnach nur Aussagen hinsichtlich der Reliabilitat der Verfahren treffen. Innerhalb des geschlossenen Systems der Monte-Carlo-Simulation besteht dagegen die Moglichkeit, den systematischen Fehler zu kontrollieren. Fiir den erste veroffentlichten Monte-Carlo-Vergleich fiir conjoint-analytische Variationen vgl. Srinivasan, K(1975),S.475ff.
131
1 Monte-Carlo Studie Toubia, 0 . etal. (2003), Toubia,
Verfahren versch. Question-Design-Methoden^'**
1
7 verschiedene Conjoint-Analyse-Verfahren, u.a. Rating vs.
1
0./Hauser, J.R./Simester, D.I. (2004) Gensler, S. (2003)
Choice und HBCA und LCCA Chakraborty, G. etal. (2002) 1 Andrews, R.L./Ainslie, A./Currim, I.S.
Rating vs. Choice
1
wahlbasiert: Logit, LC, HB
1
metrische Conjoint-Analyse-Verfahren:, FM-Ansatz, HB-
1
1 (2002) 1 Andrews, R.L./Ansari, A./Currim, I.S. (2002)
Ansatz
von Thaden, C. (2002)
gebriickte Conjoint-Analyse, TCA
1
Arora,N./Huber,J. (2001)
Orthogonal vs. Customized Design
1
Vriens, M. (1995), Vriens, M.AVedel,
verschiedene Segmentierungsansatze
1
M.AVilms, T. (1996); Vriens, M.AVedel,
1 M.AVilms,T.(1992) verschiedene Losungsalgorithmen: OLS, LINMAP, MONA-
1
NOVA
1
1 Bunch, D.S./Batsell, R.R. (1989)
MNL (verschiedene Schatzer)
1
1 Agarwal,M.K.(1988)
ACA vs. TCA mit MONANOVA bzw. LINMAP
Umesh, U.N./Mishra, S. (1990)
Hagerty,M.R. (1986)
Conjoint-Analyse mit und ohne Beriicksichtigung von Interakti- 1 onen
1 Wiley, J.B./Low,J.T. (1983)
First-Choice, Logit-Auswahlregel
1 Agarwal, M.K. (1983)
MONANOVA; LINMAP, ACA
|
Auswertung von ordinalen Daten mit Hilfe der CBCA
1
Chapman, R.G./Staelin, R. (1982) 1 Wittink,D./Cattin,P.(1981) Carmone, F.J./Green, P.E. (1981) 1 Carmone, F.J./Green, P.E./Jain, A.K.
1
ANOVA, LINMAP, CBCA (Logit), MONANOVA Haupteffektdesign, "Kompromiss-Design"
1
ANOVA, MONANOVA
1 (1978) Abbildung 28: Ubersicht uber die wichtigsten conjointbezogenen Monte-Carlo-Studien Die Untersuchung der verschiedenen Einsatzgebiete zeigt deutlich, dass Monte-CarloSimulationen vielmals fur Segmentierungsstudien eingesetzt werden. Dies kann einerseits
Unter Question-Design-Methoden sind verschiedene Strategien bei der Erstellung der Choice-Sets zu verstehen. Die Autoren stellen ein computer-gestutztes Verfahren vor, das bei der sukzessiven Erstellung neuer Choice-Sets auf die unmittelbar vorangegangenen Wahlentscheidungen zuriickgreift, vgl. Toubia, O./Hauser, J.RJSimester, D.I. (2004), S. 116. Quelle: Eigene Darstellung. Dariiber hinaus weisen noch die Monte-Carlo-Studien von Srinivasan, Hagerty, Kohli, Johnson/Meyer/Ghose, Wedel/Steenkamp, Horowitz/Louviere, Stallmeier, Keane/Wolpin, Huber/Zwerina, Adkins, Andrews/Manrai, Teichert, Sdndor/Wedel zumindest einen gewissen Bezug zur Conjoint-Analyse auf bzw. konnen als Beispiel in der Art und Weise ihrer Konstruktion dienen. Vgl. Srinivasan, V. (1975), S. 482ff.; Hagerty, M.R. (1985); Kohli, R. (1988); Johnson, E.J./Meyer, R.J./Ghose, S. (1989), S. 257ff.; Wedel, M./Steenkamp, J.-B.E.M. (1991), S. 385ff.; Horowitz, J.L./Louviere, J.J. (1993), S. 274ff.; Stallmeier, C. (1993), S. 172ff.; Keane, M.P./Wolpin, K.I. (1994), Huber, J./Zwerina, K (1996), S. 312ff.; Adkins, L (1997), S. 183ff.; Andrews, R.L./Manrai, A.K. (1998), S. 201ff.; Bockenholt, U./Dillon, W.R. (2000), S. 76ff.; Teichert, T. (2001a), S. 89ff.; Sdndor, Z/Wedel, M. (2001), S. 434ff.
132
damit erklart werden, dass gerade in letzter Zeit insbesondere Segmentierungsansatze wie zum Beispiel der LC-Ansatz Einzug in die Marketing-Literatur und -Praxis gefunden haben.^^^ Andererseits - und dies diirfte das weitaus bedeutendere Argument sein - liegt bei Segmentierungsaufgaben eine besondere Problematik vor, denn Segmente sind hypothetische Konstrukte, fur die sich in der Realitat kaum ValidierungsgroBen fmden lassen.^^^ So ist es etwa nicht moglich, Auskunftspersonen direkt nach ihrer Segmentzugehorigkeit, insbesondere wenn noch keine Vorstellung iiber die Eigenschaften der verschiedenen Segmente vorliegt, zu befragen. AuBerdem sollte sich die Segmentierung an den Handlungsoptionen des die Segmentierung durchfuhrenden Untemehmens orientieren. Eine optimale Segmentierung umfasst damit eine untemehmensspezifische Komponente. Abbildung 28 schlieBt trotz des divergierenden Einsatzgebietes auch Segmentierungsstudien ein, da in der vorliegenden Studie mit dem LCund dem LFM-Verfahren Ansatze Beriicksichtigung fmden, die eine simultane Segmentierung durchfuhren. Es ist wahrscheinlich, dass gerade bei einer Generierung der wahren simulierten Teilnutzen unter Beriicksichtigung verschiedener Komponenten, die FM-Ansatze besonders valide Ergebnisse liefem und Aspekte aus frtiheren Segmentierungsstudien bei der Konstruktion der wahren Nutzenkoeffizienten durchaus Beriicksichtigung finden sollten. 4.3.2 Kritische Wurdigung von Simulationsstudien zum Vergleich von conjoint-analytischen Verfahrensvarianten Monte-Carlo-Simulationen sind wesentlich kostengiinstiger hinsichtlich der Generierung der Datengrundlage und ermoglichen daher einen systematischen Vergleich. Da im Rahmen von Monte-Carlo-Studien in aller Regel mehrere, durch unterschiedliche Kontextfaktoren beschriebene Szenarien simuliert werden, sind differenzierte Aussagen iiber die Vorziehenswiirdigkeit der verglichenen Modelle moglich und konnen kontextspezifische Anwendungsempfehlungen fur den Einsatz bestinmiter Modelle abgeleitet werden. Probleme hinsichtlich der praxeologischen Eignung der Anwendungsempfehlungen konnen entstehen, wenn dazu Informationen notwendig sind, die im Vorfeld von empirischen Anwendungsstudien nicht zur Verfiigung stehen. Valide Anwendungsempfehlungen setzten also voraus, dass die im Rahmen der Simulationsstudie defmierten Szenarien realen Anwendungssituationen zugeordnet werden konnen. Es existieren zwar bereits zahlreiche Simulationsstudien, die aber allesamt Schwerpunkte setzen, die sich nicht mit der Fokussierung dieser Arbeit auf die Prognose von Kaufentscheidungen decken. Von den in Abbildung 28 dargestellten Studien, verfolgen lediglich diejenigen von Andrews/Ansari/Currim, Andrews/Ainslie/Currim und Gensler ein ahnliches Untersuchungsziel. Allerdings bezieht sich die Untersuchung von Andrews/Ainslie/Currim auf Scan-
Vgl. Andrews, RL./Ansari, A./Currim, I.S. (2002), S. 88.
133
nerdaten und betrachtet aus diesem Grunde insbesondere Situationen, in denen nur wenige Informationen je Befragten vorliegen.^^^ Dariiber hinaus werden nur wahlbasierte Verfahren beriicksichtigt. Andrews/Ansari/Currim betrachteten dagegen ausschliefilich metrische Ansatze, greifen aber auf die unrealistische Pramisse zuriick, dass fiir alle Altemativen Kaufbereitschaft besteht. ^^ Gensler stellt wahlbasierte und metrische Verfahrensansatze gegeniiber, setzt allerdings den Fokus auf die Berucksichtigung der Heterogenitat und simuliert aus diesem Grunde ebenfalls Kaufbereitschaft fiir alle Altemativen.^^"^ Da die entscheidungsbezogenen metrischen Ansatze teilweise erst in dieser Arbeit entwickelt wurden, ist es offensichtlich, dass sie in keiner der Simulationsstudien beriicksichtigt werden. Die genannten empirischen Monte-Carlo-Studien konnen daher auf die im Rahmen dieser Arbeit entwickelten Fragestellungen keine befriedigenden Antworten geben, liefem aber bei der Konzeption der neuen Simulationsstudie durchaus wertvolle Informationen. Denn auch im Rahmen der kaufentscheidungsbezogenen Studie sollen Heterogenitatsfaktoren beriicksichtigt werden, sofem sie Einfluss auf die Ergebnisse haben. In den folgenden Abschnitten des Kapitels soil die Ableitung von Hypothesen uber mogliche Einflussfaktoren vorbereitet werden. Dazu werden die Verfahren qualitativ gegentibergestellt und es werden zudem die Ergebnisse der bereits durchgefuhrten empirischen und insbesondere simulativen Studien beriicksichtigt. 4.4
Grundsatzliche Gegenuberstellung der Hauptunterschiede von entscheidungsbezogenen Conjoint-Verfahrensvarianten
Die vorangegangenen Darstellungen haben zum einen die Auswahl von LCA, LFMCA, LHBCA, CBCA, LCCA und HBCA als im weiteren Verlauf gegenuberzustellende Verfahren begriindet, zum anderen aber insbesondere fiir das Grundmodell der TCA gezeigt, welche Faktoren einen potentiellen Einfluss auf die Conjoint-Ergebnisse haben konnen. Die meisten Einflussfaktoren sind aufgrund der Ahnlichkeit der beiden Modelle direkt auf die LCA und ihre Verfahrensvarianten zu iibertragen. Da den wahlbasierten Ansatzen ebenfalls eine experimentelle Versuchsanordnung zugrunde liegt, die zudem in vielen Punkten Parallelen zur TCA und LCA aufweist, kann ein GroBteil der Ergebnisse unmittelbar iibemommen werden.^2^
Vgl. Andrews, KL/Ainslie, A./Curhm, I.S. (2002). Vgl. Andrews, R.L/Ansari, A./Currim, I.S. (2002). Vgl. Gensler, S. (2003). Dabei handelt es sich insbesondere um die in Abschnitt 3.1.2.1.2 beschriebenen Number-of-Levels-Effekte und Positionseffekte bei verbaler Prasentation und die Auswahl der Stichprobe betreffende Einfliisse auf die Giite der Ergebnisse.
134
^ \ ^ Aggregations- Populations-Ebene ^v^^niveau Daten^ \ ^ erhebungsansatz^\
Segment-Ebene
Individual-Ebene unter Beriicksichtigung der Populationswerte
reine Individualebene
Ratingbasierte Ansatze
Gcmeinsanie LimitConjoint-Analyse^
Limit-FiniteMixture-Conjoin tAnalyse (LFMCA)
Limi t- Hierarch icalBayes ConjointAnalyse (LHBCA)
Limit-ConjointAnalyse (LCA)
Wahlbasierte Ansatze
Aggregierte ChoiceBased-ConjointAnalyse (CBCA)
Latent-Class(Choice-Based) Conjoint-Analyse (LCCA)
Hierarchical-Bayes(Choice-Based) Conjoint-Analyse (HBCA)
.b
1
^ Es ist grundsatzlich vorstellbar, eine gemeinsame Limit-Conjoint-Analyse durchzufiihren. Allerdings ist gerade bei der Mittelwertbildung der LC-Information mit einem erheblichen Informationsverlust zu rechnen. Es wiirden bei Anwendung der FC-Regel stets Wahlanteile von 100% prognostiziert werden. Gegebenenfalls konnte eine gemeinsame Umit-Conjoint-Analyse so ausgestaltet werden, dass eine gemeinsame Conjoint-Analyse fiir die Schiitzung der Teilnutzenwerte durchgefuhrt, die Limit-Transformation aber individuell fiir die einzelnen Auskunftspersonen berechnet wird. Im Rahmen dieser Arbeit soil dieser Ansatz jedoch nicht weiter verfolgt werden. ^ M t Mlfe einer computergestutzten Konstruktion der individuellen Choice-Sets ist es grundsatzlich vorstellbar, wahlbasierte Informationen individuell auszuwerten. Allerdings werden die entsprechenden Algorithmen nicht in die Softwarepakete fiir wahlbasierte Ansatze integriert.
Abbildung 29: Aggregationsniveau und Datenerhebungsansatze der verschiedenen entscheidungsbezogenen Conj oint-Ansatze Grundsatzlich konnen die Ansatze nach dem Aggregationsniveau, auf dem sie die Ergebnisse schatzen, und nach der Datenbasis unterschieden werden. Die Ergebnisse konnen aggregiert, segmentspezifisch und individuell geschatzt werden, wobei bei individuellen Ergebnissen noch zu unterscheiden ist, ob die Schatzung unabhangig fiir die verschiedenen Auskunftspersonen erfolgt Oder ob eine bestimmte Annahme hinsichtlich der Verteilung der Heterogenitat in der Stichprobe getroffen wird und die individuellen Ergebnisse sowohl auf Grundlage der Daten der gesamten Stichprobe als auch iiber die rein individuellen Daten geschatzt werden.^^^ Hinsichtlich der Datenerhebung ist bei den ausgewahlten Verfahren zwischen metrischen und diskreten^^^ unabhangigen Variablen zu unterscheiden. Die segmentbezogenen Nutzenparameter der FM-Ansatze LFMCA und LCCA konnen durch eine Gewichtung mit den individuellen Segmentzugehorigkeiten ebenfalls individualisiert werden. Damit ist die CBCA das einzige Verfahren, mit dem es normalerweise nicht moglich ist, Individualwerte zu berechnen. Zudem sind mit metrischer und wahlbasierter Datenerhebung zwei verschiedene Datenerhebungsansatze zu unterscheiden. In Abbildung 29 werden
Bei der segmentspezifischen Nutzenschatzung werden ebenfalls Informationen der gesamten Stichprobe zur Schatzung der Segmentnutzenfunktionen verwendet. Eine Unterscheidung ist hier jedoch nicht notwendig, da aufgrund der Problematik der Definition der Segmente eine direkte Schatzung der Segmentnutzenfunktionen nicht beriicksichtigt wird. Bei diskreten unabhangigen Variablen handelt es sich um Wahlentscheidungen.
135
die beriicksichtigten Verfahrensvarianten der Conjoint-Analyse hinsichtlich der Kriterien Aggregationsniveau und Datenerhebungsansatz systematisiert. 4.4.1 Unterschiede zwischen wahlbasierter und metrischer Conjoint-Analyse Hinsichtlich der Realitatsnahe der Datenerhebung der zu treffenden hypothetischen Kaufentscheidungen sind zwei Ansatze zu unterscheiden. Bei den wahlbasierten Ansatzen wird die abhangige Variable auf nominalem Datenniveau erhoben, es handelt sich also um Auswahlentscheidungen im herkonunlichen Sinne, wahrend bei den metrischen Modellen ein zweistufiger Erhebungsprozess Verwendung fmdet, deren erster Schritt einer intervallskalierten^^^ Bewertung der Daten entspricht. AnschlieBend wird durch die Platzierung der Limit-Card eine Entscheidungsregel aufgesetzt, die hinsichtlich der Bewertung der Stimuli diskreten Charakter aufweist und fur jeden einzelnen Stimulus Aussagen iiber eine prinzipielle Kaufbereitschaft ausdriickt.^^^ Hinsichtlich der Datenerhebung wird der wahlbasierte Ansatz haufig als realitatsnaher angesehen und es wird behauptet, dass hypothetische Wahlentscheidungen zu valideren Ergebnissen fuhren als metrische Ansatze, da sie realen Kaufentscheidungen von Konsumenten ahnlicher sind als Ratings oder Rangreihungen von Altemativen. „Current conjoint tasks are not realistic; i.e. they do not study the process of primary interest, which is choice behavior. Not only are traditional full-profile conjoint tasks ill-suited for observing choice behaviour, but one must make strong, and often questionable assumptions to translate the results of rating and ranking into choices."^^^
Bzw. analog ordinalen Bewertungen bei der LCA kombiniert mit ordinalen Erhebungsansatzen. ^^^ Vgl.Abschnitt 3.2.1. " ° Louviere, J.J./Gaeth, G.J. (1988), S. 61.
136
Forschungsstudie
Validierung
Ergebnisse
Brzoska, L. (2003) und
externe Validitat (tatsachliche
beide Verfahren iiberschatzen die reale Zah-
Backhaus, K./Brzoska, L.
Zahlungsbereitschaft)
Moore, W.L./Gray-Lee,
lungsbereitschaft deutlich, wobei die Fehler bei der LCA geringer ausfallen
(2003) Prognosevaliditat
Unterschiede vorhanden, aber insgesamt ahnliche Ergebnisse fiir Rating-^^' und CB-Ansatz
J./Louviere, J.J. (1998)
nach Reskalierung Hahn, C. (1997)
Kreuzvaliditat Prognosevaliditat
kein Unterschied Unterschiede abhangig von Entscheidungsregel (ahnlich fiir BTL-Regel)
Stallmeier, C. (1993)
konvergierende Validitat
Louviere, J.J./F0X,
hypothetische Auswahl des
signifikante Unterschiede, aber vergleichbare
M.F./Moore, W.L. (1993)
nachsten Reiseziels
Ergebnisse nach einer Reskalierung der Ra-
01iphant,K.e/a/1 (1992)
konvergierende Validitat
signifikanter Unterschied
Prognosevaliditat
kein Unterschied
Prognose von Holdout-Karten
keine Dominanz eines der Verfahren
Kalish, S./Nelson, P. (1991)
Prognose von Holdout-Karten
nur geringer Unterschied
Louviere, J. J./Gaeth, G.J.
konvergierende Validitat
Unterschiede vorhanden
ting-Werte
EIrod, T./Louviere, J.J./Davey, K.S. (1992)
Scott, J.E./Keiser, S.K.
metrische Daten und Auswahlentscheidungen liefem ahnliche Ergebnisse
(1988) konvergierende Validitat
kein signifikanter Unterschied
externe Validitat
pradiktive Validitat: weder fiir Unterschiede
(1984) Leigh, T.W./MacKay, D.B./Suinmers, J.O. (1984)
innerhalb der CA noch zw. CA und komp. Methode stat. Signifikanz (p<0,05)
Abbildung 30: Uberblick iiber emprirische Vergleichsstudien zwischen metrischer und wahlbasierter Datenerhebung Ein weiterer Unterschied besteht in der Modellierung der Praferenz und damit dem Nutzenmodell, das den Verfahren zugrunde liegt. Die CBCA und ihre Verfahrensvarianten umfassen eine probabilistische Nutzenkomponente, die im Gegensatz zur TCA/LCA die Beriicksichtigung von Einfliissen erlaubt, die nicht explizit durch die unabhangigen Variablen im Modell erfasst werden.^^^ Teilweise wird argumentiert, dass die hohere Verfahrensflexibilitat bei der Definition der explizit im Modell zu beriicksichtigenden Einflussfaktoren aufgrund der impliziten Erfassung der verbleibenden Faktoren durch die probabilistische Komponente der CBCA eine realitatsnahere Abbildung des wahren Kaufverhaltens erlaubt.^^^
Dabei ist eine Reskalierung der metrischen Ergebnisse bereits beriicksichtigt. Vgl.Abschnitt 3.3.1.1. Vgl. Balderjahn, I. (1991), S. 35f; Balderjahn, I. (1993), S. 152; Hahn, C. (1997), S. 126f
137
Zahlreiche empirische Studien stellen die aggregierte CBCA und die metrische TCA (LCA) gegenuber (vgl. Abbildung 30), i.d.R. jedoch ohne dabei Nicht-Kaufe zu beriicksichtigen. Auf Grundlage eines pauschalen Vergleichs der Ergebnisse verschiedener Ansatze sind haufig keine Griinde fiir Unterschiede zu isolieren und keine Ceteris-Paribus-Aussagen abzuleiten. Aus diesem Grund werden im Folgenden die Unterschiede der verschiedenen Ansatze dargestellt. 4.4.1.1 Ratings versus Wahlentscheidungen als Datenerhebungsansatz Die Verwendung von hypothetischen Daten {stated preferences) als Datengrundlage aller betrachteten Verfahren schrankt die Realitatsnahe ein. Weder der Wahl- noch der RatingAnsatz konnen fiir sich beanspruchen, reale Kaufentscheidungen abzubilden. Die CBCA ist diesbeziiglich von der Discrete-Choice-Analyse zu unterscheiden, die auf revealed preferences basiert.^^"^ Damit kann fur keines der Verfahren ausgeschlossen werden, dass die Daten aufgrund ihres hypothetischen Charakters einen systematischen Fehler aufweisen. Die empirisch am besten belegte Verzerrung ist, dass hypothetische Zahlungsbereitschaften das tatsachliche Verhalten am Markt haufig iiberschatzen {Hypothetical Bias).^^^ Grundsatzlich kann allerdings behauptet werden, dass der wahlbasierte Ansatz realistischer ist und Probanden nicht vor umfangreichere kognitive Leistungen als bei realen Kaufentscheidungen gestellt werden. Allerdings weist Buschken zu Recht darauf hin, dass auch bei dem CBCA-Ansatz keine reale Auswahlsituation besteht, da dem Probanden Stimuli wiederholt vorgelegt werden, und sich Verzerrungen daraus ergeben konnen.^^^ Dariiber hinaus kann es sowohl beim metrischen als auch beim wahlbasierten Erhebungsansatz zu Unterschieden hinsichtlich der Abbildung psychologisch bedingter Verzerrungen konmien. So zeigen Tversky/Shafir und Dhar fiir den Fall nur geringer Unterschiede in der Attraktivitat der zur Auswahl stehenden Altemativen ein Ausweichen der Auskunftspersonen auf die Nicht-Kauf-Alternative bei experimentellen Erhebungen und begriinden dies mit der Vermeidung von Abwagungsiiberlegungen in solchen Situationen.^^^ Bei der LCA miissen aufgrund des zweistufigen Ansatzes dennoch Abwagungsiiberlegungen durchgefuhrt werden.
Vgl. Abschnitt 2.2.2. Vgl. zu hypothetischem Kaufverhalten bzw, analog bzgl. hypothetischer Zahlungsbereitschaft im Vergleich zum tatsachlichen Marktverhalten Brzoska, L (2003), S. 138ff.; Harrison, G.W./Rutstrom, E.E. (2001), S Iff.; Cummings, R.G./Harrison, G.W./Rutstrom, E.E. (1995), S. 260ff.; Neill, H.R.et al (1994), S. 145ff.; Skiera, B./Revenstorff, I. (1999), S. 224ff.; Wertenbroch, K./Skiera, B. (2002), S. 228ff.; Sattler, H./Nitschke, T. (2001), S. Iff; Bilstein, F.F./Bieker, K.J. (2000), S. 62ff; Johannesson, M.et al. (1999), S. 21ff; Cummings, R.G.et al. (1997), S. 609ff.; Bohm, P. (1994), S. 5ff.; Bishop, R.C./Heberlein, T.A. (1979), S. 926ff; Bishop, R.C./Heberlein, T.A./Kealy, M.J. (1983), S. 619ff; Kealy, M.J/Montgomery, M./Dovidio, J.F. (1990), S. 244ff.; Seip, K./Strand, J (1992), S. 91ff; Griffin, C.C.et al. (1995), S. 373ff.; Frykblom, P. (1997), S. 275ff.; Sattler, H./Nitschke, T. (2003), S. 364ff.; Botelho, A./Costa Pinto, L (2002), S. 993ff; Nape, S.et al. (2003), S. 423ff. Die Untersuchungsergebnisse deuten teilweise auf einen starken Einfluss eines systematischen Fehlers hin. Vgl. Buschken, J (1994b), S. 82ff. Vgl. Tversky, A./Shafir, E. (1992), S. 358ff; Dhar, R. (1997), S. 215ff.
138
Bei der CBCA kann der Proband hingegen durch die Wahl der Nicht-Kauf-Option den TradeOff wQimtidtn. Bei der Bewertung der Verfahrensansatze hinsichtlich dieser psychologischen Effekte ist zu beriicksichtigen, ob das Ausweichen nur im Experiment oder auch in realen Kaufentscheidungssituationen beobachtet werden kann. Fur den Fall, dass es aufgrund eines niedrigeren Involvements nur im Experiment vorkommt, kann der prinzipiell unrealistischere Ratingansatz einen Fehler kompensieren. Zeigt sich das Ausweichverhalten auch in der Realitat, ist fraglich, welches Verfahren zu besseren Ergebnissen ftihrt, da die LCA dem Probanden ein Ausweichen nicht erlaubt und ihn zu Abwagungsprozessen zwingt, die CBCA dagegen ein Ausweichen zulasst, aber im Modell anschlieBend die Praferenzen iiber kompensatorische Trade-Offs modelliert.^^^ Haaijer/Kamakura/Wedel unterscheiden den Fall der psychologisch bedingten Verzerrungen und den Fall einer tatsachlich mangelnden Kaufbereitschaft fur eine Produktkategorie. Fiir den ersten Fall argumentieren sie, dass bei der CBCA die Nicht-KaufOption nun als Indikator fiir das Involvement dient, da sie ein Ausweichen signalisiert. Im zweiten Fall pladieren sie fiir den Einsatz des Nested-Logit-ModoWs, das eine Verfahrensvariante der Standard-Modellierung des Grundmodells der CBCA darstellt.^"'^ Unabhangig davon, ob der wahlbasierte Ansatz tatsachlich zu besseren Ergebnissen fiihrt als Bewertungen auf einer Rating-Skala, kann gezeigt werden, dass Differenzen fast voUstandig durch Unterschiede eines Skalierungsfaktors erklart werden konnen.^^ Fiir die Reskalierung werden den Auskunftspersonen zusatzlich zu den Ratings noch einige Choice-Sets zur Bewertung prasentiert. Moore/Grey-Lee/Louviere vermuten, dass hierzu eine sehr geringe Anzahl an Choice-Sets ausreicht und beschranken sich in ihrer Untersuchung auf vier.^^ Da systematische Fehler aufgrund des Rating-Ansatzes durch eine einfache Reskalierung behoben werden konnen, weist der Rating-Ansatz im Vergleich zum Choice-Based-Ansatz tendenziell Vorteile auf, wenn eine Informationsuberladung {information overload) durch eine zu groBe Aufgabenkomplexitat in Bezug auf die Anzahl der beriicksichtigten Merkmale und Merkmalsauspragungen verhindert werden kann.^^ 4.4.1.2 Bewertung der probabilistischen Komponente vor dem Hintergrund alternativer Kaufentscheidungstypen Uber die Zufallskomponente kann die CBCA all diejenigen Einfliisse beriicksichtigen, die entweder nicht beobachtbare, aber dennoch kaufentscheidungsrelevante GroBen sind,^^ oder "^ Vgl. Abschnitt 3.2.1. ^^^ Vgl. Haaijer, R./Kamakura, W./Wedel, M. (2001), S. 93ff. ^^ Vgl. Moore, W.L./Gray-Lee, J./Louviere, J.J. (1998), S. 199, die einen Vortrag von Johnson/Louviere/Olsen aus dem Jahre 1990 als Quelle anfuhren, sowie Louviere, JJ/Fox, M.F./Moore, W.L. (1993), S. 205; Conlon, B./Dellaert, B.G.C./van Soest, A. (2000), S. Iff.; Swait, J./Andrews, R.L (2003), S. 442. ^ ' Vgl. Moore, W.L./Gray-Lee, J./Louviere, J.J (1998), S. 205. ^^ Fur die im praktischen Teil der Arbeit durchzufiihrende Monte-Carlo-Studie bedeutet dies, dass die beiden Erhebungsansatze auch auf Grundlage von simulativen Daten verglichen werden konnen. Vgl. zur MonteCarlo-Simulation und den simulativen Daten Abschnitt 5. ^^ Dabei handelt es sich zum Beispiel um nicht beobachtete Produkt- oder Personlichkeitsmerkmale.
139
auf Messfehler zuruckzufiihren sind.^^ Dariiber hinaus kann die probabilistische Komponente fur Instabilitaten hinsichtlich der Veranderungen der Umweltkomponenten stehen, die sich ebenfalls in einer Unsicherheit bzgl. der Praferenzen bzw. der Kaufentscheidung bemerkbar machen konnen. Die LCA unterstellt dagegen einen Beurteilungsprozess, in dem die Kaufentscheidung ausschlieBlich durch die explizit im Modell erfassten produktspezifischen Variablen erklart und von einer ausgepragten kognitiven Komponente gesteuert wird, und damit eine hohe Sicherheit bzgl. der Praferenzen der verschiedenen Altemativen aufweist. Werden diese unterschiedlichen Modellmerkmale mit den Charakteristika der in Abschnitt 2.2.3 erlauterten Kaufentscheidungstypen verglichen, folgem einige Autoren, dass die beiden Ansatze fiir unterschiedliche Typen von Kaufentscheidungen geeignet sind.^^ So ist der Einsatz der probabilistischen Modelle insbesondere bei Kaufentscheidungen mit ausgepragten affektiven Komponenten zu empfehlen, also insbesondere bei impulsiven und habitualisierten Kaufentscheidungen, da hier zufallsabhangige Faktoren eher zum Tragen kommen. Die gedankliche Steuerung hat dagegen bei limitierten und extensiven Kaufentscheidungssituationen eine groBere Bedeutung, wahrend situative Faktoren sowie die Wahrscheinlichkeit von Praferenzunsicherheit in den Hintergrund treten, so dass die LCA insbesondere hierfiir als sinnvoll erachtet werden diirfte.^^ Bei nahezu deterministischem Entscheidungsverhalten scheint die Kritik an der LCA, dass trotz Limit-Card noch eine Entscheidungsregel angewandt werden muss, nicht gerechtfertigt, da die First-Choice-Rcgel genau einen solchen deterministischen Entscheidungsprozess abbildet.^^ Begiinstigend konmit hinzu, dass durch die Verwendung der First-Choice-Rogel die HA-Problematik^^ umgangen werden kann und eine Marktsimulation mit unterschiedlich starken substitutiven Beziehungen bzgl. der simulierten Produkte wesentlich unproblematischer ist bei Anwendung der CBCA.^^ 4.4.2
Unterschiede hinsichtlich der Beriicksichtigung von Heterogenitdt
Ein weiterer Unterschied besteht in der Erfassung von Heterogenitat, wobei hinsichtlich dieses Gesichtspunktes die Trennung nicht zwischen metrischem und wahlbasiertem Erhebungsansatz verlauft. Die aggregierte CBCA berechnet Praferenzen auf Populations-, LFMCA so-
^
Vgl. Abschnitt 3.3.1.1.
^^ Vgl. zu dieser Auffassung insbesondere Brzoska, L (2003), S. 136ff. und empirisch S. 147ff sowie rein argumentativ Voeth, M. (2000), S. 105 und in allerdings abgeschwachter Form Hahn, C (1997), S. 140f. ^
Vgl. Brzoska, L (2003), S. 136f.
^ ' Vgl. zur Kritik an der bei der TCA und damit auch bei der LCA notwendigen Transformation bspw. Louviere, J.J./Gaeth, G.J. (1988), S. 61; Otter, T. (2001), S. 16 und Cohen, S.H. (1997), S. 16. ^* Vgl. zur IIA-Eigenschaft des Logit-Modells Kapitel 3.3.1.4 und Carson, R.T.et al. (1994), S. 358; Olsen, G.D./Swait, J. (1993), S. Iff. ^^ Bei der LCCA und der HBCA wird die IIA-Problematik bereits reduziert. Mit dem Nested-MultinominalZ,og/Y-Modell ist eine Spezifikation der probabilistischen Komponente vorstellbar, die die IIA-Problematik hinsichtlich der Nicht-Kaufoption nicht mehr aufweist. Vgl. Poirier, D.J. (1996) und Abschnitt 3.3.1.3.
140
wie LCCA auf Segment- und LHBCA, LCA sowie HBCA auf Individualebene. Die aggregierte Praferenzanalyse mittels einer reprasentativen Nutzenfunktion kann bei Vorliegen von Heterogenitat bzgl. der Praferenzen zu Verzerrungen fiihren. Aus diesem Grund fordem zahlreiche Autoren die Verwendung von Conjoint-Ansatzen, die Praferenzen fur einzelne Auskunftspersonen berechnen.^^^ Der wahlbasierte Ansatz der Datenerhebung weist grundsatzlich eine geringere Informationseffizienz auf als Verfahren, die auf Ratings basieren. Aufgrund einer geringen Anzahl an Freiheitsgraden ist es haufig nicht moglich, unmittelbar individuelle Nutzenfunktionen abzuleiten, so dass die Annahme homogener Praferenzen in Stichprobe und Grundgesamtheit getroffen und vereinfachend eine reprasentative Nutzenfunktion Verwendung findet, die die Praferenzstruktur eines durchschnittlichen und in seinen Praferenzen reprasentativen Probanden abbilden soll.^^^ Fiir den Fall heterogener Praferenzen und damit eines VerstoBes gegen die Homogenitatspramisse, ist die aggregierte Auswertung individuell erhobener Daten nicht zulassig und fuhrt zu verzerrten Ergebnissen.^^^ Dariiber hinaus ist besonders kritisch zu bewerten, dass mit Hilfe der CBCA nicht ermittelt werden kann, ob die untersuchte Stichprobe tatsachlich homogen hinsichtlich der Praferenzstruktur der Probanden ist und damit bei Anwendung dieses Verfahrens regelmafiig Unsicherheit dariiber besteht, ob die Ergebnisse nicht durch Praferenzheterogenitaten der Konsumenten verzerrt werden.^^^ Teilweise wird argumentiert, dass die aus der Praferenzheterogenitat resultierenden Einflussfaktoren durch die probabilistische Komponente implizit bei der Nutzenschatzung beriicksichtigt werden.^^"^ Dies ist genau dann zulassig, wenn die Praferenzen unsystematisch variieren. Nicht korrekt iiber die probabilistische Nutzenkomponente modelliert wird dagegen bspw. der Fall, dass aufgrund verschiedener Verwendungszwecke fiir das betrachtete Produkt zwei verschiedene Segmente von Konsumenten in der Stichprobe existieren, die sich signifikant hinsichtlich ihrer Praferenzstrukturen unterscheiden. Die aggregierte Betrachtung fiihrt in diesem Fall nur zufallig zu korrekten Prognosen von Marktanteilen. Dariiber hinaus sind hier fur das marktforschende Untemehmen hiformationen uber die Verteilung der Praferenzen in der Stichprobe von besonderem Interesse, die mit Hilfe eines aggregierten Verfahrens wie der CBCA nicht zur Verfiigung gestellt werden konnen. Im Rahmen der LCCA fmdet zwar der gleiche Erhebungsansatz wie bei der CBCA Verwendung, aufgrund eines informationseffizienteren Losungsalgorithmus ist es jedoch moglich, Praferenzstrukturen fur einzelne Segmente abzuleiten.^^^ Problematisch ist dabei allerdings, dass der Forscher die Anzahl der Klassen vorgeben muss und dass sich haufig ein Segment
650
Vgl.Abschnitt 3.3.1.7.
651
Vgl.Abschnitt 3.3.1.1.
652
Vgl. Balderjahn, I. (1993), S. 18. Vgl. McCullough, D. (2002), S. 2\\Scharf, A./Schubert, B./Volkmer, H.-P. (1997), S. 26. Ygl Allenby, G./Rossi, P.E. (1991), S. Iff. Vgl. Abschnitt 3.3.2.1.
141
bildet, das als eine Art Auffangklasse dient und all die Probanden enthalt, die keiner der anderen Klassen zugeordnet werden konnen. Innerhalb der Auffangklasse befinden sich in der Regel sehr heterogene Mengen an Auskunftspersonen, was aber nicht unmittelbar ersichtlich ist, da die Praferenzinformationen wie beschriebenen fiir einzelne Segmente nur auf aggregiertem Niveau unter Annahme homogener Praferenzen berechnet werden konnen.^^^ Die Annahme homogener Praferenzen auch fiir die Auffangklasse kann zu deutlichen Verzerrungen hinsichtlich der Abbildung der Praferenzheterogenitat fiihren.^^^ Da der LFMCA ein metrischer Datenerhebungsansatz zugrunde liegt, wird sie tendenziell dann zum Einsatz kommen, wenn das Modell aufgrund einer starken Reduzierung des Designs trotzdem unterparametrisiert ist Oder wenn neben der Prognose von Kaufentscheidungen zudem Informationen iiber die Verteilung der Heterogenitat erhoben werden sollen. Durch eine Gewichtung der Segmentnutzenfunktionen mit den Wahrscheinlichkeiten fiir die Zugehorigkeit einzelner Probanden zu den Segmenten konnen bei beiden FM-Ansatzen zudem Individualinformationen abgeleitet werden.^^^ Allerdings gilt zu beachten, dass die Individualinformationen nicht ganz unproblematisch sind, da sie notwendigerweise auf der konvexen Hiille der Segmentfunktionen liegen.^^^ Dariiber hinaus basieren sie auf der Pramisse homogener Segmente, was im Widerspruch zu individuellen Nutzenfunktionen steht, die eine Linearkombination von Segmentnutzenfunktionen darstellen. Die HB-Ansatze erlauben durch eine iterative Kombination von Individualinformationen und der jeweils aktuellen Schatzung von Stichprobeninformationen ahnlich wie die FM-Ansatze, Individualinformationen abzuleiten. Pramisse dabei ist ebenfalls, dass Annahmen iiber die Verteilung der Praferenzen in der Grundgesamtheit getroffen werden. Im Gegensatz zur LCCA wird allerdings nicht angenommen, dass verschiedene Cluster von Praferenzen vorhanden sind, sondem vielmehr dass die verschiedenen Parameter einer Verteilung unterliegen, wobei i.d.R. eine Normalverteilung unterstellt wird.^^ Die LCA ist das einzige der ausgewahlten Verfahren, das die erhobenen individuellen Praferenzdaten unabhangig voneinander analysiert und damit ohne Verteilungsannahmen in der Stichprobe auskommt. Mit Hilfe der LCA ist es demzufolge auch moglich, a posteriori zu iiberpriifen, ob die Stichprobe homogen hinsichtlich der Praferenzen ist oder welcher Verteilung die Parameter unterliegen.
Vgl. Teichert, T. (2001a), S. 185. Vgl. Abschnitt 0 und Abschnitt 3.4.1.1.1. Vgl. Allenby. GM/Rossi, P.E. (1999), S. 57ff.; Wedel, M.et al. (1999), S. 219ff. Vgl. Abschnitt 3.3.2.2.
142
Forschungsstudie
Verfahren
ValiditatsmaB
Teichert, T. (2001a)
HBCA vs. LCCA
Prognosevaliditat
ziehenswurdigkeit eines Ansatzes)
(2001b) HBCA vs. LCCA
Prognosevahditat
keine signifikanten Unterschiede
(Scannerdaten)
vorhanden
CBCA, HBCA, LCCA
Prognosevaliditat
LCCA und HBCA sind CBCA
metrische LC vs. HB
Anpassungsgiite
HB- ist LC-Ansatz iiberlegen
Prognosevaliditat
HB- ist LC-Ansatz iiberlegen
Prognosevaliditat
HB- ist LC-Ansatz und aggregier-
M. (2001a) Natter, M./Feurstein,
iiberlegen
M./Kehl, L. (1999) AUenby, G.M./Arora,
Unterschiede vorhanden (keine generelle Aussage bzgl. der Vor-
und Teichert, T. Natter, M./Feurstein,
Ergebnisse
N./Ginter, J.L. (1998) Moore, W.L./Gray-Lee,
agg. CBCA, LCCA, HBCA
J./Louviere, J.J. (1998)
metrische LC, HB, TCA
Lenk,P.J.e/fl/L(1996)
metrische LC vs. HB
tem Ansatz uberlegen konvergierende Validi-
Unterschiede vorhanden
tat Allenby, G.M./Ginter,
metrische LC vs. HB
J.L. (1995)
Prognosevaliditat
HB- ist LC-Ansatz iiberlegen
Anpassungsgiite
HB- ist LC-Ansatz iiberlegen
Prognosevaliditat
HB- ist LC-Ansatz iiberlegen
Abbildung 31: Empirische Vergleiche von Conjoint-Ansatzen mit unterschiedlichen Aggregationsniveaus Die in Abbildung 31 aufgefiihrten empirischen Vergleichsstudien beinhalten zumindest einen HB- Oder LC-Ansatz, wobei die metrischen Ansatze ohne Limit-Card modelliert werden.^^ Abgesehen von Teichert und Natter stellen alle Autoren eine Uberlegenheit des HB-Ansatzes gegeniiber dem LC-Ansatz fest. Gerade die Studie von Teichert ist jedoch fiir eine empirische Studie besonders differenziert. Aus diesem Grunde erscheint es sinnvoll, dariiber hinaus die bereits erwahnten systematischer angelegten Simulationsstudien zu betrachten. Es existieren drei auf Monte-Carlo-Simulationen beruhende Vergleichstudien, die den LC- und den HBAnsatz einschlieBen. Abbildung 32 gibt einen Uberblick uber Verfahren und die Faktoren, die in den angesprochenen Studien variiert werden.
Vgl. des weiteren McCullough, D. (k.A.), S. Iff.
143
Verfahren
Gensler, S. (2003)
Andrews, R.L./Ansari,
Andrews, RX-ZAinslie,
A./Curriin, I.S. (2002)
A./Currim, I.S. (2002)
metrische Ansatze
wahlbasierte Ansatze:
metr. FMCA, metr. HBCA,
TCA, metr. FMCA- und
agg. CBCA, LCCA, HBCA
TCA, aggregierte TCA
HBCA
agg. CBCA, LCCA, HBCA
variable
Anzahl der Segmente( 1/2/3)
Anzahl der Segmente (1/2/3)
Zahl der Komponenten( 1/3/5),
Faktoren
GroBe der Segmente^^
Separation der Segmente (ge-
Ahnlichkeit der Komponenten
(gleich/ungleich)
ring/hoch)
(ahnlich/unahnlich)^^
Separation der Segmente (ge-
Intra-Segmentverteilung
Intra-Segmentvarianz
ring/hoch)
(Normal/Gamma)
(0,05/0,25)
Intra-Segmentverteilung
Intra-Segmentvarianz
Zahl der Auskunftspersonen
(Normal/Gamma)
(0,05/0,25)
(75/150)
Komponentenvarianz
Stichprobenumfang
Zahl der Stimuli/Choice Sets
(0,05/0,10)
(75/200/400)
(18/27)
Anzahl der Stimuli (18/25)
Anzahl der Choice Sets
Fehlervarianz (standard
(3/10/15)
l,645/gro6 3,290)
Fehlervarianz (0,05/0,35)
Fehlervarianz (standard l,645/gro6 3,290)
Abbildung 32: Uberblick iiber modemere Conjoint-Analyse-Ansatze beriicksichtigende Monte-Carlo-Vergleichsstudien Simulationsstudie von Andrews/Ansari/Currim (2002) Andrews/Amari/Currim vergleichen verschiedene metrische Ansatze hinsichtlich verschiedener GiitemaBe auf individueller Ebene, wobei sie Nicht-Kaufe ignorieren. Ergebnis der Studie ist, dass HBCA und LCCA sowohl bzgl. der Aufdeckung der wahren Nutzenparameter als auch bzgl. der Prognosevaliditat zu ahnlichen Ergebnissen gelangen und relativ robust hinsichtlich der Verletzung der jeweils im Modell vorhandenen Heterogenitatsannahmen sind.^^ Kritisch anzumerken ist, dass sie nicht versuchen, ihre Ergebnisse zu begriinden, sondem rein deskriptiv vorgehen. AuBerdem wird auf eine Beurteilung der Prognose validitat auf aggregierter Ebene verzichtet. Sowohl fiir die Zahl, als auch fur die Ahnlichkeit sowie die GroBe der Segmente und die Zahl der Beobachtungen werden Einfliisse auf die Anpassungsgiite, die Aufdeckung der Nutzenparameter sowie die Prognosevaliditat ermittelt. Dagegen beeinflusst die Varianz innerhalb der
662 663
Falls mehrere Segmente vorliegen. In der Studie wird auf die Methodik von Andrews/Currim zur Konstruktion verschiedener Separationen verwiesen, vgl. Andrews, R.L./Currim, I.S. (2003b), S. 235ff. Fraglich ist hier allerdings die Umsetzung fur 5 Segmente. Vgl. Andrews, R.L./Ansari, A./Currim, I.S. (2002), S. 97.
144
Segmente nur die Aufdeckung der Nutzenparameter und die Prognosevaliditat. Die Verteilung innerhalb der Segmente hat keinen Einfluss auf die Ergebnisse. Simulationsstudie von Andrews/Ainslie/Currim (2002) Im Gegensatz zu Andrews/Ansari/Currim stellen Andrews/Ainslie/Currim nicht metrische, sondem wahlbasierte Conjoint-Analyse-Ansatze gegeniiber und orientieren sich bei der Wahl der Einsatzfaktoren an Panel-Daten als Datengrundlage. Sie zeigen, dass bei relativ wenigen Beobachtungen je Konsument, die HBCA zu relativ schlechteren Ergebnissen kommt als der LC-Ansatz. Andrews/Ainslie/Currim kommen zu dem Schluss, dass die Ergebnisse der HBCA und der LCCA ansonsten vergleichbar sind. Hinsichtlich der verschiedenen Einflussfaktoren zeigt sich ein ahnliches Bild wie bei den metrischen Ansatzen, wiederum ohne dass eine Uberlegenheit fiir ein bestimmtes Verfahren ermittelt werden kann. Die Simulationsstudie von Gensler (2003) Gensler berucksichtigt sowohl metrische als auch wahlbasierte Ansatze, wobei der Schwerpunkt auf einer getrennten Auswertung der beiden Datenerhebungsansatze liegt, abschlieBend jedoch dartiber hinaus eine iibergreifende Gegeniiberstellung vorgenommen wird. Ubereinstimmend mit den empirischen Untersuchungen und im Gegensatz zu den Ergebnissen von Andrews/Ansari/Currim sowie Andrews/Ainslie/Currim stellt Gensler fiir die HB-Ansatze jeweils eine hohe Gtite der Ergebnisse und eine groBe Robustheit gegeniiber Verletzungen der Modellannahmen fest,^^ wohingegen die FM-Ansatze relativ sensibel auf eine Verletzung der Annahme homogener Segmente reagieren, wahrend sie sich allerdings robust gegeniiber Manipulationen der Ahnlichkeit und der Zahl der Segmente erweisen.^^^ Die Gegeniiberstellung der metrischen und wahlbasierten Ansatze zeigt, dass die metrischen Ansatze die Nutzenstrukturen der Konsumenten besser aufdecken, wahrend allerdings die wahlbasierte HBCA hinsichtlich der Prognosevaliditat auf aggregierter Ebene den anderen Modellen iiberlegen ist. Die metrische HBCA liefert dagegen besonders gute Ergebnisse hinsichtlich der individuellen Prognosevaliditat. 4.5
Schlussfolgerungen fur den weiteren Verlauf der Arbeit
Zunachst konnte gezeigt werden, dass fur einen systematischen Vergleich der verschiedenen Conjoint-Analyse-Ansatze eine Simulationsstudie besonders geeignet ist. Die sechs ausgewahlten Verfahrensvarianten unterscheiden sich insbesondere hinsichtlich drei verschiedener Einflussfaktoren: (1) Skalenniveau der Datengrundlage (metrisch vs. nominal), (2) Aggregationsniveau (individuell vs. segmentspezifisch vs. populationsspezifisch) und
^^ Vgl. Gensler, S. (2003), S. 277. ^
Vgl. Gensler, S. (2003), S. 277f.
145
(3) Beriicksichtigung einer probabilistischen Komponente (rein deterministisch vs. (teil-) probabilistisch). Dabei darf nicht ubersehen werden, dass die Verfahren teilweise sehr unterschiedliche Modellierungsansatze verfolgen. Es ist zu vermuten, dass verschiedene Umweltbedingungen die einzelnen Verfahren in unterschiedlicher Art und Weise beeinflussen. Dies kann einerseits argumentativ aus einer inhaltlichen Gegeniiberstellung der Verfahren abgeleitet werden. Andererseits existieren schon verschiedene Monte-Carlo-Studien, die bereits einige der Einflussfaktoren untersucht haben. Allerdings haben diese Studien durchweg eine Beriicksichtigung von Nicht-Kaufentscheidungen ausgeklammert. Dies bedeutet, dass die Ergebnisse nicht unmittelbar auf die Fragestellung der vorliegenden Arbeit zu iibertragen sind. Dariiber hinaus steht im Mittelpunkt dieser Studien die Analyse der Praferenzheterogenitat, was bedeutet, dass ein besonderer Fokus auf Heterogenitatsfaktoren gelegt wurde. Im Rahmen dieser Arbeit ist eine Monte-Carlo-Simulation zu konzipieren, die ebenfalls Heterogenitat als Einflussfaktor einschlieBt, zudem aber zusatzliche Faktoren beriicksichtigt, die fiir die Erklarung von Kaufentscheidungen einen besonderen Einfluss haben bzw. bei vergangenen Studien aufgrund der Priorisierung von Heterogenitatsfaktoren ignoriert wurden. Dabei ist zu bedenken, dass auch in dieser Arbeit eine Auswahl getroffen werden muss, da bei einer Beriicksichtigung einer zu groBen Anzahl an Faktoren auch Simulationsstudien schnell zu komplex werden und mit vertretbarem Ressourceneinsatz nicht mehr zu bewaltigen sind und die Gefahr hinzukommt, dass die Ergebnisse aufgrund einer nicht mehr nachvollziehbaren Komplexitat der Zusammenhange ihre Aussagekraft verlieren.
146
5 Monte-Carlo-Studie zum systematischen Vergleich von conjointanalytischen Verfahrensvarianten hinsichtlich ihrer Eignung zur Prognose von Kaufentscheidungen 5.1
Durchfiihrung der Monte-Carlo-Simulation
5.1.1 Generierung des synthetischen Datensatzes Fiir die im Rahmen der Monte-Carlo-Simulation erzeugten Daten wird das Software-Paket SAS 8.2 eingesetzt, das einen Zufallszahlengenerator umfasst und durch die integrierte Progranuniersprache erlaubt, die Daten an die Anforderungen der Conjoint-Analyse anzupassen. In einem ersten Schritt wird eine Matrix mit Ausgangsteilnutzenwerten der Auspragungen aller Eigenschaften festgesetzt, die sich im Intervall [-1,7; 1,7] befmden und damit vergleichbar sind zu solchen Teilnutzenwerten, wie sie auch bei empirischen Studien beobachtet werden.^^^ Im Falle der Simulation verschiedener Segmente^^ werden entsprechend drei verschiedene Matrizen mit Ausgangsteilnutzenwerten defmiert. Es handelt sich hierbei um Praferenzinformationen auf aggregiertem Niveau. Durch Addition eines zufallsverteilten Terms wird Heterogenitat innerhalb verschiedener Segmente bzw. im Fall einer Komponente innerhalb der gesamten Stichprobe beriicksichtigt. Die aggregierten Informationen werden auf diese Art und Weise „individualisiert". Im Folgenden werden diese Werte als „wahre" Teilnutzenwerte und als Soll-Werte fur den Verfahrensvergleich herangezogen. Prinzipiell ist zwischen zwei verschiedenen Moglichkeiten zur Beriicksichtigung eines Fehlerterms zu wahlen. Zum einen kann der Fehler direkt zu den wahren Teilnutzenwerten addiert werden, zum anderen konnen ausgehend von den wahren Teilnutzenwerten erst Gesamtnutzenwerte berechnet werden und diese anschlieBend um einen Fehlerterm erganzt werden. Im Rahmen der vorliegenden Simulationen wird die zweite Vorgehensweise gewahlt, denn sie lasst sich eher verhaltenstheoretisch begrunden, da Stimuli ganzheitlich beurteilt werden und Fehler damit nicht einzelnen Merkmalen bzw. Merkmalsauspragungen zuzurechnen sind.^^^ Die Addition des Zufallsfehlers tragt alien nicht explizit modellierten Einflussfaktoren Rechnung^^^ und fiihrt dazu, dass jetzt „beobachtete" Gesamtnutzenwerte simuliert werden. Zuvor mtissen jedoch aus den wahren Teilnutzenwerten wahre Gesamtnutzenwerte berechnet werden. Dies geschieht getrennt fiir die metrischen und die wahlbasierten Ansatze, da die metrischen hier auf ein reduziertes Design zuriickgreifen, wahrend die wahlbasierten Ansatze mit einer bestimmten Kombination aus verschiedenen Choice-Sets arbeiten.
Vgl. Vriem, M./Wedel, M./Wilms, T. (1996), S. 11\ Andrews, R.L./Amah, A./Currim, IS. (2002), S. 89. Fiir den Fall, dass sich innerhalb der Gesamtpopulation nicht verschiedene Segmente unterscheiden lassen, kann nicht von verschiedenen Segmenten gesprochen werden. Aus diesem Grunde wird im Folgenden der allgemeinere Ausdruck Komponente verwendet, vgl. Gensler, S. (2(X)3), S. 194 (FuBnote 370). Vgl. von Thaden, C. (2002), S. 89. Vgl. Abschnitt 3.3.1.1.
147
Die beobachteten Gesamtnutzenwerte werden so transformiert, dass sie Bewertungen auf einer lOOer-Skala entsprechen. Die Platzierung der Limit-Card ist bereits bei der Konstruktion der Teilnutzenwerte implizit modelliert worden und muss daher an dieser Stelle nicht mehr berucksichtigt werden. Die Matrizen der Ausgangsteilnutzenwerte enthalten sowohl positive als auch negative Werte, so dass auch nach Aggregation positive und negative Gesamtnutzenwerte entstehen konnen. GemaB den Annahmen fur die LCA kennzeichnen positive Gesamtnutzenwerte Stimuli, fur die ein Proband eine prinzipielle Kaufbereitschaft aufweist, wahrend negative Gesamtnutzenwerte ausdriicken, dass fiir solche Stimuli keine Kaufbereitschaft besteht.^^^ Unabhangige GroBen der wahlbasierten Verfahrensvarianten sind diskrete GroBen, genauer Auswahlentscheidungen. Die Auswahlentscheidungen werden direkt aus den Praferenzwerten abgeleitet, indem angenommen wird, dass der Proband die Alternative mit dem hochsten Gesamtnutzenwert wahlt (First-Choice-Regel). Falls auch der hochste Gesamtnutzenwert noch im negativen Bereich liegt, wird die Nicht-Kauf-Option modelliert. Im nachsten Schritt werden aus den „beobachteten" metrischen Werten bzw. Wahlentscheidung durch die Anwendung der jeweiligen Verfahren Teilnutzenwerte berechnet. AnschlieBend werden hypothetische Markte defmiert, anhand derer die verschiedenen Verfahrensvarianten verglichen werden sollen. Ein Markt setzt sich aus einer bestimmten Anzahl von Produkten zusammen, die wiederum iiber die bereits zuvor festgelegten Eigenschaften defmiert werden. Simuliert werden nicht nur hypothetische Produkte aufgrund der geschatzten, sondem dariiber hinaus auch noch auf Basis der „wahren" Teilnutzenwerte. Die hypothetischen Produkte auf Basis der wahren Teilnutzenwerte dienen als Validierungskriterium und Benchmark fur den Verfahrensvergleich. Die extemen GiitemaBe setzen die ermittelten und die beobachteten Werte in Bezug zueinander. Abbildung 33 gibt einen Uberblick iiber die verschiedenen Schritte der Monte-CarloSimulation. Im Rahmen einiger Studien wird lediglich ein reduziertes Design aller moglichen Kombinationen der verschiedenen Einflussfaktoren simuliert. An dieser Stelle sollen allerdings auch Interaktionen zwischen verschiedenen Faktoren untersucht werden. Aus diesem Grunde fmdet das vollstandige Design Verwendung.
^'' Vgl.Abschnitt 3.2.1.
148
[
TNW der Clusterzentren
Marktsimulation
[ „wahre" individueHeTNW 1-6 [
„Wahre" Choice-] [ „Wahre" LimitGNW 4-6 J [ GNW 1-3
'' ^' Beobacht.Cho-l feeobacht. Limit^ ice-GNW 4-6 J [ GNW 1-3 '' Choices 4-6
—czi:
(4) CBCA-TNW ' Limit-Score 1 -3J^ M(5) L C C A - T I W ^ - H ^ 4(6) HBCA-TNW~
|-g(5) LCCA-Choices
(6) HBCA-GNW
Abbildung 33: Ablaufschritte der Monte-Carlo-Simulation Es werden im Rahmen der vorliegenden Studie sechs verschiedene Einflussfaktoren mit je zwei Auspragungen systematise!! variiert und dabei sechs Verfahren miteinander verglichen. Es miissen demzufolge 2^-6=384 verschiedene Vergleiche simuliert werden. 5.1.2 A uswahl der zu berucksichtigenden Einflussfaktoren 5.1.2.1 Konstante und nicht direkt abgebildete Faktoren Prinzipiell gibt es eine Vielzahl von Einflussfaktoren, die im Rahmen von experimentellen Versuchsanordnungen variiert werden konnen. Auch wenn die Kosten von simulierten Daten weitaus geringer sind als diejenigen, die im Rahmen empirischer Experimente anfallen, muss auch bei Simulationsstudien eine Beschrankung auf die wichtigsten Einflussfaktoren vorgenonmien werden, zum einen um Rechenleistung und den damit verbundenen Zeitaufwand in einem uberschaubaren Rahmen zu halten, zum anderen aber auch um eine Interpretationsfahigkeit der Ergebnisse zu gewahren. Aus diesem Grund werden im Rahmen der vorliegenden Studie Annahmen getroffen und einige potenzielle Einflussfaktoren ausgeblendet, indem sie konstant gehalten werden. Variiert werden diejenigen Einflussfaktoren, die in bisherigen Studien nicht beriicksichtigt wurden, die fiir Kaufentscheidungen von besonderer Relevanz sind bzw. von denen vermutet wird, dass sie am starksten mit den unterschiedlichen conjointanalytischen Verfahrensvarianten korrelieren und damit zu besonders groBen Unterschieden der Giite der Conjoint-Ergebnisse in Bezug auf verschiedene Verfahrensvarianten fiihren. Den wissenschaftstheoretischen Grundsatzen folgend, wird dabei beriicksichtigt, dass bereits vor 149
Durchfiihrung der Simulationsstudie begriindete Hypothesen liber den Zusammenhang zwischen der Variation des Einflussfaktors und den Ergebnisdifferenzen hinsichtlich der verschiedenen Verfahrensvarianten der Conjoint-Analyse aufzustellen sind. Anzahl der Merkmale und Auspragungen Da die Merkmale bei der Monte-Carlo-Simulation keine inhaltliche Dimension aufweisen, sind zunachst lediglich die Anzahl der Merkmale und der Auspragungen festzulegen. Im Rahmen der Anwendung der verschiedenen Verfahren ist dariiber hinaus noch das verfahrensspezifische Versuchsdesign zu bestimmen. Da keine begriindete Annahme liber Unterschiede der Leistungsfahigkeit der Verfahren in Bezug auf unterschiedlich komplexe Stimuli getroffen werden kann,^^^ werden im Rahmen der verschiedenen Simulationen gleichartige Altemativen verwendet und zwar solche mit 6 Merkmalen und 3 Auspragungen.^^^ Damit handelt es sich in etwa um eine Dimensionierung der Altemativen wie sie bei realen Studien ebenfalls vorgenommen wird. Die nicht zu hohe Komplexitat tragt nicht zuletzt dem Gedanken Rechnung, dass der Fokus hier nicht auf Verfahren gelegt wird, die explizit entwickelt wurden, um eine groBere Anzahl an Merkmalen und Merkmalsauspragungen zu beriicksichtigen. Es ist damit zu rechnen, dass Stimuli dieser Dimensionierung ebenfalls in der Realitat von den Auskunftspersonen sowohl mit dem metrischen als auch mit dem wahlbasierten Ansatz ohne allzu groBe Verzerrung aufgrund einer Informationsuberladung (information overload) bewertet werden konnen und dass mogliche auf den Erhebungsansatz zuriickzufuhrende Unterschiede mit Hilfe einer Reskalierung der Rating-Daten nivelliert werden konnen. Aufgrund der relativ geringen Anzahl an Stimuli im reduzierten Design der LCA diirften die fur die Reskalierung benotigten zusatzlichen Auswahlentscheidungen keinen zu hohen Mehraufwand fiir die Auskunftspersonen bedeuten. Anzahl der Alternativen auf dem „ wahren " Vergleichsmarkt Fiir den Vergleich der Ergebnisse auf aggregiertem Niveau wird ein Markt simuliert. Es werden dazu bei alien Simulationen Markte mit jeweils drei hypothetischen Altemativen zur Berechnung der GiitemaBe herangezogen. Es fmden fiir jeden Vergleich vier zufallig erzeugte Markte Verwendung. Der Riickgriff auf mehrere hypothetische Markte zur Validierung fiihrt zu einem vertretbaren Mehraufwand bzgl. der benotigten Rechenleistung, kann aber die stochastischen Abweichungen moglicherweise verringem.^^"^
Unterschiede diirften allenfalls fiir den Bewertungsprozess durch die Befragten zu vermuten sein, der allerdings im Rahmen einer Monte-Carlo-Studie nicht abgebildet wird. Es wurde zwar bei den aufgabenspezifischen Faktoren, die auf die Praferenz-Kaufentscheidungsrelation einwirken, dargelegt, dass komplexere Aufgaben zu einer Vereinfachung der Entscheidungsregeln fiihren (vgl. Abschnitt 2.3). Allerdings beruhen sowohl die wahlbasierten Ansatze als auch die LCA auf kompensatorischen Beziehungen, so dass daraus keine Vorteile fiir eines der beiden Verfahren abgeleitet werden kann. Es ist zu beachten, dass mit der Produktahnlichkeit eine Eigenschaft der Markte systematisch verandert wird.
150
Korrelation der Fehlerterme Der Simulation liegt die Annahme zugrunde, dass die Fehlerterme unkorreliert sind. Chakraborty et al haben in ihrer Monte-Carlo-Studie anfangs noch vermutet, dass aufgrund der besonderen Robustheit von linearen Modellen selbst bei groBeren Fehlspezifikationen metrische Ansatze bessere Ergebnisse liefem als wahlbasierte.^^^ Die Autoren schranken allerdings bereits selbst auf Kirk^^^ Bezug nehmend ein, dass die genauen Effekte schwer abschatzbar sind, da auch Regressionen nicht voUkonmien robust gegeniiber VerstoBen gegen die Annahme unabhangiger Fehler sind. Die Monte-Carlo-Simulation konnte die urspriingliche Vermutung dann auch nicht bestatigen,^^^ so dass fiir die vorliegende Studie auf die Einbeziehung von Fehlerkorrelationen verzichtet werden soil. Verteilung der Fehlerterme SchlieBlich konnte die Verteilung der StorgroBe bei der Datengenerierung variiert werden, um bspw. eine zu starke Zuschneidung der Modellbedingungen auf eines der beriicksichtigten Verfahren zu verhindem. In der vorliegenden Studie sind die Fehlerterme normalverteilt, was sicher tendenziell der Modellierung des wahlbasierten Ansatzes entspricht, aufgrund der dennoch bestehenden Unterschiede zwischen Normal- und Gw/wZ>e/-Verteilung keine genaue Entsprechung darstellt. Von der Normalverteilung abweichende Annahmen uber die Verteilung der Fehlerkomponente diirften dariiber hinaus schwer zu begrunden und damit kaum als Grundlage fur aus den Simulationsergebnissen abgeleitete Handlungsempfehlungen geeignet sein. Gleiches gilt fur die Modellierung von Abweichungen innerhalb einer Komponente. Andrews/Ansari/Currim variieren zwischen Normal- und Gammaverteilung, um Komponentenvarianz abzubilden,^^^ stellen aber zumindest fiir HBCA und LCCA eine beachtliche Robustheit der Ergebnisse fiir verschiedene Verteilungen fest. Dies kann analog auf die LFMCA und die LHBCA iibertragen werden. Die CBCA diirfte von beiden Verteilungen ahnlich stark negativ beeinflusst werden und die LCA operiert ohnehin auf Individualniveau, so dass die ausschlieBliche Verwendung der Normalverteilung hier zu rechtfertigen ist. Zudem liegt der Fokus dieser Studie auf der Prognose von Kaufentscheidungen und nicht auf Segmentierungsaufgaben.^'^^
Vgl. Chakraborty, G.et al. (2002), S. 240. Vg\.Kirk,R.{\995). Vgl. Chakraborty, G.et al. (2002), S. 246f Vgl. Andrews, R.L./Ansari, A./Currim, IS. (2002), S. 88f, wobei die Robustheit der LCCA aufgrund der Modellannahmen nicht verwundert. Andrews/Ansarim/Currim haben daruber hinaus noch verschiedene Massen fiir die Stichprobe miteinbezogen, vgl. Andrews, R.L./Ainslie, A./Currim, I.S. (2002), S. 88f. Allerdings ist dies ebenfalls insbesondere mit der Segmentierungsaufgabe zu begrunden, so dass in der vorliegenden Studie davon abgesehen werden kann. Auch Vriens/Wedel/Wittink verwenden ausschlieBlich die Normalverteilung, obwohl es sich hier um eine Segmentierungsstudie, die unterschiedliche Annahmen iiber die Zusammensetzung der Segmente eher rechtfertigen wurde, handelt, vgl. Vriens, M./Wedel, M./Wilms, T. (1996), S. 73ff.
151
Segmentgrofien Werden die Probanden in verschiedene Segmente aufgeteilt, konnte die GroBe der verschiedenen Segmente variiert werden. Im Rahmen der vorliegenden Studie werden die Segmente aber so modelliert, dass sie gleich groB sind.^^^ Durchschnittliche Separation zwischen Segmentnutzenparametern Das AusmaB der Heterogenitat in der Stichprobe wird nicht nur durch die Anzahl der Komponenten und die Nutzenvarianz innerhalb eine Komponente bestinmit, sondem hangt zudem davon ab, wie ahnlich sich die einzelnen Komponenten sind. Die Ahnlichkeit der Komponentenzentren kann mit Hilfe eines Separationsterms, der zu den Nutzenwerten des Ausgangsclusterzentrums addiert wird, verandert werden.^^* Um zu vermeiden, dass sich lediglich die Sensitivitat der Komponenten verandert, wie es bei durchgehend groBeren Nutzenparametem bei einer Komponente im Vergleich zu einem anderen der Fall ware, werden zwei Vektoren generiert, wobei Vektor x unterschiedliche Vorzeichen abbildet und der andere Vektor 5 bestehend aus Zufallszahlen mit einem Mittelwert von 1 (geringe Separation) bzw. 2 (groBe Separation) und einer Varianz von jeweils 10% des Mittelwertes die eigentliche Separation modelliert. Daraus ergibt sich fiir die Nutzenwerte der 2. Komponente:
In der vorliegenden Studie wird die Separation nicht variiert, sondem ein konstanter Separationsfaktor in Hohe von 5=1 verwendet. Berucksichtigung einer Stichprobenziehung Chakraborty et al. beriicksichtigen in ihrer Studie eine konstante Grundgesamtheit von 10.000 Probanden und modellieren eine Stichprobenziehung.^^^ Davon soil hier abgesehen werden, da dies den Versuchsaufbau unnotig verkompliziert und insbesondere eine zusatzliche Quelle fiir zufallige Abweichungen einfiihrt, die unabhangig von dem angewendeten Verfahren ist. Auf die Stichprobenziehung zuriickgehende Differenzen sind rein stochastischer Natur und werden somit bereits iiber die Addition des Fehlerterms beriicksichtigt. Produktdhnlichkeit Die wahlbasierten Ansatze der Conjoint-Analyse basieren auf der /Z4-Annahme,^^^ was moglicherweise dazu ftihren konnte, dass im Falle der Wahl zwischen Altemativen, die sich nur rudimentar unterscheiden, Verzerrungen auftreten. Im Gegensatz zur Simulationsstudie von Chakraborty et al. erlaubt der Ansatz der vorliegenden Studie aufgrund der Berucksichtigung
Die Studie von Andrews/Ansari/Currim zeigt, dass Unterschieden der SegmentgroBe - allerdings ohne Berucksichtigung von Nicht-Kaufen - lediglich eine untergeordnete Rolle zukommt, vgl. Andrews, R.L./Ansari, A./Currim, IS. (2002), S. 87ff. 681
Vgl. zum Vorgehen bei der Konstruktion der Separation ^A?Jrevvj, R.L./Currim, I.S. (2003b), S. 283.
682
Vgl. Chakraborty, G.et al. (2002), S. 241. Vgl. Abschnitt 3.2.2.
152
der Fehlervarianz bei der Abbildung der Bewertung der Stimuli, nicht aber bei der Simulation der wahren Nutzenwerte, dieses Vorgehen nicht. Die zur Validierung herangezogenen Choice-Sets werden zufallig generiert. Aus diesem Grunde konnen unterschiedliche Produktahnlichkeiten nicht als Einflussfaktor erfasst werden. Entscheidungsregel der Konsumenten Chakraborty et al verwenden Mischungen der First-Choice- und Logit-Entscheidungsregeln im Verhaltnis 90:10 bzw. 10:90, um der Tatsache Rechnung zu tragen, dass nie die gesamte Population nach derselben Entscheidungsregel verfahren wird.^^"^ Damit sollen Unterschiede hinsichtlich verschiedener Typen von Kaufentscheidungssituationen abgebildet werden. In der vorliegenden Simulationsstudie werden diese Einflusse allein iiber die Modellierung unterschiedlicher Fehlervarianzen abgebildet.^^^ Faktor
AusprSgung
Anzahl der Merkmale
6
Anzahl der Auspragungen
3
Produkte auf hypothetischem Markt
3
Verteilung des Fehlers
normalverteilt
Verteilung der Komponenten-Heterogenitat
normalverteilt
KomponentengroBe
alle gleich groB
Separation der Komponenten
Faktor 1
Stichprobenziehung
nicht modelliert
Ahnlichkeit der Produkte
zufalhg (nicht explizit modelliert)
Entscheidungsregel
First-Choice-Regel
Abbildung 34: Konstante bzw. nicht in der Monte-Carlo-Studie berucksichtigte Faktoren Unterschiede bzgl. der zur Beurteilung vorgelegten Altemativen des reduzierten Designs bzw. bzgl. der Choice-Sets werden in Abschnitt 3.3.1.1 diskutiert, da sie einen Unterschied hinsichtlich der metrischen bzw. wahlbasierten Datenerhebung aufweisen. Abbildung 34 gibt einen Uberblick uber konstante bzw. nicht direkt in der Monte-Carlo-Simulation abgebildete Faktoren. 5.1.2.2 Variable Einflussfaktoren Jeder Faktor, der im Rahmen der vorliegenden Studie explizit analysiert werden soil, wird in mehreren Auspragungen simuliert. Die Auspragungen soUten realistisch sein, allerdings ist ebenso darauf zu achten, dass sie sich merklich unterscheiden, um signifikante Unterschiede
^
Vgl. Chakraborty, G.et al. (2002), S. 241.
^^^ Vgl. Abschnitt 5.1.2.2
153
beim Einsatz der verschiedenen Verfahren ableiten zu konnen. In der vorliegenden Studie werden sechs Einflussfaktoren variiert, wobei je Faktor genau zwei verschiedene Stufen berucksichtigt werden. Irrelevantes Merkmal Ein Kriterium fiir die Definition der Merkmale und Merkmalsauspragungen ist, dass nur relevante Merkmale im Rahmen von Conjoint-Studien zu berucksichtigen sind. Dies ist nicht nur damit zu begriinden, dass die Anzahl der Eigenschaften, die beriicksichtigt werden konnen, grundsatzlich sehr begrenzt ist, dariiber hinaus ist bei Berucksichtigung eines irrelevanten Merkmals auch mit einer Verzerrung der Ergebnisse zu rechnen.^^^ Aus diesem Grunde wird ein irrelevantes Merkmal simuliert, indem bei einem Merkmal fiir alle Auspragungen identische Teilnutzenwerte simuliert werden. Im Falle eines erwarteten Basisnutzens von 0 werden die Teilnutzenwerte auf 0 und bei einem erwarteten Basisnutzen in Hohe von (-3) entsprechend auf (-3) gesetzt. Anzahl der Probanden Als nachstes soil der Einfluss der Anzahl der Auskunftspersonen untersucht werden. Zwar konnen bspw. Vriens et al keinen signifikanten Einfluss des Stichprobenumfangs in Bezug auf den Einsatz unterschiedlicher Segmentierungsverfahren auf die Ergebnisse ermitteln,^^^ jedoch unterscheiden sich die hier gegeniibergestellten Verfahren erheblich hinsichtlich des Aggregationsniveaus und in ihrer Eigenschaft, zur Schatzung von individuellen Nutzenwerten auf aggregierte Werte zuriickzugreifen. Daher kann angenommen werden, dass gerade bei kleineren Stichproben^^^ die LCA deutliche Vorteile gegeniiber den anderen Verfahren aufweisen diirfte. Es wird dementsprechend mit 75 Auskunftspersonen eine relativ geringe und mit 300 Auskunftspersonen eine relativ groBe Zahl an Probanden in den Simulationen beriicksichtigt. Anzahl der Komponenten Da mit der LCCA und der LFMCA zwei Ansatze im Rahmen des Verfahrensvergleichs Berucksichtigung fmden, die auf der Annahme verschiedener Komponenten der Konsumentenpraferenzen in der Grundgesamtheit basieren, sollen auch im Rahmen dieser Studie verschiedene Komponentenzahlen bzw. -zentren Berucksichtigung fmden, obwohl als Zielsetzung eine Prognose von Kaufentscheidungen bzw. Marktanteilen verfolgt wird. Fraglich ist, inwiefem die LCCA bzw. die LFMCA im Falle mehrerer Komponenten im Vergleich zu den anderen Verfahren tatsachlich einen Vorteil aufweisen. Es wird einerseits die Situation beriicksichtigt, dass keine Clusterung vorliegt, d.h., die Anzahl der Komponenten betragt eins, und die Situation, dass sich hinsichtlich der Praferenzstruktur der Befragten drei verschiedene Seg^^^ Vgl. exemplarisch fur die TCA Abschnitt 3.1.2.1.2. ^'^ Vgl. Vriens, M. (1995), S. 153ff.; Vriem, M./Wedel, M./Wilms, T. (1996), S. 73ff.; Vriens, M./Wedel, MJWilms, T. (1992), S. Iff. ^^* Besonders ausgepragt sollten die Unterschiede im Falle heterogener kleiner Stichproben sein.
154
mente unterscheiden lassen. Im Falle einer einzigen Komponente wird nur eine Matrix mit Ausgangsteilnutzenwerten fur die Auspragungen der verschiedenen Eigenschaften festgelegt, wahrend im Falle dreier Komponenten drei unterschiedliche Matrizen definiert werden miissen. Nicht-Kdufer-Anteil modelliert uber eine Verschiebung des Basisnutzens Der Anteil der Nicht-Kaufer diirfte in erster Linie bei den wahlbasierten Verfahrensvarianten einen beachtlichen Einfluss auf die Ergebnisse haben, denn die Informationsbasis fiir die verschiedenen Nutzenparameter sinkt bei steigendem Nicht-Kaufer-Anteil, da die Probanden in diesem Fall vermehrt die Nicht-Kauf-Option wahlen, die keine Aussage tiber die Vorziehenswurdigkeit einer der Produktaltemativen zulasst. Der Anteil der Nicht-Kaufer kann durch eine Verschiebung des Erwartungswertes bei der Generierung der Teilnutzenwerte erzielt werden. Ein Erwartungswert in Hohe von 0 Nutzeneinheiten fiir den Mittelwert eines Attributes diirfte bei mehreren Altemativen im Choice-Set dazu fuhren, dass relativ haufig zumindest eine der Altemativen einen positiven Teilnutzenwert aufweist und auf dem simulierten Markt, der zur Validierung der Ergebnisse herangezogen wird, eine positive Kaufwahrscheinlichkeit fiir zumindest eine der Altemativen ermittelt wird. Eine Verschiebung des Erwartungswertes aller zufallig generierten Teilnutzenwerte in einer Simulation bewirkt eine Verschiebung des Basisnutzens.^^^ Es wird ein Erwartungswert von 0 und eine Verschiebung der Erwartungswerte der Teilnutzenwerte eines Attributes in Hohe von (-0,5) verwendet, was bedeutet, dass der Erwartungswert des Gesamtnutzenwertes eine Hohe von (-3) annimmt und mit einem groBeren NichtKaufer-Anteil sowohl in den einzelnen Choice-Sets als auch auf den Validationsmarkten zu rechnen ist. Die bisherigen Simulationsstudien verzichten auf eine Variation des NichtKauferanteils, da sie den Fokus insbesondere auf die Beriicksichtigung der Praferenzheterogenitat setzen. Auf Gmnd des Schwerpunktes von Kaufentscheidungen im Rahmen der vorliegenden Studie und aufgmnd von Unterschieden in der Informationseffizienz der verschiedenen Verfahren erscheint es sinnvoll, an dieser Stelle den Nicht-Kauferanteil systematisch zu variieren. Komponenten-Heterogenitat der Praferenzen Mit der Anzahl der verschiedenen Komponenten wird bereits ein Faktor variiert, der als ein Ma6 fiir die Heterogenitat der Konsumentenpraferenzen verstanden werden kann. Dariiber hinaus wird mit unterschiedlichen MaBen fiir die Abweichung von den definierten Ausgangswerten noch ein zweites HeterogenitatsmaB benicksichtigt. Fiir alle Simulationen wird angenommen dass die Abweichungen von den Ausgangswerten normalverteilt sind. Ebenfalls sollen die Abweichungen nicht hinsichtlich ihrer Mittelwerte differieren. Unterschiede hinsichtlich der Komponenten-Heterogenitat werden durch verschiedene Varianzen der NormalverteiDa in der vorliegenden Studie die Anzahl der Merkmale nicht variiert, konnte die Nutzenverschiebung auch liber den Gesamtnutzen erfolgen.
155
lung dargestellt. Zu diesem Zweck werden zu den Ausgangswerten normalverteilte Zufallszahlen mit einer Varianz von 0,05 bzw. 0,25 addiert.^^^ Varianz des Fehlerterms Im Rahmen der Monte-Carlo-Simulationen werden zu den individuellen Werten Fehlerterme addiert, die nichtsystematische Fehler abbilden sollen. Zu moglichen nicht-systematischen Fehlem zahlen zum einen Einflussfaktoren, die nicht explizit in der Studie abgebildet werden und zufallig variieren sowie zum anderen Messfehler.^^^ Es kann wie bei der Modellierung der Auswahlregel argumentiert werden, dass sich Kaufentscheidungssituationen hinsichtlich ihrer kognitiven Steuerung unterscheiden und bei extensiven sowie bei limitierten Kaufentscheidungssituationen tendenziell mit geringeren probabilistischen Einflussfaktoren zu rechnen ist, wahrend bei tendenziell impulsiven bzw. habitualisierten Kaufentscheidungssituationen mit einer groBeren Bedeutung nicht explizit im Modell erfasster Einflussfaktoren zu rechnen ist. In den Komponenten besteht bereits eine Varianz, die die Komponenten-Heterogenitat abbilden soil. Zahlreiche Studien definieren die Varianz des Fehlerterms in Abhangigkeit von der die Komponenten-Heterogenitat abbildenden Varianz, indem sie den so genannten PEV {Percentage of Error) definieren :^^^ PEV = ^ ^ ^ a . - r , ^ k
(81)
mit: Gg:
Varianz des Fehlerterms,
Gy:
Varianz der „wahren Nutzenwerte".
In der vorliegenden Studie erscheint es nicht sinnvoll, die Fehlervarianz in Abhangigkeit der Komponentenvarianz zu variieren, da die Ergebnisse der verschiedenen Studien in Bezug auf Interdependenzen zwischen verschiedenen Merkmalen untersucht werden sollen. Dazu sind die einzelnen Merkmale unabhangig voneinander zu definieren. Es werden in der vorliegenden Studie Varianzen in Hohe von 1,645 bzw. 3,290 verwendet.
Vgl. Andrews, KL/Ainslie, A./Currim, IS. (2002), S. 480; Gemler, S. (2003), S. 209. Vgl.Abschnitt 3.3.1.2. Vgl. Wittink, D./Cattin, P. (1981), S. 103 (FuBnote 3).
156
Einflussfaktor
Ausprdgung 1
AusprSgung 2
irrelevantes Merkmal
nicht vorhanden
vorhanden
Anzahl der Probanden
75
300
Anzahl der Komponenten
1
3
Basisnutzen
0
(-3)
Komponenten-Heterogenitat
niedrig (0^=0,05)
hoch (0^=0,25)
Fehlervarianz
niedrig (1,645)
hoch (3,290)
Abbildung 35: Variable Faktoren der Monte-Carlo-Simulation Abbildung 35 gibt einen Uberblick iiber die verschiedenen variablen Faktoren der vorliegenden Monte-Carlo-Simulation. 5.1.3 Parametrisierung der ausgewahlten Conjoint-Analyse-Ansdtze Im Rahmen der Monte-Carlo-Studie werden mit der LCA, LFMCA, LHBCA, CBCA, HBCA und LCCA insgesamt sechs Verfahrensvarianten der Conjoint-Analyse miteinander verglichen. Ahnlich wie in Abschnitt 3.1 fiir die TCA gezeigt, gibt es einen erheblichen Spielraum bei der Ausgestaltung der berucksichtigten Verfahren. 5.1.3.1 Metrische Conjoint-Analyse-Ansdtze Als Erhebungsmethode wird fur die metrischen Ansatze das Rating-Verfahren simuliert. Die „beobachteten" Gesamtnutzenwerte, die sich aus der Sunmie der jeweils um einen der Komponenten-Heterogenitat Rechnung tragenden Term erganzten Ausgangsteilnutzenwerte abschlieBend korrigiert um einen Fehlerterm zusammensetzen, liegen aufgrund der mehrfachen Ziehung einer normalverteilten Zufallszahl nicht in einem a priori bekannten Intervall. Dies ist allerdings insofem unproblematisch, als dass sich a posteriori ein Intervall bestinmien lasst, und sich die hypothetischen Rating-Werte durch einfache lineare Transformation in ein beliebiges Intervall iiberfuhren lassen. Durch die iiber die Zufallszahlenziehung modellierte Platzierung der Limit-Card, kann auf die restriktive Pramisse, dass die Limit-Card genau zwischen zwei Stimuli liegen muss,^^^ verzichtet werden. Es wird eine Skala im Intervall zwischen 0 und 100 simuliert, wobei der beste Stimulus stets einen Wert von 100 und der schlechteste stets einen Wert von 0 zugewiesen bekommt. Zur Generierung des Designs wird das Software-Paket SAS verwendet. Das vollstandige Design wiirde bei 6 Merkmalen mit jeweils 3 Auspragungen 729 verschiedene Stimuli enthalten. Es wird auf ein reduziertes Design mit noch 18 Altemativen verkleinert.
Vgl. Abschnitt 3.2.1.
157
Limit-Conjoint-Analyse (LCA) Zur Schatzung der Teilnutzenwerte wird ebenfalls SAS benutzt, das hierzu eine OLSRegression verwendet. Aus den berechneten Teilnutzenwerten werden fiir die Stimuli des simulierten Vergleichsmarktes Gesamtnutzenwerte berechnet und auf Basis der First-ChoiceRegel Kaufentscheidungen fiir einzelne Individuen abgeleitet und anschlieBend durch Aggregation Marktanteile bestimmt. Limit-Finite-Mixture-Conjoint-Analyse (LFMCA) Auf Grundlage der 18 bewerteten Stimuli werden mit Hilfe des Software-Packetes GLIMMIX 3.0 verschiedene Limit-Finite-Mixture-Conjoint-Analysen durchgefiihrt, wobei fiir jede Umweltkonstellation jeweils 2-6 Segmente vorgegeben und 3 Replikationen durchgefiihrt werden. Mit Hilfe des CAIC-Kriteriums wird die optimale Anzahl an Komponenten ausgewahlt.^^^ Es wird eine Dummy-Codierung fur Auspragungen der einzelnen Merkmale verwendet. Neben den merkmalsbezogenen Teilnutzenwerten wird ein konstanter Term geschatzt, der fur die Limit-Transformation benotigt wird. Es wird eine Identity-Link-Funktion sowie eine Normalverteilung der abhangigen Variablen unterstellt. Die Iteration wird abgebrochen, falls die Verbesserung der logarithmierten Likelihood geringer als 0,00001 ist bzw. 250 Iterationsschritte erreicht werden.^^^ Limit-Hierarchical'Bayes-Conjoint-Analyse (LHBCA) Zur Schatzung der Nutzenparameter der LHBCA wird Sawtooth HB-Reg. V3.0.1 verwendet. Die ersten 10.000 Schatzungen werden als Burn-Ins verwendet, um Konvergenz zu erzielen. Von den folgenden 10.000 Schatzungen wird fiir alle Nutzenparameter jede 10. gespeichert und als Approximation der stochastischen Verteilung der jeweiligen Nutzenparameter inter-
Es existieren Monte-Carlo-Studien zum Vergleich von Informationskriterien zur Ermittlung der optimalen Anzahl an Segmenten. Vgl. Andrews, R.L/Currim, IS. (2003b), S. 235ff.; Andrews, RL/Currim, IS. (2003a), S. 315ff Allerdings wird hier als Zielkriterium eine Reproduktion der tatsachlichen Anzahl an Segmenten verwendet. Hinsichtlich einer moglichst korrekten Prognose von Kaufentscheidungen kann dieses Zielkriterium zu nicht optimalen Ergebnissen fiihren. Es ware aber auch falsch, anzunehmen, dass eine VergroBerung der Anzahl der Segmente automatisch einen positiven Einfluss auf die Prognosegiite hat. Die LFMCA selbst verwendet bei gegebener Anzahl an Klassen eine Maximierung der Log-Likelihood als Zielkriterium. Die Verwendung von Informationskriterien zur Auswahl der Anzahl der Klassen tragt dem Zusammenhang Rechnung, dass die Log-Likelihood bei einer groBeren Anzahl an Klassen aufgrund einer groBeren Anzahl an zu schatzenden Parametern automatisch erhoht wird, vgl. Abschnitt 3.3.2.1.3. Die Informationskriterien versehen zusatzliche Parameter mit „Strafipunkten", da ansonsten die optimale Anzahl an Klassen der Anzahl der Befragten entsprechen wiirde und keine Information iiber Segmente in der Stichprobe gewonnen werden konnte. Aber auch zur Prognose von Kaufentscheidungen sollte die Anzahl der Segmente nicht beliebig ausgeweitet werden. Es konnte damit zwar eine bessere Anpassung an die beobachteten Bewertungen erzielt werden, allerdings ist davon auszugehen, dass aufgrund einer Uberanpassung an die beobachteten Werte die Prognosefahigkeit von nicht zur Bewertung vorgelegten Alternativen negativ beeinflusst wird. In diesem Bereich besteht noch Forschungsbedarf und ist ein Ansatzpunkt fiir kiinftige MonteCarlo-Studien zu sehen. Aufgrund des skizzierten Forschungsdefizits wird in der vorliegenden Arbeit sowohl fiir den LFMCA als auch fiir den LCCA-Ansatz das CAIC verwendet. Aufgrund der hohen Geschwindigkeit der Limit-FinUe-Mixture-R&gression konnen sehr restriktive Kriterien gewahlt werden, wobei allerdings auch Abbruchkriterien, die um den Faktor 100-1000 hoher liegen, zu keinen deutlich schlechteren Ergebnissen fiihren diirften.
158
pretiert. Da fiir die vorliegende Monte-Carlo-Simulationsstudie jedoch die Verteilung der Nutzenparameter unbedeutend ist, finden lediglich die Mittelwerte der 1000 Schatzwerte je Nutzenparameter Verwendung. Wie bei der LFMCA wird eine Dummy-Codierung der Merkmalsauspragungen gewahlt und der fiir die Limit-Transformation benotigte konstante Term, hier durch Definition einer Variablen, die stets einen Wert von 1 annimmt, bestinmit. 5.1.3.2 Wahlhasierte Conjoint-Analyse-Ansatze Der aggregierte CBCA-Ansatz wird wie die LCA mit dem Softwarepaket SAS berechnet. Dort sind allerdings keine Analysemodule fiir LCCA und HBCA enthalten, so dass trotz der hinzukonmienden Schnittstellenproblematik diese Verfahren mit Software von Sawtooth durchgefuhrt werden.^^^ Unabhangig vom verwendeten wahlbasierten Verfahren miissen zuerst Choice-Sets mit verschiedenen Altemativen, die simuhert werden sollen, definiert werden. Grundsatzlich stehen verschiedene Strategien zur Generierung von Choice-Sets zur Verfiigung. Ziel ist es, informationseffiziente Sets zu generieren, so dass moglichst umfangreiche Informationen aus einer moglichst geringen Zahl an Antworten gewonnen werden konnen.^^^ Die traditionellen Strategien bei der Generierung von Choice-Sets konnen dahingehend unterschieden werden, ob jeder Auskunftsperson dieselben Altemativen vorgelegt werden, ob Gruppen von Probanden bestimmte Blocke aus einem so genannten Master-Design beurteilen Oder ob die Choice-Sets zufallig generiert werden.^^^ Bei computergestiitzten Studien ist es zudem grundsatzlich moglich. Designs aufgrund zuvor gegebener Antworten zu modifizieren. Der Fokus der Forschung liegt auf der Einbeziehung zuvor befragter Probanden und damit auf einer Verwendung von aggregierten Informationen.^^ Die Untersuchung im vorliegenden Fall soil aber nicht auf computergestiitzte Falle beschrankt werden, weshalb auf eine der traditionellen Methoden zuriickgegriffen wird. In der Literatur werden vier haufig in einem Zielkonflikt stehende Prinzipien genannt, die zu effizienten Choice-Designs fiihren:^^ •
Level balance^ d.h. die verschiedenen Auspragungen mogen moglichst gleich haufig in einem Design vorkommen,
•
Orthogonalitat, d.h. zwei beliebige Auspragungen zweier Eigenschaften treten so haufig gemeinsam auf wie das Produkt ihrer marginalen Anteile,
•
minimales Uberschneiden {minimal overlap), d.h. moglichst geringe Wiederholung von Auspragungen im Choice-Sets,
Die Software von Sawtooth hat in den letzten Jahren auch in Europa, wo sie von SKIM kommerzialisiert wird, eine besondere Verbreitung gefunden. Vgl. Toubia, O./Hauser, J.R./Simester, D.I. (2004), S. 116; Toubia, O. et at. (2003), S. 273ff. Vgl. allgemein zur Generierung von Choice-Sets Kuhfeld, W.F./Tobias, R.D./Garratt, M. (1994), S. 545ff Vgl. Kuhfeld, W.F. (1997), S. Iff. Vgl. Toubia, O./Hauser, J.R./Simester, D.I. (2004), S. 116f. Vgl. bspw. Huber, J./Zwerina, K. (1996), S. 309ff
159
•
Utility balance, d.h. die Nutzenwerte der in einem Choice-Set vertretenen Altemativen sollten sich moglichst ahnlich sein.
Die von SAS verwendete Prozedur erweist sich als besonders effizient/^^ Prinzipiell ist es moglich, bei wahlbasierten Ansatzen der Conjoint-Analyse die Eigenschaftsauspragungen eigenschaftsspezifisch zu definieren. Davon wurde hier aus Griinden der Vergleichbarkeit mit den reduzierten Designs der metrischen Conjoint-Analyse-Ansatze abgesehen. Haufig werden wahlbasierte Conjoint-Analysen unter kompetitiven Verhaltnissen durchgefiihrt, d.h. ChoiceSets werden so definiert, dass jede Marke genau oder hochstens einmal je Choice-Set vorkommt. Diese Restriktion wird ebenfalls aufgehoben, da in den reduzierten Designs der metrischen Ansatze ebenfalls dieselben Marken mehrmals enthalten sind. In diesem Zusammenhang wird auch von generischen Choice-Sets gesprochen. Ein Choice-Set besteht genau aus drei Altemativen und der Nicht-Kauf-Option. Wiederum aus Griinden der Vergleichbarkeit sollen auch mit Hilfe der wahlbasierten Conjoint-Vaianten nur Haupteffekte untersucht werden, so dass das Design der Choice-Sets keine Nebeneffekte modellieren muss. Insgesamt werden 180 verschiedene Choice-Sets verwendet, wobei die simulierten Probanden in zehn Gruppen aufgeteilt werden, so dass fur jeden Probanden genau 18 Choice-Sets generiert werden, was der Anzahl der Stimuli im reduzierten Design beim wahlbasierten Ansatz entspricht. (Aggregierte) Choice-Based-Conjoint-Analyse Die Nutzenparameter der CBCA werden mit Hilfe von SAS geschatzt. Mit Hilfe der LogitRegel werden anschlieBend aus den Wirkungskoeffizienten Marktanteile fiir die simulierten Vergleichsprodukte auf aggregiertem Niveau bestimmt.^^^ Latent-Class-Conjoint-Analyse (LCCA) Grundlage fur die Schatzung der Nutzenwerte im Rahmen der LCCA und der HBCA sind ebenfalls die fiir den aggregierten Ansatz verwendeten Choice-Sets. Die Monte-Carlo-Studie weist dementsprechend fiir die drei wahlbasierten Verfahrensvarianten die gleiche Struktur auf. Zur Schatzung der Nutzenwerte wird das Sawtooth SMRT-Modul CBC/LC V3.0.2 verwendet. Es werden wie bei der LFMCA fur alle Umweltbedingungen Losungen fiir 2-6 Klassen gesucht und je drei Replikationen durchgefiihrt. Als Informationskriterium zur Bestimmung der optimalen Komponentenzahl wird wiederum das CAIC verwendet. Die Iteration wird abgebrochen, falls die Verbesserung der logarithmierten Likelihood unter die Grenze von 0.01 sinkt bzw. nach 100 Iterationsschritten.
Vgl. Chrzan, KJOrme, B.K. (2000), S. Iff. In der vorliegenden Simulationsstudie wird eine Weiterentwicklung des von Chrzan/Orme verwendeten SAS OPTEX-Moduls eingesetzt. 702
Bei individuellen GiitemaBen wird angenommen, dass sich alle Probanden wie die reprasentative Auskunftsperson verhalten und damit die individuellen Nutzenwerte jeweils den aggregierten entsprechen.
160
Hierarchical-BayeS'Conjoint-Analyse (HBCA) Die Nutzenparameter der HBCA werden mit Hilfe des Sawtooth-Moduls CBC/HB V3.2 geschatzt. Die einzelnen Merkmalsauspragungen werden dummy-kodiert und die ersten 5.000 Iterationen dazu benutzt, um Konvergenz gegen die Posteriori-Verteilung der Nutzenparameter zu erzielen. Der Mittelwert jeder zehnten der insgesamt 10.000 folgenden Schatzungen wird als Approximation der Nutzenparameter verwendet. Mit Hilfe des Logit-Modells werden dann individuelle Auwahlwahrscheinlichkeiten fiir simulierte Vergleichsmarkte berechnet. 5.1.4 A uswahl der zu berucksichtigenden Gutemafie 5.1.4.1 A npassungsgiite der Modelle Die Anpassungsgiite ist ein MaB dafiir, inwieweit mit den geschatzten Nutzenparametem die beobachteten metrischen Bewertungen bzw. Wahlentscheidungen reproduziert werden konnen.^^^ Die Unterschiede hinsichtlich des Grundansatzes der Modelle erfordem den Einsatz von unterschiedlichen MaBen zur Beurteilung der Anpassungsgiite ftir wahlbasierte und metrische Conjoint-Varianten. In der vorliegenden Monte-Carlo-Studie werden die metrischen Modelle anhand des BestimmtheitsmaBes theitsmaiJes vei verglichen, das wie folgt defmiert ist:^^
_ R^2 =
k=l
I(Y.-YJ k=l
Da sich bei der LHBCA die Anzahl der Freiheitsgrade nicht in der bekannten Art und Weise ermitteln laBt, wird das einfache und nicht das korrigierte BestimmtheitsmaB verwendet.^^^ Der Wert der logarithmierten Likelihood, der auf den geschatzten individuellen Nutzenparametem basiert, dient als Vergleichskriterium ftir die wahlbasierten Conjoint-Ansatze.^^ Vergleichbarkeit fiir eine unterschiedliche Anzahl an Beobachtungen kann erzielt werden, indem der logarithmierte Wert der Likelihood um die Anzahl der Beobachtungen korrigiert wird.^°^ N
A
(82)
N-A
703
Vgl. Costamo, C.M.et al. (1982), S. 963ff. Vgl. zu den verwendeten Bezeichnungen und zur Formel Abschnitt 3.1.2.4. Vgl. Abschnitt 3.1.2.4. Vgl. Abschnitt 3.3.1.6. Vgl. Andrews, R.L/Aimlie, A./Currim, IS. (2002), S. 483f.
161
5.1.4.2 A ufdeckung der Nutzenstruktur Die geschatzten Nutzenparameter der verschiedenen Modelle sind nicht direkt miteinander vergleichbar, da die absolute Hohe der Nutzenparameter bei den wahlbasierten Ansatzen von der Giite der Modelle und den anderen Nutzenparametem abhangt^^^ Es ist demzufolge nicht aussagekraftig, die Abweichung zwischen den wahren und den berechneten Nutzenparametem zu bilden. Es kann allerdings auf Basis der Pearson-Korrelation untersucht werden, inwiefem die Werte grundsatzlich miteinander korrelieren. Da die Korrelation der gesamten Nutzenstruktur ein anspruchsvolleres Kriterium als die Korrelation der Bedeutungsgewichte ist und bspw. eine perfekte Korrelation der Nutzenparameter die Korrelation der Bedeutungsgewichte voraussetzt, kann im Folgenden auf die Untersuchung der Bedeutungsgewichte mittels Kendall's tau verzichtet werden/^ 5.1.4.3 Prognosevaliditat Zunachst soil die Prognosevaliditat auf individueller Ebene mittels des Anteils der FirstChoice-Hits betrachtet werden, wobei ein First-Choice-Hit vorliegt, falls fiir die aus dem Hold-Out-Set gewahlte Alternative zugleich der hochste Gesamtnutzenwert berechnet wird7'^ Betrachtet wird der Anteil der simulierten Auswahlpersonen, fiir die die gewahlte Alternative mittels der First-Choice-Regel korrekt vorhergesagt wird. Dabei wird in der praktischen Anwendung haufig in Kauf genommen, dass der Einsatz der deterministischen First-ChoiceRegel dem probabilistischen Grundansatz der wahlbasierten CBCA und ihrer Verfahrensvarianten widerspricht. Daruber hinaus wird die durchschnittlich geschatzte Auswahlwahrscheinlichkeit fiir die gewahlten Stimuli in den Hold-Out-Choice-Sets fur die Beurteilung der Prognosevaliditat verwendet. Werte nahe bei 1 bedeuten bei diesem Kriterien eine groBe Prognosevaliditat. Bei der Bewertung verschiedener Validitatskriterien ist zu beriicksichtigen, dass die ausgewahlten Verfahrensvarianten unterschiedliches Aggregationsniveau aufweisen und dementsprechend ein Ma6, das auf aggregiertem Niveau basiert, als ,Jdeinster gemeinsamer Nenner" eine besonders groBe Aussagekraft genieBen diirfte. Eine wahre Konkurrenz zwischen den verschiedenen Verfahren diirfte nur auf aggregiertem Niveau bestehen. Es wird unmittelbar deutlich, dass der Grundansatz der CBCA nicht zur Analyse von individuellen Nutzenwerten eingesetzt werden sollte. Als MaB fiir die Abweichung zwischen den „wahren" und den mit Hilfe der zu vergleichenden Verfahren berechneten Marktanteilen wird im Rahmen der vorliegenden Studie die Wur-
Vgl.Abschnitt 3.3.1.5. Dariiber hinaus ist die Verwendung von Kendall's Tau in der Literatur nicht unmittelbar nachzuvollziehen, da nicht plausibel ist, weshalb bei den Bedeutungsgewichten im Gegensatz zu den Nutzenparametem vor allem Rangreihenfolgen von Bedeutung sein sollten. Vgl. zur Argumentation fiir den Einsatz von Kendall's Tau bei Bedeutungsgewichten Gensler, S. (2003), S. 229. Vgl. Hartmann, A./Sattler, H. (2002b), S. 12.
162
zel des durchschnittlichen quadratischen Fehlers {root-mean-square-error - RMSE) verwendet:'" 1
(83)
RMSE = l f x ( T , - P j ] mit: Tj
„wahrer" Marktanteil ftir Alternative j ,
Pj
prognostizierter Marktanteil fiir Alternative j , Anzahl der Altemativen am simulierten Markt.
Auf eine Berucksichtigung der Anzahl der Auskunftspersonen, die einen Stimulus gewahlt haben, wird verzichtet, da im Rahmen der Studie die Anzahl der Konsumenten variiert wird, was wiederum einen Einfluss auf den RMSE hat. 5.1.4.4 Zusammenfassung der herucksichtigten Giitemafie Abbildung 36 gibt einen Uberblick uber die in der Simulationsstudie zur Beurteilung der Giite verwendeten MaBe. GatemaOe Anpassungsgiite des Modells
• BestimmtheitsmaB (metrische Ansatze) • logarithmierter Wert der Likelihood (wahlbasierte Ansatze)
Aufdeckung der Nutzenstruktur
• Pearson-Korrelation der geschatzten mit den wahren Nutzenaparmetern
Prognosevaliditat
• Anteil der First-Choice-Hits in den Hold-Out Choice-Sets • durchschnittlich prognostizierte Auswahlwahrscheinlichkeit fiir die gewahlten Stimuli in den Hold-Out Choice Sets • RMSE der aggregierten Wahlanteile
Abbildung 36: Uberblick iiber die verwendeten GiitemaBe Um die Vergleichbarkeit der FM-Ansatze und der HB-Ansatze zu gewahrleisten, werden die Giitemafie fur die P^-Modelle auf individueller Ebene berechnet/^^
^'' Vgl. Chakraborty, G.et al. (2002), S. 243; Fok, D./Franses, P.H. (2001), S. 126. ^'^ Vgl. Gensler, S. (2003), S. 233.
163
5.1.5 A bleitung von Hypothesenfur die betrachteten Einflussfaktoren Wissenschaftstheoretisch sind die Aussagen von Varianzanalysen nur dann aussagekxaftig, wenn zuvor sachlogisch Vermutungen iiber kausale Zusammenhange zwischen den unabhangigen und den abhangigen Faktoren abgeleitet werden. Zentrale Aussagen einer Varianzanalyse sind Signifikanzen von Mittelwertunterschieden hinsichtlich mehrer Stufen eines Faktors/'^ weshalb zunachst Hyphothesen iiber die Giite der verschiedenen Conjoint-AnalyseAnsatze bezogen auf die ausgewahlten Einflussfaktoren aufgestellt werden. Die Beriicksichtigung eines irrelevanten Merhnals diirfte die Giite aller Verfahren negativ beeinflussen, wobei fur die LCA aufgrund der Robustheit des linear additiven Modells mit relativ geringen Beeintrachtigungen zu rechnen ist.^^"^ Die Anzahl der Befragten diirfte keinen Einfluss auf die Ergebnisse der individuellen LCA haben. Fur die anderen Verfahren, die allsamt bei der Schatzung individueller Nutzenparameter auf Populationsinformationen zuruckgreifen, ist damit zu rechnen, dass ein groBerer Stichprobenumfang eine Verbesserung der verschiedenen GtitemaBe bewirkt. Die Anzahl der Komponenten diirfte wiederum keinen Einfluss auf die rein individuelle LCA haben. Es ist zu priifen, ob eine groBere Anzahl an Komponenten tatsachlich eine Verbesserung der GiitemaBe bei den FM-Ansatzen bewirkt, da bei Existenz nur einer Komponente die vorgegebene Mindestanzahl von zwei Segmente zwangslaufig zu einem Abweichen von der tatsachlichen Komponentenzahl fiihrt. Bei den HB-Ansatzen ist dagegen zu vermuten, dass diskrete Heterogenitat in Form mehrerer Segmente die GiitemaBe verschlechtert. Auch bei der aggregierten CBCA soil die Hypothese iiberpriift werden, dass drei Segmente eine negative Wirkung auf die GiitemaBe haben, da dieser Ansatz eine vollstandige Praferenzhomogenitat unterstellt. Hinsichtlich einer Basisnutzenverschiebung um drei Nutzeneinheiten in den negativen Bereich kann vermutet werden, dass die metrischen Verfahren davon nicht betroffen sind, da sie alle Stimuli zur Schatzung der Nutzenparameter heranziehen. Bei den wahlbasierten Verfahren wird durch eine groBere Anzahl an Nicht-Kaufen dadurch der Informationsgehalt iiber die verschiedenen zur Wahl stehenden Altemativen verringert, weshalb davon auszugehen ist, dass ein geringerer Basisnutzen zu einer schlechteren Aufdeckung der Praferenzstruktur und zu geringeren Prognosevaliditaten fiihrt. Eine groBere Streuung innerhalb der Komponenten diirfte aufgrund der auf rein individuellen Daten basierenden Nutzenermittlung bei der LCA keinen Einfluss auf die GiitemaBe haben.
Eine mogliche Aussage ist demzufolge, dass Faktor A einen signifikant hoheren Mittelwert bewirkt als Faktor B. Dies kann gegebenenfalls bei Verfahrensvergleichen auf einzelne Verfahren bezogen werden. Allerdings sind keine Tests iiber das AusmaB der Untersciiiede moglich, so dass nicht gefolgert werden kann, dass der Mittelwertunterschied beziiglich eines Faktors bei einem Verfahren groBer ist als bei einem anderen. Dazu miisste die Varianzanalyse verkleinert und ein Post-Hoc-Test fiir eine konstante Faktorstufe durchgefiihrt werden. Vgl. Wittink, D./Cattin, P. (1981), S. lOlff.
164
Bei den FM-Ansatzen, die homogene Komponenten als Grundpramisse verwenden, wird vermutet, dass eine groBere Heterogenitat innerhalb der Komponenten eine Verschlechterung der GiitemaBe bewirkt. Dagegen wird fiir die HBCA angenommen, dass eine etwas groBere normalverteilte Varianz innerhalb der Komponenten einen positiven Einfluss auf die GiitemaBe hat. Bei der CBCA ist aufgrund der Annahme von Praferenzhomogenitat eine geringere Giite bei groBerer Varianz innerhalb der Komponenten zu erwarten. Beziiglich der Fehlervariam ist fiir alle Verfahren die Hypothese zu testen, dass eine groBere Fehlervarianz zu schlechteren GiitemaBen fiihrt. Abbildung 37 gibt eine Ubersicht iiber die vermuteten Zusanmienhange zwischen den verschiedenen Einflussfaktoren und der Giite der metrischen Conjoint-Analyse-Verfahren. Einflussfaktor
LCA
LFMCA
LHBCA
irrelevantes Merkmal
Existenz eines irrelevan-
Existenz eines irrelevan-
Existenz eines irrelevan-
ten Merkmal s hat negati-
ten Merkmals hat negati-
ten Merkmals hat negati-
ven Einfluss auf Giite
ven Einfluss auf Giite
ven Einfluss auf Giite
kein Einfluss
Giite steigt mit zuneh-
Giite steigt mit zuneh-
mender Anzahl
mender Anzahl
Giite steigt bei groBerer Anzahl an Komponenten
Anzahl an Komponenten
Anzahl der Probanden
Anzahl der Komponenten
kein Einfluss
Giite sinkt bei groBerer
B asisnutzen verschiebung
kein Einfluss
kein Einfluss
kein Einfluss
Komponentenheterogenitat
kein Einfluss
Giite sinkt bei steigender
Giite sinkt bei steigender
Fehlervarianz
Komponentenheterogeni-
Komponentenheterogeni-
tat
tat
Giite sinkt bei hoherer
Giite sinkt bei hoherer
Giite sinkt bei hoherer
Fehlervarianz
Fehlervarianz
Fehlervarianz
Abbildung 37: Hypothesen iiber den Einfluss der variablen Faktoren auf die Giite der Ergebnisse der metrischen Ansatze der Conjoint-Analyse
165
Abbildung 38 stellt die vermuteten Zusammenhange zwischen den verschiedenen Einflussfaktoren und der Giite der wahlbasierten Conjoint-Analyse-Verfahren tabellarisch dar. Einflussfaktor
CBCA
LCCA
HBCA
irrelevantes Merkmal
Existenz eines irrelevan-
Existenz eines irrelevan-
Existenz eines irrelevan-
ten Merkmals hat negati-
ten Merkmals hat negati-
ten Merkmals hat negati-
ven Einfluss auf Giite
ven Einfluss auf Giite
ven Einfluss auf Giite
Giite steigt mit zuneh-
Giite steigt mit zuneh-
Giite steigt mit zuneh-
mender Anzahl
mender Anzahl
mender Anzahl
Giite sinkt bei groBerer
Gate steigt bei groBerer
Giite sinkt bei groBerer
Anzahl an Komponenten
Anzahl an Komponenten
Anzahl an Komponenten
geringere Giite bei kleine-
geringere Giite bei klei-
geringere Giite bei klei-
rem Basisnutzen
nerem Basisnutzen
nerem Basisnutzen
Giite sinkt bei steigender
Giite sinkt bei steigender
Giite sinkt bei steigender
Komponentenheterogeni-
Komponentenheterogeni-
Komponentenheterogeni-
tat
tat
tat
Giite sinkt bei hoherer
Giite sinkt bei hoherer
Giite sinkt bei hoherer
Fehlervarianz
Fehlervarianz
Fehlervarianz
Anzahl der Probanden
Anzahl der Komponenten
Basisnutzenverschiebung
Komponentenheterogenitat
Fehlervarianz
Abbildung 38: Hypothesen iiber den Einfluss der variablen Faktoren auf die Giite der Ergebnisse der wahlbasierten Ansatze der Conjoint-Analyse Im Folgenden sollen noch Vermutungen iiber das AusmaB der Mittelwertunterschiede fur einzelne Verfahrensvarianten abgeleitet werden, die im statistischen Sinne nicht uberpriift werden konnen, da auf Basis der Varianzanalyse keine Signifikanzen fiir das AusmaB von Mittelwertunterschieden berechnet werden konnen. Dariiber hinaus werden erwartete Unterschiede hinsichtlich der verschiedenen GiitemaBe aufgefiihrt. Die wahlbasierten Verfahrensvarianten sind probabilistische Ansatze und konnen durch eine Aufspaltung des Nutzens in eine detenninistische und eine probabilistische Komponente in bestimmten Situationen zu besonders guten Ergebnissen fiihren. Andererseits diirfte die LCA durch ihren rein deterministischen Charakter in Kaufentscheidungssituationen mit ausgepragter kognitiver Komponente besonders valide sein. Es wird also vermutet, dass die LCA in tendenziell extensiven bzw. limitierten Kaufentscheidungssituationen zu besseren Ergebnissen als die probabilistischen Ansatze fiihrt, wahrend die probabilistischen Verfahren in tendenziell impulsiven bzw. habitualisierten Kaufentscheidungssituationen, also Kaufentscheidungssituationen, bei denen kognitive Prozesse nur eine untergeordnete Rolle spielen, eine hohere Giite aufweisen. Dariiber hinaus kann vermutet werden, dass die Anpassungsgiite an die beobachteten Bewertungen bei der LCA als rein individuelles Verfahren besonders gut ist. Die anderen Ansatze beriicksichtigen zur Schatzung individueller Werte neben den Beurteilungen der entsprechen-
166
den Auskunftsperson auch Informationen der Gesamtpopulation/'^ Allerdings besteht hier die Gefahr einer Uberanpassung an die beobachteten Werte, was die anderen GiitemaBe negativ beeinflussen konnte. Gerade bei einer hohen Fehlervarianz diirfte die LCA hinsichtlich der Aufdeckung der wahren Nutzenstruktur und der Prognosevaliditat schlechtere Ergebnisse liefem als die anderen Verfahrensvarianten^^^ 5.2
Ergebnisse des Verfahrensvergleichs
Die Komplexitat der Simulationsstudie hinsichtlich verschiedener zu beriicksichtigender Einflussfaktoren erfordert eine systematische Auswertung der Ergebnisse. Dies soli im Folgenden mit Hilfe einer Varianzanalyse geschehen, die relativ geringe und fur den vorliegenden Fall ktinstlich generierter Werte unproblematische Anforderungen an die Daten stellt. Insbesondere lasst sie die Verwendung von nominal-skalierten unabhangigen Daten zu. Die Varianzanlayse kann als verallgemeinerter t-Test verstanden werden.^'^ Sie ist im hier verwendeten univariaten Fall ein parametrischer Signifikanztest fur den Mittelwertvergleich einer abhangigen Variablen in mehr als zwei Stichproben, wobei mindestens eine der Stichproben systematisch unterschiedliche Auspragungen aufweist. Im vorliegenden Fall werden die systematisch variierten Faktoren als unabhangige Variablen interpretiert, wahrend die alternativen GiitemaBe die abhangige Variable einer jeweils separaten Varianzanalyse darstellen. Abbildung 39 gibt einen Uberblick tiber die Definition der abhangigen und unabhangigen Variablen der verschiedenen durchzufiihrenden Varianzanalysen. abhSngige Variable
unabhSngige Variablen
BestimmtheitsmaB (nur metrische Ansatze),
Verfahren,
Log-Likelihood (nur wahlbasierte Ansatze), Pearson-Korrelation,
irrelevantes Merkmal, Anzahl der Auskunftspersonen,
FC-Anteil,
Anzahl der Komponenten,
prognostizierte Wahrscheinlichkeit bzw.
Basisnutzen,
RMSE der Wahlanteile
Komponentenheterogenitat und Fehlervarianz
Abbildung 39: Abhangige und unabhangige Variablen der verschiedenen Varianzanalysen Bei Beriicksichtigung mehrerer unabhangiger Variablen konnen neben der Signifikanz fiir die verschiedenen unabhangigen Variablen zudem Signifikanzen fiir die Wechselwirkungen (Interaktionen) berechnet werden. Die Varianzanalyse unterstellt, dass es zwar neben den abgebildeten Einflussfaktoren noch weitere gibt, die jedoch fiir alle Stichproben, abgesehen von zufalligen Abweichungen, gleich sind. Grundgedanke der Varianzanalyse ist es zu untersuDie aggregierte CBCA bildet hier eine Ausnahme, da sie sich auf die Schatzung von Populationsnutzenparametern beschrankt. Hinsichtlich der Gewichtung von Individual- und Populationsinformationen stellt sie damit im Vergleich zur LCA das andere Extrem dar. Aufgrund weiterer Unterschiede wie die Erhebung wahlbasierter oder metrischer Daten fallt eine Isolierung dieses Effekts in Bezug auf die anderen Daten jedoch schwer. Vgl. im Folgenden insbesondere Glaser, W. (1978), S. 17.
167
chen, ob sich die einzelnen Beobachtungswerte zufallig oder systematisch, d.h. die Abweichung ist auf die beriicksichtigten Einflussfaktoren zuruckzufiihren, vom berechneten Gesamtmittelwert unterscheiden^^^ Dazu wird die Summe der quadrierten Gesamtabweichung in zwei verschiedene Komponenten zerlegt. Die erklarte Gesamtabweichung reprasentiert dabei die Summe der quadrierten Abweichungen zwischen den Faktorstufen und die nicht erklarte Abweichung die Summe der quadrierten Abweichungen innerhalb der Faktorstufen und damit die zufallige Abweichung. Die Verwendung der Varianzanalyse ist an einige Hauptvoraussetzungen gekniipft:^^^ (1) Normalverteilung der Werte in der Grundgesamtheit, (2) homogene Fehlervarianz in den Grundgesamtheiten, denen die Stichproben entnommen werden (Varianzhomogenitat) und (3) Unabhangigkeit der Werte von den Untersuchungsbedingungen. Allerdings kann die Varianzanalyse auch bei einer Verletzung von Voraussetzung (1) im Falle hinreichend groBer und gleicher Stichprobenumfange angewendet werden7^^ Ebenfalls relativ robust ist die Varianzanalyse hinsichtlich Voraussetzung (2), der Varianzhomogenitat, bei Experimenten mit gleicher Zellbesetzung, wie es bei der vorliegenden Simulationsstudie der Fall ist7^^ Die Unabhangigkeit der Werte von den Untersuchungsbedingungen wird gewahrleistet, da fiir jede Zelle unterschiedliche Stichproben als Grundlage fur die Ermittlung der GiitemaBe simuliert werden7^^ Dies bedeutet, dass fur jede Umweltbedingung fiir jeweils jedes Verfahren eine neue Stichprobe zu simulieren ist. Prinzipiell ware es moglich, neben den Haupteffekten, die verschiedenen Nebeneffekte zu beriicksichtigen, was aber aufgrund der Komplexitat der vorliegenden Untersuchung, die sich in der Vielzahl der variablen Faktoren auBert, weder angemessen darstellbar noch interpretierbar ware. 5.2.1 Anpassungsgiite der Verfahren Die Anpassungsgiite ist ein Ma6 dafur, inwieweit die tatsachlichen Beobachtungen der Befragten auf Basis der von den zu vergleichenden Verfahren geschatzten Nutzenparametem reproduziert werden konnen. 5.2.1.1 Signifikanz der beriicksichtigten Einflussfaktoren Im Rahmen der Beurteilung der Signifikanz der Ergebnisse soil untersucht werden, welche
Vgl. Backhaus, K.et al. (2003), S. 122. Vgl. Bortz, J. (1999), 273f., fiir den einfaktoriellen Fall sowie analog fiir den mehrfaktoriellen Fall ebenda S. 317. Vgl. Box, G.E.P. (1954), S. 484ff. Vgl. Backhaus, K.et al. (2003), S. 151. Vgl.Bor/z, J. (1999),S.275.
168
Log-Likelihood
Bestimmtheitsmafi Faktoren (Zahl der Ausprdgungen in Klammer) Verfahren (3) irrelevantes Merk. (2) Anzahl (2) Komponenten (2) Basisnutzen (2)
(N- =192)
(N=192) F-Wert
Signifikam
F-Wert
Signifikam
262,618
0,000
379,928
0,000
0,002
0,961
3,078
0,081
0,438
0,509
9,370
0,003
188,287
0,000
0,158
0,691 0,000
3,369
0,068
175,831
Heterogenitat (2)
69,844
0,000
7,255
0,008
Fehlervarianz (2)
29,474
0,000
192,887
0,000
Verfahren * irrelevantes Merk.
3,014
0,052
0,376
0,687
Verfahren * Anzahl
0,534
0,587
1,302
0,275
99,159
44,908
0,000
0,729
0,000 0,484
3,693
0,027
Verfahren * Heterogenitat
93,035
0,000
8,191
0,000
Verfahren * Fehlervarianz
16,439
0,000
5,542
0,005
irrelevantes Merk. * Anzahl
0,004
0,950
0,151
0,698
irrelevantes Merk. * Komponenten
0,005
0,946
0,000
0,990
irrelevantes Merk. * Basisnutzen
0,619
0,433
irrelevantes Merk. * Heterogenitat
0,008
0,929
4,356 0,092
0,762
irrelevantes Merk. * Fehlervarianz
0,013
0,909
0,230
0,632
Anzahl * Komponenten
2,306
0,131
1,812
0,180
Anzahl * Basisnutzen
0,190
0,664
0,910
0,342
Anzahl * Heterogenitat
0,863
0,354
0,216
0,643
Anzahl * Fehlervarianz
0,647
0,423
0,525
0,470
Komponenten * Basisnutzen
0,039
0,844
6,147
0,014
Komponenten * Heterogenitat
1,406
0,238
0,550
0,460
Komponenten * Fehlervarianz
0,406
0,525
0,017
0,896
Verfahren * Komponenten Verfahren * Basisnutzen
0,039
Basisnutzen * Heterogenitat
0,043
0,836
1,359
0,246
Basisnutzen * Fehlervarianz
0,091
0,764
3,648
0,058
Heterogenitat * Fehlervarianz
0,347
0,557
0,026
0,872
_____
R 2 ^ 0,859
Die auf einem Niveau von 0,05 signifikanten Werte sind fett gedruckt.
Abbildung 40: F-Werte der Haupteffekte und Nebeneffekte 1. Ordnung zur Prufung der Anpassungsgiite der systematisch variierten Einflussfaktoren iiberhaupt einen Einfluss auf die Giite der Simulationsergebnisse, gemessen mit Hilfe der oben beschriebenen und ausgewahlten GiitemaBe, haben, ohne bereits an dieser Stelle die Art des Zusammenhangs zu betrachten.
169
Durch die Varianzanalyse wird iiberpriift, ob die Verfahren bzw. die systematisch variierten Faktoren Einfluss auf die Anpassungsgiite der Ergebnisse haben. Neben den Haupteffekten werden zudem die Nebeneffekte 1. Ordnung mit in die Untersuchung einbezogen. Da fiir metrische und wahlbasierte Ansatze mit dem BestimmtheitsmaB und der logarithmierten Likelihood zwei verschiedene MaBe zur Bewertung der AnpassungsmaBe verwendet werden, die nicht miteinander vergleichbar sind, werden zwei separate Varianzanalysen durchgefuhrt. Die Ergebnisse der Varianzanalysen sind Abbildung 40 zu entnehmen, wobei neben dem F-Wert jeweils das korrespondierende Signifikanzniveau (p-Wert) fiir den untersuchten Faktor bzw. die untersuchte Faktorkombination dargestellt wird. Sowohl die metrischen als auch die wahlbasierten Verfahren haben mit einer Irrtumswahrscheinlichkeit von je 0,000 einen signifikanten Einfluss auf die Anpassungsgiite. Dies trifft allerdings bei etwas geringeren F-Werten auch auf die Fehlervarianz zu. Ebenfalls einen signifikanten Einfluss sowohl bei den metrischen als auch bei den wahlbasierten Ansatzen hat die Komponenten-Heterogenitat. ErwartungsgemaB hat eine Verschiebung des Basisnutzens bei den metrischen Ansatzen keinen signifikanten Einfluss auf die Anpassungsgiite, wohingegen bei den wahlbasierten Modellen bei einer Irrtumswahrscheinlichkeit von a=0,05 ein signifikanter Einfluss beobachtet werden kann. Dies deutet darauf hin, dass die durch den geringeren Basisnutzen resultierende Erhohung der Wahl der Nicht-Kaufoption einen Einfluss auf die wahrend der Befragung gewonnen Informationen ausiibt. Genaueres ist aber im Rahmen des in Abschnitt 5.2.1.2.2 folgenden Vergleichs der Mittelwerte zu untersuchen. Analog ist fur die Anzahl der Probanden zu argumentieren. Bei den metrischen Modellen kann im Gegensatz zu den wahlbasierten ein signifikanter Einfluss der Anzahl der Komponenten festgestellt werden. Die Existenz eines irrelevanten Merkmals scheint hinsichtlich der Erklarung der Anpassungsgiite eine untergeordnete Rolle zu spielen. Insbesondere scheinen die metrischen Verfahren sehr robust bei Beriicksichtigung eines solchen irrelevanten Merkmales zu sein. Allerdings liegt bei den 2-Weg-Interaktionen fur wahlbasierte Verfahren ein signifikanter Einfluss fur die Wechselwirkung von Basisnutzen und irrelevantem Merkmal vor. Ebenso ist ein signifikanter Einfluss der Interaktion von irrelevantem Merkmal und Anzahl der Komponenten zu beobachten. Die zahlreichen Wechselwirkungen zwischen den Verfahren und den variierten Umweltbedingungen geben Anlass zu der Vermutung, dass die Erklarung der Anpassungsgiite nicht pauschal erfolgen kann, sondem dass verschiedene Conjoint-Ansatze in unterschiedlichen Umweltsituationen die Beobachtungen unterschiedlich genau reproduzieren. 5.2.1.2 Interpretation der Mittelwerte 5.2.1.2.1 Metrische A nsatze Genaueren Aufschluss iiber den Einfluss der beriicksichtigten Faktoren auf die Anpassungsgiite ergeben fiir die verschiedenen Verfahren zusatzlich durchgefiihrte Varianzanalysen.
170
BestimmtheitsmaB (r^) LCA
LHBCA
LFMCA
gesamt
irrelevantes Merkmal nicht vorhanden
0,908
0,655
0,745
0,769
vorhanden
0,897
0,684
0,725
0,769
75
0,900
0,671
0,744
0,772
300
0,905
0,667
0,727
0,766
1
0,892
0,525
0,713
0,710
3
0,913
0,813
0,757
0,828
0
0,900
0,655
0,728
0,761
-3
0,905
0,684
0,742
0,777
0,05
0,896
0,805
0,909
0,788 0,551
0,731
0,25
0,740
0,733
Anzahl der Probanden
Anzahl der Komponenten
Basisnutzen
Heterogenitdt innerhalb der Komponenten
Fehlervarianz 1,645
0,924
0,663
0,789
0,792
3,290
0,881
0,675
0,681
0,746
Mittelwert
0,902
0,669
0,735
0,769
64
64
64
192
N
Abbildung 41: Mittelwerte der Varianzanalyse ftir r^ als abhangige Variable bei metrischen Ansatzen Abbildung 41 gibt sowohl fur die einzelnen Verfahren als auch insgesamt ftir die metrischen Conjoint-Ansatze einen Uberblick liber die Mittelwerte der Anpassungsgiite r^ in Abhangigkeit der verschiedenen beriicksichtigten Einflussfaktoren. Der Standardfehler kann zwischen verschiedenen Verfahren differieren, was zur Folge hat, dass die ftir das Erreichen des geforderten Signifikanzniveaus von 0,95 fiir die verschiedenen Conjoint-Modelle unterschiedliche Mittelwertdifferenzen notig sein konnen. Entgegen der Annahme ist die LCA weniger robust gegeniiber der Beriicksichtigung eines irrelevanten Merkmals. Hier kann im Gegensatz zu den anderen Verfahren ein signifikanter Einfluss auf die Anpassungsgiite des Modells gezeigt werden. Die Anzahl der simulierten Auskunftspersonen hat keinen signifikanten Einfluss auf die Anpassungsgiite der einzelnen Verfahren. Nichts desto trotz ist offensichtlich, dass der Mittelwert bei der LHBCA ftir 75 Probanden deutlich hoher ist als ftir 300. Dies ist damit zu begriinden, dass mit steigender
171
Anzahl die Nutzenparameter fur die Gesamtpopulation besser geschatzt werden konnen und das LHBCA bei der Schatzung der individuellen Nutzenparameter im Vergleich zu einem geringeren Stichprobenumfang die Bewertungen der Gesamtpopulation starker beriicksichtigt als die individuellen Bewertungen. Hinsichtlich der Anzahl der Komponenten weisen alle Verfahren hohere Korrelationen ftir den Fall auf, dass die Stichprobe aus drei Komponenten besteht, die sich stark voneinander unterscheiden. Besonders augenfallig ist dieser Unterschied, wie richtig angenommen, fur die LFMCA, die fiir den Ein-Komponenten-Fall falschlicherweise mindestens zwei Komponenten angenommen hat. Die Verschiebung des Basisnutzens hat wie vermutet keinen signifikanten Einfluss auf einen der metrischen Conjoint-Ansatze, da hier auch die als nicht-kaufenswert erachteten Stimuli zur Schatzung der Nutzenparameter verwendet werden. Die LFMCA basiert auf der Annahme homogener Komponenten. Gemafi dem vermuteten Zusammenhang beeinflusst eine groBere Heterogenitat innerhalb der Komponenten die Ergebnisse signifikant und fiihrt zu einer geringeren durchschnittlichen Anpassungsgute. Besonders fehlersensibel ist die LHBCA, wahrend die Anpassungsgute der LFMCA nicht signifikant von der Fehlervarianz abhangt. Der Gesamtmittelwert ist fiir die LCA am hochsten, was damit erklart werden kann, dass dieser Ansatz zur Schatzung der Nutzenwerte ausschlieBlich auf individuelle Werte zuriickgreift und somit eine gute individuelle Anpassung moglich ist. Der Grundansatz der LHBCA und insbesondere der LFMCA, individuelle Nutzenwerte unter Berucksichtigung von Informationen aus der gesamten Stichprobe abzuleiten, fuhrt dazu, dass die individuellen Bewertungen schlechter als bei der LCA prognostiziert werden konnen. Diese Eigenschaft deckt sich mit der Annahme. Im Folgenden ist dariiber hinaus anhand der anderen GiitemaBe zu untersuchen, inwieweit die bessere Anpassung an die beobachteten Werte auch zu einer besseren Beobachtung der „wahren" simulierten Nutzenparameter fiihrt. Moglicherweise liegt eine Uberanpassung (overfltting) vor, was zu einer schlechteren Ubertragbarkeit der Ergebnisse auf andere Stimuli und damit auf die Holdout-Karten fiihren konnte.^^^ Allerdings ist bei der Interpretation der verfahrensspezifischen Gesamtmittelwerte zu beachten, dass die Unterschiede nur fiir die hier gewahlten Faktoren und Auspragungen Giiltigkeit besitzen. Die Auswahl der Einflussfaktoren ist keinesfalls reprasentativ fiir die Umweltbedingungen, in denen Conjoint-Analysen in der Realitat durchgefiihrt werden. 5.2.1.2.2 Wahlbasierte A nsdtze Die Messung der Anpassungsgute erfolgt bei den wahlbasierten Verfahren mit Hilfe der logarithmierten Likelihoods. Die logarithmierten Likelihoods nehmen stets negative Werte an.
Vgl. allgemein zur Theorie der Generalisierbarkeit die Literatur zu kiinstlichen Neuronalen Netzen und hier insbesondere Backhaus, K.et al. (2003), S. 769 und Bishop, CM. (1995).
172
wobei groBe Werte, also Werte naher an Null, eine bessere Anpassung an die beobachteten Nutzenwerte bedeuten. Log-Likelihood CBCA
HBCA
LCCA
gesamt
irrelevantes Merkmal nicht vorhanden
-0,937
-0,840
-0,627
-0,801
vorhanden
-0,964
-0,846
-0,645
-0,818
75
-0,944
-0,830
-0,611
300
-0,957
-0,855
-0,660
-0,795 -0,824
Anzahl der Probanden
Anzahl der Komponenten 1
-0,889
-0,869
-0,676
-0,811
3
-1,011
-0,817
-0,595
-0,808
Basisnutzen 0
-1,028
-0,907
-0,682
-0,872
-3
-0,873
-0,778
-0,590
-0,747
0,05
-0,936
-0,807
-0,647
-0,797
0,25
-0,965
-0,878
-0,624
-0,822
Heterogenitdt innerhalb der Komponenten
Fehlervarianz 1,645
-0,900
-0,783
-0,548
-0,744
3,290
-1,001
-0,902
-0,723
-0,875
Mittelwert
-0,950
-0,843
-0,636
-0,810
64
64
64
192
N
Abbildung 42: Mittelwerte der Varianzanalyse fiir die Log-Likelihood als abhangige Variable bei wahlbasierten Ansatzen Die CBCA reagiert sensitiv auf die Heterogenitat der Komponenten. Bei Existenz nur einer Komponente in der Population ist eine signifikant bessere Anpassung zu beobachten. Dagegen ist der aggregierte CBCA-Ansatz ebenso wie die LCCA relativ robust gegeniiber der Anzahl der simulierten Auskunftspersonen. Bei der HBCA ist die Anpassungsgute fiir eine geringere Anzahl an Auskunftspersonen wie bei der LHBCA groBer. In diesem Fall sind die Mittelwertdifferenzen sogar signifikant. Zu begriinden ist dies damit, dass bei einer groBeren Zahl an Auskunftspersonen die Bewertungen der Gesamtpopulation im Vergleich zu den individuellen Bewertungen hoher gewichtet werden und damit eine schlechte Anpassung an die individuellen Bewertungen erfolgt. Sowohl der LCCA als auch der HBCA gelingt eine bessere Aufdeckung der Nutzenstruktur bei Existenz dreier Segmente. Bei der LCCA diirfte dies damit zusammenhangen, dass die 173
Berechnungen im Falle nur einer Komponente auf der falschen Grundannahme von zumindest zwei Segmenten beruhen. Die CBC A und die LCC A, die auf der Grundannahme homogener Populations- bzw. Komponentenpraferenzen basieren, weisen bessere Anpassungswerte fiir einen geringeren Heterogenitatsgrad innerhalb der Komponenten auf. Bei der HBCA ist genau der umgekehrte Zusammenhang zu beobachten, was damit erklart werden kann, dass bestimmte Kombinationen aus Anzahl der Komponenten und Heterogenitat innerhalb der Komponenten zu einer besseren Approximation der vom HB-Ansatz angenommenen Normalverteilung fiihren. Eine Verschiebung des Basisnutzens um (-3) hat unerwartet einen signifikanten/705/Y/ve« Einfluss auf die Anpassungsgute aller wahlbasierten Verfahren. Dies ist jedoch kaum iiber die Eigenschaften der Verfahren zu begrunden, sondem mit hoher Wahrscheinlichkeit auf eine Schwache des Gutekriteriums bei einer Unterscheidung von Nicht-Kaufentscheidungen und Kaufentscheidungen zuriickzufuhren. Das First-Choice-Kriterium berucksichtigt lediglich, ob eine der simulierten Altemativen bzw. die Nicht-Kauf-Altemative anhand der berechneten Nutzenwerte richtig prognostiziert wird. Eine unterschiedliche Gewichtung, je nachdem, ob die grundsatzliche Kaufbereitschaft falsch prognostiziert wird oder aber die Wahl eines falschen Produktes, fmdet nicht statt. Die vorliegende Kaufentscheidung kann jedoch als hierarchische Entscheidung interpretiert werden. Auf ubergeordneter Ebene wird untersucht, ob das Auskunftsobjekt auf Grundlage der simulierten Nutzenparameter einer der Altemativen des Holdout-Sets kaufen wtirde oder nicht. Anschliefiend wird auf unterer Ebene im Falle eines Kaufes zusatzlich uberpruft, welche der drei Altemativen des Holdout-Sets die imaginare Auskunftsperson wahlen wurde. Eine korrekte Klassifikation ist also bei Nicht-Kaufen wesentlich leichter zu erzielen als bei Kaufen. Die Verschiebung des Basisnutzens in den negativen Bereich erhoht jedoch den Anteil der Nicht-Kaufe, was erklart, dass hier ein groBerer Anteil an First-Choice-Entscheidungen erklart werden kann als im Falle von Kaufentscheidungen. Fiir alle Verfahren ist eine bessere Anpassung bei geringerer Fehlervarianz zu beobachten, wobei die Mittelwertdifferenz fur die LCCA und die HBCA signifikant (p<0,05) ist. Fiir die Gesamtmittelwerte ergibt sich, dass die Anpassung fiir ein steigendes Aggregationsniveau schlechter v^rd. Am besten ist die Anpassung ftir die HBCA, wahrend der Mittelwert der logarithmierten Likelihood ftir die LCCA bereits deutlich geringer ist. Nochmals geringer ist die Anpassungsgiite fur die CBCA. 5.2.1.3
Vergleich der Verfahren und Zwischenfazit
Unter den metrischen Ansatzen ist die signifikant beste Anpassungsgiite fur die rein individuelle LCA zu beobachten (vgl. Abbildung 43). Eine Aufspaltung nach der Hohe der Fehlervarianz zeigt, dass die Reihenfolge der Giite der Verfahren hiervon unabhangig ist. Uber die Signifikanz der absoluten Unterschiede der Mittelwerte konnen auf Gmndlage der durchgefuhrten Varianzanalyse keine Aussagen getroffen werden.
174
Nr.
BestimmtheitsmaD (r') Fehler=l,645
gesamt
Fehler=3,290
1
LCA
0,924 ^'^
0,881 '•'
0,902 ^-^
2
LFMCA
0,663 ^
0,675
0,669
3
LHBCA
0,789
0,681
0,735 ^
* Die hochgestelltc Ziffer, die das unterlegene Verfahren bezeichnet und dem Ubcrlcgenen zugeordnet ist, kennzcichnet auf dem 5%-Niveau signifikante Mittelwertunterschiede.
Abbildung 43: Vergleich der metrischen Conjoint-Analyse-Ansatze bzgl. der Anpassungsgtite Von den wahlbasierten Ansatzen ist die Anpassungsgiite fur die HBCA hoher als fur die LCCA, die wiederum hoher ist als fiir CBCA. Diese Zusammenhange sind auf dem zugrunde gelegten Signifikanzniveau von 5% signifikant und haben sowohl fur die hohere als auch fur die niedrigere und nicht zuletzt fur eine mittlere Fehlervarianz Giiltigkeit (vgl. Abbildung 44). Nr.
Verfahren
Log-Likelihood Fehler=l,645
Fehler=3,290
gesamt
4
CBCA
-0,900
-1,001
-0,950
5
LCCA
-0,783 '
-0,902 ^
-0,843 '
6
HBCA
-0,548 '•'
-0,723 ^'^
-0,636
''
* Die hochgestellte Ziffer, die das unterlegene Verfahren bezeichnet und dem Uberlegenen zugeordnet ist, kennzcichnet auf dem 5%-Niveau signifikante Mittelwertunterschiede.
Abbildung 44: Vergleich der wahlbasierten Conjoint-Analyse-Ansatze hinsichtlich der Anpassungsgiite Mit zunehmendem Aggregationsniveau der Verfahren sinkt offenbar die Anpassungsgiite, wobei im Folgenden zu priifen ist, inwieweit eine hohe Anpassungsgtite zu einer hoheren Validitat hinsichtlich eines extemen, d.h. nicht bei der Bewertung unmittelbar berucksichtigtem Kriterium ftihrt. 5.2.2
A ufdeckung der Nutzenstruktur
Bei der Aufdeckung der Nutzenstruktur wird untersucht, inwieweit die geschatzten Nutzenparameter mit den „wahren" Nutzenwerten der Monte-Carlo-Simulation tibereinstimmen. Bei der Interpretation der Werte ist zu beachten, dass den wahlbasierten Modellen jeweils eine Variante des Logit-Modells zugrunde liegt, wahrend die metrischen Ansatze ein Regressionsmodell verwenden. Dies bedeutet, dass die Generierung der Nutzenwerte grundsatzlich dem metrischen Ansatz entspricht und dieser beim Vergleich der Nutzenwerte tendenziell ubervorteilt wird. Durch die Verwendung der Pearson-Korrelation statt eines Fehlermafies wird dieser Tatsache Rechnung getragen. Allerdings konnen dadurch die Unterschiede nicht voUkommen nivelliert werden. Im Gegensatz zu den AnpassungsmaBen werden bei der Aufdeckung der Nutzenstruktur die Nutzenparameter losgelost von den Beobachtungen selbst bewertet. Dies hat zur Folge, dass
175
in diesem Fall eine Reproduktion der Fehlervarianz, die eine Komponente des Gesamtnutzenwertes ist, zu einer Verschlechterung der Ergebnisse fuhrt. 5.2.2.1
Signiflkanz der beriicksichtigten
Einflussfaktoren
Bei der Berechnung der Korrelation wird der Basisnutzen als gmndlegender Einflussfaktor ftir Faktoren (Zahl der Anspragungen in Klammer) Verfahren (6)
Pearson-Korrelation (N=384) F-Wert
Signiflkanz
llp.ll
0,000
irrelevantes Merk. (2)
4,178
0,042
Anzahl (2)
2,236
0,136
16,179
0,000
3,230
0,073
Heterogenitat (2)
24,397
0,000
Fehlervarianz (2)
12,752
0,000
Verfahren * irrelevantes Merk.
2,035
0,073
Verfahren * Anzahl
2,123
0,062
Verfahren * Komponenten
20,271
0,000
Verfahren * Basisnutzen
12,720
0,000
Verfahren * Heterogenitat
2,548
0,028
Verfahren * Fehlervarianz
2,008
0,077
irrelevantes Merk. * Anzahl
0,663
0,416
irrelevantes Merk. * Komponenten
0,350
0,554
irrelevantes Merk. * Basisnutzen
0,036
0,849
irrelevantes Merk. * Heterogenitat
0,058
0,810
irrelevantes Merk. * Fehlervarianz
0,688
0,408
Anzahl * Komponenten
0,110
0,740
Anzahl * Basisnutzen
0,080
0,778
Anzahl • Heterogenitat
3,844
0,051
Anzahl * Fehlervarianz
3,794
0,052
Komponenten * Basisnutzen
1,149
0,285
Komponenten * Heterogenitat
0,663
0,416
Komponenten * Fehlervarianz
1,432
0,232
Basisnutzen * Heterogenitat
0,453
0,501
Basisnutzen * Fehlervarianz
0,096
0,757
Heterogenitat * Fehlervarianz
0,149
0,700
Komponenten (2) Basisnutzen (2)
R'= ,563 (korrigiertes R^ = ,488) Die auf einem Niveau von 0,05 signifikanten Werte sind fett gedruckt. Abbildung 45: Signiflkanz der Pearson-Korrelation fur Haupt- und Nebeneffekte 1. Ordnung
176
die Entscheidung zwischen Kauf und Nicht-Kauf berucksichtigt. Damit sind die Ergebnisse nicht vergleichbar mit Studien, die ausschiieBlich faktorbezogene Teilnutzenwerte miteinander vergleichen. Abbildung 45 gibt anhand des F-Wertes und der jeweils korrespondierenden Irrtumswahrscheinlichkeit fur alle Haupteffekte und Nebeneffekte 1. Ordnung einen Oberblick iiber den Zusammenhang zwischen Verfahren bzw. Einflussfaktor einerseits und Pearson-Korrelation andererseits. Signifikant mit einer Irrtumswahrscheinlichkeit von 0,000 sind in diesem Fall die Faktoren Verfahren, Anzahl der Komponenten, Heterogenitat innerhalb der Komponenten und Fehlervarianz. Ebenfalls signifikant, und zwar mit einer Irrtumswahrscheinlichkeit in Hohe von 0,042, ist die Beriicksichtigung eines irrelevanten Merkmales. Keine Signifikanz kann dagegen fiir die Anzahl der Befragten sowie flir eine Verschiebung des Basisnutzens festgestellt werden. Allerdings liegt ftir die Interaktion zwischen Verfahren und Basisnutzenverschiebung Signifikanz vor. Es kann an dieser Stelle vermutet werden, dass bestimmte Verfahren robuster hinsichtlich der aus dem geringeren Basisnutzen resultierenden geringeren Informationsdichte sind. Dagegen kommt dem Faktor Anzahl der Befragten wiederum nur eine nachrangige Bedeutung zu. 5.2.2.2 Interpretation der Mittelwerte 5.2.2.2.1 Metrische Ansdtze Abbildung 46 zeigt die Mittelwerte der Korrelationskoeffizienten fiir die Korrelation zwischen wahren und berechneten Nutzenparametem individuell fur LCA, LFMCA und LHBCA sowie fiir das Brgebnis einer iiber die drei metrischen Verfahren aggregierten Varianzanalyse. Hinsichtlich der Aufdeckung der Nutzenstruktur sind die Ergebnisse der LCA relativ unabhangig von der Anzahl der Komponenten, wahrend bei der LFMCA und der LHBCA bzgl. dieses Einflussfaktors ein signifikanter Einfluss ermittelt wird. Die Korrelation zwischen wahren und berechneten Nutzenparametem ist bei diesen Verfahren jeweils fiir drei Segmente hoher als fiir eine Komponente. Dieses Ergebnis ist gerade bei der LFMCA zu erwarten, da bei diesem Verfahren im Falle nur einer Komponente die falsche Pramisse von zumindest zwei Komponenten angenommen wird. Entgegen den Annahmen fiihrt allerdings bei der LCA und LHBCA ein geringerer Basisnutzen zu einer hoheren Korrelation. Dies ist allerdings kaum mit den Eigenschaften der Verfahren zu begriinden, sondem vielmehr mit einem inhaltlichen Defizit des Konstrukts Korrelationskoeffizient. Es ist zu vermuten, dass sowohl LCA als auch LHBCA den extremeren Basisnutzen gut schatzen und der groBere Betrag des Basisnutzens die Abweichungen starker relativiert, was eine starkere Korrelation zur Folge hat.^^"^ Bei der LFMCA gelingt die Schatzung des Basisnutzens dagegen deutlich schlechter, so dass
Eine genauere Untersuchung der Abweichungen hat diese Argumentation bestatigt.
177
insgesamt keine hohere Korrelation zwischen wahren und berechneten Nutzenwerten resultiert.'^' AnnahmegemaB haben Heterogenitatsunterschiede innerhalb der Komponenten aufgrund des vollkommen individuellen Charakters des Verfahrens keinen Einfluss auf die Ergebnisse der LCA. Die Korrelation ist dagegen bei der LFMCA, die auf der Grundpramisse vollstandig homogener Komponenten basiert, fiir eine geringere Komponenten-Heterogenitat (Varianz=0,05) deutlich hoher als bei hoherer Komponenten-Heterogenitat. Bei der LHBCA sind diese Unterschiede ebenfalls auszumachen, wenngleich auch in wesentlich geringerem Umfang. Pearson-Korrelation LCA
LFMCA
LHBCA
gesamt
irrelevantes Merkmal nicht vorhanden
0,875
0,943
0,947
0,922
vorhanden
0,862
0,943
0,942
0,916
75
0,868
0,940
0,940
0,916
300
0,868
0,946
0,949
0,921
1
0,859
0,931
0,938
0,909
3
0,877
0,955
0,951
0,928
0
0,850
0,939
0,936
0,908
-3
0,887
0,947
0,953
0,929
Anzahl der Probanden
Anzahl der Komponenten
Basisnutzen
Heterogenitdt innerhalb der Komponenten 0,05
0,868
0,980
0,953
0,25
0,869
0,906
0,936
0,934 0,904
Fehlervarianz 1,645
0,908
0,944
0,949
0,934
3,290
0,829
0,942
0,940
0,903
Mittelwert
0,868
0,943
0,945
0,919
64
64
64
192
N
Abbildung 46: Mittelwerte der Korrelation zwischen wahren und berechneten Nutzenparametem fiir die metrischen Conjoint-Ansatze
Es ist nicht ohne weiteres moglich, den verfahrensbedingten und giitekonstruktbedingten Effekt zu separieren. Aus diesem Grunde kann nur vermutet werden, dass LCA und LHBCA trotz der Simulationsergebnisse keine Unterschiede bzgl. einer Verschiebung des Basisnutzens aufweisen, wahrend die Ergebnisse der LFMCA negativ von der Basisnutzenverschiebung beeinflusst werden.
178
Sowohl LFMCA als auch LHBCA sind sehr robust gegeniiber einer groBeren Fehlervarianz. Aufgrund der Beriicksichtigung von Informationen der Gesamtpopulation findet im Gegensatz zur LCA eine geringere Uberanpassung an mit Messfehlem behaftete individuelle Werte statt. Die Unterschiede der Mittelwerte sind erwartungsgemaB gering, wahrend bei der LCA eine hohere Fehlervarianz (3,290) zu signifikant schlechteren Korrelationen fiihrt. Die Gesamtkorrelation ist bei LFMCA und LHBCA wesentlich hoher als bei der LCA. Dies deutet ebenfalls darauf hin, dass die genauere Reproduktion der individuellen Werte durch die LCA nicht zu einer besseren Aufdeckung der wahren Nutzenstruktur fiihrt, sondem dass eine Uberanpassung an die beobachteten Bewertungen vorliegt. Hinsichtlich der mittleren Korrelation iiber alle verschiedenen Entscheidungssituationen unterscheiden sich die Ergebnisse fiir LFMCA und LHBCA nur marginal. 5.2.2.2.2 Wahlbasierte Ansdtze Da den Ansatzen der wahlbasierten Conjoint-Analyse jeweils das Logit-Modell zugrunde liegt, sind die Werte nicht unmittelbar mit den Korrelationen bei den metrischen Ansatzen zu vergleichen und diirften aufgrund der Versuchsanordnung etwas geringer ausfallen. Pearson-Korrelation CBCA
LCCA
HBCA
gesamt
irrelevantes Merkmal nicht vorhanden
0,832
0,865
0,913
0,870
vorhanden
0,841
0,795
0,895
0,844
75
0,850
0,801
0,891
0,847
300
0,822
0,859
0,917
0,866
1
0,937
0,856
0,900
0,898
3
0,735
0,804
0,907
0,816
0
0,829
0,906
0,909
0,881
-3
0,844
0,754
0,898
0,832
0,05
0,873
0,855
0,915
0,881
0,25
0,800
0,805
0,892
0,832
Anzahl der Probanden
Anzahl der Komponenten
Basisnutzen
Meterogenitdt innerhalb der Komponenten
Fehlervarianz 1,645
0,845
0,844
0,921
0,870
3,290
0,828
0,816
0,886
0,843
Mittelwert
0,836
0,830
0,904
0,857
_
_
64~"
64~~
192"
179
Abbildung 47: Mittelwerte der Korrelation zwischen wahren und berechneten Nutzenparametem fur die wahlbasierten Conjoint-Ansatze Abbildung 47 zeigt die Mittelwerte der Korrelation zwischen den wahren und den mit Hilfe der verschiedenen wahlbasierten Ansatze berechneten Nutzenwerten. Bei der CBCA ist die Differenz hinsichtlich eines beriicksichtigten irrelevanten Merkmales relativ gering und nicht signifikant. Bei der LCCA sind dagegen bei Existenz eines irrelevanten Merkmales wesentlich schlechtere Werte zu beobachten, wobei die Mittelwertdifferenzen aber wegen eines groBeren Standardfehlers bei der Untersuchung nicht signifikant sind. Bei der HBCA kann dagegen auf einem Signifikanzniveau von 95% gezeigt werden, dass die Beriicksichtigung eines irrelevanten Merkmales zu einer schlechteren Aufdeckung der wahren Nutzenstruktur fiihrt. Auch hinsichtlich der Anzahl der Probanden konnen lediglich bei der HBCA signifikante Mittelwertsdifferenzen ermittelt werden. Demnach hat eine Beriicksichtigung von 300 statt 75 Probanden eine bessere Korrelation zwischen den beobachteten und den wahren Nutzendimensionen zur Folge.ErwartungsgemaB liefert die CBCA bei Entscheidungssituationen, die sich durch eine groBere Heterogenitat der Befragten auszeichnen, sei es bei drei Segmenten im Vergleich zu nur einer Komponente oder auch bei einer hoheren Varianz innerhalb der Komponenten, signifikant schlechtere Ergebnisse. Bei der LCCA sind hier keine signifikanten Unterschiede zu beobachten.^^^ Die HBCA ist robust hinsichtlich der Anzahl der Komponenten, liefert aber bei einer geringeren Varianz innerhalb der Komponenten (0,05) signifikant bessere Ergebnisse als bei einer hohen (0,25). Die HBCA ist unter den wahlbasierten Verfahren dasjenige, das am wenigsten auf die Informationen der gesamten Stichprobe zuriickgreift. Es verwundert deshalb nicht, dass bei der HBCA eine signifikant bessere Anpassung bei einer geringen Fehlervarianz zu beobachten ist. Bei den anderen Verfahren konnen ebenfalls bei einer geringeren Fehlervarianz bessere Mittelwerte fiir die Aufdeckung der Nutzenstruktur beobachtet werden, wobei die Unterschiede allerdings nicht signifikant sind. Ein geringerer Basisnutzen fiihrt insbesondere bei der LCCA zu geringeren Nutzenkorrelationen, bei der CBCA ist dieser Zusammenhang ebenfalls zu beobachten, ist aber bei der in dieser Arbeit zugrunde gelegten Irrtumswahrscheinlichkeit von a=0,05 nicht signifikant. Insgesamt ist die Korrelation zwischen beobachteten und wahren Nutzenwerten bei der HBCA am hochsten, so dass davon auszugehen ist, dass keine Uberanpassung an die beobachteten Entscheidungen der Befragten zu erfolgen scheint.
^^^ Dies ist insbesondere auf den groBen Standardfehler bei dieser Teiluntersuchung zuriickzufiihren, die absoluten Unterschiede sind relativ groB.
180
5.2.2.3
Vergleich der Verfahren und Zwischenfazit
Der Unterschied hinsichtlich der Aufdeckung der wahren Nutzenstruktur fallt zwischen wahlbasierten und metrischen Ansatzen geringer als zu erwarten aus. Dies bedeutet, dass die auf dem Logit-Modell beruhenden wahlbasierten Ansatze durchaus zur Analyse der Nutzenstruktur geeignet zu sein scheinen/^^ Gerade fur die geringere Fehlervarianz ist die Korrelation ftir die HBCA nahezu so hoch wie fur die LFMCA und die LHBCA (Abbildung 48).
Nr. Verfahren
Pearson-Korrelation Fehler=l,645
I 2 3 4 5 6
Fehler=3,290
gesamt
LCA
0,908 '•'
0,829
0,868 '•'
LFMCA
0,944 '•'•'
0,942 '•^•^•^
0,943 ''''''
LHBCA
0,949 ••'•'
0,940 '•'^•^•^
0,945 ^'••'•'^
CBCA
0,845
0,828
0,836
LCCA
0,844
0,816
0,830
HBCA
0,921 ^'^
0,886 '•'•'
0,904 *•'•''
* Die hochgestellte Ziffer, die das unterlegene Verfahren bezeichnet und dem Uberlegenen zugeordnet ist, kennzeichnet auf dem 5%-Niveau signifikante Mittelwertunterschiede.
Abbildung 48: Vergleich der Conjoint-Analyse-Verfahren hinsichtlich der Aufdeckung der Nutzenstruktur (N=64)
'^' In der kommerziellen Anwendung werden zu diesem Zweck in erster Linie Varianten der TCA bzw. hybride Conjoint-Mode lie verwendet.
181
Die Aufdeckung der wahren Nutzenstruktur durch die beriicksichtigten Verfahrensvarianten der Conjoint-Analyse weicht z.T. erheblich von der Anpassungsgute ab. Dies deutet darauf hin, dass bei denjenigen Verfahren, die der Ermittlung der Nutzenwerte ausschliefilich oder verstarkt individuelle Werte zugrunde legen, eine Uberanpassung an die beobachteten Werte erfolgt, die zur Folge hat, dass die wahren Werte schlechter geschatzt werden, da die Fehlervarianz nicht als solche aufgefasst wird, sondem als wahre Nutzenimterscheide interpretiert werden. Demzufolge haben die auf dem FM- und dem HB-Ansatz bemhenden Verfahren einen deutlichen Vorteil gegenuber dem traditionellen Ansatz der LCA. Die Verschiebung des Basisnutzens, die bei wahlbasierten Ansatzen eine Verringerung der Informationsdichte bedeutet, hat in erster Linie auf die FM-Ansatze einen negativen Einfluss. Problematisch bei der Bewertung dieses Einflussfaktors ist allerdings das Konstrukt der Korrelation, das zur Relativierung der absoluten Abweichungen den Betrag der Teilnutzenwerte und des Basisnutzens verwendet. Bei einer Verschiebung des Basisnutzens um 3 Nutzeneinheiten hat dies einen Einfluss auf die Ergebnisse. Demzufolge sollte bei kiinftigen Untersuchungen ein korrigiertes KorrelationsmaB verwendet werden, das diesem Zusammenhang Rechnung tragt. 5.2.3 Individuelle Prognosevaliditdt Im Rahmen der individuellen Prognosevaliditat wird uberpruft, inwieweit die beobachteten mit den wahren individuellen Wahlentscheidungen iibereinstimmen. Dabei wird sowohl bei metrischen als auch bei den wahlbasierten Ansatzen die First-Choice-Regel zugrunde gelegt. Bei den wahlbasierten Ansatzen wird zudem die durchschnittliche prognostizierte Auswahlwahrscheinlichkeit flir die gewahlte Alternative als Kriterium verwendet, bei der die Wahrscheinlichkeit gewertet wird, die fur die tatsachliche First-Choice-Auswahlentscheidung vorhergesagt wird. Dieses zweite Kriterium konnte der Eigenschaft der Logit-Regel Rechnung tragen, die i.d.R. fur alle zur Wahl stehenden Stimuli von null verschiedene Auswahlwahrscheinlichkeiten ermittelt. Im Gegensatz zur Aufdeckung der Nutzenstruktur werden im Rahmen des Anteils der korrekt prognostizierten First-Choice-Wahlanteile nicht Praferenzdaten, sondem Kaufentscheidungen als Beurteilungsgrundlage herangezogen. Fur die CBCA, die das Konzept einer reprasentativen Auskunftsperson verwendet und damit streng genommen keine individuellen Nutzenwerte berechnet, wird angenommen, dass sich jede Auskunftsperson exakt wie die representative Auskunftsperson verhalt. Daraus folgt, dass bei der CBCA unterstellt wird, dass alle Auskunftspersonen dieselbe Alternative wahlen bzw. flir das Kriterium der erklarten Wahlanteile, dass sie identische Auswahlwahrscheinlichkeiten fur die im Ziel-Set zu prognostizierenden Altemativen besitzen.
182
5.2.3.1 Signiflkanz der berucksichtigten
Einflussfaktoren
Abbildung 49 gibt einen Uberblick uber die Signiflkanz der von den verschiedenen Verfahren richtig prognostizierten First-Choice-Wahlanteile. Eine signifikante Erklarungskraft mit einer Irrtumswahrscheinlichkeit von a=0,000 weisen wiederum die ausgewahlten Conjoint-Verfahren als unabhangige Variable auf. AuBerdem erreichen Basisnutzen und Komponenten-Heterogenitat dasselbe hohe Signifikanzniveau. Die 2-Wege-Interaktion zwischen Basisnutzen und Heterogenitat weist ebenfalls eine hohe Signiflkanz auf Hinsichtlich dieser schon separat signifikanten Faktoren spielen zudem die Wechselbeziehungen zwischen den beiden Faktoren eine bedeutende Rolle. Daneben sind die Anzahl der Komponenten und die Fehlervarianz zwei weitere Einflussfaktoren, die einen signifikanten Einfluss auf den Anteil der prognostizierten First-Choice-Wahlanteile haben. Die Beriicksichtigung eines irrelevanten Merkmals und die Anzahl der Auskunftspersonen haben dagegen nur eine nachgeordnete Bedeutung.
183
Antell der First-Choice-Hits Faktoren (Zahl der Auspragungen in Klammer)
(N=384) F-Wert
Verfahren (6) irrelevantes Merk. (2) Anzahl (2)
Signifikanz
63,048
0,000
0,018
0,893
3,234
0,073
Komponenten (2)
12,288
0,001
Basisnutzen (2)
54,827
0,000
Heterogenitat (2)
37,278
0,000
Fehlervarianz (2)
4,461
0,035
Verfahren * irrelevantes Merk,
0,435
0,824
Verfahren * Anzahl
0,695
0,628
17,060
0,000
Verfahren * Basisnutzen
5,925
0,000
Verfahren * Heterogenitat
0,000
Verfahren * Fehlervarianz
5,735 1,693
Verfahren * Komponenten
0,136
irrelevantes Merk. * Anzahl
0,628
irrelevantes Merk. * Komponenten
0,034
0,429 0,854
irrelevantes Merk. * Basisnutzen
0,615
0,433
irrelevantes Merk. * Heterogenitat
0,044
0,834
irrelevantes Merk. * Fehlervarianz
0,929
0,336
Anzahl * Komponenten
0,174
0,677
Anzahl * Basisnutzen
1,946
0,164
Anzahl * Heterogenitat
0,208
0,649
Anzahl * Fehlervarianz
0,049
0,824
Komponenten * Basisnutzen
1,526
0,218
Komponenten * Heterogenitat
0,254
0,615
Komponenten * Fehlervarianz
0,711
0,400
Basisnutzen * Heterogenitat
6,651
0,010
Basisnutzen * Fehlervarianz
1,341
0,248
Heterogenitat * Fehlervarianz
0,095
0,758
a. R-Quadrat = ,647 (korrigiertes R-Quadrat = ,587) Die auf einem Niveau von 0,05 signifikanten Werte sind fett gedruckt.
Abbildung 49: Signifikanz des ennittelten First-Chdice-Anteils ftir alle Haupteffekte und Nebeneffekte 1. Ordnung Fiir die Verfahren als Einflussfaktor der Varianzanlayse existiert nicht nur ein signifikanter Haupteffekt, sondem es liegen dariiber hinaus noch signifikante 2-Wege-Interaktionen mit
184
einer Irrtumswahrscheinlichkeit von 0,000 zwischen den Verfahren einerseits und der Anzahl der Komponenten, unterschiedlichen Basisnutzen und der Heterogenitat innerhalb der Komponenten andererseits vor. durchschnittliche prognostizierte Faktoren (Zahl der Ausprdgungen in Klammer) Verfahren (3)
Auswahlwahrscheinlichkeit (N=192) F-Wert
Signifikanz
150,431
0,000
irrelevantes Merk. (2)
0,267
0,606
Anzahl (2)
0,021
0,884
Komponenten (2)
1,657
0,199
Basisnutzen (2)
56371
0,000
Heterogenitat (2)
22,645
0,000
Fehlervarianz (2)
32,552
0,000
Verfahren * irrelevantes Merk.
0,291
0,918
Verfahren * Anzahl
0,848
0,517
Verfahren * Komponenten
8,000
0,000
Verfahren * Basisnutzen
5,645
0,000
Verfahren * Heterogenitat
3,935
0,002
Verfahren * Fehlervarianz
2,797
0,017
irrelevantes Merk. * Anzahl
0,248
0,619
irrelevantes Merk. * Komponenten
0,251
0,616
irrelevantes Merk. * Basisnutzen
2,011
0,157
irrelevantes Merk. * Heterogenitat
0,080
0,778
irrelevantes Merk. * Fehlervarianz
4,496
0,035
Anzahl * Komponenten
0,129
0,720
Anzahl * Basisnutzen
1,928
0,166
Anzahl * Heterogenitat
0,246
0,620
Anzahl * Fehlervarianz
0,301
0,583
Komponenten * Basisnutzen
2,238
0,136
Komponenten * Heterogenitat
0,013
0,910
Komponenten * Fehlervarianz
0,209
0,648
Basisnutzen * Heterogenitat
4,123
0,043
Basisnutzen * Fehlervarianz
0,352
0,553
Heterogenitat * Fehlervarianz
0,284
0,594
a. R-Quadrat = ,752 (korrigiertes R-Quadrat = ,709) Die auf einem Niveau von 0,05 signifikanten Werte sind fett gedruckt.
Abbildung 50: Signifikanz der erklarten Wahlwahrscheinlichkeit fiir alle Haupteffekte und Nebeneffekte 1. Ordnung bei wahlbasierten Conjoint-Ansatzen
185
Abbildung 50 gibt einen (Jberblick iiber die Signifikanz der verschiedenen Haupt- und Nebeneffekte 1. Ordnung fiir die erklarte Wahrscheinlichkeit als abhangige und die drei wahlbasierten Verfahren bzw. Umweltsituationen als unabhangige Variable. Es ergibt sich ein ahnliches Bild wie bei dem prognostizierten First-Choice-Anteil. Die Verfahren stellen wiederum einen signifikanten Einflussfaktor dar, der mit einer Irrtumswahrscheinlichkeit von 0,000 behaftet ist. Daneben wird ebenfalls fiir die Basisnutzenverschiebung, die Heterogenitat innerhalb der Komponenten und die Fehlervarianz eine signifikante Erklarungskraft fiir das Zustandekommen der Varianz mit einer Irrtumswahrscheinlichkeit von 0,000 berechnet. Die Benicksichtigung eines irrelevanten Merkmals, die Anzahl der Befragten und die Anzahl der Komponenten haben als Haupteffekte nur eine nachgeordnete Bedeutung. Bei den 2-WegeInteraktionen liegt wiederum insbesondere fiir die verfahrensspezifischen Effekte ein signifikanter Einfluss vor und zwar hier zwischen Verfahren einerseits und Anzahl der Komponenten, Basisnutzenverschiebung, Heterogenitat innerhalb der Komponenten bzw. Fehlervarianz andererseits. Dariiber hinaus bestehen signifikante 2-Wege-Interaktionen zwischen den Faktoren irrelevantes Merkmal und Fehlervarianz sowie Basisnutzenverschiebung und Heterogenitat innerhalb der Komponenten. Fiir eine weitergehende Interpretation der Ergebnisse der Varianzanalyse und eine Untersuchung der Richtung der Zusammenhange sind im Folgenden die Mittelwerte fiir die verschiedenen Verfahren und Umweltbedingungen in die Analyse einzubeziehen. 5.2.3.2 Interpretation der Mittelwerte Sowohl bei dem prognostizierten First-Choice-Anteil als auch bei der erklarten Auswahlwahrscheinlichkeit bedeuten hohe Mittelwerte, dass das betrachtete Verfahren in der jeweiligen Situation die individuellen Auswahlentscheidungen fiir die simulierten Holdout-Sets besser prognostiziert als bei niedrigeren Mittelwerten. Aufgrund der subjektiven und fiir in der Realitat durchzufuhrende Conjoint-Analysen in dieser Form nicht reprasentativen Umweltbedingungen sind die Gesamtmittelwerte iiber alle Verfahren mit Vorsicht zu interpretieren. 5.2.3.2.1 Metrische A nsdtze Die Mittelwerte des Anteils der mit Hilfe der First-Choice-Regel richtig vorhergesagten individuellen Auswahlentscheidungen fiir die jeweils vier simulierten Altemativen in den vier verschiedenen Holdout-Sets sind Abbildung 51 zu entnehmen. Einen signifikanten Einfluss auf die Ergebnisse hat sowohl bei der LFMCA als auch bei der LHBCA die Basisnutzenverschiebung. Allerdings fiihrt hier eine Basisnutzentransformation um drei Nutzeneinheiten in den negativen Bereich entgegen der Annahmen zu hoheren Mittelwerten und damit zu einer besseren Prognose der individuellen Wahlentscheidungen. Dies ist analog zu der Veranderung
186
der Log-Likelihood bei einer Basisnutzenverschiebung im Rahmen der Untersuchung der Anpassungsgiite zu begrunden/^^ Anteil der First-Choice-Hits LCA
LFMCA
LHBCA
gesamt
irrelevantes Merkmal nicht vorhanden
0,693
0,865
0,851
0,803
vorhanden
0,676
0,874
0,856
0,802
75
0,681
0,867
0,846
0,798
300
0,688
0,873
0,861
0,807
1
0,675
0,862
0,850
0,796
3
0,695
0,878
0,857
0,810
0
0,701
0,835
0,811
0,798
-3
0,669
0,905
0,896
0,823
0,05
0,684
0,919
0,855
0,819
0,25
0,685
0,820
0,852
0,786
Anzahl der Probanden
Anzahl der Komponenten
Basisnutzen
Heterogenitdt innerhalb der Komponenten
Fehlervarianz 1,645
0,709
0,880
0,861
0,817
3,290
0,660
0,860
0,846
0,789
Mittelwert
0685
0,870
0,853
0,803
64
1^
64~
64~~
192"
Abbildung 51: Mittelwerte der prognostizierten First-Choice-Wahlanteile fiir die metrischen Conj oint-Ansatze AnnahmegemaB erklart die LFMCA fiir Umweltsituationen, die sich durch eine geringe Heterogenitat innerhalb der Komponenten auszeichnen, die tatsachlichen individuellen Auswahlentscheidungen signifikant besser als fiir den Fall groBerer Heterogenitat innerhalb der Komponenten. Die LCA ist am wenigsten robust gegen groBere Fehlervarianzen. Bei der L I ^ C A und der LHBCA sind die Mittelwerte fiir den Fall einer kleineren Fehlervarianz ebenfalls gro6er, jedoch sind diese Unterschiede nicht signifikant. Trotz der bereits erwahnten Problematik beim Vergleich der Gesamtmittelwerte fiir die verschiedenen Verfahren wird die klare Tendenz deutlich, dass sowohl die LFMCA als auch die LHBCA besser die wahren individuellen Auswahlentscheidungen prognostizieren. Wie schon bei der Aufdeckung der Nutzenstruktur
Vgl.Abschnitt 5.2.1.2.2.
187
zeigt sich, dass die LCA offensichtlich trotz (aufgrund) besserer Anpassung an die beobachteten Bewertungen der Probanden nicht in der Lage ist, ein auf eine wahre GroBe bezogenes Zielkriterium zu prognostizieren. Es deutet alles darauf bin, dass bier eine Uberanpassung an die beobachteten individuellen Werte erfolgt. Bei den metrischen Verfahren entsprechen die Ergebnisse der prognostizierten FC-Anteile aus Abbildung 51 aufgrund der in dieser Arbeit verwendeten First-Choice-Regel und der damit verbundenen Zuordnung einer Auswahlwahrscheinlichkeit von 1 fur die Alternative mit dem hochsten Nutzenwert den Ergebnissen fiir die durchschnittlich prognostizierte Auswahlwahrscheinlichkeit fiir die gewahlten Stimuli/^^ 5.2.3.2.2 Wahlbasierte Ansdtze Die Mittelwerte des erklarten FC-Anteils bei den wahlbasierten Ansatzen sind Abbildung 52 zu entnehmen. Hinsichtlich der Anzahl der Komponenten liefert die aggregierte CBCA signifikant bessere Ergebnisse fiir den Fall, dass innerhalb der Population keine verschiedenen Komponenten existieren. Das gleiche gilt fiir eine geringere Heterogenitat innerhalb der Komponenten. Dies wird durch die Annahmen gesttitzt und ist inhaltlich damit zu begriinden, dass die CBCA auf der Pramisse eines reprasentativen Probanden und damit vollstandiger Homogenitat der Probanden basiert. Die Unterschiede zwischen ein und drei Komponenten sind fiir die LCCA nicht signifikant. Eine genauere Analyse der einzelnen den Mittelwerten zugrunde liegenden Ergebnisse zeigt, dass fiir den Fall einer Komponente eine relativ groBe und eine relativ kleine Klasse gebildet werden. Die groBe Klasse erfasst die zentralen Werte der simulierten Komponente, wahrend die kleinere Klasse Abweichungen erfasst. Insgesamt konnen so auch bei einer aus einer Komponente bestehenden wahren Population gute Prognosen fiir die Wahlentscheidungen getroffen werden. Wie zu erwarten, liefert die LCCA aufgrund der Grundpramisse der in sich homogenen Komponenten schlechte Vorhersagen der First-Choices, falls die Komponenten durch eine hohere Nutzenheterogenitat innerhalb der Komponenten gekennzeichnet sind. Bei der Basisnutzenverschiebung ist das Phanomen zu beobachten, dass ein geringerer Basisnutzen und damit eine geringere Informationsdichte tiber die verschiedenen Altemativen im Rahmen der Informationserhebung zu hoheren Mittelwerten fur den Anteil der korrekt prognostizierten First-Choice-Anteile fiihrt. Mangels Aussagekraft des GiitemaBes First-ChoiceAnteil fiir diesen Faktor und aufgrund fehlender Moglichkeiten zur Separierung des mogli-
^^^ Unterschiede konnen sich nur dann ergeben, wenn fiir verschiedene Alternativen im Falle der Anwendung der Verfahren, abweichend vom Fall wahrer Gesamtnutzenwerte, mehrere Alternativen die hochsten Nutzenwerte aufweisen und somit von 1 verschiedene Auswahlwahrscheinlichkeiten ermittelt werden. Wenn dies sowohl bei Anwendung des Conjoint-Ansatzes als auch im Fall wahrer Nutzenwerte der Fall ist, werden die Ergebnisse nicht beeinflusst. In der vorliegenden Arbeit sind nur marginale Abweichungen zu beobachten, die sich mit drei Dezimalnachkommastellen nicht darstellen lassen. Aus diesem Grund wird auf eine eigene Ergebnistabelle verzichtet und auf Abbildung 51 verwiesen.
188
cherweise bestehenden verfahrensbezogenen Effekts von dem gutemafibezogenen Effekt ist die Interpretation dieses Faktors kaum moglich. Die Fehlervarianz hat keinen signifikanten Einfluss auf die Prognose der FC-Anteile, was damit zu begriinden ist, dass die bier verwendeten wahlbasierten Verfahren auf Informationen der Gesamtpopulation zuruckgreifen, was einer Uberanpassung an die mit Fehlem behafteten individuellen Werte entgegenwirkt. Anteil der First-Choice-Hits CBCA
LCCA
HBCA
gesamt
irrelevantes Merkmal nicht vorhanden
0,758
0,873
0,805
0,812
vorhanden
0,776
0,872
0,797
0,815
75
0,745
0,867
0,801
0,804
300
0,789
0,878
0,801
0,823
1
0,856
0,886
0,798
0,847
3
0,678
0,858
0,804
0,780
Anzahl der Probanden
Anzahl der Komponenten
Basisnutzen 0
0,721
0,845
0,769
0,778
-3
0,814
0,900
0,833
0,849
0,805 0,730
0,914
0,810
0,831
0,792
0,843 0,784
Heterogenitdt innerhalb der Komponenten 0,05 0,25 Fehlervarianz 1,645
0,755
0,885
0,806
0,815
3,290
0,779
0,859
0,796
0,812
Mittelwert
0,767
0,872
0,801
0,813
64
64
64
192
N
Abbildung 52: Mittelwerte der prognostizierten First-Choice-Wahlanteile fiir die wahlbasierten Conjoint-Ansatze Die erklarte prognostizierte Wahlwahrscheinlichkeit ist geringer als der prognostizierte FirstChoice-Anteil fiir diejenigen Probanden, bei denen die Wahlwahrscheinlichkeit mit Hilfe der First-Choice-Regel korrekt prognostiziert wurde, und hoher fiir diejenigen, bei denen eine Fehlzuordnung vorgenommen wurde, da die erklarte prognostizierte Wahlwahrscheinlichkeit ihnen die Wahrscheinlichkeit fiir diese Alternative zurechnet, die in aller Regel groBer als Null sein diirfte.
189
Abbildung 53 stellt die Mittelwerte der erklarten Wahrscheinlichkeit fur die drei wahlbasierten Conjoint-Ansatze in tabellarischer Form dar. Insgesamt ist der Mittelwert (iber die verschiedenen Umweltbedingungen niedriger als fiir den prognostizierten First-Choice-Anteil, was mit der insgesamt hohen Trefferquote der individuellen Auswahlwahrscheinlichkeiten zu begriinden ist. Weder die Beriicksichtigung eines irrelevanten Merkmals, noch die Anzahl der simulierten Probanden haben einen signifikanten Einfluss auf die erklarte Wahrscheinlichkeit als abhangige Variable der vorliegenden Varianzanalysen. Eine groBere Heterogenitat hat sowohl in Form von drei Segmenten innerhalb der Stichprobe als auch in Form von Varianz innerhalb der Komponenten bei der CBCA aufgrund der Homogenitatsannahme einen signifikant negativen Einfluss auf die erklarte Wahrscheinlichkeit. Bei der LCCA gilt dies wie schon bei den erklarten FC-Anteilen nur fiir die Heterogenitat innerhalb der Komponenten. durchschnittliche prognostizierte Auswahlwahrscheinlichkeit HBCA
LCCA
CBCA
gesamt
irrelevantes Merkmal nicht vorhanden
0,564
0,648
0,744
0,652
vorhanden
0,563
0,643
0,728
0,645
75
0,554
0,652
0,750
0,652
300
0,574
0,640
0,722
0,645
Anzahl der Probanden
Anzahl der Komponenten 1
0,624
0,647
0,726
3
0,503
0,645
0,745
0,666 0,631
0
0,515
0,611
0,701
0,609
-3
0,613
0,680
0,770
0,688
Basisnutzen
Heterogenitat innerhalb der Komponenten 0,05
0,587
0,676
0,745
0,669
0,25
0,540
0,615
0,727
0,627
Fehlervarianz 1,645
0,587
0,699
0,753
0,680
3,290
0,540
0,593
0,718
0,617
Mittelwert
0,564
0,646
0,736
0,648
64
64
64
192
N
Abbildung 53: Mittelwerte der erklarten Auswahlwahrscheinlichkeit fiir die wahlbasierten Conjoint-Ansatze Das auf den ersten Blick paradox wirkende Phanomen einer groBeren Erklarungskraft fiir die 190
negative Auspragung des Basisnutzens liegt wie auch bei den prognostizierten FC-Anteilen vor und soUte analog interpretiert werden. Alle Verfahren weisen eine signifikant hohere Erklarungskraft der Auswahlwahrscheinlichkeit fur eine geringere Fehlervarianz auf. Obwohl die Gesamtmittelwerte der erklarten Wahrscheinlichkeiten fiir alle Verfahren unter den erklarten Wahrscheinlichkeiten fur den prognostizierten FC-Anteil liegen, konnen Unterschiede hinsichtlich des AusmaBes der Differenzen beobachtet werden. Die HBCA weist eine geringere Differenz auf als die CBCA und die LCCA. Dies ist damit zu erklaren, dass dieser Ansatz fiir das einzelne Individuum aufgrund der Annahme der Normalverteilung der Nutzenparameter innerhalb der Population weniger extreme Nutzenwerte schatzt und somit analog zu einfuhrenden Argumentation auch bei einer prinzipiell hohen Trefferquote der First-Choice-Entscheidungen einen relativ groBen Anteil der prognostizierten Wahrscheinlichkeiten erklaren kann. 5.2.3.3 Vergleich der Verfahren und Zwischenfazit Bei der Untersuchung der individuellen Prognosevaliditat ergeben sich ahnliche Ergebnisse wie fiir die Korrelation zwischen den wahren und den berechneten Nutzenparametem. Dies verwundert nicht, da die Nutzenwerte Grundlage fiir die Ermittlung der Wahlentscheidungen bzw. der erklarten Auswahlwahrscheinlichkeit sind. Der Unterschied der Ergebnisse fiir die beiden zur Beurteilung der individuellen Prognosevaliditat verwendeten GiitemaBe, der Anteil der prognostizierten First-Choice-Hits und die erklarte Wahrscheinlichkeit, ist auch fiir die wahlbasierten Verfahren gering. Abbildung 54 zeigt zum einen den Anteil der First-ChoiceHits aufgespalten in die hohere und die niedrigere Fehlervarianz und zum anderen den Mittelwert fiir beide Stufen der Fehlervarianz jeweils mit den korrespondierenden Signifikanzbeziehungen. Nr. Verfahren
Anteil der FC-Hits Fehler=l,645
Fehler=3,290
gesamt
1
LCA
0,709
0,660
2
LFMCA
0,880 '-^'^
0,860 '•'•'
0,870 '•'•'^
3
LHBCA
0,861 ''^'^
0,846 '•^•^
0,853 ^''*'*
4
CBCA
0,755
0,779 '
0,767 *
5
LCCA
0,885 '•^•^
0,859 '-^'^
0,872 *''•'*
6
HBCA
0,806 '-^
0,796 '
0,801 *'"
0,685
* Die hochgestellte Ziffer, die das unterlegene Verfahren bezeichnet und dem uberlegenen zugeordnet ist, kennzeichnet auf dem 5%-Niveau signifikante Mittelwertunterschiede.
Abbildung 54: Vergleich der Conjoint-Analyse-Verfahren hinsichtlich des Anteils der FirstChoice-Hits (N=64) Abbildung 55 stellt entsprechend die durchschnittliche prognostizierte Auswahlwahrscheinlichkeit der gewahlten Stimuli dar.
191
Nr. Verfahren 1 2 3 4 5 6
LCA LFMCA LHBCA CBCA LCCA HBCA
durchschnittliche prognostizierte Auswahlwahrscheinlichkeit Fehler=l,645 Fehler=3,290 gesamt 0,709 0,880 0,861 0,587 0,699 0,753
' '•^•^'^ '•'•^•' '-^ ^'^
0,660 0,860 0,846 0,540 0,593 0,718
'•' '•'•^•^ '•^•^•^ ^ ''-^
0,685 0,870 0,853 0,564 0,646 0,736
'•'^ '•'''^'^ '''•'^'^ * ''•'*
* EHe hochgestellte Ziffer, die das unterlegene Verfahren bezeichnet und dem iiberlegenen zugeordnet ist, kennzeichnet auf dem 5%-Niveau signifikante Mittelwertunterschiede.
Abbildung 55: Vergleich der Conjoint-Analyse-Verfahren hinsichtlich der durchschnittlichen Auswahlwahrscheinlichkeit (N=64) Die Verschiebung des Basisnutzens fiihrt wiederum zu zunachst nicht erwarteten Ergebnissen, jedoch ist die Begriindung hier eine andere und es kann an dieser Stelle kein Korrekturvorschlag fiir kiinftige Studien gegeben werden, wie es noch bei der Aufdeckung der Nutzenstruktur der Fall war. Es wird wiederum deutlich, dass die LCA zu relativ schlechten Ergebnissen fiihrt, wenn wahre Werte prognostiziert werden sollen, da offenbar eine Uberanpassung an die beobachteten Werte vorliegt. Aber gerade bei der LCA gibt es signifikante Unterschiede aufgrund einer hoheren Prognosekraft bei geringeren Fehlervarianzen. Es deutet also darauf hin, dass das deterministische Grundmodell der LCA insbesondere dann geeignet ist, wenn die Befragten aufgrund einer ausgepragten kognitiven Komponente im Rahmen des Kaufentscheidungsprozesses relativ konsistent in ihrem Antwortverhalten sind. Es ist zudem darauf hinzuweisen, dass in Analogie zu bereits durchgefiihrten empirischen Studien relativ groBe Fehlervarianzen benutzt werden und damit der Zufallsfehler entgegen den deterministischen Grundannahmen der LCA einen relativ hohen Anteil der Kaufentscheidung erklart. Bei stark extensiven Kaufentscheidungen, bei denen die LCA aufgrund ihrer Modellannahmen ihren zentralen Einsatzbereich haben diirfte, mag die Fehlervarianz ggfs. deutlich unter der dieser Arbeit zugrunde liegenden niedrigeren Auspragung von 1,645 liegen. 5.2.4 Aggregierte Prognosevaliditdt Die aggregierte Prognosevaliditat ist ein GutemaB, das in der praktischen Anwendung von groBer Bedeutung ist, da hier haufig gerade bei Simulation von Markten nicht nur das individuelle Wahlverhalten interessiert, sondem haufig ebenso Marktanteile bzw. Marktvolumina. Bei den Verfahren, die individuelle Nutzenparameter ermitteln, muss eine Aggregation der individuellen Werte durchgefiihrt werden. Dies geschieht, indem das arithmetische Mittel iiber alle Auskunftspersonen gebildet wird. Die aggregierte CBCA liefert dagegen direkt Wahlanteile fiir die verschiedenen Produktaltemativen sowie die Nicht-Kaufoption auf aggre-
192
giertem Niveau. 5.2.4.1 Signiflkanz der heriicksichtigten Einflussfaktoren Beim Vergleich der aggregierten Marktanteile konnen wiederum alle sechs ausgewahlten Conjoint-Ansatze direkt miteinander verglichen werden. In gewisser Hinsicht handelt es sich hierbei um den relevantesten Vergleich, da mit alien Verfahren aggregierte Wahlanteile prinzipiell sinnvoll berechnet werden konnen, jedoch zur Ennittlung individueller Werte, also sowohl fiir die Korrelation als auch fiir die individuelle Prognosevaliditat, kaum ein aggregiertes Verfahren wie die CBCA zum Binsatz kommen diirfte. Abbildung 56 zeigt die FWerte und die korrespondierenden Signifikanzniveaus fiir den RMSE zwischen wahren und mit Hilfe der Verfahren ermittelten Wahlanteilen unter Beriicksichtigung von NichtKaufem7^° Wie schon bei den vorherigen GutemaBen weist der Faktor Verfahren den hochsten F-Wert auf und ist mit einer Irrtumswahrscheinlichkeit von 0,000 behaftet. Ebenfalls signifikant sind die beiden Heterogenitatskriterien, also die Anzahl der Komponenten und die Heterogenitat innerhalb der Komponenten, und die Fehlervarianz (a=0,000) sowie die Verschiebung des Basisnutzen (a=0,001). Die Anzahl der der Simulationen zugrunde liegenden Auskunftspersonen spielt ebenso wie die Beriicksichtigung eines irrelevanten Merkmals als Haupteffekt keine zentrale Rolle. Allerdings kann eine signifikante 2-Wege Interaktion zwischen den Faktoren irrelevantes Merkmal und Verfahren beobachtet werden. Dies deutet darauf hin, dass zumindest eines der Verfahren weniger robust gegeniiber der Verwendung eines irrelevanten Merkmals ist. Mit Ausnahme der 2-Wege-Interaktionen zwischen Verfahren und Anzahl der Auskunftspersonen sind auch die beriicksichtigten Interaktionen zwischen Verfahren und den anderen Faktoren signifikant. Dies deutet darauf hin, dass sich kein einheitliches Ergebnis fiir die verschiedenen Verfahren ergibt. SchlieBlich sind noch die beiden 2-Wege-Interaktionen zwischen Anzahl der Komponenten einerseits und Heterogenitat innerhalb der Komponenten bzw. der Fehlervarianz andererseits signifikant.
Vgl. zur Definition des RMSE Abschnitt 5.1.4.3.
193
Faktoren (Zahl der Ausprdgungen in Klammer)
RMSE der Wahlanteile (N=384) F-Wert
Verfahren (6) irrelevantes Merk. (2) Anzahl (2)
Signifikam
100^398
0,000
1,523
0,218
0,000
0,986
Komponenten (2)
40,153
0,000
Basisnutzen (2)
11,722
0,001
Heterogenitat (2)
30,246
0,000
Fehlervarianz (2)
71,269
0,000
Verfahren * Anzahl
2,829 1,347
0,016 0,244
Verfahren * Komponenten
2,903
0,014
Verfahren * Basisnutzen
3,879
0,002
Verfahren * Heterogenitat
12,293
0,000
Verfahren * Fehlervarianz
5,285
0,000
irrelevantes Merk. * Anzahl
1,896
0,170
irrelevantes Merk. * Komponenten
0,006
0,940
irrelevantes Merk. * Basisnutzen
0,073
0,788
irrelevantes Merk. * Heterogenitat
1,988
0,160
irrelevantes Merk. * Fehlervarianz
1,465
0,227
Anzahl * Komponenten
0,612
0,435
Anzahl * Basisnutzen
0,190
0,663
Anzahl * Heterogenitat
0,108
0,743
Anzahl * Fehlervarianz
0,102
0,750
Komponenten * Basisnutzen
0,011
0,916
Komponenten * Heterogenitat
4,858
0,028
Komponenten * Fehlervarianz
10,676
0,001
Basisnutzen * Heterogenitat
0,040
0,842
Basisnutzen * Fehlervarianz
0,088
0,767
Heterogenitat * Fehlervarianz
0,064
0,800
Verfahren * irrelevantes Merk.
a. R-Quadrat = ,715 (korrigiertes R-Quadrat = ,667) Die auf einem Niveau von 0,05 signifikanten Werte sind fett gedruckt.
Abbildung 56: Signifikanz der kumulierten Wahlanteile fur alle Haupteffekte und Nebeneffekte 1. Ordnung bei wahlbasierten Conjoint-Ansatzen 5.2.4.2 Interpretation der Mittelwerte Da es sich bei dem RMSE um ein FehlermaB handelt, bedeuten geringe Werte fiir den RMSE
194
jeweils eine gute Prognose der wahren Wahlanteile. 5.2.4.2.1 Metrische A nsdtze Die im Rahmen der Varianzanalyse ermittelten Mittelwerte des RMSE ftir die metrischen Verfahrensvarianten werden in Abbildung 57 tabellarisch dargestellt, wobei signifikante Zusammenhange wiederum gekennzeichnet sind. Ftir die LHBCA kann eine signifikante Verringerung des RMSE erzielt werden, wenn statt 75 Auskunftspersonen 300 simuliert werden. Dies deutet daraufhin, dass die Annahme der Normalverteilung der Parameter entgegen der Ergebnisse der vorher aufgefiihrten GiitemaBe doch noch nicht fiir 75 Probanden erfullt wird. Fiir LCA und LFMCA ist die Anzahl der simulierten Auskunftspersonen wie schon bei den anderen GutemaBen von auBerst geringer Bedeutung fur das Ergebnis. Die Analyse der Heterogenitat zeigt ein unerwartetes Ergebnis. Fiir die auf rein individuellen Werten basierende LCA ist ein signifikant geringerer RMSE bei der Existenz von drei Segmenten in der Population zu beobachten. Dies widerspricht zunachst der Hypothese, dass die LCA aufgrund ihres rein individuellen Charakters unabhangig von der Heterogenitat innerhalb der Stichprobe ist. Ein ahnlich unerwartetes Ergebnis zeigt sich fiir die Heterogenitat innerhalb der Komponenten. Auch hier fiihrt die groBere der verwendeten Heterogenitaten in Hohe von 0,25 zu einem geringeren RMSE. Die LFMCA und die LHBCA werden dagegen nicht signifikant von der Anzahl der Komponenten beeinflusst. Bei der Heterogenitat innerhalb der Komponenten zeigt sich dagegen erwartungsgemaB, dass die mit Hilfe der LFMCA prognostizierten Wahlanteile bei einer geringeren Komponentenvarianz mit einem signifikant geringeren RMSE behaftet sind. Fiir die LHBCA ergibt sich dagegen ein geringerer RMSE fiir eine groBere Varianz innerhalb der Komponenten.
195
RMSE der Wahlanteile LCA
LFMCA
LHBCA
gesamt
irrelevantes Merkmal nicht vorhanden
0,058
0,067
0,029
0,052
vorhanden
0,062
0,055
0,026
0,048
75
0,058
0,063
0,033
0,051
300
0,062
0,060
0,022
0,048
0,074
0,066
0,027
0,056
0,046
0,056
0,028
0,043
0
0,068
0,076
0,033
0,059
-3
0,053
0,046
0,022
0,040
Anzahl der Probanden
Anzahl der Komponenten 1 3 Basisnutzen
Heterogenitdt innerhalb der Komponenten 0,05
0,072
0,046
0,033
0,050
0,25
0,049
0,077
0,022
0,049
Fehlervarianz 1,645
0,050
0,058
0,025
0,044
3,290
0,071
0,064
0,029
0,055
Mittelwert
0,060
0,061
0,027
0,050
__
64
__
64~
192~
Abbildung 57: Mittelwerte der prognostizierten Wahlanteile fiir die metrischen ConjointAnsatze Die heterogenitatsbezogenen Ergebnisse, insbesondere der nicht zu erklarende Zusammenhang fiir die LCA, geben Anlass, den RMSE fiir aggregierte Wahlanteile trotz seiner haufigen Verwendung im Rahmen von vergleichenden Conjoint-Studien kritisch zu hinterfragen. Bei vollkommener Homogenitat, ohne Betrachtung der Fehlervarianz, weisen alle Auskunftspersonen fiir dieselbe Alternative den hochsten Gesamtnutzenwert auf und damit die hochste Kaufwahrscheinlichkeit. Bei Verwendung der First-Choice-Regel ist dies gleichbedeutend damit, dass alle Auskunftspersonen dasselbe Produkt wahlen. Die Beriicksichtigung der Fehlervarianz fiihrt nun dazu, dass jede Abweichung, die ein bestimmtes AusmaB uberschreitet, zur Wahl einer anderen Alternative fuhrt. Da es aufgrund der annahmegemaBen vollstandigen Homogenitat der wahren Nutzenwerte nur eine „korrekte" Kaufentscheidung gibt, erhoht jede Abweichung den RMSE. Besteht die Population dagegen aus drei Segmenten, ist es nicht unwahrscheinlich, dass selbst bei vollstandiger Homogenitat der Komponenten die Auskunfts-
196
personen der verschiedenen Komponenten unterschiedliche Altemativen wahlen. Wird nun bei Berucksichtigung der Fehlervarianz eine andere als die nach den wahren Nutzenwerten zu wahlende Alternative gewahlt, fiihrt dies zwar zunachst bei einer isolierten Betrachtung der Auskunftsperson zu einer Erhohung des RMSE, kann aber durch eine Fehlklassifikation eines Probanden aus einem anderen Segment kompensiert werden, so dass sich Fehlklassifikationen aufheben und auf aggregierter Ebene keine Erhohung des RMSE resultiert. Dieses einfache Beispiel verdeutlicht, dass der RMSE zum Vergleich von unterschiedUchen Heterogenitaten nur bedingt geeignet ist und die im Rahmen dieser Studie beobachteten Ergebnisse hervorrufen kann/^^ Die Verzerrung betrifft allerdings nur die beiden heterogenitatsbezogenen Merkmale, da der Berechnung der Mittelwerte der anderen Einflussfaktoren jeweils eine identische Zusammensetzung der heterogenitatsbezogenen Faktoren zugrunde liegt7^^ Hinsichtlich der mit Vorsicht zu interpretierenden Gesamtmittelwerte fiir die einzelnen Verfahren ist festzustellen, dass die LCA und die LFMCA einen ahnlichen durchschnittlichen RMSE aufweisen, wahrend dieser fiir die LHBCA deutlich geringer ausfallt. Dies verwundert vor dem Hintergrund der ahnlichen Werte fiir LFMCA und LHBCA hinsichtlich der Prognose des Anteils der richtig prognostizierten individuellen First-Choice-Entscheidungen, durfte aber mit der Verteilung der Nutzenparameter zusammenhangen, die bei der LHBCA im Gegensatz zur LPMCA einer Normalverteilung folgt. 5.2.4.2.2 Wahlbasierte Ansdtze Abbildung 58 zeigt die Mittelwerte des RMSE der aggregierten Wahlanteile fiir die verschiedenen wahlbasierten Ansatze der Conjoint-Analyse sowie den Gesamtmittelwert uber die drei Verfahren, wobei die im Rahmen der Varianzanalyse ermittelten signifikanten Mittelwertunterschiede gekennzeichnet sind. Alle Verfahren weisen einen geringeren RMSE fiir den Fall auf, dass kein irrelevantes Merkmal vorliegt. Allerdings ist dieser Mittelwertunterschied bei der CBCA nur marginal und allein bei der HBCA signifikant. Die HBCA ist weniger robust hinsichtlich der Existenz eines irrelevanten Merkmals. Dieser Zusammenhang wurde allerdings bereits im Vorfeld der Untersuchung angenommen, da die HBCA eine Normalverteilung fur alle Nutzenparameter unterstellt^^^
Analog kann die Argumentation fiir eine groBere bzw. kleinere Varianz innerhalb der Segmente erfolgen, wobei der diskrete Fall iiber die Anzahl der Segmente jedoch weitaus anschaulicher ist. Aus diesem Grund ist ebenso wie fiir die giitemaBbezogenen Effekte bei dem Faktor Basisnutzen nicht das gesamte Ergebnis der Studie zu verwerfen, sondern nur die direkt betroffenen Faktoren sind fiir das jeweilige Giitekriterium mit Vorsicht zu genieBen. Die Studie von Gensler, die sich primar mit der Erklarung der Heterogenitat befasst, oder aber auch die Studien von Andrews gehen auf die angesprochenen Verzerrungen nicht explizit ein. Ihre Ergebnisse verlieren dadurch allerdings nicht als Ganzes an Giiltigkeit, sondern nur fiir die Heterogenitatsfaktoren in Verbindung mit dem RMSE als GiitemaB. Problematisch ist hier aber, dass in diesen Studien die Heterogenitat zentrales Untersuchungsobjekt ist. Vgl. Gensler, S. (2003); Andrews, KL/Ainslie, A./Currim, IS. (2002); Andrews, R.L/Ansari, A./Currim, IS. (2002). Theoretisch ware es zwar moglich, das irrelevante Merkmal mit Hilfe einer Varianz dieser Nutzenparameter in Hohe von Null abzubilden. Die HBCA ist allerdings, wie die signifikanten Mittelwerte zeigen, dazu in der vorliegenden Simulationsstudie nicht in der Lage.
197
RMSE der Wahlanteile HBCA
LCCA
CBCA
gesamt
irrelevantes Merkmal nicht vorhanden
0,123
0,098
0,070
0,097
vorhanden
0,125
0,109
0,091
0,108
75
0,118
0,105
0,080
0,101
300
0,130
0,102
0,081
0,104
1
0,132
0,117
0,093
0,114
3
0,116
0,089
0,068
0,091
0
0,128
0,098
0,083
0,103
-3
0,121
0,109
0,077
0,102
0,05
0,138
0,119
0,096
0,118
0,25
0,111
0,088
0,065
0,088
Anzahl der Probanden
Anzahl der Komponenten
Basisnutzen
Heterogenitdt innerhalb der Komponenten
Fehlervarianz 1,645
0,107
0,083
0,063
0,084
3,290
0,141
0,124
0,098
0,121
Mittelwert
0,125
0,104
0,080
0,103
64
64
64
192
N
Abbildung 58: Mittelwerte der prognostizierten Wahlanteile fiir die wahlbasierten ConjointAnsatze Hinsichtlich der Anzahl der simulierten Auskunftspersonen liegen keine signifikanten Unterschiede vor. Bei den heterogenitatsbezogenen Faktoren kommt es zu den wiederum a priori unerwarteten Ergebnissen, dass beispielsweise fiir die CBCA eine groBere Anzahl an Komponenten in der Population - wenn auch auf nicht signifikantem Niveau - bzw. dass eine groBere Heterogenitat innerhalb der Komponenten, wobei dieser Mittelwertunterschied sogar signifikant ist, zu einem kleineren RMSE der Wahlanteile fiihrt. Die Ergebnisse sind wie schon bei den metrischen Verfahren mit der nur bedingten Eignung des RMSE in Bezug auf aggregierte Wahlanteile zum Vergleich verschiedener Heterogenitaten innerhalb der Population zu erklaren. Die Verschiebung des Basisnutzens fuhrt im Gegensatz zu den metrischen Verfahren nicht zu einer signifikanten Veranderung des RMSE. Da aber die gtitemaBbezogene Verzerrung analog zu den metrischen Verfahren vorliegt, ist davon auszugehen, dass der eigentlich zu untersuchende Einfluss der geringeren Informationsdichte bei einer Verschiebung des Basisnutzens in den negativen Bereich tatsachlich vorliegt und diesen kompensiert. Allerdings
198
handelt es sich hierbei lediglich um eine Vermutung, flir die keine Signifikanz angegeben werden kann. Die Mittelwertdifferenz fiir eine Fehlervarianz von 1,645 und 3,290 ist fiir alle Verfahren signifikant und wie angenommen fiihrt eine geringerer Fehlervarianz zu einem kleineren RMSE bezogen auf die prognostizierten und tatsachlichen aggregierten Wahlanteile. In Bezug auf die Gesamtmittelwerte sind die Ergebnisse der HBCA denjenigen der LCCA iiberlegen, die ihrerseits allerdings besser als die Werte der CBCA sind. Ahnlich wie bei den metrischen Ansatzen ist dies wahrscheinlich auf die Grundpramisse normalverteilter Nutzenparameter zuriickzufiihren. 5.2.4.3 Vergleich der Verfahren und Zwischenfazit Sowohl bei den metrischen als auch bei den wahlbasierten Varianten der CA liefem die HBAnsatze die besten Ergebnisse in Bezug auf die Prognose der aggregierten Wahlanteile. Nur die LFMCA und die LHBCA zeigen sich robust gegeniiber einer groBeren Fehlervarianz und scheinen dementsprechend gut die beobachteten Bewertungen auch bei groBem Fehler zu generalisieren, anstatt die Nutzenparameter zu stark an die fehlerbehafteten individuellen Werte anzupassen. Nr.
Verfahren
RMSE der Wahlanteile Fehler=l,645
Fehler=3,290
gesamt
1
LCA
0,050 '''^
0,071 '•'•*
0,060 ^"^'^
2
LFMCA
0,058 '-^
0,064 ^'^'^
0,061 *^'^
3
LHBCA
0,025 ^•^'^•^•^
0,029 '•^•'*'^'^
0,027 *'^''*'*'*
4
CBCA
0,107
0,141
0,125
5
LCCA
0,083 ^
0,124 ^
0,104 ^
6
HBCA
0,063 ^'^
0,098 ^'^
0,080 '-*
* Die hochgestellte Ziffer, die das unterlegene Verfahren bezeichnet und dem uberlegenen zugeordnet ist, kennzeichnet auf dem 5%-Niveau signifikante Mittelwertunterschiede.
Abbildung 59: Vergleich der Conjoint-Ansatze hinsichtlich der aggregierten Prognosevaliditat (N=64) Abgesehen von der HBCA zeigen sich alle Conjoint-Ansatze wenig sensibel gegeniiber der Beriicksichtigung eines irrelevanten Merkmals. Auch die Anzahl der simulierten Auskunftspersonen spielt eine nur untergeordnete Rolle, lediglich bei der LHBCA kann der RMSE durch eine Ausweitung von 75 auf 300 Auskunftspersonen signifikant reduziert werden. Die Heterogenitatsfaktoren und die Basisnutzenverschiebung konnen bei der Betrachtung aggregierter Wahlanteile nicht unmittelbar interpretiert werden. Der RMSE der Wahlanteile ist bei groBerer Heterogenitat bei identischem individuellen Wahlverhalten tendenziell geringer. Auch bei der Untersuchung von aggregierten Wahlanteilen fiihrt eine Basisnutzenverschiebung in den negativen Bereich zu Verzerrungen, da Nicht-Kaufe weniger differenziert betrachtet werden miissen und damit leichter zu prognostizieren sind. Diese Verzerrungen 199
haben keinen Einfluss auf die Gute der Gesamtergebnisse, sondem sie erschweren ausschlieBlich die Interpretierbarkeit des jeweiligen Einflussfaktors. Bei den metrischen Verfahren bewirkt der Basisnutzeneffekt, dass der RMSE bei geringerem Basisnutzen niedriger ist. Da bei den metrischen Verfahren alle StimuH bewertet werden, wirkt ihm kein aus einer geringeren Informationsdichte resultierender Effekt bei der Datenerhebung entgegen. Dies scheint bei den wahlbasierten Verfahren der Fall zu sein, was bei einer annahrenden Kompensation der beiden Effekte dazu fiihrt, dass keine signifikanten Mittelwertunterschiede zu beobachten sind. 5.2.5
Zusammenfassende Beurteilung der Simulationsergebnisse und Implikationen fur die praktische Anwendung Bei alien durchgefiihrten Varianzanalysen stellen die eingesetzten Conjoint-Verfahren den Einflussfaktor mit dem groBten Einfluss auf die abhangige Variable dar. Die Irrtumswahrscheinlichkeit betragt jeweils 0,000. Dies sowie die haufig ebenfalls hohe Signifikanz zwischen dem Faktor Verfahren und den anderen Einflussfaktoren verdeutlicht, dass die Wahl der Verfahrensvariante einen bedeutenden Einfluss auf die Qualitat realer Conjoint-Studien hat und rechtfertigt eine weitergehende Untersuchung bzgl. des Einsatzes verschiedener Verfahrensvarianten der Conjoint-Analyse bei unterschiedlichen Einflussfaktoren. Es werden insgesamt vier verschiedene Grundarten von GutemaBen verwendet, die verschiedene Zusammenhange erklaren und an dieser Stelle insbesondere auch gemeinsam interpretiert werden sollen. Die Anpassungsgiite an die beobachteten Bewertungen stellt ein MaB der intemen Validitat dar. Es wird hier untersucht, inwieweit die verschiedenen Verfahren die beobachteten Bewertungen reproduzieren. Eine Aussage, ob eine gute Reproduktion der Bewertungen zu guten Prognoseeigenschaften fiihrt, kann nicht getroffen werden. Fiir metrische und wahlbasierte Verfahren existieren mit dem BestimmtheitsmaB und der Log-Likelihood unterschiedliche GiitemaBe, die sich nicht miteinander vergleichen lassen. Aus diesem Grunde erfolgt eine separate Untersuchung fiir die beiden Verfahrensgruppen. Die Aufdeckung der Nutzenstruktur stellt ein strenges Gutekriterium dar, denn eine hohe Korrelation zwischen wahren und berechneten Nutzenwerten diirfte ebenfalls eine valide Prognose individueller bzw. aggregierter Kaufentscheidungen zur Folge haben. Gerade bei wahlbasierten Ansatzen ist es jedoch vorstellbar, dass Defizite bei der Aufdeckung der wahren Nutzenstruktur dadurch erklart werden, dass diese Verfahren nicht wie die simulierten Werte auf einem linear-additiven Grundmodell beruhen, sondem auf dem LogitAnsatz, und somit dennoch valide Prognosen iiber Kaufentscheidungen zu treffen sind. SchlieBlich bedeutet eine geringere Gute bei der Prognose individueller Kaufentscheidungen nicht automatisch, dass die Prognosekraft fiir Wahlanteile auf aggregierter Ebene ebenfalls geringer ist, da sich das Aggregationsniveau der Verfahren unterscheidet und teilweise die
200
individuellen Prognosen wie bei der CBCA eine sehr pragmatische Vorgehensweise voraussetzen. Vor diesem Hintergrund sollen die Ergebnisse fur die verschiedenen Verfahrensvarianten im Folgenden kurz zusammengefasst werden. Limit-Conjoint-Analyse (LCA) Die LCA weist von den metrischen Ansatzen die beste Anpassungsgtite an die beobachteten Bewertungen auf. Es bestehen signifikante Mittelwertunterschiede fur die Faktoren irrelevantes Merkmal, Anzahl der Komponenten, Heterogenitat innerhalb der Komponenten und vor allem Fehlervarianz^^"^ Der OLS-Algorithmus ist also fiir die im Rahmen dieser Studie simulierten Falle nicht voUkommen robust gegeniiber der Beriicksichtigung eines irrelevanten Merkmals. Bei der LCA kann als einzigem Verfahren fiir diesen Faktor ein signifikanter Mittelwertunterschied berechnet werden/^^ Hinsichtlich der Aufdeckung der Nutzenstruktur schneidet die LCA schlechter als die anderen wahlbasierten Verfahren ab, was als erstes Anzeichen dafur zu interpretieren ist, dass eine Uberanpassung an die beobachteten Bewertungen erfolgt/^^ Besonders deutlich wird die schlechtere Performance bei einer groBeren Fehlervarianz, was den Eindruck verstarkt, dass eine Uberanpassung in Folge des Zielkriteriums einer moglichst guten Reproduktion der individuellen Werte vorliegt. Auch bei der Prognose individueller Kaufentscheidungen mit dem Anteil der korrekt vorhergesagten F/r5/-C/zo/ce-Entscheidungen verdichtet sich dieses Bild, denn auch hier liefert die LCA schlechtere Ergebnisse als die anderen metrischen Ansatze, wobei wiederum die Hohe der Fehlervarianz einen signifikanten Einflussfaktor darstellt. Bei den aggregierten Wahlanteilen liegt die Prognosegiite der LCA deutlich hinter der LHBCA ungefahr auf einem Niveau mit der der LFMCA, aber deutlich vor den wahlbasierten Verfahren. Limit-Finite-Mixture-Conjoint-Analyse (LFMCA) Die Anpassungsgiite der LFMCA ist deutlich schlechter als die Anpassungsgtite der anderen wahlbasierten Ansatze. Allerdings ist zu beachten, dass das BestimmtheitsmaB durch die beiden Heterogenitatsfaktoren stark beeinflusst wird. Falls die Population aus verschiedenen Segmenten besteht und falls die Heterogenitat innerhalb der Komponenten nur gering ist, liegt die Anpassungsgtite deutlich hoher.
Eigentlich diirfte sich die Anpassungsgiite bei unterschiedlicher Heterogenitat der Stichprobe nicht verandern. Allerdings hat die Konstniktion von unterschiedlichen Heterogenitaten in der Stichprobe auch einen Einfluss auf die individuelle Verteilung der Nutzenparameter, die Einfluss auf die Mittelwerte haben kann. Bei der Studie von Gensler ist dies der Fall fiir den Faktor Ahnlichkeit der Komponenten. Vgl. Gensler, S. (2003), S. 247. Allerdings ist dabei zu beriicksichtigen, dass der Standardfehler fiir die Korrelation, und damit die Anpassung der Varianzanalyse fiir die LCA, deutlich niedriger ist als fiir die anderen Verfahren, so dass trotz nur geringer Mittelwertunterschiede schnell signifikante Unterschiede zu beobachten sind. Elrod/Hdubel erwahnen bereits die geringe Stabilitat von individuellen Nutzenschatzungen, ohne diese jedoch quantitativ zu belegen, vgl. Elrod, T./Haubl, G. (1997), S. If.
201
Bei der Korrelation zwischen den wahren und den berechneten Nutzenwerten liegt die LFMCA nur marginal hinter der LHBCA. Wiederum haben die beiden Heterogenitatsfaktoren einen signifikanten Einfluss die Ergebnisse. Im Falle dreier Segmente und einer geringeren Heterogenitat innerhalb der Komponenten liefert die LFMCA bessere Werte als die LHBCA. Insgesamt haben die beiden Heterogenitatsfaktoren einen bedeutenden Einfluss auf die verschiedenen GiitemaBe der LFMCA, wahrend aufgrund der Kombination von individuellen und aggregierten Daten eine geringe Sensitivitat gegeniiber einer groBeren Fehlervarianz festzustellen ist. Limit-Hierarchical-Bayes-Conjoint-Analyse (LHBCA) Die LHBCA erzielt eine deutlich schlechtere Anpassung als die LCA, dafiir aber eine leicht bessere als die LFMCA, wobei einschrankend anzumerken ist, dass dies nur fiir eine Population gilt, bei der keine verschiedenen Komponenten vorliegen und die innerhalb der Komponenten eine geringere Varianz aufweist. Ansonsten sind die Werte fur die LFMCA besser. Die LHBCA deckt die Nutzenstruktur am besten von den verglichenen Verfahren auf und prognostiziert dariiber hinaus im Vergleich zu den anderen Verfahren mit dem geringsten Fehler aggregierte Wahlanteile. Auf individuellem Niveau liefert dagegen die LFMCA bessere Ergebnisse als die LHBCA. Insgesamt sind die Ergebnisse relativ sensibel gegeniiber einer groBeren Fehlervarianz. Eine Beriicksichtigung von 300 statt 75 Auskunftspersonen fiihrt abgesehen von der Anpassungsgiite zu besseren GiitemaBen, wobei die Unterschiede allerdings nur fiir die Aufdeckung der wahren Nutzenstruktur und fiir die Betrachtung aggregierter Wahlanteile relevant sind. Bei der individuellen Prognose von Kaufentscheidungen kann die LFMCA im Vergleich zu den anderen Verfahren den groBten Anteil an First-Choice-Entscheidungen erklaren. Auf aggregiertem Niveau dagegen bleiben die Werte deutlich hinter den Werten fur die LHBCA zurOck. Choice-Based-Conjoint-Analyse Die Choice-Based-Conjoint-Analyse zeigt unter den wahlbasierten Verfahren die schlechteste Anpassungsgiite. Hinsichtlich der Aufdeckung der Nutzenstruktur liefert sie allerdings leicht bessere Werte als die LCCA, wahrend die Prognosen der individuellen First-Choice-Anteile bzw. Auswahlwahrscheinlichkeiten fur die First-Choice-Alternative sowie auf aggregiertem Niveau fur Wahlanteile die schlechtesten Werte alle Verfahren darstellen. Allerdings ist dabei zu berucksichtigen, dass die Ergebnisse der CBCA sehr stark von der Heterogenitat innerhalb der Population abhangen und im Falle nur einer Komponente bzw. einer geringeren Heterogenitat innerhalb der Komponenten deutlich bessere Werte liefert, als der Gesamtmittelwert ausdriickt. Die CBCA erweist sich als relativ robust gegeniiber einer groBeren Fehlervarianz, die nur bei den erklarten First-Choice-Entscheidungen und bei dem RMSE der aggregierten Wahlanteile zu einer signifikanten Verschlechterung der Ergebnisse 202
fuhrt. Latent-Class-Con]oint-Analyse (LCCA) Die LCCA zeigt eine relative schlechte Anpassung an die beobachteten Werte, wobei die Werte gerade gegeniiber einer hoheren Fehlervarianz sensibel zu sein scheinen. Wie die Grundannahmen des Verfahrens vermuten lassen, haben dariiber hinaus die Anzahl der Komponenten und die Heterogenitat innerhalb der Komponenten ebenfalls einen signifikanten Einfluss auf die Anpassung. Die relativ schlechte Anpassung bei einer groBen Fehlervarianz hat aber nur bei der erklarten First-Choice-Wahrscheinlichkeit und den aggregierte Wahlanteilen einen signifikanten Einfluss auf die Ergebnisse. Gerade ein Vergleich mit den anderen Verfahrensvarianten, insbesondere mit den guten Anpassungswerten fiir die LCCA, deutet darauf hin, dass die Beriicksichtigung von Populationswerten bei der Schatzung der individuellen Nutzenparametem eine Uberanpassung an die individuellen Werte zumindest teilweise verhindert. Hinsichtlich der Aufdeckung der Nutzenstruktur bleibt die LCCA deutlich hinter den metrischen Verfahren, aber auch hinter der HBCA zuriick. Da die LCCA aber einen hoheren Mittelwert als alle anderen Verfahren fiir die Prognose individueller FC-Anteile aufweist, scheint dies u.a. auf die versuchsaufbauspezifische Benachteiligung der wahlbasierten Verfahren zuriickzuftihren zu sein. Bei der erklarten Wahrscheinlichkeit der First-Choice-Entscheidungen bleiben die Werte der LCCA allerdings ebenso wie bei der Prognose aggregierter Wahlanteile deutlich hinter denen der HBCA zuriick, was bei einer genaueren Analyse darauf zuriickzufiihren ist, dass sie weniger extreme Werte als die HBCA ermittelt und daher, trotz einer hohen individuellen FC-Trefferquote, nur eine geringere FC-Wahrscheinlichkeit bzw. ebenfalls extreme aggregierte Wahlanteile nur schlecht erklaren kann. Hierarchical-Bayes-Conjoint-Analyse (HBCA) Die Anpassungsgiite der HBCA ist deutlich hoher als bei den anderen wahlbasierten Verfahren, was damit zu begriinden ist, dass gerade bei geringer Fehlervarianz die Bewertungen der Gesamtpopulation eine eher geringe Bedeutung fiir die Ermittlung der individuellen Werte haben. Die Mittelwerte der logarithmierten Likelihoods unterscheiden sich in Abhangigkeit der Fehlervarianz signifikant. Ebenso spielt bei einer geringeren Anzahl an simulierten Probanden die individuelle Bewertung im Vergleich zur Bewertung der Gesamtpopulation eine groBere Rolle, was sich ebenfalls in einer signifikanten Mittelwertdifferenz niederschlagt. Hinsichtlich der Aufdeckung der Nutzenstruktur liefert die HBCA unter den wahlbasierten Verfahren die hochste Korrelation. Die Mittelwerte sind hoher als fUr die LCA und liegen nicht allzu weit unter denen der LFMCA und der LHBCA. Beriicksichtigt man, dass der wahlbasierte Ansatz zur Analyse wahrer Kaufentscheidungen realitatsnaher ist und wohlmoglich mit einem geringeren kognitiven Aufwand verbunden ist, konnen daraus resultierende Vorteile eventuell die in der vorliegenden Simulationsstudie abgebildeten rechentechnischen Nachteile kompensieren. Die vorliegenden Ergebnisse zeigen, dass die HBCA grundsatzlich 203
durchaus zur Aufdeckung der Nutzenstruktur geeignet erscheint. Wahrend bei der Anpassungsgiite noch hohere Werte fur eine geringere Anzahl an Auskunftspersonen zu beobachten waren, ist dieser Wert bei der Korrelation fiir einen hoheren Stichprobenumfang groBer, was auf eine Uberanpassung der beobachteten Werte bei geringerem Stichprobenumfang hindeutet. Die Prognosen individueller First-Choice-Anteile sind bei der HBCA schlechter als bei der LCCA sowie den metrischen Ansatzen, LHBCA und LPMCA. Allerdings ist die erklarte Wahrscheinlichkeit fur die FC-Entscheidungen hoher als bei der LCCA. Hinsichtlich der Prognose aggregierter Wahlentscheidungen ist die HBCA den anderen wahlbasierten Verfahren iiberlegen, weist aber deutlich hohere Fehlerwerte auf als die metrischen Ansatze, insbesondere als die LHBCA. AuBerdem scheint die HBCA relativ sensibel gegeniiber der Aufnahme eines irrelevanten Merkmals in die Untersuchung zu sein. Sowohl bei der Aufdeckung der Nutzenstruktur als auch bei der Prognose von Wahlanteilen kann hier eine signifikante Mittelwertdifferenz beobachtet werden. Abbildung 60 gibt einen zusammenfassenden Uberblick iiber die zentralen verfahrensspezifischen Ergebnisse der Monte-Carlo-Simulation.
204
Verfahren LCA
LFMCA
LHBCA
CBCA
LCCA
HBCA
zentrale Ergebnisse • Hohe Anpassungsgiite an die beobachteten Daten • Signifikante Mittelwertunterschiede fur irrelevantes Merkmal, Anzahl der Komponenten, Heterogenitat innerhalb der Komponenten und Fehlervarianz • Schlechteres Abschneiden hinsichtlich der Aufdeckung der Nutzenstruktur und Prognose individueller Kaufentscheidungen • Offenbar tJberanpassung • Geringe Anpassungsgiite • Gute Aufdeckung der Nutzenstruktur • Unterschiede insbesondere durch Homogenitatskriterien hervorgerufen • Beste Prognose individueller Kaufentscheidungen • Relative geringe Anpassungsgiite • Beste Aufdeckung der Nutzenstruktur und Prognose aggregierter Kaufentscheidungen • Relativ gute Prognose individueller Kaufentscheidungen • Relativ robust gegeniiber hoher Fehlervarianz • Geringe Anpassungsgiite 1 • Schlechte individuelle und aggregierte Prognose • Starker negativer Einfluss einer groBen Heterogenitat • Relativ geringe Anpassungsgiite und Aufdeckung der Nutzenstruktur 1 • Gute individuelle Prognose • Schlechte aggregierte Prognose • Hohe Sensibilitat gegeniiber Fehlervarianz und Heterogenitat • Hohere Anpassungsgiite als bei den anderen wahlbasierten Ansatzen 1 • Relativ gute Aufdeckung der Nutzenstruktur • Relativ schlechte Prognose individueller First-Choice-Entscheidungen • Beste Werte fiir aggregierte Prognose unter den wahlbasierten Ansatzen • Relativ sensibel gegeniiber irrelevantem Merkmal
Abbildung 60: Zusammenfassung der zentralen verfahrensspezifischen Ergebnisse
205
6 Zusammenfassung und Ausblick Die Conjoint-Analyse ist ein weit verbreitetes Marketing-Instrument, das sowohl in der wissenschaftlichen Forschung als auch in der betrieblichen Praxis in den vergangenen Jahrzehnten eine groBer werdende Bedeutung erlangt hat. Hinsichtlich des Einsatzgebietes der Conjoint-Analyse konnen verschiedene Bereiche unterschieden werden, die sich jedoch unter der Annahme, dass auch fur die Neuproduktplanung nicht nur die reinen Praferenzstrukturen, sondem dariiber hinaus das resultierende Absatzvolumen von maBgeblichem Interesse ist, auf die beiden Hauptgebiete Marktsegmentierung und, mit einem hoherem Bedeutungsgewicht, Analyse von Kaufentscheidungen eingrenzen lassen. Ausgehend von der TCA sind zahlreiche Weiter- und Neuentwicklungen von Verfahrensvarianten entstanden, wobei es gerade Praktikem aufgrund der Geschwindigkeit der Entwicklung schwer fallen diirfte, die verschiedenen Ansatze zu verfolgen und jeweils den geeignetsten auszuwahlen. Verhaltenswissenschaftliche Grundlage der Conjoint-Analyse ist die Praferenz- bzw. die Nutzentheorie. Grundsatzlich sind Praferenzen bzw. Nutzenwerte die Messobjekte von ConjointAnalysen. Zahlreiche Studien belegen jedoch, dass Praferenzen als Grundlage fiir die Prognose von Kaufentscheidungen nicht unproblematisch sind, da kein deterministischer Zusammenhang zwischen Praferenzen und Kaufentscheidung besteht. Insbesondere erfolgt jiingst eine Abkehr von der klassischen Annahme, dass Praferenzen den Auskunftspersonen inharent und damit zeitlich weitestgehend stabil sind. Vielmehr ist davon auszugehen, dass Konsumenten in den konkreten Entscheidungssituationen ihre Praferenzen konstruieren. Diese neue Sichtweise stellt die experimentelle Praferenzmessung vor eine neue Herausforderung und ist Anlass dafiir, im Rahmen des Grundlagenteils dieser Arbeit die Diskrepanz zwischen Praferenzkonstrukt und Kaufentscheidung genauer zu untersuchen. Es werden mit dem sozialen Kontext, den Charakteristika des Entscheiders sowie den Charakteristika der Entscheidungssituation drei tibergeordnete Klassen von Einflussfaktoren fiir das Zustandekommen von Praferenzen unterschieden. Insbesondere kann gezeigt werden, dass gerade die Art der Kaufentscheidungssituation einen maBgeblichen Einfluss auf die Bestimmtheit der PraferenzKaufentscheidungs-Beziehung hat. In Situationen mit ausgepragter kognitiver Komponente, also in extensiven oder limitierten Kaufentscheidungssituationen, scheint die Beziehung relativ deterministisch zu sein, wahrend sie in Situationen mit weniger stark ausgepragter kognitiver Komponente, also in tendenziell impulsiven oder habitualisierten Kaufentscheidungssituationen, weitaus weniger bestinmit. Dariiber hinaus offenbart die Analyse des Praferenzkonstruktes, dass unter anderem auch die Durchfiihrung eines Experimentes zur Messung von Praferenzen einen Einfluss auf die Praferenzstruktur und damit auf die Kaufentscheidung haben kann. Historischer Ausgangspunkt und methodisches Fundament, auch fiir viele Aspekte modemer Verfahrensvarianten der Conjoint-Analyse, ist die TCA. Dem Anwender stehen beim Einsatz der TCA zahlreiche Gestaltungsparameter offen, die zumeist ebenfalls auf die Weiterentwicklungen der Conjoint-Analyse iibertragbar sind. Bereits an dieser Stelle wird deutlich, dass sich 207
die Ergebnisse von Vergleichen zwischen verschiedenen Conjoint-Ansatzen nicht unmittelbar pauschal auf die gesamte Verfahrensgruppe iibertragen lassen, sondem dass eine differenziertere Betrachtung notig ist. Vor allem wird aber deutlich, dass die TCA nicht in der Lage ist, Nicht-Kaufe zu modellieren, obwohl in realen Kaufentscheidungssituationen Nicht-Kaufe haufig von besonderer Relevanz sind. Aus der Menge der verschiedenen Conjoint-Modelle werden diejenigen ausgewahlt, die Kaufentscheidungen abbilden konnen. Dazu wird zuerst die LCA vorgestellt, bei der es sich um eine echte Modifikation der TCA handelt. Mit Hilfe der so genannten Limit-Card werden diejenigen Altemativen, fiir die die Auskunftsperson eine prinzipielle Kaufbereitschaft aufweist, getrennt von denjenigen, die sie unter keinen Umstanden kaufen wiirde. Auf diese Art wird das ordinal- bzw. intervallskalierte Skalenniveau auf ein verhaltnisskaliertes Niveau angehoben, was einen direkten Einfluss auf die abgeleiteten Auswahlwahrscheinlichkeiten hat. Bei den wahlbasierten Ansatzen der Conjoint-Analyse handelt es sich um eine Kombination der experimentellen conjoint-analytischen Datenerhebung und des insbesondere in der Volkswirtschaft verbreiteten Discrete-Choice-Ansatzes, bei dem sich die Auskunftsperson zwischen verschiedenen Altemativen fur eine bzw. die Nicht-Kauf-Option entscheiden muss. Daruber hinaus unterscheiden sich wahlbasierte Ansatze der Conjoint-Analyse vor allem darin, dass der Ableitung der Nutzenwerte ein Zufallsnutzenmodell und damit ein (teil-)probabilistischer Zusanmienhang zwischen den beriicksichtigten Einflussfaktoren und den berechneten Auswahlwahrscheinlichkeiten zugrunde liegt. Die wahlbasierten Ansatze existieren ihrerseits in verschiedenen Spielarten, wobei hier die Weiterentwicklungen vomehmlich an einer effizienteren Auswertung der Daten ansetzten. Ausgangspunkt ist die CBCA, die aufgrund der im Vergleich zum metrischen bzw. ordinalen Datenerhebungsansatz der LCA (TCA) geringeren Informationsdichte von diskreten Wahlentscheidungen einheitliche Nutzenparameter fur alle Auskunftspersonen der Gesamtpopulation bestimmt. Unter der Annahme vollkonmien homogener Praferenzen werden alle Auswahlentscheidungen als Bewertungen einer reprasentativen Auskunftsperson interpretiert. Allerdings kann diese Vorgehensweise zu Verzerrungen fiihren, falls sich abweichend von der Grundpramisse die Praferenzstruktur fur die Auskunftspersonen der Gesamtpopulation systematisch unterscheidet. Es konnen mit der LCCA und der HBCA zwei Ansatze unterschieden werden, die sich insbesondere durch die Annahme iiber die Art der Praferenzheterogenitat unterscheiden. Die LCCA gehort zur Gruppe der I^-Ansatze, die auf der Grundannahme basieren, dass sich innerhalb der Gesamtpopulation verschiedene Komponenten mit vollkommen homogenen Praferenzstrukturen unterscheiden lassen. In einem simultanen Prozess schatzt die LCCA ausgehend von den individuellen Auswahlentscheidungen einerseits die Nutzenparameter fiir die verschiedenen Komponenten und andererseits die Wahrscheinlichkeit fiir die Zugehorigkeit der einzelnen Befragten zu den verschiedenen Komponenten. Zielkriterium ist es dabei.
208
unter der Pramisse einer vom Anwender vorzugebenden Komponentenzahl die Nutzenparameter so zu schatzen, dass die Wahrscheinlichkeit fiir die beobachteten Auswahlentscheidungen unter Zugrundelegung des multinominalen Logit-Modells maximiert wird. Bei der so genannten Maximum-Likelihood-Schatzung handelt es sich um einen iterativen Prozess, bei dem die Individualinformationen mit Informationen iiber die Gesamtpopulation verkniipft werden. Durch eine Gewichtung der Nutzenparameter mit den individuellen Segmentzugehorigkeiten lassen sich aus den Segmentnutzenparametem individuelle Nutzenparameter ableiten. Im Gegensatz zur Annahme einer diskreten Verteilung der Praferenzheterogenitat, wie sie bei der LCCA vorliegt, basiert die HBCA auf der Grundannahme, dass die Nutzenparameter einer stetigen Verteilung folgen, wobei in der Regel eine Normalverteilung angenonmien wird. Diese Annahme stellt die iibergeordnete Ebene eines hierarchischen Modells dar. Auf der untergeordneten Ebene wird das muUinominale Logit-Modell zur Abbildung der individuellen Auswahlentscheidungen defmiert. Grundlage der Schatzung der Nutzenparameter bildet bei der HBCA das Theorem von Bayes, das eine Aktualisierung bei einer Veranderung der Informationen ermoglicht. Der so genannte Metropolis-Hastings-Algorithmus verkniipft mit b, p und r verschiedene individuelle und populationsbezogene Parameter miteinander und berechnet jeweils einen Parameter unter Zugrundelegung der jeweils aktualisierten Werte der verbleibenden Parameter neu. Der dargestellte iterative Prozess konvergiert fiir eine groBe Anzahl an Wiederholungen unter der Annahme der Normalverteilung gegen die tatsachliche Verteilung der Nutzenparameter. Auf diese Art und Weise konnen auf Basis von Informationen iiber das Wahlverhalten der einzelnen Auskunftsperson und der Gesamtpopulation individuelle Nutzen werte geschatzt werden. Mit dem metrischen ¥M- und dem metrischen HB-Ansatz existieren zwei Ansatze, die auf metrische Daten angewendet werden konnen. Allerdings werden sie in der MarketingLiteratur bislang lediglich auf ordinale oder metrische Daten ohne Beriicksichtigung von Nicht-Kaufen angewendet. Durch eine Integration der Limit-Card in die beiden Verfahrensvarianten werden mit der LFMCA und der LHBCA zwei neue Conjoint-Modelle entwickelt: Beide Verfahren stellen dieselben Anforderungen an die Daten wie die traditionelle LCA, greifen aber jeweils auf einen anderen Losungsalgorithmus zuriick. Fiir die LFMCA bedeutet dies, dass zusatzlich Informationen iiber die Zuordnung zu Komponenten ermittelt werden. Individuelle Nutzenwerte lassen sich wie bei der LCA aber ebenfalls durch die Gewichtung der Segmentnutzenparameter mit den individuellen Segmentzugehorigkeiten ermitteln. Der LHBCA liegt die Pramisse zugrunde, dass die Parameter in der Grundgesamtheit normalverteilt sind. Mit Hilfe des Metropolis-Hastings-Algorithmus werden in einem iterativen Prozess die individuellen Nutzenparameter geschatzt. Zwar ist die Informationsdichte bei ordinalen bzw. metrischen Daten grundsatzlich hoher als bei Wahlentscheidungen, allerdings ware es durchaus wiinschenswert, die Anzahl der Stimuli zu reduzieren. Dies ist bei beiden Verfahren grundsatzlich moglich, da sie zur Schatzung der individuellen Nutzenfunktionen neben den
209
individuellen Bewertungen noch Informationen der Gesamtpopulation verwenden. Daneben erlaubt diese Vorgehensweise, dass Fehler bei der Bewertung nicht reproduziert werden. Die Darstellung der verschiedenen Conjoint-Ansatze umfasst bereits einige Argumente, die fiir den Einsatz einer bestimmten Verfahrensvariante in einer bestimmten Umweltsituation sprechen. Allerdings konnen daraus nur begrenzt Aussagen abgeleitet werden. Eine kurze Skizzierung verschiedener GiitemaBe zeigt, dass durch qualitative Argumente lediglich Aussagen liber die inhaltliche Validitat moglich sind, quantitative Validitatskonstrukte aber aussagekraftiger sind. Fiir eine quantitative Gegeniiberstellung stehen prinzipiell mit dem empirischen Vergleich und einer systematischen Monte-Carlo-Simulation zwei Ansatze zur Wahl. Ein tJberblick iiber empirische Vergleiche von Conjoint-Verfahrensvarianten zeigt, dass der empirische Vergleich nur fiir die jeweiligen Umweltbedingungen Giiltigkeit hat. Die haufig dennoch getroffenen pauschalen Aussagen sind insbesondere vor dem Hintergrund der zahlreichen in der vorliegenden Arbeit beschrieben Umweltbedingungen und verfahrensbezogenen Gestaltungsspielraume durch den Anwender haufig nicht haltbar. Es kann die Notwendigkeit eines systematischen Vergleichs abgeleitet werden. Die bisherigen empirischen Vergleiche lassen sich schon aufgrund der Tatsache, dass zwei Verfahren in dieser Arbeit neu entwickelt werden, nicht zu einer Metaanalyse zusammenfiigen. Daneben besteht die Moglichkeit, Verfahrensvergleiche mit Hilfe simulierter Daten durchzufuhren. In der Marketing-Literatur sind einige dieser Monte-Carlo-Studien zum Vergleich von verschiedenen Conjoint-Verfahren zu fmden, allerdings legen sie allsamt einen anderen Schwerpunkt, beriicksichtigen andere Verfahrensvarianten und fokussieren sich zumeist auf den Einsatz der Conjoint-Analyse zur Marktsegmentierung bzw. zur Erfassung von Heterogenitat. Aus diesem Grunde wird die Arbeit um einen praktischen Teil erganzt, der eine auf die Anforderungen der Analyse von Kaufentscheidungen zugeschnittene Simulationsstudie umfasst. Dazu werden zuerst verschiedene GiitemaBe ausgewahlt, die vor dem Hintergrund der Analyse von Kaufentscheidungen eine besondere Eignung haben. AnschlieBend wird diskutiert, welche Einflussfaktoren prinzipiell verandert werden konnten und anschliefiend mit der Beriicksichtigung eines irrelevanten Merkmals, der Anzahl der Befragten, der Anzahl der Komponenten in der Gesamtpopulation, der Verschiebung des Basisnutzens, der Heterogenitat innerhalb der Komponenten und der Fehlervarianz sechs verschiedene Einflussfaktoren ausgewahlt, die als unabhangige Variablen der Monte-Carlo-Studie dienen. Aufbauend auf der Darstellung der verschiedenen Verfahren und den Erkenntnissen der empirischen und simulativen Vergleichsstudien werden Hypothesen iiber den Einfluss einer Variation verschiedener Faktoren auf die verschiedenen GiitemaBe abgeleitet. Eine genaue Darstellung der Simulation soil die Erklarungskraft der Monte-Carlo-Simulation verdeutlichen. Dazu wird nicht nur genau beschrieben, wie die artifiziellen Nutzenwerte simuliert werden, sondem auch ausfiihrlich dargelegt, wie die verschiedenen eingesetzten Verfahren parametrisiert werden.
210
Mit der LCA, der LFMCA und der LHBCA werden drei metrische und mit der CBCA, der LCCA und der HBCA drei wahlbasierte Verfahren fur den Vergleich ausgewahlt. Den metrischen Verfahren liegen simulierte Bewertungen von 18 Stimuli auf einer 100-Punkte-Skala und einer anschlieBenden Trennung der prinzipiell kaufenswerten, von den grundsatzlich nicht-kaufenswerten Altemativen mit Hilfe der Limit-Card fiir die einzelnen Befragten zugrunde, wahrend fiir die wahlbasierten Ansatze 18 Choice-Sets mit jeweils drei Produktaltemativen sowie der Nicht-Kaufoption simuliert werden. Da nicht ausgeschlossen werden kann, dass sich bei realen Erhebungen die beiden Erhebungsansatze hinsichtlich der an die Befragten gestellten Anspriiche unterscheiden, fmdet zunachst eine Gegenuberstellung der jeweils drei Verfahren einer Gruppe statt, bevor im Anschluss bei Verwendung desselben GiitemaBes fiir beide Gruppen ein iibergreifender Vergleich zwischen den Gruppen gezogen wird. Zur systematischen Auswertung der insgesamt 384 verschiedenen Monte-Carlo-Simulationen mit vier bzw. fiinf GiitemaBen werden mehrfaktorielle Varianzanalysen verwendet. Fiir die Anpassungsgiite wird deutlich, dass die individuelle LCA die beobachteten Werte besser reproduziert als die LFMCA und die LHBCA, die bei der Schatzung individueller Werte sowohl die Beurteilungen der einzelnen Auskunftsperson als auch der gesamten Stichprobe verwenden. Bei den wahlbasierten Verfahren zeigt sich, dass die HBCA, gerade fur den Fall, dass nur 75 Auskunftspersonen abgebildet werden, eine bessere Anpassungsgiite liefert. Wahrend die Ergebnisse der HBCA bei den restlichen Gutemaikn ebenfalls eine hohe Giite aufweisen, scheint bei der LCA eine Uberanpassung an die beobachteten Werte zu erfolgen, die einen negativen Einfluss auf die Aufdeckung der Nutzenstruktur bzw. auf die Prognose von nicht bei der Schatzung der Nutzenparameter verwendeten Stimuli hat. Insgesamt liefem die metrischen Ansatze validere Ergebnisse als die wahlbasierten, was mit der hoheren Informationsdichte bei der Datenerhebung zu begrunden ist. Die CBCA zeigt sich, wie die restriktiven Annahmen bzgl. der vollkommenen Praferenzheterogenitat innerhalb der Population vermuten lassen, als sensibel gegentiber einer Veranderung der Heterogenitatsfaktoren, also der Anzahl der Komponenten und der Heterogenitat innerhalb der Komponenten. Ein VerstoB gegen die Homogenitatspramisse und die Existenz nur einer Komponente in der Population fiihrt bei der LCCA zu deutlich schlechteren Ergebnissen. Allerdings scheinen die Aufdeckung der Nutzenstruktur und die Prognose von Kaufentscheidungen, mit Ausnahme der prognostizierten First-Choice-Wahrscheinlichkeit, relativ robust gegentiber der hoheren Fehlervarianz in Hohe von 3,290 zu sein. Insgesamt die besten Ergebnisse der wahlbasierten Verfahren liefert jedoch die HBCA, so dass hier offensichtlich nicht von einer Uberanpassung an die beobachteten Wahlentscheidungen ausgegangen werden kann.
211
Die Beriicksichtigung eines irrelevanten Merkmals fuhrt tendenziell zu schlechteren Giitema6en, allerdings sind die zu beobachtenden Mittelwertunterschiede haufig nicht signifikant. In der vorliegenden Simulationsstudie wurden insgesamt fiinf verschiedene GiitemaBe verwendet. Ftir einige der untersuchten Faktoren sind jedoch bestimmte Giitemafie problematisch und daher mit Vorsicht zu interpretieren. So fuhrt zwar eine Verschiebung des Basisnutzens bei den wahlbasierten Ansatzen einerseits zu einer geringeren Informationsbasis iiber die verschiedenen zur Auswahl stehenden Altemativen, andererseits steigt aber auch der Anteil der leichter zu prognostizierenden Nicht-Kaufentscheidungen bei Anwendung der wahlbezogenen GiitemaBe/^^ Da die beiden Effekte nicht eindeutig zu separieren sind, konnen die Ergebnisse nur vage interpretiert werden. Insbesondere hilft hier der Vergleich zu den metrischen Verfahren, bei denen aufgrund der Bewertung aller Altemativen des reduzierten Designs eine Basisnutzenverschiebung keine Verringerung der Informationsbasis bewirkt. Auch das haufig verwendete GiitemaB RMSE fur aggregierte Wahlanteile ist hinsichthch des Vergleichs verschiedener Heterogenitatsgrade problematisch. Es konnte gezeigt werden, dass der RMSE im Falle groBerer Heterogenitat bei gleicher individueller Prognosegiite steigt. Die vorliegende Monte-Carlo-Studie zeigt groBen Forschungsbedarf hinsichthch des Einsatzes von GiitemaBen zum Vergleich verschiedener Verfahren. Dabei soUte zudem die Definition der zu prognostizierenden Holdout-Choice-Sets eingeschlossen werden. Die vorliegende Arbeit beriicksichtigt die wichtigsten Faktoren vorangegangener MonteCarlo-Studien, wobei es sich insbesondere um Heterogenitatsfaktoren handelt. Daruber hinaus wird mit der Anzahl der Befragten ein Faktor, der in friiheren Studien als eher sekundar identifiziert wurde, in extremeren Auspragungen emeut in die Studie aufgenommen. Zudem werden mit der Verwendung eines irrelevanten Merkmals und der Verschiebung des Basisnutzens zusatzliche Faktoren beriicksichtigt. Die Darstellung zahlreicher weiterer, moglicherweise relevanter Faktoren im Verlauf der Arbeit verdeutlicht, dass es sich dabei nur um einen Anfang handeln kann. Bei der vorliegenden Simulationsstudie handelt es sich um die erste, die explizit Nicht-Kaufe abbildet, was dazu fuhrt, dass die Ergebnisse vorangegangener Studien nicht unmittelbar zu iibertragen sind. AuBerdem werden neue Verfahrensvarianten entwickelt, die einer weiteren simulativen Uberpriifung bediirfen. Die Ergebnisse der vorliegenden Simulationsstudie sollten deshalb Ausgangspunkt fiir weitere Studien sein. Trotz zahlreicher Vorztige simulativer Studien hinsichthch einer systematischen Analyse von komplexen Zusammenhangen darf zudem nicht iibersehen werden, dass Monte-Carlo-Simulationen Unterschiede hinsichthch psychologischer Prozesse im Rahmen von Bewertungen durch die Auskunftspersonen nicht erklaren konnen. Eine hohe Giite von simulierten Ergebnissen ist zwar eine notwendige Bedingung, jedoch keine hinreichende Bedingung fiir eine hohe Giite bei realen Conjoint-Analysen. Es wird deutlich, dass die simulativen Studien um empirische erganzt werden sollten. Da jedoch der Ressourceneinsatz bei empirischen Erhebungen wesentlich ^^^ Bei den wahlbezogenen Ansatzen zahlen mit Ausnaiime der Korrelation zwischen beobachteten und wahren Nutzenparameter alle beriicksichtigten GUtemaBe zur Gruppe der wahlbasierten MaBe.
212
groBerer ist, konnen nur gezielt ftir ausgewahlte Situationen empirische Vergleiche durchgefiihrt werden. AuBerdem ist zu berucksichtigen, dass sich bestimmte Umweltbedingungen in der Realitat nur schwer nachbilden lassen. Es sollten aus diesem Grund besonders Falle empirisch iiberpruft werden, bei denen die ermittelten GiitemaBe stark divergieren und eine Interaktion mit psychologischen Faktoren bei der Bewertung zu vermuten ist. In der vorliegenden Studie divergieren die Ergebnisse fiir wahlbasierte und metrische Ansatze deutlich. Dartiber hinaus sind Unterschiede hinsichtlich der Realitatsnahe ftir diese beiden Grundansatze der Datenerhebung nicht auszuschlieBen. Allerdings kann gezeigt werden, dass mogliche Verzerrungen bei metrischen Ansatzen mit Hilfe einer Reskalierung auf Grundlage weniger zusatzlich erhobener Auswahlentscheidungen behoben werden konnen.
213
Literaturverzeichnis Acito, F. (1977), An Investigation of some Data Collection Issues in Conjoint Measurement, in: Greenberg, B.A./Bellenger, D.N. (Hrsg.), Contemporary Marketing Thought, Chicago 1977, S. 82-85. Addelman, S. (1962a), Symmetrical and Asymmetrical Fractional Factorial Plans, in: Technometrics. Vol. 4, 1962, S. 47-58. Addelman, S. (1962b), Orthogonal Main-Effect Plans for Asynmietrical Factorial Experiments, in: Technometrics, Vol. 4, 1962, S. 21-46. Adkins, L (1997), A Monte Carlo Study of a Generalized Maximum Entropy Estimator of the Binary Choice Model, in: Advances in Econometrics, Vol. 12, 1997, S. 183-197. Agarwal, M.K. (1988), A monte carlo study investigating configuration recovery in adaptive conjoint analysis, in: Frazier, G.et al (Hrsg.), 1988 AMA Educators'Proceedings: Efficiency and effectiveness in marketing, Chicago, IL 1988, S. 292-296. Agarwal, M.K. (1983), A monte carlo study of ties in configuration recovery using conjoint analysis, in: Murphy, P.E.et al. (Hrsg.), 1983 AMA Educators' Proceedings, Chicago, IL 1983, S. 447-451. Agarwal, M.K./Green, P.E. (1991), Adaptive Conjoint Analysis versus Self Explicated Models: Some Empirical Results, in: International Journal of Research in Marketing, Vol. 8, 1991, S. 141-146. Ajzen, I. (1985), From Intentions to Actions: A Theory of Planned Behavior, in: Kuhl, J./Beckmann, J. (Hrsg.), Action Control: From Cognition to Behavior, Berlin 1985, S. 11-39. Akaah, I.P./Korgaonkar, P.K. (1983), An Empirical Comparison of the Predictive Validity of Self-Explicated, Huber-Hybrid, Traditional Conjoint, and Hybrid Conjoint Models, in: Journal of Marketing Research, Vol. 20, 1983, S. 187-197. Akaike, H. (1974), A New Look at Statistical Model Identification, in: IEEE Transactions on Automatic Control, AC-19, 1974, S. 716-723. Alters, S./Brockhoff, K. (1985), Die Giiltigkeit der Ergebnisse eines Testmarktsimulators bei unterschiedlichen Daten und Auswertungsmethoden, in: Zeitschrift fiir betriebswirtschaftliche Forschung, 37. Jg., H. 3, 1985, S. 191-217. Albrecht, J. (2000), Praferenzstrukturmessung, Frankfurt a.M. 2000. Allenby, G./Rossi, P.E. (1991), There Is No Aggregation Bias: Why Macro Logit Models Work, in: Journal of Business & Economic Statistics, Vol. 9, 1991, S. 1-14. Allenby, G.M./Arora, N./Ginter, J.L. (1995), Incorporating Prior Knowledge into the Analysis of Conjoint Studies, in: Journal of Marketing Research, Vol. 32, 1995, S. 152-162. Allenby, G.M./Arora, N./Ginter, J.L. (1998), On the Heterogeneity of Demand, in: Journal of Marketing Research, Vol. 35, 1998, S. 384-389. Allenby, G.M./Ginter, J.L. (1995), Using extremes to design products and segment markets, in: Journal of Marketing Research, Vol. 32, No. 4, 1995, S. 392-403. 215
Allenby, G.M./Rossi, P.E. (1999), Marketing models of consumer heterogeneity, in: Journal of Econometrics, Vol. 89, 1999, S. 57-78. Allenby, G.M./Rossi, P.E. (2003), Perspectives Based on 10 Years of HB in Marketing Research, Sawtooth Software Research Paper Series, Sequim 2003. Amemiya, T. (1981), Qualitative Response Models: A Survey, in: Journal of Economic Literature, Vol. 21, 1981, S. 1483-1536. Anderson, J.C. (1987), The Effect of Type of Representation on Judgements of New Product Acceptance, in: Industrial Marketing and Purchasing, Vol. 2, 1987, S. 29-46. Anderson, J.C./Donthu, N. (1988), A Proximate Assessment of the External Validity of Conjoint Analysis, in: Frazier, G. et al (Hrsg.), 1988 AMA Educators' Proceedings, Bd. 54, Chicago 1988, S. 87-91. Anderson, S.P. (1992), Discrete Choice Theory of Product Differentiation, Cambridge, Mass. 1992. Anderson, W.T./Cunningham, W.H. (1972), The socially conscious consumer, in: Journal of Marketing, Vol. 36, 1972, S. 23-31. Andrews, J./Durvasula, S. (1990), A Framework for Conzeptualizing and Measuring the Involvement Construct in Advertising Research, in: Journal of Advertising, Vol. 19, No. 4, 1990, S. 14-41. Andrews, R.L./Ainslie, A./Currim, IS. (2002), An Empirical Comparison of Logit Choice Models with Discrete Versus Continuous Representations of Heterogeneity, in: Journal of Marketing Research, Vol. 39, 2002, S. 479-487. Andrews, R.L./Ansari, A./Currim, IS. (2002), Hierarchical Bayes versus Finite Mixture Conjoint Analysis Models: A Comparison of Fit, Prediction, and Partworth Recovery, in: Journal of Marketing Research, Vol. 39, No. 1, 2002, S. 87-98. Andrews, R.L/Currim, IS. (2003a), Retention of latent segments in regression-based marketing models, in: International Journal of Research in Marketing, Vol. 20, No. 4, 2003, S. 315-321. Andrews, R.L/Currim, IS. (2003b), A Comparison of Segment Retention Criteria for Finite Mixture Logit Models, in: Journal of Marketing Research, Vol. 40, 2003, S. 235-243. Andrews, R.L./Manrai, A.K. (1998), Simulation experiments in choice simplification: The effects of task and context on forecasting performance, in: Journal of Marketing Research, Vol. 35, No. 2, 1998, S. 198. Andritzky, K. (1976), Die Operationalisierbarkeit von Theorien zum Konsumentenverhalten, Berlin 1976. Antil, J.H. (1984), Conceptualizing and Operationalization of Involvement, in: Advances in Consumer Research, Vol. 11, 1984, S. 203-209. Armstrong, A.G./Fildes, R. (1995), Correspondence On the Selection of Error Measures for Comparisons Among Forecasting Methods, in: Journal of Forecasting, Vol. 14, 1995, S. 67-71. Armstrong, J.S./Morwitz, V.G./Kumar, V. (2000), Sales Forecasts for Existing Consumer 216
Products and Services: Do Purchase Intentions Contribute to Accuracy?, 2000. Arora, N./Allenby, G.M./Ginter, J.L. (1998), A hierarchical Bayes model of primary and secondary demand, in: Marketing Science, 17, No.l, 1998, S. 29-44. Arora, N./Huber, J. (2001), Improving Parameter Estimates and Model Prediction by Aggregate Customization in Choice Experiments, in: Journal of Consumer Research, Vol. 28, No. 2, 2001, S. 273-283. Aschenbrenner, K.M. (1977), Komplexes Wahlverhalten: Entscheidungen zwischen multiattributen Altemativen, in: Hartmann, K.-D./Koeppler, K. (Hrsg.), Fortschritte der Marktpsychologie, Bd. 1, Frankfurt a.M. 1977, S. 21-52. Assael, H. (1998), Consumer Behavior and Marketing Action, 6. Aufl., Boston u.a. 1998. Aust, E. (1996), Simultane Conjointanalyse, Benefitsegmentierung, Produktlinien- und Preisgestaltung, Frankfurt a.M. 1996. Axelrod, J.N. (1963), Induced Moods and Attitudes Toward Products, in: Journal of Advertising Research, Vol. 3, 1963, S. 19-24. Axhausen, K.W. (1996), Hinweise zur Messung von Praferenzstrukturen mit Methoden der Stated Preferences, Koln 1996. Backhaus, K. (2(X)3), Industriegiitermarketing, 7. Aufl., Miinchen 2003. Backhaus, K./Brzoska, L. (2(X)3), Conjointanalytische Praferenzmessungen zur Prognose von Preisreaktionen - Eine empirische Analyse der extemen Validitat, Miinster 2003. Backhaus, K. et al (2003), Multivariate Analysemethoden, 10. Aufl., Berlin u.a. 2(X)3. Backhaus, KJVoeth, M. (2003), Limit Conjoint Analysis, Miinster 2003. Backhaus, K./Voeth, M./Hahn, C. (1998), Limit Conjoint-Analyse, Arbeitspapier Nr. 24 des Betriebswirtschaftlichen Instituts fiir Anlagen und Systemtechnologien der Westfalischen Wilhelms-Universitat Munster, Miinster 1998. Bagozzi, R.P./Warshaw, P.R. (1990), Trying to Consume, in: Journal of Consumer Research, Vol. 17, 1990, S. 127-140. Balderjahn, I. (1991), Ein Verfahren zur empirischen Bestimmung von Preisresponsefunktionen, in: Marketing ZFP, H. 1, 1991, S. 33-42. Balderjahn, I. (1993), Marktreaktionen von Konsumenten, Berlin 1993. Balderjahn, I. (1994), Der Einsatz der Conjoint-Analyse zur empirischen Bestinmiung von Preisresponsefunktionen, in: Marketing ZFP, H. 1, 1994, S. 12-20. Balderjahn, I. (1998), Empirical Analysis of Price Response Functions, in: Balderjahn, I./Mennicken, C./Vernette, E. (Hrsg.), New Developments and Approaches in Consumer Behaviour Research, Stuttgart u.a. 1998, S. 185-200. Bamberg, G./Baur, F. (2002), Statistik, 12. Aufl., Munchen, Wien 2002. Bansch, A. (2002), Kauferverhalten, 8. Aufl., Munchen u.a. 2002. Bass, A.R./Firestone, I. J. (1980), Implications of Representativeness for Field and Laboratory Research Findings, in: American Psychologist, Vol. 35, 1980, S. 463-464.
217
Bateson, J.E.G./Reibstein, D.J./Boulding, W. (1987), Conjoint Analysis Reliability and Validity: A Framework for Future Research, in: Houston, MJ. (Hrsg.), Review of Marketing, Chicago 1987,8.451-481. Batsell, R.R. (1982), On Utility, Substitutability and the Prediction of Choice: A Simple Extension of the Luce Model which Simultaneously Scales Utility and Substitutability. Choice Models for Buyer Behavior, in: Research in Marketing, Supplement 1, 1982, S. 243-258. Batsell, R.R./Louviere, J.J. (1991), Experimental Analysis of Choice, in: Marketing Letters, No. 3, 1991, S. 199-214. Bauer, H.H. (1989), Marktabgrenzung: Konzeption und Problematik von Ansatzen und Methoden zur Abgrenzung und Strukturierung von Markten unter besonderer Beriicksichtigung von marketingtheoretischen Verfahren, Berlin 1989. Bauer, H.H./Herrmann, A./Mengen, A. (1995), Conjoint+Cost: Nicht Marktanteile, sondem Gewinne maximieren!, in: Controlling, No. 6, 1995, S. 339-345. Baumgarten, H./Zadek, H./Kieffer, D. (2004), Im Spiegelbild des Marktes, in: Logistik heute, Vol. 26, 5, 2004, S. 58 - 59. Belk, R.W. (1985), Issues in the Intention-Behavior Discrepancy, in: Research in Consumer Behavior, Vol. 1, 1985, S. 1-34. Bemmaor, A.C. (1995), Predicting behavior from intention-to-buy measures: The parametric case, in: Journal of Marketing Research, Vol. 32, No. 2, 1995, S. 176-191. Ben Zur, H./Breznitz, S.J. (1981), The effects of time pressure on risky choice behavior, in: Acta Psychologica, Vol. 47, 1981, S. 89-104. Ben-Akiva, M. (1994), Combining Revealed and Stated Preferences Data, in: Marketing Letters, Vol. 5, No. 4, 1994, S. 335-350. Ben-Akiva, M./Boccara, N. (1995), Discrete choice models with latent choice sets, in: International Journal of Research in Marketing, Vol. 12, 1995, S. 9-24. Ben-Akiva, M./Lerman, S.R. (1985), Discrete Choice Analysis: Theory and Application to Travel Demand, 2. Aufl., Cambridge 1985. Ben-Akiva, M. et al (1997), Modeling Methods for Discrete Choice Analysis, in: Marketing Letters, Vol. 8, No. 3, 1997, S. 273-286. Berekoven, L./Eckert, W./Ellenrieder, P. (2001), Marktforschung, 9. Aufl., Wiesbaden 2001. Berger, J.O. (1980), Statistical Decision Theory, Foundations, Concepts, and Methods, New York 1980. Berkowitz, L./Donnerstein, E. (1982), External Validity Is More Than Skin Deep: Some Answers to Criticisms of Laboratory Experiments, in: American Psychologist, Vol. 37, 1982, S. 245-257. Berndt, R. (1992), Strukturmodelle des Kauferverhaltens, in: Der Betriebswirt, H. 1, 1992, S. 24-29. Bettman, JR. (1979), An Information Processing Theory of Consumer Choice, Reading, MA 1979. 218
Bettman, J.R./Johnson, EJ./Payne, J.W. (1991), Consumer Decision Making, in: Robertson, T.S., Kassarjian, H.H. (Hrsg.), Handbook of Consumer Behavior, Englewood Cliffs, NewJersey 1991,8.50-84. Bettman, J.R./Luce, M.F./Payne, J.W. (1998), Constructive Consumer Choice Processes, in: Journal of Consumer Research, Vol. 25, 1998, S. 187-217. Bettman, J.R./Zins, M.A. (1977), Constructive Processes in Consumer Choice, in: Journal of Consumer Research, Vol. 4, 1977, S. 75-85. Biggs, S.F. et al. (1985), The effects of task size and similarity on the decision behavior of bank loan officers, in: Management Science, Vol. 31, 1985, S. 970-987. Billings, R.S./Marcus, S.A. (1983), Measures of compensatory and noncompensatory models of decision behavior: process tracing versus policy capturing, in: Organizational Behavior and Human Performance, Vol. 31, 1983, S. 331-352. Bilstein, F.F./Bieker, K.J. (2000), Die erste richtige Nachfragekurve in der Marktforschung, in: absatzwirtschaft, H. 11, 2000, S. 62-68. Bishop, CM. (1995), Neural Networks for Pattern Recognition, Oxford 1995. Bishop, R.C./Heherlein, T.A. (1979), Measuring Values of Extra Market Goods: Are Indirect Measures Biased?, in: American Journal of Agricultural Economics, Vol. 61, 1979, S. 926-930. Bishop, R.C./Heberlein, T.A./Kealy, M.J. (1983), Contingent Valuation of Environmental Assets: Comparisons with a Simulated Market, in: Natural Resources Journal, Vol. 23, 1983, S. 619-634. Blackwell, R.D./Miniard, P. W./Engel, J.F. (2001), Consumer behavior, 9. Aufl., 2001. Bleymuller, J./Gehlert, G./Gulicher, H. (2002), Statistik fiir Wirtschaftswissenschaftler, 12. Aufl., Munchen 2002. Bliemel, F./Laroche, M. (1985), Consumer Brand Categorization and Price-Quality Evaluation. Working Paper 83-3-R, School of Business, Queen's University Kingston, Ontario, Kanada 1985. Block, H.D./Marschak, J. (1960), Random Orderings and Stochastic Theories of Response, in: Olkin, I. (Hrsg.), Contributions to Probability and Statistics, Stanford 1960, S. 97-132. Bockenholt, U./Dillon, W.R. (2000), Inferring latent brand dependencies, in: Journal of Marketing Research, Vol. 37, 2000, S. 72-87. Bocker, F. (1986), Praferenzforschung als Mittel marktorientierter Untemehmensfiihrung, in: Zeitschrift fiir betriebswirtschaftliche Forschung, 38. Jg., H. 7/8, 1986, S. 543-574. Bocker, F. (1987), Die Bildung von Praferenzen fiir langlebige Konsumguter in Familien, in: Marketing ZFP, 9. Jg., H. 1, 1987, S. 16-24. Bocker, F./Schweikl, H. (1988), Better Preference Prediction with Individualized Sets of Relevant Attributes, in: International Journal of Research in Marketing, Vol. 5, 1988, S. 15-24. Bohler, H. (1992), Marktforschung, Stuttgart u.a.O. 1992.
219
Bohm, P. (1994), Behaviour under Uncertainty without Preference Reversal: A Field Experiment, in: Hey, J.D. (Hrsg.), Experimental Economics, Berlin u.a. 1994, S. 5-19. Borg, L/Staufenbiel, T. (1997), Theorien und Methoden der Skalierung: Eine Einftihrung, 3. Aufl., Bern u.a.O. 1997. Borsch-Supan, A. (1987), Econometric Analysis of Discrete Choice, Berlin, Heidelberg 1987. Bortz, J. (1999), Statistik fiir Sozialwissenschaftler, Berlin u.a.O. 1999. Botelho, A./Costa Pinto, L (2002), Hypothetical, real, and predicted real willingness to pay in open-ended surveys: experimental results, in: Applied Economics Letters, Vol. 9, 2(X)2, S. 993-996. Box, G.E.P. (1954), Some Theorems on quadratic forms applied in the study of analysis of variance problems. II. Effects of inequality of variances and of correlation between errors in the two-way classification, in: Annals of Mathematical Statistics, Vol. 25, 1954, S. 484-498. Bozdogan, H. (1987), Model Selection and Akaike's Information Criterion (AIC): The General Theory and its Analytical Extensions, in: Psychometrika, Vol. 52, 1987, S. 345-370. Bradley, R.A./Terry, M.E. (1952), Rank Analysis of Incomplete Block Designs: The Method of Paired Comparisons, in: Biometrika, Vol. 39, 1952, S. 324-345. Bradlow, E.T. et al. (o.A.), When BDT in Marketing meant Bayesian Decision Theory; Online im Internet: (Angefragt am 20.01.04). Bretton-Clark (l9S9)y Conjoint Linmap. User manual, Morristown, NJ 1989. Brisoux, J.E./Laroche, M. (1980), A Proposed Consumer Strategy of Simplification for Categorizing Brands, in: Summey, J.D./Taylor, R.D. (Hrsg.), Evolving Marketing Thoughts for 1980. Proceedings of the Annual Meeting of the Southern Marketing Association, Carbandale 1980, S. 112-114. Brockhoff, K. (1999), Produktpolitik, Stuttgart 1999. Brookshire, D.S./Coursey, D.L/Schulze, W.D. (1987), The external validity of experimental economics techniques: analysis of demand behavior, in: Economic inquiry. Vol. 25, April, 1987, S. 239 - 250. Brunswik, E. (1952), The Conceptual Framework of Psychology, Chicago 1952. Brzoska, L (2(X)3), Die Conjoint-Analyse als Instrument zur Prognose von Preisreaktionen Eine theoretische und empirische Beurteilung der extemen Validitat, Hamburg 2003. Buchtele, F./Holzmiiller, H.H. (1990), Die Bedeutung der Umweltvertraglichkeit von Produkten fiir die Kaufpraferenz: Ergebnisse einer Conjoint-Analyse bei Holzschutzmitteln, in: Jahrbuch der Absatz- und Verbrauchsforschung, 36. Jg., Nr. 1, 1990, S. 86-102. Buckley, P.G. (1988), Nested Multinomial Logit Analysis of Scanner Data for a Hierarchical Choice Model, in: Journal of Business Research, Vol. 17, No. 2, 1988, S. 133-154. Bunch, D.S./Batsell, R.R. (1989), A Monte Carlo Comparison of Estimators for the Multinomial Logit Model, in: Journal of Marketing Research, Vol. 26, 1989, S. 56-68. Buschken, J. (1994a), Multipersonale Kaufentscheidungen: empirische Analyse zur Operatio220
nalisierung von Einflussbeziehungen im Buying Center, Wiesbaden 1994. Buschken, J. (1994b), Conjoint-Analyse, in: Tomczak, T./Reinecke, S. (Hrsg.), Thexis, Marktforschung, St. Gallen 1994, S. 72-89. Calder, BJJPhillips, LWJTybout, A.M. (1981), Designing Research for Application, in: Journal of Consumer Research, Vol. 8, 1981, S. 197-207. Campbell, J.P. (1976), Psychometric theory, in: Dunnette, M.D.H. (Hrsg.), Handbook of industrial and organizational psychology, Chicago 1976, S. 185-222. Cardell, S./Dunbar, F. (1980), Measuring the Societal Impacts of Automobil Downsizing, in: Journal of Transportation Research A, Vol. 14, 1980, S. 423-434. Carlin, B.P./Chib, S. (1995), Baysian Model Choice via Markov Chain Monte Carlo Methods, in: Journal of the Royal Statistical Society, Series B, Vol. 54, 1995, S. 473-484. Carmines, E.G./Zeller, R.A. (1987), Reliability and Validity Assessment, 9. Aufl., Beverly Hills 1987. Carmone, F.J./Green, P.E. (1981), Model Misspecification in Multiattribute Parameter Estimation, in: Journal of Marketing Research, Vol. 18, 1981, S. 87-93. Carmone, F.J./Green, P.E./Jain, A.K. (1978), Robustness of Conjoint Analysis: Some Monte Carlo Results, in: Journal of Marketing Research, Vol. 15, 1978, S. 300-303. Carroll, J.D. (1972), Individual Differences and Multidimensional Scaling: Theory and Applications, in: Shepard, R.N./Romney, A.K./Nerlove, S.B. (Hrsg.), Multidimensional Scaling, New York, London 1972, S. 105-155. Carroll, J.D./Green, P.E. (1995), Psychometric Methods in Marketing Research: Part I, Conjoint Analysis, in: Journal of Marketing Research, Vol. 32, No. 4, 1995, S. 385-391. Carson, R.T. et al. (1994), Experimental Analysis of Choice, in: Marketing Letters, Vol. 5, No. 4, 1994, S. 351-368. Casella, G./George, E.I. (1992), Explaining the Gibbs Sampler, in: The American Statistician, Vol. 46, No. 3, 1992, S. 167-174. Cattin, P./Punj, G (1984), Factors Influencing the Selection of Preference Model Form for Continuous Utility Functions in Conjoint Analysis, in: Marketing Science, Vol. 3, No. 1, 1984, S. 73-82. Cattin, P./Weinberger, M.G (1980), Some Validity and Reliability Issues in the Measurement of Attribute Utilities, in: Advances in Consumer Research, Vol. 7, 1980, S. 780-783. Cattin, P./Wittink, D.R. (1982), Conmiercial Use of Conjoint Analysis: A Survey, in: Journal of Marketing, Vol. 46, 1982, S. 44-53. Celsi, R.L./Olson, J.C. (1988), The Role of Involvement in Attention and Comprehension Processes, in: Journal of Consumer Research, Vol. 15, 1988, S. 210-224. Chakraborty, G et al. (2002), The ability of ratings and choice conjoint to predict market shares, A Monte Carlo Simulation, in: Journal of Business Research, Vol. 55, 2002, S. 237-249.
221
Chapman, R.G./Bolton, R.N. (1985), Attribute Presentation Order Bias and Nonstationarity in Full Profile Conjoint Analysis Tasks, in: Lusch, R.F.et al. (Hrsg.), 1985 AMA Educators' Proceedings, Report No. 51, Chicago, IL 1985, S. 373-379. Chapman, R.G./Staelin, R. (1982), Exploiting Rank Ordered Choice Set Data Within the Stochastic Utility Model, in: Journal of Marketing Research, Vol. 19, 1982, S. 288-301. Chib, S./Greenberg, E. (1995), Understanding the Metropolis-Hastings Algorithm, in: The American Statistician, Vol. 49, No. 4, 1995, S. 327-335. Chib, S./Greenberg, E. (1996), Markov Chain Monte Carlo Simulation Methods in Econometrics, in: Econometric Theory, Vol. 12, 1996, S. 409-431. Chib, S./Jeliazkov, I. (2001), Marginal Likelihood From the Metropolis-Hastings Output, in: Journal of the American Statistical Association, Vol. 96, No. 453, 2001, S. 270-281. Choi, S.C/DeSarbo, W.S. (1994), A Conjoint-based Product Designing Procedure Incorporating Price Competition, in: Joumal of Product Innovation Management, Vol. 11, 1994, S. 451-459. Chrzan, K./Orme, B.K. (2000), An Overview and Comparison of Design Strategies for Choice-Based Conjoint Analysis, Sawtooth Software Research Paper Series, Sequim 2000. Churchill, G.A.J. (1979), A Paradigm for Developing Better Measures of Marketing Constructs, in: Joumal of Marketing Research, Vol. 16, 1979, S. 64-73. Cohen, S.H. (1997), Perfect Union: CBCA marries the best of conjoint and discrete choice models, in: Marketing Research, Vol. 9, 1997, S. 12-17. Cohen, S.H./Ramaswamy, V. (1998), Latent Segmentation Models: New tools assist researchers in market segmentation, in: Marketing Research, Vol. 10, No. 2, 1998, S. 15-21. Conlon, B./Dellaert, B.G.C/van Soest, A. (2000), Combining and Comparing Consumers' Stated Preference Ratings and Choice Responses, Tilburg 2000. Conrad, T. (1997), Preisbildung mittels der Conjoint-Analyse und eines Simulationsmodells am Beispiel eines Premiumanbieters der Automobilindustrie, Tubingen 1997. Cook, T.D./Campbell, D.T. (1979), Quasi-Experimentation. Design & Analysis Issues for Field Settings, Chicago 1979. Corsten, H./Meier, B. (1982), Konsumentenverhalten in unterschiedlichen Kaufsituationen Entwurf eines Modells auf verhaltenswissenschaftlicher Grundlage, in: Jahrbuch der Absatz- und Verbrauchsforschung, 28. Jg., 1982, S. 112-136. Corstjens, M.L./Gautschi, D.A. (1983), Formal Choice Models In Marketing, in: Marketing Science, Vol. 2, No. 1, 1983, S. 19-56. Costanzo, CM. et al. (1982), An Alternative Method for Assessing Goodness-of-Fit for Logit Models, in: Environment and Planning A, Vol. 14, 1982, S. 963-971. Costley, CL (1988), Meta Analysis of Involvement Research, in: Advances in Consumer Research, Vol. 15, 1988, S. 554-562. Cote, J.A./Buckley, M.R. (1987), Estimating trait, method, and error variance: Generalizing across 70 construct validation studies, in: Joumal of Marketing Research, Vol. 24, 1987, 222
S. 315-318. Cowles, M.K./Carlin, B.P. (1996), Markov Chain Monte Carlo Convergence: A Comparative Review, in: Journal of the American Statistical Association, Vol. 91, 1996, S. 883-904. Cummings, R.G. et al (1997), Are Hypothetical Referenda Incentive Compatible?, in: Journal of Political Economy, Vol. 105, No. 3, 1997, S. 609-621. Cummings, R.G./Harrison, G.W./Rutstrom, E.E. (1995), Homegrown Values and Hypothetical Surveys: Is the Dichotomous Choice Approach Incentive-Compatible?, in: American Economic Review, Vol. 85, No. 1, 1995, S. 260-266. Currim, IS. (1981), Using segmentation approaches for better prediction and understanding from consumer mode choice models, in: Journal of Marketing Research, Vol. 18, No. 3, 1981, S. 301-309. Currim, LS./Weinberg, CB./Wittink, D.R. (1981), The Design of Subscription Programs for a Performing Arts Series, in: Journal of Consumer Research, Vol. 8, No. 2, 1981, S. 6775. Curry, J. (1997), After the Basics: Keeping Key Issues in Mind makes Conjoint Analysis easier to apply, in: Marketing Research, Vol. 9, No. 1, 1997, S. 6-11. Cutler, A./Windham, M.P. (1994), Information-based validity functionals for mixture analysis, in: Proceedings of the first US/Japan Conference on Frontiers of statistical modeling: An informational approach, Boston 1994, S. 149-170. Dahlhoff, H.-D. (1980), Kaufentscheidungsprozesse von Familien, Frankfurt a.M. 1980. Day, G.S. (1972), Evaluating Models of Attitude Structure, in: Journal of Marketing Reserach. Vol. 9, August, 1972, S. 279 - 286. Debreu, G (1960), A Review of Individual Choice Behavior: A Theoretical Analysis, in: American Economic Review, Vol 50, 1960, S. 186-188. Decker, R. (1994), Analyse und Simulation des Kaufverhaltens auf Konsumgiitermarkten, Frankfurt a.M. u.a. 1994. Deimel, K. (1989), Grundlagen des Involvement und Anwendung im Marketing, in: Marketing ZFP, H. 3, 1989, S. 153-161. Dellaert, B.GC/Brazell, J.D./Louviere, J J. (1999), The Effect of Attribute Variation on Consumer Choice Consistency, in: Marketing Letters, Vol. 10, No. 2, 1999, S. 139-147. DeSarbo, W.S./Ramaswamy, V./Cohen, S.H. (1995), Market Segmentation with Choice-Based Conjoint Analysis, in: Marketing Letters, Vol. 6, No. 2, 1995, S. 137-147. DeSarbo, W.S./Wedel, M./Vriens, M. (1992), Latent Class Metric Conjoint Analysis, in: Marketing Letters, Vol. 3, 1992, S. 273-288. Dhar, R. (1997), Consumer Preference for a No-Choice option, in: Journal of Consumer Research, Vol. 24, No. 2, 1997, S. 215-231. Dhar, R./Glazer, R. (1996), Similarity in Context: Cognitive Representation and Violation of Preference and Perceptual Invariance in Consumer Choice, in: Organizational Behavior and Human Decision Processes, Vol. 67, No. 3, 1996, S. 280 - 293.
223
Dhar, RJNowlis, S.MJSherman, SJ. (2000), Trying Hard or Hardly Trying: An Analysis of Context Effects in Choice, in: Journal of Consumer Psychology, Vol. 9, No. 4, 2000, S. 189-200. Dichtl, E./Miiller, S. (1986), Anspruchsinflation und Nivellierungstendenz als mefitechnische Probleme in der Absatzforschung, in: Marketing ZFP, 8. Jg., H. 4, 1986, S. 233-236. Dillon, W.RJKumar, A. (1994), Latent Structure and Other Finite Mixture Models in Marketing: An Integrative Survey and Overview, in: Bagozzi, R.P. (Hrsg.), Advanced Methods of marketing Research, Cambridge 1994, S. 295-351. Domencich, T./McFadden, D. (1975), Urban Travel Demand, Amsterdam 1975. Domzal, T.J./Unger, LS. (1985), Judgements of Verbal versus Pictorial Presentations of a Product with Functional and Aesthetic Features, in: Advances in Consumer Research, Vol. 12, 1985, S. 268-272. Dube, J.-P. et al (2002), Structural Applications of the Discrete Choice Model, in: Marketing Letters, Vol. 13, No. 3, 2002, S. 207-220. Ebbesen, E.B./Konecni, V.J. (1980), On the External Validity of Decision-Making Research: What Do We Know About Decisions in the Real World?, in: Wallsten, T.S. (Hrsg.), Cognitive Processes in Choice and Decision Behavior, Hillsdale, NJ 1980, S. 21-45. Ebel, B./Lauszus, D. (2000), Preisabsatzfunktionen, in: Herrmann, A./Homburg, C. (Hrsg.), Marktforschung: Methoden, Anwendungen, Praxisbeispiele, 2. Aufl., Wiesbaden 2000, S. 835-859. Eggenberger, C./Hauser, C. (1996), Conjoint Measurement zur Gestaltung von intemationalen Telefondienstleistungen, in: zfbf, 48. Jg., Heft 9, 1996, S. 841-859. Eisele, J./Kreusel, J. (1997), Conjoint Measurement: Wettbewerbsvorteile durch effiziente Marktforschung, in: absatzwirtschaft. Vol. 40, 1997, S. 56-58. Eliason, S.R. (1993), Maximum Likelihood Estimation: Logic and Practice, New Park, CA u.a. 1993. Elrod, T./Haubl, G. (1997), An Extended Random Coefficients Model, With Application to Metric Conjoint Analysis; Online im Internet: (Abfrage am: 25.11.2004). Elrod, T./Kumar, S.K. (1989), Bias in the First Choice Rule for Predicting Share, in: Metegrano, M. (Hrsg.), Proceedings of the Sawtooth Software Conference. Gaining a competitive advantage through PC-based interviewing and analysis, Ketchum 1989, S. 259271. Elrod, T./Louviere, J.J./Davey, K.S. (1992), An Empirical Comparison of Ratings-Based and Choice-Based Conjoint Models, in: Journal of Marketing Research, Vol. 29, 1992, S. 368-377. Engel, J.F./Kollat, D.T./Blackwell, R.D. (1968), Consumer Behavior, New York u.a. 1968. Erdem, T./Winer, R.S. (2002), Introduction to the Special Issue on Choice Modelling, in: Marketing Letters, Vol. 13, No. 3, 2002, S. 157-162. Ernst, O./Sattler, H. (2000), Multimediale versus traditionelle Conjoint-Analysen, in: Marke224
ting ZFP, H. 2, 2000, S. 161-172. Eversheim, W./Schmidt, RJSartez, B. (1994), Systematische Ableitung von Produktmerkmalen aus Marktbedurfnissen, in: io Management Zeitschrift, Vol. 63, 1994, S. 66-70. Felten, C. (2002), Prospect Theorie und Marketing, in: Zeitschrift fiir Betriebswirtschaft, Erganzungsheft 1/2002, S. 67-86. Ferber, R. (1977), Research by convenience, in: Journal of Consumer Research, Vol. 4, 1977, S. 57-58. Fischer, J. (2001), Individualisierte Praferenzanalyse, Wiesbaden 2001. Fok, D./Frarises, P.H. (2001), Forecasting market shares from models for sales, in: International Journal of Forecasting, Vol. 17, 2001, S. 121-128. Frantzke, A. (1989), Die Automobilnachfrage der privaten Haushalte in der Bundesrepublik Deutschland. Eine theoretische und empirische Studie auf Basis eines diskreten Entscheidungsmodells, Frankfurt am Main 1989. Fricke, R. (1974), Kriteriumsorientierte Leistungsmessung, Stuttgart 1974. Frykblom, P. (1997), Hypothetical Question Modes and Real Willingness to Pay, in: Journal of Environmental Economics & Management, Vol. 34, No. 3, 1997, S. 275-287. Gaeth, GJ./Shanteau, J. (1984), Reducing the influence of irrelevant information on experienced decision makers, in: Organizational Behavior and Human Performance, Vol. 33, 1984, S. 263-282. Gedenk, K. (2002), Verkaufsforderung, Munchen 2002. Gelman, A. et al. (1995), Baysian Data Analysis, London u.a. 1995. Gelman, A. et al (2000), Baysian Data Analysis, London u.a. 2000. Gemiinden, KG. (1985), Perceived Risk and Information Search: A Systematic Metaanalysis of the Empirical Evidence, in: International Journal of Research in Marketing, No. 2, 1985, S. 75-100. Gensch, D.H./Javalgi, R.G. (1987), The Influence of Involvement on Disaggregate Attribute Choice Models, in: Journal of Consumer Research, Vol. 14, June, 1987, S. 71-82. Gensch, D.H./Recker, W.W. (1979), The Multinomial, Multiattribute Logit Choice Model, in: Journal of Marketing Research, Vol. 16, No. 1, 1979, S. 124-132. Gensch, D.H./Soofi, E.S. (1995), Information-theoretic estimation of individual consideration set, in: International Journal of Research in Marketing, Vol. 12, No. 1, 1995, S. 25-38. Gensler, S. (2003), Heterogenitat in der Praferenzanalyse: Ein Vergleich von hierarchischen Bayes-Modellen und Finite-Mixture-Modellen, Wiesbaden 2003. Gerhard, A. (1995), Die Unsicherheit des Konsumenten bei der Kaufentscheidung, Wiesbaden 1995. Gerke, W./Pfeufer-Kinnel, G. (1996), Preispolitik im Zahlungsverkehr, in: Marktforschung und Management, Vol. 40, No. 2, 1996, S. 59-64. Gierl, H. (1987), Von der Praferenz zum Kauf eines Markenartikels, in: Markenartikel, No. 10, 1987, S. 458-467.
225
Gierl, H./Helm, R./Stumpp, S. (2001), Wertfunktion der Prospect-Theorie, Produktpraferenzen und Folgerungen fiir das Marketing, in: Zeitschrift fiir betriebswirtschaftliche Forschung, Vol. 53, 2001, S. 559-588. Gierl, H./Hoser, H. (2002), Der Reihenfolgeeffekt auf Praferenzen, in: Zeitschrift fur betriebswirtschaftliche Forschung, Vol. 54, No. 1, 2002, S. 3-18. Gilks, W.RJRichardson, SJSpiegelhalter, D.J. (1996), Markov Chain Monte Carlo in Practice, London 1996. Glaser, W. (1978), Varianzanalyse, Stuttgart, New York 1978. Goldstein, W.M./Busemeyer, J.R. (1992), The Effect of "Irrelevant" Variables on Decision Making: Criterion Shifts in Preferential Choice?, in: Organizational Behavior and Human Decision Processes, Vol. 52, No. 3, 1992, S. 425-454. Green, P.E. (1974), On the Design of Choice Experiments Involving Multifactor Alternatives, in: Journal of Consumer Research, Vol. 1, 1974, S. 61-68. Green, P.E./Carroll, J.D./Carmone, F.J. (1978), Some New Types of Fractional Designs For Marketing Experiments, in: Research in Marketing, Vol. 1, 1978, S. 99-122. Green, P.E./Frank, R.E. (1966), Bayesian Statistics and Marketing Research, in: Applied Statistics, Vol. 15, 1966, S. 173-190. Green, P.E./Goldberg, S.M./Wiley, J.B. (1983), A Cross-Validation Test of Hybrid Conjoint Models, in: Advances in Consumer Research, Vol. 10, 1983, S. 147-150. Green, P.E./Helsen, K. (1989), Cross Validation Assessment of Alternatives to IndividualLevel Conjoint-Analysis: A Case Study, in: Journal of Marketing Research, Vol. 26, 1989, S. 346-350. Green, P.E./Krieger, A.M. (1988), Choice Rules and Sensitivity Analysis in Conjoint Simulators, in: Journal of the Academy of Marketing Science, Vol. 16, No. 1, 1988, S. 114127. Green, P.E./Krieger, A.M. (2002), What's Right With Conjoint Analysis?, in: Marketing Research, Vol. 14, No. 1, 2002, S. 24-27. Green, P.E./Krieger, A.M./Agarwal, M.K (1993), A Cross-Validation Test of Four Models for Quantifying Multiattribute Preferences, in: Marketing Letters, Vol. 4, No. 4, 1993, S. 369-380. Green, P.E./Krieger, A.M./Wind, Y.J. (2001), Thirty Years of Conjoint Analysis: Reflections and Prospects, in: Interfaces, Vol. 31, No. 3, 2001, S. 56-73. Green, P.E./Rao, V.R. (1971), Conjoint Measurement for Quantifying Judgmental Data, in: Journal of Marketing Research, Vol. 8, No. 3, 1971, S. 355-363. Green, P.E./Srinivasan, V. (1978), Conjoint Analysis in Consumer Research: Issues and Outlook, in: Journal of Consumer Research, Vol. 5, 1978, S. 103-121. Green, P.E./Srinivasan, V. (1990), Conjoint Analysis in Marketing: New Developments With Implications for Research and Practice, in: Journal of Marketing, Vol. 54, No. 4, 1990, S. 3-19. Green, P.E./Tull, D.S. (1999), Methoden und Techniken der Marketingforschung, Stuttgart 226
1999. Green, P.E./Wind, Y.J. (1975), Multiattribute Decisions in Marketing: A Measurement Approach, Hinsdale 1975. Greene, W.H. (2003), Econometric Analysis, 5. Aufl., Upper Saddle River 2003. Griffin, C.C. et al. (1995), Contingent Valuation and Actual Behavior: Predicting Connections to New Water Systems in the State of Kerala, India, in: The World Bank Economic Review, Vol. 9, No. 3, 1995, S. 373-395. Gutsche, J. (1995), Produktpraferenzanalyse: ein modelltheoretisches und methodisches Konzept zur Marktsimulation mittels Praferenzerfassungsmodellen, Berlin 1995. Haaijer, R./Kamakura, W./Wedel, M. (2001), The 'no-choice' alternative to conjoint choice experiments, in: International Journal of Market Research, Vol. 43, No.l, 2001, S. 93106. Hagerty, M.R. (1985), Improving the Predictive Power of Conjoint Analysis: The Use of Factor Analysis and Cluster Analysis, in: Journal of Marketing Research, Vol. 22, No. 2, 1985, S. 168-184. Hagerty, M.R. (1986), The Cost of Simplifying Preference Models, in: Marketing Science, Vol. 5, No. 4, 1986, S. 298-319. Hahn, C. (1997), Conjoint- und Discrete Choice-Analyse als Verfahren zur Abbildung von Praferenzstrukturen und Produktauswahlentscheidungen, Miinster 1997. Hahn, C./Voeth, M. (1997), Limit-Cards in der Conjoint-Analyse - eine Modifikation der traditionellen Conjoint-Analyse, Arbeitspapier Nr. 21 des Betriebswirtschaftlichen Instituts fiir Anlagen und Systemtechnologien der Westfalischen Wilhelms-Universitat Miinster, Miinster 1997. Hair, J.F. et al. (1998), Multivariate Data Analysis, 5. Aufl., Upper Saddle River, New Jersey, USA 1998. Hamilton, R. W. (2003), What do people suggest what they do not want? Using context effects to influence others' choices, in: Journal of Consumer Research, Vol. 29, No. 4, 2003, S. 492-506. Hammann, P./Erichson, B. (2000), Marktforschung, 4. Aufl., Stuttgart 2000. Harrison, G. W./Rutstrom, E.E. (2001), Experimental Evidence on the Existence of Hypothetical Bias in Value Elicitation Methods, Working Paper B-00-05, The Darla Moore School of Business, University of South Carolina, South Carolina 2001. Hartmann, A./Sattler, H (2002a), Commercial Use of Conjoint Analysis in Germany, Austria, and Switzerland; Online im Internet: <www.henriksattler.de/publikationen/HS AH Commercial2002.pdf> (Abgefagt am 20.01.2004). Hartmann, A./Sattler, H (2002b), Wie robust sind Methoden zur Praferenzmessung?; Online im Internet: <www.henriksattler.de/publikationen/ HS_AH_Praeferenz2002.pdf> (Abfrage am 20.01.2004). Hartung, J./Elpelt, B. (1999), Multivariate Statistik, Miinchen, Wien 1999. 227
Hauser, J.R. (1978), Testing the Accuracy, Usefulness, and Significance of Probabilistic Choice Models: An Information-Theory Approach, in: Operations Research, Vol. 26, 1978,8.406-421. Hausruckinger, G./Herker, A. (1992), Die Konstruktion von Schatzdesigns fiir ConjointAnalysen auf Basis von Paarvergleichen, in: Marketing ZFP, Vol. 14, 1992, S. 99-110. Heemann, L (2001), Die nutzenorientierte Gestaltung von Kundenkarten mittels ConjointAnalyse, in: Muller-Hagedorn, L. (Hrsg.), Kundenbindung im Handel, 2001, S. 177219. Henrichsmeier, S. (1998), Die Entwicklung eines Modells zur Absatzprognose in friihen Phasen der Produktentstehung, Hamburg 1998. Hensel-Borner, S. (2000), Validitat computergestiitzter hybrider Conjoint-Analysen, Wiesbaden 2000. Hensel-Borner, S./Sattler, H. (2000), Ein empirischer Validitatsvergleich zwischen der Customized Computerized Conjoint Analysis (CCC), der Adaptive Conjoint Analysis (ACA) und Self-Explicated-Verfahren, in: Zeitschrift fiir Betriebswirtschaft, Vol. 70, No. 6, 2000, S. 705-727. Hensher, D.A. (1984), Archieving Representativeness of the Observable Component of the Indirect Utility Function in Logit Choice Models: An Empirical Revelation, in: Journal of Business, Vol. 57, 1984, S. 265-280. Hensher, D.A./Louviere, J.J./Swait, J. (1999), Combining sources of preference data, in: Journal of Econometrics, Vol. 89, 1999, S. 197-221. Herriges, J.AJKling, C.L/Azevedo, C. (1999), Linking Revealed and Stated Preferences to test External Validity, Iowa 1999. Herrmann, A. (1992), Produktwahlverhalten, Stuttgart 1992. Herrmann, A./Bauer, H.H (1996), Kundenorientierte Gestaltung des offentlichen Personennahverkehrs, in: Zeitschrift fiir Verkehrswissenschaft, Vol. 67, 1996, S. 327-337. Herrmann, A./Gutsche, J. (1994), Ein Modell zur Erfassung der Individuellen Markenwechselneigung, in: Schmalenbachs Zeitschrift fiir betriebswirtschaftliche Forschung, Vol. 46, 1994, S. 63-80. Hildehrandt, L. (1984), Kausalanalytische Validierung in der Marktforschung, in: Marketing ZFP, Vol. 6, 1984, S. 41-51. Hilke, W. (1975), Modelle des Konsumentenverhaltens, in: WISU-Studienblatt 7, 1975, Holbrook, M.B./Moore, W.L (1981), Feature Interactions in Consumer Judgments of Verbal Versus Pictorial Presentations, in: Journal of Consumer Research, Vol. 8, 1981, S. 103113. Homans, G.C. (1961), Social behavior: Its elementary forms, New York 1961. Homans, G.C. (1978), Theorie der sozialen Gruppe, 7. Aufl., Opladen 1978. Horowitz, J.L./Louviere, J.J. (1993), Testing Predicted Choices against Observations in Probabilistic Discrete-Choice Models, in: Marketing Science, Vol. 12, No. 3, 1993, S. 270279. 228
Horowitz, J.L/Louviere, J.J. (1995), What is the role of consideration sets in choice modelling?, in: International Journal of Research in Marketing, Vol. 12, 1995, S. 39-54. Hoser, H. (1998), Kontextabhangige Praferenzen, Frankfurt a. Main, Berlin 1998. Hosmer, D. W./Lemeshow, S. (1989), Applied Logistic Regression, New York 1989. Hossinger, H.-P. (1982), Pretests in der Marktforschung, Wurzburg, Wien 1982. Howard, J.A./Sheth, J.N. (1969), The Theory of Buyer Behavior, New York 1969. Huber, F./Herrmann, A./Gustafsson, A. (2001), On the Influence of the Evaluation Methods in Conjoint Design - Some Empirical Results, in: Gustafsson, A./Herrmann, A./Huber, F. (Hrsg.), Conjoint Measurement, Berlin u.a. 2001, S. 183-208. Huber, G.P. (1974), Multi-Attribute Utility Models: A Review of Field and Field-Like Studies, in: Management Science, Vol. 20, No. 10, 1974, S. 1393-1402. Huber, J. (1997), What We Have Learned from 20 Years of Conjoint Research: When to Use Self-Explicated, Graded Pairs, Full Profiles or Choice Experiments, Sawtooth Software Research Paper Series, Sequim 1997. Huber, J. (1998), Achieving Individual-Level Predictions from CBC Data: Comparing ICE and Hierachical Bayes, Sawtooth Software Research Paper Series, Sequim 1998. Huber, J./Moore, W.L. (1979), A Comparison of Alternative Ways to Aggregate Individual Conjoint Analyses, in: Landon, L. (Hrsg.), Proceedings of the AMA Educators' Conference, Chicago 1979, S. 64-68. Huber, J./Train, K. (2000), On the Similarity of Classical and Bayesian Estimates of Individual Mean Partworths, 2000. Huber, J. et al (1993), The Effectiveness of Alternative Preference Elicitation Procedures in Predicting Choice, in: Journal of Marketing Research, Vol. 30, 1993, S. 105-114. Huber, J. et al. (1992), Learning Effects in Preference Tasks: Choice-Based Versus Standard Conjoint, in: Metegrano, M. (Hrsg.), Sawtooth Software Conference Proceedings, Ketchum 1992, S. 275-282. Huber, J./Zwerina, K. (1996), The Importance of Utility Balance in Efficient Choice Designs, in: Journal of Marketing Research, Vol. 33, 1996, S. 307-317. Hughes, G.D. (1974), The Measurement of Beliefs and Attitudes, in: Ferber, R. (Hrsg.), Handbook of Marketing Research, 1974, S. 3-43. Huth, W.-D. (1988), Der Intraorganisationale BeschaffungsentscheidungsprozeB - Ein operationales Modell, Mainz 1988. Hiittner, M./Schwarting, U. (2002), Grundziige der Marktforschung, 7. Aufl., Munchen, Wien 2002. Jackel, P. (2002), Monte Carlo methods in finance, Guildford, Surrey 2002. Jain, A.K./Mahajan, V./Malhotra, N.K. (1979), Multiattribute preference models for consumer research: A synthesis, in: Wilkie, W.L (Hrsg.), Advances in Consumer Research, Miami 1979, S. 248-252.
229
Jamieson, L/Bass, F.M. (1989), Adjusted stated intention measures to predict trail purchase of new products: A comparison of models and methods, in: Journal of Marketing Research, Vol. 26, 1989, S. 336-345. Jeck-Schlottmann, G. (1988), Anzeigenbetrachtung bei geringem Involvement, in: Marketing ZFP,No. 1,1988,8.33-43. Jedidi, KJKohli, RJDeSarbo, W.S. (1996), Consideration sets in conjoint analysis, in: Journal of Marketing Research, Vol. 33, No. 3, 1996, S. 364-372. Johannesson, M. et al (1999), Calibrating Hypothetical Willingness to Pay Responses, in: Journal of Risk and Uncertainty, Vol. 8, 1999, S. 21-32. Johnson, E.J./Meyer, RJ./Ghose, S. (1989), When Choice Models Fail: Compensatory Models In Negatively, in: Journal of Marketing Research, Vol. 26, No. 3, 1989, S. 255-270. Johnson, N.L/Kotz, S. (1970), Continuous Univariate Distributions, New York 1970. Johnson, R.M. (1974), Trade-Off Analysis of Consumer Values, in: Journal of Marketing Research, Vol. 11, 1974, S. 121-127. Johnson, R.M. (1987a), Accuracy of Utility Estimation in ACA, Sawtooth Software Research Paper Series, Sequim 1987a. Johnson, R.M. (1999), The Joys and Sorrows of Implementing HB Methods for Conjoint Analysis; Online im Internet: (Abfrage am 11.12.2004). Johnson, R.M. (2000), Understanding HB: An Intuitive Approach, Sawtooth Software Research Paper Series, Sequim 2000. Johnson, R.M. (1987b), Adaptive Conjoint Analysis, in: Metegrano, M. (Hrsg.), Proceedings of the Sawtooth Software Conference on Perceptual Mapping, Conjoint Analysis, and Computer Interviewing, No. 2, Ketchum 1987b, S. 253-265. Johnson, R.M. (1989), Assessing the Validity of Conjoint Analysis, in: Metegrano, M. (Hrsg.), Proceedings of the Sawtooth Software Conference. Gaining a competitive advantage through PC-based interviewing and analysis, Ketchum 1989, S. 273-280. Johnson, R.M. (1997), Individual Utilities from Choice Data, in: Metegrano, M. (Hrsg.), Proceedings of the Sawtooth Software Conference, Ketchum 1997, S. 191-208. Johnston, W.J/Lewin, J.E. (1996), Organizational buying behavior: Toward an integrative framework, in: Journal of Business Research, Vol. 35, No. 1, 1996, S. 1-16. Jungst, K./Mengen, A. (1995), Kauferpraferenzmessung mit Conjoint Measurement und Computational Segmentation, in: Baier, D./Decker, R. (Hrsg.), Marketingprobleme: innovative Losungsansatze aus Forschung und Praxis, Regensburg 1995, S. 91-102. Kaas, K.P. (1984), Factors Influencing Consumer Strategies in information processing, in: Advances in Consumer Research, Vol. 11, 1984, S. 585-590. Kaas, K.P. (1987), Nachfragemodelle im Marketing. Ein kritischer Vergleich, in: Marketing ZFP, Vol. 9, 1987, S. 229-236. Kaciak, E./Louviere, J J. (1990), Multiple Correspondence Analysis of Multiple Choice Ex230
periment Data, in: Journal of Marketing Research, Vol. 27, November, 1990, S. 455465. Kahn, BJMoore, W.L/Glazer, R. (1987), Experiments in Constrained Choice, in: Journal of Consumer Research, June, 1987, S. 96-113. Kahn, B.EJMeyer, RJ. (1991), Consumer Multiattribute Judgments under Attribute-Weight Uncertainty, in: Journal of Consumer Research, Vol. 17, 1991, S. 508-522. Kahneman, DJKnetsch, J.L/Thaler, R.H. (1990), Experimental Tests of the Endowment Effect and the Coase Theorem, in: Journal of Political Economy, Vol. 98, No. 6, 1990, S. 1325-1348. Kahneman, D./Tversky, A. (1979), Prospect Theory: An Analysis of Decision under Risk, in: Econometrica, Vol. 47, No. 2, 1979, S. 263-291. Kalish, S./Nelson, P. (1991), A Comparison of Ranking, Rating and Reservation Price Measurement in Conjoint Analysis, in: Marketing Letters, Vol. 2, No. 4, 1991, S. 327-335. Kalwani, M.U./Silk, A J. (1982), On the Reliability and Predicitve Validity of Purchase Intention Measures, in: Marketing Science, Vol. 1, No. 3, 1982, S. 243-286. Kamakura, W.A./Kim, B.-D./Lee, J. (1996), Modeling Preference and Structural Heterogeneity in Consumer Choice, in: Marketing Science, Vol. 15, No.2, 1996, S. 152-172. Kamakura, W.A./Russell, G.J. (1989), A Probabilistic Choice Model For Market Segmentation And Elasticity Structure, in: Journal of Marketing Research, Vol. 26, No. 4, 1989, S. 379-390. Kassarjian, H.H. (1981), Low Involvement: A Second Look, in: Advances in Consumer Research, Vol. 8, 1981, S. 31-34. Katona, G. (1951), Psychological Analysis of Economic Behavior, New York 1951. Katona, G. (1960), Das Verhalten der Verbraucher und Untemehmer, Tubingen 1960. Kealy, M.J./Montgomery, M./Dovidio, J.F. (1990), Reliability and Predictive Validity of Contingent Values: Does the Nature of the Good Matter?, in: Journal of Environmental Economics & Management, Vol. 19, 1990, S. 244-263. Keane, M.P./Wolpin, K.L (1994), The Solution and Estimation of Discrete Choice Dynamic Progranmiing Models By Simulation and Interpolation: Monte Carlo Evidence, in: The Review of Economics and Statistics, Vol. 76, No. 4, 1994, S. 648-672. Kearsley, J.F. (1996), Die Werbewirkung direkt-vergleichender Werbung unter besonderer Berucksichtigung des Involvement-Konstrukts, Gottingen 1996. Keller, L.R./Staelin, R. (1987), Effects of quality and quantity of information and decision effectivness, in: Journal of Consumer Research, Vol. 14, 1987, S. 200-213. Kendall, M.G./Gibbons, J.D. (1990), Rank Correlation Methods, New York 1990. Keuchel, S. (1993), Wirkungsanalyse von Massnahmen zur Beeinflussung des Verkehrsmittelwahlverhaltens - Eine empirische Untersuchung am Beispiel der Stadt MunsterAVestfalen, 1993. Kinnear, T.C./Taylor, JR. (1996), Marketing Research: An applied approach, 5. Aufl., New York u.a. 1996. 231
Kirchler, E. (1990), Uberlegungen zur Dynamik von Kaufentscheidungen in der Familie, in: Jahrbuch der Absatz- und Verbrauchsforschung, Vol. 36, No. 1, 1990, S. 55-85. Kirk, R. (1995), Experimental design: procedures for behavioral sciences. Pacific Grove 1995. Klayman, J. (1985), Childrens' decision strategies and their adaption to task characteristics, in: Organizational Behavior and Human Decision Processes, Vol. 35, 1985, S. 179-201. Klein, M. (2002a), Die Conjoint-Analyse - Eine Einftihrung in das Verfahren mit einem Ausblick auf mogliche sozialwissenschaftliche Anwendungen, in: ZA-Information 50, 2002, S. 7-45. Klein, M. (2002b), Die Wahmehmung und Bewertung von Wahlplattformen durch die Wahler, in: planung und analyse. No. 1, 2002, S. 52-57. Klein, M. (2002c), Wahlen als Akt expressiver Praferenzoffenbarung: eine Anwendung der Conjoint-Analyse auf die Wahl zur Hamburger Burgerschaft vom 21. September 1997, Frankfurt am Main u.a. 2002c. Kleindorfer, G.B./0'Neill, L/Ganeshan, R. (1998), Validation in Simulation: Various Posotions in the Philosophy of Science, in: Management Science, Vol. 44, No. 8, 1998, S. 1087-1099. Koch, K-R. (2000), Einftihrung in die Bayes-Statistik, Beriin u.a 2000. Kohli, R. (1988), Assessing Attribute Significance in Conjoint Analysis: Nonp, in: Journal of Marketing Research, Vol. 25, No. 2, 1988, S. 123-133. Kotler, P./Bliemel, K (2001), Marketing Management, 10. Aufl., Stuttgart 2001. Kraffl, M. (1997), Der Ansatz der logistischen Regression und seine Interpretation, in: Zeitschrift fiir Betriebswirtschaft, Vol. 67, 1997, S. 625-642. Krishnamurthi, L. (1989), Conjoint Models of Family Decision Making, in: International Journal of Research in Marketing, Vol. 5, 1989, S. 185-198. Kroeber-Riel, W. (1990), Strategic und Technik der Werbung: verhaltenswissenschaftliche Ansatze, Stuttgart, Beriin, Koln 1990. Kroeber-Riel, W./Weinberg, P. (2003), Konsumentenverhalten, 8. Aufl., Munchen 2003. Krugman, H.E. (1965), The Impact of Television Advertising: Learning Without Involvement, in: Public Opinion Quarteriy, Vol. 29, 1965, S. 349-356. Kucher, E./Simon, H. (1987), Conjoint Measurement - Durchbruch bei der Preisentscheidung, in: Harvard Manager, Nr. 3, 1987, S. 28-36. Kuhfeld, W.F. (1997), Efficient Experimental Designs Using Computerized Searches, Sawtooth Software Research Paper Series, Sequim 1997. Kuhfeld, W.FJTobias, R.D./Garratt, M. (1994), Efficient Experimental Design with Marketing Research Applications, in: Journal of Marketing Research, Vol. 31, 1994, S. 545557. Kuhl, J. (1985), Volitional Mediators of Cognition-Behavior Consistency: Self-Regulatory Processes and Action Versus State Orientation, in: Kuhl, J./Beckmann, J. (Hrsg.), Action Control: From Cognition to Behaviour, Beriin u.a. 1985, S. 101-128. Kuhnel, S.-M. (1993), Zwischen Boykott und Kooperation. Teilnahmeabsicht und Teilnahme232
verhalten bei der Volkszahlung 1987, Frankfurt 1993. Kufi, AJTomczak, T. (2004), Kauferverhalten, 3. Aufl., Stuttgart 2004. Lahih, KJGao, J. (2002), Bayesian analysis of nested logit models by Markov chain Monte Carlo, in: Journal of Econometrics, Vol. 111, 2002, S. 103-133. Laurent, G./Kapferer, J.N. (1985), Measuring Consumer Involvement Profiles, in: Journal of Advertising Research, Vol. 22, No. 1, 1985, S. 41-53. Leavitt, C./Greenwald, A.G./Obermiller, C. (1981), What is Low Involvement Low In?, in: Advances in Consumer Research, No. 8, 1981, S. 15-19. Leclerc, F./Schmitt, B.H./Dube, L. (1995), Wasting time and decision making: Is time like money?, in: Journal of Consumer Research, Vol. 22, 1995, S. 110-119. Leigh, T.W./MacKay, D.B./Summers, J.O. (1984), Reliability and Validity of Conjoint Analysis and Self-explicated Weights: A Comparison, in: Journal of Marketing Research, Vol. 21, 1984, S. 456-462. Lenk, P.J. et al (1996), Hierarchical bayes conjoint analysis: recovery of partworth heterogeneity from reduced experimental designs, in: Marketing Science, Vol. 15, No. 2, 1996, S. 173-191. Lichtenstein, S./Slovic, P. (1971), Reversals of preference between bids and choices in gambling decisions, in: Journal of Experimental Psychology, Vol. 89, 1971, S. 46-55. Lichtenstein, S./Slovic, P. (1973), Response-induced reversals of preference in gambling: An extended replication in Las Vegas, in: Journal of Experimental Psychology, Vol. 101, 1973, S. 16-20. Lienert, G.A./Raatz, U. (1998), Testaufbau und Testanalyse, 6. Aufl., Weinheim 1998. Lindberg, E./Gdrling, T./Montgomery, H. (1989), Differential Predictability of Preferences and Choices, in: Journal of Behavioral Decision Making, Vol. 2, 1989, S. 205-219. Lindman, H.R. (1971), Inconsistent preferences among gambles, in: Journal of Experimental Psychology, Vol. 89, 1971, S. 390-397. Louviere, C.H. et al (2002), Dissecting the Random Component of Utility, in: Marketing Letters, Vol. 13, No. 3, 2002, S. 177-193. Louviere, J.J. (1988), Conjoint Analysis Modelling of Stated Preferences: A Review of Theory, Methods, Recent Developments and External Validity, in: Journal of Transport Economics and Policy, Vol. 22, No. 1, 1988, S. 93-119. Louviere, J.J. (2001a), Combining Sources of Preference Data, in: Hensher, D. (Hrsg.), Travel Behaviour Research, The leading Edge, 1st, Sydney 2001, S. 125-144. Louviere, J.J. (2001b), Combining Data Sources, in: Hensher, D. (Hrsg.), Travel Behaviour Research, The leading Edge, 1st, Sydney 2001, S. 247-258. Louviere, J J. (1984), Hierarchical information integration: A new method for the design and analysis of complex multiattribute judgement problems, in: Advances in Consumer Research, Vol. 11, 1984, S. 148-155. Louviere, JJ/Fox, M.F./Moore, W.L (1993), Cross-Task Validity Comparison of Stated Preference Choice Models, in: Marketing Letters, Vol. 4, No. 3, 1993, S. 205-213. 233
Louviere, JJ./Gaeth, GJ. (1987), Decomposing the Determinants of Retail Facility Choice Using the Method of Hierarchical Information Integration: A Supermarket Illustration, in: Journal of Retailing, Vol. 63, 1987, S. 25-48. Louviere, JJ./Gaeth, G.J. (1988), A Comparison of Rating and Choice Responses in Conjoint Tasks, in: Johnson, R.M. (Hrsg.), Proceedings of the Sawtooth Software Conference of Perceptual Mapping, Conjoint Analysis, and Computer Interviewing No. 2, Ketchum 1988, S. 59-73. Louviere, JJ./Hensher, D.A./Swait, J.D. (2000), Stated choice methods, Cambridge 2000. Louviere, J.J. et al. (1987), Do the Parameters of Choice Models Depend on Differences in Stimulus Presentation: Visual versus Verbal Presentation?, in: Advances in Consumer Research, Vol. 14, 1987, S. 79-82. Louviere, J.J./Woodworth, G.G. (1983), Design and Analysis of Simulated Consumer Choice or Allocation Experiments: An Approach Based on Aggregate Data, in: Journal of Marketing Research, Vol. 20, 1983, S. 350-367. Luce, R.D. (1959), Individual Choice Behavior, New York 1959. Luce, R.D./Suppes, P. (1965), Preference, utility, and subjective probability, in: Luce, R.D./Bush, R./Galanter, E. (Hrsg.), Handbook of Mathematical Psychology, New York 1965, S. 249-265. Luce, R.D./Tukey, J.W. (1964), Simultaneous Conjoint Measurement: A New Type of Fundamental Measurement, in: Journal of Mathematical Psychology, Vol. 1, No. 1, 1964, S. 1-27. Luck, H.E. (1974), Testen und Messen von Eigenschaften und Einstellungen, in: Koolwijk, J.v./Wieken-Mayser, M. (Hrsg.), Techniken der empirischen Sozialforschung, Testen und Messen, Munchen 1974, S. 77-102. Lynch Jr, J.G. (1982), On the External Validity of Experiments in Consumer Research, in: Journal of Consumer Research, Vol. 9, No. 3, 1982, S. 225-239. Madansky, A. (1980), On Conjoint Analysis and Quantal Choice Models, in: Journal of Business, Vol. 53, No. 3, 1980, S. S37-S44. Malhotra, N.K. (1983), A Comparison of the Predictive Validity of Procedures for Analyzing Binary Data, in: Journal of Business & Economic Statistics, Vol. 2, No. 1, 1983, S. 326336. Malhotra, N.K. (1984), The Use of Linear Logit Models in Marketing Research, in: Journal of Marketing Research, Vol. 21, 1984, S. 20-32. Manrai, A.K./Andrews, R.L. (1998), Two stage discrete choice-models for scanner panel data: An assessment of process and assumptions, in: European Journal of Operational Research, Vol. I l l , 1998, S. 193-215. Manski, C.F. (1977), The Structure of Random Utility Models, in: Theory and Decision, Vol. 8, 1977, S. 229-254. Marschak, J. (1960), Binary Choice Constraints on Random Utility Indicators, in: K., A. (Hrsg.), Stanford Symposium on Mathematical Methods in the Social Sciences, Stand234
ford, CA 1960,8.312-329. Mayer, H./Boor, W. (1988), Familie und Konsumentenverhalten, in: Jahrbuch der Absatz- und Verbrauchsforschung, Vol. 34, No. 2, 1988, S. 120-153. Mazanec, J.A. (1976), Die Schatzung des Beitrags einzelner Produkteigenschaften zur Markenpraferenz als Problem der Polynomialen Verbundmessung: Ein Demonstrationsbeispiel fur Zinsertrag und Bindungsdauer als Haupteigenschaften von Sparformen, Arbeitspapier 6, Wien 1976. McCullough, D. (2002), A User's Guide to Conjoint Analysis, in: Marketing Research, Vol. 14, No. 2, 2002, S. 19-23. McCullough, D. (k.A.), Trade-Off Study Sample Size: How Long Can We Go?; Online im Internet:
235
Melles, TJHolling, H. (1998), Einsatz der Conjoint-Analyse in Deutschland. Eine Befragung von Anwendem, unveroffentlichter Ergebnisbericht des Psychologischen Instituts IV der Westfalischen Wilhelms-Universitat, Munster 1998. Mengen, A./Simon, H. (1996), Produkt- und Preisgestaltung mit Conjoint Measurement, in: Das Wirtschaftsstudium, Vol. 25, No. 3, 1996, S. 229-236. Mengen, A./Tacke, G. (1995), Methodengestiitztes Automobil-Pricing mit Conjoint Measurement, in: Reuss, H. (Hrsg.), Wettbewerbsvorteile im Automobilhandel: Strategien und Konzepte fur ein erfolgreiches Vertragshandler-Management, Frankfurt a.M. u.a. 1995, S. 220-240. Meyer, RJ./Johnson, EJ. (1989), Information overload and the nonrobustness of linear models: a comment on Keller and Staelin, in: Journal of Consumer Research, Vol. 15, 1989, S. 498-503. Montgomery, D.B./Wittink, D.R. (1980), The Predictive Validity of Conjoint Analysis for Alternative Aggregation Schemes, in: Montgomery, D.B./Wittink, D.R. (Hrsg.), Market Measurement and Analysis: Proceedings of ORSA/TMS Special Interest Conference, Cambridge, MA 1980, S. 298-308. Montgomery, H. et al. (1994), The Judgment-Choice Discrepancy: Noncompatibility or Restructuring?, in: Journal of Behavioral Decision Making, Vol. 7, 1994, S. 145-155. Moore, W.L/Gray-Lee, J./Louviere, J.J. (1998), A Cross-Validity Comparison of Conjoint Analysis and Choice Models at Different Levels of Aggregation, in: Marketing Letters, Vol.9,No.2, 1998,8.195-207. Moore, W.L./Pessemier, E.A./Lehmann, D.R. (1986), Hierarchical Representations of Market Structures and Choice Processes Through Preference Trees, in: Journal of Business Research, Vol. 14, 1986, S. 371-386. Morwitz, V.G./Johnson, E./Schmittlein, D. (1993), Does Measuring Intent Change Behavior?, in: Journal of Consumer Research, Vol. 20, No. 1, 1993, S. 46-61. Morwitz, V.G./Schmittlein, D. (1992), Using Segmentation to Improve Sales Forecasts Based on Purchase Intent: Which "Intenders" Actually Buy?, in: Journal of Marketing Research, Vol. 29, No. 4, 1992, S. 391-405. Morwitz, V.G./Steckel, J.H./Gupta, A. (1997), When Do Purchase Intentions Predict Sales?, Marketing Science Institute, Cambridge 1997. Muehling, D.D./Laczniak, R.N./Andrews, JC. (1993), Defining, Operationalizing, and Using Involvement in Advertising Research: A Review, in: Journal of Current Issues and Research in Advertising, Vol. 15, No. 1, 1993, S. 21-57. Muhlbacher, H. (1982), Selektive Werbung, Linz 1982. Mailer, S./Kesselmann, P. (1994), Die Preisbereitschaft von Konsumenten bei umweltfreundlich verpackten Produkten - Ergebnisse einer Conjoint-Analyse, in: Zeitschrift fiir betriebswirtschaftliche Forschung, 46. Jg., H. 3, 1994, S. 260-278. Muller-Hagedorn, L. (1986), Das Konsumentenverhalten, Wiesbaden 1986. Muller-Hagedorn, L./Sewing, E./Toporowski, W. (1993), Zur Validitat von Conjoint236
Analysen, in: Zeitschrift fiir betriebswirtschaftliche Forschung, 45. Jg., H. 2, 1993, S. 123-148. Nape, S. et al. (2003), Hypothetical Bias and Willingness to accept, in: Economic Letters, Vol. 78, 2003, S. 423-430. Narayana, C.L/Markin, R.J. (1975), Consumer Behavior and Product Performance: An Alternative Conceptualization, in: Journal of Marketing, Vol. 39, 1975, S. 1-6. Natter, M./Feurstein, M. (2001a), Real World Performance of Choice-Based Conjoint Models; Online im Internet: (Abfrage am: 24.02.). Natter, M./Feurstein, M. (2001b), Correcting for CBC Model Bias: A Hybrid Scanner Data Conjoint Model; Online im Internet: (Abfrage am: 24.02.). Natter, M./Feurstein, M./Kehl, L. (1999), Forecasting Scanner Data by Choice-Based Conjoint Models in: Proceedings of the 1999 Sawtooth Software Conference, February 25; Online im Internet: (Abfrage am: 30.09.). Naylor, T.H./Finger, J.M. (1967), Verification of computer simulation models, in: Management Science, Vol. 14, No. 3, 1967, S. B-92-B-101. Nedungadi, P. (1990), Recall and Consumer Consideration Sets: Influencing Choice Without Altering Brand Evaluations, in: Journal of Consumer Research, Vol. 17, No. 3, 1990, S. 263-276. Neibecker, B. (1985), Konsumentenemotionen: Messung durch computergestiitzte Verfahren, Wiirzburg, Wien 1985. Neill, H.R. et al. (1994), Hypothetical Surveys and Real Economic Commitments, in: Land Economics, Vol. 70, No. 2, 1994, S. 145-154. Newell, A./Simon, H.A. (1972), Human Problem Solving, Englewood Cliffs, NJ 1972. Nieschlag, R./Dichtl, E./Horschgen, H. (2002), Marketing, 18. Aufl., Berlin 2002. Nunnally, J.C./Bernstein, I.H. (1994), Psychometric theory, 3. Aufl., New York u.a. 1994. Oliphant, K. et al. (1992), Cross-Task Comparison of Ratings-Based and Choice-Based Conjoint, in: Metegrano, M. (Hrsg.), Proceedings of the Sawtooth Software Conference, Ketchum 1992, S. 383-404. Olsen, G.D./Swait, J. (1993), The Importance of Nothing, Working Paper, The University of Calgary, Calgary 1993. Olshavsky, R.W. (1985), Perceived Quality in Consumer Decision Making: An Integrated Theoretical Perspective, in: Jacoby, J./Olson, J.C. (Hrsg.), Perceived Quality - How Consumers View Stores and Merchandise, Lexington 1985, S. 3-30. Olshavsky, R.W./Granbois, D.H. (1979), Consumer Decision Making - Fact or Fiction?, in: Journal of Consumer Research, Vol. 6, 1979, S. 93-100.
237
Onken, JJHastie, R./Revelle, W. (1985), Individual differences in the use of simplification strategies in a complex decision-making task, in: Journal of Experimental Psychology: Human Perception Performance, Vol. 11, 1985, S. 14-27. Orme, B. (2000), Hierarchical Bayes: Why All the Attention?; Online im Internet: (Abfrage am 11.12.2004). Orme, B. (2003), Introduction to Market Simulators for Conjoint Analysis, Sawtooth Software Research Paper Series, Sequim, WA 2003. Orme, B./Huber, J. (2(X)0), Improving the Value of Conjoint Simulations, in: Marketing Research, Vol. 12, No. 4, 2000, S. 12-21. Otter, T. (2001), Conjointanalyse zur Messung und Erklarung von Markenwert, Wien 2001. Parkinson, T.L/Reilly, M. (1979), An Information Processing Approach to Evoked Set Formation, in: Advances in Consumer Research, Vol. 6, 1979, S. 227-231. Payne, J. W. (1982), Contingent Decision Behavior, in: Psychological Bulletin, Vol. 92, No. 2, 1982, S. 382-402. Payne, J.W./Bettman, J.RJJohnson, EJ. (1988), Adaptive Strategy Selection in Decision Making, in: Journal of Experimental Psychology: Learning, Memory, and Cognition, Vol. 14, No. 3, 1988, S. 534-552. Payne, J.W./Bettman, J.R./Johnson, E.J. (1992), A Constructive Processing Perspective, in: Annual Review of Psychology, Vol. 43, 1992, S. 87-131. Payne, J.W./Bettman, J.R./Schkade, D.A. (1999), Measuring Constructed Preferences: Towards a Building Code, in: Journal of Risk and Uncertainty, Vol. 19, No. 1-3, 1999, S. 243-270. Perkins, W.S./Roundy, J. (1993), Discrete Choice Surveys by Telephone, in: Journal of the Academy of Marketing Science, Vol. 21, No. 1, 1993, S. 33-38. Perrey, J. (1996), Erhebungsdesigneffekte bei der Conjoint-Analyse, in: Marketing ZFP, H. 2, 1996, S. 105-116. Perrey, J. (1998), Nutzenorientierte Marktsegmentierung - Ein integrativer Ansatz zum Zielgruppenmarketing im Verkehrsdienstleistungsbereich, Wiesbaden 1998. Peter, J.P. (1979), Reliability: A review of psychometric basics and recent marketing practices, in: Journal of Marketing Research, Vol. 16, 1979, S. 6-17. Pinnell, J./Englert, S. (1997), The Number of Choice Alternatives in Discrete Choice Modelling, in: Metegrano, M. (Hrsg.), Proceedings of the Sawtooth Software Conference, Ketchum 1997, S. 121-153. Plinke, W. (1995), Grundlagen des Marktprozesses, in: Kleinaltenkamp, M./Plinke, W. (Hrsg.), Technischer Vertrieb, Berlin u.a. 1995, S. 3-95. Poiesz, T.B.C./Cees, J.P./de Bont, M. (1995), Do We Need Involvement to Understand Consumer Behavior?, in: Advances in Consumer Research, Vol. 22, No. 25, 1995, S. 448451. Poirier, D.J. (1996), A Bayesian analysis of nested logit models, in: Journal of Econometrics, 238
Vol. 75, 1996, S. 163-181. Popper, K.R. (1959), The Logic of Scientific discovery. New York 1959. Pras, B. (1978), Explaining Consumer Decision Making through Evaluation Process Models, in: Topritzhofer, E. (Hrsg.), Marketing: Neue Ergebnisse aus Forschung und Praxis, Wiesbaden 1978, S. 145-161. Pullman, M.E./Dodson, KJ./Moore, W.L (1999), A Comparison of Conjoint Methods When There Are Many Attributes, in: Marketing Letters, Vol. 10, 1999, S. 1-14. Pullman, M.E./Moore, W.L/Wardell, D.G. (2002), A comparison of quality function deployment and conjoint analysis in new product design, in: The Journal of Product Innovation Management, Vol. 19, 2002, S. 354-364. Punj, G.N./Staelin, R. (1978), The Choice Process for Graduate Business Schools, in: Journal of Marketing Research, Vol. 15, 1978, S. 588-598. Quandt, R.E. (1968), Estimation of Modal Splits, in: Transportation Research, Vol. 2, 1968, S. 41-50. Ramaswamy, V. (2001), Latent class models for conjoint analysis, in: Gustafsson, A./Herrmann, AJHuber, F. (Hrsg.), Conjoint Measurement, Berlin u.a. 2001, S. 361392. Ramaswamy, V./Cohen, S.H. (2003), Latent class models for conjoint analysis, in: Gustafsson, A./Herrmann, AJHuber, F. (Hrsg.), Conjoint Measurement, Berlin u.a. 2003, S. 441472. Ramaswamy, V./DeSarbo, W.S. (1990), SCULPTURE: A New Methodology for Deriving and Analyzing Hierarchical Product-Market Structures From Panel Data, in: Journal of Marketing Research, Vol. 27, 1990, S. 418-427. Rao, V.RJGautschi, D.A. (1982), The Role of Price in Individual Utility Judgments: Development and Empirical Validation of Alternative Models, in: McAlister, L. (Hrsg.), Choice Models for Buyer Behaviour, Research in Marketing, Supplement 1, Greenwich 1982, S. 57-80. Rao, V.RJSolgaard, H.S. (1978), An Empirical Evaluation of Alternative Multiattribute Utility Models, in: Research Frontiers in Marketing: Dialogues and Directions, Vol. 43, 1978, S. 27-31. Reibstein, D./Bateson, J.E.G./Boulding, W. (1988), Conjoint Analysis Reliability: Empirical Findings, in: Marketing Science, Vol. 7, No. 3, 1988, S. 271-286. Reichenbach, H. (1951), The Rise of Scientific Discovery, Berkeley 1951. Renken, T. (1997), Disaggregate Discrete Choice, in: Marketing Research, Vol. 9, No. 1, 1997, S. 18-22. Rossi, P.E./Allenby, G.M. (2003), Bayesian statistics and marketing, in: Marketing Science, Vol. 22, No. 3, 2003, S. 304-328. Sabel, H (1977), Marktforschung und Produktgestaltung, in: Behrens, K.C.H (Hrsg.), Handbuch der Marktforschung, 2. Halbband, Wiesbaden 1977, S. 901-923.
239
Samuelson, P.A. (1938), A Note on the Pure Theory of Consumer's Behaviour, in: Economica, Vol. 5, 1938, S. 61-71. Sdndor, Z./Wedel, M. (2001), Designing Conjoint Choice Experiments Using Managers' Prior Beliefs, in: Journal of Marketing Research, Vol. 38, 2001, S. 430-444. Sattler, H. (1994), Die Validitat von Produkttests, in: Marketing ZFP, 16. Jg., H. 1, 1994, S. 31-41. Sattler, H./Gedenk, K./Hensel-Borner, S. (2002), Bandbreiten-Effekte bei multiattributiven Entscheidungen: Ein empirischer Vergleich von Verfahren zur Bestimmung von Eigenschaftsgewichten, in: Zeitschrift fur Betriebswirtschaft, 72. Jg., H. 9, 2002, S. 953-977. Sattler, H./Hensel-Borner, S. (2001), A Comparison of Conjoint Measurement with SelfExplicated Approaches, in: Gustafsson, A./Herrmann, A./Huber, F. (Hrsg.), Conjoint Measurement, Beriin u.a. 2001, S. 121-133. Sattler, H./Hensel-Borner, S./Kriiger, B. (2001), Die Abhangigkeit der Validitat von ConjointStudien von demographischen Probanden-Charakteristika: Neue empirische Befunde, in: Zeitschrift fur Betriebswirtschaft, 71. Jg., H. 7, 2001, S. 771-787. Sattler, H/Nitschke, T. (2001), Ein empirischer Vergleich von Instrumenten zur Erhebung von Zahlungsbereitschaften, Research Papers on Marketing and Retailing, No. 1, Hamburg 2001. Sattler, H/Nitschke, T. (2003), Ein empirischer Vergleich von Instrumenten zur Erhebung von Zahlungsbereitschaften, in: Zeitschrift fiir betriebswirtschaftliche Forschung, Vol. 55,2003,8.364-381. Sawtooth (1999), The CBC/HB Module for Hierarchical Bayes Estimation; Sequim, WA 1999. Sawtooth (2003), CBC Hierarchical Bayes Analysis: Technical Paper (Version 3.1), Sequim, WA 2003. Sawtooth (o.A.), CBC Hierarchical Bayes Analysis: Technical Paper (Version 3.0), Sequim, WA. Scharf, A. (1991), Konkurrierende Produkte aus Konsumentensicht, Frankfurt a.M. 1991. Scharf, A./Schubert, BJVolkmer, H-P. (1997), Konzepttests mittels bildgestiitzter ChoiceBased Conjointanalyse, in: planung & analyse, Nr. 5, 1997, S. 24-28. Schellinck, D.A. (1983), Cue choice as a function of time pressure and perceived risk, in: Advances in Consumer Research, Vol. 10, 1983, S. 470-475. Schneider, C. (1997), Praferenzbildung bei Qualitatsunsicherheit: das Beispiel Wein, Berlin 1997. Schnell, R./Hill, P.BJEsser, E. (1999), Methoden der empirischen Sozialforschung, 6. Aufl., Miinchen u.a. 1999. Schubert, B. (1991), Entwicklung von Konzepten fur Produktinnovationen mittels ConjointAnalyse, Stuttgart 1991. Schwarz, G. (1978), Estimating the Dimension of a Model, in: Annals of Statistic, Vol. 6, 1978, S. 461-464. 240
Schweikl, H. (1985), Computergestlitzte Praferenzanalyse mit individuell wichtigen Produktmerkmalen, Berlin 1985. Scott, J.E./Keiser, S.K. (1984), Forecasting Acceptance of New Industrial Products with Judgment Modeling, in: Journal of Marketing, Vol. 48, 1984, S. 54-67. Seip, K./Strand, J. (1992), Willingness to Pay for Environmental Goods in Norway: A Contingent Valuation Study with Real Payment, in: Environmental and Resource Economics, Vol. 2, 1992, S. 91-106. Sensch, J. (1987), Okonometrische Modelle mit qualitativen abhangigen Variablen, Bielefeld 1987. Shannon, R.E. (1975), Systems Simulation: the Art and Science, Englewood Cliffs, NJ 1975. Sheluga, D.A./Jaccard, J./Jacoby, J. (1979), Preference, Search, and Choice: An Integrative Approach, in: Journal of Consumer Research, Vol. 6, 1979, S. 166-176. Sheth, J.N. (1974), Models of Buyer Behavior, New York 1974. Sheth, J.N./Raju, P.S. (1979), Wahlentscheidungen und ProzeBmodelle des Informationsverhaltens von Konsumenten, in: Meffert, H./Steffenhagen, H./Freter, H. (Hrsg.), Konsumentenverhalten und Information, Wiesbaden 1979, S. 147-159. Shields, M.D. (1983), Effects of information supply and demand on judgment accuracy: evidence from corporate managers, in: Accounting Review, Vol. 58, 1983, S. 284-303. Shocker, A.D. et al. (1991), Consideration Set Influences on Consumer Decision-Making and Choice: Issues, Models, and Suggestions, in: Marketing Letters, Vol. 2, No. 3, 1991, S. 181-197. Shocker, A.D./Srinivasan, V. (1979), Multiattribute Approaches for Product Concept Evaluation and Generation: A Critical Review, in: Journal of Marketing Research, Vol. 16, 1979, S. 158-180. Simon, H. (1992), Preismanagement, 2. Aufl., Wiesbaden 1992. Simon, H. (1994), Was ist dem Kunden Leistung wert?, in: absatzwirtschaft, H. 2, 1994, S. 74-77. Simon, H./Kucher, E. (1988), Die Bestimmung empirischer Preisabsatzfunktionen, in: Zeitschrift fur Betriebswirtschaft, 58. Jg., H. 1, 1988, S. 171-183. Simon, H.A. (1955), A behavioral model of rational choice, in: Quarterly Journal of Ecomometrics. Vol. 69, February, 1955, S. 99-118. Simonson, I./Tversky, A. (1992), Choice in Context: Tradeoff Contrast and Extremeness Aversion, in: Journal of Marketing Research, Vol. 29, No. 3, 1992, S. 281-295. Skiera, B./Gensler, S. (2002), Berechnung von Nutzenfunktionen und Marktsimulationen mit Hilfe der Conjoint-Analyse (Teil I), in: Wirtschaftswissenschaftliches Studium, H. 4, 2002, S. 200-263. Skiera, B./Revenstorff, I. (1999), Auktionen als Instrument zur Erhebung von Zahlungsbereitschaften, in: Zeitschrift fiir betriebswirtschaftliche Forschung, 51. Jg., H. 3, 1999, S. 224-242.
241
Skrondal, A. (2000), Design and Analysis of Monte Carlo Experiments: Attacking the Convential Wisdom, in: Multivariate Behavioral Research, Vol. 35, No. 2, 2000, S. 137-167. Slavic, P. (1995), The Construction Preference, in: American Psychologist, Vol. 50, No. 5, 1995,8.364-371. Smead, RJJWilcox, J.B./Wilkes, R.B. (1981), How Valid Are Product Descriptions and Protocols in Choice Experiments?, in: Journal of Consumer Research, Vol. 8, 1981, S. 37-42. Smith, A.F.M. (1993), Bayesian Computation via the Gibbs Sampler and Related Markov Chain Monte Carlo Methods, in: Journal of the Royal Statistical Society, Series B, Vol. 55, No. 1, 1993, S. 3-23. Snyder, M. (1972), Individual Differences and the Self-Control of Expressive Behavior, Stanford 1972. Srinivasan, V. (1975), Linear Progranmiing Computational Procedures for Ordinal Regression, in: Journal of the Association for Computing Machinery, Vol. 23, 1975, S. 475487. Srinivasan, V. (1982), Comments on the Role of Price in Individual Utility Judgements, in: McAlister, L (Hrsg.), Choice Models for Buyer Behaviour, Research in Marketing, Supplement 1, Greenwich 1982, S. 81-90. Srinivasan, V./deMaCarty, P. (1998), An Alternative Approach to the Predictive Validation of Conjoint Models, Research Paper No. 1483, Stanford 1998. Srinivasan, V./deMaCarty, P. (2000), Predictive Validation of Multiattribute Choice Models, in: Marketing Research, Vol. 11, No. 4, 2000, S. 29-34. Srinivasan, V. et al (1981), Forecasting the Effectiveness of Work-Trip Gasoline Conservation Policies through Conjoint Analysis, in: Journal of Marketing, Vol. 45, 1981, S. 157172. Srinivasan, V./Jain, A.KJMalhotra, N.K. (1983), Improving Predictive Power of Conjoint Analysis by Constrained Parameter Estimation, in: Journal of Marketing Research, Vol. 20, 1983, S. 433-438. Srinivasan, V./Shocker, A.D. (1973), Linear Programming Techniques for Multidimensional Analysis of Preferences, in: Psychometrika, Vol. 38, No. 3, 1973, S. 337-369. Stadie, E. (1998), Medial gestiitzte Limit Conjoint-Analyse als Innovationstest fiir technologische Basisinnovationen, Miinster u.a. 1998. Stallmeier, C. (1993), Die Bedeutung der Datenerhebungsmethode und des Untersuchungsdesigns fiir die Ergebnisstabilitat der Conjoint-Analyse, Regensburg 1993. Steenkamp, J.-B. (1994), The metric quality of full-profile judgements and the number-ofattribute-levels effect in conjoint analysis, in: International Journal of Research in Marketing, Vol. 11, 1994, S. 275-286. Steiner, WJ./Hruschka, H. (2000), Conjointanalyse-basierte Produkt(linien)gestaltung unter Berucksichtigung von Konkurrenzreaktionen, in: OR Spektrum, Vol. 22, S. 71-95, 2000, Sunderstrom, G.A. (1987), Information search and decision making: the effects of information displays, in: Acta Psychologica, Vol. 65, 1987, S. 165-179. 242
Svenson, O./Edland, A. (1987), Changes of preferences under time pressure: choices and judgements, in: Scandinavian Journal of Psychology, Vol. 28, 1987, S. 322-330. Swait, J./Adamowicz, W./Hanemann, M.e.a. (2002), Context Dependence and Aggregation in Disaggregate Choice Analysis, in: Marketing Letters, Vol. 13, No. 3, 2002, S. 195-205. Swait, J./Andrews, R.L (2(X)3), Enriching Scanner Panel Models with Choice Experiments, in: Marketing Science, Vol. 22, No. 4, 2003, S. 442-460. Swait, J./Louviere, C.H. (1993), The Role of the Scale Parameter in the Estimation and Comparison of Multinominal Logit Models, in: Joumal of Marketing Research, Vol. 30, 1993, S. 305-314. Tauber, E.M. (1977), Predictive Validity in Consumer Research, in: Joumal of Advertising Research, Vol. 15, No. 5, 1977, S. 59-64. Teichert, T. (1994), Zur Validitat der in Conjoint-Analysen ermittelten Nutzenwerte, in: Zeitschrift fur betriebswirtschaftliche Forschung, 46. Jg., H. 7/8, 1994, S. 610-629. Teichert, T. (1998), Schatzgenauigkeit von Conjoint-Analysen, in: Zeitschrift ftir Betriebswirtschaft, 68. Jg., H. 11, 1998, S. 1245-1266. Teichert, T (2001a), Nutzenschatzung in Conjoint-Analysen, Wiesbaden 2001a. Teichert, T (2001b), Nutzenermittlung in wahlbasierter Conjoint-Analyse: Ein Vergleich von Latent-Class- und hierarchischem Bayes-Verfahren, in: Zeitschrift fiir betriebswirtschaftliche Forschung, 53. Jg., 2001b, S. 798-822. Teichert, T (2000), Conjoint-Analyse, in: Herrmann, A./Homhurg, C. (Hrsg.), Marktforschung, Wiesbaden 2000, S. 471-511. Theil, H. (1970), On the Estimation of Relationships Involving Qualitative Variables, in: American Joumal of Sociology, Vol. 76, 1970, S. 103-154. Theuerkauf, I. (1989), Kundennutzenmessung mit Conjoint, in: Zeitschrift fiir Betriebswirtschaft, 59. Jg., H. 11, 1989, S. 1179-1192. Thomas, L (1979), Conjoint Measurement als Instmment der Absatzforschung, in: Marketing ZFP,Nr. 1,1979,S. 199-211. Thomas, L (1983), Der EinfluB von Kindem auf die Produktpraferenzen ihrer Mutter, Berlin 1983. Tiede, M. (1995), Statistische Logit-Analyse: Fine Orientiemngshilfe fiir die Verwendung des binaren Logit-Modells, Diskussionspapier Nr. 95-3, Fakultat fiir Sozialwissenschaft der Ruhr-Universitat Bochum, Bochum 1995. Titterington, D.MJSmith, A.F.M./Makov, U.E. (1985), Statistical Analysis of Finite Mixture Distributions, New York 1985. Topritzhofer, E. (1974), Absatzwirtschaftliche Modelle des Kaufentscheidungsprozesses, Wien 1974. Toubia, O./Hauser, J.RJSimester, D.I. (2004), Polyhedral Methods for Adaptive ChoiceBased Conjoint Analysis, in: Joumal of Marketing Research, Vol. 41, 2004, S. 116-131. Toubia, O. et al. (2003), Fast Polyhedral Adaptive Conjoint Estimation, in: Marketing Science, Vol. 22, No. 3, 2003, S. 273-303. 243
Toutenburg, H. (1992), Modeme nichtparametrische Verfahren der Risikoanalyse, Heidelberg 1992. Train, K. (2003), Discrete Choice methods with simulation, Cambridge 2003. Trommsdorff, V. (2003), Konsumentenverhalten, 4. Aufl., Stuttgart 2003. Trommsdorff, V. (1995), Involvement, in: Tietz, BJKohler, T.R. (Hrsg.), Handworterbuch des Marketing, 1995, S. 1067-1078. Trommsdorff, V./Bleicker, U./Hildebrandt, L. (1980), Nutzen und Einstellung, in: Wirtschaftswissenschaftliches Studium, 9. Jg., H. 6, 1980, S. 269-276. Tscheulin, D.K. (1991), Ein empirischer Vergleich der Eignung von Conjoint-Analyse und "Analytic Hierarchy Process" (AHP) zur Neuproduktplanung, in: Zeitschrift fur betriebswirtschaftliche Forschung, 61. Jg., H. 11, 1991, S. 1267-1280. Tscheulin, D.K. (1992), Optimale Produktgestaltung: Erfolgsprognose mit Analytic Hierarchy Process und Conjoint-Analyse, Wiesbaden 1992. Tscheulin, D.K. (1996), Determinanten der Validitat der Conjoint-Analyse, in: von Ahsen, A./Czenskowsky, T. (Hrsg.), Marketing und Marktforschung: Entwicklungen, Erweiterungen und Schnittstellen im nationalen und internationalen Kontext, Hamburg 1996, S. 585-598. Tscheulin, D.K/Blaimont, C. (1993), Die Abhangigkeit der Prognosegiite von ConjointStudien von demographischen Probanden-Charakteristika, in: Zeitschrift fiir Betriebswirtschaft, 63. Jg., H. 8, 1993, S. 839-847. Tversky, A. (1972), Elimination by Aspects: A Theory of Choice, in: Psychological Review, Vol. 79, 1972,8.281-299. Tversky, A./Sattath, S./Slovic, P. (1988), Contingent Weighting in Judgment and Choice, in: Psychological Review, Vol. 95, No. 3, 1988, S. 371-384. Tversky, A./Shafir, E. (1992), Choice under Conflict: The Dynamics of Deferred Decision, in: Psychological Science, Vol. 6, 1992, S. 358-361. Tversky, A./Simonson, I. (1993), Context-dependent preferences, in: Management Science, Vol. 39, No. 10, 1993, S. 1179-1189. Umesh, U.N./Mishra, S. (1990), A Monte Carlo Investigation of Conjoint Analysis Index-OfFit: Goodness of Fit, Significance and Power, in: Psychometrika, Vol. 55, No. 1, 1990, S. 33-44. Untiedt, G. (1992), Das Erwerbsverhalten verheirateter Frauen in der Bundesrepublik Deutschland: eine mikrookonomische Untersuchung, Heidelberg 1992. Urban, D. (1989), Binare LOGIT-Analyse: ein statistisches Verfahren zur Bestimmung der Abhangigkeitsstruktur qualitativer Variablen, Duisburger Beitrage zur Soziologischen Forschung, Nr. 3/1989, Duisburg 1989. Urban, D. (1993), Logit-Analyse: statistische Verfahren zur Analyse von Modellen mit qualitativen Response-Variablen, Stuttgart u.a. 1993. Urbany, J.E./Dickson, P.R. (1990), Prospect Theory and Pricing Decisions, in: Journal of Behavioral Economics, Vol. 19, No. 1, 1990, S. 69-80. 244
Ursic, M.L/Helgeson, J.G. (1990), The Impact of Choice Phase and Task Complexity on Consumer Decision Making, in: Journal of Business Research, Vol. 21, 1990, S. 69-90. van der Lans, I.A./Heiser, W.J. (1992), Constrained Part-Worth Estimation in Conjoint Analysis Using the Self-Explicated Utility Model, in: International Journal of Research in Marketing, Vol. 9, 1992, S. 325-344. van Horn, R.L. (1971), Validation of simulation results, in: Management Science, Vol. 17, No. 5, 1971, S. 247-258. van Raaij, W.F. (1981), Economic Psychology, in: Journal of Economic Psychology, Vol. 1, 1981, S. 1-24. van Raaij, W.F. (1988), Information Processing and Decision making: Cognitive Aspects of Economic Behaviour, in: van Raaij, W.F./van Veldhoven, G.M./Wdrneryd, K.E. (Hrsg.), Handbook of Economic Psychology, Dordrecht 1988, S. 74-106. Verhoef, P.C./Franses, P.H. (2002), On combining revealed and stated preferences to forecast customer behavior: three case studies. Econometric Institute Report 2002-04, Rotterdam 2002. Verhoef, P.C./Franses, P.H. (2003), Combining revealed and stated preferences to forecast customer behaviour: Three case studies, in: International Journal of Market Research, Vol. 45, 2003, S. 467-474. Verlegh, P.W.J./Schifferstein, HN.J./Wittink, D.R. (2002), Range and Number-of-Levels Effects in Derived and Stated Measures of Attribute Importance, in: Marketing Letters, Vol. 13, No. 1, 2002, S. 41-52. Voeth, M. (1999), 25 Jahre conjointanalytische Forschung in Deutschland, in: Zeitschrift fiir Betriebswirtschaft, Erganzungsheft, No. 2, 1999, S. 153-176. Voeth, M. (2000), Nutzenmessung in der Kaufverhaltensforschung, Wiesbaden 2000. Voeth, M. (2002), Gruppengiitermarketing - Einordnung und Konzeption, in: Marketing ZFP, 24. Jg., H. 2, 2002, S. 111-122. Voeth, M. (1998), Limit Conjoint-Analysis - a modification of the traditional Conjoint Analysis, in: Andersson, P. (Hrsg.), Proceedings of the 27th EMAC Conference "Marketing Research and Practice", Marketing Research (Bd. 5), Stockholm 1998, S. 315-331. Voeth, M./Hahn, C. (1998), Limit Conjoint Analyse, in: Marketing ZFP, H. 2, 1998, S. 119132. von Thaden, C. (2002), Conjoint-Analyse mit vielen Merkmalen: Monte Carlo-Untersuchung einer gebruckten Conjoint-Analyse, Frankfurt am Main u.a. 2002. Vriens, M. (1995), Conjoint Analysis in Marketing, Groningen 1995. Vriens, M. (2001), Market Segmentation - Analytical Developments and Application Guidelines, 2001. Vriens, M. et al. (1998), Verbal versus Realistic Pictorial Representations in ConjointAnalysis with Design Attributes, in: Journal of Product Innovation Management, Vol. 15, 1998, S. 455-467.
245
Vriens, M./Oppewal, H./Wedel, M. (1998), Ratings-based versus choice-based latent class conjoint models - An empirical comparison, in: Journal of the Market Research Society, Vol. 40, No. 3, 1998, S. 237-249. Vriens, MJWedel, M./Wilms, T. (1992), Segmentation Methods for Metric Conjoint Analysis: A Monte Carlo Comparison, 1992. Vriens, M./Wedel, M./Wilms, T. (1996), Metric conjoint segmentation methods: a Monte Carlo comparison, in: Journal of Marketing Research, Vol. 33, 1996, S. 73-85. Wallsten, T.S./Barton, C. (1982), Processing probabilistic multidimensional information for decisions, in: Journal of Experimental Psychology: Learning, Memory, and Cognition, Vol.8, 1982, S. 361-384. Webster, F.E./Wind, Y.J. (1972), Organizational Buying Behavior, Englewood Cliffs, N. J. 1972. Wedel, M./DeSarbo, W.S. (1994), A Review of Recent Developments in Latent Regression Models, in: Bagozzi, R.P. (Hrsg.), Advanced Methods of Marketing Research, Cambridge 1994, S. 353-388. Wedel, M./Kamakura, W. (2000), Market Segmentation. Conceptual and Methodological Foundations, Boston u.a. 2000. Wedel, M. et al. (1999), Discrete and Continuous Representations of Unobserved Heterogeneity in Choice Modeling, in: Marketing Letters, Vol. 10, No. 3, 1999, S. 219-232. Wedel, M./Steenkamp, J.-B.E.M. (1991), A Clusterwise Regression Method for Simultaneous Fuzzy Market Structuring and Benefit Segmentation, in: Journal of Marketing Research, Vol. 28, No. 4, 1991, S. 385-396. Weiber, R./Rosendahl, T. (1997), Anwendungsprobleme der Conjoint-Analyse, in: Marketing ZFP, H. 2, 1997, S. 107-118. Weinberg, P. (1981), Das Entscheidungsverhalten der Konsumenten, Paderbom u.a. 1981. Weisenfeld, U. (1989), Die Einfliisse von Verfahrensvariationen und der Art des Kaufentscheidungsprozesses auf die Reliabilitat der Ergebnisse der Conjoint Analyse, Berlin 1989. Weiss, P.A. (1992), Die Kompetenz von Systemanbietem: ein neuer Ansatz im Marketing fiir Systemtechnologien, Berlin 1992. Wertenbroch, K./Skiera, B. (2002), Measuring Consumers' Willingness to Pay at the Point of Purchase, in: Journal of Marketing Research, Vol. 39, 2002, S. 228-241. Wesley, J.J./Bonoma, T.V (1981), The Buying Center: Structure and Interaction Patterns, in: Journal of Marketing, Vol. 45, 1981, S. 143-156. Wefiner, K. (1988), Prognoseverfahren als Instrumente zur Absicherung strategischer Marketingentscheidungen, in: Jahrbuch der Absatz- und Verbrauchsforschung, No. 3, 1988, S. 208-234. Wiley, J.B./Low, J.T. (1983), A Monte Carlo simulation study of two approaches for aggregating conjoint data, in: Journal of Marketing Research, Vol. 20, 1983, S. 405-416. Wiswede, G. (2000), Psychologic im Wirtschaftsleben, 3. Aufl., Stuttgart 2000. 246
Wittink, D./Cattin, P. (1981), Alternative Estimation Methods for Conjoint Analysis: A Monte Carlo Study, in: Journal of Marketing Research, Vol. 18, 1981, S. 101-106. Wittink, D./Vriens, M./Burhenne, W. (1994), Commercial Use of Conjoint Analysis in Europe: Results and Critical Reflections, in: International Journal of Research in Marketing, Vol. 11,1994,8.41-52. Wittink, D.R./Bergestuen, T. (2001), Forecasting with Conjoint Analysis, in: Armstrong, J.S. (Hrsg.), Principles of Forecasting: A Handbook for Researchers and Practitioners, Boston u.a. 2001, S. 147-167. Wittink, D.RJCattin, P. (1989), Commercial Use of Conjoint Analysis: An Update, in: Journal of Marketing, Vol. 53, 1989, S. 91-96. Wittink D.RJKrishnamurthi, L/Reibstein, D.J. (1989), The Effect of Differences in the Number of Attribute Levels on Conjoint Results, in: Marketing Letters, No. 1, 1989, S. 113123. Wittink, D.R./McLauchlan, W.G./Seetharaman, P.B. (1997), Solving the Number-ofAttribute-Levels Problem in Conjoint Analysis, in: Sawtooth (Hrsg.), Sawtooth Software Conference Proceedings, Sequim 1997, S. 227 - 240. Wittink, D.R./Montgomery, D.B. (1979), Predictive Validity of Trade-Off Analysis for Alternative Segmentation Schemes, in: Beckwith, N.et al (Hrsg.), 1979 Educators' Conference Proceedings, Chicago 1979, S. 69-73. Wittink, D.R. et al. (1989), Conjoint Reliability Measures, in: Marketing Science, Vol. 8, No. 4, 1989, S. 371-374. Wong, J.K./Sheth, J.N. (1985), Explaining Intention - Behavior Discrepancy: A Paradigm, in: Hirschman, E.C./Holbrook, M.B. (Hrsg.), Advances in Consumer Research, Provo 1985, 5. 378-384. Wright, P. (1974), The hasard decision maker: Time pressures, distraction, and the use of evidence, in: Journal of Applied Psychology, Vol. 59, 1974, S. 555-561. Young, M.R./Lenk, P.J. (1998), Hierarchical Bayes methods for multifactor model estimation and portfolio selection, in: Management Science, Vol. 44, No. 11, 1998, S. SI 11-S124. Zacharias, R. (1998), Was ist dem Kunden die Leistung wert?, in: absatzwirtschaft, Vol. 40, 1998, S. 102-105. Zaichkowsky, J.L. (1985), Measuring the Involvement Construct, in: Journal of Consumer Research, Vol. 12, 1985, S. 341-352. Zakay, D. (1985), Post-decisional confidence and conflict experienced in a choice process, in: Acta Psychologica, Vol. 58, 1985, S. 75-80. Zeithaml, V.A. (1988), Consumer Perceptions of Price, Quality and Value: A Means-End Model and Sythesis of Evidence, in: Journal of Marketing, Vol. 52, No. 3, 1988, S. 222. Zwerina, K. (1997), Discrete Choice Experiments in Marketing, Heidelberg, New York 1997.
247